Você está na página 1de 49

JCABarata.

Curso de Fsica-Matem
atica

Captulo 8

T
opicos de Algebra
Linear. I

8.3
8.4
8.5

8.6
8.7

8.8

8.9

8.10
8.11

8.12

Propriedades B
asicas de Determinantes e Inversas de Matrizes . . . . . .
No
co
es B
asicas sobre o Espectro de uma Matriz . . . . . . . . . . . . . . .
8.2.1 Autovalores e Polin
omios Caractersticos de Matrizes . . . . . . . . . . . . .
8.2.2 Autovetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.2.3 O Traco de uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.2.3.1 Algumas Relaco
es entre Determinantes e Tracos de Matrizes . . . . .
Polin
omios de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3.1 O Teorema de Hamilton-Cayley . . . . . . . . . . . . . . . . . . . . . . . . .
Matrizes Diagonaliz
aveis e o Teorema Espectral . . . . . . . . . . . . . . .
8.4.1 Diagonalizaca
o Simult
anea de Matrizes . . . . . . . . . . . . . . . . . . . . .
Matrizes Auto-Adjuntas, Normais e Unit
arias . . . . . . . . . . . . . . . .
8.5.1 Matrizes Positivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.5.2 O Teorema de Inercia de Sylvester. Superfcies Quadr
aticas . . . . . . . . .
Matrizes Triangulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
O Teorema de Decomposi
c
ao de Jordan e a Forma Can
onica de Matrizes
8.7.1 Resultados Preparat
orios . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.7.2 O Teorema da Decomposica
o de Jordan . . . . . . . . . . . . . . . . . . . . .
8.7.3 Matrizes Nilpotentes e sua Representaca
o Can
onica . . . . . . . . . . . . . .
8.7.4 A Forma Can
onica de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . .
Algumas Representa
co
es Especiais de Matrizes . . . . . . . . . . . . . . . .
8.8.1 A Decomposica
o Polar de Matrizes . . . . . . . . . . . . . . . . . . . . . . .
8.8.2 A Decomposica
o em Valores Singulares . . . . . . . . . . . . . . . . . . . . .
8.8.3 O Teorema da Triangularizaca
o de Schur . . . . . . . . . . . . . . . . . . . .
8.8.4 A Decomposica
o QR e a Decomposica
o de Iwasawa (KAN) . . . . . . . .
A Pseudo-Inversa de Moore-Penrose . . . . . . . . . . . . . . . . . . . . . .
8.9.1 Outras Propriedades da Pseudo-Inversa de Moore-Penrose . . . . . . . . . .
8.9.1.1 A Regularizaca
o de Tikhonov. Existencia . . . . . . . . . . . . . . . .
8.9.1.2 A Pseudo-Inversa de Moore-Penrose e o Teorema Espectral . . . . . .
8.9.2 A Pseudo-Inversa de Moore-Penrose e Problemas de Optimizaca
o Linear . .
8.9.3 Existencia e Decomposica
o em Valores Singulares . . . . . . . . . . . . . . .
Produtos Tensoriais de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . .
Propriedades Especiais de Determinantes . . . . . . . . . . . . . . . . . . .
8.11.1 Expans
ao do Polin
omio Caracterstico . . . . . . . . . . . . . . . . . . . . .
8.11.2 A Desigualdade de Hadamard . . . . . . . . . . . . . . . . . . . . . . . . . .
Exerccios Adicionais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

314/2070

Este captulo sera continuado no Captulo 9, pagina 410, onde outros aspectos de algebras de matrizes serao explorados.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

314
324
. 325
. 328
. 330
. 332
333
. 335
339
. 351
354
. 360
. 362
366
368
. 370
. 373
. 376
. 380
382
. 382
. 384
. 384
. 387
389
. 391
. 394
. 396
. 397
. 398
400
402
. 402
. 402
405

principal objetivo deste captulo e apresentar a demonstracao do Teorema Espectral para matrizes diagonaliz
aveis, em particular, para matrizes auto-adjuntas (resultado de grande relev
ancia para a Mec
anica Qu
antica)
e a demonstracao do Teorema de Decomposicao de Jordan. Sempre trabalharemos no contexto de espacos
vetoriais de dimens
ao finita Cn sobre o corpo dos complexos. A leitura deste captulo pressupoe que alguns

conceitos basicos de Algebra


Linear, tais como o conceito de matriz, de produto de matrizes, de determinante de uma
matriz, suas propriedades e metodos de calculo, sejam familiares ao leitor, mas uma breve revis
ao e apresentada na Secao
8.1. Na Secao 8.2, pagina 324, apresentamos a nocao de espectro e a de polin
omio caracterstico de uma matriz. Na Secao
8.5, pagina 354, introduzimos as nocoes de matrizes auto-adjuntas, normais e unit
arias, de import
ancia, por exemplo,

313

Captulo 8

na Mec
anica Qu
antica. Na Secao 8.8, pagina 382, apresentamos algumas representacoes de matrizes de interesse em
diversos contextos (por exemplo, na teoria de grupos). Na Secao 8.9, pagina 389, estudamos a chamada pseudo-inversa
de Moore-Penrose, de interesse, por exemplo, em problemas de optimizacao linear.

Conte
udo
8.1
8.2

Vers
ao de 18 de julho de 2013.

8.1

Propriedades B
asicas de Determinantes e Inversas de Matrizes

A presente secao desenvolve a teoria basica de inversas e determinantes de matrizes. Sua leitura pode, provavelmente,
ser dispensada por aqueles que julgam dispor desses conhecimentos basicos, mas a notacao que aqui introduzimos sera
empregada alhures. Propriedades mais avancadas de determinantes serao estudadas na Secao 8.11, pagina 402.
Fatos elementares sobre matrizes e alguma nota
c
ao

O conjunto de todas as matrizes mn (m linhas e n colunas) com entradas complexas sera denotado por Mat (C, m, n).
O conjunto de todas as matrizes quadradas n n com entradas complexas sera denotado simplesmente por Mat (C, n).
Uma matriz A Mat (C, m, n) e freq
uentemente representada na forma de um arranjo como

A11

.
.
A =
.

Am1

...

A1n

..
.

. . . Amn

Mat (C, m, n) e um espaco vetorial complexo, com a operacao de soma definida por
(A1 + A2 )ij := (A1 )ij + (A2 )ij ,
A1 , A2 Mat (C, m, n), i {1, . . . , m}, j {1, . . . , n}, e a operacao de multiplicacao por escalares (complexos)
definida por
(A)ij := Aij
C, A Mat (C, m, n) e i {1, . . . , m}, j {1, . . . , n}.

Sejam m, n, p N e sejam A Mat (C, m, n) e B Mat (C, n, p). Denotamos por AB a matriz de Mat (C, m, p)
cujos elementos sao dados por
n
X

Aik Bkj
(8.1)
AB ij :=
k=1

f
para todos i {1, . . . , m}, j {1, . . . , p}. A express
ao (8.1) e denominada regra de produto de matrizes. E
acil
constatar (faca-o!) que valem as propriedades distributivas
(1 A1 + 2 A2 )B

1 A1 B + 2 A2 B ,

A(1 B1 + 2 B2 ) =

1 AB1 + 2 AB2 ,

para todos 1 , 2 , 1 , 2 C, todas A, A1 , A2 Mat (C, m, n) e todas B, B1 , B2 Mat (C, n, p).


tambem f
E
acil constatar (faca-o!) que se m, n, p, q N valem para todas A Mat (C, m, n), B Mat (C, n, p)
e C Mat (C, p, q) a relacao
(AB)C = A(BC) .
Para cada n N, e com a operacao de produto definida acima, Mat (C, n) e uma algebra associativa, nao-comutativa

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

315/2070

(exceto se n = 1) e unital, com a unidade sendo dada pela matriz identidade, que denotaremos por 1 neste texto:

..
.

..
1 :=
.

Note-se que 1ij = ij , i, j {1, . . . , n}.

..
.
.

..
.
.

xa

Vamos tambem empregar as seguintes definicoes. Para m, n N, sejam Im, m+n Mat (C, m, m + n) e Jm+n, n
Mat (C, m + n, n) dadas por



1n
,
e
Jm+n, n :=
(8.3)
Im, m+n := 1m 0m, n

0m, n

1m
= Jm+n, m
(Im, m+n )T :=

0n, m

(Jm+n, n )T :=

1n 0n, m

= In, m+n .

(8.4)

As seguintes identidades u
teis serao usadas mais adiante e sua demonstracao (f
acil) e deixada como exerccio ao leitor:
Im, m+n (Im, m+n )T
T

(Jm+n, n ) Jm+n, n

(8.7)

Im, m+n Jm+n, m = 1m ,

(8.5)

In, m+n Jm+n, n = 1n ,

(8.6)

(8.8)

xa1

.
.
=
. .


xan

hh
ii
Denotaremos por x1 , . . . , xn a matriz n n construda de forma que sua a-esima coluna seja o vetor-coluna xa , ou
seja

x11

hh
ii
.
.
x1 , . . . , xn =
.

x1n

Denotaremos por 0a, b Mat (C, m, n) a matriz a b cujos elementos de matriz sao todos nulos. Denotaremos
por 1l Mat (C, l) a matriz identidade l l. Por vezes, quando nao houver perigo de confusao, poderemos omitir os
sub-ndices e escrever 0a, b simplesmente como 0 e 1l simplesmente como 1.

Sejam x1 , . . . , xn vetores, representados na base can


onica por vetores-coluna

Considerando os vetores da base can


onica

A mais popular dentre as matrizes diagonais e a matriz identidade (8.2): 1 = diag (1, . . . , 1).

cujas transpostas sao dadas por

0n, m

A = Im, m+n A Jm+n, n .

Uma tal matriz e dita ser diagonal pois apenas os elementos de sua diagonal principal sao eventualmente nao-nulos. Na
representacao usual

0n, n

Obtemos das relacoes (8.5)(8.6) que

Dado um conjunto de n n
umeros complexos 1 , . . . , n , denotaremos por diag (1 , . . . , n ) a matriz A Mat (C, n)
cujos elementos Aij sao definidos da seguinte forma:

i , se i = j
Aij =
.

0, se i 6= j

..

316/2070

0m, m

A
A := Jm+n, m AIn, m+n =

(8.2)

Dada uma matriz A Mat (C, m, n) denotamos por A a matriz de Mat (C, n, m) cujos elementos sao dados por
evidente
(AT )ij = Aji para todos i {1, . . . , n}, j {1, . . . , m}. A matriz AT e dita ser a matriz transposta de A. E
que (AT )T = A. Para todos m, n, p N vale, pela regra de produto de matrizes, a relacao (AB)T = B T AT para
quaisquer A Mat (C, m, n) e B Mat (C, n, p).

Captulo 8

Vers
ao de 18 de julho de 2013.

Para cada A Mat (C, m, n) podemos associar uma matriz quadrada A Mat (C, m + n) dada por

.
.
A =
.

JCABarata. Curso de Fsica-Matem


atica

e1

e tambem evidente que

1


0


=
0 ,

.
..



0

xn1

..
.
.

xnn

..

e2

0


1


=
0 ,

.
..



0

1 =

(8.9)

...,

en

hh
ii
e1 , . . . , en .

0


0


.
.
=
. ,


0



1

(8.10)

(8.11)

A notacao acima e u
til por permitir a seguinte observacao. Seja B uma matriz qualquer. Entao,
hh
ii
hh
ii
B x1 , . . . , xn = Bx1 , . . . , Bxn .

(8.12)

hh
ii
Essa relacao e provada observando-se a regra de multiplicacao de matrizes: a a-esima coluna de B x1 , . . . , xn e
B11 xa1 + + B1n xan
..
.

Bn1 xa1 + + Bnn xan

(8.13)

JCABarata. Curso de Fsica-Matem


atica

Vers
ao de 18 de julho de 2013.

Captulo 8

317/2070

que vem a ser as componentes de Bxa , representado como vetor-coluna na base can
onica.
u
E
til observar que se A e uma matriz n n temos a regra
Aei =

n
X

Aji ej ,

JCABarata. Curso de Fsica-Matem


atica

Vers
ao de 18 de julho de 2013.

Captulo 8

318/2070

Proposi
c
ao 8.2 Uma matriz A Mat (C, n) e bijetora (ou seja, e inversvel) se e somente se Av = 0 valer apenas
para v = 0.
2
(8.14)

j=1

onde Aji sao os elementos de matriz de A respectivas na base can


onica. Verifique!
Ainda sobre essa notacao, vale a seguinte identidade u
til, cuja demonstracao (elementar) deixamos como exerccio:
se D = diag (d1 , . . . , dn ) e uma matriz diagonal, entao
hh
ii
hh
ii
x1 , . . . , xn D = d1 x1 , . . . , dn xn .
(8.15)
Seja V um espaco vetorial dotado de um produto escalar h, i. Dizemos que dois vetores u e v sao perpendiculares
(em relacao ao produto escalar h, i) se hu, vi = 0.

Se v1 , . . . , vk sao vetores em um espaco vetorial V , denotamos por [v1 , . . . , vk ] o subespaco gerado pelos vetores
v1 , . . . , vk , ou seja, a colecao de todos os vetores que sao combinacoes lineares dos vetores v1 , . . . , vk :
n
o
[v1 , . . . , vk ] = 1 v1 + + k vk , 1 , . . . , k C .

Prova. Se A e bijetora, entao existe A1 . Logo, aplicando-se A1 `a esquerda na igualdade Av = 0, obtem-se v = 0.


Vamos agora provar a recproca: vamos supor que Av = 0 vale apenas para v = 0 e provar que A e injetora e sobrejetora
e, portanto, bijetora.
Prova-se que A e injetora por absurdo. Se A nao e injetora, entao, existem vetores x e y com x 6= y mas com Ax = Ay.
Como A e linear, isso implica A(x y) = 0. Pela hip
otese que Av = 0 vale apenas para v = 0, segue que x = y, uma
contradicao.
Para provarmos que A e sobrejetora procedemos da seguinte forma. Seja {b1 , . . . , bn } uma base em Cn . Vamos
primeiramente mostrar que {Ab1 , . . . , Abn } e um conjunto linearmente independente de vetores em Cn (e, portanto,
uma base em Cn ). Suponhamos que assim nao o seja e que existam n
umeros complexos 1 , . . . , n , nao todos nulos, tais
que 1 Ab1 + + n Abn = 0. Pela linearidade de A, segue que A (1 b1 + + n bn ) = 0. Novamente, pela hip
otese
que Av = 0 vale apenas para v = 0, segue que 1 b1 + + n bn = 0. Isso, porem, diz que os vetores {b1 , . . . , bn } sao
linearmente dependentes, o que e absurdo.
Logo, {Ab1 , . . . , Abn } e um conjunto de n vetores linearmente independente em Cn e, portanto, e uma base nesse
espaco. Assim, qualquer x Cn pode ser escrito como uma combinacao linear tal como x = 1 Ab1 + + n Abn =
A (1 b1 + + n bn ). Isso mostra que x est
a na imagem de A. Como x e arbitr
ario, segue que A e sobrejetora.

Denotamos por [v1 , . . . , vk ] o subespaco de todos os vetores perpendiculares a todos os vetores de [v1 , . . . , vk ]:

o
n


[v1 , . . . , vk ] = w V w, (1 v1 + + k vk ) = 0 para todos 1 , . . . , k C .

Corol
ario 8.1 Uma matriz A Mat (C, n) e n
ao-bijetora (ou seja, n
ao possui inversa) se e somente se existir um
vetor n
ao-nulo v tal que Av = 0.
2

Uma matriz A Mat (C, n) define uma aplicacao linear de Cn sobre si mesmo.
Se essa aplicacao for bijetora, entao

existe uma aplicacao inversa, denotada por A1 : Cn Cn , tal que A1 Ax = x para todo x Cn . A proposicao
seguinte reune fatos elementares sobre a aplicacao inversa A1 :

O seguinte corol
ario indica uma maneira pr
atica, necess
aria e suficiente de se constarar se uma matriz A Mat (C, n)
tem inversa.
hh
ii
Corol
ario 8.2 Seja A Mat (C, n) da forma A = a1 , . . . , an para o conjunto de vetores a1 , . . . , an que representam
suas colunas. Ent
ao, A e inversvel se e somente se os vetores a1 , . . . , an forem linearmente independentes. Vale tambem
a afirmac
ao que A e inversvel se e somente se suas linhas forem linearmente independentes.
2

Matrizes bijetoras e a no
c
ao de inversa de uma matriz

Proposi
c
ao 8.1 Se A Mat (C, n) e bijetora, ent
ao A1 e igualmente uma aplicac
ao linear de Cn sobre si mesmo,
1
T
ou seja, A1 Mat (C, n). Fora isso, A1 e u
nica e AT
= A1 . Por fim, vale afirmar que A e inversvel se e
somente se AT o for.
2
f
Prova. E
acil constatar que A1 e tambem uma aplicacao linear e, portanto, e tambem um elemento de Mat (C, n).
De fato, sejam v1 , v2 elementos arbitr
arios de Cn e 1 , 2 C, igualmente arbitr
arios. Como A e bijetora, existem
u 1 , u 2 Cn , u
nicos, tais que Au1 = v1 e Au2 = v2 , ou seja, tais que u1 = A1 (v1 ) e u2 = A1 (v2 ). Assim, usando a
linearidade de A, tem-se




A1 1 v1 + 2 v2 = A1 1 Au1 + 2 Au2 = A1 A 1 u1 + 2 u2
= 1 u1 + 2 u2 = 1 A1 (v1 ) + 2 A1 (v2 ) ,

o que prova que A1 e tambem linear e, portanto A1 Mat (C, n). Com isso, podemos afirmar que A1 Ax = x
para todo x Cn e, portanto, AA1 Ax = Ax. Como A e sobrejetora, isso diz-nos que AA1 y = y para todo y Cn .
Assim, estabelecemos que A1 A = AA1 = 1. A unicidade e facilmente estabelecida, pois se B Mat (C, n) e tal
que BA = AB = 1, entao multiplicando-se AB = 1 `a esquerda por A1 obtem-se B = A1 . Por fim, observemos
que do fato que (M N )T = N T M T para quaisquer matrizes M, N Mat (C, n), segue de A1 A = AA1 = 1 que
T
1
T
T
ltima relacao implica que se A e inversvel, entao
= A1 . A u
AT A1 = A1 AT = 1, o que implica AT
AT tambem o e. Como (AT )T = A, vale tambem a recproca.
Mais adiante indicaremos como a matriz A1 pode ser calculada a partir de A. Vide para tal a express
ao (8.18)
(regra de Laplace) do Teorema 8.1, pagina 319, e tambem as express
oes (8.43), pagina 338, e (8.160), pagina 402.
Em parte do que segue estaremos implicitamente usando a seguinte proposicao:

Um corol
ario evidente e o seguinte:

v1

Prova. Se v Cn e o vetor coluna v =

..
.

vn

, entao e f
acil constatar (pela regra de produto de matrizes. Faca-o!) que

Av = v1 a1 + . . . + vn an . Com isso, vemos que a afirmacao que existe v nao-nulo tal que Av = 0 equivale `a afirmacao que
os vetores-coluna a1 , . . . , an sao linearmente dependentes.
Como A e inversvel se e somente se AT o for (Proposicao 8.1, pagina 317), vale afirmar que A e inversvel se e somente
se suas linhas forem linearmente independentes.

Propriedades b
asicas de determinantes de matrizes
hh
ii
Seja A Mat (C, n) da forma A = a1 , . . . , an para o conjunto de vetores a1 , . . . , an que representam suas

colunas. O determinante de A, det(A), foi definido em (3.7) como

det(A) := det (a1 , . . . , an ) ,

(8.16)

onde det e a forma alternante maximal em n dimens


oes, normalizada de sorte que det (e1 , . . . , en ) = 1. Com isso,
vale det(1) = 1. Assim, se Sn denota o conjunto de todas as bijecoes de {1, . . . , n} em si mesmo (o chamado grupo
de permutacoes de n elementos), tem-se det (ej(1) , . . . , ej(n) ) = sinal(j) para todo j Sn e, portanto, vale a express
ao
(3.8):
X
det(A) =
A1j(1) Anj(n) sinal(j) ,
(8.17)
jSn

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

319/2070

freq
uentemente denominada f
ormula de Leibniz1 para o determinante de uma matriz.

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

320/2070

Em (8.160), pagina 402, apresentaremos outra f


ormula explcita para o computo da inversa de matrizes baseada no
Teorema de Hamilton-Cayley (Teorema 8.3, pagina 335).

O teorema a seguir re
une todas as propriedades fundamentais do determinante de matrizes.
Teorema 8.1 Para toda matriz A Mat (C, n) valem:
1. det(A) = n det(A) para todo C.

uentemente, o determinante de uma matriz troca de sinal quando da permuta de duas
2. det(A) = det AT . Conseq
de suas colunas ou linhas.
3. det(AB) = det(A) det(B) = det(BA) para qualquer B Mat (C, n).
4. det(A) = det(SAS 1 ) para qualquer S Mat (C, n), inversvel.

Demonstracao do Teorema 8.1. Prova de 1. Pela f


ormula de Leibniz (8.17),
X
det(A) =
(A1j(1) ) (Anj(n) ) sinal(j) = n det(A) .
jSn

ormula de Leibniz (8.17). Usando o fato elementar que um produto de n


umeros complexos
Prova de 2. Observemos a f
nao depende da ordem dos fatores, podemos escrever A1j(1) Anj(n) = Al(1)j(l(1)) Al(n)j(l(n)) para qualquer l Sn .
1
Em particular, escolhendo l = j
obtemos A1j(1) Anj(n) = Aj 1 (1)1 Aj 1 (n)n . Assim, pela f
ormula de Leibniz
(8.17), e usando o fato que sinal(j) = sinal(j 1 ) para todo j Sn (justifique!), vale

5. Se det(A) = 0 ent
ao A n
ao tem inversa.
det(A) =

6. Se det(A) 6= 0 ent
ao A tem inversa e vale a chamada regra de Laplace2 :
A1 =

1
Cof(A)T ,
det(A)

onde Cof(A) Mat (C, n), denominada matriz dos cofatores de A, e a matriz cujos elementos s
ao
hh
ii
Cof(A)jk = det (a1 , . . . , ak1 , ej , ak+1 , . . . , an ) = det a1 , . . . , ak1 , ej , ak+1 , . . . , an .

jSn

(8.19)

E. 8.1 Exerccio. Justifique todas as passagens de acima.

(8.20)

n
X

(1)j+k Akj Men(A)kj

Aik (bj )k =

(ak )i (bj )k ,

det(AB)

det (Ab1 , . . . , Abn )

det

multi-linearidade

(1)j+k Ajk Men(A)jk .

(8.22)

n
X

(bj )k ak .

n
X

(b1 )k1 ak1 , . . . ,

j=1

kn =1

(b1 )k(1) (bn )k(n) det ak(1) , . . . , ak(n)

(b1 )k(1) (bn )k(n) sinal(k) det (a1 , . . . , an )

kSn

Wilhelm von Leibniz (16461716).


Laplace (17491827).

2 Pierre-Simon

(bn )kn akn

kSn

n
X

n
X

n
X

k1 =1

j=1

n
X

Abj =

k=1

kSn

Ajk Cof(A)jk =

ou seja,

Assim,

2
1 Gottfried

n
X

k=1

(8.21)

e a expans
ao em colunas do determinante

j=1

k1 =1

j=1

n
X

n
X

k=1

8. Para qualquer k {1, . . . , n} valem a expans


ao em linhas do determinante
Akj Cof(A)kj =

Aj(1)1 Aj(n)n sinal(j) = det(AT ) .

Quando da permuta de duas linhas


ancia da forma
 ou colunas de A seu determinante troca de sinal devido `a altern
det . A igualdade det(A) = det AT ensina que isso tambem ocorre quando da permuta de linhas.

(Abj )i =

onde Men(A), chamada de matriz dos menores de A, e a matriz de Mat (C, n) definida de sorte que cada elemento
Men(A)ij seja o determinante da matriz (n 1) (n 1) obtida eliminando-se a i-esima linha e a j-esima coluna
de A. Se n = 1, convenciona-se definir Men(A) = 1. Assim, para det(A) 6= 0, a regra de Laplace escreve-se

n
X

Cof(A)ij = (1)i+j Men(A)ij ,

det(A) =

Aj 1 (1)1 Aj 1 (n)n sinal(j 1 )


n

hh
ii
hh
ii
hh
ii
Prova de 3. Sejam A = a1 , . . . , an e B = b1 , . . . , bn . Temos que AB = Ab1 , . . . , Abn (vide (8.12)). Agora,

7. Os elementos de matriz de Cof(A) s


ao dados por

det(A) =

j 1 S

jSn

Conjuntamente com o item 5, conclumos que A tem inversa se e somente se det(A) 6= 0.

(1)i+j
1
Cof(A)ji =
Men(A)ji .
det(A)
det(A)

Aj 1 (1)1 Aj 1 (n)n sinal(j 1 ) =

(8.18)

Em palavras, Cof(A)jk e o determinante da matriz obtida substituindo a k-esima coluna de A pelo vetor ej . No
pr
oximo item veremos outra caracterizac
ao da matriz dos cofatores Cof(A).


A1 ij =

(b1 )k1 (bn )kn det (ak1 , . . . , akn )

kn =1

(b1 )k(1) (bn )k(n) sinal(k) det(A)

det(B) det(A) .

Acima, na passagem da terceira para a quarta linha usamos o fato que det (ak1 , . . . , akn ) anula-se a menos que a
k1 , . . . , kn sejam distintos, o que somente ocorre se forem da forma k(1), . . . , k(n), respectivamente, para algum

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

321/2070


k Sn . Na passagem da quarta para a quinta linha usamos que det ak(1) , . . . , ak(n) = sinal(k) det (a1 , . . . , an ), pois
det e uma forma alternante.
Estabelecemos, portanto, que det(AB) = det(A) det(B) = det(BA).

Prova de 4. Do item 3 segue que, para quaisquer A, S Mat (C, n), com S inversvel, vale det(A) = det((AS 1 )S) =
det(SAS 1 ).
Prova de 5. Se det(A) = 0 entao A nao pode ter inversa, pois se existisse A1 teramos 1 = det(1) = det(AA1 ) =
det(A) det(A1 ) = 0, absurdo.

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

hh
ii
as colunas da matriz a1 , . . . , ak1 , ej , ak+1 , . . . , an , exceto a k-esima coluna, sem alterar seu determinante. Um
pouco de meditacao nos convence que a matriz resultante e obtida da matriz A anulando-se a k-esima coluna e a j-esima
linha, exceto no cruzamento das duas, onde o elemento de matriz vale 1 (elemento jk). O determinante dessa matriz e
Cof(A)jk .
Pelo item 2 e pela propriedade de altern
ancia, sabemos que o determinante de uma matriz troca de sinal quando
permutamos a posicao de duas colunas ou duas linhas quaisquer. Com esse tipo de operacao podemos transportar o 1
do elemento jk ate a posicao nn da matriz, ao preco de realizar n k transposicoes de colunas vizinhas e n j de linhas
vizinhas, as quais alteram o determinante por fatores (1)nk e (1)nj , respectivamente. Temos com isso que

n
X

Ajk ej .

(8.23)
Cof(A)jk = (1)k+j det A[jk]

j=1

Logo, para qualquer k {1, . . . , n} vale


det(A) = det (a1 , . . . , ak1 , ak , ak+1 , . . . , an ) =

n
X

Ajk Cof(A)jk ,

(8.24)

j=1

fato,

j=1

Ajl Cof(A)jk =

n
X

n
X

Ajl Cof(A)jk e nula. De

j=1

nl(n)



=
det A[jk]

Ajl det (a1 , . . . , ak1 , ej , ak+1 , . . . , an )

j=1

=
=

det (a1 , . . . , ak1 , al , ak+1 , . . . , an ) = 0 ,

pois em det (a1 , . . . , ak1 , al , ak+1 , . . . , an ) o vetor al aparece na l-esima e na k-esima posicao o que faz det anular-se,
por ser uma forma alternante. Provamos, assim, que

nl(n)

X 

l S

A[jk]

n1

X 

A[jk]

1l (1)



A[jk]

1l (1)



A[jk]

(n1)l (n1)

(n1)l (n1)

sinal(l )

sinal(l )



det A[jk] = Men(A)jk .

(Justifique por que a soma no lado direito da primeira linha acima e sobre Sn1 e nao mais sobre Sn ). Provamos,
portanto, que
Cof(A)jk = (1)k+j Men(A)jk .
A relacao (8.20) e imediata por (8.18).

Ajl Cof(A)jk = kl det(A) .

(8.25)

j=1

Vamos supor que det(A) 6= 0. Defina-se a matriz G = det(A)


det(A)1 Cof(A)jk . Entao, (8.25) diz-nos que
n
X

A[jk]

= l(n), n (justifique!), segue que

l Sn1

(8.23)

1l(1)

lSn

[jk]

n
X

A[jk]

..

onde A
e a matriz de Mat (C, n 1) obtida eliminando a j-esima linha e a k-esima coluna da matriz A. Pela f
ormula
de Leibniz (8.17),





X
A[jk]
A[jk]
det A[jk] =
sinal(l) .
Como A

onde a matriz Cof(A) foi definida em (8.19). Mostremos agora que para l 6= k a express
ao

n
X

com

:= det

[jk]

Note que ej ocorre na k-esima posicao. Provamos assim que


n
X

Ajk det (a1 , . . . , ak1 , ej , ak+1 , . . . , an ) .

j=1

det(A) =

bastante claro que podemos escrever


Prova de 6. E
ak =

322/2070

Gkj Ajl = kl ,

ou seja,

Prova de 8. Eq. (8.22) e imediata por (8.24) e pelo item 7. Eq. (8.21) segue facilmente de (8.22) usando o item 2.

Cof(A) , cujos elementos de matriz sao Gkj =


Menores e cofatores de uma matriz. Propriedades adicionais
GA = 1 .

j=1


E. 8.2 Exerccio. Seja Mat (C, n), = diag + 1, 1, +1, . . . , (1)n+1 , a matriz diagonal cujos elementos sao
i+1
alternadamente +1 e 1, ou seja, ij = (1) ij . Mostre que
Cof(A) = Men(A)1

Isso significa que A e inversvel com A1 = G.


Prova de 7. Observemos primeiramente que, supondo provisoriamente k > 1,
det (a1 , . . . , ak1 , ej , ak+1 , . . . , an ) = det (a1 Aj1 ej , . . . , ak1 , ej , ak+1 , . . . , an )
devido `
a linearidade e ao fato que det (ej , . . . , ak1 , ej , ak+1 , . . . , an ) = 0, pelo fato de det ser alternante. Agora,
a j-esima linha do vetor-coluna a1 Aj1 ej e nula. Repetindo esse argumento podemos anular j-esima linha de todas

para toda matriz A Mat (C, n).

6
1

Para uma matriz M Mat (C, n), a transformacao de similaridade M 7 M


e denominada chessboard
transformation, pois com ela os sinais sao trocados em M como alternam-se as cores das casas em um tabuleiro de
xadrez.

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

323/2070

E. 8.3 Exerccio. Usando a regra de Laplace (8.18), mostre que para toda matriz A Mat (C, n) valem as relacoes


Men A1 = Men(A)1 ,
Cof A1 = Cof(A)1 ,

Cof(A) = Men A1 ,


Men(A) = Cof A1 .
1

Se A Mat (C, n) e inversvel, segue da regra de Laplace (8.18) que det A

Do Exerccio E. 8.3, conclui-se tambem que


det Cof(A) = det(A)n1 .


det Cof(A) e, portanto,

(8.26)


Men Men(A) =

Assim, para toda matriz A Mat (C, n) vale

(8.27)

n2
det(A)
A.
n2
det(A)
A.



Cof Cof(A) = Men Men(A) .


Portanto, se det(A) = 1 e n 2, vale Cof Cof(A) = Men Men(A) = A.

Proposi
c
ao 8.3 Seja M Mat (C, n) uma matriz da seguinte forma

E. 8.5 Exerccio. Verifique!

0nk, k

0k, nk 1k 0k, nk 1k
1nk

0k, nk
1nk

1k
det

0nk, k

0k, nk

Agora, pelas regras (8.21)(8.22) de calculo de determinantes, e f


acil constatar (faca-o!) que

det

0k, nk
1nk

= det(A),

1k
det

0nk, k

0k, nk
C

= det(C)

1k
det

0k, nk
1nk

1nk

= 1.

(8.28)

Cada uma das igualdades acima pode ser provada usando-se a expansao em linhas (8.21)
para o determinante. Essa
1k 0k, nk 
, e igual ao determinante da
regra nos diz, por exemplo, que o u
ltimo determinante em (8.1), o da matriz B 1
 1k1 0k1, nk  nk
, com B1 sendo a matriz obtida de B
matriz obtida eliminando-se a primeira linha e a primeira coluna:
B1
1nk
eliminando-se sua primeira columa. Mas essa e uma matriz do mesmo tipo da anterior e podemos continuar eliminando a
primeira linha e a primeira coluna. Apos k repeticoes desse procedimento, resta apenas a matriz 1nk , cujo determinante
vale 1. Para o segundo determinante em (8.21) procede-se analogamente. Para o primeiro, comeca-se eliminando a u
ltima
linha e a u
ltima coluna. Isso completa a prova.

8.2

Noc
oes B
asicas sobre o Espectro de uma Matriz

Um fato importante e que 1 A e nao-inversvel se e somente se det(1 A) = 0 (vide Teorema 8.1, pagina 319).
Assim, um n
umero complexo e um elemento do espectro de uma matriz A se e somente se for tal que det(1 A) = 0.
Essa observacao conduz-nos ao importante conceito de polinomio caracterstico de uma matriz.

Prova. O primeiro ingrediente da prova e a constatacao que

1nk

1k
det

Defini
c
ao. O conjunto resolvente de A Mat (C, n), denotado por (A), e definido como sendo o conjunto de todos os
umero complexo e dito ser um elemento do conjunto
C para os quais a matriz 1 A tem inversa. Assim, um n
resolvente de A Mat (C, n) se a matriz 1 A possuir uma inversa.
evidente que (A) e (A) sao conjuntos complementares, ou seja, (A) (A) = mas (A) (A) = C.
E

det(M ) = det(A) det(C) .

0k, nk

0nk, k

0k, nk

Defini
c
ao. O espectro de A Mat (C, n), denotado por (A), e definido como sendo o conjunto de todos os C
para os quais a matriz 1 A nao tem inversa. Assim, um n
umero complexo e dito ser um elemento do espectro de
A Mat (C, n) se a matriz 1 A nao possuir uma inversa.

0k, nk

onde A e uma matriz k k (com k < n), B e uma matriz (n k) k e C e uma matriz (n k) (n k). Ent
ao,

Seja A Mat (C, n) uma matriz n n com entradas complexas. No estudo das propriedades de A e de grande
import
ancia saber para quais n
umeros complexos a matriz 1 A e inversvel e para quais nao e. Essa quest
ao conduz
`as seguintes importantes definicoes:

Mais abaixo, usaremos o seguinte fato:

324/2070

O espectro de uma matriz

Um resultado u
til

A
M =

det(M ) = det

0nk, k

E. 8.4 Exerccio. Mostre que para toda matriz A Mat (C, n), n 2, vale

Do Exerccio E. 8.3, obtem-se tambem

Captulo 8

Vers
ao de 18 de julho de 2013.

Com isso, temos pela regra do determinante de um produto de matrizes que

1
det(A)n


det Men(A) = det(A)n1 .

Cof Cof(A) =

JCABarata. Curso de Fsica-Matem


atica

0nk, k

0k, nk
C

JCABarata. Curso de Fsica-Matem


atica

8.2.1

Captulo 8

Vers
ao de 18 de julho de 2013.

325/2070

Autovalores e Polin
omios Caractersticos de Matrizes

z A22

..
.

An2

..

A1n

A2n

..

z Ann

(8.29)

Esse polin
omio e denominado polin
omio caracterstico de A e desempenha um papel muito importante no estudo de
propriedades de matrizes. O leitor poder
a encontrar na Secao 8.11.1, pagina 402, uma express
ao mais explcita para
o polin
omio caracterstico em termos dos elementos de matriz Aij de A (vide (8.159), pagina 402), mas por ora nao
precisaremos de maiores detalhes sobre esse polin
omio.
Como todo polin
omio complexo de grau n, pA possui n razes, nao necessariamente distintas no plano complexo

(Teorema Fundamental da Algebra).


As razes do polin
omio caracterstico pA sao denominadas autovalores da matriz A.
Assim, o espectro de uma matriz A coincide com o conjunto de seus autovalores. O estudo de autovalores de matrizes e

de grande import
ancia na Algebra Linear e em suas aplicacoes `a Teoria das Equacoes Diferenciais, a` Geometria, a` Teoria
dos Sistemas Din
amicos e `a Fsica, especialmente `a Fsica Qu
antica.
Seja A Mat (C, n) uma matriz e sejam 1 , . . . , r , 1 r n, seus autovalores distintos, cada qual com
multiplicidade a1 , . . . , ar , respectivamente, ou seja, cada i e uma raiz de ordem ai N do polin
omio caracterstico de
A:
r
Y
pA (z) = det(z 1 A) =
(z i )ai .
i=1

A quantidade ai e um n
umero inteiro positivo e e denominado multiplicidade algebrica do autovalor i .

Note-se que como o n


umero de razes de pA (contando as multiplicidades) e exatamente igual a seu grau, segue
facilmente que a seguinte relacao e v
alida:
r
X
ai = n ,
(8.30)
i=1

ou seja, a soma das multiplicidades algebricas dos autovalores de uma matriz A Mat (C, n) e n. Uma conseq
uencia
elementar disso e a seguinte proposicao u
til:

Proposi
c
ao 8.4 Seja A Mat (C, n) uma matriz e sejam 1 , . . . , r , 1 r n, seus autovalores distintos, cada qual
com multiplicidade algebrica a1 , . . . , ar , respectivamente. Ent
ao,
r
Y

(k )ak .

(8.31)

k=1

2
Qr

Prova. Por definicao, o polin


omio Q
caracterstico de A e pA (z) = det(z 1 A) = k=1 (z k )ak . Tomando z = 0 e usando
r
a demonstrada.
(8.30), teremos det(A) = (1)n k=1 (k )ak . Porem, det(A) = (1)n det(A) e a proposicao est
Matrizes similares. Transforma
c
oes de similaridade

326/2070

Proposi
c
ao 8.5 Sejam A e B Mat (C, n) duas matrizes similares, ou seja, tais que existe P Mat (C, n), inversvel,
com B = P 1 AP . Ent
ao, os polin
omios caractersticos de A e de B coincidem: pA = pB .

avel z, com coeficientes complexos, os quais dependem dos elementos de matriz


define, um polin
omio de grau n na vari
Aij de A. Isso se constata facilmente pelos metodos usuais de calculo de determinantes (por exemplo, as expansoes em
linha ou coluna de (8.21) e (8.22)),

det(A) =

Captulo 8

Sabemos que o determinante e invariante por transformacoes de similaridade, pois para toda matriz A vale det(A) =
det(P 1 AP ), mas nao e o u
nico objeto associado a uma matriz que e invariante por tais transformacoes. O polinomio
caracterstico e, portanto, o conjunto de seus autovalores (incluindo as multiplicidades algebricas), tambem o e. Isso e o
conte
udo da seguinte afirmacao.

Seja A Mat (C, n) uma matriz cujos elementos de matriz sao Aij . Para z C a express
ao

A12

Vers
ao de 18 de julho de 2013.

P Mat (C, n) tal que P 1 AP = B. Para uma matriz inversvel P Mat (C, n) fixa, a transformacao que leva cada
matriz A Mat (C, n) `a matriz P 1 AP e denominada transformac
ao de similaridade.

O polin
omio caracterstico de uma matriz

z A11

21
pA (z) := det(z 1 A) = det

..

An1

JCABarata. Curso de Fsica-Matem


atica

Duas matrizes A Mat (C, n) e B Mat (C, n) sao ditas matrizes similares se existir uma matriz inversvel

Conseq
uentemente, se A e B Mat (C, n) s
ao similares, seus autovalores s
ao iguais (e, portanto, seus espectros:
(A) = (B)), incluindo suas multiplicidades algebricas.
2
Prova. O polinomio caracterstico de A e pA (z) = det(z 1 A) e o de B e pB (z) = det(z 1 B). Logo,
pA (z) = det(z 1 A) = det(P 1 (z 1 A)P ) = det(z 1 P 1 AP ) = det(z 1 B) = pB (z) ,

(8.32)

para todo z C. Acima usamos o fato que para P inversvel e para qualquer matriz M vale det(P 1 M P ) =
det(P 1 ) det(M ) det(P ) = det(P 1 P ) det(M ) = det(1) det(M ) = det(M ).

Coment
arios sobre matrizes inversveis e sobre matrizes n
ao-inversveis
Proposi
c
ao 8.6 Seja A Mat (C, n) uma matriz arbitr
aria e B Mat (C, n) uma matriz inversvel. Ent
ao, existem
constantes M1 e M2 (dependentes de A e de B) com 0 < M1 M2 tais que a matriz A + B e inversvel para todo
C com 0 < || < M1 e para todo C com || > M2 .
2

Prova. Como B tem inversa, podemos escrever A + B = 1 + AB 1 B. Assim, A + B sera inversvel se e somente
se 1 + AB 1 o for.

Seja C AB 1 e sejam {1 , . . . , n } C as n razes (nao necessariamente distintas) do polinomio caracterstico


pC da matriz C. Se todos as razes forem nulas, tomemos M1 = M2 > 0, arbitr
arios. De outra forma, definamos M1
como sendo o menor valor de |k | dentre as razes nao-nulas de pC : M1 := min{|k |, k 6= 0} e definimos M2 como sendo
o maior valor de |k | para todos os ks: M2 := max{|k |, k = 1, . . . , n}. Entao, o conjunto { C| 0 < || < M1 } e o
conjunto { C| || > M2 } nao contem razes do polinomio caracterstico de C e, portanto, para nesses conjuntos a
matriz 1 C = 1 + AB 1 e inversvel.
Uma conseq
uencia evidente da Proposicao 8.6 e a seguinte afirmacao:
Corol
ario 8.3 Seja B Mat (C, n) uma matriz inversvel e A Mat (C, n) uma matriz arbitr
aria. Ent
ao, existem
constantes 0 < N1 N2 (dependentes de A e de B) tais que para toda C com || < N1 ou com || > N2 a matriz
B + A e tambem inversvel.
2

Prova. Para
 = 0 a afirmacao e evidente. Para 6= 0 a afirmacao segue Proposicao 8.6 escrevendo-se B + A =
A + 1 B e tomando-se = 1/, N1 = 1/M2 e N2 = 1/M1 .

O interesse pelo Corol


ario 8.3 e devido ao fato de este afirmar que se B Mat (C, n) uma matriz inversvel entao
toda matriz pr
oxima o suficiente da mesma e tambem inversvel. O estudante mais avancado ha de reconhecer que essa
afirmacao ensina-nos que o conjunto da matrizes inversveis em Mat (C, n) e um conjunto aberto (em uma topologia
metrica adequada). Essa afirmacao sera generalizada (a saber, para algebras de Banach com unidade) no Corol
ario 37.6,
pagina 1870.
A Proposicao 8.6 afirma tambem que e sempre possvel encontrar uma matriz inversvel proxima a uma matriz
nao-inversvel. De fato, se A Mat (C, n) nao tem inversa a Proposicao 8.6 garante que a matriz A + 1, por exemplo,
sera inversvel para todo C com || pequeno o suficiente, mas nao-nulo.

JCABarata. Curso de Fsica-Matem


atica

Vers
ao de 18 de julho de 2013.

Captulo 8

327/2070

Uma forma geometrica de compreender as afirmacoes de acima e lembrar que conjunto Mat (C, n) e um espaco
vetorial n2 -dimensional complexo e as matrizes inversveis sao um subconjunto (n2 1)-dimensional do mesmo, pois sao
caracterizados pela condicao de terem determinante nulo, uma condicao polinomial sobre os n2 coeficientes das matrizes
que define, portanto, uma uni
ao finita de superfcies algebricas (n2 1)-dimensionais fechadas em Mat (C, n). Desse
ponto de vista geometrico, fica claro que o conjunto das matrizes inversveis e aberto (por ser o complementar das
superfcies fechadas mencionadas acima) e fica claro que e sempre possvel encontrar uma matriz inversvel pr
oxima a
uma matriz nao-inversvel, pois estas u
ltimas residem em superfcies algebricas de dimens
ao menor que a dimens
ao de
Mat (C, n).
Uma propriedade dos polin
omios caractersticos

A seguinte proposicao, a qual contem uma afirmacao em nada evidente, e uma conseq
uencia da Proposicao 8.5, pagina
326, e da Proposicao 8.6, pagina 326:
Proposi
c
ao 8.7 Sejam A, B Mat (C, n). Ent
ao, o polin
omio caracterstico de AB e igual ao polin
omio caracterstico
de BA, ou seja, pAB = pBA .
Conseq
uentemente, se A, B Mat (C, n) ent
ao as matrizes AB e BA tem os mesmos autovalores (e, portanto, os
mesmos espectros: (AB) = (BA)), com as mesmas multiplicidades algebricas.
2

JCABarata. Curso de Fsica-Matem


atica

8.2.2

Captulo 8

Vers
ao de 18 de julho de 2013.

328/2070

Autovetores

Autovetores

Pela definicao, um n
umero 0 C e um autovalor de uma matriz A se e somente se 0 1 A nao tem inversa e,
portanto (pelo Corol
ario 8.1, pagina 318) se e somente se existir um menos um vetor nao-nulo v tal que (0 1 A)v = 0,
ou seja, tal que Av = 0 v. Chegamos a mais uma importante definicao:

Defini
c
ao. Um vetor nao-nulo v e dito ser um autovetor de uma matriz A se houver 0 C tal que
Av = 0 v .
Note-se que se um tal 0 satisfaz a relacao acima para algum v 6= 0 entao 0 1 A nao tem inversa. 0 e entao um
elemento do espectro de A, ou seja, um autovalor. 0 e dito ser o autovalor associado ao autovetor v.
Uma observacao importante e a seguinte. Sejam v1 e v2 dois autovetores aos quais est
a associado o mesmo autovalor,
ou seja, Av1 = 0 v1 e Av2 = 0 v2 . Entao, para quaisquer n
umeros complexos c1 e c2 o vetor v = c1 v1 + c2 v2 tambem
satisfaz Av = 0 v. De fato,
Av = A(c1 v1 + c2 v2 ) = c1 Av1 + c2 Av2 = c1 0 v1 + c2 0 v2 = 0 (c1 v1 + c2 v2 ) = 0 v .

O estudante mais avancado poder


a interesar-se em encontrar na Proposicao 37.28, pagina 1871, uma vers
ao dos
resultados da Proposicao 8.7 para o caso de algebras de Banach com unidade.

A conclusao e que, para cada autovalor i de uma matriz A, a colecao formada pelo vetor nulo e todos os autovetores
de A com autovalor i e um subespaco vetorial. Vamos denotar esse subespaco por E(i ) ou simplesmente Ei .

Prova da Proposicao 8.7. Se A ou B sao inversveis (ou ambas), entao AB e BA sao similares, pois no primeiro caso
teremos AB = A(BA)A1 e no segundo teremos AB = B 1 (BA)B. Nesses casos a afirmacao segue da Proposicao 8.5,
pagina 326. O u
nico caso que resta considerar e aquele no qual nem A nem B sao inversveis. Nesse caso, porem, temos
pela Proposicao 8.6, pagina 326, que existe M > 0 tal que a matriz A + 1 e inversvel para todo C pertencente
ao aberto 0 < || < M . Assim, para tais valores de valera, pelo raciocnio acima p(A+1)B = pB(A+1) . Agora, os
omios em e, portanto, sao funcoes contnuas de . Logo, a igualdade
coeficientes de p(A+1)B e de pB(A+1) sao polin
alida no limite 0, fornecendo pAB = pBA , como desej
avamos demonstrar.
p(A+1)B = pB(A+1) permanece v

Se i e j sao autovalores distintos de A entao os subespacos de autovetores E(i ) e E(j ) tem em comum apenas
o vetor nulo, ou seja, E(i ) E(j ) = {0}. Isso e f
acil de provar, pois se w e tal que Aw = i w e Aw = j w entao,
subtraindo-se uma relacao da outra teramos 0 = (i j )w, que implica w = 0, j
a que i 6= j .

A Proposicao 8.7 pode ser generalizada para matrizes nao-quadradas, como indicado no exerccio que segue:
E. 8.6 Exerccio. Sejam A Mat (C, m, n) e B Mat (C, n, m), de sorte que AB Mat (C, m) e BA Mat (C, n).
Mostre que xn pAB (x) = xm pBA (x). Sugestao: Considere as matrizes (m + n) (m + n) definidas por

A
A :=

0n, n

(Vide (8.7), pagina 316). Mostre que

AB
A B =

0n, m

0m, m
0n, m

0m, n
0n, n

B
B :=

0n, n

0m, m 0m, n

e que

BA
B A =

0n, m

0m, n 0m, m

Em seguida, prove que pA B (x) = x pAB (x) e que pB A (x) = x pBA (x). Pela Proposicao 8.7, tem-se pA B (x) = pB A (x),
de onde segue que xn pAB (x) = xm pBA (x).
Segue disso que o conjunto de autovalores nao-nulos de AB coincide com o conjunto de autovalores nao-nulos de BA:
(AB) \ {0} = (BA) \ {0} e, portanto, (AB) e (BA) podem nao ter em comum apenas o elemento 0.
6

Essas consideracoes nos levam a mais um conceito importante: o de multiplicidade geometrica de um autovalor.

A multiplicidade geom
etrica de um autovalor

Alem do conceito de multiplicidade algebrica de um autovalor, ha tambem o conceito de multiplicidade geometrica


de um autovalor, do qual trataremos agora.
Como antes seja A Mat (C, n) uma matriz e sejam 1 , . . . , r , 1 r n, seus autovalores distintos, cada qual
com multiplicidade algebrica a1 , . . . , ar , respectivamente.
Acima introduzimos os subespacos Ei = E(i ), definidos como sendo os subespacos gerados por todos os autovetores
que tem i como autovalor. A multiplicidade geometrica de um autovalor i e definida como sendo a dimens
ao do
subespaco Ei , ou seja, como sendo o n
umero maximo de autovetores linearmente independentes com autovalor i .
importante advertir de imediato o leitor do fato que a multiplicidade algebrica e multiplicidade geometrica de
E
autovalores nem sempre coincidem. Isso e bem ilustrado no seguinte exemplo simples. Seja

Seu polinomio caracterstico e

0
A =

1
.

1
= 2 .
pa () = det(1 A) = det

Assim, seu (
unico) autovalor e 0 com multiplicidade algebrica
2. Quais os seus autovetores?
que
vetores
Saoaqueles

0 1 a b
a
= = 0.

satisfazem Av = 0. Denotando v como um vetor coluna v =



, a relacao Av = 0 significa
0
b
0 0
b

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

329/2070

Logo, b = 0 e todos os autovetores sao da forma v =


, a C. E evidente que o subespaco gerado pelos autovetores
0
com autovalor zero tem dimens
ao 1. Assim, a multiplicidade algebrica do autovalor zero e 2 mas a sua multiplicidade
geometrica e 1.

Apesar de a multiplicidade algebrica e a multiplicidade geometrica de um autovalor nem sempre coincidirem, ha uma
relacao de ordem entre eles. A saber, e possvel mostrar que a multiplicidade geometrica de um autovalor e sempre menor
ou igual `
a sua multiplicidade algebrica.

Isso segue das seguintes consideracoes. Seja 0 um autovalor de A Mat (C, n) e E(0 ) o subespaco gerado pelos
autovetores com autovalor 0 , e cuja dimens
ao denotaremos por d. Vamos escolher uma base v1 , . . . , vd , vd+1 , . . . , vn
onde os primeiros d vetores sao elementos de E(0 ). Nessa base a matriz A tem a forma

0d, nd
A4

330/2070

Multiplicando-se `a esquerda por P teramos c1 v1 + + cd vd = 0. Como v1 , . . . , vd sao linearmente independentes as constantes ci tem que ser todas nulas, provando que os vetores P 1 v1 , . . . , P 1 vd sao tambem linearmente
independentes.
Isso prova que a multiplicidade geometrica do autovalor 0 e pelo menos igual a d. Como ela nao pode ser maior que
d (pagina 329), conclui-se que e igual a d provando a proposicao.

Proposi
c
ao 8.9 Se todos os n autovalores de uma matriz A Mat (C, n) forem distintos ent
ao A e simples.

Prova. Se os autovalores de A sao 1 , . . . , n , todos distintos, entao cada um tem multiplicidade algebrica igual a 1.
Forcosamente, sua multiplicidade geometrica e tambem igual a 1, j
a que a multiplicidade geometrica nao pode ser maior
que a algebrica.
Ressaltemos que a recproca da proposicao acima nao e verdadeira: uma matriz pode ser simples e possuir autovalores
com multiplicidade algebrica maior que 1.

8.2.3

onde D e uma matriz d d diagonal D = diag 0 , . . . , 0 , A4 e uma matriz (n d) (n d) e A3 e uma matriz


{z
}
|
d vezes
(n d) d. Alguns segundos (minutos?) de meditacao, usando a Proposicao 8.3 da pagina 323, nos levam a concluir
que o polin
omio caracterstico de A e dado por

O Tra
co de uma Matriz

O tra
co de uma matriz

Seja A Mat (C, n), cujos elementos de matriz sao Aij , i, j = 1, . . . n. Sejam 1 , . . . , n seus n autovalores (nao
necessariamente distintos e repetidos conforme sua multiplicidade).
Definimos o traco de A como sendo a soma de seus n autovalores:

det(1 A) = ( 0 )d det(1 A4 ) .
Isso mostra que a multiplicidade algebrica de 0 e pelo menos igual a d, sua multiplicidade geometrica.

Tr(A) :=

n
X

a .

a=1

E. 8.7 Exerccio. Realize a meditacao sugerida acima.

Matrizes simples

O que foi exposto acima leva-nos naturalmente ao conceito de matriz simples que, como veremos mais adiante, est
a
intimamente ligado ao problema da diagonalizabilidade de matrizes.
Defini
c
ao. Uma matriz A Mat (C, n) e dita ser uma matriz simples se cada autovalor de A tiver uma multiplicidade
algebrica igual `a sua multiplicidade geometrica.
Deixamos para o leitor provar o seguinte fato: toda matriz diagonal e simples.
E. 8.8 Exerccio. Prove isso.

Uma conclusao que se tira dessa definicao e que se duas matrizes sao similares, entao ambas tem o mesmo traco, ou
seja, para qualquer matriz inversvel P e qualquer matriz A vale

Tr P 1 AP = Tr(A) .
(8.33)
A razao reside na observacao feita acima que duas matrizes similares tem o mesmo conjunto de autovalores e, portanto,
o mesmo traco.
Temos a seguinte e importante proposicao:
Proposi
c
ao 8.10 O traco de uma matriz A Mat (C, n) e igual a soma dos elementos de sua diagonal principal, ou
seja,
n
n
X
X
Tr(A) :=
a =
Aaa .
(8.34)
a=1

Adiante faremos uso da seguinte proposicao.


Proposi
c
ao 8.8 Se A Mat (C, n) e uma matriz simples e P Mat (C, n) e inversvel ent
ao P
simples.

Captulo 8

Vers
ao de 18 de julho de 2013.

A seguinte proposicao elementar e por vezes u


til para verificar se uma matriz e simples.

A multiplicidade alg
ebrica e a multiplicidade geom
etrica

A3

JCABarata. Curso de Fsica-Matem


atica

a=1

AP e tambem
2

Prova. J
a vimos na Proposicao 8.5, pagina 326, que A e P 1 AP tem o mesmo polin
omio caracterstico e, portanto, os
mesmos autovalores, incluindo suas multiplicidades algebricas. Seja 0 um desses autovalores com multiplicidade algebrica
d e sejam v1 , . . . , vd um conjunto de d autovetores linearmente independentes de A. Os vetores P 1 v1 , . . . , P 1 vd
sao autovetores de P 1 AP com autovalor 0 . De fato, P 1 AP P 1 vi = P 1 Avi = 0 P 1 vi . Fora isso os d vetores
P 1 v1 , . . . , P 1 vd sao tambem linearmente independentes. Para ver isso, suponha houvesse constantes c1 , . . . , cd tais
que
c1 P 1 v1 + + cd P 1 vd = 0 .

Prova. A demonstracao consistira em se calcular o coeficiente de n1 no polinomio caracterstico p() de A de dois


modos diferentes. O polinomio caracterstico pA () de A e dado
Pn por (8.29). As tecnicas de calculo de determinantes
(e.g., (8.21) e (8.22)) dizem-nos que o coeficiente de n1 e i=1 Aii . Por exemplo, para o caso n = 2

A11
p() = det

A21

A12
= 2 (A11 + A22 ) + A11 A22 A12 A21 .

A22

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

331/2070

E. 8.9 Exerccio. Convenca-se da veracidade da afirmativa acima para o caso de n arbitrario. Sugestao: use a expansao
em cofatores (8.21)(8.22) ou leia a Secao 8.11.1, pagina 402.
6

8.2.3.1

Vers
ao de 18 de julho de 2013.

Captulo 8

332/2070

Algumas Relac
oes entre Determinantes e Tracos de Matrizes

Proposi
c
ao 8.13 Seja A() Mat (C, n) uma matriz que depende de forma diferenci
avel de uma vari
avel (que pode
ser real ou complexa) em um certo domnio. Ent
ao, vale



T d
d 
A() .
(8.35)
det A()
= Tr Cof A()
d
d

Por outro lado, os autovalores de A, 1 , . . . , n , sao por definicao as razes do polin


omio caracterstico. Logo,
p() = ( 1 )( 2 ) ( n ) .
Expandindo-se essa express
ao, conclui-se que o coeficiente de n1 e
(1 + + n ) = Tr(A) .
E. 8.10 Exerccio. Certo?

JCABarata. Curso de Fsica-Matem


atica

Se A() for invertvel para todos os valores de no domnio considerado, vale tambem



1
d 
d

det A()
= Tr A()1 A() .
d
det A() d

(8.36)
2

Do exposto acima, conclui-se que o coeficiente de n1 no polin


omio caracterstico de A e

n
X
i=1

Prova. Por (8.17), tem-se


Aii = (1 + + n ) = Tr(A) ,


d 
det A()
d

o que termina a prova.


Essa proposicao leva a duas outras propriedades igualmente importantes: a linearidade do traco e a chamada propriedade cclica do traco.
Proposi
c
ao 8.11 (A Linearidade do Tra
co) Sejam A, B Mat (C, n) e , C. Ent
ao,

Sn

n
X

k=1

sinal()




X
d
d
sinal()A1(1) ()
A1(1) () An(n) () + +
An(n) ()
d
d
Sn


det Bk () ,

onde Bk () e a matriz obtida substituindo a k-esima linha da matrix A() pela linha

Tr(A + B) = Tr(A) + Tr(B) .

Usando a expansao em linha do determinante, express


ao (8.21), temos
2

Logo,

Proposi
c
ao 8.12 (A Propriedade Cclica do Tra
co) Sejam A, B Mat (C, n). Ent
ao,

i=1

(AB)ii =

i=1

!
n
n
n
n
X
X
X
X

Aij Bji =
Bji Aij =
(BA)jj = Tr(BA) .
j=1

j=1

i=1


.

k=1 j=1

estabelecendo (8.35). A relacao (8.36) segue de (8.35) com uso de (8.18).

Proposi
c
ao 8.14 Seja A Mat (C, n). Ent
ao, vale que
det eA

Tr(AB) =

d
d Akn ()




n X
n 
X

T d

d 
d
Akj () Cof A() kj = Tr Cof A()
A() ,
=
det A()
d
d
d

Prova. Pelo que vimos acima, tem-se


n
X

A express
ao (8.36) e u
til ate mesmo no contexto da Geometria Riemanniana. Para uma aplicacao naquele contexto,
vide express
ao (33.108), pagina 1577. Uma das conseq
uencias de (8.36) e o seguinte resultado, tambem muito u
til:

Tr(AB) = Tr(BA) .

n
X

d
d Ak1 ()


n 
X


d
Akj () Cof A() kj .
det Bk () =
d
j=1

Prova. A prova e imediata por (8.34).


curioso notar que a linearidade do traco vista acima e evidente por (8.34), mas nao e nem um pouco evidente pela
E
definicao do traco de uma matriz como soma de seus autovalores, pois os autovalores individuais de A + B n
ao sao
em geral combinacoes lineares dos autovalores de A e de B, especialmente no caso em que A e B nao comutam.

j=1

Na segunda e quarta igualdades usamos a regra de produto de matrizes. Na terceira igualdade apenas trocamos a ordem
das somas.
A propriedade cclica expressa na Proposicao 8.12 pode ser provada diretamente da definicao do traco de uma matriz
como soma de seus autovalores (incluindo multiplicidades algebricas) se recordarmos a Proposicao 8.7, pagina 327, que
afirma que AB e BA tem os mesmos auto-valores com as mesmas multiplicidades algebricas.

= eTr(A) .

(8.37)
2

f
A noca
o de exponencial de uma matriz ser
a apresentada em (9.20), p
agina 416. E
acil ver de (9.20) que
AeA = eA A para qualquer matriz A Mat (C, n). Da Proposica
o 9.6, p
agina 418, segue facilmente que eA
e invertvel e que sua inversa
e
eA tamb
em para qualquer A Mat (C, n).

Nota para o estudante.

1 d A
d A
e = AeA = eA A (por (9.20)) e, portanto, eA
=
Prova da Proposicao 8.14. Tome-se A() := eA . Entao, d
d e

d
ln
det
A()
=
Tr(A).
Integrando-se
em

entre
0
e
1
e
lembrando
que
A(1)
= eA e que
A. Dessa forma, (8.36) fica d

A(0) = 1, teremos ln det eA = Tr(A), que e o que queramos provar.
Uma segunda demonstracao da Proposicao 8.14 sera encontrada na Proposicao 9.7, pagina 420.

JCABarata. Curso de Fsica-Matem


atica

8.3

Vers
ao de 18 de julho de 2013.

Captulo 8

333/2070

Polin
omios de Matrizes

JCABarata. Curso de Fsica-Matem


atica

Vers
ao de 18 de julho de 2013.

Captulo 8

334/2070

entao o conjunto {1, A, A2 , . . . , An } e linearmente dependente, pois possui n2 + 1 elementos. Portanto, existem
constantes c0 , . . . , cn2 , nem todas nulas, tais que
2

c0 1 + c1 A + c2 A2 + + cn2 An = 0 .

Polin
omios de matrizes

Seja p um polin
omio de grau m: p(x) = am xm + + a1 x + a0 com x C, aj C e am 6= 0. Para uma matriz
A Mat (C, n) definimos o polin
omio matricial p(A) por

Como o lado esquerdo e um polinomio em A, fica provada nossa afirmacao que toda matriz possui um polinomio que a
anula. Chegamos `as seguintes definicoes:

p(A) = am Am + + a1 A + a0 1 .

Defini
c
ao Polin
omio M
onico.. Um polinomio p : R C de grau n e dito ser um polin
omio m
onico se for da forma
p(x) = xn + an1 xn1 + + a1 x + a0 ,

Obviamente p(A) e tambem uma matriz n n com entradas complexas.

Se as razes do polin
omio p forem 1 , . . . , r , com multiplicidades m1 , . . . , mr , respectivamente, entao
p(x) = am

r
Y

j=1

ou seja, se o coeficiente do monomio de maior grau (no caso, xn ) for igual a 1. Note-se que polinomios monicos nunca
sao identicamente nulos.

(x j )mj ,

omio mnimo de A e o
Defini
c
ao Polin
omio Mnimo de uma Matriz.. Dada uma matriz A Mat (C, n), o polin
polinomio monico de menor grau que e anulado em A, ou seja, e o polinomio nao-nulo de menor grau da forma

f
para todo x C. E
acil provar, entao, que
p(A) = am

r
Y

j=1

para o qual M (A) = 0.

(A j 1)mj .

E. 8.11 Exerccio. Justifique isso.

omio entao
E. 8.12 Exerccio. Mostre que se D = diag (d1 , . . . , dn ) e q e um polin

q(D) = diag q(d1 ), . . . , q(dn ) .
E. 8.13 Exerccio. Suponha que A = P 1 DP , onde D = diag (d1 , . . . , dn ). Se q e um polin
omio mostre que

q(A) = P 1 q(D)P = P 1 diag q(d1 ), . . . , q(dn ) P .

M (x) = xm + am1 xm1 + + a1 x + a0

As consideracoes acima mostram que um tal polinomio sempre existe e que tem grau no maximo igual a n2 . Essa
e, no entanto, uma estimativa exagerada para o grau do polinomio mnimo de uma matriz A Mat (C, n) pois, como
veremos abaixo, o polinomio mnimo de uma matriz A Mat (C, n) tem, na verdade, grau menor ou igual a n. Isso e
um corol
ario de um teorema conhecido como Teorema de Hamilton-Cayley , que demonstraremos abaixo (Teorema 8.3,
pagina 335).
Finalizamos com um teorema basico que garante a unicidade do polinomio mnimo e estabelece sua relacao com
outros polinomios que anulam A.

Teorema 8.2 O polin


omio mnimo M de uma matriz A Mat (C, n) e u
nico. Fora isso se P e um polin
omio n
aoao P e divisvel por M , ou seja, existe um
identicamente nulo que tambem se anula em A, ou seja, P (A) = 0, ent
polin
omio F tal que P (x) = F (x)M (x) para todo x C.
2
Demonstracao. Dada uma matriz A Mat (C, n), o polinomio mnimo de A e o polinomio de menor grau da forma
M (x) = xm + am1 xm1 + + a1 x + a0

para o qual M (A) = 0. Vamos supor que haja outro polinomio N da forma

N (x) = xm + bm1 xm1 + + b1 x + b0

O polin
omio mnimo

Vamos mostrar que para cada matriz A Mat (C, n) sempre existe pelo menos um polin
omio p com a propriedade
ao n2 . De fato
que p(A) = 0. Para tal notemos primeiramente que Mat (C, n) e um espaco vetorial complexo de dimens
toda a matriz A Mat (C, n), cujos elementos de matriz sao Aij C pode ser trivialmente escrita na forma
A =

n X
n
X

Aab E ab

a=1 b=1

onde E ab Mat (C, n) sao matrizes cujos elementos de matriz sao (E ab )ij = i,a j,b , ou seja, todos os elementos de
matriz de E ab sao nulos, exceto o elemento a, b, que vale 1.
E. 8.14 Exerccio. Certo?

Assim, vemos que as matrizes {E ab , a = 1, . . . , n, b = 1, . . . , n} formam uma base em Mat (C, n), mostrando que
Mat (C, n) e um espaco vetorial de dimens
ao n2 . Isto posto, temos que concluir que qualquer conjunto de mais de n2
matrizes nao-nulas em Mat (C, n) e linearmente dependente.
omio p(x) = xq tem a propriedade
Se uma das matrizes Ak , k = 1, . . . , n2 , for nula, digamos Aq = 0, entao o polin
que p(A) = 0, que e o que desejamos provar. Se, por outro lado, as matrizes Ak , k = 1, . . . , n2 , sao todas nao-nulas,

para o qual N (A) = 0. Subtraindo um do outro teramos o polinomio

(M N )(x) = (am1 bm1 )xm1 + + (a1 b1 )x + (a0 b0 ) ,

otese,
que tem grau menor ou igual a m 1 e para o qual vale (M N )(A) = M (A) N (A) = 0 0 = 0. Como, por hip
nao ha polinomios nao-nulos com grau menor que o de M que anulam A, isso e uma contradicao, a menos que M = N .
Isso prova a unicidade.
Seja P um polinomio nao identicamente nulo para o qual valha P (A) = 0. Se p e o grau de P , deve-se ter p m,
onde m e o grau do polinomio mnimo de A. Logo, pelos bem conhecidos fatos sobre divis
ao de polinomios, podemos
encontrar dois polinomios F e R, cujos graus sao, respectivamente p m e r com 0 r < m, tais que
P (x) = F (x)M (x) + R(x) ,
para todo x C. Ora, isso diz que

P (A) = F (A)M (A) + R(A) .

Como P (A) = 0 e M (A) = 0, isso implica R(A) = 0. Como, porem, o grau de R e menor que m, tem-se que R deve ser
identicamente nulo. Isso completa a prova.

JCABarata. Curso de Fsica-Matem


atica

8.3.1

Vers
ao de 18 de julho de 2013.

Captulo 8

335/2070

O Teorema de Hamilton-Cayley

Vamos aqui demonstrar um teorema sobre matrizes que sera usado mais adiante de v
arias formas, em particular no
Teorema Espectral, o chamado Teorema de Hamilton3 -Cayley4 , o qual afirma que toda matriz de Mat (C, n) anula seu
pr
oprio polin
omio caracterstico. Esse teorema fornece tambem, como veremos, um metodo eficiente para o calculo da
inversa de matrizes. Cayley e Hamilton demonstraram casos particulares do teorema para matrizes 2 2, 3 3 (Cayley)
e 4 4 (Hamilton). A primeira demonstracao geral e devida a Frobenius5 . Cayley, Hamilton e Sylvester6 est
ao entre os
fundadores modernos da teoria das matrizes7 .

JCABarata. Curso de Fsica-Matem


atica

h1

h
2

.
..

h
k2

h
k1

hk

Coment
ario.

Prova do Teorema 8.3. Desejamos mostrar que para todo vetor y Cn vale pA (A)y = 0. Se y = 0 isso e trivial. Se y 6= 0
mas com Ay = 0 entao
pA (A)y = (1)n 1 n y ,
onde 1 , , n sao os autovalores de A. Mas a pr
opria relacao Ay = 0 indica que um dos autovalores e igual a zero.
Logo pA (A)y = 0. Mais genericamente, se y 6= 0 e {y, Ay} nao for um conjunto de vetores linearmente independentes,
entao Ay e y sao proporcionais, ou seja, existe um autovalor, digamos, n tal que Ay = n y. Nesse caso tambem tem-se
!
n1
Y
(A i 1) (A n 1)y = 0 ,
pA (A)y =
i=1

pois (A n 1)y = Ay n y = 0.

Seja entao y daqui por diante um vetor fixado, nao-nulo e tal que {y, Ay} e um conjunto de dois vetores nao-nulos e
linearmente independentes.
n

Como o espaco C tem dimens


ao n, nem todos os conjuntos de vetores da forma

sao formados por vetores nao-nulos linearmente independentes. Por exemplo, se j n, o conjunto {y, Ay, A2 y, . . . , Aj y}
nao pode ser formado por vetores nao-nulos linearmente independentes pois seu n
umero excede a dimens
ao do espaco.
Seja k o maior n
umero tal que {y, Ay, A2 y, . . . Ak1 y} e um conjunto de vetores nao-nulos e linearmente indepen claro que 1 < k n.
dentes. E
claro tambem, pela definicao de k, que
E
(8.38)

para constantes h1 , . . . , hk .
Vamos denominar z1 = Ak1 y, z2 = Ak2 y, . . . , zk = y, ou seja, zj = Akj y, j = 1, . . . , k, todos nao-nulos por
hip
otese. Caso k < n, escolhamos ainda vetores zk+1 , . . . , zn de modo que o conjunto {z1 , . . . , zn } forme uma base em
Cn .
Coloquemo-nos agora a seguinte quest
ao: qual e a forma da matriz A nessa base? No subespaco gerado pelos vetores
{z1 , . . . , zk } tem-se o seguinte: para i = 2, . . . , k vale Azi = zi1 . Alem disso, por (8.38), Az1 = h1 z1 + h2 z2 + + hk zk .
3 Sir

William Rowan Hamilton (18051865).


Cayley (18211895).
5 Ferdinand Georg Frobenius (18491917)
6 James Joseph Sylvester (18141897).
7 Muitos certamente se surpreender
ao muitssimo em saber que, apesar de suas diversas e importantes contribuico
es a
` Matem
atica, Cayley
e Sylvester eram originalmente advogados.
4 Arthur

...

..

..
.

..

..

..

..

...

...

..
.

E. 8.15 Exerccio. Justifique isso.

(8.39)

Se designarmos por P o operador que realiza essa mudanca de base, o operador linear A na base {z1 , . . . , zn } tem,
portanto, a forma A = P 1 AP , onde

A1
A =

A2

0k, nk
A3

onde A1 e a matriz k k definida em (8.39), A2 e uma matriz (n k) k e A3 e uma matriz (n k) (n k). N


ao nos
sera necess
ario especificar os elementos das matrizes A2 e A3 .
Outros segundos (minutos?) de meditacao, usando a Proposicao 8.3 da pagina 323, nos levam a concluir que o
polinomio caracterstico pA pode ser escrito como
pA (x) = det(x1 A ) = det(x1 A1 ) det(x1 A3 ) .
O estudante deve recordar-se que as matrizes A e A , por serem similares, tem o mesmo polinomio caracterstico (Proposicao 8.5, pagina 326).

{y, Ay, A2 y, . . . , Aj y}

Ak y = hk y + hk1 Ay + + h1 Ak1 y ,

336/2070

Isso mostra que o subespaco gerado pelos vetores {z1 , . . . , zk } e invariante pela acao de A e o operador linear A, no
mesmo subespaco, tem a forma

Teorema 8.3 (Teorema de Hamilton-Cayley) Seja A Mat (C, n) e seja pA (x) = det(x1 A) o polin
omio carac2
terstico de A (e que tem grau n). Ent
ao, pA (A) = 0.

No caso particular de matrizes diagonaliz


aveis o Teorema 8.3 pode ser provado elementarmente usando o Teorema Espectral,
como indicado no Exerccio E. 8.21, p
agina 344.

Captulo 8

Vers
ao de 18 de julho de 2013.

Vamos denominar qk (x) = det(x1 A1 ) e rk (x) = det(x1 A3 ). Claramente, pA (x) = qk (x)rk (x). N
ao sera necess
ario,
no que segue, calcular rk , mas precisaremos calcular qk . Como esse pequeno resultado tem interesse independente, vamos
formula-lo como um lema, para futura referencia.
Lema 8.1 Para h1 , . . . , hk C, tem-se

x h1

.
..

qk (x) := det

h
k2

h
k1

hk

1
..

...

..

..

.
.

..

...

...

0
0

..
..
.
.

= xk (h1 xk1 + + hk1 x + hk ) .

1 0

x 1

0
x

(8.40)

JCABarata. Curso de Fsica-Matem


atica

Vers
ao de 18 de julho de 2013.

Captulo 8

x h1
q2 (x) = det

h2

qk (x)

..

..

..

0
0

x
...

1
= x2 h1 x h2 .

(k1)(k1)

x h1

.
+ 1 det .

h
k2

hk

1
x

ou seja,

0
..

..

..

0
0

x
...

Isso tem por implicacao

A An1 + an1 An2 + + a2 A + a1 1

338/2070

= a0 1 .


1
An1 + an1 An2 + + a2 A + a1 1 .
a0
Vide (8.160), pagina 402, para uma express
ao mais explcita.
A1 =

(8.43)

Nota. Usando a definicao de polinomio caracterstico pA (x) = det(x1 A), e evidente (tomando-se x = 0) que a0 = (1)n det(A). Assim,
a0 6= 0 se e somente se A for n
ao-singular.

Em muitos casos a f
ormula (8.43) e bastante eficiente para calcular A1 , pois a mesma envolve poucas operacoes
algebricas em comparacao com outros metodos, o que e uma vantagem para valores grandes de n. Compare, por
exemplo, com a regra de Laplace, express
ao (8.20), pagina 319, para o calculo de A1 , que envolve o computo de n2 + 1
determinantes de sub-matrizes de ordem n 1 de A.

(k1)(k1)

0
1 0 . . . 0

x 1 . . . 0
0

..
.
.
.
k1+1

.
.
.
= xqk1 (x) + (1)
(hk ) det
.
.
.
.

..
0
. 1 0
0

0
0 . . . x 1

E. 8.17 Exerccio. Use esse metodo para calcular a inversa das suas matrizes nao-singulares favoritas.

De volta ao polin
omio mnimo

O Teorema 8.2, pagina 334, e o Teorema de Hamilton-Cayley, juntos, permitem-nos precisar algo a respeito da forma
geral do polinomio mnimo de uma matriz.
Se A Mat (C, n) tem r autovalores distintos 1 , . . . , r , cada qual com multiplicidade algebrica a1 , . . . , ar ,
respectivamente, entao seu polinomio caracterstico pA e da forma
(k2)(k2)

pA (x) =

= xqk1 (x) + (1)k+1 hk (1)k2


= xqk1 (x) hk .
E. 8.16 Exerccio. Complete os detalhes.

(x k )ak .

Pelo Teorema de Hamilton-Cayley, pA (A) = 0 e, portanto, pelo Teorema 8.2, M , o polinomio mnimo de A, divide q.
Logo, M deve ser da forma
s
Y
(x kl )bl ,
(8.44)
M (x) =
l=1

onde s r, {k1 , . . . , ks } {1 , . . . , r } e onde 0 < bl akl para todo 1 l s. Seja agora, porem, vm 6= 0 um
autovetor de A com autovalor m Segue do fato que M (A) = 0 que

Assim, se pela hip


otese indutiva qk1 e da forma
qk1 (x) = xk1 (h1 xk2 + + hk2 x + hk1 ) ,

0 = M (A)vm =

s
Y
l=1

segue de (8.41) que

(A kl 1)bl vm =

s
Y
l=1

(m kl )bl vm .

Qs
Logo, l=1 (m kl )bl = 0 e isso implica que m {k1 , . . . , ks }. Como isso vale para todo 1 m r, segue que
{1 , . . . , r } {k1 , . . . , ks } e, portanto, {1 , . . . , r } = {k1 , . . . , ks }. Nossa conclusao e resumida no seguinte:

= x(xk1 (h1 xk2 + + hk2 x + hk1 )) hk


= xk (h1 xk1 + + hk2 x2 + hk1 x + hk ) ,

r
Y

k=1

(8.41)

qk (x)

Captulo 8

Vers
ao de 18 de julho de 2013.

O Teorema de Hamilton-Cayley fornece-nos um metodo de calcular a inversa de matrizes nao-singulares. De fato, se


pA (x) = xn + an1 xn1 + + a1 x + a0 e o polinomio caracterstico de uma matriz nao-singular A, entao o Teorema de
Hamilton-Cayley afirma que
An + an1 An1 + + a1 A + a0 1 = 0 ,

Para k > 2, tem-se, pelas bem conhecidas regras de calculo de determinantes,

JCABarata. Curso de Fsica-Matem


atica

O Teorema de Hamilton-Cayley e a inversa de matrizes

Prova. A prova e feita por inducao. Para k = 2 vale

x h1

.
= x det .

h
k2

hk1

337/2070

(8.42)

como queramos provar.

Proposi
c
ao 8.15 Seja A Mat (C, n) com r autovalores distintos 1 , . . . , r C, cada qual com multiplicidade
algebrica a1 , , . . . , ar , sendo 1 r n. Ent
ao, M , o polin
omio mnimo de A, e da forma
M (x) =

Retomando, temos que pA (A)y = qk (A)rk (A)y = rk (A)qk (A)y. Sucede, porem, que qk (A)y = 0. De fato, pelo
computo acima,
qk (A)y = Ak y h1 Ak1 y hk2 A2 y hk1 Ay hk y ,

que e igual a zero por (8.38). Logo pA (A)y = 0. Como y foi escolhido arbitr
ario, segue que pA (A) = 0, demonstrando o
Teorema de Hamilton-Cayley, Teorema 8.3.

r
Y

k=1

(x k )bk ,

(8.45)

x C, onde 0 < bl al para todo 1 l r. Em particular, se A Mat (C, n) tiver exatamente n autovalores
distintos, teremos que bl = al = 1 para todo 1 l n, e
M (x) = pA (x) =

n
Y

k=1

(x k ) ,

JCABarata. Curso de Fsica-Matem


atica

Vers
ao de 18 de julho de 2013.

Captulo 8

x C.

339/2070

Usos do Teorema de Hamilton-Cayley para matrizes 2 2


E. 8.18 Exerccio.
satisfaz
Sugestao: se A =

a b
c d

Usando o Teorema de Hamilton-Cayley, mostre que toda matriz 2 2 complexa A Mat (C, 2)
A2 Tr(A)A + det(A)1 = 0 .

, mostre que seu polin
omio caracterstico e pA (x) = x2 Tr(A)x + det(A).

(8.46)

Se A Mat (C, 2) for inversvel, mostre com uso de (8.46) que vale a simples relacao
A1 =


1 
Tr(A)1 A .
det(A)

(8.47)

JCABarata. Curso de Fsica-Matem


atica

Prova. Vamos primeiro provar que se A Mat (C, n) possui um conjunto de n autovetores linearmente independentes
entao A e diagonaliz
avel. Para tal vamos construir a matriz P que diagonaliza A.
Seja {v 1 , . . . , v n } um conjunto de n autovetores linearmente independentes de A, cujos autovalores sao {d1 , . . . , dn },
respectivamente. Vamos denotar as componentes de v i na base can
onica por vji , j = 1, . . . , n. Seja a matriz P definida
hh
ii
por P = v 1 , . . . , v n , ou seja,

v11

.
.
P =
.

vn1

Vamos agora apresentar uma nocao intimamente ligada `a de matriz simples introduzida acima (pagina 329), mas de
import
ancia maior.

avel se existir uma matriz inversvel P


Defini
c
ao. Uma matriz A Mat (C, n) e dita ser uma matriz diagonaliz
Mat (C, n) tal que P 1 AP e uma matriz diagonal, ou seja,

..

..
.
.

dn

= det(1 A) = det(P 1 (1 A)P ) = det(1 P 1 AP ) = det(1 D)

d1

.
.
= det
.

..

0
..
.
dn

= ( d1 ) ( dn ) ,

v11

hh
ii
.
1
n
.
d1 v , . . . , dn v
=
.

vn1

Diagonaliza
c
ao de matrizes

O pr
oximo teorema e fundamental no estudo de matrizes diagonaliz
aveis.

..

v1n d1

... ...

n
vn
0

..

..
.
= PD .

dn

E. 8.20 Exerccio. Verifique.

Vamos provar agora a afirmacao recproca que se A e diagonaliz


avel, entao possui n autovetores linearmente independentes. Suponha que exista P tal que

d1

.
.
P 1 AP = D =
.

evidente que os vetores da base can


E
onica

o que mostra que os di sao as razes do polin


omio caracterstico de A e, portanto, seus autovalores.
E. 8.19 Exerccio. Justifique todas as passagens acima.

v1n

..
.
.

n
vn

Portanto, AP = P D. Como, por hip


otese, as colunas de P sao formadas por vetores linearmente independentes,
tem-se que det(P ) 6= 0 (por que?). Logo, P e inversvel e, portanto, P 1 AP = D, como queramos demonstrar.

f
E
acil de se ver que os elementos da diagonal de D sao os autovalores de A. De fato, se A e diagonaliz
avel por P ,
vale para seu polin
omio caracterstico
p()

..

Por (8.15) vale, porem, que

Matrizes diagonaliz
aveis

Como se ve pela construcao, a a-esima coluna de P e formada pelas componentes do vetor v a . Por (8.12), segue que
hh
ii
hh
ii
AP = Av 1 , . . . , Av n = d1 v 1 , . . . , dn v n .

Matrizes Diagonaliz
aveis e o Teorema Espectral

d1

.
1
.
P AP = D = diag (d1 , . . . , dn ) =
.

340/2070

Teorema 8.4 Uma matriz A Mat (C, n) e diagonaliz


avel se e somente se possuir um conjunto de n autovetores
linearmente independentes, ou seja, se e somente se o subespaco gerado pela colec
ao de todos os autovetores de A possuir
dimens
ao n.
2

A identidade (8.46) tem emprego importante na Mecanica Quantica de sistemas desordenados unidimensionais e na
Mecanica Estatstica.
6

8.4

Captulo 8

Vers
ao de 18 de julho de 2013.

e1

1


0


=
0 ,

.
..



0

..

..
.
.

dn

e2

0


1


=
0 ,

.
..



0

...,

en

0


0


.
.
=
.


0



1

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

341/2070

sao autovetores de D com Dea = da ea . Logo, v a = P ea sao autovetores de A, pois


Av a = AP ea = P Dea = P (da ea ) = da P ea = da v a .

JCABarata. Curso de Fsica-Matem


atica

Vers
ao de 18 de julho de 2013.

Captulo 8

342/2070

A primeira propriedade e a afirmacao que se e um autovalor de um projetor E entao ou e igual a zero ou a um.
De fato se v e um autovetor associado a um autovalor de E, tem-se que Ev = v e E 2 v = 2 v. Como E 2 = E, segue
que 2 v = v. Logo ( 1) = 0 e, portanto, = 0 ou = 1.

Para provar que os vetores v a sao linearmente independentes, suponha que existam n
umeros complexos 1 , . . . , n tais
que 1 v 1 + + n v n = 0. Multiplicando-se `a esquerda por P 1 teramos 1 e1 + + n en = 0. Como os ea sao
obviamente linearmente independentes, segue que 1 = = n = 0.

A segunda propriedade e uma conseq


uencia da primeira: o traco de um projetor E Mat (C, n) e um n
umero inteiro
positivo ou nulo, mas menor ou igual a n. De fato, pela definicao, o traco de um projetor E e a soma de seus autovalores.
Como os mesmos valem zero ou um a soma e um inteiro positivo ou nulo. Como ha no maximo n autovalores a soma
nao pode exceder n. Na verdade, o u
nico projetor cujo traco vale exatamente n e a identidade 1 e o u
nico projetor cujo
traco vale exatamente 0 e a matriz nula (por que?).

Matrizes diagonaliz
aveis e matrizes simples

Essas observacoes tem a seguinte conseq


uencia que usaremos adiante. Se E1 , . . . , Er sao r projetores nao-nulos com
a propriedade que
r
X
Ea
1 =

Vamos agora discutir a relacao entre os conceitos de matriz diagonaliz


avel e o de matriz simples, conceito esse
introduzido `
a pagina 329. Tem-se a saber o seguinte fato:
Proposi
c
ao 8.16 Uma matriz A Mat (C, n) e diagonaliz
avel se e somente se for simples, ou seja, se e somente se a
multiplicidade algebrica de cada um dos seus autovalores coincidir com sua multiplicidade geometrica.
2

Prova. Se A e diagonaliz
avel existe P tal que P 1 AP = D, diagonal. Como toda matriz diagonal, D e simples.
Escrevamos D na forma

D = diag 1 , . . . , 1 , . . . , r , . . . , r , .
|
{z
}
{z
}
|
a1 vezes
ar vezes

Um conjunto de n-autovetores de D linearmente independentes e fornecido pelos vetores da base can


onica:



e1

1


0


=
0 ,

.
..



0

e2

0


1


=
0 ,

.
..



0

...,

en

0


0


.
.
=
. .


0



1

Os vetores e1 , . . . , ea1 geram o subespaco de autovetores com autovalor 1 de D etc.

claro que a
Para a matriz A, os vetores P e1 , . . . , P ea1 geram o subespaco de autovetores com autovalor 1 etc. E
a que os vetores da base canonica
dimens
ao desse subespaco e a1 , pois P e1 , . . . , P ea1 sao linearmente independentes, j
1
a1
e , . . . , e o sao. Como isso tambem vale para os demais autovalores conclumos que A e simples.
Resta-nos agora mostrar que se A Mat (C, n) e simples entao A e diagonaliz
avel. Como antes, sejam 1 , . . . , r ,
1 r n, seus autovalores distintos, cada qual com multiplicidade algebrica a1 , . . . , ar , respectivamente, e seja E(i )
o subespaco gerado pelos autovetores com autovalor i . Como A e simples, tem-se que a dimens
ao de E(i ) e ai . J
a
observamos (pagina 328) que subespacos E(i ) associados a autovalores distintos tem em comum
Pr apenas o vetor nulo.
Assim, se em cada E(i ) escolhermos ai vetores independentes, teremos ao todo um conjunto de i=1 ai = n autovetores
(vide (8.30)) linearmente independentes de A. Pelo Teorema 8.4, A e diagonaliz
avel, completando a prova.
Projetores

Uma matriz E Mat (C, n) e dita ser um projetor se satisfizer


E2 = E .

Projetores sao tambem denominados matrizes idempotentes.


Discutiremos v
arias propriedades importantes de projetores adiante, especialmente de uma classe especial de projetores denominados projetores ortogonais. Por ora, vamos mostrar duas propriedades que usaremos logo abaixo quando
discutirmos o teorema espectral.

a=1

entao r n. Para ver isso, basta tomar o traco de ambos os lados dessa express
ao:
r
X

Tr(1) =

Tr(Ea ) .

(8.48)

a=1

O lado esquerdo vale n enquanto que o lado direito e uma soma de r inteiros positivos. Obviamente isso so e possvel se
r n.

Uma outra observacao u


til e a seguinte: se E e E sao dois projetores satisfazendo EE = E E = 0, entao E + E e
igualmente um projetor, como facilmente se constata.
O Teorema Espectral

O chamado Teorema Espectral e um dos mais importantes teoremas de toda a Algebra


Linear e, em verdade, de
toda Analise Funcional, j
a que o mesmo possui generalizacoes para operadores limitados e nao-limitados (auto-adjuntos)
agindo em espacos de Hilbert. Dessas generalizacoes trataremos na Secao 37.8.2, pagina 1957, para o caso dos chamados
operadores compactos e na Secao 37.9, pagina 1963, para o caso geral de operadores limitados auto-adjuntos. Nessa versao
mais geral o teorema espectral e de import
ancia fundamental para a interpretacao probabilstica da Fsica Qu
antica. Vide
discussao da Secao 37.9.5, pagina 1979.
Teorema 8.5 (Teorema Espectral para Matrizes) Uma matriz A Mat (C, n) e diagonaliz
avel se e somente se
existirem r N, 1 r n, escalares distintos 1 , . . . , r e projetores n
ao-nulos distintos E1 , . . . , Er Mat (C, n)
tais que
r
X
A =
a Ea ,
(8.49)
a=1

1 =

r
X

Ea

(8.50)

a=1

Ei Ej = i, j Ej .
Os escalares 1 , . . . , r vem a ser os autovalores distintos de A.

Adiante demonstraremos uma versao um pouco mais detalhada desse importante teorema (Teorema 8.7, abaixo). Os
projetores Ea que surgem em (8.49) sao denominados projetores espectrais de A. A decomposicao (8.49) e freq
uentemente
denominada decomposic
ao espectral de A. Na Proposicao 8.18, pagina 344 mostraremos como os projetores espectrais
Ea de A podem ser expressos em termos de polinomios em A. Na Proposicao 8.19, pagina 345, provaremos a unicidade
da decomposicao espectral de uma matriz diagonaliz
avel.
Prova do Teorema 8.5. Se A Mat (C, n) e diagonaliz
avel existe P Mat (C, n) tal que P 1 AP = D = diag (1 , . . . , n ),
onde 1 , . . . , n sao os autovalores de A. Como pode haver autovalores repetidos, vamos denotar por {1 , . . . , r },
1 r n, o conjunto de autovalores distintos de A.

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

bem claro que podemos escrever


E

r
X

D =

343/2070

JCABarata. Curso de Fsica-Matem


atica

344/2070

Logo, ou Ek x = 0 ou Ek x e autovetor de A. Assim, o subespaco S gerado pelos conjunto de vetores {Ek x, x Cn , k =


1, . . . , r} e um subespaco do espaco A gerado pelos autovetores de A. Agora, por (8.50), temos, para todo x Cn ,

a Ka ,

a=1

r
X

x = 1x =

onde as matrizes Ka sao todas matrizes diagonais, cujos elementos diagonais sao ou 0 ou 1 e tais que
r
X

Captulo 8

Vers
ao de 18 de julho de 2013.

Ek x

k=1

Ka = 1 .

(8.51)

e este fato revela que Cn = S A e, portanto, que A = Cn . Assim, pelo Teorema 8.4, pagina 340, A e diagonaliz
avel.
Isso completa a demonstracao.

a=1

As matrizes Ka sao simplesmente definidas de modo a terem elementos de matriz iguais a 1 nas posicoes da diagonal
ocupadas pelo autovalor a em D e zero nos demais. Formalmente,

1, se i = j e (D)ii = a

(Ka )ij =
0, se i = j e (D)ii 6= a .

0, se i 6= j

Por exemplo, se

D =

0
3
0
0

0 0

0 0

2 0

0 4

teremos

D = 2

0
0
0
0

0 0
0

0
0 0

+3

0
1 0

0 0
0

0
1
0
0

f
E
acil constatar que as matrizes Ka tem a seguinte propriedade:

0 0
0

0
0 0

+4

0
0 0

0 0
0

Ka Kb = a, b Ka .

0
0
0
0

A =

r
X

O C
alculo Funcional para matrizes diagonaliz
aveis

O Teorema Espectral tem o seguinte corol


ario, muitas vezes conhecido como c
alculo funcional.

Teorema 8.6 (C
alculo Funcional) Seja A Mat (C, n) uma matriz diagonaliz
avel e seja
A =

r
X

a Ea

a=1

sua decomposic
ao espectral, de acordo com o Teorema Espectral, o Teorema 8.5. Ent
ao, para qualquer polin
omio p vale

0 0

0 0

0 0

0 1

p(A) =

r
X

p(a )Ea .

(8.53)

a=1

Prova. Tem-se, pelas propriedades dos Ea s, A2 =

r
X

a b Ea Eb =

a, b=1

(8.52)

De fato, e evidente que (Ka )2 = Ka para todo a, pois Ka e diagonal com zeros ou uns na diagonal. Analogamente, se
a 6= b Ka Kb = 0, pois os zeros ou uns aparecem em lugares distintos das diagonais das duas matrizes.
Como A = P DP 1 , tem-se que

No Teorema 8.7, pagina 347, apresentaremos uma segunda demonstracao do Teorema Espectral para Matrizes, a qual
lanca luz sobre outras condicoes de diagonalizabilidade de matrizes. Antes, exploremos algumas das conseq
uencias do
Teorema Espectral.

a Ea ,

mostra-se que Am =

r
X

2
r
X

a b a, b Ea =

a, b=1

f
onde Ea := P Ka P 1 . E
acil agora provar que 1 =

(a )m Ea , para qualquer m N. O resto da prova e trivial.

E. 8.21 Exerccio. Usando (8.53) demonstre novamente o Teorema de Hamilton-Cayley (Teorema 8.3, pagina 335), agora
apenas para o caso particular de matrizes diagonalizaveis.
6
Por simples constatacao verifica-se tambem facilmente a validade do seguinte resultado, que usaremos diversas vezes:

Ea e que Ei Ej = i, j Ej . De fato, por (8.51),

Proposi
c
ao 8.17 Seja A Mat (C, n) uma matriz diagonaliz
avel e inversvel e seja A =

a=1
r
X

Ea =

a=1

r
X

P Ka P

= P

r
X

a=1

a=1

Ka

espectral, de acordo com o Teorema Espectral, o Teorema 8.5. Ent


ao, A1
P

= P 1P

= 1.

Analogamente, tem-se por (8.52),


Ea Eb = P Ka P 1 P Kb P 1 = P Ka Kb P 1 = a, b P Ka P 1 = a, b Ea .
Vamos agora provar a recproca. Vamos supor que A possua a representacao (8.49), onde os Ea s satisfazem as
propriedades enunciadas.
Notemos primeiramente que para x Cn , e para k {1, . . . , r}, tem-se por (8.49)
AEk x =

r
X
j=1

(a )2 Ea . Analogamente,

a=1

a=1

a=1
r
X

r
X

j Ej Ek x = k Ek x .

r
X
1
Ea .
=

a=1 a

r
X

a Ea sua decomposic
ao

a=1

Obtendo os projetores espectrais

O Calculo Funcional para matrizes, Teorema 8.6, tem diversas conseq


uencias pr
aticas, uma delas sendo a seguinte
proposicao, que permite expressar os projetores espectrais de uma matriz A diretamente em termos de A e seus autovalores.
Proposi
c
ao 8.18 Seja A Mat (C, n), n
ao-nula e diagonaliz
avel, e seja A = 1 E1 + + r Er , com os k s distintos,
sua representac
ao espectral, descrita no Teorema 8.5. Sejam os polin
omios pj , j = 1, . . . , r, definidos por

r 
Y
x l
.
(8.54)
pj (x) :=
j l
l=1
l6=j

JCABarata. Curso de Fsica-Matem


atica

Ent
ao,

345/2070

r 

1
Y
A l 1

j k l=1

Y
Ej = pj (A) =
k=1
k6=j

para todo j = 1, . . . , r.

Captulo 8

Vers
ao de 18 de julho de 2013.

(8.55)

l6=j

JCABarata. Curso de Fsica-Matem


atica

pj (A) =

r
X

j6=k

l6=k

Observe-se tambem que (8.57) implica

pj (k )Ek = Ej .

r 
r 




Y
Y
1
k l A1 1
A l 1 =
1
l 1
k l

(1)r1
Qr

O Teorema Espectral para matrizes. Unicidade


Proposi
c
ao 8.19 A representac
ao espectral de uma matriz diagonaliz
avel A Mat (C, n) descrita no Teorema 8.5 e
u
nica.
2

k Ek a representacao espectral de A descrita no

k=1

Teorema 8.5, onde k , k = 1, . . . , r, com 1 r n sao os autovalores distintos de A, Seja A =

r
X

k Ek

uma segunda

k=1

representacao espectral para A, onde os k s sao distintos e onde os Ek s sao nao-nulos e satisfazem Ej El = j, l El e
r
X
Pr
Ek . Por essa u
ltima propriedade segue que para um dado vetor x 6= 0 vale x = k=1 Ek x, de modo que nem todos
1=
k=1

os vetores Ek x sao nulos. Seja Ek 0 x um desses


mostra que k0 e um dos autovalores de A e,

AEk 0 x

Pr


k=1 k Ek Ek0 x

k0 Ek 0 x.

vetores nao-nulos. Tem-se que


=
=
Isso
portanto, {1 , . . . , r } {1 , . . . , r }. Isso, em particular ensina-nos

que r r. Podemos sem perda de generalidade considerar que os dois conjuntos sejam ordenados de modo que k = k
para todo 1 k r . Assim,
r
r
X
X
k Ek .
(8.56)
k Ek =
A =
k=1

k=1

Sejam agora os polin


omios pj , j = 1, . . . , r, definidos em (8.54), os quais satisfazem pj (j ) = 1 e pj (k ) = 0 para
todo k 6= j. Pelo Calculo Funcional descrito acima, segue de (8.56) que, com 1 j r ,
pj (A) =

r
X

pj (k )Ek =

k=1

pj (k )Ek ,

Ej = Ej .

k=1

{z

=Ej

{z

=Ej

P
(A igualdade pj (A) = rk=1 pj (k )Ek segue do fato que os Ek s satisfazem as mesmas relacoes algebricas que os Ek s
e, portanto, para a representacao espectral de A em termos dos Ek s vale tambem o Calculo Funcional). Como 1 =
r
r
r
X
X
X
Ek = 0. Multiplicando isso por El com r + 1 l r,
Ek e como Ej = Ej para 1 j r , tem-se
Ek =
k=1

k=1

r2
k

j=1

k=r +1

segue que El = 0 para todo r + 1 l r. Isso so e possvel se r = r , pois os E ks sao nao-nulos. Isso completa a
demonstracao.

Algumas outras identidades decorrentes do Teorema Espectral

r 
Y
l=1
l6=k

A l 1

r 
Y
l=1
l6=k


A1 1
l 1 .

(8.59)

Prova da Proposicao 8.20. Pelo Teorema Espectral e por (8.55) podemos escrever A em sua representacao espectral:

r
r
r 

X
1
Y
Y
k
A =
A l 1 .
(8.60)

k j l=1
j=1
k=1

j6=k

l6=k

Se A e tambem invertvel, a Proposicao 8.17, pagina 344, informa-nos que

r
r 
r

X
1
1 Y
Y
A l 1 .
A1 =

k j=1 k j l=1
k=1

j6=k

l6=k

1
Por outro lado, se A e invertvel, A1 e diagonaliz
avel (justifique!), e seus autovalores distintos sao {1
1 , . . . , r }
(justifique!). Logo, a representacao espectral de A1 e

r
r
r 

X
Y
1
Y
1
1
A
=
k
A1 1
l 1 ,
1
1

j=1
j
l=1
k
k=1
j6=k

onde as matrizes


Qr

j=1
j6=k

Proposicao 8.17, obtemos

1
1
1
k j

Qr

l=1
l6=k

r
X

(8.58)

l=1
l6=k

l=1
l6=k

r
X

l6=k

para cada k {1, . . . , r}.

k=1

Demonstracao. Seja A Mat (C, n) diagonaliz


avel e seja A =

346/2070

Proposi
c
ao 8.20 Seja A Mat (C, n) uma matriz diagonaliz
avel e invertvel, cujos autovalores distintos sejam
{1 , . . . , r }, para algum 1 r n. Ent
ao, vale a identidade

r 
r
r
r 


1
1
Y
Y
Y
Y
A l 1 =
(8.57)
A1 1

l 1 ,
1
1

k
j
j=1
j=1
j
l=1
l=1
k
j6=k

Prova. Pela definicao dos polin


omios pj , e evidente que pj (k ) = j, k . Logo, pelo Calculo Funcional para matrizes,

Captulo 8

Vers
ao de 18 de julho de 2013.

A =

r
X

k=1

l6=k

ao os projetores espectrais de A1 . Aplicando novamente a


A1 1
l 1 s

Y
k
j=1
j6=k

r 

1
Y
A1 1
l 1 .
1
1
k j
l=1

(8.61)

l6=k

Comparando (8.60) a (8.61) e evocando a unicidade da representacao espectral de A, conclumos pela validade de (8.57)
para cada k {1, . . . , r}.
E. 8.22 Exerccio. Seja A Mat (C, n) uma matriz diagonalizavel e invertvel com apenas dois autovalores distintos, 1
e 2 . Usando (8.57) ou (8.59) mostre que


1 
1 + 2 1 A .
(8.62)
A1 =
1 2

Essa rela
ao e geralmente valida para matrizes nao-diagonalizaveis e invertveis com apenas dois autovalores distintos. A
 c1a1o n
0
matriz 0 1 0 tem autovalores +1 e 1, e invertvel, nao e diagonalizavel e nao satizfaz (8.62). Verifique! Prove (8.62)
0 0 1
diretamente do Teorema Espectral.
6

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

347/2070

JCABarata. Curso de Fsica-Matem


atica

O Teorema Espectral, Teorema 8.5, pode ser formulado de um modo mais detalhado (Teorema 8.7). A principal
utilidade dessa outra formulacao e a de fornecer mais informacoes sobre os projetores espectrais Ea (vide express
ao
(8.65), abaixo). Obtem-se tambem nessa nova formulacao mais condicoes necess
arias e suficientes a` diagonalizabilidade
e que podem ser u
teis, como veremos, por exemplo, no Teorema 8.22 provado adiante (pagina 350). No teorema a seguir
e em sua demonstracao seguimos parcialmente [72].
Teorema 8.7 (Teorema Espectral para Matrizes. Vers
ao Detalhada) Seja A Mat (C, n). S
ao equivalentes
as seguintes afirmac
oes:
1. A possui n autovetores linearmente independentes, ou seja, o subespaco gerado pelos autovetores de A tem dimens
ao
n.
2. A e diagonaliz
avel, ou seja, existe uma matriz P Mat (C, n) inversvel tal que P 1 AP e uma matriz diagonal
diag (d1 , . . . , dn ), onde os di s s
ao autovalores de A.
3. Para todo vetor x Cn e todo escalar C tais que (A 1)2 x = 0, vale que (A 1)x = 0.

0 = P (D 1)P 1 x = (P DP 1 1)x = (A 1)x ,


que e o que queramos provar.
3 4. A prova e feita por contradicao. Vamos supor que para algum vetor x 6= 0 exista C tal que (A 1)x = 0.
Suponhamos tambem que exista vetor y tal que (A 1)y = x. Teramos
(A 1)2 y = (A 1)x = 0 .
Pelo item 3 isso implica (A 1)y = 0. Mas isso diz que x = 0, uma contradicao.
4 5. Seja M o polinomio mnimo de A, ou seja, o polinomio monico8 de menor grau tal que M (A) = 0. Vamos
mostrar que todas as razes de M tem multiplicidade 1. Vamos, por contradicao, supor que haja uma raiz, 0 , com
multiplicidade maior ou igual a 2. Teramos, para x C,
M (x) = p(x)(x 0 )2 .

4. Se x e um vetor n
ao-nulo tal que (A 1)x = 0 para algum C ent
ao n
ao existe nenhum vetor y com a
propriedade que (A 1)y = x.

Assim, M (A) = p(A)(A 0 1)2 = 0. Como M e, por definicao, o polinomio de menor grau que zera em A, segue
que
p(A)(A 0 1) 6= 0 .

5. Todas as razes do polin


omio mnimo de A tem multiplicidade 1.

Assim, existe pelo menos um vetor z tal que p(A)(A0 1)z =


6 0. Vamos definir um vetor x por x := p(A)(A0 1)z.
Entao,
(A 0 1)x = (A 0 1)p(A)(A 0 1)z = p(A)(A 0 1)2 z = M (A)z = 0 ,

6. Existem r N, escalares distintos 1 , . . . , r e projetores distintos E1 , . . . , Er Mat (C, n), denominados


projetores espectrais de A, tais que
r
X
a Ea .
A =

pois M (A) = 0. Agora, pela definicao,

a=1

1 =

r
X

Ea

Ei Ej = i, j Ej .

(8.64)

Os projetores espectrais Ek do item 6, acima, podem ser expressos em termos de polin


omios da matriz A:
Ek =

1
mk (A) ,
mk (k )

5 6. Pela hip
otese que as razes de M sao simples segue da express
ao (8.45) da Proposicao 8.15, pagina 338, que para
x C,
r
Y
M (x) =
(x j ) ,
j=1

onde j sao as razes de M e que coincidem com os r autovalores distintos de A. Para k = 1, . . . , r defina-se os
polinomios mk por
M (x) =: (x k )mk (x) ,

(8.65)

para todo k, 1 k r, onde os polin


omios mk s
ao definidos por

ou seja,

M (x) = (x k )mk (x) ,

mk (x) :=

M sendo o polin
omio mnimo de A.

Vamos agora definir mais um polinomio, g, da seguinte forma:


g(x) = 1

P 1 (A 1)2 P y = 0

ou seja, (dj )2 yj = 0, j = 1, . . . , n, onde yj sao as componentes de y: y =


(da )2 ya = 0 entao (da )ya = 0. Logo

r
X

k=1

1
mk (x) .
mk (k )

Como os polinomios mk tem grau r 1, o polinomio g tem grau menor ou igual a r 1. Porem, observe-se que,
para todos os j , j = 1, . . . , r, vale
y1

..
.

yn

g(j ) = 1

. Agora, e evidente que se


8A

(D 1)y = 0 .

(x j ) .

claro que mk (j ) = 0 j 6= k (por que?).


E

2 3. Seja D = P 1 AP diagonal. D = diag (d1 , . . . , dn ). Seja (A 1)2 x = 0. Segue que

(D 1)2 y = 0 ,

r
Y
j=1
j6=k

Demonstracao. A prova da equivalencia sera feita demonstrando-se sucessivamente as seguintes implicacoes: 1 2,


2 3, 3 4, 4 5, 5 6, 6 1. Que 1 implica 2 j
a foi demonstrado no Teorema 8.4, pagina 340.

onde y = P 1 x. Logo,

x = (A 0 1)y ,

onde y = p(A)z. Pelo item 4, porem, isso e impossvel.

(8.63)

a=1

348/2070

Usando-se y = P 1 x e multiplicando-se `a direita por P , conclumos que

O Teorema Espectral para matrizes. Uma segunda visita

Alem disso, as matrizes Ea satisfazem

Captulo 8

Vers
ao de 18 de julho de 2013.

definica
o de polin
omio m
onico est
a`
a p
agina 334.

r
X

k=1

mj (j )
1
mk (j ) = 1
= 0.
mk (k )
mj (j )

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

349/2070

Assim, g tem pelo menos r razes distintas! O u


nico polin
omio de grau menor ou igual a r 1 que tem r razes
distintas e o polin
omio nulo. Logo, conclumos que
g(x) = 1

r
X

k=1

1
mk (x) 0
mk (k )

JCABarata. Curso de Fsica-Matem


atica

6 1. Notemos primeiramente que para todo vetor x, os vetores Ek x ou sao nulos ou sao autovetores de A. De fato, por
6,
r
X
AEk x =
j Ej Ek x = k Ek x .

Logo, ou Ek x = 0 ou Ek x e autovetor de A. O espaco gerado pelos autovetores de A obviamente tem dimens


ao
menor ou igual a n. Por (8.67), porem, vale para todo vetor x que
x = 1x =

1
mk (A) ,
mk (k )

conclumos que

1 =

r
X

(8.66)

Ek .

(8.67)

Para todo k vale 0 = M (A) = (A k 1)mk (A), ou seja, Amk (A) = k mk (A). Pela definicao de Ek isso significa

Assim, multiplicando-se ambos os lados de (8.67) por A, segue que


k Ek .

1
mi (A)mj (A)
mi (i )mj (j )

r
r
1
Y

Y
(A k 1) (A l 1)
mi (i )mj (j ) k=1
l=1
l6=j

#
" r
r
1
Y
Y
(A k 1)
(A l 1)

mi (i )mj (j )
k=1
l=1

k6=i, k6=j

mi (i )mj (j )

r
Y

k=1
k6=i, k6=j

(E2 )2 = (1 E)2 = 1 2E + E 2 = 1 2E + E = 1 E = E2 .

Tem-se tambem que E1 E2 = 0, pois E1 E2 = E(1 E) = E E 2 = E E = 0. Fora isso, e obvio que 1 = E1 + E2 e


que E = 1 E1 + 2 E2 , com 1 = 1 e 2 = 0. Ora, isso tudo diz que E satisfaz precisamente todas as condicoes do item
6 do Teorema 8.7. Portanto, pelo mesmo teorema, E e diagonaliz
avel.

Para i 6= j tem-se pela definicao dos Ek s que

Diagonalizabilidade de projetores

Prova. Seja E Mat (C, n) um projetor. Definamos E1 = E e E2 = 1 E. Entao, E2 e tambem um projetor, pois

Para completar a demonstracao de 6, resta-nos provar que Ei Ej = i, j Ej .

k6=i

Destacamos ao leitor o fato de que a express


ao (8.65) permite representar os projetores espectrais diretamente em
termos da matriz diagonaliz
avel A.

Proposi
c
ao 8.21 Seja E Mat (C, n) um projetor, ou seja, tal que E 2 = E. Ent
ao, E e diagonaliz
avel.

k=1

Ei Ej

Assim, todo vetor x pode ser escrito como uma combinacao linear de autovetores de A, o que significa que o espaco
gerado pelos autovetores tem dimens
ao exatamente igual a n.

A proposicao abaixo e uma aplicacao simples do Teorema 8.7 a projetores. A mesma sera usada abaixo quando
falarmos de diagonalizacao simult
anea de matrizes.

AEk = k Ek .

A =

Ek x .

Isso completa a demonstracao do Teorema 8.7.

k=1

r
X

r
X

k=1

k=1

Ek :=

350/2070

j=1

para todo x C. Isso significa que todos os coeficientes de g sao nulos. Assim, para qualquer matriz B tem-se
g(B) = 0. Para a matriz A isso diz que
r
X
1
mk (A) .
1 =
mk (k )

Definindo-se

Captulo 8

Vers
ao de 18 de julho de 2013.

(A k 1) M (A)

0,

pois M (A) = 0. Resta-nos provar que Ej2 = Ej para todo j. Multiplicando-se ambos os lados de (8.67) por Ej
teremos
r
X
Ej =
Ej Ek = Ej Ej ,
k=1

j
a que Ej Ek = 0 quando j 6= k. Isso completa a demonstracao do item 6.

Uma condi
c
ao suficiente para diagonalizabilidade

Ate agora estudamos condicoes necess


arias e suficientes para que uma matriz seja diagonaliz
avel. Vimos que uma
matriz A Mat (C, n) e diagonaliz
avel se e somente se for simples ou se e somente se tiver n autovetores linearmente
independentes ou se e somente se puder ser representada na forma espectral, como em (8.49). Nem sempre, porem, e
imediato verificar essas hip
oteses, de modo que e u
til saber de condicoes mais facilmente verificaveis e que sejam pelo
menos suficientes para garantir diagonalizabilidade. Veremos abaixo que e, por exemplo, suficiente que uma matriz seja
auto-adjunta ou normal para garantir que ela seja diagonaliz
avel.
Uma outra condicao u
til e aquela contida na seguinte proposicao.
Proposi
c
ao 8.22 Se A Mat (C, n) tem n autovalores distintos, ent
ao A e diagonaliz
avel.

Prova. Isso e imediato pelas Proposicoes 8.9 e 8.16, das paginas 330 e 341, respectivamente.
Observac
ao. A condicao mencionada na ultima proposicao e apenas suficiente, pois ha obviamente matrizes diagonalizaveis que nao tem
autovalores todos distintos.

Outra forma de provar a Proposicao 8.22 e a seguinte. Seja {1 , . . . , n } o conjunto dos n autovalores de A,
todos distintos. O polinomio caracterstico de A e q(x) = (x 1 ) (x n ). Como as razes de q tem, nesse caso,
multiplicidade 1, segue pela Proposicao 8.15, pagina 338, que o polinomio mnimo de A, M , coincide com o polinomio
caracterstico de A: q(x) = M (x), x C. Logo, o polinomio mnimo M de A tem tambem razes com multiplicidade
1. Assim, pelo item 5 do Teorema 8.7, pagina 347, A e diagonaliz
avel.

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

351/2070

E. 8.23 Exerccio. Demonstre a seguinte afirmacao: se os autovalores de uma matriz A sao todos iguais, entao A e
diagonalizavel se e somente se for um multiplo de 1. Sugestao: use o Teorema Espectral ou a forma geral do polin
omio
mnimo (8.45).
6
Segue da afirmativa desse exerccio que matrizes triangulares superiores com diagonal principal constante, ou seja,
da forma

.
.
A =
.

A12

. . . A1(n1)

. . . A2(n1)
..

...

...

A1n

A2n

..
,
.

A(n1)n

JCABarata. Curso de Fsica-Matem


atica

Qi, j = EiA EjB = EjB EiA


para i = 1, . . . , r e j = 1, . . . , s.
Note-se que os Qi, j s sao projetores pois
Q2i, j = (EiA EjB )(EiA EjB ) = (EiA )2 (EjB )2 = EiA EjB = Qi, j .
Fora isso, e f
acil ver que,

Note-se tambem que

1 =

r X
s
X

Qi, j =

r X
s
X

r
X

i EiA

i=1

B =

s
X

EiA

i=1

Afirmamos que podemos escrever

Vamos agora passar a mostrar que se AB = BA entao ambas sao diagonaliz


aveis por uma mesma matriz P . Sejam
1 , . . . , r os r autovalores distintos de A e 1 , . . . , s os s autovalores distintos de B. Evocando o teorema espectral,
A e B podem ser escritos de acordo com suas decomposicoes espectrais como

r
X

EiA EjB =

i=1 j=1

Uma matriz A Mat (C, n) e dita ser diagonalizada por uma matriz P Mat (C, n) se P 1 AP for uma matriz diagonal.

Prova. A parte f
acil da demonstracao e provar que se A e B podem ser diagonalizadas pela mesma matriz P entao A e
B comutam entre si. De fato P 1 (AB BA)P = (P 1 AP )(P 1 BP ) (P 1 BP )(P 1 AP ) = 0, pois P 1 AP e P 1 BP
sao ambas diagonais e matrizes diagonais sempre comutam entre si (por que?). Assim, P 1 (AB BA)P = 0 e, portanto,
AB = BA.

Qi, j ,

pois

i=1 j=1

Teorema 8.8 (Diagonaliza


c
ao Simult
anea de Matrizes) Duas matrizes diagonaliz
aveis A e B Mat (C, n) podem
ser diagonalizadas pela mesma matriz P Mat (C, n) se e somente se AB = BA, ou seja, se e somente se comutarem
entre si.
2

r X
s
X

(8.71)

i=1 j=1

Diagonaliza
c
ao Simult
anea de Matrizes

A =

(8.70)

E. 8.24 Exerccio. Mostre isso.

Uma quest
ao muito importante e saber quando duas matrizes diagonaliz
aveis podem ser diagonalizadas por uma
mesma matriz P . A resposta e fornecida no pr
oximo teorema.

352/2070

Com isso, vamos definir

Qi, j Qk, l = i, k j, l Qi, j .

so sao diagonaliz
aveis se todos os elementos acima da diagonal principal forem nulos, ou seja, se Aij = 0, j > i.
Naturalmente, a mesma afirmativa e v
alida para matrizes da forma AT , triangulares inferiores com diagonal principal
constante.

8.4.1

Captulo 8

Vers
ao de 18 de julho de 2013.

r X
s
X

A =

! s
X

EjB = 11 = 1 .
j=1

i,A j Qi, j

(8.72)

i,B j Qi, j ,

(8.73)

i=1 j=1

r X
s
X

B =

i=1 j=1

onde i,A j = i e i,B j = j . De fato, com essas definicoes,


r X
s
X

i,A j Qi, j =

i=1 j=1

r X
s
X

r
X

i EiA EjB =

i=1 j=1

i EiA

i=1

Para B a demonstracao e an
aloga.

s
X
j=1

EjB = A1 = A .

Nas relacoes (8.72) e (8.73) e possvel fazer simplificacoes em funcao do fato de que nem todos os projetores Qi, j sao
nao-nulos. Seja Q1 . . . , Qt a lista dos projetores Qi, j nao-nulos, ou seja,
{Q1 . . . , Qt } = {Qi, j | Qi, j 6= 0, i = 1, . . . , r e j = 1, . . . , s} .

j EjB ,

evidente por (8.70) que os Qk s sao projetores e que


E

j=1

onde, de acordo com (8.65),

Qk Ql = k, l Qk .
EiA

(i k )
=
(A k 1) ,

k=1
k=1

r
Y
k6=i

e
EjB

k6=j

(8.68)

Por (8.71), tem-se

1 =

k6=i

(j k )
=
(B k 1) ,

k=1
k=1

s
Y

i = 1, . . . , r

t
X

Qk

(8.74)

A
k Qk

(8.75)

B
k Qk

(8.76)

k=1

e por (8.72) e (8.73)


j = 1, . . . , s .

(8.69)

A =

k=1

k6=j

Como A e B comutam entre si e como EiA e EjB , dados em (8.68)(8.69), sao polin
omios em A e B, respectivamente,
segue que EiA e EjB tambem comutam entre si para todo i e todo j.

t
X

B =

t
X

k=1

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

353/2070

B
onde as constantes A
ao relacionadas de modo obvio com i,A j e i,B j , respectivamente.
k e k est

Em (8.75) e (8.76) vemos que A e B, por serem diagonaliz


aveis e por comutarem entre si, tem decomposicoes espectrais
com os mesmos projetores espectrais. Note-se tambem que, pela observacao feita no topico Projetores, a` pagina 341
(vide equacao (8.48)), tem-se 1 t n.

JCABarata. Curso de Fsica-Matem


atica

Escrevendo B =

Ql uak = k, l uak ,

pois

Qk uak

uak

e, portanto,

Ql uak

Ql (Qk uak )

(Ql Qk )uak

Afirmamos que o conjunto de vetores


u11 ,

...,

ud11 ,

u12 ,

(8.77)

= 0 para k 6= l.

...,

ud22 ,

. . . u1t ,

...,

BP =
onde

hh
ii
1
B d1
B 1
B d2
B 1
B dt
B
= P DB ,
1 u 1 , . . . , 1 u 1 , 2 u 2 , . . . , 2 u 2 , . . . , t u t , . . . , t u t
DB

(8.78)

k=i j=1

j
j=1 cl, j ul

= 0, o que so e possvel se cl, j = 0 para todo j pois u1l , . . . , uldl , foram


Aplicando-se `
a direita Ql teramos
escolhidos linearmente independentes. Como l e arbitr
ario, conclumos que cl, j = 0 para todo l e todo j, o que mostra
que o conjunto de vetores em (8.78) e linearmente independente.
Seja entao a matriz P Mat (C, n) definida por
ii
hh
P = u11 , . . . , ud11 , u12 , . . . , ud22 , . . . u1t , . . . , udt t .

Escrevendo A =

Pt

A
l=1 l

hh
ii
Au11 , . . . , Aud11 , Au12 , . . . , Aud22 , . . . , Au1t , . . . , Audt t .

Ql (8.75) e usando (8.77), temos


Auak =

t
X

AP =
onde

hh

Matrizes Auto-Adjuntas, Normais e Unit


arias

Seja V um espaco vetorial dotado de um produto escalar h, i e seja A : V V um operador linear. Um operador
linear A que para todos u, v V satisfaca
hu, Avi = hA u, vi

Sejam u = (u1 , . . . , un ) e v = (v1 , . . . , vn ) dois vetores de Cn para os quais define-se o produto escalar usual
hu, vi =

n
X

uk vk .

k=1

Os seguintes fatos sao importantes:


Proposi
c
ao 8.23 Se A e B s
ao dois operadores lineares agindo em Cn ent
ao

para todos , C. Fora isso,

A dt
A 1
A d1
A 1
A d1
1
A
1 u 1 , . . . , 1 u 1 , 2 u 1 , . . . , 2 u 1 , . . . , t u t , . . . , t u t

8.5

(A + B) = A + B
A a
a
A
l Ql u k = k u k .

l=1

Assim,

Portanto, P 1 BP = DB . Isso provou que A e B sao diagonaliz


aveis pela mesma matriz inversvel P . A demonstracao
do Teorema 8.8 est
a completa.

Um operador linear A e representado (na base can


onica) por uma matriz cujos elementos de matriz sao Aij , com
i, j {1, . . . , n}.
um exerccio simples (faca!) verificar que o operador adjunto A de A e representado (na base can
E
onica) por uma
matriz cujos elementos de matriz sao (A )ij = Aji , com i, j {1, . . . , n}. Ou seja, a matriz adjunta de A e obtida (na
base can
onica!) transpondo-se A e tomando-se o complexo conjugado de seus elementos.

P e inversvel pois o conjunto (8.78) e linearmente independente (e, portanto, det(P ) 6= 0).
AP =

B
B
B
B
, . . . , B
= diag B
1 , 2 , . . . , 2 , . . . , t , . . . , t .
} |
{z
}
{z
}
|
| 1 {z
d1 vezes
d2 vezes
dt vezes

e dito ser o operador adjunto de A. Em espacos vetoriais gerais nao e obvio (e nem sempre verdadeiro!) que sempre exista
o adjunto de um operador linear A dado. H
a muitos casos, porem, nos quais isso pode ser garantido9. Aqui trataremos
do caso dos espacos V = Cn com o produto escalar usual.

ck, j ujk = 0 .

Pdl

Tem-se,

A adjunta de uma matriz

udt t

e formado por n vetores linearmente independentes. De fato, suponha que existam constantes ck, j tais que
dk
t X
X

354/2070

B
l Ql (8.76) temos,

0 = (Qk Ql )w = Qk (Ql w) = Qk w = w .
Seja dk a dimens
ao do subespaco Ek e seja u1k , . . . , udkk um conjunto de dk vetores linearmente independentes em
Ek . Notemos que dk coincide com a multiplicidade algebrica do autovalor 1 de Qk , pois, conforme P
diz a Proposicao
t
8.21, o projetor Qk e diagonaliz
avel e, portanto, e uma matriz simples (Proposicao 8.16). Como 1 = k=1 Qk , tem-se,
Pt
tomando-se o traco, que n = k=1 dk . Pelas definicoes, temos que

Captulo 8

l=1

Vamos agora completar a demonstracao que A e B podem ser diagonalizados por uma mesma matriz inversvel P .

Seja Ek o subespaco dos autovetores de Qk com autovalor 1. Subespacos Ek s diferentes tem em comum apenas o
vetor nulo. De fato, se k 6= l e w e um vetor tal que Qk w = w e Ql w = w entao, como Qk Ql = 0 segue que

t
X

Vers
ao de 18 de julho de 2013.

ii

(AB) = B A .

= P DA ,

A
A
A
A
, . . . , A
DA = diag A
1 , 2 , . . . , 2 , . . . , t , . . . , t .
|
} |
{z
}
{z
}
| 1 {z
d1 vezes
d2 vezes
dt vezes

Portanto, P 1 AP = DA . Analogamente,
hh
ii
BP = Bu11 , . . . , Bud11 , Bu12 , . . . , Bud22 , . . . Bu1t , . . . , Budt t .

Por fim, vale para todo A que (A ) = A.

Deixamos a demonstracao como exerccio para o leitor.


A operacao Mat (C, n) A 7 A Mat (C, n) e denominada operac
ao de adjunc
ao de matrizes. Como vimos na
Proposicao 8.23, a operacao de adjuncao e anti-linear e e um anti-homomorfismo algebrico.
9 Tal
e o caso dos chamados operadores lineares limitados agindo em espacos de Hilbert, para os quais sempre
e possvel garantir a exist
encia
do adjunto.

JCABarata. Curso de Fsica-Matem


atica

Vers
ao de 18 de julho de 2013.

Captulo 8

355/2070

Os espectro e a opera
c
ao de adjun
c
ao

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

356/2070

Deixamos a demonstracao (elementar) como exerccio para o leitor.

Seja A Mat (C, n). Como j


a vimos, o espectro de A, (A), e o conjunto de razes de seu polin
omio caracterstico,
definido por pA (z) = det(z 1 A), z C. Como para toda B Mat (C, n) vale det(B ) = det(B) (por que?), segue que
pA (z) = det(z 1 A) = det(z 1 A ) = pA (z), ou seja, pA (z) = pA (z). Com isso, provamos a seguinte afirmacao:

A import
ancia das definicoes acima reside no seguinte fato, que demonstraremos adiante: matrizes Hermitianas e
matrizes normais sao diagonaliz
aveis. Antes de tratarmos disso, vamos discutir algumas propriedades do espectro de
matrizes Hermitianas e de matrizes unit
arias.

Proposi
c
ao 8.24 Seja A Mat (C, n). Ent
ao, (A) se e somente se (A ), ou seja, e um autovalor de A
se e somente se e um um autovalor de A .

Os autovalores de matrizes Hermitianas e de matrizes unit


arias

Em smbolos, as afirmacoes acima sao expressas pela igualdade (A) =

(A ).

Os seguintes teoremas tem import


ancia fundamental para o estudo de propriedades de matrizes Hermitianas e de
matrizes unit
arias.
Teorema 8.9 Os autovalores de uma matriz Hermitiana s
ao sempre n
umeros reais.

Matrizes Hermitianas, normais e unit


arias

Vamos agora a algumas definicoes muito importantes.

Prova. Seja A Hermitiana, um autovalor de A e v 6= 0 um autovetor de A com autovalor . Como A e Hermitiana


tem-se
hv, Avi = hAv, vi .

Defini
c
ao. Um operador linear em Cn e dito ser simetrico, Hermitiano ou auto-adjunto se A = A , ou seja, se para
todos u, v V satisfizer
hu, Avi = hAu, vi .

Como v e um autovetor, o lado esquerdo vale hv, vi e o lado direito vale hv, vi. Logo, ( )hv, vi = 0. Como v 6= 0
isso implica = , ou seja, e real.

ao finita as nocoes de operador simetrico, Hermitiano ou auto-adjunto sao


Advert
encia. Em espacos vetoriais de dimens
sin
onimas. Em espacos vetoriais de dimens
ao infinita, porem, ha uma distincao entre essas nocoes relativa a problemas
com o domnio de definicao de operadores.

Defini
c
ao. Um operador linear em Cn e dito ser normal se AA = A A. Ou seja, A e normal se comuta com seu
adjunto.
claro que todo operador unit
Defini
c
ao. Um operador linear em Cn e dito ser unit
ario se A A = AA = 1. E
ario e
normal e que um operador e unit
ario em Cn se e somente se A = A1 . Note que se A e unit
ario entao, para todos
u, v V , tem-se
hAu, Avi = hu, vi .
Defini
c
ao. Se A e um operador linear em Cn define-se a parte real de A por
Re (A) =

1
(A + A )
2

Im (A) =

Prova. Seja A unit


aria, um autovalor de A e v 6= 0 um autovetor de A com autovalor . Como A e unit
aria tem-se
hAv, Avi = hv, vi. Como v e um autovetor, o lado esquerdo vale hv, vi. Assim, (||2 1)hv, vi = 0. Como v 6= 0
isso implica || = 1.
Operadores sim
etricos e unit
arios. Ortogonalidade de autovetores

1
(A A ).
2i

Prova. Seja A simetrica e 1 , 2 dois de seus autovalores, que suporemos distintos. Seja v1 autovetor de A com autovalor
1 e v2 autovetor de A com autovalor 2 . Temos, por A ser simetrico, hv1 , Av2 i = hAv1 , v2 i. O lado esquerdo vale
2 hv1 , v2 i e o lado direito 1 hv1 , v2 i (lembre-se que 1 e real). Assim (2 1 )hv1 , v2 i = 0. Como 2 6= 1 , segue que
hv1 , v2 i = 0, que e o que se queria provar.

claro que essas definicoes foram inspiradas nas relacoes analogas para n
E
umeros complexos. Note tambem que
A = Re (A) + iIm (A) .
6

importante notar que para qualquer operador linear A em Cn sua parte real e imagin
E
aria sao ambas operadores
Hermitianos: (Re (A)) = Re (A) e (Im (A)) = Im (A).
E. 8.26 Exerccio. Mostre isso.

Para matrizes unit


arias temos

Teorema 8.10 Os autovalores de uma matriz unit


aria s
ao sempre n
umeros complexos de m
odulo 1.

Teorema 8.11 Os autovetores associados a autovalores distintos de uma matriz simetrica s


ao ortogonais entre si. 2

e a parte imagin
aria de A por

E. 8.25 Exerccio. Por que?

2 1
tem autovalores reais (2 e 3) mas nao e Hermitiana.
Note-se que a recproca desse teorema e falsa. A matriz

0 3

Para operadores normais tem-se a seguinte proposicao, que ser


au
til adiante e serve como caracterizacao alternativa
do conceito de operador normal.
Proposi
c
ao 8.25 Um operador linear agindo em Cn e normal se e somente se sua parte real comuta com sua parte
imagin
aria.
2

Teorema 8.12 Os autovetores associados a autovalores distintos de uma matriz unit


aria s
ao ortogonais entre si.

Prova. Seja U unit


aria e sejam 1 , 2 dois de seus autovalores, sendo que suporemos 1 6= 2 . Seja v1 autovetor de U com
autovalor 1 e v2 autovetor de U com autovalor 2 . Temos, por U ser unit
ario, hU v1 , U v2 i = hv1 , U U v2 i = hv1 , v2 i.
O lado esquerdo vale 2 1 hv1 , v2 i = 21 hv1 , v2 i (lembre-se que 1 e um n
umero complexo de modulo 1 e, portanto
1 = 1
1 ). Assim


2
1 hv1 , v2 i = 0 .
1
Como 2 6= 1 , segue que hv1 , v2 i = 0, que e o que se queria provar.

JCABarata. Curso de Fsica-Matem


atica

Vers
ao de 18 de julho de 2013.

Captulo 8

357/2070

Projetores ortogonais

Um operador linear E agindo em Cn e dito ser um projetor ortogonal se E 2 = E e se E = E.

Projetores ortogonais sao importantes na decomposicao espectral de matrizes auto-adjuntas, como veremos.

1 0
e um projetor (E 2 = E) mas nao e ortogonal
Note-se que nem todo projetor e ortogonal. Por exemplo E =

1 0

1 0
.
(E =
6 E). O mesmo vale para E =

2 0

E. 8.27 Exerccio. Mostre que uma matriz


complexa 2 2 e um projetor
ortogonal se e somente se ou for a matriz

identidade 1 ou se for da forma 21 1 + ~a ~ , com ~a (a1 , a2 , a3 ) R3 e ~a = 1. Aqui, ~a ~ := a1 1 + a2 2 + a3 3 , com
k sendo as matrizes de Pauli, cuja definicao e cujas propriedades basicas encontram-se no Exerccio E. 9.26, pagina 447. 6

Um exemplo importante de projetor ortogonal e representado por projetores sobre


p subespacos uni-dimensionais gerados por vetores. Seja v um vetor cuja norma assumiremos ser 1, ou seja, kvk = hv, vi = 1. Definimos o projetor Pv
sobre o subespaco gerado por v por
Pv u := hv, ui v ,
(8.79)
para todo vetor u. Provemos que Pv e um projetor ortogonal. Por um lado, tem-se
Pv2 u = hv, ui Pv v = hv, ui hv, vi v = hv, ui v = Pv u ,
o que mostra que Pv2 = Pv . Por outro lado, para quaisquer vetores a e b, usando as propriedades de linearidade,
anti-linearidade e conjugacao complexa do produto escalar, tem-se
D
E


ha, Pv bi = a, hv, bi v = hv, bi ha, vi = ha, vi v, b = hv, ai v, b = hPv a, bi ,

provando que Pv = Pv . Isso mostra que Pv e um projetor ortogonal.

Um fato crucial sobre projetores como Pv e o seguinte. Se u e v sao dois vetores ortogonais, ou seja, se hu, vi = 0
entao Pu Pv = Pv Pu = 0. Para provar isso notemos que para qualquer vetor a vale

Pu (Pv a) = Pu hv, ai v = hv, ai Pu v = hv, ai hu, vi u = 0 .
O mesmo se passa para Pv (Pu a).

JCABarata. Curso de Fsica-Matem


atica

Teorema 8.13 (Teorema Espectral para Matrizes Auto-adjuntas) Se A Mat (C, n) e auto-adjunta, ent
ao A
possui n autovetores mutuamente ortonormais v1 , . . . , vn , com autovalores reais 1 , . . . , n , respectivamente, e pode ser
representada na forma espectral
A = 1 Pv1 + + n Pvn .
(8.80)
Pn
Os projetores Pvk satisfazem Pvk = Pvk para todo k e valem tambem Pvj Pvk = jkPvk , sendo que k=1 Pvk = 1.

Portanto, se A e auto-adjunta, ent


ao A e diagonaliz
avel, sendo que e possvel encontrar uma matriz unit
aria P que
diagonaliza A, ou seja, tal que P 1 AP e diagonal e P 1 = P .
ao (8.80) pode ser reescrita como
Note-se que se 1 , . . . , r com 1 r n s
ao os autovalores distintos de A, ent
A = 1 P1 + + r Pr , onde cada Pk e o projetor ortogonal dado pela soma dos Pvj s de mesmo autovalor k . A
Proposic
ao 8.19, p
agina 345, garante a unicidade dessa representac
ao para A.
2

Captulo 8

358/2070

Prova do Teorema 8.13. A demonstracao que A e diagonaliz


avel sera feita construindo-se a representacao espectral (8.80)
para A. Seja 1 um autovalor de A e v1 um autovetor de A com autovalor 1 normalizado de tal forma que kv1 k = 1.
Vamos definir um operador A1 por
A1 := A 1 Pv1 .
Como A e Pv1 sao auto-adjuntos e 1 e real, segue que A1 e igualmente auto-adjunto.
Afirmamos que A1 v1 = 0 e que [v1 ] e um subespaco invariante por A1 . De fato,
A1 v1 = Av1 1 Pv1 v1 = 1 v1 1 v1 = 0 .
Fora isso, se w [v1 ]

tem-se
hA1 w, v1 i = hw, A1 v1 i = 0 ,

mostrando que A1 w e tambem elemento de [v1 ] .

O operador A1 restrito a [v1 ] e tambem auto-adjunto (por que?). Seja 2 um de seus autovalores com autovetor
v2 [v1 ] , que escolhemos com norma 1. Seja
A2 := A1 2 Pv2 = A 1 Pv1 2 Pv2 .
Como 2 tambem e real A2 e igualmente auto-adjunto. Fora isso afirmamos que A2 anula os vetores do subespaco [v1 , v2 ]
e mantem [v1 , v2 ] invariante. De fato,
A2 v1 = Av1 1 Pv1 v1 2 Pv2 v1 = 1 v1 1 v1 2 hv2 , v1 iv2 = 0 ,
pois hv2 , v1 i = 0. Analogamente,
A2 v2 = A1 v2 2 Pv2 v2 = 2 v2 2 v2 = 0 .
Por fim, para quaisquer , C e w [v1 , v2 ] tem-se


A2 w, (v1 + v2 ) = w, A2 (v1 + v2 ) = 0 ,
que e o que queramos provar.

Prosseguindo indutivamente, construiremos um conjunto de vetores v1 , . . . , vn , todos com norma 1 e com va


[v1 , . . . , va1 ] e um conjunto de n
umeros reais 1 , . . . , n tais que
An := A 1 Pv1 n Pvn
anula-se no subespaco [v1 , . . . , vn ]. Ora, como estamos em um espaco de dimens
ao n e os vetores vk sao mutuamente
ortogonais, segue que [v1 , . . . , vn ] deve ser o espaco todo, ou seja, An = 0. Provamos entao que
A = 1 Pv1 + + n Pvn .

Matrizes auto-adjuntas e diagonalizabilidade

Vamos aqui demonstrar a seguinte afirmacao importante: toda matriz auto-adjunta e diagonaliz
avel. Uma outra
demonstracao (eventualmente mais simples) dessa afirmacao pode ser encontrada na Secao 8.8.3, pagina 384. Vide
Teorema 8.27, pagina 386.

Vers
ao de 18 de julho de 2013.

(8.81)

Vamos provar agora que essa e a representacao espectral de A. Como os vk s sao mutuamente ortogonais, e evidente
que Pvk Pvl = k, l Pvk . Resta-nos provar que Pv1 + + Pvn = 1. Como v1 , . . . , vn formam uma base, todo vetor x
pode ser escrito como uma combinacao linear
x = 1 v1 + + n vn .

(8.82)

Tomando-se o produto escalar com va , e usando o fato que os vk s sao mutuamente ortogonais, tem-se a = hva , xi.
E. 8.28 Exerccio. Verifique.

Assim, (8.82) pode ser escrita como


x = hv1 , xiv1 + + hvn , xivn = Pv1 x + + Pvn x = (Pv1 + + Pvn ) x .
Como isso vale para todo vetor x, segue que Pv1 + + Pvn = 1. Assim, A possui uma representacao espectral como
(8.49). Pelo Teorema Espectral 8.5, A e diagonaliz
avel.

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

359/2070

Por (8.81), vemos que Ava = a va (verifique!). Logo os a s sao autovalores de A e os va s seus autovetores. Assim,
se A e auto-adjunto, podemos encontrar n autovetores de A mutuamente ortogonais, mesmo que sejam autovetores com
o mesmo autovalor. Isso generaliza o Teorema 8.11.
hh
ii
f
Pelo que j
a vimos A e diagonalizada por P 1 AP , onde podemos escolher P = v 1 , . . . , v n . E
acil verificar, porem,
que P e unit
aria. De fato, e um exerccio simples (faca!) mostrar que

hv1 , v1 i

..
..
P P =
.
.

hvn , v1 i

hv1 , vn i

..
.
.

hvn , vn i

aria.
Como hva , vb i = a, b , a matriz do lado direito e igual a 1, mostrando que P P = P P = 1 e que, portanto, P e unit
Para concluir essa discussao, temos:
Proposi
c
ao 8.26 Uma matriz A Mat (C, n) e auto-adjunta, se e somente se for diagonaliz
avel por uma transformac
ao
de similaridade unit
aria e se seus autovalores forem reais.
2

JCABarata. Curso de Fsica-Matem


atica

8.5.1

Proposi
c
ao 8.27 Se A Mat (C, n) e positiva, ent
ao A e Hermitiana e tem autovalores n
ao-negativos. Reciprocamente,
se A e Hermitiana e tem autovalores n
ao-negativos, ent
ao A e positiva.
2
Prova. A express
ao (u, v) := hu, Avi, u, v Cn , define uma forma sesquilinear que, por hip
otese, e positiva, ou seja,
satisfaz (u, u) 0 para todo u Cn . Pelo Teorema 3.1, pagina 192, e Hermitiana, ou seja, (u, v) = (v, u) ,
para todos os vetores u e v. Mas isso significa que hu, Avi = hv, Aui, ou seja, hu, Avi = hAu, vi para todos os
vetores u e v e assim provou-se que A = A . Uma outra forma de demonstrar isso usa a identidade de polarizacao. Se
A e positiva entao, para quaisquer vetores u, v Cn vale h(u + in v), A(u + in v)i 0 para todo n Z e, portanto,
h(u + in v), A(u + in v)i e um n
umero real. Usando a identidade de polarizacao, eqs. (3.34)(3.35), pagina 202, vale, para
quaisquer vetores u, v Cn ,
hAv, ui = hu, Avi

(3.34)

sesquilin.

Matrizes normais e diagonalizabilidade

O teorema que afirma que toda matriz simetrica e diagonaliz


avel tem a seguinte conseq
uencia:
2

=
Prova. J
a vimos que toda matriz A pode ser escrita na forma A = Re (A) + iIm (A) onde Re (A) e Im (A) sao autoadjuntas. Vimos tambem que se A e normal Re (A) e Im (A) comutam entre si (Proposicao 8.25). Pelo Teorema 8.8,
Re (A) e Im (A) podem ser simultaneamente diagonalizados.
Como no caso auto-adjunto, o operador que faz a diagonalizaca
o pode ser escolhido unit
ario. De fato, vale uma afirmativa
ainda mais forte.

Teorema 8.15 Uma matriz A Mat (C, n) e normal se e somente se for diagonaliz
avel por um operador unit
ario. 2
Prova. Resta provar apenas que se A e diagonaliz
avel por um operador unit
ario P entao A e normal. Seja D = P AP .
Tem-se D = P A P (por que?). Assim,
A A AA = P D P P DP P DP P D P = P (D D DD )P = 0 ,
j
a que D e D comutam por serem diagonais (duas matrizes diagonais quaisquer sempre comutam. Por que?). Isso
completa a prova que A e normal.
Uma outra demonstracao (eventualmente mais simples) dessa afirmacao pode ser encontrada na Secao 8.8.3, pagina
384. Vide Teorema 8.28, pagina 386.

360/2070

Matrizes Positivas

Prova. Se A Mat (C, n) e diagonaliz


avel por uma transformacao de similaridade unit
aria e seus autovalores sao reais,
ou seja, existe P unit
aria e D diagonal real com P AP = D, entao A = P DP e A = P D P . Como D e diagonal e

real, vale D = D e, portanto, A = P DP = A, provando que A e auto-adjunta. A recproca j


a foi provada acima.

Observac
ao.

Captulo 8

Uma matriz A Mat (C, n) e dita ser uma matriz positiva se hw, Awi 0 para todo vetor w Cn . A seguinte
proposicao e relevante10 :

Teorema 8.14 Se A Mat (C, n) e normal ent


ao A e diagonaliz
avel.

Vers
ao de 18 de julho de 2013.

3
3
1 X n
1X n
i h(u + in v), A(u + in v)i
i h(u + in v), A(u + in v)i =
4 n=0
4 n=0
3
1 X n n n
i i i h(u + in v), A(u + in v)i
4 n=0
3
1 X n n
i hi (u + in v), Ain (u + in v)i
4 n=0
3
1 X n
i h(v + in u), A((1)n v + in u)i
4 n=0
3
1X
(1)n in h(v + in u), A(v + in u)i
4 n=0
3
1X n
i h(v + in u), A(v + in u)i
4 n=0

(3.35)

hv, Aui .

Assim, hAv, ui = hv, Aui para todos u, v Cn , o que significa que A e Hermitiana. Portanto, por (8.80), podemos
escrever A = 1 Pv1 + + n Pvn , onde v1 , . . . , vn sao autovetores mutuamente ortonormais de A com autovalores
1 , . . . , n , respectivamente. Disso segue que hvj , Avj i = j para todo j = 1, . . . , n. Como o lado esquerdo e 0, por
hip
otese, segue que j 0 para todo j = 1, . . . , n.

Se, reciprocamente, A for auto-adjunta com autovalores nao-negativos, segue de (8.80) e da definicao de Pvj em (8.79)
n
X
que hw, Awi =
j |hw, vj i|2 0, para todo w Cn , provando que A e positiva.
j=1

O seguinte corol
ario e imediato.
Corol
ario 8.4 Uma matriz A Mat (C, n) e positiva se somente se existe uma matriz positiva B (unvoca!) tal que
A = B 2 . As matrizes A e B comutam: AB = BA.
2
10 V
arios dos resultados que seguem podem ser generalizados para operadores lineares positivos agindo em espacos de Hilbert. Vide Teorema
37.30, p
agina 1935.

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

361/2070

Demonstracao. Se A = B 2 com B positiva, entao, como B e auto-adjunta (pela Proposicao 8.27), segue que para todo
w Cn vale hw, Awi = hw, B 2 wi = hBw, Bwi = kBwk2 0, provando que A e positiva. Provemos agora a recproca.

Se A e positiva entao, como comentamos na demonstracao da Proposicao 8.27, A e auto-adjunta com representacao
espectral A = 1 Pv1 + + n Pvn , onde v1 , . . . , vn sao autovetores mutuamente ortonormais de A com autovalores
1 , . . . , n , respectivamente, todos nao-negativos. Defina-se a matriz
p
p
B :=
1 Pv1 + + n Pvn .
(8.83)
acil ver que B 2 = 1 Pv1 + + n Pvn = A. A unicidade
Como, pela ortonormalidade dos vj s, vale Pvj Pvk = j, k Pvj , e f
de B segue da unicidade da decomposicao espectral, Proposicao 8.19, pagina 345. A igualdade (B 2 )B = B(B)2 significa
AB = BA, provando que A e B comutam.

Defini
c
ao. Se A e uma matriz positiva, a (
unica!) matriz positiva B satisfazendo B 2 = A e freq
uentemente denotada

por A e denominada raiz quadrada da matriz A. Como vimos, A A = AA.

2
Lema 8.2 Se A Mat (C, n) e uma matriz positiva e C Mat (C, n) satisfaz CA = AC ent
ao C A = AC.
Prova. Se C comuta com A, entao C comuta com qualquer polin
omio em A. Vimos na Proposicao 8.18, pagina 344, que
os projetores espectraisde A podem ser escritos como polin
omios em A. Assim, C comuta com os projetores espectrais
de A e, portanto, com A, devido a (8.83).
Uma conseq
uencia interessante das consideracoes acima e a seguinte proposicao:
Proposi
c
ao 8.28 Toda matriz Hermitiana pode ser escrita como combinac
ao linear de ate duas matrizes unit
arias.
Toda matriz pode ser escrita como combinac
ao linear de ate quatro matrizes unit
arias.
2

Demonstracao. Seja A Mat (C, n). Se A e Hermitiana (vamos supor que A 6= 0, pois de outra forma nao ha o que se
provar), entao, para todo w Cn , o produto escalar hw A2 wi e um n
umero real e, pela desigualdade de Cauchy-Schwarz,
|hw A2 wi| kA2 k kwk2Cn . Assim, kA2 k kwk2Cn hw, A2 wi kA2 k kwk2Cn Logo, a matriz 1 p
A2 /kA2 k e positiva, pois
uentemente, 1 A2 /kA2 k existe e e
hw, (1 A2 /kA2 k)wi = kwk2Cn hw, A2 wi/kA2 k kwk2Cn kwk2Cn = 0. Conseq
positiva e Hermitiana. Trivialmente, podemos escrever
s
s
! p
!
p
kA2 k
kA2 k
A2
A2
A
A
p
p
+i 1

i
A =
1

+
.
(8.84)
2
kA2 k
2
kA2 k
kA2 k
kA2 k
Agora, as matrizes A 2 i
kA k

A2
kA2 k

sao unit
arias. Para ver isso, notemos que

A
p
+i
kA2 k

e que

A
p
+i
kA2 k

A2
kA2 k

A2
kA2 k

A
p
i
kA2 k

A
p
i
kA2 k

A2
kA2 k

A2
kA2 k
!

A2
kA2 k

comutam.

Vers
ao de 18 de julho de 2013.

Captulo 8

362/2070

Ambas as matrizes entre parenteses sao Hermitianas e, portanto, podem cada uma ser escritas como combinacao linear
de ate duas unit
arias, totalizando ate quatro unit
arias para M .
A Proposicao 8.28 e v
alida nao apenas para algebras de matrizes. Vide Proposicao 37.44, pagina 1887.

8.5.2

O Teorema de In
ercia de Sylvester. Superfcies Quadr
aticas

Transforma
c
oes de congru
encia em Mat (C, n)

Seja M Mat (C, n). Se P Mat (C, n) e inversvel, a transformacao M 7 P M P e dita ser uma transformac
ao
de congruencia. Uma transformacao de congruencia representa a transformacao de uma matriz por uma mudanca de
base (justifique essa afirmacao!).
Se M for auto-adjunta, P M P e tambem auto-adjunta e, portanto, ambas tem auto-valores reais. Em geral, o
conjunto dos auto-valores de M e distinto do conjunto dos auto-valores de P M P (exceto, por exemplo, se P for
unit
aria). Porem, um teorema devido a Sylvester, frequentemente denominado Lei de Inercia de Sylvester, afirma que
uma propriedade do conjunto dos auto-valores e preservada em uma transformacao de congruencia, a saber, o n
umero de
autovalores, positivos, de autovalores negativos e de autovalores nulos (contando-se as multiplicidades). Enunciaremos e
demonstraremos esse teorema logo adiante.
Dada uma matriz auto-adjunta M Mat (C, n), a tripla de n
umeros (m, m , m0 ), onde m e o n
umero de autovalores
positivos de M , m e o n
umero de autovalores negativos de M , m0 e o n
umero de autovalores nulos de M , (em todos os
casos contando-se as multiplicidades) e denominada (por razoes historicas obscuras) a inercia da matriz M . Naturalmente,
vale m + m + m0 = n. A Lei de Inercia de Sylvester afirma, portanto, que a inercia de uma matriz e preservada por
transformacoes de congruencia.
Dizemos que duas matrizes A e B Mat (C, n) sao congruentes se existir P Mat (C, n) inversvel tal que
muito f
A = P BP . E
acil provar que a relacao de congruencia e uma relacao de equivalencia.
E. 8.29 Exerccio. Demonstre essa afirmacao!

Dessa forma, a Lei de Inercia de Sylvester afirma que a inercia de matrizes e constante nas classes de equivalencia
(pela relacao de congruencia). Assim, e legtimo perguntar se as classes de equivalencia sao univocamente determinadas
pela inercia de seus elementos. A resposta e negativa (exceto no caso trivial n = 1), como mostra a argumentacao do
paragrafo que segue.
Se A Mat (C, n), com n > 1, e uma matriz positiva, A e da forma P P (Corol
ario 8.4, pagina 360). Assim,
det A = | det P |2 e conclumos que A e inversvel se e somente se P o for. Conclu-se disso que a classe de equivalencia
(por relacoes de congruencia) que contem a matriz identidade contem todas as matrizes positivas e inversveis. Pela
Proposicao 8.27, pagina 360, esse conjunto coincide com o conjunto de todas as matrizes auto-adjuntas com autovalores
positivos, ou seja, que possuem inercia (n, 0, 0). Entretanto, existem tambem matrizes nao-auto-adjuntas com inercia
(n, 0, 0) (por exemplo, matrizes triangulares superiores11 com elementos positivos na diagonal e alguns elementos naonulos acima da diagonal). Como tais matrizes nao podem ser equivalentes `a identidade (toda matriz da forma P 1P e
auto-adjunta), conclumos que as classes de equivalencia nao sao determinadas univocamente pela inercia das matrizes
que as compoe.
A Lei de In
ercia de Sylvester

= 1.

Para provar a u
ltima igualdade basta expandir o produto e notar que, pelo Lema 8.2, A e
A e 1

JCABarata. Curso de Fsica-Matem


atica

A2
kA2 k

A Lei de Inercia de Sylvester e importante para a classificacao de formas quadraticas e sua relev
ancia estende-se ate
`a classificacao de equacoes diferenciais parciais de segunda ordem. Tratemos de seu enunciado e demonstracao.
comutam, j
a que

Assim, vemos de (8.84) que uma matriz Hermitiana A e combinacao linear de ate duas unit
arias, provando a primeira
parte da Proposicao 8.28. Para provar a segunda parte, basta notar que se M Mat (C, n) e uma matriz qualquer,
podemos escrever




M M
M + M
+i
.
M =
2
2i

Teorema 8.16 (Lei de In


ercia de Sylvester) Sejam A e B Mat (C, n) duas matrizes auto-adjuntas. Denotemos
por A+ , A , A0 os subespacos gerados, respectivamente, pelos auto-vetores com autovalores positivos, negativos e nulos
de A (e analogamente para B).
Suponhamos que exista P Mat (C, n), inversvel, tal que A = P BP . Ent
ao, dim A+ = dim B+ , dim A = dim B
e dim A0 = dim B0 , onde dim C denota a dimens
ao de um subespaco C Cn . Assim, conclumos tambem que A e B tem
11 Para

a definica
o, vide p
agina 366

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

363/2070

o mesmo n
umero de autovalores positivos, o mesmo n
umero de autovalores negativos e o mesmo n
umero de autovalores
nulos (em todos os casos, contando-se as multiplicidades).
2
Prova. Sejam 1 , . . . , a os auto-valores positivos (nao necessariamente distintos) e a+1 , . . . , a+a os auto-valores
negativos (nao necessariamente distintos) de A. Analogamente, sejam 1 , . . . , b os auto-valores positivos (nao necessariamente distintos) e b+1 , . . . , b+b os auto-valores negativos (nao necessariamente distintos) de B. Naturalmente,
valem 0 a + a n e 0 b + b n.
Se A e B forem nulos nao ha o que demonstrar, de modo que podemos supor que ambos tem pelo menos um auto-valor
nao-nulo. Nesse caso, podemos sempre, sem perder em generalidade, supor que A tem pelo menos um autovalor positivo,
pois se tal nao for verdade para A sera verdadeiro para A.
O Teorema Espectral, Teorema 8.5, pagina 342, permite-nos escrever
A =

a
X

k=1

e
B =

b
X

k=1

k Ak

k Bk

a+a
X

l=a+1

b+b
X

l=b+1

|l |Al

a
X

Ak ,

a+a
X

A :=

k=1

|l |Bl ,

Al

l=a+1

(8.85)

B+ :=

Bk ,

B :=

b+b
X

Bl

l=b+1

k=1

A0 = A0 Cn ,

hx, AxiC =

k=1

k hx, Ak xiC =

a
X

k=1

B0 := 1 B+ B .

B = B Cn ,

k hAk x, Ak xiC =

B0 = B0 Cn .

a
X

k=1

k kAk xk2 > 0 .

(8.86)

Porem, para um tal x vale tambem


hx, AxiC = hx, P BP xiC = hP x, BP xiC

(8.85)

b
X

k=1

k kBk P xk2

b+b
X

l=b+1

2



|k | Bk P x .

Vamos agora supor que B+ < dim A+ (ou seja, que b < a). Afirmamos que podemos encontrar ao menos um x+ A+ ,
nao-nulo, tal que Bk P x+ = 0 para todo k = 1, . . . , b. Se assim nao fosse, nao existiria x A+ nao-nulo satisfazendo
B+ P x = 0, ou seja, valeria B+ P x 6= 0 para todo x A+ com x 6= 0. Logo, (P A+ ) (B+ ) = {0}, o que implica que
P A+ B+ . Isso, por sua vez, significa que dimens
ao do subespaco P A+ e menor ou igual a` dimens
ao de B+ e, como P
e inversvel, isso implica, dim A+ dim B+ , uma contradicao.
Assim, para um tal x+ teramos

hx+ , Ax+ iC =

b+b
X

l=b+1

Tambem de forma totalmente an


aloga prova-se que dim B = dim A (isso tambem pode ser visto imediatamente
trocando A 7 A e B 7 B). Isso implica ainda que dim B0 = dim A0 , completando a demonstracao.
Transforma
c
oes de congru
encia em Mat (R, n)

Para matrizes reais agindo no espaco Rn valem afirmacoes an


alogas `as obtidas acima. Seja M Mat (R, n). Se
P Mat (R, n) e inversvel, a transformacao M 7 P T M P e dita ser uma transformac
ao de congruencia real, ou
simplesmente transformac
ao de congruencia. Uma transformacao de congruencia representa a transformacao de uma
matriz por uma mudanca de base (justifique essa afirmacao!). Para transformacoes de congruencia reais vale tambem a Lei
de Inercia de Sylvester: se A Mat (R, n) e simetrica (ou seja, se A = AT ) sua inercia e preservada por transformacoes
de congruencia A 7 P T AP com P Mat (R, n) inversvel. Como essa afirmacao e um mero caso particular do anterior,
omitimos a demonstracao e convidamos o estudante a complet
a-la.

Matrizes simetricas em Rn podem ser classificadas de acordo com o tipo de inercia que possuem, classificacao essa
invariante por transformacoes de congruencia. Uma matriz simetrica A Mat (R, n), n > 1, e dita ser

3. Hiperb
olica, se um de seus autovalores for positivo e os demais negativos, ou o oposto: se um de seus autovalores
for negativo e os demais positivos, ou seja, se sua inercia for da forma (1, a , 0) com a 1 (a, 1, 0) com a 1;

Seja x um vetor nao-nulo de A+ . Tem-se que Al x = 0 para todo l > a e Ak x 6= 0 para pelo menos um k = 1, . . . , a.
Logo, como k > 0 para todo k = 1, . . . , a, segue que
a
X

contradizendo (8.86). Conclumos disso que dim B+ dim A+ . Como B = (P )1 AP 1 , um raciocnio an


alogo trocando
A e B e trocando P P 1 implica que dim A+ dim B+ . Assim, dim B+ = dim A+ .

2. Elptica, se todos os seus autovalores forem positivos ou se todos forem negativos, ou seja, se sua inercia for da
forma (a, a , 0) com a 1 e a = 0 ou com a 1 e a = 0;

A0 := 1 A+ A

A+ , A e A0 sao, respectivamente, o projetor sobre o subespaco de autovetores com auto-valores positivos, negativos e
nulos de A. Analogamente para B. Esses subespacos sao
A = A Cn ,

364/2070

1. Parab
olica, se ao menos um dos seus autovalores for nulo, ou seja, se sua inercia for da forma (a, a , a0 ) com
a0 1;

e, analogamente,
b
X

Captulo 8

Vers
ao de 18 de julho de 2013.

Classifica
c
ao de matrizes sim
etricas em Rn

onde Aj e Bj sao os projetores espectrais de A e B, respectivamente. Defina-se


A+ :=

JCABarata. Curso de Fsica-Matem


atica

2



|k | Bk P x+ 0 ,

4. Ultra-Hiperb
olica, se ao menos dois de seus autovalores forem positivos e ao menos dois forem negativos, nenhum
sendo nulo, ou seja, se sua inercia for da forma (a, a , 0) com a 2 e a 2. Esse caso so se da se n 4.
Essa nomenclatura que classifica as matrizes em parab
olicas, elpticas, hiperb
olicas e ultra-hiperb
olicas tem uma motivacao geometrica relacionada `a classificacao de superfcies quadraticas em Rn , assunto que ilustraremos abaixo.
Superfcies quadr
aticas Rn

Sejam x1 , . . . , xn sao n vari


aveis reais. A forma mais geral de um polinomio real de segundo grau nessas vari
aveis e
p(x) =

n X
n
X

Aij xi xj +

i=1 j=1

n
X

ck xk + d ,

k=1

onde Aij R, ck R e d R. A express


ao acima para p pode
como p(x) = hx, AxiR + hc, xiR + d, onde,
! ser escrita
!
c1
x1
.. . A matriz A pode ser sempre, sem perda
naturalmente, A e a matriz cujos elementos sao Aij , c =
ex=
...
.
cn

xn

de generalidade, escolhida como simetrica. Para ver isso, notemos que, A pode sempre ser escrita como soma de uma
matriz simetrica e uma anti-simetrica: A = 21 (A + AT ) + 12 (A AT ). Contudo,
hx, (A AT )xiR =

n X
n
X
i=1 j=1

(Aij Aji ) xi xj = 0

como facilmente se constata. Assim, a parte anti-simetrica de A, ou seja, 12 (A AT ), nao contribui em hx, AxiR , apenas
a parte simetrica 21 (A + AT ). Portanto, A sera doravante considerada simetrica.
Estamos agora interessados em classificar as superfcies em Rn definidas por p(x) = , com constante. H
a primeiramente dois casos a considerar: 1) A e inversvel e 2) A nao e inversvel.

JCABarata. Curso de Fsica-Matem


atica

Vers
ao de 18 de julho de 2013.

Captulo 8

365/2070

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

366/2070

(a) a equacao (8.88) descreve um parabol


oide elptico (n 1)-dimensional caso todos os autovalores nao-nulos de
A forem positivos ou se todos os autovalores nao-nulos de A forem negativos. Vide Figura 8.2, pagina 8.2.
(b) A equacao (8.88) descreve um parabol
oide hiperb
olico (n1)-dimensional caso um autovalor de A seja negativo
e os demais autovalores nao-nulos de A sejam positivos (ou o contr
ario: caso um autovalor de A seja positivo
e os demais autovalores nao-nulos de A sejam negativos). Vide Figura 8.2, pagina 8.2.
(c) A equacao (8.88) descreve um parabol
oide ultra-hiperb
olico (n 1)-dimensional caso pelo menos dois dos
autovalores nao-nulos de A sejam positivos e pelo menos dois dos autovalores nao-nulos de A sejam negativos.
Esse caso so pode ocorrer se n 5.
Para c 6= 0 diversas situacoes acima podem tambem descrever cilindros, por exemplo, se Oc encontra-se no
subespaco dos autovetores com autovalores nao-nulos.

1. Se A e inversvel, podemos escrever







1
1
1

p(x) = hx, AxiR + hc, xiR + d =


x + A1 c , A x + A1 c
c, A1 c R + d .

2
2
4
R



Verifique! Assim, a equacao p(x) = fica x + 12 A1 c , A x + 21 A1 c R = , onde e a constante +


1
1
c R d. A matriz simetrica A pode ser diagonalizada por uma matriz ortogonal, ou seja, podemos
4 c, A
escrever A = OT DO, com D = diag (1 , . . . , n ), com k sendo os autovalores de A e O sendo ortogonal. Podemos
sempre escolher O de sorte que os primeiros m autovalores 1 , . . . , m sao positivos e os demais m+1 , . . . , n
sao negativos (nao ha autovalores nulos, pois A foi suposta inversvel).




Com isso, x + 21 A1 c , A x + 12 A1 c R = hy, DyiR , onde y = O x + 21 A1 c . A equacao p(x) = fica,


Pn
entao, k=1 k yk2 = ou seja,
n
m
X
X
|l | yl2 = .
(8.87)
k yk2
k=1

Vers
ao de 18 de julho de 2013.

Se c = 0 e dim A0 1, equacao p(x) = fica


m
X

l=m+1

k=1

Temos os seguintes sub-casos a tratar:

k yk2

m+m
X

l=m+1

|l | yl2 = ,

(8.89)

com = d. A equacao (8.89) descreve diversos tipo de cilindros (n 1)-dimensionais.

(a) Se todos os autovalores de A sao positivos e > 0, a equacao (8.87) descreve um elips
oide em Rn (se < 0
nao ha solucoes e se = 0 a equacao descreve apenas o ponto y = 0 em Rn ). O mesmo vale, reciprocamente,
se todos os autovalores de A forem negativos e < 0 (se > 0 nao ha solucoes e se = 0 a equacao descreve
apenas o ponto y = 0 em Rn ).

(a) Caso c = 0 a equacao (8.89) descreve um cilindro elptico (n 1)-dimensional caso todos os autovalores naonulos de A forem positivos ou se todos os autovalores nao-nulos de A forem negativos. Vide Figura 8.3, pagina
367.
(b) Caso c = 0 a equacao (8.89) descreve um cilindro hiperb
olico (n 1)-dimensional caso um autovalor de A seja
negativo e os demais autovalores nao-nulos de A sejam positivos (ou o contr
ario: caso um autovalor de A seja
positivo e os demais autovalores nao-nulos de A sejam negativos). Vide Figura 8.3, pagina 367.
(c) Caso c = 0 a equacao (8.89) descreve um cilindro ultra-hiperb
olico (n1)-dimensional caso pelo menos dois dos
autovalores nao-nulos de A sejam positivos e pelo menos dois dos autovalores nao-nulos de A sejam negativos.
Esse caso so pode ocorrer se n 5 (lembrar que pelo menos um dos autovalores de A e nulo).

(b) Se um dos autovalores de A e positivo e os demais n 1 sao negativos, ou se ocorre o oposto, ou seja, se um dos
autovalores de A e negativo e os demais n 1 sao positivos, entao a equacao (8.87) descreve um hiperbol
oide
(n 1)-dimensional em Rn no caso 6= 0.
Se > 0 o hiperbol
oide tem duas folhas (i.e., possui duas componentes conexas) e no caso < 0 apenas uma.
A Figura 8.1, pagina 366, exibe hiperbol
oides com uma e duas folhas em R3 .
Devido a sua estabilidade, hiperbol
oides de uma folha sao freq
uentemente encontrados em estruturas arquitet
onicas. A bem conhecida catedral de Braslia, de Niemeyer12 , e um exemplo. A estabilidade estrutural
desse formato decorre do fato que por qualquer ponto de um hiperbol
oide de uma folha passam duas linhas
retas inteiramente contidas dentro do mesmo (prove isso!).
Se = 0 a equacao (8.87) descreve um cone (n 1)-dimensional em Rn .
(c) Este caso ocorre apenas se n 4. Se ao menos dois autovalores de A e positivo e ao menos dois sao
positivos a equacao (8.87) descreve, no caso 6= 0, uma superfcie (n 1)-dimensional em Rn denominada
ultra-hiperbol
oide. Se = 0 a equacao (8.87) descreve uma (n 1)-dimensional em Rn denominada ultra-cone.

2. Se A nao e inversvel temos que proceder de modo ligeiramente diferente. Como antes, a matriz simetrica A pode
ser diagonalizada por uma matriz ortogonal, ou seja, podemos escrever A = OT DO, com D = diag (1 , . . . , n ),
com k sendo os autovalores de A e O sendo ortogonal. Como A nao tem inversa, alguns de seus autovalores
sao nulos. Podemos sempre escolher O de sorte que os primeiros m autovalores 1 , . . . , m sao positivos, os m
autovalores seguintes m+1 , . . . , m+m sao negativos e os demais m+m +1 , . . . , n sao nulos. Naturalmente,
0 m + m < n. Podemos, entao, escrever p(x) = hx, AxiR + hc, xiR + d = hy, DyiR + hOc, yiR + d onde y = Ox.
Assim, se c 6= 0 a equacao p(x) = fica
yOc

m+m
m
X
1 X
2
2
= +
|l | yl
k yk ,
kck
l=m+1

(8.88)

k=1

onde = ( d)/kck e yOc e a projecao de y na direcao do vetor Oc. Se a dimens


ao do subespaco dos autovalores
nulos A0 for maior que 1 a equacao (8.88) descrever
a cilindros de diversos tipos, dependendo do n
umero de
autovalores positivos e negativos e de Oc ter uma projecao ou nao em A0 . N
ao descreveremos os todos os detalhes
3
aqui, mas um exemplo de interesse se da em R , se A0 tiver dimens
ao 2 e Oc for um vetor nao-nulo de A0 . Nesse
caso equacao (8.88) descreve um cilindro parab
olico. Vide Figura 8.3, pagina 367.
Para o caso em que A0 tem dimens
ao 1 e Oc e um elemento nao-nulo desse subespaco, a equacao (8.88) descreve
diversos tipos de parabol
oides (n 1)-dimensionais. Temos os seguintes casos:
12 Oscar

Niemeyer Soares Filho (1907).

Figura 8.1: Hiperbol


oides com uma e duas folhas em R3 .

8.6

Matrizes Triangulares

Uma matriz S Mat (C, n) e dita ser uma matriz triangular superior se forem nulos os elementos abaixo da diagonal
principal, ou seja, se Sij = 0 sempre que i > j. Note que esses nao precisam ser necessariamente os u
nicos elementos
nulos de S.

JCABarata. Curso de Fsica-Matem


atica

Vers
ao de 18 de julho de 2013.

Captulo 8

367/2070

JCABarata. Curso de Fsica-Matem


atica

Vers
ao de 18 de julho de 2013.

Captulo 8

368/2070

As propriedades acima atestam que o conjunto das matrizes n n triangulares superiores inversveis forma um grupo,
denominado por alguns autores Grupo de Borel13 de ordem n e denotado por GBn (C).
O seguinte resultado sobre matrizes triangulares superiores sera usado diversas vezes adiante.
Lema 8.3 Uma matriz triangular superior S Mat (C, n) e normal (ou seja, satisfaz SS = S S) se e somente se for
diagonal.
2
Prova. Se S e diagonal, S e obviamente normal pois S e tambem diagonal e matrizes diagonais sempre comutam entre
si. Provaremos a recproca, o que sera feito por inducao. Para n = 1 nao ha o que provar. Se n = 2, S e da forma
S = ( a0 cb ), com a, b, c C. A condicao SS = S S significa

|a|2 + |b|2

cb

Figura 8.2: Um parabol


oide elptico (esquerda) e um parabol
oide hiperb
olico (direita) em R3 .

bc
|a|2
=

ab
|c|2

ba

|b| + |c|

o que implica b = 0, provando que S e diagonal. Procedemos agora por inducao, supondo n > 2 e que o lema seja v
alido
para matrizes (n 1) (n 1) triangulares superiores normais. Se S Mat (C, n) e triangular superior, S e da forma

0
b1

a bT

, sendo a C , b = ... , 0 = ... ,


S=

0 C

0
bn1

ambas b e 0 com n 1 linhas, sendo C uma matriz (n 1) (n 1) triangular superior. A condicao SS = S S significa

|a|2 + bT b

Cb

Figura 8.3: Um cilindro elptico (esquerda), um cilindro hiperb


olico (centro) e um cilindro parab
olico (direita) em R3 .

Uma matriz I Mat (C, n) e dita ser uma matriz triangular inferior se forem nulos os elementos acima da diagonal
principal, ou seja, se Iij = 0 sempre que i < j. Note que esses nao precisam ser necessariamente os u
nicos elementos
nulos de I.
Proposi
c
ao 8.29 Matrizes triangulares superiores possuem as seguintes propriedades:
1. A matriz identidade 1 e uma matriz triangular superior.
2. O produto de duas matrizes triangulares superiores e novamente uma matriz triangular superior.
3. O determinante de uma matriz triangular superior e o produto dos elementos da sua diagonal. Assim, uma matriz
triangular superior e inversvel se e somente se n
ao tiver zeros na diagonal.
4. Se uma matriz triangular superior e inversvel, sua inversa e novamente uma matriz triangular superior.
As afirmac
oes acima permanecem verdadeiras trocando matriz triangular superior por matriz triangular inferior. 2
Prova. Os tres primeiros itens sao elementares. Para provar o item 4, usa-se a regra de Laplace, express
ao (8.20), pagina
319. Como e f
acil de se ver, Cof(S)ji = 0 se i > j. Logo, S 1 e triangular superior, se existir.

bT C
|a|2
=

CC
ab

abT

B + CC

sendo B a matriz cujos elementos sao Bij = bi bj . Disso extramos que bT b = 0, ou seja, |b1 |2 + + |bn1 |2 = 0 e,
portanto, b = 0. Com isso, ficamos com CC = C C, ou seja, C e normal. Como C e triangular superior entao, pela
hip
otese indutiva, C e diagonal. Isso, mais o fato provado que b e nulo, implica que S e diagonal, provando o lema.

8.7

O Teorema de Decomposic
ao de Jordan e a Forma Can
onica
de Matrizes

Nas secoes anteriores demonstramos condicoes que permitem diagonalizar certas matrizes. Nem todas as matrizes, porem,
podem ser diagonalizadas. Podemos nos perguntar, no entanto, quao pr
oximo podemos chegar de uma matriz diagonal.
Mostraremos nesta secao que toda matriz A pode ser levada (por uma transformacao de similaridade) `a uma forma
pr
oxima `a diagonal, denominada forma can
onica de Jordan14 . Resumidamente (a afirmacao precisa sera apresentada
13 Armand Borel (19232003).
14 Marie Ennemond Camille Jordan (18381922). A forma can
onica de matrizes foi originalmente descoberta por Weierstrass (Karl Theodor
Wilhelm Weierstrass (18151897)) e redescoberta por Jordan em 1870.

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

369/2070

8.7.1

mais adiante), mostraremos que existe uma matriz P tal que P 1 AP tem a seguinte forma:

.
.
.

..

..
.

..
.

..
.

..

..

0
,

..
.

n1

n1

e a matriz supra-diagonal

comutam entre si.

.
..

..

..
.

..
.

..
.

..

..

n1

..

..
.

..
.

..
.

..

..

0
,

..
.

Resultados Preparat
orios

Se V e a soma direta de V1 e V2 escrevemos V = V1 V2 .

(8.90)

Subespa
cos invariantes

Um subespaco E de Cn e dito ser invariante pela ac


ao de uma matriz A, se Av E para todo v E.

Se V = V1 V2 e tanto V1 quanto V2 sao invariantes pela acao de A, escrevemos A = A1 A2 onde Ai e A restrita


a Vi . Se escolhermos uma base em V da forma {v1 , . . . , vm , vm+1 , . . . , vn }, onde {v1 , . . . , vm } e uma base em V1 e
{vm+1 , . . . , vn } e uma base em V2 , entao nessa base A ter
a a forma

A1

A =

0nm, m

onde A1 Mat (C, m) e A2 Mat (C, n m).

0m, nm
A2

E. 8.30 Exerccio. Justifique a forma (8.93).


(8.91)

(8.93)

A representacao (8.93) e dita ser uma representac


ao em blocos diagonais de A, os blocos sendo as sub-matrizes A1 e
A2 .
Um fato relevante que decorre imediatamente de (8.93) e da Proposicao 8.3, pagina 323, e que usaremos freq
uentemente
adiante, e que se A = A1 A2 entao
det(A) = det(A1 ) det(A2 ) .
Operadores nilpotentes

Seja V um espaco vetorial e N : V V um operador linear agindo em V . O operador N e dito ser um operador
nilpotente se existir um inteiro positivo q tal que N q = 0. O menor q para o qual N q = 0 e dito ser o ndice de N .
Vamos a alguns exemplos.

(8.92)

O resultado central que provaremos, e do qual as afirmativas feitas acima seguir


ao, diz que toda matriz A pode ser
levada por uma transformacao do tipo P 1 AP a uma matriz da forma D + N , onde D e diagonal e N e nilpotente (ou
q
seja, tal que N = 0 para algum q) e tais que D e N comutam: DN = N D. Essa e a afirmativa principal do celebre
Teorema da Decomposicao de Jordan, que demonstraremos nas paginas que seguem.
Esse Teorema da Decomposicao de Jordan generaliza os teoremas sobre diagonalizabilidade de matrizes: para matrizes
diagonaliz
aveis tem-se simplesmente N = 0 para um P conveniente.
Antes de nos dedicarmos `a demonstracao desses fatos precisaremos de alguma preparacao.

370/2070

Seja V um espaco vetorial e V1 e V2 dois de seus subespacos. Dizemos que V e a soma direta de V1 e V2 se todo vetor
v de V puder ser escrito de modo u
nico da forma v = v1 + v2 com v1 V1 e v2 V2 .

0
,

..
.

n1

Captulo 8

Vers
ao de 18 de julho de 2013.

Somas diretas de subespa


cos

onde 1 , . . . , n sao os autovalores de A e onde os i valem 1 ou 0, mas que forma que a matriz diagonal

.
..

JCABarata. Curso de Fsica-Matem


atica

E. 8.31 Exerccio. Verifique que

0 1 0

E. 8.32 Exerccio. Verifique que

0 a c

com a 6= 0 e b 6= 0 e uma matriz nilpotente de ndice 3.

E. 8.33 Exerccio. Verifique que

0 0 0

eN=

001
000

0 0 b
0 0 0

001
000

0

1 0
1 0 1
0 1 0

sao matrizes nilpotentes de ndice 3.

0 1 0
000
000

sao matrizes nilpotentes de ndice 2.

O seguinte fato sobre os autovalores de operadores nilpotentes sera usado adiante.


Proposi
c
ao 8.30 Se N Mat (C, n) e nilpotente ent
ao seus autovalores s
ao todos nulos. Isso implica que seu polin
omio
caracterstico e qN (x) = xn , x C. Se o ndice de N e q ent
ao o polin
omio mnimo de N e mN (x) = xq , x C.
2
No Corol
ario 8.5, pagina 376, demonstraremos que uma matriz e nilpotente se e somente se seus autovalores forem
todos nulos.
Prova da Proposicao 8.30. Se N = 0 o ndice e q = 1 e tudo e trivial. Seja N 6= 0 com ndice q > 1. Seja v 6= 0 um
claro
autovetor de N com autovalor : N v = v. Isso diz que 0 = N q v = q v. Logo q = 0 e, obviamente, = 0. E
entao que qN (x) = xn . Que o polinomio mnimo e mN (x) = xq segue do fato que mN (x) deve ser um divisor de qn (x)

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

371/2070

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

372/2070

(isso segue do Teorema 8.2 junto com o Teorema de Hamilton-Cayley, Teorema 8.3), pagina 335). Logo mN (x) e da
forma xk para algum k n. Mas o menor k tal que mN (N ) = N k = 0 e, por definicao, igual a q. Isso completa a prova.

entao foi partir de x Np+k e concluir que x Np+k1 . Se repetirmos a argumentacao k vezes concluiremos que x Np .
Logo, Np+k Np . Por (8.94) tem-se, porem, que Np Np+k e, assim, Np+k = Np .

Mais sobre matrizes nilpotentes sera estudado na Secao 8.7.3 onde, em particular, discutiremos a chamada forma
can
onica de matrizes nilpotentes.

{0} N1 N2 Np = Np+1 = = Np+k = V .

Assim, a cadeia (8.95) tem, no caso de V ter dimens


ao finita, a forma

(8.97)

Como dissemos, p sera daqui por diante o menor inteiro para o qual Np = Np+1 . O lema e o teorema que seguem
tem grande import
ancia na demonstracao do Teorema de Decomposicao de Jordan.

O n
ucleo e a imagem de um operador linear

Seja V um espaco vetorial e A : V V um operador linear agindo em V .

Lema 8.4 Com as definic


oes acima, Np Rp = {0}, ou seja, os subespacos Np e Rp tem em comum apenas o vetor
nulo.
2

O n
ucleo de A e definido como o conjunto de todos os vetores que sao anulados por A:
N(A) := {x V | Ax = 0} .

Demonstracao. Seja x tal que x Np e x Rp . Isso significa que Ap x = 0 e que existe y tal que x = Ap y. Logo,
A2p y = Ap x = 0, ou seja, y N2p . Pela definicao de p tem-se que N2p = Np . Assim, y Np . Logo Ap y = 0. Mas, pela
pr
opria definicao de y valia que Ap y = x. Logo x = 0.

A imagem de A e definida por


R(A) := {x V | y V tal que x = Ay} .
Afirmamos que N(A) e R(A) sao dois subespacos de V . Note-se primeiramente que 0 N(A) e 0 R(A) (por que?).
Fora isso, se x e y N(A) entao, para quaisquer escalares e ,
A(x + y) = Ax + Ay = 0 ,
provando que combinacoes lineares x + x tambem pertencem a N(A). Analogamente se x e x R(A) entao existem
y e y V com x = Ay, x = Ay . Logo
x + x = A(y + y ) ,
provando que combinacoes lineares x + y tambem pertencem a R(A).
Para um operador A fixado, e k N, vamos definir
Nk = N(Ak )

Esse lema tem a seguinte conseq


uencia importante.
Teorema 8.17 Com as definic
oes acima vale que V = Np Rp , ou seja, cada x V pode ser escrito de modo u
nico na
forma x = xn + xr , onde xn Np e xr Rp .
2
Demonstracao. Seja m a dimens
ao de Np e seja {u1 , . . . , um } uma base em Np . Vamos estender essa base, incluindo vetores {vm+1 , . . . , vn } de modo que {u1 , . . . , um , vm+1 , . . . , vn } seja uma base em V . Afirmamos que
p
p
{A vm+1 , . . . , A vn } e uma base em Rp . Seja x Rp e seja y V tal que x = Ap y. Como todo vetor de V , y pode ser
escrito como combinacao linear de elementos da base {u1 , . . . , um , vm+1 , . . . , vn }:

Rk = R(Ak ) .

y =

m
X

i ui +

i=1

Esses subespacos Nk e Rk sao invariantes por A. De fato, se x Nk , entao A (Ax) = A(A x) = A0 = 0, mostrando que
Ax Nk . Analogamente, se x Rk entao x = Ak y para algum vetor y. Logo, Ax = A(Ak y) = Ak (Ay), mostrando que
Ax Rk .

Logo,
x =

Afirmamos que

m
X

i Ap ui +

i=1

Nk Nk+1

(8.94)

e que
Rk Rk+1 .

n
X

i Ap vi =

i=m+1

n
X

i Ap vi .

(8.98)

i=m+1

Os vetores {A vm+1 , . . . , A vn } sao linearmente independentes. Isso se mostra com


Se existirem
! o seguinte argumento.
n
n
n
X
X
X
i Ap vi = 0, entao teramos Ap
i vi = 0, ou seja,
i vi Np . Isso
i=m+1

Isso diz que os conjuntos Nk formam uma cadeia crescente de conjuntos:

(8.95)

e os Rk formam uma cadeia decrescente de conjuntos:


V R1 R2 Rk {0} .

i vi .

i=m+1

escalares m+1 , . . . , n tais que

As demonstracoes dessas afirmativas sao quase banais. Se x Nk entao Ak x = 0. Isso obviamente implica Ak+1 x = 0.
Logo x Nk+1 e, portanto, Nk Nk+1 . Analogamente, se x Rk+1 entao existe y tal que x = Ak+1 y. Logo x = Ak (Ay),
o que diz que x Rk . Portanto Rk+1 Rk .
{0} N1 N2 Nk V ,

n
X

implica que existem constantes 1 , . . . , m tais que

n
X

i=m+1

i vi =

m
X
i=1

i=m+1

i=m+1

i ui , pois os vetores {u1 , . . . , um } sao uma base

em Np . Ora, como {u1 , . . . , um , vm+1 , . . . , vn } sao linearmente independentes, segue que os i s e os j s sao todos
nulos. Isso prova que {Ap vm+1 , . . . , Ap vn } sao linearmente independentes e, portanto, por (8.98), formam uma base
em Rp .
Isso incidentalmente provou que a dimens
ao de Rp e n m. Temos, portanto, que dim (Np ) + dim (Rp ) = dim (V ).
Para i = m + 1, . . . , n defina-se ui = Ap vi . Afirmamos que o conjunto de vetores

(8.96)

Consideremos a cadeia crescente (8.95). Como os conjuntos Nk sao subespacos de V , e claro que a cadeia nao pode
ser estritamente crescente se V for um espaco de dimens
ao finita, ou seja, deve haver um inteiro positivo p tal que
Np = Np+1 . Seja p o menor n
umero inteiro para o qual isso acontece. Afirmamos que para todo k 1 vale Np = Np+k .

Vamos provar isso. Se x Np+k entao Ap+k x = 0, ou seja, Ap+1 (Ak1 x) = 0. Logo, Ak1 x Np+1 . Dado que
Np = Np+1 , isso diz que Ak1 x Np , ou seja, Ap (Ak1 x) = 0. Isso, por sua vez, afirma que x Np+k1 . O que fizemos

{u1 , . . . , um , um+1 , . . . , un } = {u1 , . . . , um , Ap vm+1 , . . . , Ap vn }


e tambem linearmente independente e, portanto, forma uma base em V . Suponhamos que haja constantes escalares
1 , . . . , n tais que
!
n
m
n
X
X
X
0 =
i ui =
i ui + Ap
i vi .
i=1

i=1

i=m+1

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

Isso implica, obviamente,


m
X
i=1

i ui = A

n
X

i vi

i=m+1

373/2070

O lado esquerdo dessa igualdade e um elemento de Np (pois u1 , . . . , um sao uma base em Np ), enquanto que o lado
esquerdo e obviamente um elemento da imagem de Ap , ou seja, de Rp . Contudo, j
a vimos (Lema 8.4) que o u
nico vetor
que Np e Rp tem em comum e o vetor nulo. Logo,
m
X

i ui = 0

(8.99)

i=1

n
X

i Ap vi = 0 .

JCABarata. Curso de Fsica-Matem


atica

Conseq
uentemente, todo x V pode ser escrito na forma
x =

n
X
i=1

i ui =

m
X

i ui + Ap

i=1

| {z }
xn Np

i=m+1

i vi

{z

xr Rp

374/2070

Demonstracao. Seja {1 , . . . , r } o conjunto dos autovalores distintos de A e seja ni a multiplicidade algebrica do


autovalor i . Seja A1 = A 1 1. Pelo Teorema 8.18, pagina 373, V pode ser escrito como V = S1 T1 , onde S1 e T1
sao invariantes por A1 , sendo A1 nilpotente em S1 e inversvel em T1 . Assim, A1 e da forma A1 = N1 M1 com N1
nilpotente e M1 inversvel. Logo

(8.100)

n
X

Captulo 8

Teorema 8.19 (Teorema da Decomposi


c
ao de Jordan) Seja A um operador linear agindo no espaco V = Cn e
seja {1 , . . . , r } o conjunto de seus autovalores distintos. Ent
ao, existem r subespacos S1 , . . . , Sr tais que V =
S1 . . . Sr e tais que cada Si e invariante por A. Ou seja, A = A1 . . . Ar , onde Ai e A restrita a Si . Fora isso,
cada Ai , e da forma Ai = i 1i + Ni , onde 1i e a matriz identidade em Si e onde Ni e nilpotente. Por fim, a dimens
ao
si de cada subespaco Si e igual a
` multiplicidade algebrica do autovalor i .
2

A = 1 1 + A1 = (1 1S1 + N1 ) (1 1T1 + M1 ) ,

i=m+1

A relacao (8.99) implica 1 = = m = 0, pois {u1 , . . . , um } e uma base em Np . A relacao (8.100) implica
m+1 = = n = 0, pois {Ap v1 , . . . , Ap vm } e uma base em Rp . Assim, todos os i s sao nulos, provando que
{u1 , . . . , um , um+1 , . . . , un } = {u1 , . . . , um , Ap vm+1 , . . . , Ap vn } e um conjunto de n vetores linearmente
independentes.

Vers
ao de 18 de julho de 2013.

(8.101)

ao de S1 e igual `a multiplicidade algebrica de 1 .


onde 1S1 e a matriz identidade em S1 etc. Vamos mostrar que a dimens
Por (8.101) o polinomio caracterstico de A e
qA () = det(1 A) = det(( 1 )1S1 N1 ) det(( 1 )1T1 M1 ) .
Se qN1 denota o polinomio caracterstico de N1 , tem-se
det(( 1 )1S1 N1 ) = qN1 ( 1 ) = ( 1 )s1 ,

onde, na u
ltima igualdade, usamos a Proposicao 8.30, pagina 370, sobre a forma do polinomio caracterstico de uma
matriz nilpotente. Da, segue que qA () = ( 1 )s1 qM1 ( 1 ), sendo qM1 o polinomio caracterstico de M1 . Como
M1 e inversvel, M1 nao tem o zero como autovalor. Logo, qM1 (0) 6= 0. Portanto s1 e igual `a multiplicidade de 1 como
raiz de qA , ou seja, e igual a n1 , a multiplicidade algebrica de 1 .

Provar a unicidade dessa decomposicao fica como exerccio. Isso completa a demonstracao.
Uma das coisas que o teorema que acabamos de demonstrar diz e que, dado um operador A, o espaco V pode ser
decomposto em uma soma direta de dois subespacos, invariantes por A: um onde A e nilpotente, Np , e outro onde A e
inversvel, Rp . A e nilpotente em Np pois Ap x = 0 para todo elemento x de Np . A e inversvel em Rp pois se x Rp e
tal que Ax = 0 isso implica x N1 Np . Mas x so pode pertencer a Np e a Rp se for nulo. Logo, em Rp , Ax = 0 se
e somente se x = 0, provando que A e inversvel15. Para referencia futura formulemos essa afirmativa na forma de um
teorema:
Teorema 8.18 Se A e um operador linear n
ao-nulo agindo em um espaco vetorial V = Cn ent
ao e possvel decompor
V em dois subespacos invariantes por A, V = S T, de forma que A restrito a S e nilpotente, enquanto que A restrito a
T e inversvel.
2

A ideia agora e prosseguir decompondo agora o operador 1 1T1 + M1 que aparece em (8.101) da mesma maneira
como fizermos acima com A.
Seja A = 1 1T1 + M1 e que age em T1 , que e um espaco de dimens
ao n n1 . Definimos A2 = A 2 1T1 .

Evocando novamente o Teorema 8.18, pagina 373, T1 pode ser escrito como T1 = S2 T2 , onde S2 e T2 sao invariantes
por A2 , sendo A2 nilpotente em S2 e inversvel em T2 . Assim, V = S1 S2 T2 . Agindo em T1 = S2 T2 , A2 e da forma
A2 = N2 M2 com N2 nilpotente e M2 inversvel. Logo
A = 2 1T1 + A2 = (2 1S2 + N2 ) (2 1T2 + M2 ) .

(8.102)

Vamos, como acima, mostrar que a dimens


ao de S2 e igual `a multiplicidade algebrica de 2 .
Esse sera o teorema basico do qual extrairemos a demonstracao do Teorema de Decomposicao de Jordan.

8.7.2

Pela definicao,
Logo,

O Teorema da Decomposic
ao de Jordan

A = (1 1S1 + N1 ) A = (1 1S1 + N1 ) (2 1S2 + N2 ) (2 1T2 + M2 ) .


qA () = det (( 1 )1S1 N1 ) det (( 2 )1S2 N2 ) det (( 2 )1T2 M2 ) .

Chegamos agora ao resultado mais importante desta secao, o Teorema da Decomposicao de Jordan , um importante
teorema estrutural sobre matrizes de import
ancia em v
arios campos, por exemplo na teoria das equacoes diferenciais
ordinarias. Para tais aplicacoes, vide Captulo 12, pagina 490.

Portanto, pelos mesmos argumentos usados acima,

O Teorema da Decomposicao de Jordan tambem tem certa relevancia na Teoria de Grupos, e o usaremos para provar
que toda matriz n n complexa inversvel (ou seja, todo elemento do grupo GL(C, n)) pode ser escrita como exponencial
de outra matriz (Proposicao 9.11, pagina 422). No Captulo 9 usaremos o Teorema da Decomposicao de Jordan para
provar a identidade u
til det(eA ) = eTr(A) , v
alida para qualquer matriz n n real ou complexa (Proposicao 9.7, pagina
420). Vide tambem Proposicao 8.14, pagina 332.

Como M2 e inversvel, M2 nao tem autovalor zero e, assim, qM2 (0) 6= 0. Logo, s2 = n2 . T2 e assim um subespaco de
dimens
a o n n1 n2 .

16

Enunciado e demonstra
c
ao do Teorema da Decomposi
c
ao de Jordan
15 Lembre-se

que esse argumento s


o funciona em espacos vetoriais V que tenham dimens
ao finita, o que estamos supondo aqui.
Camille Jordan (18381922). A forma can
onica de matrizes (que ser
a discutida mais adiante) foi originalmente descoberta
por Weierstrass (Karl Theodor Wilhelm Weierstrass (18151897)) e redescoberta por Jordan em 1870.

qA () = ( 1 )n1 ( 2 )s2 qM2 ( 2 ) .

Prosseguindo nas mesmas linhas, ap


os r passos chegaremos a um subespaco Tr de dimens
a o n n1 nr = 0
(por (8.30), pagina 325). A, teremos V = S1 Sr , onde cada Si tem dimens
a o ni e
A = (1 1S1 + N1 ) (r 1Sr + Nr ) ,

onde os Ni s sao todos nilpotentes. Isso completa a demonstracao.

16 Marie Ennemond

Um corol
ario importante do Teorema de Decomposicao de Jordan e o seguinte:

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

375/2070

Teorema 8.20 Para toda matriz A Mat (C, n) existe uma matriz inversvel P Mat (C, n) tal que P 1 AP = D + N ,
onde D e uma matriz diagonal formada pelos autovalores de A e N e uma matriz nilpotente e de tal forma que D e N
comutam: DN = N D.
Conseq
uentemente, toda matriz A Mat (C, n) pode ser escrita na forma A = Ad + An com Ad An = An Ad , sendo
2
Ad diagonaliz
avel e An nilpotente, a saber, Ad = P DP 1 e An = P N P 1 , com D e N dados acima.

Demonstracao do Teorema 8.20. O Teorema 8.19 est


a dizendo que, numa base conveniente, A tem a forma de blocos
diagonais

A1

A =
.
..

0
A2
..
.
0

1 1s1 + N1

..

...

Ar

..

ou seja,

2 1s2 + N2

..
.

..

..
.

r 1sr + Nr

(8.103)

1 1s1

D =
.
..

2 1s2

..
.
0

..

N2
..
.
0

..

Nk

(N2 )
..
.
0

..

..
.
(Nr )k

= 0.

Matrizes Nilpotentes e sua Representac


ao Can
onica

Os teoremas que estudamos acima nesta secao revelam a importancia de matrizes nilpotentes. Um fato relevante e que
elas podem ser representadas de uma forma especial, denominada forma can
onica, da qual traremos logo abaixo. Antes,
alguma preparacao se faz necess
aria.

N v,

N 2 v,

...,

N q1 v ,

(8.105)

s
ao linearmente independentes. Fora isso, o subespaco q-dimensional Jv, q := hv, N v, N v, . . . , N
por esses q vetores e invariante por N .

q1

vi de V gerado
2

Prova. Se q = 1, entao N = 0 e nao ha nada a provar, pois a afirmacao e trivialmente verdadeira para qualquer v 6= 0.
Seja entao q > 1 (em cujo caso N 6= 0, trivialmente). Sabemos, por hip
otese, que a matriz N q1 e nao-nula. Isso
imediato que os vetores
significa que existe pelo menos um vetor v 6= 0 tal que N q1 v 6= 0. Fixemos um tal vetor. E
N v, N 2 v, . . . , N q1 v sao todos nao-nulos pois, se tivessemos N j v = 0 para algum 1 j < q 1, entao, aplicando-se
N q1j `a esquerda, teramos N q1 v = 0, uma contradicao.
Sejam agora 1 , . . . , q escalares tais que
1 v + 2 N v + 3 N 2 v + + q N q1 v = 0 .
q1

(8.104)

Acima si e a dimens
ao do subespaco Si .
f
E
acil de se ver que N e uma matriz nilpotente, pois se o ki e o ndice de Ni (ou seja, ki e o menor inteiro positivo
para o qual Niki = 0), entao para k := max (k1 , . . . , kr ) tem-se

(N1 )k

=
.
..

Prova. A Proposicao 8.30, pagina 370, afirma que se M e nilpotente todos os seus autovalores sao nulos. O Teorema
8.20, pagina 375, afirma que se os autovalores de M sao nulos, entao existe P tal que P 1 M P = N , nilpotente. Isso
implica que M e nilpotente.

.
..
.

Nr

Corol
ario 8.5 Uma matriz M Mat (C, n) e nilpotente se e somente se todos os seus autovalores forem nulos.

v,

r 1sr

Por fim, como cada Ni comuta com i 1si , fica claro que D e N comutam. Isso completa a demonstracao.

Lema 8.5 Seja N uma matriz nilpotente de ndice q. Est


ao existe um vetor v 6= 0 tal que os q vetores

= diag 1 , . . . , 1 , . . . , r , . . . , r
{z
}
{z
}
|
|
..
.
s1 vezes
sr vezes

N1

N =
.
..

376/2070

Seja N Mat (C, n) uma matriz nilpotente de ndice q, ou seja, N q = 0, mas N q1 6= 0. Para uso futuro, provemos
o seguinte lema:

Captulo 8

Vers
ao de 18 de julho de 2013.

Em verdade, k = max (k1 , . . . , kr ) e o ndice de N (por que?).

8.7.3

A = D+N ,
onde

JCABarata. Curso de Fsica-Matem


atica

Aplicando-se N
nessa igualdade e lembrando que N = 0, conclumos que 1 N
que 1 = 0 e, com isso, (8.106) fica
2 N v + 3 N 2 v + + q N q1 v = 0 .

(8.106)
q1

v = 0. Como N

q1

v 6= 0, segue
(8.107)

Aplicando agora N q2 nessa igualdade conclumos que 2 = 0. Prosseguindo, conclumos depois de q passos que todos
os escalares j sao nulos. Isso prova que os q vetores de (8.105) sao linearmente independentes.
Que o subespaco Jv, q definido acima e invariante por N e evidente pois, para quaisquer escalares 1 , . . . , q , tem-se

N 1 v + 2 N v + + q N q1 v = 1 N v + 2 N 2 v + + q1 N q1 v Jv, q .
O seguinte teorema e central para o que segue.
Teorema 8.21 Se N e uma matriz nilpotente de ndice q agindo em V e v um vetor com a propriedade que N q1 v 6= 0,
ent
ao existe um subespaco K de V tal que Jv, q K = {0}, tal que V = Jv, q K e tal que K e tambem invariante por
N.
2

JCABarata. Curso de Fsica-Matem


atica

Vers
ao de 18 de julho de 2013.

Captulo 8

377/2070

Prova.17 A prova e feita por inducao em q. Note-se que se q = 1, entao N = 0 e a afirmativa e trivial, pois podemos
tomar como v qualquer vetor nao-nulo, Jv, q seria o subespaco gerado por esse v e K o subespaco complementar a v, que
e trivialmente invariante por N , pois N = 0.
Vamos supor entao que a afirmacao seja v
alida para matrizes nilpotentes de ndice q 1 e provar que a mesma e v
alida
para matrizes nilpotentes de ndice q. O que desejamos e construir um subespaco K com as propriedades desejadas, ou
seja, tal que V = Jv, q K, sendo K invariante por N .

Seja V0 = R(N ) o conjunto imagem de N . Sabemos que V0 e um subespaco de V e que e invariante por N . Fora isso,
N e nilpotente de ndice q 1 agindo em V0 (por que?)
claro que N q2 v0 = N q1 v 6= 0. Assim, pelo Lema 8.5, o subespaco (q 1)-dimensional
Seja v0 = N v V0 . E
Jv0 , q1 = hv0 , N v0 , . . . , N q2 v0 i = hN v, N 2 v, . . . , N q1 vi = JN v, q1 ,
que e um subespaco de V0 , e invariante por N e, da hip
otese indutiva, conclumos que existe um subespaco K0 de V0 que
e invariante por N tal que JN v, q1 K0 = {0} e tal que V0 = JN v, q1 K0 .
Seja agora K1 := {x V | N x K0 }. Vamos provar a seguinte afirmacao:

JCABarata. Curso de Fsica-Matem


atica

Note que a afirmacao feita em I nao significa que V = Jv, q K1 , pois os subespacos Jv, q e K1 podem ter uma
interseccao nao-trivial. Tem-se, porem, o seguinte:
II. Jv, q K0 = {0}.

Provemos essa afirmacao. Seja x Jv, q K0 . Como x Jv, q , x e da forma x = 1 v + 2 N v + + q N q1 v.


Logo N x = 1 N v + 2 N 2 v + + q1 N q1 v JN v, q1 . Agora, como x K0 e, por hip
otese, K0 e invariante
por N , segue que N x K0 . Logo, N x JN v, q1 K0 . Todavia, mencionamos acima que JN v, q1 K0 = {0}.
Logo, N x = 0, ou seja, 0 = N x = 1 N v + 2 N 2 v + + q1 N q1 v. Como os vetores N v, . . . , N q1 v sao
linearmente independentes, conclumos que 1 = q1 = 0. Logo, x = q N q1 v. Isso significa que x JN v, q1 .
Demonstramos, entao, que se x Jv, q K0 entao x JN v, q1 K0 mas, como JN v, q1 K0 = {0}, segue que
x = 0. Isso conclui a prova de II.

III. K0 e Jv, q K1 , sao dois subespacos disjuntos de K1 .


evidente que Jv, q K1 e subespaco de K1 . Como K0 e invariante pela acao de
A demonstracao e muito simples. E
N , segue que se x K0 entao N x K0 . Pela definicao, isso diz que x K1 e conclumos que K0 e um subespaco
e K1 .

1. Jv, q e K sao subespacos disjuntos, ou seja, Jv, q K = {0}, pois, como K K1 , segue que K = K K1 e, portanto,
Jv, q K = Jv, q (K K1 ) = (Jv, q K1 ) K

(8.108)

{0} .

2. Jv, q K contem os vetores de Jv, q e de (Jv, q K1 ) K = K1 . Por I, isso implica que Jv, q K = V .
3. K e invariante por N , pois o fato que K K1 , implica, pela definicao de K1 , que N K N K1 K0 K.
A prova do Teorema 8.21 est
a completa
A principal conseq
uencia do Teorema 8.21 e a seguinte.
Proposi
c
ao 8.31 Seja N Mat (C, n) uma matriz nilpotente de ndice q. Ent
ao, existem
1. um inteiro positivo r, com 1 r n,

tais que
V = Jv1 , q1 Jvr , qr .
2

Prova. Se q = 1 entao N = 0. Basta tomar r = n e escolher v1 , . . . , vn uma base qualquer em V . Os qj s sao todos
iguais a 1.
Consideremos entao q > 1 com N 6= 0. Tomemos q1 = q. Pelo Teorema 8.21, existem um vetor v1 6= 0 e um subespaco
K 1 , invariante por N tais que
V = Jv1 , q1 K 1 .
Como K 1 e invariante por N , podemos tambem dizer que a matriz N e nilpotente quando restrita a K 1 (j
a que e
claro que q2 q = q1 .
nilpotente em todo V ). Denotemos por q2 o ndice de N quando restrita a K 1 . E

Assim, podemos aplicar o Teorema 8.21 para a matriz N restrita a K 1 e concluir que existe v2 6= 0 em K 1 e um
subespaco K 2 de K 1 , invariante por N , tais que K 1 = Jv2 , q2 K 2 . Note que N q2 v2 = 0, pois v2 K 1 .
Com isso, temos

V = Jv1 , q1 Jv2 , q2 K 2 .

Novamente K 2 e invariante por N e, como K 2 e um subespaco de K 1 . O ndice de N em K 2 sera q3 q2 q1 .

O espaco V tem dimens


ao finita. Assim, a prova se conclu repetindo o procedimento acima um n
umero finito r de
vezes. Note que N qj vj = 0, pois N q1 v1 = 0, e vj K j1 para todo j = 2, . . . , r.
Pela construcao acima, e claro que q1 + + qr = n, a dimens
ao de V , e que os n vetores

Que K0 e Jv, q K1 sao subespacos disjuntos, segue do fato que

v1 , N v1 , . . . , N q1 1 v1 , v2 , N v2 , . . . , N q2 1 v2 , . . . , vr , N vr , . . . , N qr 1 vr

II

K0 (Jv, q K1 ) = K1 (Jv, q K0 ) = K1 {0} = {0} .


A afirmacao III implica que K1 = (Jv, q K1 ) K0 K0 para algum subespaco K0 de K1 (nao necessariamente
u
nico). Seja agora K := K0 K0 . Note que K1 = (Jv, q K1 ) K e, portanto,

sao linearmente independentes e formam uma base em V . Vamos denota-los (na ordem em que aparecem acima) por
b1 , . . . , bn .
Note agora que, pela construcao, N bj = bj+1 , para j em cada um dos conjuntos

(8.108)

Provaremos que esse K possui as propriedades desejadas, ou seja, que V = Jv, q K, sendo K invariante por N . Isso e
feito em tres passos.
com modificaco
es, de [93].

378/2070

3. r vetores v1 , . . . , vr satisfazendo N qj vj = 0 mas N qj 1 vj 6= 0, j = 1, . . . , r,

Para provar isso, notemos que para qualquer x V vale certamente que N x V0 . Portanto, como pela hip
otese
indutiva V0 = JN v, q1 K0 , podemos escrever N x = y + z , com y JN v, q1 e z K0 . Como y JN v, q1 , y e

q1
da forma de uma combinacao linear y = 1 N v + + q1 N
v = N y, onde y := 1 v + 2 N v + + q1 N q2 v
e um elemento de Jv, q . Logo, z = N (x y). Como z K0 , segue que z := x y K1 . Assim, x = y + z, com
y Jv, q e z K1 . Isso provou I.

17 Extra
da,

Captulo 8

2. r n
umeros inteiros positivos n q1 q2 qr 1, com q1 + + qr = n,

I. Todo vetor x de V pode ser escrito na forma x = y + z onde y Jv, q e z K1 .

(Jv, q K1 ) K = {0} .

Vers
ao de 18 de julho de 2013.

{1, . . . , q1 1},

{1 + q1 , . . . , q1 + q2 1},

{1 + q1 + q2 , . . . , q1 + q2 + q3 1} ,
...

{1 + q1 + + qr1 , . . . , q1 + + qr 1} , (8.109)

com l = 0, . . . , r 1, sendo que N bj = 0 para todo j na forma q1 + + ql , l = 1, . . . , r.

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

379/2070

ltimas afirmacoes.
E. 8.34 Exerccio importante para compreender o que segue. Justifique as u

Isso significa que na base b1 , . . . , bn os elementos de matriz de N sao todos nulos exceto aqueles na forma Nj, j+1
com j em algum dos conjuntos listados em (8.109), em cujo caso Nj, j+1 = 1. Pictoriamente, isso diz-nos que na base
b1 , . . . , bn a matriz N assume uma forma genericamente ilustrada na Figura 8.4. Essa e a denominada forma can
onica

(q 1) vezes

380/2070

A Forma Can
onica de Matrizes

Se A Mat (C, n) o Teorema 8.19, pagina 374 ensinou-nos que numa base conveniente (ou seja, por uma transformacao de similaridade P01 AP0 ), toda matriz A tem a forma de blocos diagonais:

A1

=
.
.
.

A2

..
.
0

..

1 1n1 + N1

..

..

Ar

2 1n2 + N2

..
.

..

..
.

r 1nr + Nr

(8.110)

sendo 1 , . . . , r os autovalores distintos de A. O j-esimo bloco e de tamanho nj nj , sendo que nj e a multiplicidade


algebrica do autovalor j . As matrizes Nj sao nilpotentes.

1
1

Cada matriz Nj pode ser levada `a sua forma can


onica Njc (tal como explicado na Figura 8.4, pagina 379, e no que se
lhe segue) em uma base conveniente, ou seja, por uma transformacao de similaridade Pj1 Nj Pj . Assim, definindo

0
(q r 1) vezes

Captulo 8

Vers
ao de 18 de julho de 2013.

Finalizamos esta secao e nossa discussao sobre o Teorema da Decomposicao de Jordan e suas conseq
uencias reunindo o
que descobrimos ate aqui.

P01 AP0

N =
0

8.7.4

(q 2 1) vezes

JCABarata. Curso de Fsica-Matem


atica

Figura 8.4: Forma can


onica tpica de uma matriz nilpotente N . Os elementos da primeira supra-diagonal podem valer
0 ou 1. Todos os demais elementos de matriz sao nulos.
da matriz nilpotente N ou representac
ao can
onica da matriz nilpotente N , que descrevemos mais detalhadamente no que
segue.
Os elementos da diagonal principal sao todos nulos. Os u
nicos elementos nao-nulos da matriz podem estar localizados
apenas na diagonal imediatamente acima da principal, ou seja, aquela diagonal formada por elementos de matriz do
tipo Nj, j+1 com j = 1, . . . , n 1. Chamaremos essa diagonal de primeira supra-diagonal. Os elementos da primeira
supra-diagonal podem ser 0 ou 1, da forma seguinte: a primeira supra-diagonal possuir
a r fileiras. As primeiras r 1
fileiras sao formadas por qj elementos, j = 1, . . . , n 1, sendo os primeiros qj 1 elementos iguais a 1 e o u
ltimo igual
a 0. A u
ltima fileira ter
a qr 1 elementos iguais a 1. Assim, se qr = 1, o u
ltimo elemento da primeira supra-diagonal
ser
a nulo, proveniente da (r 1)-esima fileira (essa e a u
nica forma de aparecer um zero no u
ltimo elemento da primeira
supra-diagonal).
Note que zeros consecutivos podem ocorrer, se tivermos alguns qj s iguais a 1. Note tambem que os elementos da
primeira supra-diagonal podem ser todos nulos (o que valera se r = n, em cujo caso q1 = = rn = 1. Isso so pode
ocorrer se N = 0 e, nesse caso, q = 1) ou todos iguais a 1 (o que valera se r = 1, em cujo caso q1 = n).

P1

P =
.
..

P2

..
.
0

..

,
..
.

Pr

(8.111)

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

vemos que P 1 (P01 AP0 )P = (P0 P )1 A(P0 P ), sendo que, por (8.110),

(P01 AP0 )P

1
P1 (1 1n1 + N1 ) P1

...

1 1n1 + N1c

..

381/2070

P21 (2 1n2 + N2 ) P1

..
.

..

..
.

2 1n2 + N2c

..
.

..

..
.

r 1nr + Nrc

Pr1 (r 1nr + Nr ) Pr

E. 8.35 Exerccio. Complete os detalhes.

Vers
ao de 18 de julho de 2013.

Captulo 8

382/2070

bloco age) e possvel fazer certas permutacoes dos elementos da base, de modo a preservar a diagonal e permutar os i s
da primeira supradiagonal.

8.8

Algumas Representa
c
oes Especiais de Matrizes

Nas secoes anteriores apresentamos algumas formas especiais de representar matrizes com determinadas caractersticas,
como aquelas expressas no Teorema Espectral e no Teorema de Jordan. Nesta secao apresentaremos outras representacoes,
relevantes em certos contextos, como a decomposicao polar.

8.8.1

A Decomposic
ao Polar de Matrizes

bem conhecido o fato de que todo n


E
umero complexo z pode ser escrito na forma polar z = |z|ei , onde |z| 0 e

[, ). Tem-se que |z| = zz e ei = z|z|1 . H


a uma afirmacao an
aloga v
alida para matrizes A Mat (C, n),
a qual e muito u
til, e da qual trataremos nesta secao. Antes de enunciarmos esse resultado de forma mais precisa (o
Teorema da Decomposicao Polar, Teorema 8.22, abaixo), facamos algumas observacoes preliminares.

(8.112)

A matriz final de (8.112) e denominada forma can


onica da matriz A, ou forma can
onica de Jordan da matriz A.
Como dissemos, toda matriz A assume essa forma numa certa base. Devido ao fato de todos as sub-matrizes nilpotentes
c
Nj terem a forma can
onica, os u
nicos elementos nao-nulos da forma can
onica da matriz A podem estar ou na diagonal
principal (sendo estes os autovalores de A, cada um aparecendo em uma fileira de nj elementos), ou na primeira supradiagonal, sendo que estes valem apenas 0 ou 1 e seguem as regras descritas acima. Isso e ilustrado na Figura 8.5,
A Figura 8.5, mostra a forma can
onica de uma matriz que possui 4 autovalores distintos 1 , 2 , 3 e 4 . A primeira
supra-diagonal e formada pela seq
uencia de n
umeros
11 , . . . , 1a , 0, 11 , . . . , 1b , 0, 11 , . . . , 1c , 0, 11 , . . . , 1d ,

JCABarata. Curso de Fsica-Matem


atica

(8.113)

sendo que os ij assumem apenas os valores 0 ou 1, de acordo com as regras explicadas acima quando discutimos a forma
can
onica de matrizes nilpotentes. Todos os elementos fora da diagonal principal e da primeira supradiagonal sao nulos.
O primeiro bloco e de dimens
ao (a + 1) (a + 1), o segundo bloco e de dimens
ao (b + 1) (b + 1) etc., sendo a + 1 a
multiplicidade algebrica de 1 , b + 1 a multiplicidade algebrica de 2 etc.
interessante notar que na primeira supra-diagonal, sempre ocorrem zeros nos pontos localizados fora dos blocos, ou
E
seja, nos pontos onde ocorrem transicoes entre dois autovalores distintos (indicados por setas na Figura 8.5). Esses sao
os zeros que ocorrem explicitamente na lista (8.113).
Por fim, comentamos que a forma can
onica nao e exatamente u
nica, pois e possvel ainda fazer transformacoes de
similaridade que permutem os blocos de Jordan da matriz. Alem disso, dentro de cada subespaco invariante (onde cada

Seja A Mat (C, n) e seja a matriz A A. Notemos primeiramente que (A A) = A A = A A, ou seja, A A


e auto-adjunta. Pelo Teorema 8.13, pagina 357, e possvel encontrar um conjunto ortonormal {vk , k = 1, . . . , n} de
autovetores de A A, com autovalores dk , k = 1, . . . , n, respectivamente, sendo que a matriz
hh
ii
P := v1 , . . . , vn
(8.114)
(para a notacao, vide (8.9)) e unit
aria e diagonaliza A A, ou seja, P (A A)P = D, sendo D a matriz diagonal D :=
diag (d1 , . . . , dn ), cujos elementos da diagonal sao os autovalores de A A. Os autovalores dk sao todos maiores ou iguais
a zero. De fato, se vk 6= 0 e um autovetor de A A com autovalor dk , teremos dk kvk k2 = dk hvk , vk iC = hvk , Bvk iC =
hvk , A Avk iC = hAvk , Avk iC = kAvk k2 . Logo, dk = kAvk k2 /kvk k2 0.

Com esses fatos `a mao, vamos definir uma matriz diagonal, que denotaremos sugestivamente por D1/2 , por D1/2 :=

2

diag ( d1 , . . . , dn ). Tem-se que D1/2 = D, uma propriedade obvia18 . Note-se tambem que D1/2 = D1/2 , pois

umeros nao-negativos d1 , . . . , dn sao freq


cada dk e real. Os n
uentemente denominados valores singulares de A.

Definamos agora a matriz A A, por

A A := P D1/2 P .
(8.115)



2


Essa matriz A A e auto-adjunta, pois
A A = P D1/2 P = P D1/2 P = A A. Observemos que
A A =
P (D1/2 )2 P = P DP = A A. Disso segue que



2
2 

det
A A
A A
= det
= det(A A) = det(A ) det(A) = det(A) det(A) = | det(A)|2 .




A A = | det(A)| e, portanto, A A e inversvel se e somente se A o for.

umero complexo. Podemos


Alguns autores denotam a matriz A A por |A|, por analogia com o modulo de um n
agora formular e demonstrar o resultado que procuramos:
Provamos assim que det

Teorema 8.22 (Teorema da Decomposi


c
ao Polar) Seja A Mat (C, n). Ent
ao, existe uma matriz unit
aria U
Mat (C, n) tal que

(8.116)
A = U A A .
Se A e inversvel, ent
ao U e univocamente determinada. A representac
ao (8.116) e denominada representacao polar de
A.
2

18 Essa n
ao
e a u
nica matriz com essa propriedades, pois qualquer matriz do tipo diag ( d1 , . . . , dn ), com os sinais escolhidos
independentemente uns dos outros, tamb
em tem como quadrado a matriz D.

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

383/2070

JCABarata. Curso de Fsica-Matem


atica

Vers
ao de 18 de julho de 2013.

Captulo 8

384/2070

Prova. Sejam, como acima, dk , k = 1, . . . , n os autovalores de A A com autovetores respectivos vk , k = 1, . . . , n.


Sabemos pelo Teorema 8.13, pagina 357 que podemos escolher os vk s de forma que hvk , vl iC = k l .

aria U0 . Como
Prova.
Para a matriz A , (8.116) diz-nos
0 AA para alguma matriz unit

que A = U0 (A ) A = U

AA e auto-adjunta, segue que A = AA U0 . Identificando V = U0 , obtemos o que desejamos.

Avk = 0 para todo k = r + 1, . . . , n ,

O Teorema da Decomposicao Polar pode ser generalizado para abranger operadores limitados agindo em espacos
de Hilbert (vide Teorema 37.31, pagina 1938) e mesmo para abranger operadores nao-limitados agindo em espacos de
Hilbert (vide [197]).

Como vimos acima, os autovalores dk satisfazem dk 0. Sem perda de generalidade, vamos sup
o-los ordenados de
forma que dk > 0 para todo k = 1, . . . , r e dk = 0 para todo k = r + 1, . . . , n. Com essa escolha, tem-se que

(8.117)

pois de A Avk = 0, segue que 0 = hvk , A Avk iC = hAvk , Avk iC = kAvk k2 .

8.8.2

Para k = 1, . . . , r, sejam wk os vetores definidos da seguinte forma:


wk

1
:= Avk ,
dk

k = 1, . . . , r .

(8.118)

1
dk
dk
1
hAvk , Avl iC =
hA Avk , vl iC =
hvk , vl iC =
hwk , wl iC =
k l = k l ,
dk dl
dk dl
dk dl
dk dl
para todos k, l = 1, . . . , r. Assim, o conjunto de vetores {wk , k = 1, . . . , r} forma um conjunto ortonormal. A
eles podemos acrescentar um novo conjunto {wk , k = r + 1, . . . , n}, escolhido arbitrariamente, de vetores ortonormais
pertencentes ao complemento ortogonal do subespaco gerado por {wk , k = 1, . . . , r} e construir assim, um conjunto
ortonormal {wk , k = 1, . . . , n}.
Sejam agora a matriz P , definida em (8.114) e as seguintes matrizes de Mat (C, n):
hh
ii
Q := w1 , . . . , wn ,
U := QP

hh
ii
A v1 , . . . , vn

(8.12)

hh
ii
Av1 , . . . , Avn

(8.117)

hh
ii
Av1 , . . . , Avr 0, . . . , 0

(8.118)

ii
hhp
p
d1 w1 , . . . , dr wr 0, . . . , 0

(8.15)

(8.115)

Para mostrar que U e univocamentedeterminado se A for inversvel, suponhamos que exista U tal que A = U A A =

A
A A. Como
comentamos
acima,
A
e
invers
vel
se
e
somente
se
A
o
for.
Logo,
se
A

e
invers
vel,
a
igualdade
U

U A A = U A A implica U = U , estabelecendo a unicidade. Caso A nao seja inversvel a arbitrariedade de U reside


na escolha dos vetores ortogonais {wk , k = r + 1, . . . , n}.
O seguinte corol
ario e elementar:

Se A e inversvel, ent
ao V e univocamente determinada.

Teorema 8.25 (Teorema da Decomposi


c
ao em Valores Singulares. Geral) Seja A Mat (C, m, n). Ent
ao,
existem matrizes unit
arias V e W Mat (C, m + n) tais que
A = Im, m+n V SW Jm+n, n ,

(8.121)

onde S Mat (C, m + n) e uma matriz


diagonal cujos elementos diagonais s
ao os valores singulares de A (definida em
p
(8.7)), ou seja, os autovalores de (A ) A .
2

Na Secao 8.9, pagina 389, estudaremos uma aplicacao do Teorema da Decomposicao em Valores Singulares, a saber,
ao estudo da chamada Pseudo-Inversa de Moore-Penrose e suas aplicacoes em problemas de optimizacao linear.

U A A, que e o que queramos provar.

Teorema 8.23 Seja A Mat (C, n). Ent


ao, existe uma matriz unit
aria V Mat (C, n) tal que

A = AA V .

Prova. A afirmacao segue imediatamente de (8.116) e de (8.115) tomando V = U P , W = P e S = D1/2 .

Prova. A matriz A Mat (C, m + n) e uma matriz quadrada e, pelo Teorema 8.24, possui uma decomposicao em valores
singulares A = V SW com V e W Mat (C, m + n), unit
arias, e S Mat (C, m + n) sendo uma matriz diagonal cujos
elementos diagonais sao os valores singulares de A . Com isso, (8.121) segue de (8.8).

hh
ii
w1 , . . . , wn D1/2 = QD1/2 .

Agora, de AP = QD1/2 , segue que A = QD1/2 P = U P D1/2 P

onde S Mat
(C, n) e uma matriz diagonal cujos elementos diagonais s
ao os valores singulares de A, ou seja, os
autovalores de A A.
2

O Teorema 8.24 pode ser generalizado para matrizes retangulares. No que segue, m, n N e usaremos as definicoes
(8.3), (8.7) e a relacao (8.8) (vide pagina 315) que permitem mapear injetivamente matrizes retangulares em certas
matrizes quadradas.

(para a notacao, vide (8.9)). Como {vk , k = 1, . . . , n} e {wk , k = 1, . . . , n} sao dois conjuntos ortonormais, segue que
P e Q sao matrizes unit
arias (por que?) e, portanto, U tambem e unit
aria.
1/2
f
E
acil
ver que AP= QD
, onde D1/2

def idiag
d1 , . . . , dn , De fato,
(8.114)

O Teorema da Decomposicao Polar, Teorema 8.22, pagina 382, tem um corol


ario de particular interesse.
Teorema 8.24 (Teorema da Decomposi
c
ao em Valores Singulares) Seja A Mat (C, n). Ent
ao, existem matrizes unit
arias V e W Mat (C, n) tais que

A = V SW ,
(8.120)

f
E
acil ver que

AP

A Decomposic
ao em Valores Singulares

(8.119)

A decomposicao em valores singulares apresentada acima admite uma generalizacao para operadores compactos agindo
em espacos de Hilbert. Vide Teorema 37.39, pagina 1962.

8.8.3

O teorema que apresentamos abaixo, devido a Schur19 , e semelhante, mas nao identico, ao Teorema de Jordan: toda
matriz de Mat (C, n) pode ser levada por uma transformacao de similaridade induzida por uma matriz unit
aria a uma
matriz triangular superior (para a definicao, vide Secao 8.6, pagina 366). Esse teorema e alternativamente denominado
Teorema da Triangularizac
ao de Schur ou Teorema da Decomposic
ao de Schur. Como veremos, esse teorema pode ser
usado para fornecer uma outra demonstracao (eventualmente mais simples) da diagonalizabilidade de matrizes autoadjuntas e de matrizes normais por matrizes unit
arias.
19 Issai

O Teorema da Triangulariza
c
ao de Schur

Schur (18751941).

JCABarata. Curso de Fsica-Matem


atica

Vers
ao de 18 de julho de 2013.

Captulo 8

385/2070

Teorema 8.26 (Teorema da Decomposi


c
ao de Schur) Seja A Mat (C, n). Ent
ao, existe U Mat (C, n),
unit
aria, e S Mat (C, n), triangular superior, tais que A = U SU . Os elementos da diagonal de S s
ao os autovalores de A.
2

JCABarata. Curso de Fsica-Matem


atica

386/2070

Para n = 2 isso demonstra o teorema, pois afirma que

(1)

AU (1)

Antes de provarmos esse teorema, mencionemos um corol


ario evidente:
Corol
ario 8.6 Seja A Mat (C, n). Ent
ao, existe V Mat (C, n), unit
aria, e I Mat (C, n), triangular inferior, tais
que A = V IV . Os elementos da diagonal de I s
ao os autovalores de A.
2

Captulo 8

Vers
ao de 18 de julho de 2013.

1
=

(1)

b1
,

(1)
a11

sendo o lado direito uma matriz triangular superior. Para n > 2 procedemos por inducao. Supondo a afirmacao v
alida
(1)
(1)
para matrizes (n 1) (n 1), entao existe uma matriz unit
aria V Mat (C, n 1) tal que
 V A T V = S , sendo
S (1) triangular superior. Assim, definindo a matriz unit
aria U (2) Mat (C, n) por U (2) := 0 1 0n1
, teremos por
V
n1

(8.123),

Prova do Corolario 8.6. Pelo Teorema 8.26, a matriz A pode ser escrita da forma A = V SV , com V unit
aria e S
triangular superior. Logo, A = V S V . Porem, S I e triangular inferior.

Tambem pelo Teorema 8.26, os autovalores de A sao os elementos diagonais de S, que sao o complexo conjugado
dos elementos diagonais de S I. Mas os autovalores de A sao o complexo conjugado dos autovalores de A (pela
Proposicao 8.24, pagina 355) e, portanto, sao os elementos diagonais de I.

U (1) U


(2)

AU (1) U (2)

(2)

AU (1)

(8.12)

(1)

(1)
b1

0
hh
ii
hh
ii

(1)
(1)
(1)
(1)
(1)
(1)
Au1 , . . . , Aun
= 1 u1 , Au2 , . . . , Aun
= U
...

(1)
a11

..
.

(1)
bn1

(1)
a1(n1)

..

(1)
a(n1)1

..
.

(1)
a(n1)(n1)

(1)

para certos bk e akl , k, l = 1, . . . , n 1, onde


(1)

Auk

(1) (1)

= bk u 1 +

n1
X

(1) (1)

alk ul+1 ,

k = 2, . . . , n .

(8.122)

l=1

Para simplificar a notacao, definimos

(1)
b1

(1)

.
= .
,

(1)
bn1

0n1

0

.
.
=
. ,


0

(1)

(0n1 tendo n 1 linhas) e escrevemos a identidade (8.122) como

(1)

AU (1)

1
=

0n1

(1)
a11

.
.
=
.

(1)
a(n1)1

b(1)
.

A(1)

..

(1)
a1(n1)

..
.

(1)

a(n1)(n1)

0n1

que e triangular superior, pois S

(1)

o e. Como U

(1)

(2)

0Tn1 1
V

V T b(1)

0n1

(1)
uma matriz unit
aria da forma U (1) =
hh Seja n 2 eii v1 um autovetor de A com autovalor 1 e kv1 k = 1. Seja U
(1)
(1)
(1)
u1 , . . . , un
com u1 = v1 , ou seja, cuja primeira coluna e o vetor v1 . Entao,

AU (1) U (2)

0n1

Prova do Teorema 8.26. Comecemos observando que se A = U SU com U unit


ario, entao A e S tem o mesmo polin
omio
caracterstico e, portanto, os mesmos autovalores, incluindo a multiplicidade
Qn (vide a discussao em torno de (8.32), pagina
326). Mas o polin
omio caracterstico de S e pS (x) = det(x1 S) = k=1 (x Skk ), pois S e triangular superior e,
portanto, os autovalores de S sao os elementos de sua diagonal. Passemos a` demonstracao da afirmativa principal, ou

seja, que A = U SU com U unit


ario e S triangular superior.

(1)

(1)

0n1

T

V A

V T b(1)

T

(1)

b(1) 1

A(1)
0n1

0Tn1
V

e unit
aria (pois U (1) e U (2) o sao), o teorema est
a provado.

Coment
ario. Toda matriz triangular superior S pode ser escrita na forma D + N , sendo D a matriz diagonal formada pela diagonal de
S (ou seja, Dii = Sii para todo i = 1, . . . , n) e N
e nilpotente (pois
e triangular superior, mas com diagonal nula). Assim, o Teorema 8.26
afirma que toda matriz A pode ser levada `
a forma D + N por uma transformaca
o de similaridade unit
aria. Por
em, o Teorema 8.26 n
ao garante
(nem
e verdade, em geral) que D e N comutem. Assim, o Teorema 8.26
e distinto do Teorema de Jordan, Teorema 8.20, p
agina 375.

O Teorema 8.26 tem por corol


ario o seguinte teorema, j
a provado anteriormente por outros meios (Teorema 8.13,
pagina 357, e Proposicao 8.26, pagina 359).
Teorema 8.27 Uma matriz A Mat (C, n) e auto-adjunta, se e somente se for diagonaliz
avel por uma transformac
ao
de similaridade unit
aria e se seus autovalores forem reais.
2
Prova. Pelo Teorema 8.26, existe uma matriz unit
aria U tal que U AU = S, sendo S triangular superior cujos elementos
diagonais sao os autovalores de A. Assim, se A = A , segue que S = (U AU ) = U A U = U AU = S. Mas para uma

matriz triangular superior S, a igualdade S = S implica que S e diagonal e os elementos da diagonal sao reais.

Reciprocamente, se A Mat (C, n) e diagonaliz


avel por uma transformacao de similaridade unit
aria e seus autovalores
sao reais, ou seja, existe U unit
aria e D diagonal real com U AU = D, entao A = U DU e A = U D U . Como D e
diagonal e real, vale D = D e, portanto, A = U DU = A, provando que A e auto-adjunta.
Pelo Teorema 8.26, se A Mat (C, n) e uma matriz normal e U AU = S, com U unit
aria e S triangular superior,
entao S e normal (justifique!). Assim, junto com o Lema 8.3, pagina 368, provamos o seguinte:

(8.123)

Teorema 8.28 Uma matriz A Mat (C, n) e normal se e somente se for diagonaliz
avel por uma transformac
ao de
similaridade unit
aria.
2
Essas afirmacoes foram demonstradas por outros meios no Teorema 8.15, pagina 359.

JCABarata. Curso de Fsica-Matem


atica

8.8.4

Captulo 8

Vers
ao de 18 de julho de 2013.

387/2070

A Decomposic
ao QR e a Decomposic
ao de Iwasawa (KAN)

O proposito desta secao e apresentar a chamada decomposic


ao de Iwasawa20 , ou decomposic
ao KAN 21 , de matrizes
inversveis, Teorema 8.30. Esse teorema tem relacao com a teoria dos grupos de Lie, como discutiremos brevemente
ao final. Os dois primeiros resultados preparat
orios abaixo, Proposicao 8.32 e Teorema 8.29 (Decomposicao QR), tem
interesse por si so.
Proposi
c
ao 8.32 Seja R Mat (C, n) uma matriz triangular superior cujos elementos diagonais s
ao n
ao-nulos (i.e.,
R e inversvel). Ent
ao, podemos escrever R = AN , onde A Mat (C, n) e a matriz diagonal formada com a diagonal de
R: A = diag (R11 , . . . , Rnn ), e N Mat (C, n) e uma matriz triangular superior cujos elementos diagonais s
ao iguais
a 1.
2
f
Prova. E
acil constatar que (abaixo m n 1)

R11

.
.
R =
.

R12

R22

..

..

..

..

.
.
.

..

Rmm
0

R1n
R11

R2n

.
..
..
=
.

0
Rmn

0
Rnn
|

0
R22

..

..

..

..

.
.
.

{z

..

Rmm
0

0 1

0
0

.
..
.
.
.

0
0

Rnn
0
}|

R12
R11

..

..

..

..

..

0
{z
N

R1n
R11

R2n
R22

..
.
.

Rmn
Rmm

1
}

O estudante deve comparar as afirmacoes do teorema a seguir com o Teorema da Decomposicao Polar, Teorema 8.22,
pagina 382, e com o Teorema da Decomposicao de Schur, Teorema 8.26, pagina 385.
Teorema 8.29 (Teorema da Decomposi
c
ao QR) Seja M Mat (C, n) uma matriz inversvel. Ent
ao, M pode ser
escrita na forma M = QR, onde Q Mat (C, n) e unit
aria e R Mat (C, n) e triangular superior, sendo que os
elementos diagonais de R s
ao estritamente positivos.


Prova do Teorema 8.29. Seja M = m1 , . . . , mn . Como M e inversvel, os vetores mk , k = 1, . . . , n, sao linearmente
n
independentes, ou seja, formam uma base em C . Podemos, portanto, usar o procedimento de ortogonalizacao de GramSchmidt (vide Secao 3.3, pagina 204) e construir uma nova base ortonormal de vetores qj , j = 1, . . . , n, a partir dos
vetores ml , l = 1, . . . , n. Tais vetores sao definidos por

q1 =

m1
,
km1 k

mj

j1
X

hql , mj iC ql

l=1
qj =
,
j1


X


hql , mj iC ql
mj

j = 2, . . . , n .

l=1

Como e f
acil verificar, tem-se hqi , qj iC = i j para todos i, j = 1, . . . , n. As relacoes acima implicam trivialmente

j1
j1

X
X


m1 = q1 km1 k ,
mj = qj mj
hql , mj iC ql +
ql hql , mj iC ,
j = 2, . . . , n ,


l=1

20 Kenkichi

l=1

Iwasawa (19171998).
n
ao h
a uniformidade na literatura quanto `
a denominaca
o dessa decomposica
o. Vamos cham
a-la de decomposica
o de Iwasawa
pois a mesma
e um caso particular (para o grupo GL(C, n) das matrizes complexas n n inversveis) de um teorema mais geral da teoria dos
grupos de Lie, denominado Teorema da Decomposica
o de Iwasawa, que afirma que todo elemento g de um grupo de Lie semi-simples pode
ser escrito como produto de um elemento k de um subgrupo compacto maximal, por um elemento a de um subgrupo Abeliano (real) e por
um elemento n de um subgrupo nilpotente (ou seja, cuja
algebra de Lie
e nilpotente): g = kan. Em Alem
ao, as palavras compacto, Abeliano
e nilpotente s
ao Kompakt, Abelsch e Nilpotent, da a denominaca
o decomposica
o KAN para essa decomposica
o, denominaca
o essa
encontrada em alguns textos.
21 Infelizmente

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

relacoes estas que podem ser escritas em forma matricial como

R11

hh
ii
hh
ii
.
.
m1 , . . . , mn = q1 , . . . , qn R , onde R :=
.

com

R11 = km1 k ,

388/2070

hq1 , m2 iC

R22

..

..

..

..

..

R(n1)(n1)



j1


X


hql , mj iC ql ,
Rjj = mj

hq1 , mn iC

hq2 , mn iC

..
, (8.124)
.

hqn1 , mn iC

Rnn

j = 2, . . . , n .

l=1

E. 8.36 Exerccio. Convenca-se da validade da relacao (8.124).


Definindo Q := q1 , . . . , qn , a relacao (8.124) diz-nos que M = QR, sendo R triangular superior (como se ve) e Q
unit
aria (pois os vetores ql , l = 1, . . . , n, sao ortonormais). Isso completa a prova do Teorema 8.29.
Chegamos assim ao importante Teorema da Decomposicao de Iwasawa para matrizes inversveis:
Teorema 8.30 (Teorema da Decomposi
c
ao de Iwasawa, ou Decomposi
c
ao KAN ) Seja M Mat (C, n) uma
matriz inversvel. Ent
ao, M pode ser escrita de modo u
nico na forma M = KAN , onde K Mat (C, n) e uma matriz
unit
aria, A Mat (C, n) e a uma matriz diagonal, tendo elementos diagonais estritamente positivos, e N Mat (C, n)
e uma matriz triangular superior cujos elementos diagonais s
ao iguais a 1.
2
Prova. A afirmacao que M pode ser escrita na forma M = KAN , com K, A e N com as propriedades acima segue
imediatamente da Proposicao 8.32 e do Teorema 8.29, dispensando demonstracao. O u
nico ponto a se demonstrar e a
unicidade dessa decomposicao.
Vamos entao supor que para algum M Mat (C, n) existam K, K0 Mat (C, n), matrizes unit
arias, A, A0
Mat (C, n), matrizes diagonais, tendo elementos diagonais estritamente positivos, e N, N0 Mat (C, n) matrizes
triangulares superiores cujos elementos diagonais sao iguais a 1, tais que M = KAN = K0 A0 N0 .
Segue imediatamente disso que K01 K = A0 N0 N 1 A1 . O lado esquerdo dessa igualdade e uma matriz unit
aria
e, portanto, normal. O lado direito e uma matriz triangular superior (pela Proposicao 8.29, pagina 367). Pelo Lema
1
1 1
1 1
8.3, pagina 368, A0 N0 N A deve ser uma matriz diagonal D. Assim, temos que K0 K = D e A0 N0 N A = D.
A primeira dessas relacoes diz-nos que D e unit
aria. A segunda diz-nos que N0 N 1 = A1
0 DA, ou seja, N0 = D0 N ,
onde D0 := A1
e diagonal (por ser o produto de tres matrizes diagonais). Agora, N e N0 sao matrizes triangulares
0 DA
superiores cujos elementos diagonais sao iguais a 1. Portanto, a relacao N0 = D0 N com D0 diagonal so e possvel se
D0 = 1 (de outra forma haveria elementos na diagonal de N ou de N0 diferentes de 1), estabelecendo que N = N0 .
1
. Agora, A e A0 sao diagonais, tendo na diagonal n
umeros
Provamos, assim, que A1
0 DA = 1, ou seja, D = A0 A
reais positivos. Logo, D tambem e diagonal e tem na diagonal n
umeros reais positivos e, portanto, D = D . Como
2
D e unit
aria (como observado linhas acima), segue que D = 1. Logo, os elementos Dkk da diagonal de D satisfazem
Dkk = 1, para todo k = 1, . . . , n (os sinais podendo ser distintos para ks distintos). Agora, como A0 = DA e

JCABarata. Curso de Fsica-Matem


atica

Vers
ao de 18 de julho de 2013.

Captulo 8

389/2070

como A e A0 tem na diagonal n


umeros reais positivos, nao podemos ter Dkk = 1 para algum k e, portanto, D = 1.
Conseq
uentemente, K = K0 e A = A0 , estabelecendo a unicidade desejada.
Note o leitor que o conjunto das matrizes unit
arias de Mat (C, n) forma um subgrupo de GL(C, n) (o grupo das
matrizes complexas n n inversveis). O conjunto das matrizes diagonais de Mat (C, n) tendo elementos diagonais
estritamente positivos e igualmente um subgrupo de GL(C, n). Por fim, o conjunto das matrizes triangulares superiores
de Mat (C, n) cujos elementos diagonais sao iguais a 1 e tambem um subgrupo de GL(C, n). Assim, o Teorema 8.30
afirma que cada elemento de GL(C, n) pode ser escrito de modo u
nico como produto de elementos de cada um desses
tres subgrupos. Esse e um caso particular de um teorema da teoria dos grupos de Lie conhecido como Teorema da
Decomposic
ao de Iwasawa.

8.9

A Pseudo-Inversa de Moore-Penrose

Na presente secao introduziremos uma generalizacao especial da nocao de inversa de matrizes, a qual aplica-se mesmo a
matrizes nao-quadradas. O conceito que descreveremos, a chamada pseudo-inversa de Moore-Penrose, e particularmente
u
til no tratamento de problemas de optimizacao linear, como discutiremos adiante (Secao 8.9.2, pagina 397), ou seja, em
problemas onde procura-se solucoes optimalmente aproximadas de sistemas de equacoes lineares como Ax = y, onde A e
uma matriz m n dada, y um vetor-coluna, dado, com m componentes e x, a inc
ognita do problema, e um vetor-coluna
com n componentes. Em tais problemas procura-se vetores x tais que a norma de Ax y seja a menor possvel e que
representem, portanto, nao necessariamente a solucao exata do sistema Ax = y (que pode nao existir), mas a melhor
aproximacao em termos de mnimos quadrados ao que seria a solucao.
Inversas generalizadas, ou pseudo-inversas

Sejam m, n N e seja uma matriz (nao necessariamente quadrada) A Mat (C, m , n). Uma matriz B
Mat (C, n, m) e dita ser uma inversa generalizada, ou pseudo-inversa, de A, se satisfizer as seguintes condicoes:
1. ABA = A,
2. BAB = B.
O leitor ha de notar que se A Mat (C, n) e uma matriz quadrada inversvel, sua inversa A1 satisfaz trivialmente as
propriedades definidoras da inversa generalizada. Provaremos mais adiante que toda matriz A Mat (C, m , n) possui
ao menos uma inversa generalizada, a saber, a pseudo-inversa de Moore-Penrose. Com a generalidade da definicao acima,
porem, nao se pode garantir a unicidade da inversa generalizada de A.
Com a amplitude da definicao acima, a nocao inversa generalizada nao e muito u
til, mas certos tipos mais especficos
de inversas generalizadas sao de interesse em certos tipos de problemas. No que segue discutiremos a chamada pseudoinversa de Moore-Penrose e seu emprego em problemas de optimizacao linear.
Defini
c
ao da pseudo-inversa de Moore-Penrose de uma matriz

Sejam m, n N e seja uma matriz (nao necessariamente quadrada) A Mat (C, m , n). Uma matriz A+
Mat (C, n, m) e dita ser uma pseudo-inversa de Moore-Penrose de A se satisfizer as seguintes condicoes:
1. AA+ A = A,
2. A+ AA+ = A+ ,
3. AA+ Mat (C, m) e A+ A Mat (C, n) sao auto-adjuntas.
O leitor ha de notar que se A Mat (C, n) e uma matriz quadrada inversvel, sua inversa A1 satisfaz trivialmente
as propriedades definidoras da pseudo-inversa de Moore-Penrose.
A nocao de pseudo-inversa descrita acima foi introduzida por E. H. Moore22 em 1920 e redescoberta por R. Penrose23
em 1955. O conceito de pseudo-inversa de Moore-Penrose e u
til para a resolucao de problemas de optimizacao lineares,
22 Eliakim
23 Sir

Hastings Moore (18621932).


Roger Penrose (1931).

JCABarata. Curso de Fsica-Matem


atica

Vers
ao de 18 de julho de 2013.

Captulo 8

390/2070

ou seja, `a determinacao da melhor aproximacao em termos de mnimos quadrados `a solucao de sistemas lineares.
Trataremos desses aspectos mais adiante (vide Teorema 8.33, pagina 398), ap
os demonstrarmos resultados sobre existencia
e unicidade. Outros desenvolvimentos da teoria das pseudo-inversas de Moore-Penrose e suas aplicacoes, podem ser
encontrados em [23]. Vide tambem as referencias originais: E. H. Moore, On the reciprocal of the general algebraic
matrix. Bulletin of the American Mathematical Society 26, 394395 (1920); R. Penrose, A generalized inverse for
matrices, Proceedings of the Cambridge Philosophical Society 51, 406413 (1955) e R. Penrose, On best approximate
solution of linear matrix equations, Proceedings of the Cambridge Philosophical Society 52, 1719 (1956).
Nas paginas que seguem demonstraremos que toda a matriz A Mat (C, m, n) possui uma pseudo-inversa de Mooreao da unicidade para em seguida tratarmos de propriedades gerais e,
Penrose, a qual e u
nica. Comecamos com a quest
posteriormente, da quest
ao da existencia. As aplicacoes em problemas de optimizacao sao discutidas na Secao 8.9.2,
pagina 397.
A unicidade da pseudo-inversa de Moore-Penrose

Demonstremos a unicidade da pseudo-inversa de Moore-Penrose de uma matriz A Mat (C, m, n), caso exista.

Seja A+ Mat (C, n, m) uma pseudo-inversa de Moore-Penrose de A Mat (C, m, n) e seja B Mat (C, n, m)
uma outra pseudo-inversa de Moore-Penrose de A, ou seja, tal que ABA = A, BAB = B com AB e BA auto-adjuntas.
Seja M1 := AB AA+ = A(B A+ ) Mat (C, m). Pelas hip
oteses, M1 e auto-adjunta (por ser a diferenca de duas
matrizes auto-adjuntas) e (M1 )2 = (AB AA+ )A(B A+ ) = (ABA AA+ A)(B A+ ) = (A A)(B A+ ) = 0. Como
2
M1 e auto-adjunta, o fato que (M1 ) = 0 implica M1 = 0, pois para todo x Cm tem-se kM1 xk2C = hM1 x, M1 xiC =
hx, (M1 )2 xiC = 0, o que significa que M1 = 0. Isso provou que AB = AA+ . Analogamente, prova-se que BA = A+ A
(para tal, considere-se a matriz auto-adjunta M2 := BA A+ A Mat (C, n) e proceda-se como acima). Agora, tudo
isso implica que A+ = A+ AA+ = A+ (AA+ ) = A+ AB = (A+ A)B = BAB = B, provando a unicidade.
Como j
a comentamos, se A Mat (C, n) e uma matriz quadrada inversvel, sua inversa A1 satisfaz trivialmente as
propriedades definidoras da pseudo-inversa de Moore-Penrose e, portanto, tem-se nesse caso A+ = A1 , univocamente.
tambem evidente pela definicao que para 0mn , a matriz m n identicamente nula, vale (0mn )+ = 0nm .
E
A exist
encia da pseudo-inversa de Moore-Penrose

Apresentaremos no que seguir


a duas demonstracoes da existencia da pseudo-inversa de Moore-Penrose de matrizes
arbitr
arias de Mat (C, m, n). Ambas as demonstracoes permitem produzir algoritmos para a determinacao explcita
da pseudo-inversa de Moore-Penrose. Uma primeira demonstracao sera apresentada na Secao 8.9.1.1, pagina 394, (vide
o Teorema 8.31, pagina 395, e o Teorema 8.32, pagina 396) e decorrer
a de diversos resultados que estabeleceremos a
seguir. Destacamos particularmente as express
oes (8.146) e (8.147), as quais permitem calcular a pseudo-inversa de
Moore-Penrose A+ de uma matriz A Mat (C, m, n) diretamente em termos de A, A e dos autovalores de AA ou de
A A (ou seja, dos valores singulares de A).
Uma segunda demonstracao sera apresentada na Secao 8.9.3, pagina 398, e para a mesma faremos uso da decomposicao
em valores singulares apresentada no Teorema 8.24, pagina 384. A essa segunda demonstracao da Secao 8.9.3 o leitor
interessado poder
a passar sem perdas neste ponto. Os resultados da Secao 8.9.3, porem, nao serao usados no que segue.
Essa segunda demonstracao e a mais freq
uentemente apresentada na literatura, mas cremos que as express
oes (8.146) e
(8.147) fornecem um metodo algoritmicamente mais simples para a determinacao da pseudo-inversa de Moore-Penrose
de uma matriz geral.
Calculando a pseudo-inversa de Moore-Penrose em casos particulares

Se A Mat (C, m, n), entao A Mat (C, n, m) e definida como a matriz cujos elementos (A )ij sao dados por Aji
para todos 0 i n e 0 j m. Futuramente obteremos as express
oes (8.146) e (8.147), as quais permitem calcular a
pseudo-inversa de Moore-Penrose A+ Mat (C, n, m) de uma matriz A Mat (C, m, n) diretamente em termos de A,
A e dos autovalores de AA ou de A A. Nos exerccios que seguem indicaremos situacoes especiais mas u
teis nas quais
a pseudo-inversa de Moore-Penrose pode ser calculada de modo relativamente simples.
!
a1
.. , um vetor-coluna nao-nulo, entao A+ = 1 A =
E. 8.37 Exerccio. Constate que se A Mat (C, m, 1), A =
kAk2C
.
am
p
1
2
2
( a1 , ..., am ), onde kAkC = |a1 | + + |am | .
6
kAk2
C

JCABarata. Curso de Fsica-Matem


atica

Vers
ao de 18 de julho de 2013.

Captulo 8

391/2070

Observe-se que se z C, podemos considerar z como uma


matriz complexa 1 1, ou seja, como elemento de

0, z = 0
.
Mat (C, 1, 1) e, com isso, obtemos do exposto acima (z)+ =

1 , z 6= 0
z

JCABarata. Curso de Fsica-Matem


atica

A+

A =

E. 8.38 Exerccio. Seja A Mat (C, m, n). Mostre que se (AA )1 existe, entao A+ = A (AA )1 . Mostre que se
(A A)1 existe, entao A+ = (A A)1 A . Sugestao: em ambos os casos, verifique que o lado direito satisfaz as propriedades
definidoras da pseudo-inversa de Moore-Penrose e use a unicidade.
6

essa A+ satisfaz de fato as propriedades definidoras da pseudo-inversa de Moore-Penrose.


1 2


. Mostre que AA nao possui inversa, mas que A A possui.

10 2i 6
1
Usando o Exerccio E. 8.38, calcule a pseudo-inversa de Moore-Penrose A+ de A, obtendo A+ = 10
0 i 3 . Verifique
que essa A+ satisfaz de fato as propriedades definidoras da pseudo-inversa de Moore-Penrose.
6
E. 8.40 Exerccio. Seja A =

8.9.1

0 i
03

, com A =

1 0 0
2 i 3

Outras Propriedades da Pseudo-Inversa de Moore-Penrose

2. (A+ ) = AT
+

3. (zA) = z

+
+

+
, A+ = A e, conseq
uentemente, (A+ ) = (A )+ ,
para todo z C nao-nulo.

de se observar, porem, que se A Mat (C, m, n) e B Mat (C, n, p), nem sempre (AB)+ e dada por B + A+ ,
E
ao contr
ario do que ocorre com a inversa usual (para o caso m = n = p). Uma excecao relevante ser
a encontrada na
Proposicao 8.34, pagina 392.
A seguinte proposicao lista mais algumas propriedades importantes, algumas das quais usaremos logo adiante:

A A (A+ ) ,

(8.126)

A A A+ ,

(8.127)

A+

A (A+ ) A+ ,

(8.128)

(A+ ) A A ,

(8.129)

A+ A A ,

(8.130)

v
alidas para toda A Mat (C, m, n).

Das relacoes acima, a mais relevante talvez seja a relacao (8.127), pois faremos uso importante dela na demonstracao
da Proposicao 8.33, pagina 398, que trata da aplicacao da pseudo-inversa de Moore-Penrose a problemas de optimizacao
linear.
Prova da Proposicao 8.33. Por AA+ ser auto-adjunta, vale AA+ = (AA+ ) = (A+ ) A . Multiplicando-se `a esquerda por
A+ obtemos A+ = A+ (A+ ) A , provando (8.125). Substituindo-se A A+ e usando o fato que A = (A+ )+ , obtem-se
de (8.125) que A = AA (A+ ) , que e a relacao (8.126). Substituindo-se A A e usando o fato que (A )+ = (A+ ) ,
obtem-se de (8.126) que A = A AA+ que e a relacao (8.127).
As relacoes (8.128)(8.130) podem ser obtidas analogamente a partir do fato de A+ A ser tambem auto-adjunta, mas
e mais f
acil obte-las substituindo-se A A em (8.125)(8.127) e tomando-se o adjunto das express
oes resultantes.
Da Proposicao 8.33 podem ser obtidos v
arios resultados de interesse, alguns dos quais encontram-se reunidos na
proposicao que segue.
Proposi
c
ao 8.34 Para a pseudo-inversa de Moore-Penrose vale
AA
para todo A Mat (C, m, n). Disso obtem-se que

1. (A ) = A,

(8.125)

As seguintes propriedades da pseudo-inversa de Moore-Penrose seguem das definicoes e da unicidade. Suas demonstracoes
sao elementares e sao deixadas como exerccio: para A Mat (C, m, n) valem
+ +

A+ (A+ ) A ,

A =

Os exerccios que seguem contem aplicacoes dos resultados do Exerccio E. 8.38.


 2 0 
E. 8.39 Exerccio. Seja A = ( 20 0i 1i ), com A = 0 i . Mostre que AA possui inversa, mas que A A nao possui.
i 1
 4 2i 
Usando o Exerccio E. 8.38, calcule a pseudo-inversa de Moore-Penrose A+ de A, obtendo A+ = 91 1 5i . Verifique que

392/2070

Proposi
c
ao 8.33 A pseudo-inversa de Moore-Penrose satisfaz as seguintes relac
oes

O resultado do Exerccio E. 8.37 pode ser generalizado.

Os resultados do Exerccio E. 8.38 podem ser generalizados para situacoes em que AA ou A A nao sao inversveis
+
+
pois, como veremos na Proposicao 8.34, pagina 392 valem sempre as relacoes A+ = A AA = A A A . Tambem
o Teorema 8.31, pagina 395, apresentar
a uma generalizacao dos resultados do Exerccio E. 8.38, mostrando uma outra
forma de proceder quando AA ou A A nao forem inversveis.

Captulo 8

Vers
ao de 18 de julho de 2013.

+

A+ = A AA
tambem para todo A Mat (C, m, n).

+

+

A+

(8.131)

+
A A A ,

(8.132)
2

A express
ao (8.132) generaliza os resultados do Exerccio E. 8.38, pagina 391 e pode ser empregada para calcular A+
+
+
ou A A sejam previamente conhecidas.
desde que AA
+
Prova da Proposicao 8.34. Seja B = A A+ . Tem-se
AA

(8.126)


+

onde usamos tambem que A


B =

+
A A+

Observe-se tambem que

A A (A+ ) A

+

= A

(8.125)

(8.130)

A A (A+ ) A+ A A = (AA )B(AA ) ,

. Tem-se tambem que

(A+ ) A+ A A+

(8.128)


(A+ ) A+ A A (A+ ) A+ = B A A B .




A A B = A A (A+ ) A+

(8.127)

AA+

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

393/2070



= (A+ ) A+ A A

(8.129)

(A )+ A

que tambem e auto-adjunto, por definicao. Os fatos expostos nas linhas acima provaram que B e a pseudo-inversa de
Moore-Penrose de AA , provando (8.131). Substituindo-se A A em (8.131) obtem-se tambem
+
+
A A
= A+ A .
(8.133)

Observe-se agora que

A AA
e que

+

+
A A A

provando (8.132).

(8.131)

(8.133)

A A
A+ A

+

+

A+

(8.128)

(8.125)

A+
A+ ,

Definimos o n
ucleo e a imagem (range) de uma matriz A Mat (C, m, n) por Ker (A) := {u Cn | Au = 0} e
evidente que Ker (A) e um subespaco linear de Cn e que Ran (A) e um
Ran (A) := {Au, u Cn }, respectivamente. E
subespaco linear de Cm .
A seguinte proposicao sera usada logo adiante, mas e de interesse por si so.
Proposi
c
ao 8.35 Seja A Mat (C, m, n) e sejam definidos P1 := 1n A+ A Mat (C, n) e P2 := 1m AA+
Mat (C, n). Ent
ao, valem as seguintes afirmac
oes:
1. P1 e P2 s
ao projetores ortogonais, ou seja, satisfazem (Pk )2 = Pk e Pk = Pk , k = 1, 2.

A Regulariza
c
ao de Tikhonov. Exist
encia

No Exerccio E. 8.38, pagina 391, vimos que se (AA )1 existe, entao A+ = A (AA )1 e que se (A A)1 existe, entao
A+ = (A A)1 A . No caso de essas inversas nao existirem ha um procedimento alternativo que tambem permite obter
A+ . Sabemos da Proposicao 8.6, pagina 326, que mesmo se (AA )1 nao existir, a matriz AA + 1 sera invertvel
para todo C nao-nulo com || pequeno o suficiente. Isso permite conjecturar que as expressoes A (AA + 1)1
e (A A + 1)1 A , que est
ao bem definidas para 6= 0 com || pequeno, convergem a A+ quando tomamos o limite
0. Como veremos no que segue, essa conjectura e correta.

Nosso primeiro resultado consiste em provar que os limites descritos acima de fato existem e sao iguais, o que sera
feito nos dois lemas que seguem.
Lema 8.6 Seja A Mat (C, m, n) e seja C tal que AA + 1m e A A + 1n sejam inversveis (i.e., 6
(AA ) (A A), um conjunto finito). Ent
ao, A (AA + 1m )1 = (A A + 1n )1 A .
2
Prova. Sejam B := A (AA + 1m )1 e C := (A A + 1n )1 A . Temos que





A AB = A AA (AA +1m )1 = A AA +1m 1m (AA +1m )1 = A 1m (AA +1m )1 = A B .

(pelo Lema 8.6), definindo um elemento de Mat (C, n, m).

4. Ker (A) Ran (A ) = C e Ker (A ) Ran (A) = C , ambas somas diretas de subespacos ortogonais.

Prova. Que P1 e P2 sao auto-adjuntos segue do fato de AA+ e A+ A o serem. Tem-se tambem que (P1 )2 = 1 2A+ A +
A+ AA+ A = 1 2A+ A + A+ A = 1 A+ A = P1 e analogamente para P2 . Isso provou o item 1.

Seja x Ker (A). Como Ran (P1 ) e um subespaco linear fechado de Cn , o Teorema do Melhor Aproximante e o
Teorema da Decomposicao Ortogonal (que neste texto sao apresentados com toda generalidade no contexto de espacos
de Hilbert, como Cm na forma do Teorema 36.1, pagina 1798, e do Teorema 36.2, pagina 1800, respectivamente)
garantem-nos a existencia de um u
nico z0 Ran (P1 ) tal que kx z0 kCm e mnimo. Alem disso, x z0 e ortogonal a
Ran (P1 ). Assim, existe ao menos um y0 Cm tal que x P1 y0 e ortogonal a todo elemento da forma P1 y, ou seja,
hx P1 y0 , P1 yiC = 0 para todo y Cm , o que implica hP1 (x P1 y0 ), yiC = 0 para todo y Cm , o que por sua vez
implica P1 (x P1 y0 ) = 0. Isso, porem, afirma que P1 x = P1 y0 . Como x Ker (A) vale P1 x = x (pela definicao de P1 ).
Provamos portanto que se x Ker (A) entao x Ran (P1 ), estabelecendo que Ker (A) Ran (P1 ). Por outro lado, o
fato que AP1 = A(1 A+ A) = A A = 0 implica que Ran (P1 ) Ker (A), provando que Ran (P1 ) = Ker (A).
Se z Ker (P1 ), entao z = A+ Az, provando que z Ran (A+ ). Isso provou que Ker (P1 ) Ran (A+ ). Por outro
lado, se u Ran (A+ ) entao existe v Cm tal que u = A+ v. Logo, P1 u = (1n A+ A)A+ v = (A+ A+ AA+ )v = 0,
provando que u Ker (P1 ) e que Ran (A+ ) Ker (P1 ). Isso estabeleceu que Ker (P1 ) = Ran (A+ ).
+

8.9.1.1

ao iguais
Lema 8.7 Para toda A Mat (C, m, n) os limites lim A (AA + 1m )1 e lim (A A + 1n )1 A existem e s

3. Ran (A) = Ker (A+ ) e Ran (A+ ) = Ker (A) .


+

394/2070

Logo, (A A + 1n )B = A , o que implica B = (A A + 1n )1 A = C .

2. Ker (A) = Ran (P1 ), Ran (A) = Ker (P2 ),


Ker (A+ ) = Ran (P2 ) e Ran (A+ ) = Ker (P1 ).

Captulo 8

Pelo dito acima, podemos substituir as matrizes AA ou A A, caso sejam singulares, pelas matrizes inversveis AA +
1 ou A A + 1 com 6= 0 com || pequeno. Esse procedimento de regularizacao (que envolve a substituicao provisoria
de uma express
ao singular por outra regular) e denominado regularizac
ao de Tikhonov24 , em honra ao matem
atico que
desenvolveu essas ideias no contexto de equacoes integrais25.

A pseudo-inversa de Moore-Penrose, o n
ucleo e a imagem de uma matriz

Vers
ao de 18 de julho de 2013.

E. 8.41 Exerccio. Calcule P1 e P2 para o exemplo do Exerccio E. 8.39, pagina 391, e para o exemplo do Exerccio E.
8.40, pagina 391.
6

que e auto-adjunto, por definicao. Analogamente,


B A A

JCABarata. Curso de Fsica-Matem


atica

+ +

P2 e obtida de P1 com a substituicao A A (lembrando-se que (A ) = A). Logo, os resultados de acima implicam
que Ran (P2 ) = Ker (A+ ) e que Ker (P2 ) = Ran (A). Isso provou o item 2.

Se M Mat (C, p) (com p N, arbitr


ario) e auto-adjunta, entao hy, M xiC = hM y, xiC para todos x, y Cp . Essa
relacao torna evidente que Ker (M ) = Ran (M ) (justifique!). Com isso o item 3 segue do item 2 tomando-se M = P1 e
M = P2 . O item 4 e evidente pelo item 3.

Prova do Lema 8.7. Notemos primeiramente que A e uma matriz identicamente nula se e somente se AA ou A A o forem.
De fato, se, por exemplo, A A = 0, valera para todo vetor x que 0 = hx, A AxiC = hAx, AxiC = kAxk2 , provando que
A = 0. Como a afirmacao a ser provada e evidente se A for nula, suporemos no que segue que AA e A A nao sao nulas.
A matriz AA Mat (C, m) e, evidentemente, auto-adjunta. Sejam 1 , . . . , r seus autovalores distintos. Pelo
Teorema Espectral para operadores auto-adjuntos (vide Teorema 8.5, pagina 342 e Teorema 8.13, pagina 357) podemos
escrever
r
X
a Ea ,
(8.134)
AA =
a=1

onde Ea sao os projetores espectrais de AA e satisfazem Ea Eb = ab Ea , Ea = Ea e


AA + 1m =

r
X

(a + )Ea

Pr

a=1

Ea = 1m . Logo,

a=1

e, portanto, para 6 {1 , . . . , r }, vale pela Proposicao 8.17, pagina 344,


AA + 1m

1

r
X

1
Ea
+
a=1 a

A AA + 1m

1

r
X

a=1

1
A Ea .
a +

24 Andrei Nikolaevich Tikhonov (19061993). O sobrenome russo Tikhonov


e por vezes transliterado como Tykhonov, Tichonov ou
ainda Tychonoff.
25 Para uma refer
encia geral, vide [242]. Para os trabalhos originais, vide: Tikhonov, A. N., 1943, On the stability of inverse problems,
Dokl. Akad. Nauk. USSR, 39, No. 5, 195198 (1943); Tikhonov, A. N., Solution of incorrectly formulated problems and the regularization
method, Soviet Math. Dokl. 4, 10351038 (1963), traduca
o para o ingl
es de Dokl. Akad. Nauk. USSR 151, 501504 (1963).

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

395/2070

H
a dois casos a se considerar 1. AA nao tem auto-valor nulo e 2. AA tem auto-valor nulo.
No caso em que AA nao tem auto-valor nulo e claro pela u
ltima express
ao que o limite lim A (AA + 1m )1 existe
0

e vale
lim A (AA + 1m )

r
X
1
A Ea .
=

a=1 a

(8.135)

A E1 = 0

A (AA + 1m )1 =
donde obtem-se
lim A (AA + 1m )

Isso provou que lim A (AA + 1m )1 sempre existe.

(8.136)

De (8.140) segue que ABA = A. De (8.141) segue que


! r
!
r
r X
r
X
X 1
X
1
1
BAB =
A Ea A
A Eb =
A Ea (AA )Eb .

a b
a
b
a=1
a=1

1
A Ea ,
+
a=2 a

Isso provou que A = A+ no caso em que AA nao tem autovalor nulo.

Vamos agora supor que AA nao autovalor nulo, a saber, 1 . Vimos em (8.137), na prova do Lema 8.7, que

r
X
1
A Ea .
=

a=2 a

(8.137)

lim A AA + 1m

AB =

A principal conseq
uencia e o seguinte resultado:

A+ = lim A A + 1n
0

1

BA =

1

(8.138)

A .

(8.139)

= lim A AA + 1m

(8.142)

Pelos Lemas 8.6 e 8.7 e suficiente demonstrar (8.138). H


a dois casos a se considerar 1. AA nao tem auto-valor nulo
e 2. AA tem auto-valor nulo. No caso 1., vimos em (8.135), na prova do Lema 8.7 (e com a notacao la estabelecida),
que
r
X
1
1
A Ea =: B .
=
lim A AA + 1m
0

a=1 a
Note-se agora que

b Eb

que e auto-adjunta, e que


BA =

Ea

r
r X
r
X
X
1
Ea = 1m ,
b ab Ea =
=
a
a=1
a=1

(8.140)

b=1

r
X
1
A Ea A ,

a=1 a

(8.143)

De (8.142) segue que ABA = A E1 A. Note-se agora que (E1 A) = A E1 = 0, por (8.136). Isso demonstrou que
E1 A = 0 e que ABA = A. De (8.143) segue que
! r
!
r
r X
r
X
X 1
X
1
1
BAB =
A Ea A
A Eb =
A Ea (AA )Eb .

b
a b
a=2 a
a=2
b=2

(8.141)

b=2

Usando novamente que (AA )Eb = b Eb , obtemos

a vimos (0mn )+ = 0nm .


Prova do Teorema 8.31. As afirmacoes a serem provadas sao evidentes caso A = 0mn pois, como j
Assim, assumiremos no que segue que A e nao nula, o que equivale, pelo exposto no incio da prova do Lema 8.7, a supor
que AA e A A nao sao nulas.

r
X
1
A Ea A ,

a=2 a

que e tambem auto-adjunta, pelos argumentos j


a expostos.

Como a existencia dos limites acima foi estabelecida para matrizes arbitr
arias no Lema 8.7, pagina 394, o Teorema
8.31 contem uma prova geral de existencia da pseudo-inversa de Moore-Penrose.

b=1

r
X
1
A Ea =: B .

a=2 a

que e auto-adjunta, pois E1 o e. Tem-se tambem

r
X

r
r
r
X
X
X
1
1
Ea = 1m E1 ,
AA Ea =
a Ea =

a
a
a=2
a=2
a=2

Teorema 8.31 (Regulariza


c
ao de Tikhonov) Para toda A Mat (C, m, n) valem

r
r
X
X
1
1
AB =
AA Ea =

a=1 a
a=1 a

1

Usando o fato que (AA )Ea = a Ea , o qual segue da decomposicao espectral (8.134) de AA , obtem-se

b=1

Agora, pela decomposicao espectral (8.134) de AA , segue que (AA )Eb = b Eb . Logo,
! r
r X
r
r
X
X
X 
1
1
BAB =
A Ea Eb =
A Ea
Eb
= B.

a=1 b=1 a
a=1 a
b=1
| {z }
1m

r
X

396/2070

que e tambem auto-adjunta, pois a R para todo a (por serem autovalores de uma matriz auto-adjunta) e pelo fato
de (A Ea A) = A Ea A para todo a, j
a que Ea = Ea .

Pelo Lema 8.6, pagina 394, o limite lim (A A + 1n )1 A tambem existe e coincide com lim A (AA + 1m )1 .

Captulo 8

Vers
ao de 18 de julho de 2013.

b=1

No caso em que AA tem auto-valor nulo, digamos, 1 = 0, o projetor E1 projeta sobre o n


ucleo de AA : Ker (AA ) :=
{u Cn | AA u = 0}. Se x Ker (AA ), entao A x = 0, pois 0 = hx, AA xiC = hA x, A xiC = kA xk. Portanto,

e, assim, podemos escrever,

JCABarata. Curso de Fsica-Matem


atica

BAB =

r X
r
X
1
A Ea Eb =
a
a=2
b=2

r
X
1
A Ea

a=2 a

r
X

Eb

b=2

{z

1m E1

!
}

= B

r
X
1
A Ea E1 = B ,

a=2 a

pois Ea E1 = 0 para a 6= 1. Isso demonstrou que BAB = B. Assim, estabelecemos que A = A+ tambem no caso em que
AA tem autovalor nulo, completando a prova de (8.138).

8.9.1.2

A Pseudo-Inversa de Moore-Penrose e o Teorema Espectral

Durante a demonstracao do Teorema 8.31 estabelecemos tambem o seguinte resultado de interesse:


Pr
ao espectral de AA , onde
Teorema 8.32 Seja A Mat (C, m, n) n
ao-nula e seja AA = a=1 a Ea a representac
{1 , . . . , r } R e o conjunto dos autovalores distintos de AA e Ea s
ao os correspondentes projetores espectrais
auto-adjuntos. Ent
ao, vale
r
X
1
A Ea .
(8.144)
A+ =
a
a=1
a 6=0

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

397/2070

Ps
Analogamente, seja A A = b=1 b Fb a representac
ao espectral de A A, onde {1 , . . . , s } R e o conjunto dos

autovalores distintos de A A e Fb os correspondentes projetores espectrais auto-adjuntos. Ent


ao, vale tambem
A+ =

s
X
1
Fb A .
b
b=1

(8.145)

b 6=0

(Vale mencionar aqui que, pelo Exerccio E. 8.6, p


agina 327, o conjunto de autovalores n
ao-nulos de AA coincide com
o conjunto de autovalores n
ao-nulos de A A: {1 , . . . , r } \ {0} = {1 , . . . , s } \ {0}).
De (8.144) e (8.145) segue que para A n
ao-nula valem

A+

r
X

a=1
a 6=0

1
a

r
Y
l=1
l6=a

A+

s
X

b=1
b 6=0

(a l )

s
Y
l=1
l6=b

s 


Y

A
A

l n A .

(b l )

Vers
ao de 18 de julho de 2013.

Captulo 8

398/2070

Teorema 8.33 (Optimiza


c
ao Linear) Sejam A Mat (C, m, n) e y Cm dados. Ent
ao, a colec
ao de todos vetores
de Cn para os quais a aplicac
ao Cn x 7 kAx ykCm [0, ) assume um mnimo absoluto coincide com o conjunto
n
o

A+ y + Ker (A) = A+ y + 1n A+ A z, z Cn .
(8.149)
interessante observar
Esse conjunto e dito ser o conjunto minimizante do problema de optimizac
ao linear em quest
ao. E
que pela Proposic
ao 8.35, p
agina 393, tem-se tambem A+ y + Ker (A) = A+ y + Ran (A+ ) .
2

(8.146)

Como se ve do enunciado acima, a pseudo-inversa de Moore-Penrose fornece a melhor aproximacao em termos de


mnimos quadrados `a solucao de sistemas lineares. Observe-se que para os elementos x do conjunto minimizante (8.149)
vale kAx ykCm = k(AA+ 1m )ykCm = kP2 ykCm , que e nulo se e somente se y Ker (P2 ) = Ran (A) (pela Proposicao
8.35, pagina 393), um fato um tanto obvio.

(8.147)

Prova do Teorema 8.33. A imagem de A, Ran (A), e um subespaco linear fechado de Cm . O Teorema do Melhor
Aproximante e o Teorema da Decomposicao Ortogonal (que neste texto sao apresentados com toda generalidade no
contexto de espacos de Hilbert, como Cm na forma do Teorema 36.1, pagina 1798, e do Teorema 36.2, pagina 1800,
respectivamente) garantem-nos a existencia de um u
nico y0 Ran (A) tal que ky0 ykCm e mnimo, sendo que esse y0
satisfaz a propriedade de y0 y ser ortogonal a Ran (A).

l=1
l6=a

1
b

r 

Y

A
AA l 1m ,

JCABarata. Curso de Fsica-Matem


atica

l=1
l6=b

nico e, como e
Assim, existe ao menos um x0 Cn tal que kAx0 ykCm e mnimo. Tal x0 nao e necessariamente u
f
acil ver, x1 Cn tem as mesmas propriedades se e somente se x0 x1 Ker (A) (j
a que Ax0 = y0 e Ax1 = y0 , pela
unicidade de y0 ). Como observamos, Ax0 y e ortogonal a Ran (A), ou seja, h(Ax0 y), AuiC = 0 para todo u Cn .
Isso significa que h(A Ax0 A y), uiC = 0 para todo u Cn e, portanto, x0 satisfaz
A Ax0 = A y .

As express
oes (8.146) e (8.147) fornecem mais um algoritmo geral para o computo da pseudo-inversa de MoorePenrose, o qual pode ser de implementacao simples, pois requer apenas a determinacao dos autovalores de AA ou de

A A.
Prova do Teorema 8.32. A igualdade (8.144) foi provada durante a demonstracao do Teorema 8.31 (vide (8.135) e (8.137)).
A relacao (8.145) pode ser provada analogamente, mas segue mais facilmente do truque j
a mencionado de usar (8.144),
trocando A A e tomando-se o adjunto da express
ao obtida. As relacoes (8.146) e (8.147) seguem da Proposicao 8.18,
pagina 344, particularmente de (8.55).
E. 8.42 Exerccio. Usando (8.146) ou (8.147) reobtenha as matrizes A+ dos Exerccios E. 8.37, E. 8.39 e E. 8.40.

8.9.2

A Pseudo-Inversa de Moore-Penrose e Problemas de Optimizac


ao
Linear

Tratemos agora de uma das principais aplicacoes da nocao de pseudo-inversa de Moore-Penrose, a saber, no tratamento
de problemas de optimizacao linear, que motivaremos e definiremos a seguir.
Sejam A Mat (C, m, n) e y C
linear

dados e considere-se o problema de determinar x C que satisfaca a equacao


Ax = y .

(8.148)

No caso em que m = n e A tem inversa, a solucao (


unica) e, naturalmente, x = A1 y. Nos demais casos uma solucao
pode nao estar presente ou nao ser u
nica. Podemos considerar o problema alternativo de saber para quais x Cn
a norma Euclidiana kAx ykCm e a menor possvel. Tais vetores x Cn seriam, no sentido da norma Euclidiana
k kCm , ou seja, em termos de mnimos quadrados, os melhores aproximantes ao que seria a solucao de (8.148). Um tal
problema e por vezes dito ser um problema de optimizac
ao linear. Esse problema pode ser tratado com o uso da nocao
de pseudo-inversa de Moore-Penrose, a qual permite caracterizar precisamente o conjunto dos vetores x que minimizam

kAx ykCm . A isso dedicaremos as linhas que seguem, sendo o principal resultado condensado no seguinte teorema:

(8.150)

(8.127)

Agora, a relacao (8.127) mostra-nos que x0 = A y satisfaz (8.150), pois A AA y = A y. Assim, conclumos que
o conjunto de todos x Cn que satisfazem a condicao de kAx ykCm ser mnimo e composto por todos os vetores da
forma A+ y + x1 com x1 Ker (A). Pela Proposicao 8.35, pagina 393, x1 e da forma x1 = (1n A+ A)z para algum
z Cn , completando a prova.
Os exerccios que seguem ilustram a aplicacao da pseudo-inversa de Moore-Penrose no tratamento de problemas de
optimizacao linear.
E. 8.43 Exerccio. Usando o Exerccio E. 8.39, pagina 391, determine o conjunto dos melhores aproximantes x C3 `a
1
solucao da equacao linear Ax = y com A = ( 20 0i 1i ) e y = 2i
. Para tais vetores minimizantes x, calcule kAx ykC .
6
O exerccio que segue envolve uma situacao menos trivial que a do exerccio anterior, pois trata de um sistema linear
sub-determinado e que nao tem solucao.

E. 8.44 Exerccio. Usando o Exerccio E. 8.40,


o conjunto dos melhores aproximantes x C2

 1 2 pagina 391,
 1 determine
`a solucao da equacao linear Ax = y com A = 0 i e y = 3 . Para tais vetores minimizantes x, calcule kAx ykC .
0 3

Observe que nesse caso y 6 Ran (A) e, portanto, o sistema Ax = y nao tem solucao.

8.9.3

Exist
encia e Decomposic
ao em Valores Singulares

Passemos agora a uma segunda demonstracao da existencia da pseudo-inversa de Moore-Penrose de uma matriz A
Mat (C, m, n) geral, fazendo uso aqui do Teorema da Decomposicao em Valores Singulares, Teorema 8.24, pagina 384.
Trataremos primeiramente de matrizes quadradas para depois passarmos ao caso de matrizes nao-quadradas.
Determinando a pseudo-inversa de Moore-Penrose para matrizes quadradas

Comecaremos pelas matrizes diagonais. Se D Mat (C, n) e uma matriz diagonal, a pseudo-inversa de Moore-Penrose

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

399/2070

de D e dada pela matriz diagonal D+ Mat (C, n) cujos elementos diagonais sao definidos para todo i = 1, . . . , n por

1 , se Dii 6= 0 ,

Dii
+
D ii =

0 , se Dii = 0 .

elementar verificar que DD+ D = D, D+ DD+ = D+ e que DD+ e D+ D sao auto-adjuntas. Em verdade, vale
E
DD+ = D+ D que e uma matriz diagonal com elementos diagonais iguais a 0 ou a 1:

1 , se Dii 6= 0 ,


DD+ ii = D+ D ii =

0 , se Dii = 0 .

Passemos agora `a quest


ao da existencia da pseudo-inversa de Moore-Penrose de uma matriz quadrada geral. Se
A Mat (C, n) tem uma decomposicao em valores singulares A = V SW (vide Teorema 8.24, pagina 384), entao a
pseudo-inversa de Moore-Penrose A+ de A e dada por
+

Determinando a pseudo-inversa de Moore-Penrose para matrizes retangulares

Consideraremos agora matrizes gerais (nao necessariamente quadradas) A Mat (C, m, n).

Seja A Mat (C, m + n) a matriz quadrada (m + n) (m + n) definida em (8.7), pagina 316. Como A e uma matriz
quadrada, estabelecemos acima que ela possui uma pseudo-inversa de Moore-Penrose (A )+ , u
nica, satisfazendo
+
1. A A A = A ,
+
+
+
2. A A A = A ,
+
+
e A A sao auto-adjuntas.
3. A A

No que segue, demonstraremos que A+ Mat (C, n, m), a pseudo-inversa de Moore-Penrose de A Mat (C, m, n),
e dada, seguindo as definicoes (8.3)(8.4), por

ou seja,

+

Jm+n, m ,

(8.151)


+
A+ = In, m+n Jm+n, m AIn, m+n Jm+n, m .

e das relacoes (8.5)(8.6) segue, multiplicando-se `a esquerda por Im, m+n e a` direita por Jm+n, n que AA+ A = A, uma
das relacoes que desejamos provar.
+
+
+
significa, usando a definicao (8.7),
A relacao A A A = A
A

+

Jm+n, m AIn, m+n A

+

+

400/2070

Logo, multiplicando-se `a esquerda por Im, m+n e `a direita por Jm+n, m , segue de (8.5) que



+
+ 
+
AIn, m+n A Jm+n, m = Im, m+n AIn, m+n A
= AIn, m+n A Jm+n, m
,
provando que AA+ e auto-adjunta.

Por fim, como (A )+ A e auto-adjunta, segue da definicao (8.7) que A


(A )+ Jm+n, m AIn, m+n = Jm+n, n

+

Jm+n, m AIn, m+n e auto-adjunta, ou seja,


+
A Jm+n, m A
.

Logo, multiplicando-se `a esquerda por In, m+n e `a direita por Jm+n, n , segue de (8.6) que
In, m+n A

+

Jm+n, m A =


(A )+ Jm+n, m A Jm+n, n =


In, m+n (A )+ Jm+n, m A ,

estabelecendo que A+ A e auto-adjunta. Com isso estabelecemos que A+ dada em (8.151) e a pseudo-inversa de MoorePenrose de A.

8.10

Produtos Tensoriais de Matrizes

A nocao de produto tensorial de espacos vetoriais foi introduzida e desenvolvida na Secao 2.3.5, pagina 146. Vamos
condiderar os espacos vetoriais complexos de dimens
ao finita Cm e Cn (o caso de espacos vetoriais reais de dimens
ao
finita e totalmente an
alogo) e seu produto tensorial
Cm Cn , que a um espaco vetorial complexo de dimens
ao mn,


mn
m
n
isomorfo, portanto, a C . Sejam e1 , . . . , em e f1 , . . . , fn as bases can
onicas em
C e C , respectivamente, com
a qual podemos constituir a base can
onica B := ei fj , i = 1, . . . m, j = 1, . . . , n em Cm Cn .
P
m
Um elemento generico de Cm Cn e uma soma finita N
e a Cn
a=1 a a , para algum N N e com a C
para todo a = 1, . . . , N . Se A Mat (C, m) e B Mat (C, n), definimos seu produto tensorial, denotado por A B,
PN
como a matriz que age em um vetor generico qualquer de a=1 a a de Cm Cn de acordo com o seguinte:
!
N
N
X
X


(8.153)
Aa Ba .
a a =
AB
a=1

a=1

O produto tensorial A B de duas matrizes e tambem denominado produto de Kronecker26 de A e B.


elementar constatar que A B, assim definido, e um operador linear em Cm Cn . Por convencao, as matrizes A
E
e B agem nos respectivos vetores de base de acordo com a regra estabelecida em (8.14):

(8.152)

+
O ponto de partida e a existencia da pseudo-inversa de A . A relacao A A A = A significa, usando a definicao
(8.7),
i
h
+
Jm+n, m A In, m+n A Jm+n, m AIn, m+n = Jm+n, m AIn, m+n

Captulo 8

Vers
ao de 18 de julho de 2013.

Multiplicando `a esquerda por In, m+n e `a direita por Jm+n, m , isso estabelece a validade de A+ AA+ = A+ .
+
e auto-adjunta, ou
Como A (A )+ e auto-adjunta, segue da definicao a definicao (8.7), que Jm+n, m AIn, m+n A
seja,

 

+
+
Im, m+n .
= AIn, m+n A
Jm+n, m AIn, m+n A

A = WS V .






+
+
V SW W S + V =
De fato, AA+ A = V SW W S + V V SW = V SS + SW + = V SW = A e A+ AA
 = WS V
+
pois
SS

e
uma
W S + SS + V = W S + V = A+ . Alem disso, AA+ = V SW W S + V = V SS + V e auto-adjunta,



matriz diagonal com elementos diagonais iguais a 0 ou a 1. Analogamente, A+ A = W S + V V SW = W S + S W
e auto-adjunta.

A+ := In, m+n A

JCABarata. Curso de Fsica-Matem


atica

Aei =

m
X

Aai ea

a=1

Bfj =

n
X

Bbj fb ,

b=1

onde Aai e Bbj sao os elementos de matriz de A e B nas respectivas bases. Assim, vale
A B ei fj

n
m X
X
a=1 b=1

Aai Bbj ea fb .

Conseq
uentemente, podemos afirmar que os elementos de matriz de A B na base B de Cm Cn e

A B (a, b)(i, j) = Aai Bbj ,
26 Leopold

Kronecker (18231891).

(8.154)

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

401/2070

JCABarata. Curso de Fsica-Matem


atica

Vers
ao de 18 de julho de 2013.

Captulo 8

402/2070

A relacao (8.158) diz-nos, entre outras coisas, que A B e uma matriz inversvel se e somente se A e B o forem. Em
qualquer desses casos, valera (8.157).

pois assim, seguindo a mesma convencao, podemos reescrever (8.154), na forma


X



A B ei fj =
A B (a, b)(i, j) ea fb ,
(a, b)

onde

significa

m X
n
X
a=1 b=1

(a, b)

. Nessa representacao os pares ordenados (i, j) {1, . . . , m} {1, . . . , n} fazem o papel de

ndices das matrizes.

Se A, A1 , A2 Mat (C, m) e B, B1 , B2 Mat (C, n) e trivial demonstrar com uso de (8.153) que
A1 B + A2 B = (A1 + A2 ) B ,
e que (verifique!)



A1 B1 A2 B2 =
T

E. 8.45 Exerccio. Prove que (A B) = A B

A B1 + A B2 = A (B1 + B2 )


A1 A2 B1 B2 .

(8.155)
(8.156)

e que (A B) = A B .

Segue tambem de (8.153) que 1m 1n e a matriz unidade em Cm Cn . Portanto, se A e B possuirem inversa, A B


tambem possuir
a e valera (verifique!)
1


AB
= A1 B 1 .
(8.157)

Para a recproca dessa afirmacao precisamos aprendar algo sobre determinantes de produtos tensoriais de matrizes.

O determinante de um produto tensorial de matrizes






imediato por (8.156) que A B = A 1n 1m B = 1m B A 1n . Segue que o determinante de A B
E



ser
a dado por det A B = det A 1n det 1m B . Vamos agora determinar os dois determinantes do lado direito.

claro que Cm Cn
Ordenemos os vetores da base B na forma e1 f1 , . . . , em f1 , . . . , e1 fn , . . . , em fn . E
quebra-se na soma direta de sub-espacos V1 . . . Vn , onde Vk e gerado pelos vetores e1 fk , . . . , em fk . Cada Vk e um
sub-espaco invariante pela acao de A 1n , que nele age como (Ae1 ) fk , . . . , (Aen ) fk . Assim, ordenando os elementos
da base B dessa maneira, A1n assumira a representacao matricial na forma de n blocos diagonais, como apresentado a` esquerda:

..

.
A

..

.
B


n
Disso, fica evidente27 que det A 1n = det(A) (Proposicao 8.3, pagina
323).

Para o caso de det 1m B a ideia e an
aloga. Ordenamos
a base na

forma e1 f1 , . . . , e1 fn , . . . , em f1 , . . . , em fn e fica claro que
m
n
C C quebra-se na soma direta de sub-espacos W1 . . . Wm , onde Wk
e gerado pelos vetores ek f1 , . . . , ek fn . Cada Wk e um sub-espaco invariante pela acao de 1m B, que nele age como ek (Bf1 ), . . . , ek
(Bfn ). Com a base B assim ordenada, 1m B assumira a representacao
matricial na forma de m blocos diagonais como apresentado a` esquerda:

m
Disso, fica evidente que det 1m B = det(B) . Juntando as afirmacoes
anteriores, estabelecemos que se A Mat (C, m) e B Mat (C, n), entao

n
m
det A B = det(A)
det(B) .
(8.158)
Observe o leitor que o expoente de det(A) a` direita e a ordem de B e vice-versa.

E. 8.46 Exerccio (f
acil). Sejam A1 Mat (C, m1 ), A2 Mat (C, m2 ) e A3
Mat (C, m3 ). Mostre que

m2 m3
m1 m3
m1 m2
det A1 A2 A3 = det(A1 )
det(A2 )
det(A3 )
.

8.11

Propriedades Especiais de Determinantes

8.11.1

Expans
ao do Polin
omio Caracterstico

Pn
m
Seja A Mat (C, n) e seja pA () = det(1 A) =
omio caracterstico. Desejamos
m=0 cm , C, seu polin
obter uma f
ormula explicita para os coeficientes cm em termos de determinantes de sub-matrizes de A (vide abaixo).
Vamos
 ak a k-esima coluna de A, de sorte que, pela notacao introduzida em (8.9), pagina 316, valha
 designar por
onica fornecida em (8.10) e (8.11), pagina 316, fica claro que
A = a1 , . . ., an . Recordando a defini
 cao de base can
pA () = det e1 a1 , . . . , en an . Usando a propriedade de multilinearidade do determinante (linearidade em
relacao a cada coluna), segue que

n
hh
ii
X
X
(1)nm m
pA () =
det a1 , . . . , ej1 . . . , ejm . . . , an + (1)n det(A) ,
m=1

1j1 <<jm n



onde, para 1 j1 < < jm n, a1 , . . . , ej1 . . . , ejm . . . , an e a matriz obtida a partir da matriz A substituindo
sua jl -esima coluna
por ejl para cada l = 1, . . . , m. Note que

 no caso m = n, tem-se forcosamente jl = l para cada
l = 1, . . . , n e a1 , . . . , ej1 . . . , ejm . . . , an = e1 , . . . , en = 1. Com isso, escrevemos

n1
hh
ii
X
X
det a1 , . . . , ej1 . . . , ejm . . . , an + (1)n det(A) .
(1)nm m
pA () = n +
m=1

1j1 <<jm n

Como cada vetor-coluna ejl contem 1 na jl -esima linha, as demais linhas sendo nulas, as bem-conhecidas regras de
calculo de determinantes ensinam-nos que, para todo m = 1, . . . , n 1,

ii

hh
det a1 , . . . , ej1 . . . , ejm . . . , an = det Aj1 , ..., jm ,

Aj1 , ..., jm sendo a matriz de Mat (C, n m) (ou seja (n m) (n m)) obtida a partir de A eliminando-lhe as jl -esimas
linhas e colunas para todo l = 1, . . . , m. Assim, obtemos

n1


X
X
(1)nm m
pA () = n +
det Aj1 , ..., jm + (1)n det(A) ,
(8.159)
m=1

1j1 <<jm n

onde e possvel reconhecer os coeficientes de pA ().

Pelo Teorema de Hamilton-Cayley, Teorema 8.3, pagina 335, pA (A) = 0 e, portanto,

n1


X
X
(1)nm
det Aj1 , ..., jm Am + (1)n det(A)1 = 0 .
An +
m=1

1j1 <<jm n

Como comentamos em (8.43), pagina 338, se A for inversvel, obtem-se disso

n1


X
X
1
Am1 .
(1)nm
An1 +
det
A
A1 =
j
,
...,
j
1
m
(1)n+1 det(A)
m=1

(8.160)

1j1 <<jm n

8.11.2

A Desigualdade de Hadamard

Vamos nesta secao demonstrar uma desigualdade para determinantes de matrizes, a qual e muito u
til, a chamada
desigualdade de Hadamard28 .

27 Lembrar que o reordenamento de uma base n


ao altera o determinante de uma matrix, pois
e realizado por uma transformaca
o de
similaridade envolvendo uma matrix de permutaca
o.

28 Jacques Salomon Hadamard (18651963). A refer


encia ao trabalho de Hadamard
e: J. Hadamard, R
esolution dune question relativ aux
d
eterminants, Bull. Sci. Math. 28, 240-246 (1893).

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

403/2070

claro que
j = 1, . . . , n. E

Teorema 8.34 (Teorema do Determinante de Hadamard) Seja A Mat (C, n). Ent
ao,
| det(A)|2

n X
n
Y

j=1 i=1

|Aij |2 ,

JCABarata. Curso de Fsica-Matem


atica

sendo Aij o elemento ij da matriz A. Segue disso que para toda matriz A Mat (C, n) vale

n
.
| det(A)| nn/2 max |Aij |
ij

(8.162)

j=1

Seja A Mat (C, n). Se A nao tem inversa, entao det(A) = 0 e a desigualdade (8.161) e trivialmente satisfeita, nao
havendo o que se provar. Vamos entao supor que A tenha inversa.
Seja A o conjunto de todas as matrizes M de Mat (C, n) com a propriedade que

i=1

|Mij |2 =

n
X
i=1

j=1

matriz dos cofatores de T , foi definida no enunciado do Teorema 8.1, pagina 319. Seja fixo esse i. Pela desigualdade de
Cauchy-Schwarz, vale

n
n
n
n
X
X
X
X
2
2
2
2
2

| det(T )|
|Tij |
=
|Cof(T )ij |
|Aij |
.
(8.163)
|Cof(T )ij |
j=1

j=1

Au
ltima igualdade sendo devida ao fato que T A.

Como e bem sabido, para o produto escalar ha, bi :=

n
X

k=1

j=1

O ponto importante agora e notar que se tivermos a desigualdade estrita

n
n
X
X
| det(T )|2 <
|Aij |2
|Cof(T )ij |2 ,

(8.164)

j=1

entao T nao pode maximizar o modulo de determinante entre as matrizes de A. De fato, considere a matriz T que e
igual `
a matriz T , exceto sua i-esima linha, que e dada por

Tij

1/2
n
X
|Aij |2

j=1
Cof(T )ij ,
:=
n

|Cof(T )ij |2

j=1

|Aij |2 ,

1/2
n
X
1/2
1/2

|Aij |2

n
n
n
X
X
X

j=1

2
2
2

det(T ) = n
|Cof(T )ij |
|Cof(T )ij | =
|Aij |

j=1
X
j=1
j=1
|Cof(T )ij |2

j=1

e conclumos por (8.164) que teramos | det(T )| < det(T ), contrariando a hip
otese que | det(T )| e maximo. Assim,
devemos ter a igualdade em (8.163) e, pelos comentarios de acima, isso implica que existe i C tal que Tij = i Cof(T )ij
ario, isso vale para
para todo j, ou seja, a i-esima linha de T e proporcional `a i-esima linha de Cof(T ). Como i e arbitr
todo i.

det(T ) =

n
X

Tij Cof(T )ij =

j=1

n
n
1 X
1 X
|Tij |2 , =
|Aij |2
i j=1
i j=1

e pela multilinearidade do determinante, que


det(T ) = det(T ) = 1 n det(Cof(T )) .
Dessas duas relacoes extramos
det(T )n =

n n
n X
n
Y
det(Cof(T )) Y X
1
|Aij |2 .
|Aij |2 =
1 n i=1 j=1
det(T ) i=1 j=1

Como a relacao (8.26) vale para qualquer matriz inversvel, tem-se det(Cof(T )) = det(T )n1 e, portanto, | det(T )|2 =
n X
n
Y
|Aij |2 . Por construcao, T maximiza | det(T )| em A. Como A A, segue que
i=1 j=1

ak bk , a desigualdade de Cauchy-Schwarz |ha, bi| kakkbk e

uma igualdade se e somente se os vetores a e b forem proporcionais. Assim, tem-se a igualdade em (8.163) se e somente
se existir i C tal que Tij = i Cof(T )ij para todo j, ou seja, se a i-esima linha de T for proporcional a` i-esima linha
de Cof(T ).

j=1

j=1

Agora, como as linhas de T sao proporcionais `as de Cof(T ), segue que

|Aij |2

tambem claro que A e um subconjunto compacto de Mat (C, n) (visto


para todo j = 1, . . . , n. Claro est
a que A A. E
2
aqui como Cn ). A funcao | det(M )| e contnua como funcao de M e, portanto, assume ao menos um maximo absoluto
(nao necessariamente u
nico) em A, por este ser compacto (teorema de Weierstrass). Seja T A um desses maximos.
Note-se que | det(T )| | det(A)| > 0 e, portanto, T tem inversa.
n
X
Para todo i = 1, . . . , n vale por (8.21), pagina 319, que det(T ) =
Tij Cof(T )ij , onde Cof(T ), chamada de

j=1

n
X

j=1

O importante na estimativa (8.162) e o tipo de dependencia em n que se tem do lado direito. Ela ser
a usada, por
exemplo, em estimativas de convergencia da serie de determinantes de Fredholm na Secao 17.2, pagina 816.
Prova do Teorema 8.34. A prova de (8.162) e elementar, por (8.161). Passemos a` prova de (8.161).

|Tij |2 =

404/2070

o que mostra que T A (para as demais linhas T coincide com T e nao ha o que provar, pois T A). Fora isso,
n
X
det(T ) =
Tij Cof(T )ij , pois Cof(T )ij = Cof(T )ij , j
a que T e T so diferem na i-esima linha. Assim,

n
X

n
X

(8.161)

Captulo 8

Vers
ao de 18 de julho de 2013.

| det(A)|2
Isso prova o teorema.

n X
n
Y

i=1 j=1

|Aij |2 .

(8.165)

JCABarata. Curso de Fsica-Matem


atica

8.12

Captulo 8

Vers
ao de 18 de julho de 2013.

405/2070

Exerccios Adicionais

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

O exerccio que segue generaliza o Exerccio E. 8.49.


E. 8.51 Exerccio. Seja um produto escalar em Cn . Pela Proposicao 3.5, pagina 210, existe uma unica matriz M
Mat (C, n) auto-adjunta e de autovalores positivos (e, portanto, inversvel) tal que (x, y) = hx, M yiC para todos
x, y Cn .

omio caracterstico da matriz


E. 8.47 Exerccio. a) Determine o polin

2
7
5

A =
0 2 3i 5i .

0
0
1 4i

Seja A Mat (C, n) e seja A Mat (C, n) sua adjunta em relacao ao produto escalar : (x, Ay) = (A x, y)
para todos x, y Cn . Mostre que A = M1 A M , onde A e a adjunta usual de A em relacao ao produto escalar h, iC .
Mostre que para quaisquer matrizes A, B Mat (C, n) valem (A ) = A e (AB) = B A . Calcule 1 .

c) Usando o Teorema de Hamilton-Cayley calcule A1 .


6

A sequencia de Fibonacci an , n N0 , e a sequencia definida recursivamente pela relacao


an+2 = an+1 + an ,

E. 8.48 Exerccio. Repita o exerccio anterior para as matrizes

A1

4 + i
0

i
,

2 7i

E. 8.49 Exerccio. Considere em C o seguinte produto escalar

x
x + y

,
T
=

y
x

a=1

(Lembre-se que Ap e definida de sorte que hu, Avip = hAp u, vip para todos u, v Cn ).

Para a matriz adjunta definida em (8.166), verifique a validade das regras (Ap )p = A e (AB)p = B p Ap , para
quaisquer matrizes A, B Mat (C, n). Calcule 1p .
P
Mostre que para quaisquer u, v Cn vale hu, vip = hu, P viC , onde hu, viC = na=1 ua va e o produto escalar usual em
Cn e P = diag (p1 , . . . , pn ). Conclua disso que Ap = P 1 A P , onde A e a adjunta usual de A em relacao ao produto
escalar h, iC : (A )ij = Aji .
6
4 i/2
. Essa matriz nao e auto-adjunta em relacao ao
E. 8.50 Exerccio. Determine os autovalores da matriz A =

2i
5
2

produto escalar usual em C , mas possui autovalores reais. Justifique esse fato mostrando, pelos exerccios anteriores, que A
e auto-adjunta em relacao ao produto escalar hu, vip = 2u1 v1 + u2 v2 /2. Mostre a adjunta Ap em relacao a esse produto

4 i/2
= A e constate explicitamente que hu, Avi = hAu, vi para todos u, v C2 . Determine os
escalar e Ap =
p
p

2i
5

autovetores de A e constate que os mesmos sao ortogonais em relacao ao produto escalar h, ip .

o que permite escrever

an
an+1
,
= T

an1
an

a1
an+1

= Tn ,

a0
an

1
.

n N ,

n N0 .

(8.168)

Justifique! A matriz T e, por vezes, denominada matriz de transferencia.


T e manifestamente autoadjunta e, portanto, diagonalizavel (Teorema 8.13, pagina 357) e, portanto, satisfaz o Teorema
Espectral (Teorema 8.5, pagina 342).

Mostre que os autovalores de T sao = 21 1 5 . Usando (8.55), mostre que a decomposicao espectral de T e

T = + E+ + E ,

1
T :=

onde

Isso mostra que vale a seguinte relacao para os elementos da sequencia de Fibonacci:

ua va pa ,

onde pa > 0 para a = 1, . . . , n. Seja uma matriz A, com elementos de matriz Aij . Mostre que, com o produto escalar h, ip
o elemento de matriz (Ap )ij da adjunta Ap da matriz A e dado por
pj
(Ap )ij =
Aji .
(8.166)
pi

(8.167)

A relacao (8.167) pode ser expressa de forma elegante com o uso de matrizes e vetores, da seguinte forma. Tem-se,
trivialmente que

hu, vip =

n0.

Comummente adota-se a0 = 1 e a1 = 1, mas vamos deixar essa escolha de condicoes iniciais provis
oriamente em aberto.

0
0
5

A2 =
8
0
8
.

3i 1 9i 4 5i

n
X

E. 8.52 Exerccio. [N
umeros de Fibonacci]. A sequencia de numeros conhecida como sequencia de Fibonacci29 foi
introduzida `a pagina 258 e foi la estudada usando-se funcoes geratrizes. Neste exerccio vamos estuda-la fazendo uso de
matrizes e do Teorema Espectral.

b) Verifique explicitamente a validade do Teorema de Hamilton-Cayley para a matriz A.

=
0

406/2070

onde

1
E =
5
1

Conclua do Calculo Funcional (Teorema 8.6, pagina 344) que, para n N,

n+1
n+1



1 +
n
n
T n = + E+ + E =

n
n
5
+

(use que + = 1).


29 Leonardo

Pisano, cognominado Fibonacci (11701250).

1
.

+
+

n

n1

n

,
n1

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

407/2070

Retornando com isso a (8.168), obtenha que





n1
n1 
n
n 
1 
an =
+

a0 + +
a1 ,
5

Portanto,
(8.169)

n N0 . Essa e a expressao geral (em termos de n, a0 e a1 ) dos elementos an da seq


uencia de Fibonacci.
Para o caso particular em que a0 = 1 e a1 = 1, obtenha disso que

!n+1
!n+1
1
1 5
1+ 5
,
an =

2
2
5

para todo n 0. Para isso, mostre que

n

n1

(8.170)

Considere a sequencia de Fibonacci generalizada:


(8.171)

onde e sao constantes (reais ou complexas). A matriz de transferencia T associada a essa seq
uencia e

1
2


.
T :=

1 0


p
2 + 4 .

Considere primeiramente o caso em que 2 + 4 6= 0. Nessa situacao, os autovalores + e sao distintos e, portanto,
T e diagonalizavel (pela Proposicao 8.22, pagina 350) e aplicam-se novamente o Teorema Espectral e o Calculo Funcional.
Repita o procedimento do Exerccio E. 8.52 para obter a expressao geral (em termos de n, a0 e a1 ) dos elementos an da
seq
uencia de Fibonacci generalizada. O resultado e que


n 
n
n+1
n+1
+

+
1
n
,

T = p

n
n
n1
n1 
2 + 4
+
+

donde obtem-se que


 

n 
n
n1 
n1
1
an = p
a1 .
a0 + +

+
2 + 4

(8.172)
2

Esta e a expressao geral (em termos de n, a0 , a1 e ) da sequencia de Fibonacci generalizada para o caso 6= /4.

No caso em que 2 + 4 = 0,mostre que T nao e diagonalizavel. Para isso, mostre, por exemplo, que seus autovetores
sao todos m
ultiplos do vetor /2
e, portanto, compoe um subespaco unidimensional.
1
O que se pode fazer nessa situacao para determinar T n ? Proceda da seguinte forma: escreva

2 /4
= 1 + N ,
T =

2
1
0

onde

/2
N =


n
(1 + n) 2
=

n1
n 2

2 /4
.

/2

 n
2


n+1
2

(1 n)

a0 + n


n
2

 n1
2

408/2070

a1 .

(8.173)
2

Esta e a expressao geral (em termos de n, a0 , a1 e ) da sequencia de Fibonacci generalizada para o caso = /4.

Note-se que no caso = 2 (e = 1), obtem-se disso an = a0 + n(a1 a0 ), que exibe um comportamento dominante
linear em relacao a n, e nao exponencial, como em todos os casos anteriores. Em particular, se a0 = a1 , a sequencia e
constante.
6

umeros de Fibonacci Generalizados]. Este exerccio generaliza o Exerccio E. 8.52.


E. 8.53 Exerccio. [N

n0,

Captulo 8

Vers
ao de 18 de julho de 2013.

an = (1 n)

A expressao (8.170) coincide com o resultado apresentado em (6.2), pagina 259, e la obtido por outros meios.

Mostre que os seus autovalores sao =

Tn
e, portanto,

n+1

n
1 
n 
.
1 =
=
1 +
=

an+2 = an+1 + an ,

JCABarata. Curso de Fsica-Matem


atica

omio de Newton,
Constate que N 2 = 0 e conclua que a representacao T = 2 1 + N e a forma de Jordan de T . Pelo bin
teremos, para n 1,
n    np
1    np

n
 n1
 n
X
X
n

N 2 =0
Tn =
1+N
=
1+n
Np
=
Np =
N.
p
2
2
2
2
2
p
p=0
p=0

JCABarata. Curso de Fsica-Matem


atica

Captulo 8

Vers
ao de 18 de julho de 2013.

409/2070

0
a

0
2

0
1

3 3

3 0

4 14

Figura 8.5: Forma can


onica de uma matriz com 4 autovalores distintos 1 , 2 , 3 e 4 . Os s assumem apenas os
valores 0 ou 1, de acordo com as regras explicadas acima. Todos os elementos fora da diagonal principal e da primeira
supradiagonal sao nulos. As setas indicam zeros que ocorrem na primeira supradiagonal nos pontos onde ocorre transicao
entre os blocos, conseq
uencia do fato de esses elementos estarem fora dos blocos.