Você está na página 1de 73

Álgebra Linear II

Ana Luísa Correia

Departamento de Ciên ias e Te nologia 2012,

Universidade Aberta
Ana L. Correia
Índi e

1 Valores e vetores próprios 1


1.1 Con eitos bási os . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Matrizes e endomorsmos diagonalizáveis . . . . . . . . . . . . . . . . 17
1.2.1 Invariân ia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.2.2 Diagonalização . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.3 O teorema de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . 34
1.4 Matrizes não-diagonalizáveis: a forma anóni a de Jordan . . . . . . . 37
1.4.1 Dois exemplos de motivação . . . . . . . . . . . . . . . . . . . 37
1.4.2 Denições e os resultados fundamentais . . . . . . . . . . . . . 42
1.4.3 Uma apli ação do teorema da de omposição de Jordan . . . . 46
1.4.4 Demonstração do Teorema 1.54 . . . . . . . . . . . . . . . . . 49
1.4.5 Demonstração do teorema da de omposição de Jordan . . . . 54
1.4.6 Mais um exemplo . . . . . . . . . . . . . . . . . . . . . . . . . 64
Capítulo 1
Valores e vetores próprios
Muitos métodos em Álgebra Linear têm omo objetivo de ompor matrizes em pro-
dutos de matrizes mais simples. Por exemplo, a de omposição de uma matriz na
forma LU , om L uma matriz triangular inferior e U uma matriz triangular supe-
rior, simpli a a resolução de sistemas lineares om muitas equações e in ógnitas.
As matrizes diagonais são parti ularmente simples e satisfazem boas propriedades.
De fa to, dada
 
d1 0 0 ··· 0
 0 d2 0 ··· 0
 
 ··· 0
D =  0 0 d3  = diag(d1 , d2 , d3 , . . . , dn ),
 .. .. .. . 
.. 
. . .
0 0 0 · · · dn

sabemos que o seu determinante é |D| = d1 d2 d3 · · · dn e que se di 6= 0, para todos


i = 1, . . . , n, então D é invertível e D −1 = diag (1/d1, . . . , 1/dn ). Se multipli armos
uma matriz diagonal por uma matriz invertível à esquerda e pela sua inversa à
direita, obtemos uma matriz om igual determinante ao da matriz D e podemos
al ular fa ilmente a sua inversa. Na verdade, se P é de tipo n × n e invertível,
temos
Conrme!
|P DP −1| = |D| e (P DP −1)−1 = P D −1P −1 .
Neste apítulo estudaremos as matrizes quadradas que admitem uma fatorização do
−1
tipo P DP , om D diagonal e P invertível. Tal fatorização é sempre possível para
matrizes reais simétri as e para matrizes omplexas hermíti as (ver apítulo 2). Este
onhe imento será apli ado à lassi ação das óni as e das quádri as (ver apítulos
3 e 4). Mas nem todas as matrizes quadradas A admitem uma fatorização deste
tipo. A have para a existên ia de uma tal de omposição passa pela determinação
de es alares λ e vetores não-nulos v tais que Av = λv . Tais es alares são designados
por valores próprios de A e tais vetores por vetores próprios de A.
Noutro ontexto, num ponto de vista mais geométri o, os on eitos de valor e
vetor próprio podem ser introduzidos de modo natural para endomorsmos e es-
tão asso iado ao on eito de subespaço invariante. De fa to, se E for um espaço
vetorial de dimensão nita sobre um orpo K, om K = R ou K = C, um en-
domorsmo é simplesmente uma apli ação linear f: E → E de E em E . Como
qualquer apli ação linear, um endomorsmo f de E  ará perfeitamente determi-
nado pelas imagens dos vetores de qualquer base que xemos no espaço
 E. Quer
n = dim E
dizer, se B = v1 , . . . , vn for uma base de E , f  ará perfeitamente determinado
pelas imagens f (v1 ), f (v2 ),. . . ,f (vn ). Assim, se tivermos

f (v1 ) = a11 v1 + a21 v2 + · · · + an1 vn ,


f (v2 ) = a12 v1 + a22 v2 + · · · + an2 vn ,
.
..

f (vn ) = a1n v1 + a2n v2 + · · · + ann vn

om aij ∈ K, i, j ∈ {1, 2, . . . , n}, então o endomorsmo f  a denido pela matriz

 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
 
A = M(f ; B, B) =  .. .. ..  ∈ Mn×n (K),
 . . . 
an1 an2 · · · ann

ujas olunas são formadas pelos es alares da equação respetiva. Dizemos que a
matriz A representa o endomorsmo f om respeito à base B. É laro que o estudo
de um endomorsmo  ará simpli ado se for representado por uma matriz diagonal.
De fa to, se tivermos

 
λ1 0 · · · 0
 0 λ2 · · · 0  
 
A = M(f ; B, B) =  .. ..  = diag λ1 , . . . , λn ,
 . . 
0 0 · · · λn

Eventualmente então temos, para qualquer 1 ≤ i ≤ n,


podemos ter
λi = λj om
i 6= j .
f (vi ) = λi vi .

Os es alares λi são designados por valores próprios de f e os vetores vi onstituem


uma base de vetores próprios de f .

Neste apítulo abordaremos estas questões, eviden iando a relação entre elas.

1.1 Con eitos bási os


Neste apítulo K denotará o orpo dos números reais ou dos números omplexos e
E denotará sempre um espaço vetorial sobre K de dimensão nita.

Vamos omeçar pelos endomorsmos, pela sua interpretação geométri a.

2 Ana L. Correia
Denição 1.1. Seja f: E →E um endomorsmo de E.

• Diremos que um vetor v∈E é um vetor próprio de f se

(a) v 6= 0E ,
(b) f (v) = λv , para algum λ ∈ K.

• Diremos que um es alar λ ∈ K é um valor próprio de f se existir um vetor


não-nulo v∈E tal que f (v) = λv .

Geometri amente, se v é um vetor próprio de f e f (v) = λv , então o vetor


imagem f (v) é um vetor múltiplo de v, om a mesma dire ção e igual sentido se
λ>0 e sentido oposto se λ < 0:

λv
λv v v v
λv

0<λ<1 λ>1 λ<0

Observação. Notemos, que de a ordo om a denição, se v ∈ E for um vetor


próprio de f e se f (v) = λv , então λ é um valor próprio de f . Re ipro amente, se
λ ∈ K for um valor próprio de f e se 0E 6= v ∈ E for tal que f (v) = λv , então v é um
vetor próprio de f . Estes fa tos permitem-nos dizer que, nesta situação, v é vetor
próprio de f asso iado ao valor próprio λ e que λ é valor próprio de f asso iado ao
vetor próprio v .
O resultado seguinte garante-nos que qualquer vetor próprio de f está asso iado
a um úni o valor próprio, mas existe mais do que um vetor próprio asso iado ao
mesmo valor próprio.

Proposição 1.2. Seja E um espaço vetorial sobre K e seja f : E → E um


endomorsmo. Então:
(a) Existe um úni o valor próprio asso iado a um vetor próprio v ∈ E de f .
(b) Se v ∈ E é vetor próprio de f a asso iado ao valor próprio λ, então qualquer Relembre que
vetor 0E 6= u ∈ hvi também é vetor próprio asso iado a λ. hvi={αv : α ∈ K}

Demonstração. (a) Sejam λ, µ ∈ K tais que

f (v) = λv e f (v) = µv.


Então, λv = µv e, portanto, (λ − µ)v = 0E . Como, por denição de vetor próprio,
v 6= 0E , on luímos que λ−µ = 0. Portanto λ = µ, o que prova a uni idade armada
em (a).
(b) Seja u ∈ hvi um vetor não-nulo. Então u = αv para algum α ∈ K. Como f
é linear e v é vetor próprio asso iado ao valor próprio λ, temos

21003 - Álgebra Linear II 3


f (u) = f (αv) = αf (v) = α(λv) = (αλ)v = (λα)v = λ(αv) = λu.
Portanto u é vetor próprio asso iado ao valor próprio λ.
Observação. A alínea (a) da proposição 1.2, permite-nos armar que, na mesma
notação, se v ∈ E , v 6= 0E , e se λ∈K forem tais que

f (v) = λv,
o ao um
ao
então λ é valor próprio de f asso iado vetor próprio v, e que v é vetor
próprio de f asso iado λ. Notemos, ainda, que estas armações só
valor próprio
são possíveis porque o vetor nulo0E não é por denição um vetor próprio. De fa to,
temos 0E = λ0E , para qualquer λ ∈ K, e admitindo que 0E fosse vetor próprio, então
0E estaria asso iado a qualquer elemento de λ ∈ K e a denição deste on eito não
teria interesse.

Exemplo 1.3. Seja f : R3 → R3 o endomorsmo denido, para todo (x, y, z) ∈ R3 ,


por
f (x, y, z) = (x + z, −2y, y + z).
Temos

f (1, 0, 0) = (1, 0, 0) = 1(1, 0, 0)


f (1, 9, −3) = (1 − 3, −2 · 9, 9 − 3) = (−2, −18, 6) = (−2)(1, 9, −3)
Portanto os vetores (1, 0, 0), (1, 9, −3) ∈ R3 são vetores próprios de f. O vetor
(1, 0, 0) é vetor próprio asso iado ao valor próprio 1∈R e (1, 9, −3) é vetor próprio
asso iado ao valor próprio −2 ∈ R.
Pela proposição 1.2, qualquer múltiplo de (1, 0, 0) será vetor próprio asso iado
ao valor próprio a 1 e todo o múltiplo de (1, 9, −3) será vetor próprio asso iado ao
valor próprio −2, o que também poderá ser veri ado diretamente. De fa to, para
qualquer α ∈ R, α 6= 0,
f (α, 0, 0) = (α, 0, 0) = 1(α, 0, 0)
f (α, 9α, −3α) = (−2α, −18α, 6α) = −2(α, 9α, −3α)
Notemos que nem todos os endomorsmo têm vetores e valores próprios, omo
eviden iaremos no exemplo que se segue.

Exemplo 1.4. Seja f : R2 → R2 o endomorsmo denido, para todo (x, y) ∈ R2 ,


por
f (x, y) = (−y, x).
Suponhamos que f tem um vetor próprio v = (a, b) ∈ R2 . Então, v 6= (0, 0) e existe
λ∈R tal que f (v) = λv . Assim temos
(
−b = λa
f (v) = λv ⇐⇒ f (a, b) = λ(a, b) ⇐⇒ (−b, a) = (λa, λb) ⇐⇒
a = λb
( ( (
−b = λ2 b (λ2 + 1)b = 0 b=0
⇐⇒ ⇐⇒ ⇐⇒
− − λ2 +16=0 a=0

4 Ana L. Correia
- ontradição pois v 6= (0, 0). Portanto f não tem vetores próprios, nem valores
próprios.

Repare-se que no aso de f estar denida em C2 já possui vetores e valores


próprios, omo veremos seguidamente.

Exemplo 1.5. Seja f : C2 → C2 o endomorsmo denido, para todo (x, y) ∈ C2 ,


por
f (x, y) = (−y, x).
Suponhamos que v = (a, b) ∈ C2 , v 6= (0, 0) é tal que f (v) = λv , para algum λ ∈ C.
Efe tuando ál ulos idênti os aos do exemplo anterior
( ( (
(λ2 + 1)b = 0 b=0 λ2 + 1 = 0
f (a, b) = λ(a, b) ⇐⇒ ⇐⇒ ∨
− a=0 a = λb
( ( (
λ = i ∨ λ = −i λ=i λ = −i i é o número
⇐⇒ ⇐⇒ ∨ omplexo

v6=(0,0) a = λb a = ib a = −ib i= −1.

Por exemplo, se b=1 obtemos a=i para λ=i e a = −i para λ = −i. Quer dizer
que
f (i, 1) = (−1, i) = i(i, 1) e f (−i, 1) = (−1, −i) = −i(−i, 1),
ou seja (i, 1) ∈ C2 é vetor próprio asso iado ao valor próprio i e (−i, 1) ∈ C2 é vetor
próprio asso iado ao valor próprio −i.
Já justi ámos que qualquer múltiplo es alar de um vetor próprio de um dado
endomorsmo é, também, um vetor próprio (do mesmo endomorsmo) asso iado ao
mesmo valor próprio. Fixo um es alar λ ∈ R podemos onsiderar, agora, o onjunto
de todos os vetores v∈E uja imagem f (v) é o múltiplo λv , isto é o onjunto

Eλ = {v ∈ E : f (v) = λv} .
O resultado seguinte justi a a importân ia destes onjuntos.

Proposição 1.6. Seja E um espaço vetorial sobre K, seja f : E → E um endo-


morsmo e seja λ ∈ K . Então
(a) Eλ = Nuc(f − λ idE ) é um subespaço vetorial de E . Dado λ ∈ K,
λ idE é o endo-
(b) λ é valor próprio de f se e só se Eλ 6= {0E }. morsmo de E
denido por
( ) Se λ é valor próprio de f , então (λ idE )(v) = λv
para todo v ∈ E .
Eλ = {v ∈ E : v vetor próprio asso iado ao valor próprio λ} ∪ {0E }.

Demonstração. (a) Temos

v ∈ Eλ ⇐⇒ f (v) = λv ⇐⇒ f (v) − λv = 0E
⇐⇒ (f − λ idE )(v) = 0E ⇐⇒ v ∈ Nuc(f − λ idE ).
Em parti ular, Eλ é um subespaço vetorial de E, omo queríamos. Porquê?

21003 - Álgebra Linear II 5


(b)  ⇒ Suponhamos que λ é valor próprio de f. Então existe um vetor não
nulo v ∈ E tal que f (v) = λv . Logo v ∈ Eλ o que prova que Eλ 6= {0E }.
 ⇐ Re ipro amente, suponhamos que Eλ 6= {0E }. Então existe v ∈ Eλ tal que
v 6= 0E . Por denição de Eλ temos
f (v) = λv e, portanto, v é vetor próprio asso iado ao valor próprio λ de f .
( ) É onsequên ia imediata de (b).

Denição 1.7.
valor próprio de f
Seja E um espaço vetorial sobre K de dimensão nita, seja
f: E →E um endomorsmo e seja λ ∈ K um . O subespaço

Eλ = {v ∈ E : f (v) = λv}

será designado por subespaço próprio de f asso iado ao valor próprio λ. Além
disso, hamaremos multipli idade geométri a de λ, que denotaremos por mg(λ),
à dimensão de Eλ , i.e
mg(λ) = dim Eλ .

Sabemos que, para estudar qualquer endomorsmo de um espaço vetorial de


dimensão nita podemos re orrer a uma matriz que o represente, om respeito a
uma base do espaço. Também, o estudo dos valores e vetores próprios de um en-
domorsmo pode ser feito, de uma maneira fá il, re orrendo a uma matriz que

represente esse endomorsmo. De fa to, se B = e1 , . . . , en é uma base de E,
A = M(f ; B, B) é a matriz que representa f relativamente a B (na partida e na
hegada) e v = α1 e1 + · · · + αn en , então

     
α1 α1 α1
     
f (v) = λv ⇐⇒ A  ...  = λ  ...  ⇐⇒ AX = λX om X =  ...  . (1.1)

αn αn αn

Desta forma, podemos denir, de modo natural, os on eitos de valor e vetor


próprio de uma matriz quadrada.

Denição 1.8. Seja A ∈ Mn×n (K).

• Diremos que X ∈ Mn×1 (K), X 6= 0n×1 é um vetor próprio de A se AX =


λX , para algum λ ∈ K.

• Diremos λ ∈ K é um valor próprio de A se existe uma matriz oluna


X 6= 0n×1 tal que AX = λX .

6 Ana L. Correia
     
Exemplo 1.9. Seja A=
1 0
1 2
∈ M2×2 (R). Consideremos os vetores
1
−1
,
0
2
∈ M2×1 (R). Temos
       
1 0 1 1 1 1 é vetor próprio asso ia-
A= = =1 ∴ do ao valor próprio 1
1 2 −1 −1 −1 −1
        
1 0 0 0 0 0 é vetor próprio asso ia-
A= = =2 ∴ do ao valor próprio 2.
1 2 2 4 2 2

De a ordo om (1.1) podemos armar que:

Proposição 1.10. Seja E um espaço vetorial sobre K de dimensão nita n e


seja f : E → E um endomorsmo de E . Fixemos uma base B = e1 , . . . , en
em E e seja A = M(f ; B, B) a matriz que representa f relativamente a B (na
partida e na hegada).
(a) Seja v = α1 e1 + · · · + αn en ∈ E . Então
 
α1
v é vetor próprio de f ⇐⇒ X =  ...  é vetor próprio de A.
 
αn

(b) Seja λ ∈ K. Então

λ é valor próprio de f ⇐⇒ λ é valor próprio de A.

Demonstração. Atendendo a (1.1) só temos de observar que v 6= 0E se e só se


X 6= 0n×1 , o que a onte e porque uma base é em parti ular um sistema linearmente
independente.

Dada A ∈ Mn×n (K) e dado λ ∈ K, temos

AX = λX ⇐⇒ AX − λX = 0n×1 ⇐⇒ (A − λIn )X = 0. Para simpli ar


es reveremos 0
Podemos onsiderar o onjunto das soluções do sistema homógeneo em vez de 0n×1 .

(A − λIn )X = 0, Obtemos a ma-


triz A − λIn
i.e. o onjunto subtraindo λ a
todos os elemen-
Mλ = {X ∈ Mn×1 (K) : (A − λIn )X = 0} = {X ∈ Mn×1 (K) : AX = λX} . tos da diagonal
prin ipal de A.
Sabemos, da teoria geral de álgebra linear, que

⋄ Mλ é um subespaço vetorial de Mn×1 (K);


⋄ 0 ≤ dim Mλ = n − rank (A − λIn ) ≤ n (porque 0 ≤ rank (A − λIn ) ≤ n).
Além disso, sabemos que

rank (A − λIn ) < n ⇐⇒ |A − λIn | = 0.

21003 - Álgebra Linear II 7


Podemos, então, provar o seguinte ritério para a determinação dos valores
próprios de uma matriz quadrada.

Proposição 1.11. Seja A ∈ M n×n (K) e seja λ ∈ K. Então

λ é valor próprio de A ⇐⇒ |A − λIn | = 0.

Demonstração. Temos

λ é valor próprio de A ⇐⇒ Mλ 6= {0n×1 } ⇐⇒ dim Mλ > 0


⇐⇒ rank (A − λIn ) < n ⇐⇒ |A − λIn | = 0,

omo queríamos.

Vamos agora denir, de modo natural, os on eitos de subespaço próprio e mul-


tipli idade geométri a para matrizes.

Denição 1.12. Seja A ∈ Mn×n (K) e seja λ ∈ K um valor próprio de A


então
Dada uma
matriz
B ∈ Mn×m (K), Mλ = {X ∈ Mn×1 (K) : AX = λX}
N (B) designa o = {X ∈ Mn×1 (K) : (A − λIn )X = 0} = N (A − λIn )
espaço nulo de
B , i.e. o on-
junto dos veto-
é um subespaço de Mn×1 (K), Mλ 6= {0n×1 }, e diz-se o subespaço próprio de A
res oluna X asso iado ao valor próprio λ. Além disso,
que multipli a-
dos por B dão o dim Mλ = mg(λ) − diz-se a multipli idade geométri a de λ.
vetor nulo.
Temos
1 ≤ mg(λ) = n − rank (A − λIn ) ≤ n.
 
Exemplo 1.13. Consideremos a matriz A=
1 0
1 2
∈ M2×2 (R) do Exemplo 1.9.

Temos

1 − λ 0
λ é valor próprio de
A ⇐⇒ |A − λIn | = 0 ⇐⇒ =0
1 2 − λ
⇐⇒ λ = 1 ∨ λ = 2

Portanto os valores próprios de A são: 1 e 2. Determinemos os subespaços próprios


M1 e M2 . Por denição

M1 = {X ∈ M2×1 (R) : AX = 1X} = {X ∈ M2×1 (K) : (A − 1I2 )X = 0}


M2 = {X ∈ M2×1 (R) : AX = 2X} = {X ∈ M2×1 (K) : (A − 2I2 )X = 0}

• M1 : Temos    
1−1 0 0 0
A − 1I2 = =
1 2−1 1 1

8 Ana L. Correia
e, portanto,

( (
0=0 −
(A − 1I2 )X = 0 ⇐⇒ ⇐⇒ .
x+y = 0 y = −x

Segue-se que

           
x x 1 1
M1 = ∈ M2×1 (R): y = −x = :x ∈ R = x :x ∈ R =
y −x −1 −1

e temos mg(1) = dim M1 = 1.


• M2 : Temos

       
1−2 0 −1 0 1 0 1 0
A − 2I2 = = −→ −→
1 2−2 1 0 L1 ↔L2 −1 0 L1 +L2 0 0

e, portanto,
( (
x=0 x=0
(A − 2I2 )X = 0 ⇐⇒ ⇐⇒ .
0=0 −
Segue-se que

           
x 0 0 0
M2 = ∈ M2×1 (R) : x = 0 = :y∈R = y :y∈R =
y y 1 1

e temos mg(2) = dim M2 = 1.

A proposição 1.10, e estas observações, permitem-nos rela ionar os onjuntos Eλ


e Mλ e determinar fa ilmente os valores e vetores próprios de um endomorsmo f,
à usta de qualquer matriz que represente f.

Teorema 1.14. Seja E um espaço vetorial sobre K de dimensão nita n e seja


f : E → E um endomorsmo de E . Fixemos uma base B = e1 , . . . , en em E e
seja A = M(f ; B, B) a matriz que representa f relativamente a B. Então:
   

 α1 

  . 
(a) Eλ =
n .
α1 , . . . , αn ∈ R :  .  ∈ Mλ .

 

αn

(b) mg(λ) = dim Eλ = dim Mλ = n − rank (A − λIn ) ≤ n.

( ) λ ∈ K é valor próprio de f se e só se |A − λIn | = 0 se e só se λ é raiz do


polinómio pA(x) = |A − xIn |.

Demonstração. (a) Sabemos, pela Proposição 1.6-(a), que Eλ = Nuc(f −λ idE ). Por
outro lado, se A = M(f ; B, B), então A − λIn representa o endomorsmo f − λ idE

21003 - Álgebra Linear II 9


relativamente à base B, A − λIn = M(f − λ idE ; B, B). Logo
isto é,

   

 α 1 

 n  .. 
Eλ = Nuc(f − λ idE ) = α1 , . . . , αn ∈ R : (A − λIn )  .  = 0

 

αn
   

 α1 

 n  .. 
= α1 , . . . , αn ∈ R :  .  ∈ Mλ .

 

αn

(b) Como f − λ idE é um endomorsmo de E, então

Nuc(f − λ idE ) = dim E − rank (A − λIn ) = n − rank (A − λIn ) ≤ n.

Logo, por (a) temos

mg(λ) = dim Eλ = dim Nuc(f − λ idE ) = n − rank (A − λIn ) = dim Mλ ,

omo queríamos.
( ) Temos

λ∈K é valor próprio de f ⇐⇒ λ∈K é valor próprio de A


Prop. 1.10

⇐⇒ |A − λIn | = 0 ⇐⇒ pA (λ) = 0,
Prop. 1.11

o que prova as armações.

Para o aso parti ular do es alar λ=0 temos o resultado seguinte:

Corolório 1.15. Seja E um espaço vetorial sobre K de dimensão nita n e seja


f : E → E um endomorsmo de E . São equivalentes as armações seguintes:

λ = 0 é valor próprio de f ;
(a)

(b) E0 = Nuc f 6= {0E }.

( ) |A| = 0, para qualquer matriz A ∈ Mn×n (K) que represente f .

Demonstração. (a) ⇔ (b): Pela Proposição 1.6. (a) ⇔ ( ): Pelo Teorema 1.14.
Portanto as três ondições são equivalentes.

O Teorema 1.14 é bastante útil para determinarmos os valores próprios e os


subespaços próprios de um endomorsmo, omo eviden iaremos na resolução do
exer í io seguinte.

Exer í io 1.16. Seja f : R3 → R3 a apli ação linear denida, para qualquer (x, y, z)
∈ R3 , por f (x, y, z) = (−y − z, −2x + y − z, 4x + 2y + 4z). Determine os valores
próprios e bases para os subespaços próprios de f .

10 Ana L. Correia
Resolução. Seja (1, 0, 0), (0, 1, 0), (0, 0, 1)

a base anóni a de R3 . Como

f (1, 0, 0) = (0, −2, 4) , f (0, 1, 0) = (−1, 1, 2) , f (0, 0, 1) = (−1, −1, 4)


então  
0 −1 −1
A = M(f ; b. R3 , b. R3 ) = −2 1 −1 .
4 2 4
Temos

−x −1 −1 −x −1 −1

pA (x) = |A − xI3 | = −2 1 − x −1 = −2 + x 2 − x 0
4 L −L
2 4 − x 2 1 4 2 4 − x

−x −1 −1 −1 − x 0 −1

= (2 − x) −1 1 0 = (2 − x) −1 1 0
4 L +L
2 4 − x L31+4L22 0 6 4 − x
 
= (2 − x) (−1 − x)(4 − x) + 6 = (2 − x)2 (1 − x) .

Portanto, pelo Teorema 1.14-( ), 1 e 2 são os valores próprios de f.


Determinação dos subespaços próprios de f: Por denição

 subespaço próprio asso-


E1 = (x, y, z) ∈ R3 : f (x, y, z) = 1(x, y, z) − iado ao valor próprio 1
 subespaço próprio asso-
E2 = (x, y, z) ∈ R3 : f (x, y, z) = 2(x, y, z) − iado ao valor próprio 2

Para determinar E1 e E2 vamos re orrer à matriz A = M(f ; b. R3 , b. R3 ).


• E1 : Temos
 
−1 −1 −1
f (x, y, z) = (x, y, z) ⇐⇒ (A − I3 )X = 0 ⇐⇒ −2 0 −1 X = 0.
4 2 3
A − I3 , obtemos
Efetuando transformações elementares sobre as linhas de
       
−1 −1 −1 −1 −1 −1 −1 −1 −1 −1 1 0
−2 0 −1 −→  0 2 1  −→  0 2 1  −→  0 2 1 .
L2 −2L1 L3 +L2 L1 +L2
4 2 3 L3 +4L1 0 −2 −1 0 0 0 0 0 0

Portanto, rank (A − I3 ) = 2 logo, pelo Teorema 1.14-(b), dim E1 = 3 − 2 = 1


e temos
( (
−x + y = 0 x=y
(A − I3 )X = 0 ⇐⇒ ⇐⇒ .
2y + z = 0 z = −2y

Deste modo,

E1 = (x, y, z) ∈ R3 : f (x, y, z) = (x, y, z) = {(y, y, −2y) : y ∈ R} = h(1, 1, −2)i .

Portanto (1, 1, −2) é uma base de E1 .

21003 - Álgebra Linear II 11


• E2 : Temos
 
−2 −1 −1
f (x, y, z) = 2(x, y, z) ⇐⇒ (A − 2I3 )X = 0 ⇐⇒ −2 −1 −1 X = 0.
4 2 2
Ora    
−2 −1 −1 −2 −1 −1
−2 −1 −1 −→  0 0 0 .
L2 −L1
4 2 2 L3 +2L1 0 0 0
Portanto, rank (A − 2I3 ) = 1 logo, pelo Teorema 1.14-(b), dim E2 = 3 − 1 = 2
e temos

(A − 2I3 )X = 0 ⇐⇒ −2x − y − z = 0 ⇐⇒ y = −2x − z.

Deste modo,

E2 = (x, y, z) ∈ R3 : f (x, y, z) = (x, y, z) = {(x, −2x − z, z) : x, z ∈ R}
= {x(1, −2, 0) + z(0, −1, 1) : x, z ∈ R} = h(1, −2, 0), (0, −1, 1)i .

Portanto (1, −2, 0), (0, −1, 1) é uma base de E2 .

Denição 1.17. Seja A ∈ Mn×n (K).

• Chamaremos polinómio ara terísti o de A ao polinómio

pA (x) = |A − xIn | ∈ K[x].

• Chamaremos multipli idade algébri a de um valor próprio λ ∈ K de A, que


denotaremos por ma(λ), ao número de vezes que λ o orre omo raiz de
pA (x), i.e. o maior inteiro k tal que (λ − x)k é um fator de pA (x).

Na Proposição 1.20 justi aremos que, de fa to, pA (x) é sempre um polinómio


em K[x]. Mas antes daremos mais exemplos do seu ál ulo.
 

Exemplo 1.18.
2 −i 0
Seja A =  i 2 0 ∈ M3×3 (C). Queremos determinar os valores
0 0 3
próprios e as respetivas multipli idades algébri as.

Temos, então, de determinar as raízes do polinómio ara terísti o deA. Ora



Usamos o de- 2 − x −i 0
senvolvimento 2 − x −i
pA (x) = |A − xI3 | = i 2−x 0 = (3 − x)(−1)
3+3
de Lapla e re- 0 i 2 − x
lativamente à 0 3−x
 
3a linha (ou = (3 − x) (2 − x)2 + i2 = (3 − x)(x2 − 4x + 3)
3a oluna).
= (3 − x)(x − 1)(x − 3) = (3 − x)2 (1 − x) .

12 Ana L. Correia
Logo
pA (x) = 0 ⇐⇒ (3 − x)2 (1 − x) = 0 ⇐⇒ x = 3 ∨ x = 1.
Portanto os valores próprios de A são 3 e 1. Como 3 o orre duas vezes omo raiz do
polinómio ara terísti o pA (x) temos ma(3) = 2, e omo 1 é raiz simples de pA (x)
então ma(1) = 1.
A existên ia de valores (e, portanto, de vetores próprios) de uma matriz também
depende do orpo sobre o qual onsideramos as suas entradas.
 
Exemplo 1.19. Seja A =
1 −1
1 0
∈ M2×2 (R). Temos

1 − x −1

pA (x) = |A − xI2 | = = (1 − x)(−x) + 1 = x2 − x + 1.
1 −x
Ora, usando a fórmula resolvente para equações do segundo grau,
√ √
2 1± 1−4 1 ± −3
pA (x) = 0 ⇐⇒ x − x + 1 = 0 ⇐⇒ x = = 6∈ R.
2 2
Portanto A omo matriz real não tem valores nem vetores próprios. No entanto,
se onsiderarmos A
√ √
∈ M2×2 (C), a matriz tem dois valores próprios distintos: λ1 =
1+ 3i 1− 3i
e λ2 = .
2 2

O polinómio ara terísti o de uma matriz quadrada A = [aij ]i,j=1,...,n , de tipo


n × n, tem grau n. Para provarmos esta armação temos de re orrer ao ál ulo
do determinante omo uma soma de produtos om n fatores, om tantas par elas
quanto o número de permutações dos números 1, 2, . . . , n. Além disso, ada par ela
é um produto de entradas de A es olhidas uma em ada linha e em ada oluna,
sem repetições, e fazemos todas as possíveis. O sinal de ada par ela depende da
es olha das entradas nas linhas e nas olunas. Por exemplo, para o aso 3 × 3:
|A| = a11 a22 a33 − a11 a23 a32 + a12 a23 a31 − a12 a21 a33 + a13 a21 a32 − a13 a22 a31
X Reveja, se ne-
= (−1)n(σ) a1σ(1) a2σ(2) a3σ(3) , essário, o ál-
σ∈S3
ulo do determi-
nante.
om S3 = {σ1 , σ2 , σ3 , σ4 , σ5 , σ6 } e σi : {1, 2, 3} → {1, 2, 3} permutações do onjunto
{1, 2, 3} denidas por
σ1 = id : 1 7→ 1 σ2 : 1 7→ 1 σ3 : 1 7→ 2 σ4 : 1 7→ 2 σ5 : 1 7→ 3 σ6 : 1 7→ 3
2 7→ 2 , 2 7→ 3 , 2 7→ 3 , 2 7→ 1 , 2 7→ 1 , 2 7→ 2
3 7→ 3 3→ 7 2 3→ 7 1 3→ 7 3 3→7 2 3→ 7 1
e n(σ) é o número de pares (i, j) tais que i<j mas σ(i) > σ(j), om i, j = 1, 2, 3.
Portanto

n(σ1 ) = 0, n(σ2 ) = 1, n(σ3 ) = 2, n(σ4 ) = 1, n(σ5 ) = 2, n(σ6 ) = 3.


O Teorema Fundamental da Álgebra - TFA - vai permitir armar que toda a
matriz omplexa tem sempre valores e vetores próprios. O mesmo já não se passa
om as matrizes reais, omo já observámos no Exemplo 1.4.

21003 - Álgebra Linear II 13


Teorema Fundamental da Álgebra (Gauss, 1799). Qualquer polinómio
p(x) de grau n e om oe ientes omplexos é da forma

p(x) = k(x − a1 )(x − a2 ) · · · (x − an )

para ertas onstantes k, a1 , a2 , ..., an ∈ C. Ou seja, qualquer polinómio não


onstante tem n raízes em C: a1 , a2 , ..., an ∈ C são as n raízes do polinómio
p(x), eventualmente iguais.

Proposição 1.20. Seja A ∈ Mn×n (K). Então pA (x) = |A−xIn | é um polinómio


om oe ientes em K, om grau n, e tem a forma
pA (x) = (−1)n xn + cn−1 xn−1 + · · · + c1 x + c0 .

Além disso:
tr A denota o (a) cn−1 = (−1)n−1 tr A e c0 = |A|.
traço da matriz
A e é, por de- (b) A tem no máximo n valores próprios distintos.
nição, a soma
de todos os ele- ( ) Se λ é valor próprio de A então ma(λ) ≤ n.
mentos da dia-
gonal prin ipal
de A. Demonstração. Suponhamos A = [aij ]i,j=1,...,n . Temos, na notação a ima,

a11 − x a · · · a
12 1n
a21 a22 − x · · · a2n

pA (x) = |A − xIn | = .. .. ..
. . .

an1 an2 · · · ann − x
X
Sn é o onjunto = (−1)n(σ) P1σ(1) P2σ(2) . . . Pnσ(n)
de todas as per- σ∈Sn
mutações do on-
junto {1,2,...,n} onde, para ada 1 ≤ i ≤ n,
e tem n! elemen- (
tos. aii − x se σ(i) = i
Piσ(i) = .
aiσ(i) se σ(i) 6= i

Deste modo, |A − xIn | é um polinómio om oe ientes em K, na indeterminada x

pA (x) = |A − xIn | ∈ K[x].

Além disso, temos


X
|A − xIn | = (a11 − x)(a22 − x) · · · (ann − x) + (−1)n(σ) P1σ(1) P2σ(2) · · · Pnσ(n) ,
σ∈Sn ,σ6=id

onde, para ada σ ∈ Sn \ {id},

P1σ(1) P2σ(2) · · · Pnσ(n) ∈ K[x] om grau ≤n−2

14 Ana L. Correia
pois ontém, no máximo, n−2 fatores da forma aii − x. Como

(a11 − x)(a22 − x) · · · (ann − x) = (−1)n xn + (−1)n−1 (a11 + a22 + · · · + ann )xn−1


+ · · · + a11 a22 · · · ann
| {z }
par elas de grau ≤n−2

temos

pA (x) = |A − xIn | = (−1)n xn + (−1)n−1 (a11 + a22 + · · · + ann )xn−1


+ par elas de grau ≤ n − 2.

Portanto, pA (x) é um polinómio de grau n da forma pA (x) = (−1)n xn + cn−1 xn−1 +


· · · + c1 x + c0 e temos

cn−1 = (−1)n−1 (a11 + a22 + · · · + ann ) = (−1)n−1 tr A,


c0 = pA (0) = |A − 0In | = |A|,

omo se queria. Por m, omo pA (x) tem grau n então, o Teorema Fundamental
da Álgebra - TFA, garante-nos que pA (x) tem no máximo n raízes distintas, e não
k
pode admitir fatores do tipo (λ − x) om k > n, o que prova (b) e ( ).

Para o aso de uma matriz A de tipo 3×3 os ál ulos a ima são traduzidos por:

pA (x) = |A − xIn | = (a11 − x)(a22 − x)(a33 − x) − (a11 − x)a23 a32 + a12 a23 a31
− a12 a21 (a33 − x) + a13 a21 a32 − a13 (a22 − x)a31
= −x3 +(a11 + a22 + a33 )x2 −(a11 a22 + a11 a33 + a22 a33 )x + a11 a22 a33 − a11 a23 a32
+ a23 a32 x + a12 a23 a31 − a12 a21 a33 + a12 a21 x + a13 a21 a32 − a13 a22 a31 + a13 a31 x
= −x3 +(a11 +a22 +a33 ) x2 −(a11 a22 +a11 a33 +a22 a33 +a23 a32 +a12 a21 +a13 a31 )x
| {z }
tr A
+ a11 a22 a33 − a11 a23 a32 + a12 a23 a31 − a12 a21 a33 + a13 a21 a32 − a13 a22 a31
| {z }
|A|

Exemplo 1.21. No aso da matriz do Exemplo 1.18, temos pA (x) = (3−x)2 (1−x) =
−x3 + 7x2 − 15x + 9 - polinómio de grau 3 om 7 = tr A e 9 = |A|, omo esperado.

Corolório 1.22. Seja A ∈ M . Então A tem n valores próprios em C,


n×n (C)
eventualmente iguais. Logo A tem vetores próprios em Mn×1 (C).

Demonstração. Os valores próprios de A são as raízes do polinómio ara terísti o


pA (x) = |A − xIn | ∈ C[x] que tem grau n - Proposição 1.20. O TFA garante que
pA (x) tem n raízes em C, eventualmente iguais. E se A tem valores próprios, A tem
vetores próprios, pois Mλ 6= {0n×1 }.

21003 - Álgebra Linear II 15


Seja E de dimensão nita n e seja f : E → E um
um espaço vetorial sobre K

endomorsmo de E . Dadas duas bases B e B de E e dadas as matrizes A =
M(f ; B, B) e B = M(f ; B , B ) que representam f relativamente às bases B e B′ ,
′ ′

respetivamente, temos

f
E′ −→ E′
 B Bx
B

idE yP

QidE om Q = M(idE ; B, B′ ) = M(idE ; B′ , B)−1 = P −1
f
E −→ E
B A B

B = P −1 AP , ou seja as matrizes A e B que representam o mesmo


e, portanto,
endomorsmo f são semelhantes. O resultado seguinte garante-nos que A e B têm
o mesmo polinómio ara terísti o, o que nos permitirá denir, sem ambiguidade, o
on eito de polinómio ara terísti o de um endomorsmo.

Proposição 1.23. Sejam A, B ∈ Mn×n (K). Se A e B são semelhantes então


têm o mesmo polinómio ara terísti o, i.e.,

pA (x) = |A − xIn | = |B − xIn | = pB (x).

Demonstração. Se A e B são semelhantes, então B = P −1 AP , para alguma matriz


invertível P. Desta forma, usando as propriedades dos determinantes,

pB (x) = |B − xIn | = |P −1AP − xIn | = |P −1AP − xP −1 In P | = |P −1(A − xIn )P |


1
= |P −1||A − xIn ||P | = |A − xIn ||P | = |A − xIn | = pA (x)
|P |

e armação está provada.

Denição 1.24. Seja E um espaço vetorial sobre K de dimensão nita n e seja


f: E →E um endomorsmo de E.

• Chamaremos polinómio ara terísti o de f ao polinómio p(x) = |A − xIn |,


onde A = M(f ; B, B) é uma matriz que representa f em relação a uma
base B de E .

• Chamaremos multipli idade algébri a de um valor próprio λ ∈ K de f , que


denotaremos por ma(λ),
ao número de vezes que λ o orre omo raiz de
p(x), i.e. o maior inteiro k tal que (λ − x)k é um fator de p(x).

A igualdade entre as multipli idades algébri a e geométri a de um valor próprio


terá um papel importante no estudo da diagonalização. Mas nem sempre temos a
garantia que isso o orra.

16 Ana L. Correia
Exemplo 1.25. Consideremos um endomorsmo
3
f : R3 → R3 que é representado,
em relação a uma erta base B de R , pela matriz
 
2 −1 1
A = M(f ; B, B) = 0 3 −1 ∈ M3×3 (R).
2 1 3
Como

2 − x −1 1 2 − x 2 − x 0

pA (x) = 0 3 − x −1 = 0 3 − x −1
2 L +L
1 3 − x 1 2 2 1 3 − x

1 1 0 1 1 0

= (2 − x) 0 3 − x −1 = (2 − x) 0 3 − x −1
2 L −2L
1 3 − x 3 1 0 −1 3 − x

3 − x −1
= (2 − x)(−1)1+1 = (2 − x)[(3 − x)2 − 1]
−1 3 − x
= (2 − x)2 (4 − x),
então 2, 4 são os valores próprios de f (e de A). Além disso,

ma(2) = 2 e ma(4) = 1.
Usando o Teorema 1.14, temos
 
0 −1 1
mg(2) = 3 − rank (A − 2I3 ) = 3 − rank 0 1 −1 = 3 − 2 = 1.
2 1 1
Portanto, neste exemplo,
mg(2) = 1 < 2 = ma(2).

1.2 Matrizes e endomorsmos diagonalizáveis


Como observado anteriormente um problema entral em Álgebra Linear é en ontrar
uma representação matri ial simples para um endomorsmo f : E → E de um espaço
E . Um aminho natural para isso é de ompor o espaço E em blo os simples
(subespaços espe iais de dimensões menores) onde a ação de f seja fá il de des rever,
ou seja a restrição de f a esses subespaços tenha representações matri iais simples,
e onstruir uma matriz para f à usta dessas matrizes. A noção de subespaço
invariante é a ferramenta essen ial para a resolução deste problema.

1.2.1 Invariân ia
Pretendemos es olher bases para E de tal forma que a representação matri ial de
um endomorsmo f: E → E de E seja o mais simples possível. Estamos parti -
ularmente interessados em ondições que garantam que essa representação simples
seja dada por uma matriz diagonal. Para o efeito, vamos en ontrar ondições que
permitam:

21003 - Álgebra Linear II 17


• obter subespaços invariantes - em parti ular subespaços próprios asso iados
aos valores próprios de f;

• de ompor E omo soma direta de subespaços invariantes;

• onstruir uma base para E que seja a união de bases para os subespaços que
interveem na de omposição em soma direta;

• representar matri ialmente a restrição de f a ada subespaço invariante e on-


struir uma representação matri ial de f à usta das representações matri iais
das restrições.

Denição 1.26. Seja E um espaço vetorial sobre K e seja f: E → E um


endomorsmo de E. Diremos que um subespaço F de E é f -invariante (ou
invariante sob f ) se f transformar F em si mesmo, i.e. se

f (F ) ⊆ F.

Observação. Seja f: E →E um endomorsmo de um espaço E.

(a) Existem sempre subespaços f -invariantes de E . De fa to, os subespaços {0E }


e E são exemplos triviais de subespaços f -invariantes, pois

f ({0E }) = {f (0E )} = {0E } e f (E) = Im f ⊆ E.

(b) Se F é um subespaço f -invariante, então a apli ação restrição de f F dene


a
um endomorsmo de F . Efetivamente, omo f (u) ∈ F para todo u ∈ F ,
temos

f|F : F → F om f|F (u) = f (u), para todo u ∈ F.


É laro da denição que sendo f uma apli ação linear também f|F é uma
apli ação linear e, portanto, f|F é um endomorsmo de F.

Os subespaços próprios são exemplos não triviais de subespaços invariantes. De


fa to, temos por denição de Eλ ,

v ∈ Eλ ⇐⇒ f (v) = λv =⇒ f (v) ∈ Eλ .

Exemplo 1.27. Seja f: E → E um endomorsmo de um espaço E. Se λ∈K é


um valor próprio de f então o subespaço próprio Eλ é um subespaço f -invariante.
Assim, temos

f (Eλ ) ⊆ Eλ
e, portanto, f|Eλ é um endomorsmo de Eλ .

18 Ana L. Correia
A proposição seguinte eviden ia o bom omportamento dos subespaços invari-
antes relativamente às representações matri iais.

Proposição 1.28. Seja f : E → E um endomorsmo de E e seja F um sube-


spaço de E om dim F = k ≤ n = dimE . Se F for f -invariante então f terá
A1 B
uma representação matri ial de blo os onde A1 ∈ Mk×k (K) é uma
0 A2
matriz que representa a restrição f|F . Além disso, temos B ∈ Mk×(n−k) (K),
A2 ∈ M(n−k)×(n−k) (K).

Demonstração. Seja B1 = e1 , . . . , ek
F . Sabemos, da teoria geral da
uma base de É o Teorema do
Álgebra Linear, que podemos ompletá-la a uma base B = e1 , . . . , ek , v1 , . . . , vs de Completamento
E , om k + s = n. Uma vez que F é f -invariante, temos ou Teorema da
Base In omple-
hf (e1 ), . . . , f (ek )i = f (F ) ⊆ F = he1 , . . . , ek i . ta.

Portanto todas as imagens f (ei ) se es revem omo ombinação linear dos vetores
e1 , . . . , ek de F . Mas, para as imagens dos vetores v1 , . . . , vs , somente podemos
armar que f (v1 ), . . . , f (vs ) ∈ E = he1 , . . . , ek , v1 , . . . , vs i. Desta forma,

f|F (e1 ) =f (e1 ) = a11 e1 + a21 e2 + · · · + ak1 ek ,


f|F (e2 ) =f (e2 ) = a12 e1 + a22 e2 + · · · + ak2 ek ,
..
.

f|F (ek ) =f (ek ) = a1k e1 + a2k e2 + · · · + akk ek ,


f (v1 ) = b11 e1 + b21 e2 + · · · + bk1 ek + c11 v1 + c21 v2 + · · · + cs1 vs
f (v2 ) = b12 e1 + b22 e2 + · · · + bk2 ek + c12 v1 + c22 v2 + · · · + cs2 vs
..
.

f (vs ) = b1s e1 + b2s e2 + · · · + bks ek + c1s v1 + c2s v2 + · · · + css vs


Quer dizer que
 
a11 a12 · · · a1k b11 b12 · · · b1s
 a21 a22 · · · a2k b21 b22 · · · b2s 
 . . . . . . 

 . .. .. .. .. ..
 .   
 
 a a · · · akk bk1 bk2 · · · bks  A1 B
M(f ; B, B) =  k1 k2 = .
 0 0 · · · 0 c11 c12 · · · c1s  0 A2
 
 0 0 · · · 0 c21 c22 · · · c2s 
 . . . . . . 
 .. .. .. .. .. .. 

0 0 ··· 0 cs1 cs2 · · · css


Das primeiras k equações resulta que A1 = M(f|F ; B1 , B1 ) ∈ Mk×k (K). Por m,
B ∈ Mk×(n−k) (K), A2 ∈ M(n−k)×(n−k) (K), omo armado.
A representação matri ial  ará ainda mais simpli ada se o blo o B também
for zero. Para isso, é ne essário que seja possível de ompor o espaço E omo uma
soma direta de dois subespaços f -invariantes.

21003 - Álgebra Linear II 19


Relembremos que dados dois subespaços F, G de E, os onjuntos

F + G = {u + v : u ∈ F, v ∈ G} e F ∩ G = {v ∈ E : v ∈ F ∧ v ∈ G}

são dois subespaços vetoriais de E. O subespaço F +G diz-se a soma dos subespaços


F e G e o subespaço F ∩G diz-se a interseção dos subespaços F e G. A dimensão
destes subespaços está rela ionada pela igualdade
Teorema das
Dimensões. dim(F + G) = dim F + dim G − dim(F ∩ G).

Se F ∩ G = {0E } então a soma F +G diz-se direta e es reve-se F ⊕ G. O on eito


de soma direta tem espe ial interesse quando o espaço E se pode de ompor omo
soma direta de dois subespaços, i.e, quando temos

E = F ⊕ G.

Isto signi a que ada vetor de E se es reve omo soma de um vetor de F om um


vetor de G - porque E = F +G - e que esta es rita é úni a - porque F ∩ G = {0E }.
A de omposição em soma direta tem espe ial interesse se os subespaços interve-
nientes também forem invariantes para um dado endomorsmo. Neste aso a matriz
da Proposição 1.28 virá om o blo o B = 0, omo queríamos.

Proposição 1.29. Sejam F, G dois subespaços


 vetoriais de um espaço vetorial
E sobre K. Sejam B1 = v11 , . . . , v1n1 uma base de F e B2 = v21 , . . . , v2n2
uma base de G. Então

(a) E = F ⊕ G se e só se B = B1 ∪ B2 = v11 , . . . , v1n1 , v21 , . . . , v2n2 é uma
base de E .
(b) Suponhamos que E = F ⊕ G. Então:
(i) dim E = dim F + dim G.
(ii) Se f : E → E é um endomorsmo de E e F , G são f -invariantes,
então  
A1 0
A = M(f ; B, B) =
0 A2
onde A1 = M(f|F ; B1 , B1 ) ∈ Mn1 ×n1 (K) e A2 = M(f|G ; B2 , B2 ) ∈
Mn2 ×n2 (K).

Este resultado pode ser generalizado a um número nito de subespaços. Desta


forma, a Proposição 1.29 será um orolário simples do resultado mais geral que
apresentaremos abaixo - Teorema 1.30.

Ora, mais geralmente, k subespaços F1 , . . . , Fk de E estão em soma direta se

Fi ∩ (F1 + · · · + Fi−1 + Fi+1 + · · · + Fk ) = {0E }, (1.2)

para todo 1 ≤ i ≤ k, e es reve-se

F1 ⊕ · · · ⊕ Fk .

20 Ana L. Correia
Dizemos que E é soma direta dos subespaços F1 , . . . , Fk se

E = F1 ⊕ F2 ⊕ · · · ⊕ Fk .
Isto signi a que todo o vetor u∈E pode ser es rito de maneira úni a na forma

u = w1 + w2 + · · · + wk
om w1 ∈ F1 , w2 ∈ F2 ,. . . ,wk ∈ Fk . De fa to, se tivermos

u = w1 + w2 + · · · + wk e u = v1 + v2 + · · · + vk
om w1 , v1 ∈ F1 , w2 , v2 ∈ F1 , . . . , wk , vk ∈ Fk , então, para 1 ≤ i ≤ k,
k
X
wi − vi ∈ Fi e wi − vi = (vj − wj ) ∈ F1 + · · · + Fi−1 + Fi+1 + · · · + Fk
j=1
j6=i

e, portanto, wi − vi perten e á interse ção (1.2), ou seja wi = vi .

Teorema 1.30. SejamF , F , . . . , F1 2 subespaços


k vetoriais de E sobre  K. Se-
jam B1 = v11 , . . . , v1n1 , B2 = v21 , . . . , v2n2 , . . . , Bk = vk1 , . . . , vknk bases de
F1 , F2 , . . . , Fk , respetivamente. Então

(a) E = F1 ⊕ F2 ⊕ · · · ⊕ Fk se e só se

B = B1 ∪ B2 ∪ · · · ∪ Bk = v11 , . . . , v1n1 , . . . , v21 , . . . , v2n2 , . . . , vk1, . . . , vknk

é uma base de E .
(b) Suponhamos que E = F1 ⊕ F2 ⊕ · · · ⊕ Fk . Então:
(i) dim E = dim F1 + dim F2 + · · · + dim Fk .
(ii) Se f : E → E é um endomorsmo de E e F1 , . . . , Fk são f -invariantes,
então
 
A1 0 · · · 0
 0 A2 · · · 0 
 
A = M(f ; B, B) =  .. .. ..  = diag(A1 , A2 , . . . , Ak )
 . . . 
0 0 · · · Ak

onde Ai = M(f|Fi ; Bi , Bi ) ∈ Mni ×ni (K), i = 1, . . . , k .

Demonstração. (a)  ⇒: Suponhamos que E = F1 ⊕ F2 ⊕ · · · ⊕ Fk . Então, para


qualquer u ∈ E , u = w1 + w2 + · · · + wk om wi ∈ Fi , i = 1, . . . , k . Como Bi =
vi1 , . . . , vini é base de Fi então o vetor wi é ombinação linear dos vetores de Bi .
Quer dizer que existem es alares α11 , . . . , α1n1 , α21 , . . . , α2n2 , . . . , αk1 , . . . , αknk ∈ K
tais que

u = α11 v11 + · · · + α1n1 v1n1 + α21 v21 + · · · + α2n2 v2n2 + · · ·+ αk1 vk1 + · · · + αknk vknk

21003 - Álgebra Linear II 21


e, portanto, B = B1 ∪ B2 ∪ · · · ∪ Bk gera E .
Mostraremos, agora, que B é um sistema linearmente independente. Suponhamos
que

α11 v11 + · · · + α1n1 v1n1+ α21 v21 + · · · + α2n2 v2n2+ · · · +αk1vk1 + · · · + αknk vknk = 0E .

Ora temos, para ada i,


αi1 vi1 + · · · + αini vini ∈ Fi
e também temos 0E = 0E + 0E + · · · + 0E om 0E ∈ Fi . Portanto, por uni idade da
es rita de um vetor omo soma de vetores de F1 , . . . , Fk , ne essariamente

α11 v11 + · · · + α1n1 v1n1 = 0E , α21 v21 + · · · + α2n2 v2n2 = 0E


, . . . , αk1 vk1 + · · · + αknk vknk = 0E .

Por m a independên ia de ada Bi impli a que

α11 , . . . , α1n1 = 0 , α21 , . . . , α2n2 = 0 , . . . , αk1 , . . . , αknk = 0.

Logo B é um sistema linearmente independente, e omo gera E é uma base.


 ⇐: Suponhamos que B é uma base de E. Por hipótese geral, Bi gera Fi ,
i = 1, . . . , k . Assim, temos

E = hv11 , . . . , v1n1 , v21 , . . . , v2n2 , . . . , vk1, . . . , vknk i


= hv11 , . . . , v1n1 i + hv21 , . . . , v2n2 i + · · · + hvk1 , . . . , vknk i
= F1 + F2 + · · · + Fk .

Agora, suponhamos que u ∈ Fi ∩ (F1 + · · · + Fi−1 + Fi+1 + · · · + Fk ), om vista a


provar que u = 0E . Portanto

u = wi e u = w1 + · · · + wi−1 + wi+1 + · · · + wk

om wj ∈ Fj para j = 1, 2, . . . , n. Logo

0E = w1 + · · · + wi−1 − wi + wi+1 + · · · + wk . (1.3)

Como ada wj = αj1 vj1 + · · · + αjnj vjnj é uma ombinação linear dos vetores da
base Bj , então (1.3) origina uma ombinação linear nula dos vetores da base B =
B1 ∪ B2 ∪ · · · ∪ Bk de E e, portanto, todos os es alares terão de ser nulos. Quer
dizer que, para ada j ,

wj = αj1 vj1 + · · · + αjnj vjnj = 0v11 + · · · + 0vjnj = 0E .

Logo u = 0E , omo queríamos.

(b)-(i) Por (a) sabemos que B = B1 ∪ B2 ∪ · · · ∪ Bk é uma base de E, om B1


base de F1 , B2 base de F2 ,..., Bk base de Fk . Logo
#B é o número dim E = #B = n1 + n2 + · · · + nk = #B1 + #B2 + · · · + #Bk
de elementos do
onjunto B . = dim F1 + dim F2 + · · · + dim Fk .

22 Ana L. Correia
F1 , . . . , Fk serem subespaços f -invariantes.
(b)-(ii) Temos a hipótese adi ional de
Quer dizer que, dado um vetor genéri o vij da base B temos de o situar na base Bi
de Fi e, omo Fi é f invariante a sua imagem vai também perten er a Fi , ou seja
vai-se es rever somente à usta dos vetores da base Bi onde perten ia. Isto é, temos

f|F1 (v11 ) = f (v11 ) , f|F1 (v12 ) = f (v12 ) , . . . , f|F1 (v1n1 ) = f (v1n1 ) ∈ F1 = hv11 , . . . , v1n1 i
f|F2 (v21 ) = f (v21 ) , f|F2 (v22 ) = f (v22 ) , . . . , f|F2 (v2n2 ) = f (v2n2 ) ∈ F2 = hv21 , . . . , v2n2 i
.
..

f|Fk (vk1 ) = f (vk1 ) , f|Fk (vk2 ) = f (vk2 ) , . . . , f|Fk (vknk ) = f (vknk ) ∈ Fk = hvk1 , . . . , vknk i
Isto signi a que a matriz que representa f na base B = B1 ∪ B2 ∪ · · · ∪ Bk é
uma matriz formada por k blo os que são as matrizes das restrições de f a ada
subsespaço Fi . Portanto
 
A1 0 · · · 0
 0 A2 · · · 0 
 
M(f ; B, B) =  .. .
..
.
..
 = diag(A1 , A2 , . . . , Ak )
 . 
0 0 · · · Ak
om Ai = M(f|Fi ; Bi , Bi ) ∈ Mni ×ni (K), i = 1, . . . , k , omo queríamos.

1.2.2 Diagonalização
Estamos espe ialmente interessados em estudarmos ondições que nos permitam
averiguar se um dado endomorsmo é representado, relativamente a alguma base
do espaço, por uma matriz diagonal. Um endomorsmo nessas ondições dir-se-á
diagonalizável. Do mesmo modo, estudaremos ritérios para averiguar se uma matriz
quadrada é diagonalizável, no sentido da denição seguinte.

Denição 1.31.
• SejaE um espaço vetorial sobre K de dimensão nita n e seja f : E → E um
endomorsmo de E . Diremos que f é diagonalizável se f for representado
por uma matriz diagonal, relativamente a alguma base de E .

• Seja A ∈ Mn×n (K). Diremos que A é diagonalizável se for semelhante a


uma matriz diagonal, i.e., se existir uma matriz invertível P ∈ Mn×n (K) e
uma matriz diagonal D ∈ Mn×n (K) tais que

P −1 AP = D.

Uma matriz P nestas ondições diz-se uma matriz diagonalizante de A.

Os fa to dos subespaços próprios serem invariantes para os endomorsmos a que


estão asso iados será relevante para abordarmos a questão da diagonalização. Come-
emos por analisar omo estão rela ionadas as multipli idades algébri a e geométri a
de um valor próprio.

21003 - Álgebra Linear II 23


Teorema 1.32. Sejam E um espaço vetorial sobre K de dimensão n e f : E → E
um endomorsmo de E . Seja λ ∈ K um valor próprio de f . Então
1 ≤ mg(λ) ≤ ma(λ) ≤ n.

Em parti ular:
(a) Se ma(λ) = 1, então mg(λ) = 1.
(b) Se mg(λ) = n, então ma(λ) = n.

Demonstração. A desigualdade 1 ≤ mg(λ) é onsequên ia imediata da Proposição


1.6, pois Eλ 6= {0E } impli a que mg(λ) = dim Eλ ≥ 1. A desigualdade ma(λ) ≤ n
está provada no Proposição 1.20.
Para estabele ermos a desigualdade mg(λ) ≤ ma(λ) suponhamos que mg(λ) =
m. Logo m = dim Eλ e seja B1 = v1 , . . . , vm uma base de Eλ . Como Eλ é um
É, de novo, o subespaço vetorial de E podemos ampliar esta base a uma base de E . Quer dizer

Teorema do que existe uma base B = v1 , . . . , vm , em+1 , . . . , en de E . Como Eλ é f -invariante
Completamento (pelo Exemplo 1.27) então, pela Proposição 1.28,
ou Teorema da  
Base In omple- A1 B
ta. A = M(f ; B, B) = om A1 = M(f|Eλ ; B1 , B1 ).
0 A2
Ora, por denição de Eλ , f (v1 ) = λv1 , f (v2 ) = λv21 ,...,f (vm ) = λvm . Isto
temos
impli a que a matriz que representa f|E na base B1 é uma matriz diagonal, om as
λ
entradas da diagonal prin ipal iguais a λ, i.e.

A1 = M(f|Eλ ; B1 , B1 ) = diag(λ, . . . , λ) = λIm .


Portanto    
A1 B λIm B
A= = .
0 A2 0 A2
 
Im 0
Deste modo, omo In = , temos
0 In−m
   
λIm − xIm B (λ − x)Im B
A − xIn = =
0 A2 − xIn−m 0 A2 − xIn−m
e, portanto,

pA (x) = |A − xIn | = |(λ − x)Im | |A2 − xIn−m | = (λ − x)m |A2 − xIn−m |.


Segue-se que, ma(λ) ≥ m = mg(λ) (pois pode também o orrer algum fator (λ − x)
no desenvolvimento do determinante |A2 − xIn−m |).
As armações (a) e (b) são onsequên ia imediata destas desigualdades.

Exemplo 1.33. Consideremos um endomorsmo


3
f : R3 → R3 que é representado,
em relação a uma erta base B de R , pela matriz
 
2 1 1
A = M(f ; B, B) = 2 3 2 ∈ M3×3 (R).
3 3 4

24 Ana L. Correia
Como

2 − x 1 1 1−x 1 0


pA (x) = |A − xI3 | = 2 3−x 2 = −1 + x 3 − x −1 + x

3 C −C
3 4 − x C31 −C22 0 3 1−x

1 − x 1 0

1+1 4 − x −1 + x
= 0
4 − x −1 + x = (1 − x)(−1)
L2 +L1 3 1−x
0 3 1−x

4 − x −1 + x
= (1 − x) = −(1 − x)(−1 + x)(7 − x)
L2 +L1 7−x 0
= (1 − x)2 (7 − x),

então 1, 7 são os valores próprios de f (e de A). Além disso,

ma(1) = 2 e ma(7) = 1.

Pelo Teorema 1.32, podemos on luir que

1 ≤ mg(1) ≤ ma(1) = 2 e mg(7) = 1.

Usando o Teorema 1.14, temos


   
1 1 1 1 1 1
mg(1) = 3−rank (A−I3 ) = 3−rank 2 2 2 = 3−rank 0 0 0 = 3−1 = 2.
L −L
3 3 3 L23 −L11 0 0 0

Portanto, neste exemplo,

mg(1) = ma(1) = 2 e mg(7) = ma(7) = 1.

Sabemos que se u, v ∈ E forem vetores próprios, de um endomorsmo f de E ,


asso iados ao mesmo valor próprio λ então u, v ∈ Eλ e, portanto, u + v ∈ Eλ .
Vejamos agora o que se passa se u ∈ Eλ1 , v ∈ Eλ2 om λ1 6= λ2 , ou mais geralmente
para um número nito de vetores.

Teorema 1.34. Seja E um espaço vetorial sobre K de dimensão nita e seja


f : E → E um endomorsmo de E . Sejam v1 , . . . , vk ∈ E vetores próprios de
f asso iados a valores próprios distintos λ1 , . . . , λk ∈ K. Então, os vetores
v1 , . . . , vk são linearmente independentes.

Demonstração. Vamos usar indução em k.


No aso de k = 1, o resultado é trivial, visto que um vetor próprio é não-nulo,
logo é linearmente independente.
Admitamos, agora, por hipótese de indução, que a armação é verdadeira para
k vetores, om vista a provar que também o é para k + 1 vetores. Sejam, pois,
v1 , . . . , vk+1 ∈ E vetores próprios de f asso iados a k + 1 valores próprios distintos
λ1 , . . . , λk+1 ∈ K. Consideremos uma ombinação linear nula dos k + 1 vetores

α1 v1 + · · · + αk vk + αk+1vk+1 = 0E . (1.4)

21003 - Álgebra Linear II 25


Como f é linear e f (vi ) = λi vi , i = 1, . . . , k + 1, temos

0E = f (0E ) = f (α1 v1 + · · · + αk vk + αk+1 vk+1 )


= α1 f (v1 ) + · · · + αk f (vk ) + αk+1 f (vk+1 )
= (α1 λ1 )v1 + · · · + (αk λk )vk + (αk+1λk+1 )vk+1 . (1.5)

Por outro lado, multipli ando a igualdade (1.4) por λk+1 obtemos

0E = λk+1 (α1 v1 + · · · + αk vk + αk+1 vk+1 )


= (α1 λk+1 )v1 + · · · + (αk λk+1 )vk + (αk+1 λk+1)vk+1 (1.6)

Subtraindo as igualdades (1.5) e (1.6) deduzimos que

0E = (α1 λ1 − α1 λk+1 )v1 + · · · + (αk λk − αk λk+1)vk + (αk+1 λk+1 − αk+1λk+1 ) vk+1


| {z }
0
= (α1 λ1 − α1 λk+1 )v1 + · · · + (αk λk − αk λk+1)vk (1.7)

Por hipótese de indução, os k vetores próprios, sendo asso iados a valores próprios
distintos, são linearmente independentes. Logo a igualdade (1.7) impli a que

α1 (λ1 − λk+1 ) = α1 λ1 − α1 λk+1 = 0, . . . , αk (λk − λk+1 ) = αk λk − αk λk+1 = 0. (1.8)

Como os valores próprios são todos distintos então das igualdades (1.8) deduzimos
que
α1 = 0, . . . , αk = 0.
Logo
0E = α1 v1 + · · · + αk vk + αk+1 vk+1 = αk+1 vk+1
e omo vk+1 6= 0E terá de serαk+1 = 0. Portanto temos α1 = · · · = αk = αk+1 = 0,
o que prova que os k + 1 vetores v1 , . . . , vk+1 são linearmente independentes. E o
resultado  a provado pelo método de indução matemáti a.

Corolório 1.35. Seja E um espaço vetorial sobre K de dimensão nita e seja


f : E → E um endomorsmo de E . Se λ1 , . . . , λk ∈ K são valores próprios de
f distintos, então a soma dos subespaços próprios orrespondentes é direta, i.e.
temos
Eλ1 ⊕ · · · ⊕ Eλk .

Demonstração. Temos de justi ar que


Eλi ∩ Eλ1 + · · · + Eλi−1 + Eλi+1 + · · · + Eλk = {0E },

para todo 1 ≤ i ≤ k. Seja, então,


v ∈ Eλi ∩ Eλ1 + · · · + Eλi−1 + Eλi+1 + · · · + Eλk .

26 Ana L. Correia
Então, por denição de interseção e de soma de subespaços, temos

v ∈ Eλi e v = v1 + · · · + vi−1 + vi+1 + · · · + vk

para alguns vj ∈ Eλj om 1≤j≤k e j 6= i. Assim obtemos uma ombinação linear


nula dos vetores em jogo

v1 + · · · + vi−1 − v + vi+1 + · · · + vk = 0E . (1.9)

Se algum destes vetores fosse não-nulo, estes vetores seriam vetores próprios asso-
iados a valores próprios distintos, logo linearmente independentes pelo Teorema
1.34 - uma ontradição pois os es alares da ombinação linear (1.9) são não-nulos.
Portanto todos têm de ser vetores nulos, i.e.

v = v1 = · · · = vi−1 = vi+1 = · · · = vk = 0E .

Logo Eλi ∩ Eλ1 + · · · + Eλi−1 + Eλi+1 + · · · + Eλk = {0E }, omo queríamos.

No resultado seguinte estabele emos um ritério para que um endomorsmo seja


diagonalizável.

Proposição 1.36. Seja E um espaço vetorial sobre K de dimensão nita n e


seja f : E → E um endomorsmo de E . Então

f é diagonalizável ⇐⇒ E tem uma base formada por vetores próprios de f .



Além disso, se B = v1 , . . . , vn é uma base de E formada por vetores próprios
de f asso iados aos valores próprios λ1 , . . . , λn (não ne essariamente distintos)
então
A = M(f ; B, B) = diag(λ1 , . . . , λn ).

Demonstração.  ⇒: Suponhamos que f é diagonalizável.


 Então f é representado,
em relação a uma erta base B = v1 , . . . , vn de E , por uma matriz diagonal. Seja

A = M(f ; B, B) = diag(λ1 , . . . , λn )

essa matriz. Então, por denição de matriz de uma apli ação linear, temos

f (v1 ) = λ1 v1 , . . . , f (vn ) = λn vn .

Portanto v1 , . . . , vn são vetores próprios de f e λ1 , . . . , λn são valores próprios de f


(não ne essariamente distintos).

 ⇐: Re ipro amente seja B = v1 , . . . , vn uma base de E formada por ve-
tores próprios de f . Sejam λ1 , . . . , λn os valores próprios de f (não ne essariamente
distintos) asso iados aos vetores v1 , . . . , vn , respetivamente. Então

f (v1 ) = λ1 v1 , . . . , f (vn ) = λn vn

e, portanto, A = M(f ; B, B) = diag(λ1 , . . . , λn ) é uma matriz diagonal. Segue-se


que f é diagonalizável.

21003 - Álgebra Linear II 27


A proposição seguinte é uma onsequên ia simples dos teoremas anteriores.

Corolório 1.37. Seja E um espaço vetorial sobre K de dimensão nita n e seja


f : E → E um endomorsmo de E . Então

f tem exatamente n valores próprios distintos =⇒ f é diagonalizável.

Demonstração. λ1 , . . . , λn são os n valores próprios distintos de


Suponhamos que
f . Então existem n vetores próprios v1 , . . . , vn de f asso iados a λ1 , . . . , λn , re-
spetivamente. Pelo Teorema 1.34, v1 , . . . , vn são linearmente independentes. Como
n = dim E , então estes vetores onstituem uma base de E . Pelo Teorema 1.36, o
endomorsmo f é diagonalizável.

A ondição deste orolário é su iente para que um endomorsmo seja diagonal-
izável, mas não é ne essária. Com efeito, existem endomorsmos om k < n valores
próprios distintos que são diagonalizáveis. Por exemplo, o endomorsmo identidade
idE : E → E satisfaz
idE (v) = v para todo v ∈ E.
Logo 1 ∈ K é o úni o valor próprio de idE . Por outro lado, relativamente a qualquer
base B de E , temos
 
1 ··· 0
 .
M(idE ; B, B) =  ... .  = In = diag(1, . . . , 1)
.
0 ··· 1

e, portanto, idE é diagonalizável.

O resultado seguinte é um ritério muito útil para veri armos se um dado en-
domorsmo é diagonalizável, e justi a a situação deste exemplo.

Teorema 1.38. Seja E um espaço vetorial sobre K de dimensão nita n e seja


f : E → E um endomorsmo de E . Suponhamos que f tem k ≥ 1 valores
próprios distintos λ1 , . . . , λk . As armações seguintes são equivalentes:
(a) f é diagonalizável.

(b) n = ma(λ1 ) + · · · + ma(λk ) e ma(λi ) = mg(λi ) para todo 1 ≤ i ≤ k .

( ) n = mg(λ1 ) + · · · + mg(λk ).

(d) E = Eλ1 ⊕ · · · ⊕ Eλk .

Demonstração. (a) ⇒ (b): Se f é diagonalizável então, pela Proposição 1.36, existe


uma base de B formada por vetores próprios de E . Além disso, M(f ; B, B) é diagonal
e os elementos diagonais são os valores próprios de f . Sejam λ1 , . . . , λk os valores

28 Ana L. Correia
próprios de f distintos. Podemos reordenar, se ne essário, os vetores da base B de
modo que
B′ = (v11 , . . . , v1n1 , v21 , . . . , v2n2 , . . . , vk1 , . . . , vknk )
| {z } | {z } | {z }
asso iados a λ1 asso iados a λ2 asso iados a λk

é base de E formada por vetores próprios asso iados, pela ordem indi ada, aos
valores próprios λ1 , . . . , λk . Logo

v11 , . . . , v1n1 ∈ Eλ1 , v21 , . . . , v2n2 ∈ Eλ2 , . . . , vk1 , . . . , vknk ∈ Eλk


e, omo estes espaços estão em soma direta (pelo Corolário 1.35), e os vetores são
linearmente independente (pelo Teorema 1.34) ne essariamente onstituem uma base
de ada espaço próprio. Consequentemente,

mg(λ1 ) = dim Eλ1 = n1 , mg(λ2 ) = dim Eλ2 = n2 , . . . , mg(λk ) = dim Eλk = nk .


Por outro lado, o Teorema 1.30, garante-nos que relativamente à base B′ (que é uma
união de bases de ada subespaço próprio invariante para f ), o endomorsmo f é
representado por uma matriz de blo os, i.e
 
Aλ1 0 · · · 0  
 0 Aλ · · ·  λi · · · 0
 0   . 
Aλi =  ...
2
A = M(f ; B′ , B′ ) =  .. .. ..  om . .
.
 . . . 
0 · · · λi
0 0 · · · Aλk
Segue-se que

p(x) = |A − xIn | = |Aλ1 − xIn1 | |Aλ2 − xIn2 | · · · |Aλk − xInk |


= (λ1 − x)n1 (λ2 − x)n2 · · · (λk − x)nk .
Portanto n1 + n2 + · · · + nk = n e, omo os λi são todos distintos, temos

ma(λ1 ) = n1 , ma(λ2 ) = n2 , . . . , ma(λk ) = nk .


Portanto vale (b).

(b) ⇒ ( ): Imediata.


( ) ⇒ (d): Pelo Corolário 1.35, os espaços próprios asso iados a valores próprios
distintos estão em soma direta. Logo, pelo Teorema 1.30-(b)-(i), temos

dim(Eλ1 ⊕ · · · ⊕ Eλk ) = dim Eλ1 + · · · + dim Eλk = mg(λ1 ) + · · · + mg(λk ).


Por hipótese, n = mg(λ1 ) + · · · + mg(λk ). Portanto Eλ1 ⊕ · · · ⊕ Eλk é um subespaço
de E e temos
dim(Eλ1 ⊕ · · · ⊕ Eλk ) = n = dim E.
Segue-se que Eλ1 ⊕ · · · ⊕ Eλk = E , o que prova (d).
(d) ⇒ (a): Por hipótese E = Eλ1 ⊕ · · · ⊕ Eλk Sejam B1 , . . . , Bk bases para
Eλ1 , . . . , Eλk , respe tivamente. Pelo Teorema 1.30-(a), B = B1 ∪ · · · ∪ Bk é uma
base de E . E é uma base formada por vetores próprios de E . Logo, pela Proposição
1.36, f é diagonalizável.

Provámos (a) ⇒ (b) ⇒ ( ) ⇒ (d) ⇒ (a) e, portanto, valem todas as equivalên ias
desejadas.

21003 - Álgebra Linear II 29


Exemplo 1.39. Por apli ação direta do Teorema 1.38 temos:

• O endomorsmo do Exemplo 1.25 não é diagonalizável, pois mg(2) < ma(2).

• O endomorsmo do Exemplo 1.33 é diagonalizável, pois 3 = mg(1) + mg(7).


Da demonstração do teorema anterior podemos armar:

Corolório 1.40. Seja E um espaço vetorial sobre K de dimensão nita n e seja


f : E → E um endomorsmo de E . Suponhamos que f é diagonalizável. Então,
existe uma base B = v1 , . . . , vn de E formada por vetores próprios de f tal que
 
diag(λ1 ,. . . , λ1 ) 0 ··· 0
 0 diag(λ2 ,. . . , λ2 ) · · · 0 
 
A = M(f ; B′ , B′ ) =  .
.. .
.. .. 
 . 
0 0 · · · diag(λk ,. . . , λk )

onde λ1 , . . . , λk ∈ K são todos os valores próprios distintos de f . Além disso, o


polinómio ara terísti o de f (e, portanto, de A) é

p(x) = (λ1 − x)n1 (λ2 − x)n2 · · · (λk − x)nk .

onde n1 + n2 + · · · + nk = n e ni = ma(λi ) = mg(λi ) para 1 ≤ i ≤ k.

Exer í io 1.41. 3
Seja f : R3 → R3 o endomorsmo de R3 denido, para todos
(x, y, z) ∈ R , por

f (x, y, z) = (3x + 2y, −4x − 3y, 4x + 2y − z).

(a) Cal ule os valores próprios de f e indique as respetivas multipli idades algébri-
as.

(b) Determine uma base para ada um dos subespaços próprios de f.

( ) Mostre que f é diagonalizável e indique uma matriz diagonal D ∈ M3×3 (R)


que represente f.
 

Resolução.
3 2 0
Temos A = M(f ; b. R3 , b. R3 ) = −4 −3 0  ∈ M3×3 (R).
4 2 −1
Logo,

3 − x 2 0
3 − x 2
pA (x) = |A − xI3 | = −4 −3 − x 0 = (−1 − x)(−1)
3+3

4 −4 −3 − x
2 −1 − x
 
= (−1 − x) (3 − x)(−3 − x) + 8 = (−1 − x)2 (1 − x)

e, portanto, −1 e 1 são os valores próprios de A e, também de f, om ma(−1) = 2


e ma(1) = 1.

30 Ana L. Correia
• Determinação de E−1 : Pelo Teorema 1.14

   
  x 
3 3  
E−1 = (x, y, z) ∈ R : f (x, y, z) = −(x, y, z) = (x, y, z) ∈ R : (A + I3 ) y = 0 .
 
z

Temos    
4 2 0 4 2 0
A + I3 = −4 −2 0 −→  0 0 0 .
L +L
4 2 0 L23 −L11 0 0 0
Portanto dim E−1 = 3 − rank (A + I3 ) = 2 e temos

(A + I3 )X = 0 ⇐⇒ 4x + 2y = 0 ⇐⇒ y = −2x.

Segue-se que

E−1 = {(x, −2x, z) : x, z ∈ R} = {x(1, −2, 0) + z(0, 0, 1) : x, z ∈ R}


= h(1, −2, 0), (0, 0, 1)i.

Portanto, (1, −2, 0), (0, 0, 1) é uma base de E−1 .
• Determinação de E1 : Pelo Teorema 1.14

   
  x 
E1 = (x, y, z) ∈ R3 : f (x, y, z) = (x, y, z) = (x, y, z) ∈ R3 : (A − I3 ) y  = 0 .
 
z

Temos
     
2 2 0 2 2 0 1 1 0
A − I3 = −4 −4 0  −→ 0 0 0  −→  0 0 0 .
L +2L 1/2L
4 2 −2 L23 −2L11 0 −2 −2 −1/2L13 0 1 1

Portanto dim E1 = 3 − rank (A − I3 ) = 1 e temos


( (
x+y = 0 x = −y
(A − I3 )X = 0 ⇐⇒ ⇐⇒ .
y+z =0 z = −y

Segue-se que

E1 = {(−y, y, −y) : y ∈ R} = {−y(1, −1, 1) : y ∈ R} = h(1, −1, 1)i.



Portanto (1, −1, 1) é base de E1 . Temos

mg(−1) = dim E−1 = 2 = ma(−1) , mg(1) = dim E1 = 1 = ma(1).

Assim,
mg(−1) + mg(1) = 3 = dim R3

21003 - Álgebra Linear II 31


e, portanto, f é diagonalizável - Teorema 1.38. Além disso, a base que obtemos, por
união das bases dos dois subespaços próprios E−1 e E1 , i.e.


B = (1, −2, 0), (0, 0, 1), (1, −1, 1) ,

é uma base de vetores próprios de f. Relativamente a esta base f é representado


pela matriz diagonal
 
−1 0 0
B = M(f ; B, B) =  0 −1 0 = diag(−1, −1, 1).
0 0 1

 3
Notemos que B = (1, −1, 1), (1, −2, 0), (0, 0, 1) também é uma base de R
formada por vetores próprios de f e, relativamente a esta base, f é representado
pela matriz diagonal

B ′ = M(f ; B′ , B′ ) = diag(1, −1, −1).

Em termos matri iais estes ritérios podem ser rees ritos e resumidos omo se
segue.

Teorema 1.42. Seja A ∈ M n×n (K) .


(a) Se A tem exatamente n valores próprios distintos λ1 , . . . , λn ∈ K, então
A é semelhante à matriz diag(λ1 , . . . , λn ) ∈ Mn×n (K).

(b) Se A tem k ≥ 1 valores próprios distintos λ1 , . . . , λk ∈ K, então são equiv-


alentes as armações seguintes:
(i) A é diagonalizável.
(ii) n = ma(λ1 )+· · ·+ma(λk ) e ma(λi ) = mg(λi ) para todo 1 ≤ i ≤ k .
(iii) n = mg(λ1 ) + · · · + mg(λk ).
(iv) E = Eλ1 ⊕ · · · ⊕ Eλk .
 
diag(λ1 ,..., λ1 ) 0 ··· 0
 0 diag(λ2 ,..., λ2 ) · · · 0 
 
(v) A semelhante  .
.. .
.. .. .
 . 
0 0 · · · diag(λk ,..., λk )
(vi) pA (x) = (λ1 − x)n1 (λ2 − x)n2 · · · (λk − x)nk , onde n1 + n2 + · · · + nk = n
e ni = ma(λi ) = mg(λi ) para 1 ≤ i ≤ k.
Além disso, em qualquer dos asos (a) ou (b), a matriz P ujas olunas são pre-
isamente os vetores próprios das bases de Mλi é uma matriz diagonalizante
de A, i.e. P −1 AP é diagonal.

Demonstração. Falta-nos só justi ar a última armação. Suponhamos, pois, que


X1 , . . . , Xn ∈ Mn×1 (K) são n vetores próprios de A linearmente independentes

32 Ana L. Correia
asso iados aos valores próprios λ1 , . . . , λn (não ne essariamente distintos). Seja P a
matriz ujas olunas são os vetores próprios X1 , . . . , Xn
 
P = X1 X2 · · · Xn

então P é invertível, porque tem n olunas linearmente independentes (logo rank P =


n). Por denição de vetor próprio

AX1 = λ1 X1 , AX2 = λ2 X2 , . . . , AXn = λn Xn .

Portanto, fazendo a multipli ação por blo os


   
P −1 AP = P −1A X1 X2 · · · Xn = P −1 AX1 AX2 · · · AXn
 
= P −1 λ1 X1 λ2 X2 · · · λn Xn
 
= P −1 X1 X2 · · · Xn diag(λ1 , λ2 , · · · , λn )
= P −1P diag(λ1 , λ2 , · · · , λn ) = diag(λ1 , λ2 , · · · , λn ).

 

Exemplo 1.43.
3 2 0
Seja A = M(f ; b. R3 , b. R3 ) = −4 −3 0  ∈ M3×3 (R). De
4 2 −1
a ordo om os ál ulos realizados no exer í io 1.41, on luímos que:

• −1 e 1 são os valores próprios de A om mg(−1) = ma(−1) = 2 e mg(1) =


ma(1) = 1.

• Temos a seguinte relação entre os subespaços próprios de f e de A:


subespaços próprios de f subespaços próprios de A
E−1 = {u ∈ R3 : f (u) = −u} ←→ {X ∈ R3×1 : AX = −X} = M−1
E1 = {u ∈ R3 : f (u) = u} ←→ {X ∈ R3×1 : AX = X} = M1

Vimos, na resolução do exemplo 1.41 que

E−1 = h(1, −2, 0), (0, 0, 1)i , E1 = h(1, −1, 1)i .

Portanto
* 1  0+ * 1 +
M−1 = −2 , 0 e M1 = −1 .
0 1 1
     
1 0 1
• Logo B =     
−2 , 0 , −1 é uma base de M3×1 (R) formada por vetores

0 1 1
próprios de A.

Agora onsideremos a matriz P ujas olunas são os vetores da base B e seja D


a matriz diagonal om os valores próprios −1 e 1 na diagonal prin ipal, por esta
ordem, e om −1 repetido porque ma(−1) = 2:

21003 - Álgebra Linear II 33


   
1 0 1 −1 0 0
P = −2 0 −1 , D =  0 −1 0 .
0 1 1 0 0 1
 
−1 0 0
Conrme! De a ordo om a Proposição 1.42, temos P
−1 
AP = 0 −1 0 .
0 0 1

1.3 O teorema de Cayley-Hamilton


Nesta se ção vamos provar um teorema famoso onhe ido por Teorema de Cayley-
Hamilton. Este resultado arma que toda a matriz quadrada é raiz do seu polinómio
ara terísti o e é espe ialmente útil para o ál ulos de potên ias de matrizes.

Teorema 1.44. Seja A ∈ M n×n (K) e suponhamos que pA (x) = (−1)n xn +


cn−1 x n−1
+ · · · + c1 x + c0 . Então

pA (A) = (−1)n An + cn−1 An−1 + · · · + c1 A + c0 In = 0.

Demonstração. Consideremos a matriz adjunta da matriz A − xIn . Ponhamos, para


simpli ar, B = A − xIn . Por denição

adj B = [(−1)i+j det B(i|j)],


Por exemplo se onde B(i|j) é a matriz que se obtém de B suprimindo a linha i e a oluna j . Logo
1 2 −1 B(i|j) ∈ M(n−1)×(n−1) (K). Portanto os elementos om maior potên ia em x têm
B = 0 1 1 
grau n − 1. Quer dizer que adj(A − xIn ) = adj B é um polinómio om grau n − 1,
−2 1 4
então ou seja uma expressão do tipo
  3) =
B(1,
0 1 adj(A − xIn ) = bn−1 xn−1 + bn−2 xn−2 + · · · + b1 x + b0 ∈ K[x].
. (1.10)
−2 1
Por outro lado, vale a identidade

(A − xIn ) adj(A − xIn ) = |A − xIn |In . (1.11)

Assim substituindo (1.10) em (1.11) obtemos

(A − xIn )(bn−1 xn−1 + bn−2 xn−2 + · · · + b1 x + b0 ) = |A − xIn |In (1.12)

O lado esquerdo da igualdade (1.12) é um polinómio em x


q(x) = −bn−1 In xn + (Abn−1 − bn−2 In )xn−1 + (Abn−2 − bn−3 In )xn−2
+ · · · + (Ab1 − b0 In )x + Ab0 ,
e o lado direito é o polinómio |A − xIn |In = pA (x)In . Podemos substituir x pela
matriz A nos dois polinómios e obtemos, respetivamente,

q(A) = −bn−1 In An + (Abn−1 − bn−2 In )An−1 + (Abn−2 − bn−3 In )An−2


+ · · · + (Ab1 − b0 In )A + Ab0
= −bn−1 An + An bn−1 − bn−2 An−1 + An−1 bn−2 − bn−3 An−2
+ · · · + A2 b1 − b0 A + Ab0 = 0

34 Ana L. Correia
e

pA (A)In = (−1)n An + cn−1 An−1 + · · · + c1 A + c0 In In = pA (A).
Portanto,
0 = pA (A),
omo queríamos provar.

Pelo Teorema de Cayley-Hamilton qualquer matriz quadrada A ∈ Mn×n (K) é


raiz do seu polinómio ara terísti o e, portanto, satisfaz uma igualdade do tipo

(−1)n An + cn−1 An−1 + · · · + c1 A + c0 In = 0.

Em parti ular, temos



An = ± cn−1 An−1 + · · · + c1 A + c0 In .
k
Usando esta igualdade podemos reduzir o ál ulo de qualquer potên ia A ao ál-
2 n−1
ulo das potên ias A, A , . . . , A . Em parti ular, no aso de matrizes de tipo
3 × 3, qualquer potên ia é, fa ilmente, al ulável em função da potên ia quadrada.
Vejamos um exemplo.

 

Exemplo 1.45.
2 0 0
Seja A = 0 2 4 . Pretendemos al ular A10 . Come emos
0 −1 −2
por al ular pA (x). Temos

2 − x 0 0
2 − x 4
pA (x) = |A − xI3 | = 0 2−x 4 = (2 − x)(−1)2+2

0 −1 −2 − x
−1 −2 − x
= (2 − x)[(2 − x)(−2 − x) + 4] = −x3 + 2x2 .

Dividindo x10 por −x3 + 2x2 obtemos

x10 = (−x3 + 2x2 )(−x7 − 2x6 − 4x5 − 8x4 − 16x3 − 32x2 − 64x − 128) + 256x2 .

Ponhamos q(x) = −x7 − 2x6 − 4x5 − 8x4 − 16x3 − 32x2 − 64x − 128. Então

x10 = (−x3 + 2x2 )q(x) + 256x2 = pA (x)q(x) + 256x2 .

Substituindo x por A obtemos

A10 = (−A3 + 2A2 )q(A) + 256A2 = pA (A) q(A) + 256A2 = 256A2 .


| {z }
0
   
4 0 0 1024 0 0
Como A2 = 0 0 0, então A10 = 0 0 0 .
0 0 0 0 0 0

O Teorema de Caley-Hamilton permite estabele er um método, alternativo ao


método de Gauss, para o ál ulo da inversa de uma matriz invertível.

21003 - Álgebra Linear II 35


Corolório 1.46. Seja A ∈ M n×n (K) uma matriz invertível e suponhamos que
pA (x) = (−1)n xn + cn−1 xn−1 + · · · + c1 x + c0 . Então c0 6= 0 e temos
1 cn−1 n−2 c2 c1
A−1 = − (−1)n An−1 − A − · · · − A − In .
c0 c0 c0 c0

Demonstração. Suponhamos pA (x) = (−1)n xn + cn−1 xn−1 + · · · + c1 x + c0 . Então,


pela Proposição 1.20, c0 = |A| =
6 0 porque A é invertível. Pelo Teorema de Cayley-
Hamilton pA (A) = 0. Portanto temos

pA (A) = (−1)n An + cn−1 An−1 + · · · + c2 A2 + c1 A + c0 In = 0


⇐⇒ (−1)n An + cn−1 An−1 + · · · + c2 A2 + c1 A = −c0 In
1 cn−1 n−1 c2 c1
⇐⇒ − (−1)n An − A − · · · − A2 − A = In
c c0 c0 c0
 0 
1 n n−1 cn−1 n−2 c2 c1
⇐⇒ − (−1) A − A − · · · − A − In A = In .
c0 c0 c0 c0
Logo, por denição de matriz inversa, on luimos que

1 cn−1 n−2 c2 c1
A−1 = − (−1)n An−1 − A − · · · − A − In ,
c0 c0 c0 c0
omo armámos.
 

Exemplo 1.47.
1 1 −1

Seja A = −2 4 −1 ∈ M3×3 (R). Como |A| = 6 6= 0 a matriz
−4 4 1
−1
é invertível. Vamos determinar A usando o Corolário 1.46:

1 c2 c1 1 c2 c1
A−1 = − (−1)3 A2 − A − I3 = A2 − A − I3 .
c0 c0 c0 6 6 6
Para isso teremos de al ular o polinómio ara terísti o pA (x) de A e a potên ia A2 .
Ora temos

1 − x 1 −1 2 − x 1 0

pA (x) = |A − xI3 | = −2 4 − x −1 = 2 − x 4 − x 3 − x

−4 C +C
4 1 − x C13 +C22 0 4 5 − x

1 1 0 1 1 0

= (2 − x) 1 4 − x 3 − x = (2 − x) 0 3 − x 3 − x

0 L −L
4 5 − x 2 1 0 4 5 − x
= (2 − x)(3 − x)(1 − x) = −x3 + 6x2 − 11x + 6.
 
3 1 −3
Portanto c2 = 6 e c1 = −11. Por outro lado, A =  −6 10 −3. Desta forma,
2

−16 16 1
Conrme
4 que  3  4 
5 1
3 −6 2 − 1 + 11 1
−1 − 36 + 1 − 65 21
A 1 − 21 1 1 11 6 6 6 3
4
2 A−1 = A2 − A + I3 =  −1 + 2 10
6
− 4 + 11
6
− 36 + 1  =  1 − 12 21 .
− 43 1 6 6
= I3
3
. − 16
6
+4 16
6
−4 1
6
− 1 + 11 6
4
3
− 34 1

36 Ana L. Correia
1.4 Matrizes não-diagonalizáveis: a forma anóni a
de Jordan
Saber quando é que uma dada matriz A é, ou não, diagonalizável, é um problema
que  a ompletamente resolvido pelo Teorema 1.42, o qual também es lare e omo
onstruir uma matriz diagonalizante de A. A proposição é, para além da sua im-
portân ia teóri a, de fá il apli ação práti a e, por isso, extremamente útil.

É laro que nem todas as matrizes são diagonalizáveis. Nesta se ção iremos
estudar algumas das oisas que podem ser armadas quando estamos perante asos
em que a matriz não é diagonalizável. Esta é a situação genéri a e o resultado a que
hegaremos in luirá o aso diagonalizável omo situação parti ular.

1.4.1 Dois exemplos de motivação


É onveniente omeçarmos por analizar alguns exemplos parti ulares, os quais nos
sugerirão o aminho a explorar no aso geral.

Exemplo 1.48. Um aso de uma matriz não diagonalizável já foi estudado no


Exemplo 1.25, que relembramos aqui: a matriz A ∈ M3×3 (R) dada por

 
2 −1 1
A = 0 3 −1
2 1 3

tem valores próprios λ1 = 2 e λ2 = 4 , om ma(2) = 2, mg(2) = 1 e ma(4) = 1.


Logo, mg(4) = 1 pelo Teorema 1.32. A apli ação do ritério (b)-(ii), ou (b)-(iii),
do Teorema 1.42 permite-nos on luir, omo já zemos no Exemplo 1.39, sobre a
não-diagonalização da matriz A.
Não sendo A diagonalizável, ou seja, não existindo nenhuma matriz invertível
P tal queP −1 AP seja uma matriz diagonal, ontinua a ser bastante importante
saber se não haverá uma matriz invertível P para a qual esta transformação de
semelhança resulte numa matriz bastante mais simples do que A e que atue sobre
as matrizes de Mn×1 (R) de um modo mais transparente e fá il de entender. No
fundo, é este o objetivo da diagonalização: simpli ar, quer on eptualmente, quer
em termos de ál ulo, o efeito da ação de uma apli ação linear num determinado
espaço vetorial, e, não sendo possível diagonalizar, seria interessante termos um
pro esso sistemáti o que fosse, para estes ns, quase tão e iente. Não é laro, à
partida, se algo poderá ser feito neste sentido, e, se sim, o quê, mas a onsideração
do Exemplo 1.49 seguinte irá forne er pistas importantes que apli aremos ao aso
da presente matriz no Exemplo 1.50.

Consideremos agora um outro exemplo.

21003 - Álgebra Linear II 37


Exemplo 1.49. Seja B ∈ M6×6 (K) a matriz

 
λ1 1 0 0 0 0
 0 λ1 1 0 0 0 
 
 0 0 λ1 0 0 0 
B=

,

 0 0 0 λ2 1 0 
 0 0 0 0 λ2 0 
0 0 0 0 0 λ3

onde os λj ∈ K são es alares arbitrários que, neste exemplo, suporemos serem


diferentes entre si. Sendo B uma matriz triangular, os seus valores próprios são os
elementos da diagonal prin ipal, ou seja, λ1 , om ma(λ1 ) = 3, λ2 , om ma(λ2 ) = 2, e
λ3 , om ma(λ3 ) = 1. É fá il on luir que os subespaços próprios de A são Eλ1 = he1 i,
Conrme! 
Eλ2 = he4 i e Eλ3 = he6 i, onde e1 , e2 , . . . , e6 é a base anóni a de K6 . Portanto,
6 K6 e a Teorema 1.42(b)-(iv) permite on luir que B
Eλ1 ⊕Eλ2 ⊕Eλ3 = he1 , e4 , e6 i =
não é diagonalizável.

Observe-se que, se bem que a matriz B não seja diagonalizável, ela é, ainda
assim, bastante próxima de ser diagonal, ou seja:

• B é uma matriz diagonal por blo os, B = diag(B1 , B2 , B3 ), onde os blo os


ao longo da diagonal prin ipal são matrizes quadradas B1 ∈ M3×3 (K), B2 ∈
M2×2 (K), B3 ∈ M1×1 (K),

• ada blo o Bj é uma matriz triangular superior om uma estrutura parti ular-
mente simples: os elementos na diagonal prin ipal são iguais ao valor próprio
λj e, se a dimensão do blo o for superior a 1, todos os elementos na diagonal
a ima da diagonal prin ipal são iguais a 1, sendo todos os restantes elementos
iguais a zero.

Portanto, de erto modo, se bem que B não seja diagonalizável, a sua estrutura
é quase tão simples omo a de uma matriz diagonal. Por exemplo, a ação de B
6
sobre os restantes vetores da base anóni a de K que não os vetores próprios de B,

e2 , e3 , e5 , é notavelmente simples:

Be2 = λ1 e2 + e1 ou seja (B − λ1 I6 )e2 = e1


Conrme! Be3 = λ1 e3 + e2 ou seja (B − λ1 I6 )e3 = e2
Be5 = λ2 e5 + e4 ou seja (B − λ2 I6 )e5 = e4 ,

ao passo que a sua ação sobre os vetores próprios é

Be1 = λ1 e1 ou seja (B − λ1 I6 )e1 = 0


Be4 = λ2 e4 ou seja (B − λ2 I6 )e4 = 0
Be6 = λ3 e6 ou seja (B − λ3 I6 )e6 = 0.

38 F.P. Costa
As igualdades a ima permitem on luir que

e2 ∈ N (B − λ1 I6 )2 porque (B − λ1 I6 )2 e2 = (B − λ1 I6 )(B − λ1 I6 )e2


= (B − λ1 I6 )e1 = 0

e3 ∈ N (B − λ1 I6 )3 porque (B − λ1 I6 )3 e3 = (B − λ1 I6 )2 (B − λ1 I6 )e3
= (B − λ1 I6 )2 e2 = 0

e5 ∈ N (B − λ2 I6 )2 porque (B − λ2 I6 )2 e5 = (B − λ2 I6 )(B − λ2 I6 )e5


= (B − λ2 I6 )e4 = 0.

Observe que estas igualdades permitem on luir que, se bem que o espaço K6 não
seja a soma direta dos subespaços próprios da matriz Eλ1 ⊕Eλ2 ⊕Eλ3 =
B , ou seja
N (B − λ1 I6 )⊕ N (B − λ2 I6 )⊕ N (B − λ3 I6 ) = he1 , e4 , e6 i = 6 K6 , veri a-se que se
2 3
pode es rever N (B − λ1 I6 ) + N (B − λ1 I6 ) + N (B − λ1 I6 ) + N (B − λ2 I6 ) + N (B −
λ2 I6 )2 + N (B − λ3 I6 ) = he1 , e2 , e3 , e4 , e5 , e6 i = K6 . Melhor ainda, omo

v ∈ N (B − λI)k ⇒ (B − λI)k+1 v = (B − λI)(B − λI)k v = (B − λI)0 = 0


⇒ v ∈ N (B − λI)k+1 ,

ou seja, N (B − λI)k ⊂ N (B − λI)k+1, podemos, a partir dos ál ulos anteriores,


on luir que

K6 = N (B − λ1 I6 )3 ⊕ N (B − λ2 I6 )2 ⊕ N (B − λ3 I6 ).

Ou seja, mesmo não sendo o espaço vetorial K6 , onde atua a matriz B, obtido omo
soma direta dos subespaços próprios de B ( aso fosse, B seria diagonalizável, o que
sabemos não ser o aso), ele pode ser obtido omo soma direta de subespaços que
são nú leos de matrizes obtidas por poten iação daquelas utilizadas para denir os
subespaços próprios
(a)
. Estes subespaços são hamados subespaços próprios gener-
alizados, e os elementos não-nulos destes subespaços são hamados vetores próprios
generalizados.
Con luindo: este exemplo exibe uma situação em que a matriz não é diagonal-
6
izável e, portanto, não existe nenhuma base de K na qual B possa ser es rita omo
6
uma matriz diagonal, mas existe uma base de K , onstituida por vetores próprios
6
generalizados (que, neste aso, são vetores da base anóni a de K ), em relação
à qual a apli ação linear é representada pela matriz B om a estrutura simples
apresentada.

O problema que, naturalmente, agora se olo a é o de saber se, para uma qualquer
matriz de Mn×n (K) não-diagonalizável, também o orrerá a situação eviden iada no
Exemplo 1.49. Ou seja, será que, om base em subespaços al uláveis a partir da
n
matriz dada, é possível es olher uma base adequada de K , na qual a matriz possa ser
expressa numa forma quase diagonal. Tentemos apli ar à matriz do Exemplo 1.48
a estratégia de es olher uma base utilizando os subespaços próprios generalizados.

(a)
Note que as potên ias em ausa são exatamente as multipli idades algébri as dos orrespon-
dentes valores próprios!

21003 - Álgebra Linear II 39



para quaisquer w1 , w2 ∈ R. Portanto, N (A − 2I3 )2 = [w1 w2 − w1 ]T : w1 , w2 ∈ R
2
e on luimos que dim N (A − 2I3 ) = 2. Observamos sem di uldade (basta tomar
a ima w1 = 1, w2 = −1) que

N (A − 2I3 ) = h[1 − 1 − 1]T i ⊂ N (A − 2I3 )2 .


2
Assim, tomemos para base de N (A − 2I3 ) o onjunto onstituido pelo vetor próprio
[1 − 1 − 1] e por um vetor próprio generalizado w = [w1 w2 − w1 ]T que satisfaça
T

(A − 2I3 )w = [1 − 1 − 1]T . Os vetores que satisfazem esta ondição são os seguintes


    
0 −1 1 w1 1 
0 1 −1 w2  = −1 ⇔ w2 − w3 = −1 ⇔ w = [w1 w1 −1 −w1 ]T ,
2w1 + w2 + w3 = −1
2 1 1 w3 −1

onde w1 é um real arbitrário. Se es olhermos w1 = 0 temos o vetor próprio gener-


alizado [0 − 1 0]T . Construamos agora uma matriz P ujas olunas são os vetores
próprios e o vetor próprio generalizado usando primeiro o orrespondente a λ1 = 4
e depois os orrespondentes a λ2 = 2 , ou seja,

 
1 1 0
P = −1 −1 −1 .
1 −1 0

Con lui-se sem di uldade que a inversa desta matriz é

 1 1

02 2
P −1 = 0 − 12  .
1
2
−1 −1 0

Portanto, A J denida por


é semelhante à matriz

 1 1
    
2
0 2
2 −1 1 1 1 0 4 0 0
J = P −1 AP =  12 0 − 12  0 3 −1 −1 −1 −1 =  0 2 1  ,
−1 −1 0 2 1 3 1 −1 0 0 0 2

ou seja, se onsiderarmos a base de R3 onstituida pelas olunas de P a apli ação


linear que era representada pela matriz A passa a ser representada pela matriz J.
Antes de terminar o nosso trabalho sobre a matriz A, onvém observar que, tal
omo no aso das matrizes diagonalizáveis, em que existem, em geral, várias matrizes
diagonais semelhantes à matriz dada, diferindo entre si apenas na ordem pela qual
são es ritos os elementos da diagonal prin ipal, também no aso das matrizes não
diagonalizáveis a ordem dos blo os ao longo da diagonal prin ipal vem alterada se
tomarmos os vetores próprios e os vetores próprios generalizados por ordem distinta.
Verique esta armação para o aso do presente exemplo refazendo os ál ulos a ima,
agora usando, para onstruir a matriz P , primeiro os vetores próprios e vetores
próprios generalizados asso iados a λ2 = 2 e depois o vetor próprio asso iado a
λ1 = 4 .

21003 - Álgebra Linear II 41


 
Exer í io 1.51. Considere a matriz A =
i 1
1 −i
∈ M2×2 (C). Verique que A não
é diagonalizável.
  Aplique o argumento utilizado no Exemplo 1.50 para provar que
0 1
P −1 AP = , identi ando a matriz P.
0 0

Os resultados obtidos no Exemplo 1.50 e no Exer í io 1.51 são um bom prenún io


de que, dada uma matriz não diagonalizável, poderá ser possível, por uma es olha
uidadosa dos vetores próprios generalizados, obter uma base do espaço em relação
à qual a transformação linear seja representada por uma matriz por blo os par-
ti ularmente simples, do tipo da matriz B do Exemplo 1.49. Estas matrizes por
blo os designam-se por matrizes de Jordan ou formas anóni as de Jordan(b) , e a
demonstração de que qualquer matriz quadrada A é semelhante a uma erta ma-
triz de Jordan J , bem omo o es lare imento do modo de onstruir a matriz P da
semelhança, P −1 AP = J , será o objetivo da restante parte deste apítulo.

1.4.2 Denições e os resultados fundamentais


A partir desta altura trabalharemos ex lusivamente om o orpo de es alares om-
plexos K=C
e todos os espaços vetoriais que onsideraremos serão sobre C.
Iremos também identi ar sempre T
a matriz x = [x1 x2 · · · xn ] ∈ Mn×1 (C)
n
om o vetor x = (x1 , x2 , . . . , xn ) ∈ C .
Para xar ideias quanto ao problema que estamos a tentar resolver, ne essita-
mos de introduzir alguns on eitos e notações, parte dos quais já foi informalmente
referida nos exemplos da se ção anterior.

Denição 1.52. Seja A ∈ Mn×n (C). Seja λ∈C um valor próprio de A.

• Diremos que um vetor não-nulo v ∈ Cn é um vetor próprio generalizado


da matriz A, asso iado ao valor próprio λ, se v ∈ N (A − λIn )n , ou seja
(A − λIn )n v = 0.

• Diremos que um vetor v ∈ Cn é um vetor próprio generalizado de ordem


k da matriz A, asso iado ao valor próprio λ, se (A − λIn )k v = 0 mas
(A − λIn )k−1v 6= 0.

• Sendo v um vetor próprio generalizado de ordem k da matriz A, asso iado


k−j
ao valor próprio λ, o onjunto de vetores uj = (A − λIn ) v, om j =
1, . . . , k diz-se uma adeia de Jordan de omprimento k .

Note-se que os vetores próprios generalizados de ordem 1 são os vetores próprios.


(b)
Marie Ennemond Camille Jordan (18381922), matemáti o fran ês atualmente relembrado
fundamentalmente pelo teorema da urva de Jordan (em Topologia) e pelas formas anóni as de
Jordan (em Álgebra Linear). É urioso observar que o Jordan do método de eliminação de Gauss-
Jordan [2, pág. 106℄ refere-se a um outro matemáti o, o alemão Wilhelm Jordan (18421899).
Uma breve biograa de Camille Jordan (e de muitos outros matemáti os) pode ser onsultada em
http://www-history.m s.st-and.a .uk/BiogIndex.html

42 F.P. Costa
Observação. Seja v um vetor próprio generalizado de ordem k asso iado a um valor
k−j
próprio λ. Consideremos os vetores da adeia de Jordan uj = (A − λIn ) v, om
j = 1, . . . , k. É importante reparar nos seguintes fa tos simples:
(a) o vetor uk
da adeia de Jordan de omprimento k é um vetor próprio general-
0
izado de ordem k , pois uk = (A − λIn ) v = In v = v.

(b) o vetor u1 de qualquer adeia de Jordan é um vetor próprio: de fa to, omo v


é um vetor próprio generalizado de ordem k , tem-se u1 = (A − λIn )k−1 v 6= 0
k
e também (A − λIn )u1 = (A − λIn ) v = 0.

( ) generalizando as situações anteriores: o vetor uj de uma adeira de Jordan de


omprimento k é um vetor próprio generalizado de ordem j : de fa to, omo
v é um vetor próprio generalizado de ordem k , tem-se 0 6= (A − λIn )k−1 v =
(A − λIn )j−1(A − λIn )k−j v = (A − λIn )j−1uj , e (A − λIn )j uj = (A − λIn )j (A −
λIn )k−j v = (A − λIn )k v = 0.
(d) os vetores da adeia de Jordan satisfazem as igualdades seguintes

(A − λIn )u1 = 0
(A − λIn )u2 = u1
.
..

(A − λIn )uk = uk−1,


ou, esquemati amente,

uk −−−−→ uk−1 −−−−→ · · · −−−−→ u2 −−−−→ u1 −−−−→ 0.


A−λIn A−λIn A−λIn A−λIn A−λIn

(e) As igualdades do ponto anterior, rela ionando entre si os diversos vetores de


uma adeia de Jordan, podem ser es ritas de um modo equivalente e mais
abreviado do seguinte modo: onstruindo a matriz de Mn×k (C) ujas olunas
são os vetores uj da adeia de Jordan, es ritos por ordem res ente de j, tem-
se, para k > 1,
k−1
X
(A − λIn )[u1 | . . . |uk ] = [u1 | . . . |uk ] ej eTj+1 , (1.13)
j=1
n
onde ej
são os vetores da base anóni a de C . Mais expli itamente, podemos
Pk−1 T
observar que a matriz j=1 ej ej+1 é do seguinte tipo (o aso exempli ado
pressupõe que k > 5)
 
0 1 0 ... 0
0 0 1 . . . 0
 
k−1
X 0 0 0 . . . 0
 
ej eTj+1 =  .. .
.
.
. .. . .
.
. . . . .
j=1  
0 0 0 . . . 1
0 0 0 ... 0
Para simpli ar a es rita usaremos a seguinte notação: para
Pk−1 T k>2 es revere-
mos Jk = j=1 ej ej+1 .

21003 - Álgebra Linear II 43


(f ) Se v for um vetor próprio generalizado de ordem n (a mesma ordem que a
n
dimensão do espaço C onde A atua), e se
os vetores da orrespondente adeia
de Jordan forem linearmente independentes, então a matriz P = [u1 | . . . |un ]
é invertível e a equação (1.13), (A − λIn )P = P Jn , pode ser es rita omo
P −1 (A − λIn )P = Jn , ou seja P −1AP − λP −1In P = Jn ⇔ P −1 AP = λIn + Jn .
Observe que  
λ 1 0 ... 0 0
0 λ 1 . . . 0 0
 
0 0 λ . . . 0 0
 
λIn + Jn =  .. .
..
.
.. .. .
.
..
.
. . . .
 
0 0 0 . . . λ 1
0 0 0 ... 0 λ
Como podemos suspeitar a partir dos exemplos da se ção anterior, as matrizes
deste tipo desempenharão um papel importante no que se segue, pelo que
onvém a ordar na nomen latura e notação a usar.

Denição 1.53. • Um blo o elementar de Jordan , ou uma élula elementar


de Jordan é uma matriz k×k da forma J1 = [0], se k = 1, ou, se k > 2,
 
0 1 0 ... 0 0
0 0 1 ... 0 0
 
k−1
X 0 0 0 ... 0 0
 
Jk = ej eTj+1 =  .. .
.
.
. .. .
.
. .
.
. . . . . .
j=1  
0 0 0 ... 0 1
0 0 0 ... 0 0

• Um blo o de Jordan , ou uma élula de Jordan é uma matriz k ×k da forma


Jk (λ) = λIk + Jk .

• Uma matriz J hama-se uma forma anóni a de Jordan se for uma ma-
(1) (2) (p)
triz diagonal por blo os J = diag(J ,J ,...,J ) onde as matrizes
(j)
quadradas J são blo os de Jordan.

O nosso primeiro teorema fundamental é o seguinte:

Teorema 1.54. Seja A ∈ M n×n (C) e suponha que A tem exatamente k valores
próprios distintos, λ1 , . . . , λk ∈ C. Então:
k
M
n
C = N (A − λj In )n .
j=1

Este resultado tem várias onsequên ias importantes, a primeira das quais é que
permite on luir que qualquer matriz quadrada A, om elementos em C, é semel-
hante a uma matriz diagonal por blo os diag(A , . . . A(k) ), onde ada blo o A(j)
(1)

44 F.P. Costa
orresponde à ação de A no espaço N (A − λj In )n (relembre o Teorema 1.30!). Isto,
só por si, não seria espe ialmente relevante visto que não nos forne e informações
(j)
sobre a estrutura de ada um dos blo os A . O que torna o Teorema 1.54 impor-
tante é o fa to de, à usta dos vetores próprios, dos vetores próprios generalizados,
n
e das adeias de Jordan de A, podermos es olher bases dos espaços N (A − λj In )
(j)
tais que ada blo o A seja uma forma anóni a de Jordan. É exatamente isto
que garante o resultado seguinte, que, para os nossos objetivos, onstitui o teorema
fundamental para as apli ações:

Teorema da De omposição de Jordan 1.55. Seja A ∈ M n×n (C) e suponha


que A tem exatamente k valores próprios distintos, λ1 , . . . , λk ∈ C, om mul-
tipli idades algébri as αj = ma(λj ) e multipli idades geométri as mg(λj ) = γj .
Então, existe uma matriz invertível P ∈ Mn×n (C) tal que

AP = P J,

onde J = diag(J (1) , . . . , J (k) ) é uma forma anóni a de Jordan e ada blo o J (j)
satisfaz
(a) J (j) ∈ Mαj ×αj (C) tem um úni o valor próprio λj om ma(λj ) = αj ;

(b) J (j) é uma matriz diagonal por blo os, om o número de blo os igual a γj ,
sendo ada um desses blo os uma élula de Jordan Jk (λj );
( ) A dimensão
 da maior élula de Jordan Jk (λj ) de J (j) é igual a k = νj :=
ℓ ℓ+1
min ℓ ∈ N : dim N (A − λj In ) = dim N (A − λj In ) 6 αj .

(d) Seja nk o número de élulas de Jordan Jk (λj ) om dimensão k, no blo o


J (j) . Então tem-se
X
dim N (A − λj In )ℓ − dim N (A − λj In )ℓ−1 = nk , ℓ = 2, . . . , αj ;
k>ℓ

(e) Sejam r1 , . . . , rk os índi es das olunas de J orrespondentes a uma das


suas élulas de Jordan Jk (λj ). Então, a oluna pr1 de P é um vetor próprio
asso iado ao valor próprio λj e, se k > 1, as olunas pr om 2 6 r 6 rk
são vetores próprios generalizados que onstituem uma adeia de Jordan
ontendo pr1 , es ritos pela ordem om que surgem nessa adeia, quando
esta é lida da direita para a esquerda.

Os dois teoremas fundamentais que a abámos de enun iar têm grande importân-
ia práti a mas as suas demonstrações são algo elaboradas. Por isso, a demonstração
destes teoremas será feita om apre iável detalhe, através da identi ação prévia da
linha geral do argumento e da sua de omposição numa sequên ia de lemas mais
simples. Isto resulta numa exposição relativamente longa mas, espera-se, mais in-
teligível do que outras mais breves existentes na literatura matemáti a. O que se
apresenta nas duas se ções seguintes foi fundamentalmente inspirado nas demon-

21003 - Álgebra Linear II 45


strações em [4, 6℄. O leitor interessado poderá onsultar também as demonstrações
existentes em outros textos de fá il a esso, omo por exemplo [3, 5, 7℄.
Antes mesmo de prosseguir om a demonstração destes resultados, é importante
e onveniente ver de que modo o podemos utilizar para a análise de situações on -
retas, algo que faremos de seguida, om um exemplo de di uldade média.

1.4.3 Uma apli ação do teorema da de omposição de Jordan


Nesta se ção exempli aremos a apli ação do Teorema 1.55 à transformação de uma
matriz não diagonalizável de dimensão 7.

Exemplo 1.56. Seja A ∈ M7×7 (C) a matriz


 
2 0 0 0 0 0 1
 0 3 0 0 1 0 0 
 
 0 0 3 0 0 0 0 
 
A=  0 0 1 3 0 0 0 .

 0 0 0 0 3 0 0 
 
 0 0 0 1 0 3 0 
0 0 0 0 0 0 2
Pretendemos determinar uma forma anóni a de Jordan J e uma matriz invertível
P tal que P −1 AP = J.
Apli ando o teorema de Lagrange ao ál ulo do determinante det(A − λI7 ) on-
2 5
luimos que o polinómio ara terísti o de A é PA (λ) = (2 − λ) (3 − λ) , o que nos
permite armar imediatamente o seguinte quanto aos valores próprios de A:
λ1 = 2 : α1 = ma(2) = 2,
λ2 = 3; α2 = ma(3) = 5.
Por outro lado, o ál ulo dos vetores próprios asso iados a estes valores próprios
resulta em

N (A − 2I7 ) = he1 i, e portanto γ1 = mg(2) = 1


(1.14)
N (A − 3I7 ) = he2 , e6 i, e portanto γ2 = mg(3) = 2.
Daqui podemos estabele er as seguintes on lusões:

(a) A matriz A não é diagonalizável (porque tem pelo menos um valor próprio om
a multipli idade geométri a diferente da algébri a, de fa to, isto até o orre nos
dois valores próprios)

(b) O Teorema 1.55(a) permite on luir que A é semelhante a uma forma anóni a
(1)
de Jordan J = diag(J , J (2) ), onde J (1) é uma matriz 2×2 om um só valor
(2)
próprio λ1 = 2 e J é uma matriz 5×5 om um só valor próprio λ2 = 3.

( ) O Teorema 1.55(b) permite-nos armar que J (1) é onstituida por uma úni a
élula de Jordan e, sendo de dimensão 2, on luimos que
 
2 1
J (1) = .
0 2

46 F.P. Costa
(2)
(d) O Teorema 1.55(b) permite-nos também armar que J é onstituida por
(2)
duas élulas de Jordan. No entanto, omo J é uma matriz quadrada de
dimensão 5, esta informação sobre o número de blo os não é su iente para
distinguir entre as duas possibilidades distintas

   
3 0 0 0 0 3 1 0 0 0
 0 3 1 0 0   0 3 0 0 0 
   
 0 0 3 1 0  ou  0 0 3 1 0 
   
 0 0 0 3 1   0 0 0 3 1 
0 0 0 0 3 0 0 0 0 3

(note que, por exemplo, o aso em que o primeiro blo o tem dimensão 4 e
o segundo dimensão 1 é identi o ao da primeira matriz a ima por tro a das
olunas apropriadas da matriz P, pelo que apenas os dois asos a ima são
qualitativamente distintos).

(e) Para o es lare imento da estrutura de blo os da matriz J (2) re orremos à


parte (d) do Teorema 1.55, para o que ne essitamos de al ular as dimensões
dos diversos espaços próprios generalizados de A asso iados ao valor próprio
λ2 = 3. Não ofere e di uldade (embora possa ser um pou o demorado...)
obter os seguintes resultados:
 
−1 0 0 0 0 0 1
 0 0 0 0 1 0 0 
 
 0 0 0 0 0 0 0 
 
A − 3I7 =  0 0 1 0 0 0 0 ,

 0 0 0 0 0 0 0 
 
 0 0 0 1 0 0 0 
0 0 0 0 0 0 −1
pelo que N (A − 3I7 ) = he2 , e6 i, e dim N (A − 3I7 ) = 2;
 
1 0 0 0 0 0 −2
 0 0 0 0 0 0 0 
 
 0 0 0 0 0 0 0 
 
2 
(A − 3I7 ) =  0 0 0 0 0 0 0 ,
 0 0 0 0 0 0 0 
 
 0 0 1 0 0 0 0 
0 0 0 0 0 0 1
2
pelo que N (A − 3I7 ) = he2 , e4 , e5 , e6 i, e dim N (A − 3I7 )2 = 4;
 
−1 0 0 0 0 0 3
 0 0 0 0 0 0 0 
 
 0 0 0 0 0 0 0 
 
(A − 3I7 )3 = 
 0 0 0 0 0 0 0 ,

 0 0 0 0 0 0 0 
 
 0 0 0 0 0 0 0 
0 0 0 0 0 0 −1
3
pelo que N (A − 3I7 ) = he2 , e3 , e4 , e5 , e6 i, e dim N (A − 3I7 )3 = 5;

21003 - Álgebra Linear II 47


 
1 0 0 0 0 0 −4
 0 0 0 0 0 0 0 
 
 0 0 0 0 0 0 0 
 
(A − 3I7 )4 = 
 0 0 0 0 0 0 0 ,

 0 0 0 0 0 0 0 
 
 0 0 0 0 0 0 0 
0 0 0 0 0 0 1
4
pelo que N (A − 3I7 ) = he2 , e3 , e4 , e5 , e6 i, e dim N (A − 3I7 )4 = 5.
Assim, on luímos que ν2 = 3 e, pela alínea ( ) do Teorema 1.55, a maior
(2)
élula de Jordan do blo o J tem dimensão 3. Este mesmo resultado poderia
ser obtido re orrendo à alínea (d) do Teorema 1.55: se designarmos por np o
(2)
número de élulas de J om dimensão p, omo sabemos, pela alínea anterior,
que a dimensão do maior blo o não pode ser superior a 4, podemos on luir
de
X
0 = 5 − 5 = dim N (A − 3I7 )4 − dim N (A − 3I7 )3 = np = n4
p>4

que o maior blo o terá de ter dimensão 3 ou inferior. Como sabemos da alínea
(2)
anterior que J (que tem dimensão 5) tem exatamente dois blo os, não resta
alternativa do que ser um de dimensão 2 e outro de dimensão 3.
Portanto, neste aso, não pre isamos de re orrer a mais equações do sistema
(2)
do Teorema 1.55(d) para on luirmos que o blo o J terá de ser o indi ado
no segundo aso na alínea ( ) a ima.

(f ) A utilização das alíneas (a), (b) e (d) do Teorema 1.55 permitiu-nos hegar à
on lusão de que uma matriz de Jordan J semelhante a A é

 
2 1
 0 2 
 
 3 1 
 
J =
 0 3 ,

 3 1 0 
 
 0 3 1 
0 0 3

onde as posições não expli itamente indi adas na matriz são iguais a zero.
Agora utilizaremos a alínea (e) do Teorema 1.55 para determinar uma matriz
P que estabele e a relação de semelhança P −1 AP = J entre A e J . Este
pro esso de es olha da base apropriada dos espaços próprios generalizados
pode ser algo elaborado e o Teorema 1.55 não é explí ito quanto ao modo de
o fazer. De um ponto de vista práti o, é importante desenvolver um pro esso
sistemáti o para a determinação destas bases, o que será feito na Se ção 1.4.5
e apresentado no Algoritmo 1, mas, no presente aso, em que as dimensões
dos espaços próprios generalizados são baixas, onseguiremos ( om alguma
sorte...) identi ar as adequadas adeias de Jordan sem problemas de maior,
apenas por tentativa-e-erro, omo veremos de seguida. Para tornar mais laro

48 F.P. Costa
o argumento, designaremos por pr , om 1 6 r 6 7, as olunas da matriz
P = [p1 | . . . |p7 ].
A élula de Jordan J (1) envolve apenas as olunas p1 e p2 . Pela alínea (e)
do Teorema 1.55 sabemos que p1 é um vetor próprio de A asso iado ao valor
próprio λ1 = 2. Atendendo a (1.14), podemos tomar p1 = e1 . Novamente
pela alínea (e) do Teorema 1.55, a oluna p2 é um vetor próprio generalizado
perten ente a uma adeia de Jordan ontendo p1 , ou seja, atendendo ao que
se es reveu na observação (d) na página 43, (A − 2I7 )p2 = p1 , e portanto,
es revendo p2 = (u1 , . . . , u7 ), e re ordando que já on luimos que p1 = e1 ,
      
0 0 0 0 0 0 1 u1 1 u1
 0 1 0 0 1 0 0   u2   0   0 
      
 0 0 1 0 0 0 0   u3   0   0 
      
 0 0 1 1 0 0 0   u4  =  0  ⇒ p2 =  0  , ∀u1 ∈ C.
      
 0 0 0 0 1 0 0   u5   0   0 
      
 0 0 0 1 0 1 0   u6   0   0 
0 0 0 0 0 0 0 u7 0 1
Tomando u1 = 0 obtemos o vetor próprio generalizado p2 = e7 . Relembrando
os resultados sobre os diversos espaços próprios generalizados asso iados ao
vetor próprio λ2 = 3 que obtivemos a ima, na alínea (e), e re ordando as
equações que os elementos de uma adeia de Jordan têm ne essariamente de
satisfazer ( f. página 43) é fá il on luir que se tem

e3 −−−→ e4 −−−→ e6 −−−→ 0,


A−3I7 A−3I7 A−3I7
e5 −−−→ e2 −−−→ 0.
A−3I7 A−3I7

Reparando que a primeira élula de Jordan de J orrespondente a λ2 = 3


tem dimensão 2, teremos de usar os vetores próprios generalizados da segunda
adeia de Jordan (que também tem omprimento 2) para obter as orrespon-
dentes olunas de P: pela alínea (e) do Teorema 1.55 on luimos que p3 = e2
e p4 = e5 . O mesmo argumento apli ado à primeira adeia de Jordan es-
rita a ima permite on luir que as orrespondentes olunas de P são p5 = e6 ,
p6 = e4 e p7 = e3 . Portanto, a matriz P que orresponde à forma anóni a de
Jordan es rita a ima é P = [e1 |e7 |e2 |e5 |e6 |e4 |e3 ].
Se pretendermos veri ar que a matriz P a que hegámos atua, de fa to, do
( )
modo indi ado, resta-nos al ular P −1 e P −1 AP para veri armos que esta
última matriz é igual à forma de Jordan J que es revemos no iní io desta
alínea.

1.4.4 Demonstração do Teorema 1.54


O objetivo desta se ção é apresentar a demonstração do Teorema 1.54, o qual, omo
já se referiu, onstituiu a ferramenta teóri a fundamental para provar o Teorema da

( )
Para abreviar o trabalho envolvido, e porque o ál ulo de matrizes inversas não é o que, nesta
altura, nos preo upa, poderemos re orrer a um dos vários lo ais da internet que permitem efetuar
esses ál ulos automati amente, por exemplo http://www.bluebit.gr/matrix- al ulator/.

21003 - Álgebra Linear II 49


De omposição de Jordan que estudaremos na se ção seguinte.
n
O Teorema 1.54 forne e uma de omposição de C numa soma direta de espaços
nulos de matrizes, pelo que é importante omeçarmos om um resultado auxiliar
n
sobre este tipo de subespaços vetoriais de C .

Lema 1.57. Seja B ∈ M e suponha que B j u = 0, para algum j ∈ N+ e


n×n (C)
algum vetor u ∈ Cn . Então B u = 0. n

Demonstração. A armação é óbvia para u = 0,


pelo que onsideraremos apenas o
j j
aso em que o vetor u é não-nulo. É também óbvio que se B 1 u = 0 então B 2 u = 0,
j2 j2 −j1 j1 j2 −j1
para todos os j2 > j1 , pois B u = B B u=B 0 = 0. Em parti ular, isto
prova a armação do Lema quando j 6 n.
Seja k o menor inteiro positivo tal que B k u = 0. Considere-se o onjunto on-
stituido pelos vetores
u, Bu, B 2u, . . . , B k−1 u. (1.15)

Este onjunto é linearmente independente. De fa to, se

c0 u + c1 Bu + c2 B 2 u + . . . ck−1 B k−1 u = 0, (1.16)

apli ando B k−1 a ambos os membros desta igualdade e relembrando que B k u =


B u = B k+2 u = . . . = 0 ( f. a ima), on lui-se que c0 B k−1 u = 0. Como k é,
k+1
j
por hipótese, o menor dos expoentes positivos j para os quais B u = 0, tem-se
k−1
B u 6= 0 e, portanto, c0 = 0. Substituindo este resultado em (1.16), multipli ando
k−2
ambos os membros da igualdade por B e apli ando o mesmo argumento, on lui-
se que c1 = 0. É evidente que repetindo este pro esso k − 1 vezes obtém-se cm = 0,
para todos os m = 0, 1, . . . , k − 1. Mas, então, os k vetores em (1.15) são linearmente
independentes e, portanto, tem de se ter k 6 n, o que, pelo que se provou no iní io,
n
impli a que B u = 0.

Come emos, então, o estudo da de omposição de Cn em somas diretas de sube-


spaços pelo seguinte resultado geral:

Lema 1.58. Seja B ∈ M n×n (C) . Então

Cn = N (B n )⊕ Im(B n ). (1.17)

Demonstração. Come emos por provar que a soma é uma soma direta, isto é, que
n
o úni o vetor omum a ambos os subespaços é o vetor nulo. Como u ∈ N (B ) ⇒
B n u = 0 e omo u ∈ Im(B n ) ⇒ u = B n v, para algum v ∈ Cn , se u ∈ N (B n ) ∩
Im(B n ) ter-se-á ne essariamente 0 = B n u = B n (B n v) = B 2n v , para algum vetor v .
2n n
Mas o Lema 1.57 apli ado à igualdade B v = 0 permite on luir que B v = 0, ou
seja, que u = 0 e, portanto, a soma no enun iado é uma soma direta. Que a soma
n
é todo o C é uma onsequên ia lara do Teorema da Dimensão apli ado à matriz
B n ( f., por exemplo, [2, Proposição 4.73℄).

50 F.P. Costa
Interessa-nos onsiderar B = A − λ1 In no Lema 1.58 e ir substituindo o espaço
Im(A − λ1 In )n por (somas diretas de) espaços nulos N (A − λk In )n , a m de obter o
resultado expresso no enun iado do Teorema 1.54. Para este objetivo é naturalmente
n n
importante rela ionar os espaços Im(A − λ1 In ) e N (A − λ2 In ) , o que faremos no
Lema 1.60. Aí ne essitaremos do seguinte resultado auxiliar

Lema 1.59 (Binómio de Newton) . Se duas matrizes A, B ∈ M n×n (C) omutam,


então, para qualquer m ∈ N,
m  
X
m m
(A + B) = Aj B m−j .
j=0
j

Demonstração. A demonstração utiliza a indução. Para m=1 nada há a provar.


Se m=2 tem-se

X2  
2 2 2 2 2
(A + B)(A + B) = A + AB + BA + B = A + 2AB + B = AB 2−j ,
j=0
j

onde a segunda igualdade vem da hipótese da omutatividade: BA = AB . A veri-


ação da propriedade da hereditariedade envolve apenas um ál ulo algébri o simples
m−1
 m−1
om somatórios, para o qual é apenas pre iso re ordar a lei de Pas al
j−1
+ j =
m
 n
 n!
j
[1, pág. 41℄ (ou re ordar a expressão
k
= k!(n−k)! para os oe ientes binomiais,
a qual permite deduzir fa ilmente esta lei). Deixamos esta parte omo exer í io.

Lema 1.60. Seja A ∈ M n×n (C) , sejam λ1 , λ2 ∈ C e onsidere λ1 6= λ2 . Então


N (A − λ2 In )n ⊆ Im(A − λ1 In )n .

Demonstração. n
Provaremos que qualquer u ∈ N (A−λ2 In ) também está em Im(A−
λ1 In )n . Tome-se um u ∈ N (A − λ2 In )n arbitrário. Então,

0 = (A − λ2 In )n u
= (A − λ1 In + (λ1 − λ2 )In )n u
Xn  
n
= (A − λ1 In )j (λ1 − λ2 )n−j u
j=0
j
Xn  
n n
= (λ1 − λ2 ) u + (A − λ1 In ) (A − λ1 In )j−1 (λ1 − λ2 )n−j u.
j=1
j

Como, por hipótese, λ1 6= λ2 , podemos dividir esta expressão por (λ1 − λ2 )n e


es rever a igualdade omo

u = (A − λ1 In ) q(A)u, (1.18)
| {z }
=v

21003 - Álgebra Linear II 51


onde q é a função polinomial de grau n−1 denida por

X n  
n
q(A) = − (A − λ1 In )j−1 (λ1 − λ2 )−j .
j=1
j

Agora repare-se que o que (1.18) arma é que u ∈ Im(A − λ1 In ), v pois existe um
tal que u = (A − λ1 In )v . u no membro
Mas então, substituindo esta expressão para
Porquê? direito de (1.18), e tendo em atenção que q(A)(A−λ1 In ) = (A−λ1 In )q(A), obtém-se

u = (A − λ1 In )2 q(A)v.

u no membro direito de (1.18) e repetindo


Substituindo de novo esta expressão para
este pro edimento um número su ientemente grande de vezes (n−1 vezes, no total),
obtém-se

u = (A − λ1 In )n q(A)n−1 v ,
| {z }
=w
n
o que mostra que u é a imagem, por (A − λ1 In ) , de um vetor w, ou seja u ∈
Im(A − λ1 In )n , o que on lui a demonstração.

n n
Portanto, tendo estabele ido que N (A−λ2 In ) é um subespaço de Im(A−λ1 In ) ,
n n
podemos es rever Im(A − λ1 In ) = N (A − λ2 In ) ⊕F, para algum subespaço F ⊂
Im(A − λ1 In )n apropriado. Este é o tema do próximo lema.

Lema 1.61. Nas ondições do Lema 1.60, tem-se



Im(A − λ1 In )n = N (A − λ2 In )n ⊕ Im(A − λ1 In )n ∩ Im(A − λ2 In )n .

Demonstração. Come emos por observar que o Lema 1.58 permite es rever

Cn = N (A − λ2 In )n ⊕ Im(A − λ2 In )n .

Portanto, omo Im(A − λ1 In )n = Cn ∩ Im(A − λ1 In )n , temos


Im(A − λ1 In )n = N (A − λ2 In )n ⊕ Im(A − λ2 In )n ∩ Im(A − λ1 In )n ,

(d)
e, devido à in lusão provada no Lema 1.60, on lui-se que a igualdade a ima pode
ser es rita omo


Im(A − λ1 In )n = N (A − λ2 In )n ⊕ Im(A − λ2 In )n ∩ Im(A − λ1 In )n ,

omo pretendiamos provar.

(d)
Prove que se U, V, W são subespaços de um espaço vetorial X tais que X = U ⊕V e U ⊆ W ,
então W = W ∩ X = W ∩ (U ⊕V ) = (W ∩ U )⊕(W ∩ V ). Exiba um ontra-exemplo que mostra que
a ondição de W onter um dos subespaços não pode ser eliminada ( onsidere asos em X = R2 ).

52 F.P. Costa
Observe-se que, usando os resultados dos lemas 1.58 e 1.61, podemos es rever


Cn = N (A − λ1 In )n ⊕ N (A − λ2 In )n ⊕ Im(A − λ2 In )n ∩ Im(A − λ1 In )n .

Isto sugere imediatamente que, ontinuando a apli ar su essivamente o Lema 1.61


obteremos somas diretas dos espaços próprios generalizados orrespondentes aos
diversos valores próprios e de um espaço que é a interseção dos espaços das ima-
\k
gens orrespondentes. Portanto, se provarmos que Im(A − λj In )n = {0}, onde
j=1
λ1 , . . . , λk são todos os valores próprios distintos de A, então a apli ação su essiva
do Lema 1.61 resultará no Teorema 1.54.

Lema 1.62. Seja A ∈ M n×n (C) , sejam λ1 , . . . , λk ∈ C todos os seus valores


próprios distintos. Então
k
\
Im(A − λj In )n = {0}.
j=1

k
\
Demonstração. Seja M= Im(A−λj In )n . É laro que 0 ∈ M pois 0 é sempre um
j=1
n
elemento de qualquer subespaço vetorial e todos os Im(A − λj In ) são subespaços
n
vetoriais de C . Queremos provar que M não ontém mais nenhum vetor para além
de 0. M é invariante para A, ou seja, se u ∈ M,
Para tal provaremos primeiro que
então também Au ∈ M : onsidere u ∈ M, portanto, para todos os j = 1, . . . , k,
n n
tem-se u ∈ Im(A−λj In ) , ou seja, existem vj tais que u = (A−λj In ) vj ; mas então,
n n n
para ada j , Au = A(A − λj In ) vj = (A − λj In ) Avj , ou seja Au ∈ Im(A − λj In ) ,
Porquê?
para todos os j e, portanto, Au ∈ M. Tendo provado que M é invariante para A,
2
então é laro que u ∈ M ⇒ Au ∈ M ⇒ A u ∈ M ⇒ . . .
Assuma-se agora que existe um vetor u ∈ M \ {0} e onsidere-se o onjunto
n
onstituido pelos n + 1 vetores de C

u, Au, A2u, . . . , An u. (1.19)

Como temos n+1 vetores de um espaço vetorial de dimensão n, sabemos que o


onjunto onstituido pelos vetores em (1.19) é linearmente dependente. Portanto,
existem onstantes cj ∈ C, não todas nulas, tais que

c0 u + c1 Au + c2 A2 u + · · · + cn An u = 0. (1.20)

Seja p o maior inteiro para o qual cp 6= 0. Então, (1.20) pode ser es rito omo

c0 u + c1 Au + c2 A2 u + · · · + cp Ap u = 0.

Portanto, esta igualdade é da forma P (A)u = 0, onde P (x) = a0 + c1 x + · · · + cp xp .


Usando o Teorema Fundamental da Álgebra sabe-se que existe uma fatorização

21003 - Álgebra Linear II 53


P (x) = cp (x − µp ) · · · (x − µ1 ), para p onstantes omplexas µp (não ne essariamente
distintas). Utilizando esta fatorização pode-se es rever (1.20) omo

cp (A − µp In ) · · · (A − µ2 In )(A − µ1 In )u = 0. (1.21)

Temos, portanto, as seguintes p possibilidades:

(1) (A − µ1 In )u = 0.

(2) (A − µ1 In )u 6= 0 mas (A − µ2 In )(A − µ1 In )u = 0.


..
.

(p ) (A−µp−1 In ) · · · (A−µ1 In )u 6= 0 mas (A−µp In )(A−µp−1 In ) · · · (A−µ1 In )u = 0.

No aso (1) temos que µ1 é um valor próprio de A e u um vetor próprio. No aso


(2) temos (A − µ2 In )v = 0 para v = (A − µ1 In )u ∈ M \ {0}, portanto, µ2 é um valor
próprio de A e v um vetor próprio asso iado. Prosseguindo do mesmo modo para
as p diferentes possibilidades, podemos on luir que, se existir algum vetor não nulo
u ∈ M, então existirá também w ∈ M \ {0} tal que (A − µIn )w = 0, para algum
µ ∈ C, ou seja, w é um vetor próprio de A, orrespondente a um valor próprio µ.
Mas omo, por hipótese, os úni os valores próprios distintos de A são λ1 , . . . , λk ,
isto signi a que µ tem de ser um destes valores, digamos µ = λm , e, portanto,
w ∈ N (A − λm In ) ⊂ N (A − λm In )n . Por outro lado, omo w ∈ M, temos também
w ∈ Im(A − λm In )n e, portanto, w ∈ N (A − λm In )n ∩ Im(A − λm In )n , o que impli a
que w = 0. Esta ontradição mostra que não podem existir vetores u 6= 0 em M, o
que prova o lema.

Demonstração do Teorema 1.54. Como se referiu antes do enun iado do Lema 1.62, a
demonstração do Teorema 1.54 está, agora, essen ialmente ompleta: Considerando
B = A − λ 1 In no Lema 1.58, apli ando k−1 vezes o Lema 1.61, e, por último,
usando o Lema 1.62, on luimos que

k
M
Cn = N (A − λj In )n ,
j=1

omo pretendiamos.

1.4.5 Demonstração do teorema da de omposição de Jordan


Na se ção anterior estabele emos que, sendo A ∈ Mn×n (C) om valores próprios
distintos λ1 , . . . , λk , então

k
M
n
C = N (A − λj In )n (1.22)
j=1

Como vimos no Teorema 1.30, este tipo de de omposições do espaço omo soma
direta de subespaços permite on luir que é possível es olher bases do espaço de tal

54 F.P. Costa
modo que os endomorsmos sejam representados por matrizes diagonais por blo os.
Como este resultado tem enorme importân ia, quer práti a, quer teóri a, não é
demais voltar a rederivá-lo na situação on reta da de omposição (1.22):
(j) (j)  n
Seja Bj = v1 , . . . , vαj uma base de N (A−λj In ) . Um argumento inteiramente
análogo ao que foi usado na demonstração do Lema 1.62 permite on luir que o
n n n
espaço N (A − λj In ) é invariante para A: u ∈ N (A − λj In ) ⇒ (A − λj In ) Au =
n n
A(A − λj In ) u = A0 = 0 ⇒ Au ∈ N (A − λj In ) . Então, a de omposição em soma
direta (1.22) e a invariân ia dos espaços próprios generalizados de A signi a que a
n
apli ação de A a um vetor arbitrário de N (A − λj In ) resultará ainda num vetor
desse mesmo espaço próprio generalizado (e que, portanto, será ombinação linear
dos vetores de Bj ) ou, de modo equivalente, sendo Pj a matriz de dimensão n × αj
ujas olunas são os vetores da base Bj , pode-se es rever

APj = Pj A(j)

onde A(j) αj ×αj (que representa a ação da matriz A apenas no espaço


é uma matriz
n
próprio generalizado N (A − λj In ) , quando neste se xa a base Bj ).
Se agora denirmos uma matriz P = [P1 | P2 | · · · | Pk ], de dimensão n × n, onde
Pj são as matrizes orrespondentes aos diferentes espaços próprios generalizados de
A, on luimos que, atendendo ao es rito a ima, P satisfaz

AP = P diag A(1) , A(2) , . . . , A(k) ,

ou seja,

P −1AP = diag A(1) , A(2) , . . . , A(k) .
O nosso objetivo nesta se ção é mostrar que é possível es olher uma base Bj para
ada um dos espaços próprios generalizados de A de modo a que ada um desses
(j)
blo os A seja uma forma anóni a de Jordan e, portanto, a matriz A seja, ela
própria, semelhante a uma forma anóni a de Jordan. Conseguir isto onstituirá,
de fa to, uma demonstração do Teorema da De omposição de Jordan.
(e)
A leitura da Observação nas páginas 43-44 sugere-nos algumas observações
n
importantes a er a da es olha da base apropriada de N (A − λj In ) .
(1) (γ )
Uma primeira é a seguinte: se u , . . . , u j forem vetores próprios linearmente
independentes de A, asso iados ao valor próprio λj ( om multipli idade algébri a
e geométri a satisfazendo αj > γj ), e se onseguirmos onstruir uma adeia de
Jordan ( om omprimento adequado) para ada um destes vetores próprios, então
a matriz Pj , ujas olunas são os vetores próprios generalizados que integram estas
adeias, será a matriz pretendida. Há, nesta altura, várias di uldades levantadas
por esta abordagem; uma é que, partindo de uma base de N (A − λj In ) não é laro
se é, sequer, possível onstruir uma adeia de Jordan orrespondente (note que, pela
sua própria denição  Denição 1.52 , as adeias de Jordan são onstruídas a
partir de vetores próprios generalizados e não de vetores próprios e não é óbvio que,
para um vetor próprio arbitrário, os sistemas de equações que permitem al ular os
vetores das adeias de Jordan tenham soluções), outra di uldade, rela ionada om
esta, é a de onhe er o omprimento das várias adeias de Jordan em ausa.

(e)
Cuja releitura, nesta altura, é fortemente re omendada.

21003 - Álgebra Linear II 55


As di uldades aludidas no parágrafo anterior, bem omo, novamente, a inspeção
da Observação nas páginas 43-44, permite-nos uma segunda observação importante:
as bases de vetores próprios de A asso iados ao valor próprio λj que nos interessa
onsiderar para onstruir as adeias de Jordan devem ser onstituidas por vetores
u(k) do tipo (A − λj )mk −1 vk , om vk vetores próprios generalizados de A asso iados
a λj e 1 6 k 6 γj . Ou seja, os vetores que onstituem uma base de N (A − λj In )
interessante serão, não apenas vetores deste espaço próprio, mas também imagens
n
de alguns vetores de C por apli ação de uma erta potên ia (ainda des onhe ida)
k−1
da matriz A − λj In , ou seja, serão elementos de Im(A − λj In ) .
Isto sugere que estudemos os subespaços

Nk = N (A − λIn ) ∩ Im(A − λIn )k−1, (1.23)

onde λ é um valor próprio de A


Come emos, então, por alguns resultados simples relativos à estrutura dos es-
paços nulos de matrizes.

Lema 1.63. Seja B ∈ Mn×n (C) e suponha que, para algum inteiro pos-
itivo k, o vetor u ∈ Cn é um elemento de N (B k ). Então, a sequên ia
B k−1 u, B k−2 u, , . . . , u é linearmente independente se e só se B k−1 u 6= 0.

Demonstração. B k−1 u 6= 0. Suponha que existem oe ientes α0 , . . . , αk ∈ C


Seja
k−1
tais que α0 u + α1 Bu + αk−1 B u = 0. Apli ando B k−1 a ambos os membros desta
k
igualdade e relembrando que u ∈ N (B ) tem-se

B k−1 α0 u + α1 Bu + αk−1 B k−1 u = α0 B k−1 u = 0,
impli ando que α0 = 0 .
Prosseguindo analogamente on luimos que todos os αj são

k−1
nulos e, portanto, que a sequên ia B u, B k−2u, , . . . , u é linearmente indepen-
dente.
A re ípro a é evidente, já que se B k−1 u = 0 a sequên ia é linearmente depen-
dente, por um dos vetores que a integram ser o vetor nulo.

Como onsequên ia imediata deste lema on luimos que os vetores próprios gen-
eralizados que onstituem uma mesma adeia de Jordan são linearmente indepen-
dentes.
A independen ia linear de vetores próprios generalizados orrespondentes a ve-
tores próprios distintos (ou seja, de vetores próprios generalizados de adeias de Jor-
dan distintas) é uma onsequên ia simples do Lema 1.60 : sejam λk valores próprios
n
distintos de A e sejam uj 6= 0 tais que (A−λj In ) uj = 0. Se α1 u1 +α2 u2 +· · ·+αk uk =
0 então −α1 u1 = α2 u2 + · · · + αk uk . Como −α1 u1 ∈ N (A − λ1 In )n e omo, por
apli ação repetida do Lema 1.60 a ada uma das par elas do membro direito da
n
igualdade, α2 u2 + · · · + αk uk ∈ Im(A − λ1 In ) , on luimos, atendendo à soma direta
no Lema 1.58, que o valor omum destes dois vetores tem de ser o vetor nulo, pelo
que tem de se ter α1 = 0 e a igualdade de partida reduz-se a α2 u 2 + · · · + αk u k = 0 .
A repetida apli ação do argumento a esta igualdade permite on luir que todas as
onstantes αj têm de ser nulas e, portanto, os vetores onsiderados são linearmente
independentes.

56 F.P. Costa
Lema 1.64. Seja B ∈ M n×n (C) . Então:
(a) N (B p ) ⊆ N (B p+1 ), para qualquer inteiro p > 1;

(b) Se N (B j ) = N (B j−1 ), para algum inteiro j > 2, então N (B j+1 ) = N (B j );


( ) Para qualquer inteiro j > 1, veri a-se N (B j ) 6= {0} ⇔ N (B j+1 ) 6= {0}.

Demonstração. A demonstração da parte (a) já se en ontra no primeiro parágrafo


da demonstração do Lema 1.57.
j j−1
Para provar a alínea (b) suponha-se que N (B ) = N (B ) e onsidere-se u ∈
N (B ). Então, omo 0 = B u = B (Bu), deduz-se que Bu ∈ N (B j ). Portanto,
j+1 j+1 j
j−1
pela hipótese, também Bu ∈ N (B ), o que quer dizer que 0 = B j−1 Bu = B j u, ou
j j j−1
seja, u ∈ N (B ). Com isto provámos que, se N (B ) = N (B ), então N (B j+1 ) ⊆
N (B j ). Esta in lusão, juntamente om a in lusão ontrária forne ida pela alínea
(a), prova a igualdade pretendida.
Para a demonstração da parte ( ) onsideraremos separadamente as duas im-
j j+1
pli ações. Seja u 6= 0 um elemento de N (B ). Então B u = BB j u = B0 = 0,
j+1
ou seja, u é também um elemento de N (B ). Para demonstrar a impli ação on-
j
trária provaremos a ontra-re ípro a: suponha-se agora que N (B ) = {0}, ou seja,
j
se w é tal que B w = 0 então tem-se ne essariamente w = 0. Seja agora v tal
j+1
que B v = 0. Então B j Bv = B j+1 v = 0 e portanto Bv = 0, on luindo-
se daqui que v ∈ N (B). Mas, pela parte (a), sabemos que é válida a in lusão
N (B) ⊆ N (B j ) = {0}, pelo que se pode on luir que v = 0 e, portanto, que
N (B j+1 ) = {0}, omo pretendiamos.
O resultado da alínea (a) do Lema 1.64 podem ser imediatamente apli ado aos
espaços nulos de potên ias de A − λIn para on luir que

{0} ( N (A − λIn ) ⊆ N (A − λIn )2 ⊆ · · · . (1.24)

k
Mas podemos on luir bastante mais: omo todos os espaços N (A − λIn ) são
n
subespaços de C , na adeia ( om uma innidade) de in lusões (1.24) terá de existir
ℓ ℓ+1
um inteiro positivo ℓ para o qual N (A − λIn ) = N (A − λj In ) . Seja ν a menor
dessas potên ias, isto é,


ν = min ℓ ∈ N : N (A − λIn )ℓ = N (A − λIn )ℓ+1 . (1.25)

Então, pela alínea (b) do Lema 1.64, on luímos que se tem (supondo que ν > 1; se
ν=1 as igualdades omeçariam logo após o primeiro espaço próprio)

{0} ( N (A − λIn ) ( · · · ( N (A − λIn )ν = N (A − λIn )ν+1 = · · · . (1.26)

Voltando a utilizar os Lemas 1.57 e 1.64 podemos renar ainda um pou o mais
a adeia de in lusões (1.26), em parti ular, é fá il on luir que ν 6 n: de fa to, seja
j > n e onsidere u ∈ N (A − λIn )j , ou seja (A − λIn )j u = 0; pelo Lema 1.57 tem-se
(A − λIn )n u = 0 e portanto N (A − λIn )j ⊆ N (A − λIn )n . Daqui, onjuntamente

21003 - Álgebra Linear II 57


om a in lusão re ípro a, impli ada pela alínea (a) do Lema 1.64, on luimos que
N (A − λIn )j = N (A − λIn )n , para todos os j > n, pelo que ν 6 n.
Uma onsequên ia imediata destes resultados é o seguinte orolário do Teo-
rema 1.54, onde por νj se representa a onstante ν denida em (1.25) quando o
valor próprio é λ = λj .

Corolório 1.65. (do Teorema 1.54) Seja A ∈ M e suponha que A tem


n×n (C)
exatamente k valores próprios distintos, λ1 , . . . , λk ∈ C. Então:
k
M
n
C = N (A − λj In )νj .
j=1

Portanto, tem-se que qualquer vetor u ∈ Cn pode ser es rito, de forma úni a,
ν ν
omo u = u1 + u2 + · · · + uk , onde uj ∈ N (A − λj In ) j ⇔ (A − λj ) j uj = 0, om
n
j = 1, . . . , k. Isto impli a que, qualquer que seja o u ∈ C , veri a-se sempre que
(A−λ1 In )ν1 ·. . .·(A−λQ νk ν1
k In ) u = 0, ou seja, tem-se (A−λ1 In ) ·. . .·(A−λk In )
νk
= 0.
Conrme!
j=1 (x−λj ) é hamado o polinómio mínimo, ou o polinómio
k νj
O polinómio µA (x) =
minimal, da matriz A. Como a abámos de provar, trata-se de um polinómio que é
um aniquilador da matriz A (i.e., µA (A) = 0) e, tal omo su edia om o polinómio
ara terísti o pA , odi a algumas das suas propriedades. Não iremos explorar
nesta altura as propriedades dos polinómios mínimos, mas é interessante referir,
sem demonstração, duas das suas propriedades:

(f)
• Para qualquer matriz A, quadrada, µA é o (úni o) polinómio móni o de
menor grau que aniquila a matriz A.

• Para qualquer matriz A, quadrada, µA é um divisor de qualquer polinómio


aniquilador de A; em parti ular µA divide o polinómio ara terísti o pA (que
é um polinómio aniquilador de A, pelo Teorema de Cayley-Hamilton 1.44).
O leitor mais urioso poderá onsultar as demonstrações destas e doutras pro-
priedades do polinómio mínimo em [6, Se ções 2.2.1 e 2.5.2℄. Note-se que, omo
onsequên ia imediata da segunda propriedade referida, tem-se sempre νj 6 αj ,
onde αj é a multipli idade algébri a de λj (e é igual ao expoente a que está elevado
o termo x − λj no polinómio ara terísti o de A).
Retomemos agora a adeia de in lusões (1.26). Esta pode ser onvertida numa
orrespondente adeia de in lusões para os subespaços Im(A − λIn )k usando para
tal, por exemplo, o Teorema da Dimensão ( f. [2, Proposição 4.73℄): à medida que k
k
aumenta os espaços nulos N (A − λIn ) vão  ando maiores (ou permane em iguais)
k k
e, omo, pelo Teorema da Dimensão, dim N (A − λIn ) + dim Im(A − λIn ) = n,
k
a dimensão dos espaços das imagens de (A − λIn ) terá de ir  ando menor (ou
permane er igual) à medida que k aumenta. Mais rigorosamente, de (1.26) on lui-
se que:

Cn ) Im(A − λIn ) ) · · · ) Im(A − λIn )ν = Im(A − λIn )ν+1 = · · · . (1.27)

(f)
Um polinómio diz-se móni o se o oe iente do termo de maior grau é igual a 1.

58 F.P. Costa
Consequentemente, intersetando ada um destes subespaços de Cn (e o próprio Cn )
om N (A−λIn ) e relembrando a notação introduzida em (1.23), a adeia de in lusões
(g)
(1.27) transforma-se em

N1 ⊇ N2 ⊇ · · · ⊇ Nν+1 = Nν+2 = · · · . (1.28)


Seja ej = dim Nj = dim N (A − λIn ) ∩ Im(A − λIn )j−1 .
n As desigualdades em
(1.28) impli am que

n e2 > · · · > n
e1 > n eν+2 = · · · .
eν+1 = n (1.29)

Seguidamente, es reveremos n
ej apenas em termos das dimensões dos espaços
nulos, on retamente veremos que se pode es rever

ej = dim N (A − λIn )j − dim N (A − λIn )j−1 ,


n (1.30)

ou seja,
e1 = dim N (A − λIn )
n
e2 = dim N (A − λIn )2 − dim N (A − λIn )
n
e3 = dim N (A − λIn )3 − dim N (A − λIn )2
n
. (1.31)
.
.
eν = dim N (A − λIn )ν − dim N (A − λIn )ν−1 > 1
n
eν+1 = dim N (A − λIn )ν+1 − dim N (A − λIn )ν = 0.
n
Para obter (1.30) ne essitamos do seguinte resultado uja demonstração, que não
iremos apresentar, pode ser onsultada em [6, págs. 111-112℄.

Lema 1.66. (Teorema de Sylvester) Sejam B ∈ M m×n (C) e C ∈ Mn×p (C).


Então 
r(BC) = r(C) − dim N (B) ∩ Im(C) .

É interessante notar que este resultado onstitui um renamento de um resul-


tado mais elementar que é usualmente estudado em ursos introdutórios de Álgebra
Linear, a saber, a desigualdade r(BC) 6 r(C) ( f. [2, Proposição 4.71℄).
A utilização do Teorema de Sylvester para a dedução de (1.30) a partir de (1.23)
envolve novamente o Teorema da Dimensão, a m de rela ionar as quantidades
dim N (X) e r(X) = dim Im(X). Con retamente, apli ando o Teorema da Dimensão
à igualdade forne ida pelo Teorema de Sylvester tem-se

 
n − dim N (BC) = r(BC) = n − dim N (C) − dim N (B) ∩ Im(C) ,

ou seja,

dim N (B) ∩ Im(C) = dim N (BC) − dim N (C).
Agora, tomando nesta última igualdade B = A − λIn e C = (A − λIn )j−1 e relem-
brando a denição de Nj , (1.23), obtém-se imediatamente (1.30).

(g)
Observe-se que, em geral, não se pode garantir que as in lusões em (1.28) são estritas.

21003 - Álgebra Linear II 59


Retomemos agora (1.30) ou, mais expli itamente, as igualdades (1.31).
Re ordemos que ej é a dimensão do espaço vetorial N (A−λIn )∩Im(A−λIn )j−1 .
n
Então, do resultado n
eν+1 = 0 obtido na última igualdade de (1.31) podemos on luir
que o maior blo o de Jordan terá, ne essariamente, dimensão igual a ν : a existên ia
de um blo o de Jordan de dimensão m equivale a dizer que podemos in luir omo
vetores da base vetores próprios generalizados que formam uma adeia de Jordan
de omprimento m (relembre a Observação nas páginas 43-44):

v ∈ N (A − λIn )m
(A − λIn )v ∈ N (A − λIn )m−1
(A − λIn )2 v ∈ N (A − λIn )m−2
.
.
.

(A − λIn )m−1 v ∈ N (A − λIn );


onsidere-se agora m = ν+1. Como eν+1 = 0, então N (A−λIn )∩Im(A−λIn )ν = {0}
n
e, portanto, qualquer que seja o v que tomemos, o úni o vetor (A − λIn )ν v que está
em N (A − λIn ) é o vetor nulo, o que é uma ontradição om a hipótese da adeia
ter omprimento m = ν + 1.
Exatamente o mesmo argumento, repetido agora para m = ν, permite on luir
que o maior blo o de Jordan tem dimensão igual ν . Adi ionalmente, omo N (A −
λIn ) ∩ Im(A − λIn )ν−1 é um espaço vetorial om dimensão n
eν , sabemos que possui
exatamente n
eν vetores linearmente independentes, ou seja existem exatamente n

adeias de Jordan om omprimento igual a ν e, portanto, a matriz tem exatamente
n
eν blo os de Jordan de dimensão igual a ν.

Comentário 1.67. Isto on lui a demonstração da parte ( ) do Teorema 1.55.


Podemos repetir o argumento para as restantes igualdades de (1.31), prosseguindo
su essivamente de baixo para ima. Há, todavia, um uidado a ter: ao onsiderar

ej = dim Nj = dim N (A − λIn ) ∩ Im(A − λIn )j−1 é importante
a igualdade para n
re ordar a adeia de in lusões (1.28) e, portanto, o fa to do valor de ej não
n ser igual
ao número de adeias de Jordan om omprimento j, mas sim ao número total de
adeias de Jordan om omprimento maior ou igual a j , e, portanto, também ao
número total de blo os de Jordan de dimensão maior ou igual a j .

Comentário 1.68. Isto on lui a demonstração da parte (d) do Teorema 1.55.


A última apli ação deste argumento é feita, naturalmente, à primeira igualdade
de (1.31). Aqui tem-se e1 = dim N(A − λIn ).
n Note-se que a quantidade no membro
direito é, por denição, a multipli idade geométri a, γ, do valor próprio λ e a do
membro esquerdo é, pelo que se deduziu a ima, igual ao número total de blo os de
Jordan orrespondentes a este valor próprio. Estas duas quantidades são, portanto,
iguais.

Comentário 1.69. Isto on lui a demonstração da parte (b) do Teorema 1.55.


60 F.P. Costa
Retomemos outra vez as igualdades (1.31) e adi ionemo-las. É evidente que
obtemos

n
e1 + n
e2 + n eν = dim N (A − λIn )ν = dim N (A − λIn )n = α,
e3 + · · · + n

onde α é a multipli idade algébri a de λ. Esta igualdade signi a que (e


n1 , . . . , n
eν )
onstitui uma partição do inteiro positivo α, ( onsulte [1℄).
Por outro lado, a dis ussão anterior sobre a relação entre o número n
ej e a soma
do número de blo os de Jordan de dimensão superior ou igual a j permite on luir
o seguinte: designemos por m1 > m2 > · · · > mγ o omprimento de ada uma das
γ adeias de Jordan (sabemos que existem γ adeias de Jordan porque já provámos
a alínea (b) do Teorema 1.55  f. Comentário 1.69 , e sabemos também que
o tamanho da maior adeia é m1 = ν porque também já provámos a alínea ( ) do
Teorema 1.55  f. Comentário 1.67). Seja nℓ o número de blo os de Jordan de
(h)
dimensão igual a ℓ, ou seja

nℓ = #{i : mi = ℓ}.

Consequentemente,

ν
X ν
X
n
ej = nℓ = #{i : mi = ℓ} = #{i : mi > j},
ℓ=j ℓ=j

(i)
e, portanto, as partições (e
n1 , . . . , n
eν ) e (m1 , . . . , mγ ) são partições onjugadas .
Portanto, utilizando este fa to, sabemos que

mj = #{i : n
ei > j}. (1.32)

Um ál ulo simples permite on luir que m1 + m2 + · · · + mγ = α e, omo a


soma de todos os mj é igual à quantidade total de vetores nas adeias de Jordan, e
tendo presente que estes são todos linearmente independentes ( f. página 56 após a
demonstração do Lema 1.63), on luimos om isto o es lare imento da estrutura da
matriz de Jordan J, i.e., sabemos agora quantos blo os de Jordan a onstituem e
quais as dimensões de ada um desses blo os. Resta-nos es lare er omo, na práti a,
ν
onseguimos determinar uma base N (A − λIn ) apropriada para onseguirmos on-
struir a matriz de semelhança.
Antes, porém, voltamos brevemente às partições e suas onjugadas para intro-
duzir um on eito que é muito útil, na práti a, para rela ionar as duas, em parti ular
quando os números envolvidos não são muito grandes. Para partições envolvendo

Repare que isto é exatamente a denição de nℓ : é o número total dos mi s que são iguais a ℓ,
(h)

ou seja, é o número total dos índi es i que orrespondem a mi om o mesmo valor ℓ.


(i)
Dada uma partição a = (a1 , a2 , . . . , ap ), a partição onjugada de a é a partição a∗ = (a∗1 , . . . , a∗q )
tal que a∗k é o número de aj s que são superiores ou iguais a k . Por exemplo, sendo a = (6, 4, 3, 3, 1),
então a∗ = (5, 4, 4, 2, 1, 1), ou seja a∗1 = 5 uma vez que na partição a existem 5 termos superiores ou
iguais a 1 (de fa to, todos eles o são), e a∗2 = 4 porque em a existem 4 termos superiores ou iguais
a 2 (a saber: 6, 4, 3, 3), et . É fá il de al ular neste exemplo que (a∗ )∗ = a. Esta igualdade é,
de fa to, válida para qualquer partição a, resultado que não demonstramos mas que veri aremos
que é óbvio a partir do diagrama de Ferrers da partição ( f. texto).

21003 - Álgebra Linear II 61


quantidades n
ej não muito elevadas os elementos mk da partição onjugada podem
ser fa ilmente obtidos re orrendo ao diagrama de Ferrers ( f. [1, pp. 18-19℄ ou
[6, pp. 135-136℄), uma entidade uja onstrução e utilidade ilustraremos a seguir.
Considere-se a partição (e
n1 , . . . , n
e5 ) = (6, 4, 3, 3, 1) e onstrua-se um diagrama em
que na primeira linha se desenham 6 pontos, na segunda 4 pontos, et ., até à quinta
linha, om 1 ponto:
e1 : • • • • • •
n
e2 : • • • •
n
e3 : • • •
n
e4 : • • •
n
e5 : •
n
Este é o diagrama de Ferrers da partição onsiderada. Para obter a partição on-
jugada (m1 , . . . , mγ ) reete-se o diagrama relativamente à sua diagonal prin ipal
(i.e., tro am-se as linhas om as olunas), e lêem-se os valores de mk ontando o
número de pontos na orrespondente linha, ou seja, para o exemplo on reto em
onsideração a partição onjugada é (5, 4, 4, 2, 1, 1):

m1 : • • • • •
m2 : • • • •
m3 : • • • •
m4 : • •
m5 : •
m6 : •

Obviamente que o pro esso de reexão do diagrama pode ser evitado lendo os valores
mk da partição onjugada diretamente da ontagem dos pontos nas olunas do
diagrama de Ferrers original:
: m2
: m3
: m4
: m5
: m6
: m1

n
e1 : • • • • • •
n
e2 : • • • •
n
e3 : • • •
n
e4 : • • •
n
e5 : •

É evidente daqui que a onjugada de uma onjugada é a partição original, pois


orresponde a, sempre no mesmo diagrama, passar de uma leitura em linhas para
uma leitura em olunas e, novamente, para uma leitura em linhas.

Retomemos agora a questão da determinação de uma base apropriada. Pelo que


já zemos, pre isamos apenas de provar que existe uma base de N (A − λIn ) do tipo

(A − λIn )m1 −1 v1 , . . . , (A − λIn )mγ −1 vγ ,

o que faremos seguidamente:

62 F.P. Costa
Algoritmo 1.
1. Para onstruir uma tal base, ome emos por tomar uma base B ν = {b1 , . . . , bneν }
do espaço vetorial n
eν -dimensional Nν = N (A−λIn )∩Im(A−λIn )ν−1 . Natural-
Convença-
mente que os elementos bj de Bν são do tipo bj = (A − λIn )ν−1 vj , 1 6 j 6 n
eν . se disto om
Por outro lado, sabe-se que ν = m1 = . . . = mneν , pelo que se pode es rever diagramas
bj = (A − λIn )mj −1 vj , sendo 1 6 j 6 n
eν . Os vetores próprios perten entes a de Ferrer!
Bν são aqueles om base nos quais se onstroem as n eν adeias de Jordan de
omprimento máximo (= ν ).
2. Claro que se neν < γ temos de a res entar a Bν vetores adequados de modo a
obter a base pretendida.
Sendo este o aso, prosseguimos na adeia de in lusões (1.28) para subespaços
de N1 = N (A − λIn ) su essivamente maiores:
Se n
eν−1 > neν , es olhemos de Nν−1 um número n nν de vetores linearmente
eν−1 −e
independentes, quer entre si, quer om os vetores de B. Estes vetores são do
tipo bj = (A − λIn )ν−2 vj , n eν−1 . Analogamente ao aso anterior,
eν + 1 6 j 6 n
Novamente: use
neste aso tem-se ν − 1 = mneν +1 = . . . = mneν−1 , pelo que se podem es rever diagramas de
estes vetores adi ionais na forma bj = (A−λIn )mj −1 vj , om n
eν +1 6 j 6 neν−1 . Ferrer para se
Assim, reunindo este vetores à base Bν de Nν , onseguimos obter uma base onven er disto!
Bν−1 de Nν−1 . Os vetores próprios de Bν−1 \ Bν são aqueles om base nos
quais se onstroem as n eν−1 − n eν adeias de Jordan ujo omprimento é o
segundo maior.
Se n eν , a base Bν de Nν é também uma base Bν−1 de Nν−1 .
eν−1 = n

3. Prossegue-se agora su essivamente, ao longo dos espaços su essivamente maiores,


na adeia de in lusões (1.28) até se obter a base pretendida.

Regressando ao iní io desta se ção (página 55), o que a abámos de on luir é


(j)
que ada blo o diagonal A em que o Teorema 1.54 permitiu de ompor a matriz A
pode ser transformado num blo o de Jordan por uma mudança de base apropriada,
que era exatamente o que pretendíamos provar.

Comentário 1.70. Isto on lui a demonstração do Teorema 1.55.


Convém observar que ninguém no seu devido juízo faz à mão os ál ulos iner-
entes à apli ação do Teorema da De omposição de Jordan 1.55 a matrizes de di-
mensões elevadas. Em parti ular, o algoritmo envolvido na determinação da base
apropriada de vetores próprios pode ser de apli ação práti a extremamente traba-
lhosa para matrizes de dimensão apenas moderadamente elevada. Na esmagadora
maioria dos asos que trataremos a dimensão do espaço próprio relevante será baixa
pelo que a apli ação do algoritmo para a determinação da base virá bastante sim-
pli ada, e, por vezes, a determinação da base apropriada pode mesmo ser feita, de
modo e iente, por tentativas a partir da base do espaço próprio generalizado da
matriz, omo su edeu no aso que onsiderámos no Exemplo 1.56 Convém também

21003 - Álgebra Linear II 63


relembrar que existem outros algoritmos para a determinação de bases de Jordan
(as quais, omo também se referiu anteriormente, estão longe de serem úni as!), mas
nenhum deles pare e ser omputa ionalmente mais vantajoso do que os restantes.
Para organizar as ideias, sumarizamos agora o pro edimento envolvido na deter-
minação da forma anóni a de Jordan de uma matriz:

Sumário 1. Seja A ∈ M (C). n×n

1. Determine todos os k valores próprios distintos de A, λ , . . . , λ , e as suas mul-


1 k
tipli idades algébri as ma(λj ) = αj e geométri a mg(λj ) = γj . A partir destes
dados pode on luir o seguinte:
(a) A matriz de Jordan orrespondente a A é uma matriz diagonal por blo os,
om k blo os J = diag(J (1) , . . . , J (k) ).
(b) Cada blo o J (j) tem de dimensão αj , e é, também, uma matriz diagonal
por blo os, sendo todos os seus blo os élulas de Jordan om o mesmo
valor próprio λj .
( ) O número de élulas de Jordan que onstituem ada J (j) é igual a γj .
2. Para ada λ , determine as dimensões dos vários espaços N (A − λ I ) , para
j j n
k

k = 1, 2, . . . , até hegar ao primeiro valor de k para o qual o dim N (A −


λj In )k = dim N (A − λj In )k+1 . Chame a esse valor νj . A partir deste dado
on lui o seguinte:
(a) A dimensão da maior élula de Jordan que integra J (j) é igual a νj
3. Cal ule as quantidades ne = dim N (A − λ I ) − dim N (A − λ I )
ℓ j n

j n
ℓ−1
, om ℓ =
1, . . . , νj , forme om elas a partição (e eν ) de αj e, usando (1.32) ou
n1 , . . . , n
re orrendo ao diagrama de Ferrers, al ule a partição (m1 , . . . , mγj ) onjugada
da partição (e eν ). Com este dado on lui o seguinte:
n1 , . . . , n

(a) As élulas de Jordan que onstituem J (j) têm exatamente as dimensões


dadas pelos números da partição (m1 , . . . , mγj ).
4. A determinação da base de Jordan pode ser feita re orrendo ao Algoritmo 1,
onstruindo as orrespondentes adeias de Jordan, e ordenando os vetores de
a ordo om o des rito na alínea (e) do Teorema da De omposição de Jor-
dan 1.55.

1.4.6 Mais um exemplo


Exemplo 1.71. Seja A ∈ M5×5 (C) a seguinte matriz

 
1 0 −2 0 4
 0 1 0 −1 1 
 
A=  0 0 1 0 0 
.
 0 0 0 1 3 
0 0 0 0 1

64 F.P. Costa
Iremos determinar uma forma de Jordan J semelhante a A e uma orrespondente

Sumário Algoritmo
matriz de semelhança P seguindo o pro edimento estudado anteriormente (nomeada-
mente o 1 e o 1).

(i) Come emos por al ular os valores próprios: sendo A uma matriz triangular, os
seus valores próprios são os elementos da diagonal prin ipal. Portanto o úni o
valor próprio é λ = 1, om α = ma(λ) = 5.
Nesta altura podemos, por apli ação dos pontos 1.(a) e 1.(b) do Sumário 1,
podemos garantir que a matriz A é semelhante a uma forma anóni a de Jordan
J (1) .

(ii) Cal ulemos os espaço próprio N (A − I5 ): Como


 
0 0 −2 0 4
 0 0 0 −1 1 
 
A − I5 =  0 0 0 0 0 .

 0 0 0 0 3 
0 0 0 0 0

on lui-se fa ilmente que os vetores u ∈ C5 para os quais de (A − I5 )u = 0 são


todos os do tipo u = (u1 , u2, 0, 0, 0) e, portanto, dim N (A − I5 ) = 2, ou seja
γ = mg(λ) = 2.
Este resultado permite-nos on luir, por apli ação do ponto 1.( ) do Sumário 1,
que J (1) tem duas élulas de Jordan.

(iii) Cal ulemos agora os espaços N (A − I5 )k . Não é difí il (nem sequer é trabal-
hoso!) on luir que

 
0 0 0 0 0
 0 0 0 0 −3 
 
(A − I5 ) = 
2
 0 0 0 0 0 
 e (A − I5 )3 = 0
 0 0 0 0 0 
0 0 0 0 0

donde se deduz que

N (A − I5 )2 = {(a1 , a2 , a3 , a4 , 0) : a1 , . . . , a4 ∈ C} , dim N (A − I5 )2 = 4
N (A − I5 )3 = C5 , dim N (A − I5 )3 = 5

e, naturalmente, a partir da última linha, N (A − I5 )4 = C5 , pelo que ν = 3.


Portanto, por apli ação do ponto 2.(a) do Sumário 1, a maior élula de Jordan
(1)
de J tem dimensão 3.

Note-se que, neste aso, omo sabemos que J (1) tem dimensão 5, tem duas
élulas, e a maior delas tem dimensão 3, on luímos logo que a outra élula
tem dimensão 2, sem ne essidade de re orrer ao ál ulo das quantidades n
ek e
mk . Podemos, assim, neste aso, ignorar por ompleto o ponto 3 do Sumário 1.

21003 - Álgebra Linear II 65


Sabemos, nesta altura, que o Teorema da De omposição de Jordan garante a
existên ia de uma matriz invertível P tal que

 
1 1 0
 0 1 1 
 
P −1 AP = J = J (1) =
 0 0 1 ,

 1 1 
0 1

onde os elementos não expli itamente es ritos valem zero. Resta-nos determi-
nar a matriz P, o que faremos nos pontos seguintes:

(iv) Sabemos já que ν = 3. Seguindo o Algoritmo 1, ome emos por determinar


uma base de N3 = N (A−λI5 )∩Im(A−λI5 )2 . Já sabemos, pelo ponto (ii) a ima,
5
que N (A − I5 ) = {(u1 , u2 , 0, 0, 0) ∈ C : u1 , u2 ∈ C} , Por outro lado, no ponto
2
(iii) já al ulamos a matriz (A − I5 ) , pelo que a determinação do seu espaço
2 5
das imagens é, agora, imediata: Im(A − I5 ) = {(0, β, 0, 0, 0) ∈ C : β ∈ C} .
Os vetores omuns a estes dois espaços serão os elementos de N3 e portanto,
neste aso, é evidente que N3 = h(0, 1, 0, 0, 0)i.

Portanto, pelo ponto 1 do Algoritmo 1, on luímos que a adeia de Jordan


de omprimento 3 pode ser onstruída usando o vetor próprio (0, 1, 0, 0, 0).
Faremos isto mais adiante, em (vi).

(v) Continuando a apli ar o Algoritmo 1, o outro vetor próprio de A que servirá


para onstruir o blo o de dimensão 2 é es olhido de entre os elementos do
espaço N2 = N (A − λI5 ) ∩ Im(A − λI5 ) que são linearmente independentes
do vetor já es olhido em (iv). Con lui-se sem di uldade que Im(A − I5 ) =
{(f, g, 0, h, 0) ∈ C5 : f, g, h ∈ C} . Intersetando este onjunto om o espaço pró-
5
prio N (A−λI5 ) on lui-se que N3 = {(f, g, 0, 0, 0) ∈ C : f, g ∈ C} . Temos que
es olher neste espaço um vetor linearmente independente do vetor es olhido
(j)
no ponto (iv) anterior. Es olhemos, por exemplo , (1, 1, 0, 0, 0).
Portanto, pelo ponto 2. do Algoritmo 1, on luímos que a adeia de Jordan
de omprimento 2 pode ser onstruída usando o vetor próprio (1, 1, 0, 0, 0).
Faremos isto a seguir.

Note-se que, om isto, estamos de posse de todos os vetores próprios linear-


mente independentes de que ne essitamos para onstruir as adeias de Jordan
que onstituem a matriz P pretendida.

(vi) Cal ulemos agora as duas adeias de Jordan ujos vetores onstituirão a base
5
de C que pro uramos.

• Cál ulo da adeia de Jordan de dimensão 3: vimos no ponto (iv) que


esta adeia é a que ontém o vetor próprio (0, 1, 0, 0, 0). Designemos este
vetor por p1 . Sabemos que a adeia de Jordan é onstituida pelo vetor

Uma es olha talvez mais natural e simples seria tomar (1, 0, 0, 0, 0). Deixamos esta es olha
(j)

omo exer í io para o leitor!

66 F.P. Costa
p1 e ainda por mais dois vetores p2 e p3 , que satisfazem (A − I5 )p2 = p1
e (A − I5 )p3 = p2 . Para o primeiro destes sistemas, es revendo p2 =
(p1,2 , p2,2 , . . . , p5,2 ), tem-se
      
0 0 −2 0 4 p1,2 0  p1,2
 0 0  
0 −1 1  p2,2  1     p3,2 = 0  
 p2,2 
 0 0 0 0       
 0  p3,2  = 0 ⇔  p4,2 = −1 ⇔ p2 =  0  ,
 0 0 0 0 3   p4,2  0  p5,2 = 0  −1 
0 0 0 0 0 p5,2 0 0
onde p1,2 e p2,2 são omplexos arbitrários. Es olhamo-los omo sendo
zero. Então o vetor p2 vem p2 = (0, 0, 0, −1, 0).
Para o segundo sistema, es revendo p3 = (p1,3 , p2,3 , . . . , p5,3 ), tem-se
 
     p1,3
0 0 −2 0 4 p1,3 0 
 p3,3 = − 23 p2,3 
 0 0 0 −1 1   p   0  
  
   2,3     2
 0 0 0 0 0  p3,3  =  0  ⇔ p4,3 = − 31 ⇔ p3 =  − 
       3,
 0 0 0 0 3  p4,3  −1 
 p = −1  1
5,3 3
− 3 
0 0 0 0 0 p5,3 0
− 13
onde p1,3 e p2,3 são omplexos arbitrários. Tal omo zemos no al ulo
anterior, es olhamo-los omo sendo zero.
 Então o vetor p3 vem p3 =
0, 0, − 23 , − 31 , − 13 .
• Cál ulo da adeia de Jordan de dimensão 2: vimos no ponto (v) que
esta adeia é a que ontém o vetor próprio (1, 1, 0, 0, 0). Designemos este
vetor por p4 . Sabemos que a adeia de Jordan é onstituida pelo vetor p4
e ainda por mais um vetor p5 que satisfaze (A − I5 )p5 = p4 . Es revendo
p5 = (p1,5 , p2,5 , . . . , p5,5 ), pode-se resolver o sistema obtendo
 
     p1,5
0 0 −2 0 4 p1,5 1  1 p2,5 
 0 0  p2,5  1  p = −  
 0 −1 1      3,5 2
 1
 0 0 0 0 0  p3,5  = 0 ⇔ ⇔ p = −  ,
     5  2
 0 0 0 0 3  p4,5  0  p4,5 = −1
  
p5,5 = 0  −1 
0 0 0 0 0 p5,5 0 0
onde p1,5 e p2,5 são omplexos arbitrários. Novamente, efetuamos a es-
olha mais simpli adora de assumir que estas onstantes são iguais a
1

zero. Então o vetor p5 vem p5 = 0, 0, − , −1, 0 .
2

Com isto, estamos na posse de in o vetores p1 , . . . , p5 que onstituem uma


base om as ara terísti as pretendidas. Antes de passar ao ponto nal do
exemplo onvém observar o seguinte:

 houve diversas es olhas feitas a er a dos valores de onstantes omplexas


arbitrárias. Es olhas diferentes produzirão bases diferentes e, onse-
quentemente, matrizes de semelhança, P,
diferentes. No entanto, todas
−1
elas resultarão a mesma matriz de Jordan P AP .

21003 - Álgebra Linear II 67


 podemos omprovar diretamente que as adeias de Jordan onstruidas a
partir de p1 e de p4 têm mesmo os omprimentos 3 e 2, respetivamente.
Se tentarmos prolongá-las para além de p3 e de p5 , respetivamente, veri-
 amos que tal não é possível: por exemplo, se quisermos prolongar a
adeia onstruída a partir de p1 para além de p3 teremos de onseguir
5
en ontrar um vetor q ∈ C que satisfaça (A − I5 )q = p3 . No entanto, é
Faça-o! fá il on luir que este sistema é impossível. O mesmo se passa om o
orrespondente sistema para a adeia baseada em p4 . É laro que estas
veri ações são inúteis: o Algoritmo 1 arma-nos que é exatamente isso
que se passa!

(vii) (Grand nale!) Usando as adeias al uladas no ponto anterior e ordenando-


as de a ordo om a alínea (e) do Teorema da De omposição de Jordan 1.55,
obtemos P = [p1 | p2 | p3 | p4 | p5 ], ou seja,
 
0 0 0 1 0
 1 0 0 1 0 
 
 0 0 − 23 0 − 21 
P = 
.

 0 −1 − 13 0 −1 
 
0 0 − 31 0 0

Cal ulando a inversa vem


 
−1 1 0 1 0
 2 −2 2 −1 −3 
 
P −1
=
 0 0 0 0 −3 
.
 1 0 0 0 0 
−2 2 −2 0 4

e efetuando as multipli ações P −1 AP on luimos que

P −1AP =
 
   0 0 0 1 0
−1 1 0 1 0 1 0 −2 0 4  1 0 0 1 0 
 2 −2  
2 −1 −3   0 1 0 −1 1   
  0 0 − 23 0 − 21 

=  0 0 0 0 −3   0   
 0 0 1 0  
 1 0 0 0 0  0 0 0 1 3  0 −1 − 13 0 −1 
 
−2 2 −2 0 4 0 0 0 0 1 0 0 − 31 0 0
 
1 1 0
 0 1 1 
 
= 
 0 0 1 ,

 1 1 
0 1
omo sabíamos que teria de a onte er.

68 F.P. Costa
Bibliograa
[1℄ C. André, F. Ferreira, Matemáti a Finita, Universidade Aberta, vol. 203, Lisboa,
2000.

[2℄ I. Cabral, C. Perdigão, C. Saiago, Álgebra Linear, 2a Ed., Es olar Editora, Lisboa,
2010.

[3℄ F.R. Dias Agudo, Introdução à Álgebra Linear e Geometria Analíti a, 4a Edição,
Es olar Editora, Lisboa, 1996.

[4℄ H. Dym, Linear Algebra in A tion, Graduate Studies in Mathemati s, vol. 78,
Ameri an Mathemati al So iety, Providen e RI, 2007.

[5℄ L.T. Magalhães, Álgebra Linear Como Introdução à Matemáti a Apli ada, 4
a

Edição, Texto Editora, Lisboa, 1992.

[6℄ R. Piziak, P.L. Odell, Matrix Theory: From Generalized Inverses to Jordan
Form, Pure and Applied Mathemati s, Chapman & Hall, Bo a Raton FL, 2007.

[7℄ A.P. Santana, J.F. Queiró, Introdução à Álgebra Linear, Traje tos Ciên ia, vol.
10, Gradiva, Lisboa, 2010.

Você também pode gostar