Escolar Documentos
Profissional Documentos
Cultura Documentos
1
Rodney Josué Biezuner
Departamento de Matemática
Instituto de Ciências Exatas (ICEx)
Universidade Federal de Minas Gerais (UFMG)
30 de agosto de 2019
1
E-mail: rodney@mat.ufmg.br; homepage: http://www.mat.ufmg.br/∼rodney.
Sumário
Capa 1
Sumário 3
1 Espaços Vetoriais 4
1.1 Estruturas Algébricas Fundamentais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.1 Corpos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Espaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Bases e Dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4 Subespaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5 Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.6 Álgebras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.6.1 A Álgebra de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.7 Matriz de Mudança de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.8 Somas de Subespaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.9 Somas Diretas de Espaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2 Lineomorfismos 26
2.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.1.1 Existência e Unicidade de Lineomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.2 Isomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2 Espaço Quociente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3 Teorema do Núcleo e da Imagem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4 Representações Matriciais de Morfismos Lineares . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.5 A Álgebra dos Operados Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.6 Álgebras de Lie Mn (K) e Hom (V ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.7 Funcionais Lineares e o Espaço Dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.8 O Morfismo Dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.8.1 Núcleo e Imagem do Morfismo Dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.8.2 Representação Matricial do Morfismo Dual . . . . . . . . . . . . . . . . . . . . . . . . 47
3 Determinantes 49
3.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.2 Existência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.3 Unicidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.3.1 Grupo de Permutações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.3.2 Demonstração da Unicidade da Função Determinante . . . . . . . . . . . . . . . . . . 57
3.3.3 Fórmula do Determinante através de Permutações . . . . . . . . . . . . . . . . . . . . 59
3.4 Propriedades do Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.5 Regra de Cramer e Fórmula da Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
1
Rodney Josué Biezuner 2
7 Metrolineomorfismos 158
7.1 Operadores Lineares Métricos e Grupo Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . 158
7.2 Rotações e Reflexões . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
7.3 Isometrias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
7.4 Operadores Adjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
7.4.1 Teorema da Representação de Riesz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
7.4.2 Morfismo Adjunto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
7.4.3 Alternativa de Fredholm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
Rodney Josué Biezuner 3
Espaços Vetoriais
x + (y + z) = (x + y) + z.
x + y = y + x.
x + 0 = 0 + x = x.
x + (−x) = (−x) + x = 0.
Produto:
Associatividade: para todos x, y ∈ K vale
x (yz) = (xy) z.
xy = yx.
x1 = 1x = x.
4
Rodney Josué Biezuner 5
xx−1 = x−1 x = 1.
x (y + z) = xy + xz.
Em outras palavras, um corpo tem duas estruturas de grupo comutativo e estas estruturas são compatı́veis.
No caso do produto, K como um todo é um grupo apenas quando o zero é excluı́do, isto é, (K, produto)
não é um grupo pois o 0 não possui inverso, mas (K∗ , produto) é, onde
K∗ = K\ {0} .
Como 0 não possui inverso e 1 possui inverso 1, em particular segue que 0 6= 1 e um corpo K possui pelo
menos dois elementos. O corpo Z2 possui exatamente os dois elementos 0 e 1.
1.2 Definição. A caracterı́stica de um corpo K é o menor inteiro n tal que
1 + · · · + 1 = 0,
| {z }
p vezes
K=R ou K = C,
mas a maioria dos resultados valerá para todos os corpos e apenas uma minoria para corpos de caracterı́stica
diferente de 2 e uma minoria ainda menor apenas para corpos de caracterı́stica zero.
u + (v + w) = (u + v) + w.
v + w = w + v.
Rodney Josué Biezuner 6
Existência de Identidade: existe um elemento 0 ∈ V (vetor nulo) tal que para todo v ∈ V temos
v + 0 = 0 + v = v.
v + (−v) = 0.
x (yv) = (xy) v.
Distributividade:
(i) Para todos v, w ∈ V e para todo x ∈ K
x (v + w) = xv + xw.
(x + y) v = xv + yv.
ou seja,
0 = x0.
(ii) Temos
0v = (0 + 0) v = 0v + 0v,
Rodney Josué Biezuner 7
ou seja,
0 = 0v.
(iii) Suponha que exista x ∈ K, x 6= 0, tal que xv = 0 para algum v ∈ V , v 6= 0. Então
= 1v
= v,
0 = 0v
= [1 + (−1)] v
= 1v + (−1) v
= v + (−1) v.
isto é,
0 = v + (−1) v.
Somando −v a ambos os lados, segue que
−v + 0 = −v + [v + (−1) v]
= (−v + v) + (−1) v
= 0 + (−1) v,
ou seja,
−v = (−1) v.
0
(v) Se 0 são dois vetores nulos 0 , por definição
00 = 00 + 0 = 0.
1.6 Corolário. Se um K-espaço vetorial possui um vetor não nulo, então ele possui pelo um número de
vetores igual à cardinalidade de K.
Rodney Josué Biezuner 8
Kn = x 1 , . . . , x n : x 1 , . . . , x n ∈ K ,
ou seja,
Rn = x1 , . . . , x n : x1 , . . . , x n ∈ R ,
Cn = z 1 , . . . , z n : z 1 , . . . , z n ∈ C ,
com a soma e produto por escalar usuais são K-espaços vetoriais. Assim também o espaço das ∞-uplas
K∞ = x0 , x1 , x2 , . . . : xi ∈ K para todo i ∈ N ,
1.9 Exemplo (Espaço das K-matrizes m × n). O espaço das matrizes m × n com elementos em K com
a soma e produto escalar usuais é um K-espaço vetorial, que denotaremos Mm×n (K).
1.10 Exemplo (Espaços de Polinômios com coeficientes em K). Os espaços de polinômios com
coeficientes em K ( n )
X
i
K [x] = ai x : a0 , . . . an ∈ K, n ∈ N ,
i=0
ou seja
( n )
X
R [x] = ai xi : a0 , . . . an ∈ R, n ∈ N ,
i=0
( n )
X
i
C [x] = ai x : a0 , . . . an ∈ C, n ∈ N .
i=0
com a soma e produto por escalar usuais são K-espaços vetoriais. Assim também os espaços de polinômios
com coeficientes em K até grau n:
( n )
X
i
Kn [x] = ai x : a0 , . . . an ∈ K .
i=0
1.11 Exemplo (Espaços de Funções). Os espaços F (X; K) de funções com domı́nio em um conjunto X
e com valores em K com a soma e produto por escalar de funções usuais são K-espaços vetoriais.
Assim também, se X ⊂ Rn é um aberto, o espaço das funções contı́nuas C 0 (X; R), o espaço das funções
k-continuamente diferenciáveis C k (X; R), o espaço das funções suaves C ∞ (X; R), o espaço das funções
p-integráveis Lp (X; R), e vários outros espaços de funções.
Ao invés de funções tomando valores em K podemos considerar também funções tomando valores em Kn .
Rodney Josué Biezuner 9
k
X
xi vi = x1 v1 + . . . + xk vk
i=1
com x1 , . . . , xk ∈ K e v1 , . . . , vk ∈ S.
1.13 Definição. Dizemos que um conjunto S ⊂ V é linearmente dependente (LD) se existir um número
finito de vetores v1 , . . . , vk ∈ S e escalares x1 , . . . , xk ∈ K não todos nulos tais que
x1 v1 + . . . + xk vk = 0,
ou seja, o vetor nulo pode ser escrito como uma combinação linear não trivial de elementos de S.
Caso contrário, isto é, se
x 1 v1 + . . . + x k vk = 0
só for possı́vel quando
x1 = . . . = xk = 0
dizemos que S é linearmente independente (LI).
1.14 Exemplo. O subconjunto infinito
S = xk : k ∈ N
é LI em K [x].
Um subconjunto LI não pode conter o vetor nulo, pois
x0 = 0
x1 v1 + . . . + xk vk = 0.
v0 = x 1 v1 + . . . + x k vk ,
então
v0 − x 1 v1 − . . . − x k vk = 0
é uma combinação linear não-trivial de elementos de S, pois o coeficiente de v0 é o escalar não nulo 1.
Rodney Josué Biezuner 10
1.16 Definição. Dizemos que um conjunto S ⊂ V gera o espaço V se para todo v ∈ V existirem vetores
v1 , . . . , vk ∈ S e escalares x1 , . . . , xk ∈ K tais que
v = x 1 v1 + . . . + x k vk .
Denotaremos
V = hv1 , . . . , vk i .
1.17 Definição. Dizemos que um conjunto B ⊂ V é uma base para o espaço V se:
(i) B gera V e
(ii) B é LI.
S1 = {w1 , v2 , . . . , vk }
1 x2 xk
v1 = w1 − v 2 − . . . − vk ,
x1 x1 x1
de modo que se
v = y 1 v1 + y 2 v2 + . . . + y k vk ,
Rodney Josué Biezuner 11
então
y1 2 k
2 1x 1x
v = 1 w1 + y − y 1 v2 + . . . + yk − y 1 vk .
x x x
Agora, como S1 gera V e S 0 é LI, temos
para alguns escalares x12 , x22 , . . . , xk2 , com x22 , . . . , xk2 não todos nulos (caso contrário, w2 seria um múltiplo
escalar de w1 ). Supondo x22 6= 0, reordenando os ı́ndices se necessário, usamos o mesmo argumento acima
para concluir que podemos substituir v2 por w2 , de modo que o conjunto
S2 = {w1 , w2 , v3 , . . . , vk }
gera V . Repetindo este procedimento sucessivamente, concluı́mos que podemos substituir todos os vetores vi
por um número equivalente de wi (já que, por hipótese de absurdo, l > k), e assim obter que o subconjunto
próprio
Sk = {w1 , . . . , wk }
de S 0 gera V . Mas então, por definição de conjunto gerador, existem escalares x1k+1 , . . . , xkk+1 tais que
1.23 Teorema. Todas as bases de um espaço vetorial de dimensão finita possuem o mesmo número de
elementos.
Prova. Sejam
B1 = {v1 , . . . , vk } ,
B2 = {w1 , . . . , wl } ,
duas bases do espaço vetorial de dimensão finita V . Aplicando a proposição anterior ao conjunto gerador
B1 e ao conjunto LI B2 concluı́mos que l 6 k; aplicando a proposição anterior ao conjunto gerador B2 e ao
conjunto LI B1 concluı́mos que k 6 l. Portanto, k = l.
1.24 Definição. O número de elementos de uma base qualquer de um espaço vetorial de dimensão finita V
é chamada a dimensão do espaço e denotada dim V .
Se V = {0}, então definimos dim V = 0.
1.25 Corolário. Se dim V = n, então todo subconjunto de V com mais de n vetores é LD.
Prova. Segue imediatamente da Proposição 1.22.
1.26 Teorema. Todo espaço vetorial não nulo gerado por um subconjunto finito possui uma base finita.
Prova. Suponha que S seja um subconjunto finito que gera o subespaço vetorial não-nulo V . Se S for LI,
então S é a base procurada e não precisamos fazer nada. Caso contrário, se S é LD, podemos retirar um
elemento de S e o conjunto resultante ainda gerará V (retire um elemento que seja combinação linear dos
demais). Se o conjunto restante for LI, então ele será uma base finita para V . Caso contrário, repetimos o
procedimento, até obter um conjunto LI.
1.27 Lema. Seja S um subconjunto LI de um espaço vetorial V . Suponha que v é um vetor de V que não
pertence ao subespaço gerado por S. Então S ∪ {v} é LI.
Rodney Josué Biezuner 12
x1 v1 + . . . + xk vk + xv = 0.
x1 v1 + . . . + xk vk = 0,
S1 = {v1 , . . . , vk , vk+1 }
é LI. Se k + 1 < n, repetimos o processo. Se dim V = n, repetimos este processo n − k vezes até encontrar
um subconjunto
Sn−k = {v1 , . . . , vk , vk+1 , . . . , vn }
que é uma base para V .
A recı́proca é óbvia.
1.31 Exemplo. Se W1 , W2 são dois subespaços de V tais que
W1 W2 ,
W2 W1 ,
Rodney Josué Biezuner 13
w1 ∈ W1 \W2 ,
w2 ∈ W2 \W1 ,
sua interseção. Como cada Wλ contém o vetor nulo, segue que W também contém o vetor nulo, em particular
é não vazio e podemos usar a Proposição 1.30 para provar que W é um subespaço.
De fato, dados quaisquer v, w ∈ W , temos que v, w ∈ Wλ para cada ı́ndice λ ∈ Λ (por definição de
interseção de conjuntos), logo xv + yw ∈ Wλ para todos x, y ∈ K (pela Proposição 1.30, pois cada Wλ é um
subespaço de V ), portanto xv + yw ∈ W para todos x, y ∈ K (novamente, pela definição de interseção de
conjuntos). Segue da Proposição 1.30 que W é um subespaço.
Segue deste resultado que dado um subconjunto de um espaço vetorial, existe um menor subespaço que o
contém:
1.33 Proposição. Seja V um espaço vetorial e S um subconjunto não vazio de V . O subespaço W = hSi
gerado por S é a interseção de todos os subespaços de V que contém S.
Prova. Denote por W 0 a interseção de todos os subespaços de V que contém S. Pela Proposição 1.30, como
S ⊂ W 0 , segue que
W ⊂ W 0.
Por outro lado, pela Proposição 1.32 o conjunto W 0 é um subespaço de V , portanto fechado com relação a
combinações lineares de seus elementos, em particular dos elementos de S que ele contém, logo
W 0 ⊂ hSi = W.
Assim W 0 = W .
1.34 Teorema. Se W é um subespaço próprio de um espaço vetorial de dimensão finita V , então W também
tem dimensão finita e dim W < dim V .
Prova. Seja n = dim V . Qualquer subconjunto S ⊂ W LI em W é também LI em V , por definição de
independência linear. Como V tem dimensão finita, S não pode conter mais que n elementos, pela Proposição
1.25.
O resultado deste teorema é óbvio se W é o subespaço nulo. Se W não é o subespaço nulo, existe v1 ∈ W ,
v1 6= 0. Tome
S1 = {v1 } ,
de modo que S1 é um subconjunto LI de W . Estendemos S1 a uma base para W da seguinte forma: se S1
já é uma base para W , então não é necessário fazer mais nada; caso contrário, se S1 não gera W , usamos o
Lema 1.27 para encontrar um vetor v2 ∈ V \ hS1 i tal que
S2 = S1 ∪ {v2 } = {v1 , v2 }
é LI. Se S2 já é uma base para W , então não é necessário fazer mais nada; caso contrário, se S2 não gera W ,
usamos o Lema 1.27 novamente para encontrar um vetor v3 ∈ V \ hS2 i tal que
S3 = S2 ∪ {v3 } = {v1 , v2 , v3 }
Rodney Josué Biezuner 14
é LI. Continuando desta forma, obteremos necessariamente um conjunto LI Sk que gera W para algum k;
na pior das hipóteses obteremos no final um conjunto LI
Sn = {v1 , . . . , vn−1 }
que gera W , pois V não contém nenhum subconjunto LI com mais que n vetores e W V.
1.5 Coordenadas
A existência de bases permite identificar vetores de um espaço vetorial com um número finito de escalares,
o que permite lidar com vetores de maneira numerica e computacional:
1.35 Proposição. Sejam V um espaço vetorial e B uma base para V .
Todo vetor de V se escreve de maneira única como uma combinação linear de vetores de B.
Prova. Se V é um espaço vetorial de dimensão finita, isso é mais fácil de ver. Suponha que B = {e1 , . . . , en }
é uma base para V e que v ∈ V pode ser representado por duas combinações lineares de vetores de B:
v = v 1 e1 + . . . + v n en ,
0 0
v = v 1 e1 + . . . + v n en .
Então 0
0
v1 − v1 e1 + . . . + v n − v n en = 0,
0 0
e como B é LI, segue que v 1 = v 1 , . . . , v n = v n .
Suponha agora que V é um espaço vetorial de dimensão arbitrária e B = {ei }i∈I é uma base para V .
Dado v ∈ V , suponha que v pode ser representado por duas combinações lineares de vetores de B:
v = v λ1 eλ1 + . . . + v λk eλk ,
v = v µ1 eµ1 + . . . + v µl eµl ,
Então
k
X l
X
v λi eλi − v µj eµj = 0.
i=1 j=1
1.37 Definição. Sejam V um espaço vetorial de dimensão arbitrária e B = {ei }i∈I uma base para V . Dado
v ∈ V , se X
v= v i ei ,
i∈I
Rodney Josué Biezuner 15
Observe que a soma X
v= v i ei ,
i∈I
é sempre uma soma finita porque, com a exceção de um número finito de ı́ndices, todos os escalares são
nulos, logo não temos que nos preocupar com problemas de convergência.
1.6 Álgebras
1.38 Definição. Um K-espaço vetorial V munido de uma operação binária K-bilinear
∗ : V × V −→ V
u ∗ (v ∗ w) = (u ∗ v) ∗ w
para todos u, v, w ∈ V .
Dizemos que a álgebra é comutativa se
v∗w =w∗v
para todos v, w ∈ V .
Dizemos que a álgebra possui uma identidade se existe um vetor e ∈ V tal que
e∗v =v∗e=v
para todo v ∈ V .
Dizer que a operação produto é bilinear é equivalente a dizer que ela satisfaz a propriedade de distributividade,
isto é,
(xu + yv) ∗ w = x (u ∗ w) + y (v ∗ w) ,
u ∗ (xv + yw) = x (u ∗ v) + y (u ∗ w) ,
(xv) ∗ w = x (v ∗ w) = v ∗ (xw) ,
para todos u, v, w ∈ V e para todos x, y ∈ K. Quando existir, a identidade é única, pois se e, e0 ∈ V são duas
identidades, então por definição de identidade
e = ee0 = e0 .
1.39 Exemplo. K [x] com o produto usual de polinômios é uma álgebra associativa, comutativa e com
identidade.
1.40 Exemplo. R3 com o produto vetorial usual é uma álgebra não associativa, não comutativa e sem
identidade (o produto vetorial de dois vetores é sempre um terceiro vetor ortogonal a ambos).
Rodney Josué Biezuner 16
A : {1, . . . , m} × {1, . . . , n} −→ K.
As entradas (ou elementos) da matriz A são os escalares A (i, j) que denotaremos por Aij ; a matriz A
também frequentemente é denotada por A = Aij e representada graficamente por uma tabela retangular
com m linhas e n colunas, com a entrada Aij ocupando a linha i e a coluna j.
Uma matriz m × 1 é chamada uma matriz coluna e uma matriz 1 × n é chamada uma matriz linha.
O conjunto das matrizes m × n sobre o corpo K será denotado por
Mm×n (K)
1.43 Proposição. Mm×n (K) é um K-espaço vetorial com dimensão mn.
Prova: Uma base para Mm×n (K) é dada por
B = {Eij : 1 6 i 6 m e 1 6 j 6 n}
onde
k ij
(Eij )l = δkl .
1.44 Definição. Dadas duas matrizes sobre o corpo K, Am×p e Bp×n , o produto AB é a matriz m × p
definida por
p
X
i
(AB)j = Air Bjr .
r=1
1.45 Proposição. O produto de matrizes satisfaz as seguintes propriedades
(i) (Associatividade) Para todas matrizes A ∈ Mm×p (K), B ∈ Mp×q (K) e C ∈ Mq×n (K) vale
A(BC) = (AB)C.
A(B + C) = AB + AC,
(A + B)C = AC + BC.
Rodney Josué Biezuner 17
(iii) (Distributividade com relação à multiplicação por escalar) Para toda matriz A ∈ Mm×n (K) e para
todo escalar α ∈ K vale
α(AB) = (αA)B = A(αB).
(iv) (Existência de identidade) Se In ∈ Mn (K) := Mn×n (K) denota a matriz
1 0 ··· 0
0 1 ··· 0
In = . . . ,
.. .. . . ...
0 0 ··· 1
isto é,
i
(In )j = δji .
Então, para toda matriz A ∈ Mm×n (K) vale
AIn = Im A = A.
AB = BA = I.
B é chamada a inversa de A.
1.47 Proposição. Valem os seguintes fatos:
(i) Se uma matriz possui uma inversa, então esta inversa é única.
(ii) Se A é invertı́vel, então A−1 também é e (A−1 )−1 = A.
(iii) Se A, B são invertı́veis, então AB também é e
(AB)−1 = B −1 A−1 .
Rodney Josué Biezuner 18
AB1 = B1 A = I.
AB2 = B2 A = I.
Tomando a equação B1 A = I, por exemplo, e multiplicando ambos os lados desta equação à direita por B2 ,
obtemos
(B1 A)B2 = IB2 ⇒ B1 (AB2 ) = B2 ⇒ B1 I = B2 ⇒ B1 = B2 .
(iii) Para verificar isso, temos que mostrar que
(AB)B −1 A−1 = I,
B −1 A−1 (AB) = I.
AX = X,
Y A = Y,
então A = I.
Prova: Se
AX = X
para toda matriz coluna X, em particular tomando X = Ej obtemos
Aj = AEj = Ej .
onde Aj denota a j-ésima coluna de A. O segundo resultado segue do primeiro tomando transpostas.
Rodney Josué Biezuner 19
B = {e1 , . . . , en } ,
B0 = {e01 , . . . , e0n } ,
duas bases para o espaço vetorial V . Então existe uma única matriz invertı́vel P tal que
[v]B0 = P [v]B ,
[v]B = P −1 [v]B0 ,
para todo vetor v ∈ V , chamada a matriz de mudança de base de B para B0 , denotada também
P = PB→B0 ,
de modo que
[v]B0 = PB→B0 [v]B .
Em particular, tomando v = ei , segue que as colunas de P são dadas pelas coordenadas dos vetores da
base B com relação à base B0 , ou seja,
Pi = [ei ]B0 .
para i = 1, . . . , n.
Prova: Suponha que os vetores da base B se escrevem em coordenadas com relação à base B0 na forma
n
X
ej = Pji e0i ,
i=1
para cada j = 1, . . . , n, para certos escalares Pji ∈ K. Dado um vetor v ∈ V , suas coordenadas em relação
às bases B e B0 são, respectivamente,
n
X
v= v j ej ,
j=1
n
X 0
v= v i e0i .
i=1
Como
n
X
v= v j ej
j=1
n n
!
X X
= v j
Pji e0i
j=1 i=1
n
X n
X
= Pji v j e0i ,
i=1 j=1
ou seja,
[v]B0 = P [v]B
i
para a matriz P = Pj ∈ Mn (K). Analogamente, existe uma matriz Q ∈ Mn (K) tal que
[v]B = Q [v]B0 .
Em particular
1.52 Proposição. Se W1 , . . . , Wk são subespaços de um espaço vetorial V , então a sua soma W1 + . . . + Wk
também é um subespaço vetorial de V e contém cada um dos subespaços Wi , i = 1, . . . k.
Prova. Usando a Proposição 1.30, se
v = w1 + . . . + wk ,
v 0 = w10 + . . . + wk0 ,
são dois vetores quaisquer de W1 + . . . + Wk , com wi , wi0 ∈ Wi para cada i, e x, y são escalares quaisquer,
segue que
A última afirmação do enunciado é óbvia, pois o vetor nulo esta em cada um dos subespaços.
1.53 Teorema. Se W1 , W2 são dois subespaços de dimensão finita de um espaço vetorial V , então W1 + W2
também tem dimensão finita e
B1 = {e1 , . . . , en , f1 , . . . , fk }
B = {e1 , . . . , en , f1 , . . . , fk , g1 , . . . , gl } .
Basta provar que B é LI para terminar a demonstração, pois então B será uma base para W1 +W2 e portanto
dim W1 + dim W2 = (n + k) + (n + l)
= (n + k + l) + n
= dim (W1 + W2 ) + dim (W1 ∩ W2 ) .
Escrevendo
l
X n
X k
X
w := z i gi = − xi ei − y i fi ,
i=1 i=1 i=1
w1 = . . . = wn = z 1 = . . . = z l = 0.
Mas então w = 0 e
n
X k
X
xi ei + y i fi = 0;
i=1 i=1
x1 = . . . = xn = y 1 = . . . = y k = 0.
1.54 Definição. Sejam W1 , W2 dois subespaços de um espaço vetorial V . Se W1 ∩ W2 = {0}, dizemos que
os subespaços W1 , W2 são LI e sua soma W1 + W2 é chamada soma direta e denotada
W1 ⊕ W2 .
Rodney Josué Biezuner 22
1.56 Proposição. W = W1 ⊕ W2 se e somente se todo vetor w ∈ W se escreve de maneira única na forma
w = w1 + w2
com w1 ∈ W1 e w2 ∈ W2 .
Prova. Assuma que W1 ∩ W2 = {0}. Seja w ∈ W e suponha que
w = w1 + w2
w = w10 + w20
0 = v + (−v) ,
0 = 0 + 0.
1.57 Teorema. Seja V um espaço vetorial de dimensão finita de dimensão n. Então todo subespaço W ⊂ V
de dimensão k possui um complemento em V , isto é, existe um subespaço Z ⊂ V de dimensão n − k tal que
V = W ⊕ Z.
B = {e1 , . . . , ek , ek+1 , . . . , en } .
Então tomamos como Z o subespaço gerado pelos vetores ek+1 , . . . , en , isto é,
Z = hek+1 , . . . , en i .
Rodney Josué Biezuner 23
donde
k
X n
X
v i ei − v i ei = 0
i=1 i=k+1
seria uma combinação linear não trivial produzindo o vetor nulo, contradizendo o fato que B é LI.
1.58 Exemplo. Se ( n )
X
par 2i
K [x] = ai x : a0 , . . . an ∈ K, n ∈ N ,
i=0
é o subespaço dos polinômios ı́mpares (note que o polinômio nulo é simultaneamente par e ı́mpar), então
1.59 Exemplo. Se
Fpar = {f : R −→ R : f (x) = f (−x)} ,
é o subespaço das funções reais pares e
pois todo função f ∈ F (R; R) se escreve de forma única como uma soma f = g + h de uma função par g e
uma função ı́mpar h; basta tomar
f (x) + f (−x)
g (x) = ,
2
f (x) − f (−x)
h (x) = ,
2
e a função nula é a única função simultaneamente par e ı́mpar.
Generalizamos a Definição 1.54 e os resultados que lhe seguem para um número arbitrário de subespaços
de V :
Rodney Josué Biezuner 24
1.60 Definição. Seja V um espaço vetorial. Dizemos que os subespaços vetoriais W1 , . . . , Wk de V são LI
se
w1 + . . . + wk = 0
implicar
w1 = . . . = wk = 0.
Neste caso sua soma é chamada uma soma direta e denotada
W1 ⊕ . . . ⊕ Wk .
1.61 Proposição. Todo vetor de W = W1 ⊕ . . . ⊕ Wk se escreve de maneira única na forma
w = w1 + . . . + wk
com wi ∈ Wi para todo i.
1.62 Proposição. Sejam V um espaço vetorial e W1 , . . . , Wk subespaços de V . As seguintes afirmações
são equivalentes:
1.63 Lema. (i) W1 , . . . , Wk são LI.
(ii) Para cada 2 6 j 6 k nós temos
(W1 + . . . + Wj−1 ) ∩ Wj = {0} .
(iii) Se Bi é uma base para Wi então B = {B1 , . . . , Bk } é uma base para W1 + . . . + Wk .
Prova: (i) ⇒ (ii) Seja w ∈ (W1 + . . . + Wj−1 ) ∩ Wj . Então temos simultaneamente
w ∈ Wj ,
w = w1 + . . . + wj−1 ,
para alguns vetores wi ∈ Wi . Como
w1 + . . . + wj−1 − w + 0 + . . . + 0 = 0
concluı́mos que w1 = . . . = wj−1 = w = 0.
(ii) ⇒ (i) Suponha que
w1 + . . . + wk = 0
com wi ∈ Wi para cada i. Se existe algum wj não nulo, seja j o maior inteiro tal que wj 6= 0. Então
w1 + . . . + wj = 0 e
wj = −w1 − . . . − wj−1
contradizendo (W1 + . . . + Wj−1 ) ∩ Wj = {0}.
(i) ⇔ (iii) Óbvio.
BV = {e1 , . . . , en } ,
BW = {f1 , . . . , fm } ,
Lineomorfismos
2.1 Definição
Definida uma estrutura matemática sobre conjuntos (e portanto a especificação de uma determinada classe
de conjuntos, ou seja, aqueles que possuem esta estrutura, chamados objetos), o estudo desta estrutura só
é completo quando se estuda também as funções entre estes conjuntos que preservam esta estrutura, isto é,
os morfismos com respeito a esta estrutura (morfismos entre objetos). A classe de objetos (conjuntos que
possuem esta estrutura) juntamente com o conjunto de morfismos (funções que preservam esta estrutura)
é chamada uma categoria. Na Álgebra Linear, o objetivo é estudar a categoria dos espaços vetoriais sobre
o corpo K, caracterizados por uma estrutura linear, isto é, a capacidade de somar vetores e multiplicá-los
por escalares em K (em outras palavras, a capacidade de tomar combinações lineares). Os morfismos que
preservam esta estrutura linear são chamados aplicações lineares, mapas lineares, transformações lineares
ou, simplesmente, morfismos lineares ou lineomorfismos. Neste texto escolhemos estes últimos dois nomes.
2.1 Definição. Sejam V, W dois espaços vetoriais sobre um mesmo corpo K.
Uma função T : V −→ W é chamado um lineomorfismo ou morfismo linear se
para todos v, w ∈ V e x, y ∈ K.
Quando V = W , um morfismo linear T : V −→ V é chamado um operador linear.
Morfismos lineares preservam portanto as operações que definem um espaço vetorial, que são a soma de
vetores e a multiplicação de vetores por escalares, isto é, morfismos lineares preservam combinações lineares.
Preservar combinações lineares significa que a imagem de uma combinação linear de vetores é a mesma
combinação linear das imagens destes vetores.
2.2 Proposição. Se
T : V −→ W,
S : W −→ Z,
S ◦ T : V −→ Z
26
Rodney Josué Biezuner 27
Um lineomorfismo T : V −→ W leva a identidade do espaço vetorial V na identidade do espaço vetorial
W:
2.3 Proposição. Seja T : V −→ W um morfismo linear. Então T (0V ) = 0W .
Prova: Observe que estamos usando notações diferentes para os vetores nulos de cada espaço por motivos
de clareza. Temos
T (0V ) = T (00V ) = 0T (0V ) = 0W .
v = v i1 e i1 + . . . + v in e in
Podemos dizer ainda mais: para definir um morfismo linear T : V −→ W basta estipular os seus valores em
uma base e estender linearmente aos demais vetores de V :
2.5 Teorema. Sejam V um espaço vetorial, B = {ei }i∈I uma base para V e {fi }i∈I um conjunto de vetores
arbitrários de um espaço vetorial W .
Existe um único morfismo linear T : V −→ W tal que
T ei = fi
para todo i ∈ I.
Prova: Primeiro, o caso de dimensão finita: sejam B = {e1 , . . . , en } uma base para V e f1 , . . . , fn ∈ W
vetores arbitrários. Como todo vetor v ∈ V se escreve como uma combinação linear de maneira única
v = v 1 e1 + . . . + v n en ,
definimos T : V −→ W por
T v = v 1 f1 + . . . + v n fn .
Rodney Josué Biezuner 28
2.6 Definição. Sejam V, W K-espaços vetoriais. Denotamos o conjunto dos morfismos lineares de V em W
por Hom (V, W ).
Definimos uma estrutura de K-espaço vetorial em Hom (V, W ) por
para todo v ∈ V .
Se V = W , denotamos Hom (V, W ) simplesmente por Hom(V ).
2.1.2 Isomorfismos
2.7 Definição. Dizemos que dois espaços vetoriais V e W são isomorfos quando existe um lineomorfismo
bijetivo T : V −→ W cujo inverso é linear.
Neste caso, T é chamado um isomorfismo.
Como a composta de isomorfismos é um isomorfismo, dois espaços vetoriais serem isomorfos é uma relação
de equivalência. Assim, do ponto de vista da álgebra linear, dois espaços isomorfos são indistinguı́veis.
2.8 Proposição. Se T : V −→ W é um lineomorfismo injetivo, então a inversa T −1 : T (V ) −→ V é
automaticamente linear.
Prova: Dados w1 , w2 ∈ T (V ), sejam v1 , v2 ∈ V tais que
T (v1 ) = w1 ,
T (v2 ) = w2 .
Portanto,
T −1 (xw1 + yw2 ) = xv1 + yv2 = xT −1 (w1 ) + yT −1 (w2 ) .
2.9 Proposição. Um lineomorfismo é injetivo se e somente se T −1 (0) = 0.
Prova: Assuma T −1 (0) = 0. Se T (v) = T (w), por linearidade segue que T (v − w) = 0, logo v − w = 0 e
portanto v = w, ou seja, T é injetivo.
Reciprocamente, assuma T : V −→ W injetivo. Por linearidade T (0) = 0. Se T (v) = T (w), por
linearidade T (v − w) = 0, logo segue da injetividade de T que v − w = 0, ou seja v = w.
2.10 Teorema. Todo K-espaço vetorial de dimensão n é isomorfo a Kn .
Prova: Denote por ei o i-ésimo vetor da base canônica de Kn , isto é, o j-ésimo elemento da n-upla ei é
eji = δij ,
o delta de Kronecker. Sejam V um espaço vetorial de dimensão n e B = {v1 , . . . , vn } uma base para V .
Usando o Teorema 2.5, definimos um lineomorfismo T : V −→ Kn por
T (vi ) = ei ,
0 = x1 T (e1 ) + . . . + xn T (en ) = T x1 e1 + . . . + xn en ,
então
x1 e1 + . . . + xn en = 0
porque T é injetivo, o que por sua vez implica x1 = . . . = xn = 0.
2.12 Corolário. Sejam V e W espaços vetoriais isomorfos. Então dim V = dim W .
Prova: Segue dos Teoremas 2.10 e 2.11 e do fato de que a composta de um isomorfismo é um isomorfismo.
[v] = {w ∈ V : w ∼ v} .
[0] = U.
2.14 Definição. Seja U um subespaço do espaço vetorial V . As operações de soma e produto por escalar de
V induzem de forma natural operações de soma e produto por escalar no conjunto das classes de equivalência
módulo U por
[v] + [w] := [v + w] ,
x [v] := [xv] .
Com estas operações, o conjunto das classes de equivalência módulo U torna-se um espaço vetorial, chamado
o espaço quociente de V por U e denotado por
V /U.
Verifique que as operações estão bem definidas e que V /U satisfaz as propriedades de um espaço vetorial.
Rodney Josué Biezuner 31
2.15 Exemplo. Se V = R3 e U é um subespaço de dimensão 2 (isto é, um plano passando pela origem),
então as classes de equivalência de V /U são planos paralelos a U . Note que dois vetores v, w ∈ V pertencem
à mesma classe de equivalência, isto é, ao mesmo plano paralelo a U se sua diferença v − w (dada pela regra
do triângulo) é paralela ao plano U .
π|Z : Z −→ V /U
dim (V /U ) = dim Z,
dim V = dim Z + dim U,
2.17 Exemplo. No Exemplo 2.15, Z é qualquer reta passando pela origem não paralela a U .
Rodney Josué Biezuner 32
T (u1 ) = w1 ,
T (u2 ) = w2 .
T (v1 ) =: z1 ∈ Z,
T (v2 ) =: z2 ∈ Z.
φ : V / ker T −→ im T
[v] 7−→ T (v)
Observe que φ está bem definido, porque se [v] = [w], então v − w ∈ ker T , isto é, T (v − w) = 0, donde
T v = T w. Além disso, φ é linear porque
φ é injetivo porque se φ ([v]) = T (v) = 0, então v ∈ ker T , logo [v] = 0 em V / ker T . Finalmente, φ é
sobrejetivo, porque dado w ∈ im T , temos w = T v para algum v ∈ V , logo w = φ ([v]).
Rodney Josué Biezuner 33
Prova 2: Embora a segunda afirmativa decorra da primeira e do Teorema 2.16, já que
vamos dar-lhe uma demonstração independente, já que ela é a mais freqüentemente usada nas aplicações e
não necessita da introdução do conceito de espaço quociente.
Seja {e1 , . . . , ek } uma base para ker T e complete este conjunto LI até uma base {e1 , . . . , ek , ek+1 , . . . , en }
para V . Afirmamos que
B = {T ek+1 , . . . , T en }
é uma base para im T . De fato, dado
n
X
v= xi ei ,
i=1
temos
n
X
Tv = xi T ei ,
i=k+1
já que T e1 = . . . = T ek = 0, portanto B gera im T . Para provar que B é LI, suponha que
n
X
xi T ei = 0.
i=k+1
Então, !
n
X
i
T x ei = 0,
i=k+1
n
xi ei ∈ ker T . Como a interseção entre os subespaços ker T e hek+1 , . . . , en i é o vetor
P
o que implica que
i=k+1
n
xi ei = 0 e portanto xk+1 = . . . = xn = 0. Em particular,
P
nulo, por construção, segue que
i=k+1
Observe que o isomorfismo φ definido na demonstração do teorema torna o diagrama abaixo comutativo:
T
V −→ im T
↓π %
φ
V / ker T
2.20 Corolário. Sejam V e W espaços vetoriais com a mesma dimensão. Então um lineomorfismo T :
V −→ W é injetivo se e somente se ele é sobrejetivo.
Prova: Pois
dim W = dim V = dim (ker T ) + dim (im T ) ,
logo dim (ker T ) = 0 se e somente se dim (im T ) = dim W .
Rodney Josué Biezuner 34
BV = {e1 , . . . , en } ,
BW = {e01 , . . . , e0m }
donde
n
X n
X
Tv = T v j ej = v j T (ej ) .
j=1 j=1
m
X
T (ej ) = Aij e0i ,
i=1
T (ej ) = ... = Aj .
Amj
Aj = [T (ej )]BW .
A matriz A = Aij m×n é chamada a representação matricial do lineomorfismo T com relação às bases
BV e BW . Esta representação de T também será denotada por
A = [T ]BV ,BW .
A = [T ]B
e vale
[T v]B = [T ]B [v]B .
BV = {e1 , . . . , en } ,
BW = {e01 , . . . , e0m } ,
BW = e001 , . . . , e00p ,
Rodney Josué Biezuner 35
respectivamente. Sejam
T : V −→ W,
S : W −→ Z,
Em particular, se V = W = Z e BV = BW = BZ = B, então
[S ◦ T ]B = [S]B [T ]B .
Prova: Sejam
Temos
m
! m
X X
(S ◦ T ) (ej ) = S [T (ej )] = S Aij e0i = Aij S (e0i )
i=1 i=1
p p
m m
!
X X X X
= Aij Bik e00k = Bik Aij e00k
i=1 k=1 k=1 i=1
p
X k
= (BA)j e00k .
k=1
TS = T ◦ S
é uma álgebra associativa (pois a composição de funções é associativa), não comutativa se dim V > 2
(exercı́cio) e com identidade (o operador identidade).
2.23 Definição. Um morfismo entre álgebras (V, ∗) e (W, ·) é um lineomorfismo φ : V −→ W que
preserva o produto, isto é,
φ (v ∗ w) = φ (v) · φ (w)
para todos v, w ∈ V .
Um morfismo entre álgebras com identidade também preserva a identidade, ou seja,
φ (1V ) = 1W .
Rodney Josué Biezuner 36
Em outras palavras, um morfismo entre álgebras preserva as duas estruturas que caracterizam uma álgebra:
a estrutura linear e o produto entre vetores.
2.24 Corolário. Fixe bases BV e BW para os K-espaços vetoriais V e W , respectivamente, com dim V = n
e dim W = m. Então a aplicação
Φ : Hom (V, W ) −→ Mm×n (K)
definida por
T 7→ [T ]BV ,BW
é um isomofismo entre espaços vetoriais. Em particular,
−1
[T ]B0 = [U ]B0 [T ]B [U ]B0 .
Rodney Josué Biezuner 37
2.26 Definição. Sejam A, B ∈ Mn (K) duas matrizes quadradas. Dizemos que A e B são semelhantes se
existe uma matriz invertı́vel P ∈ Mn (K) tal que
B = P −1 AP.
Segue do Teorema 2.25 que duas matrizes são semelhantes se em um K-espaço vetorial elas representam o
mesmo lineomorfismo em relação a duas bases (possivelmente) distintas. Observe que similaridade é uma
relação de equivalência em Mn (K).
Podemos dizer mais: se dois operadores lineares distintos possuem a mesma matriz em relação a bases
diferentes, então eles diferem apenas por conjugação de um isomorfismo, como provado a seguir.
2.27 Teorema. Sejam V um espaço vetorial de dimensão finita e T, S ∈ Hom (V ) operadores lineares.
Existem bases B, B0 de V tais que
[T ]B = [S]B0
se e somente se existe um operador linear U ∈ Hom (V ) tal que
T = U SU −1 .
B = {e1 , . . . , en } ,
B0 = {e01 , . . . , e0n } ,
de V tais que
[T ]B = [S]B0 =: A.
Defina U ∈ Hom (V ) por
U e0i = ei .
Temos
U SU −1 ei = U Se0i
X n
=U Aji e0i
j=1
n
X
= Aji U (e0i )
j=1
Xn
= Aji ei
j=1
= T ei ,
de modo que
U SU −1 = T.
Reciprocamente, suponha que exista U ∈ Hom (V ) tal que
T = U SU −1 .
seja
A := [S]B0
e defina outra base de V
B = {e1 , . . . , en }
por
ei = U e0i .
Então,
T ei = U SU −1 ei
= U Se0i
X n
=U Aji e0i
j=1
n
X
= Aji U (e0i )
j=1
n
X
= Aji ei .
j=1
de modo que
A = [T ]B .
2.28 Teorema (Forma Canônica de um Morfismo Linear). Sejam V, W espaços vetoriais de dimensão
finita com
dim V = n,
dim W = m,
e T ∈ Hom (V, W ). Então existem bases BV , BW tais que [T ]BV ,BW tem a forma em blocos
I 0
[T ]BV ,BW = .
0 0
Mais precisamente,
Ir 0r×(n−r)
[T ]BV ,BW = ,
0(m−r)×r 0(m−r)×(n−r)
onde r = dim im T .
Prova: Pelo Teorema do Núcleo e da Imagem,
dim ker T = n − r.
Seja
Bker T = {er+1 , . . . , en }
uma base para o núcleo de T e
BV = {e1 , . . . , er , er+1 , . . . , en }
Rodney Josué Biezuner 39
T (e1 ) = f1 ,
..
.
T (er ) = fr ,
T (er+1 ) = 0,
..
.
T (en ) = 0,
A anticomutatividade, quando K é um corpo com caracterı́stica zero implica que
[v, v] = 0.
Observe que a identidade de Jacobi é uma identidade cı́clica que está no lugar da associatividade. De fato,
o colchete de Lie não é em geral associativo. A associatividade de [, ] é equivalente a
e, como o colchete de Lie é anticomutativo, o primeiro termo se cancelaria com o terceiro, restando
[v, w] = v ∗ w − w ∗ v
Assim, a existência de um produto associativo em V automaticamente permite definir um colchete de Lie
em V e V possui duas estruturas de álgebra: uma álgebra associativa e sua álgebra de Lie derivada desta.
Note que se a álgebra ∗ de V for comutativa, então a álgebra de Lie derivada é trivial:
[v, w] = v ∗ w − w ∗ v = v ∗ w − v ∗ w = 0
para todos v, w ∈ V .
2.32 Definição. Definimos o colchete de Lie em Mn (K) por
[A, B] = AB − BA.
[T, S] = T S − ST = T ◦ S − S ◦ T.
2.33 Proposição. Mn (K) e Hom (V ) munidos do produto colchete são álgebras de Lie isomorfas.
O colchete de Lie de matrizes [A, B] também é chamado de comutador, pois mede o quanto as matrizes
A, B não comutam.
2.34 Exemplo. Álgebras de Lie podem se comportar de maneiras bem diferentes. Enquanto que em R3
com o produto vetorial, todo vetor u pode ser escrito como o produto vetorial de dois outros vetores, isto é,
existem vetores v, w tais que u = v × w, isso não é verdade para Mn (K). Dada uma matriz A, se existirem
matrizes B, C tais que A = [B, C], como o traço é um funcional linear e
n n n
!
X i
X X
tr (AB) = (AB)i = Aik Bik
i=1 i=1 k=1
Xn Xn
= Aik Bik = Bik Aik
i,k=1 i,k=1
n n
! n
X X X k
= Bik Aik = (BA)k
k=1 i=1 k=1
= tr (BA) ,
W = {C ∈ Mn (K) : tr C = 0} .
Veja [HK], p. 107, Exercı́cio 17, para sugestões para a prova deste resultado.
Rodney Josué Biezuner 42
dim V ∗ = dim V.
2.36 Definição. Sejam V um espaço vetorial sobre um corpo K e B = {e1 , . . . , en } uma base para V .
A base dual de B é a base B∗ = {e∗1 , . . . , e∗n } para V ∗ definida por
n
X
f= f (ei ) e∗i ,
i=1
ou seja, as coordenadas de f na base dual são f (e1 ) , . . . , f (en ), e para todo vetor v ∈ V nós temos
n
X
v= e∗i (v) ei ,
i=1
ou seja, as coordenadas de v são e∗1 (v) , . . . , e∗n (v). Portanto, os funcionais e∗i são simplesmente as
funções coordenadas.
então !
n
X n
X n
X
xj = xi δij = xi [e∗i (ej )] = xi e∗i (ej ) = 0 (xj ) = 0
i=1 i=1 i=1
para todo j.
Para provar que B∗ gera V ∗ , seja f ∈ V ∗ . Então, para todo j vale
n n
" n #
X X X
f (ej ) = f (ei ) δij = f (ei ) [e∗i (ej )] = f (ei ) e∗i (ej ) ,
i=1 i=1 i=1
e como
n
X
f (ei ) e∗i
i=1
Rodney Josué Biezuner 43
define um funcional linear (combinação linear dos funcionais lineares e∗i ) por unicidade de um lineomorfismo
definido em uma base, segue a primeira fórmula do enunciado.
A segunda fórmula do enunciado segue do fato de que se
n
X
v= xi ei ,
i=1
2.38 Definição. O espaço dos funcionais lineares L (V ∗ , K) definidos no dual de V é denotado por V ∗∗ e
chamado o bidual de V .
2.39 Teorema. Seja V um espaço vetorial de dimensão finita. Então V e V ∗∗ são canonicamente isomorfos.
Mais precisamente, o isomorfismo canônico Φ : V −→ V ∗∗ é definido por
Φ (v) = Lv ,
Φ é linear porque
Φ (xv + yw) = Lxv+yw = xLv + yLw
pois para todo f ∈ V ∗ temos
2.40 Corolário. Seja V um espaço vetorial de dimensão finita. Se L ∈ V ∗∗ então existe um único vetor
v ∈ V tal que
L (f ) = f (v)
para todo f ∈ V ∗ .
Rodney Josué Biezuner 44
2.41 Corolário. Seja V um espaço vetorial de dimensão finita. Toda base para V ∗ é o dual de alguma base
para V .
Prova: Seja B∗ = {f1 , . . . , fn } uma base qualquer para V ∗ . Seja B∗∗ = {L1 , . . . , Ln } sua base dual em V ∗∗ ,
ou seja,
Li (fj ) = δij .
Usando o corolário anterior, sejam e1 , . . . , en ∈ V os únicos vetores tais que
Li (f ) = f (ei )
para todo f ∈ V ∗ , para todo i. Usando a notação do Teorema 2.39, segue que o isomorfismo Φ leva B em
B∗∗ , isto é,
Li = Lei ,
e como isomorfismos levam bases em bases, concluı́mos que B = {e1 , . . . , en } é uma base para V . Daı́,
Também é frequente denotar o funcional dual v ∗∗ simplesmente por v, identificando V com V ∗∗ , já que o
isomorfismo dado pelo Teorema 2.39 é natural. Desta maneira, podemos escrever
v (f ) = f (v) .
T : V −→ W
para todo g ∈ W ∗ .
Prova: De fato, se g é um funcional linear em W , a fórmula
f = g ◦ T,
define f um funcional linear em V , composta de dois morfismos lineares, como no diagrama comutativo
abaixo:
f
V −→ R
↓T %
g
W
Rodney Josué Biezuner 45
para todo v ∈ V .
U 0 = {f ∈ V ∗ : f |U = 0} .
Em outras palavras,
U 0 = {f ∈ V ∗ : f (u) = 0 para todo u ∈ U } .
Note que
V 0 = 0,
00 = V ∗ .
ker ı∗ = U 0 ,
im ı∗ = U ∗ ,
donde
dim U ∗ + dim U 0 = dim V ∗ .
Como
dim U ∗ = dim U,
dim V ∗ = dim V,
segue o resultado.
Rodney Josué Biezuner 46
2.45 Teorema. Sejam V , W espaços vetoriais de dimensão finita e T ∈ Hom (V, W ). Então valem
(i)
0
ker T ∗ = (im T ) .
0
im T ∗ = (ker T ) .
(ii)
dim ker T ∗ = dim ker T + (dim W − dim V ) .
dim im T ∗ = dim im T.
0
Prova: (i) ker T ∗ ⊂ (im T ) : se g ∈ ker T ∗ , então
0 = T ∗ (g) = g ◦ T
0 0
e portanto g ∈ (im T ) . A recı́proca (im T ) ⊂ ker T ∗ segue da mesma equação.
0
im T ∗ ⊂ (ker T ) : se f ∈ im T ∗ , então existe g ∈ W ∗ tal que
f = T ∗ (g) = g ◦ T.
Se v ∈ ker T , então
f (v) = g (T (v)) = g (0) = 0,
0
de modo que f ∈ (ker T ) . Para provar que eles são iguais, basta mostrar que eles tem a mesma dimensão.
Pelo item (ii) a seguir, cuja demonstração independende da equação que queremos demonstrar (ele depende
da primeira equação do presente item), pelo Teorema do Núcleo e da Imagem e pela Proposição 2.44 temos
dim im T ∗ = dim im T
= dim V − dim ker T
0
= dim (ker T ) .
(ii) Temos pela primeira equação do item (i), pela Proposição 2.44 e pelo Teorema do Núcleo e da Imagem,
0
dim ker T ∗ = dim (im T )
= dim W − dim im T
= dim W − (dim V − dim ker T )
= dim ker T + dim W − dim V.
De modo semelhante, temos pelo Teorema do Núcleo e da Imagem, novamente pela primeira equação do
item (i) e pela Proposição 2.44
Rodney Josué Biezuner 47
⇔ T ∗ é sobrejetivo.
A = [T ]BV ,BW
é a matriz de T com respeito às bases BV e BW , então a matriz do morfismo dual T ∗ com respeito às
bases duais B∗W e B∗V é a transposta de A, isto é,
At = [T ∗ ]B∗ ∗ .
W ,BV
Prova: Sejam
BV = {v1 , . . . , vn } , BW = {w1 , . . . , wn } ,
B∗V = {v1∗ , . . . , vn∗ } , B∗W = {w1∗ , . . . , wn∗ } .
Denote por B a matriz do morfismo dual em relação às bases duais. Então, por definição,
m
X
T vj = Aij wi , j = 1, . . . , n,
i=1
Xn
T ∗ wj∗ = Bji vi∗ , j = 1, . . . , m.
i=1
Rodney Josué Biezuner 48
Daı́, de um lado
m
! m m
X X X
∗
wj∗ wj∗ wj∗ Aki wk Aki wj∗ (wk ) = Aki δjk = Aji ,
T (vi ) = (T vi ) = =
k=1 k=1 k=1
logo
i
Bji = Aji = At j
.
2.49 Definição. Seja A ∈ Mm×n (K).
A dimensão do subespaço em Kn gerado pelas linhas de A é chamado o posto de A e denotado por
rank A.
A dimensão do subespaço em Kn solução do sistema homogêneo AX = 0 é chamado a nulidade de A e
denotado por nul A.
2.50 Corolário. Seja A ∈ Mm×n (K). Então
rank A = rank At .
nul A = nul At .
Determinantes
3.1 Definição
Definiremos a função determinante a partir das propriedades que queremos que ela satisfaça. Provaremos
depois que de fato existe uma função que satisfaz estas propriedades.
3.1 Definição. Identificaremos o espaço das matrizes quadradas Mn (K) com o espaço Kn × . . . × Kn ,
identificando colunas de uma matriz com vetores de Kn . Uma função determinante é uma função
det : Kn × . . . × Kn −→ K
para todos i, j = 1, . . . , n, A1 , . . . , An ∈ Kn .
(D3)
det I = 1.
Além de escrever det A ou det (A1 , . . . , An ) para a matriz A cujas colunas são A1 , . . . , An , também usaremos
a notação mais compacta
quando estiver claro do contexto que as outras colunas são mantidas fixas; em geral, em uma função k-linear
qualquer destacaremos apenas as colunas que não estiverem fixas ou que desempenharem um papel relevante
nas demonstrações.
49
Rodney Josué Biezuner 50
D (Ai , Aj ) = −D (Aj , Ai ) .
D (A, A) = 0
i j
D (A, A) = 0
i i+1
(Observe que a hipótese de indução pôde ser usada, na passagem da antepenúltima linha para a penúltima
linha, porque no segundo termo da antepenúltima linha a (i + k)-ésima coluna é Ai+k+1 = Ai e a hipótese
de indução é válida para j = k.)
Para matrizes sobre um corpo K arbitrário, a propriedade (D2) na definição de determinante é trocada pela
condição (ii) ou (iii) da Proposição 3.2 (elas são equivalentes para quaisquer corpos), e obtemos a mesma
teoria de determinantes para corpos arbitrários.
3.2 Existência
3.3 Definição. Seja A ∈ Mn (K). O menor A (i|j) é a matriz em Mn−1 (K) obtida ao se eliminar a i-ésima
linha e a j-ésima coluna de A.
3.4 Teorema (Existência da Função Determinante). Existe pelo menos uma função determinante.
Prova: A função determinante é construı́da indutivamente. Em M1 (K) = K definimos simplesmente
det A = A11 . Em M1 (K), definimos
A11 A12
det A = det = A11 A22 − A12 A21 .
A21 A22
É fácil verificar que estas funções satisfazem as condições (D1)-(D3) da Definição 3.1.
Em geral, tendo definido uma função determinante em M1 (K) , . . . , Mn−1 (K), definimos uma função
determinante em Mn (K) através da fórmula
n
X i+j
det A = (−1) Aij det A (i|j) .
j=1
fixando algum i (por exemplo, i = 1). Esta é a chamada fórmula do determinante através da expansão em
cofatores segundo a i-ésima linha de A. Esta será uma definição recursiva do determinante. Vamos verificar
por indução que a função assim definida satisfaz as propriedades (D1)-(D3):
(D1) Sejam
A = (C1 , . . . , Ak , . . . , Cn ) ,
B = (C1 , . . . , Bk , . . . , Cn ) ,
L = (C1 , . . . , xAk + yBk , . . . , Cn ) .
é
i+k i+k i i+k i
xAik + yBki det L (i|k) = x (−1)
(−1) Ak det L (i|k) + y (−1) Bk det L (i|k)
i+k i+k
= x (−1) Aik det A (i|k) + y (−1) Bki det B (i|k) .
Portanto,
n
X n
X
i+j i+j
det L = x (−1) Aij det A (i|j) + y (−1) Bji det B (i|j)
j=1 j=1
= x det A + y det B.
(D2) Em vista da Proposição 3.2, basta provar que se A tem duas colunas adjacentes iguais então det A = 0.
Seja A = (A1 , . . . , An ) e suponha que Ak = Ak+1 . Se j 6= k e j 6= k + 1, então a matriz A (i|j) tem duas
colunas iguais, logo por hipótese de indução det A (i|j) = 0 e
i+k i+k+1
det A = (−1) Aik det A (i|k) + (−1) Aik+1 det A (i|k + 1)
i+k
Aik det A (i|k) − Aik+1 det A (i|k + 1) .
= (−1)
Como Ak = Ak+1 , temos Aik = Aik+1 e A (i|k) = A (i|k + 1), portanto det A = 0.
(D3) Se In é a matriz identidade n × n, então In (i|i) = In−1 é a matriz identidade (n − 1) × (n − 1). Logo,
n
X i+j 2i
det In = (−1) δji det In (i|j) = (−1) det In−1 = 1.
j=1
Rodney Josué Biezuner 53
3.3 Unicidade
Para estabelecer a unicidade da função determinante e algumas de suas propriedades especiais, precisaremos
reescrever a sua definição de uma forma não recursiva. Nesta introdução, queremos apenas desenvolver a
intuição para o que virá a seguir.
A11 A12 A13 A14
A21 A22 A23 A24
A3 A33 A34
1 A32
A41 A42 A43 A44
A primeira coisa a notar é que o determinante de uma matriz pode ser descrito como sendo simplesmente
a soma de n! termos, cada um deles um produto de n elementos da matriz, cada um dos elementos deste
produto ocupando uma linha e uma coluna que nenhum outro elemento do produto ocupa, multiplicado por
um certo sinal positivo ou negativo. Por exemplo, na matriz acima destacamos o termo
para j1 variando entre 1 e n. Cada um dstes termos pode por sua vez ser expandido, por exemplo em
cofatores a partir da primeira linha do menor (que está na segunda linha de A), cada termo sendo da forma
(mais uma vez desprezando os sinais)
para j2 entre 2 e n; o sı́mbolo A (1|j1 ) (2|j2 ) significa que primeiro removemos a linha 1 e a coluna j1 da
matriz A e depois removemos da matriz resultante a linha 2 e a coluna j2 (contadas em relação à matriz A),
obtendo uma matriz (n − 2) × (n − 2). Continuando este processo obtemos n! termos da forma
multiplicados pelo sinal +1 ou −1, dependendo de alguma forma da bijeção j : {1, . . . , n} −→ {1, . . . , n}
escolhida. Portanto o determinante é da forma
X
det A = (sign j) A1j1 . . . Anjn
n! bijeções j
onde sign j = ±1. Vamos formalizar isso melhor, descobrir como calcular o sinal de cada bijeção e prin-
cipalmente desenvolver uma boa notação na qual poderemos explicar de maneira mais clara e desenvolver
de forma mais rápida os argumentos que serão usados para provar a unicidade e demais propriedades do
determinante.
3.8 Definição. Se B = {e1 , . . . .en } denota a base canônica de Kn , a representação matricial da permutação
p é também a representação matricial do operador linear T : Kn −→ Kn definido por
T ej = epj
G × G −→ G
(g, h) 7→ gh
Rodney Josué Biezuner 55
g (hk) = (gh) k.
eg = ge = g.
gg −1 = g −1 g = e.
gh = hg
para todos g, h ∈ G.
3.10 Exemplo. Qualquer corpo é um grupo comutativo com relação à operação de soma e, eliminando o
zero, é um grupo comutativo com relação à operação produto.
Qualquer espaço vetorial V é um grupo comutativo com relação à operação de soma de vetores.
O conjunto das matrizes invertı́veis n × n com relação à operação usual de produto de matrizes é um
grupo, não comutativo se n > 2, chamado o grupo linear e denotado GLn (K). Ele não é um grupo com
relação ao produto colchete de Lie, porque este não é associativo.
O conjunto das matrizes de permutação An é um grupo com relação ao produto de matrizes, não co-
mutativo se n > 3. O conjunto dos operadores de permutação An é um grupo com relação ao produto de
operadores (composição), não comutativo se n > 3.
Dado um conjunto S, o conjunto de todas as bijeções de S em S sob a operação de composição de funções
é um grupo não comutativo (se S contém mais que dois elementos).
O conjunto dos operadores linear invertı́veis GL (V ) sob a operação de composição de operadores é um
grupo, não comutativo se dim V > 2.
Em particular, do penúltimo exemplo segue que:
3.11 Proposição. O conjunto Sn das permutações de grau n sob a operação de composição de permutações
é um grupo, não comutativo se n > 2.
3.12 Exemplo. Se
1 2 3 4 5 1 2 3 4 5
p= eq= ,
4 2 5 3 1 2 1 5 4 3
então
1 2 3 4 5 −1 1 2 3 4 5
qp = ep = .
4 1 3 5 2 5 2 4 1 3
Se
1 2 3 1 2 3
p= eq= ,
1 3 2 2 1 3
então
1 2 3
pq =
3 1 2
1 2 3
qp =
2 3 1
Rodney Josué Biezuner 56
3.13 Definição. Dados dois grupos G e H, um homomorfismo entre eles é um mapa φ : G −→ H que
preserva a operação de grupo, isto é,
φ (gh) = φ (g) φ (h) .
τi = j,
τj = i,
τk = k para todo k 6= i, j.
3.17 Exemplo. A permutação de grau 7
1 2 3 4 5 6 7
τ=
1 2 6 4 5 3 7
cuja matriz é
1 0 0 0 0 0 0
0 1 0 0 0 0 0
0 0 0 0 0 1 0
A=
0 0 0 1 0 0 0
0 0 0 0 1 0 0
0 0 1 0 0 0 0
0 0 0 0 0 0 1
é uma transposição.
Rodney Josué Biezuner 57
Note que, embora a identidade seja uma transposição e a inversa de uma transposição seja ela própria
τ −1 = τ
porque
τ 2 = id,
a composta de transposições não é uma transposição, e portanto o subconjunto das transposições não é um
subgrupo de Sn . Na realidade, provaremos na próxima seção que toda permutação pode ser decomposta
como um produto de transposições (não de forma única), o que é intuitivamente fácil de ver.
Como última observação, note que se já sabemos que τ é uma transposição, para determinar τ basta
definir o valor de τ em um ı́ndice que é transposto por τ ; no exemplo anterior, basta saber que τ3 = 6 , já
que pelo fato de τ ser uma transposição imediatamente segue que τ6 = 3 e τk = k para k 6= 3, 6.
D1 (I) = D2 (I) ,
então
D1 (A) = D2 (A)
para toda matriz de permutação A.
Prova: Seja A a matriz da permutação p. Um número finito de trocas de colunas (no máximo n − 1)
transforma a matriz A na matriz identidade: transponha o vetor e1 para a primeira coluna (se ele já não for
a primeira coluna), obtendo uma matriz A1 ; depois transponha o vetor e2 para a segunda coluna (se ele já
não for a segunda coluna), obtendo a matriz A2 e assim sucessivamente.
Mais precisamente, cada matriz Ai é a matriz de uma permutação pi ; trocar duas colunas de Ai equivale
a obter a matriz da permutação pi+1 que é o produto da permutação pi pela transposição τ que troca as
colunas Aii+1 e a coluna igual a ei+1 . De fato, se no primeiro passo
p1 = j1 6= 1,
pk1 = 1,
p1 = pτ 1
satisfaz
(pτ )1 = p (τ1 ) = pk1 = 1,
e portanto a matriz A1 da permutação p1 possui o vetor e1 na primeira coluna. Por indução, se através de
multiplicar pelas transposições apropriadas obtivemos uma permutação
pi = pτ 1 . . . τ i
cuja matriz Ai possui os vetores e1 , . . . , ei nas colunas 1, . . . , i, respectivamente, se a coluna i+1 está ocupada
pelo vetor eji+1 6= ei+1 e o vetor ei+1 ocupa a coluna ki > i, isto é, a permutação pi satisfaz
pii+1 = ji+1 6= i + 1,
piki = i + 1,
Rodney Josué Biezuner 58
i+1
consideramos a transposição τi+1 = ki , de modo que se definirmos
pi+1 = pi τ i+1
então
pi+1 i i+1 i+1
= pi τi+1
i+1 = p τ i+1
= ki = i,
e a matriz Ai+1 da permutação pi+1 possui o vetor ei+1 na coluna i + 1.
Resumindo, se forem necessárias k transposições para transformar a matriz A na matriz identidade, temos
A0 = matriz da permutação p = A,
A1 = matriz da permutação pτ 1 ,
A2 = matriz da permutação pτ 1 τ 2 ,
..
.
Ak−1 = matriz da permutação pτ 1 τ 2 . . . τ k−1 ,
Ak = matriz da permutação pτ 1 τ 2 . . . τ k−1 τ k = id
= I,
Em particular, este argumento mostra que dada uma permutação p, existem transposições τ 1 , . . . , τ k tais
que
pτ 1 . . . τ k = id .
Como a inversa de uma transposição é ela própria, concluı́mos que
p = τ k . . . τ 1,
Assim, o valor de uma função n-linear alternada de qualquer matriz de permutação é caracterizado pelo
valor que ela assume na matriz identidade. Em particular,
k
D1 (A) = (−1) D1 (I) ,
k
D2 (A) = (−1) D2 (I) ,
Prova: Sejam A1 , . . . , An ∈ Kn vetores arbitrários. Escrevendo estes vetores em termos da base canônica
de Kn :
Xn
Aj = Aij ei ,
i=1
sempre que a função i : I −→ I não for uma permutação, isto é, sempre que i for tal que ik = il para algum
par de ı́ndices k 6= l. Logo,
X p
D1 (A1 , . . . , An ) = A11 . . . Apnn D1 (ep1 . . . epn ) ,
p∈Sn
X
D2 (A1 , . . . , An ) = Ap11 . . . Apnn D2 (ep1 . . . epn ) ,
p∈Sn
Em outras palavras, quando as posições das colunas de uma matriz são trocadas através de uma per-
mutação, o sinal do determinante não se altera se esta permutação é um número par de transposições e o
sinal muda se ela é um número ı́mpar de transposições.
Em particular, embora a fatoração de uma permutação p em transposições não seja única, o número
destas transposições é sempre par ou sempre ı́mpar.
Prova: Segue da demonstração do Lema 3.18.
sign p = det A
k
sign p = (−1) .
3.24 Corolário (Fórmula do Determinante através de Permutações). Vale
X
det (A1 , . . . , An ) = (sign p) Ap11 . . . Apnn .
p∈Sn
p = τk . . . τ1
então
p−1 = τ 1 . . . τ k ,
de modo que p e p−1 tem o mesmo número de transposições.
Rodney Josué Biezuner 61
Prova: Temos X
det A = (sign p) Ap11 . . . Apnn .
p∈Sn
Agora, observe que se pi = j, então i = pj−1 , logo Api i = Ajp−1 . Como sign p = sign p−1 , segue que
j
X
sign p−1 A1p−1 . . . Anp−1
det A =
1 n
p−1 ∈Sn
X
= (sign q) A1q1 . . . Anqn
q∈Sn
X q 1 qn
= (sign q) At 1
. . . At n
q∈Sn
= det At .
3.27 Corolário. O cálculo do determinante de uma matriz pode ser feito através da expansão em cofatores
a partir de qualquer coluna da matriz.
3.28 Proposição (Determinante do Produto).
podemos escrever
n
X
(AB)j = Bjr Ar .
r=1
Portanto, !
n
X n
X
det (AB) = det B1r Ar , . . . , Bnr Ar .
r=1 r=1
Rodney Josué Biezuner 62
Usando a n-linearidade e alternalidade do determinante da mesma forma como no Teorema 3.19, obtemos
X p
det (AB) = B1 1 . . . Bnpn det (Ap1 , . . . , Apn )
p∈Sn
X
= (sign p) B1p1 . . . Bnpn det (A1 , . . . , An )
p∈Sn
X
= (sign p) B1p1 . . . Bnpn det A
p∈Sn
X
= det A (sign p) B1p1 . . . Bnpn
p∈Sn
= det A det B.
3.29 Corolário (Determinante da Inversa). Se A for invertı́vel, então det A 6= 0 e
1
det A−1 =
.
det A
Prova: Pois
det AA−1 = det A det A−1
e
det AA−1 = det I = 1.
3.30 Corolário. Matrizes semelhantes possuem o mesmo determinante.
Prova: Pois, se B = P −1 AP , então
1
det B = det P −1 AP = det P −1 det A det P =
det A det P = det A.
det P
Como consequência deste resultado e do fato dos representantes matriciais de um operador linear em
relação a diferentes bases serem matrizes semelhantes, podemos definir o determinante de um operador
linear:
det T = det A,
AX = b.
Rodney Josué Biezuner 63
Suponha que
n
X
X= xj ej
j=1
seja uma solução para esta equação. Se Aj denota a j-ésima coluna da matriz A, temos
Xn Xn Xn
b = AX = A xj ej = xj Aej = x j Aj .
j=1 j=1 j=1
Denote por A [k|b] a matriz obtida de A através da substituição da k-ésima coluna de A pelo vetor b. Então
de modo que
n
X
det A (k|b) = det A1 , . . . , Ak−1 , xj Aj , Ak+1 , . . . , An
j=1
n
X
= xj det (A1 , . . . , Ak−1 , Aj , Ak+1 , . . . , An )
j=1
Portanto, se det A 6= 0 e existir uma solução x para o sistema Ax = b, então esta solução é única e é dada
por
det A (k|b)
xk = .
det A
Podemos dizer mais: se det A 6= 0, então a expressão acima fornece a única solução para o sistema AX = b
(veja Teorema 3.33 a seguir). Esta é a chamada regra de Cramer.
3.32 Definição. A adjunta clássica da matriz A é definida como sendo a matriz transposta da matriz de
cofatores da matriz A, isto é,
i i+j
(adj A)j = (−1) det A (j|i) .
3.33 Teorema (Fórmula da Inversa). Temos
adj A
A−1 = .
det A
Rodney Josué Biezuner 64
Prova: Denote B = A [i|Aj ], isto é, a matriz B é obtida a partir da matriz A quando substituı́mos a i-ésima
coluna de A pela sua j-ésima coluna. Temos então
n
X
i i
[(adj A) A]j = (adj A)r Arj
r=1
n
X i+r
= (−1) det A (r|i) Arj
r=1
n
X i+r
= (−1) Arj det A (r|i)
r=1
n
X i+r
= (−1) Bir det B (r|i)
r=1
= det B.
Se i 6= j, a matriz B possui duas colunas iguais e det B = 0. Concluı́mos que
i
[(adj A) A]j = 0 se i 6= j.
Se i = j, então
n
X n
X
i+r i+r
(−1) Arj det A (r|i) = (−1) Ari det A (r|i)
r=1 r=1
= det A .
Em outras palavras,
i
[(adj A) A]j = (det A) δij ,
ou seja,
(adj A) A = (det A) I.
Para provar que A (adj A) = (det A) I, observe que
t
At (i|j) = A (j|i) ,
de modo que
i i+j
adj At j = (−1) det At (j|i)
j+i t
= (−1) det A (i|j)
j+i
= (−1) det A (i|j)
h ij
t
= (adj A) ,
i
t
adj (At ) = (adj A) .
donde
t
(adj A) At = (det A) I.
Tomando a transposta de ambos os lados, obtemos o resultado desejado.
Este resultado em conjunto com o
Rodney Josué Biezuner 65
3.34 Corolário. Uma matriz é invertı́vel se e somente se o seu determinante é diferente de zero.
3.35 Corolário (Regra de Cramer). Se det A 6= 0, então o sistema linear AX = b tem solução única
dada por
(adj A) b
X= .
det A
ou seja,
det A [j|b]
xj = .
det A
Prova: Se AX = b, então
(adj A) AX = (adj A) b,
e pelo Teorema 3.33
(det A) X = (adj A) b.
Se det A 6= 0, temos que
(adj A) b
X= ,
det A
ou seja,
n
1 X j
xj = (adj A)i bi
det A i=1
n
1 X i+j
= (−1) bi det A (i|j)
det A i=1
1
= det A [j|b] .
det A
Capı́tulo 4
Operadores Diagonalizáveis e
Triangularizáveis
f = (f0 , f1 , f2 , . . .) .
(Sequências são simplesmente funções definidas no conjuntos dos números naturais.) Definimos um produto
em K∞ [x] associando a cada par de vetores f, g o vetor f g definido por
n
X
(f g)n := fi gn−i
i=0
n = 0, 1, 2, . . . Deste modo K∞ [x] torna-se uma K-álgebra associativa, comutativa e com identidade: o vetor
1 = (1, 0, 0, . . .)
x := (0, 1, 0, . . .) .
Observe que
x2 = (0, 0, 1, 0, . . .) ,
x3 = (0, 0, 0, 1, 0, . . .) ,
e em geral
xn = 0, 0, 0, 0, . . . , 0, 1, 0, . . . .
n
66
Rodney Josué Biezuner 67
Denotamos
x0 := 1.
∞
X
f= fn xn ,
n=0
∞
e por este motivo a álgebra K [x] é também chamada a álgebra das séries formais sobre K. ∞ Observe
2
que o conjunto 1, x, x , . . . é um conjunto linearmente independente mas não é uma base para K [x], já
que um elemento genérico de K∞ [x] (uma sequência infinita) não pode ser escrito como uma combinação
linear finita de elementos deste conjunto.
4.2 Definição. A álgebra dos polinômios sobre K é o subespaço K [x] de K∞ [x] gerado por 1, x, x2 , . . .. Um
elemento de K [x] é chamado um polinômio com coeficientes em K, ou simplesmente um K-polinômio.
O grau de um polinômio f 6= 0, denotado grau f , é o inteiro n tal que fn 6= 0 e fi = 0 para todo i > n.
Na linguagem de álgebras, 1 e x geram a álgebra dos polinômios no sentido de que todo elemento da álgebra
é uma combinação linear de produtos finitos de 1 e x. Ou seja, todo polinômio f ∈ K [x] se escreve na forma
f = f0 + f1 x + f2 x2 + . . . + fn xn .
Então
j
n+m
! m
n X
X X X
fg = fi gj−i xj = fi gj xi+j .
j=0 i=0 i=0 j=0
com
fn 6= 0 e gm 6= 0.
Rodney Josué Biezuner 68
(f g)n+m = fn gm (4.1)
e
(f g)n+m+k = 0 se k > 0. (4.2)
As afirmações (i), (ii) e (iii) seguem destes dois fatos. A afirmação (iv) é uma consequência de (ii) e a
afirmação (v) é óbvia.
4.5 Corolário. K [x] é uma K-álgebra associativa, comutativa e com identidade.
4.6 Corolário. Sejam f, g, h polinômios sobre K tais que f 6= 0 e f g = f h. Então g = h.
Prova: O resultado segue imediatamente da Proposição 4.4 (i) pois f g = f h é equivalente a f (g − h) = 0.
4.7 Definição. Seja A uma K-álgebra com identidade e para cada elemento a ∈ A adote a convenção a0 = 1,
n
onde 1 é a identidade de A. A cada polinômio f = fi xi sobre K associamos um elemento f (a) ∈ A pela
P
i=0
regra
n
X
f (a) = fi ai .
i=0
f (a) é o que chamamos o valor do polinômio f calculado em a.
4.8 Proposição. Seja A uma K-álgebra com identidade. Sejam f, g polinômios sobre K, a ∈ A e α, β ∈ K.
Então
(i) (αf + βg) (a) = αf (a) + βg (a) .
(ii) (f g) (a) = f (a) g (a) .
Prova: Provaremos apenas (ii). Sejam
n
X m
X
f= fi xi e g= gj xj .
i=0 j=0
de modo que
n,m
X
fg = fi gj xi+j .
i,j=0
Rodney Josué Biezuner 69
Então,
n,m
X
(f g) (a) = fi gj ai+j
i,j=0
n
! m
X X
= fi ai gj aj
i=0 j=0
= f (a) g (a) .
4.9 Corolário. Seja p um K-polinômio que se fatora no produto de polinômios
p = f g.
p (T ) = f (T ) g (T ) .
Em particular, se
p = (x − r1 ) . . . (x − rn ) ,
então
p (T ) = (T − r1 I) . . . (T − rn I) ,
p (A) = (A − r1 I) . . . (A − rn I) .
Prova: Segue do ı́tem (i) do teorema anterior, pois Hom (V ) e Mn (K) são ambas K-álgebras com identidade.
4.10 Lema. Sejam p, d polinômios não nulos tais que grau d 6 grau p. Então existe um polinômio q tal que
ou
p − dq = 0,
ou
grau (p − dq) < grau p.
Prova: Escreva
n−1
X
p = pn xn + pi xi ,
i=0
m−1
X
m
d = dm x + di xi ,
i=0
com
pn 6= 0 e dm 6= 0.
Então m 6 n e ou
pn
p− xn−m d = 0,
dm
Rodney Josué Biezuner 70
ou
pn
grau p − xn−m d < grau p.
dm
Tomamos
pn
q= xn−m .
dm
4.11 Teorema (Divisão de Polinômios). Se p, d são polinômios, com d 6= 0, então existem polinômios
únicos q, r tais que
p = dq + r
com ou
r=0
ou
grau r < grau d.
p − dq1 = 0
ou
grau (p − dq1 ) < grau f.
Se grau (p − dq1 ) < grau d, tomamos q = q1 e r = p − dq1 . Caso contrário, usamos novamente o lema anterior
e encontramos um polinômio q2 tal que ou
ou
grau [p − d (q1 + q2 )] < grau (p − dq1 ) .
Continuamos assim obtendo sucessivamente polinômios q1 , . . . qk até chegar o momento em que
p − d (q1 + . . . qk ) = 0
ou
grau [p − d (q1 + . . . qk )] < grau r.
Aı́ tomamos q = q1 + . . . qk .
Para provar a unicidade dos polinômios q e r, suponha que também existam outros polinômios q0, r0 tais
que
p = dq 0 + r0
com r0 = 0 ou grau r0 < grau d. Então dq + r = dq0 + r0, donde
d (q − q0) = r0 − r.
Se q 6= q0, então
grau d + grau (q − q0) = grau (r0 − r) ,
mas isso contradiz grau (r0 − r) < grau d. Portanto q = q1, o que implica r = r0.
Rodney Josué Biezuner 71
4.12 Definição. Dados polinômios p, d com d 6= 0, se existe um polinômio q tal que p = dq, dizemos que d
é um divisor de p e que q é o quociente de p por d.
Se p = dq + r com r 6= 0, dizemos que r é o resto da divisão de p por q.
4.13 Corolário. Seja p um K-polinômio e a ∈ K. Então p é divisı́vel por x − a se e somente se p (a) = 0.
Prova: Pelo Teorema 4.11, p = (x − a) q + r, onde r é um polinômio escalar (isto é, ou r = 0 ou grau r <
grau (x − a) = 1, isto é, grau r = 0). Segue da Proposição 4.8 que
p = (x − a) q
e q é um polinômio de grau n − 1, que tem no máximo n − 1 raı́zes, pela hipótese de indução. Como
p (b) = (b − a) q (b) = 0
p = α (x − r1 ) . . . (x − rn ) .
p = (x − r1 ) q1
p = (x − r1 ) . . . (x − rn ) qn ,
T v = λv.
Rodney Josué Biezuner 72
Se λ é um autovalor de T e v é qualquer vetor (mesmo nulo) tal que T v = λv, dizemos que v é um autovetor
de T associado a λ.
O subespaço vetorial
Vλ = {v ∈ V : T v = λv} = ker (T − λI)
a0 v + a1 T v + . . . + an T n v = 0.
a0 + a1 z + . . . + an z n .
a0 + a1 z + . . . + an z n = c (z − λ1 ) . . . (z − λm )
0 = (a0 I + a1 T + . . . + an T n ) v = an (T − λ1 I) . . . (T − λm I) v.
Em particular, necessariamente temos que pelo menos algum operador T −λj I não é injetivo (pois a composta
de bijeções é uma bijeção), e neste caso λj é um autovalor para T .
Rodney Josué Biezuner 73
4.22 Definição. O conjunto dos autovalores de T é chamado o espectro de T e será denotado por spec T .
A multiplicidade algébrica de um autovalor de T é a sua multiplicidade como raiz do polinômio
caracterı́stico, isto é, d é a multiplicidade algébrica do autovalor λ se o polinômio caracterı́stico de T se
escreve na forma
d
pc (x) = (x − λ) q (x)
e q (x) não possui λ como raiz.
De maneira análoga definimos os autovalores e o polinômio caracterı́stico de uma matriz. É claro que os
autovalores e o polinômio caracterı́stico de um operador são os autovalores e o polinômio caracterı́stico de
qualquer uma de suas representações matriciais:
4.23 Proposição. Matrizes semelhantes possuem os mesmos autovalores.
Prova: Pois se B = P −1 AP , então
det (xI − B) = det xI − P −1 AP
= det P −1 (xI − A) P
4.26 Proposição. Um conjunto de autovetores não nulos correspondentes a autovalores dois a dois distintos
é LI.
Prova: Por indução sobre o número de autovetores. Suponha o resultado provado para um conjunto de
k − 1 autovetores. Sejam λ1 , . . . , λk um conjunto de autovalores de T com λi 6= λj se i 6= j, e v1 , . . . , vk
autovetores não nulos correspondentes a estes autovalores. Suponha
k
X
xi vi = 0. (4.3)
i=1
Se A é considerada uma matriz sobre C, então A possui dois autovalores distintos, ±i, enquanto que sobre
R A não possui autovalores. Apesar disso, A é diagonalizável sobre C, possuindo 4 autovetores distintos:
0 −i
0 1
−i , 0 associados ao autovalor − i,
1 0
e
0 i
0 1
i , 0
associados ao autovalor i
1 0
4.29 Exemplo. A matriz
0 1
A=
0 0
possui o polinômio caracterı́stico
x −1
det (xI − A) = det = x2 .
0 x
Tanto faz se A for considerada uma matriz sobre R ou sobre C, A possui apenas um autovalor e o
autoespaço associado a este autovalor tem dimensão 1, com o vetor (1, 0) sendo um autovetor associado ao
autovalor 0. Portanto, A não é diagonalizável.
4.30 Lema. Se T v = λv e p é um polinômio qualquer, então p (T ) v = p (λ) v.
4.31 Lema. Sejam T ∈ Hom (V ), λ1 , . . . , λk os autovalores distintos de T e Wi o autoespaço associado a
λi .
Se W = W1 + . . . + Wk , então
W = W1 ⊕ . . . ⊕ Wk ,
isto é, autoespaços correspondentes a autovalores distintos são LI.
Equivalentemente, se Bi é uma base para Wi , então B = {B1 , . . . , Bk } é uma base para W e
Prova: Para provar que os autoespaços de T são LI, precisamos mostrar que dados vi ∈ Wi tais que
v1 + . . . + vk = 0,
0 = p (T ) 0
= p (T ) (v1 + . . . + vk )
= p (T ) v1 + . . . + p (T ) vk
= p (λ1 ) v1 + . . . + p (λk ) vk .
por exemplo,
Y x − λj
pi = .
λi − λj
j6=i
Então
n
X n
X
0 = pi (T ) 0 = pi (λj ) vj = δij vj = vi .
j=1 j=1
4.32 Teorema. Sejam T ∈ Hom (V ), λ1 , . . . , λk os autovalores distintos de T e Wi o autoespaço associado
a λi .
As seguintes afirmações são equivalentes:
(i) T é diagonalizável.
(ii) O polinômio caracterı́stico de T é
d1 dk
f = (x − λ1 ) . . . (x − λk )
(iv)
V = W1 ⊕ . . . ⊕ W k .
Prova: (i) ⇒ (ii) Se T é diagonalizável, então T possui uma representação matricial em blocos na forma
λ1 I1 0 ... 0
0 λ 2 I2 . . . 0
[T ]B = .
. . ..
.. .. .. .
0 0 ... λk Ik
em relação a alguma base B de V , onde cada bloco identidade Ii tem tamanho di . Segue imediatamente que
o polinômio caracterı́stico de T é
d1 dk
det (xI − T ) = (x − λ1 ) . . . (x − λk ) .
Como a matriz [T − λi I]B tem exatamente di zeros em sua diagonal principal, segue que dim Wi = di .
d d
(ii) ⇒ (iii) Se f = (x − λ1 ) 1 . . . (x − λk ) k , então
dim V = grau f = d1 + . . . + dk .
(iii) ⇒ (iv) Segue do lema anterior que V = W1 ⊕ . . . ⊕ Wk .
(iv) ⇒ (i) Pois V possui uma base formada por autovetores de T .
4.33 Exemplo. A matriz
5 −6 −6
A = −1 4 2
3 −6 −4
2
possui o polinômio caracterı́stico det (xI − A) = (x − 2) (x − 1), com autoespaços
W1 = h(3, −1, 3)i ,
W2 = h(2, 1, 0) , (2, 0, 1)i .
Portanto, A é diagonalizável.
Rodney Josué Biezuner 77
M = dK [x] .
Prova: Por hipótese, M contém um polinômio não nulo. Entre todos os polinômios não nulos de M existe
um polinômio d de grau mı́nimo, que podemos assumir mônico (basta multiplicar d pelo polinômio escalar
apropriado, se necessário). Se f ∈ M , então
f = dq + r
donde
grau f = grau g = 0.
Como f, g são mônicos, segue que f = g = 1 e portanto d = d0 .
Rodney Josué Biezuner 78
(αf + βg) (T ) = αf (T ) + βg (T ) = 0
e se f ∈ K [x] e g anula T ,
(f g) (T ) = f (T ) g (T ) = 0.
4.39 Definição. Sejam V um espaço vetorial de dimensão finita e T ∈ Hom (V ). O polinômio mı́nimo
para T é o gerador mônico do ideal dos polinômios anuladores de T .
Assim, se um polinômio anula T , ele é um múltiplo polinomial do polinômio mı́nimo.
4.40 Teorema. Os polinômios mı́nimo e caracterı́stico de um operador linear possuem as mesmas raı́zes,
exceto possivelmente por multiplicidades.
Prova: Seja p o polinômio mı́nimo de T . Provar o teorema é mostrar que p (λ) = 0 se e somente se λ é um
autovalor de T .
Se p (λ) = 0 para algum λ ∈ R, então
p = (x − λ) q,
donde
0 = p (T ) = (T − λI) q (T ) .
Como grau q < grau p, pela definição de polinômio mı́nimo não podemos ter q (T ) = 0. Seja v um vetor tal
que q (T ) v = w 6= 0. Então,
0 = (T − λI) q (T ) v = (T − λI) w
e portanto λ é um autovalor de T .
Reciprocamente, se λ é um autovalor de T , então existe v 6= 0 tal que T v = λv. Pelo Lema 4.30,
0 = p (T ) v = p (λ) v,
donde p (λ) = 0.
4.41 Corolário. Se T é diagonalizável e λ1 , . . . , λk são os seus autovalores distintos, então seu polinômio
mı́nimo é o polinômio
p = (x − λ1 ) . . . (x − λk ) .
Rodney Josué Biezuner 79
Prova: Por definição, existe uma base para V consistindo apenas de autovetores de T , logo qualquer vetor
v ∈ V escreve-se na forma
v = v1 + . . . + vk
com vj um autovetor associado a λj . Como
p (T ) vj = (T − λ1 I) . . . (T − λk I) vj = 0
para todo j, porque (T − λj I) vj = 0 e polinômios em T comutam, segue que para todo v ∈ V temos
p (T ) v = 0.
Veremos na próxima seção que o polinômio mı́nimo de T ser um produto de fatores lineares distintos é de
fato equivalente a T ser diagonalizável.
4.42 Exemplo. Encontre o polinômio mı́nimo para a matriz
5 −6 −6
A = −1 4 2 .
3 −6 −4
2
Vimos no Exemplo 4.33 que A possui o polinômio (x − 2) (x − 1) como polinômio caracterı́stico e que
A é diagonalizável. Logo seu polinômio mı́nimo é p = (x − 2) (x − 1) = x2 − 3x + 2. Em particular,
A2 − 3A + 2I = 0.
Vimos no Exemplo 4.24 que B possui o polinômio x2 + 1 como polinômio caracterı́stico e que B não é
diagonalizável sobre R, pois seu polinômio caracterı́stico não possui raı́zes reais. No entanto, sobre C, o
polinômio caracterı́stico se fatora x2 + 1 = (x + i) (x − i) e B possui dois autovalores distintos, e portanto é
diagonalizável. Assim, o polinômio mı́nimo sobre C para esta matriz é x2 + 1. Como este polinômio possui
coeficientes reais, ele também é o polinômio mı́nimo para B sobre R.
para j = 1, . . . , n. Equivalentemente,
n
X
δji T − Aij I ei = 0.
i=1
Rodney Josué Biezuner 80
Considere matrizes sobre a álgebra comutativa com identidade K [T ] dos polinômios em T ; em outras
palavras, matrizes sobre K [T ] possuem polinômios em T como entradas. Considere em particular a matriz
B definida por
Bji = δij T − Aji I.
Então
det B = pc (T )
onde pc é o polinômio caracterı́stico de T , porque o polinômio caracterı́stico de T é o determinante da matriz
xI − A, cujas entradas são polinômios da forma
j
(xI − A)i = δij x − Aji I,
(det B) ek = 0 para k = 1, . . . , n.
Seja B = adj B a adjunta clássica de B, de modo que BB = (det B) I. Da equação acima, para cada par de
ı́ndices k, j temos
n n
kX j X k
0 = Bj Bi ei = B j Bij ei .
i=1 i=1
donde
n n
X X k j
0= B j Bi ei
i=1 j=1
n
X k
= BB i
ei
i=1
Xn
= δik (det B) ei
i=1
= (det B) ek .
Na próxima seção daremos outra demonstração do Teorema de Cayley-Hamilton sem usar determinantes.
4.46 Exemplo. O subespaço nulo e o espaço todo são invariantes por qualquer operador linear T . O núcleo
de T e a imagem de T também são invariantes por T .
4.47 Exemplo. Considere o espaço vetorial K [x] e o operador linear derivada D. Então o subespaço dos
polinômios de grau menor que ou igual a n, onde n é um inteiro não-negativo qualquer, é invariante por D.
4.48 Exemplo. Qualquer autoespaço de T é invariante por T .
4.49 Exemplo. O operador linear em R2 representado na base canônica pela matriz
0 −1
B=
1 0
não possui outros subespaços invariantes além dos triviais, isto é, além do subespaço nulo e do espaço todo
R2 , porque qualquer subespaço invariante de dimensão 1 seria um autoespaço de B, mas B não possui
autovalores reais, como vimos no Exemplo 4.43.
Quando um subespaço W ⊂ V é invariante por T , T induz um operador linear sobre W , o operador
restrição
T |W : W −→ W.
Denotaremos o operador restrição por TW . Seja
BW = {e1 , . . . , em }
isto é, Aij = 0 para i > m, se j 6 m. Em outras palavras, A tem a forma em blocos
Bm×m Cm×(n−m)
A= ,
0(n−m)×m D(n−m)×(n−m)
com o bloco B sendo a representação matricial do operador restrição TW com relação à base BW de W , isto
é,
B = [TW ]BW .
4.50 Proposição. Seja W um espaço invariante de V por T . Então os polinômios mı́nimo e caracterı́stico
para TW são divisores respectivamente dos polinômios mı́nimo e caracterı́stico para T .
Prova: Usando a representação matricial de T obtida na discussão acima
B C
A= ,
0 D
Rodney Josué Biezuner 82
para todo k, para alguma matriz (Ck )m×(n−m) . Logo, se p é um polinômio qualquer, temos
p (B) Cek
p (A) =
0 p (D)
para alguma matriz C
ek . Portanto, qualquer polinômio que anula A também anula B (e mesmo
m×(n−m)
D).
4.51 Definição. Seja W um subespaço invariante de V por T e v ∈ V . O conjunto dos polinômios
(αf + βg) (T ) v = α [f (T ) v] + β [g (T ) v] ∈ W.
[(f g) (T )] v = [f (T ) g (T )] v = f (T ) [g (T ) v] ∈ W
Seja W um subespaço próprio de V invariante por T . Então existe um vetor v ∈ V \W tal que
(T − λI) v ∈ W para algum autovalor λ de T .
Em outras palavras, existe um vetor v ∈ V \W tal que o seu polinômio T -condutor para W é um polinômio
linear.
Rodney Josué Biezuner 83
Prova: Seja z ∈ V \W um vetor qualquer. Seja f o polinômio T -condutor de z para W . Então f divide o
polinômio mı́nimo de T . Como z ∈
/ W , f não é um polinômio escalar. Portanto,
s sk
f = (x − λ1 ) 1 . . . (x − λk )
onde sj < rj e pelo menos algum sj 6= 0. Escolha um ı́ndice j tal que sj 6= 0 e escreva
f = (x − λj ) g.
(T − λj I) v = (T − λj I) g (T ) z = f (T ) z ∈ W.
4.55 Definição. Uma matriz A é triangular se Aij = 0 sempre que i < j (triangular inferior) ou se
Aij = 0 sempre que i > j (triangular superior).
4.56 Definição. Dizemos que T ∈ Hom (V ) é triangularizável se existe uma base de V tal que a matriz
de T em relação a esta base é uma matriz triangular.
4.57 Teorema. Um K-operador linear T em um espaço vetorial de dimensão finita é triangularizável se e
somente se o seu polinômio mı́nimo é um produto de fatores lineares sobre K.
Prova: Se T é triangularizável, então existe uma base B = {e1 , . . . , en } para V tal que
1
A12 A13 . . . A1n
A1
0 A22 A23 . . . A2n
0 A33 . . . A3n
[T ]B = 0 .
.. .. .. .. ..
. . . . .
0 0 0 ... Ann
Como o polinômio mı́nimo é um divisor do polinômio caracterı́stico, ele também é um produto de fatores
lineares.
Reciprocamente, se o polinômio mı́nimo para T se escreve na forma
r rk
p = (x − λ1 ) 1 . . . (x − λk ) ,
aplicamos o Lema 4.54 repetidamente da seguinte forma para encontrar uma base B = {e1 , . . . , en } para V
em relação à qual a matriz de T é triangular. Primeiro aplique aquele lema ao subespaço invariante W = {0}
para obter o vetor e1 . Como
(T − λ1 I) e1 = 0
para algum autovalor λ1 , segue que o subespaço
W1 = he1 i
é invariante por T . Podemos então aplicar novamente o lema ao subespaço W2 para obter o vetor e2 ∈ V \W1 .
Em particular, {e1 , e2 } é LI, e como
(T − λ2 I) x2 ∈ W1
Rodney Josué Biezuner 84
W2 = hx1 , x2 i
p = (x − λ1 ) . . . (x − λk ) .
Prova: Já vimos no Corolário 4.41 que se T é diagonalizável, então seu polinômio mı́nimo é um produto de
fatores lineares distintos. Reciprocamente, suponha que o polinômio mı́nimo de T é o produto
p = (x − λ1 ) . . . (x − λk )
de fatores lineares distintos e suponha por absurdo que T não é diagonalizável. Então, se
W = W 1 + . . . + Wk
é a soma dos autoespaços Wi associados a λi T , segue que W 6= V . Mas W é um subespaço invariante por
T , logo pelo Lema 4.54 existe um vetor v ∈ V \W e um autovalor λj tal que
w = (T − λj I) v ∈ W,
isto é
x − λj ∈ condT (v; W ) .
Escreva
p = (x − λj ) q.
de modo que q que não possui λj como raiz. Como
0 = p (T ) v = (T − λj I) q (T ) v,
q ∈ condT (v; W ) .
Mas o polinômio T -condutor de v para W divide ambos x − λj e q e estes não tem fatores em comum,
contradição.
Assim, para determinar se T é diagonalizável, basta encontrar os autovalores distintos λ1 , . . . , λk de T e
determinar se o operador (T − λ1 I) . . . (T − λk I) é o operador nulo ou não. Se T satisfaz uma equação
Rodney Josué Biezuner 85
polinomial, se esta se fatora em fatores lineares distintos, concluı́mos imediatamente que T é diagonalizável:
por exemplo, se T 2 = I ou T 2 = T .
Demonstração alternativa do Teorema de Cayley-Hamilton. Pelo Teorema 4.57 basta provar o
Teorema de Cayley-Hamilton para operadores triangularizáveis. De fato, pelo Teorema 4.57 todo operador
linear em um espaço vetorial sobre um corpo algebricamente fechado é triangularizável (um corpo K é
algebricamente fechado se todo K-polinômio possui uma raiz ou, equivalentemente, se todo K-polinômio
é um produto de fatores lineares); pela teoria de corpos, todo corpo K0 é um subcorpo de um corpo K
algebricamente fechado. O fato do polinômio caracterı́stico anular A ∈ Mn (K0 ) quando considerada uma
K-matriz, continua obviamente valendo quando ela é considerada uma K0 -matriz, pois os coeficientes do
polinômio caracterı́stico estão em K0 .
[Observe que para provar a afirmação do Teorema 4.57 que se o polinômio mı́nimo de um operador se
fatora como um produto de fatores lineares então o operador é triangularizável, não foi usado o teorema de
Cayley-Hamilton. Ele foi usado no Teorema 4.57 para provar a recı́proca desta afirmação, que não entra no
presente argumento.]
É fácil provar o teorema de Cayley-Hamilton para operadores triangularizáveis. De fato, se B =
{e1 , . . . , en } é uma base para V em relação à qual T é representada por uma matriz triangular A, então o
polinômio caracterı́stico para A é
f = x − A11 . . . (x − Ann ) .
T − A11 I . . . (T − Ann I)
é o operador nulo sobre V , procedemos por indução na dimensão de V . O resultado é claramente válido
para n = 1. Assuma o resultado válido para n − 1 e escreva a matriz A em blocos
B(n−1)×(n−1) C(n−1)×1
A=
01×(n−1) Ann
Observe que
(T − Ann I) V ⊂ he1 , . . . , en−1 i =: W.
W é um subespaço invariante por T de dimensão n − 1, com
f = x − A11 . . . x − An−1
n−1 .
é o operador nulo sobre V (observe que os vetores de W têm as últimas coordenadas nulas, logo faz sentido
aplicar o lado direito a vetores de V , apesar das matrizes identidades possuı́rem tamanho n − 1).
Rodney Josué Biezuner 86
4.7 Exercı́cios
4.60 Exercı́cio. Seja T o operador linear em R4 representado na base canônica pela matriz
0 0 0 0
a 0 0 0
.
0 b 0 0
0 0 c 0
onde λ1 , . . . , λk são distintos. Mostre que subconjunto em Mn (K) das matrizes B tais que AB = BA é um
subespaço vetorial de dimensão
d21 + . . . + d2k .
4.63 Exercı́cio. Seja A ∈ Mn (K) e considere o operador linear T : Mn (K) −→ Mn (K) definido por
T (B) = AB. Será verdade que A e T possuem os mesmos autovalores? Será que A e T possuem o mesmo
polinômio caracterı́stico? Será que A e T possuem o mesmo polinômio mı́nimo?
4.64 Exercı́cio. Seja K um corpo arbitrário e a, b, c ∈ K. Considere a matriz
0 0 c
A = 1 0 b .
0 1 a
Mostre que o polinômio caracterı́stico para A é p = x3 − ax2 − bx − c e que este também é o polinômio
mı́nimo para A.
4.65 Exercı́cio. Seja A a matriz real
1 1 0 0
−1 −1 0 0
A=
−2
−2 2 1
1 1 −1 0
2
Mostre que o seu polinômio caracterı́stico é p = x2 (x − 1) e que este também é o seu polinômio mı́nimo.
Se A for considerada uma matriz complexa, A é diagonalizável?
4.66 Exercı́cio. Seja T o operador linear sobre R2 cuja matriz na base canônica é
1 −1
A= .
2 2
Prove que os únicos subespaços de R2 invariantes por T são os triviais. Se U é um operador sobre C2 cuja
matriz na base canônica é A, mostre que U possui um subespaço invariante unidimensional.
Rodney Josué Biezuner 87
(ii) Se i 6= j,
Ei Ej = 0.
(iii)
E1 + . . . + Ek = I.
Ej v = wj .
Então Ej é um operador linear bem definido e Ej2 = Ej , isto é, Ej é uma projeção. Além disso, para todo j
vale
im Ej = Wj ,
ker Ej = W1 + . . . + W
cj + . . . + Wk ,
Rodney Josué Biezuner 89
v = w1 + . . . + wk
= E1 v + . . . + Ek v
= (E1 + . . . + Ek ) v,
temos I = E1 + . . . + Ek .
Reciprocamente, suponha existirem k operadores lineares E1 , . . . , Ek ∈ Hom (V ) que satisfazem (i)-(iii).
Obtemos que eles são projeções multiplicando (iii) por cada Ei e usando (ii). Como, por (iii),
v = E1 v + . . . + Ek v
temos que
V = W1 + . . . + Wk .
Além disso, esta expressão para v é única. De fato, se v = w1 + . . . + wk com wi ∈ Wi , temos, usando (ii) e
o fato que eles são projeções,
k
X k
X
Ej v = Ej wi = Ej Ei wi = Ej2 wj = Ej wj = wj .
i=1 i=1
As decomposições em soma direta V = W1 ⊕ . . . ⊕ Wk mais úteis de um espaço vetorial V são aquelas
em que cada um dos subespaços Wi são invariantes por algum operador linear T . Denote
Ti = TWi : Wi −→ Wi .
Se
v = w1 + . . . wk
é a expressão única de v como a soma de vetores dos subespaços invariantes Wi , temos
T v = T w1 + . . . + T wk
= T1 w1 + . . . + Tk wk .
T = T1 ⊕ . . . ⊕ Tk .
Observe, porém, que a expressão T1 + . . . + Tk não tem o sentido usual de soma de operadores, já que cada
operador Ti tem domı́nio diferente dos demais. Se Bi é uma base para Wi , de modo que B = {B1 , . . . , Bk }
é uma base para V , temos
[T1 ]B1 0 ... 0
0 [T2 ]B2 . . . 0
[T ]B = .
.. .. .. .
..
. . .
0 0 . . . [Tk ]Bk
O objetivo é encontrar uma decomposição do espaço V em soma direta de subespaços invariantes por T de
tal forma que os operadores Ti tenham uma forma simples.
4.78 Lema. Sejam T um operador linear e E uma projeção. O núcleo e a imagem de E são invariantes
por T se e somente se
T E = ET,
(ii) Se i 6= j,
Ei Ej = 0.
(iii)
E1 + . . . + Ek = I.
(ii) Se i 6= j,
Ei Ej = 0.
(iii)
E1 + . . . + Ek = I.
(iv)
T = λ1 E1 + . . . + λk Ek .
T v = T E1 v + . . . + T Ek v
= λ1 E1 v + . . . + λk Ek v.
im Ei = Wi ⊂ ker (T − λi I) .
Como Ei 6= 0 por hipótese, isso prova que Wi 6= {0}, ou seja, λi é um autovalor de T . Em particular, como os
subespaços Wi estão contidos em autoespaços associados a autovalores distintos, eles são LI. Portanto, segue
de (iii) que V = W1 ⊕ . . . ⊕ Wk . Concluı́mos que T é diagonalizável, pois V possui uma base de autovetores
de T . Não existem outros autovalores de T além de λ1 , . . . , λk , pois se λ é um autovalor de T , então
T − λI = (λ1 − λ) E1 + . . . + (λk − λ) Ek ,
(λi − λ) Ei v = 0
para todo i. Se v 6= 0, então Ej v 6= 0 para algum j por (iii) e pelos Wi serem LI, logo λ = λj .
Rodney Josué Biezuner 92
Só falta mostrar que Wi = ker (T − λi I) para todo i. Se v ∈ ker (T − λi I), isto é, se T v = λj v, então
0 = (T − λj I) v = (λ1 − λj ) E1 v + . . . + (λk − λj ) Ek v,
donde (λi − λj ) Ei v = 0 para todo i, logo Ei v = 0 para todo i 6= j. Daı́, segue que
v = E1 v + . . . + Ek v = Ej v ∈ Wj .
4.9 Exercı́cios
4.81 Exercı́cio. Seja T ∈ Hom (V ) um operador linear e E uma projeção. Prove que a imagem de E é
invariante por T se e somente se ET E = T E.
4.82 Exercı́cio. Seja T ∈ Hom (V ) um operador linear que comuta com toda projeção de V . O que você
pode dizer sobre T ?
4.83 Exercı́cio. Se E é uma projeção e f um polinômio, então f (E) = aI + bE. Encontre uma expressão
para a e b em termos dos coeficientes de f .
4.84 Exercı́cio. Mostre que se E é a projeção sobre W na direção de Z, então I − E é a projeção sobre Z
na direção de W .
4.87 Definição. Sejam p1 , . . . , pk polinômios sobre um corpo K, não todos nulos. O gerador mônico d do
ideal p1 K [x] + . . . + pk K [x] é chamado o máximo divisor comum de p1 , . . . , pk , denotado
d = mdc (p1 , . . . , pk )
1 = ph1 + f h2 .
g = p (gh1 ) + (f g) h2 ,
Denote k1 = gh1 . Como p divide f g, temos f g = ph3 para algum polinômio h3 . Portanto, se k2 = h3 h2 ,
temos
g = pk1 + pk2 = p (k1 + k2 ) .
4.90 Corolário. Se p é um polinômio primo que é um divisor do produto f1 . . . fk , então p é um divisor de
algum dos polinômios f1 , . . . , fk .
4.91 Teorema. Se K é um corpo, então todo polinômio mônico não-escalar sobre K pode ser fatorado como
um produto de polinômios primos mônicos sobre K de uma única maneira (a menos da ordem dos fatores).
f = pr11 . . . prkk
Wi = ker pri i (T ) .
Então
(i) V = W1 ⊕ . . . ⊕ Wk .
(ii) Cada Wi é invariante por T .
(iii) O polinômio mı́nimo de Ti = T |Wi é pri i .
Prova: Usaremos o Teorema 4.79, encontrando as projeções Ei sobre Wi que comutam com T . Para isso,
sabendo que operadores que são polinômios em T sempre comutam com T , encontraremos polinômios hi tais
que hi (T ) é a identidade em Wi e nulo nos outros Wj ; hi (T ) será a projeção Ei .
Para cada i, defina
k
p Y r
fi = ri = pj j .
pi j=1
j6=i
Defina
hi = fi gi .
e
Ei = hi (T ) .
Como h1 + . . . + hk = 1, segue que E1 + . . . + Ek = I. Notando que se i 6= j então o polinômio fi fj é um
múltiplo polinomial do polinômio mı́nimo p (porque este produto contém todos os fatores de p), segue que
Ei Ej = [fi gi (T )] [fj gj (T )]
= fi (T ) fj (T ) gi (T ) gj (T )
= (fi fj ) (T ) gi (T ) gj (T )
= 0gi (T ) gj (T )
=0
V = im E1 ⊕ . . . ⊕ im Ek .
pri i (T ) v = pri i (T ) Ei v
= pri i (T ) fi (T ) gi (T ) v
= p (T ) gi (T ) v
= 0.
é chamado o autoespaço generalizado associado ao autovalor λi e seus elementos são chamados autove-
tores generalizados.
4.97 Corolário. Operadores complexos possuem bases de autovetores generalizados.
Rodney Josué Biezuner 96
4.98 Corolário. Sejam T, S ∈ Hom (V ) operadores lineares cujos polinômios mı́nimos são produtos de
fatores lineares. Se
T S = ST,
então T e S possuem a mesma decomposição em soma direta por subespaços invariantes.
Em particular, se T, S são operadores diagonalizáveis, então T e S são simultaneamente diagonalizáveis
se e somente se T S = ST .
Prova: A primeira parte segue do Corolário 4.94. A recı́proca da segunda segue do fato de que se dois
operadores são simultaneamente diagonalizáveis, isto é, se existe uma mesma base em relação à qual as
matrizes de ambos os operadores são diagonais, então os operadores comutam, pois matrizes diagonais
comutam.
Este resultado é verdadeiro para um conjunto com um número arbitrário de operadores: eles são simultane-
amente diagonalizáveis se e somente se todos eles comutam dois a dois.
N = T − D.
N = (T − λ1 I) E1 + . . . + (T − λk I) Ek .
Usando os fatos que Ei2 = Ei , Ei Ej = 0 se i 6= j, e que as projeções comutam com T , segue que
2 2
N 2 = (T − λ1 I) E1 + . . . + (T − λk I) Ek ,
..
.
r r
N r = (T − λ1 I) E1 + . . . + (T − λk I) Ek .
Prova: Em vista da discussão anterior, só falta provar a unicidade da decomposição (que D e N comutam
segue do fato de ambos serem polinômios em T ). Suponha que T = D0 + N 0 , com D0 diagonalizável e N 0
nilpotente, satisfazendo D0 N 0 = N 0 D0 . Mostraremos que D0 = D e N 0 = N .
Como D0 e N 0 comutam entre si e T = D0 + N 0 , segue que D0 e N 0 comutam com T e portanto com
qualquer polinômio em T , em particular com D e N . De D + N = D0 + N 0 , segue que
D − D0 = N 0 − N.
de modo que se r é suficientemente grande, todo termo no lado esquerdo da expressão será nulo, porque ou
r−i
(N 0 ) = 0 ou N i = 0 (ou ambos).
Em particular, D −D0 é um operador diagonalizável que também é nilpotente. Como o polinômio mı́nimo
de um operador nilpotente é xr para algum r e o polinômio mı́nimo de um operador diagonalizável é um
produto de fatores lineares, segue que o polinômio mı́nimo de D − D0 é x, ou seja, D − D0 é o operador nulo.
Portanto, 0 = D − D0 = N 0 − N .
4.101 Corolário. Se T é um operador linear complexo, então T se decompõe de maneira única como a soma
de um operador diagonalizável e um operador nilpotente que comutam. Além disso, eles são polinômios em
T.
4.13 Exercı́cios
4.102 Exercı́cio. Seja V um espaço vetorial de dimensão n e N : V −→ V um operador nilpotente. Então
N n = 0.
4.103 Exercı́cio. Dê um exemplo de duas matrizes 4 × 4 nilpotentes que possuem o mesmo polinômio
mı́nimo mas que não são semelhantes.
4.104 Exercı́cio. Seja V um espaço vetorial de dimensão finita e suponha que T : V −→ V é um operador
que comuta com todo operador diagonalizável. Mostre que T é um múltiplo escalar do operador identidade.
4.105 Exercı́cio. Sejam V um espaço vetorial de dimensão finita sobre C, T : V −→ V um linear e D sua
parte diagonal. Mostre que se f ∈ C [x], então a parte diagonal de f (T ) é f (D).
4.106 Exercı́cio. Dada A ∈ Mn (K), considere o operador linear T : Mn (K) −→ Mn (K) definido por
5.1.1 Definição
O fato de um operador linear cujo polinômio caracterı́stico é completamente fatorável deixar de ser diagona-
lizável não pode ser atribuı́do à falta de autovalores, já que todas as raı́zes do polinômio caracterı́stico estão
presentes. O problema está na falta de autovetores suficientes para produzir uma base para o espaço. Se
existe um número suficiente de autovetores, então o operador é diagonalizável por definição e a sua forma
de Jordan coincide com a sua forma diagonal. Caso contrário, para cada autovetor que faltar a forma de
Jordan terá um escalar 1 acima da diagonal, acima do autovalor correspondente.
5.1 Definição. Seja J uma matriz sobre um corpo K e λ1 , . . . , λk seus autovalores distintos. Dizemos que
J está na forma de Jordan se
J1 0 . . . 0
0 J2 . . . 0
J = .
.. . . ..
.. . . .
0 0 . . . Jk
com cada bloco Ji na forma em blocos
Ji,1 0 ... 0
0 Ji,2 ... 0
Ji =
.. .. .. ..
. . . .
0 0 ... Ji,ni
e cada bloco Ji,k tem a forma
λi 1 0 ... ... 0
0 λi 1 ... ... 0
..
0 0 λi .... 0
Ji,k =
. ..
..
.. .. .. ..
. . . . .
0 0 ... 0 λi 1
0 0 ... ... 0 λi
99
Rodney Josué Biezuner 100
onde
λi
λi
λi
Di,k =
..
.
λi
λi
é uma matriz diagonal e
0 1 0 ... ... 0
0 1 ... ... 0
..
0 . ... 0
Ni,k =
..
.. ..
. . .
0 1
0
é uma matriz nilpotente diagonal, com tamanhos iguais a di,k . Em particular, como Di,k é um múltiplo
escalar da identidade, elas comutam:
Di,k Ni,k = Ni,k Di,k .
Como o tamanho de Ni,k é di,k , seu grau de nilpotência é exatamente di,k . Os polinômios caracterı́stico e
mı́nimo do bloco Ji,k são os mesmos, iguais a
di,k
pi,k i,k
m = pc = (x − λi ) .
Como os blocos Ji estão em forma dos blocos Ji,k (que comutam), também vale
Ji = Di + Ni ,
Di Ni = Ni Di ,
di = di,1 + . . . + di,ni
Rodney Josué Biezuner 101
com o grau de nilpotência de Ni sendo o máximo dos graus de nilpotência dos blocos Ji,1 , . . . , Ji,ni , ou seja,
O polinômio caracterı́stico de Ji é
d
pic = (x − λi ) i .
e o seu polinômio mı́nimo é
r
pim = (x − λi ) i .
Ou seja, Ji é uma matriz que representa o operador restrição de T ao autoespaço generalizado
r
Wi = dim ker (T − λi I) i .
J = D + N,
DN = N D,
n = d1 + . . . + dk
com ri 6 di para todo i. Então existe uma matriz que possui pc como polinômio caracterı́stico e pm como
polinômio mı́nimo.
Prova: Basta tomar uma matriz em forma de Jordan em que o bloco associado ao autovalor λi tem tamanho
di e possui o seu primeiro bloco de Jordan Ji,1 de tamanho ri , pois os outros blocos Ji,k tem tamanho menor
r
ou igual a ri e consequentemente o polinômio mı́nimo de Ji é exatamente (x − λi ) i .
Rodney Josué Biezuner 102
5.1.2 Exemplos
5.3 Exemplo. As matrizes
1 2 2 −1 1 0
A= , B= e C=
0 1 1 0 1 1
O primeiro caso corresponde a uma matriz diagonalizável, enquanto que o segundo corresponde a uma matriz
que possui um único autovalor com autoespaço correspondente de dimensão 1. Uma matriz real que não
possui autovalores evidentemente não possuirá uma forma de Jordan.
5.4 Exemplo. A matriz
0 1 2
A= 0 0 1
0 0 0
tem a forma de Jordan
0 1 0
J = 0 0 1 .
0 0 0
De fato, o único autovalor de A é 0 e a dimensão de seu autoespaço é 1.
5.5 Exemplo. A matriz
0 0 1
B= 0 0 0
0 0 0
tem a forma de Jordan
0 1 0
J = 0 0 0 .
0 0 0
De fato, o único autovalor de B é 0 e a dimensão de seu autoespaço é 2. Os Exemplos 5.4 e 5.5 ilustram que
também é fácil determinar as formas de Jordan de matrizes 3×3, bastando para isso encontrar os autovalores
da matriz e as dimensões dos autoespaços associados. De fato, as únicas formas de Jordan possı́veis para
matrizes 3 × 3 são
λ1 0 0 λ1 1 0 λ 1 0
0 λ2 0 , 0 λ1 0 ou 0 λ 1 .
0 0 λ3 0 0 λ2 0 0 λ
O primeiro caso corresponde a uma matriz diagonalizável (os três autovalores podem ser distintos ou iguais,
ou apenas dois dos autovalores são distintos); o segundo caso corresponde a um único autoespaço (se λ1 = λ2 )
ou dois autoespaços (se λ1 6= λ2 ) com dimensão total 2, o terceiro caso corresponde a um único autoespaço
com dimensão 1.
Rodney Josué Biezuner 103
5.6 Exemplo. Para matrizes 4×4 em diante, a estratégia de contar as dimensões dos autoespaços associados
aos autovalores é em geral insuficiente para determinar a forma de Jordan de uma matriz. Por exemplo, as
matrizes a seguir, já dadas na forma de Jordan,
0 1 0 0 0 1 0 0
0 0 1 0 0 0 0 0
J1 = 0 0 0 0 e J2 = 0 0 0 1
0 0 0 0 0 0 0 0
têm ambas apenas um único autovalor, 0, cujo autoespaço tem dimensão 2, mas são formas de Jordan
distintas por definição. De fato, J1 e J2 não são semelhantes porque J1 tem polinômio mı́nimo x3 , enquanto
que J2 tem polinômio mı́nimo x2 .
5.7 Exemplo. Por outro lado, as matrizes 4 × 4 abaixo estão em forma de Jordan distintas
2 1 0 0 2 1 0 0
0 2 0 0 0 2 0 0
A= 0 0 2 1
e B= ,
0 0 2 0
0 0 0 2 0 0 0 2
4 2
têm o mesmo polinômio caracterı́stico (x − 2) e o mesmo polinômio mı́nimo (x − 2) . Como elas representam
formas de Jordan distintas, elas não são semelhantes. De fato, o autoespaço de A associado ao autovalor 2
tem dimensão 2, enquanto que o autoespaço de B associado ao autovalor 2 tem dimensão 3.
5.1.3 Existência
Seja T ∈ Hom (V ) e suponha que T possa ser representado na forma de Jordan J em relação a alguma base
B de V . Considere um dos blocos de Jordan de J associados ao autovalor λ:
λ 1 0 ... 0
0 λ 1 ... 0
0 0 λ ... 0
Jλ = . . .
.. .. . . . . . ...
0 0 ... λ 1
0 0 ... 0 λ
Seja B0 ⊂ B a base do subespaço invariante W associado a este bloco. Se B0 = {v1 , . . . , vr }, então
T v1 = λv1 ,
T vj = vj−1 + λvj para j = 2, . . . , r.
Dizemos que os vetores v1 , . . . , vr formam uma cadeia de Jordan de comprimento r. Observe que isso é
equivalente a
(T − λI) v1 = 0,
(T − λI) vj = vj−1 para j = 2, . . . , r.
Portanto,
r
(T − λI) vr = 0,
r−1
(T − λI) vr−1 = 0,
..
.
2
(T − λI) v2 = 0,
(T − λI) v1 = 0.
Rodney Josué Biezuner 104
r r
Temos (T − λI) v = 0 para todo v ∈ W , o que implica que (x − λ) é o polinômio mı́nimo para T |W . Isso
motiva a seguinte definição:
5.8 Definição. Seja S ∈ Hom (V ). Dizemos que v ∈ V , v 6= 0, é um vetor S-cı́clico se existir um inteiro
positivo r tal que
S r v = 0.
O menor inteiro positivo com esta propriedade é chamado o perı́odo de v relativo a S.
Observe que dizer que r é o perı́odo de v relativo ao operador S é equivalente a dizer que o polinômio
S-anulador de v (isto é, o polinômio S-condutor para o subespaço nulo) é xr .
5.9 Lema. Se v é S-cı́clico com perı́odo r, então os vetores
v, Sv, . . . , S r−1 v,
são LI.
Prova: Os vetores v, Sv, . . . , S r−1 v serem LD é equivalente à existência de um polinômio não nulo
f = a0 + a1 x + . . . + ar−1 xr−1
de grau r − 1 tal que
f (S) v = 0,
r
o que contradiz o fato de x ser o S-anulador de v.
5.10 Definição. Dizemos que W ⊂ V é um subespaço vetorial S-cı́clico se existir algum vetor v ∈ W
tal que v é S-cı́clico de perı́odo r e W é gerado por
v, Sv, . . . , S r−1 v.
Segue do Lema 5.9 que se W é um subespaço cı́clico gerado pelo vetor (T − λI)-cı́clico v de perı́odo r, então
n o
r−1
B = (T − λI) v, . . . , (T − λI) v, v
é uma base para W . Em relação à base B, a matriz de T |W é um bloco de Jordan. De fato, denotando
r−1
v1 = (T − λI) v,
r−2
v2 = (T − λI) v,
..
.
r−j
vj = (T − λI) v,
..
.
vr−1 = (T − λI) v,
vr = v,
temos
r−1
T v1 = T (T − λI) v
r−1
= (T − λI + λI) (T − λI) v
r r−1
= (T − λI) v + λ (T − λI) v
= λv1
Rodney Josué Biezuner 105
e, para cada j = 2, . . . , r,
r−j
T vj = T (T − λI) v
r−j
= (T − λI + λI) (T − λI) v
r−(j−1) r−j
= (T − λI) v + λ (T − λI) v
= vj−1 + λvj .
Provar a existência da forma de Jordan para um operador linear T ∈ Hom (V ) é portanto equivalente a
encontrar uma decomposição em soma direta de V por subespaços cı́clicos. Procedemos a esta tarefa agora:
5.11 Teorema (Forma de Jordan). Seja T ∈ Hom (V ) um operador linear cujo polinômio caracterı́stico
se escreve como um produto de fatores lineares.
Então existe uma base para V em relação à qual T é representado por uma matriz na forma de Jordan.
A forma de Jordan de T é única a menos da ordem de seus autovalores.
Prova: (Existência) Sejam λ1 , . . . , λk os autovalores distintos de T e
r rk
p = (x − λ1 ) 1 . . . (x − λk )
r
o polinômio mı́nimo de T . Pelo Teorema da Decomposição Espectral, se Wi = ker (T − λi I) i então Wi é
r
invariante por T , V = W1 ⊕ . . . ⊕ Wk e (x − λi ) i é o polinômio mı́nimo de Ti = T |Wi . Para demonstrar o
teorema, basta provar que cada subespaço Wi é a soma direta de subespaços (Ti − λi I)-cı́clicos. No que se
segue, denotaremos
Ni = Ti − λi I.
Observe que Ni é um operador nilpotente com polinômio mı́nimo xri .
A prova será por indução na dimensão de Wi . Seja n = dim Wi e assuma que o teorema válido para todo
espaço vetorial de dimensão menor que n (para n = 1 o resultado é trivial, pois toda matriz 1 × 1 já está na
forma de Jordan). O subespaço
im Ni = Ni (Wi )
tem dimensão estritamente menor que a de Wi , pois dim ker Ni > 1 porque λi é autovalor de Ti e pelo
Teorema do Núcleo e da Imagem que
[Note, porém, que em geral Wi 6= im Ni ⊕ ker Ni porque a imagem de vetores correspondentes à segunda
coluna de um bloco de Jordan fundamental de Ji é um autovetor associado a λi .] Podemos então usar a
hipótese de indução e escrever
Ni (Wi ) = U1 ⊕ . . . ⊕ Um , (5.1)
onde cada subespaço Uj é Ni -cı́clico, gerado por algum vetor Ni -cı́clico uj ∈ Uj de perı́odo sj 6 ri .
Seja vj ∈ Wi tal que
Ni vj = uj .
s s +1
Então cada vetor vj também é um vetor Ni -cı́clico, pois se Ni j uj = 0 então Ni j vj = 0. Seja Vj o
subespaço Ni -cı́clico D E
s −1 s
Vj = vj , Ni vj , . . . , Ni j vj , Ni j vj . (5.2)
Afirmamos que os subespaços cı́clicos V1 , . . . , Vm são LI. De fato, suponha que w1 ∈ V1 , . . . , wm ∈ Vm são
tais que
w1 + . . . + wm = 0.
Rodney Josué Biezuner 106
wj = fj (Ni ) vj
f1 (Ni ) u1 = . . . = fm (Ni ) um = 0.
Segue que o polinômio mı́nimo xsj divide fj ; em particular, x é um fator de fj , ou seja, fj = xgj para algum
polinômio gj , o que implica
fj (Ni ) = Ni gj (Ni ) = gj (Ni ) Ni .
Substituindo esta expressão em (5.3), obtemos
g1 (Ni ) u1 + . . . + gm (Ni ) um = 0
e, novamente,
g1 (Ni ) u1 = . . . = gm (Ni ) um = 0.
s +1
Segue que x também divide gj , o que por sua vez implica que xsj +1 divide fj e, como Ni j
sj
vj = 0,
concluı́mos que
f1 (Ni ) v1 = . . . = fm (Ni ) vm = 0.
Afirmamos que
Wi = V1 ⊕ . . . ⊕ Vm + ker Ni . (5.4)
De fato, note em primeiro lugar que
Ni (Wi ) = Ni (V1 ⊕ . . . ⊕ Vm )
pois, como visto acima, para alguns polinômios fi todo vetor de Ni (Wi ) é da forma
Ni (v − v 0 ) = 0,
Wi = V1 ⊕ . . . ⊕ Vm ⊕ hv1 i ⊕ . . . ⊕ hvs i
Rodney Josué Biezuner 107
A unicidade da forma de Jordan será provada na seção a seguir (veja o Teorema 5.16 e a discussão que
lhe precede).
Observe que como a demonstração do Teorema 5.11 foi por uma indução não construtiva, ele ainda não
nos diz como obter a forma de Jordan no caso geral (e muito menos a base de vetores de V em relação à
qual o operador T é representado por uma matriz na forma de Jordan; em outras palavras, ele não nos diz
como obter as cadeias de Jordan), apenas garante que todo operador linear cujo polinômio caracterı́stico é
completamente fatorável possui uma forma de Jordan.
5.12 Corolário. Seja A uma matriz complexa. Então A é semelhante a uma matriz na forma de Jordan,
única a menos da ordem de seus autovalores.
5.13 Corolário. Matrizes que possuem formas de Jordan são semelhantes se e somente se elas possuem a
mesma forma de Jordan.
5.14 Definição. Para cada i = 1, . . . , k e para cada j = 1, . . . , ri definimos o ı́ndice de deficiência δji do
autovalor λi por
j
δji = dim ker (T − λi I) = nul Jij .
Rodney Josué Biezuner 108
Observe que
δ1i = dim ker (T − λI)
é exatamente a dimensão do autoespaço associado ao autovalor λi , isto é, o número máximo de autovetores
LI associados a λi , e cada autovetor LI dá origem a um bloco de Jordan fundamental Ji,k , enquanto que
ri
δri i = dim ker (T − λi I) = di
Sabemos que não existem blocos de Jordan fundamentais de tamanho maior que r porque o polinômio
r
mı́nimo de Ji é (x − λ) .
5.15 Exemplo. Suponha que o bloco de Jordan Ji de T associado ao autovalor λi = 3 seja a seguinte matriz
12 × 12
3 1 0 0
0 3 1 0
0 0 3 1
0 0 0 3
3 1
0 3
Ji =
.
3 1
0 3
3
3
3
3
12
Em particular, o fator (x − 3) aparece no polinômio caracterı́stico de T . Temos
µ1 = 4,
µ2 = 2,
µ3 = 0,
µ4 = 1.
Como o tamanho máximo de um bloco de Jordan fundamental de Ji é 4, segue que o polinômio mı́nimo de
4
Ji é (x − 3) , isto é, r = 4. Contando os autovalores independentes de Ji , isto é, a base para Ti − 3I, vemos
que
δ1 = 7.
Temos 3 vetores nas segundas colunas de blocos de Jordan fundamentais (os três primeiros blocos; os demais
blocos tem tamanho 1, logo não possuem segundas colunas), que juntos com os autovetores formam uma
2
base para (Ti − 3I) , logo
δ2 = 10.
Rodney Josué Biezuner 109
Temos 1 vetor na terceira coluna de um bloco de Jordan fundamental (o primeiro bloco; os demais blocos
tem tamanho < 3, logo não possuem terceiras colunas), que junto com os vetores encontrados anteriormente
3
formam uma base para (Ti − 3I) , logo
δ3 = 11.
Por fim, temos 1 vetor na quarta coluna de um bloco de Jordan fundamental (o primeiro bloco; os de-
mais blocos tem tamanho < 4, logo não possuem quartas colunas), que junto com os vetores encontrados
4
anteriormente formam uma base para (Ti − 3I) = 0, logo
δ4 = 12.
Temos
δ1 = µ1 + µ2 + . . . + µr , (5.5)
pois δ1 é o número total de blocos de Jordan presentes em Ji e cada autovetor LI é a primeira coluna de um
bloco de Jordan. Em seguida, considere
2
δ2 = dim ker (T − λI) .
2
Cada bloco de Jordan 1×1 contribui um vetor para a base ker (T − λI) , cada bloco de Jordan 2×2 contribui
2
dois vetores para ker (T − λI) , enquanto que blocos j × j com j > 3 contribuem também dois vetores; de
fato,
2
(T − λI) v1 = 0 (T − λI) v1 = 0
2
(T − λI) v2 = v1 , (T − λI) v2 = 0,
2
(T − λI) v3 = v2 , (T − λI) v3 = v1 ,
(T − λI) v4 = v3 , =⇒ (T − λI) v4 = v2 , .
2
.. ..
. .
(T − λI) vj = vj−1 2
(T − λI) vj = vj−2 .
Portanto,
δ2 = µ1 + 2µ2 + . . . + 2µr . (5.6)
Considere agora
3
δ3 = dim ker (T − λI) .
3
Cada bloco de Jordan 1×1 contribui um vetor para a base ker (T − λI) , cada bloco de Jordan 2×2 contribui
3 3
dois vetores para ker (T − λI) , cada bloco de Jordan 3×3 contribui três vetores para ker (T − λI) , enquanto
que blocos j × j com j > 4 contribuem também três vetores; de fato,
2 3
(T − λI) v1 =0 (T − λI) v1 =0 (T − λI) v1 =0
2 3
(T − λI) v2 = v1 , (T − λI) v2 = 0, (T − λI) v2 = 0,
2 3
(T − λI) v3 = v2 , (T − λI) v3 = v1 , (T − λI) v3 = 0,
(T − λI) v4 = v3 , ⇒ (T 2
− λI) v4 = v2 , ⇒ (T 3
− λI) v4 = v1 , .
.. .. ..
. . .
(T − λI) vj = vj−1 2
(T − λI) vj = vj−2 .
3
(T − λI) vj = vj−3 .
Assim,
δ3 = µ1 + 2µ2 + 3µ3 + . . . + 3µr . (5.7)
Em geral,
j−1
X r
X
δj = µ1 + 2µ2 + 3µ3 + . . . + jµj . . . + jµr = lµl + j µl . (5.8)
l=1 l=j
Rodney Josué Biezuner 110
Os valores dos ı́ndices de deficiência δ1 , δ2 , . . . , δr devem ser calculados diretamente a partir do operador T ,
j
ou seja, determinando a dimensão do espaço solução do sistema homogêneo (T − λi I) X = 0. A matriz do
sistema acima
1 1 1 ... 1
1 2 2 ... 2
1 2 3 ... 3
.. .. .. . . .
. . . . ..
1 2 3 ... r
possui inversa com uma forma bastante simples
2 −1 0 ... ... ... 0
−1 2 −1 0 ... ... 0
0
−1 2 −1 0 ... 0
.. .. . . .. .. .. ..
,
. . . . . . .
0
... 0 −1 2 −1 0
0 ... ... 0 −1 2 −1
0 ... ... ... 0 −1 1
ou seja, uma matriz tridiagonal com −1’s nas diagonais secundárias e 2’s na diagonal principal, exceto pelo
último elemento da diagonal principal que é igual a 1. Por exemplo, para r = 5, a matriz do sistema e sua
inversa são
1 1 1 1 1 2 −1 0 0 0
1 2 2 2 2 −1 2 −1 0 0
1 2 3 3 3 e 0 −1 2 −1 0
.
1 2 3 4 4 0 0 −1 2 −1
1 2 3 4 5 0 0 0 −1 1
A verificação deste fato pode ser feita diretamente, multiplicando as duas matrizes e obtendo a matriz
identidade (e também pode-se provar que ambas as matrizes possuem determinante igual a 1; verifique,
calculando o determinante por escalonamento). Em particular, existe uma única solução µ1 , µ2 , . . . , µr para
o sistema, o que prova a unicidade da forma de Jordan. Resumimos a discussão acima no seguinte
teorema:
5.16 Teorema. Seja T ∈ Hom (V ) um operador linear cujo polinômio caracterı́stico é
d1 dk
pc = (x − λ1 ) . . . (x − λk )
Mais precisamente, se µij é o número de blocos de Jordan de tamanho j × j associados ao autovalor λi , para
j = 1, . . . , ri , temos
i i
µ1 2 −1 δ1
µi2 −1 2 −1 δ2i
i i
µ3
−1 2 −1 δ3
.. .. .. .. .
= .. .
.
. . .
µi −1 2 −1 δi
ri −2 ri −2
µir −1 −1 2 −1 δri −1
i i
µiri −1 1 δri i
de modo que o autoespaço associado ao autovalor 1 tem base {(1, −1, 0, 0) , (1, 0, 0, −1)} e portanto δ1 = 2.
Em seguida,
0 0 0 0
2 0 0 0 0
(A − I) = 0 0 0
,
0
0 0 0 0
2
de modo que δ2 = 4 e o polinômio mı́nimo de A é (x − 1) . Segue que não há blocos de Jordan de tamanho
maior que 2 e
µ1 2 −1 δ1 2 −1 2 0
= = = .
µ2 −1 1 δ2 −1 1 4 2
Concluı́mos que a forma de Jordan da matriz A é
1 1 0 0
0 1 0 0
.
0 0 1 1
0 0 0 1
5.18 Exemplo. Encontre a forma de Jordan para a matriz
0 −2 −1 −1
1 2 1 1
B= 0
.
1 1 0
0 0 0 1
Rodney Josué Biezuner 112
4
O polinômio caracterı́stico de B é (x − 1) . Temos
−1 −2 −1 −1
1 1 1 1
B−I = 0
,
1 0 0
0 0 0 0
de modo que o autoespaço associado ao autovalor 1 tem base {(1, −1, 0, 0) , (1, 0, 0, −1)} e portanto δ1 = 2.
Em seguida,
−1 −1 −1 −1
2 0 0 0 0
(B − I) = 1
,
1 1 1
0 0 0 0
de modo que δ2 = 3. Finalmente,
0 0 0 0
3 0 0 0 0
(B − I) =
0
0 0 0
0 0 0 0
3
donde δ3 = 4 e o polinômio mı́nimo de B é (x − 1) . Segue que não há blocos de Jordan de tamanho maior
que 3 e
µ1 2 −1 0 δ1 2 −1 0 2 1
µ2 = −1 2 −1 δ2 = −1 2 −1 3 = 0 .
µ3 0 −1 1 δ3 0 −1 1 4 1
Concluı́mos que a forma de Jordan da matriz B é
1 1 0 0
0 1 1 0
.
0 0 1 0
0 0 0 1
5.19 Exemplo. Encontre a forma de Jordan para a matriz
3 −1 1 1 0 0
1
1 −1 −1 0 0
0 0 2 0 1 1
C= .
0 0 0 2 −1 −1
0 0 0 0 1 1
0 0 0 0 1 1
5
O polinômio caracterı́stico de C é x (x − 2) . É claro que temos um único bloco de Jordan de tamanho 1
para o autovalor 0. Para o autovalor 2 temos
1 −1 1 1 0 0
1 −1 −1 −1 0 0
0 0 0 0 1 1
C − 2I = ,
0
0 0 0 −1 −1
0 0 0 0 −1 1
0 0 0 0 1 −1
Rodney Josué Biezuner 113
de modo que o autoespaço associado ao autovalor 2 tem base {(1, 1, 0, 0, 0, 0) , (0, 0, 1, −1, 0, 0)} e portanto
δ1 = 2. Em seguida,
0 0 2 2 0 0
0 0 2 2 0 0
2 0 0 0 0 0 0
(C − 2I) = 0 0 0 0
, de modo que δ2 = 4;
0 0
0 0 0 0 2 −2
0 0 0 0 −2 2
0 0 0 0 0 0
0 0 0 0 0 0
3 0 0 0 0 0 0
(C − 2I) = , de modo que δ3 = 5.
0 0 0 0 0 0
0 0 0 0 −4 4
0 0 0 0 4 −4
Como a dimensão do autoespaço generalizado associado ao autovalor 2 é 5, concluı́mos que o polinômio
3
mı́nimo do operador representado pela matriz C restrito a este subespaço é (x − 2) . Segue que não há
blocos de Jordan de tamanho maior que 3 associados ao autovalor 2 e
µ1 2 −1 0 δ1
µ2 = −1 2 −1 δ2
µ3 0 −1 1 δ3
2 −1 0 2
= −1 2 −1 4
0 −1 1 5
0
= 1 .
1
5.20 Exemplo. Encontre a forma de Jordan e sua respectiva base de Jordan para a matriz
2 1 0
A= 0 2 0 .
0 −1 2
3
O polinômio caracterı́stico de A é (x − 2) . Temos
0 1 0
A − 2I = 0 0 0 ,
0 −1 0
0 0 0
2
(A − 2I) = 0 0 0 .
0 0 0
Logo δ1 = 2, δ2 = 3 e
µ1 2 −1 2 1
= = ,
µ2 −1 1 3 1
de modo que a forma de Jordan da matriz A é
2 1 0
J = 0 2 0
0 0 2
Para completar, escolhemos algum autovetor que seja linearmente independente de v1 , por exemplo u1 .
Portanto, uma base de Jordan para A é dada por
1 0 1
B = 0 , 1 , 0 .
−1 0 0
Em particular,
1 0 1
P = 0 1 0
−1 0 0
é a matriz de mudança de coordenadas, de modo que J = P −1 AP , isto é,
2 1 0 0 0 −1 2 1 0 1 0 1
0 2 0 = 0 1 0 0 2 0 0 1 0 .
0 0 2 1 0 1 0 −1 2 −1 0 0
5.21 Exemplo. Vimos no Exemplo 5.17 que a forma de Jordan para a matriz
0 −1 −2 −1
1 2 1 1
A= 0
0 1 0
0 0 1 1
é
1 1 0 0
0 1 0 0
J =
0
.
0 1 1
0 0 0 1
Uma base para o núcleo de
−1 −1 −2 −1
1 1 1 1
A−I =
0
,
0 0 0
0 0 1 0
é dada pelos vetores
1 1
−1 0
u1 =
0 e u2 = 0
.
0 −1
Além disso, vimos também que
2
(A − I) = 0.
2
Buscamos vetores linearmente independentes v2 , v4 ∈ ker (A − I) = R4 tal que v2 , v4 ∈ / ker (A − I), mas
(A − I) v2 , (A − I) v4 ∈ ker (A − I), isto é, tal que v2 , v4 não sejam autovetores mas (A − I) v2 , (A − I) v4
são autovetores. Então {v1 = (A − I) v2 , v2 } e {v3 = (A − I) v4 , v4 } serão bases para os dois blocos de Jordan
1 1
0 1
(A − I) v = a1 u1 + a2 u2
Rodney Josué Biezuner 116
0 0
Escolhendo agora a1 = 0 e a2 = 1, obtemos
−x1 − x2 − 2x3 − x4 1
x1 + x2 + x3 + x4 0
=
0 0
x3 −1
e daı́, escolhendo x1 = 1 e x4 = 0 obtemos x2 = 0 e x3 = −1. Segue que
1 1
0 0
−1 e v3 = (A − I) v4 = 0
v4 = .
0 −1
Portanto, uma base de Jordan para A é dada por
1 −1 1 1
−1 0 0 0
B= 0 , 0
,
0 , −1
.
0 0 −1 0
Em particular,
1 −1 1 1
−1 0 0 0
P =
0 0 0 −1
0 0 −1 0
é a matriz de mudança de coordenadas, de modo que J = P −1 AP , isto é,
1 1 0 0 0 −1 0 0 0 −1 −2 −1 1 −1 1 1
0 1 0 0 −1 −1 −1 −1 1 2 1 1 −1 0 0 0
= .
0 0 1 1 0 0 0 −1 0 0 1 0 0 0 0 −1
0 0 0 1 0 0 −1 0 0 0 1 1 0 0 −1 0
Rodney Josué Biezuner 117
5.22 Exemplo. Vimos no Exemplo 5.18 que a forma de Jordan para a matriz
0 −2 −1 −1
1 2 1 1
B= 0
1 1 0
0 0 0 1
é
1 1 0 0
0 1 1 0
J =
0
.
0 1 0
0 0 0 1
Uma base para o núcleo de
−1 −2 −1 −1
1 1 1 1
B−I =
0
,
1 0 0
0 0 0 0
é dada pelos vetores
1 1
0 0
u1 =
−1 e 0 .
u2 =
0 −1
Uma base para o núcleo de
−1 −1 −1 −1
2 0 0 0 0
(B − I) =
1
,
1 1 1
0 0 0 0
é dada pelos vetores
1
−1
u1 , u2 e 0 .
u3 =
0
Além disso, vimos também que
3
(B − I) = 0.
3
Buscamos um vetor linearmente independente v3 ∈ ker (B − I) = R4 tal que v3 ∈
/ ker (B − I) e v3 ∈
/
2 2 2
ker (B − I) mas (B − I) v3 ∈ ker (B − I) e (B − I) v3 ∈ ker (B − I). Então
n o
2
v1 = (B − I) v3 , v2 = (B − I) v3 , v3
(B − I) v = a1 u1 + a2 u2 + a3 u3 ,
2
(B − I) v = a4 u1 + a5 u2 ,
Rodney Josué Biezuner 118
−x1 − x2 − x3 − x4 −1 −1 −1 −1 x1 1 1
0 0 0 0 0 x2 0 0
x1 + x2 + x3 + x4 = 1
= a4
−1 + a5 0
1 1 1 x3
0 0 0 0 0 x4 0 −1
a4 + a5
0
= −a4 .
−a5
x2 = −a1 ,
−x1 − 2x2 − x3 − x4 = a1 + a3 ,
x1 + x2 + x3 + x4 = −a3 ,
x2 = −a1 ,
x1 + x3 + x4 = a1 − a3 .
−1
Em particular,
1 2 0 1
0 −1 −1 0
P =
−1
−1 0 0
0 0 0 −1
é a matriz de mudança de coordenadas, de modo que J = P −1 BP , isto é,
1 1 0 0 −1 0 −2 −1 0 −2 −1 −1 1 2 0 1
0
1 1 0 =
1 0 1 1 1
2 1 1 0
−1 −1 0
.
0 0 1 0 −1 −1 −1 −1 0 1 1 0 −1 −1 0 0
0 0 0 1 0 0 0 −1 0 0 0 1 0 0 0 −1
Um algoritmo pra encontrar uma base de Jordan pode ser descrito em linhas gerais da seguinte forma:
1. Primeiro encontramos uma base v11 , . . . , vδ11 para ker (T − λI), isto é, vetores linearmente indepen-
dentes que geram o autoespaço associado ao autovalor λ.
2. Em seguida, se δ2 > δ1 , encontramos uma base V11 , . . . , Vδ11 para ker (T − λI) tal que
2
é uma base para ker (T − λI) .
2
3. Se δ3 > δ2 , encontramos uma base V12 , . . . , Vδ22 para ker (T − λI) tal que
3
é uma base para ker (T − λI) .
4. Continue este processo até obter uma base para W .
VC = {u + iv : u, v ∈ V }
Rodney Josué Biezuner 120
com a soma de vetores e produto de um vetor por um escalar complexo definidos de maneira natural, isto é,
e
(x + iy) (u + iv) = (xu − yv) + i (yu + xv) .
Vetores w = u + iv em VC tais que u, v ∈ V e v = 0 são chamados vetores reais; se u = 0, eles são chamados
vetores imaginários puros. Definimos o vetor conjugado de w por
w = (u + iv) = u − iv.
5.24 Exemplo. Temos
RC = C
e
R2C = C2 .
5.25 Proposição. Seja V um espaço vetorial real. Então toda base de V é uma base de VC .
Em particular,
dim V = dim VC .
Prova: Se {e1 , . . . , en } é uma base para V , todos os vetores u, v de V se escrevem como combinação linear
de e1 , . . . , en , digamos
u = u1 e1 + . . . + un en ,
v = v 1 e1 + . . . + v n en ,
logo o mesmo vale para todos os vetores u + iv de VC , pois
u + iv = u1 + iv 1 e1 + . . . + (un + iv n ) en .
Além disso, e1 , . . . , en são também linearmente independentes em VC , pois se existem escalares complexos
x1 + iy 1 , . . . , xn + iy n tais que
x1 + iy 1 e1 + . . . + (xn + iy n ) en = 0,
então
x1 e1 + . . . + xn en + i (y1 e1 + . . . + y n en ) = 0,
donde
x1 e1 + . . . + xn en = 0,
y 1 e1 + . . . + y n en = 0,
e portanto
x1 = . . . = xn = 0,
y 1 = . . . = y n = 0.
Rodney Josué Biezuner 121
5.26 Definição. Dado um subespaço vetorial de W de VC , definimos o subespaço conjugado como sendo
o subespaço vetorial
W = {w : w ∈ W } .
W = W.
T (w) = w
T (zw) = zw = zw = zT (w) .
5.27 Proposição. Um subespaço W de VC é invariante por conjugação se e somente se W possui uma base
formada por vetores reais.
Prova: Suponha que W possui uma base {e1 , . . . , en } de vetores reais. Se
v = v 1 e1 + . . . + v n en ∈ W,
então
v = v 1 e1 + . . . + v n en
= v 1 e1 + . . . + v n en
= v 1 e1 + . . . + v n en
= v 1 e1 + . . . + v n en
∈ W.
Reciprocamente, suponha que W é invariante por conjugação. Seja {w1 , . . . , wk } uma base para W , com
wj = uj + ivj
wj + wj
uj = ∈ W,
2
wj − wj
vj = ∈ W.
2
Como os vetores wj são combinações lineares dos vetores uj , vj , concluı́mos que u1 , . . . , uk , v1 , . . . , vk são
vetores reais que geram W . Dentre estes vetores podemos escolher um subconjunto minimal LI que ainda
gera W , obtendo uma base de vetores reais para W .
5.28 Corolário. Um subespaço W de VC é invariante por conjugação se e somente se ele é a complexificação
de algum subespaço Z de V , isto é,
W = ZC .
Rodney Josué Biezuner 122
Prova: Se W = ZC , pela Proposição 5.25 uma base para Z é uma base para ZC , e ela é portanto formada
por vetores reais, logo o resultado segue imediatamente da proposição anterior
Reciprocamente, suponha W invariante por conjugação. Pela proposição anterior, W possui uma base
{e1 , . . . , ek } formada por vetores reais. Considere o subespaço
Z = he1 , . . . , ek i
de V gerado pelos vetores e1 , . . . , ek . Como todo vetor de W se escreve como uma combinação linear
x1 + iy 1 e1 + . . . + (xn + iy n ) en
= x1 e1 + . . . + xn en + i (y1 e1 + . . . + y n en ) ,
segue que W = ZC .
5.29 Exemplo. O subespaço
W = hu + ivi
de VC gerado pelo vetor u + iv com u, v ∈ V , u, v 6= 0 e u não sendo um múltiplo escalar de v, não é a
complexificação de nenhum subespaço de V , porque ele não é invariante por conjugação: o vetor u − iv ∈
/ W.
De fato, os vetores de W são da forma (x + iy) (u + iv) para x, y ∈ R, logo um vetor tı́pico de W é da forma
O espaço vetorial complexo VC tem dimensão complexa n = dim V . Porém, o espaço vetorial VC também
pode ser visto como um espaço vetorial real. Neste caso, dim VC = 2n. De fato, se
{e1 , . . . , en }
5.30 Definição. Seja V um espaço vetorial real e T ∈ Hom (V ) um operador linear. A complexificação
de T é o operador linear TC ∈ L (VC ) definido por
TC (u + iv) = T u + iT v.
Rodney Josué Biezuner 123
5.31 Proposição. Sejam V um espaço vetorial real e T ∈ Hom (V ). Então a matriz de T em relação à
base B de V é a matriz de TC em relação a B considerada como base para VC :
[TC ]B = [T ]B .
5.33 Teorema (Forma de Jordan Real). Seja T ∈ Hom (V ) um operador linear real. Então existe
uma base para V em relação à qual T é representado por uma matriz diagonal em blocos, com autovalores
reais dando origem aos blocos de Jordan usuais e os autovalores complexos dando origem a blocos da forma
(chamados blocos de Jordan reais)
Da,b I2 0 ... ... 0
0 Da,b I2 ... ... 0
..
0
0 Da,b . ... 0
. .. .. .. .. ..
.. . . . . .
0 0 ... 0 Da,b I2
0 0 ... ... 0 Da,b
onde
a b 1 0
Da,b = e I2 = ,
−b a 0 1
sendo que a + ib é um autovalor complexo de TC . Esta matriz é única a menos da ordem dos blocos.
Prova: Considere o operador complexificado TC : VC −→ VC . Sejam λ1 , . . . , λk os autovalores distintos de
TC e
d1 dk
p = (x − λ1 ) . . . (x − λk ) ,
r rk
p = (x − λ1 ) 1 . . . (x − λk )
λ = a + ib
então r
TC − λI w = 0,
isto é, w ∈ Wλ . De fato,
TC w = TC w
Rodney Josué Biezuner 125
donde
TCk w = TCk w
e
r
r
X r r−k
(TC − λI) w = TCk (λI) w
k
k=1
r
X r
= λr−k TCk w
k
k=1
r
Xr r−k k
= λ TC w
k
k=1
r
X r r−k k
= λ TC w
k
k=1
r
= TC − λI w,
logo,
r
0 = (TC − λI) w
r
= TC − λI w.
TC w1 = λw1 ,
TC wj = λwj + wj−1 , para j = 2, . . . , m.
Rodney Josué Biezuner 126
Então
T u1 + iT v1 = TC w1
= λw1
= (a + ib) (u1 + iv1 )
= (au1 − bv1 ) + i (bu1 + av1 ) ,
de modo que
T u1 = au1 − bv1 ,
T v1 = bu1 + av1 ,
T uj + iT vj = TC wj
= λwj + wj−1
= (a + ib) (uj + ivj ) + uj−1 + ivj−1
= (auj − bvj + uj−1 ) + i (buj + avj + vj−1 ) ,
originando os blocos
1 0
I2 0 1
= .
Da,b a b
−b a
5.6 Exercı́cios
5.34 Exercı́cio. Ache a forma de Jordan e uma base de Jordan para as matrizes de (a) até (i). Ache a
forma de Jordan real e uma base de Jordan real para as matrizes de (j) até (l).
1 2 3 3 −3 −4 2 1 2
1 −1
(a) (b) 0 1 2 (c) 0 3 5 (d) 0 2 1
0 1
0 0 1 0 0 −1 0 0 2
2 0 1 0 1 1 0 0 1 0 0 0 2 1 4 0
0 2 0 1 −1 −1 0 0 1 2 0 0 0 2 1 0
(e)
(f )
−2 −2 2 1
(g)
(h)
12 0 3 0 1 0 2 0 0 0 2 0
0 −1 0 0 1 1 −1 0 1 1 0 2 0 0 0 2
0 1 1 1 1
0 0 1
0 1 0 0
1 1 0 1 0
1 −1 0 0 1 0
0 0 0
(i) 1 1 (j) (k) 0 0 1 (l)
1 1 0 0 0 1
0 0 0 0 1 −1 0 0
1 0 0 0
0 0 0 0 0
Capı́tulo 6
A partir deste capı́tulo, imporemos uma estrutura adicional em um espaço vetorial além de sua estrutura
linear: uma estrutura métrica definida por uma forma bilinear simétrica não degenerada.
f (v, w) = f (w, v)
para todos v, w ∈ V . O subespaço vetorial das formas bilineares simétricas será denotado por Σ2 (V ).
Uma forma bilinear f é anti-simétrica se
f (v, w) = −f (w, v)
para todos v, w ∈ V . O subespaço vetorial das formas bilineares anti-simétricas será denotado por Λ2 (V ).
Uma forma bilinear f é alternada se
f (v, v) = 0
para todo v.
127
Rodney Josué Biezuner 128
Se V é um espaço vetorial sobre um corpo de caracterı́stica diferente de 2, então uma forma bilinear f ser
alternada é equivalente a ela ser anti-simétrica, pois se f é antisimétrica,
f (v, v) = −f (v, v)
e se f é alternada,
0 = f (v + w, v + w)
= f (v, v) + f (v, w) + f (w, v) + f (w, w)
= f (v, w) + f (w, v) .
6.3 Proposição. Toda forma bilinear se escreve de maneira única (se o corpo não tem caracterı́stica 2)
como a soma de uma forma bilinear simétrica e uma forma bilinear anti-simétrica. Em outras palavras, se
K 6= Z2 ,
T 2 (V ) = Σ2 (V ) ⊕ Λ2 (V ) .
f (v, w) + f (w, v)
(Sim f ) (v, w) = ,
2
e sua parte anti-simétrica por
f (v, w) − f (w, v)
(Alt f ) (v, w) = .
2
Se K 6= Z2 , a única forma bilinear simultaneamente simétrica e anti-simétrica é a forma nula.
6.4 Definição. Dizemos que dois vetores v, w ∈ V são ortogonais se
f (v, w) = f (w, v) = 0.
f (v, u) = 0
Em particular,
f (v, w) = v t F w,
f (w, v) = wt F t v.
Prova. Se
[v]B = v 1 , . . . , v n ,
[w]B = w1 , . . . , wn ,
temos
Xn n
X
f (v, w) = f v i ei , w j ej
i=1 j=1
n
X
= v i wj f (ei , ej )
i,j=1
X n n
X
= vi Fji wj
i=1 j=1
n
X i
= v i (F [w]B )
i=1
t
= [v]B F [w]B .
Como a transposta de um escalar é ele próprio, temos
t
f (w, v) = wt F v = wt F v = v t F t w.
Rodney Josué Biezuner 130
6.8 Corolário. Uma forma bilinear é não degenerada se e somente se sua matriz associada é invertı́vel.
Em particular, a matriz de uma métrica é uma matriz simétrica invertı́vel.
Prova. Suponha f degenerada na segunda variável, isto é, que existe u ∈ V , u 6= 0, tal que
f (v, u) = 0
f (u, v) = v t F t u,
o mesmo resultado vale se f é degenerada na primeira variável, pois F é invertı́vel se e somente se F t é.
6.9 Proposição. Sejam f ∈ T 2 (V ) e F, F 0 as matrizes de f em relação às bases
B = {e1 , . . . , en } ,
B0 = {e01 , . . . , e0n } ,
F = P t F 0 P.
Portanto,
t
f (v, w) = [v]B0 F 0 [w]B0
t
= (P [v]B ) F 0 P [w]B
t
= [v]B P t F 0 P [w]B ,
Assim como a semelhança de matrizes, a congruência de matrizes é uma relação de equivalência.
Seja f ∈ T 2 (V ) uma forma bilinear. Então f induz dois morfismos
Lf : V −→ V ∗ ,
Rf : V −→ V ∗ ,
Rodney Josué Biezuner 131
definindo
[Lf (v)] (w) = f (v, w) ,
[Rf (v)] (w) = f (w, v) .
f é uma forma bilinear simétrica se e somente se
Lf = Rf .
6.11 Proposição. Seja f ∈ T 2 (V ) uma forma bilinear. Se B é uma base para V e F é a matriz de f em
relação a esta base, então
[Lf ]B,B∗ = F t ,
[Rf ]B,B∗ = F.
Em particular,
dim ker Lf = dim ker Rf ,
dim im Lf = dim im Rf .
Prova: Seja B = {e1 , . . . , en }. Se A = [Lf ]B,B∗ , temos
n
X
Lf (ei ) = Aki e∗k ,
k=1
donde
Fji = f (ei , ej ) = [Lf (ei )] (ej )
Xn Xn
= Aki e∗k (ej ) = Aki δkj
k=1 k=1
= Aji .
Se B = [Rf ]B,B∗ , temos
n
X
Rf (ej ) = Bjk e∗k ,
k=1
donde
Fji = f (ei , ej ) = [Rf (ej )] (ei )
Xn X n
k ∗
= Aj ek (ei ) = Akj δki
k=1 k=1
= Aij .
A última afirmação segue do Corolário 2.50.
6.12 Definição. Definimos o posto de uma forma bilinear f como sendo
rank f = dim im Lf = dim im Rf .
6.13 Corolário. O posto de uma forma bilinear é o posto de sua matriz em relação a qualquer base.
Além de ser uma consequência da Proposição 6.11, este resultado também segue da Proposição 6.9, já que
matrizes congruentes possuem o mesmo posto.
Rodney Josué Biezuner 132
6.1.3 Exemplos
6.14 Definição. Se V é um espaço vetorial métrico real, dizemos que sua métrica é definida positiva se
para todo v ∈ V vale
hv, vi > 0,
hv, vi < 0.
6.15 Exemplo. A métrica euclidiana em Rn é a métrica definida positiva dada nos vetores da base
canônica por
hei , ej i = δij
n
X n
X
hv, wi = v T w = δij v i wj = v i wi ,
i,j=1 i=1
isto é, a matriz associada à métrica euclidiana na base canônica é a matriz identidade.
6.16 Exemplo. Seja V um espaço vetorial real com base
B = {e1 , . . . , en } .
p
X n
X
i i
hv, wi = − αi v w + αi v i wi ,
i=1 i=p+1
De fato, esta é claramente uma forma bilinear simétrica. Para ver que ele não é degenerada, suponha
que v ∈ V é um vetor tal que
hv, wi = 0
para todo w ∈ V . Isso vale em particular para os vetores e1 , . . . , en da base. Mas hv, ei i = ±αi v i , logo v i = 0
para todo i e portanto ela é não degenerada.
Se p = 0 esta métrica é definida positiva, se p = n ela é definida negativa e se 0 < p < n ela não é nem
definida positiva nem definida negativa, pois vetores da forma
v = v 1 , . . . , v p , 0, . . . , 0
v = 0, . . . , 0, v p+1 , . . . , v n
satisfazem hv, vi > 0. Se q = n − p, dizemos que esta é uma métrica de assinatura (p, q).
Rodney Josué Biezuner 133
6.17 Exemplo. Uma métrica de Lorentz em um espaço vetorial real é uma métrica de assinatura (1, n).
6.18 Definição. Rn+1 dotado da métrica de Lorentz canônica
hei , ej i = ηij
hv, wi = −v 0 w0 + v 1 w1 + v 2 w2 + v 3 w3 ,
2 2 2 2
q (v) = − v 0 + v 1 + v 2 + v 3 .
n
X n
X
hv, wi = v T ηw = ηij v i wj = −v0 w0 + v i wi ,
i,j=0 i=1
isto é, a matriz associada à métrica de Lorentz na base canônica é a matriz η. Por exemplo, quando n+1 = 4,
−1 0 0 0
0 1 0 0
η= 0 0 1 0 .
0 0 0 1
6.19 Exemplo. Seja V um espaço vetorial real com base
B = {e1 , . . . , en } .
isto é,
p
X p+q
X n
X
f (v, w) = − αi v i w i + αi v i wi + 0v i wi ,
i=1 i=p+1 i=p+q+1
q (v) = f (v, v) .
6.21 Exemplo. Para a forma quadrática q associado à métrica de assinatura (p, q) definido no Exemplo
6.14 com αi = 1 para todo i, isto é,
p
X n
X
hv, wi = − v i wi + v i wi ,
i=1 i=p+1
6.22 Exemplo. Se q é uma forma quadrática associada a uma métrica definida positiva ou definida negativa,
então v é um vetor do tipo luz se e somente se v = 0.
Se q é associada a uma métrica indefinida, então mesmo que v 6= 0 pode acontecer que v seja um vetor
do tipo luz. Por exemplo, para a forma quadrática do Exemplo 6.14, se p 6= 0, n temos
q (ei + ej ) = 0
para todos 1 6 i 6 p e p + 1 6 j 6 n.
Mais ainda, é possı́vel obter uma base para V composta inteiramente de vetores do tipo luz. No caso
p = 1, basta tomar
B0 = {e1 + e2 , e1 − e2 , e1 + e3 , . . . , e1 + en } .
Rodney Josué Biezuner 135
Para ver que B0 é uma base, basta verificar que os n vetores que a formam são LI. Se
n
X
x1 (e1 + e2 ) + x2 (e1 − e2 ) + xi (e1 + ei ) = 0,
i=3
então !
n
X n
X
i
e1 + x1 − x2 e2 + xi ei = 0.
x
i=1 i=3
x1 − x2 = 0,
x3 = . . . = xn = 0,
donde xi = 0 para todo i.
6.23 Exemplo. Se q é uma forma quadrática associada a uma forma bilinear anti-simétrica em um espaço
vetorial sobre um corpo de caracterı́stica diferente de 2, então q ≡ 0, pois em tais corpos formas bilineares
anti-simétricas são alternadas.
Note que
q (v) = q (−v) ,
para todo v ∈ V , pois
q (−v) = h−v, −vi = hv, vi = q (v) .
De modo geral, para todo α ∈ K
q (αv) = α2 q (v) .
6.24 Proposição (Identidade Polar). Se f é uma forma bilinear e q sua forma quadrática associada,
então
f (v, w) + f (w, v) = q (v + w) − q (v) − q (w)
e
2f (v, w) + 2f (w, v) = q (v + w) − q (v − w) .
Em particular, se f é simétrica, vale
1
f (v, w) = [q (v + w) − q (v) − q (w)] .
2
e
1
[q (v + w) − q (v − w)] .
f (v, w) =
4
Portanto, uma forma bilinear simétrica é completamente determinada por sua forma quadrática associada
e toda forma bilinear simétrica está associada a uma única forma quadrática.
Prova. Se f é bilinear, temos
q (v + w) − q (v) − q (w)
= f (v + w, v + w) − f (v, v) − f (w, w)
= f (v, v) + f (v, w) + f (w, v) + f (w, w) − f (v, v) − f (w, w)
= f (v, w) + f (w, v) ,
Rodney Josué Biezuner 136
q (v + w) − q (v − w) = f (v + w, v + w) − f (v − w, v − w)
= f (v, v) + f (v, w) + f (w, v) + f (w, w)
− [f (v, v) − f (v, w) − f (w, v) + f (w, w)]
= 2f (v, w) + 2f (w, v) .
6.25 Proposição (Teorema de Pitágoras). Se q é uma forma quadrática associada a uma métrica, então
v, w são ortogonais se e somente se vale a identidade de Pitágoras
q (v + w) = q (v) + q (w) .
q (v + w) + q (v − w) = f (v + w, v + w) + f (v − w, v − w)
= f (v, v) + f (v, w) + f (w, v) + f (w, w)
+ f (v, v) − f (v, w) − f (w, v) + f (w, w)
= 2f (v, v) + 2f (w, w)
= 2q (v) + 2q (w) .
kv + wk 6 kvk + kwk .
Um espaço vetorial V dotado de uma norma k·k é chamado um espaço vetorial normado, denotado
(V, k·k) quando for necessário explicitar a norma.
Rodney Josué Biezuner 137
Para espaços vetoriais reais, uma norma pode ser definida a partir de uma métrica definida positiva,
enquanto que uma métrica definida positiva pode ser definida a partir de uma norma somente se esta
satisfaz a identidade do paralelogramo, como veremos a seguir. No caso de espaços vetoriais complexos,
um resultado análogo vale quando se considera produtos hermitianos, que serão considerados no próximo
capı́tulo.
6.28 Definição. Seja V um espaço vetorial métrico positivo definido real e normado. Dizemos que a norma
é induzida pela métrica se
p
kvk = hv, vi.
2
q (v) = kvk .
O seguinte conceito é extremamente útil e foi usado na demonstração da desigualdade de Cauchy-Schwarz:
6.29 Definição. Seja V um espaço vetorial métrico real positivo definido. Sejam v, w ∈ V com w 6= 0.
O vetor
hv, wi
Projw v = 2 w
kwk
v ⊥w = v − Projw v
hv, wi
=v− 2 w.
kwk
6.30 Proposição. A componente ortogonal de v à direção de w é ortogonal a w.
Prova: Temos
hv, wi
v ⊥w , w = hv, wi −
2 hw, wi = 0.
kwk
6.31 Proposição (Desigualdade de Cauchy-Schwarz). Seja V um espaço vetorial métrico positivo
definido real e normado, cuja norma é induzida pela métrica. Então
para todos v, w ∈ V .
Prova: Se w = αv, então
2
|hv, wi| = |hv, αvi| = |α hv, vi| = |α| kvk = kvk (|α| kvk) = kvk kwk ,
ou seja, a igualdade na desigualdade de Cauchy-Schwarz é atingida quando um dos vetores é múltiplo escalar
do outro.
Rodney Josué Biezuner 138
6.33 Definição. Seja V um espaço vetorial métrico positivo definido real. Dados dois vetores v, w ∈ V
definimos o seu ângulo ] (v, w) por
hv, wi
] (v, w) = arccos .
kvk kwk
Em particular, se v, w são vetores ortogonais, então] (v, w) = π/2.
Nos próximos três resultados a seguir, V é um espaço vetorial métrico real positivo definido.
1 2 2 2
hv, wi = kv + wk − kvk − kwk .
2
e
1 2 1 2
hv, wi = kv + wk − kv − wk .
4 4
Prova: Segue da Proposição 6.24, lembrando que se q é a forma quadrática associada a h·, ·i, então q (v) =
2
kvk .
2 2 2 2
kv + wk + kv − wk = 2 kvk + kwk .
Em particular, para que uma norma seja derivada de uma métrica definida positiva, uma condição necessária
é que ela satisfaça a identidade do paralelogramo.
Prova: Segue da Proposição 6.26.
6.37 Exemplo. Em Rn podemos definir a norma do máximo
kvk = max v i
∞ i=1,...,n
e a norma da soma
n
X i
kvk+ = v .
i=1
Rodney Josué Biezuner 140
Nenhuma destas normas é derivada de uma métrica definida positiva, pois elas não satisfazem a identidade
do paralelogramo. De fato, se v = e1 e w = e2 , então
2 2
kv + wk∞ + kv − wk∞ = 1 + 1 = 2,
2 2
2 kvk∞ + kwk∞ = 2 (1 + 1) = 4,
e
2 2
kv + wk+ + kv − wk+ = 22 + 22 = 8,
2 2
2 kvk+ + kwk+ = 2 (1 + 1) = 4,
6.38 Proposição. Seja V um espaço vetorial real normado cuja norma k·k satisfaz a identidade do parale-
logramo
2 2 2 2
kv + wk + kv − wk = 2 kvk + kwk .
Então a identidade polar
1 2 1 2
hv, wi := kv + wk − kv − wk
4 4
define uma métrica definida positiva h·, ·i em V tal que a norma k·k é induzida por ela.
Em particular, uma norma é derivada de uma métrica definida positiva se e somente se ela satisfaz a
identidade do paralelogramo.
Prova: A simetria segue de
1 2 1 2
hv, wi = kv + wk − kv − wk
4 4
1 2 1 2
= kw + vk − kw − vk
4 4
= hw, vi .
Em particular, basta provar a linearidade na primeira variável. Temos
1 2 1 2 1 2 1 2
hv, ui + hw, ui = kv + uk − kv − uk + kw + uk − kw − uk
4 4 4 4
1 2 2
1
2 2
= kv + uk + kw + uk − kv − uk + kw − uk
4 4
1 2 2
= kv + u + w + uk + kv + u − (w + u)k
8
1 2 2
− kv − u + w − uk + kv − u − (w − u)k
8
1 2 2
1
2 2
= kv + u + w + uk + kv − wk − kv − u + w − uk + kv − wk
8 8
1 2
1
2
= kv + u + w + uk − kv − u + w − uk
8 8
1 2 2 2
= 2 kv + w + uk + 2 kuk − k(v + w + u) − uk
8
1 2 2 2
− 2 kv + w − uk + 2 kuk − k(v + w − u) + uk
8
1 2 2
1
2 2
= 2 kv + w + uk − kv + wk − 2 kv + w − uk − kv + wk
8 8
1 2 1 2
= kv + w + uk − kv + w − uk
4 4
= hv + w, ui .
Rodney Josué Biezuner 141
6.41 Definição. Seja V um espaço vetorial métrico. Dado um subespaço vetorial W ⊂ V definimos o
subespaço vetorial ortogonal a W
De fato, W ⊥ é um subespaço ortogonal porque uma métrica sendo uma forma bilinear, combinações lineares
de vetores ortogonais a W são ortogonais a W .
Prova: Seja {e1 , . . . , em } uma base para W e complete esta base até uma base {e1 , . . . , em , em+1 , . . . en }
para V . Um vetor v ∈ V pertence a W ⊥ se e somente se hv, ei i = 0 para i = 1, . . . , m. Denotando
gij = hei , ej i
e
n
X
v= v j ej ,
j=1
Como a matriz G = (gij ) de uma métrica é invertı́vel, o sistema possui exatamente n − m variáveis livres,
portanto o subespaço solução deste sistema tem dimensão n − m.
Rodney Josué Biezuner 143
⊥
W⊥ = W.
Prova: Temos ⊥
W⊥ = v ∈ V : hv, wi = 0 para todo w ∈ W ⊥ ⊃ W
donde ⊥
dim W = dim W ⊥ ,
⊥
segue que W ⊥ = W.
6.44 Proposição. Seja V um espaço vetorial métrico. Um subespaço W ⊂ V é não degenerado se e somente
se
V = W ⊕ W ⊥.
W ∩ W ⊥ = {w ∈ W : w ⊥ W } ,
W ⊥ = he0 i .
Z ⊥ = he0 + e1 , e2 , e3 i ,
se i = 1, . . . , p0 ,
−1
q (e0i ) =
1 se i = p0 + 1, . . . , n.
Afirmamos que
e1 , . . . , ep , e0p0 +1 , . . . , e0n
são LI. De fato, se
α1 e1 + . . . + αp ep + βp0 +1 e0p0 +1 + . . . + βn e0n = 0,
escrevemos
α1 e1 + . . . + αp ep = −βp0 +1 e0p0 +1 − . . . − βn e0n ,
e tomando o produto interno desta equação com ela própria obtemos
−α12 − . . . − αp2 = βp20 +1 + . . . + βn2 ,
já que q (ei ) = −1 para i = 1, . . . , p e q (e0i ) = 1 para i = p0 + 1, . . . , n. Como o lado esquerdo é 6 0 e o lado
direito é > 0 (daı́ a necessidade de se considerar um espaço vetorial real; veja a Observação 6.53), segue que
ambos devem ser 0 e portanto
α1 = . . . = αp = βp0 +1 = . . . = βn = 0,
provando a afirmação. Como dim V = n, temos que
p + (n − p0 ) 6 n,
donde
p 6 p0 .
Por simetria do argumento, segue também que p0 6 p e portanto p = p0 .
6.50 Definição. Seja V é um espaço vetorial métrico real com dimensão n.
O número de vetores ei de qualquer base ortonormal B = {e1 , . . . , en } para V tais que
q (ei ) = −1
é chamado o ı́ndice da métrica.
Se a métrica tem ı́ndice p, denotando q = n − p, dizemos também que a métrica tem assinatura (p, q).
Rodney Josué Biezuner 146
Em outras palavras, se um espaço vetorial métrico V tem assinatura (p, q), e B = {e1 , . . . , en } é uma base
ortonormal qualquer de V , então p é o número de vetores de B tais que q (ei ) = −1 e q é o número de vetores
de B tais que q (ei ) = +1. Em relação a esta base a métrica se escreve na forma
p
X n
X
hv, wi = − v i wi + v i wi
i=1 i=p+1
p n
X 2 X 2
q (v) = − vi + vi .
i=1 i=p+1
6.51 Notação. Para um espaço vetorial de dimensão n, definimos o eta de Kronecker de assinatura
(p, q) por
−1 se i = j = 1, . . . , p,
(p,q)
ηij = 1 se i = j = p + 1, . . . , n,
0 se i 6= j,
isto é,
(p,q) −Ip 0
η = .
0 Iq
Note que quando (p, q) = (0, n) (métrica euclidiana)
(0,n)
ηij = δij ,
e quando (p, q) = (1, n) (métrica lorentziana) omitimos o ı́ndice superescrito e escrevemos simplesmente ηij ,
isto é,
(1,n)
ηij = ηij .
O Teorema de Sylvester diz portanto que a matriz simétrica associada a uma métrica com assinatura (p, q)
em relação a qualquer base ortonormal é exatamente a matriz diagonal η (p,q) .
6.52 Exemplo. Em Rn , se e1 , . . . , en são os vetores da base canônica, definimos uma métrica com assinatura
(p, q) por
(p,q) (p,q)
gij = hei , ej i = ηij .
Este é chamado o espaço vetorial métrico canônico com assinatura (p, q), denotado Rp,q ou Rp+q .
6.53 Observação. O Teorema de Sylvester não vale para métricas complexas e o conceito de assinatura
não está definido para estas: se B = {e1 , . . . , en } é uma base ortonormal para V com
−1 se i = 1, . . . , p,
q (ei ) =
1 se i = p + 1, . . . , n,
se q (ej ) = −1 então
q (iej ) = i2 q (ej ) = (−1) (−1) = 1,
de modo que
B0 = {ie1 , . . . , iep , ep+1 , . . . , en }
Rodney Josué Biezuner 147
q (ei ) = 1 para i = 1, . . . , n.
6.54 Exemplo. Se V é um espaço vetorial real e W é um espaço vetorial real métrico positivo definido,
podemos definir uma métrica definida positiva em V a partir de um morfismo linear injetivo T : V −→ W
por
hv, wiV := hT v, T wiW . (6.3)
Dizemos que h·, ·iV é a métrica em V induzida pela métrica em W através do morfismo linear injetivo T .
Claramente, todas as propriedades de uma métrica são satisfeitas por h·, ·iV , consequência da linearidade
de T e do fato de h·, ·iW ser uma métrica; a definição positiva é consequência da injetividade de T .
Se T é apenas injetivo, uma métrica de assinatura (p, q) em W poderá não induzir uma métrica em V , pois
esta poderá ser degenerada (por exemplo, quando o subespaço imagem T (V ) é um subespaço degenerado de
W ). Se T é um isomorfismo, então uma métrica de assinatura (p, q) em W induz uma métrica de assinatura
(p, q) em V .
W ⊥ = {v ∈ V : hu, vi = 0}
V = W ⊕ W ⊥.
v = αu,
f (u, v) = 0.
f (u, v)
w=v− u,
q (u)
Rodney Josué Biezuner 148
portanto
f (u, v)
v= u+w
q (u)
com o primeiro vetor da soma em W e o segundo em W ⊥ . Agora, pela hipótese de indução existe uma base
ortogonal
B0 = {e1 , . . . , en−1 }
para W ⊥ satisfazendo o enunciado do teorema. Tomando en = u, obtemos uma base ortogonal
B = {e1 , . . . , en−1 , en }
e
se i = 1, . . . , p0 ,
−1
q (e0i ) = +1 se i = p0 + 1, . . . , p0 + q 0 ,
0 se i = p0 + q 0 + 1, . . . , p0 + q 0 + r0 ,
temos
p + q = p0 + q 0 = rank f,
donde
r = r0 .
Assim, o mesmo argumento da demonstração do Teorema de Sylvester pode ser usado, concluindo que o
conjunto de vetores
e1 , . . . , ep , e0p0 +1 , . . . , e0p0 +q0
é LI e daı́
p + q 0 6 n − r,
pois p + q 0 > n − r = rank f implicaria uma base em relação a qual a matriz de f teria posto maior que
rank f (basta completar esta base a uma base não necessariamente ortogonal de V ; a matriz resultante teria
posto pelo menos igual a p + q 0 ). Portanto, como
q 0 = n − p0 − r0 = n − p0 − r,
Rodney Josué Biezuner 149
segue que
p + (n − p0 − r) 6 n − r,
donde
p 6 p0 .
Por simetria do argumento, p0 6 p, logo p = p0 . De p = p0 e r = r0 , segue que q = q 0 .
6.56 Definição. Nas condições do teorema anterior, dizemos que a forma bilinear simétrica f tem assina-
tura (p, q, r).
O Teorema de Sylvester para formas bilineares simétricas diz que a matriz simétrica associada a uma forma
bilinear simétrica com assinatura (p, q, r) em relação a qualquer base ortogonal é a matriz diagonal
−Ip 0 0
η (p,q,r) = 0 Iq 0 .
0 0 0r
O Teorema de Sylvester não vale para formas anti-simétricas: a existência de uma base ortogonal implica a
existência de uma representação matricial diagonal para a forma; como a matriz de uma forma anti-simétrica
é anti-simétrica, a matriz seria identicamente nula.
se q (v) > 0 e p
kvk = −q (v)
se q (v) 6 0.
6.57 Proposição. Se v ∈ M é do tipo tempo e w 6= 0 é ortogonal a v, então w é um vetor do tipo espaço.
⊥
Em particular, hvi é um subespaço do tipo espaço.
Prova: Como hvi é não degenerado, podemos decompor
⊥
M = hvi ⊕ hvi .
Como os ı́ndices da métrica em M e hvi são iguais a 1, pelo Teorema de Sylvester o ı́ndice da métrica em
⊥
hvi deve ser zero, caso contrário obterı́amos uma base para M com mais de um vetor com valor q igual a
−1. Portanto, todo vetor ortogonal a v não nulo é do tipo espaço.
6.58 Definição. Denote por M− o conjunto dos vetores do tipo tempo. Para v ∈ M− , definimos o cone
temporal de v como sendo o conjunto
Rodney Josué Biezuner 150
6.59 Proposição. Dois vetores v, w do tipo tempo estão no mesmo cone temporal se e somente se
hv, wi < 0.
Prova: Seja v ∈ C (u), para u ∈ M− que podemos tomar unitário, de modo que hu, ui = −1. Mostraremos
que w ∈ M− pertence também a C (u) se e somente se hv, wi < 0. Escreva
v = au + x,
w = bu + y,
⊥
para x, y ∈ hui . Temos
hv, wi = hau + x, bu + yi = −ab + hx, yi . (6.4)
Como
2
0 > hv, vi = hau + x, au + xi = −a2 + kxk ,
2
0 > hw, wi = hbu + y, bu + yi = −b2 + kyk ,
segue que
M− = C (v) ∪ C (−v)
B = {e0 , e1 , . . . , en }
para o espaço de Minkowski M com q (e0 ) = −1, o cone temporal futuro de M é o conjunto
Assim,
M− = C+ ∪ C− .
A escolha de qual cone temporal é designado como o cone temporal futuro e qual cone temporal é designado
como o cone temporal passado depende portanto da escolha da base. Isso determina uma orientação no
espaço de Minkowski.
Existem vetores do tipo espaço que satisfazem a desigualdade de Cauchy-Schwartz, como observado na
demonstração da Proposição 6.59. Isso não é verdade para todos os vetores do tipo espaço. Por exemplo,
v = (−1, 1, 1, 1) ,
w = (1, 1, 1, 1) ,
pois hz, zi > 0 pela Proposição 6.57 e hw, wi , hv, vi < 0. A igualdade vale se e somente se z = 0.
Rodney Josué Biezuner 152
6.62 Proposição (Desigualdade Triangular Reversa). Se v, w ∈ M são do tipo tempo e estão no mesmo
cone temporal, então
kvk + kwk 6 kv + wk ,
hv + w, v + wi < 0.
Logo,
2 2 2
(kvk + kwk) = kvk + 2 kvk kwk + kwk
2 2
6 kvk − 2 hv, wi + kwk
= − hv, vi − 2 hv, wi − hw, wi
= − hv + w, v + wi
2
= kv + wk
|hv, wi|
> 1,
kvk kwk
|hv, wi|
cosh θ = .
kvk kwk
Em particular, se a métrica tem assinatura (p, q) e B = {e1 , . . . , en } é uma base ortonormal com e1 , . . . , ep
do tipo tempo e ep+1 , . . . , ep+q do tipo espaço, segue que
n p p+q
(p,q)
X X X
v= ηii hv, ek i ek = − hv, ek i ek + hv, ek i ek .
k=1 k=1 k=p+1
m
v j ej , então
P
Prova: Se v =
j=1
*m + m
X X
j
hv, ek i = v ej , ek = v j hej , ek i .
j=1 j=1
6.65 Corolário. Qualquer conjunto ortogonal de vetores não do tipo luz é LI.
Prova: Se e1 , . . . , em são vetores ortogonais não luz e
m
X
0= v j ej ,
j=1
Aij = hT ej , ei i .
(p,q)
Aij = ηii hT ej , ei i .
Aij = hT ej , ei i .
Logo, * +
n
X n
X
hT ej , ei i = Akj ek , ei = Akj hek , ei i = Aij
k=1 k=1
no caso geral.
V = im E ⊕⊥ ker E
v = w + z,
projW v.
6.69 Proposição. Sejam V um espaço vetorial métrico, W ⊂ V um subespaço não degenerado de V e
{e1 , . . . , em } uma base ortogonal de vetores não luz para W . Dado v ∈ V , a projeção ortogonal de v em W
é o vetor
m
X hv, ek i
projW v = ek .
hek , ek i
k=1
Rodney Josué Biezuner 155
Prova: Pois
hv, ei i
hv − projW v, ei i = hv, ei i − hei , ei i = 0,
hei , ei i
logo
v = v + (v − projW v)
é uma decomposição em soma direta V = W ⊕⊥ W ⊥ .
6.70 Definição. Sejam V um espaço vetorial métrico definido positivo e W ⊂ V um subespaço de V . Dado
v ∈ V , a melhor aproximação de v em W é o vetor u ∈ W que satisfaz
kv − uk 6 kv − wk
6.71 Teorema. Sejam V um espaço vetorial métrico definido positivo e W ⊂ V um subespaço de V . Dado
v ∈ V , o vetor que melhor aproxima v em W é a projeção ortogonal de v em W .
Prova: Escreva
v = u + u⊥
onde u = projW v ∈ W e u⊥ ∈ W ⊥ . Dado w ∈ W , temos
v − w = u − w + u⊥ ,
{w1 , . . . , wk }
Rodney Josué Biezuner 156
é uma base para o subespaço gerado pelos vetores v1 , . . . , vk , 1 6 k 6 m. Para construir o vetor wm+1 ,
consideremos a projeção ortogonal do vetor vm+1 sobre o subespaço gerado pelos vetores w1 , . . . , wm :
m
X hvm+1 , wj i
2 wj
j=1 kwj k
e tomamos
m
X hvm+1 , wj i
wm+1 = vm+1 − 2 wj .
j=1 kwj k
Então wm+1 6= 0, caso contrário vm+1 está no subespaço gerado por w1 , . . . , wm e portanto é uma combinação
linear destes vetores. Além disso, para todo 1 6 k 6 m temos
m
X hvm+1 , wj i hvm+1 , wk i
hwm+1 , wk i = hvm+1 , wk i − 2 hwj , wk i = hvm+1 , wk i − 2 hwk , wk i = 0.
j=1 kwj k kwk k
Assim, {w1 , . . . , wm+1 } é um conjunto de m + 1 vetores ortogonais que geram o subespaço hv1 , . . . , vm+1 i de
dimensão m + 1, logo é uma base para este.
Caso geral.
O que impede a aplicação do processo usual de Gram-Schmidt usado em espaços vetoriais com métrica
definida positiva é a possı́vel presença de vetores do tipo luz na base inicial ou o surgimento de tais vetores
durante o processo de ortogonalização, de forma que não é possı́vel dividir pelas normas destes durante o
algoritmo. Este problema pode ser evitado através do argumento descrito a seguir.
Procedemos por indução em n = dim V . Se n = 1, como uma métrica é não degenerada, qualquer vetor
não nulo não pode ser do tipo luz, logo B já é a base requerida. Assuma como hipótese de indução que o
resultado vale para qualquer espaço vetorial métrico com dimensão menor que n.
Suponha em primeiro lugar que existe pelo menor um vetor na base B que não é do tipo luz. Podemos
assumir hv1 , v1 i = 6 0, reordenando a base se necessário. Tomamos w1 = v1 . Como hv1 i é não degenerado,
⊥ ⊥
segue que V = hv1 i ⊕ hv1 i com dim hv1 i = n − 1. Além disso, se
hvi , v1 i
ei = vi −
w v1 ,
hv1 , v1 i
então
B
e = {w en }
e2 , . . . , w
⊥
é uma base para hv1 i . Os vetores w ei podem ser todos do tipo luz, mas da hipótese de indução (observe
⊥
que hv1 i é não degenerado, logo é um espaço métrico de dimensão n − 1) segue que existe uma base
B
e 0 = {w2 , . . . , wn }
tal que os vetores wi não são do tipo luz e eles são combinações lineares dos vetores wei com coeficientes
que são funções racionais dos produtos escalares hw ej i. Como os vetores w
ei , w ei por sua vez são combinações
lineares dos vetores vi com coeficientes que são funções racionais dos produtos escalares hvi , vj i, o mesmo
vale para os vetores wi . Consequentemente,
B0 = {w1 , w2 , . . . , wn }
fosse uma base ortogonal com cada ei do tipo luz, ou seja, hei , ej i = 0 para todos i, j, inclusive quando i = j,
então quaisquer vetores
n
X
v= v i ei ,
i=1
n
X
w= w j ej ,
j=1
Portanto, B possui pelo menos dois vetores não ortogonais, que podemos tomar como sendo v1 , v2 , reorde-
nando a base se necessário. Mostraremos que podemos trocar os vetores v1 , v2 do tipo luz da base por um
par de vetores ortogonais ve1 , ve2 que não são do tipo luz, tais que ve1 , ve2 são combinações lineares de v1 , v2
com coeficientes que são funções racionais dos produtos escalares hv1 , v2 i. Uma vez feito isso, caı́mos no caso
anterior, em que pelo menos um vetor da base não é do tipo luz.
De fato, como hv1 , v2 i =
6 0, podemos definir
ve1 = v1 + v2 ,
ve2 = v1 − v2 .
he
v1 , ve2 i = hv1 , v1 i − hv1 , v2 i + hv2 , v1 i + hv2 , v2 i
= 0,
he
v1 , ve1 i = hv1 , v1 i + 2 hv1 , v2 i + hv2 , v2 i
= 2 hv1 , v2 i
6= 0,
he
v2 , ve2 i = hv1 , v1 i − 2 hv1 , v2 i + hv2 , v2 i
= −2 hv1 , v2 i
6= 0.
Capı́tulo 7
Metrolineomorfismos
para todos v, w ∈ V . Quando V = W dizemos também que L é um operador linear métrico (ou operador
ortogonal).
Uma matriz (p, q)-ortogonal é uma matriz quadrada que representa um operador linear métrico em
relação a qualquer base ortonormal de um espaço vetorial métrico de assinatura (p, q).
O conjunto dos operadores lineares métricos não é um subespaço vetorial de Hom (V ), pois a soma de
morfismos lineares métricos em geral não é um morfismo linear métrico, mas é um subgrupo do grupo GL (V )
dos operadores lineares invertı́veis:
7.2 Proposição. O conjunto O (p, q) dos operadores lineares métricos em um espaço vetorial de assinatura
(p, q) é um grupo sob a operação de composição.
h(L ◦ M ) v, (L ◦ M ) wi = hL (M v) , L (M w)i
= hM v, M wi
= hv, wi ,
158
Rodney Josué Biezuner 159
7.3 Definição. O (p, q) é chamado o grupo ortogonal de assinatura (p, q); O (0, n) = O (n) é chamado
o grupo ortogonal de ordem n.
Utilizamos o mesmo nome e sı́mbolo para o subgrupo de matrizes ortogonais do grupo de matrizes
GLn (R).
P t ηP = η.
Consequentemente, se P é ortogonal,
det P = ±1
P t P = P P t = I.
B = {e1 , . . . , en }
denote
v η = ηv,
ou seja,
p
X n
X
vη = − v i ei + v i ei ,
i=1 i=p+1
Seja P uma matriz ortogonal representando um operador linear métrico L ∈ Hom (V ) em relação a B.
Então
hLei , Lej i = hei , ej i = ηij
e
t
(Le1 )
t . − idp 0
P ηP =
..
Le1 . . . Len
0 idq
t
(Len )
t
(Le1 )
.. η η
= (Le1 ) . . . (Len )
.
t
(Len )
h i
t η
= (Lei ) (Lej )
= [hLei , Lej i]
= [hei , ej i]
= η.
Reciprocamente, suponha que P t ηP = η. Então, para todos v, w ∈ V temos
v t P t ηP w = v t ηw.
O lado direito desta equação é hv, wi, enquanto que o lado esquerdo é
t
v t P t ηP w = (P v) ηP w
= hP v, P wi ,
donde
hP v, P wi = hv, wi .
Finalmente, como
p
det P t ηP = det η = (−1)
e também
det P t ηP = det P t det η det P
2
= det η (det P )
p 2
= (−1) (det P ) ,
temos
2
(det P ) = 1,
donde
det P = ±1.
Se P, Q são operadores métricos com determinante +1, então
det (P Q) = det P det Q = +1
também, logo o conjunto dos operadores lineares métricos em O (p, q) com determinante +1 formam um
subgrupo; isso não ocorre evidentemente para os operadores lineares métricos com determinante −1, já que
se P, Q são operadores lineares métricos com determinante −1, então
det (P Q) = det P det Q = (−1) (−1) = +1.
Rodney Josué Biezuner 161
7.5 Definição. O subgrupo de O (p, q) dos operadores métricos com determinante +1 é denotado SO (p, q)
e chamado o grupo ortogonal especial de assinatura (p, q); SO (0, n) = SO (n) é chamado o grupo
ortogonal especial de ordem n.
Utilizamos o mesmo nome e sı́mbolo para o subgrupo das matrizes ortogonais com determinante +1 do
grupo de matrizes GLn (R).
⊥
é chamado a reflexão pelo hiperplano hvi .
⊥
Em relação à base B = {v, e2 , . . . , en }, onde {e2 , . . . , en } é uma base para hvi (não necessariamente orto-
normais), temos que a matriz de Hv é a matriz ortogonal
−1 0
[Hv ]B =
0 idn−1
com determinante −1. Note que reflexões por hiperplanos H satisfazem
H 2 = id
isto é,
H −1 = H.
7.8 Exemplo. Nem toda reflexão em O (p, q) \ SO (p, q) é uma reflexão em relação a um hiperplano, isto é,
deixa todo vetor de algum hiperplano fixo. Por exemplo, em R3 o operador H = − id é uma reflexão (em
relação à origem) que não fixa nenhum vetor não nulo.
7.9 Exemplo. Em R2 , a reflexão em relação à reta passando pela origem que faz ângulo θ com o eixo x
positivo é definida por
cos 2θ sen 2θ
Hθ = .
sen 2θ − cos 2θ
De fato, se w = (cos θ, sen θ) é o vetor direção da reta, então Hθ (w) = w, e se v = (− sen θ, cos θ) é um vetor
ortogonal à reta, então Hθ (v) = −v. Em relação à base B = {v, w} a matriz de Hθ é
−1 0
[Hθ ]B = .
0 1
7.10 Proposição. Vale
hw, vi
Hv (w) = w − 2 v.
hv, vi
Rodney Josué Biezuner 162
Prova: Temos
hv, vi
Hv (v) = v − 2 v = v − 2v = −v,
hv, vi
e, se w ⊥ v, de modo que hw, vi = 0,
Hv (w) = w.
7.11 Lema. Seja V um espaço vetorial métrico. Se v, w ∈ V são tais que q (v) = q (w), então
v + w ⊥ v − w.
Prova: Temos
7.12 Lema. Sejam V um espaço vetorial métrico definido positivo e v, w ∈ V tais que kvk = kwk. Então
Hv−w é a única reflexão por hiperplano que leva v em w e w em v.
Prova: Pelo lema anterior, v + w ⊥ v − w, logo
Hv−w (v − w) = w − v,
Hv−w (v + w) = v + w.
Segue que
1
Hv (v) = [Hv−w (v − w) + Hv−w (v + w)]
2
1
= (w − v + v + w)
2
=w
e
1
Hv (w) = [Hv−w (v + w) − Hv−w (v − w)]
2
1
= [v + w − (w − v)]
2
= v.
Hu (v − w) = Hu (v) − Hu (w)
= w − v,
⊥
de modo que Hu é a reflexão em relação ao hiperplano hv − wi , ou seja Hu = Hv−w .
Note que se v = w, então Hv−w = H0 = id.
7.13 Lema. Sejam V um espaço vetorial métrico e v, w ∈ V vetores não do tipo luz tais que q (v) = q (w).
Então Hv+w leva v em −w e w em −v ou Hv−w leva v em −w e w em −v.
Rodney Josué Biezuner 163
Prova: A soma de vetores ortogonais u1 , u2 do tipo luz sempre é do tipo luz, pois
(v + w) + (v − w) = 2v
e v não é do tipo luz, segue que v + w ou v − w não é do tipo luz (ou ambos). Se v + w não é do tipo luz,
então
Hv+w (v + w) = − (v + w) ,
Hv+w (v − w) = v − w,
donde
Hv−w (v + w) = v + w,
Hv−w (v − w) = − (v − w) ,
donde
Hv−w (v) = w,
Hv−w (w) = v.
7.14 Proposição. Seja V um espaço vetorial métrico de caracterı́stica diferente de 2.
Todo morfismo linear métrico é um produto de reflexões por hiperplanos.
Prova: Seja L ∈ O (p, q).
Caso Definido Positivo. Seja B = {e1 , . . . , en } uma base ortonormal para V . Usando o Lema 7.12,
temos
HL(e1 )−e1 (L (e1 )) = e1 .
Tome
H1 = HL(e1 )−e1 ,
de modo que
(H1 ◦ L) (e1 ) = e1 .
Suponha que encontramos reflexões por hiperplanos
H1 , . . . , Hk−1
tais que
(Hk−1 · · · H1 L) (ei ) = ei
para i = 1, . . . , k − 1. Denotando
Lk−1 = Hk−1 · · · H1 L
e tomando
Hk = HLk−1 (ek )−ek ,
Rodney Josué Biezuner 164
temos
Hk (Lk−1 (ek )) = ek .
Além disso, (Lk−1 (ek ) − ek ) ⊥ ei para i = 1, . . . , k − 1, pois ek ⊥ ei e as inversas dos operadores métricos
reflexões são elas próprias, de modo que
H1 , . . . , Hn
tais que
(Hn · · · H1 L) (ei ) = ei
para i = 1, . . . , n, ou seja,
Hn · · · H1 L = id,
donde, como a inversa de uma reflexão é ela própria,
L = H1 · · · Hn .
L (αu) = αu.
H (Lu) = ±u.
Rodney Josué Biezuner 165
⊥
Em particular, HL = ± id em hui. Como HL é métrico, o subespaço hui é invariante por HL. Por hipótese
de indução, temos
(HL) |hui⊥ = Hv1 · · · Hvk
⊥ ⊥
para reflexões Hvi definida em hui com v1 , . . . , vk ∈ hui . Estendemos Hvi a uma reflexão por hiperplano
em V definindo
Hvi (u) = u,
que denotaremos por Hi . Segue que se HL = + id, então
L = HHv1 · · · Hvk .
⊥
Se HL = − id, como Hu é a identidade em hui , então podemos escrever
Note que reflexões não podem ser escritas como produtos de rotações, porque o determinante de um produto
de rotações sempre é +1.
7.3 Isometrias
7.15 Definição. Seja V um espaço vetorial métrico. Uma aplicação F : V −→ V tal que
q (F (v) − F (w)) = q (v − w)
7.16 Proposição. Se F é uma isometria tal que F (0) = 0, então F é um operador linear métrico.
Prova: Passo 1. q (F (v)) = q (v) para todo v ∈ V .
Pois
q (F (v)) = q (F (v) − F (0)) = q (v − 0) = q (v) .
Passo 2. F preserva a métrica.
Pela identidade polar, para todos v, w ∈ V vale
1
hF (v) , F (w)i = [q (F (v) − F (w)) − q (F (v)) − q (F (w))]
2
1
= (q (v − w) − q (v) − q (w))
2
= hv, wi .
Passo 3. F é linear.
Seja
B = {e1 , . . . , en }
Rodney Josué Biezuner 166
= q F −1 (v) − F −1 (w) ,
7.18 Proposição. Seja V um espaço vetorial métrico. Se F ∈ Isom (V ), então existe um único operador
linear métrico L e uma única translação T tais que
F = T ◦ L.
T (p) = p + F (0) .
F = T1 ◦ L1 = T2 ◦ L2 ,
então
L1 ◦ L−1 −1
2 = T1 ◦ T2 .
Em particular, T1−1 ◦ T2 é um operador linear e como operadores lineares deixam o vetor nulo fixo, segue
que T1−1 ◦ T2 é a translação nula, isto é, a identidade. Logo,
T1−1 ◦ T2 = id =⇒ T1 = T2 ,
L1 ◦ L−1
2 = id =⇒ L1 = L2 .
7.19 Exemplo. O grupo das isometrias do espaçotempo de Minkowski Isom Mn+1 é chamado o grupo
de Poincaré, um operador linear métrico do espaçotempo de Minkowski é chamado uma transformação
de Lorentz e o grupo das transformações de Lorentz O (1, n) é chamado o grupo de Lorentz.
Esta correspondência determina um isomorfismo natural (isto é, independente de bases) entre V e V ∗ .
Em particular,
⊥
ker f = hvi .
Rodney Josué Biezuner 168
(p,q)
Prova: Seja {e1 , . . . , en } uma base ortonormal para V . Se w ∈ V , denotando ηkk = ηkk , temos
n
X
w= ηii hei , wi ei .
i=1
Logo,
n
X
f (w) = ηii hei , wi f (ei )
i=1
Xn
= ηii hf (ei ) ei , wi
i=1
* n +
X
= ηii f (ei ) ei , w .
i=1
Tome
n
X
v= ηii f (ei ) ei .
i=1
Se v 0 ∈ V é outro vetor tal que f (w) = hw, v 0 i para todo w ∈ V , então hw, vi = hw, v 0 i para todo w ∈ V ,
donde hw, v − v 0 i = 0. A não degeneracidade da métrica implica v − v 0 = 0, donde v = v 0 .
O Teorema de Riesz pode ser generalizado para formas bilineares não degeneradas. Se f é uma forma bilinear
degenerada, o teorema deixa de ser válido: por exemplo, no caso extremo f = 0, nenhum funcional linear
não nulo pode ser representado através de f .
hT v, wi = hv, T ∗ wi
para todos v ∈ V, w ∈ W .
Observe que também temos
hv, T wi = hT ∗ v, wi ,
Rodney Josué Biezuner 169
pois
hv, T wi = hT w, vi = hw, T ∗ vi = hT ∗ v, wi .
Isso implica que a a adjunta de T ∗ é a própria T :
hT ∗ v, wi = hv, T wi ,
isto é,
∗
(T ∗ ) = T.
7.22 Proposição. Sejam V, W espaços vetoriais métricos e T ∈ Hom (V, W ). Se a adjunta de T existir,
ela é única e é também um morfismo linear.
Prova: Sejam w1 , w2 ∈ W e α, β ∈ R. Então, para todo v ∈ V temos
T ∗ (αw1 + βw2 ) = αT ∗ w1 + βT ∗ w2 .
f (v) = hT v, wi
é um funcional linear. Pelo Teorema de Representação de Riesz existe um único vetor u ∈ V tal que
T ∗ w = u.
A = [T ]B ,
Rodney Josué Biezuner 170
então
[T ∗ ]B = ηAt η.
Em particular, se a métrica é definida positiva,
[T ∗ ]B = At ,
ou seja, em relação a uma base ortonormal, a matriz do operador adjunto T ∗ é a transposta da matriz do
operador T .
Prova: Seja B = [T ∗ ]B . Pela Proposição 6.67,
Aij = ηii hT ej , ei i ,
Bji = ηii hT ∗ ej , ei i ,
donde
Bji = ηii hT ∗ ej , ei i
= ηii hei , T ∗ ej i
= ηii hT ei , ej i
= ηii Aji ηjj
i
= ηAt η j .
7.25 Definição. Seja V um espaço vetorial métrico. Dizemos que T ∈ Hom (V ) é um operador autoadjunto
se
T = T ∗.
Assim, se T é um operador autoadjunto, vale
hT v, wi = hv, T wi
para todos v, w ∈ V .
7.26 Corolário. Sejam V um espaço vetorial métrico de dimensão finita e T ∈ Hom (V ). Se B é uma base
ortonormal para V então T é um operador linear autoadjunto se e somente se A = [T ]B satisfaz
A = ηAt η.
A = At ,
T T ∗ = T ∗ T = id .
hv, wi = hT v, T wi = hv, T ∗ T wi
hv, wi = hv, T ∗ T wi = hT v, T wi .
(ii)
∗
(T U ) = U ∗ T ∗ .
∗ −1
T −1 = (T ∗ ) .
(ii)
⊥
ker T = (im T ∗ ) .
⊥
im T = (ker T ∗ ) .
(iii)
dim (ker T ) = dim (ker T ∗ ) + (dim V − dim W ) .
dim (im T ) = dim (im T ∗ ) .
Em particular,
V = ker T ∗ ⊕⊥ im T.
Rodney Josué Biezuner 172
λ1 hv1 , v2 i = hλ1 v1 , v2 i
= hT v1 , v2 i
= hv1 , T v2 i
= hv1 , λ2 v2 i
= λ2 hv1 , v2 i ,
Prova 1 (mais natural): Escolhendo uma base ortonormal B para V , a matriz A = [T ]B é simétrica.
Como veremos no próximo capı́tulo, matrizes simétricas são em particular matrizes hermitianas, e todos os
autovalores complexos de uma matriz hermitiana são reais (Proposição 8.35).
Prova 2 (não usando o conceito de matrizes hermitianas): Afirmamos que se b, c ∈ R são tais que
b2 < 4c, então
T 2 + bT + cI
é invertı́vel. De fato, se v 6= 0, usando a desigualdade de Cauchy-Schwarz e completando o quadrado,
obtemos
2
T + bT + cI v, v = T 2 v, v + hbT v, vi + hcv, vi
= hT v, T vi + b hT v, vi + c hv, vi
2 2
= kT vk + b hT v, vi + c kvk
2 2
> kT vk − |b| kT vk kvk + c kvk
2
b2
|b| 2
= kT vk − kvk + c − kvk
2 4
> 0,
o que implica
T 2 + bT + cI v 6= 0
p = a (x − λ1 ) · · · (x − λk ) x2 + b1 x + c1 · · · x2 + bl x + cl ,
Rodney Josué Biezuner 174
com a 6= 0 e os fatores quadráticos irredutı́veis (se existirem) satisfazendo necessariamente b2i < 4ci , já que
não possuem raı́zes reais. Como
0 = p (T ) v = an (T − λ1 I) · · · (T − λk I) T 2 + b1 T + c1 · · · T 2 + bl T + cl v
= an T 2 + b1 T + c1 · · · T 2 + bl T + cl (T − λ1 I) · · · (T − λk I) v
(T − λ1 I) · · · (T − λk I) v = 0
e portanto pelo menos um dos operadores T − λj I não pode ser invertı́vel para algum ı́ndice j, e neste caso
λj é um autovalor real de T .
Em particular, o polinômio anulador de qualquer vetor não nulo v ∈ V não possui fatores quadráticos e
portanto T não possui autovalores complexos.
7.34 Proposição. Sejam V um espaço vetorial métrico e T ∈ Hom (V ). Se W ⊂ V é um subespaço
invariante por T , então W ⊥ é invariante por T ∗ .
Prova: Se w ∈ W ⊥ , então hv, wi = 0 para todo v ∈ W , logo
hv, T ∗ wi = hT v, wi = 0
7.36 Corolário. Seja A uma matriz simétrica. Então existe uma matriz ortogonal P tal que
D = P t AP
T T ∗ = T ∗ T.
AAt = At A.
Exemplos de operadores normais são operadores autoadjuntos e operadores métricos, pois estes satisfazem
T T ∗ = T ∗ T = I. O motivo para o nome operador normal é dado pelo Teorema 7.41 a seguir.
7.39 Proposição. Sejam V um espaço vetorial métrico e T ∈ Hom (V ). Então
hT v, vi = 0
0 = hT (v + w) , v + wi
= hT v, vi + hT v, wi + hT w, vi + hT w, wi
= hT v, wi + hT w, vi
= hT v, wi + hv, T wi
= hT v, wi + hT ∗ v, wi
= h(T + T ∗ ) v, wi
hT v, vi = hv, T ∗ vi = hv, −T vi = − hT v, vi ,
logo hT v, vi = 0.
7.40 Definição. Um operador T que satisfaz
T ∗ = −T
7.41 Teorema. Sejam V um espaço vetorial métrico e T ∈ Hom (V ). Então T é normal se e somente se
kT vk = kT ∗ vk
para todo v ∈ V.
Em particular, se T é normal, segue que
V = ker T ⊕⊥ im T.
hT ∗ T v, vi = hT v, T vi
2
= kT vk
2
= kT ∗ vk
= hT ∗ v, T ∗ vi
= hT T ∗ v, vi
concluı́mos que T ∗ T − T T ∗ = 0.
Se T é um operador normal, segue que ker T = ker T ∗ . Como
V = ker T ∗ ⊕⊥ im T,
obtemos
V = ker T ⊕⊥ im T.
Se V = ker T ⊕⊥ im T , não é necessariamente verdade que T é um operador normal, pois T pode ser definido
de qualquer forma arbitrária em im T .
Note que operadores normais reais nem sempre são diagonalizáveis, pois podem não possuir sequer
autovalores, como a maioria das rotações em R2 .
7.42 Teorema. Sejam V um espaço vetorial métrico e T ∈ Hom (V ) um operador normal.
Então v é um autovetor para T associado ao autovalor λ se e somente se v é um autovetor para T ∗
associado ao mesmo autovalor λ.
Consequentemente, autovetores de T associados a autovalores distintos são ortogonais.
Rodney Josué Biezuner 177
e portanto
∗ ∗
(T − λI) (T − λI) = (T − λI) (T − λI) .
Segue do Teorema 7.41 que
k(T − λI) vk = k(T ∗ − λI) vk ,
logo (T − λI) v = 0 se e somente se (T ∗ − λI) v = 0.
Sejam v1 e v2 autovetores associados aos autovalores λ1 6= λ2 , respectivamente. Então,
λ1 hv1 , v2 i = hλ1 v1 , v2 i
= hT v1 , v2 i
= hv1 , T ∗ v2 i
= hv1 , λ2 v2 i
= λ2 hv1 , v2 i
é uma matriz normal. Para λ geral, A não representa um operador autoadjunto ou antiautoadjunto e não é
ortogonal.
V = W1 ⊕⊥ . . . ⊕⊥ Wk
e
T = λ1 E1 + . . . + λk Ek .
Prova: A decomposição em soma direta ortogonal segue do Teorema 7.35. Desta decomposição em soma
direta segue que
E1 + . . . + Ek = I,
donde
T = T I = T E1 + . . . + T Ek
= λ1 E1 + . . . + λk Ek .
Esta decomposição é chamada a resolução espectral do operador T .
Rodney Josué Biezuner 178
e portanto E é autoadjunto.
7.47 Proposição. Seja T ∈ Hom (V ) um operador normal diagonalizável sobre um espaço métrico real de
dimensão finita. Então T é autoadjunto.
Prova: Por definição, existe uma base para V constituı́da por autovetores de T . Pelo Teorema 7.42, au-
toespaços correspondentes a autovalores distintos são ortogonais. Usando o processo de ortogonalização de
Gram-Schmidt em cada autoespaço, podemos obter uma base ortonormal de autovetores de T . Consequen-
temente, podemos escrever
V = W1 ⊕⊥ . . . ⊕⊥ Wk
e
T = λ1 E1 + . . . + λk Ek ,
onde cada Ei é uma projeção ortogonal e portanto um operador autoadjunto. Como a soma de operadores
autoadjuntos é um operador autoadjunto, segue o resultado.
7.48 Teorema. Seja T ∈ Hom (V ) um operador normal diagonalizável sobre um espaço métrico de dimensão
finita. Então, os autovalores de T são
(i) não-negativos, se e somente se T é positivo semidefinido;
(ii) positivos, se e somente se T é positivo definido;
(iii) ±1, se e somente se T é um morfismo métrico.
Rodney Josué Biezuner 179
Prova: Seja
T = λ 1 E1 + . . . + λ k Ek
a resolução espectral de T . Temos
* k k
+
X X
hT v, vi = λi Ei v, Ej v
i=1 j=1
k
X
= λi hEi v, Ej vi
i,j=1
k
X 2
= λi kEi vk ,
i,j=1
logo, tomando v ∈ Wi para i = 1, . . . , k, concluı́mos que hT v, vi > 0 para todo v ∈ V se e somente se λi > 0
para todo i e que hT v, vi > 0 para todo v ∈ V se e somente se λi > 0 para todo i.
Além disso, como projeções ortogonais são autoadjuntas, segue que
T T ∗ = (λ1 E1 + . . . + λk Ek ) (λ1 E1 + . . . + λk Ek )
2 2
= |λ1 | E1 + . . . + |λk | Ek .
Se |λ1 | = . . . = |λk | = 1, então T T ∗ = I e T é um morfismo métrico. Reciprocamente, se T T ∗ = I, então
2 2
|λ1 | E1 + . . . + |λk | Ek = I,
donde, multiplicando a equação por Ej , obtemos
2
Ej = |λj | Ej ,
o que implica |λj | = 1.
7.50 Teorema (Método Variacional para a Solução de Sistemas Lineares). Seja A uma matriz
simétrica definida positiva. A solução do sistema
Av = b
1 t 1 2
f (w) = w Aw − wt b = kwkA − hw, bi .
2 2
Rodney Josué Biezuner 180
Prova: Como A é uma matriz simétrica definida positiva, A é invertı́vel e existe uma solução única v para
o sistema Av = b. Observando que
wt Av = hw, viA = hv, wiA = v t Aw,
obtemos
1 t 1
f (w) − f (v) = w Aw − wt b − v t Av + v t b
2 2
1 t 1
= w Aw − wt Av − v t Av + v t Av
2 2
1 t 1
= w Aw − wt Av + v t Av
2 2
1 t 1 t 1 1
= w Aw − w Av − v t Aw + v t Av
2 2 2 2
1 t 1
= w A (w − v) − v t A (w − v)
2 2
1 t
= (w − v) A (w − v) .
2
Como A é definida positiva, segue que
t
(w − v) A (w − v) = hA (w − v) , (w − v)i > 0
e
t
(w − v) A (w − v) = 0
se e somente se w = v. Portanto,
f (w) > f (v)
para todo w 6= v e o mı́nimo de f ocorre em v.
Observe que definindo um produto interno a partir da matriz simétrica definida positiva A da maneira usual
por hv, wi = wt Av, o funcional f pode ser escrito na forma
1
f (w) = hw, wi − wt b.
2
Outra maneira de enxergar o resultado do teorema anterior é observar que o gradiente do funcional f é
∇f (w) = Aw − b;
se v é um ponto de mı́nimo temos ∇f (v) = 0, ou seja,
Av = b.
Este método variacional é a base do Método do Gradiente Conjugado para a resolução de sistemas lineares
envolvendo matrizes simétricas positivas definidas, que aparecem frequentemente nas aplicações.
Veremos agora que o menor autovalor de um operador autoadjunto pode ser encontrado como o mı́nimo
de um certo funcional, enquanto que o seu maior autovalor é o máximo deste mesmo funcional:
7.51 Teorema (Princı́pio de Rayleigh). Sejam V um espaço vetorial métrico positivo definido de di-
mensão n e T ∈ Hom (V ) um operador autoadjunto. Sejam
λ1 6 . . . 6 λn
os autovalores de T , de modo que λ1 é o menor autovalor de T e λn é o maior autovalor de T . Então
hT v, vi
λ1 = min 2 (7.4)
v∈V kvk
v6=0
Rodney Josué Biezuner 181
e
hT v, vi
λn = max 2 (7.5)
v∈V kvk
v6=0
Prova: Seja B = {e1 , . . . , en } uma base ortonormal de autovetores de T correspondentes aos autovalores
n
v i ei temos
P
λ1 6 . . . 6 λn de T . Então, se v =
i=1
n
2
X 2
λ1 kvk = λ1 v i
i=1
n
X 2
6 λi v i
i=1
Xn
= λi v i v j hei , ej i
i,j=1
Xn
λi v i ei , v j ej
=
i,j=1
* n n
+
X X
i j
= λ i v ei , v ej
i=1 j=1
* n n
+
X X
i j
= v T ei , v ej
i=1 j=1
* n
! n
+
X X
i j
= T v ei , v ej
i=1 j=1
= hT v, vi .
hT v, vi
q (v) = 2
kvk
7.53 Teorema (Princı́pio de Minimax para Autovalores). Sejam V um espaço vetorial métrico positivo
definido de dimensão n e T ∈ Hom (V ) um operador autoadjunto. Sejam
λ1 6 . . . 6 λn
os autovalores de T . Então
max hT v, vi > λj .
v∈W
kvk=1
n > dim W + Z ⊥
= j + n − (j − 1) − dim W ∩ Z ⊥
= n + 1 − dim W ∩ Z ⊥ ,
de modo que
dim W ∩ Z ⊥ > 1
n n 2
e existe v ∈ W ∩ Z ⊥ tal que kvk = 1. Escrevendo v = v k ek , temos kvk = vk
P P
= 1, donde
k=j k=j
* n n
+
X X
hT v, vi = v k T ek , v l el
k=j l=j
* n n
+
X X
k l
= v λk ek , v el
k=j l=j
n
X
= λk v k v l hek , el i
k,l=j
n
X 2
= λk v k
k=j
n
X 2
> λj vk
k=j
= λj .
Espaços Hermitianos
hαv, wi = α hv, wi ,
hv, αwi = α hv, wi ,
h0, vi = 0 (8.1)
184
Rodney Josué Biezuner 185
não precisa ser especificada separadamente pois é uma consequência da linearidade do produto hermitiano
com relação à primeira variável e da comutatividade conjugada:
Em particular, temos
Prova: Temos
hv, wi = Re hv, wi + i Im hv, wi .
Mas se z ∈ C, então
Im z = Re (−iz) ,
logo
Im hv, wi = Re (−i hv, wi) = Re hv, iwi .
8.3 Exemplo. Definimos um produto hermitiano em Cn da seguinte forma. Se
v = v1 , . . . , vn ,
w = w1 , . . . , wn ,
8.4 Exemplo. Se V é um espaço vetorial complexo e W é um espaço vetorial complexo com produto
hermitiano, se T : V −→ W é um morfismo linear injetivo, definimos um produto hermitiano em V a partir
do produto hermitiano em W por
hv, wiV := hT v, T wiW .
Dizemos que h·, ·iV é o produto hermitiano em V induzido pelo produto hermitiano em W através do
morfismo linear injetivo T .
Claramente, todas as propriedades de um produto hermitiano são satisfeitas por h·, ·iV , consequência da
linearidade de T e do fato de h·, ·iW ser um produto hermitiano; a definição positiva é consequência também
da injetividade de T .
8.5 Definição. Dada uma matriz complexa A ∈ Mn (C), definimos a sua transposta conjugada A† por
i
A† j
= Aji .
A† = A.
Se A possui apenas entradas reais, sua transposta conjugada coincide com sua transposta; matrizes hermiti-
anas reais são portanto matrizes simétricas. Note que para uma matriz ser hermitiana, ela deve ser quadrada
e todos os elementos em sua diagonal principal devem ser reais.
8.6 Exemplo. Temos
†
1−i 2
3 + 2i 1+i 3 − 2i 7
4 =
2 4 1−i
7 1+i
e
1 2+i
2−i 4
é uma matriz hermitiana.
A transposição conjugada satisfaz as propriedades análogas às da transposição, com pequenas diferenças:
8.7 Proposição. Sejam A, B ∈ Mn (C) e z ∈ C. Então valem
(i)
†
(zA) = zA† .
(ii)
†
(AB) = B † A† .
(iii)
†
A† = A.
(iv)
det A† = det A.
Rodney Josué Biezuner 187
(v)
tr A† = tr A.
Prova: Exercı́cio.
8.8 Exemplo. Se os vetores em Cn são representados por matrizes coluna, então o produto hermitiano
canônico de Cn pode ser escrito na forma
hv, wi = v † w = w† v. (8.6)
Note que A† A é uma matriz hermitiana. Quando A = I, ele é simplesmente o produto interno hermitiano
em Cn .
8.9 Exemplo. Definimos um produto hermitiano em Mn (C) por
hA, Bi = tr AB †
ou, equivalentemente,
n
X
hA, Bi = Aij Bji .
i,j=1
8.10 Exemplo. Se L2 ([0, 1] ; C) denota o espaço das funções quadrado integráveis no intervalo [0, 1] com
valores em K, definimos um produto hermitiano neste espaço de dimensão infinita por
Z 1
hf, gi = f (t) g (t) dt.
0
8.11 Definição. Dizemos que uma matriz hermitiana H ∈ Mn (C) é definida positiva se
v † Hv > 0
para todo v ∈ V .
8.12 Proposição. Seja V um espaço complexo de dimensão finita. Então todo produto hermitiano h·, ·i em
V é induzido por uma matriz hermitiana, isto é, existe uma matriz hermitiana invertı́vel definida positiva
H ∈ Mn (K) tal que
hv, wi = v † Hw = w† Hv.
Prova: Seja B = {e1 , . . . , en } uma base para V . Afirmamos que se H ∈ Mn (C) é definida por
Hji = hej , ei i ,
se
n
X
v= v i ei ,
i=1
n
X
w= w j ej ,
j=1
temos
* n n
+
X X
i j
hv, wi = v ei , w ej
i=1 j=1
n
X
= v i wj hei , ej i
i,j=1
n
X n
X
= wj hei , ej i v i
j=1 i=1
Xn Xn
= wj Hij v i
j=1 i=1
†
= w Hv.
Como
v † Hv = hv, vi > 0
para todo v 6= 0, em particular ker H = {0} e portanto H é invertı́vel.
Reciprocamente, se H é uma matriz hermitiana invertı́vel que satisfaz v † Hv > 0 para todo v ∈ V ,
definimos
hv, wi = w† Hv,
É fácil ver que as propriedades (i), (ii) e (iv) da Definição 8.1 são válidas. Para verificar (iii), observando
que a transposta conjugada de uma matriz 1 × 1 é simplesmente sua conjugada, temos
†
hv, wi = w† Hv = v † Hw = v † Hw = hw, vi.
dizemos que a norma é derivada do produto hermitiano ou induzida pelo produto hermitiano.
Rodney Josué Biezuner 189
para todos v, w ∈ V .
Prova: A demonstração é idêntica à do caso real.
8.14 Proposição. Seja V um espaço vetorial complexo com produto hermitiano. Então
p
kvk = hv, vi (8.8)
define uma norma em V .
Prova: A condição (i) da definição decorre do produto interno ser positivo definido.
A condição (ii) da definição decorre de
p p p p
kαvk = hαv, αvi = αα hv, vi = α2 hv, vi = |α| hv, vi = |α| kvk .
Finalmente, a desigualdade triangular é provada usando a desigualdade de Cauchy-Schwarz:
2
kv + wk = hv + w, v + wi
= hv, vi + hv, wi + hw, vi + hw, wi
= hv, vi + hv, wi + hv, wi + hw, wi
2 2
= kvk + 2 Re hv, wi + kwk
2 2
6 kvk + 2 Re |hv, wi| + kwk
2 2
= kvk + 2 |hv, wi| + kwk
2 2
6 kvk + 2 kvk kwk + kwk
2
= (kvk + kwk) .
8.15 Proposição (Teorema de Pitágoras). Seja V um espaço vetorial hermitiano. Se v, w ∈ V são
vetores ortogonais, vale a identidade de Pitágoras
2 2 2
kv + wk = kvk + kwk . (8.9)
Prova: Temos
2
kv + wk = hv + w, v + wi
= hv, vi + hv, wi + hw, vi + hw, wi
= hv, vi + hv, wi + hv, wi + hw, wi
2 2
= kvk + 2 Re hv, wi + kwk
= hv, vi + hw, wi
2 2
= kvk + kwk .
Diferentemente do caso real, a recı́proca não vale, pois como
2 2 2
kv + wk = kvk + 2 Re hv, wi + kwk ,
a validade da identidade de Pitágoras implica apenas que
Re hv, wi = 0.
Rodney Josué Biezuner 190
8.16 Proposição (Identidades Polares). Se V é um espaço vetorial hermitiano, então para todos v, w ∈ V
vale
4
1 2 1 2 i 2 i 2 1X n 2
hv, wi = kv + wk − kv − wk + kv + iwk − kv − iwk = i kv + in wk .
4 4 4 4 4 n=1
Prova: Temos
1 2 1 2 i 2 i 2
kv + wk − kv − wk + kv + iwk − kv − iwk
4 4 4 4
1 1
= (hv, vi + hv, wi + hw, vi + hw, wi) − (hv, vi − hv, wi − hw, vi + hw, wi)
4 4
i i
+ (hv, vi − i hv, wi + i hw, vi + hw, wi) − (hv, vi + i hv, wi − i hw, vi + hw, wi)
4 4
1 1 1 1 1 1
= hv, wi + hw, vi + hv, wi − hw, vi + hv, wi − hw, vi
2 2 4 4 4 4
= hv, wi .
8.17 Proposição (Identidade do Paralelogramo). Sejam V um espaço vetorial hermitiano. Então
2 2 2 2
kv + wk + kv − wk = 2 kvk + kwk .
Prova: Temos
2 2
kv + wk + kv − wk = (hv, vi + hv, wi + hw, vi + hw, wi)
+ (hv, vi − hv, wi − hw, vi + hw, wi)
2 2
= 2 kvk + kwk + Re hv, wi − Re hv, wi
2 2
= 2 kvk + kwk .
Esta correspondência determina um isomorfismo canônico (isto é, independente de bases) entre V e V ∗ .
Em particular,
⊥
ker f = hvi .
Logo,
m
X
f (w) = hek , wi f (ek )
k=1
Xm
= hf (ek ) ek , wi
k=1
*m +
X
= f (ek ) ek , w .
k=1
Tome
m
X
v= f (ek ) ek .
k=1
Se v 0 ∈ V é outro vetor tal que f (w) = hw, v 0 i para todo w ∈ V , então hw, vi = hw, v 0 i para todo w ∈ V ,
donde hw, v − v 0 i = 0. Tomando w = v − v 0 concluı́mos que v − v 0 = 0, donde v = v 0 .
Note que, fixado v ∈ V , o funcional
hT v, wi = hv, T ∗ wi
para todos v ∈ V, w ∈ W .
Observe que também temos
hv, T wi = hT ∗ v, wi ,
pois
hv, T wi = hT w, vi = hw, T ∗ vi = hT ∗ v, wi .
Rodney Josué Biezuner 192
hT ∗ v, wi = hv, T wi ,
isto é,
∗
(T ∗ ) = T.
T ∗ (αw1 + βw2 ) = αT ∗ w1 + βT ∗ w2 .
hT ∗ v, wi = hv, T wi ,
como vimos antes do lema concluı́mos que T (adjunta de uma aplicação) deve ser linear. Em outras palavras,
para que a adjunta de uma aplicação T exista, T já deve ser uma aplicação linear. Assim, não há realmente
nenhum ganho em generalidade em definir a adjunta de uma aplicação arbitrária ao invés de definir apenas
a adjunta de aplicações lineares, pois as únicas aplicações que possuem adjuntas são as aplicações lineares.
8.22 Proposição. Sejam V, W espaços vetoriais hermitianos. Então todo morfismo linear T : V −→ W
possui um único adjunto linear.
Prova: Para cada w ∈ W , a aplicação v 7→ hT v, wi é um funcional linear em V ∗ . Pelo Teorema de
Representação de Riesz existe um único vetor u ∈ V tal que
T ∗ w = u.
Prova: Seja B = [T ∗ ]B . Pela Proposição 6.67 generalizada do caso positivo definido para o produto
hermitiano,
Aij = hT ej , ei i ,
Bji = hT ∗ ej , ei i .
Logo,
Bji = hT ∗ ej , ei i = hej , T ei i = hT ei , ej i = Aji .
8.24 Definição. Sejam V um espaço vetorial hermitiano. Dizemos que T ∈ Hom (V ) é um operador
hermitiano se
T = T ∗.
8.25 Corolário. Seja V um espaço vetorial hermitiano de dimensão finita e T ∈ Hom (V ) um operador
linear hermitiano. Se B é uma base ortonormal para V então A = [T ]B é uma matriz hermitiana.
8.26 Proposição. Sejam V um espaço vetorial métrico ou hermitiano e T, S ∈ Hom (V ). Então
(i)
∗
(T + S) = T ∗ + S ∗ .
(ii)
∗
(αT ) = αT ∗ .
(iii)
∗
(T S) = S ∗ T ∗ .
∗ −1
T −1 = (T ∗ ) .
Prova: Exercı́cio.
(ii)
⊥
ker T = (im T ∗ ) .
⊥
im T = (ker T ∗ ) .
Rodney Josué Biezuner 194
(iii)
dim (ker T ) = dim (ker T ∗ ) + (dim V − dim W ) .
dim (im T ) = dim (im T ∗ ) .
Em particular,
V = ker T ∗ ⊕⊥ im T.
8.28 Teorema (Alternativa de Fredholm). Sejam V um espaço vetorial hermitiano de dimensão finita
e T ∈ Hom (V ). Então vale apenas uma e somente uma das alternativas a seguir:
ou
T v = w tem solução,
ou
T ∗ z = 0 tem solução z tal que hw, zi =
6 0.
hv, wi = hT v, T wi .
Operadores unitários em espaços vetoriais hermitianos correspondem a operadores métricos em espaços
vetoriais métricos.
8.30 Proposição. Seja V um espaço hermitiano. T é um operador unitário se e somente se
T ∗ T = id .
T T ∗ = T ∗ T = id .
hv, wi = hT v, T wi = hv, T ∗ T wi
hv, wi = hv, T ∗ T wi = hT v, T wi .
com a métrica
∞
X
hf, gi = fn gn ,
n=1
ou analogamente o espaço das sequências complexas quadrado-somáveis
∞
( )
X 2
2
`C = f : N −→ R : |fn | < ∞
n=1
Rodney Josué Biezuner 196
o operador shift
0 se n = 1,
(T f )n =
fn−1 se n > 1,
é um operador métrico, no primeiro caso, e um operador unitário, no segundo, e não é sobrejetivo.
8.32 Definição. Dizemos que uma matriz complexa A é unitária se
AA† = A† A = I.
Em outras palavras, uma matriz unitária é uma matriz cuja inversa é a sua transposta conjugada
A−1 = A† ,
correspondente no caso real a uma matriz ortogonal, cuja inversa é a sua transposta.
8.33 Proposição. Seja V um espaço vetorial hermitiano de dimensão finita. Um operador linear T ∈
Hom (V ) é unitário se e somente se a sua matriz em relação a uma base ortonormal é uma matriz unitária.
8.34 Proposição. Se T é um operador unitário, então
|det T | = 1.
Prova: Pois
det (T T ∗ ) = det I = 1
e
t
det T ∗ = det T t = det T = det T = det T ,
logo
2
det (T T ∗ ) = det T det T ∗ = det T det T = |det T | .
Em particular, operadores unitários preserva volumes, o que era de se esperar.
λ hv, vi = hλv, vi
= hT v, vi
= hv, T vi
= hv, λvi
= λ hv, vi
Rodney Josué Biezuner 197
e portanto
λ = λ,
isto é, λ ∈ R.
Sejam λ1 , λ2 autovalores reais distintos de T e v1 , v2 autovetores não nulos associado a λ1 , λ2 , respecti-
vamente. Então
λ1 hv1 , v2 i = hλ1 v1 , v2 i
= hT v1 , v2 i
= hv1 , T v2 i
= hv1 , λ2 v2 i
= λ2 hv1 , v2 i ,
hv, T ∗ wi = hT v, wi = 0
Prova: A demonstração será por indução em dim V . Se dim V = 1, isso dá uma base ortonormal para
V constituı́da de autovetores de T . Assuma o teorema verdadeiro para espaços com dimensão menor que
n = dim V . Seja v1 um autovetor de norma 1 associado a um autovalor real de T e W = hv1 i. Então W é
invariante por T e pela proposição anterior W ⊥ é invariante por T ∗ = T . Mas dim W ⊥ = n − 1, logo pela
hipótese de indução existe uma base ortonormal {v2 , . . . , vn } para W ⊥ de autovetores de T |W ⊥ e portanto
de T . Como V = W ⊕ W ⊥ , segue que {v1 , v2 , . . . , vn } é uma base ortonormal para V de autovetores de T .
8.38 Corolário. Seja A uma matriz hermitiana. Então existe uma matriz unitária U tal que
D = U † AU
Prova: Se T ∈ Hom (V ) é um operador diagonalizável através de uma base ortonormal, então existem uma
matriz diagonal real D e uma matriz unitária U tal que
D = U † AU.
Em particular, como
D† = D,
Rodney Josué Biezuner 198
(observe que esta propriedade não vale para matrizes diagonais complexas) segue que
A = U DU †
e
†
A† = U DU †
†
= U † D† U †
= U DU †
= A.
AA† = A† A.
Exemplos de operadores normais complexos são operadores hermitianos e operadores unitários.
hT v, vi = 0
0 = hT (v + w) , v + wi
= hT v, vi + hT v, wi + hT w, vi + hT w, wi
= hT v, wi + hT w, vi ,
Rodney Josué Biezuner 199
0 = hT (v + iw) , v + iwi
= hT v, vi + hT v, iwi + hiT w, vi + hT (iw) , iwi
= −i hT v, wi + i hT w, vi ,
ou seja,
hT v, wi + hT w, vi = 0,
hT v, wi − hT w, vi = 0,
para todo v ∈ V .
hT v, vi = hT v, vi = hv, T vi = hT ∗ v, vi ,
de modo que
h(T − T ∗ ) v, vi = 0 para todo v ∈ V.
Da proposição anterior segue que T = T ∗ .
8.43 Teorema. Sejam V um espaço vetorial hermitiano e T ∈ Hom (V ). Então T é normal se e somente
se
kT vk = kT ∗ vk
para todo v ∈ V.
Em particular, se T é normal, segue que
V = ker T ⊕⊥ im T.
hT ∗ T v, vi = hT v, T vi
2
= kT vk
2
= kT ∗ vk
= hT ∗ v, T ∗ vi
= hT T ∗ v, vi
V = ker T ∗ ⊕⊥ im T,
obtemos
V = ker T ⊕⊥ im T.
Se V = ker T ⊕⊥ im T , não é necessariamente verdade que T é um operador normal, pois T pode ser definido
de qualquer forma arbitrária em im T .
e portanto
∗
(T − λI) (T − λI) = (T − λI) T ∗ − λI
= T T ∗ − λT − λT ∗ + λλI
= T ∗ T − λT ∗ − λT + λλI
= T ∗ − λI (T − λI)
∗
= (T − λI) (T − λI) .
Portanto, A1i = 0 para todo i > 2, o que implica A1i = 0 para todo i > 2.
Agora, em particular, a12 = 0 e o fato de A ser triangular implicam que
T e2 = A22 e2 .
Usando o mesmo argumento concluı́mos que a2i = 0 para todo i > 3. Continuando com este argumento
provamos que
T ej = Ajj ej
para todo j, logo A é diagonal.
Rodney Josué Biezuner 202
8.48 Corolário. Seja A uma matriz normal complexa. Então existe uma matriz unitária U tal que
D = U † AU
V = W 1 ⊕⊥ . . . ⊕⊥ W k
e
T = λ 1 E1 + . . . + λ k Ek .
Prova: A decomposição em soma direta ortogonal segue dos Teoremas 8.47. Da decomposição em soma
direta segue que
E1 + . . . + Ek = I,
donde
T = T I = T E1 + . . . + T Ek
= λ1 E1 + . . . + λk Ek .
Esta decomposição é chamada a resolução espectral do operador T .
8.50 Definição. Sejam V um espaço vetorial hermitiano e T ∈ Hom (V ) um operador hermitiano.
Dizemos que T é positivo definido se
hT v, vi > 0 (8.10)
para todo v ∈ V . Se
hT v, vi > 0 (8.11)
para todo v ∈ V , dizemos que T é positivo semidefinido.
Dado um operador linear invertı́vel T , o operador T ∗ T é sempre hermitiano e positivo definido, pois
∗ ∗
(T ∗ T ) = T ∗ (T ∗ ) = T ∗ T,
2
hT ∗ T v, vi = hT v, T vi = kT vk > 0.
T ∗ = λ1 E1 + . . . + λk Ek .
logo, tomando v ∈ Wi para i = 1, . . . , k, concluı́mos que hT v, vi > 0 para todo v ∈ V se e somente se λi > 0
para todo i e que hT v, vi > 0 para todo v ∈ V se e somente se λi > 0 para todo i.
Finalmente, temos
T T ∗ = (λ1 E1 + . . . + λk Ek ) λ1 E1 + . . . + λk Ek
2 2
= |λ1 | E1 + . . . + |λk | Ek .
B (v, w) = B (w, v)
para todos v, w ∈ V .
Assim, uma forma sesquilinear é linear na primeira variável e linear conjugada (às vezes chamada antilinear )
na segunda variável.
8.54 Teorema. Seja V um espaço vetorial hermitiano de dimensão finita e B uma forma sesquilinear.
Então existe um único operador T em V tal que
B (v, w) = hT v, wi .
Esta correspondência determina um isomorfismo canônico entre o espaço das formas sesquilineares e o espaço
dos operadores Hom (V ).
Além disso, a forma B é hermitiana se e somente se T é hermitiano.
Prova: Fixe um vetor w ∈ V . Então
f (v) = B (v, w)
é um funcional linear, logo pelo Teorema de Representação de Riesz existe um único u ∈ V tal que
B (v, w) = hv, ui
para todo v ∈ V . Defina uma aplicação U : V −→ V por U w = u. Afirmamos que U é um operador linear.
De fato,
hv, U (β1 w1 + β2 w2 )i = B (v, β1 w1 + β2 w2 ) = β1 B (v, w1 ) + β 2 B (v, w2 )
= β1 hv, U (w1 )i + β 2 hv, U (w2 )i
= hv, β1 U (w1 ) + β2 U (w2 )i
para todo v ∈ V . Tomando T = U ∗ , segue que
B (v, w) = hv, U wi = hU ∗ v, wi = hT v, wi .
O argumento usual mostra que T é única.
Se B é hermitiana, para todos v, w ∈ V temos
hT v, wi = B (v, w) = B (w, v) = hT w, vi = hv, T wi ,
isto é,
T ∗ = T.
Rodney Josué Biezuner 205
n
X
B (v, w) = Aij v i wj
i,j=1
e defina Aij = hT ei , ej i.
8.56 Definição. Seja V um espaço vetorial hermitiano de dimensão finita e B uma forma sesquilinear. A
função q : V −→ K definida por
q (v) = B (v, v)
para alguns Aij∈ C. Observe que quando B é hermitiana, q (v) ∈ R para todo v ∈ V , pois B (v, v) = B (v, v)
implica B (v, v) ∈ R. Vale a recı́proca:
8.57 Proposição. Seja V um espaço vetorial hermitiano.
Uma forma sesquilinear B é hermitiana se e somente se B (v, v) ∈ R para todo v ∈ V .
Prova: Assuma B (v, v) ∈ R para todo v ∈ V . Dados v, w ∈ V precisamos mostrar que B (v, w) = B (w, v).
Temos
B (v + w, v + w) = B (v, v) + B (v, w) + B (w, v) + B (w, w) .
Como B (v + w, v + w) , B (v, v) , B (w, w) ∈ R segue que
B (v, w) + B (w, v) ∈ R.
concluı́mos que
−iB (v, w) + iB (w, v) ∈ R.
Números reais são iguais a seus conjugados, logo
para alguns λ1 , . . . , λn ∈ R. Além disso, se B é a forma hermitiana que induz q, temos também
n
X
B (v, w) = λi v i w i .
i=1
Prova: Seja B a forma sesquilinear hermitiana tal que q (v) = B (v, v) e T o operador linear tal que
B (v, w) = hT v, wi
para todos v, w ∈ V . Pelo Teorema 8.54 T é hermitiano, logo existe uma base ortonormal B = {e1 , . . . , en }
para V que diagonaliza T , isto é,
T ej = λj ej
com λj ∈ R, para j = 1, . . . , n. Segue que
* n
! n
+
X X
i j
B (v, w) = T v ei , w ej
i=1 j=1
n
X
= v i wj hT ei , ej i
i,j=1
Xn
= v i wj λi hei , ej i
i,j=1
X n
= λi v i w j .
i=1
[Axler] S. AXLER, Linear Algebra Done Right, 3rd. Ed., Springer, 2015.
[Lang] S. LANG, Álgebra Linear, 3a. Ed., Editora Ciência Moderna, 2004.
[Roman] S. ROMAN, Advanced Linear Algebra, 3rd. Ed., Springer, 2007.
[Strang] G. STRANG, Linear Algebra and its Applications, 3rd. Ed., Brooks Cole, 1988.
207