Explorar E-books
Categorias
Explorar Audiolivros
Categorias
Explorar Revistas
Categorias
Explorar Documentos
Categorias
1
Rodney Josué Biezuner
Departamento de Matemática
Instituto de Ciências Exatas (ICEx)
Universidade Federal de Minas Gerais (UFMG)
30 de agosto de 2019
1
E-mail: rodney@mat.ufmg.br; homepage: http://www.mat.ufmg.br/∼rodney.
Sumário
Capa 1
Sumário 3
1 Espaços Vetoriais 4
1.1 Estruturas Algébricas Fundamentais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.1 Corpos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Espaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Bases e Dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4 Subespaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5 Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.6 Álgebras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.6.1 A Álgebra de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.7 Matriz de Mudança de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.8 Somas de Subespaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.9 Somas Diretas de Espaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2 Lineomorfismos 26
2.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.1.1 Existência e Unicidade de Lineomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.2 Isomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2 Espaço Quociente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3 Teorema do Núcleo e da Imagem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4 Representações Matriciais de Morfismos Lineares . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.5 A Álgebra dos Operados Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.6 Álgebras de Lie Mn (K) e Hom (V ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.7 Funcionais Lineares e o Espaço Dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.8 O Morfismo Dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.8.1 Núcleo e Imagem do Morfismo Dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.8.2 Representação Matricial do Morfismo Dual . . . . . . . . . . . . . . . . . . . . . . . . 47
3 Determinantes 49
3.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.2 Existência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.3 Unicidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.3.1 Grupo de Permutações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.3.2 Demonstração da Unicidade da Função Determinante . . . . . . . . . . . . . . . . . . 57
3.3.3 Fórmula do Determinante através de Permutações . . . . . . . . . . . . . . . . . . . . 59
3.4 Propriedades do Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.5 Regra de Cramer e Fórmula da Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
1
Rodney Josué Biezuner 2
7 Metrolineomorfismos 158
7.1 Operadores Lineares Métricos e Grupo Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . 158
7.2 Rotações e Reflexões . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
7.3 Isometrias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
7.4 Operadores Adjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
7.4.1 Teorema da Representação de Riesz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
7.4.2 Morfismo Adjunto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
7.4.3 Alternativa de Fredholm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
Rodney Josué Biezuner 3
Espaços Vetoriais
x + (y + z) = (x + y) + z.
x + y = y + x.
x + 0 = 0 + x = x.
x + (−x) = (−x) + x = 0.
Produto:
Associatividade: para todos x, y ∈ K vale
x (yz) = (xy) z.
xy = yx.
x1 = 1x = x.
4
Rodney Josué Biezuner 5
xx−1 = x−1 x = 1.
x (y + z) = xy + xz.
Em outras palavras, um corpo tem duas estruturas de grupo comutativo e estas estruturas são compatı́veis.
No caso do produto, K como um todo é um grupo apenas quando o zero é excluı́do, isto é, (K, produto)
não é um grupo pois o 0 não possui inverso, mas (K∗ , produto) é, onde
K∗ = K\ {0} .
Como 0 não possui inverso e 1 possui inverso 1, em particular segue que 0 6= 1 e um corpo K possui pelo
menos dois elementos. O corpo Z2 possui exatamente os dois elementos 0 e 1.
1.2 Definição. A caracterı́stica de um corpo K é o menor inteiro n tal que
1 + · · · + 1 = 0,
| {z }
p vezes
K=R ou K = C,
mas a maioria dos resultados valerá para todos os corpos e apenas uma minoria para corpos de caracterı́stica
diferente de 2 e uma minoria ainda menor apenas para corpos de caracterı́stica zero.
u + (v + w) = (u + v) + w.
v + w = w + v.
Rodney Josué Biezuner 6
Existência de Identidade: existe um elemento 0 ∈ V (vetor nulo) tal que para todo v ∈ V temos
v + 0 = 0 + v = v.
v + (−v) = 0.
x (yv) = (xy) v.
Distributividade:
(i) Para todos v, w ∈ V e para todo x ∈ K
x (v + w) = xv + xw.
(x + y) v = xv + yv.
ou seja,
0 = x0.
(ii) Temos
0v = (0 + 0) v = 0v + 0v,
Rodney Josué Biezuner 7
ou seja,
0 = 0v.
(iii) Suponha que exista x ∈ K, x 6= 0, tal que xv = 0 para algum v ∈ V , v 6= 0. Então
= 1v
= v,
0 = 0v
= [1 + (−1)] v
= 1v + (−1) v
= v + (−1) v.
isto é,
0 = v + (−1) v.
Somando −v a ambos os lados, segue que
−v + 0 = −v + [v + (−1) v]
= (−v + v) + (−1) v
= 0 + (−1) v,
ou seja,
−v = (−1) v.
0
(v) Se 0 são dois vetores nulos 0 , por definição
00 = 00 + 0 = 0.
1.6 Corolário. Se um K-espaço vetorial possui um vetor não nulo, então ele possui pelo um número de
vetores igual à cardinalidade de K.
Rodney Josué Biezuner 8
Kn = x 1 , . . . , x n : x 1 , . . . , x n ∈ K ,
ou seja,
Rn = x1 , . . . , x n : x1 , . . . , x n ∈ R ,
Cn = z 1 , . . . , z n : z 1 , . . . , z n ∈ C ,
com a soma e produto por escalar usuais são K-espaços vetoriais. Assim também o espaço das ∞-uplas
K∞ = x0 , x1 , x2 , . . . : xi ∈ K para todo i ∈ N ,
1.9 Exemplo (Espaço das K-matrizes m × n). O espaço das matrizes m × n com elementos em K com
a soma e produto escalar usuais é um K-espaço vetorial, que denotaremos Mm×n (K).
1.10 Exemplo (Espaços de Polinômios com coeficientes em K). Os espaços de polinômios com
coeficientes em K ( n )
X
i
K [x] = ai x : a0 , . . . an ∈ K, n ∈ N ,
i=0
ou seja
( n )
X
R [x] = ai xi : a0 , . . . an ∈ R, n ∈ N ,
i=0
( n )
X
i
C [x] = ai x : a0 , . . . an ∈ C, n ∈ N .
i=0
com a soma e produto por escalar usuais são K-espaços vetoriais. Assim também os espaços de polinômios
com coeficientes em K até grau n:
( n )
X
i
Kn [x] = ai x : a0 , . . . an ∈ K .
i=0
1.11 Exemplo (Espaços de Funções). Os espaços F (X; K) de funções com domı́nio em um conjunto X
e com valores em K com a soma e produto por escalar de funções usuais são K-espaços vetoriais.
Assim também, se X ⊂ Rn é um aberto, o espaço das funções contı́nuas C 0 (X; R), o espaço das funções
k-continuamente diferenciáveis C k (X; R), o espaço das funções suaves C ∞ (X; R), o espaço das funções
p-integráveis Lp (X; R), e vários outros espaços de funções.
Ao invés de funções tomando valores em K podemos considerar também funções tomando valores em Kn .
Rodney Josué Biezuner 9
k
X
xi vi = x1 v1 + . . . + xk vk
i=1
com x1 , . . . , xk ∈ K e v1 , . . . , vk ∈ S.
1.13 Definição. Dizemos que um conjunto S ⊂ V é linearmente dependente (LD) se existir um número
finito de vetores v1 , . . . , vk ∈ S e escalares x1 , . . . , xk ∈ K não todos nulos tais que
x1 v1 + . . . + xk vk = 0,
ou seja, o vetor nulo pode ser escrito como uma combinação linear não trivial de elementos de S.
Caso contrário, isto é, se
x 1 v1 + . . . + x k vk = 0
só for possı́vel quando
x1 = . . . = xk = 0
dizemos que S é linearmente independente (LI).
1.14 Exemplo. O subconjunto infinito
S = xk : k ∈ N
é LI em K [x].
Um subconjunto LI não pode conter o vetor nulo, pois
x0 = 0
x1 v1 + . . . + xk vk = 0.
v0 = x 1 v1 + . . . + x k vk ,
então
v0 − x 1 v1 − . . . − x k vk = 0
é uma combinação linear não-trivial de elementos de S, pois o coeficiente de v0 é o escalar não nulo 1.
Rodney Josué Biezuner 10
1.16 Definição. Dizemos que um conjunto S ⊂ V gera o espaço V se para todo v ∈ V existirem vetores
v1 , . . . , vk ∈ S e escalares x1 , . . . , xk ∈ K tais que
v = x 1 v1 + . . . + x k vk .
Denotaremos
V = hv1 , . . . , vk i .
1.17 Definição. Dizemos que um conjunto B ⊂ V é uma base para o espaço V se:
(i) B gera V e
(ii) B é LI.
S1 = {w1 , v2 , . . . , vk }
1 x2 xk
v1 = w1 − v 2 − . . . − vk ,
x1 x1 x1
de modo que se
v = y 1 v1 + y 2 v2 + . . . + y k vk ,
Rodney Josué Biezuner 11
então
y1 2 k
2 1x 1x
v = 1 w1 + y − y 1 v2 + . . . + yk − y 1 vk .
x x x
Agora, como S1 gera V e S 0 é LI, temos
para alguns escalares x12 , x22 , . . . , xk2 , com x22 , . . . , xk2 não todos nulos (caso contrário, w2 seria um múltiplo
escalar de w1 ). Supondo x22 6= 0, reordenando os ı́ndices se necessário, usamos o mesmo argumento acima
para concluir que podemos substituir v2 por w2 , de modo que o conjunto
S2 = {w1 , w2 , v3 , . . . , vk }
gera V . Repetindo este procedimento sucessivamente, concluı́mos que podemos substituir todos os vetores vi
por um número equivalente de wi (já que, por hipótese de absurdo, l > k), e assim obter que o subconjunto
próprio
Sk = {w1 , . . . , wk }
de S 0 gera V . Mas então, por definição de conjunto gerador, existem escalares x1k+1 , . . . , xkk+1 tais que
1.23 Teorema. Todas as bases de um espaço vetorial de dimensão finita possuem o mesmo número de
elementos.
Prova. Sejam
B1 = {v1 , . . . , vk } ,
B2 = {w1 , . . . , wl } ,
duas bases do espaço vetorial de dimensão finita V . Aplicando a proposição anterior ao conjunto gerador
B1 e ao conjunto LI B2 concluı́mos que l 6 k; aplicando a proposição anterior ao conjunto gerador B2 e ao
conjunto LI B1 concluı́mos que k 6 l. Portanto, k = l.
1.24 Definição. O número de elementos de uma base qualquer de um espaço vetorial de dimensão finita V
é chamada a dimensão do espaço e denotada dim V .
Se V = {0}, então definimos dim V = 0.
1.25 Corolário. Se dim V = n, então todo subconjunto de V com mais de n vetores é LD.
Prova. Segue imediatamente da Proposição 1.22.
1.26 Teorema. Todo espaço vetorial não nulo gerado por um subconjunto finito possui uma base finita.
Prova. Suponha que S seja um subconjunto finito que gera o subespaço vetorial não-nulo V . Se S for LI,
então S é a base procurada e não precisamos fazer nada. Caso contrário, se S é LD, podemos retirar um
elemento de S e o conjunto resultante ainda gerará V (retire um elemento que seja combinação linear dos
demais). Se o conjunto restante for LI, então ele será uma base finita para V . Caso contrário, repetimos o
procedimento, até obter um conjunto LI.
1.27 Lema. Seja S um subconjunto LI de um espaço vetorial V . Suponha que v é um vetor de V que não
pertence ao subespaço gerado por S. Então S ∪ {v} é LI.
Rodney Josué Biezuner 12
x1 v1 + . . . + xk vk + xv = 0.
x1 v1 + . . . + xk vk = 0,
S1 = {v1 , . . . , vk , vk+1 }
é LI. Se k + 1 < n, repetimos o processo. Se dim V = n, repetimos este processo n − k vezes até encontrar
um subconjunto
Sn−k = {v1 , . . . , vk , vk+1 , . . . , vn }
que é uma base para V .
A recı́proca é óbvia.
1.31 Exemplo. Se W1 , W2 são dois subespaços de V tais que
W1 W2 ,
W2 W1 ,
Rodney Josué Biezuner 13
w1 ∈ W1 \W2 ,
w2 ∈ W2 \W1 ,
sua interseção. Como cada Wλ contém o vetor nulo, segue que W também contém o vetor nulo, em particular
é não vazio e podemos usar a Proposição 1.30 para provar que W é um subespaço.
De fato, dados quaisquer v, w ∈ W , temos que v, w ∈ Wλ para cada ı́ndice λ ∈ Λ (por definição de
interseção de conjuntos), logo xv + yw ∈ Wλ para todos x, y ∈ K (pela Proposição 1.30, pois cada Wλ é um
subespaço de V ), portanto xv + yw ∈ W para todos x, y ∈ K (novamente, pela definição de interseção de
conjuntos). Segue da Proposição 1.30 que W é um subespaço.
Segue deste resultado que dado um subconjunto de um espaço vetorial, existe um menor subespaço que o
contém:
1.33 Proposição. Seja V um espaço vetorial e S um subconjunto não vazio de V . O subespaço W = hSi
gerado por S é a interseção de todos os subespaços de V que contém S.
Prova. Denote por W 0 a interseção de todos os subespaços de V que contém S. Pela Proposição 1.30, como
S ⊂ W 0 , segue que
W ⊂ W 0.
Por outro lado, pela Proposição 1.32 o conjunto W 0 é um subespaço de V , portanto fechado com relação a
combinações lineares de seus elementos, em particular dos elementos de S que ele contém, logo
W 0 ⊂ hSi = W.
Assim W 0 = W .
1.34 Teorema. Se W é um subespaço próprio de um espaço vetorial de dimensão finita V , então W também
tem dimensão finita e dim W < dim V .
Prova. Seja n = dim V . Qualquer subconjunto S ⊂ W LI em W é também LI em V , por definição de
independência linear. Como V tem dimensão finita, S não pode conter mais que n elementos, pela Proposição
1.25.
O resultado deste teorema é óbvio se W é o subespaço nulo. Se W não é o subespaço nulo, existe v1 ∈ W ,
v1 6= 0. Tome
S1 = {v1 } ,
de modo que S1 é um subconjunto LI de W . Estendemos S1 a uma base para W da seguinte forma: se S1
já é uma base para W , então não é necessário fazer mais nada; caso contrário, se S1 não gera W , usamos o
Lema 1.27 para encontrar um vetor v2 ∈ V \ hS1 i tal que
S2 = S1 ∪ {v2 } = {v1 , v2 }
é LI. Se S2 já é uma base para W , então não é necessário fazer mais nada; caso contrário, se S2 não gera W ,
usamos o Lema 1.27 novamente para encontrar um vetor v3 ∈ V \ hS2 i tal que
S3 = S2 ∪ {v3 } = {v1 , v2 , v3 }
Rodney Josué Biezuner 14
é LI. Continuando desta forma, obteremos necessariamente um conjunto LI Sk que gera W para algum k;
na pior das hipóteses obteremos no final um conjunto LI
Sn = {v1 , . . . , vn−1 }
que gera W , pois V não contém nenhum subconjunto LI com mais que n vetores e W V.
1.5 Coordenadas
A existência de bases permite identificar vetores de um espaço vetorial com um número finito de escalares,
o que permite lidar com vetores de maneira numerica e computacional:
1.35 Proposição. Sejam V um espaço vetorial e B uma base para V .
Todo vetor de V se escreve de maneira única como uma combinação linear de vetores de B.
Prova. Se V é um espaço vetorial de dimensão finita, isso é mais fácil de ver. Suponha que B = {e1 , . . . , en }
é uma base para V e que v ∈ V pode ser representado por duas combinações lineares de vetores de B:
v = v 1 e1 + . . . + v n en ,
0 0
v = v 1 e1 + . . . + v n en .
Então 0
0
v1 − v1 e1 + . . . + v n − v n en = 0,
0 0
e como B é LI, segue que v 1 = v 1 , . . . , v n = v n .
Suponha agora que V é um espaço vetorial de dimensão arbitrária e B = {ei }i∈I é uma base para V .
Dado v ∈ V , suponha que v pode ser representado por duas combinações lineares de vetores de B:
v = v λ1 eλ1 + . . . + v λk eλk ,
v = v µ1 eµ1 + . . . + v µl eµl ,
Então
k
X l
X
v λi eλi − v µj eµj = 0.
i=1 j=1
1.37 Definição. Sejam V um espaço vetorial de dimensão arbitrária e B = {ei }i∈I uma base para V . Dado
v ∈ V , se X
v= v i ei ,
i∈I
Rodney Josué Biezuner 15
Observe que a soma X
v= v i ei ,
i∈I
é sempre uma soma finita porque, com a exceção de um número finito de ı́ndices, todos os escalares são
nulos, logo não temos que nos preocupar com problemas de convergência.
1.6 Álgebras
1.38 Definição. Um K-espaço vetorial V munido de uma operação binária K-bilinear
∗ : V × V −→ V
u ∗ (v ∗ w) = (u ∗ v) ∗ w
para todos u, v, w ∈ V .
Dizemos que a álgebra é comutativa se
v∗w =w∗v
para todos v, w ∈ V .
Dizemos que a álgebra possui uma identidade se existe um vetor e ∈ V tal que
e∗v =v∗e=v
para todo v ∈ V .
Dizer que a operação produto é bilinear é equivalente a dizer que ela satisfaz a propriedade de distributividade,
isto é,
(xu + yv) ∗ w = x (u ∗ w) + y (v ∗ w) ,
u ∗ (xv + yw) = x (u ∗ v) + y (u ∗ w) ,
(xv) ∗ w = x (v ∗ w) = v ∗ (xw) ,
para todos u, v, w ∈ V e para todos x, y ∈ K. Quando existir, a identidade é única, pois se e, e0 ∈ V são duas
identidades, então por definição de identidade
e = ee0 = e0 .
1.39 Exemplo. K [x] com o produto usual de polinômios é uma álgebra associativa, comutativa e com
identidade.
1.40 Exemplo. R3 com o produto vetorial usual é uma álgebra não associativa, não comutativa e sem
identidade (o produto vetorial de dois vetores é sempre um terceiro vetor ortogonal a ambos).
Rodney Josué Biezuner 16
A : {1, . . . , m} × {1, . . . , n} −→ K.
As entradas (ou elementos) da matriz A são os escalares A (i, j) que denotaremos por Aij ; a matriz A
também frequentemente é denotada por A = Aij e representada graficamente por uma tabela retangular
com m linhas e n colunas, com a entrada Aij ocupando a linha i e a coluna j.
Uma matriz m × 1 é chamada uma matriz coluna e uma matriz 1 × n é chamada uma matriz linha.
O conjunto das matrizes m × n sobre o corpo K será denotado por
Mm×n (K)
1.43 Proposição. Mm×n (K) é um K-espaço vetorial com dimensão mn.
Prova: Uma base para Mm×n (K) é dada por
B = {Eij : 1 6 i 6 m e 1 6 j 6 n}
onde
k ij
(Eij )l = δkl .
1.44 Definição. Dadas duas matrizes sobre o corpo K, Am×p e Bp×n , o produto AB é a matriz m × p
definida por
p
X
i
(AB)j = Air Bjr .
r=1
1.45 Proposição. O produto de matrizes satisfaz as seguintes propriedades
(i) (Associatividade) Para todas matrizes A ∈ Mm×p (K), B ∈ Mp×q (K) e C ∈ Mq×n (K) vale
A(BC) = (AB)C.
A(B + C) = AB + AC,
(A + B)C = AC + BC.
Rodney Josué Biezuner 17
(iii) (Distributividade com relação à multiplicação por escalar) Para toda matriz A ∈ Mm×n (K) e para
todo escalar α ∈ K vale
α(AB) = (αA)B = A(αB).
(iv) (Existência de identidade) Se In ∈ Mn (K) := Mn×n (K) denota a matriz
1 0 ··· 0
0 1 ··· 0
In = . . . ,
.. .. . . ...
0 0 ··· 1
isto é,
i
(In )j = δji .
Então, para toda matriz A ∈ Mm×n (K) vale
AIn = Im A = A.
AB = BA = I.
B é chamada a inversa de A.
1.47 Proposição. Valem os seguintes fatos:
(i) Se uma matriz possui uma inversa, então esta inversa é única.
(ii) Se A é invertı́vel, então A−1 também é e (A−1 )−1 = A.
(iii) Se A, B são invertı́veis, então AB também é e
(AB)−1 = B −1 A−1 .
Rodney Josué Biezuner 18
AB1 = B1 A = I.
AB2 = B2 A = I.
Tomando a equação B1 A = I, por exemplo, e multiplicando ambos os lados desta equação à direita por B2 ,
obtemos
(B1 A)B2 = IB2 ⇒ B1 (AB2 ) = B2 ⇒ B1 I = B2 ⇒ B1 = B2 .
(iii) Para verificar isso, temos que mostrar que
(AB)B −1 A−1 = I,
B −1 A−1 (AB) = I.
AX = X,
Y A = Y,
então A = I.
Prova: Se
AX = X
para toda matriz coluna X, em particular tomando X = Ej obtemos
Aj = AEj = Ej .
onde Aj denota a j-ésima coluna de A. O segundo resultado segue do primeiro tomando transpostas.
Rodney Josué Biezuner 19
B = {e1 , . . . , en } ,
B0 = {e01 , . . . , e0n } ,
duas bases para o espaço vetorial V . Então existe uma única matriz invertı́vel P tal que
[v]B0 = P [v]B ,
[v]B = P −1 [v]B0 ,
para todo vetor v ∈ V , chamada a matriz de mudança de base de B para B0 , denotada também
P = PB→B0 ,
de modo que
[v]B0 = PB→B0 [v]B .
Em particular, tomando v = ei , segue que as colunas de P são dadas pelas coordenadas dos vetores da
base B com relação à base B0 , ou seja,
Pi = [ei ]B0 .
para i = 1, . . . , n.
Prova: Suponha que os vetores da base B se escrevem em coordenadas com relação à base B0 na forma
n
X
ej = Pji e0i ,
i=1
para cada j = 1, . . . , n, para certos escalares Pji ∈ K. Dado um vetor v ∈ V , suas coordenadas em relação
às bases B e B0 são, respectivamente,
n
X
v= v j ej ,
j=1
n
X 0
v= v i e0i .
i=1
Como
n
X
v= v j ej
j=1
n n
!
X X
= v j
Pji e0i
j=1 i=1
n
X n
X
= Pji v j e0i ,
i=1 j=1
ou seja,
[v]B0 = P [v]B
i
para a matriz P = Pj ∈ Mn (K). Analogamente, existe uma matriz Q ∈ Mn (K) tal que
[v]B = Q [v]B0 .
Em particular
1.52 Proposição. Se W1 , . . . , Wk são subespaços de um espaço vetorial V , então a sua soma W1 + . . . + Wk
também é um subespaço vetorial de V e contém cada um dos subespaços Wi , i = 1, . . . k.
Prova. Usando a Proposição 1.30, se
v = w1 + . . . + wk ,
v 0 = w10 + . . . + wk0 ,
são dois vetores quaisquer de W1 + . . . + Wk , com wi , wi0 ∈ Wi para cada i, e x, y são escalares quaisquer,
segue que
A última afirmação do enunciado é óbvia, pois o vetor nulo esta em cada um dos subespaços.
1.53 Teorema. Se W1 , W2 são dois subespaços de dimensão finita de um espaço vetorial V , então W1 + W2
também tem dimensão finita e
B1 = {e1 , . . . , en , f1 , . . . , fk }
B = {e1 , . . . , en , f1 , . . . , fk , g1 , . . . , gl } .
Basta provar que B é LI para terminar a demonstração, pois então B será uma base para W1 +W2 e portanto
dim W1 + dim W2 = (n + k) + (n + l)
= (n + k + l) + n
= dim (W1 + W2 ) + dim (W1 ∩ W2 ) .
Escrevendo
l
X n
X k
X
w := z i gi = − xi ei − y i fi ,
i=1 i=1 i=1
w1 = . . . = wn = z 1 = . . . = z l = 0.
Mas então w = 0 e
n
X k
X
xi ei + y i fi = 0;
i=1 i=1
x1 = . . . = xn = y 1 = . . . = y k = 0.
1.54 Definição. Sejam W1 , W2 dois subespaços de um espaço vetorial V . Se W1 ∩ W2 = {0}, dizemos que
os subespaços W1 , W2 são LI e sua soma W1 + W2 é chamada soma direta e denotada
W1 ⊕ W2 .
Rodney Josué Biezuner 22
1.56 Proposição. W = W1 ⊕ W2 se e somente se todo vetor w ∈ W se escreve de maneira única na forma
w = w1 + w2
com w1 ∈ W1 e w2 ∈ W2 .
Prova. Assuma que W1 ∩ W2 = {0}. Seja w ∈ W e suponha que
w = w1 + w2
w = w10 + w20
0 = v + (−v) ,
0 = 0 + 0.
1.57 Teorema. Seja V um espaço vetorial de dimensão finita de dimensão n. Então todo subespaço W ⊂ V
de dimensão k possui um complemento em V , isto é, existe um subespaço Z ⊂ V de dimensão n − k tal que
V = W ⊕ Z.
B = {e1 , . . . , ek , ek+1 , . . . , en } .
Então tomamos como Z o subespaço gerado pelos vetores ek+1 , . . . , en , isto é,
Z = hek+1 , . . . , en i .
Rodney Josué Biezuner 23
donde
k
X n
X
v i ei − v i ei = 0
i=1 i=k+1
seria uma combinação linear não trivial produzindo o vetor nulo, contradizendo o fato que B é LI.
1.58 Exemplo. Se ( n )
X
par 2i
K [x] = ai x : a0 , . . . an ∈ K, n ∈ N ,
i=0
é o subespaço dos polinômios ı́mpares (note que o polinômio nulo é simultaneamente par e ı́mpar), então
1.59 Exemplo. Se
Fpar = {f : R −→ R : f (x) = f (−x)} ,
é o subespaço das funções reais pares e
pois todo função f ∈ F (R; R) se escreve de forma única como uma soma f = g + h de uma função par g e
uma função ı́mpar h; basta tomar
f (x) + f (−x)
g (x) = ,
2
f (x) − f (−x)
h (x) = ,
2
e a função nula é a única função simultaneamente par e ı́mpar.
Generalizamos a Definição 1.54 e os resultados que lhe seguem para um número arbitrário de subespaços
de V :
Rodney Josué Biezuner 24
1.60 Definição. Seja V um espaço vetorial. Dizemos que os subespaços vetoriais W1 , . . . , Wk de V são LI
se
w1 + . . . + wk = 0
implicar
w1 = . . . = wk = 0.
Neste caso sua soma é chamada uma soma direta e denotada
W1 ⊕ . . . ⊕ Wk .
1.61 Proposição. Todo vetor de W = W1 ⊕ . . . ⊕ Wk se escreve de maneira única na forma
w = w1 + . . . + wk
com wi ∈ Wi para todo i.
1.62 Proposição. Sejam V um espaço vetorial e W1 , . . . , Wk subespaços de V . As seguintes afirmações
são equivalentes:
1.63 Lema. (i) W1 , . . . , Wk são LI.
(ii) Para cada 2 6 j 6 k nós temos
(W1 + . . . + Wj−1 ) ∩ Wj = {0} .
(iii) Se Bi é uma base para Wi então B = {B1 , . . . , Bk } é uma base para W1 + . . . + Wk .
Prova: (i) ⇒ (ii) Seja w ∈ (W1 + . . . + Wj−1 ) ∩ Wj . Então temos simultaneamente
w ∈ Wj ,
w = w1 + . . . + wj−1 ,
para alguns vetores wi ∈ Wi . Como
w1 + . . . + wj−1 − w + 0 + . . . + 0 = 0
concluı́mos que w1 = . . . = wj−1 = w = 0.
(ii) ⇒ (i) Suponha que
w1 + . . . + wk = 0
com wi ∈ Wi para cada i. Se existe algum wj não nulo, seja j o maior inteiro tal que wj 6= 0. Então
w1 + . . . + wj = 0 e
wj = −w1 − . . . − wj−1
contradizendo (W1 + . . . + Wj−1 ) ∩ Wj = {0}.
(i) ⇔ (iii) Óbvio.
BV = {e1 , . . . , en } ,
BW = {f1 , . . . , fm } ,
Lineomorfismos
2.1 Definição
Definida uma estrutura matemática sobre conjuntos (e portanto a especificação de uma determinada classe
de conjuntos, ou seja, aqueles que possuem esta estrutura, chamados objetos), o estudo desta estrutura só
é completo quando se estuda também as funções entre estes conjuntos que preservam esta estrutura, isto é,
os morfismos com respeito a esta estrutura (morfismos entre objetos). A classe de objetos (conjuntos que
possuem esta estrutura) juntamente com o conjunto de morfismos (funções que preservam esta estrutura)
é chamada uma categoria. Na Álgebra Linear, o objetivo é estudar a categoria dos espaços vetoriais sobre
o corpo K, caracterizados por uma estrutura linear, isto é, a capacidade de somar vetores e multiplicá-los
por escalares em K (em outras palavras, a capacidade de tomar combinações lineares). Os morfismos que
preservam esta estrutura linear são chamados aplicações lineares, mapas lineares, transformações lineares
ou, simplesmente, morfismos lineares ou lineomorfismos. Neste texto escolhemos estes últimos dois nomes.
2.1 Definição. Sejam V, W dois espaços vetoriais sobre um mesmo corpo K.
Uma função T : V −→ W é chamado um lineomorfismo ou morfismo linear se
para todos v, w ∈ V e x, y ∈ K.
Quando V = W , um morfismo linear T : V −→ V é chamado um operador linear.
Morfismos lineares preservam portanto as operações que definem um espaço vetorial, que são a soma de
vetores e a multiplicação de vetores por escalares, isto é, morfismos lineares preservam combinações lineares.
Preservar combinações lineares significa que a imagem de uma combinação linear de vetores é a mesma
combinação linear das imagens destes vetores.
2.2 Proposição. Se
T : V −→ W,
S : W −→ Z,
S ◦ T : V −→ Z
26
Rodney Josué Biezuner 27
Um lineomorfismo T : V −→ W leva a identidade do espaço vetorial V na identidade do espaço vetorial
W:
2.3 Proposição. Seja T : V −→ W um morfismo linear. Então T (0V ) = 0W .
Prova: Observe que estamos usando notações diferentes para os vetores nulos de cada espaço por motivos
de clareza. Temos
T (0V ) = T (00V ) = 0T (0V ) = 0W .
v = v i1 e i1 + . . . + v in e in
Podemos dizer ainda mais: para definir um morfismo linear T : V −→ W basta estipular os seus valores em
uma base e estender linearmente aos demais vetores de V :
2.5 Teorema. Sejam V um espaço vetorial, B = {ei }i∈I uma base para V e {fi }i∈I um conjunto de vetores
arbitrários de um espaço vetorial W .
Existe um único morfismo linear T : V −→ W tal que
T ei = fi
para todo i ∈ I.
Prova: Primeiro, o caso de dimensão finita: sejam B = {e1 , . . . , en } uma base para V e f1 , . . . , fn ∈ W
vetores arbitrários. Como todo vetor v ∈ V se escreve como uma combinação linear de maneira única
v = v 1 e1 + . . . + v n en ,
definimos T : V −→ W por
T v = v 1 f1 + . . . + v n fn .
Rodney Josué Biezuner 28
2.6 Definição. Sejam V, W K-espaços vetoriais. Denotamos o conjunto dos morfismos lineares de V em W
por Hom (V, W ).
Definimos uma estrutura de K-espaço vetorial em Hom (V, W ) por
para todo v ∈ V .
Se V = W , denotamos Hom (V, W ) simplesmente por Hom(V ).
2.1.2 Isomorfismos
2.7 Definição. Dizemos que dois espaços vetoriais V e W são isomorfos quando existe um lineomorfismo
bijetivo T : V −→ W cujo inverso é linear.
Neste caso, T é chamado um isomorfismo.
Como a composta de isomorfismos é um isomorfismo, dois espaços vetoriais serem isomorfos é uma relação
de equivalência. Assim, do ponto de vista da álgebra linear, dois espaços isomorfos são indistinguı́veis.
2.8 Proposição. Se T : V −→ W é um lineomorfismo injetivo, então a inversa T −1 : T (V ) −→ V é
automaticamente linear.
Prova: Dados w1 , w2 ∈ T (V ), sejam v1 , v2 ∈ V tais que
T (v1 ) = w1 ,
T (v2 ) = w2 .
Portanto,
T −1 (xw1 + yw2 ) = xv1 + yv2 = xT −1 (w1 ) + yT −1 (w2 ) .
2.9 Proposição. Um lineomorfismo é injetivo se e somente se T −1 (0) = 0.
Prova: Assuma T −1 (0) = 0. Se T (v) = T (w), por linearidade segue que T (v − w) = 0, logo v − w = 0 e
portanto v = w, ou seja, T é injetivo.
Reciprocamente, assuma T : V −→ W injetivo. Por linearidade T (0) = 0. Se T (v) = T (w), por
linearidade T (v − w) = 0, logo segue da injetividade de T que v − w = 0, ou seja v = w.
2.10 Teorema. Todo K-espaço vetorial de dimensão n é isomorfo a Kn .
Prova: Denote por ei o i-ésimo vetor da base canônica de Kn , isto é, o j-ésimo elemento da n-upla ei é
eji = δij ,
o delta de Kronecker. Sejam V um espaço vetorial de dimensão n e B = {v1 , . . . , vn } uma base para V .
Usando o Teorema 2.5, definimos um lineomorfismo T : V −→ Kn por
T (vi ) = ei ,
0 = x1 T (e1 ) + . . . + xn T (en ) = T x1 e1 + . . . + xn en ,
então
x1 e1 + . . . + xn en = 0
porque T é injetivo, o que por sua vez implica x1 = . . . = xn = 0.
2.12 Corolário. Sejam V e W espaços vetoriais isomorfos. Então dim V = dim W .
Prova: Segue dos Teoremas 2.10 e 2.11 e do fato de que a composta de um isomorfismo é um isomorfismo.
[v] = {w ∈ V : w ∼ v} .
[0] = U.
2.14 Definição. Seja U um subespaço do espaço vetorial V . As operações de soma e produto por escalar de
V induzem de forma natural operações de soma e produto por escalar no conjunto das classes de equivalência
módulo U por
[v] + [w] := [v + w] ,
x [v] := [xv] .
Com estas operações, o conjunto das classes de equivalência módulo U torna-se um espaço vetorial, chamado
o espaço quociente de V por U e denotado por
V /U.
Verifique que as operações estão bem definidas e que V /U satisfaz as propriedades de um espaço vetorial.
Rodney Josué Biezuner 31
2.15 Exemplo. Se V = R3 e U é um subespaço de dimensão 2 (isto é, um plano passando pela origem),
então as classes de equivalência de V /U são planos paralelos a U . Note que dois vetores v, w ∈ V pertencem
à mesma classe de equivalência, isto é, ao mesmo plano paralelo a U se sua diferença v − w (dada pela regra
do triângulo) é paralela ao plano U .
π|Z : Z −→ V /U
dim (V /U ) = dim Z,
dim V = dim Z + dim U,
2.17 Exemplo. No Exemplo 2.15, Z é qualquer reta passando pela origem não paralela a U .
Rodney Josué Biezuner 32
T (u1 ) = w1 ,
T (u2 ) = w2 .
T (v1 ) =: z1 ∈ Z,
T (v2 ) =: z2 ∈ Z.
φ : V / ker T −→ im T
[v] 7−→ T (v)
Observe que φ está bem definido, porque se [v] = [w], então v − w ∈ ker T , isto é, T (v − w) = 0, donde
T v = T w. Além disso, φ é linear porque
φ é injetivo porque se φ ([v]) = T (v) = 0, então v ∈ ker T , logo [v] = 0 em V / ker T . Finalmente, φ é
sobrejetivo, porque dado w ∈ im T , temos w = T v para algum v ∈ V , logo w = φ ([v]).
Rodney Josué Biezuner 33
Prova 2: Embora a segunda afirmativa decorra da primeira e do Teorema 2.16, já que
vamos dar-lhe uma demonstração independente, já que ela é a mais freqüentemente usada nas aplicações e
não necessita da introdução do conceito de espaço quociente.
Seja {e1 , . . . , ek } uma base para ker T e complete este conjunto LI até uma base {e1 , . . . , ek , ek+1 , . . . , en }
para V . Afirmamos que
B = {T ek+1 , . . . , T en }
é uma base para im T . De fato, dado
n
X
v= xi ei ,
i=1
temos
n
X
Tv = xi T ei ,
i=k+1
já que T e1 = . . . = T ek = 0, portanto B gera im T . Para provar que B é LI, suponha que
n
X
xi T ei = 0.
i=k+1
Então, !
n
X
i
T x ei = 0,
i=k+1
n
xi ei ∈ ker T . Como a interseção entre os subespaços ker T e hek+1 , . . . , en i é o vetor
P
o que implica que
i=k+1
n
xi ei = 0 e portanto xk+1 = . . . = xn = 0. Em particular,
P
nulo, por construção, segue que
i=k+1
Observe que o isomorfismo φ definido na demonstração do teorema torna o diagrama abaixo comutativo:
T
V −→ im T
↓π %
φ
V / ker T
2.20 Corolário. Sejam V e W espaços vetoriais com a mesma dimensão. Então um lineomorfismo T :
V −→ W é injetivo se e somente se ele é sobrejetivo.
Prova: Pois
dim W = dim V = dim (ker T ) + dim (im T ) ,
logo dim (ker T ) = 0 se e somente se dim (im T ) = dim W .
Rodney Josué Biezuner 34
BV = {e1 , . . . , en } ,
BW = {e01 , . . . , e0m }
donde
n
X n
X
Tv = T v j ej = v j T (ej ) .
j=1 j=1
m
X
T (ej ) = Aij e0i ,
i=1
T (ej ) = ... = Aj .
Amj
Aj = [T (ej )]BW .
A matriz A = Aij m×n é chamada a representação matricial do lineomorfismo T com relação às bases
BV e BW . Esta representação de T também será denotada por
A = [T ]BV ,BW .
A = [T ]B
e vale
[T v]B = [T ]B [v]B .
BV = {e1 , . . . , en } ,
BW = {e01 , . . . , e0m } ,
BW = e001 , . . . , e00p ,
Rodney Josué Biezuner 35
respectivamente. Sejam
T : V −→ W,
S : W −→ Z,
Em particular, se V = W = Z e BV = BW = BZ = B, então
[S ◦ T ]B = [S]B [T ]B .
Prova: Sejam
Temos
m
! m
X X
(S ◦ T ) (ej ) = S [T (ej )] = S Aij e0i = Aij S (e0i )
i=1 i=1
p p
m m
!
X X X X
= Aij Bik e00k = Bik Aij e00k
i=1 k=1 k=1 i=1
p
X k
= (BA)j e00k .
k=1
TS = T ◦ S
é uma álgebra associativa (pois a composição de funções é associativa), não comutativa se dim V > 2
(exercı́cio) e com identidade (o operador identidade).
2.23 Definição. Um morfismo entre álgebras (V, ∗) e (W, ·) é um lineomorfismo φ : V −→ W que
preserva o produto, isto é,
φ (v ∗ w) = φ (v) · φ (w)
para todos v, w ∈ V .
Um morfismo entre álgebras com identidade também preserva a identidade, ou seja,
φ (1V ) = 1W .
Rodney Josué Biezuner 36
Em outras palavras, um morfismo entre álgebras preserva as duas estruturas que caracterizam uma álgebra:
a estrutura linear e o produto entre vetores.
2.24 Corolário. Fixe bases BV e BW para os K-espaços vetoriais V e W , respectivamente, com dim V = n
e dim W = m. Então a aplicação
Φ : Hom (V, W ) −→ Mm×n (K)
definida por
T 7→ [T ]BV ,BW
é um isomofismo entre espaços vetoriais. Em particular,
−1
[T ]B0 = [U ]B0 [T ]B [U ]B0 .
Rodney Josué Biezuner 37
2.26 Definição. Sejam A, B ∈ Mn (K) duas matrizes quadradas. Dizemos que A e B são semelhantes se
existe uma matriz invertı́vel P ∈ Mn (K) tal que
B = P −1 AP.
Segue do Teorema 2.25 que duas matrizes são semelhantes se em um K-espaço vetorial elas representam o
mesmo lineomorfismo em relação a duas bases (possivelmente) distintas. Observe que similaridade é uma
relação de equivalência em Mn (K).
Podemos dizer mais: se dois operadores lineares distintos possuem a mesma matriz em relação a bases
diferentes, então eles diferem apenas por conjugação de um isomorfismo, como provado a seguir.
2.27 Teorema. Sejam V um espaço vetorial de dimensão finita e T, S ∈ Hom (V ) operadores lineares.
Existem bases B, B0 de V tais que
[T ]B = [S]B0
se e somente se existe um operador linear U ∈ Hom (V ) tal que
T = U SU −1 .
B = {e1 , . . . , en } ,
B0 = {e01 , . . . , e0n } ,
de V tais que
[T ]B = [S]B0 =: A.
Defina U ∈ Hom (V ) por
U e0i = ei .
Temos
U SU −1 ei = U Se0i
X n
=U Aji e0i
j=1
n
X
= Aji U (e0i )
j=1
Xn
= Aji ei
j=1
= T ei ,
de modo que
U SU −1 = T.
Reciprocamente, suponha que exista U ∈ Hom (V ) tal que
T = U SU −1 .
seja
A := [S]B0
e defina outra base de V
B = {e1 , . . . , en }
por
ei = U e0i .
Então,
T ei = U SU −1 ei
= U Se0i
X n
=U Aji e0i
j=1
n
X
= Aji U (e0i )
j=1
n
X
= Aji ei .
j=1
de modo que
A = [T ]B .
2.28 Teorema (Forma Canônica de um Morfismo Linear). Sejam V, W espaços vetoriais de dimensão
finita com
dim V = n,
dim W = m,
e T ∈ Hom (V, W ). Então existem bases BV , BW tais que [T ]BV ,BW tem a forma em blocos
I 0
[T ]BV ,BW = .
0 0
Mais precisamente,
Ir 0r×(n−r)
[T ]BV ,BW = ,
0(m−r)×r 0(m−r)×(n−r)
onde r = dim im T .
Prova: Pelo Teorema do Núcleo e da Imagem,
dim ker T = n − r.
Seja
Bker T = {er+1 , . . . , en }
uma base para o núcleo de T e
BV = {e1 , . . . , er , er+1 , . . . , en }
Rodney Josué Biezuner 39
T (e1 ) = f1 ,
..
.
T (er ) = fr ,
T (er+1 ) = 0,
..
.
T (en ) = 0,
A anticomutatividade, quando K é um corpo com caracterı́stica zero implica que
[v, v] = 0.
Observe que a identidade de Jacobi é uma identidade cı́clica que está no lugar da associatividade. De fato,
o colchete de Lie não é em geral associativo. A associatividade de [, ] é equivalente a
e, como o colchete de Lie é anticomutativo, o primeiro termo se cancelaria com o terceiro, restando
[v, w] = v ∗ w − w ∗ v
Assim, a existência de um produto associativo em V automaticamente permite definir um colchete de Lie
em V e V possui duas estruturas de álgebra: uma álgebra associativa e sua álgebra de Lie derivada desta.
Note que se a álgebra ∗ de V for comutativa, então a álgebra de Lie derivada é trivial:
[v, w] = v ∗ w − w ∗ v = v ∗ w − v ∗ w = 0
para todos v, w ∈ V .
2.32 Definição. Definimos o colchete de Lie em Mn (K) por
[A, B] = AB − BA.
[T, S] = T S − ST = T ◦ S − S ◦ T.
2.33 Proposição. Mn (K) e Hom (V ) munidos do produto colchete são álgebras de Lie isomorfas.
O colchete de Lie de matrizes [A, B] também é chamado de comutador, pois mede o quanto as matrizes
A, B não comutam.
2.34 Exemplo. Álgebras de Lie podem se comportar de maneiras bem diferentes. Enquanto que em R3
com o produto vetorial, todo vetor u pode ser escrito como o produto vetorial de dois outros vetores, isto é,
existem vetores v, w tais que u = v × w, isso não é verdade para Mn (K). Dada uma matriz A, se existirem
matrizes B, C tais que A = [B, C], como o traço é um funcional linear e
n n n
!
X i
X X
tr (AB) = (AB)i = Aik Bik
i=1 i=1 k=1
Xn Xn
= Aik Bik = Bik Aik
i,k=1 i,k=1
n n
! n
X X X k
= Bik Aik = (BA)k
k=1 i=1 k=1
= tr (BA) ,
W = {C ∈ Mn (K) : tr C = 0} .
Veja [HK], p. 107, Exercı́cio 17, para sugestões para a prova deste resultado.
Rodney Josué Biezuner 42
dim V ∗ = dim V.
2.36 Definição. Sejam V um espaço vetorial sobre um corpo K e B = {e1 , . . . , en } uma base para V .
A base dual de B é a base B∗ = {e∗1 , . . . , e∗n } para V ∗ definida por
n
X
f= f (ei ) e∗i ,
i=1
ou seja, as coordenadas de f na base dual são f (e1 ) , . . . , f (en ), e para todo vetor v ∈ V nós temos
n
X
v= e∗i (v) ei ,
i=1
ou seja, as coordenadas de v são e∗1 (v) , . . . , e∗n (v). Portanto, os funcionais e∗i são simplesmente as
funções coordenadas.
então !
n
X n
X n
X
xj = xi δij = xi [e∗i (ej )] = xi e∗i (ej ) = 0 (xj ) = 0
i=1 i=1 i=1
para todo j.
Para provar que B∗ gera V ∗ , seja f ∈ V ∗ . Então, para todo j vale
n n
" n #
X X X
f (ej ) = f (ei ) δij = f (ei ) [e∗i (ej )] = f (ei ) e∗i (ej ) ,
i=1 i=1 i=1
e como
n
X
f (ei ) e∗i
i=1
Rodney Josué Biezuner 43
define um funcional linear (combinação linear dos funcionais lineares e∗i ) por unicidade de um lineomorfismo
definido em uma base, segue a primeira fórmula do enunciado.
A segunda fórmula do enunciado segue do fato de que se
n
X
v= xi ei ,
i=1
2.38 Definição. O espaço dos funcionais lineares L (V ∗ , K) definidos no dual de V é denotado por V ∗∗ e
chamado o bidual de V .
2.39 Teorema. Seja V um espaço vetorial de dimensão finita. Então V e V ∗∗ são canonicamente isomorfos.
Mais precisamente, o isomorfismo canônico Φ : V −→ V ∗∗ é definido por
Φ (v) = Lv ,
Φ é linear porque
Φ (xv + yw) = Lxv+yw = xLv + yLw
pois para todo f ∈ V ∗ temos
2.40 Corolário. Seja V um espaço vetorial de dimensão finita. Se L ∈ V ∗∗ então existe um único vetor
v ∈ V tal que
L (f ) = f (v)
para todo f ∈ V ∗ .
Rodney Josué Biezuner 44
2.41 Corolário. Seja V um espaço vetorial de dimensão finita. Toda base para V ∗ é o dual de alguma base
para V .
Prova: Seja B∗ = {f1 , . . . , fn } uma base qualquer para V ∗ . Seja B∗∗ = {L1 , . . . , Ln } sua base dual em V ∗∗ ,
ou seja,
Li (fj ) = δij .
Usando o corolário anterior, sejam e1 , . . . , en ∈ V os únicos vetores tais que
Li (f ) = f (ei )
para todo f ∈ V ∗ , para todo i. Usando a notação do Teorema 2.39, segue que o isomorfismo Φ leva B em
B∗∗ , isto é,
Li = Lei ,
e como isomorfismos levam bases em bases, concluı́mos que B = {e1 , . . . , en } é uma base para V . Daı́,
Também é frequente denotar o funcional dual v ∗∗ simplesmente por v, identificando V com V ∗∗ , já que o
isomorfismo dado pelo Teorema 2.39 é natural. Desta maneira, podemos escrever
v (f ) = f (v) .
T : V −→ W
para todo g ∈ W ∗ .
Prova: De fato, se g é um funcional linear em W , a fórmula
f = g ◦ T,
define f um funcional linear em V , composta de dois morfismos lineares, como no diagrama comutativo
abaixo:
f
V −→ R
↓T %
g
W
Rodney Josué Biezuner 45
para todo v ∈ V .
U 0 = {f ∈ V ∗ : f |U = 0} .
Em outras palavras,
U 0 = {f ∈ V ∗ : f (u) = 0 para todo u ∈ U } .
Note que
V 0 = 0,
00 = V ∗ .
ker ı∗ = U 0 ,
im ı∗ = U ∗ ,
donde
dim U ∗ + dim U 0 = dim V ∗ .
Como
dim U ∗ = dim U,
dim V ∗ = dim V,
segue o resultado.
Rodney Josué Biezuner 46
2.45 Teorema. Sejam V , W espaços vetoriais de dimensão finita e T ∈ Hom (V, W ). Então valem
(i)
0
ker T ∗ = (im T ) .
0
im T ∗ = (ker T ) .
(ii)
dim ker T ∗ = dim ker T + (dim W − dim V ) .
dim im T ∗ = dim im T.
0
Prova: (i) ker T ∗ ⊂ (im T ) : se g ∈ ker T ∗ , então
0 = T ∗ (g) = g ◦ T
0 0
e portanto g ∈ (im T ) . A recı́proca (im T ) ⊂ ker T ∗ segue da mesma equação.
0
im T ∗ ⊂ (ker T ) : se f ∈ im T ∗ , então existe g ∈ W ∗ tal que
f = T ∗ (g) = g ◦ T.
Se v ∈ ker T , então
f (v) = g (T (v)) = g (0) = 0,
0
de modo que f ∈ (ker T ) . Para provar que eles são iguais, basta mostrar que eles tem a mesma dimensão.
Pelo item (ii) a seguir, cuja demonstração independende da equação que queremos demonstrar (ele depende
da primeira equação do presente item), pelo Teorema do Núcleo e da Imagem e pela Proposição 2.44 temos
dim im T ∗ = dim im T
= dim V − dim ker T
0
= dim (ker T ) .
(ii) Temos pela primeira equação do item (i), pela Proposição 2.44 e pelo Teorema do Núcleo e da Imagem,
0
dim ker T ∗ = dim (im T )
= dim W − dim im T
= dim W − (dim V − dim ker T )
= dim ker T + dim W − dim V.
De modo semelhante, temos pelo Teorema do Núcleo e da Imagem, novamente pela primeira equação do
item (i) e pela Proposição 2.44
Rodney Josué Biezuner 47
⇔ T ∗ é sobrejetivo.
A = [T ]BV ,BW
é a matriz de T com respeito às bases BV e BW , então a matriz do morfismo dual T ∗ com respeito às
bases duais B∗W e B∗V é a transposta de A, isto é,
At = [T ∗ ]B∗ ∗ .
W ,BV
Prova: Sejam
BV = {v1 , . . . , vn } , BW = {w1 , . . . , wn } ,
B∗V = {v1∗ , . . . , vn∗ } , B∗W = {w1∗ , . . . , wn∗ } .
Denote por B a matriz do morfismo dual em relação às bases duais. Então, por definição,
m
X
T vj = Aij wi , j = 1, . . . , n,
i=1
Xn
T ∗ wj∗ = Bji vi∗ , j = 1, . . . , m.
i=1
Rodney Josué Biezuner 48
Daı́, de um lado
m
! m m
X X X
∗
wj∗ wj∗ wj∗ Aki wk Aki wj∗ (wk ) = Aki δjk = Aji ,
T (vi ) = (T vi ) = =
k=1 k=1 k=1
logo
i
Bji = Aji = At j
.
2.49 Definição. Seja A ∈ Mm×n (K).
A dimensão do subespaço em Kn gerado pelas linhas de A é chamado o posto de A e denotado por
rank A.
A dimensão do subespaço em Kn solução do sistema homogêneo AX = 0 é chamado a nulidade de A e
denotado por nul A.
2.50 Corolário. Seja A ∈ Mm×n (K). Então
rank A = rank At .
nul A = nul At .
Determinantes
3.1 Definição
Definiremos a função determinante a partir das propriedades que queremos que ela satisfaça. Provaremos
depois que de fato existe uma função que satisfaz estas propriedades.
3.1 Definição. Identificaremos o espaço das matrizes quadradas Mn (K) com o espaço Kn × . . . × Kn ,
identificando colunas de uma matriz com vetores de Kn . Uma função determinante é uma função
det : Kn × . . . × Kn −→ K
para todos i, j = 1, . . . , n, A1 , . . . , An ∈ Kn .
(D3)
det I = 1.
Além de escrever det A ou det (A1 , . . . , An ) para a matriz A cujas colunas são A1 , . . . , An , também usaremos
a notação mais compacta
quando estiver claro do contexto que as outras colunas são mantidas fixas; em geral, em uma função k-linear
qualquer destacaremos apenas as colunas que não estiverem fixas ou que desempenharem um papel relevante
nas demonstrações.
49
Rodney Josué Biezuner 50
D (Ai , Aj ) = −D (Aj , Ai ) .
D (A, A) = 0
i j
D (A, A) = 0
i i+1
(Observe que a hipótese de indução pôde ser usada, na passagem da antepenúltima linha para a penúltima
linha, porque no segundo termo da antepenúltima linha a (i + k)-ésima coluna é Ai+k+1 = Ai e a hipótese
de indução é válida para j = k.)
Para matrizes sobre um corpo K arbitrário, a propriedade (D2) na definição de determinante é trocada pela
condição (ii) ou (iii) da Proposição 3.2 (elas são equivalentes para quaisquer corpos), e obtemos a mesma
teoria de determinantes para corpos arbitrários.
3.2 Existência
3.3 Definição. Seja A ∈ Mn (K). O menor A (i|j) é a matriz em Mn−1 (K) obtida ao se eliminar a i-ésima
linha e a j-ésima coluna de A.
3.4 Teorema (Existência da Função Determinante). Existe pelo menos uma função determinante.
Prova: A função determinante é construı́da indutivamente. Em M1 (K) = K definimos simplesmente
det A = A11 . Em M1 (K), definimos
A11 A12
det A = det = A11 A22 − A12 A21 .
A21 A22
É fácil verificar que estas funções satisfazem as condições (D1)-(D3) da Definição 3.1.
Em geral, tendo definido uma função determinante em M1 (K) , . . . , Mn−1 (K), definimos uma função
determinante em Mn (K) através da fórmula
n
X i+j
det A = (−1) Aij det A (i|j) .
j=1
fixando algum i (por exemplo, i = 1). Esta é a chamada fórmula do determinante através da expansão em
cofatores segundo a i-ésima linha de A. Esta será uma definição recursiva do determinante. Vamos verificar
por indução que a função assim definida satisfaz as propriedades (D1)-(D3):
(D1) Sejam
A = (C1 , . . . , Ak , . . . , Cn ) ,
B = (C1 , . . . , Bk , . . . , Cn ) ,
L = (C1 , . . . , xAk + yBk , . . . , Cn ) .
é
i+k i+k i i+k i
xAik + yBki det L (i|k) = x (−1)
(−1) Ak det L (i|k) + y (−1) Bk det L (i|k)
i+k i+k
= x (−1) Aik det A (i|k) + y (−1) Bki det B (i|k) .
Portanto,
n
X n
X
i+j i+j
det L = x (−1) Aij det A (i|j) + y (−1) Bji det B (i|j)
j=1 j=1
= x det A + y det B.
(D2) Em vista da Proposição 3.2, basta provar que se A tem duas colunas adjacentes iguais então det A = 0.
Seja A = (A1 , . . . , An ) e suponha que Ak = Ak+1 . Se j 6= k e j 6= k + 1, então a matriz A (i|j) tem duas
colunas iguais, logo por hipótese de indução det A (i|j) = 0 e
i+k i+k+1
det A = (−1) Aik det A (i|k) + (−1) Aik+1 det A (i|k + 1)
i+k
Aik det A (i|k) − Aik+1 det A (i|k + 1) .
= (−1)
Como Ak = Ak+1 , temos Aik = Aik+1 e A (i|k) = A (i|k + 1), portanto det A = 0.
(D3) Se In é a matriz identidade n × n, então In (i|i) = In−1 é a matriz identidade (n − 1) × (n − 1). Logo,
n
X i+j 2i
det In = (−1) δji det In (i|j) = (−1) det In−1 = 1.
j=1
Rodney Josué Biezuner 53
3.3 Unicidade
Para estabelecer a unicidade da função determinante e algumas de suas propriedades especiais, precisaremos
reescrever a sua definição de uma forma não recursiva. Nesta introdução, queremos apenas desenvolver a
intuição para o que virá a seguir.
A11 A12 A13 A14
A21 A22 A23 A24
A3 A33 A34
1 A32
A41 A42 A43 A44
A primeira coisa a notar é que o determinante de uma matriz pode ser descrito como sendo simplesmente
a soma de n! termos, cada um deles um produto de n elementos da matriz, cada um dos elementos deste
produto ocupando uma linha e uma coluna que nenhum outro elemento do produto ocupa, multiplicado por
um certo sinal positivo ou negativo. Por exemplo, na matriz acima destacamos o termo
para j1 variando entre 1 e n. Cada um dstes termos pode por sua vez ser expandido, por exemplo em
cofatores a partir da primeira linha do menor (que está na segunda linha de A), cada termo sendo da forma
(mais uma vez desprezando os sinais)
para j2 entre 2 e n; o sı́mbolo A (1|j1 ) (2|j2 ) significa que primeiro removemos a linha 1 e a coluna j1 da
matriz A e depois removemos da matriz resultante a linha 2 e a coluna j2 (contadas em relação à matriz A),
obtendo uma matriz (n − 2) × (n − 2). Continuando este processo obtemos n! termos da forma
multiplicados pelo sinal +1 ou −1, dependendo de alguma forma da bijeção j : {1, . . . , n} −→ {1, . . . , n}
escolhida. Portanto o determinante é da forma
X
det A = (sign j) A1j1 . . . Anjn
n! bijeções j
onde sign j = ±1. Vamos formalizar isso melhor, descobrir como calcular o sinal de cada bijeção e prin-
cipalmente desenvolver uma boa notação na qual poderemos explicar de maneira mais clara e desenvolver
de forma mais rápida os argumentos que serão usados para provar a unicidade e demais propriedades do
determinante.
3.8 Definição. Se B = {e1 , . . . .en } denota a base canônica de Kn , a representação matricial da permutação
p é também a representação matricial do operador linear T : Kn −→ Kn definido por
T ej = epj
G × G −→ G
(g, h) 7→ gh
Rodney Josué Biezuner 55
g (hk) = (gh) k.
eg = ge = g.
gg −1 = g −1 g = e.
gh = hg
para todos g, h ∈ G.
3.10 Exemplo. Qualquer corpo é um grupo comutativo com relação à operação de soma e, eliminando o
zero, é um grupo comutativo com relação à operação produto.
Qualquer espaço vetorial V é um grupo comutativo com relação à operação de soma de vetores.
O conjunto das matrizes invertı́veis n × n com relação à operação usual de produto de matrizes é um
grupo, não comutativo se n > 2, chamado o grupo linear e denotado GLn (K). Ele não é um grupo com
relação ao produto colchete de Lie, porque este não é associativo.
O conjunto das matrizes de permutação An é um grupo com relação ao produto de matrizes, não co-
mutativo se n > 3. O conjunto dos operadores de permutação An é um grupo com relação ao produto de
operadores (composição), não comutativo se n > 3.
Dado um conjunto S, o conjunto de todas as bijeções de S em S sob a operação de composição de funções
é um grupo não comutativo (se S contém mais que dois elementos).
O conjunto dos operadores linear invertı́veis GL (V ) sob a operação de composição de operadores é um
grupo, não comutativo se dim V > 2.
Em particular, do penúltimo exemplo segue que:
3.11 Proposição. O conjunto Sn das permutações de grau n sob a operação de composição de permutações
é um grupo, não comutativo se n > 2.
3.12 Exemplo. Se
1 2 3 4 5 1 2 3 4 5
p= eq= ,
4 2 5 3 1 2 1 5 4 3
então
1 2 3 4 5 −1 1 2 3 4 5
qp = ep = .
4 1 3 5 2 5 2 4 1 3
Se
1 2 3 1 2 3
p= eq= ,
1 3 2 2 1 3
então
1 2 3
pq =
3 1 2
1 2 3
qp =
2 3 1
Rodney Josué Biezuner 56
3.13 Definição. Dados dois grupos G e H, um homomorfismo entre eles é um mapa φ : G −→ H que
preserva a operação de grupo, isto é,
φ (gh) = φ (g) φ (h) .
τi = j,
τj = i,
τk = k para todo k 6= i, j.
3.17 Exemplo. A permutação de grau 7
1 2 3 4 5 6 7
τ=
1 2 6 4 5 3 7
cuja matriz é
1 0 0 0 0 0 0
0 1 0 0 0 0 0
0 0 0 0 0 1 0
A=
0 0 0 1 0 0 0
0 0 0 0 1 0 0
0 0 1 0 0 0 0
0 0 0 0 0 0 1
é uma transposição.
Rodney Josué Biezuner 57
Note que, embora a identidade seja uma transposição e a inversa de uma transposição seja ela própria
τ −1 = τ
porque
τ 2 = id,
a composta de transposições não é uma transposição, e portanto o subconjunto das transposições não é um
subgrupo de Sn . Na realidade, provaremos na próxima seção que toda permutação pode ser decomposta
como um produto de transposições (não de forma única), o que é intuitivamente fácil de ver.
Como última observação, note que se já sabemos que τ é uma transposição, para determinar τ basta
definir o valor de τ em um ı́ndice que é transposto por τ ; no exemplo anterior, basta saber que τ3 = 6 , já
que pelo fato de τ ser uma transposição imediatamente segue que τ6 = 3 e τk = k para k 6= 3, 6.
D1 (I) = D2 (I) ,
então
D1 (A) = D2 (A)
para toda matriz de permutação A.
Prova: Seja A a matriz da permutação p. Um número finito de trocas de colunas (no máximo n − 1)
transforma a matriz A na matriz identidade: transponha o vetor e1 para a primeira coluna (se ele já não for
a primeira coluna), obtendo uma matriz A1 ; depois transponha o vetor e2 para a segunda coluna (se ele já
não for a segunda coluna), obtendo a matriz A2 e assim sucessivamente.
Mais precisamente, cada matriz Ai é a matriz de uma permutação pi ; trocar duas colunas de Ai equivale
a obter a matriz da permutação pi+1 que é o produto da permutação pi pela transposição τ que troca as
colunas Aii+1 e a coluna igual a ei+1 . De fato, se no primeiro passo
p1 = j1 6= 1,
pk1 = 1,
p1 = pτ 1
satisfaz
(pτ )1 = p (τ1 ) = pk1 = 1,
e portanto a matriz A1 da permutação p1 possui o vetor e1 na primeira coluna. Por indução, se através de
multiplicar pelas transposições apropriadas obtivemos uma permutação
pi = pτ 1 . . . τ i
cuja matriz Ai possui os vetores e1 , . . . , ei nas colunas 1, . . . , i, respectivamente, se a coluna i+1 está ocupada
pelo vetor eji+1 6= ei+1 e o vetor ei+1 ocupa a coluna ki > i, isto é, a permutação pi satisfaz
pii+1 = ji+1 6= i + 1,
piki = i + 1,
Rodney Josué Biezuner 58
i+1
consideramos a transposição τi+1 = ki , de modo que se definirmos
pi+1 = pi τ i+1
então
pi+1 i i+1 i+1
= pi τi+1
i+1 = p τ i+1
= ki = i,
e a matriz Ai+1 da permutação pi+1 possui o vetor ei+1 na coluna i + 1.
Resumindo, se forem necessárias k transposições para transformar a matriz A na matriz identidade, temos
A0 = matriz da permutação p = A,
A1 = matriz da permutação pτ 1 ,
A2 = matriz da permutação pτ 1 τ 2 ,
..
.
Ak−1 = matriz da permutação pτ 1 τ 2 . . . τ k−1 ,
Ak = matriz da permutação pτ 1 τ 2 . . . τ k−1 τ k = id
= I,
Em particular, este argumento mostra que dada uma permutação p, existem transposições τ 1 , . . . , τ k tais
que
pτ 1 . . . τ k = id .
Como a inversa de uma transposição é ela própria, concluı́mos que
p = τ k . . . τ 1,
Assim, o valor de uma função n-linear alternada de qualquer matriz de permutação é caracterizado pelo
valor que ela assume na matriz identidade. Em particular,
k
D1 (A) = (−1) D1 (I) ,
k
D2 (A) = (−1) D2 (I) ,
Prova: Sejam A1 , . . . , An ∈ Kn vetores arbitrários. Escrevendo estes vetores em termos da base canônica
de Kn :
Xn
Aj = Aij ei ,
i=1
sempre que a função i : I −→ I não for uma permutação, isto é, sempre que i for tal que ik = il para algum
par de ı́ndices k 6= l. Logo,
X p
D1 (A1 , . . . , An ) = A11 . . . Apnn D1 (ep1 . . . epn ) ,
p∈Sn
X
D2 (A1 , . . . , An ) = Ap11 . . . Apnn D2 (ep1 . . . epn ) ,
p∈Sn
Em outras palavras, quando as posições das colunas de uma matriz são trocadas através de uma per-
mutação, o sinal do determinante não se altera se esta permutação é um número par de transposições e o
sinal muda se ela é um número ı́mpar de transposições.
Em particular, embora a fatoração de uma permutação p em transposições não seja única, o número
destas transposições é sempre par ou sempre ı́mpar.
Prova: Segue da demonstração do Lema 3.18.
sign p = det A
k
sign p = (−1) .
3.24 Corolário (Fórmula do Determinante através de Permutações). Vale
X
det (A1 , . . . , An ) = (sign p) Ap11 . . . Apnn .
p∈Sn
p = τk . . . τ1
então
p−1 = τ 1 . . . τ k ,
de modo que p e p−1 tem o mesmo número de transposições.
Rodney Josué Biezuner 61
Prova: Temos X
det A = (sign p) Ap11 . . . Apnn .
p∈Sn
Agora, observe que se pi = j, então i = pj−1 , logo Api i = Ajp−1 . Como sign p = sign p−1 , segue que
j
X
sign p−1 A1p−1 . . . Anp−1
det A =
1 n
p−1 ∈Sn
X
= (sign q) A1q1 . . . Anqn
q∈Sn
X q 1 qn
= (sign q) At 1
. . . At n
q∈Sn
= det At .
3.27 Corolário. O cálculo do determinante de uma matriz pode ser feito através da expansão em cofatores
a partir de qualquer coluna da matriz.
3.28 Proposição (Determinante do Produto).
podemos escrever
n
X
(AB)j = Bjr Ar .
r=1
Portanto, !
n
X n
X
det (AB) = det B1r Ar , . . . , Bnr Ar .
r=1 r=1
Rodney Josué Biezuner 62
Usando a n-linearidade e alternalidade do determinante da mesma forma como no Teorema 3.19, obtemos
X p
det (AB) = B1 1 . . . Bnpn det (Ap1 , . . . , Apn )
p∈Sn
X
= (sign p) B1p1 . . . Bnpn det (A1 , . . . , An )
p∈Sn
X
= (sign p) B1p1 . . . Bnpn det A
p∈Sn
X
= det A (sign p) B1p1 . . . Bnpn
p∈Sn
= det A det B.
3.29 Corolário (Determinante da Inversa). Se A for invertı́vel, então det A 6= 0 e
1
det A−1 =
.
det A
Prova: Pois
det AA−1 = det A det A−1
e
det AA−1 = det I = 1.
3.30 Corolário. Matrizes semelhantes possuem o mesmo determinante.
Prova: Pois, se B = P −1 AP , então
1
det B = det P −1 AP = det P −1 det A det P =
det A det P = det A.
det P
Como consequência deste resultado e do fato dos representantes matriciais de um operador linear em
relação a diferentes bases serem matrizes semelhantes, podemos definir o determinante de um operador
linear:
det T = det A,
AX = b.
Rodney Josué Biezuner 63
Suponha que
n
X
X= xj ej
j=1
seja uma solução para esta equação. Se Aj denota a j-ésima coluna da matriz A, temos
Xn Xn Xn
b = AX = A xj ej = xj Aej = x j Aj .
j=1 j=1 j=1
Denote por A [k|b] a matriz obtida de A através da substituição da k-ésima coluna de A pelo vetor b. Então
de modo que
n
X
det A (k|b) = det A1 , . . . , Ak−1 , xj Aj , Ak+1 , . . . , An
j=1
n
X
= xj det (A1 , . . . , Ak−1 , Aj , Ak+1 , . . . , An )
j=1
Portanto, se det A 6= 0 e existir uma solução x para o sistema Ax = b, então esta solução é única e é dada
por
det A (k|b)
xk = .
det A
Podemos dizer mais: se det A 6= 0, então a expressão acima fornece a única solução para o sistema AX = b
(veja Teorema 3.33 a seguir). Esta é a chamada regra de Cramer.
3.32 Definição. A adjunta clássica da matriz A é definida como sendo a matriz transposta da matriz de
cofatores da matriz A, isto é,
i i+j
(adj A)j = (−1) det A (j|i) .
3.33 Teorema (Fórmula da Inversa). Temos
adj A
A−1 = .
det A
Rodney Josué Biezuner 64
Prova: Denote B = A [i|Aj ], isto é, a matriz B é obtida a partir da matriz A quando substituı́mos a i-ésima
coluna de A pela sua j-ésima coluna. Temos então
n
X
i i
[(adj A) A]j = (adj A)r Arj
r=1
n
X i+r
= (−1) det A (r|i) Arj
r=1
n
X i+r
= (−1) Arj det A (r|i)
r=1
n
X i+r
= (−1) Bir det B (r|i)
r=1
= det B.
Se i 6= j, a matriz B possui duas colunas iguais e det B = 0. Concluı́mos que
i
[(adj A) A]j = 0 se i 6= j.
Se i = j, então
n
X n
X
i+r i+r
(−1) Arj det A (r|i) = (−1) Ari det A (r|i)
r=1 r=1
= det A .
Em outras palavras,
i
[(adj A) A]j = (det A) δij ,
ou seja,
(adj A) A = (det A) I.
Para provar que A (adj A) = (det A) I, observe que
t
At (i|j) = A (j|i) ,
de modo que
i i+j
adj At j = (−1) det At (j|i)
j+i t
= (−1) det A (i|j)
j+i
= (−1) det A (i|j)
h ij
t
= (adj A) ,
i
t
adj (At ) = (adj A) .
donde
t
(adj A) At = (det A) I.
Tomando a transposta de ambos os lados, obtemos o resultado desejado.
Este resultado em conjunto com o
Rodney Josué Biezuner 65
3.34 Corolário. Uma matriz é invertı́vel se e somente se o seu determinante é diferente de zero.
3.35 Corolário (Regra de Cramer). Se det A 6= 0, então o sistema linear AX = b tem solução única
dada por
(adj A) b
X= .
det A
ou seja,
det A [j|b]
xj = .
det A
Prova: Se AX = b, então
(adj A) AX = (adj A) b,
e pelo Teorema 3.33
(det A) X = (adj A) b.
Se det A 6= 0, temos que
(adj A) b
X= ,
det A
ou seja,
n
1 X j
xj = (adj A)i bi
det A i=1
n
1 X i+j
= (−1) bi det A (i|j)
det A i=1
1
= det A [j|b] .
det A
Capı́tulo 4
Operadores Diagonalizáveis e
Triangularizáveis
f = (f0 , f1 , f2 , . . .) .
(Sequências são simplesmente funções definidas no conjuntos dos números naturais.) Definimos um produto
em K∞ [x] associando a cada par de vetores f, g o vetor f g definido por
n
X
(f g)n := fi gn−i
i=0
n = 0, 1, 2, . . . Deste modo K∞ [x] torna-se uma K-álgebra associativa, comutativa e com identidade: o vetor
1 = (1, 0, 0, . . .)
x := (0, 1, 0, . . .) .
Observe que
x2 = (0, 0, 1, 0, . . .) ,
x3 = (0, 0, 0, 1, 0, . . .) ,
e em geral
xn = 0, 0, 0, 0, . . . , 0, 1, 0, . . . .
n
66
Rodney Josué Biezuner 67
Denotamos
x0 := 1.
∞
X
f= fn xn ,
n=0
∞
e por este motivo a álgebra K [x] é também chamada a álgebra das séries formais sobre K. ∞ Observe
2
que o conjunto 1, x, x , . . . é um conjunto linearmente independente mas não é uma base para K [x], já
que um elemento genérico de K∞ [x] (uma sequência infinita) não pode ser escrito como uma combinação
linear finita de elementos deste conjunto.
4.2 Definição. A álgebra dos polinômios sobre K é o subespaço K [x] de K∞ [x] gerado por 1, x, x2 , . . .. Um
elemento de K [x] é chamado um polinômio com coeficientes em K, ou simplesmente um K-polinômio.
O grau de um polinômio f 6= 0, denotado grau f , é o inteiro n tal que fn 6= 0 e fi = 0 para todo i > n.
Na linguagem de álgebras, 1 e x geram a álgebra dos polinômios no sentido de que todo elemento da álgebra
é uma combinação linear de produtos finitos de 1 e x. Ou seja, todo polinômio f ∈ K [x] se escreve na forma
f = f0 + f1 x + f2 x2 + . . . + fn xn .
Então
j
n+m
! m
n X
X X X
fg = fi gj−i xj = fi gj xi+j .
j=0 i=0 i=0 j=0
com
fn 6= 0 e gm 6= 0.
Rodney Josué Biezuner 68
(f g)n+m = fn gm (4.1)
e
(f g)n+m+k = 0 se k > 0. (4.2)
As afirmações (i), (ii) e (iii) seguem destes dois fatos. A afirmação (iv) é uma consequência de (ii) e a
afirmação (v) é óbvia.
4.5 Corolário. K [x] é uma K-álgebra associativa, comutativa e com identidade.
4.6 Corolário. Sejam f, g, h polinômios sobre K tais que f 6= 0 e f g = f h. Então g = h.
Prova: O resultado segue imediatamente da Proposição 4.4 (i) pois f g = f h é equivalente a f (g − h) = 0.
4.7 Definição. Seja A uma K-álgebra com identidade e para cada elemento a ∈ A adote a convenção a0 = 1,
n
onde 1 é a identidade de A. A cada polinômio f = fi xi sobre K associamos um elemento f (a) ∈ A pela
P
i=0
regra
n
X
f (a) = fi ai .
i=0
f (a) é o que chamamos o valor do polinômio f calculado em a.
4.8 Proposição. Seja A uma K-álgebra com identidade. Sejam f, g polinômios sobre K, a ∈ A e α, β ∈ K.
Então
(i) (αf + βg) (a) = αf (a) + βg (a) .
(ii) (f g) (a) = f (a) g (a) .
Prova: Provaremos apenas (ii). Sejam
n
X m
X
f= fi xi e g= gj xj .
i=0 j=0
de modo que
n,m
X
fg = fi gj xi+j .
i,j=0
Rodney Josué Biezuner 69
Então,
n,m
X
(f g) (a) = fi gj ai+j
i,j=0
n
! m
X X
= fi ai gj aj
i=0 j=0
= f (a) g (a) .
4.9 Corolário. Seja p um K-polinômio que se fatora no produto de polinômios
p = f g.
p (T ) = f (T ) g (T ) .
Em particular, se
p = (x − r1 ) . . . (x − rn ) ,
então
p (T ) = (T − r1 I) . . . (T − rn I) ,
p (A) = (A − r1 I) . . . (A − rn I) .
Prova: Segue do ı́tem (i) do teorema anterior, pois Hom (V ) e Mn (K) são ambas K-álgebras com identidade.
4.10 Lema. Sejam p, d polinômios não nulos tais que grau d 6 grau p. Então existe um polinômio q tal que
ou
p − dq = 0,
ou
grau (p − dq) < grau p.
Prova: Escreva
n−1
X
p = pn xn + pi xi ,
i=0
m−1
X
m
d = dm x + di xi ,
i=0
com
pn 6= 0 e dm 6= 0.
Então m 6 n e ou
pn
p− xn−m d = 0,
dm
Rodney Josué Biezuner 70
ou
pn
grau p − xn−m d < grau p.
dm
Tomamos
pn
q= xn−m .
dm
4.11 Teorema (Divisão de Polinômios). Se p, d são polinômios, com d 6= 0, então existem polinômios
únicos q, r tais que
p = dq + r
com ou
r=0
ou
grau r < grau d.
p − dq1 = 0
ou
grau (p − dq1 ) < grau f.
Se grau (p − dq1 ) < grau d, tomamos q = q1 e r = p − dq1 . Caso contrário, usamos novamente o lema anterior
e encontramos um polinômio q2 tal que ou
ou
grau [p − d (q1 + q2 )] < grau (p − dq1 ) .
Continuamos assim obtendo sucessivamente polinômios q1 , . . . qk até chegar o momento em que
p − d (q1 + . . . qk ) = 0
ou
grau [p − d (q1 + . . . qk )] < grau r.
Aı́ tomamos q = q1 + . . . qk .
Para provar a unicidade dos polinômios q e r, suponha que também existam outros polinômios q0, r0 tais
que
p = dq 0 + r0
com r0 = 0 ou grau r0 < grau d. Então dq + r = dq0 + r0, donde
d (q − q0) = r0 − r.
Se q 6= q0, então
grau d + grau (q − q0) = grau (r0 − r) ,
mas isso contradiz grau (r0 − r) < grau d. Portanto q = q1, o que implica r = r0.
Rodney Josué Biezuner 71
4.12 Definição. Dados polinômios p, d com d 6= 0, se existe um polinômio q tal que p = dq, dizemos que d
é um divisor de p e que q é o quociente de p por d.
Se p = dq + r com r 6= 0, dizemos que r é o resto da divisão de p por q.
4.13 Corolário. Seja p um K-polinômio e a ∈ K. Então p é divisı́vel por x − a se e somente se p (a) = 0.
Prova: Pelo Teorema 4.11, p = (x − a) q + r, onde r é um polinômio escalar (isto é, ou r = 0 ou grau r <
grau (x − a) = 1, isto é, grau r = 0). Segue da Proposição 4.8 que
p = (x − a) q
e q é um polinômio de grau n − 1, que tem no máximo n − 1 raı́zes, pela hipótese de indução. Como
p (b) = (b − a) q (b) = 0
p = α (x − r1 ) . . . (x − rn ) .
p = (x − r1 ) q1
p = (x − r1 ) . . . (x − rn ) qn ,
T v = λv.
Rodney Josué Biezuner 72
Se λ é um autovalor de T e v é qualquer vetor (mesmo nulo) tal que T v = λv, dizemos que v é um autovetor
de T associado a λ.
O subespaço vetorial
Vλ = {v ∈ V : T v = λv} = ker (T − λI)
a0 v + a1 T v + . . . + an T n v = 0.
a0 + a1 z + . . . + an z n .
a0 + a1 z + . . . + an z n = c (z − λ1 ) . . . (z − λm )
0 = (a0 I + a1 T + . . . + an T n ) v = an (T − λ1 I) . . . (T − λm I) v.
Em particular, necessariamente temos que pelo menos algum operador T −λj I não é injetivo (pois a composta
de bijeções é uma bijeção), e neste caso λj é um autovalor para T .
Rodney Josué Biezuner 73
4.22 Definição. O conjunto dos autovalores de T é chamado o espectro de T e será denotado por spec T .
A multiplicidade algébrica de um autovalor de T é a sua multiplicidade como raiz do polinômio
caracterı́stico, isto é, d é a multiplicidade algébrica do autovalor λ se o polinômio caracterı́stico de T se
escreve na forma
d
pc (x) = (x − λ) q (x)
e q (x) não possui λ como raiz.
De maneira análoga definimos os autovalores e o polinômio caracterı́stico de uma matriz. É claro que os
autovalores e o polinômio caracterı́stico de um operador são os autovalores e o polinômio caracterı́stico de
qualquer uma de suas representações matriciais:
4.23 Proposição. Matrizes semelhantes possuem os mesmos autovalores.
Prova: Pois se B = P −1 AP , então
det (xI − B) = det xI − P −1 AP
= det P −1 (xI − A) P
4.26 Proposição. Um conjunto de autovetores não nulos correspondentes a autovalores dois a dois distintos
é LI.
Prova: Por indução sobre o número de autovetores. Suponha o resultado provado para um conjunto de
k − 1 autovetores. Sejam λ1 , . . . , λk um conjunto de autovalores de T com λi 6= λj se i 6= j, e v1 , . . . , vk
autovetores não nulos correspondentes a estes autovalores. Suponha
k
X
xi vi = 0. (4.3)
i=1
Se A é considerada uma matriz sobre C, então A possui dois autovalores distintos, ±i, enquanto que sobre
R A não possui autovalores. Apesar disso, A é diagonalizável sobre C, possuindo 4 autovetores distintos:
0 −i
0 1
−i , 0 associados ao autovalor − i,
1 0
e
0 i
0 1
i , 0
associados ao autovalor i
1 0
4.29 Exemplo. A matriz
0 1
A=
0 0
possui o polinômio caracterı́stico
x −1
det (xI − A) = det = x2 .
0 x
Tanto faz se A for considerada uma matriz sobre R ou sobre C, A possui apenas um autovalor e o
autoespaço associado a este autovalor tem dimensão 1, com o vetor (1, 0) sendo um autovetor associado ao
autovalor 0. Portanto, A não é diagonalizável.
4.30 Lema. Se T v = λv e p é um polinômio qualquer, então p (T ) v = p (λ) v.
4.31 Lema. Sejam T ∈ Hom (V ), λ1 , . . . , λk os autovalores distintos de T e Wi o autoespaço associado a
λi .
Se W = W1 + . . . + Wk , então
W = W1 ⊕ . . . ⊕ Wk ,
isto é, autoespaços correspondentes a autovalores distintos são LI.
Equivalentemente, se Bi é uma base para Wi , então B = {B1 , . . . , Bk } é uma base para W e
Prova: Para provar que os autoespaços de T são LI, precisamos mostrar que dados vi ∈ Wi tais que
v1 + . . . + vk = 0,
0 = p (T ) 0
= p (T ) (v1 + . . . + vk )
= p (T ) v1 + . . . + p (T ) vk
= p (λ1 ) v1 + . . . + p (λk ) vk .
por exemplo,
Y x − λj
pi = .
λi − λj
j6=i
Então
n
X n
X
0 = pi (T ) 0 = pi (λj ) vj = δij vj = vi .
j=1 j=1
4.32 Teorema. Sejam T ∈ Hom (V ), λ1 , . . . , λk os autovalores distintos de T e Wi o autoespaço associado
a λi .
As seguintes afirmações são equivalentes:
(i) T é diagonalizável.
(ii) O polinômio caracterı́stico de T é
d1 dk
f = (x − λ1 ) . . . (x − λk )
(iv)
V = W1 ⊕ . . . ⊕ W k .
Prova: (i) ⇒ (ii) Se T é diagonalizável, então T possui uma representação matricial em blocos na forma
λ1 I1 0 ... 0
0 λ 2 I2 . . . 0
[T ]B = .
. . ..
.. .. .. .
0 0 ... λk Ik
em relação a alguma base B de V , onde cada bloco identidade Ii tem tamanho di . Segue imediatamente que
o polinômio caracterı́stico de T é
d1 dk
det (xI − T ) = (x − λ1 ) . . . (x − λk ) .
Como a matriz [T − λi I]B tem exatamente di zeros em sua diagonal principal, segue que dim Wi = di .
d d
(ii) ⇒ (iii) Se f = (x − λ1 ) 1 . . . (x − λk ) k , então
dim V = grau f = d1 + . . . + dk .
(iii) ⇒ (iv) Segue do lema anterior que V = W1 ⊕ . . . ⊕ Wk .
(iv) ⇒ (i) Pois V possui uma base formada por autovetores de T .
4.33 Exemplo. A matriz
5 −6 −6
A = −1 4 2
3 −6 −4
2
possui o polinômio caracterı́stico det (xI − A) = (x − 2) (x − 1), com autoespaços
W1 = h(3, −1, 3)i ,
W2 = h(2, 1, 0) , (2, 0, 1)i .
Portanto, A é diagonalizável.
Rodney Josué Biezuner 77
M = dK [x] .
Prova: Por hipótese, M contém um polinômio não nulo. Entre todos os polinômios não nulos de M existe
um polinômio d de grau mı́nimo, que podemos assumir mônico (basta multiplicar d pelo polinômio escalar
apropriado, se necessário). Se f ∈ M , então
f = dq + r
donde
grau f = grau g = 0.
Como f, g são mônicos, segue que f = g = 1 e portanto d = d0 .
Rodney Josué Biezuner 78
(αf + βg) (T ) = αf (T ) + βg (T ) = 0
e se f ∈ K [x] e g anula T ,
(f g) (T ) = f (T ) g (T ) = 0.
4.39 Definição. Sejam V um espaço vetorial de dimensão finita e T ∈ Hom (V ). O polinômio mı́nimo
para T é o gerador mônico do ideal dos polinômios anuladores de T .
Assim, se um polinômio anula T , ele é um múltiplo polinomial do polinômio mı́nimo.
4.40 Teorema. Os polinômios mı́nimo e caracterı́stico de um operador linear possuem as mesmas raı́zes,
exceto possivelmente por multiplicidades.
Prova: Seja p o polinômio mı́nimo de T . Provar o teorema é mostrar que p (λ) = 0 se e somente se λ é um
autovalor de T .
Se p (λ) = 0 para algum λ ∈ R, então
p = (x − λ) q,
donde
0 = p (T ) = (T − λI) q (T ) .
Como grau q < grau p, pela definição de polinômio mı́nimo não podemos ter q (T ) = 0. Seja v um vetor tal
que q (T ) v = w 6= 0. Então,
0 = (T − λI) q (T ) v = (T − λI) w
e portanto λ é um autovalor de T .
Reciprocamente, se λ é um autovalor de T , então existe v 6= 0 tal que T v = λv. Pelo Lema 4.30,
0 = p (T ) v = p (λ) v,
donde p (λ) = 0.
4.41 Corolário. Se T é diagonalizável e λ1 , . . . , λk são os seus autovalores distintos, então seu polinômio
mı́nimo é o polinômio
p = (x − λ1 ) . . . (x − λk ) .
Rodney Josué Biezuner 79
Prova: Por definição, existe uma base para V consistindo apenas de autovetores de T , logo qualquer vetor
v ∈ V escreve-se na forma
v = v1 + . . . + vk
com vj um autovetor associado a λj . Como
p (T ) vj = (T − λ1 I) . . . (T − λk I) vj = 0
para todo j, porque (T − λj I) vj = 0 e polinômios em T comutam, segue que para todo v ∈ V temos
p (T ) v = 0.
Veremos na próxima seção que o polinômio mı́nimo de T ser um produto de fatores lineares distintos é de
fato equivalente a T ser diagonalizável.
4.42 Exemplo. Encontre o polinômio mı́nimo para a matriz
5 −6 −6
A = −1 4 2 .
3 −6 −4
2
Vimos no Exemplo 4.33 que A possui o polinômio (x − 2) (x − 1) como polinômio caracterı́stico e que
A é diagonalizável. Logo seu polinômio mı́nimo é p = (x − 2) (x − 1) = x2 − 3x + 2. Em particular,
A2 − 3A + 2I = 0.
Vimos no Exemplo 4.24 que B possui o polinômio x2 + 1 como polinômio caracterı́stico e que B não é
diagonalizável sobre R, pois seu polinômio caracterı́stico não possui raı́zes reais. No entanto, sobre C, o
polinômio caracterı́stico se fatora x2 + 1 = (x + i) (x − i) e B possui dois autovalores distintos, e portanto é
diagonalizável. Assim, o polinômio mı́nimo sobre C para esta matriz é x2 + 1. Como este polinômio possui
coeficientes reais, ele também é o polinômio mı́nimo para B sobre R.
para j = 1, . . . , n. Equivalentemente,
n
X
δji T − Aij I ei = 0.
i=1
Rodney Josué Biezuner 80
Considere matrizes sobre a álgebra comutativa com identidade K [T ] dos polinômios em T ; em outras
palavras, matrizes sobre K [T ] possuem polinômios em T como entradas. Considere em particular a matriz
B definida por
Bji = δij T − Aji I.
Então
det B = pc (T )
onde pc é o polinômio caracterı́stico de T , porque o polinômio caracterı́stico de T é o determinante da matriz
xI − A, cujas entradas são polinômios da forma
j
(xI − A)i = δij x − Aji I,
(det B) ek = 0 para k = 1, . . . , n.
Seja B = adj B a adjunta clássica de B, de modo que BB = (det B) I. Da equação acima, para cada par de
ı́ndices k, j temos
n n
kX j X k
0 = Bj Bi ei = B j Bij ei .
i=1 i=1
donde
n n
X X k j
0= B j Bi ei
i=1 j=1
n
X k
= BB i
ei
i=1
Xn
= δik (det B) ei
i=1
= (det B) ek .
Na próxima seção daremos outra demonstração do Teorema de Cayley-Hamilton sem usar determinantes.
4.46 Exemplo. O subespaço nulo e o espaço todo são invariantes por qualquer operador linear T . O núcleo
de T e a imagem de T também são invariantes por T .
4.47 Exemplo. Considere o espaço vetorial K [x] e o operador linear derivada D. Então o subespaço dos
polinômios de grau menor que ou igual a n, onde n é um inteiro não-negativo qualquer, é invariante por D.
4.48 Exemplo. Qualquer autoespaço de T é invariante por T .
4.49 Exemplo. O operador linear em R2 representado na base canônica pela matriz
0 −1
B=
1 0
não possui outros subespaços invariantes além dos triviais, isto é, além do subespaço nulo e do espaço todo
R2 , porque qualquer subespaço invariante de dimensão 1 seria um autoespaço de B, mas B não possui
autovalores reais, como vimos no Exemplo 4.43.
Quando um subespaço W ⊂ V é invariante por T , T induz um operador linear sobre W , o operador
restrição
T |W : W −→ W.
Denotaremos o operador restrição por TW . Seja
BW = {e1 , . . . , em }
isto é, Aij = 0 para i > m, se j 6 m. Em outras palavras, A tem a forma em blocos
Bm×m Cm×(n−m)
A= ,
0(n−m)×m D(n−m)×(n−m)
com o bloco B sendo a representação matricial do operador restrição TW com relação à base BW de W , isto
é,
B = [TW ]BW .
4.50 Proposição. Seja W um espaço invariante de V por T . Então os polinômios mı́nimo e caracterı́stico
para TW são divisores respectivamente dos polinômios mı́nimo e caracterı́stico para T .
Prova: Usando a representação matricial de T obtida na discussão acima
B C
A= ,
0 D
Rodney Josué Biezuner 82
para todo k, para alguma matriz (Ck )m×(n−m) . Logo, se p é um polinômio qualquer, temos
p (B) Cek
p (A) =
0 p (D)
para alguma matriz C
ek . Portanto, qualquer polinômio que anula A também anula B (e mesmo
m×(n−m)
D).
4.51 Definição. Seja W um subespaço invariante de V por T e v ∈ V . O conjunto dos polinômios
(αf + βg) (T ) v = α [f (T ) v] + β [g (T ) v] ∈ W.
[(f g) (T )] v = [f (T ) g (T )] v = f (T ) [g (T ) v] ∈ W
Seja W um subespaço próprio de V invariante por T . Então existe um vetor v ∈ V \W tal que
(T − λI) v ∈ W para algum autovalor λ de T .
Em outras palavras, existe um vetor v ∈ V \W tal que o seu polinômio T -condutor para W é um polinômio
linear.
Rodney Josué Biezuner 83
Prova: Seja z ∈ V \W um vetor qualquer. Seja f o polinômio T -condutor de z para W . Então f divide o
polinômio mı́nimo de T . Como z ∈
/ W , f não é um polinômio escalar. Portanto,
s sk
f = (x − λ1 ) 1 . . . (x − λk )
onde sj < rj e pelo menos algum sj 6= 0. Escolha um ı́ndice j tal que sj 6= 0 e escreva
f = (x − λj ) g.
(T − λj I) v = (T − λj I) g (T ) z = f (T ) z ∈ W.
4.55 Definição. Uma matriz A é triangular se Aij = 0 sempre que i < j (triangular inferior) ou se
Aij = 0 sempre que i > j (triangular superior).
4.56 Definição. Dizemos que T ∈ Hom (V ) é triangularizável se existe uma base de V tal que a matriz
de T em relação a esta base é uma matriz triangular.
4.57 Teorema. Um K-operador linear T em um espaço vetorial de dimensão finita é triangularizável se e
somente se o seu polinômio mı́nimo é um produto de fatores lineares sobre K.
Prova: Se T é triangularizável, então existe uma base B = {e1 , . . . , en } para V tal que
1
A12 A13 . . . A1n
A1
0 A22 A23 . . . A2n
0 A33 . . . A3n
[T ]B = 0 .
.. .. .. .. ..
. . . . .
0 0 0 ... Ann
Como o polinômio mı́nimo é um divisor do polinômio caracterı́stico, ele também é um produto de fatores
lineares.
Reciprocamente, se o polinômio mı́nimo para T se escreve na forma
r rk
p = (x − λ1 ) 1 . . . (x − λk ) ,
aplicamos o Lema 4.54 repetidamente da seguinte forma para encontrar uma base B = {e1 , . . . , en } para V
em relação à qual a matriz de T é triangular. Primeiro aplique aquele lema ao subespaço invariante W = {0}
para obter o vetor e1 . Como
(T − λ1 I) e1 = 0
para algum autovalor λ1 , segue que o subespaço
W1 = he1 i
é invariante por T . Podemos então aplicar novamente o lema ao subespaço W2 para obter o vetor e2 ∈ V \W1 .
Em particular, {e1 , e2 } é LI, e como
(T − λ2 I) x2 ∈ W1
Rodney Josué Biezuner 84
W2 = hx1 , x2 i
p = (x − λ1 ) . . . (x − λk ) .
Prova: Já vimos no Corolário 4.41 que se T é diagonalizável, então seu polinômio mı́nimo é um produto de
fatores lineares distintos. Reciprocamente, suponha que o polinômio mı́nimo de T é o produto
p = (x − λ1 ) . . . (x − λk )
de fatores lineares distintos e suponha por absurdo que T não é diagonalizável. Então, se
W = W 1 + . . . + Wk
é a soma dos autoespaços Wi associados a λi T , segue que W 6= V . Mas W é um subespaço invariante por
T , logo pelo Lema 4.54 existe um vetor v ∈ V \W e um autovalor λj tal que
w = (T − λj I) v ∈ W,
isto é
x − λj ∈ condT (v; W ) .
Escreva
p = (x − λj ) q.
de modo que q que não possui λj como raiz. Como
0 = p (T ) v = (T − λj I) q (T ) v,
q ∈ condT (v; W ) .
Mas o polinômio T -condutor de v para W divide ambos x − λj e q e estes não tem fatores em comum,
contradição.
Assim, para determinar se T é diagonalizável, basta encontrar os autovalores distintos λ1 , . . . , λk de T e
determinar se o operador (T − λ1 I) . . . (T − λk I) é o operador nulo ou não. Se T satisfaz uma equação
Rodney Josué Biezuner 85
polinomial, se esta se fatora em fatores lineares distintos, concluı́mos imediatamente que T é diagonalizável:
por exemplo, se T 2 = I ou T 2 = T .
Demonstração alternativa do Teorema de Cayley-Hamilton. Pelo Teorema 4.57 basta provar o
Teorema de Cayley-Hamilton para operadores triangularizáveis. De fato, pelo Teorema 4.57 todo operador
linear em um espaço vetorial sobre um corpo algebricamente fechado é triangularizável (um corpo K é
algebricamente fechado se todo K-polinômio possui uma raiz ou, equivalentemente, se todo K-polinômio
é um produto de fatores lineares); pela teoria de corpos, todo corpo K0 é um subcorpo de um corpo K
algebricamente fechado. O fato do polinômio caracterı́stico anular A ∈ Mn (K0 ) quando considerada uma
K-matriz, continua obviamente valendo quando ela é considerada uma K0 -matriz, pois os coeficientes do
polinômio caracterı́stico estão em K0 .
[Observe que para provar a afirmação do Teorema 4.57 que se o polinômio mı́nimo de um operador se
fatora como um produto de fatores lineares então o operador é triangularizável, não foi usado o teorema de
Cayley-Hamilton. Ele foi usado no Teorema 4.57 para provar a recı́proca desta afirmação, que não entra no
presente argumento.]
É fácil provar o teorema de Cayley-Hamilton para operadores triangularizáveis. De fato, se B =
{e1 , . . . , en } é uma base para V em relação à qual T é representada por uma matriz triangular A, então o
polinômio caracterı́stico para A é
f = x − A11 . . . (x − Ann ) .
T − A11 I . . . (T − Ann I)
é o operador nulo sobre V , procedemos por indução na dimensão de V . O resultado é claramente válido
para n = 1. Assuma o resultado válido para n − 1 e escreva a matriz A em blocos
B(n−1)×(n−1) C(n−1)×1
A=
01×(n−1) Ann
Observe que
(T − Ann I) V ⊂ he1 , . . . , en−1 i =: W.
W é um subespaço invariante por T de dimensão n − 1, com
f = x − A11 . . . x − An−1
n−1 .
é o operador nulo sobre V (observe que os vetores de W têm as últimas coordenadas nulas, logo faz sentido
aplicar o lado direito a vetores de V , apesar das matrizes identidades possuı́rem tamanho n − 1).
Rodney Josué Biezuner 86
4.7 Exercı́cios
4.60 Exercı́cio. Seja T o operador linear em R4 representado na base canônica pela matriz
0 0 0 0
a 0 0 0
.
0 b 0 0
0 0 c 0
onde λ1 , . . . , λk são distintos. Mostre que subconjunto em Mn (K) das matrizes B tais que AB = BA é um
subespaço vetorial de dimensão
d21 + . . . + d2k .
4.63 Exercı́cio. Seja A ∈ Mn (K) e considere o operador linear T : Mn (K) −→ Mn (K) definido por
T (B) = AB. Será verdade que A e T possuem os mesmos autovalores? Será que A e T possuem o mesmo
polinômio caracterı́stico? Será que A e T possuem o mesmo polinômio mı́nimo?
4.64 Exercı́cio. Seja K um corpo arbitrário e a, b, c ∈ K. Considere a matriz
0 0 c
A = 1 0 b .
0 1 a
Mostre que o polinômio caracterı́stico para A é p = x3 − ax2 − bx − c e que este também é o polinômio
mı́nimo para A.
4.65 Exercı́cio. Seja A a matriz real
1 1 0 0
−1 −1 0 0
A=
−2
−2 2 1
1 1 −1 0
2
Mostre que o seu polinômio caracterı́stico é p = x2 (x − 1) e que este também é o seu polinômio mı́nimo.
Se A for considerada uma matriz complexa, A é diagonalizável?
4.66 Exercı́cio. Seja T o operador linear sobre R2 cuja matriz na base canônica é
1 −1
A= .
2 2
Prove que os únicos subespaços de R2 invariantes por T são os triviais. Se U é um operador sobre C2 cuja
matriz na base canônica é A, mostre que U possui um subespaço invariante unidimensional.
Rodney Josué Biezuner 87