Você está na página 1de 208

Notas de Aula

Álgebra Linear e Multilinear

1
Rodney Josué Biezuner
Departamento de Matemática
Instituto de Ciências Exatas (ICEx)
Universidade Federal de Minas Gerais (UFMG)

Notas de aula da disciplina Álgebra Linear II


dos Cursos de Bacharelado em Matemática e Matemática Computacional,
lecionada pelo autor durante o primeiro semestre de 2019.

30 de agosto de 2019

1
E-mail: rodney@mat.ufmg.br; homepage: http://www.mat.ufmg.br/∼rodney.
Sumário

Capa 1

Sumário 3

1 Espaços Vetoriais 4
1.1 Estruturas Algébricas Fundamentais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.1 Corpos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Espaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Bases e Dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4 Subespaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5 Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.6 Álgebras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.6.1 A Álgebra de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.7 Matriz de Mudança de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.8 Somas de Subespaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.9 Somas Diretas de Espaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

2 Lineomorfismos 26
2.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.1.1 Existência e Unicidade de Lineomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.2 Isomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2 Espaço Quociente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3 Teorema do Núcleo e da Imagem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4 Representações Matriciais de Morfismos Lineares . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.5 A Álgebra dos Operados Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.6 Álgebras de Lie Mn (K) e Hom (V ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.7 Funcionais Lineares e o Espaço Dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.8 O Morfismo Dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.8.1 Núcleo e Imagem do Morfismo Dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.8.2 Representação Matricial do Morfismo Dual . . . . . . . . . . . . . . . . . . . . . . . . 47

3 Determinantes 49
3.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.2 Existência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.3 Unicidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.3.1 Grupo de Permutações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.3.2 Demonstração da Unicidade da Função Determinante . . . . . . . . . . . . . . . . . . 57
3.3.3 Fórmula do Determinante através de Permutações . . . . . . . . . . . . . . . . . . . . 59
3.4 Propriedades do Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.5 Regra de Cramer e Fórmula da Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

1
Rodney Josué Biezuner 2

4 Operadores Diagonalizáveis e Triangularizáveis 66


4.1 Álgebra dos Polinômios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
4.2 Autovalores, Autovetores e Autoespaços . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.3 Operadores Diagonalizáveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.4 Ideais de Polinômios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.5 Polinômio Mı́nimo e o Teorema de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . 78
4.6 Subespaços Invariantes e Operadores Triangularizáveis . . . . . . . . . . . . . . . . . . . . . . 80
4.7 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.8 Projeções e Decomposição em Soma Direta . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.9 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.10 Fatoração de Polinômios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.11 Teorema da Decomposição Primária e Teorema Espectral . . . . . . . . . . . . . . . . . . . . 94
4.12 Decomposição de um Operador na sua Parte Diagonal e Nilpotente . . . . . . . . . . . . . . . 96
4.13 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

5 Forma Canônica de Jordan 99


5.1 Forma de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.1.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.1.2 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
5.1.3 Existência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.2 Cálculo e Unicidade da Forma de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
5.3 Base de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
5.4 Complexificação de um Espaço Vetorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
5.5 Forma de Jordan Real . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
5.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126

6 Formas Bilineares e Espaços Vetoriais Métricos 127


6.1 Formas Bilineares e Métricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
6.1.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
6.1.2 Matriz de uma Forma Bilinear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
6.1.3 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
6.2 Formas Quadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
6.3 Espaços Vetoriais Normados Reais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
6.4 O Subespaço Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
6.5 Existência de Bases Ortonormais e Teorema de Sylvester . . . . . . . . . . . . . . . . . . . . . 144
6.5.1 Existência de Bases Ortonormais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
6.5.2 Teorema de Sylvester para Métricas Reais . . . . . . . . . . . . . . . . . . . . . . . . . 145
6.5.3 Teorema de Sylvester para Formas Bilineares Reais Simétricas . . . . . . . . . . . . . 147
6.6 Algumas Propriedades Geométricas do Espaço de Minkowski . . . . . . . . . . . . . . . . . . 149
6.7 Coordenadas em Espaços Vetoriais Métricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
6.8 Projeções Ortogonais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
6.9 Processo de Ortogonalização de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . 155

7 Metrolineomorfismos 158
7.1 Operadores Lineares Métricos e Grupo Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . 158
7.2 Rotações e Reflexões . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
7.3 Isometrias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
7.4 Operadores Adjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
7.4.1 Teorema da Representação de Riesz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
7.4.2 Morfismo Adjunto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
7.4.3 Alternativa de Fredholm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
Rodney Josué Biezuner 3

7.5 Diagonalização de Operadores Autoadjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173


7.6 Operadores Normais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
7.7 Teoria Espectral para Operadores Autoadjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . 177
7.8 Métodos Variacionais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179

8 Espaços Hermitianos 184


8.1 Produto Hermitiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
8.2 Espaços Normados Complexos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
8.3 Operadores Adjuntos e Operadores Hermitianos . . . . . . . . . . . . . . . . . . . . . . . . . . 190
8.3.1 Teorema da Representação de Riesz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
8.3.2 Morfismos Adjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
8.3.3 Alternativa de Fredholm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
8.4 Operadores Unitários . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
8.5 Diagonalização de Operadores Hermitianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
8.6 Operadores Normais Complexos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
8.6.1 Caracterização Geométrica de Operadores Normais Complexos . . . . . . . . . . . . . 198
8.6.2 Diagonalização de Operadores Normais Complexos . . . . . . . . . . . . . . . . . . . . 200
8.7 Teoria Espectral para Operadores Normais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
8.8 Formas Sesquilineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204

Referências Bibliográficas 207


Capı́tulo 1

Espaços Vetoriais

1.1 Estruturas Algébricas Fundamentais


1.1.1 Corpos
1.1 Definição. Um corpo K é um conjunto munido de duas operações binárias K × K −→ K, soma e
produto, que satisfazem as seguintes propriedades:
Soma:
Associatividade: para todos x, y ∈ K vale

x + (y + z) = (x + y) + z.

Comutatividade: para todos x, y, z ∈ K vale

x + y = y + x.

Existência de Identidade: existe um elemento 0 ∈ K tal que para todo x ∈ K temos

x + 0 = 0 + x = x.

Existência de Inversa: para todo x ∈ K existe −x ∈ K tal que

x + (−x) = (−x) + x = 0.

Produto:
Associatividade: para todos x, y ∈ K vale

x (yz) = (xy) z.

Comutatividade: para todos x, y, z ∈ K vale

xy = yx.

Existência de Identidade: existe um elemento 1 ∈ K tal que para todo x ∈ K temos

x1 = 1x = x.

4
Rodney Josué Biezuner 5

Existência de Inversa: para todo x ∈ K, x 6= 0, existe x−1 ∈ K tal que

xx−1 = x−1 x = 1.

Distributividade: Para todos x, y, z ∈ K

x (y + z) = xy + xz.


Em outras palavras, um corpo tem duas estruturas de grupo comutativo e estas estruturas são compatı́veis.
No caso do produto, K como um todo é um grupo apenas quando o zero é excluı́do, isto é, (K, produto)
não é um grupo pois o 0 não possui inverso, mas (K∗ , produto) é, onde

K∗ = K\ {0} .

Como 0 não possui inverso e 1 possui inverso 1, em particular segue que 0 6= 1 e um corpo K possui pelo
menos dois elementos. O corpo Z2 possui exatamente os dois elementos 0 e 1.
1.2 Definição. A caracterı́stica de um corpo K é o menor inteiro n tal que

1 + · · · + 1 = 0,
| {z }
p vezes

se n existir. Caso contrário, dizemos que K tem caracterı́stica zero. 


1.3 Exemplo. Z2 , Zp (p primo), Q, R, C. Os primeiros dois são exemplos de corpos finitos com caracterı́stica
não zero, isto é,
1 + ··· + 1 = p · 1 = 0
| {z }
p vezes

enquanto que os três últimos são corpos de caracterı́stica zero. 


Neste texto usualmente temos em mente

K=R ou K = C,

mas a maioria dos resultados valerá para todos os corpos e apenas uma minoria para corpos de caracterı́stica
diferente de 2 e uma minoria ainda menor apenas para corpos de caracterı́stica zero.

1.2 Espaços Vetoriais


1.4 Definição. Um K-espaço vetorial (ou espaço vetorial sobre um corpo K) é um conjunto V
munido de duas operações, soma de vetores V × V −→ V e produto de vetores por escalares K × V −→ V
que satisfazem as seguintes propriedades:
Soma de Vetores:
Associatividade: para todos v, w ∈ V

u + (v + w) = (u + v) + w.

Comutatividade: para todos u, v, w ∈ V

v + w = w + v.
Rodney Josué Biezuner 6

Existência de Identidade: existe um elemento 0 ∈ V (vetor nulo) tal que para todo v ∈ V temos

v + 0 = 0 + v = v.

Existência de Inverso: para todo v ∈ V existe −v ∈ V tal que

v + (−v) = 0.

Produto de Vetores por Escalares:


Identidade: Para todo v ∈ V vale
1v = v.

Associatividade: para todos x, y ∈ K e para todo v ∈ V vale

x (yv) = (xy) v.

Distributividade:
(i) Para todos v, w ∈ V e para todo x ∈ K

x (v + w) = xv + xw.

(ii) Para todo v ∈ V e para todos x, y ∈ K

(x + y) v = xv + yv.

Os elementos de V são chamados vetores, e os elementos de K são chamados escalares.


Se K = R dizemos que V é um espaço vetorial real e se K = C dizemos que V é um espaço vetorial
complexo. 
1.5 Proposição. As seguintes afirmativas são válidas
(i) x0 = 0.
(ii) 0v = 0.
(iii) xv 6= 0 se x 6= 0 e v 6= 0.
(iv) (−1) v = −v.
(v) Unicidade do vetor nulo.
Prova: (i) Temos
x0 = x (0 + 0) = x0 + x0,
donde

x0 + (−x0) = (x0 + x0) + (−x0)


= x0 + (x0 + (−x0))
= x0,

ou seja,
0 = x0.
(ii) Temos
0v = (0 + 0) v = 0v + 0v,
Rodney Josué Biezuner 7

donde, somando −0v a ambos os lados desta equação,

0v + (−0v) = (0v + 0v) + (−0v)


= 0v + (0v + (−0v))
= 0v,

ou seja,
0 = 0v.
(iii) Suponha que exista x ∈ K, x 6= 0, tal que xv = 0 para algum v ∈ V , v 6= 0. Então

x−1 (xv) = x−1 0.

Mas o lado esquerdo desta equação é

x−1 (xv) = x−1 x v




= 1v
= v,

enquanto que por (i) o lado direito é


x−1 0 = 0,
donde
v=0
uma contradição.
(iv) Temos

0 = 0v
= [1 + (−1)] v
= 1v + (−1) v
= v + (−1) v.

isto é,
0 = v + (−1) v.
Somando −v a ambos os lados, segue que

−v + 0 = −v + [v + (−1) v]
= (−v + v) + (−1) v
= 0 + (−1) v,

ou seja,
−v = (−1) v.
0
(v) Se 0 são dois vetores nulos 0 , por definição

00 = 00 + 0 = 0.


1.6 Corolário. Se um K-espaço vetorial possui um vetor não nulo, então ele possui pelo um número de
vetores igual à cardinalidade de K.
Rodney Josué Biezuner 8

Prova: Por (iii), se v 6= 0 e x 6= y, então xv 6= yv. 


Em geral denotaremos o vetor nulo por 0 ao invés do sı́mbolo em negrito 0, a menos que achamos
necessário fazer uma distinção.
1.7 Exemplo. O espaço vetorial nulo V = {0} .

1.8 Exemplo (Espaços das n-uplas de escalares em K). Os espaços

Kn = x 1 , . . . , x n : x 1 , . . . , x n ∈ K ,
 

ou seja,

Rn = x1 , . . . , x n : x1 , . . . , x n ∈ R ,
 

Cn = z 1 , . . . , z n : z 1 , . . . , z n ∈ C ,
 

com a soma e produto por escalar usuais são K-espaços vetoriais. Assim também o espaço das ∞-uplas

K∞ = x0 , x1 , x2 , . . . : xi ∈ K para todo i ∈ N ,
 


1.9 Exemplo (Espaço das K-matrizes m × n). O espaço das matrizes m × n com elementos em K com
a soma e produto escalar usuais é um K-espaço vetorial, que denotaremos Mm×n (K). 

1.10 Exemplo (Espaços de Polinômios com coeficientes em K). Os espaços de polinômios com
coeficientes em K ( n )
X
i
K [x] = ai x : a0 , . . . an ∈ K, n ∈ N ,
i=0

ou seja
( n )
X
R [x] = ai xi : a0 , . . . an ∈ R, n ∈ N ,
i=0
( n )
X
i
C [x] = ai x : a0 , . . . an ∈ C, n ∈ N .
i=0

com a soma e produto por escalar usuais são K-espaços vetoriais. Assim também os espaços de polinômios
com coeficientes em K até grau n:
( n )
X
i
Kn [x] = ai x : a0 , . . . an ∈ K .
i=0


1.11 Exemplo (Espaços de Funções). Os espaços F (X; K) de funções com domı́nio em um conjunto X
e com valores em K com a soma e produto por escalar de funções usuais são K-espaços vetoriais.
Assim também, se X ⊂ Rn é um aberto, o espaço das funções contı́nuas C 0 (X; R), o espaço das funções
k-continuamente diferenciáveis C k (X; R), o espaço das funções suaves C ∞ (X; R), o espaço das funções
p-integráveis Lp (X; R), e vários outros espaços de funções.
Ao invés de funções tomando valores em K podemos considerar também funções tomando valores em Kn .

Rodney Josué Biezuner 9

1.3 Bases e Dimensão


1.12 Definição. Seja S ⊂ V um subconjunto qualquer de um espaço vetorial V . Uma combinação linear
de vetores de S é qualquer soma finita

k
X
xi vi = x1 v1 + . . . + xk vk
i=1

com x1 , . . . , xk ∈ K e v1 , . . . , vk ∈ S. 
1.13 Definição. Dizemos que um conjunto S ⊂ V é linearmente dependente (LD) se existir um número
finito de vetores v1 , . . . , vk ∈ S e escalares x1 , . . . , xk ∈ K não todos nulos tais que

x1 v1 + . . . + xk vk = 0,

ou seja, o vetor nulo pode ser escrito como uma combinação linear não trivial de elementos de S.
Caso contrário, isto é, se
x 1 v1 + . . . + x k vk = 0
só for possı́vel quando
x1 = . . . = xk = 0
dizemos que S é linearmente independente (LI). 
1.14 Exemplo. O subconjunto infinito
S = xk : k ∈ N


é LI em K [x]. 
Um subconjunto LI não pode conter o vetor nulo, pois

x0 = 0

é uma combinação linear não trivial quando x 6= 0.


1.15 Proposição. Um subconjunto S ⊂ V é LD se e somente se algum elemento de S puder ser escrito
como combinação linear de outros elementos de S.
Prova. Se S é LD, então existem vetores v1 , . . . , vk ∈ S e escalares x1 , . . . , xk não todos nulos tais que

x1 v1 + . . . + xk vk = 0.

Suponha que xi 6= 0. Então podemos escrever


k
x1 xi−1 xi+1 xk X xj
vi = i
v1 + . . . + i vi−1 + i vi+1 + . . . + i vk = vj ,
x x x x j=1
xi
j6=i

isto é, vi é combinação linear dos outros elementos de S.


Reciprocamente, se v0 , v1 , . . . , vk ∈ S e x1 , . . . , xk ∈ K são tais que

v0 = x 1 v1 + . . . + x k vk ,

então
v0 − x 1 v1 − . . . − x k vk = 0
é uma combinação linear não-trivial de elementos de S, pois o coeficiente de v0 é o escalar não nulo 1. 
Rodney Josué Biezuner 10

1.16 Definição. Dizemos que um conjunto S ⊂ V gera o espaço V se para todo v ∈ V existirem vetores
v1 , . . . , vk ∈ S e escalares x1 , . . . , xk ∈ K tais que

v = x 1 v1 + . . . + x k vk .

Denotaremos
V = hv1 , . . . , vk i .


1.17 Definição. Dizemos que um conjunto B ⊂ V é uma base para o espaço V se:
(i) B gera V e
(ii) B é LI.


1.18 Exemplo. Bases canônicas de Kn , Mm×n (K) e K [x]. 


1.19 Teorema. Todo espaço vetorial não nulo possui uma base.
Prova. Pelo axioma da escolha ou equivalente (para mais detalhes, ver o livro do Halmos). 
Quando um K-espaço vetorial possui uma base, ele possui uma quantidade de bases pelo menos igual à
cardinalidade de K, pois podemos substituir qualquer elemento da base por um múltiplo escalar não nulo
dele, obtendo um vetor diferente (pelo Corolário 1.6), mas mantendo as propriedades de uma base.
1.20 Definição. Dizemos que V é um espaço vetorial de dimensão finita se V possui uma base com
um número finito de elementos e também no caso especial V = {0}. 
1.21 Exemplo. K [x], C k (X; R) e Lp (X; R) são espaços vetoriais de dimensão infinita. Uma base para
K [x] é
B = xk : k ∈ N .


Uma base explı́cita para C k (X; R) ou Lp (X; R) é desconhecida. 


O número de elementos nas bases de um espaço vetorial é um invariante do espaço vetorial. Para provar
isso, provamos primeiro o seguinte resultado:
1.22 Proposição. Suponha que S = {v1 , . . . , vk } gera o espaço vetorial V e que S 0 = {w1 , . . . , wl } é um
subconjunto LI de V . Então
l 6 k.
Prova. Suponha por absurdo que l > k. Como S gera V e S 0 é LI (em particular, S 0 não contém o vetor
nulo) temos
w1 = x11 v1 + . . . + xk1 vk
para alguns escalares x11 , . . . , xk1 não todos nulos. Podemos supor x11 6= 0, reordenando os ı́ndices, se ne-
cessário. Afirmamos que podemos então substituir v1 por w1 , isto é, que o conjunto

S1 = {w1 , v2 , . . . , vk }

gera V . De fato, podemos escrever

1 x2 xk
v1 = w1 − v 2 − . . . − vk ,
x1 x1 x1
de modo que se
v = y 1 v1 + y 2 v2 + . . . + y k vk ,
Rodney Josué Biezuner 11

então
y1 2 k
   
2 1x 1x
v = 1 w1 + y − y 1 v2 + . . . + yk − y 1 vk .
x x x
Agora, como S1 gera V e S 0 é LI, temos

w2 = x12 w1 + x22 v2 + . . . + xk2 vk

para alguns escalares x12 , x22 , . . . , xk2 , com x22 , . . . , xk2 não todos nulos (caso contrário, w2 seria um múltiplo
escalar de w1 ). Supondo x22 6= 0, reordenando os ı́ndices se necessário, usamos o mesmo argumento acima
para concluir que podemos substituir v2 por w2 , de modo que o conjunto

S2 = {w1 , w2 , v3 , . . . , vk }

gera V . Repetindo este procedimento sucessivamente, concluı́mos que podemos substituir todos os vetores vi
por um número equivalente de wi (já que, por hipótese de absurdo, l > k), e assim obter que o subconjunto
próprio
Sk = {w1 , . . . , wk }
de S 0 gera V . Mas então, por definição de conjunto gerador, existem escalares x1k+1 , . . . , xkk+1 tais que

wk+1 = x1k+1 w1 + . . . + xkk+1 wk

contrariando o fato que S 0 é LI. 

1.23 Teorema. Todas as bases de um espaço vetorial de dimensão finita possuem o mesmo número de
elementos.
Prova. Sejam

B1 = {v1 , . . . , vk } ,
B2 = {w1 , . . . , wl } ,

duas bases do espaço vetorial de dimensão finita V . Aplicando a proposição anterior ao conjunto gerador
B1 e ao conjunto LI B2 concluı́mos que l 6 k; aplicando a proposição anterior ao conjunto gerador B2 e ao
conjunto LI B1 concluı́mos que k 6 l. Portanto, k = l. 
1.24 Definição. O número de elementos de uma base qualquer de um espaço vetorial de dimensão finita V
é chamada a dimensão do espaço e denotada dim V .
Se V = {0}, então definimos dim V = 0. 
1.25 Corolário. Se dim V = n, então todo subconjunto de V com mais de n vetores é LD.
Prova. Segue imediatamente da Proposição 1.22. 
1.26 Teorema. Todo espaço vetorial não nulo gerado por um subconjunto finito possui uma base finita.

Prova. Suponha que S seja um subconjunto finito que gera o subespaço vetorial não-nulo V . Se S for LI,
então S é a base procurada e não precisamos fazer nada. Caso contrário, se S é LD, podemos retirar um
elemento de S e o conjunto resultante ainda gerará V (retire um elemento que seja combinação linear dos
demais). Se o conjunto restante for LI, então ele será uma base finita para V . Caso contrário, repetimos o
procedimento, até obter um conjunto LI. 

1.27 Lema. Seja S um subconjunto LI de um espaço vetorial V . Suponha que v é um vetor de V que não
pertence ao subespaço gerado por S. Então S ∪ {v} é LI.
Rodney Josué Biezuner 12

Prova. Suponha que v1 , . . . , vk ∈ S e existem escalares x1 , . . . , xk , x tais que

x1 v1 + . . . + xk vk + xv = 0.

Então x = 0, caso contrário


x1 xk
v= v1 + . . . + vk ,
x x
o que implicaria que v pertence ao subespaço gerado por S, contrariando a hipótese. Mas então

x1 v1 + . . . + xk vk = 0,

e como S é LI, segue que x1 = . . . = xk = 0. 


1.28 Teorema. Todo subconjunto LI de um espaço vetorial de dimensão finita pode ser completado até uma
base do espaço.
Prova. Suponha que
S = {v1 , . . . , vk }
seja um subconjunto LI de V . Se S não é uma base para V , ou seja, se k < n, então existe um vetor vk+1 ∈ V
tal que vk+1 não é uma combinação linear de elementos de S. Segue que o conjunto

S1 = {v1 , . . . , vk , vk+1 }

é LI. Se k + 1 < n, repetimos o processo. Se dim V = n, repetimos este processo n − k vezes até encontrar
um subconjunto
Sn−k = {v1 , . . . , vk , vk+1 , . . . , vn }
que é uma base para V . 

1.4 Subespaços Vetoriais


1.29 Definição. Seja V um K-espaço vetorial. Um subespaço de V é um subconjunto W ⊂ V que é ele
próprio um K-espaço vetorial com as operações de soma e produto por escalar induzidas de V . 
1.30 Proposição. Um subconjunto não vazio W ⊂ V é um subespaço de V se e somente se ele é fechado
com relação às operações de soma e produto por escalar.
Em outras palavras, W ⊂ V é um subespaço de V se e somente se xv + yw ∈ W para todos v, w ∈ W e
para todos x, y ∈ K.
Prova. Suponha que W ⊂ V , W 6= ∅, é fechado com relação às operações de soma e produto por escalar.
Como as operações de soma e produto por escalar definidas em W são herdadas das operações definidas em
V , comutatividade, associatividade e distributividade são imediatamente válidas e 1v = v para todo v ∈ W .
Basta apenas verificar as duas propriedades seguintes:

• 0 ∈ W : pois se v ∈ W é qualquer vetor (lembre-se que W 6= ∅), então 0v = 0 ∈ W .


• Se v ∈ W , então −v ∈ W : pois −v = (−1) v ∈ W.

A recı́proca é óbvia. 
1.31 Exemplo. Se W1 , W2 são dois subespaços de V tais que

W1 W2 ,
W2 W1 ,
Rodney Josué Biezuner 13

então W1 ∪ W2 não é um subespaço vetorial de V . De fato, tomando

w1 ∈ W1 \W2 ,
w2 ∈ W2 \W1 ,

o vetor v = w1 + w2 não está em W1 ∪ W2 , apesar de w1 e w2 estarem. 


1.32 Teorema. A interseção de qualquer famı́lia de subespaços de um espaço vetorial V é um subespaço de
V.
Prova. Seja {Wλ }λ∈Λ uma coleção de subespaços de V e
\
W = Wλ
λ∈Λ

sua interseção. Como cada Wλ contém o vetor nulo, segue que W também contém o vetor nulo, em particular
é não vazio e podemos usar a Proposição 1.30 para provar que W é um subespaço.
De fato, dados quaisquer v, w ∈ W , temos que v, w ∈ Wλ para cada ı́ndice λ ∈ Λ (por definição de
interseção de conjuntos), logo xv + yw ∈ Wλ para todos x, y ∈ K (pela Proposição 1.30, pois cada Wλ é um
subespaço de V ), portanto xv + yw ∈ W para todos x, y ∈ K (novamente, pela definição de interseção de
conjuntos). Segue da Proposição 1.30 que W é um subespaço. 
Segue deste resultado que dado um subconjunto de um espaço vetorial, existe um menor subespaço que o
contém:
1.33 Proposição. Seja V um espaço vetorial e S um subconjunto não vazio de V . O subespaço W = hSi
gerado por S é a interseção de todos os subespaços de V que contém S.
Prova. Denote por W 0 a interseção de todos os subespaços de V que contém S. Pela Proposição 1.30, como
S ⊂ W 0 , segue que
W ⊂ W 0.
Por outro lado, pela Proposição 1.32 o conjunto W 0 é um subespaço de V , portanto fechado com relação a
combinações lineares de seus elementos, em particular dos elementos de S que ele contém, logo

W 0 ⊂ hSi = W.

Assim W 0 = W . 
1.34 Teorema. Se W é um subespaço próprio de um espaço vetorial de dimensão finita V , então W também
tem dimensão finita e dim W < dim V .
Prova. Seja n = dim V . Qualquer subconjunto S ⊂ W LI em W é também LI em V , por definição de
independência linear. Como V tem dimensão finita, S não pode conter mais que n elementos, pela Proposição
1.25.
O resultado deste teorema é óbvio se W é o subespaço nulo. Se W não é o subespaço nulo, existe v1 ∈ W ,
v1 6= 0. Tome
S1 = {v1 } ,
de modo que S1 é um subconjunto LI de W . Estendemos S1 a uma base para W da seguinte forma: se S1
já é uma base para W , então não é necessário fazer mais nada; caso contrário, se S1 não gera W , usamos o
Lema 1.27 para encontrar um vetor v2 ∈ V \ hS1 i tal que

S2 = S1 ∪ {v2 } = {v1 , v2 }

é LI. Se S2 já é uma base para W , então não é necessário fazer mais nada; caso contrário, se S2 não gera W ,
usamos o Lema 1.27 novamente para encontrar um vetor v3 ∈ V \ hS2 i tal que

S3 = S2 ∪ {v3 } = {v1 , v2 , v3 }
Rodney Josué Biezuner 14

é LI. Continuando desta forma, obteremos necessariamente um conjunto LI Sk que gera W para algum k;
na pior das hipóteses obteremos no final um conjunto LI

Sn = {v1 , . . . , vn−1 }

que gera W , pois V não contém nenhum subconjunto LI com mais que n vetores e W V. 

1.5 Coordenadas
A existência de bases permite identificar vetores de um espaço vetorial com um número finito de escalares,
o que permite lidar com vetores de maneira numerica e computacional:
1.35 Proposição. Sejam V um espaço vetorial e B uma base para V .
Todo vetor de V se escreve de maneira única como uma combinação linear de vetores de B.
Prova. Se V é um espaço vetorial de dimensão finita, isso é mais fácil de ver. Suponha que B = {e1 , . . . , en }
é uma base para V e que v ∈ V pode ser representado por duas combinações lineares de vetores de B:

v = v 1 e1 + . . . + v n en ,
0 0
v = v 1 e1 + . . . + v n en .

Então  0
  0

v1 − v1 e1 + . . . + v n − v n en = 0,
0 0
e como B é LI, segue que v 1 = v 1 , . . . , v n = v n .
Suponha agora que V é um espaço vetorial de dimensão arbitrária e B = {ei }i∈I é uma base para V .
Dado v ∈ V , suponha que v pode ser representado por duas combinações lineares de vetores de B:

v = v λ1 eλ1 + . . . + v λk eλk ,
v = v µ1 eµ1 + . . . + v µl eµl ,

Então
k
X l
X
v λi eλi − v µj eµj = 0.
i=1 j=1

Como B é LI, se λi 6= µj para todo j, então v = 0 e, analogamente, se µj 6= λi para todo i, então v µj = 0;


λi

se λi = µj para algum par de ı́ndices i, j, então v λi = v µj . 


1.36 Definição. Sejam V um espaço vetorial de dimensão finita e B = {e1 , . . . , en } uma base para V . Dado
v ∈ V , se
v = v 1 e1 + . . . + v n en ,

os escalares v 1 , . . . , v n são chamados as coordenadas de v com relação à base B.


Denotamos

[v]B = v 1 , . . . , v n .


1.37 Definição. Sejam V um espaço vetorial de dimensão arbitrária e B = {ei }i∈I uma base para V . Dado
v ∈ V , se X
v= v i ei ,
i∈I
Rodney Josué Biezuner 15

os escalares v i , i ∈ I, são chamados as coordenadas de v com relação à base B.


Denotamos
[v]B = v λ λ∈Λ .



Observe que a soma X
v= v i ei ,
i∈I

é sempre uma soma finita porque, com a exceção de um número finito de ı́ndices, todos os escalares são
nulos, logo não temos que nos preocupar com problemas de convergência.

1.6 Álgebras
1.38 Definição. Um K-espaço vetorial V munido de uma operação binária K-bilinear

∗ : V × V −→ V

é chamado uma álgebra. A operação é chamada produto de vetores.


Dizemos que a álgebra é associativa se

u ∗ (v ∗ w) = (u ∗ v) ∗ w

para todos u, v, w ∈ V .
Dizemos que a álgebra é comutativa se

v∗w =w∗v

para todos v, w ∈ V .
Dizemos que a álgebra possui uma identidade se existe um vetor e ∈ V tal que

e∗v =v∗e=v

para todo v ∈ V . 
Dizer que a operação produto é bilinear é equivalente a dizer que ela satisfaz a propriedade de distributividade,
isto é,

(xu + yv) ∗ w = x (u ∗ w) + y (v ∗ w) ,
u ∗ (xv + yw) = x (u ∗ v) + y (u ∗ w) ,
(xv) ∗ w = x (v ∗ w) = v ∗ (xw) ,

para todos u, v, w ∈ V e para todos x, y ∈ K. Quando existir, a identidade é única, pois se e, e0 ∈ V são duas
identidades, então por definição de identidade

e = ee0 = e0 .

1.39 Exemplo. K [x] com o produto usual de polinômios é uma álgebra associativa, comutativa e com
identidade. 
1.40 Exemplo. R3 com o produto vetorial usual é uma álgebra não associativa, não comutativa e sem
identidade (o produto vetorial de dois vetores é sempre um terceiro vetor ortogonal a ambos). 
Rodney Josué Biezuner 16

1.6.1 A Álgebra de Matrizes


Matrizes são instrumentos para fazer operações computacionais com vetores expressos em coordenadas em
espaços vetoriais de dimensão finita.
1.41 Definição. Uma matriz m × n sobre um corpo K é uma função

A : {1, . . . , m} × {1, . . . , n} −→ K.

As entradas (ou elementos) da matriz A são os escalares A (i, j) que denotaremos por Aij ; a matriz A

também frequentemente é denotada por A = Aij e representada graficamente por uma tabela retangular
com m linhas e n colunas, com a entrada Aij ocupando a linha i e a coluna j.
Uma matriz m × 1 é chamada uma matriz coluna e uma matriz 1 × n é chamada uma matriz linha.
O conjunto das matrizes m × n sobre o corpo K será denotado por

Mm×n (K)

e, quando m = n, simplesmente por


Mn (K).

1.42 Definição. Definimos em Mm×n (K) as operações de soma e produto por escalar
i
(A + B)j := Aij + Bji ,
i
(xA)j := xAij .


1.43 Proposição. Mm×n (K) é um K-espaço vetorial com dimensão mn.
Prova: Uma base para Mm×n (K) é dada por

B = {Eij : 1 6 i 6 m e 1 6 j 6 n}

onde
k ij
(Eij )l = δkl .


1.44 Definição. Dadas duas matrizes sobre o corpo K, Am×p e Bp×n , o produto AB é a matriz m × p
definida por
p
X
i
(AB)j = Air Bjr .
r=1


1.45 Proposição. O produto de matrizes satisfaz as seguintes propriedades
(i) (Associatividade) Para todas matrizes A ∈ Mm×p (K), B ∈ Mp×q (K) e C ∈ Mq×n (K) vale

A(BC) = (AB)C.

(ii) (Distributividade) Para todas matrizes A, B, C ∈ Mm×n (K) vale

A(B + C) = AB + AC,
(A + B)C = AC + BC.
Rodney Josué Biezuner 17

(iii) (Distributividade com relação à multiplicação por escalar) Para toda matriz A ∈ Mm×n (K) e para
todo escalar α ∈ K vale
α(AB) = (αA)B = A(αB).
(iv) (Existência de identidade) Se In ∈ Mn (K) := Mn×n (K) denota a matriz
 
1 0 ··· 0
 0 1 ··· 0 
In =  . . . ,
 
 .. .. . . ... 

0 0 ··· 1

isto é,
i
(In )j = δji .
Então, para toda matriz A ∈ Mm×n (K) vale

AIn = Im A = A.

Em particular, Mn (K) é uma álgebra associativa com identidade.


Prova: (i) De fato, se A ∈ Mm×p (K), B ∈ Mp×q (K) e C ∈ Mq×n (K), então os produtos estão todos definidos
e nós temos
p p q
!
X r
X X
i i i r s
[A(BC)]j = Ar (BC)j = Ar Bs C j
r=1 r=1 s=1
p X
X q p X
X q
Air Bsr Cj = s
Air Bsr Cjs
 
=
r=1 s=1 r=1 s=1
q X
p q p
!
X X X
Air Bsr Cjs Air Bsr Cjs

= =
s=1 r=1 s=1 r=1
q
X i
= (AB)s Cjs = [(AB)C]ij .
s=1

A demonstração fica mais fácil de ver usando a convenção de Einstein:


r i
[A(BC)]ij = Air (BC)j = Air Bsr Cjs = Air Bsr Cjs = (AB)s Cjs = [(AB)C]ij .
 

(ii), (iii) e (iv) ficam como exercı́cio. 


1.46 Definição. Uma matriz quadrada A ∈ Mn (K) é invertı́vel se existe uma matriz B ∈ Mn (K) tal que

AB = BA = I.

B é chamada a inversa de A. 
1.47 Proposição. Valem os seguintes fatos:
(i) Se uma matriz possui uma inversa, então esta inversa é única.
(ii) Se A é invertı́vel, então A−1 também é e (A−1 )−1 = A.
(iii) Se A, B são invertı́veis, então AB também é e

(AB)−1 = B −1 A−1 .
Rodney Josué Biezuner 18

Prova: (i) Suponha que

AB1 = B1 A = I.
AB2 = B2 A = I.

Tomando a equação B1 A = I, por exemplo, e multiplicando ambos os lados desta equação à direita por B2 ,
obtemos
(B1 A)B2 = IB2 ⇒ B1 (AB2 ) = B2 ⇒ B1 I = B2 ⇒ B1 = B2 .
(iii) Para verificar isso, temos que mostrar que

(AB)B −1 A−1 = I,
B −1 A−1 (AB) = I.

Provaremos a primeira identidade, já que a demonstração da segunda é análoga. De fato,

(AB)B −1 A−1 = A(BB −1 )A−1 = AIA−1 = AA−1 = I.



Questões: Se A e B são matrizes n × n tais que o produto AB é invertı́vel, então A e B também são
necessariamente invertı́veis? E se A e B são matrizes tais que o produto AB é invertı́vel, então A e B
também são necessariamente invertı́veis? Estas questões serão resolvidas no próximo capı́tulo.

1.7 Matriz de Mudança de Base


1.48 Definição. Dado um espaço vetorial V de dimensão finita, e uma base B = {e1 , . . . , en } para V ,
representamos um vetor v de V com relação à base B através de uma matriz coluna
 1 
v
 .. 
[v]B =  . 
vn

onde as entradas v 1 , . . . , v n são as coordenadas de v com relação à base B. 


1.49 Lema. Se A ∈ Mn (K) é tal que para toda matriz coluna X ∈ Mn×1 (K) vale

AX = X,

ou para toda matriz linha C ∈ M1×n (K) vale

Y A = Y,

então A = I.
Prova: Se
AX = X
para toda matriz coluna X, em particular tomando X = Ej obtemos

Aj = AEj = Ej .

onde Aj denota a j-ésima coluna de A. O segundo resultado segue do primeiro tomando transpostas. 
Rodney Josué Biezuner 19

1.50 Teorema. Sejam

B = {e1 , . . . , en } ,
B0 = {e01 , . . . , e0n } ,

duas bases para o espaço vetorial V . Então existe uma única matriz invertı́vel P tal que

[v]B0 = P [v]B ,
[v]B = P −1 [v]B0 ,

para todo vetor v ∈ V , chamada a matriz de mudança de base de B para B0 , denotada também

P = PB→B0 ,

de modo que
[v]B0 = PB→B0 [v]B .

Em particular, tomando v = ei , segue que as colunas de P são dadas pelas coordenadas dos vetores da
base B com relação à base B0 , ou seja,
Pi = [ei ]B0 .

para i = 1, . . . , n.
Prova: Suponha que os vetores da base B se escrevem em coordenadas com relação à base B0 na forma
n
X
ej = Pji e0i ,
i=1

para cada j = 1, . . . , n, para certos escalares Pji ∈ K. Dado um vetor v ∈ V , suas coordenadas em relação
às bases B e B0 são, respectivamente,
n
X
v= v j ej ,
j=1
n
X 0
v= v i e0i .
i=1

Como
n
X
v= v j ej
j=1
n n
!
X X
= v j
Pji e0i
j=1 i=1
 
n
X n
X
=  Pji v j  e0i ,
i=1 j=1

segue da unicidade das coordenadas em relação a uma base que


n
X
vi0 = Pji v j ,
j=1
Rodney Josué Biezuner 20

ou seja,
[v]B0 = P [v]B
i

para a matriz P = Pj ∈ Mn (K). Analogamente, existe uma matriz Q ∈ Mn (K) tal que

[v]B = Q [v]B0 .

Em particular

[v]B0 = P [v]B = P Q [v]B0 ,


[v]B = Q [v]B0 = QP [v]B ,

para todo v ∈ V . Pelo lema segue que


P Q = QP = I,
−1
ou seja, Q = P . 

1.8 Somas de Subespaços Vetoriais


1.51 Definição. Sejam S1 , . . . , Sk subconjuntos de um espaço vetorial V . Definimos a soma dos subcon-
juntos S1 , . . . , Sk como sendo o conjunto
k
X
Si = S1 + . . . + Sk
i=1
= {v1 + . . . + vk : vi ∈ Si para i = 1, . . . k} .


1.52 Proposição. Se W1 , . . . , Wk são subespaços de um espaço vetorial V , então a sua soma W1 + . . . + Wk
também é um subespaço vetorial de V e contém cada um dos subespaços Wi , i = 1, . . . k.
Prova. Usando a Proposição 1.30, se

v = w1 + . . . + wk ,
v 0 = w10 + . . . + wk0 ,

são dois vetores quaisquer de W1 + . . . + Wk , com wi , wi0 ∈ Wi para cada i, e x, y são escalares quaisquer,
segue que

xv + yv 0 = (xw1 + yw10 ) + . . . + (xwk + ywk0 )


∈ W1 + . . . + W k .

A última afirmação do enunciado é óbvia, pois o vetor nulo esta em cada um dos subespaços. 
1.53 Teorema. Se W1 , W2 são dois subespaços de dimensão finita de um espaço vetorial V , então W1 + W2
também tem dimensão finita e

dim (W1 + W2 ) = dim W1 + dim W2 − dim (W1 ∩ W2 )

Prova. Pelos Teoremas 1.32 e 1.34, W1 ∩ W2 é um subespaço vetorial de V , e portanto também de W1 , W2 ,


que tem uma base finita
{e1 , . . . , en } .
Rodney Josué Biezuner 21

Pelo Teorema 1.28, esta é parte de uma base

B1 = {e1 , . . . , en , f1 , . . . , fk }

para W1 e parte de uma base


B2 = {e1 , . . . , en , g1 , . . . , gl }
para W2 . O subespaço W1 + W2 é gerado pelo conjunto

B = {e1 , . . . , en , f1 , . . . , fk , g1 , . . . , gl } .

Basta provar que B é LI para terminar a demonstração, pois então B será uma base para W1 +W2 e portanto

dim W1 + dim W2 = (n + k) + (n + l)
= (n + k + l) + n
= dim (W1 + W2 ) + dim (W1 ∩ W2 ) .

De fato, suponha que


n
X k
X l
X
i i
x ei + y fi + z i gi = 0.
i=1 i=1 i=1

Escrevendo
l
X n
X k
X
w := z i gi = − xi ei − y i fi ,
i=1 i=1 i=1

vemos que w ∈ W2 e que também w ∈ W1 , ou seja, w ∈ W1 ∩ W2 . Em particular, existem escalares


w1 , . . . , wn tais que
Xn
w= w i ei .
i=1

Subtraindo as duas expressões para w, obtemos


n
X l
X
w i ei − z i gi = 0,
i=1 i=1

e como {e1 , . . . , en , g1 , . . . , gl } é LI, concluı́mos que

w1 = . . . = wn = z 1 = . . . = z l = 0.

Mas então w = 0 e
n
X k
X
xi ei + y i fi = 0;
i=1 i=1

como {e1 , . . . , en , f1 , . . . , fk } é LI, segue que

x1 = . . . = xn = y 1 = . . . = y k = 0.


1.54 Definição. Sejam W1 , W2 dois subespaços de um espaço vetorial V . Se W1 ∩ W2 = {0}, dizemos que
os subespaços W1 , W2 são LI e sua soma W1 + W2 é chamada soma direta e denotada

W1 ⊕ W2 .


Rodney Josué Biezuner 22

1.55 Corolário. Se W = W1 ⊕ W2 , então

dim W = dim W1 + dim W2 .

Prova. Segue imediatamente do Teorema 1.53 quando se observa que

dim (W1 ∩ W2 ) = dim {0} = 0.


1.56 Proposição. W = W1 ⊕ W2 se e somente se todo vetor w ∈ W se escreve de maneira única na forma

w = w1 + w2

com w1 ∈ W1 e w2 ∈ W2 .
Prova. Assuma que W1 ∩ W2 = {0}. Seja w ∈ W e suponha que

w = w1 + w2
w = w10 + w20

w1 , w10 ∈ W1 e w2 , w20 ∈ W2 . Então


(w1 − w10 ) + (w2 − w20 ) = 0,
donde
(w1 − w10 ) = − (w2 − w20 ) .
Mas então (w1 − w10 ) ∈ W1 ∩ W2 e (w2 − w20 ) ∈ W1 ∩ W2 , logo w1 − w10 = 0 e w2 − w20 = 0, ou seja, w1 = w10
e w2 = w20 .
Reciprocamente, assuma que todo elemento w ∈ W se escrever de maneira única como uma soma w =
w1 + w2 , com w1 ∈ W1 e w2 ∈ W2 , e suponha por absurdo que exista um vetor v ∈ W1 ∩ W2 tal que v 6= 0.
Então o vetor nulo é um vetor de W que se escreve pelo menos de duas maneiras diferentes como a soma de
vetores de W1 e W2 :

0 = v + (−v) ,
0 = 0 + 0.


1.57 Teorema. Seja V um espaço vetorial de dimensão finita de dimensão n. Então todo subespaço W ⊂ V
de dimensão k possui um complemento em V , isto é, existe um subespaço Z ⊂ V de dimensão n − k tal que

V = W ⊕ Z.

Prova. Se W = {0} ou W = V , tome Z = V ou Z = {0}, respectivamente.


Caso contrário, seja
{e1 , . . . , ek }
uma base para W . Complete esta base até uma base para V :

B = {e1 , . . . , ek , ek+1 , . . . , en } .

Então tomamos como Z o subespaço gerado pelos vetores ek+1 , . . . , en , isto é,

Z = hek+1 , . . . , en i .
Rodney Josué Biezuner 23

De fato, se W ∩ Z 6= {0}, tomando um vetor não-nulo v ∈ W ∩ Z, terı́amos escalares v 1 , . . . , v k , v k+1 , . . . , v n


não todos nulos tais que
k
X
v= v i ei ,
i=1
Xn
v= v i ei ,
i=k+1

donde
k
X n
X
v i ei − v i ei = 0
i=1 i=k+1

seria uma combinação linear não trivial produzindo o vetor nulo, contradizendo o fato que B é LI. 

1.58 Exemplo. Se ( n )
X
par 2i
K [x] = ai x : a0 , . . . an ∈ K, n ∈ N ,
i=0

é o subespaço dos polinômios pares e


( n )
X
Kı́mpar [x] = ai x2i+1 : a0 , . . . an ∈ K, n ∈ N ,
i=0

é o subespaço dos polinômios ı́mpares (note que o polinômio nulo é simultaneamente par e ı́mpar), então

K [x] = Kpar [x] ⊕ Kı́mpar [x] .

1.59 Exemplo. Se
Fpar = {f : R −→ R : f (x) = f (−x)} ,
é o subespaço das funções reais pares e

Fı́mpar = {f : R −→ R : f (x) = −f (−x)} ,

é o subespaço das funções reais ı́mpares, então

F (R; R) = Fpar ⊕ Fı́mpar ,

pois todo função f ∈ F (R; R) se escreve de forma única como uma soma f = g + h de uma função par g e
uma função ı́mpar h; basta tomar

f (x) + f (−x)
g (x) = ,
2
f (x) − f (−x)
h (x) = ,
2
e a função nula é a única função simultaneamente par e ı́mpar. 
Generalizamos a Definição 1.54 e os resultados que lhe seguem para um número arbitrário de subespaços
de V :
Rodney Josué Biezuner 24

1.60 Definição. Seja V um espaço vetorial. Dizemos que os subespaços vetoriais W1 , . . . , Wk de V são LI
se
w1 + . . . + wk = 0
implicar
w1 = . . . = wk = 0.
Neste caso sua soma é chamada uma soma direta e denotada
W1 ⊕ . . . ⊕ Wk .

1.61 Proposição. Todo vetor de W = W1 ⊕ . . . ⊕ Wk se escreve de maneira única na forma
w = w1 + . . . + wk
com wi ∈ Wi para todo i.
1.62 Proposição. Sejam V um espaço vetorial e W1 , . . . , Wk subespaços de V . As seguintes afirmações
são equivalentes:
1.63 Lema. (i) W1 , . . . , Wk são LI.
(ii) Para cada 2 6 j 6 k nós temos
(W1 + . . . + Wj−1 ) ∩ Wj = {0} .
(iii) Se Bi é uma base para Wi então B = {B1 , . . . , Bk } é uma base para W1 + . . . + Wk .
Prova: (i) ⇒ (ii) Seja w ∈ (W1 + . . . + Wj−1 ) ∩ Wj . Então temos simultaneamente
w ∈ Wj ,
w = w1 + . . . + wj−1 ,
para alguns vetores wi ∈ Wi . Como
w1 + . . . + wj−1 − w + 0 + . . . + 0 = 0
concluı́mos que w1 = . . . = wj−1 = w = 0.
(ii) ⇒ (i) Suponha que
w1 + . . . + wk = 0
com wi ∈ Wi para cada i. Se existe algum wj não nulo, seja j o maior inteiro tal que wj 6= 0. Então
w1 + . . . + wj = 0 e
wj = −w1 − . . . − wj−1
contradizendo (W1 + . . . + Wj−1 ) ∩ Wj = {0}.
(i) ⇔ (iii) Óbvio. 

1.9 Somas Diretas de Espaços Vetoriais


1.64 Definição. Sejam V, W dois K-espaços vetoriais. A soma direta (ou espaço vetorial produto)
V ⊕ W de V e W é o produto cartesiano V × W com as operações de soma e produto por escalar definidas
por
(v1 , w1 ) + (v2 , w2 ) := (v1 + v2 , w1 + w2 ) ,
x (v, w) := (xv, xw) .

Rodney Josué Biezuner 25

1.65 Proposição. Vale


dim (V ⊕ W ) = dim V + dim W.
Prova. Se

BV = {e1 , . . . , en } ,
BW = {f1 , . . . , fm } ,

são bases de V e W , respectivamente, então

B = {(e1 , 0) , . . . , (en , 0) , (0, f1 ) , . . . , (0, fm )}

é uma base para V ⊕ W . 


Capı́tulo 2

Lineomorfismos

2.1 Definição
Definida uma estrutura matemática sobre conjuntos (e portanto a especificação de uma determinada classe
de conjuntos, ou seja, aqueles que possuem esta estrutura, chamados objetos), o estudo desta estrutura só
é completo quando se estuda também as funções entre estes conjuntos que preservam esta estrutura, isto é,
os morfismos com respeito a esta estrutura (morfismos entre objetos). A classe de objetos (conjuntos que
possuem esta estrutura) juntamente com o conjunto de morfismos (funções que preservam esta estrutura)
é chamada uma categoria. Na Álgebra Linear, o objetivo é estudar a categoria dos espaços vetoriais sobre
o corpo K, caracterizados por uma estrutura linear, isto é, a capacidade de somar vetores e multiplicá-los
por escalares em K (em outras palavras, a capacidade de tomar combinações lineares). Os morfismos que
preservam esta estrutura linear são chamados aplicações lineares, mapas lineares, transformações lineares
ou, simplesmente, morfismos lineares ou lineomorfismos. Neste texto escolhemos estes últimos dois nomes.
2.1 Definição. Sejam V, W dois espaços vetoriais sobre um mesmo corpo K.
Uma função T : V −→ W é chamado um lineomorfismo ou morfismo linear se

T (xv + yw) = xT (v) + yT (w)

para todos v, w ∈ V e x, y ∈ K.
Quando V = W , um morfismo linear T : V −→ V é chamado um operador linear. 
Morfismos lineares preservam portanto as operações que definem um espaço vetorial, que são a soma de
vetores e a multiplicação de vetores por escalares, isto é, morfismos lineares preservam combinações lineares.
Preservar combinações lineares significa que a imagem de uma combinação linear de vetores é a mesma
combinação linear das imagens destes vetores.

2.2 Proposição. Se

T : V −→ W,
S : W −→ Z,

são morfismos lineares, então sua composta

S ◦ T : V −→ Z

também é um morfismo linear.

26
Rodney Josué Biezuner 27

Prova: Por linearidade,

(S ◦ T ) (xv + yw) = S [T (xv + yw)]


= S [xT (v) + yT (w)]
= xS [T (v)] + yS [T (w)]
= x (S ◦ T ) (v) + y (S ◦ T ) (w) .


Um lineomorfismo T : V −→ W leva a identidade do espaço vetorial V na identidade do espaço vetorial
W:
2.3 Proposição. Seja T : V −→ W um morfismo linear. Então T (0V ) = 0W .
Prova: Observe que estamos usando notações diferentes para os vetores nulos de cada espaço por motivos
de clareza. Temos
T (0V ) = T (00V ) = 0T (0V ) = 0W .


2.1.1 Existência e Unicidade de Lineomorfismos


2.4 Teorema. Um lineomorfismo é completamente determinado pelos valores que ele toma em uma base.
Prova: Sejam T : V −→ W um morfismo linear e B = {ei }i∈I uma base para V . Dado um vetor v ∈ V , ele
se escreve como uma combinação linear

v = v i1 e i1 + . . . + v in e in

para alguns vetores ei1 , . . . , ein ∈ B. Logo,


n
! n
X X
ii
Tv = T v e ii = v ii T (eii ) .
i=1 i=1


Podemos dizer ainda mais: para definir um morfismo linear T : V −→ W basta estipular os seus valores em
uma base e estender linearmente aos demais vetores de V :

2.5 Teorema. Sejam V um espaço vetorial, B = {ei }i∈I uma base para V e {fi }i∈I um conjunto de vetores
arbitrários de um espaço vetorial W .
Existe um único morfismo linear T : V −→ W tal que

T ei = fi

para todo i ∈ I.

Prova: Primeiro, o caso de dimensão finita: sejam B = {e1 , . . . , en } uma base para V e f1 , . . . , fn ∈ W
vetores arbitrários. Como todo vetor v ∈ V se escreve como uma combinação linear de maneira única

v = v 1 e1 + . . . + v n en ,

definimos T : V −→ W por
T v = v 1 f1 + . . . + v n fn .
Rodney Josué Biezuner 28

Para ver que T é um morfismo linear, escrevendo vetores quaisquer v, w ∈ V na forma


n
X
v= v i ei ,
i=1
n
X
w= w i ei ,
i=1

para todos escalares x, y ∈ K temos


n n
!
X X
i i
T (xv + yw) = T x v ei + y w ei
i=1 i=1
n
!
X
i i

=T xv + yw ei
i=1
n
X
xv i + ywi fi

=
i=1
Xn n
X
i
=x v fi + y w i fi
i=1 i=1
= xT (v) + yT (w) .
A unicidade de T decorre do teorema anterior.
No caso em que V, W tem dimensões arbitrárias, como todo vetor v ∈ V se escreve como uma combinação
linear de maneira única X
v= v i ei ,
i∈I
i
onde apenas um número finito dos escalares v são não nulos, definimos a aplicação T : V −→ W por
X
Tv = v i fi .
i∈I

Escrevendo vetores quaisquer v, w ∈ V na forma


X
v= v i ei ,
i∈I
X
w= w i ei ,
i∈I
i i
onde apenas um número finito dos escalares v , w são não nulos, para todos escalares x, y ∈ K temos
!
X X
i i
T (xv + yw) = T x v ei + y w ei
i∈I i∈I
!
X
i i

=T xv + yw ei
i∈I
X
xv i + ywi fi

=
i∈I
X X
=x v i fi + y w i fi
i∈I i∈I
= xT (v) + yT (w) .

Rodney Josué Biezuner 29

2.6 Definição. Sejam V, W K-espaços vetoriais. Denotamos o conjunto dos morfismos lineares de V em W
por Hom (V, W ).
Definimos uma estrutura de K-espaço vetorial em Hom (V, W ) por

(T + S) (v) := T (v) + S (v) ,


(xT ) (v) := xT (v) ,

para todo v ∈ V .
Se V = W , denotamos Hom (V, W ) simplesmente por Hom(V ). 

2.1.2 Isomorfismos
2.7 Definição. Dizemos que dois espaços vetoriais V e W são isomorfos quando existe um lineomorfismo
bijetivo T : V −→ W cujo inverso é linear.
Neste caso, T é chamado um isomorfismo. 
Como a composta de isomorfismos é um isomorfismo, dois espaços vetoriais serem isomorfos é uma relação
de equivalência. Assim, do ponto de vista da álgebra linear, dois espaços isomorfos são indistinguı́veis.
2.8 Proposição. Se T : V −→ W é um lineomorfismo injetivo, então a inversa T −1 : T (V ) −→ V é
automaticamente linear.
Prova: Dados w1 , w2 ∈ T (V ), sejam v1 , v2 ∈ V tais que

T (v1 ) = w1 ,
T (v2 ) = w2 .

Dados x, y ∈ K, segue que

T (xv1 + yv2 ) = xT (v1 ) + yT (v2 )


= xw1 + yw2 .

Portanto,
T −1 (xw1 + yw2 ) = xv1 + yv2 = xT −1 (w1 ) + yT −1 (w2 ) .

2.9 Proposição. Um lineomorfismo é injetivo se e somente se T −1 (0) = 0.
Prova: Assuma T −1 (0) = 0. Se T (v) = T (w), por linearidade segue que T (v − w) = 0, logo v − w = 0 e
portanto v = w, ou seja, T é injetivo.
Reciprocamente, assuma T : V −→ W injetivo. Por linearidade T (0) = 0. Se T (v) = T (w), por
linearidade T (v − w) = 0, logo segue da injetividade de T que v − w = 0, ou seja v = w. 
2.10 Teorema. Todo K-espaço vetorial de dimensão n é isomorfo a Kn .
Prova: Denote por ei o i-ésimo vetor da base canônica de Kn , isto é, o j-ésimo elemento da n-upla ei é

eji = δij ,

o delta de Kronecker. Sejam V um espaço vetorial de dimensão n e B = {v1 , . . . , vn } uma base para V .
Usando o Teorema 2.5, definimos um lineomorfismo T : V −→ Kn por

T (vi ) = ei ,

É fácil ver que T é um isomorfismo. 


Rodney Josué Biezuner 30

2.11 Teorema. Se n 6= m, então Kn não é isomorfo a Km .


Prova: Suponha n > m e assuma por absurdo que T : Kn −→ Km é um isomorfismo. Mostraremos que
{T e1 , . . . , T en } é um conjunto LI no espaço Km de dimensão m < n, uma contradição. De fato, se

0 = x1 T (e1 ) + . . . + xn T (en ) = T x1 e1 + . . . + xn en ,


então
x1 e1 + . . . + xn en = 0
porque T é injetivo, o que por sua vez implica x1 = . . . = xn = 0. 
2.12 Corolário. Sejam V e W espaços vetoriais isomorfos. Então dim V = dim W .
Prova: Segue dos Teoremas 2.10 e 2.11 e do fato de que a composta de um isomorfismo é um isomorfismo.


2.2 Espaço Quociente


2.13 Definição. Seja U um subespaço do espaço vetorial V . Se v, w ∈ V , dizemos que v é equivalente a
w módulo U se
v − w ∈ U.

Denotamos isso por


v∼w
e por v ∼U w ou ainda por v ∼ w (mod U ) quando for necessário explicitar o subespaço U .
A relação de equivalência módulo subespaço é uma relação de equivalência em V , como pode ser facilmente
verificado. Denotaremos a classe de equivalência do vetor v por [v], isto é,

[v] = {w ∈ V : w ∼ v} .

Observe que a classe de equivalência do vetor nulo é exatamente o subespaço U :

[0] = U.

2.14 Definição. Seja U um subespaço do espaço vetorial V . As operações de soma e produto por escalar de
V induzem de forma natural operações de soma e produto por escalar no conjunto das classes de equivalência
módulo U por

[v] + [w] := [v + w] ,
x [v] := [xv] .

Com estas operações, o conjunto das classes de equivalência módulo U torna-se um espaço vetorial, chamado
o espaço quociente de V por U e denotado por

V /U.


Verifique que as operações estão bem definidas e que V /U satisfaz as propriedades de um espaço vetorial.
Rodney Josué Biezuner 31

2.15 Exemplo. Se V = R3 e U é um subespaço de dimensão 2 (isto é, um plano passando pela origem),
então as classes de equivalência de V /U são planos paralelos a U . Note que dois vetores v, w ∈ V pertencem
à mesma classe de equivalência, isto é, ao mesmo plano paralelo a U se sua diferença v − w (dada pela regra
do triângulo) é paralela ao plano U . 

2.16 Teorema. Seja


V =U ⊕Z
e seja
π: V −→ V /U
v 7→ [v]
a aplicação quociente.
Então π é um lineomorfismo e a restrição

π|Z : Z −→ V /U

é um isomorfismo canônico (isto é, independe da escolha de bases).


Em particular, se tem V dimensão finita, então o espaço quociente V /U tem dimensão finita e

dim (V /U ) = dim V − dim U.

Prova: A linearidade de π segue de

π (xv + yw) = [xv + yw]


= [xv] + [yw]
= x [v] + y [w]
= xπ (v) + yπ (w) .

Para ver que π|Z é injetiva, note que


π (v) = 0
é equivalente a
[v] = [0] = U
o que significa que v ∈ U . Então v ∈ U ∩ Z = {0}, logo v = 0.
Para ver que π|Z é sobrejetiva, seja [v] ∈ V /U qualquer. Temos v = w + z, com w ∈ U e z ∈ Z. Daı́,
v − z = w, ou seja, [v] = [z], donde [v] = π (z).
Como V /U é isomorfo a Z e V = U ⊕ Z, temos, respectivamente,

dim (V /U ) = dim Z,
dim V = dim Z + dim U,

donde segue a última afirmativa. 


Outra maneira de definir o isomorfismo canônico é através da propriedade de que ele é o único lineomorfismo
que faz o diagrama seguinte virar comutativo:
ı
Z ,→ V
& ↓π
V /U

2.17 Exemplo. No Exemplo 2.15, Z é qualquer reta passando pela origem não paralela a U . 
Rodney Josué Biezuner 32

2.3 Teorema do Núcleo e da Imagem


2.18 Proposição. Seja T : V −→ W um lineomorfismo.
Se U é um subespaço de V , então T (U ) é um subespaço de W .
Reciprocamente, se Z é um subespaço de W , então T −1 (Z) é um subespaço de V .
Prova: Como 0 ∈ U , temos T (U ) 6= ∅. Sejam w1 , w2 ∈ T (U ) e u1 , u2 ∈ U tais que

T (u1 ) = w1 ,
T (u2 ) = w2 .

Para todos x, y ∈ K segue que

xw1 + yw2 = xT (u1 ) + yT (u2 ) = T (xu1 + yu2 ) ,

e como xu1 + yu2 ∈ U , concluı́mos que xw1 + yw2 ∈ T (U ).


Reciprocamente, sejam v1 , v2 ∈ T −1 (Z). Então

T (v1 ) =: z1 ∈ Z,
T (v2 ) =: z2 ∈ Z.

Para todos x, y ∈ K segue que

T (xv1 + yv2 ) = xT (v1 ) + yT (v2 ) = xz1 + yz2 ∈ Z,

logo concluı́mos que xv1 + βv2 ∈ T −1 (Z). 


Segue deste resultado que o conjunto imagem im T de um lineomorfismo T : V −→ W entre espaços vetoriais
é um subespaço de W e que o conjunto T −1 (0) é um subespaço de V ; este último é chamado o núcleo do
lineomorfismo T e denotado ker T .
2.19 Teorema (Teorema do Núcleo e da Imagem). Seja T : V −→ W um lineomorfismo.
Os subespaços
V / ker T e im T
são isomorfos.
Em particular, se V tem dimensão finita,

dim V = dim (ker T ) + dim (im T ) .

Prova 1: Definimos o isomorfismo φ : V / ker T −→ im T da maneira mais natural possı́vel

φ : V / ker T −→ im T
[v] 7−→ T (v)

Observe que φ está bem definido, porque se [v] = [w], então v − w ∈ ker T , isto é, T (v − w) = 0, donde
T v = T w. Além disso, φ é linear porque

φ (x [v] + y [w]) = φ ([xv + yw])


= T (xv + yw)
= xT (v) + yT (w)
= xφ ([v]) + yφ ([w]) .

φ é injetivo porque se φ ([v]) = T (v) = 0, então v ∈ ker T , logo [v] = 0 em V / ker T . Finalmente, φ é
sobrejetivo, porque dado w ∈ im T , temos w = T v para algum v ∈ V , logo w = φ ([v]).
Rodney Josué Biezuner 33

Prova 2: Embora a segunda afirmativa decorra da primeira e do Teorema 2.16, já que

dim (im T ) = dim (V / ker T ) = dim V − dim (ker T ) ,

vamos dar-lhe uma demonstração independente, já que ela é a mais freqüentemente usada nas aplicações e
não necessita da introdução do conceito de espaço quociente.
Seja {e1 , . . . , ek } uma base para ker T e complete este conjunto LI até uma base {e1 , . . . , ek , ek+1 , . . . , en }
para V . Afirmamos que
B = {T ek+1 , . . . , T en }
é uma base para im T . De fato, dado
n
X
v= xi ei ,
i=1

temos
n
X
Tv = xi T ei ,
i=k+1

já que T e1 = . . . = T ek = 0, portanto B gera im T . Para provar que B é LI, suponha que
n
X
xi T ei = 0.
i=k+1

Então, !
n
X
i
T x ei = 0,
i=k+1
n
xi ei ∈ ker T . Como a interseção entre os subespaços ker T e hek+1 , . . . , en i é o vetor
P
o que implica que
i=k+1
n
xi ei = 0 e portanto xk+1 = . . . = xn = 0. Em particular,
P
nulo, por construção, segue que
i=k+1

dim V = dim (ker T ) + dim (im T ) .


Observe que o isomorfismo φ definido na demonstração do teorema torna o diagrama abaixo comutativo:
T
V −→ im T
↓π %
φ
V / ker T

2.20 Corolário. Sejam V e W espaços vetoriais com a mesma dimensão. Então um lineomorfismo T :
V −→ W é injetivo se e somente se ele é sobrejetivo.
Prova: Pois
dim W = dim V = dim (ker T ) + dim (im T ) ,
logo dim (ker T ) = 0 se e somente se dim (im T ) = dim W . 
Rodney Josué Biezuner 34

2.4 Representações Matriciais de Morfismos Lineares


Seja T ∈ Hom (V, W ) um lineomorfismo entre espaços vetoriais de dimensão finita. Escolha bases

BV = {e1 , . . . , en } ,
BW = {e01 , . . . , e0m }

para V e W , respectivamente. Então, cada vetor v ∈ V se escreve


n
X
v= v j ej ,
j=1

donde  
n
X n
X
Tv = T  v j ej  = v j T (ej ) .
j=1 j=1

Escreva os vetores T e1 , . . . , T en em relação à base BW na forma

m
X
T (ej ) = Aij e0i ,
i=1

isto é, na forma de matriz coluna:


A1j
 

T (ej ) =  ...  = Aj .
 

Amj

Em outras palavras, as colunas de A são dadas por

Aj = [T (ej )]BW .


A matriz A = Aij m×n é chamada a representação matricial do lineomorfismo T com relação às bases
BV e BW . Esta representação de T também será denotada por

A = [T ]BV ,BW .

No caso em que V = W e T ∈ Hom (V ) é um operador linear, se B é uma base de V podemos denotar o


representante matricial de T com relação à base B simplesmente por

A = [T ]B

e vale
[T v]B = [T ]B [v]B .

2.21 Teorema. Sejam V , W e Z espaços vetoriais de dimensão finita com bases

BV = {e1 , . . . , en } ,
BW = {e01 , . . . , e0m } ,
BW = e001 , . . . , e00p ,

Rodney Josué Biezuner 35

respectivamente. Sejam

T : V −→ W,
S : W −→ Z,

morfismos lineares. Então

[S ◦ T ]BV ,BZ = [S]BW ,BZ [T ]BV ,BW .

Em particular, se V = W = Z e BV = BW = BZ = B, então

[S ◦ T ]B = [S]B [T ]B .

Prova: Sejam

[T ]BV ,BW = Am×n ,


[S]BW ,BZ = Bp×m .

Temos
m
! m
X X
(S ◦ T ) (ej ) = S [T (ej )] = S Aij e0i = Aij S (e0i )
i=1 i=1
p p
m m
!
X X X X
= Aij Bik e00k = Bik Aij e00k
i=1 k=1 k=1 i=1
p
X k
= (BA)j e00k .
k=1

2.5 A Álgebra dos Operados Lineares


2.22 Definição. Hom (V ) com o produto entre dois operadores lineares T, S definido por

TS = T ◦ S

é uma álgebra associativa (pois a composição de funções é associativa), não comutativa se dim V > 2
(exercı́cio) e com identidade (o operador identidade). 
2.23 Definição. Um morfismo entre álgebras (V, ∗) e (W, ·) é um lineomorfismo φ : V −→ W que
preserva o produto, isto é,
φ (v ∗ w) = φ (v) · φ (w)

para todos v, w ∈ V .
Um morfismo entre álgebras com identidade também preserva a identidade, ou seja,

φ (1V ) = 1W .


Rodney Josué Biezuner 36

Em outras palavras, um morfismo entre álgebras preserva as duas estruturas que caracterizam uma álgebra:
a estrutura linear e o produto entre vetores.
2.24 Corolário. Fixe bases BV e BW para os K-espaços vetoriais V e W , respectivamente, com dim V = n
e dim W = m. Então a aplicação
Φ : Hom (V, W ) −→ Mm×n (K)
definida por
T 7→ [T ]BV ,BW
é um isomofismo entre espaços vetoriais. Em particular,

dim Hom (V, W ) = dim V dim W.

Se V = W , então Φ é um isomorfismo entre álgebras lineares com identidade.


Prova: Verificar que Φ é um isomorfismo entre espaços vetoriais é deixado como exercı́cio. O fato que Φ
preserva o produto segue do Teorema 2.21 e é fácil verificar que Φ leva a aplicação identidade na matriz
identidade. 
2.25 Teorema. Sejam B,B0 duas bases para o espaço vetorial V e PB→B0 a matriz de mudança de base de
B para B0 . Se T ∈ Hom (V ) é um operador linear, então

[T ]B0 = PB→B0 [T ]B PB0 →B .

Em outras palavras, se P = PB→B0 , então


[T ]B0 = P [T ]B P −1 .
Prova: Pelo Teorema 1.50, para todo vetor v ∈ V vale
[T ]B0 [v]B0 = [T v]B0
= PB→B0 [T v]B
= PB→B0 [T ]B [v]B
= PB→B0 [T ]B PB0 →B [v]B0
logo
[T ]B0 = P [T ]B P −1 .

Observe que a matriz P = PB→B0 nada mais é que a matriz que representa o lineomorfismo U que leva
a base B0 na base B em relação à base B0 :
U e0i = ei ,
pois
Pi = [ei ]B0 = [U e0i ]B0 .
Em outras palavras,
PB→B0 = [U ]B0 .
Consequentemente,
−1
P −1 = [U ]B0 = U −1 B .
 

Assim, o resultado do teorema anterior também pode ser expresso na forma

−1
[T ]B0 = [U ]B0 [T ]B [U ]B0 .
Rodney Josué Biezuner 37

2.26 Definição. Sejam A, B ∈ Mn (K) duas matrizes quadradas. Dizemos que A e B são semelhantes se
existe uma matriz invertı́vel P ∈ Mn (K) tal que

B = P −1 AP.


Segue do Teorema 2.25 que duas matrizes são semelhantes se em um K-espaço vetorial elas representam o
mesmo lineomorfismo em relação a duas bases (possivelmente) distintas. Observe que similaridade é uma
relação de equivalência em Mn (K).
Podemos dizer mais: se dois operadores lineares distintos possuem a mesma matriz em relação a bases
diferentes, então eles diferem apenas por conjugação de um isomorfismo, como provado a seguir.
2.27 Teorema. Sejam V um espaço vetorial de dimensão finita e T, S ∈ Hom (V ) operadores lineares.
Existem bases B, B0 de V tais que
[T ]B = [S]B0
se e somente se existe um operador linear U ∈ Hom (V ) tal que

T = U SU −1 .

Solução: Suponha que existem bases

B = {e1 , . . . , en } ,
B0 = {e01 , . . . , e0n } ,

de V tais que
[T ]B = [S]B0 =: A.
Defina U ∈ Hom (V ) por
U e0i = ei .
Temos

U SU −1 ei = U Se0i
 
X n
=U Aji e0i 
j=1
n
X
= Aji U (e0i )
j=1
Xn
= Aji ei
j=1

= T ei ,

de modo que
U SU −1 = T.
Reciprocamente, suponha que exista U ∈ Hom (V ) tal que

T = U SU −1 .

Dada uma base de V


B0 = {e01 , . . . , e0n } ,
Rodney Josué Biezuner 38

seja
A := [S]B0
e defina outra base de V
B = {e1 , . . . , en }
por
ei = U e0i .
Então,

T ei = U SU −1 ei
= U Se0i
 
X n
=U Aji e0i 
j=1
n
X
= Aji U (e0i )
j=1
n
X
= Aji ei .
j=1

de modo que
A = [T ]B .

2.28 Teorema (Forma Canônica de um Morfismo Linear). Sejam V, W espaços vetoriais de dimensão
finita com

dim V = n,
dim W = m,

e T ∈ Hom (V, W ). Então existem bases BV , BW tais que [T ]BV ,BW tem a forma em blocos

 
I 0
[T ]BV ,BW = .
0 0

Mais precisamente,  
Ir 0r×(n−r)
[T ]BV ,BW = ,
0(m−r)×r 0(m−r)×(n−r)
onde r = dim im T .
Prova: Pelo Teorema do Núcleo e da Imagem,

dim ker T = n − r.

Seja
Bker T = {er+1 , . . . , en }
uma base para o núcleo de T e
BV = {e1 , . . . , er , er+1 , . . . , en }
Rodney Josué Biezuner 39

o seu completamento até uma base de V . Então

Bim T = {T (e1 ) , . . . , T (er )}

é uma base para im T como vimos na demonstração do Teorema 2.19.


Denotando
fi = T (ei ) para i = 1, . . . , r,
completamos Bim T até uma base
BW = {f1 , . . . , fr , fr+1 , . . . , fn }
para W . Segue que

T (e1 ) = f1 ,
..
.
T (er ) = fr ,
T (er+1 ) = 0,
..
.
T (en ) = 0,

donde segue o resultado.

2.6 Álgebras de Lie Mn (K) e Hom (V )


2.29 Definição. Uma álgebra de Lie é uma álgebra com um produto de vetores chamado colchete de
Lie, denotado por [·, ·], que satisfaz
(i) Anticomutatividade:
[v, w] = − [w, v] .

(ii) Identidade de Jacobi:


[u, [v, w]] + [v, [w, u]] + [w, [u, v]] = 0.


A anticomutatividade, quando K é um corpo com caracterı́stica zero implica que

[v, v] = 0.

Observe que a identidade de Jacobi é uma identidade cı́clica que está no lugar da associatividade. De fato,
o colchete de Lie não é em geral associativo. A associatividade de [, ] é equivalente a

[u, [v, w]] = [[u, v] , w] ,

mas isso implicaria pela identidade de Jacobi que

[[u, v] , w] + [v, [w, u]] + [w, [u, v]] = 0,

e, como o colchete de Lie é anticomutativo, o primeiro termo se cancelaria com o terceiro, restando

[v, [w, u]] = 0


Rodney Josué Biezuner 40

para todos v, w, u, o que em geral não é válido.


Observe também que uma álgebra de Lie V sobre K não trivial não pode ter uma identidade, isto é, um
vetor 1 ∈ V tal que
[1, v] = [v, 1] = v,
se K tem caracterı́stica maior que 2, por causa da anticomutatividade:
[1, v] = − [v, 1]
implicaria
v = −v
e isso só vale em um espaço vetorial sobre Z2 . Em geral, a identidade de Jacobi proibe que uma álgebra
de Lie não trivial sobre qualquer corpo possua sequer identidades laterais. Suponha que (V, [·, ·]) seja uma
álgebra de Lie e que 1 ∈ V é uma identidade à esquerda, isto é,
[1, v] = v
para todo v ∈ V . Pela identidade de Jacobi, para todos v, w ∈ V vale
[1, [v, w]] + [v, [w, 1]] + [w, [1, v]] = 0,
donde
[v, w] − [v, w] + [w, v] = 0,
e daı́
[w, v] = 0.
3
2.30 Exemplo. R com o produto vetorial é uma álgebra de Lie (exercı́cio). Note que em geral v×(w × u) 6=
0. 
2.31 Proposição. Se V é uma álgebra com produto associativo ∗, então

[v, w] = v ∗ w − w ∗ v

define um colchete de Lie em V .


Portanto, se V é uma álgebra associativa, V possui naturalmente uma estrutura adicional induzida de
álgebra de Lie.
Prova: Claramente a anticomutatividade é satisfeita. Para provar a identidade de Jacobi observe que temos
(omitimos o sinal ∗ para facilitar a visualização)
[u, [v, w]] = u [v, w] − [v, w] u
= u (vw − wv) − (vw − wv) u
= u (vw) − u (wv) − (vw) u + (wv) u,
[v, [w, u]] = v (wu) − v (uw) − (wu) v + (uw) v.
[w, [u, v]] = w (uv) − w (vu) − (uv) w + (vu) w.
A associatividade do produto ∗ permite cancelar os termos na soma (abaixo, os termos que se cancelam
estão identificados pelo mesmo superescrito)
[u, [v, w]] + [v, [w, u]] + [w, [u, v]]
= uvw1 − uwv 2 − vwu3 + wvu4
+ vwu3 − vuw5 − wuv 6 + uwv 2
+ wuv 6 − wvu4 − uvw1 + vuw5 .
Rodney Josué Biezuner 41


Assim, a existência de um produto associativo em V automaticamente permite definir um colchete de Lie
em V e V possui duas estruturas de álgebra: uma álgebra associativa e sua álgebra de Lie derivada desta.
Note que se a álgebra ∗ de V for comutativa, então a álgebra de Lie derivada é trivial:

[v, w] = v ∗ w − w ∗ v = v ∗ w − v ∗ w = 0

para todos v, w ∈ V .
2.32 Definição. Definimos o colchete de Lie em Mn (K) por

[A, B] = AB − BA.

Analogamente, definimos o colchete de Lie em Hom (V ) por

[T, S] = T S − ST = T ◦ S − S ◦ T.


2.33 Proposição. Mn (K) e Hom (V ) munidos do produto colchete são álgebras de Lie isomorfas.

O colchete de Lie de matrizes [A, B] também é chamado de comutador, pois mede o quanto as matrizes
A, B não comutam.
2.34 Exemplo. Álgebras de Lie podem se comportar de maneiras bem diferentes. Enquanto que em R3
com o produto vetorial, todo vetor u pode ser escrito como o produto vetorial de dois outros vetores, isto é,
existem vetores v, w tais que u = v × w, isso não é verdade para Mn (K). Dada uma matriz A, se existirem
matrizes B, C tais que A = [B, C], como o traço é um funcional linear e
n n n
!
X i
X X
tr (AB) = (AB)i = Aik Bik
i=1 i=1 k=1
Xn Xn
= Aik Bik = Bik Aik
i,k=1 i,k=1
n n
! n
X X X k
= Bik Aik = (BA)k
k=1 i=1 k=1
= tr (BA) ,

segue que se A = [B, C] então


tr A = tr (BC) − tr (CB) = 0.
De fato, pode-se provar o seguinte: se V denota o subespaço vetorial gerado pelas matrizes que são
colchete de Lie de outras matrizes:

V = hC ∈ Mn (K) : C = [A, B] para A, B ∈ Mn (K)i .

então V é precisamente o subespaço W das matrizes de traço nulo:

W = {C ∈ Mn (K) : tr C = 0} .

Veja [HK], p. 107, Exercı́cio 17, para sugestões para a prova deste resultado. 
Rodney Josué Biezuner 42

2.7 Funcionais Lineares e o Espaço Dual


2.35 Definição. Seja V um espaço vetorial sobre um corpo K. Um lineomorfismo f : V −→ K é chamado
um funcional linear.
O espaço dos funcionais lineares L (V, K) é denotado por V ∗ e chamado o espaço dual de V .
Observe que pelo Corolário 2.24, como dim K = 1, segue que

dim V ∗ = dim V.

2.36 Definição. Sejam V um espaço vetorial sobre um corpo K e B = {e1 , . . . , en } uma base para V .
A base dual de B é a base B∗ = {e∗1 , . . . , e∗n } para V ∗ definida por

e∗i (ej ) = δij .

2.37 Proposição. B∗ = {e∗1 , . . . , e∗n } é uma base para V ∗ .


De fato, para todo funcional linear f ∈ V ∗ nós temos

n
X
f= f (ei ) e∗i ,
i=1

ou seja, as coordenadas de f na base dual são f (e1 ) , . . . , f (en ), e para todo vetor v ∈ V nós temos

n
X
v= e∗i (v) ei ,
i=1

ou seja, as coordenadas de v são e∗1 (v) , . . . , e∗n (v). Portanto, os funcionais e∗i são simplesmente as
funções coordenadas.

Prova: B∗ é de fato um conjunto linearmente independente pois, se


n
X
xi e∗i = 0,
i=1

então !
n
X n
X n
X
xj = xi δij = xi [e∗i (ej )] = xi e∗i (ej ) = 0 (xj ) = 0
i=1 i=1 i=1

para todo j.
Para provar que B∗ gera V ∗ , seja f ∈ V ∗ . Então, para todo j vale
n n
" n #
X X X
f (ej ) = f (ei ) δij = f (ei ) [e∗i (ej )] = f (ei ) e∗i (ej ) ,
i=1 i=1 i=1

e como
n
X
f (ei ) e∗i
i=1
Rodney Josué Biezuner 43

define um funcional linear (combinação linear dos funcionais lineares e∗i ) por unicidade de um lineomorfismo
definido em uma base, segue a primeira fórmula do enunciado.
A segunda fórmula do enunciado segue do fato de que se
n
X
v= xi ei ,
i=1

então por linearidade e definição da base dual


n
! n n
X X X
e∗j (v) = e∗j i
x ei = xi e∗j (ei ) = xi δji = xj .
i=1 i=1 i=1


2.38 Definição. O espaço dos funcionais lineares L (V ∗ , K) definidos no dual de V é denotado por V ∗∗ e
chamado o bidual de V . 
2.39 Teorema. Seja V um espaço vetorial de dimensão finita. Então V e V ∗∗ são canonicamente isomorfos.
Mais precisamente, o isomorfismo canônico Φ : V −→ V ∗∗ é definido por

Φ (v) = Lv ,

onde Lv ∈ V ∗∗ é definido por


Lv (f ) = f (v) .
Prova: O funcional Lv é de fato linear, pois

Lv (xf + yg) = (xf + yg) (v)


= xf (v) + yg (v)
= xLv (f ) + yLv (g) .

Φ é linear porque
Φ (xv + yw) = Lxv+yw = xLv + yLw
pois para todo f ∈ V ∗ temos

Lxv+yw (f ) = f (xv + yw)


= xf (v) + yf (w)
= xLv (f ) + yLw (f )
= (xLv + yLw ) (f ) .

Φ é injetivo porque Lv = 0 se e somente se f (v) = 0 para todo f , o que ocorre se e somente se v é o


vetor nulo, pois se v não é o vetor nulo existe pelo menos um funcional que leva v em um escalar não-nulo:
basta tomar o funcional coordenada apropriado.
A sobrejetividade de Φ decorre da sua injetividade e do fato que

dim V = dim V ∗ = dim (V ∗ ) = dim V ∗∗ .


2.40 Corolário. Seja V um espaço vetorial de dimensão finita. Se L ∈ V ∗∗ então existe um único vetor
v ∈ V tal que
L (f ) = f (v)
para todo f ∈ V ∗ .
Rodney Josué Biezuner 44

2.41 Corolário. Seja V um espaço vetorial de dimensão finita. Toda base para V ∗ é o dual de alguma base
para V .
Prova: Seja B∗ = {f1 , . . . , fn } uma base qualquer para V ∗ . Seja B∗∗ = {L1 , . . . , Ln } sua base dual em V ∗∗ ,
ou seja,
Li (fj ) = δij .
Usando o corolário anterior, sejam e1 , . . . , en ∈ V os únicos vetores tais que

Li (f ) = f (ei )

para todo f ∈ V ∗ , para todo i. Usando a notação do Teorema 2.39, segue que o isomorfismo Φ leva B em
B∗∗ , isto é,
Li = Lei ,
e como isomorfismos levam bases em bases, concluı́mos que B = {e1 , . . . , en } é uma base para V . Daı́,

fj (ei ) = Li (fj ) = δij ,

de modo que fj = e∗j e B∗ é a base dual de B. 


Denotaremos
v ∗∗ = Lv .
Assim,
v ∗∗ (f ) = f (v) .

Também é frequente denotar o funcional dual v ∗∗ simplesmente por v, identificando V com V ∗∗ , já que o
isomorfismo dado pelo Teorema 2.39 é natural. Desta maneira, podemos escrever

v (f ) = f (v) .

2.8 O Morfismo Dual


2.42 Teorema. Sejam V, W espaços vetoriais. Para cada lineomorfismo

T : V −→ W

existe um único lineomorfismo


T ∗ : W ∗ −→ V ∗
tal que
T ∗g = g ◦ T

para todo g ∈ W ∗ .
Prova: De fato, se g é um funcional linear em W , a fórmula

f = g ◦ T,

define f um funcional linear em V , composta de dois morfismos lineares, como no diagrama comutativo
abaixo:
f
V −→ R
↓T %
g
W
Rodney Josué Biezuner 45

Além disso, T ∗ é linear porque

[T ∗ (xg + yh)] (v) = (xg + yh) (T v)


= xg (T v) + yh (T v)
= x (T ∗ g) (v) + y (T ∗ h) (v)
= [x (T ∗ g) + y (T ∗ h)] (v)

para todo v ∈ V . 

2.8.1 Núcleo e Imagem do Morfismo Dual


2.43 Definição. Seja V um espaço vetorial e U ⊂ V um subespaço. O anulador de U é o subespaço U 0
do espaço dual V ∗ constituı́do pelos funcionais lineares que anulam U , isto é,

U 0 = {f ∈ V ∗ : f |U = 0} .


Em outras palavras,
U 0 = {f ∈ V ∗ : f (u) = 0 para todo u ∈ U } .
Note que

V 0 = 0,
00 = V ∗ .

2.44 Proposição. Se V é um espaço vetorial de dimensão finita e U ⊂ V é um subespaço, então

dim U + dim U 0 = dim V.

Prova: Seja ı : U −→ V o lineomorfismo inclusão e considere o seu dual ı∗ : V ∗ −→ U ∗ . Note que

ker ı∗ = U 0 ,
im ı∗ = U ∗ ,

como é fácil ver pelo diagrama comutativo:


f |U
U −→ R
↓ı %
f
V

Pelo Teorema do Núcleo e da Imagem,

dim im ı∗ + dim ker ı∗ = dim V ∗ ,

donde
dim U ∗ + dim U 0 = dim V ∗ .
Como

dim U ∗ = dim U,
dim V ∗ = dim V,

segue o resultado. 
Rodney Josué Biezuner 46

2.45 Teorema. Sejam V , W espaços vetoriais de dimensão finita e T ∈ Hom (V, W ). Então valem
(i)
0
ker T ∗ = (im T ) .
0
im T ∗ = (ker T ) .

(ii)
dim ker T ∗ = dim ker T + (dim W − dim V ) .
dim im T ∗ = dim im T.

Em particular, se V = W e T ∈ Hom (V ) é um operador linear, vale

dim ker T ∗ = dim ker T.


dim im T ∗ = dim im T.

0
Prova: (i) ker T ∗ ⊂ (im T ) : se g ∈ ker T ∗ , então

0 = T ∗ (g) = g ◦ T
0 0
e portanto g ∈ (im T ) . A recı́proca (im T ) ⊂ ker T ∗ segue da mesma equação.
0
im T ∗ ⊂ (ker T ) : se f ∈ im T ∗ , então existe g ∈ W ∗ tal que

f = T ∗ (g) = g ◦ T.

Se v ∈ ker T , então
f (v) = g (T (v)) = g (0) = 0,
0
de modo que f ∈ (ker T ) . Para provar que eles são iguais, basta mostrar que eles tem a mesma dimensão.
Pelo item (ii) a seguir, cuja demonstração independende da equação que queremos demonstrar (ele depende
da primeira equação do presente item), pelo Teorema do Núcleo e da Imagem e pela Proposição 2.44 temos

dim im T ∗ = dim im T
= dim V − dim ker T
0
= dim (ker T ) .

(ii) Temos pela primeira equação do item (i), pela Proposição 2.44 e pelo Teorema do Núcleo e da Imagem,
0
dim ker T ∗ = dim (im T )
= dim W − dim im T
= dim W − (dim V − dim ker T )
= dim ker T + dim W − dim V.

De modo semelhante, temos pelo Teorema do Núcleo e da Imagem, novamente pela primeira equação do
item (i) e pela Proposição 2.44

dim im T ∗ = dim W ∗ − dim ker T ∗


0
= dim W − dim (im T )
= dim im T.


Rodney Josué Biezuner 47

2.46 Corolário. T é sobrejetivo se e somente se T ∗ é injetivo.


T é injetivo se e somente se T ∗ é sobrejetivo.
Prova: Pela primeira equação do item (i) do teorema anterior,
T é sobrejetivo ⇔ im T = W
0
⇔ (im T ) = 0
⇔ ker T ∗ = 0
⇔ T ∗ é injetivo.
Pela segunda equação do item (i) do teorema anterior
T é injetivo ⇔ ker T = 0
0
⇔ (ker T ) = V ∗
⇔ im T = V ∗∗

⇔ T ∗ é sobrejetivo.


2.8.2 Representação Matricial do Morfismo Dual


2.47 Definição. Seja T : V −→ W um lineomorfismo. O dual de T é o lineomorfismo T ∗ : W ∗ −→ V ∗
definido no Teorema 2.42. 
Isso significa que o funtor dual (isto é, o funtor que associa a cada espaço vetorial o seu espaço dual) é um
funtor contravariante na categoria dos espaços vetoriais:
T
V −→ W
↓ ↓
T∗
V∗ ←− W∗
2.48 Teorema. Sejam V , W espaços vetoriais de dimensão finita. Sejam BV e BW bases para V e W ,
respectivamente e B∗V e B∗W suas respectivas bases duais. Seja T : V −→ W um lineomorfismo. Se

A = [T ]BV ,BW

é a matriz de T com respeito às bases BV e BW , então a matriz do morfismo dual T ∗ com respeito às
bases duais B∗W e B∗V é a transposta de A, isto é,

At = [T ∗ ]B∗ ∗ .
W ,BV

Prova: Sejam
BV = {v1 , . . . , vn } , BW = {w1 , . . . , wn } ,
B∗V = {v1∗ , . . . , vn∗ } , B∗W = {w1∗ , . . . , wn∗ } .
Denote por B a matriz do morfismo dual em relação às bases duais. Então, por definição,
m
X
T vj = Aij wi , j = 1, . . . , n,
i=1
Xn
T ∗ wj∗ = Bji vi∗ , j = 1, . . . , m.
i=1
Rodney Josué Biezuner 48

Daı́, de um lado
m
! m m
X X X

wj∗ wj∗ wj∗ Aki wk Aki wj∗ (wk ) = Aki δjk = Aji ,

T (vi ) = (T vi ) = =
k=1 k=1 k=1

e por outro lado


n
! n n
X X X

wj∗ Bjk vk∗ Bjk vk∗ (vi ) = Bjk δki = Bji ,

T (vi ) = (vi ) =
k=1 k=1 k=1

logo
i
Bji = Aji = At j
.

2.49 Definição. Seja A ∈ Mm×n (K).
A dimensão do subespaço em Kn gerado pelas linhas de A é chamado o posto de A e denotado por
rank A.
A dimensão do subespaço em Kn solução do sistema homogêneo AX = 0 é chamado a nulidade de A e
denotado por nul A. 
2.50 Corolário. Seja A ∈ Mm×n (K). Então

rank A = rank At .

Em particular, se A ∈ Mn (K), vale também

nul A = nul At .

Prova: Se T : Kn −→ Km denota o lineomorfismo representado por A em relação às bases canônicas de


Kn e Km , então o subespaço gerado pelas linhas de A é exatamente o subespaço im T . Como a transposta
∗ ∗
At é a representação matricial do morfismo dual T ∗ em relação às bases canônicas duais de (Km ) e (Kn ) ,
segue que o subespaço gerado pelas colunas de A, que é o subespaço gerado pelas linhas da transposta At ,
é exatamente o subespaço im T ∗ . Pelo Teorema 2.45 (ii), temos dim T = dim T ∗ .
Como

nul A = dim ker T,


nul At = dim ker T ∗ ,

a segunda afirmação segue da primeira e do Teorema do Núcleo e da Imagem. 


Capı́tulo 3

Determinantes

3.1 Definição
Definiremos a função determinante a partir das propriedades que queremos que ela satisfaça. Provaremos
depois que de fato existe uma função que satisfaz estas propriedades.
3.1 Definição. Identificaremos o espaço das matrizes quadradas Mn (K) com o espaço Kn × . . . × Kn ,
identificando colunas de uma matriz com vetores de Kn . Uma função determinante é uma função

det : Kn × . . . × Kn −→ K

satisfazendo as seguintes propriedades:


(D1) det é um funcional n-linear:

det (A1 , . . . , xAi + yA0i , . . . , An )


= x det (A1 , . . . , Ai , . . . , An ) + y det (A1 , . . . , A0i , . . . , An )

para todos i = 1, . . . , n, A1 , . . . , An , A01 , . . . , A0n ∈ Kn , x, y ∈ K.


(D2) det é alternada:

det (A1 , . . . , Ai , . . . , Aj , . . . , An ) = − det (A1 , . . . , Aj , . . . , Ai , . . . , An )

para todos i, j = 1, . . . , n, A1 , . . . , An ∈ Kn .
(D3)
det I = 1.


Além de escrever det A ou det (A1 , . . . , An ) para a matriz A cujas colunas são A1 , . . . , An , também usaremos
a notação mais compacta

det (xAi + yBi ) = x det (Ai ) + y det (Bi ) ,


det (Ai , Aj ) = − det (Aj , Ai ) ,

quando estiver claro do contexto que as outras colunas são mantidas fixas; em geral, em uma função k-linear
qualquer destacaremos apenas as colunas que não estiverem fixas ou que desempenharem um papel relevante
nas demonstrações.

49
Rodney Josué Biezuner 50

3.2 Proposição. Sejam K um corpo de caracterı́stica diferente de 2 e D : Kn × . . . × Kn −→ K um funcional


n-linear.
As afirmativas seguintes são equivalentes:
(i) D é alternado, isto é, para todo par de ı́ndices i, j

D (Ai , Aj ) = −D (Aj , Ai ) .

(ii) Se Ai = Aj para algum par de ı́ndices i 6= j, então D (A1 , . . . , An ) = 0, isto é,

D (A, A) = 0
i j

(iii) Se Ai = Ai+1 para algum i, então D (A1 , . . . , An ) = 0, isto é,

D (A, A) = 0
i i+1

Prova: (i) ⇒ (ii) Pois


D (A, A) = −D (A, A)
implica
D (A, A) = 0
em um corpo com caracterı́stica zero.
(ii) ⇒ (i) Temos, representando apenas as colunas que ocupam as posições i, j,
0 = D (Ai + Aj , Ai + Aj ) (ii)
= D (Ai , Ai ) + D (Ai , Aj ) + D (Aj , Ai ) + D (Aj , Aj ) (n-linearidade)
= D (Aj , Ai ) + D (Ai , Aj ) , (ii)
logo
D (Ai , Aj ) = −D (Aj , Ai ) .
(ii) ⇒ (iii) Imediato.
(iii) ⇒ (ii) Por hipótese de indução, suponha que provamos que sempre que
Ai = Ai+j
para algum i e para todo j = 1, . . . , k vale
D (A1 , . . . , An ) = 0
(note que o caso k = 1 é precisamente (iii)). Vamos provar que isso implica que se
Ai = Ai+k+1
então D (A1 , . . . , An ) = 0 também.
De fato, representando apenas as colunas que ocupam as posições i, i + k e i + k + 1, temos
D (Ai , Ai+k , Ai+k+1 )
= D (Ai , Ai+k , Ai+k + Ai+k+1 ) − D (Ai , Ai+k , Ai+k ) (n-linearidade)
= D (Ai , Ai+k , Ai+k + Ai+k+1 ) (iii)
= D (Ai , Ai+k + Ai+k+1 , Ai+k + Ai+k+1 ) − D (Ai , Ai+k+1 , Ai+k + Ai+k+1 ) (n-linearidade)
= D (Ai , Ai+k + Ai+k+1 , Ai+k + Ai+k+1 ) (indução)
= 0. (iii)
Rodney Josué Biezuner 51

(Observe que a hipótese de indução pôde ser usada, na passagem da antepenúltima linha para a penúltima
linha, porque no segundo termo da antepenúltima linha a (i + k)-ésima coluna é Ai+k+1 = Ai e a hipótese
de indução é válida para j = k.) 
Para matrizes sobre um corpo K arbitrário, a propriedade (D2) na definição de determinante é trocada pela
condição (ii) ou (iii) da Proposição 3.2 (elas são equivalentes para quaisquer corpos), e obtemos a mesma
teoria de determinantes para corpos arbitrários.

3.2 Existência
3.3 Definição. Seja A ∈ Mn (K). O menor A (i|j) é a matriz em Mn−1 (K) obtida ao se eliminar a i-ésima
linha e a j-ésima coluna de A. 
3.4 Teorema (Existência da Função Determinante). Existe pelo menos uma função determinante.
Prova: A função determinante é construı́da indutivamente. Em M1 (K) = K definimos simplesmente
det A = A11 . Em M1 (K), definimos

A11 A12
 
det A = det = A11 A22 − A12 A21 .
A21 A22

É fácil verificar que estas funções satisfazem as condições (D1)-(D3) da Definição 3.1.
Em geral, tendo definido uma função determinante em M1 (K) , . . . , Mn−1 (K), definimos uma função
determinante em Mn (K) através da fórmula

n
X i+j
det A = (−1) Aij det A (i|j) .
j=1

fixando algum i (por exemplo, i = 1). Esta é a chamada fórmula do determinante através da expansão em
cofatores segundo a i-ésima linha de A. Esta será uma definição recursiva do determinante. Vamos verificar
por indução que a função assim definida satisfaz as propriedades (D1)-(D3):
(D1) Sejam

A = (C1 , . . . , Ak , . . . , Cn ) ,
B = (C1 , . . . , Bk , . . . , Cn ) ,
L = (C1 , . . . , xAk + yBk , . . . , Cn ) .

Temos que provar que


det L = x det A + y det B.
Note que, com exceção da k-ésima coluna, as matrizes A, B, L possuem colunas idênticas. Temos
n
X i+j
det L = (−1) Lij det L (i|j)
j=1
n
X i+j i+k
= (−1) Lij det L (i|j) + (−1) Lik det L (i|k)
j=1
j6=k
X n
i+j i+k
Cji det L (i|j) + (−1) xAik + yBki det L (i|k) .

= (−1)
j=1
j6=k
Rodney Josué Biezuner 52

Por hipótese de indução, o primeiro termo da última linha é


n
X n
X
i+j i+j
(−1) Cji det L (i|j) = (−1) Cji [x det A (i|j) + y det B (i|j)]
j=1 j=1
j6=k j6=k
Xn n
X
i+j i+j
=x (−1) Cji det A (i|j) + y (−1) Cji det B (i|j)
j=1 j=1
j6=k j6=k
X n X n
i+j i+j
=x (−1) Aij det A (i|j) + y (−1) Bji det B (i|j) ,
j=1 j=1
j6=k j6=k

onde na última linha usamos o fato que

Cji = Aij = Bji se j 6= k.

O segundo termo, usando o fato que

L (i|k) = A (i|k) = B (i|k) ,


i+k i+k i i+k i
xAik + yBki det L (i|k) = x (−1)

(−1) Ak det L (i|k) + y (−1) Bk det L (i|k)
i+k i+k
= x (−1) Aik det A (i|k) + y (−1) Bki det B (i|k) .

Portanto,
n
X n
X
i+j i+j
det L = x (−1) Aij det A (i|j) + y (−1) Bji det B (i|j)
j=1 j=1

= x det A + y det B.

(D2) Em vista da Proposição 3.2, basta provar que se A tem duas colunas adjacentes iguais então det A = 0.
Seja A = (A1 , . . . , An ) e suponha que Ak = Ak+1 . Se j 6= k e j 6= k + 1, então a matriz A (i|j) tem duas
colunas iguais, logo por hipótese de indução det A (i|j) = 0 e
i+k i+k+1
det A = (−1) Aik det A (i|k) + (−1) Aik+1 det A (i|k + 1)
i+k
Aik det A (i|k) − Aik+1 det A (i|k + 1) .
 
= (−1)

Como Ak = Ak+1 , temos Aik = Aik+1 e A (i|k) = A (i|k + 1), portanto det A = 0.
(D3) Se In é a matriz identidade n × n, então In (i|i) = In−1 é a matriz identidade (n − 1) × (n − 1). Logo,
n
X i+j 2i
det In = (−1) δji det In (i|j) = (−1) det In−1 = 1.
j=1


Rodney Josué Biezuner 53

3.3 Unicidade
Para estabelecer a unicidade da função determinante e algumas de suas propriedades especiais, precisaremos
reescrever a sua definição de uma forma não recursiva. Nesta introdução, queremos apenas desenvolver a
intuição para o que virá a seguir.
 
A11 A12 A13 A14
 A21 A22 A23 A24 
 
 
 A3 A33 A34 
 1 A32 
A41 A42 A43 A44

A primeira coisa a notar é que o determinante de uma matriz pode ser descrito como sendo simplesmente
a soma de n! termos, cada um deles um produto de n elementos da matriz, cada um dos elementos deste
produto ocupando uma linha e uma coluna que nenhum outro elemento do produto ocupa, multiplicado por
um certo sinal positivo ou negativo. Por exemplo, na matriz acima destacamos o termo

A11 A32 A23 A44

e ignoramos o sinal dele por enquanto.


Em geral, para entender como estes termos são obtidos, expandimos em cofatores a partir da primeira
linha; desprezando os sinais, os termos são da forma

A1j1 det A (1|j1 )

para j1 variando entre 1 e n. Cada um dstes termos pode por sua vez ser expandido, por exemplo em
cofatores a partir da primeira linha do menor (que está na segunda linha de A), cada termo sendo da forma
(mais uma vez desprezando os sinais)

A1j1 A2j2 det A (1|j1 ) (2|j2 )

para j2 entre 2 e n; o sı́mbolo A (1|j1 ) (2|j2 ) significa que primeiro removemos a linha 1 e a coluna j1 da
matriz A e depois removemos da matriz resultante a linha 2 e a coluna j2 (contadas em relação à matriz A),
obtendo uma matriz (n − 2) × (n − 2). Continuando este processo obtemos n! termos da forma

A1j1 A2j2 A3j3 . . . Anjn

multiplicados pelo sinal +1 ou −1, dependendo de alguma forma da bijeção j : {1, . . . , n} −→ {1, . . . , n}
escolhida. Portanto o determinante é da forma
X
det A = (sign j) A1j1 . . . Anjn
n! bijeções j

onde sign j = ±1. Vamos formalizar isso melhor, descobrir como calcular o sinal de cada bijeção e prin-
cipalmente desenvolver uma boa notação na qual poderemos explicar de maneira mais clara e desenvolver
de forma mais rápida os argumentos que serão usados para provar a unicidade e demais propriedades do
determinante.

3.3.1 Grupo de Permutações


3.5 Definição. Seja I = {1, . . . , n}. Uma permutação de grau n é uma bijeção p : I −→ I.
O conjunto das permutações de grau n é denotado por Sn . 
Rodney Josué Biezuner 54

Uma permutação p pode ser representada pela matriz


 
1 2 ... n
p=
p1 p2 ... pn

mas a representação mais útil é a seguinte.

3.6 Definição. A matriz da permutação p é a matriz A definida por



1 se i = pj ,
Aij =
0 6 pj .
se i =

Denotaremos por An o conjunto das matrizes de permutação. 

Ou seja, na coluna j da matriz da permutação p, o valor 1 é colocado na entrada da linha pj , os demais


valores da coluna sendo iguais a 0.
3.7 Definição. A permutação de grau 5
 
1 2 3 4 5
p=
4 2 5 3 1

tem como matriz de permutação  


0 0 0 0 1

 0 1 0 0 0 

A=
 0 0 0 1 0 

 1 0 0 0 0 
0 0 1 0 0

Note que o conjunto das matrizes de permutação An é simplesmente o conjunto das matrizes cujas entradas
em todas as linhas e colunas são 0 exceto em uma única posição em cada linha e cada coluna, em que o valor
é 1.

3.8 Definição. Se B = {e1 , . . . .en } denota a base canônica de Kn , a representação matricial da permutação
p é também a representação matricial do operador linear T : Kn −→ Kn definido por

T ej = epj

j = 1, . . . , n. T é chamado o operador da permutação p e o conjunto dos operadores de permutação será


denotado Tn . 
Apesar da primeira representação matricial para permutações considerada acima tornar imediata a vi-
sualização da permutação, a segunda representação matricial é muito mais útil porque a composta de
permutações equivalerá à multiplicação das suas matrizes de permutação (ou, equivalentemente, de seus
operadores de permutação), como veremos mais adiante.
3.9 Definição. Um grupo é um conjunto G munido de uma operação binária

G × G −→ G
(g, h) 7→ gh
Rodney Josué Biezuner 55

que satisfaz as seguintes propriedades:


(i) (Associatividade) Para todos g, h, k ∈ G vale

g (hk) = (gh) k.

(ii) (Identidade) Existe um elemento e ∈ G tal que para todo x ∈ G vale

eg = ge = g.

(iii) (Inverso) Para todo elemento g ∈ G existe um elemento g −1 ∈ G tal que

gg −1 = g −1 g = e.

Dizemos que o grupo é comutativo (ou abeliano) se

gh = hg

para todos g, h ∈ G. 
3.10 Exemplo. Qualquer corpo é um grupo comutativo com relação à operação de soma e, eliminando o
zero, é um grupo comutativo com relação à operação produto.
Qualquer espaço vetorial V é um grupo comutativo com relação à operação de soma de vetores.
O conjunto das matrizes invertı́veis n × n com relação à operação usual de produto de matrizes é um
grupo, não comutativo se n > 2, chamado o grupo linear e denotado GLn (K). Ele não é um grupo com
relação ao produto colchete de Lie, porque este não é associativo.
O conjunto das matrizes de permutação An é um grupo com relação ao produto de matrizes, não co-
mutativo se n > 3. O conjunto dos operadores de permutação An é um grupo com relação ao produto de
operadores (composição), não comutativo se n > 3.
Dado um conjunto S, o conjunto de todas as bijeções de S em S sob a operação de composição de funções
é um grupo não comutativo (se S contém mais que dois elementos).
O conjunto dos operadores linear invertı́veis GL (V ) sob a operação de composição de operadores é um
grupo, não comutativo se dim V > 2. 
Em particular, do penúltimo exemplo segue que:
3.11 Proposição. O conjunto Sn das permutações de grau n sob a operação de composição de permutações
é um grupo, não comutativo se n > 2.
3.12 Exemplo. Se    
1 2 3 4 5 1 2 3 4 5
p= eq= ,
4 2 5 3 1 2 1 5 4 3
então    
1 2 3 4 5 −1 1 2 3 4 5
qp = ep = .
4 1 3 5 2 5 2 4 1 3
Se    
1 2 3 1 2 3
p= eq= ,
1 3 2 2 1 3
então
 
1 2 3
pq =
3 1 2
 
1 2 3
qp =
2 3 1

Rodney Josué Biezuner 56

3.13 Definição. Dados dois grupos G e H, um homomorfismo entre eles é um mapa φ : G −→ H que
preserva a operação de grupo, isto é,
φ (gh) = φ (g) φ (h) .

Dizemos que φ é um isomorfismo quando φ for um homomorfismo bijetivo. 


De fato, como no caso de morfismos lineares, a inversa de um homomorfismo quando estiver definida (a
imagem de um grupo sob um homomorfismo é um subgrupo, isto é, um subconjunto que é um grupo com a
operação induzida) é também um homomorfismo: dados h1 , h2 ∈ φ (G), sejam g1 , g2 ∈ G tais que
φ (g1 ) = h1 ,
φ (g2 ) = h2 ;
segue que
φ (g1 g2 ) = φ (g1 ) φ (g2 ) = h1 h2 ,
donde
φ−1 (h1 h2 ) = g1 g2 = φ−1 (h1 ) φ−1 (h2 ) .
3.14 Proposição. Os grupos Sn , An e Tn são isomorfos.
Prova: Um isomorfismo entre An e Tn é dado pela restrição do isomorfismo entre álgebras com identidade
Mn (K) e L (Kn ) a An , esquecendo a estrutura de espaço vetorial e levando em conta apenas a preservação do
produto, já que An é precisamente o conjunto das representações matriciais dos operadores em Tn (matrizes
de permutações são as representações matriciais dos operadores de permutação). O grupo Sn é isomorfo ao
grupo Tn através do isomorfismo
   
1 ... n e1 . . . e n
p= 7→ Tp = .
p1 . . . p n ep1 . . . epn

3.15 Corolário. A matriz de permutação da composta de duas permutações é o produto das matrizes destas
duas permutações.
3.16 Definição. Uma transposição é uma permutação τ : I −→ I que satisfaz

τi = j,
τj = i,
τk = k para todo k 6= i, j.


3.17 Exemplo. A permutação de grau 7
 
1 2 3 4 5 6 7
τ=
1 2 6 4 5 3 7
cuja matriz é  
1 0 0 0 0 0 0

 0 1 0 0 0 0 0 


 0 0 0 0 0 1 0 

A=
 0 0 0 1 0 0 0 


 0 0 0 0 1 0 0 

 0 0 1 0 0 0 0 
0 0 0 0 0 0 1
é uma transposição. 
Rodney Josué Biezuner 57

Note que, embora a identidade seja uma transposição e a inversa de uma transposição seja ela própria

τ −1 = τ

porque
τ 2 = id,
a composta de transposições não é uma transposição, e portanto o subconjunto das transposições não é um
subgrupo de Sn . Na realidade, provaremos na próxima seção que toda permutação pode ser decomposta
como um produto de transposições (não de forma única), o que é intuitivamente fácil de ver.
Como última observação, note que se já sabemos que τ é uma transposição, para determinar τ basta
definir o valor de τ em um ı́ndice que é transposto por τ ; no exemplo anterior, basta saber que τ3 = 6 , já
que pelo fato de τ ser uma transposição imediatamente segue que τ6 = 3 e τk = k para k 6= 3, 6.

3.3.2 Demonstração da Unicidade da Função Determinante


3.18 Lema. Se D1 , D2 são duas funções n-lineares alternadas tais que

D1 (I) = D2 (I) ,

então
D1 (A) = D2 (A)
para toda matriz de permutação A.
Prova: Seja A a matriz da permutação p. Um número finito de trocas de colunas (no máximo n − 1)
transforma a matriz A na matriz identidade: transponha o vetor e1 para a primeira coluna (se ele já não for
a primeira coluna), obtendo uma matriz A1 ; depois transponha o vetor e2 para a segunda coluna (se ele já
não for a segunda coluna), obtendo a matriz A2 e assim sucessivamente.
Mais precisamente, cada matriz Ai é a matriz de uma permutação pi ; trocar duas colunas de Ai equivale
a obter a matriz da permutação pi+1 que é o produto da permutação pi pela transposição τ que troca as
colunas Aii+1 e a coluna igual a ei+1 . De fato, se no primeiro passo

p1 = j1 6= 1,
pk1 = 1,

ou seja, o vetor e1 ocupa a coluna k1 > 1 da matriz de permutação A, consideramos a transposição τ 1


definida por τ11 = k1 , de modo que a permutação

p1 = pτ 1

satisfaz
(pτ )1 = p (τ1 ) = pk1 = 1,
e portanto a matriz A1 da permutação p1 possui o vetor e1 na primeira coluna. Por indução, se através de
multiplicar pelas transposições apropriadas obtivemos uma permutação

pi = pτ 1 . . . τ i

cuja matriz Ai possui os vetores e1 , . . . , ei nas colunas 1, . . . , i, respectivamente, se a coluna i+1 está ocupada
pelo vetor eji+1 6= ei+1 e o vetor ei+1 ocupa a coluna ki > i, isto é, a permutação pi satisfaz

pii+1 = ji+1 6= i + 1,
piki = i + 1,
Rodney Josué Biezuner 58

i+1
consideramos a transposição τi+1 = ki , de modo que se definirmos

pi+1 = pi τ i+1

então
pi+1 i i+1 i+1
= pi τi+1

i+1 = p τ i+1
= ki = i,
e a matriz Ai+1 da permutação pi+1 possui o vetor ei+1 na coluna i + 1.
Resumindo, se forem necessárias k transposições para transformar a matriz A na matriz identidade, temos

A0 = matriz da permutação p = A,
A1 = matriz da permutação pτ 1 ,
A2 = matriz da permutação pτ 1 τ 2 ,
..
.
Ak−1 = matriz da permutação pτ 1 τ 2 . . . τ k−1 ,
Ak = matriz da permutação pτ 1 τ 2 . . . τ k−1 τ k = id
= I,

Em particular, este argumento mostra que dada uma permutação p, existem transposições τ 1 , . . . , τ k tais
que
pτ 1 . . . τ k = id .
Como a inversa de uma transposição é ela própria, concluı́mos que

p = τ k . . . τ 1,

isto é, toda permutação é um produto de transposições.


Concluı́mos que, se D é uma função n-linear alternada, então

D (A) = (−1) D (A1 )


2
= (−1) D (A2 )
= ...
k−1
= (−1) D (Ak−1 )
k
= (−1) D (I) ,

Assim, o valor de uma função n-linear alternada de qualquer matriz de permutação é caracterizado pelo
valor que ela assume na matriz identidade. Em particular,
k
D1 (A) = (−1) D1 (I) ,
k
D2 (A) = (−1) D2 (I) ,

donde segue o resultado. 


3.19 Teorema (Unicidade da Função Determinante). Se D1 , D2 são duas funções n-lineares alternadas
tais que
D1 (I) = D2 (I) ,
então
D1 = D2 .
Em particular, existe uma única função determinante.
Rodney Josué Biezuner 59

Prova: Sejam A1 , . . . , An ∈ Kn vetores arbitrários. Escrevendo estes vetores em termos da base canônica
de Kn :
Xn
Aj = Aij ei ,
i=1

e utilizando a n-linearidade das funções D1 e D2 , segue que


n n
!
X X
D1 (A1 , . . . , An ) = D1 Ai11 ei1 , . . . , Ainn ein
i1 =1 in =1
n
X
= Ai11 . . . Ainn D1 (ei1 , . . . , ein ) ,
i1 ,...,in =1
X n
D2 (A1 , . . . , An ) = Ai11 . . . Ainn D2 (ei1 , . . . , ein ) .
i1 ,...,in =1

Como as funções são alternadas, temos que

D1 (ei1 . . . ein ) = D2 (ei1 . . . ein ) = 0

sempre que a função i : I −→ I não for uma permutação, isto é, sempre que i for tal que ik = il para algum
par de ı́ndices k 6= l. Logo,
X p
D1 (A1 , . . . , An ) = A11 . . . Apnn D1 (ep1 . . . epn ) ,
p∈Sn
X
D2 (A1 , . . . , An ) = Ap11 . . . Apnn D2 (ep1 . . . epn ) ,
p∈Sn

e o resultado segue do lema. 


3.20 Corolário. O cálculo do determinante de uma matriz pode ser feito através da expansão em cofatores
a partir de qualquer linha da matriz.
3.21 Corolário (Fatoração das Permutações). Toda permutação é um produto de transposições.
Além disso, se p = τ1 . . . τk é uma fatoração de p em um produto de transposições, então
k
det (Ap1 , . . . , Apn ) = (−1) det (A1 , . . . , An ) .

Em outras palavras, quando as posições das colunas de uma matriz são trocadas através de uma per-
mutação, o sinal do determinante não se altera se esta permutação é um número par de transposições e o
sinal muda se ela é um número ı́mpar de transposições.
Em particular, embora a fatoração de uma permutação p em transposições não seja única, o número
destas transposições é sempre par ou sempre ı́mpar.
Prova: Segue da demonstração do Lema 3.18. 

3.3.3 Fórmula do Determinante através de Permutações


3.22 Definição. O sinal de uma permutação p é definido por

sign p = det A

onde A é a matriz de permutação de p. 


Rodney Josué Biezuner 60

3.23 Proposição. Se p = τ1 . . . τk é uma fatoração de p como um produto de k transposições, então

k
sign p = (−1) .

Prova: Pois se A = (ep1 , . . . , epn ), segue do Corolário 3.21 que


k k k
sign p = det (ep1 , . . . , epn ) = (−1) det (e1 , . . . , en ) = (−1) det I = (−1) .


3.24 Corolário (Fórmula do Determinante através de Permutações). Vale

X
det (A1 , . . . , An ) = (sign p) Ap11 . . . Apnn .
p∈Sn

Prova: Pela demonstração do Teorema 3.19, temos


X p
det (A1 , . . . , An ) = A11 . . . Apnn det (ep1 . . . epn ) .
p∈Sn

O resultado segue da Proposição 3.23. 


3.25 Proposição. O sinal de uma permutação satisfaz as seguintes propriedades:
(i) Se id é a permutação identidade, então sign id = 1.
(ii) Se τ é uma transposição, então sign τ = −1.
(iii) Se p, q são permutações, então sign (pq) =
 sign p sign q.
(iv) Se p é uma permutações, então sign p−1 = sign p.
Consequentemente,
sign : Sn −→ Z2
é um homomorfismo entre grupos.
Prova: (iii) Se p = τ1 . . . τk e q = σ1 . . . σl , então pq = τ1 . . . τk σ1 . . . σl , portanto
k+l k l
sign (pq) = (−1) = (−1) (−1) = sign p sign q.

(iv) Como vimos na demonstração do Lema 3.18, se

p = τk . . . τ1

então
p−1 = τ 1 . . . τ k ,
de modo que p e p−1 tem o mesmo número de transposições. 
Rodney Josué Biezuner 61

3.4 Propriedades do Determinante


3.26 Proposição (Determinante da Transposta).

det (At ) = det A.

Prova: Temos X
det A = (sign p) Ap11 . . . Apnn .
p∈Sn

Agora, observe que se pi = j, então i = pj−1 , logo Api i = Ajp−1 . Como sign p = sign p−1 , segue que
j

X
sign p−1 A1p−1 . . . Anp−1

det A =
1 n
p−1 ∈Sn
X
= (sign q) A1q1 . . . Anqn
q∈Sn
X q 1 qn
= (sign q) At 1
. . . At n
q∈Sn

= det At .



3.27 Corolário. O cálculo do determinante de uma matriz pode ser feito através da expansão em cofatores
a partir de qualquer coluna da matriz.
3.28 Proposição (Determinante do Produto).

det (AB) = det A det B.

Prova: Denote as colunas de A, B e AB respectivamente por Aj , Bj e (AB)j . Como


n
X
i
(AB)j = Air Bjr ,
r=1

podemos escrever
n
X
(AB)j = Bjr Ar .
r=1

Portanto, !
n
X n
X
det (AB) = det B1r Ar , . . . , Bnr Ar .
r=1 r=1
Rodney Josué Biezuner 62

Usando a n-linearidade e alternalidade do determinante da mesma forma como no Teorema 3.19, obtemos
X p
det (AB) = B1 1 . . . Bnpn det (Ap1 , . . . , Apn )
p∈Sn
X
= (sign p) B1p1 . . . Bnpn det (A1 , . . . , An )
p∈Sn
X
= (sign p) B1p1 . . . Bnpn det A
p∈Sn
 
X
= det A  (sign p) B1p1 . . . Bnpn 
p∈Sn

= det A det B.


3.29 Corolário (Determinante da Inversa). Se A for invertı́vel, então det A 6= 0 e

1
det A−1 =

.
det A

Prova: Pois
det AA−1 = det A det A−1
 

e
det AA−1 = det I = 1.



3.30 Corolário. Matrizes semelhantes possuem o mesmo determinante.
Prova: Pois, se B = P −1 AP , então
1
det B = det P −1 AP = det P −1 det A det P =

det A det P = det A.
det P

Como consequência deste resultado e do fato dos representantes matriciais de um operador linear em
relação a diferentes bases serem matrizes semelhantes, podemos definir o determinante de um operador
linear:

3.31 Definição. Se T ∈ Hom (V ), definimos

det T = det A,

onde A é qualquer representante matricial de T . 

3.5 Regra de Cramer e Fórmula da Inversa


Seja A uma matriz n × n e b ∈ Kn um vetor. Considere o um sistema linear

AX = b.
Rodney Josué Biezuner 63

Suponha que
n
X
X= xj ej
j=1

seja uma solução para esta equação. Se Aj denota a j-ésima coluna da matriz A, temos
 
Xn Xn Xn
b = AX = A  xj ej  = xj Aej = x j Aj .
j=1 j=1 j=1

Denote por A [k|b] a matriz obtida de A através da substituição da k-ésima coluna de A pelo vetor b. Então

A (k|b) = (A1 , . . . , Ak−1 , b, Ak+1 , . . . , An )


 
X n
= A1 , . . . , Ak−1 , xj Aj , Ak+1 , . . . , An  ,
j=1

de modo que
 
n
X
det A (k|b) = det A1 , . . . , Ak−1 , xj Aj , Ak+1 , . . . , An 
j=1
n
X
= xj det (A1 , . . . , Ak−1 , Aj , Ak+1 , . . . , An )
j=1

= xk det (A1 , . . . , Ak−1 , Ak , Ak+1 , . . . , An )


= xk det A.

Portanto, se det A 6= 0 e existir uma solução x para o sistema Ax = b, então esta solução é única e é dada
por
det A (k|b)
xk = .
det A

Podemos dizer mais: se det A 6= 0, então a expressão acima fornece a única solução para o sistema AX = b
(veja Teorema 3.33 a seguir). Esta é a chamada regra de Cramer.
3.32 Definição. A adjunta clássica da matriz A é definida como sendo a matriz transposta da matriz de
cofatores da matriz A, isto é,
i i+j
(adj A)j = (−1) det A (j|i) .


3.33 Teorema (Fórmula da Inversa). Temos

(adj A) A = A (adj A) = (det A) I.

Em particular, se det A 6= 0, então A é invertı́vel e

adj A
A−1 = .
det A
Rodney Josué Biezuner 64

Prova: Denote B = A [i|Aj ], isto é, a matriz B é obtida a partir da matriz A quando substituı́mos a i-ésima
coluna de A pela sua j-ésima coluna. Temos então
n
X
i i
[(adj A) A]j = (adj A)r Arj
r=1
n
X i+r
= (−1) det A (r|i) Arj
r=1
n
X i+r
= (−1) Arj det A (r|i)
r=1
n
X i+r
= (−1) Bir det B (r|i)
r=1
= det B.
Se i 6= j, a matriz B possui duas colunas iguais e det B = 0. Concluı́mos que
i
[(adj A) A]j = 0 se i 6= j.
Se i = j, então
n
X n
X
i+r i+r
(−1) Arj det A (r|i) = (−1) Ari det A (r|i)
r=1 r=1
= det A .
Em outras palavras,
i
[(adj A) A]j = (det A) δij ,
ou seja,
(adj A) A = (det A) I.
Para provar que A (adj A) = (det A) I, observe que
t
At (i|j) = A (j|i) ,
de modo que
i i+j
adj At j = (−1) det At (j|i)


j+i t
= (−1) det A (i|j)
j+i
= (−1) det A (i|j)
h ij
t
= (adj A) ,
i

ou seja, a adjunta clássica da transposta de A é a transposta da adjunta clássica de A:

t
adj (At ) = (adj A) .

Já sabemos pela primeira parte da demonstração que


adj At At = det At I,
 

donde
t
(adj A) At = (det A) I.
Tomando a transposta de ambos os lados, obtemos o resultado desejado. 
Este resultado em conjunto com o
Rodney Josué Biezuner 65

3.34 Corolário. Uma matriz é invertı́vel se e somente se o seu determinante é diferente de zero.
3.35 Corolário (Regra de Cramer). Se det A 6= 0, então o sistema linear AX = b tem solução única
dada por
(adj A) b
X= .
det A

ou seja,
det A [j|b]
xj = .
det A

Prova: Se AX = b, então
(adj A) AX = (adj A) b,
e pelo Teorema 3.33
(det A) X = (adj A) b.
Se det A 6= 0, temos que
(adj A) b
X= ,
det A
ou seja,
n
1 X j
xj = (adj A)i bi
det A i=1
n
1 X i+j
= (−1) bi det A (i|j)
det A i=1
1
= det A [j|b] .
det A

Capı́tulo 4

Operadores Diagonalizáveis e
Triangularizáveis

4.1 Álgebra dos Polinômios


4.1 Definição. Seja K um corpo. O espaço vetorial das sequências f : N −→ K com valores em K é
denotado por K∞ [x]. 
Os vetores em K∞ [x] nada mais são que sequências de K-escalares:

f = (f0 , f1 , f2 , . . .) .

(Sequências são simplesmente funções definidas no conjuntos dos números naturais.) Definimos um produto
em K∞ [x] associando a cada par de vetores f, g o vetor f g definido por

n
X
(f g)n := fi gn−i
i=0

n = 0, 1, 2, . . . Deste modo K∞ [x] torna-se uma K-álgebra associativa, comutativa e com identidade: o vetor

1 = (1, 0, 0, . . .)

é a identidade. O vetor (0, 1, 0, . . .) desempenha um papel fundamental e é denotado por x:

x := (0, 1, 0, . . .) .

Observe que

x2 = (0, 0, 1, 0, . . .) ,
x3 = (0, 0, 0, 1, 0, . . .) ,

e em geral
 
xn = 0, 0, 0, 0, . . . , 0, 1, 0, . . . .
n

66
Rodney Josué Biezuner 67

Denotamos
x0 := 1.

Desta forma, um elemento f = (f0 , f1 , f2 , . . .) também pode ser denotado na forma


X
f= fn xn ,
n=0


e por este motivo a álgebra K [x] é também chamada a álgebra das séries formais sobre K. ∞ Observe
2
que o conjunto 1, x, x , . . . é um conjunto linearmente independente mas não é uma base para K [x], já
que um elemento genérico de K∞ [x] (uma sequência infinita) não pode ser escrito como uma combinação
linear finita de elementos deste conjunto.
4.2 Definição. A álgebra dos polinômios sobre K é o subespaço K [x] de K∞ [x] gerado por 1, x, x2 , . . .. Um
elemento de K [x] é chamado um polinômio com coeficientes em K, ou simplesmente um K-polinômio.
O grau de um polinômio f 6= 0, denotado grau f , é o inteiro n tal que fn 6= 0 e fi = 0 para todo i > n.

Na linguagem de álgebras, 1 e x geram a álgebra dos polinômios no sentido de que todo elemento da álgebra
é uma combinação linear de produtos finitos de 1 e x. Ou seja, todo polinômio f ∈ K [x] se escreve na forma

f = f0 + f1 x + f2 x2 + . . . + fn xn .

Os escalares f0 , f1 , f2 , . . . , fn ∈ K são chamados os coeficientes do polinômio f . Um polinômio f de grau


n é chamado um polinômio mônico se fn = 1 e um polinômio escalar se fn = 0 para todo n > 0.
4.3 Lema. Sejam
n
X m
X
i
f= fi x e g= gj xj
i=0 j=0

Então
j
n+m
! m
n X
X X X
fg = fi gj−i xj = fi gj xi+j .
j=0 i=0 i=0 j=0

4.4 Proposição. Sejam f, g polinômios não nulos sobre K. Então


(i) f g é um polinômio não-nulo.
(ii)
grau (f g) = grau f + grau g.

(iii) Se f, g são mônicos, então f g é mônico.


(iv) f g é um polinômio escalar se e somente se f, g são polinômios escalares.
(v) Se f + g 6= 0, então
grau (f + g) 6 max (grau f, grau g) .
Prova: Suponha que f e g tem graus n e m, respectivamente, ou seja,
n
X m
X
f= fi xi e g= gi xi ,
i=0 i=0

com
fn 6= 0 e gm 6= 0.
Rodney Josué Biezuner 68

Pelo lema anterior, se k é um natural, temos


n+m+k
X
(f g)n+m+k = fi gn+m+k−i .
i=0

Para que tenhamos


fi gm+n+k+i 6= 0,
é necessário que i 6 n (pois fi = 0 se i > n) e que n+m+k −i 6 m (pois gn+m+k−i = 0 se n+m+k −i > m),
ou seja, i > n + k. Assim, se fi gm+n+k+i 6= 0, então n + k 6 i 6 n, o que implica k = 0 e i = n. Portanto,

(f g)n+m = fn gm (4.1)

e
(f g)n+m+k = 0 se k > 0. (4.2)
As afirmações (i), (ii) e (iii) seguem destes dois fatos. A afirmação (iv) é uma consequência de (ii) e a
afirmação (v) é óbvia. 
4.5 Corolário. K [x] é uma K-álgebra associativa, comutativa e com identidade.
4.6 Corolário. Sejam f, g, h polinômios sobre K tais que f 6= 0 e f g = f h. Então g = h.
Prova: O resultado segue imediatamente da Proposição 4.4 (i) pois f g = f h é equivalente a f (g − h) = 0.

4.7 Definição. Seja A uma K-álgebra com identidade e para cada elemento a ∈ A adote a convenção a0 = 1,
n
onde 1 é a identidade de A. A cada polinômio f = fi xi sobre K associamos um elemento f (a) ∈ A pela
P
i=0
regra
n
X
f (a) = fi ai .
i=0


f (a) é o que chamamos o valor do polinômio f calculado em a.
4.8 Proposição. Seja A uma K-álgebra com identidade. Sejam f, g polinômios sobre K, a ∈ A e α, β ∈ K.
Então
(i) (αf + βg) (a) = αf (a) + βg (a) .
(ii) (f g) (a) = f (a) g (a) .
Prova: Provaremos apenas (ii). Sejam
n
X m
X
f= fi xi e g= gj xj .
i=0 j=0

de modo que
n,m
X
fg = fi gj xi+j .
i,j=0
Rodney Josué Biezuner 69

Então,
n,m
X
(f g) (a) = fi gj ai+j
i,j=0

n
! m

X X
= fi ai  gj aj 
i=0 j=0

= f (a) g (a) .


4.9 Corolário. Seja p um K-polinômio que se fatora no produto de polinômios

p = f g.

Se V é um K-espaço vetorial e T ∈ Hom (V ), então

p (T ) = f (T ) g (T ) .

Analogamente, se A ∈ Mn (K), então

p (A) = f (A) g (A) .

Em particular, se
p = (x − r1 ) . . . (x − rn ) ,
então

p (T ) = (T − r1 I) . . . (T − rn I) ,
p (A) = (A − r1 I) . . . (A − rn I) .

Prova: Segue do ı́tem (i) do teorema anterior, pois Hom (V ) e Mn (K) são ambas K-álgebras com identidade.

4.10 Lema. Sejam p, d polinômios não nulos tais que grau d 6 grau p. Então existe um polinômio q tal que
ou
p − dq = 0,
ou
grau (p − dq) < grau p.
Prova: Escreva
n−1
X
p = pn xn + pi xi ,
i=0
m−1
X
m
d = dm x + di xi ,
i=0

com
pn 6= 0 e dm 6= 0.
Então m 6 n e ou  
pn
p− xn−m d = 0,
dm
Rodney Josué Biezuner 70

ou    
pn
grau p − xn−m d < grau p.
dm
Tomamos  
pn
q= xn−m .
dm

4.11 Teorema (Divisão de Polinômios). Se p, d são polinômios, com d 6= 0, então existem polinômios
únicos q, r tais que
p = dq + r

com ou
r=0
ou
grau r < grau d.

Prova: Se p = 0 ou grau p < grau d, podemos tomar q = 0 e r = d.


No caso em que f 6= 0 e grau d 6 grau p, existe um polinômio q1 tal que

p − dq1 = 0

ou
grau (p − dq1 ) < grau f.
Se grau (p − dq1 ) < grau d, tomamos q = q1 e r = p − dq1 . Caso contrário, usamos novamente o lema anterior
e encontramos um polinômio q2 tal que ou

(p − dq1 ) − dq2 = p − d (q1 + q2 ) = 0

ou
grau [p − d (q1 + q2 )] < grau (p − dq1 ) .
Continuamos assim obtendo sucessivamente polinômios q1 , . . . qk até chegar o momento em que

p − d (q1 + . . . qk ) = 0

ou
grau [p − d (q1 + . . . qk )] < grau r.
Aı́ tomamos q = q1 + . . . qk .
Para provar a unicidade dos polinômios q e r, suponha que também existam outros polinômios q0, r0 tais
que
p = dq 0 + r0
com r0 = 0 ou grau r0 < grau d. Então dq + r = dq0 + r0, donde

d (q − q0) = r0 − r.

Se q 6= q0, então
grau d + grau (q − q0) = grau (r0 − r) ,
mas isso contradiz grau (r0 − r) < grau d. Portanto q = q1, o que implica r = r0. 
Rodney Josué Biezuner 71

4.12 Definição. Dados polinômios p, d com d 6= 0, se existe um polinômio q tal que p = dq, dizemos que d
é um divisor de p e que q é o quociente de p por d.
Se p = dq + r com r 6= 0, dizemos que r é o resto da divisão de p por q. 
4.13 Corolário. Seja p um K-polinômio e a ∈ K. Então p é divisı́vel por x − a se e somente se p (a) = 0.
Prova: Pelo Teorema 4.11, p = (x − a) q + r, onde r é um polinômio escalar (isto é, ou r = 0 ou grau r <
grau (x − a) = 1, isto é, grau r = 0). Segue da Proposição 4.8 que

p (a) = (a − a) q (a) + r (a) = r (a) = r.

Portanto, r = 0 se e somente se p (a) = 0. 


4.14 Definição. Dado um polinômio p sobre K, dizemos que a ∈ K é uma raiz de p se p (a) = 0. Se a
r
é uma raiz de p, a multiplicidade de a como uma raiz de p é o maior inteiro positivo r tal que (x − a)
divide p. 
4.15 Proposição. Um K-polinômio de grau n tem no máximo n raı́zes.
Prova: Por indução em n. O resultado é obviamente verdadeiro para polinômios de grau 0 e de grau 1.
Assuma o resultado verdadeiro para polinômios de grau n − 1. Se p possui grau n e a é uma raiz de p então

p = (x − a) q

e q é um polinômio de grau n − 1, que tem no máximo n − 1 raı́zes, pela hipótese de indução. Como

p (b) = (b − a) q (b) = 0

se e somente se a = b ou b é uma raiz de q, segue o resultado. 


4.16 Teorema (Teorema Fundamental da Álgebra). Todo polinômio complexo possui pelo menos uma
raiz.
4.17 Corolário. Todo polinômio complexo p pode ser fatorado, a menos de uma constante complexa, como
o produto de polinômios de grau 1, ou seja,

p = α (x − r1 ) . . . (x − rn ) .

Prova: Pelo Teorema Fundamental da Álgebra, se p tem grau n, temos

p = (x − r1 ) q1

e q1 tem grau n − 1. Podemos aplicar novamente o Teorema Fundamental da Álgebra ao polinômio q.


Procedendo desta forma, chegamos a

p = (x − r1 ) . . . (x − rn ) qn ,

com grau qn = 0, isto é, qn = α ∈ C. 

4.2 Autovalores, Autovetores e Autoespaços


4.18 Definição. Seja V um K-espaço vetorial e T ∈ Hom (V ) um um operador linear. Dizemos que λ ∈ K
é um autovalor de T se existe um vetor não nulo v ∈ V tal que

T v = λv.
Rodney Josué Biezuner 72

Se λ é um autovalor de T e v é qualquer vetor (mesmo nulo) tal que T v = λv, dizemos que v é um autovetor
de T associado a λ.
O subespaço vetorial
Vλ = {v ∈ V : T v = λv} = ker (T − λI)

dos autovetores de T associados ao autovalor λ é chamado o autoespaço de T associado a λ. 


Como λ é um autovalor de T se e somente se o operador T − λI não é injetivo, segue que λ é um autovalor
de T se e somente se
det (T − λI) = 0.
4.19 Definição. O polinômio
pc (x) = det (xI − T )

é chamado o polinômio caracterı́stico de T . 


O polinômio caracterı́stico de T é um polinômio mônico de grau n, como pode-se ver da fórmula para o
determinante em termos de permutações, e os autovalores de T são exatamente as raı́zes do seu polinômio
caracterı́stico (o nome polinômio caracterı́stico vem do fato de que autovalores eram também chamados
valores caracterı́sticos na terminologia antiga).
Este último fato também implica que a análise de um operador linear depende muito do corpo sobre
o qual o espaço vetorial está definido, pois se um polinômio possui raı́zes em um corpo K, estas raı́zes
podem não estar presentes em um subcorpo K0 ; assim, o mesmo operador T : V −→ V pode não possuir
autovalores quando V é considerado sobre K0 , ao invés de ser considerado sobre K. Em particular, ele pode
ser diagonalizável (conceito definido mais adiante) quando considerado sobre K, mas não quando considerado
sobre K0 .
4.20 Proposição. Um operador linear sobre um espaço de dimensão n possui no máximo n autovalores
distintos.
Prova: Pois um polinômio de grau n em K [x] possui no máximo n raı́zes. 
4.21 Proposição. Um operador linear sobre um espaço vetorial complexo possui pelo menos um autovalor.
Prova: Pois todo polinômio em C [x] possui pelo menos uma raiz.
Vamos dar uma segunda demonstração deste resultado sem usar o polinômio caracterı́stico. Seja T :
V −→ V um um operador linear sobre um espaço vetorial complexo V de dimensão n. Então, dado v 6= 0, os
vetores v, T v, . . . , T n v são linearmente dependentes em V (pois constituem um conjunto com n + 1 vetores),
logo existem escalares a0 , a1 , . . . , an não todos nulos tais que

a0 v + a1 T v + . . . + an T n v = 0.

Considere o polinômio em C [z] com estes coeficientes, isto é,

a0 + a1 z + . . . + an z n .

Em C [z] este polinômio pode ser fatorado em um produto de termos lineares:

a0 + a1 z + . . . + an z n = c (z − λ1 ) . . . (z − λm )

(se an 6= 0, terı́amos exatamente n termos e c = an ). Segue que

0 = (a0 I + a1 T + . . . + an T n ) v = an (T − λ1 I) . . . (T − λm I) v.

Em particular, necessariamente temos que pelo menos algum operador T −λj I não é injetivo (pois a composta
de bijeções é uma bijeção), e neste caso λj é um autovalor para T . 
Rodney Josué Biezuner 73

4.22 Definição. O conjunto dos autovalores de T é chamado o espectro de T e será denotado por spec T .
A multiplicidade algébrica de um autovalor de T é a sua multiplicidade como raiz do polinômio
caracterı́stico, isto é, d é a multiplicidade algébrica do autovalor λ se o polinômio caracterı́stico de T se
escreve na forma
d
pc (x) = (x − λ) q (x)
e q (x) não possui λ como raiz. 
De maneira análoga definimos os autovalores e o polinômio caracterı́stico de uma matriz. É claro que os
autovalores e o polinômio caracterı́stico de um operador são os autovalores e o polinômio caracterı́stico de
qualquer uma de suas representações matriciais:
4.23 Proposição. Matrizes semelhantes possuem os mesmos autovalores.
Prova: Pois se B = P −1 AP , então
det (xI − B) = det xI − P −1 AP


= det P −1 (xI − A) P
 

= det P −1 det (xI − A) det P


= det (xI − A) .

4.24 Exemplo. A matriz  
0 −1
A=
1 0
possui o polinômio caracterı́stico
 
x 1
det (xI − A) = det = x2 + 1.
−1 x
Se A é considerada uma matriz sobre C, então A possui dois autovalores distintos, ±i, enquanto que
sobre R A não possui autovalores. 

4.3 Operadores Diagonalizáveis


A importância do estudo de autovalores em álgebra linear está contida na próxima definição:
4.25 Definição. Dizemos que um operador linear T ∈ Hom (V ) é diagonalizável se existir uma base para
V formada por autovetores de T . 
Se B = {v1 , . . . , vn } é uma base para V constituı́da de autovetores de T , isto é, se
T vi = λi vi
para i = 1, . . . , n, então a matriz de T com relação a esta base é uma matriz diagonal, com os autovalores
de T ocupando a diagonal principal da matriz:
 
λ1 0 . . . 0
 0 λ2 . . . 0 
[T ]B =  . . .
 
.. . .
 .. . . .. 
0 0 ... λn
Observe que os autovalores de T não precisam ser distintos para isso acontecer; de fato, eles podem ser todos
iguais, caso em que o operador T é um múltiplo escalar da identidade, o múltiplo escalar sendo precisamente
o único autovalor de T .
Rodney Josué Biezuner 74

4.26 Proposição. Um conjunto de autovetores não nulos correspondentes a autovalores dois a dois distintos
é LI.
Prova: Por indução sobre o número de autovetores. Suponha o resultado provado para um conjunto de
k − 1 autovetores. Sejam λ1 , . . . , λk um conjunto de autovalores de T com λi 6= λj se i 6= j, e v1 , . . . , vk
autovetores não nulos correspondentes a estes autovalores. Suponha
k
X
xi vi = 0. (4.3)
i=1

Aplicando T a esta equação obtemos


k
X
xi T vi = 0,
i=1
donde
k
X
xi λi vi = 0. (4.4)
i=1
Por outro lado, se ao invés de aplicar T à equação (4.3) como fizemos, nós a multiplicarmos pelo autovalor
λk obtemos
X k
xi λk vi = 0. (4.5)
i=1
Subtraindo (4.5) de (4.4), obtemos
k−1
X
xi (λi − λk ) vi = 0. (4.6)
i=1
Pela hipótese de indução v1 , . . . , vk−1 são LI, logo
xi (λi − λk ) = 0
para i = 1, . . . , k − 1. Como λk − λi 6= 0 para todo i 6= k, segue que
x1 = . . . = xk−1 = 0.
Da equação (4.3) segue agora que
xk vk = 0,
logo xk = 0 também. 
4.27 Corolário. Seja V um espaço vetorial de dimensão n. Se o operador linear T : V −→ V possui n
autovalores distintos, então ele é diagonalizável.
Prova: Sejam λ1 , . . . , λn os autovalores de T e v1 , . . . , vn autovetores correspondentes. Pelo resultado
anterior, {v1 , . . . , vn } é um subconjunto LI de V , logo uma base para V . 
4.28 Exemplo. A matriz  
0 −1 0 0
 1 0 0 0 
A= 
 0 0 0 −1 
0 0 1 0
possui polinômio caracterı́stico
 
x 1 0 0
 −1 x 0 0 
 = x2 + 1 2 .

det (xI − A) = det 
 0 0 x 1 
0 0 −1 x
Rodney Josué Biezuner 75

Se A é considerada uma matriz sobre C, então A possui dois autovalores distintos, ±i, enquanto que sobre
R A não possui autovalores. Apesar disso, A é diagonalizável sobre C, possuindo 4 autovetores distintos:
   
0 −i
 0   1 
 −i  ,  0  associados ao autovalor − i,
   

1 0
e    
0 i
 0   1 
 i , 0
    associados ao autovalor i

1 0

4.29 Exemplo. A matriz  
0 1
A=
0 0
possui o polinômio caracterı́stico
 
x −1
det (xI − A) = det = x2 .
0 x

Tanto faz se A for considerada uma matriz sobre R ou sobre C, A possui apenas um autovalor e o
autoespaço associado a este autovalor tem dimensão 1, com o vetor (1, 0) sendo um autovetor associado ao
autovalor 0. Portanto, A não é diagonalizável. 
4.30 Lema. Se T v = λv e p é um polinômio qualquer, então p (T ) v = p (λ) v.
4.31 Lema. Sejam T ∈ Hom (V ), λ1 , . . . , λk os autovalores distintos de T e Wi o autoespaço associado a
λi .
Se W = W1 + . . . + Wk , então
W = W1 ⊕ . . . ⊕ Wk ,
isto é, autoespaços correspondentes a autovalores distintos são LI.
Equivalentemente, se Bi é uma base para Wi , então B = {B1 , . . . , Bk } é uma base para W e

dim W = dim W1 + . . . + dim Wk .

Prova: Para provar que os autoespaços de T são LI, precisamos mostrar que dados vi ∈ Wi tais que

v1 + . . . + vk = 0,

então vi = 0 para todo i. Se p é um polinômio qualquer, temos

0 = p (T ) 0
= p (T ) (v1 + . . . + vk )
= p (T ) v1 + . . . + p (T ) vk
= p (λ1 ) v1 + . . . + p (λk ) vk .

Escolha polinômios p1 , . . . , pk tais que


pi (λj ) = δij ,
Rodney Josué Biezuner 76

por exemplo,
Y x − λj
pi = .
λi − λj
j6=i

Então
n
X n
X
0 = pi (T ) 0 = pi (λj ) vj = δij vj = vi .
j=1 j=1

4.32 Teorema. Sejam T ∈ Hom (V ), λ1 , . . . , λk os autovalores distintos de T e Wi o autoespaço associado
a λi .
As seguintes afirmações são equivalentes:
(i) T é diagonalizável.
(ii) O polinômio caracterı́stico de T é

d1 dk
f = (x − λ1 ) . . . (x − λk )

e dim Wi = di para todo i.


(iii)
dim V = dim W1 + . . . + dim Wk .

(iv)
V = W1 ⊕ . . . ⊕ W k .

Prova: (i) ⇒ (ii) Se T é diagonalizável, então T possui uma representação matricial em blocos na forma
 
λ1 I1 0 ... 0
 0 λ 2 I2 . . . 0 
[T ]B =  .
 
. . .. 
 .. .. .. . 
0 0 ... λk Ik
em relação a alguma base B de V , onde cada bloco identidade Ii tem tamanho di . Segue imediatamente que
o polinômio caracterı́stico de T é
d1 dk
det (xI − T ) = (x − λ1 ) . . . (x − λk ) .
Como a matriz [T − λi I]B tem exatamente di zeros em sua diagonal principal, segue que dim Wi = di .
d d
(ii) ⇒ (iii) Se f = (x − λ1 ) 1 . . . (x − λk ) k , então
dim V = grau f = d1 + . . . + dk .
(iii) ⇒ (iv) Segue do lema anterior que V = W1 ⊕ . . . ⊕ Wk .
(iv) ⇒ (i) Pois V possui uma base formada por autovetores de T . 
4.33 Exemplo. A matriz  
5 −6 −6
A =  −1 4 2 
3 −6 −4
2
possui o polinômio caracterı́stico det (xI − A) = (x − 2) (x − 1), com autoespaços
W1 = h(3, −1, 3)i ,
W2 = h(2, 1, 0) , (2, 0, 1)i .
Portanto, A é diagonalizável. 
Rodney Josué Biezuner 77

4.34 Exemplo. Determine se a matriz


 
6 −3 −2
B =  4 −1 −2 
10 −5 −3

é diagonalizável sobre R e sobre C. Encontre bases para os autoespaços de B. 

4.4 Ideais de Polinômios


4.35 Definição. Seja K um corpo. Um ideal em K [x] é um subespaço M de K [x] tal que f g ∈ M sempre
que f ∈ K [x] e g ∈ M . 
Em outras palavras, um ideal de polinômios é um subespaço vetorial de K [x] que é fechado com relação à
multplicação, não só de seus próprios elementos, mas também por outros elementos de K [x]. Ele não é uma
subálgebra de K [x] porque não precisa conter a identidade; de fato, se ele contém a identidade, ele é igual a
K [x].
4.36 Exemplo. Dado d ∈ K [x], o conjunto M = dK [x] de todos os múltiplos polinomiais de d é um ideal.
De fato, M é não-vazio pois contém d e se f, g ∈ K [x] e α, β ∈ K, então

α (df ) + β (dg) = d (αf + βg) ,


f (dg) = d (f g) .

M é chamado o ideal principal gerado por d. 


4.37 Teorema. Seja K um corpo. Se M é um ideal não nulo de K [x], então existe um único polinômio
mônico d em K [x] tal que M é o ideal principal gerado por d, isto é,

M = dK [x] .

Prova: Por hipótese, M contém um polinômio não nulo. Entre todos os polinômios não nulos de M existe
um polinômio d de grau mı́nimo, que podemos assumir mônico (basta multiplicar d pelo polinômio escalar
apropriado, se necessário). Se f ∈ M , então

f = dq + r

com r = 0 ou grau r < grau d. Como d ∈ M , dq ∈ M e f − dq = r ∈ M também. Por escolha de d (não


existe polinômio não-nulo em M de grau menor que d), concluı́mos que r = 0. Portanto M = dK [x].
Se d0 fosse outro polinômio mônico em K [x] tal que M = d0 K [x], então existem polinômios não nulos
f, g tais que d = d0 f e d0 = dg. Logo, d = dgf e daı́

grau d = grau d + grau f + grau g,

donde
grau f = grau g = 0.
Como f, g são mônicos, segue que f = g = 1 e portanto d = d0 . 
Rodney Josué Biezuner 78

4.5 Polinômio Mı́nimo e o Teorema de Cayley-Hamilton


Sejam V um K-espaço vetorial de dimensão finita e T ∈ Hom (V ). Considere as primeiras n2 + 1 potências
de T : 2
I, T, T 2 , . . . , T n .
Como o espaço Hom (V ) tem dimensão n2 , estes vetores são LD, logo existem escalares a0 , a1 , . . . , an2 ∈ K
tais que
2
a0 I + a1 T + . . . + an2 T n = 0.
Em outras palavras, o polinômio
2
p = a0 + a1 x + . . . + an2 xn ∈ K [x]

anula o operador T , isto é,


p (T ) = 0.
4.38 Proposição. O conjunto dos polinômios que anulam um operador é um ideal não nulo em K [x].
Prova: Se f, g anulam T e α, β ∈ K, então

(αf + βg) (T ) = αf (T ) + βg (T ) = 0

e se f ∈ K [x] e g anula T ,
(f g) (T ) = f (T ) g (T ) = 0.

4.39 Definição. Sejam V um espaço vetorial de dimensão finita e T ∈ Hom (V ). O polinômio mı́nimo
para T é o gerador mônico do ideal dos polinômios anuladores de T .
Assim, se um polinômio anula T , ele é um múltiplo polinomial do polinômio mı́nimo.
4.40 Teorema. Os polinômios mı́nimo e caracterı́stico de um operador linear possuem as mesmas raı́zes,
exceto possivelmente por multiplicidades.
Prova: Seja p o polinômio mı́nimo de T . Provar o teorema é mostrar que p (λ) = 0 se e somente se λ é um
autovalor de T .
Se p (λ) = 0 para algum λ ∈ R, então
p = (x − λ) q,
donde
0 = p (T ) = (T − λI) q (T ) .
Como grau q < grau p, pela definição de polinômio mı́nimo não podemos ter q (T ) = 0. Seja v um vetor tal
que q (T ) v = w 6= 0. Então,
0 = (T − λI) q (T ) v = (T − λI) w
e portanto λ é um autovalor de T .
Reciprocamente, se λ é um autovalor de T , então existe v 6= 0 tal que T v = λv. Pelo Lema 4.30,

0 = p (T ) v = p (λ) v,

donde p (λ) = 0. 
4.41 Corolário. Se T é diagonalizável e λ1 , . . . , λk são os seus autovalores distintos, então seu polinômio
mı́nimo é o polinômio
p = (x − λ1 ) . . . (x − λk ) .
Rodney Josué Biezuner 79

Prova: Por definição, existe uma base para V consistindo apenas de autovetores de T , logo qualquer vetor
v ∈ V escreve-se na forma
v = v1 + . . . + vk
com vj um autovetor associado a λj . Como

p (T ) vj = (T − λ1 I) . . . (T − λk I) vj = 0

para todo j, porque (T − λj I) vj = 0 e polinômios em T comutam, segue que para todo v ∈ V temos

p (T ) v = 0.


Veremos na próxima seção que o polinômio mı́nimo de T ser um produto de fatores lineares distintos é de
fato equivalente a T ser diagonalizável.
4.42 Exemplo. Encontre o polinômio mı́nimo para a matriz
 
5 −6 −6
A =  −1 4 2 .
3 −6 −4
2
Vimos no Exemplo 4.33 que A possui o polinômio (x − 2) (x − 1) como polinômio caracterı́stico e que
A é diagonalizável. Logo seu polinômio mı́nimo é p = (x − 2) (x − 1) = x2 − 3x + 2. Em particular,
A2 − 3A + 2I = 0. 

4.43 Exemplo. Encontre o polinômio mı́nimo sobre R para a matriz


 
0 −1
B= .
1 0

Vimos no Exemplo 4.24 que B possui o polinômio x2 + 1 como polinômio caracterı́stico e que B não é
diagonalizável sobre R, pois seu polinômio caracterı́stico não possui raı́zes reais. No entanto, sobre C, o
polinômio caracterı́stico se fatora x2 + 1 = (x + i) (x − i) e B possui dois autovalores distintos, e portanto é
diagonalizável. Assim, o polinômio mı́nimo sobre C para esta matriz é x2 + 1. Como este polinômio possui
coeficientes reais, ele também é o polinômio mı́nimo para B sobre R. 

4.44 Teorema (Teorema de Cayley-Hamilton). O polinômio caracterı́stico de um operador linear anula


este operador.
Em particular, o polinômio caracterı́stico de um operador é divisı́vel pelo polinômio mı́nimo deste opera-
dor.
Prova: A demonstração será por indução sobre n = dim V , onde V é o espaço vetorial no qual o operador
linear está definido. Se n = 1, o resultado é óbvio. Como hipótese de indução, assuma o resultado válido
para qualquer operador linear definido sobre qualquer espaço vetorial de dimensão n − 1.
Seja T ∈ Hom (V ) com dim V = n. Escolha uma base B = {e1 , . . . , en } para V e seja A = [T ]B , ou seja,
n
X
T ej = Aij ei
i=1

para j = 1, . . . , n. Equivalentemente,
n
X
δji T − Aij I ei = 0.

i=1
Rodney Josué Biezuner 80

Considere matrizes sobre a álgebra comutativa com identidade K [T ] dos polinômios em T ; em outras
palavras, matrizes sobre K [T ] possuem polinômios em T como entradas. Considere em particular a matriz
B definida por
Bji = δij T − Aji I.
Então
det B = pc (T )
onde pc é o polinômio caracterı́stico de T , porque o polinômio caracterı́stico de T é o determinante da matriz
xI − A, cujas entradas são polinômios da forma
j
(xI − A)i = δij x − Aji I,

e o determinante não se altera se considerarmos a transposta desta matriz.


Logo, para mostrar que pc (T ) = 0, basta mostrar que

(det B) ek = 0 para k = 1, . . . , n.

Por definição de B, os vetores e1 , . . . , en satisfazem as equações


n
X
Bij ei = 0 para j = 1, . . . , n.
i=1

Seja B = adj B a adjunta clássica de B, de modo que BB = (det B) I. Da equação acima, para cada par de
ı́ndices k, j temos
n n
kX j X k
0 = Bj Bi ei = B j Bij ei .
i=1 i=1

Logo, somando em j, temos


n X
n
X k
B j Bij ei = 0,
j=1 i=1

donde
 
n n
X X k j
0=  B j Bi  ei
i=1 j=1
n
X k
= BB i
ei
i=1
Xn
= δik (det B) ei
i=1
= (det B) ek .


Na próxima seção daremos outra demonstração do Teorema de Cayley-Hamilton sem usar determinantes.

4.6 Subespaços Invariantes e Operadores Triangularizáveis


4.45 Definição. Seja T ∈ Hom (V ). Dizemos que um subespaço W ⊂ V é invariante por T se T (W ) ⊂ W .

Rodney Josué Biezuner 81

4.46 Exemplo. O subespaço nulo e o espaço todo são invariantes por qualquer operador linear T . O núcleo
de T e a imagem de T também são invariantes por T . 
4.47 Exemplo. Considere o espaço vetorial K [x] e o operador linear derivada D. Então o subespaço dos
polinômios de grau menor que ou igual a n, onde n é um inteiro não-negativo qualquer, é invariante por D.

4.48 Exemplo. Qualquer autoespaço de T é invariante por T . 
4.49 Exemplo. O operador linear em R2 representado na base canônica pela matriz
 
0 −1
B=
1 0

não possui outros subespaços invariantes além dos triviais, isto é, além do subespaço nulo e do espaço todo
R2 , porque qualquer subespaço invariante de dimensão 1 seria um autoespaço de B, mas B não possui
autovalores reais, como vimos no Exemplo 4.43. 
Quando um subespaço W ⊂ V é invariante por T , T induz um operador linear sobre W , o operador
restrição
T |W : W −→ W.
Denotaremos o operador restrição por TW . Seja

BW = {e1 , . . . , em }

uma base para W e


B = {e1 , . . . , em , em+1 , . . . , en }
um completamento desta base até uma base para V . Seja A = [T ]B a representação matricial do operador
T com relação a B, de modo que
n
X
T ej = Aij ei para j = 1, . . . , n.
i=1

Como W é invariante por T , vale também


m
X
T ej = Aij ei para j = 1, . . . , m,
i=1

isto é, Aij = 0 para i > m, se j 6 m. Em outras palavras, A tem a forma em blocos
 
Bm×m Cm×(n−m)
A= ,
0(n−m)×m D(n−m)×(n−m)

com o bloco B sendo a representação matricial do operador restrição TW com relação à base BW de W , isto
é,
B = [TW ]BW .
4.50 Proposição. Seja W um espaço invariante de V por T . Então os polinômios mı́nimo e caracterı́stico
para TW são divisores respectivamente dos polinômios mı́nimo e caracterı́stico para T .
Prova: Usando a representação matricial de T obtida na discussão acima
 
B C
A= ,
0 D
Rodney Josué Biezuner 82

segue imediatamente que


det (xIn − A) = det (xIm − B) det (xIn−m − D)
o que prova a afirmação sobre polinômios caracterı́sticos.
Para provar a afirmação sobre polinômios mı́nimos, note que
 k 
k B Ck
A = ,
0 Dk

para todo k, para alguma matriz (Ck )m×(n−m) . Logo, se p é um polinômio qualquer, temos
 
p (B) Cek
p (A) =
0 p (D)
 
para alguma matriz C
ek . Portanto, qualquer polinômio que anula A também anula B (e mesmo
m×(n−m)
D). 
4.51 Definição. Seja W um subespaço invariante de V por T e v ∈ V . O conjunto dos polinômios

condT (v; W ) = {f ∈ K [x] : f (T ) v ∈ W }

é chamado o T -condutor de v para W . 


4.52 Proposição. Seja W um espaço invariante de V por T . Então W é invariante por qualquer polinômio
em T .
Em particular, para qualquer v ∈ V , o T -condutor de v para W é um ideal.

Prova: Se w ∈ W , então T w ∈ W e por indução T k w ∈ W para todo k; tomando combinações lineares


(porque W é um subespaço vetorial), concluı́mos que f (T ) w ∈ W para todo polinômio f .
condT (v; W ) é um subespaço vetorial, pois se f, g ∈ condT (v; W ) então

(αf + βg) (T ) v = α [f (T ) v] + β [g (T ) v] ∈ W.

Se f ∈ K [x] e g ∈ condT (v; W ), então

[(f g) (T )] v = [f (T ) g (T )] v = f (T ) [g (T ) v] ∈ W

porque g (T ) v ∈ W e W é invariante por qualquer polinômio em T . 


O único gerador mônico do ideal condT (v; W ) é chamado o polinômio T -condutor de v para W .

4.53 Corolário. Todo polinômio T -condutor é um divisor do polinômio mı́nimo para T .


Prova: Pois todo ideal T -condutor contém o polinômio mı́nimo por definição, porque este leva v no vetor
nulo 0 ∈ W . 
4.54 Lema. Sejam V um espaço vetorial de dimensão finita e T ∈ Hom (V ) tal que o polinômio mı́nimo
para T é um produto de fatores lineares
r rk
p = (x − λ1 ) 1 . . . (x − λk ) .

Seja W um subespaço próprio de V invariante por T . Então existe um vetor v ∈ V \W tal que
(T − λI) v ∈ W para algum autovalor λ de T .
Em outras palavras, existe um vetor v ∈ V \W tal que o seu polinômio T -condutor para W é um polinômio
linear.
Rodney Josué Biezuner 83

Prova: Seja z ∈ V \W um vetor qualquer. Seja f o polinômio T -condutor de z para W . Então f divide o
polinômio mı́nimo de T . Como z ∈
/ W , f não é um polinômio escalar. Portanto,
s sk
f = (x − λ1 ) 1 . . . (x − λk )

onde sj < rj e pelo menos algum sj 6= 0. Escolha um ı́ndice j tal que sj 6= 0 e escreva

f = (x − λj ) g.

Por definição de f , o vetor v = g (T ) z ∈


/ W , mas

(T − λj I) v = (T − λj I) g (T ) z = f (T ) z ∈ W.


4.55 Definição. Uma matriz A é triangular se Aij = 0 sempre que i < j (triangular inferior) ou se
Aij = 0 sempre que i > j (triangular superior). 
4.56 Definição. Dizemos que T ∈ Hom (V ) é triangularizável se existe uma base de V tal que a matriz
de T em relação a esta base é uma matriz triangular. 
4.57 Teorema. Um K-operador linear T em um espaço vetorial de dimensão finita é triangularizável se e
somente se o seu polinômio mı́nimo é um produto de fatores lineares sobre K.

Prova: Se T é triangularizável, então existe uma base B = {e1 , . . . , en } para V tal que
 1
A12 A13 . . . A1n

A1
 0 A22 A23 . . . A2n 
0 A33 . . . A3n 
 
[T ]B =  0 .

 .. .. .. .. .. 
 . . . . . 
0 0 0 ... Ann

Segue que o polinômio caracterı́stico de T é o produto de fatores lineares

det (xI − T ) = x − A11 . . . (x − Ann ) .




Como o polinômio mı́nimo é um divisor do polinômio caracterı́stico, ele também é um produto de fatores
lineares.
Reciprocamente, se o polinômio mı́nimo para T se escreve na forma
r rk
p = (x − λ1 ) 1 . . . (x − λk ) ,

aplicamos o Lema 4.54 repetidamente da seguinte forma para encontrar uma base B = {e1 , . . . , en } para V
em relação à qual a matriz de T é triangular. Primeiro aplique aquele lema ao subespaço invariante W = {0}
para obter o vetor e1 . Como
(T − λ1 I) e1 = 0
para algum autovalor λ1 , segue que o subespaço

W1 = he1 i

é invariante por T . Podemos então aplicar novamente o lema ao subespaço W2 para obter o vetor e2 ∈ V \W1 .
Em particular, {e1 , e2 } é LI, e como
(T − λ2 I) x2 ∈ W1
Rodney Josué Biezuner 84

para algum autovalor λ2 , segue que o subespaço

W2 = hx1 , x2 i

é invariante por T ; observe que


T e2 = A12 e1 + λ2 e2
para algum escalar A12 . Continuando desta forma, em cada passo j encontramos vetores e1 , . . . , ej linearmente
independentes tais que
T ej = A1j e1 + . . . + Ajj−1 ej−1 + λj ej
e o subespaço
Wj = he1 , . . . , ej i
é portanto invariante por T . 
4.58 Corolário. Todo operador complexo é triangularizável.
Obteremos agora uma terceira caracterização para operadores diagonalizáveis em termos do polinômio
mı́nimo:
4.59 Teorema. Um K-operador linear T é diagonalizável se e somente se o seu polinômio mı́nimo sobre K
é um produto de fatores lineares distintos

p = (x − λ1 ) . . . (x − λk ) .

Prova: Já vimos no Corolário 4.41 que se T é diagonalizável, então seu polinômio mı́nimo é um produto de
fatores lineares distintos. Reciprocamente, suponha que o polinômio mı́nimo de T é o produto

p = (x − λ1 ) . . . (x − λk )

de fatores lineares distintos e suponha por absurdo que T não é diagonalizável. Então, se

W = W 1 + . . . + Wk

é a soma dos autoespaços Wi associados a λi T , segue que W 6= V . Mas W é um subespaço invariante por
T , logo pelo Lema 4.54 existe um vetor v ∈ V \W e um autovalor λj tal que

w = (T − λj I) v ∈ W,

isto é
x − λj ∈ condT (v; W ) .
Escreva
p = (x − λj ) q.
de modo que q que não possui λj como raiz. Como

0 = p (T ) v = (T − λj I) q (T ) v,

segue que q (T ) v ∈ ker (T − λj I) = Wj , de modo que também

q ∈ condT (v; W ) .

Mas o polinômio T -condutor de v para W divide ambos x − λj e q e estes não tem fatores em comum,
contradição. 
Assim, para determinar se T é diagonalizável, basta encontrar os autovalores distintos λ1 , . . . , λk de T e
determinar se o operador (T − λ1 I) . . . (T − λk I) é o operador nulo ou não. Se T satisfaz uma equação
Rodney Josué Biezuner 85

polinomial, se esta se fatora em fatores lineares distintos, concluı́mos imediatamente que T é diagonalizável:
por exemplo, se T 2 = I ou T 2 = T .
Demonstração alternativa do Teorema de Cayley-Hamilton. Pelo Teorema 4.57 basta provar o
Teorema de Cayley-Hamilton para operadores triangularizáveis. De fato, pelo Teorema 4.57 todo operador
linear em um espaço vetorial sobre um corpo algebricamente fechado é triangularizável (um corpo K é
algebricamente fechado se todo K-polinômio possui uma raiz ou, equivalentemente, se todo K-polinômio
é um produto de fatores lineares); pela teoria de corpos, todo corpo K0 é um subcorpo de um corpo K
algebricamente fechado. O fato do polinômio caracterı́stico anular A ∈ Mn (K0 ) quando considerada uma
K-matriz, continua obviamente valendo quando ela é considerada uma K0 -matriz, pois os coeficientes do
polinômio caracterı́stico estão em K0 .
[Observe que para provar a afirmação do Teorema 4.57 que se o polinômio mı́nimo de um operador se
fatora como um produto de fatores lineares então o operador é triangularizável, não foi usado o teorema de
Cayley-Hamilton. Ele foi usado no Teorema 4.57 para provar a recı́proca desta afirmação, que não entra no
presente argumento.]
É fácil provar o teorema de Cayley-Hamilton para operadores triangularizáveis. De fato, se B =
{e1 , . . . , en } é uma base para V em relação à qual T é representada por uma matriz triangular A, então o
polinômio caracterı́stico para A é
f = x − A11 . . . (x − Ann ) .


Para provar que f anula T , isto é, que

T − A11 I . . . (T − Ann I)


é o operador nulo sobre V , procedemos por indução na dimensão de V . O resultado é claramente válido
para n = 1. Assuma o resultado válido para n − 1 e escreva a matriz A em blocos
 
B(n−1)×(n−1) C(n−1)×1
A=
01×(n−1) Ann

Observe que
(T − Ann I) V ⊂ he1 , . . . , en−1 i =: W.
W é um subespaço invariante por T de dimensão n − 1, com

[TW ]{e1 ,...,en−1 } = B,

e TW tem como polinômio caracterı́stico exatamente

f = x − A11 . . . x − An−1
 
n−1 .

Logo, por hipótese de indução,

TW − A11 In−1 . . . TW − An−1


 
n−1 In−1

é o operador nulo sobre W . Portanto a composta


n−1
T − A11 I . . . T − An−1 I (T − Ann I)
 

= TW − A11 In−1 . . . TW − An−1 n


 
n−1 In−1 (T − An I)

é o operador nulo sobre V (observe que os vetores de W têm as últimas coordenadas nulas, logo faz sentido
aplicar o lado direito a vetores de V , apesar das matrizes identidades possuı́rem tamanho n − 1). 
Rodney Josué Biezuner 86

4.7 Exercı́cios
4.60 Exercı́cio. Seja T o operador linear em R4 representado na base canônica pela matriz
 
0 0 0 0
 a 0 0 0 
 .
 0 b 0 0 
0 0 c 0

Sob que condições em a, b e c o operador T é diagonalizável?


4.61 Exercı́cio. Sejam A, B ∈ Mn (K). Prove que se I − AB é invertı́vel, então I − BA também é invertı́vel
e
−1 −1
(I − BA) = I + B (I − AB) A.
Use este resultado para provar que se A, B ∈ Mn (K) são duas matrizes quaisquer, então AB e BA possuem
os mesmos autovalores. Será que AB e BA possuem o mesmo polinômio caracterı́stico? Será que AB e BA
possuem o mesmo polinômio mı́nimo?
4.62 Exercı́cio. Seja A ∈ Mn (K) uma matriz diagonal com polinômio caracterı́stico
d1 dk
f = (x − λ1 ) . . . (x − λk )

onde λ1 , . . . , λk são distintos. Mostre que subconjunto em Mn (K) das matrizes B tais que AB = BA é um
subespaço vetorial de dimensão
d21 + . . . + d2k .
4.63 Exercı́cio. Seja A ∈ Mn (K) e considere o operador linear T : Mn (K) −→ Mn (K) definido por
T (B) = AB. Será verdade que A e T possuem os mesmos autovalores? Será que A e T possuem o mesmo
polinômio caracterı́stico? Será que A e T possuem o mesmo polinômio mı́nimo?
4.64 Exercı́cio. Seja K um corpo arbitrário e a, b, c ∈ K. Considere a matriz
 
0 0 c
A =  1 0 b .
0 1 a

Mostre que o polinômio caracterı́stico para A é p = x3 − ax2 − bx − c e que este também é o polinômio
mı́nimo para A.
4.65 Exercı́cio. Seja A a matriz real
 
1 1 0 0
 −1 −1 0 0 
A=
 −2

−2 2 1 
1 1 −1 0
2
Mostre que o seu polinômio caracterı́stico é p = x2 (x − 1) e que este também é o seu polinômio mı́nimo.
Se A for considerada uma matriz complexa, A é diagonalizável?
4.66 Exercı́cio. Seja T o operador linear sobre R2 cuja matriz na base canônica é
 
1 −1
A= .
2 2

Prove que os únicos subespaços de R2 invariantes por T são os triviais. Se U é um operador sobre C2 cuja
matriz na base canônica é A, mostre que U possui um subespaço invariante unidimensional.
Rodney Josué Biezuner 87

4.67 Exercı́cio. Seja  


0 1 0
A= 2 −2 2  .
2 −3 2
A é semelhante sobre o corpo dos números reais a uma matriz triangular? Se for, encontre uma tal matriz
triangular.
4.68 Exercı́cio. Prove que toda matriz A tal que A2 = A é semelhante a uma matriz diagonal.
4.69 Exercı́cio. Seja T : V −→ V um operador linear tal que todo subespaço de V é invariante por T .
Mostre que T é um múltiplo escalar do operador identidade.
4.70 Exercı́cio. Seja A uma matriz real 3 × 3. Mostre que se A não é semelhante sobre R a uma matriz
triangular, então A é semelhante sobre C a uma matriz diagonal.
4.71 Exercı́cio. A seguinte afirmação é falsa ou verdadeira? Se uma matriz triangular é semelhante a uma
matriz diagonal, então ela já é diagonal.
4.72 Exercı́cio. Seja T um operador linear sobre um espaço vetorial V sobre K de dimensão finita e
f ∈ K [x]. Prove que Λ é um autovalor de f (T ) se e somente se Λ = f (λ) para algum autovalor λ de T .

4.8 Projeções e Decomposição em Soma Direta


4.73 Definição. Seja V um espaço vetorial. Uma projeção de V é um operador linear E ∈ Hom (V ) tal
que
E 2 = E.

4.74 Proposição. Seja E ∈ Hom (V ) uma projeção. Então
V = im E ⊕ ker E,
com a decomposição de um vetor v ∈ V como soma direta dada por
v = Ev + (I − E) v.
Em particular, v ∈ im E se e somente se
Ev = v.
Além disso, se V = W ⊕ Z, existe uma única projeção E tal que W = im E e Z = ker E.
Prova: Suponha que v ∈ im E ∩ ker E, de modo que Ev = 0 e v = Ew para algum w ∈ V . Logo,
0 = Ev = E 2 w = Ew = v,
e portanto ker E e im E são LI.
Observe que
E [(I − E) v] = Ev − E 2 v = Ev − Ev = 0,
portanto (I − E) v ∈ ker E.
Se V = W ⊕ Z, então cada vetor v ∈ V se escreve de maneira única na forma v = w + z para alguns
vetores w ∈ W e z ∈ Z, logo podemos definir um operador linear E : W ⊕ Z −→ V por
E(w + z) = w.
E é portanto um operador linear bem definido e para todo vetor v ∈ V vale
E 2 v = E (Ev) = Ew = w = Ev.

Rodney Josué Biezuner 88

4.75 Definição. Na notação da proposição anterior, se W = im E e Z = ker E, dizemos que E é a projeção


de V sobre W na direção de Z. 
4.76 Proposição. Se V é espaço vetorial de dimensão finita e E ∈ Hom (V ) é uma projeção, então E é
diagonalizável e existe uma base B para V tal que
 
Im 0
[E]B = .
0 0

Prova: E é diagonalizável porque o polinômio mı́nimo de E é um produto de fatores lineares distintos:


como E 2 = E, segue que
x2 − x = x (x − 1)
anula E.
Se
B0 = {e1 , . . . , em }
é uma base para im E e
B00 = {em+1 , . . . , en }
é uma base para ker E, então
B = {e1 , . . . , en }
é uma base para V tal que  
Im 0
[E]B = .
0 0

O próximo resultado generaliza a Proposição 4.74 (veja os Exercı́cios 4.85 e 4.102).

4.77 Teorema (Decomposição em Soma Direta). Se V