Você está na página 1de 159

Universidade Regional do Cariri- URCA

Notas de Álgebra Linear


Tiago Cruz

14 de maio de 2021
.
Prefácio
Longe de ser um livro de Álgebra Linear, esse texto são notas de aula
retirada de vários materiais que estão citados na bibliografia. Tudo é
apresentado de forma simples e por isso o aluno não precisa de muitos
pré-requisitos para entender o conteúdo aqui presente.
Dentre as vantagens do aluno acompanhar a disciplina com essas
anotações posso destacar: permitir antecipar a ida à aula; tentar suprir
alguma informação despercebida na hora da explicação e fazer o aluno
meditar sobre a matéria que lhe é apresentada noutro ambiente. Segue
abaixo, o cronograma dos cinco capítulos.
No capítulo 1 apresentamos os seguintes conteúdos: espaço
vetorial e subespaços, combinações lineares, conjuntos linearmente
independentes e dependentes, bases e dimensão, coordenadas de
um vetor e mudança de bases. Introduzimos e desenvolvemos todo
conteúdo axiomático que se precisa para entender o que é um espaço
vetorial. Por tudo isso, nesse inicio, é necessário um esforço maior :) .
O capítulo 2 é reservado ao estudo das transformações lineares,
núcleo, imagem e matriz de uma transformação linear. Para
a penúltima seção Capítulo é necessário lembrar os métodos de
resolução dos sistemas lineares como, por exemplo, escalonamento
e método de Cramer.
No capítulo 3 definimos o que significa um operador ser
diagonalizável. Para isso é introduzido as definições de autovalores,
autovetores, polinômio característico e minimal. Vale ressaltar que
utilizamos resultados básicos da álgebra polinomial: conceito de grau,
divisibilidade, raízes, decomposição etc. Além disso, abordaremos
sem grandes detalhes a parte dos operadores não diagonalizáveis
apresentando o conceito de bloco de Jordan.
No capítulo 4 introduzimos o produto interno, como funciona
o processo de ortonormalização de Gram-Schmidt, o que é o
complemento ortogonal e caracterização dos funcionais lineares em
espaços com produto interno (teorema de Riesz).
Por fim, no capítulo 5 é apresentado um dos teorema mais
importantes da álgebra linear que é o teorema espectral para
operadores auto-adjunto. Apresentamos também uma generalização
desse resultado chamado de teorema dos valores singulares.
.

4
Sumário

1 Espaço Vetorial 8
1.1 Espaços Vetoriais e Exemplos . . . . . . . . . . . . . . . . 8
1.2 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3 Subespaços e Soma de Subespaços . . . . . . . . . . . . . 14
1.4 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.5 Combinações Lineares e Subespaço Gerado . . . . . . . . 20
1.6 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.7 Dependência Linear e Independência Linear . . . . . . . 23
1.7.1 Propriedades da Dependência Linear . . . . . . . . 24
1.8 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.9 Base e Dimensão . . . . . . . . . . . . . . . . . . . . . . . 27
1.10 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.11 Soma de Subespaços . . . . . . . . . . . . . . . . . . . . . 34
1.12 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.13 Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.14 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.15 Mudança de Base . . . . . . . . . . . . . . . . . . . . . . . 40
1.16 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

2 Transformações Lineares 48
2.1 Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.2 Transformações Lineares . . . . . . . . . . . . . . . . . . . 50
2.3 Os Espaços das Transformações Lineares . . . . . . . . . 51
2.4 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.5 Composição de duas Transformações Lineares . . . . . . 55
2.6 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.7 Espaço Dual . . . . . . . . . . . . . . . . . . . . . . . . . . 58

5
2.8 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
2.9 Núcleo e Imagem . . . . . . . . . . . . . . . . . . . . . . . 61
2.10 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
2.11 Isomorfismo . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.12 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.13 Matriz de uma Transformação Linear . . . . . . . . . . . 71
2.13.1 Propriedades das Matrizes de Transformações
Lineares . . . . . . . . . . . . . . . . . . . . . . . . . 78
2.14 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . 84

3 Autovalores e Autovetores 87
3.1 Autovalores e Autovetores de Transformações Lineares e
Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3.2 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.3 Polinômio Característico . . . . . . . . . . . . . . . . . . . 95
3.4 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
3.5 Operadores Diagonalizáveis . . . . . . . . . . . . . . . . . 101
3.6 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
3.7 Polinômio Minimal . . . . . . . . . . . . . . . . . . . . . . 107
3.8 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
3.9 Operadores Não Diagonalizáveis . . . . . . . . . . . . . . 113
3.10 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . 118

4 Produto Interno 119


4.1 Produto Interno, propriedades e exemplos . . . . . . . . 119
4.2 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
4.3 Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
4.4 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
4.5 Processo de Ortonormalização de Gram-Schmidt . . . . 130
4.6 Complemento Ortogonal . . . . . . . . . . . . . . . . . . . 132
4.7 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
4.8 Funcional Linear e Produto Interno . . . . . . . . . . . . 136
4.9 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . 136

5 Teorema Espectral 138


5.1 Polinômio de um Operador . . . . . . . . . . . . . . . . . 138

6
7

5.2 Adjunta de uma Transformação Linear . . . . . . . . . . 140


5.3 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
5.4 Operadores Auto-Adjuntos e Teorema Espectral . . . . . 142
5.5 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
5.6 Operadores Positivos e Não-Negativos . . . . . . . . . . . 146
5.7 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
5.8 A Adjunta e o Complemento Ortogonal . . . . . . . . . . 149
5.9 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
5.10 Teorema dos Valores Singulares: Uma generalização do
Teorema Espectral . . . . . . . . . . . . . . . . . . . . . . 151
5.11 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
Capítulo 1

Espaço Vetorial

O conceito fundamental da Álgebra Linear é o de espaço vetorial. O


principal objetivo deste capítulo é levar o aluno a entender o conceito
axiomático de espaço vetorial e suas propriedades.

1.1 Espaços Vetoriais e Exemplos

Um espaço vetorial 𝑉 é um conjunto não vazio sobre o qual estão


definidos duas operações chamadas soma e multiplicação por escalar
(número real), tais que dados 𝑢, 𝑣, 𝑤 ∈ 𝑉 e 𝛼, 𝛽 ∈ R temos:

1. Comutatividade: 𝑢 + 𝑣 = 𝑣 + 𝑢

2. Associativa: (𝑢 + 𝑣) + 𝑤 = 𝑢 + (𝑣 + 𝑤).

3. Elemento neutro: Existe um elemento de 𝑉 denotado por 0® tal


que 0® + 𝑣 = 𝑣 + 0® = 𝑣.

4. Elemento oposto: Dado 𝑣 ∈ 𝑉 existe um elemento denotado por


®
−𝑣 e tal que 𝑣 + (−𝑣) = (−𝑣) + 𝑣 = 0.

5. Associatividade: (𝛼𝛽) · 𝑣 = 𝛼(𝛽 · 𝑣).

8
9

6. Distributiva da soma de escalares em relação a um vetor: (𝛼 + 𝛽) ·


𝑣 = 𝛼 · 𝑣 + 𝛽 · 𝑣.

7. Distributiva Distributiva de um escalar em relação à soma de


vetores: 𝛼 · (𝑣 + 𝑤) = 𝛼 · 𝑣 + 𝛼 · 𝑤.

8. Elemento unitário: A multiplicação do elemento unitário 1 ∈ R


pelo elemento 𝑣 de 𝑉 é igual a 𝑣, isto é, 1 · 𝑣 = 𝑣.

Proposição 1. Seja 𝑉 é um espaço vetorial. Dado 𝑣 ∈ 𝑉 e 𝛼 ∈ R temos que

1. 𝛼 · 0® = 0;
®

®
2. 0 · 𝑣 = 0;

Como consequência dos itens acima, temos que

𝛼 · 𝑣 ≠ 0® se 𝛼 ≠ 0 e 𝑣 ≠ 0.
®

Além disso,

3. O vetor nulo é único;

4. O vetor oposto de 𝑣 é (−1) · 𝑣, isto é, (−1) · 𝑣 = −𝑣.

Demonstração:

1. Como o vetor nulo é o elemento neutro da soma podemos escrever


0® = 0® + 0.
® Desta maneira,

𝛼·0® = 𝛼·(0+
® 0)
® = 𝛼·0+𝛼·
® 0® ⇒ 𝛼·0+(−𝛼·
® ® = 𝛼·0+𝛼·
0) ® ®
0+(−𝛼· ® ⇒ 0® = 𝛼·0.
0) ®

2. Agora, como o numero 0 é o elemento neutro da soma temos que

0·𝑣 = (0+0)·𝑣 = 0·𝑣+0·𝑣 ⇒ 0·𝑣+(−0·𝑣) = 0·𝑣+0·𝑣+(−0·𝑣) ⇒ 0® = 0·𝑣.


10

3. Suponha que exista um outro vetor nulo, isto é, existe um vetor 0®0
tal que 0®0 + 𝑢 = 𝑢 + 0®0 = 𝑢. Fazendo 𝑢 = 0® temos que

0®0 = 0®0 + 0® = 0®

4. Decorre do fato que 0 = 1 + (−1).

0® = 0 · 𝑣 = [1 + (−1)] · 𝑣 = 𝑣 + (−1) · 𝑣

⇒ −𝑣 + 0® = −𝑣 + 𝑣 + (−1) · 𝑣

(−1) · 𝑣 = −𝑣

Exemplo 1. Para 𝑛 ∈ N, o conjunto

R𝑛 = {(𝑥1 , 𝑥2 , 𝑥3 , . . . , 𝑥 𝑛 ); 𝑥1 , 𝑥2 , . . . , 𝑥 𝑛 ∈ R}

é chamado de espaço vetorial euclidiano 𝑛−dimensional. Dados dois vetores


𝑢 = (𝑥1 , 𝑥2 , 𝑥3 , . . . , 𝑥 𝑛 ), 𝑣 = (𝑦1 , 𝑦2 , 𝑦3 , . . . , 𝑦𝑛 ) temos que 𝑢 = 𝑣 significa
que vale as seguintes igualdades numéricas

𝑥 1 = 𝑦1 , 𝑥 2 = 𝑦2 , · · · , 𝑥 𝑛 = 𝑦 𝑛 .

Em R𝑛 vamos definir as operações:

𝑢 + 𝑣 = (𝑥1 + 𝑦1 , 𝑥2 + 𝑦2 , . . . , 𝑥 𝑛 + 𝑦𝑛 )

e
𝛼 · 𝑢 = (𝛼𝑥1 , 𝛼𝑥2 , · · · , 𝛼𝑥 𝑛 )

Sem dificuldade, é possível verificar que R𝑛 é um espaço vetorial.


11

Exemplo 2. Seja 𝐴 ≠ ∅ e 𝑉 um espaço vetorial. Denotaremos por

F(𝐴; 𝑉) = { 𝑓 : 𝐴 → 𝑉; f é função}.

Este conjunto é um espaço vetorial quando se define a soma de funções


𝑓 , 𝑔 ∈ F(𝐴; 𝑉) por ( 𝑓 + 𝑔)(𝑥) = 𝑓 (𝑥) + 𝑔(𝑥) e o produto 𝛼 · 𝑓 , onde
𝛼 ∈ R como sendo (𝛼 · 𝑓 )(𝑥) = 𝛼( 𝑓 (𝑥)).

Observação 1. Se 𝐴 = 𝑉 denotamos o espaço acima simplesmente por F(𝑉).

Exemplo 3. Denotando por 𝑓 (𝑛) como sendo a 𝑛-ésima derivada da função


𝑓 , considere o conjunto

𝐶 𝑛 (𝐼, R) = { 𝑓 : 𝐼 → R; 𝑓 (𝑛) é contínua},

onde 𝐼 ⊂ R é um intervalo. Com as operações usuais de soma e produto de


um número por uma função definidas no exemplo 2, o conjunto 𝐶 𝑛 (𝐼, R) é
um espaço vetorial.

Observação 2. Se 𝑛 = 0 então 𝑓 (0) = 𝑓 e 𝐶 0 (𝐼, R) é o espaço das funções


contínuas.

Exemplo 4. O conjunto dos polinômios em R de grau menor ou igual a 𝑛 é


definido por:

P𝑛 (R) = {𝑝(𝑥) = 𝑎 𝑛 𝑥 𝑛 + 𝑎 𝑛−1 𝑥 𝑛−1 + · · · + 𝑎1 𝑥 + 𝑎0 ; 𝑎 𝑛 , 𝑎 𝑛−1 , . . . , 𝑎 0 ∈ R}

com as operações de adição de polinômios e multiplicação de um polinômio


por um escalar é um espaço vetorial. Note que cada elemento de P𝑛 (R) é uma
função 𝑝 : R → R

Exemplo 5. O conjunto das matrizes definido por

M𝑚×𝑛 (R) = {𝐴𝑚×𝑛 = (𝑎 𝑖𝑗 ); 𝑎 𝑖𝑗 ∈ R, 𝑖 = 1, . . . , 𝑚, 𝑗 = 1, . . . , 𝑛}


12

com a soma usual de matrizes e multiplicação usual de um escalar por uma


matriz é um espaço vetorial. No caso particular das matrizes quadradas de
ordem 𝑛 podemos denotar M𝑛×𝑛 (R) por M𝑛 (R).
Observação 3. Salvo mencione o contrário, quando falarmos destes espaços,
estamos considerando as operações definidas acima como padrão.
Exemplo 6. Seja o conjunto R2 = {(𝑥; 𝑦); 𝑥, 𝑦 ∈ R} com as operações assim
definidas
(𝑥 1 , 𝑦1 ) + (𝑥2 , 𝑦2 ) = (𝑥1 + 𝑥2 , 𝑦1 + 𝑦2 )

𝛼 · (𝑥, 𝑦) = (𝛼 · 𝑥, 𝑦)

O conjunto R2 com estas operações não é um espaço vetorial. Por exemplo,


a propriedade 5 da definição de espaço vetorial não é satisfeita.

1.2 Exercícios

1. Verifique se em cada um dos itens o conjunto 𝑉 com as operações


indicadas é um espaço vetorial sobre R.

(a) 𝑉 = R3 , (𝑥1 , 𝑦1 , 𝑧1 ) + (𝑥 2 , 𝑦2 , 𝑧2 ) = (𝑥1 + 𝑥 2 , 𝑦1 + 𝑦2 , 𝑧1 + 𝑧2 ); 𝛼 ·


(𝑥, 𝑦, 𝑧) = (𝛼𝑥, 𝛼𝑦, 𝛼𝑧).
(b) 𝑉 = {(𝑥, 𝑦) ∈ R2 ; 3𝑥 − 2𝑦 = 0}, operações usuais de R2 .
(c) 𝑉 = {(𝑥, 𝑦, 𝑧, 𝑤) ∈ R4 ; 𝑦 = 𝑥, 𝑧 = 𝑤 2 }, operações usuais de
R4 .
n o
(d) 𝑉 = R × R − 0® , (𝑥1 , 𝑦1 ) + (𝑥2 , 𝑦2 ) = (𝑥 1 + 𝑥 2 , 𝑦1 𝑦2 ), 𝛼 · (𝑥, 𝑦) =
(𝛼𝑥, 𝑦 𝛼 ).

2. Mostre que o espaço 𝑉 = (0, ∞) com as operações 𝑥 +0 𝑦 = 𝑥𝑦 e


𝜆 ·0 𝑥 = 𝑥 𝜆 é um espaço vetorial. (O elemento neutro da adição é
1 e o elemento oposto de 𝑥 > 0 e 𝑥 −1 .)
13

3. Seja 𝑉 um espaço vetorial sobre R. Demonstre a partir dos


axiomas que se 𝑎 ∈ R e 𝑣 ∈ 𝑉 então 𝑎 · 𝑣 = 0® se, e só se 𝑎 = 0 ou
®
𝑣 = 0.

4. Seja 𝑉 um espaço vetorial sobre 𝐾 e tome 𝑎, 𝑏 ∈ 𝐾 e 𝑣, 𝑤 ∈ 𝑉


® Demonstre, a partir dos axiomas, que se
tais que 𝑎 ≠ 0 e 𝑣 ≠ 0.
𝑎 · 𝑣 = 𝑏 · 𝑣 então 𝑎 = 𝑏. Demonstre também que se 𝑎 · 𝑣 = 𝑎 · 𝑤
então 𝑣 = 𝑤.

5. Tome um inteiro 𝑛 ≥ 2 e considere o conjunto Z𝑛 = {0, 1, 2, . . . , 𝑛−


1}. Em Z𝑛 defina as operações soma ⊕ e produto módulo 𝑛 da
seguinte forma: dados 𝑎, 𝑏 ∈ Z𝑛 , 𝑎 ⊕ 𝑏 é o resto da divisão por 𝑛
de 𝑎 + 𝑏 (soma de números inteiros). Enquanto que 𝑎 𝑏 é o resto
da divisão por 𝑛 de 𝑎 · 𝑏 (multiplicação de números inteiros). Por
exemplo, se 𝑛 = 3 as tabelas de soma e produto módulo 3 são

⊕ 0 1 2 0 1 2
0 0 1 2 0 0 0 0
1 1 2 0 1 0 1 2
2 2 0 1 2 0 2 1

Responda os seguintes itens:

(a) Tome 𝑛 = 7 e encontre as inversas 1−1 , 2−1 , 3−1 , 4−1 , 5−1 , 6−1
(em relação ao produto módulo 7).
(b) Tome 𝑛 = 8 e verifique que não existe a inversa 2−1 (isto é, não
existe 𝑥 tal que 2 𝑥 = 1 módulo 8).
(c) Tome 𝑛 = 3 e verifique que se 𝑎 ∈ Z3 então 𝑎 + 𝑎 + 𝑎 = 0. Faça
o mesmo para 𝑛 = 4, 𝑎 ∈ Z4 e 𝑎 + 𝑎 + 𝑎 + 𝑎 = 0.
(d) Existe 𝑎 ∈ Z3 tal que 𝑎 2 = 2? (Com as operações módulo 3).
14

6. Como no exercício anterior, seja Z3 = {0, 1, 2} com as operações


soma e produto módulo 3. Considere a seguinte matriz 𝐴 cujas
entradas são elementos de Z3 :

©1 1 2ª
𝐴 = ­ 0 2 1 ®.
­ ®
­ ®
2 0 2
« ¬
Calcule det 𝐴, usando as operações módulo 3. Use a regra de
Cramer para encontrar a matriz inversa 𝐴−1 (faça isso usando as
operações módulo 3). Verifique que a inversa 𝐴−1 obtida é de fato
a inversa de 𝐴, isto é, 𝐴−1 𝐴 é a matriz identidade.

1.3 Subespaços e Soma de Subespaços

Seja 𝑉 um espaço vetorial. Um subconjunto não vazio 𝑊 ⊂ 𝑉 é


um subespaço de 𝑉 se, e somente se, ele é fechado com às operações
de soma e multiplicação por escalar. Desta maneira, se 𝑊 ⊂ 𝑉 é
um subconjunto de 𝑉 (espaço vetorial) com as operações de soma e
multiplicação por um escalar induzidas por 𝑉 , então 𝑊 também é um
espaço vetorial.
Formalmente, dizemos que 𝑊 é um subespaço de 𝑉 se
i) 𝑢, 𝑣 ∈ 𝑊 ⇒ 𝑢 + 𝑣 ∈ 𝑊 .

ii) 𝛼 ∈ R, 𝑢 ∈ 𝑊 ⇒ 𝛼 · 𝑢 ∈ 𝑊 .
Observação 4. O item 𝑖𝑖) da definição acima garante que o vetor nulo sempre
pertence ao subespaço.
Exemplo 7. Seja 𝑉 = R𝑛 e

𝑊 = {(𝑥1 , . . . , 𝑥 𝑛 ) ∈ R𝑛 | 𝑥 𝑖 = 0 para algum 𝑖 fixo e 1 ≤ 𝑖 ≤ 𝑛}.


15

Note que 𝑊 é um subespaço de R𝑛 .


Exemplo 8. O conjunto 𝑊 = {(𝑥; 𝑦) ∈ R2 | 𝑦 = 2𝑥} ⊂ R2 é um subespaço
vetorial de R2 . O subconjunto 𝑈 = {(𝑥; 𝑦) ∈ R2 | 𝑦 = 𝑥 2 } ⊂ R2 não é
subespaço vetorial de R2 , pois (1, 1), (2, 4) ∈ 𝑈 e (1, 1) + (2, 4) = (3, 5) ∉ 𝑈.
Exemplo 9. O subconjunto 𝑈 = {(𝑥; 𝑦) ∈ R2 | 𝑦 = 𝑥 2 } ⊂ R2 não é
subespaço vetorial de R2 , pois (1, 1), (2, 4) ∈ 𝑈 e (1, 1) + (2, 4) = (3, 5) ∉ 𝑈.
Exemplo 10. Fixado um vetor 𝑣 de um espaço vetorial 𝑉 , o conjunto
𝑊𝑣 = {𝜆𝑣 | 𝜆 ∈ R} é um subespaço de 𝑉.
Sejam 𝑊1 e 𝑊2 dois subespaços vetoriais de 𝑉. Então o conjunto

𝑊1 + 𝑊2 = {𝑣 = 𝑤 1 + 𝑤 2 ∈ 𝑉; 𝑤1 ∈ 𝑊1 e 𝑤 2 ∈ 𝑊2 }

é um subespaço de V.
Exemplo 11. Sejam os subespaços vetoriais

𝑊1 = {(𝑎, 𝑏, 0) ∈ R3 ; 𝑎, 𝑏 ∈ R} e 𝑊2 = {(0, 0, 𝑐) ∈ R3 ; 𝑐 ∈ R}

do R3 . Não é difícil ver que 𝑊1 + 𝑊2 = R3 .


Exemplo 12. Se ( ! )
𝑎 𝑏
𝑊1 = , 𝑎, 𝑏 ∈ R
0 0
e ( ! )
0 0
𝑊2 = , 𝑐, 𝑑 ∈ R ,
𝑐 𝑑
então 𝑊1 + 𝑊2 = M2 (R).
Seja 𝑊1 , . . . , 𝑊𝑛 subespaços do espaço vetorial 𝑉. Temos que
𝑊1 ∩ · · · ∩ 𝑊𝑛 é um subespaço vetorial de 𝑉. Observe que este fato
também acontece para interseções infinita.
16

Dois subespaços vetoriais 𝑊1 en𝑊o2 de 𝑉 são disjuntos se a interseção


é o vetor nulo, isto é, 𝑊1 ∩ 𝑊2 = 0® .
Uma vez que a interseção de dois subespaços ainda é um subespaço
vetorial, poderíamos esperar o mesmo da reunião, mas isso não
acontece, como podemos ver no próximo exemplo.

Exemplo 13. Seja 𝑉 = R2 , 𝑊1 o eixo 𝑥 e 𝑊2 o eixo 𝑦. É facíl verificar que


𝑊1 ∪ 𝑊2 não é um subespaço vetorial de 𝑉. De fato, (1, 1) = (1, 0) + (0, 1) ∉
𝑊1 ∪ 𝑊2 com (1, 0) ∈ 𝑊1 e (0, 1) ∈ 𝑊2 .

Proposição 2. Sejam 𝑊1 e 𝑊2 são subespaços de um espaço vetorial 𝑉 então


𝑊1 ∪ 𝑊2 . Mostre também que 𝑊1 ∪ 𝑊2 é subespaço de 𝑉 se, e somente se,
𝑊1 ⊂ 𝑊2 ou 𝑊2 ⊂ 𝑊1 .

Demonstração: Se 𝑊1 ⊂ 𝑊2 ou 𝑊2 ⊂ 𝑊1 é claro que 𝑊1 ∪ 𝑊2 é


um subespaço vetorial de 𝑉. Reciprocamente, suponha que 𝑊1 ∪ 𝑊2 .
Suponha agora que 𝑊1 * 𝑊2 e 𝑊2 * 𝑊1 . Tome 𝑤1 ∈ 𝑊1 com 𝑤1 ∉ 𝑊2
e 𝑤2 ∈ 𝑊2 com 𝑤2 ∉ 𝑊1 . Vamos mostrar que 𝑤1 + 𝑤2 ∉ 𝑊1 ∪ 𝑊2 . De
fato, se 𝑤1 + 𝑤2 ∈ 𝑊1 então

𝑤2 = (𝑤 1 + 𝑤2 ) − 𝑤 1 ∈ 𝑊1
| {z } |{z}
∈𝑊1 ∈𝑊1

que não é verdade. Analogamente mostramos que 𝑤1 +𝑤2 ∉ 𝑊2 . Dessa


maneira, 𝑊1 ∪ 𝑊2 não é um espaço vetorial, pois 𝑤 1 , 𝑤2 ∈ 𝑊1 ∪ 𝑊2 ,
mas 𝑤1 + 𝑤2 ∉ 𝑊1 ∪ 𝑊2 . 
Sejam os subespaços vetoriais 𝑊1 e 𝑊2 do espaço vetorial 𝑉.
Escrevemos 𝑊1 ⊕𝑊2 , quando para cada 𝑣 ∈ 𝑊1 +𝑊2 , podemos escreve-
lo de modo único como soma 𝑣 = 𝑤1 + 𝑤2 , onde 𝑤1 ∈ 𝑊1 e 𝑤 2 ∈ 𝑊2 .
Esta soma é chamada soma direta.
17

Teorema 1. Sejam 𝑊1 e 𝑊2 subespaços vetoriais de 𝑉 tais que 𝑉 = 𝑊1 +𝑊2 .


Então 𝑉 = 𝑊1 ⊕ 𝑊2 se, e somente se, 𝑊1 , 𝑊2 forem disjuntos.

Demonstração: Se 𝑉 = 𝑊1 ⊕ 𝑊2 , seja 𝑣 um vetor de 𝑣 ∈ 𝑊1 ∩ 𝑊2 ,


então
𝑣= ®
𝑣 + 0 = 0 + 𝑣 ®
|{z} |{z} |{z} |{z}
∈ 𝑊1 ∈ 𝑊2 ∈ 𝑊1 ∈ 𝑊2

® provando que 𝑊1 e 𝑊2 são


e, como a decomposição é única, 𝑣 = 0,
disjuntos.
Se 𝑊1 e 𝑊2 forem disjuntos, como 𝑉 = 𝑊1 + 𝑊2 , todo 𝑣 ∈ 𝑉 pode
ser decomposto numa soma 𝑣 = 𝑣1 + 𝑣 2 , com 𝑣1 ∈ 𝑊1 e 𝑣 2 ∈ 𝑊2 . Se
houvesse outra decomposição 𝑣 = 𝑤 1 + 𝑤2 , com 𝑤1 ∈ 𝑊1 e 𝑤 2 ∈ 𝑊2 ,
então 𝑣1 + 𝑣 2 = 𝑤1 + 𝑤 2 e assim, 𝑣 1 − 𝑤1 = 𝑤 2 − 𝑣2 . Sendo 𝑣1 − 𝑤 1 um
vetor de 𝑊1 igual a 𝑤2 − 𝑣 2 , um vetor de 𝑊2 , então 𝑣 1 − 𝑤1 ∈ 𝑊1 ∩ 𝑊2 ,
como estes dois subespaços são disjuntos, 𝑣1 − 𝑤 1 = 0 ou 𝑣 1 = 𝑤1 .
Com este resultado, obtemos 𝑤2 − 𝑣2 = 0 ou 𝑣 2 = 𝑤2 , provando que
a decomposição de 𝑣 numa soma de um elemento de 𝑊1 com um
elemento de 𝑊2 é única.
Portanto, 𝑉 = 𝑊1 ⊕ 𝑊2 . 

Observação 5. Em geral, Sejam 𝑊1 , . . . , 𝑊𝑛 subespaços vetoriais de um


espaço vetorial 𝑉. A soma 𝑊1 + · · · + 𝑊𝑛 é dada por

𝑊1 + · · · + 𝑊𝑛 = {𝑤1 + · · · + 𝑤 𝑛 ∈ 𝑉; 𝑤 1 ∈ 𝑊1 , · · · , 𝑤 𝑛 ∈ 𝑊𝑛 }.
n o
Se 𝑊𝑗 ∩ (𝑊1 + · · · + 𝑊𝑗−1 + 𝑊𝑗+1 + · · · + 𝑊𝑛 ) = 0® , para cada 𝑗 = 1, . . . , 𝑛,
diremos que esta soma é direta e usaremos a notação 𝑊1 ⊕ · · · ⊕ 𝑊𝑛 .
18

1.4 Exercícios

1. Dados 𝑢 = (1, 2) e 𝑣 = (−1, 2), sejam 𝑊1 e 𝑊2 respectivamente as


retas que passam pela origem em R2 e contêm 𝑢 e 𝑣. Mostre que
R2 = 𝑊1 ⊕ 𝑊2 .

2. Sejam 𝑚, 𝑛 ∈ N com 𝑚 ≤ 𝑛. Então P𝑚 (R) é um subespaço de


P𝑛 (R).

3. Mostre que a interseção de subespaços é sempre um subespaço.

4. Seja 𝑉 um espaço vetorial. Definiremos a diagonal do


produto cartesiano 𝑉 𝑛 = 𝑉 × 𝑉 × · · · × 𝑉 como sendo Δ =
| {z }
𝑛−vezes
{(𝑣, 𝑣, . . . , 𝑣), 𝑣 ∈ 𝑉 }. Mostre que Δ é um subespaço de 𝑉 𝑛 .

5. Quais dos seguintes conjuntos são subespaços vetoriais?

(a) O conjuntos dos vetores de R𝑛 cujas coordenadas formam


uma progressão aritmética.
(b) Os vetores de R𝑛 cujas coordenadas formam uma progressão
geométrica.
(c) Os vetores de R𝑛 cujas primeiras 𝑘 coordenadas são iguais.
(d) Os vetores de R𝑛 cujas 𝑘 coordenadas são iguais.
(e) Os vetores (𝑥, 𝑦) ∈ R2 tais que 𝑥 2 + 3𝑥 = 𝑦 2 + 3𝑦

6. Sejam 𝑎1 , . . . , 𝑎 𝑛 ∈ R. O conjunto

𝐻 = {(𝑥 1 , . . . , 𝑥 𝑛 ); 𝑎 1 𝑥 1 + · · · + 𝑎 𝑛 𝑥 𝑛 = 0}

é chamado de hiperplano de R𝑛 que passa pela origem. Mostre


que este conjunto é um subespaço de R𝑛 .
19

7. Qual seria o valor de 𝑐 ∈ R para que o conjunto 𝑈 = {(𝑥, 𝑦) ∈


R2 ; 𝑎𝑥 + 𝑏𝑦 = 𝑐} seja um subespaço vetorial do R2 . Justifique sua
resposta.

8. Mostre os subconjuntos a seguir são subespaços de F(R)

a) 𝑈 = { 𝑓 ∈ F(R), 𝑓 (𝑡) = 𝑓 (−𝑡), ∀𝑡 ∈ R} (Espaços das funções


pares)
b) 𝑉 = { 𝑓 ∈ F(R), 𝑓 (𝑡) = − 𝑓 (−𝑡), ∀𝑡 ∈ R} (Espaços das funções
impares)

Mostre também que F(R) = 𝑈 ⊕ 𝑉.

9. Mostre que, fixado 𝑣 o subconjunto F𝑣 = { 𝑓 : 𝑋 → 𝑉; 𝑓 (𝑣) = 0}


é um subespaço vetorial de 𝑉.

10. Diz-se que uma função 𝑓 : 𝑋 → R é limitada quando existe 𝑘 > 0


tal que | 𝑓 (𝑥)| ≤ 𝑘. Mostre que o conjunto das funções limitadas é
um subespaço vetorial de F(𝑋 , R).

11. Seja 𝑉 = R3 . Mostre que 𝑊 não é subespaço de 𝑉 , onde:

(a)
(b) 𝑊 = {(𝑥, 𝑦, 𝑧) ∈ R3 ; 𝑥 ≥ 0};
(c) 𝑊 = {(𝑥, 𝑦, 𝑧) ∈ R3 ; 𝑥 + 𝑦 + 𝑧 ≤ 2};
(d) 𝑊 = {(𝑥, 𝑦, 𝑧) ∈ R3 ; 𝑥, 𝑦, 𝑧 ∈ Q}.

12. Verifique que R3 é a soma direta dos subespaços 𝑊 = {(𝑥, 𝑦, 𝑧) ∈


R3 ; 𝑥 = 𝑦 = 0} e 𝑉 = {(𝑥, 𝑦, 𝑧) ∈ R3 ; 𝑥 + 𝑦 + 𝑧 = 0}.

13. Dados os subespaços 𝑈 = {(𝑥, 𝑦, 𝑧) ∈ R3 ; 𝑥 + 𝑦 = 0} e 𝑉 =


{(𝑥, 𝑦, 𝑧) ∈ R3 ; 𝑥 = 0}. Determine o subespaço 𝑈 ∩ 𝑉.
20

14. Uma matriz quadrada 𝑎 = [𝑎 𝑖𝑗 ] se chama simétrica (respect. anti-


simétrica) quando 𝑎 𝑖𝑗 = 𝑎 𝑗𝑖 (respect. 𝑎 𝑖𝑗 = −𝑎 𝑗𝑖 ) para todo 𝑖 e todo
𝑗. Prove que o conjunto 𝑆 das matrizes simétricas e o conjunto
𝐴 das matrizes anti-simétrica 𝑛 × 𝑛 são subespaços vetoriais de
𝑀𝑛 (R) e que se tem 𝑀𝑛 (R) = 𝑆 ⊕ 𝐴.

15. Para cada uma das afirmações a seguir diga se é verdadeira ou


falsa. No caso verdadeiro apresente uma justificativa e no falso,
um contra-exemplo.

(a) Sejam 𝑉 um espaço vetorial e 𝑈 , 𝑊 ⊂ 𝑉 subespaços vetoriais


de 𝑉. Então, 𝑈 ∩ 𝑊 também é subespaço vetorial.

(b) Sejam 𝑉 um espaço vetorial e 𝑈 , 𝑊 ⊂ 𝑉 subespaços vetoriais


de 𝑉. Então, 𝑈 ∪ 𝑊 também é subespaço vetorial.

(c) Sejam 𝑉 um espaço vetorial e 𝑈 , 𝑊 ⊂ 𝑉 subespaços vetoriais


de 𝑉. Então, 𝑈 \ 𝑊 também é subespaço vetorial.

1.5 Combinações Lineares e Subespaço Gerado

Seja 𝑉 um espaço vetorial. Fixados 𝑣 1 , . . . , 𝑣 𝑛 ∈ 𝑉 , o vetor

𝑎1 · 𝑣1 + · · · + 𝑎 𝑛 · 𝑣 𝑛

onde 𝑎1 , . . . 𝑎 𝑛 ∈ R é chamado chamamos de combinação linear dos


vetores 𝑣 1 , . . . , 𝑣 𝑛 .
A combinação linear do conjunto 𝑆 = {𝑣 1 , 𝑣2 , . . . , 𝑣 𝑛 } ∈ 𝑉 é
denotado por

[𝑆] = {𝑎1 · 𝑣 1 + 𝑎2 · 𝑣2 + · · · + 𝑎 𝑛 · 𝑣 𝑛 ; 𝑎1 . . . , 𝑎 𝑛 ∈ R, 𝑣1 , 𝑣2 , . . . , 𝑣 𝑛 ∈ 𝑉 }.
21

Note que [𝑆] é um subespaço vetorial e seus elementos são chamados


combinação linear de 𝑣 1 , . . . , 𝑣 𝑛 .
O conjunto [𝑆] = [𝑣1 , 𝑣2 , . . . , 𝑣 𝑛 ] é o menor subespaço de 𝑉 que
contém o conjunto de vetores {𝑣1 , 𝑣2 , . . . , 𝑣 𝑛 }, no sentido de que
qualquer outro subespaço 𝑆0 de 𝑉 que contenha 𝑣 1 , 𝑣2 , . . . , 𝑣 𝑛 , satisfaz
a condição [𝑆] ⊂ 𝑆0.

Exemplo 14. Seja 𝑉 = R𝑛 e 𝑣 ∈ R𝑛 , 𝑣 ≠ 0, então o conjunto

[𝑣] = {𝑎 · 𝑣; 𝑎 ∈ R}

é uma reta que passa pela a origem e contém o vetor 𝑣.

Exemplo 15. Se 𝑣1 , 𝑣2 ∈ R𝑛 são tais que 𝛼 · 𝑣1 ≠ 𝑣2 para todo 𝛼 ∈ 𝑅, então


[𝑣 1 , 𝑣2 ] será o plano que passa pela origem e contém 𝑣 1 e 𝑣 2 .
Observe que se 𝑣3 ∈ [𝑣 1 , 𝑣2 ], então [𝑣1 , 𝑣2 ] = [𝑣 1 , 𝑣2 , 𝑣3 ], pois todo vetor
que pode ser escrito como combinação linear de 𝑣 1 , 𝑣2 , 𝑣3 é uma combinação
linear apenas de 𝑣1 e 𝑣2 (pois 𝑣 3 é combinação linear de 𝑣1 e 𝑣2 ).

Dizemos que um espaço vetorial 𝑉 é finitamente gerado se existe


um subconjunto 𝑆 de 𝑉 finito tal que 𝑉 = [𝑆]. O conjunto 𝑆 é chamado
de conjunto gerador de 𝑉.

Exemplo 16. Os vetores do R𝑛

𝑒1 = (1, 0, . . . , 0), 𝑒2 = (0, 1, . . . , 0), . . . , 𝑒 𝑛 = (0, 0, . . . , 1)

constituem um conjunto de geradores do espaço R𝑛 , pois dado qualquer vetor


𝑣 = (𝑎 1 , . . . , 𝑎 𝑛 ) ∈ R𝑛 , podemos escrever 𝑣 = 𝑎1 · 𝑒1 + · · · + 𝑎 𝑛 · 𝑒 𝑛 .
Estes vetores são chamados de canônicos.

Exemplo 17. O conjunto 𝛽 = {(2, 1), (1, 0)} gera o R2 pois podemos escrever
22

um par ordenado (𝑥, 𝑦) qualquer como combinação linear desses dois vetores

(𝑥, 𝑦) = 𝑦 · (2, 1) + (𝑥 − 2𝑦) · (1, 0).

Neste exemplo, o modo de escrever (𝑥, 𝑦) como combinação linear dos


elementos de 𝛽 é única.

1.6 Exercícios

1. Escreva o vetor 𝑣 = (1, −2, 5) como combinação linear dos vetores


𝑣 1 = (1, 1, 1) e 𝑣2 = (1, 2, 3) e 𝑣 3 = (2, −1, 1).

2. Para qual valor de 𝑘 será o vetor 𝑢 = (1, −2, 𝑘) em R3 uma


combinação linear dos vetores 𝑣 = (3, 0, −2) e 𝑤 = (2, −1, −5).

3. Verifique se em P2 (R), o polinômio 𝑝(𝑥) = 2+𝑥 2 é uma combinação


dos polinômios 𝑝 1 (𝑥) = 1, 𝑝2 (𝑥) = 𝑥 e 𝑝3 (𝑥) = 𝑥 2 . Verifique
também se 𝑝 pode ser escrito como combinação de 𝑞 1 (𝑥) =
1, 𝑞2 (𝑥) = 1 + 𝑥 e 𝑞 3 (𝑥) = 1 + 𝑥 + 𝑥 2

4. Ache uma solução não trivial para o sistema homogêneo:

𝑥1 + 𝑥2 + 𝑥3 + 𝑥4 = 0

2𝑥 1 + 𝑥 2 + 𝑥 3 − 𝑥 4 = 0

3𝑥 1 − 2𝑥 2 + 𝑥 3 − 2𝑥 4 = 0

e a partir daí, obtenha, uma combinação linear nula dos vetores


𝑣1 = (1, 2, 3), 𝑣2 = (1, 1, −2), 𝑣3 = (1, 1, 1) e 𝑣4 = (1, −1, −2), na
qual os coeficientes não são todos iguais a zero.

5. No espaço vetorial P3 (R) sobre R dos polinômios de grau ≤ 3,


23

tome os polinômios 𝑝(𝑡) = 1+4𝑡 −2𝑡 2 +𝑡 3 , 𝑞(𝑡) = −1+9𝑡 −3𝑡 2 +2𝑡 3 ,


𝑤(𝑡) = −5+6𝑡+𝑡 3 e ℎ(𝑡) = 5+7𝑡−5𝑡 2 +2𝑡 3 . Verifique que {𝑝, 𝑞, 𝑤, ℎ}
é l.d. e encontre uma combinação linear 𝑎𝑝 + 𝑏𝑞 + 𝑐𝑤 + 𝑑ℎ = 0®
em que algum dos coeficientes 𝑎, 𝑏, 𝑐, 𝑑 é diferente de 0. Encontre
um elemento de {𝑝, 𝑞, 𝑤, ℎ} que é combinação linear dos outros
e escreva essa combinação linear.

1.7 Dependência Linear e Independência Linear

Seja 𝑆 = {𝑣1 , . . . , 𝑣 𝑛 } um subconjunto finito de 𝑉. Dizemos que 𝑆


é linearmente dependente (l.d.) se existirem escalares 𝑎1 , . . . , 𝑎 𝑛 , nem
®
todos nulos tais que 𝑎1 · 𝑣 1 + · · · + 𝑎 𝑛 · 𝑣 𝑛 = 0.
Dizemos que um conjunto de vetores 𝑣1 , . . . , 𝑣 𝑛 é linearmente
independente (l.i.) se ele não é linearmente dependente, ou seja,
® tem-se 𝑎1 = · · · = 𝑎 𝑛 = 0.
quando 𝑎1 · 𝑣1 + · · · + 𝑎 𝑛 · 𝑣 𝑛 = 0,

Exemplo 18. Sejam 𝑣 1 , 𝑣2 ∈ 𝑉 = R3 . O conjunto {𝑣 1 , 𝑣2 } é l.d. se, e somente


se, 𝑣 1 e 𝑣 2 estiverem na mesma reta, que passa pela origem, (𝑣 1 = 𝜆 · 𝑣2 ).

Exemplo 19. Seja 𝑉 = R𝑛 , então 𝑒1 , . . . , 𝑒 𝑛 são vetores l.i.. Observe que


𝑒1 , . . . , 𝑒 𝑖 , 1 ≤ 𝑖 < 𝑛 também é l.i..

Exemplo 20. O conjunto {(1, 1, 0, 0); (0, 1, 0, 0); (2, 1, 0, 0)} ⊂ R4 é l.d.,
pois:
𝑎1 · (1, 1, 0, 0) + 𝑎2 · (0, 1, 0, 0) + 𝑎3 · (2, 1, 0, 0) = 0® ⇒
(
𝑎1 + 2𝑎3 = 0

𝑎1 + 𝑎2 + 𝑎3 = 0
Como o sistema acima é indeterminado, existem infinitas soluções (além
da trivial).
Assim concluirmos que {(1, 1, 0, 0); (0, 1, 0, 0); (2, 1, 0, 0)} é l.d..
24

Observação 6. O conjunto vazio {∅} é l.i..

Exemplo 21. As funções cos(·) e sen(·) são linearmente independentes.


Analisemos a combinação linear

𝛼 cos 𝑥 + 𝛽sen𝑥 = 0

para todo 𝑥 ∈ R. Se 𝑥 = 0 obtemos 𝛼 = 0, e portanto 𝛽sen𝑥 = 0 para todo


𝑥 ∈ R. Em particular, para 𝑥 = 𝜋/2 obtemos que 𝛽 = 0. Assim, a única
solução da equação 𝛼 cos(·) + 𝛽 sen(·) = 0 é 𝛼 = 𝛽 = 0, o que implica que as
funções cos(·) e sen(·) são linearmente independentes.

1.7.1 Propriedades da Dependência Linear

Proposição 3. Seja 𝑆 = {𝑣 1 , . . . , 𝑣 𝑛 } um conjunto finito de vetores.

1. Se 𝑆 for l.d., qualquer conjunto finito de vetores que o contém também


será l.d..

2. Se 𝑆 for l.i., qualquer subconjunto de 𝑆 será l.i..

3. Se 𝑆 é l.i. e 𝑣 ∈ 𝑉 um vetor não nulo que não pertence ao subespaço


gerado por 𝑆. Então 𝑆 ∪ {𝑣} é l.i..

4. Se 𝑆 é l.d., então um dos seus vetores é combinação linear dos outros.

Demonstração:

1. Se 𝑆 for l.d., existem escalares 𝑎1 , . . . , 𝑎 𝑛 ∈ R nem todos nulos tais


® Seja 𝑆0 um conjunto finito que contém
que 𝑎1 · 𝑣1 + · · · + 𝑎 𝑛 · 𝑣 𝑛 = 0.
𝑆. Se 𝑤 1 , . . . , 𝑤 𝑚 forem os elementos de 𝑆0 que não pertencem a
𝑆, então

®
𝑎1 · 𝑣 1 + · · · + 𝑎 𝑛 · 𝑣 𝑛 + 0 · 𝑤1 + · · · + 0 · 𝑤 𝑚 = 0,
25

provando que 𝑆0 é l.d..

2. Se 𝑆 for l.i., seja 𝑆0 um subconjunto de 𝑆. Se 𝑆0 fosse l.d., 𝑆 também


o seria pela primeira parte. Logo 𝑆0 é l.i..

3. Suponha que existem escalares 𝑎1 , . . . , 𝑎 𝑛 , 𝑎 ∈ R tais que

®
𝑎 1 · 𝑣1 + · · · + 𝑎 𝑛 · 𝑣 𝑛 + 𝑎 · 𝑣 = 0.

Note que 𝑎 = 0, pois caso contrário 𝑣 ∈ [𝑆]. Assim

𝑎1 · 𝑣1 + · · · + 𝑎 𝑛 · 𝑣 𝑛 = 0®

e como 𝑆 é l.i., segue que 𝑎 1 = · · · = 𝑎 𝑛 = 0.

4. Se 𝑆 for l.d., existem escalares 𝑎1 , . . . , 𝑎 𝑛 ∈ R nem todos nulos tais


® Suponha sem perda de generalidade
que 𝑎1 · 𝑣1 + · · · + 𝑎 𝑛 · 𝑣 𝑛 = 0.
que 𝑎1 ≠ 0, então
𝑎2 𝑎𝑛
𝑣1 = − · 𝑣2 − · · · − · 𝑣𝑛 .
𝑎1 𝑎1

Portanto o vetor 𝑣1 é combinação linear de 𝑣2 , . . . , 𝑣 𝑛−1 e 𝑣 𝑛 . 

1.8 Exercícios

1. Se 𝑆 ⊂ 𝑉 , onde 𝑉 é um espaço vetorial e 𝑆 contém o vetor nulo,


então esse conjunto é l.d..

2. Mostre que as funções seno e cosseno são l.i..

3. Mostre que {1, 𝑥, 𝑥 2 , . . . , 𝑥 𝑛 } gera o espaço P𝑛 (R).

4. Mostre que os polinômios 1, 1 + 𝑡, 1 − 𝑡 2 e 1 − 𝑡 − 𝑡 2 − 𝑡 3 geram o


P3 (R).
26

5. Mostre que os polinômios 𝑝(𝑡) = 1 − 3𝑡 + 2𝑡 2 − 3𝑡 3 e 𝑞(𝑥) =


−3 + 9𝑡 − 6𝑡 2 + 9𝑡 3 são l.d.

6. Se os vetores 𝑣1 , . . . , 𝑣 𝑛 são l.d. então existe um 𝑣 𝑖 que é


combinação linear dos demais 𝑣1 , . . . , 𝑣 𝑗−1 , 𝑣 𝑗+1 , . . . , 𝑣 𝑛 . Uma
recíproca de tal fato é válida?

7. Determine se os seguintes vetores em R3 são l.d. ou não:

(a) (1, 2, 1), (4, 1, 5), (5, 6, 7)


(b) (1, 2, −3), (1 − 3, 2), (2, −1, 5)
(c) (2, −3, 7), (0, 0, 0), (3, −1, −4)
(d) (1, −3, 7), (2, 0, −6), (3, −1, −1, ), (2, 4, −5)

8. Determinar 𝑚 e 𝑛 para que os conjuntos abaixo sejam l.i.

(a) {(3, 5𝑚, 1), (2, 0, 4), (1, 𝑚, −3)}


(b) {(6, 2, 𝑛), (3, 𝑚 + 𝑛, 𝑚 − 1)}

9. No espaço vetorial 𝑉 = F (R) sejam as funções 𝑓 e 𝑔 dadas por


𝑓 (𝑥) = cosh 𝑥 e 𝑔 (𝑥) = senh𝑥. Mostre que o conjunto { 𝑓 , 𝑔} é l.i.
Faça o mesmo para o conjunto 𝑒 𝑥 , 𝑒 2𝑥 , 𝑒 3𝑥 é l.i.


10. Sejam 𝑉 um espaço vetorial sobre R e {𝑢, 𝑣, 𝑤} ⊂ 𝑉 um conjunto


l.i. Mostre que os seguintes conjuntos {𝑢, 𝑢 + 𝑣, 𝑢 + 𝑣 + 𝑤} também
são l.i.
i) {𝑢, 𝑢 + 𝑣, 𝑢 + 𝑣 + 𝑤}; ii) {𝑢 − 𝑣, 𝑢 + 𝑣}; iii) {𝑢, 𝑢 + 𝑣}; iv)
{𝑢 + 2𝑣, 𝑢 + 𝑣, 𝑢 + 𝑣 + 𝑤}

11. No espaço vetorial 𝑉 sobre o corpo 𝐾, tome dois vetores 𝑣, 𝑤 ∈ 𝑉


com 𝑣 ≠ 0® e 𝑤 ≠ 0® e tal que {𝑣, 𝑤} é l.d. Mostre que os conjuntos
{𝑎 · 𝑣; 𝑎 ∈ 𝐾} e {𝑎 · 𝑤; 𝑎 ∈ 𝐾} são iguais. (Para mostrar que dois
27

conjuntos são iguais tome um elemento num deles e verifique que


ele pertence ao outro. E vice-versa.)

12. Considere o espaço vetorial 𝑉 = Z33 , sobre o corpo 𝐾 = Z3 . O


subconjunto {(1, 1, 1) , (0, 1, 2) , (1, 2, 0)} ⊂ Z33 é l.i ou l.d.?

13. Use os conceitos de dependência e independência linear para


mostrar que um sistema linear homogêneo 𝐴 · 𝑋 = 0 com 𝑚
equações e 𝑛 incógnitas não é determinado se 𝑛 > 𝑚. (Sugestão:
verifique que os vetores cujas coordenadas são as colunas de 𝐴
formam um conjunto l.d.)

1.9 Base e Dimensão

Nosso objetivo nesta seção é mostrar que em todo espaço vetorial


finitamente gerado existe um subconjunto de vetores finito tal que
todo elemento é escrito, de maneira única, como combinação linear
desse subconjunto. Além disso, queremos mostrar que todos os outros
subconjuntos que têm também essa propriedade possuem o mesmo
número de elementos. Em outras palavras, queremos determinar
um conjunto de vetores que gere o espaço vetorial e tal que todos
os elementos sejam realmente necessários para gerar este espaço.
Um conjunto 𝛽 = {𝑣1 , . . . , 𝑣 𝑛 } ⊂ 𝑉 é uma base de 𝑉 se

1. 𝛽 é l.i.

2. 𝛽 gera 𝑉.

Pelo o que foi definido acima, podemos concluir que todo conjunto
l.i. de um espaço vetorial 𝑉 é base do subespaço por ele gerado.

Exemplo 22. O conjunto 𝛽 = {𝑒1 , . . . , 𝑒 𝑛 } é uma base (canônica) do R𝑛 .


28

Exemplo 23. O conjunto 𝛽 = {1, 𝑥, 𝑥 2 , . . . , 𝑥 𝑛 } é uma base (canônica) de


P𝑛 (R).

Exemplo 24. Uma base para o espaço das matrizes M2 (R) é


(" # " # " # " #)
1 0 0 1 0 0 0 0
𝛽= , , , .
0 0 0 0 1 0 0 1

Exemplo 25. A base (canônica) para o espaço M𝑚×𝑛 (R) é 𝛽 =


{𝑒1 , 𝑒2 , · · · , 𝑒 𝑚·𝑛 } onde 𝑒 𝑘 = [𝑎 𝑖𝑗 ] ∈ M𝑚×𝑛 (R) é definida como sendo
(
1 se 𝑖 = 𝑗 = 𝑘
𝑎 𝑖𝑗 = .
0 se 𝑖 ≠ 𝑗

Observação 7. Quando falarmos de base de sem a exibi-la, quase sempre,


estamos nos referindo a base canônica.

Passamos agora à tarefa de atribuir uma dimensão a certos espaços


vetoriais. Apesar de associarmos usualmente dimensão a algo
geométrico, precisamos encontrar uma definição algébrica adequada
da dimensão. Elaboraremos daí então o conceito de dimensão. Seja
𝑉 um espaço vetorial. Se 𝑉 possui uma base com 𝑛 vetores, então 𝑉
tem dimensão 𝑛 e escrevemos dim 𝑉 = 𝑛. Se 𝑉 não possui uma base,
ou seja, a base é 𝛽 = ∅ então dim 𝑉 = 0. Se 𝑉 possui uma base com
infinitos vetores, então a dimensão é infinita e escrevemos dim 𝑉 = ∞.

Exemplo 26. Temos que:

1. dim R𝑛 = 𝑛;

2. dim P𝑛 (R) = 𝑛 + 1;

3. dim M𝑚×𝑛 (R) = 𝑚 · 𝑛.


29

n o
Exemplo 27. Se 𝑉 é um espaço vetorial e 𝑊 = 0® então dim 𝑊 = 0.

Lema 1. Sejam 𝑆 = {𝑣 1 , . . . , 𝑣 𝑘 } ⊂ 𝑉 e 𝑆0 = {𝑢1 , . . . , 𝑢𝑙 } ⊂ 𝑉


subconjuntos do espaço vetorial 𝑉. Suponha que:

1. O espaço gerado por 𝑆 é igual a 𝑉 , isto é, [𝑆] = 𝑉;

2. 𝑆0 é l.i..

Então nas condições acima vale a desigualdade: 𝑙 ≤ 𝑘.

Demonstração: Suponha que 𝑙 > 𝑘. Por hipótese temos que [𝑆] = 𝑉 e


que 𝑆0 é l.i. (logo não contém o vetor nulo). Assim, como 𝑢1 ∈ 𝑉 = [𝑆]
podemos escrever

𝑢1 = 𝑎 1 · 𝑣 1 + · · · + 𝑎 𝑘 · 𝑣 𝑘

onde 𝑎 𝑖 ∈ R, 1 ≤ 𝑖 ≤ 𝑘 não todos nulos. Sem perda de generalidade,


podemos supor que 𝑎1 ≠ 0.
Afirmação: O conjunto 𝑆1 = {𝑢1 , 𝑣2 , . . . , 𝑣 𝑘 } gera 𝑉.
De fato, dado 𝑣 ∈ 𝑉 , existem escalares 𝑏 𝑖 não todos nulos tais que

𝑣 = 𝑏1 · 𝑣1 + 𝑏2 · 𝑣2 + · · · + 𝑏 𝑘 · 𝑣 𝑘 . (1.1)

Escrevendo
1 𝑎2 𝑎𝑘
𝑣1 = · 𝑢1 − · 𝑣2 − · · · − · 𝑣𝑘
𝑎1 𝑎1 𝑎1
e substituindo o valor de 𝑣1 escrito na igualdade (1.1) temos

𝑏1 𝑏1 𝑎2 𝑏1 𝑎 𝑘
   
𝑣= · 𝑢1 + 𝑏 2 − · 𝑣2 + · · · + 𝑏 𝑘 − · 𝑣𝑘 .
𝑎1 𝑎1 𝑎1

Portanto a afirmação é válida.


30

Próximo passo, como 𝑉 = [𝑆1 ] = [𝑢1 , 𝑣2 , . . . , 𝑣 𝑘 ] e 𝑆0 l.i., temos

𝑢2 = 𝑎 1 · 𝑢1 + 𝑎 2 · 𝑣2 + · · · + 𝑎 𝑘 · 𝑣 𝑘 ,

com 𝑎2 , . . . , 𝑎 𝑘 não todos nulos (lembre-se que 𝑢2 não é múltiplo


de 𝑢1 ). Supondo que 𝑎2 ≠ 0, e usando o mesmo argumento
acima para concluir que podemos substituir o 𝑣2 por 𝑢2 , de modo
que o conjunto 𝑆2 = {𝑢1 , 𝑢2 , 𝑣3 , . . . , 𝑣 𝑘 } gera 𝑉. Repetindo este
procedimento, chegamos a conclusão que podemos substituir todos
os 𝑣 𝑖 por um número equivalente de 𝑢𝑖 (já que, por hipótese, 𝑙 > 𝑘), e
obter que o subconjunto

𝑆 = {𝑢1 , . . . , 𝑢 𝑘 }

de 𝑆 gera 𝑉. Mas então, por definição de conjunto gerador, existem


escalares 𝑎1 , . . . , 𝑎 𝑘 tais que

𝑢 𝑘+1 = 𝑎1 · 𝑢1 + ... + 𝑎 𝑘 · 𝑢 𝑘

contrariando o fato que 𝑆0 l.i., pois escrevemos 𝑢 𝑘+1 como combinação


linear dos vetores 𝑢1 , . . . , 𝑢 𝑘 , o que é uma contradição. 

Corolário 1. Se dim 𝑉 = 𝑛, então todo subconjunto de 𝑉 com mais de 𝑛


vetores é l.d..

Teorema 2. Todas as bases de um espaço vetorial de dimensão finita possuem


o mesmo número de elementos.

Demonstração: Sejam 𝛽 1 = {𝑣 1 , . . . , 𝑣 𝑘 } e 𝛽 2 = {𝑢1 , . . . , 𝑢𝑙 } duas bases


do espaço vetorial de dimensão finita 𝑉.
Aplicando o Lema anterior ao conjunto gerador 𝛽 1 e ao
conjunto l.i. 𝛽 2 concluímos que 𝑙 ≤ 𝑘. Aplicando, mais
31

uma vez, o lema anterior ao conjunto gerador 𝛽 2 e ao


conjunto l.i. 𝛽 1 concluírmos que 𝑘 ≤ 𝑙. Portanto, 𝑘 = 𝑙.


Corolário 2. Suponha que dim 𝑉 = 𝑛 e 𝛽 = {𝑣1 , . . . , 𝑣 𝑛 } é um subconjunto


de 𝑉. Então

a) Se 𝛽 for l.i, então 𝛽 é base;

b) Se 𝛽 gerar 𝑉 então 𝛽 é base.

Teorema 3. Todo espaço vetorial não-nulo gerado por um subconjunto finito


possui uma base finita.

Demonstração: Suponha que 𝑆 seja um subconjunto finito que gera o


subespaço vetorial não-nulo 𝑉. Se 𝑆 for l.i., então 𝑆 é a base procurada
e não precisamos fazer nada. Caso contrário, se 𝑆 é l.d., podemos
retirar um elemento de 𝑆 e o conjunto resultante ainda gerará 𝑉 (retire
um elemento que seja combinação linear dos demais). Se o conjunto
restante for l.i., então ele será uma base finita para 𝑉. Caso contrário,
repetimos o procedimento, até obter um conjunto l.i.. 

Teorema 4. Todo subconjunto l.i. de um espaço vetorial de dimensão finita


pode ser completado até uma base do espaço.

Demonstração: Suponha que 𝑆 = {𝑣1 , . . . , 𝑣 𝑘 } seja um subconjunto


l.i. de 𝑉. Se S não é uma base para 𝑉 , ou seja, se 𝑘 < 𝑛, então existe um
vetor 𝑣 𝑘+1 ∈ 𝑉 tal que 𝑣 𝑘+1 não é uma combinação linear de elementos
de 𝑆. Segue que o conjunto 𝑆1 = {𝑣 1 , . . . , 𝑣 𝑘 , 𝑣 𝑘+1 } é l.i.. Se 𝑘 + 1 < 𝑛,
repetimos o processo. Se dim 𝑉 = 𝑛, repetimos este processo 𝑛 − 𝑘
vezes até encontrar um subconjunto 𝑆𝑛−𝑘 = {𝑣1 , . . . , 𝑣 𝑘 , 𝑣 𝑘−1 , . . . , 𝑣 𝑛 }.

32

1.10 Exercícios

1. Determine uma base, em seguida dê a dimensão, do espaço das


matrizes simétricas e anti-simétricas.

2. Determine se os seguintes vetores formam base do espaço vetorial


R3 :

(a) {(1, 1, 1), (1, −1, 5)}


(b) {(1, 2, 3), (1, 0, −1), (3, −1, 0), (2, 1, −2)}
(c) {(1, 1, 1), (1, 2, 3), (2, −1, 1)}
(d) {(1, 1, 2), (1, 2, 5), (5, 3, 4)}

3. Mostre que o conjunto 𝛽 = {1, 1 − 𝑡, (1 − 𝑡)2 , . . . , (1 − 𝑡)𝑛−1 , (1 − 𝑡)𝑛 }


é uma base do espaço P𝑛 (R).

4. Seja 𝑊 o subespaço gerado pelos polinômios 𝑝 1 (𝑡) = 𝑡 3 + 2𝑡 2 − 2𝑡 +


1, 𝑝 2 (𝑡) = 𝑡 3 + 3𝑡 2 − 𝑡 + 4, 𝑝 3 (𝑡) = 2𝑡 3 + 𝑡 2 − 7𝑡 − 7. Encontre uma
base e a dimensão de 𝑊 .

5. Sejam 𝑈 e 𝑊 os seguintes subespaços do R4 :

𝑈 = {(𝑥, 𝑦, 𝑧, 𝑤) ∈ R4 ; 𝑦 + 𝑧 + 𝑤 = 0}

e
𝑊 = {(𝑥, 𝑦, 𝑧, 𝑤) ∈ R4 ; 𝑥 + 𝑦 = 0, 𝑧 = 2𝑤}

Encontre a dimensão e uma base de 𝑈 , 𝑊 , 𝑈 ∩ 𝑊 .

6. Mostre que os vetores 𝑢 = (1, 1) e 𝑣 = (−1, 1) formam uma base de


R2 . Exprimam cada um dos vetores 𝑒1 = (1, 0) e 𝑒2 = (0, 1) como
combinação linear dos elementos dessa base.
33

7. Para cada uma das afirmações a seguir diga se é verdadeira ou


falsa. No caso verdadeiro apresente uma justificativa e no falso,
um contra-exemplo. Em todas elas 𝑉 denota um espaço vetorial
com dim 𝑉 = 𝑛.

(a) Se 𝑋 ⊂ 𝑉 tem menos que 𝑛 elementos então 𝑋 não é um


conjunto gerador.
(b) Se 𝑋 ⊂ 𝑉 tem mais que 𝑛 elementos então 𝑋 não é l.i..
®
(c) Existe uma base 𝛽 = {𝑣 1 , . . . , 𝑣 𝑛 } de 𝑉 tal que 𝑣 1 = 0.
(d) Existe uma base 𝛽 = {𝑣 1 , . . . , 𝑣 𝑛 } de 𝑉 tal que 𝑣 2 = 4 · 𝑣1 .

8. Exiba uma base para cada um dos subespaços de R4

𝐹 = {(𝑥 1 , 𝑥2 , 𝑥3 , 𝑥4 ); 𝑥 1 = 𝑥 2 = 𝑥 3 = 𝑥 4 = 0}

𝐺 = {(𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 ); 𝑥1 = 𝑥2 e 𝑥3 = 𝑥4 = 0}

𝐻 = {(𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 ); 𝑥1 = 𝑥2 = 𝑥3 }

𝐾 = {(𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 ); 𝑥1 + 𝑥2 + 𝑥3 + 𝑥4 = 0}

9. Mostre que os polinômios, 1, 𝑥 − 1, 𝑥 2 − 3𝑥 + 1 formam uma base


de P2 (R). Exprimam 2𝑥 2 − 5𝑥 + 6 como combinação desta base.

10. Determine a dimensão do hiperplano do R𝑛 que passa pela a


origem. A equação do hiperplano é:

𝐻 = {(𝑥1 , 𝑥2 , . . . , 𝑥 𝑛 ) ∈ R𝑛 | ∃∃ 𝑎 0𝑖 𝑠 ∈ R; 𝑎1 ·𝑥 1 +𝑎2 ·𝑥 2 +· · ·+𝑎 𝑛 ·𝑥 𝑛 = 0}.

11. Encontre um conjunto finito de geradores para

𝑊 = {𝑋 ∈ 𝑀3×1 (R); 𝐴 · 𝑋 = 0},


34

onde
0 1 0
 
𝐴=2 1 0
 
 
1 1 4
 
12. Encontre uma base para o subespaço vetorial de R3 dado por
𝑈 = [(1, 0, 1), (1, 2, 0), (0, 2, −1)].

1.11 Soma de Subespaços

Teorema 5. Se W é um subespaço próprio de um espaço vetorial de dimensão


finita 𝑉 , então 𝑊 também tem dimensão finita e dim 𝑊 < dim 𝑉.

Demonstração: O resultado é óbvio se 𝑊 é o subespaço nulo.


Suponha 𝑊 não é o subespaço nulo e seja 𝑣 ∈ 𝑊 , 𝑣 ≠ 0. ® Existe
uma base de 𝑊 contendo 𝑣. Como esta base de 𝑊 é em particular um
subconjunto l.i. de 𝑉 , ela não pode conter mais que dim 𝑉 elementos.
Portanto, dim 𝑊 ≤ dim 𝑉. Por outro lado, como 𝑊 é um subespaço
próprio de 𝑉 , existe um vetor 𝑤 ∈ 𝑉 tal que 𝑤 ∉ 𝑊 . Completando 𝑤
qualquer base de 𝑊 , obtemos um conjunto l.i. de 𝑉. Isso implica que
dim 𝑊 < dim 𝑉. 

Teorema 6. Se 𝑊1 , 𝑊2 são dois subespaços de dimensão finita de um espaço


vetorial 𝑉 , então 𝑊1 + 𝑊2 também tem dimensão finita e

dim(𝑊1 + 𝑊2 ) = dim 𝑊1 + dim 𝑊2 − dim(𝑊1 ∩ 𝑊2 ).

Demonstração: Temos que 𝑊1 ∩ 𝑊2 tem uma base finita, digamos


{𝑣 1 , . . . , 𝑣 𝑛 }. Podemos completar a partir desta base uma base para 𝛽 1
e 𝛽 2 , digamos
𝛽 1 = {𝑣 1 , . . . , 𝑣 𝑛 , 𝑤1 , . . . , 𝑤 𝑘 }
35

e
𝛽 2 = {𝑣1 , . . . , 𝑣 𝑛 , 𝑢1 , . . . , 𝑢𝑙 }.

É obvio que o subespaço 𝑊1 + 𝑊2 é gerado pelos vetores

𝛽 = {𝑣1 , . . . , 𝑣 𝑛 , 𝑤1 , . . . , 𝑤 𝑘 , 𝑢1 , . . . , 𝑢𝑙 }.

Para o falta, vamos mostrar que 𝛽 é l.i.. De fato, considere a


combinação linear nula dos elementos de 𝛽 :

𝑛
Õ 𝑘
Õ 𝑙
Õ
𝑎𝑖 · 𝑣𝑖 + 𝑏𝑖 · 𝑤𝑖 + ®
𝑐 𝑖 · 𝑢𝑖 = 0. (1.2)
𝑖=1 𝑖=1 𝑖=1

Note que

𝑙
Õ 𝑛
Õ 𝑘
Õ
𝑢 := 𝑐 𝑖 · 𝑢𝑖 = − 𝑎𝑖 · 𝑣𝑖 − 𝑏 𝑖 · 𝑤 𝑖 ∈ 𝑊1 ∩ 𝑊2 .
𝑖=1 𝑖=1 𝑖=1

Em particular, como {𝑣1 , . . . , 𝑣 𝑛 } é base de 𝑊1 ∩ 𝑊2 , existem escalares


𝑑1 , . . . , 𝑑𝑛 tais que
𝑛
Õ
𝑢= 𝑑𝑖 · 𝑣 𝑖 .
𝑖=1

Logo, subtraindo as duas expressões para 𝑤, obtemos

𝑛
Õ 𝑙
Õ
𝑑𝑖 · 𝑣 𝑖 − ®
𝑐 𝑖 · 𝑢𝑖 = 0,
𝑖=1 𝑖=1

e como {𝑣1 , . . . , 𝑣 𝑛 , 𝑢1 , . . . , 𝑢𝑙 } é l.i., concluímos que

𝑑1 = · · · = 𝑑𝑛 = 𝑐 1 = · · · = 𝑐 𝑙 = 0.
36

Dessa maneira a equação (1.2) se transforma em

𝑛
Õ 𝑘
Õ
𝑎𝑖 · 𝑣𝑖 + ®
𝑏 𝑖 · 𝑤 𝑖 = 0.
𝑖=1 𝑖=1

Como {𝑣1 , . . . , 𝑣 𝑛 , 𝑤1 , . . . , 𝑤 𝑘 } é l.i., segue que

𝑎1 = · · · = 𝑎 𝑛 = 𝑏1 = · · · = 𝑏 𝑘 = 0.

Portanto,

dim 𝑊1 + dim 𝑊2 = #𝛽 1 + #𝛽2


= (𝑛 + 𝑘) + (𝑛 + 𝑙)
= (𝑛 + 𝑘 + 𝑙) + 𝑛
= 𝑑𝑖𝑚(𝑊1 + 𝑊2 ) + dim(𝑊1 ∩ 𝑊2 ). 

Proposição 4. Seja 𝑉 um espaço vetorial de dimensão finita. Então todo


subespaço 𝑊 ⊂ 𝑉 possui um complemento em 𝑉 , isto é, existe um subespaço
𝑈 ⊂ 𝑉 tal que
𝑉 = 𝑊 ⊕ 𝑈.

n o n o
Demonstração: Se 𝑊 = 0® ou 𝑊 = 𝑉 , tome 𝑈 = 𝑉 ou 𝑈 = 0® ,
respectivamente.
Suponha que não. Seja {𝑣1 , . . . , 𝑣 𝑘 } uma base para 𝑊 . Complete
esta base até uma base de 𝑉 , digamos, {𝑣 1n, . o. . , 𝑣 𝑘 , 𝑤1 , . . . , 𝑤 𝑙 }. Denote
𝑈 := [𝑤 1 , . . . , 𝑤 𝑙 ]. De fato, se 𝑊 ∩ 𝑈 ≠ 0® , existe 𝑣 ∈ 𝑊 ∩ 𝑈 , não
nulo. Na combinação linear
𝑘
Õ
𝑣= 𝑎𝑖 · 𝑣𝑖 ,
𝑗=1
37

e
𝑙
Õ
𝑣= 𝑏𝑖 · 𝑤𝑖 ,
𝑗=1

note que algum 𝑎 𝑖 e algum 𝑏 𝑖 é não nulo. Igualando as equações acima


temos que
𝑘
Õ 𝑙
Õ
𝑎𝑖 · 𝑣𝑖 = 𝑏𝑖 · 𝑤𝑖 .
𝑗=1 𝑗=1

Isso implica que a igualdade,

𝑘
Õ 𝑙
Õ
𝑎𝑖 · 𝑣𝑖 − 𝑏 𝑖 · 𝑤 𝑖 = 0®
𝑗=1 𝑗=1

fornece uma combinação linear não trivial contradizendo o fato que o


conjunto {𝑣1 , . . . , 𝑣 𝑘 , 𝑤1 , . . . , 𝑣 𝑙 } é l.i.. 

1.12 Exercícios

1. Dados
𝑈 = {𝐴 ∈ M2 (R); 𝐴 = 𝐴𝑡 }

e " !#
1 1
𝑊=
0 1
encontre uma base 𝑈; 𝑊; 𝑈 ∩ 𝑊; 𝑊 + 𝑈.

2. Determine uma base para o conjunto 𝑈 + 𝑊 , onde:

𝑈 = {(𝑥, 𝑦, 𝑧) ∈ R3 ; 𝑥 + 𝑦 + 𝑧 = 0}
38

e
𝑊 = {(𝑥; 𝑦; 𝑧) ∈ R3 ; 𝑥 + 𝑦 = 0 e 𝑥 − 𝑧 = 0}.

3. Suponhamos que 𝑈 e 𝑊 são subespaços distintos de dimensão 4


de um espaço vetorial 𝑉 de dimensão 6. Encontre as dimensões
possíveis de 𝑈 ∩ 𝑊 .

4. Considerando 𝑊 e 𝑈 os subespaços do R4 gerado por

{(1, 1, 0, −1), (1, 2, 3, 0), (2, 3, 3, −1)}

e
{(1, 2, 2, −2), (2, 3, 2 − 3), (1, 3, 4, −3)},

respectivamente. Encontre

i) dim 𝑊 + 𝑈
ii) dim 𝑊 ∩ 𝑈.

5. Suponhamos que 𝑊 ne 𝑈o são subespaços de dimensão 2 de R .


3

Mostre que 𝑊 ∩ 𝑈 ≠ 0® .

1.13 Coordenadas

Dada uma base 𝛽 de um espaço vetorial 𝑉 de dimensão 𝑛, vamos


considerar uma ordem definida em 𝛽 que passará a ser chamada de
base ordenada. Uma base ordenada é uma base na qual fixamos quem
é o primeiro, o segundo, até o 𝑛−ésimo elemento da base 𝛽.
Nesta seção vamos assumir, salvo mencionemos o contrário, que
todas as bases serão ordenadas.
Seja 𝛽 uma base, digamos 𝛽 = {𝑣1 , 𝑣2 , . . . , 𝑣 𝑛 }. Como sabemos,
existem escalares 𝑎1 , 𝑎2 , . . . , 𝑎 𝑛 ∈ R tais que 𝑣 = 𝑎1 𝑣1 + 𝑎1 𝑣2 + . . . + 𝑎 𝑛 𝑣 𝑛 .
39

Note que os coeficientes da combinação linear acima são únicos.


De fato, suponhamos que escrevamos o mesmo vetor como 𝑣 =
𝑏1 · 𝑣1 + 𝑏 1 · 𝑣 2 + · · · + 𝑏 𝑛 · 𝑣 𝑛 . Por subtração das combinações lineares
obtemos

0® = (𝑎1 − 𝑏 1 ) · 𝑣1 + (𝑎2 − 𝑏2 ) · 𝑣2 + · · · + (𝑎 𝑛 − 𝑏 𝑛 ) · 𝑣 𝑛 .

A independência linear da base implica nas igualdades

𝑎1 = 𝑏1 , 𝑎2 = 𝑏2 , . . . , 𝑎 𝑛 = 𝑏 𝑛

Sejam 𝛽 = {𝑣1 , 𝑣2 , . . . , 𝑣 𝑛 } base de 𝑉 e 𝑣 ∈ 𝑉 onde 𝑣 = 𝑎1 · 𝑣1 + 𝑎2 ·


𝑣2 + · · · + 𝑎 𝑛 · 𝑣 𝑛 . Os escalares 𝑎1 , 𝑎2 , . . . , 𝑎 𝑛 são chamados coordenadas
do vetor 𝑣 em relação à base ordenada 𝛽.
É conveniente, por motivos que veremos posteriormente, associar
uma matriz às coordenadas do vetor 𝑣. Assim, se 𝑣 = 𝑎1 · 𝑣1 + 𝑎2 ·
𝑣2 + · · · + 𝑎 𝑛 · 𝑣 𝑛 , em relação à base ordenada 𝛽 = {𝑣1 , 𝑣2 , . . . , 𝑣 𝑛 },
considera-se a matriz 𝑛 × 1

𝑎1   𝑎1 
   

𝑎2   𝑎2 
   

..  ou  .. 
  

 .   . 
𝑎𝑛   𝑎𝑛 
   

 𝛽  

Exemplo 28. Considere 𝑉 = R2 e 𝛽 1 = {(1, 0), (0, 1)}. Seja 𝑣 = (−2, 5).
Segue que (−2, 5) = −2 · (1, 0) + 5 · (0, 1). Portanto,
" #
−2
[(−2, 5)]𝛽1 = .
5
Se 𝛽 2 = {(−1, 1), (0, 1)}, então (−2, 5) = 𝑥 · (−1, 1) + 𝑦 · (0, 1), resultando
40

𝑥 = 2 e 𝑦 = 3. Então
" #
2
[(−2, 5)]𝛽2 = .
3

1.14 Exercícios

1. Considere o espaço vetorial R2 e as bases 𝛽 = {(1, 0), (0, 1)}


e 𝛾 = {(1, 1), (0, 1)} determine as coordenadas do elemento
𝑣 = (2, −3) ∈ R2 com relação as estas bases.

2. Determine as coordenadas do polinômio 𝑝(𝑥) = 1+𝑥+2𝑥 2 ∈ P3 (R)


com relação a base 𝛽 = {1, 1 + 𝑥, 1 + 𝑥 + 𝑥 2 }.

3. Considerando 𝛽 = {(2, 1), (1, −1)} uma base do R2 . Encontre o


vetor coordenada de 𝑣 ∈ R2 em relação à base acima onde:

(a) (2, 2);

(b) (1, 9);

(c) (𝑥 1 , 𝑥2 ).

4. No espaço vetorial 𝑉 = P3 (R) determine as coordenadas


arbitrárias de um polinômio qualquer em relação a base 𝛽 =
{1, 1 − 𝑡, (1 − 𝑡)2 , (1 − 𝑡)3 }.

1.15 Mudança de Base

Sejam 𝑉 um espaço vetorial de dimensão finita dim 𝑉 = 𝑛 > 0 e


𝛽 1 = {𝑢1 , . . . , 𝑢𝑛 } e 𝛽 2 = {𝑣1 , . . . , 𝑣 𝑛 } duas bases de 𝑉. Por definição,
41

dado 𝑢 ∈ 𝑉 existe escalares 𝑥1 , . . . , 𝑥 𝑛 e 𝑦1 , . . . , 𝑦𝑛 tais que

𝑥1  𝑦1 
   
 
𝑥2  𝑦2 
   
 
[𝑢]𝛽1 =  ..  e [𝑢]𝛽2 =  .. 
 .   . 
𝑥𝑛  𝑦𝑛 
   
 
  𝛽1   𝛽2

Vamos determinar como as coordenadas de um vetor na base 𝛽 1 se


relaciona com as coordenadas deste mesmo vetor na base 𝛽 2 .

Decompor cada elemento de 𝛽 2 numa combinação linear dos


elementos de 𝛽 1 temos
𝑛
!
Õ
𝑣1 = 𝑝11 · 𝑢1 + 𝑝21 · 𝑢2 + · · · + 𝑝 𝑛1 · 𝑢𝑛 = 𝑝 𝑖1 · 𝑢𝑖
𝑖=1

𝑛
!
Õ
𝑣 2 = 𝑝 12 · 𝑢1 + 𝑝22 · 𝑢2 + · · · + 𝑝 𝑛2 · 𝑢𝑛 = 𝑝 𝑖2 𝑢𝑖
𝑖=1
···
𝑛
!
Õ
𝑣 𝑛 = 𝑝1𝑛 · 𝑢1 + 𝑝2𝑛 · 𝑢2 + · · · + 𝑝 𝑛𝑛 · 𝑢𝑛 = 𝑝 𝑖𝑛 · 𝑢𝑖
𝑖=1
42

Portanto,
𝑢 = 𝑦1 · 𝑣 1 + 𝑥 2 · 𝑣 2 + · · · + 𝑥 𝑛 · 𝑣 𝑛

𝑛
Õ
= 𝑦𝑗 · 𝑣 𝑗
𝑗=1

𝑛 𝑛
!
Õ Õ
= 𝑦𝑗 𝑝 𝑖𝑗 · 𝑢𝑖
𝑗=1 𝑖=1

𝑛 𝑛
!
Õ Õ
= 𝑝 𝑖𝑗 𝑦 𝑗 · 𝑢𝑖
𝑗=1 𝑖=1

Em forma matricial,

𝑥 1   𝑝 11 𝑝12 · · · 𝑝 1𝑛  
     𝑦 
 1 
𝑥 2   𝑝 21 𝑝22 · · · 𝑝 2𝑛   𝑦2 
     
..  .

..  =  .. .. . . . ..  · 


 .   . . .   . 
𝑥 𝑛   𝑝 𝑛1 𝑝 𝑛2 · · · 𝑝 𝑛𝑛   𝑦𝑛 
     

     

A matriz
𝑝 11 𝑝12 · · · 𝑝 1𝑛 
 

𝑝 21 𝑝22 · · · 𝑝 2𝑛 
 
𝛽
𝑀𝛽12

=  .. .. . . . .. 
 . . . 
𝑝 𝑛1 𝑝 𝑛2 · · · 𝑝 𝑛𝑛 
 

 
é chamada de matriz de mudança de base, mais especificamente,
matriz de mudança da base 𝛽 2 para a base 𝛽 1 .

Sendo 𝛽 3 = {𝑤1 , . . . , 𝑤 𝑛 } uma terceira base de 𝑉 , podemos escrever


os vetores de 𝛽 3 como combinações lineares dos elementos da base 𝛽 2 .
43

Usando o símbolo de somatório,


𝑛
Õ
𝑤𝑗 = 𝑞 𝑖𝑗 · 𝑣 𝑖
1

𝛽
e agora, 𝑀𝛽23 = [𝑞 𝑖𝑗 ] é a matriz de mudança da base 𝛽 3 para a base 𝛽 2 .
Das duas decomposições acima segue
!
Õ Õ Õ Õ Õ Õ
𝑤𝑗 = 𝑞𝑘 𝑗 · 𝑣𝑘 = 𝑞𝑘 𝑗 𝑝 𝑖 𝑘 · 𝑢𝑖 = 𝑝𝑖 𝑘 𝑞𝑘 𝑗 = 𝑟 𝑖𝑗 · 𝑢𝑖
𝑘 𝑘 𝑖 𝑖 𝑘 𝑖

𝛽
onde 𝑀𝛽13 = [𝑟 𝑖𝑗 ] = [ 𝑝 𝑖𝑘 𝑞 𝑘 𝑗 ] é a matriz de mudança da base 𝛽 3 para
Í
𝑘
a base 𝛽 1 . Como
" #
𝛽 𝛽 𝛽
Õ
𝑀𝛽13 = [𝑟 𝑖𝑗 ] = 𝑝 𝑖 𝑘 𝑞 𝑘 𝑗 = [𝑝 𝑖 𝑘 ][𝑞 𝑘 𝑗 ] = 𝑀𝛽12 · 𝑀𝛽23 ,
𝑘

𝛽 𝛽 𝛽
provamos a identidade 𝑀𝛽13 = 𝑀𝛽12 · 𝑀𝛽23 .
𝛽 𝛽 𝛽
Quando 𝛽 3 = 𝛽 1 , a matriz 𝑀𝛽13 é a identidade 𝐼 e 𝑀𝛽23 = 𝑀𝛽21 . Da
igualdade acima segue
𝛽 𝛽
𝑀𝛽12 · 𝑀𝛽21 = 𝐼,

mostrando que as matrizes de mudança de base são inversíveis e que


𝛽 𝛽
a inversa de 𝑀𝛽12 é 𝑀𝛽21 .

Teorema 7. Sejam 𝛽 1 e 𝛽 2 duas bases do espaço vetorial 𝑉. Sejam [𝑢]1 a


matriz das coordenadas de 𝑢 na base 𝛽 1 , [𝑢]2 a matriz das coordenadas de 𝑢
na base 𝛽 2 e 𝑀12 a matriz de mudança da base 𝛽 2 para a base 𝛽 1 . Então

𝛽
[𝑢]𝛽1 = 𝑀𝛽12 · [𝑢]𝛽2 .

Demonstração: Sejam 𝛽 1 = {𝑣 1 , . . . , 𝑣 𝑛 } e 𝛽 2 = {𝑤1 , . . . , 𝑤 𝑛 } as bases


44

em questão. Se [𝑢]𝛽1 = [𝑎1 , . . . , 𝑎 𝑛 ]𝑇 for a matriz das coordenadas de


𝑢 na base 𝛽 1 , se [𝑢]𝛽2 = [𝑏 1 , . . . , 𝑏 𝑛 ]𝑇 for a matriz das coordenadas de
𝛽
𝑢 na base 𝛽 2 e se 𝑀𝛽12 = [𝑝 𝑖𝑗 ] for a matriz de mudança da base 𝛽 2 para
a base 𝛽 1 , segue Õ Õ
𝑢= 𝑎𝑖 · 𝑣𝑖 = 𝑏𝑖 · 𝑤𝑖
𝑖 𝑗
e
𝑛
Õ
𝑤𝑗 = 𝑝 𝑖𝑗 · 𝑣 𝑖 .
𝑖=1

Portanto,

Õ Õ Õ Õ ©Õ
𝑢= 𝑏𝑗 · 𝑤𝑗 = 𝑏𝑗 𝑝 𝑖𝑗 · 𝑣 𝑖 = 𝑝 𝑖𝑗 𝑏 𝑗 ® · 𝑣 𝑖 .
ª
­
𝑗 𝑗 𝑖 𝑖 « 𝑗 ¬
Como 𝑢 = 𝑎 𝑖 𝑣 𝑖 , segue da unicidade da decomposição de um
Í
𝑖
vetor nos elementos da base que
Õ
𝑎𝑖 = 𝑝 𝑖𝑗 𝑏 𝑗
𝑗

𝛽
que corresponde à igualdade matricial [𝑢]𝛽1 = 𝑀𝛽12 · [𝑢]𝛽2 . 

Exemplo 29. Sejam 𝛽 1 = {(10, 5), (10, 10)} e 𝛽 2 = {(4, 5), (2, 0)} bases de
R2 . Então
" #
𝛽 1 2
𝑀𝛽12 = .
3 1

Observe que, ao encontrarmos a matriz mudança de base, podemos exibir


qualquer vetor na base 𝛽. Por exemplo, [𝑣]𝛽1 para 𝑣 = (20, 10).
45

" # " # " #


𝛽 1 2 2 18
[𝑣]𝛽1 = 𝑀𝛽12 · [𝑣]𝛽2 = · = .
3 1 6 −8

1.16 Exercícios

1. Dadas as bases ordenadas 𝛼 e 𝛽 indicadas abaixo, dos respectivos


𝛽
espaços vetoriais, encontre 𝑀 𝛼 e 𝑀𝛽𝛼 .

(a) 𝛼 = {𝑒1 , 𝑒2 , 𝑒3 } e 𝛽 = {(1, 1, 0) , (0, 1, 1) , (2, 2, 1)} em R3 .

(b) 𝛼 = {1, 𝑡, 𝑡 2 } e 𝛽 = {1 + 𝑡, 1 + 𝑡 2 , 2 + 2𝑡 + 𝑡 2 } no espaço dos


polinômios P3 (R).

2. A seguir estão listados um vetor 𝑣 e uma base 𝛽 de algum espaço


vetorial. Em cada um dos casos escreva a matriz de coordenadas
[𝑣]𝛽 .

(a) 𝑣 = (2, 3) e 𝛽 = {(1, 1) , (−1, 1)} ⊂ R2 .

(b) 𝑣 = (2, 3, 1) e 𝛽 = {(1, 1, 1) , (−1, 1, 0) , (0, 0, 1)} ⊂ R3 .

3. Seja 𝛾 = {(1, 0) , (0, 1)} a base canônica de R2 . Considere a


seguinte matriz 2: !
1 2
𝐴= .
2 5
𝛽
Mostre que existe uma base 𝛽 de R2 tal que 𝑀 𝛾 = 𝐴. Encontre
essa base.

4. Faça o mesmo que o exercício anterior tomando uma matriz 2 × 2


genérica 𝐴 com det 𝐴 ≠ 0.
46

5. No espaço dos polinômios de grau ≤ 2, P2 (R), sejam 𝑝(𝑥) = 2 + 𝑥 2


e as bases 𝛽 = {2, 1 − 𝑥, 1 − 𝑥 2 } e 𝛾 = {1, 𝑥, 𝑥 2 }, a base canônica.
𝛾 𝛽
Encontre [𝑝]𝛽 , [𝑝]𝛾 e as matrizes de mudança de base 𝑀𝛽 e 𝑀 𝛾 .

6. Para cada uma das afirmações a seguir diga se é verdadeira ou


falsa. No caso verdadeiro apresente uma justificativa e no falso,
um contra-exemplo.
n o
Em cada um dos itens 𝑉 ≠ 0® denota um espaço vetorial de
dimensão finita.
n o
(a) Se os únicos subespaços vetoriais de 𝑉 são 0® e o próprio 𝑉
então dim 𝑉 = 1.
(b) Existem base 𝛼 e 𝛽 de 𝑉 tal que det[𝐼]𝛽𝛼 = 0.
(c) Se 𝑊 ⊂ 𝑉 é um subespaço vetorial então 𝑊 tem dimensão
finita e dim 𝑊 ≤ dim 𝑉.
(d) Se 𝑊 ⊂ 𝑉 é um subespaço vetorial e {𝑣1 , . . . , 𝑣 dim 𝑉 } é um
subconjunto l.i. contido em 𝑊 então 𝑊 = 𝑉.
(e) Se 𝑋 ⊂ 𝑉 é um conjunto gerador então o número de elementos
de 𝑋 é o mesmo que a dimensão de 𝑉.
(f) Se 𝑋 ⊂ 𝑉 é um conjunto l.i. então o número de elementos de
𝑋 é o mesmo que a dimensão de 𝑉.

7. Consideremos as bases
(" # " # " # " #)
0 1 1 0 0 1 1 0
𝛽1 = , , ,
1 0 1 0 0 1 0 −1

e (" # " # " # " #)


1 0 0 2 1 0 0 −1
𝛽2 = , , , .
0 1 1 1 1 0 1 0
47

𝛽 𝛽
Determine as matrizes mudanças de base 𝑀𝛽12 e 𝑀𝛽21 . Além disso,
calcule "" ##
1 1
1 1
𝛽1

e use a matriz mudança para calcular


"" ##
1 1
.
1 1
𝛽2
Capítulo 2

Transformações Lineares

As transformações lineares é um dos objetos centrais da álgebra


linear. Veremos sua relação com as matrizes como também
várias propriedades interessantes que serão tema central para o
desenvolvimento dos próximos capítulos.

2.1 Preliminares

Neste capítulo, o nosso objetivo é analisar certas correspondências


entre espaços vetoriais. Por esse motivo, é conveniente fazer algumas
considerações iniciais.
Dados dois conjuntos 𝑈 e 𝑉 , ambos não vazios, uma aplicação de
𝑈 em 𝑉 é uma lei pela qual a cada elemento de 𝑈 está associado um
único elemento de 𝑉. Se 𝑇 indica essa lei e 𝑢 indica elemento genérico
de 𝑈 , então o elemento associado a 𝑢 é representado por 𝑇𝑢 (lê-se T
de u ) e se denomina imagem de 𝑢 por 𝑇.
O conjunto 𝑈 é o domínio e o conjunto 𝑉 é o contra-domínio da
aplicação 𝑇. Para indicar que 𝑇 é uma aplicação de 𝑈 em 𝑉 costuma-se
escrever 𝑇 : 𝑈 → 𝑉 , ou ainda, indicado por 𝑢 um elemento genérico
de 𝑈 , 𝑢 → 𝑇(𝑢).

48
49

Observação 8. Quando não houver risco de confusão, vamos denotar 𝑇(𝑢)


simplesmente por 𝑇𝑢.

Duas aplicações 𝑇 : 𝑈 → 𝑉 e 𝑆 : 𝑈 → 𝑉 são iguais quando


𝑇𝑢 = 𝑆𝑢, ∀ 𝑢 ∈ 𝑈.
Uma aplicação 𝑇 : 𝑈 → 𝑉 é dita injetora (ou injetiva) se para todo
𝑢1 , 𝑢2 ∈ 𝑈 tais que 𝑇𝑢1 = 𝑇𝑢2 então 𝑢1 = 𝑢2 . De forma equivalente,

∀ 𝑢1 , 𝑢2 ∈ 𝑈 , 𝑢1 ≠ 𝑢2 ⇒ 𝑇𝑢1 ≠ 𝑇𝑢2 .

Exemplo 30. A aplicação 𝑇 : R2 → R2 dada por 𝑇(𝑥, 𝑦) = (𝑥, −𝑦 + 1), é


injetora.

Exemplo 31. A aplicação 𝑇 : R2 → R3 dada por 𝑇(𝑥, 𝑦) = (0, 𝑥 + 𝑦 + 4, 0)


não é injetora, pois, temos, por exemplo,

(1, 0) ≠ (0, 1) 𝑒 𝑇(1, 0) = 𝑇(0, 1) = (0, 5, 0).

A imagem da aplicação 𝑇 : 𝑈 → 𝑉 é definida como sendo o


subconjunto de 𝑉

I𝑚 (𝑇) := 𝑇(𝑈) = {𝑇𝑢; 𝑢 ∈ 𝑈 }.

Se I𝑚 (𝑇) = 𝑉 dizemos que 𝑇 é sobrejetora, isto é, para todo 𝑣 ∈ 𝑉 ,


existe 𝑢 ∈ 𝑈 tal que 𝑇𝑢 = 𝑣.

Exemplo 32. A aplicação 𝑇 : R2 → R3 dada por 𝑇(𝑥, 𝑦) = (0, 𝑥 + 𝑦 + 4, 0)


não é sobrejetora. Isto porque, por exemplo, (1, 0, 0) ∈ R3 e não é imagem de
por 𝑇 de nenhum elemento 𝑢 ∈ R2 . Por outro lado, a aplicação 𝑇 : R2 → R2
dada por 𝑇(𝑥, 𝑦) = (𝑥, −𝑦 + 1) é sobrejetora, pois, dado 𝑣 = (𝑎, 𝑏) ∈ R2 ,
basta tomarmos 𝑢 = (𝑎, −𝑏 + 1) para termos 𝑇𝑢 = 𝑣.

Uma aplicação 𝑇 : 𝑈 → 𝑉 é bijetora quando 𝑇 é injetora e


50

sobrejetora. Se 𝑇 : 𝑈 → 𝑉 é bijetora, então cada elemento de 𝑉 é


do tipo 𝑇𝑢, com 𝑢 ∈ 𝑈. Se fizermos a associação 𝑇𝑢 → 𝑢 teremos uma
aplicação bem definida de 𝑉 em 𝑈 , pois não podemos ter 𝑇𝑢1 = 𝑇𝑢2
e 𝑢1 ≠ 𝑢2 , já que 𝑇 é injetora. Essa nova aplicação assim definida é
chamada aplicação inversa de 𝑇 e é indicada por 𝑇 −1 .
Sendo 𝑇 : 𝑈 → 𝑉 e 𝑆 : 𝑉 → 𝑊 com I𝑚(𝑇) ⊂ 𝑉 , definimos a
composta 𝑆 ◦ 𝑇 : 𝑈 → 𝑊 por

𝑆 ◦ 𝑇𝑢 = 𝑆(𝑇𝑢).

Uma consequência importantíssima de uma aplicação ser bijetiva é a


existência da inversa, isto é, existe 𝑇 −1 : 𝑈 → 𝑉 tal que

𝑇 −1 (𝑇𝑢) = 𝑢 e 𝑇(𝑇 −1 𝑣) = 𝑣

para todo 𝑢 ∈ 𝑈 e 𝑣 ∈ 𝑉.

2.2 Transformações Lineares

Nesse capítulo, vamos supor que 𝑈 e 𝑉 são espaços vetoriais. Uma


aplicação 𝑇 : 𝑈 → 𝑉 é chamada transformação linear de 𝑈 em 𝑉 se, e
somente se,

1. 𝑇(𝑢 + 𝑣) = 𝑇𝑢 + 𝑇𝑣, ∀𝑢, 𝑣 ∈ 𝑈;

2. 𝑇(𝛼 · 𝑢) = 𝛼𝑇𝑢, 𝛼 ∈ R e 𝑢 ∈ 𝑈.

Na definição acima, se 𝑈 = 𝑉 dizemos que 𝑇 : 𝑈 → 𝑈 é um


operador linear.
Aplicações lineares preservam as operações que definem um espaço
vetorial, soma e multiplicação por escalar. Em outras palavras, elas
preservam combinações lineares.
51

Observação 9. Pela definição acima note que uma transformação linear


𝑇 : 𝑈 → 𝑉 leva o vetor nulo de 𝑈 no vetor nulo de 𝑉 , isto é, se
0® ∈ 𝑈 , 𝑇 0® = 𝑇 0® + 0® = 𝑇 0® + 𝑇 0® = 0® + 0® = 0® ∈ 𝑉. Isto muitas vezes nos
ajuda a detectar transformações não lineares. De fato, se 𝑇 0® ≠ 0® então 𝑇 não
é linear. Porém muito cuidado, pois 𝑇 0® = 0® não é suficiente para que 𝑇 seja
linear.

Exemplo 33. A transformação identidade 𝐼 : 𝑈 → 𝑈 , definida por


𝐼𝑢 = 𝑢, ∀𝑢 ∈ 𝑈 é um exemplo de transformação linear, chamado de
transformação identidade.

Exemplo 34. A aplicação 𝑂 : 𝑈 → 𝑉 , definida por 𝑂(𝑢) = 0® ∈ 𝑉 é uma


transformação linear chamada de transformação linear nula.

Exemplo 35. A Aplicação liner 𝑇 : R → R definida por 𝑇𝑥 = 𝑥 𝑛 , 𝑛 ∈


N − {1} não é uma aplicação linear.

Exemplo 36. A transformação 𝐽 : 𝐶(R, R) → R definida por 𝐽( 𝑓 ) = 𝑓 (0) é


linear.

Exemplo 37. A aplicação 𝑇 : M𝑛 (R) → R, definida por 𝑇(𝑀) = det 𝑀,


não é uma aplicação linear.

2.3 Os Espaços das Transformações Lineares

Sejam 𝑈 e 𝑉 espaços vetoriais. Denote o conjunto das aplicações


lineares de 𝑈 em 𝑉 por

L(𝑈 , 𝑉) = {𝑇 : 𝑈 → 𝑉; 𝑇 é linear}.

Definimos as operações de soma e multiplicações por escalar de


elementos em L(𝑈 , 𝑉) por
52

(𝑇 + 𝑆)𝑢 = 𝑇𝑢 + 𝑆𝑢,

(𝛼𝑇)𝑢 = 𝛼(𝑇𝑢).

para todo 𝑢 ∈ 𝑈.
É facil verificar que L(𝑈 , 𝑉) é um espaço vetorial.
Observação 10. Quando 𝑈 = 𝑉 em vez de escrever L(𝑈 , 𝑉), escrevemos
L(𝑈).
Observação 11. Quando 𝑈 = R o espaço L(𝑈 , R), é chamado de espaço
dual e escrevemos 𝑈 ∗ .
Proposição 5. O espaço vetorial L(𝑈 , 𝑉) tem dimensão dim 𝑈· dim 𝑉.
Demonstração: Suponha que dim 𝑈 = 𝑛 e dim 𝑉 = 𝑚 e seja
𝛽𝑈 = {𝑢1 , . . . , 𝑢𝑛 } uma base de 𝑈 e 𝛽𝑉 = {𝑣 1 , . . . , 𝑣 𝑚 } uma base de
𝑉. Para 𝑖 = 1, . . . , 𝑛 e 𝑗 = 1, . . . , 𝑚, defina 𝐸 𝑖𝑗 : 𝑈 → 𝑉 como sendo a
única aplicação linear

𝐸 𝑖𝑗 (𝑢 𝑘 ) = 𝛿 𝑖 𝑘 · 𝑣 𝑗 , 𝑘 = 1 . . . , 𝑛,

onde 𝛿 𝑖𝑗 é o delta de Kronecker.


Afirmação: O conjunto

𝛽 = 𝐸 𝑖𝑗

1=1,...,𝑛,𝑗=1,...,𝑚

formam uma base para L(𝑈 , 𝑉).

Se 𝑇 : 𝑈 → 𝑉 é uma aplicação linear, para cada 𝑖 = 1, . . . , 𝑛


podemos escrever
𝑚
Õ
𝑇(𝑢 𝑘 ) = 𝑎𝑘 𝑗 · 𝑣𝑗 ,
𝑗=1
53

para alguns escalares 𝑎 𝑖𝑗 . O primeiro passo é mostrar que


𝑛 Õ
Õ 𝑚
𝑇= 𝑎 𝑖𝑗 𝐸 𝑖𝑗 ,
𝑖=1 𝑗=1

pois isso significa dizer que 𝛽 gera L(𝑈 , 𝑉). Com efeito,

𝑛 𝑚 𝑛 𝑚 𝑛 𝑚
©Õ Õ 𝑖𝑗 ª
ÕÕ
𝑖𝑗
ÕÕ
­ 𝑎 𝑖𝑗 𝐸 ® (𝑢 𝑘 ) = 𝑎 𝑖𝑗 𝐸 (𝑢 𝑘 ) = 𝑎 𝑖𝑗 (𝛿 𝑖 𝑘· 𝑣 𝑗 )
« 𝑖=1 𝑗=1 ¬ 𝑖=1 𝑗=1 𝑖=1 𝑗=1

𝑚 𝑛 𝑚
!
Õ Õ Õ
𝛿 𝑖𝑘 𝑎 𝑖𝑗 𝑣 𝑗 = 𝑎 𝑘 𝑗 · 𝑣 𝑗 = 𝑇(𝑢 𝑘 )
𝑗=1 𝑖=1 𝑗=1

e o resultado sai por unicidade.


Agora, provemos que 𝛽 é l.i.. Suponha que
𝑛 Õ
Õ 𝑚
𝑎 𝑖𝑗 𝐸 𝑖𝑗 = 0.
𝑖=1 𝑗=1

Então

𝑛 𝑚
©Õ Õ
𝑎 𝑖𝑗 𝐸 𝑖𝑗 ® (𝑢 𝑘 ) = 0.
ª
­
« 𝑖=1 𝑗=1 ¬
para todo 𝑘 = 1, . . . , 𝑛. Isto mostra que essa aplicação é identicamente
nula, e seguindo o argumento anterior, podemos escrever para cada
𝑘 = 1, . . . , 𝑛
𝑚
Õ
0 = 0(𝑢 𝑘 ) = 𝑎𝑘 𝑗 · 𝑣𝑗 ,
𝑗=1

donde
𝑎 𝑘1 = · · · = 𝑎 𝑘𝑚 = 0.
54

Corolário 3. Se 𝑈 é um espaço de dimensão 𝑛 então o seu dual também tem


dimensão 𝑛.

2.4 Exercícios

1. Verifique se as transformações abaixo são lineares:

(a) 𝑇 : R3 → R; 𝑇(𝑥, 𝑦, 𝑧) = 𝑥 + 5𝑦 − 𝑧
(b) 𝑇 : R3 → 𝑅; 𝑇(𝑥, 𝑦, 𝑧) = 𝑥 + 5𝑦 − 𝑧 + 1
(c) 𝑇 : R3 → 𝑅; 𝑇(𝑥, 𝑦, 𝑧) = 𝑥 2 + 5𝑦 − 𝑧
(d) 𝑇 : 𝑀𝑛×1 (R) → 𝑀𝑛×1 (R); 𝑇(𝑋) = 𝐴 · 𝑋 + 𝑋
(e) 𝑇 : P𝑛 (R) → P𝑛 (R); 𝑇(𝑝) = 𝑝 0 + 𝑝 00
(f) 𝑇 : 𝑀2 (R) → 𝑀2 (R); 𝑇(𝑋) = 𝐴 · 𝑋 , onde 𝐴 ∈ 𝑀2 (R) está
fixada.
(g) 𝑇 : P2 (R) → P2 (R), 𝑇(𝑝) = 𝑝 + 𝑞, onde 𝑞(𝑡) = 𝑡 2 + 1, 𝑡 ∈ R.
!
𝑎 𝑏
(h) 𝑇 : 𝑀2 (R) → R; 𝑇 = 𝑎𝑑 − 𝑏𝑐
𝑐 𝑑

2. Determinar o núcleo das transformações lineares abaixo e


descreva-os geometricamente.

(a) 𝑇 : R2 → R; 𝑇(𝑥, 𝑦) = 𝑦 + 2𝑥
(b) 𝑇 : R3 → R, 𝑇(𝑥, 𝑦, 𝑧) = 𝑧 − 2𝑥
(c) 𝑇 : R2 → R2 , 𝑇(𝑥, 𝑦) = (2𝑥 + 2𝑦, 𝑥 + 𝑦)
(d) 𝑇 : R2 → R2 , 𝑇(𝑥, 𝑦) = (𝑥 + 𝑦, 𝑥 − 𝑦)
(e) 𝑇 : R3 → R3 , 𝑇(𝑥, 𝑦, 𝑧) = (𝑧 − 𝑥, 𝑧 − 2𝑥, 𝑧 − 3𝑥)
55

3. A expressão geral de um operador linear 𝑇 : R2 → R2 é


𝑇(𝑥, 𝑦) = (𝑎𝑥 + 𝑏𝑦, 𝑐𝑥 + 𝑑𝑦). Determine as constantes 𝑎, 𝑏, 𝑐, 𝑑
de modo que 𝑇 transforme os vetores 𝑢 = (1, 2) e 𝑣 = (3, 4) nos
vetores 𝑇𝑢 = (1, 1) e 𝑇𝑣 = (2, 2).

4. Assinale Verdadeiro (V) ou falso (F): É dada uma transformação


linear 𝑇 : 𝑉 → 𝑊 .

(a) ( ® então 𝑣 = 0;
) Se 𝑣 ∈ 𝑉 é tal que 𝑇𝑣 = 0, ®
(b) ( ) Se 𝑇𝑣 = 𝑇𝑢 + 𝑇𝑤, então 𝑣 = 𝑢 + 𝑤;
(c) ( ) Se 𝑣 é combinação linear de 𝑢1 , . . . , 𝑢𝑛 , então 𝑇𝑣 é
combinação linear de 𝑇𝑢1 , . . . , 𝑇𝑢𝑛 ;
(d) ( ) Se 𝑢, 𝑣, 𝑤 são colineares, então 𝑇𝑢, 𝑇𝑣, 𝑇𝑤 são
colineares.

5. Seja 𝑇 : R3 → R3 um operador linear tal que

𝑇(𝑒1 ) = (2, 3, 1), 𝑇((1, 1, 0)) = (5, 2, 7), e 𝑇((1, 1, 1)) = (−2, 0, 7).

2.5 Composição de duas Transformações Lineares

Sejam 𝑈 , 𝑉 e 𝑊 espaços vetoriais. Se 𝑇 ∈ L(𝑈 , 𝑉) e 𝑆 ∈ L(𝑉 , 𝑊)


definimos a composta 𝑆 ◦ 𝑇 : 𝑈 → 𝑊 por

𝑆 ◦ 𝑇𝑢 = 𝑆(𝑇𝑢)

para todo 𝑢 ∈ 𝑈.
Exemplo 38. Seja 𝑇 ∈ L R2 , definida por 𝑇(𝑥, 𝑦) = (𝑥, 2𝑦) e 𝑆 ∈ L(R2 ),


definida por 𝑇(𝑥, 𝑦) = (𝑥, 𝑦, 𝑥 + 𝑦). A composta 𝑆 ◦𝑇 ∈ L R2 , R3 é definida




por
𝑆 ◦ 𝑇(𝑥, 𝑦) = 𝑆(𝑇(𝑥, 𝑦)) = 𝑆(𝑥, 2𝑦) = (𝑥, 2𝑦, 𝑥 + 2𝑦).
56

Em geral, temos que 𝑆 ◦ 𝑇 ≠ 𝑇 ◦ 𝑆. Por exemplo, considere


𝑇, 𝑆 ∈ L R2 definida por 𝑇(𝑥, 𝑦) = (−𝑦, 𝑥) e 𝑆(𝑥, 𝑦) = (𝑥 + 𝑦, 𝑥 + 𝑦).


Note que 𝑇 ◦ 𝑆 ≠ 𝑆 ◦ 𝑇.
Seja 𝑇 : 𝑉 → 𝑉 um operador linear. Dizemos que 𝑇 é nilpotente se
existe algum inteiro positivo 𝑟 tal que

𝑇 𝑟 = 𝑇 ◦ · · · ◦ 𝑇 = 0.
| {z }
𝑟−vezes

Observação 12. O número 𝑟 é chamado número de nilpotência.

Exemplo 39. O operador

𝐷 : P𝑛 (R) → P𝑛 (R)
𝑝 ↦→ 𝑝0

é chamado de operador derivação. Note que 𝐷 𝑛+1 = 0. Portanto 𝐷 é um


operador nilpotente.

A seguir vamos listar algums propriedades da composição das


transformações lineares.

Proposição 6. 1. Se 𝑇 ∈ L(𝑈 , 𝑉) e 𝑆 ∈ L(𝑉 , 𝑊) então 𝑆 ◦𝑇 ∈ L(𝑈 , 𝑊);

2. Sendo 𝑇 ∈ L(𝑈 , 𝑉), 𝑆 ∈ L(𝑉 , 𝑊), 𝑅 ∈ L(𝑊 , 𝑍), vale (𝑅 ◦ 𝑆) ◦ 𝑇 =


𝑅 ◦ (𝑆 ◦ 𝑇);

3. Se 𝑇 ∈ L(𝑈 , 𝑉) e 𝑅, 𝑆 ∈ L(𝑉 , 𝑊), temos (𝑅 + 𝑆) ◦ 𝑇 = 𝑅 ◦ 𝑇 + 𝑆 ◦ 𝑇;

4. Se 𝑅 ∈ L(𝑉 , 𝑊) e 𝑇, 𝑆 ∈ L(𝑈 , 𝑉), então 𝑅 ◦ (𝑇 + 𝑆) = 𝑅 ◦ 𝑇 + 𝑆 ◦ 𝑇;

5. Caso 𝑇 ∈ L(𝑈 , 𝑉), 𝑆 ∈ L(𝑉 , 𝑊), vale 𝑆 ◦ (𝛼𝑇) = 𝛼(𝑆 ◦ 𝑇).

Lembremos o conceito de inversa. Diremos que 𝑇 ∈ L(𝑈 , 𝑉) possui


inversa se existir 𝑆 : 𝑉 → 𝑈 tal que 𝑆 ◦ 𝑇𝑢 = 𝑢 para todo 𝑢 ∈ 𝑈 e
57

𝑇 ◦ 𝑆𝑣 = 𝑣 para todo 𝑣 ∈ 𝑉. Em outras palavras, 𝑇 ◦ 𝑆 = 𝐼𝑉 e 𝑆 ◦ 𝑇 = 𝐼𝑈 ,


onde 𝐼𝑈 : 𝑈 → 𝑈 e a identidade em 𝑈 e 𝐼𝑉 : 𝑉 → 𝑉 e a identidade em
𝑉.

Observação 13. Note que se 𝑇 ∈ L(𝑈 , 𝑉) tiver inversa, então esta inversa é
única. Com efeito, caso 𝑇 possua duas inversas 𝑅, 𝑆 ∈ L(𝑉 , 𝑈), então

𝑆 = 𝑆 ◦ 𝐼𝑉 = 𝑆 ◦ (𝑇 ◦ 𝑅) = (𝑆 ◦ 𝑇) ◦ 𝑅 = 𝐼𝑈 ◦ 𝑅 = 𝑅.

Observação 14. Quando 𝑇 ∈ L(𝑈 , 𝑉) possuir inversa indicaremos por


𝑇 −1 ∈ L(𝑉 , 𝑈).

2.6 Exercícios

1. Sejam 𝑇 : R2 → R3 , 𝑆 : R3 → R4 e 𝑅 : R4 → R dadas por

𝑇(𝑥, 𝑦) = (𝑥+2𝑦, 5𝑦, 𝑥−2𝑦), 𝑆(𝑥, 𝑦, 𝑧) = (9𝑥−3𝑦+𝑧, 𝑧, 𝑥−𝑧, 0)

𝑅(𝑥, 𝑦, 𝑧, 𝑤) = 𝑥 + 𝑦 − 𝑧 − 𝑤.

Determine 𝑅 ◦ 𝑆 ◦ 𝑇.

2. Se 𝑇 : R3 → R3 e 𝑆 : R3 → R2 são transformações lineares,


determine a expressão geral de 𝑆 ◦ 𝑇, onde

𝑇(𝑥, 𝑦, 𝑧) = (𝑎1 𝑥 + 𝑏1 𝑦 + 𝑐 1 𝑧, 𝑎2 𝑥 + 𝑏2 𝑦 + 𝑐2 𝑧, 𝑎3 𝑥 + 𝑏 3 𝑦 + 𝑐3 𝑧)

𝑆(𝑥, 𝑦, 𝑧) = (𝑚1 𝑥 + 𝑛1 𝑦 + 𝑜1 𝑧, 𝑚2 𝑥 + 𝑛2 𝑦 + 𝑜2 𝑧).

3. Sejam 𝑉 um espaço vetorial de dimensão finita e 𝑆, 𝑇 : 𝑉 → 𝑉


operadores lineares nilpotentes tais que 𝑆 ◦ 𝑇 = 𝑇 ◦ 𝑆. Mostre que
𝑆 + 𝑇 é nilpotente.
58

2.7 Espaço Dual

Seja 𝑈 um espaço vetorial. Uma aplicação linear 𝑓 : 𝑈 → R é


chamada um funcional linear. Em outras palavras, os elementos do
espaço dual 𝑈 ∗ são chamados de funcionais.

Teorema 8. Seja 𝛽 = {𝑢1 , . . . , 𝑢𝑛 } uma base do espaço vetorial 𝑈. Para cada


𝑖 = 1, . . . , 𝑛, seja 𝑓𝑖 : 𝑈 → R o funcional linear definido por

𝑓𝑖 (𝑢 𝑗 ) = 𝛿 𝑖𝑗 .

Então 𝛽 ∗ = { 𝑓1 , . . . , 𝑓𝑛 } é uma base de 𝑈 ∗ .

Demonstração: Mostremos que 𝛽 ∗ é l.i.. Considerando a soma


𝑛
Õ
𝑎 𝑖 · 𝑓𝑖 = 0,
𝑖=1

então
𝑛
Õ
0(𝑢 𝑗 ) = 𝑎 𝑖 · 𝑓𝑖 (𝑢 𝑗 ) = 𝑎 𝑗
𝑖=1

para todo 𝑗.
Resta mostrar que 𝛽 ∗ gera 𝑈 ∗ . Isso vem do fato que 𝑛 vetores l.i. em
um espaço vetorial de dimensão 𝑛 é uma base. 

Observação 15. Se {𝑢1 , . . . , 𝑢𝑛 } formam uma base 𝛽 de 𝑈 , então os


funcionais lineares 𝑓1 , . . . , 𝑓𝑛 : 𝑈 → R definido por

𝑓 𝑗 (𝑢) = 𝑓 𝑗 (𝑎1 𝑢1 + · · · + 𝑎 𝑛 𝑢𝑛 ) = 𝑎 𝑗 , 𝑗 = 1, . . . , 𝑛,

formam uma base de 𝑈 ∗ . . Esta base é chamada de base dual da base 𝛽.


Portanto,
𝑓 (𝑢) = 𝑓1 (𝑢) · 𝑢1 + · · · + 𝑓𝑛 (𝑢) · 𝑢𝑛 .
59

Exemplo 40. Considere a base 𝛽 de R3 formada por 𝑢1 = (1, 1, 1), 𝑢2 =


(1, 1, 0) e 𝑢3 = (1, 0, 0). Vamos encontrar a base dual de 𝛽. Com efeito,dado
(𝑥, 𝑦, 𝑧) ∈ R3 , temos

(𝑥, 𝑦, 𝑧) = 𝑧(1, 1, 1) + (𝑦 − 𝑧)(1, 1, 0) + (𝑥 − 𝑦)(1, 0, 0).

Assim, a base dual de 𝛽 é

𝛽 ∗ = { 𝑓1 (𝑥, 𝑦, 𝑧) = 𝑧, 𝑓2 (𝑥, 𝑦, 𝑧) = 𝑦 − 𝑧, 𝑓3 (𝑥, 𝑦, 𝑧) = 𝑥 − 𝑦}.

Exemplo 41. Seja 𝛽 = {𝑒1 , 𝑒2 , . . . , 𝑒 𝑛 } a base de R𝑛 . A base dual de 𝛽 é


𝜋1 , 𝜋2 , . . . , 𝜋𝑛 , onde 𝜋 𝑗 é a 𝑖−ésima transformação projeção 𝜋 𝑖 (𝑥 1 , . . . , 𝑥 𝑛 ) =
𝑥𝑖 .

Proposição 7. Sejam 𝑉 um espaço vetorial e 𝑣 ∈ 𝑉. Se 𝑓 (𝑣) = 0 para todo


®
𝑓 ∈ 𝑉 ∗ , então 𝑣 = 0.

Demonstração: Sejam 𝐵 = {𝑒1 , . . . , 𝑒 𝑛 } e 𝐵∗ = { 𝑓1 , . . . , 𝑓𝑛 } base vetorial


e base dual de 𝑉 respectivamente. Assim,
𝑛
Õ
𝑣= 𝑥𝑖 𝑒𝑖 .
𝑖=1

Assim,
𝑛 𝑛
!
Õ Õ
0 = 𝑓 𝑗 (𝑣) = 𝑓 𝑗 𝑥𝑖 𝑒𝑖 = 𝑥 𝑖 𝑓 𝑗 (𝑒 𝑖 ) = 𝑥 𝑗
 
𝑖=1 𝑖=1

para cada 𝑗 = 1, . . . , 𝑛.
® 
Portanto, 𝑣 = 0.
60

Teorema 9. A aplicação

𝑇𝑣∗ :𝑉 ∗ → K
𝑓 ↦→ 𝑇𝑣∗ ( 𝑓 ) = 𝑓 (𝑣)

é um funcional linear, isto é, 𝑇𝑣∗ ∈ 𝑉 ∗∗ .

Demonstração: Sejam 𝑓 , 𝑔 ∈ 𝑉 ∗ e 𝛼 ∈ K. Então,

𝑇𝑣∗ (𝛼 𝑓 + 𝑔) = (𝛼 𝑓 + 𝑔)(𝑣)
= 𝛼 𝑓 (𝑣) + 𝑔(𝑣)
= 𝛼𝑇𝑣∗ ( 𝑓 ) + 𝑇𝑣∗ (𝑔)

Portanto, 𝑇𝑣∗ ∈ 𝑉 ∗∗ .

2.8 Exercícios

1. Seja 𝛽 = {𝑢1 , . . . , 𝑢𝑛 } base de 𝑈 e 𝛽 ∗ = { 𝑓1 , . . . , 𝑓𝑛 } a base de 𝑈 ∗ .


Pela observação 15 temos que

𝑢 = 𝑓1 (𝑢) · 𝑢1 + · · · + 𝑓𝑛 (𝑢) · 𝑢𝑛 ,

para todo 𝑢 ∈ 𝑈. Mostre agora que dado 𝑓 ∈ 𝑈 ∗ , temos que

𝑓 = 𝑓 (𝑢1 ) · 𝑓1 + · · · + 𝑓 (𝑢𝑛 ) · 𝑓𝑛 .

2. Sejam Φ1 , Φ2 : P1 (R) → R, definidos por


∫ 1 ∫ 2
Φ1 (𝑝(𝑡)) = 𝑝(𝑡)d𝑡, Φ2 (𝑝(𝑡)) = 𝑝(𝑡)d𝑡.
0 0

Encontre a base {𝑢1 , 𝑢2 } de 𝑈 que é dual a {Φ1 , Φ2 }.


61

3. Suponhamos que 𝑈 tem dimensão finita. Mostre que, se 𝑢 ∈


® então existe 𝑓 ∈ 𝑈 ∗ tal que 𝑓 (𝑢) ≠ 0.
𝑈 , 𝑢 ≠ 0,

4. Mostre que um funcional linear é identicamente nulo ou


sobrejetivo.

2.9 Núcleo e Imagem

O núcleo de uma transformação linear 𝑇 : 𝑈 → 𝑉 é o conjunto de


todos os vetores 𝑢 ∈ 𝑈 que são transformados em 0® ∈ 𝑈. Indicaremos
esse conjunto por N(𝑇).
n o
N(𝑇) = 𝑢 ∈ 𝑈; 𝑇𝑢 = 0® .

Observação 16. Claramente, temos que N(𝑇) ⊂ 𝑉. Além disso, observe que
N(𝑇) ≠ ∅, pois 0® ∈ N(𝑇).

Proposição 8. O núcleo de uma transformação linear 𝑇 : 𝑈 → 𝑉 é um


subespaço vetorial de 𝑈.

Demonstração: De fato. Sejam 𝑢1 e 𝑢2 vetores pertencentes ao N(𝑇) e


𝛼 um número real qualquer. Então, 𝑇𝑢1 = 0® e 𝑇𝑢2 = 0.
® Assim:

i) 𝑇(𝑢1 + 𝑢2 ) = 𝑇𝑢1 + 𝑇𝑢2 = 0® + 0® = 0.


®

Logo,
𝑢1 + 𝑢2 ∈ N(𝑇);

ii) 𝑇(𝛼 · 𝑢1 ) = 𝛼𝑇𝑢1 = 𝛼 · 0® = 0.


®

Logo,
𝛼 · 𝑢1 ∈ N(𝑇). 
62

Proposiçãon 9.o Uma transformação linear 𝑇 : 𝑈 → 𝑉 é injetora se, e somente


se, N(𝑇) = 0® .

Demonstração: Primeiramente mostremos que se 𝑇 é injetora, então


® Seja 𝑢 ∈ N(𝑇), isto é, 𝑇𝑢 = 0.
N(𝑇) = 0. ® Por outro lado, sabe-se que
𝑇 0® = 0.
® Logo, 𝑇𝑢 = 𝑇 0.
® Como 𝑇 é injetora por hipótese, 𝑢 = 0.
®
n oPortanto,
o vetor nulo é o único elemento do núcleo, isto é, N(𝑇) = 0® . Agora,
n o
vamos mostrar que se N(𝑇) = 0® , então 𝑇 é injetora. Sejam 𝑢1 , 𝑢2 ∈ 𝑈
tais que 𝑇𝑢1 = 𝑇𝑢2n. Então,
o 𝑇𝑢1 − 𝑇𝑢2 = 0® ou 𝑇(𝑢1 − 𝑢2 ) = 0® e, portanto,
𝑢1 − 𝑢2 ∈ N(𝑇) = 0® . Portanto, 𝑢1 − 𝑢2 = 0, ® isto é, 𝑢1 = 𝑢2 . Logo 𝑇 é
uma aplicação injetora. 

Proposição 10. Uma transformação linear 𝑇 : 𝑈 → 𝑉 é injetora


se, e somente se, transforma os vetores {𝑢1 , . . . , 𝑢𝑛 } l.i. em vetores
{𝑇𝑢1 , . . . , 𝑇𝑢𝑛 } l.i..

Demonstração: A combinação
𝑛
Õ
𝑎 𝑖 𝑇𝑢𝑖 = 0®
𝑖=1

implica que
𝑛
Õ
𝑎 𝑖 · 𝑢𝑖 ∈ N(𝑇),
𝑖=1
pois
𝑛 𝑛
!
Õ Õ
0® = 𝑎 𝑖 𝑇𝑢𝑖 = 𝑇 𝑎 𝑖 · 𝑢𝑖 .
𝑖=1 𝑖=1

A injetividade de 𝑇 garante que


𝑛
Õ
®
𝑎 𝑖 · 𝑢𝑖 = 0.
𝑖=1
63

Como {𝑢1 , . . . , 𝑢𝑛 } é l.i. temos que 𝑎1 = · · · = 𝑎 𝑛 = 0. Logo


® então
{𝑇(𝑢1 ), . . . , 𝑇(𝑢𝑛 )} é l.i... Reciprocamente, se 𝑢 ≠ 0, 𝑇𝑢 é l.i.,
implicando que 𝑇𝑢 ≠ 0. ® Portanto 𝑇𝑢 = 0® implica em 𝑢 = ® isto é,
0,
n o
N(𝑇) = 0® . Logo 𝑇 é injetiva. 

Corolário 4. Seja 𝑇 : 𝑈 → 𝑉 uma transformação linear. Se dim 𝑈 >


dim 𝑉 , então 𝑇 não é injetiva.

Lembremos que a imagem de 𝑇 : 𝑈 → 𝑉 é o conjunto dos vetores


𝑣 ∈ 𝑉 que são transformados por pelo menos um vetor 𝑢 ∈ 𝑈 , isto é,

I𝑚(𝑇) = 𝑇(𝑈) = {𝑇𝑢; 𝑢 ∈ 𝑈 }.

Proposição 11. A imagem de uma transformação linear 𝑇 : 𝑈 → 𝑉 é um


subespaço de 𝑉.

Demonstração: Sejam 𝑣1 e 𝑣 2 vetores pertencentes a I𝑚(𝑇) e 𝛼 um


número real qualquer. Devemos mostrar que 𝑣1 + 𝑣2 ∈ I𝑚(𝑇) e que
𝛼 · 𝑣1 ∈ I𝑚(𝑇), isto é, devemos mostrar que existem vetores 𝑢 e 𝑢˜
pertencentes a 𝑈 tais que 𝑇𝑢 = 𝑣 1 + 𝑣 2 e 𝑇(𝑢)
˜ = 𝛼 · 𝑣1 .
Como 𝑣 1 , 𝑣2 ∈ I𝑚(𝑇), existem vetores 𝑢1 , 𝑢2 ∈ 𝑉 tais que 𝑇𝑢1 = 𝑣 1 e
𝑇𝑢2 = 𝑣 2 . Fazendo 𝑢 = 𝑢1 + 𝑢2 e 𝑢˜ = 𝛼 · 𝑢1 , tem-se:

𝑇𝑢 = 𝑇(𝑢1 + 𝑢2 ) = 𝑇𝑢1 + 𝑇𝑢2 = 𝑣 1 + 𝑣 2

e
𝑇(𝑢)
˜ = 𝑇(𝛼 · 𝑢1 ) = 𝛼𝑇𝑢1 = 𝛼 · 𝑣1

e, portanto, I𝑚(𝑇) é um subespaço vetorial de 𝑉. 

Teorema 10. (Núcleo e Imagem): Seja 𝑇 : 𝑈 → 𝑉 uma aplicação linear.


Então,
dim N(𝑇) + dim I𝑚(𝑇) = dim 𝑈.
64

Demonstração: Considere {𝑢1 , . . . , 𝑢𝑛 } uma base de N(𝑇). Como


N(𝑇) ⊂ 𝑈 é subespaço de 𝑈 , podemos completar este conjunto de
modo a obter uma base de 𝑈. Seja {𝑢1 , . . . , 𝑢𝑛 , 𝑣1 , . . . , 𝑣 𝑚 } a base de 𝑈.
O Teorema acaba ao provar que o conjunto {𝑇𝑣 1 , . . . , 𝑇𝑣 𝑚 } é uma
base de I𝑚(𝑇).

i) {𝑇𝑣 1 , . . . , 𝑇𝑣 𝑚 } é um conjunto de geradores de 𝑉.

De fato, dado 𝑣 ∈ I𝑚(𝑇), existe 𝑢 ∈ 𝑉 tal que 𝑇𝑢 = 𝑣. Como o


vetor 𝑢 ∈ 𝑈 , podemos escrever

𝑢 = 𝑎1 · 𝑢1 + · · · + 𝑎 𝑛 · 𝑢𝑛 + 𝑏 1 · 𝑣 1 + · · · + 𝑏 𝑚 · 𝑣 𝑚 .

Mas,

𝑣 = 𝑇𝑢 = 𝑇(𝑎1 · 𝑢1 + · · · + 𝑎 𝑛 · 𝑢𝑛 + 𝑏1 · 𝑣1 + · · · + 𝑏 𝑛 · 𝑣 𝑚 )

= 𝑎1 · 𝑇𝑣 1 + · · · + 𝑎 𝑚 · 𝑇𝑣 𝑚 ,
®
pois os vetores {𝑢1 , . . . , 𝑢𝑛 } pertencem ao N(𝑇), isto é, 𝑇𝑢𝑖 = 0,
para 𝑖 = 1, . . . , 𝑛. Assim, a imagem de 𝑇 é gerada pelos vetores
𝑇𝑣 1 , . . . , 𝑇𝑣 𝑚 .

ii) {𝑇𝑣 1 , . . . , 𝑇𝑣 𝑚 } é um conjunto l.i..

Consideremos, a combinação linear

𝑎1 · 𝑇𝑣1 + 𝑎2 · 𝑇𝑣 2 + · · · + 𝑎 𝑚 · 𝑇𝑣 𝑚 = 0®

Como 𝑇 é linear,

®
𝑇(𝑎1 · 𝑣 1 + 𝑎2 · 𝑣 2 + · · · + 𝑎 𝑚 · 𝑣 𝑚 ) = 0.
65

Logo
𝑎1 · 𝑣1 + 𝑎2 · 𝑣2 + · · · + 𝑎 𝑚 · 𝑣 𝑚 ∈ N(𝑇).

Então, 𝑎1 ·𝑣 1 +𝑎2 ·𝑣2 +· · ·+𝑎 𝑚 ·𝑣 𝑚 pode ser escrito como combinação


linear da base {𝑢1 , . . . , 𝑢𝑛 } de N(𝑇), isto é, existem 𝑏1 , 𝑏2 , . . . , 𝑏 𝑛
tais que

𝑎 1 · 𝑣 1 + · · · + 𝑎 𝑚 · 𝑣 𝑚 = 𝑏 1 · 𝑢1 + · · · + 𝑏 𝑛 · 𝑢 𝑛 ,

ou ainda,

®
𝑎1 · 𝑣 1 + · · · + 𝑎 𝑚 · 𝑣 𝑚 − 𝑏 1 · 𝑢1 − · · · − 𝑏 𝑛 · 𝑢𝑛 = 0.

Como {𝑢1 , . . . , 𝑢𝑛 , 𝑣1 , . . . , 𝑣 𝑚 } é uma base de 𝑉 , temos então


𝑎1 = 𝑎2 = · · · = 𝑎 𝑚 = 𝑏 1 = 𝑏 2 = · · · = 𝑏 𝑛 = 0. 

Corolário 5. Se dim 𝑈 = dim 𝑉 , então a transformação linear 𝑇 é injetora


se, e somente se, é sobrejetora.

Corolário 6. Seja 𝑇 : 𝑈 → 𝑉 uma aplicação linear injetora. Se


dim 𝑈 = dim 𝑉 , então 𝑇 leva base em base.

2.10 Exercícios

1. Mostre que existe quatro possibilidades para o núcleo de uma


transformação linear 𝑇 : R3 → R3 : o núcleo é o vetor nulo, ou
uma reta que passa pela a origem, ou um plano que passa pela
origem, ou o próprio R3 .

2. Determine um operador linear em R4 cujo o núcleo é gerado pelos


vetores (1, 1, 0, 0) e (0, 0, 1, 0).
66

3. Determine um operador linear em R3 cujo o núcleo tenha


dimensão 1.

4. Determine uma transformação linear 𝑇 : R3 → R3 cuja a imagem


seja gerada pelos vetores (1, 2, 0) e (1, 1, 1).

5. Seja 𝑇 : R3 → R3 um operador linear definido por

𝑇(𝑥, 𝑦, 𝑧) = (𝑥 + 2𝑦 − 𝑧, 𝑦 + 𝑧, 𝑥 + 𝑦 − 2𝑧).

Calcule o núcleo e imagem dessa transformação linear.

6. Escreva a expressão da transformação linear 𝑇 : R3 → R4 tal


que 𝑇 (1, 0, 0) = (1, 1, −2, 3), 𝑇 (0, 1, 0) = (1, 1, 2, 1) e 𝑇 (0, 0, 1) =
(0, 1, 0, 3).

7. Seja 𝑇 : 𝑉 → 𝑉 uma transformação linear


n o tal que 𝑇 = 𝑇 (onde
2

𝑇 2 = 𝑇 ◦ 𝑇). Mostre que N(𝑇) ∩ 𝐼𝑚 𝑇 = 0® .

8. Seja 𝐴 uma matriz real 𝑛 × 𝑛 tal que 𝐴2 = 𝐴. Suponha que 𝑋 e 𝑌


são matrizes colunas 𝑛 × 1 tais que 𝐴 · 𝑋 = 0 e 𝑋 = 𝐴 · 𝑌. Mostre
que 𝑋 = 0. (Use o exercício anterior.)

9. Seja {𝑣1 , 𝑣2 , 𝑣3 } uma base do espaço vetorial 𝑉 (de dimensão 3).


Considere a transformação linear 𝑇 : 𝑉 → 𝑉 tal que 𝑇𝑣1 = 0, ®
𝑇𝑣 2 = 𝑣 1 e 𝑇𝑣 3 = 𝑣2 .

(a) Encontre 𝑇 (𝑣 1 + 𝑣 2 ) e 𝑇 (𝑣 1 + 𝑣 2 + 𝑣 3 ).
(b) Encontre uma base de N(𝑇) e de 𝐼𝑚 𝑇.

10. Dadas as transformações lineares 𝑇 : 𝑉 → 𝑉 e 𝑆 : 𝑉 → 𝑉,


suponha que elas comutam, isto é, 𝑇 ◦ 𝑆 = 𝑆 ◦ 𝑇. Mostre que se
𝑣 ∈ N(𝑆) então 𝑇𝑣 ∈ N(𝑆). Mostre também que se 𝑣 ∈ I𝑚(𝑆) então
𝑇𝑣 ∈ I𝑚(𝑆).
67

11. Seja 𝑇 : P𝑛 (R) −→ P𝑛 (R) a transformação linearn definida


o por
0 00
𝑇(𝑝) = 5𝑝 − 4𝑝 + 𝑝 . Mostre que se núcleo é 0® e conclua
que para todo polinômio 𝑏(𝑥) existe um polinômio 𝑝(𝑥) tal que
0 00
𝑏(𝑥) = 5𝑝(𝑥) − 4𝑝 (𝑥) + 𝑝 (𝑥).

12. Determinar um 𝑇 ∈ L(P3 (R), P2 (R)) cujo núcleo seja gerado pelos
polinômios 1 + 𝑥 3 e 1 − 𝑥 2 .

13. Encontre uma base para o núcleo e outra para a imagem de


0 00
𝑇 : P2 (R) −→ P2 (R) dada por 𝑇(𝑝) = 𝑝 + 𝑝 .

2.11 Isomorfismo

Um isomorfismo entre dois espaços vetoriais 𝑈 e 𝑉 é uma aplicação


linear bijetiva 𝑇 : 𝑈 → 𝑉 cuja inversa é linear. Quando existir, dizemos
que 𝑈 e 𝑉 são isomorfos. Note que se 𝑇 : 𝑈 → 𝑉 é injetiva então
𝑇 : 𝑈 → 𝑇(𝑈) é um bijetiva. O próximo resultado mostra que além de
bijetiva, ela é um isomorfismo.

Proposição 12. Seja 𝑇 : 𝑈 → 𝑉 uma aplicação linear injetiva entre dois


espaços vetoriais. Seja 𝑊 = 𝑇(𝑈). Então a aplicação inversa 𝑇 −1 : 𝑊 → 𝑈
também é linear.

Demonstração: Dados 𝑤 1 , 𝑤2 ∈ 𝑊 , sejam 𝑢1 , 𝑢2 ∈ 𝑈 tais que


𝑇𝑢1 = 𝑤1 , 𝑇𝑢2 = 𝑤2 . Para 𝛼 ∈ R, temos

𝑇(𝑢1 + 𝛼 · 𝑢2 ) = 𝑇𝑢1 + 𝛼𝑇𝑢2 = 𝑤1 + 𝛼 · 𝑤2 .

Logo,

𝑇 −1 (𝑤1 + 𝛼 · 𝑤2 ) = 𝑢1 + 𝛼 · 𝑢2 = 𝑇 −1 (𝑤 1 ) + 𝛼𝑇 −1 (𝑤2 ). 
68

Teorema 11. Todo espaço vetorial de dimensão finita 𝑛 é isomorfo a R𝑛 .

Demonstração: Seja 𝛽 = {𝑢1 , . . . , 𝑢𝑛 } uma base para um espaço


vetorial 𝑈 de dimensão 𝑛. A aplicação linear 𝑇 : 𝑈 → R𝑛 por

𝑇𝑢𝑖 = 𝑒 𝑖

é um isomorfismo. 

Teorema 12. Se 𝑛 ≠ 𝑚, então R𝑛 não é isomorfo a R𝑚 .

Demonstração: Decorre do corolário da proposição 8. 

Corolário 7. Sejam 𝑉 e 𝑈 espaços vetoriais isomorfos. Então dim 𝑉 =


dim 𝑈.

O espaço L(𝑉 ∗ , R) definido a partir do dual de 𝑉 é denotado por


𝑉 ∗∗ e chamado o bidual de 𝑉.

Teorema 13. A transformação 𝑇 ∗∗ : 𝑉 → 𝑉 ∗∗ dada por

𝑇 ∗∗ (𝑣) = 𝑇𝑣∗ ,

onde 𝑇𝑣∗ é definida como no Teorema 9, é um isomorfismo linear.

Demonstração: Sejam 𝑣 1 , 𝑣2 ∈ 𝑉 e 𝛼 ∈ R. Dado 𝑓 ∈ 𝑉 ∗ temos que

𝑇 ∗∗ (𝛼𝑣1 + 𝑣2 ) = 𝑇𝛼𝑣

1 +𝑣 2
(𝑓)
= 𝑓 (𝛼𝑣 1 + 𝑣 2 )
= 𝛼 (𝛼𝑣1 + 𝑣 2 )
= 𝛼 𝑓 (𝑣 1 ) + 𝑓 (𝑣 2 )
= 𝛼𝑇𝑣∗1 + 𝑇𝑣∗2
= 𝛼𝑇 ∗∗ (𝑣1 ) + 𝑇 ∗∗ (𝑣2 )
69

Logo, 𝑇 ∗∗ é linear.
Seja 𝑣 ∈ 𝑉 tal que 𝑇 ∗∗ (𝑣) = 0. Assim,

0 = 𝑇 ∗∗ (𝑣)( 𝑓 ) = 𝑇𝑣∗ ( 𝑓 ) = 𝑓 (𝑣), ∀ 𝑓 ∈ 𝑉 ∗ .

A Proposição 7 afirma que

𝑣 = 0®𝑣 .

Com isso, temos que N(𝑇 ∗∗ ) = {0} o que implica 𝑇 ∗∗ injetiva.


Para a sobrejetividade, note que dim 𝑉 = dim 𝑉 ∗ = dim 𝑉 ∗∗ e 𝑇 ∗∗ é
injetiva. É imediato que 𝑇 ∗∗ é um isomorfismo. 

2.12 Exercícios

1. Assinale verdadeiro (V) ou falso (F):

(a) ( ) Uma transformação linear 𝑇 : 𝑈 → 𝑉 é sobrejetiva,


então dim N(𝑇) = dim 𝑉− dim 𝑉.
(b) ( ) Dada a transformação linear 𝑇 : 𝑈 → 𝑉 , para todo 𝑏
fixado em 𝑉 , o conjunto 𝑊 = {𝑥 ∈ 𝑈; 𝑇𝑥 = 𝑏} é um subespaço
vetorial de 𝑈.
(c) ( ) O núcleo de toda transformação linear 𝑇 : R5 → R3
tem dimensão ≥ 3.
(d) ( ) Se a transformação linear 𝑇 : R𝑚 → R𝑛 é injetiva, então
dim I𝑚(𝑇) = 𝑚.
(e) ( ) Se a transformação linear 𝑇 : R𝑚 → R𝑛 é sobrejetiva,
então dim I𝑚(𝑇) = 𝑚 − 𝑛.
(f) ( ) Se N(𝑇) é gerado pelos vetores 𝑣 1 , 𝑣2 e 𝑣3 então a
imagem do operador 𝑇 : R5 → R5 tem dimensão 2.
70

(g) ( ) Sejam 𝑇 : 𝑈 → 𝑉 e 𝑆 : 𝑉 → 𝑊 transformações lineares.


Se 𝑆 e 𝑇 são isomorfismos então 𝑆 ◦ 𝑇 é isomorfismo.
(h) ( ) Sejam 𝑇 : 𝑈 → 𝑉 e 𝑆 : 𝑉 → 𝑊 transformações lineares.
Se 𝑆 ◦ 𝑇 é isomorfismo então 𝑆 e 𝑇 são isomorfismos.

2. Seja 𝑇 : 𝑉 → 𝑉 uma transformação linear tal que 𝑇 2 = 0 (isto é,


𝑇 ◦ 𝑇 é a transformação linear identicamente nula). Mostre que 𝑇
não é um isomorfismo, mostrando que 𝑇 não é injetora.

3. Mostre que a aplicação 𝜄 𝑖 : R𝑛 → R𝑛+1 definida por 𝜄 𝑖 (𝑥 1 , . . . , 𝑥 𝑛 ) =


(𝑥 1 , . . . , 𝑥 𝑖−1 , 0, 𝑥 𝑖+1 , . . . 𝑥 𝑛 ) não é um isomorfismo, mostrando que
𝜄 𝑖 não é sobrejetiva. Encontre uma base da Imagem de 𝜄 𝑖 .

4. Para as transformações lineares 𝑇 : 𝑈 → 𝑉, listadas abaixo,


encontre bases de N(𝑇) e de I𝑚(𝑇) e confirme a fórmula dim 𝑈 =
dim N(𝑇)+dim I𝑚(𝑇). Diga quais delas são injetoras, sobrejetoras
ou isomorfismos.

(a) 𝑇 : R3 → R4 ,

𝑇 (𝑥, 𝑦, 𝑧) = (𝑥 + 𝑦 + 𝑧, 𝑥 − 𝑧, 2𝑥 + 𝑦, 3𝑥 + 2𝑦 + 𝑧) .

(b) 𝑇 : 𝑀4×1 (R) → 𝑀3×1 (R) dada por 𝑇 · 𝑋 = 𝐴 · 𝑋 onde 𝐴 é a


matriz
©1 0 1 2 ª
𝐴 = ­ 1 −1 2 0 ® .
­ ®
­ ®
1 −2 3 −2
« ¬
(c) 𝑇 : P𝑛 (R) → P𝑛 (R) dada por 𝑇 (𝑝) = 𝑝 0.
(d) 𝑇 : Z32 → Z42 , 𝑇 (𝑥, 𝑦, 𝑧) = (𝑥 + 𝑦 + 𝑧, 𝑥 + 2𝑧, 2𝑥 + 𝑦, 𝑧).

5. Sejam 𝑇 : 𝑈 → 𝑉 e 𝑆 : 𝑉 → 𝑊 transformações lineares.


71

(a) Mostre que N(𝑇) ⊂ N (𝑆 ◦ 𝑇). Mostre também que se 𝑆 ◦ 𝑇 é


injetora então 𝑇 também é injetora.
(b) Mostre que I𝑚 (𝑆 ◦ 𝑇) ⊂ I𝑚(𝑆). Mostre também que se 𝑆 ◦ 𝑇
é sobrejetora então 𝑆 também é sobrejetora.
(c) Mostre que se 𝑆 ◦ 𝑇 é injetora então dim 𝑈 ≤ dim 𝑉.
(d) Mostre que se 𝑆 ◦ 𝑇 é sobrejetora então dim 𝑊 ≥ dim 𝑉.

6. Mostre que a transformação linear 𝑇 : R3 → R3 , 𝑇 (𝑥, 𝑦, 𝑧) =


(𝑥 + 𝑧, 2𝑥 + 2𝑦 + 𝑧, 𝑥 + 𝑦 + 𝑧) é um isomorfismo. Encontre 𝑇 −1 .

2.13 Matriz de uma Transformação Linear

Veremos nesta seção que uma transformação linear está associado


de forma única a uma matriz. Por esse motivo, o estudo das
transformações lineares pode ser reduzido ao estudo das matrizes.
Mais precisamente, vamos mostrar que a toda matriz 𝑚 × 𝑛 está
associada uma transformação linear 𝑇 : 𝑈 → 𝑉 , onde 𝑛 = dim 𝑈 e
𝑚 = dim 𝑉. Vamos também estabelecer o seu recíproco, isto é, veremos
que uma vez fixadas as bases, toda transformação linear 𝑇 : 𝑈 → 𝑉
estará associada a uma única matriz.
Sejam 𝑇 : 𝑈 → 𝑉 , onde 𝑈 e 𝑉 são espaços vetoriais de dimensão
finita fica e 𝛽 = {𝑢1 , . . . , 𝑢𝑛 } uma base de 𝑈. Dado um vetor 𝑢 ∈ 𝑈 , ele
se escreve como uma combinação linear

𝑢 = 𝑎 1 · 𝑢1 + · · · + 𝑎 𝑛 · 𝑢 𝑛 .

Aplicando 𝑇, temos que

𝑇𝑢 = 𝑇(𝑎1 · 𝑢1 + · · · + 𝑎 𝑛 · 𝑢𝑛 ) = 𝑎1 · 𝑇(𝑢1 ) + · · · + 𝑎 𝑛 · 𝑇(𝑢𝑛 ).


72

Pelo o que foi dito acima, temos

Teorema 14. Uma transformação linear 𝑇 : 𝑈 → 𝑉 , onde 𝑈 e 𝑉 são espaços


vetoriais de dimensão finita fica completamente determinada pelos valores que
ela toma em uma base qualquer de 𝑈.

O próximo resultado diz que para conhecer uma transformação


linear 𝑇 : 𝑈 → 𝑉 é necessário conhecer apenas os vetores 𝑇𝑢 ∈ 𝑉
onde 𝑢 é um elemento da base de 𝐸.

Teorema 15. Sejam 𝑈 um espaço vetorial de dimensão finita, 𝛽 =


{𝑢1 , . . . , 𝑢𝑛 } uma base para 𝑈 e 𝑣1 , . . . , 𝑣 𝑛 vetores quaisquer de um espaço
vetorial 𝑉. Então existe uma única aplicação linear 𝑇 : 𝑈 → 𝑉 tal que

𝑇𝑢𝑖 = 𝑣 𝑖 , 1 ≤ 𝑖 ≤ 𝑛.

Demonstração: Considere a aplicação 𝑇 : 𝑈 → 𝑉 dada por

𝑇𝑢 := 𝑎1 · 𝑣1 + · · · + 𝑎 𝑛 · 𝑣 𝑛 ,

onde os números 𝑎1 , . . . , 𝑎 𝑛 ∈ R são os escaleres da combinação linear

𝑢 = 𝑎1 · 𝑢1 + · · · + 𝑎 𝑛 · 𝑢𝑛 .

Note que 𝑎1 , . . . , 𝑎 𝑛 são únicos, pois 𝛽 é base.


A demonstração acaba quando mostrarmos que 𝑇 é a única
aplicação linear satisfazendo a igualdade 𝑇𝑢𝑖 = 𝑣 𝑖 , para 1 ≤ 𝑖 ≤ 𝑛.
De fato, por definição de base, existem escalares 𝑎1 , 𝑎2 , . . . , 𝑎 𝑛 e
𝑏1 , 𝑏2 , . . . , 𝑏 𝑛 tais que

𝑢 = 𝑎 1 · 𝑢1 + · · · + 𝑎 𝑛 · 𝑢𝑛 ,
73

e
𝑢˜ = 𝑏 1 · 𝑢1 + · · · + 𝑏 𝑛 · 𝑢𝑛 .

Assim,
𝑛 𝑛
!
Õ Õ
𝑇(𝑢 + 𝛼 · 𝑢)
˜ =𝑇 𝑎 𝑖 · 𝑢𝑖 + 𝛼 𝑏 𝑖 · 𝑢𝑖
𝑖=1 𝑖=1

𝑛
!
Õ
=𝑇 (𝑎 𝑖 + 𝛼𝑏 𝑖 ) · 𝑢𝑖
𝑖=1

𝑛
Õ
= (𝑎 𝑖 + 𝛼𝑏 𝑖 ) · 𝑣 𝑖
𝑖=1

𝑛
Õ 𝑛
Õ
= 𝑎𝑖 · 𝑣𝑖 + 𝛼𝑏 𝑖 · 𝑣 𝑖
𝑖=1 𝑖=1

= 𝑇𝑢 + 𝛼𝑇 𝑢.
˜

Resta provar agora a unicidade. Seja 𝑆 : 𝑈 → 𝑉 uma transformação


linear tal que 𝑆𝑢𝑖 = 𝑣 𝑖 . Para cada 𝑢 = 𝑎1 · 𝑢1 + · · · + 𝑎 𝑛 · 𝑢𝑛 ∈ 𝑈 temos
que
𝑆𝑢 = 𝑎1 · 𝑆(𝑢1 ) + · · · + 𝑎 𝑛 · 𝑆(𝑢𝑛 )
= 𝑎1 · 𝑣1 + · · · + 𝑎 𝑛 · 𝑣 𝑛
= 𝑎 1 · 𝑇(𝑢1 ) + · · · + 𝑎 𝑛 · 𝑇(𝑢𝑛 )
= 𝑇𝑢.

Isto prova que 𝑇 = 𝑆, o que completa a demonstração. 

O importante do Teorema acima é que ele nos permite definir


uma transformação linear [𝑇] : R𝑛 → R𝑚 da seguinte maneira: para
74

qualquer vetor 𝑢 = (𝑥 1 , . . . , 𝑥 𝑛 ) ∈ R𝑛 podemos escrever

𝑢 = 𝑥 1 · 𝑒1 + · · · + 𝑥 𝑛 · 𝑒 𝑛

e portanto,

𝑛
©Õ
[𝑇] · 𝑢 = [𝑇] · ­ 𝑥𝑗 · 𝑒𝑗®
ª

« 𝑗=1 ¬
𝑛
Õ
= 𝑥 𝑗 [𝑇] · 𝑒 𝑗
𝑗=1

𝑛
Õ
= (𝑎1𝑗 𝑥 𝑗 , 𝑎2𝑗 𝑥 𝑗 , . . . , 𝑎 𝑚 𝑗 𝑥 𝑗 )
𝑗=1

𝑛 𝑛 𝑛
©Õ Õ Õ
=­ 𝑎1𝑗 𝑥 𝑗 , 𝑎2𝑗 𝑥 𝑗 , . . . , 𝑎𝑚 𝑗 𝑥 𝑗 ® .
ª

« 𝑗=1 𝑗=1 𝑗=1 ¬

Se 𝑇 : 𝑈 → 𝑉 é uma transformação linear e 𝛽 1 = {𝑢1 , . . . , 𝑢𝑛 } base


de 𝑈 e 𝛽 2 = {𝑣 1 , . . . , 𝑣 𝑚 } base de 𝑉. Então 𝑇𝑢1 , . . . , 𝑇(𝑢𝑛 ) são vetores
de 𝑉 e portanto
𝑇𝑢 𝑗 = 𝑎1𝑗 · 𝑣 1 + · · · + 𝑎 𝑚 𝑗 · 𝑣 𝑚

A transposta da matriz dos coeficientes deste sistema, denotada por


𝛽
[𝑇]𝛽12 é chamada matriz de T em relação às bases 𝛽 1 e 𝛽 2 :

 𝑎11 𝑎12 · · · 𝑎1𝑛 


𝛽1 .. .. . . . ..
 
[𝑇]𝛽2 =  . . . .
 
 

 𝑎 𝑚1 𝑎 𝑚2 · · · 𝑎 𝑚𝑛 

75

Exemplo 42. Fixadas as bases 𝛽 1 = {𝑢1 , . . . , 𝑢𝑛 } e 𝛽 2 = {𝑣 1 , . . . , 𝑣 𝑛 }, à


matriz
 𝑎11 𝑎 12 · · · 𝑎1𝑛 
.. .. . . . ..
 
𝐴= . . . .
 
 

 𝑎 𝑚1 𝑎 𝑚2 · · · 𝑎 𝑚𝑛 

podemos associar
𝑇: 𝑈 → 𝑉
𝑢 ↦→ 𝑇𝐴 𝑢
da seguinte maneira: seja

 𝑥1 
..
 
𝑋 = [𝑢]𝛽1 =  .
 

 

 𝑥 𝑛 

 𝑎11 𝑎12 · · · 𝑎1𝑛   𝑥1   𝑦1 


.. .. . . . .. ..   .. 
     
𝐴·𝑋 =  . . . · . = . 
  

     

 𝑎 𝑚1 𝑎 𝑚2 · · · 𝑎 𝑚𝑛 


 𝑥 𝑛   𝑦𝑛 
 
então
𝑇𝐴 𝑢 = 𝑦1 · 𝑣1 + · · · + 𝑦𝑚 · 𝑣 𝑚 ,

onde 𝑦 𝑖 = 𝐴 𝑖 · 𝑋 e 𝐴 𝑖 é a 𝑖−ésima linha de 𝐴.

Teorema 16. Sejam 𝑈 , 𝑉 espaços vetoriais, 𝛽 1 base de 𝑈 e 𝛽 2 base de 𝑉 e


𝑇 : 𝑈 → 𝑉 uma aplicação linear. Então, para todo 𝑢 ∈ 𝑈 vale:

𝛽
[𝑇𝑢]𝛽2 = [𝑇]𝛽12 · [𝑢]𝛽1 .

Demonstração: Seja 𝛽 1 = {𝑢1 , . . . , 𝑢𝑛 } e 𝛽 2 = {𝑣1 , . . . , 𝑣 𝑛 } bases de 𝑈


76

 𝑥1 
..
 
e 𝑉 , respectivamente. Se [𝑢]𝛽1 =  .  então
 
 

 𝑥 𝑛 

𝑇𝑢 = 𝑇(𝑥 1 · 𝑢1 + · · · + 𝑥 𝑛 · 𝑢𝑛 ) = 𝑥1𝑇𝑢1 + · · · + 𝑥 𝑛 𝑇(𝑢𝑛 )


= 𝑥1 (𝑎 11 𝑣1 + · · · + 𝑎 𝑚1 𝑣 𝑚 ) + · · · + 𝑥 𝑛 (𝑎1𝑛 𝑣 1 + · · · + 𝑎 𝑚𝑛 𝑣 𝑚 )
= (𝑥1 𝑎11 + · · · + 𝑥 𝑛 𝑎1𝑛 )𝑣1 + · · · + (𝑥 1 𝑎 𝑚1 + · · · + 𝑥 𝑛 𝑎 𝑚𝑛 )𝑣 𝑚 .

Assim,
 𝑎11 𝑎12 · · · 𝑎1𝑛   𝑥1 
 .. .. . . . ..   .. 
   
[𝑇𝑢]𝛽2 =  . . . · . .
   
 𝑎 𝑚1 𝑎 𝑚2 · · · 𝑎 𝑚𝑛   𝑥 𝑛 
   
| {z } |{z}
𝛽 [𝑢]𝛽1
=[𝑇]𝛽1
2


𝛽
Observação 17. Quando 𝑈 = 𝑉 , 𝛽 1 = 𝛽2 = 𝛽, em vez de representar [𝑇]𝛽11
𝛽
ou [𝑇]𝛽22 , podemos também escrever [𝑇]𝛽 .

Observação 18. Em geral, dada uma matriz 𝐴 ∈ M𝑚×𝑛 (R), ela é encarada
como uma aplicação linear 𝑇𝐴 : R𝑛 → R𝑚 em relação às bases canônica de
R𝑛 e R𝑚 .
Exemplo 43. A transformação linear associada a matriz
" #
2 0
𝐴= ,
0 1

e que depende das bases 𝛽 1 = {(1, 0), (0, 1)} e 𝛽 2 = {(1, 1), (0, 1)} é
𝑇𝐴 𝑢 = (2𝑥 − 𝑦, 2𝑥 + 𝑦). De fato, se 𝑢 = (𝑥, 𝑦) então
" #
𝑥
𝑋 = [𝑢]𝛽1 = .
𝑦
77

Assim,

" # " # " #


2 0 𝑥 2𝑥
𝐴·𝑋 = · = = [𝑇𝐴 (𝑥, 𝑦)]𝛽2 = [𝑇𝐴 𝑢]𝛽2 .
0 1 𝑦 𝑦

Dessa maneira,

𝑇𝐴 (𝑥, 𝑦) = 2𝑥 · (1, 1) + 𝑦 · (−1, 1) = (2𝑥 − 𝑦, 2𝑥 + 𝑦).

Por exemplo, se 𝑢 = (𝑥, 𝑦) = (2, 1), então 𝑇𝐴 (2, 1) = (3, 5).

Exemplo 44. Seja 𝑇 : R2 → R3 a transformação linear tal que

 1 −1 
 
𝛼
[𝑇]𝛽 =  0 1 
 
 
 −2 3 
 
onde
𝛼 = {(1, 0), (0, 1)} e 𝛽 = {(1, 0, 1), (−2, 0, 1), (0, 1, 0)}.

Vamos determinar 𝑇(𝑥, 𝑦).


Sabemos que
[𝑇(𝑥, 𝑦)]𝛽 = [𝑇]𝛽𝛼 [(𝑥, 𝑦)]𝛼 .

Como " #
𝑥
[(𝑥, 𝑦)]𝛼 =
𝑦
temos que

 1 −1  " #  𝑥 − 𝑦 
  𝑥  
[𝑇(𝑥, 𝑦)]𝛽 =  0 1  = 𝑦
   
 𝑦

  
 −2 3   −2𝑥 + 3𝑦 
   
78

Logo,

𝑇(𝑥, 𝑦) = (𝑥 − 𝑦)(1, 0, 1) + 𝑦(−2, 0, 1) + (−2𝑥 + 3𝑦)(0, 1, 0)


= (𝑥 − 3𝑦, −2𝑥 + 3𝑦, 𝑥).

Observação 19. Se 𝛽 1 = 𝛽 2 = {(1, 0), (0, 1)}, a aplicação 𝑇𝐴 definida no


exemplo acima é 𝑇𝐴 (𝑥, 𝑦) = (2𝑥, 𝑦).

2.13.1 Propriedades das Matrizes de Transformações Lineares

i) Sejam 𝑈 e 𝑉 espaços vetoriais de dimensão finita com bases 𝛽 1 , 𝛽 2 ,


respectivamente. Se 𝑇, 𝑆 ∈ L(𝑈 , 𝑉) e 𝛼 ∈ R então

𝛽 𝛽 𝛽
[𝑇 + 𝛼𝑆]𝛽12 = [𝑇]𝛽12 + 𝛼[𝑆]𝛽12 .

ii) Nas condições acima. Se 𝑇 = 0, isto é, 𝑇 a transformação nula


então
𝛽
[𝑇]𝛽12 = 0.

iii) Se 𝛽 1 e 𝛽 2 são bases de um espaço vetorial 𝑈 de dimensão finita e


𝐼 ∈ L(𝑈) e a identidade de 𝑈 então

𝛽 𝛽
[𝐼]𝛽12 = 𝑀𝛽21 .

iv) Sejam 𝑈 , 𝑉 e 𝑊 espaços vetoriais de dimensão finita. Sejam


𝑇 ∈ L(𝑈 , 𝑉) e 𝑆 ∈ L(𝑉 , 𝑊). Se 𝛽 1 , 𝛽 2 E 𝛽 3 são bases de 𝑈 , 𝑉 e
𝑊 , respectivamente, então

𝛽 𝛽 𝛽
[𝑆 ◦ 𝑇]𝛽13 = [𝑆]𝛽23 · [𝑇]𝛽12 .
79

𝛽
[𝑇]𝛽1
(𝑈 , 𝛽 1 ) 2 / (𝑉 , 𝛽 2 )

𝛽
[𝑆]𝛽2
𝛽 𝛽 𝛽 3
[𝑆◦𝑇]𝛽1 =[𝑆]𝛽2 ·[𝑇]𝛽1
3 3 2
# 
(𝑊 , 𝛽 3 )

v) Sejam 𝑈 e 𝑉 espaços vetorial de dimensão finita com bases 𝛽 1


e 𝛽 2 , respectivamente. Se 𝑇 ∈ L(𝑈 , 𝑉) possui inversa 𝑇 −1 então
𝛽 𝛽1 −1
 
[𝑇 −1 ]𝛽21 = [𝑇]𝛽2 .

vi) Sejam 𝑈 e 𝑉 espaços vetorial de dimensão finita com bases 𝛽 1 e


𝛽 2 , respectivamente. Então 𝑇 ∈ L(𝑈 , 𝑉) é invertível, se e somente
𝛽
se, det[𝑇]𝛽12 ≠ 0.

vii) Seja 𝑈 um espaço vetorial de dimensão finita. Se 𝑇 ∈ L(𝑈) e 𝛽 1 e


𝛽 𝛽
𝛽 2 são bases de 𝑈 , então [𝑇]𝛽2 = 𝑀𝛽21 · [𝑇]𝛽1 · 𝑀𝛽12 .

[𝑇]𝛽1
(𝑈 , 𝛽 1 ) / (𝑈 , 𝛽 1 )

𝛽 𝛽
𝑀𝛽 1 𝑀𝛽 1
2 2

 
(𝑈 , 𝛽 2 ) 𝛽 𝛽
/ (𝑈 , 𝛽 2 )
[𝑇]𝛽2 =𝑀𝛽 1 ·[𝑇]𝛽1 ·𝑀𝛽 2
2 1

Demonstração:

𝛽
i) Supondo 𝛽 1 = {𝑢1 , . . . , 𝑢𝑛 }, 𝛽 2 = {𝑣 1 , . . . , 𝑣 𝑚 }, [𝑇]𝛽12 = [𝑎 𝑖𝑗 ] e
80

𝛽
[𝑆]𝛽12 = [𝑏 𝑖𝑗 ] temos que

(𝑇 + 𝛼𝑆)𝑢 𝑗 = 𝑇𝑢 𝑗 + 𝛼𝑆𝑢 𝑗

= (𝑎1𝑗 · 𝑣 1 + · · · + 𝑎 𝑚 𝑗 · 𝑣 𝑚 ) + 𝛼 · (𝑏 1𝑗 · 𝑣1 + · · · + 𝑏 𝑚 𝑗 · 𝑣 𝑚 )

= (𝑎1𝑗 + 𝛼𝑏 1𝑗 ) · 𝑣1 + · · · + (𝑎 𝑚 𝑗 + 𝛼𝑏 𝑚 𝑗 ) · 𝑣 𝑚 .

Logo,
𝛽 𝛽 𝛽
[𝑇 + 𝛼𝑆]𝛽12 = [𝑎 𝑖𝑗 ] + 𝛼[𝑏 𝑖𝑗 ] = [𝑇]𝛽12 + 𝛼[𝑆]𝛽12 .

ii) Decorre do resultado anterior.

iii) Sejam 𝛽 1 = {𝑢1 , . . . , 𝑢𝑛 }, 𝛽 2 = {𝑣 1 , . . . , 𝑣 𝑛 } e [𝐼]12 = [𝑎 𝑖𝑗 ]. Temos


que
𝑢 𝑗 = 𝐼𝑢 𝑗 = 𝑎1𝑗 · 𝑣1 + · · · + 𝑎 𝑛 𝑗 · 𝑣 𝑛 .
𝛽 𝛽
Portanto [𝐼]𝛽12 = 𝑀𝛽21 .

iv) Considerando 𝛽 1 = {𝑢1 , . . . , 𝑢𝑛 }, 𝛽 2 = {𝑣1 , . . . , 𝑣 𝑚 } e 𝛽 3 =


𝛽 𝛽
{𝑤 1 , . . . , 𝑤 𝑝 }. Se [𝑇]𝛽12 = [𝑎 𝑖𝑗 ] e [𝑆]𝛽32 = [𝑏 𝑘𝑙 ] então

𝑛 𝑛
!
Õ Õ
𝑆 ◦ 𝑇𝑢 𝑗 = 𝑆 𝑎 𝑖𝑗 · 𝑣 𝑖 = 𝑎 𝑖𝑗 𝑆𝑣 𝑖
𝑖=1 𝑖=1

𝑛 𝑝 𝑝 𝑚
! !
Õ Õ Õ Õ
= 𝑎 𝑖𝑗 𝑏 𝑘𝑖 · 𝑤 𝑘 = 𝑏 𝑘𝑖 𝑎 𝑖𝑗 𝑤 𝑘 .
𝑖=1 𝑘=1 𝑘=1 𝑖=1

𝛽 𝛽 𝛽
Assim, [𝑆 ◦ 𝑇]𝛽13 = [𝑆]𝛽23 · [𝑇]𝛽12 .
81

v) Denote por 𝑛 como sendo dim 𝑈 = dim 𝑉. Assim,

𝛽 𝛽
[𝑇]𝛽12 · [𝑇 −1 ]𝛽21 = [𝑇 ◦ 𝑇 −1 ]𝛽2 = [𝐼]𝛽2 = 𝐼𝑛 .

Analogamente,

𝛽 𝛽
[𝑇 −1 ]𝛽21 · [𝑇]𝛽12 = [𝑇 −1 ◦ 𝑇]𝛽1 = [𝐼]𝛽1 = 𝐼𝑛 .

vi) Decorre da propriedade anterior

𝛽 𝛽 𝛽 𝛽
vii) Como [𝐼]𝛽12 = 𝑀𝛽21 e [𝐼]𝛽21 = 𝑀𝛽12 , temos

𝛽 𝛽 𝛽 𝛽 𝛽 𝛽
𝑀𝛽12 · [𝑇]𝛽2 · 𝑀𝛽21 = [𝐼]𝛽12 · [𝑇]𝛽1 · [𝐼]𝛽21 = [𝐼]𝛽12 · [𝑇]𝛽21 = [𝑇]𝛽2 . 

Exemplo 45. Sejam 𝑇 : R2 → R3 e 𝑆 : R3 → R2 transformações lineares


cujas matrizes são

 1 0 " #
𝛼
 
𝛽 1 0 1
[𝑇]𝛽 =  2 1  e [𝑆]𝛾 =
 
 
 −1 1  0 0 1
 
sendo 𝛼 = {(1, 0), (1, 1)}, 𝛽 = {(1, 1, 1), (1, 0, 1), (0, 0, 1)} e 𝛾 = {(1, 0), (0, 2)}.

Vamos encontrar a transformação linear 𝑆 ◦ 𝑇. Para isso,

" # 1 0 " #
1 0 1   0 1
[𝑆 ◦ 𝑇]𝛼𝛾 =  2 1= .

0 0 1   −1 1
 −1 1 

82

Para qualquer (𝑥, 𝑦) ∈ R2 , pelo Teorema 16 temos


" #
0 1
[(𝑆 ◦ 𝑇)(𝑥, 𝑦)]𝛾 = [(𝑥, 𝑦)]𝛼
−1 1

" #" #
0 1 𝑥−𝑦
=
−1 1 𝑦

" #
𝑦
=
2𝑦 − 𝑥

e, consequentemente,

(𝑆 ◦ 𝑇)(𝑥, 𝑦) = 𝑦(1, 0) + (2𝑦 − 𝑥)(0, 2) = (𝑦, 4𝑦 − 2𝑥).

Exemplo 46. Seja 𝑇 : R2 → R2 um operador linear tal que


" #
3 4
[𝑇] =
2 3

Note que 𝑇 é um isomorfismo, pois det([𝑇]) = 1 ≠ 0. Além disso,


" #
−1 3 −4
𝑇
 
=
−2 3

𝑒 " #" #
3 −4 𝑥
𝑇 −1 (𝑥, 𝑦) =
 
−2 3 𝑦
" #
3𝑥 − 4𝑦
=
−2𝑥 + 3𝑦
83

Portanto,
𝑇 −1 (𝑥, 𝑦) = (3𝑥 − 4𝑦, −2𝑥 + 3𝑦)

Exemplo 47. Dado o operador 𝑇 : R2 → R2 definido por

𝑇(𝑥, 𝑦) = (𝑥 + 2𝑦, 𝑦)

temos " # " #


1 2 𝛽 1 7 −2
[𝑇]𝛼𝛼 = 𝑒[𝑇]𝛽 =
0 1 3 8 −1
onde
𝛼 = {(1, 0), (0, 1)} e 𝛽 = {(1, 2), (1, −1)}

são bases ordenadas de R2 .


Portanto,
𝛽 𝛽
[𝑇]𝛽 = 𝑀𝛽𝛼 · [𝑇]𝛼𝛼 · 𝑀 𝛼

onde " #
1 1 1
𝑀𝛽𝛼 =
3 2 −1

Exemplo 48. Vamos determinar todos os isomorfismos de R2 sobre R2 .


Seja 𝑇 : R2 → R2 um isomorfismo qualquer. Então 𝑇 (𝑒1 ) = (𝑎, 𝑏) e
𝑇 (𝑒2 ) = (𝑐, 𝑑). Para todo (𝑥, 𝑦) ∈ R2 , temos que

𝑇(𝑥, 𝑦) = 𝑥𝑇 (𝑒1 ) + 𝑦𝑇 (𝑒2 ) = (𝑎𝑥 + 𝑐𝑦, 𝑏𝑥 + 𝑑𝑦)

e " #
𝑎 𝑐
[𝑇]{𝑒1 ,𝑒2 } =
𝑏 𝑑
A sobrejetividade de 𝑇 garante que para cada (𝑟, 𝑠) ∈ R2 , existe (𝑥, 𝑦) ∈ R2
84

tal que 𝑇(𝑥, 𝑦) = (𝑎𝑥 + 𝑐𝑦, 𝑏𝑥 + 𝑑𝑦) = (𝑟, 𝑦) se, somente se, o sistema
(
𝑎𝑥 + 𝑐𝑦 = 𝑟
𝑏𝑥 + 𝑑𝑦 = 𝑠

é possível e determinado. Logo, 𝑎𝑑 − 𝑏𝑐 ≠ 0.


Portanto, todo isomorfismo de R2 sobre R2 é da forma

𝑇(𝑥, 𝑦) = (𝑎𝑥 + 𝑐𝑦, 𝑏𝑥 + 𝑑𝑦),

com 𝑎𝑑 − 𝑏𝑐 ≠ 0.

2.14 Exercícios

1. Suponha que 𝑈 e 𝑉 sejam dois espaços vetoriais e que 𝛽 1 e 𝛽 2 sejam


bases de 𝑈 e 𝑉 respectivamente, com dim 𝑈 = 𝑚 e dim 𝑉 = 𝑛.
Mostre que a aplicação

Φ : L(𝑈 , 𝑉) → M𝑚×𝑛 (R),

definida por
𝛽
Φ(𝑇) = [𝑇]𝛽12

é um isomorfismo linear.

2. Seja 𝑇 o operador no R3 definido por:

𝑇(𝑥, 𝑦, 𝑧) = (2𝑥, 4𝑥 − 𝑦, 2𝑥 + 3𝑦 − 𝑧)

(a) Mostre que 𝑇 é invertível.


(b) Encontre 𝑇 −1 .

3. Sejam 𝛽 1 = {(0, 2), (2, −1)} e 𝛽 2 = (1, 1, 0), (0, 0, −1), (1, 0, 1) bases
85

de R2 e R3 . Se
2 0 
𝛽1
 
[𝑆]𝛽2 =  4 0  .
 
 
 0 −4 
 
Dê a expressão para 𝑆(𝑥, 𝑦).

4. Sendo 𝛽 1 = {(2, 1), (1, 0)} , 𝛽 2 a base canônica de M2 (R) e


𝑇 : R2 → M2 (R) a transformação linear que tem a matriz

4 2
 

 
𝛽1 2 1 
.

[𝑇]𝛽2 = 
 3 1 
 
 3 0
 

Determine 𝑇.

5. Verifique se os operadores lineares em R3 abaixo são isomorfismos


e em caso afirmativo determinar o isomorfismo inverso.

(a) 𝑇(𝑥, 𝑦, 𝑧) = (𝑥 − 3𝑦 − 2𝑧, 𝑦 − 4𝑧, 𝑧)


(b) 𝑇(𝑥, 𝑦, 𝑧) = (𝑥, 𝑥 − 𝑦, 2𝑥 + 𝑦 − 𝑧).

6. Considere 𝑇 : R2 → R2 dada por 𝑇(𝑥, 𝑦) = (𝑦, 𝑥), (𝑥, 𝑦) ∈ R2 .


Determine 𝑇 𝑛 (𝑥, 𝑦), onde 𝑛 é um número natural e (𝑥, 𝑦) ∈ R2 .

7. Seja 𝛽 = {𝑒1 , 𝑒2 , 𝑒3 } uma base de um espaco vetorial 𝑉. Se


𝑇, 𝑆 : 𝑉 → 𝑉 são operadores lineares em 𝑉 tais que

𝑇(𝑒1 ) = 2𝑒1 − 3𝑒2 + 𝑒3 , 𝑇(𝑒2 ) = 𝑒1 + 𝑒2 , 𝑇(𝑒3 ) = 𝑒2 + 𝑒3

𝑆(𝑒1 ) = 3𝑒1 + 2𝑒2 , 𝑆(𝑒2 ) = 𝑒1 − 𝑒2 − 𝑒3 , 𝑆(𝑒3 ) = 𝑒1 + 𝑒2 − 2𝑒3 .


86

Determine [𝑇]𝛽 , [𝑆]𝛽 , [𝑆 ◦ 𝑇]𝛽 , [𝑆 2 + 𝐼]𝛽 e [𝑇 3 − 𝑆 2 ]𝛽 .

8. Dadas as bases
𝛼 = {(1, 1) , (1, −1)} ⊂ R2

𝛽 = {(1, 1, 0) , (1, 0, 1) , (0, 1, 1)} ⊂ R3 .

Encontre a transformação linear 𝑇 : R3 → R2 tal que


!
𝛽 1 1 1
[𝑇]𝛼 = .
1 2 1
Capítulo 3

Autovalores e Autovetores

Sejam 𝑉 um espaço vetorial de dimensão finita e 𝑇 : 𝑉 → 𝑉 um


operador linear. Neste capítulo, vamos nos reservar ao estudo de
encontrar uma base de 𝑉 no qual a matriz de 𝑇, em relação a essa
base, tenha a forma mais simples possível.

3.1 Autovalores e Autovetores de Transformações


Lineares e Matrizes

Vimos no capítulo anterior que toda transformação linear possui


um única matriz associada. Assim, um questionamento natural é:
existe uma forma mais simplificada de representar tal matriz?
Para responder o questionamento acima precisamos introduzir a
noção de subespaços invariantes. Dizemos que um subespaço Vetorial
𝑈 ⊂ 𝑉 é invariante pelo operador linear 𝑇 : 𝑉 → 𝑉 quando 𝑇(𝑈) ⊂ 𝑈.

Observação 20. A existência de um subespaço invariante permite o estudo


de um operador mais simples: a restrição 𝑇 |𝑈 : 𝑈 → 𝑈.

Exemplo 49. Listemos os exemplos mais básicos de subespaços invariantes


por um operador linear 𝑇 : 𝑉 → 𝑉.

87
88

n o
i) O vetor nulo 0® e o próprio 𝑉 são invariantes;

ii) O núcleo N(𝑇) e a imagem I𝑚(𝑇) são subespaços invariante.

iii) Um subespaço 𝑈 de dimensão 1 é invariante por 𝑇, se e somente se,


existe 𝜆 tal que 𝑇𝑣 = 𝜆 · 𝑣, para todo 𝑣 ∈ 𝑈.

Seja 𝑇 : 𝑉 → 𝑉 uma transformação linear. Estamos interessados


em saber quais vetores são levados em um múltiplo de si mesmo. Isto
significa dizer que estamos procuramos um vetor 𝑣 ∈ 𝑉 e um escalar
𝜆 ∈ R tais que 𝑇𝑣 = 𝜆 · 𝑣. Neste caso 𝑇𝑣 será um vetor de mesma
direção que 𝑣.
Note que 𝑣 = 0® satisfaz a equação 𝑇𝑣 = 𝜆 · 𝑣, para todo 𝜆. Iremos
nos preocupar em determinar vetores 𝑣 ≠ 0® tais que 𝑇𝑣 = 𝜆 · 𝑣. O
número real 𝜆 será chamado autovalor ou valor característico de 𝑇 e o
vetor 𝑣 um autovetor ou vetor característico de 𝑇. Formalizemos este
conceito.
® e
Seja 𝑇 : 𝑉 → 𝑉 um operador linear. Se existem 𝑣 ∈ 𝑉 , 𝑣 ≠ 0,
𝜆 ∈ R tais que 𝑇𝑣 = 𝜆 · 𝑣, dizemos que 𝑣 é um autovetor associado a 𝜆.
O número 𝜆 é chamado de um autovalor de 𝑇 associado ao autovetor
𝑣.

Observação 21. O número 𝜆 pode ser igual a 0, mas o vetor 𝑣 não pode ser
nulo.

Observação 22. Achar um autovetor do operador 𝑇, é achar um subespaço


de dimensão 1 invariante por 𝑇.

Exemplo 50. Na transformação 𝑇 : R2 → R2 definida por 𝑇(𝑥, 𝑦) =


(2𝑥, 2𝑦) tem o número 2 é um autovalor de 𝑇 e qualquer (𝑥, 𝑦) ≠ (0, 0)
89

é um autovetor de 𝑇 associado ao autovalor 2. De fato,


" # " # " # " #
2 0 𝑥 2𝑥 𝑥
𝑇(𝑥, 𝑦) = · = =2· .
0 2 𝑦 2𝑦 𝑦

Proposição 13. Se 𝑣 é um autovetor do operador linear 𝑇 : 𝑉 → 𝑉 então


𝑢 = 𝛼 · 𝑣 (𝛼 ≠ 0) também é autovetor de 𝑇 associado a 𝜆.

Demonstração: Basta observar que:

𝑇𝑢 = 𝑇(𝛼 · 𝑣) = 𝛼𝑇𝑣 = 𝛼 · (𝜆 · 𝑣) = 𝜆 · (𝛼 · 𝑣) = 𝜆 · 𝑢. 

Seja 𝜆 um autovalor de um operador 𝑇 : 𝑉 → 𝑉. O conjunto

𝑉𝜆 = {𝑣 ∈ 𝑉; 𝑇𝑣 = 𝜆 · 𝑣}

é chamado de autoespaço de 𝑇 associado a 𝜆. Note que 𝑉𝜆 é um


subespaço vetorial de 𝑉 associado ao autovalor 𝜆. De fato, dados
𝑣, 𝑢 ∈ 𝑉 , 𝜆 ∈ R temos

𝑇(𝑣 + 𝛼 · 𝑢) = 𝑇𝑣 + 𝛼𝑇𝑢 = 𝜆 · 𝑣 + 𝛼(𝜆𝑢) = 𝜆(𝑣 + 𝛼 · 𝑢).

Assim, 𝑣 + 𝛼 · 𝑢 é um autovetor associado a 𝜆. Portanto, 𝑉𝜆 é um


subespaço de 𝑉.

Observação 23. a) O autoespaço de 𝑇 associado a 𝜆 é

𝑉𝜆 = N(𝑇 − 𝜆 · 𝐼);
n o
b) Se 𝑢 ∈ 𝑉𝜆 \ 0® então 𝑢 é um autovetor de 𝑇 associado ao autovalor 𝜆;
n o
c) Para dois autovalores distintos 𝜆1 , 𝜆2 de 𝑇 temos que 𝑉𝜆1 ∩ 𝑉𝜆2 = 0® ;

d) O subespaço e 𝑉𝜆 é um subespaco invariante por 𝑇, isto e, 𝑇(𝑉𝜆 ) ⊂ 𝑉𝜆 .


90

Exemplo 51. Vamos determinar os autovalores e os autoespaços associado


a esses autovalores da aplicação linear 𝑇(𝑥, 𝑦) = (3𝑥 + 2𝑦, −𝑦). Para isso,
devemos resolver a equação 𝑇(𝑣) = 𝜆 · 𝑣, isto é,

(3𝑥 + 2𝑦, −𝑦) = (𝜆𝑥, 𝜆𝑦);

Isto é, devemos resolver o sistema:


(
3𝑥 + 2𝑦 = 𝜆𝑥
− 𝑦 = 𝜆𝑦

Dividiremos em casos:
i) Se 𝑦 ≠ 0, a segunda equação diz que 𝜆 = −1 e voltando a primeira
equação temos 𝑦 = −2𝑥. Portanto,

𝑉−1 = [(1, −2)].

ii) Se 𝑦 = 0 então 𝑥 ≠ 0. Assim 𝜆 = 3 e

𝑉3 = [(1, 0)].

Definiremos agora a noção de autovetores e autovalores de uma


matriz quadrada. Dada uma matriz quadrada, 𝐴 ∈ M𝑛 (R), os
autovalores e autovetores de 𝐴, são os autovalores e autovetores da
transformação linear 𝑇𝐴 : R𝑛 → R𝑛 , associada a matriz 𝐴 em relação à
base canônica, isto é, 𝑇𝐴 𝑣 = 𝐴 · 𝑣 (na forma coluna).
Exemplo 52. Dada a matriz diagonal

 𝑎11 · · · 0 
.. . . . ..
 
𝐴= . .
 

 

 0 · · · 𝑎 𝑛𝑛 

91

e dados os vetores

𝑒1 = (1, 0, 0, . . . , 0), 𝑒2 = (0, 1, 0, . . . , 0), . . . , 𝑒 𝑛 = (0, 0, 0, . . . , 1),

temos que
  0
..
 
.
 
 
𝐴 · 𝑒 𝑖 = 
𝑎 𝑖𝑖  = 𝑎 𝑖𝑖 · 𝑒 𝑖 .
 
.. 
. 


 
0  

Assim, estes vetores da base canônica de R𝑛 são autovalores para 𝐴 e o
autovetor 𝑒 𝑖 é associado ao autovalor 𝑎 𝑖𝑖 .

Teorema 17. Seja 𝑇 : 𝑉 → 𝑉 uma transformação linear. Se {𝑣1 , 𝑣2 , . . . , 𝑣 𝑘 }


são vetores não-nulos em 𝑉 tais que 𝑇𝑣 𝑖 = 𝜆 𝑖 · 𝑣 𝑖 , onde 𝜆 𝑖 são dois a dois
disjuntos, então {𝑣1 , . . . , 𝑣 𝑘 } é um conjunto l.i..

Demonstração: A demonstração será feita por indução sobre o


número de autovetores.

i) Para 𝑙 = 1, o resultado é óbvio;

ii) Suponha que o resultado vale para 𝑙 = 𝑘 − 1;

iii) Provemos que o resultado vale 𝑙 = 𝑘. Sejam 𝜆1 , . . . , 𝜆 𝑘 um


conjunto de autovalores de 𝑇, dois a dois distintos, associados
aos autovetores 𝑣1 , . . . , 𝑣 𝑘 respectivamente.
Suponha que
®
𝑎1 · 𝑣 1 + · · · + 𝑎 𝑘 · 𝑣 𝑘 = 0. (3.1)

Aplicando 𝑇 a esta equação obtemos

®
𝑎1 · 𝑇𝑣 1 + · · · + 𝑎 𝑘 · 𝑇𝑣 𝑘 = 0,
92

o que nos dá

®
𝑎1 · 𝜆1 · 𝑣1 + · · · + 𝑎 𝑘 · 𝜆 𝑘 · 𝑣 𝑘 = 0. (3.2)

Multiplicando a equação (3.1) por 𝜆 𝑘 e subtraindo pela equação


(3.2) temos que

®
𝑎1 · (𝜆1 − 𝜆 𝑘 ) · 𝑣1 + · · · + 𝑎 𝑘−1 · (𝜆 𝑘−1 − 𝜆 𝑘 ) · 𝑣 𝑘−1 = 0.

Pela hipótese de indução, sabemos que 𝑣1 , . . . , 𝑣 𝑘−1 são l.i.. Assim,

𝑎1 · (𝜆1 − 𝜆 𝑘 ) = · · · = 𝑎 𝑘−1 · (𝜆 𝑘−1 − 𝜆 𝑘 ) = 0.

Como 𝜆 𝑘 − 𝜆 𝑖 ≠ 0 segue que 𝑎1 = · · · = 𝑎 𝑘−1 = 0.

Voltando a equação (3.1) temos que

0® = 𝑎1 · 𝑣 1 + · · · + 𝑎 𝑘−1 · 𝑣 𝑘−1 + 𝑎 𝑘 · 𝑣 𝑘 = 𝑎 𝑘 · 𝑣 𝑘 .

Portanto, 𝑎 𝑘 = 0. 

Corolário 8. Seja 𝑉 é um espaço vetorial de dimensão 𝑛 e 𝑇 : 𝑉 → 𝑉 é


um operador linear que possui 𝑛 autovalores distintos. Então a representação
matricial de 𝑇 nessa base é diagonal.

3.2 Exercícios

1. Encontre os autovalores e autovetores correspondentes dos


seguintes operadores lineares:

(a) 𝑇 : R4 → R4 dada por 𝑇(𝑥, 𝑦, 𝑧, 𝑤) = (𝑥, 𝑥 + 𝑦, 𝑥 + 𝑦 + 𝑧, 𝑥 +


𝑦 + 𝑧 + 𝑤);
93

(b) 𝑇 : M𝑛 (R) → M𝑛 (R) dada por 𝑇(𝐴) = 𝐴𝑡 = transposta da


matriz 𝐴.

2. Se 𝑈 , 𝑊 ⊂ 𝑉 são subespaços vetoriais do espaço vetorial 𝑉 , e


além disso são invariante pelo operdor linear 𝑇 : 𝑉 → 𝑉 , prove
que 𝑈 ∩ 𝑊 e 𝑈 + 𝑊 também são invariantes por 𝑇.

3. Sejam 𝑇, 𝑆 : 𝑉 → 𝑉 , operdores lineares, tais que 𝑇 ◦ 𝑆 = 𝑆 ◦ 𝑇.


Prove que a imagem por 𝑇 de um subespaço invariante 𝑆 é ainda
invariante por 𝑆.

4. Se todo vetor não nulo do espaço vetorial 𝑉 for um autovetor do


operdor linear 𝑇 : 𝑉 → 𝑉 , prove que 𝑇 = 𝜆 · 𝐼.

5. Seja 𝑉 um espaço vetorial de dimensão 𝑛. Se o operador linear


𝑇 : 𝑉 → 𝑉 possui 𝑛 autovalores distintos, quanto subespaço
invariante por 𝑇 existem no espaço 𝑉. Justifique a sua resposta.

6. Para cada matriz, encontre os autovalores e uma base para o


autoespaço:

" #  1 0 −1 
2 1  
𝐴= , 𝐵 =  −2 3 −1 
 
1 2 
 −6 6 0 

 
e
 cos 𝜃 −sen 𝜃 0 
 
𝐶 =  sen 𝜃 cos 𝜃 0  .
 
 
 0 0 1 
 
7. Mostre que se 𝜆 é autovalor do operador linear 𝑇 : 𝑉 → 𝑉 , então
𝜆𝑛 é autovalor de 𝑇 𝑛 .
94

8. Prove que o operador linear 𝑇 : 𝑉 → 𝑉 é invertível se, e somente


se, 𝑇 não admite o autovalor 𝜆 = 0.

9. Seja o operador linear 𝑇 : 𝑉 → 𝑉. Mostre que se 𝑇 é invertível e


𝜆 ≠ 0 é um autovalor de 𝑇 associado ao autovetor 𝑣, então 𝜆−1 é
um autovetor de 𝑇 −1 associado ao autovetor 𝑣.

10. Sejam os operadores lineares 𝑇, 𝑆 : 𝑉 → 𝑉 , tal que 𝑇 ◦ 𝑆 = 𝑆 ◦ 𝑇.


® então 𝑆𝑣 é um autovetor de 𝑇.
Se 𝑣 é um autovetor de 𝑇 e 𝑆𝑣 ≠ 0,

11. Estude se são verdadeiras ou falsas as seguintes afirmações:

(a) se 𝜆1 e 𝜆2 são autovalores de uma transformação linear 𝑇


então 𝜆1 + 𝜆2 também é um autovalor,
(b) não existe nenhuma transformação linear de R3 em R3
tendo somente dois autovalores distintos e no máximo dois
autovetores l.i..

12. Encontre todos os autovalores e uma base de cada autoespaço do


operador 𝑇 : R3 → R3 , definido por

𝑇(𝑥, 𝑦, 𝑧) = (2𝑥 + 𝑦, 𝑦 − 𝑧, 2𝑦 + 4𝑧).

13. Lembremos que um operador linear 𝑇 : 𝑉 → 𝑉 é dito nilpotente


se alguma potência 𝑇 𝑘 = 𝑇 ◦ · · · ◦𝑇 se anula, isto é, 𝑇 𝑘 é o operador
nulo.
n o
(a) Mostre que se 𝑇 ≠ 0 e 𝑇2 = 0 então N(𝑇) ≠ 0® . (Sugestão:
tome 𝑣 ∈ 𝑉 tal que 𝑇𝑣 ≠ 0® e verifique que 𝑤 = 𝑇𝑣 ∈ N(𝑇).)

n o se 𝑇 é nilpotente então 0 é autovalor de 𝑇, isto é,


(b) Mostre que
N(𝑇) ≠ 0® . (Sugestão: a afirmação é óbvia se 𝑇 = 0. Caso
95

contrário existe uma potência 𝑘 tal que 𝑇 𝑘 = 0 e 𝑇 𝑘−1 ≠ 0.


Então, para algum 𝑣 ∈ 𝑉, 0 ≠ 𝑇 𝑘−1 𝑣 ∈ N(𝑇).)
(c) Suponha que 𝑇 é nilpotente e seja 𝜆 autovalor de 𝑇. Mostre
que 𝜆 = 0. (Sugestão: use o exercício anterior para mostrar
que alguma potência 𝜆 𝑘 = 0.)

14. Sejam 𝑇 : 𝑉 → 𝑉 um operador linear e 𝛼 uma base de 𝑉. Suponha


que 0 não é autovalor de 𝑇 e mostre que det [𝑇]𝛼 ≠ 0.

3.3 Polinômio Característico

Desejamos procurar um método prático para encontrar autovalores


e autovetores de uma matriz 𝐴 ∈ M𝑛 (R).
Dada 𝐴 ∈ M𝑛 (R) definimos o polinômio característico de 𝐴 como
sendo o determinante

𝑝 𝐴 (𝜆) = det (𝐴 − 𝜆 · 𝐼),

onde 𝐼 e a matriz identidade de ordem 𝑛.


Seja 𝐴 uma matriz de ordem 𝑛. Quais são os autovalores e
autovetores correspondentes a 𝐴?
São exatamente aqueles que satisfazem a equação 𝐴𝑣 = 𝜆 · 𝑣 ou
𝐴𝑣 = (𝜆 · 𝐼)𝑣 ou (𝐴 − 𝜆 · 𝐼)𝑣 = 0. Escrevendo esta última equação
explicitamente, temos

 𝑎 −𝜆 𝑎 12 ··· 𝑎1𝑛
  𝑥1   0 
  
 11  
 𝑎21 𝑎22 − 𝜆 𝑎2𝑛   𝑥2   0 
     
···
.
.. .. ... .. · ..  =  .. 


 . .   .   . 
 𝑎 𝑛1 𝑎 𝑛2 · · · 𝑎 𝑛𝑛 − 𝜆   𝑥𝑛   0 
     

| {z }    
𝐵
96

Escrevendo 𝐵 · 𝑣 = 0, se o determinante de 𝐵 for diferente de 0,


sabemos que o sistema de equações lineares  homogêneo
 acima tem
única solução trivial 𝑥 1 = 𝑥 2 = . . . = 𝑥 𝑛 = 0 ou 𝑣 = 0® . Mas, sabemos
® Assim, impondo a condição
que a definição de autovetor exclui 𝑣 = 0.
® o sistema homogêneo (𝐴 − 𝜆 · 𝐼) · 𝑣 = 0 tem solução (não
𝑣 ≠ 0,
trivial) se, e somente se, a matriz 𝐵 = 𝐴 − 𝜆 · 𝐼 é não invertível, o que
significa que 𝐵 = 𝐴 − 𝜆 · 𝐼 não é linha equivalente à identidade ou
det 𝐵 = det(𝐴 − 𝜆 · 𝐼) = 0.

Por fim, note que

 𝑎 −𝜆 𝑎12 ··· 𝑎1𝑛



 11 
 𝑎21 𝑎22 − 𝜆 𝑎2𝑛 
 
···
𝑃(𝜆) = det (𝐴 − 𝜆 · 𝐼) = det  .. .. ... ..
 . . . 

 𝑎 𝑛1 𝑎 𝑛2 · · · 𝑎 𝑛𝑛 − 𝜆 
 
 

Sejam 𝐴, 𝐵 ∈ M𝑛 (R).Dizemos que 𝐴, 𝐵 são matrizes semelhantes se


existir 𝑀 ∈ M𝑛 (R) invertível tal que 𝐴 = 𝑀 −1 · 𝐵 · 𝑀.

Proposição 14. Se 𝐴, 𝐵 ∈ M𝑛 (R) são matrizes semelhantes então seus


polinômios característicos são iguais.
97

Demonstração: Basta verificar que 𝑝 𝐴 (𝜆) = 𝑝 𝐵 (𝜆). De fato,

𝑝 𝐴 (𝜆) = det (𝐴 − 𝜆 · 𝐼)

= det(𝑀 −1 · 𝐵 · 𝑀 − 𝜆 · 𝑀 −1 · 𝐼 · 𝑀)

= det (𝑀 −1 · (𝐵 · 𝑀 − 𝜆 · 𝐼 · 𝑀))

= det (𝑀 −1 · (𝐵 − 𝜆 · 𝐼) · 𝑀)

= det 𝑀 −1 · det (𝐵 − 𝜆 · 𝐼) · det 𝑀

= (det 𝑀)−1 · det (𝐵 − 𝜆 · 𝐼) · det 𝑀

= 𝑃𝐵 (𝜆)

Note que pelo o que foi provado acima, temos que dado um
operadores linear 𝑇 : 𝑉 → 𝑉 e duas bases de 𝑉 , 𝛽 1 , 𝛽 2 , então

𝛽 𝛽 𝛽 𝛽
[𝑇]𝛽2 = 𝑀𝛽21 · [𝑇]𝛽1 · 𝑀𝛽12 = (𝑀𝛽12 )−1 · [𝑇]𝛽1 · 𝑀𝛽12 .

O que foi dito acima implica que,

𝑝 [𝑇]𝛽1 (𝜆) = 𝑝[𝑇]𝛽2 (𝜆),

ou seja, o polinômio característico da matriz de uma transformação


linear independe da escolha da base.
Dessa maneira, podemos definir o polinômio característico de 𝑇
como sendo
𝑝𝑇 (𝜆) = 𝑝[𝑇]𝛽1 (𝜆) = 𝑝 [𝑇]𝛽2 (𝜆)
98

Exemplo 53. Seja 𝑇 : R2 → R2 dada por 𝑇(𝑥, 𝑦) = (𝑎𝑥 + 𝑏𝑦, 𝑐𝑥 + 𝑑𝑦).


Temos que 𝑃𝑇 (𝜆) = 𝜆2 − (𝑎 + 𝑑)𝜆 + 𝑎𝑏 − 𝑏𝑐.
Exemplo 54. Seja 𝑇 : R2 → R2 dada por 𝑇(𝑥, 𝑦) = (2𝑥 + 4𝑦, 3𝑥 + 𝑦).
Vamos calcular o polinômio característico de 𝑇.
Denotando por 𝛼 como sendo a base canônica do R2 , temos que
" #
2 4
[𝑇]𝛼 = .
3 1

Assim,
𝑝(𝜆) = 𝜆2 − 5𝜆 + 4.
Proposição 15. Sejam 𝑉 um espaco vetorial de dimensão finita e 𝑇 : 𝑉 → 𝑉
um operador linear. Então as afirmações abaixo são equivalente:
1. 𝜆 é um autovalor de 𝑇;

2. 𝑝𝑇 (𝜆) = 0.
Demonstração: Suponha que 𝜆 seja um autovalor de 𝑇. Então existe
𝑣 ≠ 0® tal que
𝑇𝑣 = 𝜆 · 𝑣,

ou seja,
®
(𝑇 − 𝜆 · 𝐼)𝑣 = 0.

Desta forma, vemos que a transformação linear 𝑇 − 𝜆 · 𝐼 : 𝑉 → 𝑉 não


é injetora e, consequentemente, não é um isomorfismo. Disto resulta
que [𝑇 − 𝜆 · 𝐼]𝛽 não é invertível, ou equivalentemente,

𝑝𝑇 (𝜆) = det [𝑇 − 𝜆 · 𝐼]𝛽 = 0.

Reciprocamente, se 𝑝𝑇 (𝜆) = 0 então a matriz [𝑇 − 𝜆 · 𝐼]𝛽 tem


determinante nulo. Isto implica que a transformação 𝑇 − 𝜆 · 𝐼 : 𝑉 → 𝑉
99

não é um isomorfismo e, portanto, não é injetora. Logo, existe 𝑣 ≠ 0® tal


® Portanto, 𝑇𝑣 = 𝜆 · 𝑣, 𝑣 ≠ 0,
que (𝑇 − 𝜆 · 𝐼)𝑣 = 0. ® isto é, 𝜆 é um autovalor
de 𝑇. 

Exemplo 55. Pelo o exemplo 54 temos que os autovalores de 𝑇(𝑥, 𝑦) =


(2𝑥 + 4𝑦, 3𝑥 + 𝑦) são 𝜆1 = 1 e 𝜆2 = 4. Além disso, uma base para 𝑉1 e 𝑉4
são, respectivamente, {(2, −1)} e {(1, 1)}.

O conjunto dos autovalores de 𝑇 é chamado o espectro de 𝑇 e será


denotado por 𝜎(𝑇), isto é,

𝜎(𝑇) = {𝜆 ∈ R; 𝑝𝑇 (𝜆) = 0}.

A multiplicidade algébrica de um autovalor de 𝑇 é sua multiplicidade


como raiz do polinômio característico. Portanto, se 𝑚(𝑎)𝜆0 := 𝑑 é a
multiplicidade algébrica do autovalor 𝜆0 então podemos decompor o
polinômio característico de 𝑇 como

𝑝𝑇 (𝜆) = (𝜆 − 𝜆0 )𝑑 · 𝑞(𝑡)

e 𝑞(𝑡) não possui 𝜆0 como raiz. A multiplicidade geométrica do


autovalor 𝜆0 , é a dimensão do autoespaço 𝑉𝜆 , isto é, 𝑚(𝑔)𝜆0 := dim 𝑉𝜆 .

Proposição 16. Usando a notação acima, temos que 𝑚(𝑔)𝜆0 ≤ 𝑚(𝑎)𝜆0 .

Demonstração: Seja {𝑣 1 , . . . , 𝑣 𝑛 } uma base de 𝑉𝜆0 . Completando estes


100

vetores a uma base de 𝑉, a matriz com relação a esta base é da forma

𝜆0 0 · · · 0 
   
  
0 𝜆0 · · ·
   
0 
𝐴𝑚(𝑔)𝜆0 ×(𝑛−𝑚(𝑔)𝜆0 )
  
.. .. . . . .. 
  



 . . .  
 .
0 · · · 𝜆0 
   
  0 
   𝑚(𝑔)𝜆0 ×𝑚(𝑔)𝜆0 
𝐵(𝑛−𝑚(𝑔)𝜆0 )×(𝑛−𝑚(𝑔)𝜆0 )
 

 0(𝑛−𝑚(𝑔)𝜆0 )×𝑚(𝑔)𝜆0 
 𝑛×𝑛

Como o fator (𝜆 − 𝜆0 )𝑚(𝑔)𝜆0 está presente na fatoração de 𝑝𝑇 (𝜆) temos


que 𝑚(𝑔)𝜆0 ≤ 𝑚(𝑎)𝜆0 . 

3.4 Exercícios

1. Encontre o polinômio característico das seguintes transformações:

(a) 𝑇 : R2 → R2 , 𝑇(𝑥, 𝑦) = (𝑥, 𝑦)


(b) 𝑇 : R2 → R2 , 𝑇(𝑥, 𝑦) = (𝑦, 𝑥)
(c) 𝑇 : R3 → R3 , 𝑇(𝑥, 𝑦, 𝑧) = (2𝑥, 𝑦 + 𝑧, 5𝑥 + 𝑧)
(d) 𝑇 : R4 → R4 , 𝑇(𝑥, 𝑦, 𝑧, 𝑤) = (6𝑥, 6𝑦, 6𝑧, 6𝑤)
(e) 𝑇 : R6 → R6 , 𝑇(𝑥1 , 𝑥2 , 𝑥3 , 𝑥4 , 𝑥5 , 𝑥6 ) = (𝑥 4 , 0, 0, 0, 0, 0)
(f) 𝑇 : R → R, 𝑇(𝑥) = 3𝑥

2. Calcule o polinômio característico das matrizes do Exercício 6 da


seção 3.5.

3. Sejam 𝐴 e 𝐵 matrizes 3 × 3 com polinômios caracteristicos

−𝜆3 − 2𝜆2 + 𝜆 + 5

e
−𝜆3 − 2𝜆2 .
101

Calcule os determinantes de 𝐴 e 𝐵.

4. Demonstre que se 𝑇 : 𝑉 → 𝑉 é invertível então 𝑝𝑇◦𝑆 (𝑡) = 𝑝 𝑆◦𝑇 (𝑡),


onde 𝑆 : 𝑉 → 𝑉 é um operador linear.

3.5 Operadores Diagonalizáveis

Seja 𝑇 : 𝑉 → 𝑉 um operador linear. Estamos à procura de uma


base 𝛽 de 𝑉 tal que [𝑇]𝛽 seja uma matriz diagonal, que neste caso é a
forma mais simples possível para uma matriz de uma transformação.
Sejam 𝑉 um espaço vetorial de dimensão finita e 𝑇 : 𝑉 → 𝑉.
Dizemos que 𝑇 e diagonalizável se existir uma base de 𝑉 formada por
autovetores de 𝑇.

Teorema 18. Sejam 𝑉 um espaco vetorial de dimensão finita e 𝑇 : 𝑉 → 𝑉.


Então 𝑇 é diagonalizável se, e somente se, existir uma base de 𝑉 com relação
a qual a matriz de 𝑇 e diagonal.

Demonstração: Seja 𝛽 = {𝑣 1 , . . . , 𝑣 𝑛 } uma base de 𝑉 formada


autovetores de 𝑇 associados, respectivamente, aos autovalores 𝜆1 , . . . ,
𝜆𝑛 . Não é difícil observar que matriz de 𝑇 com relação a esta base é

𝜆1 0 · · · 0 
 

0 𝜆2 · · ·
 
0 
..  .

[𝑇]𝛽 =  .. .. . . .
 . . . 
0 · · · 𝜆𝑛 
 
 0
 
102

Reciprocamente se

𝜆1 0 · · · 0 
 

0 𝜆2 · · ·
 
0 
..  ,

[𝑇]𝛽 =  .. .. . . .
 . . . 
0 · · · 𝜆𝑛 
 
 0
 
então pela própria definicão de matriz de uma transformação linear,
vemos que 𝑇(𝑣 𝑖 ) = 𝜆 𝑖 · 𝑣 𝑖 .

Dizemos que uma matriz 𝐴 ∈ M𝑛 (R) é diagonalizável se existir
𝑀 ∈ M𝑛 (R) invertível tal que 𝑀 −1 · 𝐴 · 𝑀 seja uma matriz diagonal.

Teorema 19. Sejam 𝑉 um espaço vetorial de dimensão finita, 𝑇 : 𝑉 → 𝑉 e 𝛽


uma base qualquer de 𝑉. Então 𝑇 e diagonalizável se, e somente se, a matriz
[𝑇]𝛽 for diagonalizável.

Demonstração: Se 𝑇 for diagonalizável, é claro que [𝑇]𝛽 é


diagonalizável. Reciprocamente, suponha que a matriz [𝑇]𝛽 seja
diagonalizável, isto é, existe 𝑀 = [𝑎 𝑖𝑗 ] ∈ M𝑛 (R) invertível tal que

𝑀 −1 · [𝑇]𝛽 · 𝑀

é uma matriz diagonal. Suponha que 𝛽 = {𝑣1 , . . . , 𝑣 𝑛 }. Como 𝑀 é


invertível, o conjunto 𝛾 = {𝑢1 , . . . , 𝑢𝑛 }, onde

𝑢 𝑗 = 𝑎1𝑗 · 𝑣 1 + · · · + 𝑎 𝑛 𝑗 · 𝑣 𝑛 ,

𝛾
é uma base de 𝑉. Denotando, 𝑀 = 𝑀𝛽 temos que

𝛽 𝛾
[𝑇]𝛾 = 𝑀 𝛾 · [𝑇]𝛽 · 𝑀𝛽 = 𝑀 −1 · [𝑇]𝛽 · 𝑀. 
103

Teorema 20. Sejam 𝑉 um espaço vetorial de dimensão finita e 𝑇 : 𝑉 → 𝑉.


Então, 𝑇 é diagonalizável se, e somente se, os autovalores 𝜆1 , . . . , 𝜆 𝑘 de 𝑇
forem tais que
𝑉 = 𝑉𝜆1 ⊕ · · · ⊕ 𝑉𝜆 𝑘 .

Demonstração: Se 𝑉 = 𝑉𝜆1 ⊕ · · · ⊕ 𝑉𝜆 𝑘 é claro que 𝑇 é diagonalizável.


Reciprocamente, suponha 𝑇 diagonalizável. Seja 𝛽 = {𝑣1 , . . . , 𝑣 𝑛 }
uma base de 𝑉 formada por autovetores de 𝑇 associados aos
autovalores distintos {𝜆1 , . . . , 𝜆 𝑘 }. Note que cada vetor da base 𝛽
está contido em algum 𝑉𝜆𝑖 . Consequentemente, a soma de todos
os autoespaços de de 𝑇 contém a base 𝛽, e é o próprio 𝑉. Como
𝑉𝜆𝑖 ∩ 𝑉𝜆 𝑗 = {0}, para todo 𝑖 ≠ 𝑗, 𝑖, 𝑗 = 1, . . . , 𝑘, temos

𝑉 = 𝑉𝜆1 ⊕ · · · ⊕ 𝑉𝜆 𝑘 . 

Teorema 21. Sejam 𝑇 : 𝑉 → 𝑉 um operador linear com dim 𝑉 = 𝑛


e 𝜆1 , 𝜆2 , . . . , 𝜆 𝑘 autovalores distintos. Então as seguintes condições são
equivalentes:

1. 𝑇 é diagonalizável;

2. 𝑚(𝑎)𝜆𝑖 = 𝑚(𝑔)𝜆𝑖

Demonstração: Suponhamos que 𝑇 seja diagonalizável e considere


𝛽 = {𝑣1 , . . . , 𝑣 𝑛 } é uma base de 𝑉 formada por autovetores que
estão associados aos autovalores {𝜆1 , . . . , 𝜆 𝑘 }. Calculemos agora o
polinômio característico de 𝑇. Note que a matriz de 𝑇 com relação
104

a base 𝛽 é da forma

 𝜆 ·𝐼 0 ··· 0 
 1 𝑚(𝑔)𝜆1 
𝜆2 · 𝐼𝑚(𝑔)𝜆2
 
 0 ··· 0 .

[𝑇]𝛽 =  .. .. ... ..
 . . . 

· · · 𝜆 𝑘 · 𝐼𝑚(𝑔)𝜆 𝑘
 
 0 0 
 

Isso implica que o polinômio característico de 𝑇 é

𝑝𝑇 (𝑡) = (𝑡 − 𝜆1 )𝑚(𝑔)𝜆1 · (𝑡 − 𝜆2 )𝑚(𝑔)𝜆2 · · · (𝑡 − 𝜆 𝑘 )𝑚(𝑔)𝜆 𝑘 .

Por outro lado, o polinômio característico de 𝑇 é da forma

𝑝𝑇 (𝑡) = (𝑡 − 𝜆1 )𝑚(𝑎)𝜆1 · (𝑡 − 𝜆2 )𝑚(𝑎)𝜆2 · · · (𝑡 − 𝜆 𝑘 )𝑚(𝑎)𝜆 𝑘 · 𝑞(𝑡)

onde 𝜆 não é raiz de 𝑞. Comparando as duas últimas equações temos


que 𝑚(𝑎)𝜆𝑖 = 𝑚(𝑔)𝜆𝑖 e 𝑞(𝑡) ≡ 1.

Reciprocamente, suponha que 𝑚(𝑎)𝜆𝑖 = 𝑚(𝑔)𝜆𝑖 . O Teorema 20


implica o desejado. 

Corolário 9. Se 𝑇 for diagonalizável, se e somente se,

𝑘
Õ 𝑘
Õ
dim 𝑉 = 𝑚(𝑔)𝜆𝑖 = 𝑚(𝑎)𝜆𝑖
𝑖=1 𝑖=1

Observação 24. Se o operador 𝑇 é diagonalizável a matriz de 𝑇 com relação


105

a base de autovetores é da forma

  𝜆1 · · · 0
 
.. . . . ..
   
. . ··· 0
   
   
   
  0 · · · 𝜆1  
  𝑚(𝑔)𝜆1 ×𝑚(𝑔)𝜆1 
 .. ... .. .


 . . 
𝜆𝑘 · · · 0
   
 
.. . . . ..
 
. .
 
0 ··· 
   
  
 
0 · · · 𝜆 𝑘 
  
𝑚(𝑔)𝜆 𝑘 ×𝑚(𝑔)𝜆 𝑘
  
 

Exemplo 56. Vamos calcular a expressão ([𝑇]𝛼 )6 , onde 𝑇 é a aplicação linear


definida no exemplo 54. Note que
" #
𝛽 2 1
𝑀𝛼 =
−1 1

e " #
1
− 13
𝑀𝛽𝛼 = 3
1 2
.
3 3

Usando a igualdade,
𝛽 𝛽
[𝑇]𝛼 = 𝑀 𝛼 · [𝑇]𝛽 · 𝑀 𝛼

segue que
" #
𝛽 𝛽 1366 2730
([𝑇]𝛼 )6 = 𝑀 𝛼 · ([𝑇]𝛽 )6 · 𝑀 𝛼 = .
1365 2731
106

3.6 Exercícios

1. Seja 𝑇 : R2 → R2 cuja matriz com relação a alguma base é dada


por " #
𝑎 𝑏
.
𝑏 𝑐
Mostre que 𝑇 é diagonalizável.

2. Verifique se 𝑇 : R3 → R3 dada por 𝑇(𝑥, 𝑦, 𝑧) = (𝑥 + 𝑧, 𝑦 + 𝑧, 𝑥 +


𝑦 + 2𝑧) e diagonalizável.

3. No Exercício 6 da seção 3.5, quais matrizes podem ser


diagonalizáveis?

4. Verifique se 𝑇 : P2 (R) → P2 (R) dado por

𝑇(𝑝(𝑡)) = 𝑝 00(𝑡) − 2𝑝 0(𝑡) + 𝑝(𝑡)

é diagonalizável.

5. Seja 𝑇 : 𝑉 → 𝑉 um operador linear e 𝜆 um autovalor de 𝑇. Mostre


que 𝜆2 é autovalor de 𝑇 2 = 𝑇 ◦ 𝑇, com os mesmos auto-vetores.
Generalize mostrando que 𝜆 𝑘 é autovalor de 𝑇 𝑘 = 𝑇 ◦ · · · ◦ 𝑇,
também com os mesmos auto-vetores. Conclua que se 𝑇 é
diagonalizável então 𝑇 𝑘 também é diagonalizável.

6. Dado o operador linear 𝑇 : R2 → R2 seja 𝐴 = [𝑇]𝛼 a matriz de


𝑇 na base 𝛼 de R2 . Mostre que o polinômio característico de 𝑇 é
𝑝𝑇 (𝜆) = 𝜆2 − (tr𝐴) 𝜆 + det 𝐴.

7. Sejam 𝑉 um espaço vetorial com dim 𝑉 = 2, 𝛼 = {𝑣, 𝑤} uma base


de 𝑉 e 𝑇 : 𝑉 → 𝑉 um operador linear tal que 𝑇𝑣 = 0 e 𝑇𝑤 = 𝑣.
Mostre que 𝑇 não é diagonalizável. (Sugestão: trabalhe com [𝑇]𝛼 .)
107

8. Dado o operador linear 𝑇 : 𝑉 → 𝑉 sejam 𝑣 e 𝑤 auto-vetores


associados aos autovalores 𝜆 e 𝜇, respectivamente. Mostre que se
𝜆 ≠ 𝜇 então {𝑣, 𝑤} é l.i.

9. Encontre todos os autovalores possíveis para uma projeção

10. Mostre que um operador linear nilpotente 𝑇 : 𝑉 → 𝑉 só admite


o autovalor real 𝜆 = 0. Reciprocamente, se 𝑇 : 𝑉 → 𝑉 só admite
o autovalor 𝜆 = 0, mostre que existe 𝑛 ∈ N tal que 𝑇 𝑛 = 0.

3.7 Polinômio Minimal

Nesta seção vamos considerar 𝑇 : 𝑉 → 𝑉 um operador linear e 𝑉


um espaço vetorial de dimensão finita.
Seja 𝑓 (𝑥) = 𝑎 𝑛 𝑥 𝑛 + 𝑎 𝑛−1 𝑥 𝑛−1 + · · · + 𝑎 1 𝑥 + 𝑎 0 um polinômio de grau
𝑛 e coeficientes reais. Definimos 𝑓 (𝑇) : 𝑉 → 𝑉 como sendo

𝑓 (𝑇) = 𝑎 𝑛 𝑇 𝑛 + 𝑎 𝑛−1𝑇 𝑛−1 + · · · + 𝑎1𝑇 + 𝑎0 𝐼.

Dizemos que 𝑓 anula 𝑇 se 𝑓 (𝑇) = 0®L(𝑉 ,𝑉) .

Exemplo 57. Nas notações acima temos

1. Se 𝑇𝑣 = 𝜆 · 𝑣, então 𝑓 (𝑇)𝑣 = 𝑓 (𝜆)𝑣;

2. 𝑇 𝑓 (𝑇) = 𝑓 (𝑇)𝑇.


Supondo que 𝑛 = dim 𝑉 , os 𝑛 + 1 operadores 𝐼, 𝑇, . . . , 𝑇 𝑛 são l.d..
Portanto existem 𝑎0 , . . . , 𝑎 𝑛 ∈ R, tais que

𝑎0 𝐼 + 𝑎1𝑇 + · · · + 𝑎 𝑛 𝑇 𝑛 = 0®L(𝑉 ,𝑉)


108

e algum 𝑎 𝑖 ≠ 0, 𝑖 = 1, . . . , 𝑛. Seja 𝑎 𝑚 o coeficiente não nulo de maior


índice nesta expansão. Divindindo, por 𝑎 𝑚 , temos o polinômio

𝑝(𝑥) = 𝑏 0 + 𝑏 1 𝑥 + · · · + 𝑏 𝑚−1 𝑥 𝑚−1 + 𝑥 𝑚 ,

onde 𝑃(𝑇) = 0, que chamaremos de polinômio minimal de 𝑇 e


indicaremos por 𝑚𝑇 .
Exemplo 58. Considere o operador 𝑇 : R2 → R2 definido por 𝑇(𝑥, 𝑦) =
(𝑥 + 𝑦, 𝑥 − 𝑦). Note que 𝑇 2 (𝑥, 𝑦) = 2 · 𝐼(𝑥, 𝑦). Além disso, {𝐼, 𝑇} é um
conjunto l.i.. Portanto, {𝐼, 𝑇, 𝑇 2 } é l.d. e 𝑚𝑇 (𝑥, 𝑦) = 𝑥 2 − 2.
Proposição 17. Se 𝑇 : 𝑉 → 𝑉 é um operador linear e 𝑝(𝑥) ∈ P𝑛 (R) for um
polinômio tal que 𝑝(𝑇)𝑣 = 0, para todo 𝑣 ∈ 𝑉 , então 𝑝(𝑥) é um múltiplo de
𝑚𝑇 (𝑥).
Demonstração: De fato, pelo algoritmo da divisão, existem polinômio
𝑞(𝑥) e 𝑟(𝑥), onde 𝑟(𝑥) = 0 ou grau 𝑟(𝑥) < grau 𝑚𝑇 (𝑥), tais que

𝑝(𝑥) = 𝑚𝑇 (𝑥) · 𝑞(𝑥) + 𝑟(𝑥).

Suponha que 𝑟(𝑥) ≠ 0, então


𝑠
Õ
𝑟(𝑥) = 𝑏𝑖 𝑥 𝑖 ,
𝑖=0

onde 𝑠 ≠ 0 e 𝑠 =grau 𝑟(𝑥) < grau 𝑚𝑇 (𝑥).


Para 𝑣 ∈ 𝑉 , temos

0 = 𝑝(𝑇)𝑣 = (𝑚𝑇 · 𝑞)(𝑇)𝑣 + 𝑟(𝑇)𝑣 = 𝑟(𝑇)𝑣,

implicando que
𝑠
Õ
𝑏 𝑖 𝑇 𝑖 𝑣 = 0® ∀𝑣 ∈ 𝑉.
𝑖=0
109

Assim,
𝑠−1
𝑠
Õ 𝑏 𝑖
𝑇 𝑣=− 𝑇 𝑖 𝑣, ∀𝑣 ∈ 𝑉.
𝑏𝑠
𝑖=0

Logo {𝐼, 𝑇, . . . , 𝑇 𝑠 } é l.d., o que contradiz a definição de 𝑚𝑇 (𝑥).


Portanto 𝑟(𝑥) = 0. 

Nosso objetivo agora é relacionar o polinômio minimal com o


polinômio característico.

Proposição 18. Os polinômios minimal e característicvo do operador 𝑇 :


𝑉 → 𝑉 têm as mesmas raízes a menos de multipilicidade.

Usaremos o seguinte Lema:

Lema 2. Se 𝑇𝑣 = 𝜆 · 𝑣 e 𝑝 é um polinômio qualquer, então 𝑝(𝑇)𝑣 = 𝑝(𝜆)𝑣.

Demonstração: (da Proposição) Denotando por 𝑚𝑇 o polinômio


mínimo do operador linear 𝑇, para provar o teorema, basta mostrar
que
𝑝(𝜆) = 0 ⇐⇒ 𝜆 é um autovalor de 𝑇.

Suponha em primeiro lugar que 𝑚𝑇 (𝜆) = 0 para algum 𝜆 ∈ R. Então

𝑚𝑇 = (𝑥 − 𝜆)𝑞,

assim
0® = 𝑚𝑇 (𝑇) = (𝑥 − 𝜆)(𝑇)𝑞(𝑇) = (𝑇 − 𝜆 · 𝐼)𝑞(𝑇)

Como 𝜕𝑞 < 𝜕𝑝, pela definição de polinômio mínimo não podemos


® Então,
ter 𝑞(𝑇) = 0. Seja 𝑣 um vetor tal que 𝑞(𝑇)𝑣 = 𝑤 ≠ 0.

0® = (𝑇 − 𝜆 · 𝐼)𝑞(𝑇)𝑣 = (𝑇 − 𝜆 · 𝐼)𝑤
110

e portanto 𝜆 é um autovalor de 𝑇.
Reciprocamente, seja 𝜆 é um autovalor de 𝑇. Então existe um vetor
𝑣 ≠ 0® tal que 𝑇𝑣 = 𝜆 · 𝑣. Pelo Lema anterior

0® = 𝑚𝑇 (𝑇)𝑣 = 𝑚𝑇 (𝜆)𝑣,

donde 𝑝(𝜆) = 0.


Proposição 19. Sejam 𝑉 um espaço vetorial de dimensão finita, 𝑇 : 𝑉 → 𝑉


um operador linear e 𝜆1 , 𝜆2 , . . . , 𝜆 𝑘 todos os autovalores de 𝑇 dois a dois
distintos. Se 𝑇 é diagonalizável, então

𝑚𝑇 (𝑥) = (𝑥 − 𝜆 𝑘 ) · (𝑥 − 𝜆 𝑘−1 ) · · · · · (𝑥 − 𝜆1 ).

Demonstração: De fato, considere o polinômio mônico

𝑞(𝑥) := (𝑥 − 𝜆 𝑘 ) · (𝑥 − 𝜆 𝑘−1 ) · · · · · (𝑥 − 𝜆1 ).

Como 𝑞(𝑥) é o polinômio mônico de menor grau que tem as mesmas


raízes do que 𝑝𝑇 (𝑥), vamos mostrar que

𝑞(𝑇) = 0®L(𝑉 ,𝑉)

e portanto
𝑚𝑇 (𝑥) = 𝑞(𝑥).

Com efeito, seja 𝛽 uma base de 𝑉 formada por autovetores de 𝑇. Se


𝑣 ∈ 𝛽, então 𝑇𝑣 = 𝜆 𝑖 · 𝑣 para algum 𝑖 = 1, . . . , 𝑘. Dessa forma,

®
(𝑇 − 𝜆 𝑖 · 𝐼)𝑣 = 0.
111

Por esse motivo,

𝑞(𝑇)𝑣 = (𝑇 − 𝜆 𝑘 · 𝐼) ◦ (𝑇 − 𝜆 𝑘−1 · 𝐼) ◦ . . . ◦ (𝑇 − 𝜆1 · 𝐼)𝑣 = 0®

para todo 𝑣 ∈ 𝛽. Portanto,

®
𝑞(𝑇)𝑣 = 0,

para todo 𝑣 ∈ 𝑉 , ou seja,

𝑞(𝑇) = 0®L(𝑉 ,𝑉) . 

Agora, sem demonstração, vejamos o resultado abaixo.

Proposição 20. Sejam 𝑉 um espaço vetorial de dimensão finita, 𝑇 : 𝑉 → 𝑉


um operador linear e 𝜆1 , 𝜆2 , . . . , 𝜆 𝑘 autovalores de 𝑇 distintos entre si. Se

𝑚𝑇 (𝑥) = (𝑥 − 𝜆1 ) · (𝑥 − 𝜆2 ) · · · · · (𝑥 − 𝜆 𝑘 ),

então 𝑇 é diagonalizável.

Exemplo 59. O operador

𝑇 : R11 → R11 , 𝑇(𝑥 1 , 𝑥2 , . . . , 𝑥 11 ) = (0, 𝑥1 , 0, · · · , 0)

não é diagonalizável, pois

𝑇 2 = 0®L(R11 ,R11 ) .

Em contrapartida, o operador

𝑆 : R11 → R11 , 𝑆(𝑥1 , 𝑥2 , . . . , 𝑥 11 ) = (𝑥1 , 0, · · · , 0)

é diagonalizável. De fato, como 𝑆 2 = 𝑆, ou seja, 𝑆 é raiz de 𝑥 2 − 𝑥 e portanto


112

𝑥 2 − 𝑥 é um múltiplo de 𝑚𝑆 (𝑥). Como os únicos divisores de 𝑥 2 − 𝑥 são 𝑥, 𝑥 −1


e 𝑥(𝑥 − 1) e 𝑆 não anula os dois primeiros, então 𝑚𝑆 (𝑥) = 𝑥(𝑥 − 1) e portanto
𝑆 é diagonalizável (pois 0 e 1 são raízes simples de 𝑚𝑆 (𝑥)).

3.8 Exercícios

1. Se 𝑇 : 𝑉 → 𝑉 é um operador diagonalizável e 𝜆1 , . . . , 𝜆 𝑘 são


os seus autovalores distintos, então seu polinômio mínimo é o
polinômio

𝑚𝑇 (𝑥) = (𝑥 − 𝜆1 ) · (𝑥 − 𝜆2 ) · · · · · (𝑥 − 𝜆 𝑘 ).

2. Seja 𝑇 : 𝑉 → 𝑉 , um operador linear com polinômio característico


𝑝𝑇 (𝑥) = 𝑥 𝑛 . Mostre que existe 𝑚 ≥ 1 tal que 𝑇 𝑚 = 0.

3. Qual o polinômio mínimo do operador identicamente nulo em 𝑉.

4. Calcule o polinômio mínimo do operador derivação no espaço


dos polinômios P𝑛 (R).

5. (Teorema de Cayley-Hamilton) Seja 𝑇 : 𝑉 → 𝑉 um operador


linear, 𝛽 uma base de 𝑉 e 𝑝(𝑥) o polinômio característico de 𝑇.
Então, 𝑝([𝑇]𝛽 ) = 0.

6. Calcule o polinômio mínimo do operador 𝑇 : R𝑛 → R𝑛 quando

(a) 𝑇(𝑥, 𝑦) = (9𝑥 − 16𝑦, 4𝑥 − 7𝑦).

(b) 𝑇(𝑥, 𝑦) = (3𝑦, −𝑥 + 4𝑦).

(c) 𝑇(𝑥, 𝑦, 𝑧) = (3𝑥 + 𝑦 − 2𝑧, 2𝑥 + 4𝑦 − 4𝑧, 2𝑥 + 𝑦 − 𝑧).


113

3.9 Operadores Não Diagonalizáveis

Vimos que existem transformações lineares que não são


diagonalizáveis (portanto, matrizes não semelhantes a matrizes
diagonais). Vamos apresentar resultados, sem demonstração, que
existe uma matriz quadrada quase diagonal, designada por forma
canônica de Jordan.

Seja 𝑈 um espaço vetorial de dimensão finita com

dim 𝑈 = 𝑚1 + · · · + 𝑚𝑛 + 2𝑝1 + · · · + 2𝑝 𝑘

onde 𝑚1 , . . . , 𝑚𝑛 , 𝑝1 , . . . , 𝑝 𝑘 ∈ N. Se 𝑇 ∈ L(𝑈) e 𝑝𝑇 (𝜆) é o polinômio


característico de 𝑇, a fatoração geral de 𝑝𝑇 (𝜆) é
  𝑝1   𝑝𝑘
𝑚1 𝑚𝑛 2 2
𝑝𝑇 (𝜆) = (𝜆 − 𝜆1 ) ·· · ··(𝜆 − 𝜆𝑛 ) (𝜆 − 𝛼1 ) + 𝛽 21 · · · (𝜆 − 𝛼 𝑘 ) + 𝛽 2𝑘

onde 𝜆𝑟 ≠ 𝜆 𝑠 , 𝛼 𝑟 + 𝑖𝛽 𝑟 ≠ 𝛼 𝑠 + 𝑖𝛽 𝑠 se 𝑟 ≠ 𝑠 e 𝛽 𝑠 ≠ 0.

Para 𝜆 ∈ R for uma raiz de 𝑝𝑇 (𝜆), a matriz 𝑚 × 𝑚 da forma


 𝜆 1 0 · · · 0 0 
0 𝜆 1 ··· 0 0 
 

.. .. .. . . . .. .. 
𝐽𝑚 (𝜆) = 

. . . . . 
0 0 0 ··· 𝜆 1 
 

0 0 0 · · · 0 𝜆 
 

 𝑚×𝑚

é chamada de bloco de Jordan, associado a 𝜆, de tamanho 𝑚.

Note que 𝐽𝑚 (𝜆) = 𝜆𝐼 + 𝑁 , onde 𝐼 é a matriz identidade de ordem 𝑚


114

e

 0 1 0 · · · 0 
0 0 1 ··· 0 
 

𝑁 = 
 
0 0 0 ···
 0
.. .. .. . . . ..

. . . .
 
 
 
 0 0 0 · · · 0 
 𝑚×𝑚
é uma 𝑁 é uma matriz nilpotente, pois 𝑁 𝑚 é a matriz nula.

Agora se 𝛼 + 𝑖𝛽 é uma raiz complexa de 𝑝𝑇 (𝜆) e 𝑚 é um número par,


definimos

𝛼 𝛽 1 0 ··· 0 0
© ª
­
­ −𝛽 𝛼 0 1 ··· 0 0 ®®
0 0 𝛼 𝛽 ··· 0 0 ®
­ ®
­
­ ®
𝐽𝑚 (𝛼, 𝛽) = ­­ 0 0 −𝛽 𝛼 · · · 0 0 ® .
.. .. .. .. . . . .. ..
®
. . . . . .
­ ®
­ ®
­
𝛼 𝛽
®
­
­ 0 0 0 0 ··· ®
®
« 0 0 0 0 · · · −𝛽 𝛼 ¬𝑚×𝑚

Exemplo 60. As matrizes

" # 𝜆 1 0
𝜆 1  
𝐽1 (𝜆) = [𝜆], 𝐽2 (𝜆) = , 𝐽3 (𝜆) =  0 𝜆 1  , . . .
 
0 𝜆 
0 0 𝜆

 
são blocos de Jordan que, naturalmente, estão em forma canônica de Jordan.
115

Exemplo 61. A matriz

−2 1 0 0 0 0 
 

 

 0 −2 0 0 0 0 
 0 0 5 1 0 0 
𝐴=



 0 0 0 5 1 0 

 0 0 0 0 5 0 
 
 0 0 0 0 0 −2 
 
está em forma canônica de Jordan tem 3 blocos de Jordan: 𝐽2 (−2), 𝐽3 (5) e
𝐽1 (−2), ou seja, 𝐴 = 𝑑𝑖𝑎 𝑔(𝐽2 (−2), 𝐽3 (5), 𝐽1 (−2)).
Teorema 22. (Forma Canônica de Jordan) Seja 𝑈 um espaço vetorial de
dimensão finita. Seja T ∈ L (U) cujo polinômio característico é dado por
  𝑝1   𝑝𝑘
𝑚1 𝑚𝑛 2 2
𝑝𝑇 (𝜆) = (𝜆 − 𝜆1 ) ·· · ··(𝜆 − 𝜆𝑛 ) (𝜆 − 𝛼1 ) + 𝛽 21 · · · (𝜆 − 𝛼 𝑘 ) + 𝛽 2𝑘

onde 𝜆𝑟 ≠ 𝜆s , 𝛼r + 𝑖𝛽 r ≠ 𝛼s + 𝑖𝛽 s se r ≠ s e 𝛽 r ≠ 0. Então existe uma base


de U com relação a qual a matriz de 𝑇 é da forma
 
𝐽 = diag 𝐽1 , . . . , 𝐽𝑝 , 𝐽1 , . . . , 𝐽𝑞
R R C C

onde 𝐽1R , . . . , 𝐽𝑝R são da forma 𝐽𝑚 (𝜆) para algum 𝑚 ∈ N e 𝜆 ∈ {𝜆1 , . . . , 𝜆𝑛 }


e 𝐽1C , . . . , 𝐽𝑞 C são da forma 𝐽𝑠 (𝛼, 𝛽) para algum 𝑠 ∈ N e (𝛼, 𝛽) ∈
{(𝛼 1 , 𝛽 1 ) , . . . , (𝛼 𝑘 , 𝛽 𝑘 )} .
Exemplo 62. Dado 𝑎, 𝑏 ∈ R vamos encontrar as possíveis matrizes na forma
canônica de Jordan de um operador cujo polinômio caracteristico é dado por

𝑝 T (𝜆) = (𝜆 − 𝑎)4 (𝜆 − 𝑏).

os autovalores 𝑇 são 𝑎 e 𝑏. Como 𝑚 𝑎 (𝑏) = 𝑚 𝑔 (𝑏) = 1 temos um único


bloco 𝐽1 (1) = [1].
116

1. Se 𝑚 𝑎 (𝑎) = 𝑚 𝑔 (𝑎) = 4 temos 4 blocos iguais a

𝐽1 (𝑎) = [𝑎].

Dessa forma, a matriz da forma canônica de Jordan para este operador é


 𝑏 0 0 0 0 
0 𝑎 0 0 0
 

 

 0 0 𝑎 0 0 
0 0 0 𝑎 0
 

0 0 0 0 𝑎 
 

2. Se 𝑚 𝑔 (𝑎) = 3 existem três blocos: dois bloco são 𝐽1 (𝑎) = [𝑎] e o outro é
" #
𝑎 1
𝐽2 (𝑎) =
0 𝑎

A matriz da forma canônica de jordan é 𝑑𝑖𝑎 𝑔(𝐽1 (𝑏), 𝐽1 (𝑎), 𝐽1 (𝑎), 𝐽2 (𝑎)).
Note que a soma das ordens dos blocos 𝐽1 (𝑎), 𝐽1 (𝑎) e 𝐽2 (𝑎) é igual a
𝑚 𝑎 (𝑎) = 4.

3. Se 𝑚 𝑔 (𝑎) = 2, temos dois blocos iguais:


" #
𝑎 1
𝐽2 (𝑎) =
0 𝑎

A matriz da forma canônica de Jordan é 𝑑𝑖𝑎 𝑔(𝐽1 (𝑏), 𝐽2 (𝑎), 𝐽2 (𝑎)). Além
disso, a soma das ordens dos blocos 𝐽2 (𝑎) e 𝐽2 (𝑎) é 𝑚 𝑎 (𝑎) = 4.
117

4. Se 𝑚 𝑔 (𝑎) = 1 temos apenas o bloco

𝑎 1 0 0
 

0 𝑎 1 0 
 
𝐽4 (𝑎) = 

 0 0 𝑎 0 
0 0 0 𝑎
 

 
A matriz da forma canônica de Jordan do operador é 𝑑𝑖𝑎 𝑔(𝐽1 (𝑏), 𝐽4 (𝑎)).

Observação 25. Se 𝑚 𝑔 (𝜆) = 𝑟, então existem 𝑟 blocos 𝐽𝑠 (𝜆) associados


ao autovalor 𝜆. Além disso, a soma das ordens desses 𝑟 blocos é igual a
multiplicidade algébrica.

Exemplo 63. Vamos encontrar agora as possíveis matrizes na forma canônica


de Jordan sabendo que
 
𝑝 T (𝜆) = (𝜆 − 𝑎) 2
𝜆 + 𝑏 , 𝑏 > 0.
2

Note que 𝜆1 = 𝑎, 𝛼 = 0 e 𝛽 = 𝑏. Como 𝑚0+𝑖𝑏 = 1 existe apenas um bloco da


forma !
0 𝑏
𝐽2 (0, 𝑏) =
−𝑏 0
Temos duas possibilidades para 𝑚 𝑔 (𝑎).

i) Se 𝑚 𝑔 (𝑎) = 2 então existem apenas dois blocos iguais associados ao


autovalor 𝑎 :
𝐽1 (𝑎) = [𝑎].
118

Neste caso, a matriz da forma canônica de Jordan para este operador é

© 𝑎 0 0 0ª
­
­ 0 𝑎 0 0 ®®
𝑏 ®®
­ ®
­
­ 0 0 0

« 0 0 −𝑏 0 ¬

ii) Se 𝑚 𝑔 (𝑎) = 1, então existe apenas um bloco de ordem dois associado 𝑎


!
𝑎 1
J2 (𝑎) =
0 𝑎

A matriz da forma canônica de Jordan para este operador é

© 𝑎 1 0 0ª
­
­ 0 𝑎 0 0 ®®
𝑏 ®®
­ ®
­
­ 0 0 0

« 0 0 −𝑏 0 ¬

Observação 26. Se 𝛼 + 𝑖𝛽 é uma raiz de 𝑝𝑇 , então a soma das ordens de


todos os blocos 𝐽𝑠 (𝛼, 𝛽) é igual ao dobro de 𝑚 𝑎 (𝛼 + 𝑖𝛽).

3.10 Exercícios

1. Se uma matriz de ordem 3 tem os autovalores 𝑎, 𝑎 e 𝑎, quais são


as possíveis formas canônicas de Jordan dessa matriz?

2. Se uma matriz de ordem 4 tem os autovalores 𝑎, 𝑏 e 𝑐 dois a dois


disjuntos, quais são as possíveis formas canônicas de Jordan dessa
matriz?
Capítulo 4

Produto Interno

O principal objetivo desse capítulo será estudar conceitos como


o comprimento de um vetor e do ângulo (e consequentemente
ortogonalidade) entre dois vetores. Veremos também a íntima relação
que temos entre um funcional linear e o produto interno.

4.1 Produto Interno, propriedades e exemplos

Seja 𝑉 um espaço vetorial. O produto interno entre dois vetores 𝑢


e 𝑣 é definido por meio da aplicação

h·, ·i : 𝑉 × 𝑉 −→ R
(𝑢, 𝑣) ↦−→ h𝑢, 𝑣i

que satisfaz as propriedades

i) (Simetria) h𝑢, 𝑣i = h𝑣, 𝑢i∀ 𝑢, 𝑣 ∈ 𝑉;

ii) (Distributividade) h𝑢 + 𝑣, 𝑤i = h𝑢, 𝑤i + h𝑣, 𝑤i ∀ 𝑢, 𝑣, 𝑤 ∈ 𝑉;

iii) (Homogeneidade) h𝛼𝑢, 𝑣i = 𝛼h𝑢, 𝑣i ∀ 𝑢, 𝑣 ∈ 𝑉;

®
iv) (Positividade) h𝑢, 𝑢i ≥ 0 ∀ 𝑢 ∈ 𝑉 e h𝑢, 𝑢i = 0 ⇔ 𝑢 = 0.

119
120

Um espaço vetorial munido com um produto interno se chama


espaço euclidiano e vamos denotar por (𝑉 , h·; ·i).
Proposição 21. Para quaisquer 𝑢, 𝑣, 𝑤 ∈ 𝑉 e 𝛼 ∈ R temos:
® = 0;
i) h𝑢, 0i
®
ii) h𝑢, 𝑣i = 0 para todo 𝑣 ∈ 𝑉 então 𝑢 = 0;

iii) h𝑢, 𝛼 · 𝑣i = 𝛼 · h𝑢, 𝑣i;

iv) h𝑢, 𝑣 + 𝑤i = h𝑢, 𝑣i + h𝑢, 𝑤i;


Demonstração:
® = h𝑢, 0® + 0i
i) h𝑢, 0i ® = h𝑢, 0i
® + h𝑢, 0i
® =⇒ h𝑢, 0i
® = 0;

ii) Tome 𝑣 = 𝑢 e use o item iv) da definição;

iii) h𝑢, 𝛼 · 𝑣i = h𝛼 · 𝑣, 𝑢i = 𝛼h𝑣, 𝑢i = 𝛼h𝑢, 𝑣i;

iv) h𝑢, 𝑣 + 𝑤i = h𝑣 + 𝑤, 𝑢i = h𝑣, 𝑢i + h𝑤, 𝑢i = h𝑢, 𝑣i + h𝑢, 𝑤i. 


Observação 27. O caso geral do item 𝑖𝑣) da proposição acima é
𝑛 𝑚 𝑛 Õ
𝑚
* +
Õ Õ Õ
𝑎 𝑖 𝑢𝑖 , 𝑏𝑗𝑣𝑗 = h𝑢𝑖 , 𝑣 𝑗 i
𝑖=1 𝑗=1 𝑖=1 𝑗=1

para todo 𝑢𝑖 , 𝑣 𝑖 ∈ 𝑉 , 𝑎 𝑖 , 𝑏 𝑖 ∈ R, 𝑖 = 1, . . . , 𝑛, 𝑗 = 1, . . . , 𝑚.
Exemplo 64. Podemos munir o espaço euclidiano R𝑛 de um produto interno
canônico (ou usual) dos vetores 𝑢 = (𝑥 1 , . . . , 𝑥 𝑛 ), 𝑣 = (𝑦1 , . . . , 𝑦𝑛 ) ∈ R𝑛
como sendo
h𝑢, 𝑣i = 𝑥1 𝑦1 + · · · + 𝑥 𝑛 𝑦𝑛 .
Exemplo 65. Se 𝑉 = R2 então h(𝑎, 𝑏), (𝑐, 𝑑)i = 𝑎𝑐 + 8𝑏𝑑 + 2𝑎𝑑 + 2𝑏𝑐 é
um produto interno em R2 , mas h(𝑎, 𝑏), (𝑐, 𝑑)i = 𝑎𝑐 − 𝑏𝑑 não é um produto
interno do R2 .
121

Exemplo 66. Se 𝑓 , 𝑔 ∈ 𝐶([𝑎, 𝑏]; R) a função


∫ 𝑏
h 𝑓 , 𝑔i = 𝑓 (𝑥)𝑔(𝑥)d𝑥,
𝑎

é um produto interno, que será chamado de canônico.

Exemplo 67. Usando o exemplo acima, o produto interno entre as funções


1, cos 𝑥 ∈ 𝐶([−𝜋, 𝜋], R) é igual a zero.

O traço de uma matriz quadrada 𝐴 = [𝑎 𝑖𝑗 ] ∈ M𝑛 (R) é a soma dos


elementos de sua diagonal, isto é,
𝑛
Õ
tr 𝐴 = 𝑎 𝑖𝑖 .
𝑖=1

Exemplo 68. Dadas as matrizes 𝐴 = [𝑎 𝑖𝑗 ], 𝐵 = [𝑏 𝑖𝑗 ] ∈ M𝑚×𝑛 (R), a função


𝑚 Õ
Õ 𝑛
𝑡
h𝐴, 𝐵i = tr (𝐵 · 𝐴) = 𝑎 𝑖𝑗 𝑏 𝑖𝑗 ,
𝑖=1 𝑗=1

é um produto interno usual de M𝑚×𝑛 (R).

Exemplo 69. Usando a expressão do produto interno do exemplo anterior


calculemos h𝐴, 𝐵i, onde
! !
1 2 −1 1
𝐴= 𝐵= .
2 5 2 2

Note que
2 Õ
Õ 2 Õ
h𝐴, 𝐵i = 𝑎 𝑖𝑗 𝑏 𝑖𝑗 = (𝑎 𝑖1 𝑏 𝑖1 + 𝑎 𝑖2 𝑏 𝑖2 )
𝑖=1 𝑗=1 𝑖=1

= 𝑎 11 𝑏 11 + 𝑎12 𝑏 12 + 𝑎21 𝑏 21 + 𝑎22 𝑏 22


122

= −1 + 2 + 4 + 10 = 15.

Exemplo 70. Se 𝑉 = P𝑛 (R) definimos o produto interno canônico como


sendo

h𝑎 𝑛 𝑡 𝑛 + · · · + 𝑎1 𝑡 + 𝑎 0 , 𝑏 𝑛 𝑡 𝑛 + · · · + 𝑏 1 𝑡 + 𝑏0 i := 𝑎 𝑛 𝑏 𝑛 + · · · + 𝑎1 𝑏1 + 𝑎0 𝑏 0 .

4.2 Exercícios

1. Diga quais das expressões abaixo define um produto interno.


Indique a propriedade que não vale caso não seja produto.

(a) Em P2 (R), h𝑝, 𝑞i = 𝑝 (0) 𝑞 (0) + 𝑝 0 (0) 𝑞 0 (0) + 𝑝 00 (0) 𝑞 00 (0).


(b) Em R3 : h(𝑥, 𝑦, 𝑧) , (𝑎, 𝑏, 𝑐)i = −𝑥𝑎 + 𝑦𝑏 + 𝑧𝑐.
(c) Em R3 : h(𝑥, 𝑦, 𝑧) , (𝑎, 𝑏, 𝑐)i = 𝑥𝑎 + 𝑦𝑏.
(d) Em R3 : h(𝑥, 𝑦, 𝑧) , (𝑎, 𝑏, 𝑐)i = 3𝑥𝑎 + 2𝑦𝑏 + 4𝑧𝑐.
(e) Em 𝑀𝑚×𝑛 (R): h𝐴, 𝐵i = tr 𝐵𝑇 𝐴 .

∫1
(f) Em P2 (R) : 0
𝑝 (𝑡) 𝑞 (𝑡) 𝑑𝑡.

2. Determinar 𝑚 ∈ R a fim de que sejam ortogonais os vetores


𝑢 = (1, 𝑚 + 1, 𝑚) e 𝑣 = (𝑚 − 1, 𝑚, 𝑚 + 1) do R3 .

3. Sejam 𝑉 e 𝑊 espaços vetoriais reais e suponha que h·, ·i𝑊 é


um produto interno em 𝑊. Seja também 𝑇 : 𝑉 → 𝑊 uma
transformação linear injetora. Mostre que a expressão h𝑢, 𝑣i𝑇 =
h𝑇𝑢, 𝑇𝑣i𝑊 define um produto interno em 𝑉.

4. Sejam 𝑉 e 𝑊 espaços vetoriais com produtos internos h·, ·i𝑉 e


h·, ·i𝑊 , respectivamente. Uma transformação linear 𝑇 : 𝑉 → 𝑊 é
uma isometria se h𝑇𝑢, 𝑇𝑣i𝑉 = h𝑢, 𝑣i𝑊 para todo 𝑢, 𝑣 ∈ 𝑉. Mostre
123

que se 𝑇 é isometria então 𝑇 é injetora. (Sugestão: encontre k𝑇𝑣 k,


𝑣 ∈ 𝑉.)

4.3 Norma

Seja 𝑉 um espaço vetorial com produto interno, h·, ·i. Chama-se


norma de 𝑣 ∈ 𝑉 , em relação ao produto interno h·, ·i ao número real
não negativo que indicaremos por k𝑣 k,
p
k𝑣 k = h𝑣, 𝑣i

Um espaço vetorial com a norma é chamado de espaço normado e


é denotado por (𝑉; k · k).
Não é difícil ver que a norma satisfaz as seguintes propriedades:

i) (Homogeneidade) k𝛼 · 𝑣 k = |𝛼| · k𝑣k

ii) (Positividade) k𝑣k ≥ 0 e k𝑣k = 0 ⇔ 𝑣 = 0®

Dizemos que um vetor 𝑣 ∈ 𝑉 , 𝑣 ≠ 0® é unitário quando k𝑣 k = 1.

Proposição 22. (Desigualdade de Cauchy-Schawrz) Seja 𝑉 um espaço


vetorial com produto interno. Então

|h𝑢, 𝑣i| ≤ k𝑢k · k𝑣 k, ∀ 𝑢, 𝑣 ∈ 𝑉.

® nada para fazer. Suponha qu 𝑣 ≠ 0,


Demonstração: Se 𝑣 = 0, ® então
k𝑢 + 𝛼 · 𝑣 k 2 ≥ 0, para todo 𝛼 ∈ R. Assim,

0 ≤ h𝑢 + 𝛼 · 𝑣, 𝑢 + 𝛼 · 𝑣i = h𝑢, 𝑢i + 2h𝑢, 𝑣i𝛼 + h𝑣, 𝑣i𝛼2 =

= k𝑢k 2 + 2𝛼h𝑢, 𝑣i + k𝑣 k 2 𝛼2 .

Logo, o discriminante Δ = 4h𝑢, 𝑣i 2 − 4k𝑢k 2 · k𝑣 k 2 ≤ 0.


124

Proposição 23. (Desigualdade Triangular) Seja 𝑉 um espaço vetorial com


produto interno. Então

k𝑢 + 𝑣 k ≤ k𝑢k + k𝑣 k, ∀ 𝑢, 𝑣 ∈ 𝑉.

Demonstração: Usando a proprosição anterior temos:

k𝑢 + 𝑣 k 2 = h𝑢 + 𝑣, 𝑢 + 𝑣i = k𝑢k 2 + k𝑣 k 2 + 2h𝑢, 𝑣i

≤ k𝑢k 2 + k𝑢k 2 + 2k𝑢 k · k𝑣 k = (k𝑢k + k𝑣 k)2 .

Extraindo a raiz quadrada temos o resultado desejado.




Observação 28. A desigualdade de Cauchy-Schwarz aplicada ao produto


interno usual do R𝑛 nos diz que para quaisquer números reais
𝑥 1 , . . . , 𝑥 𝑛 , 𝑦1 , . . . , 𝑦𝑛 temos que

(𝑥 1 𝑦1 + · · · + 𝑥 𝑛 𝑦𝑛 )2 ≤ (𝑥12 + · · · + 𝑥 𝑛2 )(𝑦12 + · · · + 𝑦𝑛2 ).

Observação 29. A mesma desigualdade aplicada ao produto interno em


𝐶([𝑎, 𝑏]; R) nos dá
∫ 𝑏 2 ∫ 𝑏 ∫ 𝑏
𝑓 (𝑥)𝑔(𝑥)d𝑥 ≤ [ 𝑓 (𝑥)] d𝑥
2
[𝑔(𝑥)]2 d𝑥.
𝑎 𝑎 𝑎

A desigualdade de Cauchy-Schwarz nos dá

|h𝑣, 𝑤i|
≤1
k𝑣k · k𝑤k

para todo par de vetores 𝑣 e 𝑤 não nulos.


Seja 𝑉 um espaço vetorial sobre o corpo dos números reais. A
125

desigualdade de Cauchy- Schwarz implica em

h𝑣, 𝑤i
−1 ≤ ≤ 1.
k𝑣 k · k𝑤 k

Isso motiva a definição de ângulo entre 𝑣 e 𝑤, como sendo aquele


único número real 𝜃, pertencente ao intervalo [0, 𝜋], para o qual

h𝑣, 𝑤i
cos 𝜃 = .
k𝑣k · k𝑤k
𝜋
Os vetores 𝑣 e 𝑤 são ortogonais quando 𝜃 = 2 ou h𝑣, 𝑤i = 0, fato
que será indicado pelo símbolo 𝑣 ⊥ 𝑤.
Se 𝑤 for ortogonal a si mesmo então h𝑤, 𝑤i = 0 e isto implica em
® Se 𝑤 for ortogonal a todo elemento de 𝑉 , então é ortogonal a si
𝑤 = 0.
® Se a dimensão de 𝑉 for finita e 𝑤 for ortogonal a uma
mesmo e 𝑤 = 0.
®
base de 𝑉 , então 𝑤 = 0.
Um conjunto de vetores {𝑣1 , . . . , 𝑣 𝑛 } é ortogonal quando h𝑣 𝑖 ; 𝑣 𝑗 i = 0
para 𝑖 ≠ 𝑗 e k𝑣 𝑖 k ≠ 0. Se além disto, todos os vetores possuírem norma
unitária, isto é, k𝑣 𝑖 k = 1, dizemos que o conjunto é ortonormal.

Proposição 24. Se 𝑢 e 𝑣 são vetores ortogonais em um espaço vetorial com


produto interno, então

k𝑢 + 𝑣 k 2 = k𝑢k 2 + k𝑣k 2 .

Demonstração: De fato,

k𝑢 + 𝑣k 2 = h𝑢 + 𝑣; 𝑢 + 𝑣i = k𝑢k 2 + k𝑣 k 2 − 2 h𝑢, 𝑣i . 
|{z}
=0

Teorema 23. Seja 𝑉 um espaço vetorial de dimensão 𝑛. Se 𝛽 = {𝑣1 , . . . , 𝑣 𝑛 }


um conjunto ortogonal de vetores de 𝑉 , então 𝛽 é uma base.
126

Demonstração: Basta provar que 𝛽 é l.i.. De fato, sejam 𝑎1 , . . . , 𝑎 𝑛


® Como h𝑣 𝑖 , 0i
escalares tais que 𝑎1 · 𝑣1 + · · · + 𝑎 𝑛 · 𝑣 𝑛 = 0. ® = 0, obtemos

® = h𝑣 𝑖 , 𝑎1 · 𝑣1 + · · · + 𝑎 𝑛 · 𝑣 𝑛 i = 𝑎 𝑖 · h𝑣 𝑖 , 𝑣 𝑖 i = 𝑎 𝑖 · k𝑣 𝑖 k 2 .
0 = h𝑣 𝑖 , 0i

Como k𝑣 𝑖 k ≠ 0, segue que 𝑎 𝑖 = 0, 𝑖 = 1, . . . 𝑛, provando a


independência linear de 𝛽. 

Proposição 25. Seja {𝑣 1 , . . . , 𝑣 𝑛 } uma base ortonormal de um espaço vetorial


𝑉. Qualquer 𝑣 ∈ 𝑉 pode ser escrito como

𝑣 = h𝑣, 𝑣1 i · 𝑣 1 + · · · + h𝑣, 𝑣 𝑛 i · 𝑣 𝑛 .

Demonstração: Dado 𝑣 = 𝑎1 · 𝑣1 + · · · + 𝑎 𝑛 · 𝑣 𝑛 ∈ 𝑉 , multiplicando-o


internamente por 𝑣 𝑖 , obtemos 𝑎 𝑖 = h𝑣, 𝑣 𝑖 i e assim,

𝑣 = h𝑣, 𝑣1 i · 𝑣1 + · · · + h𝑣, 𝑣 𝑛 i · 𝑣 𝑛 . 

Seja 𝑉 um espaço vetorial com produto interno e 𝛽 = {𝑣 1 , . . . , 𝑣 𝑛 } ⊂


𝑉 um conjunto ortonormal. A projeção ortogonal de um vetor 𝑣 ∈ 𝑉
sobre o subespaço gerado por 𝛽 é o vetor:

Proj𝑊 𝑣 = h𝑣, 𝑣1 i · 𝑣 1 + · · · + h𝑣, 𝑣 𝑛 i · 𝑣 𝑛 ,

obde 𝑊 = [𝛽] = [𝑣 1 , . . . , 𝑣 𝑛 ].
𝑣
 
Observação 30. Se 𝛽 = ® então
, com 𝑣 ≠ 0,
k𝑣 k

h𝑢, 𝑣i
Proj𝑊 𝑣 = · 𝑣,
k𝑣 k 2

onde Proj𝑊 𝑣 é chamado de projeção ortogonal de 𝑣 sobre 𝑊 , ou projeção


127

ortogonal de 𝑣 sobre o eixo que contém o vetor não nulo 𝑣.

4.4 Exercícios

1. Determine o ângulo entre os vetores dados:

a) 𝑣 = (1, 1, 0) e 𝑢 = (0, 1, 1)

b) 𝑣 = (−2, 1, 0) e 𝑢 = (0, −3, 2)

2. Verifique as relações
k𝑢 + 𝑣 k 2 − k𝑢k 2 − k𝑣 k 2
a) h𝑢, 𝑣i =
2
k𝑢 + 𝑣 k 2 − k𝑢 − 𝑣k 2
b) h𝑢, 𝑣i =
4
3. Mostre que a desigualdade do teorema 22 se transforma na
igualdade h𝑢; 𝑣i = k𝑢k · k𝑣 k se, e somente se, 𝑢 é múltiplo de
𝑣.

4. Mostre que para quaisquer vetores 𝑢, 𝑣 ∈ 𝑉 temos k𝑢k · 𝑣 + k𝑣 k · 𝑢


e k𝑢 k · 𝑣 − k𝑣 k · 𝑢 são ortogonais.
h𝑢, 𝑣i
5. Sabendo que cos (𝑢, 𝑣) = , prove que se 𝑢 e 𝑣 são
k𝑢k · k𝑣 k
ortogonais e não-nulos, então

cos2 (𝑢, 𝑢 − 𝑣) + cos2 (𝑣, 𝑢 − 𝑣) = 1.

6. Num espaco normado 𝑉 definimos a distância entre 𝑢, 𝑣 ∈ 𝑉


como sendo
𝑑(𝑢, 𝑣) = k𝑢 − 𝑣 k.

Calcule a distância entre os vetores


128

(a) 𝑉 = R3 𝑢 = (2, −6, 1), 𝑣 = (1, −3, −8)


(b) 𝑉 = 𝐶([0, 2𝜋]; R) 𝑢 = cos 𝑥, 𝑣 = sen 𝑥
 1 −3 3   −3 1 −1 
   
(c) 𝑉 = M3 (R), 𝐴 =  3 −5 3  , 𝐵 =  −7 5 −1 
   
   
 6 −6 4   −6 6 2 
   
7. Sejam 𝑢, 𝑣 ∈ R2 vetores 𝑙.𝑖.. Prove que o vetor k𝑢k · 𝑣 + k𝑣 k · 𝑢 está
contido na bissetriz do ângulo formado por 𝑢 e 𝑣.

8. Seja 𝑆 um conjunto de geradores do espaço R𝑛 . Se os vetores


𝑢, 𝑣 ∈ R𝑛 são tais que h𝑢, 𝑤i = h𝑣, 𝑤i para quaisquer 𝑤 ∈ 𝑆,
prove que 𝑢 = 𝑣.

9. Determine o ângulo entre uma aresta e uma diagonal do cubo em


R3 .
2
√ √   √de (1,
10. Encontre as coordenadas √ 1) ∈ R com relação a base
2 2 2 2
formada por , e ,− .
2 2 2 2
11. Considere o produto interno
∫ 1
h 𝑓 , 𝑔i = 𝑓 (𝑡)𝑔(𝑡)d𝑥,
0

em P2 (R). Sejam 𝑓 (𝑡) = 𝑡 + 2 e 𝑔(𝑡) = 𝑡 2 − 2𝑡 + 3. Determine


h 𝑓 , 𝑔i, k 𝑓 k, k 𝑔 k.

12. Seja 𝑉 um espaço vetorial com produto interno. Dados 𝑢, 𝑣 ∈ 𝑉


h𝑢, 𝑣i
com 𝑣 ≠ 0® e 𝑘 = . Mostre que 𝑢 − 𝑘𝑣 é ortogonal a v .
k𝑣 2 k
13. Sejam 𝑉 um espaço euclidiano e

𝛽 = {𝑢1 , . . . , 𝑢𝑛 }
129

uma base ortonormal de 𝑉. Mostre que

h𝑣, 𝑤i = h𝑣, 𝑢1 i h𝑤, 𝑢1 i + · · · + h𝑣, 𝑢𝑛 i h𝑤, 𝑢𝑛 i , ∀𝑣, 𝑤 ∈ 𝑉

14. 19. Seja 𝑇 : R𝑛 → R𝑛 um operador linear tal que

𝑇𝑒 𝑖 = 𝑢𝑖 , 𝑖 = 1, . . . , 𝑛

onde
{𝑢1 , . . . , 𝑢𝑛 }

é uma base ortonormal de R𝑛 . Mostre que

k𝑇𝑢 − 𝑇𝑣 k = k𝑢 − 𝑣k, ∀𝑢, 𝑣 ∈ R𝑛

Conclua que 𝑇 é um isomorfismo.

15. Sejam 𝑉 um espaço euclidiano de dimensão finita,

𝛽 = {𝑢1 , . . . , 𝑢 𝑘 }

um conjunto ortonormal de 𝑉 e

𝑃𝑣 = h𝑣, 𝑢1 i 𝑢1 + · · · + h𝑣, 𝑢 𝑘 i 𝑢 𝑘 , ∀𝑣 ∈ 𝑉

(a) (Desigualdade de Bessel) Mostre que

k𝑃𝑣k ≤ k𝑣 k, ∀𝑣 ∈ 𝑉

(b) Mostre que 𝛽 é uma base de 𝑉 se, e somenete se, 𝑃𝑣 = 𝑣, para


todo 𝑣 ∈ 𝑉.
130

(c) Mostre que 𝛽 é uma base de 𝑉 se, e somenete se,

k𝑃𝑣k = k𝑣k, ∀𝑣 ∈ 𝑉

(d) Mostre que 𝛽 é uma base de 𝑉 se, e somenete se,

h𝑣, 𝑤i = h𝑣, 𝑢1 i h𝑤, 𝑢1 i + · · · + h𝑣, 𝑢𝑛 i h𝑤, 𝑢𝑛 i , ∀𝑣, 𝑤 ∈ 𝑉

4.5 Processo de Ortonormalização de Gram-Schmidt

Proposição 26. Sejam 𝑉 um espaço euclidiano e 𝑊 o subespaço gerado por


um conjunto ortonormal 𝛽 = {𝑢1 , . . . , 𝑢𝑛 }. Dado 𝑢 ∈ 𝑉 , o vetor

𝑣 = 𝑢 − h𝑢, 𝑢1 i · 𝑢1 − · · · − h𝑢, 𝑢𝑛 i · 𝑢𝑛

é ortogonal a todo 𝑤 ∈ 𝑈. Em particular,

𝑣 = 0® ⇔ 𝑢 ∈ [𝑢1 , . . . , 𝑢𝑛 ].

Demonstração: Basta obsevar que h𝑢 𝑗 , 𝑣i = 0. 

Teorema 24. Todo espaço vetorial de dimensão finita admite uma base
ortogonal.

Demonstração: Seja 𝑉 um espaço vetorial e 𝛽 = {𝑣1 , . . . 𝑣 𝑛 } uma base


de 𝑉. A partir de 𝛽, vamos conseguir uma outra base 𝛽0 = {𝑤1 , . . . , 𝑤 𝑛 }
com a propriedade adicional de ser ortonormal.
Defina
𝑤1 = 𝑣1 .

Agora escreva
𝑤2 = 𝑣2 − 𝑏 12 · 𝑤 1
131

e determine o escalar 𝑏12 para que a condição de ortogonalidade


h𝑤1 , 𝑤2 i = 0 seja satisfeita. Substitua 𝑤2 por 𝑣 2 − 𝑏 12 𝑤 1 nesta condição
para obter
h𝑤1 , 𝑣2 i
𝑏 12 = .
h𝑤1 , 𝑤1 i
Em seguida, considere

𝑤3 = 𝑣3 − 𝑏 13 · 𝑤 1 − 𝑏 23 · 𝑤2

e determine 𝑏 13 e 𝑏 23 para tornar 𝑤 3 ortogonal a 𝑤 1 e 𝑤2 . Das condições


de ortogonalidade h𝑤1 , 𝑤3 i = 0 e h𝑤2 , 𝑤3 i = 0 calcule

h𝑤1 , 𝑣3 i h𝑤2 , 𝑣3 i
𝑏 13 = e 𝑏 23 =
h𝑤 1 , 𝑤1 i h𝑤2 , 𝑤2 i

Prosseguindo com este raciocínio, se chega a um conjunto ortogonal


{𝑤1 , . . . , 𝑤 𝑛 } de vetores que é base de 𝑉. Observe que os vetores
𝑤1 , 𝑤2 , . . . , 𝑤 𝑛 são definidos recursivamente por

𝑤1 = 𝑣1

e
𝑤 𝑘 = 𝑣 𝑘 − 𝑏1𝑘 · 𝑤1 − · · · − 𝑏 𝑘−1,𝑘 · 𝑤 𝑘−1

para 𝑘 = 2, . . . , 𝑛, onde

h𝑤 𝑖 , 𝑣 𝑘 i
𝑏𝑖 𝑘 = .
h𝑤 𝑖 , 𝑤 𝑖 i

A proposição anterior garante que os vetores 𝑤 1 , 𝑤2 , . . . , 𝑤 𝑛 formam


uma base de 𝑉.

A partir da base ortogonal {𝑤1 , . . . , 𝑤 𝑛 } pode-se determinar uma


𝑤𝑖
base ortonormal {𝑢1 , . . . , 𝑢𝑛 }. Basta fazer 𝑢𝑖 = .
k𝑤 𝑖 k
132

Exemplo 71. Conside 𝑉 = R com o produto interno usual e 𝛽 =


{(1, 1, 1), (0, 1, 1), (0, 0, 1)}. Aplicando o processo de ortonormalização de
Gram-Schmidt para 𝛽 obtemos a base
     
1 1 1 −2 1 1 −1 1
𝛽0 = √ , √ , √ , √ , √ , √ , 0, √ , √ .
3 3 3 6 6 6 2 2

4.6 Complemento Ortogonal

Seja 𝑉 um espaço vetorial com produto interno e 𝑆 ⊂ 𝑉 um


subespaço de 𝑉. O complemento ortogonal de 𝑆 é o conjunto:

𝑆 ⊥ = {𝑣 ∈ 𝑉; h𝑣, 𝑢i = 0, ∀𝑢 ∈ 𝑆}.

Observação 31. Para mostrar que 𝑣 ∈ 𝑆 ⊥ , é suficiente provar que 𝑣 é


® isto é,
ortogonal a todo vetor de uma base de 𝑆. Se 𝑣 ∈ 𝑆 ∩ 𝑆 ⊥ então 𝑣 = 0,

®
𝑆 ∩ 𝑆 ⊥ = {0}.

Exemplo 72. Considerando 𝑆 = {(𝑥, 𝑥) ∈ R2 ; 𝑥 ∈ R}, seu complemento


ortogonal é o conjunto 𝑆 ⊥ = {(𝑥, −𝑥); 𝑥 ∈ R}.

Exemplo 73. Considerando 𝑆 = {(𝑥, 𝑦, 0) ∈ R3 ; 𝑥, 𝑦 ∈ R} = R2 × {0}, seu


complemento ortogonal é o eixo 𝑂𝑧.

Proposição 27. Seja 𝑉 um espaço vetorial com produto interno e 𝑆 ⊂ 𝑉 um


subespaço de 𝑉. Então 𝑆 ⊥ é um subespaço de 𝑉.

Demonstração: Lembrando que

𝑆 ⊥ = {𝑣 ∈ 𝑉; h𝑣, 𝑤i = 0, ∀𝑤 ∈ 𝑆},

temos que
133

i) 0® ∈ 𝑆 ⊥ ; h𝑢, 0i
® = 0, ∀𝑢 ∈ 𝑆

ii) Considere 𝑢, 𝑣 ∈ 𝑆⊥ . Mostremos que 𝑢 + 𝑣 ∈ 𝑆 ⊥ . Como

𝑢 ∈ 𝑆 ⊥ ⇒ h𝑢, 𝑤i = 0; ∀𝑤 ∈ 𝑆

e
𝑣 ∈ 𝑆 ⊥ ⇒ h𝑣, 𝑤i = 0; ∀𝑤 ∈ 𝑆

temos que

h𝑢 + 𝑣, 𝑤i = h𝑢, 𝑣i + h𝑣, 𝑤i = 0 + 0 = 0, ∀𝑤 ∈ 𝑆

Portanto, 𝑢 + 𝑣 ∈ 𝑆 ⊥ .

iii) Seja 𝑢 ∈ 𝑆 ⊥ e 𝛼 ∈ R, então

h𝛼 · 𝑢, 𝑤i = 𝛼 · h𝑢, 𝑤i = 𝛼 · 0 = 0, ∀𝑤 ∈ 𝑆.

Isso implica que 𝛼 · 𝑢 ∈ 𝑆 ⊥ .

Logo, 𝑆 ⊥ é um subespaço. 

Exemplo 74. Se 𝑉 = R5 e 𝑆 é o subespaço vetorial

𝑆 = [(2, 2, −1, 0, 1), (−1, −1, 2, −3, 1), (1, 1, −2, 0, −1), (0, 0, 1, 1, 1)],

seu complemento ortogonal é

𝑆 ⊥ = [(−1, 1, 0, 0, 0), (−1, 0, −1, 0, 1)].

Exemplo 75. Seja 𝑆 = {(𝑥, 𝑦, 𝑧) ∈ R3 ; 𝑥 − 𝑦 − 𝑧 = 0} um subespaço de


𝑉 = R3 . Note que 𝑆 = [(1, 1, 0), (1, 0, 1)]. Para exibir uma base de 𝑆 ⊥ , basta
134

encontrar uma solução para equação do sistema gerado pelas equações

h(𝑥, 𝑦, 𝑧), (1, 1, 0)i = 0 h(𝑥, 𝑦, 𝑧), (1, 0, 1)i = 0.

Teorema 25. Seja 𝑉 um espaço vetorial com produto interno. Se 𝑆 ⊂ 𝑉 um


subespaço de 𝑉 , então
𝑉 = 𝑆 ⊕ 𝑆⊥ .

Demonstração: Seja {𝑣1 , . . . , 𝑣 𝑝 } uma base ortonormal de 𝑆. Dado


qualquer 𝑣 em 𝑉 , o vetor

𝑤 = 𝑣 − h𝑣, 𝑣1 i · 𝑣1 − · · · − h𝑣, 𝑣 𝑝 i · 𝑣 𝑝

é ortogonal a todo vetor de 𝑆. Desta forma, qualquer vetor 𝑣 pode ser


decomposto numa soma
𝑣 = 𝑠 + 𝑤,

onde 𝑠 = h𝑣, 𝑣1 i · 𝑣1 + · · · + h𝑣, 𝑣 𝑝 i · 𝑣 𝑝 ∈ 𝑆 e 𝑤 ∈ 𝑆 ⊥ . Assim, 𝑉 = 𝑆 + 𝑆 ⊥ .


Resta mostrar que esta decomposição é única. Se 𝑣 = 𝑠1 + 𝑤 1 , com
𝑠1 em 𝑆 e 𝑤1 em 𝑆, então 𝑠 + 𝑤 = 𝑠1 + 𝑤1 . Assim, 𝑠 − 𝑠1 = 𝑤1 − 𝑤, o
que mostra que os vetores 𝑠 − 𝑠1 e 𝑤 1 − 𝑤 estão na interseção 𝑆 ∩ 𝑆 ⊥ .
Como a interseção só possui o vetor nulo, 𝑠 = 𝑠1 e 𝑤 = 𝑤1 . 

Proposição 28. Seja 𝑉 um espaço vetorial com produto interno. Se 𝑆 ⊂ 𝑉


um subconjunto não vazio de 𝑉 , então

𝑆 = (𝑆 ⊥ )⊥ .

Demonstração: Se 𝑣 é um vetor de um conjunto 𝑆 de um espaço


vetorial 𝑉 , então 𝑣 é ortogonal a todo vetor de 𝑆 ⊥ e assim ele pertence
ao 𝑆 ⊥ . Portanto 𝑆 ⊂ 𝑆 ⊥ . Por outro lado, 𝑉 = 𝑆 ⊕ 𝑆 ⊥ = 𝑆 ⊥ ⊕ (𝑆 ⊥ )⊥ e
135

assim,

dim 𝑉 = dim 𝑆 + dim 𝑆 ⊥ = dim 𝑆 ⊥ + dim(𝑆 ⊥ )⊥


=⇒ dim 𝑆 = dim(𝑆 ⊥ )⊥ .

Estando 𝑆 contido em 𝑆 ⊥ e possuindo ambos a mesma dimensão, eles


são iguais (𝑆 ⊥ )⊥ = 𝑆. 

4.7 Exercícios

1. Considere R3 com o produto interno canônico. Encontre uma


base do subespaço 𝑊 ⊥ onde 𝑊 = N( 𝑓 ) e 𝑓 : R3 → R é dado por
𝑓 (𝑥, 𝑦, 𝑧) = 𝑥 + 2𝑦 + 3𝑧.

2. Encontre uma base ortonormal para P2 (R).

3. Ortonormalize a base 𝛽 = {(1, 2, 0), (2, 3, 3), (2, 0, 8)}.

4. Seja 𝑊 = {(𝑥, 𝑦, 𝑧) ∈ R3 ; 𝑥 − 2𝑦 = 0}. Determinar uma base


ortonormal de 𝑊 .

5. Determinar a projeção ortogonal de 𝑢 = (1, 1) sobre o subespaço


𝑉 = [(1, 3)] do R2 .

6. Seja 𝑉 = R3 e 𝑆 = {(1, 0, 1), (1, 1, 0), (2, 1, 1)}.

(a) Encontre 𝑆 ⊥
(b) Encontre uma base para 𝑆 e 𝑆⊥ .

7. Considere R4 com o produto interno canônico. Seja 𝑊 ⊂ R4 o


subespaço gerado por (1, 0, 1, 1) e (1, 1, 1, 0) . Encontre a projeção
ortogonal em 𝑊 do vetor 𝑣 = (2, 1, 1, 1).
136

4.8 Funcional Linear e Produto Interno

Nesta seção, vamos trabalhar com funcional lineares. Lembremos


que uma transformação linear 𝑓 : 𝑉 → R recebe o nome de funcional
linear em 𝑉.

Proposição 29. [Riesz] Seja 𝑉 um espaço vetorial, com dimensão finita e


produto interno. Dado um funcional linear 𝑓 : 𝑉 → R. Então existe um
vetor 𝑤 em 𝑉 tal que 𝑓 (𝑣) = h𝑤, 𝑣i, para todo 𝑣 em 𝑉.

Demonstração: Seja {𝑣 1 , . . . , 𝑣 𝑛 } uma base ortonormal de 𝑉.


Decompondo 𝑣 nesta base e calculando 𝑓 (𝑣) obtemos

𝑓 (𝑣) = 𝑓 (𝑎1 · 𝑣1 + · · · + 𝑎 𝑛 · 𝑣 𝑛 ) = 𝑎1 · 𝑓 (𝑣 1 ) + · · · + 𝑎 𝑛 · 𝑓 (𝑣 𝑛 ) = h𝑤, 𝑣i

onde 𝑤 = 𝑓 (𝑣 1 ) · 𝑣1 + · · · + 𝑓 (𝑣 𝑛 ) · 𝑣 𝑛 .


Observação 32. Toda transformação linear 𝑇 de um espaço vetorial 𝑉 de


dimensão 𝑛 em R𝑚 é da forma

𝑇𝑣 = ( 𝑓1 (𝑣), . . . , 𝑓𝑚 (𝑣)),

onde 𝑓𝑖 é um funcional linear em 𝑉. Dado um produto interno em 𝑉 , existem


𝑤 1 , . . . , 𝑤 𝑚 ∈ 𝑉 tais que

𝑇𝑣 = (h𝑤 1 , 𝑣i, . . . , h𝑤 𝑚 , 𝑣i).

4.9 Exercícios

1. Mostre o vetor 𝑤 do teorema 29 é único.

2. Use o teorema 29 para determinar o núcleo de um funcional linear.


137

3. Seja 𝑓 : 𝑉 → R um funcional linear e 𝑉 um espaço vetorial com


produto interno. Mostre que existe 𝐾 > 0 tal que 𝑓 (𝑢) ≤ 𝐾 · k𝑢k.
Capítulo 5

Teorema Espectral

Um dos teorema mais importantes da álgebra linear é o teorema


espectral. Antes de prova-lo vamos introduzir alguns conceitos de
álgebra polinomial.

5.1 Polinômio de um Operador

Dados o polinômio 𝑝(𝑥) = 𝑎 0 + 𝑎1 𝑥 + · · · + 𝑎 𝑛 𝑥 𝑛 e o operador linear


𝑇 : 𝑉 → 𝑉 , a notação 𝑃(𝑇) indica o operador

𝑝(𝑇) = 𝑎 0 𝐼 + 𝑎1𝑇 + · · · + 𝑎 𝑛 𝑇 𝑛 : 𝑉 → 𝑉.

Lema 3. Para todo operador linear 𝑇 : 𝑉 → 𝑉 , num espaço vetorial de


dimensão finita, existem um polinômio mônico irredutível 𝑝 de grau 1 ou 2,
e um vetor não nulo 𝑣 ∈ 𝑉 tal que 𝑃(𝑇)𝑣 = 0®L(𝑉 ,𝑉) .

Demonstração: Suponha que 𝑛 = dim 𝑉. Sabemos que dim L(𝑉) =


𝑛 2 . Portanto, o conjunto de operadores 𝐼, 𝑇, . . . , 𝑇 𝑛 são l.d..
2
Isto
significa que existem contantes 𝑎0 , . . . , 𝑎 𝑛 2 ∈ R, tais que

𝑎0 𝐼 + 𝑎1𝑇 + · · · + 𝑎 𝑛 2 𝑇 𝑛 = 0®L(𝑉 ,𝑉)


2

138
139

e algum 𝑎 𝑖 ≠ 0, 𝑖 = 1, . . . , 𝑛 2 . Seja 𝑎 𝑚 ≠ 0 o coeficiente de maior índice


nesta expansão. Dividindo, por 𝑎 𝑚 , temos o polinômio

𝑝(𝑥) = 𝑏 0 + 𝑏 1 𝑥 + · · · + 𝑏 𝑚−1 𝑥 𝑚−1 + 𝑥 𝑚 ,

com 𝑃(𝑇) = 0®L(𝑉 ,𝑉) .


Existe uma fatoração de 𝑝, digamos 𝑝(𝑥) = 𝑝 1 (𝑥) · · · 𝑝 𝑘 (𝑥), onde
cada 𝑝 𝑖 é um polinômio mônico e irredutível de grau 1 ou 2.
Como
𝑃(𝑇) = 𝑝1 (𝑇) · · · 𝑝 𝑘 (𝑇) = 0®L(𝑉 ,𝑉) ,

existe pelo menos um 𝑝 𝑖 (𝑇) não invertível, isto é, existe 𝑣 ∈ 𝑉 tal que
𝑝 𝑖 (𝑇)𝑣 = 0®L(𝑉 ,𝑉) e 𝑣 ≠ 0.
® 

Teorema 26. Considere 𝑇 : 𝑉 → 𝑉 um operador linear num espaço vetorial


de dimensão finita. Existe um subespaço invariante por 𝑇 de dimensão 1 ou
2.

Demonstração: Sejam 𝑝 o polinômio e 𝑣 ∈ 𝑉 o vetor nulo dados pelo


lema acima, com 𝑃(𝑇) · 𝑣 = 0®L(𝑉 ,𝑉) .
Dividiremos nos seguintes casos:

i) Se 𝑝(𝑥) = 𝑥 − 𝜆, então 𝑇𝑣 = 𝜆 · 𝑣. Tomando 𝑊 = [𝑣] temos que 𝑇


é invariante por 𝑇;

ii) Se 𝑃(𝑥) = 𝑥 2 + 𝑎𝑥 + 𝑏, então 𝑇 2 𝑣 + 𝑎𝑇𝑣 + 𝑏𝑣 = 𝑝(𝑇)𝑣 = 0®L(𝑉 ,𝑉) .


Logo 𝑇(𝑇𝑣) = −𝑎𝑇𝑣 − 𝑏𝑣 e asim tomando 𝑊 = [𝑣, 𝑇𝑣] temos que é
invariante por 𝑇. Note que 𝑣, 𝑇𝑣 são l.i., pois se fosse o contrário,
isto é, 𝑇𝑣 = 𝜆 · 𝑣 teríamos

𝑇 2 𝑣 + 𝑎𝑇𝑣 + 𝑏𝑣 = 𝜆2 𝑣 + 𝑎𝜆 · 𝑣 + 𝑏𝑣 = (𝜆2 + 𝑎𝜆 + 𝑏)𝑣,


140

donde 𝜆2 + 𝑎𝜆 + 𝑏 = 0, o que é uma contradição, pois 𝑝(𝑥) =


𝑥 2 + 𝑎𝑥 + 𝑏 não possui raíz real. 

5.2 Adjunta de uma Transformação Linear

Seja 𝑉 um espaço vetorial de dimensão finita, dotado de um produto


interno, e 𝑉 ∗ o seu dual. Definamos a função:

𝜉 : 𝑉 → 𝑉∗
𝑣 ↦→ 𝜉(𝑣) = 𝑣 ∗ : 𝑉 −→ R
𝑤 ↦→ 𝑣 ∗ (𝑤) = h𝑤, 𝑣i

Observe que 𝜉 é linear. de fato, se 𝑢, 𝑣 ∈ 𝑉 e 𝛼 ∈ R temos que

(𝑢 + 𝛼𝑣)∗ (𝑤) = h𝑤, 𝑢 + 𝛼𝑣i = h𝑤, 𝑢i + 𝛼h𝑤, 𝑣i = 𝑢 ∗ (𝑤) + 𝛼𝑣 ∗ (𝑤).

Além disso, 𝜉 é injetiva, pois se 𝑣 ∈ 𝑉 e 𝜉(𝑣) = 𝑣 ∗ = 0 para todo 𝑤 ∈ 𝑉


temos quem
h𝑤, 𝑣i = 𝑣 ∗ (𝑤) = 0∗ (𝑤) = 0.

Fazendo 𝑤 = 𝑣, temos

h𝑣, 𝑣i = 0 ⇒ 𝑣 = 0,

o que prova a injetividade. Note que 𝜉 é sobrejetiva, pois dim 𝑉 =


dim 𝑉 ∗ . Por tudo isso que foi dito, temos que 𝜉 é um isomorfismo.
A adjunta de uma transformação linear 𝑇 : 𝑉 → 𝑈 , onde 𝑈 , 𝑉
são espaços vetoriais de dimensão finita, ambos munido de produto
interno, é a aplicação:

𝑇∗ : 𝑉 → 𝑈
𝑣 ↦→ 𝑇 ∗ 𝑣
141

onde 𝑇 ∗ (𝑣) é um funcional linear em 𝑉 que satisfaz a igualdade

h𝑢, 𝑇 ∗ (𝑣)i = h𝑇𝑢, 𝑣i,

para todo 𝑢 ∈ 𝑈.

Observação 33. O fato de 𝜉 ser um isomorfismo garante que 𝑇 ∗ (𝑣) existe e


é único.

Proposição 30. A Adjunta de 𝑇 : 𝑉 → 𝑉 é uma transformação linear.

Demonstração: De fato, dado 𝑣, 𝑣˜ ∈ 𝑉 e 𝛼 ∈ R temos que

𝑇 ∗ (𝑣 + 𝛼 · 𝑣˜ )𝑢 = h𝑇𝑢, 𝑣 + 𝛼 · 𝑣˜ i = h𝑇𝑢, 𝑣i + 𝛼h𝑇𝑢, 𝑣˜ i =

= h𝑢, 𝑇 ∗ 𝑣i + 𝛼h𝑢,
˜ 𝑇 ∗ 𝑣˜ i = 𝑇 ∗ (𝑣)(𝑢) + 𝛼𝑇 ∗ (𝑣˜ )(𝑢). 

Teorema 27. Seja 𝑇 : 𝑉 → 𝑉 um operador linear, onde 𝑉 é um espaço de


dimensão finita, munido de um produto interno. Se 𝑈 ⊂ 𝑉 for um subespaço
invariante por 𝑇, então 𝑈 ⊥ é invariante por 𝑇 ∗ .

Demonstração: Sejam 𝑢 ∈ 𝑈 , 𝑣 ∈ 𝑈 ⊥ , então 𝑇𝑢 ∈ 𝑈 e

h𝑢, 𝑇 ∗ 𝑣i = h𝑇𝑢, 𝑣i = 0,

implicando que 𝑇 ∗ 𝑣 ∈ 𝑈 ⊥ .
Logo 𝑈 ⊥ é invariante por 𝑇 ∗ .


5.3 Exercícios

1. Mostre que se o operador linear 𝑇 é diagonalizável então 𝑇 ∗ é


diagonalizável.
142

2. Seja 𝑇 : 𝑉 → 𝑉 um operador diagonalizável. Se o subespaço


𝑈1 ⊂ 𝑉 é invariante por 𝑇, prove que existe um subespaço
𝑈2 ⊂ 𝑉também invariante por 𝑇 tal que 𝑉 = 𝑈1 ⊕ 𝑈2 .

5.4 Operadores Auto-Adjuntos e Teorema Espectral

Um operador 𝑇 : 𝑉 → 𝑉 , num espaço vetorial munido de um


produto interno, chama-se auto-adjunto quando 𝑇 ∗ = 𝑇, ou seja,

h𝑇𝑢, 𝑣i = h𝑢, 𝑇𝑣i

para todo 𝑢, 𝑣 ∈ 𝑉.

Observação 34. O produto 𝑇𝑆 dos operadores auto-adjuntos 𝑇, 𝑆 é auto-


adjunto se, e somente se, 𝑇 e 𝑆 comutam, isto é, 𝑇 ◦ 𝑆 = 𝑆 ◦ 𝑇. De fato,

(𝑇 ◦ 𝑆)∗ = 𝑆 ∗ ◦ 𝑇 ∗ = 𝑆 ◦ 𝑇.

Teorema 28. Seja 𝑉 um espaço vetorial de dimensão finita, munido de um


produto interno. O operador linear 𝑇 : 𝑉 → 𝑉 é auto-adjunto se, e somente
se, a sua matriz [𝑎 𝑖𝑗 ] relativa a uma base ortonormal (e portanto a qualquer)
é uma matriz simetrica, isto é, 𝑎 𝑖𝑗 = 𝑎 𝑗𝑖 .

Demonstração: Seja 𝛽 = {𝑣 1 , . . . , 𝑣 𝑛 } ⊂ 𝑉 uma base ortonormal.


Supondo 𝑇 auto-adjunto,temos que 𝑎 𝑖𝑗 = h𝑣 𝑖 , 𝑇𝑣 𝑗 i = h𝑇𝑣 𝑖 , 𝑣 𝑗 i = 𝑎 𝑗𝑖 .
Reciprocamente, supondo 𝑎 𝑖𝑗 = 𝑎 𝑗𝑖 , temos que

h𝑣 𝑖 , 𝑇𝑣 𝑗 i = h𝑇𝑣 𝑖 , 𝑣 𝑗 i.

Dado 𝑣, 𝑤 ∈ 𝑉 temos que 𝑣 = 𝑎1 ·𝑣1 +· · ·+𝑎 𝑛 ·𝑣 𝑛 e 𝑤 = 𝑏 1 ·𝑣1 +· · ·+𝑏 𝑛 ·𝑣 𝑛 ,


onde 𝑎 𝑖 , 𝑏 𝑖 ∈ R, 𝑖 = 1, . . . , 𝑛. Pela bilinearidade do produto interno
143

temos que
h𝑇𝑣, 𝑤i = h𝑣, 𝑇𝑤i, ∀𝑣, 𝑤 ∈ 𝑉.

Portanto 𝑇 é auto-adjunto. 

Teorema 29. Seja 𝑇 : 𝑉 → 𝑉 um operador linear auto-adjunto, onde 𝑉 é


um espaço de dimensão finita, munido de um produto interno e 𝑈 ⊂ 𝑉 é um
subespaço de 𝑉 , então 𝑈 ⊥ é invariante por 𝑇.

Demonstração: Temos que

𝑢 ∈ 𝑈 , 𝑢 ⊥ ∈ 𝑈 ⊥ ⇒ 𝑇𝑢 ∈ 𝑈 ⇒ h𝑢, 𝑇 ∗ (𝑢 ⊥ )i = h𝑇𝑢, 𝑢 ⊥ i = 0.

Isso implica que 𝑇 ∗ (𝑢 ⊥ ) ∈ 𝑈 ⊥ . Consequentemente, 𝑈 ⊥ é invariante por


𝑇∗. 

Teorema 30. Se 𝜆1 , . . . , 𝜆𝑚 são autovalores, todos distintos, do operador


linear auto-adjunto 𝑇 : 𝑉 → 𝑉 , os autovetores correspondentes 𝑣 1 , . . . , 𝑣 𝑚
são todos ortogonais entre si.

Demonstração: Para 𝑖 ≠ 𝐽, temos

(𝜆 𝑖 − 𝜆 𝑗 )h𝑣 𝑖 , 𝑣 𝑗 i = h𝜆 𝑖 · 𝑣 𝑖 , 𝑣 𝑗 i − h𝑣 𝑖 , 𝜆 𝑗 · 𝑣 𝑗 i = h𝑇𝑣 𝑖 , 𝑣 𝑗 i − h𝑣 𝑖 , 𝑇𝑣 𝑗 i = 0,
| {z }
h𝑇𝑣 𝑖 ,𝑣 𝑗 i

pois 𝑇 é auto-adjunto.
Como 𝜆 𝑖 ≠ 𝜆 𝑗 e 𝜆 𝑖 , 𝜆 𝑗 ≠ 0, temos que a igualdade

(𝜆 𝑖 − 𝜆 𝑗 )h𝑣 𝑖 , 𝑣 𝑗 i = 0

implica que
h𝑣 𝑖 , 𝑣 𝑗 i = 0.


144

Observação 35. Os vetores 𝑣 1 , . . . , 𝑣 𝑛 podem ser tomando unitários.

Teorema 31. Sejam 𝑉 um espaço euclidiano de dimensão 2 e 𝑇 : 𝑉 → 𝑉


um operador linear auto-adjunto. Então existe uma base ortonormal de 𝑉
formada por autovetores de 𝑇.

Demonstração: Seja 𝑢, 𝑣 uma base ortonormal de 𝑉. Como toda


matriz de um operador auto-adjunto é simétrica, existem 𝑎, 𝑏, 𝑐 ∈ R,
tais que 𝑇𝑣 = 𝑎𝑣 + 𝑏𝑢 e 𝑇(𝑤) = 𝑏𝑣 + 𝑐𝑤 e seu polinômio característico
é 𝑝𝑇 (𝜆) = 𝜆2 − (𝑎 + 𝑐)𝜆 + 𝑎𝑐 − 𝑏 2 . Seu discriminate é

Δ = (𝑎 + 𝑐)2 − 4(𝑎𝑐 − 𝑏 2 ) = (𝑎 − 𝑐)2 + 4𝑏 2 ≥ 0.

Se Δ = 0 então 𝑏 = 0 e 𝑎 = 𝑐. Logo 𝑇 = 𝑎 · 𝐼, e todo vetor não nulo é


autovetor de 𝑇.
Se Δ ≥ 0, então 𝑃𝑇 (𝜆) tem duas raízes reais distintas 𝜆1 e 𝜆2 . Logo
𝑇 − 𝜆1 · 𝐼 e 𝑇 − 𝜆2 · 𝐼 não são invertíveis, asim existe 𝑢1 , 𝑢2 ∈ 𝑉 tais
que (𝑇 − 𝜆1 · 𝐼)𝑢1 = 0 e (𝑇 − 𝜆2 · 𝐼)𝑢2 = 0, ou seja, 𝑇𝑢1 = 𝜆1 · 𝑢1 e
𝑇𝑢2 = 𝜆2 ·𝑢2 . Pelo teorema anterior os autovetores correspondentes são
ortogonais. Por fim, basta tomar como base dois autovetores unitários
correspondentes a cada um dos autovalores.


Corolário 10. Todo operador auto-adjunto num espaço vetorial de dimensão


finita, possui um autovetor.

Demonstração: Com efeito, exite um subespaço 𝑈 ⊂ 𝑉 , de dimensão


1 ou 2, invariante por 𝑇. Se dim 𝑈 = 1 não há nada para fazer. Se dim
𝑈 = 2, usamos o teorema acima.


Teorema 32. (Espectral) Para todo operador linear auto-adjunto 𝑇 : 𝑉 → 𝑉 ,


145

num espaço vetorial de dimensão finita munido de um produto interno, existe


uma base ortonormal {𝑣1 , . . . , 𝑣 𝑛 } ⊂ 𝑉 formada por autovetores de 𝑇.

Demonstração: Provaremos por indução sobre a dimensão de 𝑉.


Se dim 𝑉 = 1 é evidente.
Suponha que o teorema seja válido para em dimensão 𝑛 − 1.
Mostremos que vale para dim 𝑉 = 𝑛.
Pelo corolário anterior temos que existe um autovetor 𝑣 𝑛 unitário e
assim 𝑈 = [𝑣 𝑛 ] é um subespaço invariante por 𝑇. Como dim 𝑈 ⊥ = 𝑛−1,
por hipótese de indução existe uma base ortonormal {𝑣1 , . . . , 𝑣 𝑛−1 } ⊂
𝑈 ⊥ formada por autovetores da restrição 𝑇 : 𝑈 ⊥ → 𝑈 ⊥ , que ainda é
linear.
Logo {𝑣 1 , . . . , 𝑣 𝑛 } é uma base de 𝑉 formada por autovetores (e
ortonormal) de 𝑇.


Teorema 33. Se existe uma base ortonormal {𝑣 1 , . . . , 𝑣 𝑛 } ⊂ 𝑉 de autovetores


do operador linear 𝑇 : 𝑉 → 𝑉 , onde 𝑉 é um espaço vetorial de dimensão
finita, munido de um produto interno, então 𝑇 é auto-adjunto.

Demonstração: Temos que

h𝑇𝑣 𝑖 , 𝑣 𝑗 i = h𝜆 𝑖 · 𝑣 𝑖 , 𝑣 𝑗 i = 𝜆 𝑖 · 𝛿 𝑖𝑗 = 𝜆 𝑗 · 𝛿 𝑗𝑖 = h𝑣 𝑖 , 𝜆 𝑗 · 𝑣 𝑗 i = h𝑣 𝑖 , 𝑇𝑣 𝑗 i,

para 𝑖, 𝑗 = 1, . . . , 𝑛. 

5.5 Exercícios

1. sejam 𝑇, 𝑆 : 𝑉 → 𝑉 dois operadores auto-adjuntos tais que

h𝑇𝑣, 𝑣i = h𝑆𝑣, 𝑣i,


146

para todo 𝑣 ∈ 𝑉. Prove que 𝑇 = 𝑆.

2. Se 𝑇 é invertível e 𝑇 ◦ 𝑆 ◦ 𝑇 ∗ é auto-adjunto, prove que 𝑆 é auto-


adjunto.

3. Se 𝑇 é auto-adjunto. Prove que 𝑇 𝑘 𝑣 = 0 implica 𝑇𝑣 = 0.

4. Dados os vetores 𝑣 = (2, −1, 2) e 𝑤 = (3, −6, −6), determine o


operador auto-adjunto 𝑇 : R3 → R3 tal que 𝑇𝑣 = (1, 1, 13) e
𝑇(𝑤) = (3, 21, 33), sabendo que o traço de 𝑇 é 5.

5. Dados os vetores 𝑢 = (4, 4, −2), 𝑣 = (4, −2, 4) e 𝑤 =


(1, −2, −2), seja 𝑇 : R3 → R3 o operador linear tal que 𝑇(𝑢) =
(10, −2, −2), 𝑇𝑣 = (−2, 1, −2) e 𝑇(𝑤) = (1, 1, −5). Prove que 𝑇 é
auto-adjunto.

6. Se os operadores 𝑇, 𝑆 : 𝑉 → 𝑉 são auto-adjuntos, prove que


𝑇𝑆 + 𝑆𝑇 é auto-adjunto.

7. Se 𝑇 = 𝑇 ∗ : 𝑉 → 𝑉 e h𝑇𝑢, 𝑢i = 0 para todo 𝑢 ∈ 𝑉 , mostre que


𝑇 = 0.

8. Sejam 𝑇, 𝑆 operadores autodjuntos. Se 𝑆𝑇 é diagonalizável então


𝑇𝑆 é diagonalizável.

5.6 Operadores Positivos e Não-Negativos

No teorema espectral trabalhamos com operadores lineares, mas


é possível generalizar este teorema para uma transformação linear
qualquer. Temos como foco principal enunciar e demonstrar este
resultado pouco conhecido, chamado teorema dos Valores Singulares.
Um operador 𝑇 : 𝑉 → 𝑉 é não-negativo, e escrevemos por
𝑇 ≥ 0, quando 𝑇 for auto-adjunto e h𝑇𝑣, 𝑣i ≥ 0 para todo 𝑣 ∈ 𝑉.
147

Se h𝑇𝑣, 𝑣i > 0 para todo 𝑣 ∈ 𝑉 dizemos que 𝑇 é um operador positivo


e representamos por 𝑇 > 0.

Teorema 34. Um operador 𝑇 : 𝑉 → 𝑉 auto-adjunto é não-negativo se, e


somente se, todos os seus autovetores são números positivos.

Demonstração: Suponha que 𝑇 ≥ 0. Se 𝑇𝑣 = 𝜆 · 𝑣 com 𝑣 ≠ 0 então

𝜆h𝑣, 𝑣i = h𝜆 · 𝑣, 𝑣i = h𝑇𝑣, 𝑣i ≥ 0

logo 𝜆 ≥ 0. Reciprocamente, seja {𝜆1 , . . . , . . . , 𝜆𝑛 } os autovalores todos


positivos de 𝑇 associado a base ortonormal {𝑣 1 , . . . , 𝑣 𝑛 } ⊂ 𝑉 de 𝑉.
Escrevendo 𝑣 ∈ 𝑉 , com combinação da base
𝑛
Õ
𝑣= 𝑎𝑖 · 𝑣𝑖 ,
𝑖=1

temos que
𝑛 𝑛 𝑛
* +
Õ Õ Õ
h𝑇𝑣, 𝑣i = 𝑎 𝑖 𝑇𝑣 𝑖 , 𝑎𝑗 · 𝑣𝑗 = 𝜆 𝑖 𝑎 2𝑖
𝑖=1 𝑗=1 𝑖=1

como 𝜆 𝑖 ≥ 0 segue que h𝑇𝑣, 𝑣i ≥ 0, isto é , 𝑇 ≥ 0. 

Observação 36. A afirmação sobre operadores positivos se prova da mesma


forma.

Teorema 35. Seja 𝑇 ≥ 0. Se para algum 𝑣 ∈ 𝑉 , vale h𝑇𝑣, 𝑣i = 0, então


𝑣 ∈ N(𝑇).
148

Demonstração: Com efeito, temos


𝑘
Õ
𝑇𝑣 = 𝜆𝑖 𝑎 𝑖 · 𝑣 𝑖
𝑖=1

e asim
𝑘
Õ
0 = h𝑇𝑣, 𝑣i = 𝜆 𝑖 𝑎 2𝑖
𝑖=1

implicando que 𝑎 𝑖 = 0, pois 𝜆 𝑖 > 0. 

Teorema 36. Um operador é não negativo e invertível se, e somente se, é


positivo.

Demonstração: Com efeito, suponha que 𝑇 ≥ 0 é invertível, então


para todo 𝑣 ≠ 0® tem-se 𝑇𝑣 ≠ 0.
® O corolário anterior garante que
h𝑇𝑣, 𝑣i > 0. Reciprocamente, suponha que 𝑇 > 0. Devemos mostrar
que 𝑇 é positivo e invertível. É claro que se 𝑇 é positivo, então 𝑇
é não-negativo. Resta mostrar que 𝑇 é invertível. Note que seus
autovalores são positivos e portanto o determinante da matriz relativa
a base ortonormal de autovetores é positiva implicando que 𝑇 é um
isomorfismo. 

5.7 Exercícios

1. Seja 𝑉 um espaço vetorial de dimensão finita e 𝑇 : 𝑉 → 𝑉 um


operador autoadjunto e 𝑆 ∈ L(𝑉). Mostre que se 𝑇 ≥ 0 então
𝑆 ∗𝑇𝑆 ≥ 0.

2. Seja 𝑉 um espaço vetorial de dimensão finita e 𝑇 : 𝑉 → 𝑉 um


operador autoadjunto e 𝑆 ∈ L(𝑉). Mostre que se 𝑇 > 0 e 𝑆 for
invertível, então 𝑆 ∗𝑇𝑆 > 0.
149

5.8 A Adjunta e o Complemento Ortogonal

Para o que segue precisamos de

Teorema 37. Dada a transformação linear 𝑇 : 𝑈 → 𝑉 , onde 𝑈 e 𝑉 são


espaços vetoriais de dimensão finita munido de produto interno, tem-se

N(𝑇 ∗ ) = I𝑚(𝑇)⊥ , I𝑚(𝑇 ∗ ) = N(𝑇)⊥ , N(𝑇) = I𝑚(𝑇 ∗ )⊥ e I𝑚(𝑇) = N(𝑇 ∗ )⊥

Demonstração: Veja exercícios 1 da Seção 5.9.

Corolário 11. O posto de 𝑇 ∗ é igual ao posto de 𝑇.

Demonstração: Com efeito, se dim 𝑉 = 𝑛, pelo teorema do núcleo e


da imagem temos

𝑛 = dim N(𝑇) + dim Im(𝑇)

Daí,

dim Im(𝑇 ∗ ) = 𝑛 − dim Im(𝑇 ∗ )∗ = 𝑛 − dim N(𝑇) = dim Im(𝑇) 

Teorema 38. Seja 𝑇 : 𝑈 → 𝑉 uma transformação linear entre espaços


vetoriais de dimensão finita munidos de produto interno. Os operadores
𝑇 ∗ ◦ 𝑇 : 𝑈 → 𝑈 e 𝑇 ◦ 𝑇 ∗ : 𝑉 → 𝑉 são não-negativos e têm o mesmo posto
de 𝑇 (e de 𝑇 ∗ ). Em particular, 𝑇 ∗ ◦ 𝑇 e 𝑇 ◦ 𝑇 ∗ são positivos se, e somente se,
𝑇 é invertível.

Demonstração: Da definição de operadores adjuntos temos que


(𝑇 ∗ ◦ 𝑇)∗ = 𝑇 ∗ ◦ 𝑇 ∗∗ e como 𝑇 é auto-adjunto temos que (𝑇 ∗ ◦ 𝑇)∗ = 𝑇 ∗ ◦ 𝑇,
150

assim 𝑇 ∗ ◦ 𝑇 é auto-adjunto. Analogamente podemos concluir que


𝑇 ◦ 𝑇 ∗ é auto-adjunto.
Mostremos agora que 𝑇 ∗ ◦ 𝑇 é não-negativo. Para 𝑣 ∈ 𝑉 , temos

h𝑇 ∗ ◦ 𝑇𝑣, 𝑣i = h𝑇𝑣, 𝑇𝑣i ≥ 0.

Da modo análogo temos que 𝑇 ◦ 𝑇 ∗ ≥ 0.


Resta agora verificar o posto de 𝑇 ∗ ◦ 𝑇 e 𝑇 ◦ 𝑇 ∗ . Faremos a prova para
𝑇 ∗ ◦ 𝑇 e o outro segue de modo similar.
Afirmação: N(𝑇) = N(𝑇 ∗ ◦ 𝑇)
É óbvio que N(𝑇) ⊂ N(𝑇 ∗ ◦ 𝑇). Aoutra inclusão sai dessa maneira: se
𝑣 ∈ N(𝑇 ∗ ◦ 𝑇) então

𝑇 ∗ ◦ 𝑇𝑣 = 0 ⇒ 𝑇𝑣 ∈ N(𝑇 ∗ ) = Im(𝑇)⊥

⇒ 𝑇𝑣 ∈ Im(𝑇) ∩ Im(𝑇)⊥
⇒ 𝑇𝑣 = 0
⇒ 𝑣 ∈ N(𝑇).
Por fim,

dim I𝑚(𝑇 ∗ ◦ 𝑇) = dim 𝑈 − dim N(𝑇 ∗ ◦ 𝑇)

= dim 𝑈 − dim N(𝑇)

= dim Im(𝑇).

5.9 Exercícios

1. Dada a transformação linear 𝑇 : 𝑈 → 𝑉 , onde 𝑈 e 𝑉 são espaços


vetoriais de dimensão finita munido de produto interno. Mostre
151

que

(a) N(𝑇 ∗ ) = I𝑚(𝑇)⊥ ;


(b) I𝑚(𝑇 ∗ ) = N(𝑇)⊥ ;
(c) N(𝑇) = I𝑚(𝑇 ∗ )⊥ ;
(d) I𝑚(𝑇) = N(𝑇 ∗ )⊥ .

5.10 Teorema dos Valores Singulares: Uma


generalização do Teorema Espectral

Teorema 39. Seja 𝑇 : 𝑈 → 𝑉 uma transformação linear de posto 𝑟


entre espaços vetoriais, de dimensão finita. Existem duas bases ortonormais
{𝑢1 , . . . , 𝑢𝑛 } ⊂ 𝑈 e {𝑣1 , . . . , 𝑣 𝑚 } ⊂ 𝑉 tais que

𝑇𝑢𝑖 = 𝜆˜ 𝑖 · 𝑣 𝑖 e 𝑇 ∗ 𝑣 𝑖 = 𝜆˜ 𝑖 · 𝑢𝑖 ,

onde 𝜆˜ 𝑖 > 0, para 𝑖 = 1, . . . , 𝑟 e 𝜆˜ 𝑖 = 0 para 𝑖 ≥ 𝑟 + 1.

Demonstração: O operador 𝑇 ∗ ◦ 𝑇 : 𝑈 → 𝑈 é auto-adjunto não-


negativo e seu posto é 𝑟. O teorema espectral aplicado a 𝑇 ∗ ◦ 𝑇
garante a existência de uma base ortonormal {𝑢1 , . . . , 𝑢𝑛 } ⊂ 𝑈 tal que
𝑇 ∗ ◦ 𝑇𝑢𝑖 = 𝜆2 · 𝑢𝑖 , com 𝜆2𝑖 > 0 se 𝑖 = 1, . . . , 𝑟 e 𝜆2𝑖 = 0 se 𝑖 = 𝑟 + 1, . . . , 𝑛,
pois N(𝑇) = N(𝑇 ∗ ◦ 𝑇), portanto 𝑇𝑢𝑖 = 0 se 𝑟 + 1 ≤ 𝑖 ≤ 𝑛. Assim,

h𝑇𝑢𝑖 , 𝑇𝑢 𝑗 i = h𝑢𝑖 , 𝑇 ∗ ◦ 𝑇𝑢 𝑗 i = h𝑢𝑖 , 𝜆2𝑗 · 𝑢 𝑗 i = 𝜆2𝑗 · 𝛿 𝑖𝑗 , 𝑖, 𝑗 = 1, . . . , 𝑟.

Logo 𝑇𝑢1 , . . . , 𝑇𝑢𝑟 são ortogonais entre si. Além disso,

k𝑇𝑢𝑖 k 2 = 𝜆2𝑖 k𝑢𝑖 k ⇒ k𝑇𝑢𝑖 k = |𝜆 𝑖 |

Podemos escrever, para 𝑖 = 1, . . . , 𝑟, 𝑇𝑢𝑖 = |𝜆 𝑖 |𝑣 𝑖 com {𝑣1 , . . . , 𝑣 𝑟 } ⊂


152

𝑉 um conjunto ortonormal (basta tomar uma base ortonormal


de I𝑚(𝑇)) o qual pode ser completada por uma base ortonormal
{𝑣 1 , . . . , 𝑣 𝑟 } ⊂ 𝑉 com {𝑣 𝑟+1 , . . . , 𝑣 𝑚 } ⊂ I𝑚(𝑇)⊥ = N(𝑇 ∗ ).
Daí, 𝑇 ∗ 𝑣 𝑖 = 0 se 𝑖 > 𝑟 e para 𝑖 = 1, . . . , 𝑟 temos
 
∗ ∗ 1 1 ∗ 1 2
𝑇 𝑣𝑖 = 𝑇 𝑇𝑢𝑖 = 𝑇 ◦ 𝑇𝑢𝑖 = 𝜆 · 𝑢𝑖 = |𝜆 𝑖 |𝑢𝑖
|𝜆 𝑖 | |𝜆 𝑖 | |𝜆 𝑖 | 𝑖

Chamando |𝜆 𝑖 | = 𝜆˜ 𝑖 temos o resultado obtido. 

Do ponto de vista matricial temos:


Os valores singulares de uma matriz 𝐴 de ordem 𝑚 × 𝑛 são
as raízes quadradas dos autovalores de 𝐴𝑡 𝐴 e são denotados por
𝜎1 , . . . , 𝜎𝑛 . É convencional ordenar os valores singulares de modo que
𝜎1 ≥ 𝜎2 ≥ · · · ≥ 𝜎 𝑛 .
Uma vez introduzidos os valores singulares, pode-se enunciar o
Teorema da Decomposição em Valores Singulares (SVD).

Teorema 40. Toda matriz 𝐴, 𝑚 × 𝑛, com valores singulares

𝜎1 ≥ 𝜎2 ≥ · · · ≥ 𝜎𝑟 ,

pode ser fatorada como produto de três matrizes:

𝐴 = 𝑈Σ𝑉 𝑡

onde

• 𝑉 e uma matriz ortogonal 𝑛 × 𝑛 construída a partir de um conjunto


ortonormal de autovetores associados aos autovalores da matriz 𝐴𝑡 𝐴,
dado por
{𝑣 1 , 𝑣2 , . . . , 𝑣 𝑛 } ;
153

• 𝑈 é uma matriz ortogonal 𝑚 × 𝑚, cujos elementos são determinados por

1
𝑢𝑖 = 𝐴𝑣 𝑖 , 𝑖 = 1, . . . , 𝑚;
𝜎𝑖

• Σ é uma matriz "diagonal"𝑚×𝑛. Supondo que 𝐴 tem r valores singulares


não nulos, teremos Σ da forma:
h i h i
𝐷
 
 0 
𝑟×𝑟 h i 𝑟×(𝑛−𝑟)
Σ= 
 h i 

 0 0 

 (𝑚−𝑟)×𝑟 (𝑚−𝑟)×(𝑛−𝑟) 
 𝑚×𝑛

 𝜎1 . . . 0 
 .. . . .. 
 
em que 𝐷 =  . . . .
 
 0 . . . 𝜎𝑟 
  𝑟×𝑟
Exemplo 76. Vamos calcular a decomposição em valores singulares da matriz

 1 1
 
𝐴=  0 0.
 
 
 −2 2 
 
√ √
Os autovalores da matriz 𝐴𝐴𝑇 são 𝜎1 = 8, 𝜎2 = 2. De fato,

 1 1" # 2 0 0
  1 0 −2  
𝑇
𝐴𝐴 =  0 0  =0 0 0
   
 −2 2  1 0 2
   
0 0 8
   
𝑇
Os autovalores serão as raízes de det 𝐴𝐴 − 𝜆𝐼 = 0


 2−𝜆 0 0 
 
det  0 −𝜆 0  = 0 ⇒ (2 − 𝜆)(8 − 𝜆)(−𝜆) = 0
 
 
 0
 0 8−𝜆 

154

Portanto a matriz Σ será:



 8 0 
 √ 
Σ=  0 2

 
 0 0 
 
Vamos calcular os autovetores associados aos três autovalores.

• 𝜆1 = 8 :
 2 − 𝜆1 0 0  𝑥 0
     
 0 0 − 𝜆1 0 𝑦=0
     

     
 0
 0 8 − 𝜆1 

𝑧  0
   
Resolvendo o sistema e tomando 𝑧 = 1 tem-se 𝑥 = 𝑦 = 0. Assim,

0
 
𝑢1 =  0  ;
 
 
1
 

• 𝜆2 = 2
 2 − 𝜆2 0 0  𝑥 0
     
 0 0 − 𝜆2 0 𝑦=0
     

     
 0
 0 8 − 𝜆2 

𝑧  0
   
Resolvendo o sistema e tomando 𝑥 = −1 tem-se 𝑧 = 𝑦 = 0. Assim,

 −1 
 
𝑢2 =  0 
 
 
 0 
 

• 𝜆3 = 0 :
 2 − 𝜆3 0 0  𝑥 0
     
 0 0 − 𝜆3 0 𝑦=0
     

     
 0
 0 8 − 𝜆3 

𝑧  0
   
155

Resolvendo o sistema e tomando 𝑦 = −1 tem-se 𝑧 = 𝑥 = 0. Assim,

 0 
 
𝑢3 =  −1 
 
 
 0 
 

Como k𝑢1 k = k𝑢2 k = k𝑢3 k = 1, a matriz 𝑈 de 𝐴 será. Para encontrar a


1 𝑇
matriz 𝑉 usa-se o fato que 𝑣 𝑖 = 𝜎𝑖 𝐴 𝑢 𝑖 . Portanto, o vetor 𝑣1 será:

" #0 " √ #


1 𝑇 1 1 0 −2  
  − 2/2
𝑣1 = 𝐴 𝑢1 = √ 0= √
𝜎1 8 1 0 2   2/2
1
 
O vetor 𝑣 2 será:

" #  −1  " √ #
1 𝑇 1 1 0 −2   − 2/2
𝑣2 = 𝐴 𝑢2 = √  0 = √

𝜎2 2 1 0 2   − 2/2
 0 

Segue que: " √ √ #
− 2/2 − 2/2
𝑉= √ √
2/2 − 2/2
Logo

 0 −1 0   8 0  " √
 − 2/2 √2/2
#
  √
𝐴 = 𝑈Σ𝑉 𝑇 =  0 0 −1   0 2 √ √ .
  
   − 2/2 − 2/2
1 0 0  0 0 
  
156

5.11 Exercícios

1. Calcule os valores singulares do operador 𝑇 : R2 → R3 dada por


√ √
𝑇(𝑥, 𝑦) = (𝑥, 2𝑦, 2𝑦).
2 1
 
2. Calcule os valores singulares da matriz 𝐴 =  1 2 
 
 
0 0
 
Referências Bibliográficas

[1] BIEZUNER, R. J.,Notas de Álgebra Linear, Minas Gerais, 2006.

[2] BOLDRINI, J. L. et all., Álgebra Linear. São Paulo: Harbra, 1980.

[3] CALLIOLI, C. A., Álgebra Linear e Aplicações. 6.ed. São Paulo:


Atual, 1990

[4] COELHO, F. U. , LOURENÇO, M. L. , Um Curso de Álgebra Linear,


edusp, 2001.

[5] DE SOUZA PEREIRA, S. C. Introdução às técnicas de


Regularização em Problemas Inversos Discretos.

[6] GONÇALVES, A. et all. Introdução à Álgebra Linear, São Paulo,


Edgard Blucher, 1977

[7] HERNANDEZ, E.e PIERRI, M. Notas de Álgebra Linear.

157
158

[8] HEFEZ, A.; FERNANDEZ, C. de S. Introdução Álgebra Linear-


Coleção PROFMAT. SBM, 1a edição, 2013.

[9] HOFFMAN, K. e KUNZE, R., Linear Álgebra, 2nd. Ed., Prentice


Hall, 1971.

[10] LANG, S., Álgebra Linear, 3a. Ed., Editora Ciência Moderna, 2004.

[11] LIMA, E. L.. Álgebra Linear. Coleção Matemática Universitária.


Sexta edição. Rio de Janeiro, IMPA, 1996.

[12] LIPSCHUTZ, S.. Álgebra Linear. 3a edição. São Paulo: McGraw-


Hill do Brasil Ltda, 1997.

[13] OLIVEIRA, J. V. de et al. Estudo da decomposição em valores


singulares e análise dos componentes principais, 2017.

[14] SILVA, J. L. da. Bidualização de espaços afins. 2018. Dissertação


de Mestrado. Brasil.

[15] SOLTO, G. et al. Decomposição em valores singulares, 2000.

[16] SILVA, A. DE A. Introdução a Álgebra Linear, notas de aula, UFPB.


159

[17] SPLINDLER, K., Abstract Algebra with Applications, Vol. 1


Marcel Dekker, Inc.1994

[18] STEINBRUCH, A. e WINTERLE, P., Álgebra Linear, S. Paulo,


McGraw-Hill, 1987.

[19] STRANG, G., Linear Algebra and its Applications, 3rd. Ed.,
Brooks Cole, 1988.

[20] ZANI, S. L., Álgebra Linear. São Paulo, ICMC-Usp, 2003.

Você também pode gostar