Você está na página 1de 72

Soluções comentadas do livro “Álgebra Linear e suas

Aplicações - Petronio Pulino”

Hugo Valadão
hugoaladav@gmail.com

Universidade Estadual de Campinas


11 de Novembro de 2018
1

Atenção:
As resoluções dos exercı́cios deste documento, mesmo tendo sido revisadas, podem conter al-
guns erros. Sendo assim, é importante lê-las com olhar crı́tico e com atenção aos erros (leves ou
graves) que possam surgir. Caso perceba qualquer erro (inclusive erro de digitação), agradeceria
que me notificasse por e-mail para poder corrigir e atualizar o arquivo. Aliás, este é um docu-
mento em constante construção e atualização, acesse o link do Google Drive (https://goo.gl/UhPMLv)
para ter acesso à versão mais recente.
Meus agradecimentos a Laryssa Abdala que revisou, corrigiu e sugeriu algumas das soluções
deste pdf!

Hugo Valadão
hugoaladav@gmail.com

11 de Agosto de 2018
Conteúdo

1 Estruturas Algébricas 6
1.0.1 Exercı́cio 1.1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.0.2 Exercı́cio 1.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.0.3 Exercı́cio 1.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.0.4 Exercı́cio 1.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.0.5 Exercı́cio 1.7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.0.6 Exercı́cio 1.12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.0.7 Exercı́cio 1.17 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.0.8 Exercı́cio 1.20 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.0.9 Exercı́cio 1.21 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

2 Espaços Vetoriais 10
2.0.1 Exercı́cio 3.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.0.2 Exercı́cio 3.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.0.3 Exercı́cio 3.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.0.4 Exercı́cio 3.9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.0.5 Exercı́cio 3.11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.0.6 Exercı́cio 3.14 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.0.7 Exercı́cio 3.16 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.0.8 Exercı́cio 3.17 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.0.9 Exercı́cio 3.20 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.0.10 Exercı́cio 3.21 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.0.11 Exercı́cio 3.23 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.0.12 Exercı́cio 3.24 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.0.13 Exercı́cio 3.25 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.0.14 Exercı́cio 3.28 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.0.15 Exercı́cio 3.29 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.0.16 Exercı́cio 3.34 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.0.17 Exercı́cio 3.35 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.0.18 Exercı́cio 3.37 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.0.19 Exercı́cio 3.39 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2
CONTEÚDO 3

2.0.20 Exercı́cio 3.43 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21


2.0.21 Exercı́cio 3.46 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.0.22 Exercı́cio 3.48 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.0.23 Exercı́cio 3.54 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.0.24 Exercı́cio 3.57 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.0.25 Exercı́cio 3.58 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.0.26 Exercı́cio 3.60 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.0.27 Exercı́cio 3.62 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.0.28 Exercı́cio 3.63 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.0.29 Exercı́cio 3.64 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.0.30 Exercı́cio 3.67 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.0.31 Exercı́cio 3.69 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.0.32 Exercı́cio 3.70 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.0.33 Exercı́cio 3.72 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

3 Transformações Lineares 31
3.0.1 Exercı́cio 4.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.0.2 Exercı́cio 4.6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.0.3 Exercı́cio 4.9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.0.4 Exercı́cio 4.10 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.0.5 Exercı́cio 4.17 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.0.6 Exercı́cio 4.19 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.0.7 Exercı́cio 4.25 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.0.8 Exercı́cio 4.26 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.0.9 Exercı́cio 4.28 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.0.10 Exercı́cio 4.42 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.0.11 Exercı́cio 4.45 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.0.12 Exercı́cio 4.53 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.0.13 Exercı́cio 4.55 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

4 Produto Interno 40
4.0.1 Exercı́cio 5.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.0.2 Exercı́cio 5.7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.0.3 Exercı́cio 5.12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.0.4 Exercı́cio 5.14 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.0.5 Exercı́cio 5.18 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.0.6 Exercı́cio 5.29 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.0.7 Exercı́cio 5.31 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.0.8 Exercı́cio 5.41 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.0.9 Exercı́cio 5.53 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.0.10 Exercı́cio 5.55 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.0.11 Exercı́cio 5.57 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
CONTEÚDO 4

4.0.12 Exercı́cio 5.58 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46


4.0.13 Exercı́cio 5.59 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.0.14 Exercı́cio 5.60 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.0.15 Exercı́cio 5.62 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.0.16 Exercı́cio 5.64 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.0.17 Exercı́cio 5.66 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.0.18 Exercı́cio 5.67 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.0.19 Exercı́cio 5.71 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

5 Autovalores e Autovetores 51
5.0.1 Exercı́cio 6.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.0.2 Exercı́cio 6.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.0.3 Exercı́cio 6.6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.0.4 Exercı́cio 6.9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.0.5 Exercı́cio 6.11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.0.6 Exercı́cio 6.13 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.0.7 Exercı́cio 6.14 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.0.8 Exercı́cio 6.16 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.0.9 Exercı́cio 6.21 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.0.10 Exercı́cio 6.22 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.0.11 Exercı́cio 6.25 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.0.12 Exercı́cio 6.27 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.0.13 Exercı́cio 6.28 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.0.14 Exercı́cio 6.29 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.0.15 Exercı́cio 6.42 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.0.16 Exercı́cio 6.43 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
5.0.17 Exercı́cio 6.45 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.0.18 Exercı́cio 6.46 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.0.19 Exercı́cio 6.51 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.0.20 Exercı́cio 6.52 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
5.0.21 Exercı́cio 6.53 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.0.22 Exercı́cio 6.60 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.0.23 Exercı́cio 6.61 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.0.24 Exercı́cio 6.65 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5.0.25 Exercı́cio 6.69 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.0.26 Exercı́cio 6.70 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.0.27 Exercı́cio 6.72 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.0.28 Exercı́cio 6.88 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.0.29 Exercı́cio 6.92 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.0.30 Exercı́cio 6.94 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.0.31 Exercı́cio 6.95 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
CONTEÚDO 5

5.0.32 Exercı́cio 6.100 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70


5.0.33 Exercı́cio 6.101 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.0.34 Exercı́cio 6.108 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
Capı́tulo 1

Estruturas Algébricas

Sessão 1.1
1.0.1 Exercı́cio 1.1
(a) (E, ?) não é grupo pois não satisfaz a propriedade de que todo elemento x ∈ E é sime-
trizável (além disso, note que satisfaz todas as outras). Previamente note que o elemento neutro
da operação ? é e = 0.
Agora tome, por exemplo, x = 1: então @x0 ∈ E tal que x ? x0 = e. De fato, pois por absurdo
suponha que existe x0 ∈ E elemento simétrico de x = 1. Então terı́amos que 0 = e = x ? x0 =
x + x0 =⇒ x0 = −x = −1 6∈ E; Que é um absurdo pois assumimos previamente x0 ∈ E. Logo
1 ∈ E não é simetrizável e portanto E munido da operação ? não tem uma estrutura de grupo
(em particular não tem estrutura de grupo abeliano).

(b) (E, ?) é grupo abeliano e vou provar.


i)Associatividade de ?: ∀x, y, z ∈ E vale que:

(x ? y) ? z = (x + y − 1) + z − 1
= x + (y − 1 + z − 1) pela assosiatividade da soma + de Z.
= x + (y + z − 1 − 1) pela comutatividade da soma + de Z.
= x + (y + z − 1) − 1 pela assosiatividade da soma + de Z.
= x ? (y ? z) pela definição de ?.

ii)Existência do elemento neutro: Note que ∀x ∈ E vale que


(x ? y = x ⇐⇒ x + y − 1 = x ⇐⇒ y = 1). e
(y ? x = x ⇐⇒ y + x − 1 = x ⇐⇒ y = 1).
Logo, como y = 1 ∈ E, provamos que x ? y = y ? x = x ∀x ∈ E, isto é, y é o elemento neutro de
E com relação à operação ?
Atenção: as implicações ⇐⇒ estão destacadas entre parênteses pois o que vale são somente as
implicações. Não podemos assumir (previamente) que x ? y = x para um certo y, mas podemos
com certeza assumir que (x ? y = x ⇐⇒ x + y − 1 = x) para todo y.

6
CAPÍTULO 1. ESTRUTURAS ALGÉBRICAS 7

iii)Existência dos simétricos: Note que ∀x ∈ E vale que


(x ? x0 = e ⇐⇒ x + x0 − 1 = 1 ⇐⇒ x0 = 2 − x), usando as propriedades da soma + de Z. E
também
(x0 ? x = e ⇐⇒ x0 + x − 1 = 1 ⇐⇒ x0 = 2 − x)
Logo dado x ∈ E, x0 = 2 − x satisfaz a propriedade do elemento simétrico e como 2 − x sem-
pre pertence a E, temos que x0 ∈ E e consequentemente todo elemento de E possui elemento
simétrico em E.

iv)Comutatividade de ?: ∀x, y ∈ E vale que:


x ? y = x + y − 1 = y + x − 1 = y ? x, usando a comutatividade da soma + de Z.
De i), ii), iii) e iv) está provado que (E, ?) é um grupo abeliano.

(c) (E, ?) é grupo abeliano (análogo à letra (b)).

(d) (E, ?) não é grupo abeliano pois tomando x = 1 e y = 0 temos que 2 = x ? y 6= y ? x = 1.


Logo não satisfaz a propriedade da comutatividade. Pode-se verificar que também não satisfaz a
associatividade nem a do elemento neutro (pois o elemento neutro deve ser único para todo x) e
portanto também não satisfaz a do elemento simétrico.

(e) (E, ?) não é grupo abeliano pois não satisfaz a propriedade do elemento simétrico (o simétrico
deve estar em E para que a propriedade seja satisfeita). Além disso, (E, ?) satisfaz todas as ou-
tras propriedades.

1.0.2 Exercı́cio 1.2


i)Associatividade: ∀x, y, z ∈ R vale que:
ii)Existência do Elemento Neutro: ∀x ∈ R vale que:
(x ? y = x ⇐⇒ x + y + 4 = x ⇐⇒ y = −4) e também
(y ? x = x ⇐⇒ y + x + 4 = x ⇐⇒ y = −4). Como y = −4 ∈ R, tenho pela implicação que ele é
o elementro neutro.
iii)Existência dos simétricos:∀x ∈ R vale que:
(x ? x0 = e ⇐⇒ x + x0 + 4 = −4 ⇐⇒ x0 = −x − 8) e também
(x0 ? x = e ⇐⇒ x0 + x + 4 = −4 ⇐⇒ x0 = −x − 8). Como −x − 8 sempre está em R tenho que
este conjunto com esta operação satisfaz a propriedade da existência dos simétricos.
iv)Comutatividade: ∀x, y ∈ R vale que x ? y = x + y + 4 = y + x + 4 = y ? x, usando a
comutatividade da soma + de R.
Portanto, segue de i), ii), iii), iv) que (R, ?) possui estrutura de grupo comutativo. 

1.0.3 Exercı́cio 1.3


(R, ?) não possui estrutura de grupo comutativo. Ele não satisfaz nenhuma das 4 propriedades.
Associatividade: observando a forma de (x ? y) ? z e de x ? (y ? z) chegamos ao contra-exemplo
x = y = 0 e z = 1; Para a comutatividade x = 0 e y = 1 serve de contra-exemplo; A existência
CAPÍTULO 1. ESTRUTURAS ALGÉBRICAS 8

do elemento neutro falha na ”neutralidade pela esquerda”, i.e., não existe um único e tal que
e ? x = x ∀x ∈ R, pois se existisse tal elemento terı́amos e ? x = e + 2x − 4 = x =⇒ e = 4 − x
que varia com x (logo não é único, absurdo). (R, ?) também não pode satisfazer a propriedade
da existência dos simétricos pois esta depende da existência de um elemento neutro (que já
vimos que falha). Por fim a comutatividade também não é uma propriedade que (R, ?) possui,
contra-exemplo: x = 0 e y = 1.

1.0.4 Exercı́cio 1.5


Neste caso, (R, ?) possui estrutura de grupo comutativo! De fato:
Associatividade: ∀x, y, z ∈ R vale que (x?y)?z = (x+y−6)?z = (x+y−6)+z−6 = x+y+z−12,
pela comutatividade e assosiatividade da soma + de R. Por outro lado, x?(y?z) = x?(y+z−6) =
x + (y + z − 6) − 6 = x + y + z − 12 = (x ? y) ? z.
Comutatividade: ∀x, y ∈ R vale que x ? y = x + y − 6 = y + x − 6 = y ? x, pela comutatividade
da soma + de R.

Existência do Elemento Neutro: ∀x ∈ R vale que


(x ? y = x ⇐⇒ x + y − 6 = x ⇐⇒ y = 6). Então x ? 6 = x ∀x ∈ R e não precisamos verificar a
”neutralidade pela esquerda”pois já sabemos que ? é comutativa (e portanto 6 ? x = x ? 6 = x).
Existência dos Simétricos: ∀x ∈ R vale que:
(x ? x0 = e ⇐⇒ x + x0 − 6 = 6 ⇐⇒ x0 = 12 − x), e também
(x0 ? x = e ⇐⇒ x0 + x − 6 = 6 ⇐⇒ x0 = 12 − x). Logo, dado x ∈ R seu simétrico é x0 = 12 − x
que está em R. 

1.0.5 Exercı́cio 1.7


Note previamente que (Mn (R), ?) tem como elemento neutro a matriz identidade In .
Como a operação ? é a multiplicação usual de matrizes, é de se esperar que nem todo elemento
de Mn (R) possua simétrico (pois nem toda matriz é invertı́vel). Tome, por exemplo, a matriz
nula 0.
Suponha, por absurdo, que existe o simétrico A de 0. Neste caso, terı́amos In = A ? 0 = A · 0, mas
isso implicaria det(In ) = det(A · 0) = det(A) · det(0) = det(A) · 0 = 0, absurdo pois det(In ) = 1.
Portanto (Mn (R), ?) não satisfaz a propriedade da existência dos simétricos e portanto não é um
grupo.

1.0.6 Exercı́cio 1.12


? e a b c
e e a b c
a a b c e
b b c e a
c c e a b
CAPÍTULO 1. ESTRUTURAS ALGÉBRICAS 9

Sessão 1.7
1.0.7 Exercı́cio 1.17
Considere Re(z) = x e Im(z) = y. Temos então:
p √
x2 + y 2 2 ≥ |x| + |y| ⇐⇒ 2(x2 + y 2 ) ≥ x2 + y 2 + 2|xy|
⇐⇒ x2 + y 2 ≥ 2|xy|
⇐⇒ x2 − 2|xy| + y 2 ≥ 0
⇐⇒ (|x| − |y|)2 ≥ 0.

Como vale que (|x| − |y|)2 ≥ 0 ∀x, y, conseguimos provar o que querı́amos.
Atenção: essa demonstração só é válida pois as implicações são “ ⇐⇒ ”. As implicações =⇒
são mais fáceis de verificar, porém as ⇐= devem ser verificadas a parte, e muitas vezes elas
não serão válidas! Partir de uma afirmação A e chegar a uma afirmação verdadeira B, não quer
dizer que A é necessariamente verdadeira!

1.0.8 Exercı́cio 1.20


Como i0 + i1 + i2 + i3 = 1 + i − 1 − i = i4 + i5 + i6 + i7 = · · · = 0,

100
X
ik = 0 + 0 + · · · + 0 + i100 = 1
k=0

Logo a = 1 e b = 0.

1.0.9 Exercı́cio 1.21


 
1+i 1+i 2+i 2 + i + 2i − 1 1 3
z= = = = + i
2−i 2−i 2+i 4+1 5 5
Capı́tulo 2

Espaços Vetoriais

Sessão 3.1
2.0.1 Exercı́cio 3.2
A1) Comutatividade ∀A, B ∈ Mn (R) vale que:
A + B = [aij + bij ] = [bij + aij ] = B + A, usando a comutatividade da soma + dos números reais.

A2) Associatividade: ∀A, B, C ∈ Mn (R) vale que:


(A + B) + C = [(aij + bij ) + cij ] = [aij + (bij + cij )] = A + (B + C), usando a associatividade da
soma + dos números reais.
A3) Elemento Neutro: Sei que para toda matriz A vale que:
(A + N = A ⇐⇒ [aij + nij ] = [aij ] ⇐⇒ aij + nij = aij ∀i, j ⇐⇒ nij = 0 ∀i, j ⇐⇒ N = 0).
Portanto se N é a matriz nula 0 então N é o elemento neutro do espaço vetorial (note que 0 ∈
Mn (R)).
A4) Elemento Simétrico: dada matriz A ∈ Mn (R) vale que:
(A + A0 = 0 ⇐⇒ [aij + a0ij ] = 0 ⇐⇒ aij + a0ij = 0 ∀i, j ⇐⇒ a0ij = −aij ⇐⇒ A0 = −A).
Portanto dada A seu simétrico aditivo é −A.
M1)Associatividade: ∀α, β ∈ R e ∀A ∈ Mn (R) vale que:
(αβ) · A = αβ · [aij ] = [(αβ)aij ] = [α(βaij )] = α · [βaij ] = α · (βA), onde usamos a associatividade
dos números reais.
M2) Distributividade para Adição de Elementos: ∀α ∈ R e ∀A, B ∈ Mn (R) vale que:
α · (A + B) = α · [aij + bij ] = [α(aij + bij )] = [αaij + αbij ] = [αaij ] + [αbij ] = α · A + α · B.

M3) Distributividade para a Multiplicação por Escalar: ∀α, β ∈ R e ∀A ∈ Mn (R) vale


que:
(α + β) · A = (α + β) · [aij ] = [(α + β)aij ] = [αaij + βaij ] = [αaij ] + [βaij ] = α · A + β · A.
M4) Elemento Identidade: ∀A ∈ Mn (R) vale que:
(e · A = A ⇐⇒ e · [aij ] = [aij ]) ⇐⇒ [eaij ] = [aij ] ⇐⇒ eaij = aij ∀i, j)

10
CAPÍTULO 2. ESPAÇOS VETORIAIS 11

Se supusermos e = 1 então temos eaij = aij ∀i, j e consequentemente (pela implicações ⇐= )


temos que e · A = A.
Portanto, provamos que (Mn (R), +, ·) é um espaço vetorial. 

2.0.2 Exercı́cio 3.4


(V, ⊕, ) é um espaço vetorial e vou provar.
De fato, as propriedades seguem:
A1)Comutatividade: ∀x, y ∈ V vale que:
x ⊕ y = xy = yx = y ⊕ x, onde usamos a comutatividade do produto dos reais.
A2) Associatividade: ∀x, y, z ∈ V vale que:

(x ⊕ y) ⊕ z = (xy) ⊕ z pela definição de ⊕


= (xy)z pela definição de ⊕
= x(yz) pela associatividade do produto dos reais
= x(y ⊕ z) pela definição de ⊕
= x ⊕ (y ⊕ z) pela definição de ⊕

A3) Elemento Neutro: Sei que para todo x ∈ V vale que:


(x ⊕ e = x ⇐⇒ xe = x ⇐⇒ e = 1)
Portanto se e = 1 então e é o elemento neutro do espaço vetorial. Note que a segunda → só é
válida pois 0 6∈ V .
A4) Elemento Simétrico: dado x ∈ V vale que: (x ⊕ x0 = e ⇐⇒ xx0 = 1 ⇐⇒ x0 = x1 )
1
Portanto dado x ∈ V seu simétrico aditivo é x. Novamente a segunda → só é válida pois 0 6∈ V .
M1)Associatividade: ∀α, β ∈ R e ∀x ∈ V vale que:
(αβ) x = xαβ = (xβ )α = α (xβ ) = α (β x)

M2)Distributividade para Adição de Elementos: ∀α ∈ R e ∀x, y ∈ V vale que:


α (x ⊕ y) = α (xy) = (xy)α = xα y α = (α x) ⊕ (α y)
M3) Distributividade para a Multiplicação por Escalar: ∀α, β ∈ R e ∀x ∈ V vale que:
(α + β) x = xα+β = xα xβ = (α x)(β x) = (α x) ⊕ (β x)
M4) Elemento Identidade: ∀x ∈ V vale que:
(n x = x ⇐⇒ xn = x)
Note que a última sentença vale para todo x positivo se n = 1. Logo n = 1 ∈ V é o elementro
identidade da ação de multiplicação por escalar.
Portanto como são válidas as propriedades A1-A4,M1-M4 está provado que (V, ⊕, ) é um espaço
vetorial.

2.0.3 Exercı́cio 3.5


A1) Comutatividade: ∀x, y ∈ Z vale que:
A2) Associatividade: ∀x, y, z ∈ Z vale que:
CAPÍTULO 2. ESPAÇOS VETORIAIS 12

x+y = (v1 , w1 ) + (v2 , w2 )


= (v1 + v2 , w1 + w2 ) pela definição da soma + em Z
= (v2 + v1 , w1 + w2 ) pois V é espaço vetorial
= (v2 + v1 , w2 + w1 ) pois W é espaço vetorial
= (v2 , w2 ) + (v1 , w1 ) pela definição da soma + em Z
= y+x

(x + y) + z = ((v1 + v2 , w1 + w2 )) + (v3 , w3 )
= ((v1 + v2 ) + v3 , (w1 + w2 ) + w3 ) pela definição da soma + em Z
= (v1 + (v2 + v3 ), w1 + (w2 + w3 )) pois V e W são espaços vetoriais
= (v1 , w1 ) + (v2 + v3 , w2 + w3 ) pela definição de + em Z
= x + (y + z) pela definição de + em Z

A3) Elemento Neutro: Sei que para todo x ∈ Z vale que:


x + e = x ⇐⇒ (v1 , w
 1 ) + (e1 , e2 ) = (v1 , w1 ) ⇐⇒ (v1 + e1 , w1 + e2 ) = (v1 , w1 ) ⇐⇒
v + e = v e = elemento neutro da soma de V
1 1 1 1
⇐⇒
w + e = w e = elemento neutro da soma de W
1 2 1 2

Sendo assim, ao tomarmos (e1 , e2 ) ∈ Z que é o par odenado formado pelo neutro de V e pelo
neutro de W , temos o elemento neutro de Z.

A4) Elemento Simétrico: dado x = (v1 , w1 ) elemento genérico de Z, vale que:


0 0 0 0 0
+ x = (e1 , e2 ) ⇐⇒ (v
x 1 , w1 ) + (v1 , w1 ) = (e1 , e2 ) ⇐⇒ (v1 + v1 , w1 + w1 ) = (e1 , e2 ) ⇐⇒
v + v 0 = e v 0 é o simétrico de v em V
1 1 1 1 1
⇐⇒
w + w 0 = e w0 é o simétrico de w em W
1 1 2 1 1

Então, dado x = (v1 , w1 ) seu simétrico em Z é (v10 , w10 ) como descrito acima.
OBS.: não é necessário mostrar v10 como e1 − v1 , pois A4 diz somente sobre a existência dos
simétricos, fato que é garantido por V, W serem espaços vetoriais.

M1) Associatividade: ∀α, β ∈ R e ∀x ∈ Z vale que:


(αβ)x = (αβ)(v1 , w1 ) = ((αβ)v1 , (αβ)w1 ) = (α(βv1 ), α(βw1 )), onde usamos que V, W possuem
multiplicação por escalar associativa.
M2) Distributividade para Adição de Elementos: ∀α ∈ R e ∀x, y ∈ Z vale que:
α(x + y) = α(v1 + v2 , w1 + w2 ) = (α(v1 + v2 ), α(w1 + w2 )) = (αv1 + αv2 , αw1 + αw2 ) =
(αv1 , αw1 ) + (αv2 , αw2 ) = α(v1 , w1 ) + α(v2 , w2 ) = αx + αy, onde usamos o fato de que V e W são
espaços vetoriais.
M3) Distributividade para a Multiplicação por Escalar: ∀α, β ∈ R e ∀x ∈ Z vale que:
(α + β)x = (α + β)(v1 , w1 ) = ((α + β)v1 , (α + β)w1 ) = (αv1 + βv1 , αw1 + βw1 ) = (αv1 , αw1 ) +
(βv1 , βw1 ) = αx + βx, onde usamos novamente o fato de que V e W são ambos espaços vetoriais.
M4) Elemento Identidade: ∀x ∈ Z vale  que:
nv = v
1 1
nx = x ⇐⇒ (nv1 , nw1 ) = (v1 , w1 ) ⇐⇒
nw = w
1 1
CAPÍTULO 2. ESPAÇOS VETORIAIS 13

Agora como ambos V e W são espaços vetoriais sobre o corpo F, temos que n = 1F satisfaz as
duas equações e, consequentemente, é também o elemento identidade da multiplicação por esca-
lar do espaço Z.

Sessão 3.2
2.0.4 Exercı́cio 3.9
Preciso provar que i)H 6= ∅; ii) H é fechado pela soma e iii) H é fechado pela multiplicação por
escalar.
i): Note que (0, · · · , 0) ∈ H, pois c1 · 0 + · · · + cn · 0 = 0 =⇒ (0, · · · , 0) ∈ H =⇒ H 6= ∅.

ii): Dados (x1 , · · · , xn ), (y1 , · · · , yn ) ∈ H quero mostrar que (x1 , · · · , xn ) + (y1 , · · · , yn ) ∈ H.


De fato, (x1 , · · · , xn )+(y1 , · · · , yn ) = (x1 +y1 , · · · , xn +yn ) e vale que c1 ·(x1 +y1 )+· · ·+cn ·(xn +
yn ) = (c1 ·x1 +· · ·+cn ·xn )+(c1 ·y1 +· · ·+cn ·yn ) = 0+0 = 0 =⇒ (x1 , · · · , xn )+(y1 , · · · , yn ) ∈ H.
iii): Analogamente, dado (x1 , · · · , xn ) ∈ H e dado λ ∈ R quero mostrar que λ · (x1 , · · · , xn ) ∈ H.
De fato λ · (x1 , · · · , xn ) = (λ · x1 , · · · , λ · xn ) e vale que c1 · (λx1 ) + · · · + cn · (λxn ) = λ · (c1 x1 +
· · · + cn xn ) = λ · 0 = 0 =⇒ λ · (x1 , · · · , xn ) ∈ H.
Portanto, de i), ii) e iii), está provado. 
OBS.: Note que é essencial provarmos que H 6= ∅, pois o conjunto vazio satisfaz ii) e iii) mas
não é um espaço vetorial!

2.0.5 Exercı́cio 3.11


R1
i) S 6= ∅: Note que f = 0C([0,1]) ∈ S, pois 0 dx = 0. Logo 0C([0,1]) ∈ S e S 6= ∅.
0
R1 R1
ii) S é fechado pela soma: Dados f, g ∈ S, temos que 0 (f (x) + g(x))dx = 0 f (x)dx +
R1
0
g(x)dx = 0 + 0 = 0, pois ambas pertencem a S.
R1
iii) S é fechado pela multiplicação por escalar: Dada f ∈ S e dado λ ∈ R, 0 λf (x)dx =
R1
λ 0 f (x)dx = λ · 0 = 0, pois f ∈ S.

Portanto, de i), ii), e iii) está provado que S é subespaço vetorial de C([0, 1]).

2.0.6 Exercı́cio 3.14


t
Note que a matriz nula 0 satisfaz 0 = 0 = −0, logo 0 ∈ U, W e portanto U, W 6= ∅.
i)U é fechado pela soma: ∀A, B ∈ U vale que
(A + B)t = At + B t = (A + B), pois A e B estão em U . Portanto A + B ∈ U .

ii)U é fechado pela multiplicação por escalar: Dado A ∈ U e λ ∈ R temos que (λA)t =
λAt = λA, portanto λA ∈ U .
E segue que U é um subespaço vetorial de Mn (R).
Análogo para W .
CAPÍTULO 2. ESPAÇOS VETORIAIS 14

2.0.7 Exercı́cio 3.16


S não é um subespaço vetorial de R2 pois não possui elementro neutro da adição.
De fato, suponha por absurdo que ∃e ∈ S tal que v + e = e + v = v ∀v ∈ S. Como v é um
elemento genérico de S, pode ser escrito da seguinte forma: v = α(1, 2)+(3, 2) = (α, 2α)+(3, 2) =
(α + 3, 2α + 2). Logo temos que
 v + e = (α + 3, 2α + 2) + (e1 , e2 ) = (α + 3 + e1 , 2α + 2 + e2 ) = v, e
α + 3 + e = α + 3
1
isto acontece se e somente se . O que nos leva a e1 = 0 = e2 , e portanto
2α + 2 + e = 2α + 2
2
e = (0, 0). Absurdo, pois supomos e ∈ S mas (0, 0) 6∈ S.
OBS.: Note que sempre vale que se S ⊆ V é um subespaço vetorial de V e que se e ∈ V é o
elemento neutro de V , então necessariamente o elemento neutro de S também é e. Pela unici-
dade deste elemento em V pode-se provar que se e ∈ V não está em S então S não pode ser um
subespaço vetorial.

Sessão 3.3
2.0.8 Exercı́cio 3.17
" #
x y
Seja A = matriz genérica 2 × 2. Então A ∈ U ⇐⇒ x − y − z = 0 ⇐⇒ x = y + z, logo
z t
" #
y+z y
todos elementos de U são da forma A = . Então temos 3 graus de liberdade para
z t
formar o subespaço U (isso significa exatamente que a dimensão de U é 3). Agora, para achar o
sistema
" de geradores
# de "
U basta #fatorar
" A pelas
# variáveis
" restantes.
# Isto é:
y+z y 1 1 1 0 0 0
A= =y· +z · +t ·
z t 0 0 1 0 0 1
| {z } | {z } | {z }
A1 A2 A3
Logo todo elemento de U é combinação linear de A1 , A2 , A3 e portanto S = {A1 , A2 , A3 } é um
sistema de geradores para o subespaço vetorial U .
OBS.: Para provar a igualdade de conjuntos U = [S] temos que provar que todo elemento de U
está em [S] "e que todo elemento
# de [S] está em U . E afirmar que “todos elementos de U são da
y+z y
forma A = ” é dizer apenas que todo elemento de U está em [S]. Mas a recı́proca
z t
dessa afirmação (que completa o que queremos provar) está implicitamente" provada pois # sabe-
y+z y
mos que A ∈ U ⇐⇒ x = y + z, logo se uma matriz é da forma A = então
z t
automaticamente essa matriz está em U (usando a implicação ⇐= ), o que prova que todo
elemento de [S] está em U .
CAPÍTULO 2. ESPAÇOS VETORIAIS 15

2.0.9 Exercı́cio 3.20


   
1 6
Aqui usamos o abuso de notação de que u =  2  e que v = −3.
   

−8 −2
Denote o espaço gerado pelas colunas da matriz A por U = [A1 , A2 ]
   
4 2
onde A1 = 1 e A2 = 5.
   

0 2
Agora, sabemos que:
u ∈ [A1 , A2 ] ⇐⇒ Existem escalares c1 , c2 tais que u= c1 A1 + c2 A2
4c + 2c2 = 1
       
1 4c1 2c2 4c1 + 2c2

 1


⇐⇒  2  =  c1  + 5c2  =  c1 + 5c2  ⇐⇒ c1 + 5c2 = 2
       

−8 0 2c2 2c2

2c = −8

2
Então para verificar se u está no subespaço, basta verificar se o sistema de equações possui solução
para c1 e c2 . E ao tentar resolver o sistema notamos que ele é um sistema impossı́vel, portanto
u 6∈ U .
Analogamente para v sabemos que 
4c + 2c2 = 6
   
6 4c1 + 2c2

 1


v ∈ [A1 , A2 ] ⇐⇒ −3 =  c1 + 5c2  ⇐⇒ c1 + 5c2 = −3
   

−2 2c2

2c = −2

2
E como c1 = 2 e c2 = −1 resolve o sistema, concluı́mos que v ∈ U .

2.0.10 Exercı́cio 3.21


Tenho que mostrar que W = [A1 , A2 , A3 ]. !
x y
Considere uma matriz genérica A = . Sabemos que:
z t

! ! 

 x=x
t x y x z 
A ∈ W ⇐⇒ A = A ⇐⇒ = ⇐⇒ y = z
z t y t 


t = t
! ! ! !
x y 1 0 0 0 0 1
Portanto A ∈ W ⇐⇒ A = =x +t +y
y t 0 0 0 1 1 0
⇐⇒ A = xA1 + tA2 + yA3 ⇐⇒ A ∈ [A1 , A2 , A3 ]
E consequentemente W = [A1 , A2 , A3 ]. 
CAPÍTULO 2. ESPAÇOS VETORIAIS 16

Sessão 3.4
2.0.11 Exercı́cio 3.23
Para facilitar nosso trabalho, vamos determinar separadamente um sistema de geradores para U
e um sistema de geradores para W .
Geradores de U :
Dado v = (x, y, z, t) elemento genérico de R4 , então v ∈ U
⇐⇒ x + y = 0 e z − t = 0 ⇐⇒ x = −y e z = t ⇐⇒ v = (−y, y, t, t)
Logo v = y(−1, 1, 0, 0) + t(0, 0, 1, 1) e U = [(−1, 1, 0, 0), (0, 0, 1, 1)].
| {z } | {z }
u1 u2

Geradores de W :
Dado v = (x, y, z, t) elemento genérico de R4 , então v ∈ W ⇐⇒ x − y − z + t = 0
⇐⇒ x = y + z − t ⇐⇒ v = (y + z − t, y, z, t)
Logo v = y(1, 1, 0, 0) + z(1, 0, 1, 0) + t(−1, 0, 0, 1) e W = [(1, 1, 0, 0), (1, 0, 1, 0), (−1, 0, 0, 1)].
| {z } | {z } | {z }
w1 w2 w3
4
(a) Dado v = (x, y, z, t) elemento genérico de R , então v ∈ U ∩ W ⇐⇒ v ∈ U e v ∈ W .
Portanto existem escalares a1 , a2 , b1 , b2 , b3 tais que:
v = a1 (−1, 1, 0, 0) + a2 (0, 0, 1, 1), pois v ∈ U ; e
v = b1 (1, 1, 0, 0) + b2 (1, 0, 1, 0) + b3 (−1, 0, 0, 1), pois v ∈ W .
Daı́, a1 u1 + a2 u2 = b1 w1 + b2 w2 + b3 w3 , ou seja:

(−a1 , a1 , a2 , a2 ) = (b1 + b2 − b3 , b1 , b2 , b3 )



 −a1 = b1 + b2 − b3



a = b
1 1
Logo temos o sistema , e vamos resolvê-lo para a1 , a2 (poderı́amos ter


 a2 = b2



a = b
2 3
escolhido resolvê-lo para b1 , b2 , b3 ).
Note que a1 = 0 e a2 = b2 é uma solução para o sistema pois satisfaz todas as equações (se
escolhermos as variáves ai , as constanstes bi podem ser qualquer valor fixo).
Substituindo os valores de a1 , a2 que resolvem o sistema (i.e, os valores de a1 , a2 para os quais v
além de estar em U também está em W ), obtemos:

v = b2 (0, 0, 1, 1)

E consequentemente U ∩ W = [(0, 0, 1, 1)].

(b) Dado v = (x, y, z, t) elemento genérico de R4 , então v ∈ U + W ⇐⇒ v = u + w para algum


u ∈ U e w ∈ W.
CAPÍTULO 2. ESPAÇOS VETORIAIS 17

Logo, v ∈ U + W se (e somente se) existem escalares a1 , a2 , b1 , b2 , b3 tais que

v = a1 u1 + a2 u2 + b1 w1 + b2 w2 + b3 w3
| {z } | {z }
u w

E isso é a mesma coisa que dizer U + W = [u1 , u2 , w1 , w2 , w3 ].


(c) U + W é soma direta se U ∩ W = {0R4 }.
Mas como vimos na letra (a), U + W = [(0, 0, 1, 1)] 6= {0R4 }.
Portanto não é uma soma direta.

2.0.12 Exercı́cio 3.24


R3 = U ⊕ W se: i)U ∩ W = {0R3 } e ii) R3 = U + W .

i) Como U = [(1, 0, 0)] e W = [(1, 1, 0), (0, 1, 1)], então v ∈ U ∩ W ⇐⇒ existem escalares
a1 , b1 , b2 tais que v = a1 (1, 0, 0) e v = b1 (1, 1, 0) + b2 (0, 1, 1)
Logo a
1 (1, 0, 0) = b1 (1, 1, 0) + b2 (0, 1, 1) =⇒ (a1 , 0, 0) = (b1 , b1 + b2 , b2 ).
 a = b1
 1


Então 0 = b1 + b2 , e resolvendo para a1 obtemos a única solução a1 = 0.



0 = b
2
Consequentemente v = 0(1, 0, 0) = (0, 0, 0) e U ∩ W = {(0, 0, 0)}.
OBS.: obtemos que (0, 0, 0) ∈ U ∩ W pois a1 = 0 é solução do sistema e obtemos que na verdade
esse é o único elemento do subespaço pois a solução do sistema é única.
ii) Por construção equivalente ao exercı́cio 3.23b temos que U + W = [(1, 0, 0), (1, 1, 0), (0, 1, 1)].
Agora, para provar que R3 = U + W devemos provar que U + W ⊆ R3 e que R3 ⊆ U + W .
A primeira inclusão se deve ao fato de que R3 é um espaço vetorial e, portanto, combinações li-
neares de seus elementos ainda pertencem ao espaço vetorial.
Para mostrar que a segunda inclusão é válida devemos mostrar que todo elemento de R3 está
em U + W . Isto é, dado v = (x, y, z) ∈ R3 preciso encontrar escalares a1 , b1 , b2 que satisfazem
v = a1 u1 + b1 w1 + b2 w2 . 
x = a1 + b1



Então temos, (x, y, z) = (a1 + b1 , b1 + b2 , b2 ) ⇐⇒ y = b1 + b2



z = b
2
E preciso resolver o sistema para as variáveis a1 , b1 , b2 , pois caso eu mostre que existe uma solução
para essas variáveis então existem escalares
 satisfazendo o que foi pedido.
 b2 = z



Resolvendo o sistema, obtemos a solução b1 = y − z


a = x − y + z

1
E portanto mostramos que (x, y, z) = (x − y + z)(1, 0, 0) + (y − z)(1, 1, 0) + z(0, 1, 1), logo
v = (x, y, z) está em U + W . 
CAPÍTULO 2. ESPAÇOS VETORIAIS 18

2.0.13 Exercı́cio 3.25


Preciso mostrar que: i) U ∩ W = {0Mn (R) } e ii) U + W = Mn (R).
i) Dada matriz genérica A = [aij ], então A ∈ U ∩ W ⇐⇒ A ∈ U e A ∈ W .
E temos que:
A ∈ U ⇐⇒ At = A ⇐⇒ aji = aij ∀i, j; e
t
A ∈ W ⇐⇒ A = −A ⇐⇒ aji = −aij ∀i, j.
a = a
ij ji
Portanto se A = [aij ] está na interseção devemos ter
a = −a
ij ji
Mas isso só acontece se aij = 0 ∀i, j, e portanto A = 0Mn (R) .
Então concluı́mos que U ∩ W = {0Mn (R) }.
ii) Dada matriz genérica A = [aij ], tenho que mostrar que existe uma matriz simétrica e uma
matriz antissimétrica tais que A é a soma das duas.
Agora definimos (a partir da matriz dada A) duas matrizes B e C da seguinte maneira:

aij + aji
B = [bij ], com bij := ∀i, j
2

aij − aji
C = [cij ], com cij := ∀i, j
2
Note que bij = bji e cij = −cji ∀i, j; e além disso aij = bij + cij , o que implica que
A=B+C 
OBS.: Na parte ii) poderı́amos ter tentado exibir os geradores de U e de W e prosseguido de
forma similar à parte ii) do exercı́cio 3.24. Porém, por não sabermos o valor de n, fica difı́cil exi-
bir “concretamente” os geradores de U e W . Segue
 outra solução possı́vel nesse sentido:
1, se m = i e n = j
Definimos uma matriz Eij = [emn ] com emn := .
0, caso contrário
Agora considere a matriz Bij := Eij + Eji .
Observe que Bij é simétrica ∀i, j e que, além disso,

SU = {Bij |i ≤ j}

é um conjunto de geradores de U .
Analogamente definimos Cij := Eij − Eji e obtemos que

SW = {Cij |i < j}

é um conjunto de geradores de W .
Logo U + W = [SU ∪ SW ] e podemos (exaustivamente) terminar a prova por esse caminho obser-
1
vando que Eij = 2 · (Bij + Cij ) e portanto A pode ser (exaustivamente) escrita como combinação
linear de elementos de SU ∪ SW .
CAPÍTULO 2. ESPAÇOS VETORIAIS 19

2.0.14 Exercı́cio 3.28


U ∪ W não é um subespaço vetorial de R2 e vou provar.
De fato, ao considerarmos u = (1, 3) ∈ U e w = (1, −2) ∈ W temos que u+w 6∈ U ∪W (desenhe!),
pois u + w = (2, 1) e 1 6= 3 · 2 (portanto não está em U ) e também 1 6= −2 · 2 (portanto não está
em W ). Logo u + w 6∈ U ∪ W , e portanto U ∪ W não é fechado pela soma, logo não é subespaço
vetorial. 
OBS.: Note que U ∪ W é fechado pela multiplicação por escalar.

2.0.15 Exercı́cio 3.29


O sistema possui como conjunto solução S = {(x, y, z) ∈ R3 |x = − 27 z e y = 32 z}.
Note que:
i) S 6= ∅ pois (0, 0, 0) ∈ S
ii) Dados
 v1 = (x1 , y1 , z1 ) e v2 = (x2 , y2 , z2 ) elementos de S, v1 + v2 = (x1 + x2 , y1 + y2 , z1 + z2 ) é
x + x = −7/2z − 7/2z = − 7 (z + z )
1 2 1 2 2 1 2
tal que .
y + y = 3/2z + 3/2z = 3 (z + z )
1 2 1 2 2 1 2
Logo v1 + v2 ∈ S. 
αx = α(−7/2z ) = − 7 (αz )
1 1 2 1
iii) Dados α ∈ R e v1 ∈ S, αv1 = (αx1 , αy1 , αz1 ) satisfaz .
αy = α(3/2z ) = 3 (αz )
1 1 2 1
Logo αv1 ∈ S.
De i), ii) e iii) provamos que S é um subespaço vetorial.
Agora vamos determinar um sistema de geradores para S ∩ U .
Note primeiro que S = [(−7/2, 3/2, 1)] = [(−7, 3, 2)] e que U = [(1, 1, 0), (−1, 0, 1)].
Agora temos que v ∈ S ∩ U ⇐⇒ v ∈ S e v ∈ U .
se (e somente se) ∃s1 , u1 , u2 ∈ R tais que s1 (−7, 3, 2) = u1 (1, 1, 0) + u2 (−1, 0, 1).
Isso acontece 


 −7s1 = u1 − u2

Então temos 3s1 = u1 ⇐⇒ s1 = 0.



2s = u
1 2
E consequentemente S ∩ U = {(0, 0, 0)}.

Sessão 3.5
2.0.16 Exercı́cio 3.34
(a) O conjunto não é L.I. pois

x2 + 2x + 1 = 1 · (x2 ) + 2 · (x − 1) + 3 · (1)

(b) O conjunto não é L.I. pois

2x3 − x2 = 2 · (x3 ) − 1 · (x2 − x) − 1 · (x)


CAPÍTULO 2. ESPAÇOS VETORIAIS 20

2.0.17 Exercı́cio 3.35


Suponha que existem escalares c1 , c2 , c3 , c4 tais que c1 (1, 0, 0, −1) + c2 (0, 1, 0, 1) + c3 (0, 0, 1, 1) +
c4 (1, 0, 0, 1) = 0R4 .
Entãotemos que (c1 + c4 , c2 , c3 , −c1 + c2 + c3 + c4 ) = (0, 0, 0, 0).


 c1 + c4 = 0



c = 0
2
Logo


 c3 = 0


−c + c + c + c = 0

1 2 3 4
que possui somente a solução trivial c1 = c2 = c3 = c4 = 0.
Portanto, provamos que o conjunto {(1, 0, 0, −1), (0, 1, 0, 1), (0, 0, 1, 1), (1, 0, 0, 1)} é L.I. 

2.0.18 Exercı́cio 3.37


Primeiro vamos mostrar que S = {f, g} é L.D. em i)C([−1, 0]) e em ii)C([0, 1]).
i): Suponha que existem escalares c1 , c2 tais que

c1 f + c2 g = 0C([−1,0])

Como temos uma igualdade de funções isso implica que o lado esquerdo se anula em todo x ∈
[−1, 0]. E observe que neste intervalo g(x) = |x| = −x e portanto:

0 = c1 f (x) + c2 g(x) = c1 x − c2 x = (c1 − c2 )x ∀x ∈ [−1, 0]

E como temos uma igualdade de polinômio, isso implica que c1 − c2 = 0 =⇒ c1 = c2 .


Portanto não conseguimos concluir que c1 = c2 = 0. Por exemplo, c1 = c2 = 1 são tais que
c1 f + c2 g = 0C([−1,0]) e logo S = {f, g} é L.D. neste espaço vetorial.

ii)Analogamente concluı́mos que c1 = 1 e c2 = −1 são tais que

c1 f + c2 g = 0C([0,1])

O que implica que S = {f, g} é L.D. em C([0, 1]).

Agora, provemos que S = {f, g} é L.I. em C([−1, 1]).


Suponha que existem escalares c1 , c2 tais que

c1 f + c2 g = 0C([−1,1])

Issso implica que 0 = c1 f (x) + c2 g(x) = c1 x + c2 |x| ∀x ∈ [−1, 1].


Agora, se restringirmos a igualdade para o intervalo [−1, 0] temos que

0 = c1 x + c2 |x| = c1 x − c2 x = (c1 − c2 )x =⇒ c1 − c2 = 0 =⇒ c1 = c2 (F)


CAPÍTULO 2. ESPAÇOS VETORIAIS 21

E se restringirmos a igualdade para o intervalo [0, 1] temos

0 = c1 x + c2 |x| = c1 x + c2 x = (c1 + c2 )x =⇒ c1 + c2 = 0 =⇒ c1 = −c2 (♥)

De ♥ e F concluı́mos que c1 = c2 = 0, e consequentemente S = {f, g} é L.I. em C([−1, 1]).

2.0.19 Exercı́cio 3.39


Se S = {v1 , v2 } é L.D. então existem escalares não todos nulos c1 , c2 tais que c1 v1 + c2 v2 = 0.
−c2
Como pelo menos um dos escalares é não nulo, digamos c1 6= 0, temos que v1 = c 1 v2 .

Sessão 3.6
2.0.20 Exercı́cio 3.43
Primeiro acharemos os geradores de W .  
a11 a12 a13
Uma matriz genérica de W ⊆ M3 (R) é da forma A = a12 a22 a23 . Logo temos:
 

a13 a23 a33


           
1 0 0 0 1 0 1 0 0 0 0 0 0 0 0 0 0 0
A = a11 0 0 0 +a12 1 0 0 +a13 0 0 0 +a22 0 1 0 +a23 0 0 1 +a33 0 0 0
           

0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 1
| {z } | {z } | {z } | {z } | {z } | {z }
A1 A2 A3 A4 A5 A6

E consequentemente S = {A1 , A2 , A3 , A4 , A5 , A6 } é um conjunto de geradores para W .


Agora, para saber se S é uma base de W precisamos apenas verificar se S é L.I., o que de fato
acontece pois:
Supondo escalares c1 , c2 , c3 , c4 , c5 , c6 tais que

c1 A1 + c2 A2 + c3 A3 + c4 A4 + c5 A5 + c6 A6 = 0

chegamos num sistema de equações com única solução c1 = c2 = c3 = c4 = c5 = c6 = 0. E


portanto S é L.I.
E como provamos que S é um conjunto de geradores L.I., encontramos a base S para o subespaço
W.

2.0.21 Exercı́cio 3.46


" #
x y
Seja A = matriz genérica 2 × 2. Então A ∈ U ⇐⇒ x − y − z = 0 ⇐⇒ x = y + z, logo
z t
" #
y+z y
todos elementos de U são da forma A = . Agora, para achar o sistema de geradores
z t
de U basta fatorar A pelas variáveis restantes. Isto é:
CAPÍTULO 2. ESPAÇOS VETORIAIS 22

" # " # " # " #


y+z y 1 1 1 0 0 0
A= =y· +z · +t ·
z t 0 0 1 0 0 1
| {z } | {z } | {z }
A1 A2 A3
Logo todo elemento de U é combinação linear de A1 , A2 , A3 e portanto U = [A1 , A2 , A3 ].
E também podemos verificar que S = {A1 , A2 , A3 } é um 
conjunto L.I., pois:
c1 + c2 = 0


" # " # " # 


c = 0
1 1 1 0 0 0 1
c1 · +c2 · +c3 · = 0M2 (R) =⇒ =⇒ c1 = c2 = c3 = 0.
0 0 1 0 0 1 

 c2 = 0



c = 0
3
Portanto, como S gera U e é L.I., temos que S é uma base de U .

2.0.22 Exercı́cio 3.48


Encontremos primeiro os geradores de U .
Seja p(x) = a + bx + cx2 polinômio genérico de P2 (R). Então p(x) ∈ U
⇐⇒ a − 2c = 0 ⇐⇒ a = 2c.
Então a forma genérica de um elemento de U é p(x) = 2c + bx + cx2 = c(2 + x2 ) + b(x) e,
consequentemente, temos U = [2 + x2 , x].
Agora, como W = [1 − x, x − x2 ], podemos concluir que S = {2 + x2 , x, 1 − x, x − x2 } é um
conjunto de geradores de U + W . Mas S não é uma base de U + W pois, como veremos a seguir,
é um conjunto L.D..
De fato, supondo escalares k1 , k2 , k3 , k4 tais que

k1 (2 + x2 ) + k2 (x) + k3 (1 − x) + k4 (x − x2 ) = 0P2 (R) ,



 2k + k3 = 0
 1


obtemos (2k1 + k3 ) + (k2 − k3 + k4 )x + (k1 − k4 )x2 = 0P2 (R) e portanto k2 − k3 + k4 = 0 (?).


k − k = 0

1 4
Que possui como solução geral k1 = k4 , k2 = −3k4 e k3 = −2k4 . Isso significa que ao tomarmos
k4 = 1 obtemos:

(2 + x2 ) − 3x − 2(1 − x) + (x − x2 ) = 0 =⇒ (x − x2 ) = (−1) · (2 + x2 ) + 3 · x + 2 · (1 − x)

Logo x − x2 pode ser expresso como combinação linear dos outros 3 elementos.
E então S 0 = {2 + x2 , x, 1 − x} também gera U + W . Agora, verificamos que S’ é L.I..
Supondo escalares k1 , k2 , k3 tais que 0 = k1 (2+x2 )+k2 x+k3 (1−x) = (2k1 +k3 )+(k2 −k3 )x+k1 x2 ,
obtemos apenas a solução trivial k1 = k2 = k3 = 0.
Portanto S 0 é uma base de U + W .

OBS.: O fato do sistema (?) ter solução geral com apenas 1 grau de liberdade está intimamente
ligado com o fato do conjunto S ter apenas 1 elemento que é combinação linear dos outros. Isto
é, podemos escolher qual dos elementos na equação vamos expressar como combinação linear dos
CAPÍTULO 2. ESPAÇOS VETORIAIS 23

outros, porém ao retirá-lo de S não encontraremos outro elemento que seja combinação linear
dos restantes.

2.0.23 Exercı́cio 3.54


Dizemos que um conjunto ϕ de condições são condições necessárias e suficientes para que
dim(U ∩ W ) = dim(W ) quando temos “ϕ ⇐⇒ dim(U ∩ W ) = dim(W )”.
Agora, sabemos que se W ⊆ U então temos U ∩ W = W e portanto concluı́mos que W ⊆ U =⇒
dim(U ∩ W ) = dim(W ).
Caso a volta ⇐= seja válida, encontramos o que querı́amos.
E de fato a recı́proca é válida.
Supondo dim(U ∩ W ) = dim(W ) vamos provar W ⊆ U .
Por absurdo, se fosse W 6⊆ U então existiria um elemento não-nulo w ∈ W tal que w 6∈ U .
Porém isso implicaria que para todo escalar λ 6= 0, λw 6∈ U (pois U é espaço vetorial). Com isso
terı́amos que dim(U ∩ W ) < dim(W ), absurdo! Logo dim(U ∩ W ) = dim(W ) =⇒ W ⊆ U . 

2.0.24 Exercı́cio 3.57


Seja S = {p1 (x), p2 (x), p3 (x), p4 (x)}. Precisamos mostrar que i) P3 (R) = [S] e que ii) S é L.I..

i) Seja p(x) = a + bx + cx2 + dx3 polinômio genérico de P3 (R). Preciso mostrar que existem
escalares k1 , k2 , k3 , k4 tais que p(x) = k1 p1 (x) + k2 p2 (x)k3 p3 (x) + k4 p4 (x). E isso acontece se, e
somente se:

a + bx + cx2 + dx3 = (k1 + k2 + k3 + k4 ) + (k2 − k4 )x + (−k3 − k4 )x2 − k4 x3





k1 + k2 + k3 + k4 = a


k − k = b

2 4
Que é equivalente a dizer que .


−k3 − k4 = c


−k = d

4

k1 = a − b + c + d




k = b − d

2
Note que é uma solução do sistema e portanto temos os coeficientes da
k = d − c

 3


k = −d

4
combinação linear desejada. Logo P3 (R) = [S].
ii) Supondo escalares k1 , k2 , k3 , k4 tais que k1 p1 (x) +k2 p2 (x)k3 p3 (x) + k4 p4 (x) = 0P3 (R) e igua-
k1 + k2 + k3 + k4 = 0




k − k = 0

2 4
lando coeficiente a coeficiente chegamos no sistema .
−k3 − k4 = 0




−k = 0

4
Que possui somente a solução trivial k1 = k2 = k4 = 0. Portanto S é L.I..
CAPÍTULO 2. ESPAÇOS VETORIAIS 24

Como provamos que S gera P3 (R) e que é L.I., provamos que S é uma base de P3 (R). 

2.0.25 Exercı́cio 3.58


Precisamos mostrar que: i) V ∩ W = {0R3 } e ii) R3 = V + W .
i) Como V 6⊆ W , existe um elemento v ∈ V que não pertence a W . Com isso temos que todo
1
múltiplo λv não-nulo de v também não está em W , pois caso contrário terı́amos que v = λ λv ∈
W (pois W é subespaço vetorial).
Mas como dim(V ) = 1 isso implica que todo elemento não-nulo de V não pertence a W . E como
0R3 ∈ W , segue que V ∩ W = {0R3 }.

ii) Seja A = {w1 , w2 } uma base de W e B = {v1 } uma base de V .


Então temos que A ∪ B = {w1 , w2 , v1 } é L.I..
De fato, supondo escalares c1 , c2 , c3 tais que:

c1 w1 + c2 w2 + c3 v1 = 0

Temos que c3 v1 = −c1 w1 − c2 w2 . Agora, se c3 6= 0 terı́amos que v1 é combinação linear de w1 e


w2 (que sabemos que não é verdade); logo c3 = 0. Mas isso implica que c1 w1 + c2 w2 = 0, e como
sabemos que A = {w1 , w2 } é L.I. (pois é base) temos que c1 = c2 = 0 = c3 .
E portanto dim(U + W ) = dim([A ∪ B]) = 3.
Mas como dim(R3 ) = 3 e U + W ⊆ R3 segue que U + W = R3 . 

2.0.26 Exercı́cio 3.60


Note que (−1, 1, 0, 1) = −2(1, 2, 1, 0) + (1, 5, 2, 1) e disso chegamos a dim(U ∩ W ) = 2.
Então, como diz o Teorema 3.6.5:

dim(U + W ) = dim(U ) + dim(W ) − dim(U ∩ W ) = 3 + 3 − 2 = 4

Uma segunda maneira de resolver esse exercı́cio é a seguinte:


Como U ⊆ U + W ⊆ R4 , segue que 3 ≤ dim(U + W ) ≤ 4.
Finalmente, dim(U + W ) também não pode ser igual a 3; pois caso contrário terı́amos 3 =
dim(U + W ) = dim(U ) = dim(W ) =⇒ U = U +W = W =⇒ U ∩ W = U , que é
um absurdo pois dim(U ∩ W ) = 2.
Portanto só podemos ter dim(U + W ) = 4.

2.0.27 Exercı́cio 3.62


Note que:
u
z }|2 {
U = [(0, 1, 0), (0, 0, 1)]
| {z }
u1
CAPÍTULO 2. ESPAÇOS VETORIAIS 25

v
z }|2 {
V = [(1, 0, 0), (0, 1, 2)]
| {z }
v1
w
z }|2 {
W = [(1, 1, 0), (0, 0, 2)]
| {z }
w1

i) Então V +W = [v1 , v2 , w1 , w2 ]. Agora precisamos achar um subconjunto L.I. de {v1 , v2 , w1 , w2 }.


Supondo escalares c1 , c2 , c3 , c4 tais que c1 v1 + c2 v2 + c3 w1 + c4 w2 = 0 chegamos ao sistema:

 c + c3 = 0
 1


c2 + c3 = 0



2c + 2c = 0
2 4

Que possui solução geral c1 = −c3 , c2 = −c3 e c4 = c3 .


Voltando na combinação linear descobrimos que (colocando c3 = 1) w2 = v1 +v2 −w1 . E podemos
verificar que {v1 , v2 , w1 } é L.I. e, portanto, uma base de V + W .
ii) Agora, temos que U + V + W = [u1 , u2 , v1 , v2 , w1 , w2 ]. Analogamente supondo escalares
c1 , c2 , c3 , c4 , c5 , c6 tais que c1 u1 + c2 u2 + c3 v1 + c4 v2 c5 w1 + c6 w2 = 0 chegamos ao sistema:

c + c5 = 0
 3


c1 + c4 + c5 = 0



c + 2c + 2c = 0
2 4 6

Que possui solução geral c1 = −c4 − c5 , c2 = −2c4 − 2c6 e c3 = −c5 .


Substituindo na combinação linear

• c4 = 0 e c5 = c6 = 1

• c5 = 0 e c4 = c6 = 1

• c6 = 0 e c4 = c5 = 1

obtemos, respectivamente:

• w1 = u1 + 2u2 + v1 − w2

• w2 = u1 + 4u2 − v2

• v2 = 2u2 + 2u2 + v1 − w1

E portanto U + V + W = [u1 , u2 , v1 ]. Podemos verificar que {u1 , u2 , v1 } é L.I. e portanto uma


base de U + V + W .
iii): Seja v = (x, y, z) elemento genérico de R3 . Então v ∈ U ∩ V ⇐⇒ v ∈ U e v ∈ V . Logo
existem escalares c1 , c2 , d1 , d2 tais que

c1 u1 + c2 u2 = d1 v1 + d2 v2
CAPÍTULO 2. ESPAÇOS VETORIAIS 26

Isso equivale a (0, c1 , c2 ) = (d1 , d2 , 2d2 ).


Como d1 = 0, d2 = c1 resolve o sistema de 3 equações que obtemos da linha de cima, segue que
v = c1 (0, 1, 2) e portanto U ∩ V = [(0, 1, 2)]. Logo {(0, 1, 2)} é uma base para U ∩ V .

Sessão 3.7
2.0.28 Exercı́cio 3.63
 
c1
 
h i c2 
Temos que p =  c  onde c1 , c2 , c3 , c4 são os escalares que satisfazem

γ  3
c4
p(x) = c1 · (1) + c2 · (1 − x) + c3 · (1 − x)2 + c4 · (1 − x)3
Então, vamos encontrar tais escalares (existem pois γ é uma base).
Temos:
p(x) = 3 − 2x − x2 = c1 + c2 − c2 x + c3 − 2c3 x + c3 x2 + c4 − 3c4 x + 3c4 x2 − c4 x3 = (c1 + c2 + c3 +
c4 ) + (−c2 − 2c3 − 3c4 )x + (c3 + 3c4 )x2 − c4 x3
Como possuı́mos uma igualdade de polinômios temos que seus coeficientes devem coincidir.
Isto
 é:
c1 + c2 + c3 + c4 = 3




−c − 2c − 3c = −2

2 3 4
=⇒ c1 = c4 = 0, c2 = 4 e c3 = −1.


 c3 + 3c4 = −1


−c = 0

4
 
0
 
h i 4
Portanto p = 
−1.

γ  
0

2.0.29 Exercı́cio 3.64


 3 
h i 2
Temos que p =  1 , e pela definição de matriz de coordenadas isso nos leva a :
 
β
−1
3
p(x) = x + x2 = · (2) + 1 · (a + x) − 1 · (1 + bx2 )
2

0 = 2 + a



2 2 2
Logo temos que x + x = 3 + a + x − 1 − bx = (2 + a) + x − bx , daı́ 1 = 1 , que acontece


1 = −b

somente se a = −2 e b = −1.
CAPÍTULO 2. ESPAÇOS VETORIAIS 27

2.0.30 Exercı́cio 3.67


(a) Precisamos mostrar que: i) V = [β] e ii)β é L.I..
i) Dado v elemento genérico de V , quero encontrar escalares c1 , c2 , c3 tais que v = c1 v1 + c2 (v1 +
v2 ) + c3 (−v1 + v2 + v3 ).
Porém, já sabemos que γ = {v1 , v2 , v3 } é uma base de V . Portanto sei que existem escalares
a1 , a2 , a3 tais que v = a1 v1 + a2 v2 + a3 v3 . Agora temos que:
v = c1 v1 + c2 (v1 + v2 ) + c3 (−v1 + v2 + v3 ) ⇐⇒ a1 v1 + a2 v2 + a3 v3 = c1 v1 + c2 (v1 + v2 ) + c3 (−v1 +
v2 + v3 ) = (c1 + c2 − c3 )v1 + (c2 + c3 )v2 + c3 v3 .

c + c2 − c3 = a1
 1


Agora verificaremos se conseguimos resolver o sistema c2 + c3 = a2 , pois então vamos



c = a
3 3
ter exibido os coeficientes que mostram v como combinação linear dos elementos de β.
E de fato conseguimos resolver o sistema, obtendo c3 = a3 , c2 = a2 − a3 e c1 = a1 − a2 + 2a3 como
solução.
Portanto concluı́mos que todo elemento de V pode ser escrito como combinação linear dos ele-
mentos de β. Isto é, V = [β].
ii) Suponha escalares c1 , c2 , c3 tais que

c1 v1 + c2 (v1 + v2 ) + c3 (−v1 + v2 + v3 ) = 0V

Então temos que (c1 + c2 − c3 )v1 + (c2 +c3 )v2 + c3 v3 = 0, e como γ = {v1 , v2 , v3 } é L.I. isso
 c + c2 − c3 = 0
 1


implica que necessariamente devemos ter c2 + c3 = 0 .



c = 0
3
O que implica que c1 = c2 = c3 = 0. E portanto β é L.I..

De i) e ii) provamos que β é uma base de V .


 
h i 2
(b) v = −1 =⇒ v = 2v1 − v2 + v3 .
 
γ
1
Usando os valores encontrados para os coeficientes da combinação linear dos elementos de β que
resulta em v, obtemos c3 = 1, c2 = −1 − 1 = −2 e c1 = 2 − (−1) + 2 · 1 = 5.
 
h i 5
Logo v = −2.
 
β
1

Sessão 3.8
2.0.31 Exercı́cio 3.69
Seja γ = {A1 , A2 , A3 } e β = {B1 , B2 , B3 }.
CAPÍTULO 2. ESPAÇOS VETORIAIS 28

Por definição, a matriz de mudança de base de γ para β é:


 


h iγ h i h i h i 
I =  A1 A2 A3 
 
β  β β β


Calculemos então cada coluna separadamente.


Por definição,  
h i c1
A1 = c2 
 
β
c3
Onde os ci ’s são os coeficientes da combinação linear que expressa A1 na base β. Isto é, os coefi-
cientes tais que A1 = c1 B1 + c2 B2 + c3 B3 . Substituindo as matrizes que já conhecemos obtemos:
" # " # " # " # " #
1 0 1 1 1 0 0 0 c1 + c2 c1
= c1 + c2 + c3 =
1 0 0 0 1 0 0 1 c2 c3



 c1 + c2 = 1



c = 0
1
Que nos leva ao sistema , que possui solução c1 = c3 = 0 e c2 = 1.


 c2 = 1



c = 0
3
 
h i 0
Portanto A1 = 1.
 
β
0
h i h i
Analogamente calculamos A2 e A3 .
β β


c1 + c2 = 0


c = −1

1
A2 = c1 B1 + c2 B2 + c3 B3 ⇐⇒ ⇐⇒ c1 = −2, c2 = 1 e c3 = 0.
c2 = 1





c = 0
 3


 c1 + c2 = 0



c = 0
1
A3 = c1 B1 + c2 B2 + c3 B3 ⇐⇒ ⇐⇒ c1 = c2 = 0 e c3 = 1.


 c2 = 0



c = 1
3
   
h i −2 h i 0
Portanto A2 =  1  e A3 = 0.
   
β β
0 1
CAPÍTULO 2. ESPAÇOS VETORIAIS 29

 
h iγ 0 1 0
E então I = −2 1 0.
 
β
0 0 1

2.0.32 Exercı́cio 3.70


 
···


h iβ h i h i 
Por definição, I =  v1
 · · · vn  .
γ  γ γ
···


Calculemos, por exemplo, a primeira coluna.
 
k1
h i .
v1 =  .
γ  . , onde os ki ’s são os coeficientes da combinação linear de γ que expressa v1 .
kn
Agora, para achar os ci ’s vamos representar primeiro v1 na base α e depois representar cada ele-
mento da base α na base γ. Isto é,

v1 = a11 u1 + · · · + an1 un
= a11 (c11 w1 + · · · + cn1 wn ) + · · · + an1 (c1n w1 + · · · + cnn wn )

Onde cij é a i-ésima coordenada de vj na base γ.


Observe que agora já temos v1 como combinação linear de elementos de γ, basta fazer o trabalho
manual de exibir os coeficientes.
Então temos:

v1 = a11 (c11 w1 + · · · + cn1 wn ) + · · · + an1 (c1n w1 + · · · + cnn wn )


= (a11 c11 + · · · + an1 c1n )w1 + · · · + (a11 cn1 + · · · + an1 cnn )wn

Fazendo o mesmo processo para todo vj ’s obtemos:

vj = a1j (c11 w1 + · · · + cn1 wn ) + · · · + anj (c1n w1 + · · · + cnn wn )


= (a1j c11 + · · · + anj c1n )w1 + · · · + (a1j cn1 + · · · + anj cnn )wn
h iβ
Agora temos explicitamente os valores das entradas de I .
γ

Por exemplo, a entrada m11 da matriz de mudança de base de β para γ será a primeira coorde-
nada de v1 na base γ.
n
P
Isto é, m11 = ak1 c1k
k=1
Por exemplo, a entrada m1j da matriz de mudança de base de β para γ será a primeira coorde-
nada de vj na base γ.
n
P
Isto é, m1j = akj c1k
k=1
Por exemplo, a entrada mij da matriz de mudança de base de β para γ será a i-ésima coorde-
nada de vj na base γ.
CAPÍTULO 2. ESPAÇOS VETORIAIS 30

n
P n
P
Isto é, mij = akj cik = cik akj . Que é exatamente a definição do elemento originário do
k=1 k=1
produto das matrizes Q · P .
h iβ h iα h iβ
Isto é, I = Q · P = I I 
γ γ α

Agora na segunda parte do exercı́cio, queremos provar que uma matriz de mudança de base
h iA
genérica I é invertı́vel.
B
h iB
Por definição I = In .
B
h iB h iA h iB h iA
Por outro lado In = I = I I . E portanto segue que I é invertı́vel com
B B A B
h iA h iB
( I )−1 = I .
B A

OBS.: A resolução da primeira parte deste exercı́cio é muito “conteira” e pesada de notações;
porém possui pouco conteúdo pragmaticamente relevante, embora seja importante para o desen-
volvimento teórico. Sendo assim, fica a seu critério a importância de tê-la compreendido “com-
pletamente”.

2.0.33 Exercı́cio 3.72


Considere α = {v1 , v2 }.  


h iγ h i h i 
Pela definição de matriz de mudança de base temos: I = 
 u1 α u2 .
α α

Sendo assim,
" # obtemos: " #
h i 1 h i 0
u1 = e u2 =
α 4 α −2
Logo u1 = v1 + 4v2 e u2 = −2v2 .
E portanto v2 = − 12 u2 = (1, −1) e v1 = u1 − 4v2 = (−3, 5).
" #
h i 1
Agora, se u = então u = v1 + 2v2 = (−1, 3).
α 2
Capı́tulo 3

Transformações Lineares

Sessão 4.2
3.0.1 Exercı́cio 4.4
Base para W :
Seja v = (x, y) elemento genérico de R2 . Então temos: 
2x − y = 3x
v ∈ W ⇐⇒ T (x, y) = 3(x, y) ⇐⇒ (2x − y, −x + 2y) = 3(x, y) ⇐⇒
−x + 2y = 3y
⇐⇒ x = −y
Logo v = (x, y) está em W se, e somente se, v = (−y, y) = y(−1, 1). Portanto W = [(−1, 1)] e
α = {(−1, 1)} é uma base para W .

Base para U :
Seja v = (x, y) elemento genérico de R2 . Então temos: 
2x − y = x
v ∈ U ⇐⇒ T (x, y) = (x, y) ⇐⇒ (2x − y, −x + 2y) = (x, y) ⇐⇒ ⇐⇒ x = y
−x + 2y = y
Logo v = (x, y) está em U se, e somente se, v = (y, y) = y(1, 1). Portanto U = [(1, 1)] e β =
{(1, 1)} é uma base para U .

3.0.2 Exercı́cio 4.6


O exercı́cio de determinar uma transformação linear satisfazendo certas condições é bastante
tı́pico e irá nos acompanhar até alguns capı́tulos a frente.
A frase da teoria que fundamenta a solução deste tipo de exercı́cio é a seguinte (Teorema 4.2.1):

“Uma transformação linear fica completamente determinada pelos seus valores numa base”

Sendo assim, nossa tarefa de criar uma transformação linear que satisfaça certas propriedades
será sempre executada dizendo o que acontece com tal transformação nos elementos de uma
base.

31
CAPÍTULO 3. TRANSFORMAÇÕES LINEARES 32

A solução desse exercı́cio é, em particular, mais direta.


Como α = {(1, 1), (1, −1)} é uma base de R2 , existe somente uma transformação linear T satisfa-
zendo as duas condições. Então econtremos sua fórmula.
Dado v = (v1 , v2 ) elemento genérico de R2 , vamos encontrar primeiro suas coordenadas na base
α.

a + b = v
1 v1 +v2 v1 −v2
(v1 , v2 ) = a(1, 1) + b(1, −1) = (a + b, a − b) =⇒ =⇒ a = 2 eb= 2 .
a − b = v
2
v1 +v2 v1 −v2
Portanto (v1 , v2 ) = 2 (1, 1) + 2 (1, −1), e aplicando T dos dois lados obtemos:

v1 + v2 v1 − v2 v1 + v2 v1 − v2
T (v1 , v2 ) = T ( (1, 1) + (1, −1)) = T (1, 1) + T (1, −1)
2 2 2 2

pois T é linear.
v1 +v2 2 v1 −v2 3
Agora para T satisfazer as duas condições devemos ter T (v1 , v2 ) = 2 (x − 1) + 2 (x + 1)
e consequentemente:
v1 + v2 2 v1 − v2 3
T (v1 , v2 ) = −v2 + ( )x + ( )x
2 2

Sessão 4.3
3.0.3 Exercı́cio 4.9
Base para Ker(T ):
3
 de R . Então v ∈ Ker(T ) ⇐⇒ T (v) = 0R2 ⇐⇒
Dado v = (x, y, z) elemento genérico
x − y − z = 0
(x − y − z, 2z − x) = (0, 0) ⇐⇒ ⇐⇒ x = 2z e y = z.
2z − x = 0
Portanto v ∈ Ker(T ) ⇐⇒ v = (2z, z, z) = z(2, 1, 1). Logo Ker(T ) = [(2, 1, 1)], e α = {(2, 1, 1)}
é uma base para Ker(T ).
Base para Im(T ):
Dado u = (x1 , x2 ) elemento genérico de R2 .
Então u ∈ Im(T ) ⇐⇒ ∃v = (x, y, z) ∈ R3 ; u = T (v). Sendo assim, a forma genérica de um
elemento em Im(T ) é u = T (v) = (x − y − z, 2z − x) = x(1, −1) + y(−1, 0) + z(−1, 2).
Logo Im(T ) = [(1, −1), (−1, 0), (−1, 2)] e β = {(1, −1), (−1, 0)} é uma base para Im(T ).

3.0.4 Exercı́cio 4.10


Base para Ker(T ):
Dado p(x) = a + bx + cx2 elemento genérico de P2 (R). Então p(x) ∈Ker(T ) ⇐⇒ T (p(x)) =
a − b + 2c = 0
   
a − b + 2c 0 0 0 0 0




0U ⇐⇒  0 2a + b 0  = 0 0 0 ⇐⇒ ⇐⇒
   
2a + b = 0

0 0 −a − 2b + 2c 0 0 0

−a − 2b + 2c = 0

CAPÍTULO 3. TRANSFORMAÇÕES LINEARES 33


b = −2a
.
c = − 3 a
2
Portanto p(x) ∈ Ker(T ) ⇐⇒ p(x) = a − 2ax − 23 ax2 = a(1 − 2x − 32 x2 ).
Logo Ker(T ) = [1 − 2x − 23 x2 ] = [2 − 4x − 3x2 ] e α = {2 − 4x − 3x2 } é uma base para Ker(T ).
Base para Im(T ):
Dada A ∈ U . Então A ∈ Im(T ) ⇐⇒ ∃p(x) ∈ P2 (R); A = T (p(x)).
Sendo assim, a forma genérica de um elemento em Im(T ) é
       
a − b + 2c 0 0 1 0 0 −1 0 0 2 0 0
A = T (p(x)) =  0 2a + b 0  = a 0 2 0  +b  0 1 0  +c 0 0 0
       

0 0 −a − 2b + 2c 0 0 −1 0 0 −2 0 0 2
| {z } | {z } | {z }
A1 A2 A3
Portanto Im(T ) = [A1 , A2 , A3 ] e β = {A1 , A2 , A3 } é uma base para Im(T ) pois é L.I..

Sessão 4.4
3.0.5 Exercı́cio 4.17
u u w w
z }|1 { z }|2 { z }|1 { z }|2 {
Primeiramente note que U = [(−1, 1, 0), (−1, 0, 1)] e que W = [(1, 0, 1), (0, −1, 1)].
Determinemos então U ∩ W .
Dado v = (x, y, z) elemento genérico de R3 , sei que v ∈ U ∩ W ⇐⇒ v ∈ U e v ∈ W
⇐⇒ 
∃a1 , a2 , b1 , b2 ; a1 u2 + a2 u2 = b1 w1 + b2 w2 ⇐⇒ (−a1 − a2 , a1 , a2 ) = (b1 , −b2 , b1 + b2 )
a = b 
 2 1

 a = 0
1
⇐⇒ a1 = −b2 ⇐⇒ .
 a = b

 2 1
a = b + b
2 1 2
Portanto v ∈ U ∩ W ⇐⇒ v = b1 (−1, 0, 1). Logo U ∩ W = [(−1, 0, 1)].
Agora recordamos que “Uma transformação linear fica completamente determinada pelos seus
valores numa base” e que devemos satisfazer: i)Im(T ) = [(−1, 1, 0), (−1, 0, 1)] e ii)Ker(T ) =
[(−1, 0, 1)].
Escolhemos

• T (−1, 0, 1) = 0R3

para satisfazer ii).


E também

• T (0, 1, 0) = (−1, 1, 0)

• T (0, 0, 1) = (−1, 0, 1)

para satisfazer i).


Note que com essas 3 informações, T fica completamente determinada pois α = {(−1, 0, 1), (0, 1, 0), (0, 0, 1)}
é uma base de R3 (Prove!).
CAPÍTULO 3. TRANSFORMAÇÕES LINEARES 34

Agora nos resta achar explicitamente a fórmula de T (x, y, z), que é análogo ao Exercı́cio 4.6.
Primeiro, precisamos achar as coordenadas de um vetor v = (x, y, z) genérico de R3 na base α na
qual sabemos como T se comporta.
Isto é, precisamos achar os escalares a1 , a2 , a3 tais que

(x, y, z) = a1 (−1, 0, 1) + a2 (0, 1, 0) + a3 (0, 0, 1)



 −a = x
 1


Daı́, temos que (x, y, z) = (−a1 , a2 , a1 + a3 ) que nos leva ao sistema a2 = y , que possui



a + a = z
1 3

 a = −x
 1


solução a2 = y .



a = z + x
3
Portanto (x, y, z) = −x(−1, 0, 1) + y(0, 1, 0) + (z + x)(0, 0, 1). Aplicando T nos dois lados da
igualdade e usando a linearidade de T temos que:

T (x, y, z) = −xT (−1, 0, 1)+yT (0, 1, 0)+(z+x)T (0, 0, 1) = −x(0, 0, 0)+y(−1, 1, 0)+(z+x)(−1, 0, 1)

E finalmente concluı́mos que T (x, y, z) = (−x − y − z, y, x + z) é a (única) transformação linear


que satisfaz às condições citadas.
OBS.: É de bom costume, após exibir a fórmula de T , provar rapidamente as propriedades cita-
das (e também para verificar se não houve nenhum erro de conta no processo!).

3.0.6 Exercı́cio 4.19


(a) Falso!
Suponha, por absurdo, que existe uma transformação linear injetora T : R4 =⇒ R3 . Isso
implicaria que Ker(T ) = {0R3 } e consequentemente dim(Ker(T )) = 0. Daı́, pelo teorema do
núcleo e da imagem terı́amos:

dim(R4 ) = dim(Ker(T )) + dim(Im(T ))

O que nos leva a 4 = 0 + dim(Im(T )) e dim(Im(T )) = 4, porém Im(T ) ⊆ R3 e dim(R3 ) = 3;


absurdo!. 
OBS.: Similarmente, sempre que dim(V ) ≥ dim(W ) podemos provar que não existe uma trans-
formação linear T : V → W injetora.

(b) Verdadeiro!
Seja α = {(1, 0, 0, 0), (0, 1, 0, 0)(0, 0, 1, 0), (0, 0, 0, 1)} base canônica de R4 e β = {1, x, x2 } base
canônica de P2 (R). Construı́mos a transformação linear T considerando que:

• T (1, 0, 0, 0) = 1
CAPÍTULO 3. TRANSFORMAÇÕES LINEARES 35

• T (0, 1, 0, 0) = x

• T (0, 0, 1, 0) = x2

• T (0, 0, 0, 1) = 0

Podemos verificar que Im(T ) = P2 (R) e consequentemente T é sobrejetora. 


OBS.: Similarmente, sempre que dim(V ) ≥ dim(W ) podemos provar que existe uma trans-
formação linear sobrejetora T : V → W .

(c) Falso!
Sabemos que T é bijetora ⇐⇒ T é injetora e sobrejetora.
Existem transformações lineares injetoras de R2 em P2 (R). Porém, não existem transformações
lineares sobrejetoras T : R2 → P2 (R).
De fato, suponha que ∃T : R2 → P2 (R) linear e sobrejetora. Então terı́amos que Im(T ) = P2 (R)
e consequentemente dim(Im(T )) = dim(P2 (R)) = 3. Mas, pelo Teorema do Núcleo e da Imagem,
isso implicaria que:
dim(R2 ) = dim(Ker(T )) + dim(Im(T ))

Daı́, 2 = dim(Ker(T )) + 3 e dim(Ker(T )) = −1; absurdo! pois a dimensão de um espaço vetorial


deve ser sempre não-negativa. 

3.0.7 Exercı́cio 4.25


(a) Se T e P são transformações lineares injetoras, então Ker(T ) = {0V } e Ker(P ) = {0W }.
Pelo Teorema do Núcleo e da Imagem temos:

dim(U ) = dim(Ker(T )) + dim(Im(T ))

dim(V ) = dim(Ker(P )) + dim(Im(P ))

Portanto dim(U ) = dim(Im(T )) e dim(V ) = dim(Im(P )). Mas dim(Im(T )) ≤ dim(V ), pois
F
Im(T ) ⊆ V . Daı́, dim(U ) ≤ dim(V ) .

Similarmente, como dim(Im(P )) ≤ dim(W ), pois Im(P ) ⊆ W ; temos que dim(V ) ≤ dim(W ) .
De F e ♥ concluı́mos que dim(U ) ≤ dim(V ) ≤ dim(W ). 

(b) Se T e P são transformações lineares sobrejetoras, então Im(T ) = V e Im(P ) = W . Logo


dim(Im(T )) = dim(V ) e dim(Im(P )) = dim(W ). Pelo Teorema do Núcleo e da Imagem devemos
ter:
dim(U ) = dim(Ker(T )) + dim(Im(T ))

dim(V ) = dim(Ker(P )) + dim(Im(P ))

Portanto dim(U ) = dim(Ker(T )) + dim(V ) e dim(V ) = dim(Ker(P )) + dim(W ).


Logo temos que dim(U ) ≥ dim(V )F e dim(V ) ≥ dim(W )♥ ; pois a dimensão do núcleo é sempre
não-negativa.
CAPÍTULO 3. TRANSFORMAÇÕES LINEARES 36

De F e ♥ concluı́mos que dim(U ) ≥ dim(V ) ≥ dim(W ). 

Sessão 4.5
3.0.8 Exercı́cio 4.26
Uma função T : R3 → R3 é um isomorfismo de espaços vetoriais se, e somente se, T é linear e
bijetora.
Como já nos foi informado que T é linear, basta provar que T é bijetora.
T é injetora:
Calculemos Ker(T ).
3
 de R , então v ∈ Ker(T ) ⇐⇒ T (v) = (0, 0, 0) ⇐⇒
Seja v = (x, y, z) elemento genérico
x − 2y = 0



(x − 2y, z, x + y) = (0, 0, 0) ⇐⇒ z = 0 ⇐⇒ x = y = z = 0.



x + y = 0
Portanto Ker(T ) = {0R3 } e consequentemente T é injetora.

T é sobrejetora:
Provemos que Im(T ) = R3 .
De fato, seja u ∈ R3 .
Então u ∈ Im(T ) ⇐⇒ ∃v = (x, y, z) ∈ R3 tal que u = T (v)
Sendo assim, a forma genérica de um elemento em Im(T ) é u = T (v) = (x − 2y, z, x + y) =
x(1, 0, 1) + y(−2, 0, 1) + z(0, 1, 0).
Logo Im(T ) = [(1, 0, 1), (−2, 0, 1), (0, 1, 0)] e podemos verificar que {(1, 0, 1), (−2, 0, 1), (0, 1, 0)} é
L.I. e portanto uma base de Im(T ).
Logo dim(Im(T )) = 3 = dim(R3 ) e como Im(T ) ⊆ R3 segue que Im(T ) = R3 e consequente-
mente T é sobrejetora. 

3.0.9 Exercı́cio 4.28


Note que S = [(1, 1, 0), (−2, 0, 1)].
Agora, consideremos a base α = {(1, 0), (0, 1)} canônica de R2 . Então considere T : R2 → S a
transformação linear determinada por:

• T (1, 0) = (1, 1, 0)

• T (0, 1) = (−2, 0, 1)

Agora vamos exibir a fórmula de T . Primeiro achamos as coordenadas de um elemento genérico


(x, y) ∈ R2 na base α. Isto é, acharemos a1 , a2 tais que (x, y) = a1 (1, 0) + a2 (0, 1).
Isso acontece somente se (x, y) = (a1 , a2 ) e logo a1 = x e a2 = y. Então

T (x, y) = xT (1, 0) + yT (0, 1) = (x − 2y, x, y)


CAPÍTULO 3. TRANSFORMAÇÕES LINEARES 37

é o isomorfismo procurado (Prove que T é uma bijeção!). 

Sessão 4.8
3.0.10 Exercı́cio 4.42
Seja α = {a1 , a2 }, β = {b1 , b2 } e γ = {c1 , c2 } bases
 de R2 .


h iβ h i h i 
 Por definição T =  T (b 1 ) T (b2 ) . Agora T (b1 ) = T (1, 0) = (1, 2) = 1·(1, 0)+2·(0, 1)
β β β
 

" #
h iβ 1 2
e T (b2 ) = T (0, 1) = (2, 4) = 2 · (1, 0) + 4 · (0, 1). Portanto T = .
β 2 4
 

h iβ  h i h i 
 Por definição T =  T (b1 ) T (b2 )  . Agora preciso descobrir as constantes k1 , k2 tais
α  α α


k = 1
1
que T (b2 ) = (1, 2) = k1 (1, −1) + k2 (0, 1). Daı́, (1, 2) = (k1 , −k1 + k2 ) =⇒
−k + k = 2
1 2
=⇒ k1 = 1 e k2 = 3. Agora preciso descobrir as constantes k10 , k20 tais que T (b2 ) = (2, 4) =
k 0 = 2
1
k10 (1, −1) + k20 (0, 1). Daı́, (2, 4) = (k10 , −k10 + k20 ) =⇒ =⇒ k10 = 2 e k20 = 6.
−k 0 + k 0 = 4
1 2
" #
h iβ 1 2
Portanto T = .
α 3 6
 

h iα h i h i 
 Por definição, T =  T (a 1 ) T (a2 ) .
β β β
 

Agora T (a1 ) = T (1, −1) = (−1, −2) "= −1 ·#(1, 0) − 2 · (0, 1) e T (a2 ) = T (0, 1) = (2, 4) =
h iα −1 2
2 · (1, 0) + 4 · (0, 1). Portanto T = .
β −2 4
 

h iγ h i h i 
 Por definição, T =  T (c1 ) T (c 2 ) . Agora T (c1 ) = T (1, −1) = (−1, −2) = −1 ·
α  α α

" #
h iγ −1 3
(−1, −2) + 1 · (0, 1) e T (c2 ) = T (1, 1) = (3, 6) = 3 · (1, −1) + 9 · (0, 1). Portanto T = .
α 1 9

3.0.11 Exercı́cio 4.45


h i h iβ h i
(a) Sabemos que T (p(x)) = T · p(x) .
γ γ β
CAPÍTULO 3. TRANSFORMAÇÕES LINEARES 38


c + c2 = 3
   
3 1 1

 1
" # 

 1c
Disso, 5 = 2 1 =⇒ , que possui solução c1 = 2 e c2 = 1.
  
2c1 + c2 = 5
c2 
4 1 2


c + 2c = 4
1 2
" #
h i 2
Portanto p(x) = .
β 1
(b) Observe que    
1 1 " # 1
 1
h i h iβ h i
T (x − x2 + x3 ) = T x − x2 + x3 = 2 1 = 2
  
γ γ β 0
1 2 1
2 3 2
Então T (x − x + x ) = 1 − 2x + 3x = 1(x + 2) + 2p1 (x) + p2 (x) F .
E também temos    
1 1 " # 1
 0
h i h iβ h i
2 2
T (1 + x + x ) = T 1+x+x = 2 1 = 1
  
γ γ β 1
1 2 2
Então T (1 + x + x2 ) = 2 + 3x = 1(x + 2) + p1 (x) + 2p2 (x) ♥ .

Somando as equações F e ♥ temos que:

3 + x + 3x2 = 2(x + 2) + 3p1 (x) + 3p2 (x)

E consequentemente 3p1 (x) + 3p2 (x) = −1 − x + 3x2 .

3.0.12 Exercı́cio 4.53


 

h iβ  h i h i 
(a) Por definição T =  T (1, 0) T (0, 1)  .
γ 
γ γ

   
h i 1 h i −1
Logo T (1, 0) =  0  e T (0, 1) =  1 .
   
γ γ
−2 3
Disso temos que T (1, 0) = 1 · (1, 0, 1) + 0 · (−1, 0, 1) − 2 · (0, 1, 0) = (1, −2, 1)
e T (0, 1) = −1 · (1, 0, 1) + 1 · (−1, 0, 1) + 3 · (0, 1, 0) = (−2, 3, 0).

(b) Dado (x, y) elemento genérico de R2 , temos que

T (x, y) = T (x(1, 0) + y(0, 1)) = xT (1, 0) + yT (0, 1) = x(1, −2, 1) + y(−2, 3, 0)

Portanto Im(T ) = [(1, −2, 1), (−2, 3, 0)] e α = {(1, −2, 1), (−2, 3, 0)} é uma base de Im(T ).

(c) Calculemos Ker(T ).


Pelo T.N.I.:
dim(R2 ) = dim(Ker(T )) + dim(Im(T ))

Logo 2 = dim(Ker(T )) + 2 e dim(Ker(T )) = 0.


CAPÍTULO 3. TRANSFORMAÇÕES LINEARES 39

Portanto Ker(T ) = {0R3 } e T é uma transformação linear injetora.

3.0.13 Exercı́cio 4.55


 


h iγ h i h i h i h i 
(a) Pela definição, T =  T (v1 ) T (v2 ) T (v3 ) T (v4 ) .
 
γ  γ γ γ γ


Agora, como

• T (v1 ) = v1 ;

• T (v2 ) = v2 ;

• T (v3 ) = v3 ;

• T (v4 ) = v1 + v3 .
 
1 0 0 1
h iγ  0 1 0 0

Segue que T =  0
.
γ  0 1 1
0 0 0 0
h i h iβ h i
(b) Sabemos que T (e1 ) = T e1 .
γ γ β
   
1 0 0 1
0 0 1 0 1 0 1 0
h iβ h iγ h iβ  0 1

0 0 0 0 0
 
 
1 0
  0 0 1

E temos que T = T I = 0 0 = .
γ γ γ  1 1  0 1 0
 0 1 1 0 0
0 0 0 0 1 0 0 0 0 0 0 0
    
1 0 1 0 1 1
    
0 0 0 1 0 = 0.
h i    
Consequentemente T (e1 ) =  1 1 0
γ  0 

0 1
  
0 0 0 0 0 0
Capı́tulo 4

Produto Interno

Sessão 5.2
4.0.1 Exercı́cio 5.2
Considere A = [aij ] a matriz do produto interno de V na base β.
Pn
Observe que se escrevermos o elemento u na base β como u = αj vj , então
j=1

Xn n
X n
X
hu, v1 i = h αj vj , v1 i = αj hvj , v1 i = αj a1j
j=1 j=1 j=1

Xn n
X n
X
hu, v2 i = h αj vj , v2 i = αj hvj , v2 i = αj a2j
j=1 j=1 j=1

..
.
Xn n
X n
X
hu, vi i = h αj vj , vi i = αj hvj , vi i = αj aij (F)
j=1 j=1 j=1

Então dados escalares c1 , · · · , cn vamos provar que existe um único u ∈ V que satisfaz
hu, vi i = ci ∀i = 1, · · · , n.
De fato,
     
  α1 c1 c1
a11 a12 ··· a1n    
 α2   c2   c2 
 
 .
(F) .. .. .. 
hu, vi i = ci ⇐⇒  . .   ..  =  ..  ⇐⇒ A[u]β =  .. 
 . . .
     
 .  . .
an1 an2 ··· ann
αn cn cn

Observe que como a matriz A e as constantes ci estão fixadas, temos um sistema de equações
nas variáveis α1 , · · · , αn . E na verdade, como a matriz do produto interno A é sempre invertı́velF ,

40
CAPÍTULO 4. PRODUTO INTERNO 41

o sistema    
α1c1
 α2   c2 
   
 ..  =  .. 
A   
 .  .
αn cn
   
α1 c1
 α2   c2 
   
−1  
 ..  = A  .. . Ou seja, existe um único elemento u = α1 v1 + · · · + αn vn
possui solução única  
 .  .
αn cn
que satisfaz a propriedade desejada. 

OBS.F : Todas as matrizes n × n positivas definidas são invertı́veis. De fato, se A fosse não in-
vertı́vel então existiria um vetor (matriz coluna) X 6= 0 tal que AX = 0 (pois caso contrário
Ker(A) = {0} =⇒ dim(Im(A)) = n =⇒ A invertı́vel ). Então para tal X 6= 0 temos
X t AX = 0 e logo A não pode ser positiva definida.

4.0.2 Exercı́cio 5.7


Precisamos provar que:
i) hA, Bi = hB, Ai ∀A, B ∈ Mn (R);
ii) hA, Ai ≥ 0 ∀A ∈ Mn (R) com hA, Ai = 0 ⇐⇒ A = 0Mn (R) ;
iii) hA + C, Bi = hA, Bi + hC, Bi ∀A, B, C ∈ Mn (R);
iv) hλA, Bi = λhA, Bi ∀A, B ∈ Mn (R) ∀λ ∈ R.
Pm Pn m P
P n
i) hA, Bi = aij bij = bij aij = hB, Ai.
i=1 j=1 i=1 j=1
m P
n m P
n
a2ij ≥ 0
P P
ii) hA, Ai = aij aij = ∀A = [aij ]
i=1 j=1 i=1 j=1
m n
a2ij = 0 ⇐⇒ aij = 0 para todo i, j, i.e. A = 0Mn (R) .
P P
Agora hA, Ai =
i=1 j=1
m P
P n m P
P n m P
P n m P
P n
iii) hA + C, Bi = (aij + cij )bij = aij bij + cij bij = aij bij + cij bij =
i=1 j=1 i=1 j=1 i=1 j=1 i=1 j=1
hA, Bi + hC, Bi.
m P
P n m P
P n
iv) hλA, Bi = λaij bij = λ aij bij = λhA, Bi.
i=1 j=1 i=1 j=1

4.0.3 Exercı́cio 5.12


a) A matriz A = [aij ] deste produto interno na base canônica é, por definição, determinada por
aij = hpj , pi i. Então temos:
a11 = hp1 , p1 i = p1 (−1)2 + p1 (0)2 + p1 (1)2 = 12 + 12 + 12 = 3
a22 = hp2 , p2 i = p2 (−1)2 + p2 (0)2 + p2 (1)2 = (−1)2 + 02 + 12 = 2
a33 = hp3 , p3 i = p3 (−1)2 + p3 (0)2 + p3 (1)2 = ( (−1)2 )2 + (02 )2 + (12 )2 = 2
CAPÍTULO 4. PRODUTO INTERNO 42

a21 = a12 = hp2 , p1 i = p2 (−1)p1 (−1) + p2 (0)p1 (0) + p2 (1)p1 (1) = (−1) · 1 + 0 ·
1+1·1=0
a31 = a13 = hp3 , p1 i = p3 (−1)p1 (−1) + p3 (0)p1 (0) + p3 (1)p1 (1) = (−1)2 · 1 + 02 ·
1 + 12 · 1 = 2
a32 = a23 = hp3 , p2 i = p3 (−1)p2 (−1) + p3 (0)p2 (0) + p3 (1)p2 (1) = (−1)2 · (−1) +
02 · 0 + 12 · 1 = 0  
3 0 2
E consequentemente, A = 0 2 0.
 

2 0 2

b)     
h i 3 0 2 −1 h i −1
hp, qi = Y t AX = 4 2 −1 0 2 0  3  = 10 4 6  3  = −10 + 12 + 6 = 8
    

2 0 2 1 1

c) Considere X como a matriz de coordenadas do polinômio p(x) = −1 + 3x + 1x2 na base


canônica e Y a matriz de coordenadas de q(x) = d + ex + f x2 na base canônica. Então:
    
h i 3 0 2 −1 h i −1
hp, qi = 0 ⇐⇒ Y t AX = 0 ⇐⇒ d e f 0 2 0  3  = 3d + 2f 2e 2d + 2f  3  =
    

2 0 2 1 1
0 ⇐⇒ −3d − 2f + 6e + 2d + 2f = 0 ⇐⇒ d = 6e
Portanto os polinômios q tais que hp, qi = 0 são da forma q(x) = 6e + ex + f x2 = e(6 + x) + f x2 .

Sessão 5.5
4.0.4 Exercı́cio 5.14
Considere o espaço vetorial real Rn munido do produto interno usual e os vetores u = (a1 , · · · , an )
e v = ( n1 , · · · , n1 ). Pela desigualdade de Cauchy-Schwarz

hu, vi2 ≤ hu, ui · hv, vi

Substituindo os valores de u e v obtemos


2
(a1 + · · · + an )2

a1 + · · · + an

n n

4.0.5 Exercı́cio 5.18


Considere R4 um espaço vetorial real munido do produto interno usual.
Então os vetores u = (1, 2, α, 3) e v = (α, 2, α, −2) são ortogonais ⇐⇒ hu, vi = 0 ⇐⇒
2 2
α + 4 + α − 6 = 0 ⇐⇒ α + α − 2 = 0 ⇐⇒ α = 1 ou α = −2.
CAPÍTULO 4. PRODUTO INTERNO 43

4.0.6 Exercı́cio 5.29


Devemos provar que para cada par de vetores não-nulos u, v ∈ V existe um θ ∈ [0, π/2] tal que

|hu, vi|
cos(θ) =
kuk2 kvk2

Além disso, devemos provar que tal θ é único. Provando essas duas coisas vamos ter provado que
tal ângulo pode ser definido “sem ambiguidade”.
De fato, pela desigualdade de Cauchy-Schwarz sempre é o caso que 0 ≤ hu, vi2 ≤ hu, uihv, vi =⇒
|hu,vi|
p p
|hu, vi| ≤ hu, ui hv, vi = kuk2 kvk2 . E portanto 0 ≤ kuk 2 kvk2
≤ 1.
Agora, observe que a função cosseno restrita ao intervalo [0, π/2] e com contra-domı́nio [0, 1] é
bijetora! Disso, certamente existe um θ ∈ [0, π/2] satisfazendo tal propriedade (sobrejetora) e
certamente esse θ será único (injetora).

4.0.7 Exercı́cio 5.31


O produto interno usual do espaço vetorial real C([0, 1]) é definido por:
Z 1
hf, gi = f (x)g(x) dx
0

Sendo assim, para f (x) = ax + b e g(x) = x2 , f e g são ortogonais se, e somente se,
R1 R1 R1 1
0 = hf, gi = 0 f (x)g(x) dx = 0 (ax + b)x2 dx = 0 ax3 + bx2 dx = a4 x4 + 3b x3 0 = a
+ 3b .

4
Como o exercı́cio nos pede apenas uma função deste tipo, escolhemos a = 4 e concluı́mos que a
função f (x) = 4x − 3 é ortogonal à função g(x) = x2 segundo o produto interno usual do espaço.

Sessão 5.7

Sessão 5.9
4.0.8 Exercı́cio 5.41
Ker(T )
v = (x, y, z) ∈ Ker(T ) ⇐⇒ T (x, y, z) = (0, 0) ⇐⇒ (x − y − z, 2z − x) = (0, 0) ⇐⇒
x − y − z = 0
⇐⇒ x = 2z e y = z. Logo Ker(T ) = [(2, 1, 1)].
2z − x = 0

(Ker(T ))⊥
v = (x, y, z) ∈ Ker(T )⊥ ⇐⇒ hv, (2, 1, 1)i = 0 ⇐⇒ 2x + y + z = 0 ⇐⇒ y = −2x − z.
Logo os elementos de Ker(T )⊥ são da forma v = (x, −2x − z, z) = x(1, −2, 0) + z(0, −1, 1) e
Ker(T )⊥ = [(1, −2, 0), (0, −1, 1)].

Base ortogonal de Ker(T )⊥


CAPÍTULO 4. PRODUTO INTERNO 44

Vamos ortogonalizar a base β = {(1, −2, 0), (0, −1, 1)} de Ker(T )⊥ utilizando o processo de
| {z } | {z }
v1 v2
Gram-Schmidt. O processo nos retorna a base ortogonal α = {q1 , q2 } com
q1 = v1 = (1, −2, 0);
q2 = v2 − hv 2 ,q1 i 2 2 1
hq1 ,q1 i q1 = (0, −1, 1) − 5 (1, −2, 0) = (− 5 , − 5 , 1).

Sessão 5.14
4.0.9 Exercı́cio 5.53
Preciso mostrar que Ker(T ) ⊆ (Im(T ))⊥ e que (Im(T ))⊥ ⊆ Ker(T ).

Ker(T ) ⊆ (Im(T ))⊥


Vamos supor um elemento em Ker(T ) e então concluir que este elemento é perpendicular a todo
elemento de Im(T ).
Supondo v ∈ Ker(T ) temos que para todo elemento genérico da imagem do operador, T (u) ∈
Im(T ), vale que

T simétrico v∈Ker(T ) def. p.i.


hv, T (u)i = hT (v), ui = h0, ui = 0

E portanto v ∈ (Im(T ))⊥ .


Disso concluı́mos a primeira inclusão.

(Im(T ))⊥ ⊆ Ker(T )


Similarmente, vamos considerar um elemento em (Im(T ))⊥ e então concluir que este elemento
está também no núcleo do operador.
Suponha v ∈ (Im(T ))⊥ .
Então para todo elemento u ∈ V , v é perpendicular a T (u). Isto é, hv, T (u)i = 0 ∀u ∈ V . Mas
como T é um operador linear simétrico vale que:

hv, T (u)i = 0 ∀u ∈ V =⇒ hT (v), ui = 0 ∀u ∈ V

e disso podemos concluir que T (v) = 0 pois, pela definição do produto interno, o único elemento
que é ortogonal a todo u ∈ V é o vetor nulo.
Portanto concluı́mos a segunda inclusão e segue a igualdade.

4.0.10 Exercı́cio 5.55


Seja α uma base ortonormal de V .
Então considere as matrizes A1 = [T1 ]α α
α e A2 = [T2 ]α . Como T1 e T2 são operadores lineares her-
mitianos e α é base ortonormal, segue que A1 e A2 são matrizes hermitianas. Agora, provemos a
dupla implicação.
CAPÍTULO 4. PRODUTO INTERNO 45

=⇒
Assumimos que T1 ◦ T2 é um operador hermitiano. Observe que [T1 ◦ T2 ]α
α = A1 A2 . Então:

A2 A1 = A∗2 A∗1 A2 e A1 hermitianas



= (A1 A2 )
= A1 A2 A1 A2 é hermitiana

Portanto A2 A1 = A1 A2 e pela definição dessas matrizes concluı́mos que T2 ◦ T1 = T1 ◦ T2 .

⇐=
Agora assumimos que T2 ◦ T1 = T1 ◦ T2 .
Então:

(A1 A2 )∗ = A∗2 A∗1


= A2 A1 A2 e A1 hermitianas
= A1 A2 T2 ◦ T1 = T1 ◦ T2

Portanto A1 A2 é uma matriz hermitiana, e pela definição dessas matrizes isso implica que T1 ◦ T2
é um operador linear hermitiano. 

4.0.11 Exercı́cio 5.57


Precisamos provar que i) (a) e (b) =⇒ (c); ii) (a) e (c) =⇒ (b); iii) (b) e (c) =⇒ (a).
i) Seja α uma base ortonormal de V .
Assumindo que T é um operador simétrico temos que a matriz A := [T ]α t
α é simétrica (A = A),
assumindo que o operador linear T é uma isometria concluı́mos, pela Proposição 5.14.3, que T é
ortogonal e portanto A é ortogonal (At = A−1 ).
Disso,
A2 = AA = AAt = AA−1 = In

onde usamos que A é simétrica e ortogonal, respectivamente.


Como A2 = [T 2 ]α 2
α concluı́mos que T = I.

ii) Supondo que T é simétrico e T 2 = I obtemos que para todo v ∈ V vale que

hT (v), T (v)i = hv, T (T (v))i = hv, vi

onde usamos que T é simétrico e T 2 = I, respectivamente.


Consequentemente, T é uma isometria.

iii) Seja α uma base ortonormal de V .


−1
Então se A := [T ]α 2 2 t
α , assumindo que T = I e T é isometria linear obtemos A = In e A = A ,
respectivamente.
Disso,
In = A2 = AA =⇒ A = A−1 = At
CAPÍTULO 4. PRODUTO INTERNO 46

e portanto A é uma matriz simétrica. Como escolhemos uma base ortonormal α segue que T é
simétrico.

4.0.12 Exercı́cio 5.58


A matriz Q é ortogonal sse Qt = Q−1 .
Agora observe que
" #" # " # " #
t cos(θ) − sin(θ) cos(θ) sin(θ) cos2 (θ) + sin2 (θ) 0 1 0
QQ = = = = I2
sin(θ) cos(θ) − sin(θ) cos(θ) 0 sin2 (θ) + cos2 (θ) 0 1

Disso, concluı́mos que Qt = Q−1 e portanto Q é uma matriz ortogonal.

4.0.13 Exercı́cio 5.59


Vamos construir a matriz de T na base canônica de R3 , que é uma base ortonormal, e então
mostrar que esta matriz é ortogonal.
Seja α = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}, então

• T (1, 0, 0) = (cos(θ), sin(θ), 0)

• T (0, 1, 0) = (− sin(θ), cos(θ), 0)

• T (0, 0, 1) = (0, 0, 1)
 
cos(θ) − sin(θ) 0
α
E portanto A := [T ]α =  sin(θ) cos(θ) 0.
 

0 0 1
Similarmente ao exercı́cio 5.58 podemos ver que AAt = I3 e portanto A é uma matriz ortogonal
e, como a base utilizada na construção de A é uma base ortonormal, segue que T é um operador
ortogonal.

4.0.14 Exercı́cio 5.60


(a) Sejam u, v elementos genéricos de V . Então existem únicos u1 , v1 ∈ W e u2 , v2 ∈ W ⊥ tais
que
u = u1 + u2

v = v1 + v2

Disso temos que,


hT (u), vi = hu1 − u2 , v1 + v2 i = hu1 , v1 i + hu1 , v2 i − hu2 , v1 i − hu2 , v2 i = hu1 , v1 i − hu2 , v2 i
Por outro lado,
hu, T (v)i = hu1 + u2 , v1 − v2 i = hu1 , v1 i − hu2 , v2 i.
Portanto hT (u), vi = hu, T (v)i ∀u, v ∈ V . Ou seja, T é simétrico.

Analogamente podemos ver que:


CAPÍTULO 4. PRODUTO INTERNO 47

hT (u), T (v)i = hu1 , v1 i + hu2 , v2 i = hu, vi ∀u, v ∈ V e portanto T também é ortogonal.

(b) Calculemos W ⊥ .
Como W = [(1, 1, 1)], temos que v = (x, y, z) ∈ W ⊥ ⇐⇒ h(x, y, z), (1, 1, 1)i = 0 ⇐⇒ x = −y − z
e portanto W ⊥ = [(−1, 1, 0), (−1, 0, 1)]
Agora, se α é a base canônica de R3 e β é a base da decomposição ortogonal a partir de W , i.e.
β = {(1, 1, 1), (−1, 1, 0)(−1, 0, 1)}, então

β
[T ]α β α
α = [I]α [T ]β [I]β

Sabemos que

• T (1, 1, 1) = (1, 1, 1) − (0, 0, 0);

• T (−1, 1, 0) = (0, 0, 0) − (−1, 1, 0);

• T (−1, 0, 1) = (0, 0, 0) − (−1, 0, 1)


 
1 0 0
E portanto [T ]ββ = 0 −1 0 .
 

0 0 −1
Agora, resta-nos calcular as matrizes
 de mudança de base.
1 −1 −1
Pela definição [I]βα = 1 1 0 . Agora, vamos achar os coeficientes ci tais que
 

1 0 1

(1, 0, 0) = c1 (1, 1, 1) + c2 (−1, 1, 0) + c3 (−1, 0, 1)

(0, 1, 0) = c4 (1, 1, 1) + c5 (−1, 1, 0) + c6 (−1, 0, 1)

(0, 0, 1) = c7 (1, 1, 1) + c8 (−1, 1, 0) + c9 (−1, 0, 1)


 
c1 c4 c7
pois então teremos que [I]α
β = c2 c5 c8 .
 

c3
c9 c6
 
1/3 1/3 1/3
α
Fazendo as contas, obtemos que [I]β = −1/3 2/3 −1/3.
 

−1/3 −1/3 2/3


E consequentemente
     
1 −1 −1 1 0 0 1/3 1/3 1/3 −1 2 2
α  1
[T ]α = 1 1 0  0 −1 0  −1/3 2/3 −1/3 =  2 −1 2
   
3
1 0 1 0 0 −1 −1/3 −1/3 2/3 2 2 −1
CAPÍTULO 4. PRODUTO INTERNO 48

4.0.15 Exercı́cio 5.62


Lembremos da definição de cosseno do ângulo entre dois vetores não-nulos de um espaço vetorial
com produto interno e da definição de isometria.

• Dados u, v ∈ V não-nulos o cosseno entre o ângulo θ formado por esses dois vetores é defi-
hu,vi
nido como cos(θ) := kuk2 kvk2

• Um operador T é uma isometria ⇐⇒ kT (v)k2 = kvk2 ∀v ∈ V

Agora queremos provar que se T é uma isometria então cos(θ0 ) = cos(θ1 ), onde θ0 é o ângulo
formado pelos vetores genéricos u, v ∈ V e θ1 é o ângulo formado pelos vetores T (u), T (v) ∈ V .
De fato,
hu,vi
cos(θ0 ) = kuk2 kvk2

hu,vi
= kT (u)k2 kT (v)k2 T é isometria

hT (u),T (v)i
= kT (u)k2 kT (v)k2 T é ortogonal (T linear e isometria =⇒ T ortogonal )

= cos(θ1 )

4.0.16 Exercı́cio 5.64


⇐=
Assumimos que a matriz Q é ortogonal.
Agora,
hTQ (X), TQ (X)i = hQX, QXi
= tr((QX)t QX)
= tr(X t Qt QX)
= tr(X t X) , pois Qt = Q−1
= hX, Xi
E portanto TQ é uma isometria.

=⇒
Se TQ é uma isometria (linear) então TQ é um operador ortogonal.
Disso temos que para quaisquer matrizes X e Y vale hTQ (X), TQ (Y )i = hX, Y i, que pela de-
finição do produto interno é a mesma coisa que tr((QY )t QX) = tr(Y t X).
Em particular, para Y = In temos que tr(Qt QX) = tr(X).
E como tr(A + B) = tr(A) + tr(B) ∀A, B, isso implica que:

0 = tr(Qt QX − X) = tr( (Qt Q − In )X ) = hX, QQt − In i

.
CAPÍTULO 4. PRODUTO INTERNO 49

Logo temos que hX, QQt − In i = 0 para toda matriz X.


E isso só acontece (pela definição genérica de produto interno) se QQt − In = 0Mn (R) e portanto
QQt = In , que é o mesmo que Qt = Q−1 . 

Sessão 5.15
4.0.17 Exercı́cio 5.66
q
z }|1 {
Note que α = {(1, 1, 1)} é uma base ortogonal para S.
Então seja v = (x, y, z) um elemento genérico de R3 . O operador de projeção ortogonal sobre S
fica determinado por
1
X h(x, y, z), qi i
P (x, y, z) = qi
i=1
hqi , qi i

Fazendo as contas obtemos


h(x,y,z),(1,1,1)i
P (x, y, z) = 3 (1, 1, 1) = 13 (x + y + z)(1, 1, 1) = ( x+y+z
3 , x+y+z
3 , x+y+z
3 ).

4.0.18 Exercı́cio 5.67


(a) Note que o plano determinado por 3x + 2y + z = 0 é o subespaço vetorial

W = {(x, y, z) ∈ R3 : 3x + 2y + z = 0} = [(1, 0, −3), (0, 1, −2)]

O caminho que acha uma base ortogonal para W e então usa a fórmula para encontrar o opera-
dor de projeção ortogonal sobre W a partir dessa base ortogonal é extremamente longo (experi-
mente).
Sendo assim vamos calcular o operador de projeção sobre o espaço W ⊥ e depois utilizaremos o
fato de que, para todo vetor v,
v = PW (v) + PW ⊥ (v)

para encontrar o operador PW .


Sendo assim, note que W ⊥ = [(3, 2, 1)].
E que o operador de projeção ortogonal sobre W ⊥ fica determinado por

h(x, y, z), (3, 2, 1)i 3x + 2y + z


PW ⊥ (x, y, z) = · (3, 2, 1) = (3, 2, 1)
h(3, 2, 1), (3, 2, 1)i 14

E disso, como (x, y, z) = PW (x, y, z) + PW ⊥ (x, y, z) concluı́mos que

3x + 2y + z
PW (x, y, z) = (x, y, z) − (3, 2, 1)
14
CAPÍTULO 4. PRODUTO INTERNO 50

(b) Pela definição, Im(PW ) = {PW (v) : v ∈ R3 }. Agora sabemos que

PW (w) = w ∀w ∈ W

PW (w0 ) = 0 ∀w0 ∈ W ⊥

E também temos que R3 = W ⊕ W ⊥ . Logo dado v ∈ R3 , existem w, w0 elementos de W e W ⊥ ,


respectivamente, tais que v = w + w0 .
Disso, temos que PW (v) = PW (w) + PW (w0 ) = w + 0 = w.
Consequentemente,

Im(PW ) = {PW (v) : v ∈ R3 } = {w : w ∈ W } = W

(c) Sabemos que (para todo subespaço W ) vale que R3 = W ⊕ W ⊥ . E também que (Corolário
5.15.1) R3 = Im(PW ) ⊕ Ker(PW ).
Agora como Im(PW ) = W só pode ser o caso que Ker(Pw ) = W ⊥ = [(3, 2, 1)].

Sessão 5.16
4.0.19 Exercı́cio 5.71
(a) Como R(v) = 2P (v) − v para todo vetor v. Segue pelo Exercı́cio 5.67(a) que

3x + 2y + z 3x + 2y + z
R(x, y, z) = 2((x, y, z) − (3, 2, 1)) − (x, y, z) = (x, y, z) − 2 · (3, 2, 1)
14 14

(b) Considere um elemento genérico v = (x, y, z) de R3 . Então v = u + u0 para algum u ∈ W e


u0 ∈ W ⊥ .
Agora v ∈ Ker(R) ⇐⇒ 0 = R(v) = R(u) + R(u0 ) = u − u0 ⇐⇒ u = u0 .
Logo u é um elemento de W que também está em W ⊥ .
Mas como W ∩ W ⊥ = {0R3 }, segue que u = u0 = 0.
Consequentemente v = 0 e Ker(R) = {0}.

(c) Pelo T.N.I., dim(Im(R)) = dim(R3 ) − dim(Ker(R)) = 3 − 0 = 3. E como Im(R) ⊆ R3 segue


que Im(R) = R3 .
Capı́tulo 5

Autovalores e Autovetores

Sessão 6.1
5.0.1 Exercı́cio 6.2
=⇒
Supondo que λ = 0 é um autovalor de T vou provar que T não é um operador injetor.
De fato, se ∃v 6= 0 tal que T (v) = λv = 0 então temos que v ∈ Ker(T ). E como v é não-nulo
segue que Ker(T ) 6= {0}, logo T não é injetor.

⇐=
Supomos que T não é injetor. Disso temos que Ker(T ) 6= {0}. Logo existe v 6= 0 tal que v ∈
Ker(T ). O que implica que T (v) = 0 = 0 · v e portanto λ = 0 é autovalor de T. 

5.0.2 Exercı́cio 6.3


Supondo que exista um autovalor λ de T , vou provar que devemos ter necessariamente λ = 0 ou
λ = 1.
De fato, se T (v) = λv para algum v não-nulo, então temos:
T (T (v)) = T (v)
=⇒ T (λv) = λv
=⇒ λT (v) = λv
=⇒ λ2 v = λv
Agora se λ = 0 então já temos o que querı́amos (λ = 0 ou λ = 1). Mas se λ 6= 0 podemos dividir
os dois lados da última equação por λ. O que nos leva a:

λv = v =⇒ (λ − 1)v = 0

E como v 6= 0 isso implica que λ = 1.


Portanto vale que λ = 0 ou λ = 1. 

51
CAPÍTULO 5. AUTOVALORES E AUTOVETORES 52

OBS.: Note que não necessariamente um operador idempotente possui simultaneamente os au-
tovalores 1 e 0. Por exemplo, o operador identidade do epsaço vetorial V , IV (v) = v, possui
somente um autovalor: λ = 1.

5.0.3 Exercı́cio 6.6


Aqui novamente recordamos a frase “toda transformação linear fica completamente determinada
pelo seus valores numa base”. Ou seja, para criar tal operador T iremos escolher uma base e
seus valores nessa base.
Para satisfazer (a) devemos ter T (1, −1) = 1 · (1, −1) (note que isso implica que T (y, −y) =
yT (1, −1) = (y, −y)).
Para satisfazer (b) devemos ter T (0, 1) = 3 · (0, 1) = (0, 3) (analogamente isso implica T (0, y) =
3(0, y)).
E note que as duas informações que já temos é suficiente para determinar T pois {(1, −1), (0, 1)}
é uma base de R2 .
Então determinemos T .
Seja v = (x, y) elemento genérico de R2 vamos encontrar primeiro suas coordenadas na base
{(1, −1), (0, 1)} na qual sabemos como T se comporta. 
c = x
1
Isto é, encontremos c1 , c2 tais que (x, y) = c1 (1, −1)+c2 (0, 1). Disso temos o sistema
−c + c = y
1 2
que possui solução c1 = x e c2 = x + y.
Logo (x, y) = x(1, −1) + (x + y)(0, 1) =⇒ T (x, y) = xT (1, −1) + (x + y)T (0, 1) =
x(1, −1) + (x + y)(0, 3), ou seja, T (x, y) = (x, 2x + 3y) é a transforamção procurada.

5.0.4 Exercı́cio 6.9


Vamos provar que se existir um autovalor λ de T então λ = 0.
De fato, suponha que λ é um autovalor do operador nilpotente T .
Então existe algum w 6= 0V tal que T (w) = λw, mas como existe um natural n tal que
T n (v) = 0V ∀v, temos que em particular T n (w) = 0V .
Por outro lado, como nos sugere T (w) = λw, T 2 (w) = T ( T (w) ) = T (λw) = λT (w) = λ2 w, · · ·
podemos ver (indutivamente) que T n (w) = λn w ∀n ∈ N.
Portanto λn w = T n (w) = 0V e como w 6= 0V devemos ter λn = 0 =⇒ λ = 0 

5.0.5 Exercı́cio 6.11


Vamos supor um autovalor qualquer λ de T e provar que necessariamente devemos ter λ = λ1 ou
λ = λ2 .
De fato, seja λ um autovalor de T tal que T (A) = λA para alguma matriz A não nula.
Então temos:
CAPÍTULO 5. AUTOVALORES E AUTOVETORES 53

T (A) = At
=⇒ λA = At
=⇒ T (λA) = T (At )
=⇒ λT (A) = (At )t
=⇒ λ2 A = A
E se nomearmos as entradas de A como aij , isso implica que λ2 aij = aij ∀i, j e como A não é a
matriz nula, algum aij é diferente de zero e podemos concluir λ2 = 1.
Segue então que λ = 1 ou λ = −1. 
Os subespaços associados a λ1 = 1 e λ2 = −1 são: o subespaço das matrizes simétricas e o
subespaço das matrizes antissimétricas, respectivamente (ver Exercı́co 3.25).

5.0.6 Exercı́cio 6.13


Lembre-se que um automorfismo é um operador linear bijetor.
Então, primeiramente, provemos que T é injetor e sobrejetor (pois já foi dito que é um operador
linear).
Para verificar se T é injetor, vamos calcular Ker(T ).
Considere um elemento genérico v ∈ V . Logo se v ∈ Ker(T ) então T (v) = 0V e portanto
−v = T (T (v)) = T (0v ) = 0V =⇒ v = 0V =⇒ Ker(T ) ⊆ {0V }, e como 0V ∈ Ker(T ) segue
que Ker(T ) = {0V }.
E consequentemente T é injetor.
Pelo Teorema do Núcleo e da Imagem, temos:

dim(V ) = dim(Ker(T )) + dim(Im(T ))

Da parte anterior temos que dim(Ker(T )) = 0 e portanto dim(Im(T )) = dim(V ) e como


Im(T ) ⊆ V segue que Im(T ) = V . E portanto T é sobrejetor.

Agora, vamos supor que λ é um autovalor de T e iremos concluir que devemos ter necessaria-
mente λ = i ou λ = −i.
De fato, se ∃v 6= 0 tal que T (v) = λv então temos que:
T (v) = λv
=⇒ T (T (v)) = λT (v)
=⇒ −v = λ2 v
=⇒ 0 = (λ2 + 1)v
E como v 6= 0V segue que λ2 + 1 = 0.
Consequentemente devemos ter λ = i ou λ = −i. 

5.0.7 Exercı́cio 6.14


Temos que T (x, y, z, t) = (−y, x, −t, z) =⇒ T (T (x, y, z, t)) = T (−y, x, −t, z) = (−x, −y, −z, −t).
Agora, seja β = {b1 , b2 , b3 , b4 } = {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} a base canônica de
R4 .
CAPÍTULO 5. AUTOVALORES E AUTOVETORES 54

 


h iβ h i h i h i h i 
Por definição T =  T (b1 ) T (b2 ) T (b3 ) T (b4 ) .
 
β  β β β β



T (1, 0, 0, 0) = (0, 1, 0, 0)
  



 0 −1 0 0

T (0, 1, 0, 0) = (−1, 0, 0, 0) h iβ  
1 0 0 0
E como segue que T =   .


 T (0, 0, 1, 0) = (0, 0, 0, 1) β 0 0 0 1



T (0, 0, 0, 1) = (0, 0, −1, 0)
 0 0 1 0

Vamos ver agora que T não possui autovalores.


Supondo que existe um autovalor λ de T então terı́amos que, para algum v não nulo:
T (v) = λv
=⇒ T (T (v)) = T (λv)
=⇒ −v = λT (v) = λ2 v
E portanto λ v + v = 0 =⇒ (λ2 + 1)v = 0 e como v 6= 0V isso implica λ2 = −1. Mas como foi
2

dito, V é um espaço vetorial real e, portanto, não existe λ ∈ R que satisfaça tal propriedade (ser
autovalor de T ).

Sessão 6.2
5.0.8 Exercı́cio 6.16
Vamos calcular a matriz de T na base canônica do espaço (pois é a base mais fácil de se traba-
lhar) e então calcular os autovalores e autovetores da matriz via polinômio caracterı́stico.
Seja β = {1, x, x2 } a base canônica de P2 (R). Então T (1) = 1, T (x) = x + (x + 1) = 1 + 2x e
 
h iβ 1 1 0
T (x2 ) = x2 + (x + 1)2x = 2x + 3x2 e portanto A := T = 0 2 2.
 
β
0 0 3
 
1−λ 1 0
Agora p(λ) = Ker(A − λI3 ) = det  0 2−λ 2  = (1 − λ)(2 − λ)(3 − λ).
 

0 0 3−λ
Portanto as raı́zes do polinômio caracterı́stico, i.e. os autovalores de T , são λ1 = 1, λ2 = 2 e
λ3 = 3.
Agora vamos calcular os autoespaços de cada autovalor.

Autovetores de λ1
Seja p(x) = a + bx + cx2 , então p(x) ∈ Vλ1 ⇐⇒ T (p(x)) = λ1 p(x) = p(x)
⇐⇒ p(x) + (x + 1)p0 (x) = p(x) ⇐⇒(x + 1)p0 (x) = 0 ⇐⇒ (x + 1)(b + 2cx) = 0


 b=0

⇐⇒ b + (2c + b)x + 2cx2 = 0 ⇐⇒ 2c + b = 0 ⇐⇒ a=a, b = 0 e c = 0.



2c = 0
Portanto os autovetores associados a λ1 são da forma p1 (x) = a · 1. Consequentemente Vλ1 = [1].
CAPÍTULO 5. AUTOVALORES E AUTOVETORES 55

Autovetores de λ2
Seja p(x) = a + bx + cx2 , então p(x) ∈ Vλ2 ⇐⇒ T (p(x)) = 2p(x)
⇐⇒ p(x) + (x + 1)p0 (x) = 2p(x) 2
 ⇐⇒ −a + −bx + −cx + (x + 1)(b + 2cx) = 0


 −a + b = 0

2
⇐⇒ (−a + b) + 2cx + cx = 0 2c = 0 ⇐⇒ a = b e c = 0.



c = 0
Portanto os autovetores associados a λ2 são da forma p2 (x) = a + ax = a(1 + x).
Consequentemente Vλ2 = [1 + x].
Autovetores de λ3
Seja p(x) = a + bx + cx2 , então p(x) ∈ Vλ3 ⇐⇒ T (p(x)) = 3p(x) ⇐⇒ p(x) + (x + 1)p0 (x) =
3p(x)
 ⇐⇒ −2a − 2bx − 2cx2 + (x + 1)(b + 2cx) = 0 ⇐⇒ (−2a + b) + (−b + 2c)x = 0 ⇐⇒
−2a + b = 0
⇐⇒ b = 2a e c = a
−b + 2c = 0
Portanto os autovetores associados a λ3 são da forma p3 (x) = a + 2ax + ax2 = a(1 + 2x + x2 ).
Consequentemente Vλ3 = [1 + 2x + x2 ].

5.0.9 Exercı́cio 6.21





 T (1, 0, 0) = (1, 1, 2)

Temos que T (0, 1, 0) = (1, −1, 1) , e portanto a matriz de T na base β canônica de R3 é


T (0, 0, 1) = (0, 2, −1)

 
h iβ 1 1 0
A := T = 1 −1 2 .
 
β
2 1 −1
Calculamos agora o polinômio caracterı́stico
 
1−λ 1 0
2
p(λ) = det(A−λI3 ) = det  1 −1 − λ 2  = (1−λ)(−1−λ) +4−( 2(1−λ)+(−1−λ) )
 

2 1 −1 − λ

Logo p(λ) = −λ3 − λ2 + 4λ + 4, por inspeção vemos que λ = −1 é uma raiz do polinômio e logo,
p(λ) = (λ + 1)(−λ2 + 4). Portanto as raı́zes do polinômio caracterı́stico, i.e. os autovalores de T ,
são λ1 = −1, λ2 = 2 e λ3 = −2.
Agora calculemos os autoespaços.
Autovetores de λ1
   
x −x
Seja v = (x, y, z). Então v ∈ Vλ1 ⇐⇒ T (v) = −v ⇐⇒ A y  = −y 
   

z −z
CAPÍTULO 5. AUTOVALORES E AUTOVETORES 56




 x + y = −x

⇐⇒ x − y + 2z = −y ⇐⇒ x = −2z e y = 4z.


2x + y − z = −z

Portanto os elementos de Vλ1 são da forma v = (−2z, 4z, z) = z(−2, 4, 1).


Consequentemente Vλ1 = [(−2, 4, 1)]

Autovetores de λ2

x + y = 2x
   
x 2x




Seja v = (x, y, z). Então v ∈ Vλ2 ⇐⇒ T (v) = 2v ⇐⇒ A y  = 2y  ⇐⇒ x − y + 2z = 2y
   

z 2z

2x + y − z = 2z

⇐⇒ x = z = y.
Portanto os elementos de Vλ2 são da forma v = (y, y, y) = y(1, 1, 1).
Consequentemente Vλ2 = [(1, 1, 1)].

Autovetores de λ3
   
x −2x
Seja v = (x, y, z). Então v ∈ Vλ3 ⇐⇒ T (v) = −2v ⇐⇒ A y  = −2y 
   

z −2x



 x + y = −2x

⇐⇒ x − y + 2z = −2y ⇐⇒ x = z e y = −3z.


2x + y − z = −2z

Portanto os elementos de Vλ3 são da forma v = (z, −3z, z) = z(1, −3, 1).
Consequentemente Vλ3 = [(1, −3, 1)]

Talvez uma das OBS. mais importantes deste pdf


OBS.: Para calcular os autovetores no Exercı́cio 3.16 utilizamos diretamente a fórmula da trans-
formação T para achar os vetores p(x) tais que T (p(x)) = λp(x). Já neste Exercı́cio 3.21, por
questão de praticidade, utilizamos a forma matricial de T para calcular os vetores v = (x, y, z)
tais que    
h iβ x x
T y  = λ y  F
   
β
z z

Caso, por algum motivo, queiramos utilizar uma base α = {a1 , a2 , a3 } diferente da canônica para
expressar essa equação não podemos dizer que os autovetores v = (x, y, z) de T serão tais que
   
h iα x x
T y  = λ y . Por quê?!
   
α
z z
h iβ h i h i
Porque observe que a equação F é equivalente a T v = λ v . E se mudarmos a base da
β β β
matriz de T devemos também mudar a base da matriz de coordenadas do vetor!
CAPÍTULO 5. AUTOVALORES E AUTOVETORES 57

   
h iα c1 c1
A correção que deveria ser feita é a seguinte : achar c1 , c2 , c3 tais que T c2  = λ c2  e
   
α
c3 c3
então concluir que os autovetores são da forma v = (x, y, z) = c1 a1 + c2 a2 + c3 a3 .

5.0.10 Exercı́cio 6.22


B B B B
z }|1 #{ z" }|2 #{ z" }|3 #{ "
" z }|4 #{
1 0 0 1 0 0 0 0
Encontremos a matriz de T na base canônica de Mn (R) β = { , , , }.
0 0 0 0 1 0 0 1
" # " #
2 0 1 2
Temos que T (B1 ) = = 2B1 , T (B2 ) = = B1 + B2 ,
0 0 0 0
" # " #
0 0 0 0
T (B3 ) = = 2B3 e T (B4 ) = = 3B4
2 0 0 3
 
2 1 0 0
h iβ  0 2 0 0

Portanto A := T =   
β 0 0 2 0

0 0 0 3
Agora podemos calcular o polinômio caracterı́stico
 
2−λ 1 0 0
 
 0 2−λ 0 0  = (2 − λ)3 (3 − λ)

p(λ) = det(A − λI4 ) = det  
 0
 0 2−λ 0 


0 0 0 3−λ

Então as raı́zes do polinômio caracterı́stico, i.e. os autovalores de T , são λ1 = 2 e λ2 = 3.


Calculmeos os autoespaços.
Autovetores de λ1
" #
a b
Seja A = matriz genérica de Mn (R). Então A ∈ Vλ1 ⇐⇒ T (A) = 2A
c d

2a + b = 2a
     
2 1 0 0 a 2a 



     
0 2 0 0 2b = 2b
  b  =  2b  ⇐⇒
    
⇐⇒  0 0 ⇐⇒ b = d = 0
 2 0  c   2c 
     

 2c = 2c

0 0 0 3 d 2d 

3d = 2d
" #
a 0
Portanto os elementos de Vλ1 são da forma A = = aB1 + cB3 .
c 0
Consequentemente Vλ1 = [B1 , B3 ].

Autovetores de λ2
" #
a b
Seja A = matriz genérica de Mn (R). Então A ∈ Vλ2 ⇐⇒ T (A) = 3A
c d
CAPÍTULO 5. AUTOVALORES E AUTOVETORES 58


2a + b = 3a
     
2 1 0 0 a 3a 



     
2b = 3b
0 2 0 0   b  =  3b  ⇐⇒
   
⇐⇒ 
0 ⇐⇒ a = b = c = 0
 0 2 0  c   3c 
     

 2c = 3c

0 0 0 3 d 3d 

3d = 3d
" #
0 0
Portanto os elementos de Vλ2 são da forma A = = dB4 .
0 d
Consequentemente Vλ2 = [B4 ].

5.0.11 Exercı́cio 6.25


Vamos provar que o polinômio caracterı́stico de A e o de At são o mesmo polinômio.
De fato:

pA (x) = det(A − xIn ) = det( (A − xIn )t ) = det(At − xInt ) = det(At − xIn ) = pAt (x)

Sendo assim, as raı́zes de pA e de pAt , i.e. os autovalores de A e de At , coincidem! 

5.0.12 Exercı́cio 6.27


Seja λ um autovalor da matriz invertı́vel A com autovetor associado v (na forma de matriz co-
luna). Então:
In v = v
=⇒ A−1 Av = v
−1
=⇒ A (λv) = v
−1
=⇒ λA v = v
F −1
=⇒ A v = λ1 v
Então 1
λ é um autovalor da matriz A−1 .

OBS.: A implicação F só é válida se λ 6= 0. E na verdade podemos provar que se A é invertı́vel


então 0 não é um de seus autovalores (basta ver que caso 0 fosse autovalor então Ker(A) 6= {0}).

5.0.13 Exercı́cio 6.28


Calculemos as raı́zes de pA (t).
Temos que:  
−t 1 0
pA (t) = det(A − tI3 ) = det  0 −t 1  = −t3 + 1
 

1 0 −t
√ √
E suas raı́zes, i.e. os autovalores de A, são 1, −1+i
2
3
e −1−i 3
2 .
CAPÍTULO 5. AUTOVALORES E AUTOVETORES 59

5.0.14 Exercı́cio 6.29


 


h iγ h i h i h i 
Pela definição, T =  T (v1 ) T (v2 ) T (v3 ) .
 
γ  γ γ γ 


Agora, como

• T (v1 ) = v1 ;

• T (v2 ) = v1 + 2v2 + 3v3 ;

• T (v3 ) = v3 ;
 
h iγ 1 1 0
segue que A := T = 0 2 0.
 
γ
0 3 1
Agora podemos calcular o polinômio caracterı́stico:
 
1−t 1 0
pT (t) = det(A − tI3 ) = det  0 2−t 0  = (1 − t)2 (2 − t)
 

0 3 1−t

que possui as raı́zes (autovalores de T ) λ1 = 1 e λ2 = 2.


Calculemos agora os autoespaços.
Autovetores de λ1
   
x x
Seja v = (x, y, z) ∈ R3 . Então v ∈ Vλ1 ⇐⇒ T (v) = λ1 v ⇐⇒ A y  = y 
   

z z

x+y =x
    
1 1 0 x x




⇐⇒ 0 2 0 y  = y  ⇐⇒ 2y = y ⇐⇒ y = 0
    

0 3 1 z z


3y + z = z
Portanto os elementos de Vλ1 são da forma v = (x, 0, z) = x(1, 0, 0) + z(0, 0, 1).
Consequentemente Vλ1 = [(1, 0, 0), (0, 0, 1)].

Autovetores de λ2
   
x 2x
Seja v = (x, y, z) ∈ R3 . Então v ∈ Vλ2 ⇐⇒ T (v) = λ2 v ⇐⇒ A y  = 2y 
   

z 2z

x + y = 2x
    
1 1 0 x 2x



⇐⇒ 0 2 0 y  = 2y  ⇐⇒ 2y = 2y ⇐⇒ x = y e z = 3y
    

0 3 1 z 2z


3y + z = 2z
Portanto os elementos de Vλ2 são da forma v = (y, y, 3y) = y(1, 1, 3).
Consequentemente Vλ2 = [(1, 1, 3)].
CAPÍTULO 5. AUTOVALORES E AUTOVETORES 60

Sessão 6.3
5.0.15 Exercı́cio 6.42
Calculemos os autovalores e autovetores de A.
Temos que:
 
1−t 1 1
pA (t) = det(A − tI3 ) = det  0 2−t 1  = (1 − t)2 (2 − t)
 

0 0 1−t

que possui como raı́zes λ1 = 1 com ma (λ1 ) = 2 e λ2 = 2 com ma (λ2 ) = 1.

Autovetores de λ1
     
x x x
Seja v = y . Então v ∈ Vλ1 ⇐⇒ A y  = y 
     

z z z

x+y+z =x
    
1 1 1 x x




⇐⇒ 0 2 1 y  = y  ⇐⇒ 2y + z = y ⇐⇒ y = −z
    

0 0 1 z z


z = z
Portanto os elementos de Vλ1 são da forma v = (x, −z, z) = x(1, 0, 0) + z(0, −1, 1).
Consequentemente Vλ1 = [(1, 0, 0), (0, −1, 1)].
E segue que mg (λ1 ) = dim(Vλ1 ) = 2.

Autovetores de λ2
     
x x 2x
Seja v = y . Então v ∈ Vλ2 ⇐⇒ A y  = 2y 
     

z z 2z

x + y + z = 2x
    
1 1 1 x 2x



⇐⇒ 0 2 1 y  = 2y  ⇐⇒ 2y + z = 2y ⇐⇒ z = 0 e x = y
    

0 0 1 z 2z


z = 2z
Portanto os elementos de Vλ2 são da forma v = (y, y, 0) = y(1, 1, 0).
Consequentemente Vλ2 = [(1, 1, 0)].
E segue que mg (λ2 ) = dim(Vλ2 ) = 1.

5.0.16 Exercı́cio 6.43


Os autovalores de matrizes similares são os mesmos! Vamos provar que se A e B são matrizes
similares então vale que pA (t) = pB (t).
De fato,
CAPÍTULO 5. AUTOVALORES E AUTOVETORES 61

pA (t) = det(A − tIn )


= det(P −1 BP − tIn )
= det( P −1 (B − tIn )P )
1
= det(P −1 ) · det(B − tIn ) · det(P )
2
= det(B − tIn )
= pB (t)
1 2
Onde nas igualdades e usamos as propriedades dos determinantes det(AB) = det(A) det(B) e
−1 1
det(A )= det(A) , respectivamente.

5.0.17 Exercı́cio 6.45


(a) Vamos provar que AB e BA possuem o mesmo polinômio caracterı́stico.
De fato,
pAB (t) = det(AB − λIn )
= det( (AB − λIn )AA−1 )
= det(ABAA−1 − λAA−1 )
= det(A(BA − λIn )A−1 )
= det(A) det(A−1 ) det(BA − λIn )
= det(BA − λIn )
= pBA (t)

Portanto AB e BA possuem os mesmos autovalores (raı́zes do polinômio caracterı́stico). 

5.0.18 Exercı́cio 6.46


No Exercı́cio 6.43 vimos que se A e B são matrizes similares então elas possuem o mesmo po-
linômio caracterı́stico. Logo não só os autovalores dessas matrizes coincidem mas também suas
respectivas multiplicidades algébricas.
Resta-nos ver se a multiplicidade geométrica também é mantida.
Agora, dizer que A e B são matrizes similares é dizer que A = P −1 BP para alguma matriz in-
vertı́vel P .
Fixado um autovalor λ de A queremos provar que

dim(Vλ ) = dim(Vλ0 )

onde Vλ é o autoespaço de λ como autovalor de A e Vλ0 é o autoespaço de λ como autovalor de


B.
Seja então β = {v1 , · · · , vk } uma base para Vλ . Para cada autovetor vi vale que:

P −1 BP vi = Avi = λvi

E além disso,
λ(P vi ) = P (λvi ) = P (Avi ) = P (P −1 BP vi ) = B(P vi )
CAPÍTULO 5. AUTOVALORES E AUTOVETORES 62

F
com P vi 6= 0, pois vi 6= 0 e P é invertı́vel .
Portanto P vi (i = 1, · · · , k) são autovetores de B associados ao mesmo autovalor λ.
Agora se provarmos que β 0 = {P v1 , · · · , P vk } é L.I. estará provado que dim(Vλ ) ≤ dim(Vλ0 ).
E de fato isso acontece: supondo escalares c1 , · · · , ck tais que

c1 (P v1 ) + · · · + ck (P vk ) = 0

temos que 0 = c1 (P v1 ) + · · · + ck (P vk ) = P (c1 v1 + · · · + ck vk ) e como P é invertı́vel isso implica


que c1 v1 + · · · + ck vk = 0, disso c1 = c2 = · · · = ck = 0 pois {v1 , · · · , vk } = β é uma base. Logo β 0
é realmente L.I..
Agora preciso provar que dim(Vλ0 ) ≤ dim(Vλ ). Para isso, suponha que α0 = {w1 , · · · , wm } seja
uma base de Vλ0 . Temos que B = P AP −1 e analogamente ao caso anterior podemos provar que
α = {P −1 w1 , · · · , P −1 wm } será um conjunto L.I. de autovetores de A associados a λ, o que im-
plica que dim(Vλ0 ) ≤ dim(Vλ ).
De dim(Vλ ) ≤ dim(Vλ0 ) e dim(Vλ0 ) ≤ dim(Vλ ) concluı́mos finalmente que dim(Vλ ) = dim(Vλ0 ) e
consequentemente a transformação de similaridade também conserva a multiplicidade geométrica
dos autovalores! 

OBS.F : Se v 6= 0 e P é uma matriz invertı́vel então P v 6= 0. De fato, (pela contrapositiva)


suponha P v = 0, logo P −1 P v = P −1 · 0 =⇒ v = 0.
Outra maneira hde ienxergar essa afirmação é olhar P como uma matriz de uma tranformação li-
γ
near, i.e. P = T para alguma base γ. Então ser invertı́vel é equivalente a T ser bijetora, o
γ
que implica que Ker(T ) = {0} e logo vale a implicação v 6= 0 =⇒ P v 6= 0.

Sessão 6.4
5.0.19 Exercı́cio 6.51
Note que para todo vetor (matriz coluna) v vale que

(Qv)t Qv = v t Qt Qv = v t v

pois Qt = Q−1 . Agora se considerarmos v um autovetor de Q com autovalor associado λ ∈ R


temos que:
(Qv)t Qv = (λv)t λv = λ2 v t v

E portanto λ2 v t v = v t v. Como v 6= 0 disso temos λ2 = 1 =⇒ |λ| = 1 =⇒ λ = 1 ou λ = −1.

5.0.20 Exercı́cio 6.52


O polinômio caracterı́stico de uma matriz Q ∈ Mn (R) é um polinômio com coeficientes reais.
Sendo assim se λ ∈ C é uma raiz desse polinômio, i.e. λ é um autovalor complexo, então λ̄
CAPÍTULO 5. AUTOVALORES E AUTOVETORES 63

também é raiz do polinômio!


OBS.: Note que Q não precisa ser ortogonal para satisfazer isso.

5.0.21 Exercı́cio 6.53


Se A ∈ Mn (R) então o grau do polinômio caracterı́stico pA (t) = det(A − tIn ) é n. Sendo assim,
temos um polinômio com coeficientes reais de grau n.
Como vimos no Exercı́cio 6.52, se existe um autovalor complexo λ então λ̄ também é autovalor.
Agora note que se todos os autovalores não fossem números reais, terı́amos para cada λ outro
autovalor diferente λ̄ o que nos levaria a um número par de autovalores.
Sendo assim, se n é ı́mpar obrigatoriamente devemos ter um autovalor real.

5.0.22 Exercı́cio 6.60


(∗ )Neste exercı́cio, podemos entender melhor os passos usando o fato de que toda matriz A ∈
Mn (R) pode ser vista como matriz de um operador linear numa base A = [T ]α
α . Agora observe
que “A é invertı́vel ⇐⇒ T é bijetora ”.
Sendo assim, considere A uma matriz positiva-definida (xt Ax > 0 ∀x 6= 0).
Suponha, por absurdo, que A pode ser não-invertı́vel. Sendo assim, existe um vetor não-nulo
v ∈ Ker(A), pois caso contrário (∗ ) nos diria que T é bijeção.
Disso temos que Av = 0 =⇒ v t Av = 0 e v 6= 0, que é uma contradição pois assumimos que A é
positiva-definida.
Portanto A positiva-definida =⇒ A invertı́vel.

Agora, sabemos que “A simétrica é positiva-definida ⇐⇒ todos seus autovalores são positivos
(Teorema 6.4.5)”. Agora, sabemos que os autovalores de A−1 são todos da forma 1
λ, onde λ é um
autovalor de A (Exercı́cio 6.27).
Disso é imediato que se todos os autovalores de A são positivos então todos os autovalores de
A−1 também são positivos, i.e. A positiva-definida =⇒ A−1 positiva-definida.

5.0.23 Exercı́cio 6.61


Vamos provar que se uma matriz simétrica A é semipositiva-definida e, além disso, não é positiva-
definida, então det(A) = 0 e λ = 0 é um autovalor de A.
Se tivéssemos Ker(A) 6= {0} então Av 6= 0 ∀v 6= 0 =⇒ v t Av 6= 0 ∀v 6= 0 o que não acontece por
hipótese. Logo existe um vetor não-nulo v tal que Av = 0 = 0 · v e portanto λ = 0 é um autovalor
de A.
Além disso, A ∈ Mn (R) não pode ser invertı́vel pois se consideramos A := [T ]α
α então Ker(A) 6=
{0} implica que T não é injetora e logo T não é bijetora, que é equivalente a dizer que A não é
invertı́vel (i.e. det(A) = 0).
CAPÍTULO 5. AUTOVALORES E AUTOVETORES 64

Sessão 6.6
Nesta sessão utilizaremos exaustivamente o Teorema 6.6.6 que afirma resumidamente que:
“T é diagonalizável ⇐⇒ existe uma base de autovetores de T ”.

5.0.24 Exercı́cio 6.65


Calculemos primeiramente os autovalores e autovetores do operador linear T .
Encontremos a matriz de T na base canônica de R3 , β = {(1, 0, 0), (0, 0, 1), (0, 0, 1)}.
Temos que
T (1, 0, 0) = (−3, 2, 0)
T (0, 1, 0) = (−4, 3, 0)
T (0, 0, 1) = (0, 0, −1)
 
h iβ −3 −4 0
Portanto A := T =  2 3 0
 
β
0 0 −1
 
−3 − λ −4 0
Agora podemos calcular o polinômio caracterı́stico p(λ) = det(A−λI3 ) = det  2 3−λ 0  =
 

0 0 −1 − λ
(−3 − λ)(3 − λ)(−1 − λ) + 8(−1 − λ) = (−1 − λ)[(3 − λ)(−3 − λ) + 8] = (−1 − λ)(λ2 − 1)
Então as raı́zes do polinômio caracterı́stico, i.e. os autovalores de T , são λ1 = 1 e λ2 = −1. Do
polinômio caracterı́stico concluı́mos que ma (λ1 ) = 1 e ma (λ2 ) = 2.
Calculmeos agora os autoespaços.

Autovetores de λ1
Seja v = (x, y, z) vetor genérico de R3 . Então v ∈ Vλ1 ⇐⇒ T (x, y, z) = (x, y, z)
⇐⇒ Av = v (escrevendo o vetor
como matriz coluna). Disso temos que: v ∈ Vλ1 ⇐⇒
−3x − 4y = x
    
−3 −4 0 x x




2 3 0  y  = y  ⇐⇒ ⇐⇒ z = 0; x = −y
    
2x + 3y = y

0 0 −1 z z

−z = z

Portanto os elementos de Vλ1 são da forma v = (−y, y, 0) = y(−1, 1, 0).


Consequentemente Vλ1 = [(−1, 1, 0)] e observe que disso concluı́mos que mg (λ1 ) = dim(Vλ1 ) = 1.

Autovetores de λ2
Seja v = (x, y, z) vetor genérico de R3 . Então v ∈ Vλ2 ⇐⇒ T (x, y, z) = −1 · (x, y, z)
⇐⇒ Av = −v (escrevendo o vetor como matriz coluna).
 Disso temos que:
−3x − 4y = −x
    
−3 −4 0 x −x




v ∈ Vλ2 ⇐⇒  2 3 0  y  = −y  ⇐⇒ 2x + 3y = −y ⇐⇒ x = −2y
    

0 0 −1 z −z

−z = −z

Portanto os elementos de Vλ2 são da forma v = (−2y, y, z) = y(−2, 1, 0) + z(0, 0, 1).


Consequentemente Vλ2 = [(−2, 1, 0), (0, 0, 1)] e observe que disso concluı́mos que mg (λ2 ) =
CAPÍTULO 5. AUTOVALORES E AUTOVETORES 65

dim(Vλ2 ) = 2.

Finalmente como dim(Vλ1 ) + dim(Vλ2 ) = dim(R3 ) conseguimos encontrar uma base para R3
formada por autovetores de T .
De fato, o conjunto de autovetores β = {(−1, 1, 0), (−2, 1, 0), (0, 0, 1)} é L.I. (e portanto base);
Podemos verificar manualmente que β é L.I. ou usar o fato de que autovetores associados a auto-
valores distintos são L.I. entre si (e os autovetores com mesmo autovalor associado são L.I. entre
si pois são integrantes da base do autoespaço).
Tendo feito isso provamos que β é uma base de R3 formada por autovetores e, como diz o Teo-
rema 6.6.6, fica provado que T é um operador linear diagonalizável.

5.0.25 Exercı́cio 6.69


Calculemos primeiramente os autovalores e autovetores do operador linear T .
Encontremos a matriz de T na base canônica de P2 (R), β = {1, x, x2 }.
Temos que
T (1) = 0
T (x) = 2 + 2x
T (x2 ) = 1 − x + 2x2
 
h iβ 0 2 1
Portanto A := T = 0 2−1
 
β
0 0 2
Agora podemos calcular o polinômio caracterı́stico
 
−λ 2 1
p(λ) = det(A − λI3 ) = det  0 2−λ −1  = (−λ)(2 − λ)2
 

0 0 2−λ

Então as raı́zes do polinômio caracterı́stico, i.e. os autovalores de T , são λ1 = 0 e λ2 = 2. Do


polinômio caracterı́stico concluı́mos que ma (λ1 ) = 1 e ma (λ2 ) = 2.
Calculmeos agora os autoespaços.
Autovetores de λ1
Para economizar esforço, podemos usar um método diferente do Exercı́cio 6.65.
Sei que λ1 = 0 é autovalor de T . Então existe um p1 (x) 6= 0 tal que p1 (x) é autovetor associado
a λ1 . E como ma (λ1 ) = 1 e 1 ≤ mg (λ1 ) ≤ ma (λ1 ) = 1, segue que dim(Vλ1 ) = mg (λ1 ) = 1.
E veremos que saber a dimensão dos autoespaços é suficiente para determinar se um operador é
diagonalizável ou não! Pois “a soma da dimensão dos autoespaços é igual a dimensão do espaço
todo ⇐⇒ o operador é diagonalizável” (essa afirmação é equivalente a dizer que um operador é
diagonalizável ⇐⇒ existe uma base de autovetores).
Autovetores de λ2

Neste caso, não conseguimos um argumento similar ao anterior pois ma (λ2 ) > 1. Isto é, não
CAPÍTULO 5. AUTOVALORES E AUTOVETORES 66

conseguimos de maneira rápida concluir a existência de um conjunto L.I. de autovetores sem cal-
cular os autovetores explicitamente. Então calculemos eles.
Seja p(x) = a + bx + cx2 vetor genérico de P2 (R). Então p(x) ∈ Vλ2 ⇐⇒ T (p(x)) = 2 · p(x)
⇐⇒ (2b + c) + (2b − c)x + 2cx2 = 2a + 2bx + 2cx2 ⇐⇒ (2b + c − 2a) + (2b − c − 2b)x + (2c − 2c)x2 =
0P2 (R) . Disso temos
 que:
2b + c − 2a = 0



p(x) ∈ Vλ2 ⇐⇒ −c = 0 , que possui solução c = 0 e b = a.



0 = 0
Portanto os elementos de Vλ2 são da forma p(x) = a + ax = a(1 + x).
Consequentemente Vλ2 = [1 + x] e observe que disso concluı́mos que mg (λ2 ) = dim(Vλ2 ) = 1.
Sendo assim, não é possı́vel encontrar uma base de autovetores, pois conseguimos apenas um
conjunto L.I. de no máximo dois autovetores {p1 (x), 1 + x} e dim(P2 (R)) = 3. Logo não existe
base de autovetores e portanto T não é um operador diagonalizável.

OBS.: Em geral, quando encontrarmos que mg (λ) < ma (λ) para algum autovalor λ isso já será
suficiente para concluirmos que o operador em questão não é diagonalizável (Por quê? ).

5.0.26 Exercı́cio 6.70


A base ordenada que o exercı́cio nos pede é simplesmente uma base de autovetores (Por quê? ).
Então vamos calcular os autovetores de T .

Do Exercı́cio 6.11 temos que os autovalores de T são λ1 = 1 e λ2 = −1.


Autovetores de λ1
 
a b c
Seja A = d e f  uma matriz genérica de M3 (R). Então A ∈ Vλ1 ⇐⇒ T (A) = A
 

g h i

b=d
   
a d g a b c




t
⇐⇒ A = A ⇐⇒  b e h = d e f  ⇐⇒ c=g .
   

c f i g h i


f = h
 
a b c
Portanto os elementos de Vλ1 são da forma A =  b e f
 

c f i
           
1 0 0 0 1 0 0 0 1 0 0 0 0 00 0 0 0
= a 0 0 0 +b 1 0 0 +c 0 0 0 +e 0 1 0 +f 0 0 1 +i 0 0 0.
           

0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 1
| {z } | {z } | {z } | {z } | {z } | {z }
A1 A2 A3 A4 A5 A6
Consequentemente Vλ1 = [A1 , A2 , A3 , A4 , A5 , A6 ].
Autovetores de λ2
CAPÍTULO 5. AUTOVALORES E AUTOVETORES 67

 
a b c
Seja A = d e f  uma matriz genérica de M3 (R). Então A ∈ Vλ2 ⇐⇒ T (A) = −A
 

g h i

   


 a=e=i=0
a d g −a −b −c


b = −d

t
⇐⇒ A = −A ⇐⇒  b e h = −d −e −f  ⇐⇒ .
   
 c = −g
c f i −g −h −i




f = −h

 
0 b c
Portanto os elementos de Vλ2 são da forma A = −b 0 f 
 

−c −f 0
     
0 0 1 0 0 1 0 0 0
= b −1 0 0 +c  0 0 0 +f 0 0 1.
     

0 0 0 −1 0 0 0 −1 0
| {z } | {z } | {z }
B1 B2 B3
Consequentemente Vλ2 = [B1 , B2 , B3 ].
h iβ
Portanto concluı́mos que a base procurada é β = {A1 , A2 , A3 , A4 , A5 , A6 , B1 , B2 , B3 }, pois T
β
é sempre diagonal se β é base de autovetores.

5.0.27 Exercı́cio 6.72


Novamente recorremos ao Teorema 4.2.1 que diz, resumidamente, que:

“Uma transformação linear fica completamente determinada pelos seus valores numa base”

Prosseguimos da seguinte maneira:


Colocamos

• T (1, 0, 1) = (0, 0, 0) = 0 · (1, 0, 1)

para incluir u = (1, 0, 1) no núcleo.


E agora, colocamos

• T (0, 1, 0) = 1 · (0, 1, 0)

• T (0, 0, 1) = 2 · (0, 0, 1)

para satisfazer a condição de T ser diagonalizável!


A estratégia de colocar cada vetor da base escolhida como um autovetor associado a um auto-
valor diferente é sempre boa porque, após calcularmos a fórmula explı́cita de T , provar que T é
diagonalizável será bem rápido.
De fato, calculando a fórmula de T obtemos (exemplo mais detalhado de como calcular a fórmula
explı́cita de um operador no Exercı́cio 4.6) :
(x, y, z) = c1 (1, 0, 1) + c2 (0, 1, 0) + c3 (0, 0, 1) =⇒ c1 = x, c2 = y e c3 = z − x. E portanto:

T (x, y, z) = y(0, 1, 0) + (z − x)(0, 0, 2) = (0, y, 2z − 2x)


CAPÍTULO 5. AUTOVALORES E AUTOVETORES 68

Agora podemos concluir que T é diagonalizável pois possui 3 autovalores distintos: λ1 = 0, λ2 =


1 e λ3 = 2, o que implica que existe um autovetor vi associado a cada autovalor λi e β = {v1 , v2 , v3 }
é L.I. pois é formado por autovetores de autovalores distintos (e portanto β é base de R3 ).

OBS.: Como sempre, é uma boa prática verificar (no rascunho) se o operador encontrado real-
mente satisfaz as propriedades requeridas.

Sessão 6.7
5.0.28 Exercı́cio 6.88
Vamos provar que x∗ Ax = x∗ Ax.
De fato, temos que x∗ Ax = x∗ Ax = xt Ax. Agora como xt Ax é uma matriz 1×1 podemos aplicar
a transposta sem alterar nada. Logo

x∗ Ax = xt Ax = (xt Ax)t = x∗ A∗ x = x∗ Ax

E isso só pode acontecer se x∗ Ax for um número real. 

5.0.29 Exercı́cio 6.92


(a) Se A é diagonalizável então existe uma matriz invertı́vel P tal que A = P DP −1 , onde D é a
matriz diagonal dos autovalores de A. Disso,

det(A) = det(P ) det(P −1 ) det(D) = det(D) = λ1 · · · λn

(b) Da mesma forma,

tr(A) = tr(P DP −1 ) = tr(P −1 P D) = tr(D) = λ1 + · · · + λn

5.0.30 Exercı́cio 6.94


Basta diagonalizar a matriz A e então ortonormalizar a base de autovetores encontrada.
Autovalores de A
 
−t 1 1
p(t) = det(A − tI3 ) = det  1 −t 1  = −t3 + 3t + 2 = (2 − t)(t + 1)2
 

1 1 −t
Logo os autovalores são λ1 = −1 e λ2 = 2

Autovetores de A
CAPÍTULO 5. AUTOVALORES E AUTOVETORES 69


x+y+z =0
    
0 1 1 x x




Av = λ1 v ⇐⇒ 1 0 1 y  = −1 · y  ⇐⇒ x + y + z = 0 ⇐⇒ x = −y − z
    

1 1 0 z z


x + y + z = 0
⇐⇒ v = (−y − z, y, z) = y(−1, 1, 0) + z(−1, 0, 1)
Portanto Vλ1 = [(−1, 1, 0), (−1, 0, 1)].

−2x + y + z = 0
    
0 1 x 1 x




Av = λ2 v ⇐⇒ 1 0 1 y  = 2 · y  ⇐⇒ x − 2y + z = 0 ⇐⇒ x = y = z
    

1 1 0 z z

x + y − 2z = 0

⇐⇒ v = (x, x, x) = x(1, 1, 1)
Portanto Vλ2 = [(1, 1, 1)].
v v v
z }|1 { z }|2 { z }|3 {
Consequentemente, β = {(−1, 1, 0), (−1, 0, 1), (1, 1, 1)} é uma base de autovetores de A. Note que
β não é uma base ortonormal.
Agora aplicamos o processo de Gram-Schmidt na base beta para obter uma base α = {q1 , q2 , q3 }
ortonormal.
w 1 = v1
hv2 ,q1 i
w 2 = v2 − hq1 ,q1 i q1
hv3 ,q1 i hv3 ,q2 i
w 3 = v3 − hq1 ,q1 i q1 −hq2 ,q2 i q2
Finalmente fazemos qi = kw1i k wi para i = 1, 2, 3 e obtemos a base ortonormal α.

Fazendo as contas obtemos q1 = √1 (−1, 1, 0), q2 = √2 (−1/2, −1/2, 1) e q3 = √1 (1, 1, 1) como os
2 3 3
elementos da base
 ortonormal
√ √ de√autovetores.
√ 
−1/ 2 − 2/2 3 1/ 3
 √ √ √ √ 
Portanto Q =  1/ 2 − 2/2 3 1/ 3 é a matriz ortogonal procurada.
√ √ √
0 2/ 3 1/ 3

5.0.31 Exercı́cio 6.95


OBS.: No livro do Pulino, foi definido uma matriz ser “positiva-definida” no caso que a matriz,
por hipótese, já era simétrica. Sendo assim, neste exercı́cio fica subentendido (ou não) que A é
uma matriz simétrica. Este caso particular é bem mais simples e será feito abaixo. Uma resposta
mais geral também será feita após.

Se A é simétrica, dizer que A é positiva-definida é equivalente a dizer que todos os autovalores


de A são positivos. Sendo assim, como toda matriz simétrica é diagonalizável, A = P −1 DP ,
onde D é a matriz diagonal de autovalores. Segue que det(A) = det(P ) det(P −1 ) det(D) =
det(D) = λ1 · ... · λn > 0, pois λi > 0 (i = 1, · · · , n). 

No caso em que não assumimos que A é simétrica, a prova é mais longa.


Considere a função
f (t) = det(tIn + (1 − t)A)
CAPÍTULO 5. AUTOVALORES E AUTOVETORES 70

definida em [0, 1]. Observe que f é contı́nua e que f (0) = det(A) e f (1) = det(In ) = 1.
Nosso objetivo agora é mostrar que f não se anula, pois disso (usando o Teorema do Valor Inter-
mediário) teremos que det(A) > 0 (pois 1 > 0).
Agora, observe que a matriz tIn + (1 − t)A também é positiva-definida para todo t ∈ [0, 1] pois

xT (tIn − (1 − t)A)x = txT x + (1 − t)xT Ax > 0

já que xT Ax, t, (1 − t) > 0.


Agora, como matrizes positivas-definidas são invertı́veis segue que

f (t) = det(tIn + (1 − t)A) 6= 0 ∀t ∈ [0, 1] 

5.0.32 Exercı́cio 6.100


F
Usaremos o Teorema 6.7.10 para dizer que os autovalores não-nulos de uma matriz anti-simétrica
são necessariamente imaginários puros.

Como I − A ∈ Mn (R), vamos provar que Ker(I − A) = {0} e disso concluir que I − A é invertı́vel
(argumento melhor justificado em (*)Exercı́cio 6.60).
De fato, v ∈ Ker(I − A) ⇐⇒ (I − A)v = 0 ⇐⇒ v − Av = 0 ⇐⇒ Av = v.
Logo supondo, por absurdo, que v 6= 0 concluı́mos que v é autovetor de A com autovalor λ = 1.
Mas isto é uma contradição pois matrizes anti-simétricas possuem apenas autovalores nulos ou
imaginários puros.
Logo Ker(I − A) = {0} e portanto I − A é invertı́vel.
Análogo para I + A.
Agora, vamos provar que a matriz B := (I − A)(I + A)−1 satisfaz B t B = I (e portanto é ortogo-
nal).
Primeiro, note que as matrizes I − A e I + A comutam. Isto é, (I − A)(I + A) = I − A2 =
(I + A)(I − A).
Agora, note que B t = ((I + A)−1 )t (I − A)t = ((I + A)t )−1 (I − A)t = (I + At )−1 (I − At ) =
(I − A)−1 (I + A).
E finalmente,

B t B = (I − A)−1 (I + A)(I − A)(I + A)−1 = (I − A)−1 (I − A)(I + A)(I + A)−1 = I 

5.0.33 Exercı́cio 6.101


Observe que A é uma matriz simétrica.
Sendo assim A é positiva-definida se, e somente se, todos os seus autovalores são positivos.
Então vamos calculá-los!
CAPÍTULO 5. AUTOVALORES E AUTOVETORES 71

Note que o polinômio caracterı́stico de A,


 
5−t −1 2
pA (t) = det(A − tI3 ) = det  −1 8−t −1 
 

2 −1 5−t

possui raı́zes λ1 = 3, λ2 = 6 e λ3 = 9.
Sendo assim, todos os autovalores da matriz simétrica A são positivos e, portanto, A é uma ma-
triz positiva
 definida.
3 0 0
Seja D = 0 6 0, então existe uma matriz invertı́vel P tal que A = P DP −1 (toda matriz
 

0 0 9
simétrica é diagonalizável). Disso, analogamente ao Exercı́cio 6.92, concluı́mos que det(A) =
3 · 6 · 9 = 162 e tr(A) = 3 + 6 + 9 = 18.

5.0.34 Exercı́cio 6.108


Vamos provar que se A é congruente a identidade então A é positiva-definida.
De fato, se A é congruente a In então existe uma matriz invertı́vel P tal que A = P In P t = P P t .
Agora considere um vetor x não-nulo. Então

xt Ax = xt (P P t )x = (P t x)t (P t x) = hP t x, P t xi > 0

pois P invertı́vel =⇒ P t invertı́vel =⇒ Ker(P t ) = {0} =⇒ P t x 6= 0, se x 6= 0.


Disso concluı́mos que para todo vetor x não-nulo vale que xt Ax > 0. Logo A é positiva-definida.
E como A é uma matriz simétrica, ser positiva-definida é equivalente a dizer que todos os auto-
valores de A são positivos. 

Você também pode gostar