Você está na página 1de 212

Álgebra Linear A

Simone Moraes
UFBA - 2020
Sumário

I Preliminares
1 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1 Matrizes 9
1.1.1 Tipos de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.1.2 Operações com Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.1.3 Matrizes Simétricas, Anti-Simétricas e Ortogonais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.1.4 Matrizes Hermitianas, Anti-Hermitianas e Unitárias . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.1.5 Operações Elementares sobre as Linhas de uma Matriz . . . . . . . . . . . . . . . . . . . . . . . 29
1.2 Determinante de uma Matriz Quadrada 31
1.2.1 Definição de Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.2.2 Propriedades de Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.3 Inversa de uma Matriz 48
1.3.1 Matriz Adjunta e a Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
1.3.2 Propriedades da Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
1.4 Matriz na Forma Escalonada e na Forma Escada 54
1.4.1 Matriz Linha Equivalente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
1.4.2 Matriz na Forma Escalonada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
1.4.3 Matriz na Forma Escalonada Reduzida ou na Forma Escada . . . . . . . . . . . . . . . . . . . 56
1.4.4 Matriz Inversa através de Operações Elementares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

2 Sistemas Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.1 Sistemas de Equações Lineares 59
2.1.1 Sistemas de Equações Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
2.1.2 Solução de um Sistema Linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.1.3 Classificação de Sistemas de Equações Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.1.4 Sistema Linear Homogêneo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.1.5 Sistemas Equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.1.6 Operações Elementares sobre as Equações de um Sistema Linear . . . . . . . . . . . . . . 64
2.2 Resolução de Sistemas Lineares 65
2.2.1 Posto e Nulidade de uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
2.2.2 Teorema do Posto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.3 Métodos de Resolução de Sistemas Lineares 69
2.3.1 Método da Eliminação de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
2.3.2 Método de Eliminação de Gauss ou do Escalonamento . . . . . . . . . . . . . . . . . . . . . . 70
2.3.3 Método de Resolução da Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
2.3.4 Método de Resolução da Regra de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

II Espaços Vetoriais
3 Espaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.1 Espaços Vetoriais 79
3.1.1 Exemplos de Espaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
3.1.2 Propriedades de Espaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3.2 Subespaços Vetoriais 86
3.3 Soma, Soma Direta e Intersecção de Subespaços 94

4 Base e Dimensão de Espaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . 99


4.1 Combinação Linear e Subespaço Gerado 99
4.2 Dependência e Independência Linear 103
4.2.1 Propriedades de Dependência e Independência Linear . . . . . . . . . . . . . . . . . . . . . 104
4.3 Base e Dimensão 106
4.3.1 Base de um Espaço Vetorial Finitamente Gerado . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
4.3.2 Base Canônica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
4.3.3 Dimensão de um Espaço Vetorial Finitamente Gerado . . . . . . . . . . . . . . . . . . . . . . . 109
4.3.4 Procedimento para o Completamento de uma Base . . . . . . . . . . . . . . . . . . . . . . . . 115
4.4 Coordenadas de um Vetor 119
4.5 Matriz Mudança de Base 122

5 Espaços Vetoriais com Produto Interno . . . . . . . . . . . . . . . . . . . . . . . . . 125


5.1 Produto Interno em Espaços Vetoriais Reais 125
5.1.1 Propriedade do Produto Interno em R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
5.1.2 Exemplo de Espaços Vetoriais Reais com Produto Interno . . . . . . . . . . . . . . . . . . . . . 126
5.1.3 Desigualdade de Cauchy-Schwarz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
5.2 Produto Interno em Espaços Vetoriais Complexos 129
5.3 Bases Ortogonais e Bases ortonormais 130
5.3.1 Vetores Ortogonais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
5.3.2 Base Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
5.3.3 Norma de um Vetor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
5.3.4 Propriedades da Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
5.3.5 Base Ortonormal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
5.4 Processo de Ortogonalização de Gram-Schmidt 138
5.5 Complemento Ortogonal 141

III Transformações Lineares


6 Transformações Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
6.1 Transformações Lineares 147
6.1.1 Propriedades de Transformações Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
6.2 Matriz de uma Transformação Linear 152
6.3 Núcleo e Imagem de uma Transformação Linear 156
6.3.1 Teorema do Núcleo e da Imagem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
6.4 Transformações Lineares Injetoras e Sobrejetoras 165
6.5 Inversa de uma Transformação Linear 166
6.5.1 Isomorfismo e Automorfismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168

7 Diagonalização de Operadores Lineares . . . . . . . . . . . . . . . . . . . . . . 175


7.1 Autovalor e Autovetor de um Operador Linear 175
7.1.1 Autoespaço associado a um Autovalor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
7.2 Polinômio Característico de um Operador Linear 180
7.2.1 Polinômio Característico de uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
7.3 Diagonalização de Operadores Lineares 198
7.4 Operadores Auto-Adjuntos 205

Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
I
Preliminares

1 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1 Matrizes
1.2 Determinante de uma Matriz Quadrada
1.3 Inversa de uma Matriz
1.4 Matriz na Forma Escalonada e na Forma Escada

2 Sistemas Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.1 Sistemas de Equações Lineares
2.2 Resolução de Sistemas Lineares
2.3 Métodos de Resolução de Sistemas Lineares
1. Matrizes

1.1 Matrizes
Definição 1.1.1 Uma matriz é uma tabela de elementos dispostos em linhas e colunas, em geral
esses elementos são entes matemáticos, tais como: números, funções, etc.

Representamos uma matriz de m linhas e n colunas, denotada por A ou por Am×n , da seguinte maneira:
   
a11 a12 · · · a1n a11 a12 · · · a1n
 a21 a22 · · · a2n   a21 a22 · · · a2n 
A =  .. ou A =  .. ..  .
   
.. . . ..  .. . .
 . . . .   . . . . 
am1 am2 · · · amn am1 am2 · · · amn

Observações 1.1.1 (a) Cada elemento de uma matriz A é também chamado uma entrada de A.
(b) O elemento ai j ∈ A está localizado na i-ésima linha e na j-ésima coluna de A, por exemplo a32 é
o elemento da terceira linha e da segunda coluna.
(c) Além da notação acima também utilizamos:

A = [ai j ]m×n ou A = (ai j )m×n ou A = (ai j ), com 1 ≤ i ≤ m e 1 ≤ j ≤ n.

A tabela abaixo representa as distâncias entre as capitais do norte do pais indicadas (em quilômetros):

Belém Boa Vista Macapá Manaus Porto Velho Rio Branco

Belém 0 1432 329 1292 1886 2333


Boa Vista 1432 0 1110 661 1335 1626
Macapá 329 1110 0 1054 1724 2159 .
Manaus 1292 661 1054 0 761 1149
Porto Velho 1886 1335 1724 761 0 449
Rio Branco 2333 1626 2159 1149 449 0
10 Capítulo 1. Matrizes

Em forma de matriz essas distâncias podem ser representadas por:


 
0 1432 329 1292 1886 2333
 1432 0 1110 661 1335 1626 
 
 329 1110 0 1054 1724 2159 
 .
 1292 661 1054 0 761 1149 
 
 1886 1335 1724 761 0 449 
2333 1626 2159 1149 449 0

Ordem de uma Matriz

Definição 1.1.2 Uma matriz A de m linhas e n colunas é chamada matriz de ordem m por n e
indicada por m × n.

 
Exemplos 1.1.2 (a) A = 5 é uma matriz de ordem 1 × 1.
3 31
 
−1 0
(b) A =  4 −7 1 2  é uma matriz de ordem 3 × 4.
5 6 −3 0
 
0 2 −5
(c) A = é uma matriz de ordem 2 × 3.
−3 7 5
 
1 −1
 3 7 
(d) A =   é uma matriz de ordem 4 × 2.
 0 2 
−4 −3

Observações 1.1.3 (a) O conjunto de todas matrizes de ordem m × n com entradas números reais
é denotado por Mm×n (R), ou seja,

Mm×n (R) = A = [ai j ]m×n ; ai j ∈ R para todo i e todo j .

(b) Analogamente, o conjunto de todas matrizes de ordem m × n com entradas números complexos
é dado por 
Mm×n (C) = A = [ai j ]m×n ; ai j ∈ C para todo i e todo j .

Matriz Quadrada

Definição 1.1.3 Uma matriz A com n linhas e n colunas é chamada matriz quadrada de ordem n.

Observação 1.1.4 Uma matriz A é quadrada se, e somente se, o número de linhas de A é igual ao
número de colunas de A.
 
3 5
Exemplos 1.1.5 (a) A = é uma matriz quadrada de ordem 2.
−1 8
 
0 −2 5
(b) A =  12 1 −4  é uma matriz quadrada de ordem 3.
10 −9 7
1.1 Matrizes 11
 
2 1 −1 1
 −3 3 1 −1 
(c) A = 
 0
 é uma matriz quadrada de ordem 4.
1 4 0 
1 −1 2 3

Observações 1.1.6 (a) O conjunto de todas matrizes quadradas de ordem com entradas números
reais é denotado por Mn (R).
n o
Assim, Mn (R) = A = [ai j ]n×n ; ai j ∈ R com 1 ≤ i, j ≤ n .
n o
(b) Analogamente, Mn (C) = A = [ai j ]n×n ; ai j ∈ C com 1 ≤ i, j ≤ n .

Matriz Linha e Matriz Coluna

Definição 1.1.4 Uma matriz que tem uma única linha é chamada matriz linha, enquanto que uma
matriz que tem uma única coluna é chamada matriz coluna.

   
Exemplos 1.1.7 (a) A = 6 −5 11 4 3 e B= −3 5 −1 8 9 são matrizes
linha.
 
5  
 −1  1
(b) A = 
 8 
 e B =  −1  são matrizes coluna.
2
−4

Matriz Definida por uma Fórmula

Uma matriz pode ser definida em termos de uma fórmula envolvendo seus índices, para se obter uma
matriz dessa forma é necessário que seja informada sua ordem.
Exemplos 1.1.8 (a) Determine a matriz A = [ai j ] quadrada de ordem 4 tal que

0, se i 6= j
ai j =
1, se i = j.

Neste caso, temos:


   
a11 a12 a13 a14 1 0 0 0
 a21 a22 a23 a24   0 1
  0 0 
A= = .
 a31 a32 a33 a34   0 0 1 0 
a41 a42 a43 a44 0 0 0 1

(b) A matriz A de ordem 3 × 4 dada pela fórmula

3i − j2 ,

se i > j−1
ai j =
i + 3 j, se i ≤ j−1

é a matriz:  
2 7 10 13
A =  5 2 11 14  .
8 5 0 15
12 Capítulo 1. Matrizes

Igualdade de Matrizes
Duas matrizes A = [ai j ] e B = [bi j ] são iguais se, e somente se,
(i) A e B têm a mesma ordem.
(ii) ai j = bi j para todo i e para todo j.
   
1 −1 2 a −1 b
Exemplo 1.1.9 Sejam as matrizes A = eB= , ambas de ordem
3 4 7 a + b b2 7
2 × 3.

a 
 = 1 
b = 2 a=1

As matrizes A e B são iguais se, e somente se, ⇐⇒ .

 a+b = 3 b=2
 2
b = 4

1.1.1 Tipos de Matrizes

Matriz Nula

Definição 1.1.5 Uma matriz nula é uma matriz em que todas as entradas é o número zero. A
matriz nula de ordem m × n é indicada por 0m×n .

 
0 0
 0 0 
Exemplo 1.1.10 A matriz nula de ordem 4 × 2 é a seguinte: 04×2 = 
 0
.
0 
0 0

Dentre as matrizes quadradas temos alguns tipos especiais que descreveremos a continuação. Antes
porém vamos definir diagonal principal e diagonal secundária de uma matriz quadrada.

Definição 1.1.6 Seja A uma matriz quadrada de ordem n,


 
a11 a12 ··· a1(n−1) a1n

 a21 a22 ··· a2(n−1) a2n 

A= .. .. .. .. ..
,
 
. . . . .
 
 a(n−1)1 a(n−1)2 · · · a(n−1)(n−1) a(n−1)n 
an1 an2 ··· an(n−1) ann

os elementos ai j com i = j constituem a diagonal principal de A. Enquanto que os elementos ai j


com i + j = n + 1 constituem a diagonal secundária de A.

Observação 1.1.11 Pela definição acima a diagonal principal de uma matriz quadrada A é constituída
pelos elementos
a11 , a22 , · · · , ann ,
e a diagonal secundária de A é constituída pelos elementos

a1n , a2(n−1) , · · · , a(n−1)2 , an1 .


1.1 Matrizes 13

Na matriz A a seguir:
 
a11 a12 ··· a1(n−1) a1n

 a21 a22 ··· a2(n−1) a2n 

A=
 .. .. .. .. .. 
. . . . . 
 
 a(n−1)1 a(n−1)2 · · · a(n−1)(n−1) a(n−1)n 
an1 an2 ··· an(n−1) ann
os elementos em azul constituem a diagonal principal, enquanto que os em vermelho constituem a
diagonal secundária.
Matriz Diagonal

Definição 1.1.7 Uma matriz A = [ai j ] quadrada de ordem n é chamada matriz diagonal se, e
somente se, os elementos ai j = 0 sempre que i 6= j, ou seja,
 
a11 0 0 ··· 0
 0 a22 0 · · · 0 
 
A= 0
 0 a33 · · · 0 .

 .. .. .. . . .
. ..

 . . . 
0 0 0 · · · ann

Observação 1.1.12 Uma matriz quadrada A é diagonal se, e somente se, os elementos externos à
diagonal principal são todos iguais a zero.

 
2 0 0 0
 0 3 0 0 
Exemplo 1.1.13 A =   é uma matriz diagonal.
 0 0 −1 0 
0 0 0 5
Matriz Escalar
Definição 1.1.8 Uma matriz diagonal de ordem n é chamada matriz escalar se, e somente se, os
elementos da diagonal principal são todos iguais.

Exemplo 1.1.14 As matrizes abaixo são matrizes escalares:


 
  7 0 0 0
  −2 0 0
3 0  0 7 0 0 
A= , B= 0 −2 0  e C= .
0 3  0 0 7 0 
0 0 −2
0 0 0 7

Matriz Identidade
Definição 1.1.9 A matriz identidade de ordem n, indicada por In , é a matriz diagonal de ordem n
em que os elementos da diagonal principal são todos iguais a 1.

 
1 0
Exemplos 1.1.15 (a) I2 = é uma matriz identidade de ordem 2.
0 1
14 Capítulo 1. Matrizes
 
1 0 0
(b) I3 =  0 1 0  é uma matriz identidade de ordem 3.
0 0 1
 
1 0 0 0
 0 1 0 0 
(c) I4 = 
 0
 é uma matriz identidade de ordem 4.
0 1 0 
0 0 0 1

Matriz Triangular Superior

Definição 1.1.10 Uma matriz A = [ai j ] quadrada de ordem n é chamada matriz triangular supe-
rior se, e somente se, ai j = 0 sempre que para i > j, ou seja,
 
a11 a12 a13 · · · a1n
 0 a22 a23 · · · a2n 
 
A= 0
 0 a33 · · · a3n .

 .. .. .. . . .
. ..

 . . . 
0 0 0 · · · ann

Observação 1.1.16 Uma matriz quadrada A é triangular superior se, e somente se, os elementos
abaixo da diagonal principal são todos iguais a zero.

 
1 −5 0 7
 0 4 2 −1 
Exemplo 1.1.17 A = 
 0
 é uma matriz triangular superior.
0 0 3 
0 0 0 −2

Matriz Triangular Inferior

Definição 1.1.11 Uma matriz A = [ai j ] quadrada de ordem n é chamada matriz triangular infe-
rior se, e somente se, ai j = 0 sempre que para i < j, ou seja,
 
a11 0 0 ··· 0
 a21 a22 0 · · · 0 
 
A =  a31 a32 a33 · · · 0  .
 
 .. .. .. . . .. 
 . . . . . 
an1 an2 an3 · · · ann

Observação 1.1.18 Uma matriz quadrada A é triangular inferior se, e somente se, os elementos
acima da diagonal principal são todos iguais a zero.

 
8 0 0
Exemplo 1.1.19 A =  −1 3 0  é uma matriz triangular inferior.
5 −2 1
1.1 Matrizes 15

1.1.2 Operações com Matrizes


No que segue consideraremos K = R ou K = C.

Adição de Matrizes

Definição 1.1.12 Sejam A e B matrizes em Mm×n (K), a soma de A e B, denotada por A + B, é a


matriz em Mm×n (K) cujos elementos são as somas dos elementos correspondentes de A e B, ou seja,
se    
a11 a12 · · · a1n b11 b12 · · · b1n
 a21 a22 · · · a2n   b21 b22 · · · b2n 
A =  .. e B = ..  ,
   
.. ... ..   .. .. ..
 . . .   . . . . 
am1 am2 · · · amn bm1 bm2 · · · bmn
então  
a11 + b11 a12 + b12 ··· a1n + b1n
 a21 + b21 a22 + b22 ··· a2n + b2n 
A+B =  .
 
.. .. .. ..
 . . . . 
anm1 + bm1 am2 + bm2 · · · amn + bmn

   
−3 8 5 2 1 −3 11 −8
Exemplo 1.1.20 Sejam A = e B= , então
4 −5 9 −7 2×4
2 9 −1 7 2×4

   
−3 + 1 8 + (−3) 5 + 11 2 + (−8) −2 5 16 −6
A+B = = .
4+2 −5 + 9 9 + (−1) −7 + 7 6 4 8 0

Propriedades da Adição

Sejam A, B e C matrizes em Mm×n (K) e 0m×n a matriz nula de ordem m × n, valem:

A1 ) A + B = B + A, propriedade comutativa.
A2 ) (A + B) +C = A + (B +C), propriedade associativa.
A3 ) A + Om×n = A, propriedade existência de elemento neutro.

Essas propriedades seguem diretamente da propriedades da adição de números e da igualdade de


matrizes.

Multiplicação de uma Matriz por um Escalar

Definição 1.1.13 Sejam A uma matriz em Mm×n (K) e κ um número em K, a multiplicação de A


pelo escalar κ, denotado por κ · A, é a matriz em Mm×n (K) cujos elementos são os produtos de κ
pelos elementos correspondentes de A, ou seja, se
   
a11 a12 · · · a1n κ · a11 κ · a12 · · · κ · a1n
 a21 a22 · · · a2n   κ · a21 κ · a22 · · · κ · a2n 
A =  .. , então · A = .
   
.. . . .
.  κ  .. .. . . ..
 . . . .   . . . . 
am1 am2 · · · amn κ · am1 κ · am2 · · · κ · amn
16 Capítulo 1. Matrizes

5 8 −4
 0 −7 10 
Exemplo 1.1.21 Sejam A = 
 −6
 e κ = 4, então
3 2 
9 5 4 4×3
   
4×5 4×8 4 × (−4) 20 32 −16
 4×0 4 × (−7) 4 × 10   0 −28 40 
κ · A = 4A = 
 4 × (−6)
= .
4×3 4×2   −24 12 8 
4×9 4×5 4×4 36 20 16

Propriedades da Multiplicação por Escalar

Sejam A e B matrizes em Mm×n (K) e κ e λ números em K, valem:

ME1 ) κ · (A + B) = κ · A + κ · B.

ME2 ) (κ + λ ) · A = κ · A + λ · A.

0 ·A = Om×n .
ME3 ) |{z}
número

ME4 ) 1 · A = A.

ME5 ) (κ · λ ) · A = κ · (λ · A).

Essas propriedades seguem diretamente da propriedades da multiplicação em K e da igualdade de


matrizes.

Observação 1.1.22 Dada uma matriz A em Mm×n (K), a matriz −1 · A, indicada por −A é chamada
matriz oposta de A, logo

−A = [ci j ]m×n , tal que ci j = −ai j .

A matriz −A é o elemento simétrico de A em relação à operação adição.

De fato,
A + (−A) = [bi j ]m×n , com bi j = ai j + (−ai j ) = 0.
Portanto, A + (−A) = 0m×n é a matriz nula de ordem m × n.

Multiplicação de Matrizes

Definição 1.1.14 Sejam A = [ai j ] e B = [bi j ] matrizes em Mm×k (K) e em Mk×n (K), respectiva-
mente, a multiplicação de A por B, denotada por A · B, é a matriz em Mm×n (K):
k
A · B = [ci j ], cujos elementos são da forma ci j = ai1 b1 j + ai2 b2 j + · · · + aik bk j = ∑ aipb p j .
p=1

Observações 1.1.23 (a) De acordo com a definição acima temos, por exemplo:

c11 = a11 b11 + a12 b21 + · · · + a1k bk1 e c12 = a11 b12 + a12 b22 + · · · + a1k bk2 .
1.1 Matrizes 17

(b) A equação que define os elementos de A · B nos diz que o elemento ci j desta matriz, localizado na
i-ésima linha e j-ésima coluna, é obtido através da soma de todos os produtos de cada elemento
da i-ésima linha de A pelo elemento correspondente da j-ésima coluna de B, ou seja, se

a12 · · · a1k
 
a11
a22 · · · a2k
 
 a21  b11 b12 · · · b1 j · · · b1n
 .. .. .. .. 
b21 b22 · · · b2 j · · · b2n 
. . . .
  
A= e B= ..  ,
   
ai2 · · · aik .. .. .. .. ..
 ai1

 .
  . . . . . . 
 .. .. .. .. 
bk1 bk2 · · · bk j · · · bkn k×n
. . . 
am1 am2 · · · amk m×k

então

j-ésima coluna

··· ···
 
c11 c12 c1 j c1n
 c21 c22 ··· c2 j ··· c2n 
.. .. .. .. .. .. = A · B,
 
. . . . . .
 
 
ci1 ci2 ··· ci j ··· cin 
 
i-ésima linha → 

.. .. ··· .. ··· .. 
 . . . . 
.. ..
cm1 cm2 . cm j . cmn m×n

k
com ci j = ai1 b1 j + ai2 b2 j + · · · + aik bk j = ∑ aipb p j .
p=1

 
−1 7 −5  
 2 −3 3 6
8   −5
Exemplo 1.1.24 Sejam as matrizes A =   5
 e B = 4  , então o
1 3 
1 2 3×2
0 2 9 4×3
produto de A por B é a matriz
   
(−1) × 3 + 7 × (−5) + (−5) × 1 (−1) × 6 + 7 × 4 + (−5) × 2 −43 12
 2 × 3 + (−3) × (−5) + 8 × 1 2 × 6 + (−3) × 4 + 8 × 2   29 16 
A·B =  =  .
 5 × 3 + 1 × (−5) + 3 × 1 5×6+1×4+3×2   13 40 
0 × 3 + 2 × (−5) + 9 × 1 0×6+2×4+9×2 −1 26 4×2

Observação 1.1.25 Sejam A e B matrizes, o produto A · B está definido apenas quando o número de
colunas A é igual ao número de linhas de B.
Logo, se A · B está definida nem sempre ocorrerá o mesmo para B · A, e mesmo quando A · B e B · A
estiverem definidas podemos ter A · B 6= B · A.
 
  1  
−1 5 2 −4
Exemplos 1.1.26 (a) Sejam A = e B =  −3  , então A · B = ,
7 0 4 2×3
31 2×1
6 3×1
note que não está definida B · A, pois:
número de colunas de B = 1 6= número de linhas de A = 2.
18 Capítulo 1. Matrizes
 
  4 −1  
3 0 1 6 0
(b) Sejam A = eB= 5 2  , então A · B = .
−2 4 7 2×3 −30 31 2×2
−6 3 3×2
 
14 −4 −3
No entanto, B · A =  11 8 19  , ou seja, A · B e B · A têm ordens diferentes, logo
−24 12 15 3×3
são diferentes.
   
4 0 5 7
(c) Sejam A = eB= , então
6 −3 2×2 3 −4 2×2
   
20 28 62 −2
A·B = e B·A = ,
21 54 2×2 −12 12 2×2

neste caso A · B e B · A têm a mesma ordem, mas são diferentes.

Propriedades da Multiplicação
M1 ) Se A é uma matriz em Mm×n (K), então:
(a) A · In = Im · A = A.
(b) A · 0n×l = 0m×l e 0l×m · A = 0l×n .
M2 ) Sejam A ∈ Mm×p (K), B ∈ M p×k (K) e C ∈ Mk×n (K) matrizes, então:
 
Am×p · B p×k m×k ·Ck×n = Am×p · B p×k ·Ck×n p×n propriedade associativa.

M3 ) (a) Sejam A em Mm×k (K), B e C em Mk×n (K), então:


A · (B +C) = A · B + A ·C.
(b) Sejam A e Bm×k em Mm×k (K) e C em Mk×n (K), temos:
(A + B) ·C = A ·C + B ·C propriedade distributiva.

M4 ) Sejam A em Mm×kn (K) e B em Mk×n (K) e κ um número em K, então:


κ · (A · B) = (κ · A) · B = A · (κ · B).

Essas propriedades seguem diretamente da propriedades da multiplicação de números e da igualdade


de matrizes.

Observações 1.1.27 (a) Dada uma matriz quadrada A em Mn (K) a k-ésima potência de A, com
k ∈ N∗ , denotada por Ak , é o produto de A por A k-vezes, ou seja
Ak = A
| · A ·{z· · · · A} .
k vezes

(b) Se E é uma matriz escalar e A matriz quadrada, ambos em Mn (K), então


E · A = A · E.
De fato, seja E a matriz escalar em Mn (K) cujos elementos da diagonal principal são todos
iguais a d ∈ K e A = [ai j ], então
E · A = [bi j ], com bi j = d × ai j e = A · E = [ci j ], com ci j = ai j × d.
1.1 Matrizes 19

Transposta de uma Matriz

Definição 1.1.15 A transposta de uma matriz A = [ai j ] em Mm×n (K), denotada por AT , é a matriz
cujas respectivas linhas são as respectivas colunas de A, ou seja,

AT = [bi j ] tal que bi j = a ji .

É claro que a ordem de AT é n × m.

   
a12 · · · a1n
a11 a11 a21 · · · am1
 a22 · · · a2n
a21   a12 a22 · · · am2 
Observação 1.1.28 Se A =  , então AT = ,
   
..
.. .. ..  .. .. .. .. 
 .
. . .   . . . . 
am1 am2 · · · amn m×n
a1n a2n · · · amn n×m
T
ou seja, o elemento i j de A é o elemento ji de A.

Propriedades da Transposta
Segue diretamente da definição de transposta que se A e B são matrizes em Mm×k (K), C é uma matriz
em Mk×n (K) e κ um número em K, então valem as seguintes propriedades:
T1 ) (AT )T = A.
T2 ) (A + B)T = AT + BT .
T3 ) (κ · A)T = κ · AT .
 T   
T4 ) Am×k ·Ck×n = (CT )n×k · (AT )k×m .
n×m n×m
Verificação:
T1 ) Para quaisquer i e j, o elemento i j da matriz (AT )T é o elemento ji de AT , e este por sua vez é o
elemento i j da matriz A, consequentemente, (AT )T = A.
T2 ) Para quaisquer i e j, o elemento i j da matriz (A + B)T é o elemento a ji + b ji , mas a ji é o elemento
i j da matriz AT e b ji é o elemento i j da matriz BT , consequentemente, a ji + b ji é o elemento i j
de AT + BT .
Portanto, (A + B)T = AT + BT .
T3 ) Demonstração análoga à de T2 ).
T4 ) Observemos que (A ·C)T = [ei j ]n×m com ei j = d ji , o elemento i j da A ·C, ou seja,
ei j = a j1 c1i + a j2 c2i + · · · + a jk cki ,
com 1 ≤ i ≤ n e 1 ≤ j ≤ m.
Por outro lado,
   
c11 c21 · · · ck1 a11 a21 · · · am1
T T
 c12 c22 · · · ck2   a12 a22 · · · am2 
C ·A =  ..  ·  = [ fi j ]n×m
   
.. .. .. .. .. .. .. 
 . . . .   . . . . 
c1n c2n · · · nkn n×k a1k a2k · · · amk k×m
com
fi j = c1i a j1 + c2i a j2 + · · · + cki a jk ,
para 1 ≤ i ≤ n e 1 ≤ j ≤ m.
Logo, ei j = fi j , para todo i e todo j, consequentemente, (A ·C)T = CT · AT .
20 Capítulo 1. Matrizes

Traço de uma Matriz

Definição 1.1.16 Seja A uma matriz quadrada em Mn (K) o traço de A, denotado por tr(A), é o
número dado pela soma dos elementos da diagonal principal de A.
Assim, se A = [ai j ]n×n , então

tr(A) = a11 + a22 + · · · + ann .

Propriedades do Traço

Segue diretamente da definição de traço de uma matriz quadrada, que dadas A e B matrizes quadradas
em Mn (K) e κ um número em K valem:
T R1 ) tr(A) = tr(AT ).
T R2 ) tr(A + B) = tr(A) + tr(B).
T R3 ) tr(κ · A) = κ · tr(A).
T R4 ) tr(A · B) = tr(A · B).
Verificação:
T R1 ) Uma matriz quadrada e sua transposta têm a mesma diagonal principal, portanto tr(A) = tr(AT ).
T R2 ) A diagonal principal da soma de duas matrizes quadradas é a soma das diagonais principais de
cada uma das matrizes, logo tr(A + B) = tr(A) + tr(B).
T R3 ) A diagonal principal da matriz κ · A é a soma dos elementos da diagonal principal de A previa-
mente multiplicados por κ, assim tr(κ · A) = κ · tr(A).
T R4 ) Sejam A = [ai j ] ∈ Mm×n (K) e B = [bi j ] ∈ Mn×m (K), então:
n
A · B = [ci j ] ∈ Mm (K), com ci j = ∑ aik bk j , para 1 ≤ i, j ≤ m;
k=1

m
B · A = [di j ] ∈ Mn (K), com di j = ∑ bik ak j , para 1 ≤ i, j ≤ n.
k=1
Logo,

tr(A · B) = c11 + c22 + · · · + cmm

= a11 b11 + a12 b21 + · · · + a1n bn1 + a21 b12 + a22 b22 + · · · + a2n bn2 + · · · +

am1 b1m + am2 b2m + · · · + amn bnm

= b11 a11 + b12 a21 + · · · + b1m am1 + b21 a12 + b22 a22 + · · · + b2m am2 + · · · +

bn1 a1n + bn2 a2n + · · · + bnm amn

= d11 + d22 + · · · + dnn = tr(B · A).

Consequentemente, tr(A · B) = tr(B · A).


1.1 Matrizes 21
n
Observação 1.1.29 Dada A ∈ Mn (K), então tr(AT · A) = ∑ a2i j .
i, j=1
De fato,
   
a11 a21 · · · an1 a11 a12 · · · a1n
 a12 a22 · · · an2   a21 a22 · · · a2n 
AT · A =  ·
   
.. .. .. . .. .. .. .. 
. ..  
 
 . . . . . . 
a1n a2n · · · ann an1 an2 · · · ann
 
a211 + a221 + · · · + a2n1
 a212 + a222 + · · · + a2n2 
=  .
 
 ... 
a21n + a22n + · · · + a2nn

Logo,
n
tr(AT
· A) = a211 + a221 + · · · + a2n1 + a212 + a222 + · · · + a2n2 + · · · + a21n + a22n + · · · + a2nn =m ∑ a2i j .
i, j=1

1.1.3 Matrizes Simétricas, Anti-Simétricas e Ortogonais

Matriz Simétrica

Definição 1.1.17 Uma matriz quadrada A em Mn (R) é simétrica se, e somente se, para todo i e
para todo j os elementos ai j e a ji coincidem, ou seja, ai j = a ji .

Observação 1.1.30 Uma matriz A = [ai j ] em Mn (R) é simétrica, se e somente se,


 
a11 a12 a13 · · · a1n

 a12 a22 a23 · · · a2n 

A=
 a13 a23 a33 · · · a3n 
,
 .. .. .. .. .. 
 . . . . . 
a1n a2n a3n · · · ann

ou seja, se e somente A coincide com sua transposta.


Logo, A ∈ Mn (R) é simétrica se, e somente se, A = AT .
 
3 −2 7 1
 −2 5 3 0 
Exemplo 1.1.31 A =   é uma matriz simétrica, pois
 7 3 −4 1 
1 0 1 −6
 
3 −2 7 1
 −2 5 3 0 
AT =   = A.
 7 3 −4 1 
1 0 1 −6
22 Capítulo 1. Matrizes

Matriz Anti-Simétrica

Definição 1.1.18 Uma matriz quadrada A em Mn (R) é anti-simétrica se, e somente se, para todo
i e para todo j os elementos ai j e a ji são opostos, ou seja, ai j = −a ji .

Observações 1.1.32 (a) Uma matriz A = [ai j ] ∈ Mn (R) é anti-simétrica, se e somente se,
 
0 a12 a13 · · · a1n

 −a12 0 a23 · · · a2n 

A=
 −a13 −a23 0 · · · a3n 
,
 .. .. .. .. .. 
 . . . . . 
−a1n −a2n −a3n ··· 0

ou seja, se e somente A coincide com a oposta de sua transposta.


Logo, A ∈ Mn (R) é anti-simétrica se, e somente se, A = −AT .
(b) A diagonal de uma matriz anti-simétrica é nula, pois os elementos devem satisfazer
aii = −aii ⇐⇒ aii = 0.
 
0 4 5 −9
 −4 0 −7 11 
Exemplo 1.1.33 A = 
 −5
 é uma matriz anti-simétrica, pois
7 0 4 
9 −11 −4 0
   
0 −4 −5 9 0 4 5 −9
 4 0 7 −11 
 =  −4 0 −7 11 
−AT = − 

 = A.
 5 −7 0 −4   −5 7 0 4 
−9 11 4 0 9 −11 −4 0

Proposição 1.1.34 Se A é uma matriz em Mn (R), então:


1
(i) A matriz (A + AT ) é simétrica.
2
1
(ii) A matriz (A − AT ) é anti-simétrica.
2
(iii) Toda matriz quadrada real é a soma de uma matriz simétrica com uma matriz anti-simétrica.

Demonstração: Seja A uma matriz quadrada real então temos:


 T
1 T 1 T  1 1
(i) (A + A ) = T T
A + (A ) = (A + AT ), portanto (A + AT ) é simétrica.
2 2 2 2
 T
1 1 T  1  1 1
(ii) (A − AT ) = A − (AT )T = AT − A = − (A − AT ), portanto (A − AT ) é anti-
2 2 2 2 2
simétrica.
1  1 1
(iii) A = A + A + A − A = (A + AT ) + (A − AT ).
T T
2 |2 {z } |2 {z }
simétrica anti-simétrica
1.1 Matrizes 23

Matriz Normal Real


Definição 1.1.19 Uma matriz quadrada A em Mn (R) é normal real se, e somente se,

A · AT = AT · A,

ou seja, se e somente se, o produto de A por sua transposta AT é comutativo.

 
3 1 −5
Exemplo 1.1.35 A =  −1 3 −2  é uma matriz real normal, pois
5 2 3
     
3 1 −5 3 −1 5 35 10 2
A · AT =  −1 3 −2  ·  1 3 2  =  10 14 −5 
5 2 3 −5 −2 3 2 −5 38
   
3 −1 5 3 1 −5
=  1 3 2  ·  −1 3 −2  = AT · A.
−5 −2 3 5 2 3

Observações 1.1.36 (a) Toda matriz simétrica é matriz normal, pois


A=AT A=AT
A · AT = A · A = AT · A.
(b) Toda matriz anti-simétrica é matriz normal, pois
AT =−A A=−AT
A · AT = A · (−A) = (−AT ) · (−A) = AT · A.
(c) Se A é matriz quadrada em Mn (R) que é a soma de uma matriz anti-simétrica e uma matriz
escalar, então A é matriz normal.
De fato, suponhamos que A = E + S, com E matriz escalar e S matriz anti-simétrica, então:
E T =E, ST =−S
A · AT = (E + S) · (E + S)T = (E + S) · (E T + ST ) = (E + S) · (E − S)
ES=SE
= E 2 + S · E − E · S − S2 = E 2 − S2 .

Analogamente, AT · A = E 2 − S2 .
Portanto, A é normal.
Matriz Ortogonal

Definição 1.1.20 Uma matriz quadrada A em Mn (R) é ortogonal se, e somente se, A · AT = In .

Exemplos 1.1.37 Mostre que as matrizes abaixo são ortogonais:


 
cos θ −sen θ
(a) A = com θ ∈ [0, 2π).
sen θ cos θ
√1 √1 − √13
 
2 6
 
 
(b) A = 
 0 √2 √1 .

 6 3 
 
√1 − √16 √1
2 3
24 Capítulo 1. Matrizes
1
− 12 1 1
 
2 2 2
 
 1 1 1
− 12

 
 2 2 2 
(c) A = 

.

 −1 1 1 1 
 2 2 2 2 
 
1 1
2 2 − 21 1
2
Solução:
   
cos θ −sen θ cos θ sen θ
A · AT = ·
sen θ cos θ −sen θ cos θ
(a)
cos2 θ + sen2 θ
   
cos θ sen θ − sen θ cos θ 1 0
= = .
cos θ sen θ − sen θ cos θ sen2 θ + cos2 θ 0 1
Portanto, A é ortogonal.
 1 1
− √13 √1 √1
  
√ √ 0
2 6 2 2
   
   
A · AT = 
 0 √2 √1 ·
  √1 √2 − √16 
 6 3   6 6 

   
√1 − √16 √1 √1 √1 √1
2 3 3 3 3
(b)
1
+ 61 + 13 2
− 13 1
− 16
 
2 6 2  



 1 0 0
2
= 
 6 − 13 4
6 + 13 − 26 + 13  =  0 1 0 .

  0 0 1
1
2 − 61 − 13 − 26 + 31 1
2 + 16 + 13
Portanto, A é ortogonal.
 1 1 1 1 1 1
− 12 1
  
2 −2 2 2 2 2 2
   
 1 1 1
− 12
  1 1 1 1

   − 
 2 2 2   2 2 2 2
A · AT =  
·
 


 −1 1 1 1   1 1 1
− 12 
 2 2 2 2   2 2 2 
   
1 1
2 2 − 12 1
2
1
2 − 21 1
2
1
2

1
+ 14 + 41 + 14 1
+ 14 − 14 − 14 − 14 − 41 + 14 + 14 1
− 14 − 14 + 14
 
4 4 4
 
(c)  1 1 1 1 1 1 1 1
− 14 1 1 1 1 1 1 1

 4−4+4−4 + + + + + − + − −
 
4 4 4 4 4 4 4 4 4 4 4 
= 



 −1 − 1 + 1 + 1 1
+ 14 − 14 − 14 1
+ 41 + 14 + 14 − 14 + 14 − 14 + 14 
 4 4 4 4 4 4 
 
1
4 − 14 − 41 + 14 1
4 + 14 − 14 − 14 − 14 + 41 − 14 + 14 1
4 + 14 + 14 + 14
 
1 0 0 0
 0 1 0 0 
= 
 0
.
0 1 0 
0 0 0 1
Portanto, A é ortogonal.
1.1 Matrizes 25

Proposição 1.1.38 Se A ∈ M2 (R) é uma matriz ortogonal, então:


   
cos θ sen θ cos θ −sen θ
A= ou A=
sen θ − cos θ sen θ cos θ

para algum θ ∈ [0, 2π).

 
a b
Demonstração: Se A = ∈ M2 (R) é uma matriz ortogonal, então
c d
     
T a b a c 1 0
A · A = I2 ⇐⇒ · =
c d b d 0 1
 2
 a + b2 = 1
a2 + b2
   
ac + bd 1 0
⇐⇒ = ⇐⇒ c2 + d 2 = 1 .
ac + bd c2 + d 2 0 1
ac + bd = 0

De uma propriedade de números reais sabemos que se a2 + b2 = 1, então existe θ ∈ [0, 2π) tal que
a = cos θ e b = sen θ , da mesma maneira como c2 + d 2 = 1 existe φ ∈ [0, 2π) tal que c = cos φ e
d = sen φ .
Assim, a equação ac + bd = 0 pode ser escrita como

cos θ cos φ + sen θ sen φ = 0 ⇐⇒ cos(φ − θ ) = 0

π π
⇐⇒ φ − θ = + kπ, com k ∈ Z ⇐⇒ φ = θ + + kπ, com k ∈ Z.
2 2
Logo,
!

π
cos φ = cos θ + + kπ = ∓sen θ
2
 !
π
sen φ = sen θ + + kπ = ± cos θ .
2

Portanto,    
cos θ sen θ cos θ −sen θ
A= ou A=
sen θ − cos θ sen θ cos θ
para algum θ ∈ [0, 2π).

1.1.4 Matrizes Hermitianas, Anti-Hermitianas e Unitárias

Nesta seção, para não confundir o índice da posição i j com a unidade imaginária i, vamos indicar por
jk a posição da j-ésima linha e da k-ésima coluna.

Conjugada Transposta de uma Matriz Complexa

Definição 1.1.21 Dada A = [z jk ] uma matriz em Mm×n (C), com z jk = a jk + ibJK ∈ C, a matriz
conjugada de A, indicada por A, é a matriz cujos elementos são os respectivos conjugados dos
elementos de A, ou seja, A = [z jk ].
26 Capítulo 1. Matrizes
 
a11 + ib11 a12 + ib12 ··· a1n + ib1n
 a21 + ib21 a22 + ib22 ··· a2n + ib2n 
Logo, se A =  , então
 
.. .. ... ..
 . . . 
am1 + ibm1 am2 + ibm2 · · · amn + ibmn
 
a11 − ib11 a12 − ib12 ··· a1n − ib1n
 a21 − ib21 a22 − ib22 ··· a2n − ib2n 
A= .
 
.. .. .. ..
 . . . . 
am1 − ibm1 am2 − ibm2 · · · amn − ibmn

Definição 1.1.22 A conjugada transposta ou a transconjugada de uma matriz complexa


A = [z jk ] ∈ Mm×n (C), denotada por A∗ , é a matriz transposta da matriz conjugada de A, ou seja, é a
matriz cujas respectivas linhas são as respectivas colunas de A, assim:
T
A∗ = A = [w jk ] tal que w jk = z jk .
T
Observações 1.1.39 (a) É fácil ver que A = AT , ou seja, a matriz conjugada transposta de A é
igual à matriz transposta conjugada de A.
(b) Se A ∈ Mm×n (C), é claro que A∗ está em Mn×m (C).
 
a11 + ib11 a12 + ib12 · · · a1n + ib1n
 a21 + ib21 a22 + ib22 · · · a2n + ib2n 
(c) Se A =  , então
 
.. .. .. .. 
 . . . . 
am1 + ibm1 am2 + ibm2 · · · amn + ibmn m×n
 
a11 − ib11 a21 − ib21 · · · am1 − ibm1
T
 a12 − ib12 a22 − ib22 · · · am2 − ibm2 
A∗ = A =  .
 
.. .. .. .. 
 . . . . 
a1n − ib1n a2n − ib2n · · · amn − ibmn n×m

Propriedades da Conjugada Transposta

Segue, diretamente da definição de transposta e das propriedades de conjugação de números complexos,


que para A e B matrizes em Mm×n (C), C matriz em Mn×k (C) e κ um número complexo valem as
seguintes propriedades:
CT1 ) (A∗ )∗ = A.
CT2 ) (A + B)∗ = A∗ + B∗ .
CT3 ) (κ · A)∗ = κ · A∗ .
CT4 ) (A ·C)∗ = C∗ · A∗ .

Matriz Hermitiana

Definição 1.1.23 Uma matriz quadrada A = [z jk ] em Mn (C) é hermitiana, se e somente se, A = A∗ ,


ou seja, k z jk = zk j para todo j e para todo k em {1, 2, · · · , n}.
1.1 Matrizes 27

Observação 1.1.40 Uma matriz A = [z jk ] quadrada em Mn (C), com z jk = a jk + ib jk , é hermitiana,


se e somente se,
   
a11 + ib11 a12 + ib12 · · · a1n + ib1n a11 − ib11 a21 − ib21 · · · an1 − ibn1
 a21 + ib21 a22 + ib22 · · · a2n + ib2n 

 a12 − ib12 a22 − ib22 · · · an2 − ibn2 
A= = A =
   
.. .. ... ..   .. .. .. .. 
 . . .   . . . . 
an1 + ibn1 an2 + ibn2 · · · ann + ibnn a1n − ib1n a2n − ib2n · · · ann − ibnn

akk + ibkk = akk − ibkk
⇐⇒ para todo j e para todo k em {1, 2, · · · , n}.
ak j + ibk j = a jk − ib jk

ak j = a jk
Logo, devemos ter bkk = 0 para todo k e para todo j e todo k.
bk j = −b jk
Consequentemente a diagonal principal de uma matriz hermitiana A = [z jk ] é constituída apenas de
números reais.
 
−5 1 − 2i 5 + 8i 3i
 1 + 2i 0 3 − 7i 4 + 9i 
Exemplo 1.1.41 A matriz A =   5 − 8i 3 + 7i −6 1 − 5i  é uma matriz hermitiana, pois os

−3i 4 − 9i 1 + 5i 11
elementos da diagonal principal são números reais e ak j + ibk j = a jk − ib jk para todo j e todo k em
{1, 2, 3, 4}.

Matriz Anti-Hermitiana

Definição 1.1.24 Uma matriz quadrada A = [z jk ] em Mn (C) é anti-hermitiana, se e somente se,


A = −A∗ , ou seja, z jk = −zk j para todo j e para todo k em {1, 2, · · · , n}.

Observação 1.1.42 Uma matriz A = [z jk ] quadrada em Mn (C), com z jk = a jk + ib jk , é hermitiana,


se e somente se,
   
a11 + ib11 a12 + ib12 · · · a1n + ib1n −a11 + ib11 −a21 + ib21 · · · −an1 + ibn1
 a21 + ib21 a22 + ib22 · · · a2n + ib2n 

 −a12 + ib12 −a22 + ib22 · · · −an2 + ibn2 
A=  = −A = 
   
.. .. .. .. .. .. .. .. 
 . . . .   . . . . 
an1 + ibn1 an2 + ibn2 · · · ann + ibnn −a1n + ib1n −a2n + ib2n · · · −ann + ibnn

akk + ibkk = −akk + ibkk
⇐⇒ para todo j e para todo k em {1, 2, · · · , n}.
ak j + ibk j = −a jk + ib jk

ak j = −a jk
Logo, devemos ter akk = 0 para todo k e para todo j e todo k.
bk j = b jk
Consequentemente, a diagonal principal de uma matriz anti-hermitiana A = [z jk ] é constituída apenas
de números imaginários puros e ak j + ibk j = −a jk + ib jk para todo j e todo k em {1, 2, 3, 4}.
 
0 4 − 7i 3 + 4i −3 − 2i
 −4 − 7i 3i 7 + 6i −1 − 3i 
Exemplo 1.1.43 A =   −3 + 4i −7 + 6i
 é uma matriz anti-hermitiana, pois
−4i 2 + 5i 
3 − 2i 1 − 3i −2 + 5i 11i
os elementos da diagonal principal são imaginários puros e
28 Capítulo 1. Matrizes

Proposição 1.1.44 Se A é uma matriz em Mn (C), então:


1
(i) A matriz (A + A∗ ) é hermitiana.
2
1
(ii) A matriz (A − A∗ ) é anti-hermitiana.
2
(iii) Toda matriz quadrada complexa é a soma de uma matriz hermitiana com uma matriz anti-
hermitiana.

Demonstração: Seja A uma matriz quadrada complexa então temos:


 ∗ 1 ∗
 
1 ∗
 1 1
A + (A∗ )∗ = A∗ + A , logo, (A + A∗ ) é hermitiana.

(i) A+A =
2 2 2 2
 ∗ 1 ∗
 
1 ∗
 1  1
= A −(A∗ )∗ = A∗ −A = − A−A∗ , logo, A−A∗ é anti-hermitiana.
 
(ii) A−A
2 2 2 2
1  1 1
(iii) A = A + A + A∗ − A∗ = (A + A∗ ) + (A − A∗ ) .
2 |2 {z } |2 {z }
hermitiana anti-hermitiana

Matriz Normal Complexa

Definição 1.1.25 Uma matriz A quadrada em Mn (C) é normal complexa se, e somente se,

A · A∗ = A∗ · A,

ou seja, se e somente se, o produto de A por sua conjugada transposta A∗ é comutativo.

Observações 1.1.45 (a) Toda matriz hermitiana é matriz normal, pois

A=A∗ A=A∗
A · A∗ = A · A = A∗ · A.

(b) Toda matriz anti-hermitiana é matriz normal, pois

A∗ =−A A=−A∗
A · A∗ = A · (−A) = (−A∗ ) · (−A) = A∗ · A.

(c) Se A é matriz quadrada em Mn (C) que é a soma de uma matriz anti-hermitiana e uma matriz
escalar real, então A é matriz normal.
De fato, suponhamos que A = E + H, com E matriz escalar e H matriz anti-hermitiana, então:

E ∗ =E H ∗ =−H
A · AT = (E + H) · (E + H)∗ = (E + H) · (E ∗ + H ∗ ) = (E + H) · (E − H)
EH=HE
= E2 + H · E − E · H − H2 = E 2 − H 2.

Analogamente, AT · A = E 2 − H 2 .
Portanto, A é normal.
1.1 Matrizes 29
 
i 1+i 2 3−i
 −1 + i 5i 4 + 7i −9i 
Exemplo 1.1.46 A = 
 −2 −4 + 7i −i
 é uma matriz complexa normal, pois
11 
−3 − i −9i −11 0
 
−i −1 − i −2 −3 + i
 1 − i −5i −4 − 7i 9i 
A∗ =   = −A.
 2 4 − 7i i −11 
3+i 9i 11 0

Logo, A é anti-hermitiana e, portanto normal.

Matriz Unitária

Definição 1.1.26 Uma matriz quadrada A em Mn (C) é unitária se, e somente se, A · A∗ = In .

√ √ 
2 2
 2 i
2 
Exemplo 1.1.47 A matriz A =  √  é unitária.
 

2 2
 
− − i
2 2
 √ √   √ √ T
2 2 2 2
 2 i − i

2    2 2 
A·A =  √ ·
 
√ √ √ 
2 2 2 2
   
− − i − i
2 2 2 2
De fato:
 √ √   √ √ 
2 2 2 2
 2 i − i −
2   2 2 
 
1 0
 
=  √ · = .
 
√  √ √  0 1
2 2 2 2
   
− − i i
2 2 2 2
Portanto, A é unitária.

1.1.5 Operações Elementares sobre as Linhas de uma Matriz

No que segue dada uma matriz A em Mn (K) vamos indicar a i-ésima linha de A por Li e a j-ésima
coluna de A por C j , as operações elementares sobre as linhas (ou colunas) de uma matriz são:
OE1 Permutação de duas linhas (duas colunas), ou seja, permutamos a i-ésima linha com a j-ésima
linha (ou i-ésima coluna com a j-ésima coluna).
Notação: Li ←→ L j (Ci ←→ C j ).

OE2 Substituição de uma linha (ou coluna) por ela previamente multiplicada por um número (real ou
complexo) não nulo, ou seja, substituímos a i-ésima linha pela i-ésima linha multiplicada por
número não nulo κ (ou i-ésima coluna pela i-ésima coluna multiplicada por número não nulo κ).
Notação: Li −→ κ Li (Ci −→ κ Ci ).
30 Capítulo 1. Matrizes

OE3 Substituição de uma linha (ou coluna) por ela somada com outra linha (ou coluna) previamente
multiplicada por um número (real ou complexo) não nulo, ou seja, substituímos a i-ésima linha
pela i-ésima linha somada com a j-ésima linha multiplicada por número não nulo κ (ou i-ésima
coluna pela i-ésima coluna somada com a j-ésima coluna multiplicada por número não nulo κ).
Notação: Li −→ Li + κ L j (Ci −→ Ci + κ C j ).

 
−1 3 4 1
Exemplos 1.1.48 Seja A =  2 1 3 −2 , determine a matriz:
5 0 3 −7
(a) B obtida de A pela operação elementar L2 ←→ L3 .
(b) C obtida de A pela operação elementar L1 −→ (−2)L1 .
(c) D obtida de A pela operação elementar L2 −→ L2 + 2L1 .

Solução:
 
−1 3 4 1
(a) B =  5 0 3 −7  L2 ←→ L3 .
2 1 3 −2
 
2 −6 −8 −2 L1 ←→ (−2)L1
(b) C = 2
 1 3 −2  .
5 0 3 −7
 
−1 3 4 1
(c) D =  0 7 11 0  L2 ←→ L2 + 2L1
5 0 3 −7

Observações 1.1.49 (a) Sejam A ∈ Mm×n (K) e Im a identidade de ordem m, indicando por:
m a matriz obtida de I efetuando a operação elementar L ←→ L ;
Ei↔ j m i j
m , com κ ∈ K∗ , a matriz obtida de I efetuando a operação elementar L −→ κ L ;
Ei→κi m i i
m
Ei→i+κ j a matriz obtida de Im efetuando a operação elementar Li −→ Li + κL j , então:
m · A é a matriz obtida de A efetuando a mesma operação elementar e mais:
• Ei↔ j

m m
Ei↔ j · (Ei↔ j · A) = A.

m
• Ei→κi · A é a matriz obtida de A efetuando a mesma operação elementar e mais:
m m
Ei→ 1 · (Ei→κi · A) = A.
κi

m
• Ei→i+κ j · A é a matriz obtida de A efetuando a mesma operação elementar e mais:

m m
Ei→i−κ j · (Ei→i+κ j · A) = A.

(b) Matrizes como as do item acima, obtida da identidade Im efetuando uma única operação elementar
são chamadas matrizes elementares.
1.2 Determinante de uma Matriz Quadrada 31

1.2 Determinante de uma Matriz Quadrada


Motivação

Na Geometria Analitica:

1 , w2 ) no plano determinam um paralelogramo P~u,~w , então


• Se dois vetores ~u = (u1 , u2 ) e ~w = (w
sua área é dada por área(P~u,~w ) = D , com D = u1 w2 − u2 w1 .

Figura 1.2.1: Paralelogramo P~u,~w determinado por ~u e ~w

• Se três vetores ~u = (u1 , u2 , u3 ), ~v = (v1 , v2 , v3 ) e ~w = (w1 , w2 , w3 ) no espaço tridimensional


determinam um paralelepípedo P~u,~v,~w , então seu volume é dado por volume(P~u,~v,~w ) = D ,

com D = u1 (v2 w3 − v3 w2 ) − u2 (v1 w3 − v3 w1 ) + u3 (v1 w2 − v2 w3 ).

Figura 1.2.2: Paralelepípedo P~u,~v,~w determinado por ~u, ~v e ~w

Em Sistemas Lineares:

a11 x + a12 y = b1
• Seja S : um sistema linear, nas variáveis x e y, em R ou K.
a21 x + a22 y = b2
Multiplicando a 1ª equação por a21 e a 2ª equação por a11 obtemos:

a21 a11 x + a21 a12 y = a21 b1
,
a11 a21 x + a11 a22 y = a11 b2

subtraindo a 2ª equação da 1ª obtemos: (a11 a22 − a21 a12 )y = a11 b2 − a21 b1 .


a11 b2 − a21 b1 a22 b1 − a12 b2
Consequentemente, se D = a11 a22 − a12 a21 6= 0, então y = ex= .
D D
32 Capítulo 1. Matrizes

 a11 x + a12 y + a13 z = b1
• De maneira análoga dado S : a21 x + a22 y + a23 z = b2 um sistema linear, nas va-
a31 x + a32 y + a33 z = b3

riáveis x, y e z, em R ou K.
Veremos na seção 2.3.4 que se
D = a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a22 a31 ) 6= 0,
D1 D2 D3
então x = ,y= ez= , com
D D D
D1 = b1 (a22 a33 − a23 a32 ) − a12 (b2 a33 − a23 b3 ) + a13 (b1 a32 − a22 b3 ),
D2 = a11 (b2 a33 − a23 b3 ) − b1 (a21 a33 − a23 a31 ) + a13 (a21 b3 − b2 a31 ),
D3 = a11 (a22 b3 − b2 a32 ) − a12 (a21 b3 − b2 a31 ) + b1 (a21 a32 − a22 a31 ).
O número D nos exemplos acima é um número associado a uma matriz quadrada que vamos definir na
próxima seção.

1.2.1 Definição de Determinante


Dada uma matriz quadrada A em Mn (K) associamos a A um número chamado determinante de A,
denotado por det A, que definiremos de maneira recorrente.

Determinante caso n = 1
Se A = [a11 ] quadrada em M1 (K), então det A = a11 , neste caso o determinante é o valor numérico da
única entrada da matriz.

Exemplos 1.2.1 (a) A = [−3], então det A = −3. (b) A = [7], então det A = 7.

Para os casos em que A está em Mn (K), com n ≥ 2, necessitamos definir o sinal dos elementos de A:
Sinal de um Elemento ai j ∈ A
Dada A = [ai j ] matriz em Mn (K), a cada elemento ai j de A atribuímos um sinal: + ou −, da seguinte
maneira: 
+ se i + j é par
sinal (ai j ) = ,
− se i + j é ímpar
ou seja, sinal (ai j ) = (−1)i+ j .
 
+ −
Exemplos 1.2.2 (a) Os sinais de uma matriz A em M2 (K): .
− +
 
+ − +
(b) Os sinais de uma matriz A em M2 (K):  − + −  .
+ − +

Cofator de um Elemento ai j

Definição 1.2.1 Dada uma matriz A = [ai j ] quadrada em Mn (K) o cofator do elemento de ai j ,
denotado por ∆i j , é o seguinte número em K:

∆i j = sinal (ai j ) · det Ai j ,

com Ai j a matriz quadrada em Mn−1 (K) obtida de A retirando a i-ésima linha e a j-ésima coluna.
1.2 Determinante de uma Matriz Quadrada 33

A matriz dos cofatores de A é chamada matriz cofatora de A e denotada por cof(A).

 
−1 3
Exemplo 1.2.3 Encontre os cofatores da matriz A = .
4 7
Solução:
∆11 = (−1)1+1 · 7 = 7 ∆12 = (−1)1+2 · 4 = −4
∆21 = (−1)2+1 · 3 = −3 ∆22 = (−1)2+2 · (−1) = −1.
 
7 −4
Logo, cof (A) = .
−3 −1

Definição 1.2.2 Seja A uma matriz quadrada em Mn (K), com n ≥ 2, o determinante de A,


denotado por det A, é o número dado pela soma dos elementos de uma linha ou coluna qualquer de
A, previamente multiplicados por seus respectivos cofatores.
Assim, o cálculo de det A pela i-ésima linha é:
n
det A = ai1 · ∆i1 + ai2 · ∆i2 + · · · + ain · ∆in = ∑ aik · ∆ik .
k=1

Enquanto, que o cálculo de det A pela j-ésima coluna é:


n
det A = a1 j · ∆1 j + a2 j · ∆i2 + · · · + an j · ∆n j = ∑ ak j · ∆k j .
k=1

Cálculo de Determinante de uma Matriz Quadrada de ordem 2


Seja  
a11 a12
A=
a21 a22
uma matriz quadrada em M2 (K), o determinante de A, pela primeira linha é:

det A = a11 · ∆11 + a12 · ∆12 = a11 · a22 + a12 · (−a21 ) = a11 · a22 − a12 · a21 .

Calculando pela segunda coluna obtemos:

det A = a12 · ∆12 + a22 · ∆22 = a12 · (−a21 ) + a22 · a22 = −a12 · a21 + a22 · a11 = a11 · a22 − a12 · a21 .

Portanto,
det A = a11 · a22 − a12 · a21 ,
ou seja, é o produto dos elementos da diagonal principal menos o produto dos elementos da diagonal
secundária.
 
−1 3
Exemplos 1.2.4 1. Calcule o determinante da matriz A = .
4 7
Solução:
Pelo desenvolvimento acima temos:

det A = (−1) · 7 − 3 · 4 = −7 − 12 = −19.


34 Capítulo 1. Matrizes

2. Se dois vetores ~u = (u1 , u2 ) e ~w = (w


1 ,w2 ) no plano determinam um paralelogramo P~u,~w , então

u1 u2

sua área é dada por área(P~u,~w ) = det = |u1 w2 − u2 w1 |.

w1 w2

Cálculo de Determinante de uma Matriz Quadrada de ordem 3


Seja
 
a11 a12 a13
A =  a21 a22 a23 
a31 a32 a33

uma matriz quadrada em M3 (K), o determinante de A, pela primeira linha é:

det A = a11 · ∆11 + a12 · ∆12 + a13 · ∆13


     
a22 a23 a21 a23 a21 a22
= a11 · det − a12 · det + a13 · det
a32 a33 a31 a33 a31 a32
  
= a11 · a22 a33 − a23 a32 − a12 · a21 a33 − a23 a31 + a13 · a21 a32 − a22 a31

= a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 .

Calculando pela terceira coluna obtemos:

det A = a13 · ∆13 + a23 · ∆23 + a33 · ∆33


     
a21 a22 a11 a12 a11 a12
= a13 · det − a23 · det + a33 · det
a31 a32 a31 a32 a21 a22
  
= a13 · a21 a32 − a22 a31 − a23 · a11 a32 − a12 a31 + a33 · a11 a22 − a12 a21

= a13 a21 a32 − a13 a22 a31 − a23 a11 a32 + a23 a12 a31 + a33 a11 a22 − a33 a12 a21 .

Assim, det A = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 .

 
2 1 1
Exemplo 1.2.5 Calcule o determinante da matriz A =  1 1 1  .
2 3 2
Solução:

Calculando pela terceira linha temos

det A = 2 · ∆31 + 3 · ∆32 + 2 · ∆33


     
1 1 2 1 2 1
= 2 · det + (−3) · det + 2 · det
1 1 1 1 1 1

= 2 · (1 − 1) − 3 · (2 − 1) + 2 · (2 − 1) = 0 − 3 + 2 = −1.
1.2 Determinante de uma Matriz Quadrada 35

Calculemos também pela primeira coluna:

det A = 2 · ∆12 + 1 · ∆22 + 2 · ∆32


     
1 1 1 1 1 1
= 2 · det + (−1) · det + 2 · det
3 2 3 2 1 1

= 2 · (2 − 3) + (−1) · (2 − 3) + 2 · (1 − 1) = −2 + 1 + 0 = −1.

Observações 1.2.6 (a) Também indicamos o determinante de A por |A|, assim, por exemplo:

2 1 1
−1 3
= −19 e 1 1 1 = −1.
4 7
2 3 2

(b) O cálculo do determinante de matrizes quadradas em Mn (K), com n ≥ 4, é feito recorrentemente.

(b1 ) No cálculo de det A, com A quadrada em M4 (K), deveremos calcular o determinante de 4


matrizes quadradas em M3 (K).
(b2 ) No cálculo de det A, com A quadrada em M5 (K), deveremos calcular o determinante de 5
matrizes quadradas em M4 (K).
(b3 ) De modo geral, no cálculo de det A, com A quadrada em Mn (K), deveremos calcular o
determinante de n matrizes quadradas em Mn−1 (K).

 
1 −1 2 3
 2 1 0 1 
Exemplo 1.2.7 Calcule o determinante da matriz A = 
 3 −1 1 2  .

2 −1 0 1

Solução:
Calculando pela terceira coluna temos

det A = 2 · ∆13 + 0 · ∆23 + 1 · ∆33 + 0 · ∆43



2 1 1 1 −1 3
1+3 3+3

= 2 · (−1) · det A13 +1 · (−1) · det A33 = 2 · 3 −1 2
+ 2
1 1

| {z } | {z } 2 −1 1 2 −1 1
∆13 ∆33
   
−1 2 3 2 3 −1 1 1 2 1
+3 2 1

= 2 · 2 − + +
−1 1 + 2 1

−1 1 2 1 2 −1 2 −1
| {z } | {z }
cálculo pela 1ª linha cálculo pela 1ª linha

 
= 2 · 2 × 1 − (−1) + (−1) + 2 + 0 + 3 × (−4) = 2 · (2 + 1 − 1) + (2 − 12) = −6.


1 −1 2 3
2 1 0 1
Logo, = −6.
3 −1 1 2
2 −1 0 1
36 Capítulo 1. Matrizes

1.2.2 Propriedades de Determinantes

Seja A uma matriz quadrada em Mn (K), valem as seguintes propriedades:

D1 Se A possui uma linha ou uma coluna com todos os elementos nulo, então det A = 0.
D2 Se A tem duas linhas ou duas colunas iguais, então det A = 0.
D3 det A = det AT .
D4 Se A é uma matriz diagonal, então o determinante de A é o produto dos elementos da diagonal
principal.
D5 Se A é uma matriz triangular (superior ou inferior), então o determinante de A é o produto dos
elementos da diagonal principal.
D6 Se B = κA, com κ ∈ K, então det B = κ n · det A.
···
 
a11 a12 a1n
.. .. .. ..

 . . . .


D7 Se A =  bi1 + ci1 bi2 + ci2 · · · bin + cin , então:
 
 .. .. .. .. 
 . . . . 
an1 an2 ··· ann

··· · · · a1n a11 a12 · · · a1n



a11 a12 a1n a11 a12
.
.. .. ... .. .. .. .. . . .. .. .

. .

. . . .. .. . . ..
bi1 + ci1 bi2 + ci2 · · · bin + cin = bi1 bi2 · · · bin + ci1 ci2 · · · cin .

.. .. .. .. .. .. .. . . .. .. .

. . . .
. . . .. .. . . ..
a
n1 a n2 ··· ann an1 an2 · · · ann an1 an2 ··· a nn

D8 Se A ∈ Mn (C), então det A = det A.

Verificação:

D1 Seja uma matriz A = [ai j ]n×n ∈ Mn (K), tal que todos elementos da i-ésima linha são nulos, ou
seja, aik = 0 para todo k ∈ N, com 1 ≤ k ≤ n, portanto:

ia linha a =0
det A = ai1 · ∆i1 + ai2 · ∆i2 + · · · + ain · ∆in ik= 0 · ∆i1 + 0 · ∆i2 + · · · + 0 · ∆in = 0.

Analogamente, se todos os elementos da j-coluna de A são todos nulos também teremos det A = 0.
D2 Mostremos por indução sobre n para n ∈ N e n ≥ 2.
 
a11 a12
Seja A ∈ M2 (K), se a 2a linhaé igual à 1a linha,
temos A = , e portanto
a11 a12
det A = a11 a12 − a12 a11 = 0, o mesmo ocorre se as duas colunas são iguais.
Logo, A ∈ M2 (K) tem duas linhas ou duas colunas iguais, então det A = 0.
Supondo que o resultado vale para toda matriz quadrada em Mk (K), com k ∈ N e 2 ≤ k ≤ n − 1,
mostremos que a propriedade vale para toda matriz em Mn (K).
1.2 Determinante de uma Matriz Quadrada 37

Seja A ∈ Mn (K), com ia linha é igual à ja linha, supondo i < j, ou seja,

 
a11 a12 · · · a1n
 .. .. . . . ..
 . . .


 ai1 ai2 · · · ain
 

 . .. .. . 
 ..
A= . . .. ,


 a
 i1 ai2 · · · ain  L = L

 .
 .. .. .. .  j 1
. . .. 
an1 an2 · · · ann

calculando det A pela ra linha, com 1 ≤ r ≤ n, r 6= i e r 6= j temos:

ra linha
det A = (−1)r+1 ar1 det Ar1 + (−1)r+2 det Ar2 + · · · + (−1)r+n det Arn ,

com Ars , para 1 ≤ s ≤ n, a matriz obtida de A retirando a ra linha e sa coluna, como cada uma das
matrizes Ars ∈ Mn−1 (K) tem duas linhas iguais, correspondentes ia linha e ja linha de A, portanto
pela hipótese de indução segue que det Ars = 0 para todo s.

Consequentemente, det A = 0.

Analogamente, se duas colunas de A são iguais segue também que det A = 0.

Portanto, se A ∈ Mn (K), para n ∈ N e n ≥ 2, tem duas linhas ou duas colunas iguais, então
det A = 0.

D3 Mostremos por indução sobre n para n ∈ N e n ≥ 2.

   
a11 a12 T a11 a21
Seja A = uma matriz quadrada qualquer em M2 (K), A = , logo
a21 a22 a12 a22
det AT = a11 a22 − a21 a12 = det A.

Portanto, a propriedade vale para n = 2.

Supondo que o resultado vale para toda matriz quadrada em Mk (K), com k ∈ N e 2 ≤ k ≤ n − 1,
mostremos que a propriedade vale para toda matriz em Mn (K).
38 Capítulo 1. Matrizes
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
Seja A =  .  uma matriz qualquer em Mn (K), então:
 
.. .. ..
 . . . .. 
an1 an2 · · · ann


a11 a21 · · · an1
a12 a22 · · · an2
det AT =

.. .. .. .
. ..


. .
a1n a2n · · · ann

a22 · · · an2 a12 · · · an2
1a linha

.. . . .. − a .. . . .
= a11 . ..

. . . 21 .

a2n · · · ann a1n · · · ann


a12 · · · an−1 2

n+1
+ · · · + (−1) an2
.. . . ..
. . .

a1n · · · an−1 n


a22 · · · a2n
a12 · · · a1n
Hip. Indução .. . . .. − a .. . . .
= a11 . ..

. . . 21 .

an2 · · · ann an2 · · · ann

a12 · · · a1n

n+1
+ · · · + (−1) an2
.
.. . .. ..
.

an−1 2 · · · an−1 n
1a coluna
= det A.

Portanto, se A ∈ Mn (K), para n ∈ N e n ≥ 2, então det AT = det A.

D4 Pode-se mostrar, por indução sobre n para n ∈ N e n ≥ 2, que se A = [ai j ]n×n ∈ Mn (K) é
uma matriz diagonal, então det A = a11 × a22 × · · · × ann , o produto dos elementos da diagonal
principal.

D5 Pode-se mostrar, por indução sobre n para n ∈ N e n ≥ 2, que se A = [ai j ]n×n ∈ Mn (K) é
uma matriz triangular (inferior ou superior), então det A = a11 × a22 × · · · × ann , o produto dos
elementos da diagonal principal.

D6 Mostremos por indução sobre n para n ∈ N e n ≥ 2.


   
a11 a12 κ · a11 κ · a12
Se A = ∈ M2 (K), então dados κ ∈ corpo, então κ · A = , então
a21 a22 κ · a21 κ · a22

det A = κ · a11 × κ · a22 − κ · a12 × κ · a21 = κ 2 · (a11 a22 − a12 a21 ) = κ 2 · det A.

Portanto, a propriedade vale para n = 2.


1.2 Determinante de uma Matriz Quadrada 39

Supondo que o resultado vale para toda matriz quadrada em Mk (K), com k ∈ N e 2 ≤ k ≤ n − 1,
mostremos que a propriedade vale para toda matriz em Mn (K).

 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
Seja A =  ..  uma matriz qualquer em Mn (K), então
 
.. .. ..
 . . . . 
an1 an2 · · · ann

 
κ · a11 κ · a12 · · · κ · a1n
 κ · a21 κ · a22 · · · κ · a2n 
κ ·A = 
 
.. .. .. .. 
 . . . . 
κ · an1 κ · an2 · · · κ · ann


κ · a22 · · · κ · a2n κ · a12 · · · κ · a1n
1a linha

det(κ · A) = κ · a11
.. .. ..
− · a
.. .. ..
. . . κ 21 . . .

κ · an2 · · · κ · ann κ · an1 · · · κ · ann

κ · a21 · · · κ · a2 n−1

n+1
+ · · · + (−1) κ · a1n
.. ... ..
. .

κ · an1 · · · κ · an n−1


a22 · · · a2n
a21 · · · a2n
Hip. Indução n−1 .. . . .. − κ · a κ n−1 · .. . . .
= κ · a11 κ · . ..

. . . 12 .

an2 · · · ann an1 · · · ann


a21 · · · a2 n−1

n+1
+ · · · + (−1) κ · a1n κ n−1 ·
.. . . ..
. . .

an1 · · · an n−1

a22 · · · a21 · · ·

a2n


a2 n−1

n .. .. .. n+1 .. .. ..
= κ · a11 · + · · · + (−1) a1n ·


. . . . . .

an2 · · · ann an1 · · · an n−1

= κ n · det A.

Portanto, se A ∈ Mn (K), para n ∈ N e n ≥ 2, então det(κ · A) = κ n · det A.


40 Capítulo 1. Matrizes

D7 De fato,

···

a11 a12 a1n
.. .. .. ..

. . . .


det A = bi1 + ci1 bi2 + ci2 · · · bin + cin


.. .. .. ..

. . . .

a
n1 an2 ··· ann

a12 · · · a1n a11 · · · a1n
ia linha

(−1)i+1 (bi1 + ci1 ) .. . . . .. . . .
= . .. + (−1)i+2 (bi2 + ci2 ) . ..

.

.
an2 · · · ann an1 · · · ann


a11 · · · a1 n−1

+ · · · + (−1)i+n (bin + cin )
.. . . ..
. . .

an1 · · · an n−1


a12 · · · a1n
a11 · · · a1n
i+1 .. . . . .. . . .
= (−1) bi1 . .. + (−1)i+2 bi2 . ..

.

.
an2 · · · ann an1 · · · ann


a11 · · · a1 n−1

i+n
+ · · · + (−1) bin
.. . . ..
. . .

an1 · · · an n−1


a12 · · · a1n
a11 · · · a1n
i+1 .. . . . .. . . .
+ (−1) ci1 . .. + (−1)i+2 ci2 . ..

.

.
an2 · · · ann an1 · · · ann


a11 · · · a1 n−1

+ · · · + (−1)i+n cin
.. . . ..
. . .

an1 · · · an n−1

· · · a1n · · · a1n

a11 a12 a11 a12
.. .. . . . ..
.. .. . . . ..

. . . . . .


= bi1 bi2 · · · bin + ci1 ci2 · · · cin .


.. .. .. . .. .. .. .
. ..

. ..


. .
. .

an1 an2 · · · ann an1 an2 · · · ann

D8 Dados z1 = x1 +iy1 e z2 = x2 +iy2 em C, podemos verificar que z1 · z2 = z1 ·z2 , consequentemente


det A = det A.
1.2 Determinante de uma Matriz Quadrada 41

Teorema 1.2.8 Seja A uma matriz em Mn (K).


(i) Se B é matriz obtida de A permutando duas linhas ou duas colunas, então det B = − det A.
(ii) Se B é obtida de A multiplicando todos os elementos de uma linha ou uma coluna por um
número κ, então det B = κ · det A.
(iii) Se B é obtida de A somando a uma linha (ou coluna) de A a uma outra linha (ou coluna)
previamente multiplicada por um número qualquer, então det B = det A.

Demonstração:

(i) Seja A = [ai j ]n×n uma matriz em Mn (K) e seja B a matriz obtida de A permutando a r-ésima linha
e a s-ésima linha, ou seja, B é obtida de A fazendo a operação elementar Lr ←→ Ls . Suponhamos
sem perda de generalidade que 1 < r < s < n, então:


a11 a12 ··· a1n
.. .. .. ..

. . . .


ar1 + as1 ar2 + as2 · · · arn + asn


Prop. D1 .. .. .. ..
0 =
. . . .

a +a
r1 s1 a +
r2 as2 · · · arn + asn

.
.. .. ... ..

. .

an1 an2 ··· ann

a11 a12 ··· a1n a11 a12 ··· a1n
.. .. .. .. .. .. .. ..

. . . . . . . .


ar1 ar2 ··· arn as1 as2 ··· asn


Prop. D7 .. .. .. .. .. .. .. ..
=
. . . . +
. . . .

a +a
r1 s1 ar2 + as2 · · · arn + asn a +a
r1 s1 ar2 + as2 · · · arn + asn

.
.. .. ... .. .
.. .. ... ..

. .
. .

an1 an2 ··· ann an1 an2 ··· ann

a11 a12 · · · a1n a11 a12 · · · a1n a11 a12 · · · a1n
.. .. .. . .. .. .. . .. .. .. .

. . . .. . . . .. . . . ..


ar1 ar2 · · · arn ar1 ar2 · · · arn as1 as2 · · · asn


Prop. D7 .. .. .. . .. .. .. . .. .. .. .
=
. . . .. + . . . .. + . . . ..

ar1 ar2 · · · arn as1 as2 · · · asn ar1 ar2 · · · arn
.. .. . . . .. .. .. . . . .. .. .. . . . ..

. . . . . . . . .
an1 an2 · · · ann an1 an2 · · · ann an1 an2 · · · ann

a11 a12 · · · a1n a11 a12 · · · a1n a11 a12 · · · a1n
.. .. .. . .. .. .. . .. .. .. .

. . . .. . . . .. . . . ..


as1 as2 · · · asn ar1 ar2 · · · arn as1 as2 · · · asn


.. .. .. .. Prop. D1 .. .. .. . .. .. .. .
+
. . . . = . . . .. + . . . .. .

as1 as2 · · · asn
as1 as2 · · · asn ar1 ar2 · · · arn
.. .. . . . .. .. .. . . . .. .. .. . . . ..

. . .
. . . . . .
an1 an2 · · · ann an1 an2 · · · ann an1 an2 · · · ann
42 Capítulo 1. Matrizes

Consequentemente,


a11 a12 · · · a1n a11 a12 · · · a1n
.. .. . . . .. .. .. . . . ..

. . . . . .


as1 as2 · · · asn ar1 ar2 · · · arn


.. .. .. . .. .. .. .
det B = . . . .. = −
. . . .. = − det A.


ar1 ar2 · · · arn
as1 as2 · · · asn
.. .. .. .. .. .. .. .
. ..


. . . .
. .
an1 an2 · · · ann an1 an2 · · · ann

(ii) Seja A = [ai j ]n×n uma matriz em Mn (K) e seja B a matriz obtida de A multiplicando os elementos
da r-ésima linha por uma constante κ, ou seja, B é obtida de A fazendo a operação elementar
Lr −→ κ Lr . Suponhamos sem perda de generalidade qur 1 < r < n, então:

···

a11 a12 a1n
. .. ..
..

. .
. . .


det B = κ · ar1 κ · ar2 · · · κ · arn


. .. .. ..
..

. . .

a
n1 a n2 ··· ann

a12 · · · a1n a11 · · · a1n
ra linha

(−1)r+1 κ · ar1 .. . . .. + (−1)r+2 κ · a .. . . .
= . ..

. . . r2 .

an2 · · · ann an1 · · · ann


a11 · · · a1 n−1

+ · · · + (−1)r+n κ · a1n
.. . . ..
. . .

an1 · · · an n−1
 

a12 · · · a1n
a11 · · · a1 n−1

= κ ·  (−1)r+1 ar1 ·
 .. . . .. + · · · + (−1)r+n a · .. . . .. 
. . . rn . . . 

an2 · · · ann an1 · · · an n−1

= κ · det A.

(iii) Seja A = [ai j ]n×n uma matriz em Mn (K) e seja B a matriz obtida de A somando a r-ésima linha
com a s-ésima linha, previamente multiplicada por uma constante κ, ou seja, B é obtida de A
fazendo a operação elementar Lr −→ Lr + κ Ls . Suponhamos sem perda de generalidade que
1 < r < s < n, então:
1.2 Determinante de uma Matriz Quadrada 43


a11 a12 ··· a1n
.. .. .. ..

. . . .


ar1 + κ · as1 ar2 + κ · as2 · · · arn + κ · asn


det B =
.. .. .. ..

. . . .


as1 as2 ··· asn

.
.. .. ... ..

. .

an1 an2 ··· ann

a11 a12 · · · a1n a11 a12 · · · a1n
.. .. .. .. .. .. .. ..

. . . . . . . .


ar1 ar2 · · · arn κ · as1 κ · as2 · · · κ · asn


Prop. D7 .. .. .. . . .. .. ..
=
. . . .. + .. . . .


as1 as2 · · · asn as1
as2 ··· asn

.. .. . . . .. .. .. ... ..

. . . . . .

an1 an2 · · · ann an1 an2 ··· ann

a11 a12 · · · a1n a11 a12 · · · a1n
.. .. .. . .. .. .. .

. . . .. . . . ..


ar1 ar2 · · · arn as1 as2 · · · asn


Teo.1.2.8(ii) .. .. . . . .. + κ · .. .. . . . ..
=
. . . . . .

as1 as2 · · · asn
as1 as2 · · · asn
.. .. . . . .. .. .. . . . ..

. . .
. . .
an1 an2 · · · ann an1 an2 · · · ann

a11 a12 · · · a1n
.. .. . . . ..

. . .


ar1 ar2 · · · arn


Prop. D1 .. .. . . . ..
=
. . . = det A.


as1 as2 · · · asn
.. .. .. .
. ..


. .
an1 an2 · · · ann

m , E m , com κ ∈ K∗ , e E m
Corolário 1.2.9 As matrizes elementares Ei↔ j i→κi i→i+κ j apresentadas na
Observação 1.1.49 são tais que:
m m m
det Ei↔ j = −1, det Ei→κi =κ e det Ei→i+κ j = 1.

Demonstração: De fato, det Im = 1, como Ei↔ m , Em m


j i→κi e Ei→i+κ j são obtidas de Im efetuando as
respectivas operações elementares Li ←→ L j , Li −→ κ Li , com κ ∈ K∗ , e Li −→ Li r + κ L j , segue
pelo Teorema 1.2.8 que:
m m m
det Ei↔ j = −1, det Ei→κi =κ e det Ei→i+κ j = 1.
44 Capítulo 1. Matrizes

Exemplos 1.2.10 Calcule det A, em cada um dos casos:


     
2 1 2 1 1 5 1 1 1
(a) B =  1 1 3 ; (b) B =  3 3 3 ; (c) B =  2 1 1  ;
1 1 2 2 2 4 2 3 2
     
2 1 1 2 1 1 6 3 3
(d) B =  1 1 1 ; (e) B =  1 1 1 ; (f) B =  3 3 3 ;
−4 −6 −4 0 1 0 6 9 6
     
−5 0 0 0 3 −1 2 1 1 2 3 4
 0 8 0 0   0 6 −5 0   1 3 4 5 
(g) B = 
 0 0 −1 0 ;
 (h) B =  ; (i) B =  .
 0 0 −2 7   0 0 −1 7 
0 0 0 3 0 0 0 1 0 0 0 4
Solução:
 
2 1 1
Lembrando que vimos acima que se A =  1 1 1  então det A = −1.
2 3 2
Observemos que as matrizes dos exemplos (a), (c), (d), (e) e (f) foram obtidas da matriz A.

2 1 2
D1 , pois B=AT
(a) det B = 1 1 3 = −1.
1 1 2

1 1 5
D3 , pois C1 =C2
(b) det B = 3 3 −1 = 0.
2 2 4

1 1 1
D4 , pois L1 ↔L2
(c) det B = 2 1 1 = −(−1) = 1.
2 3 2

2 1 1
D5 pois L3 →(−2)L3
(d) det B = 1 1 1 = (−2) × (−1) = 2.
−4 −6 −4

2 1 1
D , pois L3 →L3 −2L2
(e) det B = 1 1 1 6

= −1.
0 1 0

6 3 3
D7 , pois B=3A 3
(f) det B = 3 3 3 = 3 × (−1) = −27.
6 9 6

(g) det B = (−5) × 8 × (−1) × 3 = 120, basta aplicar D9 , pois B é matriz diagonal.

(h) det B = 3 × 6 × (−2) × 1 = −36, basta aplicar D10 , pois B é matriz triangular.

1 2 3 4 1 2 3 4 1 2 3 4

1 3 4 5 D11 1 2
3 4 0 1
1 1 D3 e D10
(i) = 0 0 −1 7 + 0 0 −1 7 = 0 − 4 = −4.

0 0 −1 7
0 0 0 4 0 0 0 4 0 0 0 4
1.2 Determinante de uma Matriz Quadrada 45

Lema 1.2.11 Sejam A e B matrizes em Mn (K), então


n
det(A · B) = ∑ (−1)s a1k1 · a2k2 · . . . · ankn · det B,
k1 , k2 , ··· , kn =1
ki 6=k j se i6= j

com (k1 k2 · · · kn) uma permutação


 de (1 2 · · · n) e s a quantidade de linhas permutadas para
k1 1
 k2   2 
transformar  ..  em  ..  .
   
 .   . 
kn n
Demonstração:
Indicando por ai = (ai1 ai2 · · · ain ) e bl = (bl1 bl2 · · · bln ), a i-ésima linha de A e a l-ésima linha de B,
respectivamente, com i ≤ i ≤ n e 1 ≤ l ≤ n, então A · B = [ci j ] e a k-ésima linha de A · B é indicada por
cs = (cs1 cs2 · · · csn ), com csr = as1 b1r + as2 b2r + · · · + asn bnr .
Logo,
cs = as1 · (b11 b12 · · · b1n ) + as2 · (b21 b22 · · · b2n ) + · · · + asn · (bn1 bn2 · · · bnn )
n
= as1 · b1 + as2 · b2 + · · · + asn · bn = ∑ ask · bk ,
k=1

para 1 ≤ k ≤ n.
Portanto,
det(A · B) = det(c1 , c2 , · · · , cn ) = det(a11 · b1 + a12 · b2 + · · · + a1n · bn , c2 , · · · , cn )
D7 e Teo.1.2.8(ii)
= a11 · det(b1 , c2 , · · · , cn ) + a12 · det(b2 , c2 , · · · , cn )
n
+ · · · + a1n · det(bn , c2 , · · · , cn ) = ∑ a1k1 · det(bk1 , c2, · · · , cn)
k1 =1
n
= ∑ a1k1 · det(bk1 , a21 · b1 + a22 · b2 + · · · + a2n · bn, · · · , cn)
k1 =1
n
= ∑ a1k1 · a2k2 · det(bk1 , bk2 , · · · , cn ),
k1 , k2 =1
k1 6=k2

pois det(· · · , bi , · · · , bi , · · · ) = 0.
Assim, fazendo as devidas substituições concluímos que a igualdade acima é dada por:
n
det(A · B) = ∑ a1k1 · a2k2 · . . . · ankn · det(bk1 , bk2 , · · · , bkn ),
k1 , k2 , ··· , kn =1
ki 6=k j se i6= j

com (k1 k2 · · · kn ) uma permutação de (1 2 · · · n), consequentemente,


n
det(A · B) = ∑ (−1)s a1k1 · a2k2 · . . . · ankn · det B,
k1 , k2 , ··· , kn =1
ki 6=k j se i6= j
   
k1 1
 k2   2 
com s a quantidade de linhas permutadas para transformar   em  .
   
.. ..
 .   . 
kn n
46 Capítulo 1. Matrizes

Corolário 1.2.12 Seja A matriz em Mn (K), então


n
det A = ∑ (−1)s a1k1 · a2k2 · . . . · ankn ,
k1 , k2 , ··· , kn =1
ki 6=k j se i6= j

   
k1 1
 k2   2 
com s a quantidade de linhas permutadas para transformar   em  .
   
.. ..
 .   . 
kn n

Demonstração:

No Lema 1.2.11 fazendo B = In obtemos:

n
det(A · In ) = ∑ (−1)s a1k1 · a2k2 · . . . · ankn · det In ,
k1 , k2 , ··· , kn =1
ki 6=k j se i6= j

   
k1 1
 k2   2 
com s a quantidade de linhas permutadas para transformar   em  .
   
.. ..
 .   . 
kn n

Mas, como det In = 1 e A · In = A, segue que

n
det A = ∑ (−1)s a1k1 · a2k2 · . . . · ankn ,
k1 , k2 , ··· , kn =1
ki 6=k j se i6= j

   
k1 1
 k2   2 
com s a quantidade de linhas permutadas para transformar   em  .
   
.. ..
 .   . 
kn n

Observação 1.2.13 Pelo Corolário 1.2.12, dada A ∈ Mn (K), então det A é o somatório de
(−1)s a1k1 · a2k2 · . . . · ankn , com k1 , k2 ,· · · , kn ∈ 
{1, 2,
 · · · , n}, ki 6= k j se i 6= j e a quantidade
k1 1
 k2   2 
de linhas permutadas para transformar  ..  em  ..  .
   
 .   . 
kn n

Além disso, o somatório tem n! parcelas, que é a quantidade de permutações de n elementos.


1.2 Determinante de uma Matriz Quadrada 47

Logo, se n = 2, então det A tem 2! = 2 parcelas; se n = 3, então det A tem 3! = 6 parcelas; se n = 4,


então det A tem 4! = 24 parcelas e assim por diante, mais precisamente temos:
n=2
det A = a11 a22 − a12 a21

n=3
det A = a11 a22 a33 − a11 a23 a32 + a12 a23 a31 − a12 a21 a33 + a13 a21 a32 − a13 a22 a31

n=4
det A = a11 a22 a33 a44 + a11 a23 a34 a42 + a11 a24 a32 a43 − a11 a24 a33 a42 − a11 a22 a34 a43 − a11 a23 a32 a44

+ a12 a21 a34 a43 + a12 a23 a31 a44 + a12 a24 a33 a41 − a12 a21 a33 a44 − a12 a23 a34 a41 − a12 a24 a31 a43

+ a13 a21 a32 a44 + a13 a22 a34 a41 + a13 a24 a31 a42 − a13 a21 a34 a42 − a13 a22 a31 a44 − a13 a24 a32 a41

+ a14 a21 a33 a42 + a14 a22 a31 a43 + a14 a23 a32 a41 − a14 a21 a32 a43 − a14 a22 a33 a41 − a14 a23 a31 a42 .

Uma consequência importante do Lema 1.2.11 e do Corolário 1.2.12 é o seguinte resultado:

Teorema 1.2.14 Dadas A e B matrizes em Mn (K), então det(A · B) = det A · det B.

Proposição 1.2.15 (i) Se A ∈ Mn (R) é matriz anti-simétrica e n é ímpar, então det A = 0.


(ii) Se A ∈ Mn (C) é matriz hermitiana, então det A ∈ R.
(iii) Se A ∈ Mn (R) é matriz ortogonal, então det A = 1 ou det A = −1.
(iv) Se A ∈ Mn (C) é matriz unitária, então det A = 1 ou det A = −1.

Demonstração:
(i) A ∈ Mn (R) é anti-simétrica se, e somente se, AT = −A.
Logo,
D eD n é ímpar
det AT = det(−A) =⇒
3 6
det A = (−1)n · det A =⇒ det A = − det A ⇐⇒ det A = 0.

T
(ii) A ∈ Mn (C) é hermitiana se, e somente se, A = A∗ = A .
Logo,
T D D
det A = det A∗ = det(A ) =3 det A =8 det A ⇐⇒ det A ∈ R.

(iii) A ∈ Mn (R) é ortogonal se, e somente se, A · AT = In .


Logo,
Teo.1.2.14 D1
det(A · AT ) = det In = 1 =⇒ det A · det AT = 1 =⇒ (det A)2 = 1.
Portanto, det A = 1 ou det A = −1.
(iv) A ∈ Mn (C) é unitária se, e somente se, A · A∗ = In .
Logo,
Teo.1.2.14 T
det(A · A∗ ) = det In = 1 =⇒ det A · det A∗ = 1 ⇐⇒ det A · det A = 1
D
1
=⇒ det A · det A = 1 ⇐⇒ det A · det A = 1 ⇐⇒ | det A|2 = 1.
Portanto, det A = 1 ou det A = −1.
48 Capítulo 1. Matrizes

1.3 Inversa de uma Matriz


Sabemos que multiplicação dos números reais ou complexos tem elemento neutro, o número 1, que
também satisfaz a seguinte propriedade:

Se a ∈ K e a 6= 0, então existe b ∈ K, b 6= 0 tal que a · b = 1.

1
Denotamos o número b por b = a−1 = e este é chamado inverso multiplicativo de a.
a
Pela propriedade M1 (a) da multiplicação de matrizes sabemos que dada A uma matriz quadrada de
ordem n, temos:
A · In = In · A = A,
ou seja, a matriz In , identidade de ordem n, é o elemento neutro da multiplicação em Mn (R) ou
Mn (C).
Daí é natural perguntar:
Se A é uma matriz quadrada em Mn (K), quando existe uma matriz B ∈ Mn (K) tal que:

A · B = B · A = In . (1.3.1)

Exemplos 1.3.1 Em cada um dos casos, verifique se existe uma matriz B quadrada de ordem 2 tal que
A · B = B · A = I2 .
   
1 1 1 −2
(a) A = ; (b) A =
2 3 −2 4
Solução:
 
a b
(a) Devemos encontrar uma matriz B = tal que
c d
         
1 1 a b a b 1 1 1 0
· = · =
2 3 c d c d 2 3 0 1
     
a+c b+d a + 2b a + 3b 1 0
⇐⇒ = =
2a + 3c 2b + 3d c + 2d c + 3d 0 1

     
a+c = 1 a + 2b = 1
a+c = 1 a + 2b = 1

 
 
 

2a + 3c = 0 a + 3b = 0

 
 
 

b+d = 0 a + 3b = 0
   
⇐⇒ e ⇐⇒ e .
2a + 3c = 0 c + 2d = 0  
b+d = 0 c + 2d = 0

 
 
 

 2b + 3d = 1  c + 3d = 1

 
 
 

2b + 3d = 1 c + 3d = 1
 

Observemos que
 
a+c = 1 2a + 2c = 2
∼ ⇒ c = −2 ⇒ a = 3
2a + 3c = 0 2a + 3c = 0
e  
b+d = 0 2b + 2d = 0
∼ ⇒ d = 1 ⇒ b = −1.
2b + 3d = 1 2b + 3d = 1
1.3 Inversa de uma Matriz 49

Por outro lado,


 
a + 2b = 1 c + 2d = 0
⇒ b = −1 ⇒ a = 3 e ⇒ d = 1 ⇒ c = −2.
a + 3b = 0 c + 3d = 1
 
3 −1
Portanto, a matriz B = satisfaz a condição A · B = B · A = I2 .
−2 1
 
a b
(b) Devemos encontrar uma matriz B = tal que
c d
         
1 −2 a b a b 1 −2 1 0
· = · =
−2 4 c d c d −2 4 0 1
     
a − 2c b − 2d a − 2b −a + 4b 1 0
⇐⇒ = =
−2a + 4c −2b + 4d c − 2d −c + 4d 0 1

     
a − 2c = 1 a − 2b = 1
a − 2c = 1 a − 2b = 1

 
 
 

−2a + 4c = 0 −2a + 4b = 0

 
 
 

b − 2d = 0 −2a + 4b = 0
   
⇔ e ⇔ e .
−2a + 4c = 0 c − 2d = 0   
b − 2d = 0 c − 2d = 0

 
  

−2b + 4d = 1  −c + 4d = 1

 
 
 

−2b + 4d = 1 −2c + 4d = 1
  


a − 2c = 1
Observemos que o sistema não tem solução, pois
−2a + 4c = 0
 
a − 2c = 1 2a − 4c = 2
∼ ⇒ 0 = 2,
−2a + 4c = 0 −2a + 4c = 0

um absurdo!
Portanto, neste caso, não existe uma matriz B, quadrada de ordem 2, que satisfaça a condição
A · B = B · A = I2 .

Observação 1.3.2 Os exemplos acima nos mostram que há casos em que resposta à pergunta da
equação 1.3.1 é afirmativa e outros em que não.

Antes estabelecer uma condição necessária para a existência da matriz B que satisfaça 1.3.1 introduzi-
remos mais alguns conceitos.

1.3.1 Matriz Adjunta e a Inversa

Definição 1.3.1 Seja A uma matriz quadrada em Mn (K), a matriz adjunta de A, denotada por
adj(A), é a transposta da matriz cofatora de A, ou seja,
T
adj (A) = cof (A) .

Teorema 1.3.3 Se A é uma matriz quadrada em Mn (K), então

A · adj (A) = adj (A) · A = det A · In .


50 Capítulo 1. Matrizes

Demonstração: Vamos fazer a demonstração para n = 3, os outros casos são análogos.


 
a11 a12 a13
Seja A = a21
 a22 a23 , então:
a31 a32 a33
   T
a11 a12 a13 ∆11 ∆12 ∆13
A · adj (A) =  a21 a22 a23  ·  ∆21 ∆22 ∆23 
a31 a32 a33 ∆31 ∆32 ∆33
   
a11 a12 a13 ∆11 ∆21 ∆31
=  a21 a22 a23  ·  ∆12 ∆22 ∆32  = [ci j ]3×3 ,
a31 a32 a33 ∆13 ∆23 ∆33

pela 1ª linha


 c11 = a11 ∆11 + a12 ∆12 + a13 ∆13 = det A
pela 2ª linha


com c22 = a21 ∆21 + a22 ∆22 + a23 ∆23 = det A
pela 3ª linha
 c33 = a31 ∆31 + a32 ∆32 + a33 ∆33 = det A



c12 = a11 ∆21 + a12 ∆22 + a13 ∆23

Calculando c12 :
c12 = a11 ∆21 + a12 ∆22 + a13 ∆23

= a11 (a13 a32 − a12 a33 ) + a12 (a11 a33 − a13 a31 ) + a13 (a12 a31 − a11 a32 )

= a11 a13 a32 − a11 a12 a33 + a12 a11 a33 − a12 a13 a31 + a13 a12 a31 − a13 a11 a32 = 0.
Com cálculos similares concluímos que c13 = c21 = c23 = c31 = c32 = 0.
Logo,  
det A 0 0
A · adj (A) =  0 det A 0  = det A · I3 .
0 0 det A
Analogamente mostramos que adj (A) · A = det A · I3 .

Corolário 1.3.4 Se A é uma matriz quadrada em Mn (K) e det A 6= 0, então


   
1 1
A· adj (A) = adj (A) · A = In .
det A det A

Definição 1.3.2 Seja A uma matriz quadrada em Mn (K), dizemos que A é invertível se, e somente
se, existe B matriz quadrada em Mn (K) tal que

A · B = B · A = In .

A matriz B é chamada matriz inversa de A e denotada por A−1 , assim,

A · A−1 = A−1 · A = In .

   
1 1 3 −1
Exemplo 1.3.5 A matriz A = é invertível e sua inversa é a matriz A−1 = .
2 3 −2 1
1.3 Inversa de uma Matriz 51

Teorema 1.3.6 Uma matriz quadrada A em Mn (K) é invertível se, e somente se, det A 6= 0.
Além disso, se existe A−1 , então
1
A−1 = · adj (A).
det A
Demonstração:
Se A é invertível, então A · A−1 = In , logo
Teo.1.2.14
det(A · A−1 ) = det In = 1 =⇒ det A · det A−1 = 1 =⇒ det A 6= 0.

Reciprocamente, se det A 6= 0, pelo Corolário 1.3.4 e a Definição 1.3.2, A é invertível e


1
A−1 = · adj (A).
det A

Exemplos 1.3.7 Verifique, em cada um dos casos abaixo, se a matriz A é invertível, em caso afirmativo
determine sua inversa.    
  1 −1 2 3 5 −1 2 −3
2 1 1  2 1 0 1   7 0 −8 11 
(a) A =  1 1 1  ; (b) A = 
 3 −1 1 2  ;
 (c) A = 
 12 −9
.
4 −21 
2 3 2
2 −1 0 1 −15 3 −6 9
Solução:
(a) Vimos na seção 1.2 que det A = −1 6= 0, portanto A é invertível.
Devemos determinar adj (A).
   
∆11 ∆21 ∆31 −1 1 0
adj (A) =  ∆12 ∆22 ∆32  =  0 2 −1  .
∆13 ∆23 ∆33 1 −4 1
Logo,    
−1 1 0 1 −1 0
1 
A−1 = · 0 2 −1  =  0 −2 1 .
−1
1 −4 1 −1 4 −1

(b) Vimos na seção 1.2 que det A = −6 6= 0, portanto A é invertível.


Devemos determinar adj (A).
   
∆11 ∆21 ∆31 ∆41 2 0 −4 2
 ∆12 ∆22 ∆32 ∆42   0 −3 0 3 
adj (A) =  = .
 ∆13 ∆23 ∆33 ∆43   2 3 −10 11 
∆14 ∆24 ∆34 ∆44 −4 −3 8 −7
Logo,  
2 0 −4 2
1  0 −3 0 3 
A−1 = − ·  .
6  2 3 −10 11 
−4 −3 8 −7
(c) Como L3 = −3L1 , logo pela propriedade D3 de determinantes, temos det A = 0.
Portanto, A não é invertível.
52 Capítulo 1. Matrizes

1.3.2 Propriedades da Matriz Inversa

Sejam A e B quadradas em Mn (K), valem as seguintes propriedades:

MI1 Se A é invertível, então sua inversa é única.


MI2 Se A e B são invertíveis então, A · B também o é.
MI3 Se A é invertível, então AT , a transposta de A, também é invertível com inversa
−1 T
AT = A−1 .
MI4 Se A é invertível e λ ∈ K∗ , então A−1 , a inversa de A, também é invertível.
1 −1
MI5 Se A é invertível e λ ∈ K∗ , então λ · A é invertível, com inversa (λ · A)−1 = ·A .
λ
MI6 Se D = [di j ]n×n é uma matriz diagonal com dii 6= 0 para todo i ∈ {1, · · · , n}, então D é invertível
1
e D−1 = [ei j ]n×n é matriz diagonal com eii = .
dii
−1
MI7 Se A ∈ Mn (C) é invertível, então A, a conjugada de A também é invertível, com inversa A = A−1 .
MI8 (a) Se existe B ∈ Mn (K) tal que A · B = In , então A é invertível.
(b) Se existe C ∈ Mn (K) tal que B · A = In , então A é invertível.

Verificação:
MI1 Se existissem B e C tais que A · B = A · C = In , multiplicando a igualdade A · C = In por B à
esquerda obtemos

B · (A ·C) = B · In ⇐⇒ (B · A) · C = B ⇐⇒ C = B.
| {z }
In

MI2 Se A e B são invertíveis então, det A 6= 0 e det B 6= 0.


Logo, det(A · B) = det
|{z}A · det
|{z}B 6= 0 e portanto A · B é invertível.
6=0 6=0

Além disso,
(A · B) · (B−1 · A−1 ) = A · (B · B−1 ) ·A−1 = A · A−1 = In .
| {z }
In

Analogamente, (B−1 · A−1 ) · (A · B) = In .


Portanto, (A · B)−1 = B−1 · A−1 .
MI3 Se A é invertível, então det A 6= 0, como det AT = det A, então det AT 6= 0 e AT é invertível.
Como,
T T
A · A−1 = In =⇒ A · A−1 = InT =⇒
4
(A−1 )T · AT = In .
Analogamente, AT · (A−1 )T = In .
−1 T
Portanto, AT = A−1 .
1
MI4 Se A é invertível, então det A−1 = 6= 0, portanto A−1 também o é invertível e segue da
−1 det A
Definição 1.3.2 A−1 = A.
1.3 Inversa de uma Matriz 53

MI5 Como λ 6= 0, então


 
1 −1 1
(λ · A) · ·A = λ · · (A · A−1 ) = In .
λ λ

1 −1
Portanto, λ · A é invertível e (λ · A)−1 = ·A .
λ
MI6 Como
1
···
     
d11 0 · · · 0 d11 0 0 1 0 ··· 0
1
 0 d22 · · · 0   0 d22 ··· 0   0 1 ··· 0 
· =
     
.. .. . . . .. .. .. .. .... . . .. 
. ..

 . .   . . . .   . . . . 
0 0 0 dnn 1 0 0 0 1
0 0 0 dnn

e
1
···
     
d11 0 0 d11 0 · · · 0 1 0 ··· 0
1
 0 d22 ··· 0   0 d22 · · · 0   0 1 ··· 0 
· = .. . . ..  .
     
.. .. .. .. .. .. . . . ..
. ..

 . . . .   . .   . . . . 
1 0 0 0 dnn 0 0 0 1
0 0 0 dnn

1
Portanto, D é invertível e D−1 = [ei j ]n×n matriz diagonal com eii = .
dii
MI7 Demonstração análoga à da propriedade MI3 .

MI8 (a) Basta observar que se A · B = In , então

Teo.1.2.14
det(A · B) = det In = 1 =⇒ det A · det B = 1 =⇒ det A 6= 0.

1
Portanto, pelo Teorema 1.3.6 a matriz A é invertível, com inversa A−1 = · adj (A).
det A
(b) Verifica-se de maneira análoga ao item anterior.

Proposição 1.3.8 (i) Se A ∈ Mn (R) é matriz ortogonal, então A é invertível e A−1 = AT .


(ii) Se A ∈ Mn (C) é matriz unitária, então A é invertível e A−1 = A∗ .

Demonstração:

(i) Observemos que A ∈ Mn (R) é matriz ortogonal se, e somente se, A · AT = In , consequentemente
A é invertível e A−1 = AT .

(ii) A ∈ Mn (C) é unitária se, e somente se, A · A∗ = In e portanto, A é invertível e A−1 = A∗ .


54 Capítulo 1. Matrizes

Observação 1.3.9 O exemplo 1.3.7 (b) nos mostra que a obtenção da inversa usando o teorema 1.3.6
não é eficiente, pois são necessários muitos cálculos.
Vamos introduzir um outro mecanismo para determinar a inversa de uma matriz quadrada, quando esta
existe.

1.4 Matriz na Forma Escalonada e na Forma Escada

Proposição 1.4.1 As matrizes elementares são invertíveis tais que:

m
−1 m m
−1 m m
−1 m
Ei↔ j = Ei↔ j, Ei→κi = Ei→ 1
i
e Ei→i+κ j = Ei→i−κ j,
κ

com κ ∈ K∗ , as inversas também matrizes elementares.

Demonstração:
Pelo corolário 1.2.9 as matrizes elementares são invertíveis pois têm determinante não nulos.
Da definição de matrizes elementares, segue ainda que suas inversas são dadas por:
m
−1 m m
−1 m m
−1 m
Ei↔ j = Ei↔ j Ei→κi = Ei→ 1
i
e Ei→i+κ j = Ei→i−κ j,
κ

κ ∈ K∗ , também matrizes elementares.

No que segue vamos indicar por Ekn matriz elementar associada a matriz identidade In , independente-
mente da operação elementar utilizada.

Observação 1.4.2 A proposição 1.4.1 nos garante que as operações elementares são reversíveis, ou
seja, cada operação elementar pode ser “desfeita” por meio de uma operação elementar reversa.
De fato, dadas A em Mm×n (K) e Ekn uma matriz elementar, então B = Ekm · A é a matriz obtida de A
pela operação elementar de Ekm e

(Ekm )−1 · B = (Ekm )−1 · (Ekm · A) = (Ekm )−1 · Ekm ·A = Im · A = A.



| {z }
=Im

1.4.1 Matriz Linha Equivalente


Dada uma matriz A em Mm×n (K), dizemos que B é uma matriz linha equivalente a A se, somente se,
B é obtida efetuando um número finito de operações elementares sobre as linhas de A.
Logo, B é matriz linha equivalente a A, então

B = Ekm · . . . · E2m · Elm · A.

Notação: A ∼ B.

Exemplo 1.4.3 Nos exemplos 1.1.48 temos A ∼ B, A ∼ C e A ∼ D.


Observações 1.4.4 (a) Em alguns momentos diremos simplesmente que A e B são equivalentes
nos referindo a linha-equivalentes.
(b) Dada A uma matriz quadrada em Mn (K), se A é uma matriz invertível e B é linha equivalente a A,
então B também é invertível.
1.4 Matriz na Forma Escalonada e na Forma Escada 55

(c) A relação ∼ em Mm×n (K), “é linha equivalente a” é uma relação de equivalência, ou seja,
(i) A ∼ A, para toda A ∈ Mm×n (K), pois A = Im · A e Im é uma matriz elementar.
Portanto, ∼ é reflexiva.
(ii) Dados A e B em Mm×n (K), se A ∼ B, então

B = Ekm · . . . · E2m · E1m · A =⇒ A = (E1m )−1 · (E2m )−1 · . . . · (Ekm )−1 · B,

como as matrizes inversas (Elm )−1 também são elementares segue B ∼ A.


Logo, ∼ é simétrica.
(iii) Dados A, B e C em Mm×n (K), se A ∼ B e B ∼ C, então

B = Ermk · . . . · Erm1 · A e C = Esml · . . . · Esm1 · B =⇒ C = Esml · . . . · Esm1 · Ermk · . . . · Erm1 · A,

portanto A ∼ C.
Logo, ∼ é transitiva.

1.4.2 Matriz na Forma Escalonada


Definição 1.4.1 Uma matriz A em Mm×n (K) está na forma escalonada se satisfaz as seguintes
condições:
(1) As linhas não-nulas de A estão acima de qualquer linha nula de A, ou seja, as linhas nulas estão
agrupadas nas últimas linhas da matriz.
Em outras palavras, se Li é linha nula e Lk é linha não nula, então com k < i.
(2) O primeiro elemento não-nulo de uma linha de A ocorre mais à direita do primeiro elemento
não-nulo da linha anterior de A.
Em outras palavras, se ai j 6= 0 e i > 1, existe algum k, com k < j, tal que a(i−1)k 6= 0.

Observação 1.4.5 Se A0 é uma matriz na forma de escalonada, em cada linha não nula de A0
denominamos o primeiro elemento não nulo da linha de pivô.
Da definição acima segue que, em uma linha nula não há pivô e em cada coluna há no máximo um
pivô.
 
1 −5 2 −4 0
 0 0 −3 1 9 
Exemplos 1.4.6 (a) A matriz A =  0
 está na forma escalonada.
0 0 2 6 
0 0 0 0 0
 
5 −1 7
 0 0 0 
(b) A matriz A =  0 −9 4  não está na forma escalonada, pois falha a condição (1).

0 0 3
 
1 2 −2 0
 0 0 2 −1 
(c) A matriz A =  0 1
 não está na forma escalonada, pois entre as linhas L3 e L2
3 0 
0 0 0 0
falha a condição (2).
56 Capítulo 1. Matrizes

1.4.3 Matriz na Forma Escalonada Reduzida ou na Forma Escada


Definição 1.4.2 Uma matriz A em Mm×n (K) está na forma escalonada reduzida ou na forma
escada se está na forma escalonada e satisfaz as demais condições:
(3) O primeiro elemento não-nulo de cada linha não-nula de A é o número 1.
Em outras palavras, se ai j 6= 0 e ( j = 1 ou aik = 0 para k < j), então ai j = 1.
(4) O primeiro elemento não-nulo de uma linha é o único elemento não-nulo de sua coluna.
Em outras palavras, se ai j 6= 0 e ( j = 1 ou aik = 0 para k < j), então al j = 0 para todo l 6= i.

 
1 −5 0 0 7
 0 0 1 0 −2 
Exemplos 1.4.7 (a) A matriz A =  0
 está na forma escada.
0 0 1 3 
0 0 0 0 0
 
5 0 0 −2
(b) A matriz A = 0 1 0
 0  não está na forma escalonada, pois falha a condição (3) na
0 0 1 3
primeira linha.
 
1 0 0 0
(c) A matriz A =  0 1 −1 0  não está na forma escalonada, pois falha a condição (4) na
0 0 1 2
terceira coluna.

Teorema 1.4.8 ([Boldrini]) Toda matriz é equivalente a uma única matriz na forma escada.

Observações 1.4.9 (a) Dada uma matriz A a sua equivalente na forma escada, é chamada também
de sua reduzida à forma escada.
(b) O teorema acima nos diz que podemos transformar qualquer matriz, efetuando um número finito
de operações elementares, em uma matriz na forma escada.
(c) Se A é uma matriz em Mn (K) invertível, a forma escada de A é In , matriz identidade de ordem n.
(d) Nas definições acima utilizamos operações elementares sobre as linhas da matriz A, analogamente
definimos operações elementares sobre as colunas de A.

1.4.4 Matriz Inversa através de Operações Elementares

Vimos que se A é uma matriz em Mn (K) invertível, então ao efetuarmos operações elementares em A a
matriz obtida também é invertível. invertíveis.

O próximo teorema nos fornece um mecanismo para obter a inversa de uma matriz utilizando operações
elementares.

Teorema 1.4.10 ([Boldrini]) Uma matriz A em Mn (K) é invertível se, e somente se, A ∼ In , ou
seja, A é uma matriz invertível se, e somente se, a forma reduzida de A é a matriz identidade In .
Além disso, efetuando na identidade In a mesma sequência de operações elementares que transformou
A em In obtém-se a inversa de A.
1.4 Matriz na Forma Escalonada e na Forma Escada 57

Exemplos 1.4.11 Obtenha, em cada um dos casos abaixo, a inversa da matriz A utilizando operações
elementares sobre as linhas.
 
  1 −1 2 3
2 1 1  2 1 0 1 
(a) A =  1 1 1  ; (b) A = 
 3 −1 1 2  .

2 3 1
2 −1 0 1
Solução:
(a)
2 1 1 | 1 0 0 1 1 1 | 0 1 0 L1 ←→ L2
1 1 1 | 0 1 0 ∼ 2 1 1 | 1 0 0
2 3 2 | 0 0 1 2 3 2 | 0 0 1
1 1 1 | 0 1 0
0 −1 −1 | 1 −2 0 L2 −→ L2 − 2L1
0 2 1 | −1 0 1 L3 −→ L3 − L2
1 0 0 | 1 −1 0 L1 −→ L1 + 2L2
∼ 0 −1 −1 | 1 −2 0
0 0 −1 | 1 −4 1 L3 −→ L3 + 2L2
1 0 0 | 1 −1 0
∼ 0 1 1 | −1 2 0 L2 −→ −L2
0 0 1 | −1 4 −1 L3 −→ −L3
1 0 0 | 1 −1 0
∼ 0 1 0 | 0 −2 1 L2 −→ L2 − L3
0 0 1 | −1 4 −1 .
Logo,  
1 −1 0
A−1 =  0 −2 1 ,
−1 4 −1
este resultado coincide com o que obtivemos calculando o determinante pela adjunta.
(b)
1 −1 2 3 | 1 0 0 0
2 1 0 1 | 0 1 0 0 L2 −→ L2 − 2L1
3 −1 1 2 | 0 0 1 0 L3 −→ L3 − 3L1
2 −1 0 1 | 0 0 0 1 L4 −→ L4 − L2
1 −1 2 3 | 1 0 0 0
0 3 −4 −5 | −2 1 0 0
∼ 0 2 −5 −7 | −3 0 1 0
1
0 −2 0 0 | 0 0 0 1 L4 −→ − L4
2
1 −1 2 3 | 1 0 0 0
0 3 −4 −5 | −2 1 0 0 L2 ←→ L4

0 2 −5 −7 | −3 0 1 0
0 1 0 0 | 1
0 2 0 − 12
1 −1 2 3 | 1 0 0 0 L1 −→ L1 + L2
0 1 0 0 | 0 12 0 − 12

0 2 −5 −7 | −3 0 1 0 L3 −→ L3 − 2L2
0 3 −4 −5 | −2 1 0 0 L4 −→ L4 − 3L2
58 Capítulo 1. Matrizes

1
1 0 2 3 | 1 2 0 − 12
1
0 1 0 0 | 0 2 0 − 12

0 0 −5 −7 | −3 −1 1 1
0 0 −4 −5 | −2 − 12 0 3 4
2 L4 −→ L4 − 5 L3
1
1 0 2 3 | 1 2 0 − 12
1
0 1 0 0 | 0 2 0 − 12

0 0 −5 −7 | −3 −1 1 1
3 2 3 4 7 5
0 0 0 5 | 5 10 − 5 10 L4 −→ 3 L4
1
1 0 2 3 | 1 2 0 − 12 L1 −→ L1 − 3L4
1
0 1 0 0 | 0 2 0 − 12

0 0 −5 −7 | −3 −1 1 1 L3 −→ L3 + 7L4
2 1 4 7
0 0 0 1 | 3 2 − 3 6

1 0 2 0 | −1 −1 4
1
0 1 0 0 | 0 2 0 − 12
∼ 5 5 25 55 1
0 0 −5 0 | 3 2 −3 6 L3 −→ − 5 L3
2 1 4 7
0 0 0 1 | 3 2 −3 6

1 0 2 0 | −1 −1 4 −4 L1 −→ L1 − 2L3
1
0 1 0 0 | 0 2 0 − 12

0 0 1 0 | − 13 − 12 5 11
3 −6
2 1 4 7
0 0 0 1 | 3 2 −3 6

1 0 1 0 | − 13 0 2
3 − 13
1
0 1 0 0 | 0 2 0 − 12
∼ 11 .
0 0 1 0 | − 31 − 12 5
3 −6
2 1 4 7
0 0 0 1 | 3 2 −3 6
Logo,
− 31 2
− 31
   
0 3 2 0 −4 2
1
0 0 − 12  1 0 −3 0 3 
A−1 = 

2
11  = − 
  ,
 − −1
1 5
− 6 2 3 −10 11 
3 2 3 6
2 1
3 2 − 43 7
6
−4 −3 8 −7
este resultado coincide com o que obtivemos calculando o determinante pela adjunta.
2. Sistemas Lineares

2.1 Sistemas de Equações Lineares

Definição 2.1.1 Uma equação da forma

a1 x1 + a2 x2 + · · · + an xn = b

é uma equação linear nas variáveis x1 , x2 , · · · , xn , reais ou complexas, com coeficientes a1 , a2 , · · · , an


e termo independente b números reais ou números complexos.

Exemplos 2.1.1 (a) As equações 2x + 4y − 3z = 5 e x − 5y + 2z − 4t = 0 são equações lineares.


(b) As equações x + xy = 0 e cos x + 3y − z = 7 não são equações lineares.

Definição 2.1.2 Uma solução de equação linear a1 x1 + a2 x2 + · · · + an xn = b, são números


α1 , α2 , · · · , αn , reais ou complexos, tais que ao substituirmos x1 por α1 , x2 por α2 , · · · , xn por αn
obtemos uma identidade, ou seja,

a1 · α1 + a2 · α2 + · · · + an · αn = b é verdadeira.
Exemplos
 2.1.2 (a)
 x = 0
1. y = 2 é solução da equação2x + 4y − 3z = 5, pois
z = 1

2 × 0 + 4 × 2 + (−3) × 1 = 8 − 3 = 5

 x = −3
y = −1 também é solução, pois
z = −5

2 × (−3) + 4 × (−1) + (−3) × (−5) = −10 + 15 = 5.


60 Capítulo 2. Sistemas Lineares


 x = 1
y = −1

(b) é solução de x − 5y + 2z − 4t = 0, pois

 z = −1
t = 1

1 + (−5) × (−1) + 2 × (−1) + (−4) × 1 = 6 − 6 = 0




 x = 1
y = 1

porém não é solução, pois

 z = 1
t = −1

1 + (−5) × 1 + 2 × 1 + (−4) × (−1) = 7 − 5 = 2 6= 0.

Exemplo 2.1.3 Para a equação linear 2x + 4y − 3z = 5 os valores x = 0, y = 2 e z = 1 constituem uma


solução, assim como x = −3, y = −1 e z = −5 também.

2.1.1 Sistemas de Equações Lineares

Definição 2.1.3 Um sistema de equações lineares real ou complexo é um sistema em que todas
as equações são lineares reais ou complexas, ou seja, é um sistema do tipo:


 a11 x1 + a12 x2 + · · · + a1n xn = b1
 a21 x1 + a22 x2 + · · · + a2n xn = b2

S: .. ,


 .
 a x + a x + ··· + a x = b
m1 1 m2 2 mn n m

nas variáveis x1 , x2 , · · · , xn , com coeficientes a11 , a12 , · · · , a1n , a21 , a22 , · · · , a2n , · · · , am1 , am2 , · · · ,
amn e b1 , b2 , · · · , bm termos independentes números reais ou números complexos.

Matricialmente temos:
     
a11 a12 · · · a1n x1 b1
 a21 a22 · · · a2n   x2   b2 
S: · = ,
     
.. .. .. .. .. ..
 . . . .   .   . 
am1 am2 · · · amn xn bm
| {z } | {z } | {z }
A X B



 A a matriz dos coeficientes de S



com X a matriz das variáveis de S .




B a matriz dos termos independentes de S

2.1 Sistemas de Equações Lineares 61

Matriz Ampliada de um Sistema Linear

Definição 2.1.4 A matriz obtida da matriz A incluindo à direita uma coluna, esta constituída pelos
termos independentes de S, é chamada matriz ampliada do sistema S e aqui indicada por M.
Logo,  
a11 a12 · · · a1n | b1
 a21 a22 · · · a2n | b2 
M =  ..
 
.. .. .. .. 
 . . . . . 
am1 am2 · · · amn | bm
.

2.1.2 Solução de um Sistema Linear

Definição 2.1.5 Uma solução de um sistema de equações lineares, real ou complexo, em n


variáveis,


 a11 x1 + a12 x2 + · · · + a1n xn = b1
 a21 x1 + a22 x2 + · · · + a2n xn = b2

S: .. , (2.1.1)


 .
 a x + a x + ··· + a x = b
m1 1 m2 2 mn n m

é uma n-upla (λ1 , λ2 , · · · , λn ) ∈ Kn tal que ao substituirmos λ1 por x1 , λ2 por x2 , · · · , λn po xn ,


todas as equações de S se verificam, ou seja,

a11 λ1 + λ12 x2 + · · · + a1n λn = b1 X


a21 λ1 + λ22 x2 + · · · + a2n λn = b2 X
..
.
am1 λ1 + λm2 x2 + · · · + amn λn = bm X



 x1 = λ1
 x2 = λ2

A solução pode ser dada na forma .. ou na forma (λ1 , λ2 , · · · , λn ).


 .
 x =λ
n n

O conjunto solução de S, indicado por Sol(S), é o conjunto de todas n-uplas (λ1 , λ2 , · · · , λn ) soluções
de S, ou seja,
Sol(S) = {λ = (λ1 , λ2 , · · · , λn ) ∈ Kn ; λ é solução de S}.

 
 x=3  x + 4y + 3z = 1
Exemplos 2.1.4 (a) y = −2 é uma solução do sistema S : 2x + 5y + 4z = 4 , pois
z=2 x − 3y − 2z = 5
 

3 + 4 × (−2) + 3 × 2 = 3 − 8 + 6 = 1
2 × 3 + 5 × (−2) + 4 × 2 = 6 − 10 + 8 = 4 .
3 − 3 × (−2) − 2 × 2 = 3 + 6 − 4 = 5

Veremos que esta é única solução de S, portanto Sol(S) = {(3, −2, 2) ∈ R3 }.


62 Capítulo 2. Sistemas Lineares

(b)

 3x − 7y − 8z = 0
−3x + 8y − 5z = 0 ←− 3x = 8(13z) − 5z = 99z ⇒ x = 33z .
− y + 13z = 0 ←− y = 13z

Logo, Sol(S) = (x, y, z) ∈ R3 ; x = 33z, y = 13z .




Proposição 2.1.5 Se um sistema linear S como 2.1.1 em K = R, C tem mais do que uma solução,
então S tem infinitas soluções.

Demonstração: Sejam (λ1 , λ2 , · · · , λn ) e (µ1 , µ2 , · · · , µn ) soluções distintas do sistema linear 2.1.1,


mostremos que (η1 , η2 , · · · , ηn ), com ηi = αλi + (1 − α)µi , α ∈ K e α 6= 1, também é solução de
2.1.1.
De fato, como (λ1 , λ2 , · · · , λn ) e (µ1 , µ2 , · · · , µn ) são soluções do sistema, então:
 

 a 11 λ1 + a 12 λ 2 + · · · + a1n λn = b 1 
 a11 µ1 + a12 µ2 + · · · + a1n µn = b1

 


 

a21 λ1 + a22 λ2 + · · · + a2n λn = b2 e a21 µ1 + a22 µ2 + · · · + a2n µn = b2
 ..  ..



 . 


 .
 a λ +a λ +···+a λ = b  a µ +a µ +···+a µ = b
m1 1 m2 2 mn n m m1 1 m2 2 mn n m

Logo, 

 a11 η1 + a12 η2 + · · · + a1n ηn
 a21 η1 + a22 η2 + · · · + a2n ηn

..


 .
 a η +a η +···+a η
m1 1 m2 2 mn n


 a11 (αλ1 + (1 − α)µ1 ) + a12 (αλ2 + (1 − α)µ2 ) + · · · + a1n (αλn + (1 − α)µn )




= a21 (αλ1 + (1 − α)µ1 ) + a22 (αλ2 + (1 − α)µ2 ) + · · · + a2n (αλn + (1 − α)µn )
 ..



 .
 a (αλ + (1 − α)µ ) + a (αλ + (1 − α)µ ) + · · · + a (αλ + (1 − α)µ )
m1 1 1 m2 2 2 mn n n


 α(a11 λ1 + a12 λ2 + · · · + a1n λn ) + (1 − α)(a11 µ1 + a12 µ2 + · · · + a1n µn )




= α(a21 λ1 + a22 λ2 + · · · + a2n λn ) + (1 − α)(a21 µ1 + a22 µ2 + · · · + a2n µn )
 ..



 .
 α(a λ + a λ + · · · + a λ ) + (1 − α)(a µ + a µ + · · · + a µ )
m1 1 m2 2 mn n m1 1 m2 2 mn n
 
 αb1 + (1 − α)b1
  b1

 αb2 + (1 − α)b2
  b2

α6=1
= .. = .. .


 . 

 .
 αb + (1 − α)b  b
m m m

Portanto, (η1 , η2 , · · · , ηn ) também é solução de 2.1.1, como podemos tomar todo α ∈ K, com α 6= 1,
segue que existem infinitas n-uplas (η1 , η2 , · · · , ηn ), consequentemente o sistema linear 2.1.1 tem
infinitas soluções.
2.1 Sistemas de Equações Lineares 63

2.1.3 Classificação de Sistemas de Equações Lineares

Classificamos um sistema de equações lineares quanto às soluções da seguinte maneira:

Sistemas Lineares Compatíveis

Definição 2.1.6 Dizemos que um sistema linear é compatível quando admite alguma solução,
dentre os sistemas lineares compatíveis temos:
(i) Os sistemas lineares possíveis determinados, que são aqueles que admitem uma única solução.
(ii) Os sistemas lineares possíveis indeterminados, que são aqueles que admitem infinitas solu-
ções.


 x + 4y + 3z = 1
Exemplos 2.1.6 (a) S : 2x + 5y + 4z = 4 , é um sistema linear compatível determi-
x − 3y − 2z = 5

 x = 3
nado, pois tem uma única solução: y = −2 .
z = 2


x + 2y + z + w = 0
(b) S : , é um sistema linear compatível indeterminado, pois
x + 3y − z + 2w = 0
x = −5z + w
tem infinitas soluções dadas por , com z e w variando nos números reais, por
 y = 2z − w

 x = −6
y = 3

exemplo é uma solução do sistema.

 z = 1
w = −1

Sistemas Lineares Incompatíveis

Definição 2.1.7 Dizemos que um sistema linear é incompatível quando não admite solução.


 2x + 3y = 4
Exemplo 2.1.7 O sistema linear é incompatível S : x + y = 6 , pois não admite solução,
3x − 4y = 0

18
já que das três equações tiramos que −8 = y = , um absurdo!
7

2.1.4 Sistema Linear Homogêneo

Definição 2.1.8 Dizemos que um sistema linear é um sistema homogêneo quando todos os termos
independentes são iguais a zero.


2x + 3y − 9z = 0
Exemplo 2.1.8 O sistema S : é homogêneo.
5x − 8y + 7z = 0
64 Capítulo 2. Sistemas Lineares

Observação 2.1.9 Todo sistema linear homogêneo admite pelo menos uma solução, que é aquela
em que todas as variáveis são iguais a zero, esta solução é chamada solução trivial.
Portanto, um sistema homogêneo é um sistema compatível determinado ou um sistema compatível
indeterminado.
No exemplo acima a solução trivial é x = y = z = 0.

2.1.5 Sistemas Equivalentes

Definição 2.1.9 Dois sistemas lineares S e S0 são equivalentes se, e somente se, toda solução de S
é solução de S0 e toda solução de S0 é solução de S.

 
 x + 4y + 3z = 1  x + 4y + 3z = 1
Exemplos 2.1.10 (a) S : 2x + 5y + 4z = 4 e S :0 − 3y − 2z = 2
x − 3y − 2z = 5  7y + 5z = −4
 
 x = 3
são equivalentes, pois a única solução de S e de S0 é y = −2 .
z = 2


  x + y + z + w = 0
x + 2y + z + w = 0 0
(b) S : e S : x + y + z − 2w = 0 não são equi-
x + 3y − z + 2w = 0
x − y + 3z  + w = 0



 x = 0 
 x = −6
y = 0 y = 3
 
valentes, pois é solução de S e de S0 , no entanto é solução de S,

 z = 0 
 z = 1
w = 0 w = −1
 
mas não é solução de S0 .

2.1.6 Operações Elementares sobre as Equações de um Sistema Linear

As operações elementares que vimos para matrizes também serão utilizadas em sistemas lineares, neste
caso são:
OE1 Permutação de duas equações, ou seja, permutamos uma i-ésima equação e uma j-ésima equação.
Notação: Ei ←→ E j .

OE2 Substituição de uma equação por ela previamente multiplicada por um número (real ou complexo)
não nulo, ou seja, substituímos uma i-ésima equação por ela multiplicada por número não nulo κ
.
Notação: Ei −→ κEi .

OE3 Substituição de uma equação por ela somada com outra equação previamente multiplicada por
um número (real ou complexo) não nulo, ou seja, substituímos uma i-ésima equação por ela
somada com uma j-ésima equação multiplicada por número não nulo κ .
Notação: Ei −→ Ei + κE j ,
com Ei a i-ésima equação do sistema linear.

 −x + 3y + 4z = 1
Exemplos 2.1.11 Seja S : 2x + y + 3z = −2 , determine o sistema linear:
5x + 3z = −7

2.2 Resolução de Sistemas Lineares 65

(a) S0 obtido de S pela operação elementar E2 ←→ E3 .


(b) S00 obtida de S pela operação elementar E1 −→ (−2)E1 .
(c) S000 obtida de S pela operação elementar E2 −→ E2 + 2E1 .
Solução:

 −x + 3y + 4z = 1
(a) S0 : 5x + 3z = −7 E2 ←→ E3 .
2x + y + 3z = −2


 2x − 6y − 8z = −2 E1 −→ (−2)E1
00
(b) S : 2x + y + 3z = −2 .
5x + 3z = −7


 −x + 3y + 4z = 1
00
(c) S : 7y + 11z = 0 E2 −→ E2 + 2E1
5x + 3z = −7

Teorema 2.1.12 Dois sistemas lineares S e S0 são equivalentes se, e somente se, S0 pode ser obtido
de S através de uma número finito de operações elementares sobre as equações de S.

2.2 Resolução de Sistemas Lineares

2.2.1 Posto e Nulidade de uma Matriz

Definição 2.2.1 Sejam A uma matriz em Mm×n (K) e B a sua matriz equivalente na forma escada.
(i) O posto de A, denotado por p(A), é o número de linhas não nulas de B.
(ii) A nulidade de A, denotada por null(A), é a diferença entre n, o número de colunas de A, e o
posto de A, ou seja, null(A) = n − p(A).

Propriedade 2.2.1 Se A é uma matriz de ordem m × n, então p(A) ≤ min{m, n}.

De fato, se m ≤ n, então min{m, n} = m, como p(A) ≤ m segue o resultado.


Por outro lado, se m > n, como A tem n colunas, então A tem no máximo n pivôs, logo ao escalonar A
teremos no máximo n linhas não nulas, portanto p(A) ≤ n = min{m, n}.

Observações 2.2.2 (a) Para determinar o posto de uma matriz basta encontrar a sua forma escalo-
nada, pois o número de linhas nulas da forma escalonada é igual ao da forma escada.
(b) Note que null(A) ≥ 0, de fato, pois p(A) ≤ min{m, n} ≤ n =⇒ (A) ≥ −n, consequentemente,
null(A) = n − p(A) ≥ 0.
(c) Dado S : A · X = B um sistema de equações lineares com m equações e n variáveis, em R ou em
C, sendo p(A) o posto de A matriz dos coeficientes de S e p(M) o posto de M matriz ampliada
de S, então p(A) ≤ p(M).
De fato, pois p(A) ≤ min{m, n} e p(M) ≤ min{m, n + 1}.
66 Capítulo 2. Sistemas Lineares

Proposição 2.2.3 Uma matriz A ∈ Mn (K) é invertível se, e somente se, p(A) = n é máximo.

Demonstração: Seja A ∈ Mn (K), então

Teo.1.4.10
A é invertível ⇐⇒ A é linha equivalente a In ⇐⇒ p(A) = n.

Exemplos 2.2.4 Em cada caso determine o posto da matriz A e da matriz AM :


   
1 4 3 1 4 3 | 1
(a) A =  2 5 4  e M= 2 5 4 | 4 .
1 −3 −2 1 −3 −2 | 5
   
1 2 1 1 1 2 1 1 | 1
(b) A = e M= .
1 3 −1 2 1 3 −1 2 | −4
   
2 3 2 3 | 4
(c) A =  1 1  e M= 1 1 | 6 .
3 −4 3 −4 | 0

Solução:
(a) Comcálculo simples
 constatamos que det A = 1 6= 0, portanto a forma escada de A é
1 0 0
I3 =  0 1 0 .
0 0 1
1 4 3 | 1 1 4 3 | 1
Como 2 5 4 | 4 L2 −→ L2 − 2L1 ∼ 0 −3 −2 | 2
1 −3 −2 | 0 L3 −→ L3 − 3L1 0 −7 −5 | 1 L3 −→ 7L2 − 3L3

1 4 3 | 1 L1 −→ L1 − 3L3 1 4 0 | −32
0 −3 −2 | 2 L2 −→ L2 + 2L2 ∼ 0 −3 0 | 24 L2 −→ − 13 L2
0 0 1 | 11 L3 0 0 1 | 11

1 4 0 | −32 L1 −→ L1 − 4L2 1 0 0 | 4
0 1 0 | −8 ∼ 0 1 0 | −8 .
0 0 1 | 11 0 0 1 | 11
 
1 0 0 | 4
segue que a forma escada de AM é  0 1 0 | −8 .
0 0 1 | 11

Logo, p(A) = p(M) = 3.

1 2 1 1 | 1
(b) Como
1 3 −1 2 | −4 L2 −→ L2 − L1

1 2 1 1 | 1 L1 −→ L1 − 2L2 1 0 5 −1 | 11
∼ ∼ ,
0 1 −2 1 | −5 0 1 −2 1 | −5
2.2 Resolução de Sistemas Lineares 67
 
1 0 5 −1
segue que a forma escada de A é e a
  0 1 −2 1
1 0 5 −1 | 11
forma escada de AM é .
0 1 −2 1 | −5

Logo, p(A) = p(M) = 2.

2 3 | 4 1 1 | 6
(c) Como 1 1 | 6 L1 ←→ L2 ∼ 2 3 | 4 L2 −→ L2 − 2L1
3 −4 | 0 3 −4 | 0 L3 −→ L3 − 3L1

1 1 | 6 L1 −→ L1 − L2 1 0 | −14
∼ 0 1 | −8 ∼ 0 1 | −8 ,
0 −7 | −18 L3 −→ L3 + 7L2 0 0 | −74
   
1 0 1 0 | 14
segue que a forma escada de A é 0
 1  e a forma escada de AM é  0 1 | −8 .
0 0 0 0 | −74

Logo, p(A) = 2 e p(M) = 3.

2.2.2 Teorema do Posto


Teorema 2.2.5 (Teorema do Posto)
Seja S : A · X = B um sistema de equações lineares com m equações e n variáveis, em R ou em C,
p(A) o posto de A matriz dos coeficientes de S e p(M) o posto de M matriz ampliada de S, então:
(i) S admite solução se, e somente se, p(A) = p(M).
(ii) p(A) = p(M) = n se, e somente se, S tem uma única solução.
(iii) p(A) = p(M) = k < n se, e somente se, S tem infinitas soluções. Além disso, o conjunto
solução de S tem n − k variáveis livres.

Demonstração: Sejam A = [ai j ] ∈ Mm×n (K) e M = [ai j | bi ] ∈ Mm×(n+1) (K), a matriz dos coeficientes
e a matriz ampliada de S, respectivamente, então p(A) ≤ p(M) e:
(i) p(A) < p(M) se, e somente se, a última linha não nula da forma escalonada reduzida da matriz
0
ampliada é da forma 0 · · · 0 bk com b0k 6= 0, com k ≤ m, ou seja, S ∼ S0 e S0 : A0 · X = B0 ,
 

com A0 matriz escalonada de A tendo a k-ésima de linha nula e b0k uma constante não nula é a
k-ésima de linha de B0 , levando à equação 0 = b0k , uma contradição!, portanto S não tem solução.
Logo, S tem solução se, e somente se, p(A) = p(M).
(ii) p(A) = p(M) = n se, e somente se, S ∼ S0 , com S0 : A0 · X = B0 sistema de equações lineares que
tem matriz dos coeficientes e a matriz ampliada associadas, ambas, na forma escalonada como
abaixo:

1 c12 · · · c1n 1 c12 · · · c1n b01


   
 0 1 · · · c2n   0 1 · · · c2n b02 
 . .
 . . . . . .. 
 . .
 . . . . . ..
 
 . . .   . . .


0 0 0
A =  0 0 ··· 1  e M =  0 0 · · · 1 bn  .
   
 0 0 ··· 0   0 0 ··· 0 0 
   
 . . .
. . ...   ... ... . . . ... .. 
 
 .. .. . 
0 0 ··· 0 0 0 ··· 0 0
68 Capítulo 2. Sistemas Lineares

Logo, a representação matricial de S0 é:

· · · c1n b01
   
1 c12
 0 1 · · · c2n     b02 
 .. .. ... . .  x1  .. 
. . .   x .
  
   
  2
S0 :  0 0 · · · 1  ·  .. = b0n ,
   
  .
0 0 ··· 0  0
   
  
 .. .. .. .  xn  .. 
 . . . ..   . 
0 0 ··· 0 0

cuja solução é xn = b0n , xn−1 = b0n−1 − cn−1 n · xn , fazendo as sucessivas substituições obtemos a
única solução de S0 e de S.
(iii) p(A) = p(M) = k < n se, e somente se, S ∼ S0 , com S0 : A0 · X = B0 sistema de equações lineares
que tem matriz dos coeficientes e a matriz ampliada associadas, ambas, na forma escalonada
como abaixo:

· · · c1k · · · c1n · · · c1k · · · c1n b01


   
1 c12 1 c12
 0 1 · · · c2k · · · c2n   0 1 · · · c2k · · · c2n b02 
 .. .. .. .. .. .   .. .. .. .. .. . .. 

 . . . . . .. 

 . . . . . .. . 

0 0
A = 0 0 ··· 1 · · · ckn  e M = 0 0 ··· 1 · · · ckn b0k  .
   
0 0 ··· 0 ··· 0  0 0 ··· 0 ··· 0 0 
   
 
 .. .. .. .. . . . ..   .. .. .. .. .. . .. 
 . . . . .   . . . . . .. . 
0 0 ··· 0 ··· 0 0 0 ··· 0 ··· 0 0

Logo, a representação matricial de S0 é:

· · · c1k · · · c1n b01


     
1 c12 x1
 0 1 · · · c2k · · · c2n   x2   b02 
 .. .. .. .. .. .   ..   .. 

 . . . . . ..  

.
 
  .


S0 :  0 0 ··· 1 · · · ckn  ·  xk = b0k .
     
0 0 ··· 0 ··· 0   xk+1 0
     
   
 .. .. .. .. .. .   ..   .. 
 . . . . . ..   .   . 
0 0 ··· 0 ··· 0 xn 0

Consequentemente, xk = b0k − ck k+1 · xk+1 − · · · − ck n · xn , e portanto, as variáveis xk+1 , · · · , xn


variam em R. Fazendo as sucessivas substituições encontramos as expressões de x1 , · · · , xk−1
que determinam as infinitas soluções de S0 e S.

Observação 2.2.6 O número n − k =null(A) do item (iii) do Teorema do Posto (2.2.5) é chamado
grau de liberdade do sistema linear S.

Exemplos 2.2.7 Classifique os sistemas lineares abaixo em possível determinado, possível indetermi-
nado e impossível utilizando o teorema do posto.

 x + 4y + 3z = 1 
x + 2y + z + t = 1
(a) 2x + 5y + 4z = 4 ; (b) ;
x + 3y − z + 2t = −4
x − 3y − 2z = 5

2.3 Métodos de Resolução de Sistemas Lineares 69
 

 x + y + z + t = 0 
 x − y + z = 3
x + y + z − t = 4 x − y − 3z = −3
 
(c) ; (d)

 x + y − z + t = −4 
 3x + 3y − 5z = 0
x − y + z + t = 2 −x + y + z = 1
 

Solução:
(a) Do exemplo 2.2.4 (a) temos p(A) = p(M) = 3 = número de variáveis do sistema, portanto o
sistema tem uma única solução, ou seja, é compatível determinado.
(b) Do exemplo 2.2.4 (b) temos p(A) = p(M) = 2 < número de variáveis do sistema, portanto o
sistema tem infinitas soluções, ou seja, é compatível indeterminado.
 
1 1 1 1
 1 1 1 −1 
(c) Fazendo alguns cálculos concluímos que a forma escada de A =   é a matriz
 1 1 −1 1 
1 −1 1 1
   
1 1 1 1 | 0 1 0 0 0 | −1
 1 1 1 −1 | 4  tem forma escada  0 1 0 0 | −1 .
 
identidade I4 e M =  1 1 −1 1 | −4   0 0 1 0 | 2 
1 −1 1 1 | 2 0 0 0 1 | −2
Logo, p(A) = p(M) = 4 = número de variáveis do sistema, portanto o sistema tem uma única
solução, ou seja, é compatível determinado.
   
1 −1 1 | 3 1 −1 1 | 3
 1 −1 −3 | −3  1 4/3 | −3/2 
 tem forma escalonada  0

(d) A matriz M =  .
 3 3 −5 | 0   0 0 1 | 3/2 
−1 1 1 | 1 0 0 0 | 1/2
Portanto, p(A) = 3 6= p(M) = 4, consequentemente o sistema não tem solução, ou seja, é
incompatível.

2.3 Métodos de Resolução de Sistemas Lineares

Dado um sistema de equações lineares




 a11 x1 + a12 x2 + · · · + a1n xn = b1




S: a21 x1 + a22 x2 + · · · + a2n xn = b2
 ..



 .
 a x + a x + ··· + a x = b
m1 1 m2 2 mn n m

Lembremos que a matriz dos coeficientes de S e matriz ampliada de S são dadas, respectivamente, por:
   
a11 a12 · · · a1n a11 a12 · · · a1n | b1
 a21 a22 · · · a2n   a21 a22 · · · a2n | b2 
A =  .. e M = ..  .
   
.. .. ..   .. .. .. ..
 . . . .   . . . . | . 
am1 am2 · · · amn am1 am2 · · · amn | bm
Vamos analisar a A e M e aplicar o Teorema do Posto (2.1.12, para determinar o conjunto solução de
S aplicamos as operações elementares de linhas, utilizando a técnica da eliminação.
70 Capítulo 2. Sistemas Lineares

2.3.1 Método da Eliminação de Gauss-Jordan

O método de Gauss-Jordan consiste em efetuar operações elementares sobre as linhas da matriz


ampliada do sistema, até obter sua forma reduzida na forma escada.
A matriz ampliada reduzida à forma escada nos fornecerá a(s) solução(ões) ou alguma incompatibili-
dade.
A vantagem deste processo é que um sistema cuja matriz ampliada é uma matriz na forma escada tem
solução(ões) ou incompatibilidade imediata(s).

Verificando se o sistema é compatível ou incompatível

Corolário 2.3.1 (Do teorema do posto)


Um sistema de equações lineares não tem solução se,e somente se,a última linha não nula da forma
escalonada reduzida da matriz ampliada é da forma 0 · · · 0 b0m com b0m 6= 0.

Observação 2.3.2 Para se encontrar a solução de um sistema linear não é necessário transformar
a matriz ampliada do sistema na sua forma escalonada reduzida, mas se a matriz está nesta forma, o
sistema associado é o mais simples possível.

2.3.2 Método de Eliminação de Gauss ou do Escalonamento

Um outro método de resolução de sistemas de equações lineares, chamado método de Gauss, consiste
em efetuar operações elementares sobre as linhas da matriz ampliada do sistema até obter uma forma
escalonada.

Verificando se o sistema é compatível ou incompatível

O corolário acima também se aplica a este método, ou seja, o sistema de equações lineares não tem
solução se, e somente se, a última linha não nula da forma escalonada da matriz ampliada é da forma
0 · · · 0 b0m com b0m 6= 0.


No caso em que o sistema tenha solução, para obte-las, após reduzir a matriz ampliada à forma
escalonada, devemos fazer as devidas substituições e obter a(s) solução(ões).
A vantagem deste processo é que o número de operações elementares a serem realizadas é bem menor
do que o método de Gauss-Jordan.

Exemplos 2.3.3 Resolva os seguintes sistemas lineares:



 x + 4y + 3z = 1 
x + 2y + z + w = −1
(a) S : 2x + 5y + 4z = 4 ; (b) S : ;
x + 3y − z + 2w = 3
x − 3y − 2z = 5

 
 2x + 3y = 4  x + 2y + 2z + 2w = 0
(c) S : x + y = 6 ; (d) S : 2x + 4y + 6z + 8w = 0 .
3x − 4y = 0 3x + 6y + 8z + 10w = 0
 
2.3 Métodos de Resolução de Sistemas Lineares 71

Solução:
 
1 4 3 | 1
(a) A matriz ampliada de S é  2 5 4 | 4 , escalonando obtemos:
1 −3 −2 | 5
   
1 4 3 | 1 1 4 3 | 1
 2 5 4 | 4  L2 −→ L2 − 2L1 ∼  0 −3 −2 | 2  L2 −→ − 13 L2
1 −3 −2 | 5 L3 −→ L3 − L1 0 −7 −5 | 4
   1 11 
1 4 3 | 1 L1 −→ L1 − 4L2 1 0 3 | 3
2 2  2 2 
∼ 0 1 3 | −3 ∼ 0 1 3 | −3
0 −7 −5 | 4 L3 −→ L3 + 7L2 0 0 − 13 | − 32 L3 −→ −3L3

1 0 31 | 11 L1 −→ L1 − 13 L3
   
3 1 0 0 | 3
∼  0 1 23 | − 23  L2 −→ L2 − 23 L3 ∼  0 1 0 | −2  .
0 0 1 | 2 0 0 1 | 2

 x = 3
Logo, a solução do sistema é y = −2 .
z = 2

 
1 2 1 1 | −1
(b) A matriz ampliada de S é , escalonando obtemos:
1 3 −1 2 | 3

   
1 2 1 1 | −1 1 2 1 1 | −1 L1 −→ L1 − 2L2

1 3 −1 2 | 3 L2 −→ L2 − L1 0 1 −2 1 | 4
 
1 0 5 −1 | −9
∼ .
0 1 −2 1 | 4

Logo, a solução do sistema é


 
x + 5z − w = −9 x = −9 − 5z + w
⇐⇒ ,
y − 2z + w = 4 y = 4 + 2z − w
com z e w em R.
 
2 3 | 4
(c) A matriz ampliada de S é  1 1 | 6 , escalonando obtemos:
3 −4 | 0

   
2 3 | 4 1 1 | 6
L ←→ L2 L −→ L2 − 2L1
 1 1 | 6  1 ∼ 2 3 | 4  2
L3 −→ L3 − 3L1
3 −4 | 0 3 −4 | 0
   
1 1 | 6 L1 −→ L1 − L2 1 0 | 14
∼ 0 1 | −8  ∼  0 1 | −8  .
0 −7 | −18 L3 −→ L3 + 7L2 0 0 | −74

Logo, o sistema não tem solução, pois a última linha da matriz na forma escada nos diz que
0 = −74 um absurdo!
72 Capítulo 2. Sistemas Lineares
 
1 2 2 2 | 0
(d) A matriz ampliada de S é  2 4 6 8 | 0 , escalonando obtemos:
3 6 8 10 | 0

   
1 2 2 2 2 | 0 1 2 2 2 2 | 0
L −→ 12 L2
 2 4 6 8 10 | 0  L2 −→ L2 − 2L1 ∼ 0 0 2 4 6 | 0  2
L3 −→ L3 − L2
3 6 8 10 12 | 0 L3 −→ L3 − 3L1 0 0 2 4 6 | 0
 
1 2 2 2 2 | 0
∼ 0 0 1
 2 3 | 0 .
0 0 0 0 0 | 0

Logo, a solução do sistema linear tem infinitas soluções:


 
x + 2y + 2z + 2w + 2t = 0 x = −2y − 2z − 2w − 2t
⇐⇒
z + 2w + 2t = 0 z = −2w − 2t

Substituindo z = −2w − 2t na primeira equação obtemos:



x = −2y + 2w + 2t
com y, w e t em R.
z = −2w − 2t

Observação 2.3.4 Os sistemas lineares dos exemplos (b) e (d) têm infinitas soluções, abaixo temos
a forma escalonada (uma reduzida e a outra não) das matrizes ampliadas, indicando acima as variáveis
livres e abaixo as variáveis dependentes:

z w y w t
 ↓ ↓   ↓ ↓ ↓ 
1 0 5 −1 | −9 1 2 2 2 2 | 0
e
0 1 −2 −1 | 4 0 0 1 2 3 | 0
↑ ↑ ↑ ↑
x y x z

De modo geral, no caso em que p(A) = p(M) < n, na matriz ampliada escalonada as colunas que têm
um pivô de alguma linha correspondem às variáveis dependentes e as outras colunas correspondem às
variáveis livres, no exemplo (b) são z e w, já no exemplo (d) são y, w e t.

2.3.3 Método de Resolução da Matriz Inversa

Seja 

 a11 x1 + a12 x2 + · · · + a1n xn = b1




S: a21 x1 + a22 x2 + · · · + a2n xn = b2
 ..



 .
 a x + a x + ··· + a x = b
n1 1 n2 2 nn n n

um sistema de equações lineares, tal que:


(i) O número de equações de S é igual ao número de variáveis.
(ii) Matriz S dos coeficientes de S é invertível.
2.3 Métodos de Resolução de Sistemas Lineares 73

Observação 2.3.5 Como A é invertível e m = n, ao escalonar M, a matriz ampliada deS, obtemos uma
matriz M 0 , uma forma escalonada de M, tal que então a última linha de M 0 é da forma 0 · · · 0 a0nn b0n


com a0nn 6= 0.
Consequentemente, S é compatível determinado.

Para determinar a solução tomamos a forma matricial de S: A · X = B, como estamos supondo que A é
invertível, então existe A−1 e resolvemos o sistema da seguinte maneira:

A · X = B ⇐⇒ A−1 · (A · X) = A−1 · B ⇐⇒ (A−1 · A) ·X = A−1 · B ⇐⇒ X = A−1 · B.


| {z }
In

Assim, se S : An×n · Xn×1 = Bn×1 , com det A 6= 0, então a solução de S é X = A−1 · B.



 2x + y + z = 15
Exemplo 2.3.6 Resolva o sistema x + y + z = 6 pelo método da matriz inversa.
2x + 3y + 2z = 10

Solução:
A forma matricial do sistema acima é:
     
2 1 1 x 15
 1 1 1 · y  =  6 .
2 3 2 z 10
| {z } | {z } | {z }
A X B
 
2 1 1
Vimos na seção de matriz inversa que a matriz dos coeficientes A =  1 1 1  é invertível, e sua
  2 3 2
1 −1 0
inversa é A−1 =  0 −2 1 .
−1 4 −1
Logo, pelo método da matriz inversa a solução do sistema é:
       
x 1 −1 0 15 9
 y  =  0 −2 1  ·  6  =  −2  .
z −1 4 −1 10 −1

Observações 2.3.7 Um sistema de equações lineares em que o número de equações é igual ao


número de variáveis é chamado sistema linear quadrado. Dado S um sistema linear quadrado com
matriz dos coeficientes A temos:
(a) Se det A 6= 0, então S tem uma única solução.
(b) Se det A = 0, então ou S tem infinitas soluções ou S não tem solução.
(c) Se S é homogêneo e det A 6= 0, então a única solução de S é a solução trivial.
(d) Se S é homogêneo e det A = 0, então S tem infinitas soluções.
(e) Um sistema linear quadrado em que det A 6= 0 é também chamado um sistema de Cramer.
74 Capítulo 2. Sistemas Lineares

2.3.4 Método de Resolução da Regra de Cramer

Na seção 2.3.3 vimos que se S : A · X = B é um sistema de equações lineares em que A ∈ Mn (K) e


det A 6= 0, então S tem uma única solução dada por: X = A−1 · B.
1
Mas sabemos do Teorema 1.3.6 que A−1 = · adj (A), portanto:
det A
     
x1 ∆11 ∆21 · · · ∆n1 b1
 ∆12 ∆22 · · · ∆n2   b2 
 x2  1    
X =  ..  = ·  .. · ,
 
.. .. . .
..   .. 
 .  det A  .
 
. . 
xn ∆1n ∆2n · · · ∆nn bn
com ∆i j o cofator de ai j .
Logo,  
  b1 · ∆11 + b2 · ∆21 + · · · + bn · ∆n1
x1  
 x2  1  
X = = ·  b1 · ∆12 + b2 · ∆22 + · · · + bn · ∆n2 .
   
..
 . det A  .. 
 . 
xn
b1 · ∆1n + b2 · ∆2n + · · · + bn · ∆nn
Pela definição de determinantes temos:


b1 a12 · · · a1n
b2 a22 · · · a2n
b1 · ∆11 + b2 · ∆21 + · · · + bn · ∆n1 =

.. .. .. .
. . . ..

bn an2 · · · ann


a11 b1 · · · a1n
a21 b2 · · · a2n
b1 · ∆12 b2 · ∆22 + · · · + bn · ∆n2 =

.. .. .. . .
. . . ..

an2 bn · · · ann
..
.

a11 a12 · · · b1
a21 a22 · · · b2
b1 · ∆1n b2 · ∆2n + · · · + bn · ∆nn =

.. .. .. .
. . . ..

an2 ann · · · bn
Consequentemente, sendo Ai a matriz obtida da matriz A substituindo a i-ésima coluna pela matriz
coluna B dos coeficientes independentes do sistema, ou seja,
 
a11 · · · a1 i−1 b1 a1 i+1 · · · a1n
 a21 · · · a2 i−1 b2 a2 i+1 · · · a22 
Ai =  .. ..  ,
 
.. .. . . .. ..
 . . . . . . . 
an2 · · · an i−1 bn an i+1 · · · ann
para i ∈ {1, · · · , n}, então a única solução do sistema linear S é
 
x1
 x2  D1
X =  ..  , com xi = , Di = det Ai e D = det A, para i ∈ {1, · · · , n}.
 
 .  D
xn
2.3 Métodos de Resolução de Sistemas Lineares 75

Este método de resolução de sistemas lineares quadrados com matriz dos coeficientes invertível é
chamado Regra de Cramer.
Exemplos 2.3.8 Resolva os seguintes sistemas lineares pela regra de Cramer:

  2x + 3y − z = 1
2x − 3y = 7
(a) S : ; (b) S : 3x + 5y + 2z = 8 .
3x + 5y = 1
x − 2y − 3z = −1

Solução:

2 −3 7 −3 2 7
(a) D = 3 1 = 2 − 21 = −19.
= 19, D1 = = 35 + 3 = 38 e D2 =
3 5 1 5
38 −19
Logo, x = =2 e y= = −1, consequentemente, a única solução do sistema é {(2, −1)}.
19 19
2
3 −1 L1 ←→ L3

1 −2 −3

D = 3 5 2 = − 3 5 2 L2 −→ L2 − 3L1
1 −2 −3 2 3 −1 L3 −→ L3 − 2L1

1 −2 −3 1 −2 −3
1

(b) = − 0 11 11 L2 −→ 11 L2 = (−11) × 0 1 1
0
7 5
0 7 5 L3 −→ L3 − 7L2
1 −2 −3

= (−11) × 0 1 1 = (−11) × (−2) = 22,
0 0 −2

1
3 −1

1
3 −1

D1 = 8 5 2 L2 −→ L2 − 8L1 = 0 −19 10 L2 ⇐⇒ L3

−1 −2 −3 L3 −→ L3 + L1
1 −4
0

1
3 −1 1 3 −1

= − 0 1 −4 = − 0 1 −4 = −(−66) = 66,
0 −19 10 L3 −→ L3 + 19L2 0 0 −66

2
1 −1 L1 ←→ L3

1 −1 −3

D2 = 3 8 2 = − 3 8 2 L2 −→ L2 − 3L1
1 −1 −3 2 1 −1 L3 −→ L3 − 2L1

1 −1 −3 1 −1 −3

= − 0 11 11
= − 0 11 11 = −22,
0 3 5 L3 −→ L3 − 11 3 0 0 2
L2

2
3 1 L1 ←→ L3 1 −2 −1

D3 = 3 5 8 = − 3 5 8 L2 −→ L2 − 3L1
1 −2 −1 2 3 1 L3 −→ L3 − 2L1

1 −2 −1 1 −2 −1

= − 0 11 11
= − 0 11 11 = −(−44) = 44.
0 7 3 L3 −→ L3 − 11 7 0 0 −4
L2
66 −22 44
Logo, x = = 3, y = = −1 e z = = 2, consequentemente, a única solução do
22 22 22
sistema é {(3, −1, 2)}

Resolva os seguintes sistemas lineares:



2x + 4y = 16 
 2x + 4y = 16


5x − 2y = 4

(a) ; (b) 5x − 2y = 4 ;
3x + y = 9
10x − 4y = 3

 
4x − y = −7

76 Capítulo 2. Sistemas Lineares

 2x + y + 7z = 3 
x − 4y + 12z + 9w = 42
(c) x + 3y + 2z = 5 ; (d) ;
2x − 7y + 26z + 21w = 85
5x + 3y + 4z = −5

 
 3x − 7y + 8z − 5w + 8t = 9  x + 4y + 6z = 11
(e) 3y − 6z + 6w + 4t = −5 ; (f) 2x + 3y + 4z = 9 ;
3x − 9y + 12z − 9w + 6t = 15 3x + 2y + 2z = 7
 

  3x + 5y − 4z = 0
x + 3y − 3z = 7
(g) ; (h) −3x − 2y + 4z = 0 ;
3x + 9y − 4z = 1
6x + y − 8z = 0

 
 x − 2y − z + 3w = 0  3x + 6y − 4z − w = 0
(i) −2x + 4y + 5z − 5w = 3 ; (j) −5x + 8z + 3w = 0 .
x − 2y + 2z + 4w = 5 8x − y + 7w = 0
 
II
Espaços Vetoriais

3 Espaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.1 Espaços Vetoriais
3.2 Subespaços Vetoriais
3.3 Soma, Soma Direta e Intersecção de Subespaços

4 Base e Dimensão de Espaços Vetoriais . . . . . . . . . . . . 99


4.1 Combinação Linear e Subespaço Gerado
4.2 Dependência e Independência Linear
4.3 Base e Dimensão
4.4 Coordenadas de um Vetor
4.5 Matriz Mudança de Base

5 Espaços Vetoriais com Produto Interno . . . . . . . . . . . 125


5.1 Produto Interno em Espaços Vetoriais Reais
5.2 Produto Interno em Espaços Vetoriais Complexos
5.3 Bases Ortogonais e Bases ortonormais
5.4 Processo de Ortogonalização de Gram-Schmidt
5.5 Complemento Ortogonal
3. Espaços Vetoriais

3.1 Espaços Vetoriais

Definição 3.1.1 Um espaço vetorial consiste em:


(1) Um conjunto não vazio V de objetos, denominados vetores.

(2) Um corpo de números (escalares), denotado por K.

(3) Uma operação de adição de vetores de V , que a cada par de elementos u, v ∈ V associa um
elemento u + v ∈ V e satisfaz as seguintes propriedades:
A1 u + v = v + u para quaisquer u e v em V ; comutativa.
A2 (u + v) + w = u + (v + w) para quaisquer u, v e w em V ; associativa.
A3 Existe um elemento 0V em V tal que u + 0V = u para todo u em V ; existência de
elemento neutro.
A4 Para todo elemento u em V existe o elemento −u também em V tal que u + (−u) = 0V ;
existência de elemento simétrico.

(4) Uma operação de multiplicação por escalar, que a cada par de elementos u ∈ V e α ∈ K
associa um elemento α · u ∈ V e satisfaz as seguintes propriedades:

M1 α · (β · u) = (α · β ) · u para quaisquer u ∈ V e α e β em K.

M2 α · (u + v) = α · u + α · v para quaisquer u e v em V e todo e α em K; distributiva


da adição.

M3 (α + β ) · u = α · u + β · u para todo u ∈ V e quaisquer e α e β em K; distributiva da


multiplicação por escalar.

M4 Existe 1K tal que 1K · u = u para todo u ∈ V ; existência de unidade.


80 Capítulo 3. Espaços Vetoriais

Observações 3.1.1 (a) Também denotamos o espaço vetorial V por (V, +, ·), com + a adição de
vetores e · a multiplicação por escalar.
(b) Também denominamos o espaço vetorial V por espaço vetorial sobre o corpo K.
(c) No caso em que K = R, dizemos que V é um espaço vetorial real.
(d) No caso em que K = C, dizemos que V é um espaço vetorial complexo.
(e) O elemento neutro da adição é único.
De fato, se existissem dois elementos neutros 0V e 0V0 teríamos:
0V = 0V + 0V0 = 0V0 + 0V = 0V0 ,
provando a unicidade.
(f) Para cada u ∈ V existe um único simétrico em relação à adição.
De fato, se u tivesse dois simétricos −u e −u0 teríamos:

(−u) = 0V + (−u) = u + (−u0 ) + (−u) = u + (−u) + (−u0 ) = 0V + (−u0 ) = −u0 ,


 

provando a unicidade.

3.1.1 Exemplos de Espaços Vetoriais

Alguns conjuntos numéricos que conhecemos têm estrutura de espaços vetoriais tais como:
Exemplos 3.1.2 (a) O conjunto do números reais, R, com as operações usuais de adição e multipli-
cação de números reais, é um espaço vetorial real.
(b) O conjunto do números complexos, C, com as operações usuais de adição e multiplicação de
números complexos, é um espaço vetorial complexo, considerando o corpo dos escalares como
sendo K = C.
Também podemos considerar o conjunto do números complexos, C, com corpo de escalares
K = R. Neste caso, C é um espaço vetorial real.

Espaços Vetoriais Euclidianos

Sabemos que R é o conjunto dos números reais.


O produto cartesiano R × R, indicado por R2 , é o conjunto de todos os pares ordenados (x, y) de
números reais.
Assim,
R2 = {(x, y); x e y ∈ R}.
Analogamente, o produto cartesiano R × R × R, indicado por R3 , é o conjunto de todas as ternas
ordenadas (x, y, z) de números reais.
Logo,
R3 = {(x, y, z); x, y e z ∈ R}.
n
| ×R×
De modo geral, o produto cartesiano R {z· · · × R}, R , com n ∈ N e n ≥ 2, é o conjunto de todas
n vezes
n-uplas (x1 , x2 , · · · , xn ) de números reais.
Portanto,
Rn = {(x1 , x2 , · · · , xn ); x1 , x2 , · · · , xn ∈ R}.
3.1 Espaços Vetoriais 81

Observação 3.1.3 Podemos denotar os elementos de Rn como matriz linha ou matriz coluna, por
exemplo,  
x1
   x2 
u = (x1 , x2 , · · · , xn ) = x1 x2 · · · xn = .
 
..
 . 
xn
Igualdade em Rn
Dados u = (x1 , x2 , · · · , xn ) e v = (y1 , y2 , · · · , yn ) em Rn temos:


 x1 = y1
 x2 = y2

u = v ⇐⇒ (x1 , x2 , · · · , xn ) = (y1 , y2 , · · · , yn ) ⇐⇒ ..


 .
 x =y
n n

Adição em Rn
Dados u = (x1 , x2 , · · · , xn ) e v = (y1 , y2 , · · · , yn ) em Rn , a adição de u e v, denotada por u + v é dada
por:
u + v = (x1 , x2 , · · · , xn ) + (y1 , y2 , · · · , yn ) = (x1 + y1 , x2 + y2 , · · · , xn + yn ).
Propriedades da Adição em Rn
Sejam u = (x1 , x2 , · · · , xn ), v = (y1 , y2 , · · · , yn ) e w = (z1 , z2 , · · · , zn ) elementos quaisquer em Rn e
0Rn = (0, 0, · · · , 0) , denotemos por −u = (−x1 , −x2 , · · · , −xn ), então valem:
| {z }
n−upla de zeros
A1 u + v = v + u.
A2 (u + v) + w = u + (v + w).
A3 u + 0Rn = u.
A4 u + (−u) = 0Rn .
Multiplicação por Escalar em Rn
Dados u = (x1 , x2 , · · · , xn ) em Rn e α ∈ R a multiplicação de u por α, denotada por α · u é dada por:
α · u = α · (x1 , x2 , · · · , xn ) = (α · x1 , α · x2 , · · · , α · xn ).

Propriedades da Multiplicação por Escalar em Rn


Sejam u = (x1 , x2 , · · · , xn ) e v = (y1 , y2 , · · · , yn ) elementos quaisquer em Rn , α e β em R, então valem:
ME1 α · (u + v) = α · u + α · v.
ME2 (α + β ) · u = α · u + β · u.
ME3 (α · β ) · u = α · (β · u).
ME4 1 · u = u.
Das propriedades A1 − A4 e ME1 − ME4 segue que Rn , com a adição e multiplicação por escalar
definidas acima, é um espaço vetorial real, chamado espaço vetorial euclidiano.

Observação 3.1.4 De maneira análoga definimos em Cn = {(z1 , · · · , zn ); z1 , · · · , zn ∈ C}, conjunto


de todas as n-uplas complexas, a adição e a multiplicação por escalar.
No caso em que os escalares são números reais damos a Cn uma estrutura de espaço vetorial real; e no
caso que os escalares são números complexo Cn é um espaço vetorial complexo.
82 Capítulo 3. Espaços Vetoriais

Exercicío 3.1 Considere o conjunto V = {(x, y) ∈ R2 ; x > 0} com as operações:


Adição: (x1 , y1 ) ⊕ (x2 , y2 ) = (x1 · x2 , y1 + y2 ).
Multiplicação por Escalar: α (x, y) = (xα , α · y), para todo α ∈ R.
(a) Mostre que V é um espaço vetorial real.
(b) Exiba o elemento neutro da adição ⊕.
(c) Exiba o simétrico aditivo de (x, y).
(d) Exiba a unidade da operação .


Solução:
• A adição está bem definida, pois dados (x1 , y1 ) e (x2 , y2 ) em V , então x1 > 0 e x2 > 0.
Como (x1 , y1 ) ⊕ (x2 , y2 ) = (x1 · x2 , y1 + y2 ) ∈ V, pois x1 · x2 > 0.
|{z} |{z}
>0 >0
• A multiplicação por escalar está bem definida, pois dados (x, y) em V , então x > 0.
x>0
Como α (x, y) ⊕ (x2 , y2 ) = (xα , α · y) ∈ V, pois xα > 0.
• (x1 , y1 ) ⊕ (x2 , y2 ) = (x1 · x2 , y1 + y2 ) = (x2 · x1 , y2 + y1 ) = (x2 , y2 ) ⊕ (x1 , y1 ), portanto ⊕ é
comutativa.

• (x1 , y1 ) ⊕ (x2 , y2 ) ⊕ (x3 , y3 ) = (x2 · x1 , y2 + y1 ) ⊕ (x3 , y3 ) = (x1 · x2 · x3 , y1 + y2 + y3 ) =
(x1 , y1 ) ⊕ (x2 · x3 , y2 + y3 ) = (x1 , y1 ) ⊕ (x2 , y2 ) ⊕ (x3 , y3 ) , portanto ⊕ é associativa.
• Existência de elemento neutro: devemos mostrar que existe (a, b) ∈ V tal que

(x, y) ⊕ (a, b) = (x, y) para todo (x, y) ∈ V.

(x, y) ⊕ (a, b) = (x, y), ∀ (x, y) ∈ V ⇐⇒ (x · a, y + b) = (x, y), ∀ (x, y) ∈ V


 
x·a = x a=1
⇐⇒ , ∀ ∈ V ⇐⇒
y+b = y b=0
Portanto, o elemento da operação ⊕ é 0V = (1, 0).
• Existência de simétrico de um elemento (x, y) ∈ V : devemos mostrar que existe (a, b) ∈ V tal que

(x, y) ⊕ (a, b) = 0V = (1, 0).

1
(
x>0
a = x−1 =

x·a = 1
(x, y) ⊕ (a, b) = (1, 0) ⇐⇒ (x · a, y + b) = (1, 0) ⇐⇒ ⇐⇒ x
y+b = 0 b = −y
 
1
Logo, o elemento simétrico de (x, y) em relação à ⊕ é , −y .
x
 
• α β (x, y) = α (xβ , β y) = (xβ )α , α · (β · y) = (xα·β , α · β · y) = (α · β ) (x, y).
Logo vale a condição M1 .
 
• α (x1 , y1 ) ⊕ (x2 , y2 ) = α (x1 · x2 , y1 + y2 ) = (x1 · x2 )α , α · (y1 + y2 )
= (x1α · x2α , α · y1 + α · y2 ) = (x1α , α · y1 ) ⊕ (x2α , α · y2 ).
Logo vale a condição M2 .
3.1 Espaços Vetoriais 83

• (α + β ) (x, y) = x(α+β ) , (α + β ) · y = (xα · xβ , α · y + β · y) = (xα , α · y) ⊕ (xβ , α β · y)




= α (x, y) ⊕ β (x, y) .
Logo vale a condição M3 .
• A unidade de , se existir, é um número α ∈ R tal que

α (x, y) = (x, y), ∀(x, y) ∈ V.

α (x, y) = (x, y), ∀(x, y) ∈ V ⇐⇒ (xα , α · y) = (x, y), ∀(x, y) ∈ V


 α
x =x
⇐⇒ , ∀(x, y) ∈ V ⇐⇒ α = 1.
α ·y = y

Portanto, a unidade da operação é o número 1.


Do desenvolvimento acima concluímos que V com a adição ⊕ e a multiplicação por escalar é um
espaço vetorial sobre R.

Espaços Vetoriais de Matrizes

O conjunto da matrizes reais de ordem m × n, que denotamos por Mm×n (R), com as operações adição
e multiplicação definidas no capítulo 1, é um espaço vetorial real.
Da mesma maneira, o conjunto da matrizes complexas de ordem m × n, que denotamos por Mm×n (C),
também é um espaço vetorial sobre K, é um espaço vetorial real se o corpo considerado é R e um
espaço vetorial complexo se K = C.
Os espaços vetoriais acima são chamados espaços de matrizes.

Espaços Vetoriais de Funções

Consideremos o conjunto de todas funções de R em R, denotado por F (R), ou seja,

F (R) = { f : R −→ R; f é uma função.}

Em F (R) definimos a soma e a multiplicação por escalar da seguinte maneira:

Observações 3.1.5 (a) Denotamos a função nula, indicada por f0 , é a função que a todo x ∈ R
associa o número zero, ou seja,

f0 : R −→ R; tal que f0 (x) = 0 para todo x ∈ R.

(b) Dada uma função f : R −→ R, a sua simétrica, indicada por − f , é a função dada por

− f : R −→ R; tal que (− f )(x) = − f (x) para todo x ∈ R.

Adição de Funções
Sejam f e g funções em F (R), a soma de f e g é uma função, denotada por f + g, dada por:

( f + g)(x) = f (x) + g(x), para todo x ∈ R.

É claro que f + g ∈ F (R).


84 Capítulo 3. Espaços Vetoriais

Multiplicação por Escalares em Funções


Sejam f função em F (R) e α ∈ R, a multiplicação de f pelo escalar α é uma função, denotada por
α · f , dada por:
(α · f )(x) = α · f (x), para todo x ∈ R.
Também temos α · f ∈ F (R).
O conjunto F (R) com as operações adição e multiplicação por escalar definidas acima é um espaço
vetorial real.

Exemplo 3.1.6 O conjunto das funções reais contínuas com domínio [a, b], com a e b reais e a < b,
e as operações adição e multiplicação por escalar definidas acima, também tem estrutura de espaço
vetorial.
Mais precisamente,

C ([a, b]) = { f : [a, b] −→ R; f é uma função contínua},

é um espaço vetorial real.

Os espaços vetoriais acima são chamados espaços de funções.

Espaços Vetoriais Polinomiais

Agora consideremos o conjunto dos polinômios reais (ou complexos) de grau ≤ n, para n ∈ N, com
coeficientes reais, denotado por Pn (R) (ou Pn (C)).
Um elemento de Pn (R) é um polinômio p(t) dado por

p(t) = a0 + a1t + · · · + ant n ,

com os coeficientes a0 , a1 , · · · , an ∈ R, para todo t ∈ R.

Observações 3.1.7 (a) O polinômio nulo, denotado por p0 , é o polinômio que a todo t ∈ R associa
o número zero, ou seja,
p0 (t) = 0 para todo t ∈ R.

(b) Dado um polinômio p(t) = a0 + a1t + · · · + ant n ∈ Pn (R), o simétrico de p, denotado por
−p, é o polinômio (−p) dado por

−p(t) = −(a0 + a1t + · · · + ant n ) = −a0 − a1t − · · · − ant n

para todo t ∈ R.

Podemos considerar a adição e a multiplicação por escalar em Pn (R) como as definidas em funções.
Assim, Pn (R) munido das operações de adição e de multiplicação por escalar é um espaço vetorial
real.
Enquanto, que Pn (C) munido das operações de adição e de multiplicação por escalar sobre R é um
espaço vetorial real, e se a multiplicação por escalar é sobre C, então Pn (C) é um espaço vetorial
complexo, estes espaços vetoriais são chamados espaços de polinômios de grau ≤ n.

Teorema 3.1.8 (Lei do Cancelamento)


Seja V um espaço vetorial sobre um corpo K, dados u, v e w elementos quaisquer em V , se
u + v = u + w, então v = w.
3.1 Espaços Vetoriais 85

Demonstração: Como u + v = u + w, somando (−u) em ambos os lados na igualdade temos

v = (−u) + u + v = (−u) + u + w = w,

como queríamos demonstrar.

Teorema 3.1.9 Seja V um espaço vetorial sobre um corpo K, dados u e v elementos quaisquer em
V , existe um único w ∈ V tal que u + w = v.

Demonstração: Suponhamos u + w = v, somando (−u) em ambos os lados na igualdade temos


w = (−u) + v.
Portanto, o único w = (−u) + v.

3.1.2 Propriedades de Espaços Vetoriais

Sejam V um espaço vetorial sobre o corpo K, u, v ∈ V e α, β ∈ K, valem as seguintes propriedades:


EV1 0K · u = 0V .
EV2 α · 0V = 0V .
EV3 (−α) · u = −(α · u) = α · (−u).
EV4 Se α · u = 0V , então ou α = 0K ou u = 0V .
EV5 Se α · u = α · v e α 6= 0K , então u = v.
EV6 Se α · u = β · u e u 6= 0V , então α = β .
EV7 −(u + v) = (−u) + (−v) = −u − v.

{z· · · + u} = nu.
EV8 u + u = 2u, u + u + u = 3u, de um modo geral, u| + u +
n vezes
Verificação:
EV1 Seja v = 0K · u, para todo u ∈ V .
Logo,
v + v = 0K · u + 0K · u = 0K · (u + u) = v.
Somando (−v) em ambos os lados da igualdade, obtemos v = 0V .
Portanto, v = 0V .
EV2 Seja w = α · 0V , para todo α ∈ K.
Logo,
w + w = α · 0V + α · 0V = (α + α) · 0V = w.
Somando (−w) em ambos os lados da igualdade, obtemos w = 0V .
Portanto, w = 0V .
EV3 Observemos que
α · u + (−α) · u = (−α + α) · u = 0V .
Portanto, −(α · u) = (−α) · u.
De maneira análoga mostramos que −(α · u) = α · (−u).
86 Capítulo 3. Espaços Vetoriais

EV4 Se α = 0K o resultado segue de EV1 .


Seja α · u = 0V com α 6= 0K , então α é invertível, ou seja, existe um único α −1 ∈ K tal que
α −1 · α = 1.
Logo,
u = 1 · u = (α −1 · α) · u = α −1 · (α · u) = α −1 · 0V = 0V .
Consequentemente, u = 0V .
EV5 Como α 6= 0K , então α é invertível, e portanto, existe um único α −1 ∈ K tal que α −1 · α = 1.
Logo,
u = (α −1 · α) · u = α −1 · (α · u) = α −1 · (α · v) = (α −1 · α) · v = v.
Consequentemente, u = v.
EV6 Somando −(α · u) em ambos os lados da igualdade α · u = β · u, obtemos
  EV4
α · u + − (α · u) = β · u + − (α · u) ⇐⇒ 0V = (β − α) · u ⇐⇒ β − α = 0 ⇐⇒ α = β .

EV7 Observemos que −(u + v) = (−1) · (u + v).


Logo,

M EV
−(u + v) = (−1) · (u + v) =2 (−1) · u + (−1) · v = (−u) + (−v) =3 −u − v.

EV8 A verificação pode ser feita por indução sobre n. No entanto, não a faremos, pois o conceito de
indução foge ao escopo deste texto.

3.2 Subespaços Vetoriais

Definição 3.2.1 Seja V um espaço vetorial sobre o corpo K, dizemos que U um subconjunto não
vazio de V é um subespaço vetorial de V se, e somente se,
(i) Para quaisquer u1 e u2 em U tivermos u1 + u2 ∈ U.
(ii) U com as operações de adição de vetores e multiplicação por escalar definidas em V é um
espaço vetorial sobre K.

Exemplos 3.2.1 (a) O subconjunto S = {(x, y)R2 ; y = x} é um subespaço de R2 .


Dados (x1 , y1 ) e (x2 , y2 ) em S temos y1 = x1 e y2 , x2 .
Logo, (x1 , y1 ) + (x2 , y2 ) = (x1 , x1 ) + (x2 , x2 ) = (x1 + x2 , x1 + x2 ) ∈ S e
α · (x1 , y1 ) = α · (x1 , x1 ) = (α · x1 , α · x1 ) ∈ S.
Além disso, como S ⊂ R2 , portanto a adição é comutativa e associativa e as propriedades de
multiplicação por escalar M1 , M2 e M3 se verificam.
Como (0, 0) ∈ S; dado (x, x) ∈ S temos (−x, −x) ∈ S e 1 · (x, x) = (x, x) ∈ S.
Portanto, S é subespaço vetorial de R2 .
3.2 Subespaços Vetoriais 87

(b) O conjunto C0 ([a, b]) = { f ∈ C ([a, b]) tal que f (a) = f (b) = 0} é um subespaço vetorial de
C ([a, b]).
Dados f e g em C0 ([a, b]) temos f (a) = f (b) = 0 e g(a) = g(b) = 0.
Como ( f + g)(a) = f (a) + g(a) = 0 + 0 = 0 e ( f + g)(b) = f (a) + g(b) = 0 + 0 = 0, então
f + g ∈ C0 ([a, b]).
Como α · f é tal que (α · f )(a) = α · f (a) = α · 0 = 0 e (α · f )(b) = α · f (b) = α · 0 = 0, logo
α · f ∈ C0 ([a, b]).
Além disso, como C0 ([a, b]) ⊂ C ([a, b]), portanto a adição é comutativa e associativa e as
propriedades de multiplicação por escalar M1 , M2 e M3 se verificam.
Finalmente, f0 ∈ C0 ([a, b]), dado f ∈ C0 ([a, b]) temos − f ∈ C0 ([a, b]), pois
(− f )(a) = − f (a) = 0 e (− f )(b) = − f (b) = 0; e se f ∈ C0 ([a, b]), temos 1 · f = f ∈ C0 ([a, b]).
Portanto, C0 ([a, b]) é subespaço vetorial de C ([a, b]).

(c) O subconjunto S = {(x, y, z) ∈ R3 ; x + y = z − 1} não é subespaço de R3 , pois u1 = (1, −3, −1)


e u2 = (0, 1, 2) estão em S, mas

u1 + u2 = (1, −3, −1) + (0, 1, 2) = (1, −2, 1) ∈


/ S, pois 1 + (−2) = −1 6= 1 − 1 = 0.

Teorema 3.2.2 Seja V um espaço vetorial sobre K, um subconjunto U não vazio V é um subespaço
vetorial de V se, e somente se,
(i) Para quaisquer elementos u1 e u2 em U tivermos u1 + u2 ∈ U.
(ii) Para todo u ∈ U e todo α ∈ K tivermos α · u ∈ U.
Demonstração:
Suponhamos que U é subespaço vetorial de V , então U com a adição e a multiplicação por escalar de
V é um espaço vetorial e portanto valem (i) e (ii).
Reciprocamente, se U satisfaz (i) e (ii), como U ⊂ V , então as condições A1 , A2 , M1 , M2 , M3 e M4
são automaticamente satisfeitas, pois são válidas para todos os elementos de V .
Mostremos então as condições A3 e A4 .
A3 Para todo u ∈ U e todo α ∈ K, temos α · u ∈ U. Em particular, 0 · u = 0V ∈ U.
Portanto, U possui elemento neutro.
A4 Para todo u ∈ U e todo α ∈ K, temos α · u ∈ U. Em particular, (−1) · u = −u ∈ U.
Logo, todo elemento de U possui simétrico em U.

Observações 3.2.3 (a) Segue do teorema 3.2.2 que se U é um subconjunto não vazio de V e 0v ∈
/ U,
então U não é subespaço de V .
(b) Todo espaço vetorial V tem pelo menos dois subespaços vetoriais:
• O próprio V .
• O conjunto unitário {0V }.
Estes subespaços são chamados subespaços triviais de V .
88 Capítulo 3. Espaços Vetoriais

(a) O conjunto U = f ∈ C ([a, b]) tal que f (a) = 1 não é um subespaço vetorial

Exemplos 3.2.4
de C ([a, b]).
Solução: De fato, f0 ∈
/ U, pois f0 (a) = 0 6= 1.
(b) O subconjunto U = p(t) ∈ P3 (R); p(2) = 0 e p0 (−1) = 0 é um subespaço vetorial de


P3 (R).
Solução:
/ pois o polinômio nulo p0 está em U, já que p0 (t) = 0 para todo t ∈ R e p00 também é o
U 6= 0,
polinômio nulo.
Dados p e q em U e α ∈ R, então:
(i) (p + q)(2) = p(2) + q(2) = 0 + 0 = 0 e (p + q)0 (−1) = p0 (−1) + q0 (−1) = 0 + 0 = 0, por-
tanto p + q ∈ U.
(ii) (α · p)(2) = α · p(2) = α · 0 = 0 e (α · p)0 (−1) = α · p0 (−1) = α · 0 = 0, portanto α · p ∈ U.
De (i) e (ii) concluímos que U é subespaço de P3 (R).

−x + 3y + z = 0
(c) (c1 ) O conjunto solução do sistema homogêneo é um subespaço
2x − y − z = 0
vetorial de R3 .
Primeiro
 observemos que U 6= 0, / pois o sistema admite pelo menos a solução trivial
 x=0
y = 0 , portanto, (0, 0, 0) ∈ U.
z=0

 
−1 3 1 | 0
A matriz ampliada de S é , escalonando obtemos:
2 −1 −1 | 0
   
−1 3 1 | 0 −1 3 1 | 0
∼ .
2 −1 −1 | 0 0 5 1 | 0 L2 −→ L2 + 2L1
Assim, a solução do sistema é
  
−x + 3y + z = 0 x = 3y + z x = −2y
⇐⇒ ⇐⇒ , com y ∈ R.
5y + z = 0 z = −5y z = −5y

Logo, o conjunto solução do sistema é

U = {(x, y, z) ∈ R3 ; x = −2y e z = −5y}.


 
x1 = −2y1 x2 = −2y2
(i) Dados (x1 , y1 , z1 ) e (x2 , y2 , z2 ) em U temos e
z1 = −5y1 z2 = −5y2 .
Logo,

(x1 , y1 , z1 ) + (x2 , y2 , z2 ) = (−2y1 , y1 , −5y1 ) + (−2y2 , y2 , −5y2 )



= (−2y1 − 2y2 , y1 + y2 , −5y1 − 5y2 ) = − 2(y1 + y2 ), y1 + y2 , −5(y1 + y2 ) ∈ U.

(ii) Além disso,

α · (x1 , y1 , z1 ) = α · (−2y1 , y1 , −5y1 ) = (−2α · y1 , α · y1 , −5α · y1 ) ∈ U.

Portanto, de (i) e (ii) concluímos que U é subespaço vetorial de R3 .


3.2 Subespaços Vetoriais 89

(c2 ) De modo geral, o conjunto solução de um sistema homogêneo




 a11 x1 + a12 x2 + · · · + a1n xn = 0
 a21 x1 + a22 x2 + · · · + a2n xn = 0

..


 .
 a x + a x + ··· + a x = 0
m1 1 m2 2 mn n

é um subespaço vetorial de Rn .
Solução:
Para mostrar isto vamos escrever o sistema acima na forma matricial:
     
a11 a12 · · · a1n x1 0
 a21 a22 · · · a2n   x2   0 
..  ·  ..  =  ..  .
     
 .. .. ..
 . . . .   .   . 
am1 am2 · · · amn xn 0

Denotemos por U o conjunto


 solução do sistema, é claro que U 6= 0, / pois o sistema admite pelo

 x1 = 0
 x2 = 0

menos a solução trivial .. , portanto, (0, 0, · · · , 0) ∈ U.


 .
 x =0
n
   
λ1 µ1
 λ2   µ2 
(i) Sejam λ =  ..  e µ =  ..  em U, então
   
 .   . 
λn µn
           
a11 a12 · · · a1n λ1 0 a11 a12 · · · a1n µ1 0
 a21 a22 · · · a2n   λ2   0   a21 a22 · · · a2n   µ2   0 
· =  e  · = .
           
 .. .. .. .. .. .. .. .. .. .. .. ..
 . . . .   .   .   . . . .   .   . 
am1 am2 · · · amn λn 0 am1 am2 · · · amn µn 0

Logo,        
a11 a12 · · · a1n λ1 µ1
 a21 a22 · · · a2n    λ2   µ2
      
..  ·   ..  +  ..
  
 .. .. ..  
 . . . .    .   .  
am1 am2 · · · amn λn µn
       
a11 a12 · · · a1n λ1 a11 a12 · · · a1n µ1
 a21 a22 · · · a2n   λ2   a21 a22 · · ·
    a2n   µ2 
= ..  ·  ..  +  .. ·
   
.. .. .. .. .. .. .. 
 . . . .   .   . . . .   . 
am1 am2 · · · amn λn am1 am2 · · · amn µn
     
0 0 0
 0   0   0 
=  ..  +  ..  =  ..  .
     
 .   .   . 
0 0 0
Portanto, λ + µ é solução do sistema, ou seja, λ + µ ∈ U.
90 Capítulo 3. Espaços Vetoriais
 
α · λ1
 α · λ2 
(ii) Dado α ∈ R, mostremos que α · λ =   ∈ U.
 
..
 . 
α · λn
         
a11 a12 · · · a1n α · λ1 a11 a12 · · · a1n λ1
 a21 a22 · · · a2n   α · λ2   a21 a22 · · · a2n    λ2  
· = · α 
         
 .. .. .. .. .. .. .. .. .. ..  
 . . . .   .   . . . .    .  
am1 am2 · · · amn α · λn am1 am2 · · · amn λn
         
a11 a12 · · · a1n λ1 0 0
  a21 a22 · · · a2n   λ2    0   0 
= α · ·  = α · = .
         
 .. .. .. .. ..  .. ..
  . . . .   .    .   . 
am1 am2 · · · amn λn 0 0
De (i) e (ii) concluímos que U é subespaço vetorial de Rn .
(d) O subconjunto de M2 (R) dado por:
  
x y
U= ; x − 2y + 3z = 0
z t

é um subespaço vetorial de M2 (R).


Solução:
Observemos que
   
x y 2y − 3z y
A= ∈ U ⇐⇒ x − 2y + 3z = 0 ⇐⇒ x = 2y + 3z ⇐⇒ A = .
z t z t
 
0 0
É claro que U 6= 0,
/ pois ∈ U, já que 2 · 0 − 3 · 0 = 0.
 0 0
 
2y1 − 3z1 y1 2y2 − 3z2 y2
Sejam A = eB= em U.
z1 t1 z2 t2
(i) Temos
     
2y1 − 3z1 y1 2y2 − 3z2 y2 2y1 − 3z1 + (2y2 − 3z2 ) y1 + y2
A+B = + =
z1 t1 z2 t2 z1 + z2 t1 + t1
 
2(y1 + y2 ) − 3(z1 + z2 ) y1 + y2
= .
z1 + z2 t1 + t1
Portanto, A + B ∈ U
(ii) Dado α ∈ R, então
   
α · (2y1 − 3z1 ) α · y1 2(α · y1 ) − 3(α · z1 ) α · y1
α ·A = = .
α · z1 α · t1 α · z1 α · t1

Logo, α · A ∈ U.
De (i) e (ii) concluímos que U é subespaço de M2 (R).
3.2 Subespaços Vetoriais 91

(e) O subconjunto de Mn (R) dado por:



U = A ∈ Mn (R); tr(A) = 0

é um subespaço vetorial de Mn (R).


Solução:
Como tr(0n×n ) = 0, então U 6= 0.
/
(i) Da propriedade T R2 de traço de matrizes quadradas temos:

tr(A + B) = tr(A) + tr(B).

Logo, se A e B estão em U, então

tr(A + B) = tr(A) +tr(B) = 0 + 0 = 0.


| {z } | {z }
0 0

Portanto, A + B ∈ U.
(ii) Da propriedade T R3 de traço de matrizes quadradas, dado α ∈ R temos:

tr(α · A) = α · tr(A).

Logo, se A está em U e α ∈ R, então

tr(α · A) = α · tr(A) = α · 0 = 0.
| {z }
0

Assim, α · A ∈ U.
De (i) e (ii) segue que U é um subespaço de Mn (R).

(f) Os seguintes subconjuntos de Mn (R) definidos por:

U = {A ∈ Mn (R); AT = A},

W = {A ∈ Mn (R); AT = −A}
são subespaços vetoriais de Mn (R).
Solução:
(f1 ) Como 0Tn×n = 0n×n , então U 6= 0.
/
(i) Sejam A e B estão em U, então
T
(A + B)T =2 AT + BT = A + B.

Portanto, A + B ∈ U.
(ii) Sejam A em U e α ∈ R, então
T
(α · A)T =3 α · AT = α · A.

Assim, α · A ∈ U.
De (i) e (ii) segue que U é um subespaço de Mn (R).
(f2 ) Como 0Tn×n = 0n×n = −0n×n , então W 6= 0.
/
92 Capítulo 3. Espaços Vetoriais

(i) Sejam A e B estão em W , então


T
(A + B)T =2 AT + BT = (−A) + (−B) = −(A + B).

Portanto, A + B ∈ W .
(ii) Sejam A em W e α ∈ R, então
T
(α · A)T =3 α · AT = α · (−A) = −(α · A).

Assim, α · A ∈ W .
De (i) e (ii) segue que W é um subespaço de Mn (R).
(g) Verifique se o subconjunto U = {A ∈ Mn (R); A2 = A} de Mn (R) é um subespaço vetorial de
Mn (R).
Solução:
O subconjunto U não é subespaço de Mn (R), pois a matriz In , identidade de ordem n, está em U,
já que In2 = In · In = In .
Porém, 2 · I n ∈
/ U, pois (2 · I n ) · (2 · I n ) = 4 · I n 6= 2 · I n .
(h) O subconjunto U = p(t) ∈ P2 (R); p(−1) = p(1) = 0 é um subespaço vetorial de P2 (R).


Solução:
O subconjunto U 6= 0, / pois o polinômio nulo p0 está em U, já que p0 (t) = 0 para todo t ∈ R e
portanto, p0 (1) = p0 (−1) = 0.
Dados p e q em U e α ∈ R, então:

(p + q)(1) = p(1) + q(1) = 0 + 0 = 0
(i) , portanto p + q ∈ U.
(p + q)(−1) = p(−1) + q(−1) = 0 + 0 = 0

(α · p)(1) = α · p(1) = α · 0 = 0
(ii) , portanto α · p ∈ U.
(α · p)(−1) = α · p(−1) = α · 0 = 0
De (i) e (ii) concluímos que U é subespaço de P2 (R).
(i) Os seguintes subconjuntos

U = f ∈ C ([−a, a]); f (−x) = f (x) para todo x ∈ [−a, a] ,




W = f ∈ C ([−a, a]); f (−x) = − f (x) para todo x ∈ [−a, a]




são subespaços vetoriais de C ([−a, a]).


Solução:
(i1 ) U 6= 0,
/ pois a função nula f0 está em U, já que:

f0 (x) = 0 = f0 (−x) para todo x ∈ [−a, a].

Dados f e g em U e α ∈ R, então:
(i) ( f + g)(−x) = f (−x) + g(−x) = f (x) + g(x) = ( f + g)(x), portanto f + g ∈ U.
(ii) (α · f )(−x) = α · f (−x) = α · f (x) = (α · f )(x), portanto α · f ∈ U.
De (i) e (ii) concluímos que U é subespaço de C ([−a, a]).
3.2 Subespaços Vetoriais 93

(i2 ) W 6= 0,
/ pois a função nula f0 está em U, já que:

f0 (x) = 0 = − f0 (−x) para todo x ∈ [−a, a].

Dados f e g em U e α ∈ R, então:  
(i) ( f + g)(−x) = f (−x) + g(−x) = − f (x) + − g(x) = −( f + g)(x), portanto
f +g ∈ W.

(ii) (α · f )(−x) = α · − f (x) = −α · f (x) = (−α · f )(x), portanto α · f ∈ W .

De (i) e (ii) concluímos que W é subespaço de C ([−a, a]).

Observações 3.2.5 (a) As funções do conjunto U do exemplo acima são chamadas funções
pares, enquanto que as funções do conjunto W são chamadas funções ímpares.

(b) Toda função f em C ([−a, a]) pode ser escrita como a soma de uma função par e uma função
ímpar.
f (x) + f (−x) f (x) − f (−x)
De fato, consideremos as funções g(x) = e h(x) = , temos:
2 2

f (−x) + f − (−x) f (−x) + f (x)
g(−x) = = = g(x),
2 2

enquanto que

f (−x) − f − (−x) f (−x) − f (x)
h(−x) = = = −h(x).
2 2

Logo, g é função par e h é função ímpar, e é claro que

f (x) + f (−x) f (x) − f (−x)


g(x) + h(x) = + = f (x).
2 2

(j) O subconjunto S = v ∈ R3 ; v = α(1, −1, 1) + (2, 1, 3) não é subespaço de R3 .




Solução:

De fato, 0R3 ∈
/ S, pois α(1, −1, 1) + (2, 1, 3) = (0, 0, 0)

 
α +2 = 0
  α = −2
⇐⇒ −α + 1 = 0 ⇐⇒ α = 1 ,
α +3 = 0 α = −3
 

um absurdo!
94 Capítulo 3. Espaços Vetoriais

3.3 Soma, Soma Direta e Intersecção de Subespaços


Teorema 3.3.1 Seja V um espaço vetorial sobre o corpo K. Se U e W são subespaços vetoriais de
V , então:
(i) A intersecção dos subespaços U e W , U ∩W = {v ∈ V ; v ∈ U e v ∈ W }, é um subespaço de V .
(ii) A soma dos subespaços de U e W , U +W = {v ∈ V ; v = u + w, com u ∈ U e w ∈ W }, é um
subespaço de V .

Demonstração:
(i) U ∩W 6= 0,
/ pois 0V ∈ U e 0V ∈ W , 0V ∈ U ∩W .
• Sejam v e u em U ∩W , então v e u estão em U e v e u estão em W .
Como U e W são subespaços de V , então v + u ∈ U e v + u ∈ W .
Consequentemente v + u ∈ U ∩W.
• Dado v em U ∩W , então v ∈ U e v ∈ W .
Dado α ∈ K, como U e W são subespaços de V , então α · v ∈ U e α · v ∈ W .
Logo, α · v ∈ U ∩W.
Portanto, U ∩W é subespaço de V .

(ii) U +W 6= 0,
/ pois 0V ∈ U e 0V ∈ W , 0V + 0V = 0V ∈ U +W .
• Sejam v1 e v2 em U +W , então v1 = u1 + w1 e v2 = u2 + w2 com u1 , u2 ∈ U e w1 , w2 ∈ W .
Como U e W são subespaços de V , então u1 + u2 ∈ U e w1 + w2 ∈ W .
Consequentemente, v1 + v2 = (u1 + w1 ) + (u2 + w2 ) = (u1 + u2 ) + (w1 + w2 ) ∈ U +W.
• Dado v em U +W , então v = u + w, com u ∈ U e w ∈ W .
Como U e W são subespaços de V , dado α ∈ K temos α · u ∈ U e α · w ∈ W .
Logo, α · v = α · (u + w) = α · u + α · w ∈ U +W.
Portanto, U +W é subespaço de V .

Observações 3.3.2 (a) O subespaço U ∩W é chamado subespaço intersecção de U e W .


(b) O subespaço U +W é chamado subespaço soma de U e W .
(c) No caso em que U ∩W = {0V }, o subespaço soma U +W é chamado subespaço soma direta e
denotado por U ⊕W .
(d) Dados V um espaço vetorial, U e W subespaços de um V . De modo geral, U ∪W não é subespaço
vetorial de V .
Por exemplo, para V = R2 , U = {(x, y) ∈ R; x = 0 e W = {(x, y) ∈ R; y = 0}, respectivamente
o eixo y e o eixo x no plano cartesiano, então

U ∪W = {(x, y) ∈ R; x = 0 ou y = 0},

ou seja, é o conjunto dos pontos do plano cartesiano que estão ou no eixo x ou no eixo y.
Assim, (1, 0) ∈ U ∪W e (0, −3) ∈ U ∪W , mas (1, 0) + (0, −3) = (1, −3) ∈
/ U ∪W.
3.3 Soma, Soma Direta e Intersecção de Subespaços 95

Exemplos 3.3.3 Em cada um casos abaixo, obtenha os subespaços U ∩ W e U + W , verifique se a


soma é direta.

 U = {(x, y, z) ∈ R3 ; x = y}
(a) V = R3 com
W = {(x, y, z) ∈ R3 ; z = 0}

Solução:

x=y
• (x, y, z) ∈ U ∩W ⇐⇒
z=0
⇐⇒ (x, y, z) = (x, x, 0).

Logo, U ∩W = {(x, y, z) ∈ R3 ; x = y e z = 0}.

• U +W = {(x, y, z) ∈ R3 ; (x, y, z) = (a, a, b) + (c, d, 0)}.



 a=0
 x = a+c


b=z

Logo, (x, y, z) ∈ U + W ⇐⇒ y = a + d , assim tomando podemos escrever
c=x
z=b
 

d=y

3
um vetor (x, y, z) de R como soma de um vetor de U e um vetor de W .

Portanto, U +W = R3 , porém a soma não é direta, pois U ∩W 6= {0R3 }.


   
a 11 a12
U= ∈ M2 (R); a22 = a11


a21 a22



(b) V = M2 (R) com   
a a

11 12

W= ∈ M2 (R); a11 = 0 e a21 = −a12


a21 a22

Solução:
  
a b a=d
• A= ∈ U ∩W ⇐⇒ ⇐⇒ a = d = 0 e c = −b
c d a = 0 e c = −b
 
0 b
⇐⇒ A = .
−b 0
  
0 b
Logo, U ∩W = ∈ M2 (R) .
−b 0
       
x y x y a b 0 d
• U +W = ∈ M2 (R); = +
z t z t c a −d e

 a=x
x=a


 b=y
  
 

x y y = b+d

Logo, ∈ U +W ⇐⇒ , assim tomando c=z podemos escre-
z t z = c−d
d=0

 

t = a+e
 

e = t −x

 
x y
ver um vetor de M2 (R) como soma de um vetor de U e um vetor de W .
z t

Portanto, U +W = M2 (R), porém a soma não é direta, pois U ∩W 6= {0M2 (R) }.


96 Capítulo 3. Espaços Vetoriais

 U = {A ∈ Mn (R); A é simétrica}
(c) V = Mn (R), com n ∈ N e n ≥ 2,
W = {A ∈ Mn (R); A é anti-simétrica}

Solução:
A = AT
 
A é simétrica
• A ∈ U ∩W ⇐⇒ ⇐⇒ ⇐⇒ A = −A
A é anti-simétrica A = −AT
⇐⇒ 2A = 0n×n ⇐⇒ A = 0n×n .
Logo, U ∩W = {0Mn (R) }.
• Vimos no estudo de matrizes quadradas que toda matriz A ∈ Mn (R) pode ser escrita como:

A + AT A − AT
   
A= + .
2 2
| {z } | {z }
simétrica anti-simétrica

Portanto, U ⊕W = Mn (R), a soma é direta pois U ∩W = {0n×n }.

 U = f ∈ F (R); f é par
 

(d) V = F (R) com


W = f ∈ F (R); f é ímpar
 

Solução:
 
f é par f (−x) = f (x) para todo x ∈ R
• f ∈ U ∩W ⇐⇒ ⇐⇒
f é ímpar f (−x) = − f (x) para todo x ∈ R
⇐⇒ f (x) = − f (x) para todo x ∈ R ⇐⇒ 2 f (x) = 0 para todo x ∈ R
⇐⇒ f (x) = 0 para todo x ∈ R ⇐⇒ f = f0 a função nula.
Logo, U ∩W = { f0 }.
• Vimos que toda função f ∈ F (R) pode ser escrita como:
   
f (x) + f (−x) f (x) − f (−x)
f (x) = + .
2 2
| {z } | {z }
função par função ímpar

Portanto, U ⊕W = F (R), a soma é direta, pois U ∩W = {0F (R) }.



 U = {(x, y, z, w) ∈ R4 ; x + y = 0 e z − w = 0}
4
(e) V = R com
W = {(x, y, z, w) ∈ R4 ; x − y − z + w = 0}

Solução:

x = −y e w = z
• (x, y, z, w) ∈ U ∩W ⇐⇒ ⇐⇒ −y = y + z − z
x = y+z−w

y=0
⇐⇒ 2y = 0 ⇐⇒ ⇐⇒ (x, y, z, w) = (0, 0, z, z).
x=0
Logo, U ∩W = {(x, y, z, w) ∈ R3 ; x = y = 0 e w = z}.
• U +W = R4 , veremos isto após enunciarmos o teorema da dimensão da soma e da intersec-
ção.
3.3 Soma, Soma Direta e Intersecção de Subespaços 97

 U = {p(t) = a0 + a1t + a2t 2 + a3t 3 ∈ P3 (R); a3 = −a1 }


(f) V = P3 (R) com


W = {p(t) ∈ P3 (R); p(−1) = p0 (−1) = 0}

Solução:

a3 = −a1
• p(t) = a0 + a1t + a2t 2 + a3t 3 ∈ U ∩W ⇐⇒
p(−1) = p0 (−1) = 0
 
 a3 = −a1  a3 = −a1
⇐⇒ a0 − a1 + a2 − a3 = 0 ⇐⇒ a0 = a1 − a2 + a3
a1 − 2a2 + 3a3 = 0 2a2 = a1 + 3a3
 
 
 a3 = −a1  a3 = −a1
⇐⇒ a0 = a1 − a2 − a1 = −a2 ⇐⇒ a2 = −a1
2a2 = a1 − 3a1 = −2a1 a0 = a1
 

Logo, U ∩W = {p(t) = a1 + a1t − a1t 2 − a1t 3 ∈ P3 (R)}.


• U + W = P3 (R), veremos isto após enunciarmos o teorema da dimensão da soma e da
intersecção.

Observação 3.3.4 Seja V um espaço vetorial, se U e W são subespaços de V tais que V = U ⊕W ,


então para cada v ∈ V existem únicos u ∈ U e w ∈ W tais que v = u + w.
De fato, se existissem u1 , u2 ∈ U e w1 , w2 ∈ W com v = u1 + w1 = u2 + w2 , então teríamos
u1 − u2 = w2 − w1 ∈ U ∩ W , mas  como V = U ⊕ W , então U ∩ W = {0V }, daí que
u1 = u2
u1 − u2 = w2 − w1 = 0V , e portanto .
w2 = w1
Portanto, a decomposição de v como soma de um elemento de U e um elemento de W é única.
4. Base e Dimensão de Espaços Vetoriais

4.1 Combinação Linear e Subespaço Gerado


Definição 4.1.1 Seja V um espaço vetorial sobre o corpo K, dizemos que v ∈ V é uma combinação
linear dos vetores v1 , v2 , · · · , vn vetores em V se, e somente se, existem escalares α1 , α2 , · · · , αn
em K tais que
v = α1 · v1 + α2 · v2 + · · · + αn · vn .

Exemplos 4.1.1 (a) O vetor (−2, 3) é combinação linear dos vetores (1, 0) e (0, 1) de R2 , pois
(−2, 3) = −2(1, 0) + 3(0, 1).
(b) O polinômio p(t) = t 2 + 4t − 7 é combinação linear dos polinômios

p1 (t) = t 2 − 2t + 1 e p2 (t) = 3t − 4 de P2 (R),

pois p(t) = t 2 + 4t − 7 = (t 2 − 2t + 1) + 2(3t − 4).


 
−1 3
(c) A matriz A = é combinação linear das matrizes
0 2
     
1 1 1 1 0 1
A1 = , A2 = e A3 = ,
0 1 0 0 0 0
       
1 1 1 1 0 1 −1 3
pois 2 · + (−3) · +4· = de M2 (R).
0 1 0 0 0 0 0 2

Definição 4.1.2 Sejam V um espaço vetorial sobre o corpo K e S um subconjunto finito de V ,


ou seja, S = {v1 , · · · , vn }, o conjunto de todas as combinações lineares de elementos de S é um
subespaço de V , chamado subespaço gerado pelos elementos de S, ou simplesmente, subespaço
gerado de S.

Notação: [S] ou [v1 , · · · , vn ].


100 Capítulo 4. Base e Dimensão de Espaços Vetoriais
n o
Observações 4.1.2 (a) Notemos que [S] = α1 · v1 + · · · + αn · vn ; α1 , · · · , αn ∈ K .
(b) [v1 , · · · , vn ] é o “menor” subespaço de V que contém os vetores {v1 , · · · , vn }, ou seja, se W é
subespaço de V tal que {v1 , · · · , vn } ⊂ W , então [v1 , · · · , vn ] ⊂ W .
(c) Se U = [S], dizemos que S é um sistema de geradores para o subespaço U.
/ = {0V }.
(d) Por convenção indicamos [0]

Exemplos 4.1.3 (a) Em C ([0, 2π]) consideremos S = {cos x, sen x}, então
[S] = f ∈ C ([0, 2π]); f (x) = α1 cos x + α2 sen x; α1 , α2 ∈ R .


(b) Seja         
 1 0 0 0 1 0 0 0 1 0 0 0
S=  0 0 0 ,  0 0 0 ,  0 0 0 ,  0 1 0 ,
0 0 0 0 0 0 0 0 0 0 0 0

    
0 0 0 0 0 0 
 0 0 1 , 0 0
  0  ,
0 0 0 0 0 1

então
        
 1 0 0 0 1 0 0 0 1 0 0 0
[S] = α  0 0 0  + α2  0 0 0  + α3  0 0 0  + α4  0 1 0 
 1
0 0 0 0 0 0 0 0 0 0 0 0
    
0 0 0 0 0 0 
+ α5  0 0 1  + α6  0 0 0  ; α1 , · · · , α6 ∈ R
0 0 0 0 0 1

   
 α1 α2 α3 
=  0 α4 α5 ; α1 , · · · , α6 ∈ R .

0 0 α6
 

Portanto, [S] é o subespaço das matrizes reais triangulares superiores de ordem 3.


 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
(c) Seja A =  .. ..  uma matriz de Mm×n (R).
 
.. . .
 . . . . 
am1 am2 · · · amn
(c1 ) O subconjunto
L (A) = α1 · c1 + α2 · c2 + · · · + αm · cm ; α1 , α2 , · · · , αm ∈ R ,

 
com ci = ai1 ai2 · · · ain a i-ésima linha de A, para i ∈ {1, · · · , m}, é o subespaço de
Rn gerado pelas linhas da matriz A, e denominado subespaço linha de A.
(c2 ) O subconjunto
C (A) = α1 · v1 + α2 · v2 + · · · + αn · vn ; α1 , α2 , · · · , αn ∈ R ,

 
a1 j
 a2 j 
com v j =  ..  a j-ésima coluna de A, para j ∈ {1, · · · , n}, é um subespaço de Rm gerado
 
 . 
am j
pelas colunas de A, chamado subespaço coluna de A.
4.1 Combinação Linear e Subespaço Gerado 101
 
x1
 x2 
(c3 ) As soluções do sistema homogêneo A · X = 0m×1 , com X =   é um subespaço de Rn ,
 
..
 . 
xn
denotado por chamado N (A) e denominado subespaço nulidade de A.
 
−1 1 −1
 1 −1 1 
No caso em que A =  , temos:
 0 1 −1 
0 0 1
(c1 )

L (A) =
        
α1 −1 1 −1 + α2 1 −1 1 + α3 0 1 −1 + α4 0 0 1
 
= −α1 + α2 α1 − α2 + α3 −α1 + α2 − α3 + α4 , com α1 , α2 , α3 ∈ R .
Por exemplo, c = 1 2 −4 ∈ L (A), basta tomar α1 = 1, α2 = 2, α3 = 3 e α4 = −2.
 

(c2 )       

 −1 1 −1
 + α2  −1  + α3  1 
  1 
C (A) =
   
α1 
 0   1   −1 


0 0 1

  
−α1 + α2 − α3 

 α1 − α2 + α3  
=  , com α1 , α2 , α3 ∈ R  .
 
α2 − α3 

α3
 
−2
 6 
Por exemplo, v =  −3  ∈ C (A), basta tomar α1 = 3, α2 = −1 e α3 = 2.

2
    
−1 1 −1   0 −x1 + x2 − x3 = 0
x1


 1 −1 1  
  0  
x1 − x2 + x3 = 0
(c3 ) O sistema  · x2  =   0  é dado por  que tem
 0 1 −1  x2 − x3 = 0
x3 
0 0 1 0 x3 = 0

 x1 = 0
apenas a solução trivial x2 = 0
x3 = 0

Logo, neste caso N (A) = (0, 0, 0) .




p1 (t) = t 3 − 2

2 / p1 (t), p2 (t) ⊂ P3 (R), com
 
(d) Mostre que p(t) = t + t − 1 ∈
p2 (t) = t + 1
De fato,

q(t) ∈ p1 (t), p2 (t) ⇐⇒ q(t) = a(t 3 − 2) + b(t + 1) = at 3 + bt + (b − 2a), com a, b ∈ R.


 

 
Logo, um
 polinômio  em p1 (t), p2 (t) tem grau 3, ou grau 1 ou grau 0, consequentemente
p(t) ∈
/ p1 (t), p2 (t) .
102 Capítulo 4. Base e Dimensão de Espaços Vetoriais

Propriedades de Subespaço Gerado


Sejam V espaço vetorial sobre K e S um subconjunto finito de V , então:
CL1 S ⊂ [S].
CL2 Se S1 é subconjunto de V tal que S1 ⊂ S, então [S1 ] ⊂ [S].
 
CL3 [S] = [S].
CL4 Se S1 também é subconjunto de V , então [S1 ∪ S] = [S] + [S1 ].
Verificação:
CL1 Dado v ∈ S, então v = 1K · v ∈ [S], portanto S ⊂ [S].
CL2 Dado v ∈ [S1 ], então v = α1 · v1 + · · · + αk · vk , com v1 , · · · , vk ∈ S1 ⊂ S e α1 , · · · , αk ∈ K,
portanto v ∈ S1 , consequentemente [S1 ] ⊂ [S].
CL3 Segue da definição.
CL4 Dado v ∈ [S1 ∪ S], então
v = α1 · v1 + · · · + αk · vk + β1 · w1 + · · · + βl · wl ,
com v1 , · · · , vk ∈ S1 , v1 , · · · , vk ∈ S e α1 , · · · , αk , β1 , · · · , βl ∈ K.
Como α1 · v1 + · · · + αk · vk ∈ [S1 ] e β1 · w1 + · · · + βl · wl ∈ [S], então v ∈ [S1 ] + [S], logo
[S1 ∪ S] ⊂ [S1 ] + [S].
Reciprocamente, se v ∈ [S1 ] + [S], então v = u + w, com u ∈ [S1 ] e w ∈ [S], portanto,
u = a1 · v1 + · · · + ar · vr , com v1 , · · · , vr ∈ S1 e a1 , · · · , ar ∈ K
e
w = b1 · w1 + · · · + bs · ws , com w1 , · · · , ws ∈ S e b1 , · · · , bs ∈ K.
Consequentemente,
v = a1 · v1 + · · · + ar · vr + b1 · w1 + · · · + bs · ws ,
com v1 , · · · , vr , w1 , · · · , ws ∈ S1 ∪ S e a1 , · · · , ar , b1 , · · · , bs ∈ K.
Portanto, v ∈ [S1 ∪ S] e daí que [S1 ] + [S] ⊂ [S1 ∪ S].
Logo, [S1 ] + [S] = [S1 ∪ S].

Definição 4.1.3 Dizemos que um espaço vetorial V é finitamente gerado se existe S um subcon-
junto finito de V tal que V = [S].
h i
Exemplos 4.1.4 (a) Rn é finitamente gerado, pois Rn =
(1, 0, · · · , 0), (0, 1, · · · , 0), · · · , (0, 0, · · · , 1) .
h i
(b) Pn (R) é finitamente gerado, pois Pn (R) = 1, t, · · · , t n .
     
1 ··· 0 0 ··· 0
  . . 
(c) Mm×n (R) é finitamente gerado, pois Mm×n (R) =   .. . . . ..  , · · · ,  ... . . . ...  .
  
0 · · · 0 m×n 0 · · · 1 m×n

Observação 4.1.5 Existem espaços vetoriais que não são finitamente gerados, por exemplo, o espaço
de funções reais F (R) não é finitamente gerado.
4.2 Dependência e Independência Linear 103

4.2 Dependência e Independência Linear


Definição 4.2.1 Seja V um espaço vetorial sobre o corpo K, dizemos que um subconjunto
S = {v1 , v2 , · · · , vk }, de V , é linearmente independente se, e somente se, a equação

a1 v1 + a2 v2 + · · · + ak vk = 0V

tem apenas a solução trivial a1 = a2 = · · · = ak = 0.


No caso em que a equação tem alguma solução não trivial, dizemos que S é linearmente depen-
dente.

Observações 4.2.1 (a) Em geral usamos a notação L.I. para vetores ou conjunto de vetores li-
nearmente independentes e a notação L.D. para designar vetores ou um conjunto de vetores
linearmente dependentes.
(b) Por convenção o conjunto vazio, 0/ ⊂ V , é linearmente independente.

Exemplos 4.2.2 Nos casos abaixo verifique se S é L.I. ou L.D.


(a) V = P2 (R) e S = {t + 1, t 2 − 1, t + t 2 }.
Solução:
a(t + 1) + b(t 2 − 1) + c(t + t 2 ) = 0 ⇐⇒ (a − b) + (a + c)t + (b + c)t 2 = 0
 
 a − b = 0  a − b = 0 
a = b
⇐⇒ a + c = 0 ⇐⇒ b + c = 0 ⇐⇒
c = −b
b + c = 0 b + c = 0
 

Portanto, por exemplo, a = b = 1 e c = −1 é uma solução da equação, e S é L.D.


   
1 −1 0 1
(b) V = M2 (R) e S = , .
1 0 1 −1
Solução:
         
1 −1 0 1 0 0 a −a + b 0 0
a +b = ⇐⇒ =
1 0 1 −1 0 0 a+b −b 0 0


 a = 0 
−a + b = 0 a = 0

⇐⇒ ⇐⇒

 a+b = 0 b = 0
−b = 0

Logo, a única solução da equação é a trivial a = b = 0, portanto S é L.I.


(c) V = R3 e S = {(1, −1, 3), (−2, 3, −5), (0, 1, 1)}.
Solução:
a(1, −1, 3) + b(−2, 3, −5) + c(0, 1, 1) = (0, 0, 0) 
a − 2b
 = 0
⇐⇒ (a − 2b, −a + 3b + c, 3a − 5b + c) = (0, 0, 0) ⇐⇒ −a + 3b + c = 0
3a − 5b + c = 0


 a − 2b = 0 
a = 2b
⇐⇒ b + c = 0 ⇐⇒
c = −b
b + c = 0

Logo, por exemplo, b = 1, a = 2 e c = −1 é uma solução da equação, e S é L.D.


104 Capítulo 4. Base e Dimensão de Espaços Vetoriais

(d) V = C ([0, 2π]) e S = {1, cos x, sen (2x)}.


Solução:
π 3π
a + b cos(2x) + c sen x = 0 para todo x ∈ [0, 2π], em particular para x = 0, x = ex=
2 2
obtemos:
  
 a + b = 0  a + b = 0  a = 0
a − b + c = 0 ⇐⇒ − 2b − c = 0 ⇐⇒ b = 0
a − b − c = 0 − 2c = 0 c = 0
  

Portanto, S é L.I.
(e) V = F (R) e S = {1, cos2 x, sen2 x}.
Solução:
a + b cos2 x + c sen2 x = 0 para todo x ∈ R, mas sabemos
 que cos2 x + sen2 x = 1 para todo x ∈ R,
 a = 1
portanto a equação acima tem solução não trivial b = −1
c = −1

Logo, S é L.D.

4.2.1 Propriedades de Dependência e Independência Linear

Seja V um espaço vetorial sobre K, valem as seguintes consequências:


LI1 Se S = {v1 , v2 } é um subconjunto de V , com v1 6= 0V e v2 6= 0V , então S é L.D. se, e somente se,
v1 e v2 são proporcionais.
LI2 S = {v} é um subconjunto unitário de V é L.I. se, e somente, se v 6= 0V .
LI3 Se S é um subconjunto de V tal que 0V ∈ S, então S é L.D, ou seja, todo conjunto que contém o
elemento neutro, 0V , é linearmente dependente.
LI4 Se S e S0 são subconjuntos finitos de V com S ⊂ S0 e S L.D., então S0 também é L.D., ou seja,
todo conjunto contido em um subconjunto L.D. também é L.D.
LI5 Se S e S0 são subconjuntos finitos de V com S ⊂ S0 e S0 L.I., então S também é L.I., ou seja, todo
subconjunto de um conjunto L.I. também é L.I.

Verificação:

LI1 S = {v1 , v2 } é L.D. se, e somente se, existem α1 , α2 ∈ K tais que α1 · v1 + α2 · v2 = 0V e α1 6= 0


α1
ou α2 6= 0, supondo α2 6= 0, então v1 = − · v2 e portanto v1 e v2 são proporcionais.
α2
Reciprocamente, se v1 e v2 são proporcionais, então existe β ∈ K tal que

v2 = β · v1 ⇐⇒ 1 · v2 + (−β )v1 = 0V .

Portanto, S = {v1 , v2 } é L.D.


LI2 S = {v} é L.I. se, e somente, se α · v = 0V tem apenas a solução trivial α = 0, portanto v 6= 0V .
É claro que se v 6= 0V a equação β · v = 0V só tem a solução trivial β = 0, e portanto, S = {v} é
L.I.
4.2 Dependência e Independência Linear 105

LI3 Suponhamos que S = {0V , v2 , · · · , vk }, logo a equação


α1 · 0V + α2 · v2 + · · · + αk · vk = 0V
tem solução não trivial, pois α1 pode ser qualquer elemento de K.
Portanto, S é linearmente dependente.
LI4 Suponhamos S = {v1 , v2 , · · · , vk } e S0 = {v1 , v2 , · · · , vk , w1 · · · wl } e que S é L.D., então
existem escalares não todos nulos α1 , α2 , · · · , αk tais que
α1 · v1 + α2 · v2 + · · · + αk · vk = 0V ,
consequentemente
α1 · v1 + α2 · v2 + · · · + αk · vk + 0 · w1 + 0 · w2 + · · · + 0 · wl = 0V
é uma solução não trivial e portanto S0 também é L.D.
LI5 De fato se S fosse L.D. pela propriedade LI4 teríamos S0 também L. D., uma contradição.
Portanto, S é L.I.

Teorema 4.2.3 Sejam V um espaço vetorial sobre o corpo K e v1 , v2 , · · · , vk vetores em V . O


conjunto S = {v1 , v2 , · · · , vk } é linearmente dependente (LD) se, e somente se, um de seus elementos
pode ser escrito como combinação linear dos demais elementos.

Demonstração: Suponhamos que S = {v1 , v2 , · · · , vk } é um subconjunto L.D. de V , então a equação


a1 v1 + a2 v2 + · · · + ak vk = 0V
tem alguma solução não trivial.
Suponhamos sem perda de generalidade que uma solução não trivial seja com a1 6= 0, então temos:
−a2 −ak
a1 · v1 = −a2 · v2 − · · · − ak · vk =⇒ v1 = · v2 + · · · + · vk .
a1 a1
Assim, v1 se escreve como combinação linear dos demais vetores.
Reciprocamente, supondo que v1 = α1 · v2 + · · · + αk−1 · vk , então temos
1 · v1 − α1 · v2 − · · · − αk−1 · vk .
Consequentemente, S é linearmente dependente.

Proposição 4.2.4 Sejam V um espaço vetorial sobre o corpo K e S = {u1 , · · · , uk } é um subcon-


junto L.I. de V . Se v ∈ V se escreve como combinação linear dos vetores S, então v se escreve de
maneira única, a menos da ordem das parcelas, como combinação linear dos vetores de S.

Demonstração: De fato, se existem escalares a1 , · · · , ak e b1 , · · · , bk em K tais que


v = a1 u1 + · · · + ak uk = b1 u1 + · · · + bk uk
⇐⇒ a1 u1 + · · · + ak uk − (b1 u1 + · · · + bk uk ) = 0V ⇐⇒ (a1 − b1 )u1 + · · · + (ak − bk )uk = 0V .
Como S é subconjunto L.I. de V segue que:

 a1 = b1

a1 − b1 = · · · = ak − bk = 0 ⇐⇒ ..
 .
 a = b
k k

Portanto, v se escreve de maneira única como combinação linear dos vetores de S.


106 Capítulo 4. Base e Dimensão de Espaços Vetoriais

4.3 Base e Dimensão

4.3.1 Base de um Espaço Vetorial Finitamente Gerado

Agora vamos estabelecer o procedimento para obter um subconjunto finito de um espaço vetorial V
finitamente gerado sobre um corpo K, tal que todo vetor deste espaço vetorial pode ser escrito de
maneira única como combinação linear dos vetores deste subconjunto.
Definição 4.3.1 Seja V um espaço vetorial finitamente gerado sobre um corpo K, um subconjunto
finito B de V é uma base de V se, e somente se,
(i) B gera V , ou seja, [B] = V .
(ii) B é linearmente independente.

Exemplos 4.3.1 (a) B = {(1, 0), (0, 1)} é base de R2 , pois:


• Para todo (x, y) ∈ R2 podemos escrever (x, y) = x(1, 0) + y(0, 1), logo [B] = R2 .
• B é L.I. pela propriedade LI1 .
(b) B = {(1, 0), (0, 1)} é base de C2 , como espaço vetorial sobre C, pois:
• Para todo (x + iy, z + iw) ∈ R2 podemos escrever

(x + iy, z + iw) = (x + iy)(1, 0) + (z + iw)(0, 1),

logo [B] = C2 .
• B é L.I. pela propriedade LI1 .
(c) B = {(1, 0), (0, 1), (i, 0), (0, i)} é base de C2 , como espaço vetorial sobre R, pois:
• Para todo (x + iy, z + iw) ∈ R2 podemos escrever

(x + iy, z + iw) = x(1, 0) + y(i, 0) + z(0, 1) + w(0, i),

logo [B] = C2 .
• B é L.I., pois a equação abaixo tem apenas a solução trivial:


 a=0
b=0

a(1, 0) + b(i, 0) + c(0, 1) + d(0, i) = (0, 0) ⇐⇒ (a + bi, c + di) = (0, 0) ⇐⇒

 c=0
d=0

(d) B = {(1, −1), (0, 1), (1, 1) não é base de R2 , pois B é L.D. já que

(1, −1) = (1, 1) + (−2)(0, 1).

(e) B = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} é base de R3 , pois:


• Para todo (x, y, z) ∈ R3 podemos escrever (x, y, z) = x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1), portanto
[B] = R3 .
• B é L.I.,pois a equação vetorial a(1, 0, 0) + b(0, 1, 0) + c(0, 0, 1) = (0, 0, 0) tem uma única
 a=0
solução b=0
c=0

4.3 Base e Dimensão 107

(f) B = {(1, 0, 0), (0, 1, −1)} é base de R3 , pois não existem números reais a e b tais que, por
exemplo, a(1, 0, 0) + b(0, 1, −1) = (1, 2, 3).
       
1 0 0 1 0 0 0 0
(g) B = , , , é base de M2 (R), pois:
0 0 0 0 1 0 0 1
 
x y
• Para toda matriz ∈ M2 (R) podemos escrever
z t
         
x y 1 0 0 1 0 0 0 0
=x +y +z +t ,
z t 0 0 0 0 1 0 0 1

portanto [B] = M2 (R).


• B é L.I., pois a única solução da equação

          
 a=0
1 0 0 1 0 0 0 0 0 0 b=0

a +b +c +d = é
0 0 0 0 1 0 0 1 0 0 
 c=0
d=0

(h) B = {1, t, t 2 } é base de P2 (R), pois:


• Para todo p(t) = a0 + a1t + a2t 2 ∈ P2 (R) podemos escrever p(t) = a0 · 1 + a1 · t + a2 · t 2 ,
portanto [B] = P2 (R).

 a=0
• B é L.I., pois a única solução da equação a · 1 + b · t + c · t ≡ 0 é
2 b=0
c=0

Observação 4.3.2 Os espaços vetoriais F (R) e C ([a, b]) não têm base finita, pois não existe um
conjunto finito de funções L.I que gera qualquer função.

4.3.2 Base Canônica

Alguns espaços vetoriais têm uma base especial, considerada a base padrão, essa base é aquela em
que, em geral, é imediato escrever um vetor do espaço vetorial como combinação de seus vetores, e é
chamada base canônica.
Exemplos 4.3.3 (a) A base canônica de Rn é:

B = {e1 , e2 , · · · , en }, com ei = (0, · · · , 1


|{z} , · · · , 0).
i−ésima posição

Observemos que dado v = (a1 , a2 , · · · , an ) ∈ Rn , então

v = a1 (1, 0, · · · , 0) + a2 (0, 1, · · · , 0) + · · · + an (0, 0, · · · , 1) = a1 e1 + a2 e2 + · · · + an en .

(a1 ) B = {(1, 0), (0, 1)} é a base canônica de R2 .


(a2 ) B = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} é a base canônica de R3 .
(a3 ) B = {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} é a base canônica de R4 .
108 Capítulo 4. Base e Dimensão de Espaços Vetoriais

(b) A base canônica de Mm×n (R) é:

B = {E11 , E12 , · · · , E1n , E21 , E22 , · · · , E2n , · · · , Em1 , Em2 , · · · , Emn },

com Ei j ∈ Mm×n (R) a matriz que o elemento da posição i j é 1 e os demais elementos são iguais
a 0, ou seja,
0 ··· ··· ··· 0
 
 .. .. .. .. .. 
 . . . . . 
 0 ··· 1 · · · 0 
 
Ei j =  |{z}  .
 posição i j 
 . . .. .. .. 
 .. .. . . . 
0 ··· ··· · · · 0 m×n
 
a11 a12 · · · a1n
 .. .. .. .. 
Observemos que dado A =  . . . .  ∈ Mm×n (R), então
am1 am2 · · · amn m×n

     
1 0 ··· 0 0 1 ··· 0 0 0 ··· 1
 .. .. .. ..  + a  .... .. ..  + · · · + a  .... .. ..  + · · ·
A = a11  . . . .  12  . . . .  1n  . . . . 
0 0 ··· 0 0 0 ··· 0 0 0 ··· 0
     
0 0 ··· 0 0 0 ··· 0 0 0 ··· 0
 .. .. .. ..  + a  .... .. ..  + · · · + a  .... .. .. 
+ am1  . . . .  m2  . . . .  mn  . . . . 
1 0 ··· 0 0 1 ··· 0 0 0 ··· 1

= a11 E11 + a12 E12 + · · · + a1n E1n + · · · + a[ m1Em1 + am2 Em2 + · · · + amn Emn .
       
1 0 0 1 0 0 0 0
(b1 ) B = , , , é base canônica de M2 (R)
0 0 0 0 1 0 0 1
             
 1 0 0 1 0 0 0 0 0 0 0 0 
(b2 ) B =  0 0  ,  0 0 ,  1 0 ,  0 1  ,  0 0  ,  0 0  é base canô-
0 0 0 0 0 0 0 0 1 0 0 1
 
nica de M3×2 (R)
(c) A base canônica de Pn (R) é:
B = 1, t, · · · , t n .


Observemos que dado p(t) = a0 + a1 t + · · · + an t n ∈ Pn (R), então

p(t) = a0 · 1 + a1 · t + · · · + an · t n .

(c1 ) B = 1, t é a base canônica de P1 (R).




(c2 ) B = 1, t, t 2 é a base canônica de P2 (R).




(c3 ) B = 1, t, t 2 , t 3 é a base canônica de P3 (R).



4.3 Base e Dimensão 109

(d) A base B = {e1 , e2 , · · · , en }, com ei = (0, · · · , 1


|{z} , · · · , 0), dada no exemplo (a) acima
i−ésima posição
é também base canônica de Cn , como espaço vetorial sobre C.
Porém, se consideramos Cn como espaço vetorial sobre R, então a base canônica é:

B = {e1 , e2 , · · · , en , i e1 , i e2 , · · · , i en },

com i a unidade imaginária.


(d1 ) B = {(1, 0), (0, 1)} é a base canônica de C2 , como espaço vetorial sobre C.
(d2 ) B = {(1, 0), (0, 1), (i, 0), (0, i)} é base canônica de C2 , como espaço vetorial sobre R.
(d3 ) B = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} é a base canônica de C3 , como espaço vetorial sobre C.
(d4 ) B = {(1, 0, 0), (0, 1, 0), (0, 0, 1), (i, 0, 0), (0, i, 0), (0, 0, i)} é base canônica de C3 , como
espaço vetorial sobre R.

4.3.3 Dimensão de um Espaço Vetorial Finitamente Gerado

Agora vamos estabelecer o procedimento para obter a dimensão de um espaço vetorial V finitamente
gerado sobre um corpo K.

Teorema 4.3.4 Sejam V um espaço vetorial sobre o corpo K e S um subconjunto finito de V tal que
[S] = V , então:
(i) Podemos extrair de S uma base de V .
(ii) Qualquer subconjunto de V com mais do que #(S) vetores é necessariamente L.D.

Demonstração: Suponhamos que S = {v1 , v2 , · · · , vn }.


(i) Se S é L.I., então S é uma base de V , pois por hipótese [S] = V .
Se S é L.D., então a equação a1 v1 + a2 v2 + · · · + an vn = 0V tem alguma solução não trivial.
Suponhamos sem perda de generalidade que uma solução não trivial seja com an 6= 0, então
podemos escrever:
(−a1 ) (−an−1 )
vn = v1 + · · · + vn−1 =⇒ vn ∈ [v1 , · · · , vn−1 ].
an an
Consequentemente, V = [v1 , · · · , vn−1 ]
Se {v1 , · · · , vn−1 } é L. I., então essa é uma base de V .
Caso contrário, como S é finito, repetindo o procedimento sucessivamente encontraremos B um
subconjunto de S com B L.I. e [B] = V.
(ii) Por hipótese sabemos que V = [S] e pelo item (i) podemos extrair de S uma base de V , suponhamos
que B = {v1 , · · · , vk } é uma tal base de V .
Seja {w1 , w2 , · · · , wm } um subconjunto de V com m > k, como B é base de V podemos escrever:

w1 = a11 v1 + a12 v2 + · · · + a1k vk


w2 = a21 v1 + a22 v2 + · · · + a2k vk
.. .
.
wm = am1 v1 + am2 v2 + · · · + amk vk
110 Capítulo 4. Base e Dimensão de Espaços Vetoriais

Assim a equação α1 w1 + α2 w2 + · · · αm wm = 0V é equivalente à seguinte:

α1 (a11 v1 + a12 v2 + · · · a1k vk ) + α2 (a21 v1 + a22 v2 + · · · a2k vk )

+ · · · + αm (am1 v1 + am2 v2 + · · · amk vk ) = 0V


⇐⇒ (α1 a11 + α2 a21 + · · · + αm am1 ) v1 + (α1 a12 + α2 a22 + · · · + αm am2 ) v2
+ · · · + (α1 a1k + α2 a2k + · · · + αm amk ) vk = 0V .
Como {v1 , · · · , vk } é L.I., então devemos ter:

α a + α2 a21 + · · · + αm am1 = 0
 1 11


 α1 a12 + α2 a22 + · · · + αm am2 = 0
..


 .
1 1k + α2 a2k + · · · + αm amk = 0
 α a

um sistema homogêneo com m variáveis, α1 , α2 , · · · , αm , e k equações e k ≤ n < m.


Como o sistema é homogêneo pc = pa ≤ k < m, com pc e pa , respectivamente, o posto da matriz
dos coeficientes e o posto da matriz ampliada do sistema acima.
Logo, pelo teorema do posto o sistema tem infinitas soluções.
Portanto, {w1 , w2 , · · · , wm } é L.D.

Corolário 4.3.5 Seja V um espaço vetorial sobre o corpo K, se B é uma base de V , S é um


subconjunto L.I de V , então #(S) ≤ #(B), com # indicando o número de elementos do conjunto.

Demonstração: De fato, se tivéssemos #(S) > #(B) pelo Teorema 4.3.4 (ii) teríamos S um conjunto
L. D., uma contradição!
Portanto, #(S) ≤ #(B).

Corolário 4.3.6 Seja V um espaço vetorial finitamente gerado sobre um corpo K, então qualquer
base V tem o mesmo número de elementos.
Demonstração: Sejam B1 e B2 bases de V pelo corolário acima como B1 é base e B2 é L.I devemos
ter #(B2 ) ≤ #(B1 ).
Por outro lado, como B2 é base e B1 é L. I. devemos ter #(B1 ) ≤ #(B2 ).
Portanto, #(B1 ) = #(B2 ).

Definição 4.3.2 Seja V um espaço vetorial sobre o corpo K finitamente gerado. A dimensão de
V , denotada por dimV , é o número de elementos de uma base de V .

Observações 4.3.7 (a) Se V é um espaço que tem uma base finita, dizemos que V é um espaço
vetorial de dimensão finita.
(b) No caso em queremos especificar o corpo considerado para obter a dimensão de um espaço
vetorial finitamente gerado indicamos a dimensão por dimK V.
4.3 Base e Dimensão 111

Exemplos 4.3.8 (a) dim R2 = 2, dim R3 = 3, dim Rn = n.


(b) dimC C2 = 2, dimC C3 = 3, dimC Cn = n, dimR C2 = 4, dimR C3 = 6, dimR Cn = 2n.
(c) dim M2 (R) = 4, dim M3 (R) = 9, dim Mn (R) = n2 .
(d) dim P1 (R) = 2, dim P2 (R) = 3, dim Pn (R) = n + 1.
(e) F (R) e C ([a, b]) não têm dimensão finita.

Corolário 4.3.9 Seja V um espaço vetorial finitamente gerado sobre um corpo K de dimensão n, se
B é um subconjunto finito de V com n elementos, então B é L. I. se, e somente se [B].

Demonstração: Se B é L. I. e tivéssemos [B] 6= V , então existiria v ∈ V , v 6= 0V tal que v ∈


/
[B], consequentemente, pelo Teorema 4.2.3 teríamos B1 = B ∪ {v} um subconjunto L.I. de V ,
contradizendo o Teorema 4.3.4 (ii).
Portanto, [B] = V .
Reciprocamente, se [B] = V , como #(B) = n = dimV , outra vez pelo Teorema 4.3.4 (ii) segue que
B é L. I.

Teorema 4.3.10 (Teorema do Completamento)


Seja V um espaço vetorial sobre o corpo K de dimensão finita. Se S = {v1 , v2 , · · · , vk } é um
subconjunto de L.I. de V , então podemos completar S para formar uma base de V .

Demonstração: Se k = n = dimV , segue que S é base de V .


Se k < n, então S não é base de V , consideremos m = n − k ≥ 1, então dada B = {u1 , u2 , · · · , un }
base de V , existe ur1 ∈ B tal que ur1 ∈
/ [S], logo pelo Teorema 4.2.3 segue que S1 = S ∪ {ur1 } é L. I.
Se m = 1, então #(S1 ) = k + 1 = n = dimV , portanto S1 é base de V que contém S.
Caso contrário, m > 1 e [S1 ] 6= V , portanto existe ur2 ∈ B tal que ur2 ∈
/ [S1 ], logo pelo Teorema 4.2.3
segue que S2 = S1 ∪ {ur2 } = S ∪ {ur1 , ur2 } é L. I.
Se m = 2, então #(S2 ) = k + 2 = n = dimV , portanto S2 é base de V que contém S.
Caso contrário, m > 2, repetimos o processo, como 1 ≤ m ≤ n − 1 este processo é finito, obtemos
B 0 = S ∪ {ur1 , · · · , urm } base de V que contém S.

Teorema 4.3.11 Seja V um espaço vetorial sobre o corpo K de dimensão finita. Se U é um


subespaço de V , então:
(i) dimU ≤ dimV .
(ii) dimU = 0 se, e somente se, U = {0V }.
(iii) dimU = dimV , se e somente se, U = V .
Demonstração: Seja BU uma base de U, então:
(i) De fato, pois dimU = #(BU ), como BU é um subconjunto L. I. de V , então pelo Teorema 4.3.4
(ii) temos #(BU ) ≤ dimV .
(ii) dimU = 0 se, e somente se, #(BU ) = 0, mas

#(BU ) = 0 ⇐⇒ BU = 0/ ⇐⇒ U = {0V }

.
112 Capítulo 4. Base e Dimensão de Espaços Vetoriais

(iii) Se dimU = dimV , então BU é um subconjunto L. I. de V com #(BU ) = dimV .


Portanto, pelo Corolário 4.3.9 segue que BU é base de V , consequentemente U = [BU ] = V .
A recíproca é imediata.

Teorema 4.3.12 (Teorema da Soma e da Intersecção de Subespaços)


Sejam V um espaço vetorial sobre o corpo K de dimensão finita, U e W são subespaços de V , então:

dim(U +W ) = dimU + dimW − dim(U ∩W ).

Demonstração: Seja B1 = {v1 , · · · , vk } uma base de U ∩ W , como U ∩ W é subespaço de U e


subespaço de W , pelo Teorema do Completamento 4.3.10 podemos completar a uma base de U e a
uma base de W , ou seja, existem B2 = {v1 , · · · , vk , u1 , · · · , ur } e B3 = {v1 , · · · , vk , w1 , · · · , ws }
bases de U e W , respectivamente, com k + r = dimU e k + s = dimW .
Mostremos que B = {v1 , · · · , vk , u1 , · · · , ur , w1 , · · · , ws } é uma base de U +W .
Seja v ∈ U +W , então v = u + w com u ∈ U e w ∈ W , logo existem escalares α1 , · · · , αk , β1 , · · · , βr ,
γ1 , · · · , γk , δ1 , · · · , δs tais que:
u = α1 v1 + · · · + αk vk + β1 u1 + · · · + βr ur

w = γ1 v1 + · · · + γk vk + δ1 w1 + · · · + δs ws .
Logo,
v = (α1 + γ1 )v1 + · · · + (αk + γk )vk + β1 u1 + · · · + βr ur + δ1 w1 + · · · + δs ws .
Portanto, v ∈ [B], como v é elemento arbitrário de V segue que V = [B].
Resta mostrar que B é L. I.
Se
α1 v1 + · · · + αk vk + β1 u1 + · · · + βr ur + γ1 w1 + · · · + γs ws = 0V . (4.3.1)
Consequentemente,
α1 v1 + · · · + αk vk + β1 u1 + · · · + βr ur = −(γ1 w1 + · · · + γs ws ) .
| {z } | {z }
∈U ∈W
Logo,
−(γ1 w1 + · · · + γs ws ) ∈ U ∩W.
Assim, como B1 = {v1 , · · · , vk } é base de U ∩W , então existem escalares δ1 , · · · , δk tais que:
−(γ1 w1 + · · · + γs ws ) = δ1 v1 + · · · + δk vk ⇐⇒ γ1 w1 + · · · + γs ws + δ1 v1 + · · · + δk vk = 0V .
Como B3 = {v1 , · · · , vk , w1 , · · · , ws } é base de W , segue que γ1 = · · · = γs = δ1 = · · · = δk = 0.
Logo, em 4.3.1 teremos
α1 v1 + · · · + αk vk + β1 u1 + · · · + βr ur = 0V .
Como B2 = {v1 , · · · , vk , u1 , · · · , ur } é base de U segue que α1 = · · · = αk = β1 = · · · = βr = 0.
Consequentemente, B é L. I. e é base de U +W.
Assim,
dim(U +W )k + r + s = (k + r) + (k + s) − k = dimU + dimW − dim(U ∩W ).
4.3 Base e Dimensão 113

Exemplos 4.3.13 Determine uma base e a dimensão de U, W , U ∩W e U +W , nos seguintes casos:



 U = {(x, y, z) ∈ R3 ; x = y}
(a) V = R3 com
W = {(x, y, z) ∈ R3 ; z = 0}

Solução:
• (x, y, z) ∈ U ⇐⇒ (x, y, z) = (x, x, z) = x(1, 1, 0) + z(0, 0, 1).
Assim, BU = {(1, 1, 0), (0, 0, 1)} é uma base de U e dim U = 2.

• (x, y, z) ∈ W ⇐⇒ (x, y, z) = (x, y, 0) = x(1, 0, 0) + y(0, 1, 0).


Logo, BW = {(1, 0, 0), (0, 1, 0)} é uma base de W e dim W = 2.

• Vimos que U ∩W = {(x, y, z) ∈ R3 ; x = y e z = 0}.


Portanto, (x, y, z) ∈ U ∩W ⇐⇒ (x, y, z) = (x, x, 0) = x(1, 1, 0).
Logo, BU∩W = {(1, 1, 0)} é uma base de U ∩W e dim U ∩W = 1.

• Pelo teorema da soma e da intersecção de subespaços sabemos que


dim (U +W ) = dim | {zW} − |dim (U
| {z U} + dim {z
∩W ) = 3.
}
2 2 1

Como U +W é subespaço de R3 e dim U +W = 3, segue que U +W = R3 .


   
a11 a12
U= ∈ M2 (R); a22 = a11


a21 a22



(b) V = M2 (R) com   
a11 a12


W= ∈ M2 (R); a11 = 0 e a21 = −a12


a21 a22
Solução:
           
a b a b a b 1 0 0 1 0 0
• ∈ U ⇐⇒ = =a +b +c .
c d c d c a 0 1 0 0 1 0
     
1 0 0 1 0 0
Assim, BU = , , é uma base de U e dim U = 3.
0 1 0 0 1 0
         
a b a b 0 b 0 1 0 0
• ∈ W ⇐⇒ = =b +d .
c d c d −b d −1 0 0 1
   
0 1 0 0
Portanto, BW = , é uma base de W e dim W = 2.
−1 0 0 1
  
0 b
• Vimos que U ∩W = ∈ M2 (R) .
 −b0
0 1
Logo, BU∩W = é uma base de U ∩W e dim U ∩W = 1.
−1 0

• Pelo teorema da soma e da intersecção de subespaços sabemos que

| {z U} + dim
dim (U +W ) = dim | {zW} − |dim (U
{z
∩W ) = 4.
}
3 2 1

Como U +W é subespaço de M2 (R) e dim U +W = 4, segue que U +W = M2 (R).


114 Capítulo 4. Base e Dimensão de Espaços Vetoriais

 U = {(x, y, z, w) ∈ R4 ; x + y = 0 e z − w = 0}
(c) V = R4 com
W = {(x, y, z, w) ∈ R4 ; x − y − z + w = 0}

Solução:
• (x, y, z, w) ∈ U ⇐⇒
(x, y, z, w) = (x, −x, z, z) = (x, −x, 0, 0) + (0, 0, z, z) = x(1, −1, 0, 0) + z(0, 0, 1, 1).

Logo, BU = {(1, −1, 0, 0), (0, 0, 1, 1)} é uma base de U e dim U = 2.

• (x, y, z, w) ∈ W ⇐⇒
(x, y, z, w) = (y + z − w, y, z, w) = y(1, 1, 0, 0) + z(1, 0, 1, 0) + w(−1, 0, 0, 1).

Assim, BW = {(1, 1, 0, 0), (1, 0, 1, 0), (−1, 0, 0, 1)} é uma base de U e dim W = 3.

• Vimos que U ∩W = {(x, y, z, w) ∈ R3 ; x = y = 0 e w = z}.


Daí que, (x, y, z, w) ∈ U ∩W ⇐⇒ (x, y, z, w) = (0, 0, z, z) = z(0, 0, 1, 1).
Portanto, BU∩W = {(0, 0, 1, 1)} é uma base de U ∩W e dim U ∩W = 1.

• Pelo teorema da soma e da intersecção de subespaços sabemos que

| {z U} + dim
dim (U +W ) = dim | {zW} − |dim (U
{z
∩W ) = 4.
}
3 2 1

Como U +W é subespaço de R4 e dim U +W = 4, segue que U +W = R4 .


 U = {p(t) = a0 + a1t + a2t 2 + a3t 3 ∈ P3 (R); a3 = −a1 }

(d) V = P3 (R) com


W = {p(t) ∈ P3 (R); p(−1) = p0 (−1) = 0}

Solução:
• p(t) = a0 + a1t + a2t 2 + a3t 3 ∈ U ⇐⇒
p(t) = a0 + a1t + a2t 2 + a3t 3 = a0 + a1t + a2t 2 − a1t 3 = a0 + a1 (t − t 3 ) + a2t 2 .

Logo, BU = {1, t + t 3 , t 2 } é uma base de U e dim U = 3.


• p(t) = a0 + a1t + a2t 2 + a3t 3 ∈ W ⇐⇒ p(−1) = p0 (−1) = 0
 
a0 − a1 + a2 − a3 = 0 a0 = a1 − a2 + a3
⇐⇒ ⇐⇒
a1 − 2a2 + 3a3 = 0 a1 = 2a2 − 3a3

a0 = 2a2 − 3a3 − a2 + a3 = a2 − 2a3
⇐⇒
a1 = 2a2 − 3a3
⇐⇒ p(t) = a2 − 2a3 + (2a2 − 3a3 )t + a2t 2 + a3t 3 = a2 (1 + 2t + t 2 ) + a3 (−2 − 3t + t 3 ).
Assim, BW = {1 + 2t + t 2 , −2 − 3t + t 3 } é uma base de W e dim W = 2.
• Vimos que U ∩W = {p(t) = a1 + a1t − a1t 2 − a1t 3 ∈ P3 (R)}.
Portanto, p(t) = a0 + a1t + a2t 2 + a3t 3 ∈ U ∩W ⇐⇒
p(t) = a1 + a1t − a1t 2 − a1t 3 = a1 (1 + t − t 2 − t 3 ).

Logo, BU = {1 + t − t 2 − t 3 } é uma base de U ∩W e dim U ∩W = 1.


4.3 Base e Dimensão 115

• Pelo teorema da soma e da intersecção de subespaços sabemos que


dim (U +W ) = dim | {zW} − |dim (U
| {z U} + dim {z
∩W ) = 4.
}
3 2 1

Como U +W é subespaço de P3 (R) e dim U +W = 4, segue que U +W = P3 (R).

4.3.4 Procedimento para o Completamento de uma Base

Sejam V um espaço vetorial sobre um corpo K finitamente gerado de dimensão n e


S = {w1 , w2 , · · · , wm }, com m ≤ n, um subconjunto de V . Para determinar uma base de V pro-
cedemos da seguinte maneira:
1º Passo: Consideramos B = {v1 , v2 , · · · , vn } a base canônica de V e escrevemos os vetores de S
como combinação linear dos vetores B:
w1 = a11 v1 + a12 v2 + · · · + a1n vn
w2 = a21 v1 + a22 v2 + · · · + a2n vn
.. .
.
wm = am1 v1 + am2 v2 + · · · + amn vn

2º Passo: Consideramos a matriz A dos coeficientes dos vetores de S em relação à B, ou seja,


 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
A =  .. ..  .
 
.. . .
 . . . . 
am1 am2 · · · amn

3º Passo: Escalonamos a matriz A obtendo uma matriz A0 :


 
α11 α12 · · · α1n
 α21 α22 · · · α2n 
A0 =  .. .
 
.. .. ..
 . . . . 
αm1 αm2 · · · αmn
Observemos que o conjunto S0 = {u1 , u2 , · · · , um }, com
u1 = α11 v1 + α12 v2 + · · · + α1n vn
u2 = α21 v1 + α22 v2 + · · · + α2n vn
..
.
um = αm1 v1 + αm2 v2 + · · · + αmn vn
gera o mesmo subespaço que S, pois os vetores de S0 foram obtidos dos vetores de S por operações
elementares que são:


 Li ←→ L j permuta os vetores wi e w j



Li −→ kLi , com k 6= 0, substitui o vetor wi por kwi ,




Li −→ Li + kL j , com k 6= 0, substitui o vetor wi por wi + kw j

que são lineares.


Portanto, U = [S] = [S0 ].
116 Capítulo 4. Base e Dimensão de Espaços Vetoriais

4º Passo: Analisamos os casos:


(i) Se posto de (A)= posto de (A0 ) = m = n, então tanto S como S0 são bases de V .
(ii) Se posto de (A)= posto de (A0 ) = m < n, então tanto S e S0 são subconjuntos L.I. de V .
Para encontrarmos uma base de V basta completar a matriz A0m×n , adicionando n − m linhas
de modo a obter uma matriz A00n×n na forma escalonada, digamos que seja:

0 0 0
 
α11 α12 ··· α1n
 α210 α220 ··· α2n0 
 
 .. .. .. .. 
 . . . . 
00 0 0 0
 
A = 0αm1 αm2 ··· αmn .
0 0

 α
 (m+1)1 α(m+1)2 · · · α(m+1)n 

 .. .. .. .. 
 . . . . 
αn10 αn20 ··· αnn0

O conjunto B 0 = {u1 , u2 , · · · , um , um+1 , · · · , un }, com


0 v 0 v 0 v
u1 = α11 1 + α12 2 + ··· + α1n n
u2 = 0
α21 v1 + 0
α22 v2 + · · · + α2n vn
..
.
0 v 0 v 0 v ,
um = αm1 1 + αm2 2 + ··· + αmn n
0
um+1 = αm+11 0
v1 + αm+12 0
v2 + · · · + αm+1n vn
..
.
0 v 0 v 0 v
un = αn1 1 + αn2 2 + ··· + αnn n

é uma base de V .
(iii) Se posto de (A)= posto de (A0 ) = r < m ≤ n, então tanto S e S0 são subconjuntos L.D. de V .
Consideremos as r primeiras linhas de A0 , que são não nulas, é claro que o conjunto
{u1 , u2 , · · · , ur }, com

u1 = α11 v1 + α12 v2 + · · · + α1n vn


u2 = α21 v1 + α22 v2 + · · · + α2n vn
.. ,
.
ur = αr1 v1 + αr2 v2 + · · · + αrn vn

é um subconjunto L. I. de V .
Para obter uma base procedemos como no caso (ii), a diferença é que aqui a partir das r
primeiras linhas de A0 adicionando n − r linhas de modo a obter uma matriz A00n×n na forma
escalonada, digamos que seja:
0 0 0
 
α11 α12 ··· α1n
 α0 α22 0 ··· α2n 0 
 21 
 .. .. . . .
. 
 . . . . 
00 0 0 0
 
A =  0αr1 αr2 ··· αrn  .
0 0
 (r+1)1 α(r+1)2 · · · α(r+1)n 
 α 
 .. .. .. .. 
 . . . . 
0
αn1 0
αn2 ··· 0
αnn
4.3 Base e Dimensão 117

O conjunto B 0 = {u1 , u2 , · · · , ur , ur+1 , · · · , un }, com


0 v 0 v 0 v
u1 = α11 1 + α12 2 + ··· + α1n n
0 v 0 v 0 v
u2 = α21 1 + α22 2 + ··· + α2n n
..
.
0 v 0 v 0 v ,
ur = αr1 1 + αr2 2 + ··· + αrn n
0 0 0
ur+1 = αr+11 v1 + αr+12 v2 + · · · + αr+1n vn
..
.
0 v 0 v 0 v
un = αn1 1 + αn2 2 + ··· + αnn n

é uma base de V .

Exemplos 4.3.14 Através do conjunto S obtenha uma base de V , nos seguintes casos:
(a) S = {1 + t, t 2 − t, t 3 + t 2 + t, 2t 3 − 1} subconjunto de V = P3 (R).
Solução:
A base canônica de P3 (R) é B = {1, t, t 2 , t 3 } e os vetores de S se escrevem como combinação
linear dos vetores de B da seguinte maneira:
1+t = 1 · t + 1 · t + 0 · t2 + 0 · t3
t2 − t = 0 · t − 1 · t + 1 · t2 + 0 · t3
.
t3 + t2 + t = 0 · t + 1 · t + 1 · t2 + 1 · t3
2t 3 − 1 = −1 · t + 0 · t + 0 · t 2 + 2 · t 3
Assim, a matriz dos coeficientes é:
 
1 1 0 0
 0 −1 1 0 
A=
 0
,
1 1 1 
−1 0 0 2
cuja forma escalonada pode ser:
 
1 1 0 0
 0 −1 1 0 
A0 = 
 0
.
0 2 1 
0 0 0 −3
Logo, posto de (A) = 4 e portanto S é base de P3 (R).
     
1 −1 1 −2 3 −4
(b) S = , , subconjunto de V = M2 (R).
0 1 3 1 1 0
Solução:
       
1 0 0 1 0 0 0 0
B= , , , é a base canônica de M2 (R) e os vetores de
0 0 0 0 1 0 0 1
S se escrevem como combinação linear dos vetores de B da seguinte maneira:
         
1 −1 1 0 0 1 0 0 0 0
= 1· −1· +0· +1·
0 1 0 0 0 0 1 0 0 1
         
1 −2 1 0 0 1 0 0 0 0
= 1· −2· +3· +1· .
3 1 0 0 0 0 1 0 0 1
         
3 −4 1 0 0 1 0 0 0 0
= 3· −4· +1· +0·
1 0 0 0 0 0 1 0 0 1
118 Capítulo 4. Base e Dimensão de Espaços Vetoriais

Portanto, a matriz dos coeficientes dos vetores de S em relação a essa base é:


 
1 −1 0 1
A =  1 −2 3 1  ,
3 4 1 0

cuja forma escalonada pode ser:


 
1 −1 0 1
A0 =  0 −1 3 0 .
0 0 −2 −3

Logo, posto de (A) = 3 e para encontrar uma base, basta completar a matriz acima de modo a
encontrar A00 uma matriz 4 × 4 na forma escalonada, por exemplo:
 
1 −1 0 1
 0 −1 3 0 
A00 =  .
 0 0 −2 −3 
0 0 0 1

Logo,        
0 1 −1 0 −1 0 0 0 0
B = , , ,
0 1 3 0 −2 −3 0 1
é base de M2 (R).
(c) S = {(1, 7, −3, 1), (3, 21, 0, −1), (2, 14, −3, −2)} subconjunto de R4
Solução:
B = {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} é a base canônica de R4 e a matriz dos
coeficientes dos vetores de S em relação a essa base é:
 
1 7 −3 1
A =  3 21 0 −1  ,
2 14 −3 −2

cuja forma escalonada pode ser:


 
1 7 −3 1
A0 =  0 0 3 −4  .
0 0 0 0

Assim, posto de (A) = 2 e para encontrar uma base, basta acrescentar duas linhas após as linhas
não nulas de A0 de modo a encontrar A00 uma matriz 4 × 4 na forma escalonada, por exemplo:
 
1 7 −3 1
 0 1 1 1 
A00 =  .
 0 0 3 −4 
0 0 0 2

Logo,
B 0 = {(1, 7, −3, 1), (0, 1, 1, 1), (0, 0, 3, −4), (0, 0, 0, 2)}
é uma base de R4 .
4.4 Coordenadas de um Vetor 119

4.4 Coordenadas de um Vetor

Teorema 4.4.1 Seja V espaço vetorial sobre um corpo K de dimensão n. Se B = {v1 , v2 , · · · , vn }


é uma base de V , então cada vetor v de V se escreve de maneira única como combinação linear dos
vetores de B.
Demonstração: Suponhamos que

v = α1 · v1 + α2 · v2 + · · · + αn · vn = β1 · v1 + β2 · v2 + · · · + βn · vn


⇐⇒ α1 · v1 + α2 · v2 + · · · + αn · vn − β1 · v1 + β2 · v2 + · · · + βn · vn = 0V .
Logo,
(α1 − β1 ) · v1 + (α2 − β2 ) · v2 + · · · + (αn − βn ) · vn = 0V .
Como B é L.I. devemos ter necessariamente:
 

 a1 − b 1 = 0 
 a1 = b1
 a2 − b2 = 0
  a2 = b2

.. ⇐⇒ ..


 . 

 .
 a −b = 0  a =b
n n n n

Portanto, v escreve de maneira única como combinação linear dos vetores de B.

Definição 4.4.1 Seja V espaço vetorial sobre um corpo K de dimensão finita n, uma base orde-
nada de V é uma base em que está fixada a ordem dos vetores, ou seja, está fixado qual é o primeiro
vetor, qual é o segundo vetor até o n-ésimo vetor da base.

Exemplos 4.4.2 Determine as coordenadas de v em relação à base B, nos seguintes casos:


(a) B = e1 , e2 , · · · , en , a base canônica de Rn , é uma base ordenada de Rn .


(b) B = e1 , e2 , · · · , en , a base canônica de Cn , é uma base ordenada de Cn , como espaço vetorial




sobre C.
(c) B = e1 , e2 , · · · , en , i · e1 , i · e2 , · · · , i · en de Cn , é uma base ordenada de Cn como espaço


vetorial sobre R.
(d) B = E11 , E12 , · · · , E1n , E21 , E22 , · · · , E2n , · · · , Em1 , Em2 , · · · , Emn , a base canônica ordenada


de Mm×n (R), Ekl = [ei j ]m×n ∈ Mm×n (R) a matriz com o elemento da posição kl igual a 1 e os
demais elementos iguais a 0, é uma base ordenada de Mm×n (R).

Definição 4.4.2 Sejam V espaço vetorial sobre um corpo K de dimensão finita e


B = {v1 , v2 , · · · , vn } uma base ordenada de V . Dado v ∈ V as coordenadas de v em relação
à B, indicada por [v]B , são os números a1 , a2 , · · · , an tais que

v = a1 · v1 + a2 · v2 + · · · + an · vn .
 
a1
 a2 
Notação: [v]B =  .
 
..
 . 
an
120 Capítulo 4. Base e Dimensão de Espaços Vetoriais

Exemplos 4.4.3 Determine as coordenadas de v em relação à base B, nos seguintes casos:

(a) v = (−3, 7) e B = {(1, 1), (0, −1)}.


Solução:
 
−3
Como (−3, 7) = −3(1, 1) − 10(0, −1), então [v]B = .
−10

(b) v = 2 + 4t + t 2 e B = {1, 1 + t, 1 + t + t 2 }.
Solução:
Como 2 + 4t + t 2 = a + b(1 + t) + c(1 + t + t 2 ) = (a + b + c) + (b + c)t + ct 2 , temos:
 
 a+b+c = 2  a = −2
b + c = 4 ⇐⇒ b = 3 ,
c = 1 c = 1
 

então
2 + 4t + t 2 = −2 + 3(1 + t) + (1 + t + t 2 ).

 
−2
Portanto, [v]B =  3  .
1
         
2 −3 1 1 0 1 0 0 0 0
(c) v = eB =
0 , , ,
4 7 1 1 1 1 1 1 0 1
Solução:
         
2 −3 1 1 0 1 0 0 0 0
Como =a +b +c +d
4 7 1 1 1 1 1 1 0 1
   
2 −3 a a+b
⇐⇒ =
4 7 a+b+c a+b+c+d

 

 a = 2 
 a = 2
a+b = −3 b = −5
 
⇐⇒ ⇐⇒

 a+b+c = 4 
 c = 7
a+b+c+d = 7 d = 3
 
 
2
 −5 
Portanto, [v]B =  .
 7 
3
(d) Sejam V um espaço vetorial real de dimensão 4 e B = {v1 , v2 , v3 , v4 } uma base de V .
(d1 ) Mostre queB 0 ={v1 + v2 + v3 + v4 , v1 + v2 + v3 , v1 + v2 , v1 } é uma base de V .
3
 −2 
(d2 ) Se [v]B = 
 4 , determine [v]B0 .

1
4.4 Coordenadas de um Vetor 121

Solução:
(d1 ) Para mostrar que B 0 é base, basta mostrar que seus vetores são L. I., pois o número de
vetores de B 0 é igual a dimensão de V .
Assim, devemos analisar as soluções da equação:
a(v1 + v2 + v3 + v4 ) + b(v1 + v2 + v3 ) + c(v1 + v2 ) + dv1 = 0V

⇐⇒ (a + b + c + d)v1 + (a + b + c)v2 + (a + b)v3 + av4 = 0V


 

 a + b + c + d = 0  d = 0

a+b+c = 0 c = 0
 
⇐⇒ ⇐⇒

 a+b = 0 
 b = 0
a = 0 a = 0
 

Portanto, B 0 é L. I., consequentemente é uma base de V .


 
3
 −2 
(d2 ) Como [v]B =   4 , então v = 3v1 − 2v2 + 4v3 + v4 .

1
Queremos escrever
v = a(v1 + v2 + v3 + v4 ) + b(v1 + v2 + v3 ) + c(v1 + v2 ) + dv1

⇐⇒ v = (a + b + c + d)v1 + (a + b + c)v2 + (a + b)v3 + av4 .


Assim, v = 3v1 − 2v2 + 4v3 + v4 = (a + b + c + d)v1 + (a + b + c)v2 + (a + b)v3 + av4
   

 a + b + c + d = 3 
 d = 5 1
a+b+c = −2 c = −6  3 
 
⇐⇒ ⇐⇒ =⇒ [v]B0 =  −6  .


 a + b = 4 
 b = 3
a = 1 a = 1 5
 

(e) Em F (R) consideremos o subespaço U = ex , e−x .


 

(e1 ) Mostre que B = {ex , e−x } é uma base de U.


ex + e−x ex − e−x
(e2 ) As funções cosh x = e senh x = são vetores de U, determine as coordena-
2 2
das dessas funções em relação à base B
Solução:
(e1 ) Como U = ex , e−x , basta mostrar que os vetores de ex e e−x são L.I., assim vamos analisar
 

as soluções da equação:
a · ex + b · e−x ≡ 0.
  
se x = 0, então temos a + b = 0 a+b = 0 a = 0
Assim, 1 =⇒ 1 ⇐⇒
se x = ln 2, então temos 2a + 2 b = 0 2a + 2 b = 0 b = 0
Portanto, B é L.I. e consequentemente base de U.
ex + e−x 1 x 1 −x 1 1
(e2 ) Temos cosh x = = e + e e senh x = ex − e−x .
2 2 2 2 2
   
1 1
 2   2 
Logo, [cosh x]B =   e [senh x]B = 
   

 1   1 

2 2
122 Capítulo 4. Base e Dimensão de Espaços Vetoriais

4.5 Matriz Mudança de Base

Sejam V espaço vetorial sobre um corpo K de dimensão finita,


B = {v1 , v2 , · · · , vn } e B = {u1 , u2 , · · · , un } bases ordenadas de V , dado um vetor v ∈ V podemos
0

escrevê-lo como:
v = α1 · v1 + α2 · v2 + · · · + αn · vn
. (4.5.1)
v = β1 · u1 + β2 · u2 + · · · + βn · un
   
α1 β1
 α2   β2 
Nosso objetivo é relacionar [v]B0 =  e [v]B0 =  , as coordenadas de v, respectivamente,
   
.. ..
 .   . 
αn βn
em relação à base B e em relação à base B 0 .
Já que B 0 = {u1 , u2 , · · · , un } é base de V , podemos escrever os vetores de B como combinação linear
dos vetores de B 0 , ou seja,


 v1 = a11 · u1 + a21 · u2 + · · · + an1 · un




v2 = a12 · u1 + a22 · u2 + · · · + an2 · un (4.5.2)
 ..



 .
 v = a ·u + a ·u + ··· + a ·u
n 1n 1 2n 2 nn n

Substituindo em 4.5.1 temos:


v = α1 · (a11 · u1 + a21 · u2 + · · · + an1 · un ) + α2 · (a12 · u1 + a22 · u2 + · · · + an2 · un )

+ · · · + αn · (a1n · u1 + a2n · u2 + · · · + ann · un )

= (α1 · a11 + α2 · a12 + · · · + αn · a1n ) · u1 + (α1 · a21 + α2 · a22 + · · · + αn · a2n ) · u2

+ · · · + (α1 · an1 + α2 · an2 + · · · + αn · ann ) · un .

Mas como v = β1 · u1 + β2 · u2 + · · · + βn · un e as coordenadas em relação a uma base são únicas


temos necessariamente:


 β1 = α1 · a11 + α2 · a12 + · · · + αn · a1n




β2 = α1 · a21 + α2 · a22 + · · · + αn · a2n
 ..



 .
 β = α ·a
n 1 n1 + α2 · an2 + · · · + αn · ann

Assim, matricialmente temos:


     
β1 a11 a12 · · · a1n α1
 β2   a21 a22 · · · a2n   α2 
 ..  =  .. ..  ·  ..  . (4.5.3)
     
.. . .
 .   . . . .   . 
βn an1 an2 · · · ann αn
4.5 Matriz Mudança de Base 123

Definição 4.5.1 Seja V espaço vetorial sobre um corpo K de dimensão finita, dadas B = {v1 , v2 , · · · , vn }
e B 0 = {u1 , u2 , · · · , un } bases ordenadas de V , a matriz
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
A =  .. ,
 
.. . . ..
 . . . . 
an1 an2 · · · ann

que satisfaz 4.5.3, é chamada matriz mudança de base de B para a base B 0 .


B ou [I]B .
Notação: MB 0 B0

Observações 4.5.1 (a) Comparando MB B com 4.5.2, vemos que esta matriz é obtida colocando as
0
coordenadas de vi , em relação a B 0 , na i-ésima coluna.
B é invertível e sua inversa, M B −1 , é a matriz M B 0 é matriz

(b) A matriz mudança de base MB 0 B 0 B
mudança de base de B 0 para B, ou seja,

B B B B
−1 0 0 −1
MB 0 = MB e, portanto MB = MB 0.

(c) Conhecendo a matriz MBB podemos encontrar as coordenadas de qualquer vetor v em relação à
0
base B multiplicando esta matriz pela matriz das coordenadas de v na base B.
0

De fato, da equação 4.5.3 temos:


B
[v]B0 = MB 0 · [v]B .

Consequentemente,
B B
−1 0
[v]B = MB 0 · [v]B0 = MB · [v]B0 .

 
cos θ −sen θ
Exemplos 4.5.2 (a) A matriz Rθ = , com θ um número real, é a matriz de
sen θ cos θ
rotação do ângulo θ no sentido anti-horário.
 
−1 cos θ sen θ
A matriz Rθ é invertível com inversa Rθ = .
−sen θ cos θ
Para cada θ ∈ R o conjunto

B 0 = (cos θ , sen θ ), (−sen θ , cos θ )




é um base de R2 , denotando por B a base da canônica de R2 temos:


B.
Rθ é a matriz de mudança de B 0 para B, ou seja, Rθ = MB
0

R−1 −1 B
θ é a matriz de mudança de B para B , ou seja, Rθ = MB 0 .
0

π π
Determine a matriz de mudança de base da canônica de R2 para B 0 para θ = e para θ = .
2 4
Solução:
Devemos determinar:
   
−1 cos π2 sen π2 0 1 π
• Rπ = π π = , que é a matriz rotação de .
2 −sen 2 cos 2 −1 0 2
124 Capítulo 4. Base e Dimensão de Espaços Vetoriais
 √ √ 
2 2
2 2 
 
cos π4 sen π4
 π
−1
• Rπ = = √ , que é a matriz rotação de .
 
4
π
−sen 4 cos 4 π √ 4
2 2
 

2 2
(b) Em P3 (R), determine a matriz mudança de base MB B da base canônica B para a base
0
B = {1 + t, t − t, t + t + t, 2t − 1}.
0 2 3 2 3

Solução:
Vamos escrever os vetores de B 0 em relação aos vetores de B, pois a base B é canônica:

1+t = 1·t + 1·t + 0 · t2 + 0 · t3


t2 − t = 0 · t + (−1) · t + 1 · t2 + 0 · t3
.
t3 + t2 + t = 0·t + 1·t + 1 · t2 + 1 · t3
2t 3 − 1 = (−1) · t + 0 · t + 0 · t2 + 2 · t3
 
1 0 0 −1
B 0  1 −1 1 0 
Logo, MB =
 0
 , cuja inversa é a matriz
1 1 0 
0 0 1 2
 
4/3 − 1/3 − 1/3 2/3
2/3 − 2/3 1/3 1/3
B
 
0 =
MB  ,
 − 2/3 2/3 2/3 − 1/3 
1/3 − 1/3 − 1/3 2/3

que é a matriz mudança de base de B para a base B 0 .

(c) Sejam R3 e U o subespaço que tem base B 0 = {(1, 5, 8), (4, −1, 5)}, sabendo que
B0 = 1 1
MB é a matriz mudança de base de B 0 para B, determine a base B.
2 −1
Solução:
Seja B = {v1 , v2 } temos:

(1, 5, 8) = v1 + 2v2
=⇒ 3v2 = (−3, 6, 3) ⇐⇒ v2 = (−1, 2, 1).
(4, −1, 5) = v1 − v2

Consequentemente, v1 = (4, −1, 5) + v2 = (4, −1, 5) + (−1, 2, 1) = (3, 1, 6).


Portanto, B = {(3, 1, 6), (−1, 2, 1)}.
5. Espaços Vetoriais com Produto Interno

5.1 Produto Interno em Espaços Vetoriais Reais

Definição 5.1.1 Seja V um espaço vetorial sobre o corpo R, um produto interno em V é uma
aplicação
h·, ·i : V ×V −→ R
(u, v) 7−→ hu, vi
que satisfaz as seguintes propriedades:

PIR1 hu, vi = hv, ui, para quaisquer u, v ∈ V simetria.


PIR2 hv, vi ≥ 0, para todo v ∈ V e hv, vi = 0 ⇐⇒ v = 0V positividade.
PIR3 hu + w, vi = hu, vi + hw, vi, para quaisquer u, w, v ∈ V distributividade.
PIR4 hλ u, vi = λ hu, vi, para quaisquer u, v ∈ V e todo λ ∈ R homogeneidade.

5.1.1 Propriedade do Produto Interno em R

Seja V espaço vetorial sobre R com um produto interno h·, ·i, dados v, u, w elementos quaisquer em V
e λ e µ escalares arbitrários em R valem as seguintes propriedades:

PIR5 hv, 0V i = h0V , vi = 0.

PIR6 hv, λ ui = λ hv, ui.

PIR7 hv, u + wi = hv, ui + hv, wi.

PIR8 hλ v + µu, wi = λ hv, wi + µhu, wi e hv, λ u + µwi = λ hv, ui + µhv, wi.


126 Capítulo 5. Espaços Vetoriais com Produto Interno

Verificação:

PIR5 De fato,
EV PI
h0V , vi =1 h0 · v, vi =R4 0 · hv, vi = 0.
Como, hv, 0V i = h0V , vi, segue a propriedade.
PIR6 Com efeito,
PI PI PI
hv, λ ui =R1 hλ u, vi =R4 λ hu, vi =R1 λ hv, ui.

PIR7 De fato,
PI PI PI
hv, u + wi =R1 hu + w, vi =R3 hu, vi + hw, vi =R1 hv, ui + hv, wi.

PIR8 De fato,
PI PI
hλ v + µu, wi =R3 hλ v, wi + hµu, wi =R4 λ hv, wi + µhu, wi.
Analogamente mostramos que hv, λ u + µwi = λ hv, ui + µhv, wi.

Observações 5.1.1 (a) A propriedade PIR8 nos diz que o produto interno, em V um espaço vetorial
real, é uma aplicação bilinear, ou seja, é uma aplicação linear à direita e à esquerda.
(b) Em um espaço vetorial V sobre R pode estar definido mais do que um produto interno.
(c) Em alguns espaços vetoriais sobre R há um produto interno “mais comum”, que chamamos de
produto interno usual, no entanto isto não ocorre em todos os espaços vetoriais sobre R.

5.1.2 Exemplo de Espaços Vetoriais Reais com Produto Interno

Exemplos 5.1.2 (a) Em Rn o produto interno usual é a aplicação:

h·, ·i : Rn × Rn  −→ R
(x1 , · · · , xn ), (y1 , · · · , yn ) 7−→ h(x1 , · · · , xn ), (y1 , · · · , yn )i = x1 y1 + · · · + xn yn .

De fato, sejam (x1 , · · · , xn ), (y1 , · · · , yn ) e (z1 , · · · , zn ) elementos quaisquer em Rn e λ ∈ R, então:


(i) h(x1 , · · · , xn ), (y1 , · · · , yn )i = x1 y1 + · · · + xn yn = y1 x1 + · · · + yn xn
= h(y1 , · · · , yn ), (x1 , · · · , xn )i.
(ii) h(x1 , · · · , xn ), (x1 , · · · , xn )i = x1 x1 + · · · + xn xn = x12 + · · · + xn2 ≥ 0.
E h(x1 , · · · , xn ), (x1 , · · · , xn )i = 0 ⇐⇒ x12 + · · · + xn2 = 0

⇐⇒ x1 = · · · = xn = 0 ⇐⇒ (x1 , · · · , xn ) = 0Rn .

(iii) h(x1 , · · · , xn ) + (y1 , · · · , yn ), (z1 , · · · , zn )i = h(x1 + y1 , · · · , xn + yn ), (z1 , · · · , zn )i


= (x1 + y1 )z1 + · · · + (xn + yn )zn = x1 z1 + y1 z1 + · · · + xn zn + yn zn
= x1 z1 + · · · + xn zn + y1 z1 + · · · + yn zn
= h(x1 , · · · , xn ), (z1 , · · · , zn )i + h(y1 , · · · , yn ), (z1 , · · · , zn )i.
(iv) hλ (x1 , · · · , xn ), (y1 , · · · , yn )i = h(λ x1 , · · · , λ xn ), (y1 , · · · , yn )i = (λ x1 )y1 + · · · + (λ xn )yn
= λ (x1 y1 ) + · · · + λ (xn yn ) = λ (x1 y1 + · · · + xn yn = λ h(x1 , · · · , xn ), (y1 , · · · , yn )i.
5.1 Produto Interno em Espaços Vetoriais Reais 127

(a1 ) Em R2 o produto interno usual é dado por:

h(x1 , x2 ), (y1 , y2 )i = x1 y1 + x2 y2 .


Assim, por exemplo, (1, −2), (3, 1) = 3 − 2 = 1 e h(1, 0), (0, 1)i = 0 + 0 = 0.
(a2 ) Em R3 o produto interno usual é dado por:

h(x1 , x2 , x3 ), (y1 , y2 , y3 )i = x1 y1 + x2 y2 + x3 y3 .

Por exemplo,



(4, 1, −2), (3, −5, 2) = 12 − 5 − 4 = 3 e (0, 1, 0), (0, 0, 1) = 0 + 0 + 0 = 0.

(b) Em C ([a, b]) o produto interno usual é a aplicação:

h·, ·i : C ([a, b]) × C ([a, b]) −→ R


Z b
( f , g) 7−→ h f , gi = f (x)g(x) dx.
a

De fato, sejam f , g e h elementos quaisquer em C ([a, b]) e λ ∈ R, então:


Z b Z b
(i) h f , gi = f (x)g(x) dx = g(x) f (x) dx = hg, f i.
a a
Z b Z b 2
(ii) h f , f i = f (x) f (x) dx = f (x) dx ≥ 0.
a a
Z b 2 2
E h f , f i = 0 ⇐⇒ f (x) dx = 0 ⇐⇒ f (x) em [a, b], se e somente se, f é a função
a
nula em [a, b].
Z b Z b  Z b 
(iii) h f +g, hi = ( f +g)(x)h(x) dx = f (x)+g(x) h(x) dx = f (x)h(x)+g(x)h(x) dx
a a a
Z b Z b
= f (x)h(x) dx + g(x)h(x) dx = h f , hi + hg, hi.
a a
Z b Z b  Z b 
(iv) hλ f , gi = (λ f )(x)g(x) dx = λ f (x) g(x) dx = λ f (x)g(x) dx
a a a
Z b
=λ f (x)g(x) dx = λ h f , gi.
a

1
Assim, por exemplo, como f (x) = e g(x) = x2 − 1, ambas são funções contínuas em [0, 1],
x+1
então:   Z1 Z 1
1 1
h f , gi = 2
,x −1 = · (x2 − 1) dx = (x − 1) dx
x+1 0 x+1 0

1
= (x2 − x + c) = (1 − 1 + c) − (0 − 0 + c) = 0.

0

(c) Em Mn (R) o produto interno usual é a aplicação:

h·, ·i : Mn (R) × Mn (R) −→ R


(A, B) 7−→ hA, Bi = tr(BT · A),

com tr(BT · A) o traço da matriz BT · A.


128 Capítulo 5. Espaços Vetoriais com Produto Interno

De fato, sejam A, B e C elementos quaisquer em Mn (R) e λ ∈ R, então:


TR T
(i) hA, Bi = tr(BT · A) =1 tr(BT · A)T =4 tr(AT · B) = hB, Ai.
n
Obs. 1.1.29
(ii) hA, Ai = tr(AT · A) = ∑ a2i j ≥ 0.
i, j=1
n
E hA, Ai = 0 ⇐⇒ ∑ a2i j = 0 ⇐⇒ a2i j = 0 para todo i, j ⇐⇒ ai j = 0 para todo i, j ⇐⇒
i, j=1
A = 0n×n .
 TR
(iii) hA + B, Ci = tr CT · (A + B) = tr CT · A +CT · B =2 tr(CT · A) + tr(CT · B)


= hA, Ci + hB, Ci.


 TR
(iv) hλ A, Bi = tr BT · (λ A) = tr λ (BT · A) =3 λ tr(BT · A) = λ hA, Bi.


   
a11 a12 b11 b12
(c1 ) Em M2 (R) o produto interno usual, dadas A = eB= , temos:
a21 a22 b21 b22
     
T b11 b21 a11 a12
hA, Bi = tr(B · A) = tr ·
b12 b22 a21 a22
 
a11 b11 + a21 b21 a12 b11 + a22 b21
= tr
a11 b12 + a21 b22 a12 b12 + a22 b22

= a11 b11 + a21 b21 + a12 b12 + a22 b22 = ∑ ai j bi j .


1≤i, j≤2

Assim, por exemplo,


*   +
0 −11 2
, = 0−2−2+4 = 0 e
1 −2 4
1
*   +
1 4 2 −1
, = 2 + (−4) + (−15) + 24 = 3.
−3 6 5 4
   
(c2 ) Analogamente, em M3 (R) sejam A = ai j 3×3 e B = bi j 3×3 , então:
hA, Bi = a11 b11 + a12 b12 + a13 b13 + a21 b21 + a22 b22 + a23 b23 + a31 b31 + a32 b32 + a33 b33

= ∑ ai j bi j .
1≤i, j≤3

Assim, por exemplo,


   
* 3 −1 0 1 0 −1 +
 2 4 1  ,  −2 1 1  = 3 + 0 + 0 + (−4) + 4 + 1 + (−6) + 0 + (−3) = −5.
−2 3 1 3 0 −3

Observações 5.1.3 (a) O espaço vetorial Rn com um produto interno é chamado espaço euclidi-
ano n-dimensional.
(b) O espaço vetorial Pn (R) tem vários produtos internos, no entanto não há um usual, por exemplo:
h·, ·i : P2 (R) × P2 (R) −→ R
(p, q) 7−→ hp, qi = p(−1)q(−1) + p(0)q(0) + p(1)q(1),
é um produto interno em P2 (R).
5.2 Produto Interno em Espaços Vetoriais Complexos 129

5.1.3 Desigualdade de Cauchy-Schwarz


Teorema 5.1.4 (Desigualdade de Cauchy-Schwarz)
Se V é um espaço vetorial euclidiano, então

hu, vi2 ≤ hu, ui · hv, vi

para quaisquer u e v em V .

Demonstração:

1º caso: Se u e v são linearmente dependentes, então existe λ ∈ R tal que v = λ u.

Logo

hu, vi2 = hu, λ ui2 = hu, λ ui · hu, λ ui = λ hu, ui · hu, λ ui = hu, ui · hλ u, λ ui = hu, ui · hv, vi.

Portanto, vale a igualdade.

2º caso: Se u e v são linearmente independentes, então para todo λ ∈ R temos v + λ u 6= 0V , portanto


hv + λ u, v + λ ui > 0, ou seja,

hv + λ u, v + λ ui = hv, vi + hv, λ ui + hλ u, vi + hλ u, λ ui = hv, vi + 2λ hu, vi + λ 2 hu, ui > 0.


| {z }
>0

A equação acima é uma equação do segundo grau na variável λ , como é positiva o discriminante
deve satisfazer ∆ < 0, ou seja,

∆ = 4hu, vi2 − 4hu, ui · hv, vi < 0 ⇐⇒ hu, vi2 < hu, ui · hv, vi.

Consequentemente, para quaisquer u e v em V temos hu, vi2 ≤ hu, ui · hv, vi.

5.2 Produto Interno em Espaços Vetoriais Complexos


Definição 5.2.1 Seja V um espaço vetorial sobre o corpo C, um produto interno complexo em
V é uma aplicação
h·, ·i : V ×V −→ C
(u, v) 7−→ hu, vi
que satisfaz as seguintes propriedades:
PIC1 hu, vi = hv, ui, para quaisquer u, v ∈ V simetria hermitiana.
PIC2 hv, vi ≥ 0, para todo v ∈ V e hv, vi = 0 ⇐⇒ v = 0V positividade.
PIC3 hu + w, vi = hu, vi + hw, vi, para quaisquer u, w, v ∈ V distributividade.
PIC4 hλ u, vi = λ hu, vi, para quaisquer u, v ∈ V e todo λ ∈ C homogeneidade.
130 Capítulo 5. Espaços Vetoriais com Produto Interno

Observação 5.2.1 (a) Segue das propriedades de simetria hermitiana, distributividade e homoge-
neidade que:
(i) hv, u + wi = hv, ui + hv, wi, para quaisquer u, w, v ∈ V .
(ii) hu, λ vi = λ hu, vi, para quaisquer u, v ∈ V e todo λ ∈ C.
(b) A simetria hermitiana é necessária para garantir a propriedade de positividade.
De fato, em V um espaço vetorial complexo, dado v ∈ V , com v 6= 0V , se exigíssemos a simetria
teríamos:
hiv, ivi = i2 hv, vi = −hv, vi < 0
|{z}
>0
contrariando a positividade.
Quando consideramos a simetria hermitiana temos:

hiv, ivi = i · īhv, vi = hv, vi > 0.

Exemplo 5.2.2 Em Cn o produto interno usual é a aplicação:

h·, ·i : Cn × Cn  −→ C
(u1 , · · · , un ), (v1 , · · · , vn ) 7−→ h(u1 , · · · , un ), (v1 , · · · , vn )i
= u1 v1 + · · · + un vn .

(i) Em C2 o produto interno usual é dado por:

h(u1 , u2 ), (v1 , v2 )i = u1 v1 + u2 v2 .

Assim, por exemplo,


h(i, 0), (0, 1)i = 0 + 0 = 0 e
h(i, −1), (3 + i, 1 + 2i)i = i(3 − i) + (−1)(1 − 2i) = 3i + 1 − 1 + 2i = 5i.
(ii) Em C3 o produto interno usual é dado por:

h(u1 , u2 , u3 ), (v1 , v2 , v3 )i = u1 v1 + u2 v2 + u3 v3 .

Assim, por exemplo,



(4i, 1, −2 + i), (3 + i, 1 + i, 2i)
= 4i(3 − i) + (1 − i) + (−2 + i)(−2i) = 12i + 4 + 1 − i + 4i + 2 = 7 + 15i.

Observação 5.2.3 O espaço vetorial Cn com um produto interno é chamado espaço unitário n-
dimensional.

5.3 Bases Ortogonais e Bases ortonormais

5.3.1 Vetores Ortogonais

Definição 5.3.1 Seja V um espaço vetorial sobre o corpo K (K = R ou K = C) com produto


interno h·, ·i, dizemos que u e v em V são vetores ortogonais se, e somente se, hu, vi = 0.
Notação: Se u e v ortogonais indicamos por u ⊥ v.
5.3 Bases Ortogonais e Bases ortonormais 131

Exemplos 5.3.1 (a) Em R3 , com o produto interno usual, os vetores u = (7, −3, 2) e v = (2, 8, 5)
são ortogonais, pois

(7, −3, 2), (2, 8, 5) = 14 − 24 + 10 = 0.
   
1 2 0 −1
(b) Em M2 (R, com o produto interno usual, as matrizes A = eB= são
    −2 4 1 1
1 2 0 −1
ortogonais, pois vimos que , = 0.
−2 4 1 1
(c) Em C2 , com o produto interno usual, os vetores u = (1 + i, i) e v = (i, 1 − i) são ortogonais, pois


(1 + i, i), (i, 1 − i) = (1 + i)i + i(1 − i) = (1 + i)(−i) + i(1 + i) = −i + 1 + i − 1 = 0.

Propriedades de Vetores Ortogonais

VO1 OV ⊥ v para todo v ∈ V .


VO2 Se u ⊥ v, então v ⊥ u.
VO3 Se u ⊥ v para todo v ∈ V , então u = 0V .
VO4 Se u1 ⊥ v e u2 ⊥ v, então (u1 + u2 ) ⊥ v.
VO5 Se u ⊥ v e λ ∈ R, então λ u ⊥ v.

Verificação:

VO1 Segue da propriedade PIR5 de produto interno.


VO2 Segue da propriedade PIR1 de produto interno.
VO3 De fato, seja B = {v1 , · · · , vn } uma base de V , então existem escalares α1 , · · · , αn , tais que
u = α1 · v1 + · · · + αn · vn .
Logo,
hu, ui = hα1 · v1 + · · · + αn · vn , ui = α1 hv1 , ui + · · · + αn hvn , ui = 0.
Como, hu, ui = 0 segue pela propriedade PIR2 de produto interno que u = 0V .
VO4 Segue da propriedade PIR3 de produto interno.
VO5 Segue da propriedade PIR4 de produto interno.

Observação 5.3.2 Segue das propriedades VO4 e VO5 que se U = [u1 , u2 , · · · , uk ] é subespaço de V
e v ∈ V é tal que v ⊥ u1 , v ⊥ u2 , · · · , v ⊥ uk , então v ⊥ u para todo u ∈ U.

5.3.2 Base Ortogonal

Definição 5.3.2 Seja V um espaço vetorial sobre o corpo K (K = R ou K = C), de dimensão n,


com produto interno h·, ·i, dizemos que uma base B = {v1 , v2 , · · · , vn } é uma base ortogonal se, e
somente se,
hvi , v j i = 0, para todo i 6= j,
ou seja, se, e somente se, os elementos de B são dois a dois ortogonais.
132 Capítulo 5. Espaços Vetoriais com Produto Interno

Exemplos 5.3.3 (a) No espaço euclidiano n-dimensional, Rn munido do produto interno usual, a
base canônica B = {e1 , e2 , · · · , en } é uma base ortogonal, pois hei , e j i = 0 se i 6= j.
(b) No espaço vetorial Mn (R) munido do produto interno usual, a base canônica
B = E11 , · · · , E1n , · · · , En1 , · · · , Enn é uma base ortogonal, pois Ei j , Ekl = 0 se i 6= k ou


j 6= l.
(c) No espaço unitário n-dimensional, Cn munido do produto interno usual, a base canônica
B = {e1 , e2 , · · · , en } é uma base ortogonal, pois hei , e j i = 0 se i 6= j.
(d) A base B = {(−1, 2), (2, 1)} é uma base ortogonal de R2 com o produto interno usual, pois
h(−1, 2), (2, 1)i = −2 + 2 = 0.
(e) A base B = {(1 − i, i), (i, 1
+ i)} de C2 , como espaço
vetorial sobre C, é uma base ortogonal,
pois como vimos acima que (1 − i, i), (i, 1 + i) = 0.

5.3.3 Norma de um Vetor

Definição 5.3.3 Seja V um espaço vetorial sobre o corpo K (K = R ou K = C) com um produto


interno h·, ·i, a norma de um vetor v ∈ V , indicada por kvk, é o seguinte número real:
p
kvk = hv, vi.

5.3.4 Propriedades da Norma

N1 kvk ≥ 0, para todo v ∈ V e kvk = 0 ⇐⇒ v = 0V positividade.


N2 kλ vk = |λ | · kvk, para todo v ∈ V e todo λ ∈ K homogeneidade.

Verificação:

N1 Segue da propriedade PIR2 de produto interno.


N2 Segue da propriedade PIR4 de produto interno.

Observações 5.3.4 (a) Segue da definição de norma que

kvk2 = hv, vi para todo v em V.

 sobre K com uma norma k · k é chamado espaço vetorial normado e


(b) Um espaço vetorial V
denotado por V, k k .

Exemplos 5.3.5 (a) Em Rn a norma do produto interno usual é dada por:


q
q
k(v1 , · · · , vn )k = (v1 , · · · , vn ), (v1 , · · · , vn ) = v21 + · · · + v2n ,

vamos denominá-la de norma usual.


5.3 Bases Ortogonais e Bases ortonormais 133

(a1 ) Em R2 a norma usual é dada por:


q
k(v1 , v2 )k = v21 + v22 .

Assim, por exemplo,


p √ q √
k(1, 0)k = 1 + 0 = 1 = 1 e k(1, −2)k = 12 + (−2)2 = 5.
2 2

(a2 ) Em R3 a norma usual é dada por:


q
k(v1 , v2 , v3 )k = v21 + v22 + v23 .

Assim, por exemplo, q √


k(1, 0, −1)k = 12 + 02 + (−1) = 2
p √
e k(3, −2, 4)k = 32 + (−2)2 + 42 = 29.
(b) A norma usual de Cn é a norma do produto interno usual dada por:
q
√ q
k(u1 , · · · , un )k = (u1 , · · · , un ), (u1 , · · · , un ) = u1 · u1 + · · · + un · un = |u1 |2 + · · · + |un |2 .

Corolário 5.3.6 (Desigualdade de Cauchy-Schwarz)


Se V é um espaço vetorial com produto interno, então

|hu, vi| ≤ kuk · kvk

para quaisquer u e v em V .

Demonstração: Vimos no teorema 5.1.4 que hu, vi2 ≤ hu, ui · hv, vi, ou seja,
q q q q
2 2 2
hu, vi ≤ kuk · kvk =⇒ hu, vi ≤ kuk · kvk = kuk · kvk2 =⇒ |hu, vi| ≤ kuk · kvk.
2 2 2 2

Corolário 5.3.7 (Desigualdade Triangular)


Se V é um espaço vetorial com produto interno, então

ku + vk ≤ kuk + kvk para quaisquer u e v em V.

Demonstração: Como ku + vk ≥ 0 e kuk + kvk ≥ 0, para mostrar que ku + vk ≤ kuk + kvk, basta
mostrar que:
2 2
ku + vk ≤ kuk + kvk .
Mas,
ku + vk2 = hu + v, u + vi = hu, ui + hu, vi + hv, ui + hv, vi = kuk2 + 2hu, vi + kvk2
Cor.5.3.6 2
≤ kuk2 + 2|hu, vi | + kvk2 ≤ kuk2 + 2kvk · kuk + kvk2 = kuk + kvk .
Portanto, ku + vk ≤ kuk + kvk para quaisquer u e v em V .
134 Capítulo 5. Espaços Vetoriais com Produto Interno

Observações 5.3.8 (a) Segue da definição de norma que

kvk2 = hv, vi para todo v em V.

 sobre K com uma norma k · k é chamado espaço vetorial normado e


(b) Um espaço vetorial V
denotado por V, k k .

(c) Dados u e v em V um espaço vetorial euclidiano, o número real não negativo ku − vk é chamado
distância de u a v, por exemplo, em R2 com a norma usual dados u = (u1 , u2 ) e v = (v1 , v2 )
temos:
q
ku − vk = k(u1 − v1 , u2 − v2 )k = (u1 − v1 )2 + (u2 − v2 )2 .


Definição 5.3.4 Seja V, k k um espaço vetorial normado,
dados u e v vetores não nulos em V ,
vimos na desigualdade de Cauchy-Schwarz (5.3.6) que hu, vi ≤ kuk · kvk, consequentemente:

hu, vi
−kuk · kvk ≤ hu, vi ≤ kuk · kvk ⇐⇒ −1 ≤ ≤ 1.
kuk · kvk

Logo, existe um único número real θ , com 0 ≤ θ ≤ π, tal que

hu, vi
cos θ = ,
kuk · kvk

o número θ é chamado ângulo entre os vetores u e v.

Teorema 5.3.9 Se V é um espaço vetorial normado, dados u e v em V temos:


(i) u e v são ortogonais se, e somente se, ku + vk2 = kuk2 + kvk2 (Teorema de Pitágoras).
(ii) Se u e v não são vetores nulos e θ é o ângulo entre u e v, então:

ku ± vk2 = kuk2 + kvk2 ± 2kuk · kvk · cos θ , (Lei dos Cossenos).

Demonstração:

(i) Sabemos que ku + vk2 = hu + v, u + vi = kuk2 + 2hu vi + kvk2 .

Logo,

ku + vk2 = kuk2 + kvk2 ⇐⇒ 2hu vi = 0 ⇐⇒ hu vi = 0 ⇐⇒ u e v são ortogonais.

(ii) Como ku ± vk2 = hu ± v, u ± vi = kuk2 ± 2hu vi + kvk2 e na observação 5.3.8 (e) vimos que
hu, vi = kuk · kvk · cos θ , segue que:

ku ± vk2 = kuk2 + kvk2 ± 2kuk · kvk · cos θ .


5.3 Bases Ortogonais e Bases ortonormais 135

5.3.5 Base Ortonormal


Definição 5.3.5 Seja V um espaço vetorial sobre o corpo K (K = R ou K = C) com norma k·, ·k,
dizemos que um vetor v em V é um vetor unitário se, e somente se, kvk = 1.
√ √ 
2 2
Exemplos 5.3.10 (a) Em R3 o vetor u = (0, 1, 0) e v = , 0, − são unitários, pois
2 2
p √
k(0, 1, 0)k = 02 + 12 + 02 = 1 = 1 e
 √ √  √ 2 √
s
2 2 √
r
2 2 2 2
(− 2)2
2 , 0, − 2 = +0 + = + = 1 = 1.

22 2 2 4 4
 
2 1+i i
(b) Em C o vetor u = √ , √ é unitário, pois:
3 3
  s   
1+i i 1 + i i 1 + i i
√ ,√ = √ ,√ , √ ,√
3 3 3 3 3 3
s
2 1 √
  r
1+i 1−i i −i
= √ √ +√ √ = + = 1 = 1.
3 3 3 3 3 3

v
Observação 5.3.11 Se v é um vetor não nulo em um espaço normado V , então o vetor u = é
kvk
um vetor unitário.
De fato
v 1 1
kuk =
kvk = kvk · kvk = kvk · kvk = 1.

Definição 5.3.6 Seja V um espaço vetorial sobre o corpo K (K = R ou K = C) com norma k·, ·k,
dizemos que u e v em V são vetores ortonormais se, e somente se, u e v são vetores ortogonais e
unitários, ou seja, se e somente se,

kuk = 1, kvk = 1 e hu, vi = 0.


√ √ 
2 2
Exemplos 5.3.12 (a) Em R3 os vetores u = (0, 1, 0)) e v = , 0, − são ortonormais.
2 2
Vimos no exemplo (a) acima que u e v são unitários, como
 √ √  √  √ 
2 2 2 2
(0, 1, 0), , 0, − = +0+ − =0
2 2 2 2
segue que u e v são ortonormais.
   
2 1+i i i 1−i
(b) Em C os vetores u = √ , √ ev= √ , √ são ortonormais.
3 3 3 3
De fato, no exemplo (b) acima vimos que u é unitário, de maneira análoga mostramos que v
também é unitário, e analogamente ao exemplo (c) de vetores ortogonais, portanto u e v são
ortonormais.
136 Capítulo 5. Espaços Vetoriais com Produto Interno

Definição 5.3.7 Seja V um espaço vetorial sobre o corpo K (K = R ou K = C), de dimensão


n, com norma k·, ·k, dizemos que uma base B = {v1 , v2 , · · · , vn } é uma base ortonormal se, e
somente se,
(i) Os vetores de B são todos unitários.
(ii) Quaisquer dois vetores B, distintos entre si, são ortogonais.

Exemplos 5.3.13 (a) No espaço euclidiano n-dimensional, Rn munido do produto interno usual, a
base canônica B = {e1 , e2 , · · · , en } é uma base ortonormal, pois B é base ortogonal e kei k = 1
para todo i ∈ {1, , n}.
(b) No espaço vetorial Mn (R) munido do produto interno usual, a base canônica
B = E11 , · · · , E1n , · · · , En1 , · · · , Enn é uma base ortonormal, pois B é base ortogonal e


kEi j k = 1 para quaisquer i, j ∈ {1, , n}.


(c) Analogamente ao exemplo do item (a), no espaço unitário n-dimensional, Cn munido do produto
interno usual, a base canônica B = {e1 , e2 , · · · , en } é uma base ortonormal de Cn .
(d) A base  √ √  √ √ 
2 2 2 2
B= , 0, − , (0, 1, 0), , 0,
2 2 2 2
é uma base ortonormal de R3 com a norma usual, pois através de cálculos simples podemos ver
que os vetores de B são unitários e dois a dois ortogonais.
(e) A base    
1+i i i 1−i
B= √ , √ , √ , √
3 3 3 3
de C2 é uma base ortonormal, pois como vimos anteriormente que os vetores de B são unitários
e ortogonais.

Proposição 5.3.14 Sejam V um espaço vetorial normado e B = {v1 , v2 , · · · , vn } uma base de V .


(i) Se B é uma base ortogonal de V , então para todo v ∈ V temos:

hv, v1 i hv, v2 i hv, vn i


v= v1 + v2 + · · · + vn .
kv1 k2 kv2 k2 kvn k2

(ii) Se B é base ortonormal de V , então para todo v ∈ V temos:

v = hv, v1 i v1 + hv, v2 i v2 + · · · + hv, vn i vn .

Demonstração:
(i) Como B é base V existem escalares a1 , a2 , · · · , an tais que:

v = a1 v1 + a2 v2 + · · · + an vn .

Logo,

hv, v1 i = ha1 v1 + a2 v2 + · · · + an vn , v1 i = a1 hv1 , v1 i +a2 hv2 , v1 i + · · · + an hvn , v1 i = a1 kv1 k2 .


| {z } | {z } | {z }
=kv1 k2 =0 =0

hv, v1 i
Como kv1 k 6= 0 segue que a1 = .
kv1 k2
5.3 Bases Ortogonais e Bases ortonormais 137

Analogamente mostramos que

hv, v2 i hv, vn i
a2 = 2
, · · · , an = .
kv2 k kvn k2

Portanto,
hv, v1 i hv, v2 i hv, vn i
v= 2
v1 + 2
v2 + · · · + vn . (5.3.1)
kv1 k kv2 k kvn k2

(ii) Como consequência da ortogonalidade dos vetores de B vimos acima em 5.3.1 que:

hv, v1 i hv, v2 i hv, vn i


v= 2
v1 + 2
v2 + · · · + vn .
kv1 k kv2 k kvn k2

Já que os vetores de B são unitários segue ainda que

kv1 k = kv2 k = · · · = kvn k = 1.

Consequentemente em 5.3.1 temos:

v = hv, v1 i v1 + hv, v2 i v2 + · · · + hv, vn i vn .

Exemplos 5.3.15 (a) Escreva o vetor v = (1, 2) como combinação linear da base ortogonal
B = {(1 + i, i), (i, 1 − i)} de C2 :

h(1, 2), (1 + i, i)i h(1, 2), (i, 1 − i)i


(1, 2) = 2
(1 + i, i) + (i, 1 − i).
k(1 + i, i)k k(i, 1 − i)k2

Como
h(1, 2), (1 + i, i)i = 1(1 − i) + 2(−i) = 1 − 3i
h(1, 2), (i, 1 − i)i = 1(−i) + 2(1 + i) = 2 + i
,
k(1 + i, i)k2 = h(1 + i, i), (1 + i, i)i = (1 + i)(1 − i) + i(−i) = 3
k(i, 1 − i)k2 = h(i, 1 − i), (i, 1 − i)i = i(−i) + (1 − i)(1 + i) = 3
portanto:
1 − 3i 2+i
(1, 2) = (1 + i, i) + (i, 1 − i) .
3 3
(b) Escreva √o vetor √ v = (3, 4, −2)
√ como √ combinação linear da base ortogonal

2 2 2 2
B= , 0, − , (0, 1, 0), , 0, de R3 :
2 2 2 2
 √ √   √ √ 
2 2 2 2

(3, 4, −2) = (3, 4, −2), , 0, − , 0, − + (3, 4, −2), (0, 1, 0) (0, 1, 0)
 2√ √2  √2 √  2
2 2 2 2
+ (3, 4, −2), , 0, , 0,
2 2 2 2 .
√ √ √  √ √ √ 
5 2 2 2 2 2 2
= , 0, − + 4 (0, 1, 0) + , 0,
2 2 2 2 2 2
138 Capítulo 5. Espaços Vetoriais com Produto Interno

5.4 Processo de Ortogonalização de Gram-Schmidt

Observação 5.4.1 Seja V um espaço vetorial de dimensão finitamunido de um produtointerno,


v1 v2 vn
se B = {v1 , v2 , · · · , vn } é uma base ortogonal de V , então B 0 = , ,··· , é base
kv1 k kv2 k kvn k
ortonormal de V .

De fato, da observação 5.3.11 segue que os vetores de B 0 são unitários.

Além disso, para i, j ∈ {1, 2, · · · , n} quaisquer, com i 6= j, temos:


 
vi vj 1 1
· = · · hvi , v j i = 0.
kvi k kv j k kvi k kv j k | {z }
=0

Portanto, a partir de uma base ortogonal podemos obter uma base ortonormal.

No que segue vamos apresentar um procedimento para obter uma base ortogonal a partir de uma base
qualquer de V , para isso vamos definir a projeção de um vetor na direção de outro vetor não nulo.

Definição 5.4.1 Seja V um espaço vetorial sobre R munido de um produto interno, dados que u e
v em V , com u vetor não nulo, a projeção ortogonal de v na direção de u, indicada por pro ju u, é o
seguinte vetor:
hv, ui
proju v = u.
kuk2

Observação 5.4.2 Dados que u e v em V , com u vetor não nulo, os vetores w = v − proju v e u são
ortogonais.

De fato,
 
hv, ui hv, ui hv, ui
hw, ui = hv − proju v, ui = v − 2
u, u = hv, ui − 2
· hu, ui = hv, ui − · kuk2 = 0.
kuk kuk kuk2

Teorema 5.4.3 (Processo de Ortogonalização de Gram-Schmidt)


Sejam V um espaço vetorial sobre R munido de um produto interno e B = {v1 , v2 , v3 , · · · , vn } uma
base de V , então B 0 = {w1 , w2 , w3 , · · · , wn }, com

w1 = v1

w2 = v2 − projv2 w1

w3 = v3 − projv3 w1 − projv3 w2
..
.
wn = vn − projvn w1 − projvn w2 − · · · − projvn wn−1 ,

é uma base ortogonal de V .


5.4 Processo de Ortogonalização de Gram-Schmidt 139
Obs.5.4.2
Demonstração: Observemos que hw2 , w1 i = hv2 − projw1 v2 , w1 i = 0.
Por outro lado,

hw3 , w1 i = hv3 − projw1 v3 − projw2 v3 , w1 i


 
hv3 , w1 i hv3 , w2 i
= v3 − w1 − w2 , w1
kw1 k2 kw2 k2

hv3 , w1 i hv3 , w2 i
= hv3 , w1 i − 2
· hw1 , w1 i − · hw2 , w1 i = 0.
kw1 k kw2 k2 | {z }
=0

De maneira análoga mostramos que hwi , w j i = 0, se i 6= j.

Portanto, B 0 = {w1 , w2 , w3 , · · · , wn } é uma base ortogonal de V .

Exemplos 5.4.4 (a) A partir da base B de M2 (R), com o produto interno usual, dada abaixo:
         
1 1 0 1 0 0 0 0
B= ,
1 1 1 1 1 1 0 1

obtenha uma base ortogonal e uma base ortonormal de M2 (R).

(b) Encontre uma base ortogonal de C3 , como espaço vetorial sobre C, que contenha o vetor
v = (1, 0, 3i).

Solução:

(a) Pelo processo de ortogonalização de Gram-Schmidt devemos obter B 0 = {w1 , w2 , w3 , w4 } com:


 
1 1
w1 = =⇒ kw1 k2 = 4
1 1
   
0 1 1 1
  ,      
0 1 1 1 1 1 1 1 0 1 3 1 1
w2 = − = −
1 1 kw1 k2 1 1 1 1 4 1 1

− 43 1
 
3
= 1
4
1 =⇒ kw2 k2 =
4 4 4
       3 1

0 0 1 1 0 0 −4 4
, , 1 1
1 1 − 34 1
     
0 0 1 1 1 1 1 1 4 4 4
w3 = − − 3 1 1
1 1 4 1 1 4 4
4

− 34 1
0 − 32
       
0 0 1 1 1 2 2
= − − 1
4
1 = 1 1 =⇒ kw3 k2 =
1 1 2 1 1 3 4 4 3 3 3
140 Capítulo 5. Espaços Vetoriais com Produto Interno

       3 1

1 1 0 0 0 0 −4 4
, , 1 1
0 1 − 34 1
     
0 0 1 1 0 11 1 4 4 4
w4 = − − 3 1 1
0 1 4 1 1 4 4
4
0 − 23
   
0 0
, 1 1
0 1 0 − 23
 
3 3
− 2 1 1
3 3 3

− 34 1
         
0 0 1 1 1 1 1 0 0 0 0 1
= − − 4 − = =⇒ kw4 k2 = .
0 1 4 1 1 3 1
4
1
4 2 0 1 − 12 1
2 2

Logo, (   3 1
)
0 − 23
   
1 1 −4 0 0
B0 = , 4 , 1 ,
1 1 1
4
1
4
1
3 3 − 12 1
2

é uma base ortogonal de M2 (R).


Consequentemente,
(  3 )
1
0 − 32
     
1 1 1 1 −4 1 1 0 0
B =
00 · , · 4 , · , ·
kw1 k 1 1 kw2 k 1
4
1
4 kw3 k 1
3
1
3 kw4 k − 12 1
2

(  √  )
− 43 1 2 √
    
1 1 1 2 3 0 −3 0 0
= · , √ · 4 , √ · 1 , 2·
2 1 1 3 4
1 1
4 2 3
1
3 − 12 12
(  " √3 √
3
# " √ #  )
1
2
1
2 − √2 √6 √
0 − √36 √
0 √
0
= 1 1 , 3 3
, 6 6
, 2 2
2 2 6 6 6 6
− 2 2

é uma base ortonormal de M2 (R).


(b) Para obter uma base ortogonal B = {w1 , w2 , w3 } que contenha o vetor v = (1, 0, 3i) vamos
utilizar o processo de ortogonalização de Gram-Schmidt, para isso vamos considerar a base
B 0 = (1, 0, 3i), (0, 1, 0), (0, 0, 1) do espaço vetorial C3 sobre C.

2
Assim, como (1, 0, 3i) = 10, segue que:

w1 = v = (1, 0, 3i)
=0

z }| {
(0, 1, 0), (1, 0, 3i)
w2 = (0, 1, 0) − (1, 0, 3i) = (0, 1, 0)
(1, 0, 3i) 2

=0

z
}| {
(0, 0, 1), (1, 0, 3i) (0, 0, 1), (0, 1, 0)
w3 = (0, 0, 1) − 2 (1, 0, 3i) − (0, 1, 0)
(0, 1, 0) 2

(1, 0, 3i)
 
3i −3i 1
= (0, 0, 1) − (1, 0, 3i) = , 0,
10 10 10
  
−3i 1
Portanto, B = (1, 0, 3i), (0, 1, 0), , 0, é base ortogonal de C3 que contém v.
10 10
5.5 Complemento Ortogonal 141

5.5 Complemento Ortogonal


Definição 5.5.1 Sejam V um espaço vetorial sobre um corpo K com produto interno e S um
subconjunto não vazio de V , o complemento ortogonal de S em V , denotado por S⊥ , é o seguinte
subconjunto de V :
S⊥ = {v ∈ V ; hv, ui = 0 para todo u ∈ S}.

Proposição 5.5.1 Sejam V um espaço vetorial sobre um corpo K, dimensão n, com produto interno
e S⊥ o complemento ortogonal de S um subconjunto não vazio de V , então:
(i) S⊥ é um subespaço de V .
(ii) Se S é um subespaço de V , então V = S ⊕ S⊥ .

Demonstração:
(i) 0V ∈ S⊥ , pois pela propriedade PIR5 de produto interno h0V , ui = 0 para todo u ∈ V , portanto
h0V , ui = 0 para todo u ∈ S.
Sejam v1 e v2 em S⊥ , então: hv1 , ui = 0 e hv2 , ui = 0 para todo u ∈ S.
PI
Logo, hv1 + v2 , ui =R3 hv1 , ui + hv2 , ui = 0 + 0 = 0 para todo u ∈ S.
Portanto, v1 + v2 ∈ S⊥ .
Sejam v ∈ S⊥ e λ ∈ K, então: hv, ui = 0 para todo u ∈ S.
PI
Logo, hλ v, ui =R4 λ · hv, ui = λ · 0 = 0 para todo u ∈ S.
Portanto, λ v ∈ S⊥ .
Consequentemente, S⊥ é um subespaço de V .
(ii) Seja BS = {v1 , · · · , vk } uma base ortogonal de S, pelo Teorema do Completamento 4.3.10
podemos estender essa base a uma base de V , dígamos que seja: B 0 = {v1 , · · · , vk , wk+1 , · · · , wn }.
Aplicando o processo de ortogonalização de Gram-Schmidt à base B 0 obtemos uma base ortogo-
nal B de V , como os vetores v1 , · · · , vk são dois a dois ortogonais, esses serão os k primeiros
vetores de B, ou seja, B = {v1 , · · · , vk , vk+1 , · · · , vn }.
Como S = v1 , · · · , vk e B é base ortogonal de V , segue que vk+1 , · · · , vn ⊂ S⊥ .
   

Além disso, dado u ∈ S⊥ , então hu, vi = 0 para todo v ∈ S, e portanto, hu, v1 i = · · · = hu, vk i = 0
e pela Proposição 5.3.14 (i) temos:
hu, v1 i hv, vk i hv, vk+1 i hv, vn i
u = 2
v1 + · · · + 2
vk + 2
vk+1 + · · · + vn
kv1 k kvk k kvk+1 k kvn k2

hv, vk+1 i hv, vn i


= v k+1 + · · · + vn .
kvk+1 k2 kvn k2

Portanto, u ∈ vk+1 , · · · , vn , como u ∈ S⊥ é arbitrário segue que S⊥ = vk+1 , · · · , vn .


   

Como {vk+1 , · · · , vn } é subconjunto L.I. de V segue ainda que BS⊥ = {vk+1 , · · · , vn } é base de
S⊥ .
Logo,
V = v1 , · · · , vk ⊕ vk+1 , · · · , vn = S ⊕ S⊥ .
   
142 Capítulo 5. Espaços Vetoriais com Produto Interno

Exemplos 5.5.2 (a) Seja W = {(x, y, z, w) ∈ R4 ; x − y − w = 0 e 2y − z + w = 0} subespaço de


R4 , determine uma base para W e uma base para W ⊥ .
(b) Em C ([−1, 1]), conjunto das funções contínuas de [−1, 1] em R, consideremos o produto interno:

h·, ·i : C ([−1, 1]) × C ([−1, 1]) −→ R


Z 1
( f , g) 7−→ h f , gi = f (x) · g(x) dx.
−1

Determine o complemento ortogonal de W = f ∈ C ([−1, 1]); f é ímpar .




Solução:
 
x − y − w = 0 x = y+w
(a) Observemos (x, y, z, w) ∈ W ⇐⇒ ⇐⇒
2y − z − w = 0 z = 2y + w

⇐⇒ (x, y, z, w) = (y + w, y, 2y + w, w) = y(1, 1, 2, 0) + w(1, 0, 1, 1).

Portanto, B1 = (1, 0, 1, 1), (1, 1, 2, 0) é base de W .




Para obter uma base ortogonal para W a partir B1 vamos utilizar o processo de ortogona-
 da base
lização de Gram-Schmidt, ou seja, B1 = w1 , w2 com:
0

w1 = (1, 0, 1, 1)

(1, 0, 1, 1), (1, 1, 2, 0)
w2 = (1, 1, 2, 0) − (1, 0, 1, 1)
(1, 0, 1, 1) 2

3
= (1, 1, 2, 0) − (1, 0, 1, 1) = (1, 1, 2, 0) − (1, 0, 1, 1) = (0, 1, 1, −1).
3

Portanto, B10 = (1, 0, 1, 1), (0, 1, 1, −1) é base ortogonal de W .




Logo B 0 = (1, 0, 1, 1), (0, 1, 1, −1), (0, 0, 1, 0), (0, 0, 0, 1) é uma base de R4 obtida pelo


completamento de B10 .
Consequentemente,



(1, 0, 1, 1), (0, 0, 1, 0) (0, 1, 1, −1), (0, 0, 1, 0)
w3 = (0, 0, 1, 0) − (1, 0, 1, 1) − (0, 1, 1, −1)
(1, 0, 1, 1) 2 (0, 1, 1, −1) 2

 
1 1 1 1 1
= (0, 0, 1, 0) − (1, 0, 1, 1) − (0, 1, 1, −1) = − , − , , 0
3 3 3 3 3



(1, 0, 1, 1), (0, 0, 0, 1) (0, 1, 1, −1), (0, 0, 0, 1)
w4 = (0, 0, 0, 1) − (1, 0, 1, 1) − (0, 1, 1, −1)
(1, 0, 1, 1) 2 (0, 1, 1, −1) 2

=0
z }|  {
1 1 1
− , − , , 0 , (0, 0, 0, 1)  
3 3 3 1 1 1
−  2 − ,− , ,0
3 3 3

1 1
− ,− , ,0 1
3 3 3
 
1 1 1 1 1
= (0, 0, 0, 1) − (1, 0, 1, 1) + (0, 1, 1, −1) = − , , 0, .
3 3 3 3 3
5.5 Complemento Ortogonal 143

Portanto,
    
1 1 1 1 1 1
B = (1, 0, 1, 1), (0, 1, 1, −1), − , − , , 0 , − , , 0,
3 3 3 3 3 3

é uma base ortogonal de R4 ,

BW = (1, 0, 1, 1), (0, 1, 1, −1) é base de W




e
BW ⊥ = (−1, −1, 1, 0), (−1, 1, 0, 1) é base de W ⊥ .


(b) Observemos que g ∈ W ⊥ se, e somente se, h f , gi = 0, para todo f ∈ W , mas,


Z 1 Z 0 Z 1
h f , gi = 0 ⇐⇒ f (x) · g(x) dx = 0 ⇐⇒ f (x) · g(x) dx + f (x) · g(x) dx = 0.
−1 −1 0

 u = −x =⇒ du = − dx ⇐⇒ dx = − du
Fazendo a substituição: x = 0 =⇒ u = 0 logo temos:
x = −1 =⇒ u = 1,

Z 0 Z 1 Z 1 Z 1
f é ímpar
− f (−u)·g(−u) du+ f (x)·g(x) dx = 0 =⇒ − f (u)·g(−u) du+ f (x)·g(x) dx = 0.
1 0 0 0

Portanto, como u e x são variáveis mudas, podemos substituí-las por t, outra variável muda, e
assim temos:
Z 1 Z 1 Z 1 
− f (t) · g(−t) dt + f (t) · g(t) dt = 0 ⇐⇒ f (t) · g(t) − g(−t) dt = 0,
0 0 0

para toda função f ∈ W , consequentemente devemos ter g(t) − g(−t) = 0 para todo t ∈ [−1, 1].
Portanto, g(−t) = g(t) para todo t ∈ [−1, 1], ou seja, g é função par.
Daí que
W ⊥ = g ∈ C ([−1, 1]); g é par .

III
Transformações Lineares

6 Transformações Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . 147


6.1 Transformações Lineares
6.2 Matriz de uma Transformação Linear
6.3 Núcleo e Imagem de uma Transformação Linear
6.4 Transformações Lineares Injetoras e Sobrejetoras
6.5 Inversa de uma Transformação Linear

7 Diagonalização de Operadores Lineares . . . . . . . . 175


7.1 Autovalor e Autovetor de um Operador Linear
7.2 Polinômio Característico de um Operador Linear
7.3 Diagonalização de Operadores Lineares
7.4 Operadores Auto-Adjuntos

Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
6. Transformações Lineares

Dados A e B conjuntos não vazios uma aplicação de A em B é uma relação biunívoca que a cada
elemento a em A associa um único elemento em B.
Uma transformação linear é uma aplicação entre dois espaços vetoriais que preserva linearidade, por
exemplo as rotações e as reflexões do plano no plano são lineares.

6.1 Transformações Lineares


Definição 6.1.1 Sejam V e W espaços vetoriais sobre um corpo K, uma aplicação T : V −→ W é
uma transformação linear se, e somente se, satisfaz as seguintes condições:
(i) Para quaisquer u e v em V tivermos T (u + v) = T (u) + T (v).
(ii) Para todo v em V e todo λ em K tivermos T (λ · v) = λ · T (v).

Exemplos 6.1.1 (a) Reflexões no Plano


(a1 ) Reflexão em torno do eixo x:

T: R2 −→ R2
.
(x, y) 7−→ T (x, y) = (x, −y)

(a2 ) Reflexão em torno do eixo x:

T: R2 −→ R2
.
(x, y) 7−→ T (x, y) = (−x, −y)

(a3 ) Reflexão em torno do eixo y:

T: R2 −→ R2
.
(x, y) 7−→ T (x, y) = (−x, y)
148 Capítulo 6. Transformações Lineares

Figura 6.1.1: Ponto X e as imagens das reflexões pelos eixos x e y e pela origem

(b) Rotações no Plano


(b1 ) Rotação de um ângulo θ :
Rθ : R2 −→ R2    
cos θ −sen θ x
Rθ (x, y) = ·
sen θ cos θ y
(x, y) 7−→
= (x cos θ − y sen θ , x sen θ + y cos θ ).
π
(b2 ) Rotação de :
2
R π2 : R2 −→ R2
   
0 −1 x .
(x, y) 7−→ R π2 (x, y) = · = (−y, x)
1 0 y
(b3 ) Rotação de π:
Rπ : R2 −→ R2    
−1 0 x .
(x, y) 7−→ Rπ (x, y) = · = (−x, −y)
0 −1 y
A linearidade segue das propriedades de produto de matrizes.

(c) As aplicações do tipo:


T: R2 −→ R2
, com a e b números reais são lineares.
(x, y) 7−→ T (x, y) = (ax, by)
6.1 Transformações Lineares 149

π
Figura 6.1.2: Ponto X e as imagens das rotações de θ , eπ
2

De fato:
(i) Para quaisquer (x1 , y1 ) e (x2 , y2 ) em R2 temos:
 
T (x1 , y1 ) + (x2 , y2 ) = T (x1 + x2 , y1 + y2 ) = a(x1 + x2 ), b(y1 + y2 )

= (ax1 + ax2 , by1 + by2 ) = (ax1 , by1 ) + (ax2 , by2 )

= T (x1 , y1 ) + T (x2 , y2 ).

(ii) Para todo (x, y) em R2 e todo λ em R temos:


 
T λ (x, y) = T (λ x, λ y) = a(λ x), b(λ y) = (aλ x, bλ y) = λ (ax, by) = λ T (x, y).

Logo, as reflexões do exemplo (a) são lineares, no item (a1 ) a = 1 e b = −1; no item (a2 )
a = b = −1 e no item (a3 ) a = −1 e b = 1.
(d) As translações não triviais do plano:
T(a,b) : R2 −→ R2
, com a 6= 0 ou b 6= 0
(x, y) 7−→ T(a,b) (x, y) = (x, y) + (a, b)

não são lineares.


De fato, por exemplo:

T (1, 0) = (1, 0) + (a, b) = (1 + a, b) e T (0, 1) = (0, 1) + (a, b) = (a, 1 + b),

assim T (1, 0) + T (0, 1) = (1 + a, b) + (a, 1 + b) = (1 + 2a, 1 + 2b).



Por outro lado, T (1, 0) + (0, 1) = T (1, 1) = (1, 1) + (a, b) = (1 + a, 1 + b).
  
1 + 2a = 1 + a 2a = a a=0
Logo, T (1, 0) + T (0, 1) = T (1, 1) ⇐⇒ ⇐⇒ ⇐⇒ , mas
1 + 2b = 2b = b b=0
por hipótese temos a 6= 0 ou b 6= 0.
Portanto, T(a,b) não é linear.
150 Capítulo 6. Transformações Lineares

(e) A aplicação derivada de polinômios é linear:


T : Pn (R) −→ Pn−1 (R)
é linear.
p(t) 7−→ T p(t) = p0 (t)


De fato:
(i) Para quaisquer p(t) e q(t) em Pn (R) temos:

T p(t) + q(t) = T (p + q)(t) = (p + q)0 (t) = p0 (t) + q0 (t) = T p(t) + T q(t) .
   

∗ Propriedade da derivada da soma de funções.


(ii) Para todo p(t) em Pn (R) e todo λ em R temos:
 ?
T λ p(t) = T (λ p)(t) = λ (p)0 (t) = λ T p(t) .
 

? Propriedade da derivada do produto de uma função por uma constante.


 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
(f) Seja Am×n =  .. ..  uma matriz m × n, a aplicação:
 
.. . .
 . . . . 
am1 am2 · · · amn

TA : Rn −→ Rm  
x1
 x2 
(x1 , x2 , · · · , xn ) 7−→ TA (x1 , x2 , · · · , xn ) = Am×n ·  ,
 
..
 . 
xn

ou seja,
   
a11 a12 · · · a1n x1
 a21 a22 · · · a2n   x2 
TA (x1 , x2 , · · · , xn ) =  ·
   
.. .. .. .. .. 
 . . . .   . 
am1 am2 · · · amn xn

= (a11 x1 + · · · + a1n xn , a21 x1 + · · · + a2n xn , · · · , am1 x1 + · · · + amn xn )


que é uma transformação linear.
De fato, segue das propriedades M3 (a) e M4 de produto de matrizes.
 
1 3 −1
Por exemplo, se A = então temos:
0 2 1

TA : R3 −→ R2  
 x 
1 3 −1  
(x, y, z) −
7 → TA (x, y, z) = · y
0 2 1
z
= (x + 3y − z, 2y + z).

Observação 6.1.2 Na definição de transformação linear T : V −→ W os espaço vetoriais V e W


devem ser sobre o mesmo corpo K, pois caso contrário a segunda condição da definição não funcionaria.
6.1 Transformações Lineares 151

6.1.1 Propriedades de Transformações Lineares

Sejam V e W espaços vetoriais sobre um corpo K e T : V −→ W uma transformação linear, então


valem:
T L1 T (OV ) = 0W .
T L2 T (−v) = −T (v), para todo v ∈ V .
T L3 T (v − u) = T (v) − T (u), para quaisquer v, u ∈ V .
T L4 Se U é subespaço de V , então T (U) é subespaço de W .
T L5 Dados v1 , v2 , · · · , vk em V e escalares a1 , a2 , · · · , ak , então:

T (a1 v1 + a2 v2 + · · · + ak vk ) = a1 T (v1 ) + a2 T (v2 ) + · · · + ak T (vk ).

Verificação:

T L1 De fato, podemos escrever 0V = v + (−v) para algum v ∈ V , assim,


 (i) (ii)
T (0V ) = T v + (−v) = T (v) + T (−v) = T (v) − T (v) = 0W .

T L2 De fato, dado v ∈ V , então,


TL  (i)
T (v) + − T (v) = 0W =1 T (0V ) = T v + (−v) = T (v) + T (−v).



Logo, − T (v) = T (−v) ⇐⇒ −T (v) = T (−v).
T L3 De fato,
 (i) TL
T (v − u) = T v + (−u) = T (v) + T (−u) =2 T (v) − T (u).

T L4 Lembremos que T (U) = {w ∈ W ; w = T (u) para algum u ∈ U}.


Como 0V ∈ U, pois U é subespaço de V , segue que 0W = T (0V ) ∈ T (U), portanto T (U) 6= 0.
/
Sejam w1 w2 ∈ T (U), então existem u1 , u2 ∈ U tais que w1 = T (u1 ) e w2 = T (u2 ).
Logo,
(i)
w1 + w2 = T (u1 ) + T (u2 ) = T (u1 + u2 ) ∈ T (U).
| {z }
∈U

Sejam w ∈ T (U) e λ ∈ K, então existe u ∈ U tais que w = T (u).


Logo,
(ii)
λ · w = λ · T (u) = T (λ · u ) ∈ T (U).
|{z}
∈U
Portanto, T (U) é subespaço de W .
T L5 Segue das condições (i) e (ii) da definição de transformação linear.

Observação 6.1.3 Se T : V −→ V é uma transformação linear, com Dom(T ) = CD(T ), dizemos que
T é um operador linear.
152 Capítulo 6. Transformações Lineares

Proposição 6.1.4 Sejam V , W e U espaços vetoriais sobre um corpo K, se T : V −→ W e


S : W −→ U são transformações lineares, então a composição S ◦ T : V −→ U também é uma
transformação linear.

Demonstração:
(i) Sejam u e v em V , então:
 T é linear 
S ◦ T (u + v) = S T (u + v) = S T (u) + T (v)
S é linear  
= S T (u) + S T (v) = S ◦ T (u) + S ◦ T (v).

(ii) Sejam v em V e λ em K, então:


 T é linear  S é linear 
S ◦ T (λ v) = S T (λ v) = S λ T (v) = λ S T (v) = λ S ◦ T (v).

De (i) e (ii) segue que S ◦ T é linear.

6.2 Matriz de uma Transformação Linear

No último exemplo de transformações lineares vimos que toda matriz define uma transformação
linear. Reciprocamente, se V e W são espaços vetoriais sobre um corpo K, ambos de dimensão
finita, dada uma transformação linear T : V −→ W , considerando B = {v1 , v2 , · · · , vn } base de V e
B 0 = {w1 , w2 , · · · , wm } base de W podemos associar a T uma matriz em relação às bases B e B 0 .
De fato, para todo v ∈ V podemos escrever
v = α1 v1 + α2 v2 + · · · + αn vn , com α1 , α2 , · · · , αn ∈ K.
Por outro lado, como T (v1 ), T (v2 ), · · · , T (vn ) ∈ W também podemos escrever:
T (v1 ) = a11 w1 + a21 w2 + · · · + am1 wm

T (v2 ) = a12 w1 + a22 w2 + · · · + am2 wm . (6.2.1)


..
.
T (vn ) = a1n w1 + a2n w2 + · · · + amn wm

Logo,
T (v) = T (α1 v1 + α2 v2 + · · · + αn vn ) = α1 T (v1 ) + α2 T (v2 ) + · · · + αn T (vn )
= α1 (a11 w1 + a21 w2 + · · · am1 wm ) + α2 (a12 w1 + a22 w2 + · · · am2 wm )
+ · · · + αn (a1n v1 + a2n w2 + · · · amn wm )
= (α1 a11 + α2 a12 + · · · αn a1n )w1 + (α1 a21 + α2 a22 + · · · αn a2n )w2
+ · · · + (α1 am1 + α2 am2 + · · · αn amn )wm
   
a11 a12 · · · a1n α1
   a21 a22 · · · a2n   α2 
= w1 w2 · · · wm · ·  ..  . (6.2.2)
   
1×m  .. .. .. .
. 
 . . . .   . 
am1 am2 · · · amn αn n×1
| {z }
A m×n
6.2 Matriz de uma Transformação Linear 153

Definição 6.2.1 Sejam V e W são espaços vetoriais sobre um corpo K, de dimensões n e m,


respectivamente. Dadas B = {v1 , v2 , · · · , vn } base de V , B 0 = {w1 , w2 , · · · , wm } base de W e
T : V −→ W uma transformação linear a matriz A dada em 6.2.2 é chamada matriz da transfor-
mação linear T relação às bases B e B 0 .
Notação: [T ]B
B 0 , no caso em que B e B são bases canônicas indicamos por [T ].
0

T (v1 ) T (v2 ) ··· T (vn )


 ↓ ↓ ↓ 
a11 a12 ··· a1n ← coordenadas do 1º vetor de B 0
[T ]B
B0 =  a a22 ··· a2n  ← coordenadas do 2º vetor de B 0 .

 21
 .. .. .. ..  ..
 . . . .  .
am1 am2 ··· amn ← coordenadas do mº vetor de B 0

Observações 6.2.1 (a) Se T : V −→ V é um operador linear e consideramos a base B no domínio


e no contra-domínio de T , então indicamos a matriz correspondente por [T ]B .
(b) No que segue vamos indicar por e1 , · · · , en os respectivos vetores da base canônica e v1 , · · · , vn
os respectivos vetores de uma base qualquer.

Exemplos 6.2.2 (a) Seja a transformação linear T : R3 −→ R2 dada por:


T (x, y, z) = (x − y + 2z, 3x + 4z).
Determine a matriz de T em relação às bases canônicas de R2 e R3 .
Solução:
R3 é B = (1, 0, 0), (0, 1, 0), (0, 0, 1) , enquanto que a de R2 é

A base canônica de
B 0 = (1, 0), (0, 1) .


Logo,
T (1, 0, 0) = (1, 3) = 1(1, 0) + 3(0, 1)

T (0, 1, 0) = (−1, 0) = −1(1, 0) + 0(0, 1) .

T (0, 0, 1) = (2, 4) = 2(1, 0) + 4(0, 1)


Portanto, a matriz de T em relação às bases canônicas é:
T (e1 ) T (e2 ) T (e3 )
↓ ↓ ↓
[T ] = 
1 −1 2 ← coordenada do 1º vetor de B 0
3 0 4 ← coordenada do 2º vetor de B 0

(b) Seja a transformação linear T : M2 (R) −→ R3 dada por:


   
a11 a12
T = (a11 + a12 + a21 , a12 − a21 + a22 , 2a21 − a22 ).
a21 a22

Determine a matriz de T em relação às bases canônicas de M2 (R) e R3 .


Solução:
       
1 0 0 1 0 0 0 0
A base canônica de M2 (R) é: B = , , , e a de R3 é
0 0 0 0 1 0 0 1
B 0 = (1, 0, 0), (0, 1, 0), (0, 0, 1) .

154 Capítulo 6. Transformações Lineares

Assim temos:
   
1 0
T = (1, 0, 0) = 1(1, 0, 0) + 0(0, 1, 0) + 0(0, 0, 1),
0 0
   
0 1
T = (1, 1, 0) = 1(1, 0, 0) + 1(0, 1, 0) + 0(0, 0, 1),
0 0
   
0 0
T = (1, −1, 2) = 1(1, 0, 0) − 1(0, 1, 0) + 2(0, 0, 1),
1 0
   
0 0
T = (0, 0, −1) = 0(1, 0, 0) + 0(0, 1, 0) − 1(0, 0, 1).
0 1

Portanto, a matriz de T em relação às bases canônicas é:

T (e1 ) T (e2 ) T (e3 ) T (e4 )


↓ ↓ ↓ ↓ 
[T ] = 1 1 1 0 ← coordenada do 1º vetor de B 0
 0 1 −1 0  ← coordenada do 2º vetor de B 0
0 0 2 −1 ← coordenada do 3º vetor de B 0

(c) Seja a transformação linear T : R2 −→ P3 (R) dada por:

T (x, y) = 2x + y t + 3y t 2 − x t 3 .

Determine a matriz de T em relação às bases canônicas de M2 (R) e R3 .


Solução:
A base canônica de R2 é B = (1, 0), (0, 1) , enquanto que a de P3 (R) é B 0 = {1, t, t 2 , t 3 }.


Logo,
T (1, 0) = 2 − t 3 e T (0, 1) = t + 3t 2 .
Portanto, a matriz de T em relação às bases canônicas é:

T (e1 ) T (e2 )
 ↓ ↓
2 0 ← coeficiente de grau 0
[T ] =   ← coeficiente de grau 1
 0 1 
 0 3  ← coeficiente de grau 2
−1 0 ← coeficiente de grau 3

(d) Seja a transformação linear T : M2 (R) −→ P3 (R) dada por:


   
a11 a12
T = 2a11 + (a11 − a12 )t + (2a1 1 + a12 − 3a21 )t 2 + (a11 − a21 + 2a22 )t 3 .
a21 a22

Determine a matriz de T em relação às bases


       
1 1 1 0 0 1 0 0
B= , , , de M2 (R)
0 0 0 1 1 0 1 −1

e B 0 = {1, 1 + t, 1 + t 2 , t + t 3 } de P3 (R).
6.2 Matriz de uma Transformação Linear 155

Solução:
Observemos que:
   
1 1
T = 2 + 3t 2 + t 3 = (−1) × (1 + t) + 3 × (1 + t 2 ) + 1 × (t + t 3 ),
0 0
   
1 0
T = 2 + t − t 2 = 2 × 1 + 1 × (1 + t) + (−1) × (1 + t 2 ),
0 1
   
0 1
T = −t − 2t 2 − t 3 = 2 × 1 + (−2) × (1 + t 2 ) + (−1) × (t + t 3 ),
1 0
   
0 0
T = −3t 2 − 3t 3 = 3 × (1 + t) + (−3) × (1 + t 2 ) + (−3) × (t + t 3 ).
1 −1
Portanto, a matriz de T em relação às bases canônicas é:
T (v1 ) T (v2 ) T (v3 ) T (v4 )
 ↓ ↓ ↓ ↓ 
0 2 2 0 ← coordenada do 1º vetor de B 0
[T ]B
B0 = 
 −1 1 0 3  ← coordenada do 2º vetor de B 0
coordenada do 3º vetor de B 0

 3 −1 −2 −3  ←
1 0 −1 −3 ← coordenada do 4º vetor de B 0

Teorema 6.2.3 Sejam V e W são espaços vetoriais sobre um corpo K, ambos de dimensão finita e
T : V −→ W uma transformação linear. Se B = {v1 , v2 , · · · , vn } é base de V e B 0 = {w1 , w2 , · · · , wm }
é base de W , então
T (v) B0 = [T ]B
 
B 0 · [v]B para todo v ∈ V.

Demonstração: Dado v ∈ V existem escalares α1 , α2 , · · · , αn em K tais que

v = α1 v1 + α2 + · · · + αn vn .

Logo,
TL 6.2.1
T (v) =5 α1 T (v1 ) + α2 T (v2 ) + · · · + αn T (vn ) = β1 w1 + β2 w2 + · · · + βm wm ,
com β j = α1 a j1 + α2 a j2 + · · · + αn a jn para j ∈ {1, · · · , m}.
 
β1
   β2 
Portanto, T (v) B0 =  ..  .
 
 . 
βm
 
β1
 β2 
Por outro lado, da fórmula 6.2.2 temos:  ..  = [T ]B B 0 · [v]B .
 
 . 
βm
Consequentemente, temos:

T (v) B0 = [T ]B
 
B 0 · [v]B para todo v ∈ V.
156 Capítulo 6. Transformações Lineares

Observações 6.2.4 (a) Sejam V , W e U espaços vetoriais sobre um corpo K, com dim V = n,
dim W = k e dim U = m, B, B 0 e B 00 bases de V , W e U, respectivamente. Se

T : V −→ W e S : W −→ U são transformações lineares,

então [S ◦ T ]B 00 a matriz da composição S ◦ T em relação às bases B e B satisfaz:


00
| {z B}
m×n

[S ◦ T ]B B B
0
B 00 = [S] 00 · [T ] 0 .
| {zB} | {zB}
m×k k×n

(b) Sejam V espaço vetorial sobre um corpo K, com dim V = n, T : V −→ V um operador linear e
B uma base de V . Denotamos a matriz de T em relação à base B (tanto no domínio, como no
contradomínio) simplesmente por [T ]B .

Proposição 6.2.5 Sejam V um espaço vetorial sobre um corpo K de dimensão finita, B e B 0 e


T : V −→ V um operador linear, então:
B 0 B
[T ]B = MB · [T ]B0 · MB 0,

B e M B as matrizes mudanças de base de B para B 0 de B 0 para B, respectivamente.


com MB
0
0 B

Demonstração: Sendo IV : V −→ V o operador identidade, então MB B = [I ]B , ou seja, a matriz


0 V B0
mudança de base de B para B é a matriz do operador IV em relação às bases B e B 0 , respectivamente.
0

Da mesma maneira MB B = [I ]B , a matriz mudança de base de B 0 para B é a matriz do operador I


0 0
V B
em relação às bases B 0 e B, respectivamente.
Logo,
B 0 B B 0 B 0 B B 0 B B
MB · [T ]B0 · MB 0 = [IV ]B · [T ]B 0 · [IV ]B 0 = [IV ]B · [T ]B 0 = [T ]B = [T ]B .

6.3 Núcleo e Imagem de uma Transformação Linear

Definição 6.3.1 Sejam V e W são espaços vetoriais sobre um corpo K e T : V −→ W uma


transformação linear, a imagem de T , denotada por Im(T ), é o seguinte subconjunto de W :

Im(T ) = {w ∈ W ; existe algum v ∈ V com w = T (v)}.

Definição 6.3.2 Sejam V e W são espaços vetoriais sobre um corpo K e T : V −→ W uma


transformação linear, o núcleo de T , denotada por ker(T ), é o seguinte subconjunto de V :

ker(T ) = {v ∈ V ; T (v) = 0W }.

Exemplos 6.3.1 Determine o núcleo e a imagem das seguintes transformações lineares.


(a) T : R2 −→ R2 dada por T (x, y) = (ax, by), com a e b números reais.
(b) T : Pn (R) −→ Pn−1 (R) dada por T p(t) = p0 (t), a derivada de polinômios de grau ≤ n.

6.3 Núcleo e Imagem de uma Transformação Linear 157

(c) TA : R3 −→ R2 dada por


 
  x
1 3 −1
TA (x, y, z) = ·  y  = (x + 3y − z, 2y + z).
0 2 1
z

(d) T : M2 (R) −→ R3 dada por


   
a11 a12
T = (a11 + a12 + a21 , a12 − a21 + a22 , 2a21 − a22 ).
a21 a22

(e) T : R2 −→ P3 (R) dada por T (x, y) = 2x + y t + 3y t 2 − x t 3 .


Solução:
(a) (c, d) ∈ Im(T ) ⇐⇒ existe (x, y) ∈ R2 ; T (x, y) = (c, d) ⇐⇒ (ax, by) = (c, d).
1º Caso: a = 0 e b 6= 0: Neste caso teremos:
(
c=0
(c, d) ∈ Im(T ) ⇐⇒ (0, by) = (c, d) ⇐⇒ b6=0 d
y =
b
 
d
Logo, tomando x, , com x ∈ R qualquer, temos
b
   
d d
T x, = 0 · x, b · = (0, d) = (c, d).
b b
Portanto, Im(T ) = {(x, y) ∈ R2 ; x = 0}.
Por outro lado,
b6=0
(x, y) ∈ ker(T ) ⇐⇒ T (x, y) = (0, 0) ⇐⇒ (0, by) = (0, 0) ⇐⇒ y = 0.
Logo, ker(T ) = {(x, y) ∈ R2 ; y = 0}.
2º Caso: a 6= 0 e b = 0: Analogamente ao caso anterior, temos:
Im(T ) = {(x, y) ∈ R2 ; y = 0} e 0.3cm ker(T ) = {(x, y) ∈ R2 ; x = 0}.
3º Caso: a 6= 0 e b 6= 0: Neste caso teremos:
 a6=0 c
 x = a


(c, d) ∈ Im(T ) ⇐⇒ (ax, by) = (c, d) ⇐⇒
=0 d
 y b6=


b
     
c d c d c d
Logo, tomando , temos T , = a· ,b· = (c, d).
a b a b a b
Portanto, Im(T ) = R2 .
Por outro lado,
(x, y) ∈ ker(T ) ⇐⇒ T (x, y) = (0, 0) ⇐⇒ (ax, by) = (0, 0)
 
ax = 0 a6=0 e b6=0 x = 0
⇐⇒ ⇐⇒
by = 0 y=0
Logo, ker(T ) = {(0, 0)}.
158 Capítulo 6. Transformações Lineares

(b) q(t) ∈ Im(T ) ⇐⇒ existe p(t) ∈ Pn (R) tal que T p(t) = q(t) ⇐⇒ p0 (t) = q(t)


Z Z Z
⇐⇒ p0 (t) dt = q(t) dt ⇐⇒ p(t) = q(t) dt.

Observemos que a integral de um polinômio é um polinômio de grau k, se e somente se, este


polinômio é de grau k − 1.
Assim, como grau de p = n, devemos ter grau de q = n − 1.
Portanto, Im(T ) = Pn−1 (R).
Agora, p(t) ∈ ker(T ) ⇐⇒ T p(t) = 0 ⇐⇒ p0 (t) = 0 ⇐⇒ p é um polinômio constante.


Logo, ker(T ) = P0 (R) = R.


(c) (a, b) ∈ Im(T ) ⇐⇒ existe (x, y, z) ∈ R3 ; T (x, y, z) = (a, b)

x + 3y − z = a
⇐⇒ (x + 3y − z, 2y + z) = (a, b) ⇐⇒
2y + z = b

 z=b
Tomando, por exemplo, y=0 temos:
x = a+b

T (x, y, z) = T (a + b, 0, b) = (a + b + 3 · 0 − b, 2 · 0 + b) = (a, b).

Portanto, Im(T ) = R2 .
Por outro lado,

(x, y, z) ∈ ker(T ) ⇐⇒ T (x, y, z) = (0, 0) ⇐⇒ (x + 3y − z, 2y + z) = (0, 0)


 
x + 3y − z = 0 z = −2y
⇐⇒ ⇐⇒
2y + z = 0 x = −5y
Logo, ker(T ) = {(x, y, z) ∈ R3 ; x = −5y e z = −2y}.
     
x y x y
(d) (a, b, c) ∈ Im(T ) ⇐⇒ existe ∈ M2 (R) tal que T = (a, b, c), ou seja,
z t z t

 x + y + z = a
(x + y + z, y − z + t, 2z − t) = (a, b, c) ⇐⇒ y − z + t = b
2z − t = c



 t = −c
z = 0

Tomando, por exemplo, temos:

 y = b+c
x = a−b−c

       
x y a−b−c b+c
T =T = (a, b, c).
z t 0 −c

Portanto, Im(T ) = R3 .
Por outro lado,      
x y x y
∈ ker(T ) ⇐⇒ T = (0, 0, 0)
z t z t
6.3 Núcleo e Imagem de uma Transformação Linear 159
 
 x + y + z = 0  t = 2z
⇐⇒ y − z + t = 0 ⇐⇒ y = −z
2z − t = 0 x = 0
 
   
x y
Logo, ker(T ) = ; x = 0, y = −z e t = 2z .
z t
(e) a0 + a1t + a2t 2 + a3t 3 ∈ Im(T ) ⇐⇒ existe (x, y) ∈ R2 tal que

T (x, y) = a0 + a1t + a2t 2 + a3t 3 ⇐⇒ 2x + yt + 3yt 2 − xt 3 = a0 + a1t + a2t 2 + a3t 3


 a0

2x = a0
 x =  a
2

 0 = −a3

 
 
y = a1 y = a1 a0 = −2a3
 
⇐⇒ ⇐⇒ a2 =⇒  2 a2 ⇐⇒
 3y = a2  y = a1 = a2 = 3a1
3 3
 
−x = a3
 

−x = a3

Portanto,

Im(T ) = p(t) = a0 + a1t + a2t 2 + a3t 3 ∈ P3 (R); a0 = −2a3 e a2 = 3a1 .




Agora, (x, y) ∈ ker(T ) ⇐⇒ T (x, y) = 0 ⇐⇒ 2x + yt + 3yt 2 − xt 3 = 0




 2x = 0
y = 0

⇐⇒ ⇐⇒ (x, y) = (0, 0).

 3y = 0
−x = 0

Logo, ker(T ) = {(0, 0)}.

Teorema 6.3.2 Sejam V e W são espaços vetoriais sobre um corpo K e T : V −→ W uma transfor-
mação linear, então:
(i) ker(T ) é um subespaço de V .
(ii) Im(T ) é um subespaço de W .

Demonstração:
(i) Sabemos que T (0V ) = 0W , portanto ker(T ) 6= 0.
/
Dados u, v ∈ ker(T ), temos:

T (u + v) = T (u) + T (v) = 0W + 0W = 0W .

Portanto, u + v ∈ ker(T ).
Agora, se v ∈ ker(T ) e λ ∈ K, então

T (λ · v) = λ · T (v) = λ · 0W = 0W .

Assim, λ · v ∈ ker(T ).
Logo, ker(T ) é um subespaço de V .
160 Capítulo 6. Transformações Lineares

(ii) É claro que 0W ∈ Im(T ), pois 0V ∈ V e 0W = T (0V ), logo Im(T ) 6= 0.


/
Dados w1 , w2 ∈ Im(T ), existem v1 , v2 ∈ V tais que T (v1 ) = w1 e T (v2 ) = w2 .
Como T (v1 + v2 ) = T (v1 ) + T (v2 ) = w1 + w2 , segue que w1 + w2 ∈ Im(T ).
| {z }
∈V
Agora, se w ∈ Im(T ), existe v ∈ V tal que T (v) = w, dado λ ∈ K, temos

T (λ · v ) = λ · T (v) = λ · w.
|{z}
∈V

Assim, λ · w ∈ Im(T ).
Logo, Im(T ) é um subespaço de W .

Observação 6.3.3 Segue da definição 6.2.1 que Im(T ) é o subespaço correspondente ao espaço
coluna da matriz [T ]B
B 0 , como B e B bases de V e de W , respectivamente.
0

6.3.1 Teorema do Núcleo e da Imagem

Teorema 6.3.4 (Teorema do Núcleo e da Imagem)


Sejam V e W são espaços vetoriais sobre um corpo K, com dim V = n, e T : V −→ W uma
transformação linear, então:
 
dim V = dim ker(T ) + dim Im(T ) .

Demonstração: Como ker(T ) é um subespaço de V , então dim ker(T ) = k ≤ n = dimV .
Seja {v1 , · · · , vk } uma base de ker(T ), pelo teorema do completamento existem n − k vetores,
vk+1 , · · · , vn , em V , tais que

B = {v1 , · · · , vk , vk+1 , · · · , vn } é uma base de V.

Mostremos que
B 0 = T (vk+1 ), · · · , T (vn )


é uma base de Im(T ).


Dado w ∈ Im(T ), existe v ∈ V tal que T (v) = w, como B é uma base de V existem escalares
a1 , · · · , ak , ak+1 , · · · , an ∈ K tais que

v = a1 v1 + · · · + ak vk + ak+1 vk+1 + · · · + an vn .

Logo, 
w = T (v) = T a1 v1 + · · · + ak vk + ak+1 vk+1 + · · · + an vn

= a1 T (v1 ) + · · · + ak T (vk ) + ak+1 T (vk+1 ) + · · · + an T (vn )

= ak+1 T (vk+1 ) + · · · + an T (vn ),


pois v1 , · · · , vk estão em ker(T ).
 
Assim, como w é um elemento arbitrário Im(T ) segue que Im(T ) = T (vk+1 ), · · · , T (vn ) .
6.3 Núcleo e Imagem de uma Transformação Linear 161

Resta mostrar que T (vk+1 ), · · · , T (vn ) é um conjunto L. I.
Sejam λk+1 , · · · , λn ∈ K tais que
λk+1 T (vk+1 ) + · · · + λn T (vn ) = 0W ⇐⇒ T (λk+1 vk+1 + · · · + λn vn ) = 0W
⇐⇒ λk+1 vk+1 + · · · + λn vn ∈ ker(T ).
Como {v1 , · · · , vk } é uma base de ker(T ), então podemos escrever
λk+1 vk+1 + · · · + λn vn = α1 v1 + · · · + αk vk ⇐⇒ α1 v1 + · · · + αk vk − λk+1 vk+1 − · · · − λn vn = 0V .
Mas B = {v1 , · · · , vk , vk+1 , · · · , vn } é uma base de V , portanto devemos ter
α1 = · · · = αk = −λk+1 = · · · = −λn = 0,
consequentemente λk+1 = · · · = λn = 0.
Daí que T (vk+1 ), · · · , T (vn ) é um conjunto L. I., logo B 0 = T (vk+1 ), · · · , T (vn ) é base de Im(T ).
 

Consequentemente dim Im(T ) = n − k.


Portanto,
dim ker(T ) + dim Im(T ) = k + (n − k) = n = dimV.

Exemplos 6.3.5 Determine a dimensão do núcleo e da imagem de T dos Exemplos 6.3.1.


Solução:
(a) T (x, y) = (ax, by), com a e b números reais.
1º Caso: a = 0 e b 6= 0
Como Im(T ) = {(x, y) ∈ R2 ; x = 0} e ker(T ) = {(x, y) ∈ R2 ; y = 0}, então
dim ker(T ) = dim Im(T ) = 1.
2º Caso: a 6= 0 e b = 0
Como Im(T ) = {(x, y) ∈ R2 ; y = 0} e ker(T ) = {(x, y) ∈ R2 ; x = 0}, então
dim ker(T ) = dim Im(T ) = 1.
3º Caso: a 6= 0 e b 6= 0
Como Im(T ) = R2 e ker(T ) = {(0, 0)}, então dim Im(T ) = 2 e dim ker(T ) = 0.

(b) T p(t) = p0 (t), a derivada de polinômios de grau ≤ n, vimos que Im(T ) = Pn−1 (R) e que


ker(T ) = P0 (R) = R.
Logo, dim Im(T ) = n e dim ker(T ) = 1.

(c) T (x, y, z) = (x + 3y − z, 2y + z)
Vimos que Im(T ) = R2 e que ker(T ) = {(x, y, z) ∈ R3 ; x = −5y e z = −2y}.
Logo, dim Im(T ) = 2 e dim ker(T ) = 1.
   
x y
(d) T = (x + y + z, y − z + t, 2z − t).
z t
   
3 x y
Vimos que Im(T ) = R e que ker(T ) = ; x = 0, y = −z e t = 2z .
z t
Portanto, dim Im(T ) = 3 e dim ker(T ) = 1.
162 Capítulo 6. Transformações Lineares

(e) T (x, y) = 2x + yt + 3yt2 − xt 3 .


Vimos que Im(T ) = p(t) = a0 + a1t + a2t 2 + a3t 3 ∈ P3 (R); a0 = −2a3 e a2 = 3a1 e que

ker(T ) = {(0, 0)}.


Logo, dim Im(T ) = 2 e dim ker(T ) = 0.

Agora observemos que dada T : V −→ W uma transformação linear, pelo Teorema 6.3.4 (do Núcleo
e da Imagem), tomando B = {v1 , · · · , vk , vk+1 , · · · , vn } base de V obtida pelo completamento de
{v1 , · · · , vk } uma base do ker(T ), considerando B 0 uma base de W , então a matriz de T em relação
às bases B e B 0 é dada por:

T (v1 ) ···T (vk ) T (vk+1 ) · · · T (vn )


↓ ↓ ↓ ↓ 
[T ]B = 0 ··· 0 a1k+1 ··· a1n ← coordenadas do 1º vetor de B 0 ,
B0
 .. .. .. .. .. ..  ..
 . . . . . .  .
0 ··· 0 amk+1 ··· amn ← coordenadas do mº vetor de B 0

como T (vk+1 ), · · · , T (vn ) é base de Im(T ), segue que as n − k últimas colunas de [T ]B



B 0 são L.I..
Isto ocorre independentemente das bases consideradas em V e em W .
De fato, sendo B1 e B10 bases arbitrárias de V e de W , respectivamente, pela Observação 6.2.4 (a)
temos:
[T ]B = [IW ]B B1 B0 B B1 B0 B B1
0
B 0 · [T ]B 0 = [IW ]B 0 · [T ]B 0 · [IV ]B = MB 0 · [T ]B 0 · MB ,
1
B0 1 1 1 1

B1 B0
com MB e MB 0 matrizes de mudança de base de B1 para B e de B0 para B10 , respectivamente.
1
B1
Tomando as transformações lineares definidas pelas matrizes [T ]B
B 0 e [T ]B 0 , indicadas por S e R
1
B e Q = M B1 , então R = P · S · Q, com P ∈ M (K)
respectivamente, para simplificar colocamos P = MB
0
0 B 1
m
e Q ∈ Mn (K) matrizes invertíveis, logo S = P−1 · R · Q−1 .
Se {u1 , · · · , ur } é base de ker(R), então R(ui ) = 0W , para todo i ∈ {1, · · · , r} consequentemente,
P · S · Q(ui ) = 0W , para todo i, como P é invertível aplicando P−1 à esquerda na última igualdade
obtemos S · Q(ui ) = 0W , para todo i ∈ {1, · · · , r}.
Portanto, {Q(u1 ), · · · , Q(ur )} ⊂ ker(S), mas se existem escalares a1 , · · · , ar tais que:
S é linear
a1 Q(u1 ) + · · · + ar Q(ur ) = 0V =⇒ Q(a1 u1 + · · · + ar ur ) = 0V ,

aplicando Q−1 à esquerda na última igualdade obtemos a1 u1 + · · · + ar ur = 0V , como {u1 , · · · , ur }


é base, segue que a1 = · · · = ar = 0, assim {Q(u1 ), · · · , Q(ur )} é um subconjunto L.I. de ker(S).
Por outro lado, se v ∈ ker(S), então
aplicando à esq. P
S(v) = 0W ⇐⇒ P−1 · R · Q−1 (v) = 0W R · Q−1 (v) = 0W ⇐⇒ R Q−1 (v) = 0W .

=⇒

Logo, Q−1 (v) ∈ ker(R), portanto existem escalares b1 , · · · , br tais que


aplicando à esq. Q
Q−1 (v) = b1 u1 + · · · + br ur =⇒ v = Q(b1 u1 + · · · + br ur ) = b1 Q(u1 ) + · · · + br Q(ur ).

Consequentemente, [Q(u1 ), · · · , Q(ur )] = ker(S) e {Q(u1 ), · · · , Q(ur )} é base de ker(S).


Assim, dim ker(R) = dim ker(S).
Uma consequência deste desenvolvimento é seguinte resultado:
6.3 Núcleo e Imagem de uma Transformação Linear 163

Proposição 6.3.6 Seja T : V −→ W uma transformação linear, dadas B e B 0 bases quaisquer de


V e W , respectivamente, então:
(i) dim Im(T ) = posto [T ]B
B0 .
(ii) dim ker(T ) = null [T ]B B B
B 0 = número de colunas de [T ]B 0 − posto [T ]B 0 .

Determinando a Imagem e o Núcleo através de uma Matriz da Transformação Linear

Seja T : V −→ W uma transformação linear, dadas B e B 0 bases quaisquer de V e W , respectivamente,


para determinar Im(T ) e ker(T ) procedemos da seguinte maneira:
1º Passo: Encontramos a matriz [T ]B
B0 .

2º Passo: Efetuamos operações elementares nas colunas da matriz [T ]B


B 0 , até obter uma matriz equiva-
lente com k colunas nulas e n − k colunas L.I.
3º Passo: Os vetores de W correspondentes às n − k colunas L.I. da matriz [T ]B
B 0 formam uma base de
Im(T ).
4º Passo: Os vetores de V que produziram as k colunas nulas da matriz [T ]B
B 0 nos fornece uma base
de ker(T ).

Exemplos 6.3.7 Determine o núcleo e a imagem de T utilizando uma matriz da transformação linear.

(a) T : R3 −→ R2 dada por T (x, y, z) = (x + 3y − z, 2y + z).


   
x y
(b) T : M2 (R) −→ P2 (R), dada por T = (x + y + z, y − z + t, 2z − t).
z t

(c) T : R2 −→ P3 (R) dada por T (x, y) = 2x + yt + 3yt 2 − xt 3 .

(d) T : P2 (R) −→ R3 dada por T (a0 + a1t + a2t 2 ) = a0 + a2 , a0 + a2 , 2(a1 + a2 ) .




(e) T : C2 −→ R2 dada por T (x1 + y1 i, x2 + y2 i) = x1 + 2x2 , −x1 + 2y2 .




Solução:
 
1 3 −1
(a) A matriz de T em relação às bases canônicas de R3 e de R2 é [T ] = , logo:
0 2 1

C20 −→ C20 − 2C30


     
1 3 −1 C2 −→ C2 − 3C1 1 0 0 1 0 0
∼ ∼ .
0 2 1 C3 −→ C3 +C1 0 2 1 0 0 1

Logo, Im(T ) = (1, 0), (0, 1) = R2 e dim ker(T ) = 1.


 

Observemos que

0R3 = C20 − 2C30 = (C2 − 3C1 ) − 2(C3 +C1 ) = C2 − 5C1 − 2C3


= T (e2 ) − 5T (e1 ) − 2T (e3 ) = T (e2 − 5e1 − 2e3 ).
   
Portanto, ker(T ) = e2 − 5e1 − 2e3 = (−5, 1, −2) .
164 Capítulo 6. Transformações Lineares
 
1 1 1 0
(b) A matriz de T em relação às bases canônicas de M2 (R) e de P2 (R) é [T ] =  1 −1 2 0 ,
4 2 5 0
logo:
     
1 1 1 0 1 0 0 0 1 0 0 0
 1 −1 2 0  C2 → C2 −C1 ∼  1 −2 1 0  C0 → C0 + 2C0 ∼  1 0 1 0  .
2 2 3
4 2 5 0 C3 → C3 −C1 4 −2 1 0 4 0 1 0

Logo, Im(T ) = 1 + t + 4t 2 , t + t 2 e dim ker(T ) = 2.


 

Observemos que T (e4 ) = 0P2 (R) e que

0P2 (R) = C20 + 2C30 = (C2 −C1 ) + 2(C3 −C1 ) = C2 − 3C1 + 2C3
= T (e2 ) − 3T (e1 ) + 2T (e3 ) = T (e2 − 3e1 + 2e3 ).
     
  −3 1 0 0
Portanto, ker(T ) = e2 − 3e1 + 2e3 , e4 = , .
2 0 0 1
 
2 0
 0 1 
(c) A matriz de T em relação às bases canônicas de R2 e de P3 (R) é [T ] =   0 3 , como as

−1 0
3 2
 
colunas desta matriz são L. I. segue que Im(T ) = 2 − t , t + 3t e dim ker(T ) = 0, portanto
ker(T ) = {0V }.
 
1 0 1
(d) A matriz de T em relação às bases canônicas de P2 (R) e de R3 é [T ] =  1 0 1 , logo:
0 2 2
   
1 0 1 1 0 0
 1 0 1  C3 −→ C3 −C2 −C1 ∼  1 0 0  .
0 2 2 0 2 0

Logo, Im(T ) = (1, 1, 0), (0, 0, 2) = R2 e dim ker(T ) = 1.


 

Observemos que 0P2 (R) = C3 −C2 −C1 = T (e3 ) − T (e2 ) − T (e1 ) = T (e3 − e2 − e1 ).
Portanto, ker(T ) = − 1 − t + t 2 .
 

 
1 2 0 0
(e) A matriz de T em relação às bases canônicas de C2 e de R2 é [T ] = , logo:
−1 0 0 2
 0
C2 → 21 C2 C1 → C10 +C40 −C20
    
1 2 0 0 1 1 0 0 0 1 0 0
∼ ∼ .
−1 0 0 2 C4 → 12 C4 −1 0 0 1 0 0 0 1

Logo, Im(T ) = (1, 0), (0, 1) = R2 e dim ker(T ) = 2.


 

Observemos que T (e3 ) = 0R2 e que

0R2 = C10 +C40 −C20 = C1 + 21 C4 − 12 C2  


= T (e1 ) + 21 T (e4 ) − 12 T (e2 ) = T e1 + 12 e4 − 12 e2 .
h i 
Portanto, ker(T ) = e1 + 12 e4 − 21 e2 , e3 = 2e1 + e4 − e2 , e3 = (2 − i, i), (0, 1) .
  
6.4 Transformações Lineares Injetoras e Sobrejetoras 165

6.4 Transformações Lineares Injetoras e Sobrejetoras

Definição 6.4.1 Sejam V e W são espaços vetoriais sobre um corpo K e T : V −→ W uma


transformação linear, dizemos que:
(i) T é injetora se, e somente se, para todo u e v em V , se T (u) = T (v), então u = v.
Equivalentemente, é injetora se, e somente se, para todo u e v em V , se u 6= v, então T (u) 6=
T (v).
(ii) T é sobrejetora se, e somente se, Im(T ) = W , ou seja, para todo w ∈ W existe algum v ∈ V tal
que T (v) = w.

Teorema 6.4.1 Sejam V e W são espaços vetoriais sobre um corpo K e T : V −→ W uma transfor-
mação linear, T é injetora se, e somente se, ker(T ) = {0V }.

Demonstração: Suponhamos que T é injetora, mostremos que ker(T ) = {0V }.


Seja v ∈ ker(T ), então T (v) = 0W , mas sabemos que T (0V ) = 0W , daí que T (v) = T (0V ), como T é
injetora segue que v = 0V .
Portanto, ker(T ) = {0V }.
Reciprocamente, suponhamos que ker(T ) = {0V } e mostremos que T é injetora.
Sejam u e v em V tais que T (u) = T (v), então temos:

T (u) − T (v) = 0W ⇐⇒ T (u − v) = 0W ,

isto implica que u − v ∈ ker(T ), mas como ker(T ) = {0V }, segue que u − v = 0V ⇐⇒ u = v.
Portanto, T é injetora.

Exemplos 6.4.2 Determine quais transformações lineares, dos Exemplos 6.3.5, são injetoras e sobre-
jetoras.
Solução:
(a) T (x, y) = (ax, by), com a e b números reais.
1º Caso: a = 0 e b 6= 0
Como Im(T ) = {(x, y) ∈ R2 ; x = 0} 6= R2 , então T não é sobrejetora e ker(T ) = {(x, y) ∈
R2 ; y = 0} 6= {(0, 0)}, então T não é injetora.
2º Caso: a 6= 0 e b = 0
Como Im(T ) = {(x, y) ∈ R2 ; y = 0} = 6 R2 , então T não é sobrejetora e ker(T ) = {(x, y) ∈
R2 ; x = 0} 6= {(0, 0)}, então T não é injetora.
3º Caso: a 6= 0 e b 6= 0
Como Im(T ) = R2 , então T é sobrejetora e ker(T ) = {(0, 0)}, então é injetora.
(b) T p(t) = p0 (t), a derivada de polinômios de grau ≤ n.


Im(T ) = Pn−1 (R), então T é sobrejetora e ker(T ) = P0 (R) = R 6= {0}, portanto T não é
injetora.
166 Capítulo 6. Transformações Lineares

(c) T (x, y, z) = (x + 3y − z, 2y + z)
Im(T ) = R2 , então T é sobrejetora e

ker(T ) = {(x, y, z) ∈ R3 ; x = −5y e z = −2y} 6= {(0, 0, 0)},

portanto T não é injetora.


   
x y
(d) T = (x + y + z, y − z + t, 2z − t).
z t
Im(T ) = R3 , então T é sobrejetora e
   
x y
ker(T ) = ; x = 0, y = −z e t = 2z 6= {(0, 0, 0)},
z t
portanto T não é injetora.
(e) T (x, y) = 2x + yt + 3yt 2 − xt 3 .
Im(T ) = p(t) = a0 + a1t + a2t 2 + a3t 3 ∈ P3 (R); a0 = 2a3 e a2 = 3a1 6= P3 (R), portanto T


não é sobrejetora e ker(T ) = {(0, 0)}, logo T é injetora.

Corolário 6.4.3 (Consequências do Teorema do Núcleo e da Imagem)


Sejam V e W são espaços vetoriais sobre um corpo K, com dimV = n e dimW = m, e T : V −→ W
uma transformação linear, então:
(i) Se n = m, então T é injetora se, e somente se, T é sobrejetora.
(ii) Se n < m, então T não é sobrejetora.
(iii) Se n > m, então T não é injetora.
(iv) Se n = m e T é injetora, então T leva base de V em base de W .

6.5 Inversa de uma Transformação Linear


Definição 6.5.1 Sejam V e W são espaços vetoriais sobre um corpo K e T : V −→ W uma
transformação linear, dizemos que T é bijetora se, e somente se, T é injetora e sobrejetora.

Se T : V −→ W é uma transformação linear bijetora, então:


(i) Para todo w ∈ W , existe v ∈ V tal que T (v) = w, pois Im(T ) = W .
(ii) O elemento v do item (i), tal que T (v) = w, é único, pois T é injetora.
Assim, podemos considerar a aplicação
S : W −→ V
, tal que T (v) = w.
w 7−→ S(w) = v

Definição 6.5.2 Seja T : V −→ W uma transformação linear bijetora, a aplicação S : W −→ V


acima é chamada inversa de T e indicada por T −1 , dizemos também que T é uma transformação
invertível.
Assim, T −1 (w) = v se, e somente se, T (v) = w.
6.5 Inversa de uma Transformação Linear 167

Observações 6.5.1 1. (a)] Se T : V −→ W é uma transformação linear bijetora e T −1 : W −→ V


é sua inversa, então temos:
T −1 ◦ T = IdV e T ◦ T −1 = IdW .
(b) Na definição de inversa de uma transformação linear é essencial a condição de que a transformação
seja bijetora.
De fato, a condição de T é injetora é necessária, pois se existissem v1 e v2 elementos distintos em
V tais que T (v1 ) = T (v2 ) = w1 não teríamos como estabelecer T −1 (w1 ).
Já a condição de T é sobrejetora é necessária para que T −1 possa ser aplicada a cada elemento de
W , que é o seu domínio, pois se existisse w ∈ W tal que w ∈ / Im(T ), então T −1 (w) não estaria
definida.
(c) Se T : V −→ W é uma transformação linear invertível, como dimV = dimW = n, então a matriz
[T ]B
B 0 é invertível, para toda base B de V e toda base B de W .
0

T é inj.
De fato, pela Proposição 6.3.6 [(ii)] temos null [T ]B
B 0 = dim ker(T ) = 0.
Logo, posto [T ]B B
B 0 = n é máximo e pela Proposição 2.2.3 a matriz [T ]B 0 é invertível.

Teorema 6.5.2 Se T : V −→ W é uma transformação linear bijetora e T −1 : W −→ V é sua inversa,


então T −1 também é linear.
Demonstração:
(i) Sejam w1 e w2 em W , então w1 + w2 ∈ W , e portanto, existe v ∈ V tal que
T −1 (w1 + w2 ) = v. (6.5.1)
Logo,
w1 + w2 = T (v). (6.5.2)
Como w1 ∈ W e w2 ∈ W , existem v1 , v2 ∈ V tais que T (v1 ) = w1 e T (v2 ) = w2 , consequentemente
T é linear
w1 + w2 = T (v1 ) + T (v2 ) = T (v1 + v2 ). (6.5.3)
Além disso,
v1 = T −1 (w1 ) e v2 = T −1 (w2 ). (6.5.4)
Como T é injetora segue de 6.5.2 e de 6.5.3 que v = v1 + v2 .
Assim, em 6.5.1 substituindo por 6.5.4 temos:
T −1 (w1 + w2 ) = v1 + v2 = T −1 (w1 ) + T −1 (w2 ).
(ii) Sejam w ∈ W e λ ∈ K, então λ w ∈ W e existe v ∈ V tal que
T −1 (λ w) = v ⇐⇒ λ w = T (v). (6.5.5)
Como w ∈ W existe u ∈ V tal que
T (u) = w ⇐⇒ T −1 (w) = u. (6.5.6)
Assim,
T é linear
T (λ u) = λ T (u) = λ w. (6.5.7)
Como T é injetora segue de 6.5.5 e 6.5.7 que
v = λ u. (6.5.8)
Logo, de 6.5.5 e de 6.5.6 que
T −1 (λ w) = λ u = λ T −1 (w).

De (i) e (ii) concluímos que T −1 é linear.


168 Capítulo 6. Transformações Lineares

6.5.1 Isomorfismo e Automorfismo


Definição 6.5.3 Seja T : V −→ W uma transformação linear invertível, ou seja, possui inversa,
dizemos que T é um isomorfismo, e a transformação linear T −1 : W −→ V é o isomorfismo inverso
de T .
Um operador linear T : V −→ V que é um isomorfismo é chamado automorfismo.

Matrizes Semelhantes
Definição 6.5.4 Dizemos que duas matrizes A e B em Mn (K) são semelhantes se, e somente se,
existe P uma matriz invertível em Mn (K) tal que

B = P−1 · A · P.

Proposição 6.5.3 Matrizes semelhantes têm o mesmo determinante.

Demonstração: De fato, se A e B são semelhantes então, existe P uma matriz invertível em Mn (K) tal
que B = P−1 · A · P.
Logo,
1
det B = det(P−1 · A · P) = det P−1 · det A · det P = · det A · det P = det A,
det P
1
pois det P−1 = .
det P

Teorema 6.5.4 Seja T : V −→ V um operador linear, as matrizes de T em relação a bases distintas


são semelhantes.
Demonstração: Sejam B e B 0 bases de V pela Proposição 6.2.5 sabemos que:
B 0 B
[T ]B = MB · [T ]B0 · MB 0,

com MB B e M B , respectivamente, a matriz mudança de base de B para B 0 e a matriz mudança de


0
0 B
base de B 0 para B.
 −1
B é invertível e que M B
Mas, por outro lado, sabemos que a matriz mudança de base MB B0 .
= MB
0 B0

Consequentemente temos
 −1
B B
[T ]B = MB 0 · [T ]B0 · MB 0.

Portanto, as matrizes de T em relação a bases distintas são semelhantes.

Corolário 6.5.5 Seja T : V −→ V um operador linear, as matrizes de T em relação a bases distintas


têm mesmo determinante.
Demonstração: Pelo Teorema 6.5.4 sabemos que as matrizes de T em relação a bases distintas são
semelhantes, consequentemente pela Proposição 6.5.3 segue o resultado.

Assim temos a seguinte definição:


6.5 Inversa de uma Transformação Linear 169

Definição 6.5.5 Sejam V um espaço vetorial de dimensão finita sobre um corpo K e T : V −→ V


um operador linear, o determinante do operador T , denotado por det T , é dado por:

det T = det[T ]B ,

com B uma base ordenada qualquer de V .

Teorema 6.5.6 Sejam V um espaço vetorial de dimensão finita sobre um corpo K e T : V −→ V


um operador linear. Então, T é invertível se, e somente se, det T 6= 0.

Exemplos 6.5.7 (a) Mostre que a transformação linear T : R2 −→ R2 dada por


T (x, y) = (x + y, x − y) é um isomorfismo e determine sua inversa T −1 .
Solução:
Para mostrar que T é isomorfismo basta mostrar que T é bijetora, como Dom(T ) = CD(T ) basta
mostrar que T é injetora, para isso vamos mostrar que ker(T ) = {(0, 0)}.
Observemos que (x, y) ∈ ker(T ) ⇐⇒ T (x, y) = (0, 0) ⇐⇒ (x + y, x − y) = (0, 0)
  
x+y = 0 x+y = 0 x=0
⇐⇒ ⇐⇒ ⇐⇒ .
x−y = 0 2y = 0 y=0

Portanto, ker(T ) = {(0, 0)}, consequentemente T é um isomorfismo.


Determinando a inversa T −1 .

T −1 (x, y) = (a, b) ⇐⇒ (x, y) = T (a, b) ⇐⇒ (x, y) = (a + b, a − b)


 x+y
 a= 2
  

a+b = x a+b = x
⇐⇒ ⇐⇒ ⇐⇒
a−b = y 2b = x − y
 b = x−y


2
Logo, a inversa de T é dada por:
 
−1 x+y x−y
T (x, y) = , .
2 2

(b) Mostre que a transformação linear T : R3 −→ P2 (R) tal que

T (1, −1, 0) = 2 + t, T (0, 1, −1) = −1 + t 2 e T (0, 0, 1) = t + t 2

é um isomorfismo e determine sua inversa T −1 : P2 (R) −→ R3 .


Solução:
É claro que B = {(1, −1, 0), (0, 1, −1), (0, 0, 1)} é base de R3 , vamos escrever um vetor (x, y, z)
arbitrário de R3 como combinação linear dos vetores de B para encontrar a expressão da
transformação T .
(x, y, z) = a(1, −1, 0) + b(0, 1, −1) + c(0, 0, 1)
 
 a = x  a = x
⇐⇒ −a + b = y ⇐⇒ b = x+y
− b + c = z c = x+y+z
 

Logo,
(x, y, z) = x(1, −1, 0) + (x + y)(0, 1, −1) + (x + y + z)(0, 0, 1).
170 Capítulo 6. Transformações Lineares

Consequentemente,

T (x, y, z) = T x (1, −1, 0) + (x + y) (0, 1, −1) + (x + y + z) (0, 0, 1)

T é linear
= x T (1, −1, 0) + (x + y) T (0, 1, −1) + (x + y + z) T (0, 0, 1)

= x (2 + t) + (x + y) (−1 + t 2 ) + (x + y + z) (t + t 2 )

= (x − y) + (2x + y + z) t + (2x + 2y + z) t 2 .

Assim, a transformação linear T : R3 −→ P2 (R) é dada por:

T (x, y, z) = (x − y) + (2x + y + z) t + (2x + 2y + z)t 2 .

Sabemos que T é isomorfismo se, e somente se, T é bijetora, mas como dim R3 = dim P2 (R)
basta verificar que T é injetora, para isso vamos mostrar que ker(T ) = {(0, 0, 0)}.

(x, y, z) ∈ ker(T ) ⇐⇒ T (x, y, z) = 0

⇐⇒ (x − y) + (2x + y + z) t + (2x + 2y + z) t 2 = 0
 
 x − y = 0  x = 0
⇐⇒ 2x + y + z = 0 ⇐⇒ y = 0
2x − 2y + z = 0 z = 0
 

Portanto, ker(T ) = {(0, 0, 0)}, consequentemente T é um isomorfismo.


Determinando a inversa T −1 .

T −1 (a + bt + ct 2 ) = (x, y, z) ⇐⇒ a + bt + ct 2 = T (x, y, z)

⇐⇒ a + bt + ct 2 = (x − y) + (2x + y + z) t + (2x + 2y + z) t 2
 
 x − y = a  x = a − b + c
⇐⇒ 2x + y + z = b ⇐⇒ y = − b + c
2x − 2y + z = c z = −2a + 4b − 3c
 

Logo, a inversa de T é dada por:

T −1 (a + bt + ct 2 ) = (a − b + c, −b + c, −2a + 4b − 3c).

(c) Considere o operador linear T : P2 (R) −→ P2 (R) dado por: T p(t) = (3 + t)p0 (t) + 2p(t)


e a transformação linear S : P2 (R) −→ R3 dada por: T (a + bt + ct 2 ) = (a + b, c, a − b).


Determine a transformação linear S ◦ T : P2 (R) −→ R3 e verifique se é um isomorfismo, em
caso afirmativo determine (S ◦ T )−1 .
Solução:
Lembremos que se p(t) = a + bt + ct 2 , então p0 (t) = b + 2ct.
Logo,

T (a + bt + ct 2 ) = (3 + t)(b + 2ct) + 2(a + bt + ct 2 ) = (2a + 3b) + (3b + 6c)t + 4ct 2 .


6.5 Inversa de uma Transformação Linear 171

Portanto,

S ◦ T (a + bt + ct 2 ) = S T (a + bt + ct 2 )


= S (2a + 3b) + (3b + 6c)t + 4ct 2





= (2a + 3b) + (3b + 6c), 4c, (2a + 3b) − (3b + 6c)

= (2a + 6b + 6c, 4c, 2a − 6c).

Assim, a transformação linear é:

S◦T : P2 (R) −→ R3
a + bt + ct 7−→ T (a + bt + ct 2 ) = (2a + 6b + 6c, 4c, 2a − 6c).
2

Para verificar que S ◦ T é isomorfismo devemos mostrar que S ◦ T é bijetora, como


dim P2 (R) = dim R3 basta verificar que S◦T é injetora, para isso vamos mostrar que ker(S◦T ) =
{0}.
a + bt + ct 2 ∈ ker(S ◦ T ) ⇐⇒ T (a + bt + ct 2 ) = (0, 0, 0)
⇐⇒ (2a + 6b + 6c, 4c, 2a − 6c) = (0, 0, 0)
 
 2a + 6b + 6c = 0  a = 0
⇐⇒ 4c = 0 ⇐⇒ b = 0 ⇐⇒ a + bt + ct 2 = 0.
2a − 6c = 0 c = 0
 

Portanto, ker(S ◦ T ) = {0}, consequentemente S ◦ T é um isomorfismo.


Determinando a inversa (S ◦ T )−1 .

(S ◦ T )−1 (x, y, z) = a + bt + ct 2 ⇐⇒ (x, y, z) = S ◦ T (a + bt + ct 2 )

⇐⇒ (x, y, z) = (2a + 6b + 6c, 4c, 2a − 6c) = (0, 0, 0)



3y + 2z

 a =
4


 

 2a + 6b + 6c = x


x − 3y − z

⇐⇒ 4c = y ⇐⇒ b =

2a − 6c = z


 6



 y
 c =

4
Logo, a inversa de S ◦ T é dada por:
     
−1 3y + 2z x − 3y − z y 2
(S ◦ T ) (x, y, z) = + t + t .
4 6 4

(d) Considere as transformações lineares T : R2 −→ R3 e S : R3 −→ R2 , dada respectivamente, por:

T (x, y) = (2x, x − y, y) e S(x, y, z) = (y − z, z − x).

(d1 ) Determine a transformação linear S ◦ T e uma base para ker(S ◦ T ).


(d2 ) Determine a transformação linear T ◦ S e uma base para Im(T ◦ S).
(d3 ) Verifique se S ◦ T e T ◦ S, em caso afirmativo determine as inversas.
172 Capítulo 6. Transformações Lineares

Solução:

(d1 ) S ◦ T (x, y) = S T (x, y) = S(2x, x − y, y) = (x − y − y, y − 2x) = (x − 2y, y − 2x).
Logo,
S ◦ T (x, y) = (x − 2y, y − 2x).
Determinando ker(S ◦ T ):

(x, y) ∈ ker(S ◦ T ) ⇐⇒ S ◦ T (x, y) = (0, 0) ⇐⇒ (x − 2y, y − 2x) = (0, 0)


  
x − 2y = 0 x − 2y = 0 x = 0
⇐⇒ ⇐⇒ ⇐⇒
−2x + y = 0 − 3y = 0 y = 0
Portanto, ker(S ◦ T ) = {(0, 0)} e sua única base é Bker(S◦T ) = 0.
/
Como ker(S ◦ T ) = {(0, 0)} e S ◦ T é um operador linear segue que é um automorfismo.

T ◦ S(x, y, z) = T S(x, y, z) = T (y − z, z − x)

(d2 ) = 2(y − z), y − z − (z − x), z − x

= (2y − 2z, x + y − 2z, −x + z).


Logo,
T ◦ S(x, y, z) = (2y − 2z, x + y − 2z, −x + z).
Determinando Im(T ◦ S): (x, y, z) ∈ Im(T ◦ S)) se, e somente se, existe (a, b, c) ∈ R3 tal que

T ◦ S(a, b, c) = (x, y, z) ⇐⇒ (2b − 2c, a + b − 2c, −a + c) = (x, y, z) ⇐⇒


 
 2b − 2c = x  a + b − 2c = y
a + b − 2c = y ⇐⇒ b − c = y + z =⇒ x = 2(y + z).
−a + c = z 2b − 2c = x
 

Portanto, Im(T ◦ S) = {(x, y, z) ∈ R3 ; x = 2(y + z)} e BIm(T ◦S) = {(2, 1, 0), (2, 0, 1)} é uma
base de Im(T ◦ S).
Como Im(T ◦ S) 6= R3 segue que T ◦ S não é sobrejetora, portanto não é um automorfismo.
(d3 ) Como S ◦ T é um automorfismo, então possui inversa, determinemos a inversa (S ◦ T )−1 .

(S ◦ T )−1 (x, y) = (a, b) ⇐⇒ (x, y) = S ◦ T (a, b)

⇐⇒ (x, y) = (a − 2b, b − 2a) = (0, 0, 0)



−x − 2y
 a =


3
 
a − 2b = x
⇐⇒ ⇐⇒
−2a + b = y 
 −2x − y
 b =

3
Logo, a inversa de S ◦ T é dada por:
 
−1 −x − 2y −2x − y
(S ◦ T ) (x, y) = , .
3 3
6.5 Inversa de uma Transformação Linear 173

Observação 6.5.8 Se T : V −→ W é uma transformação linear, com dimV = dimW , então

T é isomorfismo se, e somente se, [T ]B


B 0 é invertível,

com B uma base qualquer de V e B 0 uma base qualquer de W .


Além disso, a matriz de T −1 : W −→ V em relação às bases B 0 e B é dada por:
 −1
[T −1 ]B B
0
B = [T ]B0 .

Exemplo 6.5.9 Verifique matricialmente se o operador linear T : R3 −→ R3 dado por

T (x, y, z) = (x − y, 2y, y − z)

é um automorfismo, em caso afirmativo determine, também por meio de matrizes, sua inversa T −1 .
Solução:
A matriz de T em relação à base canônica de R3 é a seguinte:
 
1 −1 0
[T ] =  0 2 0 .
0 1 −1

Como det[T ] = −2 6= 0, então [T ] é invertível, determinando [T ]−1 :

1 −1 0 | 1 0 0 1 −1 0 | 1 0 0 L1 −→ L1 + L2
0 2 0 | 0 1 0 L2 −→ 21 L2 ∼ 0 1 0 | 0 12 0
0 1 −1 | 0 0 1 0 1 −1 | 0 0 1 L3 −→ −L3 + L2
1
1 0 0 | 1 2 0
1
∼ 0 1 0 | 0 2 0 .
0 0 1 | 0 − 12 −1
Logo,  1 
1 2 0
 
−1
 1

[T ] =
 0 2 0 .

 
0 − 12 −1
Assim, T −1 (x, y, z) é dada por:
1
x + 2y
   
  1 2 0  
x   x  
−1 y
 1
  
[T ] · y  = 
 0 2 0 · y  = 
  2
,

z   z  
0 − 12 −1 − 2y − z

ou seja,  
−1 2x + y y −y − 2z
T (, x, y, z) = , , .
2 2 2
7. Diagonalização de Operadores Lineares

7.1 Autovalor e Autovetor de um Operador Linear


Seja V um espaço vetorial sobre um corpo K, dado um operador linear T : V −→ V estamos interessados
em vetores diferentes do vetor nulo que são levados por T em múltiplo de si mesmo, ou seja, procuramos
v ∈ V , v 6= 0V , tal que T (v) = λ v, com λ ∈ K.

Assim temos a seguinte definição:

Definição 7.1.1 Sejam V um espaço vetorial sobre um corpo K e T : V −→ V um operador linear,


dizemos que um escalar λ ∈ K é um autovalor ou valor-próprio de T , se e somente se, existe um
vetor v ∈ V , v 6= 0V , tal que T (v) = λ v.
Neste caso, o vetor v ∈ V é chamado autovetor ou vetor-próprio de T associado ao escalar λ .

Exemplos 7.1.1 Determine os autovalores do operador T e os autovetores associados.

(a) Reflexões no Plano


(a1 ) Reflexão em torno do eixo x: T : R2 −→ R2 dado por T (x, y) = (x, −y)
Solução:

x = λx
T (x, y) = λ (x, y) ⇐⇒ (x, −y) = λ (x, y) ⇐⇒
−y = λ y

1º Caso: Se x 6= 0, a única possível solução é λ = 1 e y = 0.


2º Caso: Se y 6= 0 devemos ter λ = −1 e x = 0.
Logo, os autovalores de T são λ1 = 1 e λ2 = −1.
• Os autovetores de T associados ao autovalor λ1 = 1 são os vetores da forma (x, 0), com
x 6= 0.
• Os autovetores de T associados ao autovalor λ2 = −1 são os vetores da forma (0, y), com
y 6= 0.
176 Capítulo 7. Diagonalização de Operadores Lineares

(a2 ) Reflexão pela bissetriz do 1 e 3 quadrantes: T : R2 −→ R2 dado por T (x, y) = (−x, −y)
Solução:

−x = λ x
T (x, y) = λ (x, y) ⇐⇒ (−x, −y) = λ (x, y) ⇐⇒ ⇐⇒ λ = −1.
−y = λ y
Assim, o único autovalor de T é λ1 = −1 e os autovetores de T associados ao autovalor
λ1 = −1 são os vetores da forma (x, y), com x 6= 0 ou y 6= 0.
(a3 ) Reflexão em torno do eixo y: T : R2 −→ R2 dado por T (x, y) = (−x, y)
Solução:
Analogamente ao exemplo (a1 ) temos os autovalores de T são λ1 = 1 e λ2 = −1.
• Os autovetores de T associados ao autovalor λ1 = 1 são os vetores da forma (0, y), com
y 6= 0.
• Os autovetores de T associados ao autovalor λ2 = −1 são os vetores da forma (x, 0), com
x 6= 0.
(b) Seja o operador linear T : R2 −→ R2 dado por T (x, y) = (ax, by) com a e b número reais.
Solução:

ax = λ x
T (x, y) = λ (x, y) ⇐⇒ (ax, by) = λ (x, y) ⇐⇒
by = λ y
1º Caso: Se a = b, então o único ao autovalor de T é λ1 = a e os autovetores de T associados ao
autovalor λ1 = a são todos os vetores de R2 , exceto (0, 0).
2º Caso: Se a 6= b o operador T tem dois autovalores:
• Se x 6= 0, devemos ter λ1 = a e y = 0, neste caso os autovetores de T associados ao autovalor
λ1 = a são os vetores da forma (x, 0) com x 6= 0.
• Se y 6= 0, devemos ter λ2 = b e x = 0, neste caso os autovetores de T associados ao autovalor
λ2 = b são os vetores da forma (0, y) com y 6= 0.
 
1 1
(c) Seja A = , o operador linear TA : R2 −→ R2 dado por: TA (x, y) = (x + y, 2y).
0 2
Solução:

x+y = λx
T (x, y) = λ (x, y) ⇐⇒ (x + 2y, y) = λ (x, y) ⇐⇒
2y = λ y
1º Caso: Se y 6= 0, o autovalor de T é λ1 = 2, neste caso teremos x + y = 2x ⇐⇒ x = y.
Logo, os autovetores de T associados ao autovalor λ1 = 2 são os vetores da forma (x, x), com
x 6= 0.
2º Caso: Se y = 0, o autovalor de T é λ2 = 1 e os autovetores de T associados ao autovalor λ2 = 1
são os vetores da forma (x, 0) com x 6= 0.
(d) Seja o operador linear T : R3 −→ R3 dado por T (x, y, z) = (x + y + z, x + y, z).
Solução:

 x+y+z = λx
T (x, y, z) = λ (x, y, z) ⇐⇒ (x + y + z, x + y, z) = λ (x, y, z) ⇐⇒ x+y = λy
z = λz

7.1 Autovalor e Autovetor de um Operador Linear 177

1º Caso: Se z 6= 0, devemos ter λ1 = 1, consequentemente devemos ter


 
x+y+z = x y = −z
⇐⇒
x+y = y x=0

Logo, os autovetores de T associados ao autovalor de T é λ1 = 1 são os vetores da forma


(0, −z, z) com z 6= 0.

x+y = λx x6=0 ou y6=0
2º Caso: Se z = 0, devemos ter ⇐⇒ λ x = λ y =⇒ x = y.
x+y = λy
x6=0
Logo, temos 2x = λ x =⇒ λ = 2
Portanto, λ2 = 2 é o outro valor de T e os autovetores de T associados ao autovalor λ2 = 2
são os vetores da forma (x, x, 0) com x 6= 0.

7.1.1 Autoespaço associado a um Autovalor

Teorema 7.1.2 Sejam V um espaço vetorial sobre o corpo K e T : V −→ V um operador linear.


(i) Se v é um autovetor associado ao autovalor λ , então todo vetor não nulo w = αv, com α ∈ K,
também é um autovetor de T associado a λ .
(ii) Se v1 e v2 são autovetores associado ao autovalor λ , então v1 + v2 também é um autovetor de T
associado a λ .
Demonstração:

(i) Como v é autovetor associado ao autovalor λ , então T (v) = λ v.


Assim,
T é linear
T (w) = T (αv) = αT (v) = α(λ v) = λ (αv) = λ w.

Portanto, w é autovetor associado ao autovalor λ .


(ii) Como v1 e v2 são autovetores associado ao autovalor λ , então, então T (v1 ) = λ v1 e T (v2 ) = λ v2 .
Logo,
T é linear
T (v1 + v2 ) = T (v1 ) + T (v2 ) = (λ v1 ) + (λ v2 ) = λ (v1 + v2 ).

Portanto, v1 + v2 é autovetor associado ao autovalor λ .

Do Teorema 7.1.2 acima concluímos que, dado um operador linear T : V −→ V o conjunto de todos
os autovetores de T associados a um autovalor junto com o vetor nulo é um subespaço de V , mais
precisamente temos a seguinte definição:

Definição 7.1.2 Sejam T : V −→ V um operador linear e λ um autovalor de V o subespaço

Vλ = {v ∈ V ; T (v) = λ v}

é um subespaço de V chamado autoespaço associado ao autovalor λ .


178 Capítulo 7. Diagonalização de Operadores Lineares

Exemplos 7.1.3 Determine os autoespaços de V nos seguintes casos:


(a) Reflexões no Plano
(a1 ) Reflexão em torno do eixo x:

T: R2 −→ R2
.
(x, y) 7−→ T (x, y) = (x, −y)

Solução:
Vimos que os autovalores de T são λ1 = 1 e λ2 = −1, com autovetores das formas (x, 0) com
x 6= 0 e (0, y) com y 6= 0, respectivamente.
Logo, os autoespaços de R2 são:

V1 = {(x, y) ∈ R2 ; y = 0} e V−1 = {(x, y) ∈ R2 ; x = 0}.

(a2 ) Reflexão pela bissetriz do 1 e 3 quadrantes:

T: R2 −→ R2
.
(x, y) 7−→ T (x, y) = (−x, −y)

Solução:
Vimos que o único autovalor de T é λ1 = −1 com autovetores da forma (x, y), com x 6= 0 ou
y 6= 0.
Logo, o único autoespaço de R2 é V1 = R2 .
(a3 ) Reflexão em torno do eixo y:

T: R2 −→ R2
.
(x, y) 7−→ T (x, y) = (−x, y)

Solução:
Vimos que os autovalores de T são λ1 = 1 e λ2 = −1, com autovetores das formas (0, y) com
y 6= 0 e (x, 0) com x 6= 0, respectivamente.
Logo, os autoespaços de R2 são:

V1 = {(x, y) ∈ R2 ; x = 0} e V−1 = {(x, y) ∈ R2 ; y = 0}.

(b) Seja o operador linear

T: R2 −→ R2
, com a e b números reais.
(x, y) 7−→ T (x, y) = (ax, by)

Solução:
Vimos que:
1º Caso: Se a = b, então o único ao autovalor de T é λ1 = a e os autovetores são todos os vetores
de R2 , exceto (0, 0).
Logo, o único autoespaço de R2 é Va = R2 .
7.1 Autovalor e Autovetor de um Operador Linear 179

2º Caso: Se a 6= b, então os autovalores de T são λ1 = a e λ2 = b,com autovetores das formas


(x, 0) com x 6= 0 e (0, y) com y 6= 0, respectivamente.
Logo, os autoespaços de R2 são:

Va = {(x, y) ∈ R2 ; y = 0} e Vb = {(x, y) ∈ R2 ; x = 0}.


 
1 1
(c) Seja A = , o operador linear TA é dado por:
0 2

TA : R2 −→ R2
(x, y) 7−→ TA (x, y) = (x + y, 2y).

Solução:
Vimos que os autovalores de T são λ1 = 2 e λ2 = 1, com autovetores das formas (x, x), com x 6= 0
e (x, 0) com x 6= 0, respectivamente.
Logo, os autoespaços de R2 são:

V2 = {(x, y) ∈ R2 ; y = x} e V1 = {(x, y) ∈ R2 ; y = 0}.

(d) Seja o operador linear

T: R3 −→ R3
.
(x, y, z) 7−→ T (x, y, z) = (x + y + z, x + y, z)

Solução:
Vimos que os autovalores de T são λ1 = 1 e λ2 = 2, com autovetores das formas (0, −z, z) com
z 6= 0 e (x, x, 0) com x 6= 0.
Logo, os autoespaços de R3 são:

V1 = {(x, y, z) ∈ R3 ; x = 0 e y = −z} e V2 = {(x, y, z) ∈ R3 ; y = x e z = 0}.

Proposição 7.1.4 Se λ1 e λ2 são autovalores distintos de um operador linear T : V −→ V um


operador linear, então
V (λ1 ) ∩V (λ2 ) = {0V }.

Demonstração:

T (v) = λ1 v λ1 6=λ2
v ∈ V (λ1 ) ∩V (λ2 ) ⇐⇒ ⇐⇒ λ1 v = λ2 v ⇐⇒ (λ1 − λ2 )v = 0V =⇒ v = 0V .
T (v) = λ2 v

Portanto, V (λ1 ) ∩V (λ2 ) = {0V }.

Definição 7.1.3 Sejam V um espaço vetorial sobre um corpo K, de dimensão finita n, e T : V −→ V


um operador linear. Dado λi um autovalor de T a multiplicidade geométrica de de λi é a dimensão
do autoespaço Vλi
Notação: mG (λi ).

Nos exemplos acima todos os autovalores têm multiplicidade geométrica igual a 1.


180 Capítulo 7. Diagonalização de Operadores Lineares

7.2 Polinômio Característico de um Operador Linear

Na seção anterior obtemos em alguns exemplos os autovalores e os autovetores de um operador linear.


No entanto o procedimento adotado não é, de modo geral eficiente. Assim vamos utilizar a forma
matricial do operador para fazer isto, porém antes devemos justificar porque podemos considerar
qualquer matriz do operador.

7.2.1 Polinômio Característico de uma Matriz

Sejam V um espaço vetorial de dimensão finita n sobre um corpo K e T : V −→ V um operador linear,


um vetor v ∈ V , não nulo, é autovetor de T se, e somente se, existe λ ∈ K tal que T (v) = λ v, mas

T (v) = λ v ⇐⇒ T (v) − λ I(v) = 0V ⇐⇒ ker(T − λ I) 6= {0V }.

Consideremos B uma base de V e A = [T ]B a matriz de T em relação à base B, dizer que ker(T −


λ I) 6= {0V } é equivalente que o sistema
   
v1 0
 v2   0 
(A − λ In ) ·  ..  =  .. 
   
 .   . 
vn B 0

tem solução não trivial, e isto por sua vez é equivalente a dizer que det A − λ In = 0, com In a matriz
identidade de ordem n.
Definição 7.2.1 Seja A uma matriz em Mn (K) dizemos que um escalar λ ∈ K é autovalor de A
se, e somente se, det(A − λ In ) = 0.

Definição 7.2.2 Seja A uma matriz em Mn (K) o polinômio em λ dado por

p(λ ) = det(A − λ In )

é chamado polinômio característico de A.

Teorema 7.2.1 Seja T : V −→ V um operador linear, as matrizes de T em relação a bases distintas


têm o mesmo polinômio característico.

Demonstração: Vamos mostrar um resultado mais geral, que se A e B são semelhantes, então têm o
mesmo polinômio característico.
De fato, se A e B são semelhantes, então existe P uma matriz invertível tal que B = P−1 · A · P.
Logo,
pB (λ ) = det(B − λ In ) = det P−1 AP − λ P−1 P = det P−1 (A − λ In )P
 

= det P−1 det(A − λ In ) det P = det(A − λ In ) = pA (λ ),


1
pois det P−1 = .
det P
Como vimos no Teorema 6.5.4 que matrizes de T em relação a bases distintas são semelhantes, segue
o resultado.

Assim, temos a seguinte definição:


7.2 Polinômio Característico de um Operador Linear 181

Definição 7.2.3 Sejam V um espaço vetorial de dimensão finita n sobre um corpo K e T : V −→ V


um operador linear, o polinômio característico de T , denotado por p(λ ) ou pT (λ ), é o polinômio
característico da matriz [T ]B , com B uma base ordenada qualquer de V , ou seja,

p(λ ) = det [T ]B − λ In .

Das considerações acima concluímos:

Teorema 7.2.2 Sejam V um espaço vetorial de dimensão finita n sobre um corpo K e T : V −→ V


um operador linear, então:
(i) Os autovalores do operador T são as raízes de seu polinômio característico p(λ ).
(ii) Se λi é um autovalor de T , então o autoespaço Vλi , associado a este autovalor, é o subespaço
ker(A − λi In ).

Observação 7.2.3 O teorema 7.2.2 nos fornece o procedimento prático para determinar os autovalo-
res, os autovetores e os autoespaços de um operador linear T :
1º Obtemos p(λ ) o polinômio característico de T .
2º Encontramos as raízes de p(λ ), que são os autovalores de T .
3º Para cada autovalor λi determinamos o autoespaço Vλi , que é o subespaço ker(A − λi In ).
Exemplos 7.2.4 Determine os autovalores e os autoespaços do operador T nos seguintes casos:
(a) T operador sobre R2 .
(a1 ) T (x, y) = (y, 9x).
(a2 ) T (x, y) = (−y, x).
Solução:
(a1 ) Consideremos B a base canônica de R2 , então:

T (1, 0) = (0, 9) e T (0, 1) = (1, 0).


 
0 1
Logo, a matriz de A de T em relação à base B é A = .
9 0
Portanto, o polinômio característico de T é dado por:
 
−λ 1
p(λ ) = pA (λ ) = det(A − λ I2 ) = det = λ 2 − 9.
9 −λ

É claro que

p(λ ) = 0 ⇐⇒ λ 2 − 9 = 0 ⇐⇒ λ 2 = 9 ⇐⇒ λ = 3 ou λ = −3.

Logo, os autovalores de T são λ1 = 3 e λ2 = −3.


Determinando os autoespaços V3 e V−3 .
 
−3 1
(x, y) ∈ V3 ⇐⇒ (x, y) ∈ ker(A − 3I2 ) = ker
9 −3
     
−3 1 x 0 −3x + y = 0
⇐⇒ = ⇐⇒ ⇐⇒ y = 3x.
9 −3 y 0 9x − 3y = 0
182 Capítulo 7. Diagonalização de Operadores Lineares

Portanto, V3 = {(x, y) ∈ R2 ; y = 3x} = (1, 3) .


 

 
3 1
(x, y) ∈ V−3 ⇐⇒ (x, y) ∈ ker(A + 3I2 ) = ker
9 3
     
3 1 x 3x + y = 0
0
⇐⇒ = ⇐⇒⇐⇒ y = −3x.
9 3 y 9x + 3y = 0
0
Portanto, V−3 = {(x, y) ∈ R2 ; y = −3x} = (1, −3) .
 

(a2 ) Consideremos B a base canônica de R2 , então:

T (1, 0) = (0, 1) e T (0, 1) = (−1, 0).


 
0 −1
Logo, a matriz de A de T em relação à base B é A = .
1 0
Portanto, o polinômio característico de T é dado por:
 
−λ −1
p(λ ) = pA (λ ) = det(A − λ I2 ) = det = λ 2 + 1.
1 −λ

É claro que

p(λ ) = 0 ⇐⇒ λ 2 + 1 = 0, ⇐⇒ λ 2 = −1 ⇐⇒ λ = i ou λ = −i.

Mas R2 é um espaço vetorial sobre R e i e −i não são números reais.


Portanto, T não tem autovalores e autovetores e R2 não tem autoespaços determinados por
este operador.
(b) T operador sobre R3 .
(b1 ) T (x, y, z) = (x, y, x).
(b2 ) T (x, y, z) = (x + z, y + z, x + y + 2z).
(b3 ) T (1, 1, 1) = (4, 9, −4), T (0, 1, 1) = (2, 7, −3), T (0, 0, 1) = (1, 4, −2).
Solução:
(b1 ) Consideremos B a base canônica de R3 , então:

T (1, 0, 0) = (1, 0, 1), T (0, 1, 0) = (0, 1, 0) e T (0, 0, 1) = (0, 0, 0).


 
1 0 0
Logo, a matriz de A de T em relação à base B é A = 0  1 0 .
1 0 0
Portanto, o polinômio característico de T é dado por:
 
1−λ 0 0
p(λ ) = pA (λ ) = det(A−λ I3 ) = det  0 1 − λ 0  = (1−λ )2 (−λ ) = −λ (1−λ )2 .
1 0 −λ

É claro que
 
2 λ =0 λ =0
p(λ ) = 0 ⇐⇒ −λ (1 − λ ) = 0 ⇐⇒ ⇔ ⇔ λ = 0 ou λ = 1.
(1 − λ )2 = 0 1−λ = 0
7.2 Polinômio Característico de um Operador Linear 183

Logo, os autovalores de T são λ1 = 0 e λ2 = 1.


Determinando os autoespaços V0 e V1 .
 
1 0 0
(x, y, z) ∈ V0 ⇐⇒ (x, y, z) ∈ ker(A − 0I3 ) = ker  0 1 0 
1 0 0
     
1 0 0 x 0  x=0
⇐⇒  0 1 0   y  =  0  ⇐⇒ y = 0 ⇐⇒ x = y = 0.
1 0 0 z 0 x=0

Portanto, V0 = {(x, y, z) ∈ R3 ; x = y = 0} = (0, 0, 1) .


 

 
0 0 0
(x, y, z) ∈ V1 ⇐⇒ (x, y, z) ∈ ker(A − 1I3 ) = ker  0 0 0 
1 0 −1
    
0 0 0 x 0
⇐⇒ 0 0 0   y = 0  ⇐⇒ x − z = 0 ⇐⇒ z = x.
 
1 0 −1 z 0
Portanto, V1 = {(x, y, z) ∈ R3 ; z = x} = (1, 0, 1), (0, 1, 0) .
 

(b2 ) Consideremos B a base canônica de R3 , então:

T (1, 0, 0) = (1, 0, 1), T (0, 1, 0) = (0, 1, 1) e T (0, 0, 1) = (1, 0, 2).


 
1 0 1
Logo, a matriz de A de T em relação à base B é A = 0  1 1 .
1 1 2
Portanto, o polinômio característico de T é dado por:
 
1−λ 0 1
p(λ ) = pA (λ ) = det(A − λ I3 ) = det  0 1−λ 1  = (1 − λ )2 (2 − λ ) − 2(1 − λ )
1 1 2−λ

= (1 − λ ) (1 − λ )(2 − λ ) − 2 = (1 − λ )(λ 2 − 3λ + 2 − 2) = (1 − λ )λ (λ − 3).




É claro que

 1−λ = 0
p(λ ) = 0 ⇐⇒ (1 − λ )λ (λ − 3) = 0 ⇐⇒ λ = 0 ⇐⇒ λ = 1, λ = 0 ou λ = 3.
λ −3 = 0

Logo, os autovalores de T são λ1 = 1, λ2 = 0 e λ3 = 3.


Determinando os autoespaços V1 , V0 e V3 .
 
0 0 1
(x, y, z) ∈ V1 ⇐⇒ (x, y, z) ∈ ker(A − 1I3 ) = ker  0 0 1 
1 1 1
    
0 0 1 x 0 
z=0
⇐⇒  0 0 1   y  =  0  ⇐⇒ ⇐⇒ z = 0 e y = −x.
x+y = 0
1 1 1 z 0
184 Capítulo 7. Diagonalização de Operadores Lineares

Portanto, V1 = {(x, y, z) ∈ R3 ; z = 0 e y = −x} = (1, −1, 0) .


 

 
1 0 1
(x, y, z) ∈ V0 ⇐⇒ (x, y, z) ∈ ker(A − 0I3 ) = ker  0 1 1  ⇐⇒
1 1 2
     
1 0 1 x 0  x + z = 0
 0 1 1   y  =  0  ⇐⇒ y + z = 0 ⇐⇒ x = −z e y = −z.
1 1 2 z 0 x + y + 2z = 0

Portanto, V0 = {(x, y, z) ∈ R3 ; x = −z e y = −z} = (−1, −1, 1) .


 

 
−2 0 1
(x, y, z) ∈ V3 ⇐⇒ (x, y, z) ∈ ker(A − 3I3 ) = ker  0 −2 1  ⇐⇒
1 1 −1
     
−2 0 1 x 0  −2x + z = 0
 0 −2 1   y = 0 ⇐⇒
   − 2y + z = 0 ⇐⇒ x = y e z = 2x.
1 1 −1 z 0 x + y − z = 0

Portanto, V3 = {(x, y, z) ∈ R3 ; x = y e z = 2x} = (1, 1, 2) .


 

(b3 ) Consideremos a base B = {(1, 1, 1), (0, 1, 1), (0, 0, 1)} de R3 , então para todo (x, y, z) ∈ R3
temos:
   
x x
(x, y, z) = x(1, 1, 1) + (y − x)(0, 1, 1) + (z − y)(0, 0, 1) ⇐⇒  y  =  y − x  .
z B z−y

Logo,
T (1, 1, 1) = (4, 9, −4) = 4 (1, 1, 1) + 5 (0, 1, 1) − 13 (0, 0, 1)

T (0, 1, 1) = (2, 7, −3) = 2 (1, 1, 1) + 5 (0, 1, 1) − 10 (0, 0, 1) .

T (0, 0, 1) = (1, 4, −2) = 1 (1, 1, 1) + 3 (0, 1, 1) − 6 (0, 0, 1)


 
4 2 1
Portanto, a matriz de A de T em relação à base B é A =  5 5 3 .
−13 −10 −6
Consequentemente, o polinômio característico de T é dado por:
 
4−λ 2 1
p(λ ) = pA (λ ) = det(A − λ I3 ) = det  5 5−λ 3 
−13 −10 −6 − λ
= (4 − λ )(5 − λ )(−6 − λ ) − 78 − 50 + 13(5 − λ ) + 30(4 − λ ) + 10(6 + λ )

= −λ 3 + 3λ 2 + λ − 3 = (λ − 1)(−λ 2 + 2λ + 3)

= (1 − λ )(1 + λ )(3 − λ ).

É claro que

 1−λ = 0
p(λ ) = 0 ⇔ (1 − λ )(1 + λ )(3 − λ ) = 0 ⇔ 1 + λ = 0 ⇐⇒ λ = 1, λ = −1 ou λ = 3.
3−λ = 0

7.2 Polinômio Característico de um Operador Linear 185

Logo, os autovalores de T são λ1 = 1, λ2 = −1 e λ3 = 3.


Determinando os autoespaços V1 , V−1 e V3 .
 
3 2 1
(x, y, z) ∈ V1 ⇐⇒ (x, y, z) ∈ ker(A − 1I3 ) = ker  5 4 3  ⇐⇒
−13 −10 −7
         
3 2 1 x 0 3 2 1 x 0
 5 4 3   y  = 0  ⇐⇒  5 4 3   y−x = 0 
 
−13 −10 −7 z B 0 B −13 −10 −7 z−x 0

x + y + z = 0 
x + y + z = 0

⇐⇒ x + y + 3z = 0 ⇐⇒
z = 0
−3x − 3y − 7z = 0

⇐⇒ z = 0 e y = −x.
Portanto, V1 = {(x, y, z) ∈ R3 ; z = 0 e y = −x} = [(1, −1, 0)].
 
6 2 1
(x, y, z) ∈ V−1 ⇐⇒ (x, y, z) ∈ ker(A + 1I3 ) = ker  5 6 3 
−13 −10 −5
    
6 2 1 x 0
⇐⇒  5 6 3   y  = 0 

−13 −10 −5 z B 0 B
    
6 2 1 x 0
⇐⇒  5 6 3   y−x = 0 
 
−13 −10 −5 z−x 0
 
 3x + y + z = 0  3x + y + z = 0
⇐⇒ −x + 3y + 3z = 0 ⇐⇒ −x + 3y + 3z = 0
−3x − 5y − 5z = 0 12x = 0
 

⇐⇒ x = 0 e z = −y.
Portanto,
V−1 = {(x, y, z) ∈ R3 ; x = 0 e z = −y} = [(0, 1, −1)].

 
1 2 1
(x, y, z) ∈ V3 ⇐⇒ (x, y, z) ∈ ker(A − 3I3 ) = ker  5 2 3 
−13 −10 −9
    
1 2 1 x 0
⇐⇒  5 2 3  y  =  0 
−13 −10 −9 z B 0 B
    
1 2 1 x 0
⇐⇒  5 2 3   y−x = 0 
 
−13 −10 −9 z−x 0
 
 −x + y + z = 0  −x + y + z = 0
⇐⇒ 3x − y + 3z = 0 ⇐⇒ 2y + 6z = 0
−3x + y − 9z = 0 − 4y − 12z = 0
 

⇐⇒ y = −3z e x = −2z.
Portanto, V3 = {(x, y, z) ∈ R3 ; y = −3z e x = −2z} = [(−2, −3, 1)].
186 Capítulo 7. Diagonalização de Operadores Lineares

(c) T operador sobre P2 (R).


(c1 ) T p(t) = p(0) + p(1)(t + t 2 ).


(c2 ) T p(t) = (1 + t)p0 (t) + p00 (t).




(c3 ) T (a0 + a1t + a2t 2 ) = (2a1 + a2 ) + (3a0 − a1 − a2 )t + 2a2t 2 .


Solução:
(c1 ) Seja p(t) = a0 + a1t + a2t 2 um elemento arbitrário de P2 (R), então

p(0) = a0 e p(1) = a0 + a1 + a2 .

Logo,
T p(t) = p(0) + p(1)(t + t 2 ) = a0 + (a0 + a1 + a2 )(t + t 2 )


= a0 + (a0 + a1 + a2 ) t + (a0 + a1 + a2 ) t 2 .
Consideremos B = {1, t, t 2 } a base canônica de P2 (R), então:

T (1) = 1 + t + t 2 , T (t) = t + t 2 e T (t 2 ) = t + t 2 .
 
1 0 0
Logo, a matriz de A de T em relação à base B é A =  1 1 1  .
1 1 1
Portanto, o polinômio característico de T é dado por:
 
1−λ 0 0
p(λ ) = pA (λ ) = det(A − λ I3 ) = det  0 1−λ 1 
1 1 1−λ

= (1 − λ )3 − (1 − λ ) = (1 − λ ) (1 − λ )2 − 1


= (1 − λ )(λ 2 − 2λ + 1 − 1) = (1 − λ )λ (λ − 2).

É claro que

 1−λ = 0
p(λ ) = 0 ⇐⇒ (1 − λ )λ (λ − 2) = 0 ⇐⇒ λ = 0 ⇐⇒ λ = 1, λ = 0 ou λ = 2.
λ −2 = 0

Logo, os autovalores de T são λ1 = 1, λ2 = 0 e λ3 = 2.


Determinando os autoespaços V1 , V0 e V2 .

 
0 0 0
p(t) = a0 + a1t + a2t 2 ∈ V1 ⇐⇒ a0 + a1t + a2t 2 ∈ ker(A − 1I3 ) = ker  1 0 1 
1 1 0
      
0 0 0  0 0 0 a0 0
⇐⇒  1 0 1  a0 + a1t + a2t 2 B = 0 B ⇐⇒  1 0 1   a1  = 
  
0 
1 1 0 1 1 0 a2 0

a0 + a2 = 0
⇐⇒ ⇐⇒ a1 = −a0 e a2 = −a0 .
a0 + a1 = 0
7.2 Polinômio Característico de um Operador Linear 187

Portanto, V1 = {p(t) = a0 + a1t + a2t 2 ∈ P2 (R); a1 = −a0 e a2 = −a0 } = [1 − t − t 2 ].

 
1 0 0
2 2
p(t) = a0 + a1t + a2t ∈ V0 ⇐⇒ a0 + a1t + a2t ∈ ker(A − 0I3 ) = ker 1 1 1
 
1 1 1
      
1 0 0  1 0 0 a0 0
⇐⇒  1 1 1  a0 + a1t + a2t 2 B = 0 B ⇐⇒  1 1 1   a1  = 
  
0 
1 1 1 1 1 1 a2 0

 −a0 = 0
⇐⇒ a0 + a1 + a2 = 0 ⇐⇒ a0 = 0 e a2 = −a1 .
a0 + a1 − a2 = 0

Portanto, V0 = {p(t) = a0 + a1t + a2t 2 ∈ P2 (R); a0 = 0 e a2 = −a1 } = [t − t 2 ].

 
−1 0 0
p(t) = a0 + a1t + a2t 2 ∈ V2 ⇐⇒ a0 + a1t + a2t 2 ∈ ker(A − 0I3 ) = ker  1 −1 1 
1 1 −1
 
−1 0 0 
1  a0 + a1t + a2t 2 B = 0 B
  
⇐⇒  1 −1
1 1 −1
    
−1 0 0 a0 0
⇐⇒  1 −1 1   a1 = 0 
 
1 1 −1 a2 0

 −a0 = 0
⇐⇒ a0 − a1 + a2 = 0 ⇐⇒ a0 = 0 e a2 = a1 .
a0 + a1 − a2 = 0

Portanto, V2 = {p(t) = a0 + a1t + a2t 2 ∈ P2 (R); a0 = 0 e a2 = a1 } = [t + t 2 ].


(c2 ) Seja p(t) = a0 + a1t + a2t 2 um elemento arbitrário de P2 (R), então p0 (t) = a1 + 2a2t e
p00 (t) = 2a2 .
Logo,

T p(t) = (1 +t)p0 (t) + p00 (t) = (1 +t)(a1 + 2a2t) + 2a2 = (a1 + 2a2 ) + (a1 + 2a2 )t + 2a2t 2 .


Consideremos B = {1, t, t 2 } a base canônica de P2 (R), então:

T (1) = 0, T (t) = 1 + t e T (t 2 ) = 2 + 2t + 2t 2 .
 
0 1 2
Logo, a matriz de A de T em relação à base B é A =  0 1 2  .
0 0 2
Portanto, o polinômio característico de T é dado por:
 
−λ 1 2
p(λ ) = pA (λ ) = det(A − λ I3 ) = det  0 1 − λ 2  = −λ (1 − λ )(2 − λ ).
0 0 2−λ
188 Capítulo 7. Diagonalização de Operadores Lineares

É claro que

−λ = 0

p(λ ) = 0 ⇐⇒ −λ (1 − λ )(2 − λ ) = 0 ⇐⇒ 1 − λ = 0 ⇐⇒ λ = 0, λ = 1 ou λ = 2.
2−λ = 0

Logo, os autovalores de T são λ1 = 0, λ2 = 1 e λ3 = 2.


Determinando os autoespaços V0 , V1 e V2 .

 
0 1 2
2 2
p(t) = a0 + a1t + a2t ∈ V0 ⇐⇒ a0 + a1t + a2t ∈ ker(A − 0I3 ) = ker 0 1 2
 
0 0 2
      
0 1 2  0 1 2 a 0 0
⇐⇒  0 1 2  a0 + a1t + a2t 2 B = 0 B ⇐⇒  0 1 2   a1  = 
  
0 
0 0 2 0 0 2 a2 0

a1 + 2a2 = 0
⇐⇒ ⇐⇒ a1 = a2 = 0.
2a2 = 0
Portanto, V0 = {p(t) = a0 + a1t + a2t 2 ∈ P2 (R); a1 = a2 = 0} = [1].

 
−1 1 2
p(t) = a0 + a1t + a2t 2 ∈ V1 ⇐⇒ a0 + a1t + a2t 2 ∈ ker(A − 1I3 ) = ker  0 0 2 
0 0 1
      
−1 1 2  −1 1 2 a0 0
⇐⇒  0 0 2  a0 + a1t + a2t 2 B = 0 B ⇐⇒  0 0 2   a1  =  0 
  

0 0 1 0 0 1 a2 0

 −a0 + a1 + 2a2 = 0
⇐⇒ 2a2 = 0 ⇐⇒ a2 = 0 e a1 = a0 .
a2 = 0

Portanto, V1 = {p(t) = a0 + a1t + a2t 2 ∈ P2 (R); a2 = 0 e a1 = a0 } = [1 + t].

 
−2 1 2
p(t) = a0 + a1t + a2t 2 ∈ V2 ⇐⇒ a0 + a1t + a2t 2 ∈ ker(A − 0I3 ) = ker  0 −1 2 
0 0 0
 
−2 1 2 
⇐⇒  0 −1 2  a0 + a1t + a2t 2 B = 0 B
  

0 0 0
    
−2 1 2 a0 0
⇐⇒  0 −1 2   a1  =  0 
0 0 0 a2 0

−2a0 + a1 + 2a2 = 0
⇐⇒ ⇐⇒ a1 = 2a2 e a0 = 2a2 .
− a1 + 2a2 = 0
Portanto, V2 = {p(t) = a0 + a1t + a2t 2 ∈ P2 (R); a1 = 2a2 e a0 = 2a2 } = [2 + 2t + t 2 ].
7.2 Polinômio Característico de um Operador Linear 189

(c3 ) Consideremos B = {1, t, t 2 } a base canônica de P2 (R), então:


T (1) = 3t, T (t) = 2 − t e T (t 2 ) = 1 − t + 2t 2 .
 
0 2 1
Logo, a matriz de A de T em relação à base B é A =  3 −1 −1  .
0 0 2
Portanto, o polinômio característico de T é dado por:
 
−λ 2 1
p(λ ) = pA (λ ) = det(A − λ I3 ) = det  3 −1 − λ −1 
0 0 2−λ

= λ (1 + λ )(2 − λ ) − 6(2 − λ ) = (2 − λ )(λ 2 + λ − 6)

= (2 − λ )(λ − 2)(λ + 3) = −(λ − 2)2 (λ + 3).


É claro que
(λ − 2)2 = 0

2
p(λ ) = 0 ⇐⇒ −(λ − 2) (λ + 3) = 0 ⇐⇒ ⇐⇒ λ = 2, ou λ = −3.
λ +3 = 0
Logo, os autovalores de T são λ1 = 2 e λ2 = −3.
Determinando os autoespaços V2 e V−3 .
 
−2 2 1
p(t) = a0 + a1t + a2t 2 ∈ V2 ⇐⇒ a0 + a1t + a2t 2 ∈ ker(A − 2I3 ) = ker  3 −3 −1 
0 0 0
 
−2 2 1 
⇐⇒  3 −3 −1  a0 + a1t + a2t 2 B = 0 B
  

0 0 0
    
−2 2 1 a0 0
⇐⇒  3 −3 −1   a1  =  0 
0 0 0 a2 0
 
−2a0 + 2a1 + a2 = 0 −2a0 + 2a1 + a2 = 0
⇐⇒ ⇐⇒
3a0 − 3a1 − a2 = 0 a0 − a1 = 0
⇐⇒ a1 = a0 e a2 = 0.
Portanto, V2 = {p(t) = a0 + a1t + a2t 2 ∈ P2 (R); a1 = a0 e a2 = 0} = [1 + t].

 
3 2 1
2 2
p(t) = a0 + a1t + a2t ∈ V−3 ⇐⇒ a0 + a1t + a2t ∈ ker(A + 3I3 ) = ker 3 2 −1
 
0 0 5
      
3 2 1  3 2 1 a0 0
⇐⇒  3 2 −1  a0 + a1t + a2t 2 B = 0 B ⇐⇒  3 2 −1   a1  = 
  
0 
0 0 5 0 0 5 a2 0

 3a0 + 2a1 + a2 = 0 3
⇐⇒ 3a0 + 2a1 − a2 = 0 ⇐⇒ a1 = a0 e a2 = 0.
2
5a2 = 0

Portanto, V−3 = {p(t) = a0 + a1t + a2t 2 ∈ P2 (R); a1 = 23 a0 e a2 = 0.} = [2 + 3t].


190 Capítulo 7. Diagonalização de Operadores Lineares

(d) T operador sobre R4 .


(d1 ) T (x, y, z, w) = (x + y, y, 2z + w, 2z + w).
 
−1 −4 −2 −2
 −4 −1 −2 −2 
(d2 ) A matriz de T em relação à base canônica de R4 é: A = 
 2
.
2 1 4 
2 2 4 1
Solução:
(d1 ) Consideremos B a base canônica de R4 , então:

T (1, 0, 0, 0) = (1, 0, 0, 0), T (0, 1, 0, 0) = (1, 1, 0, 0)

T (0, 0, 1, 0) = (0, 0, 2, 2) T (0, 0, 0, 1) = (0, 0, 1, 1).


e
 
1 1 0 0
 0 1 0 0 
Logo, a matriz de A de T em relação à base B é A =  0 0 2 1 .

0 0 2 1
Portanto, o polinômio característico de T é dado por:
 
1−λ 1 0 0
 0 1−λ 0 0 
p(λ ) = pA (λ ) = det(A − λ I3 ) = det  
 0 0 2−λ 1 
0 0 2 1−λ

= (1 − λ ) (1 − λ )2 (2 − λ ) − 2(1 − λ )


= (1 − λ )(1 − λ ) (1 − λ )(2 − λ ) − 2 = (1 − λ )2 λ (λ − 3).




É claro que

 (1 − λ )2 = 0
2
p(λ ) = 0 ⇐⇒ (1 − λ ) λ (λ − 3) = 0 ⇐⇒ λ =0
λ −3 = 0

⇐⇒ λ = 1, λ = 0 ou λ = 3.
Logo, os autovalores de T são λ1 = 1, λ2 = 0 e λ3 = 3.
Determinando os autoespaços V1 , V0 e V3 .
 
0 1 0 0
 0 0 0 0 
(x, y, z, w) ∈ V1 ⇐⇒ (x, y, z, w) ∈ ker(A − 1I4 ) = ker 
 0 0 1 1 

0 0 2 0
    
0 1 0 0 x 0 
 0 0 0 0  y   0   y=0
⇐⇒     =   ⇐⇒
 0 0 1 1  z   0  z + w = 0 ⇐⇒ y = z = w = 0.
2z = 0

0 0 2 0 w 0
Portanto, V1 = {(x, y, z, w) ∈ R4 ; y = z = w = 0} = (1, 0, 0, 0) .
 
7.2 Polinômio Característico de um Operador Linear 191

 
1 1 0 0
 0 1 0 0 
(x, y, z, w) ∈ V0 ⇐⇒ (x, y, z, w) ∈ ker(A − 0I4 ) = ker 
 0 0 2

1 
0 0 2 1
    
1 1 0 0 x 0 
 x+y = 0 
 0 1 0 0  y   0  x=y=0
⇐⇒ 
    =   ⇐⇒ y = 0 ⇐⇒
0 0 2 1  z   0  w = −2z
2z + w = 0

0 0 2 1 w 0
Portanto,

V0 = {(x, y, z, w) ∈ R4 ; x = y = 0 e w = −2z} = (0, 0, 1, −2) .


 

 
−2 1 0 0
 0 −2 0 0 
(x, y, z, w) ∈ V3 ⇐⇒ (x, y, z, w) ∈ ker(A − 3I4 ) = ker  
 0 0 −1 1 
0 0 2 −2
     
−2 1 0 0 x 0 −2x + y = 0 
 x=0


 0 −2 0 0  y   0 
     
−2y = 0
⇐⇒ 
 = ⇐⇒ ⇐⇒ y=0 .
0 0 −1 1  z   0  −z + w = 0
w=z

 
0 0 2 −2 w 0 2z − 2w = 0

Portanto,
V3 = {(x, y, z) ∈ R4 ; x = y = 0 e w = z} = (0, 0, 1, 1) .
 

 
−1 −4 −2 −2
 −4 −1 −2 −2 
(d2 ) Como a matriz de A de T em relação à base B é A =   2
 , então o
2 1 4 
2 2 4 1
polinômio característico de T é dado por:
 
−1 − λ −4 −2 −2
 −4 −1 − λ −2 −2 
p(λ ) = pA (λ ) = det(A − λ I3 ) = det  
 2 2 1−λ 4 
2 2 4 1−λ

−1 − λ −2 −2 −4 −2 −2

= (−1 − λ ) 2 1−λ 4 + 4 2 1 − λ 4
2 4 1−λ 2 4 1−λ

−4 −1 − λ −2 −4 −1 − λ −2

−2 2 2 4 + 2 2 2 1 − λ
2 2 1−λ 2 2 4
 
= (−1 − λ ) (−1 − λ )(1 − λ )2 − 8 + 8λ + 4(36 − 4λ 2 ) − 2(18 − 2λ 2 ) + 2(−18 + 4λ 2 )

= λ 4 − 18λ 2 + 81 = (λ 2 − 9)2 = (λ − 3)2 (λ + 3)2 .


É claro que

(λ − 3)2 = 0

2 2
p(λ ) = 0 ⇐⇒ (λ − 3) (λ + 3) = 0 ⇐⇒ ⇐⇒ λ = 3 ou λ = −3.
(λ + 3)2 = 0
192 Capítulo 7. Diagonalização de Operadores Lineares

Logo, os autovalores de T são λ1 = 3 e λ2 = −3.


Determinando os autoespaços V3 e V−3 .
 
−4 −4 −2 −2
 −4 −4 −2 −2 
(x, y, z, w) ∈ V3 ⇐⇒ (x, y, z, w) ∈ ker(A − 3I4 ) = ker  
 2 2 −2 4 
2 2 4 −2
    
−4 −4 −2 −2 x 0 
 −4 −4 −2 −2   y   0   −4x − 4y − 2z − 2w = 0
⇐⇒      =   ⇐⇒ 2x + 2y − 2z + 4w = 0
2 2 −2 4  z   0 
2x + 2y + 4z − 2w = 0

2 2 4 −2 w 0
 
x + y − z + 2w = 0 w=z
⇐⇒ ⇐⇒
3z − 3w = 0 x = −y − z
Portanto, V3 = {(x, y, z, w) ∈ R4 ; z = w e x = −y − z} = (−1, 1, 0, 0), (−1, 0, 1, 1) .
 

 
2 −4 −2 −2
 −4 2 −2 −2 
(x, y, z, w) ∈ V−3 ⇐⇒ (x, y, z, w) ∈ ker(A + 3I4 ) = ker  2

2 4 4 
2 2 4 4
    
2 −4 −2 −2 x 0
 −4 2 −2 −2   y   0 
   
⇐⇒   2 = 
2 4 4  z   0 
2 2 4 4 w 0

 2x − 4y − 2z − 2w = 0  
x − 2y − z − w = 0 x=y
⇐⇒ −4x + 2y − 2z − 2w = 0 ⇐⇒ ⇐⇒
3x − 3y = 0 z = −x − w
2x + 2y + 4z + 4w = 0

Portanto, V−3 = {(x, y, z, w) ∈ R4 ; y = x e z = −x − w} = (1, 1, −1, 0), (0, 0, −1, 1) .


 

(e) T operador sobre M2 (R).


     
a b 2a + b 2b
(e1 ) T = .
c d 2c 2d
     
a b a+b b
(e2 ) T = .
c d 0 c−a−b
Solução:
       
1 0 0 1 0 0 0 0
(e1 ) Consideremos B = , , , a base canônica de M2 (R),
0 0 0 0 1 0 0 1
então:

             
1 0 2 0 1 0 0 1 0 0 0 0
T = =2 +0 +0 +0 ,
0 0 0 0 0 0 0 0 1 0 0 1

             
0 1 1 2 1 0 0 1 0 0 0 0
T = =1 +2 +0 +0 ,
0 0 0 0 0 0 0 0 1 0 0 1
7.2 Polinômio Característico de um Operador Linear 193

             
0 0 0 0 1 0 0 1 0 0 0 0
T = =0 +0 +2 +0 ,
1 0 2 0 0 0 0 0 1 0 0 1

             
0 0 0 0 0 11 0 0 0 0 0
T = =0 +0 +0 +2 .
0 1 0 2 0 00 0 1 0 0 1
 
2 1 0 0
 0 2 0 0 
Logo, a matriz de A de T em relação à base B é A = 
 0
.
0 2 0 
0 0 0 2
Portanto, o polinômio característico de T é dado por:
 
2−λ 1 0 0
 0 2 − λ 0 0  = (2 − λ )4 .

p(λ ) = pA (λ ) = det(A − λ I4 ) = det 
 0 0 2−λ 0 
0 0 0 2−λ

É claro que
p(λ ) = 0 ⇐⇒ (2 − λ )4 = 0 ⇐⇒ λ = 2.
Logo, o único autovalor de T é λ1 = 2.
Determinando o autoespaço V2 .
 
    0 1 0 0
a b a b  0 0 0 0 
∈ V2 ⇐⇒ ∈ ker(A − 2I4 ) = ker 
 0 0 0 0 

c d c d
0 0 0 0
 
0 1 0 0    
 0 0 0 0  a b 0 0
⇐⇒  
 0 0 0 0  c d =
B
0 0 B
0 0 0 0
    
0 1 0 0 a 0
 0 0 0 0  b   0 
⇐⇒   0 0 0 0   c  =  0  ⇐⇒ b = 0.
   

0 0 0 0 d 0
   "     #
a b 1 0 0 0 0 0
Portanto, V2 = ∈ M2 (R); b = 0 = , , .
c d 0 0 1 0 0 1
       
1 0 0 1 0 0 0 0
(e2 ) Consideremos B = , , , a base canônica de M2 (R),
0 0 0 0 1 0 0 1
então:

             
1 0 1 0 1 0 0 1 0 0 0 0
T = =1 +0 +0 −1 ,
0 0 0 −1 0 0 0 0 1 0 0 1

             
0 1 1 1 1 0 0 1 0 0 0 0
T = =1 +1 +0 −1 ,
0 0 0 −1 0 0 0 0 1 0 0 1
194 Capítulo 7. Diagonalização de Operadores Lineares

             
0 0 0 0 1 0 0 1 0 0 0 0
T = =0 +0 +0 +1 ,
1 0 0 1 0 0 0 0 1 0 0 1

            
0 0 0 0 0 1 1 0
0 0 0 0
T = =0 +0 +0 +0 .
0 1 0 0 0 0 0 0
1 0 0 1
 
1 1 0 0
 0 1 0 0 
Logo, a matriz de A de T em relação à base B é A = 
 0
.
0 0 0 
−1 −1 1 0
Portanto, o polinômio característico de T é dado por:
 
1−λ 1 0 0
 0 1−λ 0 0  = λ 2 (1 − λ )2 .

p(λ ) = pA (λ ) = det(A − λ I4 ) = det 
 0 0 −λ 0 
−1 −1 1 −λ

É claro que
p(λ ) = 0 ⇐⇒ λ 2 (1 − λ )2 = 0 ⇐⇒ λ = 0 ou λ = 1.
Logo, os autovalores de T são λ1 = 0 e λ2 = 1.
Determinando os autoespaços V0 e V1 .

    1 1 0 0
a b a b  0 1 0 0 
∈ V0 ⇐⇒ ∈ ker(A − 0I4 ) = ker 
 0

c d c d 0 0 0 
−1 −1 1 0
 
1 1 0 0    
 0 1 0 0 
 a b 0 0
⇐⇒  =
 0 0 0 0  c d B 0 0 B
−1 −1 1 0
    
1 1 0 0 a 0 
a+b = 0
0 1 0 0  b   0 
 
⇐⇒    =   ⇐⇒ b = 0 ⇐⇒ a = b = c = 0.
 0 0 0 0  c   0 
−a − b + c = 0

−1 −1 1 0 d 0
Portanto, "
   #
a b 0 0
V0 = ∈ M2 (R); a = b = c = 0 = .
c d 0 1
 
    0 1 0 0
a b a b  0 0 0 0 
∈ V1 ⇐⇒ ∈ ker(A − 1I4 ) = ker  
c d c d  0 0 −1 0 
−1 −1 1 −1
 
0 1 0 0    
 0 0 0 0  a b 0 0
⇐⇒   =
 0 0 −1 0  c d B 0 0 B
−1 −1 1 −1
7.2 Polinômio Característico de um Operador Linear 195
    
0 1 0 0 a 0
 0 0 0 0  b   0 
⇐⇒    =  
 0 0 −1 0  c   0 
−1 −1 1 −1 d 0

 b=0
⇐⇒ −c = 0 ⇐⇒ b = c = 0 e d = −a.
−a − b + c − d = 0

   " #
a b 1 0
Portanto, V1 = ∈ M2 (R); b = c = 0 e d = −a = .
c d 0 −1

(f) T operador sobre C2 .


(f1 ) T (z, w) = (−w, z).
(f2 ) T (z, w) = (4z + 2iw, −2iz + 4w).
Solução:
(f1 ) Consideremos B = (1, 0), (0, 1) a base canônica de C2 , então:


T (1, 0) = (0, 1) e T (0, 1) = (−1, 0).


 
0 −1
Logo, a matriz de A de T em relação à base B é A = .
1 0
Portanto, o polinômio característico de T é dado por:
 
−λ −1
p(λ ) = pA (λ ) = det(A − λ I2 ) = det = λ 2 + 1.
1 −λ

É claro que

p(λ ) = 0 ⇐⇒ λ 2 + 1 = 0 ⇐⇒ λ 2 = −1 ⇐⇒ λ = i ou λ = −i.

Logo, os autovalores de T são λ1 = i e λ2 = −i.


Determinando os autoespaços Vi e V−i .
 
−i −1
(z, w) ∈ Vi ⇐⇒ (z, w) ∈ ker(A − iI2 ) = ker
1 −i
     
−i −1 z −iz − w = 0
0
⇐⇒ = ⇐⇒ ⇐⇒ w = −iz.
1 −i w 0 z − iw = 0

Portanto, Vi = {(z, w) ∈ C2 ; w = −iz} = (1, −i) .


 

 
i −1
(z, w) ∈ V−i ⇐⇒ (z, w) ∈ ker(A + iI2 ) = ker
1 i
     
i −1 z 0 iz − w = 0
⇐⇒ = ⇐⇒ ⇐⇒ w = iz.
1 i w 0 z + iw = 0

Portanto, V−i = {(z, w) ∈ C2 ; w = iz} = (1, i) .


 
196 Capítulo 7. Diagonalização de Operadores Lineares

(f2 ) Consideremos B = (1, 0), (0, 1) a base canônica de C2 , então:




T (1, 0) = (4, −2i) e T (0, 1) = (2i, 4).


 
4 2i
Logo, a matriz de A de T em relação à base B é A = .
−2i 4
Portanto, o polinômio característico de T é dado por:
 
4−λ 2i
p(λ ) = pA (λ ) = det(A − λ I2 ) = det
−2i 4 − λ

= (4 − λ )2 + 4i2 = λ 2 − 8λ + 16 − 4

= λ 2 − 8λ + 12 = (λ − 2)(λ − 6).

É claro que

λ −2 = 0
p(λ ) = 0 ⇐⇒ (λ − 2)(λ − 6) = 0 ⇐⇒ ⇐⇒ λ = 2 ou λ = 6.
λ −6 = 0

Logo, os autovalores de T são λ1 = 2 e λ2 = 6.


Determinando os autoespaços V2 e V6 .
 
2 2i
(z, w) ∈ V2 ⇐⇒ (z, w) ∈ ker(A − 2I2 ) = ker
−2i 2
     
2 2i z 0 2z + 2iw = 0
⇐⇒ = ⇐⇒ ⇐⇒ z = −iw.
−2i 2 w −2iz + 2w = 0
0
Portanto, V2 = {(z, w) ∈ C2 ; w = iz} = (−i, 1) .
 

 
−2 2i
(z, w) ∈ V6 ⇐⇒ (z, w) ∈ ker(A + 6I2 ) = ker
−2i −2
     
−2 2i z 0 −2z + 2iw = 0
⇐⇒ = ⇐⇒ ⇐⇒ z = iw.
−2i −2 w 0 −2iz − 2w = 0
Portanto, V6 = {(z, w) ∈ C2 ; z = iw} = (i, 1) .
 

(g) Seja A uma matriz quadrada de ordem n, mostre que:


(g1 ) O polinômio característico de AT , a transposta de A, coincide com o polinômio característico
de A, ou seja, pAT (λ ) = pA (λ ).
(g2 ) Se A é matriz diagonal ou matriz triangular, então os autovalores de A são os elementos da
diagonal principal.
(g3 ) Se A é invertível, então 0 não é autovalor de A.
1
(g4 ) Se A é invertível e λ1 é um autovalor de A, então é autovalor de A−1 .
λ1
Solução:
(g1 ) Seja pA (λ ) = (A − λ In ) o polinômio característico de A, então o polinômio característico de
AT é dado por pAT (λ ) = det(AT − λ In ) e

pAT (λ ) = det(AT − λ In ) = det(AT − λ InT ) = det(A − λ In )T = det(A − λ In ) = pA (λ ).


7.2 Polinômio Característico de um Operador Linear 197

(g2 ) Se A é diagonal ou triangular, então a matriz A − λ In também é diagonal ou triangular, com


elementos da diagonal:
a11 − λ , a22 − λ , · · · , ann − λ .
Como o determinante de uma matriz diagonal ou triangular é o produto dos elementos da
diagonal principal segue que:

pA (λ ) = (a11 − λ ) · (a22 − λ ) · · · · · (ann − λ ),

cujas raízes são:


a11 , a22 , ··· , ann .
(g3 ) 0 é uma raiz do polinômio característico de A, se, e somente se,

p(0) = 0 ⇐⇒ det(A − 0In ) = 0 ⇐⇒ det A = 0 ⇐⇒ A não é invertível

.
Portanto, A é invertível se, e somente se, 0 não é autovalor de A.
(g4 ) Como λ1 é um autovalor de A e A é invertível, pelo item anterior sabemos que λ1 6= 0, além
disso det(A − λ1 In ) = 0.
Logo,

det(A − λ1 In ) · det A−1 = 0 ⇐⇒ det (A − λ1 In )A−1 = 0 ⇐⇒ det(A · A−1 − λ1 A−1 ) = 0




 !
−1 −1 1
⇐⇒ det(In − λ1 A ) = 0 ⇐⇒ det (−λ1 ) A − In =0
λ1
     
n −1 1 λ1 6=0 −1 1 1
⇐⇒ (−λ1 ) det A − In = 0 =⇒ det A − In = 0 ⇐⇒ pA−1 = 0.
λ1 λ1 λ1
1
Consequentemente, é autovalor de A−1 .
λ1

Observações 7.2.5 (a) Se V é um espaço vetorial de dimensão n sobre R e T é um operador linear


sobre V , então o polinômio característico de T , pT (λ ), é um polinômio de grau n na variável λ
com coeficientes reais.
Consequentemente, pT (λ ) tem no máximo n raízes reais.
De acordo com o demonstrado no apêndice destas notas, uma consequência do Teorema 4.3.10 é
que se n é um número ímpar, então pT (λ ) tem um número ímpar de raízes reais.
Portanto, se dimV é ímpar, então o operador T pelo menos um autovalor.
(b) Se V é um espaço vetorial de dimensão n sobre C e T é um operador linear sobre V , então o
polinômio característico de T , pT (λ ), é um polinômio de grau n na variável λ com coeficientes
complexos.
O polinômio pT (λ ) tem exatamente n raízes, podendo ocorrer raízes repetidas.
Portanto, neste caso o operador T pelo menos um autovalor.
198 Capítulo 7. Diagonalização de Operadores Lineares

7.3 Diagonalização de Operadores Lineares

Sejam V um espaço vetorial sobre um corpo K, de dimensão finita n, e T : V −→ V um operador linear,


a obtenção dos autovalores e autovetores de T é importante, pois em alguns casos podemos encontrar
uma base B de V constituída de autovetores tal que a matriz de T em relação à essa base é diagonal,
assim obteríamos a representação mais simples do operador T .
No exemplo (a1 ) acima o operador de R2 dado por: T (x, y) = (y, 9x) tem dois autovalores: λ1 = 3 e
λ2 = −3 com autoespaços:    
V3 = (1, 3) e V−3 = (1, −3) .
Observemos que B = (1, 3), (1, −3) é uma base de R2 e que:


T (1, 3) = (3, 9) = 3 (1, 3) + 0 (1 − 3)


T (1, −3) = (−3, 9) = 0 (1, 3) + (−3) (1, −3).
Portanto,  
3 0
[T ]B = é uma matriz diagonal.
0 −3

Já no exemplo (a2 ) acima o operador de R3 dado por T (x, y, z) = (x, y, x) tem dois autovalores: λ1 = 0
e λ2 = 1 com autoespaços:
   
V0 = (0, 0, 1) e V1 = (1, 0, 1), (0, 1, 0) .

Novamente B = (0, 0, 1), (1, 0, 1), (0, 1, 0) é uma base de R3 e temos:




T (0, 0, 1) = (0, 0, 0) = 0 (0, 0, 1) + 0 (1, 0, 1) + 0 (0, 1, 0)

T (1, 0, 1) = (1, 0, 1) = 0 (0, 0, 1) + 1 (1, 0, 1) + 0 (0, 1, 0)

T (0, 1, 0) = (0, 0, 1) = 0 (0, 0, 1) + 0 (1, 0, 1) + 1 (0, 1, 0).


Logo,  
0 0 0
[T ]B =  0 1 0  é uma matriz diagonal.
0 0 1
Os operadores acima são chamados operadores diagonalizáveis, mais precisamente temos a seguinte
definição:
Definição 7.3.1 Seja V um espaço vetorial sobre um corpo K, de dimensão finita n. Dizemos que
um operador linear T : V −→ V é diagonalizável se existe B uma base ordenada de V tal que [T ]B
é uma matriz diagonal.

Observação 7.3.1 A existência de autovalores não implica que T é um operador diagonalizável, no


exemplo 4(a) operador de R4 dado por T (x, y, z, w) = (x + y, y, 2z + w, 2z + w) tem três autovalores:
λ1 = 1, λ2 = 0 e λ3 = 3, com autoespaços:
     
V1 = (1, 0, 0, 0) , V0 = (0, 0, 1, −2) e V3 = (0, 0, 1, 1) .
Embora o conjunto B = (1, 0, 0, 0), (0, 0, 1, −2), (0, 0, 1, 1) seja um subconjunto L.I. de R4


não é uma base, pois contém apenas três vetores.

De modo geral temos o seguinte resultado:


7.3 Diagonalização de Operadores Lineares 199

Teorema 7.3.2 Sejam V um espaço vetorial sobre um corpo K, de dimensão finita n, e T : V −→ V


um operador linear que possui autovalores distintos λ1 , λ2 , · · · , λk . Se B1 = {v11 , · · · , v1n1 },
B2 = {v21 , · · · , v2n2 }, · · · , Bk = {vk1 , · · · , vknk } são bases, respectivamente, dos autoespaços V (λ1 ),
V (λ2 ), · · · , V (λk ), então B = B1 ∪ B2 ∪ · · · ∪ Bk é um subconjunto linearmente independente de V .

Demonstração: Sejam α11 , · · · , α1n1 , α21 , · · · , α2n2 , · · · , αk1 , · · · αknk em K tais que:

α11 v11 + · · · + α1n1 v1n1 + α21 v21 + · · · + α2n2 v2n2 + · · · + αk1 vk1 + · · · + αknk vknk = 0V . (7.3.1)

Multiplicando 7.3.1 por λ1 obtemos:


λ1 α11 v11 + · · · + λ1 α1n1 v1n1 + λ1 α21 v21 + · · · + λ1 α2n2 v2n2 +
(7.3.2)
· · · + λ1 αk1 vk1 + · · · + λ1 αknk vknk = 0V .
Aplicando o operador T em 7.3.1 obtemos:
λ1 α11 v11 + · · · + λ1 α1n1 v1n1 + λ2 α21 v21 + · · · + λ2 α2n2 v2n2 +
(7.3.3)
· · · + λk αk1 vk1 + · · · + λk αknk vknk = 0V .
Subtraindo 7.3.3 de 7.3.4 obtemos:
(λ2 − λ1 )α21 v21 + · · · + (λ2 − λ1 )α2n2 v2n2 + · · · +
(7.3.4)
(λk − λ1 )αk1 vk1 + · · · + (λk − λ1 )αknk vknk = 0V .
Repetindo esse processo sucessivamente, de multiplicar a equação resultante pelo próximo autovalor,
aplicar T na equação e subtraí-las, (k − 2) vezes obtemos:

(λk − λk−1 ) · · · (λk − λ2 )(λk − λ1 )αk1 vk1 + · · · + (λk − λk−1 ) · · · (λk − λ2 )(λk − λ1 )αknk vknk = 0V .

Como Bk = {vk1 , · · · , vknk } é base, seus vetores são L.I. e os autovalores λ1 , λ2 , · · · , λk são distintos,
segue que αk1 = · · · = αknk = 0.
Substituindo nas equações anteriores obtemos:

α11 = · · · = α1n1 = α21 = · · · = α2n2 = · · · = αk1 = · · · = αknk = 0.

Portanto, B = B1 ∪ B2 ∪ · · · ∪ Bk é um subconjunto linearmente independente de V .

Corolário 7.3.3 No teorema acima se n1 + n2 + · · · + nk = n, então B = B1 ∪ B2 ∪ · · · ∪ Bk é base


de V . Além disso:
 
λ1 · · · 0 0 ··· 0 ··· 0 ··· 0
 .. . . .
. .. 0 ··· ··· ···

 . 0 0 0 
 0 · · · λ1 0 ··· ··· ···
 
0 0 0 
 0 · · · 0 λ2 ··· ··· ···
 
0 0 0 
 . .. .. 
 0 · · · 0 .. . . ··· 0 ··· 0
 
[T ]B =  .

 0 ··· 0 0 · · · λ2 ··· 0 ··· 0 
 .
 .. · · · ... .. . .. . .. 
 . · · · .. . · · · .. . 

 0 ··· 0 0 ··· 0 · · · λk · · · 0 
 
. .. .
· · · .. . ..
 
 0 ··· 0 0 ··· 0 
0 ··· 0 0 ··· 0 · · · 0 · · · λk
200 Capítulo 7. Diagonalização de Operadores Lineares

Corolário 7.3.4 Sejam V um espaço vetorial sobre um corpo K, de dimensão finita n, e T : V −→ V


um operador linear, então temos:
(i) T tem no máximo n autovalores distintos.
(ii) Se T possui n autovalores distintos, então, T é um operador diagonalizável.

Demonstração:
(i) Se T tivesse k autovalores distintos λ1 , · · · , λk , com k > n, então v1 , · · · , vk os autovetores
associados, respectivamente, a λ1 , · · · , λk formaria um subconjunto L. I. de V , mas dimV = n,
contrariando o fato de que qualquer subconjunto de um espaço vetorial de dimensão n tem no
máximo n elementos.
Portanto, T tem no máximo n autovalores distintos.
(ii) Se T possui n autovalores distintos: λ1 , · · · , λn , então pelo teorema 7.3.2 o conjunto

B = {v1 , · · · , vn }

é um subconjunto L. I. de V , como dimV = n segue que B é uma base de V .


Além disso,
T (v1 ) = λ1 v1 = λ1 v1 + 0v2 + · · · 0vn
T (v2 ) = λ2 v2 = 0v1 + λ2 v2 + · · · 0vn
..
.
T (vn ) = λn vn = 0v1 + 0v2 + · · · λn vn .
Logo,  
λ1 0 ··· 0
 0 λ2 ··· 0 
[T ]B =   , ou seja, T é diagonalizável.
 
.. .. ...
 . . 0 
0 0 · · · λn

Teorema 7.3.5 Sejam V um espaço vetorial sobre um corpo K, de dimensão finita n, e T : V −→ V


um operador linear, então T é diagonalizável se, e somente se, existe uma base ordenada B para V
constituída de autovetores de T .
Demonstração: Seja B = {v1 , · · · , vn } base ordenada de V de autovetores e sejam λ1 , · · · , λn os
respectivos autovalores de T , não necessariamente distintos, então temos:

T (v1 ) = λ1 v1 = λ1 v1 + 0v2 + · · · 0vn


T (v2 ) = λ2 v2 = 0v1 + λ2 v2 + · · · 0vn
..
.
T (vn ) = λn vn = 0v1 + 0v2 + · · · λn vn .

Logo,  
λ1 0 · · · 0
 0 λ2 · · · 0 
[T ]B =  , é matriz diagonal.
 
.. .. . .
 . . . 0 
0 0 · · · λn
Consequentemente, T é operador diagonalizável.
7.3 Diagonalização de Operadores Lineares 201

Reciprocamente, suponhamos que existe B = {u1 , u2 , · · · , un } base ordenada de V tal que [T ]B é


matriz diagonal, mostremos que os vetores de B são autovetores de T . Como [T ]B é matriz diagonal,
então
 
µ1 0 · · · 0
 0 µ2 · · · 0 
[T ]B =  .. ,
 
.. . .
 . . . 0 
0 0 · · · µn

com µ1 , µ2 , · · · , µn escalares em K.

Além disso, escrevendo os vetores de B em relação à B obtemos:

T (u1 ) = µ1 u1 + 0 u2 + · · · 0 un = µ1 u1
T (u2 ) = 0 u1 + µ2 u2 + · · · 0 un = µ2 u2
..
.
T (un ) = 0 u1 + 0 u2 + · · · µn un = µn un .

Portanto, µ1 , µ2 , · · · , µn são autovalores de T e u1 , u2 , · · · , un são os autovetores associados,


respectivamente.

Consequentemente, B = {u1 , u2 , · · · , un } é uma base de V constituída de autovetores.

Teorema 7.3.6 Sejam V um espaço vetorial sobre um corpo K, de dimensão finita n, e T : V −→ V


um operador linear, então T é diagonalizável se, e somente se, os λ1 , · · · , λk de T são tais que

dimV = dim(Vλ1 ) + · · · + dim(Vλk ).

Definição 7.3.2 Sejam V um espaço vetorial sobre um corpo K, de dimensão finita n, e T : V −→ V


um operador linear. Dado λi um autovalor de T a multiplicidade algébrica de λi é quantidade de
vezes que ele aparece como raiz do polinômio característico pT (λ ).
Notação: mA (λi ).

Proposição 7.3.7 Se λi é um autovalor de um operador linear T : V −→ V , então a multiplicidade


geométrica de λi é menor ou igual à multiplicidade algébrica de λi , ou seja, mG (λi ) ≤ mA (λi ).

Teorema 7.3.8 Sejam V um espaço vetorial sobre um corpo K, de dimensão finita n, e T : V −→ V


um operador linear, então T é diagonalizável se, e somente se,
(i) O polinômio característico de T possui todas as raízes em K.
(ii) A multiplicidade algébrica de cada autovalor λi de T é igual à multiplicidade geométrica de λi ,
ou seja, mA (λi ) = mG (λi ).
202 Capítulo 7. Diagonalização de Operadores Lineares

Exemplos 7.3.9 Verifique em cada um casos abaixo se o operador linear T é diagonalizável, em


caso afirmativo determine uma base B do espaço vetorial correspondente tal que [T ]B é uma matriz
diagonal.
(a) T operador sobre R2 .
(a1 ) T (x, y) = (y, 9x).
(a2 ) T (x, y) = (−y, x).
Solução:
(a1 ) Vimos que os autovalores de T são λ1 = 3 e λ2 = −3, como T é um operador linear de R2 e
dim R2 = 2, segue que T é diagonalizável.
Como V3 = (1, 3) e V−3 = (1, −3) , podemos tomar a seguinte base de R2 :
   

 
3 0
B = {(1, 3), (1, −3)}, assim [T ]B = .
0 −3

(a2 ) Vimos que T não tem autovalores, portanto o operador T não é diagonalizável.
(b) T operador sobre R3 .
(b1 ) T (x, y, z) = (x, y, x).
(b2 ) T (x, y, z) = (x + z, y + z, x + y + 2z).
(b3 ) T (1, 1, 1) = (4, 9, −4), T (0, 1, 1) = (2, 7, −3), T (0, 0, 1) = (1, 4, −2).
Solução:
(b1 ) Os autovalores de T são λ1 = 0 e λ2 = 1, neste caso o número de autovalores distintos é
menor que a dimensão do espaço, assim vamos utilizar as multiplicidades dos autovalores
para verificar se T é diagonalizável.
Vimos que p(λ ) = −λ (1 − λ )2 , com todas as raízes em R, daí segue que mA (0) = 1) e
mA (1) = 2.    
Como os autoespaços correspondentes são: V0 = (0, 0, 1) e V1 = (1, 0, 1), (0, 1, 0) ,
consequentemente mG (0) = 1 e mG (1) = 2.
Portanto, T é um operador diagonalizável, podemos tomar a seguinte base de R3
 
0 0 0
B = {(0, 0, 1), (1, 0, 1), (0, 1, 0)}, assim [T ]B =  0 1 0  .
0 0 1

(b2 ) Os autovalores de T são λ1 = 1, λ2 = 0 e λ3 = 3, como T é um operador linear de R3 e


dim R3 = 3, segue que T é diagonalizável.
     
Como V1 = (1, −1, 0) , V0 = (−1, −1, 1) e V3 = (1, 1, 2) , podemos tomar seguinte
base de R3 :
 
1 0 0
B = {(1, −1, 0), (−1, −1, 1), (1, 1, 2)}, assim [T ]B =  0 0 0  .
0 0 3
7.3 Diagonalização de Operadores Lineares 203

(b3 ) Os autovalores de T são λ1 = 1, λ2 = −1 e λ3 = 3, como T é um operador linear de R3 e


dim R3 = 3, segue que T é diagonalizável.
     
Como V1 = (1, −1, 0) , V−1 = (0, 1, −1) e V3 = (−2, −3, 1) , podemos tomar seguinte
base de R3 :
 
1 0 0
B = {(1, −1, 0), (0, 1, −1), (−2, −3, 1)}, assim [T ]B =  0 −1 0  .
0 0 3

(c) T operador sobre P2 (R).


(c1 ) T p(t) = p(0) + p(1)(t + t 2 ).


(c2 ) T p(t) = (1 + t)p0 (t) + p00 (t).




(c3 ) T (a0 + a1t + a2t 2 ) = (2a1 + a2 ) + (3a0 − a1 − a2 )t + 2a2t 2 .


Solução:
(c1 ) Os autovalores de T são λ1 = 1, λ2 = 0 e λ3 = 2, como T é um operador linear de P2 (R) e
dim P2 (R) = 3, segue que T é diagonalizável.
Como V1 = [1 − t − t 2 ], V0 = [t − t 2 ] e V2 = [t + t 2 ], tomamos a seguinte base de P2 (R):
 
1 0 0
B = {1 − t − t 2 , t − t 2 , t + t 2 }, assim [T ]B =  0 0 0  .
0 0 2

(c2 ) Os autovalores de T são λ1 = 0, λ2 = 1 e λ3 = 2, como T é um operador linear de P2 (R) e


dim P2 (R) = 3, segue que T é diagonalizável.
Como V0 = [1], V1 = [1 + t] e V2 = [2 + 2t + t 2 ], tomamos seguinte base de P2 (R):
 
0 0 0
B = {1, 1 + t, 2 + 2t + t 2 }, assim [T ]B =  0 1 0  .
0 0 2

(c3 ) Os autovalores de T são λ1 = 2 e λ2 = −3, neste caso o número de autovalores distintos é


menor que a dimensão do espaço, assim precisamos de outro mecanismo para verificar se T é
diagonalizável.
Vimos que p(λ ) = −(λ − 2)2 (λ + 3), com todas as raízes em R, assim segue que mA (2) = 2
e mA (−3) = 1.
Os autoespaços correspondentes são: V2 = [1+t] e V−3 = [2+3t], consequentemente mG (2) =
1) e mG (−3) = 1, como mA (2) 6= mG (2), segue que T é um operador que não é diagonalizável.
(d) T operador sobre R4 .
(d1 ) T (x, y, z, w) = (x + y, y, 2z + w, 2z + w).
 
−1 −4 −2 −2
 −4 −1 −2 −2 
(d2 ) A matriz de T em relação à base canônica de R4 é: A = 
 2
.
2 1 4 
2 2 4 1
204 Capítulo 7. Diagonalização de Operadores Lineares

Solução:
(d1 ) Os autovalores de T são λ1 = 1, λ2 = 0 e λ3 = 3, assim T tem 3 autovalores distintos, como
dim R4 = 4, vamos usar as multiplicidades dos autovalores para verificar se T é diagonalizável.
Vimos que p(λ ) = (1 − λ )2 λ (λ − 3), com todas as raízes em R, daí segue que mA (1) = 2,
mA (0) = 1 e mA (3) = 1.
Os autoespaços correspondentes são:
     
V1 = (1, 0, 0, 0) , 0 = (0, 0, 1, −2) e V3 = (0, 0, 1, 1) ,

consequentemente mG (1) = 1, mG (0) = 1 e mG (3) = 1, como mA (1) 6= mG (1), segue que T


é um operador que não é diagonalizável.
(d2 ) Os autovalores de T são λ1 = 3 e λ2 = −3, assim T tem 2 autovalores distintos, como
dim R4 = 4, vamos usar as multiplicidades dos autovalores para verificar se T é diagonalizável.
Vimos que p(λ ) = (λ − 3)2 (λ + 3)2 , com todas as raízes em R, daí segue que mA (3) =
mA (−2) = 2.
Os autoespaços correspondentes são:
 
V3 = (−1, 1, 0, 0), (−1, 0, 1, 1) e
 
V−3 = (1, 1, −1, 0), (0, 0, −1, 1) ,
consequentemente mG (3) = mG (−3) = 2.
Portanto, T é um operador diagonalizável, podemos tomar a seguinte base de R4 :

B = {(−1, 1, 0, 0), (−1, 0, 1, 1), (1, 1, −1, 0), (0, 0, −1, 1)},
 
3 0 0 0
 0 3 0 0 
assim [T ]B = 
 0 0 −3
.
0 
0 0 0 −3
(e) T operador sobre M2 (R).
     
a b 2a + b 2b
(e1 ) T = .
c d 2c 2d
     
a b a+b b
(e2 ) T = .
c d 0 c−a−b
Solução:
(e1 ) O único autovalor de T são λ1 = 2, como dim M2 (R) = 4, vamos usar as multiplicidades do
autovalor para verificar se T é diagonalizável.
Vimos que p(λ ) = (2 − λ )4 , com todas as raízes em R, daí segue que mA (2) = 4.
O autoespaço correspondente é:
   "     #
a b 1 0 0 0 0 0
V2 = ∈ M2 (R; b = 0 = , , ,
c d 0 0 1 0 0 1

consequentemente mG (2) = 3, como mA (2) 6= mG (2), segue que T é um operador que não é
diagonalizável.
7.4 Operadores Auto-Adjuntos 205

(e2 ) Os autovalores de T são λ1 = 0 e λ2 = 1, assim T tem 2 autovalores distintos, como


dim M2 (R) = 4, vamos usar as multiplicidades dos autovalores para verificar se T é dia-
gonalizável.
Vimos que p(λ ) = λ 2 λ (1 − λ )2 , com todas as raízes em R, daí segue que mA (0) = mA (1) = 2.
Os autoespaços correspondentes são:
" # " #
0 0 1 0
V0 = e V1 = ,
0 1 0 −1

consequentemente mG (0) = mG (1) = 1, como mA (0) 6= mG (0), segue que T é um operador


que não é diagonalizável.
(f) T operador sobre C2 .
(f1 ) T (z, w) = (−w, z).
(f2 ) T (z, w) = (4z + 2iw, −2iz + 4w).
Solução:
(f1 ) Os autovalores de T são λ1 = i e λ2 = −i, como T é um operador linear de C2 e dim C2C = 2,
segue que T é diagonalizável.
Como Vi = (1, −i) e V−i = (1, i) , podemos tomar a seguinte base de C2 :
   

 
i 0
B = {(1, −i), (1, i)}, assim [T ]B = .
0 −i

(f2 ) Os autovalores de T são λ1 = 2 e λ2 = 6, como T é um operador linear de C2 e dim C2C = 2,


segue que T é diagonalizável.
Como V2 = (−i, 1) e V−i = (i, 1) , podemos tomar a seguinte base de C2 :
   

 
2 0
B = {(−i, 1), (i, 1)}, assim [T ]B = .
0 6

7.4 Operadores Auto-Adjuntos

Nesta seção vamos considerar V um espaço vetorial sobre R, de dimensão finita e com produto interno.

Definição 7.4.1 Um operador linear T : V −→ V é chamado auto-adjunto se, e somente se, para
quaisquer u, v ∈ V tivermos


v, T (u) = T (v), u .

Exemplo 7.4.1 O operador linear T : R3 −→ R3 dado por

T (x, y, z) = (x − 2y + 3z, −2x − y + 4z, 3x + 4y + z)

é auto-adjunto.
206 Capítulo 7. Diagonalização de Operadores Lineares

De fato, dados (x1 , y1 , z1 ) e (x2 , y2 , z2 ) em R3 temos:



D E
(x1 , y1 , z1 ), T (x2 , y2 , z2 ) = (x1 , y1 , z1 ), (x2 − 2y2 + 3z2 , −2x2 − y2 + 4z2 , 3x2 + 4y2 + z2 )

= x1 (x2 − 2y2 + 3z2 ) + y1 (−2x2 − y2 + 4z2 ) + z1 (3x2 + 4y2 + z2 )

= x1 x2 − 2x1 y2 + 3x1 z2 − 2y1 x2 − y1 y2 + 4y1 z2 + 3x2 z1 + 4y2 z1 + z1 z2

= (x1 − 2y1 + 3z1 )x2 + (−2x1 − y1 + 4z1 )y2 + (3x1 + 4y1 + z1 )z2
D  E
= (x1 − 2y1 + 3z1 ), (−2x1 − y1 + 4z1 ), (3x1 + 4y1 + z1 ) , (x2 , y2 , z2 )


= T (x1 , y1 , z1 ), (x2 , y2 , z2 ) .
Observemos que a matriz de T em relação à base canônica de R3 é dada por:
 
1 −2 3
[T ] =  −2 −1 4 
3 4 1
que é uma matriz simétrica.

B é matriz ortogonal.
Proposição 7.4.2 Se B e B 0 são bases ortonormais de V , então MB 0

Demonstração:
 Sejam B ={v1 , v2 , · · · , vn } e B 0 = {u1 , u2 , · · · , un } bases ortonormais de V e
a11 a12 · · · a1n
 a21 a22 · · · a2n 
MBB = 
0  .. .. .. 
 . . ··· . 
an1 an2 · · · ann .
Logo,
v1 = a11 u1 + a21 u2 + · · · + an1 un
v2 = a12 u1 + a22 u2 + · · · + an2 un
..
.
vn = a1n u1 + a2n u2 + · · · + ann un .
Como B e B0 são bases ortonormais, então, para todo i e todo j em {1, 2, · · · , n}, temos:
1 = hvi , vi i = a21i + a22i + · · · + a2ni
i6= j
0 = hvi , v j i = a1i a1 j + a2i a2 j + · · · + ani an j .
Mas,
   
a11 a21 ··· an1 a11 a12 · · · a1n

B
T
B
 a12 a22 ··· an2   a21 a22 · · · a2n 
MB0 · MB0 =  ·
   
.. .. .. .. .. .
· · · ..

 . . ··· .   . . 
a1n a2n · · · ann . an1 an2 · · · ann

a211 + a221 + · · · + a2n1 ··· a11 a1n + a21 a2n + · · · + an1 ann
 
a12 a11 + a22 a21 + · · · + an2 an1 ··· a12 a1n + a22 a2n + · · · + an2 an2
=   = In .
 
.. ..
. ··· .
a1n a11 j + a2n a21 + · · · + ann an1 ··· a21n + a22n + · · · + a2nn
B é matriz ortogonal.
Portanto, MB 0
7.4 Operadores Auto-Adjuntos 207

Proposição 7.4.3 Se T : V −→ V operador linear tal que [T ]B 0 é simétrica, com B 0 base ortonormal
de V , então [T ]B é simétrica para B base ortonormal de V .

Demonstração: Sabemos que


 −1
B B
[T ]B = MB 0 · [T ]B0 · MB 0.

Como B e B 0 são bases ortonormais, pela proposição anterior segue que


 −1  T
B B
MB 0 = MB 0 .

Assim,
 T
B B
[T ]B = MB 0 · [T ]B0 · MB 0.

Portanto,
 T  T  T  T   T
B T B B B T

[T ]B = MB 0 · [T ]B0 · MB 0 = MB 0 · [T ]B0 · MB 0 .

 T
Como [T ]B0 é simétrica, segue que [T ]B0 = [T ]B0 .
Consequentemente,
 T  T   T
B B T
[T ]B = MB 0 · [T ]B0 · MB 0 = [T ]B .

Logo, [T ]B também é simétrica.

Teorema 7.4.4 Um operador linear T : V −→ V é auto-adjunto se, e somente se, [T ]B é matriz


simétrica, para B base ortonormal de V .

Demonstração: Sejam B = {v1 , v2 , · · · , vn } base ortonormal de V e


 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
[T ]B =  ..
 
.. .. 
 . . ··· . 
an1 an2 · · · ann .

Então, para todo i e todo j temos


ai j = hvi , T (v j )i.
Mas, [T ]B é matriz simétrica se, e somente se, ai j = a ji .
Portanto, [T ]B é simétrica se, e somente se,

hvi , T (v j )i = hT (vi ), v j i

para todo i e todo j.


Já que B é base ortonormal de V dados u e v em podemos escrever:

u = hu, u1 i u1 + hu, u2 i u2 + · · · + hu, un i un

v = hv, u1 i u1 + hv, u2 i u2 + · · · + hvu, un i un .


208 Capítulo 7. Diagonalização de Operadores Lineares

Como T é linear segue ainda que:

T (u) = hu, u1 i T (u1 ) + hu, u2 i T (u2 ) + · · · + hu, un i T (un )

T (v) = hv, u1 i T (u1 ) + hv, u2 i T (u2 ) + · · · + hvu, un i T (un ).

Portanto,
hv, T (u)i = hT (v), ui

para quaisquer u, v ∈ V se, e somente se,

hvi , T (v j )i = hT (vi ), v j i

para todo i e todo j.

Consequentemente, T é operador auto-adjunto se, e somente se, [T ]B é matriz simétrica.

Forma de Jordan

Exemplos 7.4.5 (a) O operador linear T : R2 −→ R2 dado por T (x, y) = (y, −x) não é diagonalizável,
pois:

−λ 1
= λ2 +1

p(λ ) =
−1 −λ

e este polinômio não tem raízes reais.

(b) O operador linear T : C4 −→ C4 , com C4 espaço vetorial sobre C, dado por

T (z1 , z2 , z3 , z4 ) = (z2 , −z1 , z3 + z4 , z4 )

não é diagonalizável, pois:




−λ 1 0 0

−1 −λ 0 0 = (λ − 1)2 (λ 2 + 1) = (λ − 1)2 (λ − i)(λ + i).

p(λ ) =
0 0 1−λ 1

0 0 0 1−λ

Logo, os autovalores de T são λ1 = 1, λ2 = i e λ3 = −i.


Como mA (i) = mA (−i) = 1, então mG (i) = mG (−i) = 1, assim devemos determinar mG (1).
    
−1 1 0 0 z1 0 
 −1  −z1 + z2 = 0
−1 0 0   z2
    0 

 0 ·  =   ⇐⇒ −z1 − z2 = 0 ⇐⇒ z1 = z2 = z4 = 0.
0 0 1   z3   0 
z4 = 0

0 0 0 0 z4 0

Portanto, V (1) = {(z1 , z2 , z3 , z4 ) ∈ C4 ; z1 = z2 = z4 = 0} = [(0, 0, 1, 0)].


Consequentemente, mG (1) = 1 < mA (1) e T não é diagonalizável.
7.4 Operadores Auto-Adjuntos 209

Vimos que nem todo operador linear é diagonalizável, se T é um operador linear de V um espaço
vetorial sobre C, sempre podemos encontrar uma base B tal que [T ]B = [ai j ] em que os elementos da
diagonal principal são os autovalores de T , os elementos a(i+1)i são iguais a 1 ou a zero e os demais
elementos da matriz são todos iguais a zero, esta é a chamada forma de Jordan do operador linear.

A matriz  
−1 0 0 0 0 0 0

 1 −1 0 0 0 0 0 


 0 0 3 0 0 0 0 


 0 0 0 7 0 0 0 


 0 0 0 0 2 0 0 

 0 0 0 0 1 2 0 
0 0 0 0 0 1 2
é uma matriz na forma de Jordan.

A forma de Jordan de um operador linear é um assunto avançado de Álgebra Linear que pode ser
encontrado, por exemplo, em [Coelho], [Lima] e [Lipschutz].
Bibliografia

[1] H. A NTON e C. RORRES. Álgebra Linear com Aplicações. 10ª edição, Bookman, São
Paulo, 2012.
[2] R. B. BAPAT. Linear Algebra and Linear Models. Third Edition. Springer, London, 2012.
[3] J. L. B OLDRINI, S. I.. R. C OSTA, V. L. F IGUEIREDO e H. G. W ETZLER. Álgebra Linear,
3ª edição, Editora Harbra, São Paulo, 1986.
[4] M. C ABRAL e P. G OLDFELD. Curso de Álgebra Linear: Fundamentos e
Aplicações. Instituto de Matemática, UFRJ, 3ª edição, 2012, disponível em
http://www.labma.ufrj.br/alglin/CursoAlgLin-livro-31-out-2012.pdf
[5] C. A. C ALLIOLI , H. I. D OMINGUES e R. C. F. C OSTA. Álgebra Linear e Aplicações. 6ª
edição, Atual Editora, São Paulo, 1990.
[6] F. U. C OELHO e M. L. L OURENÇO. Um Curso de Álgebra Linear. 2ª Edição, Edusp, São
Paulo, 2005.
[7] D. M. FARIAS , P. H. A. KONZEN e R. R. S OUZA. Álgebra
Linear, um Livro Colaborativo, UFRGS, 2018, disponível em
https://www.ufrgs.br/reamat/AlgebraLinear/livro/livro.pdf
[8] K. H OFFMAN e R. K UNZE. Linear Algebra, Second Edition. Prentice Hall Inc., New
Jersey, 1971.
[9] S. L ANG. Álgebra Linear. Editora Ciência Moderna, São Paulo, 2003.
[10] D. C. L AY, Álgebra Linear e suas Aplicações. 2ª edição, Editora LTC, 1999.
[11] E. L. L IMA. Álgebra Linear. 9ª Edição, Coleção Matemática Universitária, IMPA, Rio de
Janeiro, 2018.
[12] S. L IPSCHUTZ. Álgebra Linear. Coleção Schaum, Makron Books), São Paulo, 1994.
212 BIBLIOGRAFIA

[13] J. P ELLEGRINI. Álgebra Linear. UFABC, 2018, disponível em


http://aleph0.info/cursos/al/notas/al.pdf
[14] D. P OLLE, Álgebra Linear. Editora Pioneira Thompson Learning, São Paulo, 2004.
[15] P. P ULINO, Álgebra Linear. Notas de Aulas, UNICAMP, 2004, disponível em
http://www.ime.unicamp.br/∼pulino/ALESA/Texto/
[16] R. J. S ANTOS. Álgebra Linear e Aplicações. Imprensa Universitária da UFMG, Belo
Horizonte, 2002, disponível em http://www.mat.ufmg.br/∼regi/gaalt/gaalt2.pdf
[17] G. S CHAY, A Concise Introduction to Linear Algebra. Springer, New York, 2012.
[18] A. A. S ILVA. Introdução à Álgebra Linear. UFPB, João Pessoa, 2007, disponível em
http://www.mat.ufpb.br/jorge/arquivos/disciplinas/listas/LivroIAL
[19] J. L. S TEVEN, Álgebra Linear com Aplicações. 4ª Edição, Editora LTC, Rio de Janeiro,
1999.
[20] S. Z ANI. Álgebra Linear. ICMC USP, 2010, disponível em
http://conteudo.icmc.usp.br/pessoas/szani/alglin.pdf