Você está na página 1de 184

Universidade Federal de Bahia

Instituto de Matemática - IM
Departamento de Matemática - DMat

Anotações de Aula

MAT A07 - Álgebra Linear A

Professora: Simone Moraes

Salvador
Bahia - Brasil
Maio/2017

1
SUMÁRIO

1 Matrizes e Sistemas Lineares 4


1.1 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.1 Tipos de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.2 Operações com Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.3 Matrizes Simétricas, Anti-Simétricas e Ortogonais . . . . . . . . . . . 17
1.1.4 Matrizes Hermitianas, Anti-Hermitianas e Unitárias . . . . . . . . . . 21
1.2 Determinante de uma Matriz Quadrada . . . . . . . . . . . . . . . . . . . . . 26
1.2.1 Cálculo de Determinante de uma Matriz Quadrada de ordem 2 . . . . 27
1.2.2 Cálculo de Determinante de uma Matriz Quadrada de ordem 3 . . . . 28
1.2.3 Propriedades de Determinantes . . . . . . . . . . . . . . . . . . . . . 30
1.3 Inversa de uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.3.1 Matriz Adjunta e a Inversa . . . . . . . . . . . . . . . . . . . . . . . . 35
1.3.2 Propriedades da Matriz Inversa . . . . . . . . . . . . . . . . . . . . . 37
1.4 Operações Elementares sobre as Linhas de uma Matriz . . . . . . . . . . . . 38
1.4.1 Matriz Linha Equivalente . . . . . . . . . . . . . . . . . . . . . . . . 39
1.4.2 Matriz na Forma Escalonada . . . . . . . . . . . . . . . . . . . . . . . 39
1.4.3 Matriz na Forma Escalonada Reduzida ou na Forma Escada . . . . . 40
1.4.4 Matriz Inversa através de Operações Elementares . . . . . . . . . . . 41
1.5 Sistemas de Equações Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.5.1 Sistemas de Equações Lineares . . . . . . . . . . . . . . . . . . . . . . 44
1.5.2 Solução de um Sistema Linear . . . . . . . . . . . . . . . . . . . . . . 45
1.5.3 Classificação de Sistemas de Equações Lineares . . . . . . . . . . . . 46
1.5.4 Sistema Linear Homogêneo . . . . . . . . . . . . . . . . . . . . . . . . 47
1.5.5 Sistemas Equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . 47
1.5.6 Operações Elementares sobre as Equações de um Sistema Linear . . . 48
1.6 Resolução de Sistemas Lineares . . . . . . . . . . . . . . . . . . . . . . . . . 49
1.6.1 Métodos de Resolução de Sistemas Lineares . . . . . . . . . . . . . . 49
1.6.2 Teorema do Posto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

2
SUMÁRIO 3

2 Espaços Vetoriais 55
2.1 Espaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.1.1 Exemplos de Espaços Vetoriais . . . . . . . . . . . . . . . . . . . . . 56
2.2 Subespaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.3 Combinação Linear e Subespaço Gerado . . . . . . . . . . . . . . . . . . . . 72
2.4 Soma, Soma Direta e Intersecção de Subespaços . . . . . . . . . . . . . . . . 76
2.5 Dependência e Independência Linear . . . . . . . . . . . . . . . . . . . . . . 80
2.6 Base e Dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
2.7 Coordenadas de um Vetor . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
2.8 Matriz Mudança de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
2.9 Base Ortonormal e Base Ortogonal . . . . . . . . . . . . . . . . . . . . . . . 101
2.9.1 Produto Interno e Vetores Ortogonais . . . . . . . . . . . . . . . . . . 101
2.9.2 Norma e Vetores Ortonormais . . . . . . . . . . . . . . . . . . . . . . 106
2.9.3 Processo de Ortogonalização de Gram-Schmidt . . . . . . . . . . . . . 112

3 Transformações Lineares 115


3.1 Transformações Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
3.2 Matriz de uma Transformação Linear . . . . . . . . . . . . . . . . . . . . . . 120
3.3 Núcleo e Imagem de uma Transformação Linear . . . . . . . . . . . . . . . . 125
3.3.1 Teorema do Núcleo e da Imagem . . . . . . . . . . . . . . . . . . . . 129
3.4 Transformações Lineares Injetoras e Sobrejetoras . . . . . . . . . . . . . . . . 131
3.5 Inversa de uma Transformação Linear . . . . . . . . . . . . . . . . . . . . . . 133
3.5.1 Isomorfismo e Automorfismo . . . . . . . . . . . . . . . . . . . . . . . 134

4 Diagonalização de Operadores Lineares 141


4.1 Autovalor e Autovetor de um Operador Linear . . . . . . . . . . . . . . . . . 141
4.1.1 Autoespaço associado a um Autovalor . . . . . . . . . . . . . . . . . 143
4.2 Polinômio Caracterı́stico de um Operador Linear . . . . . . . . . . . . . . . . 146
4.2.1 Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
4.2.2 Polinômio Caracterı́stico de uma Matriz . . . . . . . . . . . . . . . . 148
4.3 Diagonalização de Operadores Lineares . . . . . . . . . . . . . . . . . . . . . 167
4.4 Operadores Auto-Adjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
4.5 Aplicação à Sistemas Dinâmicos Discretos . . . . . . . . . . . . . . . . . . . 179

Bibliografia 184
CAPÍTULO 1

MATRIZES E SISTEMAS
LINEARES

1.1 Matrizes
Definição 1.1. Uma matriz é uma tabela de elementos dispostos em linhas e colunas, em
geral esses elementos são entes matemáticos, tais como: números, funções, etc.

Representamos uma matriz de m linhas e n colunas, denotada por A ou por Am×n , da


seguinte maneira:
   
a11 a12 · · · a1n a11 a12 · · · a1n
 a21 a22 · · · a2n   a21 a22 · · · a2n 
A= ou A= .
   
.. .. ... ..  .. .. ... ..
 . . .   . . . 
am1 am2 · · · amn am1 am2 · · · amn

Observações:

1. Cada elemento de uma matriz A é também chamado uma entrada de A.

2. O elemento aij ∈ A está localizado na i-ésima linha e na j-ésima coluna de A, por


exemplo a32 é o elemento da terceira linha e da segunda coluna.

3. Além da notação acima também utilizamos:

A = [aij ]m×n ou A = (aij )m×n ou A = (aij ), com 1 ≤ i ≤ m e 1 ≤ j ≤ n.

A tabela abaixo representa as distâncias entre as capitais do norte do pais indicadas (em
quilometros):

4
CAP. 1 • MATRIZES E SISTEMAS LINEARES 5

Belém Boa Vista Macapá Manaus Porto Velho Rio Branco

Belém 0 1432 329 1292 1886 2333


Boa Vista 1432 0 1110 661 1335 1626
.
Macapá 329 1110 0 1054 1724 2159
Manaus 1292 661 1054 0 761 1149
Porto Velho 1886 1335 1724 761 0 449
Rio Branco 2333 1626 2159 1149 449 0

Em forma de matriz essas distâncias podem ser representadas por:


 
0 1432 329 1292 1886 2333

 1432 0 1110 661 1335 1626 
329 1110 0 1054 1724 2159 
 
.

1292 661 1054 0 761 1149 


 
 1886 1335 1724 761 0 449 
2333 1626 2159 1149 449 0

Ordem de uma Matriz

Uma matriz A de m linhas e n colunas é chamada matriz de ordem m por n e indicada


por m × n.

Exemplos:
 
1. A = 5 é uma matriz de ordem 1 × 1

−1 3 31
 
0
2. A =  4 −7 1 2  é uma matriz de ordem 3 × 4.
5 6 −3 0
 
0 2 −5
3. A = é uma matriz de ordem 2 × 3.
−3 7 5
 
1 −1
3 7 
 
4. A =   é uma matriz de ordem 4 × 2.

 0 2 
−4 −3
SEÇÃO 1.1 • MATRIZES 6

Observações:

1. O conjunto de todas matrizes de ordem m × n com entradas números reais é denotado


por Mm×n (IR), ou seja,

Mm×n (IR) = A = [aij ]m×n ; aij ∈ IR para todo i e todo j .

2. Analogamente, o conjunto de todas matrizes de ordem m × n com entradas números


complexos é dado por

Mm×n (C) = A = [aij ]m×n ; aij ∈ C para todo i e todo j .

Matriz Quadrada

Uma matriz A com n linhas e n colunas é chamada matriz quadrada de ordem n.

Observação: Uma matriz A é quadrada se, e somente se, o número de linhas de A é igual
ao número de colunas de A.

Exemplos:
 
3 5
1. A = é uma matriz quadrada de ordem 2.
−1 8

0 −2
 
5
2. A =  12 1 −4  é uma matriz quadrada de ordem 3.
10 −9 7
 
2 1 −1 1
−3 3 1 −1 
 
3. A =   é uma matriz quadrada de ordem 4.

 0 1 4 0 
1 −1 2 3

Observações:

1. O conjunto de todas matrizes quadradas de ordem com entradas números reais é de-
notado por Mn (IR).
n o
Assim, Mn (IR) = A = [aij ]n×n ; aij ∈ IR com 1 ≤ i, j ≤ n .
n o
2. Analogamente, Mn (C) = A = [aij ]n×n ; aij ∈ C com 1 ≤ i, j ≤ n .
CAP. 1 • MATRIZES E SISTEMAS LINEARES 7

Matriz Linha e Matriz Coluna


Uma matriz que tem uma única linha é chamada matriz linha, enquanto que uma
matriz que tem uma única coluna é chamada matriz coluna.
Exemplos:
   
1. A = 6 −5 11 4 3 e B = −3 5 −1 8 9 são matrizes linha.
 
5  
1
 −1 
 
2. A =  e B =  −1  são matrizes coluna.
 8 

2
−4

Matriz Definida por uma Fórmula


Uma matriz pode ser definida em termos de uma fórmula envolvendo seus ı́ndices, neste
caso a ordem da matriz deve ser dada.
Exemplos:

0, se i 6= j
1. Determine a matriz A = [aij ] quadrada de ordem 4 tal que: aij =
1, se i = j.
Neste caso, temos:
   
a11 a12 a13 a14 1 0 0 0
a21 a22 a23 a24 0 1 0 0
   
A= = .
   
 a31 a32 a33 a34   0 0 1 0 
a41 a42 a43 a44 0 0 0 1

2. A matriz A de ordem 3 × 4 dada pela fórmula

3i − j 2 , se

i>j−1
aij =
i + 3j, se i≤j−1

é a matriz:  
2 7 10 13
A =  5 2 11 14  .
8 5 0 15

Igualdade de Matrizes
Duas matrizes A = [aij ] e B = [bij ] são iguais se, e somente se,

(i) A e B têm a mesma ordem.

(ii) aij = bij para todo i e para todo j.


SEÇÃO 1.1 • MATRIZES 8

   
1 −1 2 a −1 b
Exemplo: Sejam as matrizes A = eB= , ambas de ordem
3 4 7 a + b b2 7
2 × 3. 

 a = 1
 
b = 2 a=1

As matrizes A e B são iguais se, e somente se, ⇐⇒ .

 a+b = 3 b=2
b2

 = 4

1.1.1 Tipos de Matrizes


Matriz Nula
Uma matriz nula é uma matriz em que todas as entradas é o número zero. A matriz
nula de ordem m × n é indicada por 0m×n .
 
0 0
 0 0 
 
Exemplo: A matriz nula de ordem 4 × 2 é a seguinte: 04×2 =  .
 0 0 
0 0

Dentre as matrizes quadradas temos alguns tipos especiais que descreveremos a con-
tinuação. Antes porém vamos definir diagonal principal e diagonal secundária de uma matriz
quadrada.
Definição 1.2. Seja A uma matriz quadrada de ordem n,
···
 
a11 a12 a1(n−1) a1n
 a21
 a22 ··· a2(n−1) a2n 

A= .
.. .
.. . .. .
.. ..
,
 
 . 
 a(n−1)1 a(n−1)2 · · · a(n−1)(n−1) a(n−1)n 
an1 an2 ··· an(n−1) ann
os elementos aij com i = j constituem a diagonal principal de A. Enquanto que os
elementos aij com i + j = n + 1 constituem a diagonal secundária de A.

Observação: Pela definição acima a diagonal principal de uma matriz quadrada A é cons-
tituı́da pelos elementos
a11 , a22 , · · · , ann ,
e a diagonal secundária de A é constituı́da pelos elementos
a1n , a2(n−1) , · · · , a(n−1)2 , an1 .
Na matriz A a seguir:
···
 
a11 a12 a1(n−1) a1n

 a21 a22 ··· a2(n−1) a2n 

A= .. .. .. .. ..
.
 
 . . . . 

 a(n−1)1 a(n−1)2 · · · a(n−1)(n−1) a(n−1)n 
an1 an2 ··· an(n−1) ann
CAP. 1 • MATRIZES E SISTEMAS LINEARES 9

os elementos em azul constituem a diagonal principal, enquanto que os em vermelho consti-


tuem a diagonal secundária.

Matriz Diagonal
Uma matriz A = [aij ] quadrada de ordem n é chamada matriz diagonal se, e somente
se, os elementos aij = 0 sempre que i 6= j, ou seja,

···
 
a11 0 0 0

 0 a22 0 ··· 0 

A=
 0 0 a33 ··· 0 .

 .. .. .. ... .. 
 . . . . 
0 0 0 · · · ann

Observação: Uma matriz quadrada A é diagonal se, e somente se, os elementos externos à
diagonal principal são todos iguais a zero.
 
2 0 0 0
 0 3 0 0 
 
Exemplo: A =   é uma matriz diagonal.
 0 0 −1 0 
0 0 0 5

Matriz Escalar
Uma matriz diagonal de ordem n é chamada matriz escalar se, e somente se, os
elementos da diagonal principal são todos iguais.
Exemplo: As matrizes abaixo são matrizes escalares:
 
7 0 0 0
−2
 
  0 0
3 0 0 7 0 0
 
A= , B= 0 −2 0  e C= .
 
0 3 0 0 7 0
0 −2
 
0
0 0 0 7

Matriz Identidade
A matriz identidade de ordem n, indicada por In , é a matriz diagonal de ordem n em
que os elementos da diagonal principal são todos iguais a 1.
 
1 0
1. I2 = é uma matriz identidade de ordem 2.
0 1
 
1 0 0
2. I3 =  0 1 0  é uma matriz identidade de ordem 3.
0 0 1
SEÇÃO 1.1 • MATRIZES 10

 
1 0 0 0
0 1 0 0
 
3. I4 =   é uma matriz identidade de ordem 4.
 
 0 0 1 0 
0 0 0 1

Matriz Triangular Superior

Uma matriz A = [aij ] quadrada de ordem n é chamada matriz triangular superior


se, e somente se, aij = 0 sempre que para i > j, ou seja,

· · · a1n
 
a11 a12 a13

 0 a22 a23 · · · a2n 

A=
 0 0 a33 · · · a3n 
.
 .. .. .. .. .. 
 . . . . . 
0 0 0 · · · ann

Observação: Uma matriz quadrada A é triangular superior se, e somente se, os elementos
abaixo da diagonal principal são todos iguais a zero.
 
1 −5 0 7
0 4 2 −1
 
Exemplo: A =   é uma matriz triangular superior.
 
 0 0 0 3 
0 0 0 −2

Matriz Triangular Inferior

Uma matriz A = [aij ] quadrada de ordem n é chamada matriz triangular inferior se,
e somente se, aij = 0 sempre que para i < j, ou seja,

···
 
a11 0 0 0

 a21 a22 0 ··· 0 

A=
 a31 a32 a33 ··· 0 .

 .. .. .. .. .. 
 . . . . . 
an1 an2 an3 · · · ann

Observação: Uma matriz quadrada A é triangular inferior se, e somente se, os elementos
acima da diagonal principal são todos iguais a zero.
 
8 0 0
Exemplo: A =  −1 3 0  é uma matriz triangular inferior.
5 −2 1
CAP. 1 • MATRIZES E SISTEMAS LINEARES 11

1.1.2 Operações com Matrizes


No que segue consideraremos IF = IR ou IF = C.

Adição de Matrizes
Definição 1.3. Sejam A e B matrizes em Mm×n (IF ), a soma de A e B, denotada por A+B,
é a matriz em Mm×n (IF ) cujos elementos são as somas dos elementos correspondentes de A
e B, ou seja, se
   
a11 a12 · · · a1n b11 b12 · · · b1n
 a21 a22 · · · a2n   b21 b22 · · · b2n 
A= . e B= . ..  ,
   
. .. . . ..  . .. . .
 . . . .   . . . . 
am1 am2 · · · amn bm1 bm2 · · · bmn
então  
a11 + b11 a12 + b12 ··· a1n + b1n
 a21 + b21 a22 + b22 ··· a2n + b2n 
A+B = .
 
.. .. .. ..
 . . . . 
anm1 + bm1 am2 + bm2 · · · amn + bmn
  
−3 8 5 2 1 −3 11 −8
Exemplo: Sejam A = e B= , então
4 −5 9 −72×4
2 9 −1 7 2×4
   
−3 + 1 8 + (−3) 5 + 11 2 + (−8) −2 5 16 −6
A+B = = .
4+2 −5 + 9 9 + (−1) −7 + 7 6 4 8 0

Propriedades da Adição
Sejam A, B e C matrizes em Mm×n (IF ) e 0m×n a matriz nula de ordem m × n, valem:
A1 ) A + B = B + A, propriedade comutativa.

A2 ) (A + B) + C = A + (B + C), propriedade associativa.

A3 ) A + Om×n = A, propriedade existência de elemento neutro.

Essas propriedades seguem diretamente da propriedades da adição de números e da igual-


dade de matrizes.

Multiplicação de uma Matriz por um Escalar


Definição 1.4. Sejam A uma matriz em Mm×n (IF ) e κ um número em IF , a multiplicação
de A pelo escalar κ, denotado por κ · A, é a matriz em Mm×n (IF ) cujos elementos são os
produtos de κ pelos elementos correspondentes de A, ou seja, se
   
a11 a12 · · · a1n κ · a11 κ · a12 · · · κ · a1n
 a21 a22 · · · a2n   κ · a21 κ · a22 · · · κ · a2n 
A= . , então κ · A = .
   
.. .. ..  .. .. .. ..
 ..

. . .   . . . . 
am1 am2 · · · amn κ · am1 κ · am2 · · · κ · amn
SEÇÃO 1.1 • MATRIZES 12

 
5 8 −4
0 −7 10 
 
Exemplo: Sejam A =  e κ = 4, então

−6 3 2 


9 5 4 4×3
   
4×5 4×8 4 × (−4) 20 32 −16
4×0 4 × (−7) 4 × 10 0 −28 40 
   
κ · A = 4A =  = .
  
 4 × (−6) 4×3 4×2   −24 12 8 
4×9 4×5 4×4 36 20 16

Propriedades da Multiplicação por Escalar


Sejam A e B matrizes em Mm×n (IF ) e κ e λ números em IF , valem:

M E1 ) κ · (A + B) = κ · A + κ · B.

M E2 ) (κ + λ) · A = κ · A + λ · A.

0 ·A = Om×n .
M E3 ) |{z}
número

M E4 ) 1 · A = A.

M E5 ) (κ · λ) · A = κ · (λ · A).

Essas propriedades seguem diretamente da propriedades da multiplicação em IF e da


igualdade de matrizes.
Observação:
Dada uma matriz A em Mm×n (IF ), a matriz −1 · A, indicada por −A é chamada matriz
oposta de A, logo
−A = [cij ]m×n , tal que cij = −aij .
A matriz −A é o elemento simétrico de A em relação à operação adição.
De fato,
A + (−A) = [bij ]m×n , com bij = aij + (−aij ) = 0.
Portanto, A + (−A) = 0m×n é a matriz nula de ordem m × n.

Multiplicação de Matrizes

Definição 1.5. Sejam A = [aij ] e B = [bij ] matrizes em Mm×k (IF ) e em Mk×n (IF ), respec-
tivamente, a multiplicação de A por B, denotada por A · B, é a matriz em Mm×n (IF ):
k
X
A·B = [cij ], cujos elementos são da forma cij = ai1 b1j +ai2 b2j +· · ·+aik bkj = aip bpj .
p=1
CAP. 1 • MATRIZES E SISTEMAS LINEARES 13

Observações:

1. De acordo com a definição acima temos, por exemplo:

c11 = a11 b11 + a12 b21 + · · · + a1k bk1 e c12 = a11 b12 + a12 b22 + · · · + a1k bk2 .

2. A equação que define os elementos de A · B nos diz que o elemento cij desta matriz,
localizado na i-ésima linha e j-ésima coluna, é obtido através da soma de todos os
produtos de cada elemento da i-ésima linha de A pelo elemento correspondente da
j-ésima coluna de B, ou seja, se
 
a11 a12 · · · a1k
 a21 a22 · · · a2k   
  b11 b12 · · · b1j · · · b1n
 .. .. .. ..   b21 b22 · · · b2j · · · b2n 
 . . . . 
A= e B= . ,
 
 
. .
. .
. .
. .
. .
.
 ai1 ai2 · · · aik 

  . . . . . . 
 .. .. .. .. 
 . . . .  bk1 bk2 · · · bkj · · · bkn k×n
am1 am2 · · · amk m×k

então

j-ésima coluna

 
c11 c12 ··· c1j ··· c1n

 c21 c22 ··· c2j ··· c2n 

 .. .. .. .. .. ..  = A·B,

 . . . . . . 

 ci1 ci2 ··· cij ··· cin 
i-ésima linha → 
 .. .. .. ..

 . . ··· . ··· .


.. ..
cm1 cm2 . cmj . cmn m×n

k
X
com cij = ai1 b1j + ai2 b2j + · · · + aik bkj = aip bpj .
p=1

 
−1 7 −5  
3 6
2 −3 8 
 
Exemplo: Sejam as matrizes A =  e B =  −5 4  , então o

5 1 3 


1 2 3×2
0 2 9 4×3
produto de A por B é a matriz
   
(−1) × 3 + 7 × (−5) + (−5) × 1 (−1) × 6 + 7 × 4 + (−5) × 2 −43 12
 2 × 3 + (−3) × (−5) + 8 × 1 2 × 6 + (−3) × 4 + 8 × 2 29 16
   
A·B =  = .
  
5 × 3 + 1 × (−5) + 3 × 1 5×6+1×4+3×2 13 40

   
0 × 3 + 2 × (−5) + 9 × 1 0×6+2×4+9×2 −1 26 4×2
SEÇÃO 1.1 • MATRIZES 14

Observação: Sejam A e B matrizes, o produto A · B está definido apenas quando o número


de colunas A é igual ao número de linhas de B.
Logo, se A · B está definida nem sempre ocorrerá o mesmo para B · A, e mesmo quando
A · B e B · A estiverem definidas podemos ter A · B 6= B · A.

Exemplos:


  1  
−1 5 2 −4
1. Sejam A = e B =  −3  , então A · B = , note que
7 0 4 31 2×1
2×3 6 3×1
não está definida B · A, pois:
número de colunas de B = 1 6= número de linhas de A = 2.

4 −1
 
   
3 0 1 6 0
2. Sejam A = eB=  5 2  , então A · B = .
−2 4 7 2×3 −30 31 2×2
−6 3 3×2
14 −4 −3
 

No entanto, B ·A =  11 8 19  , ou seja, A·B e B ·A têm ordens diferentes,


−24 12 15 3×3
logo são diferentes.
   
4 0 5 7
3. Sejam A = eB= , então
6 −3 2×2 3 −4 2×2
   
20 28 62 −2
A·B = e B·A= ,
21 54 2×2
−12 12 2×2

neste caso A · B e B · A têm a mesma ordem, mas são diferentes.

Propriedades da Multiplicação

M1 ) Se A é uma matriz em Mm×n (IF ), então:

(a) A · In = Im · A = A.
(b) A · 0n×l = 0m×l e 0l×m · A = 0l×n .

M2 ) Sejam A ∈ Mm×p (IF ), B ∈ Mp×k (IF ) e C ∈ Mk×n (IF ) matrizes, então:


 
Am×p · Bp×k m×k
· Ck×n = Am×p · Bp×k · Ck×n p×n
,

propriedade associativa.

M3 ) (a) Sejam A em Mm×k (IF ), B e C em Mk×n (IF ), então:

A · (B + C) = A · B + A · C.
CAP. 1 • MATRIZES E SISTEMAS LINEARES 15

(b) Sejam A e Bm×k em Mm×k (IF ) e C em Mk×n (IF ), temos:

(A + B) · C = A · C + B · C,

propriedade distributiva.

M4 ) Sejam A em Mm×kn (IF ) e B em Mk×n (IF ) e κ um número em IF , então:

κ · (A · B) = (κ · A) · B = A · (κ · B).

Essas propriedades seguem diretamente da propriedades da multiplicação de números e


da igualdade de matrizes.

Observações:

1. Dada uma matriz quadrada A em Mn (IF ) a k-ésima potência de A, com k ∈ IN ∗ ,


denotada por Ak , é o produto de A por A k-vezes, ou seja

Ak = A
| · A ·{z· · · · A} .
k vezes

2. Se E é uma matriz escalar e A matriz quadrada, ambos em Mn (IF ), então

E · A = A · E.

De fato, seja E a matriz escalar em Mn (IF ) cujos elementos da diagonal principal são
todos iguais a d ∈ IF e A = [aij ], então

E · A = [bij], com bij = d × aij e = A · E = [cij], com cij = aij × d.

Transposta de uma Matriz

A transposta de uma matriz A = [aij ] em Mm×n (IF ), denotada por AT , é a matriz


cujas respectivas linhas são as respectivas colunas de A, ou seja,

AT = [bij ] tal que bij = aji .

É claro que a ordem de AT é n × m.


   
a11 a12 · · · a1n a11 a21 · · · am1
 a21 a22 · · · a2n   a12 a22 · · · am2 
Observação: Se A =  . , então AT =  .
   
.. .. .. .. .. .. ..
 ..
 
. . .   . . . . 
am1 am2 · · · amn m×n
a1n a2n · · · amn n×m
SEÇÃO 1.1 • MATRIZES 16

Propriedades da Transposta
Segue diretamente da definição de transposta que se A e B são matrizes em Mm×n (IF ),
C é uma matriz em Mn×k (IF ) e κ um número em IF , então valem as seguintes propriedades:

T1 ) (AT )T = A.

T2 ) (A + B)T = AT + B T .

T3 ) (κ · A)T = κ · AT .
 T   
T4 ) Am×n · Cn×k = (C T )k×n · (AT )n×m .
k×m k×m

Traço de uma Matriz

Seja A uma matriz quadrada em Mn (IF ) o traço de A, denotado por tr(A), é o número
dado pela soma dos elementos da diagonal principal de A.
Assim, se A = [aij ]n×n , então

tr(A) = a11 + a22 + · · · + ann .

Propriedades do Traço
Segue diretamente da definição de traço de uma matriz quadrada, que dadas A e B
matrizes quadradas em Mn (IF ) e κ um número em IF valem:

T R1 ) tr(A) = tr(AT ).
De fato, uma matriz quadrada e sua transposta têm a mesma diagonal principal.

T R2 ) tr(A + B) = tr(A) + tr(B).


De fato, a diagonal principal da soma de duas matrizes quadradas é a soma das dia-
gonais principais de cada uma das matrizes.

T R3 ) tr(κ · A) = κ · tr(A).
De fato, a diagonal principal da matriz κ · A é a soma dos elementos da diagonal
principal de A previamente multiplicados por κ.

T R4 ) tr(A · B) = tr(A · B).


De fato, sejam A = [aij ] ∈ Mm×n (IF ) e B = [bij ]inMn×m (IF ), então:
n
X
A · B = [cij ] ∈ Mm (IF ), com cij = aik bkj , para 1 ≤ i, j ≤ m;
k=1

m
X
B · A = [dij ] ∈ Mn (IF ), com dij = bik akj , para 1 ≤ i, j ≤ n.
k=1
CAP. 1 • MATRIZES E SISTEMAS LINEARES 17

Logo,

tr(A · B) = c11 + c22 + · · · + cmm


= a11 b11 + a12 b21 + · · · + a1n bn1 + a21 b12 + a22 b22 + · · · + a2n bn2 + · · · +
am1 b1m + am2 b2m + · · · + amn bnm
= b11 a11 + b12 a21 + · · · + b1m am1 + b21 a12 + b22 a22 + · · · + b2m am2 + · · · +
bn1 a1n + bn2 a2n + · · · + bnm amn
= d11 + d22 + · · · + dnn = tr(B · A).

1.1.3 Matrizes Simétricas, Anti-Simétricas e Ortogonais


Matriz Simétrica

Uma matriz quadrada A em Mn (IR) é simétrica se, e somente se, para todo i e para
todo j os elementos aij e aji coincidem, ou seja, aij = aji .

Observação: Uma matriz A = [aij ] em Mn (IR) é simétrica, se e somente se,

· · · a1n
 
a11 a12 a13

 a12 a22 a23 · · · a2n 

A=
 a13 a23 a33 · · · a3n 
,
 .. .. .. .. .. 
 . . . . . 
a1n a2n a3n · · · ann

ou seja, se e somente A coincide com sua transposta.


Logo, A ∈ Mn (IR) é simétrica se, e somente se, A = AT .

 
3 −2 7 1
−2 5 3 0
 
Exemplo: A =   é uma matriz simétrica, pois
 
 7 3 −4 1 
1 0 1 −6
 
3 −2 7 1
−2 5 3 0
 
T
A =  = A.
 
 7 3 −4 1 
1 0 1 −6

Matriz Anti-Simétrica

Uma matriz quadrada A em Mn (IR) é anti-simétrica se, e somente se, para todo i e
para todo j os elementos aij e aji são opostos, ou seja, aij = −aji .
SEÇÃO 1.1 • MATRIZES 18

Observações:
1. Uma matriz A = [aij ] ∈ Mn (IR) é anti-simétrica, se e somente se,

a13 · · · a1n
 
0 a12
 −a12 0 a23 · · · a2n 
 
 −a −a 0 · · · a
A= 3n  ,

13 23
 . .. .. . . . .. 
 .. . . . 
−a1n −a2n −a3n · · · 0
ou seja, se e somente A coincide com a oposta de sua transposta.
Logo, A ∈ Mn (IR) é anti-simétrica se, e somente se, A = −AT .

2. A diagonal de uma matriz anti-simétrica é nula, pois os elementos devem satisfazer


aii = −aii ⇐⇒ aii = 0.
 
0 4 5 −9
 −4 0 −7 11 
 
Exemplo: A =   é uma matriz anti-simétrica, pois
 −5 7 0 4 
9 −11 −4 0
   
0 −4 −5 9 0 4 5 −9
 4 0 7 −11   −4 0 −7 11 
   
−AT = −  =  = A.
 5 −7 0 −4   −5 7 0 4 
−9 11 4 0 9 −11 −4 0

Proposição 1.6. Se A é uma matriz em Mn (IR), então:


1
(i) A matriz (A + AT ) é simétrica.
2
1
(ii) A matriz (A − AT ) é anti-simétrica.
2
(iii) Toda matriz quadrada real é a soma de uma matriz simétrica com uma matriz anti-
simétrica.
Demonstração: Seja A uma matriz quadrada real então temos:
 T
1 T 1 T  1 1
(i) (A + A ) = A + (A ) = (A + AT ), portanto (A + AT ) é simétrica.
T T
2 2 2 2
 T
1 T 1 T  1  1 1
(ii) (A − A ) = A − (AT )T = AT − A = − (A − AT ), portanto (A − AT )
2 2 2 2 2
é anti-simétrica.
1  1 1
(iii) A = A + A + AT − AT = (A + AT ) + (A − AT ).
2 |2 {z } |2 {z }
simétrica anti-simétrica
CAP. 1 • MATRIZES E SISTEMAS LINEARES 19

Matriz Normal Real

Uma matriz quadrada A em Mn (IR) é normal se, e somente se,

A · AT = AT · A,

ou seja, se e somente se, o produto de A por sua transposta AT é comutativo.


3 1 −5
 

Exemplo: A =  −1 3 −2  é uma matriz real normal, pois


5 2 3

3 1 −5 3 −1 5
     
35 10 2
A · AT =  −1 3 −2  ·  1 3 2  =  10 14 −5 
5 2 3 −5 −2 3 2 −5 38

3 −1 5 3 1 −5
   

=  1 3 2  ·  −1 3 −2  = AT · A.
−5 −2 3 5 2 3

Observações:

1. Toda matriz simétrica é matriz normal, pois

A=AT A=AT
A · AT = A · A = AT · A.

2. Toda matriz anti-simétrica é matriz normal, pois

AT =−A A=−AT
A · AT = A · (−A) = (−AT ) · (−A) = AT · A.

3. Se A é matriz quadrada em Mn (IR) que é a soma de uma matriz anti-simétrica e uma


matriz escalar, então A é matriz normal.
De fato, suponhamos que A = E + S, com E matriz escalar e S matriz anti-simétrica,
então:
E T =E, S T =−S
A · AT = (E + S) · (E + S)T = (E + S) · (E T + S T ) = (E + S) · (E − S)
2 ES=SE
= E2 + S · E − E · S − S = E 2 − S 2.

Analogamente, AT · A = E 2 − S 2 .
Portanto, A é normal.
SEÇÃO 1.1 • MATRIZES 20

Matriz Ortogonal

Uma matriz quadrada A em Mn (IR) é ortogonal se, e somente se, A · AT = In .


Exemplos: Mostre que as matrizes
 abaixo são ortogonais:
cos θ −sen θ
1. A = com θ ∈ [0, 2π);
sen θ cos θ
 
1
 1 1 1
 − 12 1 1

2

6
− √
3
2 2 2
 12 1 1
− 21
 
2. A =  0 √2 √1 ; 3. A = 2 2
.
  
6 3 1 1 1 1


√1 − √16 √1 2 2 2 2
 
1 1
2 3
2 2
− 21 2
1

Solução:
   
T cos θ −sen θ cos θ sen θ
A·A = ·
sen θ cos θ −sen θ cos θ
1.  2 2
  
cos θ + sen θ cos θ sen θ − sen θ cos θ 1 0
= = .
cos θ sen θ − sen θ cos θ sen2 θ + cos2 θ 0 1
Portanto, A é ortogonal.
 1 1
  

2

6
− √13 √1
2
0 √1
2
A · AT =  0 √2 √1 · √1 √2 − √16
   
6 3 6 6 
√1 − √16 √1 √1 √1 √1
2 3 3 3 3
2.
1
+ 61 + 1 2
− 31 1
− 61
   
2 3 6 2
1 0 0
2
=  6
− 31 4
6
+ 13 − 26 + 31  =  0 1 0  .
1
2
− 61 − 1
3
− 62 + 31 1
2
+ 61 + 13 0 0 1
Portanto, A é ortogonal.
   
1
2
− 12 1
2
1
2 2
1 1
2
− 12 2
1
 1 1 1
− 12 − 21 1 1 1
  
A · AT =  21 2 2
· 2 2 2
   
1 1 1 1 1 1
 −2 − 21

2 2 2 2 2 2
  
1 1
2 2
− 12 1
2 2
1
− 12 1
2 2
1

 
1 1 1 1 1
4
+ 4
+ 4
+ 4 4
+ 14 − 1
4
− 1
4
− 41 − 14 + 1
4
+ 1
4
1
4
− 14 − 1
4
+ 1
4
1 1 1 1 1
− + − + 14 + 1
+ 1
− 41 + 14 + 1
− 1 1
+ 14 − 1
− 1
 
3. = 
 4 4 4 4 4 4 4 4 4 4 4 4 
− 14 − 1
+ 1
+ 1 1
+ 14 − 1
− 1 1
+ 41 + 1
+ 1
− 41 + 14 − 1
+ 1 
4 4 4 4 4 4 4 4 4 4 4
 
1 1 1 1 1
4
− 4
− 4
+ 4 4
+ 14 − 1
4
− 1
4
− 41 + 14 − 1
4
+ 1
4
1
4
+ 41 + 1
4
+ 1
4

 
1 0 0 0
0 1 0 0
 
=  .
 
 0 0 1 0 
0 0 0 1
Portanto, A é ortogonal.
CAP. 1 • MATRIZES E SISTEMAS LINEARES 21

Proposição 1.7. Se A ∈ M2 (IR) é uma matriz ortogonal, então:


   
cos θ sen θ cos θ −sen θ
A= ou A=
sen θ − cos θ sen θ cos θ

para algum θ ∈ [0, 2π).


 
a b
Demonstração: Se A = ∈ M2 (IR) é uma matriz ortogonal, então
c d
     
T a b a c 1 0
A · A = I2 ⇐⇒ · =
c d b d 0 1
 2 2
 2 2
    a +b =1
a + b ac + bd 1 0
⇐⇒ = ⇐⇒ c2 + d 2 = 1 .
ac + bd c2 + d2 0 1 
ac + bd = 0
Como a2 + b2 = 1 existe θ ∈ [0, 2π) tal que a = cos θ e b = sen θ, da mesma maneira
como c2 + d2 = 1 existe φ ∈ [0, 2π) tal que c = cos φ e d = sen φ.
Assim, a equação ac + bd = 0 pode ser escrita como

cos θ cos φ + sen θ sen φ = 0 ⇐⇒ cos(φ − θ) = 0


π π
⇐⇒ φ − θ = + kπ, com k ∈ ZZ ⇐⇒ φ = θ + + kπ, com k ∈ ZZ.
2 2
Logo,
 !
π
cos φ = cos θ + + kπ = ∓sen θ
2
 !
π
sen φ = sen θ+ + kπ = ± cos θ.
2
Portanto,    
cos θ sen θ cos θ −sen θ
A= ou A=
sen θ − cos θ sen θ cos θ
para algum θ ∈ [0, 2π).

1.1.4 Matrizes Hermitianas, Anti-Hermitianas e Unitárias


Conjugada Transposta de uma Matriz Complexa
Seja A = [aij ] uma matriz em Mm×n (C), a matriz conjugada de A, indicada por
A = [aij ] é matriz cujos elementos são os respectivos conjugados dos elementos de A.
A conjugada transposta de uma matriz complexa A = [aij ] ∈ Mm×n (C), denotada por

A , é a matriz cujas respectivas linhas são as respectivas colunas de A, ou seja,

A∗ = [bij ] tal que bij = aji .

É claro que a ordem de A∗ está em Mn×m (C).


SEÇÃO 1.1 • MATRIZES 22

   
a11 a12 · · · a1n a11 a21 · · · am1
 a21 a22 · · · a2n 

 a12 a22 · · · am2 
Observação: Se A =  , então A =  .
   
.. .. .. ..  .. .. .. .. 
 . . . .   . . . . 
am1 am2 · · · amn m×n
a1n a2n · · · amn n×m

Propriedades da Conjugada Transposta


Segue diretamente da definição de transposta que para A e B matrizes em Mm×n (C), C
matriz em Mn×k (C) e κ um número complexo valem as seguintes propriedades:

CT1 ) (A∗ )∗ = A.

CT2 ) (A + B)∗ = A∗ + B ∗ .

CT3 ) (κ · A)∗ = κ · A∗ .

CT4 ) (A · C)∗ = C ∗ · A∗ .

Matriz Hermitiana

Uma matriz quadrada A em Mn (C) é hermitiana se, e somente se, para todo i e para
todo j o elemento aij e o conjugado de aji coincidem, ou seja, aij = aji .
Portanto, A é hermitiana, se e somente se, A = A∗ .

Observações:

1. Uma matriz A = [aij ] quadrada em Mn (C) é hermitiana, se e somente se,

· · · a1n
 
a11 a12 a13

 a12 a22 a23 · · · a2n 

A=
 a13 a23 a33 · · · a3n 
,
 .. .. .. . . . .. 
 . . . . 
a1n a2n a3n · · · ann

T
ou seja, se e somente se, A coincide com sua conjugada transposta, ou seja, A = A ,
com A a matriz conjugada de A.

2. A diagonal de uma matriz hermitiana A = [aij ] é constituı́da apenas por números reais.

De fato, pois os elementos akk de A devem satisfazer:



ak = ak
akk = akk ⇐⇒ ak +bk i = ak + bk i ⇐⇒ ak +bk i = ak −bk i ⇐⇒ ⇐⇒ bk = 0.
bk = −bk
CAP. 1 • MATRIZES E SISTEMAS LINEARES 23

1 − 2i
 
3 i
Exemplo: A =  1 + 2i 5 2 − i  é uma matriz hermitiana, pois
−i 2 + i −6

T
1 − 2i

3 i
T
A∗ = A =  1 + 2i 5 2−i 
−i 2 + i −6

T 
1 + 2i −i 1 − 2i
 
3 3 i
=  1 − 2i 5 2 + i  =  1 + 2i 5 2 − i  = A.
i 2 − i −6 −i 2 + i −6

Matriz Anti-Hermitiana

Uma matriz quadrada A em Mn (C) é anti-hermitiana se, e somente se, para todo i e
para todo j os elementos aij e aji são opostos, ou seja, aij = −aji .
Portanto, A é anti-hermitiana, se e somente se, A = −A∗ .

Observações:

1. Uma matriz A = [aij ] quadrada em Mn (C) é anti-hermitiana, se e somente se,

· · · a1n
 
0 a12 a13

 −a12 0 a23 · · · a2n 

A=
 −a13 −a23 0 · · · a3n 
,
 .. .. .. .. .. 
 . . . . . 
−a1n −a2n −a3n ··· 0

ou seja, se e somente se, A coincide com a oposta de sua conjugada transposta, ou seja,
T
A = −A .

2. A diagonal de uma matriz anti-hermitiana A+[aij é constituı́da por imaginários puros.

De fato, os elementos akk da diagonal principal devem satisfazer:

akk = −akk ⇐⇒ ak + bk i = −(ak + bk i) ⇐⇒ ak + bk i = −(ak − bk i) ⇐⇒


ak = −ak
ak + bk i = −ak + bk i ⇐⇒ ⇐⇒ ak = 0.
bk = bk
SEÇÃO 1.1 • MATRIZES 24

2 − 3i 3 + i
 
2i
Exemplo: A =  −2 − 3i −i −1 + 4i  é uma matriz anti-hermitiana, pois
−3 + i 1 + 4i 5i

T  T
2 − 3i 3 + i −2i 2 + 3i 3 − i

2i
T
A∗ = A =  −2 − 3i −i −1 + 4i  =  −2 + 3i i −1 − 4i 
−3 + i 1 + 4i 5i −3 − i 1 − 4i −5i

−2i −2 + 3i −3 − i 2 − 3i 3 + i
   
2i
=  2 + 3i i 1 − 4i  = −  −2 − 3i −i −1 + 4i  = −A.
3 − i −1 − 4i −5i −3 + i 1 + 4i 5i

Proposição 1.8. Se A é uma matriz em Mn (C), então:


1
(i) A matriz (A + A∗ ) é hermitiana.
2
1
(ii) A matriz (A − A∗ ) é anti-hermitiana.
2
(iii) Toda matriz quadrada complexa é a soma de uma matriz hermitiana com uma matriz
anti-hermitiana.

Demonstração: Seja A uma matriz quadrada complexa então temos:


 ∗ 1 ∗
 
1 ∗
 1
A + (A ) = A∗ + A .
∗ ∗

(i) A+A =
2 2 2
1
Logo, (A + A∗ ) é hermitiana.
2
 ∗ 1 ∗
 
1 ∗
 1  1
A − (A∗ )∗ = A∗ − A = − A − A∗ .

(ii) A−A =
2 2 2 2
Logo, A − A∗ é anti-hermitiana.


1  1 1
(iii) A = A + A + A∗ − A∗ = (A + A∗ ) + (A − A∗ ) .
2 |2 {z } |2 {z }
hermitiana anti-hermitiana

Matriz Normal Complexa

Uma matriz A quadrada em Mn (C) é normal se, e somente se,

A · A∗ = A∗ · A,

ou seja, se e somente se, o produto de A por sua conjugada transposta A∗ é comutativo.


CAP. 1 • MATRIZES E SISTEMAS LINEARES 25

Observações:

1. Toda matriz hermitiana é matriz normal, pois


A=A∗ A=A∗
A · A∗ = A · A = A∗ · A.

2. Toda matriz anti-hermitiana é matriz normal, pois


A∗ =−A A=−A∗
A · A∗ = A · (−A) = (−A∗ ) · (−A) = A∗ · A.

3. Se A é matriz quadrada em Mn (C) que é a soma de uma matriz anti-hermitiana e uma


matriz escalar real, então A é matriz normal.
De fato, suponhamos que A = E+H, com E matriz escalar e H matriz anti-hermitiana,
então:
E ∗ =E H ∗ =−H
A · AT = (E + H) · (E + H)∗ = (E + H) · (E ∗ + H ∗ ) = (E + H) · (E − H)
2 EH=HE
= E2 + H · E − E · H − H = E 2 − H 2.

Analogamente, AT · A = E 2 − H 2 .
Portanto, A é normal.

 
i 1+i 2 3−i
−1 + i 5i 4 + 7i −9i
 
Exemplo: A =   é uma matriz complexa normal, pois
 
 −2 −4 + 7i −i 11 
−3 − i −9i −11 0
 
−i −1 − i −2 −3 + i
1 − i −5i −4 − 7i 9i
 
A∗ =   = −A.
 
 2 4 − 7i i −11 
3+i 9i 11 0

Logo, A é anti-hermitiana e, portanto normal.

Matriz Unitária

Uma matriz quadrada A em Mn (C) é unitária se, e somente se, A · A∗ = In .


 √ √ 
2 2
i
 2 2 
 
Exemplos: A matriz A = 
 √ √ 
 é unitária.
 2 2 
− − i
2 2
SEÇÃO 1.2 • DETERMINANTE DE UMA MATRIZ QUADRADA 26

 √ √   √ √ T
2 2 2 2
i   − i
2 2   2 2 
 

A · A∗ =   √ √
·
  √ √


 2 2   2 2 
− − i − i
2 2 2 2
De fato:
 √ √   √ √ 
2 2 2 2
i   − i −
 2 2   2 2   1 0 
 
=  · = .
 √ √   √ √  0 1
 2 2   2 2 
− − i i
2 2 2 2
Portanto, A é unitária.

1.2 Determinante de uma Matriz Quadrada


Dada uma matriz quadrada A em Mn (IF ) associamos a A um número chamado deter-
minante de A, denotado por det A, que definiremos de maneira recorrente.

1o Caso: n = 1
Se A = [a11 ] quadrada em M1 (IF ), então det A = a11 , neste caso o determinante é o
valor numérico da única entrada da matriz.

Exemplos: 1. A = [−3], então det A = −3. 2. A = [7], então det A = 7.

Para os casos em que A está em Mn (IF ), com n ≥ 2, necessitamos definir o sinal dos
elementos de A:
Sinal de um Elemento aij ∈ A
Dada uma matriz A = [aij ] qualquer em Mn (IF ), a cada elemento de A lhe atribuı́mos
um sinal: + ou −, da seguinte maneira:

+ se i + j é par
sinal (aij ) = .
− se i + j é ı́mpar

Exemplos:
 
+ −
1. Os sinais de uma matriz A em M2 (IF ): .
− +

+ − +
 

2. Os sinais de uma matriz A em M2 (IF ):  − + −  .


+ − +
CAP. 1 • MATRIZES E SISTEMAS LINEARES 27

Cofator de um Elemento aij


Dada uma matriz A = [aij ] quadrada em Mn (IF ) o cofator do elemento de aij ,
denotado por ∆ij , é o seguinte número em IF :

∆ij = sinal (aij ) · det Aij ,

com Aij a matriz quadrada em Mn−1 (IF ) obtida de A retirando a i-ésima linha e a j-ésima
coluna.
A matriz dos cofatores de A é chamada matriz cofatora de A e denotada por cof(A).
 
−1 3
Exemplo: Encontre os cofatores da matriz A = .
4 7
∆11 = sinal (−1) · 7 = 7 ∆12 = sinal (3) · 4 = −4
Solução:
∆21 = sinal (4) · 3 = −3 ∆22 = sinal (7) · (−1) = −1.
 
7 −4
Logo, cof (A) = .
−3 −1

Definição 1.9. Seja A uma matriz quadrada em Mn (IF ), com n ≥ 2, o determinante de


A, denotado por det A, é o número dado pela soma dos produtos dos elementos de uma linha
ou coluna qualquer de A pelos seus respectivos cofatores.
Assim, o cálculo de det A pela i-ésima linha é:
n
X
det A = ai1 · ∆i1 + ai2 · ∆i2 + · · · + ain · ∆in = aik · ∆ik .
k=1

Enquanto, que o cálculo e det A pela j-ésima coluna é:


n
X
det A = a1j · ∆1j + a2j · ∆i2 + · · · + anj · ∆nj = akj · ∆kj .
k=1

1.2.1 Cálculo de Determinante de uma Matriz Quadrada de


ordem 2
Seja  
a11 a12
A=
a21 a22
uma matriz quadrada em M2 (IF ), o determinante de A, pela primeira linha é:

det A = a11 · ∆11 + a12 · ∆12 = a11 · a22 + a12 · (−a21 ) = a11 · a22 − a12 · a21 .

Calculando pela segunda coluna obtemos:

det A = a12 · ∆12 + a22 · ∆22 = a12 · (−a21 ) + a22 · a22 = −a12 · a21 + a22 · a11 = a11 · a22 − a12 · a21 .

Assim,
det A = a11 · a22 − a12 · a21 ,
SEÇÃO 1.2 • DETERMINANTE DE UMA MATRIZ QUADRADA 28

ou seja, é o produto do elemento da diagonal principal menos o produto dos elementos da


diagonal secundária.
 
−1 3
Exemplo: Calcule o determinante da matriz A = .
4 7
Solução:
Pelo desenvolvimento acima temos:

det A = (−1) · 7 − 3 · 4 = −7 − 12 = −19.

1.2.2 Cálculo de Determinante de uma Matriz Quadrada de


ordem 3
Seja
 
a11 a12 a13
A =  a21 a22 a23 
a31 a32 a33
uma matriz quadrada em M3 (IF ), o determinante de A, pela primeira linha é:
det A = a11 · ∆11 + a12 · ∆12 + a13 · ∆13
     
a22 a23 a21 a23 a21 a22
= a11 · det − a12 · det + a13 · det
a32 a33 a31 a33 a31 a32
  
= a11 · a22 a33 − a23 a32 − a12 · a21 a33 − a23 a31 + a13 · a21 a32 − a22 a31
= a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 .

Calculando pela terceira coluna obtemos:


det A = a13 · ∆13 + a23 · ∆23 + a33 · ∆33
     
a21 a22 a11 a12 a11 a12
= a13 · det − a23 · det + a33 · det
a31 a32 a31 a32 a21 a22
  
= a13 · a21 a32 − a22 a31 − a23 · a11 a32 − a12 a31 + a33 · a11 a22 − a12 a21
= a13 a21 a32 − a13 a22 a31 − a23 a11 a32 + a23 a12 a31 + a33 a11 a22 − a33 a12 a21 .
Assim,

det A = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 .
 
2 1 1
Exemplo: Calcule o determinante da matriz A =  1 1 1  .
2 3 2
Solução:
Calculando pela terceira linha temos
det A = 2 · ∆31 + 3 · ∆32 + 2 · ∆33
     
1 1 2 1 2 1
= 2 · det + (−3) · det + 2 · det
1 1 1 1 1 1
= 2 · (1 − 1) − 3 · (2 − 1) + 2 · (2 − 1) = 0 − 3 + 2 = −1.
CAP. 1 • MATRIZES E SISTEMAS LINEARES 29

Calculemos também pela primeira coluna:


det A = 2 · ∆12 + 1 · ∆22 + 2 · ∆32
     
1 1 1 1 1 1
= 2 · det + (−1) · det + 2 · det
3 2 3 2 1 1
= 2 · (2 − 3) + (−1) · (2 − 3) + 2 · (1 − 1) = −2 + 1 + 0 = −1.

Observações:
1. Também indicamos o determinante de A por |A|, assim, por exemplo:

2 1 1
−1 3
= −19 e 1 1 1 = −1.
4 7
2 3 2

2. O cálculo do determinante de matrizes quadradas em Mn (IF ), com n ≥ 4, é feito


recorrentemente.

(a) No cálculo de det A, com A quadrada em M4 (IF ), deveremos calcular o determi-


nante de 4 matrizes quadradas em M3 (IF ).
(b) No cálculo de det A, com A quadrada em M5 (IF ), deveremos calcular o determi-
nante de 5 matrizes quadradas em M4 (IF ).
(c) De modo geral, no cálculo de det A, com A quadrada em Mn (IF ), deveremos
calcular o determinante de n matrizes quadradas em Mn−1 (IF ).
 
1 −1 2 3
2 1 0 1
 
Exemplo: Calcule o determinante da matriz A =  .
 
 3 −1 1 2 
2 −1 0 1
Solução:
Calculando pela terceira coluna temos
det A = 2 · ∆13 + 0 · ∆23 + 1 · ∆33 + 0 · ∆43

= 2 · (−1)1+3 · det A13 +1 · (−1)3+3 · det A33


| {z } | {z }
∆13 ∆33


2 1 1 1 −1 3

= 2 · 3 −1 2
+ 2
1 1
2 −1 1 2 −1 1

   
−1 2 3 2 3 −1
+ 1 1 + 2 1 + 3 2 1

= 2 · 2 − +
−1 1 2 1 2 −1 −1 1 2 1 2 −1
| {z } | {z }
cálculo pela 1a linha cálculo pela 1a linha

 
= 2 · 2 × 1 − (−1) + (−1) + 2 + 0 + 3 × (−4) = 2 · (2 + 1 − 1) + (2 − 12) = −6.
SEÇÃO 1.2 • DETERMINANTE DE UMA MATRIZ QUADRADA 30



1 −1 2 3
2 1 0 1

Logo, = −6.

3 −1 1 2

2 −1 0 1

1.2.3 Propriedades de Determinantes


Seja A uma matriz quadrada em Mn (IF ), valem as seguintes propriedades:

D1 ) det A = det AT .

D2 ) Se A possui uma linha ou uma coluna com todos os elementos nulo, então det A = 0.

D3 ) Se A tem duas linhas ou duas colunas iguais (ou proporcionais), então det A = 0.

D4 ) Se B é obtida de A permutando duas linhas ou duas colunas, então det B = − det A.

D5 ) Se B é obtida de A multiplicando todos os elementos de uma linha ou uma coluna por


um número κ, então det B = κ · det A.

D6 ) Se B é obtida de A somando a uma linha (ou coluna) de A a uma outra linha (ou
coluna) multiplicada por um número qualquer, então det B = det A

D7 ) Se B = κA, com κ ∈ IF , então det B = κn · det A.

D8 ) Se B também está em Mn (IF ), então det(A · B) = det A · det B.

D9 ) Se A é uma matriz diagonal, então o determinante de A é o produto dos elementos da


diagonal principal.

D10 ) Se A é uma matriz triangular (superior ou inferior), então o determinante de A é o


produto dos elementos da diagonal principal.
   
a11 a12 · · · a1n a11 a12 · · · a1n
 .. .. ... ..   .. .. ... .. 
 . . .   . . . 
   
D11 ) Sejam B =  bi1 bi2 · · · bin  e C =  ci1 ci2 · · · cin 
  
 matrizes que
 .. .. . .. .
..  . . . .
 .. .. .. .. 
 
 . . 
am1 am2 · · · amn am1 am2 · · · amn
diferem apenas na i-ésima linha.
 
a11 a12 ··· a1n
 .. .. .. ..
.


 . . . 

Se A =  bi1 + ci1 bi2 + ci2 · · · bin + cin 

, ou seja, A coincide com as matrizes B
 .. .. . .. .
.. 
 . . 
am1 am2 ··· amn
e C, exceto na i-ésima linha, nesta linha os elementos de A são a soma dos elementos
da i-ésima linha de B com os respectivos elementos da i-ésima linha de C, então

det A = det B + det C.


CAP. 1 • MATRIZES E SISTEMAS LINEARES 31

A propriedade também é válida se B e C coincidem exceto na j-ésima coluna e A


coincide com as matrizes B e C, exceto na j-ésima coluna nesta coluna os elementos
de A são a soma dos elementos da j-ésima coluna de B com os respectivos elementos
da j-ésima coluna de C.

Observação: No que segue dada uma matriz A em Mn (IF ) vamos indicar a i-ésima linha
de A por Li e a j-ésima coluna de A por Cj .

Exemplos: Calcule det A, em cada um dos casos:


     
2 1 2 2 1 7 1 1 5
1. B =  1 1 3 ; 2. B =  0 0 0 ; 3. B =  3 3 3 ;
1 1 2 5 3 4 2 2 4
     
1 1 1 2 1 1 2 1 1
4. B = 2 1 1 ;
  5. B =  1 1 1 ;
 6. B = 1 1 1 ;
2 3 2 −4 −6 −4 0 1 0
 
  −5 0 0 0
6 3 3
 0 8 0 0 
 
7. B = 3 3 3 ;
  8. B =  ;
 0 0 −1 0 
6 9 6
0 0 0 3
   
3 −1 2 1 1 2 3 4
 0 6 −5 0   1 3 4 5 
   
9. B =  ; 10. B =  .
 0 0 −2 7   0 0 −1 7 
0 0 0 1 0 0 0 4
Solução:
 
2 1 7
Lembrando que vimos acima que se A =  1 3 2  então det A = −66.
5 3 4
Observemos que as matrizes dos exemplos 1., 4., 5., 6. e 7. foram obtidas da matriz A.

2 1 2
D1 , pois B=AT
1. det B = 1 1 3
= −1.
1 1 2

2 1 7
D2
2. det B = 0 0 0 = 0.

5 3 4

1 1 5
D3 , pois C1 =C2
3. det B = 3 3 −1 = 0.
2 2 4

1 3 2
D4 , pois L1 ↔L2
4. det B = 2 1 7
= −(−1) = 1.
5 3 4
SEÇÃO 1.2 • DETERMINANTE DE UMA MATRIZ QUADRADA 32


2 1 1
D5 pois L3 →(−2)L3
5. det B = 1
1 1
= (−2) × (−1) = 2.
−4 −6 −4


2 1 1
D6 , pois L3 →L3 −2L2
6. det B = 1 1 1
= −1.
0 1 0


6 3 3
D7 , pois B=3A 3
7. det B = 3 3 3
= 3 × (−1) = −27.
6 9 6

8. det B = (−5) × 8 × (−1) × 3 = 120, basta aplicar D9 , pois B é matriz diagonal.

9. det B = 3 × 6 × (−2) × 1 = −36, basta aplicar D10 , pois B é matriz triangular.




1 2 3 4


1 2 3 4
1 2 3 4

1 3 4 5 1 2 3 4 0 1 1 1

D11 D3 e D10
10. = + = 0 − 4 = −4.

0 0 −1 7 0 0 −1 7 0 0 −1 7



0 0 0 4 0 0 0 4 0 0 0 4

Proposição 1.10. (i) Se A ∈ Mn (IR) é matriz ortogonal, então det A = 1 ou det A = −1.

(ii) Se A ∈ Mn (C) é matriz unitária, então det A = 1 ou det A = −1.

Demonstração:

(i) A ∈ Mn (IR) é ortogonal se, e somente se, A · AT = In .


Logo,
D
det(A · AT ) = det In = 1 =⇒ det A · det AT = 1 =⇒
1
(det A)2 = 1.

Portanto, det A = 1 ou det A = −1.

(ii) A ∈ Mn (C) é unitária se, e somente se, A · A∗ = In .


Logo,
T
det(A · A∗ ) = det In = 1 =⇒ det A · det A∗ = 1 ⇐⇒ det A · det A = 1

D
1
⇐⇒ det A · det A = 1 ⇐⇒ det A · det A = 1 ⇐⇒ | det A|2 = 1.

Portanto, det A = 1 ou det A = −1.


CAP. 1 • MATRIZES E SISTEMAS LINEARES 33

1.3 Inversa de uma Matriz


Sabemos que multiplicação dos números reais ou complexos tem elemento neutro, o
número 1, que também satisfaz a seguinte propriedade:

Se a ∈ IF e a 6= 0, então existe b ∈ IF, b 6= 0 tal que a · b = 1.


1
Denotamos o número b por b = a−1 = e este é chamado inverso multiplicativo de a.
a
Pela propriedade M1 (a) do produto de matrizes sabemos que dada A uma matriz
quadrada de ordem n, temos:
A · In = In · A = A,
ou seja, a matriz In , identidade de ordem n, é o elemento neutro da multiplicação em Mn (IR)
ou Mn (C).
Daı́ é natural perguntar:
Se A é uma matriz quadrada em Mn (IF ), quando existe uma matriz B ∈ Mn (IF ) tal que:

A · B = B · A = In . (1.1)

Exemplos: Em cada um dos casos, verifique se existe uma matriz B quadrada de ordem 2
tal que A · B = B · A = I2 .
   
1 1 1 −2
1. A = ; 2. A =
2 3 −2 4
Solução:
 
a b
1. Devemos encontrar uma matriz B = tal que
c d
         
1 1 a b a b 1 1 1 0
· = · =
2 3 c d c d 2 3 0 1

     
a+c b+d a + 2b a + 3b 1 0
⇐⇒ = =
2a + 3c 2b + 3d c + 2d c + 3d 0 1
 

 a+c=1 
 a + 2b = 1
 
b+d=0 a + 3b = 0
 
⇐⇒ e

 2a + 3c = 0 
 c + 2d = 0

 2b + 3d = 1 
 c + 3d = 1
   

 a+c=1 
 a + 2b = 1
 


 2a + 3c = 0 

 a + 3b = 0
⇐⇒ e .
   


 b+d=0 

 c + 2d = 0
 
2b + 3d = 1 c + 3d = 1
 
SEÇÃO 1.3 • INVERSA DE UMA MATRIZ 34

Observemos que
 
a+c=1 2a + 2c = 2
∼ ⇒ c = −2 ⇒ a = 3
2a + 3c = 0 2a + 3c = 0
e  
b+d=0 2b + 2d = 0
∼ ⇒ d = 1 ⇒ b = −1.
2b + 3d = 1 2b + 3d = 1
Por outro lado,
 
a + 2b = 1 c + 2d = 0
⇒ b = −1 ⇒ a = 3 e ⇒ d = 1 ⇒ c = −2
a + 3b = 0 c + 3d = 1
 
3 −1
Portanto, a matriz B = satisfaz a condição A · B = B · A = I2 .
−2 1
 
a b
2. Devemos encontrar uma matriz B = tal que
c d
         
1 −2 a b a b 1 −2 1 0
· = · =
−2 4 c d c d −2 4 0 1
     
a − 2c b − 2d a − 2b −a + 4b 1 0
⇐⇒ = =
−2a + 4c −2b + 4d c − 2d −c + 4d 0 1
 

 a − 2c = 1 
 a − 2b = 1
 
b − 2d = 0 −2a + 4b = 0
 
⇐⇒ e

 −2a + 4c = 0 
 c − 2d = 0

 −2b + 4d = 1 
 −c + 4d = 1
   

 a − 2c = 1 
 a − 2b = 1
 


 −2a + 4c = 0 

 −2a + 4b = 0
⇐⇒ e .
 
b − 2d = 0 c − 2d = 0

 


 

 
−2b + 4d = 1 −2c + 4d = 1
 

a − 2c = 1
Observemos que o sistema não tem solução, pois
−2a + 4c = 0
 
a − 2c = 1 2a − 4c = 2
∼ ⇒ 0 = 2,
−2a + 4c = 0 −2a + 4c = 0
um absurdo!
Portanto, neste caso, não existe uma matriz B, quadrada de ordem 2, que satisfaça a
condição A · B = B · A = I2 .

Os exemplos acima nos mostram que há casos em que resposta à pergunta da equação
1.1 é afirmativa e outros em que não.
Antes estabelecer uma condição necessária para a existência da matriz B que satisfaça
1.1 introduziremos mais alguns conceitos.
CAP. 1 • MATRIZES E SISTEMAS LINEARES 35

1.3.1 Matriz Adjunta e a Inversa


Definição 1.11. Seja A uma matriz quadrada em Mn (IF ), a matriz adjunta de A, deno-
tada por adj(A), é a transposta da matriz cofatora de A, ou seja,
T
adj (A) = cof (A) .

Teorema 1.12. Se A é uma matriz quadrada em Mn (IF ), então

A · adj (A) = det A · In .

Demonstração: Vamos fazer a demonstração para n = 3, os outros casos são análogos.


 
a11 a12 a13
Seja A = a21 a22
 a23 , então:
a31 a32 a33
   T
a11 a12 a13 ∆11 ∆12 ∆13
A · adj (A) = a21 a22 a23 · ∆21 ∆22
   ∆23 
a31 a32 a33 ∆31 ∆32 ∆33
   
a11 a12 a13 ∆11 ∆21 ∆31
=  a21 a22 a23  ·  ∆12 ∆22 ∆32  = [cij ]3×3 ,
a31 a32 a33 ∆13 ∆23 ∆33

pela 1a linha


 c11 = a11 ∆11 + a12 ∆12 + a13 ∆13 = det A
 pela 2a linha
c22 = a21 ∆21 + a22 ∆22 + a23 ∆23 = det A

com pela 3a linha


 c33 = a31 ∆31 + a32 ∆32 + a33 ∆33 = det A

c12 = a11 ∆21 + a12 ∆22 + a13 ∆23

Calculando c12 :

c12 = a11 ∆21 + a12 ∆22 + a13 ∆23


= a11 (a13 a32 − a12 a33 ) + a12 (a11 a33 − a13 a31 ) + a13 (a12 a31 − a11 a32 )
= a11 a13 a32 − a11 a12 a33 + a12 a11 a33 − a12 a13 a31 + a13 a12 a31 − a13 a11 a32 = 0.

De maneira análoga concluı́mos que

c13 = c21 = c23 = c31 = c32 = 0.

Logo,
 
det A 0 0
A · adj (A) =  0 det A 0  = det A · I3 .
0 0 det A

 
1
Observação: Pelo teorema 1.12, se det A 6= 0, então A · adj (A) = In .
det A
SEÇÃO 1.3 • INVERSA DE UMA MATRIZ 36

Definição 1.13. Seja A uma matriz quadrada em Mn (IF ), dizemos que A é invertı́vel se,
e somente se, existe B matriz quadrada em Mn (IF ) tal que

A · B = B · A = In .

A matriz B é chamada matriz inversa de A e denotada por A−1 , assim,

A · A−1 = A−1 · A = In .
   
1 1 −1 3 −1
Exemplo: A matriz A = é invertı́vel e sua inversa é a matriz A = .
2 3 −2 1

Teorema 1.14. Uma matriz quadrada A em Mn (IF ) é invertı́vel se, e somente se, det A 6= 0.
Além disso, se existe A−1 , então
1
A−1 = · adj (A).
det A

Exemplos: Verifique, em cada um dos casos abaixo, se a matriz A é invertı́vel, em caso


afirmativo determine sua inversa.    
  1 −1 2 3 5 −1 2 −3
2 1 1
 2 1 0 1  7 0 −8 11 
   
1. A =  1 1 1  ; 2. A =  ; 3. A =  .

 3 −1 1 2   12 −9 4 −21 
2 3 2
2 −1 0 1 −15 3 −6 9
Solução:

1. Vimos na seção 1.2 que det A = −1 6= 0, portanto A é invertı́vel.


Devemos determinar adj (A).

−1
   
∆11 ∆21 ∆31 1 0
adj (A) =  ∆12 ∆22 ∆32  =  0 2 −1  .
∆13 ∆23 ∆33 1 −4 1

Logo,
−1 1 −1
   
1 0 0
1 
A−1 = · 0 2 −1  =  0 −2 1 .
−1
1 −4 1 −1 4 −1

2. Vimos na seção 1.2 que det A = −6 6= 0, portanto A é invertı́vel.


Devemos determinar adj (A).
   
∆11 ∆21 ∆31 ∆41 2 0 −4 2
∆12 ∆22 ∆32 ∆42 0 −3 0 3
   
adj (A) =  = .
   
 ∆13 ∆23 ∆33 ∆43   2 3 −10 11 
∆14 ∆24 ∆34 ∆44 −4 −3 8 −7
CAP. 1 • MATRIZES E SISTEMAS LINEARES 37

Logo,  
2 0 −4 2
1  0 −3 0 3

A−1 = − ·  .
 
6  2 3 −10 11 
−4 −3 8 −7

3. Como L3 = −3L1 , logo pela propriedade D3 de determinantes, temos det A = 0.


Portanto, A não é invertı́vel.

Observação: O exemplo 2. acima nos mostra que a obtenção da inversa usando o teorema
1.14 não é eficiente, pois são necessários muitos cálculos.
Vamos introduzir um outro mecanismo para determinar a inversa de uma matriz quadrada,
quando esta existe.
Antes porém vamos apresentar as propriedades da inversa.

1.3.2 Propriedades da Matriz Inversa


Sejam A e B quadradas em Mn (IF ), valem as seguintes propriedades:

M I1 ) Se A é invertı́vel, então sua inversa é única.


De fato, se existissem B e C tais que A · B = A · C = In , multiplicando a igualdade
A · C = In por B à esquerda obtemos

B · (A · C) = B · In ⇐⇒ (B · A) · C = B ⇐⇒ C = B.
| {z }
In

M I2 ) Se A e B são invertı́veis então, A · B também o é.


Além disso, (A · B)−1 = B −1 · A−1 .
De fato, se A e B são invertı́veis então, det A 6= 0 e det B 6= 0.
Logo, det(A · B) = det
| {zA} · det
| {zB} 6= 0 e portanto A · B é invertı́vel.
6=0 6=0

Agora,
(A · B) · (B −1 · A−1 ) = A · (B · B −1 ) ·A−1 = A · A−1 = In .
| {z }
In

M I3 ) Se A é invertı́vel, então AT , a transposta de A, também é invertı́vel (veja propriedade


D1 ).
−1 T
Além disso, AT = A−1 .

M I4 ) Se A é invertı́vel, então A−1 , a inversa de A, também é invertı́vel.


−1
Além isso, A−1 = A.
SEÇÃO 1.4 • OPERAÇÕES ELEMENTARES SOBRE AS LINHAS DE UMA
MATRIZ 38

Observações:

1. Se A ∈ Mn (IR) é matriz ortogonal, então A é invertı́vel e A−1 = AT .


De fato, A ∈ Mn (IR) é ortogonal se, e somente se, A · AT = In .

2. Se A ∈ Mn (C) é matriz unitária, então A é invertı́vel e A−1 = A∗ .


De fato, A ∈ Mn (C) é unitária se, e somente se, A · A∗ = In .

1.4 Operações Elementares sobre as Linhas de uma


Matriz
As operações elementares sobre as linhas (ou colunas) de uma matriz são:

OE1 Permutação de duas linhas (duas colunas), ou seja, permutamos uma i-ésima linha e
uma j-ésima coluna.
Notação: Li ←→ Lj (Ci ←→ Cj ).

OE2 Substituição de uma linha por ela previamente multiplicada por um número (real ou
complexo) não nulo, ou seja, substituı́mos uma i-ésima linha por ela multiplicada por
número não nulo κ .
Notação: Li −→ κLi (Ci −→ κCi ).

OE3 Substituição de uma linha por ela somada com outra linha previamente multiplicada
por um número (real ou complexo) não nulo, ou seja, substituı́mos uma i-ésima linha
por ela somada com uma j-ésima linha multiplicada por número não nulo κ .
Notação: Li −→ Li + κLj (Ci −→ Ci + κCj ).

−1 3 4
 
1
Exemplos: Seja A =  2 1 3 −2 , determine a matriz:
5 0 3 −7

1. B obtida de A pela operação elementar L2 ←→ L3 .

2. C obtida de A pela operação elementar L1 −→ (−2)L1 .

3. D obtida de A pela operação elementar L2 −→ L2 + 2L1 .

Solução:

−1 3 4
 
1
1. B =  5 0 3 −7  L2 ←→ L3 .
2 1 3 −2
CAP. 1 • MATRIZES E SISTEMAS LINEARES 39

2 −6 −8 −2 L1 ←→ (−2)L1
 

2. C =  2 1 3 −2  .
5 0 3 −7

−1 3 4
 
1
3. D =  0 7 11 0  L2 ←→ L2 + 2L1
5 0 3 −7

1.4.1 Matriz Linha Equivalente


Dada uma matriz A em Mm×n (IF ), dizemos que B é uma matriz linha equivalente a
A se, somente se, B é obtida efetuando um número finito de operações elementares sobre as
linhas de A.
Notação: A ∼ B ou B ∼ A.

Exemplo: Nos exemplos acima A ∼ B, A ∼ C e A ∼ D.

Observações:

1. Em alguns momentos diremos simplesmente que A e B são equivalentes nos referindo


a linha-equivalentes.

2. Dada A uma matriz quadrada em Mn (IF ), se A é uma matriz invertı́vel e B é linha


equivalente a A, então B também é invertı́vel.

1.4.2 Matriz na Forma Escalonada


Uma matriz A em Mm×n (IF ) está na forma escalonada se satisfaz as seguintes condições:

(1) As linhas não-nulas de A estão acima de qualquer linha nula de A, ou seja, as linhas
nulas estão agrupadas nas últimas linhas da matriz.
Em outras palavras, se Li é linha nula, então as linhas Lk , com k > i, são todas linhas
nulas.

(2) O primeiro elemento não-nulo de uma linha de A ocorre mais à direita do primeiro
elemento não-nulo da linha anterior de A.
Em outras palavras, se aij 6= 0 e i > 1, existe algum k, com k < j, tal que a(i−1)k 6= 0.

Exemplos:
 
1 −5 2 −4 0
0 0 −3 1 9 
 
1. A matriz A =   está na forma escalonada.

 0 0 0 2 6 
0 0 0 0 0
SEÇÃO 1.4 • OPERAÇÕES ELEMENTARES SOBRE AS LINHAS DE UMA
MATRIZ 40
 
5 −1 7
 0 0 0 
 
2. A matriz A =   não está na forma escalonada, pois falha a condição (1).
 0 −9 4 
0 0 3
 
1 2 −2 0
 0 0 2 −1 
 
3. A matriz A =   não está na forma escalonada, pois falha a condição
 0 1 3 0 
0 0 0 0
(2) entre as linhas L3 e L2 .

1.4.3 Matriz na Forma Escalonada Reduzida ou na Forma


Escada
Uma matriz A em Mm×n (IF ) está na forma escalonada reduzida ou na forma escada
se está na forma escalonada e satisfaz as demais condições:

(3) O primeiro elemento não-nulo de cada linha não-nula de A é o número 1.


Em outras palavras, se aij 6= 0 e (j = 1 ou aik = 0 para k < j), então aij = 1.

(4) O primeiro elemento não-nulo de uma linha é o único elemento não-nulo de sua coluna.
Em outras palavras, se aij 6= 0 e (j = 1 ou aik = 0 para k < j), então alj = 0 para
todo l 6= i.

Exemplos:
 
1 −5 0 0 7
0 0 1 0 −2 
 
1. A matriz A =   está na forma escada.

 0 0 0 1 3 
0 0 0 0 0

0 −2
 
5 0
2. A matriz A = 0 1 0 0  não está na forma escalonada, pois falha a condição
0 0 1 3
(3) na primeira linha.
 
1 0 0 0
3. A matriz A = 0 1 −1 0  não está na forma escalonada, pois falha a condição
0 0 1 2
(4) na terceira coluna.

Teorema 1.15. ([1]) Toda matriz é equivalente a uma única matriz na forma escada.

Observações:
CAP. 1 • MATRIZES E SISTEMAS LINEARES 41

1. Dada uma matriz A a sua equivalente na forma escada, é chamada também de sua
reduzida à forma escada.

2. O teorema acima nos diz que podemos transformar qualquer matriz, efetuando um
número finito de operações elementares, em uma matriz na forma escada.

1.4.4 Matriz Inversa através de Operações Elementares


Seja A uma matriz quadrada A em Mn (IF ), com det A 6= 0, se efetuamos alguma
operação elementar em A, a matriz obtida também terá determinante diferente de zero, ou
seja, operações elementares transformam matrizes invertı́veis em matrizes invertı́veis.
De fato, seja A uma matriz invertı́vel, sabemos que A é invertı́vel se, e somente se,
det A 6= 0, assim:

1. Pela propriedade D4 de determinantes, se B é obtida de A efetuando uma operação


elementar OE1 , então det B = − det A 6= 0, portanto B é invertı́vel.

2. Pela propriedade D5 de determinantes, se C é obtida de A efetuando uma operação


κ6=0
elementar OE2 , então det C = κ · det A 6= 0, portanto C é invertı́vel.

3. Pela propriedade D6 de determinantes, se D é obtida de A efetuando uma operação


elementar OE3 , então det D = det A 6= 0, portanto D é invertı́vel.

O próximo teorema nos fornece um mecanismo para obter a inversa de uma matriz
utilizando operações elementares.

Teorema 1.16. ([1]) Seja A uma matriz quadrada em Mn (IF ), se A é uma matriz invertı́vel,
então sua reduzida à forma escada é a identidade In .
Além disso, efetuando na identidade In a mesma sequência de operações elementares que
transformou A em In obtém-se a inversa de A.

Exemplos: Obtenha, em cada um dos casos abaixo, a inversa da matriz A utilizando


operações elementares sobre as linhas.  
  1 −1 2 3
2 1 1
 2 1 0 1
 
1. A =  1 1 1  ; 2. A =  .

 3 −1 1 2 
2 3 1
2 −1 0 1
Solução:

1.
2 1 1 | 1 0 0 1 1 1 | 0 1 0 L1 ←→ L2
1 1 1 | 0 1 0 ∼ 2 1 1 | 1 0 0
2 3 2 | 0 0 1 2 3 2 | 0 0 1
SEÇÃO 1.4 • OPERAÇÕES ELEMENTARES SOBRE AS LINHAS DE UMA
MATRIZ 42

1 1 1 | 0 1 0
0 −1 −1 | 1 −2 0 L2 −→ L2 − 2L1
0 2 1 | −1 0 1 L3 −→ L3 − L2

1 0 0 | 1 −1 0 L1 −→ L1 + 2L2
∼ 0 −1 −1 | 1 −2 0
0 0 −1 | 1 −4 1 L3 −→ L3 + 2L2

1 0 0 | 1 −1 0
∼ 0 1 1 | −1 2 0 L2 −→ −L2
0 0 1 | −1 4 −1 L3 −→ −L3

1 0 0 | 1 −1 0
∼ 0 1 0 | 0 −2 1 L2 −→ L2 − L3
0 0 1 | −1 4 −1 .

Logo,
1 −1
 
0
A−1 =  0 −2 1 ,
−1 4 −1
este resultado coincide com o que obtivemos calculando o determinante pela adjunta.

2.
1 −1 2 3 | 1 0 0 0
2 1 0 1 | 0 1 0 0 L2 −→ L2 − 2L1
3 −1 1 2 | 0 0 1 0 L3 −→ L3 − 3L1
2 −1 0 1 | 0 0 0 1 L4 −→ L4 − L2

1 −1 2 3 | 1 0 0 0
0 3 −4 −5 | −2 1 0 0
∼ 0 2 −5 −7 | −3 0 1 0
1
0 −2 0 0 | 0 0 0 1 L4 −→ − L4
2

1 −1 2 3 | 1 0 0 0
0 3 −4 −5 | −2 1 0 0 L2 ←→ L4

0 2 −5 −7 | −3 0 1 0
0 1 0 0 | 0 2 0 − 12
1

1 −1 2 3 | 1 0 0 0 L1 −→ L1 + L2
0 1 0 0 | 0 21 0 − 12

0 2 −5 −7 | −3 0 1 0 L3 −→ L3 − 2L2
0 3 −4 −5 | −2 1 0 0 L4 −→ L4 − 3L2
CAP. 1 • MATRIZES E SISTEMAS LINEARES 43

1
1 0 2 3 | 1 2
0 − 12
1
0 1 0 0 | 0 2
0 − 12

0 0 −5 −7 | −3 −1 1 1
0 0 −4 −5 | −2 − 21 0 3
2
L4 −→ L4 − 45 L3

1
1 0 2 3 | 1 2
0 − 12
1
0 1 0 0 | 0 2
0 − 12

0 0 −5 −7 | −3 −1 1 1
3 2 3
0 0 0 5
| 5 10
− 5 10 L4 −→ 53 L4
4 7

1
1 0 2 3 | 1 2
0 − 21 L1 −→ L1 − 3L4
1
0 1 0 0 | 0 2
0 − 21

0 0 −5 −7 | −3 −1 1 1 L3 −→ L3 + 7L4
2 1 4 7
0 0 0 1 | 3 2
−3 6

1 0 2 0 | −1 −1 4
1
0 1 0 0 | 0 2
0 − 12
∼ 5 5
0 0 −5 0 | 3 2
− 25
3
55
6
L3 −→ − 15 L3
2 1
0 0 0 1 | 3 2
− 43 7
6

1 0 2 0 | −1 −1 4 −4 L1 −→ L1 − 2L3
1
0 1 0 0 | 0 2
0 − 12

0 0 1 0 | − 31 − 12 5
3
− 11
6
2 1 4 7
0 0 0 1 | 3 2
− 3 6

1 0 1 0 | − 13 0 2
3
− 13
1
0 1 0 0 | 0 2
0 − 12
∼ .
0 0 1 0 | − 13 − 21 5
3
− 11
6
2 1
0 0 0 1 | 3 2
− 43 7
6

Logo,    
− 13 0 2
3
− 13 2 0 −4 2
1
0 0 − 21 1 0 −3 0 3
  
A−1 =  2
=−  ,
   
 − 13 − 12 5
3
− 11
6
 6 2 3 −10 11 
2 1
3 2
− 43 7
6
−4 −3 8 −7
este resultado coincide com o que obtivemos calculando o determinante pela adjunta.

1.5 Sistemas de Equações Lineares


Equação Linear
Uma equação da forma

a1 x 1 + a2 x 2 + · · · + an x n = b
SEÇÃO 1.5 • SISTEMAS DE EQUAÇÕES LINEARES 44

é uma equação linear em IR ou em C nas variáveis x1 , x2 , · · · , xn , reais ou complexas, com


coeficientes a1 , a2 , · · · , an e termo independente b números reais ou números complexos.

Exemplos:
1. 2x + 4y = −3 é uma equação linear;

2. cos x + 3y − z = 7 não é uma equação linear;

3. x − 7y = 4z − 6 = 0 é uma equação linear.

Os valores das variáveis que transformam a equação linear em identidade, constituem


suas soluções.
Exemplo: Para a equação linear 2x+4y −3z = 5 os valores x = 0, y = 2 e z = 1 constituem
uma solução, assim como x = −3, y = −1 e z = −5 também.

1.5.1 Sistemas de Equações Lineares


Um sistema linear real ou complexo é um sistema em que todas as equações são lineares
reais ou complexas, ou seja é um sistema do tipo:


 a11 x1 + a12 x2 + · · · + a1n xn = b1
 a21 x1 + a22 x2 + · · · + a2n xn

= b2
S: . ,

 ..

am1 x1 + am2 x2 + · · · + amn xn = bm

nas variáveis x1 , x2 , · · · , xn , com coeficientes a11 , a12 , · · · , a1n , a21 , a22 , · · · , a2n , · · · am1 , am2 ,
· · · , amn e b1 , b2 , · · · , bm termos independentes números reais ou números complexos.
Matricialmente temos:
     
a11 a12 · · · a1n x1 b1
 a21 a22 · · · a2n   x2   b2 
S: . ·  .  =  . ,
     
. . .
 .. .. .. ..   ..   .. 

am1 am2 · · · amn xn bm


| {z } | {z } | {z }
A X B

 A a matriz dos coeficientes de S
com X a matriz das variáveis de S .

B a matriz dos termos independentes de S

Matriz Ampliada de um Sistema Linear


A matriz:  
a11 a12 · · · a1n | b1
 a21 a22 · · · a2n | b2 
AM = 
 
.. .. .. .. .. 
 . . . . . 
am1 am2 · · · amn | bm
é chamada matriz ampliada do sistema S.
CAP. 1 • MATRIZES E SISTEMAS LINEARES 45

1.5.2 Solução de um Sistema Linear


Uma solução de um sistema linear real ou complexo


 a11 x1 + a12 x2 + · · · + a1n xn = b1
 a21 x1 + a22 x2 + · · · + a2n xn = b2

S: .. .


 .
am1 x1 + am2 x2 + · · · + amn xn = bm

é uma n-upla de números reais ou complexos λ1 , λ2 , · · · , λn que ao serem substituı́das nas


m equações todas se verificam.


 x1 = λ1
 x2 = λ2

A solução pode ser dada na forma .. ou na forma (λ1 , λ2 , · · · , λn ).


 .
xn = λn

 
 x=3  x + 4y + 3z = 1
Exemplo: y = −2 é uma solução do sistema S : 2x + 5y + 4z = 4 , pois
x − 3y − 2z = 5
 
z=2

3 + 4 × (−2) + 3 × 2 = 3 − 8 + 6 = 1
2 × 3 + 5 × (−2) + 4 × 2 = 6 − 10 + 8 = 4 .
3 − 3 × (−2) − 2 × 2 = 3 + 6 − 4 = 5

Proposição 1.17. Se um sistema linear S como 1.2 tem mais do que uma solução, então
S tem infinitas soluções.
Demonstração: Sejam (λ1 , λ2 , · · · , λn ) e (µ1 , µ2 , · · · , µn ) soluções distintas do sistema
linear 1.2, mostremos que (κ1 , κ2 , · · · , κn ), com κi = αλi + βµi , α e β números tais que
α + β = 1, também é solução de 1.2.
De fato, como (λ1 , λ2 , · · · , λn ) e (µ1 , µ2 , · · · , µn ) são soluções do sistema, então:
 

 a 11 λ 1 + a 12 λ 2 + · · · + a 1n λ n = b 1  a11 µ1 + a12 µ2 + · · · + a1n µn = b1

 a21 λ1 + a22 λ2 + · · · + a2n λn = b2
  a21 µ1 + a22 µ2 + · · · + a2n µn = b2

.. e ..


 . 

 .
am1 λ1 + am2 λ2 + · · · + amn λn = bm am1 µ1 + am2 µ2 + · · · + amn µn = bm
 

Logo, 

 a11 (αλ1 + βµ1 ) + a12 (αλ2 + βµ2 ) + · · · + a1n (αλn + βµn )
 a21 (αλ1 + βµ1 ) + a22 (αλ2 + βµ2 ) + · · · + a2n (αλn + βµn )

..


 .
am1 (αλ1 + βµ1 ) + am2 (αλ2 + βµ2 ) + · · · + amn (αλn + βµn )



 α(a11 λ1 + a12 λ2 + · · · + a1n λn ) + β(a11 µ1 + a12 µ2 + · · · + a1n µn )
α(a21 λ1 + a22 λ2 + · · · + a2n λn ) + β(a21 µ1 + a22 µ2 + · · · + a2n µn )


= ..


 .
α(am1 λ1 + am2 λ2 + · · · + amn λn ) + β(am1 µ1 + am2 µ2 + · · · + amn µn )

SEÇÃO 1.5 • SISTEMAS DE EQUAÇÕES LINEARES 46

  

 αb1 + βb1 
 (α + β)b1 
 b1
 αb2 + βb2
  (α + β)b2
  b2

α+β=1
= .. = .. = .. .


 . 

 . 

 .
αbm + βbm (α + β)bm bm
  

Portanto, se um sistema linear tem mais do que uma solução, então tem infinitas soluções.

1.5.3 Classificação de Sistemas de Equações Lineares


Classificamos um sistema linear quanto às soluções da seguinte maneira:

Sistemas Lineares Compatı́veis

Dizemos que um sistema linear é compatı́vel quando admite alguma solução, dentre os
sistemas lineares compatı́veis temos:

(i) Os sistemas lineares possı́veis determinados, que são aqueles que admitem uma única
solução.

(ii) Os sistemas lineares possı́veis indeterminados, que são aqueles que admitem infinitas
soluções.

Exemplos:

 x + 4y + 3z = 1
1. S : 2x + 5y + 4z = 4 , é um sistema linear compatı́vel determinado, pois tem
x − 3y − 2z = 5


 x = 3
uma única solução: y = −2 .

z = 2


x + 2y + z + w = 0
2. S : , é um sistema linear compatı́vel indeterminado, pois
x + 3y − z + 2w = 0

x = −5z + w
tem infinitas soluções dadas por , com z e w variando nos números
 y = 2z − w
 x = −6


y = 3

reais, por exemplo é uma solução do sistema.

 z = 1

 w = −1
CAP. 1 • MATRIZES E SISTEMAS LINEARES 47

Sistemas Lineares Incompatı́veis

Dizemos que um sistema linear é incompatı́vel quando não admite solução.


Exemplo:

 2x + 3y = 4
1. O sistema linear é incompatı́vel S : x+y = 6 , pois não admite solução, já
3x − 4y

= 0
18
que das três equações tiramos que −8 = y = , um absurdo!
7

1.5.4 Sistema Linear Homogêneo


Dizemos que um sistema linear é um sistema homogêneo quando todos os seus termos
independentes são iguais a zero.
Exemplo:

2x + 3y − 9z = 0
1. O sistema S : é homogêneo.
5x − 8y + 7z = 0

Observação: Todo sistema linear homogêneo admite pelo menos uma solução, que é aquela
em que todas as variáveis são iguais a zero, esta solução é chamada solução trivial.
Portanto, um sistema homogêneo é um sistema compatı́vel determinado ou um sistema
compatı́vel indeterminado.
No exemplo acima a solução trivial é x = y = z = 0.

1.5.5 Sistemas Equivalentes


Dois sistemas lineares S e S 0 são equivalentes se, e somente se, toda solução de S é
solução de S 0 e toda solução de S 0 é solução de S.

Exemplos:
 
 x + 4y + 3z = 1  x + 4y + 3z = 1
0
1. S : 2x + 5y + 4z = 4 e S : −3y − 2z = 2 são equivalentes, pois
x − 3y − 2z = 5 7y + 5z = −4
 

 x = 3
a única solução de S e de S 0 é y = −2 .

z = 2

  x+y+z+w = 0
x + 2y + z + w = 0 0
2. S : eS : x + y + z − 2w = 0 não são equivalentes,
x + 3y − z + 2w = 0
x − y + 3z + w = 0

SEÇÃO 1.5 • SISTEMAS DE EQUAÇÕES LINEARES 48

 

 x = 0 
 x = −6
 
y = 0 y = 3
 
pois é solução de S e S 0 , porém é solução de S, mas não

 z = 0 
 z = 1
 
 w = 0  w = −1
é solução de S 0 .

1.5.6 Operações Elementares sobre as Equações de um Sistema


Linear
As operações elementares que vimos para matrizes também serão utilizadas em sistemas
lineares, neste caso são:

OE1 Permutação de duas equações, ou seja, permutamos uma i-ésima equação e uma j-ésima
equação.
Notação: Ei ←→ Ej .

OE2 Substituição de uma equação por ela previamente multiplicada por um número (real ou
complexo) não nulo, ou seja, substituı́mos uma i-ésima equação por ela multiplicada
por número não nulo κ .
Notação: Ei −→ κEi .

OE3 Substituição de uma equação por ela somada com outra equação previamente multipli-
cada por um número (real ou complexo) não nulo, ou seja, substituı́mos uma i-ésima
equação por ela somada com uma j-ésima equação multiplicada por número não nulo
κ.
Notação: Ei −→ Ei + κEj ,
com Ei a i-ésima equação do sistema linear.


 −x + 3y + 4z = 1
Exemplos: Seja S : 2x + y + 3z = −2 , determine o sistema linear:
+ 3z = −7

5x

1. S 0 obtido de S pela operação elementar E2 ←→ E3 .

2. S 00 obtida de S pela operação elementar E1 −→ (−2)E1 .

3. S 000 obtida de S pela operação elementar E2 −→ E2 + 2E1 .

Solução:

 −x + 3y + 4z = 1
0
1. S : 5x + 3z = −7 E2 ←→ E3 .
2x + y + 3z = −2

CAP. 1 • MATRIZES E SISTEMAS LINEARES 49


 2x − 6y − 8z = −2 E1 −→ (−2)E1
00
2. S : 2x + y + 3z = −2 .
+ 3z = −7

5x

 −x + 3y + 4z = 1
00
3. S : 7y + 11z = 0 E2 −→ E2 + 2E1
+ 3z = −7

5x

Teorema 1.18. Dois sistemas lineares S e S 0 são equivalentes se, e somente se, S 0 pode ser
obtido de S através de uma número finito de operações elementares sobre as equações de S.

1.6 Resolução de Sistemas Lineares


Dado um sistema de equações lineares


 a11 x1 + a12 x2 + · · · + a1n xn = b1
 a21 x1 + a22 x2 + · · · + a2n xn = b2

S: .. ,


 .
am1 x1 + am2 x2 + · · · + amn xn = bm

vamos aplicar o teorema 1.18 e utilizar ou a sua matriz dos coeficientes ou a sua matriz
ampliada para obter sua(s) solução(ões).
Lembremos que a matriz dos coeficientes de S e matriz ampliada de S são dadas, respec-
tivamente, por:
   
a11 a12 · · · a1n a11 a12 · · · a1n | b1
 a21 a22 · · · a2n   a21 a22 · · · a2n | b2 
A= . e A = ..  .
   
.. .. .. M  .. .. .. ..
 ..

. . .   . . . . . 
am1 am2 · · · amn am1 am2 · · · amn | bm

1.6.1 Métodos de Resolução de Sistemas Lineares


Método de Gauss-Jordan
O método de Gauss-Jordan consiste em efetuar operações elementares sobre as linhas
da matriz ampliada do sistema, até obter sua forma reduzida na forma escada.
A matriz ampliada reduzida à forma escada nos fornecerá a(s) solução(ões) ou alguma
incompatibilidade.
A vantagem deste processo é que um sistema cuja matriz ampliada é uma matriz na
forma escada tem solução(ões) ou incompatibilidade imediata(s).

Método de Gauss ou do Escalonamento


O método de Gauss consiste em efetuar operações elementares sobre as linhas da matriz
ampliada do sistema, até que esteja na forma escalonada.
SEÇÃO 1.6 • RESOLUÇÃO DE SISTEMAS LINEARES 50

Após reduzir a matriz ampliada à forma escalonada devemos fazer as devidas substituições
e obter a(s) solução(ões) ou alguma incompatibilidade.
A vantagem deste processo é que o número de operações elementares a serem realizadas
é bem menor do que o método de Gauss-Jordan.

Método da Matriz Inversa


Este método tem restrições de aplicabilidade, que são as seguintes:

(i) Sistema linear quadrado, ou seja, com o número de equações igual ao número de
variáveis.

(ii) Matriz dos coeficientes do sistema invertı́vel.

Sob as condições acima escrevendo o sistema linear quadrado




 a11 x1 + a12 x2 + · · · + a1n xn = b1
 a21 x1 + a22 x2 + · · · + a2n xn = b2

S: ..


 .
an1 x1 + an2 x2 + · · · + amn xn = bn

na forma matricial temos A · X = B, supondo que A é invertı́vel, então existe A−1 e portanto
resolvemos o sistema da seguinte maneira:

A · X = B ⇐⇒ A−1 · (A · X) = A−1 · B

⇐⇒ (A−1 · A) ·X = A−1 · B ⇐⇒ X = A−1 · B.


| {z }
In

Assim, a solução do sistema é X = A−1 · B.

Exemplos: Resolva os seguintes sistemas pelo método de Gauss-Jordan:


 
 x + 4y + 3z = 1   2x + 3y = 4
x + 2y + z + w = 0
1. S : 2x + 5y + 4z = 4 ; 2. S : ; 3. S : x+y = 6
x + 3y − z + 2w = 0
x − 3y − 2z 3x − 4y = 0
 
= 5
Solução:

3 | 1
 
1 4
1. A matriz ampliada de S é  2 5 4 | 4 , escalonando obtemos:
1 −3 −2 | 5
3 | 1 | 1
   
1 4 1 4 3
 2 5 4 | 4 ∼ 0 −3 −2
  | 2  L2 −→ L2 − 2L1
1 −3 −2 | 5 0 −7 −5 | 4 L3 −→ L3 − L1
1
3 | | 11 L1 −→ L1 − 4L2
   
1 4 1 1 0 3 3
2 2  1 2 2 
∼ 0 1 3
| −3 L2 −→ − 3 L2 ∼  0 1 3
| − 3
0 −7 −5 | 4 0 0 − 31 | − 23 L3 −→ L3 + 7L2
CAP. 1 • MATRIZES E SISTEMAS LINEARES 51

1 0 13 | 11 1 0 0 | L1 −→ L1 − 13 L3
   
3
3
∼  0 1 23 | − 32  ∼  0 1 0 | −2  L2 −→ L2 − 23 L3 .
0 0 1 | 2 L3 −→ −3L3 0 0 1 | 2


 x=3
Logo, a solução do sistema é y = −2 .

z=2
 
1 2 1 1 | 0
2. A matriz ampliada de S é , escalonando obtemos:
1 3 −1 2 | 0
   
1 2 1 1 | 0 1 2 1 1 | 0

1 3 −1 2 | 0 0 1 −2 1 | 0 L2 −→ L2 − L1
 
1 0 5 −1 | 0 L1 −→ L1 − 2L1
∼ .
0 1 −2 1 | 0

Logo, a solução do sistema é


 
x+ 5z − w = 0 x = −5z + w
⇐⇒ ,
y + 2z − w = 0 y = −2z + w

com z e w em IR.

3 | 4
 
2
3. A matriz ampliada de S é  1 1 | 6 , escalonando obtemos:
3 −4 | 0

3 | 4 1 | 6
   
2 1
L1 ←→ L2
 1 1 | 6 ∼ 2 3 | 4 
3 −4 | 0 3 −4 | 0

1 | 1 0 | L1 −→ L1 − L2
   
1 6 14
L2 −→ L2 − 2L1
∼ 0
 1 | −8  ∼ 0 1 | −8
  .
L3 −→ L3 − 3L1
0 −7 | −18 0 0 | −74 L3 −→ L3 + 7L2

Logo, o sistema não tem solução, pois a última linha da matriz na forma escada nos
diz que 0 = −74 um absurdo!


2x + y + z = 15
Exemplo: Resolva o sistema x + y + z = 6 pelo método da matriz inversa.

2x + 3y + 2z = 10
Solução:
SEÇÃO 1.6 • RESOLUÇÃO DE SISTEMAS LINEARES 52

A forma matricial do sistema acima é:


     
2 1 1 x 15
 1 1 1 · y  =  6 .
2 3 2 z 10
| {z } | {z } | {z }
A X B

 
2 1 1
Vimos na seção de matriz inversa que a matriz dos coeficientes A =  1 1 1  é
2 3 2
1 −1
 
0
−1
invertı́vel, e sua inversa é A =  0 −2 1 .
−1 4 −1
Logo, pelo método da matriz inversa a solução do sistema é:

1 −1
       
x 0 15 9
 y  =  0 −2 1  ·  6  =  −2  .
z −1 4 −1 10 −1

Observações: Seja S um sistema linear quadrado com matriz dos coeficientes A temos:

1. Se det A 6= 0, então S tem uma única solução.

2. Se det A = 0, então ou S tem infinitas soluções ou S não tem solução.

3. Se S é homogêneo e det A 6= 0, então a única solução de S é a solução trivial.

4. Se S é homogêneo e det A = 0, então S tem infinitas soluções.

Exercı́cio:
Resolva
 os seguintes sistemas lineares:
 2x + 4y = 16 
 2x + 4y = 16


5x − 2y = 4

1. ; 2. 5x − 2y = 4 ;
3x + y = 9
10x − 4y = 3

 

 4x − y = −7

 2x + y + 7z = 3 
x − 4y + 12z + 9w = 42
3. x + 3y + 2z = 5 ; 4. ;
2x − 7y + 26z + 21w = 85
5x + 3y + 4z = −5

 
 4x − 3y = −18  x + 4y + 6z = 11
5. 2y + 5z = −8 ; 6. 2x + 3y + 4z = 9 ;
x − 2y − 3z =
 
3 3x + 2y + 2z = 7

  3x + 5y − 4z = 0
x + 3y − 3z = 7
7. ; 8. −3x − 2y + 4z = 0 ;
3x + 9y − 4z = 1
6x + y − 8z = 0

CAP. 1 • MATRIZES E SISTEMAS LINEARES 53

 
 x − 2y − z + 3w = 0  3x + 6y − 4z − w = 0
9. −2x + 4y + 5z − 5w = 3 ; 10. −5x + 8z + 3w = 0 ;
x − 2y + 2z + 4w = 5 8x − y
 
+ 7w = 0

 3x − 7y + 8z − 5w + 8t = 9
11. 3y − 6z + 6w + 4t = −5 .
3x − 9y + 12z − 9w + 6t = 15

1.6.2 Teorema do Posto


Definição 1.19. Sejam A uma matriz e B a sua matriz equivalente na forma escada.

(i) O posto de A, denotado por p(A), é o número de linhas não nulas de B.


(ii) A nulidade de A, denotada por null(A), é a diferença entre o número de colunas de
A e o posto de A, ou seja, null(A) = n − p(A).

Exemplos: Em cada caso determine o posto da matriz A e da matriz AM :

| 1
   
1 4 3 1 4 3
1. A = 2
 5 4  e AM = 2  5 4 | 4 .
1 −3 −2 1 −3 −2 | 5
   
1 2 1 1 1 2 1 1 | 0
2. A = e AM = .
1 3 −1 2 1 3 −1 2 | 0

3 | 4
   
2 3 2
3. A =  1 1  e AM = 1 1 | 6 .
3 −4 3 −4 | 0
Solução:

1 0 0 |
   
1 0 0 3
1. A forma escada de A é I3 =  0 1 0  e a forma escada de AM é  0 1 0 | −2 .
0 0 1 0 0 1 | 2
Logo, p(A) = p(AM ) = 3, null(A) = 3 − 3 = 0 e null(AM ) = 4 − 3 = 1.
   
1 0 5 −1 1 0 5 −1 | 0
2. A forma escada de A é e a forma escada de AM é .
0 1 −2 1 0 1 −2 1 | 0
Logo, p(A) = p(AM ) = 2, null(A) = 4 − 2 = 2 e null(AM ) = 5 − 2 = 3.

1 0 |
   
1 0 14
3. A forma escada de A é  0 1  e a forma escada de AM é  0 1 | −8 .
0 0 0 0 | −74
Logo, p(A) = 2 e p(AM ) = 3, null(A) = 3 − 2 = 1 e null(AM ) = 3 − 3 = 0.
SEÇÃO 1.6 • RESOLUÇÃO DE SISTEMAS LINEARES 54

Teorema 1.20. (Teorema do Posto)


Sejam S um sistema de equações lineares com m equações e n variáveis, em IR ou em
C, pc o posto da matriz dos coeficientes de S e pa o posto da matriz ampliada de S, então:

(i) S admite solução se, e somente se, pa = pc .


(ii) Se pa = pc = n, então S tem uma única solução.
(iii) Se pa = pc = p e p < n, então S tem infinitas soluções. Além disso, as soluções terão
n − p variáveis livres.

Observação: O número n − p do item (iii) do teorema do posto é chamado grau de


liberdade do sistema linear S.

Exemplos: Classifique os sistemas lineares abaixo em possı́vel determinado, possı́vel inde-


terminado e impossı́vel utilizando o teorema do posto.

  x − 2y + 3z = 1
x+y+z = 4
1. ; 2. 2x − y + 2z = 3 ;
2x + 5y − 2z = 3 
3x + y + 2z = 3

  3x + 2y − 4z = 1
 x+y+z+w = 0 


 
 x−y+z = 3
x+y+z−w = 4
 
3. ; 4. x − y − 3z = −3
x + y − z + w = −4
 3x + 3y − 5z =
 

  0
 x−y+z+w = 2 

−x + y + z = 1

CAPÍTULO 2
ESPAÇOS VETORIAIS

2.1 Espaços Vetoriais


Definição 2.1. Um espaço vetorial consiste em:

(1) Um conjunto não vazio V de objetos, denominados vetores.


(2) Um corpo de números (escalares), denotado por IF .
(3) Uma operação de adição de vetores de V , que a cada par de elementos u, v ∈ V
associa um elemento u + v ∈ V e satisfaz as seguintes propriedades:

A1 u + v = v + u para quaisquer u e v em V ; comutativa.

A2 (u + v) + w = u + (v + w) para quaisquer u, v e w em V ; associativa.

A3 Existe um elemento 0V em V tal que

u + 0V = u

para todo u em V ; existência de elemento neutro.

A4 Para todo elemento u em V existe o elemento −u também em V tal que

u + (−u) = 0V ;

existência de elemento simétrico.

(4) Uma operação de multiplicação por escalar, que a cada par de elementos u ∈ V e
α ∈ IF associa um elemento α · u ∈ V e satisfaz as seguintes propriedades:

M1 α · (β · u) = (α · β) · u para quaisquer u ∈ V e α e β em IF .

M2 α · (u + v) = α · u + α · v para quaisquer u e v em V e todo e α em IF ; distributiva


da adição.

55
SEÇÃO 2.1 • ESPAÇOS VETORIAIS 56

M3 (α + β) · u = α · u + β · u para todo u ∈ V e quaisquer e α e β em IF ; distributiva


da multiplicação por escalar.

M4 Existe 1IF tal que 1IF · u = u para todo u ∈ V ; existência de unidade.

Observações:

1. Também denotamos o espaço vetorial V por (V, +, ·), com + a adição de vetores e ·
a multiplicação por escalar.

2. Também denominamos o espaço vetorial V por espaço vetorial sobre o corpo IF .

3. No caso em que IF = IR, dizemos que V é um espaço vetorial real.

4. No caso em que IF = C, dizemos que V é um espaço vetorial complexo.

5. O elemento neutro da adição é único.


De fato, se existissem dois elementos neutros 0V e 00V terı́amos:

0V = 0V + 00V = 00V + 0V = 00V ,

provando a unicidade.

6. Para cada u ∈ V existe um único simétrico em relação à adição.


De fato, se u tivesse dois simétricos −u e −u0 terı́amos:

(−u) = 0V + (−u) = u + (−u0 ) + (−u) = u + (−u) + (−u0 ) = 0V + (−u0 ) = −u0 ,


 

provando a unicidade.

2.1.1 Exemplos de Espaços Vetoriais


Alguns conjuntos numéricos que conhecemos têm estrutura espaços vetoriais tais como:
Exemplos:

1. O conjunto do números reais, IR, com as operações usuais de adição e multiplicação


de números reais, é um espaço vetorial real.

2. O conjunto do números complexos, C, com as operações usuais de adição e multi-


plicação de números complexos, é um espaço vetorial complexo, considerando o corpo
dos escalares como sendo IF = C.
Também podemos considerar o conjunto do números complexos, C, com corpo de
escalares IF = IR. Neste caso, C é um espaço vetorial real.
CAP. 2 • ESPAÇOS VETORIAIS 57

Espaços Vetoriais Euclidianos


Sabemos que IR é o conjunto dos números reais.
O IR2 é o produto cartesiano IR × IR, ou seja, é o conjunto de todos os pares ordenados
(x, y) de números reais.
Assim,
IR2 = {(x, y); x e y ∈ IR}.

Analogamente, IR3 é o produto cartesiano IR × IR × IR, ou seja, é o conjunto de todas as


ternas ordenadas (x, y, z) de números reais.
Logo,
IR3 = {(x, y, z); x, y e z ∈ IR}.

De modo geral, IRn , com n ∈ IN e n ≥ 2, é o produto cartesiano I|R × IR ×


{z · · · × IR}, ou
n vezes
seja, é o conjunto de todas n-uplas (x1 , x2 , · · · , xn ) de números reais.
Portanto,
IRn = {(x1 , x2 , · · · , xn ); x1 , x2 , · · · , xn ∈ IR}.

Observação:
Podemos denotar os elementos de IRn como matriz linha ou matriz coluna, por exemplo,
 
x1
  x2 
 
u = (x1 , x2 , · · · , xn ) = x1 x2 · · · xn =  .  .
 .. 
xn

Igualdade em IRn
Dados u = (x1 , x2 , · · · , xn ) e v = (y1 , y2 , · · · , yn ) em IRn temos:


 x1 = y1
 x2 = y2

u = v ⇐⇒ (x1 , x2 , · · · , xn ) = (y1 , y2 , · · · , yn ) ⇐⇒ ..


 .
xn = yn

Adição em IRn
Dados u = (x1 , x2 , · · · , xn ) e v = (y1 , y2 , · · · , yn ) em IRn , a adição de u e v, denotada
por u + v é dada por:

u + v = (x1 , x2 , · · · , xn ) + (y1 , y2 , · · · , yn ) = (x1 + y1 , x2 + y2 , · · · , xn + yn ).

Propriedades da Adição em IRn


Sejam u = (x1 , x2 , · · · , xn ), v = (y1 , y2 , · · · , yn ) e w = (z1 , z2 , · · · , zn ) elementos quaisquer
em IRn e 0IRn = (0, 0, · · · , 0), denotemos por −u = (−x1 , −x2 , · · · , −xn ), então valem:
| {z }
n−upla de zeros
SEÇÃO 2.1 • ESPAÇOS VETORIAIS 58

A1 u + v = v + u.

A2 (u + v) + w = u + (v + w).

A3 u + 0IRn = u.

A4 u + (−u) = 0IRn .

Multiplicação por Escalar em IRn


Dados u = (x1 , x2 , · · · , xn ) em IRn e α ∈ IR a multiplicação de u por α, denotada por
α · u é dada por:

α · u = α · (x1 , x2 , · · · , xn ) = (α · x1 , α · x2 , · · · , α · xn ).

Propriedades da Multiplicação por Escalar em IRn


Sejam u = (x1 , x2 , · · · , xn ) e v = (y1 , y2 , · · · , yn ) elementos quaisquer em IRn , α e β em
IR, então valem:

ME1 α · (u + v) = α · u + α · v.

ME2 (α + β) · u = α · u + β · u.

ME3 (α · β) · u = α · (β · u).

ME4 1 · u = u.

Das propriedades A1 − A4 e M E1 − M E4 segue que IRn , com a adição e multiplicação por


escalar definidas acima, é um espaço vetorial real. Chamado espaço vetorial euclidiano.
Observação: De maneira análoga definimos em Cn = {(z1 , · · · , zn ); z1 , · · · , zn ∈ C}, con-
junto de todas as n-uplas complexas, a adição e a multiplicação por escalar.
No caso em que os escalares são números reais damos a Cn uma estrutura de espaço
vetorial real; e no caso que os escalares são números complexo Cn é um espaço vetorial
complexo.

Exercı́cio: Considere o conjunto V = {(x, y) ∈ IR2 ; x > 0} com as operações:

Adição: (x1 , y1 ) ⊕ (x2 , y2 ) = (x1 · x2 , y1 + y2 ).

Multiplicação por Escalar: α (x, y) = (xα , α · y), para todo α ∈ IR.

(a) Mostre que V é um espaço vetorial real.

(b) Exiba o elemento neutro da adição ⊕.

(c) Exiba o simétrico aditivo de (x, y).

(d) Exiba a unidade da operação .

Solução:
CAP. 2 • ESPAÇOS VETORIAIS 59

• A adição está bem definida, pois dados (x1 , y1 ) e (x2 , y2 ) em V , então x1 > 0 e x2 > 0.
Como (x1 , y1 ) ⊕ (x2 , y2 ) = (x1 · x2 , y1 + y2 ) ∈ V, pois x1 · x2 > 0.
|{z} |{z}
>0 >0

• A multiplicação por escalar está bem definida, pois dados (x, y) em V , então x > 0.
x>0
Como α (x, y) ⊕ (x2 , y2 ) = (xα , α · y) ∈ V, pois xα > 0.

• (x1 , y1 ) ⊕ (x2 , y2 ) = (x1 · x2 , y1 + y2 ) = (x2 · x1 , y2 + y1 ) = (x2 , y2 ) ⊕ (x1 , y1 ), portanto


⊕ é comutativa.

• (x1 , y1 )⊕(x2 , y2 ) ⊕(x3 , y3 ) = (x2 ·x1 , y2 +y1 )⊕(x3 , y3 ) = (x1 ·x2 ·x3 , y1 +y2 +y3 ) =

(x1 , y1 ) ⊕ (x2 · x3 , y2 + y3 ) = (x1 , y1 ) ⊕ (x2 , y2 ) ⊕ (x3 , y3 ) , portanto ⊕ é associativa.

• Existência de elemento neutro: devemos mostrar que existe (a, b) ∈ V tal que

(x, y) ⊕ (a, b) = (x, y) para todo (x, y) ∈ V.

(x, y) ⊕ (a, b) = (x, y), ∀ (x, y) ∈ V ⇐⇒ (x · a, y + b) = (x, y), ∀ (x, y) ∈ V


 
x·a=x a=1
⇐⇒ , ∀ ∈ V ⇐⇒
y+b=y b=0

Portanto, o elemento da operação ⊕ é 0V = (1, 0).

• Existência de simétrico de um elemento (x, y) ∈ V : devemos mostrar que existe (a, b) ∈


V tal que
(x, y) ⊕ (a, b) = 0V = (1, 0).

  x>0 −1 1
x·a=1 a = x =
(x, y)⊕(a, b) = (1, 0) ⇐⇒ (x·a, y+b) = (1, 0) ⇐⇒ ⇐⇒ x
y+b=0  b = −y

 
1
Logo, o elemento simétrico de (x, y) em relação à ⊕ é , −y .
x
 
• α β (x, y) = α (xβ , βy) = (xβ )α , α · (β · y) = (xα·β , α · β · y) = (α · β) (x, y).
Logo vale a condição M1 .
 
• α (x1 , y1 ) ⊕ (x2 , y2 ) = α (x1 · x2 , y1 + y2 ) = (x1 · x2 )α , α · (y1 + y2 ) =
(xα1 · xα2 , α · y1 + α · y2 ) = (xα1 , α · y1 ) ⊕ (xα2 , α · y2 ).
Logo vale a condição M2 .

• (α+β) (x, y) = x(α+β) , (α+β)·y = (xα ·xβ , α·y+β ·y) = (xα , α·y)⊕(xβ , α β ·y) =
 
α (x, y) ⊕ β (x, y) .
Logo vale a condição M3 .
SEÇÃO 2.1 • ESPAÇOS VETORIAIS 60

• A unidade de , se existir, é um número α ∈ IR tal que

α (x, y) = (x, y), ∀(x, y) ∈ V.

α (x, y) = (x, y), ∀(x, y) ∈ V ⇐⇒ (xα , α · y) = (x, y), ∀(x, y) ∈ V


 α
x =x
⇐⇒ , ∀(x, y) ∈ V ⇐⇒ α = 1.
α·y =y

Portanto, a unidade da operação é o número 1.

Do desenvolvimento acima concluı́mos que V com a adição ⊕ e a multiplicação por escalar


é um espaço vetorial sobre IR.

Espaços Vetoriais de Matrizes


O conjunto da matrizes reais de ordem m × n, que denotamos por Mm×n (IR), com as
operações adição e multiplicação definidas no capı́tulo 1, é um espaço vetorial real.
Da mesma maneira, o conjunto da matrizes complexas de ordem m × n, que denotamos
por Mm×n (C), também é um espaço vetorial.
Será real se o corpo considerado é IR; e complexo se IF = C.
Os espaços vetoriais acima são chamados espaços de matrizes.

Espaços Vetoriais de Funções


Consideremos o conjunto de todas funções de IR em IR, denotado por F(IR), ou seja,

F(IR) = {f : IR −→ IR; f é uma função.}

Em F(IR) definimos a soma e a multiplicação por escalar da seguinte maneira:

Observações:

1. Denotamos a função nula, indicada por f0 , é a função que a todo x ∈ IR associa o


número zero, ou seja,

f0 : IR −→ IR; tal que f0 (x) = 0 para todo x ∈ IR.

2. Dada uma função f : IR −→ IR, a sua simétrica, indicada por −f , é a função dada
por
−f : IR −→ IR; tal que (−f )(x) = −f (x) para todo x ∈ IR.

Adição de Funções
Sejam f e g funções em F(IR), a soma de f e g é uma função, denotada por f + g, dada
por:
(f + g)(x) = f (x) + g(x), para todo x ∈ IR.
CAP. 2 • ESPAÇOS VETORIAIS 61

É claro que f + g ∈ F(IR).


Multiplicação por Escalares em Funções
Sejam f função em F(IR) e α ∈ IR, a multiplicação de f pelo escalar α é uma função,
denotada por α · f , dada por:

(α · f )(x) = α · f (x), para todo x ∈ IR.

Também temos α · f ∈ F(IR).


O conjunto F(IR) com as operações adição e multiplicação por escalar definidas acima é
um espaço vetorial real.

Exemplo: O conjunto das funções reais contı́nuas com domı́nio [a, b], com a e b reais e a < b,
e as operações adição e multiplicação por escalar definidas acima, também tem estrutura de
espaço vetorial.
Mais precisamente,

C([a, b]) = {f : [a, b] −→ IR; f é uma função contı́nua},

é um espaço vetorial real.

Os espaços vetoriais acima são chamados espaços de funções.

Espaços Vetoriais Polinomiais

Agora consideremos o conjunto dos polinômios reais (ou complexos) de grau ≤ n,


para n ∈ IN , com coeficientes reais, denotado por Pn (IR) (ou Pn (C)).
Um elemento de Pn (IR) é um polinômio p(t) dado por

p(t) = a0 + a1 t + · · · + an tn ,

com os coeficientes a0 , a1 , · · · , an ∈ IR, para todo t ∈ IR.

Observações:

1. O polinômio nulo, denotado por p0 , é o polinômio que a todo t ∈ IR associa o número


zero, ou seja,
p0 (t) = 0 para todo t ∈ IR.

2. Dado um polinômio p(t) = a0 + a1 t + · · · + an tn ∈ Pn (IR), o simétrico de p,


denotado por −p, é o polinômio (−p) dado por

−p(t) = −(a0 + a1 t + · · · + an tn ) = −a0 − a1 t − · · · − an tn

para todo t ∈ IR.


SEÇÃO 2.1 • ESPAÇOS VETORIAIS 62

Podemos considerar a adição e a multiplicação por escalar em Pn (IR) como as definidas


em funções.
Assim, Pn (IR) munido das operações de adição e de multiplicação por escalar é um espaço
vetorial real.
Enquanto, que Pn (C) munido das operações de adição e de multiplicação por escalar
sobre IR é um espaço vetorial real, e se a multiplicação por escalar é sobre C, então Pn (C)
é um espaço vetorial complexo.
Estes espaços vetoriais são chamados espaços de polinômios de grau ≤ n.

Teorema 2.2. (Lei do Cancelamento)


Seja V um espaço vetorial sobre um corpo IF . Dados u, v e w elementos quaisquer em
V , se u + v = u + w, então v = w.

Demonstração: Como u + v = u + w, somando (−u) em ambos os lados na igualdade


temos
v = (−u) + u + v = (−u) + u + w = w,
como querı́amos demonstrar.

Teorema 2.3. Seja V um espaço vetorial sobre um corpo IF . Dados u e v elementos quais-
quer em V , existe um único v ∈ V tal que u + w = v.

Demonstração: Suponhamos u + w = v, somando (−u) em ambos os lados na igualdade


temos w = (−u) + v.
Portanto, o único w = (−u) + v.

Propriedades de Espaços Vetoriais


Sejam V um espaço vetorial sobre o corpo IF , u, v ∈ V e α, β ∈ IF . Valem as seguintes
propriedades:

EV1 0IF · u = 0V .

EV2 α · 0V = 0V .

EV3 (−α) · u = −(α · u) = α · (−u).

EV4 Se α · u = 0V , então ou α = 0IF ou u = 0V .

EV5 Se α · u = α · v e α 6= 0IF , então u = v.

EV6 Se α · u = β · u e u 6= 0V , então α = β.

EV7 −(u + v) = (−u) + (−v) = −u − v.

EV8 u + u = 2u, u + u + u = 3u, de um modo geral, u {z· · · + u} = nu.


| +u+
n vezes
CAP. 2 • ESPAÇOS VETORIAIS 63

Verificação:

EV1 Seja v = 0IF · u, para todo u ∈ V .


Logo,
v + v = 0IF · u + 0IF · u = 0IF · (u + u) = v.

Somando (−v) em ambos os lados da igualdade, obtemos v = 0V .


Portanto, v = 0V .

EV2 Seja w = α · 0V , para todo α ∈ IF .


Logo,
w + w = α · 0V + α · 0V = (α + α) · 0V = w.

Somando (−w) em ambos os lados da igualdade, obtemos w = 0V .


Portanto, w = 0V .

EV3 Observemos que


α · u + (−α) · u = (−α + α) · u = 0V .

Portanto, −(α · u) = (−α) · u.


De maneira análoga mostramos que −(α · u) = α · (−u).

EV4 Se α = 0IF o resultado segue de EV1 .


Seja α · u = 0V com α 6= 0IF , então α é invertı́vel, ou seja, existe um único α−1 ∈ IF
tal que α−1 · α = 1.
Logo,
u = 1 · u = (α−1 · α) · u = α−1 · (α · u) = α−1 · 0V = 0V .

Consequentemente, u = 0V .

EV5 Como α 6= 0IF , então α é invertı́vel, e portanto, existe um único α−1 ∈ IF tal que
α−1 · α = 1.
Logo,
u = (α−1 · α) · u = α−1 · (α · u) = α−1 · (α · v) = (α−1 · α) · v = v.

Consequentemente, u = v.

EV6 Somando −(α · u) em ambos os lados da igualdade α · u = β · u, obtemos


  EV4
α · u + − (α · u) = β · u + − (α · u) ⇐⇒ 0V = (β − α) · u ⇐⇒ β − α = 0 ⇐⇒ α = β.
SEÇÃO 2.2 • SUBESPAÇOS VETORIAIS 64

EV7 Observemos que −(u + v) = (−1) · (u + v).


Logo,
M EV
−(u + v) = (−1) · (u + v) =2 (−1) · u + (−1) · v = (−u) + (−v) =3 −u − v.

EV8 A verificação pode ser feita por indução sobre n. No entanto, não a faremos, pois o
conceito de indução foge ao escopo deste texto.

2.2 Subespaços Vetoriais


Definição 2.4. Seja V um espaço vetorial sobre o corpo IF , dizemos que U um subconjunto
não vazio de V é um subespaço vetorial de V se, e somente se,
(i) Para quaisquer u1 e u2 em U tivermos u1 + u2 ∈ U .
(ii) U com as operações de adição de vetores e multiplicação por escalar definidas em V é
um espaço vetorial sobre IF .

Exemplos:
1. O subconjunto S = {(x, y)IR2 ; y = x} é um subespaço de IR2 .
Dados (x1 , y1 ) e (x2 , y2 ) em S temos y1 = x1 e y2 , x2 .
Logo, (x1 , y1 ) + (x2 , y2 ) = (x1 , x1 ) + (x2 , x2 ) = (x1 + x2 , x1 + x2 ) ∈ S e
α · (x1 , y1 ) = α · (x1 , x1 ) = (α · x1 , α · x1 ) ∈ S.
Além disso, como S ⊂ IR2 , portanto a adição é comutativa e associativa e as pro-
priedades de multiplicação por escalar M1 , M2 e M3 se verificam.
Como (0, 0) ∈ S; dado (x, x) ∈ S temos (−x, −x) ∈ S e 1 · (x, x) = (x, x) ∈ S
Portanto, S é subespaço vetorial de IR2 .

2. O conjunto C0 ([a, b]) = {f ∈ C([a, b]) tal que f (a) = f (b) = 0} é um subespaço vetorial
de C([a, b]).
Dados f e g em C0 ([a, b]) temos f (a) = f (b) = 0 e g(a) = g(b) = 0.
Como (f + g)(a) = f (a) + g(a) = 0 + 0 = 0 e (f + g)(b) = f (a) + g(b) = 0 + 0 = 0,
então f + g ∈ C0 ([a, b]).
Como α · f é tal que (α · f )(a) = α · f (a) = α · 0 = 0 e (α · f )(b) = α · f (b) = α · 0 = 0,
logo α · f ∈ C0 ([a, b]).
Além disso, como C0 ([a, b]) ⊂ C([a, b]), portanto a adição é comutativa e associativa e
as propriedades de multiplicação por escalar M1 , M2 e M3 se verificam.
Finalmente, f0 ∈ C0 ([a, b]); dado f ∈ C0 ([a, b]) temos −f ∈ C0 ([a, b]), pois (−f )(a) =
−f (a) = 0 e (−f )(b) = −f (b) = 0; e se f ∈ C0 ([a, b]), temos 1 · f = f ∈ C0 ([a, b]).
Portanto, C0 ([a, b]) é subespaço vetorial de C([a, b]).
CAP. 2 • ESPAÇOS VETORIAIS 65

3. O subconjunto S = {(x, y, z) ∈ IR3 ; x + y = z − 1} não é subespaço de IR3 , pois


u1 = (1, −3, −1) e u2 = (0, 1, 2) estão em S, mas

u1 + u2 = (1, −3, −1) + (0, 1, 2) = (1, −2, 1) ∈


/ S, pois 1 + (−2) = −1 6= 1 − 1 = 0.

Teorema 2.5. Seja V um espaço vetorial sobre IF , um subconjunto U não vazio V é um


subespaço vetorial de V se, e somente se,

(i) Para quaisquer elementos u1 e u2 em U tivermos u1 + u2 ∈ U .


(ii) Para todo u ∈ U e todo α ∈ IF tivermos α · u ∈ U.

Demonstração:
Suponhamos que U é subespaço vetorial de V , então U com a adição e a multiplicação
por escalar de V é um espaço vetorial e portanto valem (i) e (ii).
Reciprocamente, se U satisfaz (i) e (ii), como U ⊂ V , então as condições A1 , A2 , M1 ,
M2 , M3 e M4 são automaticamente satisfeitas, pois são válidas para todos os elementos de
V.
Mostremos então as condições A3 e A4 .

A3 Para todo u ∈ U e todo α ∈ IF , temos α · u ∈ U . Em particular, 0 · u = 0V ∈ U .


Portanto, U possui elemento neutro.

A4 Para todo u ∈ U e todo α ∈ IF , temos α · u ∈ U . Em particular, (−1) · u = −u ∈ U .


Logo, todo elemento de U possui simétrico em U .

Observações:

1. Segue do teorema 2.5 que se U é um subconjunto não vazio de V e 0v ∈


/ U , então U
não é subespaço de V .

2. Todo espaço vetorial V tem pelo menos dois subespaços vetoriais:

• O próprio V .

• O conjunto unitário {0V }.

Estes subespaços são chamados subespaços triviais de V .

Exemplos:

1. O conjunto U = f ∈ C([a, b]) tal que f (a) = 1 não é um subespaço vetorial de
C([a, b]).
Solução:
De fato, f0 ∈
/ U , pois f0 (a) = 0 6= 1.
SEÇÃO 2.2 • SUBESPAÇOS VETORIAIS 66

2. O subconjunto U = p(t) ∈ P3 (IR); p(2) = 0 e p0 (−1) = 0 é um subespaço vetorial




de P3 (IR.
Solução:
U 6= ∅, pois o polinômio nulo p0 está em U , já que p0 (t) = 0 para todo t ∈ IR e p00
também é o polinômio nulo.
Dados p e q em U e α ∈ IR, então:

(i) (p + q)(2) = p(2) + q(2) = 0 + 0 = 0 e (p + q)0 (−1) = p0 (−1) + q 0 (−1) = 0 + 0 = 0,


portanto p + q ∈ U .
(ii) (α · p)(2) = α · p(2) = α · 0 = 0 e (α · p)0 (−1) = α · p0 (−1) = α · 0 = 0, portanto
α · p ∈ U.

De (i) e (ii) concluı́mos que U é subespaço de P3 (IR).



−x + 3y + z = 0
3. (a) O conjunto solução do sistema homogêneo é um subes-
2x − y − z = 0
paço vetorial de IR3 .
 
−1 3 1 | 0
A matriz ampliada de S é , escalonando obtemos:
2 −1 −1 | 0
   
−1 3 1 | 0 −1 3 1 | 0
∼ .
2 −1 −1 | 0 0 5 1 | 0 L2 −→ L2 + 2L1
Assim, a solução do sistema é
  
−x + 3y + z = 0 x = 3y + z x = −2y
⇐⇒ ⇐⇒ , com y ∈ IR.
5y + z = 0 z = −5y z = −5y

Logo, o conjunto solução do sistema é

U = {(x, y, z) ∈ IR3 ; x = −2y e z = −5y}.



 x=0
U 6= ∅, pois o sistema admite pelo menos a solução trivial y = 0 , portanto,

z=0
(0, 0, 0) ∈ U .
 
x1 = −2y1 x2 = −2y2
(i) Dados (x1 , y1 , z1 ) e (x2 , y2 , z2 ) em U temos e
z1 = −5y1 z2 = −5y2
Logo,

(x1 , y1 , z1 ) + (x2 , y2 , z2 ) = (−2y1 , y1 , −5y1 ) + (−2y2 , y2 , −5y2 )



= (−2y1 −2y2 , y1 +y2 , −5y1 −5y2 ) = −2(y1 +y2 ), y1 +y2 , −5(y1 +y2 ) ∈ U.
(ii) Além disso,

α · (x1 , y1 , z1 ) = α · (−2y1 , y1 , −5y1 ) = (−2α · y1 , α · y1 , −5α · y1 ) ∈ U.


CAP. 2 • ESPAÇOS VETORIAIS 67

Portanto, de (i) e (ii) concluı́mos que U é subespaço vetorial de IR3 .

(b) De modo geral, o conjunto solução de um sistema homogêneo




 a11 x1 + a12 x2 + · · · + a1n xn = 0
 a21 x1 + a22 x2 + · · · + a2n xn

= 0
..


 .
am1 x1 + am2 x2 + · · · + amn xn = 0

é um subespaço vetorial de IRn .


Solução:
Para mostrar isto vamos escrever o sistema acima na forma matricial:
     
a11 a12 · · · a1n x1 0
 a21 a22 · · · a2n   x2   0 
..  ·  ..  =  ..  .
     
 .. .. ..
 . . . .   .   . 
am1 am2 · · · amn xn 0

Denotemos por U o conjunto solução  do sistema, é claro que U 6= ∅, pois o sistema



 x1 = 0
 x2 = 0

admite pelo menos a solução trivial .. , portanto, (0, 0, · · · , 0) ∈ U .


 .
xn = 0

   
λ1 µ1
 λ2   µ2 
(i) Sejam λ =  eµ=  em U , então
   
.. ..
 .   . 
λn µn
         
a11 a12 · · · a1n λ1 0 a11 a12 · · · a1n µ1 0
 a21 a22 · · · a2n  λ2   0   a21 a22 · · · a2n  µ2   0 
· =  e  · = .
         
 .. .. .. .. .. .. .. .. .. .. .. ..
 . . . .  .   .   . . . .  .   . 
am1 am2 · · · amn λn 0 am1 am2 · · · amn µn 0

Logo,        
a11 · · · a1n
a12 λ1 µ1
 a21 · · · a2n
a22    λ2   µ2  
· +
       
 .. .... ..  .. ..  
 . . . .    .   .  
am1 am2 · · · amn λn µn
       
a11 a12 · · · a1n λ1 a11 a12 · · · a1n µ1
 a21 a22 · · · a2n   λ2
    a21 a22 · · · a2n   µ2 
= ..  ·  .. + ·
     
.. .. .. .. .. .. .. .. 
 . . . .   .   . . . .   . 
am1 am2 · · · amn λn am1 am2 · · · amn µn
SEÇÃO 2.2 • SUBESPAÇOS VETORIAIS 68

     
0 0 0
 0   0   0 
= + = .
     
.. .. ..
 .   .   . 
0 0 0
Portanto, λ + µ é solução do sistema, ou seja, λ + µ ∈ U .
 
α · λ1
 α · λ2 
(ii) Dado α ∈ IR, mostremos que α · λ =  .  ∈ U .
 
 .. 
α · λn
         
a11 · · · a1n
a12 α · λ1 a11 a12 · · · a1n λ1
 a21 · · · a2n
a22   α · λ2   a21 a22 · · · a2n    λ2  
 ·  ..  =  .. · α 
         
 .. .. .. .. .. .. .. ..  
 . . . .   .   . . . .    .  
am1 am2 · · · amn α · λn am1 am2 · · · amn λn
         
a11 a12 · · · a1n λ1 0 0
  a21 a22 · · · a2n   λ2
     0   0 
=α·  . ..  ·  ..   = α ·  .. = .
       
.. .. ..
  .. . . .   .    .   . 
am1 am2 · · · amn λn 0 0

De (i) e (ii) concluı́mos que U é subespaço vetorial de IRn .

4. O subconjunto de M2 (IR) dado por:


  
x y
U= ; x − 2y + 3z = 0
z t
é um subespaço vetorial de M2 (IR).
Solução:
Observemos que
   
x y 2y − 3z y
A= ∈ U ⇐⇒ x − 2y + 3z = 0 ⇐⇒ x = 2y + 3z ⇐⇒ A = .
z t z t
 
0 0
É claro que U 6= ∅, pois ∈ U , já que 2 · 0 − 3 · 0 = 0.
0 0
   
2y1 − 3z1 y1 2y2 − 3z2 y2
Sejam A = eB= em U .
z1 t1 z2 t2

(i) Temos
     
2y1 − 3z1 y1 2y2 − 3z2 y2 2y1 − 3z1 + (2y2 − 3z2 ) y1 + y2
A+B = + =
z1 t1 z2 t2 z1 + z2 t1 + t1
 
2(y1 + y2 ) − 3(z1 + z2 ) y1 + y2
= .
z1 + z2 t1 + t1
Portanto, A + B ∈ U
CAP. 2 • ESPAÇOS VETORIAIS 69

(ii) Dado α ∈ IR, então


   
α · (2y1 − 3z1 ) α · y1 2(α · y1 ) − 3(α · z1 ) α · y1
α·A= = .
α · z1 α · t1 α · z1 α · t1

Logo, α · A ∈ U .

De (i) e (ii) concluı́mos que U é subespaço de M2 (IR).

5. O subconjunto de Mn (IR) dado por:



U = A ∈ Mn (IR); tr(A) = 0

é um subespaço vetorial de Mn (IR).


Solução:
Como tr(0n×n ) = 0, então U 6= ∅.

(i) Da propriedade T R2 de traço de matrizes quadradas temos:

tr(A + B) = tr(A) + tr(B).

Logo, se A e B estão em U , então

tr(A + B) = tr(A) + tr(B) = 0 + 0 = 0.


| {z } | {z }
0 0

Portanto, A + B ∈ U .
(ii) Da propriedade T R3 de traço de matrizes quadradas, dado α ∈ IR temos:

tr(α · A) = α · tr(A).

Logo, se A está em U e α ∈ IR, então

tr(α · A) = α · tr(A) = α · 0 = 0.
| {z }
0

Assim, α · A ∈ U .

De (i) e (ii) segue que U é um subespaço de Mn (IR).

6. Os seguintes subconjuntos de Mn (IR) definidos por:

U = {A ∈ Mn (IR); AT = A},

W = {A ∈ Mn (IR); AT = −A}
são subespaços vetoriais de Mn (IR).
SEÇÃO 2.2 • SUBESPAÇOS VETORIAIS 70

Solução:

(a) Como 0Tn×n = 0n×n , então U 6= ∅.


(i) Sejam A e B estão em U , então
T
(A + B)T =2 AT + B T = A + B.

Portanto, A + B ∈ U .
(ii) Sejam A em U e α ∈ IR, então
T
(α · A)T =3 α · AT = α · A.

Assim, α · A ∈ U .
De (i) e (ii) segue que U é um subespaço de Mn (IR).

(b) Como 0Tn×n = 0n×n = −0n×n , então W 6= ∅.


(i) Sejam A e B estão em W , então
T
(A + B)T =2 AT + B T = (−A) + (−B) = −(A + B).

Portanto, A + B ∈ W .
(ii) Sejam A em W e α ∈ IR, então
T
(α · A)T =3 α · AT = α · (−A) = −(α · A).

Assim, α · A ∈ W .
De (i) e (ii) segue que W é um subespaço de Mn (IR).

7. Verifique se o subconjunto U = {A ∈ Mn (IR); A2 = A} de Mn (IR) é um subespaço


vetorial de Mn (IR).
Solução:
U não é subespaço de Mn (IR), pois a matriz In , identidade de ordem n, está em U , já
que In2 = In · In = In .
Porém, 2 · I n ∈
/ U , pois

(2 · I n ) · (2 · I n ) = 4 · I n 6= 2 · I n .


8. O subconjunto U = p(t) ∈ P2 (IR); p(−1) = p(1) = 0 é um subespaço vetorial de
P2 (IR).

Solução:
U 6= ∅, pois o polinômio nulo p0 está em U , já que p0 (t) = 0 para todo t ∈ IR e
portanto, p0 (1) = p0 (−1) = 0.
Dados p e q em U e α ∈ IR, então:
CAP. 2 • ESPAÇOS VETORIAIS 71


(p + q)(1) = p(1) + q(1) = 0 + 0 = 0
(i) , portanto p + q ∈ U .
(p + q)(−1) = p(−1) + q(−1) = 0 + 0 = 0

(α · p)(1) = α · p(1) = α · 0 = 0
(ii) , portanto α · p ∈ U .
(α · p)(−1) = α · p(−1) = α · 0 = 0

De (i) e (ii) concluı́mos que U é subespaço de P2 (IR).

9. Os seguintes subconjuntos

U = f ∈ C([−a, a]); f (−x) = f (x) para todo x ∈ [−a, a] ,

W = f ∈ C([−a, a]); f (−x) = −f (x) para todo x ∈ [−a, a]
são subespaços vetoriais de C([−a, a]).

Solução:

(a) U 6= ∅, pois a função nula f0 está em U , já que:

f0 (x) = 0 = f0 (−x) para todo x ∈ [−a, a].

Dados f e g em U e α ∈ IR, então:


(i) (f +g)(−x) = f (−x)+g(−x) = f (x)+g(x) = (f +g)(x), portanto f +g ∈ U .
(ii) (α · f )(−x) = α · f (−x) = α · f (x) = (α · f )(x), portanto α · f ∈ U .
De (i) e (ii) concluı́mos que U é subespaço de C([−a, a]).

(b) W 6= ∅, pois a função nula f0 está em U , já que:

f0 (x) = 0 = −f0 (−x) para todo x ∈ [−a, a].

Dados f e g em U e α ∈ IR, então:


 
(i) (f +g)(−x) = f (−x)+g(−x) = −f (x) + −g(x) = −(f +g)(x), portanto
f + g ∈ W.

(ii) (α · f )(−x) = α · − f (x) = −α · f (x) = (−α · f )(x), portanto α · f ∈ W .
De (i) e (ii) concluı́mos que W é subespaço de C([−a, a]).

Observações:

1. As funções do conjunto U do exemplo acima são chamadas funções pares, en-


quanto que as funções do conjunto W são chamadas funções ı́mpares.
2. Toda função f em C([−a, a]) pode ser escrita como a soma de uma função par e
uma função ı́mpar.
f (x) + f (−x) f (x) − f (−x)
De fato, consideremos as funções g(x) = e h(x) = ,
2 2
temos: 
f (−x) + f − (−x) f (−x) + f (x)
g(−x) = = = g(x),
2 2
SEÇÃO 2.3 • COMBINAÇÃO LINEAR E SUBESPAÇO GERADO 72

enquanto que

f (−x) − f − (−x) f (−x) − f (x)
h(−x) = = = −h(x).
2 2
Logo, g é função par e h é função ı́mpar, e é claro que
f (x) + f (−x) f (x) − f (−x)
g(x) + h(x) = + = f (x).
2 2


10. O subconjunto S = v ∈ IR3 ; v = α(1, −1, 1) + (2, 1, 3) não é subespaço de IR3 .
Solução:
De fato, 0IR3 ∈
/ S, pois
 
α+2=0  α = −2
α(1, −1, 1) + (2, 1, 3) = (0, 0, 0) ⇐⇒ −α + 1 = 0 ⇐⇒ α=1 ,
α = −3
 
α+3=0

um absurdo!

2.3 Combinação Linear e Subespaço Gerado


Definição 2.6. Seja V um espaço vetorial sobre o corpo IF , dizemos que v ∈ V é uma
combinação linear dos vetores v1 , v2 , · · · , vn vetores em V se, e somente se, existem
escalares α1 , α2 , · · · , αn em IF tais que

v = α1 · v1 + α2 · v2 + · · · + αn · vn .

Exemplos:

1. O vetor (−2, 3) é combinação linear dos vetores (1, 0) e (0, 1) de IR2 , pois

(−2, 3) = −2(1, 0) + 3(0, 1).

2. O polinômio p(t) = t2 + 4t − 7 é combinação linear dos polinômios p1 (t) = t2 − 2t + 1


e p2 (t) = 3t − 4 de P2 (IR), pois

p(t) = t2 + 4t − 7 = (t2 − 2t + 1) + 2(3t − 4).


   
−1 3 1 1
3. A matriz A = é combinação linear das matrizes A1 = ,
0 2 0 1
   
1 1 0 1
A2 = e A3 = , pois
0 0 0 0
       
1 1 1 1 0 1 −1 3
2· + (−3) · +4· = .
0 1 0 0 0 0 0 2
CAP. 2 • ESPAÇOS VETORIAIS 73

Definição 2.7. Sejam V um espaço vetorial sobre o corpo IF e S um subconjunto finito de V ,


ou seja, S = {v1 , · · · , vn }, o conjunto de todas as combinações lineares de elementos de S
é um subespaço de V , chamado subespaço gerado pelos elementos de S, ou simplesmente,
subespaço gerado de S.
Notação: [S] ou [v1 , · · · , vn ].
Observações:
1. Notemos que

[S] = α1 · v1 + · · · + αn · vn ; α1 , · · · , αn ∈ IF .

2. [v1 , · · · , vn ] é o “menor” subespaço de V que contém os vetores {v1 , · · · , vn }.

3. Se U = [S], dizemos que S é um sistema de geradores para o subespaço U .

Exemplos:
1. Seja C0 ([0, 2π]) = {f ∈ C([0, 2π]) tal que f (0) = f (2π) = 0}, vimos que este conjunto
é subespaço de C([0, 2π]).
Consideremos S = {cos x, cos(2x), · · · , cos(nx)}, então

[S] = f ∈ C0 ([0, 2π]); f (x) = α1 cos x + α2 cos(2x) + · · · + αn cos(nx) .

2. Seja         
 1 0 0 0 1 0 0 0 1 0 0 0
S=  0 0 0 ,  0 0 0 ,  0 0 0 ,  0 1 0 ,

0 0 0 0 0 0 0 0 0 0 0 0
    
0 0 0 0 0 0 
 0 0 1 , 0 0 0  ,

0 0 0 0 0 1
então
        
 1 0 0 0 1 0 0 0 1 0 0 0
[S] = α1  0 0 0  + α2  0 0 0  + α3  0 0 0  + α4  0 1 0 

0 0 0 0 0 0 0 0 0 0 0 0
    
0 0 0 0 0 0 
+ α5  0 0 1  + α6  0 0 0  ; α1 , · · · , α6 ∈ IR

0 0 0 0 0 1
   
 α1 α2 α3 
=  0 α4 α5 ; α1 , · · · , α6 ∈ IR .

 
0 0 α6

Portanto, [S] é o subespaço das matrizes reais triangulares superiores de ordem 3.


SEÇÃO 2.3 • COMBINAÇÃO LINEAR E SUBESPAÇO GERADO 74

 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
3. Seja A =   uma matriz de Mm×n (IR).
 
.. .. .. ..
 . . . . 
am1 am2 · · · amn

(a) O subconjunto

C(A) = α1 · c1 + α2 · c2 + · · · + αm · cm ; α1 , α2 , · · · , αm ∈ IR ,
 
com ci = ai1 ai2 · · · ain a i-ésima linha de A, para i ∈ {1, · · · , m}, é o
subespaço de IRn gerado pelas linhas da matriz A, e denominado subespaço
linha de A.
(b) O subconjunto

R(A) = α1 · v1 + α2 · v2 + · · · + αn · vn ; α1 , α2 , · · · , αn ∈ IR ,
 
a1j
 a2j 
com vj =   a j-ésima coluna de A, para j ∈ {1, · · · , n}, é um subespaço
 
..
 . 
amj
m
de IR gerado pelas colunas de A, chamado subespaço coluna de A.
 
x1
 x2 
(c) As soluções do sistema homogêneo A·X = 0m×1 , com X =  .  é um subespaço
 
 .. 
xn
de IRn , denotado por chamado N (A) e denominado subespaço nulidade de A.
 
−1 1 −1
1 −1 1
 
Se A =  , temos:
 
 0 1 −1 
0 0 1

(a)
n        
C(A) = α1 −1 1 −1 + α2 1 −1 1 + α3 0 1 −1 + α4 0 0 1
  o
= −α1 + α2 α1 − α2 + α3 −α1 + α2 − α3 + α4 , com α1 , α2 , α3 ∈ IR .
 
Por exemplo, c = 1 2 −4 ∈ C(A), basta tomar α1 = 1, α2 = 2, α3 = 3 e
α4 = −2.
(b)       

 −1 1 −1

1 −1 1
      
R(A) = α1   + α2   + α3 
     
0 1 −1


      

 0 0 1
CAP. 2 • ESPAÇOS VETORIAIS 75

  
−α1 + α2 − α3 


α − α + α
  
 1 2 3 
=  , com α1 , α2 , α3 ∈ IR .
 α2 − α3  


α3 
 
−2
 6 
 
Por exemplo, v =   ∈ R(A), basta tomar α1 = 3, α2 = −1 e α3 = 2.
 −3 
2
    
−1 1 −1   0  −x1 + x2 − x3 =0
x1 

 1 −1 1    0  x1 − x 2 + x3 =0
    
(c) O sistema   · x2  =   é dado por
 0 1 −1   0   x2 − x3 =0
x3 

0 0 1 0  x3 =0

 x1 = 0
que tem apenas a solução trivial x =0
 2
x3 = 0

Logo, neste caso N (A) = (0, 0, 0) .

p1 (t) = t3 − 2

2
 
4. Mostre que p(t) = t + t − 1 ∈
/ p1 (t), p2 (t) ⊂ P3 (IR), com
p2 (t) = t + 1
De fato,
q(t) ∈ p1 (t), p2 (t) ⇐⇒ q(t) = a(t3 −2)+b(t+1) = at3 +bt+(b−2a), com a, b ∈ IR.
 

 
Logo, um polinômio em p1 (t), p2 (t) tem grau 3, ou grau 1 ou grau 0, portanto
 
p(t) ∈
/ p1 (t), p2 (t) .

Definição 2.8. Dizemos que um espaço vetorial V é finitamente gerado se existe S um


subconjunto finito de V tal que V = [S].

Exemplos:
1. IRn é finitamente gerado, pois
h i
IRn = (1, 0, · · · , 0), (0, 1, · · · , 0), · · · , (0, 0, · · · , 1) .

2. Pn (IR) é finitamente gerado, pois


h i
n
Pn (IR) = 1, t, · · · , t .

3. Mm×n (IR) é finitamente gerado, pois


     
1 ··· 0 0 ··· 0
  .. . . ..  , · · · ,  ... . . . ... 
Mm×n (IR) =   . . .  .
  

0 · · · 0 m×n 0 · · · 1 m×n
SEÇÃO 2.4 • SOMA, SOMA DIRETA E INTERSECÇÃO DE SUBESPAÇOS 76

2.4 Soma, Soma Direta e Intersecção de Subespaços


Teorema 2.9. Seja V um espaço vetorial sobre o corpo IF . Se U e W são subespaços
vetoriais de V , então:

(i) O subconjunto de V :
U ∩ W = {v ∈ V ; v ∈ U e v ∈ W }
é um subespaço de V .

(ii) O subconjunto de V :

U + W = {v ∈ V ; v = u + w, com u ∈ U e w ∈ W }

é um subespaço de V .

Demonstração:

(i) U ∩ W 6= ∅, pois 0V ∈ U e 0V ∈ W , 0V ∈ U ∩ W .

• Sejam v e u em U ∩ W , então v e u estão em U e v e u estão em W .


Como U e W são subespaços de V , então v + u ∈ U e v + u ∈ W .
Consequentemente v + u ∈ U ∩ W.
• Dado v em U ∩ W , então v ∈ U e v ∈ W .
Dado α ∈ IF , como U e W são subespaços de V , então α · v ∈ U e α · v ∈ W .
Logo, α · v ∈ U ∩ W.

Portanto, U ∩ W é subespaço de V .

(ii) U + W 6= ∅, pois 0V ∈ U e 0V ∈ W , 0V + 0V = 0V ∈ U + W .

• Sejam v1 e v2 em U + W , então v1 = u1 + w1 e v2 = u2 + w2 com u1 , u2 ∈ U e


w1 , w2 ∈ W .
Como U e W são subespaços de V , então u1 + u2 ∈ U e w1 + w2 ∈ W .
Consequentemente,

v1 + v2 = (u1 + w1 ) + (u2 + w2 ) = (u1 + u2 ) + (w1 + w2 ) ∈ U + W.

• Dado v em U + W , então v = u + w, com u ∈ U e w ∈ W .


Como U e W são subespaços de V , dado α ∈ IF temos α · u ∈ U e α · w ∈ W .
Logo,
α · v = α · (u + w) = α · u + α · w ∈ U + W.

Portanto, U + W é subespaço de V .
CAP. 2 • ESPAÇOS VETORIAIS 77

Observações:

1. O subespaço U ∩ W é chamado subespaço intersecção de U e W .

2. O subespaço U + W é chamado subespaço soma de U e W .

3. No caso em que U ∩ W = {0V }, o subespaço soma U + W é chamado subespaço


soma direta e denotado por U ⊕ W .

4. Dados V um espaço vetorial, U e W subespaços de um V . De modo geral, U ∪ W não


é subespaço vetorial de V .
Por exemplo, para V = IR2 , U = {(x, y) ∈ IR; x = 0 e W = {(x, y) ∈ IR; y = 0},
respectivamente o eixo y e o eixo x no plano cartesiano, então

U ∪ W = {(x, y) ∈ IR; x = 0 ou y = 0},

ou seja, é o conjunto dos pontos do plano cartesiano que estão ou no eixo x ou no eixo
y.
Assim, (1, 0) ∈ U ∪ W e (0, −3) ∈ U ∪ W , mas (1, 0) + (0, −3) = (1, −3) ∈
/ U ∪ W.

Exemplos: Em cada um casos abaixo, obtenha os subespaços U ∩ W e U + W , verifique se


a soma é direta.
3

 U = {(x, y, z) ∈ IR ; x = y}
1. V = IR3 com
W = {(x, y, z) ∈ IR3 ; z = 0}

Solução:

x=y
• (x, y, z) ∈ U ∩ W ⇐⇒
z=0
⇐⇒ (x, y, z) = (x, x, 0).
Logo, U ∩ W = {(x, y, z) ∈ IR3 ; x = y e z = 0}.
• U + W = {(x, y, z) ∈ IR3 ; (x, y, z) = (a, a, b) + (c, d, 0)}.

 x=a+c
Logo, (x, y, z) ∈ U + W ⇐⇒ y =a+d

z=b


 a=0

b=z

Tomando podemos escrever um vetor (x, y, z) de IR3 como soma de um

 c = x

 d=y
vetor de U e um vetor de W .
Portanto, U + W = IR3 , porém a soma não é direta, pois U ∩ W 6= {0IR3 }.
SEÇÃO 2.4 • SOMA, SOMA DIRETA E INTERSECÇÃO DE SUBESPAÇOS 78

   
a11 a12
∈ M2 (IR); a22 = a11


 U=


 a21 a22
2. V = M2 (IR) com
   

 a11 a12
 W =

 ∈ M2 (IR); a11 = 0 e a21 = −a12
a21 a22
Solução:
  
a b a=d
• A= ∈ U ∩ W ⇐⇒ ⇐⇒ a = d = 0 e c = −b
c d a = 0 e c = −b
 
0 b
⇐⇒ A = .
−b 0
  
0 b
Logo, U ∩ W = ∈ M2 (IR) .
−b 0
       
x y x y a b 0 d
• U +W = ∈ M2 (IR); = +
z t z t c a −d e


 x=a
  
x y y =b+d

Logo, ∈ U + W ⇐⇒
z t 
 z =c−d

 t=a+e


 a=x

 b=y

  
x y
Tomando c=z podemos escrever um vetor de M2 (IR) como
 z t


 d=0

e=t−x

soma de um vetor de U e um vetor de W .
Portanto, U + W = M2 (IR), porém a soma não é direta, pois U ∩ W 6= {0M2 (IR) }.


 U = {A ∈ Mn (IR); A é simétrica}
3. V = Mn (IR), com n ∈ IN e n ≥ 2,
W = {A ∈ Mn (IR); A é anti-simétrica}

Solução:

A = AT
 
A é simétrica
• A ∈ U ∩ W ⇐⇒ ⇐⇒ ⇐⇒ A = −A
A é anti-simétrica A = −AT
⇐⇒ 2A = 0n×n ⇐⇒ A = 0n×n .
Logo, U ∩ W = {0Mn (IR) }.
• Vimos no estudo de matrizes quadradas que toda matriz A ∈ Mn (IR) pode ser
escrita como:
A + AT A − AT
   
A= + .
2 2
| {z } | {z }
simétrica anti-simétrica

Portanto, U ⊕ W = Mn (IR), a soma é direta pois U ∩ W = {0n×n }.


CAP. 2 • ESPAÇOS VETORIAIS 79

 
 U = f ∈ F(IR); f é par
4. V = F(IR) com

W = f ∈ F(IR); f é ı́mpar

Solução:
 
f é par f (−x) = f (x) para todo x ∈ IR
• f ∈ U ∩ W ⇐⇒ ⇐⇒
f é ı́mpar f (−x) = −f (x) para todo x ∈ IR
⇐⇒ f (x) = −f (x) para todo x ∈ IR ⇐⇒ 2f (x) = 0 para todo x ∈ IR
⇐⇒ f (x) = 0 para todo x ∈ IR ⇐⇒ f = f0 a função nula.
Logo, U ∩ W = {f0 }.
• Vimos que toda função f ∈ F(IR) pode ser escrita como:
   
f (x) + f (−x) f (x) − f (−x)
f (x) = + .
2 2
| {z } | {z }
função par função ı́mpar

Portanto, U ⊕ W = F(IR), a soma é direta, pois U ∩ W = {0F (IR) }.

4

 U = {(x, y, z, w) ∈ IR ; x + y = 0 e z − w = 0}
5. V = IR4 com
W = {(x, y, z, w) ∈ IR4 ; x − y − z + w = 0}

Solução:

x = −y e w = z
• (x, y, z, w) ∈ U ∩ W ⇐⇒ ⇐⇒ −y = y + z − z
x=y+z−w

y=0
⇐⇒ 2y = 0 ⇐⇒ ⇐⇒ (x, y, z, w) = (0, 0, z, z).
x=0
Logo, U ∩ W = {(x, y, z, w) ∈ IR3 ; x = y = 0 e w = z}.
• U + W = IR4 , veremos isto após enunciarmos o teorema da dimensão da soma e
da intersecção.

2 3

 U = {p(t) = a0 + a1 t + a2 t + a3 t ∈ P3 (IR); a3 = −a1 }
6. V = P3 (IR) com
W = {p(t) ∈ P3 (IR); p(−1) = p0 (−1) = 0}

Solução:

2 3 a3 = −a1
• p(t) = a0 + a1 t + a2 t + a3 t ∈ U ∩ W ⇐⇒
p(−1) = p0 (−1) = 0
 
 a3 = −a1  a3 = −a1
⇐⇒ a − a1 + a2 − a3 = 0 ⇐⇒ a = a1 − a2 + a3
 0  0
a1 − 2a2 + 3a3 = 0 2a2 = a1 + 3a3
SEÇÃO 2.5 • DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 80

 
 a3 = −a1  a3 = −a1
⇐⇒ a = a1 − a2 − a1 = −a2 ⇐⇒ a = −a1
 0  2
2a2 = a1 − 3a1 = −2a1 a0 = a1
Logo, U ∩ W = {p(t) = a1 + a1 t − a1 t2 − a1 t3 ∈ P3 (IR)}.
• U + W = P3 (IR), veremos isto após enunciarmos o teorema da dimensão da soma
e da intersecção.

Observação: Seja V um espaço vetorial, se U e W são subespaços de V tais que V = U ⊕W ,


então para cada v ∈ V existem únicos u ∈ U e w ∈ W tais que v = u + w.
De fato, se existissem u1 , u2 ∈ U e w1 , w2 ∈ W com v = u1 + w1 = u2 + w2 , então
terı́amos u1 − u2 = w2 − w1 ∈ U ∩ W , mas como V = U ⊕ W , então U ∩ W = {0V }, daı́ que
u1 − u2 = w2 − w1 = 0V , e portanto {
u1 = u2
.
w2 = w1
Portanto a decomposição de v como soma de um elemento de U e um elemento de W é
única.

2.5 Dependência e Independência Linear


Definição 2.10. Seja V um espaço vetorial sobre o corpo , dizemos que um subconjunto
S = {v1 , v2 , · · · , vk }, de V , é linearmente independente se, e somente se, a equação

a1 v1 + a2 v2 + · · · + ak vk = 0V

tem apenas a solução trivial a1 = a2 = · · · = ak = 0.


No caso em que a equação tem alguma solução não trivial, dizemos que S é linearmente
dependente.

Observação: Em geral usamos a notação L.I. para vetores ou conjunto de vetores line-
armente independentes e a notação L.D. para designar vetores ou um conjunto de vetores
linearmente dependentes.

Exemplos: Nos casos abaixo verifique se S é L.I. ou L.D.


1. V = P2 (IR) e S = {t + 1, t2 − 1, t + t2 }.
Solução:
a(t + 1) + b(t2 − 1) + c(t + t2 ) = 0 ⇐⇒ (a − b) + (a + c)t + (b + c)t2 = 0
 
 a−b =0  a−b =0 
a=b
⇐⇒ a+ c = 0 ⇐⇒ b + c = 0 ⇐⇒
  c = −b
b+c=0 b+c=0

Portanto, por exemplo, a = b = 1 e c = −1 é uma solução da equação, consequente-


mente S é L.D.
CAP. 2 • ESPAÇOS VETORIAIS 81

   
1 −1 0 1
2. V = M2 (IR) e S = , .
1 0 1 −1
Solução:
         
1 −1 0 1 0 0 a −a + b 0 0
a +b = ⇐⇒ =
1 0 1 −1 0 0 a+b −b 0 0


 a=0
 
−a + b = 0 a=0

⇐⇒ ⇐⇒

 a+b=0 b=0

 −b = 0

Logo, a única solução da equação é a trivial a = b = 0, portanto S é L.I.

3. V = IR3 e S = {(1, −1, 3), (−2, 3, −5), (0, 1, 1)}.


Solução:
a(1, −1, 3) + b(−2, 3, −5) + c(0, 1, 1) = (0, 0, 0)

a − 2b
 =0
⇐⇒ (a − 2b, −a + 3b + c, 3a − 5b + c) = (0, 0, 0) ⇐⇒ −a + 3b + c = 0
3a − 5b + c = 0


 a − 2b =0 
a = 2b
⇐⇒ b + c = 0 ⇐⇒
 c = −b
b+c=0

Logo, por exemplo, b = 1, a = 2 e c = −1 é uma solução da equação, consequentemente


S é L.D.

4. V = C([0, 2π]) e S = {1, cos x, sen (2x)}.


Solução:
a + b cos(2x) + csen x = 0 para todo x ∈ [0, 2π].
π 3π
Em particular para x = 0, x = e x = obtemos:
2 2
  
 a+b =0  a+b =0  a=0
a − b + c = 0 ⇐⇒ −2b + c = 0 ⇐⇒ b=0
a+b−c=0 −c = 0
  
c=0

Portanto, S é L.I.

5. V = F(IR) e S = {1, cos2 x, sen2 x}.


Solução:
a + b cos2 x + c sen2 x = 0 para todo x ∈ IR.
SEÇÃO 2.5 • DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 82

Mas sabemos que cos2 x+ c sen2 x = 1 para todo x ∈ IR, portanto a equação acima
 a=1
tem solução não trivial b = −1
c = −1

Logo, S é L.D.

Propriedades de Dependência e Independência Linear


Seja V um espaço vetorial, decorrem da definição de dependência e independência linear
as seguintes consequências:

LI1 Se S = {v1 , v2 } é um subconjunto de V , com v1 6= 0V e v2 6= 0V , então S é L.D. se, e


somente se, v1 e v2 são múltiplos (proporcionais).

LI2 Se S = {v} é um subconjunto unitário de V e v 6= 0V , então S é L.I.

LI3 Se S é um subconjunto de V tal que 0V ∈ S, então S é L.D, ou seja, todo conjunto que
contém o elemento neutro, 0V , é linearmente dependente.

LI4 Se S e S 0 são subconjuntos de V com S ⊂ S 0 e S L.D., então S 0 também é L.D., ou


seja, todo conjunto contido em um subconjunto L.D. também é L.D.

LI5 Se S e S 0 são subconjuntos de V com S ⊂ S 0 e S 0 L.I., então S também é L.I., ou seja,


todo subconjunto de um conjunto L.I. também é L.I.

LI6 O conjunto vazio, ∅ ⊂ V , é linearmente independente.

Teorema 2.11. Sejam V um espaço vetorial sobre o corpo IF e v1 , v2 , · · · , vk vetores em


V . O conjunto S = {v1 , v2 , · · · , vk } é linearmente dependente (LD) se, e somente se, um
de seus elementos pode ser escrito como combinação linear dos demais elementos.

Demonstração: Suponhamos que S = {v1 , v2 , · · · , vk } é um subconjunto L.D. de V ,


então a equação
a1 v1 + a2 v2 + · · · + ak vk = 0V
tem alguma solução trivial.
Suponhamos sem perda de generalidade que uma solução não trivial seja com a1 6= 0,
então temos:
−a2 −ak
a1 v1 = −a2 v2 − · · · − ak vk =⇒ v1 = v2 + · · · + vk .
a1 a1
Assim, v1 se escreve como combinação linear dos demais vetores.
Reciprocamente, supondo que v1 = α1 v2 + · · · + αk−1 vk , então temos

v1 − α1 v2 − · · · − αk−1 vk .

Consequentemente, S é linearmente dependente.


CAP. 2 • ESPAÇOS VETORIAIS 83

2.6 Base e Dimensão


Agora vamos estabelecer o procedimento para determinar se um vetor arbitrário de
espaço vetorial V pode ser obtido através um subconjunto finito de V . Nem sempre isto
será possı́vel, porém aos espaços vetoriais que tal procedimento ocorra poderemos também
atribuir-lhe sua dimensão.

Definição 2.12. Seja V um espaço vetorial sobre o corpo IF , um subconjunto


B = {v1 , v2 , · · · , vn } é uma base de V se, e somente se,

(i) B gera V , ou seja, [B] = V .

(ii) B é linearmente independente.

Exemplos:

1. B = {(1, 0), (0, 1) é base de IR2 , pois:

• Para todo (x, y) ∈ IR2 podemos escrever (x, y) = x(1, 0) + y(0, 1), logo [B] = IR2 .
• B é L.I. pela propriedade LI1 .

2. B = {(1, 0), (0, 1) é base de C2 , como espaço vetorial sobre C, pois:

• Para todo (x + iy, z + iw) ∈ IR2 podemos escrever

(x + iy, z + iw) = (x + iy)(1, 0) + (z + iw)(0, 1),

logo [B] = C2 .
• B é L.I. pela propriedade LI1 .

3. B = {(1, 0), (0, 1), (i, 0), (0, i) é base de C2 , como espaço vetorial sobre IR, pois:

• Para todo (x + iy, z + iw) ∈ IR2 podemos escrever

(x + iy, z + iw) = x(1, 0) + y(i, 0) + z(0, 1) + w(0, i),

logo [B] = C2 .
• B é L.I., pois a equação abaixo tem apenas a solução trivial:


 a=0

b=0

a(1, 0)+b(i, 0)+c(0, 1)+d(0, i) = (0, 0) ⇐⇒ (a+bi, c+di) = (0, 0) ⇐⇒

 c=0

 d=0
SEÇÃO 2.6 • BASE E DIMENSÃO 84

4. B = {(1, −1), (0, 1), (1, 1) não é base de IR2 , pois B é L.D. já que

(1, −1) = (1, 1) + (−2)(0, 1).

5. B = {(1, 0, 0), (0, 1, 0), (0, 0, 1) é base de IR3 , pois:

• Para todo (x, y, z) ∈ IR3 podemos escrever (x, y, z) = x(1, 0, 0) + y(0, 1, 0) +


z(0, 0, 1), portanto [B] = IR3 .
• B é L.I., pois a única solução da equação

 a=0
a(1, 0, 0) + b(0, 1, 0) + c(0, 0, 1) = (0, 0, 0) é b=0

c=0

6. B = {(1, 0, 0), (0, 1, −1) é base de IR3 , pois não existem números reais a e b tais que,
por exemplo, a(1, 0, 0) + b(0, 1, −1) = (1, 2, 3).
       
1 0 0 1 0 0 0 0
7. B = , , , é base de M2 (IR), pois:
0 0 0 0 1 0 0 1
 
x y
• Para toda matriz ∈ M2 (IR) podemos escrever
z t
         
x y 1 0 0 1 0 0 0 0
=x +y +z +t ,
z t 0 0 0 0 1 0 0 1

portanto [B] = M2 (IR).


• B é L.I., pois a única solução da equação


 a=0
          
1 0 0 1 0 0 0 0 0 0 b=0

a +b +c +d = é
0 0 0 0 1 0 0 1 0 0 
 c=0

 d=0

8. B = {1, t, t2 } é base de P2 (IR), pois:

• Para todo p(t) = a0 +a1 t+a2 t2 ∈ P2 (IR) podemos escrever p(t) = a0 ·1+a1 ·t+a2 ·t2 ,
portanto [B] = P2 (IR).
• B é L.I., pois a única solução da equação

 a=0
a · 1 + b · t + c · t2 ≡ 0 é b=0

c=0
CAP. 2 • ESPAÇOS VETORIAIS 85

Observações:

1. A base B = {e1 , e2 , · · · , en } de IRn , com ei = (0, · · · , 1


|{z} , · · · , 0) é chamada
i−ésima posição
base canônica de IRn .

2. A base B = {E11  , E12 , · · · , E1n , E21 , E22, · · · , E2n , · · · , En1 , En2 , · · · , Enn } de
0 ··· ··· ··· 0
 .. .. .
.. .. .. 
 . . . . 
 
 0 ··· 1 ··· 0 
Mn (IR), com Eij  |{z}  é chamada base canônica de Mn (IR).
posição ij
 
 .. .. .. .. .. 
 
 . . . . . 
0 ··· ··· ··· 0 n×n


3. A base B = 1, t, · · · , tn de Pn (IR) é chamada base canônica de Pn (IR).

4. F(IR) e C([a, b]) não têm base finita, pois não existe um conjunto finito de funções L.I
que gera qualquer função.

Teorema 2.13. Sejam V um espaço vetorial sobre o corpo IF e S = {v1 , v2 , · · · , vn } um


subconjunto de V tal que [S] = V , então:

(i) Podemos extrair de S uma base de V .

(ii) Qualquer subconjunto de V com mais do que n vetores é necessariamente L.D.

Demonstração:

(i) Se S é L.I., então S é uma base de V , pois por hipótese [S] = V .


Se S é L.D., então a equação a1 v1 + a2 v2 + · · · + an vn = 0V tem alguma solução não
trivial.
Suponhamos sem perda de generalidade que uma solução não trivial seja com an 6= 0,
então podemos escrever:

−a1 −an−1
vn = v1 + · · · + vn−1 =⇒ vn ∈ [v1 , · · · , vn−1 ].
an an

Consequentemente, V = [v1 , · · · , vn−1 ]


Se {v1 , · · · , vn−1 } é L. I., então está é uma base de V .
Caso contrário repetimos o procedimento sucessivamente até encontrar B um subcon-
junto de S com B L.I. e [B] = V.
SEÇÃO 2.6 • BASE E DIMENSÃO 86

(ii) Por hipótese sabemos que V = [S] e pelo item (i) podemos extrair de S uma base de
V , suponhamos que B = {v1 , · · · , vk } é uma tal base de V .
Seja {w1 , w2 , · · · , wm } um subconjunto de V com m > k, como B é base de V
podemos escrever:
w1 = a11 v1 + a12 v2 + · · · a1k vk
w2 = a21 v1 + a22 v2 + · · · a2k vk
.. .
.
wm = am1 v1 + am2 v2 + · · · amk vk

Assim a equação α1 w1 + α2 w2 + · · · αm wm = 0V é equivalente à seguinte:

α1 (a11 v1 + a12 v2 + · · · a1k vk ) + α2 (a21 v1 + a22 v2 + · · · a2k vk )

+ · · · αm (am1 v1 + am2 v2 + · · · amk vk ) = 0V


⇐⇒ (α1 a11 + α2 a21 + · · · + αm am1 ) v1
+(α1 a12 + α2 a22 + · · · + αm am2 ) v2 + · · ·
+(α1 a1k + α2 a2k + · · · + αm amk ) vk = 0V .

Como {v1 , · · · , vk } é L.I., então devemos ter:




 α1 a11 + α2 a21 + · · · + αm am1 = 0
 α1 a12 + α2 a22 + · · · + αm am2 = 0

..


 .
α1 a1k + α2 a2k + · · · + αm amk = 0

um sistema homogêneo com m variáveis (α1 , α2 , · · · , αm ) e k equações e k ≤ n < m.


Mas, sabemos que pc = pa ≤ k, com pc e pa , respectivamente, o posto da matriz dos
coeficientes e o posto da matriz ampliada do sistema acima.
Logo, pelo teorema do posto o sistema tem infinitas soluções.
Portanto, {w1 , w2 , · · · , wm } é L.D.

Corolário 2.14. Seja V um espaço vetorial sobre o corpo IF , se B = {v1 , · · · , vn } é uma


base de V e S = {w1 , w2 , · · · , wm } é um subconjunto L.I de V , então m ≤ n.

Corolário 2.15. Seja V um espaço vetorial sobre o corpo IF finitamente gerado, então
qualquer base V tem o mesmo número de elementos.

Demonstração: Sejam B1 = {v1 , · · · , vn } e B2 = {w1 , w2 , · · · , wm } bases de V pelo


corolário acima como B1 é base e B2 é L.I devemos ter m ≤ n.
Por outro lado, como B2 é base e B1 é L.I devemos ter n ≤ m.
Portanto, m = n.
CAP. 2 • ESPAÇOS VETORIAIS 87

Definição 2.16. Seja V um espaço vetorial sobre o corpo IF finitamente gerado. A di-
mensão de V , denotada por dimV , é o número de elementos de uma base de V .

Observações:

1. Se V é um espaço que tem uma base finita, dizemos que V é um espaço vetorial de
dimensão finita.

2. No caso em queremos especificar o corpo considerado para obter a dimensão de um


espaço vetorial finitamente gerado indicamos a dimensão por dimIF V.

Exemplos:

1. dimIR2 = 2, dimIR3 = 3, dimIRn = n.

2. dimC C2 = 2, dimC C3 = 3, dimC Cn = n, dimIR C2 = 4, dimIR C3 = 6, dimIR Cn = 2n.

3. dimM2 (IR) = 4, dimM3 (IR) = 9, dimMn (IR) = n2 .

4. dimP1 (IR) = 2, dimP2 (IR) = 3, dimPn (IR) = n + 1.

5. F(IR) e C([a, b]) não têm dimensão finita.

Teorema 2.17. (Teorema do Completamento)


Seja V um espaço vetorial sobre o corpo IF de dimensão finita. Se S = {v1 , v2 , · · · , vn }
é um subconjunto de L.I. V , então podemos completar S para formar uma base de V .

Corolário 2.18. Seja V um espaço vetorial sobre o corpo IF de dimensão n, então todo
subconjunto L.I de V com n vetores é uma base de V .

Teorema 2.19. Seja V um espaço vetorial sobre o corpo IF de dimensão finita. Se U é um


subespaço de V , então:

(i) dimU ≤ dimV .

(ii) dimU = 0 se, e somente se, U = {0V }.

(iii) dimU = dimV , se e somente se, U = V .

Teorema 2.20. (Teorema da Soma e da Intersecção de Subespaços)


Sejam V um espaço vetorial sobre o corpo IF de dimensão finita, U e W são subespaços
de V , então:
dim(U + W ) = dimU + dimW − dim(U ∩ W ).

Exemplos: Determine uma base e a dimensão de U , W , U ∩ W e U + W , nos seguintes


casos:
SEÇÃO 2.6 • BASE E DIMENSÃO 88

3

 U = {(x, y, z) ∈ IR ; x = y}
1. V = IR3 com
W = {(x, y, z) ∈ IR3 ; z = 0}

Solução:

• (x, y, z) ∈ U ⇐⇒ (x, y, z) = (x, x, z) = x(1, 1, 0) + z(0, 0, 1).


Assim, BU = {(1, 1, 0), (0, 0, 1)} é uma base de U e dim U = 2.
• (x, y, z) ∈ W ⇐⇒ (x, y, z) = (x, y, 0) = x(1, 0, 0) + y(0, 1, 0).
Logo, BW = {(1, 0, 0), (0, 1, 0)} é uma base de W e dim W = 2.
• Vimos que U ∩ W = {(x, y, z) ∈ IR3 ; x = y e z = 0}.
Portanto, (x, y, z) ∈ U ∩ W ⇐⇒ (x, y, z) = (x, x, 0) = x(1, 1, 0).
Logo, BU ∩W = {(1, 1, 0)} é uma base de U ∩ W e dim U ∩ W = 1.
• Pelo teorema da soma e da intersecção de subespaços sabemos que

dim (U + W ) = dim {zW} − dim


| {z U} + |dim |
(U ∩ W ) = 3.
{z }
2 2 1

Como U + W é subespaço de IR3 e dim U + W = 3, segue que U + W = IR3 .


   
a11 a12
∈ M2 (IR); a22 = a11


 U=


 a21 a22
2. V = M2 (IR) com
   

 a11 a12
 W =

 ∈ M2 (IR); a11 = 0 e a21 = −a12
a21 a22
Solução:
           
a b a b a b 1 0 0 1 0 0
• ∈ U ⇐⇒ = =a +b +c .
c d c d c a 0 1 0 0 1 0
     
1 0 0 1 0 0
Assim, BU = , , é uma base de U e dim U = 3.
0 1 0 0 1 0
         
a b a b 0 b 0 1 0 0
• ∈ W ⇐⇒ = =b +d .
c d c d −b d −1 0 0 1
   
0 1 0 0
Portanto, BW = , é uma base de W e dim W = 2.
−1 0 0 1
  
0 b
• Vimos que U ∩ W = ∈ M2 (IR) .
−b 0
 
0 1
Logo, BU ∩W = é uma base de U ∩ W e dim U ∩ W = 1.
−1 0
• Pelo teorema da soma e da intersecção de subespaços sabemos que

dim (U + W ) = |dim {zW} − dim


{z U} + |dim |
(U ∩ W ) = 4.
{z }
3 2 1

Como U +W é subespaço de M2 (IR) e dim U +W = 4, segue que U +W = M2 (IR).


CAP. 2 • ESPAÇOS VETORIAIS 89

4

 U = {(x, y, z, w) ∈ IR ; x + y = 0 e z − w = 0}
3. V = IR4 com
W = {(x, y, z, w) ∈ IR4 ; x − y − z + w = 0}

Solução:

• (x, y, z, w) ∈ U ⇐⇒ (x, y, z, w) = (x, −x, z, z) = (x, −x, 0, 0) + (0, 0, z, z) =


x(1, −1, 0, 0) + z(0, 0, 1, 1).
Logo, BU = {(1, −1, 0, 0), (0, 0, 1, 1)} é uma base de U e dim U = 2.
• (x, y, z, w) ∈ W ⇐⇒ (x, y, z, w) = (y + z − w, y, z, w) = y(1, 1, 0, 0) + z(1, 0, 1, 0) +
w(−1, 0, 0, 1).
Assim, BW = {(1, 1, 0, 0), (1, 0, 1, 0), (−1, 0, 0, 1)} é uma base de U e dim W = 3.
• Vimos que U ∩ W = {(x, y, z, w) ∈ IR3 ; x = y = 0 e w = z}.
Daı́ que, (x, y, z, w) ∈ U ∩ W ⇐⇒ (x, y, z, w) = (0, 0, z, z) = z(0, 0, 1, 1).
Portanto, BU ∩W = {(0, 0, 1, 1)} é uma base de U ∩ W e dim U ∩ W = 1.
• Pelo teorema da soma e da intersecção de subespaços sabemos que

dim (U + W ) = dim {zW} − dim


| {z U} + |dim |
(U ∩ W ) = 4.
{z }
3 2 1

Como U + W é subespaço de IR4 e dim U + W = 4, segue que U + W = IR4 .

2 3

 U = {p(t) = a0 + a1 t + a2 t + a3 t ∈ P3 (IR); a3 = −a1 }
4. V = P3 (IR) com
W = {p(t) ∈ P3 (IR); p(−1) = p0 (−1) = 0}

Solução:

• p(t) = a0 + a1 t + a2 t2 + a3 t3 ∈ U ⇐⇒ p(t) = a0 + a1 t + a2 t2 + a3 t3 = a0 + a1 t +
a2 t2 − a1 t3 = a0 + a1 (t − t3 ) + a2 t2 .
Logo, BU = {1, t + t3 , t2 } é uma base de U e dim U = 3.
• p(t) = a0 + a1 t + a2 t2 + a3 t3 ∈ W ⇐⇒ p(−1) = p0 (−1) = 0
 
a0 − a1 + a2 − a3 = 0 a0 = a1 − a2 + a3
⇐⇒ ⇐⇒
a1 − 2a2 + 3a3 = 0 a1 = 2a2 − 3a3

a0 = 2a2 − 3a3 − a2 + a3 = a2 − 2a3
⇐⇒
a1 = 2a2 − 3a3
⇐⇒ p(t) = a2 − 2a3 + (2a2 − 3a3 )t + a2 t2 + a3 t3 = a2 (1 + 2t + t2 ) + a3 (−2 − 3t + t3 ).
Assim, BW = {1 + 2t + t2 , −2 − 3t + t3 } é uma base de W e dim W = 2.
• Vimos que U ∩ W = {p(t) = a1 + a1 t − a1 t2 − a1 t3 ∈ P3 (IR)}.
Portanto, p(t) = a0 + a1 t + a2 t2 + a3 t3 ∈ U ∩ W ⇐⇒ p(t) = a1 + a1 t − a1 t2 − a1 t3 =
a1 (1 + t − t2 − t3 ).
Logo, BU = {1 + t − t2 − t3 } é uma base de U ∩ W e dim U ∩ W = 1.
SEÇÃO 2.6 • BASE E DIMENSÃO 90

• Pelo teorema da soma e da intersecção de subespaços sabemos que

| {z U} + |dim
dim (U + W ) = dim {zW} − dim
|
(U ∩ W ) = 4.
{z }
3 2 1

Como U +W é subespaço de P3 (IR) e dim U +W = 4, segue que U +W = P3 (IR).

Procedimento para o Completamento de uma Base

Sejam V um espaço vetorial sobre um corpo IF finitamente gerado de dimensão n e


S = {w1 , w2 , · · · , wm }, com m ≤ n, um subconjunto de V . Para determinar uma base de
V procedemos da seguinte maneira:

1o Passo: Consideramos B = {v1 , v2 , · · · , vn } a base canônica de V e escrevemos os


vetores de S como combinação linear dos vetores B:

w1 = a11 v1 + a12 v2 + · · · a1n vn


w2 = a21 v1 + a22 v2 + · · · a2n vn
.. .. .
. .
wm = am1 v1 + am2 v2 + · · · amn vn

2o Passo: Consideramos a matriz A dos coeficientes dos vetores de S em relação à B, ou


seja,
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
A= . ..  .
 
. .. . .
 . . . . 
am1 am2 · · · amn

3o Passo: Escalonamos a matriz A obtendo uma matriz A0 :


 
α11 α12 · · · α1n
 α21 α22 · · · α2n 
A0 =  .
 
.. .. ... ..
 . . . 
αm1 αm2 · · · αmn

Observemos que o conjunto S 0 = {u1 , u2 , · · · , um }, com

u1 = α11 v1 + α12 v2 + · · · α1n vn


u2 = α21 v1 + α22 v2 + · · · α2n vn
.. ..
. .
um = αm1 v1 + αm2 v2 + · · · αmn vn
CAP. 2 • ESPAÇOS VETORIAIS 91

gera o mesmo subespaço que S, pois os vetores de S 0 foram obtidos dos vetores de S
por operações elementares que são:

 Li ←→ Lj permuta os vetores wi e wj
L −→ kLi , com k 6= 0, substitui o vetor wi por kwi ,
 i
Li −→ Li + kLj , com k 6= 0, substitui o vetor wi por wi + kwj
que são lineares.
Portanto, U = [S] = [S 0 ].

4o Passo: Analisamos os casos:

(a) Se posto de (A)= posto de (A0 ) = m = n, então tanto S como S 0 são bases de V .
(b) Se posto de (A)= posto de (A0 ) = m < n, então tanto S e S 0 são subconjuntos
L.I. de V .
Para encontrarmos uma base de V basta completar a matriz A0m×n , adicionando
n − m linhas de modo a obter uma matriz A00n×n na forma escalonada, digamos
que seja:
···
 
α11 α12 α1n
 α21
 α22 ··· α2n  
 .. .. . . ..
.

 . . . 
00
 
A =  αm1
 αm2 ··· αmn  .
 (m+1)1 α(m+1)2 · · · α(m+1)n 
 α 
 .. .. .. .. 
 . . . . 
αn1 αn2 ··· αnn
O conjunto B 0 = {u1 , u2 , · · · , um , um+1 , · · · un }, com
u1 = α11 v1 + α12 v2 + · · · α1n vn
u2 = α21 v1 + α22 v2 + · · · α2n vn
.. ..
. .
um = αm1 v1 + αm2 v2 + · · · αmn vn ,
um+1 = αm+11 v1 + αm+12 v2 + · · · αm+1n vn
.. ..
. .
un = αn1 v1 + αn2 v2 + · · · αnn vn
é uma base de V .
(c) Se posto de (A)= posto de (A0 ) = r < m ≤ n, então tanto S e S 0 são subconjuntos
L.D. de V .
Consideremos as r primeiras linhas de A0 , que são não nulas, é claro que o conjunto
{u1 , u2 , · · · , ur }, com
u1 = α11 v1 + α12 v2 + · · · α1n vn
u2 = α21 v1 + α22 v2 + · · · α2n vn
.. .. ,
. .
ur = αr1 v1 + αr2 v2 + · · · αrn vn
SEÇÃO 2.6 • BASE E DIMENSÃO 92

é um subconjunto L. I. de V .
Para obter uma base procedemos no caso (b), a diferença é que neste caso a partir
das r primeiras linhas de A0 adicionando n − r linhas de modo a obter uma matriz
A00n×n na forma escalonada, digamos que seja:

···
 
α11 α12 α1n

 α21 α22 ··· α2n 

 .. .. .. ..
.

 . . . 
00
 
A = αr1 αr2 ··· αrn .

 α
 (r+1)1 α(r+1)2 · · · α(r+1)n 

 .. .. .. .. 
 . . . . 
αn1 αn2 ··· αnn

O conjunto B 0 = {u1 , u2 , · · · , ur , ur+1 , · · · un }, com

u1 = α11 v1 + α12 v2 + · · · α1n vn


u2 = α21 v1 + α22 v2 + · · · α2n vn
.. ..
. .
ur = αr1 v1 + αr2 v2 + · · · αrn vn ,
ur+1 = αr+11 v1 + αr+12 v2 + · · · αr+1n vn
.. ..
. .
un = αn1 v1 + αn2 v2 + · · · αnn vn

é uma base de V .

Exemplos: Através do conjunto S obtenha uma base de V , nos seguintes casos:

1. S = {1 + t, t2 − t, t3 + t2 + t, 2t3 − 1} subconjunto de V = P3 (IR).


Solução:
A base canônica de P3 (IR) é B = {1, t, t2 , t3 } e os vetores de S se escrevem como
combinação linear dos vetores de B da seguinte maneira:

1+t = 1 · t + 1 · t + 0 · t2 + 0 · t3
t2 − t = 0 · t − 1 · t + 1 · t2 + 0 · t3
.
t3 + t2 + t = 0 · t + 1 · t + 1 · t2 + 1 · t3
2t3 − 1 = −1 · t + 0 · t + 0 · t2 + 2 · t3

Assim, a matriz dos coeficientes é:


 
1 1 0 0
0 −1 1 0
 
A= ,
 
 0 1 1 1 
−1 0 0 2
CAP. 2 • ESPAÇOS VETORIAIS 93

cuja forma escalonada pode ser:


 
1 1 0 0
0 −1 1 0
 
0
A = .
 
 0 0 2 1 
0 0 0 −3

Logo, posto de (A) = 4 e portanto S é base de P3 (IR).


     
1 −1 1 −2 3 −4
2. S = , , subconjunto de V = M2 (IR).
0 1 3 1 1 0
       
1 0 0 1 0 0 0 0
Solução: B = , , , é a base canônica de
0 0 0 0 1 0 0 1
M2 (IR) e os vetores de S se escrevem como combinação linear dos vetores de B da
seguinte maneira:
         
1 −1 1 0 0 1 0 0 0 0
=1· −1· +0· +1·
0 1 0 0 0 0 1 0 0 1
         
1 −2 1 0 0 1 0 0 0 0
=1· −2· +3· +1· .
3 1 0 0 0 0 1 0 0 1
         
3 −4 1 0 0 1 0 0 0 0
=3· −4· +1· +0·
1 0 0 0 0 0 1 0 0 1

Portanto, a matriz dos coeficientes dos vetores de S em relação a essa base é:
1 −1 0 1
 

A =  1 −2 3 1  ,
3 4 1 0
cuja forma escalonada pode ser:
1 −1
 
0 1
A0 =  0 −1 3 0 .
0 0 −2 −3

Logo, posto de (A) = 3 e para encontrar uma base, basta completar a matriz acima
de modo a encontrar A00 uma matriz 4 × 4 na forma escalonada, por exemplo:
 
1 −1 0 1
 0 −1 3 0 
 
00
A = .
 0 0 −2 −3 
0 0 0 1

Logo,        
0 1 −1 0 −1 0 0 0 0
B = , , ,
0 1 3 0 −2 −3 0 1
é base de M2 (IR).
SEÇÃO 2.7 • COORDENADAS DE UM VETOR 94

3. S = {(1, 7, −3, 1), (3, 21, 0, −1), (2, 14, −3, −2)} subconjunto de IR4
Solução:
B = {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} é a base canônica de IR4 e a matriz
dos coeficientes dos vetores de S em relação a essa base é:
1 7 −3
 
1
A =  3 21 0 −1  ,
2 14 −3 −2
cuja forma escalonada pode ser:
1 7 −3
 
1
A0 =  0 0 3 −4  .
0 0 0 0

Assim, posto de (A) = 2 e para encontrar uma base, basta acrescentar duas linhas
após as linhas não nulas de A0 de modo a encontrar A00 uma matriz 4 × 4 na forma
escalonada, por exemplo:  
1 7 −3 1
 0 1 1 1 
 
A00 =  .
 0 0 3 −4 
0 0 0 2
Logo,
B 0 = {(1, 7, −3, 1), (0, 1, 1, 1), (0, 0, 3, −4), (0, 0, 0, 2)}
é uma base de IR4 .

2.7 Coordenadas de um Vetor


Teorema 2.21. Seja V espaço vetorial sobre um corpo IF de dimensão n. Se
B = {v1 , v2 , · · · , vn } é uma base de V , então cada vetor v de V se escreve de maneira
única como combinação linear dos vetores de B.
Demonstração: Suponhamos que
v = a1 v1 + a2 v2 + · · · + an vn = b1 v1 + b2 v2 + · · · + bn vn .
Logo,
(a1 − b1 )v1 + (a2 − b2 )v2 + · · · + (an − bn )vn = 0V .
Como B é L.I. devemos ter necessariamente:
 

 a1 − b 1 = 0 
 a1 = b 1
 a2 − b 2 = 0
  a2 = b 2

.. ⇐⇒ ..


 . 

 .
an − b n = 0 an = b n
 

Portanto, v se escreve de maneira única como combinação linear dos vetores de B.


CAP. 2 • ESPAÇOS VETORIAIS 95

Definição 2.22. Seja V espaço vetorial sobre um corpo IF de dimensão finita, uma base
ordenada de V é uma base de vetores ordenados, isto é, na qual está determinado quem é
o primeiro vetor, o segundo e assim por diante até o último.

Definição 2.23. Sejam V espaço vetorial sobre um corpo IF de dimensão finita e


B = {v1 , v2 , · · · , vn } uma base ordenada de V . Dado v ∈ V as coordenadas de v em
relação à B são os números a1 , a2 , · · · , an tais que

v = a1 v1 + a2 v2 + · · · + an vn .
 
a1
 a2 
Notação: [v]B =  .
 
..
 . 
an

Exemplos: Determine as coordenadas de v em relação à base B, nos seguintes casos:

1. v = (−3, 7) e B = {(1, 1), (0, −1)}.


Solução:
 
−3
Como (−3, 7) = −3(1, 1) − 10(0, −1), então [v]B = .
−10

2. v = 2 + 4t + t2 e B = {1, 1 + t, 1 + t + t2 }.
Solução:
Como
 
 a+b+c=2  a = −2
2 2
2 + 4t + t = a + b(1 + t) + c(1 + t + t ) ⇐⇒ b+c=4 ⇐⇒ b=3 ,
 
c=1 c=1

então 2 + 4t + t2 = −2 + 3(1 + t) + (1 + t + t2 ).
−2
 

Portanto, [v]B =  3  .
1
         
2 −3 0 1 1 0 1 0 0 0 0
3. v = eB = , , ,
4 7 1 1 1 1 1 1 0 1
Solução:
         
2 −3 1 1 0 1 0 0 0 0
Como =a +b +c +d
4 7 1 1 1 1 1 1 0 1
   
2 −3 a a+b
⇐⇒ =a
4 7 a+b+c a+b+c+d
SEÇÃO 2.7 • COORDENADAS DE UM VETOR 96

 

 a = 2 
 a=2
 
a + b = −3 b = −5
 
⇐⇒ ⇐⇒

 a+b+c=4 
 c=7

 a+b+c+d=7 
 d=3

 
2
−5
 
Portanto, [v]B =  .
 
 7 
3

4. Sejam V um espaço vetorial real de dimensão 4 e B = {v1 , v2 , v3 , v4 } uma base de V .

(a) Mostre que B 0 = {v1 + v2 + v3 + v4 , v1 + v2 + v3 , v1 + v2 , v1 } é uma base de V .


 
3
 −2 
 
(b) Se [v]B =  , determine [v]B0 .
 4 
1

Solução:

(a) Para mostrar que B 0 é base, basta mostrar que seus vetores são L. I., pois o
número de vetores de B 0 é igual a dimensão de V .
Assim, devemos analisar as soluções da equação:

a(v1 + v2 + v3 + v4 ) + b(v1 + v2 + v3 ) + c(v1 + v2 ) + dv1 = 0V


⇐⇒ (a + b + c + d)v1 + (a + b + c)v2 + (a + b)v3 + av4 = 0V
 

 a + b + c + d = 0 
 d=0
 
a+b+c=0 c=0
 
⇐⇒ ⇐⇒

 a+b=0 
 b=0
 
 a=0  a=0

Portanto, B 0 é L. I., consequentemente é uma base de V .


 
3
 −2 
 
(b) Como [v]B =  , então v = 3v1 − 2v2 + 4v3 + v4 .
 4 
1
Queremos escrever

v = a(v1 + v2 + v3 + v4 ) + b(v1 + v2 + v3 ) + c(v1 + v2 ) + dv1


⇐⇒ v = (a + b + c + d)v1 + (a + b + c)v2 + (a + b)v3 + av4 .

Assim,

v = 3v1 − 2v2 + 4v3 + v4 = (a + b + c + d)v1 + (a + b + c)v2 + (a + b)v3 + av4


CAP. 2 • ESPAÇOS VETORIAIS 97

 

 a + b + c + d = 3 
 d=5
 
a + b + c = −2 c = −6
 
⇐⇒ ⇐⇒

 a+b=4 
 b=3
 
 a=1  a=1
 
1
 3 
 
Portanto, [v]B0 =
 −6 

5

5. Em F(IR) consideremos o subespaço U = ex , e−x .


 

(a) Mostre que B = {ex , e−x } é uma base de U .


ex + e−x ex − e−x
(b) As funções cosh x = e senh x = são vetores de U , determine
2 2
as coordenadas dessas funções em relação à base B

Solução:

(a) Como U = ex , e−x , basta mostrar que os vetores de ex e e−x são L.I., assim
 

vamos analisar as soluções da equação:

a · ex + b · e−x ≡ 0.

 se x = 0, então temos a + b = 0
Assim, 1
 se x = ln 2, então temos 2a + b = 0
2

 a+b=0 
a=0
=⇒ 1 ⇐⇒
 2a + b = 0 b=0
2

Portanto, B é L.I. e consequentemente base de U .


ex + e−x 1 1 1 1
(b) Temos cosh x = = ex + e−x e senh x = ex − e−x .
2 2 2 2 2
1 1
   
 2   2 
Logo, [cosh x]B =   e [senh x]B = 
   

 1   1 

2 2

2.8 Matriz Mudança de Base


Sejam V espaço vetorial sobre um corpo IF de dimensão finita,
B = {v1 , v2 , · · · , vn } e B 0 = {u1 , u2 , · · · , un } bases ordenadas de V , dado um vetor
SEÇÃO 2.8 • MATRIZ MUDANÇA DE BASE 98

v ∈ V podemos escrevê-lo como:


v = α1 v1 + α2 v2 + · · · αn vn (2.1)
v = β1 u1 + β2 u2 + · · · + βn un .
 
α1
 α2 
Nosso objetivo é relacionar as coordenadas de v em relação à base B, [v] = ,
 
B0 ..
 . 
αn
 
β1
 β2 
como as coordenadas de v em relação à base B 0 , [v]B0 =  . .
 
.
 . 
βn
0
Já que B = {u1 , u2 , · · · , un } é base de V , podemos escrever os vetores de B como
combinação linear dos vetores de B 0 , ou seja,


 v1 = a11 u1 + a21 u2 + · · · an1 un
 v2 = a12 u1 + a22 u2 + · · · an2 un

.. .. (2.2)


 . .
vn = a1n u1 + a2n u2 + · · · ann un

Substituindo em 2.1 temos:


v = α1 (a11 u1 + a21 u2 + · · · an1 un ) + α2 (a12 u1 + a22 u2 + · · · + an2 un )
+ · · · + αn (a1n u1 + a2n u2 + · · · + ann uvn )
= (α1 a11 + α2 a12 + · · · αn a1n )u1 + (α2 a21 + a2 α22 + · · · αn a2n )u2
+ · · · + (αn an1 + αn an2 + · · · + αn ann )un .
Mas como v = β1 u1 + β2 u2 + · · · + βn un e as coordenadas em relação a uma base são
únicas temos necessariamente:


 β1 = α1 a11 + α2 a12 + · · · αn a1n
 β2 = α2 a21 + α2 a22 + · · · αn a2n

..


 .
βn = αn an1 + αn an2 + · · · + αn ann

Que podemos escrever matricialmente como:


     
β1 a11 a12 · · · a1n α1
 β2   a21 a22 · · · a2n   α2 
 ..  =  .. ..  ·  ..  . (2.3)
     
.. . .
 .   . . . .   . 
βn an1 an2 · · · ann αn
Definição 2.24. Sejam V espaço vetorial sobre um corpo IF de dimensão finita,
B = {v1 , v2 , · · · , vn } e B 0 = {u1 , u2 , · · · , un } bases ordenadas de V , a matriz
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
A= .
 
. .. . . .. 
 . . . . 
an1 an2 · · · ann
CAP. 2 • ESPAÇOS VETORIAIS 99

é chamada matriz mudança de base de B para a base B 0 .


Notação: MBB0 .

Observações:

1. Comparando MBB0 com 2.2, vemos que esta matriz é obtida colocando as coordenadas
em relação a B 0 de vi na i-ésima coluna.

2. Conhecendo a matriz MBB0 podemos encontrar as coordenadas de qualquer vetor v em


relação à base B 0 multiplicando esta matriz pela matriz das coordenadas de v na base
B.

3. Da equação 2.3 temos:


[v]B0 = MBB0 · [v]B .
−1 0
4. A matriz mudança de base MBB0 é invertı́vel e sua inversa, MBB0 , é a matriz MBB é
matriz mudança de base de B 0 para B, ou seja,
−1 0
MBB0 = MBB .

Exemplos:
 
cos θ −sen θ
1. A matriz Rθ = , com θ um número real, é a matriz de rotação do
sen θ cos θ
ângulo θ no sentido anti-horário.
 
−1 cos θ sen θ
A matriz Rθ é invertı́vel com inversa Rθ = .
−sen θ cos θ
Para cada θ ∈ IR o conjunto

B 0 = (cos θ, sen θ), (−sen θ, cos θ)




é um base de IR2 , denotando por B a base da canônica de IR2 temos:


0
Rθ é a matriz de mudança de B 0 para B, ou seja, Rθ = MBB .
Rθ−1 é a matriz de mudança de B para B 0 , ou seja, Rθ−1 = MBB0 .
π
Determine a matriz de mudança de base da canônica de IR2 para B 0 para θ = e para
2
π
θ= .
4
Solução:
Devemos determinar:
cos π2 sen π2
   
−1 0 1 π
• Rπ = π π = , que é a matriz rotação de .
2 −sen 2 cos 2 −1 0 2
SEÇÃO 2.8 • MATRIZ MUDANÇA DE BASE 100

 √ √ 
2 2
cos π4 sen π4 2 2
   
−1 , que é a matriz rotação de π .
 
• Rπ = = √ √
4 −sen π4 cos π4   4
 2 2 

2 2

2. Em P3 (IR), determine a matriz mudança de base MBB0 da base canônica B para a base
B 0 = {1 + t, t2 − t, t3 + t2 + t, 2t3 − 1}.
Solução:
Vamos escrever os vetores de B 0 em relação aos vetores de B, pois a base B é canônica:

1+t = 1 · t + 1 · t + 0 · t2 + 0 · t3
t2 − t = 0 · t − 1 · t + 1 · t2 + 0 · t3
.
t3 + t2 + t = 0 · t + 1 · t + 1 · t2 + 1 · t3
2t3 − 1 = −1 · t + 0 · t + 0 · t2 + 2 · t3

 
1 0 0 −1
1 −1 1 0 
 
0
Logo, MBB =   , cuja inversa é a matriz

 0 1 1 0 
0 0 1 2
 
4/3 −1/3 −1/3 2/3
2/3 −2/3 1/3 1/3
 
MBB0 =  ,
 
 −2/3 2/3 2/3 −1/3 
1/3 −1/3 −1/3 2/3

que é a matriz mudança de base de B para a base B 0 .

3. Sejam IR3 e U o subespaço que tem base B 0 = {(1, 5, 8), (4, −1, 5)}, sabendo que
 
B0 1 1
MB = é a matriz mudança de base de B 0 para B, determine a base B.
2 −1
Solução:
Seja B = {v1 , v2 } temos:

(1, 5, 8) = v1 + 2v2
=⇒ 3v2 = (−3, 6, 3) ⇐⇒ v2 = (−1, 2, 1).
(4, −1, 5) = v1 − v2

Consequentemente, v1 = (4, −1, 5) + v2 = (4, −1, 5) + (−1, 2, 1) = (3, 1, 6).


Portanto, B = {(3, 1, 6), (−1, 2, 1)}.
CAP. 2 • ESPAÇOS VETORIAIS 101

2.9 Base Ortonormal e Base Ortogonal


2.9.1 Produto Interno e Vetores Ortogonais
Produto Interno em Espaços Vetoriais Reais

Definição 2.25. Seja V um espaço vetorial sobre o corpo IR, um produto interno em V
é uma aplicação
h·, ·i : V × V −→ IR
(u, v) 7−→ hu, vi
que satisfaz as seguintes propriedades:

P IIR1 hu, vi = hv, ui, para quaisquer u, v ∈ V simetria.

P IIR2 hv, vi ≥ 0, para todo v ∈ V e hv, vi ≥ 0 ⇐⇒ v = 0V positividade.

P IIR3 hu + w, vi = hu, vi + hw, vi, para quaisquer u, w, v ∈ V distributividade.

P IIR4 hλu, vi = λhv, ui, para quaisquer u, v ∈ V e todo λ ∈ IR homogeneidade.

Observações:

1. Segue das propriedades de simetria, distributividade e homogeneidade que:

(i) hv, u + wi = hv, ui + hv, wi, para quaisquer u, w, v ∈ V .


(ii) hu, λvi = λhv, ui, para quaisquer u, v ∈ V e todo λ ∈ IR.

2. Em um espaço vetorial V sobre IR pode estar definido mais do que um produto interno,
no entanto neste texto vamos considerar apenas o produto interno usual, o mais comum.

Dizemos que o produto interno, em V um espaço vetorial real, é uma aplicação bilinear,
ou seja, é uma aplicação linear nas duas variáveis.
Exemplos:

1. Em IRn o produto interno usual é a aplicação:

h·, ·i : IRn × IRn −→ IR



(u1 , · · · , un ), (v1 , · · · , vn ) 7−→ h(u1 , · · · , un ), (v1 , · · · , vn )i
= u1 v1 + · · · + un vn .

(a) Em IR2 o produto interno usual é dado por:

h(u1 , u2 ), (v1 , v2 )i = u1 v1 + u2 v2 .

Assim, por exemplo, h(1, −2), (3, 1)i = 3 − 2 = 1 e


h(1, 0), (0, 1)i = 0 + 0 = 0.
SEÇÃO 2.9 • BASE ORTONORMAL E BASE ORTOGONAL 102

(b) Em IR3 o produto interno usual é dado por:

h(u1 , u2 , u3 ), (v1 , v2 , v3 )i = u1 v1 + u2 v2 + u3 v3 .

Assim, por exemplo, h(4, 1, −2), (3, −5, 2)i = 12 − 5 − 4 = 3 e


h(0, 1, 0), (0, 0, 1)i = 0 + 0 + 0 = 0.

2. Em C([a, b]) o produto interno usual é a aplicação:

h·, ·i : C([a, b]) × C([a, b]) −→ IR


Z b
(f, g) 7−→ hf, gi = f (x)g(x) dx.
a

1
Assim, por exemplo, se f (x) = e g(x) = x2 − 1, ambas são funções contı́nuas em
x+1
[0, 1].
Logo,
  Z 1 Z 1
1 2 1 2
hf, gi = ,x − 1 = · (x − 1) dx = (x − 1) dx
x+1 0 x+1 0
1
= (x2 − x + c) = (1 − 1 + c) − (0 − 0 + c) = 0.

0

3. Em Mn (IR) o produto interno usual é a aplicação:

h·, ·i : Mn (IR) × Mn (IR) −→ IR


(A, B) 7−→ hA, Bi = tr(B T · A),

com tr(B T · A) o traço da matriz B T · A.


   
a11 a12 b11 b12
(a) Em M2 (IR) o produto interno usual, dadas A = eB= ,
a21 a22 b21 b22
temos:      
T b11 b21 a11 a12
hA, Bi = tr(B · A) = tr ·
b12 b22 a21 a22
 
a11 b11 + a21 b21 a12 b11 + a22 b21
= tr
a11 b12 + a21 b22 a12 b12 + a22 b22
X
= a11 b11 + a21 b21 + a12 b12 + a22 b22 = aij bij .
1≤i,j≤2

Assim, por exemplo,


*   +
1 2 0 −1
, =0−2−2+4=0 e
−2 4 1 1
*   +
1 4 2 −1
, = 2 + (−4) + (−15) + 24 = 3.
−3 6 5 4
CAP. 2 • ESPAÇOS VETORIAIS 103

   
(b) Analogamente, em M3 (IR) A = aij 3×3
eB= bij 3×3
, temos:

hA, Bi = a11 b11 + a12 b12 + a13 b13 + a21 b21 + a22 b22 + a23 b23 + a31 b31
X
+ a32 b32 + a33 b323 = aij bij.
1≤i,j≤3

Assim, por exemplo,


* 3 −1 0   1 0 −1 +
 2 4 1  ,  −2 1 1  = 3+0+0+(−4)+4+1+(−6)+0+(−3) = −5.
−2 3 1 3 0 −3

Observações:

1. O espaço vetorial IRn com um produto interno é chamado espaço euclidiano n-


dimensional.

2. O espaço vetorial Pn (IR) tem vários produtos internos, no entanto não há um usual,
por exemplo:

h·, ·i : Pn (IR) × Pn (IR) −→ IR


(p, q) 7−→ hp, qi = p(−1)q(−1) + p(0)q(0) + p(1)q(1),

é um produto interno em Pn (IR).

Produto Interno em Espaços Vetoriais Complexos


Definição 2.26. Seja V um espaço vetorial sobre o corpo C, um produto interno com-
plexo em V é uma aplicação

h·, ·i : V × V −→ C
(u, v) 7−→ hu, vi

que satisfaz as seguintes propriedades:

P IC1 hu, vi = hv, ui, para quaisquer u, v ∈ V simetria hermitiana.

P IC2 hv, vi ≥ 0, para todo v ∈ V e hv, vi ≥ 0 ⇐⇒ v = 0V positividade.

P IC3 hu + w, vi = hu, vi + hw, vi, para quaisquer u, w, v ∈ V distributividade.

P IC4 hλu, vi = λhu, vi, para quaisquer u, v ∈ V e todo λ ∈ C homogeneidade.

Observação:

1. Segue das propriedades de simetria hermitiana, distributividade e homogeneidade que:

(i) hv, u + wi = hv, ui + hv, wi, para quaisquer u, w, v ∈ V .


SEÇÃO 2.9 • BASE ORTONORMAL E BASE ORTOGONAL 104

(ii) hu, λvi = λ̄hv, ui, para quaisquer u, v ∈ V e todo λ ∈ C.

2. A simetria hermitiana é necessária para garantir a propriedade de positividade.


De fato, em V um espaço vetorial complexo, dado v ∈ V , com v 6= 0V , se exigı́ssemos
a simetria terı́amos:
hiv, ivi = i2 hv, vi = −hv, vi < 0
| {z }
>0

contrariando a positividade.
Quando consideramos a simetria hermitiana temos:

hiv, ivi = i · īhv, vi = hv, vi > 0.

Exemplo: Em Cn o produto interno usual é a aplicação:

h·, ·i : Cn × Cn −→ C

(u1 , · · · , un ), (v1 , · · · , vn ) 7−→ h(u1 , · · · , un ), (v1 , · · · , vn )i
= u1 v1 + · · · + un vn .

1. Em C2 o produto interno usual é dado por:

h(u1 , u2 ), (v1 , v2 )i = u1 v1 + u2 v2 .

Assim, por exemplo,


h(i, 0), (0, 1)i = 0 + 0 = 0 e

h(i, −1), (3 + i, 1 + 2i)i = i(3 − i) + (−1)(1 − 2i) = 3i + 1 − 1 + 2i = 5i.

2. Em C3 o produto interno usual é dado por:

h(u1 , u2 , u3 ), (v1 , v2 , v3 )i = u1 v1 + u2 v2 + u3 v3 .

Assim, por exemplo,




(4i, 1, −2 + i), (3 − i, 1 + i, 2i)

= 4i(3 − i) + (1 − i) + (−2 + i)(−2i) = 12i + 4 + 1 − i − 4i + 2 = 7 + 7i.

Observação: O espaço vetorial Cn com um produto interno é chamado espaço unitário


n-dimensional.
CAP. 2 • ESPAÇOS VETORIAIS 105

Vetores Ortogonais
Definição 2.27. Seja V um espaço vetorial sobre o corpo IF (IF = IR ou IF = C) com
produto interno h·, ·i, dizemos que u e v em V são vetores ortogonais se, e somente se,
hu, vi = 0.
Notação: Se u e v ortogonais indicamos por u ⊥ v.

Exemplos:

1. Em IR3 os vetores u = (7, −3, 2) e v = (2, 8, 5) são ortogonais, pois




(7, −3, 2), (2, 8, 5) = 14 − 24 + 10 = 0.
   
1 2 0 −1
2. Em M2 (IR com o produto interno usual as matrizes A = eB=
−2 4 1 1
são ortogonais, pois vimos que
*   +
1 2 0 −1
, = 0.
−2 4 1 1

3. Em C2 os vetores u = (1 + i, i) e v = (i, 1 − i) são ortogonais, pois




(1 + i, i), (i, 1 − i) = (1 + i)i + i(1 − i) = (1 + i)(−i) + i(1 + i) = −i + 1 + i − 1 = 0.

Propriedades de Vetores Ortogonais

V O1 OV ⊥ v para todo v ∈ V .

V O2 Se u ⊥ v, então v ⊥ u.

V O3 Se u ⊥ v para todo v ∈ V , então u = 0V .

V O4 Se u1 ⊥ v e u2 ⊥ v, então (u1 + u2 ) ⊥ v.

V O5 Se u ⊥ v e λ ∈ IR, então λu ⊥ v.

Observação: Segue das propriedades V O4 e V O5 que se U = [u1 , u2 , · · · , uk ] é subespaço


de V e v ∈ V é tal que
v ⊥ u1 , v ⊥ u2 , · · · , v ⊥ uk ,
então v ⊥ u para todo u ∈ U .

Definição 2.28. Seja V um espaço vetorial sobre o corpo IF (IF = IR ou IF = C), de


dimensão n, com produto interno h·, ·i, dizemos que uma base B = {v1 , v2 , · · · , vn } é uma
base ortogonal se, e somente se,

hvi , vj i = 0, para todo i 6= j.


SEÇÃO 2.9 • BASE ORTONORMAL E BASE ORTOGONAL 106

Exemplos:

1. A base B = {(−1, 2), (2, 1)} é uma base ortogonal de IR2 com o produto interno usual.

2. A base canônica B = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} é uma base ortogonal de IR3 com o
produto interno usual.

3. A base B = {(1 + i, i), (i, 1 − i)} de C2 é uma base ortogonal, pois como vimos anteri-


ormente (1 + i, i), (i, 1 − i) = 0.

Observações:

1. No espaço euclidiano n-dimensional, munido do produto interno usual, a base canônica


B = {e1 , e2 , · · · , en }, com ei = (0, · · · , 1
|{z} , · · · , 0), é uma base ortogonal.
i−ésima posição

2. No espaço unitário n-dimensional, munido do produto interno usual, a base canônica


B = {e1 , e2 , · · · , en }, com ei = (0, · · · , 1
|{z} , · · · , 0), é uma base ortogonal.
i−ésima posição

2.9.2 Norma e Vetores Ortonormais


Definição 2.29. Seja V um espaço vetorial sobre o corpo IF (IF = IR ou IF = C) com
produto interno h·, ·i. A norma de um vetor v ∈ V , indicada por kvk, é o seguinte
número real:
p
kvk = hv, vi.

Propriedades da Norma

N1 kvk ≥ 0, para todo v ∈ V e kvk = 0 ⇐⇒ v = 0V positividade.

N2 kλvk = |λ|kvk, para todo v ∈ V e todo λ ∈ IF homogeneidade.

N3 ku + vk ≤ kuk + kvk, para quaisquer u, v ∈ V desigualdade triangular.

Observações:

1. Segue da definição de norma que

kvk2 = |hv, vi| para todo v em V.

2. Um espaço vetorial V sobre IF com uma norma k · k é chamado espaço vetorial



normado e denotado por V k k .
CAP. 2 • ESPAÇOS VETORIAIS 107

Dizemos que o produto interno, em V um espaço vetorial real, é uma aplicação bilinear,
ou seja, é uma aplicação linear nas duas variáveis.
Exemplo: Em IRn a norma do produto interno usual é dada por:
q
k(v1 , · · · , vn )k = v12 + · · · + vn2 ,

vamos denominá-la de norma usual.

1. Em IR2 a norma usual é dada por:


q
k(v1 , v2 )k = v12 + v22 .

Assim, por exemplo,


√ √ p √
k(1, 0)k = 12 + 02 = 1 = 1 e k(1, −2)k = 12 + (−2)2 = 5.

2. Em IR3 a norma usual é dada por:


q
k(v1 , v2 , v3 )k = v12 + v22 + v32 .

Assim, por exemplo,


p √
k(1, 0, −1)k = 12 + 02 + (−1) = 2
p √
e k(3, −2, 4)k = 32 + (−2)2 + 42 = 29.

Teorema 2.30. (Desigualdade de Cauchy-Schwarz)


Se V é um espaço vetorial euclidiano, então

|hu, vi| ≤ kuk · kvk

para quaisquer u e v em V .
Demonstração:
1o caso: u = 0V ou v = 0V .
Neste caso khu, vik = 0 e kuk = 0 ou kvk = 0, portanto vale a igualdade.

2o caso: u 6= 0 e v 6= 0.

hu + λv, u + λvik = khu, uik+khu, λvik+khλv, uik+khλv, λvik = kuk2 +2λhu, vi+λ2 kvk2 .
| {z }
≥0

A equação acima é uma equação do segundo grau na variável λ, como é não negativa
o discriminante deve satisfazer ∆ ≤ 0, ou seja,

∆ = 4hu, vi2 − 4kvk2 kuk2 ≤ 0 ⇐⇒ hu, vi2 ≤ kvk2 kuk2 .

Consequentemente |hu, vi| ≤ kvkkuk.


SEÇÃO 2.9 • BASE ORTONORMAL E BASE ORTOGONAL 108

Corolário 2.31. (Desigualdade Triangular)


Se V é um espaço vetorial euclidiano, então

ku + vk ≤ kuk + kvk para quaisquer u e v em V.

Demonstração: Como ku + vk ≥ 0 e kuk + kvk ≥ 0, basta mostrar que


2 2
ku + vk ≤ kuk + kvk .

2
ku + vk = hu + v, u + vi = hu, ui + hu, vi + hv, ui + hv, vi = kuk2 + 2hu, vi + kvk2
Teo.2.30 2
≤ kuk2 + 2|hu, vi | + kvk2 ≤ kuk2 + 2kvkkuk + kvk2 = kuk + kvk .

Observações:

1. Segue da definição de norma que

kvk2 = |hv, vi| para todo v em V.

2. Um espaço vetorial V sobre IF com uma norma k · k é chamado espaço vetorial



normado e denotado por V, k k .

3. Dados u e v em V um espaço vetorial euclidiano, o número real não negativo ku − vk é


chamado distância de u a v, por exemplo, em IR2 com a norma usual dados u = (u1 , u2 )
e v = (v1 , v2 ) temos:
p
ku − vk = k(u1 − v1 , u2 − v2 )k = (u1 − v1 )2 + (u2 − v2 )2 .

4. Sejam u e v vetores não nulos em V um espaço vetorial euclidiano, sabemos da de-


sigualdade de Cauchy-Schwarz que khu, vik ≤ kuk · kvk, consequentemente temos:
hu, vi
−kuk · kvk ≤ hu, vi ≤ kuk · kvk ⇐⇒ −1 ≤ ≤ 1.
kuk · kvk

Logo, existe um único número real θ, com 0 ≤ θ ≤ π, tal que


hu, vi
cos θ = .
kuk · kvk

Designamos o número θ o ângulo entre os vetores u e v.

Definição 2.32. Seja V um espaço vetorial sobre o corpo IF (IF = IR ou IF = C) com norma
k·, ·k, dizemos que um vetor v em V é um vetor unitário se, e somente se, kvk = 1.
CAP. 2 • ESPAÇOS VETORIAIS 109

Exemplos:
√ √ 
3 2 2
1. Em IR o vetor u = (0, 1, 0) e v = , 0, − são unitários, pois
2 2
√ √
k(0, 1, 0)k = 02 + 12 + 02 = 1 = 1 e
 √ √  √ 2 √ 2 r
s
2 2 2 2
(− 2) 2 2 √
2 , 0, − 2 = + 0 + = + = 1 = 1.

22 22 4 4
 
2 1+i i
2. Em C o vetor u = √ , √ é unitário, pois:
3 3
  s   
1+i i 1 + i i 1 + i i
√ ,√ = √ ,√ , √ ,√
3 3 3 3 3 3
s
2 1 √
  r
1+i 1−i i −i
= √ √ +√ √ = + = 1 = 1.
3 3 3 3 3 3

v
Observação: Se v é um vetor não nulo em um espaço normado V , então o vetor u =
kvk
é um vetor unitário.
De fato
v 1
kuk =
=
· kvk = 1 · kvk = 1.
kvk kvk kvk

Definição 2.33. Seja V um espaço vetorial sobre o corpo IF (IF = IR ou IF = C) com


norma k·, ·k, dizemos que u e v em V são vetores ortonormais se, e somente se, u e v
são vetores ortogonais unitários, ou seja, se e somente se,

kuk = 1, kvk = 1 e hu, vi = 0.

Exemplos:
√ √ 
3 2 2
1. Em IR os vetores u = (0, 1, 0)) e v = , 0, − são ortonormais.
2 2
Vimos no exemplo 1. acima que u e v são unitários, como
 √ √  √  √ 
2 2 2 2
(0, 1, 0), , 0, − = +0+ − =0
2 2 2 2
segue que u e v são ortonormais.
   
2 1+i i i 1−i
2. Em C os vetores u = √ , √ ev= √ , √ são ortonormais.
3 3 3 3
De fato, no exemplo 2. acima vimos que u é unitário, de maneira análoga mostramos
que v também é unitário, e analogamente ao exemplo 3. de vetores ortogonais, portanto
u e v são ortonormais.
SEÇÃO 2.9 • BASE ORTONORMAL E BASE ORTOGONAL 110

Definição 2.34. Seja V um espaço vetorial sobre o corpo IF (IF = IR ou IF = C), de


dimensão n, com norma k·, ·k, dizemos que uma base B = {v1 , v2 , · · · , vn } é uma base
ortonormal se, e somente se,

(i) Os vetores de B são todos unitários.

(ii) Quaisquer dois vetores B, distintos entre si, são ortogonais.

Exemplos:

1. A base  √ √  √ √ 
2 2 2 2
B= , 0, − , (0, 1, 0), , 0,
2 2 2 2
é uma base ortonormal de IR3 com a norma usual, pois através de cálculos simples
podemos ver que os vetores de B são unitários e dois a dois ortogonais.

2. A base canônica B = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} é uma base ortonormal de IR3 com a
norma usual.

3. A base    
1+i i i 1−i
B= √ ,√ , √ , √
3 3 3 3
de C2 é uma base ortonormal, pois como vimos anteriormente os vetores de B são
unitários e ortogonais.

Observações:

1. No espaço euclidiano n-dimensional, munido da norma usual, a base canônica


B = {e1 , e2 , · · · , en }, com ei = (0, · · · , 1
|{z} , · · · , 0), é uma base ortonormal.
i−ésima posição

2. No espaço unitário n-dimensional, munido da norma usual, a base canônica


B = {e1 , e2 , · · · , en }, com ei = (0, · · · , 1
|{z} , · · · , 0), é uma base ortonormal.
i−ésima posição

3. Se B = {v1 , v2 , · · · , vn } é uma base ortogonal de um espaço normado V , então para


todo v ∈ V temos:
hv, v1 i hv, v2 i hv, vn i
v= 2
v1 + 2
v2 + · · · + vn .
kv1 k kv2 k kvn k2

De fato, como B é base V podemos escrever:

v = a1 v1 + a2 v2 + · · · + an vn .

Logo,

hv, v1 i = ha1 v1 +a2 v2 +· · ·+an vn , v1 i = a1 hv1 , v1 i +a2 hv2 , v1 i + · · ·+an hvn , v1 i = a1 kv1 k2 .
| {z } | {z } | {z }
=kv1 k2 =0 =0
CAP. 2 • ESPAÇOS VETORIAIS 111

hv, v1 i
Como kv1 k =
6 0 segue que a1 = .
kv1 k2
Analogamente mostramos que
hv, v2 i hv, vn i
a2 = 2
, · · · , an = .
kv2 k kvn k2

Portanto,
hv, v1 i hv, v2 i hv, vn i
v= v 1 + v 2 + · · · + vn . (2.4)
kv1 k2 kv2 k2 kvn k2

Assim, por exemplo, o vetor v = (1, 2) se escreve da seguinte maneira em relação à


base ortogonal B = {(1 + i, i), (i, 1 − i)} de C2 :
h(1, 2), (1 + i, i)i h(1, 2), (i, 1 − i)i
(1, 2) = 2
(1 + i, i) + (i, 1 − i).
k(1 + i, i)k k(i, 1 − i)k2

Como
h(1, 2), (1 + i, i)i = 1(1 − i) + 2(−i) = 1 − 3i
h(1, 2), (i, 1 − i)i = 1(−i) + 2(1 + i) = 2 + i
,
k(1 + i, i)k2 = h(1 + i, i), (1 + i, i)i = (1 + i)(1 − i) + i(−i) = 3
k(i, 1 − i)k2 = h(i, 1 − i), (i, 1 − i)i = i(−i) + (1 − i)(1 + i) = 3

então:
1 − 3i 2+i
(1, 2) = (1 + i, i) + (i, 1 − i)
3 3
   
(1 − 3i)(1 + i) (1 − 3i)(i) (2 + i)(i) (2 + i)(1 − i)
= , + ,
3 3 3 3
     
4 − 2i 3 + i −1 + 2i 3 − i 3 6
= , + , = , = (1, 2).
3 3 3 3 3 3
4. Se B = {v1 , v2 , · · · , vn } é uma base ortonormal de um espaço normado V , então para
todo v ∈ V temos:

v = hv, v1 i v1 + hv, v2 i v2 + · · · + hv, vn i vn .

De fato, como consequência da ortogonalidade dos vetores de B vimos em ortogonal


que:
hv, v1 i hv, v2 i hv, vn i
v= v1 + v2 + · · · + vn .
kv1 k2 kv2 k2 kvn k2
Já que os vetores de B são unitários segue ainda que

kv1 k = kv2 k = · · · = kvn k = 1.

Consequentemente em 2.4 temos:

v = hv, v1 i v1 + hv, v2 i v2 + · · · + hv, vn i vn .


SEÇÃO 2.9 • BASE ORTONORMAL E BASE ORTOGONAL 112

Assim, por exemplo, o vetor


 √ √ 4,−2) se escreve
v = (3,
√
da seguinte
√  maneira em relação
2 2 2 2
à base ortogonal B = , 0, − , (0, 1, 0), , 0, de IR3 :
2 2 2 2
 √ √   √ √ 
2 2 2 2

(3, 4, −2) = (3, 4, −2), , 0, − , 0, − + (3, 4, −2), (0, 1, 0) (0, 1, 0)
2 2 2 2
 √ √  √ √ 
2 2 2 2
+ (3, 4, −2), , 0, , 0,
2 2 2 2
√ √ √  √ √ √ 
5 2 2 2 2 2 2
= , 0, − + 4(0, 1, 0) + , 0,
2 2 2 2 2 2
   
5 5 1 1
= , 0, − + (0, 4, 0) + , 0, = (3, 4, −2).
2 2 2 2

Teorema 2.35. Se V é um espaço vetorial euclidiano, dados u e v em V temos:


(i) u e v são ortogonais se, e somente se, |hu + vi|2 = kuk2 + kvk2 (Teorema de
Pitágoras).

(ii) Se u e v não são vetores nulos e θ é o ângulo entre u e v, então:

|hu ± vi|2 = kuk2 + kvk2 ± 2kuk · kvk · cos θ, (Lei dos Cossenos).

2.9.3 Processo de Ortogonalização de Gram-Schmidt


Seja V um espaço vetorial de dimensão finita munido de um produto interno, se
v1 v2 vn
B = {v1 , v2 , · · · , vn } é uma base ortogonal de V , então B 0 = , ,··· , é
kv1 k kv2 k kvn k
base ortonormal de V , ou seja, a partir de uma base ortogonal podemos obter uma base
ortonormal.
Agora vamos apresentar um procedimento para obter uma base ortogonal a partir de
uma base qualquer de V , para isso vamos definir a projeção de um vetor na direção de outro
vetor não nulo.
Definição 2.36. Seja V um espaço vetorial sobre IR munido de um produto interno, dados
que u e v em V , com u vetor não nulo, a projeção ortogonal de v na direção de u,
indicada por proju u, é o seguinte vetor:
hv, ui
proju v = u.
kuk2

Observação: Dados que u e v em V , com u vetor não nulo, os vetores w = v − proju v e u


são ortogonais.
De fato,
 
hv, ui hv, ui
hw, ui = hv − proju v, ui = v − 2
u, u = hv, ui − · hu, ui = 0.
kuk kuk2
CAP. 2 • ESPAÇOS VETORIAIS 113

Teorema 2.37. (Processo de Ortogonalização de Gram-Schmidt)


Sejam V um espaço vetorial sobre IR munido de um produto interno e
B = {v1 , v2 , v3 , · · · , vn } uma base de V , então B 0 = {w1 , w2 , w3 , · · · , wn }, com

w1 = v1
w2 = v2 − projv2 w1
w3 = v3 − projv3 w1 − projv3 w2
..
.
wn = vn − projvn w1 − projvn w2 − · · · − projvn wn−1 ,

é uma base ortogonal de V .

Demonstração: Observemos que

obser.
hw2 , w1 i = hv2 − projw1 v2 , w1 i = 0

.
Por outro lado,

hw3 , w1 i = hv3 − projw1 v3 − projw2 v3 , w1 i


hv3 , w1 i hv3 , w2 i
= hv3 , w1 i − · hw1 , w1 i − · hw2 , w1 i = 0.
kw1 k2 kw2 k2 | {z }
=0

De maneira análoga mostramos que hwi , wj i = 0, se i 6= j.

Exemplo: Seja M2 (IR) com o produto interno usual, obtenha uma ortogonal de M2 (IR) a
partir da base

         
1 1 0 1 0 0 0 0
B= , .
1 1 1 1 1 1 0 1

Solução: Pelo processo de ortogonalização de Gram-Schmidt devemos obter B 0 = {w1 , w2 , w3 , w4 }


SEÇÃO 2.9 • BASE ORTONORMAL E BASE ORTOGONAL 114

com:
 
1 1
w1 = =⇒ kw1 k2 = 4
1 1
     
0 1 1 1 1 1
, ,
1 1 1 1 1 1
   
0 1 1 1
w2 = −
1 1 kw1 k2 1 1

− 34 1
 
3
= 1
4
1 =⇒ kw2 k2 =
4 4
4
       3 1

0 0 1 1 0 0 −4 4
, , 1 1
1 1 1 1 1 1 − 34 1
     
0 0 1 1 4 4 4
w3 = − − 3 1 1
1 1 4 1 1 4 4 4

0 − 23
 
2
= 1 1 =⇒ kw3 k2 =
3 3
3
       3 1

0 0
1 1 0 0 −4 4
, , 1 1
0 1
1 1 0 1 − 34 1
     
0 0 1 1 4 4 4
w4 = − − 3 1 1
0 1 4 1 1 4 4 4
0 − 23
   
0 0
, 1 1
0 1 0 − 32
   
3 3 0 0
− 1 1 = .
2
3 3 3
− 21 12

Logo, (   3 1
)
0 − 23
   
1 1 −4 0 0
B0 = , 1
4
1 , 1 1 ,
1 1 4 4 3 3
− 12 1
2

é uma base ortogonal de M2 (IR).


CAPÍTULO 3
TRANSFORMAÇÕES LINEARES

Dados A e B conjuntos não vazios uma aplicação de A em B é uma relação biunı́voca


que a cada elemento a em A associa um único elemento em B.
Uma transformação linear é uma aplicação entre dois espaços vetoriais que preserva
linearidade, por exemplo as rotações e as reflexões do plano no plano são lineares.

3.1 Transformações Lineares


Definição 3.1. Sejam V e W espaços vetoriais sobre um corpo IF , uma aplicação
T : V −→ W é uma transformação linear se, e somente se, satisfaz as seguintes
condições:
(i) Para quaisquer u e v em V tivermos

T (u + v) = T (u) + T (v).

(ii) Para todo v em V e todo λ em IF tivermos

T (λ · v) = λ · T (v).

Exemplos:
1. Reflexões no Plano

(a) Reflexão em torno do eixo x:

T : IR2 −→ IR2
.
(x, y) 7−→ T (x, y) = (x, −y)

(b) Reflexão em torno do eixo x:

T : IR2 −→ IR2
.
(x, y) 7−→ T (x, y) = (−x, −y)

115
SEÇÃO 3.1 • TRANSFORMAÇÕES LINEARES 116

(c) Reflexão em torno do eixo y:

T : IR2 −→ IR2
.
(x, y) 7−→ T (x, y) = (−x, y)

Figura 3.1: Ponto X e as imagens das reflexões pelos eixos x e y e pela origem

2. Rotações no Plano

(a) Rotação de um ângulo θ:

Rθ : IR2 −→ IR2
   
cos θ −sen θ x
(x, y) 7−→ Rθ (x, y) = · .
sen θ cos θ y
= (x cos θ − y sen θ, x sen θ + y cos θ)

π
(b) Rotação de :
2

Rπ IR2 −→ IR2
:
2     .
0 −1 x
(x, y) 7−→ Rθ (x, y) = · = (−y, x)
1 0 y
CAP. 3 • TRANSFORMAÇÕES LINEARES 117

(c) Rotação de π:

Rπ : IR2 −→ IR2
   
−1 0 x .
(x, y) 7−→ Rθ (x, y) = · = (−x, −y)
0 −1 y

A linearidade segue das propriedades de produto de matrizes.

π
Figura 3.2: Ponto X e as imagens das rotações de θ, eπ
2

3. As aplicações do tipo:

T : IR2 −→ IR2
, com a e b números reais
(x, y) 7−→ T (x, y) = (ax, by)

são lineares.
De fato:

(i) Para quaisquer (x1 , y1 ) e (x2 , y2 ) em IR2 temos:


 
T (x1 , y1 ) + (x2 , y2 ) = T (x1 + x2 , y1 + y2 ) = a(x1 + x2 ), b(y1 + y2 )
= (ax1 + ax2 , by1 + by2 ) = (ax1 , by1 ) + (ax2 , by2 ) = T (x1 , y1 ) +
T (x2 , y2 ).
(ii) Para todo (x, y) em IR2 e todo λ em IR temos:
 
T λ(x, y) = T (λx, λy) = a(λx), b(λy) = (aλx, bλy) = λ(ax, by) = λT (x, y).

Logo, as reflexões do exemplo 1. são lineares, no item (a) a = 1 e b = −1; no item (b)
a = b = −1 e no item (c) a = −1 e b = 1.
SEÇÃO 3.1 • TRANSFORMAÇÕES LINEARES 118

4. As translações não triviais do plano:

T(a,b) : IR2 −→ IR2


, com a 6= 0 ou b 6= 0
(x, y) 7−→ T(a,b) (x, y) = (x, y) + (a, b)

não são lineares.


De fato, por exemplo:
T (1, 0) = (1, 0) + (a, b) = (1 + a, b) e T (0, 1) = (0, 1) + (a, b) = (a, 1 + b), assim
T (1, 0) + T (0, 1) = (1 + a, b) + (a, 1 + b) = (1 + 2a, 1 + 2b).

Por outro lado, T (1, 0) + (0, 1) = T (1, 1) = (1, 1) + (a, b) = (1 + a, 1 + b).
  
1 + 2a = 1 + a 2a = a a=0
Logo, T (1, 0)+T (0, 1) = T (1, 1) ⇐⇒ ⇐⇒ ⇐⇒ ,
1 + 2b = 2b = b b=0
mas por hipótese temos a 6= 0 ou b 6= 0.
Portanto, T(a,b) não é linear.

5. A aplicação derivada de polinômios é linear:

T : Pn (IR) −→ Pn−1 (IR)


p(t) 7−→ T p(t) = p0 (t)


é linear.
De fato:

(i) Para quaisquer p(t) e q(t) em Pn (IR) temos:



T p(t) + q(t) = T (p + q)(t) = (p + q)0 (t) = p0 (t) + q 0 (t) = T p(t) + T q(t) .
   

∗ Propriedade da derivada da soma de funções.


(ii) Para todo p(t) em Pn (IR) e todo λ em IR temos:
 ?
T λp(t) = T (λp)(t) = λ(p)0 (t) = λT p(t) .
 

? Propriedade da derivada do produto de uma função por uma constante.

 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
6. Seja Am×n =   uma matriz m × n, a aplicação:
 
.. .. .. ..
 . . . . 
am1 am2 · · · amn

TA : IRn −→ IRm
 
x1
 x2 
(x1 , x2 , · · · , xn ) 7−→ TA (x1 , x2 , · · · , xn ) = Am×n · 
 
.. 
 . 
xn

= (a11 x1 +a12 x2 +· · ·+a1n xn , a21 x1 +a22 x2 +· · ·+a2n xn , · · · , am1 x1 +am2 x2 +· · ·+amn xn )


é linear.
CAP. 3 • TRANSFORMAÇÕES LINEARES 119

De fato, segue das propriedades M3 (a) e M4 de produto de matrizes.


 
1 3 −1
Por exemplo, se A = então temos:
0 2 1

TA : IR3 −→ IR2
 
 x
1 3 −1
(x, y, z) −
7 → TA (x, y, z) = · y 
0 2 1
z
= (x + 3y − z, 2y + z).

Observações:

1. Se T : V −→ V é uma transformação linear, com Dom(T ) = CD(T ), dizemos que T


é um operador linear.

2. Se T : V −→ W é uma transformação linear, então T (0V ) = 0W .


De fato, podemos escrever 0V = v + (−v) para algum v ∈ V , assim,

 (i)  (ii)
T (0V ) = T v + (−v) = T (v) + T (−v) = T (v) − T (v) = 0W .

Proposição 3.2. Sejam V , W e U espaços vetoriais sobre um corpo IF , se T : V −→ W e


S : W −→ U são transformações lineares, então a composição S ◦ T : V −→ U também é
linear.

Demonstração:

(i) Sejam u e v em V , então:


 T é linear 
S ◦ T (u + v) = S T (u + v) = S T (u) + T (v)

S é linear  
= S T (u) + S T (v) = S ◦ T (u) + S ◦ T (v).

(ii) Sejam v em V e λ em IF , então:


 T é linear  S é linear 
S ◦ T (λv) = S T (λv) = S λT (v) = λS T (v) = λS ◦ T (v).

De (i) e (ii) segue que S ◦ T é linear.


SEÇÃO 3.2 • MATRIZ DE UMA TRANSFORMAÇÃO LINEAR 120

3.2 Matriz de uma Transformação Linear


No último exemplo de transformações lineares vimos que toda matriz define uma trans-
formação linear. Reciprocamente, se V e W são espaços vetoriais sobre um corpo IF ,
ambos de dimensão finita, dada uma transformação linear T : V −→ W , considerando
B = {v1 , v2 , · · · , vn } base de V e B 0 = {w1 , w2 , · · · , wm } base de W podemos associar a T
uma matriz.
De fato, para todo v ∈ V podemos escrever

v = α1 v1 + α2 v2 + · · · + αn vn , com α1 , α2 , · · · , αn ∈ IF.

Por outro lado, como T (v1 ), T (v2 ), · · · , T (vn ) ∈ W também podemos escrever:

T (v1 ) = a11 w1 + a21 w2 + · · · am1 wm


T (v2 ) = a12 w1 + a22 w2 + · · · am2 wm
.. . (3.1)
.
T (vn ) = a1n w1 + a2n w2 + · · · amn wm

Logo,

T (v) = T (α1 v1 + α2 v2 + · · · + αn vn ) = α1 T (v1 ) + α2 T (v2 ) + · · · + αn T (vn )

= α1 (a11 w1 + a21 w2 + · · · am1 wm ) + α2 (a12 w1 + a22 w2 + · · · am2 wm )


+ · · · + αn (a1n v1 + a2n w2 + · · · amn wm )
= (α1 a11 + α2 a12 + · · · αn a1n )w1 + (α1 a21 + α2 a22 + · · · αn a2n )w2
+ · · · + (α1 am1 + α2 am2 + · · · αn amn )wm

   
a11 a12 · · · a1n α1
   a21 a22 · · · a2n   α2 
= w1 w2 · · · wm · · . (3.2)
   
1×m  .. .. ... ..  .. 
. . .   . 
am1 am2 · · · amn αn n×1
| {z }
A m×n

Definição 3.3. Sejam V e W são espaços vetoriais sobre um corpo IF , de dimensões n e m,


respectivamente. Dadas B = {v1 , v2 , · · · , vn } base de V , B 0 = {w1 , w2 , · · · , wm } base de W
finita e T : V −→ W uma transformação linear a matriz A 3.2 acima é chamada matriz
da transformação linear T relação às bases B e B 0 .
Notação: [T ]BB0 , no caso em que B e B 0 são bases canônicas indicamos por [T ].
Se T : V −→ V é um operador linear e consideramos a base B no domı́nio e no contra-
domı́nio de T , então indicamos a matriz correspondente por [T ]B .

Exemplos:
CAP. 3 • TRANSFORMAÇÕES LINEARES 121

1. Seja a transformação linear:

T : IR3 −→ IR2
.
(x, y, z) 7−→ T (x, y, z) = (x − y + 2z, 3x + 4z)

Determine a matriz de T em relação às bases canônicas de IR2 e IR3 .

Solução:

A base canônica de IR3 é B = (1, 0, 0), (0, 1, 0), (0, 0, 1) , enquanto que a de IR2 é
B 0 = (1, 0), (0, 1) .


Logo,
T (1, 0, 0) = (1, 3) = 1(1, 0) + 3(0, 1)

T (0, 1, 0) = (−1, 0) = −1(1, 0) + 0(0, 1) .

T (0, 0, 1) = (2, 4) = 2(1, 0) + 4(0, 1)

Portanto, a matriz de T em relação às bases canônicas é:

T no 1o vetor de B T no 2o vetor de B T no 3o vetor de B


↓ ↓ ↓
[T ] =
← 1a coordenada
 
1 −1 2
3 0 4 ← 2a coordenada

2. Seja a transformação linear:

T : M2 (IR) −→ IR3
     
a11 a12 a11 a12
7 → T
− .
a21 a22 a21 a22
= (a11 + a12 + a21 , a12 − a21 + a22 , 2a21 − a22 )

Determine a matriz de T em relação às bases canônicas de M2 (IR) e IR3 .

Solução:
       
1 0 0 1 0 0 0 0
A base canônica de M2 (IR) é: B = , , , , en-
0 0 0 0 1 0 0 1
quanto que a de IR3 é B 0 = (1, 0, 0), (0, 1, 0), (0, 0, 1) .

SEÇÃO 3.2 • MATRIZ DE UMA TRANSFORMAÇÃO LINEAR 122

Assim temos:
   
1 0
T = (1, 0, 0) = 1(1, 0, 0) + 0(0, 1, 0) + 0(0, 0, 1),
0 0
   
0 1
T = (1, 1, 0) = 1(1, 0, 0) + 1(0, 1, 0) + 0(0, 0, 1),
0 0
   
0 0
T = (1, −1, 2) = 1(1, 0, 0) − 1(0, 1, 0) + 2(0, 0, 1),
1 0
   
0 0
T = (0, 0, −1) = 0(1, 0, 0) + 0(0, 1, 0) − 1(0, 0, 1).
0 1

Portanto, a matriz de T em relação às bases canônicas é:

posição 11 posição 12 posição 21 posição 22


↓ ↓ ↓ ↓
−1 ← 1a coordenada
 
[T ] = 1 1 0
 0 1 −1 0  ← 2a coordenada
0 0 2 −1 ← 3a coordenada

3. Seja a transformação linear:

T : IR2 −→ P3 (IR)
.
(x, y) 7−→ T (x, y) = 2x + yt + 3yt2 − xt3

Determine a matriz de T em relação às bases canônicas de M2 (IR) e IR3 .


Solução:

A base canônica de IR2 é B = (1, 0), (0, 1) , enquanto que a de P3 (IR) é
B 0 = {1, t, t2 , t3 }.
Logo,
T (1, 0) = 2 − t3 e T (0, 1) = t + 3t2 .

Portanto, a matriz de T em relação às bases canônicas é:

1a coordenada 2a coordenada
 ↓ ↓
2 0 ← coeficiente de grau 0
[T ] =
 0 1  ← coeficiente de grau 1
 
 0 3  ← coeficiente de grau 2
 
−1 0 ← coeficiente de grau 3
CAP. 3 • TRANSFORMAÇÕES LINEARES 123

4. Seja a transformação linear:


T : M2 (IR) −→ P3 (IR)
     
a11 a12 a11 a12
7−→ T
a21 a22 a21 a22

= 2a11 + (a11 − a12 )t + (2a1 1 + a12 − 3a21 )t2 + (a11 − a21 + 2a22 )t3 .

Determine a matriz de T em relação às bases


       
1 1 1 0 0 1 0 0
B= , , , de M2 (IR)
0 0 0 1 1 0 1 −1

e B 0 = {1, 1 + t, 1 + t2 , t + t3 } de P3 (IR).
Solução:
Observemos que:
   
1 1
T = 2 + 3t2 + t3 = (−1) × (1 + t) + 3 × (1 + t2 ) + 1 × (t + t3 ),
0 0
   
1 0
T = 2 + t − t2 = 2 × 1 + 1 × (1 + t) + (−1) × (1 + t2 ),
0 1
   
0 1
T = −t − 2t2 − t3 = 2 × 1 + (−2) × (1 + t2 ) + (−1) × (t + t3 ),
1 0
   
0 0
T = −3t2 − 3t3 = 3 × (1 + t) + (−3) × (1 + t2 ) + (−3) × (t + t3 ).
1 −1

Portanto, a matriz de T em relação às bases canônicas é:

1o vetor de B 2o vetor de B 3o vetor de B 4o vetor de B


 ↓ ↓ ↓ ↓ 
0 2 2 0 ← 1o vetor de B0
[T ]BB0 =
 −1 1 0 3  ← 2o vetor de B0
 
 3 −1 −2 −3  ← 3o vetor de B0
 
1 0 −1 −3 ← 4o vetor de B0

Teorema 3.4. Sejam V e W são espaços vetoriais sobre um corpo IF , ambos de dimensão
finita e T : V −→ W uma transformação linear. Se B = {v1 , v2 , · · · , vn } é base de V e
B 0 = {w1 , w2 , · · · , wm } é base de W , então

T (v) B0 = [T ]BB0 · [v]B


 
para todo v ∈ V.
SEÇÃO 3.2 • MATRIZ DE UMA TRANSFORMAÇÃO LINEAR 124

Demonstração: Dado v ∈ V existem escalares α1 , α2 , · · · , αn em IF tais que

v = α1 v1 + α2 + · · · + αn vn .

Logo,
T é linear 3.1
T (v) = α1 T (v1 ) + α2 T (v2 ) + · · · + αn T (vn ) = β1 w1 + β2 w2 + · · · + βn wn ,

com βi = α1 ai1 + α2 ai2 + · · · + αn ain .


Portanto,  
β1
   β2 
T (v) B0 =  .
 
..
 . 
βn
Por outro lado, da fórmula 3.2 temos:
 
β1
 β2 
 ..  = [T ]BB0 · [v]B .
 
 . 
βn

Consequentemente, temos:

T (v) B0 = [T ]BB0 · [v]B


 
para todo v ∈ V.

Observações:

1. Sejam V , W e U espaços vetoriais sobre um corpo IF , com dim V = n, dim W = k e


dim U = m, B, B 0 e B 00 bases de V , W e U , respectivamente. Se

T : V −→ W e S : W −→ U são transformações lineares,

então [S ◦ T ]BB00 a matriz da composição S ◦ T em relação às bases B e B 00 satisfaz:


| {z }
m×n

0
[S ◦ T ]BB00 = [S]BB00 · [T ]BB0 .
| {z } | {z }
m×k k×n

2. Sejam V espaço vetorial sobre um corpo IF , com dim V = n, T : V −→ V um operador


linear e B uma base de V . Denotamos a matriz de T em relação à base B (tanto no
domı́nio, como no contradomı́nio) simplesmente por

[T ]B.
CAP. 3 • TRANSFORMAÇÕES LINEARES 125

3.3 Núcleo e Imagem de uma Transformação Linear


Definição 3.5. Sejam V e W são espaços vetoriais sobre um corpo IF e T : V −→ W uma
transformação linear, a imagem de T , denotada por Im(T ), é o seguinte subconjunto de
W:
Im(T ) = {w ∈ W ; existe algum v ∈ V com w = T (v)}.

Definição 3.6. Sejam V e W são espaços vetoriais sobre um corpo IF e T : V −→ W uma


transformação linear, o núcleo de T , denotada por ker(T ), é o seguinte subconjunto de V :

ker(T ) = {v ∈ V ; T (v) = 0W }.

Exemplos: Determine o núcleo e a imagem das seguintes transformações lineares.

1. T : IR2 −→ IR2 com a e b números reais.


(x, y) 7−→ T (x, y) = (ax, by),

2. T : Pn (IR) −→ Pn−1 (IR) a derivada de polinômios de grau ≤ n.


0

p(t) 7−→ T p(t) = p (t),

3. TA : IR3 −→ IR2
 
  x
1 3 −1
(x, y, z) 7−→ TA (x, y, z) = ·  y  = (x + 3y − z, 2y + z).
0 2 1
z

4. T : M2 (IR) −→ IR3
     
a11 a12 a11 a12
7−→ T = (a11 + a12 + a21 , a12 − a21 + a22 , 2a21 − a22 ).
a21 a22 a21 a22

5. T : IR2 −→ P3 (IR)
(x, y) 7−→ T (x, y) = 2x + yt + 3yt2 − xt3 .

Solução:

1. (c, d) ∈ Im(T ) ⇐⇒ existe (x, y) ∈ IR2 ; T (x, y) = (c, d) ⇐⇒ (ax, by) = (c, d).

1o Caso: a = 0 e b 6= 0: Neste caso teremos:



 c=0
(c, d) ∈ Im(T ) ⇐⇒ (0, by) = (c, d) ⇐⇒ d
 y b6=
=0
b
 
d
Logo, tomando x, , com x ∈ IR qualquer, temos
b
   
d d
T x, = 0 · x, b · = (0, d) = (c, d).
b b
SEÇÃO 3.3 • NÚCLEO E IMAGEM DE UMA TRANSFORMAÇÃO LINEAR 126

Portanto, Im(T ) = {(x, y) ∈ IR2 ; x = 0}.

Por outro lado,


b6=0
(x, y) ∈ ker(T ) ⇐⇒ T (x, y) = (0, 0) ⇐⇒ (0, by) = (0, 0) ⇐⇒ y = 0.

Logo, ker(T ) = {(x, y) ∈ IR2 ; y = 0}.

2o Caso: a 6= 0 e b = 0: Analogamente ao caso anterior, temos:

Im(T ) = {(x, y) ∈ IR2 ; y = 0}.

ker(T ) = {(x, y) ∈ IR2 ; x = 0}.

3o Caso: a 6= 0 e b 6= 0: Neste caso teremos:

a6=0 c


 x =

 a
(c, d) ∈ Im(T ) ⇐⇒ (ax, by) = (c, d) ⇐⇒
=0 d

 y b6=


b
     
c d c d c d
Logo, tomando , temos T , = a · ,b · = (c, d).
a b a b a b
Portanto, Im(T ) = IR2 .

Por outro lado,

(x, y) ∈ ker(T ) ⇐⇒ T (x, y) = (0, 0) ⇐⇒ (ax, by) = (0, 0)


 
ax = 0 a6=0 e b6=0 x=0
⇐⇒ ⇐⇒
by = 0 y=0

Logo, ker(T ) = {(0, 0)}.

2. q(t) ∈ Im(T ) ⇐⇒ existe p(t) ∈ Pn (IR) tal que T p(t) = q(t) ⇐⇒ p0 (t) = q(t)

Z Z Z
0
⇐⇒ p (t) dt = q(t) dt ⇐⇒ p(t) = q(t) dt.

Observemos que a integral de um polinômio é um polinômio de grau k, se e somente


se, este polinômio é de grau k − 1.
Assim, como grau de p = n, devemos ter grau de q = n − 1.
Portanto, Im(T ) = Pn−1 (IR).

Agora, p(t) ∈ ker(T ) ⇐⇒ T p(t) = 0 ⇐⇒ p0 (t) = 0 ⇐⇒ p é um polinômio constante.




Logo, ker(T ) = P0 (IR) = IR.


CAP. 3 • TRANSFORMAÇÕES LINEARES 127

3. (a, b) ∈ Im(T ) ⇐⇒ existe (x, y, z) ∈ IR3 ; T (x, y, z) = (a, b) ⇐⇒ (x+3y−z, 2y+z) =



x + 3y − z = a
(a, b) ⇐⇒
2y + z = b

 z=b
Tomando, por exemplo, y=0 temos:

x=a+b
T (x, y, z) = T (a + b, 0, b) = (a + b + 3 · 0 − b, 2 · 0 + b) = (a, b).

Portanto, Im(T ) = IR2 .

Por outro lado,


(x, y, z) ∈ ker(T ) ⇐⇒ T (x, y, z) = (0, 0) ⇐⇒ (x + 3y − z, 2y + z) = (0, 0)
 
x + 3y − z = 0 z = −2y
⇐⇒ ⇐⇒
2y + z = 0 x = −5y

Logo, ker(T ) = {(x, y, z) ∈ IR3 ; x = −5y e z = −2y}.

x y
4. (a, b, c) ∈ Im(T ) ⇐⇒ existe ∈ M2 (IR);
z t
   
x y
⇐⇒ T = (a, b, c) ⇐⇒ (x + y + z, y − z + t, 2z − t) = (a, b, c) ⇐⇒
z t

 x+y+z =a
y−z+t=b
2z − t = c



 t = −c

z=0

Tomando, por exemplo, temos:
 y =b+c


 x=a−b−c
       
x y a−b−c b+c
T =T = (a, b, c).
z t 0 −c

Portanto, Im(T ) = IR3 .

Por outro lado,


   
 
x y x y
∈ ker(T ) ⇐⇒ T = (0, 0, 0)
z t z t
 
 x+y+z =0  t = 2z
⇐⇒ y − z + t = 0 ⇐⇒ y = −z
2z − t = 0
 
x=0
   
x y
Logo, ker(T ) = ; x = 0, y = −z e t = 2z .
z t
SEÇÃO 3.3 • NÚCLEO E IMAGEM DE UMA TRANSFORMAÇÃO LINEAR 128

5. a0 + a1 t + a2 t2 + a3 t3 ∈ Im(T ) ⇐⇒ existe (x, y) ∈ IR2 tal que

T (x, y) = a0 + a1 t + a2 t2 + a3 t3 ⇐⇒ 2x + yt + 3yt2 − xt3 = a0 + a1 t + a2 t2 + a3 t3


  a0
2x = a 0
 x =  a





 2  0 = a3 
y = a1 y = a1 a0 = 2a3
 
⇐⇒ ⇐⇒ a =⇒ 2 a ⇐⇒
2 2
 3y = a2  y=  a1 = a2 = 3a1
3 3

 

 −x = a 
3 
−x = a3

Portanto,

Im(T ) = p(t) = a0 + a1 t + a2 t2 + a3 t3 ∈ P3 (IR); a0 = 2a3 e a2 = 3a1 .




Agora, (x, y) ∈ ker(T ) ⇐⇒ T (x, y) = 0 ⇐⇒ 2x + yt + 3yt2 − xt3 = 0




 2x = 0

y=0

⇐⇒ ⇐⇒ (x, y) = (0, 0).

 3y = 0

 −x = 0

Logo, ker(T ) = {(0, 0)}.

Teorema 3.7. Sejam V e W são espaços vetoriais sobre um corpo IF e T : V −→ W uma


transformação linear, então:

(i) ker(T ) é um subespaço de V .

(ii) Im(T ) é um subespaço de W .

Demonstração:

(i) Sabemos que T (0V ) = 0W , portanto ker(T ) 6= ∅.


Dados u, v ∈ ker(T ), temos:

T (u + v) = T (u) + T (v) = 0W + 0W = 0W .

Portanto, u + v ∈ ker(T ).
Agora, se v ∈ ker(T ) e λ ∈ IF , então

T (λ · v) = λ · T (v) = λ · 0W = 0W .

Assim, λ · v ∈ ker(T ).
Logo, ker(T ) é um subespaço de V .
CAP. 3 • TRANSFORMAÇÕES LINEARES 129

(ii) É claro que 0W ∈ Im(T ), pois 0V ∈ V e 0W = T (0V ), logo Im(T ) 6= ∅.


Dados w1 , w2 ∈ Im(T ), existem v1 , v2 ∈ V tais que T (v1 ) = w1 e T (v2 ) = w2 .
Como T (v1 + v2 ) = T (v1 ) + T (v2 ) = w1 + w2 , segue que w1 + w2 ∈ Im(T ).
| {z }
∈V

Agora, se w ∈ Im(T ), existe v ∈ V tal que T (v) = w, dado λ ∈ IF , temos

T (λ · v ) = λ · T (v) = λ · w.
|{z}
∈V

Assim, λ · w ∈ Im(T ).
Logo, Im(T ) é um subespaço de W .

3.3.1 Teorema do Núcleo e da Imagem


Teorema 3.8. (Teorema do Núcleo e da Imagem)
Sejam V e W são espaços vetoriais sobre um corpo IF , com dim V = n, e T : V −→ W
uma transformação linear, então:
 
dim V = dim ker(T ) + dim Im(T ) .

Demonstração: Como ker(T ) é um subespaço de V , então dim ker(T ) = m ≤ n = dimV .
Seja {v1 , · · · , vm } uma base de ker(T ), pelo teorema do completamento existem

vm+1 , · · · , vn ,

n − m vetores em V , tais que

{v1 , · · · , vm , vm+1 , · · · , vn }

é uma base de V .
Mostremos que

T (vm+1 ), · · · , T (vn )
é uma base de Im(T ).
Dado w ∈ Im(T ), existe v ∈ V tal que T (v) = w, como {v1 , · · · , vm , vm+1 , · · · , vn } é uma
base de V existem escalares a1 , · · · , am , am+1 , · · · , an ∈ IF tais que

v = a1 v1 + · · · + am vm + am+1 vm+1 + · · · + an vn .

Logo,

w = T (v) = T a1 v1 + · · · + am vm + am+1 vm+1 + · · · + an vn
= a1 T (v1 ) + · · · + am T (vm ) + am+1 T (vm+1 ) + · · · + an T (vn ) = am+1 T (vm+1 ) + · · · + an T (vn ),
pois v1 , · · · , vm } ∈ ker(T ).
 
Assim, temos Im(T ) = T (vm+1 ), · · · , T (vn ) .
SEÇÃO 3.3 • NÚCLEO E IMAGEM DE UMA TRANSFORMAÇÃO LINEAR 130


Resta mostrar que T (vm+1 ), · · · , T (vn ) é um conjunto L. I.
Sejam λm+1 , · · · , λn ∈ IF tais que

λm+1 T (vm+1 ) + · · · + λn T (vn ) = 0W ⇐⇒ T (λm+1 vm+1 + · · · + λn vn ) = 0W

⇐⇒ λm+1 vm+1 + · · · + λn vn ∈ ker(T ).


Como {v1 , · · · , vm } é uma base de ker(T ), então podemos escrever

λm+1 vm+1 + · · · + λn vn = α1 v1 + · · · + αm vm

⇐⇒ α1 v1 + · · · + αm vm − λm+1 vm+1 − · · · − λn vn = 0V .
Mas {v1 , · · · , vm , vm+1 , · · · , vn } é uma base de V , portanto devemos ter

α1 = · · · = αm vm = −λm+1 = · · · = −λn = 0,

consequentemente λm+1 = · · · = λn = 0.
 
Daı́ que T (vm+1 ), · · · , T (vn ) é um conjunto L. I., logo T (vm+1 ), · · · , T (vn ) é base de
Im(T ), com dim Im(T ) = n − m.
Portanto,
dim ker(T ) + dim Im(T ) = m + (n − m) = n = dimV.

Exemplos: Determine a dimensão do núcleo e da imagem de T nos exemplos anteriores.


Solução:

1. T (x, y) = (ax, by), com a e b números reais.

1o Caso: a = 0 e b 6= 0
Como Im(T ) = {(x, y) ∈ IR2 ; x = 0} e ker(T ) = {(x, y) ∈ IR2 ; y = 0}, então
dim ker(T ) = dim Im(T ) = 1.
2o Caso: a 6= 0 e b = 0
Como Im(T ) = {(x, y) ∈ IR2 ; y = 0} e ker(T ) = {(x, y) ∈ IR2 ; x = 0}, então
dim ker(T ) = dim Im(T ) = 1.
3o Caso: a 6= 0 e b 6= 0
Como Im(T ) = IR2 e ker(T ) = {(0, 0)}, então dim Im(T ) = 2 e dim ker(T ) = 0.

2. T p(t) = p0 (t), a derivada de polinômios de grau ≤ n, vimos que




Im(T ) = Pn−1 (IR) e que ker(T ) = P0 (IR) = IR.

Logo, dim Im(T ) = n e dim ker(T ) = 1.

3. T (x, y, z) = (x + 3y − z, 2y + z)
Vimos que Im(T ) = IR2 e que ker(T ) = {(x, y, z) ∈ IR3 ; x = −5y e z = −2y}.
Logo, dim Im(T ) = 2 e dim ker(T ) = 1.
CAP. 3 • TRANSFORMAÇÕES LINEARES 131

   
x y
4. T = (x + y + z, y − z + t, 2z − t).
z t
   
x y
Vimos que Im(T ) = IR3 e que ker(T ) = ; x = 0, y = −z e t = 2z .
z t
Portanto, dim Im(T ) = 3 e dim ker(T ) = 1.

5. T (x, y) = 2x + yt + 3yt2 − xt3 .



Vimos que Im(T ) = p(t) = a0 + a1 t + a2 t2 + a3 t3 ∈ P3 (IR); a0 = 2a3 e a2 = 3a1 e
que ker(T ) = {(0, 0)}.
Logo, dim Im(T ) = 2 e dim ker(T ) = 0.

3.4 Transformações Lineares Injetoras e Sobrejetoras


Definição 3.9. Sejam V e W são espaços vetoriais sobre um corpo IF e T : V −→ W uma
transformação linear, dizemos que:

(i) T é injetora se, e somente se, para todo u e v em V , se T (u) = T (v), então u = v.
Equivalentemente, é injetora se, e somente se, para todo u e v em V , se u 6= v, então
T (u) 6= T (v).

(ii) T é sobrejetora se, e somente se, Im(T ) = W , ou seja, para todo w ∈ W existe algum
v ∈ V tal que T (v) = w.

Teorema 3.10. Sejam V e W são espaços vetoriais sobre um corpo IF e T : V −→ W uma


transformação linear, T é injetora se, e somente se, ker(T ) = {0V }.

Demonstração: Suponhamos que T é injetora, mostremos que ker(T ) = {0V }.


Seja v ∈ ker(T ), então T (v) = 0W , mas sabemos que T (0V ) = 0W , daı́ que T (v) = T (0V ),
como T é injetora segue que v = 0V .
Portanto, ker(T ) = {0V }.
Reciprocamente, suponhamos que ker(T ) = {0V } e mostremos que T é injetora.
Sejam u e v em V tais que T (u) = T (v), então temos:

T (u) − T (v) = 0W ⇐⇒ T (u − v) = 0W ,

isto implica que u − v ∈ ker(T ), mas como ker(T ) = {0V }, segue que u − v = 0V ⇐⇒ u = v.
Portanto, T é injetora.

Exemplos: Nos exemplos anteriores determine quais transformações lineares são injetoras
e sobrejetoras.
Solução:

1. T (x, y) = (ax, by), com a e b números reais.


SEÇÃO 3.4 • TRANSFORMAÇÕES LINEARES INJETORAS E SOBREJETORAS
132

1o Caso: a = 0 e b 6= 0
Como Im(T ) = {(x, y) ∈ IR2 ; x = 0} 6= IR2 , então T não é sobrejetora e
ker(T ) = {(x, y) ∈ IR2 ; y = 0} =
6 {(0, 0)}, então T não é injetora.
2o Caso: a 6= 0 e b = 0
Como Im(T ) = {(x, y) ∈ IR2 ; y = 0} = 6 IR2 , então T não é sobrejetora e
ker(T ) = {(x, y) ∈ IR2 ; x = 0} =
6 {(0, 0)}, então T não é injetora.
3o Caso: a 6= 0 e b 6= 0
Como Im(T ) = IR2 , então T é sobrejetora e ker(T ) = {(0, 0)}, então é injetora.

2. T p(t) = p0 (t), a derivada de polinômios de grau ≤ n.




Im(T ) = Pn−1 (IR), então T é sobrejetora e ker(T ) = P0 (IR) = IR 6= {0}, portanto T


não é injetora.

3. T (x, y, z) = (x + 3y − z, 2y + z)
Im(T ) = IR2 , então T é sobrejetora e

ker(T ) = {(x, y, z) ∈ IR3 ; x = −5y e z = −2y} =


6 {(0, 0, 0)},

portanto T não é injetora.


   
x y
4. T = (x + y + z, y − z + t, 2z − t).
z t
Im(T ) = IR3 , então T é sobrejetora e
   
x y
ker(T ) = ; x = 0, y = −z e t = 2z 6= {(0, 0, 0)},
z t

portanto T não é injetora.

5. T (x, y) = 2x + yt + 3yt2 − xt3 .



Im(T ) = p(t) = a0 + a1 t + a2 t2 + a3 t3 ∈ P3 (IR); a0 = 2a3 e a2 = 3a1 6= P3 (IR),
portanto T não é sobrejetora e ker(T ) = {(0, 0)}, logo T é injetora.

Corolário 3.11. (Consequências do Teorema do Núcleo e da Imagem)


Sejam V e W são espaços vetoriais sobre um corpo IF , com dimV = n e dimW = m, e
T : V −→ W uma transformação linear, então:

(i) Se n = m, então T é injetora se, e somente se, T é sobrejetora.

(ii) Se n < m, então T não é sobrejetora.

(iii) Se n > m, então T não é injetora.

(iv) Se n = m e T é injetora, então T leva base de V em base de W .


CAP. 3 • TRANSFORMAÇÕES LINEARES 133

3.5 Inversa de uma Transformação Linear


Definição 3.12. Sejam V e W são espaços vetoriais sobre um corpo IF e T : V −→ W uma
transformação linear, dizemos que T é bijetora se, e somente se, T é injetora e sobrejetora.

Se T : V −→ W é uma transformação linear bijetora, então:

(i) Para todo w ∈ W , existe v ∈ V tal que T (v) = w, pois Im(T ) = W .

(ii) O elemento v do item (i), tal que T (v) = w, é único, pois T é injetora.

Assim, podemos considerar a aplicação

S : W −→ V
,
w 7−→ S(w) = v

tal que T (v) = w, pela construção acima S é única.

Definição 3.13. Seja T : V −→ W uma transformação linear bijetora, a aplicação S :


W −→ V acima é chamada inversa de T e indicada por T −1 , dizemos também que T é
uma transformação invertı́vel.
Assim, T −1 (w) = v se, e somente se, T (v) = w.

Observação: Se T : V −→ W é uma transformação linear bijetora e T −1 : W −→ V é a


inversa de T , então temos:

T −1 ◦ T = IdV e T ◦ T −1 = IdW .

Teorema 3.14. Se T : V −→ W é uma transformação linear bijetora e T −1 : W −→ V é


sua inversa, então T −1 também é linear.

Demonstração:

(i) Sejam w1 e w2 em W , então w1 + w2 ∈ W , e portanto, existe v ∈ V tal que

T −1 (w1 + w2 ) = v. (3.3)

Logo,

w1 + w2 = T (v). (3.4)

Como w1 ∈ W e w2 ∈ W , existem v1 , v2 ∈ V tais que T (v1 ) = w1 e T (v2 ) = w2 ,


consequentemente
T é linear
w1 + w2 = T (v1 ) + T (v2 ) = T (v1 + v2 ). (3.5)
SEÇÃO 3.5 • INVERSA DE UMA TRANSFORMAÇÃO LINEAR 134

Além disso,

v1 = T −1 (w1 ) e v2 = T −1 (w2 ). (3.6)

Como T é injetora segue de 3.4 e de 3.5 que v = v1 + v2 .


Assim, em 3.3 substituindo por 3.6 temos:

T −1 (w1 + w2 ) = v1 + v2 = T −1 (w1 ) + T −1 (w2 ).

(ii) Sejam w ∈ W e λ ∈ IF , então λw ∈ W e existe v ∈ V tal que

T −1 (λw) = v ⇐⇒ λw = T (v). (3.7)

Como w ∈ W existe u ∈ V tal que

T (u) = w ⇐⇒ T −1 (w) = u. (3.8)

Assim,
T é linear
T (λu) = λT (u) = λw. (3.9)

Como T é injetora segue de 3.7 e 3.9 que

v = λu. (3.10)

Logo, de 3.7 e de 3.8 que

T −1 (λw) = λu = λT −1 (w).

De (i) e (ii) concluı́mos que T −1 é linear.

3.5.1 Isomorfismo e Automorfismo


Definição 3.15. Seja T : V −→ W uma transformação linear invertı́vel, ou seja, possui
inversa, dizemos que T é um isomorfismo, e a transformação linear T −1 : W −→ V é a
inversa de T .
Um operador linear T : V −→ V que é um isomorfismo é chamado automorfismo.

Observação: Vimos no desenvolvimento acima que uma condição suficiente para que uma
transformação linear T : V −→ W seja invertı́vel é que seja bijetora, na verdade essa condição
é necessária e suficiente, ou seja,

T é invertı́vel se, e somente se, T é bijetora.

Neste texto não faremos a demonstração de que se T é invertı́vel, então (necessariamente)


T é bijetora.

Exemplos:
CAP. 3 • TRANSFORMAÇÕES LINEARES 135

1. Mostre que a transformação linear T : IR2 −→ IR2 é um isomor-


(x, y) 7−→ T (x, y) = (x + y, x − y)
−1
fismo e determine sua inversa T .
Solução: Para mostrar que T é isomorfismo basta mostrar que T é bijetora, como
Dom(T ) = CD(T ) basta mostrar que T é injetora, para isso vamos mostrar que
ker(T ) = {(0, 0)}.

x+y =0
(x, y) ∈ ker(T ) ⇐⇒ T (x, y) = (0, 0) ⇐⇒ (x+y, x−y) = (0, 0) ⇐⇒ ⇐⇒
x−y =0
 
x+y =0 x=0
⇐⇒
2y = 0 y=0
Portanto, ker(T ) = {(0, 0)}, consequentemente T é um isomorfismo.

Determinando a inversa T −1 .

−1 a+b=x
T (x, y) = (a, b) ⇐⇒ (x, y) = T (a, b) ⇐⇒ (x, y) = (a+b, a−b) ⇐⇒ ⇐⇒
a−b=y
 x+y
 a= 2
 

a+b=x
⇐⇒
2b = x − y
 b= x−y


2
Logo, a inversa de T é dada por:
 
−1 x+y x−y
T (x, y) = , .
2 2

2. Mostre que a transformação linear T : IR3 −→ P2 (IR) tal que

T (1, −1, 0) = 2 + t, T (0, 1, −1) = −1 + t2 e T (0, 0, 1) = t + t2

é um isomorfismo e determine sua inversa T −1 : P2 (IR) −→ IR3 .


Solução: É claro que B = {(1, −1, 0), (0, 1, −1), (0, 0, 1)} é base de IR3 , vamos
escrever um vetor (x, y, z) arbitrário de IR3 como combinação linear dos vetores de B
para encontrar a expressão da transformação T .
 
 a=x  a=x
(x, y, z) = a(1, −1, 0)+b(0, 1, −1)+c(0, 0, 1) ⇐⇒ −a + b = y ⇐⇒ b=y+x
−b + c = z
 
c=z+y+x
Logo, (x, y, z) = x(1, −1, 0) + (x + y)(0, 1, −1) + (x + y + z)(0, 0, 1), consequentemente

T (x, y, z) = T x(1, −1, 0) + (x + y)(0, 1, −1) + (x + y + z)(0, 0, 1)

T é linear
= xT (1, −1, 0) + (x + y)T (0, 1, −1) + (x + y + z)T (0, 0, 1)
= x(2 + t) + (x + y)(−1 + t2 ) + (x + y + z)(t + t2 )
= (x − y) + (2x + y + z)t + (2x + 2y + z)t2 .
SEÇÃO 3.5 • INVERSA DE UMA TRANSFORMAÇÃO LINEAR 136

Assim, a transformação linear é:

T : IR3 −→ P2 (IR)
(x, y, z) 7−→ T (x, y, z) = (x − y) + (2x + y + z)t + (2x + 2y + z)t2 .

Para mostrar que T é isomorfismo basta mostrar que T é bijetora, como


dimIR3 = dimP2 (IR) basta mostrar que T é injetora, para isso vamos mostrar que
ker(T ) = {(0, 0, 0)}.
(x, y, z) ∈ ker(T ) ⇐⇒ T (x, y, z) = 0
 
 x−y =0  x=0
2
⇐⇒ (x−y)+(2x+y+z)t+(2x+2y+z)t = 0 ⇐⇒ 2x + y + z = 0 ⇐⇒ y=0
 
2x + 2y + z = 0 z=0

Portanto, ker(T ) = {(0, 0, 0)}, consequentemente T é um isomorfismo.

Determinando a inversa T −1 .

T −1 (a + bt + ct2 ) = (x, y, z) ⇐⇒ a + bt + ct2 = T (x, y, z)

⇐⇒ a + bt + ct2 = (x − y) + (2x + y + z)t + (2x + 2y + z)t2


 
 x−y =a  x=a−b+c
⇐⇒ 2x + y + z = b ⇐⇒ y = −b + c
z = −2a + 4b − 3c
 
2x + 2y + z = c

Logo, a inversa de T é dada por:

T −1 (a + bt + ct2 ) = (a − b + c, −b + c, −2a + 4b − 3c).

3. Considere o operador linear T : P2 (IR) −→ P2 (IR) e a trans-


0

p(t) 7−→ T p(t) = (3 + t)p (t) + 2p(t).
3
formação linear S : P2 (IR) −→ IR
a + bt + ct2 7−→ T (a + bt + ct2 ) = (a + b, c, a − b).
Determine a transformação linear S◦T : P2 (IR) −→ IR3 e verifique se é um isomorfismo,
em caso afirmativo determine (S ◦ T )−1 .
Solução: Lembremos que se p(t) = a + bt + ct2 , então p0 (t) = b + 2ct.
Logo, T (a + bt + ct2 ) = (3 + t)(b + 2ct) + 2(a + bt + ct2 ) = (2a + 3b) + (3b + 6c)t + 4ct2 ,
portanto

S ◦ T (a + bt + ct2 ) = S T (a + bt + ct2 ) = S (2a + 3b) + (3b + 6c)t + 4ct2


 


= (2a + 3b) + (3b + 6c), 4c, (2a + 3b) − (3b + 6c) = (2a + 6b + 6c, 4c, 2a − 6c).

Assim, a transformação linear é:

S◦T : P2 (IR) −→ IR3


a + bt + ct2 7−→ T (a + bt + ct2 ) = (2a + 6b + 6c, 4c, 2a − 6c).
CAP. 3 • TRANSFORMAÇÕES LINEARES 137

Para mostrar que S ◦ T é isomorfismo basta mostrar que S ◦ T é bijetora, como


dimP2 (IR) = dimIR3 basta mostrar que S ◦ T é injetora, para isso vamos mostrar
que ker(S ◦ T ) = {0}.

a + bt + ct2 ∈ ker(S ◦ T ) ⇐⇒ T (a + bt + ct2 ) = (0, 0, 0)



 2a + 6b + 6c = 0
⇐⇒ (2a + 6b + 6c, 4c, 2a − 6c) = (0, 0, 0) ⇐⇒ 4c = 0
2a − 6c = 0


 a=0
⇐⇒ b = 0 ⇐⇒ a + bt + ct2 = 0.

c=0

Portanto, ker(S ◦ T ) = {0}, consequentemente S ◦ T é um isomorfismo.

Determinando a inversa (S ◦ T )−1 .

(S ◦ T )−1 (x, y, z) = a + bt + ct2 ⇐⇒ (x, y, z) = S ◦ T (a + bt + ct2 )

⇐⇒ (x, y, z) = (2a + 6b + 6c, 4c, 2a − 6c) = (0, 0, 0)


3y + 2z


 a=




 4
 2a + 6b + 6c = x


x − 3y − z

⇐⇒ 4c = y ⇐⇒ b =

2a − 6c = z


 6


 c= y



4

Logo, a inversa de S ◦ T é dada por:


     
−1 3y + 2z x − 3y − z y 2
(S ◦ T ) (x, y, z) = + t + t.
4 6 4

4. Considere as transformações lineares T : IR2 −→ IR3 e


(x, y) 7−→ T (x, y) = (2x, x − y, y)
S : IR3 −→ IR2
(x, y, z) 7−→ S(x, y, z) = (y − z, z − x).

(a) Determine a transformação linear S ◦ T e uma base para ker(S ◦ T ).


(b) Determine a transformação linear T ◦ S e uma base para Im(T ◦ S).
(c) Verifique se S ◦ T e T ◦ S, em caso afirmativo determine as inversas.

Solução:
SEÇÃO 3.5 • INVERSA DE UMA TRANSFORMAÇÃO LINEAR 138


(a) S ◦T (x, y) = S T (x, y) = S(2x, x−y, y) = (x−y −y, y −2x) = (x−2y, y −2x).
Logo,
S ◦ T (x, y) = (x − 2y, y − 2x).

Determinando ker(S ◦ T ):
(x, y) ∈ ker(S ◦ T ) ⇐⇒ S ◦ T (x, y) = (0, 0) ⇐⇒ (x − 2y, y − 2x) = (0, 0) ⇐⇒
  
x − 2y = 0 x − 2y = 0 x=0
⇐⇒ ⇐⇒
−2x + y = 0 −3y = 0 y=0

Portanto, ker(S ◦ T ) = {(0, 0)} e sua única base é Bker(S◦T ) = ∅.

Como ker(S ◦ T ) = {(0, 0)} e é um operador linear segue ainda que é um auto-
morfismo.
 
(b) T ◦S(x, y, z) = T S(x, y, z) = T (y−z, z−x) = 2(y−z), y−z−(z−x), z−x =
(2y − 2z, x + y − 2z, −x + z).
Logo,
T ◦ S(x, y, z) = (2y − 2z, x + y − 2z, −x + z).

Determinando Im(T ◦ S):


(x, y, z) ∈ Im(T ◦S)) ⇐⇒ existe (a, b, c) ∈ IR3 tal que T ◦S(a, b, c) = (x, y, z) ⇐⇒

 2b − 2c = x
(2b − 2c, a + b − 2c, −a + c) = (x, y, z) ⇐⇒ a + b − 2c = y
−a

+c=z

 a + b − 2c = y
⇐⇒ b − c = y + z =⇒ x = 2(y + z).
2b − 2c = x

Portanto, Im(T ◦S) = {(x, y, z)IR3 ; x = 2(y+z)} e BIm(T ◦S) = {(2, 1, 0), (2, 0, 1)}
é uma base de Im(T ◦ S).

Observemos que (x, y, z) ∈ Im(T ◦ S) ⇐⇒ (x, y, z) = (2y + 2z, y, z), tomando,


por exemplo, (a, b, c) = (−z, y + z, 0) temos

T ◦ S(a, b, c) = T ◦ S(−z, y + z, 0) = 2(y + z) − 2 · 0, y + z − 2 · 0 + (−z), 0 − (−z)

x=2(y+z)
= (2(y + z), y, z) = (x, y, z).

Do fato que Im(T ◦ S 6= IR3 segue que T ◦ S não é sobrejetora, portanto não é
um automorfismo.
(c) Como S ◦ T é um automorfismo, então possui inversa, determinemos a inversa
(S ◦ T )−1 .
(S ◦ T )−1 (x, y) = (a, b) ⇐⇒ (x, y) = S ◦ T (a, b)

⇐⇒ (x, y) = (a − 2b, b − 2a) = (0, 0, 0)


CAP. 3 • TRANSFORMAÇÕES LINEARES 139

−x − 2y

 a=


3
 
a − 2b = x
⇐⇒ ⇐⇒
−2a + b = y
 b = −2x − y



3
Logo, a inversa de S ◦ T é dada por:
 
−1 −x − 2y −2x − y
(S ◦ T ) (x, y) = , .
3 3

Observação: Se T : V −→ W é uma transformação linear, com dimV = dimW , então

T é isomorfismo se, e somente se, [T ]BB0 é invertı́vel,

com B uma base qualquer de V e B 0 uma base qualquer de W .


Além disso, a matriz de T −1 : W −→ V em relação às bases B 0 e B é dada por:
0
 −1
[T −1 ]BB = [T ]BB0 .

Exemplo: Verifique matricialmente se o operador linear

T : IR3 −→ IR3
(x, y, z) 7−→ T (x, y, z) = (x − y, 2y, y − z)

é um automorfismo, em caso afirmativo determine, também por meio de matrizes, sua inversa
T −1 .
Solução:
A matriz de T em relação à base canônica de IR3 é a seguinte:

1 −1
 
0
[T ] =  0 2 0 .
0 1 −1

Como det[T ] = −2 6= 0, então [T ] é invertı́vel, determinando [T ]−1 :

1 −1 0 | 1 0 0 1 −1 0 | 1 0 0 L1 −→ L1 + L2
1 1
0 2 0 | 0 1 0 L2 −→ 2 L2 ∼ 0 1 0 | 0 2 0
0 1 −1 | 0 0 1 0 1 −1 | 0 0 1 L3 −→ −L3 + L2
1
1 0 0 | 1 2
0
1
∼ 0 1 0 | 0 2
0 .
1
0 0 1 | 0 − 2 −1
Logo,
 1 
1 2
0
[T ]−1 = 0 1
2
0 .
1
0 − 2 −1
SEÇÃO 3.5 • INVERSA DE UMA TRANSFORMAÇÃO LINEAR 140

Assim, T −1 (x, y, z) é dada por:


1
x + y2
       
x 1 2
0 x
[T ]−1 ·  y  =  0 1
2
0 · y = y
2
,
1 y
z 0 − 2 −1 z −2 − z

ou seja,  
−1 2x + y y −y − 2z
T (, x, y, z) = , , .
2 2 2
CAPÍTULO 4
DIAGONALIZAÇÃO DE
OPERADORES LINEARES

4.1 Autovalor e Autovetor de um Operador Linear


Seja V um espaço vetorial sobre um corpo IF , dado um operador linear T : V −→ V
estamos interessados em vetores diferentes do vetor nulo que são levados por T em múltiplo
de si mesmo, ou seja, procuramos v ∈ V , v 6= 0V , tal que T (v) = λv, com λ ∈ IF .
Assim temos a seguinte definição:

Definição 4.1. Sejam V um espaço vetorial sobre um corpo IF e T : V −→ V um operador


linear, dizemos que um escalar λ ∈ IF é um autovalor ou valor-próprio de T , se e
somente se, existe um vetor v ∈ V , v 6= 0V , tal que T (v) = λv.
Neste caso, o vetor v ∈ V , v 6= 0V , é chamado autovetor ou vetor-próprio de T
associado ao escalar λ.

Exemplos: Determine os autovalores do operador T e os autovetores associados.


1. Reflexões no Plano
(a) Reflexão em torno do eixo x:

T : IR2 −→ IR2
.
(x, y) 7−→ T (x, y) = (x, −y)

Solução:

x = λx
T (x, y) = λ(x, y) ⇐⇒ (x, −y) = λ(x, y) ⇐⇒
−y = λy
1o Caso: Se x 6= 0, a única possı́vel solução é λ = 1 e y = 0.
2o Caso: Se y 6= 0 devemos ter λ = −1 e x = 0.
Logo, os autovalores de T são λ1 = 1 e λ2 = −1.

141
SEÇÃO 4.1 • AUTOVALOR E AUTOVETOR DE UM OPERADOR LINEAR 142

• Os autovetores de T associados ao autovalor λ1 = 1 são os vetores da forma


(x, 0), com x 6= 0.
• Os autovetores de T associados ao autovalor λ2 = −1 são os vetores da forma
(0, y), com y 6= 0.

(b) Reflexão em torno do eixo x:

T : IR2 −→ IR2
.
(x, y) 7−→ T (x, y) = (−x, −y)

Solução:

−x = λx
T (x, y) = λ(x, y) ⇐⇒ (−x, −y) = λ(x, y) ⇐⇒ ⇐⇒ λ = −1.
−y = λy
Assim, o único autovalor de T é λ1 = −1 e os autovetores de T associados ao
autovalor λ1 = −1 são os vetores da forma (x, y), com x 6= 0 ou y 6= 0.

(c) Reflexão em torno do eixo y:

T : IR2 −→ IR2
.
(x, y) 7−→ T (x, y) = (−x, y)

Solução:
Analogamente ao exemplo 1(a) temos os autovalores de T são λ1 = 1 e λ2 = −1.
• Os autovetores de T associados ao autovalor λ1 = 1 são os vetores da forma
(0, y), com y 6= 0.
• Os autovetores de T associados ao autovalor λ2 = −1 são os vetores da forma
(x, 0), com x 6= 0.

2. Seja o operador linear

T : IR2 −→ IR2
, com a e b números reais.
(x, y) 7−→ T (x, y) = (ax, by)

Solução:

ax = λx
T (x, y) = λ(x, y) ⇐⇒ (ax, by) = λ(x, y) ⇐⇒
by = λy
1o Caso: Se a = b, então o único ao autovalor de T é λ1 = a e os autovetores de T
associados ao autovalor λ1 = a são todos os vetores de IR2 , exceto (0, 0).
2o Caso: Se a 6= b o operador T tem dois autovalores:
• Se x 6= 0, devemos ter λ1 = a e y = 0, neste caso os autovetores de T associados
ao autovalor λ1 = a são os vetores da forma (x, 0) com x 6= 0.
• Se y 6= 0, devemos ter λ2 = b e x = 0, neste caso os autovetores de T associados
ao autovalor λ2 = b são os vetores da forma (0, y) com y 6= 0.
CAP. 4 • DIAGONALIZAÇÃO DE OPERADORES LINEARES 143

 
1 1
3. Seja A = , o operador linear TA é dado por:
0 2

TA : IR2 −→ IR2
(x, y) 7−→ TA (x, y) = (x + y, 2y).

Solução:

x + y = λx
T (x, y) = λ(x, y) ⇐⇒ (x + 2y, y) = λ(x, y) ⇐⇒
2y = λy
1o Caso: Se y 6= 0, o autovalor de T é λ1 = 2, neste caso teremos x+y = 2x ⇐⇒ x = y.
Logo, os autovetores de T associados ao autovalor λ1 = 2 são os vetores da forma
(x, x), com x 6= 0.
2o Caso: Se y = 0, o autovalor de T é λ2 = 1 e os autovetores de T associados ao
autovalor λ2 = 1 são os vetores da forma (x, 0) com x 6= 0.

4. Seja o operador linear

T : IR3 −→ IR3
.
(x, y, z) 7−→ T (x, y, z) = (x + y + z, x + y, z)

Solução:


 x + y + z = λx
T (x, y, z) = λ(x, y, z) ⇐⇒ (x + y + z, x + y, z) = λ(x, y, z) ⇐⇒ x + y = λy

z = λz

1o Caso: Se z 6= 0, devemos ter λ1 = 1, consequentemente devemos ter


 
x+y+z =x y = −z
⇐⇒
x+y =y x=0

Logo, os autovetores de T associados ao autovalor de T é λ1 = 1 são os vetores da


forma (0, −z, z) com z 6= 0.

x + y = λx x6=0 ou y6=0
2o Caso: Se z = 0, devemos ter ⇐⇒ λx = λy =⇒ x = y.
x + y = λy
x6=0
Logo, temos 2x = λx =⇒ λ = 2
Portanto, λ2 = 2 é o outro valor de T e os autovetores de T associados ao autovalor
λ2 = 2 são os vetores da forma (x, x, 0) com x 6= 0.

4.1.1 Autoespaço associado a um Autovalor


Teorema 4.2. Sejam V um espaço vetorial sobre o corpo IF e T : V −→ V um operador
linear.
SEÇÃO 4.1 • AUTOVALOR E AUTOVETOR DE UM OPERADOR LINEAR 144

(i) Se v é um autovetor associado ao autovalor λ, então todo vetor não nulo w = αv, com
α ∈ IF , também é um autovetor de T associado a λ.
(ii) Se v1 e v2 são autovetores associado ao autovalor λ, então v1 +v2 também é um autovetor
de T associado a λ.

Demonstração:
(i) Como v é autovetor associado ao autovalor λ, então T (v) = λv.
Assim,
T é linear
T (w) = T (αv) = αT (v) = α(λv) = λ(αv) = λw.

Portanto, w é autovetor associado ao autovalor λ.


(ii) Como v1 e v2 são autovetores associado ao autovalor λ, então, então T (v1 ) = λv1 e
T (v2 ) = λv2 .
Logo,
T é linear
T (v1 + v2 ) = = T (v1 ) + T (v2 ) = (λv1 ) + (λv2 ) = λ(v1 + v2 ).

Portanto, v1 + v2 é autovetor associado ao autovalor λ.

Do teorema acima concluı́mos que, dado um operador linear T : V −→ V o conjunto de


todos os autovetores de T associados a um autovalor junto com o vetor nulo é um subespaço
de V , mais precisamente temos a seguinte definição:

Definição 4.3. Sejam T : V −→ V um operador linear e λ um autovalor de V o subespaço

Vλ = {v ∈ V ; T (v) = λv}

é um subespaço de V chamado autoespaço associado ao autovalor λ.

Exemplos: Determine os autoespaços de V nos seguintes casos:

1. Reflexões no Plano
(a) Reflexão em torno do eixo x:

T : IR2 −→ IR2
.
(x, y) 7−→ T (x, y) = (x, −y)

Solução:
Vimos que os autovalores de T são λ1 = 1 e λ2 = −1, com autovetores das formas
(x, 0) com x 6= 0 e (0, y) com y 6= 0, respectivamente.
Logo, os autoespaços de IR2 são:

V1 = {(x, y) ∈ IR2 ; y = 0} e V−1 = {(x, y) ∈ IR2 ; x = 0}.


CAP. 4 • DIAGONALIZAÇÃO DE OPERADORES LINEARES 145

(b) Reflexão em torno do eixo x:


T : IR2 −→ IR2
.
(x, y) 7−→ T (x, y) = (−x, −y)
Solução:
Vimos que o único autovalor de T é λ1 = −1 com autovetores da forma (x, y), com
x 6= 0 ou y 6= 0.
Logo, o único autoespaço de IR2 é V1 = IR2 .
(c) Reflexão em torno do eixo y:
T : IR2 −→ IR2
.
(x, y) 7−→ T (x, y) = (−x, y)
Solução:
Vimos que os autovalores de T são λ1 = 1 e λ2 = −1, com autovetores das formas
(0, y) com y 6= 0 e (x, 0) com x 6= 0, respectivamente.
Logo, os autoespaços de IR2 são:
V1 = {(x, y) ∈ IR2 ; x = 0} e V−1 = {(x, y) ∈ IR2 ; y = 0}.

2. Seja o operador linear


T : IR2 −→ IR2
, com a e b números reais.
(x, y) 7−→ T (x, y) = (ax, by)
Solução:
Vimos que:
1o Caso: Se a = b, então o único ao autovalor de T é λ1 = a e os autovetores são todos
os vetores de IR2 , exceto (0, 0).
Logo, o único autoespaço de IR2 é Va = IR2 .
2o Caso: Se a 6= b, então os autovalores de T são λ1 = a e λ2 = b, com autovetores
das formas (x, 0) com x 6= 0 e (0, y) com y 6= 0, respectivamente.
Logo, os autoespaços de IR2 são:
Va = {(x, y) ∈ IR2 ; y = 0} e Vb = {(x, y) ∈ IR2 ; x = 0}.
 
1 1
3. Seja A = , o operador linear TA é dado por:
0 2
TA : IR2 −→ IR2
(x, y) 7−→ TA (x, y) = (x + y, 2y).
Solução:
Vimos que os autovalores de T são λ1 = 2 e λ2 = 1, com autovetores das formas (x, x),
com x 6= 0 e (x, 0) com x 6= 0, respectivamente.
Logo, os autoespaços de IR2 são:
V2 = {(x, y) ∈ IR2 ; y = x} e V1 = {(x, y) ∈ IR2 ; y = 0}.
SEÇÃO 4.2 • POLINÔMIO CARACTERÍSTICO DE UM OPERADOR LINEAR 146

4. Seja o operador linear

T : IR3 −→ IR3
.
(x, y, z) 7−→ T (x, y, z) = (x + y + z, x + y, z)

Solução:
Vimos que os autovalores de T são λ1 = 1 e λ2 = 2, com autovetores das formas
(0, −z, z) com z 6= 0 e (x, x, 0) com x 6= 0.
Logo, os autoespaços de IR3 são:

V1 = {(x, y, z) ∈ IR3 ; x = 0 e y = −z} e V2 = {(x, y, z) ∈ IR3 ; y = x e z = 0}.

Proposição 4.4. Se λ1 e λ2 são autovalores distintos de um operador linear T : V −→ V


um operador linear, então
V (λ1 ) ∩ V (λ2 ) = {0V }.

Demonstração:

T (v) = λ1 v λ1 6=λ2
v ∈ V (λ1 ) ∩ V (λ2 ) ⇐⇒ ⇐⇒ λ1 v = λ2 v ⇐⇒ (λ1 − λ2 )v = 0V =⇒ v = 0V .
T (v) = λ2 v

Portanto, V (λ1 ) ∩ V (λ2 ) = {0V }.

Definição 4.5. Sejam V um espaço vetorial sobre um corpo IF , de dimensão finita n, e T :


V −→ V um operador linear. Dado λi um autovalor de T a multiplicidade geométrica
de de λi é a dimensão do autoespaço Vλi
Notação: mG (λi ).

Nos exemplos acima todos os autovalores têm multiplicidade geométrica igual a 1.

4.2 Polinômio Caracterı́stico de um Operador Linear


Na seção anterior obtemos em alguns exemplos os autovalores e os autovetores de um
operador linear. No entanto o procedimento adotado não é, de modo geral eficiente. Assim
vamos utilizar a forma matricial do operador para fazer isto, porém antes devemos justificar
porque podemos considerar qualquer matriz do operador.

4.2.1 Preliminares
Teorema 4.6. Sejam V um espaço vetorial sobre um corpo IF de dimensão finita e T :
V −→ V um operador linear. Se B e B 0 são bases de V , então
0
[T ]B = MBB · [T ]B0 · MBB0 ,
0
com MBB0 e MBB , respectivamente, a matriz mudança de base de B para B 0 e a matriz mudança
de base de B 0 para B.
CAP. 4 • DIAGONALIZAÇÃO DE OPERADORES LINEARES 147

Demonstração:
Pelo teorema 3.4 sabemos que:
 
T (v) B = [T ]B · [v]B para todo v ∈ V.
Por outro lado, utilizandos as matrizes mudança de base, para todo v ∈ V , temos:
0
MBB · T (v) B0
   
T (v) B =
Teo. 3.4 0
= MBB · [T ]B0 · [v]B0

0 0
= MBB · [T ]B0 · MBB · [v]B .
Portanto,
0 0
[T ]B · [v]B = MBB · [T ]B0 · MBB · [v]B
para todo v ∈ V .
Consequentemente, temos:
0
[T ]B = MBB · [T ]B0 · MBB0 .

Definição 4.7. Dizemos que duas matrizes A e B em Mn (IF ) são semelhantes se, e
somente se, existe P uma matriz invertı́vel em Mn (IF ) tal que
B = P −1 · A · P.
Proposição 4.8. Matrizes semelhantes têm o mesmo determinante.
Demonstração:
De fato, se A e B são semelhantes então, existe P uma matriz invertı́vel em Mn (IF ) tal
que B = P −1 · A · P.
Logo,
1
det B = det(P −1 · A · P ) = det P −1 · det A · det P = · det A · det P = det A,
det P
1
pois det P −1 = .
det P
Teorema 4.9. Seja T : V −→ V um operador linear, as matrizes de T em relação a bases
distintas são semelhantes.
Demonstração: Sejam B e B 0 bases de V pelo teorema 4.6 sabemos que:
0
[T ]B = MBB · [T ]B0 · MBB0 .
Mas por outro lado sabemos que a matriz mudança de base MBB0 é invertı́vel e que
 −1
0
MBB0 = MBB .
Consequentemente temos
 −1
[T ]B = MBB0 · [T ]B0 · MBB0 .

Portanto, as matrizes de T em relação a bases distintas são semelhantes.


SEÇÃO 4.2 • POLINÔMIO CARACTERÍSTICO DE UM OPERADOR LINEAR 148

Corolário 4.10. Seja T : V −→ V um operador linear, as matrizes de T em relação a bases


distintas têm mesmo determinante.

Demonstração: Pelo teorema 4.9 sabemos que as matrizes de T em relação a bases distintas
são semelhantes, consequentemente pela proposição 4.8 segue o resultado.
Assim temos a seguinte definição:

Definição 4.11. Sejam V um espaço vetorial de dimensão finita sobre um corpo IF e


T : V −→ V um operador linear, o determinante do operador T , denotado por det T , é
dado por:
det T = det[T ]B ,
com B uma base ordenada qualquer de V .

Teorema 4.12. Sejam V um espaço vetorial de dimensão finita sobre um corpo IF e


T : V −→ V um operador linear. Então, T é invertı́vel se, e somente se, det T 6= 0.

4.2.2 Polinômio Caracterı́stico de uma Matriz


Sejam V um espaço vetorial de dimensão finita n sobre um corpo IF e T : V −→ V um
operador linear, um vetor v ∈ V , não nulo, é autovetor de T se, e somente se, existe λ ∈ IF
tal que T (v) = λv, mas

T (v) = λv ⇐⇒ T (v) − λI(v) = 0V ⇐⇒ ker(T − λI) 6= {0V }.

Consideremos B uma base de V e A = [T ]B a matriz de T em relação à base B, dizer que


ker(T − λI) 6= {0V } é equivalente que o sistema
   
v1 0
 v2   0 
(A − λIn ) ·   =
   
.. .. 
 .   . 
vn B
0

tem solução não trivial, e isto por sua vez é equivalente a dizer que det A − λIn = 0, com
In a matriz identidade de ordem n.

Definição 4.13. Seja A uma matriz em Mn (IF ) dizemos que um escalar λ ∈ IF é autovalor
de A se, e somente se, det(A − λIn ) = 0.

Definição 4.14. Seja A uma matriz em Mn (IF ) o polinômio em λ dado por

p(λ) = det(A − λIn )

é chamado polinômio caracterı́stico de A.

Teorema 4.15. Seja T : V −→ V um operador linear, as matrizes de T em relação a bases


distintas têm o mesmo polinômio caracterı́stico.
CAP. 4 • DIAGONALIZAÇÃO DE OPERADORES LINEARES 149

Demonstração: Vamos mostrar um resultado mais geral, que se A e B são semelhantes,


então têm o mesmo polinômio caracterı́stico.
De fato, se A e B são semelhantes, então existe P uma matriz invertı́vel tal que
B = P −1 · A · P.
Logo,

pB (λ) = det(B − λIn ) = det P −1 AP − λP −1 P = det P −1 (A − λIn )P


 

= det P −1 det(A − λIn ) det P = det(A − λIn ) = pA (λ),


1
pois det P −1 = .
det P
Como vimos no teorema 4.9 que matrizes de T em relação a bases distintas são semel-
hantes, segue o resultado.

Assim, temos a seguinte definição:

Definição 4.16. Sejam V um espaço vetorial de dimensão finita n sobre um corpo IF e


T : V −→ V um operador linear, o polinômio caracterı́stico de T , denotado por p(λ) ou
pT (λ), é o polinômio caracterı́stico da matriz [T ]B , com B uma base ordenada qualquer de
V , ou seja,

p(λ) = det [T ]B − λIn .

Das considerações acima concluı́mos:

Teorema 4.17. Sejam V um espaço vetorial de dimensão finita n sobre um corpo IF e


T : V −→ V um operador linear, então:
(i) Os autovalores do operador T são as raı́zes de seu polinômio caracterı́stico p(λ).
(ii) Se λi é um autovalor de T , então o autoespaço Vλi , associado a este autovalor, é o
subespaço ker(A − λi In ).

Observação: O teorema 4.17 nos fornece o procedimento prático para determinar os auto-
valores, os autovetores e os autoespaços de um operador linear T :
1o Obtemos p(λ) o polinômio caracterı́stico de T .
2o Encontramos as raı́zes de p(λ), que são os autovalores de T .
3o Para cada autovalor λi determinamos o autoespaço Vλi , que é o subespaço ker(A − λi In ).

Exemplos: Determine os autovalores e os autoespaços do operador T nos seguintes casos:

1. T operador sobre IR2 .


(a) T (x, y) = (y, 9x).
(b) T (x, y) = (−y, x).
Solução:
SEÇÃO 4.2 • POLINÔMIO CARACTERÍSTICO DE UM OPERADOR LINEAR 150

(a) Consideremos B a base canônica de IR2 , então:


T (1, 0) = (0, 9) e T (0, 1) = (1, 0).
 
0 1
Logo, a matriz de A de T em relação à base B é A = .
9 0
Portanto, o polinômio caracterı́stico de T é dado por:
 
−λ 1
p(λ) = pA (λ) = det(A − λI2 ) = det = λ2 − 9.
9 −λ

É claro que

p(λ) = 0 ⇐⇒ λ2 − 9 = 0 ⇐⇒ λ2 = 9 ⇐⇒ λ = 3 ou λ = −3.

Logo, os autovalores de T são λ1 = 3 e λ2 = −3.


Determinando os autoespaços V3 e V−3 .
 
−3 1
(x, y) ∈ V3 ⇐⇒ (x, y) ∈ ker(A − 3I2 ) = ker
9 −3
     
−3 1 x −3x + y = 0
0
⇐⇒ = ⇐⇒ y = 3x.
⇐⇒
9 −3 y 9x − 3y = 0
0
 
Portanto, V3 = {(x, y) ∈ IR2 ; y = 3x} = (1, 3) .

 
3 1
(x, y) ∈ V−3 ⇐⇒ (x, y) ∈ ker(A + 3I2 ) = ker
9 3
     
3 1 x 0
3x + y = 0
⇐⇒ = ⇐⇒ ⇐⇒ y = −3x.
9 3 y 0
9x + 3y = 0
 
Portanto, V−3 = {(x, y) ∈ IR2 ; y = −3x} = (1, −3) .

(b) Consideremos B a base canônica de IR2 , então:


T (1, 0) = (0, 1) e T (0, 1) = (−1, 0).
 
0 −1
Logo, a matriz de A de T em relação à base B é A = .
1 0
Portanto, o polinômio caracterı́stico de T é dado por:
 
−λ −1
p(λ) = pA (λ) = det(A − λI2 ) = det = λ2 + 1.
1 −λ

É claro que

p(λ) = 0 ⇐⇒ λ2 + 1 = 0, ⇐⇒ λ2 = −1 ⇐⇒ λ = i ou λ = −i.

Mas IR2 é um espaço vetorial sobre IR e i e −i não são números reais.


Portanto, T não tem autovalores e autovetores e IR2 não tem autoespaços determi-
nados por este operador.
2. T operador sobre IR3 .
CAP. 4 • DIAGONALIZAÇÃO DE OPERADORES LINEARES 151

(a) T (x, y, z) = (x, y, x).


(b) T (x, y, z) = (x + z, y + z, x + y + 2z).
(c) T (1, 1, 1) = (4, 9, −4), T (0, 1, 1) = (2, 7, −3), T (0, 0, 1) = (1, 4, −2).
Solução:
(a) Consideremos B a base canônica de IR3 , então:
T (1, 0, 0) = (1, 0, 1), T (0, 1, 0) = (0, 1, 0) e T (0, 0, 1) = (0, 0, 0).
 
1 0 0
Logo, a matriz de A de T em relação à base B é A =  0 1 0  .
1 0 0
Portanto, o polinômio caracterı́stico de T é dado por:

1−λ
 
0 0
p(λ) = pA (λ) = det(A−λI3 ) = det  0 1 − λ 0  = (1−λ)2 (−λ) = −λ(1−λ)2 .
1 0 −λ

É claro que
 
2 λ=0 λ=0
p(λ) = 0 ⇐⇒ −λ(1−λ) = 0 ⇐⇒ ⇐⇒ ⇐⇒ λ = 0 ou λ = 1.
(1 − λ)2 = 0 1−λ=0
Logo, os autovalores de T são λ1 = 0 e λ2 = 1.
Determinando os autoespaços V0 e V1 .
 
1 0 0
(x, y, z) ∈ V0 ⇐⇒ (x, y, z) ∈ ker(A − 0I3 ) = ker  0 1 0 
1 0 0
     
1 0 0 x 0  x=0
⇐⇒  0 1 0   y  =  0  ⇐⇒ y = 0 ⇐⇒ x = y = 0.

1 0 0 z 0 x=0
 
Portanto, V0 = {(x, y, z) ∈ IR3 ; x = y = 0} = (0, 0, 1) .

 
0 0 0
(x, y, z) ∈ V1 ⇐⇒ (x, y, z) ∈ ker(A − 1I3 ) = ker  0 0 0 
1 0 −1
    
0 0 0 x 0
⇐⇒ 0 0 0   y = 0  ⇐⇒ x − z = 0 ⇐⇒ z = x.
 
1 0 −1 z 0
 
Portanto, V1 = {(x, y, z) ∈ IR3 ; z = x} = (1, 0, 1), (0, 1, 0) .
(b) Consideremos B a base canônica de IR3 , então:
T (1, 0, 0) = (1, 0, 1), T (0, 1, 0) = (0, 1, 1) e T (0, 0, 1) = (1, 0, 2).
 
1 0 1
Logo, a matriz de A de T em relação à base B é A =  0 1 1  .
1 1 2
SEÇÃO 4.2 • POLINÔMIO CARACTERÍSTICO DE UM OPERADOR LINEAR 152

Portanto, o polinômio caracterı́stico de T é dado por:

1−λ
 
0 1
p(λ) = pA (λ) = det(A−λI3 ) = det  0 1−λ 1  = (1−λ)2 (2−λ)−2(1−λ)
1 1 2−λ

= (1 − λ) (1 − λ)(2 − λ) − 2 = (1 − λ)(λ2 − 3λ + 2 − 2) = (1 − λ)λ(λ − 3).




É claro que

 1−λ=0
p(λ) = 0 ⇐⇒ (1−λ)λ(λ−3) = 0 ⇐⇒ λ = 0 ⇐⇒ λ = 1, λ = 0 ou λ = 3.
λ−3=0

Logo, os autovalores de T são λ1 = 1, λ2 = 0 e λ3 = 3.


Determinando os autoespaços V1 , V0 e V3 .
 
0 0 1
(x, y, z) ∈ V1 ⇐⇒ (x, y, z) ∈ ker(A − 1I3 ) = ker  0 0 1 
1 1 1
    
0 0 1 x 0 
z=0
⇐⇒  0 0 1   y  =  0  ⇐⇒ ⇐⇒ z = 0 e y = −x.
x+y =0
1 1 1 z 0
 
Portanto, V1 = {(x, y, z) ∈ IR3 ; z = 0 e y = −x} = (1, −1, 0) .

 
1 0 1
(x, y, z) ∈ V0 ⇐⇒ (x, y, z) ∈ ker(A − 0I3 ) = ker  0 1 1 
1 1 2
     
1 0 1 x 0  x+z =0
⇐⇒  0 1 1   y  =  0  ⇐⇒ y+z =0 ⇐⇒ x = −z e y = −z.

1 1 2 z 0 x + y + 2z = 0
 
Portanto, V0 = {(x, y, z) ∈ IR3 ; x = −z e y = −z} = (−1, −1, 1) .

−2
 
0 1
(x, y, z) ∈ V3 ⇐⇒ (x, y, z) ∈ ker(A − 3I3 ) = ker  0 −2 1 
1 1 −1

−2  −2x + z = 0
    
0 1 x 0
⇐⇒  0 −2 1   y  =  0  ⇐⇒ −2y + z = 0 ⇐⇒ x = y e z = 2x.
1 −1 x+y−z =0

1 z 0
 
Portanto, V3 = {(x, y, z) ∈ IR3 ; x = y e z = 2x} = (1, 1, 2) .
CAP. 4 • DIAGONALIZAÇÃO DE OPERADORES LINEARES 153

(c) Consideremos a base B = {(1, 1, 1), (0, 1, 1), (0, 0, 1)} de IR3 , então para todo
(x, y, z) ∈ IR3 temos:
   
x x
(x, y, z) = x(1, 1, 1) + (y − x)(0, 1, 1) + (z − y)(0, 0, 1) ⇐⇒  y  =  y − x  .
z B z−y

T (1, 1, 1) = (4, 9, −4) = 4 (1, 1, 1) + 5 (0, 1, 1) − 13 (0, 0, 1)


Logo, T (0, 1, 1) = (2, 7, −3) = 2 (1, 1, 1) + 5 (0, 1, 1) − 10 (0, 0, 1) .
T (0, 0, 1) = (1, 4, −2) = 1 (1, 1, 1) + 3 (0, 1, 1) − 6 (0, 0, 1)
 
4 2 1
Portanto, a matriz de A de T em relação à base B é A =  5 5 3 .
−13 −10 −6
Consequentemente, o polinômio caracterı́stico de T é dado por:

4−λ
 
2 1
p(λ) = pA (λ) = det(A − λI3 ) = det  5 5−λ 3 
−13 −10 −6 − λ

= (4 − λ)(5 − λ)(−6 − λ) − 78 − 50 + 13(5 − λ) + 30(4 − λ) + 10(6 + λ)


= −λ3 + 3λ2 + λ − 3 = (λ − 1)(−λ2 + 2λ + 3) = (1 − λ)(1 + λ)(3 − λ).
É claro que

 1−λ=0
p(λ) = 0 ⇐⇒ (1−λ)(1+λ)(3−λ) = 0 ⇐⇒ 1 + λ = 0 ⇐⇒ λ = 1, λ = −1 ou λ = 3.
3−λ=0

Logo, os autovalores de T são λ1 = 1, λ2 = −1 e λ3 = 3.


Determinando os autoespaços V1 , V−1 e V3 .
 
3 2 1
(x, y, z) ∈ V1 ⇐⇒ (x, y, z) ∈ ker(A − 1I3 ) = ker  5 4 3 
−13 −10 −7
    
3 2 1 x 0
⇐⇒  5 4 3   y  = 0 

−13 −10 −7 z B 0 B
    
3 2 1 x 0
⇐⇒  5 4 3   y−x = 0 
 
−13 −10 −7 z−x 0

 x+y+z =0 
x+y+z =0
⇐⇒ x + y + 3z = 0 ⇐⇒ ⇐⇒ z = 0 e y = −x.
z=0
−3x − 3y − 7z = 0

Portanto, V1 = {(x, y, z) ∈ IR3 ; z = 0 e y = −x} = [(1, −1, 0)].


SEÇÃO 4.2 • POLINÔMIO CARACTERÍSTICO DE UM OPERADOR LINEAR 154

 
6 2 1
(x, y, z) ∈ V−1 ⇐⇒ (x, y, z) ∈ ker(A + 1I3 ) = ker  5 6 3 
−13 −10 −5
    
6 2 1 x 0
⇐⇒  5 6 3   y  =  0 
−13 −10 −5 z B 0 B
    
6 2 1 x 0
⇐⇒  5 6 3   y−x = 0 
 
−13 −10 −5 z−x 0
 
 3x + y + z = 0  3x + y + z = 0
⇐⇒ −x + 3y + 3z = 0 ⇐⇒ −x + 3y + 3z = 0 ⇐⇒ x = 0 e z = −y.
−3x − 5y − 5z = 0
 
12x = 0
Portanto, V−1 = {(x, y, z) ∈ IR3 ; x = 0 e z = −y} = [(0, 1, −1)].

 
1 2 1
(x, y, z) ∈ V3 ⇐⇒ (x, y, z) ∈ ker(A − 3I3 ) = ker  5 2 3 
−13 −10 −9
    
1 2 1 x 0
⇐⇒  5 2 3   y  = 0 

−13 −10 −9 z B 0 B
    
1 2 1 x 0
⇐⇒  5 2 3   y−x = 0 
 
−13 −10 −9 z−x 0
 
 −x + y + z = 0  −x + y + z = 0
⇐⇒ 3x − y + 3z = 0 ⇐⇒ 2y + 6z = 0 ⇐⇒ y = −3z e x = −2z.
−3x + y − 9z = 0 −4y − 12z = 0
 

Portanto, V3 = {(x, y, z) ∈ IR3 ; y = −3z e x = −2z} = [(−2, −3, 1)].

3. T operador sobre P2 (IR).



(a) T p(t) = p(0) + p(1)(t + t2 ).
(b) T p(t) = (1 + t)p0 (t) + p00 (t).


(c) T (a0 + a1 t + a2 t2 ) = (2a1 + a2 ) + (3a0 − a1 − a2 )t + 2a2 t2 .


Solução:
(a) Seja p(t) = a0 + a1 t + a2 t2 um elemento arbitrário de P2 (IR), então p(0) = a0 e
p(1) = a0 + a1 + a2 .
Logo,

T p(t) = p(0)+p(1)(t+t2 ) = a0 +(a0 +a1 +a2 )(t+t2 ) = a0 +(a0 +a1 +a2 )t+(a0 +a1 +a2 )t2 .

CAP. 4 • DIAGONALIZAÇÃO DE OPERADORES LINEARES 155

Consideremos B = {1, t, t2 } a base canônica de P2 (IR), então:


T (1) = 1 + t + t2 , T (t) = t + t2 e T (t2 ) = t + t2 .
 
1 0 0
Logo, a matriz de A de T em relação à base B é A =  1 1 1  .
1 1 1
Portanto, o polinômio caracterı́stico de T é dado por:

1−λ
 
0 0
p(λ) = pA (λ) = det(A − λI3 ) = det  0 1−λ 1  = (1 − λ)3 − (1 − λ)
1 1 1−λ

= (1 − λ) (1 − λ)2 − 1 = (1 − λ)(λ2 − 2λ + 1 − 1) = (1 − λ)λ(λ − 2).




É claro que

 1−λ=0
p(λ) = 0 ⇐⇒ (1−λ)λ(λ−2) = 0 ⇐⇒ λ = 0 ⇐⇒ λ = 1, λ = 0 ou λ = 2.
λ−2=0

Logo, os autovalores de T são λ1 = 1, λ2 = 0 e λ3 = 2.


Determinando os autoespaços V1 , V0 e V2 .

 
0 0 0
p(t) = a0 + a1 t + a2 t2 ∈ V1 ⇐⇒ a0 + a1 t + a2 t2 ∈ ker(A − 1I3 ) = ker  1 0 1 
1 1 0
      
0 0 0 0 0 0 a0 0
   
⇐⇒  1 0 1  a0 + a1 t + a2 t2 B = 0 B ⇐⇒  1 0 1   a1  =  0 
1 1 0 1 1 0 a2 0

a0 + a2 = 0
⇐⇒ ⇐⇒ a1 = −a0 e a2 = −a0 .
a0 + a1 = 0
Portanto, V1 = {p(t) = a0 +a1 t+a2 t2 ∈ P2 (IR); a1 = −a0 e a2 = −a0 } = [1−t−t2 ].

 
1 0 0
p(t) = a0 + a1 t + a2 t2 ∈ V0 ⇐⇒ a0 + a1 t + a2 t2 ∈ ker(A − 0I3 ) = ker  1 1 1 
1 1 1
      
1 0 0 1 0 0 a0 0
 2
  
⇐⇒ 1 1 1
  a0 + a1 t + a2 t B = 0 B ⇐⇒ 1 1 1   a1 = 0 
 
1 1 1 1 1 1 a2 0

a0 = 0a0 + a1 + a2 = 0
⇐⇒ ⇐⇒ a0 = 0 e a2 = −a1 .
a0 + a1 + a2 = 0
Portanto, V0 = {p(t) = a0 + a1 t + a2 t2 ∈ P2 (IR); a0 = 0 e a2 = −a1 } = [t − t2 ].
SEÇÃO 4.2 • POLINÔMIO CARACTERÍSTICO DE UM OPERADOR LINEAR 156

−1
 
0 0
p(t) = a0 +a1 t+a2 t2 ∈ V2 ⇐⇒ a0 +a1 t+a2 t2 ∈ ker(A−0I3 ) = ker  1 −1 1 
1 1 −1

−1
 
0 0
   
⇐⇒  1 −1 1  a0 + a1 t + a2 t2 B = 0 B
1 1 −1
−1
    
0 0 a0 0
⇐⇒  1 −1 1   a1  =  0 
1 1 −1 a2 0

−a0 = 0a0 − a1 + a2 = 0
⇐⇒ ⇐⇒ a0 = 0 e a2 = a1 .
a0 + a1 − a2 = 0
Portanto, V2 = {p(t) = a0 + a1 t + a2 t2 ∈ P2 (IR); a0 = 0 e a2 = a1 } = [t + t2 ].

(b) Seja p(t) = a0 + a1 t + a2 t2 um elemento arbitrário de P2 (IR), então p0 (t) = a1 + 2a2 t


e p00 (t) = 2a2 .
Logo,

T p(t) = (1+t)p0 (t)+p00 (t) = (1+t)(a1 +2a2 t)+2a2 = (a1 +2a2 )+(a1 +2a2 )t+2a2 t2 .


Consideremos B = {1, t, t2 } a base canônica de P2 (IR), então:


T (1) = 0, T (t) = 1 + t e T (t2 ) = 2 + 2t + 2t2 .
 
0 1 2
Logo, a matriz de A de T em relação à base B é A =  0 1 2  .
0 0 2
Portanto, o polinômio caracterı́stico de T é dado por:

−λ
 
1 2
p(λ) = pA (λ) = det(A − λI3 ) = det  0 1 − λ 2  = −λ(1 − λ)(2 − λ).
0 0 2−λ

É claro que

−λ = 0 
p(λ) = 0 ⇐⇒ −λ(1−λ)(2−λ) = 0 ⇐⇒ 1 − λ = 0 ⇐⇒ λ = 0, λ = 1 ou λ = 2.
2−λ=0

Logo, os autovalores de T são λ1 = 0, λ2 = 1 e λ3 = 2.


Determinando os autoespaços V0 , V1 e V2 .

 
0 1 2
p(t) = a0 + a1 t + a2 t2 ∈ V0 ⇐⇒ a0 + a1 t + a2 t2 ∈ ker(A − 0I3 ) = ker  0 1 2 
0 0 2
CAP. 4 • DIAGONALIZAÇÃO DE OPERADORES LINEARES 157

      
0 1 2 0 1 2 a0 0
 2
  
⇐⇒  0 1 2  a0 + a1 t + a2 t B = 0 B ⇐⇒  0 1 2   a1  =  0 
0 0 2 0 0 2 a2 0

a1 + 2a2 = 0
⇐⇒ ⇐⇒ a1 = a2 = 0.
2a2 = 0
Portanto, V0 = {p(t) = a0 + a1 t + a2 t2 ∈ P2 (IR); a1 = a2 = 0} = [1].

−1 1 2
 

p(t) = a0 + a1 t + a2 t2 ∈ V1 ⇐⇒ a0 + a1 t + a2 t2 ∈ ker(A − 1I3 ) = ker  0 0 2 


0 0 1

−1 1 2 −1 1 2
      
a0 0
 2
  
⇐⇒  0 0 2  a0 + a1 t + a2 t B = 0 B ⇐⇒  0 0 2   a1 = 0 
 
0 0 1 0 0 1 a2 0

−a0 + a1 + 2a2 = 02a2 = 0
⇐⇒ ⇐⇒ a2 = 0 e a1 = a0 .
a2 = 0
Portanto, V1 = {p(t) = a0 + a1 t + a2 t2 ∈ P2 (IR); a2 = 0 e a1 = a0 } = [1 + t].

−2
 
1 2
p(t) = a0 + a1 t + a2 t2 ∈ V2 ⇐⇒ a0 + a1 t + a2 t2 ∈ ker(A − 0I3 ) = ker  0 −1 2 
0 0 0

−2
 
1 2
   
⇐⇒  0 −1 2  a0 + a1 t + a2 t2 B
= 0 B
0 0 0
−2
    
1 2 a0 0
⇐⇒  0 −1 2   a1 = 0 
 
0 0 0 a2 0

⇐⇒ −2a0 + a1 + 2a2 = 0 − a1 + 2a2 = 0 ⇐⇒ a1 = 2a2 e a0 = 2a2 .
Portanto, V2 = {p(t) = a0 +a1 t+a2 t2 ∈ P2 (IR); a1 = 2a2 e a0 = 2a2 } = [2+2t+t2 ].

(c) Consideremos B = {1, t, t2 } a base canônica de P2 (IR), então:


T (1) = 3t, T (t) = 2 − t e T (t2 ) = 1 − t + 2t2 .
 
0 2 1
Logo, a matriz de A de T em relação à base B é A =  3 −1 −1  .
0 0 2
Portanto, o polinômio caracterı́stico de T é dado por:

−λ
 
2 1
p(λ) = pA (λ) = det(A−λI3 ) = det  3 −1 − λ −1  = λ(1+λ)(2−λ)−6(2−λ)
0 0 2−λ
SEÇÃO 4.2 • POLINÔMIO CARACTERÍSTICO DE UM OPERADOR LINEAR 158

(2 − λ)(λ2 + λ − 6) = (2 − λ)(λ − 2)(λ + 3) = −(λ − 2)2 (λ + 3).


É claro que

(λ − 2)2 = 0

2
p(λ) = 0 ⇐⇒ −(λ − 2) (λ + 3) = 0 ⇐⇒ ⇐⇒ λ = 2, ou λ = −3.
λ+3=0

Logo, os autovalores de T são λ1 = 2 e λ2 = −3.


Determinando os autoespaços V2 e V−3 .

−2
 
2 1
p(t) = a0 +a1 t+a2 t2 ∈ V2 ⇐⇒ a0 +a1 t+a2 t2 ∈ ker(A−2I3 ) = ker  3 −3 −1 
0 0 0

−2
 
2 1
   
⇐⇒  3 −3 −1  a0 + a1 t + a2 t2 B = 0 B
0 0 0
−2
    
2 1 a0 0
⇐⇒  3 −3 −1   a1  =  0 
0 0 0 a2 0
 
−2a0 + 2a1 + a2 = 0 −2a0 + 2a1 + a2 = 0
⇐⇒ ⇐⇒ ⇐⇒ a1 = a0 e a2 = 0.
3a0 − 3a1 − a2 = 0 a0 − a1 = 0
Portanto, V2 = {p(t) = a0 + a1 t + a2 t2 ∈ P2 (IR); a1 = a0 e a2 = 0} = [1 + t].

 
3 2 1
p(t) = a0 + a1 t + a2 t2 ∈ V−3 ⇐⇒ a0 + a1 t + a2 t2 ∈ ker(A + 3I3 ) = ker  3 2 −1 
0 0 5
      
3 2 1 3 2 1 a0 0
   
⇐⇒  3 2 −1  a0 + a1 t + a2 t2 B = 0 B ⇐⇒  3 2 −1   a1  =  0 
0 0 5 0 0 5 a2 0

⇐⇒ 3a0 + 2a1 + a2 = 03a0 + 2a1 − a2 = 05a2 = 0 ⇐⇒ a1 = 3/2a0 e a2 = 0.
Portanto, V−3 = {p(t) = a0 + a1 t + a2 t2 ∈ P2 (IR); 1 = 3/2a0 e a2 = 0.} = [2 + 3t].

4. T operador sobre IR4 .


(a) T (x, y, z, w) = (x + y, y, 2z + w, 2z + w).
 
−1 −4 −2 −2
−4 −1 −2 −2 
 
(b) A matriz de T em relação à base canônica de IR4 é: A =  .

 2 2 1 4 
2 2 4 1
Solução:
CAP. 4 • DIAGONALIZAÇÃO DE OPERADORES LINEARES 159

(a) Consideremos B a base canônica de IR4 , então:


T (1, 0, 0, 0) = (1, 0, 0, 0), T (0, 1, 0, 0) = (1, 1, 0, 0), T (0, 0, 1, 0) = (0, 0, 2, 2) e
T (0, 0, 0, 1) = (0, 0, 1, 1).  
1 1 0 0
 0 1 0 0 
 
Logo, a matriz de A de T em relação à base B é A =  .
 0 0 2 1 
0 0 2 1
Portanto, o polinômio caracterı́stico de T é dado por:
 
1−λ 1 0 0
 0 1−λ 0 0 
 
p(λ) = pA (λ) = det(A − λI3 ) = det 
 0 0 2−λ 1 

0 0 2 1−λ

= (1 − λ) (1 − λ)2 (2 − λ) − 2(1 − λ)


= (1 − λ)(1 − λ) (1 − λ)(2 − λ) − 2 = (1 − λ)2 λ(λ − 3).




É claro que
2

 (1 − λ) = 0
2
p(λ) = 0 ⇐⇒ (1−λ) λ(λ−3) = 0 ⇐⇒ λ = 0 ⇐⇒ λ = 1, λ = 0 ou λ = 3.
λ−3=0

Logo, os autovalores de T são λ1 = 1, λ2 = 0 e λ3 = 3.


Determinando os autoespaços V1 , V0 e V3 .
 
0 1 0 0
0 0 0 0
 
(x, y, z, w) ∈ V1 ⇐⇒ (x, y, z, w) ∈ ker(A − 1I4 ) = ker 
 
0 0 1 1

 
0 0 2 0
    
0 1 0 0 x 0 
y=0
0 0 0 0 y 0
     
⇐⇒  =  ⇐⇒ z + w = 0 ⇐⇒ y = z = w = 0.
    
0 0 1 1 z 0

     
2z = 0
0 0 2 0 w 0
 
Portanto, V1 = {(x, y, z, w) ∈ IR4 ; y = z = w = 0} = (1, 0, 0, 0) .
 
1 1 0 0
0 1 0 0
 
(x, y, z, w) ∈ V0 ⇐⇒ (x, y, z, w) ∈ ker(A − 0I4 ) = ker 
 
0 0 2 1

 
0 0 2 1
    
1 1 0 0 x 0 
x+y =0 
0 1 0 0 y 0 x=y=0
     
⇐⇒  =  ⇐⇒ y = 0 ⇐⇒
    
0 0 2 1 z 0 w = −2z

     
2z + w = 0
0 0 2 1 w 0
SEÇÃO 4.2 • POLINÔMIO CARACTERÍSTICO DE UM OPERADOR LINEAR 160

 
Portanto, V0 = {(x, y, z, w) ∈ IR4 ; x = y = 0 e w = −2z} = (0, 0, 1, −2) .

 
−2 1 0 0
0 −2 0 0
 
(x, y, z, w) ∈ V3 ⇐⇒ (x, y, z, w) ∈ ker(A − 3I4 ) = ker 
 
0 0 −1 1

 
0 0 2 −2
     
−2 1 0 0 x 0  −2x + y = 0 
 x=0


0 −2 0 0 y 0 −2y = 0
     
⇐⇒   =   ⇐⇒ ⇐⇒ y=0 .
    
0 0 −1 1 z 0 −z + w = 0

      

 w=z
0 0 2 −2 w 0  2z − 2w = 0
 
Portanto, V3 = {(x, y, z) ∈ IR4 ; x = y = 0 e w = z} = (0, 0, 1, 1) .
 
−1 −4 −2 −2
 −4 −1 −2 −2 
 
(b) Como a matriz de A de T em relação à base B é A =   , então
 2 2 1 4 
2 2 4 1
o polinômio caracterı́stico de T é dado por:
 
−1 − λ −4 −2 −2
 −4 −1 − λ −2 −2 
 
p(λ) = pA (λ) = det(A − λI3 ) = det 
2 2 1−λ 4 


2 2 4 1−λ

−1 − λ −2 −2 −4 −2 −2

(−1 − λ) 2 1−λ 4 + 4 2 1 − λ 4
2 4 1−λ 2 4 1−λ

−4 −1 − λ −2 −4 −1 − λ −2

−2 2 2 4 + 2 2 2 1 − λ
2 2 1−λ 2 2 4
 
(−1 − λ) (−1 − λ)(1 − λ)2 − 8 + 8λ + 4(36 − 4λ2 ) − 2(18 − 2λ2 ) + 2(−18 + 4λ2 )
= λ4 − 18λ2 + 81 = (λ2 − 9)2 = (λ − 3)2 (λ + 3)2 .
É claro que
(λ − 3)2 = 0

2 2
p(λ) = 0 ⇐⇒ (λ − 3) (λ + 3) = 0 ⇐⇒ ⇐⇒ λ = 3 ou λ = −3.
(λ + 3)2 = 0
Logo, os autovalores de T são λ1 = 3 e λ2 = −3.
Determinando os autoespaços V3 e V−3 .

 
−4 −4 −2 −2
−4 −4 −2 −2
 
(x, y, z, w) ∈ V3 ⇐⇒ (x, y, z, w) ∈ ker(A − 3I4 ) = ker 
 
2 2 −2 4

 
2 2 4 −2
CAP. 4 • DIAGONALIZAÇÃO DE OPERADORES LINEARES 161

    
−4 −4 −2 −2 x 0 
 −4x − 4y − 2z − 2w = 0
−4 −4 −2 −2   y   0
    
⇐⇒  =  ⇐⇒ 2x + 2y − 2z + 4w = 0
 
2 2 −2 4  z   0

2x + 2y + 4z − 2w = 0
  
2 2 4 −2 w 0
 
x + y − z + 2w = 0 w=z
⇐⇒ ⇐⇒
3z − 3w = 0 x = −y − z
 
Portanto, V3 = {(x, y, z, w) ∈ IR4 ; z = w e x = −y−z} = (−1, 1, 0, 0), (−1, 0, 1, 1) .

 
2 −4 −2 −2
−4 2 −2 −2 
 
(x, y, z, w) ∈ V−3 ⇐⇒ (x, y, z, w) ∈ ker(A + 3I4 ) = ker 

2 2 4 4 


2 2 4 4
    
2 −4 −2 −2 x 0
−4 2 −2 −2   y 0 
    
⇐⇒  =
  
2 2 4 4  z 0 
 
  
2 2 4 4 w 0

2x − 4y − 2z − 2w = 0  
x − 2y − z − w = 0 x=y

⇐⇒ −4x + 2y − 2z − 2w = 0 ⇐⇒ ⇐⇒
 3x − 3y = 0 z = −x − w
2x + 2y + 4z + 4w = 0
 
Portanto, V−3 = {(x, y, z, w) ∈ IR4 ; y = x e z = −x−w} = (1, 1, −1, 0), (0, 0, −1, 1) .

5. T operador sobre M2 (IR).


     
a b 2a + b 2b
(a) T = .
c d 2c 2d
     
a b a+b b
(b) T = .
c d 0 c−a−b
Solução:
       
1 0 0 1 0 0 0 0
(a) Consideremos B = , , , a base canônica
0 0 0 0 1 0 0 1
de M2 (IR), então:

             
1 0 2 0 1 0 0 1 0 0 0 0
T = =2 +0 +0 +0 ,
0 0 0 0 0 0 0 0 1 0 0 1

             
0 1 1 2 1 0 0 1 0 0 0 0
T = =1 +2 +0 +0 ,
0 0 0 0 0 0 0 0 1 0 0 1

             
0 0 0 0 1 0 0 1 0 0 0 0
T = =0 +0 +2 +0 ,
1 0 2 0 0 0 0 0 1 0 0 1
SEÇÃO 4.2 • POLINÔMIO CARACTERÍSTICO DE UM OPERADOR LINEAR 162

             
0 0 0 0 1 0 0 1 0 0 0 0
T = =0 +0 +0 +2 .
0 1 0 2 0 0 0 0 1 0 0 1
 
2 1 0 0
0 2 0 0
 
Logo, a matriz de A de T em relação à base B é A =  .
 
 0 0 2 0 
0 0 0 2
Portanto, o polinômio caracterı́stico de T é dado por:
 
2−λ 1 0 0
 0 2−λ 0 0
 
p(λ) = pA (λ) = det(A − λI4 ) = det   = (2 − λ)4 .

 0 0 2−λ 0 
0 0 0 2−λ

É claro que
p(λ) = 0 ⇐⇒ (2 − λ)4 = 0 ⇐⇒ λ = 2.
Logo, o único autovalor de T é λ1 = 2.
Determinando o autoespaço V2 .
 
0 1 0 0
   
a b a b 0 0 0 0
 
∈ V2 ⇐⇒ ∈ ker(A − 2I4 ) = ker 
 
c d c d 0 0 0 0

 
0 0 0 0

0 0 1 0
   
0
0  a b 0 0 0
0

⇐⇒  =

0
0  c d B 0 0
0 0 B


0 0 0 0
    
0 1 0 0 a 0
 0 0 0 0  b   0 
    
⇐⇒     =   ⇐⇒ b = 0.
 0 0 0 0  c   0 
0 0 0 0 d 0
   "      #
a b 1 0 0 0 0 0
Portanto, V2 = ∈ M2 (IR); b = 0 = , , .
c d 0 0 1 0 0 1
       
1 0 0 1 0 0 0 0
(b) Consideremos B = , , , a base canônica
0 0 0 0 1 0 0 1
de M2 (IR), então:

             
1 0 1 0 1 0 0 1 0 0 0 0
T = =1 +0 +0 −1 ,
0 0 0 −1 0 0 0 0 1 0 0 1
CAP. 4 • DIAGONALIZAÇÃO DE OPERADORES LINEARES 163

             
0 1 1 1 1 0 0 1 0 0 0 0
T = =1 +1 +0 −1 ,
0 0 0 −1 0 0 0 0 1 0 0 1

             
0 0 0 0 1 0 0 1 0 0 0 0
T = =0 +0 +0 +1 ,
1 0 0 1 0 0 0 0 1 0 0 1

             
0 0 0 0 1 0 0 1 0 0 0 0
T = =0 +0 +0 +0 .
0 1 0 0 0 0 0 0 1 0 0 1
 
1 1 0 0
0 1 0 0
 
Logo, a matriz de A de T em relação à base B é A =  .
 
 0 0 0 0 
−1 −1 1 0
Portanto, o polinômio caracterı́stico de T é dado por:
 
1−λ 1 0 0
 0 1−λ 0 0
 
p(λ) = pA (λ) = det(A − λI4 ) = det   = λ2 (1 − λ)2 .

 0 0 −λ 0 
−1 −1 1 −λ

É claro que

p(λ) = 0 ⇐⇒ λ2 (1 − λ)2 = 0 ⇐⇒ λ = 0 ou λ = 1.

Logo, os autovalores de T são λ1 = 0 e λ2 = 1.


Determinando os autoespaços V0 e V1 .
 
1 1 0 0
   
a b a b 0 1 0 0
 
∈ V0 ⇐⇒ ∈ ker(A − 0I4 ) = ker 
 
c d c d 0 0 0 0

 
−1 −1 1 0


1 1 0 0
   
 0 1 0 0  a b 0 0

⇐⇒  =
 0 0 0 0  c d B 0 0 B

−1 −1 1 0
    
1 1 0 0 a 0 
a+b=0
 0 1 0 0  b   0 
     
⇐⇒     =   ⇐⇒ b = 0 ⇐⇒ a = b = c = 0.
 0 0 0 0  c   0 
−a − b + c = 0

−1 −1 1 0 d 0
   " #
a b 0 0
Portanto, V0 = ∈ M2 (IR); a = b = c = 0 = .
c d 0 1
SEÇÃO 4.2 • POLINÔMIO CARACTERÍSTICO DE UM OPERADOR LINEAR 164

 
0 1 0 0
   
a b a b 0 0 0 0
 
∈ V1 ⇐⇒ ∈ ker(A − 1I4 ) = ker 
 
c d c d 0 0 −1 0

 
−1 −1 1 −1
 
0 1 0 0
   
 0 0 0 0  a b 0 0

⇐⇒  =
 0 0 −1 0  c d B 0 0 B

−1 −1 1 −1
    
0 1 0 0 a 0
 0 0 0 0  b   0 
    
⇐⇒    =  
 0 0 −1 0  c   0 
−1 −1 1 −1 d 0

 b=0
⇐⇒ −c = 0 ⇐⇒ b = c = 0 e d = −a.
−a − b + c − d = 0

   " #
a b 1 0
Portanto, V1 = ∈ M2 (IR); b = c = 0 e d = −a = .
c d 0 −1

6. T operador sobre C2 .
(a) T (z, w) = (−w, z).
(b) T (z, w) = (4z + 2iw, −2iz + 4w).
Solução:

(a) Consideremos B = (1, 0), (0, 1) a base canônica de C2 , então:
T (1, 0) = (0, 1) e T (0, 1) = (−1, 0).
 
0 −1
Logo, a matriz de A de T em relação à base B é A = .
1 0
Portanto, o polinômio caracterı́stico de T é dado por:
 
−λ −1
p(λ) = pA (λ) = det(A − λI2 ) = det = λ2 + 1.
1 −λ

É claro que

p(λ) = 0 ⇐⇒ λ2 + 1 = 0 ⇐⇒ λ2 = −1 ⇐⇒ λ = i ou λ = −i.

Logo, os autovalores de T são λ1 = i e λ2 = −i.


Determinando os autoespaços Vi e V−i .
 
−i −1
(z, w) ∈ Vi ⇐⇒ (z, w) ∈ ker(A − iI2 ) = ker
1 −i
CAP. 4 • DIAGONALIZAÇÃO DE OPERADORES LINEARES 165

     
−i −1 z −iz − w = 0
0
⇐⇒ = ⇐⇒
⇐⇒ w = −iz.
1 −i w z − iw = 0
0
 
Portanto, Vi = {(z, w) ∈ C2 ; w = −iz} = (1, −i) .

 
i −1
(z, w) ∈ V−i ⇐⇒ (z, w) ∈ ker(A + iI2 ) = ker
1 i
     
i −1 z 0 iz − w = 0
⇐⇒ = ⇐⇒ ⇐⇒ w = iz.
1 i w 0 z + iw = 0
 
Portanto, V−i = {(z, w) ∈ C2 ; w = iz} = (1, i) .

(b) Consideremos B = (1, 0), (0, 1) a base canônica de C2 , então:
T (1, 0) = (4, −2i) e T (0, 1) = (2i, 4).
 
4 2i
Logo, a matriz de A de T em relação à base B é A = .
−2i 4
Portanto, o polinômio caracterı́stico de T é dado por:
 
4−λ 2i
p(λ) = pA (λ) = det(A − λI2 ) = det
−2i 4 − λ

= (4 − λ)2 + 4i2 = λ2 − 8λ + 16 − 4 = λ2 − 8λ + 12 = (λ − 2)(λ − 6).


É claro que

λ−2=0
p(λ) = 0 ⇐⇒ (λ − 2)(λ − 6) = 0 ⇐⇒⇐⇒ ⇐⇒ λ = 2 ou λ = 6.
λ−6=0

Logo, os autovalores de T são λ1 = 2 e λ2 = 6.


Determinando os autoespaços V2 e V6 .
 
2 2i
(z, w) ∈ V2 ⇐⇒ (z, w) ∈ ker(A − 2I2 ) = ker
−2i 2
     
2 2i z 02z + 2iw = 0
⇐⇒ = ⇐⇒ ⇐⇒ z = −iw.
−2i 2 w −2iz + 2w = 0
0
 
Portanto, V2 = {(z, w) ∈ C2 ; w = iz} = (−i, 1) .

 
−2 2i
(z, w) ∈ V6 ⇐⇒ (z, w) ∈ ker(A + 6I2 ) = ker
−2i −2
     
−2 2i z −2z + 2iw = 0
0
⇐⇒ = ⇐⇒ ⇐⇒ z = iw.
−2i −2 w −2iz − 2w = 0
0
 
Portanto, V6 = {(z, w) ∈ C2 ; z = iw} = (i, 1) .
7. Seja A uma matriz quadrada de ordem n, mostre que:
(a) O polinômio caracterı́stico de AT , a transposta de A, coincide com o polinômio
caracterı́stico de A, ou seja, pAT (λ) = pA (λ).
SEÇÃO 4.2 • POLINÔMIO CARACTERÍSTICO DE UM OPERADOR LINEAR 166

(b) Se A é matriz diagonal ou matriz triangular, então os autovalores de A são os


elementos da diagonal principal.
(c) Se A é invertı́vel, então 0 não é autovalor de A.
1
(d) Se A é invertı́vel e λ1 é um autovalor de A, então é autovalor de A−1 .
λ1
Solução:
(a) Seja pA (λ) = (A − λIn ) o polinômio caracterı́stico de A, então o polinômio carac-
terı́stico de AT é dado por pAT (λ) = det(AT − λIn ) e

pAT (λ) = det(AT −λIn ) = det(AT −λInT ) = det(A−λIn )T = det(A−λIn ) = pA (λ).

(b) Se A é diagonal ou triangular, então a matriz A − lambdaIn também é diagonal ou


triangular, com elementos da diagonal:

a11 − λ, a22 − λ, ··· , ann − λ.

Como o determinante de uma matriz diagonal ou triangular é o produto dos ele-


mentos da diagonal principal segue que:

pA (λ) = (a11 − λ) · (a22 − λ) · · · · · (ann − λ),

cujas raı́zes são:


a11 , a22 , ··· , ann .
(c) 0 é uma raiz do polinômio caracterı́stico de A, se, e somente se,

p(0) = 0 ⇐⇒ det(A − 0In ) = 0 ⇐⇒ det A = 0 ⇐⇒ A não é invertı́vel

.
Portanto, A é invertı́vel se, e somente se, 0 não é autovalor de A.
(d) Como λ1 é um autovalor de A e A é invertı́vel, pelo item anterior sabemos que
λ1 6= 0, além disso det(A − λ1 In ) = 0.
Logo,

det(A−λ1 In )·det A−1 = 0 ⇐⇒ det (A−λ1 In )A−1 = 0 ⇐⇒ det(A·A−1 −λ1 A−1 ) = 0




 !
1
⇐⇒ det(In − λ1 A−1 ) = 0 ⇐⇒ det (−λ1 ) A−1 − In =0
λ1
     
n −1 1 λ1 6=0 −1 1 1
⇐⇒ (−λ1 ) det A − In = 0 =⇒ det A − In = 0 ⇐⇒ pA−1 = 0.
λ1 λ1 λ1
1
Consequentemente, é autovalor de A−1 .
λ1

Observações:
CAP. 4 • DIAGONALIZAÇÃO DE OPERADORES LINEARES 167

1. Se V é um espaço vetorial de dimensão n sobre IR e T é um operador linear sobre V ,


então o polinômio caracterı́stico de T , pT (λ), é um polinômio de grau n na variável λ
com coeficientes reais.
Consequentemente, pT (λ) tem no máximo n raı́zes reais.
De acordo com o demonstrado no apêndice destas notas, uma consequência do teorema
?? é que se n é um número ı́mpar, então pT (λ) tem um número ı́mpar de raı́zes reais.
Portanto, se dimV é ı́mpar, então o operador T pelo menos um autovalor.
2. Se V é um espaço vetorial de dimensão n sobre C e T é um operador linear sobre V ,
então o polinômio caracterı́stico de T , pT (λ), é um polinômio de grau n na variável λ
com coeficientes complexos.
Segue do teorema da decomposição ??, apresentado no apêndice, que pT (λ) tem exata-
mente n raı́zes, podendo ocorrer raı́zes repetidas.
Portanto, neste caso o operador T pelo menos um autovalor.

4.3 Diagonalização de Operadores Lineares


Sejam V um espaço vetorial sobre um corpo IF , de dimensão finita n, e T : V −→ V
um operador linear, a obtenção dos autovalores e autovetores de T é importante, pois em
alguns casos podemos encontrar uma base B de V constituı́da de autovetores tal que a matriz
de T em relação à essa base é diagonal, assim obterı́amos a representação mais simples do
operador T .
No exemplo 1(a) acima o operador de IR2 dado por: T (x, y) = (y, 9x) tem dois autoval-
ores: λ1 = 3 e λ2 = −3 com autoespaços:
   
V3 = (1, 3) e V−3 = (1, −3) .

Observemos que B = (1, 3), (1, −3) é uma base de IR2 e que:

T (1, 3) = (3, 9) = 3 (1, 3) + 0 (1 − 3)


T (1, −3) = (−3, 9) = 0 (1, 3) + (−3) (1, −3).
Portanto,  
3 0
[T ]B = é uma matriz diagonal.
0 −3

Já no exemplo 2(a) acima o operador de IR3 dado por


T (x, y, z) = (x, y, x) tem dois autovalores: λ1 = 0 e λ2 = 1 com autoespaços:
   
V0 = (0, 0, 1) e V1 = (1, 0, 1), (0, 1, 0) .

Novamente B = (0, 0, 1), (1, 0, 1), (0, 1, 0) é uma base de IR3 e temos:

T (0, 0, 1) = (0, 0, 0) = 0 (0, 0, 1) + 0 (1, 0, 1) + 0 (0, 1, 0)


T (1, 0, 1) = (1, 0, 1) = 0 (0, 0, 1) + 1 (1, 0, 1) + 0 (0, 1, 0)
T (0, 1, 0) = (0, 0, 1) = 0 (0, 0, 1) + 0 (1, 0, 1) + 1 (0, 1, 0).
SEÇÃO 4.3 • DIAGONALIZAÇÃO DE OPERADORES LINEARES 168

Logo,
 
0 0 0
[T ]B =  0 1 0  é uma matriz diagonal.
0 0 1

Os operadores acima são chamados operadores diagonalizáveis, mais precisamente temos


a seguinte definição:
Definição 4.18. Seja V um espaço vetorial sobre um corpo IF , de dimensão finita n. Dize-
mos que um operador linear T : V −→ V é diagonalizável se existe B uma base ordenada
de V tal que [T ]B é uma matriz diagonal.

Observação: A existência de autovalores não implica que T é um operador diagonalizável,


no exemplo 4(a) operador de IR4 dado por T (x, y, z, w) = (x + y, y, 2z + w, 2z + w) tem
três autovalores: λ1 = 1, λ2 = 0 e λ3 = 3, com autoespaços:
     
V1 = (1, 0, 0, 0) , V0 = (0, 0, 1, −2) e V3 = (0, 0, 1, 1) .

Embora o conjunto B = (1, 0, 0, 0), (0, 0, 1, −2), (0, 0, 1, 1) seja um subconjunto
L.I. de IR4 não é uma base, pois contém apenas três vetores.
De modo geral temos o seguinte resultado:
Teorema 4.19. Sejam V um espaço vetorial sobre um corpo IF , de dimensão finita n, e
T : V −→ V um operador linear que possui autovalores distintos λ1 , λ2 , · · · , λk . Se
B1 = {v11 , · · · , v1n1 }, B2 = {v21 , · · · , v2n2 }, · · · , Bk = {vk1 , · · · , vknk } são bases,
respectivamente, dos autoespaços V (λ1 ), V (λ2 ), · · · , V (λk ), então B = B1 ∪ B2 ∪ · · · ∪ Bk é
um subconjunto linearmente independente de V .
Demonstração: Sejam α11 , · · · , α1n1 , α21 , · · · , α2n2 , · · · , αk1 , · · · αknk em IF tais que:

α11 v11 + · · · + α1n1 v1n1 + α21 v21 + · · · + α2n2 v2n2 + · · · + αk1 vk1 + · · · + αknk vknk = 0V . (4.1)

Multiplicando 4.1 por λ1 obtemos:

λ1 α11 v11 + · · · + λ1 α1n1 v1n1 + λ1 α21 v21 + · · · + λ1 α2n2 v2n2 +


(4.2)
· · · + λ1 αk1 vk1 + · · · + λ1 αknk vknk = 0V .
Aplicando o operador T em refeq1 obtemos:

λ1 α11 v11 + · · · + λ1 α1n1 v1n1 + λ2 α21 v21 + · · · + λ2 α2n2 v2n2 +


(4.3)
· · · + λk αk1 vk1 + · · · + λk αknk vknk = 0V .
Subtraindo 4.3 de 4.4 obtemos:
(λ2 − λ1 )α21 v21 + · · · + (λ2 − λ1 )α2n2 v2n2 + · · · +
(4.4)
(λk − λ1 )αk1 vk1 + · · · + (λk − λ1 )αknk vknk = 0V .
Repetindo esse processo sucessivamente, de multiplicar a equação resultante pelo próximo
autovalor, aplicar T na equação e subtrailas, (k − 2) vezes obtemos:

(λk −λk−1 ) · · · (λk −λ2 )(λk −λ1 )αk1 vk1 +· · ·+(λk −λk−1 ) · · · (λk −λ2 )(λk −λ1 )αknk vknk = 0V .
CAP. 4 • DIAGONALIZAÇÃO DE OPERADORES LINEARES 169

Como Bk = {vk1 , · · · , vknk } é base, seus vetores são L.I. e os autovalores λ1 , λ2 , · · · , λk


são distintos, segue que
αk1 = · · · = αknk = 0.
Substituindo nas equações anteriores obtemos:

α11 = · · · = α1n1 = α21 = · · · = α2n2 = · · · = αk1 = · · · = αknk = 0.

Portanto, B = B1 ∪ B2 ∪ · · · ∪ Bk é um subconjunto linearmente independente de V .

Corolário 4.20. No teorema acima se n1 + n2 + · · · + nk = n, então B = B1 ∪ B2 ∪ · · · ∪ Bk


é base de V . Além disso:
 
λ1 · · · 0 0 ··· 0 ··· 0 ··· 0
 .. . . ..
. ··· ··· ···

 . . 0 0 0 0 
 
 0 ··· λ1 0 ··· 0 ··· 0 ··· 0 
 
 0 ··· 0 λ2 ··· 0 ··· 0 ··· 0 
 

 0 ··· .. ... .. 
0 . . ··· 0 ··· 0 
[T ]B = 
 0 ···

 0 0 · · · λ2 ··· 0 ··· 0 

 .. .. .. . .. .. ..
· · · ..

 . ···
 . . . ··· . . 

 0 ··· 0 0 ··· 0 · · · λk ··· 0 
 
. .. .
· · · .. . ..
 
 0 ··· 0 0 ··· 0 
0 ··· 0 0 ··· 0 ··· 0 · · · λk
Corolário 4.21. Sejam V um espaço vetorial sobre um corpo IF , de dimensão finita n, e
T : V −→ V um operador linear, então temos:
(i) T tem no máximo n autovalores distintos.
(ii) Se T possui n autovalores distintos, então, T é um operador diagonalizável.
Demonstração:
(i) Se T tivesse k autovalores distintos λ1 , · · · , λk , com k > n, então v1 , · · · , vk os
autovetores associados, respectivamente, a λ1 , · · · , λk formaria um subconjunto L. I.
de V , mas dimV = n, contrariando o fato de que qualquer subconjunto de um espaço
vetorial de dimensão n tem no máximo n elementos.
Portanto, T tem no máximo n autovalores distintos.
(ii) Se T possui n autovalores distintos: λ1 , · · · , λn , então pelo teorema 4.19 o conjunto

B = {v1 , · · · , vn }

é um subconjunto L. I. de V , como dimV = n segue que B é uma base de V .


Além disso,
T (v1 ) = λ1 v1 = λ1 v1 + 0v2 + · · · 0vn
T (v2 ) = λ2 v2 = 0v1 + λ2 v2 + · · · 0vn
..
.
T (vn ) = λn vn = 0v1 + 0v2 + · · · λn vn .
SEÇÃO 4.3 • DIAGONALIZAÇÃO DE OPERADORES LINEARES 170

Logo,  
λ1 0 ··· 0
 0 λ2 ··· 0 
[T ]B =  , ou seja, T é diagonalizável.
 
.. .. ..
 . . . 0 
0 0 · · · λn

Teorema 4.22. Sejam V um espaço vetorial sobre um corpo IF , de dimensão finita n, e


T : V −→ V um operador linear, então T é diagonalizável se, e somente se, existe uma base
ordenada B para V constituı́da de autovetores de T .

Demonstração: Seja B = {v1 , · · · , vn } base ordenada de V de autovetores e sejam


λ1 , · · · , λn os respectivos autovalores de T , não necessariamente distintos, então temos:

T (v1 ) = λ1 v1 = λ1 v1 + 0v2 + · · · 0vn


T (v2 ) = λ2 v2 = 0v1 + λ2 v2 + · · · 0vn
..
.
T (vn ) = λn vn = 0v1 + 0v2 + · · · λn vn .

Logo,  
λ1 0 ··· 0
 0 λ2 ··· 0 
[T ]B =  , é matriz diagonal.
 
.. .. ..
 . . . 0 
0 0 · · · λn
Consequentemente, T é operador diagonalizável.
Reciprocamente, suponhamos que existe B = {u1 , u2 , · · · , un } base ordenada de V tal
que [T ]B é matriz diagonal, mostremos que os vetores de B são autovetores de T . Como [T ]B
é matriz diagonal, então  
µ1 0 · · · 0
 0 µ2 · · · 0 
[T ]B =  . ,
 
.. . .
 .. . . 0 
0 0 · · · µn
com µ1 , µ2 , · · · , µn escalares em IF .
Além disso, escrevendo os vetores de B em relação à B obtemos:

T (u1 ) = µ1 u1 + 0 u2 + · · · 0 un = µ1 u1
T (u2 ) = 0 u1 + µ2 u2 + · · · 0 un = µ2 u2
..
.
T (un ) = 0 u1 + 0 u2 + · · · µn un = µn un .

Portanto, µ1 , µ2 , · · · , µn são autovalores de T e u1 , u2 , · · · , un são os autovetores


associados, respectivamente.
Consequentemente, B = {u1 , u2 , · · · , un } é uma base de V constituı́da de autovetores.
CAP. 4 • DIAGONALIZAÇÃO DE OPERADORES LINEARES 171

Teorema 4.23. Sejam V um espaço vetorial sobre um corpo IF , de dimensão finita n, e


T : V −→ V um operador linear, então T é diagonalizável se, e somente se, os λ1 , · · · , λk
de T são tais que
dimV = dim(Vλ1 ) + · · · + dim(Vλk ).

Definição 4.24. Sejam V um espaço vetorial sobre um corpo IF , de dimensão finita n, e


T : V −→ V um operador linear. Dado λi um autovalor de T a multiplicidade algébrica
de λi é quantidade de vezes que ele aparece como raiz do polinômio caracterı́stico pT (λ).
Notação: mA (λi ).

Proposição 4.25. Se λi é um autovalor de um operador linear T : V −→ V , então a


multiplicidade geométrica de λi é menor ou igual à multiplicidade algébrica de λi , ou seja,
mG (λi ) ≤ mA (λi ).

Teorema 4.26. Sejam V um espaço vetorial sobre um corpo IF , de dimensão finita n, e


T : V −→ V um operador linear, então T é diagonalizável se, e somente se,
(i) O polinômio caracterı́stico de T possui todas as raı́zes em IF .
(ii) A multiplicidade algébrica de cada autovalor λi de T é igual à multiplicidade geométrica
de λi , ou seja, mA (λi ) = mG (λi ).

Exemplos: Verifique em cada um casos abaixo se o operador linear T é diagonalizável, em


caso afirmativo determine uma base B do espaço vetorial correspondente tal que [T ]B é uma
matriz diagonal.

1. T operador sobre IR2 .


(a) T (x, y) = (y, 9x).
(b) T (x, y) = (−y, x).
Solução:
(a) Vimos que os autovalores de T são λ1 = 3 e λ2 = −3, como T é um operador linear
de IR2 e dimIR2 = 2, segue que T é diagonalizável.
   
Como V3 = (1, 3) e V−3 = (1, −3) , podemos tomar a seguinte base de IR2 :
 
3 0
B = {(1, 3), (1, −3)}, assim [T ]B = .
0 −3

(b) Vimos que T não tem autovalores, portanto o operador T não é diagonalizável.
2. T operador sobre IR3 .
(a) T (x, y, z) = (x, y, x).
(b) T (x, y, z) = (x + z, y + z, x + y + 2z).
(c) T (1, 1, 1) = (4, 9, −4), T (0, 1, 1) = (2, 7, −3), T (0, 0, 1) = (1, 4, −2).
Solução:
SEÇÃO 4.3 • DIAGONALIZAÇÃO DE OPERADORES LINEARES 172

(a) Os autovalores de T são λ1 = 0 e λ2 = 1, neste caso o número de autovalores


distintos é menor que a dimensão do espaço, assim vamos utilizar as multiplicidades
dos autovalores para verificar se T é diagonalizável.
Vimos que p(λ) = −λ(1 − λ)2 , com todas as raı́zes em IR, daı́ segue que mA (0) = 1)
e mA (1) = 2.
   
Como os autoespaços correspondentes são: V0 = (0, 0, 1) e V1 = (1, 0, 1), (0, 1, 0) ,
consequentemente mG (0) = 1 e mG (1) = 2.
Portanto, T é um operador diagonalizável, podemos tomar a seguinte base de IR3
 
0 0 0
B = {(0, 0, 1), (1, 0, 1), (0, 1, 0)}, assim [T ]B =  0 1 0  .
0 0 1

(b) Os autovalores de T são λ1 = 1, λ2 = 0 e λ3 = 3, como T é um operador linear de


IR3 e dimIR3 = 3, segue que T é diagonalizável.
     
Como V1 = (1, −1, 0) , V0 = (−1, −1, 1) e V3 = (1, 1, 2) , podemos tomar
seguinte base de IR3 :
 
1 0 0
B = {(1, −1, 0), (−1, −1, 1), (1, 1, 2)}, assim [T ]B =  0 0 0  .
0 0 3

(c) Os autovalores de T são λ1 = 1, λ2 = −1 e λ3 = 3, como T é um operador linear


de IR3 e dimIR3 = 3, segue que T é diagonalizável.
     
Como V1 = (1, −1, 0) , V−1 = (0, 1, −1) e V3 = (−2, −3, 1) , podemos
tomar seguinte base de IR3 :
 
1 0 0
B = {(1, −1, 0), (0, 1, −1), (−2, −3, 1)}, assim [T ]B =  0 −1 0  .
0 0 3

3. T operador sobre P2 (IR).



(a) T p(t) = p(0) + p(1)(t + t2 ).
(b) T p(t) = (1 + t)p0 (t) + p00 (t).


(c) T (a0 + a1 t + a2 t2 ) = (2a1 + a2 ) + (3a0 − a1 − a2 )t + 2a2 t2 .


Solução:
(a) Os autovalores de T são λ1 = 1, λ2 = 0 e λ3 = 2, como T é um operador linear de
P2 (IR) e dimP2 (IR) = 3, segue que T é diagonalizável.
Como V1 = [1 − t − t2 ], V0 = [t − t2 ] e V2 = [t + t2 ], tomamos a seguinte base de
P2 (IR):
 
1 0 0
B = {1 − t − t2 , t − t2 , t + t2 }, assim [T ]B =  0 0 0  .
0 0 2
CAP. 4 • DIAGONALIZAÇÃO DE OPERADORES LINEARES 173

(b) Os autovalores de T são λ1 = 0, λ2 = 1 e λ3 = 2, como T é um operador linear de


P2 (IR) e dimP2 (IR) = 3, segue que T é diagonalizável.
Como V0 = [1], V1 = [1 + t] e V2 = [2 + 2t + t2 ], tomamos seguinte base de P2 (IR):
 
0 0 0
B = {1, 1 + t, 2 + 2t + t2 }, assim [T ]B =  0 1 0  .
0 0 2

(c) Os autovalores de T são λ1 = 2 e λ2 = −3, neste caso o número de autovalores


distintos é menor que a dimensão do espaço, assim precisamos de outro mecanismo
para verificar se T é diagonalizável.
Vimos que p(λ) = −(λ − 2)2 (λ + 3), com todas as raı́zes em IR, assim segue que
mA (2) = 2 e mA (−3) = 1.
Os autoespaços correspondentes são: V2 = [1+t] e V−3 = [2+3t], consequentemente
mG (2) = 1) e mG (−3) = 1, como mA (2) 6= mG (2), segue que T é um operador que
não é diagonalizável.

4. T operador sobre IR4 .


(a) T (x, y, z, w) = (x + y, y, 2z + w, 2z + w).
 
−1 −4 −2 −2
−4 −1 −2 −2 
 
4
(b) A matriz de T em relação à base canônica de IR é: A =  .

 2 2 1 4 
2 2 4 1
Solução:
(a) Os autovalores de T são λ1 = 1, λ2 = 0 e λ3 = 3, assim T tem 3 autovalores
distintos, como dimIR4 = 4, vamos usar as multiplicidades dos autovalores para
verificar se T é diagonalizável.
Vimos que p(λ) = (1 − λ)2 λ(λ − 3), com todas as raı́zes em IR, daı́ segue que
mA (1) = 2, mA (0) = 1 e mA (3) = 1.
Os autoespaços correspondentes são:
     
V1 = (1, 0, 0, 0) , 0 = (0, 0, 1, −2) e V3 = (0, 0, 1, 1) ,

consequentemente mG (1) = 1, mG (0) = 1 e mG (3) = 1, como mA (1) 6= mG (1),


segue que T é um operador que não é diagonalizável.

(b) Os autovalores de T são λ1 = 3 e λ2 = −3, assim T tem 2 autovalores distintos,


como dimIR4 = 4, vamos usar as multiplicidades dos autovalores para verificar se
T é diagonalizável.
Vimos que p(λ) = (λ − 3)2 (λ + 3)2 , com todas as raı́zes em IR, daı́ segue que
mA (3) = mA (−2) = 2.
Os autoespaços correspondentes são:
 
V3 = (−1, 1, 0, 0), (−1, 0, 1, 1) e
SEÇÃO 4.3 • DIAGONALIZAÇÃO DE OPERADORES LINEARES 174

 
V−3 = (1, 1, −1, 0), (0, 0, −1, 1) ,
consequentemente mG (3) = mG (−3) = 2.
Portanto, T é um operador diagonalizável, podemos tomar a seguinte base de IR4 :

B = {(−1, 1, 0, 0), (−1, 0, 1, 1), (1, 1, −1, 0), (0, 0, −1, 1)},
 
3 0 0 0
 0 3 0 0 
 
assim [T ]B =  .
 0 0 −3 0 
0 0 0 −3

5. T operador sobre M2 (IR).


     
a b 2a + b 2b
(a) T = .
c d 2c 2d
     
a b a+b b
(b) T = .
c d 0 c−a−b
Solução:
(a) O único autovalor de T são λ1 = 2, como dimM2 (IR) = 4, vamos usar as multipli-
cidades do autovalor para verificar se T é diagonalizável.
Vimos que p(λ) = (2 − λ)4 , com todas as raı́zes em IR, daı́ segue que mA (2) = 4.
O autoespaço correspondente é:
   "     #
a b 1 0 0 0 0 0
V2 = ∈ M2 (IR; b = 0 = , , ,
c d 0 0 1 0 0 1

consequentemente mG (2) = 3, como mA (2) 6= mG (2), segue que T é um operador


que não é diagonalizável.

(b) Os autovalores de T são λ1 = 0 e λ2 = 1, assim T tem 2 autovalores distintos, como


dimM2 (IR) = 4, vamos usar as multiplicidades dos autovalores para verificar se T
é diagonalizável.
Vimos que p(λ) = λ2 λ(1 − λ)2 , com todas as raı́zes em IR, daı́ segue que mA (0) =
mA (1) = 2.
Os autoespaços correspondentes são:
" # " #
0 0 1 0
V0 = e V1 = ,
0 1 0 −1

consequentemente mG (0) = mG (1) = 1, como mA (0) 6= mG (0), segue que T é um


operador que não é diagonalizável.

6. T operador sobre C2 .
(a) T (z, w) = (−w, z).
(b) T (z, w) = (4z + 2iw, −2iz + 4w).
CAP. 4 • DIAGONALIZAÇÃO DE OPERADORES LINEARES 175

Solução:
(a) Os autovalores de T são λ1 = i e λ2 = −i, como T é um operador linear de C2 e
dimC2C = 2, segue que T é diagonalizável.
   
Como Vi = (1, −i) e V−i = (1, i) , podemos tomar a seguinte base de C2 :
 
i 0
B = {(1, −i), (1, i)}, assim [T ]B = .
0 −i

(b) Os autovalores de T são λ1 = 2 e λ2 = 6, como T é um operador linear de C2 e


dimC2C = 2, segue que T é diagonalizável.
   
Como V2 = (−i, 1) e V−i = (i, 1) , podemos tomar a seguinte base de C2 :
 
2 0
B = {(−i, 1), (i, 1)}, assim [T ]B = .
0 6

4.4 Operadores Auto-Adjuntos


Nesta seção vamos considerar V um espaço vetorial sobre IR, de dimensão finita e com
produto interno.
Definição 4.27. Um operador linear T : V −→ V é chamado auto-adjunto se, e somente
se, para quaisquer u, v ∈ V tivermos



v, T (u) = T (v), u .

Exemplo: O operador linear T : IR3 −→ IR3 dado por

T (x, y, z) = (x − 2y + 3z, −2x − y + 4z, 3x + 4y + z)

é auto-adjunto.
De fato, dados (x1 , y1 , z1 ) e (x2 , y2 , z2 ) em IR3 temos:



(x1 , y1 , z1 ), T (x2 , y2 , z2 ) = (x1 , y1 , z1 ), (x2 − 2y2 + 3z2 , −2x2 − y2 + 4z2 , 3x2 + 4y2 + z2 )
= x1 (x2 − 2y2 + 3z2 ) + y1 (−2x2 − y2 + 4z2 ) + z1 (3x2 + 4y2 + z2 )
= x1 x2 − 2x1 y2 + 3x1 z2 ) − 2y1 x2 − y1 y2 + 4y1 z2 + 3x2 z1 + 4y2 z1 + z1 z2
= (x1 − 2y1 + 3z1 )x2 + (−2x1 − y1 + 4z1 )y2 + (3x1 + 4y1 + z1 )z2


= ((x1 − 2y1 + 3z1 ), (−2x1 − y1 + 4z1 ), (3x1 + 4y1 + z1 )), (x2 , y2 , z2 )

= T (x1 , y1 , z1 ), (x2 , y2 , z2 ).

Observemos que a matriz de T em relação à base canônica de IR3 é dada por:

1 −2 3
 

[T ] =  −2 −1 4 
3 4 1
que é uma matriz simétrica.
SEÇÃO 4.4 • OPERADORES AUTO-ADJUNTOS 176

Proposição 4.28. Se B e B 0 são bases ortonormais de V , então MBB0 é matriz ortogonal.

Demonstração:
 Sejam B = {v1 ,v2 , · · · , vn } e B 0 = {u1 , u2 , · · · , un } bases ortonormais de
a11 a12 · · · a1n
 a21 a22 · · · a2n 
V e MBB0 =  .
 
. .. .. 
 . . ··· . 
an1 an2 · · · ann .
Logo,
v1 = a11 u1 + a21 u2 + · · · + an1 un
v2 = a12 u1 + a22 u2 + · · · + an2 un
..
.
vn = a1n u1 + a2n u2 + · · · + ann un .
Como B e B 0 são bases ortonormais, então, para todo i e todo j em {1, 2, · · · , n}, temos:

1 = hvi , vi i = a21i + a22i + · · · + a2ni


i6=j
0 = hvi , vj i = a1i a1j + a2i a2j + · · · + ani anj .

Mas,
   
a11 a21 ··· an1 a11 a12 · · · a1n
 T  a12 a22 ··· an2   a21 a22 · · · a2n 
MBB0 · MBB0 =  ·
   
.. .. .. .. .. .
· · · ..

 . . ··· .   . . 
a1n a2n · · · ann . an1 an2 · · · ann
 
a211 + a221 + · · · + a2n1 ··· a11 a1n + a21 a2n + · · · + an1 ann
 a12 a11 + a22 a21 + · · · + an2 an1 ··· a12 a1n + a22 a2n + · · · + an2 an2 
=  .. .. 
 . ··· . 
a1n a11j + a2n a21 + · · · + ann an1 ··· a21n + a22n + · · · + a2nn

= In .

Portanto, MBB0 é matriz ortogonal.

Proposição 4.29. Se T : V −→ V operador linear tal que [T ]B0 é simétrica, com B 0 base
ortonormal de V , então [T ]B é simétrica para B base ortonormal de V .

Demonstração: Sabemos que


 −1
[T ]B = MBB0 · [T ]B0 · MBB0 .

Como B e B 0 são bases ortonormais, pela proposição anterior segue que


 −1  T
MBB0 = MBB0 .

Assim,
 T
[T ]B = MBB0 · [T ]B0 · MBB0 .
CAP. 4 • DIAGONALIZAÇÃO DE OPERADORES LINEARES 177

Portanto,
 T  T T  T  T  T T
[T ]B = MBB0 · [T ]B0 · MBB0 = MBB0 · [T ]B0 · MBB0 .
 T
Como [T ] é simétrica, segue que [T ]
B0 B0 = [T ]B0 .
Consequentemente,
 T  T  T T
[T ]B = MBB0 · [T ] ·
B0 MBB0 = [T ]B .

Logo, [T ]B também é simétrica.

Teorema 4.30. Um operador linear T : V −→ V é auto-adjunto se, e somente se, [T ]B é


matriz simétrica, para B base ortonormal de V .

Demonstração: Sejam B = {v1 , v2 , · · · , vn } base ortonormal de V e


 
a11 a12 ··· a1n
 a21 a22 ··· a2n 
[T ]B = 
 
.. .. .. 
 . . ··· . 
an1 an2 · · · ann .

Então, para todo i e todo j temos

aij = hvi , T (vj )i.

Mas, [T ]B é matriz simétrica se, e somente se, aij = aji .


Portanto, [T ]B é simétrica se, e somente se,

hvi , T (vj )i = hT (vi ), vj i

para todo i e todo j.


Já que B é base ortonormal de V dados u e v em podemos escrever:

u = hu, u1 i u1 + hu, u2 i u2 + · · · + hu, un i un


v = hv, u1 i u1 + hv, u2 i u2 + · · · + hvu, un i un .

Como T é linear segue ainda que:

T (u) = hu, u1 i T (u1 ) + hu, u2 i T (u2 ) + · · · + hu, un i T (un )


T (v) = hv, u1 i T (u1 ) + hv, u2 i T (u2 ) + · · · + hvu, un i T (un ).

Portanto,
hv, T (u)i = hT (v), ui
para quaisquer u, v ∈ V se, e somente se,

hvi , T (vj )i = hT (vi ), vj i


SEÇÃO 4.4 • OPERADORES AUTO-ADJUNTOS 178

para todo i e todo j.


Consequentemente, T é operador auto-adjunto se, e somente se, [T ]B é matriz simétrica.

Forma de Jordan
Exemplos:
1. O operador linear T : IR2 −→ IR2 dado por T (x, y) = (y, −x) não é diagonalizável,
pois:
−λ 1
p(λ) = = λ2 + 1
−1 −λ
e este polinômio não tem raı́zes reais.
2.
3. O operador linear T : C4 −→ C4 , com C4 espaço vetorial sobre C, dado por T (z1 , z2 , z3 , z4 ) =
(z2 , −z1 , z3 + z4 , z4 ) não é diagonalizável, pois:

−λ 1 0 0

−1 −λ 0 0

p(λ) = = (λ − 1)2 (λ2 + 1) = (λ − 1)2 (λ − i)(λ + i).
0 0 1−λ 1

0 0 0 1−λ
Logo, os autovalores de T são λ1 = 1, λ2 = i e λ3 = −i.
Como mA (i) = mA (−i) = 1, então mG (i) = mG (−i) = 1, assim devemos determinar
mG (1).

     
−1 1 0 0 z1 0 
 −z1 + z2 = 0
−1 −1 0 0 z2 0
     
· =  ⇐⇒ −z1 − z2 = 0 ⇐⇒ z1 = z2 = z4 = 0.
     
0 0 0 1 z3 0

      
z4 = 0
0 0 0 0 z4 0
Portanto, V (1) = {(z1 , z2 , z3 , z4 ) ∈ C4 ; z1 = z2 = z4 = 0} = [(0, 0, 1, 0)].
Consequentemente, mG (1) = 1 < mA (1) e T não é diagonalizável.

Vimos que nem todo operador linear é diagonalizável, se T é um operador linear de V um


espaço vetorial sobre C, sempre podemos encontrar uma base B tal que [T ]B = [aij ] em que
os elementos da diagonal principal são os autovalores de T , os elementos a(i+1)i são iguais a
1 ou a zero e os demais elementos da matriz são todos iguais a zero, esta é a chamada forma
de Jordan do operador linear.
A matriz  
−1 0 0 0 0 0 0
 1 −1 0 0 0 0 0 
 
 0 0 3 0 0 0 0 
 
0 0 0 7 0 0 0
 
 
 
 0 0 0 0 2 0 0 
 
 0 0 0 0 1 2 0 
0 0 0 0 0 1 2
CAP. 4 • DIAGONALIZAÇÃO DE OPERADORES LINEARES 179

é uma matriz na forma de Jordan.


A forma de Jordan de um operador linear é um assunto avançado de Álgebra Linear que
pode ser encontrado, por exemplo, em [3], [8] e [9].

4.5 Aplicação à Sistemas Dinâmicos Discretos


Os exemplos apresentados nesta seção foram retirados do livro Álgebra Linear e sua
Aplicações de David Lay ([7]).

Equações de Diferenças

Se existe uma matriz quadrada A tal que

xk+1 = A · xk , para k = 0, 1, 2, · · · ,

então a equação é chamada equação de diferenças linear.


Através de uma equação de diferenças linear, conhecendo x0 , podemos calcular x1 , x2 , · · · ,
pois, como xk+1 = A · xk , segue que:

x1 = A · x0 , x2 = A · x1 = A2 · x0 , · · · , xk = Ak · x0 .

Na equação de diferenças xk+1 = A · xk , se x0 é um autovetor de A associado ao autovalor


λ, então temos:

x1 = A · x0 = λx0 , x2 = A · x1 = A2 · x0 = λ2 x0 , · · · , xk = Ak · x0 = λk x0 .

Exemplo: Um objeto de interesse para os biólogos, demógrafos, etc. são os movimentos


migratórios (de pessoas ou animais). Consideremos um modelo simples para a variação da
população de uma cidade e dos subúrbios vizinhos ao longo de um certo perı́odo de anos.
Fixando um ano inicial e considerando a população
  da cidade no ano i como ci e a população
ci
do subúrbio no ano i por si , ou seja, xi = é o vetor população. Suponha que estudos
si
demográficos mostrem que, a cada ano, cerca de 5% da população da cidade se mudam para
os subúrbios e 95% permanecem na cidade enquanto 3% da população do subúrbio se mudam
para a cidade e (97% permanecem nos subúrbios).

1. Encontre a matriz A que descreve a equação de diferenças linear de movimento mi-


gratório desta cidade.
2. Sabendo que os autovalores da matriz A são λ1 = 1 e λ2 = 0, 85, que os respectivos
autovetores são v1 = (2, 1) e v2 = (1, −1) e que a população atual da cidade e dos
 
45
subúrbios vizinhos é dada pelo vetor x0 = , em milhares.
15
Pergunta-se: Qual a tendência desta população no decorrido muitos anos?

Solução:
SEÇÃO 4.5 • APLICAÇÃO À SISTEMAS DINÂMICOS DISCRETOS 180

 
0, 95 0, 03
1. A = .
0, 05 0, 97
2. Primeiro observamos que x0 = (45, 15) = 20(2, 1) + 5(1, −1).
Logo,
 k    k  
k 0, 95 0, 03 2 0, 95 0, 03 1
xk = A · x0 = 20 · +5 ·
0, 05 0, 97 1 0, 05 0, 97 −1
   
2 k 1
= 20 + 5 × (0, 85) .
1 −1
 
40
Portanto, quando k cresce muito xk tende a .
20
Sabendo que os autovalores da matriz A são λ1 = 1 e λ2 = 0, 85, que os respectivos
autovetores são v1 = (2, 1) e v2 = (−1, 1) e que a população atual da cidade e dos
 
45
subúrbios vizinhos é dada pelo vetor x0 = , o que deve ocorrer com a população
15
no decorrer dos anos?

Corujas Malhadas

Em 1990, a coruja malhada do Norte se tornou o centro de uma controvérsia nacional nos
Estados Unidos em torno do uso indevido das majestosas florestas do Noroeste do Pacı́fico.
Os ambientalistas convenceram o governo federal de que essas corujas estariam em extinção
caso continuasse a exploração de madeira em certa parte da floresta (com árvores mais de
200 anos de idade), onde as corujas preferiam habitar. A indústria madeireira, antecipando
uma perda de 30.000 a 100.000 empregos em decorrência das novas restrições governamentais
à extração de madeira, argumentou que a coruja não deveria ser considerada uma “espécie
em risco de extinção” e citou uma série de publicações cientı́ficas para apoiar sua tese.
Em meio ao fogo cruzado dos dois grupos lobista, os ecologistas matemáticos intensi-
ficaram seus esforços para compreender a dinâmica populacional da coruja malhada.
O ciclo de vida de uma coruja malhada se divide em 3 fases:
• Juvenil (até 1 ano de idade);
• Subadulta (1 a 2 anos) e
• Adulta (acima de 2 anos).
A coruja busca um parceiro durante as fases subadulta e adulta, começa a procriar na
fase adulta e pode viver até 20 anos. Cada casal de corujas precisa de cerca de 1000 hectares
para seu território. Um momento crı́tico do ciclo de vida é quando as corujas jovens deixam
o ninho. Para sobreviver e se tornar subadulta, uma coruja jovem precisa encontrar um novo
território (e geralmente um parceiro).
Um primeiro passo no estudo da dinâmica da população foi fazer a modelagem usando
intervalos de 1 ano entre as medições, geralmente, supõe-se que existe uma razão de 1:1 entre
CAP. 4 • DIAGONALIZAÇÃO DE OPERADORES LINEARES 181

machos e fêmeas e conta-se apenas as fêmeas. A população no ano k pode ser descrita pelo
vetor
xk = (jk , sk , ak ),
com jk , sk e ak , respectivamente, os números de fêmeas nas fases jovem, subadulta e adulta.
Usando dados coletados de estudos demográficos R. Lamberson e seus colegas (veja [5])
consideraram o seguinte modelo de matriz de fase:
     
jk+1 0 0 0, 33 jk
 sk+1  =  0, 18 0 0  ·  sk  .
ak+1 0 0, 71 0, 94 ak

Aqui o número de fêmeas jovens no ano k + 1 é 0, 33 vezes o número de fêmeas adultas


no ano k (baseado na taxa média de nascimentos por casal de corujas);
• 18% das corujas jovens sobrevivem e se tornam subadultas,;
• enquanto 71% das subadultas e 94% das adultas sobrevivem para que venham
ser contadas como adultas.
O modelo da matriz de fases é um sistema dinâmico porque descreve variação de um
sistema em função do tempo.
A taxa de sobrevivência de 18% das corujas jovens, no modelo da matriz de fase de
Lamberson, é a mais afetada pela quantidade disponı́vel de floresta com arvores antigas. Na
verdade, 60% das corujas jovens conseguem deixar seus ninhos mas nessa região apenas 30%
dessas corujas jovens que conseguiram deixar seus ninhos foram capazes de encontrar novos
territórios para habitar. O restante não sobreviveu durante o processo. O motivo principal
do fracasso das corujas jovens em encontrar novos territórios é a fragmentação crescente das
florestas antigas devido à atividade madeireira na região. Quando uma coruja sai da floresta
e cruza uma região recém-cortada, o risco de que sofram ataques de predadores aumenta
drasticamente.
Vamos mostrar que o modelo descrito acima prevê a extinção da coruja malhada.
 
0 0 0, 33
Diagonalizando a matriz de fase A =  0, 18 0 0  e utilizando o MATLAB
0 0, 71 0, 94
concluı́mos que seus autovalores são:

λ1 = 0, 98, λ2 = −0, 02 + 0, 21i e λ3 = −0, 02 − 0, 21i

todos com módulo menor do que 1, pois |λ1 | = 0, 98 e |λ2 | = |λ3 | = 0, 0445.
Por um instante, supomos que a matriz de fase A age sobre o espaço vetorial C3 , então
como A têm três autovetores distintos, os três autovetores associados formam uma base de
C 3 , digamos que sejam v1 , v2 e v3 .
Portanto, a solução geral xk+1 = A · xk (usando vetores em C3 ) tem a forma:

xk = c1 (λ1 )k v1 + c2 (λ2 )k v2 + c3 (λ3 )k v3 . (4.5)


SEÇÃO 4.5 • APLICAÇÃO À SISTEMAS DINÂMICOS DISCRETOS 182

Se x0 é o vetor inicial real, então x1 = A · x0 é real, pois A é uma matriz real. Analoga-
mente, xk+1 = A · xk é um vetor real, mesmo que na expressão 4.5 esteja escrito como
combinação linear de vetores complexos.
Analisando a expressão 4.5, como todos os autovalores tem módulo menor do que 1,
conclui-se que a sequência real xk também se aproxima do vetor nulo, o que infelizmente,
prevê a extinção das corujas malhadas.
Se o crescimento das corujas fosse o mesmo para as fases subadultas e adultas e que 50%
das corujas jovens sobrevivem e se tornam subadultas, a matriz de fase seria:
 
0 0 0, 33
A =  0, 5 0 0 .
0 0, 71 0, 94

Neste caso, os autovalores são:

λ1 = 1, 01, λ2 = −0, 03 + 0, 26i e λ3 = −0, 03 − 0, 26i

todos com módulo menor do que 1, pois |λ1 | = 0, 98, |λ2 | = |λ3 | = 0, 0445.
Por um instante, supomos que a matriz de fase A age sobre o espaço vetorial C3 , então
como A têm três autovetores distintos, os três autovetores associados formam uma base de
C 3 , digamos que sejam v1 , v2 e v3 .
Portanto, a solução geral xk+1 = A · xk (usando vetores em C3 ) tem a forma:

xk = c1 (1, 01)k v1 + c2 (−0, 03 + 0, 26i)k v2 + c3 (−0, 03 − 0, 26i)k v3 .

Quando k −→ ∞, os dois últimos vetores tendem ao vetor nulo, pois os números (−0, 03+
0, 26i)k e (−0, 03 − 0, 26i)k tendem a zero.
Assim, xk se aproxima do vetor real c1 (1, 01)k v1 , neste caso a população cresce lentamente.

Outros Exemplos
Exemplos:
1. Monte o modelo da matriz de fase para uma espécie de animal que admite duas fases de
vida: juventude (até 1 ano de idade) e adulta. Suponha que as fêmeas adultas gerem,
a cada ano, uma média de 1.6 fêmeas jovens. Cada ano, 30% dos jovens sobrevivem e
se tornam adultas e 80% dos adultos sobrevivem. Para k ≥ 0, seja xk = (jk , ak ), onde
as componentes de xk representam os números de jovens e fêmeas adultas no ano k.
(a) Obtenha a matriz de fase M tal que xk+1 = M · xk , para k ≥ 0.
(b) Mostre que a população está crescendo com os anos (sugestão: mostre que M é
diagonalizável e escreva xk em relação a uma base de autovetores. Por fim, mostre
que k xk k→ ∞, quando k → ∞).
CAP. 4 • DIAGONALIZAÇÃO DE OPERADORES LINEARES 183

2. Uma espécie de pássaro admite duas fases de vida: juventude (até 1 ano de idade)
e adulta. Em uma determinada reserva florestal, suponha que o número de fêmeas
jovens no ano k + 1 é 30% do número de fêmeas adultas no ano k (baseado na taxa
de nascimentos). Cada ano, 20% das jovens sobrevivem e se tornam adultas e 50%
das adultas sobrevivem. Para k ≥ 0, seja xk = (jk , ak ), onde as componentes de xk
representam os números das fêmeas jovens e adultas no ano k.
(a) Obtenha a matriz de fase M tal que xk+1 = M · xk , para k ≥ 0.
 
150
(b) Suponha que x0 = , isto é, existem 150 fêmeas jovens e 100 fêmeas adultas
100
nesse ano. Estime a população dessa espécie de pássaro na reserva no ano seguinte.
(c) Sabendo-se que λ1 = −0.1 e λ2 = 0.6 são os autovalores de M , justifique por que
M é diagonalizável e mostre que B = {(3, 1), (1, 2)} é uma base de autovetores.
(d) Justifique (usando os dados do item anterior) por que, após muitos anos, essa
espécie tende a desaparecer dessa reserva.

3. Uma população de plantas se encontra distribuı́da nas quantidades an , bn e cn de todos


os tipos possı́veis de genótipos AA, Aa e aa respectivamente. Deseja-se implantar um
programa de melhoramento genético no qual toda planta é sempre fertilizada por um
individuo AA. As equações abaixo exprimem a distribuição da população na geração
n + 1 a partir da distribuição populacional na geração n:
1

 an+1 = an +
 bn



 2


1
bn+1 = bn + c n



 2



cn+1 = 0

(a) Construa a matriz de fase F do processo de melhoramento genético.


(b) Determine os autovalores de F .
(c) O sistema é estável para alguma distribuição populacional? Justifique.
(d) F é diagonalizável? Justifique.
(e) Supondo o vetor população inicial (100, 200, 100) determine a distribuição da pop-
ulação na segunda geração.
REFERÊNCIAS BIBLIOGRÁFICAS

[1] J. L. Boldrini, S. I.. R. Costa, V. L. Figueiredo e H. G. Wetzler.


Álgebra Linear, Editora Harbra, São Paulo, 3a edição, 1986.

[2] M. Cabral e P. Goldfeld. Curso de Álgebra Linear: Fundamentos


e Aplicações. Instituto de Matemática, UFRJ, 3a edição, 2012, disponı́vel em
http://www.labma.ufrj.br/alglin/CursoAlgLin-livro-31-out-2012.pdf

[3] F. U. Coelho e M. L. Lourenço. Um Curso de Álgebra Linear. 2a Edição,


Edusp, São Paulo, 2005.

[4] C. A. Callioli, H. I. Domingues e R. C. F. Costa. Álgebra Linear e


Aplicações. Atual Editora, São Paulo, 6a edição, 1990.

[5] R. Lamberson et al.. A Dynamic Analysis of Northern Spotted Owl Vi-


ability in a Fragmented Forest Landscape, Conservation Biology Volume 6,
No. 4, 505 – 512, 1992.

[6] S. Lang. Álgebra Linear. Editora Ciência Moderna, São Paulo, 1a edição, 2003.

[7] D. C. Lay, Álgebra Linear e suas Aplicações. Editora LTC, 2a edição, 1999.

[8] E. L. Lima, Álgebra Linear. Editora IMPA, Rio de Janeiro, 9a edição, 2016.

[9] S. Lipschutz e M. L. Lipson, Linear Algebra, Schaum’s Outline Series. The


McGraw-Hill, 4t h edition, 2009.

[10] P. Pulino, Álgebra Linear. Notas de Aulas, UNICAMP, 2004, disponı́vel em


http://www.ime.unicamp.br/∼pulino/ALESA/Texto/

[11] R. J. Santos. Álgebra Linear e Aplicações. Imprensa


Universitária da UFMG, Belo Horizonte, 2002, disponı́vel em
http://www.mat.ufmg.br/∼regi/gaalt/gaalt2.pdf

[12] G. Schay, A Concise Introduction to Linear Algebra. Springer, New York,


2012.

184