Escolar Documentos
Profissional Documentos
Cultura Documentos
Livro - Algebra Linear A - Simone Moraes
Livro - Algebra Linear A - Simone Moraes
Simone Moraes
UFBA - 2020
Sumário
I Preliminares
1 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1 Matrizes 9
1.1.1 Tipos de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.1.2 Operações com Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.1.3 Matrizes Simétricas, Anti-Simétricas e Ortogonais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.1.4 Matrizes Hermitianas, Anti-Hermitianas e Unitárias . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.1.5 Operações Elementares sobre as Linhas de uma Matriz . . . . . . . . . . . . . . . . . . . . . . . 29
1.2 Determinante de uma Matriz Quadrada 31
1.2.1 Definição de Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.2.2 Propriedades de Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.3 Inversa de uma Matriz 48
1.3.1 Matriz Adjunta e a Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
1.3.2 Propriedades da Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
1.4 Matriz na Forma Escalonada e na Forma Escada 54
1.4.1 Matriz Linha Equivalente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
1.4.2 Matriz na Forma Escalonada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
1.4.3 Matriz na Forma Escalonada Reduzida ou na Forma Escada . . . . . . . . . . . . . . . . . . . 56
1.4.4 Matriz Inversa através de Operações Elementares . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2 Sistemas Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.1 Sistemas de Equações Lineares 59
2.1.1 Sistemas de Equações Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
2.1.2 Solução de um Sistema Linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.1.3 Classificação de Sistemas de Equações Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.1.4 Sistema Linear Homogêneo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.1.5 Sistemas Equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.1.6 Operações Elementares sobre as Equações de um Sistema Linear . . . . . . . . . . . . . . 64
2.2 Resolução de Sistemas Lineares 65
2.2.1 Posto e Nulidade de uma Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
2.2.2 Teorema do Posto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.3 Métodos de Resolução de Sistemas Lineares 69
2.3.1 Método da Eliminação de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
2.3.2 Método de Eliminação de Gauss ou do Escalonamento . . . . . . . . . . . . . . . . . . . . . . 70
2.3.3 Método de Resolução da Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
2.3.4 Método de Resolução da Regra de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
II Espaços Vetoriais
3 Espaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.1 Espaços Vetoriais 79
3.1.1 Exemplos de Espaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
3.1.2 Propriedades de Espaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3.2 Subespaços Vetoriais 86
3.3 Soma, Soma Direta e Intersecção de Subespaços 94
Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
I
Preliminares
1 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1 Matrizes
1.2 Determinante de uma Matriz Quadrada
1.3 Inversa de uma Matriz
1.4 Matriz na Forma Escalonada e na Forma Escada
2 Sistemas Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.1 Sistemas de Equações Lineares
2.2 Resolução de Sistemas Lineares
2.3 Métodos de Resolução de Sistemas Lineares
1. Matrizes
1.1 Matrizes
Definição 1.1.1 Uma matriz é uma tabela de elementos dispostos em linhas e colunas, em geral
esses elementos são entes matemáticos, tais como: números, funções, etc.
Representamos uma matriz de m linhas e n colunas, denotada por A ou por Am×n , da seguinte maneira:
a11 a12 · · · a1n a11 a12 · · · a1n
a21 a22 · · · a2n a21 a22 · · · a2n
A = .. ou A = .. .. .
.. . . .. .. . .
. . . . . . . .
am1 am2 · · · amn am1 am2 · · · amn
Observações 1.1.1 (a) Cada elemento de uma matriz A é também chamado uma entrada de A.
(b) O elemento ai j ∈ A está localizado na i-ésima linha e na j-ésima coluna de A, por exemplo a32 é
o elemento da terceira linha e da segunda coluna.
(c) Além da notação acima também utilizamos:
A tabela abaixo representa as distâncias entre as capitais do norte do pais indicadas (em quilômetros):
Definição 1.1.2 Uma matriz A de m linhas e n colunas é chamada matriz de ordem m por n e
indicada por m × n.
Exemplos 1.1.2 (a) A = 5 é uma matriz de ordem 1 × 1.
3 31
−1 0
(b) A = 4 −7 1 2 é uma matriz de ordem 3 × 4.
5 6 −3 0
0 2 −5
(c) A = é uma matriz de ordem 2 × 3.
−3 7 5
1 −1
3 7
(d) A = é uma matriz de ordem 4 × 2.
0 2
−4 −3
Observações 1.1.3 (a) O conjunto de todas matrizes de ordem m × n com entradas números reais
é denotado por Mm×n (R), ou seja,
Mm×n (R) = A = [ai j ]m×n ; ai j ∈ R para todo i e todo j .
(b) Analogamente, o conjunto de todas matrizes de ordem m × n com entradas números complexos
é dado por
Mm×n (C) = A = [ai j ]m×n ; ai j ∈ C para todo i e todo j .
Matriz Quadrada
Definição 1.1.3 Uma matriz A com n linhas e n colunas é chamada matriz quadrada de ordem n.
Observação 1.1.4 Uma matriz A é quadrada se, e somente se, o número de linhas de A é igual ao
número de colunas de A.
3 5
Exemplos 1.1.5 (a) A = é uma matriz quadrada de ordem 2.
−1 8
0 −2 5
(b) A = 12 1 −4 é uma matriz quadrada de ordem 3.
10 −9 7
1.1 Matrizes 11
2 1 −1 1
−3 3 1 −1
(c) A =
0
é uma matriz quadrada de ordem 4.
1 4 0
1 −1 2 3
Observações 1.1.6 (a) O conjunto de todas matrizes quadradas de ordem com entradas números
reais é denotado por Mn (R).
n o
Assim, Mn (R) = A = [ai j ]n×n ; ai j ∈ R com 1 ≤ i, j ≤ n .
n o
(b) Analogamente, Mn (C) = A = [ai j ]n×n ; ai j ∈ C com 1 ≤ i, j ≤ n .
Definição 1.1.4 Uma matriz que tem uma única linha é chamada matriz linha, enquanto que uma
matriz que tem uma única coluna é chamada matriz coluna.
Exemplos 1.1.7 (a) A = 6 −5 11 4 3 e B= −3 5 −1 8 9 são matrizes
linha.
5
−1 1
(b) A =
8
e B = −1 são matrizes coluna.
2
−4
Uma matriz pode ser definida em termos de uma fórmula envolvendo seus índices, para se obter uma
matriz dessa forma é necessário que seja informada sua ordem.
Exemplos 1.1.8 (a) Determine a matriz A = [ai j ] quadrada de ordem 4 tal que
0, se i 6= j
ai j =
1, se i = j.
3i − j2 ,
se i > j−1
ai j =
i + 3 j, se i ≤ j−1
é a matriz:
2 7 10 13
A = 5 2 11 14 .
8 5 0 15
12 Capítulo 1. Matrizes
Igualdade de Matrizes
Duas matrizes A = [ai j ] e B = [bi j ] são iguais se, e somente se,
(i) A e B têm a mesma ordem.
(ii) ai j = bi j para todo i e para todo j.
1 −1 2 a −1 b
Exemplo 1.1.9 Sejam as matrizes A = eB= , ambas de ordem
3 4 7 a + b b2 7
2 × 3.
a
= 1
b = 2 a=1
As matrizes A e B são iguais se, e somente se, ⇐⇒ .
a+b = 3 b=2
2
b = 4
Matriz Nula
Definição 1.1.5 Uma matriz nula é uma matriz em que todas as entradas é o número zero. A
matriz nula de ordem m × n é indicada por 0m×n .
0 0
0 0
Exemplo 1.1.10 A matriz nula de ordem 4 × 2 é a seguinte: 04×2 =
0
.
0
0 0
Dentre as matrizes quadradas temos alguns tipos especiais que descreveremos a continuação. Antes
porém vamos definir diagonal principal e diagonal secundária de uma matriz quadrada.
Observação 1.1.11 Pela definição acima a diagonal principal de uma matriz quadrada A é constituída
pelos elementos
a11 , a22 , · · · , ann ,
e a diagonal secundária de A é constituída pelos elementos
Na matriz A a seguir:
a11 a12 ··· a1(n−1) a1n
a21 a22 ··· a2(n−1) a2n
A=
.. .. .. .. ..
. . . . .
a(n−1)1 a(n−1)2 · · · a(n−1)(n−1) a(n−1)n
an1 an2 ··· an(n−1) ann
os elementos em azul constituem a diagonal principal, enquanto que os em vermelho constituem a
diagonal secundária.
Matriz Diagonal
Definição 1.1.7 Uma matriz A = [ai j ] quadrada de ordem n é chamada matriz diagonal se, e
somente se, os elementos ai j = 0 sempre que i 6= j, ou seja,
a11 0 0 ··· 0
0 a22 0 · · · 0
A= 0
0 a33 · · · 0 .
.. .. .. . . .
. ..
. . .
0 0 0 · · · ann
Observação 1.1.12 Uma matriz quadrada A é diagonal se, e somente se, os elementos externos à
diagonal principal são todos iguais a zero.
2 0 0 0
0 3 0 0
Exemplo 1.1.13 A = é uma matriz diagonal.
0 0 −1 0
0 0 0 5
Matriz Escalar
Definição 1.1.8 Uma matriz diagonal de ordem n é chamada matriz escalar se, e somente se, os
elementos da diagonal principal são todos iguais.
Matriz Identidade
Definição 1.1.9 A matriz identidade de ordem n, indicada por In , é a matriz diagonal de ordem n
em que os elementos da diagonal principal são todos iguais a 1.
1 0
Exemplos 1.1.15 (a) I2 = é uma matriz identidade de ordem 2.
0 1
14 Capítulo 1. Matrizes
1 0 0
(b) I3 = 0 1 0 é uma matriz identidade de ordem 3.
0 0 1
1 0 0 0
0 1 0 0
(c) I4 =
0
é uma matriz identidade de ordem 4.
0 1 0
0 0 0 1
Definição 1.1.10 Uma matriz A = [ai j ] quadrada de ordem n é chamada matriz triangular supe-
rior se, e somente se, ai j = 0 sempre que para i > j, ou seja,
a11 a12 a13 · · · a1n
0 a22 a23 · · · a2n
A= 0
0 a33 · · · a3n .
.. .. .. . . .
. ..
. . .
0 0 0 · · · ann
Observação 1.1.16 Uma matriz quadrada A é triangular superior se, e somente se, os elementos
abaixo da diagonal principal são todos iguais a zero.
1 −5 0 7
0 4 2 −1
Exemplo 1.1.17 A =
0
é uma matriz triangular superior.
0 0 3
0 0 0 −2
Definição 1.1.11 Uma matriz A = [ai j ] quadrada de ordem n é chamada matriz triangular infe-
rior se, e somente se, ai j = 0 sempre que para i < j, ou seja,
a11 0 0 ··· 0
a21 a22 0 · · · 0
A = a31 a32 a33 · · · 0 .
.. .. .. . . ..
. . . . .
an1 an2 an3 · · · ann
Observação 1.1.18 Uma matriz quadrada A é triangular inferior se, e somente se, os elementos
acima da diagonal principal são todos iguais a zero.
8 0 0
Exemplo 1.1.19 A = −1 3 0 é uma matriz triangular inferior.
5 −2 1
1.1 Matrizes 15
Adição de Matrizes
−3 8 5 2 1 −3 11 −8
Exemplo 1.1.20 Sejam A = e B= , então
4 −5 9 −7 2×4
2 9 −1 7 2×4
−3 + 1 8 + (−3) 5 + 11 2 + (−8) −2 5 16 −6
A+B = = .
4+2 −5 + 9 9 + (−1) −7 + 7 6 4 8 0
Propriedades da Adição
A1 ) A + B = B + A, propriedade comutativa.
A2 ) (A + B) +C = A + (B +C), propriedade associativa.
A3 ) A + Om×n = A, propriedade existência de elemento neutro.
ME1 ) κ · (A + B) = κ · A + κ · B.
ME2 ) (κ + λ ) · A = κ · A + λ · A.
0 ·A = Om×n .
ME3 ) |{z}
número
ME4 ) 1 · A = A.
ME5 ) (κ · λ ) · A = κ · (λ · A).
Observação 1.1.22 Dada uma matriz A em Mm×n (K), a matriz −1 · A, indicada por −A é chamada
matriz oposta de A, logo
De fato,
A + (−A) = [bi j ]m×n , com bi j = ai j + (−ai j ) = 0.
Portanto, A + (−A) = 0m×n é a matriz nula de ordem m × n.
Multiplicação de Matrizes
Definição 1.1.14 Sejam A = [ai j ] e B = [bi j ] matrizes em Mm×k (K) e em Mk×n (K), respectiva-
mente, a multiplicação de A por B, denotada por A · B, é a matriz em Mm×n (K):
k
A · B = [ci j ], cujos elementos são da forma ci j = ai1 b1 j + ai2 b2 j + · · · + aik bk j = ∑ aipb p j .
p=1
Observações 1.1.23 (a) De acordo com a definição acima temos, por exemplo:
c11 = a11 b11 + a12 b21 + · · · + a1k bk1 e c12 = a11 b12 + a12 b22 + · · · + a1k bk2 .
1.1 Matrizes 17
(b) A equação que define os elementos de A · B nos diz que o elemento ci j desta matriz, localizado na
i-ésima linha e j-ésima coluna, é obtido através da soma de todos os produtos de cada elemento
da i-ésima linha de A pelo elemento correspondente da j-ésima coluna de B, ou seja, se
a12 · · · a1k
a11
a22 · · · a2k
a21 b11 b12 · · · b1 j · · · b1n
.. .. .. ..
b21 b22 · · · b2 j · · · b2n
. . . .
A= e B= .. ,
ai2 · · · aik .. .. .. .. ..
ai1
.
. . . . . .
.. .. .. ..
bk1 bk2 · · · bk j · · · bkn k×n
. . .
am1 am2 · · · amk m×k
então
j-ésima coluna
↓
··· ···
c11 c12 c1 j c1n
c21 c22 ··· c2 j ··· c2n
.. .. .. .. .. .. = A · B,
. . . . . .
ci1 ci2 ··· ci j ··· cin
i-ésima linha →
.. .. ··· .. ··· ..
. . . .
.. ..
cm1 cm2 . cm j . cmn m×n
k
com ci j = ai1 b1 j + ai2 b2 j + · · · + aik bk j = ∑ aipb p j .
p=1
−1 7 −5
2 −3 3 6
8 −5
Exemplo 1.1.24 Sejam as matrizes A = 5
e B = 4 , então o
1 3
1 2 3×2
0 2 9 4×3
produto de A por B é a matriz
(−1) × 3 + 7 × (−5) + (−5) × 1 (−1) × 6 + 7 × 4 + (−5) × 2 −43 12
2 × 3 + (−3) × (−5) + 8 × 1 2 × 6 + (−3) × 4 + 8 × 2 29 16
A·B = = .
5 × 3 + 1 × (−5) + 3 × 1 5×6+1×4+3×2 13 40
0 × 3 + 2 × (−5) + 9 × 1 0×6+2×4+9×2 −1 26 4×2
Observação 1.1.25 Sejam A e B matrizes, o produto A · B está definido apenas quando o número de
colunas A é igual ao número de linhas de B.
Logo, se A · B está definida nem sempre ocorrerá o mesmo para B · A, e mesmo quando A · B e B · A
estiverem definidas podemos ter A · B 6= B · A.
1
−1 5 2 −4
Exemplos 1.1.26 (a) Sejam A = e B = −3 , então A · B = ,
7 0 4 2×3
31 2×1
6 3×1
note que não está definida B · A, pois:
número de colunas de B = 1 6= número de linhas de A = 2.
18 Capítulo 1. Matrizes
4 −1
3 0 1 6 0
(b) Sejam A = eB= 5 2 , então A · B = .
−2 4 7 2×3 −30 31 2×2
−6 3 3×2
14 −4 −3
No entanto, B · A = 11 8 19 , ou seja, A · B e B · A têm ordens diferentes, logo
−24 12 15 3×3
são diferentes.
4 0 5 7
(c) Sejam A = eB= , então
6 −3 2×2 3 −4 2×2
20 28 62 −2
A·B = e B·A = ,
21 54 2×2 −12 12 2×2
Propriedades da Multiplicação
M1 ) Se A é uma matriz em Mm×n (K), então:
(a) A · In = Im · A = A.
(b) A · 0n×l = 0m×l e 0l×m · A = 0l×n .
M2 ) Sejam A ∈ Mm×p (K), B ∈ M p×k (K) e C ∈ Mk×n (K) matrizes, então:
Am×p · B p×k m×k ·Ck×n = Am×p · B p×k ·Ck×n p×n propriedade associativa.
Observações 1.1.27 (a) Dada uma matriz quadrada A em Mn (K) a k-ésima potência de A, com
k ∈ N∗ , denotada por Ak , é o produto de A por A k-vezes, ou seja
Ak = A
| · A ·{z· · · · A} .
k vezes
Definição 1.1.15 A transposta de uma matriz A = [ai j ] em Mm×n (K), denotada por AT , é a matriz
cujas respectivas linhas são as respectivas colunas de A, ou seja,
a12 · · · a1n
a11 a11 a21 · · · am1
a22 · · · a2n
a21 a12 a22 · · · am2
Observação 1.1.28 Se A = , então AT = ,
..
.. .. .. .. .. .. ..
.
. . . . . . .
am1 am2 · · · amn m×n
a1n a2n · · · amn n×m
T
ou seja, o elemento i j de A é o elemento ji de A.
Propriedades da Transposta
Segue diretamente da definição de transposta que se A e B são matrizes em Mm×k (K), C é uma matriz
em Mk×n (K) e κ um número em K, então valem as seguintes propriedades:
T1 ) (AT )T = A.
T2 ) (A + B)T = AT + BT .
T3 ) (κ · A)T = κ · AT .
T
T4 ) Am×k ·Ck×n = (CT )n×k · (AT )k×m .
n×m n×m
Verificação:
T1 ) Para quaisquer i e j, o elemento i j da matriz (AT )T é o elemento ji de AT , e este por sua vez é o
elemento i j da matriz A, consequentemente, (AT )T = A.
T2 ) Para quaisquer i e j, o elemento i j da matriz (A + B)T é o elemento a ji + b ji , mas a ji é o elemento
i j da matriz AT e b ji é o elemento i j da matriz BT , consequentemente, a ji + b ji é o elemento i j
de AT + BT .
Portanto, (A + B)T = AT + BT .
T3 ) Demonstração análoga à de T2 ).
T4 ) Observemos que (A ·C)T = [ei j ]n×m com ei j = d ji , o elemento i j da A ·C, ou seja,
ei j = a j1 c1i + a j2 c2i + · · · + a jk cki ,
com 1 ≤ i ≤ n e 1 ≤ j ≤ m.
Por outro lado,
c11 c21 · · · ck1 a11 a21 · · · am1
T T
c12 c22 · · · ck2 a12 a22 · · · am2
C ·A = .. · = [ fi j ]n×m
.. .. .. .. .. .. ..
. . . . . . . .
c1n c2n · · · nkn n×k a1k a2k · · · amk k×m
com
fi j = c1i a j1 + c2i a j2 + · · · + cki a jk ,
para 1 ≤ i ≤ n e 1 ≤ j ≤ m.
Logo, ei j = fi j , para todo i e todo j, consequentemente, (A ·C)T = CT · AT .
20 Capítulo 1. Matrizes
Definição 1.1.16 Seja A uma matriz quadrada em Mn (K) o traço de A, denotado por tr(A), é o
número dado pela soma dos elementos da diagonal principal de A.
Assim, se A = [ai j ]n×n , então
Propriedades do Traço
Segue diretamente da definição de traço de uma matriz quadrada, que dadas A e B matrizes quadradas
em Mn (K) e κ um número em K valem:
T R1 ) tr(A) = tr(AT ).
T R2 ) tr(A + B) = tr(A) + tr(B).
T R3 ) tr(κ · A) = κ · tr(A).
T R4 ) tr(A · B) = tr(A · B).
Verificação:
T R1 ) Uma matriz quadrada e sua transposta têm a mesma diagonal principal, portanto tr(A) = tr(AT ).
T R2 ) A diagonal principal da soma de duas matrizes quadradas é a soma das diagonais principais de
cada uma das matrizes, logo tr(A + B) = tr(A) + tr(B).
T R3 ) A diagonal principal da matriz κ · A é a soma dos elementos da diagonal principal de A previa-
mente multiplicados por κ, assim tr(κ · A) = κ · tr(A).
T R4 ) Sejam A = [ai j ] ∈ Mm×n (K) e B = [bi j ] ∈ Mn×m (K), então:
n
A · B = [ci j ] ∈ Mm (K), com ci j = ∑ aik bk j , para 1 ≤ i, j ≤ m;
k=1
m
B · A = [di j ] ∈ Mn (K), com di j = ∑ bik ak j , para 1 ≤ i, j ≤ n.
k=1
Logo,
= a11 b11 + a12 b21 + · · · + a1n bn1 + a21 b12 + a22 b22 + · · · + a2n bn2 + · · · +
= b11 a11 + b12 a21 + · · · + b1m am1 + b21 a12 + b22 a22 + · · · + b2m am2 + · · · +
Logo,
n
tr(AT
· A) = a211 + a221 + · · · + a2n1 + a212 + a222 + · · · + a2n2 + · · · + a21n + a22n + · · · + a2nn =m ∑ a2i j .
i, j=1
Matriz Simétrica
Definição 1.1.17 Uma matriz quadrada A em Mn (R) é simétrica se, e somente se, para todo i e
para todo j os elementos ai j e a ji coincidem, ou seja, ai j = a ji .
Matriz Anti-Simétrica
Definição 1.1.18 Uma matriz quadrada A em Mn (R) é anti-simétrica se, e somente se, para todo
i e para todo j os elementos ai j e a ji são opostos, ou seja, ai j = −a ji .
Observações 1.1.32 (a) Uma matriz A = [ai j ] ∈ Mn (R) é anti-simétrica, se e somente se,
0 a12 a13 · · · a1n
−a12 0 a23 · · · a2n
A=
−a13 −a23 0 · · · a3n
,
.. .. .. .. ..
. . . . .
−a1n −a2n −a3n ··· 0
A · AT = AT · A,
3 1 −5
Exemplo 1.1.35 A = −1 3 −2 é uma matriz real normal, pois
5 2 3
3 1 −5 3 −1 5 35 10 2
A · AT = −1 3 −2 · 1 3 2 = 10 14 −5
5 2 3 −5 −2 3 2 −5 38
3 −1 5 3 1 −5
= 1 3 2 · −1 3 −2 = AT · A.
−5 −2 3 5 2 3
Analogamente, AT · A = E 2 − S2 .
Portanto, A é normal.
Matriz Ortogonal
Definição 1.1.20 Uma matriz quadrada A em Mn (R) é ortogonal se, e somente se, A · AT = In .
1
+ 14 + 41 + 14 1
+ 14 − 14 − 14 − 14 − 41 + 14 + 14 1
− 14 − 14 + 14
4 4 4
(c) 1 1 1 1 1 1 1 1
− 14 1 1 1 1 1 1 1
4−4+4−4 + + + + + − + − −
4 4 4 4 4 4 4 4 4 4 4
=
−1 − 1 + 1 + 1 1
+ 14 − 14 − 14 1
+ 41 + 14 + 14 − 14 + 14 − 14 + 14
4 4 4 4 4 4
1
4 − 14 − 41 + 14 1
4 + 14 − 14 − 14 − 14 + 41 − 14 + 14 1
4 + 14 + 14 + 14
1 0 0 0
0 1 0 0
=
0
.
0 1 0
0 0 0 1
Portanto, A é ortogonal.
1.1 Matrizes 25
a b
Demonstração: Se A = ∈ M2 (R) é uma matriz ortogonal, então
c d
T a b a c 1 0
A · A = I2 ⇐⇒ · =
c d b d 0 1
2
a + b2 = 1
a2 + b2
ac + bd 1 0
⇐⇒ = ⇐⇒ c2 + d 2 = 1 .
ac + bd c2 + d 2 0 1
ac + bd = 0
De uma propriedade de números reais sabemos que se a2 + b2 = 1, então existe θ ∈ [0, 2π) tal que
a = cos θ e b = sen θ , da mesma maneira como c2 + d 2 = 1 existe φ ∈ [0, 2π) tal que c = cos φ e
d = sen φ .
Assim, a equação ac + bd = 0 pode ser escrita como
π π
⇐⇒ φ − θ = + kπ, com k ∈ Z ⇐⇒ φ = θ + + kπ, com k ∈ Z.
2 2
Logo,
!
π
cos φ = cos θ + + kπ = ∓sen θ
2
!
π
sen φ = sen θ + + kπ = ± cos θ .
2
Portanto,
cos θ sen θ cos θ −sen θ
A= ou A=
sen θ − cos θ sen θ cos θ
para algum θ ∈ [0, 2π).
Nesta seção, para não confundir o índice da posição i j com a unidade imaginária i, vamos indicar por
jk a posição da j-ésima linha e da k-ésima coluna.
Definição 1.1.21 Dada A = [z jk ] uma matriz em Mm×n (C), com z jk = a jk + ibJK ∈ C, a matriz
conjugada de A, indicada por A, é a matriz cujos elementos são os respectivos conjugados dos
elementos de A, ou seja, A = [z jk ].
26 Capítulo 1. Matrizes
a11 + ib11 a12 + ib12 ··· a1n + ib1n
a21 + ib21 a22 + ib22 ··· a2n + ib2n
Logo, se A = , então
.. .. ... ..
. . .
am1 + ibm1 am2 + ibm2 · · · amn + ibmn
a11 − ib11 a12 − ib12 ··· a1n − ib1n
a21 − ib21 a22 − ib22 ··· a2n − ib2n
A= .
.. .. .. ..
. . . .
am1 − ibm1 am2 − ibm2 · · · amn − ibmn
Matriz Hermitiana
−3i 4 − 9i 1 + 5i 11
elementos da diagonal principal são números reais e ak j + ibk j = a jk − ib jk para todo j e todo k em
{1, 2, 3, 4}.
Matriz Anti-Hermitiana
Definição 1.1.25 Uma matriz A quadrada em Mn (C) é normal complexa se, e somente se,
A · A∗ = A∗ · A,
A=A∗ A=A∗
A · A∗ = A · A = A∗ · A.
A∗ =−A A=−A∗
A · A∗ = A · (−A) = (−A∗ ) · (−A) = A∗ · A.
(c) Se A é matriz quadrada em Mn (C) que é a soma de uma matriz anti-hermitiana e uma matriz
escalar real, então A é matriz normal.
De fato, suponhamos que A = E + H, com E matriz escalar e H matriz anti-hermitiana, então:
E ∗ =E H ∗ =−H
A · AT = (E + H) · (E + H)∗ = (E + H) · (E ∗ + H ∗ ) = (E + H) · (E − H)
EH=HE
= E2 + H · E − E · H − H2 = E 2 − H 2.
Analogamente, AT · A = E 2 − H 2 .
Portanto, A é normal.
1.1 Matrizes 29
i 1+i 2 3−i
−1 + i 5i 4 + 7i −9i
Exemplo 1.1.46 A =
−2 −4 + 7i −i
é uma matriz complexa normal, pois
11
−3 − i −9i −11 0
−i −1 − i −2 −3 + i
1 − i −5i −4 − 7i 9i
A∗ = = −A.
2 4 − 7i i −11
3+i 9i 11 0
Matriz Unitária
Definição 1.1.26 Uma matriz quadrada A em Mn (C) é unitária se, e somente se, A · A∗ = In .
√ √
2 2
2 i
2
Exemplo 1.1.47 A matriz A = √ é unitária.
√
2 2
− − i
2 2
√ √ √ √ T
2 2 2 2
2 i − i
∗
2 2 2
A·A = √ ·
√ √ √
2 2 2 2
− − i − i
2 2 2 2
De fato:
√ √ √ √
2 2 2 2
2 i − i −
2 2 2
1 0
= √ · = .
√ √ √ 0 1
2 2 2 2
− − i i
2 2 2 2
Portanto, A é unitária.
No que segue dada uma matriz A em Mn (K) vamos indicar a i-ésima linha de A por Li e a j-ésima
coluna de A por C j , as operações elementares sobre as linhas (ou colunas) de uma matriz são:
OE1 Permutação de duas linhas (duas colunas), ou seja, permutamos a i-ésima linha com a j-ésima
linha (ou i-ésima coluna com a j-ésima coluna).
Notação: Li ←→ L j (Ci ←→ C j ).
OE2 Substituição de uma linha (ou coluna) por ela previamente multiplicada por um número (real ou
complexo) não nulo, ou seja, substituímos a i-ésima linha pela i-ésima linha multiplicada por
número não nulo κ (ou i-ésima coluna pela i-ésima coluna multiplicada por número não nulo κ).
Notação: Li −→ κ Li (Ci −→ κ Ci ).
30 Capítulo 1. Matrizes
OE3 Substituição de uma linha (ou coluna) por ela somada com outra linha (ou coluna) previamente
multiplicada por um número (real ou complexo) não nulo, ou seja, substituímos a i-ésima linha
pela i-ésima linha somada com a j-ésima linha multiplicada por número não nulo κ (ou i-ésima
coluna pela i-ésima coluna somada com a j-ésima coluna multiplicada por número não nulo κ).
Notação: Li −→ Li + κ L j (Ci −→ Ci + κ C j ).
−1 3 4 1
Exemplos 1.1.48 Seja A = 2 1 3 −2 , determine a matriz:
5 0 3 −7
(a) B obtida de A pela operação elementar L2 ←→ L3 .
(b) C obtida de A pela operação elementar L1 −→ (−2)L1 .
(c) D obtida de A pela operação elementar L2 −→ L2 + 2L1 .
Solução:
−1 3 4 1
(a) B = 5 0 3 −7 L2 ←→ L3 .
2 1 3 −2
2 −6 −8 −2 L1 ←→ (−2)L1
(b) C = 2
1 3 −2 .
5 0 3 −7
−1 3 4 1
(c) D = 0 7 11 0 L2 ←→ L2 + 2L1
5 0 3 −7
Observações 1.1.49 (a) Sejam A ∈ Mm×n (K) e Im a identidade de ordem m, indicando por:
m a matriz obtida de I efetuando a operação elementar L ←→ L ;
Ei↔ j m i j
m , com κ ∈ K∗ , a matriz obtida de I efetuando a operação elementar L −→ κ L ;
Ei→κi m i i
m
Ei→i+κ j a matriz obtida de Im efetuando a operação elementar Li −→ Li + κL j , então:
m · A é a matriz obtida de A efetuando a mesma operação elementar e mais:
• Ei↔ j
m m
Ei↔ j · (Ei↔ j · A) = A.
m
• Ei→κi · A é a matriz obtida de A efetuando a mesma operação elementar e mais:
m m
Ei→ 1 · (Ei→κi · A) = A.
κi
m
• Ei→i+κ j · A é a matriz obtida de A efetuando a mesma operação elementar e mais:
m m
Ei→i−κ j · (Ei→i+κ j · A) = A.
(b) Matrizes como as do item acima, obtida da identidade Im efetuando uma única operação elementar
são chamadas matrizes elementares.
1.2 Determinante de uma Matriz Quadrada 31
Na Geometria Analitica:
• Se dois vetores ~u = (u1 , u2 ) e ~w = (w1 , w2 ) no plano determinam um paralelogramo P~u,~w , então
sua área é dada por área(P~u,~w ) = D , com D = u1 w2 − u2 w1 .
Em Sistemas Lineares:
a11 x + a12 y = b1
• Seja S : um sistema linear, nas variáveis x e y, em R ou K.
a21 x + a22 y = b2
Multiplicando a 1ª equação por a21 e a 2ª equação por a11 obtemos:
a21 a11 x + a21 a12 y = a21 b1
,
a11 a21 x + a11 a22 y = a11 b2
Determinante caso n = 1
Se A = [a11 ] quadrada em M1 (K), então det A = a11 , neste caso o determinante é o valor numérico da
única entrada da matriz.
Exemplos 1.2.1 (a) A = [−3], então det A = −3. (b) A = [7], então det A = 7.
Para os casos em que A está em Mn (K), com n ≥ 2, necessitamos definir o sinal dos elementos de A:
Sinal de um Elemento ai j ∈ A
Dada A = [ai j ] matriz em Mn (K), a cada elemento ai j de A atribuímos um sinal: + ou −, da seguinte
maneira:
+ se i + j é par
sinal (ai j ) = ,
− se i + j é ímpar
ou seja, sinal (ai j ) = (−1)i+ j .
+ −
Exemplos 1.2.2 (a) Os sinais de uma matriz A em M2 (K): .
− +
+ − +
(b) Os sinais de uma matriz A em M2 (K): − + − .
+ − +
Cofator de um Elemento ai j
Definição 1.2.1 Dada uma matriz A = [ai j ] quadrada em Mn (K) o cofator do elemento de ai j ,
denotado por ∆i j , é o seguinte número em K:
com Ai j a matriz quadrada em Mn−1 (K) obtida de A retirando a i-ésima linha e a j-ésima coluna.
1.2 Determinante de uma Matriz Quadrada 33
−1 3
Exemplo 1.2.3 Encontre os cofatores da matriz A = .
4 7
Solução:
∆11 = (−1)1+1 · 7 = 7 ∆12 = (−1)1+2 · 4 = −4
∆21 = (−1)2+1 · 3 = −3 ∆22 = (−1)2+2 · (−1) = −1.
7 −4
Logo, cof (A) = .
−3 −1
det A = a11 · ∆11 + a12 · ∆12 = a11 · a22 + a12 · (−a21 ) = a11 · a22 − a12 · a21 .
det A = a12 · ∆12 + a22 · ∆22 = a12 · (−a21 ) + a22 · a22 = −a12 · a21 + a22 · a11 = a11 · a22 − a12 · a21 .
Portanto,
det A = a11 · a22 − a12 · a21 ,
ou seja, é o produto dos elementos da diagonal principal menos o produto dos elementos da diagonal
secundária.
−1 3
Exemplos 1.2.4 1. Calcule o determinante da matriz A = .
4 7
Solução:
Pelo desenvolvimento acima temos:
= a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 .
= a13 a21 a32 − a13 a22 a31 − a23 a11 a32 + a23 a12 a31 + a33 a11 a22 − a33 a12 a21 .
Assim, det A = a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 .
2 1 1
Exemplo 1.2.5 Calcule o determinante da matriz A = 1 1 1 .
2 3 2
Solução:
= 2 · (1 − 1) − 3 · (2 − 1) + 2 · (2 − 1) = 0 − 3 + 2 = −1.
1.2 Determinante de uma Matriz Quadrada 35
= 2 · (2 − 3) + (−1) · (2 − 3) + 2 · (1 − 1) = −2 + 1 + 0 = −1.
Observações 1.2.6 (a) Também indicamos o determinante de A por |A|, assim, por exemplo:
2 1 1
−1 3
= −19 e 1 1 1 = −1.
4 7
2 3 2
1 −1 2 3
2 1 0 1
Exemplo 1.2.7 Calcule o determinante da matriz A =
3 −1 1 2 .
2 −1 0 1
Solução:
Calculando pela terceira coluna temos
2 1 1 1 −1 3
1+3 3+3
= 2 · (−1) · det A13 +1 · (−1) · det A33 = 2 · 3 −1 2 + 2 1 1
2 −1 1 2 −1 1
| {z } | {z }
∆13 ∆33
−1 2 3 2 3 −1 1 1 2 1 2 1
= 2· 2 − + + + +3
−1 1 2 1 2 −1 −1 1 2 1 2 −1
| {z } | {z }
cálculo pela 1ª linha cálculo pela 1ª linha
= 2 · 2 × 1 − (−1) + (−1) + 2 + 0 + 3 × (−4) = 2 · (2 + 1 − 1) + (2 − 12) = −6.
1 −1 2 3
2 1 0 1
Logo, = −6.
3 −1 1 2
2 −1 0 1
36 Capítulo 1. Matrizes
D1 Se A possui uma linha ou uma coluna com todos os elementos nulo, então det A = 0.
D2 Se A tem duas linhas ou duas colunas iguais, então det A = 0.
D3 det A = det AT .
D4 Se A é uma matriz diagonal, então o determinante de A é o produto dos elementos da diagonal
principal.
D5 Se A é uma matriz triangular (superior ou inferior), então o determinante de A é o produto dos
elementos da diagonal principal.
D6 Se B = κA, com κ ∈ K, então det B = κ n · det A.
···
a11 a12 a1n
.. .. .. ..
. . . .
D7 Se A = bi1 + ci1 bi2 + ci2 · · · bin + cin , então:
.. .. .. ..
. . . .
an1 an2 ··· ann
a11 a12 ··· a1n a11 a12 · · · a1n a11 a12 · · · a1n
.. .. ... .. .. .. .. .. .. .. .. .
. . . . . . . . . . ..
bi1 + ci1 bi2 + ci2 · · · bin + cin = bi1 bi2 · · · bin + ci1 ci2 · · · cin .
.. .. .. .. .. .. .. . .. .. .. .
. . . . . . . .. . . . ..
an1 an2 ··· ann an1 an2 · · · ann an1 an2 · · · ann
Verificação:
D1 Seja uma matriz A = [ai j ]n×n ∈ Mn (K), tal que todos elementos da i-ésima linha são nulos, ou
seja, aik = 0 para todo k ∈ N, com 1 ≤ k ≤ n, portanto:
ia linha a =0
det A = ai1 · ∆i1 + ai2 · ∆i2 + · · · + ain · ∆in ik= 0 · ∆i1 + 0 · ∆i2 + · · · + 0 · ∆in = 0.
Analogamente, se todos os elementos da j-coluna de A são todos nulos também teremos det A = 0.
D2 Mostremos por indução sobre n para n ∈ N e n ≥ 2.
a11 a12
Seja A ∈ M2 (K), se a 2a linha
é igual à 1a linha,
temos A = , e portanto
a11 a12
det A = a11 a12 − a12 a11 = 0, o mesmo ocorre se as duas colunas são iguais.
Logo, A ∈ M2 (K) tem duas linhas ou duas colunas iguais, então det A = 0.
Supondo que o resultado vale para toda matriz quadrada em Mk (K), com k ∈ N e 2 ≤ k ≤ n − 1,
mostremos que a propriedade vale para toda matriz em Mn (K).
1.2 Determinante de uma Matriz Quadrada 37
a11 a12 · · · a1n
.. .. . . . ..
. . .
ai1 ai2 · · · ain
. .. .. .
..
A= . . .. ,
a
i1 ai2 · · · ain L = L
.
.. .. .. . j 1
. . ..
an1 an2 · · · ann
ra linha
det A = (−1)r+1 ar1 det Ar1 + (−1)r+2 det Ar2 + · · · + (−1)r+n det Arn ,
com Ars , para 1 ≤ s ≤ n, a matriz obtida de A retirando a ra linha e sa coluna, como cada uma das
matrizes Ars ∈ Mn−1 (K) tem duas linhas iguais, correspondentes ia linha e ja linha de A, portanto
pela hipótese de indução segue que det Ars = 0 para todo s.
Consequentemente, det A = 0.
Portanto, se A ∈ Mn (K), para n ∈ N e n ≥ 2, tem duas linhas ou duas colunas iguais, então
det A = 0.
a11 a12 T a11 a21
Seja A = uma matriz quadrada qualquer em M2 (K), A = , logo
a21 a22 a12 a22
det AT = a11 a22 − a21 a12 = det A.
Supondo que o resultado vale para toda matriz quadrada em Mk (K), com k ∈ N e 2 ≤ k ≤ n − 1,
mostremos que a propriedade vale para toda matriz em Mn (K).
38 Capítulo 1. Matrizes
a11 a12 · · · a1n
a21 a22 · · · a2n
Seja A = . uma matriz qualquer em Mn (K), então:
.. .. ..
. . . ..
an1 an2 · · · ann
a12 · · · an−1 2
+ · · · + (−1)n+1 a .. . . ..
n2 . . .
a1n · · · an−1 n
D4 Pode-se mostrar, por indução sobre n para n ∈ N e n ≥ 2, que se A = [ai j ]n×n ∈ Mn (K) é
uma matriz diagonal, então det A = a11 × a22 × · · · × ann , o produto dos elementos da diagonal
principal.
D5 Pode-se mostrar, por indução sobre n para n ∈ N e n ≥ 2, que se A = [ai j ]n×n ∈ Mn (K) é
uma matriz triangular (inferior ou superior), então det A = a11 × a22 × · · · × ann , o produto dos
elementos da diagonal principal.
det A = κ · a11 × κ · a22 − κ · a12 × κ · a21 = κ 2 · (a11 a22 − a12 a21 ) = κ 2 · det A.
Supondo que o resultado vale para toda matriz quadrada em Mk (K), com k ∈ N e 2 ≤ k ≤ n − 1,
mostremos que a propriedade vale para toda matriz em Mn (K).
a11 a12 · · · a1n
a21 a22 · · · a2n
Seja A = .. uma matriz qualquer em Mn (K), então
.. .. ..
. . . .
an1 an2 · · · ann
κ · a11 κ · a12 · · · κ · a1n
κ · a21 κ · a22 · · · κ · a2n
κ ·A =
.. .. .. ..
. . . .
κ · an1 κ · an2 · · · κ · ann
κ · a21 · · · κ · a2 n−1
+ · · · + (−1)n+1 κ · a1n .. ... ..
. .
κ · an1 · · · κ · an n−1
a21 · · · a2 n−1
+ · · · + (−1)n+1 κ · a1n κ n−1 · .. . . ..
. . .
an1 · · · an n−1
a22 · · · a21 · · ·
a2n a2 n−1
.. .. .. + · · · + (−1)n+1 a · .. .. ..
= κ n · a11 · . . . 1n . . .
an2 · · · ann an1 · · · an n−1
= κ n · det A.
D7 De fato,
a11 · · · a1 n−1
+ · · · + (−1)i+n (b .. . . ..
in + cin ) . . .
an1 · · · an n−1
a11 · · · a1 n−1
+ · · · + (−1)i+n bin .. . . ..
. . .
an1 · · · an n−1
a11 · · · a1 n−1
+ · · · + (−1)i+n cin .. . . ..
. . .
an1 · · · an n−1
Demonstração:
(i) Seja A = [ai j ]n×n uma matriz em Mn (K) e seja B a matriz obtida de A permutando a r-ésima linha
e a s-ésima linha, ou seja, B é obtida de A fazendo a operação elementar Lr ←→ Ls . Suponhamos
sem perda de generalidade que 1 < r < s < n, então:
Consequentemente,
(ii) Seja A = [ai j ]n×n uma matriz em Mn (K) e seja B a matriz obtida de A multiplicando os elementos
da r-ésima linha por uma constante κ, ou seja, B é obtida de A fazendo a operação elementar
Lr −→ κ Lr . Suponhamos sem perda de generalidade qur 1 < r < n, então:
a11 · · · a1 n−1
+ · · · + (−1)r+n κ · a1n .. . . ..
. . .
an1 · · · an n−1
a12 · · · a1n a11 · · · a1 n−1
= κ · (−1)r+1 ar1 ·
.. . . .. + · · · + (−1)r+n a · .. . . ..
. . . rn . . .
an2 · · · ann an1 · · · an n−1
= κ · det A.
(iii) Seja A = [ai j ]n×n uma matriz em Mn (K) e seja B a matriz obtida de A somando a r-ésima linha
com a s-ésima linha, previamente multiplicada por uma constante κ, ou seja, B é obtida de A
fazendo a operação elementar Lr −→ Lr + κ Ls . Suponhamos sem perda de generalidade que
1 < r < s < n, então:
1.2 Determinante de uma Matriz Quadrada 43
m , E m , com κ ∈ K∗ , e E m
Corolário 1.2.9 As matrizes elementares Ei↔ j i→κi i→i+κ j apresentadas na
Observação 1.1.49 são tais que:
m m m
det Ei↔ j = −1, det Ei→κi =κ e det Ei→i+κ j = 1.
1 1 5
D3 , pois C1 =C2
(b) det B = 3 3 −1 = 0.
2 2 4
1 1 1
D4 , pois L1 ↔L2
(c) det B = 2 1 1 = −(−1) = 1.
2 3 2
2 1 1
D5 pois L3 →(−2)L3
(d) det B = 1 1 1 = (−2) × (−1) = 2.
−4 −6 −4
2 1 1
D6 , pois L3 →L3 −2L2
(e) det B = 1 1 1 = −1.
0 1 0
6 3 3
D7 , pois B=3A 3
(f) det B = 3 3 3 = 3 × (−1) = −27.
6 9 6
(g) det B = (−5) × 8 × (−1) × 3 = 120, basta aplicar D9 , pois B é matriz diagonal.
(h) det B = 3 × 6 × (−2) × 1 = −36, basta aplicar D10 , pois B é matriz triangular.
1 2 3 4 1 2 3 4 1 2 3 4
1 3 4 5 D11 1 2 3 4 0 1 1 1 D3 e D10
(i) = + = 0 − 4 = −4.
0 0 −1 7 0 0 −1 7 0 0 −1 7
0 0 0 4 0 0 0 4 0 0 0 4
1.2 Determinante de uma Matriz Quadrada 45
para 1 ≤ k ≤ n.
Portanto,
det(A · B) = det(c1 , c2 , · · · , cn ) = det(a11 · b1 + a12 · b2 + · · · + a1n · bn , c2 , · · · , cn )
D7 e Teo.1.2.8(ii)
= a11 · det(b1 , c2 , · · · , cn ) + a12 · det(b2 , c2 , · · · , cn )
n
+ · · · + a1n · det(bn , c2 , · · · , cn ) = ∑ a1k1 · det(bk1 , c2, · · · , cn)
k1 =1
n
= ∑ a1k1 · det(bk1 , a21 · b1 + a22 · b2 + · · · + a2n · bn, · · · , cn)
k1 =1
n
= ∑ a1k1 · a2k2 · det(bk1 , bk2 , · · · , cn ),
k1 , k2 =1
k1 6=k2
pois det(· · · , bi , · · · , bi , · · · ) = 0.
Assim, fazendo as devidas substituições concluímos que a igualdade acima é dada por:
n
det(A · B) = ∑ a1k1 · a2k2 · . . . · ankn · det(bk1 , bk2 , · · · , bkn ),
k1 , k2 , ··· , kn =1
ki 6=k j se i6= j
k1 1
k2 2
com s a quantidade de linhas permutadas para transformar em .
.. ..
. .
kn n
Demonstração:
n
det(A · In ) = ∑ (−1)s a1k1 · a2k2 · . . . · ankn · det In ,
k1 , k2 , ··· , kn =1
ki 6=k j se i6= j
k1 1
k2 2
com s a quantidade de linhas permutadas para transformar em .
.. ..
. .
kn n
n
det A = ∑ (−1)s a1k1 · a2k2 · . . . · ankn ,
k1 , k2 , ··· , kn =1
ki 6=k j se i6= j
k1 1
k2 2
com s a quantidade de linhas permutadas para transformar em .
.. ..
. .
kn n
Observação 1.2.13 Pelo Corolário 1.2.12, dada A ∈ Mn (K), então det A é o somatório de
(−1)s a1k1 · a2k2 · . . . · ankn , com k1 , k2 ,· · · , kn ∈
{1, 2,
· · · , n}, ki 6= k j se i 6= j e a quantidade
k1 1
k2 2
de linhas permutadas para transformar .. em .. .
. .
kn n
n=3
det A = a11 a22 a33 − a11 a23 a32 + a12 a23 a31 − a12 a21 a33 + a13 a21 a32 − a13 a22 a31
n=4
det A = a11 a22 a33 a44 + a11 a23 a34 a42 + a11 a24 a32 a43 − a11 a24 a33 a42 − a11 a22 a34 a43 − a11 a23 a32 a44
+ a12 a21 a34 a43 + a12 a23 a31 a44 + a12 a24 a33 a41 − a12 a21 a33 a44 − a12 a23 a34 a41 − a12 a24 a31 a43
+ a13 a21 a32 a44 + a13 a22 a34 a41 + a13 a24 a31 a42 − a13 a21 a34 a42 − a13 a22 a31 a44 − a13 a24 a32 a41
+ a14 a21 a33 a42 + a14 a22 a31 a43 + a14 a23 a32 a41 − a14 a21 a32 a43 − a14 a22 a33 a41 − a14 a23 a31 a42 .
Demonstração:
(i) A ∈ Mn (R) é anti-simétrica se, e somente se, AT = −A.
Logo,
D eD n é ímpar
det AT = det(−A) =⇒
3 6
det A = (−1)n · det A =⇒ det A = − det A ⇐⇒ det A = 0.
T
(ii) A ∈ Mn (C) é hermitiana se, e somente se, A = A∗ = A .
Logo,
T D D
det A = det A∗ = det(A ) =3 det A =8 det A ⇐⇒ det A ∈ R.
1
Denotamos o número b por b = a−1 = e este é chamado inverso multiplicativo de a.
a
Pela propriedade M1 (a) da multiplicação de matrizes sabemos que dada A uma matriz quadrada de
ordem n, temos:
A · In = In · A = A,
ou seja, a matriz In , identidade de ordem n, é o elemento neutro da multiplicação em Mn (R) ou
Mn (C).
Daí é natural perguntar:
Se A é uma matriz quadrada em Mn (K), quando existe uma matriz B ∈ Mn (K) tal que:
A · B = B · A = In . (1.3.1)
Exemplos 1.3.1 Em cada um dos casos, verifique se existe uma matriz B quadrada de ordem 2 tal que
A · B = B · A = I2 .
1 1 1 −2
(a) A = ; (b) A =
2 3 −2 4
Solução:
a b
(a) Devemos encontrar uma matriz B = tal que
c d
1 1 a b a b 1 1 1 0
· = · =
2 3 c d c d 2 3 0 1
a+c b+d a + 2b a + 3b 1 0
⇐⇒ = =
2a + 3c 2b + 3d c + 2d c + 3d 0 1
a+c = 1 a + 2b = 1
a+c = 1 a + 2b = 1
2a + 3c = 0 a + 3b = 0
b+d = 0 a + 3b = 0
⇐⇒ e ⇐⇒ e .
2a + 3c = 0 c + 2d = 0
b+d = 0 c + 2d = 0
2b + 3d = 1 c + 3d = 1
2b + 3d = 1 c + 3d = 1
Observemos que
a+c = 1 2a + 2c = 2
∼ ⇒ c = −2 ⇒ a = 3
2a + 3c = 0 2a + 3c = 0
e
b+d = 0 2b + 2d = 0
∼ ⇒ d = 1 ⇒ b = −1.
2b + 3d = 1 2b + 3d = 1
1.3 Inversa de uma Matriz 49
a − 2c = 1 a − 2b = 1
a − 2c = 1 a − 2b = 1
−2a + 4c = 0 −2a + 4b = 0
b − 2d = 0 −2a + 4b = 0
⇔ e ⇔ e .
−2a + 4c = 0 c − 2d = 0
b − 2d = 0 c − 2d = 0
−2b + 4d = 1 −c + 4d = 1
−2b + 4d = 1 −2c + 4d = 1
a − 2c = 1
Observemos que o sistema não tem solução, pois
−2a + 4c = 0
a − 2c = 1 2a − 4c = 2
∼ ⇒ 0 = 2,
−2a + 4c = 0 −2a + 4c = 0
um absurdo!
Portanto, neste caso, não existe uma matriz B, quadrada de ordem 2, que satisfaça a condição
A · B = B · A = I2 .
Observação 1.3.2 Os exemplos acima nos mostram que há casos em que resposta à pergunta da
equação 1.3.1 é afirmativa e outros em que não.
Antes estabelecer uma condição necessária para a existência da matriz B que satisfaça 1.3.1 introduzi-
remos mais alguns conceitos.
Definição 1.3.1 Seja A uma matriz quadrada em Mn (K), a matriz adjunta de A, denotada por
adj(A), é a transposta da matriz cofatora de A, ou seja,
T
adj (A) = cof (A) .
Calculando c12 :
c12 = a11 ∆21 + a12 ∆22 + a13 ∆23
= a11 (a13 a32 − a12 a33 ) + a12 (a11 a33 − a13 a31 ) + a13 (a12 a31 − a11 a32 )
= a11 a13 a32 − a11 a12 a33 + a12 a11 a33 − a12 a13 a31 + a13 a12 a31 − a13 a11 a32 = 0.
Com cálculos similares concluímos que c13 = c21 = c23 = c31 = c32 = 0.
Logo,
det A 0 0
A · adj (A) = 0 det A 0 = det A · I3 .
0 0 det A
Analogamente mostramos que adj (A) · A = det A · I3 .
Definição 1.3.2 Seja A uma matriz quadrada em Mn (K), dizemos que A é invertível se, e somente
se, existe B matriz quadrada em Mn (K) tal que
A · B = B · A = In .
A · A−1 = A−1 · A = In .
1 1 3 −1
Exemplo 1.3.5 A matriz A = é invertível e sua inversa é a matriz A−1 = .
2 3 −2 1
1.3 Inversa de uma Matriz 51
Teorema 1.3.6 Uma matriz quadrada A em Mn (K) é invertível se, e somente se, det A 6= 0.
Além disso, se existe A−1 , então
1
A−1 = · adj (A).
det A
Demonstração:
Se A é invertível, então A · A−1 = In , logo
Teo.1.2.14
det(A · A−1 ) = det In = 1 =⇒ det A · det A−1 = 1 =⇒ det A 6= 0.
Exemplos 1.3.7 Verifique, em cada um dos casos abaixo, se a matriz A é invertível, em caso afirmativo
determine sua inversa.
1 −1 2 3 5 −1 2 −3
2 1 1 2 1 0 1 7 0 −8 11
(a) A = 1 1 1 ; (b) A =
3 −1 1 2 ;
(c) A =
12 −9
.
4 −21
2 3 2
2 −1 0 1 −15 3 −6 9
Solução:
(a) Vimos na seção 1.2 que det A = −1 6= 0, portanto A é invertível.
Devemos determinar adj (A).
∆11 ∆21 ∆31 −1 1 0
adj (A) = ∆12 ∆22 ∆32 = 0 2 −1 .
∆13 ∆23 ∆33 1 −4 1
Logo,
−1 1 0 1 −1 0
1
A−1 = · 0 2 −1 = 0 −2 1 .
−1
1 −4 1 −1 4 −1
Verificação:
MI1 Se existissem B e C tais que A · B = A · C = In , multiplicando a igualdade A · C = In por B à
esquerda obtemos
B · (A ·C) = B · In ⇐⇒ (B · A) · C = B ⇐⇒ C = B.
| {z }
In
Além disso,
(A · B) · (B−1 · A−1 ) = A · (B · B−1 ) ·A−1 = A · A−1 = In .
| {z }
In
1 −1
Portanto, λ · A é invertível e (λ · A)−1 = ·A .
λ
MI6 Como
1
···
d11 0 · · · 0 d11 0 0 1 0 ··· 0
1
0 d22 · · · 0 0 d22 ··· 0 0 1 ··· 0
· =
.. .. . . . .. .. .. .. .... . . ..
. ..
. . . . . . . . . .
0 0 0 dnn 1 0 0 0 1
0 0 0 dnn
e
1
···
d11 0 0 d11 0 · · · 0 1 0 ··· 0
1
0 d22 ··· 0 0 d22 · · · 0 0 1 ··· 0
· = .. . . .. .
.. .. .. .. .. .. . . . ..
. ..
. . . . . . . . . .
1 0 0 0 dnn 0 0 0 1
0 0 0 dnn
1
Portanto, D é invertível e D−1 = [ei j ]n×n matriz diagonal com eii = .
dii
MI7 Demonstração análoga à da propriedade MI3 .
Teo.1.2.14
det(A · B) = det In = 1 =⇒ det A · det B = 1 =⇒ det A 6= 0.
1
Portanto, pelo Teorema 1.3.6 a matriz A é invertível, com inversa A−1 = · adj (A).
det A
(b) Verifica-se de maneira análoga ao item anterior.
Demonstração:
(i) Observemos que A ∈ Mn (R) é matriz ortogonal se, e somente se, A · AT = In , consequentemente
A é invertível e A−1 = AT .
Observação 1.3.9 O exemplo 1.3.7 (b) nos mostra que a obtenção da inversa usando o teorema 1.3.6
não é eficiente, pois são necessários muitos cálculos.
Vamos introduzir um outro mecanismo para determinar a inversa de uma matriz quadrada, quando esta
existe.
m
−1 m m
−1 m m
−1 m
Ei↔ j = Ei↔ j, Ei→κi = Ei→ 1
i
e Ei→i+κ j = Ei→i−κ j,
κ
Demonstração:
Pelo corolário 1.2.9 as matrizes elementares são invertíveis pois têm determinante não nulos.
Da definição de matrizes elementares, segue ainda que suas inversas são dadas por:
m
−1 m m
−1 m m
−1 m
Ei↔ j = Ei↔ j Ei→κi = Ei→ 1
i
e Ei→i+κ j = Ei→i−κ j,
κ
No que segue vamos indicar por Ekn matriz elementar associada a matriz identidade In , independente-
mente da operação elementar utilizada.
Observação 1.4.2 A proposição 1.4.1 nos garante que as operações elementares são reversíveis, ou
seja, cada operação elementar pode ser “desfeita” por meio de uma operação elementar reversa.
De fato, dadas A em Mm×n (K) e Ekn uma matriz elementar, então B = Ekm · A é a matriz obtida de A
pela operação elementar de Ekm e
Notação: A ∼ B.
(c) A relação ∼ em Mm×n (K), “é linha equivalente a” é uma relação de equivalência, ou seja,
(i) A ∼ A, para toda A ∈ Mm×n (K), pois A = Im · A e Im é uma matriz elementar.
Portanto, ∼ é reflexiva.
(ii) Dados A e B em Mm×n (K), se A ∼ B, então
portanto A ∼ C.
Logo, ∼ é transitiva.
Observação 1.4.5 Se A0 é uma matriz na forma de escalonada, em cada linha não nula de A0
denominamos o primeiro elemento não nulo da linha de pivô.
Da definição acima segue que, em uma linha nula não há pivô e em cada coluna há no máximo um
pivô.
1 −5 2 −4 0
0 0 −3 1 9
Exemplos 1.4.6 (a) A matriz A = 0
está na forma escalonada.
0 0 2 6
0 0 0 0 0
5 −1 7
0 0 0
(b) A matriz A = 0 −9 4 não está na forma escalonada, pois falha a condição (1).
0 0 3
1 2 −2 0
0 0 2 −1
(c) A matriz A = 0 1
não está na forma escalonada, pois entre as linhas L3 e L2
3 0
0 0 0 0
falha a condição (2).
56 Capítulo 1. Matrizes
1 −5 0 0 7
0 0 1 0 −2
Exemplos 1.4.7 (a) A matriz A = 0
está na forma escada.
0 0 1 3
0 0 0 0 0
5 0 0 −2
(b) A matriz A = 0 1 0
0 não está na forma escalonada, pois falha a condição (3) na
0 0 1 3
primeira linha.
1 0 0 0
(c) A matriz A = 0 1 −1 0 não está na forma escalonada, pois falha a condição (4) na
0 0 1 2
terceira coluna.
Teorema 1.4.8 ([Boldrini]) Toda matriz é equivalente a uma única matriz na forma escada.
Observações 1.4.9 (a) Dada uma matriz A a sua equivalente na forma escada, é chamada também
de sua reduzida à forma escada.
(b) O teorema acima nos diz que podemos transformar qualquer matriz, efetuando um número finito
de operações elementares, em uma matriz na forma escada.
(c) Se A é uma matriz em Mn (K) invertível, a forma escada de A é In , matriz identidade de ordem n.
(d) Nas definições acima utilizamos operações elementares sobre as linhas da matriz A, analogamente
definimos operações elementares sobre as colunas de A.
Vimos que se A é uma matriz em Mn (K) invertível, então ao efetuarmos operações elementares em A a
matriz obtida também é invertível. invertíveis.
O próximo teorema nos fornece um mecanismo para obter a inversa de uma matriz utilizando operações
elementares.
Teorema 1.4.10 ([Boldrini]) Uma matriz A em Mn (K) é invertível se, e somente se, A ∼ In , ou
seja, A é uma matriz invertível se, e somente se, a forma reduzida de A é a matriz identidade In .
Além disso, efetuando na identidade In a mesma sequência de operações elementares que transformou
A em In obtém-se a inversa de A.
1.4 Matriz na Forma Escalonada e na Forma Escada 57
Exemplos 1.4.11 Obtenha, em cada um dos casos abaixo, a inversa da matriz A utilizando operações
elementares sobre as linhas.
1 −1 2 3
2 1 1 2 1 0 1
(a) A = 1 1 1 ; (b) A =
3 −1 1 2 .
2 3 1
2 −1 0 1
Solução:
(a)
2 1 1 | 1 0 0 1 1 1 | 0 1 0 L1 ←→ L2
1 1 1 | 0 1 0 ∼ 2 1 1 | 1 0 0
2 3 2 | 0 0 1 2 3 2 | 0 0 1
1 1 1 | 0 1 0
0 −1 −1 | 1 −2 0 L2 −→ L2 − 2L1
0 2 1 | −1 0 1 L3 −→ L3 − L2
1 0 0 | 1 −1 0 L1 −→ L1 + 2L2
∼ 0 −1 −1 | 1 −2 0
0 0 −1 | 1 −4 1 L3 −→ L3 + 2L2
1 0 0 | 1 −1 0
∼ 0 1 1 | −1 2 0 L2 −→ −L2
0 0 1 | −1 4 −1 L3 −→ −L3
1 0 0 | 1 −1 0
∼ 0 1 0 | 0 −2 1 L2 −→ L2 − L3
0 0 1 | −1 4 −1 .
Logo,
1 −1 0
A−1 = 0 −2 1 ,
−1 4 −1
este resultado coincide com o que obtivemos calculando o determinante pela adjunta.
(b)
1 −1 2 3 | 1 0 0 0
2 1 0 1 | 0 1 0 0 L2 −→ L2 − 2L1
3 −1 1 2 | 0 0 1 0 L3 −→ L3 − 3L1
2 −1 0 1 | 0 0 0 1 L4 −→ L4 − L2
1 −1 2 3 | 1 0 0 0
0 3 −4 −5 | −2 1 0 0
∼ 0 2 −5 −7 | −3 0 1 0
1
0 −2 0 0 | 0 0 0 1 L4 −→ − L4
2
1 −1 2 3 | 1 0 0 0
0 3 −4 −5 | −2 1 0 0 L2 ←→ L4
∼
0 2 −5 −7 | −3 0 1 0
0 1 0 0 | 1
0 2 0 − 12
1 −1 2 3 | 1 0 0 0 L1 −→ L1 + L2
0 1 0 0 | 0 12 0 − 12
∼
0 2 −5 −7 | −3 0 1 0 L3 −→ L3 − 2L2
0 3 −4 −5 | −2 1 0 0 L4 −→ L4 − 3L2
58 Capítulo 1. Matrizes
1
1 0 2 3 | 1 2 0 − 12
1
0 1 0 0 | 0 2 0 − 12
∼
0 0 −5 −7 | −3 −1 1 1
0 0 −4 −5 | −2 − 12 0 3 4
2 L4 −→ L4 − 5 L3
1
1 0 2 3 | 1 2 0 − 12
1
0 1 0 0 | 0 2 0 − 12
∼
0 0 −5 −7 | −3 −1 1 1
3 2 3 4 7 5
0 0 0 5 | 5 10 − 5 10 L4 −→ 3 L4
1
1 0 2 3 | 1 2 0 − 12 L1 −→ L1 − 3L4
1
0 1 0 0 | 0 2 0 − 12
∼
0 0 −5 −7 | −3 −1 1 1 L3 −→ L3 + 7L4
2 1 4 7
0 0 0 1 | 3 2 − 3 6
1 0 2 0 | −1 −1 4
1
0 1 0 0 | 0 2 0 − 12
∼ 5 5 25 55 1
0 0 −5 0 | 3 2 −3 6 L3 −→ − 5 L3
2 1 4 7
0 0 0 1 | 3 2 −3 6
1 0 2 0 | −1 −1 4 −4 L1 −→ L1 − 2L3
1
0 1 0 0 | 0 2 0 − 12
∼
0 0 1 0 | − 13 − 12 5 11
3 −6
2 1 4 7
0 0 0 1 | 3 2 −3 6
1 0 1 0 | − 13 0 2
3 − 13
1
0 1 0 0 | 0 2 0 − 12
∼ 11 .
0 0 1 0 | − 31 − 12 5
3 −6
2 1 4 7
0 0 0 1 | 3 2 −3 6
Logo,
− 31 2
− 31
0 3 2 0 −4 2
1
0 0 − 12 1 0 −3 0 3
A−1 =
2
11 = −
,
− −1
1 5
− 6 2 3 −10 11
3 2 3 6
2 1
3 2 − 43 7
6
−4 −3 8 −7
este resultado coincide com o que obtivemos calculando o determinante pela adjunta.
2. Sistemas Lineares
a1 x1 + a2 x2 + · · · + an xn = b
a1 · α1 + a2 · α2 + · · · + an · αn = b é verdadeira.
Exemplos
2.1.2 (a)
x = 0
1. y = 2 é solução da equação2x + 4y − 3z = 5, pois
z = 1
2 × 0 + 4 × 2 + (−3) × 1 = 8 − 3 = 5
x = −3
y = −1 também é solução, pois
z = −5
Definição 2.1.3 Um sistema de equações lineares real ou complexo é um sistema em que todas
as equações são lineares reais ou complexas, ou seja, é um sistema do tipo:
a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2
S: .. ,
.
a x + a x + ··· + a x = b
m1 1 m2 2 mn n m
nas variáveis x1 , x2 , · · · , xn , com coeficientes a11 , a12 , · · · , a1n , a21 , a22 , · · · , a2n , · · · , am1 , am2 , · · · ,
amn e b1 , b2 , · · · , bm termos independentes números reais ou números complexos.
Matricialmente temos:
a11 a12 · · · a1n x1 b1
a21 a22 · · · a2n x2 b2
S: · = ,
.. .. .. .. .. ..
. . . . . .
am1 am2 · · · amn xn bm
| {z } | {z } | {z }
A X B
A a matriz dos coeficientes de S
com X a matriz das variáveis de S .
B a matriz dos termos independentes de S
2.1 Sistemas de Equações Lineares 61
Definição 2.1.4 A matriz obtida da matriz A incluindo à direita uma coluna, esta constituída pelos
termos independentes de S, é chamada matriz ampliada do sistema S e aqui indicada por M.
Logo,
a11 a12 · · · a1n | b1
a21 a22 · · · a2n | b2
M = ..
.. .. .. ..
. . . . .
am1 am2 · · · amn | bm
.
x1 = λ1
x2 = λ2
A solução pode ser dada na forma .. ou na forma (λ1 , λ2 , · · · , λn ).
.
x =λ
n n
O conjunto solução de S, indicado por Sol(S), é o conjunto de todas n-uplas (λ1 , λ2 , · · · , λn ) soluções
de S, ou seja,
Sol(S) = {λ = (λ1 , λ2 , · · · , λn ) ∈ Kn ; λ é solução de S}.
x=3 x + 4y + 3z = 1
Exemplos 2.1.4 (a) y = −2 é uma solução do sistema S : 2x + 5y + 4z = 4 , pois
z=2 x − 3y − 2z = 5
3 + 4 × (−2) + 3 × 2 = 3 − 8 + 6 = 1
2 × 3 + 5 × (−2) + 4 × 2 = 6 − 10 + 8 = 4 .
3 − 3 × (−2) − 2 × 2 = 3 + 6 − 4 = 5
(b)
3x − 7y − 8z = 0
−3x + 8y − 5z = 0 ←− 3x = 8(13z) − 5z = 99z ⇒ x = 33z .
− y + 13z = 0 ←− y = 13z
Proposição 2.1.5 Se um sistema linear S como 2.1.1 em K = R, C tem mais do que uma solução,
então S tem infinitas soluções.
Logo,
a11 η1 + a12 η2 + · · · + a1n ηn
a21 η1 + a22 η2 + · · · + a2n ηn
..
.
a η +a η +···+a η
m1 1 m2 2 mn n
a11 (αλ1 + (1 − α)µ1 ) + a12 (αλ2 + (1 − α)µ2 ) + · · · + a1n (αλn + (1 − α)µn )
= a21 (αλ1 + (1 − α)µ1 ) + a22 (αλ2 + (1 − α)µ2 ) + · · · + a2n (αλn + (1 − α)µn )
..
.
a (αλ + (1 − α)µ ) + a (αλ + (1 − α)µ ) + · · · + a (αλ + (1 − α)µ )
m1 1 1 m2 2 2 mn n n
α(a11 λ1 + a12 λ2 + · · · + a1n λn ) + (1 − α)(a11 µ1 + a12 µ2 + · · · + a1n µn )
= α(a21 λ1 + a22 λ2 + · · · + a2n λn ) + (1 − α)(a21 µ1 + a22 µ2 + · · · + a2n µn )
..
.
α(a λ + a λ + · · · + a λ ) + (1 − α)(a µ + a µ + · · · + a µ )
m1 1 m2 2 mn n m1 1 m2 2 mn n
αb1 + (1 − α)b1
b1
αb2 + (1 − α)b2
b2
α6=1
= .. = .. .
.
.
αb + (1 − α)b b
m m m
Portanto, (η1 , η2 , · · · , ηn ) também é solução de 2.1.1, como podemos tomar todo α ∈ K, com α 6= 1,
segue que existem infinitas n-uplas (η1 , η2 , · · · , ηn ), consequentemente o sistema linear 2.1.1 tem
infinitas soluções.
2.1 Sistemas de Equações Lineares 63
Definição 2.1.6 Dizemos que um sistema linear é compatível quando admite alguma solução,
dentre os sistemas lineares compatíveis temos:
(i) Os sistemas lineares possíveis determinados, que são aqueles que admitem uma única solução.
(ii) Os sistemas lineares possíveis indeterminados, que são aqueles que admitem infinitas solu-
ções.
x + 4y + 3z = 1
Exemplos 2.1.6 (a) S : 2x + 5y + 4z = 4 , é um sistema linear compatível determi-
x − 3y − 2z = 5
x = 3
nado, pois tem uma única solução: y = −2 .
z = 2
x + 2y + z + w = 0
(b) S : , é um sistema linear compatível indeterminado, pois
x + 3y − z + 2w = 0
x = −5z + w
tem infinitas soluções dadas por , com z e w variando nos números reais, por
y = 2z − w
x = −6
y = 3
exemplo é uma solução do sistema.
z = 1
w = −1
Definição 2.1.7 Dizemos que um sistema linear é incompatível quando não admite solução.
2x + 3y = 4
Exemplo 2.1.7 O sistema linear é incompatível S : x + y = 6 , pois não admite solução,
3x − 4y = 0
18
já que das três equações tiramos que −8 = y = , um absurdo!
7
Definição 2.1.8 Dizemos que um sistema linear é um sistema homogêneo quando todos os termos
independentes são iguais a zero.
2x + 3y − 9z = 0
Exemplo 2.1.8 O sistema S : é homogêneo.
5x − 8y + 7z = 0
64 Capítulo 2. Sistemas Lineares
Observação 2.1.9 Todo sistema linear homogêneo admite pelo menos uma solução, que é aquela
em que todas as variáveis são iguais a zero, esta solução é chamada solução trivial.
Portanto, um sistema homogêneo é um sistema compatível determinado ou um sistema compatível
indeterminado.
No exemplo acima a solução trivial é x = y = z = 0.
Definição 2.1.9 Dois sistemas lineares S e S0 são equivalentes se, e somente se, toda solução de S
é solução de S0 e toda solução de S0 é solução de S.
x + 4y + 3z = 1 x + 4y + 3z = 1
Exemplos 2.1.10 (a) S : 2x + 5y + 4z = 4 e S :0 − 3y − 2z = 2
x − 3y − 2z = 5 7y + 5z = −4
x = 3
são equivalentes, pois a única solução de S e de S0 é y = −2 .
z = 2
x + y + z + w = 0
x + 2y + z + w = 0 0
(b) S : e S : x + y + z − 2w = 0 não são equi-
x + 3y − z + 2w = 0
x − y + 3z + w = 0
x = 0
x = −6
y = 0 y = 3
valentes, pois é solução de S e de S0 , no entanto é solução de S,
z = 0
z = 1
w = 0 w = −1
mas não é solução de S0 .
As operações elementares que vimos para matrizes também serão utilizadas em sistemas lineares, neste
caso são:
OE1 Permutação de duas equações, ou seja, permutamos uma i-ésima equação e uma j-ésima equação.
Notação: Ei ←→ E j .
OE2 Substituição de uma equação por ela previamente multiplicada por um número (real ou complexo)
não nulo, ou seja, substituímos uma i-ésima equação por ela multiplicada por número não nulo κ
.
Notação: Ei −→ κEi .
OE3 Substituição de uma equação por ela somada com outra equação previamente multiplicada por
um número (real ou complexo) não nulo, ou seja, substituímos uma i-ésima equação por ela
somada com uma j-ésima equação multiplicada por número não nulo κ .
Notação: Ei −→ Ei + κE j ,
com Ei a i-ésima equação do sistema linear.
−x + 3y + 4z = 1
Exemplos 2.1.11 Seja S : 2x + y + 3z = −2 , determine o sistema linear:
5x + 3z = −7
2.2 Resolução de Sistemas Lineares 65
Teorema 2.1.12 Dois sistemas lineares S e S0 são equivalentes se, e somente se, S0 pode ser obtido
de S através de uma número finito de operações elementares sobre as equações de S.
Definição 2.2.1 Sejam A uma matriz em Mm×n (K) e B a sua matriz equivalente na forma escada.
(i) O posto de A, denotado por p(A), é o número de linhas não nulas de B.
(ii) A nulidade de A, denotada por null(A), é a diferença entre n, o número de colunas de A, e o
posto de A, ou seja, null(A) = n − p(A).
Observações 2.2.2 (a) Para determinar o posto de uma matriz basta encontrar a sua forma escalo-
nada, pois o número de linhas nulas da forma escalonada é igual ao da forma escada.
(b) Note que null(A) ≥ 0, de fato, pois p(A) ≤ min{m, n} ≤ n =⇒ (A) ≥ −n, consequentemente,
null(A) = n − p(A) ≥ 0.
(c) Dado S : A · X = B um sistema de equações lineares com m equações e n variáveis, em R ou em
C, sendo p(A) o posto de A matriz dos coeficientes de S e p(M) o posto de M matriz ampliada
de S, então p(A) ≤ p(M).
De fato, pois p(A) ≤ min{m, n} e p(M) ≤ min{m, n + 1}.
66 Capítulo 2. Sistemas Lineares
Proposição 2.2.3 Uma matriz A ∈ Mn (K) é invertível se, e somente se, p(A) = n é máximo.
Teo.1.4.10
A é invertível ⇐⇒ A é linha equivalente a In ⇐⇒ p(A) = n.
Solução:
(a) Comcálculo simples
constatamos que det A = 1 6= 0, portanto a forma escada de A é
1 0 0
I3 = 0 1 0 .
0 0 1
1 4 3 | 1 1 4 3 | 1
Como 2 5 4 | 4 L2 −→ L2 − 2L1 ∼ 0 −3 −2 | 2
1 −3 −2 | 0 L3 −→ L3 − 3L1 0 −7 −5 | 1 L3 −→ 7L2 − 3L3
1 4 3 | 1 L1 −→ L1 − 3L3 1 4 0 | −32
0 −3 −2 | 2 L2 −→ L2 + 2L2 ∼ 0 −3 0 | 24 L2 −→ − 13 L2
0 0 1 | 11 L3 0 0 1 | 11
1 4 0 | −32 L1 −→ L1 − 4L2 1 0 0 | 4
0 1 0 | −8 ∼ 0 1 0 | −8 .
0 0 1 | 11 0 0 1 | 11
1 0 0 | 4
segue que a forma escada de AM é 0 1 0 | −8 .
0 0 1 | 11
1 2 1 1 | 1
(b) Como
1 3 −1 2 | −4 L2 −→ L2 − L1
1 2 1 1 | 1 L1 −→ L1 − 2L2 1 0 5 −1 | 11
∼ ∼ ,
0 1 −2 1 | −5 0 1 −2 1 | −5
2.2 Resolução de Sistemas Lineares 67
1 0 5 −1
segue que a forma escada de A é e a
0 1 −2 1
1 0 5 −1 | 11
forma escada de AM é .
0 1 −2 1 | −5
2 3 | 4 1 1 | 6
(c) Como 1 1 | 6 L1 ←→ L2 ∼ 2 3 | 4 L2 −→ L2 − 2L1
3 −4 | 0 3 −4 | 0 L3 −→ L3 − 3L1
1 1 | 6 L1 −→ L1 − L2 1 0 | −14
∼ 0 1 | −8 ∼ 0 1 | −8 ,
0 −7 | −18 L3 −→ L3 + 7L2 0 0 | −74
1 0 1 0 | 14
segue que a forma escada de A é 0
1 e a forma escada de AM é 0 1 | −8 .
0 0 0 0 | −74
Demonstração: Sejam A = [ai j ] ∈ Mm×n (K) e M = [ai j | bi ] ∈ Mm×(n+1) (K), a matriz dos coeficientes
e a matriz ampliada de S, respectivamente, então p(A) ≤ p(M) e:
(i) p(A) < p(M) se, e somente se, a última linha não nula da forma escalonada reduzida da matriz
0
ampliada é da forma 0 · · · 0 bk com b0k 6= 0, com k ≤ m, ou seja, S ∼ S0 e S0 : A0 · X = B0 ,
com A0 matriz escalonada de A tendo a k-ésima de linha nula e b0k uma constante não nula é a
k-ésima de linha de B0 , levando à equação 0 = b0k , uma contradição!, portanto S não tem solução.
Logo, S tem solução se, e somente se, p(A) = p(M).
(ii) p(A) = p(M) = n se, e somente se, S ∼ S0 , com S0 : A0 · X = B0 sistema de equações lineares que
tem matriz dos coeficientes e a matriz ampliada associadas, ambas, na forma escalonada como
abaixo:
· · · c1n b01
1 c12
0 1 · · · c2n b02
.. .. ... . . x1 ..
. . . x .
2
S0 : 0 0 · · · 1 · .. = b0n ,
.
0 0 ··· 0 0
.. .. .. . xn ..
. . . .. .
0 0 ··· 0 0
cuja solução é xn = b0n , xn−1 = b0n−1 − cn−1 n · xn , fazendo as sucessivas substituições obtemos a
única solução de S0 e de S.
(iii) p(A) = p(M) = k < n se, e somente se, S ∼ S0 , com S0 : A0 · X = B0 sistema de equações lineares
que tem matriz dos coeficientes e a matriz ampliada associadas, ambas, na forma escalonada
como abaixo:
Observação 2.2.6 O número n − k =null(A) do item (iii) do Teorema do Posto (2.2.5) é chamado
grau de liberdade do sistema linear S.
Exemplos 2.2.7 Classifique os sistemas lineares abaixo em possível determinado, possível indetermi-
nado e impossível utilizando o teorema do posto.
x + 4y + 3z = 1
x + 2y + z + t = 1
(a) 2x + 5y + 4z = 4 ; (b) ;
x + 3y − z + 2t = −4
x − 3y − 2z = 5
2.3 Métodos de Resolução de Sistemas Lineares 69
x + y + z + t = 0
x − y + z = 3
x + y + z − t = 4 x − y − 3z = −3
(c) ; (d)
x + y − z + t = −4
3x + 3y − 5z = 0
x − y + z + t = 2 −x + y + z = 1
Solução:
(a) Do exemplo 2.2.4 (a) temos p(A) = p(M) = 3 = número de variáveis do sistema, portanto o
sistema tem uma única solução, ou seja, é compatível determinado.
(b) Do exemplo 2.2.4 (b) temos p(A) = p(M) = 2 < número de variáveis do sistema, portanto o
sistema tem infinitas soluções, ou seja, é compatível indeterminado.
1 1 1 1
1 1 1 −1
(c) Fazendo alguns cálculos concluímos que a forma escada de A = é a matriz
1 1 −1 1
1 −1 1 1
1 1 1 1 | 0 1 0 0 0 | −1
1 1 1 −1 | 4 tem forma escada 0 1 0 0 | −1 .
identidade I4 e M = 1 1 −1 1 | −4 0 0 1 0 | 2
1 −1 1 1 | 2 0 0 0 1 | −2
Logo, p(A) = p(M) = 4 = número de variáveis do sistema, portanto o sistema tem uma única
solução, ou seja, é compatível determinado.
1 −1 1 | 3 1 −1 1 | 3
1 −1 −3 | −3 1 4/3 | −3/2
tem forma escalonada 0
(d) A matriz M = .
3 3 −5 | 0 0 0 1 | 3/2
−1 1 1 | 1 0 0 0 | 1/2
Portanto, p(A) = 3 6= p(M) = 4, consequentemente o sistema não tem solução, ou seja, é
incompatível.
Lembremos que a matriz dos coeficientes de S e matriz ampliada de S são dadas, respectivamente, por:
a11 a12 · · · a1n a11 a12 · · · a1n | b1
a21 a22 · · · a2n a21 a22 · · · a2n | b2
A = .. e M = .. .
.. .. .. .. .. .. ..
. . . . . . . . | .
am1 am2 · · · amn am1 am2 · · · amn | bm
Vamos analisar a A e M e aplicar o Teorema do Posto (2.1.12, para determinar o conjunto solução de
S aplicamos as operações elementares de linhas, utilizando a técnica da eliminação.
70 Capítulo 2. Sistemas Lineares
Observação 2.3.2 Para se encontrar a solução de um sistema linear não é necessário transformar
a matriz ampliada do sistema na sua forma escalonada reduzida, mas se a matriz está nesta forma, o
sistema associado é o mais simples possível.
Um outro método de resolução de sistemas de equações lineares, chamado método de Gauss, consiste
em efetuar operações elementares sobre as linhas da matriz ampliada do sistema até obter uma forma
escalonada.
O corolário acima também se aplica a este método, ou seja, o sistema de equações lineares não tem
solução se, e somente se, a última linha não nula da forma escalonada da matriz ampliada é da forma
0 · · · 0 b0m com b0m 6= 0.
No caso em que o sistema tenha solução, para obte-las, após reduzir a matriz ampliada à forma
escalonada, devemos fazer as devidas substituições e obter a(s) solução(ões).
A vantagem deste processo é que o número de operações elementares a serem realizadas é bem menor
do que o método de Gauss-Jordan.
Solução:
1 4 3 | 1
(a) A matriz ampliada de S é 2 5 4 | 4 , escalonando obtemos:
1 −3 −2 | 5
1 4 3 | 1 1 4 3 | 1
2 5 4 | 4 L2 −→ L2 − 2L1 ∼ 0 −3 −2 | 2 L2 −→ − 13 L2
1 −3 −2 | 5 L3 −→ L3 − L1 0 −7 −5 | 4
1 11
1 4 3 | 1 L1 −→ L1 − 4L2 1 0 3 | 3
2 2 2 2
∼ 0 1 3 | −3 ∼ 0 1 3 | −3
0 −7 −5 | 4 L3 −→ L3 + 7L2 0 0 − 13 | − 32 L3 −→ −3L3
1 0 31 | 11 L1 −→ L1 − 13 L3
3 1 0 0 | 3
∼ 0 1 23 | − 23 L2 −→ L2 − 23 L3 ∼ 0 1 0 | −2 .
0 0 1 | 2 0 0 1 | 2
x = 3
Logo, a solução do sistema é y = −2 .
z = 2
1 2 1 1 | −1
(b) A matriz ampliada de S é , escalonando obtemos:
1 3 −1 2 | 3
1 2 1 1 | −1 1 2 1 1 | −1 L1 −→ L1 − 2L2
∼
1 3 −1 2 | 3 L2 −→ L2 − L1 0 1 −2 1 | 4
1 0 5 −1 | −9
∼ .
0 1 −2 1 | 4
2 3 | 4 1 1 | 6
L ←→ L2 L −→ L2 − 2L1
1 1 | 6 1 ∼ 2 3 | 4 2
L3 −→ L3 − 3L1
3 −4 | 0 3 −4 | 0
1 1 | 6 L1 −→ L1 − L2 1 0 | 14
∼ 0 1 | −8 ∼ 0 1 | −8 .
0 −7 | −18 L3 −→ L3 + 7L2 0 0 | −74
Logo, o sistema não tem solução, pois a última linha da matriz na forma escada nos diz que
0 = −74 um absurdo!
72 Capítulo 2. Sistemas Lineares
1 2 2 2 | 0
(d) A matriz ampliada de S é 2 4 6 8 | 0 , escalonando obtemos:
3 6 8 10 | 0
1 2 2 2 2 | 0 1 2 2 2 2 | 0
L −→ 12 L2
2 4 6 8 10 | 0 L2 −→ L2 − 2L1 ∼ 0 0 2 4 6 | 0 2
L3 −→ L3 − L2
3 6 8 10 12 | 0 L3 −→ L3 − 3L1 0 0 2 4 6 | 0
1 2 2 2 2 | 0
∼ 0 0 1
2 3 | 0 .
0 0 0 0 0 | 0
Observação 2.3.4 Os sistemas lineares dos exemplos (b) e (d) têm infinitas soluções, abaixo temos
a forma escalonada (uma reduzida e a outra não) das matrizes ampliadas, indicando acima as variáveis
livres e abaixo as variáveis dependentes:
z w y w t
↓ ↓ ↓ ↓ ↓
1 0 5 −1 | −9 1 2 2 2 2 | 0
e
0 1 −2 −1 | 4 0 0 1 2 3 | 0
↑ ↑ ↑ ↑
x y x z
De modo geral, no caso em que p(A) = p(M) < n, na matriz ampliada escalonada as colunas que têm
um pivô de alguma linha correspondem às variáveis dependentes e as outras colunas correspondem às
variáveis livres, no exemplo (b) são z e w, já no exemplo (d) são y, w e t.
Seja
a11 x1 + a12 x2 + · · · + a1n xn = b1
S: a21 x1 + a22 x2 + · · · + a2n xn = b2
..
.
a x + a x + ··· + a x = b
n1 1 n2 2 nn n n
Observação 2.3.5 Como A é invertível e m = n, ao escalonar M, a matriz ampliada deS, obtemos uma
matriz M 0 , uma forma escalonada de M, tal que então a última linha de M 0 é da forma 0 · · · 0 a0nn b0n
com a0nn 6= 0.
Consequentemente, S é compatível determinado.
Para determinar a solução tomamos a forma matricial de S: A · X = B, como estamos supondo que A é
invertível, então existe A−1 e resolvemos o sistema da seguinte maneira:
Solução:
A forma matricial do sistema acima é:
2 1 1 x 15
1 1 1 · y = 6 .
2 3 2 z 10
| {z } | {z } | {z }
A X B
2 1 1
Vimos na seção de matriz inversa que a matriz dos coeficientes A = 1 1 1 é invertível, e sua
2 3 2
1 −1 0
inversa é A−1 = 0 −2 1 .
−1 4 −1
Logo, pelo método da matriz inversa a solução do sistema é:
x 1 −1 0 15 9
y = 0 −2 1 · 6 = −2 .
z −1 4 −1 10 −1
a11 b1 · · · a1n
a21 b2 · · · a2n
b1 · ∆12 b2 · ∆22 + · · · + bn · ∆n2 = .. .. .. . .
. . . ..
an2 bn · · · ann
..
.
a11 a12 · · · b1
a21 a22 · · · b2
b1 · ∆1n b2 · ∆2n + · · · + bn · ∆nn = .. .. .. .
. . . ..
an2 ann · · · bn
Consequentemente, sendo Ai a matriz obtida da matriz A substituindo a i-ésima coluna pela matriz
coluna B dos coeficientes independentes do sistema, ou seja,
a11 · · · a1 i−1 b1 a1 i+1 · · · a1n
a21 · · · a2 i−1 b2 a2 i+1 · · · a22
Ai = .. .. ,
.. .. . . .. ..
. . . . . . .
an2 · · · an i−1 bn an i+1 · · · ann
para i ∈ {1, · · · , n}, então a única solução do sistema linear S é
x1
x2 D1
X = .. , com xi = , Di = det Ai e D = det A, para i ∈ {1, · · · , n}.
. D
xn
2.3 Métodos de Resolução de Sistemas Lineares 75
Este método de resolução de sistemas lineares quadrados com matriz dos coeficientes invertível é
chamado Regra de Cramer.
Exemplos 2.3.8 Resolva os seguintes sistemas lineares pela regra de Cramer:
2x + 3y − z = 1
2x − 3y = 7
(a) S : ; (b) S : 3x + 5y + 2z = 8 .
3x + 5y = 1
x − 2y − 3z = −1
Solução:
2 −3 7 −3 2 7
(a) D = = 19, D1 = = 35 + 3 = 38 e D2 = = 2 − 21 = −19.
3 5 1 5 3 1
38 −19
Logo, x = =2 e y= = −1, consequentemente, a única solução do sistema é {(2, −1)}.
19 19
2 3 −1 L1 ←→ L3 1 −2 −3
D = 3 5 2 =− 3 5 2 L2 −→ L2 − 3L1
1 −2 −3 2 3 −1 L3 −→ L3 − 2L1
1 −2 −3 1 −2 −3
1
(b) = − 0 11 11 L2 −→ 11 L2 = (−11) × 0 1 1
0 7 5 0 7 5 L3 −→ L3 − 7L2
1 −2 −3
= (−11) × 0 1 1 = (−11) × (−2) = 22,
0 0 −2
1 3 −1 1 3 −1
D1 = 8 5 2 L2 −→ L2 − 8L1 = 0 −19 10 L2 ⇐⇒ L3
−1 −2 −3 L3 −→ L3 + L1 0 1 −4
1 3 −1 1 3 −1
= − 0 1 −4 = − 0 1 −4 = −(−66) = 66,
0 −19 10 L3 −→ L3 + 19L2 0 0 −66
2 1 −1 L1 ←→ L3 1 −1 −3
D2 = 3 8 2 =− 3 8 2 L2 −→ L2 − 3L1
1 −1 −3 2 1 −1 L3 −→ L3 − 2L1
1 −1 −3 1 −1 −3
= − 0 11 11 = − 0 11 11 = −22,
0 3 3
5 L3 −→ L3 − 11 L2 0 0 2
2 3 1 L1 ←→ L3 1 −2 −1
D3 = 3 5 8 =− 3 5 8 L2 −→ L2 − 3L1
1 −2 −1 2 3 1 L3 −→ L3 − 2L1
1 −2 −1 1 −2 −1
= − 0 11 11 = − 0 11 11 = −(−44) = 44.
0 7 7
3 L3 −→ L3 − 11 0 0 −4
L2
66 −22 44
Logo, x = = 3, y = = −1 e z = = 2, consequentemente, a única solução do
22 22 22
sistema é {(3, −1, 2)}
3 Espaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.1 Espaços Vetoriais
3.2 Subespaços Vetoriais
3.3 Soma, Soma Direta e Intersecção de Subespaços
(3) Uma operação de adição de vetores de V , que a cada par de elementos u, v ∈ V associa um
elemento u + v ∈ V e satisfaz as seguintes propriedades:
A1 u + v = v + u para quaisquer u e v em V ; comutativa.
A2 (u + v) + w = u + (v + w) para quaisquer u, v e w em V ; associativa.
A3 Existe um elemento 0V em V tal que u + 0V = u para todo u em V ; existência de
elemento neutro.
A4 Para todo elemento u em V existe o elemento −u também em V tal que u + (−u) = 0V ;
existência de elemento simétrico.
(4) Uma operação de multiplicação por escalar, que a cada par de elementos u ∈ V e α ∈ K
associa um elemento α · u ∈ V e satisfaz as seguintes propriedades:
M1 α · (β · u) = (α · β ) · u para quaisquer u ∈ V e α e β em K.
Observações 3.1.1 (a) Também denotamos o espaço vetorial V por (V, +, ·), com + a adição de
vetores e · a multiplicação por escalar.
(b) Também denominamos o espaço vetorial V por espaço vetorial sobre o corpo K.
(c) No caso em que K = R, dizemos que V é um espaço vetorial real.
(d) No caso em que K = C, dizemos que V é um espaço vetorial complexo.
(e) O elemento neutro da adição é único.
De fato, se existissem dois elementos neutros 0V e 0V0 teríamos:
0V = 0V + 0V0 = 0V0 + 0V = 0V0 ,
provando a unicidade.
(f) Para cada u ∈ V existe um único simétrico em relação à adição.
De fato, se u tivesse dois simétricos −u e −u0 teríamos:
provando a unicidade.
Alguns conjuntos numéricos que conhecemos têm estrutura de espaços vetoriais tais como:
Exemplos 3.1.2 (a) O conjunto do números reais, R, com as operações usuais de adição e multipli-
cação de números reais, é um espaço vetorial real.
(b) O conjunto do números complexos, C, com as operações usuais de adição e multiplicação de
números complexos, é um espaço vetorial complexo, considerando o corpo dos escalares como
sendo K = C.
Também podemos considerar o conjunto do números complexos, C, com corpo de escalares
K = R. Neste caso, C é um espaço vetorial real.
Observação 3.1.3 Podemos denotar os elementos de Rn como matriz linha ou matriz coluna, por
exemplo,
x1
x2
u = (x1 , x2 , · · · , xn ) = x1 x2 · · · xn = .
..
.
xn
Igualdade em Rn
Dados u = (x1 , x2 , · · · , xn ) e v = (y1 , y2 , · · · , yn ) em Rn temos:
x1 = y1
x2 = y2
u = v ⇐⇒ (x1 , x2 , · · · , xn ) = (y1 , y2 , · · · , yn ) ⇐⇒ ..
.
x =y
n n
Adição em Rn
Dados u = (x1 , x2 , · · · , xn ) e v = (y1 , y2 , · · · , yn ) em Rn , a adição de u e v, denotada por u + v é dada
por:
u + v = (x1 , x2 , · · · , xn ) + (y1 , y2 , · · · , yn ) = (x1 + y1 , x2 + y2 , · · · , xn + yn ).
Propriedades da Adição em Rn
Sejam u = (x1 , x2 , · · · , xn ), v = (y1 , y2 , · · · , yn ) e w = (z1 , z2 , · · · , zn ) elementos quaisquer em Rn e
0Rn = (0, 0, · · · , 0) , denotemos por −u = (−x1 , −x2 , · · · , −xn ), então valem:
| {z }
n−upla de zeros
A1 u + v = v + u.
A2 (u + v) + w = u + (v + w).
A3 u + 0Rn = u.
A4 u + (−u) = 0Rn .
Multiplicação por Escalar em Rn
Dados u = (x1 , x2 , · · · , xn ) em Rn e α ∈ R a multiplicação de u por α, denotada por α · u é dada por:
α · u = α · (x1 , x2 , · · · , xn ) = (α · x1 , α · x2 , · · · , α · xn ).
Solução:
• A adição está bem definida, pois dados (x1 , y1 ) e (x2 , y2 ) em V , então x1 > 0 e x2 > 0.
Como (x1 , y1 ) ⊕ (x2 , y2 ) = (x1 · x2 , y1 + y2 ) ∈ V, pois x1 · x2 > 0.
|{z} |{z}
>0 >0
• A multiplicação por escalar está bem definida, pois dados (x, y) em V , então x > 0.
x>0
Como α (x, y) ⊕ (x2 , y2 ) = (xα , α · y) ∈ V, pois xα > 0.
• (x1 , y1 ) ⊕ (x2 , y2 ) = (x1 · x2 , y1 + y2 ) = (x2 · x1 , y2 + y1 ) = (x2 , y2 ) ⊕ (x1 , y1 ), portanto ⊕ é
comutativa.
• (x1 , y1 ) ⊕ (x2 , y2 ) ⊕ (x3 , y3 ) = (x2 · x1 , y2 + y1 ) ⊕ (x3 , y3 ) = (x1 · x2 · x3 , y1 + y2 + y3 ) =
(x1 , y1 ) ⊕ (x2 · x3 , y2 + y3 ) = (x1 , y1 ) ⊕ (x2 , y2 ) ⊕ (x3 , y3 ) , portanto ⊕ é associativa.
• Existência de elemento neutro: devemos mostrar que existe (a, b) ∈ V tal que
1
(
x>0
a = x−1 =
x·a = 1
(x, y) ⊕ (a, b) = (1, 0) ⇐⇒ (x · a, y + b) = (1, 0) ⇐⇒ ⇐⇒ x
y+b = 0 b = −y
1
Logo, o elemento simétrico de (x, y) em relação à ⊕ é , −y .
x
• α β (x, y) = α (xβ , β y) = (xβ )α , α · (β · y) = (xα·β , α · β · y) = (α · β ) (x, y).
Logo vale a condição M1 .
• α (x1 , y1 ) ⊕ (x2 , y2 ) = α (x1 · x2 , y1 + y2 ) = (x1 · x2 )α , α · (y1 + y2 )
= (x1α · x2α , α · y1 + α · y2 ) = (x1α , α · y1 ) ⊕ (x2α , α · y2 ).
Logo vale a condição M2 .
3.1 Espaços Vetoriais 83
= α (x, y) ⊕ β (x, y) .
Logo vale a condição M3 .
• A unidade de , se existir, é um número α ∈ R tal que
O conjunto da matrizes reais de ordem m × n, que denotamos por Mm×n (R), com as operações adição
e multiplicação definidas no capítulo 1, é um espaço vetorial real.
Da mesma maneira, o conjunto da matrizes complexas de ordem m × n, que denotamos por Mm×n (C),
também é um espaço vetorial sobre K, é um espaço vetorial real se o corpo considerado é R e um
espaço vetorial complexo se K = C.
Os espaços vetoriais acima são chamados espaços de matrizes.
Observações 3.1.5 (a) Denotamos a função nula, indicada por f0 , é a função que a todo x ∈ R
associa o número zero, ou seja,
(b) Dada uma função f : R −→ R, a sua simétrica, indicada por − f , é a função dada por
Adição de Funções
Sejam f e g funções em F (R), a soma de f e g é uma função, denotada por f + g, dada por:
Exemplo 3.1.6 O conjunto das funções reais contínuas com domínio [a, b], com a e b reais e a < b,
e as operações adição e multiplicação por escalar definidas acima, também tem estrutura de espaço
vetorial.
Mais precisamente,
Agora consideremos o conjunto dos polinômios reais (ou complexos) de grau ≤ n, para n ∈ N, com
coeficientes reais, denotado por Pn (R) (ou Pn (C)).
Um elemento de Pn (R) é um polinômio p(t) dado por
Observações 3.1.7 (a) O polinômio nulo, denotado por p0 , é o polinômio que a todo t ∈ R associa
o número zero, ou seja,
p0 (t) = 0 para todo t ∈ R.
(b) Dado um polinômio p(t) = a0 + a1t + · · · + ant n ∈ Pn (R), o simétrico de p, denotado por
−p, é o polinômio (−p) dado por
para todo t ∈ R.
Podemos considerar a adição e a multiplicação por escalar em Pn (R) como as definidas em funções.
Assim, Pn (R) munido das operações de adição e de multiplicação por escalar é um espaço vetorial
real.
Enquanto, que Pn (C) munido das operações de adição e de multiplicação por escalar sobre R é um
espaço vetorial real, e se a multiplicação por escalar é sobre C, então Pn (C) é um espaço vetorial
complexo, estes espaços vetoriais são chamados espaços de polinômios de grau ≤ n.
v = (−u) + u + v = (−u) + u + w = w,
Teorema 3.1.9 Seja V um espaço vetorial sobre um corpo K, dados u e v elementos quaisquer em
V , existe um único w ∈ V tal que u + w = v.
{z· · · + u} = nu.
EV8 u + u = 2u, u + u + u = 3u, de um modo geral, u| + u +
n vezes
Verificação:
EV1 Seja v = 0K · u, para todo u ∈ V .
Logo,
v + v = 0K · u + 0K · u = 0K · (u + u) = v.
Somando (−v) em ambos os lados da igualdade, obtemos v = 0V .
Portanto, v = 0V .
EV2 Seja w = α · 0V , para todo α ∈ K.
Logo,
w + w = α · 0V + α · 0V = (α + α) · 0V = w.
Somando (−w) em ambos os lados da igualdade, obtemos w = 0V .
Portanto, w = 0V .
EV3 Observemos que
α · u + (−α) · u = (−α + α) · u = 0V .
Portanto, −(α · u) = (−α) · u.
De maneira análoga mostramos que −(α · u) = α · (−u).
86 Capítulo 3. Espaços Vetoriais
M EV
−(u + v) = (−1) · (u + v) =2 (−1) · u + (−1) · v = (−u) + (−v) =3 −u − v.
EV8 A verificação pode ser feita por indução sobre n. No entanto, não a faremos, pois o conceito de
indução foge ao escopo deste texto.
Definição 3.2.1 Seja V um espaço vetorial sobre o corpo K, dizemos que U um subconjunto não
vazio de V é um subespaço vetorial de V se, e somente se,
(i) Para quaisquer u1 e u2 em U tivermos u1 + u2 ∈ U.
(ii) U com as operações de adição de vetores e multiplicação por escalar definidas em V é um
espaço vetorial sobre K.
(b) O conjunto C0 ([a, b]) = { f ∈ C ([a, b]) tal que f (a) = f (b) = 0} é um subespaço vetorial de
C ([a, b]).
Dados f e g em C0 ([a, b]) temos f (a) = f (b) = 0 e g(a) = g(b) = 0.
Como ( f + g)(a) = f (a) + g(a) = 0 + 0 = 0 e ( f + g)(b) = f (a) + g(b) = 0 + 0 = 0, então
f + g ∈ C0 ([a, b]).
Como α · f é tal que (α · f )(a) = α · f (a) = α · 0 = 0 e (α · f )(b) = α · f (b) = α · 0 = 0, logo
α · f ∈ C0 ([a, b]).
Além disso, como C0 ([a, b]) ⊂ C ([a, b]), portanto a adição é comutativa e associativa e as
propriedades de multiplicação por escalar M1 , M2 e M3 se verificam.
Finalmente, f0 ∈ C0 ([a, b]), dado f ∈ C0 ([a, b]) temos − f ∈ C0 ([a, b]), pois
(− f )(a) = − f (a) = 0 e (− f )(b) = − f (b) = 0; e se f ∈ C0 ([a, b]), temos 1 · f = f ∈ C0 ([a, b]).
Portanto, C0 ([a, b]) é subespaço vetorial de C ([a, b]).
Teorema 3.2.2 Seja V um espaço vetorial sobre K, um subconjunto U não vazio V é um subespaço
vetorial de V se, e somente se,
(i) Para quaisquer elementos u1 e u2 em U tivermos u1 + u2 ∈ U.
(ii) Para todo u ∈ U e todo α ∈ K tivermos α · u ∈ U.
Demonstração:
Suponhamos que U é subespaço vetorial de V , então U com a adição e a multiplicação por escalar de
V é um espaço vetorial e portanto valem (i) e (ii).
Reciprocamente, se U satisfaz (i) e (ii), como U ⊂ V , então as condições A1 , A2 , M1 , M2 , M3 e M4
são automaticamente satisfeitas, pois são válidas para todos os elementos de V .
Mostremos então as condições A3 e A4 .
A3 Para todo u ∈ U e todo α ∈ K, temos α · u ∈ U. Em particular, 0 · u = 0V ∈ U.
Portanto, U possui elemento neutro.
A4 Para todo u ∈ U e todo α ∈ K, temos α · u ∈ U. Em particular, (−1) · u = −u ∈ U.
Logo, todo elemento de U possui simétrico em U.
Observações 3.2.3 (a) Segue do teorema 3.2.2 que se U é um subconjunto não vazio de V e 0v ∈
/ U,
então U não é subespaço de V .
(b) Todo espaço vetorial V tem pelo menos dois subespaços vetoriais:
• O próprio V .
• O conjunto unitário {0V }.
Estes subespaços são chamados subespaços triviais de V .
88 Capítulo 3. Espaços Vetoriais
(a) O conjunto U = f ∈ C ([a, b]) tal que f (a) = 1 não é um subespaço vetorial
Exemplos 3.2.4
de C ([a, b]).
Solução: De fato, f0 ∈
/ U, pois f0 (a) = 0 6= 1.
(b) O subconjunto U = p(t) ∈ P3 (R); p(2) = 0 e p0 (−1) = 0
é um subespaço vetorial de
P3 (R).
Solução:
/ pois o polinômio nulo p0 está em U, já que p0 (t) = 0 para todo t ∈ R e p00 também é o
U 6= 0,
polinômio nulo.
Dados p e q em U e α ∈ R, então:
(i) (p + q)(2) = p(2) + q(2) = 0 + 0 = 0 e (p + q)0 (−1) = p0 (−1) + q0 (−1) = 0 + 0 = 0, por-
tanto p + q ∈ U.
(ii) (α · p)(2) = α · p(2) = α · 0 = 0 e (α · p)0 (−1) = α · p0 (−1) = α · 0 = 0, portanto α · p ∈ U.
De (i) e (ii) concluímos que U é subespaço de P3 (R).
−x + 3y + z = 0
(c) (c1 ) O conjunto solução do sistema homogêneo é um subespaço
2x − y − z = 0
vetorial de R3 .
Primeiro
observemos que U 6= 0, / pois o sistema admite pelo menos a solução trivial
x=0
y = 0 , portanto, (0, 0, 0) ∈ U.
z=0
−1 3 1 | 0
A matriz ampliada de S é , escalonando obtemos:
2 −1 −1 | 0
−1 3 1 | 0 −1 3 1 | 0
∼ .
2 −1 −1 | 0 0 5 1 | 0 L2 −→ L2 + 2L1
Assim, a solução do sistema é
−x + 3y + z = 0 x = 3y + z x = −2y
⇐⇒ ⇐⇒ , com y ∈ R.
5y + z = 0 z = −5y z = −5y
é um subespaço vetorial de Rn .
Solução:
Para mostrar isto vamos escrever o sistema acima na forma matricial:
a11 a12 · · · a1n x1 0
a21 a22 · · · a2n x2 0
.. · .. = .. .
.. .. ..
. . . . . .
am1 am2 · · · amn xn 0
Logo,
a11 a12 · · · a1n λ1 µ1
a21 a22 · · · a2n λ2 µ2
.. · .. + ..
.. .. ..
. . . . . .
am1 am2 · · · amn λn µn
a11 a12 · · · a1n λ1 a11 a12 · · · a1n µ1
a21 a22 · · · a2n λ2 a21 a22 · · ·
a2n µ2
= .. · .. + .. ·
.. .. .. .. .. .. ..
. . . . . . . . . .
am1 am2 · · · amn λn am1 am2 · · · amn µn
0 0 0
0 0 0
= .. + .. = .. .
. . .
0 0 0
Portanto, λ + µ é solução do sistema, ou seja, λ + µ ∈ U.
90 Capítulo 3. Espaços Vetoriais
α · λ1
α · λ2
(ii) Dado α ∈ R, mostremos que α · λ = ∈ U.
..
.
α · λn
a11 a12 · · · a1n α · λ1 a11 a12 · · · a1n λ1
a21 a22 · · · a2n α · λ2 a21 a22 · · · a2n λ2
· = · α
.. .. .. .. .. .. .. .. .. ..
. . . . . . . . . .
am1 am2 · · · amn α · λn am1 am2 · · · amn λn
a11 a12 · · · a1n λ1 0 0
a21 a22 · · · a2n λ2 0 0
= α · · = α · = .
.. .. .. .. .. .. ..
. . . . . . .
am1 am2 · · · amn λn 0 0
De (i) e (ii) concluímos que U é subespaço vetorial de Rn .
(d) O subconjunto de M2 (R) dado por:
x y
U= ; x − 2y + 3z = 0
z t
Logo, α · A ∈ U.
De (i) e (ii) concluímos que U é subespaço de M2 (R).
3.2 Subespaços Vetoriais 91
Portanto, A + B ∈ U.
(ii) Da propriedade T R3 de traço de matrizes quadradas, dado α ∈ R temos:
tr(α · A) = α · tr(A).
tr(α · A) = α · tr(A) = α · 0 = 0.
| {z }
0
Assim, α · A ∈ U.
De (i) e (ii) segue que U é um subespaço de Mn (R).
U = {A ∈ Mn (R); AT = A},
W = {A ∈ Mn (R); AT = −A}
são subespaços vetoriais de Mn (R).
Solução:
(f1 ) Como 0Tn×n = 0n×n , então U 6= 0.
/
(i) Sejam A e B estão em U, então
T
(A + B)T =2 AT + BT = A + B.
Portanto, A + B ∈ U.
(ii) Sejam A em U e α ∈ R, então
T
(α · A)T =3 α · AT = α · A.
Assim, α · A ∈ U.
De (i) e (ii) segue que U é um subespaço de Mn (R).
(f2 ) Como 0Tn×n = 0n×n = −0n×n , então W 6= 0.
/
92 Capítulo 3. Espaços Vetoriais
Portanto, A + B ∈ W .
(ii) Sejam A em W e α ∈ R, então
T
(α · A)T =3 α · AT = α · (−A) = −(α · A).
Assim, α · A ∈ W .
De (i) e (ii) segue que W é um subespaço de Mn (R).
(g) Verifique se o subconjunto U = {A ∈ Mn (R); A2 = A} de Mn (R) é um subespaço vetorial de
Mn (R).
Solução:
O subconjunto U não é subespaço de Mn (R), pois a matriz In , identidade de ordem n, está em U,
já que In2 = In · In = In .
Porém, 2 · I n ∈
/ U, pois (2 · I n ) · (2 · I n ) = 4 · I n 6= 2 · I n .
(h) O subconjunto U = p(t) ∈ P2 (R); p(−1) = p(1) = 0 é um subespaço vetorial de P2 (R).
Solução:
O subconjunto U 6= 0, / pois o polinômio nulo p0 está em U, já que p0 (t) = 0 para todo t ∈ R e
portanto, p0 (1) = p0 (−1) = 0.
Dados p e q em U e α ∈ R, então:
(p + q)(1) = p(1) + q(1) = 0 + 0 = 0
(i) , portanto p + q ∈ U.
(p + q)(−1) = p(−1) + q(−1) = 0 + 0 = 0
(α · p)(1) = α · p(1) = α · 0 = 0
(ii) , portanto α · p ∈ U.
(α · p)(−1) = α · p(−1) = α · 0 = 0
De (i) e (ii) concluímos que U é subespaço de P2 (R).
(i) Os seguintes subconjuntos
Dados f e g em U e α ∈ R, então:
(i) ( f + g)(−x) = f (−x) + g(−x) = f (x) + g(x) = ( f + g)(x), portanto f + g ∈ U.
(ii) (α · f )(−x) = α · f (−x) = α · f (x) = (α · f )(x), portanto α · f ∈ U.
De (i) e (ii) concluímos que U é subespaço de C ([−a, a]).
3.2 Subespaços Vetoriais 93
(i2 ) W 6= 0,
/ pois a função nula f0 está em U, já que:
Dados f e g em U e α ∈ R, então:
(i) ( f + g)(−x) = f (−x) + g(−x) = − f (x) + − g(x) = −( f + g)(x), portanto
f +g ∈ W.
(ii) (α · f )(−x) = α · − f (x) = −α · f (x) = (−α · f )(x), portanto α · f ∈ W .
Observações 3.2.5 (a) As funções do conjunto U do exemplo acima são chamadas funções
pares, enquanto que as funções do conjunto W são chamadas funções ímpares.
(b) Toda função f em C ([−a, a]) pode ser escrita como a soma de uma função par e uma função
ímpar.
f (x) + f (−x) f (x) − f (−x)
De fato, consideremos as funções g(x) = e h(x) = , temos:
2 2
f (−x) + f − (−x) f (−x) + f (x)
g(−x) = = = g(x),
2 2
enquanto que
f (−x) − f − (−x) f (−x) − f (x)
h(−x) = = = −h(x).
2 2
Solução:
De fato, 0R3 ∈
/ S, pois α(1, −1, 1) + (2, 1, 3) = (0, 0, 0)
α +2 = 0
α = −2
⇐⇒ −α + 1 = 0 ⇐⇒ α = 1 ,
α +3 = 0 α = −3
um absurdo!
94 Capítulo 3. Espaços Vetoriais
Demonstração:
(i) U ∩W 6= 0,
/ pois 0V ∈ U e 0V ∈ W , 0V ∈ U ∩W .
• Sejam v e u em U ∩W , então v e u estão em U e v e u estão em W .
Como U e W são subespaços de V , então v + u ∈ U e v + u ∈ W .
Consequentemente v + u ∈ U ∩W.
• Dado v em U ∩W , então v ∈ U e v ∈ W .
Dado α ∈ K, como U e W são subespaços de V , então α · v ∈ U e α · v ∈ W .
Logo, α · v ∈ U ∩W.
Portanto, U ∩W é subespaço de V .
(ii) U +W 6= 0,
/ pois 0V ∈ U e 0V ∈ W , 0V + 0V = 0V ∈ U +W .
• Sejam v1 e v2 em U +W , então v1 = u1 + w1 e v2 = u2 + w2 com u1 , u2 ∈ U e w1 , w2 ∈ W .
Como U e W são subespaços de V , então u1 + u2 ∈ U e w1 + w2 ∈ W .
Consequentemente, v1 + v2 = (u1 + w1 ) + (u2 + w2 ) = (u1 + u2 ) + (w1 + w2 ) ∈ U +W.
• Dado v em U +W , então v = u + w, com u ∈ U e w ∈ W .
Como U e W são subespaços de V , dado α ∈ K temos α · u ∈ U e α · w ∈ W .
Logo, α · v = α · (u + w) = α · u + α · w ∈ U +W.
Portanto, U +W é subespaço de V .
U ∪W = {(x, y) ∈ R; x = 0 ou y = 0},
ou seja, é o conjunto dos pontos do plano cartesiano que estão ou no eixo x ou no eixo y.
Assim, (1, 0) ∈ U ∪W e (0, −3) ∈ U ∪W , mas (1, 0) + (0, −3) = (1, −3) ∈
/ U ∪W.
3.3 Soma, Soma Direta e Intersecção de Subespaços 95
Solução:
x=y
• (x, y, z) ∈ U ∩W ⇐⇒
z=0
⇐⇒ (x, y, z) = (x, x, 0).
Solução:
a b a=d
• A= ∈ U ∩W ⇐⇒ ⇐⇒ a = d = 0 e c = −b
c d a = 0 e c = −b
0 b
⇐⇒ A = .
−b 0
0 b
Logo, U ∩W = ∈ M2 (R) .
−b 0
x y x y a b 0 d
• U +W = ∈ M2 (R); = +
z t z t c a −d e
a=x
x=a
b=y
x y y = b+d
Logo, ∈ U +W ⇐⇒ , assim tomando c=z podemos escre-
z t z = c−d
d=0
t = a+e
e = t −x
x y
ver um vetor de M2 (R) como soma de um vetor de U e um vetor de W .
z t
Solução:
A = AT
A é simétrica
• A ∈ U ∩W ⇐⇒ ⇐⇒ ⇐⇒ A = −A
A é anti-simétrica A = −AT
⇐⇒ 2A = 0n×n ⇐⇒ A = 0n×n .
Logo, U ∩W = {0Mn (R) }.
• Vimos no estudo de matrizes quadradas que toda matriz A ∈ Mn (R) pode ser escrita como:
A + AT A − AT
A= + .
2 2
| {z } | {z }
simétrica anti-simétrica
U = f ∈ F (R); f é par
Solução:
f é par f (−x) = f (x) para todo x ∈ R
• f ∈ U ∩W ⇐⇒ ⇐⇒
f é ímpar f (−x) = − f (x) para todo x ∈ R
⇐⇒ f (x) = − f (x) para todo x ∈ R ⇐⇒ 2 f (x) = 0 para todo x ∈ R
⇐⇒ f (x) = 0 para todo x ∈ R ⇐⇒ f = f0 a função nula.
Logo, U ∩W = { f0 }.
• Vimos que toda função f ∈ F (R) pode ser escrita como:
f (x) + f (−x) f (x) − f (−x)
f (x) = + .
2 2
| {z } | {z }
função par função ímpar
Solução:
x = −y e w = z
• (x, y, z, w) ∈ U ∩W ⇐⇒ ⇐⇒ −y = y + z − z
x = y+z−w
y=0
⇐⇒ 2y = 0 ⇐⇒ ⇐⇒ (x, y, z, w) = (0, 0, z, z).
x=0
Logo, U ∩W = {(x, y, z, w) ∈ R3 ; x = y = 0 e w = z}.
• U +W = R4 , veremos isto após enunciarmos o teorema da dimensão da soma e da intersec-
ção.
3.3 Soma, Soma Direta e Intersecção de Subespaços 97
Solução:
a3 = −a1
• p(t) = a0 + a1t + a2t 2 + a3t 3 ∈ U ∩W ⇐⇒
p(−1) = p0 (−1) = 0
a3 = −a1 a3 = −a1
⇐⇒ a0 − a1 + a2 − a3 = 0 ⇐⇒ a0 = a1 − a2 + a3
a1 − 2a2 + 3a3 = 0 2a2 = a1 + 3a3
a3 = −a1 a3 = −a1
⇐⇒ a0 = a1 − a2 − a1 = −a2 ⇐⇒ a2 = −a1
2a2 = a1 − 3a1 = −2a1 a0 = a1
Exemplos 4.1.1 (a) O vetor (−2, 3) é combinação linear dos vetores (1, 0) e (0, 1) de R2 , pois
(−2, 3) = −2(1, 0) + 3(0, 1).
(b) O polinômio p(t) = t 2 + 4t − 7 é combinação linear dos polinômios
Exemplos 4.1.3 (a) Em C ([0, 2π]) consideremos S = {cos x, sen x}, então
[S] = f ∈ C ([0, 2π]); f (x) = α1 cos x + α2 sen x; α1 , α2 ∈ R .
(b) Seja
1 0 0 0 1 0 0 0 1 0 0 0
S= 0 0 0 , 0 0 0 , 0 0 0 , 0 1 0 ,
0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0
0 0 1 , 0 0
0 ,
0 0 0 0 0 1
então
1 0 0 0 1 0 0 0 1 0 0 0
[S] = α 0 0 0 + α2 0 0 0 + α3 0 0 0 + α4 0 1 0
1
0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0
+ α5 0 0 1 + α6 0 0 0 ; α1 , · · · , α6 ∈ R
0 0 0 0 0 1
α1 α2 α3
= 0 α4 α5 ; α1 , · · · , α6 ∈ R .
0 0 α6
L (A) =
α1 −1 1 −1 + α2 1 −1 1 + α3 0 1 −1 + α4 0 0 1
= −α1 + α2 α1 − α2 + α3 −α1 + α2 − α3 + α4 , com α1 , α2 , α3 ∈ R .
Por exemplo, c = 1 2 −4 ∈ L (A), basta tomar α1 = 1, α2 = 2, α3 = 3 e α4 = −2.
(c2 )
−1 1 −1
+ α2 −1 + α3 1
1
C (A) =
α1
0 1 −1
0 0 1
−α1 + α2 − α3
α1 − α2 + α3
= , com α1 , α2 , α3 ∈ R .
α2 − α3
α3
−2
6
Por exemplo, v = −3 ∈ C (A), basta tomar α1 = 3, α2 = −1 e α3 = 2.
2
−1 1 −1 0 −x1 + x2 − x3 = 0
x1
1 −1 1
0
x1 − x2 + x3 = 0
(c3 ) O sistema · x2 = 0 é dado por que tem
0 1 −1 x2 − x3 = 0
x3
0 0 1 0 x3 = 0
x1 = 0
apenas a solução trivial x2 = 0
x3 = 0
p1 (t) = t 3 − 2
2 / p1 (t), p2 (t) ⊂ P3 (R), com
(d) Mostre que p(t) = t + t − 1 ∈
p2 (t) = t + 1
De fato,
Logo, um
polinômio em p1 (t), p2 (t) tem grau 3, ou grau 1 ou grau 0, consequentemente
p(t) ∈
/ p1 (t), p2 (t) .
102 Capítulo 4. Base e Dimensão de Espaços Vetoriais
Definição 4.1.3 Dizemos que um espaço vetorial V é finitamente gerado se existe S um subcon-
junto finito de V tal que V = [S].
h i
Exemplos 4.1.4 (a) Rn é finitamente gerado, pois Rn =
(1, 0, · · · , 0), (0, 1, · · · , 0), · · · , (0, 0, · · · , 1) .
h i
(b) Pn (R) é finitamente gerado, pois Pn (R) = 1, t, · · · , t n .
1 ··· 0 0 ··· 0
. .
(c) Mm×n (R) é finitamente gerado, pois Mm×n (R) = .. . . . .. , · · · , ... . . . ... .
0 · · · 0 m×n 0 · · · 1 m×n
Observação 4.1.5 Existem espaços vetoriais que não são finitamente gerados, por exemplo, o espaço
de funções reais F (R) não é finitamente gerado.
4.2 Dependência e Independência Linear 103
a1 v1 + a2 v2 + · · · + ak vk = 0V
Observações 4.2.1 (a) Em geral usamos a notação L.I. para vetores ou conjunto de vetores li-
nearmente independentes e a notação L.D. para designar vetores ou um conjunto de vetores
linearmente dependentes.
(b) Por convenção o conjunto vazio, 0/ ⊂ V , é linearmente independente.
Portanto, S é L.I.
(e) V = F (R) e S = {1, cos2 x, sen2 x}.
Solução:
a + b cos2 x + c sen2 x = 0 para todo x ∈ R, mas sabemos
que cos2 x + sen2 x = 1 para todo x ∈ R,
a = 1
portanto a equação acima tem solução não trivial b = −1
c = −1
Logo, S é L.D.
Verificação:
v2 = β · v1 ⇐⇒ 1 · v2 + (−β )v1 = 0V .
Agora vamos estabelecer o procedimento para obter um subconjunto finito de um espaço vetorial V
finitamente gerado sobre um corpo K, tal que todo vetor deste espaço vetorial pode ser escrito de
maneira única como combinação linear dos vetores deste subconjunto.
Definição 4.3.1 Seja V um espaço vetorial finitamente gerado sobre um corpo K, um subconjunto
finito B de V é uma base de V se, e somente se,
(i) B gera V , ou seja, [B] = V .
(ii) B é linearmente independente.
logo [B] = C2 .
• B é L.I. pela propriedade LI1 .
(c) B = {(1, 0), (0, 1), (i, 0), (0, i)} é base de C2 , como espaço vetorial sobre R, pois:
• Para todo (x + iy, z + iw) ∈ R2 podemos escrever
logo [B] = C2 .
• B é L.I., pois a equação abaixo tem apenas a solução trivial:
a=0
b=0
a(1, 0) + b(i, 0) + c(0, 1) + d(0, i) = (0, 0) ⇐⇒ (a + bi, c + di) = (0, 0) ⇐⇒
c=0
d=0
(d) B = {(1, −1), (0, 1), (1, 1) não é base de R2 , pois B é L.D. já que
(f) B = {(1, 0, 0), (0, 1, −1)} é base de R3 , pois não existem números reais a e b tais que, por
exemplo, a(1, 0, 0) + b(0, 1, −1) = (1, 2, 3).
1 0 0 1 0 0 0 0
(g) B = , , , é base de M2 (R), pois:
0 0 0 0 1 0 0 1
x y
• Para toda matriz ∈ M2 (R) podemos escrever
z t
x y 1 0 0 1 0 0 0 0
=x +y +z +t ,
z t 0 0 0 0 1 0 0 1
Observação 4.3.2 Os espaços vetoriais F (R) e C ([a, b]) não têm base finita, pois não existe um
conjunto finito de funções L.I que gera qualquer função.
Alguns espaços vetoriais têm uma base especial, considerada a base padrão, essa base é aquela em
que, em geral, é imediato escrever um vetor do espaço vetorial como combinação de seus vetores, e é
chamada base canônica.
Exemplos 4.3.3 (a) A base canônica de Rn é:
com Ei j ∈ Mm×n (R) a matriz que o elemento da posição i j é 1 e os demais elementos são iguais
a 0, ou seja,
0 ··· ··· ··· 0
.. .. .. .. ..
. . . . .
0 ··· 1 · · · 0
Ei j = |{z} .
posição i j
. . .. .. ..
.. .. . . .
0 ··· ··· · · · 0 m×n
a11 a12 · · · a1n
.. .. .. ..
Observemos que dado A = . . . . ∈ Mm×n (R), então
am1 am2 · · · amn m×n
1 0 ··· 0 0 1 ··· 0 0 0 ··· 1
.. .. .. .. + a .... .. .. + · · · + a .... .. .. + · · ·
A = a11 . . . . 12 . . . . 1n . . . .
0 0 ··· 0 0 0 ··· 0 0 0 ··· 0
0 0 ··· 0 0 0 ··· 0 0 0 ··· 0
.. .. .. .. + a .... .. .. + · · · + a .... .. ..
+ am1 . . . . m2 . . . . mn . . . .
1 0 ··· 0 0 1 ··· 0 0 0 ··· 1
= a11 E11 + a12 E12 + · · · + a1n E1n + · · · + a[ m1Em1 + am2 Em2 + · · · + amn Emn .
1 0 0 1 0 0 0 0
(b1 ) B = , , , é base canônica de M2 (R)
0 0 0 0 1 0 0 1
1 0 0 1 0 0 0 0 0 0 0 0
(b2 ) B = 0 0 , 0 0 , 1 0 , 0 1 , 0 0 , 0 0 é base canô-
0 0 0 0 0 0 0 0 1 0 0 1
nica de M3×2 (R)
(c) A base canônica de Pn (R) é:
B = 1, t, · · · , t n .
p(t) = a0 · 1 + a1 · t + · · · + an · t n .
B = {e1 , e2 , · · · , en , i e1 , i e2 , · · · , i en },
Agora vamos estabelecer o procedimento para obter a dimensão de um espaço vetorial V finitamente
gerado sobre um corpo K.
Teorema 4.3.4 Sejam V um espaço vetorial sobre o corpo K e S um subconjunto finito de V tal que
[S] = V , então:
(i) Podemos extrair de S uma base de V .
(ii) Qualquer subconjunto de V com mais do que #(S) vetores é necessariamente L.D.
Demonstração: De fato, se tivéssemos #(S) > #(B) pelo Teorema 4.3.4 (ii) teríamos S um conjunto
L. D., uma contradição!
Portanto, #(S) ≤ #(B).
Corolário 4.3.6 Seja V um espaço vetorial finitamente gerado sobre um corpo K, então qualquer
base V tem o mesmo número de elementos.
Demonstração: Sejam B1 e B2 bases de V pelo corolário acima como B1 é base e B2 é L.I devemos
ter #(B2 ) ≤ #(B1 ).
Por outro lado, como B2 é base e B1 é L. I. devemos ter #(B1 ) ≤ #(B2 ).
Portanto, #(B1 ) = #(B2 ).
Definição 4.3.2 Seja V um espaço vetorial sobre o corpo K finitamente gerado. A dimensão de
V , denotada por dimV , é o número de elementos de uma base de V .
Observações 4.3.7 (a) Se V é um espaço que tem uma base finita, dizemos que V é um espaço
vetorial de dimensão finita.
(b) No caso em queremos especificar o corpo considerado para obter a dimensão de um espaço
vetorial finitamente gerado indicamos a dimensão por dimK V.
4.3 Base e Dimensão 111
Corolário 4.3.9 Seja V um espaço vetorial finitamente gerado sobre um corpo K de dimensão n, se
B é um subconjunto finito de V com n elementos, então B é L. I. se, e somente se [B].
#(BU ) = 0 ⇐⇒ BU = 0/ ⇐⇒ U = {0V }
.
112 Capítulo 4. Base e Dimensão de Espaços Vetoriais
w = γ1 v1 + · · · + γk vk + δ1 w1 + · · · + δs ws .
Logo,
v = (α1 + γ1 )v1 + · · · + (αk + γk )vk + β1 u1 + · · · + βr ur + δ1 w1 + · · · + δs ws .
Portanto, v ∈ [B], como v é elemento arbitrário de V segue que V = [B].
Resta mostrar que B é L. I.
Se
α1 v1 + · · · + αk vk + β1 u1 + · · · + βr ur + γ1 w1 + · · · + γs ws = 0V . (4.3.1)
Consequentemente,
α1 v1 + · · · + αk vk + β1 u1 + · · · + βr ur = −(γ1 w1 + · · · + γs ws ) .
| {z } | {z }
∈U ∈W
Logo,
−(γ1 w1 + · · · + γs ws ) ∈ U ∩W.
Assim, como B1 = {v1 , · · · , vk } é base de U ∩W , então existem escalares δ1 , · · · , δk tais que:
−(γ1 w1 + · · · + γs ws ) = δ1 v1 + · · · + δk vk ⇐⇒ γ1 w1 + · · · + γs ws + δ1 v1 + · · · + δk vk = 0V .
Como B3 = {v1 , · · · , vk , w1 , · · · , ws } é base de W , segue que γ1 = · · · = γs = δ1 = · · · = δk = 0.
Logo, em 4.3.1 teremos
α1 v1 + · · · + αk vk + β1 u1 + · · · + βr ur = 0V .
Como B2 = {v1 , · · · , vk , u1 , · · · , ur } é base de U segue que α1 = · · · = αk = β1 = · · · = βr = 0.
Consequentemente, B é L. I. e é base de U +W.
Assim,
dim(U +W )k + r + s = (k + r) + (k + s) − k = dimU + dimW − dim(U ∩W ).
4.3 Base e Dimensão 113
Solução:
• (x, y, z) ∈ U ⇐⇒ (x, y, z) = (x, x, z) = x(1, 1, 0) + z(0, 0, 1).
Assim, BU = {(1, 1, 0), (0, 0, 1)} é uma base de U e dim U = 2.
| {z U} + dim
dim (U +W ) = dim | {zW} − |dim (U
{z
∩W ) = 4.
}
3 2 1
Solução:
• (x, y, z, w) ∈ U ⇐⇒
(x, y, z, w) = (x, −x, z, z) = (x, −x, 0, 0) + (0, 0, z, z) = x(1, −1, 0, 0) + z(0, 0, 1, 1).
• (x, y, z, w) ∈ W ⇐⇒
(x, y, z, w) = (y + z − w, y, z, w) = y(1, 1, 0, 0) + z(1, 0, 1, 0) + w(−1, 0, 0, 1).
Assim, BW = {(1, 1, 0, 0), (1, 0, 1, 0), (−1, 0, 0, 1)} é uma base de U e dim W = 3.
| {z U} + dim
dim (U +W ) = dim | {zW} − |dim (U
{z
∩W ) = 4.
}
3 2 1
Solução:
• p(t) = a0 + a1t + a2t 2 + a3t 3 ∈ U ⇐⇒
p(t) = a0 + a1t + a2t 2 + a3t 3 = a0 + a1t + a2t 2 − a1t 3 = a0 + a1 (t − t 3 ) + a2t 2 .
0 0 0
α11 α12 ··· α1n
α210 α220 ··· α2n0
.. .. .. ..
. . . .
00 0 0 0
A = 0αm1 αm2 ··· αmn .
0 0
α
(m+1)1 α(m+1)2 · · · α(m+1)n
.. .. .. ..
. . . .
αn10 αn20 ··· αnn0
é uma base de V .
(iii) Se posto de (A)= posto de (A0 ) = r < m ≤ n, então tanto S e S0 são subconjuntos L.D. de V .
Consideremos as r primeiras linhas de A0 , que são não nulas, é claro que o conjunto
{u1 , u2 , · · · , ur }, com
é um subconjunto L. I. de V .
Para obter uma base procedemos como no caso (ii), a diferença é que aqui a partir das r
primeiras linhas de A0 adicionando n − r linhas de modo a obter uma matriz A00n×n na forma
escalonada, digamos que seja:
0 0 0
α11 α12 ··· α1n
α0 α22 0 ··· α2n 0
21
.. .. . . .
.
. . . .
00 0 0 0
A = 0αr1 αr2 ··· αrn .
0 0
(r+1)1 α(r+1)2 · · · α(r+1)n
α
.. .. .. ..
. . . .
0
αn1 0
αn2 ··· 0
αnn
4.3 Base e Dimensão 117
é uma base de V .
Exemplos 4.3.14 Através do conjunto S obtenha uma base de V , nos seguintes casos:
(a) S = {1 + t, t 2 − t, t 3 + t 2 + t, 2t 3 − 1} subconjunto de V = P3 (R).
Solução:
A base canônica de P3 (R) é B = {1, t, t 2 , t 3 } e os vetores de S se escrevem como combinação
linear dos vetores de B da seguinte maneira:
1+t = 1 · t + 1 · t + 0 · t2 + 0 · t3
t2 − t = 0 · t − 1 · t + 1 · t2 + 0 · t3
.
t3 + t2 + t = 0 · t + 1 · t + 1 · t2 + 1 · t3
2t 3 − 1 = −1 · t + 0 · t + 0 · t 2 + 2 · t 3
Assim, a matriz dos coeficientes é:
1 1 0 0
0 −1 1 0
A=
0
,
1 1 1
−1 0 0 2
cuja forma escalonada pode ser:
1 1 0 0
0 −1 1 0
A0 =
0
.
0 2 1
0 0 0 −3
Logo, posto de (A) = 4 e portanto S é base de P3 (R).
1 −1 1 −2 3 −4
(b) S = , , subconjunto de V = M2 (R).
0 1 3 1 1 0
Solução:
1 0 0 1 0 0 0 0
B= , , , é a base canônica de M2 (R) e os vetores de
0 0 0 0 1 0 0 1
S se escrevem como combinação linear dos vetores de B da seguinte maneira:
1 −1 1 0 0 1 0 0 0 0
= 1· −1· +0· +1·
0 1 0 0 0 0 1 0 0 1
1 −2 1 0 0 1 0 0 0 0
= 1· −2· +3· +1· .
3 1 0 0 0 0 1 0 0 1
3 −4 1 0 0 1 0 0 0 0
= 3· −4· +1· +0·
1 0 0 0 0 0 1 0 0 1
118 Capítulo 4. Base e Dimensão de Espaços Vetoriais
Logo, posto de (A) = 3 e para encontrar uma base, basta completar a matriz acima de modo a
encontrar A00 uma matriz 4 × 4 na forma escalonada, por exemplo:
1 −1 0 1
0 −1 3 0
A00 = .
0 0 −2 −3
0 0 0 1
Logo,
0 1 −1 0 −1 0 0 0 0
B = , , ,
0 1 3 0 −2 −3 0 1
é base de M2 (R).
(c) S = {(1, 7, −3, 1), (3, 21, 0, −1), (2, 14, −3, −2)} subconjunto de R4
Solução:
B = {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} é a base canônica de R4 e a matriz dos
coeficientes dos vetores de S em relação a essa base é:
1 7 −3 1
A = 3 21 0 −1 ,
2 14 −3 −2
Assim, posto de (A) = 2 e para encontrar uma base, basta acrescentar duas linhas após as linhas
não nulas de A0 de modo a encontrar A00 uma matriz 4 × 4 na forma escalonada, por exemplo:
1 7 −3 1
0 1 1 1
A00 = .
0 0 3 −4
0 0 0 2
Logo,
B 0 = {(1, 7, −3, 1), (0, 1, 1, 1), (0, 0, 3, −4), (0, 0, 0, 2)}
é uma base de R4 .
4.4 Coordenadas de um Vetor 119
v = α1 · v1 + α2 · v2 + · · · + αn · vn = β1 · v1 + β2 · v2 + · · · + βn · vn
⇐⇒ α1 · v1 + α2 · v2 + · · · + αn · vn − β1 · v1 + β2 · v2 + · · · + βn · vn = 0V .
Logo,
(α1 − β1 ) · v1 + (α2 − β2 ) · v2 + · · · + (αn − βn ) · vn = 0V .
Como B é L.I. devemos ter necessariamente:
a1 − b 1 = 0
a1 = b1
a2 − b2 = 0
a2 = b2
.. ⇐⇒ ..
.
.
a −b = 0 a =b
n n n n
Definição 4.4.1 Seja V espaço vetorial sobre um corpo K de dimensão finita n, uma base orde-
nada de V é uma base em que está fixada a ordem dos vetores, ou seja, está fixado qual é o primeiro
vetor, qual é o segundo vetor até o n-ésimo vetor da base.
sobre C.
(c) B = e1 , e2 , · · · , en , i · e1 , i · e2 , · · · , i · en de Cn , é uma base ordenada de Cn como espaço
vetorial sobre R.
(d) B = E11 , E12 , · · · , E1n , E21 , E22 , · · · , E2n , · · · , Em1 , Em2 , · · · , Emn , a base canônica ordenada
de Mm×n (R), Ekl = [ei j ]m×n ∈ Mm×n (R) a matriz com o elemento da posição kl igual a 1 e os
demais elementos iguais a 0, é uma base ordenada de Mm×n (R).
v = a1 · v1 + a2 · v2 + · · · + an · vn .
a1
a2
Notação: [v]B = .
..
.
an
120 Capítulo 4. Base e Dimensão de Espaços Vetoriais
(b) v = 2 + 4t + t 2 e B = {1, 1 + t, 1 + t + t 2 }.
Solução:
Como 2 + 4t + t 2 = a + b(1 + t) + c(1 + t + t 2 ) = (a + b + c) + (b + c)t + ct 2 , temos:
a+b+c = 2 a = −2
b + c = 4 ⇐⇒ b = 3 ,
c = 1 c = 1
então
2 + 4t + t 2 = −2 + 3(1 + t) + (1 + t + t 2 ).
−2
Portanto, [v]B = 3 .
1
2 −3 1 1 0 1 0 0 0 0
(c) v = eB =
0 , , ,
4 7 1 1 1 1 1 1 0 1
Solução:
2 −3 1 1 0 1 0 0 0 0
Como =a +b +c +d
4 7 1 1 1 1 1 1 0 1
2 −3 a a+b
⇐⇒ =
4 7 a+b+c a+b+c+d
a = 2
a = 2
a+b = −3 b = −5
⇐⇒ ⇐⇒
a+b+c = 4
c = 7
a+b+c+d = 7 d = 3
2
−5
Portanto, [v]B = .
7
3
(d) Sejam V um espaço vetorial real de dimensão 4 e B = {v1 , v2 , v3 , v4 } uma base de V .
(d1 ) Mostre queB 0 ={v1 + v2 + v3 + v4 , v1 + v2 + v3 , v1 + v2 , v1 } é uma base de V .
3
−2
(d2 ) Se [v]B =
4 , determine [v]B0 .
1
4.4 Coordenadas de um Vetor 121
Solução:
(d1 ) Para mostrar que B 0 é base, basta mostrar que seus vetores são L. I., pois o número de
vetores de B 0 é igual a dimensão de V .
Assim, devemos analisar as soluções da equação:
a(v1 + v2 + v3 + v4 ) + b(v1 + v2 + v3 ) + c(v1 + v2 ) + dv1 = 0V
1
Queremos escrever
v = a(v1 + v2 + v3 + v4 ) + b(v1 + v2 + v3 ) + c(v1 + v2 ) + dv1
as soluções da equação:
a · ex + b · e−x ≡ 0.
se x = 0, então temos a + b = 0 a+b = 0 a = 0
Assim, 1 =⇒ 1 ⇐⇒
se x = ln 2, então temos 2a + 2 b = 0 2a + 2 b = 0 b = 0
Portanto, B é L.I. e consequentemente base de U.
ex + e−x 1 x 1 −x 1 1
(e2 ) Temos cosh x = = e + e e senh x = ex − e−x .
2 2 2 2 2
1 1
2 2
Logo, [cosh x]B = e [senh x]B =
1 1
−
2 2
122 Capítulo 4. Base e Dimensão de Espaços Vetoriais
escrevê-lo como:
v = α1 · v1 + α2 · v2 + · · · + αn · vn
. (4.5.1)
v = β1 · u1 + β2 · u2 + · · · + βn · un
α1 β1
α2 β2
Nosso objetivo é relacionar [v]B0 = e [v]B0 = , as coordenadas de v, respectivamente,
.. ..
. .
αn βn
em relação à base B e em relação à base B 0 .
Já que B 0 = {u1 , u2 , · · · , un } é base de V , podemos escrever os vetores de B como combinação linear
dos vetores de B 0 , ou seja,
v1 = a11 · u1 + a21 · u2 + · · · + an1 · un
v2 = a12 · u1 + a22 · u2 + · · · + an2 · un (4.5.2)
..
.
v = a ·u + a ·u + ··· + a ·u
n 1n 1 2n 2 nn n
Definição 4.5.1 Seja V espaço vetorial sobre um corpo K de dimensão finita, dadas B = {v1 , v2 , · · · , vn }
e B 0 = {u1 , u2 , · · · , un } bases ordenadas de V , a matriz
a11 a12 · · · a1n
a21 a22 · · · a2n
A = .. ,
.. . . ..
. . . .
an1 an2 · · · ann
Observações 4.5.1 (a) Comparando MB B com 4.5.2, vemos que esta matriz é obtida colocando as
0
coordenadas de vi , em relação a B 0 , na i-ésima coluna.
B é invertível e sua inversa, M B −1 , é a matriz M B 0 é matriz
(b) A matriz mudança de base MB 0 B 0 B
mudança de base de B 0 para B, ou seja,
B B B B
−1 0 0 −1
MB 0 = MB e, portanto MB = MB 0.
(c) Conhecendo a matriz MBB podemos encontrar as coordenadas de qualquer vetor v em relação à
0
base B multiplicando esta matriz pela matriz das coordenadas de v na base B.
0
Consequentemente,
B B
−1 0
[v]B = MB 0 · [v]B0 = MB · [v]B0 .
cos θ −sen θ
Exemplos 4.5.2 (a) A matriz Rθ = , com θ um número real, é a matriz de
sen θ cos θ
rotação do ângulo θ no sentido anti-horário.
−1 cos θ sen θ
A matriz Rθ é invertível com inversa Rθ = .
−sen θ cos θ
Para cada θ ∈ R o conjunto
R−1 −1 B
θ é a matriz de mudança de B para B , ou seja, Rθ = MB 0 .
0
π π
Determine a matriz de mudança de base da canônica de R2 para B 0 para θ = e para θ = .
2 4
Solução:
Devemos determinar:
−1 cos π2 sen π2 0 1 π
• Rπ = π π = , que é a matriz rotação de .
2 −sen 2 cos 2 −1 0 2
124 Capítulo 4. Base e Dimensão de Espaços Vetoriais
√ √
2 2
2 2
cos π4 sen π4
π
−1
• Rπ = = √ , que é a matriz rotação de .
4
π
−sen 4 cos 4 π √ 4
2 2
−
2 2
(b) Em P3 (R), determine a matriz mudança de base MB B da base canônica B para a base
0
B = {1 + t, t − t, t + t + t, 2t − 1}.
0 2 3 2 3
Solução:
Vamos escrever os vetores de B 0 em relação aos vetores de B, pois a base B é canônica:
(c) Sejam R3 e U o subespaço que tem base B 0 = {(1, 5, 8), (4, −1, 5)}, sabendo que
B0 = 1 1
MB é a matriz mudança de base de B 0 para B, determine a base B.
2 −1
Solução:
Seja B = {v1 , v2 } temos:
(1, 5, 8) = v1 + 2v2
=⇒ 3v2 = (−3, 6, 3) ⇐⇒ v2 = (−1, 2, 1).
(4, −1, 5) = v1 − v2
Definição 5.1.1 Seja V um espaço vetorial sobre o corpo R, um produto interno em V é uma
aplicação
h·, ·i : V ×V −→ R
(u, v) 7−→ hu, vi
que satisfaz as seguintes propriedades:
Seja V espaço vetorial sobre R com um produto interno h·, ·i, dados v, u, w elementos quaisquer em V
e λ e µ escalares arbitrários em R valem as seguintes propriedades:
Verificação:
PIR5 De fato,
EV PI
h0V , vi =1 h0 · v, vi =R4 0 · hv, vi = 0.
Como, hv, 0V i = h0V , vi, segue a propriedade.
PIR6 Com efeito,
PI PI PI
hv, λ ui =R1 hλ u, vi =R4 λ hu, vi =R1 λ hv, ui.
PIR7 De fato,
PI PI PI
hv, u + wi =R1 hu + w, vi =R3 hu, vi + hw, vi =R1 hv, ui + hv, wi.
PIR8 De fato,
PI PI
hλ v + µu, wi =R3 hλ v, wi + hµu, wi =R4 λ hv, wi + µhu, wi.
Analogamente mostramos que hv, λ u + µwi = λ hv, ui + µhv, wi.
Observações 5.1.1 (a) A propriedade PIR8 nos diz que o produto interno, em V um espaço vetorial
real, é uma aplicação bilinear, ou seja, é uma aplicação linear à direita e à esquerda.
(b) Em um espaço vetorial V sobre R pode estar definido mais do que um produto interno.
(c) Em alguns espaços vetoriais sobre R há um produto interno “mais comum”, que chamamos de
produto interno usual, no entanto isto não ocorre em todos os espaços vetoriais sobre R.
h·, ·i : Rn × Rn −→ R
(x1 , · · · , xn ), (y1 , · · · , yn ) 7−→ h(x1 , · · · , xn ), (y1 , · · · , yn )i = x1 y1 + · · · + xn yn .
⇐⇒ x1 = · · · = xn = 0 ⇐⇒ (x1 , · · · , xn ) = 0Rn .
h(x1 , x2 ), (y1 , y2 )i = x1 y1 + x2 y2 .
Assim, por exemplo, (1, −2), (3, 1) = 3 − 2 = 1 e h(1, 0), (0, 1)i = 0 + 0 = 0.
(a2 ) Em R3 o produto interno usual é dado por:
h(x1 , x2 , x3 ), (y1 , y2 , y3 )i = x1 y1 + x2 y2 + x3 y3 .
Por exemplo,
1
Assim, por exemplo, como f (x) = e g(x) = x2 − 1, ambas são funções contínuas em [0, 1],
x+1
então: Z1 Z 1
1 1
h f , gi = 2
,x −1 = · (x2 − 1) dx = (x − 1) dx
x+1 0 x+1 0
1
= (x2 − x + c) = (1 − 1 + c) − (0 − 0 + c) = 0.
0
a11 a12 b11 b12
(c1 ) Em M2 (R) o produto interno usual, dadas A = eB= , temos:
a21 a22 b21 b22
T b11 b21 a11 a12
hA, Bi = tr(B · A) = tr ·
b12 b22 a21 a22
a11 b11 + a21 b21 a12 b11 + a22 b21
= tr
a11 b12 + a21 b22 a12 b12 + a22 b22
= ∑ ai j bi j .
1≤i, j≤3
Observações 5.1.3 (a) O espaço vetorial Rn com um produto interno é chamado espaço euclidi-
ano n-dimensional.
(b) O espaço vetorial Pn (R) tem vários produtos internos, no entanto não há um usual, por exemplo:
h·, ·i : P2 (R) × P2 (R) −→ R
(p, q) 7−→ hp, qi = p(−1)q(−1) + p(0)q(0) + p(1)q(1),
é um produto interno em P2 (R).
5.2 Produto Interno em Espaços Vetoriais Complexos 129
para quaisquer u e v em V .
Demonstração:
Logo
hu, vi2 = hu, λ ui2 = hu, λ ui · hu, λ ui = λ hu, ui · hu, λ ui = hu, ui · hλ u, λ ui = hu, ui · hv, vi.
A equação acima é uma equação do segundo grau na variável λ , como é positiva o discriminante
deve satisfazer ∆ < 0, ou seja,
∆ = 4hu, vi2 − 4hu, ui · hv, vi < 0 ⇐⇒ hu, vi2 < hu, ui · hv, vi.
Observação 5.2.1 (a) Segue das propriedades de simetria hermitiana, distributividade e homoge-
neidade que:
(i) hv, u + wi = hv, ui + hv, wi, para quaisquer u, w, v ∈ V .
(ii) hu, λ vi = λ hu, vi, para quaisquer u, v ∈ V e todo λ ∈ C.
(b) A simetria hermitiana é necessária para garantir a propriedade de positividade.
De fato, em V um espaço vetorial complexo, dado v ∈ V , com v 6= 0V , se exigíssemos a simetria
teríamos:
hiv, ivi = i2 hv, vi = −hv, vi < 0
|{z}
>0
contrariando a positividade.
Quando consideramos a simetria hermitiana temos:
h·, ·i : Cn × Cn −→ C
(u1 , · · · , un ), (v1 , · · · , vn ) 7−→ h(u1 , · · · , un ), (v1 , · · · , vn )i
= u1 v1 + · · · + un vn .
h(u1 , u2 ), (v1 , v2 )i = u1 v1 + u2 v2 .
h(u1 , u2 , u3 ), (v1 , v2 , v3 )i = u1 v1 + u2 v2 + u3 v3 .
Observação 5.2.3 O espaço vetorial Cn com um produto interno é chamado espaço unitário n-
dimensional.
Exemplos 5.3.1 (a) Em R3 , com o produto interno usual, os vetores u = (7, −3, 2) e v = (2, 8, 5)
são ortogonais, pois
(7, −3, 2), (2, 8, 5) = 14 − 24 + 10 = 0.
1 2 0 −1
(b) Em M2 (R, com o produto interno usual, as matrizes A = eB= são
−2 4 1 1
1 2 0 −1
ortogonais, pois vimos que , = 0.
−2 4 1 1
(c) Em C2 , com o produto interno usual, os vetores u = (1 + i, i) e v = (i, 1 − i) são ortogonais, pois
Verificação:
Observação 5.3.2 Segue das propriedades VO4 e VO5 que se U = [u1 , u2 , · · · , uk ] é subespaço de V
e v ∈ V é tal que v ⊥ u1 , v ⊥ u2 , · · · , v ⊥ uk , então v ⊥ u para todo u ∈ U.
Exemplos 5.3.3 (a) No espaço euclidiano n-dimensional, Rn munido do produto interno usual, a
base canônica B = {e1 , e2 , · · · , en } é uma base ortogonal, pois hei , e j i = 0 se i 6= j.
(b) No espaço vetorial Mn (R) munido do produto interno usual, a base canônica
B = E11 , · · · , E1n , · · · , En1 , · · · , Enn é uma base ortogonal, pois Ei j , Ekl = 0 se i 6= k ou
j 6= l.
(c) No espaço unitário n-dimensional, Cn munido do produto interno usual, a base canônica
B = {e1 , e2 , · · · , en } é uma base ortogonal, pois hei , e j i = 0 se i 6= j.
(d) A base B = {(−1, 2), (2, 1)} é uma base ortogonal de R2 com o produto interno usual, pois
h(−1, 2), (2, 1)i = −2 + 2 = 0.
(e) A base B = {(1 − i, i), (i, 1 + i)} de C2 , como espaço vetorial sobre C, é uma base ortogonal,
pois como vimos acima que (1 − i, i), (i, 1 + i) = 0.
Verificação:
para quaisquer u e v em V .
Demonstração: Vimos no teorema 5.1.4 que hu, vi2 ≤ hu, ui · hv, vi, ou seja,
q q q q
2 2 2
hu, vi ≤ kuk · kvk =⇒ hu, vi ≤ kuk · kvk = kuk · kvk2 =⇒ |hu, vi| ≤ kuk · kvk.
2 2 2 2
Demonstração: Como ku + vk ≥ 0 e kuk + kvk ≥ 0, para mostrar que ku + vk ≤ kuk + kvk, basta
mostrar que:
2 2
ku + vk ≤ kuk + kvk .
Mas,
ku + vk2 = hu + v, u + vi = hu, ui + hu, vi + hv, ui + hv, vi = kuk2 + 2hu, vi + kvk2
Cor.5.3.6 2
≤ kuk2 + 2|hu, vi | + kvk2 ≤ kuk2 + 2kvk · kuk + kvk2 = kuk + kvk .
Portanto, ku + vk ≤ kuk + kvk para quaisquer u e v em V .
134 Capítulo 5. Espaços Vetoriais com Produto Interno
(c) Dados u e v em V um espaço vetorial euclidiano, o número real não negativo ku − vk é chamado
distância de u a v, por exemplo, em R2 com a norma usual dados u = (u1 , u2 ) e v = (v1 , v2 )
temos:
q
ku − vk = k(u1 − v1 , u2 − v2 )k = (u1 − v1 )2 + (u2 − v2 )2 .
Definição 5.3.4 Seja V, k k um espaço vetorial normado, dados u e v vetores não nulos em V ,
vimos na desigualdade de Cauchy-Schwarz (5.3.6) que hu, vi ≤ kuk · kvk, consequentemente:
hu, vi
−kuk · kvk ≤ hu, vi ≤ kuk · kvk ⇐⇒ −1 ≤ ≤ 1.
kuk · kvk
hu, vi
cos θ = ,
kuk · kvk
Demonstração:
Logo,
(ii) Como ku ± vk2 = hu ± v, u ± vi = kuk2 ± 2hu vi + kvk2 e na observação 5.3.8 (e) vimos que
hu, vi = kuk · kvk · cos θ , segue que:
√ √ √ 2 √
s
2 2 √
r
2 2 2 2
(− 2)2
, 0, − = 2
+0 + 2
= + = 1 = 1.
2 2 2 2 4 4
2 1+i i
(b) Em C o vetor u = √ , √ é unitário, pois:
3 3
s
1+i i 1+i i 1+i i
√ ,√ = √ ,√ , √ ,√
3 3 3 3 3 3
s
2 1 √
r
1+i 1−i i −i
= √ √ +√ √ = + = 1 = 1.
3 3 3 3 3 3
v
Observação 5.3.11 Se v é um vetor não nulo em um espaço normado V , então o vetor u = é
kvk
um vetor unitário.
De fato
v 1 1
kuk = = · kvk = · kvk = 1.
kvk kvk kvk
Definição 5.3.6 Seja V um espaço vetorial sobre o corpo K (K = R ou K = C) com norma k·, ·k,
dizemos que u e v em V são vetores ortonormais se, e somente se, u e v são vetores ortogonais e
unitários, ou seja, se e somente se,
Exemplos 5.3.13 (a) No espaço euclidiano n-dimensional, Rn munido do produto interno usual, a
base canônica B = {e1 , e2 , · · · , en } é uma base ortonormal, pois B é base ortogonal e kei k = 1
para todo i ∈ {1, , n}.
(b) No espaço vetorial Mn (R) munido do produto interno usual, a base canônica
B = E11 , · · · , E1n , · · · , En1 , · · · , Enn é uma base ortonormal, pois B é base ortogonal e
Demonstração:
(i) Como B é base V existem escalares a1 , a2 , · · · , an tais que:
v = a1 v1 + a2 v2 + · · · + an vn .
Logo,
hv, v1 i
Como kv1 k 6= 0 segue que a1 = .
kv1 k2
5.3 Bases Ortogonais e Bases ortonormais 137
hv, v2 i hv, vn i
a2 = 2
, · · · , an = .
kv2 k kvn k2
Portanto,
hv, v1 i hv, v2 i hv, vn i
v= 2
v1 + 2
v2 + · · · + vn . (5.3.1)
kv1 k kv2 k kvn k2
(ii) Como consequência da ortogonalidade dos vetores de B vimos acima em 5.3.1 que:
Exemplos 5.3.15 (a) Escreva o vetor v = (1, 2) como combinação linear da base ortogonal
B = {(1 + i, i), (i, 1 − i)} de C2 :
Como
h(1, 2), (1 + i, i)i = 1(1 − i) + 2(−i) = 1 − 3i
h(1, 2), (i, 1 − i)i = 1(−i) + 2(1 + i) = 2 + i
,
k(1 + i, i)k2 = h(1 + i, i), (1 + i, i)i = (1 + i)(1 − i) + i(−i) = 3
k(i, 1 − i)k2 = h(i, 1 − i), (i, 1 − i)i = i(−i) + (1 − i)(1 + i) = 3
portanto:
1 − 3i 2+i
(1, 2) = (1 + i, i) + (i, 1 − i) .
3 3
(b) Escreva √o vetor √ v = (3, 4, −2)
√ como √ combinação linear da base ortogonal
2 2 2 2
B= , 0, − , (0, 1, 0), , 0, de R3 :
2 2 2 2
√ √ √ √
2 2 2 2
(3, 4, −2) = (3, 4, −2), , 0, − , 0, − + (3, 4, −2), (0, 1, 0) (0, 1, 0)
2√ 2
√ √2 √ 2
2 2 2 2
+ (3, 4, −2), , 0, , 0,
2 2 2 2 .
√ √ √ √ √ √
5 2 2 2 2 2 2
= , 0, − + 4 (0, 1, 0) + , 0,
2 2 2 2 2 2
138 Capítulo 5. Espaços Vetoriais com Produto Interno
Portanto, a partir de uma base ortogonal podemos obter uma base ortonormal.
No que segue vamos apresentar um procedimento para obter uma base ortogonal a partir de uma base
qualquer de V , para isso vamos definir a projeção de um vetor na direção de outro vetor não nulo.
Definição 5.4.1 Seja V um espaço vetorial sobre R munido de um produto interno, dados que u e
v em V , com u vetor não nulo, a projeção ortogonal de v na direção de u, indicada por pro ju u, é o
seguinte vetor:
hv, ui
proju v = u.
kuk2
Observação 5.4.2 Dados que u e v em V , com u vetor não nulo, os vetores w = v − proju v e u são
ortogonais.
De fato,
hv, ui hv, ui hv, ui
hw, ui = hv − proju v, ui = v − 2
u, u = hv, ui − 2
· hu, ui = hv, ui − · kuk2 = 0.
kuk kuk kuk2
w1 = v1
w2 = v2 − projv2 w1
w3 = v3 − projv3 w1 − projv3 w2
..
.
wn = vn − projvn w1 − projvn w2 − · · · − projvn wn−1 ,
hv3 , w1 i hv3 , w2 i
= hv3 , w1 i − 2
· hw1 , w1 i − · hw2 , w1 i = 0.
kw1 k kw2 k2 | {z }
=0
Exemplos 5.4.4 (a) A partir da base B de M2 (R), com o produto interno usual, dada abaixo:
1 1 0 1 0 0 0 0
B= ,
1 1 1 1 1 1 0 1
(b) Encontre uma base ortogonal de C3 , como espaço vetorial sobre C, que contenha o vetor
v = (1, 0, 3i).
Solução:
− 43 1
3
= 1
4
1 =⇒ kw2 k2 =
4 4 4
3 1
0 0 1 1 0 0 −4 4
, , 1 1
1 1 − 34 1
0 0 1 1 1 1 1 1 4 4 4
w3 = − − 3 1 1
1 1 4 1 1 4 4
4
− 34 1
0 − 32
0 0 1 1 1 2 2
= − − 1
4
1 = 1 1 =⇒ kw3 k2 =
1 1 2 1 1 3 4 4 3 3 3
140 Capítulo 5. Espaços Vetoriais com Produto Interno
3 1
1 1 0 0 0 0 −4 4
, , 1 1
0 1 − 34 1
0 0 1 1 0 11 1 4 4 4
w4 = − − 3 1 1
0 1 4 1 1 4 4
4
0 − 23
0 0
, 1 1
0 1 0 − 23
3 3
− 2 1 1
3 3 3
− 34 1
0 0 1 1 1 1 1 0 0 0 0 1
= − − 4 − = =⇒ kw4 k2 = .
0 1 4 1 1 3 1
4
1
4 2 0 1 − 12 1
2 2
Logo, ( 3 1
)
0 − 23
1 1 −4 0 0
B0 = , 4 , 1 ,
1 1 1
4
1
4
1
3 3 − 12 1
2
( √ )
− 43 1 2 √
1 1 1 2 3 0 −3 0 0
= · , √ · 4 , √ · 1 , 2·
2 1 1 3 4
1 1
4 2 3
1
3 − 12 12
( " √3 √
3
# " √ # )
1
2
1
2 − √2 √6 √
0 − √36 √
0 √
0
= 1 1 , 3 3
, 6 6
, 2 2
2 2 6 6 6 6
− 2 2
w1 = v = (1, 0, 3i)
=0
z }| {
(0, 1, 0), (1, 0, 3i)
w2 = (0, 1, 0) − 2
(1, 0, 3i) = (0, 1, 0)
(1, 0, 3i)
=0
z }| {
(0, 0, 1), (1, 0, 3i) (0, 0, 1), (0, 1, 0)
w3 = (0, 0, 1) − (1, 0, 3i) − 2 2
(0, 1, 0)
(1, 0, 3i)
(0, 1, 0)
3i −3i 1
= (0, 0, 1) − (1, 0, 3i) = , 0,
10 10 10
−3i 1
Portanto, B = (1, 0, 3i), (0, 1, 0), , 0, é base ortogonal de C3 que contém v.
10 10
5.5 Complemento Ortogonal 141
Proposição 5.5.1 Sejam V um espaço vetorial sobre um corpo K, dimensão n, com produto interno
e S⊥ o complemento ortogonal de S um subconjunto não vazio de V , então:
(i) S⊥ é um subespaço de V .
(ii) Se S é um subespaço de V , então V = S ⊕ S⊥ .
Demonstração:
(i) 0V ∈ S⊥ , pois pela propriedade PIR5 de produto interno h0V , ui = 0 para todo u ∈ V , portanto
h0V , ui = 0 para todo u ∈ S.
Sejam v1 e v2 em S⊥ , então: hv1 , ui = 0 e hv2 , ui = 0 para todo u ∈ S.
PI
Logo, hv1 + v2 , ui =R3 hv1 , ui + hv2 , ui = 0 + 0 = 0 para todo u ∈ S.
Portanto, v1 + v2 ∈ S⊥ .
Sejam v ∈ S⊥ e λ ∈ K, então: hv, ui = 0 para todo u ∈ S.
PI
Logo, hλ v, ui =R4 λ · hv, ui = λ · 0 = 0 para todo u ∈ S.
Portanto, λ v ∈ S⊥ .
Consequentemente, S⊥ é um subespaço de V .
(ii) Seja BS = {v1 , · · · , vk } uma base ortogonal de S, pelo Teorema do Completamento 4.3.10
podemos estender essa base a uma base de V , dígamos que seja: B 0 = {v1 , · · · , vk , wk+1 , · · · , wn }.
Aplicando o processo de ortogonalização de Gram-Schmidt à base B 0 obtemos uma base ortogo-
nal B de V , como os vetores v1 , · · · , vk são dois a dois ortogonais, esses serão os k primeiros
vetores de B, ou seja, B = {v1 , · · · , vk , vk+1 , · · · , vn }.
Como S = v1 , · · · , vk e B é base ortogonal de V , segue que vk+1 , · · · , vn ⊂ S⊥ .
Além disso, dado u ∈ S⊥ , então hu, vi = 0 para todo v ∈ S, e portanto, hu, v1 i = · · · = hu, vk i = 0
e pela Proposição 5.3.14 (i) temos:
hu, v1 i hv, vk i hv, vk+1 i hv, vn i
u = 2
v1 + · · · + 2
vk + 2
vk+1 + · · · + vn
kv1 k kvk k kvk+1 k kvn k2
Como {vk+1 , · · · , vn } é subconjunto L.I. de V segue ainda que BS⊥ = {vk+1 , · · · , vn } é base de
S⊥ .
Logo,
V = v1 , · · · , vk ⊕ vk+1 , · · · , vn = S ⊕ S⊥ .
142 Capítulo 5. Espaços Vetoriais com Produto Interno
Solução:
x − y − w = 0 x = y+w
(a) Observemos (x, y, z, w) ∈ W ⇐⇒ ⇐⇒
2y − z − w = 0 z = 2y + w
w1 = (1, 0, 1, 1)
(1, 0, 1, 1), (1, 1, 2, 0)
w2 = (1, 1, 2, 0) − 2
(1, 0, 1, 1)
(1, 0, 1, 1)
3
= (1, 1, 2, 0) − (1, 0, 1, 1) = (1, 1, 2, 0) − (1, 0, 1, 1) = (0, 1, 1, −1).
3
Logo B 0 = (1, 0, 1, 1), (0, 1, 1, −1), (0, 0, 1, 0), (0, 0, 0, 1) é uma base de R4 obtida pelo
completamento de B10 .
Consequentemente,
Portanto,
1 1 1 1 1 1
B = (1, 0, 1, 1), (0, 1, 1, −1), − , − , , 0 , − , , 0,
3 3 3 3 3 3
e
BW ⊥ = (−1, −1, 1, 0), (−1, 1, 0, 1) é base de W ⊥ .
Z 0 Z 1 Z 1 Z 1
f é ímpar
− f (−u)·g(−u) du+ f (x)·g(x) dx = 0 =⇒ − f (u)·g(−u) du+ f (x)·g(x) dx = 0.
1 0 0 0
Portanto, como u e x são variáveis mudas, podemos substituí-las por t, outra variável muda, e
assim temos:
Z 1 Z 1 Z 1
− f (t) · g(−t) dt + f (t) · g(t) dt = 0 ⇐⇒ f (t) · g(t) − g(−t) dt = 0,
0 0 0
para toda função f ∈ W , consequentemente devemos ter g(t) − g(−t) = 0 para todo t ∈ [−1, 1].
Portanto, g(−t) = g(t) para todo t ∈ [−1, 1], ou seja, g é função par.
Daí que
W ⊥ = g ∈ C ([−1, 1]); g é par .
III
Transformações Lineares
Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
6. Transformações Lineares
Dados A e B conjuntos não vazios uma aplicação de A em B é uma relação biunívoca que a cada
elemento a em A associa um único elemento em B.
Uma transformação linear é uma aplicação entre dois espaços vetoriais que preserva linearidade, por
exemplo as rotações e as reflexões do plano no plano são lineares.
T: R2 −→ R2
.
(x, y) 7−→ T (x, y) = (x, −y)
T: R2 −→ R2
.
(x, y) 7−→ T (x, y) = (−x, −y)
T: R2 −→ R2
.
(x, y) 7−→ T (x, y) = (−x, y)
148 Capítulo 6. Transformações Lineares
Figura 6.1.1: Ponto X e as imagens das reflexões pelos eixos x e y e pela origem
π
Figura 6.1.2: Ponto X e as imagens das rotações de θ , eπ
2
De fato:
(i) Para quaisquer (x1 , y1 ) e (x2 , y2 ) em R2 temos:
T (x1 , y1 ) + (x2 , y2 ) = T (x1 + x2 , y1 + y2 ) = a(x1 + x2 ), b(y1 + y2 )
= T (x1 , y1 ) + T (x2 , y2 ).
Logo, as reflexões do exemplo (a) são lineares, no item (a1 ) a = 1 e b = −1; no item (a2 )
a = b = −1 e no item (a3 ) a = −1 e b = 1.
(d) As translações não triviais do plano:
T(a,b) : R2 −→ R2
, com a 6= 0 ou b 6= 0
(x, y) 7−→ T(a,b) (x, y) = (x, y) + (a, b)
De fato:
(i) Para quaisquer p(t) e q(t) em Pn (R) temos:
∗
T p(t) + q(t) = T (p + q)(t) = (p + q)0 (t) = p0 (t) + q0 (t) = T p(t) + T q(t) .
TA : Rn −→ Rm
x1
x2
(x1 , x2 , · · · , xn ) 7−→ TA (x1 , x2 , · · · , xn ) = Am×n · ,
..
.
xn
ou seja,
a11 a12 · · · a1n x1
a21 a22 · · · a2n x2
TA (x1 , x2 , · · · , xn ) = ·
.. .. .. .. ..
. . . . .
am1 am2 · · · amn xn
TA : R3 −→ R2
x
1 3 −1
(x, y, z) −
7 → TA (x, y, z) = · y
0 2 1
z
= (x + 3y − z, 2y + z).
Verificação:
Logo, − T (v) = T (−v) ⇐⇒ −T (v) = T (−v).
T L3 De fato,
(i) TL
T (v − u) = T v + (−u) = T (v) + T (−u) =2 T (v) − T (u).
Observação 6.1.3 Se T : V −→ V é uma transformação linear, com Dom(T ) = CD(T ), dizemos que
T é um operador linear.
152 Capítulo 6. Transformações Lineares
Demonstração:
(i) Sejam u e v em V , então:
T é linear
S ◦ T (u + v) = S T (u + v) = S T (u) + T (v)
S é linear
= S T (u) + S T (v) = S ◦ T (u) + S ◦ T (v).
No último exemplo de transformações lineares vimos que toda matriz define uma transformação
linear. Reciprocamente, se V e W são espaços vetoriais sobre um corpo K, ambos de dimensão
finita, dada uma transformação linear T : V −→ W , considerando B = {v1 , v2 , · · · , vn } base de V e
B 0 = {w1 , w2 , · · · , wm } base de W podemos associar a T uma matriz em relação às bases B e B 0 .
De fato, para todo v ∈ V podemos escrever
v = α1 v1 + α2 v2 + · · · + αn vn , com α1 , α2 , · · · , αn ∈ K.
Por outro lado, como T (v1 ), T (v2 ), · · · , T (vn ) ∈ W também podemos escrever:
T (v1 ) = a11 w1 + a21 w2 + · · · + am1 wm
Logo,
T (v) = T (α1 v1 + α2 v2 + · · · + αn vn ) = α1 T (v1 ) + α2 T (v2 ) + · · · + αn T (vn )
= α1 (a11 w1 + a21 w2 + · · · am1 wm ) + α2 (a12 w1 + a22 w2 + · · · am2 wm )
+ · · · + αn (a1n v1 + a2n w2 + · · · amn wm )
= (α1 a11 + α2 a12 + · · · αn a1n )w1 + (α1 a21 + α2 a22 + · · · αn a2n )w2
+ · · · + (α1 am1 + α2 am2 + · · · αn amn )wm
a11 a12 · · · a1n α1
a21 a22 · · · a2n α2
= w1 w2 · · · wm · · .. . (6.2.2)
1×m .. .. .. .
.
. . . . .
am1 am2 · · · amn αn n×1
| {z }
A m×n
6.2 Matriz de uma Transformação Linear 153
Logo,
T (1, 0, 0) = (1, 3) = 1(1, 0) + 3(0, 1)
Assim temos:
1 0
T = (1, 0, 0) = 1(1, 0, 0) + 0(0, 1, 0) + 0(0, 0, 1),
0 0
0 1
T = (1, 1, 0) = 1(1, 0, 0) + 1(0, 1, 0) + 0(0, 0, 1),
0 0
0 0
T = (1, −1, 2) = 1(1, 0, 0) − 1(0, 1, 0) + 2(0, 0, 1),
1 0
0 0
T = (0, 0, −1) = 0(1, 0, 0) + 0(0, 1, 0) − 1(0, 0, 1).
0 1
T (x, y) = 2x + y t + 3y t 2 − x t 3 .
Logo,
T (1, 0) = 2 − t 3 e T (0, 1) = t + 3t 2 .
Portanto, a matriz de T em relação às bases canônicas é:
T (e1 ) T (e2 )
↓ ↓
2 0 ← coeficiente de grau 0
[T ] = ← coeficiente de grau 1
0 1
0 3 ← coeficiente de grau 2
−1 0 ← coeficiente de grau 3
e B 0 = {1, 1 + t, 1 + t 2 , t + t 3 } de P3 (R).
6.2 Matriz de uma Transformação Linear 155
Solução:
Observemos que:
1 1
T = 2 + 3t 2 + t 3 = (−1) × (1 + t) + 3 × (1 + t 2 ) + 1 × (t + t 3 ),
0 0
1 0
T = 2 + t − t 2 = 2 × 1 + 1 × (1 + t) + (−1) × (1 + t 2 ),
0 1
0 1
T = −t − 2t 2 − t 3 = 2 × 1 + (−2) × (1 + t 2 ) + (−1) × (t + t 3 ),
1 0
0 0
T = −3t 2 − 3t 3 = 3 × (1 + t) + (−3) × (1 + t 2 ) + (−3) × (t + t 3 ).
1 −1
Portanto, a matriz de T em relação às bases canônicas é:
T (v1 ) T (v2 ) T (v3 ) T (v4 )
↓ ↓ ↓ ↓
0 2 2 0 ← coordenada do 1º vetor de B 0
[T ]B
B0 =
−1 1 0 3 ← coordenada do 2º vetor de B 0
coordenada do 3º vetor de B 0
3 −1 −2 −3 ←
1 0 −1 −3 ← coordenada do 4º vetor de B 0
Teorema 6.2.3 Sejam V e W são espaços vetoriais sobre um corpo K, ambos de dimensão finita e
T : V −→ W uma transformação linear. Se B = {v1 , v2 , · · · , vn } é base de V e B 0 = {w1 , w2 , · · · , wm }
é base de W , então
T (v) B0 = [T ]B
B 0 · [v]B para todo v ∈ V.
v = α1 v1 + α2 + · · · + αn vn .
Logo,
TL 6.2.1
T (v) =5 α1 T (v1 ) + α2 T (v2 ) + · · · + αn T (vn ) = β1 w1 + β2 w2 + · · · + βm wm ,
com β j = α1 a j1 + α2 a j2 + · · · + αn a jn para j ∈ {1, · · · , m}.
β1
β2
Portanto, T (v) B0 = .. .
.
βm
β1
β2
Por outro lado, da fórmula 6.2.2 temos: .. = [T ]B B 0 · [v]B .
.
βm
Consequentemente, temos:
T (v) B0 = [T ]B
B 0 · [v]B para todo v ∈ V.
156 Capítulo 6. Transformações Lineares
Observações 6.2.4 (a) Sejam V , W e U espaços vetoriais sobre um corpo K, com dim V = n,
dim W = k e dim U = m, B, B 0 e B 00 bases de V , W e U, respectivamente. Se
[S ◦ T ]B B B
0
B 00 = [S] 00 · [T ] 0 .
| {zB} | {zB}
m×k k×n
(b) Sejam V espaço vetorial sobre um corpo K, com dim V = n, T : V −→ V um operador linear e
B uma base de V . Denotamos a matriz de T em relação à base B (tanto no domínio, como no
contradomínio) simplesmente por [T ]B .
ker(T ) = {v ∈ V ; T (v) = 0W }.
(b) q(t) ∈ Im(T ) ⇐⇒ existe p(t) ∈ Pn (R) tal que T p(t) = q(t) ⇐⇒ p0 (t) = q(t)
Z Z Z
⇐⇒ p0 (t) dt = q(t) dt ⇐⇒ p(t) = q(t) dt.
Portanto, Im(T ) = R2 .
Por outro lado,
t = −c
z = 0
Tomando, por exemplo, temos:
y = b+c
x = a−b−c
x y a−b−c b+c
T =T = (a, b, c).
z t 0 −c
Portanto, Im(T ) = R3 .
Por outro lado,
x y x y
∈ ker(T ) ⇐⇒ T = (0, 0, 0)
z t z t
6.3 Núcleo e Imagem de uma Transformação Linear 159
x + y + z = 0 t = 2z
⇐⇒ y − z + t = 0 ⇐⇒ y = −z
2z − t = 0 x = 0
x y
Logo, ker(T ) = ; x = 0, y = −z e t = 2z .
z t
(e) a0 + a1t + a2t 2 + a3t 3 ∈ Im(T ) ⇐⇒ existe (x, y) ∈ R2 tal que
Portanto,
Teorema 6.3.2 Sejam V e W são espaços vetoriais sobre um corpo K e T : V −→ W uma transfor-
mação linear, então:
(i) ker(T ) é um subespaço de V .
(ii) Im(T ) é um subespaço de W .
Demonstração:
(i) Sabemos que T (0V ) = 0W , portanto ker(T ) 6= 0.
/
Dados u, v ∈ ker(T ), temos:
T (u + v) = T (u) + T (v) = 0W + 0W = 0W .
Portanto, u + v ∈ ker(T ).
Agora, se v ∈ ker(T ) e λ ∈ K, então
T (λ · v) = λ · T (v) = λ · 0W = 0W .
Assim, λ · v ∈ ker(T ).
Logo, ker(T ) é um subespaço de V .
160 Capítulo 6. Transformações Lineares
T (λ · v ) = λ · T (v) = λ · w.
|{z}
∈V
Assim, λ · w ∈ Im(T ).
Logo, Im(T ) é um subespaço de W .
Observação 6.3.3 Segue da definição 6.2.1 que Im(T ) é o subespaço correspondente ao espaço
coluna da matriz [T ]B
B 0 , como B e B bases de V e de W , respectivamente.
0
Mostremos que
B 0 = T (vk+1 ), · · · , T (vn )
v = a1 v1 + · · · + ak vk + ak+1 vk+1 + · · · + an vn .
Logo,
w = T (v) = T a1 v1 + · · · + ak vk + ak+1 vk+1 + · · · + an vn
(b) T p(t) = p0 (t), a derivada de polinômios de grau ≤ n, vimos que Im(T ) = Pn−1 (R) e que
ker(T ) = P0 (R) = R.
Logo, dim Im(T ) = n e dim ker(T ) = 1.
(c) T (x, y, z) = (x + 3y − z, 2y + z)
Vimos que Im(T ) = R2 e que ker(T ) = {(x, y, z) ∈ R3 ; x = −5y e z = −2y}.
Logo, dim Im(T ) = 2 e dim ker(T ) = 1.
x y
(d) T = (x + y + z, y − z + t, 2z − t).
z t
3 x y
Vimos que Im(T ) = R e que ker(T ) = ; x = 0, y = −z e t = 2z .
z t
Portanto, dim Im(T ) = 3 e dim ker(T ) = 1.
162 Capítulo 6. Transformações Lineares
Agora observemos que dada T : V −→ W uma transformação linear, pelo Teorema 6.3.4 (do Núcleo
e da Imagem), tomando B = {v1 , · · · , vk , vk+1 , · · · , vn } base de V obtida pelo completamento de
{v1 , · · · , vk } uma base do ker(T ), considerando B 0 uma base de W , então a matriz de T em relação
às bases B e B 0 é dada por:
B1 B0
com MB e MB 0 matrizes de mudança de base de B1 para B e de B0 para B10 , respectivamente.
1
B1
Tomando as transformações lineares definidas pelas matrizes [T ]B
B 0 e [T ]B 0 , indicadas por S e R
1
B e Q = M B1 , então R = P · S · Q, com P ∈ M (K)
respectivamente, para simplificar colocamos P = MB
0
0 B 1
m
e Q ∈ Mn (K) matrizes invertíveis, logo S = P−1 · R · Q−1 .
Se {u1 , · · · , ur } é base de ker(R), então R(ui ) = 0W , para todo i ∈ {1, · · · , r} consequentemente,
P · S · Q(ui ) = 0W , para todo i, como P é invertível aplicando P−1 à esquerda na última igualdade
obtemos S · Q(ui ) = 0W , para todo i ∈ {1, · · · , r}.
Portanto, {Q(u1 ), · · · , Q(ur )} ⊂ ker(S), mas se existem escalares a1 , · · · , ar tais que:
S é linear
a1 Q(u1 ) + · · · + ar Q(ur ) = 0V =⇒ Q(a1 u1 + · · · + ar ur ) = 0V ,
Exemplos 6.3.7 Determine o núcleo e a imagem de T utilizando uma matriz da transformação linear.
Solução:
1 3 −1
(a) A matriz de T em relação às bases canônicas de R3 e de R2 é [T ] = , logo:
0 2 1
Observemos que
0P2 (R) = C20 + 2C30 = (C2 −C1 ) + 2(C3 −C1 ) = C2 − 3C1 + 2C3
= T (e2 ) − 3T (e1 ) + 2T (e3 ) = T (e2 − 3e1 + 2e3 ).
−3 1 0 0
Portanto, ker(T ) = e2 − 3e1 + 2e3 , e4 = , .
2 0 0 1
2 0
0 1
(c) A matriz de T em relação às bases canônicas de R2 e de P3 (R) é [T ] = 0 3 , como as
−1 0
3 2
colunas desta matriz são L. I. segue que Im(T ) = 2 − t , t + 3t e dim ker(T ) = 0, portanto
ker(T ) = {0V }.
1 0 1
(d) A matriz de T em relação às bases canônicas de P2 (R) e de R3 é [T ] = 1 0 1 , logo:
0 2 2
1 0 1 1 0 0
1 0 1 C3 −→ C3 −C2 −C1 ∼ 1 0 0 .
0 2 2 0 2 0
Observemos que 0P2 (R) = C3 −C2 −C1 = T (e3 ) − T (e2 ) − T (e1 ) = T (e3 − e2 − e1 ).
Portanto, ker(T ) = − 1 − t + t 2 .
1 2 0 0
(e) A matriz de T em relação às bases canônicas de C2 e de R2 é [T ] = , logo:
−1 0 0 2
0
C2 → 21 C2 C1 → C10 +C40 −C20
1 2 0 0 1 1 0 0 0 1 0 0
∼ ∼ .
−1 0 0 2 C4 → 12 C4 −1 0 0 1 0 0 0 1
Teorema 6.4.1 Sejam V e W são espaços vetoriais sobre um corpo K e T : V −→ W uma transfor-
mação linear, T é injetora se, e somente se, ker(T ) = {0V }.
T (u) − T (v) = 0W ⇐⇒ T (u − v) = 0W ,
isto implica que u − v ∈ ker(T ), mas como ker(T ) = {0V }, segue que u − v = 0V ⇐⇒ u = v.
Portanto, T é injetora.
Exemplos 6.4.2 Determine quais transformações lineares, dos Exemplos 6.3.5, são injetoras e sobre-
jetoras.
Solução:
(a) T (x, y) = (ax, by), com a e b números reais.
1º Caso: a = 0 e b 6= 0
Como Im(T ) = {(x, y) ∈ R2 ; x = 0} 6= R2 , então T não é sobrejetora e ker(T ) = {(x, y) ∈
R2 ; y = 0} 6= {(0, 0)}, então T não é injetora.
2º Caso: a 6= 0 e b = 0
Como Im(T ) = {(x, y) ∈ R2 ; y = 0} = 6 R2 , então T não é sobrejetora e ker(T ) = {(x, y) ∈
R2 ; x = 0} 6= {(0, 0)}, então T não é injetora.
3º Caso: a 6= 0 e b 6= 0
Como Im(T ) = R2 , então T é sobrejetora e ker(T ) = {(0, 0)}, então é injetora.
(b) T p(t) = p0 (t), a derivada de polinômios de grau ≤ n.
Im(T ) = Pn−1 (R), então T é sobrejetora e ker(T ) = P0 (R) = R 6= {0}, portanto T não é
injetora.
166 Capítulo 6. Transformações Lineares
(c) T (x, y, z) = (x + 3y − z, 2y + z)
Im(T ) = R2 , então T é sobrejetora e
T é inj.
De fato, pela Proposição 6.3.6 [(ii)] temos null [T ]B
B 0 = dim ker(T ) = 0.
Logo, posto [T ]B B
B 0 = n é máximo e pela Proposição 2.2.3 a matriz [T ]B 0 é invertível.
Matrizes Semelhantes
Definição 6.5.4 Dizemos que duas matrizes A e B em Mn (K) são semelhantes se, e somente se,
existe P uma matriz invertível em Mn (K) tal que
B = P−1 · A · P.
Demonstração: De fato, se A e B são semelhantes então, existe P uma matriz invertível em Mn (K) tal
que B = P−1 · A · P.
Logo,
1
det B = det(P−1 · A · P) = det P−1 · det A · det P = · det A · det P = det A,
det P
1
pois det P−1 = .
det P
Consequentemente temos
−1
B B
[T ]B = MB 0 · [T ]B0 · MB 0.
det T = det[T ]B ,
Logo,
(x, y, z) = x(1, −1, 0) + (x + y)(0, 1, −1) + (x + y + z)(0, 0, 1).
170 Capítulo 6. Transformações Lineares
Consequentemente,
T (x, y, z) = T x (1, −1, 0) + (x + y) (0, 1, −1) + (x + y + z) (0, 0, 1)
T é linear
= x T (1, −1, 0) + (x + y) T (0, 1, −1) + (x + y + z) T (0, 0, 1)
= x (2 + t) + (x + y) (−1 + t 2 ) + (x + y + z) (t + t 2 )
= (x − y) + (2x + y + z) t + (2x + 2y + z) t 2 .
Sabemos que T é isomorfismo se, e somente se, T é bijetora, mas como dim R3 = dim P2 (R)
basta verificar que T é injetora, para isso vamos mostrar que ker(T ) = {(0, 0, 0)}.
⇐⇒ (x − y) + (2x + y + z) t + (2x + 2y + z) t 2 = 0
x − y = 0 x = 0
⇐⇒ 2x + y + z = 0 ⇐⇒ y = 0
2x − 2y + z = 0 z = 0
T −1 (a + bt + ct 2 ) = (x, y, z) ⇐⇒ a + bt + ct 2 = T (x, y, z)
⇐⇒ a + bt + ct 2 = (x − y) + (2x + y + z) t + (2x + 2y + z) t 2
x − y = a x = a − b + c
⇐⇒ 2x + y + z = b ⇐⇒ y = − b + c
2x − 2y + z = c z = −2a + 4b − 3c
T −1 (a + bt + ct 2 ) = (a − b + c, −b + c, −2a + 4b − 3c).
(c) Considere o operador linear T : P2 (R) −→ P2 (R) dado por: T p(t) = (3 + t)p0 (t) + 2p(t)
Portanto,
S ◦ T (a + bt + ct 2 ) = S T (a + bt + ct 2 )
= (2a + 3b) + (3b + 6c), 4c, (2a + 3b) − (3b + 6c)
S◦T : P2 (R) −→ R3
a + bt + ct 7−→ T (a + bt + ct 2 ) = (2a + 6b + 6c, 4c, 2a − 6c).
2
Solução:
(d1 ) S ◦ T (x, y) = S T (x, y) = S(2x, x − y, y) = (x − y − y, y − 2x) = (x − 2y, y − 2x).
Logo,
S ◦ T (x, y) = (x − 2y, y − 2x).
Determinando ker(S ◦ T ):
Portanto, Im(T ◦ S) = {(x, y, z) ∈ R3 ; x = 2(y + z)} e BIm(T ◦S) = {(2, 1, 0), (2, 0, 1)} é uma
base de Im(T ◦ S).
Como Im(T ◦ S) 6= R3 segue que T ◦ S não é sobrejetora, portanto não é um automorfismo.
(d3 ) Como S ◦ T é um automorfismo, então possui inversa, determinemos a inversa (S ◦ T )−1 .
T (x, y, z) = (x − y, 2y, y − z)
é um automorfismo, em caso afirmativo determine, também por meio de matrizes, sua inversa T −1 .
Solução:
A matriz de T em relação à base canônica de R3 é a seguinte:
1 −1 0
[T ] = 0 2 0 .
0 1 −1
1 −1 0 | 1 0 0 1 −1 0 | 1 0 0 L1 −→ L1 + L2
0 2 0 | 0 1 0 L2 −→ 21 L2 ∼ 0 1 0 | 0 12 0
0 1 −1 | 0 0 1 0 1 −1 | 0 0 1 L3 −→ −L3 + L2
1
1 0 0 | 1 2 0
1
∼ 0 1 0 | 0 2 0 .
0 0 1 | 0 − 12 −1
Logo, 1
1 2 0
−1
1
[T ] =
0 2 0 .
0 − 12 −1
Assim, T −1 (x, y, z) é dada por:
1
x + 2y
1 2 0
x x
−1 y
1
[T ] · y =
0 2 0 · y =
2
,
z z
0 − 12 −1 − 2y − z
ou seja,
−1 2x + y y −y − 2z
T (, x, y, z) = , , .
2 2 2
7. Diagonalização de Operadores Lineares
(a2 ) Reflexão pela bissetriz do 1 e 3 quadrantes: T : R2 −→ R2 dado por T (x, y) = (−x, −y)
Solução:
−x = λ x
T (x, y) = λ (x, y) ⇐⇒ (−x, −y) = λ (x, y) ⇐⇒ ⇐⇒ λ = −1.
−y = λ y
Assim, o único autovalor de T é λ1 = −1 e os autovetores de T associados ao autovalor
λ1 = −1 são os vetores da forma (x, y), com x 6= 0 ou y 6= 0.
(a3 ) Reflexão em torno do eixo y: T : R2 −→ R2 dado por T (x, y) = (−x, y)
Solução:
Analogamente ao exemplo (a1 ) temos os autovalores de T são λ1 = 1 e λ2 = −1.
• Os autovetores de T associados ao autovalor λ1 = 1 são os vetores da forma (0, y), com
y 6= 0.
• Os autovetores de T associados ao autovalor λ2 = −1 são os vetores da forma (x, 0), com
x 6= 0.
(b) Seja o operador linear T : R2 −→ R2 dado por T (x, y) = (ax, by) com a e b número reais.
Solução:
ax = λ x
T (x, y) = λ (x, y) ⇐⇒ (ax, by) = λ (x, y) ⇐⇒
by = λ y
1º Caso: Se a = b, então o único ao autovalor de T é λ1 = a e os autovetores de T associados ao
autovalor λ1 = a são todos os vetores de R2 , exceto (0, 0).
2º Caso: Se a 6= b o operador T tem dois autovalores:
• Se x 6= 0, devemos ter λ1 = a e y = 0, neste caso os autovetores de T associados ao autovalor
λ1 = a são os vetores da forma (x, 0) com x 6= 0.
• Se y 6= 0, devemos ter λ2 = b e x = 0, neste caso os autovetores de T associados ao autovalor
λ2 = b são os vetores da forma (0, y) com y 6= 0.
1 1
(c) Seja A = , o operador linear TA : R2 −→ R2 dado por: TA (x, y) = (x + y, 2y).
0 2
Solução:
x+y = λx
T (x, y) = λ (x, y) ⇐⇒ (x + 2y, y) = λ (x, y) ⇐⇒
2y = λ y
1º Caso: Se y 6= 0, o autovalor de T é λ1 = 2, neste caso teremos x + y = 2x ⇐⇒ x = y.
Logo, os autovetores de T associados ao autovalor λ1 = 2 são os vetores da forma (x, x), com
x 6= 0.
2º Caso: Se y = 0, o autovalor de T é λ2 = 1 e os autovetores de T associados ao autovalor λ2 = 1
são os vetores da forma (x, 0) com x 6= 0.
(d) Seja o operador linear T : R3 −→ R3 dado por T (x, y, z) = (x + y + z, x + y, z).
Solução:
x+y+z = λx
T (x, y, z) = λ (x, y, z) ⇐⇒ (x + y + z, x + y, z) = λ (x, y, z) ⇐⇒ x+y = λy
z = λz
7.1 Autovalor e Autovetor de um Operador Linear 177
Do Teorema 7.1.2 acima concluímos que, dado um operador linear T : V −→ V o conjunto de todos
os autovetores de T associados a um autovalor junto com o vetor nulo é um subespaço de V , mais
precisamente temos a seguinte definição:
Vλ = {v ∈ V ; T (v) = λ v}
T: R2 −→ R2
.
(x, y) 7−→ T (x, y) = (x, −y)
Solução:
Vimos que os autovalores de T são λ1 = 1 e λ2 = −1, com autovetores das formas (x, 0) com
x 6= 0 e (0, y) com y 6= 0, respectivamente.
Logo, os autoespaços de R2 são:
T: R2 −→ R2
.
(x, y) 7−→ T (x, y) = (−x, −y)
Solução:
Vimos que o único autovalor de T é λ1 = −1 com autovetores da forma (x, y), com x 6= 0 ou
y 6= 0.
Logo, o único autoespaço de R2 é V1 = R2 .
(a3 ) Reflexão em torno do eixo y:
T: R2 −→ R2
.
(x, y) 7−→ T (x, y) = (−x, y)
Solução:
Vimos que os autovalores de T são λ1 = 1 e λ2 = −1, com autovetores das formas (0, y) com
y 6= 0 e (x, 0) com x 6= 0, respectivamente.
Logo, os autoespaços de R2 são:
T: R2 −→ R2
, com a e b números reais.
(x, y) 7−→ T (x, y) = (ax, by)
Solução:
Vimos que:
1º Caso: Se a = b, então o único ao autovalor de T é λ1 = a e os autovetores são todos os vetores
de R2 , exceto (0, 0).
Logo, o único autoespaço de R2 é Va = R2 .
7.1 Autovalor e Autovetor de um Operador Linear 179
TA : R2 −→ R2
(x, y) 7−→ TA (x, y) = (x + y, 2y).
Solução:
Vimos que os autovalores de T são λ1 = 2 e λ2 = 1, com autovetores das formas (x, x), com x 6= 0
e (x, 0) com x 6= 0, respectivamente.
Logo, os autoespaços de R2 são:
T: R3 −→ R3
.
(x, y, z) 7−→ T (x, y, z) = (x + y + z, x + y, z)
Solução:
Vimos que os autovalores de T são λ1 = 1 e λ2 = 2, com autovetores das formas (0, −z, z) com
z 6= 0 e (x, x, 0) com x 6= 0.
Logo, os autoespaços de R3 são:
Demonstração:
T (v) = λ1 v λ1 6=λ2
v ∈ V (λ1 ) ∩V (λ2 ) ⇐⇒ ⇐⇒ λ1 v = λ2 v ⇐⇒ (λ1 − λ2 )v = 0V =⇒ v = 0V .
T (v) = λ2 v
p(λ ) = det(A − λ In )
Demonstração: Vamos mostrar um resultado mais geral, que se A e B são semelhantes, então têm o
mesmo polinômio característico.
De fato, se A e B são semelhantes, então existe P uma matriz invertível tal que B = P−1 · A · P.
Logo,
pB (λ ) = det(B − λ In ) = det P−1 AP − λ P−1 P = det P−1 (A − λ In )P
Observação 7.2.3 O teorema 7.2.2 nos fornece o procedimento prático para determinar os autovalo-
res, os autovetores e os autoespaços de um operador linear T :
1º Obtemos p(λ ) o polinômio característico de T .
2º Encontramos as raízes de p(λ ), que são os autovalores de T .
3º Para cada autovalor λi determinamos o autoespaço Vλi , que é o subespaço ker(A − λi In ).
Exemplos 7.2.4 Determine os autovalores e os autoespaços do operador T nos seguintes casos:
(a) T operador sobre R2 .
(a1 ) T (x, y) = (y, 9x).
(a2 ) T (x, y) = (−y, x).
Solução:
(a1 ) Consideremos B a base canônica de R2 , então:
É claro que
p(λ ) = 0 ⇐⇒ λ 2 − 9 = 0 ⇐⇒ λ 2 = 9 ⇐⇒ λ = 3 ou λ = −3.
3 1
(x, y) ∈ V−3 ⇐⇒ (x, y) ∈ ker(A + 3I2 ) = ker
9 3
3 1 x 3x + y = 0
0
⇐⇒ = ⇐⇒⇐⇒ y = −3x.
9 3 y 9x + 3y = 0
0
Portanto, V−3 = {(x, y) ∈ R2 ; y = −3x} = (1, −3) .
É claro que
p(λ ) = 0 ⇐⇒ λ 2 + 1 = 0, ⇐⇒ λ 2 = −1 ⇐⇒ λ = i ou λ = −i.
É claro que
2 λ =0 λ =0
p(λ ) = 0 ⇐⇒ −λ (1 − λ ) = 0 ⇐⇒ ⇔ ⇔ λ = 0 ou λ = 1.
(1 − λ )2 = 0 1−λ = 0
7.2 Polinômio Característico de um Operador Linear 183
0 0 0
(x, y, z) ∈ V1 ⇐⇒ (x, y, z) ∈ ker(A − 1I3 ) = ker 0 0 0
1 0 −1
0 0 0 x 0
⇐⇒ 0 0 0 y = 0 ⇐⇒ x − z = 0 ⇐⇒ z = x.
1 0 −1 z 0
Portanto, V1 = {(x, y, z) ∈ R3 ; z = x} = (1, 0, 1), (0, 1, 0) .
É claro que
1−λ = 0
p(λ ) = 0 ⇐⇒ (1 − λ )λ (λ − 3) = 0 ⇐⇒ λ = 0 ⇐⇒ λ = 1, λ = 0 ou λ = 3.
λ −3 = 0
1 0 1
(x, y, z) ∈ V0 ⇐⇒ (x, y, z) ∈ ker(A − 0I3 ) = ker 0 1 1 ⇐⇒
1 1 2
1 0 1 x 0 x + z = 0
0 1 1 y = 0 ⇐⇒ y + z = 0 ⇐⇒ x = −z e y = −z.
1 1 2 z 0 x + y + 2z = 0
−2 0 1
(x, y, z) ∈ V3 ⇐⇒ (x, y, z) ∈ ker(A − 3I3 ) = ker 0 −2 1 ⇐⇒
1 1 −1
−2 0 1 x 0 −2x + z = 0
0 −2 1 y = 0 ⇐⇒
− 2y + z = 0 ⇐⇒ x = y e z = 2x.
1 1 −1 z 0 x + y − z = 0
(b3 ) Consideremos a base B = {(1, 1, 1), (0, 1, 1), (0, 0, 1)} de R3 , então para todo (x, y, z) ∈ R3
temos:
x x
(x, y, z) = x(1, 1, 1) + (y − x)(0, 1, 1) + (z − y)(0, 0, 1) ⇐⇒ y = y − x .
z B z−y
Logo,
T (1, 1, 1) = (4, 9, −4) = 4 (1, 1, 1) + 5 (0, 1, 1) − 13 (0, 0, 1)
= −λ 3 + 3λ 2 + λ − 3 = (λ − 1)(−λ 2 + 2λ + 3)
= (1 − λ )(1 + λ )(3 − λ ).
É claro que
1−λ = 0
p(λ ) = 0 ⇔ (1 − λ )(1 + λ )(3 − λ ) = 0 ⇔ 1 + λ = 0 ⇐⇒ λ = 1, λ = −1 ou λ = 3.
3−λ = 0
7.2 Polinômio Característico de um Operador Linear 185
⇐⇒ z = 0 e y = −x.
Portanto, V1 = {(x, y, z) ∈ R3 ; z = 0 e y = −x} = [(1, −1, 0)].
6 2 1
(x, y, z) ∈ V−1 ⇐⇒ (x, y, z) ∈ ker(A + 1I3 ) = ker 5 6 3
−13 −10 −5
6 2 1 x 0
⇐⇒ 5 6 3 y = 0
−13 −10 −5 z B 0 B
6 2 1 x 0
⇐⇒ 5 6 3 y−x = 0
−13 −10 −5 z−x 0
3x + y + z = 0 3x + y + z = 0
⇐⇒ −x + 3y + 3z = 0 ⇐⇒ −x + 3y + 3z = 0
−3x − 5y − 5z = 0 12x = 0
⇐⇒ x = 0 e z = −y.
Portanto,
V−1 = {(x, y, z) ∈ R3 ; x = 0 e z = −y} = [(0, 1, −1)].
1 2 1
(x, y, z) ∈ V3 ⇐⇒ (x, y, z) ∈ ker(A − 3I3 ) = ker 5 2 3
−13 −10 −9
1 2 1 x 0
⇐⇒ 5 2 3 y = 0
−13 −10 −9 z B 0 B
1 2 1 x 0
⇐⇒ 5 2 3 y−x = 0
−13 −10 −9 z−x 0
−x + y + z = 0 −x + y + z = 0
⇐⇒ 3x − y + 3z = 0 ⇐⇒ 2y + 6z = 0
−3x + y − 9z = 0 − 4y − 12z = 0
⇐⇒ y = −3z e x = −2z.
Portanto, V3 = {(x, y, z) ∈ R3 ; y = −3z e x = −2z} = [(−2, −3, 1)].
186 Capítulo 7. Diagonalização de Operadores Lineares
p(0) = a0 e p(1) = a0 + a1 + a2 .
Logo,
T p(t) = p(0) + p(1)(t + t 2 ) = a0 + (a0 + a1 + a2 )(t + t 2 )
= a0 + (a0 + a1 + a2 ) t + (a0 + a1 + a2 ) t 2 .
Consideremos B = {1, t, t 2 } a base canônica de P2 (R), então:
T (1) = 1 + t + t 2 , T (t) = t + t 2 e T (t 2 ) = t + t 2 .
1 0 0
Logo, a matriz de A de T em relação à base B é A = 1 1 1 .
1 1 1
Portanto, o polinômio característico de T é dado por:
1−λ 0 0
p(λ ) = pA (λ ) = det(A − λ I3 ) = det 0 1−λ 1
1 1 1−λ
= (1 − λ )3 − (1 − λ ) = (1 − λ ) (1 − λ )2 − 1
= (1 − λ )(λ 2 − 2λ + 1 − 1) = (1 − λ )λ (λ − 2).
É claro que
1−λ = 0
p(λ ) = 0 ⇐⇒ (1 − λ )λ (λ − 2) = 0 ⇐⇒ λ = 0 ⇐⇒ λ = 1, λ = 0 ou λ = 2.
λ −2 = 0
0 0 0
p(t) = a0 + a1t + a2t 2 ∈ V1 ⇐⇒ a0 + a1t + a2t 2 ∈ ker(A − 1I3 ) = ker 1 0 1
1 1 0
0 0 0 0 0 0 a0 0
⇐⇒ 1 0 1 a0 + a1t + a2t 2 B = 0 B ⇐⇒ 1 0 1 a1 =
0
1 1 0 1 1 0 a2 0
a0 + a2 = 0
⇐⇒ ⇐⇒ a1 = −a0 e a2 = −a0 .
a0 + a1 = 0
7.2 Polinômio Característico de um Operador Linear 187
1 0 0
2 2
p(t) = a0 + a1t + a2t ∈ V0 ⇐⇒ a0 + a1t + a2t ∈ ker(A − 0I3 ) = ker 1 1 1
1 1 1
1 0 0 1 0 0 a0 0
⇐⇒ 1 1 1 a0 + a1t + a2t 2 B = 0 B ⇐⇒ 1 1 1 a1 =
0
1 1 1 1 1 1 a2 0
−a0 = 0
⇐⇒ a0 + a1 + a2 = 0 ⇐⇒ a0 = 0 e a2 = −a1 .
a0 + a1 − a2 = 0
−1 0 0
p(t) = a0 + a1t + a2t 2 ∈ V2 ⇐⇒ a0 + a1t + a2t 2 ∈ ker(A − 0I3 ) = ker 1 −1 1
1 1 −1
−1 0 0
1 a0 + a1t + a2t 2 B = 0 B
⇐⇒ 1 −1
1 1 −1
−1 0 0 a0 0
⇐⇒ 1 −1 1 a1 = 0
1 1 −1 a2 0
−a0 = 0
⇐⇒ a0 − a1 + a2 = 0 ⇐⇒ a0 = 0 e a2 = a1 .
a0 + a1 − a2 = 0
T p(t) = (1 +t)p0 (t) + p00 (t) = (1 +t)(a1 + 2a2t) + 2a2 = (a1 + 2a2 ) + (a1 + 2a2 )t + 2a2t 2 .
T (1) = 0, T (t) = 1 + t e T (t 2 ) = 2 + 2t + 2t 2 .
0 1 2
Logo, a matriz de A de T em relação à base B é A = 0 1 2 .
0 0 2
Portanto, o polinômio característico de T é dado por:
−λ 1 2
p(λ ) = pA (λ ) = det(A − λ I3 ) = det 0 1 − λ 2 = −λ (1 − λ )(2 − λ ).
0 0 2−λ
188 Capítulo 7. Diagonalização de Operadores Lineares
É claro que
−λ = 0
p(λ ) = 0 ⇐⇒ −λ (1 − λ )(2 − λ ) = 0 ⇐⇒ 1 − λ = 0 ⇐⇒ λ = 0, λ = 1 ou λ = 2.
2−λ = 0
0 1 2
2 2
p(t) = a0 + a1t + a2t ∈ V0 ⇐⇒ a0 + a1t + a2t ∈ ker(A − 0I3 ) = ker 0 1 2
0 0 2
0 1 2 0 1 2 a 0 0
⇐⇒ 0 1 2 a0 + a1t + a2t 2 B = 0 B ⇐⇒ 0 1 2 a1 =
0
0 0 2 0 0 2 a2 0
a1 + 2a2 = 0
⇐⇒ ⇐⇒ a1 = a2 = 0.
2a2 = 0
Portanto, V0 = {p(t) = a0 + a1t + a2t 2 ∈ P2 (R); a1 = a2 = 0} = [1].
−1 1 2
p(t) = a0 + a1t + a2t 2 ∈ V1 ⇐⇒ a0 + a1t + a2t 2 ∈ ker(A − 1I3 ) = ker 0 0 2
0 0 1
−1 1 2 −1 1 2 a0 0
⇐⇒ 0 0 2 a0 + a1t + a2t 2 B = 0 B ⇐⇒ 0 0 2 a1 = 0
0 0 1 0 0 1 a2 0
−a0 + a1 + 2a2 = 0
⇐⇒ 2a2 = 0 ⇐⇒ a2 = 0 e a1 = a0 .
a2 = 0
−2 1 2
p(t) = a0 + a1t + a2t 2 ∈ V2 ⇐⇒ a0 + a1t + a2t 2 ∈ ker(A − 0I3 ) = ker 0 −1 2
0 0 0
−2 1 2
⇐⇒ 0 −1 2 a0 + a1t + a2t 2 B = 0 B
0 0 0
−2 1 2 a0 0
⇐⇒ 0 −1 2 a1 = 0
0 0 0 a2 0
−2a0 + a1 + 2a2 = 0
⇐⇒ ⇐⇒ a1 = 2a2 e a0 = 2a2 .
− a1 + 2a2 = 0
Portanto, V2 = {p(t) = a0 + a1t + a2t 2 ∈ P2 (R); a1 = 2a2 e a0 = 2a2 } = [2 + 2t + t 2 ].
7.2 Polinômio Característico de um Operador Linear 189
0 0 0
−2 2 1 a0 0
⇐⇒ 3 −3 −1 a1 = 0
0 0 0 a2 0
−2a0 + 2a1 + a2 = 0 −2a0 + 2a1 + a2 = 0
⇐⇒ ⇐⇒
3a0 − 3a1 − a2 = 0 a0 − a1 = 0
⇐⇒ a1 = a0 e a2 = 0.
Portanto, V2 = {p(t) = a0 + a1t + a2t 2 ∈ P2 (R); a1 = a0 e a2 = 0} = [1 + t].
3 2 1
2 2
p(t) = a0 + a1t + a2t ∈ V−3 ⇐⇒ a0 + a1t + a2t ∈ ker(A + 3I3 ) = ker 3 2 −1
0 0 5
3 2 1 3 2 1 a0 0
⇐⇒ 3 2 −1 a0 + a1t + a2t 2 B = 0 B ⇐⇒ 3 2 −1 a1 =
0
0 0 5 0 0 5 a2 0
3a0 + 2a1 + a2 = 0 3
⇐⇒ 3a0 + 2a1 − a2 = 0 ⇐⇒ a1 = a0 e a2 = 0.
2
5a2 = 0
0 0 2 1
Portanto, o polinômio característico de T é dado por:
1−λ 1 0 0
0 1−λ 0 0
p(λ ) = pA (λ ) = det(A − λ I3 ) = det
0 0 2−λ 1
0 0 2 1−λ
= (1 − λ ) (1 − λ )2 (2 − λ ) − 2(1 − λ )
É claro que
(1 − λ )2 = 0
2
p(λ ) = 0 ⇐⇒ (1 − λ ) λ (λ − 3) = 0 ⇐⇒ λ =0
λ −3 = 0
⇐⇒ λ = 1, λ = 0 ou λ = 3.
Logo, os autovalores de T são λ1 = 1, λ2 = 0 e λ3 = 3.
Determinando os autoespaços V1 , V0 e V3 .
0 1 0 0
0 0 0 0
(x, y, z, w) ∈ V1 ⇐⇒ (x, y, z, w) ∈ ker(A − 1I4 ) = ker
0 0 1 1
0 0 2 0
0 1 0 0 x 0
0 0 0 0 y 0 y=0
⇐⇒ = ⇐⇒
0 0 1 1 z 0 z + w = 0 ⇐⇒ y = z = w = 0.
2z = 0
0 0 2 0 w 0
Portanto, V1 = {(x, y, z, w) ∈ R4 ; y = z = w = 0} = (1, 0, 0, 0) .
7.2 Polinômio Característico de um Operador Linear 191
1 1 0 0
0 1 0 0
(x, y, z, w) ∈ V0 ⇐⇒ (x, y, z, w) ∈ ker(A − 0I4 ) = ker
0 0 2
1
0 0 2 1
1 1 0 0 x 0
x+y = 0
0 1 0 0 y 0 x=y=0
⇐⇒
= ⇐⇒ y = 0 ⇐⇒
0 0 2 1 z 0 w = −2z
2z + w = 0
0 0 2 1 w 0
Portanto,
−2 1 0 0
0 −2 0 0
(x, y, z, w) ∈ V3 ⇐⇒ (x, y, z, w) ∈ ker(A − 3I4 ) = ker
0 0 −1 1
0 0 2 −2
−2 1 0 0 x 0 −2x + y = 0
x=0
0 −2 0 0 y 0
−2y = 0
⇐⇒
= ⇐⇒ ⇐⇒ y=0 .
0 0 −1 1 z 0 −z + w = 0
w=z
0 0 2 −2 w 0 2z − 2w = 0
Portanto,
V3 = {(x, y, z) ∈ R4 ; x = y = 0 e w = z} = (0, 0, 1, 1) .
−1 −4 −2 −2
−4 −1 −2 −2
(d2 ) Como a matriz de A de T em relação à base B é A = 2
, então o
2 1 4
2 2 4 1
polinômio característico de T é dado por:
−1 − λ −4 −2 −2
−4 −1 − λ −2 −2
p(λ ) = pA (λ ) = det(A − λ I3 ) = det
2 2 1−λ 4
2 2 4 1−λ
−1 − λ −2 −2 −4 −2 −2
= (−1 − λ ) 2 1−λ 4 +4 2 1−λ 4
2 4 1−λ 2 4 1−λ
−4 −1 − λ −2 −4 −1 − λ −2
−2 2 2 4 +2 2 2 1−λ
2 2 1−λ 2 2 4
= (−1 − λ ) (−1 − λ )(1 − λ )2 − 8 + 8λ + 4(36 − 4λ 2 ) − 2(18 − 2λ 2 ) + 2(−18 + 4λ 2 )
(λ − 3)2 = 0
2 2
p(λ ) = 0 ⇐⇒ (λ − 3) (λ + 3) = 0 ⇐⇒ ⇐⇒ λ = 3 ou λ = −3.
(λ + 3)2 = 0
192 Capítulo 7. Diagonalização de Operadores Lineares
2 −4 −2 −2
−4 2 −2 −2
(x, y, z, w) ∈ V−3 ⇐⇒ (x, y, z, w) ∈ ker(A + 3I4 ) = ker 2
2 4 4
2 2 4 4
2 −4 −2 −2 x 0
−4 2 −2 −2 y 0
⇐⇒ 2 =
2 4 4 z 0
2 2 4 4 w 0
2x − 4y − 2z − 2w = 0
x − 2y − z − w = 0 x=y
⇐⇒ −4x + 2y − 2z − 2w = 0 ⇐⇒ ⇐⇒
3x − 3y = 0 z = −x − w
2x + 2y + 4z + 4w = 0
1 0 2 0 1 0 0 1 0 0 0 0
T = =2 +0 +0 +0 ,
0 0 0 0 0 0 0 0 1 0 0 1
0 1 1 2 1 0 0 1 0 0 0 0
T = =1 +2 +0 +0 ,
0 0 0 0 0 0 0 0 1 0 0 1
7.2 Polinômio Característico de um Operador Linear 193
0 0 0 0 1 0 0 1 0 0 0 0
T = =0 +0 +2 +0 ,
1 0 2 0 0 0 0 0 1 0 0 1
0 0 0 0 0 11 0 0 0 0 0
T = =0 +0 +0 +2 .
0 1 0 2 0 00 0 1 0 0 1
2 1 0 0
0 2 0 0
Logo, a matriz de A de T em relação à base B é A =
0
.
0 2 0
0 0 0 2
Portanto, o polinômio característico de T é dado por:
2−λ 1 0 0
0 2 − λ 0 0 = (2 − λ )4 .
p(λ ) = pA (λ ) = det(A − λ I4 ) = det
0 0 2−λ 0
0 0 0 2−λ
É claro que
p(λ ) = 0 ⇐⇒ (2 − λ )4 = 0 ⇐⇒ λ = 2.
Logo, o único autovalor de T é λ1 = 2.
Determinando o autoespaço V2 .
0 1 0 0
a b a b 0 0 0 0
∈ V2 ⇐⇒ ∈ ker(A − 2I4 ) = ker
0 0 0 0
c d c d
0 0 0 0
0 1 0 0
0 0 0 0 a b 0 0
⇐⇒
0 0 0 0 c d =
B
0 0 B
0 0 0 0
0 1 0 0 a 0
0 0 0 0 b 0
⇐⇒ 0 0 0 0 c = 0 ⇐⇒ b = 0.
0 0 0 0 d 0
" #
a b 1 0 0 0 0 0
Portanto, V2 = ∈ M2 (R); b = 0 = , , .
c d 0 0 1 0 0 1
1 0 0 1 0 0 0 0
(e2 ) Consideremos B = , , , a base canônica de M2 (R),
0 0 0 0 1 0 0 1
então:
1 0 1 0 1 0 0 1 0 0 0 0
T = =1 +0 +0 −1 ,
0 0 0 −1 0 0 0 0 1 0 0 1
0 1 1 1 1 0 0 1 0 0 0 0
T = =1 +1 +0 −1 ,
0 0 0 −1 0 0 0 0 1 0 0 1
194 Capítulo 7. Diagonalização de Operadores Lineares
0 0 0 0 1 0 0 1 0 0 0 0
T = =0 +0 +0 +1 ,
1 0 0 1 0 0 0 0 1 0 0 1
0 0 0 0 0 1 1 0
0 0 0 0
T = =0 +0 +0 +0 .
0 1 0 0 0 0 0 0
1 0 0 1
1 1 0 0
0 1 0 0
Logo, a matriz de A de T em relação à base B é A =
0
.
0 0 0
−1 −1 1 0
Portanto, o polinômio característico de T é dado por:
1−λ 1 0 0
0 1−λ 0 0 = λ 2 (1 − λ )2 .
p(λ ) = pA (λ ) = det(A − λ I4 ) = det
0 0 −λ 0
−1 −1 1 −λ
É claro que
p(λ ) = 0 ⇐⇒ λ 2 (1 − λ )2 = 0 ⇐⇒ λ = 0 ou λ = 1.
Logo, os autovalores de T são λ1 = 0 e λ2 = 1.
Determinando os autoespaços V0 e V1 .
1 1 0 0
a b a b 0 1 0 0
∈ V0 ⇐⇒ ∈ ker(A − 0I4 ) = ker
0
c d c d 0 0 0
−1 −1 1 0
1 1 0 0
0 1 0 0
a b 0 0
⇐⇒ =
0 0 0 0 c d B 0 0 B
−1 −1 1 0
1 1 0 0 a 0
a+b = 0
0 1 0 0 b 0
⇐⇒ = ⇐⇒ b = 0 ⇐⇒ a = b = c = 0.
0 0 0 0 c 0
−a − b + c = 0
−1 −1 1 0 d 0
Portanto, "
#
a b 0 0
V0 = ∈ M2 (R); a = b = c = 0 = .
c d 0 1
0 1 0 0
a b a b 0 0 0 0
∈ V1 ⇐⇒ ∈ ker(A − 1I4 ) = ker
c d c d 0 0 −1 0
−1 −1 1 −1
0 1 0 0
0 0 0 0 a b 0 0
⇐⇒ =
0 0 −1 0 c d B 0 0 B
−1 −1 1 −1
7.2 Polinômio Característico de um Operador Linear 195
0 1 0 0 a 0
0 0 0 0 b 0
⇐⇒ =
0 0 −1 0 c 0
−1 −1 1 −1 d 0
b=0
⇐⇒ −c = 0 ⇐⇒ b = c = 0 e d = −a.
−a − b + c − d = 0
" #
a b 1 0
Portanto, V1 = ∈ M2 (R); b = c = 0 e d = −a = .
c d 0 −1
É claro que
p(λ ) = 0 ⇐⇒ λ 2 + 1 = 0 ⇐⇒ λ 2 = −1 ⇐⇒ λ = i ou λ = −i.
i −1
(z, w) ∈ V−i ⇐⇒ (z, w) ∈ ker(A + iI2 ) = ker
1 i
i −1 z 0 iz − w = 0
⇐⇒ = ⇐⇒ ⇐⇒ w = iz.
1 i w 0 z + iw = 0
= (4 − λ )2 + 4i2 = λ 2 − 8λ + 16 − 4
= λ 2 − 8λ + 12 = (λ − 2)(λ − 6).
É claro que
λ −2 = 0
p(λ ) = 0 ⇐⇒ (λ − 2)(λ − 6) = 0 ⇐⇒ ⇐⇒ λ = 2 ou λ = 6.
λ −6 = 0
−2 2i
(z, w) ∈ V6 ⇐⇒ (z, w) ∈ ker(A + 6I2 ) = ker
−2i −2
−2 2i z 0 −2z + 2iw = 0
⇐⇒ = ⇐⇒ ⇐⇒ z = iw.
−2i −2 w 0 −2iz − 2w = 0
Portanto, V6 = {(z, w) ∈ C2 ; z = iw} = (i, 1) .
.
Portanto, A é invertível se, e somente se, 0 não é autovalor de A.
(g4 ) Como λ1 é um autovalor de A e A é invertível, pelo item anterior sabemos que λ1 6= 0, além
disso det(A − λ1 In ) = 0.
Logo,
!
−1 −1 1
⇐⇒ det(In − λ1 A ) = 0 ⇐⇒ det (−λ1 ) A − In =0
λ1
n −1 1 λ1 6=0 −1 1 1
⇐⇒ (−λ1 ) det A − In = 0 =⇒ det A − In = 0 ⇐⇒ pA−1 = 0.
λ1 λ1 λ1
1
Consequentemente, é autovalor de A−1 .
λ1
Já no exemplo (a2 ) acima o operador de R3 dado por T (x, y, z) = (x, y, x) tem dois autovalores: λ1 = 0
e λ2 = 1 com autoespaços:
V0 = (0, 0, 1) e V1 = (1, 0, 1), (0, 1, 0) .
Demonstração: Sejam α11 , · · · , α1n1 , α21 , · · · , α2n2 , · · · , αk1 , · · · αknk em K tais que:
α11 v11 + · · · + α1n1 v1n1 + α21 v21 + · · · + α2n2 v2n2 + · · · + αk1 vk1 + · · · + αknk vknk = 0V . (7.3.1)
(λk − λk−1 ) · · · (λk − λ2 )(λk − λ1 )αk1 vk1 + · · · + (λk − λk−1 ) · · · (λk − λ2 )(λk − λ1 )αknk vknk = 0V .
Como Bk = {vk1 , · · · , vknk } é base, seus vetores são L.I. e os autovalores λ1 , λ2 , · · · , λk são distintos,
segue que αk1 = · · · = αknk = 0.
Substituindo nas equações anteriores obtemos:
Demonstração:
(i) Se T tivesse k autovalores distintos λ1 , · · · , λk , com k > n, então v1 , · · · , vk os autovetores
associados, respectivamente, a λ1 , · · · , λk formaria um subconjunto L. I. de V , mas dimV = n,
contrariando o fato de que qualquer subconjunto de um espaço vetorial de dimensão n tem no
máximo n elementos.
Portanto, T tem no máximo n autovalores distintos.
(ii) Se T possui n autovalores distintos: λ1 , · · · , λn , então pelo teorema 7.3.2 o conjunto
B = {v1 , · · · , vn }
Logo,
λ1 0 · · · 0
0 λ2 · · · 0
[T ]B = , é matriz diagonal.
.. .. . .
. . . 0
0 0 · · · λn
Consequentemente, T é operador diagonalizável.
7.3 Diagonalização de Operadores Lineares 201
com µ1 , µ2 , · · · , µn escalares em K.
T (u1 ) = µ1 u1 + 0 u2 + · · · 0 un = µ1 u1
T (u2 ) = 0 u1 + µ2 u2 + · · · 0 un = µ2 u2
..
.
T (un ) = 0 u1 + 0 u2 + · · · µn un = µn un .
3 0
B = {(1, 3), (1, −3)}, assim [T ]B = .
0 −3
(a2 ) Vimos que T não tem autovalores, portanto o operador T não é diagonalizável.
(b) T operador sobre R3 .
(b1 ) T (x, y, z) = (x, y, x).
(b2 ) T (x, y, z) = (x + z, y + z, x + y + 2z).
(b3 ) T (1, 1, 1) = (4, 9, −4), T (0, 1, 1) = (2, 7, −3), T (0, 0, 1) = (1, 4, −2).
Solução:
(b1 ) Os autovalores de T são λ1 = 0 e λ2 = 1, neste caso o número de autovalores distintos é
menor que a dimensão do espaço, assim vamos utilizar as multiplicidades dos autovalores
para verificar se T é diagonalizável.
Vimos que p(λ ) = −λ (1 − λ )2 , com todas as raízes em R, daí segue que mA (0) = 1) e
mA (1) = 2.
Como os autoespaços correspondentes são: V0 = (0, 0, 1) e V1 = (1, 0, 1), (0, 1, 0) ,
consequentemente mG (0) = 1 e mG (1) = 2.
Portanto, T é um operador diagonalizável, podemos tomar a seguinte base de R3
0 0 0
B = {(0, 0, 1), (1, 0, 1), (0, 1, 0)}, assim [T ]B = 0 1 0 .
0 0 1
Solução:
(d1 ) Os autovalores de T são λ1 = 1, λ2 = 0 e λ3 = 3, assim T tem 3 autovalores distintos, como
dim R4 = 4, vamos usar as multiplicidades dos autovalores para verificar se T é diagonalizável.
Vimos que p(λ ) = (1 − λ )2 λ (λ − 3), com todas as raízes em R, daí segue que mA (1) = 2,
mA (0) = 1 e mA (3) = 1.
Os autoespaços correspondentes são:
V1 = (1, 0, 0, 0) , 0 = (0, 0, 1, −2) e V3 = (0, 0, 1, 1) ,
B = {(−1, 1, 0, 0), (−1, 0, 1, 1), (1, 1, −1, 0), (0, 0, −1, 1)},
3 0 0 0
0 3 0 0
assim [T ]B =
0 0 −3
.
0
0 0 0 −3
(e) T operador sobre M2 (R).
a b 2a + b 2b
(e1 ) T = .
c d 2c 2d
a b a+b b
(e2 ) T = .
c d 0 c−a−b
Solução:
(e1 ) O único autovalor de T são λ1 = 2, como dim M2 (R) = 4, vamos usar as multiplicidades do
autovalor para verificar se T é diagonalizável.
Vimos que p(λ ) = (2 − λ )4 , com todas as raízes em R, daí segue que mA (2) = 4.
O autoespaço correspondente é:
" #
a b 1 0 0 0 0 0
V2 = ∈ M2 (R; b = 0 = , , ,
c d 0 0 1 0 0 1
consequentemente mG (2) = 3, como mA (2) 6= mG (2), segue que T é um operador que não é
diagonalizável.
7.4 Operadores Auto-Adjuntos 205
i 0
B = {(1, −i), (1, i)}, assim [T ]B = .
0 −i
2 0
B = {(−i, 1), (i, 1)}, assim [T ]B = .
0 6
Nesta seção vamos considerar V um espaço vetorial sobre R, de dimensão finita e com produto interno.
Definição 7.4.1 Um operador linear T : V −→ V é chamado auto-adjunto se, e somente se, para
quaisquer u, v ∈ V tivermos
v, T (u) = T (v), u .
é auto-adjunto.
206 Capítulo 7. Diagonalização de Operadores Lineares
= (x1 − 2y1 + 3z1 )x2 + (−2x1 − y1 + 4z1 )y2 + (3x1 + 4y1 + z1 )z2
D E
= (x1 − 2y1 + 3z1 ), (−2x1 − y1 + 4z1 ), (3x1 + 4y1 + z1 ) , (x2 , y2 , z2 )
= T (x1 , y1 , z1 ), (x2 , y2 , z2 ) .
Observemos que a matriz de T em relação à base canônica de R3 é dada por:
1 −2 3
[T ] = −2 −1 4
3 4 1
que é uma matriz simétrica.
B é matriz ortogonal.
Proposição 7.4.2 Se B e B 0 são bases ortonormais de V , então MB 0
Demonstração:
Sejam B ={v1 , v2 , · · · , vn } e B 0 = {u1 , u2 , · · · , un } bases ortonormais de V e
a11 a12 · · · a1n
a21 a22 · · · a2n
MBB =
0 .. .. ..
. . ··· .
an1 an2 · · · ann .
Logo,
v1 = a11 u1 + a21 u2 + · · · + an1 un
v2 = a12 u1 + a22 u2 + · · · + an2 un
..
.
vn = a1n u1 + a2n u2 + · · · + ann un .
Como B e B0 são bases ortonormais, então, para todo i e todo j em {1, 2, · · · , n}, temos:
1 = hvi , vi i = a21i + a22i + · · · + a2ni
i6= j
0 = hvi , v j i = a1i a1 j + a2i a2 j + · · · + ani an j .
Mas,
a11 a21 ··· an1 a11 a12 · · · a1n
B
T
B
a12 a22 ··· an2 a21 a22 · · · a2n
MB0 · MB0 = ·
.. .. .. .. .. .
· · · ..
. . ··· . . .
a1n a2n · · · ann . an1 an2 · · · ann
a211 + a221 + · · · + a2n1 ··· a11 a1n + a21 a2n + · · · + an1 ann
a12 a11 + a22 a21 + · · · + an2 an1 ··· a12 a1n + a22 a2n + · · · + an2 an2
= = In .
.. ..
. ··· .
a1n a11 j + a2n a21 + · · · + ann an1 ··· a21n + a22n + · · · + a2nn
B é matriz ortogonal.
Portanto, MB 0
7.4 Operadores Auto-Adjuntos 207
Proposição 7.4.3 Se T : V −→ V operador linear tal que [T ]B 0 é simétrica, com B 0 base ortonormal
de V , então [T ]B é simétrica para B base ortonormal de V .
Assim,
T
B B
[T ]B = MB 0 · [T ]B0 · MB 0.
Portanto,
T T T T T
B T B B B T
[T ]B = MB 0 · [T ]B0 · MB 0 = MB 0 · [T ]B0 · MB 0 .
T
Como [T ]B0 é simétrica, segue que [T ]B0 = [T ]B0 .
Consequentemente,
T T T
B B T
[T ]B = MB 0 · [T ]B0 · MB 0 = [T ]B .
hvi , T (v j )i = hT (vi ), v j i
Portanto,
hv, T (u)i = hT (v), ui
hvi , T (v j )i = hT (vi ), v j i
Forma de Jordan
Exemplos 7.4.5 (a) O operador linear T : R2 −→ R2 dado por T (x, y) = (y, −x) não é diagonalizável,
pois:
−λ 1
p(λ ) = = λ2 +1
−1 −λ
−λ 1 0 0
−1 −λ 0 0
p(λ ) = = (λ − 1)2 (λ 2 + 1) = (λ − 1)2 (λ − i)(λ + i).
0 0 1−λ 1
0 0 0 1−λ
Vimos que nem todo operador linear é diagonalizável, se T é um operador linear de V um espaço
vetorial sobre C, sempre podemos encontrar uma base B tal que [T ]B = [ai j ] em que os elementos da
diagonal principal são os autovalores de T , os elementos a(i+1)i são iguais a 1 ou a zero e os demais
elementos da matriz são todos iguais a zero, esta é a chamada forma de Jordan do operador linear.
A matriz
−1 0 0 0 0 0 0
1 −1 0 0 0 0 0
0 0 3 0 0 0 0
0 0 0 7 0 0 0
0 0 0 0 2 0 0
0 0 0 0 1 2 0
0 0 0 0 0 1 2
é uma matriz na forma de Jordan.
A forma de Jordan de um operador linear é um assunto avançado de Álgebra Linear que pode ser
encontrado, por exemplo, em [Coelho], [Lima] e [Lipschutz].
Bibliografia
[1] H. A NTON e C. RORRES. Álgebra Linear com Aplicações. 10ª edição, Bookman, São
Paulo, 2012.
[2] R. B. BAPAT. Linear Algebra and Linear Models. Third Edition. Springer, London, 2012.
[3] J. L. B OLDRINI, S. I.. R. C OSTA, V. L. F IGUEIREDO e H. G. W ETZLER. Álgebra Linear,
3ª edição, Editora Harbra, São Paulo, 1986.
[4] M. C ABRAL e P. G OLDFELD. Curso de Álgebra Linear: Fundamentos e
Aplicações. Instituto de Matemática, UFRJ, 3ª edição, 2012, disponível em
http://www.labma.ufrj.br/alglin/CursoAlgLin-livro-31-out-2012.pdf
[5] C. A. C ALLIOLI , H. I. D OMINGUES e R. C. F. C OSTA. Álgebra Linear e Aplicações. 6ª
edição, Atual Editora, São Paulo, 1990.
[6] F. U. C OELHO e M. L. L OURENÇO. Um Curso de Álgebra Linear. 2ª Edição, Edusp, São
Paulo, 2005.
[7] D. M. FARIAS , P. H. A. KONZEN e R. R. S OUZA. Álgebra
Linear, um Livro Colaborativo, UFRGS, 2018, disponível em
https://www.ufrgs.br/reamat/AlgebraLinear/livro/livro.pdf
[8] K. H OFFMAN e R. K UNZE. Linear Algebra, Second Edition. Prentice Hall Inc., New
Jersey, 1971.
[9] S. L ANG. Álgebra Linear. Editora Ciência Moderna, São Paulo, 2003.
[10] D. C. L AY, Álgebra Linear e suas Aplicações. 2ª edição, Editora LTC, 1999.
[11] E. L. L IMA. Álgebra Linear. 9ª Edição, Coleção Matemática Universitária, IMPA, Rio de
Janeiro, 2018.
[12] S. L IPSCHUTZ. Álgebra Linear. Coleção Schaum, Makron Books), São Paulo, 1994.
212 BIBLIOGRAFIA