Escolar Documentos
Profissional Documentos
Cultura Documentos
2 Espaços Vetoriais 57
2.1 Subespaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
2.1.1 Intersecção de Subespaços Vetoriais . . . . . . . . . . . . . . . 75
2.1.2 Soma de Subespaços Vetoriais . . . . . . . . . . . . . . . . . . 77
2.2 Combinação Linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
2.2.1 Subespaços Vetoriais Finitamente Gerados . . . . . . . . . . . 81
2.3 Dependência e Independência Linear . . . . . . . . . . . . . . . . . . 85
2.4 Base e Dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
1
2 SUMÁRIO
Embora só exista uma disciplina de Álgebra Linear na grade do curso, ela é tão
importante quanto o Cálculo. A Álgebra Linear se destina ao estudo de certos
conjuntos que possuem uma estrutura simples em comum, o que permite formalizar
uma teoria. Estes conjuntos recebem o nome de espaços vetoriais.
~u = a~i + b ~j,
onde ~i = (1, 0) e ~j = (0, 1). Podemos então dizer que as combinações destes dois
vetores “cobrem”todo V2 .
Além disso, qualquer vetor ~u em V3 tem três componentes reais a, b e c e pode ser
3
4 SUMÁRIO
1.1 Matrizes
5
6 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
Para saber quanto irá gastar por filial em cada fornecedor, basta fazer uma conta
simples:
Fornecedor A Fornecedor B
Filial I 4 · 13 + 1 · 10 + 2 · 34 = 130 4 · 15 + 1 · 11 + 2 · 32 =135
Filial II 5 · 13 + 1 · 10 + 3 · 34 = 177 5 · 15 + 1 · 11 + 3 · 32 = 182
Cada elemento que compõe a matriz é chamado de termo, sendo aij o termo geral
da matriz.
OBS: Uma matriz pode ser delimitada por parênteses (“( )”), colchetes ( “[ ]”)
ou barras duplas ( “k k”), sendo esta última notação menos usual.
2 5 0 −3 " #
4 0
Exemplo 1.1. A = 4 3 0 0 é uma matriz 3 × 4, B = é uma
0 0
1 2 1 −1
1.1. MATRIZES 7
3 −1 0
√
4 0 5
matriz com 2 × 2, ou simplesmente, de ordem 2, e C = é uma
3/4 8 6
9 0 π
matriz 4 × 3.
Denotamos o conjunto formado por todas as matrizes reais m por n por Mm×n (R)
ou, no nosso caso, simplesmente por Mm×n .
Matriz Nula: é a matriz A = (aij )m×n cujos termos são nulos, ou seja, aij = 0
para todos 1 ≤ i ≤ m e 1 ≤ j ≤ n. Denotamos esta matriz por 0.
A = (aij )n×n .
3 5 1
termos 3, −1 e 1, enquanto que a diagonal secundária é formada pelos termos 3, −1
e 0.
Dentro do conjunto de matrizes quadradas, há outros tipos especiais que merecem
destaque.
Matriz Triangular Superior: é uma matriz de ordem n A = (aij )n×n onde
aij = 0 sempre que i > j, ou seja, onde todos os elementos abaixo da diagonal
principal são nulos.
Exemplo 1.3.
−2 3 0 3
0 1 3 1
A=
0 0
5 2
0 0 0 −4
Matriz Triangular Inferior: é uma matriz de ordem n A = (aij )n×n onde aij = 0
sempre que i < j, ou seja, onde todos os elementos acima da diagonal principal são
nulos.
Exemplo 1.4.
3 0 0 0
4 1 0 0
A=
−1 3 6 0
0 2 3 −4
.
Matriz Diagonal: é uma matriz de ordem n D = (aij )n×n onde aij = 0 sempre
que i 6= j, ou seja, onde todos os elementos fora da diagonal principal são nulos.
1.1. MATRIZES 9
Exemplo 1.5.
3 0 0 0
0 1 0 0
D=
0 0 6 0
0 0 0 −4
.
Em outras palavras, é uma matriz diagonal cujos termos da diagonal principal são
iguais a um.
Exemplo 1.6.
1 0 0 0
0 1 0 0
I4 =
0 0 1 0
0 0 0 1
.
Matriz Simétrica: é uma matriz de ordem n S = (aij )n×n tal que aij = aji
para todos i, j entre 1 e n.
Exemplo 1.7.
−1 3 0 4
3 1 −5 2
S= √
0 −5 5 6
√
4 2 6 8
.
10 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
Exemplo 1.8.
−1 −3 0 4
3 1 5 −2
S= √
0 −5 5 − 6
√
−4 2 6 8
.
Dizemos que duas matrizes A e B são iguais se elas possuı́rem o mesmo número de
linhas e colunas e se seus termos correspondentes forem iguais, ou seja, se aij = bij ,
m=p
A = B ⇐⇒ n=q
aij = bij , para cada i, j.
4 3 4 z
Exemplo 1.9. As matrizes A = x 2 e B = 1 2 são iguais se, e
0 y 0 1
somente se, x = 1, y = 1 e z = 3.
Adição de matrizes
.
−2 3 1 0
Exemplo 1.10. Dadas as matrizes A = 5 4 e B = 12 −5 perten-
1 0 0 2
centes a M3×2 , temos
−2 3 1 0 −2 + 1 3 + 0 −1 3
A + B = 5 4 + 12 −5 = 5 + 12 4 − 5 = 17 −1
1 0 0 2 1+0 0+2 1 2
Propriedades da adição:
3. Existência de elemento neutro: Existe uma matriz X em Mm×n tal que A+X =
X + A = A, qualquer que seja A em Mm×n . Denotamos esta matriz por 0.
λ A = (λ aij )m×n
.
12 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
−2 3
Exemplo 1.11. Dada a matriz A = 5 4 pertencente a M3×2 , temos
1 0
−2 3 3 · (−2) 3 · 3 −6 9
3·A=3· 5 4 = 3·5 3 · 4 = 15 12
1 0 3·1 3·0 3 0
2. Distributividade:
3. 1 · A = A.
Multiplicação de matrizes
Exemplo 1.12.
! 3 4 5 !
2 1 0 7 8 8
· 1 0 −2 =
0 1 2 1 −2 −4
0 −1 −1
1.1. MATRIZES 13
Exemplo 1.13.
! −4 0 !
1 3 3 17 0
· 5 1 =
−2 0 2 12 −2
2 −1
2. Distributividade:
(i) (A + B) · C = A · C + B · C.
(ii) A · (B + C) = A · B + A · C.
Matriz Inversa
A · (B · A) = A·C
(A · B) · A = A·C
I·A
) = A·C
A = A·C
=⇒ C = I.
A = A·I
B · (A · D) = B · I
(B · A) · D = B
I · D = B =⇒ D = B.
3. Se A é uma matriz com uma de suas linhas (ou colunas) nula, então A não é
inversivel.
Demonstração. Seja A = (aij )n×n uma matriz tal que, para algum k entre
1 e n, akj = 0, para todo j entre 1 e n, ou seja, a k-ésima linha da matriz
é nula, e vamos supor, por absurdo, que A é inversı́vel. Neste caso, existe
A−1 = (bij )n×n tal que
A · A−1 = In
(
1 se i = j
(aij )n×n · (bij )n×n = (cij )n×n onde cij = , 1 ≤ i, j ≤ n.
0 6 j
se i =
Em particular, para cada i e cada j, (akj ) · (bik ) = ckk . Como akj = 0, para
todo j, segue que ckk = 0. Mas isso é um absurdo, pois ckk = 1.
Portanto, A não é inversı́vel.
Provamos a propriedade para matrizes que possuem uma linha nula, mas o
mesmo argumento é utilizado para provar a propriedade para matrizes que
possuem uma coluna nula.
16 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
Transposição de matrizes
Consideremos A = (aij )m×n uma matriz real, onde m e n são números inteiros
positivos. Definimos a matriz transposta a A como sendo AT = (aji )n×m .
Exemplo 1.16.
4 6 !
4 −2 0
A = −2 3 =⇒ AT =
6 3 5
0 5
0 −5 1 1
1 1 !
1 3 1
A+B= 3 0 =⇒ (A + B)T = .
1 0 −4
1 −4
! !
−1 3 0 2 0 1
Por outro lado, AT = , BT = ,e
3 1 −5 −2 −1 1
!
1 3 1
A T + BT = = (A + B)T
1 0 −4
Exemplo 1.18.
−1 3 0 4 −1 3 0 4
3 1 −5 2 T
3 1 −5 2
S= √ =⇒ S =
√ =S
0 −5 5 6 0 −5 5 6
√ √
4 2 6 8 4 2 6 8
1.1. MATRIZES 17
3. (A · B)T = BT · AT .
! 4 5
2 0 1
Exemplo 1.19. Tomando A = e B = 3 −2 , temos que
−1 3 1
2 0
! 4 5 !
2 0 1 10 10
A·B= · 3 −2 =
−1 3 1 7 −11
2 0
!
10 7
Segue que (A · B)T = .
10 −11
2 −1 !
4 3 2
Por outro lado, AT = 0 3 e BT = . Logo
5 −2 0
1 1
! 2 −1
4 3 2
BT · AT = · 0 3
5 −2 0
1 1
!
10 7
= = (A · B)T .
10 −11
18 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
Esses sistemas, em geral, tinham uma única solução. Depois, você deve ter aprendido
que, na verdade, a solução poderia nem existir, ou mesmo não ser única.
(
2x + y = 3
II :
6x + 3y = 9.
(
2x + y = 3
III :
4x + 2y = 4.
Mas por que estas equações se chamam lineares?
Pela sua interpretação geométrica. Vamos analisar os exemplos anteriores neste
contexto.
(
2x + y = 6
I:
3x − y = 1.
y r
6
A
A
A
A
r
A
A
A
A
A
A
A -
A
A x
r AA
1.2. SISTEMAS DE EQUAÇÕES LINEARES 19
(
2x + y = 3
II :
6x + 3y = 9.
y
6
A
A
A
A
Ar
A
A
A
A -
A x
A
A
A
AA
(
2x + y = 3
III :
4x + 2y = 4.
y
6
A
AA
AA
AA
AA r
AA
ArA
AA -
AA
x
AA
AA
AA
AA
A AA
(todos os pontos que incidem sobre a reta) ou impossı́vel (duas retas paralelas e,
portanto, sem pontos em comum).
A mesma ideia pode ser estendida para sistemas com maior número de incógnitas
e equações.
Definição 3. Um sistema com m equações e n incógnitas é o conjunto de equações
do tipo
a11 x1 + a12 x2 + ... + a1n xn = b1
a21 x1 + a22 x2 + ... + a2n xn = b2
(∗)
...
am1 x1 + am2 x2 + ... + amn xn = bm ,
com aij , bi ∈ R para todos i, j, com 1 ≤ i ≤ m e 1 ≤ j ≤ n.
Exemplo 1.20.
3x1 + 4x2 + 3x3 − 2x4 = 1
−x1 + x2 − x3 + x4 = 1
x1 + 3x2 − 2x3 + 3x4 = 4
(
2x + y = 5
Vamos agora considerar um sistema simples, por exemplo, , e
x − 3y = 6
resolvê-lo.
Você deve conhecer dois métodos de resolução: via substituição ou via eli-
minação. Vamos trabalhar com este segundo. A ideia é multiplicar a segunda
equação por uma constante de maneira que, ao somar as duas equações, obtenha-
mos uma única equação dependendo de uma única incógnita.
(
2x + y = 5
x − 3y = 6
(
2x + y = 5
−2x + 6y = −12
0 + 7y = −7
y = −1, x = 3
1.2. SISTEMAS DE EQUAÇÕES LINEARES 21
Note que, resolver o primeiro sistema ou o último sistema resulta nos mesmo valores
de x e y. Dizemos então que eles são equivalentes.
Assim, podemos utilizar sistemas semelhantes para resolver sistemas. Por outro
lado, trabalhar com sistemas grandes, mesmo em termos de sistemas equivalentes
pode se tornar um pouco confuso. Há uma maneira de amenizar este fato, ”limpar”o
processo: basta utilizarmos matrizes.
x − y + z = 1
Exemplo 1.22. O sistema 2x − y + z = 4 pode ser representado ma-
x − 2y + 2z = 0
1.2. SISTEMAS DE EQUAÇÕES LINEARES 23
1 −2 2 z 0
1 −2 2 | 0
↓ L2 ← (−2)L2
( !
2x + y = 5 ←− L1 2 1 | 5
−2x + 6y = −12 ←− L2 −2 6 | −12
↓ L2 ← L1 + L2
( !
2x + y = 5 ←− L1 2 1 | 5
0 + 7y = −7 ←− L2 0 7 | −7
↓ L2 ← 1/7L2
( !
2x + y = 5 ←− L1 2 1 | 5
0 + 1y = −1 ←− L2 0 1 | −1
24 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
Note que a notação matricial torna muito mais limpo o processo de resolução. A
ideia então será definirmos as operações elementares sobre matrizes e resolvermos
os sistemas através das matrizes estendidas associadas a eles.
(i) Permuta de i-ésima linha de uma matriz pela j-ésima linha da matriz (Li ↔
Lj )
Exemplo 1.23.
0 −2 5 0 −2 5
−−−−−→
4 3 0 L2 ↔ L3 1 −1 3
1 −1 3 4 3 0
(ii) Multiplicação da iésima linha por um escalar não nulo (Li ← k · Li , com k
real)
Exemplo 1.24.
0 −2 5 0 −2 5
−−−−−−−−−→
4 3 0 L3 ← (−2)L3 4 3 0
1 −1 3 −2 2 −6
Exemplo 1.25.
0 −2 5 0 −2 5
−−−−−−−−−→
4 3 0 L3 ← L3 − L2 4 3 0
1 −1 3 −3 −4 3
1.2. SISTEMAS DE EQUAÇÕES LINEARES 25
Se uma matriz B pode ser obtida através das operações elementares sobre as linhas
de uma matriz A, dizemos que A e B são linha-equivalentes e escrevemos A ← B.
OBS: Se as matrizes estendidas de dois sistemas são linha-equivalentes, então os
sistemas são equivalentes.
O método de Gauss consiste em resolver o sistema linear por meio de sua matriz
ampliada S m × n, efetuando operações elementares até encontrar uma matriz S 0 =
(sij )m×n linha-equivalente a S tal que
(i) sij = 0 sempre que i > j (se i ≤ j, sij pode ou não ser nulo)
(ii) Se, na i-ésima linha, sik = 0 para todo k < j e sij 6= 0, então na (i + 1)-ésima
linha s(i+1)k = 0 para todo k ≤ j.
Exemplo 1.26.
2 3 4 2 3 4 5
S1 = 0 1 3 S2 = 0 2 1 3
0 0 2 0 0 8 3
2 3 4 5 2 3 4 5
S3 = 0 0 1 3 S4 = 0 1 0 3
0 0 0 6 0 0 0 0
Este sistema pode ser escrito como uma multiplicação de matrizes A · X = B, onde
1 4 3 x 1
A= 2 5 4 , X = y , e B = 4 ,
1 −3 −2 z 5
1 −3 −2 | 5
Vamos trabalhar com a matriz estendida via operações elementares até encontrar
uma matriz linha-equivalente na forma escalonada.
1.2. SISTEMAS DE EQUAÇÕES LINEARES 27
1 4 3 | 1 −−−−−−−−−−−−→
1 4 3 | 1
2 5 4 | 4 L3 ← L3 − L1 2 5 4 | 4
1 −3 −2 | 5 0 −7 −5 | 4
−−−−−−−−−−−−→
1 4 3 | 1
L2 ← L2 − 2L1 0 −3 −2 | 2
0 −7 −5 | 4
−−−−−−−−−−→
1 4 3 | 1
L3 ← −3L3 0 −3 −2 | 2
0 21 15 | −12
−
−−−−−−−−−−−→ 1 4 3 | 1
L3 ← L3 + 7L2 0 −3 −2 | 2
0 0 1 | 2
é a mesma coisa. O sistema tem apenas uma solução: (x, y, z) = (3, −2, 2). Note
ainda que o posto da matriz A e o posto da matriz S são iguais a 3.
Outro exemplo:
Exemplo 1.28.
x + y + z + 3t = 1
x + y − z + 2t = 0
2x + 2y + 5t = 1
6z + 3t = 3
28 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
Assim
1 1 1 3 | 1 1 1 1 3 | 1
1 1 −1 2 | 0
−−−−−−−−−−−−→
0
0 −2 −1 | −1
L2 ← L2 − L1
2 2 0 5 | 1
2 2 0 5 | 1
0 0 6 3 | 3 0 0 6 3 | 3
1 1 1 3 | 1
−−−−−−−−−−−−→
0
0 −2 −1 | −1
L4 ← L4 + 3L2
2
2 0 5 | 1
0 0 0 0 | 0
1 1 1 3 | 1
−−−−−−−−−−−−−−→
0
0 −2 −1 | −1
L3 ← −L3 − 2L1
0
0 −2 −1 | −1
0 0 0 0 | 0
1 1 1 3 | 1
−−−−−−−−−−−−→
0
0 −2 −1 | −1
L3 ← L3 − L2
0
0 0 0 | 0
0 0 0 0 | 0
S são iguais a 2.
Exemplo 1.29.
x+y+z =1
x−y−z =2
2x + y + z = 3
2 1 1 | 3
Assim
1 1 1 | 1 −−−−−−−−−−−−→
1 1 1 | 1
1 −1 −1 | 2 L2 ← L2 − L1 0 −2 −2 | 1
2 1 1 | 3 2 1 1 | 3
−−−−−−−−−−−−→
1 1 1 | 1
L3 ← L3 − 2L1 0 −2 −2 | 1
0 −1 −1 | 2
−−−−−−−−−−−−−−−→
! 1 1 1 | 1
1
L3 ← −L3 − 2 L2 0 −2 −2 | 1
0 0 0 | 32
solução se, e somente se, o posto da matriz de coeficientes A for igual ao posto da
matriz estendida S, ou seja, p(A) = p(S). Além disso,
1.3 Determinantes
Consideremos a equação a · x = b. É claro que, se a 6= 0, x = b/a. Pensando nesta
equação como um sistema A · x = b de tamanho 1 × 1, a matriz de coeficientes
associada corrresponde a A = (a).
Consideremos agora um sistema 2 × 2
(
a11 x1 + a12 x2 = b1
a21 x1 + a22 x2 = b2
(a22 · a11 − a12 · a21 )x1 + (a22 · a12 − a12 · a22 )x2 = a22 · b1 − a12 · b2
a22 · b1 − a12 · b2
x1 =
a22 · a11 − a12 · a21
(a11 · a21 − a21 · a11 )x1 + (a11 · a22 − a21 · a12 )x2 = a11 · b2 − a21 · b1
a11 · b2 − a21 · b1
x2 =
a22 · a11 − a12 · a21
32 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
Note que os denominadores são iguais e dependem apenas dos coeficientes do sis-
tema, ou seja, estão de alguma forma associados a matriz de coeficientes
!
a11 a12
A= .
a21 a22
a11 a22 a33 − a11 a23 a32 + a12 a23 a31 − a12 a21 a33 + a13 a21 a32 − a13 a22 a31 ,
a11 a12 a13
det a21 a22 a23 = a11 a22 a33 − a11 a23 a32 + a12 a23 a31 +
Definição 7. Dados n objetos distintos, uma permutação entre esses objetos consiste
em colocá-los em determinada ordem. O número de permutações possı́veis, neste
caso, será n!.
Definição 8. Dada uma permutação dos inteiros 1, 2, ..., n, existe uma inversão
quando um inteiro precede outro menor do que ele.
Podemos reescrever cada termo desta soma como a1j1 a2j2 a3j3 , onde (j1 j2 j3 ) é
uma permutação de 1, 2, 3. Além disso, o sinal é negativo se a permutação tiver um
número ı́mpar de inversões. Generalizando,
Note que as permutações podem ser consideradas tanto em relação às colunas
34 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
quanto às linhas da matriz: basta um rearranjamento nos termos de cada parcela.
X
det A = (−1)J a1j1 a2j2 ...aiji ...anjn
ρ
X
= (−1)J aj1 1 aj2 2 ...aji i ...ajn n
ρ
Demonstração. Dada uma matriz A = (aij )n×n , consideremos B = (bij )n×n a matriz
transposta a A. Então bij = aji para i, j ∈ {1, 2, ...n}. Então
X
detB = (−1)J b1j1 b2j2 ...biji ...bnjn
ρ
X
= (−1)J aj1 1 aj2 2 ...aji i ...ajn n
ρ
= det A.
1.3. DETERMINANTES 35
Então
X
detB = (−1)J b1j1 ...b(k−1)j(k−1) bkjk b(k+1)j(k+1) ...bnjn
ρ
X
= (−1)J a1j1 ...a(k−1)j(k−1) (c · akjk ) a(k+1)j(k+1) ...anjn
ρ
X
= (−1)J c · a1j1 ...a(k−1)j(k−1) akjk a(k+1)j(k+1) ...anjn
ρ
!
X
= c· (−1)J a1j1 ...a(k−1)j(k−1) akjk a(k+1)j(k+1) ...anjn
ρ
= c · det A
Proposição 1.3.4. Uma vez trocadas duas linhas, o determinante troca de sinal.
uma unidade o número de inversões e alterando o sinal das parcelas em que isso
ocorrer. Como uma das situações irá ocorrer necessariamente, todas as parcelas da
soma trocarão de sinal. Segue que o determinante da matriz após a troca será igual
a (− det A).
Proposição 1.3.5. O determinante de uma matriz com duas linhas (ou colunas)
iguais é zero.
Demonstração. Consideremos uma matriz A = (aij )n×n tal que as linhas l e k são
iguais. Pela propriedade anterior, se trocarmos essas duas linhas, o determinante da
nova matriz B será igual a detB = − det A. Por outro lado, as linhas são iguais, ou
seja, B = A, implicando em det A = − det A. Segue que det A = 0.
Proposição 1.3.7. Se somarmos uma linha a outra multiplicada por uma constante,
o determinante não se altera.
a11 a12 ... a1n
.
.. .. ..
. .
ai1 ai2 ... ain
.
.. .. ..
=
. .
ak1 + c · ai1 ak2 + c · ai2 ... akn + c · ain
.. .. ..
. . .
an1 an2 ... ann
38 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
a11 a12 ... a1n a11
a12 ... a1n
.. .. .. .. .. ..
. . . .
. .
ai1 ai2 ... ain a
i1 ai2 ... ain
.. .. .. .
+ .. .. ..
= . . . . . =
c · ai1 c · ai2 ... c · ain
ak1 ak2 ... akn
.. .. .. .. .. ..
. . . . . .
an1 an2 ... ann an1 an2 ... ann
a11 a12 ... a1n
a11
a12 ... a1n
.. .. .. .. .. ..
. . .
.
. .
ai1 ai2 ... ain
a
i1 ai2 ... ain
.. .. .. + c · ...
.. ..
= . . . . . =
ak1 ak2 ... akn ai1 ai2 ... ain
.. .. .. .. .. ..
. . . . . .
an1 an2 ... ann an1 an2 ... ann
a11 a12 ... a1n
a11 a12 ... a1n
.. .. .. .. .. ..
. . .
. . .
ai1 ai2 ... ain
ai1 ai2 ... ain
.. .. ..
+c·0=
.. .. ..
= . . . . . . = det A.
ak1 ak2 ... akn ak1 ak2 ... akn
.. .. .. .. .. ..
. . . . . .
an1 an2 ... ann an1 an2 ... ann
Note que, mesmo com a definição de determinante, calculá-lo para uma matriz
de ordem maior do que 3 pode ser bastante complicado: no caso de uma matriz de
ordem 4, por exemplo, serão 24 parcelas a serem somadas (o número de permutações
1.3. DETERMINANTES 39
DESENVOLVIMENTO DE LAPLACE
Note que cada um dos elementos da matriz aparece duas vezes ao longo da
expressão. Podemos então escolher três e colocá-los em evidência. Vamos fixar, por
exemplo, os elementos da primeira linha da matriz. Então
a11 a12 a13
a21 a22 a23 = a11 (a22 a33 − a23 a32 ) +
a31 a32 a33
+ a12 (a23 a31 − a21 a33 ) + a13 (a21 a32 − a22 a31 )
a11 a12 a13
a
22 a23
a
21 a23
a
21 a22
a21 a22 a23 = a11 − a12 + a13
a32 a33 a31 a33 a31 a32
a31 a32 a33
onde Aij é a submatriz de A cujas i-ésima linha e j-ésima colunas foram retiradas.
Se definirmos o cofator do elemento aij como sendo
obtemos
det A = a11 ∆11 + a12 ∆12 + a13 ∆13 .
Exemplo 1.32.
2 1 0
A = −3 1 4
1 6 5
(det A = −19)
Exemplo 1.33.
1 −2 3
A= 2 1 −1
−2 −1 2
(det A = 5)
Exemplo 1.34.
−1 2 3 −4
4 2 0 0
A=
−1 2 −3 0
2 5 3 1
(det A = 372)
A = [∆ij ].
1 6 5
cálculos simples, encontramos ∆11 = −19, ∆12 = 19,... Assim, a matriz dos cofatores
de A é dada por
−19 19 −19
A = −5 10 −11 .
4 −8 5
42 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
T
Vamos agora multiplicar a matriz A por A :
2 1 0 −19 −5 4
T
A · A = −3 1 4 · 19 10 −8
1 6 5 −19 −11 5
−19 0 0
= 0 −19 0
0 0 −19
1 0 0
= −19 · 0 1 0 .
0 0 1
Na verdade, não.
T
Teorema 1.3.10. Seja A uma matriz de ordem n. Então A · A = A · adj A =
det A · In .
onde
0 0 det A
Voltemos agora ao problema que começou toda esta discussão: como saber se
uma matriz quadrada A admite inversa e, caso exista, como encontrá-la?
Suponhamos que A seja uma matriz que admite inversa A−1 . Então, por de-
finição, A · A−1 = I. Neste caso, pelas propriedades de determinantes,
det A · A−1
= detI
det (A) · det A−1 = 1
1
det(A−1 ) = .
det A
Assim,
• det A 6= 0
1
• det A−1 = .
det A
.
Suponhamos agora que A seja uma matriz tal que det A 6= 0 e consideremos a
matriz adjunta de A, adj A. Então
A · adj A = det A · In
adj A
A· = In
det A
Teorema 1.3.12. Uma matriz quadrada A admite uma inversa se, e somente se,
1
A−1 = · adj A.
det A
1.3. DETERMINANTES 45
1 1 0
Exemplo 1.36. Vamos verificar se a matriz A = 0 1 1 é inversı́vel, calcu-
1 0 2
lando seu determinante.
Fixando a primeira linha, temos que det A = a11 · ∆11 + a12 · ∆12 + a13 · ∆13 , onde
1+1 1 1
∆11 = (−1) · = 2,
0 2
1+2 0 1
∆12 = (−1) · = 1,
1 2
1+3 0 1
∆13 = (−1) · = −1
1 0
Assim,
2 1 −1 2 −2 1
A = −2 2 1 =⇒ adj A = 1 2 −1
1 −1 1 −1 1 1
2 −2 1
Portanto, A−1 = 1
· 1 2 −1 .
3
−1 1 1
Note que, encontrar a matriz inversa utilizando determinantes envolve uma quan-
tidade razoável de cálculos. Imagine realizar este procedimento para encontrar a
inversa de uma matriz de ordem 5?
Existe outra maneira de determinar a inversa de uma matriz: utilizando as
operações elementares. Vamos ver como funciona.
Já introduzimos algumas aulas atrás as operações elementares que podem ser fei-
tas sobre uma matriz, de modo a obter uma matriz linha-equivalente a original.
Nosso objetivo agora é ver como aquelas operações podem ser úteis para encon-
trar a inversa de uma matriz inversı́vel. Consideremos uma matriz de ordem 3,
a11 a12 a13
A = a21 a22 a23 .
Definição 11. Uma matriz elementar é uma matriz obtida a partir da matriz iden-
tidade através da aplicação de uma operação elementar em suas linhas.
• E1 foi obtida multiplicando-se uma linha i de In por uma constante c não nula.
1.3. DETERMINANTES 49
(E1 · E2 · ... · Em ) · A = In
E1−1 · (E1 · E2 · ... · Em ) · A = E1−1 · In
E2−1 · (In · E2 · ... · Em ) · A = E2−1 · E1−1 · In
..
.
−1
A = Em · ...E2−1 · E1−1 · In
A−1 = In−1 · E −1
A−1 = In · E −1
A−1 = E −1 · In
A−1 = (E1 · E2 · ... · Em ) · In
Temos então uma maneira de obter a inversa de uma matriz inversı́vel A através de
operações elementares: as mesmas operações que transformam A em In transformam
In em A−1 .
1 1 0
Exemplo 1.37. Considere a matriz A = 0 1 1 . Já sabemos que esta matriz
1 0 2
1.3. DETERMINANTES 51
1 0 2 | 0 0 1
1 1 0 | 1 0 0
−→L3 ←L3 −L1 0 1 1 | 0 1 0
0 −1 2 | −1 0 1
1 1 0 | 1 0 0
−→L3 ←L3 +L2 0 1 1 | 0 1 0
0 0 3 | −1 1 1
1 1 0 | 1 0 0
−→L3 ←(1/3)·L3 0 1 1 | 0 1 0
2 −2 1
Assim, A−1 = 1
· 1 2 −1 .
3
−1 1 1
1 2 1
Exemplo 1.38. Considere a matriz A = 0 1 2 . Esta matriz é inversı́vel,
1 1 1
52 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
1 1 1 | 0 0 1
1 2 1 | 1 0 0
−→L3 ←L3 −L1 0 1 2 | 0 1 0
0 −1 0 | −1 0 1
1 2 1 | 1 0 0
−→L3 ←L3 +L2 0 1 2 | 0 1 0
0 0 2 | −1 1 1
1 2 1 | 1 0 0
−→L2 ←L2 −L3 0 1 0 | 1 0 −1
0 0 2 | −1 1 1
1 2 1 | 1 0 0
−→L3 ←(1/2)·L3 0 1 0 | 1 0 −1
A−1 · (A · X) = A−1 · B
A−1 · A · X = A−1 · B
In · X = A−1 · B
X = A−1 · B.
1 1 1 z 2
54 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
−1 −1 3
Como já conhecemos a matriz inversa de A, A−1 = 12 · 2 0 −2 , podemos
−1 1 1
utilizá-la para calcular o sistema:
X = A−1 · B
x −1 −1 3 1
−1 1
y = A = · 2 0 −2 · −4
2
z −1 1 1 2
9
1
= · −2
2
−3
1
X = · adj A · B
det A
x1 ∆11 ∆21 ... ∆n1 b1
x2 ∆12 ∆22 ... ∆n2 b2
1
.. = · .
.. .. · ..
.
det A . . . . .
1 1 1 z 2
Espaços Vetoriais
é importante comentar que é comum representar um vetor u como uma matriz coluna
57
58 CAPÍTULO 2. ESPAÇOS VETORIAIS
(n × 1):
x1
x2
~u = (x1 , x2 , ..., xn ) ⇔ ~u = ..
.
xn
e que as operações que definimos acima, neste caso, ficariam da seguinte forma:
x1 y1 x1 + y 1
x2 y 2 x2 + y 2
• ~u + ~v = . + . =
..
.
. . . .
xn yn xn + y n
x1 λ · x1
x2 λ · x2
• λ · ~u = λ · .. = .. , para todo λ ∈ R.
. .
xn λ · xn
2. (~u + ~v ) + w
~ = ~v + (~u + w), ~ ∈ Vn
~ para todo ~u, ~v , w
3. Existe um único elemento ~0 = (0, 0, ...0) tal que ~u + ~0 = ~u, para todo u ∈ Vn
6. (α + β) · ~u = α · ~u + β · ~u , para todo ~u ∈ Vn
(α + β) · A = α · A + β · A, para todo A ∈ Mm×n
8. 1 · ~u = ~u , para todo ~u ∈ Vn
1 · A = A, para toda A ∈ Mm×n
Definição 12. Seja V um conjunto não vazio sobre o qual estão definidas duas
operações
+ : V × V −→ V · : R × V −→ V
(u, v) 7→ u + v (α, v) 7→ α · v
A definição anterior pode ser expandida para espaços vetoriais sobre C: basta
considerar este o conjunto dos escalares presente na definição no lugar do conjunto
dos números reais. No nosso curso, trabalharemos apenas com espaços vetoriais
reais.
u + v = (x1 , y1 ) + (x2 , y2 )
= (x1 + x2 , y1 + y2 )
= (x2 + x1 , y2 + y1 )
= (x2 , y2 ) + (x1 , y1 )
= v+u
0V + u = (0, 0) + (x, y)
= (0 + x, 0 + y)
= (x, y)
= u
(α · β) · u = (α · β) · (x, y)
= ((α · β) · x, (α · β) · y)
= (α · (β · x), α · (β · y))
= α · (β · x, β · y)
= α · (β · (x, y))
= α · (β · u)
(α + β) · u = (α + β) · (x, y)
= ((α + β) · x, (α + β) · y)
= (α · x + β · x, α · y + β · y)
= (α · x, α · y) + (β · x, β · y)
= α · (x, y) + β · (x, y)
= α·u+β·v
α · (u + v) = α · ((x1 , y1 ) + (x2 , y2 ))
= α · (x1 + x2 , y1 + y2 )
= (α · (x1 + x2 ), α · (y1 + y2 ))
= (α · x1 + α · x2 , α · y1 + α · y2 )
= (α · x1 , α · y1 ) + (α · x2 , α · y2 )
= α · (x1 , y1 ) + α · (x2 , y2 )
= α·u+α·v
1 · u = 1 · (x, y)
= (1 · x, 1 · y)
= (x, y)
= u
Exemplo 2.3. De modo análogo, mostramos que Rn é espaço vetorial, para todo
n ∈ Z+ .
Exemplo 2.6. O conjunto dos polinómios de grau n com coeficientes reais, Pn (R)
tem definido sobre ele a adição de polinómios e a multiplicação por escalar. De fato,
dados dois polinómios p(x), q(x) ∈ Pn (R), existem a0 , a1 , .., an e b0 , b1 , ..., bn reais
64 CAPÍTULO 2. ESPAÇOS VETORIAIS
tais que
p(x) = a0 + a1 x + a2 x2 + ... + an xn
q(x) = b0 + b1 x + b2 x2 + ... + bn xn .
Definimos então
Exemplo 2.7. O conjunto das funções reais contı́nuas, C(R) tem definido sobre ele
a adição de funções e a multiplicação por escalar:
α (x, x2 ) := α · x, (α · x)2 ∈ V.
Vamos agora ver um contra-exemplo, isto é, um conjunto que, munido de certas
operações, não é um espaço vetorial.
não é um espaço vetorial. Embora os quatro axiomas para adição sejam válidos (já
mostramos isso), precisamos verificar os axiomas da multiplicação por escalar.
(α · β) · u = (α · β) · (x, y)
= ((α · β) · x, y)
= (α · (β · x), y))
= α · (β · x, y)
= α · (β · (x, y))
= α · (β · u)
(α + β) · u = (α + β) · (x, y)
= ((α + β) · x, y)
66 CAPÍTULO 2. ESPAÇOS VETORIAIS
α · u + β · u = α · (x, y) + β · (x, y)
= (α · x, y) + (β · x, y)
= (α · x + β · x, y + y)
= (α · x + β · x, 2y)
= ((α + β) · x, 2y)
6= (α + β) · u.
mas
α · (0, 3) + β · (0, 3) = (0, 6).
Logo R2 , munido destas operações, não é um espaço vetorial, pois não atende
ao axioma que afirma ∀α, β ∈ , u ∈⇒ (α + β) u = αu + βu.
−u + (u + v) = −u + u
(−u + u) + v = 0V
0V + v = 0V
v = 0V
67
Propriedade 2.0.2. Para cada u ∈ V , existe um único (−u) ∈ V tal que u+(−u) =
0. (Unicidade do elemento oposto, ou simétrico).
−u + (u + v) = −u + 0V
(−u + u) + v = u
0V + v = u
v = u
−u + (u + v) = −u + (u + w)
(−u + u) + v = (−u + u) + w
0V + v = 0V + w
v = w
Demonstração. Dados u, v ∈ V ,
u + v + (−u) = u + (−u) + v = 0V + v = v
−u + (u + y) = −u + v
(−u + u) + y = −u + v
0V + y = x
y = x,
w = 0 · v = (0 + 0) · v = 0 · v + 0 · v = w + w.
−w + w = −w + w + w
0V = 0V + w
0V = w
w = α · 0V = α · (0V + 0V ) = α · 0V + α · 0V = w + w.
69
−w + w = −w + w + w
0V = 0V + w
0V = w
α−1 · (α · v) = α−1 · 0V
(α−1 · α) · v = 0V
1 · v = 0V
v = 0V .
α(−v) + αv = α(−v + v) = α · 0V = 0V
Exemplo 2.10. Considere o conjunto dos números reais munido da adição e mul-
tiplicação usuais e o conjunto dos números inteiros. Claramente, se considerarmos
dois números inteiros x e y, x + y será um número inteiro, mas se multiplicarmos
√ √
um número inteiro x por um escalar real qualquer, digamos 2, 2x não será um
número inteiro.
Por outro lado, se pudermos garantir isto, dizemos que o subconjunto é fechado
para estas operações, e todas as outras propriedades que por ventura estas operações
tiverem, serão válidas para U também. Este fato nos garante que, se V for um espaço
vetorial, qualquer subconjunto seu U fechado para a adição e para a multiplicação
por escalar será ele próprio um espaço vetorial, que chamaremos de subespaço veto-
rial.
Proposição 2.1.1. Todo espaço vetorial V possui pelo menos dois subespaços ve-
toriais: o supespaço nulo U = {0} , e o próprio espaço vetorial U = V , chamados
de subespaços triviais.
i. U = {(x, 4x) : x ∈ R}
ii. W = {(x, 2x + 1) : x ∈ R}
Observe que W pode ser representado geometricamente como uma reta que
não passa pela origem.
.
Dados u = (x1 , y1 , z1 ) e v = (x2 , y2 , z2 ) dois elementos quaisquer de V ,
I - Somando os dois vetores u+v = (x1 , y1 , z1 )+(x2 , y2 , z2 ) = (x1 +x2 , y1 +y2 , z1 +z2 ),
temos que
Logo u + v ∈ U .
II - Tomando agora α ∈ R, αu = α(x1 , y1 , z1 ) = (αx1 , αy1 , αz1 ) e
Logo αu ∈ U .
Como I e II são satisfeitas, segue que U é um subespaço vetorial de V .
Note que U é representado geometricamente por um plano que passa pela origem
em R3 .
Exemplo 2.13. Considere o espaço vetorial V = M2×2 (R) das matrizes 3×2 munido
das operações usuais. Os seguintes subconjuntos de V são subespaços vetoriais:
( " # )
a b
i. U = M2×2 (R) = A = : a, b, c, d ∈ R .
c d
(imediato)
( " # )
a b
ii. W = A= : a, b, d ∈ R o conjunto das matrizes triangulares su-
0 d
periores de ordem 2.
(imediato)
iii. Dada uma matriz B ∈ M2×2 (R), seja U = {A ∈ M2×2 (R) : A · B = 0}.
(A1 + A2 ) · B = A1 · B + A2 · B = 0 + 0 = 0.
Logo A1 + A2 ∈ U .
II - Multiplicando A1 por α,
(αA1 ) · B = α(A1 · B) = α · 0 = 0.
Logo αA1 ∈ U .
z1 z2
2x1 + 4y1 + z1 = 0
2x2 + 4y2 + z2 = 0
x1 + y1 + 2z1 = 0 e x2 + y2 + 2z2 = 0
2x1 + 3y1 − z1 = 0 2x2 + 3y2 − z2 = 0
74 CAPÍTULO 2. ESPAÇOS VETORIAIS
Observe que
z1 + z2
αz1
mostrar que o conjunto das matrizes-solução do sistema homogêneo é um subespaço
vetorial do espaço vetorial M3×1 (R).
U ∩ W = {v ∈ V : v ∈ U e v ∈ W }
Observe que este conjunto não é vazio pois, como U e W são subsespaços vetoriais,
0∈U e 0∈V.
Consideremos então dois elementos quaisquer u, v ∈ U ∩ W . Então u, v ∈ U e
u, v ∈ W . Como U e W são subespaços vetoriais, temos que
I - u + v ∈ U e u + v ∈ W , ou seja, u + v ∈ U ∩ W .
W1 = {(x, y, z) ∈ R3 |y = 0}
W2 = {(x, y, z) ∈ R3 |x = 0}
W1 = {(x, y, z) ∈ R3 |x + y + z = 0}
W2 = {(x, y, z) ∈ R3 |x + y − z = 0}
A solução desse sistema são todos os pontos (x, y, z) tais que z = 0 e y = −x. Segue
que
W1 ∩ W2 = {(x, y, z) ∈ R3 |z = 0, y = −x} = {(x, −x, 0)|x ∈ R}
e B ∈ W2 . Agora,
" # " #
1 1 1 0
A+B = +
0 0 1 0
" #
2 1
=
1 0
W1 + W2 = {w1 + w2 : w1 ∈ W1 , w2 ∈ W2 }
é um subespaço vetorial de V .
W1 = {(x, y, z) ∈ R3 |x + y + z = 0}
W2 = {(x, y, z) ∈ R3 |x = y = 0}
W1 + W2 = R3 e W1 ∩ W2 = {(0, 0, 0}.
Segue que R3 = W1 ⊕ W2 .
2.2. COMBINAÇÃO LINEAR 79
v = a1 v1 + a2 v2 + ... + an vn
Exemplo 2.23. O vetor v = (3, 2, 1) em R3 pode ser escrito como combinação linear
dos vetores v1 = (1, 1, 1), v2 = (1, −1, 1) e v3 = (1, 1, −1).
Vamos mostrar esta afirmação: precisamos encontrar três números reais a1 , a2 , a3
tais que v = a1 · v1 + a2 · v2 + a3 · v3 , isto é,
1 1 −1 a3 1
a1 · 1 + a2 (1 + x) + a3 (1 + x + x2 ) = 1 + x2
(a1 + a2 + a3 ) · 1 + (a2 + a3 )x + a3 x2 = 1 + 0 · x + x2
1 1 1 a1 1
0 1 1 · a2 = 0
0 0 1 a3 1
Logo a3 = 1, a2 = −1 e a1 = 1.
Suponhamos agora, por absurdo, que existam a1 , a2 números reais tais que u =
2.2. COMBINAÇÃO LINEAR 81
a1 v1 + a2 v2 .
Tentando resolver este sistema via método de Gauss, veremos que o posto da matriz
de coeficientes é menor do que o posto da matriz ampliada associada ao sistema, ou
seja, ele é impossı́vel. Logo, não existem a1 , a2 tais que u = a1 v1 + a2 v2 , ou seja, u
realmente não é combinação linear de v1 e v2 .
Geometricamente, [v] representa a reta na direção de v que passa pela origem. Assim,
82 CAPÍTULO 2. ESPAÇOS VETORIAIS
(x, y, z) = a(1, 2, 3)
Antes de exibirmos mais exemplos, vale salientar alguns fatos sobre subespaço
gerado:
Podemos dizer então que R4 = [(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)], ou seja,
R4 é um espaço vetorial finitamente gerado.
Demonstração. Precisamos mostrar que [v1 , v2 , ..., vn , w] ⊆ [v1 , v2 , ..., vn ] e [v1 , v2 , ..., vn ] ⊆
[v1 , v2 , ..., vn , w].
2.2. COMBINAÇÃO LINEAR 83
u = b1 v1 + b2 v2 + ... + bn vn
u = b1 v1 + b2 v2 + ... + bn vn + 0w
Logo u ∈ [v1 , v2 , ..., vn , w], qualquer que seja u ∈ [v1 , v2 , ..., vn ], ou seja, [v1 , v2 , ..., vn ] ⊆
[v1 , v2 , ..., vn , w].
Reciprocamente, suponhamos que u ∈ [v1 , v2 , ..., vn , w]. Então existem b1 , b2 , ...bn , bn+1
tais que u = b1 v1 +b2 v2 +...+bn vn +bn+1 w. Por outro lado, w = a1 v1 +a2 v2 +...an vn .
Então,
u = b1 v1 + b2 v2 + ... + bn vn + bn+1 w
= b1 v1 + b2 v2 + ... + bn vn + bn+1 (a1 v1 + a2 v2 + ...an vn )
= (b1 + a1 )v1 + (b2 + a2 )v2 + ... + (bn + an )vn
Logo u ∈ [v1 , v2 , ..., vn ], qualquer que seja u ∈ [v1 , v2 , ..., vn , w]. Segue que [v1 , v2 , ..., vn , w] ⊆
[v1 , v2 , ..., vn ] , como querı́amos demonstrar.
Este fato nos prova que sendo W um subespaço gerado por um conjunto S, ao
acrescentarmos vetores de W a este conjunto S, continuaremos gerando o mesmo
subespaço W . Ou seja, um subespaço pode ser gerado por uma infinidade de vetores,
mas existe um número mı́nimo de vetores para gerá-lo.
Vamos ver mais alguns exemplos:
[v1 , v2 ] = {(x, y, z) ∈ R3 |x + 3y − 5z = 0}
ou seja, [v1 , v2 ] = R2 .
Exemplo 2.30. Em M2 (R), considere o subconjunto
(" # " #)
−1 2 3 −1
S= ,
−2 3 1 1
" #
x y
Vamos encontrar [S]. Um vetor ∈ [S] será tal que, para algum a e algum
z w
2.3. DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 85
b reais,
" # " # " #
x y −1 2 3 −1
= a +b
z w −2 3 1 1
" #
−a + 3b 2a − b
=
−2a + b 3a + b
3 1 2 a3 0
Note que o determinante da matriz de coeficientes é nulo, o que significa que há
mais de uma solução para os sistema. Ou seja, há várias formas diferentes de se
escrever o elemento nulo como combinação linear de v1 , v2 e v3 .
Vamos agora considerar os mesmos vetores v1 = (1, 2, 3) e v2 = (−1, 3, 1) e trocar
v3 por v30 = (2, −1, 1). Neste caso, precisamos de números reais a1 , a2 , a3 tais que
a1 v1 + a2 v2 + a3 v30 = 0, ou seja,
3 1 1 a3 0
a1 v1 + a2 v2 + ... + an vn = 0 ⇐⇒ a1 = a2 = ... = an = 0
2a − c
= 0
3a + 4b + 3c = 0
a + 2b + c = 0
2 0 −1 a 0
Na notação matricial, 3 4 3 · b = 0 . Se calcularmos o determi-
1 2 1 c 0
nante da matriz de coeficientes do sistema, veremos que ele é diferente de zero, o
que sabemos implicar que o sistema tem apenas uma solução. Como se trata de um
sistema homogêneo, a única solução possı́vel é a = b = c = 0. Portanto, os vetores
v1 , v2 e v3 são realmente l.i.
(a, 3a, 0, 4a) + (0, 5b, 0, b) + (0, c, 0, 3c) + (0, 0, 7d, 3d) = (0, 0, 0, 0)
0 0 1 a3 0
Vamos verificar se A é l.i., ou seja, se seus elementos são l.i. Sejam a, b, c ∈ R tais
2.3. DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 89
−a + 2b + 3c = 0
2a − 3b − 4c = 0
−3a + 3b + 3c = 0
a + c = 0 =⇒ a = −c
Ou seja, uma matriz é combinação linear das outras. Este fato ilustra o seguinte
teorema:
a1 v1 + a2 v2 + ... + an vn = 0
a1 v1 = −(a2 v2 + ... + an vn )
(−a2 )v2 + ... + (−an )vn
v1 =
a1
−a2 −an
v1 = v2 + ... + vn
a1 a1
v1 − (a2 v2 + ... + an vn ) = 0
Assim, existem b1 , b2 , ..., bn números reais não todos nulos tais que b1 v1 + b2 v2 +
.. + bn vn = 0. Segue que o conjunto de vetores {v1 , v2 , ...vn } é l.d., como querı́amos
demonstrar.
Exemplo 2.36. O conjunto {(2, −1), (1, 3)} é l.i., pois (2, −1) 6= a(1, 3) qualquer
que seja a ∈ R.
(i) B é l.i.
(ii) B gera V .
(i) B é l.i.:
a(1, 0) + b(0, 1) = (0, 0) ⇐⇒ a = b = 0
(ii) B gera V :
(x, y) = x(1, 0) + y(0, 1), ∀(x, y) ∈ R2 .
• B = {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} é a base canônica de R4
• B = {(1, 0, ..., 0), (0, 1, ..., 0), ..., (0, 0, ..., 1)} é a base canônica de Rn
| {z }
n−upla
Exemplo 2.38. Vamos mostrar que B = {(1, 1), (−1, 0)} é base de R2 .
implicando em a = y e b = y − x.
B = {1 + x, 2 − x + x2 , x − x2 }
0 1 −1 c 0
Note que det A = 2 6= 0. Logo o sistema admite uma única solução: a solução
trivial a = b = c = 0. Segue que B é l.i.
0 1 −1 c γ
Há várias maneiras de se resolver este sistema. Podemos aproveitar que já
conhecemos o valor do determinante de A e utilizar o método de Cramer.
2.4. BASE E DIMENSÃO 93
2β + 2γ α−β−γ α − β − 3γ
a= , b= , c=
2 2 2
Logo,
2 2β + 2γ
α + βx + γx = (1 + x) +
2
α−β−γ
+ (2 − x + x2 ) +
2
α − β − 3γ
+ (x − x2 )
2
Exemplo 2.40. O conjunto B = {(1, 0, 0), (2, 3, −2)} não é base de R3 pois, embora
seja l.i., não gera R3 .
Embora (3) não seja base de R3 , o fato de ser l.i. garante que ele é base do seu
subespaço gerado [B] = [(1, 0, 0), (2, 3, −2)]
Proposição 2.4.1. Qualquer conjunto B l.i. é uma base do seu subespaço gerado
[B].
(1) B = {(1, 3), (−2, −6)} não é base de R2 , pois B é l.d. Entretanto, [(1, 3)] é
subespaço vetorial próprio de R2 .
(2) B = {(1, 0, 0), (0, 1, 0), (0, 0, 1), (2, 3, −2)} não é base de R3 , pois B é l.d.
Note que, no exemplo (2), embora não seja base, [B] = R3 , pois os três primeiros
vetores geram o espaço. Este exemplo nos motiva a enunciar o seguinte teorema:
94 CAPÍTULO 2. ESPAÇOS VETORIAIS
Teorema 2.4.2. Sejam v1 , v2 , ..., vn vetores não nulos que geram um espaço vetorial
V . Então, dentre estes vetores, podemos extrair uma base de V .
[v1 , v2 , ..., vn ] = V.
Temos então duas possibilidades para estes vetores: ou eles são l.i. ou eles são l.d.
Se eles forem l.i., formam uma base de V por definição, e não temos nada pra provar.
Suponhamos que v1 , v2 , ..., vn são l.d. Então existe uma combinação linear com
algum coeficiente diferente de zero tal que a1 v1 +a2 v2 +...+an vn = 0. Consideremos,
sem perda de generalidade, que an 6= 0. Então vn pode ser escrito como combinação
linear dos vetores restantes:
e [v1 , v2 , ..., vn−1 ] = [v1 , v2 , ..., vn ] = V . Se v1 , v2 , ..., vn−1 forem l.i., formam uma base
de V . Se forem l.d., novamente, existe uma combinação linear com algum coeficiente
diferente de zero tal que b1 v1 + b2 v2 + ... + bn−1 vn−1 = 0. Se reordenarmos os vetores,
podemos supor que, bn−1 6= 0. Então vn−1 pode ser escrito como combinação linear
dos vetores restantes:
Teorema 2.4.3. Seja V um espaço vetorial gerado por v1 , v2 , ...vn . Então qualquer
conjunto com mais de n elementos será l.d.
[v1 , v2 , ..., vn ] = V,
2.4. BASE E DIMENSÃO 95
o resultado anterior nos garante que existe r ≤ n tal que v1 , v2 , ..., vr são l.i. e
[v1 , v2 , ..., vr ] = V .
Queremos mostrar que w1 , w2 , ..., wm são l.d. Sejam b1 , b2 , ...bm números reais tais
que b1 w1 + b2 w2 + ... + bm wm = 0. Então
0 = b1 w1 + b2 w2 + ... + bm wm
= b1 (a11 v1 + a12 v2 + ... + a1r vr ) + +b2 (a21 v1 + a22 v2 + ... + a2r vr ) +
... + bm (am1 v1 + am2 v2 + ... + amr vr )
= (b1 a11 + b2 a21 + ... + bm am1 )v1 + (b1 a12 + b2 a22 + ... + bm am2 )v2 +
... + (b1 a1r + b2 a2r + ... + bm amr )vr
Agora, como v1 , v2 , ..., vr são l.i., temos o seguinte sistema para resolver:
b1 a11 + b2 a21 + ... + bm am1 = 0
b1 a12 + b2 a22 + ... + bm am2 = 0
..
.
b1 a1r + b2 a2r + ... + bm amr = 0
Corolário 2.4.4. Seja V um espaço vetorial gerado por v1 , v2 , ...vn . Então qualquer
conjunto l.i. tem no máximo n elementos.
Exemplo 2.42. A base canônica de R2 tem dois elementos, o que implica em toda
base de R2 ter 2 elementos. Logo dim R2 = 2.
Exemplo 2.44. Encontramos uma base de P2 (R) com três elementos. Logo, qual-
quer base de P2 (R) tem 3 elementos, e dim P2 (R) = 3.
Exemplo 2.45. A base canônica de M2×2 (R) tem quatro elementos. Logo, dim M2×2 (R) =
4.
ou [v]B = (a1 , a2 , . . . , an )B .
" #
y
(x, y) = y(1, 1) + (y − x)(−1, 0) −→ [v]B2 =
x−y B2
98 CAPÍTULO 2. ESPAÇOS VETORIAIS
U = {(x, y, z) ∈ R3 |x + y + z = 0}
W = {(x, y, z) ∈ R3 |x + y = 0 e x − z = 0}
• Base para U :
(x, y, z) = (x, y, −x − y)
= (x, 0, −x) + (0, y, −y)
= x(1, 0, −1) + y(0, 1, −1)
Como estes dois vetores são l.i., encontramos uma base para U .
• Base para W :
U = {A ∈ M2×2 (R)|A = At }
" ! !#
1 1 0 3
W = , .
0 1 3 0
Vamos encontrar uma base para o subespaço U + W . Como já conhecemos a base
de W , precisamos precisamos encontrar uma base para U .
100 CAPÍTULO 2. ESPAÇOS VETORIAIS
!
a b
Seja A = ∈ U . Então A = At , ou seja, c = b. Logo,
c d
! !
a b a b
=
c d b d
! ! !
a 0 0 b 0 0
= + +
0 0 b 0 0 d
! ! !
1 0 0 1 0 0
= a +b +d
0 0 1 0 0 1
! ! !
1 0 0 1 0 0
Como , e são l.i., elas formam uma base de U . Assim,
0 0 1 0 0 1
o candidato para a base de U + W será
( ! ! ! !)
1 0 0 1 0 0 1 1
B1 = , , , .
0 0 1 0 0 1 0 1
!
0 3
Note que o vetor pertence à base de U e é combinação linear dos elementos
3 0
da base de W . Na verdade,
" !# " !#
0 1 0 3
U ∩W = = .
1 0 3 0
Existem espaços que não admitem bases finitas. Isto acontece principalmente
2.4. BASE E DIMENSÃO 101
quando trabalhamos com espaços de funções, como o espaço das funções contı́nuas
ou o espaço das funções integráveis, por exemplo. Nestes espaços, qualquer base
terá infinitos elementos. Mas isso não quer dizer que um vetor deste espaço será
combinação linear de infinitos vetores da base, mas sim será combinação linear de
uma quantidade finita de elementos da base infinita. Não trabalharemos com este
tipo de espaço neste curso, apenas com espaços que possuem bases finitas.
102 CAPÍTULO 2. ESPAÇOS VETORIAIS
Capı́tulo 3
Transformações Lineares
Agora que já sabemos como caracterizar espaços vetoriais de dimensão finita, vamos
definir uma função sobre eles. Entretanto, procuramos uma função que mantenha
as propriedades de espaço vetorial, ou seja, é necessário garantir que ela leve espaço
vetorial em espaço vetorial. Chamamos este tipo de função de transformação linear
e a definimos da seguinte maneira:
T : R2 −→ R3
(x, y) 7→ (2x, 3y, x − 2y)
103
104 CAPÍTULO 3. TRANSFORMAÇÕES LINEARES
T : R2 −→ R2
(x, y) 7→ (x2 , 3x − 2y)
Logo, T (p1 (x) + p2 (x)) = T (p1 (x)) + T (p2 (x)), para todos p1 (x), p2 (x) ∈
Pn ((R).
107
T (αp(x)) = T ((αp)(x))
= (αp)0 (x)
= αp0 (x)
= αT (p(x))
Logo T (f1 (x) + f2 (x)) = T (f1 (x))+T (f2 (x)), quaisquer que sejam f1 (x), f2 (x) ∈
C([a, b]).
Como as duas propriedades são válidas, T é transformação linear. Note que T nada
mais é do que a integral definida de uma função contı́nua.
Exemplo 3.7. A transformação T : Mn×n (R) −→ R tal que T (A) = det A, para
todo A ∈ Mn×n (R) não é linear, pois det(A + B) 6= det A + det B.
Seja (x, y) um elemento qualquer de R2 . Como B = {(1, 0), (0, 1)} é base deste
espaço, (x, y) = x(1, 0) + y(0, 1). Então
Seja (x, y) um elemento qualquer de R2 . Como B = {(1, 1), (0, −2)} é base deste
espaço, precisamos encontrar a, b reais tais que (x, y) = a(1, 1) + b(0, −2), ou seja,
tais que (x, y) = (a, a − 2b). Resolvendo o sistema, temos que
(x − y)
(x, y) = x(1, 1) + (0, −2)
2
110 CAPÍTULO 3. TRANSFORMAÇÕES LINEARES
(x − y)
Então T (x, y) = T x(1, 1) + (0, −2)
2
(x − y)
= xT (1, 1) + T (0, −2)
2
(x − y)
= x(3, 2, 1) + (0, 1, 0)
2
(x − y)
= (3x, 2x, x) + 0, ,0
2
(x − y)
= 3x, 2x + ,x
2
5x − y
= 3x, ,x .
2
Im(T ) = {w ∈ W : T (v) = w, v ∈ V }
T (x, y) = 0 =⇒ x + y = 0 =⇒ y = −x
T : R3 −→ R3
(x, y, z) 7→ (x + 2y − z, y + 2z, x + 3y + z)
(x + 2y − z, y + 2z, x + 3y + z) = (0, 0, 0)
x + 2y − z = 0
y + 2z = 0
x + 3y + z = 0
Resolvendo o sistema, encontramos (x, y, z) = (5z, −2z, z), qualquer que seja z real.
Logo
ker(T ) = {(5z, −2z, z) : z ∈ R}.
T (x, y, z) = (a, b, c)
(x + 2y − z, y + 2z, x + 3y + z) = (a, b, c)
x + 2y − z = a
y + 2z = b
x + 3y + z = c
1 3 1 | c 0 1 2 | c−a
1 2 −1 | a
−→L3 →L3 −L2 0 1 2 | b
0 0 0 | c−a−b
Para que este sistema tenha solução, c − a − b = 0. Assim, (a, b, c) ∈ Im(T ) é tal
que c = a + b; segue que
Im(T ) = {(a, b, a + b) : a, b ∈ R}
T : R3 −→ R3
(x, y, z) 7→ (2x − y − z, x − y − z, x + y − z)
3.2. NÚCLEO E IMAGEM 113
T (x, y, z) = (a, b, c)
(2x − y − z, x − y − z, x + y − z) = (a, b, c)
(2x, x, x) + (−y, −y, y) + (−z, −z, −z) = (a, b, c)
x(2, 1, 1) + y(−1, −1, 1) + z(−1, −1, −1) = (a, b, c)
Assim, (a, b, c) ∈ [(2, 1, 1), (−1, −1, 1), (−1, −1, −1)] e, portanto,
Mais uma vez, note que dim Im(T ) = dim R3 = 3. Portanto, Im(T ) = R3 .
Consideremos agora (x, y, w) ∈ ker(T ). Então
T (x, y, z) = (0, 0, 0)
(2x − y − z, x − y − z, x + y − z) = (0, 0, 0)
Como já dito, uma transformação linear é, antes de tudo, uma função entre
dois espaços vetoriais e, como tal, podemos falar em injetividade, sobretividade e
bijetividade neste contexto.
Definição 20. Consideremos uma transformação linear T : V −→ W , onde V e W
são espaços vetoriais.
Diremos que T é injetora se
T (u) = T (v) =⇒ u = v.
T (u) = T (v)
T (u) − T (v) = 0
T (u − v) = 0
u − v ∈ ker(T )
Note que, neste exemplo, como ker(T ) = {(0, 0, 0)}, T é injetora, além de ser sobre-
jetora.
T (p(x)) = 0
x(a0 + a1 x + a2 x2 + ... + an xn ) = 0 + 0x + 0x2 + ... + 0xn+1
a0 x + a1 x2 + a2 x3 + ... + an xn+1 = 0 + 0x + 0x2 + ... + 0xn+1
Assim, Im(T ) é um subespaço vetorial próprio de Pn+1 (R) de dimensão n+1 . Segue
que T não é sobrejetora. Vamos então encontrar uma base para este subespaço.
Seja q(x) = b0 + b1 x + b2 x2 + ... + bn xn + bn+1 xn+1 um elemento de Im(T ). Então
116 CAPÍTULO 3. TRANSFORMAÇÕES LINEARES
T (p(x)) = q(x)
x(a0 + a1 x + a2 x2 + ... + an xn ) = b0 + b1 x + b2 x2 + ... + bn xn + bn+1 xn+1
a0 x + a1 x2 + a2 x3 + ... + an xn+1 = b0 + b1 x + b2 x2 + ... + bn xn + bn+1 xn+1
linear entre dois espaços vetoriais é injetora e sobrejetora, dizemos que ela é um
isomorfismo. Neste caso, os espaços vetoriais envolvidos são ditos isomorfos.
T : P2 (R) −→ R3
a + bt + ct2 7→ (a, a + b, b − c)
T (a + bt + ct2 ) = 0
(a, a + b, b − c) = (0, 0, 0)a = b = c = 0
Assim, ker(T ) = {0}, ou seja, T é injetora. Como dimP2 (R) = dimR3 = 3, segue
3.2. NÚCLEO E IMAGEM 117
Assim, C é base de W .
Observe que o conjunto C = {(1, 1, 0), (0, 1, 1), (0, 0, −1)} é l.i. e, portanto, base de
R3 .
a base canônica de R3 , B = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}, note que
T (1, 0, 0) = (2, 1, 1)
T (0, 1, 0) = (−1, −1, 1)
T (0, 0, 1) = (−1, −1, −1)
sendo C = {(2, 1, 1), (−1, −1, 1), (−1, −1, −1)} base de R3 .
Exemplo 3.20. Seja T : P2 (R) −→ R3 tal que T (at2 + bt + c) = (a, b, c). Então
T é um isomorfismo entre os dois espaços vetoriais. A transformação inversa será
T −1 : R3 −→ P2 (R) tal que T (a, b, c) = at2 + bt + c.
Definição 21. Sejam V e W dois espaços vetoriais tais que dimV = n e dimW = m,
e A uma matriz m × n. Definimos então uma transformação linear TA associada a
3.3. TRANSFORMAÇÕES LINEARES E MATRIZES 119
A da seguinte forma:
TA : V −→ W
v 7→ A·v
v1 a11 a12 ... a1n
v2 a21 a22 ... a2n
Assim, se v = eA= ,
...
...
vn am1 am2 ... amn
a11 a12 ... a1n v1 a11 v1 + a12 v2 + ... + a1n vn
a21 a22 ... a2n v2 a21 v1 + a22 v2 + ... + a2n vv
TA (v) = A · v = · = .
...
...
...
am1 am2 ... amn vn am1 v1 + am2 v2 + ... + amn vn
TA (u) + TA (v) = A · u + A · v = A · (u + v) = TA (u + v)
−1 0
transformação linear a partir de A da seguinte forma:
TA : R2 −→ R3
v 7→ A·v
TA : R4 −→ R2
v 7→ A·v
T : R3 −→ R2
(x, y, z) 7→ (2x + y − z, 3x − 2y + 4z).
A · [v] = [T (v)]
x ! ! x
2x + y − z 2 1 −1
A· y = = · y
3x − 2y + 4z 3 −2 4
z z
!
2 1 −1
Assim, basta tomar A = . Denotaremos A = [T ].
3 −2 4
3.3. TRANSFORMAÇÕES LINEARES E MATRIZES 121
T : R2 −→ R3
(x, y) 7→ (4x − y, 3y − 2x, x),
Vamos encontrar [T ].
Considerando as bases canônicas de R2 e R3 , teremos
1 0
T : R4 −→ R2
(x, y, z, w) 7→ (4x − y − 2w, 3y − 5x + z),
vamos encontrar [T ].
122 CAPÍTULO 3. TRANSFORMAÇÕES LINEARES
T : R2 −→ R3
(x, y) 7→ (3x, −y, x + 2y),
e as bases B = {(1, 1), (0, 2)} e C = {(0, 3, 0), (−1, 0, 0), (0, 1, 1)} de R2 e R3 respec-
tivamente. Então
Vamos agora escrever estes vetores como combinação linear dos elementos da base.
3.3. TRANSFORMAÇÕES LINEARES E MATRIZES 123
Assim,
4
T (1, 1) = (3, −1, 3) = − (0, 3, 0) − 3(−1, 0, 0) + 3(0, 1, 1)
3
T (0, 2) = (0, −2, 4) = −3(0, 3, 0) + 0(−1, 0, 0) + 4(0, 1, 1)
3 4
T : R3 −→ R2
(x, y, z) 7→ (2x + y − z, 3x − 2y + 4z),
e as bases B = {(1, 1, 1), (1, 1, 0), (1, 0, 0)} e C = {(1, 3), (1, 4)} de R3 e R2 respecti-
vamente. Então
T (1, 1, 1) = (2, 5)
T (1, 1, 0) = (3, 1)
T (1, 0, 0) = (2, 3).
Vamos agora escrever estes vetores como combinação linear dos elementos da base.
Assim,
I : R2 −→ R2
(x, y) 7→ (x, y),
e as bases B = {(1, 0), (0, 1)} e C = {(−2, 1), (3, 1)} de R2 . Vamos encontrar a
matriz correspondente a I na base B em relação a C.
1 1
T (1, 0) = (1, 0) = − (−2, 1) + (3, 1)
5 5
3 2
T (0, 1) = (0, 1) = (−2, 1) + (3, 1).
5 5
! !
−1/5 3/5 −1 3
Logo [I]B
C = = 51 .
1/5 2/5 1 2
Chamamos esta matriz de matriz mudança de base B para a base C.
−1 3
sendo B = {(1, 1), (0, 1)} e C = {(0, 3, 0), (−1, 0, 0), (0, 1, 1)}. Vamos encontrar T .
126 CAPÍTULO 3. TRANSFORMAÇÕES LINEARES
Note que
Assim,
−4 3
Note que o espaço vetorial formado pelos vetores que satisfazem este sistema
3.3. TRANSFORMAÇÕES LINEARES E MATRIZES 127
TA : R3 −→ R3
(x, y, z) 7→ (x + 3y, 4y − z, x + z − y).
1 −1 1
1 3 0 1 3 0 1 3 0
0 4 −1 −→L3 →L3 −L1 0 4 −1 −→L3 →L3 −L2 0 4 −1
1 −1 1 0 −4 1 0 0 0
Autovetores e autovalores
Além disso, dim Im(T ) é dada pelo posto de [T ] e dim ker(T ) corresponde à
nulidade de [T ].
TA : R3 −→ R3
(x, y, z) 7→ (x + 3y, 4y − z, x + z − y).
129
130 CAPÍTULO 4. AUTOVETORES E AUTOVALORES
1 3 0
A matriz canônica associada a T é dada por [T ] = 0 4 −1 . Agora
1 −1 1
1 3 0 1 3 0 1 3 0
0 4 −1 −→L3 →L3 −L1 0 4 −1 −→L3 →L3 −L2 0 4 −1
1 −1 1 0 −4 1 0 0 0
I : R2 −→ R2
(x, y) 7→ (x, y),
T : R2 −→ R2
(x, y) 7→ (x, −y).
OBS: Note que v = 0 não nos interessa, porque T (0) = λ · 0 para todo λ ∈ R.
Assim, ele estará associado a qualquer autovalor.
Exemplo 4.2. Considere o operador linear T tal que T (x, y) = (4x + 5y, 2x + y),
para todo (x, y) ∈ R2 . O vetor (5, 2) é autovetor associados a λ = 6, pois T (5, 2) =
6 · (5, 2).
De fato,
(4 · 2 + 5 · 1, 2 · 2 + 1) = (13, 5) = (2λ, λ)
Considere o operador linear definido sobre R2 cuja matriz canônica é dada por
" #
2 2
A= .
0 1
V1 = {(x, −x/2) : x ∈ R}
V2 = {(x, 0) : x ∈ R}
Voltemos ao operador linear T (x, y) = (4x + 5y, 2x + y), para todo (x, y) ∈ R2 .
Como encontrar os autovalores e autovetores
" associados
# a T?
4 5
Sabendo que a matriz canônica [T ] = , sejam λ ∈ R e (x, y) ∈ R2 não
2 1
nulo tais que T (x, y) = λ(x, y). Então
" # " # " #
4 5 x x
· = λ·
2 1 y y
" # " # (
4x + 5y λ·x 4x + 5y = λx
= =⇒
2x + y λ·y 2x + y = λy
T (v) = λ · v
A · [v] = λ · [v]
A · [v] − λ · [v] = 0
A · [v] − λ · I · [v] = 0
(A − λ · I) · [v] = 0
Temos então um sistema homogêneo para resolver. Uma solução existe (v = 0).
Entretanto, nos interessam outras soluções que não a identicamente nula. Desta
maneira o sistema deve ser indeterminado, ou seja,
det(A − λ · I) = 0.
134 CAPÍTULO 4. AUTOVETORES E AUTOVALORES
Esta expressão nos fornece uma maneira de encontrar λ. Vamos então encontrar os
" #
4 5
autovalores da transformação [T ] = . Para isso, consideremos λ ∈ R tal
2 1
que det([T ] − λ · I) = 0. Assim
4−λ 5
= 0
2 1−λ
(4 − λ)(1 − λ) − 10 = 0
λ2 − 5λ − 6 = 0
(λ − 6)(λ + 1) = 0
(i) λ1 = 6
Consideremos v = (x, y) ∈ R2 não nulo tal que T (v) = 6v, isto é,
([T ] − 6 · I2 )[v] = 0
V6 = {(x, 2/5x) : x ∈ R}
= [(5, 2)].
(ii) λ2 = −1 Seja v = (x, y) ∈ R2 não nulo tal que T (v) = −1v, isto é, ([T ] − (−1) · I2 ) [v] =
4.1. DETERMINAÇÃO DE VETORES E VALORES PRÓPRIOS 135
7 −2 0
Exemplo 4.3. Considere a matriz canônica de T como sendo A = −2 6 −2 ,
0 −2 5
e vamos encontrar os autovalores e autovatores de T .
Seja λ ∈ R tal que det(A − λ · I) = 0. Então
7 − λ −2 0
−2 6 − λ −2 = 0
0 −2 5 − λ
(7 − λ)(6 − λ)(5 − λ) − [4(7 − λ) + 4(5 − λ)] = 0
(7 − λ)(6 − λ)(5 − λ) − 8(6 − λ) = 0
(6 − λ) [(7 − λ)(5 − λ) − 8] = 0
(6 − λ)(9 − λ)(3 − λ) = 0
(i) λ1 = 6
Seja v = (x, y, z) ∈ R3 não nulo tal que T (v) = 6v, isto é, ([T ] − 6 · I3 )[v] = 0.
Então,
7−6 −2 0 x 0
−2 6 − 6 −2 · y = 0 .
0 −2 5 − 6 z 0
136 CAPÍTULO 4. AUTOVETORES E AUTOVALORES
1 −2 0 x 0
−2 0 −2 · y = 0 .
0 −2 −1 z 0
Escalonando a matriz de coeficientes, encontramos o seguinte sistema equiva-
lente:
1 −2 0 x 0
0 2 1 · y = 0 .
0 0 0 z 0
Neste caso, x = 2y e z = −2y, quaisquer que sejam x, y reais. Desta forma, o
subespaço vetorial dos autovetores associados a λ1 = 6 é dado por
V6 = {(2y, y, −2y) : y ∈ R}
= [(2, 1, −2)].
(ii) λ2 = 9
Seja v = (x, y, z) ∈ R3 não nulo tal que T (v) = 9v, isto é, ([T ] − 9 · I3 )[v] = 0.
Então,
7−9 −2 0 x 0
−2 6 − 9 −2 · y = 0 .
0 −2 5 − 9 z 0
−2 −2 0 x 0
−2 −3 −2 · y = 0 .
0 −2 −4 z 0
Escalonando a matriz de coeficientes, encontramos o seguinte sistema equiva-
lente:
1 1 0 x 0
0 1 2 · y = 0 .
0 0 0 z 0
Neste caso, x = −y e y = −2z, quaisquer que sejam x, y reais. Desta forma,
4.1. DETERMINAÇÃO DE VETORES E VALORES PRÓPRIOS 137
V9 = {(2z, −2z, z) : z ∈ R}
= [(2, −2, 1)].
(iii) λ3 = 3
Seja v = (x, y, z) ∈ R3 não nulo tal que T (v) = 3v, isto é, ([T ] − 3 · I3 )[v] = 0.
Então,
7−3 −2 0 x 0
−2 6 − 3 −2 · y = 0 .
0 −2 5 − 3 z 0
4 −2 0 x 0
−2 3 −2 · y = 0 .
0 −2 2 z 0
Escalonando a matriz de coeficientes, encontramos o seguinte sistema equiva-
lente:
2 −1 0 x 0
0 1 −1 · y = 0 .
0 0 0 z 0
Neste caso, y = 2x e z = y, quaisquer que sejam x, y reais. Desta forma, o
subespaço vetorial dos autovetores associados a λ3 = 3 é dado por
0 0 3
αT (v1 ) + βT (v2 ) = 0
α(λ1 v1 ) + β(λ2 v2 ) = 0
λ1 (αv1 ) + λ2 (βv2 ) = 0
λ1 (−βv2 ) + λ2 (βv2 ) = 0
(λ2 − λ1 )βv2 = 0.
Exemplo 4.4. Consideremos T (x, y) = (−3x−5y, 2y), para todo (x, y) ∈ R2 . Então
" #
−3 −5
A = [T ] = .
0 2
• λ1 = −3:
! ! !
−3 + 3 −5 x 0
= =⇒ y = 0
0 2+3 y 0
• λ2 = 2:
! ! !
−3 − 2 −5 x 0
= =⇒ y = −x
0 2−2 y 0
Demonstração. Vamos fazer uma prova parcial, supondo que a matriz seja de ordem
dois. Consideremos então uma matriz simétrica
" #
a b
.
b c
0 0 −1
e vamos encontrar os autovalores e autovatores de T .
Seja λ ∈ R tal que det(A − λ · I) = 0. Então
3−λ 0 −4
0 3−λ 5 = 0
0 0 −1 − λ
(3 − λ)2 (−1 − λ) = 0
(i) λ1 = −1
Seja v = (x, y, z) ∈ R3 não nulo tal que T (v) = −1v, isto é, (A + 1 · I3 )[v] = 0.
Então,
3+1 0 −4 x 0
0 3+1 5 · y = 0 .
0 0 −1 + 1 z 0
Escalonando a matriz de coeficientes, encontramos o seguinte sistema equiva-
lente:
4 0 −4 x 0
0 4 5 · y = 0 .
0 0 0 z 0
5
V−1 = {(z, − z, z) : z ∈ R} = [(4, −5, 4)].
4
(ii) λ2 = 3
Seja v = (x, y, z) ∈ R3 não nulo tal que T (v) = 3v, isto é, ([T ] − 3 · I3 )[v] = 0.
142 CAPÍTULO 4. AUTOVETORES E AUTOVALORES
Então,
3−3 0 −4 x 0
0 3−3 5 · y = 0 .
0 0 −1 − 3 z 0
Escalonando a matriz de coeficientes, encontramos o seguinte sistema equiva-
lente:
0 0 −4 x 0
0 0 5 · y = 0 .
0 0 −4 z 0
Neste caso, z = 0, quaisquer que sejam x, y reais. Desta forma, o subespaço
vetorial dos autovetores associados a λ2 = 3 é dado por
0 0 3
Exemplo
4.6. Consideremos agora a matriz canônica de T como sendo A =
3 −3 −4
0 3 5 , e vamos encontrar os autovalores e autovatores de T .
0 0 −1
4.2. DIAGONALIZAÇÃO DE OPERADORES 143
(i) λ1 = −1
Seja v = (x, y, z) ∈ R3 não nulo tal que T (v) = −1v, isto é, (A + 1 · I3 )[v] = 0.
Então,
3 + 1 −3 −4 x 0
0 3+1 5 · y = 0 .
0 0 −1 + 1 z 0
Escalonando a matriz de coeficientes, encontramos o seguinte sistema equiva-
lente:
4 −3 −4 x 0
0 4 5 · y = 0 .
0 0 0 z 0
1
Neste caso, x = − 16 z e y = − 45 z, qualquer que seja z real. Desta forma, o
subespaço vetorial dos autovetores associados a λ1 = −1 é dado por
1 5
V−1 = {(− z, − z, z) : z ∈ R} = [(−1, −20, 16)].
16 4
(ii) λ2 = 3
Seja v = (x, y, z) ∈ R3 não nulo tal que T (v) = 3v, isto é, (A − 3 · I3 )[v] = 0.
Então,
3 − 3 −3 −4 x 0
0 3−3 5 · y = 0 .
0 0 −1 − 3 z 0
Escalonando a matriz de coeficientes, encontramos o seguinte sistema equiva-
144 CAPÍTULO 4. AUTOVETORES E AUTOVALORES
lente:
0 −3 −4 x 0
0 0 5 · y = 0 .
0 0 −4 z 0
Neste caso, y = z = 0, quaisquer que seja x real. Desta forma, o subespaço
vetorial dos autovetores associados a λ2 = 3 é dado por
Note que m.a.(λ) ≤ m.g.(λ). Por outro lado, T será diagonalizável se, e somente
se, m.a.(λ) = m.g.(λ) para todos os autovalores λ de T .
Já sabemos diagonalizar um operador T quando for possı́vel, ou seja, sair da
matriz A = [T ] em relação à base canônica e encontrar a matriz D = [T ]B B diago-
nalizada. Estas matrizes A e D são ditas semelhantes, por representarem o mesmo
operador T em bases distintas. É possı́vel mostrar então que D = P −1 AP , onde P
é a matriz mudança de base da base C para a base canônica C (P = [I]C B ). Este
fato motiva a seguinte definição:
Definição 26. Uma matriz quadrada A é diagonalizável se existe uma matriz in-
versı́vel P tal que P −1 AP é uma matriz diagonal.
" #
6 0
D= = P −1 AP
0 −1
" # " #" #
1/7 1/7 4 5 5 1
= .
2/7 −5/7 2 1 2 −1
146 CAPÍTULO 4. AUTOVETORES E AUTOVALORES
Capı́tulo 5
Produto Interno
h~u, ~v i = ~u · ~v = x1 x2 + y1 y2 .
• tamanho de um vetor:
p
k~uk = h~u, ~ui = ~u · ~v
h~u, ~v i ~u · ~v
cos θ = = .
k~ukk~v k k~ukk~v k
Nosso objetivo agora será estender esta definição para outros espaços vetoriais, de-
finindo sobre eles uma operação que possua as mesmas propriedades do produto
escalar, que chamaremos de produto interno.
Definição 27. Seja V um espaço vetorial. Definimos produto interno como sendo
uma operação:
h , i:V ×V −→ R
(u, v) 7→ hu, vi,
147
148 CAPÍTULO 5. PRODUTO INTERNO
hu, vi = x1 y1 + x2 y2 + ... + xn yn
Exemplo 5.2. No espaço vetorial das funções contı́nuas definidas no intervalo [0, 1],
C[0, 1], a operação a seguir configura um produto interno:
Z 1
hf, gi = f (x)g(x)dx ∀f, g ∈ C[0, 1].
0
d(u, v) = ku − vk.
Consideremos então o polinômio p(α) = kvkα2 + 2hu, viα + kuk2 . Como kvk2 > 0,
temos que a concavidade do gráfico deste polinômio é voltada para cima. Além
disso, note que p(α) ≥ 0 qualquer que seja α. Assim, ou este polinômio tem uma
única raı́z ou ele não possui raı́zes reais, ou seja, o discriminante deste poliômio
necessariamente é menor ou igual a zero:
|hu, vi|
≤ 1,
|ukkvk
ou seja,
hu, vi
−1 ≤ ≤ 1.
|ukkvk
Esse fato nos motiva a definir um ângulo entre dois vetores u, v de um espaço vetorial
V como sendo θ ∈ [0, π] tal que
hu, vi
cos θ = .
kukkvk
quaiquer que sejam (x1 , y1 ), (x2 , y2 ) ∈ R2 (prove que esta operação realmente é um
produto interno). Vamos verificar se os vetores (−3, 2) e (4, 3) são ortogonais:
Note que, considerando o produto interno usual, estes vetores não seriam ortogonais,
pois
h(−3, 2), (4, 3)i = −3 · 4 + 2 · 3 = −6 6= 0.
De fato,
h0, vi = h0 · w, vi = 0 · hw, vi = 0.
hvi , vj i = 0, i 6= j.
a1 v1 + a2 v2 + ... + an vn = 0.
ha1 v1 + a2 v2 + ... + an vn , vi i = 0.
Como vi 6= 0, hvi , vi i =
6 0, implicando em ai = 0, qualquer que seja i. Portanto,
a1 = a2 = ... = an = 0, e B é, de fato, l.i.
Assim, se o espaço vetorial estiver munido de um produto interno e se conhecer-
mos uma base B deste espaço constituı́da por vetores ortogonais - a chamada base
5.3. BASES ORTOGONAIS 153
hw, vi i hw, vi i
=⇒ a1 = = , i = 1, 2, ..., n.
hvi , vi i kvi k2
Exemplo 5.6. No espaço vetorial V3 , os vetores ~i, ~j, ~k definem uma base ortogonal,
pois, considerando o produto escalar,
~i · ~j = ~i · ~k = ~k · ~j = 0.
Vamos ver como podemos escrever o vetor (2, 3) em relação a esta base:
Embora seja mais fácil do que precisar encontrar as coordenadas via combinação
linear/sistemas, esse método ainda requer certa quantidade de contas, pois é ne-
cessária calcular a norma de cada vi pertencente à base. Seria mais fácil se os vetores
da base ortogonal possuı́ssem todos norma 1 - os chamados vetores unitários.
Definição 29. Se B = {v1 , v2 , ..., vn } é uma base ortogonal do espaço vetorial V tal
que kvi k = 1, para cada i = 1, 2, ..., n, dizemos que B é uma base ortonormal de V .
Exemplo
n √ 5.8.
A
base canônica em R2 munido do produto interno usual, o conjunto
√ √ o
B= , , −2 1 , 23
3 1
2 2
é uma base ortonormal.
Note que sempre é possı́vel obtermos uma base ortonormal a partir de uma base
ortogonal: basta dividir os vetores por sua norma.
Exemplo 5.9. Consideremos a base B = {(1, 1, 1), (−2, 1, 1), (0, −1, 1)} de R3 mu-
nido do produto interno usual. Esta base é ortogonal, pois
h(1, 1, 1), (−2, 1, 1)i = h(1, 1, 1), (0, −1, 1)i = h(−2, 1, 1), (0, −1, 1)i = 0
Além disso,
√
h(1, 1, 1), (1, 1, 1)i = 3 =⇒ k(1, 1, 1)k = 3
√
h(−2, 1, 1), (−2, 1, 1)i = 6 =⇒ k(−2, 1, 1)k = 6
√
h(0, −1, 1), (0, −1, 1)i = 2 =⇒ k(0, −1, 1)k = 2
Vimos nas últimas aulas as vantagens de trabalhar com bases ortogonais ou ortonor-
mais de espaços vetoriais munidos de produto interno. Entretanto, aparentemente,
encontrar uma base ortogonal pode não ser tão simples, caso o espaaço vetorial te-
nha dimensão maior que dois, por exemplo. Veremos agora que, na verdade, a partir
de uma base qualquer, podemos construir uma base ortonormal. Este método é co-
nhecido como processo de ortogonalização de Gram-Schmidt, e nosso objetivo será
aprender a utilizá-lo.
Consideremos uma base B = {v1 , v2 , ..., vn } de um espaço vetorial V munido
de produto interno e vamos construir a partir de B uma base ortonormal de V ,
B 0 = {v10 , v20 , ..., vn0 }. Começaremos definindo v10 = v1 .
Queremos encontrar agora v20 ortogonal a v10 , ou seja, tal que hv10 , v20 i = 0. Como
v10 e v2 são l.i., vamos construir v20 a partir de uma combinação linear entre v10 e v2 :
v20 = v2 + c · v10 ,
156 CAPÍTULO 5. PRODUTO INTERNO
Portanto,
hv10 , v2 i 0
v20 = v2 − · v1 .
kv10 k2
Você pode observar que a constante obtida é exatamente a coordenada de v2 em
relação ao elemento da base v1 = v10 . Isso significa, geometricamente, que v20 está
sendo obtido extraindo-se a projeção de v2 na direção de v10 :
Precisamos agora encontrar v30 ortogonal a v10 e v20 linearmente independente com
ambos. Como v3 é l.i. com v1 e v2 e v10 e v20 foram obtidos como combinações lineares
de v1 e v2 , definiremos v30 como combina cão linear de v10 , v20 e v3 :
hv20 , v3 i
k=−
kv20 k2
Exemplo 5.10. Consideremos B = {(2, 1), (1, 1)} base de R2 com o produto interno
usual. Note que esta base não é ortogonal:
hv1 , v2 i = 2 · 1 + 1 · 1 = 3.
v10 = v1 = (2, 1)
hv2 , v10 i 0
v20 = v2 − · v1
kv10 k2
Como kv10 k2 = hv10 , v10 i = h(2, 1), (2, 1)i = 5, temos que
h(1, 1), (2, 1)i 1 2
v20 = (1, 1) − · (2, 1) = − , .
5 5 5
hv1 , v2 i∗ = 2 · 2 · 1 + 3 · 1 · 1 = 7.
v10 = v1 = (2, 1)
hv2 , v10 i∗ 0
v20 = v2 − · v1
kv10 k2∗
Agora kv10 k2∗ = hv10 , v10 i∗ = h(2, 1), (2, 1)i∗ = 2 · 2 · 2 + 3 · 1 · 1 = 11, e
7 3 4
v20 = (1, 1) − · (2, 1) = − , .
11 11 11
vetores de B 0 :
p √
k(2, 1)k = h(2, 1), (2, 1)i = 5
s √
1
− , 2
1 2 1 2 5
= − , , − , = .
5 5
5 5 5 5 5
5.4. PROCESSO DE ORTOGONALIZAÇÃO DE GRAM-SCHMIDT 159
Por outro lado, tomando o produto interno não usual h(x1 , y1 ), (x2 , y2 )i∗ =
2x1 x2 + 3y1 y2 . de R2 , obtivemos outra base ortogonal:
00 3 4
B = (2, 1), − , .
11 11
Exemplo 5.13. Vamos encontrar uma base ortonormal para R3 munido do produto
interno usual, partindo da base B = {(1, 1, 1), (0, 1, 1), (0, 0, 1)}. Note que B não é
ortogonal, pois
v10 = v1 = (0, 0, 1)
hv2 , v10 i 0 h(0, 1, 1), (0, 0, 1)i
v20 = v2 − 0 2
· v1 = (0, 1, 1) − · (0, 0, 1)
kv1 k k(0, 0, 1)k2
160 CAPÍTULO 5. PRODUTO INTERNO
Encontramos então a base ortogonal C = {(0, 0, 1), (0, 1, 0), (1, 0, 0)}, que por acaso
é a base canônica de R3 e, portanto ortonormal.
Referências Bibliográficas
[2] A. Steinbruch and P. Winterle. Introdução à algebra linear. Makron Books, 1990.
161