Você está na página 1de 161

Sumário

1 Matrizes e Sistemas Lineares 5


1.1 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Tipos especiais de matrizes . . . . . . . . . . . . . . . . . . . . 7
1.1.2 Operações envolvendo matrizes . . . . . . . . . . . . . . . . . 10
1.2 Sistemas de equações lineares . . . . . . . . . . . . . . . . . . . . . . 18
1.3 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.3.1 Matriz Adjunta e Matriz Inversa . . . . . . . . . . . . . . . . 41
1.3.2 Inversa de Matriz via Operações Elementares . . . . . . . . . 46
1.3.3 Resolução de Sistemas Lineares via Regra de Cramer . . . . . 53

2 Espaços Vetoriais 57
2.1 Subespaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
2.1.1 Intersecção de Subespaços Vetoriais . . . . . . . . . . . . . . . 75
2.1.2 Soma de Subespaços Vetoriais . . . . . . . . . . . . . . . . . . 77
2.2 Combinação Linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
2.2.1 Subespaços Vetoriais Finitamente Gerados . . . . . . . . . . . 81
2.3 Dependência e Independência Linear . . . . . . . . . . . . . . . . . . 85
2.4 Base e Dimensão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

3 Transformações Lineares 103

1
2 SUMÁRIO

3.1 Propriedades das Transformações Lineares . . . . . . . . . . . . . . . 108


3.2 Núcleo e Imagem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
3.3 Transformações Lineares e Matrizes . . . . . . . . . . . . . . . . . . . 118

4 Autovetores e autovalores 129


4.1 Determinação de Vetores e Valores Próprios . . . . . . . . . . . . . . 133
4.2 Diagonalização de Operadores . . . . . . . . . . . . . . . . . . . . . . 138

5 Produto Interno 147


5.1 Norma de um Vetor . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
5.1.1 Propriedades da Norma . . . . . . . . . . . . . . . . . . . . . 149
5.2 Vetores Ortogonais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
5.2.1 Propriedades de Ortogonalidade: . . . . . . . . . . . . . . . . 151
5.3 Bases Ortogonais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
5.4 Processo de Ortogonalização de Gram-Schmidt . . . . . . . . . . . . . 155
Apresentação da disciplina

Embora só exista uma disciplina de Álgebra Linear na grade do curso, ela é tão
importante quanto o Cálculo. A Álgebra Linear se destina ao estudo de certos
conjuntos que possuem uma estrutura simples em comum, o que permite formalizar
uma teoria. Estes conjuntos recebem o nome de espaços vetoriais.

Em Geometria Analı́tica, estudamos vetores definidos sobre R2 e R3 : chamare-


mos estes conjuntos de V2 e V3 respectivamente. Vimos que, dados dois vetores ~u
e ~v em V2 , ~u + ~v e λ · ~v também são elementos de V2 , qualquer que seja λ ∈ R.
Podemos então dizer que o conjunto dos vetores em R2 , V2 , é fechado para adição e
multiplicação por escalar. Além disso, qualquer vetor ~u ∈ V2 tem duas componentes
reais a e b e pode ser escrito como ~u = (a, b) ou

~u = a~i + b ~j,

onde ~i = (1, 0) e ~j = (0, 1). Podemos então dizer que as combinações destes dois
vetores “cobrem”todo V2 .

Algo parecido ocorre com os vetores em R3 :


 
~u, ~v ∈ V3   ~u + ~v ∈ V
3
=⇒
λ∈R   λ ~v ∈ V
3

Além disso, qualquer vetor ~u em V3 tem três componentes reais a, b e c e pode ser

3
4 SUMÁRIO

escrito como ~u = (a, b, c) ou


~u = a~i + b ~j + c ~k,

onde ~i = (1, 0, 0), ~j = (0, 1, 0) e ~k = (0, 0, 1).


Diversas situações podem ser expressas em termos de vetores de duas, três, ou
até mais componentes reais. Neste caso, não podemos contar com os recursos vi-
suais que dispomos em R2 e R3 , mas as definições podem ser extendidas para mais
dimensões, mantendo as propriedades operatórias. Aı́ entra a Álgebra Linear. Mais:
o comportamento observado para vetores é observado em outros conjuntos, como
polinômios, matrizes, funções contı́nuas etc. Isto torna a álgebra linear importante
e com muitas aplicações em programação, engenharia elétrica, modelos econômicos,
genética, problemas de alocação de tarefas, etc.
Assim, o objetivo deste curso será estudar os espaços vetoriais e as funções que
podem ser definidas sobre eles, preservando suas caracterı́sticas.
O material a seguir foi escrito para servir de apoio nos estudos da disciplina
de Álgebra Linear. Você encontrará todo o conteúdo que trabalharemos no curso
devidamente demonstrado com detalhamento, sempre que possı́vel, e exemplificado.
Para a confecção deste material, foram utilizados como referência os livros indicados
na bibiografia do curso, em especial nos livros [2] e [1], e algumas notas de aula
antigas.
Capı́tulo 1

Matrizes e Sistemas Lineares

1.1 Matrizes

O almoxarifado de uma empresa precisa de alguns materiais de escritório para suas


duas filiais, conforme a lista a seguir:

Resmas de papel Caixas de Clips Caixas de Canetas


Filial I 4 1 2
Filial II 5 1 3

A empresa precisa comprar estes materiais e trabalha com dois fornecedores e,


por questões de logı́stica, irá adquirir os três produtos de um fornecedor por filial:
aquele que tiver melhor preço total. Os valores cobrados por cada unidade de cada
produto por cada fornecedor estão na tabela a seguir

Resma de papel Caixa de Clips Caixa de Canetas


Fornecedor A 13, 00 10, 00 34, 00
Fornecedor B 15, 00 11, 00 32, 00

5
6 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

Para saber quanto irá gastar por filial em cada fornecedor, basta fazer uma conta
simples:
Fornecedor A Fornecedor B
Filial I 4 · 13 + 1 · 10 + 2 · 34 = 130 4 · 15 + 1 · 11 + 2 · 32 =135
Filial II 5 · 13 + 1 · 10 + 3 · 34 = 177 5 · 15 + 1 · 11 + 3 · 32 = 182

Pelos resultados obtidos, o fornecedor A tem o melhor preço para as necessidades


das duas filiais.
Imagine agora que a empresa tivesse mais filiais e um número maior de fornece-
dores. Embora o procedimento a ser feito fosse similar, o tamanho maior das tabelas
envolvidas dificultaria o trabalho a ser feito.
A teoria de matrizes pode ajudar muito na obtenção destes cálculos, tornando
possı́vel automatizar estes processos via operações entre matrizes. Mas o que é uma
matriz?
Matriz nada mais é do que uma tabela numérica cujos elementos se distribuem
em linhas e colunas, e a quantidade de linhas e colunas nos dá o tamanho da matriz.
Mais precisamente,
Definição 1. Dados m e n números inteiros positivos, uma matriz A m por n real
é dada por m × n valores reais aij , com 1 ≤ i ≤ m e 1 ≤ j ≤ n agrupados em m
linhas e n colunas, representada por
 
a11 a12 ... a1n
a21 a22 ... a2n
 
 
A = (aij )m×n = .. .. .. .
. . .
 
 
am1 am2 ... amn

Cada elemento que compõe a matriz é chamado de termo, sendo aij o termo geral
da matriz.
OBS: Uma matriz pode ser delimitada por parênteses (“( )”), colchetes ( “[ ]”)
ou barras duplas ( “k k”), sendo esta última notação menos usual.
 
2 5 0 −3 " #
4 0
Exemplo 1.1. A =  4 3 0 0  é uma matriz 3 × 4, B = é uma
 
0 0
1 2 1 −1
1.1. MATRIZES 7

3 −1 0



4 0 5
matriz com 2 × 2, ou simplesmente, de ordem 2, e C = é uma
3/4 8 6

9 0 π
matriz 4 × 3.

Denotamos o conjunto formado por todas as matrizes reais m por n por Mm×n (R)
ou, no nosso caso, simplesmente por Mm×n .

1.1.1 Tipos especiais de matrizes


Algumas matrizes recebem nomes especiais, de acordo com suas caracterı́sticas.
Matriz-Linha: é a matriz que possui apenas uma linha.
 
A = (aij )1×n = a11 a12 ... a1n .

Matriz-Coluna: é a matriz que possui apenas uma coluna.


 
a11
a21
 
 
A = (aij )m×1 = .. .
.
 
 
am1

Matriz Nula: é a matriz A = (aij )m×n cujos termos são nulos, ou seja, aij = 0
para todos 1 ≤ i ≤ m e 1 ≤ j ≤ n. Denotamos esta matriz por 0.

Matriz Quadrada: é a matriz que possui o mesmo número de linhas e colunas.

A = (aij )n×n .

Neste caso, dizemos que A é uma matriz de ordem n.


Uma matriz quadrada possui duas diagonais. Chamamos de diagonal princi-
pal aquela formada pelos termos aij com i = j, e a outra diagonal de diagonal
secundária.
8 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
 
3 6 0
Exemplo 1.2. Na matriz A =  5 −1 4 , a diagonal principal é formada pelos
 

3 5 1
termos 3, −1 e 1, enquanto que a diagonal secundária é formada pelos termos 3, −1
e 0.

Dentro do conjunto de matrizes quadradas, há outros tipos especiais que merecem
destaque.
Matriz Triangular Superior: é uma matriz de ordem n A = (aij )n×n onde
aij = 0 sempre que i > j, ou seja, onde todos os elementos abaixo da diagonal
principal são nulos.

Exemplo 1.3.  
−2 3 0 3
 
 0 1 3 1
A=
 0 0

 5 2

0 0 0 −4

Matriz Triangular Inferior: é uma matriz de ordem n A = (aij )n×n onde aij = 0
sempre que i < j, ou seja, onde todos os elementos acima da diagonal principal são
nulos.

Exemplo 1.4.  
3 0 0 0
 
 4 1 0 0 
A= 

 −1 3 6 0 

0 2 3 −4
.

Matriz Diagonal: é uma matriz de ordem n D = (aij )n×n onde aij = 0 sempre
que i 6= j, ou seja, onde todos os elementos fora da diagonal principal são nulos.
1.1. MATRIZES 9

Exemplo 1.5.  
3 0 0 0
 
 0 1 0 0 
D= 

 0 0 6 0 

0 0 0 −4
.

Matriz Identidade: é uma matriz quadrada de ordem n In = (aij )n×n onde


(
0 se i 6= j
aij = .
1 se i = j

Em outras palavras, é uma matriz diagonal cujos termos da diagonal principal são
iguais a um.
Exemplo 1.6.  
1 0 0 0
 
 0 1 0 0 
I4 =  

 0 0 1 0 

0 0 0 1
.

Matriz Simétrica: é uma matriz de ordem n S = (aij )n×n tal que aij = aji
para todos i, j entre 1 e n.
Exemplo 1.7.  
−1 3 0 4
 
 3 1 −5 2 
S= √ 
 0 −5 5 6 
 √ 
4 2 6 8
.
10 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

Matriz Antissimétrica: é uma matriz de ordem n S = (aij )n×n tal que


aij = −aji para todos i, j entre 1 e n, com i 6= j.

Exemplo 1.8.  
−1 −3 0 4
 
 3 1 5 −2 
S= √ 
 0 −5 5 − 6 
 √ 
−4 2 6 8
.

Igualdade entre matrizes

Dizemos que duas matrizes A e B são iguais se elas possuı́rem o mesmo número de
linhas e colunas e se seus termos correspondentes forem iguais, ou seja, se aij = bij ,

 m=p

A = B ⇐⇒ n=q

aij = bij , para cada i, j.

   
4 3 4 z
Exemplo 1.9. As matrizes A =  x 2  e B =  1 2  são iguais se, e
   

0 y 0 1
somente se, x = 1, y = 1 e z = 3.

1.1.2 Operações envolvendo matrizes


Nesta seção serão apresentadas as operações possı́veis de serem realizadas com ma-
trizes. São elas:

Adição de matrizes

Consideremos A = (aij )m×n e B = (bij )m×n duas matrizes pertencentes a Mm×n ,


onde m e n são números inteiros positivos quaisquer. A adição de A e B é dada
pela matriz A + B pertencente a Mm×n , definida da seguinte forma

A + B = (aij + bij )m×n


1.1. MATRIZES 11

.
   
−2 3 1 0
Exemplo 1.10. Dadas as matrizes A =  5 4  e B =  12 −5  perten-
   

1 0 0 2
centes a M3×2 , temos
       
−2 3 1 0 −2 + 1 3 + 0 −1 3
A + B =  5 4  +  12 −5  =  5 + 12 4 − 5  =  17 −1 
       

1 0 0 2 1+0 0+2 1 2

Propriedades da adição:

1. Comutatividade: A + B = B + A, para todas A e B em Mm×n .

2. Associatividade: (A + B) + C = A + (B + C), para todas A , B e C em


Mm×n .

3. Existência de elemento neutro: Existe uma matriz X em Mm×n tal que A+X =
X + A = A, qualquer que seja A em Mm×n . Denotamos esta matriz por 0.

4. Existência de elemento oposto: Para cada matriz A em Mm×n , existe uma


matriz XA em Mm×n tal que A + XA = XA + A = 0, onde 0 é a matriz nula
m × n. Denotamos esta matriz por −A.

Multiplicação de matriz por escalar

Consideremos A = (aij )m×n uma matriz pertencente a Mm×n , onde m e n são


números inteiros positivos quaisquer, e λ um número real. A multiplicação de A
por λ é dada pela matriz λ A pertencente a Mm×n , definida da seguinte forma

λ A = (λ aij )m×n

.
12 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

−2 3
Exemplo 1.11. Dada a matriz A =  5 4  pertencente a M3×2 , temos
 

1 0
    
−2 3 3 · (−2) 3 · 3 −6 9
3·A=3· 5 4 = 3·5 3 · 4  =  15 12 
     

1 0 3·1 3·0 3 0

Propriedades da multiplicação por escalar:

1. Associatividade: λ1 (λ2 A) = (λ1 λ2 ) · A, quaisquer que sejam λ1 , λ2 ∈ R e


A ∈ Mm×n .

2. Distributividade:

(i) (λ1 + λ2 ) A = λ1 A + λ2 A, quaisquer que sejam λ1 , λ2 ∈ R e A ∈ Mm×n


(ii) λ (A + B) = λ A + λ B, quaisquer que sejam λ ∈ R e A, B ∈ Mm×n

3. 1 · A = A.

Multiplicação de matrizes

Consideremos duas matrizes A = (aij )m×p e B = (bij )p×n , onde m, p e n são


números inteiros positivos quaisquer, Definimos a multiplicação de A por B, A · B
(ou simplesmente A B), como sendo a matriz C = (cij )m×n onde, para cada i e para
cada j,
p
X
cij = ai1 b1j + ai2 b2j + ... + aip bpj = aik bkj
k=1
.

Exemplo 1.12.
 
! 3 4 5 !
2 1 0 7 8 8
·  1 0 −2  =
 
0 1 2 1 −2 −4
0 −1 −1
1.1. MATRIZES 13

Exemplo 1.13.
 
! −4 0 !
1 3 3 17 0
· 5 1 =
 
−2 0 2 12 −2
2 −1

Propriedades da multiplicação de matrizes:


1. Associatividade: A (B C) = (A B) C.

2. Distributividade:

(i) (A + B) · C = A · C + B · C.
(ii) A · (B + C) = A · B + A · C.

Algumas propriedades observadas para a multiplicação em outros conjuntos me-


recem comentários.
(a) Observe que a multiplicação de uma matriz A por uma matriz B só é possı́vel
se o número de colunas de A for igual ao número de linhas da matriz B.
A matriz resultante A · B terá o mesmo número de linhas de A e o mesmo
número de colunas de B. Deste fato segue que a propriedade comutativa
não vale.
Exemplo 1.14. Sejam A uma matriz 2 × 3, B uma matriz 3 × 2 e C uma
matriz 3 × 4. Então A · B é uma matriz 2 × 2, enquanto B · A é uma matriz
3 × 3. Já A · C é uma matriz 2 × 4, enquanto C · A não existe. Se você ainda
tem dúvidas, repita este exemplo para matrizes com termos numéricos.

(b) Dada uma matriz A m × n, ao considerarmos as matrizes identidade Im e In


de ordens m e n respectivamente, vemos que Im · A = A e A · In = A. Assim,
existe um elemento neutro associado à multiplicação pela direita e
um elemento neutro associado à multiplicação pela esquerda.

(c) A existência de elemento oposto não é garantida para qualquer matriz.


Matrizes m × n com m 6= n não admitem oposto multiplicativo, mas algumas
matrizes quadradas admitem.
14 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

Matriz Inversa

Definição 2. Seja A uma matriz quadrada de ordem n. Se existe uma matriz B


de ordem n tal que A · B = B · A = In , dizemos que A é inversı́vel e chamamos
B = A−1 ).
! !
2 3 4/5 −3/5
Exemplo 1.15. A matriz A = é inversı́vel, sendo A−1 = ,
1 4 −1/5 2/5
pois A · A−1 = A−1 · A = I2 . !
6 −3
Já a matriz B = não admite inversa, ou seja, não é inversı́vel.
2 −1

Propriedades da matriz inversa:

1. Se A é uma matriz quadrada e existe B tal que A · B = I, então A é inversı́vel


e A−1 = B.

Demonstração. A demonstração desta propriedade é feita em duas partes.


Sabemos que A · B = I. Seja C tal que B · A = C. Então

A · (B · A) = A·C
(A · B) · A = A·C
I·A
) = A·C
A = A·C
=⇒ C = I.
A = A·I

Assim, A · B = B · A = I. Vamos mostrar agora que B é único. Suponhamos


por absurdo que exista D 6= B tal que A · D = I. Então

B · (A · D) = B · I
(B · A) · D = B
I · D = B =⇒ D = B.

Então, realmente A−1 = B.

Esta propriedade nos garante que a inversa de uma matriz é única.


1.1. MATRIZES 15

2. Se A e B são matrizes inversı́veis de mesma ordem, então A · B é inversı́vel,


e (AB)−1 = B−1 A−1 .

Demonstração. Se A e B são inversı́veis de mesma ordem, digamos, ordem n,


existem A−1 e B−1 de ordem n. Vamos mostrar que (AB) · (B−1 A−1 ) = In .
Então

(AB) · (B−1 A−1 ) = A(BB−1 )A−1


= AIn A−1
= AA−1
= In

Como (AB) · (B−1 A−1 ) = In , pela propriedade anterior, AB é inversı́vel, e


(AB)−1 = B−1 A−1 .

3. Se A é uma matriz com uma de suas linhas (ou colunas) nula, então A não é
inversivel.

Demonstração. Seja A = (aij )n×n uma matriz tal que, para algum k entre
1 e n, akj = 0, para todo j entre 1 e n, ou seja, a k-ésima linha da matriz
é nula, e vamos supor, por absurdo, que A é inversı́vel. Neste caso, existe
A−1 = (bij )n×n tal que

A · A−1 = In
(
1 se i = j
(aij )n×n · (bij )n×n = (cij )n×n onde cij = , 1 ≤ i, j ≤ n.
0 6 j
se i =

Em particular, para cada i e cada j, (akj ) · (bik ) = ckk . Como akj = 0, para
todo j, segue que ckk = 0. Mas isso é um absurdo, pois ckk = 1.
Portanto, A não é inversı́vel.
Provamos a propriedade para matrizes que possuem uma linha nula, mas o
mesmo argumento é utilizado para provar a propriedade para matrizes que
possuem uma coluna nula.
16 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

Transposição de matrizes

Consideremos A = (aij )m×n uma matriz real, onde m e n são números inteiros
positivos. Definimos a matriz transposta a A como sendo AT = (aji )n×m .

Exemplo 1.16.
 
4 6 !
4 −2 0
A =  −2 3  =⇒ AT =
 
6 3 5
0 5

Propriedades de matrizes transpostas:

1. Se A e B são matrizes de Mm×n (R), então (A + B)T = AT + BT .


   
−1 3 2 −2
Exemplo 1.17. Tomando A =  3 1  e B =  0 −1  temos que
   

0 −5 1 1

1 1 !
1 3 1
A+B= 3 0  =⇒ (A + B)T = .
 
1 0 −4
1 −4
! !
−1 3 0 2 0 1
Por outro lado, AT = , BT = ,e
3 1 −5 −2 −1 1
!
1 3 1
A T + BT = = (A + B)T
1 0 −4

2. Se A é uma matriz simétrica, então AT = A.

Exemplo 1.18.
   
−1 3 0 4 −1 3 0 4
   
 3 1 −5 2  T
 3 1 −5 2 
S= √  =⇒ S = 
  √  =S
 0 −5 5 6  0 −5 5 6 
 √  √ 
4 2 6 8 4 2 6 8
1.1. MATRIZES 17

3. (A · B)T = BT · AT .
 
! 4 5
2 0 1
Exemplo 1.19. Tomando A = e B =  3 −2 , temos que
 
−1 3 1
2 0
 
! 4 5 !
2 0 1 10 10
A·B= ·  3 −2  =
 
−1 3 1 7 −11
2 0
!
10 7
Segue que (A · B)T = .
10 −11
 
2 −1 !
4 3 2
Por outro lado, AT =  0 3  e BT = . Logo
 
5 −2 0
1 1
 
! 2 −1
4 3 2
BT · AT = · 0 3 
 
5 −2 0
1 1
!
10 7
= = (A · B)T .
10 −11
18 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

1.2 Sistemas de equações lineares


A primeira vez que você deve ter ouvido falar em sistemas de equações foi no ensino
fundamental. Lá, você aprendeu a resolver sistemas do tipo
(
2x + y = 6
I:
3x − y = 1.

Esses sistemas, em geral, tinham uma única solução. Depois, você deve ter aprendido
que, na verdade, a solução poderia nem existir, ou mesmo não ser única.
(
2x + y = 3
II :
6x + 3y = 9.

(
2x + y = 3
III :
4x + 2y = 4.
Mas por que estas equações se chamam lineares?
Pela sua interpretação geométrica. Vamos analisar os exemplos anteriores neste
contexto.
(
2x + y = 6
I:
3x − y = 1.

y r
6

A 
A 
A 
A 
r
A 
A
A
 A
 A
 A
 A -
 A
A x

r AA
1.2. SISTEMAS DE EQUAÇÕES LINEARES 19

(
2x + y = 3
II :
6x + 3y = 9.

y
6

A
A
A
A

Ar
A
A
A
A -
A x
A
A
A
AA

(
2x + y = 3
III :
4x + 2y = 4.

y
6

A
AA
AA
AA
AA r
AA
ArA
AA -
AA
x
AA
AA
AA
AA
A AA

Observe que o primeiro sistema é possı́vel e determinado (uma única solução:


o ponto de interseção entre as retas), o segundo sistema é possı́vel indeterminado
20 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

(todos os pontos que incidem sobre a reta) ou impossı́vel (duas retas paralelas e,
portanto, sem pontos em comum).
A mesma ideia pode ser estendida para sistemas com maior número de incógnitas
e equações.
Definição 3. Um sistema com m equações e n incógnitas é o conjunto de equações
do tipo



 a11 x1 + a12 x2 + ... + a1n xn = b1

 a21 x1 + a22 x2 + ... + a2n xn = b2
(∗)


 ...

 am1 x1 + am2 x2 + ... + amn xn = bm ,
com aij , bi ∈ R para todos i, j, com 1 ≤ i ≤ m e 1 ≤ j ≤ n.
Exemplo 1.20.

 3x1 + 4x2 + 3x3 − 2x4 = 1

−x1 + x2 − x3 + x4 = 1

x1 + 3x2 − 2x3 + 3x4 = 4

(
2x + y = 5
Vamos agora considerar um sistema simples, por exemplo, , e
x − 3y = 6
resolvê-lo.
Você deve conhecer dois métodos de resolução: via substituição ou via eli-
minação. Vamos trabalhar com este segundo. A ideia é multiplicar a segunda
equação por uma constante de maneira que, ao somar as duas equações, obtenha-
mos uma única equação dependendo de uma única incógnita.
(
2x + y = 5
x − 3y = 6
(
2x + y = 5
−2x + 6y = −12
0 + 7y = −7

y = −1, x = 3
1.2. SISTEMAS DE EQUAÇÕES LINEARES 21

Chamando a primeira equação de L1 e a segunda equação de L2 , esquematicamente,


temos o seguinte processo:
(
2x + y = 5 ←− L1
x − 3y = 6 ←− L2

Fazendo L2 → (−2)L2 , obtemos um novo sistema, similar ao mesmo:


(
2x + y = 5 ←− L1
−2x + 6y = −12 ←− L2

Tomando agora L2 → L1 + L2 , ficamos com:


(
2x + y = 5 ←− L1
0 + 7y = −7 ←− L2
(
2x + y = 5 ←− L1
0 + y = −1 ←− L2

Note que, resolver o primeiro sistema ou o último sistema resulta nos mesmo valores
de x e y. Dizemos então que eles são equivalentes.

Definição 4. Dois sistemas são ditos equivalentes se as soluções de um forem as


soluções do outro e vice-versa.

Assim, se somarmos duas equações de um mesmo sistema, trocarmos duas equações


de lugar ou multiplicarmos uma equação por uma constante, não estamos mudando
o sistema, apenas encontrando um sistema equivalente. Chamamos estas operações
de operações elementares.

Exemplo 1.21. Os dois sistemas a seguir são equivalentes:


 
 x−y+z =1
  x−y+z =1

S1 : 2x − y + z = 4 S2 : 2x − y + z = 4
 
x − 2y + 2z = 0 −y + z = −1
 
22 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

pois S2 foi obtido fazendo-se L3 receber L3 − L1 .

Assim, podemos utilizar sistemas semelhantes para resolver sistemas. Por outro
lado, trabalhar com sistemas grandes, mesmo em termos de sistemas equivalentes
pode se tornar um pouco confuso. Há uma maneira de amenizar este fato, ”limpar”o
processo: basta utilizarmos matrizes.

Definição 5. Dado um sistema com m equações e n incógnitas é o conjunto de


equações 
 a11 x1 + a12 x2 + ... + a1n xn = b1



 a x + a x + ... + a x = b
21 1 22 2 2n n 2
(∗) ,


 ...

 a x + a x + ... + a x = b ,
m1 1 m2 2 mn n m

podemos representá-lo como uma multiplicação de matrizes A · X = B, onde


     
a11 a12 ... a1n x1 b1
a21 a22 ... a2n
     
   x2   b2 
A= .. .. .. , x =  , b =  ,

 . . .



 ... 


 ... 

am1 am2 ... amn xn bm

sendo A a matriz de coeficientes do sistema, X a matriz de incógnitas e B a matriz


de constantes.

Chamamos de matriz estendida associada a (∗), ou matriz ampliada, à matriz


 
a11 a12 ... a1n | b1
a21 a22 ... xn | b2 
 

S= .. .. .. ,
.. 
. . . . 


am1 am2 ... amn | bm


 x − y + z = 1

Exemplo 1.22. O sistema 2x − y + z = 4 pode ser representado ma-

x − 2y + 2z = 0

1.2. SISTEMAS DE EQUAÇÕES LINEARES 23

tricialmente por A · x = b, com


     
1 −1 1 x 1
A =  2 −1 1  , x =  y  , b =  4  .
     

1 −2 2 z 0

A matriz estendida, neste caso, será


 
1 −1 1 | 1
A =  2 −1 1 | 4  .
 

1 −2 2 | 0

Vamos agora repetir os passos da resolução do sistema que fizemos anteriormente,


colocando ao lado de cada etapa a matriz estendida correspondente.
( !
2x + y = 5 2 1 | 5
x − 3y = 6 1 −3 | 6

↓ L2 ← (−2)L2

( !
2x + y = 5 ←− L1 2 1 | 5
−2x + 6y = −12 ←− L2 −2 6 | −12

↓ L2 ← L1 + L2

( !
2x + y = 5 ←− L1 2 1 | 5
0 + 7y = −7 ←− L2 0 7 | −7

↓ L2 ← 1/7L2

( !
2x + y = 5 ←− L1 2 1 | 5
0 + 1y = −1 ←− L2 0 1 | −1
24 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

Note que a notação matricial torna muito mais limpo o processo de resolução. A
ideia então será definirmos as operações elementares sobre matrizes e resolvermos
os sistemas através das matrizes estendidas associadas a eles.

Operações Elementares sobre Matrizes

Consideremos A uma matriz m × n. As operações elementares sobre as linhas das


matrizes serão definidas da seguinte forma:

(i) Permuta de i-ésima linha de uma matriz pela j-ésima linha da matriz (Li ↔
Lj )

Exemplo 1.23.
   
0 −2 5 0 −2 5
 −−−−−→ 
 4 3 0  L2 ↔ L3  1 −1 3 
 

1 −1 3 4 3 0

(ii) Multiplicação da iésima linha por um escalar não nulo (Li ← k · Li , com k
real)

Exemplo 1.24.
   
0 −2 5 0 −2 5
 −−−−−−−−−→ 
 4 3 0  L3 ← (−2)L3  4 3 0 
 

1 −1 3 −2 2 −6

(iii) Substituição da i-ésima linha pela soma da i-ésima linha e um múltiplo da


j-ésima coluna (Li ← Li + k · Lj , com k real)

Exemplo 1.25.
   
0 −2 5 0 −2 5
 −−−−−−−−−→ 
 4 3 0  L3 ← L3 − L2  4 3 0 
 

1 −1 3 −3 −4 3
1.2. SISTEMAS DE EQUAÇÕES LINEARES 25

Se uma matriz B pode ser obtida através das operações elementares sobre as linhas
de uma matriz A, dizemos que A e B são linha-equivalentes e escrevemos A ← B.
OBS: Se as matrizes estendidas de dois sistemas são linha-equivalentes, então os
sistemas são equivalentes.

Eliminação Gaussiana ou Método de Gauss

O método de Gauss consiste em resolver o sistema linear por meio de sua matriz
ampliada S m × n, efetuando operações elementares até encontrar uma matriz S 0 =
(sij )m×n linha-equivalente a S tal que

(i) sij = 0 sempre que i > j (se i ≤ j, sij pode ou não ser nulo)

(ii) Se, na i-ésima linha, sik = 0 para todo k < j e sij 6= 0, então na (i + 1)-ésima
linha s(i+1)k = 0 para todo k ≤ j.

Chamamos uma matriz com essa caracterı́stica de matriz escalonada.

Exemplo 1.26.
   
2 3 4 2 3 4 5
S1 =  0 1 3  S2 =  0 2 1 3 
   

0 0 2 0 0 8 3
   
2 3 4 5 2 3 4 5
S3 =  0 0 1 3  S4 =  0 1 0 3 
   

0 0 0 6 0 0 0 0

Note que, se m > n, a matriz escalonada terá obrigatoriamente (m − n) linhas


nulas.
Consideremos duas matrizes linha-equivalentes A e B, onde B é uma matriz
escalonada e vamos definir posto e nulidade da matriz A. Estes conceitos nos darão
informações sobre o sistema linear cuja matriz estendida é A.

Definição 6. Dada uma matriz A m×n, consideremos B a matriz escalonada linha-


equivalente a A. Definimos a posto de A, p(A), como sendo o número de linhas não
nulas de B, e nulidade de A como sendo o número n − p(A).
26 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

OBS: A nulidade de A é, portanto, definida sobre o número de colunas que a


matriz possui.

Iremos agora resolver alguns sistemas lineares através do método de Gauss, e os


utilizaremos como motivação para o próximo resultado que veremos.

Exemplo 1.27. Consideremos o seguinte sistema.



 x + 4y + 3z = 1

2x + 5y + 4z = 4

x − 3y − 2z = 5

Este sistema pode ser escrito como uma multiplicação de matrizes A · X = B, onde

     
1 4 3 x 1
A= 2 5 4 , X =  y , e B =  4 ,
     

1 −3 −2 z 5

e a matriz estendida associada ao sistema corresponde à


 
1 4 3 | 1
S= 2 5 4 | 4 .
 

1 −3 −2 | 5

Vamos trabalhar com a matriz estendida via operações elementares até encontrar
uma matriz linha-equivalente na forma escalonada.
1.2. SISTEMAS DE EQUAÇÕES LINEARES 27

   
1 4 3 | 1 −−−−−−−−−−−−→
  1 4 3 | 1
 2 5 4 | 4  L3 ← L3 − L1  2 5 4 | 4 
   

1 −3 −2 | 5 0 −7 −5 | 4
 
−−−−−−−−−−−−→
  1 4 3 | 1
L2 ← L2 − 2L1  0 −3 −2 | 2 
 

0 −7 −5 | 4
 
−−−−−−−−−−→
  1 4 3 | 1
L3 ← −3L3  0 −3 −2 | 2 
 

0 21 15 | −12
 

−−−−−−−−−−−→  1 4 3 | 1
L3 ← L3 + 7L2  0 −3 −2 | 2 
 

0 0 1 | 2

Assim, resolver o sistema original ou o sistema equivalente



 x + 4y + 3z = 1

−3y − 2z = 2

z=2

é a mesma coisa. O sistema tem apenas uma solução: (x, y, z) = (3, −2, 2). Note
ainda que o posto da matriz A e o posto da matriz S são iguais a 3.

Outro exemplo:

Exemplo 1.28. 


 x + y + z + 3t = 1

 x + y − z + 2t = 0


 2x + 2y + 5t = 1

 6z + 3t = 3
28 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

A matriz estendida associada ao sistema corresponde à


 
1 1 1 3 | 1
 
 1 1 −1 2 | 0 
S= .

 2 2 0 5 | 1 

0 0 6 3 | 3

Assim
   
1 1 1 3 | 1 1 1 1 3 | 1

 1 1 −1 2 | 0

 −−−−−−−−−−−−→
  
 0

0 −2 −1 | −1 
  L2 ← L2 − L1  

 2 2 0 5 | 1 


 2 2 0 5 | 1 

0 0 6 3 | 3 0 0 6 3 | 3
 
1 1 1 3 | 1
−−−−−−−−−−−−→
  
 0

0 −2 −1 | −1 
L4 ← L4 + 3L2  
 2
 2 0 5 | 1 

0 0 0 0 | 0
 
1 1 1 3 | 1
−−−−−−−−−−−−−−→
  
 0

0 −2 −1 | −1 
L3 ← −L3 − 2L1  
 0
 0 −2 −1 | −1 

0 0 0 0 | 0
 
1 1 1 3 | 1
−−−−−−−−−−−−→
   0

0 −2 −1 | −1 
L3 ← L3 − L2  
 0
 0 0 0 | 0 

0 0 0 0 | 0

Logo, basta resolvermos o sistema equivalente


(
x + y + z + 3t = 1
−2z − t = −1

O sisema apresenta infinitas soluções. Na verdade, o conjunto de soluções do sistema


é dado por {(x, y, z, t) ∈ R4 |x = 5z − y − 2 e t = −2z + 1} ou, ainda, {(5z − y −
2, y, z, −2z + 1)|y, z ∈ R}. Note ainda que o posto da matriz A e o posto da matriz
1.2. SISTEMAS DE EQUAÇÕES LINEARES 29

S são iguais a 2.

Exemplo 1.29. 
 x+y+z =1

x−y−z =2

2x + y + z = 3

A matriz estendida associada ao sistema corresponde à


 
1 1 1 | 1
S =  1 −1 −1 | 2  .
 

2 1 1 | 3

Assim
   
1 1 1 | 1 −−−−−−−−−−−−→
  1 1 1 | 1
 1 −1 −1 | 2  L2 ← L2 − L1  0 −2 −2 | 1 
   

2 1 1 | 3 2 1 1 | 3
 
−−−−−−−−−−−−→
  1 1 1 | 1
L3 ← L3 − 2L1  0 −2 −2 | 1 
 

0 −1 −1 | 2
−−−−−−−−−−−−−−−→
 
! 1 1 1 | 1
1
L3 ← −L3 − 2 L2  0 −2 −2 | 1 
 

0 0 0 | 32

Chegamos ao sistema equivalente



 x+y+z =1

−2y − 2z = −1

0 = 3/2

que é um sistema impossı́vel. Observe que o posto da matriz A é 2, enquanto o


posto da matriz S é 3.

De posse destes exemplos, podemos enunciar o seguinte teorema:

Teorema 1.2.1. Um sistema A x = b com m equações e n incógnitas admite


30 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

solução se, e somente se, o posto da matriz de coeficientes A for igual ao posto da
matriz estendida S, ou seja, p(A) = p(S). Além disso,

1. Se p(A) = p(S) = n, o sistema admite uma única solução (Sistema Possı́vel


Determinado).

2. Se p(A) = p(S) < n, o sistema admite infinitas soluções (Sistema Possı́vel


Indeterminado).

3. Se p(A) 6= p(S), o sistema não admite soluções (Sistema Impossı́vel).

Existem outras maneiras de se resolver sistemas. Para aprendê-las, no entanto,


precisamos introduzir o conceito de determinante.
1.3. DETERMINANTES 31

1.3 Determinantes
Consideremos a equação a · x = b. É claro que, se a 6= 0, x = b/a. Pensando nesta
equação como um sistema A · x = b de tamanho 1 × 1, a matriz de coeficientes
associada corrresponde a A = (a).
Consideremos agora um sistema 2 × 2
(
a11 x1 + a12 x2 = b1
a21 x1 + a22 x2 = b2

Podemos encontrar os valores das incógnitas fazendo algumas contas simples:

• se multiplicarmos a primeira equação por a22 , a segunda equação por −a12 e


subtrairmos uma da outra, encontraremos o valor de x1
(
a22 · (a11 x1 + a12 x2 ) = a22 · b1
−a12 · (a21 x1 + a22 x2 ) = −a12 · b2
(
a22 · a11 x1 + a22 · a12 x2 = a22 · b1

−a12 · a21 x1 − a12 · a22 x2 = −a12 · b2

(a22 · a11 − a12 · a21 )x1 + (a22 · a12 − a12 · a22 )x2 = a22 · b1 − a12 · b2
a22 · b1 − a12 · b2
x1 =
a22 · a11 − a12 · a21

• se multiplicarmos a primeira equação por −a21 , a segunda equação por a11 e


subtrairmos uma da outra, encontraremos o valor de x2 .
(
−a21 · (a11 x1 + a12 x2 ) = −a21 · b1
−a11 · (a21 x1 + a22 x2 ) = −a12 · b2
(
−a21 · a11 x1 − a21 · a12 x2 = −a21 · b1

a11 · a21 x1 + a11 · a22 x2 = a11 · b2

(a11 · a21 − a21 · a11 )x1 + (a11 · a22 − a21 · a12 )x2 = a11 · b2 − a21 · b1
a11 · b2 − a21 · b1
x2 =
a22 · a11 − a12 · a21
32 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

Note que os denominadores são iguais e dependem apenas dos coeficientes do sis-
tema, ou seja, estão de alguma forma associados a matriz de coeficientes
!
a11 a12
A= .
a21 a22

Se procedermos de maneira análoga em um sistema 3 × 3, encontraremos expressões


para as incógnitas cujos denominadores serão iguais a

a11 a22 a33 − a11 a23 a32 + a12 a23 a31 − a12 a21 a33 + a13 a21 a32 − a13 a22 a31 ,

que também está associado apenas a matriz de coeficientes do sistema.


Um olhar mais atento mostrará que, na verdade, estes valores correspondem aos
determinantes das matrizes em questão.

NOTAÇÃO: Se A = (aij )n×n , denotamos o determinante de A por det A =


|A| = det(aij ). !
a11 a12
Assim det(a) = a, det = a22 a11 − a12 a21 e
a21 a22

 
a11 a12 a13
det  a21 a22 a23  = a11 a22 a33 − a11 a23 a32 + a12 a23 a31 +
 

a31 a32 a33


− a12 a21 a33 + a13 a21 a32 − a13 a22 a31

A definição de determinante de uma matriz quadrada de ordem n envolve alguns


conceitos e simbologias um pouco complicadas que fogem do escopo deste curso.
Assim, vamos explicar de maneira breve como chegamos nesta definição.

Definição 7. Dados n objetos distintos, uma permutação entre esses objetos consiste
em colocá-los em determinada ordem. O número de permutações possı́veis, neste
caso, será n!.

Exemplo 1.30. Consideremos os números inteiros 1, 2 e 3 e suas possı́veis per-


mutações.
1.3. DETERMINANTES 33

(1 2 3), (1 3 2), (2 1 3), (2 3 1), (3 1 2), (3 2 1).

Definição 8. Dada uma permutação dos inteiros 1, 2, ..., n, existe uma inversão
quando um inteiro precede outro menor do que ele.

Exemplo 1.31. Observe as possı́veis permutações dos números inteiros 1, 2 e 3 e o


número de inversões em cada uma delas na tabela a seguir.

Permutação Número de Inversões Razão


(1 2 3) 0
(1 3 2) 1 3>2
(2 1 3) 1 2>1
(2 3 1) 2 3>1e2>1
(3 1 2) 2 3>1e3>2
(3 2 1) 3 3 > 2, 2 > 1 e 3 > 1

Voltemos ao determinante de uma matriz de ordem 3:


 
a11 a12 a13
det  a21 a22 a23  = a11 a22 a33 − a11 a23 a32 + a12 a23 a31 +
 

a31 a32 a33


− a12 a21 a33 + a13 a21 a32 − a13 a22 a31

Podemos reescrever cada termo desta soma como a1j1 a2j2 a3j3 , onde (j1 j2 j3 ) é
uma permutação de 1, 2, 3. Além disso, o sinal é negativo se a permutação tiver um
número ı́mpar de inversões. Generalizando,

Definição 9. Dada uma matriz A = (aij )n×n , o determinante de A é dado por


X
det A = (−1)J a1j1 a2j2 ...aiji ...anjn ,
ρ

onde J é o número de inversões da permutação (j1 j2 ... jn ) e ρ indica todas as n!


possı́veis permutações de 1, 2, ...n.

Note que as permutações podem ser consideradas tanto em relação às colunas
34 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

quanto às linhas da matriz: basta um rearranjamento nos termos de cada parcela.
X
det A = (−1)J a1j1 a2j2 ...aiji ...anjn
ρ
X
= (−1)J aj1 1 aj2 2 ...aji i ...ajn n
ρ

De posse desta definição, vamos estudar algumas propriedades de determinantes.

Proposição 1.3.1. Se todos os elementos de uma linha ou coluna de uma matriz


A são nulos, então det A = 0.

Demonstração. Dada uma matriz A = (aij )n×n , o determinante de A é dado por


X
det A = (−1)J a1j1 a2j2 ...aiji ...anjn ,
ρ

onde J é o número de inversões da permutação (j1 j2 ... jn ) e ρ indica todas as n!


possı́veis permutações de 1, 2, ...n. Digamos que i-ésima linha seja tal que aij = 0,
para j = 1, 2, ..., n. Então aijk = 0, para toda permurtação k. Logo
X
det A = (−1)J a1j1 ...a(i−1)j(i−1) aiji a(i+1)j(i+1) ...anjn
ρ
X
= (−1)J a1j1 ...a(i−1)j(i−1) · 0 · a(i+1)j(i+1) ...anjn = 0
ρ

Como cada parcela do determinante tem um elemento da i-ésima linha, o produto


dos termos será 0. Consequentemente, det A = 0.

Proposição 1.3.2. det A = det AT .

Demonstração. Dada uma matriz A = (aij )n×n , consideremos B = (bij )n×n a matriz
transposta a A. Então bij = aji para i, j ∈ {1, 2, ...n}. Então
X
detB = (−1)J b1j1 b2j2 ...biji ...bnjn
ρ
X
= (−1)J aj1 1 aj2 2 ...aji i ...ajn n
ρ
= det A.
1.3. DETERMINANTES 35

Proposição 1.3.3. Se multiplicarmos uma linha da matriz por uma constante, o


determinante será multiplicado por esta constante.

Demonstração. Sendo A = (aij )n×n , c um número real e k um número inteiro entre


1 e n, consideremos B = (bij )n×n uma matriz definida da seguinte forma:
(
aij , se i 6= k
bij =
c · aij , se i = k.

Então
X
detB = (−1)J b1j1 ...b(k−1)j(k−1) bkjk b(k+1)j(k+1) ...bnjn
ρ
X
= (−1)J a1j1 ...a(k−1)j(k−1) (c · akjk ) a(k+1)j(k+1) ...anjn
ρ
X  
= (−1)J c · a1j1 ...a(k−1)j(k−1) akjk a(k+1)j(k+1) ...anjn
ρ
!
X
= c· (−1)J a1j1 ...a(k−1)j(k−1) akjk a(k+1)j(k+1) ...anjn
ρ
= c · det A

Proposição 1.3.4. Uma vez trocadas duas linhas, o determinante troca de sinal.

Demonstração. Dada uma matriz A = (aij )n×n , o determinante de A é dado por


X
det A = (−1)J a1j1 a2j2 ...aiji ...akjk ...anjn ,
ρ

onde J é o número de inversões da permutação (j1 j2 ... jn ) e ρ indica todas as


n! possı́veis permutações de 1, 2, ...n. Se trocarmos duas linhas i e k, digamos, com
i < k, as permutações onde ji < jk serão tais após a troca que ji > jk , aumentando
em uma unidade o número de inversões e alterando o sinal das parcelas em que isso
ocorrer. Por outro lado, se ji > jk antes da troca, após, ji < jk , diminuindo em
36 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

uma unidade o número de inversões e alterando o sinal das parcelas em que isso
ocorrer. Como uma das situações irá ocorrer necessariamente, todas as parcelas da
soma trocarão de sinal. Segue que o determinante da matriz após a troca será igual
a (− det A).

Proposição 1.3.5. O determinante de uma matriz com duas linhas (ou colunas)
iguais é zero.

Demonstração. Consideremos uma matriz A = (aij )n×n tal que as linhas l e k são
iguais. Pela propriedade anterior, se trocarmos essas duas linhas, o determinante da
nova matriz B será igual a detB = − det A. Por outro lado, as linhas são iguais, ou
seja, B = A, implicando em det A = − det A. Segue que det A = 0.

Proposição 1.3.6. Em geral, det(A + B) 6= det A + det B. Agora,


   
a11 a12 ... a1n a11 a12 ... a1n
 .. .. ..   .
 .. .. .. 

 . . . 
  . .  
det  bi1 + ci1 bi2 + ci2 ... bin + cin  = det  bi1 bi2 ... bin 
   
 .. .. ..   .
 . .. .. 
. . .  . . . 
  
 
an1 an2 ... ann an1 an2 ... ann
 
a11 a12 ... a1n
 . .. .. 
 .. . . 
 
+ det  ci1 ci2 ... cin 
 
 . .. .. 
 .
 . . . 

an1 an2 ... ann

Demonstração. Basta utilizar a propriedade distributiva na definição do determi-


nante.

Proposição 1.3.7. Se somarmos uma linha a outra multiplicada por uma constante,
o determinante não se altera.

Demonstração. Seja A = (aij )n×n e consideremos a i e k duas linhas de A tais que


i < k. Se construı́rmos uma nova matriz, alterando a k-ésima linha para akj + c · aij ,
teremos
1.3. DETERMINANTES 37



a11 a12 ... a1n

.
.. .. ..

. .


ai1 ai2 ... ain

.
.. .. ..
=

. .
ak1 + c · ai1 ak2 + c · ai2 ... akn + c · ain


.. .. ..

. . .



an1 an2 ... ann
38 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES



a11 a12 ... a1n a11
a12 ... a1n

.. .. .. .. .. ..

. . . .
. .


ai1 ai2 ... ain a
i1 ai2 ... ain

.. .. .. .
+ .. .. ..
= . . . . . =

c · ai1 c · ai2 ... c · ain

ak1 ak2 ... akn
.. .. .. .. .. ..

. . . . . .



an1 an2 ... ann an1 an2 ... ann


a11 a12 ... a1n

a11
a12 ... a1n
.. .. .. .. .. ..

. . .

.
. .

ai1 ai2 ... ain

a
i1 ai2 ... ain
.. .. .. + c · ...
.. ..
= . . . . . =

ak1 ak2 ... akn ai1 ai2 ... ain
.. .. .. .. .. ..

. . . . . .



an1 an2 ... ann an1 an2 ... ann


a11 a12 ... a1n


a11 a12 ... a1n

.. .. .. .. .. ..

. . .


. . .


ai1 ai2 ... ain


ai1 ai2 ... ain

.. .. ..
+c·0=
.. .. ..
= . . . . . . = det A.


ak1 ak2 ... akn ak1 ak2 ... akn
.. .. .. .. .. ..

. . . . . .



an1 an2 ... ann an1 an2 ... ann

Proposição 1.3.8. det(A · B) = det A · detB.

Demonstraremos mais tarde.

Note que, mesmo com a definição de determinante, calculá-lo para uma matriz
de ordem maior do que 3 pode ser bastante complicado: no caso de uma matriz de
ordem 4, por exemplo, serão 24 parcelas a serem somadas (o número de permutações
1.3. DETERMINANTES 39

de (1 2 3 4). Entretanto, há uma maneira alternativa de calcular determinantes,


que troca a dificuldade de calculá-lo para uma matriz de ordem 4 por quatro de-
terminantes de ordem 3. Este procedimento recebe o nome de desenvolvimento de
Laplace e entenderemos o seu funcionamento a seguir.

DESENVOLVIMENTO DE LAPLACE

Voltemos às fórmulas encontradas para calcular os determinantes de matrizes de


ordem 3:

a11 a12 a13

det A = a21 a22 a23 = a11 a22 a33 − a11 a23 a32 + a12 a23 a31 +


a31 a32 a33
− a12 a21 a33 + a13 a21 a32 − a13 a22 a31

Note que cada um dos elementos da matriz aparece duas vezes ao longo da
expressão. Podemos então escolher três e colocá-los em evidência. Vamos fixar, por
exemplo, os elementos da primeira linha da matriz. Então

a11 a12 a13

a21 a22 a23 = a11 (a22 a33 − a23 a32 ) +


a31 a32 a33
+ a12 (a23 a31 − a21 a33 ) + a13 (a21 a32 − a22 a31 )

Se compararmos agora o conteúdo entre parênteses com o determinante de uma


matriz de ordem 2, podemos reescrever a igualdade acima como


a11 a12 a13
a
22 a23
a
21 a23
a
21 a22

a21 a22 a23 = a11 − a12 + a13


a32 a33 a31 a33 a31 a32
a31 a32 a33

Assim, o determinante da matriz de ordem 3 pode ser expresso em função de deter-


40 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

minantes de submatrizes de ordem 2

det A = a11 |A11 | − a12 |A12 | + a13 |A13 | ,

onde Aij é a submatriz de A cujas i-ésima linha e j-ésima colunas foram retiradas.
Se definirmos o cofator do elemento aij como sendo

∆ij = (−1)i+j |Aij | ,

obtemos
det A = a11 ∆11 + a12 ∆12 + a13 ∆13 .

O fato de termos fixado a primeira linha foi totalmente aleatório. Se tivéssemos


escolhido uma outra linha ou mesmo uma coluna, procedendo da mesma maneira,
encontrarı́amos o determinante da matriz.
Esta propriedade pode ser provada para matrizes de ordem maior do que 3,
implicando na seguinte proposição:

Proposição 1.3.9. Em uma matriz A de ordem n, fixemos i, com 1 ≤ i ≤ n.


Então o determinante de A é dado por
n
X
det A = aij ∆ij ,
j=1

onde ∆ij é o cofator do elemento aij .

Exemplo 1.32.
 
2 1 0
A =  −3 1 4 
 

1 6 5
(det A = −19)

(Calcular com a primeira linha fixa e com a segunda coluna fixa.)


1.3. DETERMINANTES 41

Exemplo 1.33.
 
1 −2 3
A= 2 1 −1 
 

−2 −1 2

(det A = 5)

(Somar a segunda e a terceira linha e depois calcular o determinante).

Exemplo 1.34.
 
−1 2 3 −4
 
 4 2 0 0 
A= 

 −1 2 −3 0 

2 5 3 1

(det A = 372)

1.3.1 Matriz Adjunta e Matriz Inversa


Consideremos agora os cofatores ∆ij associados aos elementos aij da matriz A =
(aij )n×n . Podemos formar uma nova matriz com estes elementos que chamaremos
de matriz dos cofatores de A, denotada por

A = [∆ij ].

Vamos entender este conceito através de um exemplo:


 
2 1 0
Exemplo 1.35. Consideremos a matriz A =  −3 1 4 . Então, através de
 

1 6 5
cálculos simples, encontramos ∆11 = −19, ∆12 = 19,... Assim, a matriz dos cofatores
de A é dada por  
−19 19 −19
A =  −5 10 −11  .
 

4 −8 5
42 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

T
Vamos agora multiplicar a matriz A por A :

   
2 1 0 −19 −5 4
T
A · A =  −3 1 4  ·  19 10 −8 
   

1 6 5 −19 −11 5
 
−19 0 0
= 0 −19 0 
 

0 0 −19
 
1 0 0
= −19 ·  0 1 0  .
 

0 0 1

Agora, já calculamos o determinante desta matriz, e encontramos justamente o valor


−19. Será coincidência?

Na verdade, não.

Definição 10. Dada uma matriz quadrada A, chamaremos de matriz adjunta de


A à transposta da matriz de cofatores de A e a denotaremos por adj A. Assim,
T
adj A = A .

T
Teorema 1.3.10. Seja A uma matriz de ordem n. Então A · A = A · adj A =
det A · In .

Demonstração. Vamos fazer uma prova parcial, supondo que n = 3.


Consideremos C = (cij )n×n a matriz resultante da multiplicação A · adj A. Então
     
a11 a12 a13 ∆11 ∆21 ∆31 c11 c12 c13
C =  a21 a22 a23  ·  ∆12 ∆22 ∆32  =  c21 c22 c23  ,
     

a31 a32 a33 ∆13 ∆23 ∆33 c31 c32 c33


1.3. DETERMINANTES 43

onde

c11 = a11 · ∆11 + a12 · ∆12 + a13 · ∆13


c12 = a11 · ∆21 + a12 · ∆22 + a13 · ∆23
c13 = a11 · ∆31 + a12 · ∆32 + a13 · ∆33
c21 = a21 · ∆11 + a22 · ∆12 + a23 · ∆13
..
.
c33 = a31 · ∆31 + a32 · ∆32 + a33 · ∆33

Vamos agora analisar cada elemento da matriz C. Observe que, se fixarmos a


primeira linha da matriz A, pelo desenvolvimento de Laplace,

det A = a11 · ∆11 + a12 · ∆12 + a13 · ∆13 = c11 .

Analogamente, se fixarmos a segunda linha ou a terceira linha de A, pelo desenvol-


vimento de Laplace, c22 = det A e c33 = det A.

Fixemo-nos agora no elemento c12 . Observe que sua expressão corresponde ao


desenvolvimento de Laplace da matriz cuja segunda linha foi fixada e cujos elementos
são a11 , a12 e a13 :

c12 = a11 · ∆21 + a12 · ∆22 + a13 · ∆23



a11 a12 a13

= a11 a12 a13 = 0


a31 a32 a33

A mesma ideia pode ser aplicada para c13

c13 = a11 · ∆31 + a12 · ∆32 + a13 · ∆33



a11 a12 a13

= a21 a22 a23 = 0,


a11 a12 a13
44 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

e para todos os elementos cij com i 6= j. Assim,


 
det A 0 0
C = A · adj A =  0 det A 0  = det A · I3 .
 

0 0 det A

Voltemos agora ao problema que começou toda esta discussão: como saber se
uma matriz quadrada A admite inversa e, caso exista, como encontrá-la?
Suponhamos que A seja uma matriz que admite inversa A−1 . Então, por de-
finição, A · A−1 = I. Neste caso, pelas propriedades de determinantes,

det A · A−1

= detI
det (A) · det A−1 = 1


1
det(A−1 ) = .
det A

Assim,

Proposição 1.3.11. Se A é uma matriz que admite inversa, então

• det A 6= 0
1
• det A−1 = .
det A
.
Suponhamos agora que A seja uma matriz tal que det A 6= 0 e consideremos a
matriz adjunta de A, adj A. Então

A · adj A = det A · In
adj A
A· = In
det A

Como a matriz inversa, se existir, é única, temos o seguinte resultado:

Teorema 1.3.12. Uma matriz quadrada A admite uma inversa se, e somente se,
1
A−1 = · adj A.
det A
1.3. DETERMINANTES 45

Assim, temos uma nova maneira de calcular a inversa de uma matriz.


1 1 0
Exemplo 1.36. Vamos verificar se a matriz A =  0 1 1  é inversı́vel, calcu-
 

1 0 2
lando seu determinante.

Fixando a primeira linha, temos que det A = a11 · ∆11 + a12 · ∆12 + a13 · ∆13 , onde


1+1 1 1
∆11 = (−1) · = 2,
0 2


1+2 0 1
∆12 = (−1) · = 1,
1 2


1+3 0 1
∆13 = (−1) · = −1
1 0

Logo det A = 1 · 2 + 1 · 1 + 0 · (−1) = 3 6= 0, implicando em existir A−1 . Vamos


então construir a matriz adjunta a A. Já calculamos os elementos da primeira linha
da matriz de cofatores A, faltam os outros:

2+1
1 0
∆21 = (−1) · = −2,
0 2

2+2
1 0
∆22 = (−1) · = 2,
1 2

1 1
∆23 = (−1)2+3 · = −(−1) = 1

1 0

1 0
∆31 = (−1)3+1 · = 1,

1 1

1 0
∆32 = (−1)3+2 · = −1,

0 1

1 1
∆33 = (−1)3+3 · =1

0 1
46 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

Assim,
   
2 1 −1 2 −2 1
A =  −2 2 1  =⇒ adj A =  1 2 −1 
   

1 −1 1 −1 1 1
 
2 −2 1
Portanto, A−1 = 1
· 1 2 −1 .
 
3
−1 1 1

Note que, encontrar a matriz inversa utilizando determinantes envolve uma quan-
tidade razoável de cálculos. Imagine realizar este procedimento para encontrar a
inversa de uma matriz de ordem 5?
Existe outra maneira de determinar a inversa de uma matriz: utilizando as
operações elementares. Vamos ver como funciona.

1.3.2 Inversa de Matriz via Operações Elementares

Já introduzimos algumas aulas atrás as operações elementares que podem ser fei-
tas sobre uma matriz, de modo a obter uma matriz linha-equivalente a original.
Nosso objetivo agora é ver como aquelas operações podem ser úteis para encon-
trar a inversa de uma matriz inversı́vel. Consideremos uma matriz de ordem 3,
a11 a12 a13
A =  a21 a22 a23 .
 

a31 a32 a33

Propriedade 1.3.1. Trocar duas linhas de lugar.

Vamos trocar a primeira e a segunda linha da matriz A.


   
a11 a12 a13 a21 a22 a23
A =  a21 a22 a23  −→  a11 a12 a13 
   

a31 a32 a33 a31 a32 a33


1.3. DETERMINANTES 47

. Podemos obter a mesma matriz através da seguinte multiplicação:


     
0 1 0 a11 a12 a13 a21 a22 a23
 1 0 0  ·  a21 a22 a23  =  a11 a12 a13 
     

0 0 1 a31 a32 a33 a31 a32 a33


.

Propriedade 1.3.2. Multiplicar uma linha por uma constante.

Vamos trocar a segunda linha da matriz A por c.


   
a11 a12 a13 a11 a12 a13
A =  a21 a22 a23  −→  c · a21 c · a22 c · a23 
   

a31 a32 a33 a31 a32 a33

. Podemos obter a mesma matriz através da seguinte multiplicação:


     
1 0 0 a11 a12 a13 a11 a12 a13
 0 c 0  ·  a21 a22 a23  =  c · a21 c · a22 c · a23 
     

0 0 1 a31 a32 a33 a31 a32 a33


.

Propriedade 1.3.3. Somar uma linha com o múltiplo de outra linha.

Vamos agora somar a terceira linha de A com c vezes a segunda linha de A:


   
a11 a12 a13 a11 a12 a13
A =  a21 a22 a23  −→  a21 a22 a23 .
   

a31 a32 a33 a31 + c · a21 a32 + c · a22 a33 + c · a23


48 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

Podemos obter o mesmo resultado com a seguinte multiplicação


   
1 0 0 a11 a12 a13
 0 1 0  ·  a21 a22 a23  =
   

0 c 1 a31 a32 a33


 
a11 a12 a13
= a21 a22 a23
 

a31 + c · a21 a32 + c · a22 a33 + c · a23

Assim, para passar efetuar uma operação elementar em A, basta efetuarmos a


operação elementar sobre a matriz identidade e multiplicar esta nova matriz, que
chamaremos de matriz elementar por A.

Definição 11. Uma matriz elementar é uma matriz obtida a partir da matriz iden-
tidade através da aplicação de uma operação elementar em suas linhas.

Assim, aplicar uma operação elementar em A é o mesmo que multiplicar a matriz


equivalente E correspondente a esta operação a A. Por outro lado, é possı́vel mostrar
que toda matriz elementar E1 é inversı́vel, e sua inversa é outra matriz
elementar E2 cuja operação elementar é a inversa da operação efetuada
em E1 .
De fato:
Seja E1 uma matriz elementar de ordem n. Temos então três possilidades para
E1 :

• E1 foi obtida através da troca entre duas linhas de In .

Neste caso, estamos apenas trocando duas linhas da matriz identidade de


lugar e, portanto, det(E1 ) = −det(In ) = −1, implicando em E1 ser inversı́vel.
Agora, queremos encontrar a inversa de E1 , E1−1 , tal que E1−1 ·E1 = In . Agora,
se obtivemos E1 trocando duas linhas de lugar, basta que E1−1 = E2 , onde E2
destroca as linhas, ou seja, troca as mesmas linhas que E1 trocou. Neste caso,
E1−1 · E1 = In .

• E1 foi obtida multiplicando-se uma linha i de In por uma constante c não nula.
1.3. DETERMINANTES 49

Pelas propriedades de determinante, det(E1 ) = c · det(In ) = c 6= 0, implicando


mais uma vez em E1 ser inversı́vel. Agora, queremos encontrar a inversa de
E1 , E1−1 , tal que E1−1 · E1 = In . Consideremos então E2 como sendo a matriz
elementar obtida dividindo-se cada elemento da linha i por c. Neste caso,
E2 · E1 = In e, portanto, E2 = E1−1 .

• E1 foi obtida somando-se à linha i da matriz identidade c vezes a linha j.


Pelas propriedades de determinante, detE1 = detIn = 1 = 6 0 (uma linha
somada a outra multiplicada por uma constante não altera o determinante),
implicando em E1 ser inversı́vel.
Para facilitar o entendimento, suponhamos que E1 seja uma matriz de ordem
4 cuja terceira linha foi construı́da somando-se à terceira c vezes a segunda
linha.
 
1 0 0 0
 
 0 1 0 0 
 
 0 c 1 0 
 
0 0 0 1

e consideremos a matriz elementar E2 obtida somando-se à terceira linha a


segunda vezes (−c). Então
   
1 0 0 0 1 0 0 0
   
 0 1 0 0   0 1 0 0 
E1 · E2 =  · 

 0 c 1 0  
  0 −c 1 0 

0 0 0 1 0 0 0 1
 
1 0 0 0
 
 0 1 0 0 
=  

 0 c−c 1 0 

0 0 0 1
= I4 .

Como a inversa é única, segue que E2 é a inversa de E1 .


Agora, se A é uma matriz inversı́vel de ordem n, det A 6= 0. Podemos então
50 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

encontrar matrizes elementares E1 , E2 , ..., Em tais que (E1 · E2 · ... · Em ) · A = In .


Assim,

(E1 · E2 · ... · Em ) · A = In
E1−1 · (E1 · E2 · ... · Em ) · A = E1−1 · In
E2−1 · (In · E2 · ... · Em ) · A = E2−1 · E1−1 · In
..
.
−1
A = Em · ...E2−1 · E1−1 · In

Agora, se A = E · In , pelas propriedades da multiplicação de matrizes, A−1 =


−1
(E · In )−1 = In−1 · E −1 , onde E −1 = Em
−1
· ...E2−1 · E1−1 = E1 · E2 · ... · Em , e
−1
In = In . Logo

A−1 = In−1 · E −1
A−1 = In · E −1
A−1 = E −1 · In
A−1 = (E1 · E2 · ... · Em ) · In

Temos então uma maneira de obter a inversa de uma matriz inversı́vel A através de
operações elementares: as mesmas operações que transformam A em In transformam
In em A−1 .



1 1 0
Exemplo 1.37. Considere a matriz A =  0 1 1 . Já sabemos que esta matriz
 

1 0 2
1.3. DETERMINANTES 51

é inversı́vel, pois det A = 3. Vamos encontrar sua inversa da seguinte forma:


 
1 1 0 | 1 0 0
A= 0 1 1 | 0 1 0 
 

1 0 2 | 0 0 1
 
1 1 0 | 1 0 0
−→L3 ←L3 −L1  0 1 1 | 0 1 0 
 

0 −1 2 | −1 0 1
 
1 1 0 | 1 0 0
−→L3 ←L3 +L2  0 1 1 | 0 1 0 
 

0 0 3 | −1 1 1
 
1 1 0 | 1 0 0
−→L3 ←(1/3)·L3  0 1 1 | 0 1 0 
 

0 0 1 | −1/3 1/3 1/3


 
1 1 0 | 1 0 0
−→L2 ←L2 −L3  0 1 0 | 1/3 2/3 −1/3 
 

0 0 1 | −1/3 1/3 1/3


 
1 0 0 | 2/3 −2/3 1/3
−→L1 ←L1 −L2  0 1 0 | 1/3 2/3 −1/3 
 

0 0 1 | −1/3 1/3 1/3

 
2 −2 1
Assim, A−1 = 1
· 1 2 −1 .
 
3
−1 1 1



1 2 1
Exemplo 1.38. Considere a matriz A =  0 1 2 . Esta matriz é inversı́vel,
 

1 1 1
52 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

pois det A = 2. Vamos encontrar sua inversa.


 
1 2 1 | 1 0 0
A =  0 1 2 | 0 1 0 
 

1 1 1 | 0 0 1
 
1 2 1 | 1 0 0
−→L3 ←L3 −L1  0 1 2 | 0 1 0 
 

0 −1 0 | −1 0 1
 
1 2 1 | 1 0 0
−→L3 ←L3 +L2  0 1 2 | 0 1 0 
 

0 0 2 | −1 1 1
 
1 2 1 | 1 0 0
−→L2 ←L2 −L3  0 1 0 | 1 0 −1 
 

0 0 2 | −1 1 1
 
1 2 1 | 1 0 0
−→L3 ←(1/2)·L3  0 1 0 | 1 0 −1 
 

0 0 1 | −1/2 1/2 1/2


 
1 0 1 | −1 0 2
−→L1 ←L1 −2·L2  0 1 0 | 1 0 −1 
 

0 0 1 | −1/2 1/2 1/2


 
1 0 0 | −1/2 −1/2 3/2
−→L1 ←L1 −L3  0 1 0 | 1 0 −1 
 

0 0 1 | −1/2 1/2 1/2


 
−1 −1 3
Assim, A−1 = 1
· 2 0 −2 .
 
2
−1 1 1

Para finalizar o estudo de matrizes e sistemas lineares, vamos aprender outra


maneira de resolver sistemas, conhecida como Regra de Cramer.
1.3. DETERMINANTES 53

1.3.3 Resolução de Sistemas Lineares via Regra de Cramer

A regra de Cramer só se aplica a sistemas A · X = B que possuem o mesmo número


de linhas e incógnitas, ou seja, sistemas cuja matriz de coeficientes A é quadrada de
ordem n. Suponhamos então que
     
a11 a12 ... a1n x1 b1
a21 a22 ... a2n   x2   b2 
     

A= .. .. ..  , X =  ..  e B =  .. 
   
.
. . .   .   . 


an1 an2 ... ann xn bn

Se det A 6= 0, existe A−1 e, neste caso,

A−1 · (A · X) = A−1 · B
A−1 · A · X = A−1 · B


In · X = A−1 · B
X = A−1 · B.

Assim, se conhecemos a inversa da matriz de coeficientes A, podemos encontrar a


resposta do sistema com uma simples multiplicação de matrizes.

Exemplo 1.39. Consideremos o seguinte sistema linear:



 x + 2y + z = 1

y + 2z = −4

x+y+z =2

Podemos reescrever este sistema como A · X = B, onde


     
1 2 1 x 1
A =  0 1 2  , X =  y  e B =  −4  .
     

1 1 1 z 2
54 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES
 
−1 −1 3
Como já conhecemos a matriz inversa de A, A−1 = 12 ·  2 0 −2 , podemos
 

−1 1 1
utilizá-la para calcular o sistema:

X = A−1 · B
     
x −1 −1 3 1
−1 1 
 y  = A = · 2 0 −2  ·  −4 
    
2
z −1 1 1 2
 
9
1 
= ·  −2 

2
−3

Por outro lado, vimos na última aula que A−1 = 1


det A
· adj A. Assim, se substi-
tuirmos esta identidade em X = A−1 · B, teremos

1
X = · adj A · B
  det A    
x1 ∆11 ∆21 ... ∆n1 b1
x2  ∆12 ∆22 ... ∆n2   b2 
     
  1
 ..  = · .
 .. ..  ·  .. 
 

 .

 det A  . . . .   . 

xn ∆1n ∆2n ... ∆nn bn


 
  ∆11 · b1 + ∆21 · b2 + ... + ∆n1 · bn
x1  
   ∆12 · b1 + ∆22 · b2 + ... + ∆n2 · bn 
 x2  
 ..



..
 1  . 
.  = ·
  
det A 

 ∆1i · b1 + ∆2i · b2 + ... + ∆ni · bn
  
xi

..
   
.
 
..  
.xn  
∆1n · b1 + ∆2n · b2 + ... + ∆nn · bn

Vamos agora analisar o numerador da igualdade obtida para x1 . Se compararmos o


que temos com o desenvolvimento de Laplace cuja primeira coluna é fixada, temos
1.3. DETERMINANTES 55

que este denominador corresponde, na verdade ao seguinte determinante:




b1 a12 ... a1n
b2 a22 ... a2n


∆11 · b1 + ∆21 · b2 + ... + ∆n1 · bn = .. .. ..
. . .

bn an2 ... ann

O mesmo argumento pode ser usado para mostrar que




a11 ... a1(i−1) b1 a1(i+1) ... a1n
a12 ... a2(i−1) b2 a2(i+1) ... a2n


∆1i · b1 + ∆2i · b2 + ... + ∆ni · bn = .. .. .. ..
. . . .

a1n ... an(i−1) bn an(i+1) ... ann

Logo, para cada i = 1, 2, ..., n,




a11 ... b1 ... a1n

a12 ... b2 ... a2n


.. .. ..
. . .



a1n ... bn ... ann
xi =
a

11 ... a1n
. ..
.. .


a1n ... ann

Este método de resolução é conhecido como Regra de Cramer.

Exemplo 1.40. Consideremos o seguinte sistema linear:



 x + 2y + z = 1

y + 2z = −4

x+y+z =2

56 CAPÍTULO 1. MATRIZES E SISTEMAS LINEARES

Podemos reescrever este sistema como A · X = B, onde


     
1 2 1 x 1
A =  0 1 2  , X =  y  e B =  −4  .
     

1 1 1 z 2

Calculando o determinante de A, verificamos que det A = 2. Logo, estamos em


condições de utilizar a Regra de Cramer. Assim,

1 2 1

−4 1 2


2 1 1 9
x = =
det A 2
1 1 1

0 −4 2



1 2 1 −2
y = = = −1
det A 2
1 2 1

0 1 −4



1 1 2 3
y = =−
det A 2
Capı́tulo 2

Espaços Vetoriais

Consideremos o conjunto R2 = {(x, y) : x ∈ R, y ∈ R}. Sabemos que cada elemento


deste conjunto pode ser visto como um ponto no plano cartesiano de coordena-
das (x, y), ou como um vetor ~u = (x, y) com duas componentes, pertencente a
V2 . A mesma ideia pode ser utilizada para interpretar os elementos do conjunto
R3 = {(x, y, z) : x ∈ R, y ∈ R, z ∈ R}. Estudamos esta segunda interpretação
em Geometria Analı́tica, e lá aprendemos que é possı́vel realizar certas contas com
estes vetores, como somá-los e multiplicá-los por um escalar qualquer, e vimos as
interpretações geométricas de cada uma destas operações.
Vamos agora pensar nos conjuntos R4 , R5 , ...Rn , onde n é um inteiro positivo
qualquer e os conjuntos de vetores V4 , V5 , ..., Vn . Embora não possamos representá-
los geometricamente, os elementos destes conjuntos também podem ser pensados
como vetores e é possivel definir sobre eles operações de maneira análoga a que foi
feita em V2 e V3 . De fato, se considerarmos ~u = (x1 , x2 , ..., xn ) e ~v = (y1 , y2 , ..., yn )
vetores em Vn , temos que:

• ~u = ~v ⇔ xi = yi , para todo i = 1, 2..., n

• ~u + ~v = (x1 , x2 , ..., xn ) + (y1 , y2 , ..., yn ) = (x1 + y1 , x2 + y2 , ..., xn + yn )

• λ · ~u = λ · (x1 , x2 , ..., xn ) = (λ · x1 , λ · x2 , ..., λ · xn ), para todo λ ∈ R.

é importante comentar que é comum representar um vetor u como uma matriz coluna

57
58 CAPÍTULO 2. ESPAÇOS VETORIAIS

(n × 1):  
x1
x2
 
 
~u = (x1 , x2 , ..., xn ) ⇔ ~u =  .. 
.
 
 
xn
e que as operações que definimos acima, neste caso, ficariam da seguinte forma:
     
x1 y1 x1 + y 1
 x2   y 2   x2 + y 2 
     
• ~u + ~v =  .  +  .  = 
     .. 
.
 .   .   . .


xn yn xn + y n
   
x1 λ · x1
x2 λ · x2
   
   
• λ · ~u = λ ·  .. = .. , para todo λ ∈ R.
. .
   
   
xn λ · xn

Considerando agora o conjunto de matrizes m×n, Mm×n , já definimos operações


semelhantes às anteriores para este conjunto e veremos que ambas satisfazem as
mesmas propriedades:

1. ~u + ~v = ~v + ~u, para todo ~u, ~v ∈ Vn

A + B = B + A, para todo A, B ∈ Mm×n

2. (~u + ~v ) + w
~ = ~v + (~u + w), ~ ∈ Vn
~ para todo ~u, ~v , w

(A + B) + C = A + (B + C), para todo A, B, C ∈ Mm×n

3. Existe um único elemento ~0 = (0, 0, ...0) tal que ~u + ~0 = ~u, para todo u ∈ Vn

Existe um único elemento 0 = 0m×n tal que A + 0 = A, para toda A ∈ Mm×n

4. Para cada ~u ∈ Vn , existe −~u ∈ Vn tal que ~u + (−~u) = ~0

Para cadaA ∈ Mm×n , existe −A ∈ Mm×n (R) tal que A + (−A) = 0


59

5. Dados α, β ∈ R, (α · β) · ~u = α · (β · ~u) , para todo ~u ∈ Vn


α, β ∈ R, (α · β) · A = α · (β · A), para todo A ∈ Mm×n

6. (α + β) · ~u = α · ~u + β · ~u , para todo ~u ∈ Vn
(α + β) · A = α · A + β · A, para todo A ∈ Mm×n

7. α · (~u + ~v ) = α · ~u + α · ~v , para todos ~u, ~v ∈ Vn


α · (A + B) = α · A + α · B, para todas A, B ∈ Mm×n

8. 1 · ~u = ~u , para todo ~u ∈ Vn
1 · A = A, para toda A ∈ Mm×n

Observe que Vn e Mm×n , munidos destas duas operações, se comportam da


mesma maneira, ou seja, apresentam mesma estrutura. Esse fato também pode
ser observado em muitos outros conjuntos: o conjunto dos polinómios de grau n, os
números complexos, o conjunto das funções contı́nuas, entre outros.

Assim, diferentes conjuntos podem possuir a mesma estrutura algébrica em


relação às operações de adição e multiplicação por escalar, e nosso objetivo de agora
em diante será estudar justamente a estrutura desses conjuntos.

Definição 12. Seja V um conjunto não vazio sobre o qual estão definidas duas
operações

+ : V × V −→ V · : R × V −→ V
(u, v) 7→ u + v (α, v) 7→ α · v

chamadas de adição e multiplicação por escalar respectivamente. O conjunto V será


chamado de espaço vetorial sobre R se os seguintes axiomas forem válidos:

A1: u + (v + w) = (u + v) + w, para todos u, v, w ∈ V

A2: u + v = v + u. para todos u, v ∈ V


60 CAPÍTULO 2. ESPAÇOS VETORIAIS

A3: Existe 0V ∈ V tal que 0V + u = u, para todo u ∈ V

A4: Para cada u ∈ V , existe −u ∈ V tal que u + (−u) = 0V

M1: (α · β) · u = α · (β · u), para todos α, β ∈ R, u ∈ V

M2: (α + β) · u = α · u + β · u, para todos α, β ∈ R, u ∈ V

M3: α · (u + v) = α · u + α · v, para todos α ∈ R, u, v ∈ V

M4: 1 · u = u, para todo u ∈ V .

Se V é um espaço vetorial, chamamos seus elementos de vetores, independente-


mente da natureza de V . Sendo assim, um polinómio, uma matriz ou uma função
pode ser chamada de vetor se for mostrado que o conjunto ao qual ela pertence é
um espaço vetorial.

A definição anterior pode ser expandida para espaços vetoriais sobre C: basta
considerar este o conjunto dos escalares presente na definição no lugar do conjunto
dos números reais. No nosso curso, trabalharemos apenas com espaços vetoriais
reais.

Exemplo 2.1. O conjunto V = R munido da adição e multiplicação usuais é um


espaço vetorial. De fato, sabemos que a adição de dois números reais é tal que valem
a associatividade (A1), comutatividade (A2), que 0 + x = x para todo x real (A3), e
que, para cada x real, x + (−x) = 0 (A4). Além disso, a multiplicação é associativa
(M1), distributiva (M2 e M3) e que 1 · x = x para todo x real (M4).

Exemplo 2.2. O conjunto V = R2 munido da adição e multiplicação por real usuais


é um espaço vetorial. De fato, vamos verificar os oito axiomas presentes na definição.

A1: u + (v + w) = (u + v) + w, para todos u, v, w ∈ V


61

Sejam u, v, w ∈ V tais que u = (x1 , y1 ), v = (x2 , y2 ), w = (x3 , y3 ). Então

u + (v + w) = (x1 , y1 ) + [(x2 , y2 ) + (x3 , y3 )]


= (x1 , y1 ) + [(x2 + x3 , y2 + y3 )]
= (x1 + (x2 + x3 ), y1 + (y2 + y3 ))
= ((x1 + x2 ) + x3 ), (y1 + y2 ) + y3 )
= (x1 + x2 , y1 + y2 ) + (x3 , y3 )
= [(x1 , y1 ) + (x2 , y2 )] + (x3 , y3 )
= (u + v) + w

A2: u + v = v + u u, v ∈ V Sejam u, v ∈ V tais que u = (x1 , y1 ), v = (x2 , y2 ). Então

u + v = (x1 , y1 ) + (x2 , y2 )
= (x1 + x2 , y1 + y2 )
= (x2 + x1 , y2 + y1 )
= (x2 , y2 ) + (x1 , y1 )
= v+u

A3: Existe 0V ∈ V tal que 0V + u = u, para todo u ∈ V .

Candidato: 0V = (0, 0). Sejam u ∈ V tal que u = (x, y). De fato,

0V + u = (0, 0) + (x, y)
= (0 + x, 0 + y)
= (x, y)
= u

A4: Para cada u ∈ V , existe −u ∈ V tal que u + (−u) = 0V


62 CAPÍTULO 2. ESPAÇOS VETORIAIS

Dado u ∈ V , com u = (x, y), o candidato a −u é (−x, −y). De fato,

u + (−u) = (x, y) + (−x, −y)


= (x + (−x), y + (−y))
= (0, 0)
= 0V

M1: (α · β) · u = α · (β · u), para todos α, β ∈ R, u ∈ V

Sejam α, β ∈ R e u ∈ V , tal que u = (x, y). Então

(α · β) · u = (α · β) · (x, y)
= ((α · β) · x, (α · β) · y)
= (α · (β · x), α · (β · y))
= α · (β · x, β · y)
= α · (β · (x, y))
= α · (β · u)

M2: (α + β) · u = α · u + β · u, para todos α, β ∈ R, u ∈ V

Sejam α, β ∈ R e u ∈ V , tal que u = (x, y). Então

(α + β) · u = (α + β) · (x, y)
= ((α + β) · x, (α + β) · y)
= (α · x + β · x, α · y + β · y)
= (α · x, α · y) + (β · x, β · y)
= α · (x, y) + β · (x, y)
= α·u+β·v

M3: α · (u + v) = α · u + α · v, para todos α ∈ R, u, v ∈ V


63

Sejam α ∈ R e u, v ∈ V tais que u = (x1 , y1 ), u = (x2 , y2 ). Então

α · (u + v) = α · ((x1 , y1 ) + (x2 , y2 ))
= α · (x1 + x2 , y1 + y2 )
= (α · (x1 + x2 ), α · (y1 + y2 ))
= (α · x1 + α · x2 , α · y1 + α · y2 )
= (α · x1 , α · y1 ) + (α · x2 , α · y2 )
= α · (x1 , y1 ) + α · (x2 , y2 )
= α·u+α·v

M4: 1 · u = u, para todo u ∈ V .


Seja u ∈ V , tal que u = (x, y). Então

1 · u = 1 · (x, y)
= (1 · x, 1 · y)
= (x, y)
= u

Como os oito axiomas foram verificados, segue que o conjunto V = R2 é,


realmente, um espaço vetorial.

Exemplo 2.3. De modo análogo, mostramos que Rn é espaço vetorial, para todo
n ∈ Z+ .

Exemplo 2.4. O conjunto de vetores Vn , onde n ∈ Z+ , munido da adição e multi-


plicação por escalar usuais é um espaço vetorial.

Exemplo 2.5. O conjunto das matrizes n × m, Mm×n (R) munido da adição e


multiplicação por escalar usuais é um espaço vetorial.

Exemplo 2.6. O conjunto dos polinómios de grau n com coeficientes reais, Pn (R)
tem definido sobre ele a adição de polinómios e a multiplicação por escalar. De fato,
dados dois polinómios p(x), q(x) ∈ Pn (R), existem a0 , a1 , .., an e b0 , b1 , ..., bn reais
64 CAPÍTULO 2. ESPAÇOS VETORIAIS

tais que
p(x) = a0 + a1 x + a2 x2 + ... + an xn

q(x) = b0 + b1 x + b2 x2 + ... + bn xn .

Definimos então

p(x) + q(x) = (a0 + a1 x + a2 x2 + ... + an xn ) + (b0 + b1 x + b2 x2 + ... + bn xn )


= (a0 + b0 ) + (a1 + b1 )x + (a2 + b2 )x2 + ... + (an + bn )xn

α · p(x) = α · (a0 + a1 x + a2 x2 + ... + an xn )


= (αa0 ) + (αa1 )x + (αa2 )x2 + ... + (αan )xn

qualquer que seja α ∈ R. Este conjunto munido dessas operações, é um espaço


vetorial.

Exemplo 2.7. O conjunto das funções reais contı́nuas, C(R) tem definido sobre ele
a adição de funções e a multiplicação por escalar:

(f + g)(x) = f (x) + g(x), para todo x ∈ R


(α · f )(x) = α · f (x), para todo x ∈ R

para todos f, g ∈ C(R) e α ∈ R. Este conjunto munido dessas operações, é um


espaço vetorial.

Nos exemplos anteriores, vimos espaços vetoriais munidos de adição e multi-


plicação por escalar usuais. Entretanto, é possı́vel definir diferentes operações sobre
um determinado conjunto, chamá-las de adição e multiplicação por escalar respec-
tivamente, e mostrar que este conjunto munido destas novas operações não usuais é
um espaço vetorial. Observe:

Exemplo 2.8. Consideremos o conjunto V = {(x, y) ∈ R2 |y = x2 }, que pode ser


denotado também por V = {(x, x2 )|x ∈ R}. Dados quaisquer que (x, x2 ), (y, y 2 ) ∈ V
e α ∈ R, vamos definir sobre este conjunto as seguintes operações:

(x, x2 ) ⊕ (y, y 2 ) := x + y, (x + y)2 ∈ V



65

α (x, x2 ) := α · x, (α · x)2 ∈ V.


O conjunto V munidos destas operações é um espaço vetorial. (Mostre!)

Vamos agora ver um contra-exemplo, isto é, um conjunto que, munido de certas
operações, não é um espaço vetorial.

Exemplo 2.9. O conjunto R2 munido da adição usual e da seguinte multiplicação


por escalar:
α (x, y) := (α · x, y) .

não é um espaço vetorial. Embora os quatro axiomas para adição sejam válidos (já
mostramos isso), precisamos verificar os axiomas da multiplicação por escalar.

M1: (α · β) · u = α · (β · u), para todos α, β ∈ R, u ∈ V

Sejam α, β ∈ R e u ∈ V , tal que u = (x, y). Então

(α · β) · u = (α · β) · (x, y)
= ((α · β) · x, y)
= (α · (β · x), y))
= α · (β · x, y)
= α · (β · (x, y))
= α · (β · u)

O primeiro axioma se verifica. Vamos testar o segundo:

M2: (α + β) · u = α · u + β · u, para todos α, β ∈ R, u ∈ V

Sejam α, β ∈ R e u ∈ V , tal que u = (x, y). Então

(α + β) · u = (α + β) · (x, y)
= ((α + β) · x, y)
66 CAPÍTULO 2. ESPAÇOS VETORIAIS

Por outro lado,

α · u + β · u = α · (x, y) + β · (x, y)
= (α · x, y) + (β · x, y)
= (α · x + β · x, y + y)
= (α · x + β · x, 2y)
= ((α + β) · x, 2y)
6= (α + β) · u.

Para confirmar, consideremos o exemplo numérico (x, y) = (0, 3) ∈ R2 . Assim:

(α + β) · (0, 3) = (0, 3),

mas
α · (0, 3) + β · (0, 3) = (0, 6).

Logo R2 , munido destas operações, não é um espaço vetorial, pois não atende
ao axioma que afirma ∀α, β ∈ , u ∈⇒ (α + β) u = αu + βu.

Propriedades do Espaço Vetorial

Vamos ver algumas propriedades do espaço vetorial V .

Propriedade 2.0.1. Existe um único 0V ∈ V tal que u + 0V = u, para todo u ∈ V .


(Unicidade do elemento neutro).

Demonstração. Suponhamos, por absurdo, que exista v ∈ V , v 6= 0V , tal que u+v =


u, para todo u ∈ V . Como V é espaço vetorial, existe −u ∈ V tal que u+(−u) = 0V .
Logo

−u + (u + v) = −u + u
(−u + u) + v = 0V
0V + v = 0V
v = 0V
67

o que é uma contradição. Portanto, o elemento neutro é único.

Propriedade 2.0.2. Para cada u ∈ V , existe um único (−u) ∈ V tal que u+(−u) =
0. (Unicidade do elemento oposto, ou simétrico).

Demonstração. Dado u ∈ V , suponhamos, por absurdo, que exista v ∈ V , v 6= −u,


tal que u + v = 0V . Então

−u + (u + v) = −u + 0V
(−u + u) + v = u
0V + v = u
v = u

o que é uma contradição. Portanto, o elemento simétrico a u é único.

Propriedade 2.0.3. Dados u, v, w ∈ V , se u + v = u + w, então v = w.

Demonstração. Sejam u, v, w ∈ V , com u + v = u + w. Como V é espaço vetorial,


existe −u ∈ V . Logo

−u + (u + v) = −u + (u + w)
(−u + u) + v = (−u + u) + w
0V + v = 0V + w
v = w

Propriedade 2.0.4. Dado v ∈ V , temos que v = −(−v).

Demonstração. Seja v ∈ V . Como V é um espaço vetorial, −v ∈ V . Então, existe


−(−v) ∈ V tal que −v + (−(−v)) = 0V .
Mas −v + (−(−v)) = 0V = −v + v. Logo, pela propriedade anterior, v =
−(−v).

Propriedade 2.0.5. Dados u, v ∈ V , existe um único x ∈ V tal que u + x = v.


Neste caso, denotamos x = v − u.
68 CAPÍTULO 2. ESPAÇOS VETORIAIS

Demonstração. Dados u, v ∈ V ,

u + v + (−u) = u + (−u) + v = 0V + v = v

. Então, tomando x = v + (−u) = −u + v, u + x = v.


Vamos agora mostrar que este x é único. Seja y ∈ V , y 6= x, tal que u + y = v.
Então

−u + (u + y) = −u + v
(−u + u) + y = −u + v
0V + y = x
y = x,

o que é uma contradição. Portanto, x realmente é único.

Propriedade 2.0.6. Dado qualquer v ∈ V , 0 · v = 0V .

Demonstração. Dado v ∈ V , suponhamos que 0 · v = w. Então

w = 0 · v = (0 + 0) · v = 0 · v + 0 · v = w + w.

Consideremos agora −w ∈ V . Então

−w + w = −w + w + w
0V = 0V + w
0V = w

Segue que 0 · v = w = 0V , como querı́amos demonstrar.

Propriedade 2.0.7. Para qualquer α ∈ R, α · 0V = 0V .

Demonstração. Dado α ∈ R, suponhamos que α · 0V = w. Então

w = α · 0V = α · (0V + 0V ) = α · 0V + α · 0V = w + w.
69

Consideremos agora −w ∈ V . Então

−w + w = −w + w + w
0V = 0V + w
0V = w

Segue que α · 0V = w = 0V , como querı́amos demonstrar.

Propriedade 2.0.8. Se α · v = 0V , então α = 0 ou v = 0V .

Demonstração. Suponhamos que α · v = 0V e que α 6= 0 (se for zero, já sabemos


que vale). Então existe α−1 ∈ R tal que α · α−1 = 1. Então

α−1 · (α · v) = α−1 · 0V
(α−1 · α) · v = 0V
1 · v = 0V
v = 0V .

Propriedade 2.0.9. (−1) · v = −v, para todo v ∈ V .

Demonstração. Seja v ∈ V . Então existe −v ∈ V tam que −v + v = 0V . Por outro


lado,
(−1) · v + v = (−1) · v + 1 · v = (−1 + 1) · v = 0 · v = 0.

Como o elemento oposto é único, (−1) · v = −v, como querı́amos demonstrar.

Propriedade 2.0.10. Quaisquer que seja α ∈ R e v ∈ V , (−α)v = α(−v) = −(αv).

Demonstração. Dados α ∈ R e v ∈ V , αv ∈ V e existe um único −(αv) ∈ V tal que


αv + (−(αv)) = 0V . Por outro lado,

(−α)v + αv = (−α + α)v = 0 · v = 0V

α(−v) + αv = α(−v + v) = α · 0V = 0V

Portanto, (−α)v = −(αv) = α(−v), c.q.d.


70 CAPÍTULO 2. ESPAÇOS VETORIAIS

2.1 Subespaços Vetoriais


Seja V um conjunto sobre o qual temos definidas uma operação de adição e uma
multiplicação por escalar. Se considerarmos um subcojunto de V , digamos, U , não
podemos garantir que a adição de dois elementos U pertença a U , o mesmo valendo
para a multiplicação por escalar.

Exemplo 2.10. Considere o conjunto dos números reais munido da adição e mul-
tiplicação usuais e o conjunto dos números inteiros. Claramente, se considerarmos
dois números inteiros x e y, x + y será um número inteiro, mas se multiplicarmos
√ √
um número inteiro x por um escalar real qualquer, digamos 2, 2x não será um
número inteiro.

Por outro lado, se pudermos garantir isto, dizemos que o subconjunto é fechado
para estas operações, e todas as outras propriedades que por ventura estas operações
tiverem, serão válidas para U também. Este fato nos garante que, se V for um espaço
vetorial, qualquer subconjunto seu U fechado para a adição e para a multiplicação
por escalar será ele próprio um espaço vetorial, que chamaremos de subespaço veto-
rial.

Definição 13. Seja V um espaço vetorial. Diremos que um subconjunto U de V é


um subespaço vetorial de V se valerem as seguintes condições:
I - Dados u, v ∈ U , u + v ∈ U
II- Dados u ∈ U e α ∈ R, α · u ∈ U .

As propriedades que vimos antes garantem que a validade de I e II implicam em


o elemento neutro pertencer a U , pois 0 · u = 0v , para todo u ∈ U , uma vez que
todo elemento de U é também elemento de V . Além disso, o fato de −1 · u = −u,
implicam em −u ∈ U , para todo u ∈ U . As demais propriedades saem do simples
fato de U ser um subconjunto de V : o que vale para V , vale para parte de V , no
caso, U .

Proposição 2.1.1. Todo espaço vetorial V possui pelo menos dois subespaços ve-
toriais: o supespaço nulo U = {0} , e o próprio espaço vetorial U = V , chamados
de subespaços triviais.

Os demais subespaços de V são chamados de subespaços próprios de V .


2.1. SUBESPAÇOS VETORIAIS 71

Exemplo 2.11. Vimos que V = R2 munido da adição e multiplicação por escalar


usuais é um espaço vetorial. Vamos verificar então se os seguintes subconjuntos são
subespaços vetoriais de V .

i. U = {(x, 4x) : x ∈ R}

I - Sejam u, v ∈ U tais que u = (x, 4x) e v = (y, 4y) para algum x, y ∈ R.


Então u + v = (x, 4x) + (y, 4y) = (x + y, 4x + 4y) = (x + y, 4(x + y)) ∈ U .

II - Sejam α ∈ R e u ∈ U2 tal que u = (x, 4x) para algum x ∈ R. Então


α · u = α · (x, 4x) = (αx, α(4x)) = (αx, 4(αx)) ∈ U .

Logo U é subespaço vetorial de V .

Note que este conjunto U é representado geometricamente por uma reta no


plano cartesiano que passa pela origem. Se somarmos dois vetores quaisquer
pertencentes a reta, esse novo vetor continuará pertencendo a reta, assim como
o múltiplo de qualquer vetor da reta continuará na reta. Logo, o conjunto
de vetores pertencentes a uma reta que passa pela origem sempre será um
subespaço vetorial de R2 .

ii. W = {(x, 2x + 1) : x ∈ R}

W não é subespaço vetorial de V . De fato, (0, 1) ∈ U2 , (1, 3) ∈ U2 , mas a


soma destes dois (0, 1) + (1, 3) = (1, 4) ∈
/ W.

Observe que W pode ser representado geometricamente como uma reta que
não passa pela origem.

Exemplo 2.12. Consideremos agora V = R3 munido das operações usuais e o


conjunto
U = {(x, y, z) ∈ R3 : ax + by + cz = 0}

.
Dados u = (x1 , y1 , z1 ) e v = (x2 , y2 , z2 ) dois elementos quaisquer de V ,

ax1 + by1 + cz1 = 0

ax2 + by2 + cz2 = 0


72 CAPÍTULO 2. ESPAÇOS VETORIAIS

I - Somando os dois vetores u+v = (x1 , y1 , z1 )+(x2 , y2 , z2 ) = (x1 +x2 , y1 +y2 , z1 +z2 ),
temos que

a(x1 + x2 ) + b(y1 + y2 ) + c(z1 + z2 ) = ax1 + ax2 + by1 + by2 + cz1 + cz2


= (ax1 + by1 + cz1 ) + (ax2 + by2 + cz2 )
= 0+0=0

Logo u + v ∈ U .
II - Tomando agora α ∈ R, αu = α(x1 , y1 , z1 ) = (αx1 , αy1 , αz1 ) e

a(αx1 ) + b(αy1 ) + c(αz1 ) = αax1 + αby1 + αcz1


= α(ax1 + by1 + cz1 )
= α0 = 0

Logo αu ∈ U .
Como I e II são satisfeitas, segue que U é um subespaço vetorial de V .
Note que U é representado geometricamente por um plano que passa pela origem
em R3 .

Exemplo 2.13. Considere o espaço vetorial V = M2×2 (R) das matrizes 3×2 munido
das operações usuais. Os seguintes subconjuntos de V são subespaços vetoriais:
( " # )
a b
i. U = M2×2 (R) = A = : a, b, c, d ∈ R .
c d
(imediato)
( " # )
a b
ii. W = A= : a, b, d ∈ R o conjunto das matrizes triangulares su-
0 d
periores de ordem 2.

(imediato)

iii. Dada uma matriz B ∈ M2×2 (R), seja U = {A ∈ M2×2 (R) : A · B = 0}.

Sejam A1 e A2 matrizes pertencentes a U , e α ∈ R. Então A1 · B = 0 e


A2 · B = 0.
2.1. SUBESPAÇOS VETORIAIS 73

I - Somando as duas matrizes,

(A1 + A2 ) · B = A1 · B + A2 · B = 0 + 0 = 0.

Logo A1 + A2 ∈ U .

II - Multiplicando A1 por α,

(αA1 ) · B = α(A1 · B) = α · 0 = 0.

Logo αA1 ∈ U .

Exemplo 2.14. Considere o seguinte sistema homogêneo:



 2x + 4y + z = 0

x + y + 2z = 0

2x + 3y − z = 0

Se considerarmos a notação matricial deste sistema A · X = B, veremos que det A =


0, o que implica
 emexistireminfinitas
 soluções. Consideremos duas soluções deste
x1 x2
sistema X1 =  y1  e X2 =  y2  forem soluções deste sistema. Então
   

z1 z2
 
 2x1 + 4y1 + z1 = 0
  2x2 + 4y2 + z2 = 0

x1 + y1 + 2z1 = 0 e x2 + y2 + 2z2 = 0
 
2x1 + 3y1 − z1 = 0 2x2 + 3y2 − z2 = 0
 
74 CAPÍTULO 2. ESPAÇOS VETORIAIS

Observe que

2(x1 + x2 ) + 4(y1 + y2 ) + (z1 + z2 ) = 2x1 + 2x2 + 4y1 + 4y2 + z1 + z2


= (2x1 + 4y1 + z1 ) + (2x2 + 4y2 + z2 )
= 0+0=0
(x1 + x2 ) + (y1 + y2 ) + 2(z1 + z2 ) = x1 + x2 + y1 + y2 + 2z1 + 2z2
= (x1 + y1 + 2z1 ) + (x2 + y2 + 2z2 )
= 0+0=0
2(x1 + x2 ) + 3(y1 + y2 ) − (z1 + z2 ) = 2x1 + 2x2 + 3y1 + 3y2 − z1 − z2
= (2x1 + 3y1 − z1 ) + (2x2 + 3y2 − z2 )
= 0+0=0
 
x1 + x2
ou seja, X1 +X2 =  y1 + y2  também é solução do sistema. Além disso, se α ∈ R,
 

z1 + z2

2(αx1 ) + 4(αy1 ) + αz1 = α(2x1 + 4y1 + z1 )


= α0 = 0
αx1 + αy1 + 2(αz1 ) = α(x1 + y1 + 2z1 )
= α0 = 0
2(αx1 ) + 3(αy1 ) − (αz1 ) = α(2x1 + 3y1 − z1 ) + (2x2 + 3y2 − z2 )
= α0 = 0
 
αx1
ou seja, αX1 =  αy1  também é solução do sistema Portanto, acabamos de
 

αz1
mostrar que o conjunto das matrizes-solução do sistema homogêneo é um subespaço
vetorial do espaço vetorial M3×1 (R).

Na verdade não importa o tamanho do sistema homogêneo: o conjunto de


soluções S sempre será um espaço vetorial, chamado de espaço-solução do sistema
A·X = 0. Podemos afirmar então que um sistema será não-homogêneo se o conjunto-
solução S não for um supespaço vetorial.
2.1. SUBESPAÇOS VETORIAIS 75

2.1.1 Intersecção de Subespaços Vetoriais


Sejam V um espaço vetorial e U e W subespaços vetoriais de V . O conjunto U ∩ W
é o conjunto formado por todos os vetores pertencentes a U e a W :

U ∩ W = {v ∈ V : v ∈ U e v ∈ W }

Observe que este conjunto não é vazio pois, como U e W são subsespaços vetoriais,
0∈U e 0∈V.
Consideremos então dois elementos quaisquer u, v ∈ U ∩ W . Então u, v ∈ U e
u, v ∈ W . Como U e W são subespaços vetoriais, temos que
I - u + v ∈ U e u + v ∈ W , ou seja, u + v ∈ U ∩ W .

II - αu ∈ U e αu ∈ V qualquer que seja α real, ou seja, αu ∈ U ∩ W .


Acabamos de provar o seguinte teorema:
Teorema 2.1.2. Se U e W são subsespaços vetoriais de V , então U ∩ W também
é subespaço vetorial de V .
Exemplo 2.15. Consideremos os seguintes subespaços de R3 :

W1 = {(x, y, z) ∈ R3 |y = 0}

W2 = {(x, y, z) ∈ R3 |x = 0}

Então W1 ∩ W2 = {(x, y, z) ∈ R3 |x = 0 e y = 0} é subespaço vetorial.


( " # )
a b
Exemplo 2.16. Vimos que W1 = A = : a, b, d ∈ R é subespaço veto-
0 d
rial de V = M2×2 (R). ( " # )
a 0
Do mesmo modo, podemos mostrar que W2 = A = : a, c, d ∈ R é
c d
subespaço vetorial de V . Então, pelo teorema anterior,
( " # " # " # )
a b a b a b
W1 ∩ W2 = A= : ∈ W1 e ∈ W2
c d c d c d
( " # )
a 0
= A= : a, d ∈ R
0 d
76 CAPÍTULO 2. ESPAÇOS VETORIAIS

o conjunto das matrizes diagonais de ordem 2 é também um subespaço vetorial de


V.

Exemplo 2.17. Consideremos os seguintes subespaços de R3 :

W1 = {(x, y, z) ∈ R3 |x + y + z = 0}

W2 = {(x, y, z) ∈ R3 |x + y − z = 0}

Então o subespaço W1 ∩ W2 = {(x, y, z) ∈ R3 |x + y + z = 0 e x + y − z = 0}. Para


encontrarmos os vetores desde subespaço, precisamos resolver o sistema:
(
x+y+z =0
x+y−z =0

A solução desse sistema são todos os pontos (x, y, z) tais que z = 0 e y = −x. Segue
que
W1 ∩ W2 = {(x, y, z) ∈ R3 |z = 0, y = −x} = {(x, −x, 0)|x ∈ R}

Visto que a intersecção de subespaços vetoriais é um subespaço vetorial, poderı́-


amos nos perguntar se o mesmo ocorreria com a união de subespaços vetoriais. O
exemplo a seguir nos dá uma resposta.

Exemplo 2.18. Os conjuntos


( " # ) ( " # )
a a b 0
W1 = A= :a∈R e W2 = A= :b∈R
0 0 b 0

são subespaços vetoriais de V = M2×2 (R) (mostre!). Consideremos então o conjunto


( " # " # " # )
a b a b a b
W1 ∪ W2 = A= : ∈ W1 ou ∈ W2
c d c d c d
" # " #
1 1 1 0
Então as matrizes A = eB= pertencem a W1 ∪W2 , pois A ∈ W1
0 0 1 0
2.1. SUBESPAÇOS VETORIAIS 77

e B ∈ W2 . Agora,
" # " #
1 1 1 0
A+B = +
0 0 1 0
" #
2 1
=
1 0

que não pertence nem a W1 nem a W2 . Segue que A + B ∈


/ W1 ∪ W2 . Portanto,
W1 ∪ W2 não é subespaço vetorial.

2.1.2 Soma de Subespaços Vetoriais

Vimos que a união de dois subespaços vetoriais W1 e W2 não é necessariamente um


espaço vetorial. Entretanto, podemos construir a partir destes subespaços um novo
subespaço W que os contenha. da seguinte maneira, para cada w1 ∈ W1 e para cada
w2 ∈ W2 , w1 + w2 ∈ W . Claramente, W1 ∈ W e W2 ∈ W (por que?), e podemos
mostrar que este conjunto W mantém a estrutura de subespaço.

Teorema 2.1.3. Sejam W1 e W2 subespaços do espaço vetorial V . Então o conjunto


soma de W1 e W2 definido da seguinte forma

W1 + W2 = {w1 + w2 : w1 ∈ W1 , w2 ∈ W2 }

é um subespaço vetorial de V .

Exemplo 2.19. Considerando novamente os subespaços


( " # ) ( " # )
a a b 0
W1 = A= :a∈R e W2 = A= :b∈R
0 0 b 0
78 CAPÍTULO 2. ESPAÇOS VETORIAIS

o conjunto W1 + W2 será um espaço vetorial:


( " # " # )
a a b 0
W1 + W2 = A= + : a, b ∈ R
0 0 b 0
( " # )
a+b a
= A= : a, b ∈ R
b 0

Exemplo 2.20. Dados os subespaços vetoriais W1 = {(a, b, 0) : a, b ∈ R} e W2 =


{(0, 0, c) : c ∈ R} de R3 , o conjunto W1 + W2 também é um subespaço vetorial de
R3 .

Observe no último exemplo, que W1 ∩ W2 = {0} e que W1 + W2 = R3 . Dizemos


então que a soma W1 + W2 é uma soma direta.

Definição 14. Sejam W1 e W2 subespaços vetoriais de V . Se W1 + W2 = V e


W1 ∩W2 = {0}, dizemos que V é soma direta de W1 e W2 e denotamos V = W1 ⊕W2 .

Exemplo 2.21. Consideremos os subespaços vetoriais de R3 :

W1 = {(x, y, z) ∈ R3 |x + y + z = 0}

W2 = {(x, y, z) ∈ R3 |x = y = 0}

Consideremos u ∈ W1 . Então existem x, y reais tais que u = (x, y, −x − y).


Consideremos v ∈ W2 . Então existe z real tal que v = (0, 0, z).
Assim, u+v = (x, y, −x−y)+(0, 0, z) = (x, y, −x−y +z), que pode ser qualquer
elemento de R3 .
Consideremos agora um elemento (x, y, z) ∈ W1 ∩ W2 . Então x + y + z = 0 e
x = y = 0. Logo z = 0, implicando em (x, y, z) = (0, 0, 0). Ou seja, o único elemento
presente em W1 e W2 é o vetor nulo. Em resumo:

W1 + W2 = R3 e W1 ∩ W2 = {(0, 0, 0}.

Segue que R3 = W1 ⊕ W2 .
2.2. COMBINAÇÃO LINEAR 79

2.2 Combinação Linear


Dado um espaço vetorial V , vimos que a soma de dois elementos quaisquer deste
espaço pertence a ele. Do mesmo modo, um múltiplo de um elemento também
pertence ao espaço, uma vez que ele é fechado para a multiplicação por escalar.
Estes dois fatos nos motivam a definir o conceito de combinação linear de elementos.

Definição 15. Sejam v1 , v2 , ..., vn vetores de um espaço vetorial V e a1 , a2 , ..., an


números reais. Então o vetor

v = a1 v1 + a2 v2 + ... + an vn

é chamado de combinação linear de v1 , v2 , ..., vn .

Exemplo 2.22. Em R2 , o vetor v = (12, 11) é combinação linear dos vetores v1 =


(3, 4) e v2 = (2, 1), pois
v = 2v1 + 3v2

Exemplo 2.23. O vetor v = (3, 2, 1) em R3 pode ser escrito como combinação linear
dos vetores v1 = (1, 1, 1), v2 = (1, −1, 1) e v3 = (1, 1, −1).
Vamos mostrar esta afirmação: precisamos encontrar três números reais a1 , a2 , a3
tais que v = a1 · v1 + a2 · v2 + a3 · v3 , isto é,

a1 (1, 1, 1) + a2 (1, −1, 1) + a3 (1, 1, −1) = (3, 2, 1)


(a1 + a2 + a3 , a1 − a2 + a3 , a1 + a2 − a3 ) = (3, 2, 1)
     
1 1 1 a1 3
 1 −1 1  ·  a2  =  2 
     

1 1 −1 a3 1

Este sistema tem única solução a1 = 3/2, a2 = 1/2 e a3 = 1. Portanto, realmente,


v = 32 v1 + 12 v2 + 1v3
80 CAPÍTULO 2. ESPAÇOS VETORIAIS

Exemplo 2.24. No espaço vetorial P2 (R), o polinômio p(x) = 1 + x2 é combinação


linear dos vetores q(x) = 1, r(x) = 1 + x E s(x) = 1 + x + x2 .

De fato, vamos encontrar a1 , a2 , a3 ∈ R tal que p(x) = a1 q(x) + a2 r(x) + a3 s(x).


Assim,

a1 · 1 + a2 (1 + x) + a3 (1 + x + x2 ) = 1 + x2
(a1 + a2 + a3 ) · 1 + (a2 + a3 )x + a3 x2 = 1 + 0 · x + x2
     
1 1 1 a1 1
 0 1 1  ·  a2  =  0 
     

0 0 1 a3 1

Logo a3 = 1, a2 = −1 e a1 = 1.

Exemplo 2.25. Consideremos os vetores v1 = (1, −3, 2) e v2 = (2, 4, −1) de R3 . O


vetor v = (−4, −18, 7) pode ser escrito como combinação linear de v1 e v2 , mas o
vetor u = (4, 3, −6) não pode.

Para mostrarmos a primeira afirmação, precisamos encontrar a1 , a2 números reais


tais que v = a1 v1 + a2 v2 .

a1 (1, −3, 2) + a2 (2, 4, −1) = (−4, −18, 7)


(a1 + 2a2 , −3a1 + 4a2 , 2a1 − a2 ) = (−4, −18, 7)
   
1 2 " # −4
a1
 −3 4 · =  −18 
   
a2
2 −1 7

Resolvendo o sistema, encontramos a2 = −3 e a1 = 2. Logo, v = 2v1 − 3v2 .

Suponhamos agora, por absurdo, que existam a1 , a2 números reais tais que u =
2.2. COMBINAÇÃO LINEAR 81

a1 v1 + a2 v2 .

a1 (1, −3, 2) + a2 (2, 4, −1) = (4, 3, −6)


(a1 + 2a2 , −3a1 + 4a2 , 2a1 − a2 ) = (4, 3, −6)
   
1 2 " # 4
a1
 −3 4 · =  3 
   
a2
2 −1 −6

Tentando resolver este sistema via método de Gauss, veremos que o posto da matriz
de coeficientes é menor do que o posto da matriz ampliada associada ao sistema, ou
seja, ele é impossı́vel. Logo, não existem a1 , a2 tais que u = a1 v1 + a2 v2 , ou seja, u
realmente não é combinação linear de v1 e v2 .

2.2.1 Subespaços Vetoriais Finitamente Gerados


Em um espaço vetorial V , consideremos S = {v1 , v2 , ..., vn } ⊂ V . Vimos que um
vetor v ∈ V é combinação linear de v1 , v2 , ..., vn se existem a1 , a2 , ...an números reais
tais que v = a1 v1 + a2 v2 + ... + an vn . Note que, para cada escolha de constantes
reais, encontramos um novo elemento que pertence a V e é combinação linear de
v1 , v2 , ..., vn , em particular, o vetor nulo 0 pode ser escrito como 0 = 0 · v1 + 0 · v2 +
... + 0 · vn . Se considerarmos então o conjunto W contendo todos os elementos de V
que são combinação linear de v1 , v2 , ..., vn , podemos mostrar que W é um subespaço
vetorial de V . Chamaremos este subespaço de subespaço gerado por v1 , v2 , ..., vn , ou
subespaço gerado por S e o denotamos por W = [v1 , v2 , ..., vn ]. Assim,

[v1 , v2 ..., vn ] = {v ∈ V |v = a1 v1 + a2 v2 + ... + an vn , com a1 , a2 , ..., an ∈ R}

Neste caso, dizemos que v1 , v2 ..., vn são geradores de W , ou geram W .

Exemplo 2.26. Em R3 , considere um vetor v não nulo. Então o subespaço gerado


por v é tal que
[v] = {u ∈ R3 |u = av, com a ∈ R}

Geometricamente, [v] representa a reta na direção de v que passa pela origem. Assim,
82 CAPÍTULO 2. ESPAÇOS VETORIAIS

se v = (1, 2, 3), qualquer elemento de (x, y, z) ∈ [v] será tal que

(x, y, z) = a(1, 2, 3)

(x, y, z) = (a, 2a, 3a)

Assim, se x = a, y = 2x, z = 3x, e [v] = {(x, y, z) ∈ R3 |y = 2x, z = 3x}.

Antes de exibirmos mais exemplos, vale salientar alguns fatos sobre subespaço
gerado:

Propriedade 2.2.1. Se o conjunto S = ∅, então o subespaço gerado por S será


definido como W = [] = {0}.

Propriedade 2.2.2. Todo conjunto S de elementos de V gera um subespaço vetorial


[S] de V . Em particular, pode acontecer de existir S tal que [S] = V .

Exemplo 2.27. Consideremos o conjunto

S = {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)}

de elementos pertencentes a R4 . Observe que todo elemento (a, b, c, d) ∈ R4 pode


ser escrito como combinação linear dos elementos de S:

(a, b, c, d) = a(1, 0, 0, 0) + b(0, 1, 0, 0) + c(0, 0, 1, 0) + d(0, 0, 0, 1)

Podemos dizer então que R4 = [(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)], ou seja,
R4 é um espaço vetorial finitamente gerado.

Proposição 2.2.1. Dados v1 , v2 , ...vn vetores de V , consideremos w ∈ V tal que


w = a1 v1 + a2 v2 + ...an vn . Então

[v1 , v2 , ..., vn , w] = [v1 , v2 , ..., vn ]

Demonstração. Precisamos mostrar que [v1 , v2 , ..., vn , w] ⊆ [v1 , v2 , ..., vn ] e [v1 , v2 , ..., vn ] ⊆
[v1 , v2 , ..., vn , w].
2.2. COMBINAÇÃO LINEAR 83

Se u ∈ [v1 , v2 , ..., vn ], existem b1 , b2 , ...bn reais tais que

u = b1 v1 + b2 v2 + ... + bn vn

em particular, podemos reescrever u como

u = b1 v1 + b2 v2 + ... + bn vn + 0w

Logo u ∈ [v1 , v2 , ..., vn , w], qualquer que seja u ∈ [v1 , v2 , ..., vn ], ou seja, [v1 , v2 , ..., vn ] ⊆
[v1 , v2 , ..., vn , w].
Reciprocamente, suponhamos que u ∈ [v1 , v2 , ..., vn , w]. Então existem b1 , b2 , ...bn , bn+1
tais que u = b1 v1 +b2 v2 +...+bn vn +bn+1 w. Por outro lado, w = a1 v1 +a2 v2 +...an vn .
Então,

u = b1 v1 + b2 v2 + ... + bn vn + bn+1 w
= b1 v1 + b2 v2 + ... + bn vn + bn+1 (a1 v1 + a2 v2 + ...an vn )
= (b1 + a1 )v1 + (b2 + a2 )v2 + ... + (bn + an )vn

Logo u ∈ [v1 , v2 , ..., vn ], qualquer que seja u ∈ [v1 , v2 , ..., vn , w]. Segue que [v1 , v2 , ..., vn , w] ⊆
[v1 , v2 , ..., vn ] , como querı́amos demonstrar.

Este fato nos prova que sendo W um subespaço gerado por um conjunto S, ao
acrescentarmos vetores de W a este conjunto S, continuaremos gerando o mesmo
subespaço W . Ou seja, um subespaço pode ser gerado por uma infinidade de vetores,
mas existe um número mı́nimo de vetores para gerá-lo.
Vamos ver mais alguns exemplos:

Exemplo 2.28. Em R3 , vamos encontrar o subespaço gerado pelos vetores v1 =


(1, −2, −1) e v2 = (2, 1, 1). Por definição, [v1 , v2 ] = {v ∈ R3 |v = av1 + bv2 , a, b ∈ R},
ou seja, se v = (x, y, z),

(x, y, z) = a(1, −2, −1) + b(2, 1, 1) = (a + 2b, −2a + b, −a + b)


84 CAPÍTULO 2. ESPAÇOS VETORIAIS

Temos então o seguinte sistema para resolver:




 a + 2b = x
−2a + b = y

−a + b = z

Para que este sistema seja possı́vel, x + 3y − 5z = 0 (escalone a matriz estendida


associada ao sistema). Assim,

[v1 , v2 ] = {(x, y, z) ∈ R3 |x + 3y − 5z = 0}

Geometricamente, o subespaço gerado pelos dois vetores representa um plano.

Exemplo 2.29. Em R2 , vamos encontrar o subespaço gerado pelos vetores v1 =


(3, 1) e v2 = (5, 2). Por definição, [v1 , v2 ] = {v ∈ R2 |v = av1 + bv2 , a, b ∈ R}, ou seja,
se v = (x, y),
(x, y) = a(3, 1) + b(5, 2) = (3a + 5b, a + 2b)

Temos então o seguinte sistema para resolver:


(
3a + 5b = x
a + 2b = y

Resolvendo este sistema, encontramos a = 2x − 5y e b = 3y − x (escalone a matriz


estendida associada ao sistema). Assim, qualquer que seja (x, y) ∈ R,

(x, y) = (2x − 5y) · v1 + (3y − x)v2

ou seja, [v1 , v2 ] = R2 .
Exemplo 2.30. Em M2 (R), considere o subconjunto
(" # " #)
−1 2 3 −1
S= ,
−2 3 1 1
" #
x y
Vamos encontrar [S]. Um vetor ∈ [S] será tal que, para algum a e algum
z w
2.3. DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 85

b reais,
" # " # " #
x y −1 2 3 −1
= a +b
z w −2 3 1 1
" #
−a + 3b 2a − b
=
−2a + b 3a + b

Temos então o seguinte sistema para resolver:





 −a + 3b = x

 2a − b = y


 −2a + b = z

 3a + b = w

Para que este sistema tenha solução, z = −y e w = x + 2y. Logo


(" # )
x y
[S] = ∈ M2 (R) : z = −y, w = x + 2y
z w
(" # )
x y
= : x, y ∈ R
−y x + 2y

2.3 Dependência e Independência Linear


Dado um espaço vetorial V e v1 , v2 , ...vn vetores de V , vimos que alguns elementos v
de V podem ser escritos como combinação linear de v1 , v2 , ...vn . Como todo espaço
vetorial contém o vetor nulo, poderı́amos tentar escrever o vetor nulo como com-
binação linear de v1 , v2 , ...vn . Neste caso, precisarı́amos encontrar a1 , a2 , ...an tais
que a1 v1 + a2 v2 + ... + an vn = 0. Acabarı́amos então em um sistema homogêneo que
sabemos sempre ter uma solução possı́vel: a trivial. A pergunta natural que surge
é se seria a única opção, e a resposta depende unicamente dos vetores inicialmente
considerados. Vamos ilustrar o que foi dito através de um exemplo.
Consideremos em R3 os vetores v1 = (1, 2, 3), v2 = (−1, 3, 1) e v3 = (2, −1, 2) e
86 CAPÍTULO 2. ESPAÇOS VETORIAIS

vamos tentar encontrar números reais a1 , a2 , a3 tais que a1 v1 + a2 v2 + a3 v3 = 0, ou


seja,
a1 (1, 2, 3) + a2 (−1, 3, 1) + a3 (2, −1, 2) = (0, 0, 0).

Temos o sistema a seguir para resolver:


     
1 −1 2 a1 0
 2 3 −1  ·  a2  =  0 
     

3 1 2 a3 0

Note que o determinante da matriz de coeficientes é nulo, o que significa que há
mais de uma solução para os sistema. Ou seja, há várias formas diferentes de se
escrever o elemento nulo como combinação linear de v1 , v2 e v3 .
Vamos agora considerar os mesmos vetores v1 = (1, 2, 3) e v2 = (−1, 3, 1) e trocar
v3 por v30 = (2, −1, 1). Neste caso, precisamos de números reais a1 , a2 , a3 tais que
a1 v1 + a2 v2 + a3 v30 = 0, ou seja,

a1 (1, 2, 3) + a2 (−1, 3, 1) + a3 (2, −1, 1) = (0, 0, 0).

Temos o sistema a seguir para resolver:


     
1 −1 2 a1 0
 2 3 −1  ·  a2  =  0 
     

3 1 1 a3 0

Agora, o determinante da matriz de coeficientes é diferente de 0, o que implica em


existir uma única maneira de escrever o vetor nulo como combinação linear destes
novos vetores: se todos os números reais forem 0.
Este exemplo nos motiva a seguinte definição:

Definição 16. Sejam v1 , v2 , ..., vn vetores de um espaço vetorial V . Dizemos que o


conjunto {v1 , v2 , ..., vn } é linearmente independente, ou l.i., se

a1 v1 + a2 v2 + ... + an vn = 0 ⇐⇒ a1 = a2 = ... = an = 0

Caso contrário, dizemos que o conjunto é linearmente dependente (l.d.).


2.3. DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 87

O primeiro passo para decidir se um conjunto de vetores é l.d. ou l.i. é identi-


ficar o elemento neutro do espaço vetorial onde estamos trabalhando. No exemplo
anterior, 0 = (0, 0, 0). Vamos considerar outros exemplos.

Exemplo 2.31. Em R3 , os vetores v1 = (2, 3, 1), v2 = (0, 4, 2) e v3 = (−1, 3, 1) são


linearmente independentes? Vamos ver.
Sejam a, b, c ∈ R tais que av1 + bv2 + cv3 = 0. Então

a(2, 3, 1) + b(0, 4, 2) + c(−1, 3, 1) = (0, 0, 0).

(2a, 3a, a) + (0, 4b, 2b) + (−c, 3c, c) = (0, 0, 0)

(2a − c, 3a + 4b + 3c, a + 2b + c) = (0, 0, 0)


 2a − c
 = 0
3a + 4b + 3c = 0

a + 2b + c = 0

     
2 0 −1 a 0
Na notação matricial,  3 4 3  ·  b  =  0 . Se calcularmos o determi-
     

1 2 1 c 0
nante da matriz de coeficientes do sistema, veremos que ele é diferente de zero, o
que sabemos implicar que o sistema tem apenas uma solução. Como se trata de um
sistema homogêneo, a única solução possı́vel é a = b = c = 0. Portanto, os vetores
v1 , v2 e v3 são realmente l.i.

Exemplo 2.32. Em R4 , os vetores v1 = (1, 3, 0, 4), v2 = (0, 5, 0, 1), v3 = (0, 1, 0, 3) e


v4 = (0, 0, 7, 3) são linearmente independentes? Vamos ver.
Sejam a, b, c, d ∈ R tais que av1 + bv2 + cv3 + dv4 = 0. Então

a(1, 3, 0, 4) + b(0, 5, 0, 1) + c(0, 1, 0, 3) + d(0, 0, 7, 3) = (0, 0, 0, 0)

(a, 3a, 0, 4a) + (0, 5b, 0, b) + (0, c, 0, 3c) + (0, 0, 7d, 3d) = (0, 0, 0, 0)

(a, 3a + 5b + c, 7d, 4a + b + 3c + 3d) = (0, 0, 0, 0)


88 CAPÍTULO 2. ESPAÇOS VETORIAIS



 a = 0

 3a + 5b + c = 0


 7d = 0

 4a + b + 3c + 3d = 0

Este sistema é simples de resolver, pois de antemão já sabemos que a = d = 0.


Substituindo estes valores, ficamos com
(
5b + c = 0
b + 3c = 0

implicando em b = d = 0. Portanto, os vetores v1 , v2 , v3 e v4 são realmente l.i.

Exemplo 2.33. No espaço vetorial P2 (R), o vetor nulo é o polinômio 0 = 0(x) = 0+


0x+0x2 . Vamos então decidir se os vetores q(x) = 1, r(x) = 1+x e s(x) = 1+x+x2
são l.i. ou l.d.
Suponhamos que existam a1 , a2 , a3 ∈ R tais que 0(x) = a1 q(x) + a2 r(x) + a3 s(x).
Assim,

(a1 + a2 + a3 ) · 1 + (a2 + a3 )x + a3 x2 = 0 + 0x + 0x2


     
1 1 1 a1 0
 0 1 1  ·  a2  =  0 
     

0 0 1 a3 0

Como o determinante da matriz de coeficientes é diferente de 0, segue que o conjunto


{q(x), r(x), s(x)} é linearmente independente.

Exemplo 2.34. Em M2×2 (R), considere o conjunto


(" # " # " #)
−1 2 2 −3 3 −4
A= , ,
−3 1 3 0 3 1

Vamos verificar se A é l.i., ou seja, se seus elementos são l.i. Sejam a, b, c ∈ R tais
2.3. DEPENDÊNCIA E INDEPENDÊNCIA LINEAR 89

que " # " # " #


−1 2 2 −3 3 −4
a +b +c =0
−3 1 3 0 3 1
Então " # " # " #
−a 2a 2b −3b 3c −4c
+ + =0
−3a a 3b 0 3c c
" #
−a + 2b + 3c 2a − 3b − 4c
=0
−3a + 3b + 3c a+c




 −a + 2b + 3c = 0

 2a − 3b − 4c = 0


 −3a + 3b + 3c = 0

 a + c = 0 =⇒ a = −c

Substituindo a = −c na primeira equação, temos que b = −2c. As outras duas


equações são satisfeitas independentemente do valor de c. Logo, qualquer que seja
c ∈ R, " # " # " #
−1 2 2 −3 3 −4
−c − 2c +c =0
−3 1 3 0 3 1
Assim, o conjunto A é l.d.

Vamos aproveitar o exemplo para observar que a seguinte igualdade é válida:


" # " # " #
−1 2 2 −3 3 −4
= −2 + .
−3 1 3 0 3 1

Ou seja, uma matriz é combinação linear das outras. Este fato ilustra o seguinte
teorema:

Teorema 2.3.1. Um conjunto de vetores {v1 , v2 , ...vn } é linearmente dependente se,


e somente se, um de seus elementos é combinação linear dos restantes.

Demonstração. Seja {v1 , v2 , ...vn } um conjunto linearmente dependente. Então existe


um ai 6= 0 tal que a1 v1 + ... + ai vi + ... + an vn = 0. Suponhamos sem perda de ge-
90 CAPÍTULO 2. ESPAÇOS VETORIAIS

neralidade que a1 6= 0. Logo

a1 v1 + a2 v2 + ... + an vn = 0
a1 v1 = −(a2 v2 + ... + an vn )
(−a2 )v2 + ... + (−an )vn
v1 =
a1
−a2 −an
v1 = v2 + ... + vn
a1 a1

Logo v1 é combinação linear de v2 , ..., vn .


Por outro lado, suponhamos, sem perda de generalidade, que v1 é combinação
linear de v2 , ..., vn . Então existem a2 , ..., an tais que v1 = a2 v2 + ... + an vn ,ou seja,

v1 − (a2 v2 + ... + an vn ) = 0

1 · v1 + (−a2 )v2 + ... + (−an )vn = 0

Assim, existem b1 , b2 , ..., bn números reais não todos nulos tais que b1 v1 + b2 v2 +
.. + bn vn = 0. Segue que o conjunto de vetores {v1 , v2 , ...vn } é l.d., como querı́amos
demonstrar.

Exemplo 2.35. Em M2×2 (R), o conjunto


(" # " #)
1 2 3 6
S= ,
−4 −3 −12 −9
" # " #
3 6 1 2
é l.d., uma vez que =3 .
−12 −9 −4 −3

Exemplo 2.36. O conjunto {(2, −1), (1, 3)} é l.i., pois (2, −1) 6= a(1, 3) qualquer
que seja a ∈ R.

2.4 Base e Dimensão


Sejam v1 , v2 , ..., vn elementos de um espaço vetorial V . Dizemos que o conjunto
B = {v1 , v2 , ..., vn } é uma base de V se:
2.4. BASE E DIMENSÃO 91

(i) B é l.i.

(ii) B gera V .

Vamos ver alguns exemplos:

Exemplo 2.37. B = {(1, 0), (0, 1)} é base de R2 , pois

(i) B é l.i.:
a(1, 0) + b(0, 1) = (0, 0) ⇐⇒ a = b = 0

(ii) B gera V :
(x, y) = x(1, 0) + y(0, 1), ∀(x, y) ∈ R2 .

Esta base é chamada de base canônica de R2 .

De modo análogo, mostramos que

• B = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} é a base canônica de R3

• B = {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} é a base canônica de R4

• B = {(1, 0, ..., 0), (0, 1, ..., 0), ..., (0, 0, ..., 1)} é a base canônica de Rn
| {z }
n−upla

Normalmente, denotamos os vetores que compõe a base canônica de um espaço por


e ao invés de v. Por exemplo, e1 = (1, 0, ...0), e2 = (0, 1, ..., 0),..., en = (0, 0, ..., 1)
formam a base canônica de Rn . Você consegue pensar na base canônica de outros
espaços, como, por exemplo, M2×2 (R) ou Pn (R) ?

Exemplo 2.38. Vamos mostrar que B = {(1, 1), (−1, 0)} é base de R2 .

(i) Vamos verificar se B é l.i.


Sejam a, b ∈ R tais que a(1, 1) + b(−1, 0) = (0, 0). Então (a − b, a) = (0, 0), o
que implica em a = b = 0. Portanto, B é l.i.

(ii) Vamos verificar se B gera V : Consideremos (x, y) ∈ R2 . Precisamos mostrar


que existem a, b reais tais que (x, y) = a(1, 1) + b(−1, 0).

(x, y) = (a, a) + y(−b, 0) = (a − b, a)


92 CAPÍTULO 2. ESPAÇOS VETORIAIS

implicando em a = y e b = y − x.

Exemplo 2.39. Em V = P2 (R), vamos verificar se o conjunto

B = {1 + x, 2 − x + x2 , x − x2 }

forma uma base.

(i) Vamos verificar se B é l.i.


Sejam a, b, c ∈ R tais que a(1 + x) + b(2 − x + x2 ) + c(x − x2 ) = 0 + 0x + 0x2 .
Então (a + 2b) + (a − b + c)x + (b − c)x2 = 0 + 0x + 0x2 resultando no sistema
A · X = 0, onde
     
1 2 0 a 0
A =  1 −1 1 ,X =  b ,0 =  0 
     

0 1 −1 c 0

Note que det A = 2 6= 0. Logo o sistema admite uma única solução: a solução
trivial a = b = c = 0. Segue que B é l.i.

(ii) Vamos verificar se B gera V :


Consideremos α + βx + γx2 ∈ V um polinômio qualquer. Precisamos mostrar
que existem a, b, c reais tais que

α + βx + γx2 = a(1 + x) + b(2 − x + x2 ) + c(x − x2 )

(a + 2b) + (a − b + c)x + (b − c)x2 = 0 + 0x + 0x2 = α + βx + γx2 ,

resultando no sistema A · X = 0, onde


     
1 2 0 a α
A =  1 −1 1 ,X =  b ,0 =  β .
     

0 1 −1 c γ

Há várias maneiras de se resolver este sistema. Podemos aproveitar que já
conhecemos o valor do determinante de A e utilizar o método de Cramer.
2.4. BASE E DIMENSÃO 93

Neste caso, encontraremos

2β + 2γ α−β−γ α − β − 3γ
a= , b= , c=
2 2 2

Logo,
 
2 2β + 2γ
α + βx + γx = (1 + x) +
2
 
α−β−γ
+ (2 − x + x2 ) +
2
 
α − β − 3γ
+ (x − x2 )
2

ou seja, qualquer que seja p(x) ∈ V , podemos escrevê-lo como combinação


linear dos elementos de B, implicando em V ⊆ [B]. Como [B] ⊆ V , segue que
[B] = V .

Por (i) e (ii), B é base de V .

Exemplo 2.40. O conjunto B = {(1, 0, 0), (2, 3, −2)} não é base de R3 pois, embora
seja l.i., não gera R3 .

Embora (3) não seja base de R3 , o fato de ser l.i. garante que ele é base do seu
subespaço gerado [B] = [(1, 0, 0), (2, 3, −2)]

Proposição 2.4.1. Qualquer conjunto B l.i. é uma base do seu subespaço gerado
[B].

Exemplo 2.41. Os seguintes conjuntos não são bases:

(1) B = {(1, 3), (−2, −6)} não é base de R2 , pois B é l.d. Entretanto, [(1, 3)] é
subespaço vetorial próprio de R2 .

(2) B = {(1, 0, 0), (0, 1, 0), (0, 0, 1), (2, 3, −2)} não é base de R3 , pois B é l.d.

Note que, no exemplo (2), embora não seja base, [B] = R3 , pois os três primeiros
vetores geram o espaço. Este exemplo nos motiva a enunciar o seguinte teorema:
94 CAPÍTULO 2. ESPAÇOS VETORIAIS

Teorema 2.4.2. Sejam v1 , v2 , ..., vn vetores não nulos que geram um espaço vetorial
V . Então, dentre estes vetores, podemos extrair uma base de V .

Demonstração. Consideremos v1 , v2 , ..., vn vetores não nulos tais que

[v1 , v2 , ..., vn ] = V.

Temos então duas possibilidades para estes vetores: ou eles são l.i. ou eles são l.d.
Se eles forem l.i., formam uma base de V por definição, e não temos nada pra provar.
Suponhamos que v1 , v2 , ..., vn são l.d. Então existe uma combinação linear com
algum coeficiente diferente de zero tal que a1 v1 +a2 v2 +...+an vn = 0. Consideremos,
sem perda de generalidade, que an 6= 0. Então vn pode ser escrito como combinação
linear dos vetores restantes:

−a1 −a2 −an−1


vn = v1 + v2 + ... + vn−1
an an an

e [v1 , v2 , ..., vn−1 ] = [v1 , v2 , ..., vn ] = V . Se v1 , v2 , ..., vn−1 forem l.i., formam uma base
de V . Se forem l.d., novamente, existe uma combinação linear com algum coeficiente
diferente de zero tal que b1 v1 + b2 v2 + ... + bn−1 vn−1 = 0. Se reordenarmos os vetores,
podemos supor que, bn−1 6= 0. Então vn−1 pode ser escrito como combinação linear
dos vetores restantes:

−b1 −b2 −bn−2


vn−2 = v1 + v2 + ... + vn−2
bn−1 bn−1 bn−1

e [v1 , v2 , ..., vn−2 ] = [v1 , v2 , ..., vn−2 , vn−1 ] = V .


Procedendo da mesma maneira, em algum momento, encontraremos r ≤ n tal
que v1 , v2 , ..., vr são l.i. e geram V . Esta será a base que procuramos.

Teorema 2.4.3. Seja V um espaço vetorial gerado por v1 , v2 , ...vn . Então qualquer
conjunto com mais de n elementos será l.d.

Demonstração. Se v1 , v2 , ..., vn são vetores não nulos tais que

[v1 , v2 , ..., vn ] = V,
2.4. BASE E DIMENSÃO 95

o resultado anterior nos garante que existe r ≤ n tal que v1 , v2 , ..., vr são l.i. e
[v1 , v2 , ..., vr ] = V .

Consideremos agora w1 , w2 , ..., wm vetores de V , com m > n, e vamos mostrar


que estes vetores são necessariamente l.d. Mas antes, note que, como cada wi é um
elemento de V , existem ai1 , ai2 , ..., air reais tais que wi = ai1 v1 + ai2 v2 + ... + air vr ,
com 1 ≤ i ≤ m. Isto é,

w1 = a11 v1 + a12 v2 + ... + a1r vr


w2 = a21 v1 + a22 v2 + ... + a2r vr
..
.
wm = am1 v1 + am2 v2 + ... + amr vr

Queremos mostrar que w1 , w2 , ..., wm são l.d. Sejam b1 , b2 , ...bm números reais tais
que b1 w1 + b2 w2 + ... + bm wm = 0. Então

0 = b1 w1 + b2 w2 + ... + bm wm
= b1 (a11 v1 + a12 v2 + ... + a1r vr ) + +b2 (a21 v1 + a22 v2 + ... + a2r vr ) +
... + bm (am1 v1 + am2 v2 + ... + amr vr )

= (b1 a11 + b2 a21 + ... + bm am1 )v1 + (b1 a12 + b2 a22 + ... + bm am2 )v2 +
... + (b1 a1r + b2 a2r + ... + bm amr )vr

Agora, como v1 , v2 , ..., vr são l.i., temos o seguinte sistema para resolver:


 b1 a11 + b2 a21 + ... + bm am1 = 0

 b1 a12 + b2 a22 + ... + bm am2 = 0

..


 .

b1 a1r + b2 a2r + ... + bm amr = 0

Temos então um sistema homogêneo com r equações e m incógnitas. Como m > r,


segue que este sistema é indeterminado, ou seja, existem infinitas soluções além da
96 CAPÍTULO 2. ESPAÇOS VETORIAIS

trivial b1 = b2 = ... = bm = 0. Segue que w1 , w2 , ..., wm são l.d., como querı́amos


demonstrar.

Dos resultados anteriores, temos que:

Corolário 2.4.4. Seja V um espaço vetorial gerado por v1 , v2 , ...vn . Então qualquer
conjunto l.i. tem no máximo n elementos.

Corolário 2.4.5. Qualquer base de um espaço vetorial V tem o mesmo número de


elementos. Este número é chamado de dimensão de V e é denotado por dim V .

Demonstração. Sejam B = {v1 , v2 , ..., vn } e C = {w1 , w2 , ..., wm } duas bases de V .


Como B é base de V , qualquer conjunto com mais elementos do que n é l.d. Como
C é l.i., m ≤ n. Por outro lado, C também é base de V , o que implica em todo
conjunto com mais elementos que m ser l.d., ou seja, n = m.

Exemplo 2.42. A base canônica de R2 tem dois elementos, o que implica em toda
base de R2 ter 2 elementos. Logo dim R2 = 2.

Exemplo 2.43. A base canônica de Rn tem n elementos. Logo, toda base de Rn


tem n elementos e, portanto, dim Rn = n.

Exemplo 2.44. Encontramos uma base de P2 (R) com três elementos. Logo, qual-
quer base de P2 (R) tem 3 elementos, e dim P2 (R) = 3.

Exemplo 2.45. A base canônica de M2×2 (R) tem quatro elementos. Logo, dim M2×2 (R) =
4.

Note que, se a dimensão de um espaço vetorial V é n, seus subespaços podem


ter dimensão 0, 1, ..., n − 1 ou n, sendo que o subespaço que possui dimensão 0 é {0},
e o subespaço com dimensão n é o próprio V . Agora, se temos um subconjunto de
r , com r < n, l.i., e sabendo que dim V = n, podemos completar este conjunto até
encontrar uma base para V . Isso é garantido pelo seguinte teorema:

Teorema 2.4.6. Qualquer conjunto l.i. de um espaço vetorial V é parte de uma


base de V , podendo ser completado até formar uma base de V .
2.4. BASE E DIMENSÃO 97

Além disso, se sabemos qual a dimensão do espaço vetorial V , digamos,


n, e queremos encontrar uma base para ele, basta encontrar um subcon-
junto B com n elementos que satisfaça uma das condições da definição de
base: se B for l.i., o subespaço gerado por B terá dimensão n e, portanto, [B] = V .
Se [B] = V e B possui n elementos, B necessariamente é l.i. : de fato, se fosse
l.d., poderı́amos excluir um elemento de B sem alterar o subespaço gerado, mas a
dimensão de [B] passaria a ser menor do que n: logo, terı́amos um conjunto com
menos de n elementos gerando V , o que é um absurdo.
Outro resultado importante é o seguinte:

Teorema 2.4.7. Dada uma base B = {v1 , v2 , ..., vn } de V , cada vetor de v ∈ V é


escrito de maneira única como combinação linear dos elementos de B.

Sendo assim, fixando a ordem em B, para cada elemento v ∈ V existem únicos


a1 , a2 , ...an reais tais que v = a1 v1 + a2 v2 + ... + an vn . São esses valores reais que o
caracterizam em relação a esta base. Chamaremos estes valores de coordenadas de
v em relação a B e denotaremos por
 
a1
a2
 
 
[v]B =  .. 
.
 
 
an B

ou [v]B = (a1 , a2 , . . . , an )B .

Exemplo 2.46. Considere duas bases para R2 : a canônica B1 = {e1 , e2 } e B2 =


{(1, 1), (−1, 0)}. Então qualquer elemento v = (x, y) deste espaço pode ser escrito
em termos destas bases:
" #
x
(x, y) = x(1, 0) + y(0, 1) −→ [v]B1 =
y B
1

" #
y
(x, y) = y(1, 1) + (y − x)(−1, 0) −→ [v]B2 =
x−y B2
98 CAPÍTULO 2. ESPAÇOS VETORIAIS

Assim, (2, 3) possui com coordenadas


" # " #
2 3
[v]B1 = ou ,
3 B1
1 B2

dependendo da base que desejamos trabalhar.

Normalmente, quando a base B utilizada é a canônica, omitimos B na repre-


sentação por coordenadas.  
a1
 a2 
 
[v]B = [v] = 
 .. 

 . 
an

Dimensão da Soma de Subespaços Vetoriais

Considere os seguintes subespaços de R3 :

U = {(x, y, z) ∈ R3 |x + y + z = 0}

W = {(x, y, z) ∈ R3 |x + y = 0 e x − z = 0}

Vamos encontrar uma base para o subespaço U + W .


Como U +W = {v ∈ V |v = u+w, u ∈ U, w ∈ W }, precisamos primeiro encontrar
uma base para U e uma base para V .

• Base para U :

Vamos incialmente encontrar um conjunto que gere U . Se (x, y, z) ∈ U , x +


y + z = 0. Logo, z = −x − y. Então

(x, y, z) = (x, y, −x − y)
= (x, 0, −x) + (0, y, −y)
= x(1, 0, −1) + y(0, 1, −1)

Logo, qualquer elemento de U pode ser escrito como combinação linear de


2.4. BASE E DIMENSÃO 99

(1, 0, −1) e (0, 1, −1). Concluimos então que

U = [(1, 0, −1), (0, 1, −1)].

Como estes dois vetores são l.i., encontramos uma base para U .

• Base para W :

Se (x, y, z) ∈ W , x + y = 0 e x − z = 0 . Logo, y = −x e z = x, ou seja,

(x, y, z) = (x, −x, x) = x(1, −1, 1).

Logo {(1, −1, 1)} forma uma base de W .

Como qualquer elemento de U + W é combinação de um elemento de U com um


elemento de W , segue que {(1, 0, −1), (0, 1, −1), (1, −1, 1)} forma uma base de U +
W . Além disso, o fato de nenhum vetor que compẽ a base de W pertencer a base
de U garante que U ∩ W = {0}.

Por outro lado, U + W é um subespaço de R3 de dimensão 3. Portanto, R3 =


U ⊕ W.

Consideremos agora dois subespaços de M2×2 (R),

U = {A ∈ M2×2 (R)|A = At }
" ! !#
1 1 0 3
W = , .
0 1 3 0
Vamos encontrar uma base para o subespaço U + W . Como já conhecemos a base
de W , precisamos precisamos encontrar uma base para U .
100 CAPÍTULO 2. ESPAÇOS VETORIAIS
!
a b
Seja A = ∈ U . Então A = At , ou seja, c = b. Logo,
c d
! !
a b a b
=
c d b d
! ! !
a 0 0 b 0 0
= + +
0 0 b 0 0 d
! ! !
1 0 0 1 0 0
= a +b +d
0 0 1 0 0 1

! ! !
1 0 0 1 0 0
Como , e são l.i., elas formam uma base de U . Assim,
0 0 1 0 0 1
o candidato para a base de U + W será
( ! ! ! !)
1 0 0 1 0 0 1 1
B1 = , , , .
0 0 1 0 0 1 0 1
!
0 3
Note que o vetor pertence à base de U e é combinação linear dos elementos
3 0
da base de W . Na verdade,
" !# " !#
0 1 0 3
U ∩W = = .
1 0 3 0

Assim, embora dim U = 3 e dim W = 2, dim(U + W ) = 4. Novamente, U + V =


W2×2 (R), pois a dimensão de ambos coincide, embora a soma não seja direta.

Estes dois exemplos ilustram o seguinte resultado:

Teorema 2.4.8. Sejam V um espaço vetorial de dimensão finita e U e W dois


subespaços de V . Então

dim(U + W ) = dim U + dim W − dim(U ∩ W )

Existem espaços que não admitem bases finitas. Isto acontece principalmente
2.4. BASE E DIMENSÃO 101

quando trabalhamos com espaços de funções, como o espaço das funções contı́nuas
ou o espaço das funções integráveis, por exemplo. Nestes espaços, qualquer base
terá infinitos elementos. Mas isso não quer dizer que um vetor deste espaço será
combinação linear de infinitos vetores da base, mas sim será combinação linear de
uma quantidade finita de elementos da base infinita. Não trabalharemos com este
tipo de espaço neste curso, apenas com espaços que possuem bases finitas.
102 CAPÍTULO 2. ESPAÇOS VETORIAIS
Capı́tulo 3

Transformações Lineares

Agora que já sabemos como caracterizar espaços vetoriais de dimensão finita, vamos
definir uma função sobre eles. Entretanto, procuramos uma função que mantenha
as propriedades de espaço vetorial, ou seja, é necessário garantir que ela leve espaço
vetorial em espaço vetorial. Chamamos este tipo de função de transformação linear
e a definimos da seguinte maneira:

Definição 17. Sejam V e W espaços vetoriais. Uma função T : V −→ W é uma


transformação linear se

(i) T (v1 + v2 ) = T (v1 ) + T (v2 ), para todos v1 , v2 ∈ V

(ii) T (αv) = αT (v), para todo α ∈ R e para todo v ∈ V .

Exemplo 3.1. Considere a seguinte função entre R2 e R3 :

T : R2 −→ R3
(x, y) 7→ (2x, 3y, x − 2y)

Vamos ver se T é transformação linear.

(i) T (v1 + v2 ) = T (v1 ) + T (v2 ), para todos v1 , v2 ∈ R2

103
104 CAPÍTULO 3. TRANSFORMAÇÕES LINEARES

Sejam (x1 , y1 ), (x2 , y2 ) ∈ R2 . Então

T ((x1 , y1 ) + (x2 , y2 )) = T ((x1 + x2 , y1 + y2 ))


= (2(x1 + x2 ), 3(y1 + y2 ), (x1 + x2 ) − 2(y1 + y2 ))
= (2x1 + 2x2 , 3y1 + 3y2 , x1 + x2 − 2y1 − 2y2 )
= (2x1 + 2x2 , 3y1 + 3y2 , x1 − 2y1 + x2 − 2y2 )
= (2x1 , 3y1 , x1 − 2y1 ) + (2x2 , 3y2 , x2 − 2y2 )
= T ((x1 , y1 )) + T ((x2 , y2 ))

(ii) T (αv) = αT (v), para todo α ∈ R e para todo v ∈ R2 .

Sejam (x, y) ∈ R2 e α ∈ R. Então

T (α(x, y)) = T ((αx, αy))


= (2(αx), 3(αy), (αx) − 2(αy))
= (α(2x), α(3y), αx − α(2y))
= (α(2x), α(3y), α(x − 2y))
= α (2x, 3y, x − 2y)
= αT ((x, y))

Como as duas propriedades são válidas, T é transformação linear.

Exemplo 3.2. Considere a seguinte função entre R2 e R2 :

T : R2 −→ R2
(x, y) 7→ (x2 , 3x − 2y)

Vamos ver se T é transformação linear.

(i) T (v1 + v2 ) = T (v1 ) + T (v2 ), para todos v1 , v2 ∈ R2


105

Sejam (x1 , y1 ), (x2 , y2 ) ∈ R2 . Então

T ((x1 , y1 ) + (x2 , y2 )) = T ((x1 + x2 , y1 + y2 ))


(x1 + x2 )2 , 3(x1 + x2 ) − 2(y1 + y2 )

=
x21 + 2x1 x2 + x21 , (3x1 − 2y1 ) + (3x2 − 2y2 )

=

Por outro lado,

T ((x1 , y1 )) + T ((x2 , y2 )) = (x21 , 3x1 − 2y1 ) + (x22 , 3x2 − 2y2 )


= (x21 + x22 , (3x1 − 2y1 ) + (3x2 − 2y2 )
x21 + 2x1 x2 + x21 , (3x1 − 2y1 ) + (3x2 − 2y2 )

6=

De fato, dados (x1 , y1 ) = (1, 1) e (x2 , y2 ) = (2, 2),


)
T ((1, 1) + (2, 2)) = T (3, 3) = (9, 3)
6=
T ((1, 1)) + T ((2, 2)) = T (1, 1) + T (4, 2) = (5, 3)

Como a primeira propriedade não é válida, T não é transformação linear.

Exemplo 3.3. Vamos verificar se a função T : R3 −→ R3 tal que T (x, y, z) =


(x, y, 0) é linear.

(i) Sejam (x1 , y1 , z1 ), (x2 , y2 , z2 ) ∈ R3 . Queremos mostrar que

T ((x1 , y1 , z1 ) + (x2 , y2 , z2 )) = T ((x1 , y1 , z1 )) + T ((x2 , y2 , z2 ))

De fato, T ((x1 , y1 , z1 ) + (x2 , y2 , z2 )) = T (x1 + x2 , y1 + y2 , z1 + z2 )


= (x1 + x2 , y1 + y2 , 0)
= (x1 + x2 , y1 + y2 , 0 + 0)
= (x1 , y1 , 0) + (x2 , y2 , 0)
= T (x1 , y1 , z1 ) + T (x2 , y2 , z2 )
106 CAPÍTULO 3. TRANSFORMAÇÕES LINEARES

(ii) Sejam (x, y, z) ∈ R3 e α ∈ R e vamos mostrar que

T (α(x, y, z)) = αT ((x, y, z))

De fato, T (α(x, y, z)) = T (αx, αy, αz)


= (αx, αy, 0)
= (αx, αy, α0)
= α (x, y, 0)
= αT (x, y, z)

Como as duas propriedades são válidas, T é transformação linear. Esta trans-


formação corresponde a projeção ortogonal de R3 no plano xy.

Exemplo 3.4. Dado V um espaço vetorial qualquer, a função identidade I(v) = v,


para todo v ∈ V e a função nula T (v) = 0, para todo v ∈ V são transformações
lineares.

Exemplo 3.5. Vamos verificar se a aplicação T : Pn ((R) −→ Pn ((R), onde n é


algum inteiro positivo, tal que T (p(x)) = p0 (x) é linear.

(i) Sejam p1 (x), p2 (x) ∈ Pn ((R). Então

T (p1 (x) + p2 (x)) = T ((p1 + p2 )(x))


= (p1 + p2 )0 (x)
= p01 (x) + p02 (x)
= T (p1 (x)) + T (p2 (x))

Logo, T (p1 (x) + p2 (x)) = T (p1 (x)) + T (p2 (x)), para todos p1 (x), p2 (x) ∈
Pn ((R).
107

(ii) Sejam p(x) ∈ Pn ((R) e α ∈ R. Então

T (αp(x)) = T ((αp)(x))
= (αp)0 (x)
= αp0 (x)
= αT (p(x))

Assim, T (αp(x)) = αT (p(x)), para todo α ∈ R e para todo p(x) ∈ Pn ((R).

Como as duas propriedades são válidas, T é transformação linear. Note que T


nada mais é do que a derivada aplicada em polinômios. Na verdade, a aplicação
derivada é uma transformação linear independentemente do domı́nio ser o espaço
dos polinômios.

Exemplo 3.6. Vamos verificar se a aplicação

(i) Sejam f1 (x), f2 (x) ∈ C([a, b]). Então

T (f1 (x) + f2 (x)) = T ((f1 + f2 )(x))


Z b
= (f1 + f2 )(x)dx
a
Z b Z b
= f1 (x)dx + f2 (x)dx
a a
= T (f1 (x)) + T (f2 (x))

Logo T (f1 (x) + f2 (x)) = T (f1 (x))+T (f2 (x)), quaisquer que sejam f1 (x), f2 (x) ∈
C([a, b]).

(ii) Sejam f (x) ∈ C([a, b]) e α ∈ R. Então

T (αf (x)) = T ((αf )(x))


Z b
= (αf )(x)dx
a
Z b
= α f( x)dx
a
= αT (f (x))
108 CAPÍTULO 3. TRANSFORMAÇÕES LINEARES

Como as duas propriedades são válidas, T é transformação linear. Note que T nada
mais é do que a integral definida de uma função contı́nua.

Exemplo 3.7. A transformação T : Mn×n (R) −→ R tal que T (A) = det A, para
todo A ∈ Mn×n (R) não é linear, pois det(A + B) 6= det A + det B.

3.1 Propriedades das Transformações Lineares


Uma propriedade interessante das transformações lineares é que ela sempre leva
elemento nulo em elemento nulo, ou seja:

Proposição 3.1.1. Se T : V −→ W é uma transformação linear entre dois espaços


vetoriais V e W , então
T (0V ) = 0W .

Demonstração. Sejam 0V e 0W os elementos nulos dos espaços vetoriais V e W


respectivamente. Como T (0V ) ∈ W ,

T (0V ) + 0W = T (0V ) = T (0V + 0V )

Mas T é linear, ou seja, T (0V + 0V ) = T (0V ) + T (0V ). Segue que

T (0V ) + 0W = T (0V ) + T (0V ) =⇒ 0W = T (0V ).

Outra propriedade importante é a que garante que uma transformação linear T


é perfeitamente determinada se a definirmos sobre uma base do domı́nio.

Teorema 3.1.2. Dados dois espaços vetoriais V e W , consideremos B = {v1 , v2 , ..., vn }


uma base de V e w1 , w2 , ..., wn elementos quaisquer de W . Então existe uma única
transformação linear T : V −→ W tal que T (v1 ) = w1 , T (v2 ) = w2 ,...,T (vn ) = wn .
Esta aplicação é definida da seguinte forma:

v = a1 v1 + a2 v2 + ... + an vn =⇒ T (v) = a1 w1 + a2 w2 + ... + an wn .


3.1. PROPRIEDADES DAS TRANSFORMAÇÕES LINEARES 109

Vamos ver alguns exemplos de aplicação deste teorema:

Exemplo 3.8. Qual a transformação linear T : R2 −→ R3 tal que T (1, 0) = (2, 3, 1)


e T (0, 1) = (−1, 0, 4)?

Seja (x, y) um elemento qualquer de R2 . Como B = {(1, 0), (0, 1)} é base deste
espaço, (x, y) = x(1, 0) + y(0, 1). Então

T (x, y) = T (x(1, 0) + y(0, 1))


= T (x(1, 0)) + T (y(0, 1))
= xT (1, 0) + yT (0, 1)
= x(2, 3, 1) + y(−1, 0, 4)
= (2x, 3x, x) + (−y, 0, 4y)
= (2x − y, 3x, x + 4y)

Exemplo 3.9. Qual a transformação linear T : R2 −→ R3 tal que T (1, 1) = (3, 2, 1)


e T (0, −2) = (0, 1, 0)?

Seja (x, y) um elemento qualquer de R2 . Como B = {(1, 1), (0, −2)} é base deste
espaço, precisamos encontrar a, b reais tais que (x, y) = a(1, 1) + b(0, −2), ou seja,
tais que (x, y) = (a, a − 2b). Resolvendo o sistema, temos que

(x − y)
(x, y) = x(1, 1) + (0, −2)
2
110 CAPÍTULO 3. TRANSFORMAÇÕES LINEARES
 
(x − y)
Então T (x, y) = T x(1, 1) + (0, −2)
2
(x − y)
= xT (1, 1) + T (0, −2)
2
(x − y)
= x(3, 2, 1) + (0, 1, 0)
2 
(x − y)
= (3x, 2x, x) + 0, ,0
2
 
(x − y)
= 3x, 2x + ,x
2
 
5x − y
= 3x, ,x .
2

Vamos a seguir definir dois conjuntos ligados a qualquer transformação linear


que nos garantem propriedades úteis e interessantes.

3.2 Núcleo e Imagem


Definição 18. Seja T : V −→ W uma transformação linear entre dois espaços
vetoriais V e W . Chamamos de imagem de T ao conjunto de vetores de W tais que
w = T (v) para algum v ∈ V , e o denotamos por Im(T ) ou T (V ). Assim,

Im(T ) = {w ∈ W : T (v) = w, v ∈ V }

Claramente, Im(T ) ⊆ W . Na verdade, é possı́vel mostrar que Im(T ) é um


subespaço de W .
Além da imagem, outro conjunto importante ligado às transformações lineares
está relacionado ao elemento neutro do contradomı́nio. Vimos que, se T : V −→ W é
transformação linear, então T (0V ) = 0W . Entretanto, outros elementos de V podem
ser mandados em 0W . Estes elementos dão origem ao núcleo de T , ou kernell de T .

Definição 19. Seja T : V −→ W uma transformação linear entre dois espaços


vetoriais V e W . Definimos o núcleo de T , ou Kernell de T como sendo o conjunto
de todos os vetores v ∈ V tais que T (v) = 0W . Denotamos este conjunto por ker(T ).
Em outras palavras,
ker(T ) = {v ∈ V : T (v) = 0W }.
3.2. NÚCLEO E IMAGEM 111

É fácil mostrar que o núcleo é um subespaço de V .


Vamos agora ver alguns exemplos de núcleo e imagem de transformações lineares.

Exemplo 3.10. Consideremos a transformação linear T : R2 −→ R tal que T (x, y) =


x + y, para todo R2 .
Vamos determinar a imagem e o núcleo de T .

(i) Seja w um elemento da imagem de T . Então existe (x, y) ∈ R2 tal que


T (x, y) = w, ou seja, x + y = w. Assim, w = (x + y) · 1. Logo Im(T ) = R.

(ii) Seja (x, y) ∈ ker(T ). Então, por definição,

T (x, y) = 0 =⇒ x + y = 0 =⇒ y = −x

Logo ker(T ) = {(x, y) ∈ R2 : y = −x} ou ker(T ) = {(x, −x) : x ∈ R}.


Como ker(T ) é subespaço do domı́nio de T , podemos ainda concluir que
ker(T ) = [(1, −1)] é subespaço próprio de R2 .

Exemplo 3.11. Consideremos a transformação linear

T : R3 −→ R3
(x, y, z) 7→ (x + 2y − z, y + 2z, x + 3y + z)

Vamos encontrar o núcleo e a imagem de T .


Seja (x, y, z) ∈ ker(T ). Então T (x, y, z) = (0, 0, 0), isto é,

(x + 2y − z, y + 2z, x + 3y + z) = (0, 0, 0)

 x + 2y − z = 0

y + 2z = 0

x + 3y + z = 0

Resolvendo o sistema, encontramos (x, y, z) = (5z, −2z, z), qualquer que seja z real.
Logo
ker(T ) = {(5z, −2z, z) : z ∈ R}.

ou ainda, ker(T ) = [(5, −2, 1)].


112 CAPÍTULO 3. TRANSFORMAÇÕES LINEARES

Vamos agora encontrar a imagem de T . Seja (a, b, c) ∈ Im(T ). Então existe


(x, y, z) ∈ R3 para o qual T (x, y, z) = (a, b, c). Assim,

T (x, y, z) = (a, b, c)
(x + 2y − z, y + 2z, x + 3y + z) = (a, b, c)

 x + 2y − z = a

y + 2z = b

x + 3y + z = c

Considerando então a matriz extendida associada ao sistema, vamos utilizar o método


de Gauss para resolvê-la.
   
1 2 −1 | a 1 2 −1 | a
 0 1 2 | b  −→L3 →L3 −L1  0 1 2 | b 
   

1 3 1 | c 0 1 2 | c−a
 
1 2 −1 | a
−→L3 →L3 −L2  0 1 2 | b
 

0 0 0 | c−a−b

Para que este sistema tenha solução, c − a − b = 0. Assim, (a, b, c) ∈ Im(T ) é tal
que c = a + b; segue que

Im(T ) = {(a, b, a + b) : a, b ∈ R}

ou ainda, Im(T ) = [(1, 0, 1), (0, 1, 1)] (mostre!).

Exemplo 3.12. Vamos determinar o núcleo e a imagem da transformação linear

T : R3 −→ R3
(x, y, z) 7→ (2x − y − z, x − y − z, x + y − z)
3.2. NÚCLEO E IMAGEM 113

Seja (a, b, c) ∈ Im(T ). Então existe (x, y, z) ∈ R3 tal que

T (x, y, z) = (a, b, c)
(2x − y − z, x − y − z, x + y − z) = (a, b, c)
(2x, x, x) + (−y, −y, y) + (−z, −z, −z) = (a, b, c)
x(2, 1, 1) + y(−1, −1, 1) + z(−1, −1, −1) = (a, b, c)

Assim, (a, b, c) ∈ [(2, 1, 1), (−1, −1, 1), (−1, −1, −1)] e, portanto,

Im(T ) = [(2, 1, 1), (−1, −1, 1), (−1, −1, −1)].

Mais uma vez, note que dim Im(T ) = dim R3 = 3. Portanto, Im(T ) = R3 .
Consideremos agora (x, y, w) ∈ ker(T ). Então

T (x, y, z) = (0, 0, 0)

(2x − y − z, x − y − z, x + y − z) = (0, 0, 0)

implicando em x = y = z = 0. Segue que ker(T ) = {(0, 0, 0)}.

Como já dito, uma transformação linear é, antes de tudo, uma função entre
dois espaços vetoriais e, como tal, podemos falar em injetividade, sobretividade e
bijetividade neste contexto.
Definição 20. Consideremos uma transformação linear T : V −→ W , onde V e W
são espaços vetoriais.
Diremos que T é injetora se

T (u) = T (v) =⇒ u = v.

Diremos que T é sobrejetora se Im(T ) = W .


Estes conceitos mais o exemplo anterior servirão de motivação para as proprie-
dades que veremos a seguir.
Proposição 3.2.1. Uma transformação linear T : V −→ W é injetora se, e somente
se, ker(T ) = {0V }.
114 CAPÍTULO 3. TRANSFORMAÇÕES LINEARES

Demonstração. Vamos dividir a demonstração em duas partes: Suponhamos que


ker(T ) = {0V }, e vamos mostrar que T é injetora. Consideremos então u, v ∈ V tais
que

T (u) = T (v)
T (u) − T (v) = 0
T (u − v) = 0
u − v ∈ ker(T )

Como ker(T ) = {0V }, u − v = 0V , isto é, u = v. Segue que T é injetora.


Reciprocamente, suponhamos que T : V −→ W é injetora e vamos mostrar
que ker(T ) = {0V }. Obviamente, 0V pertence ao núcleo de T , pois T (0V ) = 0W .
Consideremos então um elemento qualquer v ∈ ker(T ). Por definição, T (v) = 0W .
Mas então,
T (v) = T (0V ) =⇒ v = 0V ,

uma vez que T é injetora. Portanto, ker(T ) = {0V }.

Proposição 3.2.2. Dada uma transformação linear T : V −→ W ,

dim ker(T ) + dim Im(T ) = dim V.

Voltemos aos exemplos anteriores.

Exemplo 3.13. Vimos que a transformação linear T (x, y) = x + y, para todo R2


era tal que Im(T ) = R e ker(T ) = [(1, −1)]. Assim, ambos têm dimensão 1. Logo,

dim ker(T ) + dim Im(T ) = 1 + 1 = 2 = dim R2 .

Neste caso, T é sobrejetora.

Exemplo 3.14. A transformação linear T (x, y, z) = (x + 2y − z, y + 2z, x + 3y + z),


para todo (x, y, z) ∈ R3 , é tal que ker(T ) = [(5, −2, 1)] e Im(T ) = [(1, 0, 1), (0, 1, 1)].
Assim,
dim ker(T ) + dim Im(T ) = 1 + 2 = 3 = dim R3 .
3.2. NÚCLEO E IMAGEM 115

Exemplo 3.15. A transformação linear T (x, y, z) = (2x − y − z, x − y − z, x + y − z),


para todo (x, y, z) ∈ R3 é tal que Im(T ) = [(2, 1, 1), (−1, −1, 1), (−1, −1, −1)] e
ker(T ) = {(0, 0, 0)}.

dim ker(T ) + dim Im(T ) = 0 + 3 = 3 = dim R3 .

Note que, neste exemplo, como ker(T ) = {(0, 0, 0)}, T é injetora, além de ser sobre-
jetora.

Exemplo 3.16. Considere a transformação linear

T : Pn (R) −→ Pn+1 (R)


p(x) 7→ xp(x)

e vamos encontrar ker(T ) e Im(T ).


Seja p(x) = a0 + a1 x + a2 x2 + ... + an xn ∈ ker(T ). Então

T (p(x)) = 0
x(a0 + a1 x + a2 x2 + ... + an xn ) = 0 + 0x + 0x2 + ... + 0xn+1
a0 x + a1 x2 + a2 x3 + ... + an xn+1 = 0 + 0x + 0x2 + ... + 0xn+1

implicando em a0 = a1 = a2 = ... = an = 0. Assim, p(x) é o polinômio nulo, ou


seja, ker(T ) = 0
Note que dim ker(T ) = 0. Como dimPn (R) = n + 1, pelo Teorema da Dimensão,

dim ker(T ) + dim Im(T ) = dim Pn (R)


dim Im(T ) = n + 1

Assim, Im(T ) é um subespaço vetorial próprio de Pn+1 (R) de dimensão n+1 . Segue
que T não é sobrejetora. Vamos então encontrar uma base para este subespaço.
Seja q(x) = b0 + b1 x + b2 x2 + ... + bn xn + bn+1 xn+1 um elemento de Im(T ). Então
116 CAPÍTULO 3. TRANSFORMAÇÕES LINEARES

existe um polinômio p(x) = a0 + a1 x + a2 x2 + ... + an xn tal que

T (p(x)) = q(x)
x(a0 + a1 x + a2 x2 + ... + an xn ) = b0 + b1 x + b2 x2 + ... + bn xn + bn+1 xn+1
a0 x + a1 x2 + a2 x3 + ... + an xn+1 = b0 + b1 x + b2 x2 + ... + bn xn + bn+1 xn+1

Assim, b0 = 0, e b1 = a0 , b2 = a1 ,...,bn+1 = an . Logo,

q(x) = b0 + b1 x + b2 x2 + ... + bn xn + bn+1 xn+1

q(x) ∈ [x, x2 , ..., xn , xn+1 ] = Im(T ).

Segue que B = {x, x2 , ..., xn , xn+1 } é base de Im(T ).

Corolário 3.2.3. Consideremos uma transformação linear T : V −→ W tal que


dimV = dimW . Então T é injetora se, e somente se, T é sobrejetora.

Este corolário sai imediatamente da proposição anterior. Se uma transformação

linear entre dois espaços vetoriais é injetora e sobrejetora, dizemos que ela é um
isomorfismo. Neste caso, os espaços vetoriais envolvidos são ditos isomorfos.

Exemplo 3.17. Consideremos a transformação linear

T : P2 (R) −→ R3
a + bt + ct2 7→ (a, a + b, b − c)

Vamos encontrar seu núcleo.


Seja a + bt + ct2 ∈ ker(T ). Então

T (a + bt + ct2 ) = 0
(a, a + b, b − c) = (0, 0, 0)a = b = c = 0

Assim, ker(T ) = {0}, ou seja, T é injetora. Como dimP2 (R) = dimR3 = 3, segue
3.2. NÚCLEO E IMAGEM 117

que T é sobrejetora também.

(dim ker(T ) + dim Im(T ) = 0 + 3 = 3 = dimR3 ).

Segue que T é um isomorfismo.

Corolário 3.2.4. Consideremos uma transformação linear T : V −→ W injetora.


Se dim V = dim W , então T leva base em base.

Demonstração. Consideremos uma transformação linear T : V −→ W e supo-


nhamos que dim V = dim W = n. Se B = {v1 , v2 , ..., vn } é u uma base de V ,
C = {T (v1 ), T (v2 ), ..., T (vn )} é um subconjunto de W cujo número de elementos é
justamente a sua dimensão.
Vamos mostrar que este conjunto é l.i.
Sejam então a1 , a2 , ..., an números reais tais que a1 T (v1 )+a2 T (v2 )+...+an T (vn ) =
0.

T linear =⇒ T (a1 v1 + a2 v2 + ... + an vn ) = 0


T injetora =⇒ a1 v1 + a2 v2 + ... + an vn = 0
B base =⇒ a1 = a2 = ... = an = 0

Assim, C é base de W .

Exemplo 3.18. Dada B = {1, t, t2 } base canônica de P2 (R), consideremos a trans-


formação linear T (a + bt + ct2 ) = (a, a + b, b − c) ∈ R3 já vista anteriormente. Note
que

T (1) = (1 + 0t + 0t2 ) = (1, 1 + 0, 0 − 0) = (1, 1, 0)


T (t) = (0 + t + 0t2 ) = (0, 0 + 1, 1 − 0) = (0, 1, 1)
T (t2 ) = (0 + 0t + t2 ) = (0, 0 + 0, 0 − 1) = (0, 0, −1)

Observe que o conjunto C = {(1, 1, 0), (0, 1, 1), (0, 0, −1)} é l.i. e, portanto, base de
R3 .

Exemplo 3.19. Voltemos agora à transformação linear T (x, y, z) = (2x − y − z, x −


y − z, x + y − z), para todo (x, y, z) ∈ R3 que, já vimos ser um isomorfismo. Dada
118 CAPÍTULO 3. TRANSFORMAÇÕES LINEARES

a base canônica de R3 , B = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}, note que

T (1, 0, 0) = (2, 1, 1)
T (0, 1, 0) = (−1, −1, 1)
T (0, 0, 1) = (−1, −1, −1)

sendo C = {(2, 1, 1), (−1, −1, 1), (−1, −1, −1)} base de R3 .

Quando uma transformação linear T : V −→ W é um isomorfismo, os espaços


vetoriais V e W são considerados algebricamente idênticos, ou seja, isomorfos. Por
outro lado, sempre que V e W forem espaços de mesma dimensão, é possı́vel definir
um isomorfismo entre eles: basta definir T levando uma base de V em uma base de
W , e, poderemos transitar de um espaço para o outro via T e sua inversa T −1 .

Exemplo 3.20. Seja T : P2 (R) −→ R3 tal que T (at2 + bt + c) = (a, b, c). Então
T é um isomorfismo entre os dois espaços vetoriais. A transformação inversa será
T −1 : R3 −→ P2 (R) tal que T (a, b, c) = at2 + bt + c.

3.3 Transformações Lineares e Matrizes


Vimos que, quando trabalhamos com vetores, podemos representá-los como matrizes-
coluna. Por exemplo,
" #
x
(x, y) = x · e1 + y · e2 −→
y
" #
a
(x, y) = a · v1 + b · v2 −→ (x, y) = (a, b)B =
b B

com e1 , e2 elementos da base canônica e B = {v1 , v2 } base de R2 .


Podemos, da mesma forma, associar cada transformação linear a uma matriz e
vice-versa.

Definição 21. Sejam V e W dois espaços vetoriais tais que dimV = n e dimW = m,
e A uma matriz m × n. Definimos então uma transformação linear TA associada a
3.3. TRANSFORMAÇÕES LINEARES E MATRIZES 119

A da seguinte forma:

TA : V −→ W
v 7→ A·v
   
v1 a11 a12 ... a1n
   
 v2   a21 a22 ... a2n 
Assim, se v =  eA= ,

 ... 


 ... 

vn am1 am2 ... amn
     
a11 a12 ... a1n v1 a11 v1 + a12 v2 + ... + a1n vn
     
 a21 a22 ... a2n   v2   a21 v1 + a22 v2 + ... + a2n vv 
TA (v) = A · v =  · = .

 ...  
  ...  
  ... 

am1 am2 ... amn vn am1 v1 + am2 v2 + ... + amn vn

Note que as propriedades de matrizes garantem a linearidade de TA :

TA (u) + TA (v) = A · u + A · v = A · (u + v) = TA (u + v)

αTA (u) = α(A · u) = A · (αu) = TA (αu)


 
2 4
Exemplo 3.21. Considere a matriz A =  3 2 . Podemos então definir uma
 

−1 0
transformação linear a partir de A da seguinte forma:

TA : R2 −→ R3
v 7→ A·v

tal que, se v = (x, y),


   
" # 2 4 " # 2x + 4y
x x
TA (v) = A · = 3 2 · =  3x + 2y  .
   
y y
−1 0 −x

Ou seja, TA (x, y) = (2x + 4y, 3x + 2y, −x), para todo (x, y) ∈ R2 .


120 CAPÍTULO 3. TRANSFORMAÇÕES LINEARES
" #
4 2 1 0
Exemplo 3.22. Considere a matriz A = . Podemos então definir
5 3 −1 0
uma transformação linear a partir de A da seguinte forma:

TA : R4 −→ R2
v 7→ A·v

tal que, se v = (x, y, z, w),


   
x x
  " #   " #
 y  4 2 1 0  y  4x + 2y + z
TA (v) = A ·  = ·  = .

 z 
 5 3 −1 0 
 z 
 5x + 3y − z
w w

Ou seja, TA (x, y, z, w) = (4x + 2y + z, 5x + 3y − z), para todo (x, y, z, w) ∈ R4 .

Consideremos agora uma transformação linear T : V −→ W entre os espaços ve-


toriais V e W de dimensões n e m respectivamente. Será que conseguimos encontrar
uma matriz Am×n tal que T · v = A · v, com v ∈ V ? Vamos trabalhar com alguns
exemplos:

Exemplo 3.23. Consideremos a transformação linear

T : R3 −→ R2
(x, y, z) 7→ (2x + y − z, 3x − 2y + 4z).

Queremos encontrar A tal que

A · [v] = [T (v)]
   
x ! ! x
2x + y − z 2 1 −1
A· y = = · y 
   
3x − 2y + 4z 3 −2 4
z z
!
2 1 −1
Assim, basta tomar A = . Denotaremos A = [T ].
3 −2 4
3.3. TRANSFORMAÇÕES LINEARES E MATRIZES 121

Mas quem são os elementos de A, afinal? Note que, se considerarmos as bases


canônicas de R3 e R2 , teremos

T (1, 0, 0) = (2, 3) = 2(1, 0) + 3(0, 1)


T (0, 1, 0) = (1, −2) = 1(1, 0) − 2(0, 1)
T (0, 0, 1) = (−1, 4) = −1(1, 0) + 4(0, 1)

que são exatamente os valores que compõe as colunas de [T ].

Exemplo 3.24. Dada a transformação linear

T : R2 −→ R3
(x, y) 7→ (4x − y, 3y − 2x, x),

Vamos encontrar [T ].
Considerando as bases canônicas de R2 e R3 , teremos

T (1, 0) = (4, −2, 1) = 4(1, 0, 0) − 2(0, 1, 0) + 1(0, 0, 1)


T (0, 1) = (−1, 3, 0) = −1(1, 0, 0) + 3(0, 1, 0) + 0(0, 0, 1)
 
4 −1
Logo [T ] =  −2 3 .
 

1 0

Exemplo 3.25. Dada a transformação linear

T : R4 −→ R2
(x, y, z, w) 7→ (4x − y − 2w, 3y − 5x + z),

vamos encontrar [T ].
122 CAPÍTULO 3. TRANSFORMAÇÕES LINEARES

Considerando as bases canônicas de R4 e R2 , teremos

T (1, 0, 0, 0) = 4(1, 0) − 5(0, 1)


T (0, 1, 0, 0) = −1(1, 0) + 3(0, 1)
T (0, 0, 1, 0) = 0(1, 0) + 1(0, 1)
T (0, 0, 0, 1) = −2(1, 0) + 0(0, 1)
!
4 −1 0 −2
Logo [T ] = .
−5 3 1 0

Encontramos, assim, a representação matricial para uma transformação linear


em termos das bases canônicas. Mas e se as bases forem outras? Vamos tentar
repetir a ideia do que foi feito anteriormente para um caso mais geral:

Exemplo 3.26. Consideremos a transformação linear

T : R2 −→ R3
(x, y) 7→ (3x, −y, x + 2y),

e as bases B = {(1, 1), (0, 2)} e C = {(0, 3, 0), (−1, 0, 0), (0, 1, 1)} de R2 e R3 respec-
tivamente. Então

T (1, 1) = (3, −1, 3)


T (0, 2) = (0, −2, 4)

Vamos agora escrever estes vetores como combinação linear dos elementos da base.
3.3. TRANSFORMAÇÕES LINEARES E MATRIZES 123

Seja (x, y, z) um elemento qualquer de R3 . Então existem a1 , a2 , a3 reais tais que

(x, y, z) = a1 (0, 3, 0) + a2 (−1, 0, 0) + a3 (0, 1, 1)


= (0, 3a1 , 0) + (−a2 , 0, 0) + (0, a3 , a3 )
=
(−a2 , 3a1 + a3 , a3 )

 a2 = −x

=⇒ a3 = z

a1 = (y − z)/3

y−z
(x, y, z) = (0, 3, 0) − x(−1, 0, 0) + z(0, 1, 1)
3

Assim,

4
T (1, 1) = (3, −1, 3) = − (0, 3, 0) − 3(−1, 0, 0) + 3(0, 1, 1)
3
T (0, 2) = (0, −2, 4) = −3(0, 3, 0) + 0(−1, 0, 0) + 4(0, 1, 1)

Logo a matriz correspondente a T aplicada na base B em relação à base C é dada


por:  
−4/3 −3
[T ]B
C =  −3 0 
 

3 4

Generalizando, se T : V −→ W é uma transformação linear, B = {v1 , v2 , ..., vn } e


C = {w1 , w2 , ..., wm } são bases de V e W respectivamente, então T (v1 ), T (v2 ), ..., T (vn )
são vetores de W e podem ser escritos como combinação linear de C:



 T (v1 ) = a11 w1 + a21 w2 + ... + am1 wm

 T (v ) = a w + a w + ... + a w
2 12 1 22 2 m2 m


 ...

 T (v ) = a w + a w + ... + a w
n 1n 1 2n 2 mn m
124 CAPÍTULO 3. TRANSFORMAÇÕES LINEARES

Neste caso, a matriz de T em relação às bases B e C é dada por


 
a11 a12 ... a1n
a21 a22 ... a2n 
 

[T ]B
C = .. .
.
 
 
am1 am2 ... amn

Assim, através deste resultado, o estudo de transformações lineares entre espaços


vetoriais de dimensão finita é reduzido ao estudo de matrizes.

Exemplo 3.27. Consideremos a transformação linear

T : R3 −→ R2
(x, y, z) 7→ (2x + y − z, 3x − 2y + 4z),

e as bases B = {(1, 1, 1), (1, 1, 0), (1, 0, 0)} e C = {(1, 3), (1, 4)} de R3 e R2 respecti-
vamente. Então

T (1, 1, 1) = (2, 5)
T (1, 1, 0) = (3, 1)
T (1, 0, 0) = (2, 3).

Vamos agora escrever estes vetores como combinação linear dos elementos da base.

Consideremos (x, y) um elemento qualquer de R2 . Então existem a1 , a2 reais tais


que

(x, y) = a1 (1, 3) + a2 (1, 4)


= (a + a2 , 3a1 + 4a2 )
(1
a1 = 4x − y
=⇒
a2 = y − 3x
(x, y) = (4x − y)(1, 3) + (y − 3x)(1, 4)
3.3. TRANSFORMAÇÕES LINEARES E MATRIZES 125

Assim,

T (1, 1, 1) = (2, 5) = 3(1, 3) + (−1)(1, 4)


T (1, 1, 0) = (3, 1) = 11(1, 3) − 8(1, 4)
T (1, 0, 0) = (2, 3) = 5(1, 3) − 3(1, 4)

Logo a matriz correspondente a T aplicada na base B em relação à base C é dada


por: !
3 11 5
[T ]B
C = .
−1 −8 −3

Exemplo 3.28. Consideremos a identidade

I : R2 −→ R2
(x, y) 7→ (x, y),

e as bases B = {(1, 0), (0, 1)} e C = {(−2, 1), (3, 1)} de R2 . Vamos encontrar a
matriz correspondente a I na base B em relação a C.

1 1
T (1, 0) = (1, 0) = − (−2, 1) + (3, 1)
5 5
3 2
T (0, 1) = (0, 1) = (−2, 1) + (3, 1).
5 5
! !
−1/5 3/5 −1 3
Logo [I]B
C = = 51 .
1/5 2/5 1 2
Chamamos esta matriz de matriz mudança de base B para a base C.

Exemplo 3.29. Consideremos a transformação linear T : R2 −→ R3 tal que


 
0 2
[T ]B
C =  −1 0  ,
 

−1 3

sendo B = {(1, 1), (0, 1)} e C = {(0, 3, 0), (−1, 0, 0), (0, 1, 1)}. Vamos encontrar T .
126 CAPÍTULO 3. TRANSFORMAÇÕES LINEARES

Note que

T (1, 1) = 0(0, 3, 0) − 1(−1, 0, 0) − 1(0, 1, 1) = (1, −1, −1)


T (0, 1) = 2(0, 3, 0) + 0(−1, 0, 0) + 3(0, 1, 1) = (0, 9, 3)

Consideremos agora (x, y) ∈ R2 . Então existem a, b reais tais que

(x, y) = a(1, 1) + b(0, 1)


=
(a, a + b)
(
a=x
=⇒
b=y−x
(x, y) = x(1, 1) + (y − x)(0, 1).

Assim,

T (x, y) = T [x(1, 1) + (y − x)(0, 1)]


= xT (1, 1) + (y − x)T (0, 1)
= x(1, −1, −1) + (y − x)(0, 9, 3)
= (x, −10x + 9y, −4x + 3y).

Note que a matriz de T em relação às bases canônicas é dada por:


 
1 0
[T ] =  −10 9  .
 

−4 3

Vamos aproveitar este exemplo e encontrar o Kernell de T .


Consideremos então (x, y) ∈ R2 tal que T (x, y) = (0, 0, 0), ou seja,
   
1 0 ! 0
x
[T ] · [v] =  −10 9  · =  0 .
   
y
−4 3 0

Note que o espaço vetorial formado pelos vetores que satisfazem este sistema
3.3. TRANSFORMAÇÕES LINEARES E MATRIZES 127

homogêneo será exatamente ker(T ). Logo, a nulidade da matriz de coeficientes do


sistema, [T ], é exatamente a dimensão de ker(T ). Por outro lado,

dim R2 = dim ker(T ) + dim Im(T )


2 = (2 − posto([T]) + dim Im(T)
dim Im(T ) = posto([T]).

Este exemplo motiva o seguinte teorema:

Teorema 3.3.1. Sejam T : V −→ W uma aplicação linear, B e C bases dos espaços


vetoriais V e W respectivamente. Então

dim Im(T ) = posto([T]B


C)

dim ker(T ) = nulidade([T]B


C ).

Exemplo 3.30. Consideremos a transformação linear

TA : R3 −→ R3
(x, y, z) 7→ (x + 3y, 4y − z, x + z − y).

Vamos encontrar a dimensão da imagem e do núcleo deT . 


1 3 0
A matriz canônica associada a T é dada por [T ] =  0 4 −1 . Agora
 

1 −1 1
     
1 3 0 1 3 0 1 3 0
 0 4 −1  −→L3 →L3 −L1  0 4 −1  −→L3 →L3 −L2  0 4 −1 
     

1 −1 1 0 −4 1 0 0 0

Logo o posto de [T ] é igual a 2 e a nulidade de [T ] é 1. Portanto, dim Im(T ) = 2 e


dim ker(T ) = 1.
128 CAPÍTULO 3. TRANSFORMAÇÕES LINEARES
Capı́tulo 4

Autovetores e autovalores

Nas aulas passadas, estudamos a relação existente entre matrizes e transformações


lineares.
(
TA : Rm −→ Rn
A ∈ Mn×m (R) =⇒
v 7→ A · v

T : Rm −→ Rn =⇒ ∃ [T ] ∈ Mn×m (R) tal que [T (v)] = [T ]n×m · [v], ∀v ∈ Rm .

Além disso, dim Im(T ) é dada pelo posto de [T ] e dim ker(T ) corresponde à
nulidade de [T ].

Exemplo 4.1. Consideremos a transformação linear

TA : R3 −→ R3
(x, y, z) 7→ (x + 3y, 4y − z, x + z − y).

Vamos encontrar a dimensão da imagem e do núcleo de T .

129
130 CAPÍTULO 4. AUTOVETORES E AUTOVALORES
 
1 3 0
A matriz canônica associada a T é dada por [T ] =  0 4 −1 . Agora
 

1 −1 1
     
1 3 0 1 3 0 1 3 0
 0 4 −1  −→L3 →L3 −L1  0 4 −1  −→L3 →L3 −L2  0 4 −1 
     

1 −1 1 0 −4 1 0 0 0

Logo o posto de [T ] é igual a 2 e a nulidade de [T ] é 1. Portanto, dim Im(T ) = 2 e


dim ker(T ) = 1.
Um operador linear T : V −→ V leva vetores de um espaço nele mesmo. São
exemplos de operadores lineares
• a identidade em R2 ,

I : R2 −→ R2
(x, y) 7→ (x, y),

• o operador correspondente a reflexão no eixo x

T : R2 −→ R2
(x, y) 7→ (x, −y).

Quando trabalhamos com um operador em um espaço vetorial estamos, de certa


forma, modificando os vetores via T nesse espaço. Isso não significa que todos
os vetores são modificados: talvez alguns deles permaneçam iguais, isto é, sejam
mantidos fixos por T . Assim, podem existir v ∈ V não nulos tais que T (v) = v.
Vamos voltar aos nossos exemplos para entender melhor as afirmações acima:
A identidade mantém todos os vetores fixos, enquanto o operador reflexão no
eixo x modifica os vetores no plano. Neste caso, os vetores (x, y) que permanecem
fixos pela ação de T (T (x, y) = (x, y)) são aqueles tais que (x, −y) = (x, y), ou seja,
y = −y, o que acontece apenas se y = 0. Assim, todos os vetores da forma (x, 0),
com x ∈ R2 são vetores fixos de T . Geometricamente, é fácil perceber que a reflexão
em relação ao eixo x apenas mantém fixos os vetores que coincidem com este eixo.
131

Dado um operador T em um espaço vetorial V , vamos agora buscar todos os


vetores não nulos v ∈ V tais que T (v) = λv para algum λ ∈ R. Chamamos estes
vetores de autovetores de T , ou vetores próprios.

Definição 22. Seja T : V −→ V um operador linear. Um vetor v ∈ V , v 6= 0, é


autovetor ou vetor próprio de T , se existe λ ∈ R tal que T (v) = λv. Neste caso, λ é
chamado de autovalor ou valor próprio de T .

OBS: Note que v = 0 não nos interessa, porque T (0) = λ · 0 para todo λ ∈ R.
Assim, ele estará associado a qualquer autovalor.

Exemplo 4.2. Considere o operador linear T tal que T (x, y) = (4x + 5y, 2x + y),
para todo (x, y) ∈ R2 . O vetor (5, 2) é autovetor associados a λ = 6, pois T (5, 2) =
6 · (5, 2).
De fato,

T (5, 2) = (4 · 5 + 5 · 2, 2 · 5 + 2) = (30, 12) = 6 · (5, 2).

Vamos agora verificar se o vetor (2, 1) é autovetor de T .


Se for, existe λ 6= 0 tal que T (2, 1) = λ(2, 1), ou seja,

(4 · 2 + 5 · 1, 2 · 2 + 1) = (13, 5) = (2λ, λ)

Neste caso, λ = 5 e λ = 13/2, o que é um absurdo.


Logo, v = (2, 1) não é autovetor de T .

O que exatamente um operador linear T faz com os autovetores associados a ele?

(i) Em relação ao tamanho/módulo:

– Se |λ| > 1, T leva o vetor v em um vetor de mesma direção, mas tamanho


maior.
– Se |λ| < 1, T leva o vetor v em um vetor de mesma direção, mas tamanho
menor.
– Se |λ| = 1, T leva o vetor v em um vetor de mesma direção e mesmo
tamanho. Assim, v é um vetor fixo.
132 CAPÍTULO 4. AUTOVETORES E AUTOVALORES

(ii) Em relação ao sentido:

– Se λ > 0, T leva o vetor v em um vetor de mesma direção e sentido.


– Se λ < 0, T leva o vetor v em um vetor de mesma direção, mas sentido
oposto.
– Se λ = 0, T leva o vetor v no vetor nulo, ou seja, v ∈ ker(T ).

Considere o operador linear definido sobre R2 cuja matriz canônica é dada por
" #
2 2
A= .
0 1

Para encontrar os autovetores e autovalores associados a T , precisamos considerar


λ ∈ R e v = (x, y) não nulo tais que T (v) = λ · v, ou seja,
" # " #
x x
A· = λ·
y y
" # " # " #
2 2 x λ·x
· =
0 1 y λ·y

 y=0
" # " # ( 
2x + 2y λ·x 2x + 2y = λx
= =⇒ =⇒ ou
y λ·y y = λy 
λ=1

Vamos analisar ambas as possibilidades.


Se y = 0, 2x = λx e, como x 6= 0, temos que λ = 2. Assim, todos os vetores do
tipo (x, 0), x ∈ R, são autovetores associados ao autovalor λ = 2.
Se λ = 1, 2x + 2y = x implica em y = −1/2x. Neste caso, λ = 1 é um autovalor
de T e todos os vetores do tipo (x, −x/2), x ∈ R2 , são autovetores associados ao
autovalor λ = 1. Temos então dois conjuntos, um associado a cada autovalor:

V1 = {(x, −x/2) : x ∈ R}
V2 = {(x, 0) : x ∈ R}

É fácil mostrar que estes dois conjuntos são subespaços vetoriais de R2 .


4.1. DETERMINAÇÃO DE VETORES E VALORES PRÓPRIOS 133

Definição 23. Dado um operador linear T definido sobre o espaço vetorial V , se λ


for um autovalor de T , então Vλ = {v ∈ V : T (v) = λv} é um subespaço vetorial de
V , chamado de subespaço vetorial associado ao autovalor λ.

Voltemos ao operador linear T (x, y) = (4x + 5y, 2x + y), para todo (x, y) ∈ R2 .
Como encontrar os autovalores e autovetores
" associados
# a T?
4 5
Sabendo que a matriz canônica [T ] = , sejam λ ∈ R e (x, y) ∈ R2 não
2 1
nulo tais que T (x, y) = λ(x, y). Então
" # " # " #
4 5 x x
· = λ·
2 1 y y
" # " # (
4x + 5y λ·x 4x + 5y = λx
= =⇒
2x + y λ·y 2x + y = λy

E agora, como resolver?

4.1 Determinação de Vetores e Valores Próprios


Seja A = [T ] um operador linear em Rn . Se v é um autovetor e λ é um autovalor
associado a T , então

T (v) = λ · v
A · [v] = λ · [v]
A · [v] − λ · [v] = 0
A · [v] − λ · I · [v] = 0
(A − λ · I) · [v] = 0

Temos então um sistema homogêneo para resolver. Uma solução existe (v = 0).
Entretanto, nos interessam outras soluções que não a identicamente nula. Desta
maneira o sistema deve ser indeterminado, ou seja,

det(A − λ · I) = 0.
134 CAPÍTULO 4. AUTOVETORES E AUTOVALORES

Esta expressão nos fornece uma maneira de encontrar λ. Vamos então encontrar os
" #
4 5
autovalores da transformação [T ] = . Para isso, consideremos λ ∈ R tal
2 1
que det([T ] − λ · I) = 0. Assim

4−λ 5
= 0


2 1−λ
(4 − λ)(1 − λ) − 10 = 0
λ2 − 5λ − 6 = 0
(λ − 6)(λ + 1) = 0

Assim, encontramos dois autovalores distintos entre si: λ1 = 6 e λ2 = −1. O passo


a seguir é encontrar os autovetores associados a eles.

(i) λ1 = 6

Consideremos v = (x, y) ∈ R2 não nulo tal que T (v) = 6v, isto é,

([T ] − 6 · I2 )[v] = 0

. Então, " # " # " #


4−6 5 x 0
· = .
2 1−6 y 0
" # " # " #
−2 5 x 0
· = .
2 −5 y 0
Logo y = 2/5x, ou seja, v = (x, 2/5x), para todo x real. Desta forma, o
subespaço vetorial dos autovetores associados a λ1 = 6 é dado por

V6 = {(x, 2/5x) : x ∈ R}
= [(5, 2)].

(ii) λ2 = −1 Seja v = (x, y) ∈ R2 não nulo tal que T (v) = −1v, isto é, ([T ] − (−1) · I2 ) [v] =
4.1. DETERMINAÇÃO DE VETORES E VALORES PRÓPRIOS 135

0. Então, " # " # " #


4+1 5 x 0
· = .
2 1+1 y 0
" # " # " #
5 5 x 0
· = .
2 2 y 0
Logo x = −y, ou seja, v = (x, −x), para todo x real. Desta forma, o subespaço
vetorial dos autovetores associados a λ2 = −1 é dado por

V−1 = {(x, −x) : x ∈ R}


= [(1, −1)].

 
7 −2 0
Exemplo 4.3. Considere a matriz canônica de T como sendo A =  −2 6 −2 ,
 

0 −2 5
e vamos encontrar os autovalores e autovatores de T .
Seja λ ∈ R tal que det(A − λ · I) = 0. Então

7 − λ −2 0

−2 6 − λ −2 = 0


0 −2 5 − λ
(7 − λ)(6 − λ)(5 − λ) − [4(7 − λ) + 4(5 − λ)] = 0
(7 − λ)(6 − λ)(5 − λ) − 8(6 − λ) = 0
(6 − λ) [(7 − λ)(5 − λ) − 8] = 0
(6 − λ)(9 − λ)(3 − λ) = 0

Temos então três autovalores a considerar: λ1 = 6, λ2 = 9 e λ3 = 3.

(i) λ1 = 6
Seja v = (x, y, z) ∈ R3 não nulo tal que T (v) = 6v, isto é, ([T ] − 6 · I3 )[v] = 0.
Então,      
7−6 −2 0 x 0
 −2 6 − 6 −2  ·  y  =  0  .
     

0 −2 5 − 6 z 0
136 CAPÍTULO 4. AUTOVETORES E AUTOVALORES
     
1 −2 0 x 0
 −2 0 −2  ·  y  =  0  .
     

0 −2 −1 z 0
Escalonando a matriz de coeficientes, encontramos o seguinte sistema equiva-
lente:      
1 −2 0 x 0
 0 2 1  ·  y  =  0 .
     

0 0 0 z 0
Neste caso, x = 2y e z = −2y, quaisquer que sejam x, y reais. Desta forma, o
subespaço vetorial dos autovetores associados a λ1 = 6 é dado por

V6 = {(2y, y, −2y) : y ∈ R}
= [(2, 1, −2)].

(ii) λ2 = 9

Seja v = (x, y, z) ∈ R3 não nulo tal que T (v) = 9v, isto é, ([T ] − 9 · I3 )[v] = 0.
Então,      
7−9 −2 0 x 0
 −2 6 − 9 −2  ·  y  =  0  .
     

0 −2 5 − 9 z 0
     
−2 −2 0 x 0
 −2 −3 −2  ·  y  =  0  .
     

0 −2 −4 z 0
Escalonando a matriz de coeficientes, encontramos o seguinte sistema equiva-
lente:      
1 1 0 x 0
 0 1 2 · y = 0 .
     

0 0 0 z 0
Neste caso, x = −y e y = −2z, quaisquer que sejam x, y reais. Desta forma,
4.1. DETERMINAÇÃO DE VETORES E VALORES PRÓPRIOS 137

o subespaço vetorial dos autovetores associados a λ2 = 9 é dado por

V9 = {(2z, −2z, z) : z ∈ R}
= [(2, −2, 1)].

(iii) λ3 = 3

Seja v = (x, y, z) ∈ R3 não nulo tal que T (v) = 3v, isto é, ([T ] − 3 · I3 )[v] = 0.
Então,      
7−3 −2 0 x 0
 −2 6 − 3 −2  ·  y  =  0  .
     

0 −2 5 − 3 z 0
     
4 −2 0 x 0
 −2 3 −2  ·  y  =  0  .
     

0 −2 2 z 0
Escalonando a matriz de coeficientes, encontramos o seguinte sistema equiva-
lente:      
2 −1 0 x 0
 0 1 −1  ·  y  =  0 .
     

0 0 0 z 0
Neste caso, y = 2x e z = y, quaisquer que sejam x, y reais. Desta forma, o
subespaço vetorial dos autovetores associados a λ3 = 3 é dado por

V3 = {(x, 2x, 2x) : x ∈ R}


= [(1, 2, 2)].

Observe que os geradores dos subespaços de autovetores associados que encontramos,


(2, −2, 1), (2, 1, −2) e (1, 2, 2) são l.i. Assim, encontramos uma base de R3 formada
por autovetores de T : B = {(2, −2, 1), (2, 1, −2), (1, 2, 2)}. Em relação a esta base,
138 CAPÍTULO 4. AUTOVETORES E AUTOVALORES

a matriz T torna-se uma matriz diagonal:


 
6 0 0
[T ]B =  0 9 0  .
 

0 0 3

4.2 Diagonalização de Operadores


Dada uma transformação linear T : V → V , para cada base B de V , existe uma
matriz [T ]B . Nosso objetivo será obter uma base B tal que esta matriz seja a mais
simples possivel, no caso, uma matriz diagonal.

Propriedade 4.2.1. Vetores próprios associados a valores próprios distintos de um


operador T : V → V são l.i.

Demonstração. Vamos mostrar esta propriedade parcialmente, para o caso de dois


autovalores distintos entre si.
Consideremos λ1 e λ2 autovalores distintos entre si associados a T . Então existem
v1 e v2 não nulos tais que T (v1 ) = λ1 v1 e T (v2 ) = λ2 v2 . Sejam α, β tais que
αv1 + βv2 = 0. Então αv1 = −βv2 . Por outro lado,

αT (v1 ) + βT (v2 ) = 0
α(λ1 v1 ) + β(λ2 v2 ) = 0
λ1 (αv1 ) + λ2 (βv2 ) = 0
λ1 (−βv2 ) + λ2 (βv2 ) = 0
(λ2 − λ1 )βv2 = 0.

Como λ2 6= λ1 e v2 6= 0, segue que β = 0 e, consequentemente, α = 0. Portanto, v1


e v2 são l.i.

Assim, sempre que T : R2 → R2 possuir dois autovalores distintos, os autovetores


associados formam uma base de R2 . Analogamente, se T : Rn → Rn possuir n
autovalores distintos, os n autovetores associados formam uma base B de Rn .
4.2. DIAGONALIZAÇÃO DE OPERADORES 139

Exemplo 4.4. Consideremos T (x, y) = (−3x−5y, 2y), para todo (x, y) ∈ R2 . Então
" #
−3 −5
A = [T ] = .
0 2

Vamos encontrar os autovalores associados a A:



−3 − λ −5
det(A − λI) =


0 2−λ
(
λ1 = −3
= (−3 − λ)(2 − λ) = 0 =⇒
λ2 = 2

Encontremos agora os autovetores associados a cada autovalor:

• λ1 = −3:
! ! !
−3 + 3 −5 x 0
= =⇒ y = 0
0 2+3 y 0

V−3 = {(x, 0)| x ∈ R} = [(1, 0)].

• λ2 = 2:
! ! !
−3 − 2 −5 x 0
= =⇒ y = −x
0 2−2 y 0

V2 = {(x, −x)| x ∈ R} = [(1, −1)].

Então B = {(1, 0), (1, −1)} é base de R2 (na verdade, R2 = V−3 ⊕ V2 ).


Agora, T (1, 0) = −3(1, 0) e T (1, −1) = 2(1, −1). Portanto,
!
−3 0
[T ]B =
0 2

Propriedade 4.2.2. A equação caracterı́stica da uma matriz simétrica tem apenas


raı́zes reais.
140 CAPÍTULO 4. AUTOVETORES E AUTOVALORES

Demonstração. Vamos fazer uma prova parcial, supondo que a matriz seja de ordem
dois. Consideremos então uma matriz simétrica

" #
a b
.
b c

A equação caracterı́stica desta matriz será dada por :



a−λ b
|A − λI| = = (a − λ)(b − λ) − b2

b c−λ
= λ2 − (a + c)λ + (ac − b2 ) = 0.

Para encontrar as raı́zes, precisamos aplicar a Fórmula de Bhaskara,



−(a + c) ± ∆
λ= , onde ∆ = (a + c)2 − 4.1.(ac − b2 )
2
= a2 + 2ac + c2 − 4ac + 4b2
= a2 − 2ac + c2 + b2
= (a − c)2 + b2 > 0,

implicando na equação caracterı́stica ter apenas raı́zes reais.

Definição 24. Seja T um operador linear definido em um espaço vetorial V de


dimensão n. Dizemos que T é diagonalizável quando existe uma base de V composta
exclusivamente por autovetores associados a T .

Assim, se B = {v1 , v2 , ...vn } é uma base de R3 formada por autovetores de T ,


podemos reescrever [T ] como uma matriz diagonal:
 
λ1 0 0 ... 0
0 λ2 0 ... 0
 
 
[T ]B
B = .. .. .. .. =D
. . . .
 
 
0 0 0 ... λn

onde λi é o autovalor associado ao autovetor vi respectivamente.


4.2. DIAGONALIZAÇÃO DE OPERADORES 141
 
3 0 −4
Exemplo 4.5. Considere a matriz canônica de T como sendo A =  0 3 5 ,
 

0 0 −1
e vamos encontrar os autovalores e autovatores de T .
Seja λ ∈ R tal que det(A − λ · I) = 0. Então

3−λ 0 −4

0 3−λ 5 = 0


0 0 −1 − λ
(3 − λ)2 (−1 − λ) = 0

Temos então dois autovalores a considerar: λ1 = −1 e λ2 = 3, de multiplicidade


dois.

(i) λ1 = −1

Seja v = (x, y, z) ∈ R3 não nulo tal que T (v) = −1v, isto é, (A + 1 · I3 )[v] = 0.
Então,      
3+1 0 −4 x 0
 0 3+1 5  ·  y  =  0 .
     

0 0 −1 + 1 z 0
Escalonando a matriz de coeficientes, encontramos o seguinte sistema equiva-
lente:      
4 0 −4 x 0
 0 4 5  ·  y  =  0 .
     

0 0 0 z 0

Neste caso, x = z e y = − 45 z, qualquer que seja z real. Desta forma, o


subespaço vetorial dos autovetores associados a λ1 = −1 é dado por

5
V−1 = {(z, − z, z) : z ∈ R} = [(4, −5, 4)].
4

(ii) λ2 = 3

Seja v = (x, y, z) ∈ R3 não nulo tal que T (v) = 3v, isto é, ([T ] − 3 · I3 )[v] = 0.
142 CAPÍTULO 4. AUTOVETORES E AUTOVALORES

Então,      
3−3 0 −4 x 0
 0 3−3 5  ·  y  =  0 .
     

0 0 −1 − 3 z 0
Escalonando a matriz de coeficientes, encontramos o seguinte sistema equiva-
lente:      
0 0 −4 x 0
 0 0 5  ·  y  =  0 .
     

0 0 −4 z 0
Neste caso, z = 0, quaisquer que sejam x, y reais. Desta forma, o subespaço
vetorial dos autovetores associados a λ2 = 3 é dado por

V9 = {(x, y, 0) : x, y ∈ R} = [(1, 0, 0), (0, 1, 0)].

Note que λ2 = 3 tinha multiplicidade dois, e o subespaço de autovetores


associados a λ2 tem dimensão 2.

Novamente, os geradores dos subespaços de autovetores associados que encontramos,


(4, −5, 4), (1, 0, 0) e (0, 1, 0) são l.i. Assim, encontramos uma base de R3 formada
por autovetores de T : B = {(4, −5, 4), (1, 0, 0), (0, 1, 0)}. Em relação a esta base, a
matriz T torna-se uma matriz diagonal:
 
−1 0 0
[T ]B =  0 3 0  .
 

0 0 3

Exemplo
 4.6. Consideremos agora a matriz canônica de T como sendo A =
3 −3 −4
 0 3 5 , e vamos encontrar os autovalores e autovatores de T .
 

0 0 −1
4.2. DIAGONALIZAÇÃO DE OPERADORES 143

Seja λ ∈ R tal que det(A − λ · I) = 0. Então



3 − λ −3 −4

0 3−λ 5 = 0


0 0 −1 − λ
(3 − λ)2 (−1 − λ) = 0

Temos novamente dois autovalores a considerar: λ1 = −1 e λ2 = 3, de multiplicidade


dois.

(i) λ1 = −1
Seja v = (x, y, z) ∈ R3 não nulo tal que T (v) = −1v, isto é, (A + 1 · I3 )[v] = 0.
Então,      
3 + 1 −3 −4 x 0
 0 3+1 5  ·  y  =  0 .
     

0 0 −1 + 1 z 0
Escalonando a matriz de coeficientes, encontramos o seguinte sistema equiva-
lente:      
4 −3 −4 x 0
 0 4 5 · y = 0 .
     

0 0 0 z 0
1
Neste caso, x = − 16 z e y = − 45 z, qualquer que seja z real. Desta forma, o
subespaço vetorial dos autovetores associados a λ1 = −1 é dado por

1 5
V−1 = {(− z, − z, z) : z ∈ R} = [(−1, −20, 16)].
16 4

(ii) λ2 = 3
Seja v = (x, y, z) ∈ R3 não nulo tal que T (v) = 3v, isto é, (A − 3 · I3 )[v] = 0.
Então,      
3 − 3 −3 −4 x 0
 0 3−3 5 · y = 0 .
     

0 0 −1 − 3 z 0
Escalonando a matriz de coeficientes, encontramos o seguinte sistema equiva-
144 CAPÍTULO 4. AUTOVETORES E AUTOVALORES

lente:      
0 −3 −4 x 0
 0 0 5  ·  y  =  0 .
     

0 0 −4 z 0
Neste caso, y = z = 0, quaisquer que seja x real. Desta forma, o subespaço
vetorial dos autovetores associados a λ2 = 3 é dado por

V9 = {(x, 0, 0) : x, y ∈ R} = [(1, 0, 0)].

Note que λ2 = 3 tinha multiplicidade dois, e o subespaço de autovetores


associados a λ2 tem dimensão 1.

Novamente, os geradores dos subespaços de autovetores associados que encontramos,


(−1, −20, 16) e (1, 0, 0) são l.i., mas não formam uma base de R3 . Desta maneira,
não conseguimos diagonalizar T .

Esses dois exemplos motivam as seguintes definições:

Definição 25. Seja λ um autovalor associado ao operador linear T . Chamamos de


multiplicidade algébrica de λ (m.a.(λ)) à multiplidade de λ como raiz da equação ca-
racterı́stica, e de multiplicidade geométrica de λ (m.g.(λ)) à dimensão do subespaço
vetorial de autovetores Vλ associados a λ.

Note que m.a.(λ) ≤ m.g.(λ). Por outro lado, T será diagonalizável se, e somente
se, m.a.(λ) = m.g.(λ) para todos os autovalores λ de T .
Já sabemos diagonalizar um operador T quando for possı́vel, ou seja, sair da
matriz A = [T ] em relação à base canônica e encontrar a matriz D = [T ]B B diago-
nalizada. Estas matrizes A e D são ditas semelhantes, por representarem o mesmo
operador T em bases distintas. É possı́vel mostrar então que D = P −1 AP , onde P
é a matriz mudança de base da base C para a base canônica C (P = [I]C B ). Este
fato motiva a seguinte definição:

Definição 26. Uma matriz quadrada A é diagonalizável se existe uma matriz in-
versı́vel P tal que P −1 AP é uma matriz diagonal.

Exemplo 4.7. Considerando o operador T em R2 dado por T (x, y) = (4x + 5y, 2x +


y), vamos encontrar uma base para a qual a matriz T seja diagonal.
4.2. DIAGONALIZAÇÃO DE OPERADORES 145

A matriz canônica do operador é


" #
4 5
A= .
2 1

Vamos então encontrar os autovalores de A via equação caracterı́stica:



4−λ 5
|A − λI| = = (4 − λ)(1 − λ) − 10

2 1−λ
= (λ − 6)(λ + 1) = 0.

Assim, λ1 = 6 e λ2 = −1, e os espaços de autovetores associados serão, respectiva-


mente, V6 = [(5, 2)] e V−1 = [(1, −1)]. Segue que, tomando
" #
5 1
P = ,
2 −1

" #
6 0
D= = P −1 AP
0 −1
" # " #" #
1/7 1/7 4 5 5 1
= .
2/7 −5/7 2 1 2 −1
146 CAPÍTULO 4. AUTOVETORES E AUTOVALORES
Capı́tulo 5

Produto Interno

Em Geometria Anaı́tica, você estudou o produto escalar entre dois vetores ~u e ~v em


V2 : supondo ~u = (x1 , y1 ) e ~v = (x2 , y2 ), você viu que

h~u, ~v i = ~u · ~v = x1 x2 + y1 y2 .

Este produto fornecia importantes informações geométricas, como

• tamanho de um vetor:
p
k~uk = h~u, ~ui = ~u · ~v

• ângulo entre dois vetores:

h~u, ~v i ~u · ~v
cos θ = = .
k~ukk~v k k~ukk~v k

Nosso objetivo agora será estender esta definição para outros espaços vetoriais, de-
finindo sobre eles uma operação que possua as mesmas propriedades do produto
escalar, que chamaremos de produto interno.

Definição 27. Seja V um espaço vetorial. Definimos produto interno como sendo
uma operação:

h , i:V ×V −→ R
(u, v) 7→ hu, vi,

147
148 CAPÍTULO 5. PRODUTO INTERNO

satisfazendo as seguintes propriedades:

P1. hu, vi = hv, ui, para todos u, v ∈ V .

P2. hu, v + wi = hu, vi + hu, wi para todos u, v, w ∈ V .

P3. hαu, vi = αhu, vi para todos u, v ∈ V , α ∈ R.

P4. hu, ui ≥ 0 para todo u ∈ V , sendo que hu, ui = 0 ↔ u = 0.

Exemplo 5.1. Em R2 , a operação hu, vi = x1 x2 + y1 y2 quaisquer que sejam u =


(x1 , y1 ) e v = (x2 , y2 ) em R2 é um produto interno. Em geral, dados u = (x1 , x2 , ..., xn )
e v = (y1 , y2 , ..., yn ) em Rn , a operação

hu, vi = x1 y1 + x2 y2 + ... + xn yn

define um produto interno chamado de produto interno usual ou canônico.

Exemplo 5.2. No espaço vetorial das funções contı́nuas definidas no intervalo [0, 1],
C[0, 1], a operação a seguir configura um produto interno:
Z 1
hf, gi = f (x)g(x)dx ∀f, g ∈ C[0, 1].
0

Exemplo 5.3. Em M2×2 , a seguinte operação define um produto interno:


*" # " #+
a11 a12 b11 b12
, = a11 b11 + a12 b12 + a21 b21 + a22 b22 .
a21 a22 b21 b22

Exemplo 5.4. Em P2 (R), dados dois vetores quaisquer p(x) = a0 + a1 x + a2 x2 e


q(x) = b0 + b1 x + b2 x2 , a operação a seguir define um produto interno:

hp, qi = a0 b0 + a1 b1 + a21 b21 + a22 b22 .

Quando consideramos um espaço vetorial munido de um produto interno, di-


zemos que este espaço é euclideano. Esta nomenclatura se justifica pelo fato do
5.1. NORMA DE UM VETOR 149

produto interno possibilitar a definição de comprimento (módulo) de vetores como


de distância entre dois vetores. Acompanhe:

5.1 Norma de um Vetor


Definição 28. Dado um vetor v em um espaço vetorial V , definimos módulo ou
norma ou comprimento de v como sendo
p
kvk = hv, vi,

e a distância entre dois vetores como

d(u, v) = ku − vk.

5.1.1 Propriedades da Norma


Propriedade 5.1.1. Dado um vetor v em um espaço vetorial V , kvk ≥ 0, sendo
que kvk = 0 se, e somente se, v = 0.

Propriedade 5.1.2. Dado um vetor v em um espaço vetorial V , kαvk = |α|kvk,


qualquer que seja α ∈ R.

Propriedade 5.1.3. (Desigualdade de Schwarz) Dados u, v vetores em um espaço


vetorial V , |hu, vi| ≤ kukkvk.
Demonstração. Sejam u, v vetores de um espaço vetorial V munido de produto in-
terno. Se u = 0 ou v = 0, então |hu, vi| = kukkvk = 0. Suponhamos então que u e v
são não nulos. Dado α ∈ R, sabemos que hu + αv, u + αvi = ku + αvk2 e, portanto,
hu + αv, u + αvi ≥ 0. Por outro lado,

hu + αv, u + αvi = hu, ui + hu, αvi + hαv, ui + hαv, αvi


= kuk2 + 2αhu, vi + |α|2 kvk
≥ 0.
150 CAPÍTULO 5. PRODUTO INTERNO

Consideremos então o polinômio p(α) = kvkα2 + 2hu, viα + kuk2 . Como kvk2 > 0,
temos que a concavidade do gráfico deste polinômio é voltada para cima. Além
disso, note que p(α) ≥ 0 qualquer que seja α. Assim, ou este polinômio tem uma
única raı́z ou ele não possui raı́zes reais, ou seja, o discriminante deste poliômio
necessariamente é menor ou igual a zero:

∆ = (2hu, vi)2 − 4|uk2 kvk2 ≤ 0


4(hu, vi)2 ≤ 4|uk2 kvk2
|hu, vi| ≤ |ukkvk

Propriedade 5.1.4. (Desigualdade Triangular) Dados u, v vetores em um espaço


vetorial V ,
ku + vk ≤ kuk + kvk.

Uma consequência da Desigualdade de Schwarz é que, como |hu, vi| ≤ |ukkvk,

|hu, vi|
≤ 1,
|ukkvk

ou seja,
hu, vi
−1 ≤ ≤ 1.
|ukkvk
Esse fato nos motiva a definir um ângulo entre dois vetores u, v de um espaço vetorial
V como sendo θ ∈ [0, π] tal que

hu, vi
cos θ = .
kukkvk

5.2 Vetores Ortogonais


Seja V um espaço vetorial munido de produto interno h , i. Dizemos que dois vetores
u, v ∈ V são ortogonais se hu, vi = 0. Neste caso, utilizamos a seguinte notação:
u ⊥ v.
5.2. VETORES ORTOGONAIS 151

Exemplo 5.5. Consideremos em R2 o produto interno:

h(x1 , y1 ), (x2 , y2 )i∗ := x1 x2 + 2y1 y2 ,

quaiquer que sejam (x1 , y1 ), (x2 , y2 ) ∈ R2 (prove que esta operação realmente é um
produto interno). Vamos verificar se os vetores (−3, 2) e (4, 3) são ortogonais:

h(−3, 2), (4, 3)i∗ = −3 · 4 + 2 · 2 · 3 = 0 =⇒ (−3, 2) ⊥ (4, 3)

Note que, considerando o produto interno usual, estes vetores não seriam ortogonais,
pois
h(−3, 2), (4, 3)i = −3 · 4 + 2 · 3 = −6 6= 0.

5.2.1 Propriedades de Ortogonalidade:


Vamos ver algumas propriedades de ortogonalidade. A maioria delas é de fácil
demonstração. Consideremos um espaço vetorial V munido de produto interno
h , i.

Propriedade 5.2.1. Qualquer que seja v ∈ V , 0 ⊥ v.

De fato,
h0, vi = h0 · w, vi = 0 · hw, vi = 0.

Propriedade 5.2.2. Dados u, v ∈ V , se u ⊥ v, então v ⊥ u.

Propriedade 5.2.3. Dados u, v, w ∈ V , se u ⊥ v e w ⊥ v, então u + w ⊥ v.

Propriedade 5.2.4. Se v ∈ V é um vetor tal que v ⊥ u para todo u ∈ V , então


v = 0.
152 CAPÍTULO 5. PRODUTO INTERNO

De fato, se v ⊥ u = 0 para todo u ∈ V , então hu, vi = 0 para todo u ∈ V , em


particular, para u = v. Logo hv, vi = 0 e, portanto, v = 0.

Propriedade 5.2.5. Dados u, v ∈ V tais que v ⊥ u, então (α · v) ⊥ u, para todo


α ∈ R.

5.3 Bases Ortogonais


Consideremos agora um conjunto de vetores B = {v1 , v2 , ..., vn } não nulos de um
espaço vetorial V dois a dois ortogonais, ou seja, tais que

hvi , vj i = 0, i 6= j.

Vamos mostrar que esta condição garante a independência linear do conjunto B.


Sejam a1 , a2 , ..., an números reais tais que

a1 v1 + a2 v2 + ... + an vn = 0.

Fixando agora i entre 1 e n, temos que

ha1 v1 + a2 v2 + ... + an vn , vi i = 0.

Por outro lado, pelas propriedades de produto interno,

ha1 v1 + a2 v2 + ... + an vn , vi i = a1 hv1 , vi i + a2 hv2 , vi i + ... + an hvn , vi i


= ai hvi , vi i = 0.

Como vi 6= 0, hvi , vi i =
6 0, implicando em ai = 0, qualquer que seja i. Portanto,
a1 = a2 = ... = an = 0, e B é, de fato, l.i.
Assim, se o espaço vetorial estiver munido de um produto interno e se conhecer-
mos uma base B deste espaço constituı́da por vetores ortogonais - a chamada base
5.3. BASES ORTOGONAIS 153

ortogonal - existe um procedimento padrão para encontrar as coordenadas de um


vetor qualquer em relação a elas.
Seja B = {v1 , v2 , ..., vn } uma base ortogonal de V . Dado w ∈ V , vamos escrevê-
lo como combinação linear de B, ou seja, queremos encontrar a1 , a2 , ..., an números
reais tais que w = a1 v1 + a2 v2 + ... + an vn . Então, para cada i,

hw, vi i = ha1 v1 + a2 v2 + ... + an vn , vi i


= a1 hv1 , vi i + a2 hv2 , vi i + ... + an hvn , vi i
= ai hvi , vi i

hw, vi i hw, vi i
=⇒ a1 = = , i = 1, 2, ..., n.
hvi , vi i kvi k2

Podemos então enunciar o seguinte resultado:

Proposição 5.3.1. Se V é um subespaço vetorial de dimensão n munido de produto


interno e se B = {v1 , v2 , ..., vn } é um conjunto de vetores dois a dois ortogonais,
então B é uma base de V , denominada base ortogonal.

Exemplo 5.6. No espaço vetorial V3 , os vetores ~i, ~j, ~k definem uma base ortogonal,
pois, considerando o produto escalar,

~i · ~j = ~i · ~k = ~k · ~j = 0.

Entretanto, esta não é a única base ortogonal:


o conjunto formado pelos vetores ~u = (1, 2, −3), ~v = (3, 0, 1) e w
~ = (1, −5, −3)}
também forma uma base ortogonal (verifique).

Exemplo 5.7. No espaço vetorial R2 munido do produto interno usual, os vetores


(1, 1) e (−1, 1) definem uma base ortogonal. De fato,

h(1, 1), (−1, 1)i = 1 − 1 = 0.


154 CAPÍTULO 5. PRODUTO INTERNO

Vamos ver como podemos escrever o vetor (2, 3) em relação a esta base:

h(2, 3), (1, 1)i =2+3 =5


h(2, 3), (−1, 1)i = −2 + 3 =1
h(1, 1), (1, 1)i =1+1 =2
h(−1, 1), (−1, 1)i =1+1 =2

Logo (2, 3) = 25 (1, 1) + 21 (−1, 1), ou seja,


" #
5/2
[(2, 3)]E = .
1/2 B

Embora seja mais fácil do que precisar encontrar as coordenadas via combinação
linear/sistemas, esse método ainda requer certa quantidade de contas, pois é ne-
cessária calcular a norma de cada vi pertencente à base. Seria mais fácil se os vetores
da base ortogonal possuı́ssem todos norma 1 - os chamados vetores unitários.

Definição 29. Se B = {v1 , v2 , ..., vn } é uma base ortogonal do espaço vetorial V tal
que kvi k = 1, para cada i = 1, 2, ..., n, dizemos que B é uma base ortonormal de V .

Exemplo
n √ 5.8.
 A
 base canônica em R2 munido do produto interno usual, o conjunto
√ √ o
B= , , −2 1 , 23
3 1
2 2
é uma base ortonormal.

Note que sempre é possı́vel obtermos uma base ortonormal a partir de uma base
ortogonal: basta dividir os vetores por sua norma.

Corolário 5.3.2. De B = {v1 , v2 , ..., vn } é uma base ortogonal do espaço vetorial


V , então  
v1 v2 vn
B= , , ...,
kv1 k kv2 k kvn k
é uma base ortonormal de V .

Este processo é chamado de normalização de vetores.


5.4. PROCESSO DE ORTOGONALIZAÇÃO DE GRAM-SCHMIDT 155

Exemplo 5.9. Consideremos a base B = {(1, 1, 1), (−2, 1, 1), (0, −1, 1)} de R3 mu-
nido do produto interno usual. Esta base é ortogonal, pois

h(1, 1, 1), (−2, 1, 1)i = h(1, 1, 1), (0, −1, 1)i = h(−2, 1, 1), (0, −1, 1)i = 0

Além disso,

h(1, 1, 1), (1, 1, 1)i = 3 =⇒ k(1, 1, 1)k = 3

h(−2, 1, 1), (−2, 1, 1)i = 6 =⇒ k(−2, 1, 1)k = 6

h(0, −1, 1), (0, −1, 1)i = 2 =⇒ k(0, −1, 1)k = 2

Assim, temos a base normalizada


     
1 1 1 2 1 1 1 1
B= √ ,√ ,√ , − √ , √ , √ , 0, − √ , √ .
3 3 3 6 6 6 2 2

5.4 Processo de Ortogonalização de Gram-Schmidt

Vimos nas últimas aulas as vantagens de trabalhar com bases ortogonais ou ortonor-
mais de espaços vetoriais munidos de produto interno. Entretanto, aparentemente,
encontrar uma base ortogonal pode não ser tão simples, caso o espaaço vetorial te-
nha dimensão maior que dois, por exemplo. Veremos agora que, na verdade, a partir
de uma base qualquer, podemos construir uma base ortonormal. Este método é co-
nhecido como processo de ortogonalização de Gram-Schmidt, e nosso objetivo será
aprender a utilizá-lo.
Consideremos uma base B = {v1 , v2 , ..., vn } de um espaço vetorial V munido
de produto interno e vamos construir a partir de B uma base ortonormal de V ,
B 0 = {v10 , v20 , ..., vn0 }. Começaremos definindo v10 = v1 .
Queremos encontrar agora v20 ortogonal a v10 , ou seja, tal que hv10 , v20 i = 0. Como
v10 e v2 são l.i., vamos construir v20 a partir de uma combinação linear entre v10 e v2 :

v20 = v2 + c · v10 ,
156 CAPÍTULO 5. PRODUTO INTERNO

para algum c ∈ R. Por outro lado,

hv10 , v20 i = 0 =⇒ hv10 , v2 + c · v10 i = 0


=⇒ hv10 , v2 i + c · hv10 , v10 i = 0
=⇒ c · hv10 , v10 i = −hv10 , v2 i
hv 0 , v2 i
=⇒ c = − 10 0
hv1 , v1 i
hv 0 , v2 i
=⇒ c = − 1 0 2
kv1 k

Portanto,
hv10 , v2 i 0
v20 = v2 − · v1 .
kv10 k2
Você pode observar que a constante obtida é exatamente a coordenada de v2 em
relação ao elemento da base v1 = v10 . Isso significa, geometricamente, que v20 está
sendo obtido extraindo-se a projeção de v2 na direção de v10 :

Precisamos agora encontrar v30 ortogonal a v10 e v20 linearmente independente com
ambos. Como v3 é l.i. com v1 e v2 e v10 e v20 foram obtidos como combinações lineares
de v1 e v2 , definiremos v30 como combina cão linear de v10 , v20 e v3 :

v30 = v3 + m · v10 + k · v20 ,

para m, k ∈ R. Por outro lado,

hv10 , v30 i = 0 =⇒ hv10 , v3 + m · v10 + k · v20 i = 0


=⇒ hv10 , v3 i + m · hv10 , v10 i + k · hv10 , v20 i = 0
=⇒ hv10 , v3 i + m · hv10 , v10 i + k · 0 = 0
hv 0 , v3 i
=⇒ m = − 10 0
hv1 , v1 i
hv 0 , v3 i
=⇒ m = − 1 0 2
kv1 k
5.4. PROCESSO DE ORTOGONALIZAÇÃO DE GRAM-SCHMIDT 157

e, de modo análogo, mostra-se que

hv20 , v3 i
k=−
kv20 k2

Encontramos assim um padrão para ortogonalizarmos a base:


0
hvk , v10 i 0 hvk , v20 i 0 hvk , vk−1 i 0
vk0 = vk − 0 2
· v1 − 0 2
· v2 + ... − 0 2
· vk−1 , 1 ≤ k ≤ n
kv1 k kv2 k kvk−1 k

Exemplo 5.10. Consideremos B = {(2, 1), (1, 1)} base de R2 com o produto interno
usual. Note que esta base não é ortogonal:

hv1 , v2 i = 2 · 1 + 1 · 1 = 3.

Vamos então ortogonalizar esta base:

v10 = v1 = (2, 1)
hv2 , v10 i 0
v20 = v2 − · v1
kv10 k2

Como kv10 k2 = hv10 , v10 i = h(2, 1), (2, 1)i = 5, temos que
 
h(1, 1), (2, 1)i 1 2
v20 = (1, 1) − · (2, 1) = − , .
5 5 5

Encontramos assim uma base ortogonal a partir de B:


  
0 1 2
B = (2, 1), − , .
5 5

Exemplo 5.11. Suponhamos agora que quiséssemos ortogonalizar a mesma base


de R2 , B = {(2, 1), (1, 1)}, mas considerando um produto interno não usual, por
exemplo,
h(x1 , y1 ), (x2 , y2 )i∗ = 2x1 x2 + 3y1 y2 .
158 CAPÍTULO 5. PRODUTO INTERNO

Mesmo para este produto interno, B não é ortogonal:

hv1 , v2 i∗ = 2 · 2 · 1 + 3 · 1 · 1 = 7.

Vamos então ortogonalizar B:

v10 = v1 = (2, 1)
hv2 , v10 i∗ 0
v20 = v2 − · v1
kv10 k2∗

Agora kv10 k2∗ = hv10 , v10 i∗ = h(2, 1), (2, 1)i∗ = 2 · 2 · 2 + 3 · 1 · 1 = 11, e
 
7 3 4
v20 = (1, 1) − · (2, 1) = − , .
11 11 11

Encontramos assim uma base ortogonal a partir de B:


  
3 4
B∗0 = (2, 1), − , .
11 11

Claramente, B∗0 6= B 0 , pois o produto interno considerado foi outro.

Assim, dado um espaço vetorial de dimenssão finita munido de produto interno,


podemos obter uma base ortogonal a partir de qualquer base B do espaço. Agora, se
podemos obter uma base ortogonal, podemos obter também uma base ortonormal:
basta dividir cada vetor por sua norma.

Exemplo 5.12. Voltemos aos exemplos anteriores:


Considerando R2 com o produto interno usual, encontramos a base ortogonal
B 0 = (2, 1), − 51 , 25 . Para ortonormalizá-la, precisamos calcular as normas dos
 

vetores de B 0 :
p √
k(2, 1)k = h(2, 1), (2, 1)i = 5
  s    √
1
− , 2 1 2 1 2 5
= − , , − , = .
5 5 5 5 5 5 5
5.4. PROCESSO DE ORTOGONALIZAÇÃO DE GRAM-SCHMIDT 159

Temos então uma base ortornormal:


   
00 2 1 1 2
B = √ , √ , −√ , √ .
5 5 5 5

Por outro lado, tomando o produto interno não usual h(x1 , y1 ), (x2 , y2 )i∗ =
2x1 x2 + 3y1 y2 . de R2 , obtivemos outra base ortogonal:
  
00 3 4
B = (2, 1), − , .
11 11

Se quisérmos ortonormalizá-la, precisamos calcular as normas dos vetores de B 00 :



kv10 k∗ = 2 · 2 · 2 + 3 · 1 · 1 = 11
  s     √
3
− , 4 3 3 4 4 66
= 2· − ,· − +3· · = .
11 11 ∗ 11 11 11 11 11

A base ortonormal será, assim,


   
2 1 3 4
B∗00 = √ ,√ , −√ , √ .
11 11 66 66

Exemplo 5.13. Vamos encontrar uma base ortonormal para R3 munido do produto
interno usual, partindo da base B = {(1, 1, 1), (0, 1, 1), (0, 0, 1)}. Note que B não é
ortogonal, pois

h(1, 1, 1), (0, 1, 1)i = 2


h(1, 1, 1), (0, 0, 1)i = 1
h(0, 0, 1), (0, 1, 1)i = 1

Vamos inicialmente ortonogalizar B mas, para facilitar os cálculos, vamos interver


a ordem dos elementos de B: tomemos B = {(0, 0, 1), (0, 1, 1), (1, 1, 1)}. Então

v10 = v1 = (0, 0, 1)
hv2 , v10 i 0 h(0, 1, 1), (0, 0, 1)i
v20 = v2 − 0 2
· v1 = (0, 1, 1) − · (0, 0, 1)
kv1 k k(0, 0, 1)k2
160 CAPÍTULO 5. PRODUTO INTERNO

Vamos encontrar v20 :

k(0, 0, 1)k2 = h(0, 0, 1), (0, 0, 1)i = 1


1
v20 = (0, 1, 1) − · (0, 0, 1) = (0, 1, 0)
1

Podemos agora encontrar v30 :

hv3 , v10 i 0 hv3 , v20 i 0


v30 = v3 − · v1 − · v2
kv10 k2 kv20 k2
h(1, 1, 1), (0, 0, 1i h(1, 1, 1), v20 i 0
= (1, 1, 1) − · (0, 0, 1) − · v2 .
k(0, 0, 1)k2 kv20 k2
1 h(1, 1, 1), (0, 1, 0)i
= (1, 1, 1) − · (0, 0, 1) − · (0, 1, 0)
1 k(0, 1, 0)k2
= (1, 1, 1) − (0, 0, 1) − (0, 1, 0)
= (1, 0, 0).

Encontramos então a base ortogonal C = {(0, 0, 1), (0, 1, 0), (1, 0, 0)}, que por acaso
é a base canônica de R3 e, portanto ortonormal.
Referências Bibliográficas

[1] J.L. Boldrini. Algebra linear. HARBRA, 1986.

[2] A. Steinbruch and P. Winterle. Introdução à algebra linear. Makron Books, 1990.

161

Você também pode gostar