Você está na página 1de 184

Notas de Aula: Álgebra Linear

Dimidium facti qui coepit habet: sapere aude incipe

Universidade Federal de Uberlândia


2021
Sumário

1 Algumas ideias de Geometria 4


1.1 Vetores em Geometria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Sistemas de coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Soma e produto por números reais no Rn . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4 Parametrizações de reta e plano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.5 O problema geométrico da interseção . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.6 O problema do ângulo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.7 Projeção de Vetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

2 Sistemas Lineares 21
2.1 Resolvendo Sistemas Lineares: Operações Elementares . . . . . . . . . . . . . . . . . . 23
2.2 Tipos de Solução de um Sistema Linear . . . . . . . . . . . . . . . . . . . . . . . . . . 30

3 Matrizes 35
3.1 Sı́mbolo que representa uma função . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2 Operações com Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.3 Propriedades da soma, do produto de matrizes e do produto por números reais. . . . . 43
3.4 Matrizes Inversas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.5 Método para calcular inversa de uma matriz. . . . . . . . . . . . . . . . . . . . . . . . 49
3.6 A Matriz Transposta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.7 Matrizes Elementares: Átomos das matrizes invertı́veis . . . . . . . . . . . . . . . . . . 54

4 Função Determinante 59
4.1 Determinante é uma função . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.2 Como as operações elementares nas linhas afetam o determinante? . . . . . . . . . . . 66
4.3 Teoremas Importantes sobre Determinante . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.4 Expansão de Laplace nas colunas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

2
4.5 Como as operações elementares nas colunas afetam o determinante? . . . . . . . . . . 72
4.6 A matriz de Hilbert (Curiosidade) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.7 A Adjunta Clássica da matriz A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.8 Área de triângulos usando determinantes (Curiosidade) . . . . . . . . . . . . . . . . . 80

5 Espaços Vetoriais 84
5.1 Definição e Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.2 Subespaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.3 Conjuntos geradores e bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.4 Teoremas importantes sobres bases e conjuntos geradores . . . . . . . . . . . . . . . . 98
5.5 Coordenadas e matriz mudança de coordenadas . . . . . . . . . . . . . . . . . . . . . . 104

6 Transformações lineares 112


6.1 Definição de Transformação linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
6.2 Núcleo e Imagem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
6.3 Matriz da Transformação Linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
6.4 Autovalores e autovetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
6.5 Teoremas sobre diagonalização . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132

7 Produto Interno em Espaços Vetoriais Reais 138


7.1 Definições e exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
7.2 Perpendicularidade em Espaços vetoriais reais . . . . . . . . . . . . . . . . . . . . . . . 141
7.3 Processo de ortogonalização de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . 143
7.4 Comprimento de vetores em espaços vetoriais reais . . . . . . . . . . . . . . . . . . . . 146
7.5 Projeção ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149

8 Espaço Dual e Bidual 154


8.1 Funcional Linear e Espaço Dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
8.2 O Espaço Bidual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158

9 Forma de Jordan 160


9.1 Operadores Nilpotentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
9.2 Revisão de polinômios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
9.3 Teorema da Decomposição Primária e de Cayley-Hamilton . . . . . . . . . . . . . . . . 174
9.4 Forma de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180

3
Capı́tulo 1

Algumas ideias de Geometria

1.1 Vetores em Geometria

Um vetor em geometria é simplesmente uma seta: ↗.


Ele sempre será denotado por uma letra minúscula, por exemplo, v ou ⃗v .
Dizemos que dois vetores são iguais se eles forem paralelos, tiverem o mesmo comprimento e
apontarem na mesma direção.
Exemplos: Na figura abaixo os vetores u, v são os únicos iguais.

Podemos multiplicar vetores por números reais. Se v é um vetor então 2v é o vetor paralelo a
v apontando na mesma direção que v, mas com o dobro do seu comprimento. De modo geral, se
quisermos multiplicar um vetor v por qualquer número positivo x, basta obter um vetor w paralelo
a v, apontando na mesma direção cuja a razão entre os comprimentos de w e de v é x. É claro que
chamamos w = x.v.

4
Se quisermos multiplicar v por −1, basta trocar o sentido da seta para obter (−1).v. Na figura
anterior a = (−1).v. De maneira geral, se quisermos multiplicar v por um número negativo, basta
multiplicá-lo pelo módulo desse número negativo e depois trocar o sentido da seta. Isto é, (−2).v =
(−1).(2v)
E o vetor 0.⃗v ? Ele seria um vetor de comprimento nulo, ou seja, apenas um ponto. Denotaremos
esse vetor por ⃗0.
Além de multiplicar vetores por números também podemos somá-los. A soma é um pouco diferente
mas está de acordo com a nossa multiplicação, isto é, v + v = 2v.

Para somar v +v colocamos o fim do segundo vetor v no inı́cio do primeiro e traçamos um segmento
desde o fim do primeiro até o inı́cio do segundo e formamos o vetor v + v. Agora se v e w são vetores
diferentes fazemos a mesma coisa para somar v + w. Desenhamos vetor w junto a vetor v como na
figura a seguir e depois traçamos um vetor ligando o fim do vetor v e o inı́cio do w.

5
Note que v + ⃗0 = v, pois para fazer essa soma devemos desenhar um ponto no final de v, obtendo
o próprio v.
O que acontece quando somamos v + (−1).v? Devemos desenhar o fim do vetor (−1).v no inı́cio
de v. Note que o fim de v e o inı́cio de (−1).v coincidem, ou seja, o vetor v + (−1).v é o vetor sem
comprimento. Portanto v + (−1).v = ⃗0.
E se quisermos somar vários vetores, por exemplo v + w + r? Podemos fazer de dois em dois, isto
é, (v + w) + r.

Na figura acima podemos ver alguns fatos sobre essa soma: v +w = w +v, (v +w)+r = v +(w +r).
Além disso, podemos ver que para somar vários vetores também podemos por todos eles um atrás
do outro (concatenados), sem se importar com ordem na soma e ligar o fim do primeiro com o inı́cio
do último.
Também podemos subtrair dois vetores v, w fazendo simplesmente v − w = v + (−1).w. Em
particular ⃗0 − v = ⃗0 + (−1).v = (−1)v, ou seja, −v será o vetor (−1).v.
Essa soma e esse produto satisfazem as seguintes propriedades:
Sejam v, w, r vetores e a, b números reais.

(1) v + w = w + v (4) v + (−v) = ⃗0 (7) a.(b.v) = (a.b).v


(2) v + (w + r) = (v + w) + r (5) a.(v + w) = a.v + a.w (8) 1.v = v
(3) v + ⃗0 = v (6) (a + b).v = a.v + b.v (9) 0.v = ⃗0

6
Definição 1.1.1. Sejam v1 , v2 , . . . , vn vetores e a1 , a2 , . . . , an números reais. Dizemos que o vetor

v = a1 v1 + a2 v2 + . . . + an vn

é uma combinação linear de v1 , v2 , . . . , vn . Isto é, um vetor é uma combinação linear de outros vetores
se ele for uma soma de múltiplos desses outros.

Fato Belı́ssimo
Sejam v, w vetores num plano não paralelos e não nulos. Então qualquer outro vetor do mesmo
plano é uma combinação linear de v, w.

Justificativa: Veja a figura a seguir. Note que v e w não são paralelos. Desenhe os vetores v e
w juntos ao r. O inı́cio do v junto ao inicio do r e o final de w junto ao final de r. Trace as retas
contendo v e w nessa posições.
Elas se interceptam num ponto e partir desse ponto você obtém os vetores i e h conforme a seguinte
figura. Note que i = aw, pois i e w são paralelos e h = bv, pois v e h são paralelos. Finalmente note
que r = i + h = aw + bv, ou seja, r é uma combinação de w e v.
Como r é um vetor qualquer do plano, isso prova que todo vetor do plano é combinação linear de
v e w.

7
PERGUNTA 1: Vimos que dados dois vetores não paralelos e não nulos do plano então as
suas combinações lineares dão todos os vetores do plano. Será que todas as combinações lineares
de um único vetor não nulo já não dariam todos os vetores do plano?

RESPOSTA: Não. Todas as combinações lineares do vetor v são do tipo a1 v+a2 v+. . .+an v =
(a1 + . . . + an )v. Isto é, são múltiplos de v portanto paralelos a v. E os que não são paralelos,
como obterı́amos eles? Precisamos de no mı́nimo 2 vetores.

PERGUNTA 2: Quantos vetores no espaço seriam necessários para ao serem combinados


linearmente obtermos todos os outros vetores do espaço?

RESPOSTA: Necessitarı́amos agora de três vetores.

Espaço vetorial e dimensão

Seja S um conjunto de vetores. Se considerarmos todas as combinações lineares possı́veis


de vetores dentro de S formamos um conjunto enorme de vetores que é chamado de espaço
vetorial. Dizemos que esse conjunto S gera esse espaço vetorial.

Note que S pode ter mais vetores do que necessário para formar o espaço vetorial. Por exemplo,
suponha que S tem três vetores no plano que aos serem combinados dão todos os vetores do
plano, ou seja, o espaço vetorial são os vetores do plano. Você sabe que esses três vetores
não podem ser todos paralelos pois combinando-os você não obteria todos os vetores do plano.
Portanto existem pelo menos 2 desses 3 que são não nulos e não paralelos. Com esses 2 você já
gera todos os vetores do plano.

O número mı́nimo de vetores em S necessários para gerar o mesmo espaço vetorial que o S gera
é chamado de dimensão do espaço vetorial. Então a dimensão dos vetores do plano é 2 a
dimensão dos vetores do espaço é 3.

1.2 Sistemas de coordenadas

A geometria analı́tica está baseada na ideia de coordenadas.

8
Um sistema de coordenadas para a reta consiste em um ponto que será chamado de origem. Uma
seta para indicar a direção positiva da reta e a escolha de um ponto para corresponder ao número 1.
Com esse sistema cada ponto da reta corresponde a um número real, que é a sua coordenada.

Um sistema de coordenadas para o plano consiste em duas retas perpendiculares que se inter-
ceptam na origem e sobre elas desenhamos um sistema de coordenadas. Agora cada ponto do plano
corresponde a um par de números reais. O conjunto de todas essas duplas é denotado por R2 .

Um sistema de coordenadas para o espaço consiste em três retas perpendiculares que se intercep-
tam em um ponto que será a origem. Sobre cada uma das retas desenha-se um sistema de coordenadas.
Agora cada ponto do espaço corresponde a uma tripla de números reais. O conjunto de todas essas
triplas é denotado por R3 .

Algumas observações sobre o que pode ser feito com as coordenadas.

(1) Além dos pontos do plano, as setas desenhadas nele também podem ser representadas por um
par de números da seguinte maneira. Veja a figura abaixo. O vetor u sai de A e chega emB. Ele
4
precisa andar 4 para direita e 3 pra cima. Então dizemos que as coordenadas de u são  .
3

(2) Agora note que o vetor w sai de B e chega em F ,portanto



ele precisa andar 1 para a esquerda
−1
e 2 pra cima. Assim assim as coordenadas w são  .
2

(3) Agora note que o vetor u + w sai de A e chega em 


F , portanto ele precisa andar 3 para a direita
3
e 5 pra cima. Assim as coordenadas u + w são  , ou seja, as coordenadas de u + w são iguais
5
     
3 4 −1
as somas das respectivas coordenadas de u e v. Portanto  = + .
5 3 2

OBS: Se quisermos
 as coordenandas de 2.u = u + u basta somar as coordenadas
 de u duas vezes,

2.4 x.4
ou seja,  . O mesmo vale para qualquer x.u, suas coordenadas são  .
2.3 x.3

(4) Note que saindo


 
do ponto A andando
 
sobre o vetor u chegamos
 
no ponto B. As coordenadas do
1 4 5
ponto A são  , do vetor u são   e do ponto B são  .
1 3 4
     
1 4 5
Consegue ver uma relação entre elas?  + = .
1 3 4

9
OBS: Saindo do ponto A andando o vetor u chegamos no ponto cuja as coordenadas são a soma
das coordenadas de A e de u. Escrevemos então que B = A + u. Note que para obter as coor-
denadas do vetor u que liga A a B basta subtrair das coordenadas de B as de A, isto é, u = B−A.

1.3 Soma e produto por números reais no Rn


  


 a1 


.. 
  
n
Lembre-se que R =  .  , a1 , . . . , an ∈ R e essas n−uplas representam vetores e também


  
 
 an 
pontos.
Define-se
         
a1 b1 a + b1 a1 t.a1
  1
 ..   ..   ..  .   . 
       
 . + . = e t.  ..  =  .. .

. 
         
an bn an + bn an t.an

Como essa soma e multiplicação são as representações em coordenadas da soma e multiplicação de


vetores então as seguintes propriedades também valem:

Sejam v, w, r ∈ Rn e a, b números reais.

10
(1) v + w = w + v (4) v + (−v) = ⃗0 (7) a.(b.v) = (a.b).v
(2) v + (w + r) = (v + w) + r (5) a.(v + w) = a.v + a.w (8) 1.v = v
(3) v + ⃗0 = v (6) (a + b).v = a.v + b.v (9) 0.v = ⃗0

1.4 Parametrizações de reta e plano

Com essas ideias já podemos fazer muita geometria analı́tica.

Parametrização da reta

Considere a reta que sai de A e anda na direção de u. Dizemos que u é seu vetor diretor e que
A é um dos seus pontos. Veja figura abaixo. Note na figura abaixo que B, B ′ , A′ são pontos da
reta que tem vetor diretor u que passa por A. Note que

B = A + u, B ′ = A + 2u e A′ = A + (−1)u.

Todos esses pontos possuem o mesmo formato: A + tu, com t ∈ R. Por quê?
Porque saindo de A andando um certo múltiplo de u chegamos em qualquer ponto dessa reta.
A fórmula A + tu, t ∈ R, é a parametrização dessa reta.

Se a partir de um ponto você anda apenas numa direção a trajetória vai ser uma reta no plano, no

11
espaço e etc. Isso significa que A + tu, t ∈ R, representa uma reta em qualquer Rn . A única diferença
é a quantidade de coordendas de A e de u que você vai precisar. No Rn a quantidade de coordenadas
é n.
Por exemplo: Variando t ∈ R, a fórmula

       
5 1 5 1
       
 4   1   4   1 
       
       
 3  + t  1  te dá os pontos da reta que contém  3  e tem vetor diretor  1  lá no
       
       
       
 2   1   2   1 
       
1 1 1 1
R5 .

O máximo que podemos ver dessa reta é a sua equação.

Parametrização do Plano

Agora se sairmos de um ponto A e andarmos na direção dos vetores u e v, onde u e v não são
múltiplos e nem são nulos, obteremos um plano. Dizemos que esse plano contém A e possui
vetores diretores ⃗u, ⃗v . Veja figura abaixo.
Se B é um ponto desse plano então w = B − A é o vetor que ligar A a B. Sabemos que os
vetores ⃗u, ⃗v podem ser combinados linearmente para obter w, isto é, existem x, y ∈ R tais que
B − A = x⃗u + y⃗v . Assim B = A + x⃗u + y⃗v , qualquer ponto desse plano pode ser escrito da
mesma maneira, basta variar x, y.
Assim a equação paramétrica de um plano fica A + x⃗u + y⃗v , x, y ∈ R.

12
Se a partir de um ponto você andar na direção de dois vetores (não nulos e não paralelos) a
trajetória vai ser um plano não importando aonde você estiver trabalhando: no plano, no espaço e
etc.
Isso significa que A+xu+yv, x, y ∈ R, representa um plano em qualquer Rn . A única diferença é a
quantidade de coordendas de A, de u e de v que você vai precisar. No Rn a quantidade de coordenadas
é n.
Por exemplo: Variando x, y ∈ R, a fórmula

       
5 1 1 5
       
 4   1   0  4 
       

       
 3 +x  1 +y  1  te dá os pontos do plano que contém  3  e tem vetores diretores
       
       
       
 2   1   0   2 
       
1 1 1 1
   
1 1
   
 1   0 
   
   
 1 ,  1  lá no R5 .
   
   
   
 1   0 
   
1 1

O máximo que podemos ver desse plano do R5 é a sua equação.

13
1.5 O problema geométrico da interseção

Alguns problemas comuns em geometria anlaı́tica são os de encontrar interseções de objetos


geométricos: retas, planos, etc.

 
a
Exercı́cio 1.5.1. Encontre   que pertence as retas
b
               
1 2 4 −4 1 2 3 4
a)   + x  e  +y  c)   + x  e  +y 
2 2 3 4 2 2 4 4

       
1 2 4 4
b)   + x  e  +y 
2 2 3 4

Solução: a) Para algum valor de x e de y temos

         
a 1 2 4 −4
 =  + x = +y . (1.1)
b 2 2 3 4

       
1 2 4 −4
Portanto   + x = +y .
2 2 3 4

Somando os vetores e igualando suas coordenadas obtemos as seguintes equações:

 
 1 + 2x = 4 − 4y  2x + 4y = 3

 2 + 2x = 3 + 4y  2x − 4y = 1

Para extrair x, y dessas equações, basta somar as duas e obteremos 4x = 4. Assim x = 1.

       
a 1 2 3
Agora substuindo x = 1 na equação 1.1 obtemos  =  + 1 = .
b 2 2 4

Se você tivesse encontrado o valor de y e substuı́do na equação 1.1 o resultado seria igual.

14
b) Buscamos x e de y tais que

         
a 1 2 4 4
 =  + x = +y . (1.2)
b 2 2 3 4

       
1 2 4 4
Portanto   + x = +y .
2 2 3 4

Somando os vetores e igualando suas coordenadas obtemos as seguintes equações:

 
 1 + 2x = 4 + 4y  2x − 4y = 3

 2 + 2x = 3 + 4y  2x − 4y = 1

Note que não existem x, y que satisfaçam essas duas equações


  ao mesmo tempo. Portanto
 não
a a
poderei substituir o valor deles na equação 1.2 para encontrar  , ou seja, não existe   na
b b
interseção das duas retas.

c) Buscamos x e de y tais que

         
a 1 2 3 4
 =  + x = +y . (1.3)
b 2 2 4 4

       
1 2 3 4
Portanto   + x = +y .
2 2 4 4

Somando os vetores e igualando suas coordenadas obtemos as seguintes equações:

 
 1 + 2x = 3 + 4y  2x − 4y = 2

 2 + 2x = 4 + 4y  2x − 4y = 2

15
Assim x = 2y +1, ou seja, só existe restrição para o x e o y pode ser qualquer número. Substituindo
esse valor de x na equação 1.3 obtemos
     
a 1 2
  =   + (2y + 1)   .
b 2 2

Portanto a interseção dessas retas são todos os pontos

       
1 2 3 4
  + (2y + 1)  = +y , y ∈ R,
2 2 4 4

mas esses são os pontos que formam a segunda reta.

x−1
Se você substituir o valor do y = , na equação da segunda reta, você obteria a interseção
2
sendo a primeira reta. Isso significa que as retas são a iguais. Você poderia ter visto isso de maneira
geométrica.
 
3
• O ponto de partida da segunda reta, o ponto  , está na primeira reta, basta escolher x = 1.
4
   
4 2
• Os vetores diretores de ambas as retas são paralelos,   = 2.  . As duas retas andam
4 2
na mesma direção.

16
Observação 1.5.2. No problema de interseção de duas retas no R2 , vimos 3 possibilidades de
interseção: 1 ponto, nenhum ponto e uma reta.
Para resolver esse problema geométrico tivemos que encontrar os valores de x, y que satisfaziam
simultaneamamente

Letra a) Letra b) Letra c)


  
 2x + 4y = 3  2x − 4y = 3  2x − 4y = 2
I II III
 2x − 4y = 1  2x − 4y = 1  2x − 4y = 2

Os únicos x, y que satisfaziam I deram origem ao único ponto de interseção das retas. A falta
de x, y satisfazendo II , mostrou que não existia interseção entre as retas. O infinitos valores

de x, y (x dependendo de y) satisfazendo III mostraram que a interseção era uma reta.

1.6 O problema do ângulo

Em diversos problemas de geometria analı́tica precisamos de uma boa maneira de medir ângulo
entre vetores sabendo apenas as suas coordenadas. isso era obtido com o produto escalar.

Considere a figura acima. Os vetores u, v formam o ângulo θ entre si.

17
Queremos saber que ângulo é esse sabendo apenas as coordenandas de u e v.
Para isso precisamos da lei dos cossenos. Ela diz que

|u − v|2 = |u|2 + |v|2 − 2|u|.|v| cos(θ), onde |w| significa o comprimento do vetor w.

Agora vamos encontrar a fórmula para o cos(θ) dependendo das coordenadas de u e v.

Primeiro caso: u, v ∈ R2
     
u1 v1 u1 − v1
Assim u =  , v =   e u−v = .
u2 v2 u2 − v2

Agora lembre-se que os comprimentos de u, v e u − v são calculados utilizando Pitágoras:

p p p
|u| = u21 + u22 , |v| = v12 + v22 e |u − v| = (u1 − v1 )2 + (u2 − v2 )2 .

Pela lei dos cossenos acima temos


p p
(u1 − v1 )2 + (u2 − v2 )2 = u21 + v12 + u22 + v22 − 2 u21 + u22 v12 + v22 cos(θ)

p p
2 v12 + u 2 v22 = u 2 v12 + u 2 v22 − 2 u21 + u22 v12 + v22 cos(θ)
1 − 2u1 v1 + 
Assim u 2 − 2u2 v2 +  1 +  2 + 

u1 v1 + u2 v2
Portanto cos(θ) = p 2 p .
u1 + u22 v12 + v22

Segundo caso: u, v ∈ Rn

u1 v1 + u2 v2 + . . . + un vn
Repetindo a mesma conta chegaremos que cos(θ) = p 2 p .
u1 + u22 + . . . + u2n v12 + v22 . . . + vn2

   
u v
 1   1 
 .   . 
Definição 1.6.1. Sejam u =  ..  e v =  ..  vetores do Rn . Definimos o produto interno (ou o
   
un vn
⟨u, v⟩
produto escalar) de u, v por ⟨u, v⟩ = u1 v1 + u2 v2 + . . . + un vn . Portanto o cos(θ) = , onde θ é o
|u|.|v|
menor ângulo entre ue v. Note que o menor ângulo entre 2 vetores satisfaz 0 ≤ θ ≤ 180o .

18
Propriedades do Produto interno

Teorema 1.6.2. Sejam u, v, w ∈ Rn e x ∈ R.

1. ⟨u, v⟩ = ⟨v, u⟩

2. ⟨u + w, v⟩ = ⟨u, v⟩ + ⟨w, v⟩

3. ⟨x.u, v⟩ = x.⟨u, v⟩

4. ⟨v, v⟩ ≥ 0 e ⟨v, v⟩ = 0 somente se v = ⃗0

5. Desigualdade de Cauchy-Schwarz: |⟨u, v⟩| ≤ |u|.|v|

6. Se u, v não são vetores nulos então eles são perpendiculares se e somente se ⟨u, v⟩ = 0.

Demonstração. 1. ⟨u, v⟩ = u1 v1 + u2 v2 + . . . + un vn = v1 u1 + v2 u2 + . . . + vn un = ⟨v, u⟩.

2. ⟨u + w, v⟩ = (u1 + w1 )v1 + (u2 + w2 )v2 + . . . + (un + wn )vn =


= u1 v1 + u2 v2 + . . . + un vn + w1 v1 + w2 v2 + . . . + wn vn = ⟨u, v⟩ + ⟨w, v⟩.

3. ⟨x.u, v⟩ = (x.u1 )v1 + (x.u2 )v2 + . . . + (x.un )vn = x.(u1 v1 ) + x.(u2 v2 ) + . . . + x.(un vn ) = x.⟨u, v⟩.

4. ⟨v, v⟩ = v1 v1 + v2 v2 + . . . + vn vn = v12 + v22 + . . . + vn2 .


Como vi2 ≥ 0 para todo i então ⟨v, v⟩ ≥ 0.
Agora ⟨v, v⟩ = 0 somente se todos os vi2 = 0, ou seja, todos os vi = 0. Isso é v = ⃗0.

5. Vimos na discussão acima que |⟨u, v⟩| = |u||v|.| cos(θ)|.


Lembre -se que |cos(θ)| ≤ 1 então |⟨u, v⟩| ≤ |u|.|v|.

6. Como u, v não são nulos então |u| =


̸ 0 e |v| =
̸ 0.
⟨u, v⟩
Assim cos(θ) = , onde θ é o menor ângulo entre eles.
|u|.|v|
Eles são perpendiculares se e somente se θ = 90o , ou seja, cos(θ) = 0.
⟨u, v⟩
Mas a expressão = 0 se e somente se ⟨u, v⟩ = 0.
|u|.|v|

19
1.7 Projeção de Vetores

Em fı́sica muitas vezes necessitamos projetar um vetor na direção de outro vetor. Utilizando o
produto interno podemos descobrir uma fórmula para o vetor que é a projeção do vetor u na direção
do vetor v: projv (u).
Como a projv (u) deve estar na mesma direção de v então projv (u) = x.v. Mas não só isso, a
projv (u) deve ser tal que u − projv (u) ⊥ v. Veja a figura abaixo.

Lema 1.7.1. Sejam u, v ∈ Rn não nulos. A projeção de u na direção de v é dada pela fórmula:

⟨u, v⟩
projv (u) = .v.
⟨v, v⟩
Demonstração. Como observado anteriormente queremos projv (u) = x.v e que u − projv (u) ⊥ v.
Pela propriedade 6 do teorema 1.6.2, isso significa que 0 = ⟨u − projv (u), v⟩ = ⟨u − x.v, v⟩.
Pela propriedades 2 e 3 do teorema 1.6.2 temos que

0 = ⟨u − x.v, v⟩ = ⟨u, v⟩ + ⟨−x.v, v⟩ = ⟨u, v⟩ − x.⟨v, v⟩.

Como v ̸= 0 então ⟨v, v⟩ =


̸ 0, pela propriedade 4 do teorema 1.6.2.
⟨u, v⟩ ⟨u, v⟩
Portanto x = . Isso significa que projv (u) = .v.
⟨v, v⟩ ⟨v, v⟩

20
Capı́tulo 2

Sistemas Lineares

Definição 2.0.1. Um sistema de equações lineares com m equações e n incógnitas é um conjunto de


equações do tipo.



 a11 x1 + . . . + a1n xn = b1


 a21 x1 + . . . + a2n xn = b2

∗ ..



 .


am1 x1 + . . . + amn xn = bm

Os aij e os bi são números fixos e x1 , . . . , xn são as incógnitas.

Exemplos:

 2c + 4d = 3 a11 = 2, a12 = 4, b1 = 3
I
 2c − 4d = 1 a21 = 2, a22 = −4, b2 = 1

 2z − 4w = 3 a11 = 2, a12 = −4, b1 = 3
II
 2z − 4w = 1 a21 = 2, a22 = −4, b2 = 1

 2x − 4y = 2 a11 = 2, a12 = −4, b1 = 2
III
 2x − 4y = 2 a21 = 2, a22 = −4, b2 = 2
 
x1
 . 
 
Definição 2.0.2. Uma solução para o sistema ∗ é uma n-upla  ..  que satisfaz todas as equações
 
xn
de I . O conjuntos de todas as soluções do sistema I será denotado por SI e será chamado de
conjunto solução do sistema I.

21
Exemplos:   
 c 1
• Vimos na solução da letra a) do exercı́cio 1.5.1 que SI =   , c = 1 e d =
 d 4

• Vimos na solução da letra b) do exercı́cio 1.5.1 que SII = ∅


  
 x 
• Vimos na solução da letra c) do exercı́cio 1.5.1 que SIII =   , x = 2y + 1, y ∈ R
 y 

        
 2y + 1   2 1 
=  , y ∈ R = y  +  , y ∈ R .
 y   1 0 

Exercı́cio 2.0.3. Encontre o conjunto solução do seguinte sistema :


n
I x + 3y + 4z = 5

  


 x 


  
SI =  y  , x = −3y − 4z + 5, y ∈ R, z ∈ R
 

  


 z 

  


 −3y − 4z + 5 


  
=   , y ∈ R, z ∈ R
 
y

  

 
 z 

       


 −3 −4 5 


       
= y 1 +z 0 + 0  , y ∈ R, z ∈ R
     

       

 
 0 1 0 

Observação 2.0.4. Note que os sistemas lineares apareceram de maneira natural a partir do
problema de interseção de objetos geométricos. Note que o conjunto solução do sistema do
exercı́cio anterior é a equação paramétrica de um plano no R3 , ou seja, o conjunto solução
de sistemas dão origem a objetos geométricos. Sistemas lineares e objetos geométricos estão
intimamente relacionados.

22
Aplicação de sistemas lineares em Quı́mica.

O gás hidrogênio H2 reage com o gás oxigênio O2 resultando em água. Isto é,

x moléculas de H2 + y moléculas de O2 = z moléculas de H2 O.

Como não há perda de átomos na reação então

2x
|{z} = 2z
|{z}
No de átomos de H antes da reação No de átomos de H depois da reação

2y = z
|{z}
|{z}
N o de átomos de O antes da reação No de átomos de O depois da reação

 2x − 2z = 0
Chegamos no seguinte sistema linear: I
 2y − z = 0
  


 z 


  
 z 
Cujo conjunto solução é SI =  2  , z ∈ R .

  


 z 

Quando o seu professor de Quı́mica pedia o balanceamento da equação H2 + O2 = H2 O, ele


queria os menores números naturais x, y, z que formam uma solução dos sistema I .

Olhando para SI é fácil encontrar essa tripla, basta escolher z = 2. Assim o balanceamento fica

2H2 + 1O2 = 2H2 O.

2.1 Resolvendo Sistemas Lineares: Operações Elementares

Precisaremos de uma maneira organizada para resolver os sistemas lineares porque sistemas ante-
riores eram fáceis de se resolver. Além disso para resolver sistemas enormes você precisará programar
um algoritmo para resolvê-lo, a seguir aprenderemos um. A ideia aqui é de simplificar o sistema
mantendo o conjunto solução dele intacto.
Para simplificar a explicação vou utilizar um sistema com 2 linhas e 3 incógnitas:

 1x + 2y + 3z = 4
I
 5x + 6y + 7z = 8

Queremos encontrar todas as soluções do sistema I .


Considere os seguintes sistemas II , III e IV a seguir:

23

 5x + 6y + 7z = 8
II
 1x + 2y + 3z = 4


 9.1x + 9.2y + 9.3z = 9.4
III
 5x + 6y + 7z = 8


 1x + 2y + 3z = 4
IV
 (9.1 + 5)x + (9.2 + 6)y + (9.3 + 7)z = (9.4 + 8)

Observação 2.1.1. Veja a seguir que SI = SII = SIII = SIV .


 
x
 
SI = SII No sistema II trocamos as linhas do sistema I de lugar. Portanto as triplas  
 y 
 
que
z

satisfazem o sistema I também satisfazem o sistema II , ou seja, SI = SII .

SI = SIII Como as segundas equações dos sistemas I e III são iguais então as soluções de ambos os
sistemas satisfazem essa mesma equação.
 
x
 
Agora se  y ∈ SI , pela primera equação de I temos que 1x + 2y + 3z = 4, multiplicando ela
 
 
z

por 9 obtemos 9.1x + 9.2y + 9.3z = 9.4. Essa é a primeira equação dos sistema III . Portanto
toda solução do sistema I é também do sistema III .
 
x′
SIII então, pela sua primeira equação, 9.1x′ + 9.2y ′ +
 
O contrário também vale. Se  y ∈
 ′ 
 
z′
9.3z ′ = 9.4. Dividindo por 9 obtemos 1x′ + 2y ′ + 3z ′ = 4. Essa é a primeira equação dos sistema
I .

Assim SI = SIII .

SI = SIV Como as primeiras equações dos sistemas I e IV são iguais então as soluções de ambos os
sistemas satisfazem essa mesma equação.
 
x
 
Seja  y ∈ SI . Note que pelas equações do sistema I
 
 
z

(9.1 + 5)x + (9.2 + 6)y + (9.3 + 7)z = 9. (1x + 2y + 3z) + 5x + 6y + 7z = 9.4 + 8.


| {z } | {z }
=4 =8

24
Mas (9.1 + 5)x + (9.2 + 6)y + (9.3 + 7)z = 9.4 + 8 é a segunda equação dos sistema IV .

Portanto toda solução do sistema I é também do sistema IV .


 
x′
SIV . Pela sua segunda equação temos (9.1+5)x′ +(9.2+6)y ′ +(9.3+7)z ′ = 9.4+8.
 
Seja  y ∈
 ′ 
 
z′

Agora 9.(1x′ + 2y ′ + 3z ′ ) + 5x′ + 6y ′ + 7z ′ = 9.4 + 8.

Pela sua primeira equação temos 1x′ + 2y ′ + 3z ′ = 4 então 9.4 + 5x′ + 6y ′ + 7z ′ = 9.4 + 8.

Assim 5x′ + 6y ′ + 7z ′ = 8. Essa é a primeira equação dos sistema I .

Assim SI = SIV .

CONCLUSÃO: Essas observações nos dizem que podemos fazer 3 modificações do sistema I
preservando seu conjunto solução Essas modificações são chamadas operações elementares.

Operações Elementares

Chamaremos as equações de um sistema de linhas do sistema.


As operações elementares são as seguintes:

O1 Trocar duas linhas de lugar.

O2 Multiplicar uma linha por um número diferente de 0.

O3 Substituir uma linha por ela somada com um múltiplo de uma outra.

Lembre-se que essa operações modificam o sistema, mas preservam seu conjunto solução.

Exemplo: Para obter o sistema IV acima, a partir do I susbtituı́mos 5x + 6y + 7z = 8 por


(9.1 + 5)x + (9.2 + 6)y + (9.3 + 7)z = (9.4 + 8). Isto é, substituı́mos a segunda linha do sistema
I por ela somada com 9 vezes a primeira linha. De maneira mais sucinta podemos dizer isso
assim: L2 ↔ 9L1 + L2 .

Exemplos: Resolva os seguintes sistemas lineares


  

 x + 2y + 3z = 1 
 x + 2y + 3z = 1 
 x + 2y + 3z = 1
L2 ↔L2 +(−1).L1 L3 ↔L3 +(−1).L1

 
 

a) I x + 3y + 4z = 1 −−−−−−−−−→ II 0x + 1y + 1z = 0 −−−−−−−−−→ III 0x + 1y + 1z = 0

 
 


 x + 2y + 4z = 1 
 x + 2y + 4z = 1 
 0x + 0y + 1z = 0

25
Encontramos então z = 0 na terceira linha. Substituı́mos isso na segunda
 linha
 obtemos y = 0.
 1 

 
  
Subtituı́mos essas informações na primeira e obtemos x = 1. Assim SIII =  0  .
 

  

 0  

Como passamos do sistema I para o sistema II e depois para o sistema III por operações elementares
então SI = SII = SIII .

  
 x + 2y + 3z = 1 L2 ↔L2 +(−1).L1  x + 2y + 3z = 1 L1 ↔L1 +2.L2  x + 0y + 1z = 3
b) I −−−−−−−−−→ II −−−−−−−−−→ III
 x + y + 2z = 2  0x + (−1)y + (−1)z = 1  0x + (−1)y + (−1)z = 1


L2 ↔(−1).L2  x + 0y + 1z = 3
−−−−−−−−−→ IV
 0x + y + z = −1

          


 x 



 3−z 
 
 3 −1 

   
  
 
    

Assim SIV =  y  , x = 3 − z, y = −1 − z, , z ∈ R =  −1 − z
  
 , z ∈ R =  −1  + z  −1
   
, z ∈ R

 
  
   
 
    


 z 
  
  
 z  0 1 

Observação 2.1.2. Note que em todos os sistemas eu repeti o x, y, z, +, = inúmeras vezes, mas o que
era realmente importante eram os números na frente do x, y, z. Uma maneira de evitar isso é usando
a matriz ampliada do sistema.

Definição 2.1.3. A matriz ampliada do sistema


  


 a11 x1 + . . . + a1n xn = b1 a11 ... a1n b1

  
 a21 x1 + . . . + a2n xn = b2

 a21

... a2n b2


.. é  ..

.. .. ..

.




 .  .
 . . 



am1 x1 + . . . + amn xn = bm am1 . . . amn bm

Vamos ver como fica o exemplo b) anterior usando matrizes ampliadas.


       
1 2 3 1 L2 ↔L2 +(−1).L1 1 2 3 1 L1 ↔L1 +2.L2 1 0 1 3 L2 ↔(−1).L2 1 0 1 3
b)   −−−−−−−−−→   −−−−−−−−−→   −−−−−−−−−→  
1 1 2 2 0 −1 −1 1 0 −1 −1 1 0 1 1 −1

26
Observação 2.1.4. Existem sistemas
 que apenas  de olhar somos capazes de descobrir seu conjunto
1 0 1 3
solução, por exemplo o sistema   do exemplo acima.
0 1 1 −1
 
1 2 3 1
Existem outros que isso não é possivel, por exemplo o sistema   do exemplo acima
1 1 2 2
(por isso que tivemos que realizar operações elementares sobre ele).

 
1 3 0 2
Outro exemplo que é fácil de resolver é o seguinte  . Seu conjunto solução é
0 0 1 5
           


 x 

  2 − 3y
 
 
 −3 2 

   
  
 
     

 y  , x = 2 − 3y, z = 5, y ∈ R =  , y ∈ R = y 1  +  0 , y ∈ R
       
y

  
 
  
 
     


 z 
  
  
 5  0 5 

   
1 0 1 3 1 3 0 2
Os sistemas   e   possuem um formato especial que nos permite
0 1 1 −1 0 0 1 5
resolvê-los.

AlGUMAS SEMELHANÇAS ENTRE ELES:

• O primeiro número não nulo de cada linha é 1.

• Em cima e embaixo desses 1 que começam linha existem apenas 0.

27
Formato Reduzido ou Escalonado ou Escada
Definição 2.1.5. Dizemos que uma matriz tem o formato reduzido ou escalonado se possuir
as seguintes caracterı́sticas

1. Em cada linha que possui números diferentes de 0, o primeiro deles é 1.


 
1 0 1 1
 
Ex:  0
 
1 1 0 
 
0 0 0 0

2. Acima e abaixo desses 1s que começam linhas há somenete zeros.


 
1 0 1 1
 
Ex:  0
 
1 1 0 
 
0 0 0 0

3. As linhas que só tem números zeros são as últimas.

Ex:
 
 1 0 1 1 
 0 1 1 0 
 
0 0 0 0

4. Os 1s que começam linhas estão caindo para a direita formando degraus (um escada).

Ex:
 
 1 0 1 1 
 0 1 1 0 
 
0 0 0 0

Mais exemplos:

   
0 1 2 0 3 1 0 0 0 não está no formato reduzido
está no formato reduzido  
 0 0 0 1 0 
   0 1 −1 0  porque em cima do 1 da terceira
porque possui as 4 carac-  
0 0 0 0 0 terı́sticas descritas acima. 0 0 1 0 linha há um -1 que deveria ser 0.

 
0 0 1 não está no formato
 0 1 0 
 
reduzido porque a escada
1 0 0 que queremos desce.

28
Observação 2.1.6. Esse formato reduzido é o que permite encontrar o conjunto solução de um sis-
tema. Utilizaremos as operações elementares para levar a parte antes da barra da matriz ampliada
do sistema ao seu formato reduzido. Note que foi isso que fizemos no exemplo b) no inı́cio da página
22.




 −4x + 3y = 2

Exercı́cio 2.1.7. Determine k para que o seguinte sistema admita solução. 5x − 4y = 0



 2x − y = k

     
−4 3 2 −4 3 2 0 −1 10
  L2 ↔L2 +L1   L1 ↔L1 +4L2   L3 ↔L3 +(−2)L2
Solução:  5 −4 0  −−−−−−−−−→  1 −1 2  −−−−−−−−−→  1 −1 2  −−−−−−−−−→
     
     
2 −1 k 2 −1 k 2 −1 k

     
0 −1 10 0 1 −10 0 1 −10
  L1 ↔(−1)L1   L2 ↔L2 +L1   L3 ↔L3 +(−1)L1
 1 −1  −−−−−−−−−→  1 −1  −−−−−−−−−→  1 0 −8  −−−−−−−−−→
     
2 2
     
0 1 k−4 0 1 k−4 0 1 k−4

   
0 1 −10 1 0 −8
  L1 ↔L2  
 1 0 −8  −−−−−−−−−→  0 1 −10
   

   
0 0 k+6 0 0 k+6

Vamos voltar com as variáveis nesse último sistema para você observar uma coisa.



 x = −8

y = −10



 0.x + 0.y = k + 6

Se k + 6 ̸= 0 então não existem valores de x, y que satisfaçam a última equação. Para haver x, y
que satisfaçam as 3 equações do sistema então k + 6 = 0, ou seja, k = −6.

Observação 2.1.8. Aqui vou fazer algumas observações sobre o escalonamento ou redução que fiz
para resolver o último problema.

1. Para fazer a primeira linha começar com o número 1, eu poderia simplesmente ter multiplicado
ela por − 14 . Não fiz isso porque ia aparecer frações que não são tão fáceis de manejar. Preferi
somar a primeira linha com a segunda para fazer a linha 2 começar com 1 e depois trocar elas
de lugar. Você só precisar trocar de lugar as linhas no final.

29
2. Lembre-se abaixo e acima dos 1s que começam linhas tem que ser zero. Por isso que comecei a
anular os números abaixo e acima desses 1s com as outras operações elementares.

Exercı́cio 2.1.9. Faça o balanceamento das sequintes reações.

a) N 2O5 → N O2 + O2

b) HF + SiO2 → SiF4 + H2 O (Si é silı́cio)

c) (N H4 )2 CO3 → N H3 + H2 O + CO2

2.2 Tipos de Solução de um Sistema Linear

  
a x + a y = b a a b
 11 12 1
 11 12 1 



O sistema linear a21 x + a22 y = b2 tem matriz ampliada  a21 a22 b2 .
 

  

 a x+a y =b
31 32 3 a31 a32 b3

As possı́veis matrizes reduzidas dessa matriz ampliada são dos três seguintes tipos:
     
1 0 d1 1 c d1 0 1 d1
     
I  0 1 d2  II  0 0 d2  III  0 0
     
d2 
     
0 0 d3 0 0 d3 0 0 d3

Observe o seguinte:

No sist. I : Note que se d3 ̸= 0 então a última linha do sistema I fica 0.x + 0.y = d3 ̸= 0. Não existem x, y
que satisfazem isso, ou seja, o sistema I não tem solução e portanto o original também não.
 
 d1 
Se d3 = 0 temos x = d1 e y = d2 . Portanto SI =   , ou seja, o sistema original tem
 d 
2
uma única solução.

No sist. II : Se d2 ̸= 0 ou d3 ̸= 0 então o sistema II não tem solução e portanto o original também não.

Se d2 = 0 e d3 = 0 então a primeira linha do sistema II fica x + cy = d1 , ou seja,


  
 d1 − cy 
SII =   , y ∈ R . Portanto o sistema II e o original tem infinitas soluções, uma
 y 
para cada escolha de y.

30
No sist. III : Se d2 ̸= 0 ou d3 ̸= 0 então o sistema II não tem solução e portanto o original também não.

Se d2 = 0 e d3 = 0 então a primeira linha do sistema III fica y = d1 , ou seja,


  
 x 
SIII =   , x ∈ R . Portanto o sistema III e o original tem infinitas soluções, uma
 d 
1
para cada escolha de x.

Possı́veis Soluções de um Sistema Linear

Um sistema com m linhas e n incógnitas possui

• uma única solução se a matriz reduzida do sistema tiver o formato A.

• infinitas soluções se a matriz reduzida do sistema tiver o formato B.

• nenhuma solução se a matriz reduzida do sistema tiver o formato C.

A. B. C.
 
 
1 0 0 . . . 0 d1  
matriz reduzida d1  matriz reduzida d1
 

 0 1 0 . . . 0 d2 
 
 com s linhas não ..
  com s linhas não ..


  .
  . 
 0 0 1 . . . 0 d3   
 nulas

ds

 nulas ̸= Idn×n ds
    

 .. .. .. .. .   
. 0 ..  0 ... 0 ds+1
 
. . .  0 ... 0 0
   
     
 .  
0 0 0 . . . 1 dn .. ..  .. .. ..
  
   . 
 . . .  . . .
   
0 0 0 ... 0 0
    
  0 ... 0 0 0 ... 0 dn
 .. .. .. . . .. ..


 . . . . . . 

0 0 0 ... 0 0 algum dos ds+1 , . . . , dn não é 0

OBS: Uma matriz que tem o número de linhas menor que o números de incógnitas (m < n)
ao ser reduzida nunca terá o formato A. Porque no formato A temos n números 1 começando
linhas, o que é impossı́vel com m linhas (m < n). Então um sistema com menos linhas do que
incógnitas nunca terá solução única.

Exercı́cio 2.2.1. Resolva os sistemas lineares abaixo.

  
 3x + 4y = 2  3x + 4y = 3  3x + 4y = 7
a) b) c)
 3x + 3y = 3  3x + 3y = 1  3x + 3y = 8

31
Solução:
     
3 4 2 L1 ↔L1 +(−1).L2 0 1 −1 L2 ↔L2 +(−3).L1 0 1 −1
a)   −−−−−−−→   −−−−−−−→  
3 3 3 3 3 3 3 0 6

      
L2 ↔ 13 .L2 0 1 −1 L2 ↔L1 1 0  2 2 
−−−−−−−→   −−−−−−−→  . Assim SI =  , x ∈ R .
1 0 2 0 1 −1  −1 

     
3 4 3 L1 ↔L1 +(−1).L2 0 1 2 L2 ↔L2 +(−3).L1 0 1 2
b)   −−−−−−−→   −−−−−−−→  
3 3 1 3 3 1 3 0 −5

      
L2 ↔ 13 .L2 0 1 2 L2 ↔L1 1 0 − 35  −5 
−−−−−−−→   −−−−−−−→  . Assim SII =  3 , x ∈ R .
1 0 − 35 0 1 2  2 

     
3 4 7 L1 ↔L1 +(−1).L2 0 1 −1 L2 ↔L2 +(−3).L1 0 1 −1
c)   −−−−−−−→   −−−−−−−→  
3 3 8 3 3 1 3 0 11

      
L2 ↔ 13 .L2 0 1 −1 L2 ↔L1 1 0 11  11 
3
−−−−−−−→   −−−−−−−→  . Assim SIII =  3 , x ∈ R .
11
1 0 3 0 1 −1  −1 

Note que fizemos praticamente as mesmas contas para resolver os sistemas I , II e III . As
únicas contas que mudaram foram na coluna depois da barra que correspondem aos números sem
incógnitas. Isso foi um gasto de energia desnecessário, podı́amos ter resolvido esses três sistemas ao
mesmo tempo da seguinte maneira.

     
3 4 2 3 7 L1 ↔L1 +(−1).L2 0 1 −1 2 −1 L2 ↔L2 +(−3).L1 0 1 −1 2 −1
abc)   −−−−−−−→   −−−−−−−→  
3 3 3 1 8 3 3 3 1 1 3 0 6 −5 11

   
L2 ↔ 31 .L2 0 1 −1 2 −1 L2 ↔L1 1 0 2 − 53 11
3
−−−−−−−→   −−−−−−−→  .
1 0 2 − 53 11
3 0 1 −1 2 −1

32
Observação 2.2.2. Moral da história: Para resolver vários sistemas que diferem entre si
apenas nos números sem incógnitas, monte uma matriz como a do sistema acima e resolva
todos ao mesmo tempo

Exercı́cio 2.2.3. Resolva os sistemas lineares abaixo.

 
 x + 2y + 3z = 1  x + 2y + 3z = 2
a) b)
 x + y + 2z = 2  x + y + 2z = 4

Exercı́cio 2.2.4. Existem valores para c e d que tornem o sistema abaixo sem solução?


 x + 2y + 3z = c
 x + y + 2z = d

Exercı́cio 2.2.5. Quais são as possı́veis interseções de 2 planos no R4 ?


DICA: Utilize a parametrização dos dois planos em R4 (Ver página 11) e monte uma equação.

Exercı́cio 2.2.6. Seja A uma matriz com n linhas e n colunas no formato reduzido. Mostre que se
1 0 ... 0
 
 0 1 ... 0 
 
A não possui linhas nulas então A =  .. .. . . .. 
  .
 . . . . 
 
0 0 ... 1

Solução: Como ela não possui linhas nulas então cada linha começa com 1. Então existem n números
1s começando linhas.
Como em cima e embaixo de cada 1 que começa linhas existem n − 1 zeros então temos um total
de n.(n − 1) zeros. Somados com os n números 1s obtemos os n2 números que ocupam a matriz, ou
seja, a matriz só possui 0s ou 1s nas suas entradas.
Como não podemos ter 2 números 1s na mesma coluna, pois acima e abaixo dos 1s só existem zero
então cada coluna da matriz possui um único número 1.
Se A11 = 0 então existirá um número abaixo dele que vale 1, pois existe um 1 na primeira coluna.
Mas também existe um 1 na primeira linha. Essas dois 1s não estão caindo para a direita. Portanto
A11 = 1 e as outras entradas da primeira linha e da primeira coluna são zero.
Repita

o argumento com A22 , A33 , . . . , Ann para obter A11 = A22 = A33 = . . . = Ann = 1. Portanto
1 0 ... 0
 
 0 1 ... 0
 
A=  .. .. . . ..
 .. □


. .

 . . 
 
0 0 ... 1

33
Exercı́cio 2.2.7. Encontre todas as soluções do sistema

x + 3x2 + 2x3 + 3x4 − 7x5 = 14
 1



2x1 + 6x2 + x3 − 2x4 + 5x5 = −2



 x + 3x − x + 0.x + 2x = −1
1 2 3 4 5

Exercı́cio 2.2.8. Foram estudados três tipos de alimentos. Fixada a mesma quantidade (1 grama)
determinou-se que

i) O alimento I tem 1 unidade de vitamina A, tem 3 unidades de vitamina B e tem 4 unidades de


vitamina C.

ii) O alimento II tem 2, 3 e 5 unidades de vitaminas A, B e C, respectivamente.

iii) O alimento III tem 3, 0 e 3 unidades de vitaminas A, B e C, respectivamente.

Se são necessárias 11 unidades de vitamina A, 9 de vitamina B e 20 de vitamina C.

a) Encontre todas as possı́veis quantidades dos alimentos I,II e III que fornecem a quantidade de
vitaminas desejadas.

b) Se o alimento I custa 60 centavos por grama e os outros dois custam 10 centavos por grama,
existe uma solução que custe exatamente 1 real?

34
Capı́tulo 3

Matrizes

3.1 Sı́mbolo que representa uma função

As matrizes apareceram de maneira natural quando decidimos parar de escrever as incógnitas, os


sinais de + e = na resolução de um sistema linear (Ver definição 2.1.3). Existe uma outra situação
onde as matrizes aparecem de maneira natural, para entender isso precisaremos falar de funções entre
os conjuntos Rn e Rm .

Exemplo 3.1.1. Funções entre Rn e Rm .

F : R2 → R1 G : R2 → R1 H : R3 → R2 I : R2 → R4
 
  x
    x      
x x x + z x  y
   

F =x+y G  = x.y H y = I =
   
 
y y   y+z y  x 
z  
y

Transformação linear

Uma função F : Rn → Rm é chamada


  
de transformação linear

(ou simplesmente uma T.L.) se
x a x + . . . + a1n xn
 1   11 1
 ..   ..

ela tiver o seguinte formato: T . = .


   
xn am1 x1 + . . . + amn xn

Exemplos:

F1 : R2 → R3 G1 : R 3 → R 2

35
   
  1x + 2y x  
x     x+y+z
F1   =  3x + 4y G1  y  = 
    

y     x − y + 3z
0x + 8y z

Exercı́cio 3.1.2. As funções do exemplo 3.1.1 são T.Ls? As funções abaixo são T.Ls?

H1 : R2 → R2 I1 : R2 → R2
       
x 0 x x
H1   =   I1   =  
y 0 y y

36
Matriz: Sı́mbolo que representa uma T.L.

Existem diversas funções que são representadas por sı́mbolos. Por exemplo, a função seno é
representada pela palavra sen antes da variável: sen(x).
O mesmo ocorre com todas as trigonométricas, as exponeciais e etc.
Qual seria um bom sı́mbolo para representar a T.L. F : R2 → R3 ,
 
  1x + 3y
x  
F   =  7x + 4y ?
 
y  
3x + 8y
 
x
Queremos um sı́mbolo para por na frente das variáveis:  .
y
Um bom sı́mbolo deveria te lembrar que

• 1, 3 estão na primeira coordenada junto as variáveis x, y,

• 7, 4 estão na segunda coordenada junto as variáveis x, y,

• 3, 8 estão na terceira coordenada junto as variáveis x, y.


   
1 3   1 3  
  x   x
Que tal o sı́mbolo  7 4 ? Isto é, F   =  7 4  .
    
  y   y
3 8 3 8
| {z }
Apenas um Sı́mbolo
na frente das variáveis
Esse sı́mbolo é uma matriz. As matrizes aparecem naturalmente como sı́mbolos que representam
certos tipos de funções. Essas funções são as transformações lineares. Toda T.L. tem uma única
matriz que a representa.

Exercı́cio 3.1.3. a) Para as funções do exemplo 3.1.1 e do exercı́cio 3.1.2 que são T.Ls, escreva
os sı́mbolos que as representam.
 
3 7 0
 
 8 4 1 
 
b) Qual a T.L. T : Rn → Rm que é representada pelo sı́mbolo 

?

 2 5 1 
 
3 9 0
Quanto valem n e m?

37
  
x1 x1
 .   .. 
   
c) Qual é a matriz que representa a T.L. T : Rn → Rm definida por T  ..  =  . ?
   
xn xn
  
x1 0
 .   .. 
   
d) Qual é a matriz que representa a T.L. T : Rn → Rm definida por T  ..  =  . ?
   
xn 0

Solução b): O números 3 , 7 e 0 estão juntos com as variáveis. Então são três variáveis, ou seja, o
domı́nio é o R3 . Agora como são 4 linhas o contradomı́nio é o R4 . Assim
 
  3x + 7y + 0z
x  
   8x + 4y + 1z

   
F y =



   2x + 5y + 1z 
z  
3x + 9y + 0z

3.2 Operações com Matrizes

Em muitos casos funções com mesmo domı́nio e contra-domı́nio podem ser somadas para formarem
uma nova função.

Exemplos:

a) Sejam f : R → R, f (x) = 1 e g : R → R, g(x) = x2 então f (x) + g(x) = 1 + x2 .

b) Sejam F : R2 → R3 e G : R2 → R3 definidas por


   
  1x + 2y   1x + 1y
x   x  
F = e G =
 
 3x + 4y   2x + 2y 
y   y  
5x + 6y 3x + 3y

   
    1x + 2y + 1x + 1y 2x + 3y
x x    
F  + G =  =  5x + 6y
  
 3x + 4y + 2x + 2y 
y y    
5x + 6y + 3x + 3y 8x + 9y

Note que a soma dessas duas T.Ls deu uma nova T.L. Isso ocorre sempre.

38
Definição 3.2.1. Sejam T : Rn → Rm , S : Rn → Rm duas T.Ls, podemos definir uma nova função
que será denotada por T + S : Rn → Rm , da seguinte maneira
     
x x1 x1
 1
 ..  .  .. 
    
T +S .  = T  ..  + S  . .
 
     
xn xn xn

Essa nova função também é um T.L. como nos mostra o teorema abaixo. Observe as matrizes que
representam T, S, T + S depois do teorema.

Teorema 3.2.2. Sejam T : Rn → Rm , S : Rn → Rm duas T.Ls então T + S : Rn → Rm também é


uma T.L.

Demonstração. Sabemos que o formato de T e S são os seguintes

       
x1 t x + . . . + t1n xn x1 s x + . . . + s1n xn
  11 1   11 1
 ..   ..  ..   ..
   
T . = .

 e S . = . .

       
xn tm1 x1 + . . . + tmn xn xn sm1 x1 + . . . + smn xn

Assim
     
x1 t x + . . . + t1n xn + s11 x1 + . . . + s1n xn (t11 + s11 )x1 + . . . + (t1n + s1n )xn
  11 1
 ..   .. ..
   
T +S . = = .
  
. .
     
xn tm1 x1 + . . . + tmn xn + sm1 x1 + . . . + smn xn (tm1 + sm1 )x1 + . . . + (tmn + smn )xn

Observação 3.2.3. Note abaixo a relação entre os sı́mbolos de T, S, T + S, respectivamente.

     
t ... t1n s ... s1n (t11 + s11 ) . . . (t1n + s1n )
 11  11
 .. ..   .. ..  .. ..
   
.. .. ..
. . , . . , .
 
 .  .  . . 
     
tm1 . . . tmn sm1 . . . smn (tm1 + sm1 ) . . . (tmn + smn )

Se o contradomı́nio de uma função g é um subconjunto do domı́nio da f então podemos compor


as duas funções: f (g(x)). É claro que podemos fazer o mesmo com T.Ls.

Definição 3.2.4. Sejam F : Rm → Rk e G : Rn → Rm duas T.Ls. Como o contra-domı́nio da


G e o domı́nio da F coindicem (iguais ao Rm ) podemos compor as duas funções e formar a função
F ◦ G : Rn → Rk da seguinte maneira:

39
    
x1 x1
 .    .. 
    
F ◦ G  ..  = F G  . .
    
xn xn

Essa nova função também sera uma T.L. como mostrado no teorema abaixo. Observe as matrizes que
representam F, G, F ◦ G depois do teorema.

Teorema 3.2.5. Sejam F : Rm → Rk e G : Rn → Rm duas T.Ls. A sua composição F ◦ G : Rn → Rk


também é uma T.L..

Demonstração. Sabemos que o formato de F e G são os seguintes

       
x1 f x + . . . + f1m xm y1 g y + . . . + g1n yn
  11 1   11 1
 ..   ..  ..   ..
   
F . = .

 e G .  =  . .

       
xm fk1 x1 + . . . + fkm xm yn gm1 x1 + . . . + gmn xn

Assim
     
y1 g11 y1 + . . . + g1n yn f (g y + . . . + g1n yn ) + . . . + f1m (gm1 y1 + . . . + gmn yn )
  11 11 1
 .  .. ..
   
F ◦ G  ..  = F = .
   
 .   .
     
yn gm1 x1 + . . . + gmn xn fk1 (g11 y1 + . . . + g1n yn ) + . . . + fkm (gm1 y1 + . . . + gmn yn )

Podemos reescrever isso assim

   
y1 (f g + . . . + f1m gm1 )y1 + . . . + (f11 g1n + . . . + f1m gmn )yn
  11 11
 ..   ..
 
F ◦ G .  = 

. 
   
yn (fk1 g11 + . . . fkm gm1 )y1 + . . . + (fk1 g1n . . . + fkm gmn )yn

Note que essa composição tem o formato de uma T.L..

Observação 3.2.6. Note abaixo a relação entre os sı́mbolos de F, G, F ◦ G, respectivamente.

     
f . . . f1m g ... g1n f g + . . . + f1m gm1 . . . f11 g1n + . . . + f1m gmn
 11   11  11 11
 .. ..   .. ..  .. ..
 
.. .. ..
. . ,  . . e . .
 
 . .   . .
     
fk1 . . . fkm gm1 . . . gmn fk1 g11 + . . . + fkm gm1 . . . fk1 g1n + . . . + fkm gmn

Exemplo: Considere as funções F : R3 → R2 e G : R2 → R3 abaixo. Vamos calcular F ◦ G : R2 → R2 .

40
   
x     7x + 8y
  1x + 2y + 3z x  
F y =
   e G =
 9x + 10y


  4x + 5y + 6z y  
z 11x + 12y

 
  7x + 8y  
x 
  1(7x + 8y) + 2(9x + 10y) + 3(11x + 12y) 

F ◦ G   = F  9x + 10y =

y   4(7x + 8y) + 5(9x + 10y) + 6(11x + 12y)
11x + 12y

      
x (1.7 + 2.9 + 3.11)x + (1.8 + 2.10 + 3.12)y 1.7 + 2.9 + 3.11 1.8 + 2.10 + 3.12 x
F ◦ G = =  
y (4.7 + 5.9 + 6.11)x + (4.8 + 5.10 + 6.12)y 4.7 + 5.9 + 6.11 4.8 + 5.10 + 6.12 y

Definição 3.2.7. Uma matriz A com m linhas e n colunas será denotada por Am×n . Além disso
denotaremos o número que ocupa a linha i e a coluna j de A por Aij .
O conjunto contendo todas as matrizes com m linhas e n colunas formadas por números reais será
denotado por Mm×n (R).
 
1 2 3
Exemplo: A2×3 =  .
4 5 6

• A tem 2 linhas L1 = (1 2 3) e L2 = (4 5 6).


     
1 2 3
• A tem 3 colunas C1 =  , C2 =  , C3 =  .
4 5 6

• A13 = 3, A22 = 5.
  
 a b c 
• M2×3 (R) =   , a, b, c, d, e, f ∈ R
 d e f 

41
Operações com matrizes

Definição 3.2.8. Sejam A, B ∈ Mm×n (R) e C ∈ Mn×k (R). Definimos

• a soma A + B como sendo a matriz em Mm×n (R) que satisfaz (A + B)ij = Aij + Bij .

• o produto de AC como sendo a matriz em Mm×k (R) que satisfaz

ACij = Ai1 C1j + Ai2 C2j + . . . + Ain Cnj .

Note que multiplicamos os números da linha i de A com os da coluna j de C para obter


o número que o ocupa a linha i e a coluna j de AC.

• o produto de um número real x pela matriz A como sendo a matriz x.A tal que

(x.A)ij = xAij ,

ou seja, multiplicamos cada número da matriz pelo x para obter x.A.

Conclusão : As matrizes A+B e AC que acabamos de definir são os sı́mbolos que representam
as T.Ls obtidas pela soma de duas T.Ls e pela composição de duas T.Ls.
          
y1 y1 y1 z1 z1
 .  ...  ...    .  ... 
          
A  ..  + B   = (A + B)  e A C  ..  = AC  .
  

          
yn yn yn zk zk

Essa definições de soma de matrizes e de produto de matrizes não são arbitrárias. Elas vêm da
nossa interpretação de matrizes como sı́mbolos que representam certas funções (as T.Ls).

 
1 2
Exercı́cio 3.2.9. Seja A =   e defina A2 = A.A. Calcule
1 3

a) A2

b) A2 − 4A + Id

c (A − 2Id)(A + 2Id)

d (A − Id)(A − Id)

42
3.3 Propriedades da soma, do produto de matrizes e do produto
por números reais.

Propriedades da soma e do produto por números reais de matrizes

Sejam A, B, C ∈ Mm×n (R) e x, y ∈ R. As seguintes propriedades valem.

i) A + B = B + A

ii) A + (B + C) = (A + B) + C

iii) A + 0m×n = A

iv) x.(A + B) = x.A + x.B

v) (x + y).A = x.A + y.A

vi) |{z}
0 .A = 0
| m×n
{z }
no zero matriz zero

vii) x.(y.A) = (x.y).A

Demonstrações:

i) Pela definição da soma temos que

(A + B)ij = Aij + Bij = Bij + Aij = (B + A)ij , para todo i, j.

Isso significa que os números que aparecem na matriz A + B e na matriz B + A são iguais e ocupam
as mesmas posições. Portanto A + B = B + A.

ii) Pela definição da soma temos que

[(A + B) + C]ij = (A + B)ij + Cij = (Aij + Bij ) + Cij = Aij + (Bij + Cij ) = Aij + (B + C)ij = [A + (B + C)]ij ,

para todo i, j. Isso significa que os números que aparecem na matriz (A+B)+C e na matriz A+(B+C)
são iguais e ocupam as mesmas posições. Portanto (A + B) + C = A + (B + C).

iii) Pela definição da soma temos que

[A + 0m×n ]ij = Aij + 0ij = Aij + 0 = Aij .

43
Isso significa que os números que aparecem na matriz A + 0m×n e na matriz A são iguais e ocupam
as mesmas posições. Portanto A + 0m×n = A.

iv) Pela definição da produto de matriz por números e pela definição de soma temos que

[x.(A + B)]ij = x.[(A + B)ij ] = x.(Aij + Bij ) = x.Aij + x.Bij = [x.A]ij + [x.B]ij = [x.A + x.B]ij .

Isso significa que os números que aparecem na matriz x.(A + B) e na matriz x.A + x.B são iguais e
ocupam as mesmas posições. Portanto x.(A + B) = x.A + x.B.

v) (x + y).A = x.A + y.A Pela definição da produto de matriz por números e pela definição de
soma temos que

[(x + y).A]ij = (x + y).Aij = x.Aij + y.Aij = [x.A]ij + [y.A]ij = [x.A + y.A]ij

Isso significa que os números que aparecem na matriz (x + y).A e na matriz x.A + y.A são iguais e
ocupam as mesmas posições. Portanto (x + y).A = x.A + y.A.

vi) Pela definição da produto de matriz por números temos que

[0.A]ij = 0.Aij = 0.

Isso significa que os números que aparecem na matriz 0.A e na matriz 0m×n são iguais e ocupam as
mesmas posições. Portanto 0.A = 0m×n .

vii) Pela definição da produto de matriz por números temos que

[x.(y.A)]ij = x.[y.A]ij = x.(y.Aij ) = (x.y).Aij .

Isso significa que os números que aparecem na matriz x.(y.A) e na matriz (x.y).A são iguais e ocupam
as mesmas posições. Portanto x.(y.A) = (x.y).A.

Exercı́cio 3.3.1. Mostre exemplos para cada uma das propriedades da soma e do produto por números
descritas acima.

44
Propriedades da produto de matrizes

As seguintes propriedades valem.

i) Se Am×n e Br×s são matrizes então só podemos multiplicar AB quando n = r (números
de colunas de A é igual ao número de linhas de B). Nesse caso ABm×s .

ii) Em geral, AB é diferente de BA.


 
1 0 ... 0
 
 0 1 ... 0
 
iii) A matriz identidade Idm×m =  .. .. . . ..


 satisfaz Id.A = A e B.Id = B
. .

 . . 
 
0 0 ... 1

para quaisquer Am×n e Bn×m , ou seja, ela é o elemento neutro do produto.

iv) Sejam Am×n , Bn×r , Cr×s matrizes então

(A.B).C = A.(B.C).

v) Sejam Am×n , Bm×n , Cn×r e Ds×m matrizes então

(A + B).C = A.C + B.C e D.(A + B) = D.A + D.B.

vi) Seja Am×n uma matriz. Temos que A.0n×s = 0n×s e 0s×m .A = 0s×n .

Demonstrações:

i) Lembre-se A.B é o sı́mbolo que representa a composição da funções


   
x1 y1
 .   . 
   
A  ..  : Rn → Rm e B  ..  : Rs → Rr
   
xn ys

Essa composição só poder ser feita se o contradomı́nio da B estiver dentro do domı́nio da A, ou
seja, Rr ⊂ Rn . Isso só ocorre quando n = r.

ii) Observe o seguinte exemplo:


         
0 0 0 1 0 0 0 1 0 0 0 1
  = , mas   = 
0 1 0 0 0 0 0 0 0 1 0 0

iii) Pela definição de produto de matrizes: [Id.A]ij = Idi1 A1j + Idi2 A2j + . . . + Idim Amj .

45

 0, se i ̸= j
Mas Idij = . Assim [Id.A]ij = Idii Aij = 1.Aij = Aij .
 1, se i = j

Isso significa que os números que aparecem na matriz Id.A e na matriz A são iguais e ocupam as
mesmas posições. Portanto Id.A = A.
Da mesma maneira provamos B.Id = B. Deixo como exercı́cio.

    
x1 x1
.  .. 
    
 ..  = A B 
iv) Lembre-se que A.B  .  , pois A.B é o sı́mbolo que representa essa composição.
 
    
xr xr
Veja conclusão após definição 3.2.8.      
x1 x1
 .     . 
      
Então (A.B).C é o sı́mbolo C  ..  = A B C  .. .
que representa a composição A.B 
      
xr xr
      
x1 x1
 .     . 
      
Agora A.(B.C) é o sı́mbolo B.C  ..  = A B C  .. .
que representa a composição A 
      
xr xr
   
x1
  . 
   
Como as T.Ls que (A.B).C B C  ..  então (A.B).C
e A.(B.C) representam são iguais a A 
   
xr
e A.(B.C) devem ser iguais, pois só existe um sı́mbolo para cada T.L.

Exercı́cio 3.3.2. Prove as propriedades v) e vi) acima usando o fato que as matrizes representam
T.Ls.

Exercı́cio 3.3.3. Dê exemplos para cada uma das propriedades do produto de matrizes descritas
acima.

Exercı́cio 3.3.4. Seja An×n uma matriz e defina Ak =(((A.A).A) . . . .A).


k vezes

a) Mostre que (Ak ).(Am ) = Ak+m

b) Mostre que (Ak )m = Akm

c) Mostre que (A + Id)2 = A2 + 2A + Id

d) Mostre que (A + Id)3 = A3 + 3A2 + 3A + Id

OBS: Podemos denotar Ak simplesmente por A.A. . . . .A, porque o resultado dará igual indepen-
dente de como pusermos os parênteses. Por exemplo: A.(A. . . . (A.A))) = (A.((A.A).A). . . .)A. Isso é
consequência da associatividade do produto.

46
Exercı́cio 3.3.5. Sejam An×n , Bn×n matrizes.

a) Mostre que (A + B)2 = A2 + AB + BA + B 2 .

b) Encontre matrizes A2×2 , B2×2 tais que (A + B)2 ̸= A2 + 2AB + B 2 .

c) Explique porque existe diferença entre as fórmulas da letra a) e b).

3.4 Matrizes Inversas

Quando duas funções f : A → B e g : B → A desfazem o que a outra fez com a variável, isto é,
f (g(y)) = y e g(f (x)) = x para todo y ∈ B e todo x ∈ A, dizemos que f, g são funções inversas. Veja
exemplos na tabela abaixo.

f :R→R g:R→R f (g(x)) g(f (x))


x
f (x) = 2x g(x) = 2 2 x2 = x 2x
2 =x

h :]0, ∞[→ R j : R →]0, ∞[ h(j(x)) j(h(x))


h(x) = ln(x) j(x) = ex ln(ex ) = x eln(x) = x

Definição 3.4.1. Dizemos que An×n é invertı́vel se existir uma matriz Bn×n tal que AB = BA =
Idn×n . Denotaremos essa B por A−1 e a chamaremos de inversa da A.

Exemplo 3.4.2. a) A matriz 0n×n não possui inversa.

Pois 0n×n .B = 0n×n ̸= Id para qualquer matriz B.

   
1 1
1 −1 2 2
b) Considere A =  eB= .
1 1 − 21 1
2

      
1 1
1 −1 2 2 1. 21 + (−1).(− 12 ) 1. 12 + 1.(− 12 ) 1 0
A.B =   = = .
1 1 − 21 1
2 1. 12 + 1.(− 12 ) 1. 12 + 1. 21 0 1

47
      
1 1 1
2 2 1 −1 2 .1 + 12 .1 1
2 .(−1) + 12 .1 1 0
B.A =   = = .
− 12 1
2 1 1 1
2 .(−1) + 12 .1 (− 12 )(−1) + 21 .1 0 1

Portanto A e B são inversas.

   
x x
 1   1 
 .   . 
Observação 3.4.3. As matrizes A, B serem inversas equivalem as T.Ls A  ..  e B  ..  serem
   
xn xn
funções inversas. Vejamos isso abaixo.
           
x1 x1 x1 x1 x1
.   .    .   ..  .. 
           
•  ..  e B  ..  forem funções inversas
Se A  então A B  ..  =  .  = B A 
 
. 
           
xn xn xn xn xn
   
x1 x1
.   . 
   
Como   ..  = Id  ..  então A.B, B.A e Id são sı́mbolos que representam a mesma T.L.
   
xn xn
Agora cada T.L. possui apenas um sı́mbolo então AB = BA = Id. Isto é, A, B são matrizes
inversas.

• Se A, B forem matrizes inversas então AB = BA = Id. Assim


               
x1 x1 x1 x1 x1 x1 x1
  .  ...  ...  ...  ...  ...  ... 
               
A B  ..  = A.B   = Id  =  = Id   = BA   = B A 
       

               
xn xn xn xn xn xn xn

   
x1 x1
 .   . 
   
Portanto as T.Ls A  ..  e B  ..  são funções inversas.
   
xn xn

Exercı́cio 3.4.4. Seja An×n uma matriz invertı́vel. Seja b ∈ Rn .

a) Mostre que o sistema (A|b) tem uma única solução.

b) Mostre que a matriz reduzida obtida da matriz A deve ser a Idn×n .

Solução: a) Note que o sistema (A|b) é a matriz ampliada do seguinte sistema





 a11 x1 + . . . + a1n xn = b1


 a21 x1 + . . . + a2n xn = b2

.
 ..





an1 x1 + . . . + ann xn = bn

48
Podemos reescrever esse sistema da seguinte maneira usando produto de matrizes.
    
a11 . . . a1n x1 b1
    
 a21 . . . a2n x2 b2
    
   
=
 .. .. .. ..
  
..
.
   
 . .  .   . 
    
an1 . . . ann xn bn
| {z }| {z } | {z }
A x b

Assim Ax = b. Queremos os vetores x ∈ Rn que satisfazem isso. Como existe A−1 por hipótese do
exercı́cio, podemos multiplicá-la dos dois lados da equação Ax = b para obter:

A−1 (Ax) = A−1 b ⇒ (A−1 A)x = A−1 b ⇒ Id.x = A−1 b ⇒ x = A−1 b.

Portanto existe só um x que satisfaz Ax = b. Ele é o x = A−1 b.

b) No quadro de possı́veis soluções de um sistema linear da página 26, havı́amos visto que só havia
um formato possı́vel para matriz reduzida que garantia solução única. Era o formato do primeiro tipo
(tipo A). Mas esse formato diz que a identidade Idn×n deve aparacer do lado esquerdo do sistema
ampliado depois de reduzı́-lo para garantir solução única. Como o nosso sistema possui solução única
e além disso só possui n linhas e n incógnitas teremos o seguinte sistema reduzido:

redução
(An×n |b) −−−−−→ (Idn×n |c),

ou seja, a redução da An×n deve dar Idn×n , quando A é invertı́vel.

É claro que esse c = A−1 b como vimos na letra a).

3.5 Método para calcular inversa de uma matriz.

Dada uma matriz An×n veremos agora um método para tentar calcular uma matriz Bn×n tal que
A.B = Idn×n .

• O método pode não funcionar e nesse caso não existirá uma B tal que A.B = Id. Portanto A
não terá inversa.

• Se o método funcionar e você achar B tal que AB = Id faltaria mostrar que BA = Id, pois
para B ser inversa de A os dois produtos AB e BA teriam que ser iguais a Id e não apenas
o primeiro. Entretanto isso não será necessário, pois existe um teorema que diz que se An×n

49
e Bn×n satisfazem AB = Id então BA = Id. Não veremos ele agora, deixaremos para vê-lo
depois.

Vou discutir o método para calcular inversa para matrizes 2 × 2. Para matrizes n × n o método
será idêntico.

        
1 −1 b11 b12 1 −1 b11 b12 1 0
Seja A= . Buscamos uma B=  tal que   = .
1 1 b21 b22 1 1 b21 b22 0 1

   
1.b11 + (−1).b21 1.b12 + (−1).b22 1 0
Obtemos  = .
1.b11 + 1.b21 1.b12 + 1.b22 0 1

Igualando as primeiras colunas da matrizes e depois as segundas, obtendo 2 sistemas lineares.


 
 1.b11 + (−1).b21 = 1  1.b12 + (−1).b22 = 0
 1.b + 1.b = 0  1.b + 1.b = 1
11 21 12 22

   
1 −1 1 1 −1 0
Suas matrizes ampliadas são   e  .
1 1 0 1 1 1

Vimos na observação 2.2.2 que podemos resolver esses dois sistemas ao mesmo tempo.

       
1 1
1 −1 1 0 L2 ↔L2 −L1 1 −1 1 0 L2 ↔ 12 .L2 1 −1 1 0 L1 ↔L1 +L2 1 0 2 2
  −−−−−−−→   −−−−−−→   −−−−−−−→  .
1 1 0 1 0 2 −1 1 0 1 − 12 1
2 0 1 − 12 1
2
| {z } | {z }
(A|Id) (Id|B)

  
1  b11 = 1
1 0 2 2
A redução do primeiro sistema fica  . Isso implica que .
0 1 − 12  b = −1
21 2

  
1 1
1 0 2
 b12 =
2
A redução do segundo sistema fica  . Isso implica que .
1 1
0 1 2
 b =
22 2

 
1 1
2 2
Isso implica que B =  , ou seja, B é matriz que fica do lado direito da Id depois que
− 21 12
você reduzir o sistema ampliado (A|Id2×2 ). Veja a matriz em vermelho acima.

50
Método para calcular inversa de uma matriz n × n

Seja An×n . Para calcular sua inversa siga os seguintes passos.

1. Construa a matriz (A|Id)

2. Reduza a matriz (A|Id) até obter a matriz Id do lado esquerdo: (Id|B)

3. A matriz B do lado direito satisfaz A.B = Id.

OBS: Se na etapa 2 do processo de obter a inversa você não conseguir obter a Id do lado
esquerdo então A não possui inversa, pois vimos no exercı́cio 3.4.4 que se An×n possui inversa
então sua matriz reduzida é a Idn×n . O processo acima só falha para matrizes que não são
invertı́veis.

Exercı́cio 3.5.1. Encontre se existir a inversa das seguintes matrizes.


   
  1 1 0 0
1 1 1
1 2
 
 0 1 0 0 
   
a) A =   b) B= 0 2 2
 
 c) C=



 0 0 1 1 
2 4
 
0 0 3
 
0 0 1 1

Exercı́cio 3.5.2. Seja An×n uma matriz invertı́vel. Mostre que se Bn×n satisfaz A.B = 0n×n então
B = 0n×n .

Solução: Multiplique por A−1 dos dois lados da equação A.B = 0n×n e obtenha

A−1 (AB) = A−1 .0n×n .

Pelas propriedades dos produtos de matrizes sabemos que

A−1 .0n×n = 0n×n e A−1 (AB) = (A−1 A)B = Id.B = B.

Assim B = 0n×n . □

   
a b d −b
Exercı́cio 3.5.3. Consider as seguintes matrizes: A =  eB= .
c d −c a

a) Calcule A.B

b) Utilizando o exercı́cio anterior mostre que A é invertı́vel se e somente se ad − bc ̸= 0.

51
m vezes
z }| {
Exercı́cio 3.5.4. Considere An×n . Seja Am =A.A . . . .A.A. Mostre que se A5 + 3A4 + 2A + Id = 0
então A é invertı́vel.

Exercı́cio 3.5.5. Sejam An×n , Bn×n , Cn×n matrizes satisfazendo A2 = B 2 = C 2 e B 3 = ABC + 2Id.
Mostre que A6 = Id.

3.6 A Matriz Transposta

Falaremos nessa seção sobre a matriz transposta. Existem diversos resultados importantes rela-
cionados a ela. Entretanto não é fácil nesse ponto da matéria justificar a sua existência ou mesmo
torná-la natural. Portanto vamos direto para as definições e resultados.
 
  1 4
1 2 3  
Considere as matrizes A2×3 =   e B3×2 =  2 5 .
 
4 5 6  
3 6

A matriz B foi obtida de A transformando suas linhas em colunas. Essa operação é chamada de
transposição. Portanto B é a transposta da matriz A.

Agora note que B11 = A11 , B12 = A21 , B21 = A12 , B22 = A22 , B31 = A13 , B32 = A23 .

Definição 3.6.1. Seja Am×n uma matriz. A operação que transforma as linhas da matriz em colunas
é chamada de transposição. O resultado dessa operação que será denotado por At é chamado de
transposta da matriz A. Uma outra maneira de definir a transposta de uma matriz é pela equação
Atij = Aji para todo i e j.

52
Relação da transposição com a soma e com a multiplicação

Teorema 3.6.2. Sejam Am×n , Bm×n e Cn×r matrizes e x ∈ R .

a) (x.A)t = x.At

b) (A + B)t = At + B t

c) (AC)t = C t At

Demonstração. a) (x.A)tij = (x.A)ji = x.Aji = x.(At )ij . Isso significa que as entradas da
matriz (x.A)t e x.At são iguais e ocupam as mesma posições, ou seja, são matrizes iguais.

b) (A + B)tij = (A + B)ji = Aji + Bji = Atij + Bij


t . Isso significa que as entradas da matriz

(A + B)t e At + B t são iguais e ocupam as mesma posições, ou seja, são matrizes iguais.

c) (AC)tij = (AC)ji = Aj1 C1i +Aj2 C2i +. . .+Ajn Cni = Ci1


t At +C t At +. . .+C t At = (C t At ) .
1j i2 2j in nj ij

Isso significa que as entradas da matriz (AC)t e C t At são iguais e ocupam as mesma posições,
ou seja, são matrizes iguais.

Definição 3.6.3. Seja An×n uma matriz. Dizemos que A é simétrica se At = A. Dizemos que A é
anti-simétrica se At = −A.
 
1 2 2  
  0 −2
Exemplos: 
 2 6 4

 é simétrica e   é anti-simétrica.
  2 0
2 4 5

OBS: A simetria de uma matriz simétrica é com respeito a sua diagonal.


A diagonal 1 6 5 é como um espelho que reflete a parte de cima da matriz na de baixo.

Exercı́cio 3.6.4. Sejam An×n , Bn×n , . . . ,Zn×n matrizes.

a) (ABC)t = C t B t At

b) (AB . . . Z)t = Z t . . . C t B t At

c) (At )t = A

d) AAt é simétrica.

53
e) Qualquer matriz An×n é uma soma de uma simétrica com uma anti-simétrica.

f ) Qualquer combinação linear de simétricas é simétrica.

g) Qualquer combinação linear de anti-simétricas é anti-simétrica.

Solução: a) Lembre-se que ABC = (AB)C.

Então (ABC)t = [(AB)C]t = C t (AB)t , pelo teorema 3.6.2 letra c).

Novamente temos que (AB)t = B t At , pelo teorema 3.6.2 letra c).

Então (ABC)t = C t B t At .

f ) Sejam A e B matrizes simétricas, isto é, A = At e B = B t .

Pelo teorema 3.6.2 letras b) e a), (x.A + y.B)t = (x.A)t + (y.B)t = x.At + y.B t .

Como A e B são matrizes simétricas (x.A + y.B)t = x.A + y.B, ou seja, qualquer combinação
linear de simétricas é simétrica.

3.7 Matrizes Elementares: Átomos das matrizes invertı́veis

As operações elementares ao serem aplicadas uma única vez nas linhas da matriz identidade criam
as chamadas matrizes elementares. Elas são importantes porque qualquer matriz invertı́vel é produto
de elementares (ou seja, as invertı́veis são as moléculas e as elementares os átomos).

Definição 3.7.1. As matrizes elementares n × n são aquelas obtidas através de uma única operação
elementar nas linhas da Idn×n .

Exemplos:
     
1 0 L1 ↔2.L1 2 0 2 0
a)  −
−−−−−→  . Portanto   é uma matriz elementar.
0 1 0 1 0 1

     
1 0 L1 ↔L2 0 1 0 1
b)  −−−−→  . Portanto   é uma matriz elementar.
0 1 1 0 1 0

54
     
1 0 L1 ↔L1 +3.L2 1 3 1 3
c)  −−−−−−−−→  . Portanto   é uma matriz elementar.
0 1 0 1 0 1

As matrizes elementares são interessantes pelo seguinte motivo.

Multiplicação à esquerda por matrizes elementares

Teorema 3.7.2. Seja En×n uma matriz elementar obtida da Idn×n através de uma operação
elementar nas suas linhas. Se multiplicarmos E à esquerda de qualquer matriz An×m o resultado
será a matriz EA que é a matriz obtida realizando a mesma operação elementar que criou E
nas linhas da A.

Exemplos: Aproveitando os exemplos anteriores observe a mágica acontecer.

Matriz: E Produto: EA Operação elementar que criou E em A

          
2 0 2 0 x y 2x 2y x y L1 ↔2.L1 2x 2y
    =   −
−−−−−→  
0 1 0 1 z w z w z w z w

          
0 1 0 1 x y z w x y L1 ↔L2 z w
    =   −−−−→  
1 0 1 0 z w x y z w x y

          
1 3 1 3 x y x + 3z y + 3w x y L1 ↔L1 +3.L2 x + 3z y + 3w
    =   −−−−−−−−→  
0 1 0 1 z w z w z w z w

Teorema 3.7.3. As matrizes elementares são invertı́veis e suas inversas são também matrizes ele-
mentares.

Demonstração. Note que se realizamos a operação Li ↔ x.Li na Id podemos desfazê-la realizando


a nova operação Li ↔ x1 .Li . Se trocamos duas linhas da Id de lugar, podemos trocá-las de novo de
lugar para voltar a ser a Id. Se realizamos a operação Li ↔ Li + x.Lj , podemos desfazê-la realizando
a nova operação Li ↔ Li − x.Lj .
Cada operação elementar pode ser desfeita por outra operação elementar.
Se E é uma matriz elementar então ela foi obtida da Id por uma operação elementar que pode
ser desfeita por uma segunda operação elementar. Aplique essa segunda operação elementar na Id e
obtenha a matriz elementar F .

55
Acabamos de aprender que F E resulta na matriz que é obtida da E realizando a segunda aoperação
elementar, ou seja, F E = Id.
Agora podemos repetir o argumento e achar um outra matriz elementar G tal que GF = Id.
Então temos

F E = Id ⇒ G.(F E) = G.Id ⇒ (G.F ).E = G ⇒ Id.E = G ⇒ E = G.

Conclusão F E = Id e GF = Id, mas G = E. Portanto F E = Id e EF = Id, ou seja, F é inversa


da E. Assim toda matriz elementar E é invertı́vel e sua inversa é outra matriz elementar.

Teorema 3.7.4. Uma matriz é invertı́vel se e somente se é produto de matrizes elementares.


As matrizes elementares são os átomos que formam as invertı́veis.

Demonstração. Seja An×n uma matriz invertı́vel. Vimos no exercı́cio 3.4.4 que quando reduzimos A
usando as operações elementares obtemos a Idn×n .
Como podemos escrever cada operação elementar por um produto com uma matriz elementar
então para realizar primeira operação elementar em A podemos escrevê-la assim E1 A.
Para realizar a segunda operação elementar podemos fazer: E2 .E1 .A.
Assim sucessivamente até obter a matriz reduzida de A:

En .En−1 . . . E1 A = Id.

Agora cada Ei é matriz elementar e pelo teorema 3.7.3 possui uma inversa Fi que também é
elementar.
Multiplicando F1 . . . Fn−1 Fn dos dois lados da equação acima obtemos

F1 . . . Fn−1 Fn (En En−1 . . . E1 A) = (F1 . . . Fn−1 Fn )Id

Agora como Fn En = Id, Fn−1 En−1 = Id, . . . , F1 E1 = Id obtemos

A = F1 . . . Fn−1 Fn .

Acabamos de provar que toda matriz invertı́vel é produto de elementares.

Agora, vamos provar o contrário. Suponha que A = E1 . . . En , onde cada Ei é elementar.

Sabemos que cada Ei possui uma inversa Fi .

Assim (Fn . . . F1 )A = Fn . . . F1 E1 . . . En =

56
Fn . . . F2 (F1 E1 )E2 . . . En = Fn . . . F2 (Id)E2 . . . En = . . . = Fn En = Id.

Portanto todo produto de elementares é invertı́vel.

 
1 1
Exercı́cio 3.7.5. Considere a matriz A =  .
2 3

a) Encontre A−1 .

b) Encontre matrizes elementares que multiplicadas dão A.

Solução: a) Para calcular a inversa de A precisamos reduzir o seguinte sistema.


     
1 1 1 0 L2 ↔L2 +(−2).L1 1 1 1 0 L1 ↔L1 +(−1).L2 1 0 3 −1
 −−−−−−−−−−→  −−−−−−−−−−→  
2 3 0 1 0 1 −2 1 0 1 −2 1

 
3 −1
Então A−1 =  .
−2 1

b) Lembre-se cada operação elementar nas linhas de uma matriz corresponde a uma multiplicação
à esquerda por uma matriz elementar e a matriz elementar correspondente é aquela obtida realizando
a mesma operação na Id2×2 .
   
1 1 1 1
Note que   foi obtida de A =   somando a segunda linha −2 vezes a primeira.
0 1 2 3
Seja E1 a matriz elementar obtida da Id2×2 somando a segunda linha −2 vezes a primeira, isto é,
   
1 0 1 1
E1 =  . Então E1 A =  .
−2 1 0 1

   
1 0 1 1
Note que   foi obtida de E1 A =   somando a segunda linha −1 vezes a primeira.
0 1 0 1

Seja E2 a matriz elementar obtida da Id2×2 somando a primeira linha −1 vezes a segunda, isto é,
     
1 −1 1 1 1 0
E2 =  . Então E2  = .
0 1 0 1 0 1

Assim E2 E1 A = Id.

57
Sejam F1 , F2 as matrizes elementares que são as inversas de E1 , E2 .

     
1 0 1 0 L2 ↔L2 +(2).L1 1 0 1 0 1 0
(E1 |Id) =  −−−−−−−−−→  . Assim F1 =  .
−2 1 0 1 0 1 2 1 2 1

     
1 −1 1 0 L2 ↔L2 +1.L1 1 0 1 1 1 1
(E2 |Id) =  −−−−−−−−→  . Assim F2 =  .
0 1 0 1 0 1 0 1 0 1

Como E2 E1 A = Id, multiplicando ambos os lados por F1 F2 obtemos

F1 F2 E2 E1 A = F1 F2 .Id.

Como F2 E2 = F1 E1 = Id temos A = F1 F2 .

Podemos conferir se nossos cálculos deram certo. Observe que


    
1 0 1 1 1 1
F1 F2 =   =  = A.
2 1 0 1 2 3

58
Capı́tulo 4

Função Determinante

4.1 Determinante é uma função

A partir

de

agora escreveremos uma matriz An×n indicando suas linhas da seguinte maneira:
L
 1 
 .. 
A =  . , onde Li representa a linha i de A. Note que Li é um vetor do Rn deitado.
 
Ln

Definição 4.1.1. Seja Mn×n (R) o conjunto das matrizes n×n. Chamamos uma função d : Mn×n (R) →
R de função determinante se ela possuir as seguintes propriedades.
   
 L1   L1 
... ...
   
   
   
para qualquer x ∈ R e para qualquer linha Li .
   
1) d  x.Li  = x.d 
 
 Li ,

 .   .. 
 . 
 .  .
 
 
   
Ln Ln

Isto é, se você multiplicar qualquer linha de uma matriz por um número x altera o valor da
função determinante por um fator x . Outra maneira de entender isso é que você pode por o x
que multiplica a linha Li para fora.
   
1 2 1 2
Exemplo: d   = x.d  
x.3 x.4 3 4

59
     
 L1   L1   L1 
 ..   ..   .. 
 .   .   .       
1 2 1 2 1 2
     
     
2) d  Li + L′i
  = d
  Li  + d
  L′i ,
 em toda linha i. Exemplo: d  = d  + d 
 ..   ..   ..  3+5 4+6 3 4 5 6
. . .
     
     
     
Ln Ln Ln

 
L1
 

 ... 

 
   
 Li 

 ..

 1 2
3) d
 .  = 0.
 Exemplo: d  =0
  1 2

 Li 

 .. 
.
 
 
 
Ln

Isto é, se uma matriz tiver duas linhas iguais então uma função determinante aplicada nela vale
zero.
   
L1 L1
   

 ... 


 ... 

   
       
 Li   Lj 

..
 
..
 1 2 3 4
3′ )  = −d 
   
d .  = −d  . . Exemplo: d  
   
    3 4 1 2

 Lj 


 Li 

 ..   .. 
. .
   
   
   
Ln Ln

Isto é, trocar duas linhas de lugar altera o valor da função determinante por um fator -1.
 
1 0 ... 0
 
 0 1 ... 0 
 
4) d 
 .. .. . . ..  = 1

 . . . . 
 
0 0 ... 1

Observação 4.1.2. Eu chamei a propriedade que vem depois da 3) de 3′ ) porque na verdade ela segue
da propriedade 2) e 3), isto é, se 2) e 3) valem então também vale 3′ ).

Exercı́cio 4.1.3. Mostre que a propriedade 3′ ) é consequência da 2) e 3) para as funções determinante


d : M2×2 (R) → R.
   
L1 L2
Solução: Quero mostrar que d  = −d  .
L2 L1

60
Pela propriedade 2) temos que
             
L1 + L2 L1 L2 L1 L1 L2 L2
d  = d  + d  = d  + d  + d  + d .
L1 + L2 L1 + L2 L1 + L2 L1 L2 L1 L2

     
L1 + L2 L1 L2
Pela propriedade 3) temos que d  = d  = d  = 0.
L1 + L2 L1 L2

       
L1 L2 L2 L1
Assim 0 = d  + d , ou seja, d  = −d  . □
L2 L1 L1 L2

Observação 4.1.4. Essa maneira de definir uma função determinante como sendo uma função
que possui propriedades levanta duas perguntas importantes:

a) Existe uma função determinante?

b) Quantas existem?

Exercı́cio 4.1.5. Mostre que a seguinte função é uma função determinante.


 
a b
f : M2×2 (R) → R, f   = ad − bc
c d

Solução: Precisamos verificar as propriedades 1, 2, 3 e 4 (3′ não é necessária pois ela segue da 2 e da
3).

Propriedade 1:
       
x.a x.b a b a b a b
f  = xad − xbc = x.f   e f  = a(xd) − b(xc) = x.f  .
c d c d x.c x.d c d

Então a propriedade 1) vale.

Propriedade 2:

     
a + a′ b + b′ a b a′ b′
f  = (a + a′ )d − (b + b′ )c = ad − bc + a′ b − b′ c = f  +f 
c d c d c d

61
     
a b a b a b
f  = a(d + d′ ) − b(c + c′ ) = ad − bc + ad′ − bc′ = f  +f 
c + c′ d + d′ c d c′ d′

Então a propriedade 2) vale.

Propriedade 3:
 
a b
f  = ab − ba = 0. Então a propriedade 3) vale.
a b

Propriedade 4:
 
1 0
f  = 1.1 − 0.0 = 1. Então a propriedade 4) vale.
0 1

 
a b
Conclusão: f : M2×2 (R) → R, f   = ad − bc é uma função determinante. □
c d

Acabamos de encontrar uma função determinante para matrizes 2 × 2. O próximo e exercı́cio mos-
trar que todas as funções determinanates são iguais a ela. Portanto só existe uma função determinante
para matrizes 2 × 2 .

 
a b
Exercı́cio 4.1.6. Mostre que se f : M2×2 (R) → R é uma função determinante então f   = ad − bc.
c d

Solução: Pela propriedade 2) temos que


             
a b a 0 0 b a 0 a 0 0 b 0 b
f =f +f =f +f +f +f 
c d c d c d c 0 0 d c 0 0 d

Aplicando a propriedade 1) nas linhas de todas essas matrizes obtemos

         
a b 1 0 1 0 0 1 0 1
f  = ac. f   +ad. f   +bc. f   +bd. f  = ad − bc. □
c d 1 0 0 1 1 0 0 1
| {z } | {z } | {z } | {z }
= 0, por 3) = 1, por 4) = −1, por 3) = 1, por 4)

62
Determinante de matrizes 2 × 2
Definição 4.1.7. Acabamos de ver nos dois exercı́cios anteriores que existe apenas uma função
determinante para matrizes 2 × 2. A partir de agora ela será denotada por
 
a b
det : M2×2 (R) → R, det   = ad − bc
c d

Exercı́cio 4.1.8. Mostre que se f : M3×3 (R) → R é uma função determinante então
 
a a a
 11 12 13
     
 a22 a 23 a21 a 23 a21 a 22
f  a21 a22 a23

 = a11 det 
  − a12 det   + a13 det  .
  a32 a33 a31 a33 a31 a32
a31 a32 a33

Solução:
           
a a a a 0 0 0 a12 a13 a 0 0 0 a12 0 0 0 a13
 11 12 13   11     11     
f  a21 a22 a23  =f  a21 a22 a23  + f  a21 a22 a23 = f  a21 a22 a23  + f  a21 a22 a23  + f  a21 a22 a23
           

           
a31 a32 a33 a31 a32 a33 a31 a32 a33 a31 a32 a33 a31 a32 a33 a31 a32 a33
| {z } | {z }
Pela propriedade 2) Pela propriedade 2) de novo

 
a11 0 0  
  a22 a23
Vou mostrar agora que f  a21 a22 a23

 = a11 det 
 .
  a32 a33
a31 a32 a33

Note que
           
a11 0 0 a11 0 0 a11 0 0 a11 0 0 a11 0 0 a11 0 0
           
f  a21 a22 a23  = f  a21 0  + f  0 a22 a23 = f  a21 0  + f  0 a22 a23 +f 0
           
0 0 a22 a23 
           
a31 a32 a33 a31 a32 a33 a31 a32 a33 a31 a32 a33 a31 0 0 0 a32 a33
| {z } | {z }
Pela propriedade 2) Pela propriedade 2)

       
1 0 0 1 0 0 a 0 0 a 0 0
     11   11 
=a11 a21 f  1  + a31 f  0 a22 a23  +f  0 a22 a23 = 0 + 0 +f  0 a22 a23 .
       
0 0 |{z} |{z}
       
Pela propriedade 3) Pela propriedade 3)
a31 a32 a33 1 0 0 0 a32 a33 0 a32 a33
| {z } | {z }
Pela propriedade 1) Pela propriedade 1)

     
a 0 0 a 0 0 a 0 0
 11   11   11 
= f  0 a22 a23  =f  0 a22 0 +f 0 =
     
0 a23
     
0 a32 a33 0 a32 a33 0 a32 a33
| {z }
Pela propriedade 2)

       
a11 0 0 a11 0 0 a11 0 0 a11 0 0
       
=f  0 a22 0  + f  0 0 +f 0 a23  + f  0
       
a22 0 0 a23 
       
0 a32 0 0 0 a33 0 a32 0 0 0 a33
| {z } | {z }
Pela propriedade 2) Pela propriedade 2)

63
Pela propriedade 1) aplicada em todas nas linha dessas matrizes acima obtemos
       
1 0 0 1 0 0 1 0 0 1 0 0
       
= a11 a22 a32 f  0 1 0  +a11 a22 a33 f  0 1 0  +a11 a23 a32 f  0 0 1  + a11 a23 a33 f  0 0 1 
       
       
0 1 0 0 0 1 0 1 0 0 0 1
| {z } | {z } | {z }
=0 por3) =1 por4) =0 por 3)

   
1 0 0 1 0 0
   
Note que f 0 0 1

 = −f  0 1 0
 
 = −1

pela propriedade 3′ .
   
0 1 0 0 0 1

 
a 0 0
 11
 
 a22 a23
Assim f  a21 a22 a23

 = a11 (a22 a33 − a23 a32 ) = a11 det 
 
  a32 a33
a31 a32 a33

Mas essa é só a primeira parte. Ainda existem outras duas que vou deixar como exercı́cio porque
a conta é igual a que acabamos de fazer. Portanto quero que você mostre que
   
0 a12 0   0 0 a13  
  a21 a23   a21 a22
f  a21 a22 a23

 = −a12 det 
  e f
 a21 a22 a23  = a13 det 
 .
  a31 a33   a31 a32
a31 a32 a33 a31 a32 a33

Assim concluimos o exercı́cio. □

Determinante de matrizes 3 × 3

É possı́vel provar que essa f : M3×3 (R) → R do exercı́cio anterior satisfaz todas as propriedades
da função determinante, ou seja, ela é uma função determinante e pelo exercı́cio anterior todas
as funções determinantes são iguais a ela, ou seja, só existe uma função determinante para
matrizes 3 × 3.

Definição 4.1.9. Definimos a função determinante det : M3×3 (R) → R assim:

 
a11 a12 a13      
  a22 a23 a21 a 23 a21 a 22
det  a21 a22 a23

 = a11 det 
  −a12 det   +a13 det   .
  a32 a33 a31 a33 a31 a32
a31 a32 a33 | {z } | {z } | {z }
matriz obtida eliminando matriz obtida eliminando matriz obtida eliminando
linha 1 e coluna 1 linha 1 e coluna 2 linha 1 e coluna 3

64
Exercı́cio 4.1.10. Mostre que se f : M3×3 (R) → R é uma função determinante então
 
a11 a12 a13      
  a12 a13 a11 a13 a11 a12
a) det  a21 a22 a23

 = (−1)a21 det 
  + a22 det   + (−1)a23 det  .
  a32 a33 a31 a33 a31 a32
a31 a32 a33
 
a11 a12 a13      
  a12 a 13 a 11 a13 a 11 a12
b) det  a21 a22 a23

 = a31 det 
  + (−1)a32 det   + a33 det  .
  a22 a23 a21 a23 a21 a22
a31 a32 a33

DICA: Troque de lugar a segunda linha com a primeira e use a fórmula do determinante para resolver
a letra a). Para resolver a letra b), troque a terceira linha com a segunda e depois a segunda com a
primeira e utilize a fórmula do determinante.

Observação 4.1.11. Vimos o exercı́cio 4.1.8 que só existe uma função determinante e que a fórmula
dela é dada pela definição 4.1.9. Então o que são essas novas fórmulas do exercı́cio anterior? São
apenas outras formas de calcular o determinante da matriz (outras facetas da mesma função). Veja
o seguinte teorema.

Expansão de Laplace nas linhas

Teorema 4.1.12. Para cada n existe uma única função determinante det : Mn×n (R) → R.
Ela pode ser calculada de diversas maneiras. Seja An×n .

• Seja ∆ij a matriz (n − 1) × (n − 1) obtida da A eliminando a sua linha i e a sua coluna j.

• Consider o det(∆ij ). Note que esse determinante é o único que existe para matrizes
(n − 1) × (n − 1).

Então det(A) = (−1)i+1 ai1 det(∆i1 ) + (−1)i+2 ai2 det(∆i2 ) + . . . + (−1)i+(n−1) ai(n−1) det(∆i(n−1) ) + (−1)i+n ain det(∆in ).

Essa fórmula para determinante da matriz An×n utilizando o determinante das matrizes
(∆ij )(n−1)×(n−1) variando o j, ou seja, percorrendo a linha i. Essa é a chamada expansão
de Laplace do determinante pela linha i.

Exercı́cio 4.1.13. Calcule os seguintes determinantes:

65
 
    1 1 1 1
2 3 4 5
3 2 3 1 1 1  
     1 1 1 1 
3 4 5 6
 
a) det  0 2 4  b) det  2 3 4 c) det 
    

     1 1 1 1 
4 5 6 7
 
0 0 1 22 32 42
 
1 1 1 1
5 6 7 8

Solução: a) Vamos fazer a expansão de Laplace na última linha.


 
3 2 3      
  2 3 3 3 3 2
det  0 2 4  = (−1)3+1 .0. det   + (−1)3+2 .0 det   + (−1)3+3 .1. det 
  
  2 4 0 4 0 2
0 0 1

= 0 + 0 + 1.(3.2 − 0.2) = 6

Exercı́cio 4.1.14. Encontre um polinômio p(x) = a0 + a1 x + a2 x2

a) que satisfaz p(2) = 1, p(3) = 2 e p(4) = 3. DICA: Monte um sistema linear.

b) Quantos polinômios desse tipo existem? DICA: Números de soluções do sistema acima.

4.2 Como as operações elementares nas linhas afetam o determi-


nante?

A seguir aprenderemos como as operações elementares afetam o valor do determinante e isso


nos permitirá calcular o determinante de maneira bem eficiente. Depois veremos vários teoremas
importantes que decorrem disso.

Teorema 4.2.1. Seja Bn×n a matriz obtida de An×n através da seguintes operações elementares nas
linhas de A:

a) Li ↔ Lj então det(B) = − det(A)

b) Li ↔ x.Li , onde x ̸= 0, então det(B) = x. det(A)

c) Li ↔ x.Lj + Li então det(B) = det(A)

Demonstração. a) Pela propriedade 3′ ) se trocarmos duas linhas de lugar então o valor do determi-
nante fica alterado por um fator de −1.

66
   
 L1   L1 
 . ..
 ..
  




 . 

b) Pela propriedade 1), como det(B) =  = x.det(A).
   
det 
 x.Li
 = x. det 
  Li 
 .   .. 
 .
 . . 
  
 
   
Ln Ln

         
L1 L L1 L1 L1
   1       
 ..   ..   ..   ..   .. 

 . 

 . 
 

 . 


 . 


 . 

         
 Li + xLj   Li   xLj   Li   Lj 
         
..  .  ..  ... ...
c) det(B) =  = det  ..  + det  = det(A).
       
det 
 .     . = det 

 + x.
 det 



         

 L j


 L 
 j 

 Lj  

 Lj 


 Lj 

 ..   . 
 . 
 ..  
...
 
...

.  .  . 
       
      
         
Ln Ln Ln Ln Ln
| {z } | {z }
Pela propriedade 2) = 0 Prop. 1) e 3)

Corolário 4.2.2. Seja En×n a matriz elementar obtida de Idn×n através da seguintes operações
elementares nas linhas de Id:

a) Li ↔ Lj então det(E) = −1

b) Li ↔ x.Li , onde x ̸= 0, então det(E) = x

c) Li ↔ x.Lj + Li então det(E) = 1

Em particular note que o determinante de qualquer matriz elementar é diferente de zero.

Demonstração. Isso é consequência imediata do teorema anterior. Basta substituir A pela Id e usar
que det(Id) = 1.

Corolário 4.2.3. Seja En×n a matriz elementar e An×n uma matriz qualquer det(EA) = det(E) det(A).

Demonstração. Sejam Ea , Eb e Ec as matrizes elementares obtidas da Id pelas operações elementares


descritas nas letras a), b) e c) do teorema 4.2.1.
Como Ea A realiza a operação elementar a) em A, pelo teorema 4.2.1, sabemos que
det(Ea A) = − det(A). Pelo corolário anterior sabemos que det(Ea ) = −1.
Assim det(Ea A) = det(Ea ) det(A)
Como Eb A realiza a operação elementar b) em A, pelo teorema 4.2.1, sabemos que
det(Eb A) = x. det(A). Pelo corolário anterior sabemos que det(Eb ) = x.
Assim det(Eb A) = det(Eb ) det(A).

67
Como Ec A realiza a operação elementar c) em A, pelo teorema 4.2.1, sabemos que
det(Ec A) = 1. det(A). Pelo corolário anterior sabemos que det(Ec ) = 1.
Assim det(Ec A) = det(Ec ) det(A).
Isso prova o corolário.

4.3 Teoremas Importantes sobre Determinante

Teorema 4.3.1. An×n é invertı́vel se e somente se det(A) ̸= 0. Portanto se A não é invertı́vel, seu
determinante vale zero.

Demonstração. Temos que provar duas coisas

i. Se det(A) ̸= 0 então A é invertı́vel.

ii. Se A é invertı́vel então det(A) ̸= 0.

i. Multiplicando por matrizes elementares podemos reduzir A até seu formato reduzido R, ou seja,
En En−1 . . . E2 E1 A = R.
Suponha que R tenha uma alguma linha nula. Portanto det(R) = 0, porque podemos por 0 que
multiplica a linha para fora, pela propriedade 1) do determinante.
Agora det(En En−1 . . . E2 E1 A) = det(R) e, pelo corolario 4.2.3,

det(R) = det(En En−1 . . . E2 E1 A) = det(En ) det(En−1 . . . E2 E1 A) =


det(En ) det(En−1 ) det(En−2 . . . E2 E1 A) = det(En ) det(En−1 ) . . . det(E1 ) det(A)

Mas lembre-se que det(Ei ) ̸= 0, para todo i, pelo corolário 4.2.2. Como det(R) = 0 e det(Ei ) ̸= 0,
para todo i, então det(A) = 0. Mas aqui estamos assumindo que det(A) ̸= 0, ou seja, cometemos um
erro.
O erro foi dizer que o formato reduzido de A tem uma linha nula. Para evitar o erro devemos
concluir que R não tem linha nula. Assim R = Id pelo exercı́cio 2.2.6.
Portanto En En−1 . . . E2 E1 A = Id. Acabamos de encontrar a inversa de A: En En−1 . . . E2 E1 .
Provamos que se det(A) ̸= 0 então A tem inversa. Vamos provar o contrário agora.

ii. Se An×n é invertı́vel sabemos pelo teorema 3.7.4 que ela é produto de elementares. Isto é,
A = F1 . . . Fn .
Agora, pelo corolário 4.2.3,

68
det(A) = det(F1 . . . Fn ) = det(F1 ) det(F2 . . . Fn ) = . . . = det(F1 ) . . . det(Fn ) .

Como det(Fi ) ̸= 0, para todo i, pelo corolário 4.2.2 então det(A) ̸= 0.


Provamos que se A tem inversa, seu determinante não pode ser 0.

Teorema 4.3.2. Se An×n e Bn×n são matrizes então det(AB) = det(A) det(B).

Demonstração. Primeiro Caso: A não é invertı́vel.


Nesse caso sabemos que det(A) = 0, pelo teorema 4.3.1. Temos que mostrar que det(AB) = 0.
Assim teremos det(AB) = det(A) det(B).
Se AB fosse invertı́vel então existiria uma matriz C tal que (AB)C = Id.
Isso implica que A(BC) = Id, ou seja, A é invertı́vel. Isso é um erro, porque nesse caso estamos
assumindo que A não é invertı́vel. Assim AB não é invertı́vel. Pelo teorema 4.3.1, det(AB) = 0.

Segundo Caso: A é invertı́vel.


Nesse caso sabemos que A = F1 . . . Fn , onde essas Fi são matrizes elementares.
Agora

det(AB) = det(F1 . . . Fn B) = det(F1 ) det(F2 . . . Fn B) = . . . = det(F1 ) . . . det(Fn ) det(B) (4.1)

pelo corolário 4.2.3 aplicado várias vezes.


Agora podemo usar o corolário 4.2.3 de trás pra frente

det(F1 ) . . . det(Fn ) = det(F1 ) . . . det(Fn−1 Fn ) = det(F1 ) . . . det(Fn−2 Fn−1 Fn ) =


det(F1 . . . Fn−2 Fn−1 Fn ) = det(A)

Substituindo isso na equação 4.1 obtemos det(AB) = det(A) det(B).

Exercı́cio 4.3.3. Encontre matrizes A2×2 e B2×2 tais que det(A + B) ̸= det(A) + det(B).

Exercı́cio 4.3.4. Sejam An×n e Bn×n matrizes. Mostre que

a) det(AB) = det(BA)

b) det(−A) = (−1)n det(A)

c) Se A é invertı́vel então det(A−1 ) = 1


det(A)

69
d) Se B é invertı́vel então det(B −1 AB) = det(A)

e) det(Am ) = det(A)m

Solução: a) Como A.A−1 = Id então det(A.A−1 ) = det(Id).

Pelo teorema 4.3.2, det(A.A−1 ) = det(A) det(A−1 ). Pela definição do determinante, det(Id) = 1.

Assim det(A) det(A−1 ) = 1, ou seja, det(A−1 ) = det(A)−1 .

e) det(Am ) = det(A.Am−1 ) = det(A) det(Am−1 ) = det(A) det(A.Am−2 ) = det(A)2 det(Am−2 ) =


. . . = det(A)m

Teorema 4.3.5. Seja An×n uma matriz. Então det(A) = det(At ).

Demonstração. Primeiro Caso: A é matriz elementar


Vou fazer para o caso 2 × 2. O caso n × n é idêntico.

• A foi obtida da Id pela mutiplicação de uma linha por x.


   
x 0 1 0
Então A =   ou A =  . Em qualquer dos casos A é simétrica A = At .
0 1 0 x
Assim det(A) = det(At ).

• A foi obtida da Id por uma troca de linhas.


 
0 1
Então A =  . De novo A = At . Assim det(A) = det(At ).
1 0

• A foi obtida da Id somando uma linha com um múltiplo da outra.


       
1 x 1 0 1 0 1 x
Então A =   ou A =  . Portanto At =   ou  .
0 1 x 1 x 1 0 1
Pela letra c) do corolário 4.2.2 temos em qualquer caso que det(A) = 1 = det(At ).

Segundo Caso: A é invertı́vel.

Pelo teorema 3.7.4, A = F1 . . . Fm , onde cada Fi é elementar.


Agora At = Fm
t Ft t
m−1 . . . F1 pela letra b) do exercı́cio 3.6.4.

Sabemos, pelo teorema 4.3.2, que

70
det(At ) = det(Fm
t Ft t t t t
m−1 . . . F1 ) = det(Fm ) det(Fm−1 ) . . . det(F1 ).

Acabamos de ver que det(Fit ) = det(Fi ), porque Fi é elementar.


Então det(At ) = det(F1 ) det(F2 ) . . . det(Fm ) = det(A), pelo teorema 4.3.2.

Terceiro Caso: A não é invertı́vel.

Já sabemos que det(A) = 0.


Se det(At ) ̸= 0 então At seria invertı́vel, pelo teorema 4.3.1.
Então existiria C tal que At C = Id.
Transpondo os dois lados obterı́amos C t (At )t = Idt , pelo teorema 3.6.2.
Pela letra c) do exercı́cio 3.6.4, (At )t = A. Como Id é simétrica Idt = Id.
Finalmente obtemos C t A = Id, ou seja, A é invertı́vel. Mas seu determinante é zero. Isso
é um erro. Esse erro veio de supor que det(At ) ̸= 0. Para evitar o erro devemos concluir que
det(At ) = 0 = det(A).

4.4 Expansão de Laplace nas colunas

Sabemos que podemos fazer a expansão de Laplace em qualquer linha da matriz At para obter seu
determinante que será igual ao det(A) pelo teorema 4.3.5. Mas as linhas de At são as colunas de A.
Portanto poderemos fazer a expansão de Laplace nas colunas de A para obter seu determinante.
Vamos fazer a expansão de Laplace na primeira linha da matriz At para você se convencer de que
a expansão de laplace nas colunas da A também dá o det(A).
 
a11 a21 a31      
  a22 a 32 a a a a
det(At ) = det  a12 a22 a32

 = a11 det 
  − a21 det  12 32  + a31 det  12 22 .
  a23 a33 a13 a33 a13 a23
a13 a23 a33

Aplicando o teorema 4.3.5 nessa matrizes 2 × 2 e na A obtemos


     
a22 a23 a12 a13 a12 a13
det(A) = a11 det   − a21 det   + a31 det  .
a32 a33 a32 a33 a22 a23
 
a11 a12 a13
 
 a21 a22 a23  = (−1)1+1 a11 det(∆11 ) + (−1)2+1 a21 det(∆21 ) + (−1)3+1 a31 det(∆31 )
Então det  
 
a31 a32 a33

Note que aqui você está fazendo a expansão de Laplace utilizando a primeira coluna de A.

71
Expansão de Laplace por colunas

Teorema 4.4.1. Podemos calcular o determinante de uma matriz An×n através da fórmula

det(A) = (−1)1+j a1j det(∆1j ) + (−1)2+j a2j det(∆2j ) + . . . + (−1)(n−1)+j a(n−1)j det(∆(n−1)j ) + (−1)n+j anj det(∆nj ).

Note que estamos utilizando os determinantes das matrizes (∆ij )(n−1)×(n−1) variando o i, isto
é, percorrendo a coluna j. Essa é a chamada expansão de Laplace pela coluna j.

4.5 Como as operações elementares nas colunas afetam o determi-


nante?

Veremos aqui outra consequência interessante do teorema 4.3.5. Veremos como o valor do deter-
minante da matriz é alterado pelas operações elementares nas colunas. A supresa é que o valor do
determinante é alterado da mesma maneira que operações nas linhas da matriz.

Saber como as operações elementares nas linhas e colunas de matrizes alteram o valor do deter-
minante nos permitem calcular de maneira muito rápida determinante de diversas matrizes. Veremos
como calcular o determinante da matriz de Hilbert.

Teorema 4.5.1. Seja Bn×n a matriz obtida de An×n através da seguintes operações elementares nas
colunas de A:

a) Ci ↔ Cj então det(B) = − det(A)

b) Ci ↔ x.Ci , onde x ̸= 0, então det(B) = x. det(A)

c) Ci ↔ x.Cj + Ci então det(B) = det(A)

Demonstração. a) Se para obter B a partir de A fizemos Ci ↔ Cj então para obter B t a partir de At


temos que fazer Li ↔ Lj , porque as linhas de At são as colunas da A.
Agora pelo teorema 4.2.1, det(B t ) = − det(At ).
Mas pelo teorema 4.3.5, det(B) = det(B t ) = − det(At ) = − det(A).

b) Se para obter B a partir de A fizemos Ci ↔ x.Ci então para obter B t a partir de At temos que
fazer Li ↔ x.Li , porque as linhas de At são as colunas da A.
Agora pelo teorema 4.2.1, det(B t ) = x. det(At ).
Mas pelo teorema 4.3.5, det(B) = det(B t ) = x. det(At ) = x. det(A).

72
c) Se para obter B a partir de A fizemos Ci ↔ x.Cj + Ci então para obter B t a partir de At temos
que fazer Li ↔ x.Lj + Li , porque as linhas de At são as colunas da A.
Agora pelo teorema 4.2.1, det(B t ) = det(At ).
Mas pelo teorema 4.3.5, det(B) = det(B t ) = det(At ) = det(A).

4.6 A matriz de Hilbert (Curiosidade)

Nessa seção obteremos uma fórmula para o determinante da matriz de Hilbert. Isso só é possı́vel
graças ao nosso conhecimento de como as operações elementares nas linhas e colunas alteram o valor
do determinante.

Matriz de Hilbert
1
Definição 4.6.1. A matriz de Hilbert n × n é definida por (Hn )ij = i+j−1 .
 
1 1
    1 2 3
1 1 1
1+1−1 1+2−1 1 2
 
Exemplos: H2 =  = , H3 = 
 1 1 1 
2 3 4

1 1 1 1  
2+1−1 2+2−1 2 3 1 1 1
3 4 5

Sabemos como o determinante é alterado pelas operações elementares. Isso é o que precisamos
para provar o seguinte teorema.

[(n − 1)!]4
Teorema 4.6.2. det(Hn ) = det(Hn−1 )
[(2n − 2)!]2 .(2n − 1)
Demonstração. Primeiramente
 
1 1 1
1 2 ... n−1 n
 
1 1 1 1
...
 
 2 3 n n+1 
.. .. .. ..
 
Hn =  ..
.
 
 . . . . 

1 1 1 1
 

 n−1 n ... 2n−3 2n−2


1 1 1 1
n n+1 ... 2n−2 2n−1

Passo 1: Multiplique todas as linhas de Hn de tal maneira que a última coluna só contenha 1s.
Não simplifique nenhuma fração.
Faremos as operações L1 ↔ n.L1 , L2 ↔ (n + 1).L2 , . . ., Ln ↔ (2n − 1).Ln .
O valor do determinante é alterado por n(n + 1) . . . (2n − 1) pela letra b) do teorema 4.2.1.
Vamos dividir por n(n + 1) . . . (2n − 1) para compensar.

73
 
n n
n 2 ... n−1 1
 
n+1 n+1 n+1
... 1
 
 2 3 n 
1 
.. .. .. .. ..

det(Hn ) = det  .
 
. . . .
n(n + 1) . . . (2n − 1)

 
2n−2 2n−2 2n−2
 

 n−1 n ... 2n−3 1 

2n−1 2n−1 2n−1
n n+1 ... 2n−2 1

Passo 2: Subtraia a última coluna das anteriores. Não simplifique nenhuma fração.
Isso não altera o valor do determinante pela letra c) do teorema 4.5.1.

 
n−2 1
n−1 2 ... n−1 1
 
n−1 n−2 1
... 1
 
 2 3 n 
1 
.. .. .. .. ..

= det  .
 
. . . .
n(n + 1) . . . (2n − 1)

 
n−1 n−2 1
 

 n−1 n ... 2n−3 1 

n−1 n−2 1
n n+1 ... 2n−2 1

Passo 3: Coloque os numeradores das frações das colunas em evidência para fora do determinante.
Podemos fazer isso pela letra b) do teorema 4.5.1.

 
1 1
1 2 ... n−1 1
 
1 1 1
... 1
 
 2 3 n 
(n − 1)(n − 2) . . . 1 
.. .. .. .. ..

= det  .
 
. . . .
n(n + 1) . . . (2n − 1)

 
1 1 1
 

 n−1 n ... 2n−3 1 

1 1 1
n n+1 ... 2n−2 1

Passo 4:
Multiplique todas as colunas da última matriz de tal maneira que a última linha só contenha 1s.
Não simplifique nenhuma fração.
Faremos as operações C1 ↔ n.C1 , C2 ↔ (n + 1).C2 , . . . , Cn−1 ↔ (2n − 2).Cn−1 .
O valor do determinante é alterado por n(n + 1) . . . (2n − 2) pela letra b) do teorema 4.2.1.
Vamos dividir por n(n + 1) . . . (2n − 2) para compensar.

 
n+1 2n−2
n 2 ... n−1 1
 
n n+1 2n−2
... 1
 
 2 3 n 
(n − 1)(n − 2) . . . 1 
.. .. .. .. ..

= det  .
 
2 . . . .
[n(n + 1) . . . (2n − 2)] (2n − 1)

 
n n+1 2n−2
 

 n−1 n ... 2n−3 1 

1 1 ... 1 1

74
Passo 5: Subtraia a última linha das anteriores.
Não simplifique nenhuma fração.
Isso não altera o valor do determinante pela letra c) do teorema 4.2.1.

 
n−1 n−1
n−1 2 ... n−1 0
 
n−2 n−2 n−2
... 0
 
 2 3 n 
(n − 1)(n − 2) . . . 1 
.. .. .. .. ..

= det .
 
. . . .
[n(n + 1) . . . (2n − 2)]2 (2n − 1)
 
 
1 1 1
 

 n−1 n ... 2n−3 0 

1 1 ... 1 1

Passo 6: Coloque os numeradores das frações das linhas em evidência para fora do determinante.
Podemos fazer isso pela letra b) do teorema 4.2.1.

 
1 1
1 2 ... n−1 0
 
1 1 1
... 0
 
 2 3 n 
[(n − 1)(n − 2) . . . 1]2
.. .. .. ..
 
= det  ..
.
 
2 . . . .
[n(n + 1) . . . (2n − 2)] (2n − 1)

 
1 1 1
 

 n−1 n ... 2n−3 0 

1 1 ... 1 1

Passo 7: Aplique a expansão de Laplace na última coluna e obtenha

 
1 1
1 2 ... n−1
 
1 1 1
[(n − 1)(n − 2) . . . 1]2 ... [(n − 1)!]4
 
 2 3 n 
= det  [(2n − 2)!]2 (2n − 1) det(Hn−1 ).
=
.. .. ..

2
[n(n + 1) . . . (2n − 2)] (2n − 1) ..
.


 . . . 

1 1 1
n−1 n ... 2n−3

[(n − 1)!(n − 2)! . . . (2!)(1!)]4


Corolário 4.6.3. det(Hn ) =
[(2n − 2)!(2n − 4)! . . . (4!)(2!)]2 (2n − 1)(2n − 3) . . . 1
[(n − 1)!]4
Demonstração. Pelo teorema anterior det(Hn ) = det(Hn−1 ).
[(2n − 2)!]2 .(2n − 1)

[(n − 1)!]4 [(n − 2)!]4


Pelo teorema anterior novamente det(Hn ) = det(Hn−2 ).
[(2n − 2)!]2 .(2n − 1) [(2n − 4)!]2 .(2n − 3)

Repetindo isso várias vezes obteremos


[(n − 1)!]4 [(n − 2)!]4 [1!]4
det(Hn ) = . . . det(H1 ) .
[(2n − 2)!]2 .(2n − 1) [(2n − 4)!]2 .(2n − 3) [2!]2 .3 | {z }
=1

75
Uma outra matriz importante é a seguinte matriz de Vandermond.

Exercı́cio 4.6.4 (Matriz de Vandermond). Sejam x1 , x2 , . . . , xn números distintos. A seguinte matriz


V (x1 , . . . , xn ) com n linhas e n colunas, tem o nome de matriz de Vandermond
 
1 x1 x21 . . . xn−1
1
 
2 n−1 
1 x2 x2 . . . x2 

V (x1 , . . . , xn ) = 
 .. .. . . . . ..  .

. . . . . 
 
2
1 xn xn . . . xn n−1

a) Mostre que det(V (x1 , . . . , xn )) = (x2 − x1 ) . . . (xn − x1 ) det(V (x2 , . . . , xn )).


Y
b) Use indução para concluir que det(V (x1 , . . . , xn )) = (xi − xj ) ̸= 0.
i>j
i,j∈{1,...,n}

Exercı́cio 4.6.5 (Polinômio Interpolador: Parte 1). Note que se p(x) = a0 + a1 x + . . . an−1 xn−1 é
um polinômio tal que p(x1 ) = b1 , . . . , p(xn ) = bn então V (x1 , . . . , xn )⃗a = ⃗b, onde ⃗at = (a0 , . . . , an−1 ) e
⃗bt = (b1 , . . . , bn )

Mostre que se x1 , . . . , xn forem números distintos então para cada conjunto de valores b1 , . . . , bn
existe um único polinômio que satisfaz p(x1 ) = b1 , . . . , p(xn ) = bn .

DICA: Observe o conjunto solução do sistema V (x1 , . . . , xn )⃗a = ⃗b.

Dizemos que um polinômio p(x) interpola os valores b1 , . . . , bn nos números x1 , . . . , xn quando


p(x1 ) = b1 , . . . , p(xn ) = bn . Esse polinômio é chamado de polinômio interpolador.

4.7 A Adjunta Clássica da matriz A

A seguir definiremos a adjunta clássica de uma matriz. Ela será muito relevante no teorema 9.3.6.

76
Definição 4.7.1. Seja An×n uma matriz. Definimos

• a matriz dos cofatores de A, que será denotada por cof (A)n×n , como aquela que satisfaz cof (A)ij =
(−1)i+j det(∆ij ), onde ∆ij é a matriz (n − 1) × (n − 1) obtida de A eliminando a linha i e a
coluna j.

• a adjunta clássica de A , que será denotada por Adj(A)n×n , como a transposta da matriz dos
cofatores de A: Adj(A) = cof (A)t .

Exemplos:
       
1 2 (−1)1+1 7 (−1)1+2 5 7 −5 7 −2
a) A =  , cof (A)  = , Adj(A) =  
5 7 (−1)2+1 2 (−1)2+2 1 −2 1 −5 1

     
a a a (−1)1+1 det(∆11 ) (−1)1+2 det(∆12 ) (−1)1+3 det(∆13 ) det(∆11 ) − det(∆21 ) det(∆31 )
 11 12 13     
b) A =  a21 a22 a23


, cof (A) =  (−1)2+1 det(∆21 ) (−1)2+2 det(∆22 ) (−1)2+3 det(∆23 )




, Adj(A) =  − det(∆12 ) det(∆22 ) − det(∆32 )







a31 a32 a33 (−1)3+1 det(∆31 ) (−1)3+2 det(∆32 ) (−1)3+3 det(∆33 ) det(∆13 ) − det(∆23 ) det(∆33 )

Exercı́cio 4.7.2. Calcule A.Adj(A) utilizando as matrizes A acima.

Solução:
    
1 2 7 −2 −3 0
a)   = . Note que −3 = det(A).
5 7 −5 1 0 −3

b) (A.Adj(A))ii = ai1 Adj(A)1i + ai2 Adj(A)2i + ai3 Adj(A)3i


= ai1 cof (A)i1 + ai2 cof (A)i2 + ai3 cof (A)i3
= ai1 (−1)i+1 det(∆i1 ) + ai2 (−1)i+2 det(∆i2 ) + ai3 (−1)i+3 det(∆i3 ).
= det(A).

Pois a linha anterior é a expansão de Laplace do det(A) pela linha i.

Seja i ̸= j.

(A.Adj(A))ij = ai1 Adj(A)1j + ai2 Adj(A)2j + ai3 Adj(A)3j


= ai1 cof (A)j1 + ai2 cof (A)j2 + ai3 cof (A)j3
= ai1 (−1)j+1 det(∆j1 ) + ai2 (−1)j+2 det(∆j2 ) + ai3 (−1)j+3 det(∆j3 ).
= det(B)

77
Essa penúltima linha é quase a expansão de Laplace do det(A) na linha j. A diferença é que os
números que aparecem nessa linha j não são aj1 aj2 aj3 . Essa penúltima linha é a expansão de Laplace
do det(B) cuja linha j é ocupada pelos números ai1 ai2 ai3 e o resto da B é igual a matriz A, ou seja,
a linha j é igual a linha i. Como i ̸= j então B tem duas linhas iguais. Portanto det(B) = 0.
 
det(A) 0 0
 
Assim AAdj(A) =
 0 det(A) 0 .

 
0 0 det(A)

Teorema 4.7.3. Seja A uma matrix n × n. Então AAdj(A) = det(A)Idn×n .

Demonstração. A mesma conta que fizemos para a letra b) acima.

Corolário 4.7.4 (Fórmula para a inversa da matriz). Seja An×n uma matriz invertı́vel. Então A−1 =
1
det(A) Adj(A).

 
a11 . . . a1n
 
 a21 . . . a2n
 
Corolário 4.7.5 (Regra de Cramer). Seja An×n = uma matriz invertı́vel.

 .. ..
 
..
.

 . . 
 
an1 . . . ann



 a11 x1 + . . . + a1n xn = b1


 a21 x1 + . . . + a2n xn = b2

det(Ei )
A única solução para o sistema é dada pelas fórmulas xi = , onde Ei
 ...
 det(A)




an1 x1 + . . . + ann xn = bn

 
b1
 
 b2 
 
é a matriz obtida de A substituindo a sua coluna i pela coluna  .. .
 
 . 
 
bn
 
a11 . . . a1(i−1) b1 a1(i+1) . . . a1n
 
 a21 . . . a2(i−1) b2 a2(i+1) . . . a2n
 

Isto é, Ei =
 ..
.
 . ... ... ..
.
..
. ... ... 

 
an1 . . . an(i−1) bn an(i+1) . . . ann

Demonstração. Podemos reescrever esse sistema da seguinte maneira usando produto de matrizes.

78
    
a11 . . . a1n x1 b1
    
 a21 . . . a2n x2 b2
    
   
=
 .. .. .. ..
  
..
.
   
 . .  .   . 
    
an1 . . . ann xn bn
| {z }| {z } | {z }
A x b

1
Pelo exercı́cio 3.4.4 sabemos que x = A−1 b. Agora pelo corolário anterior A−1 = Adj(A).
det(A)

xi = (A−1 )i1 b1 + . . . + (A−1 )in bn


= b1 Adj(A)i1 Adj(A)in
det(A) + . . . + bn det(A)
1
= det(A) (b1 cof (A)1i + . . . + bn cof (A)ni )
1 1+i det(∆ )
= det(A) (b1 (−1) 1i + . . . + bn (−1)n+i det(∆ni )).

A expressão entre parênteses nessa última linha é quase a expansão de Laplace do det(A) na coluna
i. A diferença é que os números que aparecem nessa coluna i não são a1i a2i . . . ani . Essa expressão
é a expansão de Laplace do det(Ei ) na coluna i que é ocupada pelos números b1 b2 . . . bn e o resto
da Ei é igual a matriz A.

Observação 4.7.6. A regra de Carmer é bem limitada. Ela só é útil para resolver sistemas com
solução única (Você não sabe de antemão se é esse o caso). Além disso, para utilizá-la você tem que
calcular diversos determinantes, que é uma tarefa que o seu computador demora mais pra realizar que
apenas reduzir ao formato escada.

Exercı́cio 4.7.7. Resolva o sistema linear Ax = b utilizando a regra de Cramer.


   
1 2 4 1
   
a) A =  1 3 9 , b =  0 
   
   
1 5 25 0
   
1 2 4 1
   
b) A =  0 1 9 , b =  1 
   
   
0 0 1 2

79
Solução: a) Vamos calcular o det(A) para saber se podemos usar a regra de Cramer.

Pela letra c) do teorema 4.2.1, se subtrairmos da linhas 2 e 3 a linha 1 o valor do determinante


não é alterado:
   
1 2 4 1 2 4
   
det  1 3 9  = det  0 1 5 = 1.(1.21 − 3.5) = 6.
   

    Laplace na linha 1
1 5 25 0 3 21

Podemos usar a regra de Cramer.


     
1 2 4 1 1 4 1 2 1
     
1 1 1
Assim x1 = det  0 3 9 , x2 = det  1 0 9  e x3 = det  1 3 0 .
     
6   6   6  
0 5 25 1 0 25 1 5 0

1.(3.25−5.9) 30 −1.(1.25−1.9) −16 1.(5.1−3.1)


Então x1 = 6 = 6 = 5, x2 = 6 = 6 e x3 = 6 = 26 .

Exercı́cio 4.7.8. Sejam A, B, C matrizes 2 × 2. Denote por Adj(C) a adjunta clássica de C. Defina
tr(C) = c11 + c22 (o traço é a soma dos elementos da diagonal de C).

a) Mostre que Adj(A + B) = Adj(A) + Adj(B). Isso só ocorre para matrizes 2 × 2

b) Mostre que tr(A + B) = tr(A) + tr(B).

c) Mostre que tr(AAdj(B)) = tr(Adj(A)B)

c) Prove que det(A + B) = det(A) + det(B) + tr(AAdj(B)).

4.8 Área de triângulos usando determinantes (Curiosidade)

A seguir veremos duas fórmulas para calcular a área de um triângulo no R2 envolvendo determi-
nantes. A primeira delas é a seguinte:

80
Área a partir dos vértices

A área do triângulo de vértices (x1 , y1 ), (x2 , y2 ) e (x3 , y3 ) é o valor absoluto de


 
x y1 1
1  1 
det x2 y2 1 .
 
2  
x3 y3 1

Vejamos agora o motivo dessa fórmula. Podemos imaginar esses pontos no R3 com vértices
(x1 , y1 , 0), (x2 , y2 , 0) e (x3 , y3 , 0).

Sabemos que a área desse triângulo é metade da área do paralelogramo de lados

u = (x2 − x1 , y2 − y1 , 0) e v = (x3 − x1 , y3 − y1 , 0)

e por um resultado clássico de geometria analı́tica a área do paralelogramo vale ∥u × v∥.


Agora  
i j k 
  x 2 − x 1 y 2 − y 1
u × v = det x2 − x1 y2 − y1 0 = det   k.
 
  x 3 − x 1 y3 − y1
x3 − x1 y3 − y1 0

Como k é um vetor unitário então


 
x2 − x1 y2 − y1
∥u × v∥ = det   .
x3 − x1 y3 − y1

Por fim note que


   
x 1 y1 1 x1 y1 1  
    x2 − x 1 y2 − y1
det x2 y2 1 = det x2 − x1 y2 − y1 0 = det  .
   
    x3 − x1 y3 − y1
x 3 y3 1 x3 − x1 y3 − y1 0
 
x y 1
 1 1 
1
Assim a área do triângulo de vértices (x1 , y1 ), (x2 , y2 ) e (x3 , y3 ) é o valor absoluto de det x2 y2 1
 
2  
x3 y3 1

A segunda fórmula é a seguinte:

81
Área a partir das equações das retas

Agora suponha que as retas que contêm os vértices (x1 , y1 ), (x2 , y2 ) e (x3 , y3 ) do triângulo
tenham equações aj x + bj y + cj = 0 e que o vértice (xi , yi ) pertença a essa reta quando i ̸= j,
ou seja, aj xi + bj yi + cj = 0 quando i ̸= j, onde i, j = 1, 2, 3.

A área desse triângulo é o valor absoluto de


 2
a1 b1 c1
1  
det a2 b2 c2  ,
 
2C1 C2 C3  
a3 b3 c3

onde
     
a1 b1 1 a1 b1 0 a1 b1 0
     
C1 = det a2 b2 0, C2 = det a2 b2 1 e C3 = det a2 b2 0 .
     
     
a3 b3 0 a3 b3 0 a3 b3 1

Vejamos o motivo abaixo.

   
a b c x x2 x3
 1 1 1  1 
Considere as matrizes A = a2 b2 c2  e B =  y1 y2 y3 .
   
   
a3 b3 c3 1 1 1

Chame di = ai xi + bi yi + ci . Como os três vértices formam um triângulo, isso significa que eles
não pertencem a mesma reta, ou seja, di ̸= 0, para i = 1, 2, 3.

Assim,
      
x1 x2 x3
d1 0 0 a1 b1 c1 1 0 0
     d1 d2 d3   
AB =  0 d2 0  e a2 b2 c2   dy1 y2 y3  = 0 1 0.
     
d2 d3 

    1  
1 1 1
0 0 d3 a3 b3 c3 d1 d2 d3 0 0 1

Agora devemos considerar três sistemas lineares:

              
x1 x2 x3
a1 b1 c1 1 a1 b1 c1 0 a1 b1 c1 0
   d1       d2       d3   
  y1      y2      y3   
a2 b2 c2   d  = 0, a2 b2 c2   d  = 1 e a2 b2 c2   d  = 0
  
  1     2     3  
1 1 1
a3 b3 c3 d1 0 a3 b3 c3 d2 0 a3 b3 c3 d3 1

82
Pela regra de Cramer temos que
     
a1 b1 1 a1 b1 0 a1 b1 0
     
1 1 1 1 1 1
d1 = det(A) det  a b 0, = det(A) det a b 1, = det(A) det a2 b2 0 .
     
 2 2  d2  2 2  d3  
a3 b3 0 a3 b3 0 a3 b3 1

det(A)3 det(A)2
Então det(AB) = d1 d2 d3 = . Portanto, det(B) = .
C1 C2 C3 C1 C2 C3

Vimos pela fórmula anterior que a área do triângulo é metade do valor absoluto do det(B t ).
det(A)2
Finalmente obtemos que a área do triângulo é metade do valor absoluto do det(B) = .
C1 C2 C3

83
Capı́tulo 5

Espaços Vetoriais

Aqui estudaremos transformações lineares de maneira mais profunda. As T.L.s não serão apenas
entre Rn e Rm como vimos antes, mas agora entre conjuntos mais gerais. Eles são chamados de espaços
vetoriais. Então os espaços vetoriais formarão o domı́nio e o contradomı́nio das nossas novas T.L.s.

5.1 Definição e Exemplos

Definição 5.1.1. Um espaço vetorial real é um conjunto V ̸= ∅ que possui duas operações:

a) Adição: Dados v, w ∈ V , v + w ∈ V

b) Mutiliplicação por escalar: Dado x ∈ R e v ∈ V , x.v ∈ V .

Além disso essas operações satisfazem as seguintes propriedades . Sejam v, w, r ∈ V e a, b ∈ R.

1. v + w = w + v. Essa é a chamada comutatividade da soma.

2. v + (w + r) = (v + w) + r. Essa é a chamada associatividade da soma.

3. Existe um elemento 0V ∈ V que satisfaz v + 0V = v para todo v ∈ V . Ele também será denotado
por ⃗0. Ele é chamado de elemento neutro da soma.

4. Para todo v ∈ V existe um w ∈ V tal que v + w = ⃗0. Esse w será chamado de −v. Esse −v é
chamado de elemento oposto da soma.

5. a.(v + w) = a.v + a.w

6. (a + b).v = a.v + b.v

84
7. a.(b.v) = (a.b).v

8. 1.v = v. O número real 1 deve ser o elemento neutro do produto.

OBS: Os elementos de um espaço vetorial também serão chamados de vetores.

Exemplos de espaços vetoriais reais:

a) Todos os Rn com a soma e multiplicação por números reais definidas na seção 1.3 (aquelas que
você já está costumado) são exemplos de espaços vetoriais. Porque eles satisfazem todas essas
propriedades. Veja as propriedades descritas na seção 1.3.

b) O conjunto de todos os polinômios com coeficientes reais com a seguinte soma e a multiplicação
por números reais. R[x] = {a0 + a1 x + . . . + an xn , ai ∈ R}

– Soma: (a0 + a1 x + . . . + an xn ) + (b0 + b1 x + . . . bm xm ) =



(a + b0 ) + (a1 + b1 )x + . . . + (an + bn )xn + bn+1 xn+1 + . . . + bm xm , se n < m
 0



= (a0 + b0 ) + (a1 + b1 )x + . . . + (an + bn )xn + bn+1 xn+1 + . . . + bm xm , se n > m


 (a + b ) + (a + b )x + . . . + (a + b )xn , se n = m

0 0 1 1 n n
(5.1)

+ bi )xi .
P
Para economizar sı́mbolos vamos escrever isso assim: i (ai

– Multiplicação por números reais:

λ.(a0 + a1 x + . . . + an xn ) = (λ.a0 ) + (λ.a1 )x + . . . + (λ.an )xn

Agora temos que verificar todas as propriedades e só assim podemos concluir que R[x] com essa
soma e multiplicação é um espaço vetorial.

i i
+ bi )xi = i (bi + ai )xi = i bi xi + i ai xi .
P P P P P P
1. i ai x + i bi x = i (ai

( i ai xi + i bi xi ) + i ci xi = i (ai + bi )xi + i ci xi = i ((ai + bi ) + ci )xi


P P P P P P
2.

= i (ai + (bi + ci ))xi = i ai xi + ( i bi xi + i ci xi ).


P P P P

0 + i ai xi = i ai xi
P P
3.
i i i
P P P
4. i ai x + i (−ai )x = i (ai + −ai )x = 0

c.( i ai xi + i bi xi ) = c. i (ai + bi )xi


P P P
5.

= i c.(ai + bi )xi = i (c.ai + c.bi )xi = c.( i ai ) + c.( i bi xi ).


P P P P

(c + d).( i ai xi ) = i (c + d).ai xi = i (c.ai + d.ai )xi = c.( i ai xi ) + d.( i ai xi )


P P P P P
6.

85
7. c.d( i ai xi ) = i (c.d).ai xi = i c.(d.ai )xi = c.( i d.ai xi ) = c.(d. i ai xi ).
P P P P P

8. 1. i ai xi = i 1.ai xi = i ai xi .
P P P

c) Mm×n que é o conjutno das matrizes com m linhas e n colunas reais com a soma de matriz e
multiplicação por escalar que estamos acostumados.

Isso é verdade porque uma matriz m × n se parece muito com um vetor de Rmn . A única
diferença é como você dispõe os números.

d) Os números complexos C = {a+ib, a ∈ R, b ∈ R} com a soma a+ib+a′ +ib′ = (a+a′ )+i(b+b′ )


e multiplicação por número real λ.(a + ib) = λ.a
 + iλ.b.

O motivo
 disso ser uma espaço vetorial
 a 
real é porque C se parece muito com o R2 =   , a ∈ R, b ∈ R .
 b 

e) O conjunto das funções RR = {f : R → R} com a soma definida por f + g : R → R, f + g(x) =


f (x) + g(x), e a multiplicação por λ ∈ R definida por λ.f : R → R, λ.f (x) = λ.(f (x)).

Agora temos que verificar todas as propriedades e só assim podemos concluir que RR com essa
soma e multiplicação é um espaço vetorial.

1. f + g(x) = f (x) + g(x) = g(x) + f (x) = g + f (x)

2. [(f + g) + h](x) = f + g(x) + h(x) = f (x) + g(x) + h(x) = f (x) + g + h(x) = [f + (g + h)](x)

3. 0 + f (x) = f (x)

4. f (x) + −f (x) = 0

5. c.(f + g)(x) = c.(f (x) + g(x)) = c.f (x) + c.g(x).

6. (c + d).f (x) = c.f (x) + d.f (x)

7. c.d(f (x)) = (c.d).f (x) = c.(d.f (c)).

8. 1.f (x) = f (x).

f ) O conjunto ]0, ∞[ com a soma definida por x ⊕ y = x.y e a multiplicação por λ ∈ R definida por
λ ⊙ x = xλ .

Agora temos que verificar todas as propriedades e só assim podemos concluir que ]0, ∞[ com essa
soma e multiplicação é um espaço vetorial.

1. x ⊕ y = x.y = y.x = y ⊕ x

2. [x ⊕ y] ⊕ z = [x ⊕ y].z = [x.y].z = x.[y.z] = x.[y ⊕ z] = x ⊕ [y ⊕ z]

3. 1 ⊕ x = 1.x = x. Então o ⃗0 é o número 1. Estranho?

86
4. x ⊕ x−1 = x.x−1 = 1 = ⃗0.

5. c ⊙ (x ⊕ y) = c ⊙ (x.y) = (x.y)c = xc .y c = xc ⊕ y c = (c ⊙ x) ⊕ (c ⊙ y).

6. (c + d) ⊙ x = xc+d = xc .xd = xc ⊕ xd = (c ⊙ x) ⊕ (d ⊙ x).

7. (c.d) ⊙ x = xcd = (xd )c = c ⊙ xd = c ⊙ [d ⊙ x].

8. 1 ⊙ x = x1 = x.

Exercı́cio 5.1.2. Seja V uma espaço vetorial. Mostre que

a) 0.v = 0V para qualquer v ∈ V .

b) c.0V = 0V

c) (−1).v = −v

Solução: Como 0 = 0 + 0 e pela distributividade (propriedade 6) temos

0.v = (0 + 0).v = 0.v + 0.v.

Pela propriedade 4, existe −0.v que satsifaz 0.v + (−0.v) = 0V .

Somando −0.v de ambos os lados da última equação obtemos

0.v + (−0.v) = (0.v + 0.v) + (−0.v).

Pela associatividade (propriedade 2)

(0.v + 0.v) + (−0.v) = 0.v + (0.v + −0.v).

Agora como 0.v + (−0.v) = 0V então obtemos

0V = 0.v + 0V = 0.v,

onde esse v é um vetor qualquer do espaço. □

87
5.2 Subespaços Vetoriais

Dentro dos espaços vetoriais existem subconjuntos que também são espaços vetoriais quando uti-
lizamos a mesma soma e a mesma multiplicação por escalares. Esses conjuntos são chamados de
subespaços vetoriais

Definição 5.2.1. Seja V um espaço vetorial. Um subconjunto W de V que não é vazio será chamado
de subespaço vetorial de V se

1. para quaisquer w1 , w2 ∈ W temos w1 + w2 ∈ W , onde essa soma é a soma de V ,

2. para qualquer w ∈ W e qualquer λ ∈ R temos que λ.w ∈ W , onde esse produto por escalar é o
produto de V .

OBS 1: Note que se W aproveita a soma e o produto de V para virar um espaço vetorial então
a soma de dois vetores de W tem que dar um vetor de W e o produto por escalar de um vetor
de W tem que dar um vetor de W . Isso é uma coisa que sempre teremos que verificar para
garantir que W seja um espaço vetorial se aproveitando da estrutura que já existe em V . O que
não teremos que verificar são as propriedades, pois já sabemos que elas valem para os vetores
de V o que inclui os de W .

OBS 2: Todo subespaço de V contém o 0V . Pois se w ∈ W então 0.w ∈ W , mas 0.w = 0V pelo
exercı́cio 5.1.2.

Exemplos de subespaços:

a) Seja V um espaço vetorial. O conjunto {0v } é um subespaço de V .

Temos que verificar as duas propriedades que tornam um subconjunto um subespaço.

1. Sejam w1 , w2 ∈ {0v }. Então w1 = w2 = 0V . Portanto w1 + w2 = 0V ∈ {0V }

2. Seja w ∈ {0v } e λ ∈ R. Então λ.w = λ.0V = 0V ∈ {0V }, pelo exercı́cio 5.1.2.

88
b) Seja V um espaço vetorial. Note que V é um subespaço vetorial de si mesmo.

Temos que verificar as duas propriedades que tornam um subconjunto um subespaço.

1. Sejam v1 , v2 ∈ V . Então v1 + v2 ∈ V

2. Seja v ∈ V e λ ∈ R. Então λ.v ∈ V .

Conclusão: Todo espaço vetorial V tem pelo menos dois subespaços: V e {0V }.

  
 x 
c) W =  , x ∈ R é subespaço do R2 .
 0 

Temos que verificar as duas propriedades que tornam um subconjunto um subespaço.


     
x y x+y
1. Sejam v1 , v2 ∈ W então v1 =  e v2 = . Note que v1 + v2 =  ∈ W
0 0 0
 
λ.x
2. Seja λ ∈ R. Note que λ.v1 = ∈ W.
0

d) Seja V um espaço vetorial e v1 , . . . , vn alguns vetores de V . Seja W o conjunto de todas as


combinações lineares de v1 , . . . , vn , isto é, W = {a1 v1 + . . . + an vn , a1 ∈ R, . . . , an ∈ R}.

Temos que verificar as duas propriedades que tornam um subconjunto um subespaço.

1. Sejam r1 , r2 ∈ W então r1 = a1 v1 + . . . + an vn e r2 = b1 v1 + . . . + bn vn . Note que


r1 + r2 = (a1 + b1 )v1 + . . . + (an + bn )vn ∈ W .

2. Seja λ ∈ R. Note que λ.r1 = (λ.a1 )v1 + . . . + (λ.an )vn ∈ W .

  
 x 
e) W =  , x ∈ R não é subespaço do R2 .
 x2 

     
 
x λ.x λ.x x
Note que λ.  =  ̸=  . Portanto λ.   ∈
/ W . Assim W não é um
x2 λ.x2 (λ.x)2 x2
subespaço.

Exercı́cio 5.2.2. Verifique se os seguintes subconjuntos W dos espaços vetoriais V são subespaços
dele.

89
a) W = {a0 + a1 x + a2 x2 , a0 , a1 , a2 ∈ R} (o conjunto dos polinômios de grau menor ou igual a 2),
onde V = R[x].
  
 a b 
b) W =   , a, b, c ∈ R , onde V = M2×2 .
 1 c 

  
 a b 
c) W =   , a, b, c ∈ R , onde V = M2×2 .
 0 c 


 x + 2y + 3z = 0
d) Considere o sistema I
 x + 3y + 4z = 0
  


 x 


  
Seja W =  y  , que satisfazem o sistema I ,
 
onde V = R3 .

  


 z 


 x + 2y + 3z = 1
e) Considere o sistema II
 x + 3y + 4z = 0
  


 x 


  
Seja W =  y  , que satisfazem o sistema II ,
 
onde V = R3 .

  


 z 

Exercı́cio 5.2.3. Mostre que os únicos subespaços do R2 são os seguintes: {⃗0}, as retas que passam
pela origem e o próprio R2 .

Solução: Já sabemos que {⃗0} e R2 são subespaços do R2 , pelos exemplos a) e b) da página anterior.
Seja W um subespaço do R2 . Vamos considerar as seguintes opções.

1. O único vetor de W é o ⃗0. Portanto W = {⃗0}

2. Se W possui vetores não nulos, mas todos paralelos. Todos serão múltiplo de um vetor v.
Portanto W = {λ.v, λ ∈ R}. Note que λ.v, λ ∈ R é a equação paramétrica de uma reta
passando pela origem.

3. Se W possui dois vetores não nulos e não paralelos. Então os múltiplos deles pertecem a W , pois
W é um subespaço. E a soma desses múltiplos também pertencem a W , pois W é um subespaço.
Assim qualquer combinação desses 2 vetores pertecem a W . Mas já vimos no primeiro capı́tulo
que todas as combinações de dois vetores não nulos e não paralelos do R2 dão todos os vetores
do R2 . Assim W ⊃ R2 , ou seja, W = R2 . □

90
Exercı́cio 5.2.4. Sejam W1 , W2 subespaço de V . Mostre que

a) W1 ∩ W2 é um subespaço de V .

b) W1 + W2 = {r + s, r ∈ W1 , s ∈ W2 } é um subespaço de V .

Exercı́cio 5.2.5. Considere o seguinte sitema linear Ax = b, onde Am×n é uma matriz, xn×1 é o
vetor das incógnitas e bm×1 o vetor dos termos independentes. Dizemos que esse sistema é homogêneo
se bm×1 = ⃗0 e não homogêneo se bm×1 ̸= ⃗0

a) Mostre que o conjunto solução de um sistema homogêneo é um subespaço vetorial do Rn .

b) Mostre que o conjunto solução de um sistema não homogêneo não é um subespaço vetorial do
Rn .

c) Seja y tal que Ay = b. Mostre que todas as soluções do sistema Ax = b tem o formato z + y,
onde z é solução de Ax = ⃗0.

Solução: a) Sejam x1 , x2 soluções do sistema, isto é, Ax1 = ⃗0 e Ax2 = ⃗0 e λ ∈ R.


Temos que mostrar que x1 + x2 e λx1 também são soluções.
Note que A(x1 + x2 ) = Ax1 + Ax2 = ⃗0 + ⃗0 e A(λ.x1 ) = λ.Ax1 = λ⃗0 = ⃗0.
Assim x1 + x2 e λx1 são soluções, ou seja, o conjunto solução de Ax = ⃗0 é um subespaço do Rn .

b) Considere o sistema Ax = b , onde b ̸= ⃗0. Note que se x1 é solução do sistema então λ.x1 não
vai ser solução do mesmo sistema quando λ ̸= 1, pois

Aλ.x1 = λAx1 = λ.b ̸= b.

Assim o conjunto solução do sistema Ax = b , onde b ̸= ⃗0, não é um subespaço do Rn .

c) Já sabemos que Ax = b tem uma solução, y, assim Ax = b tem infinitas soluções. Seja w outra
solução diferente de y. Assim A(w − y) = Aw − Ay = b − b = ⃗0, isto é, w − y = z é solução de Ax = ⃗0.
Portanto w = z + y, onde z é solução de Ax = ⃗0.

5.3 Conjuntos geradores e bases

Definição 5.3.1. Dizemos que um espaço vetorial V é gerado pelos seus vetores v1 , . . . , vn se qualquer
vetor de v é combinação linear de v1 , . . . , vn . Quando isso ocorrer dizemos que {v1 , . . . , vn } é um

91
conjunto gerador de V .

Exemplos de conjuntos geradores:

a) O espaço gerado por um vetor v ∈ R2 \ {⃗0} é o conjunto {λ.v, λ ∈ R}.

b) O espaço gerado por dois vetores v, w ∈ R2 \ {⃗0} não paralelos é o conjunto {x.v + y.w, x, y ∈ R}
que sabemos pelo capı́tulo 1 que é o próprio R2 .

c) Seja V = ]0, ∞[ com as operações x ⊕ y = xy (x, y ∈ V ) e λ ⊙ x = xλ (λ ∈ R, x ∈ V ) . O espaço


gerado pelo vetor 2 ∈ V é o conjunto {λ ⊙ 2, λ ∈ R} = {2λ , λ ∈ R}.

d) O espaço vetorial gerado pelos polinômios 1, x, x2 é o subespaço dos polinômios de grau menor
ou igual a 2, isto é, {a0 + a1 x + a2 x2 , a0 , a1 , a2 ∈ R}.


 x + 2y + 3z = 0
Exercı́cio 5.3.2. Considere o sistema I
 x + 3y + 4z = 0
Sabemos pelo exercı́cio 5.2.2 que SI é um subespaço do R3 .
Encontre um conjunto de geradores para SI .

Solução: Precisamos descobrir primeiro quais são os vetores de SI , isto é, resolver o sistema.
     
1 2 3 0 1 2 3 0 1 0 1 0
  −−−−−−−−−→   −−−−−−−−−→  
1 3 4 0 L2 ↔L2 +(−1).L1 0 1 1 0 L1 ↔L1 +(−2).L2 0 1 1 0

      


 −z 




 −1 


      
Então SI =  −z  , z ∈ R = z.  −1  , z ∈ R
   

  
 
   

 
  
 z  1 

 
−1
 
Note que todos os vetores de SI são combinações lineares de  −1 
 
e esse vetor também pertence
 
1
 
−1
 
a SI . Então  −1 
 
é um gerador de SI .
 
1

Exercı́cio 5.3.3. Encontre um conjunto de geradores para os seguintes subespaços vetoriais de M2×2 .
  
 a b 
a) W =   , a, b, c ∈ R
 0 c 

92
  
 a b 
b) W =   , a, b, c ∈ R
 b c 

  
 0 −a 
c) W =  , a ∈ R
 a 0 

Solução:        
a b 1 0 0 1 0 0
a) Note que   = a  + b  + c .
0 c 0 0 0 0 0 1
     
1 0 0 1 0 0
Além disso,  , ,  pertencem a esse subespaço.
0 0 0 0 0 1

Portanto eles geram esse subespaço.

   


 1 1 
    
Exercı́cio 5.3.4. Seja V o subespaço do R3 gerado por  0 , 1 
   
e W o subespaço do R3 gerado
   
 

 0 
0 
   


 0 0 
    
por  1 , 0  .
   
Encontre um conjunto de geradores para o subespaço V ∩ W .

    

 1 
1 

Solução:    


 1 1  
    
Queremos os vetores que podem ser escritos como combinação de  0  ,  1 
   
e como com-

     

 0 
0 
           


 0 0  1 1 0 0
            
binação de  1 , 0  .
   
Isto é, x 0  + y 1  = z 1  + w
      
0 .


            

 1 
1  0 0 1 1

Isso dá origem ao seguinte sistema linear:


      

 x+y =0 1 1 0 0 0 1 0 1 0 0 1 0 0 −1 0

   L1 ↔L1 +(−1).L2   L1 ↔L1 +(−1)L3  
y−z =0 ⇒  0 1 −1 0 0  −−−−−−−−−→  0 1 −1 0 0  −−−−−−−−−→
     
 0 1 0 1 0 

   L3 ↔(−1).L3   L2 ↔L2 +L3  

 −z − w = 0 0 0 −1 −1 0 0 0 1 1 0 0 0 1 1 0

Essa matriz está no formato reduzido e já podemos achar a solução do sistema que é x = w,
y = −w, z = −w, w = w. Então x, y, z dependem de w e w é qualquer número real.
     
1 1 0
     
Substituindo x e y encontraremos a interseção: w  0  − w  1  = w.  −1 ,
     
w ∈ R.
     
0 0 0

93
 
0
 
A interseção é gerada pelo vetor  −1 .
 
 
0

Observação 5.3.5. Nem sempre o conjunto solução de um sistema linear é um subespaço


vetorial do Rn , como vimos na letra e) do exercı́cio 5.2.2 ou na letra b) do exercı́cio 5.2.5.
Entretanto se o sistema for homogêneo então seu conjunto solução será um subespaço do Rn (ver
exercı́cio 5.2.5). Lembre-se que sempre escrevemos a solução de um sistema linear separando
em vetores com uma única variável e pondo as variáveis em evidência, como fizemos acima.
Isso nos permite ver quais são os vetores que combinados dão origem ao conjunto solução do
sistema linear. Esse método de separar os vetores e colocar as variáveis em evidência sempre
dará os vetores que geram o conjunto solução do sistema homogêneo.

Dependência e independência linear

Definição 5.3.6. Seja V um espaço vetorial real e v1 , . . . , vn alguns de seus vetores. Dizemos
que v1 , . . . , vn são linearmente independentes (L.I.) se a única combinação linear deles que
resulta no vetor 0V é aquela com coeficientes nulos, isto é, a1 v1 + . . . + an vn = 0V ⇔ a1 = . . . =
an = 0.
Se existirem números a1 , . . . , an nem todos iguais a 0 tais que a1 v1 + . . . an vn = 0V , dizemos
que v1 , . . . , vn são linearmente dependentes (L.D.).

Exemplos de vetores L.I. e L.D.:

         
0 1 0 1 0
a) Os vetores  ,   são L.I.. Pois x +y =  só ocorre quando x = y = 0.
1 0 1 0 0

       
0 1 1 2
b) Os vetores  ,  ,  ,   são L.D.. Pois
1 0 1 1

         
0 1 1 2 0
1.   + 1.   + (−1).   + 0.  = ,
1 0 1 1 0

ou seja, existe uma combinação linear desses vetores com números nem todos não iguais a 0
dando o vetor nulo.

94
Exercı́cio 5.3.7. Verifique se o seguintes conjuntos de vetores são L.I. ou L.D.
       
            1 1 1 1
0 0 1 1 1 1        
 1   1   0   0 
                   
a)  0  ,  1  ,  0 .
     
b)  1  ,  1  ,  0 .
     
c)   ,   ,   ,  .
       
             1   0   0   1 
0 0 0 1 0 0        
1 0 0 1

Solução: Temos que descobrir quais são os x, y, z tais que


       
0 0 1 0
       
x  0  + y  1  + z  0  =  0 ,
       
       
0 0 0 0
    
0 0 1 0 

 x 


    
ou seja, resolver o sistema  0 1 0 0 .
 
O conjunto solução desse sistema é  0 ,x ∈ R .
 
  
  

 
0 0 0 0  0 
Note que escolhendo x ̸= 0 e y = z = 0 temos uma solução diferente da x = y = z = 0.

Isso implica que os vetores iniciais eram L.D..

Lema 5.3.8. Os vetores v1 , . . . , vn do espaço vetorial V são linearmente dependentes se e somente se


um deles é combinação linear dos outros.

Demonstração. Se v1 , . . . , vn são L.D. então existem números a1 , . . . , an tais que a1 v1 +. . .+an vn = 0V


e algum desses números é diferente de zero. Vamos dizer que é o ai ̸= 0.
Podemos escrever a equação acima assim

−ai vi = a1 v1 + . . . + ai−1 vi−1 + ai+1 vi+1 + . . . + an vn .

Como ai ̸= 0,
a1 ai−1 ai+1 an
vi = v1 + . . . + vi−1 + vi+1 + . . . + vn .
−ai −ai −ai −ai
Portanto vi é combinação linear dos outros.
Vamos supor que vi seja combinação linear dos outros, isto é,

vi = b1 v1 + . . . + bi−1 vi−1 + bi+1 vi+1 + . . . + bn vn .

Então b1 v1 + . . . + bi−1 vi−1 + (−1).vi + bi+1 vi+1 + . . . + bn vn = 0V .


Note que o número na frente de vi é −1 ̸= 0. Portanto existe combinação linear de v1 , . . . , vn com
números nem todos 0 resultando em 0V , ou seja, v1 , . . . , vn são L.D.

Exercı́cio 5.3.9. Mostre que quaisquer 3 vetores do R2 são L.D..

95
Solução:
Se alguma deles for múltiplo de algum outro então um será combinação linear dos outros e portanto
pelo resultado anterior eles serão L.D.. Agora se nenhum deles é multiplo de algum outro então dois
deles não são nulos e não são múltiplos. Pelo que vimos no capı́tulo 1, a combinação desses dois dá o
terceiro. Portanto um deles é sempre combinação linear dos outro dois, ou seja, eles são sempre L.D.
pelo resultado anterior.

Exercı́cio 5.3.10. Sejam v1 , . . ., vk vetores



do Rn . Seja An×k matriz cuja coluna i é o vetor vi , isto
x
 1 
 .. 
é, A = (v1 , v2 , . . . , vk ). Seja x = . .
 
xk

a) Se convença que Ax = x1 v1 + x2 v2 + . . . xk vk .

b) Mostre que v1 , . . . , vk são L.I. se e somente se a única solução para o sistema Ax = ⃗0 é a solução
x1 = x2 = . . . = xk = 0.

c) Mostre que v1 , . . . , vk são L.D. se e somente se o sistema Ax = ⃗0 possuir infinitas soluções.

d) Mostre que v1 , . . . , vk são L.D. sempre que k > n.

e) Mostre que, quando k = n, v1 , . . . , vn são L.I. se e somente se det(A) ̸= 0.

f ) Mostre que, quando k < n e v1 , . . . , vk são L.I. então det(At A) > 0.

Definição de Base

Definição 5.3.11. Um conjunto de vetores {v1 , . . . , vn } de um espaço V é chamado base de V


se ele for um conjunto de geradores de V e se eles forem L.I.

Exemplos de bases:

   
 1 0 
a) O conjunto  ,  é uma base do R2 .
 0 1 

Temos que verificar se o conjunto gera e se ele é L.I. para garantir que seja base.
     
a 1 0
1. Note que   = x   + y  , onde x = a e y = b.
b 0 1

96
Portanto qualquer vetor do R2 é combinação linear desses dois.

     
0 1 0
2. Se   = x +y  então x = y = 0, ou seja, esses vetores são L.I.
0 0 1

   
 1 −1 
b) O conjunto  ,  é uma base do R2 .
 1 1 

Temos que verificar se o conjunto gera e se ele é L.I. para garantir que seja base.
     
a 1 −1
1. Precisamos achar x, y tais que   = x   + y  .
b 1 1
a+b −a + b
Mas isso implica que x − y = a e x + y = b, ou seja, x = ey= .
2 2
Portanto qualquer vetor do R2 é combinação linear desses dois.

     
0 1 −1
2. Se   = x  + y  então x − y = 0 e x + y = 0. Você pode ver que esse
0 1 1
sistema tem solução única x = y = 0, ou seja, esses vetores são L.I.

Exercı́cio 5.3.12. Verifique se os seguintes conjuntos são base do espaço V .


       
 1 0 0 1 0 0 0 0 
a)  , , ,  , onde V = M2×2 .
 0 0 0 0 1 0 0 1 

     
  
 1 0  a b
0 1 0 0 

b)  , ,  , onde V =   , a, b, c ∈ R .
 0 0 1 0 0 1   b c 

c) {1, x, x2 , x3 , . . .}, onde V = R[x].

Antes de resolver o próximo exercı́cio, observe o exercı́cio 4.6.5. Depois de resolvê-lo veja o exercı́cio
6.2.13

Exercı́cio 5.3.13 (Polinômio Interpolador: Parte 2). Sejam x1 , . . . , xn números distintos. Defina
p(x)
p(x) = (x − x1 )(x − x2 ) . . . (x − xn ) e defina os polinômios p1 (x), . . . , pn (x) por pi (x) = .
(x − xi )
pi (x)
a) Mostre que os polinômios q1 (x), . . . , qn (x) definidos por qi (x) = formam uma base para o
pi (xi )
espaço de polinômios de grau menor que n.

97
b) Se b1 , . . . , bn são números então o único polinômio q(x) de grau menor que n que satisfaz q(x1 ) =
b1 , . . . , q(xn ) = bn é o polinômio

q(x) = b1 q1 (x) + b2 q2 (x) + . . . + bn qn (x).

5.4 Teoremas importantes sobres bases e conjuntos geradores

Teorema 5.4.1. Sejam v1 , . . . , vn vetores que geram um espaço vetorial V ̸= {0V }. Dentre esses
vetores podemos extrair uma base.

Demonstração. Se v1 , . . . , vn são L.I., como eles já geram V , então eles já formam uma base de V .
Se v1 , . . . , vn forem L.D. então um deles é combinação dos outros pelo lema 5.3.8. Vamos dizer que
seja o vi , ou seja, vi = b1 v1 + . . . + bi−1 vi−1 + bi+1 vi+1 + . . . + bn vn .
Seja w um vetor qualquer de V então w = a1 v1 + . . . + ai−1 vi−1 + ai vi + ai+1 vi+1 + . . . + an vn
Substituindo vi pela expressão em vermelho obtemos

w = a1 v1 + . . . + ai−1 vi−1 + ai [b1 v1 + . . . + bi−1 vi−1 + bi+1 vi+1 + . . . + bn vn ] + ai+1 vi+1 + . . . + an vn


= (a1 + ai b1 )v1 + . . . + (ai−1 + ai bi−1 )vi−1 + (ai+1 + ai bi+1 )vi+1 + . . . + (an + ai bn )vn .

Acabamos de ver que qualquer vetor de V é combinação linear de v1 , . . . , vi−1 , vi+1 , . . . , vn , ou seja,
v1 , . . . , vi−1 , vi+1 , . . . , vn gera V e não precisamos de vi .
Se v1 , . . . , vi−1 , vi+1 , . . . , vn é L.I. temos uma base. Se v1 , . . . , vi−1 , vi+1 , . . . , vn é L.D. então reti-
ramos o vetor que é combinação linear dos outros e ainda teremos um conjunto gerador.
Podemos repetir esse argumento até obter um subconjunto L.I. de v1 , . . . , vn que gera V .
Não corremos o risco de tirar todos os vetores de v1 , . . . , vn repetindo esse argumento porque os
vetores que sobram sempre geram V .
No pior dos casos vai sobrar só um vetor vk , ele sozinho ainda gera V e ele não pode ser o vetor
0V , porque V ̸= {0V }. Então o conjunto {vk } é L.I. e gera V , ou seja uma base de V .

Teorema 5.4.2. Seja V um espaço vetorial gerado por n vetores: v1 , . . . , vn . Então qualquer conjunto
de vetores desse espaço com mais dos que n vetores é necessariamente L.D.. Portanto qualquer
conjunto L.I. tem no máximo n vetores.

98
Demonstração. Considere quaisquer m vetores w1 , . . . , wm de V , onde m > n.
Nosso objetivo é mostrar que eles são L.D.
Como v1 , . . . , vn geram V então

w1 = a11 v1 + . . . + an1 vn , . . . , wm = a1m v1 + . . . + anm vn .

Note que se x1 , . . . , xm são números então

x1 w1 + . . . + xm wm = x1 (a11 v1 + . . . + an1 vn ) + . . . + xm (a1m v1 + . . . + anm vn ).

Portanto

x1 w1 + . . . + xm wm = (a11 x1 + . . . + a1m xm )v1 + . . . + (an1 x1 + . . . + anm xm )vn .

Considere o sistema

a x + . . . + a1m xm = 0
 11 1



..
 .


 a x + ... + a x = 0
n1 1 nm m

Esse sistema têm n linhas e m colunas, onde n < m. Portanto ele não tem solução única. Restam
os casos dele possuir infinitas soluções ou nenhuma solução. Entretanto existe uma solução que é a
x1 = . . . = xm = 0. Como existe solução e ela não é única temos alguma outra solução com nem todos
os xi são iguais a zero.
Portanto existem números x1 , . . . , xm não todos iguais a zero que garantem que

x1 w1 + . . . + xm wm = 0.v1 + . . . + 0.vn = 0V .

Isto é, w1 , . . . , wm são L.D..

Corolário 5.4.3. Se um espaço vetorial V tem uma base com n vetores então todas as outras bases
terão n vetores também.

Demonstração. Seja {v1 , . . . , vn } base de V .


Se {w1 , . . . , wm } for outra base então ela será um conjunto de geradores para V .
Como {v1 , . . . , vn } também é um conjunto de geradores, se m > n então pelo teorema 5.4.2 teremos
que w1 , . . . , wm são L.D.. Isso não é verdade, porque {w1 , . . . , wm } é um conjunto L.I. (pois é uma
base).
Então temos que m ≤ n. Mas se m < n então pelo teorema 5.4.2, v1 , . . . , vn seria L.D., pois
w1 , . . . , wm gera V . Isso não é verdade, porque {v1 , . . . , vm } é um conjunto L.I. (pois é uma base).
Assim devemos concluir que m = n, ou seja, todas as bases têm a mesma cardinalidade.

99
Definição de Dimensão

Definição 5.4.4. Se {v1 , . . . , vn } é uma base de V então dizemos que a dimensão de V é n.

Exemplos de Dimensão:

a) A dimensão do R2 é 2, do R3 é 3 e assim por diante.

b) A dimensão de M2×2 é 4.
       
1 1 2 −1
       
 1   0   1   −1 
       
Exercı́cio 5.4.5. Seja W o subespaço do R4 gerado por v1 = 
 
 , v2 =   , v3 =   , v4 = 
    
.

 0   0   0   0 
       
0 1 1 0
Encontre uma base desse subespaço.

Solução: O teorema 5.4.1 nos diz que podemos extrair de qualquer conjunto de geradores uma base.
Na sua demonstração vimos que se um vetor é combinação linear dos outro, podemos jogá-lo fora e
continuamos com um conjunto de geradores. Podemos repetir esse processo de jogar fora até obter
uma base.
Note que o v4 = v2 + (−1)v3 . Podemos jogar ele fora e sabemos que v1 , v2 , v3 ainda geram W .
Agora, v3 = 1.v1 + 1.v2 então podemos jogá-lo fora e sabemos que v1 , v2 ainda geram W .
Agora vamos

ver que v , v são L.I..
  1 2 
1 1 0
     
 1  0   0 
     

Se x. 
 
 + y. 

= 
   então x + y = 0, x = 0 e y = 0.
 0   0   0 
     
0 1 0
Isso prova que a única combinação de v1 e v2 que resulta no vetor nulo é aquela que os números
são todos iguais a zero. Portanto v1 e v2 são L.I. e geram W , ou seja, uma base de W .

Observação 5.4.6. Resolver o exercı́cio anterior foi fácil pois conseguimos observar rapidamente
quais vetores eram combinações de outros vetores. Em geral isso não é tão fácil. Além disso podı́amos
ter uma lista com 50 vetores. O próximo lema te dá uma maneira simples de obter uma base a partir
de um conjunto de geradores.

Lema 5.4.7. Sejam v1 , . . . , vn um conjunto de geradores para V . Qualquer operação elementar que
você faça nesses vetores resultará num conjunto de geradores para V .

Demonstração. As operações elementares nesses vetores são

100
vi ↔vj
Op 1. v1 , . . . , vi , . . . , vj , . . . , vn −−−−→ v1 , . . . , vj , . . . , vi , . . . , vn

Note que continuamos com o mesmo conjunto de geradores.


vi ↔λ.vi
Op 2. v1 , . . . , vi , . . . , vn −−−−→ v1 , . . . , λ.vi , . . . , vn , onde λ ̸= 0
ai
Se w = a1 v1 + . . . + ai vi + . . . + an vn então w = a1 v1 + . . . + (λ.vi ) + . . . + an vn .
λ
Isto é, qualquer combinação linear de v1 , . . . , vi , . . . , vn também é combinação linear de v1 , . . . , λ.vi , . . . , vn .
Portanto esse novo conjunto de vetores de V ainda gera V .
vi ↔vi +λ.vj
Op 3. v1 , . . . , vi , . . . , vn −−−−→ v1 , . . . , .vi + λvj , . . . , vn .

Se w = a1 v1 +. . .+ai vi +. . .+an vn então w = a1 v1 +. . .+ai (vi +λvj )+. . .+(aj −ai λ)vj +. . .+an vn .

Isto é, qualquer combinação linear de v1 , . . . , vi , . . . , vn também é combinação linear de v1 , . . . , vi +


λvj , . . . , vn . Portanto esse novo conjunto de vetores de V ainda gera V .

Método para achar base a partir de geradores

O método mais rápido para obter uma base a partir de um conjunto de geradores v1 , . . . , vk de
um subespaço do Rn é colocando eles nas linhas de uma matriz e depois reduzindo-a.

Pelo lema 5.4.7, as linhas que sobrarem na matriz reduzida ainda geram o mesmo subespaço,
porque foram obtidas das linhas originais utilizando operações elementares.

Podemos jogar as lihas nulas fora e ainda continuamos com um conjunto de geradores.

Além disso, as linhas não nulas são vetores L.I.. O que garante isso são os 1s que começam
linhas, pois em cima e embaixo deles só há zeros. Veremos um exemplo a seguir que deixará
isso mais claro. Portanto obtemos uma base.

Depois veremos como realizar a mesma tarefa para subespaços que não são subespaços do Rn .

Exemplo: Voltando ao exercı́cio 5.4.5. Coloque os vetores nas linhas da matriz e escalone:
       
1 1 0 0 1 1 0 0 1 1 0 0 1 0 0 1
       
 1 0 0 1  L2 ↔L2 +(−1).L1 e L4 ↔L4 +L1  0 −1 0 1  L3 ↔L3 +(−1).L2  0 −1 0 1  0 1 0 −1 
       
 L1 ↔L1 +L2
  −−−−−−−−−−−−−−→   −−−−−−−−−→   −−−−−−−−−→  

 2 1 0 1 
 L3 ↔L3 +(−2).L1  0 −1 0 1 
  
 0 0 0 0
 L2 ↔(−1).L2


 0 0 0 0 

       
−1 −1 0 0 0 0 0 0 0 0 0 0 0 0 0 0

101
Pelo lema anterior como essas linhas finais foram obtidas das originais por operações elementares
então elas geram o mesmo subespaço. As linhas nulas são combinações da outras, podemos jogá-las
fora.

As linhas que sobraram são L.I. e quem garante isso são os 1s que começam linhas, pois em cima
e embaixo deles sáo há zeros. Veja:
     
1 0 0
     
 0   1   0 
     
x. 
 
 + y. 

= 
   então x.1 = 0 e y.1 = 0. Portanto esses vetores são L.I..
 0   0   0 
     
1 −1 0

       
1 0 1 0
       
Exercı́cio 5.4.8. Calcule a dimensão do subespaço do R3 gerado pelos vetores  1  ,  1  ,  0  ,  0 .
       
       
0 1 1 1

Teorema 5.4.9. Seja V um espaço vetorial e v1 , . . . , vk vetores L.I. de V .

1. Se v1 , . . . , vk não geram V então existe vk+1 ∈ V tal que v1 , . . . , vk , vk+1 são vetores L.I., ou
seja, podemos estender esse conjunto com mais um vetor e ainda será L.I.

2. Se dim(V ) = k então v1 , . . . , vk também é base de V , ou seja, além de ser L.I. eles geram o
espaço.

Demonstração. 1.) Como v1 , . . . , vk não geram V existe um vetor vk+1 ∈ V que não é combinação
linear de v1 , . . . , vk .
Suponha que v1 , . . . , vk , vk+1 sejam L.D.. Então existem números a1 , . . . , ak+1 nem todos nulos
tais que a1 v1 + . . . + ak+1 vk+1 = 0V .
Se ak+1 = 0 então a1 v1 + . . . + ak vk = 0V e nem todos os ai nulos, mas isso é um erro porque
v1 , . . . , vk são L.I.
a1 ak
Se ak+1 ̸= 0 então vk+1 = − v1 + . . . + − vk , mas isso é um erro porque vk+1 não é
ak+1 ak+1
combinação linear de v1 , . . . , vk .
Chegamos sempre a um erro quando supomos que v1 , . . . , vk , vk+1 são L.D.. Para evitar esse erro
devemos concluir que v1 , . . . , vk , vk+1 são L.I..
Isso completa a parte 1.).

2.) Suponha que v1 , . . . , vk não geram V . Então existe vk+1 ∈ V tal que v1 , . . . , vk , vk+1 L.I., pela
parte 1.)

102
Entretanto isso é um erro porque um conjunto com cardinalide maior do que a cardinalidade de
uma base deve ser L.D. pelo teorema 5.4.2.
Para o evitar esse erro devemos conlcluir o contrário do que supomos, isto é, v1 , . . . , vk geram V .
Portanto v1 , . . . , vk formam uma base de V .

Observação 5.4.10. Esse teorema é interessante porque se você já souber a dimensão de um espaço
e encontrar um conjunto L.I. com a mesma cardinalidade da dimensão então esse conjunto já é uma
base.

Corolário 5.4.11. Seja V um espaço vetorial de dimensão n. Se W é um subespaço de V diferente


do {0V } então existe uma base para W e dim(W ) ≤ n. Além disso, se dim(W ) = n então W = V .

Demonstração. Como W ̸= {0V } então existe w1 ∈ W \ {0V }.


Se w1 gera W então w1 é uma base de W , pois um vetor não nulo é linearmente independente (a
única combinação nula dele é 0.w1 ).
Se w1 não gera W então existe w2 ∈ W tal que w1 , w2 são L.I. pelo teorema 5.4.9.
Podemos repetir esse argumento até obter uma base de W .
Note que se chegarmos a repetir o argumento n vezes, isto é, se obtermos vetores w1 , w2 , . . . , wn
L.I. dentro de W então, pelo teorema 5.4.9, w1 , w2 , . . . , wn formarão uma base para V . Portanto
todos os vetores de V estarão em W , porque serão combinações de vetores de W . Lembre-se que W
é subespaço de V então W ⊂ V . Portanto W = V .
Se W ̸= V teremos que parar de repetir o argumento antes de obter n vetores L.I. dentro de W
(pois acabamos de ver que isso implica W = V ). Mas só paramos de estender o conjunto quando
obtermos uma base de W .
Em ambos os casos a cardinalidade da base de W é menor ou igual a n. Quando for n já vimos
que W = V .

Observação 5.4.12. Na demonstração acima usamos o fato que V tem base e sua cardinalidade é
um número natural n para obter a base de W . Poderı́amos nos perguntar o seguinte:
Se não soubéssemos que V tem uma base, ainda serı́amos capazes de obter uma base para W ?
De maneira mais geral, será que sempre existe base para um espaço vetorial V ?
A resposta para essas pergunta é sim, sempre existirá base, mas não conseguiremos provar aqui.
Precisamos de um resultado chamado Lema de Zorn.

103
5.5 Coordenadas e matriz mudança de coordenadas

Lembre-se que dado um conjunto L.I. de vetores de um espaço vetorial V existe apenas uma
combinação deles que fornece o vetor 0V . Essa combinação é aquela com todos os números iguais a
zero.
Começaremos essa seção com um teorema que garante que para cada base de V existe uma única
maneira de obter cada vetor w como combinação dessa base, ou seja, bem parecido com o resultado
que tı́nhamos para o vetor 0V .
Com esse resultado seremos capazes de por coordenadas nos vetores de qualquer espaço vetorial
(por mais estranho que ele seja) da mesma maneira que fizemos no capı́tulo 1 com os vetores do plano.

Teorema 5.5.1. Seja β = {v1 , . . . , vn } base de V . Cada vetor v pode ser escrito de uma única maneira
como combinação linear de v1 , . . . , vn . Isto é, os números a1 , . . . , an que satisfazem v = a1 v1 +. . .+an vn
são únicos para cada v.

Demonstração. Seja v ∈ V . Como v1 , . . . , vn formam uma base de V então exstem números a1 , . . . , an


que satisfazem v = a1 v1 + . . . + an vn .
Vamos supor que existisse uma outra maneira de combinar v1 , . . . , vn para obter v, isto é, v =
b1 v1 + . . . + bn vn .
Então 0V = (a1 − b1 )v1 + . . . + (an − bn )vn .
Lembre-se que v1 , . . . , vn é L.I. e a única combinação que dá o vetor 0V é aquela com todos os
números iguais a 0.
Portanto a1 − b1 = a2 − b2 = . . . = an − bn = 0 , ou seja, não existe outra maneira de combinar
v1 , . . . , vn para obter v.

Definição 5.5.2. Seja V uma espaço vetorial de dimensão n. Seja β = {v1 , . . . , vn } uma base de V .
Se fixarmos a ordem dos vetores v1 , . . . , vn dentro da base obteremos

uma

base ordenada. Diremos que
a
 1 
 .. 
as coordenadas do vetor v = a1 v1 + . . . + an vn na base β é [v]β = .  .
 
an

Exemplos de coordenadas:

           
 1 0   0 1   1 1 
1. Sejam β1 =  ,  , β2 =  ,  e β3 =  ,  bases ordenadas do
 0 1   1 0   1 0 
R2 .

104
     
4 4 4
Vamos calcular a)   , b)   , c)   .
3 3 3
β1 β2 β3

         
4 1 0 4 4
a) Como   = 4.   + 3.   então   = .
3 0 1 3 3
β1
Estranho?
         
4 0 1 4 3
b) Como   = 3.   + 4.   então   = .
3 1 0 3 4
β2
Viu a importância da ordem dos vetores na base?

         
4 1 1 4 3
c) Como   = 3.   + 1.   então   = .
3 1 0 3 1
β3

2. Seja α = {1, x, x2 } uma base ordenada do espaço vetorial dos polinômios de grau menor ou igual
a 2.

Vamos calcular [2 + 5x + 3x2 ]α .


 
2
 
Como 2 + 5x + 3x2 = 2.1 + 5.x + 3.x2 então [2 + 5x + 3x2 ]α =  5 .
 
 
3

Exercı́cio 5.5.3. Mostre que 1, 2x, x2 + x é uma base para o espaço dos polinômios de grau menor ou
igual a 2. Considere a base ordenada β formada por esses vetores nessa ordem. Calcule [2+5x+3x2 ]β .

Solução: Vejamos que 1, 2x, x2 + x gera o espaço dos polinômios de grau menor ou igual a 2. Seja
a + bx + cx2 , queremos a′ , b′ , c′ tais que a′ .1 + b′ .2x + c′ .(x2 + x) = a + bx + cx2
b−c′
Isso implica que a′ = a, 2b′ + c′ = b e c′ = c. Assim a′ = a, b′ = 2 = b−c
2 e c′ = c.
Agora para ver que eles são L.I., note que

a′ .1 + b′ .2x + c′ .(x2 + x) = 0.1 + 0.x + 0.x2 ,

somente quando a′ = b′ = c′ = 0 (basta substituir a = b = c = 0 nas equações para a′ , b′ e c′


acima).
Precisamos agora achar qual é a combinação de 1, 2x, x2 + x que dá 2 + 5x + 3x2 .
Então queremos a, b, c tais que 2 + 5x + 3x2 = a.1 + b.2x + c.(x2 + x), ou seja,

2 + 5x + 3x2 = a1 + (2b + c)x + cx2 .

105
Portanto a = 2, 2b + c = 5 e c= 3.
 Assim a = 2, b = 1 e c = 3.
2
 
Conclusão [2 + 5x + 3x2 ]β =  1 .
 
 
3

       
1 0 1 0 0 1 0 −1
Exercı́cio 5.5.4. Mostre que o conjunto  , , ,  é uma base de M2×2 .
0 1 0 −1 1 0 1 0
 
1 2
Considere a base ordenada β formada por esses vetores nessa ordem. Calcule   .
3 4
β

Exercı́cio 5.5.5. Seja V um espaço vetorial de dimensão n e β = {v1 , . . . , vn } uma base ordenada de
V.

a) Mostre que para quaisquer v, w ∈ V e escalares a, b ∈ R temos [av + bw]β = a.[v]β + b[w]β .

b) Mostre que para quaisquer w1 , . . . , wn ∈ V e escalares a1 , . . . , an temos [a1 w1 + . . . + an wn ]β =


a1 .[w1 ]β + . . . + an .[wn ]β .

Solução: a) Como v, w ∈ V então v = a1 v1 + . . . + an vn , w = b1 v1 + . . . + bn vn e

av + bw = a.(a1 v1 + . . . + an vn ) + b.(b1 v1 + . . . + bn vn ) =

= (a.a1 + b.b1 )v1 + . . . + (a.an + b.bn )vn .

     
a.a1 + b.b1 a1 b1
.. ..  .. 
     
Assim [av + bw]β =
 .  = a. 
 
.  + b. 

. = a.[v]β + b.[w]β
     
a.an + b.bn an bn

b) Pela letra a), [a1 w1 + (a2 w2 + . . . + an wn )]β = a1 .[w1 ]β + [a2 w2 + . . . + an wn ]β

Pela letra a), novamente

a1 .[w1 ]β + [a2 w2 + . . . + an wn ]β = a1 .[w1 ]β + a2 [w2 ]β + [a3 w3 + . . . + an wn ]β .

Assim sucessivamente obtemos [a1 w1 + . . . + an wn ]β = a1 .[w1 ]β + . . . + an .[wn ]β .

Exercı́cio 5.5.6. Seja V um espaço vetorial de dimensão n e β = {v1 , . . . , vn } uma base ordenada de
V . Mostre que

a) w1 , . . . , wk ∈ V são L.I. se e somente se [w1 ]β , . . . , [wk ]β ∈ Rn são L.I..

106
b) w1 , . . . , wk ∈ V geram V se e somente se [w1 ]β , . . . , [wk ]β ∈ Rn geram Rn

c) w1 , . . . , wk ∈ V formam uma base de V se e somente se [w1 ]β , . . . , [wk ]β ∈ Rn formam uma base


do Rn .

Solução: Sejam w1 , . . . , wk ∈ V L.I.. Vamos provar que [w1 ]β , . . . , [wk ]β ∈ Rn são L.I. também.

Considere uma combinação de [w1 ]β , . . . , [wk ]β dando ⃗0, ou seja, x1 [w1 ]β + . . . + xk [wk ]β = ⃗0.

Pelo exercı́cio anterior, x1 [w1 ]β + . . . + xk [wk ]β = [x1 w1 + . . . + xk wk ]β .

Além disso, [0V ] = ⃗0. Então [x1 w1 + . . . + xk wk ]β = [0V ]β .

Acabamos de ver que as coordenadas dos vetores x1 w1 + . . . + xk wk e 0V são iguais, mas cada
vetor tem coordenadas únicas, portanto devemos concluir que x1 w1 + . . . + xk wk = 0V .

Mas isso só ocorre se x1 = x2 = . . . = xn = 0, pois w1 , . . . , wk ∈ V são L.I..

Acabamos de provar que a única combinação de [w1 ]β , . . . , [wk ]β dando ⃗0 é aquela com coeficientes
nulos, ou seja, w1 , . . . , wk ∈ V são L.I..

Agora vamos supor o contrário que [w1 ]β , . . . , [wk ]β são L.I. e vamos provar que w1 , . . . , wk ∈ V
são L.I..

Considere uma combinação de w1 , . . . , wk ∈ V dando 0V , x1 w1 + . . . + xk wk = 0V .

Assim, [x1 w1 + . . . + xk wk ]β = [0V ]β .

Pelo exercı́cio anterior, [x1 w1 + . . . + xk wk ]β = x1 [w1 ]β + . . . + xk [wk ]β .


Além disso, [0V ]β = ⃗0.

Portanto x1 [w1 ]β + . . . + xk [wk ]β = ⃗0.

Mas isso só ocorre quando x1 = x2 = . . . = xn = 0, pois [w1 ]β , . . . , [wk ]β são L.I.

Acabamos de provar que a única combinação de w1 , . . . , wk ∈ V dando 0V é aquela com coeficientes


nulos, ou seja, w1 , . . . , wk ∈ V são L.I.. □

107
A importância das coordenadas

Observação 5.5.7. A partir de agora se quisermos saber se w1 , . . . , wk ∈ V formam uma base


de V (ou apenas geram ou são L.I.), basta fazer a mesma pergunta para os [w1 ]β , . . . , [wk ]β de
Rn . Acabamos de traduzir um problema de um espaço vetorial V (que pode ser bem estranho)
para um espaço vetorial que estamos acostumados: o Rn . Isso foi possı́vel graças as coordenadas
que obtivemos para os vetores com respeito a base ordenada β.
Essa ideia é importantı́ssima. Sempre que tivermos um problema em um espaço vetorial V ,
podemos escolher uma base ordenada para V e troduzir o problema para o Rn .

Vejamos um exemplo abaixo.

Método para encontrar uma base a partir de geradores em espaços vetoriais arbitrários.

Seja β = {v1 , . . . , vn } uma base ordenada de V . Seja W um subsespaço de V gerado pelos vetores
w1 , . . . , wk . Encontre uma base para W .

Se estivéssemos no Rn saberı́amos resolver esse problema. Basta colocar os vetores w1 , . . . , wk nas


linhas de uma matriz e escalonar. As linhas não nulas que restam são L.I. e ainda geram W . Vimos
isso na página 87 no quadro: Método para achar base a partir dos geradores.

Usando a ideia da observação acima podemos fazer o seguinte. Considere os vetores do Rn :


[w1 ]β , . . . , [wk ]β .

Coloque-os na linhas de uma matriz e escalone a matriz. Suponha que no final os vetores
r1 , . . . , rs ∈ Rn não nulos sobrem nas linhas da matriz escalonada. Sabemos que eles geram o mesmo
subespaço do Rn que [w1 ]β , . . . , [wk ]β geram e que também são L.I..

Agora precisamos encontrar os vetores m1 , . . . , ms ∈ V tais que [m1 ]β = r1 , . . . , [ms ]β = rs .

Esse vetores formarão uma base para W . Veremos a seguir.


 
a
 1 
 .. 
Para achar os mi , lembre-se que [mi ]β = ri =  .  significa que mi = a1 v1 + . . . + an vn , ou seja,
 
an
as coordenadas do vetor ri são os números da combinação de v1 , . . . , vn que dão mi . Então achamos
os mi .

108
Agora vamos ver que m1 , . . . , ms também geram W . Seja w ∈ W . Então w = ki=1 xi wi . Assim,
P

pelo exercicio 5.5.5, [w]β = ki=1 xi [wi ]β = si=1 yi ri , pois os r1 , . . . , rs geram o mesmo espaço que os
P P

[w1 ]β , . . . , [wk ]β .

Ps Ps Ps
Mas [w]β = i=1 yi ri = i=1 yi [mi ]β =[ i=1 yi mi ]β , pelo exercı́cio 5.5.5. Isso significa que as
Ps
coordenadas de w e de i=1 yi mi na base β são iguais, mas as coordenadas são únicas para cada vetor
então w = si=1 yi mi . Acabamos de mostrar que qualquer w ∈ W é combinação dos mi , ou seja, eles
P

geram W mas também são L.I., pelo exercicio 5.5.6 letra a).

Exercı́cio 5.5.8. Seja V o espaço dos polinômios de grau menor ou igual a 2. Seja W o subespaço
de V gerado por {x2 + x, 2x2 − 3x, 5x2 − 4x}. Obtenha uma base para W .

Solução: Seja α = {1, x, x2 } uma base ordenada de V . Vamos achar as coordenadas de cada um
desses polinômios nessa base. Como

0
1. x2 + x = 0.1 + 1.x + 1.x2 então [x2 +
 
x]α =
 1 .
 

1
 
0
2. 2x2 − 3x = 0.1 + (−3).x + 2.x2 então [2x2 −
 
3x]α =
 −3 .



2
 
0
3. 5x2 − 4x = 0.1 + (−4).x + 5.x2 então [5x2 −
 
 −4 .
4x]α =



5

Coloque esses vetores nas linhas de uma matriz e reduza-a.

       
0 1 1 0 1 1 L3 ↔ 19 L3 0 1 1 0 1 0
  L3 ↔L3 +(4).L1     L1 ↔L1 +(−1).L2  
 0 −3 2  −−−−−−−−−→  −−−−→  −−−−−−−−−→
       
 0 0 5  0 0 1  0 0 1 
  L2 ↔L2 +(3).L1   L2 ↔ 1 L2   L3 ↔L3 +(−1).L2  
5
0 −4 5 0 0 9 0 0 1 0 0 0

Nas linhas dessa matriz se encontram as coordenadas dos vetores na base α que geram W.

Eles são 0.1 + 1.x + 0.x2 = x e 0.1 + 0.x + 1.x2 = x2 .

Teorema 5.5.9. Seja V um espaço vetorial de dimensão n e sejam α e β bases ordenadas de V .


Existe uma única matriz n × n que será denotada por [Id]αβ tal que para todo v ∈ V temos

[Id]αβ [v]α = [v]β .

109
Ela troca as coordenadas de qualquer v ∈ V de uma base α para uma β. Essa matriz é chamada de
matriz mudança de coordenadas da base α para a base β.
 
 0 
 .. 

 . 

Demonstração. Seja α = {v1 , . . . , vn }. Como vi = 0.v1 + . . . + 1.vi + . . . + 0.vn então [vi ]α = .
 

 1 
 .. 
. 
 

 
0

Como [vi ]α é o vetor que tem um 1 na posição i e o resto é zero então qualquer matriz Bn×n
multiplicada por [vi ]α resulta em
 
b
 1i 
 .. 
B[vi ]α =  . 
 
. Isto é, B[vi ]α coluna i de B.
bni

Agora a matriz que estamos procurando pede que o resultado dê B[vi ]α = [vi ]β .
Então a coluna i dessa matriz que procuramos só pode ser [vi ]β . Assim as colunas da matriz que
estamos procurando só podem ser [v1 ]β , . . . , [vi ]β , . . . , [vn ]β , isto é,

[Id]αβ = ([v1 ]β , . . . , [vi ]β , . . . , [vn ]β ).

Agora vamos verificar que ([v1 ]β , . . . , [vi ]β , . . . , [vn ]β ) realmente satisfaz a fórmula que queremos
para todo v ∈ V .  
a
 1 
 .. 
Seja v ∈ V então v = a1 v1 + . . . + an vn . Portanto [v]α =  . 
 
.
an

 
a
 1 
 .. 
Pelo letra a) do exercı́cio 5.3.10 , ([v1 ]β , . . . , [vn ]β )  . 
 
= a1 [v1 ]β + . . . + an [vn ]β .
an

Pelo exercı́cio 5.5.5, a1 [v1 ]β + . . . + an [vn ]β = [a1 v1 + . . . + an vn ]β = [v]β .

Assim ([v1 ]β , . . . , [vn ]β )[v]α = [v]β para todo v ∈ V .

           
 1 0   1 −1   1 0 
Exercı́cio 5.5.10. Sejam α =  ,  , β =  ,  eγ =  , 
 0 1   1 1   2 1 

Encontre as seguintes matrizes mudanças de base.

a) [Id]αβ b) [Id]βγ c) [Id]αγ

as colunas de [Id]βγ são obtidas


Solução: b) Noteque    por
1 0
1a coluna: [Id]βγ  . 2a coluna: [Id]βγ  .
0 1

110
       
1 1 0 −1
Agora   =   e   =  
0 1 1 1
β β

   
1 1
1a coluna: [Id]βγ   =   .
1 1
β γ

   
−1 −1
2a coluna: [Id]βγ   =   .
1 1
β γ

 
1
Para encontrar a 1a coluna de [Id]βγ que é   , precisamos achar x, y tais que
1
γ

     
1 1 0
  = x.   + y.  .
1 2 1
   
−1 1
Assim x = 1 e y = −1. Então   =  .
1 −1
γ

 
−1
Para encontrar a 2a coluna de [Id]βγ que é   , precisamos achar x, y tais que
1
γ

     
−1 1 0
  = x.   + y.  .
1 2 1
   
−1 −1
Assim x = −1 e y = 3. Então   =  .
1 3
γ

 
1 −1
Portanto [Id]βγ =  . □
−1 3

Exercı́cio 5.5.11. Sejam α e β bases ordenadas de um espaço vetorial V de dimensão n. Mostre que

a) [Id]αα = Idn×n

b) [Id]αβ [Id]βα = Idn×n , ou seja, [Id]αβ e [Id]βα são matrizes inversas.

111
Capı́tulo 6

Transformações lineares

No capı́tulo de matrizes vimos que elas representam funções entre Rn e Rm . Demos o nome de
transformações lineares a essas funções. Note que Rn é um tipo de espaço vetorial bem especı́fico
e vimos vários tipos até agora. Então podemos suspeitar que existem transformaçoes lineares entre
espaços vetoriais arbitrários. É isso que vamos ver nesse capı́tulo.

6.1 Definição de Transformação linear

Definição 6.1.1. Sejam V, W espaços vetoriais reais. Uma transformação linear T : V → W é uma
função que satisfaz as seguintes propriedades:

1. T (v1 + v2 ) = T (v1 ) + T (v2 ), para todo v1 , v2 ∈ V .

2. T (λ.v) = λ.T (v), para todo λ ∈ R.

Exemplos de T.L.s

a) Considere a função derivada D : R[x] → R[x], onde

D(a0 + a1 x + . . . + an xn ) = a1 + a2 2x + . . . + an nxn−1 .

Sabemos de cálculo que

D(p1 (x) + p2 (x)) = D(p1 (x)) + D(p2 (x)), para todos p1 (x), p2 (x) ∈ R[x]

D(λ.p1 (x)) = λ.D(p1 (x)), para todo λ ∈ R e p1 (x) ∈ R[x].

Portanto D é uma transformação linear.

112
b) Seja An×n uma matriz. A considere a função TA : Rn → Rn , definida por TA (x) = Ax (ou seja,
nossa antigaT.L.).

Sabemos das propriedades de produto de matrizes que

TA (x + y) = A(x + y) = Ax + Ay = TA (x) + TA (y), para todos x, y ∈ Rn .

TA (λ.x) = A(λx) = λ.Ax = λ.TA (x), para todo λ ∈ R e x ∈ Rn .

Portanto TA é uma transformação linear.

c) A função f : R → R, f (x) = 1, não é uma T.L..

Pois f (λx) = 1 ̸= λ = λ.f (x) quando λ ̸= 1.

Exercı́cio 6.1.2. Determine quais funções abaixo são transformações lineares.


 
x
a) Seja f : R2 → R, f  = xy
y

b) Seja T : Mn×n (R) → R, T (X) = det(X).

c) Seja An×n uma matriz . Defina LA : Mn×n (R) → Mn×n (R), LA (X) = AX.

d) Sejam An×n e Bn×n matrizes. Defina T : Mn×n (R) → Mn×n (R), T (X) = AX + XB.

Solução: d) Sejam X, Y ∈ Mn×n (R). Note que

T (X +Y ) = A(X +Y )+(X +Y )B = AX +AY +XB+Y B = (AX +XB)+(AY +Y B) = T (X)+T (Y ).

T (λ.X) = A(λ.X) + (λ.X)B = λ.(AX + XB) = λ.T (X)

Portanto essa T é uma T.L.

Exercı́cio 6.1.3. Qual é a transformação linear T : R2 → R3 que satsifaz


   
 2   0 
1
  0
 
a) T  =
 −1 

eT  = 
 0  ?
0   1  
0 1

   
 3   0

1
  0  
b) T  = 2 

 eT  = 1 

 ?
1   −2  
1 0

113
Exercı́cio 6.1.4. Seja V um espaço vetorial real e v1 , . . . , vn uma base de V . Sejam w1 , . . . , wn
vetores do espaço vetorial real W . Mostre que existe uma única transformação linear T : V → W que
satisfaz T (v1 ) = w1 , . . . , T (vn ) = wn .

Exercı́cio 6.1.5. Seja V, W, U espaços vetoriais reais. Sejam T : V → W , S : V → W e R : W → U


trasnformações lineares. Mostre que as seguintes funções também são Tranformações lineares.

a) T + S : V → W , definida por T + S(v) = T (v) + S(v)

b) λ.T : V → W , definida por λ.T (v) = λ(T (v))

c) R ◦ T : V → W , definida por R ◦ T (v) = R(T (v)).

6.2 Núcleo e Imagem

Na escola aprendemos a fórmula para resolver equações do segundo grau (fórmula de Baskara).
Essa fórmula dava as raı́zes de uma poliômio de grau 2. Também podemos pensar nas “raı́zes”de uma
transformação linear, isto é, nos vetores cuja imagem é o vetor nulo. O conjunto de todas essas raı́zes
será chamado de núcleo da transformação linear.

Definição 6.2.1. Seja T : V → W uma transformação linear. O conjunto de todos os vetores de V


cuja imagem pela T resulta no vetor nulo em W é chamado de Núcleo de T (em inglês é Kernel). Ele
será denotado por N uc(T ). Assim N uc(T ) = {v ∈ V, T (v) = 0W }.

Lema 6.2.2. Seja T : V → W uma transformação linear. O N uc(T ) é um subespaço de V .

Demonstração. Para mostrar que N uc(T ) é um subespaço de V temos que mostrar que

v1 + v2 ∈ N uc(T ) e λ.v1 ∈ N uc(T ),

para todo v1 , v2 ∈ N uc(T ) e λ ∈ R.


Pela primeira propriedade da T.L., T (v1 + v2 ) = T (v1 ) + T (v2 ).
Como v1 , v2 ∈ N uc(T ), T (v1 ) = T (v2 ) = 0W . Então

T (v1 + v2 ) = T (v1 ) + T (v2 ) = 0W + 0W = 0W ,

ou seja, v1 + v2 ∈ N uc(T ).
Agora T (λ.v1 ) = λ.T (v1 ) = λ.0W = 0W , ou seja, λ.v1 ∈ N uc(T ).

114
Exercı́cio 6.2.3. Seja An×n uma matriz. Considere a função T : Mn×n (R) → Mn×n (R) definida
por T (X) = AX − XA.

a) Mostre que T é uma T.L..

b) Mostre que {X ∈ Mn×n (R), AX = XA} é um subespaço de Mn×n (R).

Exercı́cio 6.2.4. Encontre uma base para o Núcleo das seguintes T.L.s.
 
x  
   2x + 1y + 1.z 
R3 → R2 ,
 
a) T : T  y  =
  4y
z

 

b) T : M2×2 (R) → R, T  x y
=x+w .
z w

    
x y  x y 
Solução: b) Queremos as matrizes que satsifazem T   = 0, ou seja,  , x + w = 0 .
z w  z w 
 
−w y
Essas mastrizes são do tipo  .
z w
Podemos escrevê-las assim
       
−w y −1 0 0 1 0 0
  = w.   + y.   + z.  .
z w 0 1 0 0 1 0

     
−1 0 0 1 0 0
Portanto  , ,  geram N uc(T ).
0 1 0 0 1 0

Note acima que a única combinação delas que dá a matriz nula é aquela com w = y = z = 0, ou
seja, elas são L.I.. Assim provamos que essas três matrizes formam uma base do N uc(T ).

Exercı́cio 6.2.5. Dizemos que uma T.L. T : V → W é injetora se v1 ̸= v2 então T (v1 ) ̸= T (v2 ).
Mostre que uma T.L. T : V → W é injetora se e somente se N uc(T ) = {0V }.

Definição 6.2.6. Seja T : V → W uma transformação linear. O conjunto formado por todas as
imagens da função T : V → W será chamado de Imagem de T . Ele será denotado por Im(T ). Assim
Im(T ) = {T (v) ∈ W, v ∈ V }.

Lema 6.2.7. Seja T : V → W uma transformação linear e v1 , . . . , vn uma base qualquer de V . A


Im(T ) é um subespaço de W gerado por T (v1 ), . . . , T (vn )

115
Demonstração. Para mostrar que Im(T ) é um subespaço de V temos que mostrar que

w1 + w2 ∈ Im(T ) e λ.w1 ∈ Im(T ),

para todo w1 , w2 ∈ Im(T ) e λ ∈ R.


Como w1 , w2 ∈ Im(T ) então eles são imagem de vetores v1 , v2 , isto é, T (v1 ) = w1 e T (v2 ) = w2 .
Então w1 + w2 = T (v1 ) + T (v2 ) = T (v1 + v2 ), ou seja, w1 + w2 ∈ Im(T ).
Agora λ.w1 = λ.T (v1 ) = T (λ.v1 ) =, ou seja, λ.w1 ∈ Im(T ).
Isso prova que Im(T ) é um subespaço de W . Falta a segunda parte.
Qualquer vetor v ∈ V é uma combinação linear da base v1 , . . . , vn , isto é, v = a1 v1 + . . . + an vn .
Então qualquer imagem de T é combinação linear de T (v1 ), . . . , T (vn ), pois

T (v) = T (a1 v1 + . . . + an vn ) = a1 T (v1 ) + . . . + an T (vn ).

Assim T (v1 ), . . . , T (vn ) geram a Im(T ).

Exercı́cio 6.2.8. Seja An×n uma matriz cujas colunas são v1 , . . . , vn ∈ Rn . Defina T : Rn → Rn , por
T (x) = Ax. Utilizando a letra a) do exercicio 5.3.10, mostre que Im(T ) é gerada por v1 , . . . , vn .

Exercı́cio 6.2.9. Dizemos que uma T.L. T : V → W é sobrejetora se Im(T ) = W . Dizemos que
uma T.L. T : V → W é um isomorfismo se T for bijetora, isto é, injetora e sobrejetora. Mostre que
uma T.L. T : V → W é isomorfismo se e somente se dim(N uc(T )) = 0 e dim(Im(T )) = dim(W ).

A seguir provamos um teorema que relaciona as dimensões do núcleo e a da Imagem de uma T.L..
Ele é importantı́ssimo.

Teorema do Núcleo-Imagem

Teorema 6.2.10. Sejam V, W espaço vetoriais, onde V tem dimensão n. Seja T : V → W


uma transformação linear. Então

dim(N uc(T )) + dim(Im(T )) = dim(V ).

116
Demonstração. Seja v1 , . . . , vn uma base de V .
Pelo lema 6.2.7, a Im(T ) é um subsespaço gerado por w1 = T (v1 ), . . . , wn = T (vn ).
Podemos extrair desse conjunto {w1 , . . . , wn } uma base para a Im(T ), como foi feito no teorema
5.4.1.
Suponha que w1 , . . . , wm seja essa base. Não esqueça que w1 = T (v1 ), . . . , wm = T (vm ).
Como o N uc(T ) é um subespaço de V , pelo lema 6.2.2, e V tem dimensão n podemos obter uma
base para o N uc(T ), pelo corolário 5.4.11. Chame essa base do N uc(T ) de r1 , . . . , rs .
Mostraremos que v1 , . . . , vm , r1 , . . . , rs é uma base de V . Portanto

dim(V ) = m + s = dim(Im(T )) + dim(N uc(T )).

Seja v ∈ V . Então T (v) ∈ Im(T ).


Existem números reais a1 , . . . , am tais que

T (v) = a1 w1 + . . . + am wm = a1 T (v1 ) + . . . + am T (vm ).

Assim T (v − a1 v1 − . . . − am vm ) = 0W , ou seja, v − a1 v1 − . . . − am vm ∈ N uc(T ).


Então existem números b1 , . . . , bs tais que

v − a1 v1 − . . . − am vm = b1 r1 + . . . + bs rs .

Portanto v = a1 v1 + . . . + am vm + b1 r1 + . . . + bs rs , ou seja, todo vetor v ∈ V é combinação de


v1 , . . . , vm , r1 , . . . , rs .
Falta provar que v1 , . . . , vm , r1 , . . . , rs são L.I..
Considere
x1 v1 + . . . + xm vm + y1 r1 + . . . + ys rs = 0V . (6.1)

Nosso objetivo agora é provar que x1 = . . . = xm = y1 = . . . = ys = 0.


Aplique T nessa expressão e obtenha

x1 T (v1 ) + . . . + xm T (vm ) + y1 T (r1 ) + . . . + ys T (rs ) = T (0V ).

Como r1 , . . . , rs ∈ N uc(T ) então T (r1 ) = . . . = T (rs ) = 0W . Além disso, como T (0V ) = 0W então
sobra nessa equação

x1 T (v1 ) + . . . + xm T (vm ) = 0W .

Lembre-se que w1 = T (v1 ), . . . , wm = T (vm ) é uma base da Im(T ), portanto são L.I.. Mas isso
implica que x1 = . . . = xm = 0.
Voltando para equação 6.1 com essa informação, obtemos y1 r1 + . . . + ys rs = 0V . Mas r1 , . . . , rs é
base do N uc(T ), ou seja, eles são L.I.. Assim y1 = . . . = ys = 0.

117
O teorema anterior é muito importante. Existem diversas aplicações dele. A seguir veremos um
resultado que eu fiquei devendo na seção de matriz inversa.

Lema 6.2.11. Se An×n e Bn×n são matrizes tais que AB = Id então BA = Id.

Demonstração. Mostraremos utilizando o teorema do Núcleo-Imagem que se AB = Id então existe


Cn×n tal que CA = Id. Então teremos o seguinte

B = Id.B = (CA).B = C.(AB) = C.Id = C.

Portanto BA = Id.
Então para provar esse teorema basta encontrar Cn×n tal que CA = Id.
Defina a T.L. T : Mn×n → Mn×n por T (X) = XA.
Agora se Y ∈ N uc(T ) então T (Y ) = Y A = 0n×n .
Multiplicando os dois lados dessa equação por B obtemos (Y A).B = 0.B.
Agora (Y A).B = Y.(AB) = Y.Id = Y e 0.B = 0. Portanto Y = 0, ou seja, N uc(T ) = {0n×n }.
Portanto dim(N uc(T )) = 0.
Pelo teorema do Núcleo-Imagem

dim(N uc(T )) + dim(Im(T )) = dim(Mn×n )

e como dim(N uc(T )) = 0 então dim(Im(T )) = dim(Mn×n ).


Mas Im(T ) é um subespaço de Mn×n e acabamos de ver que tem a mesma dimensão desse espaço.
Pelo corolário 5.4.11, Im(T ) = Mn×n .
Então toda matriz de Mn×n é imagem de alguém pela T , inclusive a Id.
Portanto existe C talque T (C) = Id, ou seja, CA = Id.

Exercı́cio 6.2.12. Mostre que existe um isomorfismo entre V e W se e só se dim(V ) = dim(W ).
DICA: Você irá precisar do teorema do Núcleo-Imagem para uma das implicações e para a outra você
irá precisar do exercı́cio 6.1.4.

Antes de resolver o próximo exercı́cio observe os exercı́cios 4.6.5 e 5.3.13.

Exercı́cio 6.2.13 (Polinômio Interpolador: Parte 3). Seja Pk o espaço vetorial dos polinômios com
coeficientes reais de grau menor ou igual a k. Sejam b1 , . . . , bn números reais distintos.

a) Mostre que dim(Pk ) = k + 1.

118
b) Mostre que a seguinte T.L. é um isomorfismo. T : Pn−1 → Rn que satisfaz T (p(x)) = (p(b1 ), . . . , p(bn ))t .

c) Utilizando a letra b), mostre que para cada (c1 , . . . , cn )t ∈ Rn existe um único polinômio de grau
menor que n tal que p(b1 ) = c1 , . . . , p(bn ) = cn . Esse é o chamado polinômio interpolador.

d) Mostre que a seguinte T.L. é um isomorfismo. T : P2n−1 → R2n que satisfaz T (p(x)) =
(p(b1 ), . . . , p(bn ), p′ (b1 ), . . . , p′ (bn ))t . Esse p′ (x) significa derivada de p(x).

e) Utilizando a letra d), mostre que para cada (c1 , . . . , cn , d1 , . . . , dn )t ∈ Rn existe um único po-
linômio de grau menor que 2n tal que p(b1 ) = c1 , . . . , p(bn ) = cn , p′ (b1 ) = d1 , . . . , p′ (bn ) = dn .

6.3 Matriz da Transformação Linear

Na observação 5.5.7 tivemos uma ideia importante de traduzir nossos problemas envolvendo espaço
vetoriais arbitrários para problemas envolvendo os espaços Rn escolhendo uma base pro espaço e
reescrevendo o problema em coordenadas.
Continuaremos com essa ideia nessa seção. A primeira coisa que veremos será que toda T.L. entre
espaços de dimensão finita pode ser representada por uma matriz. Isso não é um supresa já que esses
espaços já podiam ser representados como os espaços Rn .

Teorema 6.3.1. Seja T : V → W uma transformação linear. Seja α = {v1 , . . . , vn } uma base
ordenada de V e β = {w1 , . . . , wm } uma base ordenada de W . Então existe uma única matriz que
iremos denotar por [T ]αβ com m linhas e n colunas que satisfaz o seguinte:

[T ]αβ [v]α = [T (v)]β para todo v ∈ V .


 
 0 
 .. 

 . 
Demonstração. Como vi = 0.v1 + . . . + 1.vi + . . . + 0.vn então [vi ]α = .
 

 1  
 .. 
. 
 

 
0

Como [vi ]α é o vetor que tem um 1 na posição i e o resto é zero então qualquer matriz Bm×n
multiplicada por [vi ]α resulta em
 
b1i
.. 
 
B[vi ]α = 


. 

. Isto é, B[vi ]α coluna i de B.
bmi

Agora a matriz que estamos procurando pede que o resultado dê B[vi ]α = [T (vi )]β .
Então a coluna i dessa matriz que procuramos só pode ser [T (vi )]β . Assim as colunas da matriz
que estamos procurando só podem ser [T (v1 )]β , . . . , [T (vi )]β , . . . , [T (vn )]β , isto é,

119
[T ]αβ = ([T (v1 )]β , . . . , [T (vi )]β , . . . , [T (vn )]β ).

Agora vamos verificar que (T ([v1 )]β , . . . , [T (vi )]β , . . . , [T (vn )]β ) realmente satisfaz a fórmula que
queremos para todo v ∈ V .  
a
 1 
 .. 
Seja v ∈ V então v = a1 v1 + . . . + an vn . Portanto [v]α =  . 
 
.
an

 
a
 1 
 .. 
Pela letra a) do exercı́cio 5.3.10 , ([T (v1 )]β , . . . , [T (vn )]β )  . 
 
= a1 [T (v1 )]β + . . . + an [T (vn )]β .
an

Pelo exercı́cio 5.5.5,

a1 [T (v1 )]β + . . . + an [T (vn )]β = [a1 T (v1 ) + . . . + an T (vn )]β = [T (a1 v1 + . . . + an vn )]β = [T (v)]β .

Assim ([T (v1 )]β , . . . , [T (vn )]β )[v]α = [T (v)]β para todo v ∈ V .

Exemplos de matrizes da transformação:

a) Sejam α e β bases ordenadas de V . Considere a T.L.Id : V → V , definida por Id(v) = v.


Isto é, a transformação identidade. Note que [Id]αβ [v]α = [Id(v)]β = [v]β , ou seja, a matriz da
transformação [Id]αβ é a matriz mudança de coordenadas.

b) Seja P3 = {a0 + a1 x + a2 x2 + a3 x3 , a0 , a1 a2 , a3 ∈ R}. Considere a derivada D : P3 → P3 . Seja


α = {1, x, x2 , x3 } uma base ordenada de P3 . Vamos calcular [D]αα .
 
0
 
 0 
 
1. A primeira coluna de [D]αα é obtida com o produto [D]αα [1]α = [D(1)]α = [0]α =  
  .
 0 
 
0
 
1
 
 0 
 
2. A segunda coluna de [D]αα é obtida com o produto [D]αα [x]α = [D(x)]α = [1]α =  
  .
 0 
 
0
 
0
 
 2 
 
3. A terceira coluna de [D]αα é obtida com o produto [D]αα [x2 ]α = [D(x2 )]α = [2x]α =  
  .
 0 
 
0
 
0
 
 0 
 
4. A quarta coluna de [D]αα é obtida com o produto [D]αα [x3 ]α = [D(x3 )]α = [3x2 ]α =  
  .
 3 
 
0

120
 
0 1 0 0
 
 0 0 2 0 
 
Portanto [D]αα = 


 .
 0 0 0 3 
 
0 0 0 0

c) Seja V o subespaço das funções gerado pelo cos(x), sen(x). Seja D : V → V a derivada e
α = {cos(x), sen(x)} uma base ordenada de V . Vamos calcular [D]αα .
 
0
1. A 1a coluna de [D]αα é obtida como [D]αα [cos(x)]α = [D(cos(x))]α = [− sen(x)]α =   .
−1
 
1
2. A 2a coluna de [D]αα é obtida como [D]αα [sen(x)]α = [D(sen(x))]α = [cos(x)]α =  .
0

 
0 1
Portanto [D]αα =   .
−1 0

Exercı́cio 6.3.2. Fazer exercicios 1,2,3,4,10,11,14 e 16 da página 171 do Boldrini.

      
 1 0 0 1 0 0 0 0 
Exercı́cio 6.3.3 (Ex. 14, p. 173, Boldrini). Seja β = 
 0 0
 , ,  uma base orde-
0 0 1 0 0 1 
   
 1 0 
nada de M2×2 e α =  , 
 0
uma base ordenada de R2 .
1 

   

a) Seja T : M2×2 → R2 a T.L. definida por T 


a b
=
a+b
 . Encontre [T ]βα .
c d c+d

 
2 1
   
 1 −1  a
 
b) Se S : R2 → M2×2 é uma T.L. tal que [S]αβ =   . Encontre S e se possı́vel   tal que
 −1 0 
 
b
 
0 1
   
a 1 0
S  =  .
b 0 1

        

Solução: a) Lembre-se que a 1a coluna de [T ]βα é obtida por [T ]βα  1 0


 = T 
1 0
 = 
1
 = 
1
 .
0 0 0 0 0 0
β α α

        

A 2a coluna de [T ]βα é obtida por [T ]βα 


0 1
 = T 
0 1
 = 
1
 = 
1
 .
0 0 0 0 0 0
β α α

        

A 3a coluna de [T ]βα é obtida por [T ]βα 


0 0
 = T 
0 0
 = 
0
 = 
0
 .
1 0 1 0 1 1
β α α

        

A 4a coluna de [T ]βα é obtida por [T ]βα 


0 0
 = T 
0 0
 = 
0
 = 
0
 .
0 1 0 1 1 1
β α α

 

Assim [T ]βα = 
1 1 0 0
 .
0 0 1 1

                 
x 1 0 1 0 1 0
b) S   = x.S   + y.S   = x. S   + y. S   = x.[S]α 
β
 + y.[S]α 
β
 =
y 0 1 0 1 0 1
β β β β α α

121
  
 
2 1 2x + y
         
1 0  1  −1   x − y
     
.
 
= x.[S]αβ   + y.[S]αβ   = x.   + y.  = 
 −1  0   −x
     
0 1  
     
0 1 y

           
x 1 0 0 1 0 0 0 0 2x + y x − y
Então S  = (2x + y).   + (x − y).   + (−x).   + y.  =  .
y 0 0 0 0 1 0 0 1 −x y

   
x 1 0
Agora note que para S =  , precisamos que −x = x − y = 0 e 2x + y = y = 1, o que é
y 0 1

impossı́vel.

Exercı́cio 6.3.4. Seja T : V → W uma T.L. onde dim(V ) = n e dim(W ) = m. Mostre que se
s = dim(Im(T )) então existe uma base α de V e uma base β de W tal que
 
Id s× 0s×n−s
[T ]αβ =  .
0m−s×s 0m−s×n−s

DICA: Ver demonstração do teorema do núcleo-imagem.

Teorema 6.3.5. Sejam L : V → W e T : W → R T.L.s. Sejam α, β, γ bases de V, W, R, respectiva-


mente. Note que T ◦ L : V → R. Então [T ◦ L]αγ = [T ]βγ [L]αβ .

Demonstração. Seja v um vetor qualquer de V . Considere

[T ◦ L]αγ [v]α = [T (L(v))]γ = [T ]βγ [L(v)]β = [T ]βγ [L]αβ [v]α .


   
1 0
   
 0   1 
   
Agora podemos substituir [v]α por  .. 
  , depois por  .. 
  e assim sucessivamente.
 .   . 
   
0 0

Dessa maneira obteremos as primeiras colunas das matrizes [T ◦ L]αγ e [T ]βγ [L]αβ iguais, depois a
segundas iguais e assim sucessivamente.
Portanto [T ◦ L]αγ = [T ]βγ [L]αβ .

Corolário 6.3.6. Seja α base de V e T : V → V uma T.L.. Então [T n ]αα = ([T ]αα )n .

Demonstração. Lembre-se que T n =T


| ◦ T ◦{z. . . ◦ T}.
n vezes
Note que [T n ]αα = [T ◦ T n−1 ]αα = [T ]αα [T n−1 ]αα , pelo teorema anterior.
Conseguimos por um [T ]αα para fora.
Podemos repetir isso mais n − 1 vezes e obtemos

122
[T n ]αα =[T ]αα . . . [T ]αα = ([T ]αα )n .
| {z }
n vezes

Pergunta: Porque isso é interessante? Se T for uma T.L. complicada, mas existir uma base α tal
que [T ]αα é simples então será fácil calcular [T n ]αα .
     

Exemplo: Considere a T.L. T : R2 → R2 , definida por T  x  =  2x + y . Calcule T 50  2 .


y x + 2y 0

   
 1 1
base ordenada do R2 .

Solução: Seja α =  ,  
 1 −1 

              
1 1 1 3 1 1
Lembre-se que [T ]αα = T   , T    . Agora T = eT = .
1 −1 1 3 −1 −1
α α

         
3 3 1 0 3 0
Como   =   e   =  . então [T ]αα =   .
3 0 −1 1 0 1
α α

 
350 0
Pelo corolário anterior [T 50 ]αα = ([T ]αα )50 =   .
0 1

          
2 2 2 350 0 2
Agora T 50   = [T 50 ]αα   = ([T ]αα )50   =     .
0 0 0 0 1 0
α α α α

         
2 1 1 2 1
Agora   = 1.   + 1.  , ou seja,   =  .
0 1 −1 0 1
α

       
2 350 0 1 350
Finalmente obtemos T 50   =   = .
0 0 1 1 1
α

     
2 1 1
Portanto T 50   = 350 .   + 1.  .
0 1 −1

Fomos capazes de realizar esse cálculo porque encontramos uma base α que tornava a matriz [T ]αα
diagonal. Multiplicar matrizes diagonais é muito simples.

6.4 Autovalores e autovetores

Vimos no exemplo final da última seção que quando encontramos uma base α que tornava a matriz
[T ]αα diagonal éramos capazes de fazer cálculos com [T ]αα de maneira muito simples, pois é muito fácil

123
multiplicar matrizes diagonais.
Nessa seção tentaremos descobrir quando existe uma base α que torna a matriz [T ]αα diagonal.
Essa simplificação é muito importante em diversos problemas.

Definição 6.4.1. Seja V um espaço de dimensão n e T : V → V uma T.L.. Dizemos que T é


diagonalizável se existir uma base ordenada α de V tal que [T ]αα é diagonal, isto é,
 
a1 0 ... 0
 
 0 a2 ... 0
 
[T ]αα = .

 .. .. ..
 
..
.

 . . . 
 
0 ... . . . an

Teorema 6.4.2. Seja V um espaço de dimensão n. Uma T.L. T : V → V é diagonalizável se e


somente se exisitr uma base α = {v1 , . . . , vn } de V e números a1 , . . . , an tais que T (vi ) = ai vi para
todo i = 1, . . . , n.

Demonstração. Primeiro vamos supor que T : V → V é diagonalizável , ou seja, existe uma base
a1 0 ... 0
 
0 a2 ... 0
 
α = {v1 , . . . , vn } tal que [T ]αα = .
 
.. .. ..
 
 ..
.


 . . . 

0 . . . . . . an
 
 0 
 . 
 .. 
 
Lembre-se que [T ]αα [vi ]α = [T ] α = i-ésima coluna de [T ]αα .

 1 
α . 

 . 
 . 
 
0
 
 0 
 . 
 .. 
 
Assim [T (vi )]α = [T ]αα [vi ]α = = [a v ]α .
 
 a 
 i  i i
 . 
 . 
 . 
 
0

Como T (vi ) e ai vi possuem as mesmas coordenadas na base α então T (vi ) = ai vi para todo
i = 1, . . . , n.
Isso prova que a base α = {v1 , . . . , vn } e os números a1 , . . . , an acima possuem as propriedades que
querı́amos no enunciado do teorema.

Agora vamos supor que exista uma base α = {v1 , . . . , vn } de V e números a1 , . . . , an tais que
T (vi ) = ai vi para todo i = 1, . . . , n.  
a1 0 ... 0
 
 0 a2 ... 0
 
Então [T ]αα = ([T (v1 )]α , . . . , [T (vn )]α ) = ([a1 v1 ]α , . . . , [an vn ]α ) = .

 .. .. ..
 
..
.

 . . . 
 
0 ... . . . an
Portanto [T ]αα é diagonal e T é diagonalizável.

124
O teorema acima nos ensinou quais vetores temos que procurar para formar a base α que torna
[T ]αα é diagonal. Vamos dar um nome para esses vetores abaixo, pois ficará mais fácil falar deles depois.

Definição 6.4.3. Seja V um espaço vetorial real e e T : V → V uma T.L.. Dizemos que v ∈ V \ {0V }
é um autovetor de T se existir um número real λ tal que T (v) = λv. Esse número λ será chamado de
autovalor de T associado ao autovetor v.

Observação 6.4.4. No teorema anterior vimos que T é diagonalizável se e somente se existir uma base
para V formada por autovetores de T . Os números que aparecem na diagonal [T ]αα são os autovalores
de T .

Lembra daquela ideia importante de Álgebra Linear de transformar qualquer problema envolvendo
espaços vetoriais em problemas envolvendo os Rn ? Escolhı́amos uma base e fazı́amos tudo em coorde-
nadas. Transformaremos esse problema de encontrar uma base de autovetores de uma transformação
linear em um problema envolvendo matrizes.

Definição 6.4.5. Seja A ∈ Mn×n (R) . Dizemos que v ∈ Rn \ {⃗0} é um autovetor de A se existir
um número real λ tal que Av = λv. Esse número λ será chamado de autovalor de A associado ao
autovetor v. Diremos que A é diagonalizável se a T.L. TA : Rn → Rn , TA (x) = Ax, for diagonalizável,
ou seja, se existir uma base do Rn formada por autovetores de A.

Método para encontrar autovalores e autovetores de A2×2 .


 
1 1
Exemplo: Encontre os autovetores e os autovalores da matriz  .
1 1

      
x 1 1 x x
Queremos achar os   ̸= ⃗0 e os λ ∈ R satisfazendo    = λ .
y 1 1 y y

    
λ 0 x x
Note que    = λ .
0 λ y y

            
1 1 x λ 0 x 0 1−λ 1 x 0
Assim   −  =  ⇒   = 
1 1 y 0 λ y 0 1 1−λ y 0

Então queremos que esse sistema tenha solução diferente de ⃗0, mas ⃗0 já é solução dele. Então
queremos que esse sistema não tenha solução única.

125
   
1−λ 1 1−λ 1
Portanto a matriz   não pode ser invertı́vel, ou seja, det   =0
1 1−λ 1 1−λ

Acharemos o autovalor λ igualando o determinante dessa matriz que é (1 − λ)2 − 1 a zero, ou seja,

(1 − λ)2 − 1 = 0 .

Portanto λ = 0 e λ = 2 são os autovalores.


Substituindo esses autovalores no lugar do λ no sistema acima e resolvendo-o encontraremos os
autovetores associados a cada autovalor.

Resolvendo (A − λId | 0) para λ = 0 :


          
1 1 0 L2 ↔L2 +(−1).L1 1 1 0  x   −1 
I   −−−−−−−−−→   Então SI =   , x + y = 0 = y  , y ∈ R .
1 1 0 0 0 0  y   1 

Lembre-se que os autovetores não podem ser ⃗0 então y ̸= 0 te dá os autovetores associados a 0.

Resolvendo (A − λId | 0) para λ = 2 :


     
−1 1 0 L2 ↔L2 +L1 −1 1 0 L2 ↔(−1.)L2 1 −1 0
II   −−−−−−−−−→   −−−−−−−−−→  
1 −1 0 0 0 0 0 0 0

      
 x   1 
Então SII =   , x − y = 0 = y   , y ∈ R .
 y   1 

Lembre-se que os autovetores não podem ser ⃗0 então y ̸= 0 te dá os autovetores associados a 2.

Exercı́cio 6.4.6. Encontre os autovalores e os autovetores de cada uma das matrizes abaixo.
     
0 1 2 1 0 −1
a)   b)   c)  
0 0 1 2 1 0

Definição 6.4.7. Seja An×n . O polinômio caracterı́stico da matriz A é definido por

pA (λ) = det(A − λId).

   
1 2 1−λ 2
Exemplo: O polinômio caracterı́stico da matriz A =  é det  = (1 − λ)(4 − λ) − 6.
3 4 3 4−λ
Isto é, pA (λ) = λ2 − 5λ − 2 .

126
Lema 6.4.8. Os autovalores de An×n são exatamente as raı́zes do polinômio caracterı́stico de A.
Além disso para cada autovalor λ existe pelo menos um autovetor associado ao λ, isto é, uma solução
não nula para (A − λId | ⃗0).

Demonstração. Se z é raiz de pA (λ) então pA (z) = det(A − zId) = 0. Assim o sistema (A − zId)⃗x = ⃗0
tem infinitas soluções e portanto uma não nula, ou seja, A⃗x = z⃗x e x ̸= ⃗0.
Acabamos de provar que cada raiz de pA (λ) é um autovalor e está associada a algum autovetor.

Seja w um autovalor de A, pela definição de autovalor existe um autovetor ⃗y ̸= 0 tal que A⃗y = w⃗y .
Assim (A − wId)⃗y = ⃗0.
Então o sistema (A − wId|⃗0) não tem solução única (pois ⃗y e ⃗0 são soluções).
Portanto A − wId não pode ser invertı́vel, ou seja, det(A − wId) = 0.
Acabamos de ver que todo autovalor é raiz do polinômio caracterı́stico da A.

Para descobrir se An×n é diagonalizável precisamos obter n autovetores de An×n linearmente


independentes, pois como Rn tem dimensão n eles já formarão uma base do Rn . Isso é verdade
por causa do item 2) do teorema 5.4.9.

Exemplos de matrizes diagonalizáveis:

 
1 1
a) Vimos anteriormente que a matriz   possui 2 autovalores: 0, 2.
1 1

 
−y
Vimos também que a fórmula para os autovetores associados ao autovalor 0 era  , y ̸= 0,
y
 
y
e que fórmula para os autovetores associados ao autovalor 2 era  , y ̸= 0.
y
   
−1 1
Escolhendo y = 1, obtemos os autovetores v1 =  e v2 =  associados aos autovalores
1 1
0 e 2, respectivamente.

Note que α = {v1 , v2 } é uma base do R2 . Portanto a matriz A é diagonalizável. Vamos ver como
fica [TA ]αα .

A primeira coluna de [TA ]αα é

127
   
1 0
[TA ]αα  = [TA ]αα [v1 ]α = [TA (v1 )]α = [A(v1 )]α = [0.v1 ]α = .
0 0

A segunda coluna de [TA ]αα é


   
0 0
[TA ]αα  = [TA ]αα [v2 ]α = [TA (v2 )]α = [A(v2 )]α = [2.v2 ]α = .
1 2

 
0 0
Portanto [TA ]αα = .
0 2
 
1 0 0
 
b) Vamos verificar que a matriz A =
 0 2
1 

é diagonalizável.
 
0 −2 −1
 
1−λ 0 0
 
Os autovalores dela são as raı́zes do polinômio pA (λ) = det(A−λId) = det
 0 2−λ 1 .

 
0 −2 −1 − λ

Fazendo expansão na primeira linha obtemos


 
2−λ 1
pA (λ) = (1 − λ) det = (1 − λ)[(2 − λ)(−1 − λ) + 2] = (1 − λ)(λ2 − λ) = −(1 − λ)2 λ.
−2 −1 − λ

Igualando −(1 − λ)2 λ = 0 obtemos λ = 1 ou λ = 0.

Resolvendo (A − λId | 0) para λ = 1

     
0 0 0 0 0 0 0 0 0 1 1 0
  L3 ↔L3 +(2).L2   L1 ↔L2  
I 
 0 1 1 0  −−−−−−−−−→

 0 1 1 0  −−−−−−−−−→
 
 0 0 0 0 .
 
     
0 −2 −2 0 0 0 0 0 0 0 0 0

        


 x 



 1 0 

   
     

Então SI =  y  , y + z = 0 = x  0  + z  −1
    
 , x, z ∈ R .


  
 
     


 z 
  
 0 1 

Resolvendo (A − λId | 0) para λ = 0

     
1 0 0 0 1 0 0 0 1 0 0 0
  L3 ↔L3 +L2   L2 ↔ 12 .L2  
II 
 0 2 1 0  −−−−−−−−−→

 0 2 1 0  −−−−−−−−−→
 
 0 1 12 0 .
 
     
0 −2 −1 0 0 0 0 0 0 0 0 0

128
      


 x 




 0 


      
1
Então SII =  y  , x = 0, y + 2 z = 0 = z  − 2  , z ∈ R .
   1 

   
    


 z 
  
 1 

     


 1 0 0 

     
Note que α =  0  ,  −1  ,  − 2 
     1 
é uma base do R3 e esses vetores foram obtidos nas
  
   

 0 
1 1 
fórmulas para os autovetores de A. Então A é diagonalizável.

Exemplo de matriz não diagonalizável:


 
0 1
a) Vamos verificar que a matriz A =  não é diagonalizável.
0 0
 
−λ 1
Os autovalores dela são as raı́zes do polinômio pA (λ) = det(A − λId) = det  = λ2 .
0 −λ

Igualando λ2 = 0 obtemos λ = 0.

Resolvendo (A − λId | 0) para λ = 0

 
0 1 0
I   já está no formato escada.
0 0 0

     
 x   1 
Então SI =   , x ∈ R, 0, y = 0 = x   .
 y   0 

Note que não podemos escolher 2 vetores L.I. a partir da fórmula dos autovetores, porque todos
os autovetores são múltiplode de um único vetor.

Então não existe base do R2 formada por autovetores de A.


 
1 0 0
 
b) Vamos verificar que a matriz A = 
 0 2 1  não é diagonalizável.
 
0 0 2
 
1−λ 0 0
 
Os autovalores dela são as raı́zes do polinômio pA (λ) = det(A − λId) =
 0 2−λ 1 .

 
0 0 2−λ

Fazendo expansão na primeira linha obtemos


 
2−λ 1
pA (λ) = (1 − λ) det = (1 − λ)(2 − λ)(2 − λ) = (1 − λ)(2 − λ)2 .
0 2−λ

129
Igualando ((1 − λ)(2 − λ)2 = 0 obtemos λ = 1 ou λ = 2.

Resolvendo (A − λId | 0) para λ = 1

   
0 0 0 0 0 0 0 0
  L2 ↔L2 +(−1).L3  
I  0 1 1 0  −−−−−−−−−→
 
 0 1 0 0 .
 
   
0 0 1 0 0 0 1 0

      


 x 



 1 

   
   

Então SI =  y  , x ∈ R, y = z = 0 = x  0  , x ∈ R .
   

  
 
   


 z 
  
 0 

Resolvendo (A − λId | 0) para λ = 2

 
1 0 0 0
 
I  
 0 0 1 0  que já está no formato escada.
 
0 0 0 0

      


 x 




 0 


      
Então SII =  y  , x = 0, y ∈ R, z = 0 = y  1  , y ∈ R .
   

   
    


 z 
  
 0 

Note que os vetores descritos nessas duas fórmulas são mútliplos de dois vetores. Se escolhermos
3 vetores a partir dessas fórmulas teremos com certeza entre eles dois múltiplos. Portanto não
serão L.I.. É impossı́vel obter 3 vetores L.I.s a partir dessas fórmulas. Mas essas eram as fórmulas
que davam os autovetores de A. Então A não é diagonalizável.

O seguinte lema será útil adiante.

Lema 6.4.9. Seja A ∈ Mn×n



. Então A é diagonalizável se e somente existir uma matriz R ∈ Mn×n
a1 0 ... 0
 
 0 a2 ... 0
R−1 AR
 
invertı́vel tal que = . Além disso as colunas de R são os autovetores de A que

 .. .. ..
 
..
.

 . . . 
 
0 ... . . . an
formam uma base do Rn e os a1 , . . . , an os autovalores.

Demonstração. Suponha que A seja diagonalizável e que {v1 , . . . , vn } seja uma base do Rn formada
por autovetores de A e a1 , . . . , an sejam os autovalores correspondentes.
Defina Rn×n = (v1 , . . . , vn ), ou seja, os vi são as colunas de R.
Note que

130
 
a1 0 ... 0
 
 0 a2 ... 0
 
AR = A(v1 , . . . , vn ) = (Av1 , . . . , Avn ) = (a1 v1 , . . . , an vn ) = (v1 , . . . , vn )D, onde D = .

 .. .. ..
 
..
.

 . . . 
 
0 ... . . . an

Assim obtemos AR = RD. Como as colunas de R são L.I. então, pela letra e) do exercicio 5.3.10,
det(R) ̸= 0. Então R é invertı́vel.
Assim R−1 AR = R−1 RD = Id.D = D. Acabamos de obter o que querı́amos.

Agora vamos provar que se existe R invertı́vel tal que R−1 AR = D então A é diagonalizável.
Seja Rn×n = (v1 , . . . , vn ), onde vi é a coluna i de R.
Como R−1 AR = D então AR = RD.
Por um lado temos AR = A(v1 , . . . , vn ) = (Av1 , . . . , Avn ).
Por outro lado temos (v1 , . . . , vn )D = (a1 v1 , . . . , an vn ).
Assim Avi = ai vi para i = 1, . . . , n, ou seja, v1 , . . . , vn são autovetores de A.
Mas como a matriz R é invertı́vel e suas colunas são v1 , . . . , vn então elas são L.I. pela letra e) do
exercı́cio 5.3.10.
Provamos que existe uma base do Rn formada por autovetores de A, ou seja, A é diagonalizável.

Exercı́cio 6.4.10. Seja An×n diagonalizável. Prove que det(A) é o produto dos autovalores de A
(contando multiplicidade).

Agora que já sabemos dizer se uma matriz é diagonalizável ou não, podemos voltar para o problema
com T.L.s entre espaços vetoriais arbitrários. O seguinte resultado resolve esse problema. Note
que novamente transformamos um problema envolvendo espaços vetorias arbitrários em problemas
envolvendo matrizes e vetores do Rn . Essa é um ideia muito poderosa.

Teorema 6.4.11. Seja V um espaço vetorial de dimensão n e β uma base ordenada qualquer de V .
A transformação linear T : V → V é diagonalizável se e somente se a matriz [T ]ββ é diagonalizável.

Demonstração. Suponha que T seja diagonalizável.


 
a1 0 ... 0
 
 0 a2 ... 0
 
Então existe uma base α de V tal que [T ]αα = .

 .. .. ..
 
..
.

 . . . 
 
0 ... . . . an
Chamemos essa matriz diagonal de D.

Note que [Id]βα [T ]ββ [Id]αβ = [Id ◦ T ◦ Id]αα = [T ]αα = D, pelo teorema 6.3.5.

131
Defina R = [Id]αβ e lembre-se que [Id]βα [Id]αβ = [Id]αα = Idn×n pela letra b) do exercı́cio 5.5.11, ou
seja, R−1 = [Id]βα .

Acabamos de encontrar uma R tal que R−1 [T ]ββ R = D. Pelo lema anterior [T ]ββ é diagonalizável.

Agora vamos supor que [T ]ββ seja diagonalizável e vamos provar que a transformação T é diagona-
lizável.
Se [T ]ββ é diagonalizável então existe uma base do Rn que denotaremos por v1 , . . . , vn formada por
autovetores de [T ]ββ . Sejam a1 , . . . , an os autovalores correspondentes.
Sejam w1 , . . . , wn vetores de V cujas coordenadas na base β são os vetores v1 , . . . , vn , isto é,
[wi ]β = vi para todo i.
Como v1 , . . . , vn formam uma base do Rn então w1 , . . . , wn também formam uma base de V pela
letra c) do exercı́cio 5.5.6.
Note que

[T (wi )]β = [T ]ββ [wi ]β = [T ]ββ vi = ai vi = ai [wi ]β = [ai wi ]β .

Como T (wi ) e ai wi possuem as mesmas coordenadas na base β então T (wi ) = ai wi para i =


1, . . . , n.
Acabamos de achar a base de V formada por autovetores de T , ou seja, T é diagonalizável.

6.5 Teoremas sobre diagonalização

Definição 6.5.1. Sejam V1 , . . . , Vm subespaços de um espaço vetorial V . Definimos V1 + . . . + Vm


como o conjunto formado por todas as somas possı́veis de vetores de V1 , . . . , Vm , isto é,

V1 + . . . + Vm = {v1 + . . . + vm , vi ∈ Vi para todo i}.

Veremos no exercı́cio a seguir que V1 + . . . + Vm é um subespaço de V . Além disso, se para cada


vetor r ∈ V1 + . . . + Vm existir somente um vetor ri em cada Vi tal que r = r1 + . . . + rm então dizemos
que V1 + . . . + Vm é uma soma direta. Denotaremos esse fato por V1 ⊕ . . . ⊕ Vm .

     
 x   0 
Exemplos 6.5.2. 1. Sejam V1 =   , x ∈ R e V2 =   , y ∈ R .
 0   y 
  
 x 
Note que V1 + V2 =   , x, y ∈ R = R2 .
 y 

132
         
x x 0 x′ 0
Note também que se   =   +   =   +   então x = x′ e y = y ′ , ou seja, existe
y 0 y 0 y′
     
x 0 x
apenas um vetor   ∈ V1 e um vetor   ∈ V2 cuja soma resulta em  . Assim R2 = V1 ⊕ V2 .
0 y y

2. Sejam V1 , V2 são subespaços de V tais que V1 ∩ V2 = {0V }. Seja r ∈ R = V1 + V2 .

Sabemos que r = v1 + v2 , onde v1 ∈ V1 e v2 ∈ V2 .

Suponha que r1 ∈ V1 , r2 ∈ V2 e r = r1 + r2 . Assim v1 + v2 = r1 + r2 e v1 − r1 = r2 − v2 .

Note que v1 − r1 ∈ V1 e r2 − v2 ∈ V2 , isto é, v1 − r1 = r2 − v2 ∈ V1 ∩ V2 = {0V }.

Assim v1 = r1 e v2 = r2 . Isso significa que R = V1 ⊕ V2 .

Exercı́cio 6.5.3. Sejam V1 , . . . , Vm subespaços de um espaço vetorial V . Mostre que R = V1 +. . .+Vm


é um subespaço de V .

Lema 6.5.4. Sejam V1 , . . . , Vm subespaços de um espaço vetorial V de dimensão finita. Se R =


V1 ⊕ . . . ⊕ Vm então dim(R) = dim(V1 ) + . . . + dim(Vm ).

Demonstração :Existem bases para cada um dos Vi pelo corolário 5.4.11.


Seja αi = {v1i , . . . , vni i } base de Vi para cada i = 1, . . . , m.
[m
Seja α = αi . Vamos motrar que α é uma base de R. Assim
i=1

m
[
#α = # αi = #α1 + . . . + #αm = dim(V1 ) + . . . dim(Vm ).
i=1

Todo vetor r ∈ R pode ser escrito de maneira única como r1 + . . . + rm , onde cada ri ∈ Vi .

Agora cada ri é combinação da base αi = {v1i , . . . , vni i } de Vi . Assim r é uma combinação dos
vetores de α. Assim os vetores de α geram R.

Agora considere uma combinação nula dos vetores de α

(a11 v11 + . . . + a1n1 vn1 1 ) + . . . + (ai1 v1i + . . . + aini vni i ) + . . . + (am v m + . . . + am v m )= 0V .


| {z } | {z } | 1 1 {z nm nm }
w1 ∈V1 wi ∈Vi wm ∈Vm

Lembre-se que 0V só pode ser escrito como 0V = 0V + . . . + 0V + . . . + 0V .


|{z} |{z} |{z}
∈V1 ∈Vi ∈Vm

Assim 0V = wi = ai1 v1i + . . . + aini vni i para todo i = 1, . . . , m.

133
Mas v1i , . . . , vni i são L.I. Assim ai1 = . . . = aini = 0 para todo i = 1, . . . , m.

Isso mostra que os vetores de α são L.I.. Portanto uma base de R. ■

Definição 6.5.5. Seja V um espaço vetorial real de dimensão n e T : V → V uma transformação


linear. Seja α é uma base ordenada qualquer de V . O polinômio caracterı́stico de T é definido como
o polinômio caracterı́stico da matriz [T ]αα , isto é, p(x) = det([T ]αα − xId).

Lema 6.5.6. Seja V um espaço vetorial real de dimensão n e T : V → V uma transformação linear.
Sejam α e β bases ordenadas de V . Então

det([T ]αα − xId) = det([T ]ββ − xId).

Isso significa que podemos usar qualquer base para obter o mesmo polinômio caracterı́stico de T .

Demonstração :Considere o operador linear Id : V → V . Note que Id ◦ T ◦ Id = T .


Pelo teorema 6.3.5,
[T ]αα = [Id ◦ T ◦ Id]αα = [Id]βα [T ]ββ [Id]αβ .

Pelo item b) do exercı́cio 5.5.11 que [Id]αβ e [Id]βα são matrizes inversas. Assim xId = x[Id]βα .Id.[Id]αβ .
Juntando essas informações obtemos

[T ]αα − xId = [Id]βα [T ]ββ [Id]αβ − x[Id]βα .Id.[Id]αβ = [Id]βα ([T ]ββ − xId)[Id]αβ .

Então det([T ]αα − xId) = det([Id]βα ([T ]ββ − xId)[Id]αβ ).


Pelo teorema 4.3.2,

det([Id]βα ([T ]ββ − xId)[Id]αβ ) = det([Id]βα ) det([T ]ββ − xId) det([Id]αβ ).

Pelo item c) do exercı́cio 4.3.4,

det([Id]βα ) det([Id]αβ ) = 1.

Assim det([T ]αα − xId) = det([T ]ββ − xId). ■

Proposição 6.5.7. Sejam λ1 , . . . , λm autovalores reais distintos de T : V → V . Se v1 , . . . , vm forem


autovetores associados a λ1 , . . . , λm , respectivamente, então v1 , . . . , vm são L.I..

134
Demonstração :A demonstração será uma indução em m. Se m = 1, como v1 ̸= 0V já que é um
autovetor, então o conjunto formado por somente v1 é L.I.
Suponha que o resultado vale para m = n − 1, isto é, v1 , . . . , vn−1 é um conjunto L.I..
Vamos provar que v1 , . . . , vn são L.I..

Considere uma combinação nula de v1 , . . . , vn , isto é,

a1 v1 + . . . + an−1 vn−1 + an vn = 0V . (6.2)

Aplicando T nessa igualdade obtemos

a1 T (v1 ) + . . . + an−1 T (vn−1 ) + an T (vn ) = T (0V ) = 0V .

Mas isso dá


a1 λ1 v1 + . . . + an−1 λn−1 vn−1 + an λn vn = 0V .

Subtraindo essa equação acima da equação (6.2) multiplicada por λn obtemos

0V − λn 0V = (a1 λ1 v1 + . . . + an−1 λn−1 .vn−1 + an λn vn ) − (a1 λn v1 + . . . + an−1 λn .vn−1 + an λn vn )

0V = a1 (λ1 − λn )v1 + . . . + an−1 (λn−1 − λn )vn−1 .

Pela hipótese de indução, v1 , . . . , vn−1 é um conjunto L.I., então

a1 (λ1 − λn ) = . . . = an−1 (λn−1 − λn ) = 0.

Lembre-se que λ1 − λn ̸= 0, . . . , λn−1 − λn ̸= 0. Então a1 = . . . = an−1 = 0.


Substituindo essa informação na equação 6.2 obtemos an vn = 0V . Mas vn ̸= 0V , assim an = 0.
Isso prova que v1 , . . . , vn são L.I., terminando a indução. ■

Corolário 6.5.8. Seja V um espaço vetorial real de dimensão n. Se T : V → V é uma transformação


linear que possui n autovalores reais distintos então T : V → V é diagonalizável.

Definição 6.5.9. Seja V um espaço vetorial real e T : V → V é uma transformação linear com
um autovalor λ. Definimos o autoespaço associado a λ, denotado por V (λ), como sendo o conjunto
formado por todos os autovetores de T associados a λ unido com 0V , isto é,

V (λ) = {v ∈ V, T (v) = λv}.

135
Exercı́cio 6.5.10. Mostre que V (λ) é um subespaço de V .

Teorema 6.5.11. Seja V um espaço vetorial real de dimensão n. Se T : V → V é uma transformação


linear cujos autovalores reais são λ1 , . . . , λm . Então as seguintes afirmações são equivalentes

a) T : V → V é diagonalizável

b) V = V (λ1 ) ⊕ . . . ⊕ V (λm )

c) dim(V ) = dim(V (λ1 )) + . . . + dim(V (λm ))

Demonstração :Como λ1 , . . . , λm são os autovalores da transformação linear T : V → V , podemos


fomar os subespaços V (λ1 ), . . . , V (λm ), como na definição 6.5.9.

Além disso podemos formar o subespaço R = V (λ1 ) + . . . + V (λm ).

Se r ∈ R então existem vetores v1 ∈ V (λ1 ), . . . , vm ∈ V (λm ) tais que r = v1 + . . . + vm .

Suponha que w1 ∈ V (λ1 ), . . . , wm ∈ V (λm ) sejam outros vetores tais que r = w1 + . . . + wm .


Assim
0V = r − r = (v1 − w1 ) + . . . + (vm − wm ). (6.3)

Note que se vi − wi ̸= 0V , como vi , wi ∈ V (λi ), então vi − wi ∈ V (λi ). Isso significa que cada
vi − wi ̸= 0V é um autovetor associado a λi .

Isso significa que se existir algum vi − wi ̸= 0V na equação 6.3 então o vetor nulo é combinação de
autovetores de T associados a autovalores diferentes, mas isso é impossı́vel, pela proposição 6.5.7.

Assim vi − wi = 0V para todo i na equação 6.3.

Isso significa que R = V (λ1 ) ⊕ . . . ⊕ V (λm ).

Vimos no lema 6.5.4 que dim(R) = dim(V (λ1 )) + . . . + dim(V (λm )).

Como R é um subespaço de V então R = V se e somente se dim(R) = dim(V ). Portanto os itens


b) e c) significam a mesma coisa.

Vamos ver agora que a) e b) são equivalentes.

Se T : V → V for diagonalizável então todo vetor v ∈ V é combinação de autovetores de T , mas


os autovetores de T se encontram dentro dos conjuntos V (λ1 ), . . . , V (λm ).
Assim V ⊂ V (λ1 ) ⊕ . . . ⊕ V (λm ). Entretanto V (λ1 ) ⊕ . . . ⊕ V (λm ) ⊂ V .

136
Portanto V (λ1 ) ⊕ . . . ⊕ V (λm ) = V .

Agora suponha que V (λ1 ) ⊕ . . . ⊕ V (λm ) = V . Seja αi uma base de V (λi ) para cada i = 1, . . . , m.
m
[
Já vimos no lema 6.5.4 que αi é uma base de V (λ1 ) ⊕ . . . ⊕ V (λm ) = V .
i=1
Mas os vetores de cada αi são autovetores de T . Portanto existe uma base de V formada por
autovetores de T , isto é, T : V → V é diagonalizável. ■

Observação 6.5.12. 1. Note


 que no exemplo
 b) da página 122, consideramos a T.L. T : R3 → R3 ,
1 0 0
 
onde T (v) = Av e A = 0 2 1 .
 
 
0 −2 −1
Nesse exemplo obtivemos dois autovalores: 1, 0. Portanto temos dois autoespaços: V (1) e V (0).

No mesmo exemplo calculamos uma base para cada um dos autoespaços e vimos que

dim(V (1)) = 2 e dim(V (0)) = 1.

Assim TA : R3 → R3 é diagonalizável, pois dim(V (1)) + dim(V (0)) = 3 = dim(R3 ).

2. Já no exemplo
 noexemplo b) da página 123, consideramos a T.L. T : R3 → R3 , onde T (v) = Av
1 0 0
 
e A = 0 2 1 .
 
 
0 0 2
Nesse exemplo obtivemos dois autovalores: 1, 2. Portanto temos dois autoespaços: V (1) e V (2).

No mesmo exemplo calculamos uma base para cada um dos autoespaços e vimos que

dim(V (1)) = 1 e dim(V (2)) = 1.

Assim TA : R3 → R3 não é diagonalizável, pois dim(V (1)) + dim(V (2)) = 2 < 3 = dim(R3 ).

137
Capı́tulo 7

Produto Interno em Espaços Vetoriais


Reais

Como vimos nos capı́tulos anteriores conjuntos que possuem soma e multiplicação por escalar (e
satisfazem certas propriedades) podem ser chamados de espaços vetoriais e seus elementos de vetores,
por mais diferentes que eles sejam. Agora entre vetores do Rn existem ângulos. Isso sugere a existência
de ângulos entre vetores em espaço vetoriais mais abstratos. Veremos a seguir como definir ângulo
entre vetores em espaço vetoriais abstratos. Em particular veremos que existem ângulos entre duas
funções, entre dois polinômios, entre duas matrizes.
Para alcançarmos esse objetivo precisamos de uma ideia que já utilizamos no capı́tulo 1, a ideia de
produto interno. As propriedades que provamos no teorema 1.6.2 serão agora utilizadas para definir
um produto interno em um espaço vetorial arbitrário.

7.1 Definições e exemplos

Definição 7.1.1. Seja V um espaço vetorial real. Um produto interno em V é uma função cujo
domı́nio é o V × V e o contradomı́nio os números reais, que será denotada pelo sı́mbolo

⟨·, ·⟩ : V × V → R

e que satisfaz as seguintes propriedades. Sejam u, v, w ∈ V e x ∈ R.

1. ⟨u, v⟩ = ⟨v, u⟩

2. ⟨u + w, v⟩ = ⟨u, v⟩ + ⟨w, v⟩

138
3. ⟨x.u, v⟩ = x.⟨u, v⟩

4. ⟨v, v⟩ ≥ 0 e ⟨v, v⟩ = 0 se e somente se v = 0V

Exemplos:
   
* x1 y1 +
..   .. 
   
1o exemplo: Produto interno usual do Rn : 
 . , .  = x 1 y1 + x 2 y2 + . . . + x n yn
   
xn yn
Já vimos no teorema 1.6.2 que essas propriedades valem para esse produto interno acima.

*   +
x1 y1
2o exemplo: Outro produto interno no R2 :  ,  = 2x1 y1 − x1 y2 − y1 x2 + x2 y2
x2 y2

Vamos verificar as propriedades.


*   + *   +
x1 y1 y1 x1
1.  ,  = 2x1 y1 − x1 y2 − x2 y1 + x2 y2 = 2y1 x1 − y1 x2 − y2 x1 + y2 x2 =  , 
x2 y2 y2 x2

*   +
x 1 + z1 y1
2.  ,  = 2(x1 + z1 )y1 − (x1 + z1 )y2 − (x2 + z2 )y1 + (x2 + z2 )y2
x 2 + z2 y2

= (2x1 y1 − x1 y2 − x2 y1 + x2 y2 ) + (2z1 y1 − z1 y2 − z2 y1 + z2 y2 )
*   + *   +
x1 y1 z1 y1
=  ,  +  , 
x2 y2 z2 y2

*   +
λ.x1 y1
3.  ,  = 2(λ.x1 )y1 − (λ.x1 )y2 − (λ.x2 )y1 + (λ.x2 )y2
λ.x2 y2
*   +
x1 y1
= λ.(2x1 y1 − x1 y2 − x2 y1 + x2 y2 ) = λ.  , 
x2 y2

*   +
x1 x1
4.  ,  = 2x1 x1 − x1 x2 − x2 x1 + x2 x2 = x21 + (x1 − x2 )2
x2 x2

Note que essa quantidade é sempre maior ou igual a zero, pois é soma de quadrados, e somente
dará zero se ambos os quadrados forem zero, i.e., x1 = x2 = 0.

3o exemplo: Produto interno no espaço das funções contı́nuas.

R1
Seja V = {f : [0, 1] → R, onde f é contı́nua}. Considere ⟨f (x), g(x)⟩ = 0 f (x)g(x)dx
Vamos verificar as propriedades:

139
R1 R1
1. ⟨f (x), g(x)⟩ = 0 f (x)g(x)dx = 0 g(x)f (x)dx = ⟨g(x), f (x)⟩

R1 R1 R1
2. ⟨f (x) + h(x), g(x)⟩ = 0 (f (x) + h(x))g(x)dx = 0 f (x)g(x)dx + 0 h(x)g(x)dx
= ⟨f (x), g(x)⟩ + ⟨h(x), g(x)⟩.

R1 R1
3. ⟨λ.f (x), g(x)⟩ = 0 (λ.f (x))g(x)dx = λ. 0 f (x)g(x)dx = λ.⟨f (x), g(x)⟩.

R1
4. ⟨f (x), f (x)⟩ = 0 f (x)2 dx.

R1
Como f (x)2 ≥ 0 então 0 f (x)2 dx ≥ 0.

Se f (x) ̸= 0 então existirá um intervalo [c, d] ⊂ [0, 1] tal que f (x)2 > ϵ para todo x ∈ [c, d],
pois a função f (x) é contı́nua.

R1 Rc Rd R1
Assim 0 f (x)2 dx = 0 f (x)2 dx + c f (x)2 dx + d f (x)2 dx ≥ 0 + ϵ(d − c) + 0 > 0.

Portanto a única maneira de obter zero no produto interno ⟨f (x), f (x)⟩ é quando f (x) = 0.

Exercı́cio 7.1.2. Verifique que a seguinte função é um produto interno no espaço da matrizes M2×2 .
*   +
x11 x12 y11 y12
 ,  = x11 y11 + x12 y12 + x21 y21 + x22 y22
x21 x22 y21 y22

Solução: Vamos verificar as propriedades.


*   +
x11 x12 y11 y12
1.  ,  = x11 y11 + x12 y12 + x21 y21 + x22 y22
x21 x22 y21 y22

*   +
y11 y12 x11 x12
= y11 x11 + y12 x12 + y21 x21 + y22 x22 =  , 
y21 y22 x21 x22

*   +
x11 + z11 x12 + z12 y11 y12
2.  , 
x21 + z21 x22 + z22 y21 y22

= (x11 + z11 ) + y11 + (x12 + z12 )y12 + (x21 + z21 )y21 + (x22 + z22 )y22

= (x11 y11 + x12 y12 + x21 y21 + x22 y22 ) + (z11 y11 + z12 y12 + z21 y21 + z22 y22 )
*   + *   +
x11 x12 y11 y12 z11 z12 y11 y12
=  ,  +  , 
x21 x22 y21 y22 z21 z22 y21 y22

140
*    + *   +
x11 x12 y11 y12 λ.x11 λ.x12 y11 y12
3. λ.  ,  =  ,  =
x21 x22 y21 y22 λ.x21 λ.x22 y21 y22

= λ.x11 y11 + λ.x12 y12 + λ.x21 y21 + λ.x22 y22


*   +
x11 x12 y11 y12
= λ.(x11 y11 + x12 y12 + x21 y21 + x22 y22 ) = λ.  , 
x21 x22 y21 y22

*   +
x11 x12 x11 x12
4.  ,  = x211 + x212 + x221 + x222 ≥ 0
x21 x22 x21 x22

e somente vale zero quando x11 = x12 = x21 = x22 = 0.

Portanto isto é um produto interno.

7.2 Perpendicularidade em Espaços vetoriais reais

No teorema 1.6.2 da seção 1, vimos que dois vetores do Rn são perpendiculares se e somente se o
produto interno deles é zero. Utilizaremos essa ideia para definir perpendicularidade entre vetores em
espaços com produto interno.

Definição 7.2.1. Seja V um espaço vetorial e ⟨·, ·⟩ : V × V → R um produto interno em V . Dizemos


que v, w ∈ V são ortogonais (ou perpendiculares) se ⟨v, w⟩ = 0.

Exemplos:

1o exemplo

As funções f (x) = 4x2 − 2 e g(x) = x são ortogonais com o produto interno da integral no intervalo
[0, 1].
R1 R1
Vamos ver isso: ⟨4x2 − 2, x⟩ = 0 (4x2 − 2).xdx = 0 4x3 − 2xdx
2o exemplo
   
0 1 1 −1
As matrizes   e  são ortogonais com respeito ao produto interno do exercı́cio 7.1.2
1 0 1 1
pois
*   +
0 1 1 −1
 ,  = 0.1 + 1.(−1) + 1.1 + 0.1 = −1 + 1 = 0
1 0 1 1

141
Definição 7.2.2. Seja V um espaço vetorial real com produto interno e denote-o por ⟨·, ·⟩. Sejam
v, w ∈ V e w ̸= 0v . Definimos a projeção de v na direção de w pela fórmula do lema 1.7.1
⟨v, w⟩
projw (v) = .w.
⟨w, w⟩

Exercı́cio 7.2.3. Projete a função f (x) = x2 na função g(x) = x utilizando o produto interno da
integral da integral no intervalo [0, 1].
R1 2 1
⟨f, g⟩ x .x dx 3
Solução: Por definição projg (f ) = .g = 0R 1 .x = 4
1 .x = x.
⟨g, g⟩ 2 4
0 x dx 3

Exercı́cio 7.2.4. Seja V um espaço vetorial real com produto interno e denote-o por ⟨·, ·⟩. Sejam
v, w ∈ V e w ̸= 0v . Utilizando as propriedades do produto interno mostre que

v − projw (v) é ortogonal a w,

como tı́nhamos no Rn com produto interno usual.


⟨v, w⟩ ⟨v, w⟩
Solução: Note que ⟨v − projw (v), w⟩ = ⟨v − w, w⟩ = ⟨v, w⟩ − ⟨w, w⟩ = 0.
⟨w, w⟩ ⟨w, w⟩

Definição 7.2.5. Dizemos que um conjunto de vetores v1 , . . . , vn de um espaço vetorial com produto
interno é ortogonal se para quaisquer i ̸= j tivermos ⟨vi , vj ⟩ = 0. Em particular, se v1 , . . . , vn forem
ortogonais e formarem uma base de V diremos que essa é uma base ortogonal de V .

Exercı́cio 7.2.6. Seja V um espaço vetorial real com produto interno e denote-o por ⟨·, ·⟩. Sejam
v1 , . . . , vn vetores não nulos e ortogonais de V . Mostre que eles são L.i.

Solução: Considere uma combinação nula deles: a1 v1 + . . . + ai vi + . . . + an vn = 0V .


Note que

⟨0V , vi ⟩ = ⟨0.0V , vi ⟩ = 0.⟨0V , vi ⟩ = 0.

Por outro lado

⟨0V , vi ⟩ = ⟨a1 v1 + . . . + ai vi + . . . + an vn , vi ⟩ = ⟨a1 v1 , vi ⟩ + . . . + ⟨ai vi , vi ⟩ + . . . + ⟨an vn , vi ⟩ =


a1 ⟨v1 , vi ⟩ + . . . + ai ⟨vi , vi ⟩ + . . . + an ⟨vn , vi ⟩.

Como v1 , . . . , vn são ortogonais então ⟨vi , vj ⟩ = 0 quando i ̸= j obtemos 0 = ⟨0V , vi ⟩ = ai ⟨vi , vi ⟩.


Como vi ̸= 0V , pois vi faz parte de uma base, então ⟨vi , vi ⟩ > 0. Assim obtemos ai = 0.

142
Exercı́cio 7.2.7. Seja V um espaço vetorial real com produto interno e denote-o por ⟨·, ·⟩. Seja
α = {v1 , . . . , vn } uma base ordenada ortogonal de V . Mostre que

⟨v, v1 ⟩
 
 ⟨v1 , v1 ⟩ 
..
 
 
 . 
 
 ⟨v, vi ⟩ 
[v]α = 
 ⟨vi , vi ⟩ 
..
 
 

 . 

 ⟨v, vn ⟩ 
⟨vn , vn ⟩

Solução: Seja v ∈ V . Sabemos que v = a1 v1 + . . . + ai vi + . . . + an vn , pois v1 , . . . , vn é uma base.


Note que

⟨v, vi ⟩ = ⟨a1 v1 + . . . + ai vi + . . . + an vn , vi ⟩ = ⟨a1 v1 , vi ⟩ + . . . + ⟨ai vi , vi ⟩ + . . . + ⟨an vn , vi ⟩ =


a1 ⟨v1 , vi ⟩ + . . . + ai ⟨vi , vi ⟩ + . . . + an ⟨vn , vi ⟩

Como v1 , . . . , vn são ortogonais então ⟨vi , vj ⟩ = 0, quando i ̸= j. Sobrando apenas na equação


acima, ⟨v, vi ⟩ = ai ⟨vi , vi ⟩.
⟨v, vi ⟩
Como vi ̸= 0V , pois vi faz parte de uma base, então ⟨vi , vi ⟩ > 0. Assim obtemos ai = .
⟨vi , vi ⟩
⟨v, v1 ⟩
 
 
a1  ⟨v1 , v1 ⟩ 
..
   
 ..  
.


 .  
 


   ⟨v, vi ⟩ 
Portanto [v]α =
 ai =
  ⟨vi , vi ⟩
.

 ..  
..

.
   


 
  . 

 ⟨v, vn ⟩
an

⟨vn , vn ⟩

7.3 Processo de ortogonalização de Gram-Schmidt

Algumas vezes necessitamos obter vários vetores que são ortogonais entre si em espaços vetoriais
arbitrários. O seguinte processo nos permite obtê-los a partir de um conjunto L.I. de vetores.

143
Processo de ortogonalização de Gram-Schmidt

Seja V um espaço vetorial real com produto interno e denote-o por ⟨·, ·⟩. Sejam v1 , . . . , vk
vetores L.I. de V . Os seguintes vetores v1′ , v2′ , . . . , vk′ são não nulos, ortogonais entre si e geram
o mesmo espaço que v1 , . . . , vk geram.

• v1′ = v1 ,

• v2′ = v2 − projv1′ v2 ,

• v3′ = v3 − projv1′ v3 − projv2′ v3 ,


..
.

• vn′ = vn − projv1′ vn − projv2′ vn − . . . − projvn−1


′ vn ,

Exemplo: Vamos aplicar o processo de Gram-Schmidt nos seguintes vetores utilizando o produto
interno do R4 .
     
1 1 1
     
 1   1  1 
     

v1 =   , v2 = 
   , v3 =  .
   
 0   1   1 
     
0 0 1

Passo 1: v1′ = v1
⟨v2 , v1′ ⟩ ′
Passo 2: v2′ = v2 − projv1′ (v2 ) = v2 − .v
⟨v1′ , v1′ ⟩ 1
     
1 1 0
     
 1  1.1 + 1.1 + 1.0 + 0.0  1   0 
     
v2′ = −
  1.1 + 1.1 + 0.0 + 0.0   =  
.    
 1   0   1 
     
0 0 0

⟨v3 , v1′ ⟩ ′ ⟨v3 , v2′ ⟩ ′


Passo 3: v3′ = v3 − projv1′ v3 − projv2′ v3 = v3 − .v 1 − .v .
⟨v1′ , v1′ ⟩ ⟨v2′ , v2′ ⟩ 2
       
1 1 0 0
       
 1  1.1 + 1.1 + 1.0 + 1.0  1  1.0 + 1.0 + 1.1 + 1.0  0   0 
       
v3′ = −  −
  1.1 + 1.1 + 0.0 + 0.0   0.0 + 0.0 + 1.1 + 0.0   =  
. .    
 1   0   1   0 
       
1 0 0 1

144
Vamos ver agora a demonstração das afirmações feitas sobre os vetores obtidos pelo processo de
Gram-Schmidt.

Demonstração. Primeiro vamos ver que nenhum dos v1′ , v2′ , . . . , vk′ pode ser igual a 0V .

• v1′ ̸= 0V porque ele é igual a v1 e v1 faz parte de um conjunto L.I..

• Se v2′ = 0V então v2 = projv1′ v2 , mas isso significa que v2 é multiplo de v1′ = v1 . Isso não é
verdade pois v1 , v2 são L.I..

• Se v3′ = 0V então v3 = projv1′ v3 + projv2′ v3 . Isso significa que v3 é uma combinação de v1′ e de
v2′ . Lembre-se que v1′ = v1 e v2′ é uma combinação de v1 e v2 . Assim v3 é uma combinação de v1 e de
v2 , o que não é verdade, pois v1 , v2 , v3 são L.I.. Assim v3′ ̸= 0V .

• Repetindo o argumento k vezes provamos que v1′ , v2′ , . . . , vk′ são todos diferentes de 0V .

Vamos ver que eles ão todos ortogonais entre si.

Vimos no ex. 7.2.4 que v − projw (v) é ortogonal a w.

• Assim v2′ = v2 − projv1′ v2 é ortogonal a v1′ .

Portanto v1′ e v2′ são ortogonais.

• Agora ⟨v3′ , v1′ ⟩ = ⟨v3 − projv1′ (v3 ) − projv2′ (v3 ), v1′ ⟩

= ⟨v3 − projv1′ (v3 ), v1′ ⟩ − ⟨projv2′ (v3 ), v1′ ⟩

Pelo ex. 7.2.4, ⟨v3 − projv1′ (v3 ), v1′ ⟩ = 0

Como projv2′ (v3 ) é um múltiplo de v2′ e v2′ é ortogonal a v1′ então ⟨projv2′ (v3 ), v1′ ⟩ = 0. Portanto
⟨v3′ , v1′ ⟩ = 0.

Agora ⟨v3′ , v2′ ⟩ = ⟨v3 − projv1′ (v3 ) − projv2′ (v3 ), v2′ ⟩

= ⟨v3 − projv2′ (v3 ), v2′ ⟩ − ⟨projv1′ (v3 ), v2′ ⟩

Pelo ex. 7.2.4, ⟨v3 − projv2′ (v3 ), v2′ ⟩ = 0

Como projv1′ (v3 ) é um múltiplo de v1′ e v1′ é ortogonal a v2′ então ⟨projv1′ (v3 ), v2′ ⟩ = 0. Portanto
⟨v3′ , v1′ ⟩ = 0.

Assim v1′ , v2′ , v3′ são ortogonais.

145
É só repetir o argumento para mostrar que v1′ , . . . , v4′ são ortogonais. Depois v1′ , . . . , v5′ são orto-
gonais e assim sucessivamente.

Se você souber fazer indução finita então o resultado é bem fácil de provar por indução.

Falta ainda ver que esses vetores geram o mesmo espaço que v1 , . . . , vk geram.

Mas já vimos na primeira parte que v1′ , . . . , vk′ são combinações lineares de v1 , . . . , vk . Portanto
pertencem ao espaço que v1 , . . . , vk geram.

Lembre-se que v1 , . . . , vk são L.I.. Portanto o espaço que eles geram tem dimensão k.

Vimos depois que v1′ , . . . , vk′ são otogonais, portanto L.I. pelo exercı́cio 7.2.6.

Como eles são L.I. e possuem a mesma cardinalidade que uma base do espaço gerado por v1 , . . . , vk
então eles também formam uma base para esse espaço, ou seja, eles geram o mesmo espaço.

Exercı́cio 7.3.1. Aplique Gram-Schmidt nos polinômios v1 = 1, v2 = x, v3 = x2 , v4 = x3 utilizando o


produto interno da integral no intervalo [0, 1].

7.4 Comprimento de vetores em espaços vetoriais reais

 
x p
Na seção 1.6, utilizamos que o comprimento de um vetor u = ∈ R2 era igual a |u| = x2 + y 2 .
y
Isso era uma consequência do teorema de Pitágoras e aprendemos isso em Geometria Analı́tica.
Utilizando o produto interno usual do R2 obtemos que ⟨u, u⟩ = x.x + y.y = |u|2 , ou seja,
1
|u| = ⟨u, u⟩ 2 .

Utilizaremos essa última equação para definir o comprimento de um vetor em espaço vetorial com
produto interno.

Definição 7.4.1. Seja V um espaço vetorial real com produto interno e denote-o por ⟨·, ·⟩. A norma
1
do vetor v ∈ V (ou seu comprimento) será definida por |v| = ⟨v, v⟩ 2 .

146
Exemplos:

1o exemplo

A norma da função g(x) = x no espaço vetorial das funções contı́nuas com o produto interno da
integral no intervalo [0, 1] vale

1
R 1 1
1 2 2 1
⟨x, x⟩ 2 = 0 x dx = 3
2

2o exemplo
 
0 1
A norma da matriz   no espaço M2×2 com o produto interno do exercı́cio 7.1.2 vale
1 0

*   + 12
0 1 0 1 1
 ,  = 22
1 0 1 0

Teorema 7.4.2. Seja V um espaço vetorial real com produto interno e denote-o por ⟨·, ·⟩. Sejam
v, w ∈ V e λ ∈ R. As seguintes propriedades valem:

a) |v| ≥ 0 e |v| = 0 se somente se v = 0V .

b) |λ.v| = |λ|.|v|, onde |λ| é o módulo do número λ.

c) |⟨v, w⟩| ≤ |v||w|, ou seja, o módulo do número que é o produto interno de v e w é menor ou
igual ao produto dos módulos de v e de w. Essa desigualdade é chamada de desigualdade de
Cauchy-Schwartz.

d) |v + w| ≤ |v| + |w|. Essa desigualdade é chamada de desigualdade triangular.

Demonstração. a) Pela propriedade 4 do produto interno ⟨v, v⟩ ≥ 0 e vale zero se se e somente se


1
v = 0V , portanto o mesmo vale para o |v| = ⟨v, v⟩ 2 .

1 1 1
b) |λ.v| = ⟨λ.v, λ.v⟩ 2 = (λ2 .⟨v, v⟩) 2 = |λ|.⟨v, v⟩ 2 = |λ|.|v|.

c) Pela letra a), 0 ≤ ⟨v − projw (v), v − projw (v)⟩ =

⟨v, w⟩ ⟨v, w⟩
= ⟨v − projw (v), v − w⟩ = ⟨v − projw (v), v⟩ − ⟨v − projw (v), w⟩.
⟨w, w⟩ ⟨w, w⟩ | {z }
=0 pelo ex. 7.2.4

147
Acabamos de descobrir que 0 ≤ ⟨v − projw (v), v⟩. Então
 
−⟨v, w⟩ ⟨v, w⟩
0 ≤ ⟨v, v⟩ − ⟨projw (v), v⟩ = ⟨v, v⟩ + w, v = ⟨v, v⟩ − ⟨w, v⟩.
⟨w, w⟩ ⟨w, w⟩

Multiplicando os dois lados por ⟨w, w⟩ obteremos 0 ≤ ⟨v, v⟩⟨w, w⟩ − ⟨v, w⟩⟨w, v⟩, ou seja,

⟨v, w⟩2 ≤ ⟨v, v⟩⟨w, w⟩

Tirando a raiz quadrada dos dois lados obtemos |⟨v, w⟩| ≤ |v|.|w|.

d) Pela definição 7.4.1, |v + w|2 = ⟨v + w, v + w⟩ =

= ⟨v, v + w⟩ + ⟨w, v + w⟩ = ⟨v, v⟩ + ⟨v, w⟩ + ⟨w, v⟩ + ⟨w, w⟩

≤ |v|2 + 2|⟨v, w⟩| + |w|2 ≤ |v|2 + 2|v||w| + |w|2 = (|v| + |w|)2

Assim |v + w|2 ≤ (|v| + |w|)2 . Tirando a raiz dos dois lados obtemos |v + w| ≤ |v| + |w|.

|⟨v, w⟩|
Acabamos de ver a desigualdade de Cauchy-Schwartz que diz que ≤ 1, quando v, w ̸= 0V .
|v||w|

⟨v, w⟩
Assim −1 ≤ ≤ 1.
|v||w|

Lembre-se que o cosseno dos ângulos de 0 até π varia de −1 até 1.


⟨v, w⟩
Portanto podemos pensar que é o cosseno de um ângulo.
|v||w|

Definição 7.4.3 (7.4.3). Seja V um espaço vetorial e ⟨·, ·⟩ : V × V → R um produto interno em V .


Dizemos que o ângulo formado entre os vetores v, w ∈ V \ {0V } está entre 0 e π e vale
 
⟨v, w⟩
arccos
|v||w|

Exercı́cio 7.4.4 (Desigualdade de Ptolomeu). Sejam x, y, z em um espaço vetorial com produto in-
terno e seja | · | a norma proveniente desse produto interno.

|y| |x|
a) Mostre que |x| x − |y| y = |x − y|

b) Mostre que |x − y||z| ≤ |x − z||y| + |z − y||x|

148
7.5 Projeção ortogonal

Da mesma forma como fizemos com a projeção do vetor na direção de outro vetor podemos projetar
um vetor num subespaço, se o espaço que o contém possui um produto interno.
Considere o problema de projetar o vetor v no plano W gerado pelos vetores v1 e v2 . Veja figura
abaixo.

A projeção de v em W , que será denotada por projW (v), deve satisfazer as seguintes propriedades:

• projW (v) ∈ W e

• v − projW (v) deve ser perpendicular a todos os vetores que estão em W , ou seja, v − projW (v)
é ortogonal a v1 e v2 .

Dessas propriedades obtemos que

• projW (v) = av1 + bv2 ,

• ⟨v − projW (v), v1 ⟩ = ⟨v − projW (v), v2 ⟩ = 0.

Juntando essas informações obtemos:

0 = ⟨v − projW (v), v1 ⟩ = ⟨v − av1 − bv2 , v1 ⟩ = ⟨v, v1 ⟩ − a⟨v1 , v1 ⟩ − b⟨v2 , v1 ⟩.

0 = ⟨v − projW (v), v2 ⟩ = ⟨v − av1 − bv2 , v2 ⟩ = ⟨v, v2 ⟩ − a⟨v1 , v2 ⟩ − b⟨v2 , v2 ⟩.

Isso é um sistema linear nas incógnitas a, b:



 a⟨v1 , v1 ⟩ + b⟨v2 , v1 ⟩ = ⟨v, v1 ⟩
 a⟨v , v ⟩ + b⟨v , v ⟩ = ⟨v, v ⟩
1 2 2 2 2

Resolvendo esse sistema e obtendo a, b, encontramos projW (v) = av1 + bv2 .

149
Observação 7.5.1. Note que você poderia ter escolhido quaisquer dois vetores desse plano W
para obter a projeção projW (v), basta que eles fossem uma base de W . Inclusive você poderia
ter escolhido v1 ⊥ v2 e |v1 | = |v2 | = 1. Isso simplificaria muito esse sistema acima:

 a = ⟨v, v1 ⟩
 b = ⟨v, v ⟩
2

Assim, nessa situação, projW (v) = ⟨v, v1 ⟩v1 + ⟨v, v2 ⟩v2 .

     
1 1 1
     
Exemplo 7.5.2. Vamos projetar v = 2 no plano gerado por r = 1 e s = 1 utilizando o
     
     
3 0 1
3
produto interno usual do R .

Primeiro vamos encontrar dois vetores v1 , v2 do plano que sejam perpendiculares e que tenham
norma 1. Vamos usar Gram-Schmidt:
       
1 1 1 0
       
⟨s,r⟩ 2 
w1 = r = 1 e w2 = s − ⟨r,r⟩ r = 1 − 1 = 0.
     
    2
   
0 1 0 1

Note que w1 e w2 já são ortogonais. Falta dividir pelas suas respectivas normas para obter vetores
de norma 1 ortogonais:
   
1 0
   
v1 = w1 /|w1 | = √12 1 e v2 = w2 /|w2 | = 1
0.
   
  1 
0 1

Pela fórmula obtida na observação 7.5.1, obtemos que


     
3
  1 0 2
1 1 1  
    
projW (v) = ⟨v, v1 ⟩v1 + ⟨v, v2 ⟩v2 = 1. √ + 2. √ . √ 1 + 3. 0 =  32  .
   
2 2 2     
0 1 3

Definição 7.5.3. Seja V um espaço vetorial com um produto interno ⟨·, ·⟩. Dizemos que a base
v1 , . . . , vm de V é uma base ortonormal se ⟨vi , vj ⟩ = 0, quando i ̸= j, e ⟨vi , vi ⟩ = 1.

Observação 7.5.4. Para obter uma base ortonormal a partir de uma base, basta aplicar Gram-
Schmidt em uma base e depois dividir os vetores obtidos pelas suas respectivas normas.

150
Projeção ortogonal de um vetor em um subespaço.

Seja V um espaço vetorial com um produto interno ⟨·, ·⟩.


Seja W um subespaço de V com a seguinte base ortonormal: v1 , . . . , vm .
Vamos projetar v ∈ V no W . Novamente queremos as seguintes propriedades para projW (v).

(i) projW (v) = a1 v1 + . . . + am vm

(ii) v − projW (v) é ortogonal a v1 , . . . , vm .

Por (ii), para cada i = 1, . . . , m,

0 = ⟨v − a1 v1 + . . . + am vm , vi ⟩ = ⟨v, vi ⟩ − a1 ⟨v1 , vi ⟩ + . . . − am ⟨vm , vi ⟩.

Como v1 , . . . , vm é uma base ortonormal então ⟨vj , vi ⟩ = 0, quando j ̸= i, e ⟨vi , vi ⟩ = 1.


Na equação acima obtemos 0 = ⟨v, vi ⟩ − ai . Assim

projW (v) = ⟨v, v1 ⟩v1 + . . . + ⟨v, vm ⟩vm .

Essa função projW : V → V é chamada de projeção ortogonal em W .

Exercı́cio 7.5.5. Seja V um espaço vetorial com um produto interno ⟨, ⟩. Seja W um subespaço de
V com a seguinte base ortonormal: v1 , . . . , vm . Mostre que

a) a função projW : V → V é uma transformação linear.

b) projW (v) = v para todo v ∈ W .

2 = proj .
c) projW W

151
A matriz da projeção no Rn

Considere Rn com o produto interno usual. Seja W um subespaço de Rn com a seguinte base
ortonormal: v1 , . . . , vm .
Pela fórmula que obtemos acima sabemos que projW (v) = ⟨v, v1 ⟩v1 + . . . + ⟨v, vm ⟩vm .
     
a1 b1 b
 1
. . .
   
Cada vi =  ..  e v =  ..  então ⟨vi , v⟩ = a1 b1 + . . . + an bn = (a1 , . . . , an )  ..  = vit v.
     
an bn bn

t v =(v v t + . . . + v v t ) v.
Portanto projW (v) = v1 ⟨v1 , v⟩ + . . . + vm ⟨vm , v⟩ = v1 v1t v + . . . + vm vm
| 1 1 {z m m
}
An×n
Assim projW (v) = Av, onde A = v1 v1t + . . . + vm vm
t e v , . . . , v é uma base ortonormal de W .
1 m

Essa An×n é a matriz da projeção ortogonal no subespaço W .

     
1 1 1
     
Exemplo 7.5.6. No exemplo 7.5.2, projetamos o vetor v =2
 
no plano W gerado por  
1 ev =1
 
     
3 0 1
 
3
2
utilizando o produto interno usual do R3 . Obtivemos como resultado projW (v) =
 32  .

 
3

Como exemplo iremos calcular a matriz da projeção como fizemos acima. 


Para
 isso necessitamos
 
1 0
   
de uma base ortonormal de W , que já foi calculada no exemplo 7.5.2: v1 = √1 e v2 = 1
0.
   
2
1 1
   
0 1
     
√1 0 1 1
0
 2   2 2 
 1  √1 √1
Assim a matriz fica A = v1 v1t + v2 v2t = √  ( 2 2 0) + 0 (0 0 1) =  12 1
0.
   
 2    2 
0 1 0 0 1
    
1 1 3
2 2 0 1 2
Portanto projW (v) = Av =  21 1    3
   =  2 .

 2 0 2  
0 0 1 3 3

     
1 1 1
     
1 0 1
     
Exercı́cio 7.5.7. Encontre a projeção de r1 =
 , r2
 =
 , r3
 =
 
 no subespaço W do R4 gerado
2 2 2
     
0 1 2

152
     
1 1 1
     
0 1 1
     
por s1 =
 ,
 s2 =
 ,
 s3 =
 
 utilizando o produto interno usual. Utilize a matriz da projeção
0 0 0
     
1 0 1
ortogonal que acabamos de aprender.

153
Capı́tulo 8

Espaço Dual e Bidual

Primeiramente lembre-se do exercı́cio 6.1.4 que diz que se v1 , . . . , vn formam uma base de um
espaço vetorial real V e se w1 , . . . , wn são vetores de uma espaço vetorial real W então existe uma
única transformação linear T : V → W que satisfaz T (v1 ) = w1 , . . . , T (vn ) = wn .

Esse exercı́cio diz que basta escolher as imagens para os vetores de uma base de V , i.e., T (v1 ) =
w1 , . . . , T (vn ) = wn , que consiguiremos uma transformação linear T : V → W satisfazendo essas
escolhas. As imagens de todos os vetores de V por essa T podem ser calculadas pela fórmula

T (x1 v1 + . . . + xn vn ) = x1 T (v1 ) + . . . + xn T (vn ) = x1 w1 + . . . + xn wn .

Esse processo de definir uma T.L. numa base e depois estender a T.L. para V inteiro com a fórmula
acima é chamado de estender por linearidade.

Também vimos no exercı́cio 6.1.5 que podemos somar T.L.s que possuem o mesmo domı́nio e
contra-domı́nio obtendo uma nova T.L. (no item a)) e que podemos multiplicar uma T.L. por um
número real e obter uma outra T.L. (no item b)), ou seja, existe uma soma e multiplicação por escalar
para T.L.s. O próximo exercı́cio pede para você mostrar que essas operações tornam o conjunto de
todas essas T.L.s um espaço vetorial.

Exercı́cio 8.0.1. Sejam V, W espaços vetoriais reais. Prove que o conjunto de todas as T.L.s de
domı́nio V e contradomı́nio W formam um espaço vetorial com as seguintes operações:

a) Soma: T + S : V → W , definida por T + S(v) = T (v) + S(v)

b) Multiplicação por escalar: λ.T : V → W , definida por λ.T (v) = λ(T (v))

154
8.1 Funcional Linear e Espaço Dual

Espaço Dual

Definição 8.1.1. Um funcional linear definido em V é uma transformação linear de domı́nio V


e contradomı́nio R. O espaço vetorial formado por todos os funcionais lineares de V em R com
as operações definidas no exercı́cio anterior é chamado de espaço dual de V e será denotado
por V ∗ .

Exemplo 8.1.2. a) O funcional linear nulo f : V → R satisfaz f (v) = 0 para todo v ∈ V .

b) Para definir um funcional linear basta definı́-lo na base e estender por linearidade.
  Assim
 para
 1 0 
obter um funcional f : R2 → R, basta escolher uma base do R2 , seja ela   ,   , e
 0 1 
escolher números reais para serem imagens dessa base, sejam eles
   
1 0
f   = 2, f   = 3.
0 1

E obtemos      
x 1 0
f   = x.f   + y.f   = 2x + 3y.
y 0 1

Exercı́cio 8.1.3. Mostre que

(Rn )∗ = {f : Rn → R, f (x1 , . . . , xn ) = b1 x1 + . . . + bn xn , onde bi ∈ R para todo i}.

155
Conjunto Dual

Definição 8.1.4. Seja V um espaço vetorial real de dimensão n e A = {a1 , . . . , am } ⊂ V


linearmente independente. Seja β = {a1 , . . . , am , am+1 , . . . , an } uma base de V que contém A,
ela existe pelo teorema 5.4.9. Para cada ai ∈ A, 1 ≤ i ≤ m, definimos o funcional a∗i : V → R
na base β por 
 a∗ (aj ) = 0, se i ̸= j
i
 a∗ (a ) = 1
i i

Estendemos a∗i a todo V por linearidade, isto é,

a∗i (x1 a1 + . . . + xn an ) = x1 a∗i (a1 ) + . . . + xi a∗i (ai ) + . . . + xn a∗i (an ) = xi .1 = xi

O conjunto de funcionais {a∗1 , . . . , a∗m } definidos acima é chamado de conjunto dual de A com
respeito a base β.

         
 1   1 0   1 1 
Exemplo 8.1.5. Sejam A =   , B =   ,   e C =   ,   .
 0   0 1   0 1 
Note que B, C são bases do R2 que contém A. Vamos construir o conjunto dual de A com respeito
a cada uma dessas bases.

Caso 1: O conjunto dual de A com respeito a B é formado por apenas um funcional que satisfaz
   
1 0
a∗   = 1 e a∗   = 0.
0 1

Assim      
x 1 0
a∗   = x.a∗   + y.a∗   = x.1 = x
y 0 1
 
1
Em particular, note que a∗   = 1.
1

Caso 2: O conjunto dual de A com respeito a C é formado por apenas um funcional que satisfaz
   
1 1
a∗   = 1 e a∗   = 0.
0 1

Assim      
x 1 1
a∗   = (x − y).a∗   + y.a∗   = x − y
y 0 1

156
 
1
Em particular, note que a∗   = 1 − 1 = 0.
1

Observação ∗ ∗
  8.1.6. Note no exemplo anterior que a do caso 1 é diferente de a do caso 2, apesar
1
de a =  . Aquilo que mudou na definição de a∗ nos casos 1 e 2 foram as bases que contém a, ou
0
seja, o conjunto dual de um subconjunto L.I. de V depende da base que você escolheu contendo esse
conjunto L.I.. Você vai esquecer disso.

Teorema 8.1.7. Seja V um espaço vetorial de dimensão n e A = {a1 , . . . , an } uma base de V . O


conjunto dual de A (com respeito a ela mesma), {a∗1 , . . . , a∗n }, é uma base de V ∗ . Portanto a dimensão
de V ∗ é n também.

Demonstração. Primeiro vamos provar que a∗1 , . . . , a∗n são linearmente independentes. Para isso con-
sidere uma combinação deles resultando no funcional linear nulo, i.e.,

x1 a∗1 + . . . + xi a∗i + . . . + xn a∗n = 0 : V → R.

Aplicando esse funcional nulo em ai obtemos o número 0, por outro lado aplicando x1 a∗1 + . . . +
xi a∗i + . . . + xn a∗n em ai obtemos

x1 a∗1 (ai ) + . . . + xi a∗i (ai ) + . . . + xn a∗n (ai ) = xi .

Assim xi = 0 para todo i. Isso mostra que a∗1 , . . . , a∗n são linearmente independentes.
Agora seja f : V → R um funcional linear. Então f (ai ) ∈ R para todo i. Considere o funcional
f (a1 )a∗1 + . . . + f (an )a∗n .

Note que (f (a1 )a∗1 + . . . + f (ai )a∗i + . . . + f (an )a∗n )(ai ) = f (a1 )a∗1 (ai ) + . . . + f (ai )a∗i (ai ) + . . . +
f (an )a∗n (ai ) = f (ai ).

Assim os funcionais f e f (a1 )a∗1 + . . . + f (an )a∗n tem as mesmas imagens nos vetores da base
a1 , . . . , an . Mas pelo exercı́cio 6.1.4 existe um único funcional linear cujas imagens na base a1 , . . . , an
são os números f (a1 ), . . . , f (an ). Portanto f = f (a1 )a∗1 + . . . + f (an )a∗n .

Isso prova que todo elemento de V ∗ é combinação de a∗1 , . . . , a∗n , ou seja, a∗1 , . . . , a∗n gera V ∗ e é um
conjunto linearmente independente.

Exercı́cio 8.1.8. Considere a T.L. T : R3 → R2 definida por

157
     
x   x x
  1 2 3  
     
T y  = ⃗ = y 
y  e seja X

.
  4 5 6    
z z z

Encontre funcionais lineares f1 , f2 , f3 tais que

     
1 2 3
⃗ = f1 (X)
T (X) ⃗   + f2 (X)
⃗   + f3 (X)
⃗  
4 5 6

Exercı́cio 8.1.9. Seja T : V → W uma transformação linear, {v1 , . . . , vn } uma base de V e


{v1∗ , . . . , vn∗ } o seu conjunto dual com respeito a ela mesma. Mostre que

T (v) = a∗1 (v)T (v1 ) + . . . + a∗n (v)T (vn ).

8.2 O Espaço Bidual

Como V ∗ é o espaço vetorial das transformações lineares de V em R, podemos considerar o seu


espaço dual isto é, (V ∗ )∗ .

Espaço Bidual

Definição 8.2.1. Um funcional linear definido em V ∗ é uma transformação linear de domı́nio


V ∗ e contradomı́nio R. O espaço vetorial formado por todos os funcionais lineares de V ∗ em R
com as operações definidas no exercı́cio 8.0.1 é chamado de espaço bidual de V e será denotado
por V ∗∗ .

Conjunto Bidual

Definição 8.2.2. Seja a ∈ V definimos o funcional linear a∗∗ : V ∗ → R por

a∗∗ (f ) = f (a),

ou seja, o que o a∗∗ faz com um funcional linear f : V → R é avaliá-lo no vetor a. Se A é um


subconjunto de V definimos o conjunto bidual de A por {a∗∗ , a ∈ A} ⊂ V ∗∗ .

158
Observação 8.2.3. Note que diferente do conjunto dual, não foi necessário utilizar uma base
para definir o conjunto bidual.

Teorema 8.2.4. Seja V um espaço vetorial real de dimensão n. A função T : V → V ∗∗ , definida por
T (v) = v ∗∗ , é uma transformação linear bijetora.

Demonstração. Sejam r, s ∈ V então T (r + s) : V ∗ → R satisfaz

T (r + s)(f ) = f (r + s) = f (r) + f (s) = T (r)(f ) + T (s)(f ),

ou seja, T (r + s) = T (r) + T (s).

Seja λ ∈ R. Então T (λr) : V ∗ → R satisfaz T (λr)(f ) = f (λr) = λf (r) = λT (r), ou seja,


T (λr) = λT (r). Isso mostra que T é uma transformação linear.

Seja v ∈ N uc(T ) \ {0V }, ou seja, T (v) : V ∗ → R é o funcional linear de V ∗∗ nulo.

Seja α uma base de V contendo v. Defina o funcional linear v ∗ : V → R com respeito a essa base.

Note que
0 = T (v)(v ∗ ) = v ∗∗ (v ∗ ) = v ∗ (v) = 1,

por definição de v ∗∗ e v ∗ . Absurdo. O erro veio dizer que existia um v ̸= 0V no núcleo de T .

Agora se v, w ∈ V e T (v) = T (w) então T (v − w) = 0, ou seja, v − w ∈ N uc(T ). Assim v − w = 0V ,


isto é, v = w. Portanto T é injetora.

Vimos no teorema 8.1.7 que a dimensão do dual de um espaço de dimensão finita é igual a dimensão
do espaço. Portanto dim(V ∗∗ ) = dim(V ∗ ) = dim(V ).

Pelo teorema do Núcleo-Imagem dim(V ) = dim(N uc(T )) + dim(Im(T )), como dim(N uc(T )) = 0,
dim(V ∗∗ ) = dim(V ) = dim(Im(T )). Assim a Im(T ) é um subespaço de V ∗∗ com a mesma dimensão
de V ∗∗ , ou seja, Im(T ) = V ∗∗ . Portanto T é sobrejetora.

159
Capı́tulo 9

Forma de Jordan

No capı́tulo de diagonalização, nós justificamos a busca por uma base de autovetores com a justi-
ficativa que essa base simplificaria a matriz da transformação, isto é, a colocaria no formato diagonal
que é simples de multiplicar. Lembra?
Entretanto nem toda transformação linear, que possui mesmo domı́nio e contra-domı́nio, pode
ser diagonalizada. Aqui chamaremos essas transformações lineares que possuem o mesmo domı́nio e
contra-domı́nio de operadores lineares.
Nesse capı́tulo veremos um teorema que garante a existência de bases para o domı́nio de qualquer
operador linear, cuja matriz do operador linear nessa base é bem simples (não tão simples quanto uma
diagonal, mas ainda bem simples). O primeiro exemplo disso pode ser visto no próximo exercı́cio.

Exercı́cio 9.0.1. Seja T : R2 → R2 um operador linearcom  autovalores reais. Se T não for diago-
λ 1
nalizável então existe uma base α do R2 tal que [T ]αα =  .
0 λ

Solução: Se T possuı́sse dois autovalores distintos então T seria diagonalizável pela proposição 6.5.7.
Portanto T possui somente um autovalor λ e associado a ele existe um autovetor v.
Seja w tal que β = {v, w} é uma base do R2 . Esse w existe pelo teorema 5.4.9.
Como T (w) ∈ R2 e β = {v, w} é uma base do R2 então T (w) = av + bw e T (v) = λv. Assim
 
λ a
[T ]ββ =  .
0 b

Agora observe que

• a ̸= 0, senão T seria diagonalizável.

• Como det([T ]ββ − xId) = (λ − x)(b − x) então b é outro autovalor de T .

160
Mas só existe um autovalor de T que é λ. Assim b = λ.

Considere a base α = {av, w}. Como T (av) = λav e T (w) = 1.av + λw então
 
λ 1
[T ]αα =  .
0 λ

Observação 9.0.2. Podemos concluir com esse exercı́cio o seguinte resultado.


Se T : R2 → R2 é um operador linear com autovalores reais então
   
λ 0 λ 1
ou existe uma base α tal que [T ]αα =   ou existe uma base β tal que [T ]β =  .
β
0 µ 0 λ

9.1 Operadores Nilpotentes

Para provar o teorema que prometemos acima devemos começar provando o teorema para opera-
dores nilpotentes.

Operadores Nilpotentes

Definição 9.1.1. Dizemos que T : V → V é um operador linear nilpotente se existir um número


natural k tal que
k vezes
z }| {
Tk =T ◦ T ◦ . . . ◦ T = 0, isto é, T k (v) = 0V para todo v ∈ V .

Se T k = 0, mas T k−1 ̸= 0, dizemos que k é o ı́ndice de nilpotência de T .

Exemplos 9.1.2. a) Seja T : V → V definido por T (v) = 0V para todo v ∈ V .

Note que T 1 = T = 0. Assim T é nilpotente com ı́ndice de nilpotência sendo 1.


 
0 1
b) Considere a matriz A =  . Note que A2 = 02×2 .
0 0

Considere o operador linear T : R2 → R2 definido por T (v) = Av. Assim para todo v ∈ R2
temos

161
T 2 (v) = T (T (v)) = A(Av) = A2 v = 0v = 0.
   
0 1
Portanto T é nilpotente. Agora como T   =   então T 1 = T =
̸ 0. Portanto 2 é o ı́ndice
1 0
de nilpotência de T .

A seguir veremos como deve ser o formato da base que simplificará a matriz do operador nilpotente
e também como ficará esse formato simplificado.

Base de Jordan para operadores nilpotentes

Definição 9.1.3. Seja T : V → V um operador linear nilpotente de ı́ndice de nilpotência k.


Dizemos que a base α de V é uma base de Jordan com respeito a T , se ela possuir o seguinte
formato:
t
[
1. α = αi , onde αi = {v1,i , v2,i , . . . , vsi ,i }.
i=1

2. Para cada i temos T (vsi ,i ) = vsi −1,i , . . . , T (v2,i ) = v1,i e T (v1,i ) = 0V .

Podemos indicar isso com o seguinte desenho

T T T T T
vsi ,i → vsi −1,i → . . . → v2,i → v1,i → 0V

3. Para todo i temos que si ≤ k e existe pelo menos um i tal que si = k.

Observação 9.1.4. Seja T : V → V o operador linear nulo. Sabemos que seu ı́ndice de
nilpotência é 1. Seja α = {v1 , . . . , vn } uma base quaquer de V .
Note que ela é uma base de Jordan de V com respeito a T pelos seguintes motivos.
n
[
• α= αi , onde αi = {vi }.
i=1

• T (vi ) = 0V

• Para todo i temos que si = 1.

162
Exercı́cio 9.1.5. Seja T : V → V um operador linear. Suponha que exista uma base α = {v1 , v2 , . . . , vn }
T T T T T
de V tal que vn → vn−1 → . . . → v2 → v1 → 0V . Mostre que
 
0 1 0 ... 0
 
0 0 1 . . . 0
 
. . . .. 
 
[T ]αα =  .. .. .. . . . . .
 
 
0 0 . . . 0 1
 
0 0 ... 0 0

Exercı́cio 9.1.6. Seja T : V → V um operador linear. Suponha que exista uma base de Jordan para
T como na definição 9.1.3. Mostre que T é nilpotente de ı́ndice k e que
 
  0 1 0 ... 0
N1 0s1 ×s2 . . . 0s1 ×st  
0 0 1 . . . 0
   
 
0 N . . . 0
 
s ×s 2 s ×s . . . .
 
α

[T ]α =  .
2 1 2 t 
. .
, onde cada Ni =  . . .. . . .
. .
 
. .
 
 .. .. . .. ..    
 
  0 0 . . . 0 1
0st ×s1 0st ×s2 . . . Nt  
0 0 ... 0 0
si ×si

Observação 9.1.7. Veremos a seguir que para todo operador nilpotente existe uma base de
Jordan como a descrita na definição 9.1.3. Portanto a matriz do operador nessa base será
aquela descrita no exercı́cio anterior.

Antes de provar o teorema geral, vamos provar o seguinte caso particular.

Lema 9.1.8. Seja T : V → V um operador linear nilpotente de ı́ndice de nilpotência 2. Existe base
de Jordan como a descrita na definição 9.1.3 para esse operador.

Demonstração :Como T ̸= 0 então a Im(T ) ̸= {0V }. Portanto a imagem de T possui uma base.
Seja w1 , . . . , wm uma base da Im(T ), onde m ≥ 1.

Agora observe que se v ∈ Im(T ) então v = T (w) e T (v) = T 2 (w) = 0V , isto é, v ∈ N uc(T ). Isso
significa que Im(T ) ⊂ N uc(T ).

Então podemos acrescentar vetores do N uc(T ) ao conjunto L.I. {w1 , . . . , wm } até obter uma base
do N uc(T ).

163
Sejam r1 , . . . , rs esses vetores do N uc(T ) tais que w1 , . . . , wm , r1 , . . . , rs é uma base do Núcleo de
T . Além disso, sejam v1 , . . . , vm vetores de V tais que T (v1 ) = w1 , . . . , T (vm ) = wm .

Vimos na demonstração do teorema do Núcleo-Imagem que se unirmos esses v1 , . . . , vm a uma base


do N uc(T ) então obteremos uma base de V .

Portanto α = {v1 , . . . , vm , w1 , . . . , wm , r1 , . . . , rs } é uma base de V .

Finalmente note que


m
[ s
[
• α= αi ∪ βj , onde αi = {wi , vi } e βj = {rj },
i=1 j=1

T T
• vi → wi → 0V , para todo 1 ≤ i ≤ m,

T
• rj → 0V , para todo 1 ≤ j ≤ m.

• #αi = 2 e #βj = 1, para todo i e j.

Como m ≥ 1 existe pelo menos um αi com cardinalidade 2.

Assim construı́mos a base de Jordan de V com respeito a T . ■

Exercı́cio 9.1.9. Seja T : V → V um operador linear nilpotente de ı́ndice de nilpotência k. Mostre


que podemos restringir o domı́nio e o contradomı́nio da T ao subespaço Im(T ) e ainda obter um
operador linear

T |Im(T ) : Im(T ) → Im(T ), T |Im(T ) (v) = T (v),

Mostre que T |Im(T ) é um operador nilpotente de ı́ndice k − 1

Solução: Para todo v ∈ Im(T ) temos que T (v) ∈ Im(T ). Isso significa que podemos restringir o
domı́nio de T ao subespaço Im(T ) e ainda teremos um operador linear T : Im(T ) → Im(T ). Vamos
chamar essa restrição de T |Im(T ) .

Vejamos agora que o ı́ndice de nilpotência de T |Im(T ) é k − 1.

Seja v ∈ domı́nio de T |Im(T ) , isto é, v = T (w). Assim

k−1 k−1
T |Im(T ) (v) = T (T (w)) = T k (w) = 0V .

Portanto T |k−1 k−2


Im(T ) = 0. Vejamos que T |Im(T ) ̸= 0.

164
Como T k−1 ̸= 0 então existe algum r ∈ V tal que T k−1 (r) ̸= 0V .

Note que T (r) ∈ domı́nio da T |Im(T ) e T |k−2


Im(T ) (T (r)) = T
k−1 (r) ̸= 0 .
V

Assim o ı́ndice de nilpotência de T |Im(T ) é k − 1. ■

Já temos tudo pre precisamos para ver o caso geral do teorema da base de Jordan para operadores
nilpotentes.

Teorema 9.1.10. Seja T : V → V um operador linear nilpotente de ı́ndice de nilpotência k. Existe


base de Jordan de V com respeito a T .

Demonstração :A demonstração será uma indução no ı́ndice de nilpotência.

Já provamos esse teorema para operadores nilpotentes de ı́ndice 1 (observação 9.1.7) e de ı́ndice 2
(lema 9.1.8). Também já vimos no exercı́cio anterior que podemos formar o operador T |Im(T ) e que
seu ı́ndice é k − 1.

Por hipótese de indução, existe uma base α da Im(T ) com respeito a T tal que
t
[
1. α = αi , onde αi = {v1,i , v2,i , . . . , vsi ,i }.
i=1

T T T T T
2. Para cada i temos vsi ,i → vsi −1,i → . . . → v2,i → v1,i → 0V .

3. Para todo i temos que si ≤ k − 1 e existe pelo menos um i tal que si = k − 1.

Pegue os últimos vetores dos αi :

vs1 ,1 , . . . , vsi ,i , . . . , vst ,t .

Como eles são vetores da Im(T ) então existem vetores de V

vs1 +1,1 , . . . , vsi +1,i , . . . , vst +1,t ,

tais que T (vs1 +1,1 ) = vs1 ,1 , . . . , T (vsi +1,i ) = vsi ,i , . . . , T (vst +1,t ) = vst ,t .

t
[
Forme o conjunto β = βi , onde βi = {v2,i , . . . , vsi ,i , vsi +1,i }.
i=1

165
Note duas coisas sobre β:

a) Para formar β, nós retiramos de α os primeiros vetores dos αi , v1,1 , . . . v1,i . . . v1,t ,

e acrescentamos vs1 +1,1 , . . . , vsi +1,i , . . . , vst +1,t que obtivemos acima.

b) As imagens dos vetores de β pela T são os vetores de α. Isto é, β é uma pré-imagem de α pela
T.

Como os primeiros vetores dos αi são vetores L.I., pois fazem parte de uma base, e pertencem ao
N uc(T ), podemos acrescentar a eles vetores do N uc(T ) até obtermos uma base do núcleo.

Seja γ = {v1,1 , . . . v1,i . . . v1,t , r1 , . . . , rs } essa base do N uc(T ).

Lembre-se que na demonstraçao do teorema do Núcleo-Imagem vimos que se unirmos os vetores


de β (pré-imagem da base da Im(T )) com os de γ (base do N uc(T )) obteremos uma base ζ de V .

t
[ s
[
Finalmente note que ζ = β ∪ γ = ζi ∪ δi , onde
i=1 j=1

a) Para cada i e j temos ζi = αi ∪ {vsi +1,i } = {v1,i , v2,i , . . . , vsi ,i , vsi +1,i } e δj = {rj }.

b) Para cada i e j temos

T T T T T T T
vsi +1,i → vsi ,i → vsi −1,i → . . . → v2,i → v1,i → 0V e rj → 0V .

c) Para cada i e j temos #ζi = #αi + 1 ≤ k − 1 + 1 = k e #δi = 1.

Como existe pelo menos um i tal que #αi = k − 1 então existe pelo menos um i tal que #ζi = k.

Mesma demonstração vale se a dimensão de V for infinita

Observação 9.1.11. Na demonstração acima fizemos uma indução no ı́ndice de nilpotência


porque a mesma demonstração vale quando a dimensão de V é infinita. A única diferença do
caso finito para o infinito é que o ı́ndice i, na definição 9.1.3, não varia de 1 até t no caso
infinito, mas varia dentro de um conjunto de ı́ndices infinito.

166
9.2 Revisão de polinômios

Nessa seção revisaremos alguns fatos básicos sobre polinômios que normalmente são aprendidos no
curso de Estruturas Algébricas. Tudo que faremos aqui é para provar o lema 9.2.14 que será utilizado
na próxima seção.
t
X l
X
Definição 9.2.1. Sejam p(x) = pi xi , q(x) = qj xj e m(x) polinômios com coeficientes reais.
i=0 j=0

1. Definimos o grau do polinômio p(x) como sendo o maior i tal que pi ̸= 0. Denotaremos o grau
de p(x) por grau(p(x)).

2. O produto de p(x) e q(x) é o polinômio definido por

p(x)q(x) = pt ql xt+l + . . . + (pj q0 + pj−1 q1 + . . . + p0 qj )xj + . . . + p0 q0 .

3. Dizemos que p(x) divide m(x), ou que p(x) é um divisor de m(x), se existir um polinômio
q(x) ∈ R[x] tal que m(x) = p(x)q(x). Denotaremos isso por p(x) | m(x).

Exemplos 9.2.2. 1. O grau do polinômio 2x2 + 3x + 1 é 2 e o grau do polinômio 2 é zero.

2. O produto dos polinômios 2x2 + 3x + 1 e x + 1 vale

(2x2 + 3x + 1)(x + 1) = 2x2 .x + 3x.x + 1.x + 2x2 .1 + 3x.1 + 1.1 = 2x3 + 5x2 + 4x + 1.

3. Note que x + 1 | 2x3 + 5x2 + 4x + 1, pois 2x3 + 5x2 + 4x + 1 = (2x2 + 3x + 1)(x + 1).

Foi fácil ver que x + 1 dividia 2x3 + 5x2 + 4x + 1, porque já sabı́amos que x + 1 multiplicado por
outro polinômio resultava em 2x3 + 5x2 + 4x + 1. E se não soubéssemos disso? Como poderı́amos
descobrir se x + 1 divide 2x3 + 5x2 + 4x + 1 ou não.

Podemos repetir o algoritmo da divisão que estamos acostumados com números, agora com os
polinômios. Por exemplo:

167
2x3 + 5x2 + 4x + 1 |x + 1
−(2x3 + 2x2 ) 2x2 + 3x + 1
3x2 + 4x + 1
−(3x2 + 3x)
x+1
−x + 1
0

Algoritmo de Euclides

Lema 9.2.3. Sejam p(x) e q(x) polinômios com coeficientes reais. Se q(x) ̸= 0 então existem
polinômios com coeficientes reais m(x) e r(x) tais que

p(x) = q(x)m(x) + r(x),

onde r(x) ̸= 0, mas o seu grau é menor que o grau de q(x), ou r(x) = 0.
O polinômio p(x) é o dividendo, o q(x) é o divisor, m(x) é o quociente e o r(x) é o resto. Note
que se o resto for zero então q(x) | p(x).

Não demonstrarei esse lema, mas você pode se convencer de que isso é verdade através do exemplo
que fizemos antes desse lema e do próximo exemplo também. Note que no exemplo anterior o dividendo
era 2x3 + 5x2 + 4x + 1, o divisor era x + 1, o quociente era 2x2 + 3x + 1 e o resto deu 0.

Exemplo 9.2.4. Vamos obter o quociente e o resto da divisão de x3 + 4x + 2 por x2 + 1.

x3 + 4x + 2 |x2 + 1
−(x3 + x) x
3x + 2

Como 3x + 2 já tem grau menor que o divisor, podemos parar aqui e dizer que o resto é 3x + 2.
Portanto o quociente é x. Assim obtemos x3 + 4x + 2 = (x2 + 1).x + (3x + 2).

Exercı́cio 9.2.5. Sejam p(x) e q(x) polinômios com coeficientes reais. Suponha que ambos sejam
polinômios não nulos. Mostre que

a) grau(p(x).q(x)) = grau(p(x)) + grau(q(x)).

168
b) Se p(x) | q(x) e q(x) | p(x) então p(x) = λ.q(x), onde λ é um número real não nulo.

DICA: Use a letra a) para resolver a b).

Definição 9.2.6. Sejam p1 (x), . . . , pk (x) polinômios com coeficientes reais.

• Dizemos que z(x) ∈ R[x] é um divisor comum de p1 (x), . . . , pk (x) se

z(x) | p1 (x), . . . , z(x) | pk (x).

• Dizemos que m(x) é um máximo divisor comum de p1 (x), . . . , pk (x)

1. se m(x) é um divisor comum de p1 (x), . . . , pk (x)

2. e para qualquer outro polinômio n(x) que também seja divisor comum de p1 (x), . . . , pk (x)
temos que n(x) | m(x).

Denotaremos um máximo divisor comum desses polinômios por mdc(p1 (x), . . . , pk (x)).

Exercı́cio 9.2.7. Mostre que

a) Se m(x) é um máximo divisor comum de p1 (x), . . . , pk (x) então λ.m(x), onde λ ∈ R \ {0},
também é um máximo divisor comum de p1 (x), . . . , pk (x).

b) Se m(x) e n(x) são máximos divisores comuns de p1 (x), . . . , pk (x) então existe λ ∈ R \ {0} tal
que m(x) = λ.n(x).

Lema 9.2.8. Sejam p1 (x), . . . , pk (x) polinômios com coeficientes reais. Suponha que sejam polinômios
não nulos. Então mdc(p1 (x), . . . , pk (x)) = mdc(mdc(p1 (x), . . . , pk−1 (x)), pk (x)).

Demonstração :Chame

mdc(p1 (x), . . . , pk (x)) = p(x), mdc(p1 (x), . . . , pk−1 (x)) = q(x) e o mdc(q(x), pk (x)) = m(x).

Pela definição 9.2.6, p(x) divide p1 (x), . . . , pk (x). Então p(x) divide p1 (x), . . . , pk−1 (x). Mas isso
implica que p(x) | q(x) e p(x) | pk (x).

Novamente pela definição 9.2.6 , p(x) | mdc(q(x), pk (x)) = m(x).

Agora, m(x) | q(x). Mas como q(x) divide p1 (x), . . . , pk−1 (x) então m(x) também divide p1 (x), . . . , pk−1 (x).
Mas lembre-se que m(x) | pk (x).

169
Assim pela definição 9.2.6, m(x) | p(x).

Obtemos m(x) | p(x) e p(x) | m(x). Assim existe um λ ∈ R \ {0} tal que m(x) = λ.p(x), pela letra
b) do exercicio 9.2.7.

Note que λ.p(x) também é um mdc para p1 (x), . . . , pk (x), plea letra a) do exercı́cio 9.2.7.
Assim obtemos o resultado. ■

Vejamos agora um método para calcular um máximo divisor comum de polinômios.

Lema 9.2.9. Sejam p(x) e q(x) polinômios com coeficientes reais e ambos diferentes de zero.
Sejam m(x) e r(x) o quociente e o resto da divisão de p(x) por q(x), respectivamente. Então

1. Se r(x) = 0 então mdc(p(x), q(x)) = q(x).

2. Se r(x) ̸= 0 então mdc(p(x), q(x)) = mdc(q(x), r(x)).

Demonstração :Se r(x) = 0 então p(x) = m(x)q(x). Como q(x) = 1.q(x) então q(x) é divisor
comum de p(x) e q(x).
Seja n(x) outro divisor comum de p(x) e q(x) então n(x) divide q(x), ou seja, q(x) cumpre as
condições para ser mdc(p(x), q(x)) nessa situação.

Agora, se r(x) ̸= 0 então p(x) = m(x)q(x) + r(x).


Chame mdc(p(x), q(x)) = a(x) e o mdc(q(x), r(x)) = b(x).
Como a(x) | p(x) e a(x) | q(x) então p(x) = a(x)p1 (x) e q(x) = a(x)q1 (x), onde p1 (x) e q1 (x) são
polinômios com coeficientes reais.
Assim
r(x) = p(x) − m(x)q(x) = a(x)(p1 (x) − m(x)q1 (x)),

ou seja, a(x) é divisor comum de r(x) e q(x). Portanto a(x) divide b(x).

De maneira idêntica prova-se que b(x) é divisor comum de p(x) e q(x). Assim b(x) divide a(x).

Pelo exercı́cio 9.2.5, a(x) = λb(x) para algum λ ∈ R \ {0}.


Pelo exercı́cio 9.2.7, λb(x) também é um mdc(q(x), r(x)).
Assim mdc(p(x), q(x)) = mdc(q(x), r(x)). ■

170
Método das divisões sucessivas para calcular o mdc.

Sejam p(x) e q(x) polinômios com coeficientes reais e ambos diferentes de zero.

1. Sejam m0 (x) e r0 (x) o quociente e o resto da divisão de p(x) por q(x).

Se r0 (x) = 0 então mdc(p(x), q(x)) = q(x).

Se r0 (x) ̸= 0 então divida q(x) por r0 (x) .

2. Sejam m1 (x) e r1 (x) o quociente e o resto da divisão de q(x) por r0 (x).

Se r1 (x) = 0 então mdc(q(x), r0 (x)) = r0 (x). Portanto mdc(p(x), q(x)) = r0 (x) também.

Se r0 (x) ̸= 0 então divida r0 (x) por r1 (x) .

3. Sejam m2 (x) e r2 (x) o quociente e o resto da divisão de r0 (x) por r1 (x).

Se r2 (x) = 0 então mdc(r0 (x), r1 (x)) = r1 (x). Portanto mdc(p(x), q(x)) = r1 (x) também.

Se r2 (x) ̸= 0 então divida r1 (x) por r2 (x) e continue o processo.

Note que se r0 (x) ̸= 0 então grau(r0 (x)) < grau(q(x)).


Se r1 (x) ̸= 0 então grau(r1 (x)) < grau(r0 (x)).
Se r2 (x) ̸= 0 então grau(r2 (x)) < grau(r1 (x)).

Como os graus dos restos estão diminuindo eventualmente algum dos restos se anula. Quando
se anula um resto nós sabemos que mdc(p(x), q(x)) é resto anterior não nulo.

Exemplo 9.2.10. Vamos calcular um mdc de x3 + 4x + 2 e x2 + 1 através do método das divisões


sucessivas.

Algoritmo Euclides Divisor Resto


x3 + 4x + 2 = x.(x2 + 1) + (3x + 2) x2 + 1 3x + 2
x2 + 1 = 13 x.(3x + 2) + ( 31 ) 3x + 2 1
3

3x + 2 = (9x + 6).( 13 ) + 0 1
3 0

Como o resto da última divisão deu zero então mdc(3x + 2, 31 ) = 13 .

Mas sabemos que mdc(3x + 2, 31 ) = mdc(x2 + 1, 3x + 2) = mdc(x3 + 4x + 2, x2 + 1).

Portanto mdc(x3 + 4x + 2, x2 + 1) = 31 .

171
Lema 9.2.11. Sejam p(x) e q(x) polinômios com coeficientes reais e ambos diferentes de zero. Existem
polinômios com coeficientes reais a(x) e b(x) tais que mdc(p(x), q(x)) = a(x)p(x) + b(x)q(x).

Não irei demonstrar esse lema, porque é bem simples compreender de onde vêm esse polinômios
a(x), b(x), quando utilizamos o método das divisões sucessivas para encontrar o mdc de p(x) e q(x).
Vou mostrar através de um exemplo.
Vou repetir aqui a tabela das divisões sucessivas que foi utilizada no cálculo do mdc(x3 + 4x +
2, x2 + 1).

Algoritmo Euclides Divisor Resto


x3 + 4x + 2 = x.(x2 + 1) + (3x + 2) x2 + 1 3x + 2
x2 + 1 = 13 x.(3x + 2) + ( 13 ) 3x + 2 1
3

3x + 2 = (9x + 6).( 13 ) + 0 1
3 0

O mdc(x3 + 4x + 2, x2 + 1) está em vermelho na tabela.


Pela equação da primeira linha obtemos

3x + 2 = (x3 + 4x + 2) − x.(x2 + 1).

Substituindo essa informação na equação da segunda linha obtemos

x2
 
1 x −x 3
= x2 + 1 − .[(x3 + 4x + 2) − x.(x2 + 1)] = .(x + 4x + 2) + + 1 (x2 + 1).
3 3 3 3

−x x2
Assim a(x) = , b(x) = +1 e
3 3

a(x).(x3 + 4x + 2) + b(x).(x2 + 1) = mdc(x3 + 4x + 2, x2 + 1).

Lema 9.2.12. Sejam p1 (x), . . . , pk (x) polinômios com coeficientes reais e todos diferentes de zero.
Existem polinômios a1 (x), . . . , ak (x) com coeficientes reais tais que

mdc(p1 (x), . . . , pk (x)) = a1 (x)p1 (x) + . . . + ak (x)pk (x).

Demonstração :Já vimos que o resultado é verdadeiro quando k = 2 no lema 9.2.11.


Suponha que seja verdadeiro para k = n (hipótese de indução), vamos provar para k = n + 1.

Pelo lema 9.2.11 (caso k = 2),

mdc(mdc(p1 (x), . . . , pn (x)), pn+1 (x)) = a(x)mdc(p1 (x), . . . , pn (x)) + c(x)pn+1 (x).

172
Pelo caso k = n (hipótese de indução), existem polinômios b1 (x), . . . , bn (x) com coeficientes reais
tais que mdc(p1 (x), . . . , pn (x)) = b1 (x)p1 (x) + . . . + bn (x)pn (x).

Essa duas informações juntas implicam

mdc(mdc(p1 (x), . . . , pn (x)), pn+1 (x)) = a(x)b1 (x)p1 (x) + . . . + a(x)bn (x)pn (x) + c(x)pn+1 (x).

Mas já vimos no lema 9.2.8 que mdc(mdc(p1 (x), . . . , pn (x)), pn+1 (x)) = mdc(p1 (x), . . . , pn (x)).
Portanto encontramos os polinômios

a1 (x) = a(x)b1 (x), . . . , an (x) = a(x)bn (x), an+1 (x) = c(x).

Agora aproveitaremos o fato que estamos trabalhando somente com polinômios reais para provar
um resultado que será necessário na próxima seção. Antes lembre-se do teorema fundamental da
álgebra.

Teorema Fundamental da Álgebra

Teorema 9.2.13. Seja p(x) um polinômio com coeficientes reais com grau maior ou igual a 1.
Então ele pode ser escrito como p(x) = λ(x − a1 )n1 . . . (x − ak )nk , onde

• λ ∈ R \ {0},

• n1 , . . . , nk são números naturais e

• a1 , . . . , ak são as raı́zes distintas de p(x) que podem ser números complexos.

Tudo o que foi feito nessa seção foi para demonstrar o seguinte lema.

Lema 9.2.14. Seja p(x) = λ(x−a1 )n1 . . . (x−ak )nk , onde λ ∈ R\{0}, n1 , . . . , nk são números naturais
e a1 , . . . , ak são números reais distintos e k > 1. Seja qi (x) = p(x)/(x−ai )ni para i = 1, . . . , n. Existem
polinômios a1 (x), . . . , ak (x) com coeficientes reais tais que

a1 (x)q1 (x) + . . . + ak (x)qk (x) = 1.

Demonstração :Basta provar que o mdc(q1 (x), . . . , qk (x)) = 1 e usar o lema 9.2.12.
Para provar que o mdc(q1 (x), . . . , qk (x)) = 1, vamos ver que os únicos polinômios não nulos que
dividem q1 (x), . . . , qk (x) são os polinômios constantes.

173
Então um mdc(q1 (x), . . . , qk (x)) deve ser um polinômio constante, multiplicando pelo inverso dele
obtemos mdc(q1 (x), . . . , qk (x)) = 1, pelaletra b) do exercı́cio 9.2.7.
Suponha que q(x) tenha grau maior ou igual a 1 e divide todos os q1 (x), . . . , qk (x), isto é,

q(x)mi (x) = qi (x) = λ(x − a1 )n1 . . . (x − ai−1 )ni−1 (x − ai+1 )ni+1 . . . (x − ak )nk .

Como grau de q(x) é maior ou igual a 1, pelo teorema fundamental da álgebra, ele possui uma
raiz, que chamaremos de b. Assim q(b) = 0, o que implica que

0 = q(b)mi (b) = λ(b − a1 )n1 . . . (b − ai−1 )ni−1 (b − ai+1 )ni+1 . . . (b − ak )nk .

Mas o lado direito da igualdade só dá zero se b = a1 ou b = a2 ou . . . ou b = ak , mas b ̸= ai .


Isso é um problema porque variando o i, descobrimos que b ̸= ai para todo i = 1, . . . , k, mas ele
tinha que ser igual a um deles.
O erro veio de dizer que q1 (x), . . . , qk (x) tinham um divisor comum q(x) de grau maior ou igual a
1. Então todos os divisores comuns de q1 (x), . . . , qk (x) são constantes. ■

9.3 Teorema da Decomposição Primária e de Cayley-Hamilton

Vimos anteriormente como calcular o núcleo de uma transformação linear. Aqui aprenderemos
como calcular o núcleo de um polinômio de um operador linear.

Polinômio de um operador linear

Definição 9.3.1. Seja T : V → V um operador linear.

1. Defina T 0 como sendo o operador identidade T 0 (v) = Id(v) = v.

2. Defina T n como sendo o operador linear T n : V → V como


n vezes
z }| {
n
T (v) = T (. . . T (T (v)) . . .) .

Pk n
3. Se p(x) = n=0 an x é um polinômio com coeficientes reais, definimos o operador linear
p(T ) : V → V como
k
X
p(T )(v) = an T n (v) = a0 v + a1 T (v) + a2 T 2 (v) + . . . + an T n (v).
n=0

O que estamos fazendo aqui é substituindo o x por T e o termo contante a0 pelo operador a0 Id.

174
Exercı́cio 9.3.2. Seja T : V → V um operador linear. Sejam p(x), q(x), m(x) polinômios com
coeficientes reais. Mostre que

a) se p(x) = (x − a) então p(T ) = T − aId.

b) se q(x) = (x − a)m(x) então q(T ) = (T − aId)m(T ).

c) se m(x) = λ(x − a1 )n1 . . . (x − ak )nk então m(T ) = λ(T − a1 Id)n1 . . . (T − ak Id)nk .

Teorema da Decomposição Primária

Teorema 9.3.3. Seja p(x) = λ(x−a1 )n1 . . . (x−ak )nk onde λ ∈ R\{0}, n1 , . . . , nk são números
naturais e a1 , . . . , ak são números reais distintos. Se T : V → V é um operador linear então

N uc(p(T )) = N uc((T − a1 Id)n1 ) ⊕ . . . ⊕ N uc((T − ak Id)nk ).

Demonstração :Sejam qi (x) = p(x)/(x − ai )ni para i = 1, . . . , k.


Vimos no lema 9.2.14 que existem polinômios ai (x) para i = 1, . . . , k, tais que

a1 (x)q1 (x) + . . . + ak (x)qk (x) = 1.

Substituindo x por T , obtemos o operador

a1 (T )q1 (T ) + . . . + ak (T )qk (T ) = Id.

Portanto para todo v ∈ V temos

a1 (T )q1 (T )(v) + . . . + ak (T )qk (T )(v) = v (9.1)

Chame ai (T )qi (T )(v) = vi para i = 1, . . . , k. Assim v = v1 + . . . + vk .

Suponha agora que v ∈ N uc(p(T )). Veja que


p(T )
z }| {
(T − ai Id)ni vi = (T − ai Id)ni ai (T )qi (T )v = ai (T ) (T − ai Id)ni qi (T ) (v) = ai (T )(0V ) = 0V .

Acabamos de provar que vi ∈ N uc((T − ai Id)ni ) para i = 1, . . . , k.

Concluı́mos que todos os vetores do N uc(p(T )) podem ser escritos como soma de vetores dos
N uc((T − ai Id)ni ), isto é,

N uc(p(T )) ⊂ N uc((T − a1 Id)n1 ) + . . . + N uc((T − ak Id)nk ).

175
Agora se w ∈ N uc((T − ai Id)ni ) então

p(T )(w) = qi (T )(T − ai Id)ni (w) = qi (T )(0V ) = 0V ,

isto é, w ∈ N uc(p(T )).


Provamos que N uc((T − ai Id)ni ) ⊂ N uc(p(T )) para i = 1, . . . , k. Assim

N uc((T − a1 Id)n1 ) + . . . + N uc((T − ak Id)nk ) ⊂ N uc(p(T )).

Isso prova que

N uc((T − a1 Id)n1 ) + . . . + N uc((T − ak Id)nk ) = N uc(p(T )).

Falta provar que o N uc(p(T ) é soma direta dos subespaços N uc((T − ai Id)ni ) para i = 1, . . . , k.

Suponha que o mesmo v seja igual a w1 + . . . + wn , onde wi ∈ N uc((T − ai Id)ni ) para i = 1, . . . , k.


Vamos provar que wi = vi para todo i, isto é, cada vetor do N uc(p(T )) só pode ser escrito de uma
única maneira como soma de vetores dentro dos N uc((T − ai Id)ni ).

Observe que qi (T ) = λ(T − a1 Id)n1 . . . (T − ai−1 Id)ni−1 (T − ai+1 Id)ni+1 . . . (T − ak Id)nk .

Se j ̸= i então (T − aj Id)nj faz parte dessa composição que forma qi (T ), posso passá-lo para o fim
da composição porque esses operadores comutam, isto é, qi (T ) = m(T )(T − aj Id)nj , onde

m(T ) = λ(T − a1 Id)n1 . . . (T − ai−1 Id)ni−1 (T − ai+1 Id)ni+1 . . . (T − aj−1 Id)nj−1 (T − aj+1 Id)nj+1 . . . (T − ak Id)nk .

Como wj ∈ N uc((T − aj Id)nj ) temos

qi (T )(wj ) = m(T )(T − aj Id)nj (wj ) = m(T )(0V ) = 0V .

Provamos algo importantı́ssimo, qi (T )(wj ) = 0V sempre que i ̸= j. Isso implica em duas coisas:

1. wj = a1 (T )q1 (T )(wj ) + . . . + ak (T )qk (T )(wj ) = aj (T )qj (T )(wj ), pela equação 9.1, e

2. aj (T )qj (T )(v) = aj (T )qj (T )(w1 + . . . + wk ) = aj (T )qj (T )(wj )

Essa duas informações juntas dão wj = aj (T )qj (T )(v). Lembre-se que aj (T )qj (T )(v) = vj . ■

176
Resolvendo equações diferencias com o teorema da decomposição primária
·· ·
A seguinte equação é um exemplo de equação diferencial: y −5 y +6y = 0.

A letra y representa uma função y = y(t) e cada ponto em cima de y significa uma derivada
com respeito a t. Resolver uma equação diferencial significa encontrar todas as possı́veis funções
y = y(t) que a satisfazem.
· ··
Podemos substituir os pontos sobre y pelo operador derivada D(y) = y e D2 (y) = D(D(y)) = y .

Assim aquela equação diferencial fica (D2 − 5D + 6Id)(y) = 0, ou seja, resolvê-la significa
encontrar todos os vetores do N uc(p(D)), onde p(x) = x2 − 5x + 6.

Observe que x2 − 5x + 6 = (x − 2)(x − 3). Pelo teorema da decomposição primária,

N uc(p(D)) = N uc(D − 2Id) ⊕ N uc(D − 3Id). (9.2)

·
Agora N uc(D − λId) = {y(t), y (t) = λy(t)}.
·
Podemos dividir ambos os lados de y (t) = λy(t) por y(t) e integrar:
·
y (t)
Z Z
dt = λdt.
y(t)

O lado esquerdo resulta em ln(y(t)) e o lado direito resulta em λt + c, isto é, ln(y(t)) = λt + c.
Assim y(t) = eλt+c = Aeλt , onde A = ec é uma contante. Isso significa que

N uc(D − λId) = {Aeλt , A ∈ R}.

Finalmente, substituindo λ = 2 e 3 no conjunto acima obtemos

N uc(p(D)) = N uc(D − 2Id) ⊕ N uc(D − 3Id) = {Ae2t + Be3t , onde A, B ∈ R}.

Exercı́cio 9.3.4. Resolva as seguintes equações diferenciais.


·· ·
1. y − y = 0.
·· ·
2. y −3 y +2y = 0.
··· ·· ·
3. y −3 y +6 y = 0.

177
Resolvendo relações de recorrência com o teorema da decomposição primária

A seguinte equação é um exemplo de relação de recorrência: an+2 = 5an+1 − 6an .


Resolvê-la significa encontrar todas as sequências de números reais (an )n∈N que satisfazem essa
equação.
Considere o seguinte operador linear T : RN → RN ,

T ((a1 , a2 , a3 , . . .)) = (a2 , a3 , a4 , . . .).

Podemos escrevê-lo assim T ((an )n∈N ) = (an+1 )n∈N e note que

T 2 ((an )n∈N ) = T (T ((an )n∈N )) = (an+2 )n∈N .

Observe que as sequências (an )n∈N que satisfazem a relação de recorrência an+2 = 5an+1 − 6an
são as mesmas que satisfazem

T 2 ((an )n∈N ) − 5T ((an )n∈N ) + 6(an )n∈N = (0)n∈N .

Isto é, resolver essa relação é o mesmo que encontrar todas as sequências que pertecem ao
N uc(p(T )), onde p(x) = x2 − 5x + 6.

Observe que x2 − 5x + 6 = (x − 2)(x − 3). Pelo teorema da decomposição primária,

N uc(p(T )) = N uc(T − 2Id) ⊕ N uc(T − 3Id). (9.3)

Agora

N uc(T − λId) = {(an )n∈N , (an+1 )n∈N = (λan )n∈N } = {(a1 λn−1 )n∈N , a1 ∈ R}.

Finalmente, substituindo λ = 2 e 3 no conjunto acima obtemos pela equação 9.3

N uc(p(T )) = N uc(T − 2Id) ⊕ N uc(T − 3Id)


= {a1 (2n−1 )n∈N + b1 (3n−1 )n∈N , onde a1 , b1 ∈ R}.

Exercı́cio 9.3.5. Resolva as seguintes relações de recorrência.

1. an+2 = an+1

2. an+2 = 3an+1 − 2an

3. an+3 = 3an+2 − 2an+1

178
A seguir provaremos um teorema importantı́ssimo.

Teorema de Cayley-Hamilton

Teorema 9.3.6. Seja V um espaço vetorial real de dimensão finita e T : V → V um ope-


rador linear. Seja p(x) o polinômio caracterı́stico do operador T . Então p(T ) = 0, ou seja,
N uc(p(T )) = V .

Demonstração :Seja α uma base ordenada qualquer de V com n vetores. Então

p(x) = det([T ]αα − xId).

Pn i
Escreva p(x) = i=0 pi x .
Pn
Provaremos que p([T ]αα ) = α i
i=0 pi ([T ]α ) = 0n×n .
Pelo corolário 6.3.6, ([T ]αα )i = [T i ]αα . Portanto
n
" n

X X
0n×n = p([T ]αα ) = pi ([T i ]αα ) = pi T i
.
i=0 i=0 α

O único operador cuja matriz na base α é 0n×n é o operador nulo. Assim p(T )(v) = 0V para todo
v ∈V.
Para simplificar a notação chame B = [T ]αα . Vamos mostrar o que falta, isto é,
n
X
p(B) = pi B i = 0n×n .
i=0

Como a adjunta clássica é a transposta da matriz dos cofatores então

Adj(B − xId)ij = Cof (B − xId)ji = det(∆ji ).

Lembre-se que det(∆ji ) é o determinante de B − xId sem a linha j e a coluna i.


Note que ao retiramos a linha j e a coluna i de B − xId sobra uma matriz que tem no máximo
n − 1 incógnitas x dentro dela. Isso significa que Adj(B − xId)ij é um polinômio em x de grau no
máximo n − 1.
Assim podemos escrever

Adj(B − xId) = Bn−1 xn−1 + Bn−2 xn−2 + . . . + B1 x1 + B0 ,

onde Bi são matrizes n × n com coeficientes reais.

Portanto

179
(B − xId)Adj(B − xId) = (B − xId)(Bn−1 xn−1 + Bn−2 xn−2 + . . . + B1 x1 + B0 )

= (BBn−1 xn−1 − Bn−1 xn ) + (BBn−2 xn−2 − Bn−2 xn−1 ) + . . . + (BB1 x − B1 x2 ) + (BB0 − B0 x).

Assim (B − xId)Adj(B − xId) =

= −Bn−1 xn + (BBn−1 − Bn−2 )xn−1 + (BBn−2 − Bn−3 )xn−2 + . . . + (BB1 − B0 )x + (BB0 ). (9.4)

Pelo teorema 4.7.3, (B − xId)Adj(B − xId) = det(B − xId)Id = p(x)Id =

= (pn Id)xn + (pn−1 Id)xn−1 + (pn−2 Id)xn−2 + . . . + (p1 Id)x + (p0 Id). (9.5)

Comparando as equações 9.4 e 9.5 e igualando as matrizes que estão ao lado das mesmas potências
de x, obtemos as relações descritas na coluna da esquerda. Multiplicando cada uma dessas relações
pelas matrizes descritas na coluna do meio obtemos as matrizes da coluna da direita.

×B n n B = p B n
−Bn−1 = pn Id =⇒ −B
  n−1 n
×B n−1
B nB B n−1
Bn−2 = pn−1 B n−1


BBn−1 − Bn−2 = pn−1 Id =⇒  n−1 − 
 
.. .. ..
. . .
×B
BB1 − B0 = p1 Id =⇒ B 2B1 − 
BB=p B


0 1
×Id
BB0 = p0 Id =⇒ BB

0 = p0 Id


0n×n = p(B)

Somando as matrizes da última coluna, elas se cancelam e o resultado dá 0n×n = p(B). ■

9.4 Forma de Jordan

Chegou a hora de juntar o que fizemos sobre operadores nilpotentes e os teoremas da decomposição
primária e de Cayley-Hamilton.

Definição 9.4.1. Chamamos a seguinte matrix de bloco de Jordan de ordem n associado ao autovalor
λ:  
λ 1 0 0 . . . 0
 
0 λ 1 0 . . . 0
 
. . .. .. ..
 .. ..

. . . 0
J = .
 

0 0 ... λ 1 0
 
 
0 0 ... 0 λ 1
 
 
0 0 ... 0 0 λ
n×n

180
Exemplos 9.4.2. As seguintes matrizes são blocos de Jordan de ordem 1 , 2 e 3, respectivamente
 
  2 1 0
3 1  
(5)1×1 , , 0 2 1 
   
0 3  
2×2 0 0 2
3×3

Observação 9.4.3. Provamos no exercı́cio 9.0.1 que se um operador linear T : R2 → R2 não


2
 mas possuir um único autovalor λ ∈ R, então existe uma base do R tal que
for diagonalizável,

λ 1
[T ]αα =  , isto é, [T ]αα é um bloco de Jordan de ordem 2.
0 λ

Definição 9.4.4. Dizemos que uma matriz A possui o formato de Jordan se


 
J1 0s1 ×s2 . . . 0s1 ×st
 
0s2 ×s1 J2 . . . 0s2 ×st 
 
A= .

.. . ..  ,

 . . . . . . 
 
0st ×s1 0st ×s2 ... Jt
onde cada Ji é um bloco de Jordan.

Exemplo 9.4.5. A seguinte matriz A está na forma de Jordan. Note que ela é formada por 4 blocos
de Jordan. O primeiro deles é associado ao autovalor 5, o segundo e o terceiro são associados ao
autovalor 3 e o quarto ao autovalor 2.
 
5 0 0 0 0 0 0 0 0
 
 
 0 3 1 0 0 0 0 0 0 
 
 
 0 0 3 0 0 0 0 0 0 
 
 
 0 0 0 3 1 0 0 0 0 
 
 
A=  0 0 0 0 3 1 0 0 0 

 
 0 0 0 0 0 3 0 0 0 
 
 
 0 0 0 0 0 0 2 1 0
 

 
 0 0 0 0 0 0 0 2 1
 

 
0 0 0 0 0 0 0 0 2

Observação 9.4.6. Se cada bloco de Jordan, Ji , tiver ordem 1 então o formato de Jordan é o
formato diagonal.

181
Teorema da Forma de Jordan
Teorema 9.4.7. Seja V um espaço vetorial real de dimensão finita e T : V → V um operador
linear. Suponha que os autovalores de T sejam todos números reais. Existe uma base ordenada
α de V tal que [T ]αα tem o formato de Jordan, isto é,
 
J1 0s1 ×s2 . . . 0s1 ×st
 
0s2 ×s1 J2 . . . 0s2 ×st 
 
α
[T ]α =  . .. .. ,
 
 .. ..
. . . 
 
0st ×s1 0st ×s2 . . . Jt

onde cada Ji é um bloco de Jordan associado a algum autovalor de T .

Demonstração :Como os autovalores de T são números reais então as raı́zes do seu polinômio
caracterı́stico são todas reais. Seja p(x) seu polinômio caracterı́stico. Pelo teorema 9.2.13, p(x) =
λ(x − a1 )n1 . . . (x − ak )nk , onde

• λ ∈ R \ {0},

• n1 , . . . , nk são números naturais e

• a1 , . . . , ak são as raı́zes distintas de p(x) que por hipótese são números reais.

Pelo teorema 9.3.6, p(T ) = 0, ou seja, Núcleo(p(T )) = V .

Então, pelo teorema 9.3.3,


V = V1 ⊕ . . . ⊕ Vk ,

onde Vi = N uc((T − ai Id)ni ) para i = 1, . . . , k.

Observe que se v ∈ Vi então (T − ai Id)(v) ∈ Vi também, pois

(T − ai Id)ni ((T − ai Id)(v)) = (T − ai Id)ni +1 (v)

= (T − ai Id)((T − ai Id)ni (v))


| {z }
= 0V , pois v∈Vi

= (T − ai Id)(0V ) = 0V .

Então podemos reduzir o domı́nio e o contradomı́nio de T − ai Id a Vi , isto é, T − ai Id : Vi → Vi .

Agora observe que (T − ai Id)ni : Vi → Vi é o operador nulo, pois Vi = N uc((T − ai Id)ni ). Isso
significa que T − ai Id : Vi → Vi é nilpotente.

182
Então existe uma base ordenada αi para Vi como obtida no teorema 9.1.10 cuja matriz

 
N1 0s1 ×s2 . . . 0s1 ×st
 
0s2 ×s1 N2 . . . 0s2 ×st 
 
[T − ai Id]ααii =
 .. .. .. ..  ,

 . . . . 
 
0st ×s1 0st ×s2 ... Nt
.
onde Ni são blocos de Jordan associados ao autovalor 0.
Note que ai Id também envia vetores de Vi em vetores de Vi . Assim T = (T − ai Id) + ai Id envia
vetores de Vi em vetores de Vi . Podemos reduzir o domı́nio de T a cada um dos Vi , T |Vi : Vi → Vi .

Então [T |Vi ]ααii = [T − ai Id + ai Id]ααii = [T − ai Id]ααii + [ai Id]ααii =


 
J1 0s1 ×s2 . . . 0s1 ×st
 
0s2 ×s1 J2 . . . 0s2 ×st 
 
= ai Id + [T − ai Id]ααii =
 .. .. .. ..  .

 . . . . 
 
0st ×s1 0st ×s2 ... Jt

Note que Ji = ai Id + Ni , que é um bloco de Jordan associado ao autovalor ai .

Finalmente, como V = V1 ⊕ . . . ⊕ Vk então α = α1 ∪ . . . ∪ αk é uma base para V , pela demonstração


do lema 6.5.4, e

 
[T |V1 ]αα11 0m1 ×m2 . . . 0m1 ×mk
 
 0m2 ×m1 [T |V2 ]αα22 . . . 0m2 ×mk 
 
α
[T ]α =  .. .. .. ..
.
.
 

 . . . 

0mk ×m1 0mk ×m2 α
. . . [T |Vk ]αk
k

183
Referências Bibliográficas

[1] S. Axler, Linear Algebra Abridged. Disponı́vel gratuitamente para download na página.
http://linear.axler.net/LinearAbridged.pdf

[2] J.G. Broida and S. G. Williamson, Comprehensive Introduction to Linear Algebra Parts I,II,III.
Disponı́vel gratuitamente para download em https://cseweb.ucsd.edu/ gill/CILASite/

[3] J. C. Pellegrini, Álgebra Linear com Aplicações. Disponı́vel gratuitamente para download em
https://aleph0.info/cursos/al/notas/al.pdf

[4] J. Delgado e K. R. F. Delgado, Introdução à Álgebra Linear.


http://www.professores.uff.br/katiafrensel/wp- content/uploads/sites/115/2017/08/alglin.pdf

[5] C. A. Callioli, H.H. Domingues e R.C.F. Costa, Álgebra Linear e Aplicações. 6a. ed. São Paulo:
Atual Editora, 1990.

[6] J.L. Boldrini, S.I.R. Costa, V.L. Figueiredo e H.G. Wetzler. Álgebra Linear. 3a. ed. São Paulo:
Harbra, 1986.

[7] T.M. Apostol, Cálculo. Rio de Janeiro: Reverté, 1979-1981. vol. 2

184

Você também pode gostar