Escolar Documentos
Profissional Documentos
Cultura Documentos
2 Sistemas Lineares 21
2.1 Resolvendo Sistemas Lineares: Operações Elementares . . . . . . . . . . . . . . . . . . 23
2.2 Tipos de Solução de um Sistema Linear . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3 Matrizes 35
3.1 Sı́mbolo que representa uma função . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2 Operações com Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.3 Propriedades da soma, do produto de matrizes e do produto por números reais. . . . . 43
3.4 Matrizes Inversas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.5 Método para calcular inversa de uma matriz. . . . . . . . . . . . . . . . . . . . . . . . 49
3.6 A Matriz Transposta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.7 Matrizes Elementares: Átomos das matrizes invertı́veis . . . . . . . . . . . . . . . . . . 54
4 Função Determinante 59
4.1 Determinante é uma função . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.2 Como as operações elementares nas linhas afetam o determinante? . . . . . . . . . . . 66
4.3 Teoremas Importantes sobre Determinante . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.4 Expansão de Laplace nas colunas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
2
4.5 Como as operações elementares nas colunas afetam o determinante? . . . . . . . . . . 72
4.6 A matriz de Hilbert (Curiosidade) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.7 A Adjunta Clássica da matriz A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.8 Área de triângulos usando determinantes (Curiosidade) . . . . . . . . . . . . . . . . . 80
5 Espaços Vetoriais 84
5.1 Definição e Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.2 Subespaços Vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.3 Conjuntos geradores e bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.4 Teoremas importantes sobres bases e conjuntos geradores . . . . . . . . . . . . . . . . 98
5.5 Coordenadas e matriz mudança de coordenadas . . . . . . . . . . . . . . . . . . . . . . 104
3
Capı́tulo 1
Podemos multiplicar vetores por números reais. Se v é um vetor então 2v é o vetor paralelo a
v apontando na mesma direção que v, mas com o dobro do seu comprimento. De modo geral, se
quisermos multiplicar um vetor v por qualquer número positivo x, basta obter um vetor w paralelo
a v, apontando na mesma direção cuja a razão entre os comprimentos de w e de v é x. É claro que
chamamos w = x.v.
4
Se quisermos multiplicar v por −1, basta trocar o sentido da seta para obter (−1).v. Na figura
anterior a = (−1).v. De maneira geral, se quisermos multiplicar v por um número negativo, basta
multiplicá-lo pelo módulo desse número negativo e depois trocar o sentido da seta. Isto é, (−2).v =
(−1).(2v)
E o vetor 0.⃗v ? Ele seria um vetor de comprimento nulo, ou seja, apenas um ponto. Denotaremos
esse vetor por ⃗0.
Além de multiplicar vetores por números também podemos somá-los. A soma é um pouco diferente
mas está de acordo com a nossa multiplicação, isto é, v + v = 2v.
Para somar v +v colocamos o fim do segundo vetor v no inı́cio do primeiro e traçamos um segmento
desde o fim do primeiro até o inı́cio do segundo e formamos o vetor v + v. Agora se v e w são vetores
diferentes fazemos a mesma coisa para somar v + w. Desenhamos vetor w junto a vetor v como na
figura a seguir e depois traçamos um vetor ligando o fim do vetor v e o inı́cio do w.
5
Note que v + ⃗0 = v, pois para fazer essa soma devemos desenhar um ponto no final de v, obtendo
o próprio v.
O que acontece quando somamos v + (−1).v? Devemos desenhar o fim do vetor (−1).v no inı́cio
de v. Note que o fim de v e o inı́cio de (−1).v coincidem, ou seja, o vetor v + (−1).v é o vetor sem
comprimento. Portanto v + (−1).v = ⃗0.
E se quisermos somar vários vetores, por exemplo v + w + r? Podemos fazer de dois em dois, isto
é, (v + w) + r.
Na figura acima podemos ver alguns fatos sobre essa soma: v +w = w +v, (v +w)+r = v +(w +r).
Além disso, podemos ver que para somar vários vetores também podemos por todos eles um atrás
do outro (concatenados), sem se importar com ordem na soma e ligar o fim do primeiro com o inı́cio
do último.
Também podemos subtrair dois vetores v, w fazendo simplesmente v − w = v + (−1).w. Em
particular ⃗0 − v = ⃗0 + (−1).v = (−1)v, ou seja, −v será o vetor (−1).v.
Essa soma e esse produto satisfazem as seguintes propriedades:
Sejam v, w, r vetores e a, b números reais.
6
Definição 1.1.1. Sejam v1 , v2 , . . . , vn vetores e a1 , a2 , . . . , an números reais. Dizemos que o vetor
v = a1 v1 + a2 v2 + . . . + an vn
é uma combinação linear de v1 , v2 , . . . , vn . Isto é, um vetor é uma combinação linear de outros vetores
se ele for uma soma de múltiplos desses outros.
Fato Belı́ssimo
Sejam v, w vetores num plano não paralelos e não nulos. Então qualquer outro vetor do mesmo
plano é uma combinação linear de v, w.
Justificativa: Veja a figura a seguir. Note que v e w não são paralelos. Desenhe os vetores v e
w juntos ao r. O inı́cio do v junto ao inicio do r e o final de w junto ao final de r. Trace as retas
contendo v e w nessa posições.
Elas se interceptam num ponto e partir desse ponto você obtém os vetores i e h conforme a seguinte
figura. Note que i = aw, pois i e w são paralelos e h = bv, pois v e h são paralelos. Finalmente note
que r = i + h = aw + bv, ou seja, r é uma combinação de w e v.
Como r é um vetor qualquer do plano, isso prova que todo vetor do plano é combinação linear de
v e w.
7
PERGUNTA 1: Vimos que dados dois vetores não paralelos e não nulos do plano então as
suas combinações lineares dão todos os vetores do plano. Será que todas as combinações lineares
de um único vetor não nulo já não dariam todos os vetores do plano?
RESPOSTA: Não. Todas as combinações lineares do vetor v são do tipo a1 v+a2 v+. . .+an v =
(a1 + . . . + an )v. Isto é, são múltiplos de v portanto paralelos a v. E os que não são paralelos,
como obterı́amos eles? Precisamos de no mı́nimo 2 vetores.
Note que S pode ter mais vetores do que necessário para formar o espaço vetorial. Por exemplo,
suponha que S tem três vetores no plano que aos serem combinados dão todos os vetores do
plano, ou seja, o espaço vetorial são os vetores do plano. Você sabe que esses três vetores
não podem ser todos paralelos pois combinando-os você não obteria todos os vetores do plano.
Portanto existem pelo menos 2 desses 3 que são não nulos e não paralelos. Com esses 2 você já
gera todos os vetores do plano.
O número mı́nimo de vetores em S necessários para gerar o mesmo espaço vetorial que o S gera
é chamado de dimensão do espaço vetorial. Então a dimensão dos vetores do plano é 2 a
dimensão dos vetores do espaço é 3.
8
Um sistema de coordenadas para a reta consiste em um ponto que será chamado de origem. Uma
seta para indicar a direção positiva da reta e a escolha de um ponto para corresponder ao número 1.
Com esse sistema cada ponto da reta corresponde a um número real, que é a sua coordenada.
Um sistema de coordenadas para o plano consiste em duas retas perpendiculares que se inter-
ceptam na origem e sobre elas desenhamos um sistema de coordenadas. Agora cada ponto do plano
corresponde a um par de números reais. O conjunto de todas essas duplas é denotado por R2 .
Um sistema de coordenadas para o espaço consiste em três retas perpendiculares que se intercep-
tam em um ponto que será a origem. Sobre cada uma das retas desenha-se um sistema de coordenadas.
Agora cada ponto do espaço corresponde a uma tripla de números reais. O conjunto de todas essas
triplas é denotado por R3 .
(1) Além dos pontos do plano, as setas desenhadas nele também podem ser representadas por um
par de números da seguinte maneira. Veja a figura abaixo. O vetor u sai de A e chega emB. Ele
4
precisa andar 4 para direita e 3 pra cima. Então dizemos que as coordenadas de u são .
3
OBS: Se quisermos
as coordenandas de 2.u = u + u basta somar as coordenadas
de u duas vezes,
2.4 x.4
ou seja, . O mesmo vale para qualquer x.u, suas coordenadas são .
2.3 x.3
9
OBS: Saindo do ponto A andando o vetor u chegamos no ponto cuja as coordenadas são a soma
das coordenadas de A e de u. Escrevemos então que B = A + u. Note que para obter as coor-
denadas do vetor u que liga A a B basta subtrair das coordenadas de B as de A, isto é, u = B−A.
10
(1) v + w = w + v (4) v + (−v) = ⃗0 (7) a.(b.v) = (a.b).v
(2) v + (w + r) = (v + w) + r (5) a.(v + w) = a.v + a.w (8) 1.v = v
(3) v + ⃗0 = v (6) (a + b).v = a.v + b.v (9) 0.v = ⃗0
Parametrização da reta
Considere a reta que sai de A e anda na direção de u. Dizemos que u é seu vetor diretor e que
A é um dos seus pontos. Veja figura abaixo. Note na figura abaixo que B, B ′ , A′ são pontos da
reta que tem vetor diretor u que passa por A. Note que
B = A + u, B ′ = A + 2u e A′ = A + (−1)u.
Todos esses pontos possuem o mesmo formato: A + tu, com t ∈ R. Por quê?
Porque saindo de A andando um certo múltiplo de u chegamos em qualquer ponto dessa reta.
A fórmula A + tu, t ∈ R, é a parametrização dessa reta.
Se a partir de um ponto você anda apenas numa direção a trajetória vai ser uma reta no plano, no
11
espaço e etc. Isso significa que A + tu, t ∈ R, representa uma reta em qualquer Rn . A única diferença
é a quantidade de coordendas de A e de u que você vai precisar. No Rn a quantidade de coordenadas
é n.
Por exemplo: Variando t ∈ R, a fórmula
5 1 5 1
4 1 4 1
3 + t 1 te dá os pontos da reta que contém 3 e tem vetor diretor 1 lá no
2 1 2 1
1 1 1 1
R5 .
Parametrização do Plano
Agora se sairmos de um ponto A e andarmos na direção dos vetores u e v, onde u e v não são
múltiplos e nem são nulos, obteremos um plano. Dizemos que esse plano contém A e possui
vetores diretores ⃗u, ⃗v . Veja figura abaixo.
Se B é um ponto desse plano então w = B − A é o vetor que ligar A a B. Sabemos que os
vetores ⃗u, ⃗v podem ser combinados linearmente para obter w, isto é, existem x, y ∈ R tais que
B − A = x⃗u + y⃗v . Assim B = A + x⃗u + y⃗v , qualquer ponto desse plano pode ser escrito da
mesma maneira, basta variar x, y.
Assim a equação paramétrica de um plano fica A + x⃗u + y⃗v , x, y ∈ R.
12
Se a partir de um ponto você andar na direção de dois vetores (não nulos e não paralelos) a
trajetória vai ser um plano não importando aonde você estiver trabalhando: no plano, no espaço e
etc.
Isso significa que A+xu+yv, x, y ∈ R, representa um plano em qualquer Rn . A única diferença é a
quantidade de coordendas de A, de u e de v que você vai precisar. No Rn a quantidade de coordenadas
é n.
Por exemplo: Variando x, y ∈ R, a fórmula
5 1 1 5
4 1 0 4
3 +x 1 +y 1 te dá os pontos do plano que contém 3 e tem vetores diretores
2 1 0 2
1 1 1 1
1 1
1 0
1 , 1 lá no R5 .
1 0
1 1
13
1.5 O problema geométrico da interseção
a
Exercı́cio 1.5.1. Encontre que pertence as retas
b
1 2 4 −4 1 2 3 4
a) + x e +y c) + x e +y
2 2 3 4 2 2 4 4
1 2 4 4
b) + x e +y
2 2 3 4
a 1 2 4 −4
= + x = +y . (1.1)
b 2 2 3 4
1 2 4 −4
Portanto + x = +y .
2 2 3 4
1 + 2x = 4 − 4y 2x + 4y = 3
⇒
2 + 2x = 3 + 4y 2x − 4y = 1
a 1 2 3
Agora substuindo x = 1 na equação 1.1 obtemos = + 1 = .
b 2 2 4
Se você tivesse encontrado o valor de y e substuı́do na equação 1.1 o resultado seria igual.
14
b) Buscamos x e de y tais que
a 1 2 4 4
= + x = +y . (1.2)
b 2 2 3 4
1 2 4 4
Portanto + x = +y .
2 2 3 4
1 + 2x = 4 + 4y 2x − 4y = 3
⇒
2 + 2x = 3 + 4y 2x − 4y = 1
a 1 2 3 4
= + x = +y . (1.3)
b 2 2 4 4
1 2 3 4
Portanto + x = +y .
2 2 4 4
1 + 2x = 3 + 4y 2x − 4y = 2
⇒
2 + 2x = 4 + 4y 2x − 4y = 2
15
Assim x = 2y +1, ou seja, só existe restrição para o x e o y pode ser qualquer número. Substituindo
esse valor de x na equação 1.3 obtemos
a 1 2
= + (2y + 1) .
b 2 2
1 2 3 4
+ (2y + 1) = +y , y ∈ R,
2 2 4 4
x−1
Se você substituir o valor do y = , na equação da segunda reta, você obteria a interseção
2
sendo a primeira reta. Isso significa que as retas são a iguais. Você poderia ter visto isso de maneira
geométrica.
3
• O ponto de partida da segunda reta, o ponto , está na primeira reta, basta escolher x = 1.
4
4 2
• Os vetores diretores de ambas as retas são paralelos, = 2. . As duas retas andam
4 2
na mesma direção.
16
Observação 1.5.2. No problema de interseção de duas retas no R2 , vimos 3 possibilidades de
interseção: 1 ponto, nenhum ponto e uma reta.
Para resolver esse problema geométrico tivemos que encontrar os valores de x, y que satisfaziam
simultaneamamente
Os únicos x, y que satisfaziam I deram origem ao único ponto de interseção das retas. A falta
de x, y satisfazendo II , mostrou que não existia interseção entre as retas. O infinitos valores
Em diversos problemas de geometria analı́tica precisamos de uma boa maneira de medir ângulo
entre vetores sabendo apenas as suas coordenadas. isso era obtido com o produto escalar.
17
Queremos saber que ângulo é esse sabendo apenas as coordenandas de u e v.
Para isso precisamos da lei dos cossenos. Ela diz que
|u − v|2 = |u|2 + |v|2 − 2|u|.|v| cos(θ), onde |w| significa o comprimento do vetor w.
Primeiro caso: u, v ∈ R2
u1 v1 u1 − v1
Assim u = , v = e u−v = .
u2 v2 u2 − v2
p p p
|u| = u21 + u22 , |v| = v12 + v22 e |u − v| = (u1 − v1 )2 + (u2 − v2 )2 .
p p
2 v12 + u 2 v22 = u 2 v12 + u 2 v22 − 2 u21 + u22 v12 + v22 cos(θ)
1 − 2u1 v1 +
Assim u 2 − 2u2 v2 + 1 + 2 +
u1 v1 + u2 v2
Portanto cos(θ) = p 2 p .
u1 + u22 v12 + v22
Segundo caso: u, v ∈ Rn
u1 v1 + u2 v2 + . . . + un vn
Repetindo a mesma conta chegaremos que cos(θ) = p 2 p .
u1 + u22 + . . . + u2n v12 + v22 . . . + vn2
u v
1 1
. .
Definição 1.6.1. Sejam u = .. e v = .. vetores do Rn . Definimos o produto interno (ou o
un vn
⟨u, v⟩
produto escalar) de u, v por ⟨u, v⟩ = u1 v1 + u2 v2 + . . . + un vn . Portanto o cos(θ) = , onde θ é o
|u|.|v|
menor ângulo entre ue v. Note que o menor ângulo entre 2 vetores satisfaz 0 ≤ θ ≤ 180o .
18
Propriedades do Produto interno
1. ⟨u, v⟩ = ⟨v, u⟩
2. ⟨u + w, v⟩ = ⟨u, v⟩ + ⟨w, v⟩
3. ⟨x.u, v⟩ = x.⟨u, v⟩
6. Se u, v não são vetores nulos então eles são perpendiculares se e somente se ⟨u, v⟩ = 0.
3. ⟨x.u, v⟩ = (x.u1 )v1 + (x.u2 )v2 + . . . + (x.un )vn = x.(u1 v1 ) + x.(u2 v2 ) + . . . + x.(un vn ) = x.⟨u, v⟩.
19
1.7 Projeção de Vetores
Em fı́sica muitas vezes necessitamos projetar um vetor na direção de outro vetor. Utilizando o
produto interno podemos descobrir uma fórmula para o vetor que é a projeção do vetor u na direção
do vetor v: projv (u).
Como a projv (u) deve estar na mesma direção de v então projv (u) = x.v. Mas não só isso, a
projv (u) deve ser tal que u − projv (u) ⊥ v. Veja a figura abaixo.
Lema 1.7.1. Sejam u, v ∈ Rn não nulos. A projeção de u na direção de v é dada pela fórmula:
⟨u, v⟩
projv (u) = .v.
⟨v, v⟩
Demonstração. Como observado anteriormente queremos projv (u) = x.v e que u − projv (u) ⊥ v.
Pela propriedade 6 do teorema 1.6.2, isso significa que 0 = ⟨u − projv (u), v⟩ = ⟨u − x.v, v⟩.
Pela propriedades 2 e 3 do teorema 1.6.2 temos que
20
Capı́tulo 2
Sistemas Lineares
Exemplos:
2c + 4d = 3 a11 = 2, a12 = 4, b1 = 3
I
2c − 4d = 1 a21 = 2, a22 = −4, b2 = 1
2z − 4w = 3 a11 = 2, a12 = −4, b1 = 3
II
2z − 4w = 1 a21 = 2, a22 = −4, b2 = 1
2x − 4y = 2 a11 = 2, a12 = −4, b1 = 2
III
2x − 4y = 2 a21 = 2, a22 = −4, b2 = 2
x1
.
Definição 2.0.2. Uma solução para o sistema ∗ é uma n-upla .. que satisfaz todas as equações
xn
de I . O conjuntos de todas as soluções do sistema I será denotado por SI e será chamado de
conjunto solução do sistema I.
21
Exemplos:
c 1
• Vimos na solução da letra a) do exercı́cio 1.5.1 que SI = , c = 1 e d =
d 4
2y + 1 2 1
= , y ∈ R = y + , y ∈ R .
y 1 0
x
SI = y , x = −3y − 4z + 5, y ∈ R, z ∈ R
z
−3y − 4z + 5
= , y ∈ R, z ∈ R
y
z
−3 −4 5
= y 1 +z 0 + 0 , y ∈ R, z ∈ R
0 1 0
Observação 2.0.4. Note que os sistemas lineares apareceram de maneira natural a partir do
problema de interseção de objetos geométricos. Note que o conjunto solução do sistema do
exercı́cio anterior é a equação paramétrica de um plano no R3 , ou seja, o conjunto solução
de sistemas dão origem a objetos geométricos. Sistemas lineares e objetos geométricos estão
intimamente relacionados.
22
Aplicação de sistemas lineares em Quı́mica.
O gás hidrogênio H2 reage com o gás oxigênio O2 resultando em água. Isto é,
2x
|{z} = 2z
|{z}
No de átomos de H antes da reação No de átomos de H depois da reação
2y = z
|{z}
|{z}
N o de átomos de O antes da reação No de átomos de O depois da reação
2x − 2z = 0
Chegamos no seguinte sistema linear: I
2y − z = 0
z
z
Cujo conjunto solução é SI = 2 , z ∈ R .
z
Olhando para SI é fácil encontrar essa tripla, basta escolher z = 2. Assim o balanceamento fica
Precisaremos de uma maneira organizada para resolver os sistemas lineares porque sistemas ante-
riores eram fáceis de se resolver. Além disso para resolver sistemas enormes você precisará programar
um algoritmo para resolvê-lo, a seguir aprenderemos um. A ideia aqui é de simplificar o sistema
mantendo o conjunto solução dele intacto.
Para simplificar a explicação vou utilizar um sistema com 2 linhas e 3 incógnitas:
1x + 2y + 3z = 4
I
5x + 6y + 7z = 8
23
5x + 6y + 7z = 8
II
1x + 2y + 3z = 4
9.1x + 9.2y + 9.3z = 9.4
III
5x + 6y + 7z = 8
1x + 2y + 3z = 4
IV
(9.1 + 5)x + (9.2 + 6)y + (9.3 + 7)z = (9.4 + 8)
SI = SIII Como as segundas equações dos sistemas I e III são iguais então as soluções de ambos os
sistemas satisfazem essa mesma equação.
x
Agora se y ∈ SI , pela primera equação de I temos que 1x + 2y + 3z = 4, multiplicando ela
z
por 9 obtemos 9.1x + 9.2y + 9.3z = 9.4. Essa é a primeira equação dos sistema III . Portanto
toda solução do sistema I é também do sistema III .
x′
SIII então, pela sua primeira equação, 9.1x′ + 9.2y ′ +
O contrário também vale. Se y ∈
′
z′
9.3z ′ = 9.4. Dividindo por 9 obtemos 1x′ + 2y ′ + 3z ′ = 4. Essa é a primeira equação dos sistema
I .
Assim SI = SIII .
SI = SIV Como as primeiras equações dos sistemas I e IV são iguais então as soluções de ambos os
sistemas satisfazem essa mesma equação.
x
Seja y ∈ SI . Note que pelas equações do sistema I
z
24
Mas (9.1 + 5)x + (9.2 + 6)y + (9.3 + 7)z = 9.4 + 8 é a segunda equação dos sistema IV .
Pela sua primeira equação temos 1x′ + 2y ′ + 3z ′ = 4 então 9.4 + 5x′ + 6y ′ + 7z ′ = 9.4 + 8.
Assim SI = SIV .
CONCLUSÃO: Essas observações nos dizem que podemos fazer 3 modificações do sistema I
preservando seu conjunto solução Essas modificações são chamadas operações elementares.
Operações Elementares
O3 Substituir uma linha por ela somada com um múltiplo de uma outra.
Lembre-se que essa operações modificam o sistema, mas preservam seu conjunto solução.
25
Encontramos então z = 0 na terceira linha. Substituı́mos isso na segunda
linha
obtemos y = 0.
1
Subtituı́mos essas informações na primeira e obtemos x = 1. Assim SIII = 0 .
0
Como passamos do sistema I para o sistema II e depois para o sistema III por operações elementares
então SI = SII = SIII .
x + 2y + 3z = 1 L2 ↔L2 +(−1).L1 x + 2y + 3z = 1 L1 ↔L1 +2.L2 x + 0y + 1z = 3
b) I −−−−−−−−−→ II −−−−−−−−−→ III
x + y + 2z = 2 0x + (−1)y + (−1)z = 1 0x + (−1)y + (−1)z = 1
L2 ↔(−1).L2 x + 0y + 1z = 3
−−−−−−−−−→ IV
0x + y + z = −1
x
3−z
3 −1
Assim SIV = y , x = 3 − z, y = −1 − z, , z ∈ R = −1 − z
, z ∈ R = −1 + z −1
, z ∈ R
z
z 0 1
Observação 2.1.2. Note que em todos os sistemas eu repeti o x, y, z, +, = inúmeras vezes, mas o que
era realmente importante eram os números na frente do x, y, z. Uma maneira de evitar isso é usando
a matriz ampliada do sistema.
26
Observação 2.1.4. Existem sistemas
que apenas de olhar somos capazes de descobrir seu conjunto
1 0 1 3
solução, por exemplo o sistema do exemplo acima.
0 1 1 −1
1 2 3 1
Existem outros que isso não é possivel, por exemplo o sistema do exemplo acima
1 1 2 2
(por isso que tivemos que realizar operações elementares sobre ele).
1 3 0 2
Outro exemplo que é fácil de resolver é o seguinte . Seu conjunto solução é
0 0 1 5
x
2 − 3y
−3 2
y , x = 2 − 3y, z = 5, y ∈ R = , y ∈ R = y 1 + 0 , y ∈ R
y
z
5 0 5
1 0 1 3 1 3 0 2
Os sistemas e possuem um formato especial que nos permite
0 1 1 −1 0 0 1 5
resolvê-los.
27
Formato Reduzido ou Escalonado ou Escada
Definição 2.1.5. Dizemos que uma matriz tem o formato reduzido ou escalonado se possuir
as seguintes caracterı́sticas
Ex:
1 0 1 1
0 1 1 0
0 0 0 0
4. Os 1s que começam linhas estão caindo para a direita formando degraus (um escada).
Ex:
1 0 1 1
0 1 1 0
0 0 0 0
Mais exemplos:
0 1 2 0 3 1 0 0 0 não está no formato reduzido
está no formato reduzido
0 0 0 1 0
0 1 −1 0 porque em cima do 1 da terceira
porque possui as 4 carac-
0 0 0 0 0 terı́sticas descritas acima. 0 0 1 0 linha há um -1 que deveria ser 0.
0 0 1 não está no formato
0 1 0
reduzido porque a escada
1 0 0 que queremos desce.
28
Observação 2.1.6. Esse formato reduzido é o que permite encontrar o conjunto solução de um sis-
tema. Utilizaremos as operações elementares para levar a parte antes da barra da matriz ampliada
do sistema ao seu formato reduzido. Note que foi isso que fizemos no exemplo b) no inı́cio da página
22.
−4x + 3y = 2
Exercı́cio 2.1.7. Determine k para que o seguinte sistema admita solução. 5x − 4y = 0
2x − y = k
−4 3 2 −4 3 2 0 −1 10
L2 ↔L2 +L1 L1 ↔L1 +4L2 L3 ↔L3 +(−2)L2
Solução: 5 −4 0 −−−−−−−−−→ 1 −1 2 −−−−−−−−−→ 1 −1 2 −−−−−−−−−→
2 −1 k 2 −1 k 2 −1 k
0 −1 10 0 1 −10 0 1 −10
L1 ↔(−1)L1 L2 ↔L2 +L1 L3 ↔L3 +(−1)L1
1 −1 −−−−−−−−−→ 1 −1 −−−−−−−−−→ 1 0 −8 −−−−−−−−−→
2 2
0 1 k−4 0 1 k−4 0 1 k−4
0 1 −10 1 0 −8
L1 ↔L2
1 0 −8 −−−−−−−−−→ 0 1 −10
0 0 k+6 0 0 k+6
Vamos voltar com as variáveis nesse último sistema para você observar uma coisa.
x = −8
y = −10
0.x + 0.y = k + 6
Se k + 6 ̸= 0 então não existem valores de x, y que satisfaçam a última equação. Para haver x, y
que satisfaçam as 3 equações do sistema então k + 6 = 0, ou seja, k = −6.
Observação 2.1.8. Aqui vou fazer algumas observações sobre o escalonamento ou redução que fiz
para resolver o último problema.
1. Para fazer a primeira linha começar com o número 1, eu poderia simplesmente ter multiplicado
ela por − 14 . Não fiz isso porque ia aparecer frações que não são tão fáceis de manejar. Preferi
somar a primeira linha com a segunda para fazer a linha 2 começar com 1 e depois trocar elas
de lugar. Você só precisar trocar de lugar as linhas no final.
29
2. Lembre-se abaixo e acima dos 1s que começam linhas tem que ser zero. Por isso que comecei a
anular os números abaixo e acima desses 1s com as outras operações elementares.
a) N 2O5 → N O2 + O2
c) (N H4 )2 CO3 → N H3 + H2 O + CO2
a x + a y = b a a b
11 12 1
11 12 1
O sistema linear a21 x + a22 y = b2 tem matriz ampliada a21 a22 b2 .
a x+a y =b
31 32 3 a31 a32 b3
As possı́veis matrizes reduzidas dessa matriz ampliada são dos três seguintes tipos:
1 0 d1 1 c d1 0 1 d1
I 0 1 d2 II 0 0 d2 III 0 0
d2
0 0 d3 0 0 d3 0 0 d3
Observe o seguinte:
No sist. I : Note que se d3 ̸= 0 então a última linha do sistema I fica 0.x + 0.y = d3 ̸= 0. Não existem x, y
que satisfazem isso, ou seja, o sistema I não tem solução e portanto o original também não.
d1
Se d3 = 0 temos x = d1 e y = d2 . Portanto SI = , ou seja, o sistema original tem
d
2
uma única solução.
No sist. II : Se d2 ̸= 0 ou d3 ̸= 0 então o sistema II não tem solução e portanto o original também não.
30
No sist. III : Se d2 ̸= 0 ou d3 ̸= 0 então o sistema II não tem solução e portanto o original também não.
A. B. C.
1 0 0 . . . 0 d1
matriz reduzida d1 matriz reduzida d1
0 1 0 . . . 0 d2
com s linhas não ..
com s linhas não ..
.
.
0 0 1 . . . 0 d3
nulas
ds
nulas ̸= Idn×n ds
.. .. .. .. .
. 0 .. 0 ... 0 ds+1
. . . 0 ... 0 0
.
0 0 0 . . . 1 dn .. .. .. .. ..
.
. . . . . .
0 0 0 ... 0 0
0 ... 0 0 0 ... 0 dn
.. .. .. . . .. ..
. . . . . .
0 0 0 ... 0 0 algum dos ds+1 , . . . , dn não é 0
OBS: Uma matriz que tem o número de linhas menor que o números de incógnitas (m < n)
ao ser reduzida nunca terá o formato A. Porque no formato A temos n números 1 começando
linhas, o que é impossı́vel com m linhas (m < n). Então um sistema com menos linhas do que
incógnitas nunca terá solução única.
3x + 4y = 2 3x + 4y = 3 3x + 4y = 7
a) b) c)
3x + 3y = 3 3x + 3y = 1 3x + 3y = 8
31
Solução:
3 4 2 L1 ↔L1 +(−1).L2 0 1 −1 L2 ↔L2 +(−3).L1 0 1 −1
a) −−−−−−−→ −−−−−−−→
3 3 3 3 3 3 3 0 6
L2 ↔ 13 .L2 0 1 −1 L2 ↔L1 1 0 2 2
−−−−−−−→ −−−−−−−→ . Assim SI = , x ∈ R .
1 0 2 0 1 −1 −1
3 4 3 L1 ↔L1 +(−1).L2 0 1 2 L2 ↔L2 +(−3).L1 0 1 2
b) −−−−−−−→ −−−−−−−→
3 3 1 3 3 1 3 0 −5
L2 ↔ 13 .L2 0 1 2 L2 ↔L1 1 0 − 35 −5
−−−−−−−→ −−−−−−−→ . Assim SII = 3 , x ∈ R .
1 0 − 35 0 1 2 2
3 4 7 L1 ↔L1 +(−1).L2 0 1 −1 L2 ↔L2 +(−3).L1 0 1 −1
c) −−−−−−−→ −−−−−−−→
3 3 8 3 3 1 3 0 11
L2 ↔ 13 .L2 0 1 −1 L2 ↔L1 1 0 11 11
3
−−−−−−−→ −−−−−−−→ . Assim SIII = 3 , x ∈ R .
11
1 0 3 0 1 −1 −1
Note que fizemos praticamente as mesmas contas para resolver os sistemas I , II e III . As
únicas contas que mudaram foram na coluna depois da barra que correspondem aos números sem
incógnitas. Isso foi um gasto de energia desnecessário, podı́amos ter resolvido esses três sistemas ao
mesmo tempo da seguinte maneira.
3 4 2 3 7 L1 ↔L1 +(−1).L2 0 1 −1 2 −1 L2 ↔L2 +(−3).L1 0 1 −1 2 −1
abc) −−−−−−−→ −−−−−−−→
3 3 3 1 8 3 3 3 1 1 3 0 6 −5 11
L2 ↔ 31 .L2 0 1 −1 2 −1 L2 ↔L1 1 0 2 − 53 11
3
−−−−−−−→ −−−−−−−→ .
1 0 2 − 53 11
3 0 1 −1 2 −1
32
Observação 2.2.2. Moral da história: Para resolver vários sistemas que diferem entre si
apenas nos números sem incógnitas, monte uma matriz como a do sistema acima e resolva
todos ao mesmo tempo
x + 2y + 3z = 1 x + 2y + 3z = 2
a) b)
x + y + 2z = 2 x + y + 2z = 4
Exercı́cio 2.2.4. Existem valores para c e d que tornem o sistema abaixo sem solução?
x + 2y + 3z = c
x + y + 2z = d
Exercı́cio 2.2.6. Seja A uma matriz com n linhas e n colunas no formato reduzido. Mostre que se
1 0 ... 0
0 1 ... 0
A não possui linhas nulas então A = .. .. . . ..
.
. . . .
0 0 ... 1
Solução: Como ela não possui linhas nulas então cada linha começa com 1. Então existem n números
1s começando linhas.
Como em cima e embaixo de cada 1 que começa linhas existem n − 1 zeros então temos um total
de n.(n − 1) zeros. Somados com os n números 1s obtemos os n2 números que ocupam a matriz, ou
seja, a matriz só possui 0s ou 1s nas suas entradas.
Como não podemos ter 2 números 1s na mesma coluna, pois acima e abaixo dos 1s só existem zero
então cada coluna da matriz possui um único número 1.
Se A11 = 0 então existirá um número abaixo dele que vale 1, pois existe um 1 na primeira coluna.
Mas também existe um 1 na primeira linha. Essas dois 1s não estão caindo para a direita. Portanto
A11 = 1 e as outras entradas da primeira linha e da primeira coluna são zero.
Repita
o argumento com A22 , A33 , . . . , Ann para obter A11 = A22 = A33 = . . . = Ann = 1. Portanto
1 0 ... 0
0 1 ... 0
A= .. .. . . ..
.. □
. .
. .
0 0 ... 1
33
Exercı́cio 2.2.7. Encontre todas as soluções do sistema
x + 3x2 + 2x3 + 3x4 − 7x5 = 14
1
2x1 + 6x2 + x3 − 2x4 + 5x5 = −2
x + 3x − x + 0.x + 2x = −1
1 2 3 4 5
Exercı́cio 2.2.8. Foram estudados três tipos de alimentos. Fixada a mesma quantidade (1 grama)
determinou-se que
a) Encontre todas as possı́veis quantidades dos alimentos I,II e III que fornecem a quantidade de
vitaminas desejadas.
b) Se o alimento I custa 60 centavos por grama e os outros dois custam 10 centavos por grama,
existe uma solução que custe exatamente 1 real?
34
Capı́tulo 3
Matrizes
F : R2 → R1 G : R2 → R1 H : R3 → R2 I : R2 → R4
x
x
x x x + z x y
F =x+y G = x.y H y = I =
y y y+z y x
z
y
Transformação linear
Exemplos:
F1 : R2 → R3 G1 : R 3 → R 2
35
1x + 2y x
x x+y+z
F1 = 3x + 4y G1 y =
y x − y + 3z
0x + 8y z
Exercı́cio 3.1.2. As funções do exemplo 3.1.1 são T.Ls? As funções abaixo são T.Ls?
H1 : R2 → R2 I1 : R2 → R2
x 0 x x
H1 = I1 =
y 0 y y
36
Matriz: Sı́mbolo que representa uma T.L.
Existem diversas funções que são representadas por sı́mbolos. Por exemplo, a função seno é
representada pela palavra sen antes da variável: sen(x).
O mesmo ocorre com todas as trigonométricas, as exponeciais e etc.
Qual seria um bom sı́mbolo para representar a T.L. F : R2 → R3 ,
1x + 3y
x
F = 7x + 4y ?
y
3x + 8y
x
Queremos um sı́mbolo para por na frente das variáveis: .
y
Um bom sı́mbolo deveria te lembrar que
Exercı́cio 3.1.3. a) Para as funções do exemplo 3.1.1 e do exercı́cio 3.1.2 que são T.Ls, escreva
os sı́mbolos que as representam.
3 7 0
8 4 1
b) Qual a T.L. T : Rn → Rm que é representada pelo sı́mbolo
?
2 5 1
3 9 0
Quanto valem n e m?
37
x1 x1
. ..
c) Qual é a matriz que representa a T.L. T : Rn → Rm definida por T .. = . ?
xn xn
x1 0
. ..
d) Qual é a matriz que representa a T.L. T : Rn → Rm definida por T .. = . ?
xn 0
Solução b): O números 3 , 7 e 0 estão juntos com as variáveis. Então são três variáveis, ou seja, o
domı́nio é o R3 . Agora como são 4 linhas o contradomı́nio é o R4 . Assim
3x + 7y + 0z
x
8x + 4y + 1z
F y =
2x + 5y + 1z
z
3x + 9y + 0z
Em muitos casos funções com mesmo domı́nio e contra-domı́nio podem ser somadas para formarem
uma nova função.
Exemplos:
1x + 2y + 1x + 1y 2x + 3y
x x
F + G = = 5x + 6y
3x + 4y + 2x + 2y
y y
5x + 6y + 3x + 3y 8x + 9y
Note que a soma dessas duas T.Ls deu uma nova T.L. Isso ocorre sempre.
38
Definição 3.2.1. Sejam T : Rn → Rm , S : Rn → Rm duas T.Ls, podemos definir uma nova função
que será denotada por T + S : Rn → Rm , da seguinte maneira
x x1 x1
1
.. . ..
T +S . = T .. + S . .
xn xn xn
Essa nova função também é um T.L. como nos mostra o teorema abaixo. Observe as matrizes que
representam T, S, T + S depois do teorema.
x1 t x + . . . + t1n xn x1 s x + . . . + s1n xn
11 1 11 1
.. .. .. ..
T . = .
e S . = . .
xn tm1 x1 + . . . + tmn xn xn sm1 x1 + . . . + smn xn
Assim
x1 t x + . . . + t1n xn + s11 x1 + . . . + s1n xn (t11 + s11 )x1 + . . . + (t1n + s1n )xn
11 1
.. .. ..
T +S . = = .
. .
xn tm1 x1 + . . . + tmn xn + sm1 x1 + . . . + smn xn (tm1 + sm1 )x1 + . . . + (tmn + smn )xn
t ... t1n s ... s1n (t11 + s11 ) . . . (t1n + s1n )
11 11
.. .. .. .. .. ..
.. .. ..
. . , . . , .
. . . .
tm1 . . . tmn sm1 . . . smn (tm1 + sm1 ) . . . (tmn + smn )
39
x1 x1
. ..
F ◦ G .. = F G . .
xn xn
Essa nova função também sera uma T.L. como mostrado no teorema abaixo. Observe as matrizes que
representam F, G, F ◦ G depois do teorema.
x1 f x + . . . + f1m xm y1 g y + . . . + g1n yn
11 1 11 1
.. .. .. ..
F . = .
e G . = . .
xm fk1 x1 + . . . + fkm xm yn gm1 x1 + . . . + gmn xn
Assim
y1 g11 y1 + . . . + g1n yn f (g y + . . . + g1n yn ) + . . . + f1m (gm1 y1 + . . . + gmn yn )
11 11 1
. .. ..
F ◦ G .. = F = .
. .
yn gm1 x1 + . . . + gmn xn fk1 (g11 y1 + . . . + g1n yn ) + . . . + fkm (gm1 y1 + . . . + gmn yn )
y1 (f g + . . . + f1m gm1 )y1 + . . . + (f11 g1n + . . . + f1m gmn )yn
11 11
.. ..
F ◦ G . =
.
yn (fk1 g11 + . . . fkm gm1 )y1 + . . . + (fk1 g1n . . . + fkm gmn )yn
f . . . f1m g ... g1n f g + . . . + f1m gm1 . . . f11 g1n + . . . + f1m gmn
11 11 11 11
.. .. .. .. .. ..
.. .. ..
. . , . . e . .
. . . .
fk1 . . . fkm gm1 . . . gmn fk1 g11 + . . . + fkm gm1 . . . fk1 g1n + . . . + fkm gmn
40
x 7x + 8y
1x + 2y + 3z x
F y =
e G =
9x + 10y
4x + 5y + 6z y
z 11x + 12y
7x + 8y
x
1(7x + 8y) + 2(9x + 10y) + 3(11x + 12y)
F ◦ G = F 9x + 10y =
y 4(7x + 8y) + 5(9x + 10y) + 6(11x + 12y)
11x + 12y
x (1.7 + 2.9 + 3.11)x + (1.8 + 2.10 + 3.12)y 1.7 + 2.9 + 3.11 1.8 + 2.10 + 3.12 x
F ◦ G = =
y (4.7 + 5.9 + 6.11)x + (4.8 + 5.10 + 6.12)y 4.7 + 5.9 + 6.11 4.8 + 5.10 + 6.12 y
Definição 3.2.7. Uma matriz A com m linhas e n colunas será denotada por Am×n . Além disso
denotaremos o número que ocupa a linha i e a coluna j de A por Aij .
O conjunto contendo todas as matrizes com m linhas e n colunas formadas por números reais será
denotado por Mm×n (R).
1 2 3
Exemplo: A2×3 = .
4 5 6
• A13 = 3, A22 = 5.
a b c
• M2×3 (R) = , a, b, c, d, e, f ∈ R
d e f
41
Operações com matrizes
• a soma A + B como sendo a matriz em Mm×n (R) que satisfaz (A + B)ij = Aij + Bij .
• o produto de um número real x pela matriz A como sendo a matriz x.A tal que
(x.A)ij = xAij ,
Conclusão : As matrizes A+B e AC que acabamos de definir são os sı́mbolos que representam
as T.Ls obtidas pela soma de duas T.Ls e pela composição de duas T.Ls.
y1 y1 y1 z1 z1
. ... ... . ...
A .. + B = (A + B) e A C .. = AC .
yn yn yn zk zk
Essa definições de soma de matrizes e de produto de matrizes não são arbitrárias. Elas vêm da
nossa interpretação de matrizes como sı́mbolos que representam certas funções (as T.Ls).
1 2
Exercı́cio 3.2.9. Seja A = e defina A2 = A.A. Calcule
1 3
a) A2
b) A2 − 4A + Id
c (A − 2Id)(A + 2Id)
d (A − Id)(A − Id)
42
3.3 Propriedades da soma, do produto de matrizes e do produto
por números reais.
i) A + B = B + A
ii) A + (B + C) = (A + B) + C
iii) A + 0m×n = A
vi) |{z}
0 .A = 0
| m×n
{z }
no zero matriz zero
Demonstrações:
Isso significa que os números que aparecem na matriz A + B e na matriz B + A são iguais e ocupam
as mesmas posições. Portanto A + B = B + A.
[(A + B) + C]ij = (A + B)ij + Cij = (Aij + Bij ) + Cij = Aij + (Bij + Cij ) = Aij + (B + C)ij = [A + (B + C)]ij ,
para todo i, j. Isso significa que os números que aparecem na matriz (A+B)+C e na matriz A+(B+C)
são iguais e ocupam as mesmas posições. Portanto (A + B) + C = A + (B + C).
43
Isso significa que os números que aparecem na matriz A + 0m×n e na matriz A são iguais e ocupam
as mesmas posições. Portanto A + 0m×n = A.
iv) Pela definição da produto de matriz por números e pela definição de soma temos que
[x.(A + B)]ij = x.[(A + B)ij ] = x.(Aij + Bij ) = x.Aij + x.Bij = [x.A]ij + [x.B]ij = [x.A + x.B]ij .
Isso significa que os números que aparecem na matriz x.(A + B) e na matriz x.A + x.B são iguais e
ocupam as mesmas posições. Portanto x.(A + B) = x.A + x.B.
v) (x + y).A = x.A + y.A Pela definição da produto de matriz por números e pela definição de
soma temos que
Isso significa que os números que aparecem na matriz (x + y).A e na matriz x.A + y.A são iguais e
ocupam as mesmas posições. Portanto (x + y).A = x.A + y.A.
[0.A]ij = 0.Aij = 0.
Isso significa que os números que aparecem na matriz 0.A e na matriz 0m×n são iguais e ocupam as
mesmas posições. Portanto 0.A = 0m×n .
Isso significa que os números que aparecem na matriz x.(y.A) e na matriz (x.y).A são iguais e ocupam
as mesmas posições. Portanto x.(y.A) = (x.y).A.
Exercı́cio 3.3.1. Mostre exemplos para cada uma das propriedades da soma e do produto por números
descritas acima.
44
Propriedades da produto de matrizes
i) Se Am×n e Br×s são matrizes então só podemos multiplicar AB quando n = r (números
de colunas de A é igual ao número de linhas de B). Nesse caso ABm×s .
(A.B).C = A.(B.C).
vi) Seja Am×n uma matriz. Temos que A.0n×s = 0n×s e 0s×m .A = 0s×n .
Demonstrações:
Essa composição só poder ser feita se o contradomı́nio da B estiver dentro do domı́nio da A, ou
seja, Rr ⊂ Rn . Isso só ocorre quando n = r.
iii) Pela definição de produto de matrizes: [Id.A]ij = Idi1 A1j + Idi2 A2j + . . . + Idim Amj .
45
0, se i ̸= j
Mas Idij = . Assim [Id.A]ij = Idii Aij = 1.Aij = Aij .
1, se i = j
Isso significa que os números que aparecem na matriz Id.A e na matriz A são iguais e ocupam as
mesmas posições. Portanto Id.A = A.
Da mesma maneira provamos B.Id = B. Deixo como exercı́cio.
x1 x1
. ..
.. = A B
iv) Lembre-se que A.B . , pois A.B é o sı́mbolo que representa essa composição.
xr xr
Veja conclusão após definição 3.2.8.
x1 x1
. .
Então (A.B).C é o sı́mbolo C .. = A B C .. .
que representa a composição A.B
xr xr
x1 x1
. .
Agora A.(B.C) é o sı́mbolo B.C .. = A B C .. .
que representa a composição A
xr xr
x1
.
Como as T.Ls que (A.B).C B C .. então (A.B).C
e A.(B.C) representam são iguais a A
xr
e A.(B.C) devem ser iguais, pois só existe um sı́mbolo para cada T.L.
Exercı́cio 3.3.2. Prove as propriedades v) e vi) acima usando o fato que as matrizes representam
T.Ls.
Exercı́cio 3.3.3. Dê exemplos para cada uma das propriedades do produto de matrizes descritas
acima.
OBS: Podemos denotar Ak simplesmente por A.A. . . . .A, porque o resultado dará igual indepen-
dente de como pusermos os parênteses. Por exemplo: A.(A. . . . (A.A))) = (A.((A.A).A). . . .)A. Isso é
consequência da associatividade do produto.
46
Exercı́cio 3.3.5. Sejam An×n , Bn×n matrizes.
Quando duas funções f : A → B e g : B → A desfazem o que a outra fez com a variável, isto é,
f (g(y)) = y e g(f (x)) = x para todo y ∈ B e todo x ∈ A, dizemos que f, g são funções inversas. Veja
exemplos na tabela abaixo.
Definição 3.4.1. Dizemos que An×n é invertı́vel se existir uma matriz Bn×n tal que AB = BA =
Idn×n . Denotaremos essa B por A−1 e a chamaremos de inversa da A.
1 1
1 −1 2 2
b) Considere A = eB= .
1 1 − 21 1
2
1 1
1 −1 2 2 1. 21 + (−1).(− 12 ) 1. 12 + 1.(− 12 ) 1 0
A.B = = = .
1 1 − 21 1
2 1. 12 + 1.(− 12 ) 1. 12 + 1. 21 0 1
47
1 1 1
2 2 1 −1 2 .1 + 12 .1 1
2 .(−1) + 12 .1 1 0
B.A = = = .
− 12 1
2 1 1 1
2 .(−1) + 12 .1 (− 12 )(−1) + 21 .1 0 1
x x
1 1
. .
Observação 3.4.3. As matrizes A, B serem inversas equivalem as T.Ls A .. e B .. serem
xn xn
funções inversas. Vejamos isso abaixo.
x1 x1 x1 x1 x1
. . . .. ..
• .. e B .. forem funções inversas
Se A então A B .. = . = B A
.
xn xn xn xn xn
x1 x1
. .
Como .. = Id .. então A.B, B.A e Id são sı́mbolos que representam a mesma T.L.
xn xn
Agora cada T.L. possui apenas um sı́mbolo então AB = BA = Id. Isto é, A, B são matrizes
inversas.
x1 x1
. .
Portanto as T.Ls A .. e B .. são funções inversas.
xn xn
48
Podemos reescrever esse sistema da seguinte maneira usando produto de matrizes.
a11 . . . a1n x1 b1
a21 . . . a2n x2 b2
=
.. .. .. ..
..
.
. . . .
an1 . . . ann xn bn
| {z }| {z } | {z }
A x b
Assim Ax = b. Queremos os vetores x ∈ Rn que satisfazem isso. Como existe A−1 por hipótese do
exercı́cio, podemos multiplicá-la dos dois lados da equação Ax = b para obter:
b) No quadro de possı́veis soluções de um sistema linear da página 26, havı́amos visto que só havia
um formato possı́vel para matriz reduzida que garantia solução única. Era o formato do primeiro tipo
(tipo A). Mas esse formato diz que a identidade Idn×n deve aparacer do lado esquerdo do sistema
ampliado depois de reduzı́-lo para garantir solução única. Como o nosso sistema possui solução única
e além disso só possui n linhas e n incógnitas teremos o seguinte sistema reduzido:
redução
(An×n |b) −−−−−→ (Idn×n |c),
Dada uma matriz An×n veremos agora um método para tentar calcular uma matriz Bn×n tal que
A.B = Idn×n .
• O método pode não funcionar e nesse caso não existirá uma B tal que A.B = Id. Portanto A
não terá inversa.
• Se o método funcionar e você achar B tal que AB = Id faltaria mostrar que BA = Id, pois
para B ser inversa de A os dois produtos AB e BA teriam que ser iguais a Id e não apenas
o primeiro. Entretanto isso não será necessário, pois existe um teorema que diz que se An×n
49
e Bn×n satisfazem AB = Id então BA = Id. Não veremos ele agora, deixaremos para vê-lo
depois.
Vou discutir o método para calcular inversa para matrizes 2 × 2. Para matrizes n × n o método
será idêntico.
1 −1 b11 b12 1 −1 b11 b12 1 0
Seja A= . Buscamos uma B= tal que = .
1 1 b21 b22 1 1 b21 b22 0 1
1.b11 + (−1).b21 1.b12 + (−1).b22 1 0
Obtemos = .
1.b11 + 1.b21 1.b12 + 1.b22 0 1
1 −1 1 1 −1 0
Suas matrizes ampliadas são e .
1 1 0 1 1 1
Vimos na observação 2.2.2 que podemos resolver esses dois sistemas ao mesmo tempo.
1 1
1 −1 1 0 L2 ↔L2 −L1 1 −1 1 0 L2 ↔ 12 .L2 1 −1 1 0 L1 ↔L1 +L2 1 0 2 2
−−−−−−−→ −−−−−−→ −−−−−−−→ .
1 1 0 1 0 2 −1 1 0 1 − 12 1
2 0 1 − 12 1
2
| {z } | {z }
(A|Id) (Id|B)
1 b11 = 1
1 0 2 2
A redução do primeiro sistema fica . Isso implica que .
0 1 − 12 b = −1
21 2
1 1
1 0 2
b12 =
2
A redução do segundo sistema fica . Isso implica que .
1 1
0 1 2
b =
22 2
1 1
2 2
Isso implica que B = , ou seja, B é matriz que fica do lado direito da Id depois que
− 21 12
você reduzir o sistema ampliado (A|Id2×2 ). Veja a matriz em vermelho acima.
50
Método para calcular inversa de uma matriz n × n
OBS: Se na etapa 2 do processo de obter a inversa você não conseguir obter a Id do lado
esquerdo então A não possui inversa, pois vimos no exercı́cio 3.4.4 que se An×n possui inversa
então sua matriz reduzida é a Idn×n . O processo acima só falha para matrizes que não são
invertı́veis.
Exercı́cio 3.5.2. Seja An×n uma matriz invertı́vel. Mostre que se Bn×n satisfaz A.B = 0n×n então
B = 0n×n .
Solução: Multiplique por A−1 dos dois lados da equação A.B = 0n×n e obtenha
Assim B = 0n×n . □
a b d −b
Exercı́cio 3.5.3. Consider as seguintes matrizes: A = eB= .
c d −c a
a) Calcule A.B
51
m vezes
z }| {
Exercı́cio 3.5.4. Considere An×n . Seja Am =A.A . . . .A.A. Mostre que se A5 + 3A4 + 2A + Id = 0
então A é invertı́vel.
Exercı́cio 3.5.5. Sejam An×n , Bn×n , Cn×n matrizes satisfazendo A2 = B 2 = C 2 e B 3 = ABC + 2Id.
Mostre que A6 = Id.
Falaremos nessa seção sobre a matriz transposta. Existem diversos resultados importantes rela-
cionados a ela. Entretanto não é fácil nesse ponto da matéria justificar a sua existência ou mesmo
torná-la natural. Portanto vamos direto para as definições e resultados.
1 4
1 2 3
Considere as matrizes A2×3 = e B3×2 = 2 5 .
4 5 6
3 6
A matriz B foi obtida de A transformando suas linhas em colunas. Essa operação é chamada de
transposição. Portanto B é a transposta da matriz A.
Agora note que B11 = A11 , B12 = A21 , B21 = A12 , B22 = A22 , B31 = A13 , B32 = A23 .
Definição 3.6.1. Seja Am×n uma matriz. A operação que transforma as linhas da matriz em colunas
é chamada de transposição. O resultado dessa operação que será denotado por At é chamado de
transposta da matriz A. Uma outra maneira de definir a transposta de uma matriz é pela equação
Atij = Aji para todo i e j.
52
Relação da transposição com a soma e com a multiplicação
a) (x.A)t = x.At
b) (A + B)t = At + B t
c) (AC)t = C t At
Demonstração. a) (x.A)tij = (x.A)ji = x.Aji = x.(At )ij . Isso significa que as entradas da
matriz (x.A)t e x.At são iguais e ocupam as mesma posições, ou seja, são matrizes iguais.
(A + B)t e At + B t são iguais e ocupam as mesma posições, ou seja, são matrizes iguais.
Isso significa que as entradas da matriz (AC)t e C t At são iguais e ocupam as mesma posições,
ou seja, são matrizes iguais.
Definição 3.6.3. Seja An×n uma matriz. Dizemos que A é simétrica se At = A. Dizemos que A é
anti-simétrica se At = −A.
1 2 2
0 −2
Exemplos:
2 6 4
é simétrica e é anti-simétrica.
2 0
2 4 5
a) (ABC)t = C t B t At
b) (AB . . . Z)t = Z t . . . C t B t At
c) (At )t = A
d) AAt é simétrica.
53
e) Qualquer matriz An×n é uma soma de uma simétrica com uma anti-simétrica.
Então (ABC)t = C t B t At .
Pelo teorema 3.6.2 letras b) e a), (x.A + y.B)t = (x.A)t + (y.B)t = x.At + y.B t .
Como A e B são matrizes simétricas (x.A + y.B)t = x.A + y.B, ou seja, qualquer combinação
linear de simétricas é simétrica.
As operações elementares ao serem aplicadas uma única vez nas linhas da matriz identidade criam
as chamadas matrizes elementares. Elas são importantes porque qualquer matriz invertı́vel é produto
de elementares (ou seja, as invertı́veis são as moléculas e as elementares os átomos).
Definição 3.7.1. As matrizes elementares n × n são aquelas obtidas através de uma única operação
elementar nas linhas da Idn×n .
Exemplos:
1 0 L1 ↔2.L1 2 0 2 0
a) −
−−−−−→ . Portanto é uma matriz elementar.
0 1 0 1 0 1
1 0 L1 ↔L2 0 1 0 1
b) −−−−→ . Portanto é uma matriz elementar.
0 1 1 0 1 0
54
1 0 L1 ↔L1 +3.L2 1 3 1 3
c) −−−−−−−−→ . Portanto é uma matriz elementar.
0 1 0 1 0 1
Teorema 3.7.2. Seja En×n uma matriz elementar obtida da Idn×n através de uma operação
elementar nas suas linhas. Se multiplicarmos E à esquerda de qualquer matriz An×m o resultado
será a matriz EA que é a matriz obtida realizando a mesma operação elementar que criou E
nas linhas da A.
2 0 2 0 x y 2x 2y x y L1 ↔2.L1 2x 2y
= −
−−−−−→
0 1 0 1 z w z w z w z w
0 1 0 1 x y z w x y L1 ↔L2 z w
= −−−−→
1 0 1 0 z w x y z w x y
1 3 1 3 x y x + 3z y + 3w x y L1 ↔L1 +3.L2 x + 3z y + 3w
= −−−−−−−−→
0 1 0 1 z w z w z w z w
Teorema 3.7.3. As matrizes elementares são invertı́veis e suas inversas são também matrizes ele-
mentares.
55
Acabamos de aprender que F E resulta na matriz que é obtida da E realizando a segunda aoperação
elementar, ou seja, F E = Id.
Agora podemos repetir o argumento e achar um outra matriz elementar G tal que GF = Id.
Então temos
Demonstração. Seja An×n uma matriz invertı́vel. Vimos no exercı́cio 3.4.4 que quando reduzimos A
usando as operações elementares obtemos a Idn×n .
Como podemos escrever cada operação elementar por um produto com uma matriz elementar
então para realizar primeira operação elementar em A podemos escrevê-la assim E1 A.
Para realizar a segunda operação elementar podemos fazer: E2 .E1 .A.
Assim sucessivamente até obter a matriz reduzida de A:
En .En−1 . . . E1 A = Id.
Agora cada Ei é matriz elementar e pelo teorema 3.7.3 possui uma inversa Fi que também é
elementar.
Multiplicando F1 . . . Fn−1 Fn dos dois lados da equação acima obtemos
A = F1 . . . Fn−1 Fn .
Assim (Fn . . . F1 )A = Fn . . . F1 E1 . . . En =
56
Fn . . . F2 (F1 E1 )E2 . . . En = Fn . . . F2 (Id)E2 . . . En = . . . = Fn En = Id.
1 1
Exercı́cio 3.7.5. Considere a matriz A = .
2 3
a) Encontre A−1 .
3 −1
Então A−1 = .
−2 1
b) Lembre-se cada operação elementar nas linhas de uma matriz corresponde a uma multiplicação
à esquerda por uma matriz elementar e a matriz elementar correspondente é aquela obtida realizando
a mesma operação na Id2×2 .
1 1 1 1
Note que foi obtida de A = somando a segunda linha −2 vezes a primeira.
0 1 2 3
Seja E1 a matriz elementar obtida da Id2×2 somando a segunda linha −2 vezes a primeira, isto é,
1 0 1 1
E1 = . Então E1 A = .
−2 1 0 1
1 0 1 1
Note que foi obtida de E1 A = somando a segunda linha −1 vezes a primeira.
0 1 0 1
Seja E2 a matriz elementar obtida da Id2×2 somando a primeira linha −1 vezes a segunda, isto é,
1 −1 1 1 1 0
E2 = . Então E2 = .
0 1 0 1 0 1
Assim E2 E1 A = Id.
57
Sejam F1 , F2 as matrizes elementares que são as inversas de E1 , E2 .
1 0 1 0 L2 ↔L2 +(2).L1 1 0 1 0 1 0
(E1 |Id) = −−−−−−−−−→ . Assim F1 = .
−2 1 0 1 0 1 2 1 2 1
1 −1 1 0 L2 ↔L2 +1.L1 1 0 1 1 1 1
(E2 |Id) = −−−−−−−−→ . Assim F2 = .
0 1 0 1 0 1 0 1 0 1
F1 F2 E2 E1 A = F1 F2 .Id.
Como F2 E2 = F1 E1 = Id temos A = F1 F2 .
58
Capı́tulo 4
Função Determinante
A partir
de
agora escreveremos uma matriz An×n indicando suas linhas da seguinte maneira:
L
1
..
A = . , onde Li representa a linha i de A. Note que Li é um vetor do Rn deitado.
Ln
Definição 4.1.1. Seja Mn×n (R) o conjunto das matrizes n×n. Chamamos uma função d : Mn×n (R) →
R de função determinante se ela possuir as seguintes propriedades.
L1 L1
... ...
para qualquer x ∈ R e para qualquer linha Li .
1) d x.Li = x.d
Li ,
. ..
.
. .
Ln Ln
Isto é, se você multiplicar qualquer linha de uma matriz por um número x altera o valor da
função determinante por um fator x . Outra maneira de entender isso é que você pode por o x
que multiplica a linha Li para fora.
1 2 1 2
Exemplo: d = x.d
x.3 x.4 3 4
59
L1 L1 L1
.. .. ..
. . .
1 2 1 2 1 2
2) d Li + L′i
= d
Li + d
L′i ,
em toda linha i. Exemplo: d = d + d
.. .. .. 3+5 4+6 3 4 5 6
. . .
Ln Ln Ln
L1
...
Li
..
1 2
3) d
. = 0.
Exemplo: d =0
1 2
Li
..
.
Ln
Isto é, se uma matriz tiver duas linhas iguais então uma função determinante aplicada nela vale
zero.
L1 L1
...
...
Li Lj
..
..
1 2 3 4
3′ ) = −d
d . = −d . . Exemplo: d
3 4 1 2
Lj
Li
.. ..
. .
Ln Ln
Isto é, trocar duas linhas de lugar altera o valor da função determinante por um fator -1.
1 0 ... 0
0 1 ... 0
4) d
.. .. . . .. = 1
. . . .
0 0 ... 1
Observação 4.1.2. Eu chamei a propriedade que vem depois da 3) de 3′ ) porque na verdade ela segue
da propriedade 2) e 3), isto é, se 2) e 3) valem então também vale 3′ ).
60
Pela propriedade 2) temos que
L1 + L2 L1 L2 L1 L1 L2 L2
d = d + d = d + d + d + d .
L1 + L2 L1 + L2 L1 + L2 L1 L2 L1 L2
L1 + L2 L1 L2
Pela propriedade 3) temos que d = d = d = 0.
L1 + L2 L1 L2
L1 L2 L2 L1
Assim 0 = d + d , ou seja, d = −d . □
L2 L1 L1 L2
Observação 4.1.4. Essa maneira de definir uma função determinante como sendo uma função
que possui propriedades levanta duas perguntas importantes:
b) Quantas existem?
Solução: Precisamos verificar as propriedades 1, 2, 3 e 4 (3′ não é necessária pois ela segue da 2 e da
3).
Propriedade 1:
x.a x.b a b a b a b
f = xad − xbc = x.f e f = a(xd) − b(xc) = x.f .
c d c d x.c x.d c d
Propriedade 2:
a + a′ b + b′ a b a′ b′
f = (a + a′ )d − (b + b′ )c = ad − bc + a′ b − b′ c = f +f
c d c d c d
61
a b a b a b
f = a(d + d′ ) − b(c + c′ ) = ad − bc + ad′ − bc′ = f +f
c + c′ d + d′ c d c′ d′
Propriedade 3:
a b
f = ab − ba = 0. Então a propriedade 3) vale.
a b
Propriedade 4:
1 0
f = 1.1 − 0.0 = 1. Então a propriedade 4) vale.
0 1
a b
Conclusão: f : M2×2 (R) → R, f = ad − bc é uma função determinante. □
c d
Acabamos de encontrar uma função determinante para matrizes 2 × 2. O próximo e exercı́cio mos-
trar que todas as funções determinanates são iguais a ela. Portanto só existe uma função determinante
para matrizes 2 × 2 .
a b
Exercı́cio 4.1.6. Mostre que se f : M2×2 (R) → R é uma função determinante então f = ad − bc.
c d
a b 1 0 1 0 0 1 0 1
f = ac. f +ad. f +bc. f +bd. f = ad − bc. □
c d 1 0 0 1 1 0 0 1
| {z } | {z } | {z } | {z }
= 0, por 3) = 1, por 4) = −1, por 3) = 1, por 4)
62
Determinante de matrizes 2 × 2
Definição 4.1.7. Acabamos de ver nos dois exercı́cios anteriores que existe apenas uma função
determinante para matrizes 2 × 2. A partir de agora ela será denotada por
a b
det : M2×2 (R) → R, det = ad − bc
c d
Exercı́cio 4.1.8. Mostre que se f : M3×3 (R) → R é uma função determinante então
a a a
11 12 13
a22 a 23 a21 a 23 a21 a 22
f a21 a22 a23
= a11 det
− a12 det + a13 det .
a32 a33 a31 a33 a31 a32
a31 a32 a33
Solução:
a a a a 0 0 0 a12 a13 a 0 0 0 a12 0 0 0 a13
11 12 13 11 11
f a21 a22 a23 =f a21 a22 a23 + f a21 a22 a23 = f a21 a22 a23 + f a21 a22 a23 + f a21 a22 a23
a31 a32 a33 a31 a32 a33 a31 a32 a33 a31 a32 a33 a31 a32 a33 a31 a32 a33
| {z } | {z }
Pela propriedade 2) Pela propriedade 2) de novo
a11 0 0
a22 a23
Vou mostrar agora que f a21 a22 a23
= a11 det
.
a32 a33
a31 a32 a33
Note que
a11 0 0 a11 0 0 a11 0 0 a11 0 0 a11 0 0 a11 0 0
f a21 a22 a23 = f a21 0 + f 0 a22 a23 = f a21 0 + f 0 a22 a23 +f 0
0 0 a22 a23
a31 a32 a33 a31 a32 a33 a31 a32 a33 a31 a32 a33 a31 0 0 0 a32 a33
| {z } | {z }
Pela propriedade 2) Pela propriedade 2)
1 0 0 1 0 0 a 0 0 a 0 0
11 11
=a11 a21 f 1 + a31 f 0 a22 a23 +f 0 a22 a23 = 0 + 0 +f 0 a22 a23 .
0 0 |{z} |{z}
Pela propriedade 3) Pela propriedade 3)
a31 a32 a33 1 0 0 0 a32 a33 0 a32 a33
| {z } | {z }
Pela propriedade 1) Pela propriedade 1)
a 0 0 a 0 0 a 0 0
11 11 11
= f 0 a22 a23 =f 0 a22 0 +f 0 =
0 a23
0 a32 a33 0 a32 a33 0 a32 a33
| {z }
Pela propriedade 2)
a11 0 0 a11 0 0 a11 0 0 a11 0 0
=f 0 a22 0 + f 0 0 +f 0 a23 + f 0
a22 0 0 a23
0 a32 0 0 0 a33 0 a32 0 0 0 a33
| {z } | {z }
Pela propriedade 2) Pela propriedade 2)
63
Pela propriedade 1) aplicada em todas nas linha dessas matrizes acima obtemos
1 0 0 1 0 0 1 0 0 1 0 0
= a11 a22 a32 f 0 1 0 +a11 a22 a33 f 0 1 0 +a11 a23 a32 f 0 0 1 + a11 a23 a33 f 0 0 1
0 1 0 0 0 1 0 1 0 0 0 1
| {z } | {z } | {z }
=0 por3) =1 por4) =0 por 3)
1 0 0 1 0 0
Note que f 0 0 1
= −f 0 1 0
= −1
pela propriedade 3′ .
0 1 0 0 0 1
a 0 0
11
a22 a23
Assim f a21 a22 a23
= a11 (a22 a33 − a23 a32 ) = a11 det
a32 a33
a31 a32 a33
Mas essa é só a primeira parte. Ainda existem outras duas que vou deixar como exercı́cio porque
a conta é igual a que acabamos de fazer. Portanto quero que você mostre que
0 a12 0 0 0 a13
a21 a23 a21 a22
f a21 a22 a23
= −a12 det
e f
a21 a22 a23 = a13 det
.
a31 a33 a31 a32
a31 a32 a33 a31 a32 a33
Determinante de matrizes 3 × 3
É possı́vel provar que essa f : M3×3 (R) → R do exercı́cio anterior satisfaz todas as propriedades
da função determinante, ou seja, ela é uma função determinante e pelo exercı́cio anterior todas
as funções determinantes são iguais a ela, ou seja, só existe uma função determinante para
matrizes 3 × 3.
a11 a12 a13
a22 a23 a21 a 23 a21 a 22
det a21 a22 a23
= a11 det
−a12 det +a13 det .
a32 a33 a31 a33 a31 a32
a31 a32 a33 | {z } | {z } | {z }
matriz obtida eliminando matriz obtida eliminando matriz obtida eliminando
linha 1 e coluna 1 linha 1 e coluna 2 linha 1 e coluna 3
64
Exercı́cio 4.1.10. Mostre que se f : M3×3 (R) → R é uma função determinante então
a11 a12 a13
a12 a13 a11 a13 a11 a12
a) det a21 a22 a23
= (−1)a21 det
+ a22 det + (−1)a23 det .
a32 a33 a31 a33 a31 a32
a31 a32 a33
a11 a12 a13
a12 a 13 a 11 a13 a 11 a12
b) det a21 a22 a23
= a31 det
+ (−1)a32 det + a33 det .
a22 a23 a21 a23 a21 a22
a31 a32 a33
DICA: Troque de lugar a segunda linha com a primeira e use a fórmula do determinante para resolver
a letra a). Para resolver a letra b), troque a terceira linha com a segunda e depois a segunda com a
primeira e utilize a fórmula do determinante.
Observação 4.1.11. Vimos o exercı́cio 4.1.8 que só existe uma função determinante e que a fórmula
dela é dada pela definição 4.1.9. Então o que são essas novas fórmulas do exercı́cio anterior? São
apenas outras formas de calcular o determinante da matriz (outras facetas da mesma função). Veja
o seguinte teorema.
Teorema 4.1.12. Para cada n existe uma única função determinante det : Mn×n (R) → R.
Ela pode ser calculada de diversas maneiras. Seja An×n .
• Consider o det(∆ij ). Note que esse determinante é o único que existe para matrizes
(n − 1) × (n − 1).
Então det(A) = (−1)i+1 ai1 det(∆i1 ) + (−1)i+2 ai2 det(∆i2 ) + . . . + (−1)i+(n−1) ai(n−1) det(∆i(n−1) ) + (−1)i+n ain det(∆in ).
Essa fórmula para determinante da matriz An×n utilizando o determinante das matrizes
(∆ij )(n−1)×(n−1) variando o j, ou seja, percorrendo a linha i. Essa é a chamada expansão
de Laplace do determinante pela linha i.
65
1 1 1 1
2 3 4 5
3 2 3 1 1 1
1 1 1 1
3 4 5 6
a) det 0 2 4 b) det 2 3 4 c) det
1 1 1 1
4 5 6 7
0 0 1 22 32 42
1 1 1 1
5 6 7 8
= 0 + 0 + 1.(3.2 − 0.2) = 6
b) Quantos polinômios desse tipo existem? DICA: Números de soluções do sistema acima.
Teorema 4.2.1. Seja Bn×n a matriz obtida de An×n através da seguintes operações elementares nas
linhas de A:
Demonstração. a) Pela propriedade 3′ ) se trocarmos duas linhas de lugar então o valor do determi-
nante fica alterado por um fator de −1.
66
L1 L1
. ..
..
.
b) Pela propriedade 1), como det(B) = = x.det(A).
det
x.Li
= x. det
Li
. ..
.
. .
Ln Ln
L1 L L1 L1 L1
1
.. .. .. .. ..
.
.
.
.
.
Li + xLj Li xLj Li Lj
.. . .. ... ...
c) det(B) = = det .. + det = det(A).
det
. . = det
+ x.
det
L j
L
j
Lj
Lj
Lj
.. .
.
..
...
...
. . .
Ln Ln Ln Ln Ln
| {z } | {z }
Pela propriedade 2) = 0 Prop. 1) e 3)
Corolário 4.2.2. Seja En×n a matriz elementar obtida de Idn×n através da seguintes operações
elementares nas linhas de Id:
a) Li ↔ Lj então det(E) = −1
Demonstração. Isso é consequência imediata do teorema anterior. Basta substituir A pela Id e usar
que det(Id) = 1.
Corolário 4.2.3. Seja En×n a matriz elementar e An×n uma matriz qualquer det(EA) = det(E) det(A).
67
Como Ec A realiza a operação elementar c) em A, pelo teorema 4.2.1, sabemos que
det(Ec A) = 1. det(A). Pelo corolário anterior sabemos que det(Ec ) = 1.
Assim det(Ec A) = det(Ec ) det(A).
Isso prova o corolário.
Teorema 4.3.1. An×n é invertı́vel se e somente se det(A) ̸= 0. Portanto se A não é invertı́vel, seu
determinante vale zero.
i. Multiplicando por matrizes elementares podemos reduzir A até seu formato reduzido R, ou seja,
En En−1 . . . E2 E1 A = R.
Suponha que R tenha uma alguma linha nula. Portanto det(R) = 0, porque podemos por 0 que
multiplica a linha para fora, pela propriedade 1) do determinante.
Agora det(En En−1 . . . E2 E1 A) = det(R) e, pelo corolario 4.2.3,
Mas lembre-se que det(Ei ) ̸= 0, para todo i, pelo corolário 4.2.2. Como det(R) = 0 e det(Ei ) ̸= 0,
para todo i, então det(A) = 0. Mas aqui estamos assumindo que det(A) ̸= 0, ou seja, cometemos um
erro.
O erro foi dizer que o formato reduzido de A tem uma linha nula. Para evitar o erro devemos
concluir que R não tem linha nula. Assim R = Id pelo exercı́cio 2.2.6.
Portanto En En−1 . . . E2 E1 A = Id. Acabamos de encontrar a inversa de A: En En−1 . . . E2 E1 .
Provamos que se det(A) ̸= 0 então A tem inversa. Vamos provar o contrário agora.
ii. Se An×n é invertı́vel sabemos pelo teorema 3.7.4 que ela é produto de elementares. Isto é,
A = F1 . . . Fn .
Agora, pelo corolário 4.2.3,
68
det(A) = det(F1 . . . Fn ) = det(F1 ) det(F2 . . . Fn ) = . . . = det(F1 ) . . . det(Fn ) .
Teorema 4.3.2. Se An×n e Bn×n são matrizes então det(AB) = det(A) det(B).
Exercı́cio 4.3.3. Encontre matrizes A2×2 e B2×2 tais que det(A + B) ̸= det(A) + det(B).
a) det(AB) = det(BA)
69
d) Se B é invertı́vel então det(B −1 AB) = det(A)
e) det(Am ) = det(A)m
Pelo teorema 4.3.2, det(A.A−1 ) = det(A) det(A−1 ). Pela definição do determinante, det(Id) = 1.
70
det(At ) = det(Fm
t Ft t t t t
m−1 . . . F1 ) = det(Fm ) det(Fm−1 ) . . . det(F1 ).
Sabemos que podemos fazer a expansão de Laplace em qualquer linha da matriz At para obter seu
determinante que será igual ao det(A) pelo teorema 4.3.5. Mas as linhas de At são as colunas de A.
Portanto poderemos fazer a expansão de Laplace nas colunas de A para obter seu determinante.
Vamos fazer a expansão de Laplace na primeira linha da matriz At para você se convencer de que
a expansão de laplace nas colunas da A também dá o det(A).
a11 a21 a31
a22 a 32 a a a a
det(At ) = det a12 a22 a32
= a11 det
− a21 det 12 32 + a31 det 12 22 .
a23 a33 a13 a33 a13 a23
a13 a23 a33
Note que aqui você está fazendo a expansão de Laplace utilizando a primeira coluna de A.
71
Expansão de Laplace por colunas
Teorema 4.4.1. Podemos calcular o determinante de uma matriz An×n através da fórmula
det(A) = (−1)1+j a1j det(∆1j ) + (−1)2+j a2j det(∆2j ) + . . . + (−1)(n−1)+j a(n−1)j det(∆(n−1)j ) + (−1)n+j anj det(∆nj ).
Note que estamos utilizando os determinantes das matrizes (∆ij )(n−1)×(n−1) variando o i, isto
é, percorrendo a coluna j. Essa é a chamada expansão de Laplace pela coluna j.
Veremos aqui outra consequência interessante do teorema 4.3.5. Veremos como o valor do deter-
minante da matriz é alterado pelas operações elementares nas colunas. A supresa é que o valor do
determinante é alterado da mesma maneira que operações nas linhas da matriz.
Saber como as operações elementares nas linhas e colunas de matrizes alteram o valor do deter-
minante nos permitem calcular de maneira muito rápida determinante de diversas matrizes. Veremos
como calcular o determinante da matriz de Hilbert.
Teorema 4.5.1. Seja Bn×n a matriz obtida de An×n através da seguintes operações elementares nas
colunas de A:
b) Se para obter B a partir de A fizemos Ci ↔ x.Ci então para obter B t a partir de At temos que
fazer Li ↔ x.Li , porque as linhas de At são as colunas da A.
Agora pelo teorema 4.2.1, det(B t ) = x. det(At ).
Mas pelo teorema 4.3.5, det(B) = det(B t ) = x. det(At ) = x. det(A).
72
c) Se para obter B a partir de A fizemos Ci ↔ x.Cj + Ci então para obter B t a partir de At temos
que fazer Li ↔ x.Lj + Li , porque as linhas de At são as colunas da A.
Agora pelo teorema 4.2.1, det(B t ) = det(At ).
Mas pelo teorema 4.3.5, det(B) = det(B t ) = det(At ) = det(A).
Nessa seção obteremos uma fórmula para o determinante da matriz de Hilbert. Isso só é possı́vel
graças ao nosso conhecimento de como as operações elementares nas linhas e colunas alteram o valor
do determinante.
Matriz de Hilbert
1
Definição 4.6.1. A matriz de Hilbert n × n é definida por (Hn )ij = i+j−1 .
1 1
1 2 3
1 1 1
1+1−1 1+2−1 1 2
Exemplos: H2 = = , H3 =
1 1 1
2 3 4
1 1 1 1
2+1−1 2+2−1 2 3 1 1 1
3 4 5
Sabemos como o determinante é alterado pelas operações elementares. Isso é o que precisamos
para provar o seguinte teorema.
[(n − 1)!]4
Teorema 4.6.2. det(Hn ) = det(Hn−1 )
[(2n − 2)!]2 .(2n − 1)
Demonstração. Primeiramente
1 1 1
1 2 ... n−1 n
1 1 1 1
...
2 3 n n+1
.. .. .. ..
Hn = ..
.
. . . .
1 1 1 1
n−1 n ... 2n−3 2n−2
1 1 1 1
n n+1 ... 2n−2 2n−1
Passo 1: Multiplique todas as linhas de Hn de tal maneira que a última coluna só contenha 1s.
Não simplifique nenhuma fração.
Faremos as operações L1 ↔ n.L1 , L2 ↔ (n + 1).L2 , . . ., Ln ↔ (2n − 1).Ln .
O valor do determinante é alterado por n(n + 1) . . . (2n − 1) pela letra b) do teorema 4.2.1.
Vamos dividir por n(n + 1) . . . (2n − 1) para compensar.
73
n n
n 2 ... n−1 1
n+1 n+1 n+1
... 1
2 3 n
1
.. .. .. .. ..
det(Hn ) = det .
. . . .
n(n + 1) . . . (2n − 1)
2n−2 2n−2 2n−2
n−1 n ... 2n−3 1
2n−1 2n−1 2n−1
n n+1 ... 2n−2 1
Passo 2: Subtraia a última coluna das anteriores. Não simplifique nenhuma fração.
Isso não altera o valor do determinante pela letra c) do teorema 4.5.1.
n−2 1
n−1 2 ... n−1 1
n−1 n−2 1
... 1
2 3 n
1
.. .. .. .. ..
= det .
. . . .
n(n + 1) . . . (2n − 1)
n−1 n−2 1
n−1 n ... 2n−3 1
n−1 n−2 1
n n+1 ... 2n−2 1
Passo 3: Coloque os numeradores das frações das colunas em evidência para fora do determinante.
Podemos fazer isso pela letra b) do teorema 4.5.1.
1 1
1 2 ... n−1 1
1 1 1
... 1
2 3 n
(n − 1)(n − 2) . . . 1
.. .. .. .. ..
= det .
. . . .
n(n + 1) . . . (2n − 1)
1 1 1
n−1 n ... 2n−3 1
1 1 1
n n+1 ... 2n−2 1
Passo 4:
Multiplique todas as colunas da última matriz de tal maneira que a última linha só contenha 1s.
Não simplifique nenhuma fração.
Faremos as operações C1 ↔ n.C1 , C2 ↔ (n + 1).C2 , . . . , Cn−1 ↔ (2n − 2).Cn−1 .
O valor do determinante é alterado por n(n + 1) . . . (2n − 2) pela letra b) do teorema 4.2.1.
Vamos dividir por n(n + 1) . . . (2n − 2) para compensar.
n+1 2n−2
n 2 ... n−1 1
n n+1 2n−2
... 1
2 3 n
(n − 1)(n − 2) . . . 1
.. .. .. .. ..
= det .
2 . . . .
[n(n + 1) . . . (2n − 2)] (2n − 1)
n n+1 2n−2
n−1 n ... 2n−3 1
1 1 ... 1 1
74
Passo 5: Subtraia a última linha das anteriores.
Não simplifique nenhuma fração.
Isso não altera o valor do determinante pela letra c) do teorema 4.2.1.
n−1 n−1
n−1 2 ... n−1 0
n−2 n−2 n−2
... 0
2 3 n
(n − 1)(n − 2) . . . 1
.. .. .. .. ..
= det .
. . . .
[n(n + 1) . . . (2n − 2)]2 (2n − 1)
1 1 1
n−1 n ... 2n−3 0
1 1 ... 1 1
Passo 6: Coloque os numeradores das frações das linhas em evidência para fora do determinante.
Podemos fazer isso pela letra b) do teorema 4.2.1.
1 1
1 2 ... n−1 0
1 1 1
... 0
2 3 n
[(n − 1)(n − 2) . . . 1]2
.. .. .. ..
= det ..
.
2 . . . .
[n(n + 1) . . . (2n − 2)] (2n − 1)
1 1 1
n−1 n ... 2n−3 0
1 1 ... 1 1
1 1
1 2 ... n−1
1 1 1
[(n − 1)(n − 2) . . . 1]2 ... [(n − 1)!]4
2 3 n
= det [(2n − 2)!]2 (2n − 1) det(Hn−1 ).
=
.. .. ..
2
[n(n + 1) . . . (2n − 2)] (2n − 1) ..
.
. . .
1 1 1
n−1 n ... 2n−3
75
Uma outra matriz importante é a seguinte matriz de Vandermond.
Exercı́cio 4.6.5 (Polinômio Interpolador: Parte 1). Note que se p(x) = a0 + a1 x + . . . an−1 xn−1 é
um polinômio tal que p(x1 ) = b1 , . . . , p(xn ) = bn então V (x1 , . . . , xn )⃗a = ⃗b, onde ⃗at = (a0 , . . . , an−1 ) e
⃗bt = (b1 , . . . , bn )
Mostre que se x1 , . . . , xn forem números distintos então para cada conjunto de valores b1 , . . . , bn
existe um único polinômio que satisfaz p(x1 ) = b1 , . . . , p(xn ) = bn .
A seguir definiremos a adjunta clássica de uma matriz. Ela será muito relevante no teorema 9.3.6.
76
Definição 4.7.1. Seja An×n uma matriz. Definimos
• a matriz dos cofatores de A, que será denotada por cof (A)n×n , como aquela que satisfaz cof (A)ij =
(−1)i+j det(∆ij ), onde ∆ij é a matriz (n − 1) × (n − 1) obtida de A eliminando a linha i e a
coluna j.
• a adjunta clássica de A , que será denotada por Adj(A)n×n , como a transposta da matriz dos
cofatores de A: Adj(A) = cof (A)t .
Exemplos:
1 2 (−1)1+1 7 (−1)1+2 5 7 −5 7 −2
a) A = , cof (A) = , Adj(A) =
5 7 (−1)2+1 2 (−1)2+2 1 −2 1 −5 1
a a a (−1)1+1 det(∆11 ) (−1)1+2 det(∆12 ) (−1)1+3 det(∆13 ) det(∆11 ) − det(∆21 ) det(∆31 )
11 12 13
b) A = a21 a22 a23
, cof (A) = (−1)2+1 det(∆21 ) (−1)2+2 det(∆22 ) (−1)2+3 det(∆23 )
, Adj(A) = − det(∆12 ) det(∆22 ) − det(∆32 )
a31 a32 a33 (−1)3+1 det(∆31 ) (−1)3+2 det(∆32 ) (−1)3+3 det(∆33 ) det(∆13 ) − det(∆23 ) det(∆33 )
Solução:
1 2 7 −2 −3 0
a) = . Note que −3 = det(A).
5 7 −5 1 0 −3
Seja i ̸= j.
77
Essa penúltima linha é quase a expansão de Laplace do det(A) na linha j. A diferença é que os
números que aparecem nessa linha j não são aj1 aj2 aj3 . Essa penúltima linha é a expansão de Laplace
do det(B) cuja linha j é ocupada pelos números ai1 ai2 ai3 e o resto da B é igual a matriz A, ou seja,
a linha j é igual a linha i. Como i ̸= j então B tem duas linhas iguais. Portanto det(B) = 0.
det(A) 0 0
Assim AAdj(A) =
0 det(A) 0 .
0 0 det(A)
Corolário 4.7.4 (Fórmula para a inversa da matriz). Seja An×n uma matriz invertı́vel. Então A−1 =
1
det(A) Adj(A).
a11 . . . a1n
a21 . . . a2n
Corolário 4.7.5 (Regra de Cramer). Seja An×n = uma matriz invertı́vel.
.. ..
..
.
. .
an1 . . . ann
a11 x1 + . . . + a1n xn = b1
a21 x1 + . . . + a2n xn = b2
det(Ei )
A única solução para o sistema é dada pelas fórmulas xi = , onde Ei
...
det(A)
an1 x1 + . . . + ann xn = bn
b1
b2
é a matriz obtida de A substituindo a sua coluna i pela coluna .. .
.
bn
a11 . . . a1(i−1) b1 a1(i+1) . . . a1n
a21 . . . a2(i−1) b2 a2(i+1) . . . a2n
Isto é, Ei =
..
.
. ... ... ..
.
..
. ... ...
an1 . . . an(i−1) bn an(i+1) . . . ann
Demonstração. Podemos reescrever esse sistema da seguinte maneira usando produto de matrizes.
78
a11 . . . a1n x1 b1
a21 . . . a2n x2 b2
=
.. .. .. ..
..
.
. . . .
an1 . . . ann xn bn
| {z }| {z } | {z }
A x b
1
Pelo exercı́cio 3.4.4 sabemos que x = A−1 b. Agora pelo corolário anterior A−1 = Adj(A).
det(A)
A expressão entre parênteses nessa última linha é quase a expansão de Laplace do det(A) na coluna
i. A diferença é que os números que aparecem nessa coluna i não são a1i a2i . . . ani . Essa expressão
é a expansão de Laplace do det(Ei ) na coluna i que é ocupada pelos números b1 b2 . . . bn e o resto
da Ei é igual a matriz A.
Observação 4.7.6. A regra de Carmer é bem limitada. Ela só é útil para resolver sistemas com
solução única (Você não sabe de antemão se é esse o caso). Além disso, para utilizá-la você tem que
calcular diversos determinantes, que é uma tarefa que o seu computador demora mais pra realizar que
apenas reduzir ao formato escada.
79
Solução: a) Vamos calcular o det(A) para saber se podemos usar a regra de Cramer.
Exercı́cio 4.7.8. Sejam A, B, C matrizes 2 × 2. Denote por Adj(C) a adjunta clássica de C. Defina
tr(C) = c11 + c22 (o traço é a soma dos elementos da diagonal de C).
a) Mostre que Adj(A + B) = Adj(A) + Adj(B). Isso só ocorre para matrizes 2 × 2
A seguir veremos duas fórmulas para calcular a área de um triângulo no R2 envolvendo determi-
nantes. A primeira delas é a seguinte:
80
Área a partir dos vértices
Vejamos agora o motivo dessa fórmula. Podemos imaginar esses pontos no R3 com vértices
(x1 , y1 , 0), (x2 , y2 , 0) e (x3 , y3 , 0).
u = (x2 − x1 , y2 − y1 , 0) e v = (x3 − x1 , y3 − y1 , 0)
81
Área a partir das equações das retas
Agora suponha que as retas que contêm os vértices (x1 , y1 ), (x2 , y2 ) e (x3 , y3 ) do triângulo
tenham equações aj x + bj y + cj = 0 e que o vértice (xi , yi ) pertença a essa reta quando i ̸= j,
ou seja, aj xi + bj yi + cj = 0 quando i ̸= j, onde i, j = 1, 2, 3.
onde
a1 b1 1 a1 b1 0 a1 b1 0
C1 = det a2 b2 0, C2 = det a2 b2 1 e C3 = det a2 b2 0 .
a3 b3 0 a3 b3 0 a3 b3 1
a b c x x2 x3
1 1 1 1
Considere as matrizes A = a2 b2 c2 e B = y1 y2 y3 .
a3 b3 c3 1 1 1
Chame di = ai xi + bi yi + ci . Como os três vértices formam um triângulo, isso significa que eles
não pertencem a mesma reta, ou seja, di ̸= 0, para i = 1, 2, 3.
Assim,
x1 x2 x3
d1 0 0 a1 b1 c1 1 0 0
d1 d2 d3
AB = 0 d2 0 e a2 b2 c2 dy1 y2 y3 = 0 1 0.
d2 d3
1
1 1 1
0 0 d3 a3 b3 c3 d1 d2 d3 0 0 1
x1 x2 x3
a1 b1 c1 1 a1 b1 c1 0 a1 b1 c1 0
d1 d2 d3
y1 y2 y3
a2 b2 c2 d = 0, a2 b2 c2 d = 1 e a2 b2 c2 d = 0
1 2 3
1 1 1
a3 b3 c3 d1 0 a3 b3 c3 d2 0 a3 b3 c3 d3 1
82
Pela regra de Cramer temos que
a1 b1 1 a1 b1 0 a1 b1 0
1 1 1 1 1 1
d1 = det(A) det a b 0, = det(A) det a b 1, = det(A) det a2 b2 0 .
2 2 d2 2 2 d3
a3 b3 0 a3 b3 0 a3 b3 1
det(A)3 det(A)2
Então det(AB) = d1 d2 d3 = . Portanto, det(B) = .
C1 C2 C3 C1 C2 C3
Vimos pela fórmula anterior que a área do triângulo é metade do valor absoluto do det(B t ).
det(A)2
Finalmente obtemos que a área do triângulo é metade do valor absoluto do det(B) = .
C1 C2 C3
83
Capı́tulo 5
Espaços Vetoriais
Aqui estudaremos transformações lineares de maneira mais profunda. As T.L.s não serão apenas
entre Rn e Rm como vimos antes, mas agora entre conjuntos mais gerais. Eles são chamados de espaços
vetoriais. Então os espaços vetoriais formarão o domı́nio e o contradomı́nio das nossas novas T.L.s.
Definição 5.1.1. Um espaço vetorial real é um conjunto V ̸= ∅ que possui duas operações:
a) Adição: Dados v, w ∈ V , v + w ∈ V
3. Existe um elemento 0V ∈ V que satisfaz v + 0V = v para todo v ∈ V . Ele também será denotado
por ⃗0. Ele é chamado de elemento neutro da soma.
4. Para todo v ∈ V existe um w ∈ V tal que v + w = ⃗0. Esse w será chamado de −v. Esse −v é
chamado de elemento oposto da soma.
84
7. a.(b.v) = (a.b).v
a) Todos os Rn com a soma e multiplicação por números reais definidas na seção 1.3 (aquelas que
você já está costumado) são exemplos de espaços vetoriais. Porque eles satisfazem todas essas
propriedades. Veja as propriedades descritas na seção 1.3.
b) O conjunto de todos os polinômios com coeficientes reais com a seguinte soma e a multiplicação
por números reais. R[x] = {a0 + a1 x + . . . + an xn , ai ∈ R}
+ bi )xi .
P
Para economizar sı́mbolos vamos escrever isso assim: i (ai
Agora temos que verificar todas as propriedades e só assim podemos concluir que R[x] com essa
soma e multiplicação é um espaço vetorial.
i i
+ bi )xi = i (bi + ai )xi = i bi xi + i ai xi .
P P P P P P
1. i ai x + i bi x = i (ai
0 + i ai xi = i ai xi
P P
3.
i i i
P P P
4. i ai x + i (−ai )x = i (ai + −ai )x = 0
85
7. c.d( i ai xi ) = i (c.d).ai xi = i c.(d.ai )xi = c.( i d.ai xi ) = c.(d. i ai xi ).
P P P P P
8. 1. i ai xi = i 1.ai xi = i ai xi .
P P P
c) Mm×n que é o conjutno das matrizes com m linhas e n colunas reais com a soma de matriz e
multiplicação por escalar que estamos acostumados.
Isso é verdade porque uma matriz m × n se parece muito com um vetor de Rmn . A única
diferença é como você dispõe os números.
Agora temos que verificar todas as propriedades e só assim podemos concluir que RR com essa
soma e multiplicação é um espaço vetorial.
2. [(f + g) + h](x) = f + g(x) + h(x) = f (x) + g(x) + h(x) = f (x) + g + h(x) = [f + (g + h)](x)
3. 0 + f (x) = f (x)
4. f (x) + −f (x) = 0
f ) O conjunto ]0, ∞[ com a soma definida por x ⊕ y = x.y e a multiplicação por λ ∈ R definida por
λ ⊙ x = xλ .
Agora temos que verificar todas as propriedades e só assim podemos concluir que ]0, ∞[ com essa
soma e multiplicação é um espaço vetorial.
1. x ⊕ y = x.y = y.x = y ⊕ x
86
4. x ⊕ x−1 = x.x−1 = 1 = ⃗0.
8. 1 ⊙ x = x1 = x.
b) c.0V = 0V
c) (−1).v = −v
0V = 0.v + 0V = 0.v,
87
5.2 Subespaços Vetoriais
Dentro dos espaços vetoriais existem subconjuntos que também são espaços vetoriais quando uti-
lizamos a mesma soma e a mesma multiplicação por escalares. Esses conjuntos são chamados de
subespaços vetoriais
Definição 5.2.1. Seja V um espaço vetorial. Um subconjunto W de V que não é vazio será chamado
de subespaço vetorial de V se
2. para qualquer w ∈ W e qualquer λ ∈ R temos que λ.w ∈ W , onde esse produto por escalar é o
produto de V .
OBS 1: Note que se W aproveita a soma e o produto de V para virar um espaço vetorial então
a soma de dois vetores de W tem que dar um vetor de W e o produto por escalar de um vetor
de W tem que dar um vetor de W . Isso é uma coisa que sempre teremos que verificar para
garantir que W seja um espaço vetorial se aproveitando da estrutura que já existe em V . O que
não teremos que verificar são as propriedades, pois já sabemos que elas valem para os vetores
de V o que inclui os de W .
OBS 2: Todo subespaço de V contém o 0V . Pois se w ∈ W então 0.w ∈ W , mas 0.w = 0V pelo
exercı́cio 5.1.2.
Exemplos de subespaços:
88
b) Seja V um espaço vetorial. Note que V é um subespaço vetorial de si mesmo.
1. Sejam v1 , v2 ∈ V . Então v1 + v2 ∈ V
Conclusão: Todo espaço vetorial V tem pelo menos dois subespaços: V e {0V }.
x
c) W = , x ∈ R é subespaço do R2 .
0
x
e) W = , x ∈ R não é subespaço do R2 .
x2
x λ.x λ.x x
Note que λ. = ̸= . Portanto λ. ∈
/ W . Assim W não é um
x2 λ.x2 (λ.x)2 x2
subespaço.
Exercı́cio 5.2.2. Verifique se os seguintes subconjuntos W dos espaços vetoriais V são subespaços
dele.
89
a) W = {a0 + a1 x + a2 x2 , a0 , a1 , a2 ∈ R} (o conjunto dos polinômios de grau menor ou igual a 2),
onde V = R[x].
a b
b) W = , a, b, c ∈ R , onde V = M2×2 .
1 c
a b
c) W = , a, b, c ∈ R , onde V = M2×2 .
0 c
x + 2y + 3z = 0
d) Considere o sistema I
x + 3y + 4z = 0
x
Seja W = y , que satisfazem o sistema I ,
onde V = R3 .
z
x + 2y + 3z = 1
e) Considere o sistema II
x + 3y + 4z = 0
x
Seja W = y , que satisfazem o sistema II ,
onde V = R3 .
z
Exercı́cio 5.2.3. Mostre que os únicos subespaços do R2 são os seguintes: {⃗0}, as retas que passam
pela origem e o próprio R2 .
Solução: Já sabemos que {⃗0} e R2 são subespaços do R2 , pelos exemplos a) e b) da página anterior.
Seja W um subespaço do R2 . Vamos considerar as seguintes opções.
2. Se W possui vetores não nulos, mas todos paralelos. Todos serão múltiplo de um vetor v.
Portanto W = {λ.v, λ ∈ R}. Note que λ.v, λ ∈ R é a equação paramétrica de uma reta
passando pela origem.
3. Se W possui dois vetores não nulos e não paralelos. Então os múltiplos deles pertecem a W , pois
W é um subespaço. E a soma desses múltiplos também pertencem a W , pois W é um subespaço.
Assim qualquer combinação desses 2 vetores pertecem a W . Mas já vimos no primeiro capı́tulo
que todas as combinações de dois vetores não nulos e não paralelos do R2 dão todos os vetores
do R2 . Assim W ⊃ R2 , ou seja, W = R2 . □
90
Exercı́cio 5.2.4. Sejam W1 , W2 subespaço de V . Mostre que
a) W1 ∩ W2 é um subespaço de V .
b) W1 + W2 = {r + s, r ∈ W1 , s ∈ W2 } é um subespaço de V .
Exercı́cio 5.2.5. Considere o seguinte sitema linear Ax = b, onde Am×n é uma matriz, xn×1 é o
vetor das incógnitas e bm×1 o vetor dos termos independentes. Dizemos que esse sistema é homogêneo
se bm×1 = ⃗0 e não homogêneo se bm×1 ̸= ⃗0
b) Mostre que o conjunto solução de um sistema não homogêneo não é um subespaço vetorial do
Rn .
c) Seja y tal que Ay = b. Mostre que todas as soluções do sistema Ax = b tem o formato z + y,
onde z é solução de Ax = ⃗0.
b) Considere o sistema Ax = b , onde b ̸= ⃗0. Note que se x1 é solução do sistema então λ.x1 não
vai ser solução do mesmo sistema quando λ ̸= 1, pois
c) Já sabemos que Ax = b tem uma solução, y, assim Ax = b tem infinitas soluções. Seja w outra
solução diferente de y. Assim A(w − y) = Aw − Ay = b − b = ⃗0, isto é, w − y = z é solução de Ax = ⃗0.
Portanto w = z + y, onde z é solução de Ax = ⃗0.
Definição 5.3.1. Dizemos que um espaço vetorial V é gerado pelos seus vetores v1 , . . . , vn se qualquer
vetor de v é combinação linear de v1 , . . . , vn . Quando isso ocorrer dizemos que {v1 , . . . , vn } é um
91
conjunto gerador de V .
b) O espaço gerado por dois vetores v, w ∈ R2 \ {⃗0} não paralelos é o conjunto {x.v + y.w, x, y ∈ R}
que sabemos pelo capı́tulo 1 que é o próprio R2 .
d) O espaço vetorial gerado pelos polinômios 1, x, x2 é o subespaço dos polinômios de grau menor
ou igual a 2, isto é, {a0 + a1 x + a2 x2 , a0 , a1 , a2 ∈ R}.
x + 2y + 3z = 0
Exercı́cio 5.3.2. Considere o sistema I
x + 3y + 4z = 0
Sabemos pelo exercı́cio 5.2.2 que SI é um subespaço do R3 .
Encontre um conjunto de geradores para SI .
Solução: Precisamos descobrir primeiro quais são os vetores de SI , isto é, resolver o sistema.
1 2 3 0 1 2 3 0 1 0 1 0
−−−−−−−−−→ −−−−−−−−−→
1 3 4 0 L2 ↔L2 +(−1).L1 0 1 1 0 L1 ↔L1 +(−2).L2 0 1 1 0
−z
−1
Então SI = −z , z ∈ R = z. −1 , z ∈ R
z 1
−1
Note que todos os vetores de SI são combinações lineares de −1
e esse vetor também pertence
1
−1
a SI . Então −1
é um gerador de SI .
1
Exercı́cio 5.3.3. Encontre um conjunto de geradores para os seguintes subespaços vetoriais de M2×2 .
a b
a) W = , a, b, c ∈ R
0 c
92
a b
b) W = , a, b, c ∈ R
b c
0 −a
c) W = , a ∈ R
a 0
Solução:
a b 1 0 0 1 0 0
a) Note que = a + b + c .
0 c 0 0 0 0 0 1
1 0 0 1 0 0
Além disso, , , pertencem a esse subespaço.
0 0 0 0 0 1
1 1
Exercı́cio 5.3.4. Seja V o subespaço do R3 gerado por 0 , 1
e W o subespaço do R3 gerado
0
0
0 0
por 1 , 0 .
Encontre um conjunto de geradores para o subespaço V ∩ W .
1
1
Solução:
1 1
Queremos os vetores que podem ser escritos como combinação de 0 , 1
e como com-
0
0
0 0 1 1 0 0
binação de 1 , 0 .
Isto é, x 0 + y 1 = z 1 + w
0 .
1
1 0 0 1 1
Essa matriz está no formato reduzido e já podemos achar a solução do sistema que é x = w,
y = −w, z = −w, w = w. Então x, y, z dependem de w e w é qualquer número real.
1 1 0
Substituindo x e y encontraremos a interseção: w 0 − w 1 = w. −1 ,
w ∈ R.
0 0 0
93
0
A interseção é gerada pelo vetor −1 .
0
Definição 5.3.6. Seja V um espaço vetorial real e v1 , . . . , vn alguns de seus vetores. Dizemos
que v1 , . . . , vn são linearmente independentes (L.I.) se a única combinação linear deles que
resulta no vetor 0V é aquela com coeficientes nulos, isto é, a1 v1 + . . . + an vn = 0V ⇔ a1 = . . . =
an = 0.
Se existirem números a1 , . . . , an nem todos iguais a 0 tais que a1 v1 + . . . an vn = 0V , dizemos
que v1 , . . . , vn são linearmente dependentes (L.D.).
0 1 0 1 0
a) Os vetores , são L.I.. Pois x +y = só ocorre quando x = y = 0.
1 0 1 0 0
0 1 1 2
b) Os vetores , , , são L.D.. Pois
1 0 1 1
0 1 1 2 0
1. + 1. + (−1). + 0. = ,
1 0 1 1 0
ou seja, existe uma combinação linear desses vetores com números nem todos não iguais a 0
dando o vetor nulo.
94
Exercı́cio 5.3.7. Verifique se o seguintes conjuntos de vetores são L.I. ou L.D.
1 1 1 1
0 0 1 1 1 1
1 1 0 0
a) 0 , 1 , 0 .
b) 1 , 1 , 0 .
c) , , , .
1 0 0 1
0 0 0 1 0 0
1 0 0 1
Como ai ̸= 0,
a1 ai−1 ai+1 an
vi = v1 + . . . + vi−1 + vi+1 + . . . + vn .
−ai −ai −ai −ai
Portanto vi é combinação linear dos outros.
Vamos supor que vi seja combinação linear dos outros, isto é,
95
Solução:
Se alguma deles for múltiplo de algum outro então um será combinação linear dos outros e portanto
pelo resultado anterior eles serão L.D.. Agora se nenhum deles é multiplo de algum outro então dois
deles não são nulos e não são múltiplos. Pelo que vimos no capı́tulo 1, a combinação desses dois dá o
terceiro. Portanto um deles é sempre combinação linear dos outro dois, ou seja, eles são sempre L.D.
pelo resultado anterior.
a) Se convença que Ax = x1 v1 + x2 v2 + . . . xk vk .
b) Mostre que v1 , . . . , vk são L.I. se e somente se a única solução para o sistema Ax = ⃗0 é a solução
x1 = x2 = . . . = xk = 0.
Definição de Base
Exemplos de bases:
1 0
a) O conjunto , é uma base do R2 .
0 1
Temos que verificar se o conjunto gera e se ele é L.I. para garantir que seja base.
a 1 0
1. Note que = x + y , onde x = a e y = b.
b 0 1
96
Portanto qualquer vetor do R2 é combinação linear desses dois.
0 1 0
2. Se = x +y então x = y = 0, ou seja, esses vetores são L.I.
0 0 1
1 −1
b) O conjunto , é uma base do R2 .
1 1
Temos que verificar se o conjunto gera e se ele é L.I. para garantir que seja base.
a 1 −1
1. Precisamos achar x, y tais que = x + y .
b 1 1
a+b −a + b
Mas isso implica que x − y = a e x + y = b, ou seja, x = ey= .
2 2
Portanto qualquer vetor do R2 é combinação linear desses dois.
0 1 −1
2. Se = x + y então x − y = 0 e x + y = 0. Você pode ver que esse
0 1 1
sistema tem solução única x = y = 0, ou seja, esses vetores são L.I.
1 0 a b
0 1 0 0
b) , , , onde V = , a, b, c ∈ R .
0 0 1 0 0 1 b c
Antes de resolver o próximo exercı́cio, observe o exercı́cio 4.6.5. Depois de resolvê-lo veja o exercı́cio
6.2.13
Exercı́cio 5.3.13 (Polinômio Interpolador: Parte 2). Sejam x1 , . . . , xn números distintos. Defina
p(x)
p(x) = (x − x1 )(x − x2 ) . . . (x − xn ) e defina os polinômios p1 (x), . . . , pn (x) por pi (x) = .
(x − xi )
pi (x)
a) Mostre que os polinômios q1 (x), . . . , qn (x) definidos por qi (x) = formam uma base para o
pi (xi )
espaço de polinômios de grau menor que n.
97
b) Se b1 , . . . , bn são números então o único polinômio q(x) de grau menor que n que satisfaz q(x1 ) =
b1 , . . . , q(xn ) = bn é o polinômio
Teorema 5.4.1. Sejam v1 , . . . , vn vetores que geram um espaço vetorial V ̸= {0V }. Dentre esses
vetores podemos extrair uma base.
Demonstração. Se v1 , . . . , vn são L.I., como eles já geram V , então eles já formam uma base de V .
Se v1 , . . . , vn forem L.D. então um deles é combinação dos outros pelo lema 5.3.8. Vamos dizer que
seja o vi , ou seja, vi = b1 v1 + . . . + bi−1 vi−1 + bi+1 vi+1 + . . . + bn vn .
Seja w um vetor qualquer de V então w = a1 v1 + . . . + ai−1 vi−1 + ai vi + ai+1 vi+1 + . . . + an vn
Substituindo vi pela expressão em vermelho obtemos
Acabamos de ver que qualquer vetor de V é combinação linear de v1 , . . . , vi−1 , vi+1 , . . . , vn , ou seja,
v1 , . . . , vi−1 , vi+1 , . . . , vn gera V e não precisamos de vi .
Se v1 , . . . , vi−1 , vi+1 , . . . , vn é L.I. temos uma base. Se v1 , . . . , vi−1 , vi+1 , . . . , vn é L.D. então reti-
ramos o vetor que é combinação linear dos outros e ainda teremos um conjunto gerador.
Podemos repetir esse argumento até obter um subconjunto L.I. de v1 , . . . , vn que gera V .
Não corremos o risco de tirar todos os vetores de v1 , . . . , vn repetindo esse argumento porque os
vetores que sobram sempre geram V .
No pior dos casos vai sobrar só um vetor vk , ele sozinho ainda gera V e ele não pode ser o vetor
0V , porque V ̸= {0V }. Então o conjunto {vk } é L.I. e gera V , ou seja uma base de V .
Teorema 5.4.2. Seja V um espaço vetorial gerado por n vetores: v1 , . . . , vn . Então qualquer conjunto
de vetores desse espaço com mais dos que n vetores é necessariamente L.D.. Portanto qualquer
conjunto L.I. tem no máximo n vetores.
98
Demonstração. Considere quaisquer m vetores w1 , . . . , wm de V , onde m > n.
Nosso objetivo é mostrar que eles são L.D.
Como v1 , . . . , vn geram V então
Portanto
Considere o sistema
a x + . . . + a1m xm = 0
11 1
..
.
a x + ... + a x = 0
n1 1 nm m
Esse sistema têm n linhas e m colunas, onde n < m. Portanto ele não tem solução única. Restam
os casos dele possuir infinitas soluções ou nenhuma solução. Entretanto existe uma solução que é a
x1 = . . . = xm = 0. Como existe solução e ela não é única temos alguma outra solução com nem todos
os xi são iguais a zero.
Portanto existem números x1 , . . . , xm não todos iguais a zero que garantem que
x1 w1 + . . . + xm wm = 0.v1 + . . . + 0.vn = 0V .
Corolário 5.4.3. Se um espaço vetorial V tem uma base com n vetores então todas as outras bases
terão n vetores também.
99
Definição de Dimensão
Exemplos de Dimensão:
b) A dimensão de M2×2 é 4.
1 1 2 −1
1 0 1 −1
Exercı́cio 5.4.5. Seja W o subespaço do R4 gerado por v1 =
, v2 = , v3 = , v4 =
.
0 0 0 0
0 1 1 0
Encontre uma base desse subespaço.
Solução: O teorema 5.4.1 nos diz que podemos extrair de qualquer conjunto de geradores uma base.
Na sua demonstração vimos que se um vetor é combinação linear dos outro, podemos jogá-lo fora e
continuamos com um conjunto de geradores. Podemos repetir esse processo de jogar fora até obter
uma base.
Note que o v4 = v2 + (−1)v3 . Podemos jogar ele fora e sabemos que v1 , v2 , v3 ainda geram W .
Agora, v3 = 1.v1 + 1.v2 então podemos jogá-lo fora e sabemos que v1 , v2 ainda geram W .
Agora vamos
ver que v , v são L.I..
1 2
1 1 0
1 0 0
Se x.
+ y.
=
então x + y = 0, x = 0 e y = 0.
0 0 0
0 1 0
Isso prova que a única combinação de v1 e v2 que resulta no vetor nulo é aquela que os números
são todos iguais a zero. Portanto v1 e v2 são L.I. e geram W , ou seja, uma base de W .
Observação 5.4.6. Resolver o exercı́cio anterior foi fácil pois conseguimos observar rapidamente
quais vetores eram combinações de outros vetores. Em geral isso não é tão fácil. Além disso podı́amos
ter uma lista com 50 vetores. O próximo lema te dá uma maneira simples de obter uma base a partir
de um conjunto de geradores.
Lema 5.4.7. Sejam v1 , . . . , vn um conjunto de geradores para V . Qualquer operação elementar que
você faça nesses vetores resultará num conjunto de geradores para V .
100
vi ↔vj
Op 1. v1 , . . . , vi , . . . , vj , . . . , vn −−−−→ v1 , . . . , vj , . . . , vi , . . . , vn
Se w = a1 v1 +. . .+ai vi +. . .+an vn então w = a1 v1 +. . .+ai (vi +λvj )+. . .+(aj −ai λ)vj +. . .+an vn .
O método mais rápido para obter uma base a partir de um conjunto de geradores v1 , . . . , vk de
um subespaço do Rn é colocando eles nas linhas de uma matriz e depois reduzindo-a.
Pelo lema 5.4.7, as linhas que sobrarem na matriz reduzida ainda geram o mesmo subespaço,
porque foram obtidas das linhas originais utilizando operações elementares.
Podemos jogar as lihas nulas fora e ainda continuamos com um conjunto de geradores.
Além disso, as linhas não nulas são vetores L.I.. O que garante isso são os 1s que começam
linhas, pois em cima e embaixo deles só há zeros. Veremos um exemplo a seguir que deixará
isso mais claro. Portanto obtemos uma base.
Depois veremos como realizar a mesma tarefa para subespaços que não são subespaços do Rn .
Exemplo: Voltando ao exercı́cio 5.4.5. Coloque os vetores nas linhas da matriz e escalone:
1 1 0 0 1 1 0 0 1 1 0 0 1 0 0 1
1 0 0 1 L2 ↔L2 +(−1).L1 e L4 ↔L4 +L1 0 −1 0 1 L3 ↔L3 +(−1).L2 0 −1 0 1 0 1 0 −1
L1 ↔L1 +L2
−−−−−−−−−−−−−−→ −−−−−−−−−→ −−−−−−−−−→
2 1 0 1
L3 ↔L3 +(−2).L1 0 −1 0 1
0 0 0 0
L2 ↔(−1).L2
0 0 0 0
−1 −1 0 0 0 0 0 0 0 0 0 0 0 0 0 0
101
Pelo lema anterior como essas linhas finais foram obtidas das originais por operações elementares
então elas geram o mesmo subespaço. As linhas nulas são combinações da outras, podemos jogá-las
fora.
As linhas que sobraram são L.I. e quem garante isso são os 1s que começam linhas, pois em cima
e embaixo deles sáo há zeros. Veja:
1 0 0
0 1 0
x.
+ y.
=
então x.1 = 0 e y.1 = 0. Portanto esses vetores são L.I..
0 0 0
1 −1 0
1 0 1 0
Exercı́cio 5.4.8. Calcule a dimensão do subespaço do R3 gerado pelos vetores 1 , 1 , 0 , 0 .
0 1 1 1
1. Se v1 , . . . , vk não geram V então existe vk+1 ∈ V tal que v1 , . . . , vk , vk+1 são vetores L.I., ou
seja, podemos estender esse conjunto com mais um vetor e ainda será L.I.
2. Se dim(V ) = k então v1 , . . . , vk também é base de V , ou seja, além de ser L.I. eles geram o
espaço.
Demonstração. 1.) Como v1 , . . . , vk não geram V existe um vetor vk+1 ∈ V que não é combinação
linear de v1 , . . . , vk .
Suponha que v1 , . . . , vk , vk+1 sejam L.D.. Então existem números a1 , . . . , ak+1 nem todos nulos
tais que a1 v1 + . . . + ak+1 vk+1 = 0V .
Se ak+1 = 0 então a1 v1 + . . . + ak vk = 0V e nem todos os ai nulos, mas isso é um erro porque
v1 , . . . , vk são L.I.
a1 ak
Se ak+1 ̸= 0 então vk+1 = − v1 + . . . + − vk , mas isso é um erro porque vk+1 não é
ak+1 ak+1
combinação linear de v1 , . . . , vk .
Chegamos sempre a um erro quando supomos que v1 , . . . , vk , vk+1 são L.D.. Para evitar esse erro
devemos concluir que v1 , . . . , vk , vk+1 são L.I..
Isso completa a parte 1.).
2.) Suponha que v1 , . . . , vk não geram V . Então existe vk+1 ∈ V tal que v1 , . . . , vk , vk+1 L.I., pela
parte 1.)
102
Entretanto isso é um erro porque um conjunto com cardinalide maior do que a cardinalidade de
uma base deve ser L.D. pelo teorema 5.4.2.
Para o evitar esse erro devemos conlcluir o contrário do que supomos, isto é, v1 , . . . , vk geram V .
Portanto v1 , . . . , vk formam uma base de V .
Observação 5.4.10. Esse teorema é interessante porque se você já souber a dimensão de um espaço
e encontrar um conjunto L.I. com a mesma cardinalidade da dimensão então esse conjunto já é uma
base.
Observação 5.4.12. Na demonstração acima usamos o fato que V tem base e sua cardinalidade é
um número natural n para obter a base de W . Poderı́amos nos perguntar o seguinte:
Se não soubéssemos que V tem uma base, ainda serı́amos capazes de obter uma base para W ?
De maneira mais geral, será que sempre existe base para um espaço vetorial V ?
A resposta para essas pergunta é sim, sempre existirá base, mas não conseguiremos provar aqui.
Precisamos de um resultado chamado Lema de Zorn.
103
5.5 Coordenadas e matriz mudança de coordenadas
Lembre-se que dado um conjunto L.I. de vetores de um espaço vetorial V existe apenas uma
combinação deles que fornece o vetor 0V . Essa combinação é aquela com todos os números iguais a
zero.
Começaremos essa seção com um teorema que garante que para cada base de V existe uma única
maneira de obter cada vetor w como combinação dessa base, ou seja, bem parecido com o resultado
que tı́nhamos para o vetor 0V .
Com esse resultado seremos capazes de por coordenadas nos vetores de qualquer espaço vetorial
(por mais estranho que ele seja) da mesma maneira que fizemos no capı́tulo 1 com os vetores do plano.
Teorema 5.5.1. Seja β = {v1 , . . . , vn } base de V . Cada vetor v pode ser escrito de uma única maneira
como combinação linear de v1 , . . . , vn . Isto é, os números a1 , . . . , an que satisfazem v = a1 v1 +. . .+an vn
são únicos para cada v.
Definição 5.5.2. Seja V uma espaço vetorial de dimensão n. Seja β = {v1 , . . . , vn } uma base de V .
Se fixarmos a ordem dos vetores v1 , . . . , vn dentro da base obteremos
uma
base ordenada. Diremos que
a
1
..
as coordenadas do vetor v = a1 v1 + . . . + an vn na base β é [v]β = . .
an
Exemplos de coordenadas:
1 0 0 1 1 1
1. Sejam β1 = , , β2 = , e β3 = , bases ordenadas do
0 1 1 0 1 0
R2 .
104
4 4 4
Vamos calcular a) , b) , c) .
3 3 3
β1 β2 β3
4 1 0 4 4
a) Como = 4. + 3. então = .
3 0 1 3 3
β1
Estranho?
4 0 1 4 3
b) Como = 3. + 4. então = .
3 1 0 3 4
β2
Viu a importância da ordem dos vetores na base?
4 1 1 4 3
c) Como = 3. + 1. então = .
3 1 0 3 1
β3
2. Seja α = {1, x, x2 } uma base ordenada do espaço vetorial dos polinômios de grau menor ou igual
a 2.
Exercı́cio 5.5.3. Mostre que 1, 2x, x2 + x é uma base para o espaço dos polinômios de grau menor ou
igual a 2. Considere a base ordenada β formada por esses vetores nessa ordem. Calcule [2+5x+3x2 ]β .
Solução: Vejamos que 1, 2x, x2 + x gera o espaço dos polinômios de grau menor ou igual a 2. Seja
a + bx + cx2 , queremos a′ , b′ , c′ tais que a′ .1 + b′ .2x + c′ .(x2 + x) = a + bx + cx2
b−c′
Isso implica que a′ = a, 2b′ + c′ = b e c′ = c. Assim a′ = a, b′ = 2 = b−c
2 e c′ = c.
Agora para ver que eles são L.I., note que
105
Portanto a = 2, 2b + c = 5 e c= 3.
Assim a = 2, b = 1 e c = 3.
2
Conclusão [2 + 5x + 3x2 ]β = 1 .
3
1 0 1 0 0 1 0 −1
Exercı́cio 5.5.4. Mostre que o conjunto , , , é uma base de M2×2 .
0 1 0 −1 1 0 1 0
1 2
Considere a base ordenada β formada por esses vetores nessa ordem. Calcule .
3 4
β
Exercı́cio 5.5.5. Seja V um espaço vetorial de dimensão n e β = {v1 , . . . , vn } uma base ordenada de
V.
a) Mostre que para quaisquer v, w ∈ V e escalares a, b ∈ R temos [av + bw]β = a.[v]β + b[w]β .
av + bw = a.(a1 v1 + . . . + an vn ) + b.(b1 v1 + . . . + bn vn ) =
a.a1 + b.b1 a1 b1
.. .. ..
Assim [av + bw]β =
. = a.
. + b.
. = a.[v]β + b.[w]β
a.an + b.bn an bn
Exercı́cio 5.5.6. Seja V um espaço vetorial de dimensão n e β = {v1 , . . . , vn } uma base ordenada de
V . Mostre que
106
b) w1 , . . . , wk ∈ V geram V se e somente se [w1 ]β , . . . , [wk ]β ∈ Rn geram Rn
Solução: Sejam w1 , . . . , wk ∈ V L.I.. Vamos provar que [w1 ]β , . . . , [wk ]β ∈ Rn são L.I. também.
Considere uma combinação de [w1 ]β , . . . , [wk ]β dando ⃗0, ou seja, x1 [w1 ]β + . . . + xk [wk ]β = ⃗0.
Acabamos de ver que as coordenadas dos vetores x1 w1 + . . . + xk wk e 0V são iguais, mas cada
vetor tem coordenadas únicas, portanto devemos concluir que x1 w1 + . . . + xk wk = 0V .
Acabamos de provar que a única combinação de [w1 ]β , . . . , [wk ]β dando ⃗0 é aquela com coeficientes
nulos, ou seja, w1 , . . . , wk ∈ V são L.I..
Agora vamos supor o contrário que [w1 ]β , . . . , [wk ]β são L.I. e vamos provar que w1 , . . . , wk ∈ V
são L.I..
Mas isso só ocorre quando x1 = x2 = . . . = xn = 0, pois [w1 ]β , . . . , [wk ]β são L.I.
107
A importância das coordenadas
Método para encontrar uma base a partir de geradores em espaços vetoriais arbitrários.
Seja β = {v1 , . . . , vn } uma base ordenada de V . Seja W um subsespaço de V gerado pelos vetores
w1 , . . . , wk . Encontre uma base para W .
Coloque-os na linhas de uma matriz e escalone a matriz. Suponha que no final os vetores
r1 , . . . , rs ∈ Rn não nulos sobrem nas linhas da matriz escalonada. Sabemos que eles geram o mesmo
subespaço do Rn que [w1 ]β , . . . , [wk ]β geram e que também são L.I..
108
Agora vamos ver que m1 , . . . , ms também geram W . Seja w ∈ W . Então w = ki=1 xi wi . Assim,
P
pelo exercicio 5.5.5, [w]β = ki=1 xi [wi ]β = si=1 yi ri , pois os r1 , . . . , rs geram o mesmo espaço que os
P P
[w1 ]β , . . . , [wk ]β .
Ps Ps Ps
Mas [w]β = i=1 yi ri = i=1 yi [mi ]β =[ i=1 yi mi ]β , pelo exercı́cio 5.5.5. Isso significa que as
Ps
coordenadas de w e de i=1 yi mi na base β são iguais, mas as coordenadas são únicas para cada vetor
então w = si=1 yi mi . Acabamos de mostrar que qualquer w ∈ W é combinação dos mi , ou seja, eles
P
geram W mas também são L.I., pelo exercicio 5.5.6 letra a).
Exercı́cio 5.5.8. Seja V o espaço dos polinômios de grau menor ou igual a 2. Seja W o subespaço
de V gerado por {x2 + x, 2x2 − 3x, 5x2 − 4x}. Obtenha uma base para W .
Solução: Seja α = {1, x, x2 } uma base ordenada de V . Vamos achar as coordenadas de cada um
desses polinômios nessa base. Como
0
1. x2 + x = 0.1 + 1.x + 1.x2 então [x2 +
x]α =
1 .
1
0
2. 2x2 − 3x = 0.1 + (−3).x + 2.x2 então [2x2 −
3x]α =
−3 .
2
0
3. 5x2 − 4x = 0.1 + (−4).x + 5.x2 então [5x2 −
−4 .
4x]α =
5
0 1 1 0 1 1 L3 ↔ 19 L3 0 1 1 0 1 0
L3 ↔L3 +(4).L1 L1 ↔L1 +(−1).L2
0 −3 2 −−−−−−−−−→ −−−−→ −−−−−−−−−→
0 0 5 0 0 1 0 0 1
L2 ↔L2 +(3).L1 L2 ↔ 1 L2 L3 ↔L3 +(−1).L2
5
0 −4 5 0 0 9 0 0 1 0 0 0
Nas linhas dessa matriz se encontram as coordenadas dos vetores na base α que geram W.
109
Ela troca as coordenadas de qualquer v ∈ V de uma base α para uma β. Essa matriz é chamada de
matriz mudança de coordenadas da base α para a base β.
0
..
.
Demonstração. Seja α = {v1 , . . . , vn }. Como vi = 0.v1 + . . . + 1.vi + . . . + 0.vn então [vi ]α = .
1
..
.
0
Como [vi ]α é o vetor que tem um 1 na posição i e o resto é zero então qualquer matriz Bn×n
multiplicada por [vi ]α resulta em
b
1i
..
B[vi ]α = .
. Isto é, B[vi ]α coluna i de B.
bni
Agora a matriz que estamos procurando pede que o resultado dê B[vi ]α = [vi ]β .
Então a coluna i dessa matriz que procuramos só pode ser [vi ]β . Assim as colunas da matriz que
estamos procurando só podem ser [v1 ]β , . . . , [vi ]β , . . . , [vn ]β , isto é,
Agora vamos verificar que ([v1 ]β , . . . , [vi ]β , . . . , [vn ]β ) realmente satisfaz a fórmula que queremos
para todo v ∈ V .
a
1
..
Seja v ∈ V então v = a1 v1 + . . . + an vn . Portanto [v]α = .
.
an
a
1
..
Pelo letra a) do exercı́cio 5.3.10 , ([v1 ]β , . . . , [vn ]β ) .
= a1 [v1 ]β + . . . + an [vn ]β .
an
1 0 1 −1 1 0
Exercı́cio 5.5.10. Sejam α = , , β = , eγ = ,
0 1 1 1 2 1
110
1 1 0 −1
Agora = e =
0 1 1 1
β β
1 1
1a coluna: [Id]βγ = .
1 1
β γ
−1 −1
2a coluna: [Id]βγ = .
1 1
β γ
1
Para encontrar a 1a coluna de [Id]βγ que é , precisamos achar x, y tais que
1
γ
1 1 0
= x. + y. .
1 2 1
−1 1
Assim x = 1 e y = −1. Então = .
1 −1
γ
−1
Para encontrar a 2a coluna de [Id]βγ que é , precisamos achar x, y tais que
1
γ
−1 1 0
= x. + y. .
1 2 1
−1 −1
Assim x = −1 e y = 3. Então = .
1 3
γ
1 −1
Portanto [Id]βγ = . □
−1 3
Exercı́cio 5.5.11. Sejam α e β bases ordenadas de um espaço vetorial V de dimensão n. Mostre que
a) [Id]αα = Idn×n
111
Capı́tulo 6
Transformações lineares
No capı́tulo de matrizes vimos que elas representam funções entre Rn e Rm . Demos o nome de
transformações lineares a essas funções. Note que Rn é um tipo de espaço vetorial bem especı́fico
e vimos vários tipos até agora. Então podemos suspeitar que existem transformaçoes lineares entre
espaços vetoriais arbitrários. É isso que vamos ver nesse capı́tulo.
Definição 6.1.1. Sejam V, W espaços vetoriais reais. Uma transformação linear T : V → W é uma
função que satisfaz as seguintes propriedades:
Exemplos de T.L.s
D(a0 + a1 x + . . . + an xn ) = a1 + a2 2x + . . . + an nxn−1 .
D(p1 (x) + p2 (x)) = D(p1 (x)) + D(p2 (x)), para todos p1 (x), p2 (x) ∈ R[x]
112
b) Seja An×n uma matriz. A considere a função TA : Rn → Rn , definida por TA (x) = Ax (ou seja,
nossa antigaT.L.).
c) Seja An×n uma matriz . Defina LA : Mn×n (R) → Mn×n (R), LA (X) = AX.
d) Sejam An×n e Bn×n matrizes. Defina T : Mn×n (R) → Mn×n (R), T (X) = AX + XB.
3 0
1
0
b) T = 2
eT = 1
?
1 −2
1 0
113
Exercı́cio 6.1.4. Seja V um espaço vetorial real e v1 , . . . , vn uma base de V . Sejam w1 , . . . , wn
vetores do espaço vetorial real W . Mostre que existe uma única transformação linear T : V → W que
satisfaz T (v1 ) = w1 , . . . , T (vn ) = wn .
Na escola aprendemos a fórmula para resolver equações do segundo grau (fórmula de Baskara).
Essa fórmula dava as raı́zes de uma poliômio de grau 2. Também podemos pensar nas “raı́zes”de uma
transformação linear, isto é, nos vetores cuja imagem é o vetor nulo. O conjunto de todas essas raı́zes
será chamado de núcleo da transformação linear.
Demonstração. Para mostrar que N uc(T ) é um subespaço de V temos que mostrar que
ou seja, v1 + v2 ∈ N uc(T ).
Agora T (λ.v1 ) = λ.T (v1 ) = λ.0W = 0W , ou seja, λ.v1 ∈ N uc(T ).
114
Exercı́cio 6.2.3. Seja An×n uma matriz. Considere a função T : Mn×n (R) → Mn×n (R) definida
por T (X) = AX − XA.
Exercı́cio 6.2.4. Encontre uma base para o Núcleo das seguintes T.L.s.
x
2x + 1y + 1.z
R3 → R2 ,
a) T : T y =
4y
z
b) T : M2×2 (R) → R, T x y
=x+w .
z w
x y x y
Solução: b) Queremos as matrizes que satsifazem T = 0, ou seja, , x + w = 0 .
z w z w
−w y
Essas mastrizes são do tipo .
z w
Podemos escrevê-las assim
−w y −1 0 0 1 0 0
= w. + y. + z. .
z w 0 1 0 0 1 0
−1 0 0 1 0 0
Portanto , , geram N uc(T ).
0 1 0 0 1 0
Note acima que a única combinação delas que dá a matriz nula é aquela com w = y = z = 0, ou
seja, elas são L.I.. Assim provamos que essas três matrizes formam uma base do N uc(T ).
Exercı́cio 6.2.5. Dizemos que uma T.L. T : V → W é injetora se v1 ̸= v2 então T (v1 ) ̸= T (v2 ).
Mostre que uma T.L. T : V → W é injetora se e somente se N uc(T ) = {0V }.
Definição 6.2.6. Seja T : V → W uma transformação linear. O conjunto formado por todas as
imagens da função T : V → W será chamado de Imagem de T . Ele será denotado por Im(T ). Assim
Im(T ) = {T (v) ∈ W, v ∈ V }.
115
Demonstração. Para mostrar que Im(T ) é um subespaço de V temos que mostrar que
Exercı́cio 6.2.8. Seja An×n uma matriz cujas colunas são v1 , . . . , vn ∈ Rn . Defina T : Rn → Rn , por
T (x) = Ax. Utilizando a letra a) do exercicio 5.3.10, mostre que Im(T ) é gerada por v1 , . . . , vn .
Exercı́cio 6.2.9. Dizemos que uma T.L. T : V → W é sobrejetora se Im(T ) = W . Dizemos que
uma T.L. T : V → W é um isomorfismo se T for bijetora, isto é, injetora e sobrejetora. Mostre que
uma T.L. T : V → W é isomorfismo se e somente se dim(N uc(T )) = 0 e dim(Im(T )) = dim(W ).
A seguir provamos um teorema que relaciona as dimensões do núcleo e a da Imagem de uma T.L..
Ele é importantı́ssimo.
Teorema do Núcleo-Imagem
116
Demonstração. Seja v1 , . . . , vn uma base de V .
Pelo lema 6.2.7, a Im(T ) é um subsespaço gerado por w1 = T (v1 ), . . . , wn = T (vn ).
Podemos extrair desse conjunto {w1 , . . . , wn } uma base para a Im(T ), como foi feito no teorema
5.4.1.
Suponha que w1 , . . . , wm seja essa base. Não esqueça que w1 = T (v1 ), . . . , wm = T (vm ).
Como o N uc(T ) é um subespaço de V , pelo lema 6.2.2, e V tem dimensão n podemos obter uma
base para o N uc(T ), pelo corolário 5.4.11. Chame essa base do N uc(T ) de r1 , . . . , rs .
Mostraremos que v1 , . . . , vm , r1 , . . . , rs é uma base de V . Portanto
v − a1 v1 − . . . − am vm = b1 r1 + . . . + bs rs .
Como r1 , . . . , rs ∈ N uc(T ) então T (r1 ) = . . . = T (rs ) = 0W . Além disso, como T (0V ) = 0W então
sobra nessa equação
x1 T (v1 ) + . . . + xm T (vm ) = 0W .
Lembre-se que w1 = T (v1 ), . . . , wm = T (vm ) é uma base da Im(T ), portanto são L.I.. Mas isso
implica que x1 = . . . = xm = 0.
Voltando para equação 6.1 com essa informação, obtemos y1 r1 + . . . + ys rs = 0V . Mas r1 , . . . , rs é
base do N uc(T ), ou seja, eles são L.I.. Assim y1 = . . . = ys = 0.
117
O teorema anterior é muito importante. Existem diversas aplicações dele. A seguir veremos um
resultado que eu fiquei devendo na seção de matriz inversa.
Lema 6.2.11. Se An×n e Bn×n são matrizes tais que AB = Id então BA = Id.
Portanto BA = Id.
Então para provar esse teorema basta encontrar Cn×n tal que CA = Id.
Defina a T.L. T : Mn×n → Mn×n por T (X) = XA.
Agora se Y ∈ N uc(T ) então T (Y ) = Y A = 0n×n .
Multiplicando os dois lados dessa equação por B obtemos (Y A).B = 0.B.
Agora (Y A).B = Y.(AB) = Y.Id = Y e 0.B = 0. Portanto Y = 0, ou seja, N uc(T ) = {0n×n }.
Portanto dim(N uc(T )) = 0.
Pelo teorema do Núcleo-Imagem
Exercı́cio 6.2.12. Mostre que existe um isomorfismo entre V e W se e só se dim(V ) = dim(W ).
DICA: Você irá precisar do teorema do Núcleo-Imagem para uma das implicações e para a outra você
irá precisar do exercı́cio 6.1.4.
Exercı́cio 6.2.13 (Polinômio Interpolador: Parte 3). Seja Pk o espaço vetorial dos polinômios com
coeficientes reais de grau menor ou igual a k. Sejam b1 , . . . , bn números reais distintos.
118
b) Mostre que a seguinte T.L. é um isomorfismo. T : Pn−1 → Rn que satisfaz T (p(x)) = (p(b1 ), . . . , p(bn ))t .
c) Utilizando a letra b), mostre que para cada (c1 , . . . , cn )t ∈ Rn existe um único polinômio de grau
menor que n tal que p(b1 ) = c1 , . . . , p(bn ) = cn . Esse é o chamado polinômio interpolador.
d) Mostre que a seguinte T.L. é um isomorfismo. T : P2n−1 → R2n que satisfaz T (p(x)) =
(p(b1 ), . . . , p(bn ), p′ (b1 ), . . . , p′ (bn ))t . Esse p′ (x) significa derivada de p(x).
e) Utilizando a letra d), mostre que para cada (c1 , . . . , cn , d1 , . . . , dn )t ∈ Rn existe um único po-
linômio de grau menor que 2n tal que p(b1 ) = c1 , . . . , p(bn ) = cn , p′ (b1 ) = d1 , . . . , p′ (bn ) = dn .
Na observação 5.5.7 tivemos uma ideia importante de traduzir nossos problemas envolvendo espaço
vetoriais arbitrários para problemas envolvendo os espaços Rn escolhendo uma base pro espaço e
reescrevendo o problema em coordenadas.
Continuaremos com essa ideia nessa seção. A primeira coisa que veremos será que toda T.L. entre
espaços de dimensão finita pode ser representada por uma matriz. Isso não é um supresa já que esses
espaços já podiam ser representados como os espaços Rn .
Teorema 6.3.1. Seja T : V → W uma transformação linear. Seja α = {v1 , . . . , vn } uma base
ordenada de V e β = {w1 , . . . , wm } uma base ordenada de W . Então existe uma única matriz que
iremos denotar por [T ]αβ com m linhas e n colunas que satisfaz o seguinte:
Como [vi ]α é o vetor que tem um 1 na posição i e o resto é zero então qualquer matriz Bm×n
multiplicada por [vi ]α resulta em
b1i
..
B[vi ]α =
.
. Isto é, B[vi ]α coluna i de B.
bmi
Agora a matriz que estamos procurando pede que o resultado dê B[vi ]α = [T (vi )]β .
Então a coluna i dessa matriz que procuramos só pode ser [T (vi )]β . Assim as colunas da matriz
que estamos procurando só podem ser [T (v1 )]β , . . . , [T (vi )]β , . . . , [T (vn )]β , isto é,
119
[T ]αβ = ([T (v1 )]β , . . . , [T (vi )]β , . . . , [T (vn )]β ).
Agora vamos verificar que (T ([v1 )]β , . . . , [T (vi )]β , . . . , [T (vn )]β ) realmente satisfaz a fórmula que
queremos para todo v ∈ V .
a
1
..
Seja v ∈ V então v = a1 v1 + . . . + an vn . Portanto [v]α = .
.
an
a
1
..
Pela letra a) do exercı́cio 5.3.10 , ([T (v1 )]β , . . . , [T (vn )]β ) .
= a1 [T (v1 )]β + . . . + an [T (vn )]β .
an
a1 [T (v1 )]β + . . . + an [T (vn )]β = [a1 T (v1 ) + . . . + an T (vn )]β = [T (a1 v1 + . . . + an vn )]β = [T (v)]β .
Assim ([T (v1 )]β , . . . , [T (vn )]β )[v]α = [T (v)]β para todo v ∈ V .
120
0 1 0 0
0 0 2 0
Portanto [D]αα =
.
0 0 0 3
0 0 0 0
c) Seja V o subespaço das funções gerado pelo cos(x), sen(x). Seja D : V → V a derivada e
α = {cos(x), sen(x)} uma base ordenada de V . Vamos calcular [D]αα .
0
1. A 1a coluna de [D]αα é obtida como [D]αα [cos(x)]α = [D(cos(x))]α = [− sen(x)]α = .
−1
1
2. A 2a coluna de [D]αα é obtida como [D]αα [sen(x)]α = [D(sen(x))]α = [cos(x)]α = .
0
0 1
Portanto [D]αα = .
−1 0
1 0 0 1 0 0 0 0
Exercı́cio 6.3.3 (Ex. 14, p. 173, Boldrini). Seja β =
0 0
, , uma base orde-
0 0 1 0 0 1
1 0
nada de M2×2 e α = ,
0
uma base ordenada de R2 .
1
2 1
1 −1 a
b) Se S : R2 → M2×2 é uma T.L. tal que [S]αβ = . Encontre S e se possı́vel tal que
−1 0
b
0 1
a 1 0
S = .
b 0 1
Assim [T ]βα =
1 1 0 0
.
0 0 1 1
x 1 0 1 0 1 0
b) S = x.S + y.S = x. S + y. S = x.[S]α
β
+ y.[S]α
β
=
y 0 1 0 1 0 1
β β β β α α
121
2 1 2x + y
1 0 1 −1 x − y
.
= x.[S]αβ + y.[S]αβ = x. + y. =
−1 0 −x
0 1
0 1 y
x 1 0 0 1 0 0 0 0 2x + y x − y
Então S = (2x + y). + (x − y). + (−x). + y. = .
y 0 0 0 0 1 0 0 1 −x y
x 1 0
Agora note que para S = , precisamos que −x = x − y = 0 e 2x + y = y = 1, o que é
y 0 1
impossı́vel.
Exercı́cio 6.3.4. Seja T : V → W uma T.L. onde dim(V ) = n e dim(W ) = m. Mostre que se
s = dim(Im(T )) então existe uma base α de V e uma base β de W tal que
Id s× 0s×n−s
[T ]αβ = .
0m−s×s 0m−s×n−s
Dessa maneira obteremos as primeiras colunas das matrizes [T ◦ L]αγ e [T ]βγ [L]αβ iguais, depois a
segundas iguais e assim sucessivamente.
Portanto [T ◦ L]αγ = [T ]βγ [L]αβ .
Corolário 6.3.6. Seja α base de V e T : V → V uma T.L.. Então [T n ]αα = ([T ]αα )n .
122
[T n ]αα =[T ]αα . . . [T ]αα = ([T ]αα )n .
| {z }
n vezes
Pergunta: Porque isso é interessante? Se T for uma T.L. complicada, mas existir uma base α tal
que [T ]αα é simples então será fácil calcular [T n ]αα .
1 1
base ordenada do R2 .
Solução: Seja α = ,
1 −1
1 1 1 3 1 1
Lembre-se que [T ]αα = T , T . Agora T = eT = .
1 −1 1 3 −1 −1
α α
3 3 1 0 3 0
Como = e = . então [T ]αα = .
3 0 −1 1 0 1
α α
350 0
Pelo corolário anterior [T 50 ]αα = ([T ]αα )50 = .
0 1
2 2 2 350 0 2
Agora T 50 = [T 50 ]αα = ([T ]αα )50 = .
0 0 0 0 1 0
α α α α
2 1 1 2 1
Agora = 1. + 1. , ou seja, = .
0 1 −1 0 1
α
2 350 0 1 350
Finalmente obtemos T 50 = = .
0 0 1 1 1
α
2 1 1
Portanto T 50 = 350 . + 1. .
0 1 −1
Fomos capazes de realizar esse cálculo porque encontramos uma base α que tornava a matriz [T ]αα
diagonal. Multiplicar matrizes diagonais é muito simples.
Vimos no exemplo final da última seção que quando encontramos uma base α que tornava a matriz
[T ]αα diagonal éramos capazes de fazer cálculos com [T ]αα de maneira muito simples, pois é muito fácil
123
multiplicar matrizes diagonais.
Nessa seção tentaremos descobrir quando existe uma base α que torna a matriz [T ]αα diagonal.
Essa simplificação é muito importante em diversos problemas.
Demonstração. Primeiro vamos supor que T : V → V é diagonalizável , ou seja, existe uma base
a1 0 ... 0
0 a2 ... 0
α = {v1 , . . . , vn } tal que [T ]αα = .
.. .. ..
..
.
. . .
0 . . . . . . an
0
.
..
Lembre-se que [T ]αα [vi ]α = [T ] α = i-ésima coluna de [T ]αα .
1
α .
.
.
0
0
.
..
Assim [T (vi )]α = [T ]αα [vi ]α = = [a v ]α .
a
i i i
.
.
.
0
Como T (vi ) e ai vi possuem as mesmas coordenadas na base α então T (vi ) = ai vi para todo
i = 1, . . . , n.
Isso prova que a base α = {v1 , . . . , vn } e os números a1 , . . . , an acima possuem as propriedades que
querı́amos no enunciado do teorema.
Agora vamos supor que exista uma base α = {v1 , . . . , vn } de V e números a1 , . . . , an tais que
T (vi ) = ai vi para todo i = 1, . . . , n.
a1 0 ... 0
0 a2 ... 0
Então [T ]αα = ([T (v1 )]α , . . . , [T (vn )]α ) = ([a1 v1 ]α , . . . , [an vn ]α ) = .
.. .. ..
..
.
. . .
0 ... . . . an
Portanto [T ]αα é diagonal e T é diagonalizável.
124
O teorema acima nos ensinou quais vetores temos que procurar para formar a base α que torna
[T ]αα é diagonal. Vamos dar um nome para esses vetores abaixo, pois ficará mais fácil falar deles depois.
Definição 6.4.3. Seja V um espaço vetorial real e e T : V → V uma T.L.. Dizemos que v ∈ V \ {0V }
é um autovetor de T se existir um número real λ tal que T (v) = λv. Esse número λ será chamado de
autovalor de T associado ao autovetor v.
Observação 6.4.4. No teorema anterior vimos que T é diagonalizável se e somente se existir uma base
para V formada por autovetores de T . Os números que aparecem na diagonal [T ]αα são os autovalores
de T .
Lembra daquela ideia importante de Álgebra Linear de transformar qualquer problema envolvendo
espaços vetoriais em problemas envolvendo os Rn ? Escolhı́amos uma base e fazı́amos tudo em coorde-
nadas. Transformaremos esse problema de encontrar uma base de autovetores de uma transformação
linear em um problema envolvendo matrizes.
Definição 6.4.5. Seja A ∈ Mn×n (R) . Dizemos que v ∈ Rn \ {⃗0} é um autovetor de A se existir
um número real λ tal que Av = λv. Esse número λ será chamado de autovalor de A associado ao
autovetor v. Diremos que A é diagonalizável se a T.L. TA : Rn → Rn , TA (x) = Ax, for diagonalizável,
ou seja, se existir uma base do Rn formada por autovetores de A.
x 1 1 x x
Queremos achar os ̸= ⃗0 e os λ ∈ R satisfazendo = λ .
y 1 1 y y
λ 0 x x
Note que = λ .
0 λ y y
1 1 x λ 0 x 0 1−λ 1 x 0
Assim − = ⇒ =
1 1 y 0 λ y 0 1 1−λ y 0
Então queremos que esse sistema tenha solução diferente de ⃗0, mas ⃗0 já é solução dele. Então
queremos que esse sistema não tenha solução única.
125
1−λ 1 1−λ 1
Portanto a matriz não pode ser invertı́vel, ou seja, det =0
1 1−λ 1 1−λ
Acharemos o autovalor λ igualando o determinante dessa matriz que é (1 − λ)2 − 1 a zero, ou seja,
(1 − λ)2 − 1 = 0 .
Lembre-se que os autovetores não podem ser ⃗0 então y ̸= 0 te dá os autovetores associados a 0.
x 1
Então SII = , x − y = 0 = y , y ∈ R .
y 1
Lembre-se que os autovetores não podem ser ⃗0 então y ̸= 0 te dá os autovetores associados a 2.
Exercı́cio 6.4.6. Encontre os autovalores e os autovetores de cada uma das matrizes abaixo.
0 1 2 1 0 −1
a) b) c)
0 0 1 2 1 0
1 2 1−λ 2
Exemplo: O polinômio caracterı́stico da matriz A = é det = (1 − λ)(4 − λ) − 6.
3 4 3 4−λ
Isto é, pA (λ) = λ2 − 5λ − 2 .
126
Lema 6.4.8. Os autovalores de An×n são exatamente as raı́zes do polinômio caracterı́stico de A.
Além disso para cada autovalor λ existe pelo menos um autovetor associado ao λ, isto é, uma solução
não nula para (A − λId | ⃗0).
Demonstração. Se z é raiz de pA (λ) então pA (z) = det(A − zId) = 0. Assim o sistema (A − zId)⃗x = ⃗0
tem infinitas soluções e portanto uma não nula, ou seja, A⃗x = z⃗x e x ̸= ⃗0.
Acabamos de provar que cada raiz de pA (λ) é um autovalor e está associada a algum autovetor.
Seja w um autovalor de A, pela definição de autovalor existe um autovetor ⃗y ̸= 0 tal que A⃗y = w⃗y .
Assim (A − wId)⃗y = ⃗0.
Então o sistema (A − wId|⃗0) não tem solução única (pois ⃗y e ⃗0 são soluções).
Portanto A − wId não pode ser invertı́vel, ou seja, det(A − wId) = 0.
Acabamos de ver que todo autovalor é raiz do polinômio caracterı́stico da A.
1 1
a) Vimos anteriormente que a matriz possui 2 autovalores: 0, 2.
1 1
−y
Vimos também que a fórmula para os autovetores associados ao autovalor 0 era , y ̸= 0,
y
y
e que fórmula para os autovetores associados ao autovalor 2 era , y ̸= 0.
y
−1 1
Escolhendo y = 1, obtemos os autovetores v1 = e v2 = associados aos autovalores
1 1
0 e 2, respectivamente.
Note que α = {v1 , v2 } é uma base do R2 . Portanto a matriz A é diagonalizável. Vamos ver como
fica [TA ]αα .
127
1 0
[TA ]αα = [TA ]αα [v1 ]α = [TA (v1 )]α = [A(v1 )]α = [0.v1 ]α = .
0 0
0 0
Portanto [TA ]αα = .
0 2
1 0 0
b) Vamos verificar que a matriz A =
0 2
1
é diagonalizável.
0 −2 −1
1−λ 0 0
Os autovalores dela são as raı́zes do polinômio pA (λ) = det(A−λId) = det
0 2−λ 1 .
0 −2 −1 − λ
0 0 0 0 0 0 0 0 0 1 1 0
L3 ↔L3 +(2).L2 L1 ↔L2
I
0 1 1 0 −−−−−−−−−→
0 1 1 0 −−−−−−−−−→
0 0 0 0 .
0 −2 −2 0 0 0 0 0 0 0 0 0
x
1 0
Então SI = y , y + z = 0 = x 0 + z −1
, x, z ∈ R .
z
0 1
1 0 0 0 1 0 0 0 1 0 0 0
L3 ↔L3 +L2 L2 ↔ 12 .L2
II
0 2 1 0 −−−−−−−−−→
0 2 1 0 −−−−−−−−−→
0 1 12 0 .
0 −2 −1 0 0 0 0 0 0 0 0 0
128
x
0
1
Então SII = y , x = 0, y + 2 z = 0 = z − 2 , z ∈ R .
1
z
1
1 0 0
Note que α = 0 , −1 , − 2
1
é uma base do R3 e esses vetores foram obtidos nas
0
1 1
fórmulas para os autovetores de A. Então A é diagonalizável.
Igualando λ2 = 0 obtemos λ = 0.
0 1 0
I já está no formato escada.
0 0 0
x 1
Então SI = , x ∈ R, 0, y = 0 = x .
y 0
Note que não podemos escolher 2 vetores L.I. a partir da fórmula dos autovetores, porque todos
os autovetores são múltiplode de um único vetor.
129
Igualando ((1 − λ)(2 − λ)2 = 0 obtemos λ = 1 ou λ = 2.
0 0 0 0 0 0 0 0
L2 ↔L2 +(−1).L3
I 0 1 1 0 −−−−−−−−−→
0 1 0 0 .
0 0 1 0 0 0 1 0
x
1
Então SI = y , x ∈ R, y = z = 0 = x 0 , x ∈ R .
z
0
1 0 0 0
I
0 0 1 0 que já está no formato escada.
0 0 0 0
x
0
Então SII = y , x = 0, y ∈ R, z = 0 = y 1 , y ∈ R .
z
0
Note que os vetores descritos nessas duas fórmulas são mútliplos de dois vetores. Se escolhermos
3 vetores a partir dessas fórmulas teremos com certeza entre eles dois múltiplos. Portanto não
serão L.I.. É impossı́vel obter 3 vetores L.I.s a partir dessas fórmulas. Mas essas eram as fórmulas
que davam os autovetores de A. Então A não é diagonalizável.
Demonstração. Suponha que A seja diagonalizável e que {v1 , . . . , vn } seja uma base do Rn formada
por autovetores de A e a1 , . . . , an sejam os autovalores correspondentes.
Defina Rn×n = (v1 , . . . , vn ), ou seja, os vi são as colunas de R.
Note que
130
a1 0 ... 0
0 a2 ... 0
AR = A(v1 , . . . , vn ) = (Av1 , . . . , Avn ) = (a1 v1 , . . . , an vn ) = (v1 , . . . , vn )D, onde D = .
.. .. ..
..
.
. . .
0 ... . . . an
Assim obtemos AR = RD. Como as colunas de R são L.I. então, pela letra e) do exercicio 5.3.10,
det(R) ̸= 0. Então R é invertı́vel.
Assim R−1 AR = R−1 RD = Id.D = D. Acabamos de obter o que querı́amos.
Agora vamos provar que se existe R invertı́vel tal que R−1 AR = D então A é diagonalizável.
Seja Rn×n = (v1 , . . . , vn ), onde vi é a coluna i de R.
Como R−1 AR = D então AR = RD.
Por um lado temos AR = A(v1 , . . . , vn ) = (Av1 , . . . , Avn ).
Por outro lado temos (v1 , . . . , vn )D = (a1 v1 , . . . , an vn ).
Assim Avi = ai vi para i = 1, . . . , n, ou seja, v1 , . . . , vn são autovetores de A.
Mas como a matriz R é invertı́vel e suas colunas são v1 , . . . , vn então elas são L.I. pela letra e) do
exercı́cio 5.3.10.
Provamos que existe uma base do Rn formada por autovetores de A, ou seja, A é diagonalizável.
Exercı́cio 6.4.10. Seja An×n diagonalizável. Prove que det(A) é o produto dos autovalores de A
(contando multiplicidade).
Agora que já sabemos dizer se uma matriz é diagonalizável ou não, podemos voltar para o problema
com T.L.s entre espaços vetoriais arbitrários. O seguinte resultado resolve esse problema. Note
que novamente transformamos um problema envolvendo espaços vetorias arbitrários em problemas
envolvendo matrizes e vetores do Rn . Essa é um ideia muito poderosa.
Teorema 6.4.11. Seja V um espaço vetorial de dimensão n e β uma base ordenada qualquer de V .
A transformação linear T : V → V é diagonalizável se e somente se a matriz [T ]ββ é diagonalizável.
Note que [Id]βα [T ]ββ [Id]αβ = [Id ◦ T ◦ Id]αα = [T ]αα = D, pelo teorema 6.3.5.
131
Defina R = [Id]αβ e lembre-se que [Id]βα [Id]αβ = [Id]αα = Idn×n pela letra b) do exercı́cio 5.5.11, ou
seja, R−1 = [Id]βα .
Acabamos de encontrar uma R tal que R−1 [T ]ββ R = D. Pelo lema anterior [T ]ββ é diagonalizável.
Agora vamos supor que [T ]ββ seja diagonalizável e vamos provar que a transformação T é diagona-
lizável.
Se [T ]ββ é diagonalizável então existe uma base do Rn que denotaremos por v1 , . . . , vn formada por
autovetores de [T ]ββ . Sejam a1 , . . . , an os autovalores correspondentes.
Sejam w1 , . . . , wn vetores de V cujas coordenadas na base β são os vetores v1 , . . . , vn , isto é,
[wi ]β = vi para todo i.
Como v1 , . . . , vn formam uma base do Rn então w1 , . . . , wn também formam uma base de V pela
letra c) do exercı́cio 5.5.6.
Note que
x 0
Exemplos 6.5.2. 1. Sejam V1 = , x ∈ R e V2 = , y ∈ R .
0 y
x
Note que V1 + V2 = , x, y ∈ R = R2 .
y
132
x x 0 x′ 0
Note também que se = + = + então x = x′ e y = y ′ , ou seja, existe
y 0 y 0 y′
x 0 x
apenas um vetor ∈ V1 e um vetor ∈ V2 cuja soma resulta em . Assim R2 = V1 ⊕ V2 .
0 y y
m
[
#α = # αi = #α1 + . . . + #αm = dim(V1 ) + . . . dim(Vm ).
i=1
Todo vetor r ∈ R pode ser escrito de maneira única como r1 + . . . + rm , onde cada ri ∈ Vi .
Agora cada ri é combinação da base αi = {v1i , . . . , vni i } de Vi . Assim r é uma combinação dos
vetores de α. Assim os vetores de α geram R.
133
Mas v1i , . . . , vni i são L.I. Assim ai1 = . . . = aini = 0 para todo i = 1, . . . , m.
Lema 6.5.6. Seja V um espaço vetorial real de dimensão n e T : V → V uma transformação linear.
Sejam α e β bases ordenadas de V . Então
Isso significa que podemos usar qualquer base para obter o mesmo polinômio caracterı́stico de T .
Pelo item b) do exercı́cio 5.5.11 que [Id]αβ e [Id]βα são matrizes inversas. Assim xId = x[Id]βα .Id.[Id]αβ .
Juntando essas informações obtemos
[T ]αα − xId = [Id]βα [T ]ββ [Id]αβ − x[Id]βα .Id.[Id]αβ = [Id]βα ([T ]ββ − xId)[Id]αβ .
det([Id]βα ) det([Id]αβ ) = 1.
134
Demonstração :A demonstração será uma indução em m. Se m = 1, como v1 ̸= 0V já que é um
autovetor, então o conjunto formado por somente v1 é L.I.
Suponha que o resultado vale para m = n − 1, isto é, v1 , . . . , vn−1 é um conjunto L.I..
Vamos provar que v1 , . . . , vn são L.I..
Definição 6.5.9. Seja V um espaço vetorial real e T : V → V é uma transformação linear com
um autovalor λ. Definimos o autoespaço associado a λ, denotado por V (λ), como sendo o conjunto
formado por todos os autovetores de T associados a λ unido com 0V , isto é,
135
Exercı́cio 6.5.10. Mostre que V (λ) é um subespaço de V .
a) T : V → V é diagonalizável
b) V = V (λ1 ) ⊕ . . . ⊕ V (λm )
Note que se vi − wi ̸= 0V , como vi , wi ∈ V (λi ), então vi − wi ∈ V (λi ). Isso significa que cada
vi − wi ̸= 0V é um autovetor associado a λi .
Isso significa que se existir algum vi − wi ̸= 0V na equação 6.3 então o vetor nulo é combinação de
autovetores de T associados a autovalores diferentes, mas isso é impossı́vel, pela proposição 6.5.7.
Vimos no lema 6.5.4 que dim(R) = dim(V (λ1 )) + . . . + dim(V (λm )).
136
Portanto V (λ1 ) ⊕ . . . ⊕ V (λm ) = V .
Agora suponha que V (λ1 ) ⊕ . . . ⊕ V (λm ) = V . Seja αi uma base de V (λi ) para cada i = 1, . . . , m.
m
[
Já vimos no lema 6.5.4 que αi é uma base de V (λ1 ) ⊕ . . . ⊕ V (λm ) = V .
i=1
Mas os vetores de cada αi são autovetores de T . Portanto existe uma base de V formada por
autovetores de T , isto é, T : V → V é diagonalizável. ■
No mesmo exemplo calculamos uma base para cada um dos autoespaços e vimos que
2. Já no exemplo
noexemplo b) da página 123, consideramos a T.L. T : R3 → R3 , onde T (v) = Av
1 0 0
e A = 0 2 1 .
0 0 2
Nesse exemplo obtivemos dois autovalores: 1, 2. Portanto temos dois autoespaços: V (1) e V (2).
No mesmo exemplo calculamos uma base para cada um dos autoespaços e vimos que
Assim TA : R3 → R3 não é diagonalizável, pois dim(V (1)) + dim(V (2)) = 2 < 3 = dim(R3 ).
137
Capı́tulo 7
Como vimos nos capı́tulos anteriores conjuntos que possuem soma e multiplicação por escalar (e
satisfazem certas propriedades) podem ser chamados de espaços vetoriais e seus elementos de vetores,
por mais diferentes que eles sejam. Agora entre vetores do Rn existem ângulos. Isso sugere a existência
de ângulos entre vetores em espaço vetoriais mais abstratos. Veremos a seguir como definir ângulo
entre vetores em espaço vetoriais abstratos. Em particular veremos que existem ângulos entre duas
funções, entre dois polinômios, entre duas matrizes.
Para alcançarmos esse objetivo precisamos de uma ideia que já utilizamos no capı́tulo 1, a ideia de
produto interno. As propriedades que provamos no teorema 1.6.2 serão agora utilizadas para definir
um produto interno em um espaço vetorial arbitrário.
Definição 7.1.1. Seja V um espaço vetorial real. Um produto interno em V é uma função cujo
domı́nio é o V × V e o contradomı́nio os números reais, que será denotada pelo sı́mbolo
⟨·, ·⟩ : V × V → R
1. ⟨u, v⟩ = ⟨v, u⟩
2. ⟨u + w, v⟩ = ⟨u, v⟩ + ⟨w, v⟩
138
3. ⟨x.u, v⟩ = x.⟨u, v⟩
Exemplos:
* x1 y1 +
.. ..
1o exemplo: Produto interno usual do Rn :
. , . = x 1 y1 + x 2 y2 + . . . + x n yn
xn yn
Já vimos no teorema 1.6.2 que essas propriedades valem para esse produto interno acima.
* +
x1 y1
2o exemplo: Outro produto interno no R2 : , = 2x1 y1 − x1 y2 − y1 x2 + x2 y2
x2 y2
* +
x 1 + z1 y1
2. , = 2(x1 + z1 )y1 − (x1 + z1 )y2 − (x2 + z2 )y1 + (x2 + z2 )y2
x 2 + z2 y2
= (2x1 y1 − x1 y2 − x2 y1 + x2 y2 ) + (2z1 y1 − z1 y2 − z2 y1 + z2 y2 )
* + * +
x1 y1 z1 y1
= , + ,
x2 y2 z2 y2
* +
λ.x1 y1
3. , = 2(λ.x1 )y1 − (λ.x1 )y2 − (λ.x2 )y1 + (λ.x2 )y2
λ.x2 y2
* +
x1 y1
= λ.(2x1 y1 − x1 y2 − x2 y1 + x2 y2 ) = λ. ,
x2 y2
* +
x1 x1
4. , = 2x1 x1 − x1 x2 − x2 x1 + x2 x2 = x21 + (x1 − x2 )2
x2 x2
Note que essa quantidade é sempre maior ou igual a zero, pois é soma de quadrados, e somente
dará zero se ambos os quadrados forem zero, i.e., x1 = x2 = 0.
R1
Seja V = {f : [0, 1] → R, onde f é contı́nua}. Considere ⟨f (x), g(x)⟩ = 0 f (x)g(x)dx
Vamos verificar as propriedades:
139
R1 R1
1. ⟨f (x), g(x)⟩ = 0 f (x)g(x)dx = 0 g(x)f (x)dx = ⟨g(x), f (x)⟩
R1 R1 R1
2. ⟨f (x) + h(x), g(x)⟩ = 0 (f (x) + h(x))g(x)dx = 0 f (x)g(x)dx + 0 h(x)g(x)dx
= ⟨f (x), g(x)⟩ + ⟨h(x), g(x)⟩.
R1 R1
3. ⟨λ.f (x), g(x)⟩ = 0 (λ.f (x))g(x)dx = λ. 0 f (x)g(x)dx = λ.⟨f (x), g(x)⟩.
R1
4. ⟨f (x), f (x)⟩ = 0 f (x)2 dx.
R1
Como f (x)2 ≥ 0 então 0 f (x)2 dx ≥ 0.
Se f (x) ̸= 0 então existirá um intervalo [c, d] ⊂ [0, 1] tal que f (x)2 > ϵ para todo x ∈ [c, d],
pois a função f (x) é contı́nua.
R1 Rc Rd R1
Assim 0 f (x)2 dx = 0 f (x)2 dx + c f (x)2 dx + d f (x)2 dx ≥ 0 + ϵ(d − c) + 0 > 0.
Portanto a única maneira de obter zero no produto interno ⟨f (x), f (x)⟩ é quando f (x) = 0.
Exercı́cio 7.1.2. Verifique que a seguinte função é um produto interno no espaço da matrizes M2×2 .
* +
x11 x12 y11 y12
, = x11 y11 + x12 y12 + x21 y21 + x22 y22
x21 x22 y21 y22
* +
y11 y12 x11 x12
= y11 x11 + y12 x12 + y21 x21 + y22 x22 = ,
y21 y22 x21 x22
* +
x11 + z11 x12 + z12 y11 y12
2. ,
x21 + z21 x22 + z22 y21 y22
= (x11 + z11 ) + y11 + (x12 + z12 )y12 + (x21 + z21 )y21 + (x22 + z22 )y22
= (x11 y11 + x12 y12 + x21 y21 + x22 y22 ) + (z11 y11 + z12 y12 + z21 y21 + z22 y22 )
* + * +
x11 x12 y11 y12 z11 z12 y11 y12
= , + ,
x21 x22 y21 y22 z21 z22 y21 y22
140
* + * +
x11 x12 y11 y12 λ.x11 λ.x12 y11 y12
3. λ. , = , =
x21 x22 y21 y22 λ.x21 λ.x22 y21 y22
* +
x11 x12 x11 x12
4. , = x211 + x212 + x221 + x222 ≥ 0
x21 x22 x21 x22
No teorema 1.6.2 da seção 1, vimos que dois vetores do Rn são perpendiculares se e somente se o
produto interno deles é zero. Utilizaremos essa ideia para definir perpendicularidade entre vetores em
espaços com produto interno.
Exemplos:
1o exemplo
As funções f (x) = 4x2 − 2 e g(x) = x são ortogonais com o produto interno da integral no intervalo
[0, 1].
R1 R1
Vamos ver isso: ⟨4x2 − 2, x⟩ = 0 (4x2 − 2).xdx = 0 4x3 − 2xdx
2o exemplo
0 1 1 −1
As matrizes e são ortogonais com respeito ao produto interno do exercı́cio 7.1.2
1 0 1 1
pois
* +
0 1 1 −1
, = 0.1 + 1.(−1) + 1.1 + 0.1 = −1 + 1 = 0
1 0 1 1
141
Definição 7.2.2. Seja V um espaço vetorial real com produto interno e denote-o por ⟨·, ·⟩. Sejam
v, w ∈ V e w ̸= 0v . Definimos a projeção de v na direção de w pela fórmula do lema 1.7.1
⟨v, w⟩
projw (v) = .w.
⟨w, w⟩
Exercı́cio 7.2.3. Projete a função f (x) = x2 na função g(x) = x utilizando o produto interno da
integral da integral no intervalo [0, 1].
R1 2 1
⟨f, g⟩ x .x dx 3
Solução: Por definição projg (f ) = .g = 0R 1 .x = 4
1 .x = x.
⟨g, g⟩ 2 4
0 x dx 3
Exercı́cio 7.2.4. Seja V um espaço vetorial real com produto interno e denote-o por ⟨·, ·⟩. Sejam
v, w ∈ V e w ̸= 0v . Utilizando as propriedades do produto interno mostre que
Definição 7.2.5. Dizemos que um conjunto de vetores v1 , . . . , vn de um espaço vetorial com produto
interno é ortogonal se para quaisquer i ̸= j tivermos ⟨vi , vj ⟩ = 0. Em particular, se v1 , . . . , vn forem
ortogonais e formarem uma base de V diremos que essa é uma base ortogonal de V .
Exercı́cio 7.2.6. Seja V um espaço vetorial real com produto interno e denote-o por ⟨·, ·⟩. Sejam
v1 , . . . , vn vetores não nulos e ortogonais de V . Mostre que eles são L.i.
142
Exercı́cio 7.2.7. Seja V um espaço vetorial real com produto interno e denote-o por ⟨·, ·⟩. Seja
α = {v1 , . . . , vn } uma base ordenada ortogonal de V . Mostre que
⟨v, v1 ⟩
⟨v1 , v1 ⟩
..
.
⟨v, vi ⟩
[v]α =
⟨vi , vi ⟩
..
.
⟨v, vn ⟩
⟨vn , vn ⟩
Algumas vezes necessitamos obter vários vetores que são ortogonais entre si em espaços vetoriais
arbitrários. O seguinte processo nos permite obtê-los a partir de um conjunto L.I. de vetores.
143
Processo de ortogonalização de Gram-Schmidt
Seja V um espaço vetorial real com produto interno e denote-o por ⟨·, ·⟩. Sejam v1 , . . . , vk
vetores L.I. de V . Os seguintes vetores v1′ , v2′ , . . . , vk′ são não nulos, ortogonais entre si e geram
o mesmo espaço que v1 , . . . , vk geram.
• v1′ = v1 ,
• v2′ = v2 − projv1′ v2 ,
Exemplo: Vamos aplicar o processo de Gram-Schmidt nos seguintes vetores utilizando o produto
interno do R4 .
1 1 1
1 1 1
v1 = , v2 =
, v3 = .
0 1 1
0 0 1
Passo 1: v1′ = v1
⟨v2 , v1′ ⟩ ′
Passo 2: v2′ = v2 − projv1′ (v2 ) = v2 − .v
⟨v1′ , v1′ ⟩ 1
1 1 0
1 1.1 + 1.1 + 1.0 + 0.0 1 0
v2′ = −
1.1 + 1.1 + 0.0 + 0.0 =
.
1 0 1
0 0 0
144
Vamos ver agora a demonstração das afirmações feitas sobre os vetores obtidos pelo processo de
Gram-Schmidt.
Demonstração. Primeiro vamos ver que nenhum dos v1′ , v2′ , . . . , vk′ pode ser igual a 0V .
• Se v2′ = 0V então v2 = projv1′ v2 , mas isso significa que v2 é multiplo de v1′ = v1 . Isso não é
verdade pois v1 , v2 são L.I..
• Se v3′ = 0V então v3 = projv1′ v3 + projv2′ v3 . Isso significa que v3 é uma combinação de v1′ e de
v2′ . Lembre-se que v1′ = v1 e v2′ é uma combinação de v1 e v2 . Assim v3 é uma combinação de v1 e de
v2 , o que não é verdade, pois v1 , v2 , v3 são L.I.. Assim v3′ ̸= 0V .
• Repetindo o argumento k vezes provamos que v1′ , v2′ , . . . , vk′ são todos diferentes de 0V .
Como projv2′ (v3 ) é um múltiplo de v2′ e v2′ é ortogonal a v1′ então ⟨projv2′ (v3 ), v1′ ⟩ = 0. Portanto
⟨v3′ , v1′ ⟩ = 0.
Como projv1′ (v3 ) é um múltiplo de v1′ e v1′ é ortogonal a v2′ então ⟨projv1′ (v3 ), v2′ ⟩ = 0. Portanto
⟨v3′ , v1′ ⟩ = 0.
145
É só repetir o argumento para mostrar que v1′ , . . . , v4′ são ortogonais. Depois v1′ , . . . , v5′ são orto-
gonais e assim sucessivamente.
Se você souber fazer indução finita então o resultado é bem fácil de provar por indução.
Falta ainda ver que esses vetores geram o mesmo espaço que v1 , . . . , vk geram.
Mas já vimos na primeira parte que v1′ , . . . , vk′ são combinações lineares de v1 , . . . , vk . Portanto
pertencem ao espaço que v1 , . . . , vk geram.
Lembre-se que v1 , . . . , vk são L.I.. Portanto o espaço que eles geram tem dimensão k.
Vimos depois que v1′ , . . . , vk′ são otogonais, portanto L.I. pelo exercı́cio 7.2.6.
Como eles são L.I. e possuem a mesma cardinalidade que uma base do espaço gerado por v1 , . . . , vk
então eles também formam uma base para esse espaço, ou seja, eles geram o mesmo espaço.
x p
Na seção 1.6, utilizamos que o comprimento de um vetor u = ∈ R2 era igual a |u| = x2 + y 2 .
y
Isso era uma consequência do teorema de Pitágoras e aprendemos isso em Geometria Analı́tica.
Utilizando o produto interno usual do R2 obtemos que ⟨u, u⟩ = x.x + y.y = |u|2 , ou seja,
1
|u| = ⟨u, u⟩ 2 .
Utilizaremos essa última equação para definir o comprimento de um vetor em espaço vetorial com
produto interno.
Definição 7.4.1. Seja V um espaço vetorial real com produto interno e denote-o por ⟨·, ·⟩. A norma
1
do vetor v ∈ V (ou seu comprimento) será definida por |v| = ⟨v, v⟩ 2 .
146
Exemplos:
1o exemplo
A norma da função g(x) = x no espaço vetorial das funções contı́nuas com o produto interno da
integral no intervalo [0, 1] vale
1
R 1 1
1 2 2 1
⟨x, x⟩ 2 = 0 x dx = 3
2
2o exemplo
0 1
A norma da matriz no espaço M2×2 com o produto interno do exercı́cio 7.1.2 vale
1 0
* + 12
0 1 0 1 1
, = 22
1 0 1 0
Teorema 7.4.2. Seja V um espaço vetorial real com produto interno e denote-o por ⟨·, ·⟩. Sejam
v, w ∈ V e λ ∈ R. As seguintes propriedades valem:
c) |⟨v, w⟩| ≤ |v||w|, ou seja, o módulo do número que é o produto interno de v e w é menor ou
igual ao produto dos módulos de v e de w. Essa desigualdade é chamada de desigualdade de
Cauchy-Schwartz.
1 1 1
b) |λ.v| = ⟨λ.v, λ.v⟩ 2 = (λ2 .⟨v, v⟩) 2 = |λ|.⟨v, v⟩ 2 = |λ|.|v|.
⟨v, w⟩ ⟨v, w⟩
= ⟨v − projw (v), v − w⟩ = ⟨v − projw (v), v⟩ − ⟨v − projw (v), w⟩.
⟨w, w⟩ ⟨w, w⟩ | {z }
=0 pelo ex. 7.2.4
147
Acabamos de descobrir que 0 ≤ ⟨v − projw (v), v⟩. Então
−⟨v, w⟩ ⟨v, w⟩
0 ≤ ⟨v, v⟩ − ⟨projw (v), v⟩ = ⟨v, v⟩ + w, v = ⟨v, v⟩ − ⟨w, v⟩.
⟨w, w⟩ ⟨w, w⟩
Multiplicando os dois lados por ⟨w, w⟩ obteremos 0 ≤ ⟨v, v⟩⟨w, w⟩ − ⟨v, w⟩⟨w, v⟩, ou seja,
Tirando a raiz quadrada dos dois lados obtemos |⟨v, w⟩| ≤ |v|.|w|.
Assim |v + w|2 ≤ (|v| + |w|)2 . Tirando a raiz dos dois lados obtemos |v + w| ≤ |v| + |w|.
|⟨v, w⟩|
Acabamos de ver a desigualdade de Cauchy-Schwartz que diz que ≤ 1, quando v, w ̸= 0V .
|v||w|
⟨v, w⟩
Assim −1 ≤ ≤ 1.
|v||w|
Exercı́cio 7.4.4 (Desigualdade de Ptolomeu). Sejam x, y, z em um espaço vetorial com produto in-
terno e seja | · | a norma proveniente desse produto interno.
|y| |x|
a) Mostre que |x| x − |y| y = |x − y|
148
7.5 Projeção ortogonal
Da mesma forma como fizemos com a projeção do vetor na direção de outro vetor podemos projetar
um vetor num subespaço, se o espaço que o contém possui um produto interno.
Considere o problema de projetar o vetor v no plano W gerado pelos vetores v1 e v2 . Veja figura
abaixo.
A projeção de v em W , que será denotada por projW (v), deve satisfazer as seguintes propriedades:
• projW (v) ∈ W e
• v − projW (v) deve ser perpendicular a todos os vetores que estão em W , ou seja, v − projW (v)
é ortogonal a v1 e v2 .
149
Observação 7.5.1. Note que você poderia ter escolhido quaisquer dois vetores desse plano W
para obter a projeção projW (v), basta que eles fossem uma base de W . Inclusive você poderia
ter escolhido v1 ⊥ v2 e |v1 | = |v2 | = 1. Isso simplificaria muito esse sistema acima:
a = ⟨v, v1 ⟩
b = ⟨v, v ⟩
2
1 1 1
Exemplo 7.5.2. Vamos projetar v = 2 no plano gerado por r = 1 e s = 1 utilizando o
3 0 1
3
produto interno usual do R .
Primeiro vamos encontrar dois vetores v1 , v2 do plano que sejam perpendiculares e que tenham
norma 1. Vamos usar Gram-Schmidt:
1 1 1 0
⟨s,r⟩ 2
w1 = r = 1 e w2 = s − ⟨r,r⟩ r = 1 − 1 = 0.
2
0 1 0 1
Note que w1 e w2 já são ortogonais. Falta dividir pelas suas respectivas normas para obter vetores
de norma 1 ortogonais:
1 0
v1 = w1 /|w1 | = √12 1 e v2 = w2 /|w2 | = 1
0.
1
0 1
Definição 7.5.3. Seja V um espaço vetorial com um produto interno ⟨·, ·⟩. Dizemos que a base
v1 , . . . , vm de V é uma base ortonormal se ⟨vi , vj ⟩ = 0, quando i ̸= j, e ⟨vi , vi ⟩ = 1.
Observação 7.5.4. Para obter uma base ortonormal a partir de uma base, basta aplicar Gram-
Schmidt em uma base e depois dividir os vetores obtidos pelas suas respectivas normas.
150
Projeção ortogonal de um vetor em um subespaço.
Exercı́cio 7.5.5. Seja V um espaço vetorial com um produto interno ⟨, ⟩. Seja W um subespaço de
V com a seguinte base ortonormal: v1 , . . . , vm . Mostre que
2 = proj .
c) projW W
151
A matriz da projeção no Rn
Considere Rn com o produto interno usual. Seja W um subespaço de Rn com a seguinte base
ortonormal: v1 , . . . , vm .
Pela fórmula que obtemos acima sabemos que projW (v) = ⟨v, v1 ⟩v1 + . . . + ⟨v, vm ⟩vm .
a1 b1 b
1
. . .
Cada vi = .. e v = .. então ⟨vi , v⟩ = a1 b1 + . . . + an bn = (a1 , . . . , an ) .. = vit v.
an bn bn
t v =(v v t + . . . + v v t ) v.
Portanto projW (v) = v1 ⟨v1 , v⟩ + . . . + vm ⟨vm , v⟩ = v1 v1t v + . . . + vm vm
| 1 1 {z m m
}
An×n
Assim projW (v) = Av, onde A = v1 v1t + . . . + vm vm
t e v , . . . , v é uma base ortonormal de W .
1 m
1 1 1
Exemplo 7.5.6. No exemplo 7.5.2, projetamos o vetor v =2
no plano W gerado por
1 ev =1
3 0 1
3
2
utilizando o produto interno usual do R3 . Obtivemos como resultado projW (v) =
32 .
3
1 1 1
1 0 1
Exercı́cio 7.5.7. Encontre a projeção de r1 =
, r2
=
, r3
=
no subespaço W do R4 gerado
2 2 2
0 1 2
152
1 1 1
0 1 1
por s1 =
,
s2 =
,
s3 =
utilizando o produto interno usual. Utilize a matriz da projeção
0 0 0
1 0 1
ortogonal que acabamos de aprender.
153
Capı́tulo 8
Primeiramente lembre-se do exercı́cio 6.1.4 que diz que se v1 , . . . , vn formam uma base de um
espaço vetorial real V e se w1 , . . . , wn são vetores de uma espaço vetorial real W então existe uma
única transformação linear T : V → W que satisfaz T (v1 ) = w1 , . . . , T (vn ) = wn .
Esse exercı́cio diz que basta escolher as imagens para os vetores de uma base de V , i.e., T (v1 ) =
w1 , . . . , T (vn ) = wn , que consiguiremos uma transformação linear T : V → W satisfazendo essas
escolhas. As imagens de todos os vetores de V por essa T podem ser calculadas pela fórmula
Esse processo de definir uma T.L. numa base e depois estender a T.L. para V inteiro com a fórmula
acima é chamado de estender por linearidade.
Também vimos no exercı́cio 6.1.5 que podemos somar T.L.s que possuem o mesmo domı́nio e
contra-domı́nio obtendo uma nova T.L. (no item a)) e que podemos multiplicar uma T.L. por um
número real e obter uma outra T.L. (no item b)), ou seja, existe uma soma e multiplicação por escalar
para T.L.s. O próximo exercı́cio pede para você mostrar que essas operações tornam o conjunto de
todas essas T.L.s um espaço vetorial.
Exercı́cio 8.0.1. Sejam V, W espaços vetoriais reais. Prove que o conjunto de todas as T.L.s de
domı́nio V e contradomı́nio W formam um espaço vetorial com as seguintes operações:
b) Multiplicação por escalar: λ.T : V → W , definida por λ.T (v) = λ(T (v))
154
8.1 Funcional Linear e Espaço Dual
Espaço Dual
b) Para definir um funcional linear basta definı́-lo na base e estender por linearidade.
Assim
para
1 0
obter um funcional f : R2 → R, basta escolher uma base do R2 , seja ela , , e
0 1
escolher números reais para serem imagens dessa base, sejam eles
1 0
f = 2, f = 3.
0 1
E obtemos
x 1 0
f = x.f + y.f = 2x + 3y.
y 0 1
155
Conjunto Dual
O conjunto de funcionais {a∗1 , . . . , a∗m } definidos acima é chamado de conjunto dual de A com
respeito a base β.
1 1 0 1 1
Exemplo 8.1.5. Sejam A = , B = , e C = , .
0 0 1 0 1
Note que B, C são bases do R2 que contém A. Vamos construir o conjunto dual de A com respeito
a cada uma dessas bases.
Caso 1: O conjunto dual de A com respeito a B é formado por apenas um funcional que satisfaz
1 0
a∗ = 1 e a∗ = 0.
0 1
Assim
x 1 0
a∗ = x.a∗ + y.a∗ = x.1 = x
y 0 1
1
Em particular, note que a∗ = 1.
1
Caso 2: O conjunto dual de A com respeito a C é formado por apenas um funcional que satisfaz
1 1
a∗ = 1 e a∗ = 0.
0 1
Assim
x 1 1
a∗ = (x − y).a∗ + y.a∗ = x − y
y 0 1
156
1
Em particular, note que a∗ = 1 − 1 = 0.
1
Observação ∗ ∗
8.1.6. Note no exemplo anterior que a do caso 1 é diferente de a do caso 2, apesar
1
de a = . Aquilo que mudou na definição de a∗ nos casos 1 e 2 foram as bases que contém a, ou
0
seja, o conjunto dual de um subconjunto L.I. de V depende da base que você escolheu contendo esse
conjunto L.I.. Você vai esquecer disso.
Demonstração. Primeiro vamos provar que a∗1 , . . . , a∗n são linearmente independentes. Para isso con-
sidere uma combinação deles resultando no funcional linear nulo, i.e.,
Aplicando esse funcional nulo em ai obtemos o número 0, por outro lado aplicando x1 a∗1 + . . . +
xi a∗i + . . . + xn a∗n em ai obtemos
Assim xi = 0 para todo i. Isso mostra que a∗1 , . . . , a∗n são linearmente independentes.
Agora seja f : V → R um funcional linear. Então f (ai ) ∈ R para todo i. Considere o funcional
f (a1 )a∗1 + . . . + f (an )a∗n .
Note que (f (a1 )a∗1 + . . . + f (ai )a∗i + . . . + f (an )a∗n )(ai ) = f (a1 )a∗1 (ai ) + . . . + f (ai )a∗i (ai ) + . . . +
f (an )a∗n (ai ) = f (ai ).
Assim os funcionais f e f (a1 )a∗1 + . . . + f (an )a∗n tem as mesmas imagens nos vetores da base
a1 , . . . , an . Mas pelo exercı́cio 6.1.4 existe um único funcional linear cujas imagens na base a1 , . . . , an
são os números f (a1 ), . . . , f (an ). Portanto f = f (a1 )a∗1 + . . . + f (an )a∗n .
Isso prova que todo elemento de V ∗ é combinação de a∗1 , . . . , a∗n , ou seja, a∗1 , . . . , a∗n gera V ∗ e é um
conjunto linearmente independente.
157
x x x
1 2 3
T y = ⃗ = y
y e seja X
.
4 5 6
z z z
1 2 3
⃗ = f1 (X)
T (X) ⃗ + f2 (X)
⃗ + f3 (X)
⃗
4 5 6
Espaço Bidual
Conjunto Bidual
a∗∗ (f ) = f (a),
158
Observação 8.2.3. Note que diferente do conjunto dual, não foi necessário utilizar uma base
para definir o conjunto bidual.
Teorema 8.2.4. Seja V um espaço vetorial real de dimensão n. A função T : V → V ∗∗ , definida por
T (v) = v ∗∗ , é uma transformação linear bijetora.
Seja α uma base de V contendo v. Defina o funcional linear v ∗ : V → R com respeito a essa base.
Note que
0 = T (v)(v ∗ ) = v ∗∗ (v ∗ ) = v ∗ (v) = 1,
Vimos no teorema 8.1.7 que a dimensão do dual de um espaço de dimensão finita é igual a dimensão
do espaço. Portanto dim(V ∗∗ ) = dim(V ∗ ) = dim(V ).
Pelo teorema do Núcleo-Imagem dim(V ) = dim(N uc(T )) + dim(Im(T )), como dim(N uc(T )) = 0,
dim(V ∗∗ ) = dim(V ) = dim(Im(T )). Assim a Im(T ) é um subespaço de V ∗∗ com a mesma dimensão
de V ∗∗ , ou seja, Im(T ) = V ∗∗ . Portanto T é sobrejetora.
159
Capı́tulo 9
Forma de Jordan
No capı́tulo de diagonalização, nós justificamos a busca por uma base de autovetores com a justi-
ficativa que essa base simplificaria a matriz da transformação, isto é, a colocaria no formato diagonal
que é simples de multiplicar. Lembra?
Entretanto nem toda transformação linear, que possui mesmo domı́nio e contra-domı́nio, pode
ser diagonalizada. Aqui chamaremos essas transformações lineares que possuem o mesmo domı́nio e
contra-domı́nio de operadores lineares.
Nesse capı́tulo veremos um teorema que garante a existência de bases para o domı́nio de qualquer
operador linear, cuja matriz do operador linear nessa base é bem simples (não tão simples quanto uma
diagonal, mas ainda bem simples). O primeiro exemplo disso pode ser visto no próximo exercı́cio.
Exercı́cio 9.0.1. Seja T : R2 → R2 um operador linearcom autovalores reais. Se T não for diago-
λ 1
nalizável então existe uma base α do R2 tal que [T ]αα = .
0 λ
Solução: Se T possuı́sse dois autovalores distintos então T seria diagonalizável pela proposição 6.5.7.
Portanto T possui somente um autovalor λ e associado a ele existe um autovetor v.
Seja w tal que β = {v, w} é uma base do R2 . Esse w existe pelo teorema 5.4.9.
Como T (w) ∈ R2 e β = {v, w} é uma base do R2 então T (w) = av + bw e T (v) = λv. Assim
λ a
[T ]ββ = .
0 b
160
Mas só existe um autovalor de T que é λ. Assim b = λ.
Considere a base α = {av, w}. Como T (av) = λav e T (w) = 1.av + λw então
λ 1
[T ]αα = .
0 λ
Para provar o teorema que prometemos acima devemos começar provando o teorema para opera-
dores nilpotentes.
Operadores Nilpotentes
Considere o operador linear T : R2 → R2 definido por T (v) = Av. Assim para todo v ∈ R2
temos
161
T 2 (v) = T (T (v)) = A(Av) = A2 v = 0v = 0.
0 1
Portanto T é nilpotente. Agora como T = então T 1 = T =
̸ 0. Portanto 2 é o ı́ndice
1 0
de nilpotência de T .
A seguir veremos como deve ser o formato da base que simplificará a matriz do operador nilpotente
e também como ficará esse formato simplificado.
T T T T T
vsi ,i → vsi −1,i → . . . → v2,i → v1,i → 0V
Observação 9.1.4. Seja T : V → V o operador linear nulo. Sabemos que seu ı́ndice de
nilpotência é 1. Seja α = {v1 , . . . , vn } uma base quaquer de V .
Note que ela é uma base de Jordan de V com respeito a T pelos seguintes motivos.
n
[
• α= αi , onde αi = {vi }.
i=1
• T (vi ) = 0V
162
Exercı́cio 9.1.5. Seja T : V → V um operador linear. Suponha que exista uma base α = {v1 , v2 , . . . , vn }
T T T T T
de V tal que vn → vn−1 → . . . → v2 → v1 → 0V . Mostre que
0 1 0 ... 0
0 0 1 . . . 0
. . . ..
[T ]αα = .. .. .. . . . . .
0 0 . . . 0 1
0 0 ... 0 0
Exercı́cio 9.1.6. Seja T : V → V um operador linear. Suponha que exista uma base de Jordan para
T como na definição 9.1.3. Mostre que T é nilpotente de ı́ndice k e que
0 1 0 ... 0
N1 0s1 ×s2 . . . 0s1 ×st
0 0 1 . . . 0
0 N . . . 0
s ×s 2 s ×s . . . .
α
[T ]α = .
2 1 2 t
. .
, onde cada Ni = . . .. . . .
. .
. .
.. .. . .. ..
0 0 . . . 0 1
0st ×s1 0st ×s2 . . . Nt
0 0 ... 0 0
si ×si
Observação 9.1.7. Veremos a seguir que para todo operador nilpotente existe uma base de
Jordan como a descrita na definição 9.1.3. Portanto a matriz do operador nessa base será
aquela descrita no exercı́cio anterior.
Lema 9.1.8. Seja T : V → V um operador linear nilpotente de ı́ndice de nilpotência 2. Existe base
de Jordan como a descrita na definição 9.1.3 para esse operador.
Demonstração :Como T ̸= 0 então a Im(T ) ̸= {0V }. Portanto a imagem de T possui uma base.
Seja w1 , . . . , wm uma base da Im(T ), onde m ≥ 1.
Agora observe que se v ∈ Im(T ) então v = T (w) e T (v) = T 2 (w) = 0V , isto é, v ∈ N uc(T ). Isso
significa que Im(T ) ⊂ N uc(T ).
Então podemos acrescentar vetores do N uc(T ) ao conjunto L.I. {w1 , . . . , wm } até obter uma base
do N uc(T ).
163
Sejam r1 , . . . , rs esses vetores do N uc(T ) tais que w1 , . . . , wm , r1 , . . . , rs é uma base do Núcleo de
T . Além disso, sejam v1 , . . . , vm vetores de V tais que T (v1 ) = w1 , . . . , T (vm ) = wm .
T T
• vi → wi → 0V , para todo 1 ≤ i ≤ m,
T
• rj → 0V , para todo 1 ≤ j ≤ m.
Solução: Para todo v ∈ Im(T ) temos que T (v) ∈ Im(T ). Isso significa que podemos restringir o
domı́nio de T ao subespaço Im(T ) e ainda teremos um operador linear T : Im(T ) → Im(T ). Vamos
chamar essa restrição de T |Im(T ) .
k−1 k−1
T |Im(T ) (v) = T (T (w)) = T k (w) = 0V .
164
Como T k−1 ̸= 0 então existe algum r ∈ V tal que T k−1 (r) ̸= 0V .
Já temos tudo pre precisamos para ver o caso geral do teorema da base de Jordan para operadores
nilpotentes.
Já provamos esse teorema para operadores nilpotentes de ı́ndice 1 (observação 9.1.7) e de ı́ndice 2
(lema 9.1.8). Também já vimos no exercı́cio anterior que podemos formar o operador T |Im(T ) e que
seu ı́ndice é k − 1.
Por hipótese de indução, existe uma base α da Im(T ) com respeito a T tal que
t
[
1. α = αi , onde αi = {v1,i , v2,i , . . . , vsi ,i }.
i=1
T T T T T
2. Para cada i temos vsi ,i → vsi −1,i → . . . → v2,i → v1,i → 0V .
tais que T (vs1 +1,1 ) = vs1 ,1 , . . . , T (vsi +1,i ) = vsi ,i , . . . , T (vst +1,t ) = vst ,t .
t
[
Forme o conjunto β = βi , onde βi = {v2,i , . . . , vsi ,i , vsi +1,i }.
i=1
165
Note duas coisas sobre β:
a) Para formar β, nós retiramos de α os primeiros vetores dos αi , v1,1 , . . . v1,i . . . v1,t ,
e acrescentamos vs1 +1,1 , . . . , vsi +1,i , . . . , vst +1,t que obtivemos acima.
b) As imagens dos vetores de β pela T são os vetores de α. Isto é, β é uma pré-imagem de α pela
T.
Como os primeiros vetores dos αi são vetores L.I., pois fazem parte de uma base, e pertencem ao
N uc(T ), podemos acrescentar a eles vetores do N uc(T ) até obtermos uma base do núcleo.
t
[ s
[
Finalmente note que ζ = β ∪ γ = ζi ∪ δi , onde
i=1 j=1
a) Para cada i e j temos ζi = αi ∪ {vsi +1,i } = {v1,i , v2,i , . . . , vsi ,i , vsi +1,i } e δj = {rj }.
T T T T T T T
vsi +1,i → vsi ,i → vsi −1,i → . . . → v2,i → v1,i → 0V e rj → 0V .
Como existe pelo menos um i tal que #αi = k − 1 então existe pelo menos um i tal que #ζi = k.
166
9.2 Revisão de polinômios
Nessa seção revisaremos alguns fatos básicos sobre polinômios que normalmente são aprendidos no
curso de Estruturas Algébricas. Tudo que faremos aqui é para provar o lema 9.2.14 que será utilizado
na próxima seção.
t
X l
X
Definição 9.2.1. Sejam p(x) = pi xi , q(x) = qj xj e m(x) polinômios com coeficientes reais.
i=0 j=0
1. Definimos o grau do polinômio p(x) como sendo o maior i tal que pi ̸= 0. Denotaremos o grau
de p(x) por grau(p(x)).
3. Dizemos que p(x) divide m(x), ou que p(x) é um divisor de m(x), se existir um polinômio
q(x) ∈ R[x] tal que m(x) = p(x)q(x). Denotaremos isso por p(x) | m(x).
(2x2 + 3x + 1)(x + 1) = 2x2 .x + 3x.x + 1.x + 2x2 .1 + 3x.1 + 1.1 = 2x3 + 5x2 + 4x + 1.
3. Note que x + 1 | 2x3 + 5x2 + 4x + 1, pois 2x3 + 5x2 + 4x + 1 = (2x2 + 3x + 1)(x + 1).
Foi fácil ver que x + 1 dividia 2x3 + 5x2 + 4x + 1, porque já sabı́amos que x + 1 multiplicado por
outro polinômio resultava em 2x3 + 5x2 + 4x + 1. E se não soubéssemos disso? Como poderı́amos
descobrir se x + 1 divide 2x3 + 5x2 + 4x + 1 ou não.
Podemos repetir o algoritmo da divisão que estamos acostumados com números, agora com os
polinômios. Por exemplo:
167
2x3 + 5x2 + 4x + 1 |x + 1
−(2x3 + 2x2 ) 2x2 + 3x + 1
3x2 + 4x + 1
−(3x2 + 3x)
x+1
−x + 1
0
Algoritmo de Euclides
Lema 9.2.3. Sejam p(x) e q(x) polinômios com coeficientes reais. Se q(x) ̸= 0 então existem
polinômios com coeficientes reais m(x) e r(x) tais que
onde r(x) ̸= 0, mas o seu grau é menor que o grau de q(x), ou r(x) = 0.
O polinômio p(x) é o dividendo, o q(x) é o divisor, m(x) é o quociente e o r(x) é o resto. Note
que se o resto for zero então q(x) | p(x).
Não demonstrarei esse lema, mas você pode se convencer de que isso é verdade através do exemplo
que fizemos antes desse lema e do próximo exemplo também. Note que no exemplo anterior o dividendo
era 2x3 + 5x2 + 4x + 1, o divisor era x + 1, o quociente era 2x2 + 3x + 1 e o resto deu 0.
x3 + 4x + 2 |x2 + 1
−(x3 + x) x
3x + 2
Como 3x + 2 já tem grau menor que o divisor, podemos parar aqui e dizer que o resto é 3x + 2.
Portanto o quociente é x. Assim obtemos x3 + 4x + 2 = (x2 + 1).x + (3x + 2).
Exercı́cio 9.2.5. Sejam p(x) e q(x) polinômios com coeficientes reais. Suponha que ambos sejam
polinômios não nulos. Mostre que
168
b) Se p(x) | q(x) e q(x) | p(x) então p(x) = λ.q(x), onde λ é um número real não nulo.
2. e para qualquer outro polinômio n(x) que também seja divisor comum de p1 (x), . . . , pk (x)
temos que n(x) | m(x).
Denotaremos um máximo divisor comum desses polinômios por mdc(p1 (x), . . . , pk (x)).
a) Se m(x) é um máximo divisor comum de p1 (x), . . . , pk (x) então λ.m(x), onde λ ∈ R \ {0},
também é um máximo divisor comum de p1 (x), . . . , pk (x).
b) Se m(x) e n(x) são máximos divisores comuns de p1 (x), . . . , pk (x) então existe λ ∈ R \ {0} tal
que m(x) = λ.n(x).
Lema 9.2.8. Sejam p1 (x), . . . , pk (x) polinômios com coeficientes reais. Suponha que sejam polinômios
não nulos. Então mdc(p1 (x), . . . , pk (x)) = mdc(mdc(p1 (x), . . . , pk−1 (x)), pk (x)).
Demonstração :Chame
mdc(p1 (x), . . . , pk (x)) = p(x), mdc(p1 (x), . . . , pk−1 (x)) = q(x) e o mdc(q(x), pk (x)) = m(x).
Pela definição 9.2.6, p(x) divide p1 (x), . . . , pk (x). Então p(x) divide p1 (x), . . . , pk−1 (x). Mas isso
implica que p(x) | q(x) e p(x) | pk (x).
Agora, m(x) | q(x). Mas como q(x) divide p1 (x), . . . , pk−1 (x) então m(x) também divide p1 (x), . . . , pk−1 (x).
Mas lembre-se que m(x) | pk (x).
169
Assim pela definição 9.2.6, m(x) | p(x).
Obtemos m(x) | p(x) e p(x) | m(x). Assim existe um λ ∈ R \ {0} tal que m(x) = λ.p(x), pela letra
b) do exercicio 9.2.7.
Note que λ.p(x) também é um mdc para p1 (x), . . . , pk (x), plea letra a) do exercı́cio 9.2.7.
Assim obtemos o resultado. ■
Lema 9.2.9. Sejam p(x) e q(x) polinômios com coeficientes reais e ambos diferentes de zero.
Sejam m(x) e r(x) o quociente e o resto da divisão de p(x) por q(x), respectivamente. Então
Demonstração :Se r(x) = 0 então p(x) = m(x)q(x). Como q(x) = 1.q(x) então q(x) é divisor
comum de p(x) e q(x).
Seja n(x) outro divisor comum de p(x) e q(x) então n(x) divide q(x), ou seja, q(x) cumpre as
condições para ser mdc(p(x), q(x)) nessa situação.
ou seja, a(x) é divisor comum de r(x) e q(x). Portanto a(x) divide b(x).
De maneira idêntica prova-se que b(x) é divisor comum de p(x) e q(x). Assim b(x) divide a(x).
170
Método das divisões sucessivas para calcular o mdc.
Sejam p(x) e q(x) polinômios com coeficientes reais e ambos diferentes de zero.
Se r1 (x) = 0 então mdc(q(x), r0 (x)) = r0 (x). Portanto mdc(p(x), q(x)) = r0 (x) também.
Se r2 (x) = 0 então mdc(r0 (x), r1 (x)) = r1 (x). Portanto mdc(p(x), q(x)) = r1 (x) também.
Como os graus dos restos estão diminuindo eventualmente algum dos restos se anula. Quando
se anula um resto nós sabemos que mdc(p(x), q(x)) é resto anterior não nulo.
3x + 2 = (9x + 6).( 13 ) + 0 1
3 0
Portanto mdc(x3 + 4x + 2, x2 + 1) = 31 .
171
Lema 9.2.11. Sejam p(x) e q(x) polinômios com coeficientes reais e ambos diferentes de zero. Existem
polinômios com coeficientes reais a(x) e b(x) tais que mdc(p(x), q(x)) = a(x)p(x) + b(x)q(x).
Não irei demonstrar esse lema, porque é bem simples compreender de onde vêm esse polinômios
a(x), b(x), quando utilizamos o método das divisões sucessivas para encontrar o mdc de p(x) e q(x).
Vou mostrar através de um exemplo.
Vou repetir aqui a tabela das divisões sucessivas que foi utilizada no cálculo do mdc(x3 + 4x +
2, x2 + 1).
3x + 2 = (9x + 6).( 13 ) + 0 1
3 0
x2
1 x −x 3
= x2 + 1 − .[(x3 + 4x + 2) − x.(x2 + 1)] = .(x + 4x + 2) + + 1 (x2 + 1).
3 3 3 3
−x x2
Assim a(x) = , b(x) = +1 e
3 3
Lema 9.2.12. Sejam p1 (x), . . . , pk (x) polinômios com coeficientes reais e todos diferentes de zero.
Existem polinômios a1 (x), . . . , ak (x) com coeficientes reais tais que
mdc(mdc(p1 (x), . . . , pn (x)), pn+1 (x)) = a(x)mdc(p1 (x), . . . , pn (x)) + c(x)pn+1 (x).
172
Pelo caso k = n (hipótese de indução), existem polinômios b1 (x), . . . , bn (x) com coeficientes reais
tais que mdc(p1 (x), . . . , pn (x)) = b1 (x)p1 (x) + . . . + bn (x)pn (x).
mdc(mdc(p1 (x), . . . , pn (x)), pn+1 (x)) = a(x)b1 (x)p1 (x) + . . . + a(x)bn (x)pn (x) + c(x)pn+1 (x).
Mas já vimos no lema 9.2.8 que mdc(mdc(p1 (x), . . . , pn (x)), pn+1 (x)) = mdc(p1 (x), . . . , pn (x)).
Portanto encontramos os polinômios
Agora aproveitaremos o fato que estamos trabalhando somente com polinômios reais para provar
um resultado que será necessário na próxima seção. Antes lembre-se do teorema fundamental da
álgebra.
Teorema 9.2.13. Seja p(x) um polinômio com coeficientes reais com grau maior ou igual a 1.
Então ele pode ser escrito como p(x) = λ(x − a1 )n1 . . . (x − ak )nk , onde
• λ ∈ R \ {0},
Tudo o que foi feito nessa seção foi para demonstrar o seguinte lema.
Lema 9.2.14. Seja p(x) = λ(x−a1 )n1 . . . (x−ak )nk , onde λ ∈ R\{0}, n1 , . . . , nk são números naturais
e a1 , . . . , ak são números reais distintos e k > 1. Seja qi (x) = p(x)/(x−ai )ni para i = 1, . . . , n. Existem
polinômios a1 (x), . . . , ak (x) com coeficientes reais tais que
Demonstração :Basta provar que o mdc(q1 (x), . . . , qk (x)) = 1 e usar o lema 9.2.12.
Para provar que o mdc(q1 (x), . . . , qk (x)) = 1, vamos ver que os únicos polinômios não nulos que
dividem q1 (x), . . . , qk (x) são os polinômios constantes.
173
Então um mdc(q1 (x), . . . , qk (x)) deve ser um polinômio constante, multiplicando pelo inverso dele
obtemos mdc(q1 (x), . . . , qk (x)) = 1, pelaletra b) do exercı́cio 9.2.7.
Suponha que q(x) tenha grau maior ou igual a 1 e divide todos os q1 (x), . . . , qk (x), isto é,
q(x)mi (x) = qi (x) = λ(x − a1 )n1 . . . (x − ai−1 )ni−1 (x − ai+1 )ni+1 . . . (x − ak )nk .
Como grau de q(x) é maior ou igual a 1, pelo teorema fundamental da álgebra, ele possui uma
raiz, que chamaremos de b. Assim q(b) = 0, o que implica que
Vimos anteriormente como calcular o núcleo de uma transformação linear. Aqui aprenderemos
como calcular o núcleo de um polinômio de um operador linear.
Pk n
3. Se p(x) = n=0 an x é um polinômio com coeficientes reais, definimos o operador linear
p(T ) : V → V como
k
X
p(T )(v) = an T n (v) = a0 v + a1 T (v) + a2 T 2 (v) + . . . + an T n (v).
n=0
O que estamos fazendo aqui é substituindo o x por T e o termo contante a0 pelo operador a0 Id.
174
Exercı́cio 9.3.2. Seja T : V → V um operador linear. Sejam p(x), q(x), m(x) polinômios com
coeficientes reais. Mostre que
Teorema 9.3.3. Seja p(x) = λ(x−a1 )n1 . . . (x−ak )nk onde λ ∈ R\{0}, n1 , . . . , nk são números
naturais e a1 , . . . , ak são números reais distintos. Se T : V → V é um operador linear então
Concluı́mos que todos os vetores do N uc(p(T )) podem ser escritos como soma de vetores dos
N uc((T − ai Id)ni ), isto é,
175
Agora se w ∈ N uc((T − ai Id)ni ) então
Falta provar que o N uc(p(T ) é soma direta dos subespaços N uc((T − ai Id)ni ) para i = 1, . . . , k.
Se j ̸= i então (T − aj Id)nj faz parte dessa composição que forma qi (T ), posso passá-lo para o fim
da composição porque esses operadores comutam, isto é, qi (T ) = m(T )(T − aj Id)nj , onde
m(T ) = λ(T − a1 Id)n1 . . . (T − ai−1 Id)ni−1 (T − ai+1 Id)ni+1 . . . (T − aj−1 Id)nj−1 (T − aj+1 Id)nj+1 . . . (T − ak Id)nk .
Provamos algo importantı́ssimo, qi (T )(wj ) = 0V sempre que i ̸= j. Isso implica em duas coisas:
Essa duas informações juntas dão wj = aj (T )qj (T )(v). Lembre-se que aj (T )qj (T )(v) = vj . ■
176
Resolvendo equações diferencias com o teorema da decomposição primária
·· ·
A seguinte equação é um exemplo de equação diferencial: y −5 y +6y = 0.
A letra y representa uma função y = y(t) e cada ponto em cima de y significa uma derivada
com respeito a t. Resolver uma equação diferencial significa encontrar todas as possı́veis funções
y = y(t) que a satisfazem.
· ··
Podemos substituir os pontos sobre y pelo operador derivada D(y) = y e D2 (y) = D(D(y)) = y .
Assim aquela equação diferencial fica (D2 − 5D + 6Id)(y) = 0, ou seja, resolvê-la significa
encontrar todos os vetores do N uc(p(D)), onde p(x) = x2 − 5x + 6.
·
Agora N uc(D − λId) = {y(t), y (t) = λy(t)}.
·
Podemos dividir ambos os lados de y (t) = λy(t) por y(t) e integrar:
·
y (t)
Z Z
dt = λdt.
y(t)
O lado esquerdo resulta em ln(y(t)) e o lado direito resulta em λt + c, isto é, ln(y(t)) = λt + c.
Assim y(t) = eλt+c = Aeλt , onde A = ec é uma contante. Isso significa que
177
Resolvendo relações de recorrência com o teorema da decomposição primária
Observe que as sequências (an )n∈N que satisfazem a relação de recorrência an+2 = 5an+1 − 6an
são as mesmas que satisfazem
Isto é, resolver essa relação é o mesmo que encontrar todas as sequências que pertecem ao
N uc(p(T )), onde p(x) = x2 − 5x + 6.
Agora
N uc(T − λId) = {(an )n∈N , (an+1 )n∈N = (λan )n∈N } = {(a1 λn−1 )n∈N , a1 ∈ R}.
1. an+2 = an+1
178
A seguir provaremos um teorema importantı́ssimo.
Teorema de Cayley-Hamilton
Pn i
Escreva p(x) = i=0 pi x .
Pn
Provaremos que p([T ]αα ) = α i
i=0 pi ([T ]α ) = 0n×n .
Pelo corolário 6.3.6, ([T ]αα )i = [T i ]αα . Portanto
n
" n
#α
X X
0n×n = p([T ]αα ) = pi ([T i ]αα ) = pi T i
.
i=0 i=0 α
O único operador cuja matriz na base α é 0n×n é o operador nulo. Assim p(T )(v) = 0V para todo
v ∈V.
Para simplificar a notação chame B = [T ]αα . Vamos mostrar o que falta, isto é,
n
X
p(B) = pi B i = 0n×n .
i=0
Portanto
179
(B − xId)Adj(B − xId) = (B − xId)(Bn−1 xn−1 + Bn−2 xn−2 + . . . + B1 x1 + B0 )
= (BBn−1 xn−1 − Bn−1 xn ) + (BBn−2 xn−2 − Bn−2 xn−1 ) + . . . + (BB1 x − B1 x2 ) + (BB0 − B0 x).
= −Bn−1 xn + (BBn−1 − Bn−2 )xn−1 + (BBn−2 − Bn−3 )xn−2 + . . . + (BB1 − B0 )x + (BB0 ). (9.4)
= (pn Id)xn + (pn−1 Id)xn−1 + (pn−2 Id)xn−2 + . . . + (p1 Id)x + (p0 Id). (9.5)
Comparando as equações 9.4 e 9.5 e igualando as matrizes que estão ao lado das mesmas potências
de x, obtemos as relações descritas na coluna da esquerda. Multiplicando cada uma dessas relações
pelas matrizes descritas na coluna do meio obtemos as matrizes da coluna da direita.
×B n n B = p B n
−Bn−1 = pn Id =⇒ −B
n−1 n
×B n−1
B nB B n−1
Bn−2 = pn−1 B n−1
BBn−1 − Bn−2 = pn−1 Id =⇒ n−1 −
.. .. ..
. . .
×B
BB1 − B0 = p1 Id =⇒ B 2B1 −
BB=p B
0 1
×Id
BB0 = p0 Id =⇒ BB
0 = p0 Id
0n×n = p(B)
Somando as matrizes da última coluna, elas se cancelam e o resultado dá 0n×n = p(B). ■
Chegou a hora de juntar o que fizemos sobre operadores nilpotentes e os teoremas da decomposição
primária e de Cayley-Hamilton.
Definição 9.4.1. Chamamos a seguinte matrix de bloco de Jordan de ordem n associado ao autovalor
λ:
λ 1 0 0 . . . 0
0 λ 1 0 . . . 0
. . .. .. ..
.. ..
. . . 0
J = .
0 0 ... λ 1 0
0 0 ... 0 λ 1
0 0 ... 0 0 λ
n×n
180
Exemplos 9.4.2. As seguintes matrizes são blocos de Jordan de ordem 1 , 2 e 3, respectivamente
2 1 0
3 1
(5)1×1 , , 0 2 1
0 3
2×2 0 0 2
3×3
Exemplo 9.4.5. A seguinte matriz A está na forma de Jordan. Note que ela é formada por 4 blocos
de Jordan. O primeiro deles é associado ao autovalor 5, o segundo e o terceiro são associados ao
autovalor 3 e o quarto ao autovalor 2.
5 0 0 0 0 0 0 0 0
0 3 1 0 0 0 0 0 0
0 0 3 0 0 0 0 0 0
0 0 0 3 1 0 0 0 0
A= 0 0 0 0 3 1 0 0 0
0 0 0 0 0 3 0 0 0
0 0 0 0 0 0 2 1 0
0 0 0 0 0 0 0 2 1
0 0 0 0 0 0 0 0 2
Observação 9.4.6. Se cada bloco de Jordan, Ji , tiver ordem 1 então o formato de Jordan é o
formato diagonal.
181
Teorema da Forma de Jordan
Teorema 9.4.7. Seja V um espaço vetorial real de dimensão finita e T : V → V um operador
linear. Suponha que os autovalores de T sejam todos números reais. Existe uma base ordenada
α de V tal que [T ]αα tem o formato de Jordan, isto é,
J1 0s1 ×s2 . . . 0s1 ×st
0s2 ×s1 J2 . . . 0s2 ×st
α
[T ]α = . .. .. ,
.. ..
. . .
0st ×s1 0st ×s2 . . . Jt
Demonstração :Como os autovalores de T são números reais então as raı́zes do seu polinômio
caracterı́stico são todas reais. Seja p(x) seu polinômio caracterı́stico. Pelo teorema 9.2.13, p(x) =
λ(x − a1 )n1 . . . (x − ak )nk , onde
• λ ∈ R \ {0},
• a1 , . . . , ak são as raı́zes distintas de p(x) que por hipótese são números reais.
= (T − ai Id)(0V ) = 0V .
Agora observe que (T − ai Id)ni : Vi → Vi é o operador nulo, pois Vi = N uc((T − ai Id)ni ). Isso
significa que T − ai Id : Vi → Vi é nilpotente.
182
Então existe uma base ordenada αi para Vi como obtida no teorema 9.1.10 cuja matriz
N1 0s1 ×s2 . . . 0s1 ×st
0s2 ×s1 N2 . . . 0s2 ×st
[T − ai Id]ααii =
.. .. .. .. ,
. . . .
0st ×s1 0st ×s2 ... Nt
.
onde Ni são blocos de Jordan associados ao autovalor 0.
Note que ai Id também envia vetores de Vi em vetores de Vi . Assim T = (T − ai Id) + ai Id envia
vetores de Vi em vetores de Vi . Podemos reduzir o domı́nio de T a cada um dos Vi , T |Vi : Vi → Vi .
[T |V1 ]αα11 0m1 ×m2 . . . 0m1 ×mk
0m2 ×m1 [T |V2 ]αα22 . . . 0m2 ×mk
α
[T ]α = .. .. .. ..
.
.
. . .
0mk ×m1 0mk ×m2 α
. . . [T |Vk ]αk
k
183
Referências Bibliográficas
[1] S. Axler, Linear Algebra Abridged. Disponı́vel gratuitamente para download na página.
http://linear.axler.net/LinearAbridged.pdf
[2] J.G. Broida and S. G. Williamson, Comprehensive Introduction to Linear Algebra Parts I,II,III.
Disponı́vel gratuitamente para download em https://cseweb.ucsd.edu/ gill/CILASite/
[3] J. C. Pellegrini, Álgebra Linear com Aplicações. Disponı́vel gratuitamente para download em
https://aleph0.info/cursos/al/notas/al.pdf
[5] C. A. Callioli, H.H. Domingues e R.C.F. Costa, Álgebra Linear e Aplicações. 6a. ed. São Paulo:
Atual Editora, 1990.
[6] J.L. Boldrini, S.I.R. Costa, V.L. Figueiredo e H.G. Wetzler. Álgebra Linear. 3a. ed. São Paulo:
Harbra, 1986.
184