Você está na página 1de 247

lgebra Linear

TEXTO EM FASE DE PREPARAO


Jones Colombo

Jos Koiller

Departamento de Anlise
Instituto de Matemtica e Estatstica
Universidade Federal Fluminense

ii

Jones Colombo e Jos Koiller (texto em preparao)

Contedo
1 Sistemas Lineares e Escalonamento de Matrizes
1.0 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1 Sistemas de equaes lineares . . . . . . . . . . . . . . . . . . . .
1.2 Notao matricial e o mtodo de escalonamento: primeiro exemplo
1.3 Operaes-linha e equivalncia de sistemas . . . . . . . . . . . . .
1.4 Formas escalonadas . . . . . . . . . . . . . . . . . . . . . . . . . .
1.5 O algoritmo de escalonamento . . . . . . . . . . . . . . . . . . . .
1.6 Posies e colunas-piv . . . . . . . . . . . . . . . . . . . . . . . .
1.7 Resoluo de sistemas lineares . . . . . . . . . . . . . . . . . . . .
1.8 Existncia e unicidade de soluo . . . . . . . . . . . . . . . . . .
Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1
1
3
4
7
9
13
18
19
25
29

2 Vetores e Combinaes Lineares


2.0 Introduo . . . . . . . . . . . . . . . .
2.1 Vetores de Rn . . . . . . . . . . . . . .
2.2 Combinaes lineares . . . . . . . . . .
2.3 O produto de matriz por vetor . . . . .
2.4 Notao vetorial para sistemas lineares
2.5 O espao gerado por vetores (o span) .
2.6 O espao-coluna de uma matriz . . . .
2.7 Conjuntos que geram Rn . . . . . . . .
Exerccios . . . . . . . . . . . . . . . . . . .

33
33
33
40
42
45
49
52
53
58

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

3 Sistemas Homogneos, o Ncleo de uma Matriz


Linear
3.0 Introduo . . . . . . . . . . . . . . . . . . . . .
3.1 Sistemas lineares homogneos . . . . . . . . . .
3.2 O ncleo de uma matriz . . . . . . . . . . . . .
3.3 Dependncia e independncia linear . . . . . . .
Exerccios . . . . . . . . . . . . . . . . . . . . . . . .
4 Subespaos, Bases e Dimenso
4.0 Introduo . . . . . . . . . . . . . . . . . .
4.1 Subespaos de Rn . . . . . . . . . . . . . .
4.2 Conjuntos geradores e bases de subespaos
4.3 Dimenso de um subespao . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

e Independncia
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

65
65
65
68
70
76

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

83
83
83
86
91
iii

CONTEDO

4.4
4.5
4.6
4.7

Coordenadas com respeito a uma base . . . . . . . . . . . . . . . 94


Bases para Nuc A, Col A e Span{a1 , . . . , am } . . . . . . . . . . . . 99
O teorema do posto . . . . . . . . . . . . . . . . . . . . . . . . . . 105
Demonstraes dos resultados sobre bases e dimenso (leitura opcional) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108

5 Transformaes Lineares
5.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Propriedades de uma Transformao Linear e sua Matriz
5.3 lgebra Matricial . . . . . . . . . . . . . . . . . . . . . .
5.4 Matrizes Elementares . . . . . . . . . . . . . . . . . . . .
5.5 Ncleo e Imagem . . . . . . . . . . . . . . . . . . . . . .
Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.

117
117
120
125
130
132
134

.
.
.
.
.
.
.
.

141
141
142
146
147
149
150
151
153

7 Mudana de Base
7.1 Matriz Mudana de Coordenadas . . . . . . . . . . . . . . . . . .
7.2 Aplicaes lineares e Matrizes . . . . . . . . . . . . . . . . . . . .
Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

163
163
166
171

8 Autovalores, Autovetores e Diagonalizao de Operadores


8.0 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.1 Autovalores e autovetores . . . . . . . . . . . . . . . . . . .
8.2 O polinmio caracterstico . . . . . . . . . . . . . . . . . . .
8.3 Autoespaos . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.4 Diagonalizao de operadores . . . . . . . . . . . . . . . . .
8.5 Matrizes reais com autovalores complexos . . . . . . . . . . .
8.6 Classificaao de matrizes 2 2 . . . . . . . . . . . . . . . . .
Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.

175
175
177
180
183
188
195
195
195

.
.
.
.
.

197
197
197
200
201
204

6 Determinantes
6.1 Determinantes de ordens 1, 2 e 3 . . . . . . . . . . . . .
6.2 Determinante em Geral . . . . . . . . . . . . . . . . . .
6.3 Matriz de Permutao e o Determinante da Transposta
6.4 Regra de Cramer . . . . . . . . . . . . . . . . . . . . .
6.5 Determinante do Produto . . . . . . . . . . . . . . . .
6.6 Matrizes em Blocos . . . . . . . . . . . . . . . . . . . .
6.7 rea e Volume atravs do Determinante . . . . . . . .
Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . .

9 Produto Interno, Projees e Operadores Ortogonais


9.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . .
9.2 Produto Interno . . . . . . . . . . . . . . . . . . . . . .
9.3 Normas . . . . . . . . . . . . . . . . . . . . . . . . . .
9.4 Ortogonalidade . . . . . . . . . . . . . . . . . . . . . .
9.5 Projees Ortogonais . . . . . . . . . . . . . . . . . . .
iv

.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.

Jones Colombo e Jos Koiller (texto em preparao)

9.6 Matrizes e Operadores Ortogonais . . . . . . . . . . . . . . . . . . 210


Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
10 Cnicas, Matrizes Simtricas e Formas Quadrticas
10.1 Cnicas . . . . . . . . . . . . . . . . . . . . . . . . .
10.2 Operadores Autoadjuntos . . . . . . . . . . . . . . .
10.3 Formas Bilineares Simtricas e Formas Quadrticas .
10.4 Algoritmo de Diagonalizao . . . . . . . . . . . . . .
10.5 Classificao das Equaes do 2o grau . . . . . . . . .
Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . .
Bibliografia

Jones Colombo e Jos Koiller (texto em preparao)

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

217
218
221
223
226
229
233
241

Contedo

vi

Jones Colombo e Jos Koiller (texto em preparao)

Captulo 1
Sistemas Lineares e
Escalonamento de Matrizes
1.0

Introduo

O leitor, ou a leitora, desde o ensino fundamental e mdio, j deve ter se


deparado muitas vezes com sistemas de equaes do tipo
(
(
(
x1 3x2 = 1
6x1 + 3x2 = 9
6x1 + 3x2 = 15
ou
2x1 + x2 = 5,
2x1 + x2 = 5,
2x1 + x2 = 5.
Sistema (a)

Sistema (b)

Sistema (c)

Esses so exemplos de sistemas lineares, objeto de estudo deste captulo, que


sero teis durante todo o curso.
Voc deve ter aprendido, no ensino fundamental, ao menos dois mtodos para
resolver os sistemas acima. Um deles o mtodo da substituio. No sistema (a),
por exemplo, podemos isolar a varivel x1 na primeira equao, obtendo, assim,
x1 = 3x2 1. Em seguida, substituimos x1 por 3x2 1 na segunda equao,
obtendo 2(3x2 1) + x2 = 5. Resolvendo esta equao, encontramos x2 = 1.
Agora, basta colocar x2 = 1 em x1 = 3x2 1 para concluirmos que x1 = 2.
Portanto, a nica soluo do sistema (a) dada por x1 = 2 e x2 = 1.
O segundo mtodo que voc deve conhecer o mtodo da eliminao. Multiplicando a primeira equao do sistema (a) por 2, obtemos 2x1 6x2 = 2.
Subtraindo esta nova equao da segunda equao do sistema, obtemos
2x1 + x2 = 5 
2x1 6x2 = 2
7x2 = 7,
ou seja, x2 = 1, como havamos obtido. Agora, podemos substituir x2 = 1 em
qualquer uma das equaes do sistema (a) para achar x1 = 2.
Os mtodos que acabamos de recapitular so satisfatrios para tratar sistemas
pequenos, como os acima, que tm apenas duas equaes e duas variveis. Mas
imagine a dor-de-cabea que seria aplic-los a sistemas com cinco, seis, ou at
1

Captulo 1. Sistemas Lineares e Escalonamento de Matrizes

mais variveis e equaes! Precisamos desenvolver um mtodo que nos permita


lidar, mais facilmente, com sistemas deste porte, pois teremos que faz-lo, muitas
vezes, ao longo do curso.
Um dos objetivos deste captulo estudar um procedimento, chamado de
eliminao Gaussiana ou escalonamento, para resolver sistemas lineares. Esse
procedimento , essencialmente, o mtodo da eliminao acrescido de uma sistemtica para a organizao do trabalho. A sistemtica importante para reduzir
o esforo e a chance de cometermos erros de clculo.
Observao
O desenvolvimento de um mtodo sistemtico para resolver sistemas lineares importante por diversos motivos. Talvez, o motivo principal seja o seguinte: este o primeiro
passo para se escrever um programa de computador que realize esta tarefa. Muitos problemas oriundos da modelagem matemtica de sistemas fsicos, biolgicos, econmicos
e de outras reas incluindo importantes aplicaes a todas as reas da engenharia
podem envolver milhares, centenas de milhares, milhes de variveis e equaes. Para
resolver tais sistemas, necessrio usar recursos computacionais, evidentemente.

Outro objetivo deste captulo obter uma caracterizao de sistemas lineares


que tm uma nica soluo, sistemas que tm mais de uma soluo, e sistemas
que no tm soluo alguma.
O sistema (a), por exemplo, tem uma nica soluo (x1 = 2, x2 = 1), como
vimos acima. Esse fato possui uma interpretao geomtrica simples. Lembre-se
de que uma equao do tipo ax1 + bx2 = c representa uma reta no plano (x1 , x2 ).
As retas correspondentes s equaes do sistema (a) se intersectam em um nico
ponto (a saber, o ponto (x1 , x2 ) = (2, 1)), como ilustra a figura 1.1(a). Este o
nico ponto do plano (x1 , x2 ) que pertence a ambas as retas, ou seja, o nico
ponto que satisfaz simultaneamente as duas equaes do sistema (a).
x2

x2

x2

(a)

x1

x1

x1

(b)

(c)

Figura 1.1: Interpretao geomtrica dos sistemas (a), (b) e (c).


Voc deve verificar, no entanto, que o sistema (b) no tem soluo alguma,
enquanto que o sistema (c) tem uma infinidade de solues. Geometricamente, as
equaes do sistema (b) representam retas paralelas, que no se intersectam em
ponto algum (figura 1.1(b)). Por outro lado, verifique que ambas as equaes do
sistema (c) representam a mesma reta (ilustrada na figura 1.1(c)). Dessa forma,
a interseo dessa reta com ela prpria , novamente, ela prpria!
2

Jones Colombo e Jos Koiller (texto em preparao)

1.1. Sistemas de equaes lineares

Essa discusso ser retomada nas sees 1.7 e 1.8. Veremos que o cenrio
exibido pelos sistemas (a), (b) e (c) permanece vlido em um contexto mais abrangente: um sistema linear qualquer, e de qualquer tamanho, ou tem exatamente
uma soluo, ou nenhuma, ou uma infinidade delas.

1.1

Sistemas de equaes lineares

Uma equao linear nas variveis x1 , x2 , . . . , xn uma equao que pode


ser escrita na forma
c1 x1 + c2 x2 + + cn xn = b,
(1.1)
onde c1 , c2 , . . . , cn e b so nmeros reais ou complexos.1 Os nmeros c1 , . . . , cn
so chamados de coeficientes das variveis x1 , . . . , xn , respectivamente. J b
chamado de termo independente da equao (1.1).
A equao
2x1 3x2 + 4 = x1 5x3 ,
por exemplo, linear, pois pode ser reescrita como
x1 3x2 + 5x3 = 4,
que est na forma da equao (1.1). Os coeficientes de x1 , x2 e x3 so 1, 3 e 5,
respectivamente. O termo independente 4. J as equaes

e
3x1 + x1 x2 x2 = 2
x21 + 3x2 = 5,
x1 + x2 = 7
no so lineares.
A primeira equao tem o termo no-linear x21 , a segunda tem

o termo x2 , e a terceira tem o termo x1 x2 .


Um sistema de equaes lineares, ou, simplesmente, um sistema linear,
um conjunto (finito) de equaes lineares envolvendo as mesmas variveis. Cada
um dos sistemas (a), (b) e (c) da introduo, por exemplo, um sistema de duas
equaes lineares envolvendo as duas variveis x1 e x2 . J o sistema linear

x1 2x2 + x3 = 0
(1.2)
2x1 2x2 6x3 = 8
tem duas equaes envolvendo trs variveis: x1 , x2 e x3 .
Uma soluo de um sistema linear nas variveis x1 , x2 , . . . , xn uma lista de
nmeros (s1 , s2 , . . . , sn ) que torna verdadeira cada igualdade do sistema quando
substitumos x1 , x2 , . . . , xn pelos nmeros s1 , s2 , . . . , sn . Por exemplo, (8, 4, 0)
uma soluo de (1.2), pois 824+0 = 0 e 282460 = 8. Logo, a primeira
equao do sistema reduz-se a 0 = 0, e a segunda, a 8 = 8. Verifique que (15, 8, 1)
tambm uma soluo. H uma infinidade de solues alm destas duas. Procure
achar mais algumas! J a lista (2, 1, 0) no uma soluo do sistema (1.2), pois,
apesar de reduzir a primeira equao a 0 = 0 (o que verdadeiro), ela reduz a
segunda equao a 2 = 8, o que falso.
1

Neste curso, consideraremos quase exclusivamente o caso real.

Jones Colombo e Jos Koiller (texto em preparao)

Captulo 1. Sistemas Lineares e Escalonamento de Matrizes

Definimos o conjunto-soluo de um sistema linear como o conjunto de todas


as suas solues. Podemos reformular as afirmativas do pargrafo anterior dizendo
que as listas (8, 4, 0) e (15, 8, 1) pertencem ao conjunto-soluo do sistema (1.2),
e que a lista (2, 1, 0) no pertence ao conjunto-soluo.
Se um sistema tem ao menos uma soluo, dizemos que ele possvel. Do
contrrio, dizemos que impossvel. Os sistemas (a) e (c) da introduo so
possveis, enquanto o sistema (b) impossvel. O conjunto-soluo de um sistema
impossvel o conjunto vazio.
Encerramos esta pequena seo com uma ltima definio. Dizemos que dois
sistemas so equivalentes quando eles tm o mesmo conjunto-soluo. Os sistemas 2x1 = 3 e 4x1 = 6, por exemplo, so evidentemente equivalentes.

1.2

Notao matricial e o mtodo de escalonamento: primeiro exemplo

Vamos introduzir uma notao, usando matrizes, que nos permita escrever
sistemas lineares de forma mais econmica. Lembre-se, do ensino mdio, que uma
matriz simplesmente um arranjo retangular de nmeros. Estes so chamados
de entradas ou elementos da matriz. Considere, por exemplo, o sistema

x1 4x2 + x3 = 0
3x2 6x3 = 3
(1.3)

3x1 + 14x2 6x3 = 2.


Dizemos que

1 4
1
0
3 6
3 14 6
a matriz de coeficientes associada ao sistema (1.3), e que

1 4
1
0
0
3 6 3
3 14 6
2

(1.30 )

a matriz completa associada ao sistema. Outra maneira seria dizer que a


matriz completa (1.30 ) representa o sistema (1.3). Observe que a entrada na
primeira coluna e segunda linha da matriz zero, pois x1 no aparece na segunda
equao de (1.3), ou seja, seu coeficiente zero.
Para escrevermos a matriz completa de um sistema, importante que suas
variveis estejam organizadas por colunas, como no sistema (1.3).
A ltima coluna da matriz completa associada a um sistema chamada de
coluna dos termos independentes, e corresponde aos termos do lado direito
das equaes do sistema. s vezes, convm enfatizar, graficamente, com uma
linha vertical, a distino entre a submatriz de coeficientes e a coluna dos termos
4

Jones Colombo e Jos Koiller (texto em preparao)

1.2. Notao matricial e o mtodo de escalonamento: primeiro exemplo

independentes. Poderamos escrever a matriz completa (1.30 ) como

1 4
1
0
0
3 6 3 .
3 14 6
2
Na introduo do captulo, mencionamos o procedimento de escalonamento,
tambm chamado de eliminao Gaussiana. O objetivo desse procedimento
fornecer, para um dado sistema linear, um sistema equivalente que seja muito
fcil de resolver.2 Grosso modo, isso realizado da seguinte forma: Usamos o
termo em x1 da primeira equao do sistema para eliminar os termos em x1 das
outras equaes. Em seguida, usamos o termo em x2 da segunda equao do
sistema para eliminar os termos em x2 das outras equaes, e assim por diante,
at a ltima varivel do sistema. Veremos que o processo nem sempre funcionar
exatamente desta forma, mas podemos ao menos encarar um primeiro exemplo
usando esta ideia. O procedimento ser descrito, em sua forma geral, na seo 1.5.
Vamos, ento, achar o conjunto-soluo do sistema (1.3) usando escalonamento. Para nos habituarmos com a notao matricial, vamos us-la lado a lado
com a notao usual neste primeiro exemplo:

0
1 4
1
x1 4x2 + x3 = 0
0
3 6 3
3x2 6x3 = 3
(1.300 )

3 14 6
2
3x1 + 14x2 6x3 = 2
Vamos usar o termo em x1 da primeira equao para elimin-lo das outras. Como
x1 no aparece na segunda equao (o seu coeficiente j zero), basta zerar
seu coeficiente na terceira. Para isso, substituimos a terceira equao pela soma
dela prpria com trs vezes a primeira equao:
equao 3 :
+3 (equao 1) :
nova equao 3 :

+3

3x1 + 14x2 6x3 = 2 


x1 4x2 + x3 = 0
2x2 3x3 = 2

(Esta conta costuma ser feita de cabea, usando diretamente a forma matricial.)
O novo sistema, portanto, :

1 4
1
0
x1 4x2 + x3 = 0
0
3x2 6x3 = 3
3 6 3
(1.4)

2x2 3x3 = 2
0
2 3
2
Em seguida, usamos o termo em x2 da segunda equao para elimin-lo das
outras. Mas, antes de faz-lo, multiplicamos a segunda equao por 1/3 para
simplificar as contas:

1 4
1
0
x1 4x2 + x3 = 0
0
x2 2x3 = 1
1 2 1
(1.5)

2x2 3x3 = 2
0
2 3
2
2

Lembre-se de que sistemas equivalentes tm o mesmo conjunto-soluo, conforme definimos


ao final da seo anterior.

Jones Colombo e Jos Koiller (texto em preparao)

Captulo 1. Sistemas Lineares e Escalonamento de Matrizes

Agora, vamos eliminar o termo em x2 da terceira equao:


equao 3 :
2 (equao 2) :
nova equao 3 :

O novo sistema :

x1 4x2 + x3 = 0
x2 2x3 = 1

x3 = 4

2x2 3x3 = 2 
x2 2x3 = 1
x3 = 4

1 4
1
0
0
1 2 1
4
0
0
1

(1.6)

Desejamos, tambm, eliminar o termo em x2 da primeira equao. Mas mais


eficiente eliminar, primeiro, os termos em x3 da primeira e da segunda equao,
usando a terceira (pois, assim, faremos menos contas):
x1 4x2 + x3 = 0 
equao 1 :
(equao 3) :
x3 = 4
nova equao 1 :
x1 4x2
= 4
x2 2x3 = 1 
equao 2 :
+2 (equao 3) : +2
x3 = 4
nova equao 2 :
x2
= 7
Substituindo essas novas equaes no sistema (1.6):

= 4
1 4 0 4
x1 4x2
0
7
x2
= 7
1 0

0
0 1
4
x3 = 4
Agora sim, vamos eliminar o termo em x2 da primeira equao, usando a segunda.
Observe que, graas ao trabalho feito previamente com o x3 , no ser necessrio
fazer mais conta alguma envolvendo os seus coeficientes:
equao 1 :
+4 (equao 2) :
nova equao 1 :
O novo sistema, finalmente, :

x 1
x2

= 24
= 7
x3 = 4

x1 4x2 = 4 
+4
x2 = 7
x1
= 24

1 0 0 24
0 1 0 7
0 0 1 4

(1.7)

Este sistema to simples, que podemos imediatamente ler seu conjuntosoluo: o conjunto que contm, como nico elemento, a lista (x1 , x2 , x3 ) =
(24, 7, 4). Substitua esses valores no sistema original (1.3) para verificar que, de
fato, encontramos uma soluo. importante conferir as suas contas sempre!
6

Jones Colombo e Jos Koiller (texto em preparao)

1.3. Operaes-linha e equivalncia de sistemas

1.3

Operaes-linha e equivalncia de sistemas

Observe que, no exemplo da seo anterior, usamos apenas dois truques para
progressivamente simplificar o sistema (1.300 ). Na passagem de (1.300 ) para (1.4),
substitumos uma linha da matriz completa (a terceira) pela soma dela mesma a
um mltiplo de outra linha (a primeira). Na passagem de (1.4) a (1.5), multiplicamos uma linha da matriz completa (a segunda) por uma constante. Usamos o
primeiro truque, nova e repetidamente, no trajeto de (1.5) at (1.7).
Os truques bsicos que usaremos no processo de escalonamento, de fato, so
trs, conforme a definio a seguir.
Definio 1.1
As operaes abaixo so chamadas de operaes elementares sobre as linhas
de uma matriz, ou, simplesmente, de operaes-linha.
1. Substituio: substituir uma linha pela soma dela prpria com um mltiplo
de outra linha.
2. Reescalonamento ou reescalamento: multiplicar todos os elementos de uma
linha por uma constante diferente de zero.
3. Permutao: permutar (ou seja, trocar, intercambiar) duas linhas entre si.
Cuidado!
As operaes-linha so, como diz o nome, operaes sobre as linhas de uma
matriz. Quando estamos procurando o conjunto-soluo de um sistema, no faz
sentido operar sobre as colunas da matriz completa associada. Se o fizermos,
chegaremos a um resultado incorreto. (A no ser que tenhamos muita sorte. . . )
conveniente usar a seguinte notao para indicar operaes-linha:
`i `i + `j
`i `i
`i `j

Indica a substituio da i-sima linha de uma matriz pela soma


dela prpria com vezes a j-sima linha, onde j 6= i.

Indica o reescalonamento da i-sima linha de uma matriz pelo


fator . Lembre que 6= 0.
Indica a permutao das linhas i e j de uma matriz.

Com essa notao, no precisamos escrever coisas do tipo: vamos permutar a


segunda e a quinta linha. Podemos, simplesmente, indicar `2 `5 . Enfatizamos
que, na operao de reescalonamento, o fator no pode ser zero, isto , `i 0`i
no uma operao-linha vlida (a justificativa ser dada na demonstrao da
proposio 1.2, logo adiante).
Para exemplificar o uso da notao acima, vamos reescrever dois passos do
escalonamento da seo anterior, comeando em (1.4):

1 4
1
0
1 4
1
0
1 4
1
0 ` 1`
2
`3 `3 2`2
3 2
0
1 2 1
1 2 1
3 6 3
0
0
0
2 3
2
0
0
1
4
0
2 3
2
(1.8)
Jones Colombo e Jos Koiller (texto em preparao)

Captulo 1. Sistemas Lineares e Escalonamento de Matrizes

Proposio 1.2
As operaes elementares sobre as linhas so reversveis, isto , para cada operao-linha, existe uma operao-linha reversa que a desfaz.
Demonstrao: A operao `i `i + `j desfeita pela operao `i `i `j
(verifique!). A operao `i `i revertida por `i 1 `i . (Foi por isso,
a propsito, que exigimos a condio 6= 0 na operao de reescalonamento.
Do contrrio, no seria possvel revert-la!) Finalmente, a operao `i `j
revertida aplicando-se, novamente, ela prpria. Note que trocar `i por `j e, em
seguida, `j por `i o mesmo que no fazer coisa alguma.
Uma sequncia de operaes-linha tambm pode ser revertida, operao por
operao. A sequncia das duas operaes em (1.8), por exemplo, revertida por
meio da operao `3 `3 + 2`2 seguida de `2 3`2 . Verifique isto, observando
que necessrio atentar para a ordem em que as operaes so realizadas.
Definio 1.3
Dizemos que duas matrizes so equivalentes por operaes sobre as linhas,
ou simplesmente linha-equivalentes, se existe uma sequncia de operaes-linha
que leva uma matriz outra.
Em vista da proposio 1.2, dizer que uma matriz A linha-equivalente a uma
matriz B o mesmo que dizer que B linha-equivalente a A. As trs matrizes
que aparecem em (1.8), por exemplo, so todas linha-equivalentes.
O teorema a seguir importante porque d embasamento estratgia de
simplificar um sistema aplicando operaes-linha em sua matriz completa. Temos
a garantia de que a verso simplificada do sistema ter o mesmo conjunto-soluo
que o sistema original.
Teorema 1.4
Se dois sistemas lineares tm matrizes completas que so linha-equivalentes, ento
os dois sistemas so equivalentes, isto , tm o mesmo conjunto-soluo.
A prova do teorema dada abaixo. O aluno sem interesse em argumentos
matemticos pode passar diretamente seo 1.4.
Demonstrao: Suponha que A e B sejam matrizes associadas a sistemas lineares vamos cham-los de sistema (A) e sistema (B) e que a matriz B seja
obtida de A via uma operao-linha qualquer. Afirmamos que os sistemas (A)
e (B) tm o mesmo conjunto-soluo, isto , qualquer soluo do sistema (A)
tambm uma soluo do sistema (B), e vice-versa.
`i `i +`j

De fato, suponha que A B. Se a lista s = (s1 , s2 , . . . , sn ) uma soluo do sistema (A), ento s satisfaz a todas as equaes deste sistema, em particular a i-sima e a j-sima. Estas equaes esto associadas, respectivamente,
s linhas `i e `j da matriz A. Portanto, s tambm satisfaz a equao associada a
`i + `j , isto , a lista s satisfaz a i-sima equao do sistema (B). (Verifique esse
passo do argumento! Considere exemplos, se preferir.) Todas as outras equaes
8

Jones Colombo e Jos Koiller (texto em preparao)

1.4. Formas escalonadas

do sistema (B) so idnticas s equaes correspondentes de (A), pois s mexemos na i-sima equao. Portanto, s tambm satisfaz essas outras equaes.
Logo, a lista s uma soluo do sistema (B). A parte do vice-versa agora
`i `i +`j

fcil. Basta usar a reversibilidade das operaes-linha: como A B,


`i `i `j

vale tambm que B A. Portanto, podemos repetir o argumento acima


para mostrar que qualquer soluo do sistema (B) tambm uma soluo de (A).
Verifique que o argumento deste pargrafo pode ser adaptado s operaes de
reescalamento e de permutao.
Para terminar a prova do teorema, recordemos a seguinte definio: duas
matrizes so linha-equivalentes se existe uma sequncia de operaes-linha que
leva uma outra. Aplicando, sucessivamente, o argumento acima em cada um dos
passos da sequncia, obtemos o resultado desejado. Todas as matrizes envolvidas,
da primeira ltima, representam sistemas com o mesmo conjunto-soluo.

1.4

Formas escalonadas

Considere o sistema linear abaixo, apresentado com sua matriz completa:

x1 5x2 + 2x3 4x4 = 0


3x3 + x4 = 9

2x4 = 6

1 5
2 4 0
0
0 3
1 9
0
0
0
2 6

(1.9)

fcil encontrar o conjunto-soluo desse sistema. A ltima equao implica,


imediatamente, que x4 = 3. A segunda equao, portanto, se reduz a
3x3 + 3 = 9

ou a

3x3 = 6

ou, ainda, a

x3 = 2.

Agora, podemos colocar x3 = 2 e x4 = 3 na primeira equao, obtendo


x1 5x2 + 2 (2) 4 3 = 0

ou

x1 = 16 + 5x2 .

O conjunto-soluo do sistema (1.9), portanto, descrito por

x1

x
2

x3

x4

= 16 + 5x2 ,
uma varivel livre (veja o comentrio abaixo),
= 2,
= 3.

(1.10)

A soluo do sistema no nica, isto , o conjunto-soluo tem mais do que um


elemento. De fato, podemos arbitrar (chutar) qualquer valor para a varivel
livre x2 . Para cada valor arbitrado, obtemos uma soluo diferente. Portanto, h
uma infinidade de solues. Nas sees 1.7 e 1.8, este assunto ser aprofundado.
O significado de varivel livre ser dado mais precisamente na subseo 1.7.1.
Jones Colombo e Jos Koiller (texto em preparao)

Captulo 1. Sistemas Lineares e Escalonamento de Matrizes

Ao invs de resolver o sistema (1.9) usando substituies, como fizemos acima,


poderamos ter utilizado operaes-linha para simplific-lo ainda mais:

1 5
2 4 0
1 5
2 4 0 ` 1 `
3
`1 `1 +4`3
2 3
0
0 3
1 9
0 3
1 9
0

`2 `2 `3
0
0
0
2 6
0
0
0
1 3

1 5
2 0 12 ` 1 `
1 5 2 0 12
2
`1 `1 2`2
3 2
0 3 0 6
0 1 0 2
0

0
0
0
0 1 3
0
0 0 1
3

1 5 0 0 16
0 1 0 2 (1.11)
0
3
0
0 0 1
A ltima matriz obtida acima representa um sistema to simples que, assim
como no caso do sistema (1.7), podemos ler a descrio (1.10) de seu conjuntosoluo.3
Podemos formular, agora, a pergunta-chave desta seo. Os sistemas associados s matrizes que aparecem em (1.7), (1.9) e (1.11) so muito simples de
resolver. Nesse sentido, qual a particularidade dessas matrizes?
A resposta est na definio abaixo. Antes de apresent-la, precisamos de
alguns termos auxiliares. Dizemos que uma linha, ou uma coluna, de uma matriz
no-nula se ela contm, ao menos, um elemento diferente de zero. O elemento
lder de uma linha o primeiro elemento diferente de zero desta linha, olhando
da esquerda para a direita. Uma linha s de zeros no tem elemento lder.
Definio 1.5
Dizemos que uma matriz est em forma escalonada, ou, simplesmente, que
uma matriz escalonada, se ela tem as duas propriedades abaixo:
1. As linhas no-nulas esto todas acima de qualquer linha s de zeros. Ou
seja, se h linhas s de zeros, elas esto todas agrupadas na parte de baixo
da matriz.
2. O elemento lder de cada linha no-nula est numa coluna direita do
elemento lder da linha acima.
Dizemos que uma matriz est na forma escalonada reduzida, ou que uma
matriz escalonada reduzida, se ela tem as propriedades seguintes, alm das
anteriores:
3. O elemento lder de cada linha no-nula igual a 1.
4. Cada elemento lder o nico elemento diferente de zero da sua coluna.
3

Mas essa leitura requer um pouco de prtica! Recomendamos que o leitor invista um ou
dois minutos de ateno, agora, para perceber como se pode obter (1.10) a partir de (1.11).

10

Jones Colombo e Jos Koiller (texto em preparao)

1.4. Formas escalonadas

A propriedade 2 diz que os elementos lderes formam uma escada que desce da
esquerda para a direita na matriz por isso que usamos o adjetivo escalonado,
que significa ter forma de escada. Uma consequncia simples dessa propriedade
que, em uma matriz escalonada, todos os elementos que esto abaixo de um
elemento lder so zeros.
A matriz completa do sistema (1.9), por exemplo, est em forma escalonada,
mas no est na forma escalonada reduzida:

1 5
2 4 0

0 3
1 9
0
0
0
0
2 6

Hachuramos cada linha a partir dos elementos lderes, em destaque, a fim de


realar a forma de escada da matriz. Observe que a matriz acima, de fato, tem
a propriedade 2: O elemento lder 2 da linha 3 est numa coluna direita do
elemento lder 3 da linha anterior. Este 3 , por sua vez, tambm est numa
coluna direita do elemento lder 1 da linha acima (no necessrio que ele
esteja na coluna imediatamente direita). Como no h linhas s de zeros, no
h o que verificar quanto propriedade 1.
A ltima matriz que obtivemos em (1.11), por sua vez, no s est em forma
escalonada, como tambm est na forma reduzida:

1 5 0 0 16

0 1 0 2
0
0
0 0 1
3

Observe que os elementos lderes, novamente em destaque, so todos iguais a um,


e so as nicas entradas no-nulas em suas respectivas colunas. A matriz acima,
portanto, tem tambm as propriedades 3 e 4.
Agora, vejamos exemplos de matrizes que no estejam em forma escalonada:

1 3
1 5 0

0
0
0 0
0

0
9 8
1 4
0
0
0
3 6

1 3
1 5 0

5 2
0 7
0

0
9 8
1 4
0
0
0
3 6

A primeira matriz acima no uma matriz escalonada, j que viola a propriedade 1: h uma linha s de zeros no meio da matriz, ou seja, h uma linha
no-nula abaixo de uma linha de zeros. A segunda matriz no est em forma
escalonada, j que viola a propriedade 2: o elemento lder 9 da terceira linha
no est em uma coluna direita do elemento lder 5 da linha acima. Esta
segunda matriz, apesar de aparentar uma forma de escada, tem um degrau
grande demais na segunda coluna.
Jones Colombo e Jos Koiller (texto em preparao)

11

Captulo 1. Sistemas Lineares e Escalonamento de Matrizes

A seguinte notao ser


das:


0 0

0
0
0
0 0

0 0 0 0 0

til para indicar formas gerais

0 0

0
0
0
0 0 0

0 0

0 0 0 0 0 0
0 0
0 0 0 0 0 0

de matrizes escalona

0 0
0 0 0

As entradas so os elementos lderes, que podem ter qualquer valor diferente de


zero. As entradas indicadas por podem ter qualquer valor (zero ou no). Ambas
as matrizes genricas acima tm as propriedades 1 e 2 (verifique!), portanto so,
de fato, escalonadas.
As matrizes a seguir so formas gerais de matrizes escalonadas reduzidas:

0 1 0 0 0
1 0

0 0 1 0 0

0 0 1

(1.12)

0 0 0 0 0 0 1 0

0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 1
0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
Verifique que estas matrizes tm as quatro propriedades da definio 1.5.
Se B for uma matriz escalonada linha-equivalente a A, diremos que B uma
forma escalonada da matriz A. Se B estiver na forma escalonada reduzida,
diremos que B a forma escalonada reduzida da matriz A. O processo
que leva uma matriz, por operaes-linha, at uma de suas formas escalonadas
chamado de escalonamento, como j mencionamos.
Em geral, uma matriz tem muitas formas escalonadas. Todas as matrizes que
aparecem em (1.11) so formas escalonadas distintas de uma mesma matriz, por
exemplo. No entanto, cada matriz tem apenas uma forma escalonada reduzida,
isto , cada matriz linha-equivalente a uma nica matriz escalonada reduzida.
por isso que usamos as expresses uma forma escalonada e a forma escalonada
reduzida de uma matriz.
Um sistema representado por uma matriz escalonada simples de analisar e
de resolver, especialmente se a matriz for escalonada reduzida, como voc poder
observar em vrios exemplos e exerccios a comear pelos sistemas (1.7) e (1.9).
A definio 1.5 responde, portanto, pergunta-chave da seo. Os conceitos e
a terminologia que introduzimos aqui, no entanto, aplicam-se a qualquer matriz,
e no apenas a matrizes completas associadas a sistemas lineares.
Observao
comum dizermos coisas como a matriz est em forma escalonada e B uma
forma escalonada de A. Apesar de consagrada, esta terminologia pode induzir
a um erro conceitual, que queremos prevenir aqui. Parece-nos mais correto dizer
a matriz escalonada ou a matriz tem forma de escada que dizer a matriz
est escalonada, visto que o verbo estar sugere uma transitoriedade que
falsa. O fato que uma matriz A ou escalonada ou no . Se A no for uma
12

Jones Colombo e Jos Koiller (texto em preparao)

1.5. O algoritmo de escalonamento

matriz escalonada, ela no poder tornar-se escalonada nunca. O processo de


escalonamento produz outra matriz B, que escalonada e linha-equivalente a A.
Mas o processo no faz com que a prpria matriz A vire escalonada.

1.5

O algoritmo de escalonamento

Comeamos a seo com uma breve anedota (no muito boa, admitimos).
Uma turista carioca chega estao das barcas em Niteri e pergunta a um
transeunte como se chega ao Teatro Municipal. Infelizmente, esse transeunte
professor do Instituto de Matemtica da uff, e sua resposta absolutamente
correta, porm absolutamente intil: Ah, fcil! Voc chega l movendo, alternadamente, suas pernas direita e esquerda.
A desventurada turista sabe aonde quer chegar (ao Teatro Municipal de Niteri), sabe quais so os passos admissveis para chegar l (so, literalmente, passos,
ou, nas palavras do matemtico, movimentos alternados das pernas), mas no
faz ideia da direo dos passos a tomar.
Encontramo-nos em uma situao curiosa, anloga da turista. Dada uma
matriz qualquer, sabemos aonde queremos chegar (a uma forma escalonada linhaequivalente) e sabemos quais so os passos admissveis a tomar (so as operaes
elementares sobre as linhas). Mas ainda no discutimos o trajeto para se chegar
l. Quais so, exatamente, as operaes-linha que devemos aplicar, e em que
ordem devemos aplic-las?
Nesta seo, abordaremos o algoritmo de escalonamento, que responde questo acima. Um algoritmo um procedimento (ou uma receita) para resolver
um determinado problema matemtico ou computacional, e que, usualmente,
descrito passo a passo. Frequentemente, o mesmo passo tem que ser aplicado
diversas vezes em diferentes etapas do processo, e o algoritmo de escalonamento
no exceo.
Antes de comearmos, precisamos explicar o significado de dois termos que
sero empregados. Quando usamos um elemento de uma matriz para zerar as
entradas que esto abaixo ou acima, dizemos que esse elemento o piv das
operaes-linha envolvidas. Uma coluna que contm um piv chamada de
coluna-piv. Este ltimo conceito ser definido mais precisamente na seo 1.6.

1.5.1

Obteno de uma forma escalonada

Os passos do algoritmo de escalonamento so dados a seguir. Cada um


ilustrado por meio do seguinte exemplo: achar uma forma escalonada da matriz

0 3 6
4
9
1 2 1
3
1
.
A=
(1.13)
2 3
0
3 1
1
4
5 9 7
Passo 1: Olhando a matriz da esquerda para a direita, procure a primeira coluna
no-nula. Esta ser a coluna-piv do prximo passo.
Jones Colombo e Jos Koiller (texto em preparao)

13

Captulo 1. Sistemas Lineares e Escalonamento de Matrizes

A coluna 1 da matriz A no-nula (no s de zeros), ento esta ser nossa


primeira coluna-piv.
Passo 2: Escolha qualquer elemento no-nulo da coluna-piv para servir de piv.
Voc pode escolher um que torne fceis as contas que esto por vir. Com prtica,
voc ser capaz de antever as contas e aplicar este critrio.
Na primeira coluna de A, que a coluna-piv no momento, podemos escolher
o 1 que est na ltima linha para ser o piv. Vamos destac-lo na matriz:

0 3 6
4
9
1 2 1
3
1

2 3
0
3 1
1
4
5 9 7
A escolha deste piv conveniente. Se tivssemos escolhido o 2 na terceira
linha, por exemplo, os clculos adiante envolveriam fraes.
Passo 3: Se for necessrio, passe o piv para a primeira linha disponvel, usando
uma operao de permutao (`i `j ).
Nosso piv est na quarta linha da matriz,
linhas 1 e 4:

1
0 3 6
4
9
`1 `4 1
1 2 1
3
1

2
2 3
0
3 1
4
5 9 7
0
1

portanto temos que trocar as

4
5 9 7
2 1
3
1

3
0
3 1
3 6
4
9

Se o piv j estivesse na linha 1, a troca seria desnecessria aqui.


Passo 4: Opcionalmente, use operaes de reescalonamento (`i `i ) sobre
quaisquer linhas que voc queira, para facilitar as contas do prximo passo. Mas
lembre-se de que 6= 0!
O passo 4 desnecessrio neste estgio do nosso exemplo.
Passo 5: Use operaes de substituio (`i `i + `j ) para zerar todos os
elementos da coluna-piv que esto abaixo do piv.
Em nosso
vamente:

1
1

2
0

exemplo, temos que zerar o 1 e o 2 nas linhas 2 e 3, respecti

4
5 9 7

2 1
3
1
2 `2 +`1
`

3
0
3 1 `3 `3 +2`1
3 6
4
9

1
4
5 9 7
0
2
4 6 6

0
5 10 15 15
0 3 6
4
9

O trabalho com o primeiro piv terminou. A ideia, agora, repetir todos os


passos acima, mas olhando apenas para a parte da matriz que est abaixo da
linha do piv. Formalizamos isto no passo seguinte.
14

Jones Colombo e Jos Koiller (texto em preparao)

1.5. O algoritmo de escalonamento

Passo 6: Ignore (cubra com a mo, se quiser) a linha que contm o piv, e
todas as linhas acima dela (se houver alguma). Aplique os passos de 1 a 5 sobre
a submatriz restante. Continue repetindo este procedimento todo at chegar a
uma forma escalonada, ou seja, at que no haja linhas restantes, ou que estas
sejam todas linhas de zeros.
Em nosso exemplo, temos que cobrir, por enquanto, apenas a linha 1, que
contm o piv (no h outras linhas acima dela). Abaixo, as linhas cobertas
(ou ignoradas) sero impressas em tom mais claro:

4
5 9 7
1
0
2
4 6 6

0
5 10 15 15
0 3 6
4
9
Agora, voltamos ao passo 1: procurar a primeira coluna no-nula na submatriz
indicada acima (esta ser a prxima coluna-piv). Cuidado: A primeira coluna
no-nula a coluna 2! O nico elemento no-nulo da coluna 1 o 1 , o piv
anterior. Mas esse elemento est em uma linha ignorada. Ento, a coluna-piv
da vez a coluna 2:

4
5 9 7
1
0
2
4 6 6

0
5 10 15 15
4
9
0 3 6
Passo 2: Escolher um elemento no-nulo na coluna-piv. Podemos escolher
qualquer entrada na segunda coluna, exceto o 4 da primeira linha, pois esta
uma linha ignorada. Escolhemos o 2, que destacamos abaixo, para ser piv:

1
4
5 9 7
0
2
4 6 6

0
5 10 15 15
0 3 6
4
9
Passo 3: Se necessrio, passar o piv (por troca de linhas) para a primeira
linha disponvel. Neste caso, isso no ser necessrio, pois o piv j est na
primeira linha disponvel. Como a linha 1 ignorada, ela no est disponvel.
Passo 4: Usar operaes de reescalonamento, opcionalmente, para facilitar
as contas posteriores. Em nosso exemplo, conveniente dividir a segunda linha
por 2 e a terceira linha por 5:

4
5 9 7
1
0
`2 21 `2
2
4 6 6


0
5 10 15 15 `3 15 `3
0 3 6
4
9
Jones Colombo e Jos Koiller (texto em preparao)

1
4
5 9 7
0
1
2 3 3

0
1
2 3 3
0 3 6
4
9
15

Captulo 1. Sistemas Lineares e Escalonamento de Matrizes

Passo 5: Zerar os elementos abaixo do piv:

1
1
4
5 9 7
0
`3 `3 `2 0
2
3
3
1


0
1
2 3 3 `4 `4 +3`2 0
0 3 6
4
9
0

4
1
0
0

5 9 7
2 3 3

0
0
0
0 5
0

Chegamos, finalmente, ao passo 6: Cobrir a linha que contm o piv e as


linhas acima dela, e aplicar o processo todo, novamente, submatriz restante.
Em nosso exemplo, temos que cobrir a linha 2, que contm o piv da vez. A
linha 1, que est acima dela, permanece coberta tambm:

1 4 5 9 7
0 1 2 3 3

0 0 0
0
0
0 0 0 5
0
Agora, retornamos novamente ao passo 1! As trs primeiras colunas so s de
zeros, ento a nova coluna-piv ser a quarta:

1 4 5 9 7
0 1 2 3 3

0 0 0
0
0
0 0 0 5
0
Passos 2 e 3: O novo piv , necessariamente, o 5 na coluna destacada acima
(um elemento zero nunca pode ser piv). Temos, ento, que passar o piv para a
primeira linha disponvel, que a linha 3 (as linhas 1 e 2 esto indisponveis):

1
0

0
0

4
1
0
0

5 9 7
2 3 3
`3 `4

0
0
0
0 5
0

1
0
0
0

4
1
0
0

5 9 7
2 3 3

0 5
0
0
0
0

O processo terminou, porque chegamos a uma matriz escalonada. De fato, o


passo 4 opcional, e o passo 5 desnecessrio, pois j temos um zero no nico
elemento abaixo do piv 5 . Ao aplicar o passo 6, cobrimos a terceira linha (a
do piv). O que sobra uma linha s de zeros. Dessa forma, obtivemos a matriz
escalonada

1 4 5 9 7

0 1 2 3 3


, cuja forma geral 0
.
C=
(1.14)
0 0 0 5
0 0 0
0

0 0 0
0
0
0 0 0 0 0
Perceba que os pivs tornam-se os elementos lderes na forma escalonada. Deixamos os pivs em destaque, pois eles sero usados, novamente, abaixo.
16

Jones Colombo e Jos Koiller (texto em preparao)

1.5. O algoritmo de escalonamento

1.5.2

Obteno da forma escalonada reduzida

A matriz C, que obtivemos acima, linha-equivalente matriz A de (1.13).


Ela est em forma escalonada, mas no est na forma escalonada reduzida. Veremos, adiante, que podemos extrair muita informao sobre uma matriz analisando qualquer uma de suas formas escalonadas (nem sempre necessrio chegar
forma reduzida).
s vezes, no entanto, necessrio obter a forma reduzida. fcil, por exemplo, ler o conjunto-soluo de um sistema linear a partir da forma escalonada
reduzida de sua matriz completa (como vimos na seo 1.4). Mas no to fcil
fazer essa leitura a partir de uma forma escalonada qualquer.
Para obter a forma escalonada reduzida de uma matriz, primeiro, encontramos
uma forma escalonada qualquer (para isso, aplicamos os passos descritos acima).
Em seguida, aplicamos o seguinte passo adicional:
Passo 7: Use operaes de substituio (`i `i + `j ) para zerar todos os
elementos acima de cada piv. Recomendamos que voc comece com o piv mais
direita da matriz, e prossiga, de piv em piv, da direita para a esquerda.
Proceder nesta ordem reduz a quantidade total de clculos. Para cada piv que
for diferente de 1, use uma operao de reescalonamento em sua linha para que
ele se torne 1.
Se desejar, use operaes de reescalonamento de linhas (`i `i ), antes das
operaes de substituio, para facilitar as contas. Mas lembre-se de reescalonar
as linhas no final para que todos os pivs fiquem iguais a 1.
Vamos aplicar o passo 7 matriz escalonada C que obtivemos em (1.14).
Comeamos com o piv mais direita, como sugerido, que o 5 da quarta
coluna. Para facilitar as contas, vamos reescalonar a linha do piv para que ele
se torne 1 (de toda a forma, seria necessrio fazer isso mais adiante):

1 4 5 9 7
1 4 5 9 7
0 1 2 3 3 `3 15 `3 0 1 2 3 3

0 0 0 5
0 0 0
0
1
0
0 0 0
0
0
0 0 0
0
0
Agora, vamos zerar as entradas acima do piv da vez. Indicamos o piv da
vez pela caixa preta. Os outros pivs tem caixa mais clara.

1 4 5 0 7
1 4 5 9 7
0 1 2 3 3 `1 `1 +9`3 0 1 2 0 3

0 0 0
1
0 `2 `2 +3`3 0 0 0 1
0
0 0 0
0
0
0 0 0 0
0
O prximo piv, indo da direita para a esquerda, o 1 na segunda coluna.
Zeramos a entrada acima dele:

1 4 5 0 7
1 0 3 0
5
0 1 2 0 3 `1 `1 4`2 0 1
2 0 3

0 0 0 1

0
0 0
0 1
0
0 0 0 0
0
0 0
0 0
0
Jones Colombo e Jos Koiller (texto em preparao)

17

Captulo 1. Sistemas Lineares e Escalonamento de Matrizes

Se tivssemos comeado com este piv, neste passo teramos que fazer contas na
quarta coluna. por isso que melhor seguir da direita para a esquerda.
O prximo piv, esquerda, o 1 da primeira coluna. Mas no h elementos
acima dele para zerar! Como todos os pivs j so iguais a 1, j obtivemos a forma
escalonada reduzida da matriz A de (1.13):

1 0 3 0
5
0 1
2 0 3

B=
(1.15)
0 0
0 1
0
0 0
0 0
0

1.6

Posies e colunas-piv

Compare a matriz C de (1.14) com a B de (1.15), e note que as posies


dos elementos lderes de cada linha no mudaram. No difcil perceber que as
posies dos lderes nunca mudam quando passamos por operaes-linha de uma
forma escalonada qualquer para a forma escalonada reduzida. Como mencionamos antes, cada matriz tem uma nica forma escalonada reduzida.
Dessa discusso, segue o seguinte fato fundamental: As posies dos elementos
lderes so sempre as mesmas em qualquer uma das formas escalonadas de uma
dada matriz. Essas posies so chamadas de posies-piv da matriz, pois os
elementos nessas posies so usados como pivs no processo de escalonamento.
Uma coluna que contm uma posio-piv em uma matriz chamada de
coluna-piv, como voc deve ter observado na seo anterior. As demais colunas
so chamadas de colunas no-piv.
Exemplo 1.6
Localize as posies-piv da matriz A de (1.13) (pgina 13). Quais so as colunaspiv de A? Quais so as colunas no-piv?
Soluo: Temos que determinar as posies dos elementos lderes em uma forma
escalonada (qualquer) de A. Na seo 1.5.1, j encontramos uma forma escalonada de A, a saber, a matriz C de (1.14), que repetimos abaixo:


1 4 5 9 7

0 1 2 3 3

, cuja forma geral 0
.
C=

0 0 0 5
0
0 0 0

0 0 0
0
0
0 0 0 0 0
Os elementos lderes de C esto destacados, e suas posies so aquelas assinaladas por na forma geral. Estas so as posies-piv de A, destacadas
novamente abaixo, na prpria matriz A. As colunas-piv de A so, portanto, a
primeira, a segunda, e a quarta (hachuradas abaixo); a terceira e a quinta so
colunas no-piv.

0 3 6
4
9
1 2 1
3
1

A=
2 3
0
3 1
1
4
5 9 7
18

Jones Colombo e Jos Koiller (texto em preparao)

1.7. Resoluo de sistemas lineares

importante entender que os conceitos de posio-piv e coluna-piv so


definidos para qualquer matriz, e no apenas para matrizes em forma escalonada.
Apesar de no ser uma matriz escalonada, a matriz A do exemplo acima tem
posies-piv bem definidas s que foi necessrio escalonar para desvendlas. As posies-piv de uma matriz escalonada, por outro lado, so evidentes:
so as posies dos elementos lderes.
Observe, tambm, que no necessrio obter a forma escalonada reduzida
de uma matriz para determinar suas posies-piv: basta encontrar uma forma
escalonada qualquer. No exemplo acima, usamos a matriz escalonada C, que no
reduzida, para localizar as posies-piv de A.
As posies e colunas-piv tm papel central na anlise de diversas questes
de lgebra linear, como veremos nas sees a seguir e nos prximos captulos.

1.7

Resoluo de sistemas lineares

Nesta seo, vamos voltar ao tema que motivou todo este captulo: a resoluo
de sistemas lineares. Resolver um sistema significa obter uma descrio de seu
conjunto-soluo, ou determinar que o sistema no tem soluo alguma. Vamos
comear com dois exemplos que vo nos auxiliar na abordagem de novos conceitos
e que servem, tambm, para recapitular os j estudados.
Exemplo 1.7
Vamos resolver o seguinte sistema:

x1 + 2x2 + 2x3 x4 = 17
x1 2x2 + x3 8x4 = 4

2x1 + 4x2 + x3 + 7x4 = 13

(1.16)

Atacamos este problema usando o mtodo de escalonamento desenvolvido neste


captulo. Incialmente, escrevemos a matriz completa associada ao sistema:

1
2 2 1 17
G = 1 2 1 8 4 .
2
4 1
7 13
Vamos, agora, escalonar a matriz completa G:

1
2 2 1 17
1 2
2 1
17
2 `2 +`1
1 2 1 8 4 `
3 9
21
0 0
`3 `3 2`1
2
4 1
7 13
0 0 3
9 21

1 2 2 1 17
` `3 +`2
3
0 0 3 9 21
0 0 0
0 0

Jones Colombo e Jos Koiller (texto em preparao)

19

Captulo 1. Sistemas Lineares e Escalonamento de Matrizes

Passamos forma escalonada reduzida:

1 2 2 1 17 ` 1 `
1 2 2 1 17
2
3 2
0 0 3 9 21

0 0 1 3 7
0 0 0
0 0
0 0 0
0 0

5 3
1 2 0
`1 `1 2`2

H = 0 0 1 3 7
0 0 0
0 0

Esta ltima matriz, que chamamos de H, representa o sistema

+ 5x4 = 3
x1 + 2x2
x3 3x4 = 7

0 = 0.

(1.17)

Por ser toda de zeros, a ltima linha de H representa a equao 0 = 0, que


podemos descartar sem perder informao alguma.
Como as matrizes G e H so linha-equivalentes (H foi obtida de G por
operaes-linha), o sistema (1.16) equivalente ao sistema (1.17), isto , esses dois sistemas tm o mesmo conjunto-soluo. Usamos, aqui, o teorema 1.4
da pgina 8.
Nosso problema se reduziu, portanto, a achar o conjunto-soluo de (1.17).
Mas este sistema muito simples, visto que a matriz H que o representa est na
forma escalonada reduzida.
Observe que as variveis x1 e x3 correspondem a colunas-piv da matriz H,
ou da matriz G, enquanto x2 e x4 correspondem a colunas no-piv. fcil
constatar estes fatos simplesmente olhando para a matriz H. usual, neste caso,
estabelecer x1 e x3 como variveis bsicas (ou dependentes); e x2 e x4 , como
variveis livres.4 Escrevendo as variveis dependentes x1 e x3 , em termos das
variveis livres x2 e x4 , obtemos

x1

x
2

x3

x4

= 3 2x2 5x4 ,
uma varivel livre,
= 7 + 3x4 ,
uma varivel livre.

(1.18)

Com um pouco de prtica, fica fcil ler (1.18) diretamente da matriz H, sem a
necessidade de escrever o sistema (1.17).
Conclumos que (1.18) descreve o conjunto-soluo do sistema (1.16). Esse
sistema tem uma infinidade de solues: uma para cada par de valores arbitrado
para as variveis livres x2 e x3 . J havamos nos deparado com um caso semelhante: reveja o sistema (1.9), na pgina 9, e seu conjunto-soluo descrito
em (1.10).
4

20

Esses conceitos sero esclarecidos na subseo a seguir.

Jones Colombo e Jos Koiller (texto em preparao)

1.7. Resoluo de sistemas lineares

Exemplo 1.8
Consideramos o sistema:

x2 2x3 = 3
2x1 + 3x2 x3 = 1

6x1 + 7x2 + x3 = 11

(1.19)

Para resolver este sistema, seguindo a estratgia anterior, escalonamos a matriz


completa associada:

2 3 1
1
0 1 2 3
`1 `2
2 3 1
1
0 1 2 3
6 7
1 11
6 7
1 11

2
3 1
1
5
2 3 1
`3 `3 3`1
`3 `3 +2`2
1 2 3

0
0 1 2 3
8
2
0 2
4
0 0
0

Obtivemos uma forma escalonada, e, neste caso, no necessrio chegar forma


escalonada reduzida. Observe que a terceira linha da matriz escalonada representa
a equao 0 = 2 (0x1 + 0x2 + 0x3 = 2). Esta equao jamais poder ser satisfeita,
no interessa quais sejam os valores de x1 , x2 e x3 . Portanto, o sistema (1.19)
impossvel, isto , no tem soluo. Em outras palavras, o seu conjunto-soluo
vazio.
Resolvemos, portanto, os sistemas (1.16) e (1.19). No exemplo 1.7, obtivemos
uma descrio do conjunto-soluo do primeiro, e, no exemplo 1.8, conclumos
que o segundo sistema no tem soluo alguma.
Vamos, a seguir, estudar mais cuidadosamente descries tais como (1.18),
formalizando os conceitos de variveis bsicas e livres. Na subseo 1.7.2,
abordaremos a questo fundamental de determinar se um dado sistema tem ou
no soluo. Por ora, chamamos a ateno do leitor para a equao problemtica 0 = 2, que encontramos no exemplo acima. Ela tpica de um sistema
impossvel. Aprofundaremos esta questo na seo 1.8.

1.7.1

Descries paramtricas de conjuntos-soluo, variveis bsicas e livres

Descries do tipo (1.18) ou (1.10), na pgina 9, em que variveis bsicas


so dadas em termos de variveis livres, so chamadas de descries paramtricas de conjuntos-soluo, pois as variveis livres tambm podem ser chamadas
de parmetros livres.
Reveja a passagem de (1.17) para (1.18) no exemplo 1.7. Poderamos reformular (1.18) escolhendo, por exemplo, x1 e x3 como variveis livres, e escrevendo
x2 e x4 em termos delas.5 Poderamos, tambm, escolher x1 e x4 como variveis
5

Isso iria requerer mais algumas contas simples.

Jones Colombo e Jos Koiller (texto em preparao)

21

Captulo 1. Sistemas Lineares e Escalonamento de Matrizes

livres, e escrever x2 e x3 em termos delas. No entanto, x3 e x4 nunca poderiam ser


simultaneamente livres, pois uma est amarrada outra pela relao x3 3x4 = 7.
H uma certa liberdade de escolha, portanto, ao classificarmos variveis como
dependentes ou livres. A escolha que adotamos, por conveno, que as variveis
bsicas, ou dependentes, sejam aquelas que correspondam s colunas-piv da
matriz de coeficientes de um dado sistema, e as demais sejam as variveis livres.
Lembre que necessrio escalonar uma matriz para que se possa desvendar
quais so as colunas-piv!
Vejamos, novamente, o exemplo 1.7. As colunas-piv da matriz completa G
so a primeira e a terceira, como fica claro ao examinar a matriz H, que uma
forma escalonada de G. Estabelecemos, portanto, que as variveis x1 e x3 so
bsicas. As variveis x2 e x4 correspondem segunda e quarta coluna de G,
respectivamente, que so colunas no-piv. Estas variveis, portanto, so livres.
A quinta coluna de G no-piv, mas no corresponde a uma varivel livre.
De fato, a ltima coluna de G no corresponde a varivel alguma: esta a coluna
associada aos termos independentes do sistema (1.16) (ver seo 1.2).
A classificao de variveis em bsicas ou livres s tem sentido no caso de sistemas possveis. Portanto, no faz sentido classificar as variveis do sistema (1.19).
Isso porque o conjunto-soluo de um sistema impossvel vazio, portanto, no
tem descrio paramtrica.
Vamos examinar mais dois exemplos para fixar essas ideias.
Exemplo 1.9
Classifique cada varivel do sistema abaixo como bsica ou livre, e obtenha uma
descrio paramtrica de seu conjunto-soluo.

3x2 6x3 + 4x4 = 9

x1 2x2 x3 + 3x4 = 1
(1.20)
2x
+ 3x4 = 1

1 3x2

x1 + 4x2 + 5x3 9x4 = 7


Soluo: Usando a mesma estratgia do exemplo 1.7, comeamos escalonando a
matriz completa associada ao sistema. Observe que a matriz completa de (1.20)
exatamente a matriz A de (1.13), na pgina 13. J aplicamos o algoritmo de
escalonamento a A na seo 1.5, e obtivemos a matriz B, dada em (1.15):

1 0 3 0
0 3 6
4
9
5
1 2 1
0 1
2 0 3
3
1

escalonamento
B =
A=
2 3

0 0
0 1
0
0
3 1
(ver seo 1.5)
0 0
0 0
0
1
4
5 9 7
Assim, o sistema (1.20) equivalente ao sistema associado a B:

3x3
= 5
x1
x2 + 2x3
= 3

x4 = 0

(1.21)

Acima, descartamos a equao 0 = 0 representada pela ltima linha de B.


22

Jones Colombo e Jos Koiller (texto em preparao)

1.7. Resoluo de sistemas lineares

As variveis x1 , x2 e x4 correspondem s colunas-piv da matriz A (ver seo 1.6, em particular o exemplo 1.6), portanto, estabelecemos que estas so as
variveis bsicas. A varivel x3 corresponde a uma coluna no-piv de A, portanto, x3 livre.
Escrevendo as variveis bsicas x1 , x2 e x4 em termos da varivel livre x3 ,
obtemos uma descrio paramtrica do conjunto-soluo de (1.20):

x1 = 5 + 3x3 ,

x = 3 2x ,
2
3
(1.22)

x3 uma varivel livre,

x4 = 0.
O sistema (1.20), mais uma vez, tem uma infinidade de solues: uma para cada
valor arbitrado (chute) para varivel livre x3 .
Nem todo sistema linear, ainda que possvel, tem variveis livres.
Exemplo 1.10
Vamos revisitar, brevemente, o primeiro

x1 4x2
3x2

3x1 + 14x2

exemplo da seo 1.2 (pgina 4):


+ x3 = 0
6x3 = 3
6x3 = 2

(1.23)

Vimos que a matriz completa deste sistema e sua forma escalonada reduzida so
dadas por

1 0 0 24
0
1 4
1
escalonamento
0
3 6 3 0 1 0
7 .
(1.24)
(ver seo 1.2)
2
4
3 14 6
0 0 1
Todas as colunas da matriz de coeficientes do sistema so colunas-piv, isto ,
as colunas associadas a x1 , x2 e x3 so colunas-piv (a ltima coluna da matriz
completa no faz parte da matriz de coeficientes). Por esta razo, no h variveis
livres neste exemplo, e o sistema (1.23) possui uma nica soluo, dada por

x1 = 24,
x2 = 7,
(1.25)

x3 = 4.
Podemos chamar (1.25) de descrio paramtrica do conjunto-soluo do sistema (1.23), apesar de a terminologia ser um tanto artificiosa neste caso. Como
o sistema (1.23) no tem variveis livres, no h parmetro algum em (1.25).

1.7.2

Sistemas possveis versus impossveis

Nossa estratgia para resolver o sistema (1.16) do exemplo 1.7 foi a seguinte:
Jones Colombo e Jos Koiller (texto em preparao)

23

Captulo 1. Sistemas Lineares e Escalonamento de Matrizes

(a) escrever a matriz completa G associada ao sistema;


(b) obter sua forma escalonada reduzida H;
(c) extrair de H uma descrio paramtrica do conjunto-soluo.
Usamos a mesma estratgia nos exemplos 1.9 e 1.10. Os sistemas destes trs
exemplos so todos possveis. Todos tm ao menos uma soluo. Note que o
sistema (1.23) tem exatamente uma soluo, e os sistemas (1.16) e (1.20) tm
uma infinidade.
Por outro lado, ao escalonar a matriz
 completa do sistema (1.19) do exemplo 1.8, obtivemos uma linha igual a 0 0 0 2 , que representa a equao
problemtica 0x1 + 0x2 + 0x3 = 2 (ou 0 = 2). Conclumos, imediatamente, que
o sistema em questo impossvel: no tem soluo alguma.
Isso motiva o seguinte critrio para determinar se um dado sistema ou no
possvel.
Proposio 1.11
Se uma forma escalonada da matriz completa de um sistema linear tem uma linha
do tipo


0 0 0
(1.26)
, com diferente de zero,
ento o sistema impossvel. Se, do contrrio, uma forma escalonada da matriz
completa no tem nenhuma linha deste tipo, ento o sistema possvel.
Demonstrao: Se uma forma escalonada da matriz completa de um sistema tem
uma linha do tipo acima, podemos imediatamente concluir que tal sistema
impossvel. Essa linha representa a equao 0 = , que jamais ser satisfeita (
uma equao do tipo 0 = 2).
Por outro lado, se uma forma escalonada da matriz completa de um sistema
no tem uma linha do tipo acima, ento podemos, sem nenhum impedimento,
determinar o valor de cada varivel bsica ou escrev-la em termos das variveis livres (se houver alguma). O resultado ser uma descrio paramtrica do
conjunto-soluo.
O mtodo recomendado para obter uma descrio paramtrica do conjuntosoluo, no caso de um sistema possvel, aquele delineado no incio desta subseo: passar forma escalonada reduzida da matriz completa, como fizemos nos
exemplos 1.7, 1.9 e 1.10. O procedimento geral resumido na subseo abaixo.

1.7.3

Procedimento para a resoluo de sistemas

Lembre que resolver um sistema linear significa obter uma descrio de seu
conjunto-soluo (uma descrio paramtrica, por exemplo), ou, ento, concluir
que o sistema impossvel. Abaixo, apresentamos um procedimento sistemtico
(um algoritmo) para resolver um dado sistema. Para estud-lo, use os exemplos
anteriores desta seo como guias.
Passo 1: Escreva a matriz completa do sistema.
24

Jones Colombo e Jos Koiller (texto em preparao)

1.8. Existncia e unicidade de soluo

Passo 2: Obtenha uma forma escalonada da matriz completa, usando o algoritmo


visto na subseo 1.5.1. No necessrio, por ora, chegar forma reduzida.
Passo 3: Se houver uma linha do tipo (1.26) na matriz obtida, o sistema
impossvel (conforme a proposio 1.11). Neste caso, o procedimento termina
aqui. Caso contrrio, siga para o prximo passo.
Passo 4: Obtenha a forma escalonada reduzida da matriz completa, usando o
algoritmo visto na subseo 1.5.2.
Passo 5: Escreva o sistema de equaes representado pela matriz obtida no passo
anterior. (Este passo dispensvel. Com um pouco de prtica, fcil passar
diretamente ao passo 6, pulando o 5.)
Passo 6: Obtenha uma descrio paramtrica do conjunto-soluo. Isso feito
reescrevendo cada equao no-nula (que no seja do tipo 0 = 0) do passo anterior, de forma que a varivel bsica envolvida seja expressa em termos das
variveis livres (se houver alguma).

1.8

Existncia e unicidade de soluo

Nesta seo, abordaremos o resultado anunciado na introduo do captulo:


um sistema linear qualquer ou tem exatamente uma soluo, ou no tem soluo
alguma, ou tem uma infinidade de solues. Isso j foi praticamente demonstrado
na seo anterior. S falta sistematizar as ideias e enunciar os resultados.
Observao
Queremos fazer um breve comentrio sobre terminologia. Dada uma classe de problemas matemticos (sistemas lineares, por exemplo), duas questes naturais, frequentemente, se colocam: Sob quais condies um problema particular da classe ter alguma
soluo? Nos casos em que h soluo, sob quais condies adicionais (talvez, mais restritas) haver uma nica soluo, e sob quais condies haver mais de uma? A primeira
questo chamada de um problema de existncia, j que queremos saber quando que
uma soluo existe. A segunda chama-se um problema de unicidade, j que queremos
saber quando que uma soluo tem a qualidade de ser nica. O mundo matemtico
cheio de teoremas de existncia e unicidade, referentes aos mais variados problemas.
Ao final desta seo, veremos um exemplo referente ao caso de sistemas lineares.

1.8.1

Existncia

Na proposio 1.11 da seo anterior, estabelecemos um critrio para determinar se um sistema possui soluo. Tal critrio baseia-se na (no) ocorrncia
de uma linha problemtica do tipo (1.26), em uma forma escalonada da matriz
completa do sistema.
Este j um critrio satisfatrio para determinar a existncia, ou no, de
uma soluo para um sistema linear. Mas desejamos reformul-lo em termos das
colunas-piv da matriz completa do sistema.
Jones Colombo e Jos Koiller (texto em preparao)

25

Captulo 1. Sistemas Lineares e Escalonamento de Matrizes

Considere as matrizes escalonadas genricas



0 0
0

, 0 0
e
0 0
0 0

0 0
0 0 0
0 0

0 0
0 0
0 0

,
0 0
0 0

0
0
0

(1.27)

e interprete cada uma como a matriz completa de um sistema linear (ou linhaequivalente a tal matriz). As matrizes acima representam sistemas possveis, j
que nenhuma tem uma linha do tipo (1.26). J as matrizes



0
0
, 0 0
e
0
0
0 0
0 0 0 0
0

0
0
0
0

0 0
0 0
0 0

0
0
0

0
0 0

(1.28)

correspondem a sistemas impossveis, j que elas possuem linhas do tipo (1.26),


representando equaes do tipo 0 = . Lembre que representa um nmero
diferente de zero. Em cada matriz, a linha problemtica est hachurada.
Examine as matrizes acima, dando ateno especial ltima coluna de cada
uma. As matrizes de (1.27) no possuem linhas problemticas, e, em cada uma
delas, a ltima coluna no-piv. Em contrapartida, todas as matrizes de (1.28)
apresentam linhas problemticas, e, em cada uma, a ltima coluna piv. O
exerccio p1.13 pede que voc deduza o seguinte fato geral: A ltima coluna de
uma matriz qualquer (escalonada ou no) piv se e somente se uma de suas
formas escalonadas tem uma linha do tipo (1.26).
A proposio abaixo completamente equivalente proposio 1.11, em vista
dessas observaes.
Proposio 1.12
Um sistema linear possvel se e somente se a ltima coluna de sua matriz
completa (a dos termos independentes) no uma coluna-piv.
Enfatizamos que, para determinar se um sistema possvel, no necessrio
obter a forma escalonada reduzida de sua matriz completa. Basta chegar a uma
forma escalonada qualquer para aplicar o critrio da proposio acima.

1.8.2

Unicidade

Vimos que o sistema do exemplo 1.9 tem uma infinidade de solues: cada
valor que for escolhido (ou chutado) para a varivel livre x3 leva a uma soluo
diferente. O exemplo 1.7 semelhante, mas, neste caso, h duas variveis livres:
obtm-se uma soluo diferente do sistema (1.16) para cada escolha de valores
das variveis x2 e x4 .
26

Jones Colombo e Jos Koiller (texto em preparao)

1.8. Existncia e unicidade de soluo

O sistema do exemplo 1.10, por outro lado, no possui variveis livres, e,


assim, o sistema tem uma nica soluo. Em outras palavras, o conjunto-soluo
tem apenas um elemento.
Tendo esses exemplos por base, no difcil formular as seguintes ideias gerais.
Um sistema linear possvel ou tem pelo menos uma varivel livre, ou ento no
tem varivel livre alguma. Claramente, no h outra alternativa. Se o sistema tiver pelo menos uma varivel livre, ento ele ter uma infinidade de solues: uma
para cada chute da(s) varivel(eis) livre(s). Se o sistema no tiver nenhuma
varivel livre, ento ele ter uma nica soluo. Salientamos que esta discusso
refere-se, por hiptese, a um sistema possvel.
Considere, por exemplo, as matrizes escalonadas


, 0
e 0
, (1.29)
0
,
0 0 0
0 0
0 0

0 0

0 0 0 0
0 0 0
0 0 0
e, mais uma vez, interprete cada uma como a matriz completa de um sistema
linear. As matrizes acima representam sistemas possveis que no tm variveis
livres: Em cada caso, todas as colunas da matriz de coeficientes contm uma
posio-piv, portanto, todas as variveis so bsicas (veja a subseo 1.7.1).
Acima, a ltima coluna de cada matriz completa no-piv, mas no faz parte
da matriz de coeficientes. Lembre-se de que a linha vertical destaca a matriz de
coeficientes da coluna dos termos independentes.
Em contrapartida, as matrizes

0 0


, 0 0 0 e 0 0

0
,
0 0 0
0 0 0 0 0 (1.30)
0 0 0 0
0 0 0 0
0 0 0
0 0 0 0 0
0 0 0 0
representam sistemas possveis que tm variveis livres. As colunas associadas s
variveis livres esto hachuradas. Elas so as colunas no-piv em cada matriz de
coeficientes (ver subseo 1.7.1). No sistema representado pela primeira matriz
acima, por exemplo, a varivel x3 livre. No caso do sistema representado pela
ltima matriz, as variveis livres so x1 e x4 . Note que, em cada uma dessas
matrizes, a ltima coluna no est hachurada. Apesar de serem no-piv, essas
colunas no correspondem a variveis livres! Elas no correspondem a varivel
alguma, j que, repetimos, no fazem parte da matriz de coeficientes.
Para determinar se um sistema possvel tem variveis livres, portanto, basta
determinar se h colunas no-piv em sua matriz de coeficientes.
Por fim, as matrizes

0
, 0 0
e
(1.31)
0 0 0 0

0 0
0 0 0 0
0 0 0 0 0
Jones Colombo e Jos Koiller (texto em preparao)

27

Captulo 1. Sistemas Lineares e Escalonamento de Matrizes

representam sistemas impossveis: as linhas hachuradas so problemticas. Observe, tambm, que, em cada matriz, a ltima coluna piv. A classificao das
variveis em bsicas ou livres irrelevante nestes casos.
Em resumo:
As matrizes em (1.29) representam sistemas com soluo nica (sistemas
possveis, sem variveis livres). Em outras palavras, o conjunto-soluo de
cada um desses sistemas tem um nico elemento.
As matrizes em (1.30) representam sistemas com uma infinidade de solues
(sistemas possveis, com variveis livres). O conjunto-soluo de cada um
desses sistemas tem uma infinidade de elementos.
As matrizes em (1.31) representam sistemas sem soluo alguma (sistemas
impossveis). O conjunto-soluo de cada um deles vazio, ou seja, no
tem elemento algum.

1.8.3

Teorema de existncia e unicidade de soluo

Sintetizamos, abaixo, os resultados das duas ltimas subsees. Se voc achar


confuso o enunciado do teorema abaixo, refira-se ao exerccio p1.14.
Teorema 1.13
Um sistema linear possvel se e somente se a ltima coluna de sua matriz
completa no uma coluna-piv (ver proposio 1.12).
Um sistema possvel tem uma nica soluo se e somente se todas as colunas
de sua matriz de coeficientes so colunas-piv (neste caso, no h variveis livres:
todas as variveis do sistema so bsicas).
Se, do contrrio, a matriz de coeficientes de um sistema possvel tem, pelo
menos, uma coluna no-piv, ento o sistema tem, pelo menos, uma varivel
livre, e, portanto, uma infinidade de solues.
Um sistema linear, portanto, ou tem uma nica soluo, ou uma infinidade,
ou nenhuma. Para determinar em qual caso enquadra-se um dado sistema, basta
escalonar sua matriz completa e usar o teorema acima. O escalonamento necessrio para desvendar quais so as colunas-piv da matriz completa. Observe,
mais uma vez, que basta obter uma forma escalonada qualquer: no necessrio
chegar forma reduzida. Ou seja, no necessrio aplicar todos os passos do
procedimento da subseo 1.7.3, basta ir at o passo 2.
Observao
Talvez, voc ainda no tenha percebido todas as consequncias do teorema acima, e sua
importncia na anlise de sistemas lineares. O teorema implica, por exemplo, que no
h sistemas lineares com exatamente duas, trs ou, digamos, dezessete solues (um
sistema linear ou tem uma soluo, ou uma infinidade, ou nenhuma).
A situao muito diferente no caso de sistemas no-lineares. A equao no-linear
x2 = 4, por exemplo, tem exatamente duas solues: x = 2 e x = 2. E a equao
(x 1)(x 2)(x 3) (x 17) = 0 tem dezessete solues (quais so?).
28

Jones Colombo e Jos Koiller (texto em preparao)

Exerccios

Exerccios propostos
P1.1.

Verifique que o sistema (b) da introduo no possui solues, e que o


sistema (c) possui uma infinidade delas.

P1.2.

Verifique que as equaes do sistema (c) da introduo representam a


mesma reta no plano (x1 , x2 ).

P1.3.

A primeira equao do sistema (a) da introduo corresponde a qual das


duas retas da figura 1.1(a)?

P1.4.

Determine o ponto de interseo entre as retas 2x1 +x2 = 1 e x1 2x2 = 13.

P1.5.

Descreva a interseo entre as retas 3x1 2x2 = 4 e 6x1 4x2 = 8. A


interseo vazia? um ponto? uma reta?

P1.6.

Determine quais das matrizes abaixo esto em forma escalonada. Quais


esto na forma escalonada reduzida?

1 0 0
1 0 0
1 0 0 0
(a) 0 2 0
(b) 0 1 0
(c) 0 1 0 0
0 0 3
0 0 1
0 0 0 1

1 0 0 0
0 0 0
1 0 2 0
1 1 0 0

(d) 0 1 0
(e) 0 1 3 0
(f)
0 1 1 0
0 0 1
0 0 0 1
0 0 1 1

0 1 0 0
1 2 3 4
1 0 1 1
(g) 0 0 1 0
(h) 0 0 0 0
(i) 0 0 2 2
0 0 0 0
0 0 0 0
0 0 0 3

1 0 0
0 0 0 0
1 2 3 4
(j) 0 0 1
(k) 0 0 0 0
(l) 0 5 6 7
0 1 0
0 0 0 0
0 0 0 8

P1.7.

Encontre uma forma escalonada de cada matriz abaixo. Indique as posies


e as colunas-piv. Observao: No necessrio obter a forma reduzida.




1 2
1 2
(a)
(b)
3 4
2 4

1 2 3
1 2 3
(c) 4 5 6
(d) 4 5 6
7 8 9
9 12 15

2
1 4
4 17
1 2 3 7 19
2 3 12 1 2
0
0
2
4
16

(f)
(e)
2 3 0

1 4
4
8 2
0 36
1
0 3 2 4
1
2
0
1 5

Jones Colombo e Jos Koiller (texto em preparao)

29

Captulo 1. Sistemas Lineares e Escalonamento de Matrizes

P1.8.

Obtenha, agora, a forma escalonada reduzida de cada matriz do exerccio


anterior. Aproveite o trabalho j realizado.

P1.9.

Em cada matriz abaixo, a posio destacada uma posio-piv? Justifique cada resposta.

3 9 3 9
3
5 11
17
(a) 4 12 0 20
(b) 3 5
1
3 5 15
6 10 2
Determine quais dos sistemas abaixo so possveis. Para cada sistema
possvel, classifique as variveis em bsicas ou livres, e fornea uma descrio
paramtrica do conjunto-soluo. Use o procedimento da subseo 1.7.3.

x2 2x3 = 7

(a) x1 + x2 + 3x3 = 11

x1 + 3x2 x3 = 25

4x1 3x2 + 26x3 = 5


(b) x1 + x2 7x3 = 3

2x2 4x3 = 10

4x1 + 4x2 + 3x3 22x4 = 27


5
(c) 5x1 + 5x2 4x3 12x4 =

2x1 2x2
+ 8x4 =
6

P1.10.

Pense em cada matriz do exerccio p1.7 como a matriz completa de um


sistema. Escreva cada um desses sistemas, e resolva-o. Dica: Aproveite o
trabalho j realizado no exerccio p1.8.

P1.11.

P1.12.

Considere o seguinte sistema de equaes lineares:



x1 + hx2 = 2
3x1 2x2 = k

Determine os valores de h e k tais que o sistema tenha (i) nenhuma soluo,


(ii) uma nica soluo, e (iii) muitas solues. D respostas separadas para
cada parte, justificando cada uma.
Mostre que a ltima coluna de uma matriz qualquer uma coluna-piv se
e somente se uma de suas formas escalonadas tem uma linha do tipo (1.26).

P1.13.

Justifique as seguintes afirmativas, usando o teorema 1.13. (Este exerccio


, simplesmente, uma reformulao desse teorema.)

P1.14.

(a) Um sistema linear no ter soluo alguma se e s se houver uma


posio-piv na ltima coluna de sua matriz completa.
(b) Um sistema linear ter uma nica soluo se e s se houver uma
posio-piv em todas as colunas de sua matriz completa, exceto na
ltima coluna.
30

Jones Colombo e Jos Koiller (texto em preparao)

Exerccios

(c) Um sistema linear ter uma infinidade de solues se no houver posio-piv na ltima coluna de sua matriz completa e, alm disso, no
houver posio-piv em alguma outra coluna.
P1.15.

Determine se cada afirmativa verdadeira ou falsa. Justifique.

(a)
(b)
(c)
(d)
(e)

Nem toda matriz possui uma forma escalonada.


Nem toda matriz possui uma forma escalonada reduzida.
Uma matriz pode ter muitas formas escalonadas reduzidas distintas.
Uma matriz pode ter muitas formas escalonadas distintas.
Uma matriz pode ter uma nica forma escalonada. Dica: Veja o exerccio p1.6(k).

Mostre que, se existe uma sequncia de operaes-linha que leva a matriz


A matriz B, ento existe uma sequncia que leva B a A. Dica: Use a
proposio 1.2.

P1.16.

Se uma matriz A linha-equivalente a B, e B linha-equivalente a C,


ento A e C so linha-equivalentes. Justifique essa afirmativa.

P1.17.

As matrizes dos itens (c) e (d) do exerccio p1.7 so linha-equivalentes?


Justifique. Dica: Use os dois exerccios anteriores, e aproveite o trabalho j
realizado no exerccio p1.8.

P1.18.

Justifique a seguinte afirmativa: O nmero de posies-piv de uma matriz no pode exceder o seu nmero de linhas, nem o de colunas.

P1.19.

Dicas: Reveja a definio de posio-piv na seo 1.6, e tambm a definio 1.5, na pgina 10. Agora, reflita: Uma linha de uma matriz qualquer
pode ter mais do que um elemento lder? Uma matriz escalonada pode ter
dois elementos lderes na mesma coluna?
Convena-se de que as nicas quatro formas escalonadas genricas de
tamanho 2 2 so









0 0
e
,
.
,
0 0
0 0
0 0
0

P1.20.

Existem exatamente 11 formas escalonadas genricas de tamanho 24.


Escreva cada uma delas. Dica: Escreva aquela(s) com nenhuma posiopiv, em seguida aquela(s) com uma, e finalmente aquela(s) com duas. Por
que que o processo termina por a?

P1.21.

Mostre que um sistema linear com duas equaes e trs variveis ou no


tem soluo alguma, ou tem uma infinidade de solues. Dica: Use o
exerccio anterior.

P1.22.

Jones Colombo e Jos Koiller (texto em preparao)

31

Captulo 1. Sistemas Lineares e Escalonamento de Matrizes

32

Jones Colombo e Jos Koiller (texto em preparao)

Captulo 2
Vetores e Combinaes Lineares
2.0

Introduo

Neste captulo, vamos estabelecer as pedras fundamentais da lgebra linear.


Definiremos vetores, as operaes de soma de vetores e produto por escalar e
o conceito importantssimo de combinao linear. Em certo sentido, podemos
dizer que a teoria de lgebra linear comea aqui. Usaremos a teoria do captulo
anterior ocasionalmente, mas, neste captulo, sistemas lineares deixaro de ter
papel central.
A ltima seo deste captulo contm uma discusso interessante, que ser
generalizada no captulo 4. Dado um espao ambiente, caracterizamos os subconjuntos de vetores que so capazes de gerar, por combinaes lineares, todos
os outros vetores do espao. No decorrer do captulo, o significado disso ficar
mais claro, e a importncia desses conjuntos geradores ficar evidente ao longo
do curso.

2.1

Vetores de Rn

Um vetor de n coordenadas uma lista ordenada de n nmeros, que,


usualmente, escrevemos em uma coluna. As listas

5
u=
1

3
v = 1/5 ,
17

por exemplo, so vetores de duas e de trs coordenadas, respectivamente. Pode-se


pensar em um vetor como uma matriz de apenas uma coluna, com a ressalva de
que mais usual chamar os nmeros em um vetor de componentes ou coordenadas
(ao invs de entradas ou elementos, que como chamamos os nmeros em uma
matriz, como vimos no captulo 1).
Este texto tratar quase exclusivamente de vetores cujas coordenadas so
nmeros reais, mas todos os conceitos e resultados se generalizam para vetores de
33

Captulo 2. Vetores e Combinaes Lineares

coordenadas complexas.1 Vetores e matrizes de nmeros complexos tm grande


importncia em algumas reas da fsica e da engenharia.

2.1.1

Notao

Nmeros reais (ou complexos) em lgebra linear so, usualmente, chamados de


escalares. O conjunto dos nmeros reais denotado por R, e o dos complexos
por C. Quando dizemos que c um escalar, nossa inteno, geralmente,
enfatizar que c um nmero, e no um vetor.
O conjunto de todos os vetores de n componentes reais denotado por Rn . O
R indica que as componentes so nmeros reais, e o n, o nmero de componentes. Em contrapartida, o conjunto dos vetores de n componentes complexas
denotado por Cn .
O vetor u dado acima, por exemplo, um elemento de R2 , enquanto v um
elemento de R3 . Em smbolos, escrevemos u R2 e v R3 (l-se u pertence a
erre-dois e v pertence a erre-trs).
Neste texto, vetores sero denotados usando letras em negrito, como acima
com u e v. Escalares geralmente sero representados por letras minsculas em
tipo itlico ou letras gregas. Matrizes sero representadas por letras maisculas
e, tambm, em tipo itlico. Escreveremos, por exemplo,
   


x1
2
1 2
c = 3,
= 5,
x=
=
e A=
.
x2
0
3 0
As componentes x1 e x2 do vetor x so indicadas em itlico, pois so escalares,
bem como os nmeros c e .
Chamamos o vetor de Rn cujas componentes so todas iguais a zero de vetor
zero, ou de vetor nulo, eh denotamo-lo
por 0n (com o algarismo 0 em negrito).
i
0
0
Assim, 02 = 0 e 03 = 0 , por exemplo. Quando no houver ambiguidade,
0

podemos denotar o vetor zero de Rn por 0, simplesmente.2


A matriz de tamanho n m cujas entradas so todas iguais a zero, chamada
de matriz zero ou de matriz nula, ser denotada por 0nm (com o algarismo
0 em itlico), ou, simplesmente, por 0 , quando no houver ambiguidade quanto
ao seu tamanho.

2.1.2

Dimenso de Rn

A noo de dimenso bastante usada fora do contexto matemtico. Por


exemplo, diversos filmes hollywoodianos, atualmente, so filmados em 3D (trs
dimenses), e as diferenas entre exibies 2D e 3D so evidentes. Outro exemplo so as imagens tridimensionais do interior do corpo humano, obtidas via
tomografia computadorizada ou ressonncia magntica, que permitiram grandes
1

Mas cuidado, porque, em alguns pontos da teoria, a generalizao ao caso complexo requer
ateno a certos detalhes. Alertaremos os leitores quando chegarmos a esses pontos.
2
Mas cuidado para no fazer confuso, pois o vetor 0 de Rn no a mesma coisa que o vetor
0 de Rm , se n 6= m! O primeiro uma lista de n zeros; o segundo, de m zeros.

34

Jones Colombo e Jos Koiller (texto em preparao)

2.1. Vetores de Rn

avanos em medicina diagnstica.3 Em filmes de fico cientfica que envolvem


viagens no tempo, j clich ouvir algum personagem (geralmente um esteretipo de cientista) dizer que vivemos um em universo de quatro dimenses: trs
dimenses espaciais e uma dimenso temporal.
Gostaramos de definir precisamente o conceito de dimenso, no contexto matemtico. Isso, porm, s poder ser feito na seo 4.3, pois ainda no dispomos
da teoria necessria. Por enquanto, convencionamos dizer que a dimenso de Rn
o nmero inteiro no-negativo n. Assim, por exemplo, a dimenso de R2 2, a
dimenso de R5 5, e a dimenso de R1017 1017.
Veremos que esta conveno ser coerente com a definio de dimenso, mais
geral e rigorosa, da seo 4.3. Introduzimos a terminologia antecipadamente para
podermos us-la e para nos habituarmos a ela.
A conveno acima tambm condiz com nossa percepo intuitiva, coloquial,
de dimenso. Como recordaremos na prxima subseo, o conjunto R2 pode ser
representado geometricamente por um plano, que um objeto que consideramos
bidimensional. J o R3 pode ser representado pelo espao tridimensional.
Cuidado!
Enfatizamos que o conceito de dimenso mais geral do que o apresentado acima,
e ser visto somente na seo 4.3. No pense que, por ler meramente esta pequena
subseo, voc j domina o conceito! (Esse aviso pode ser til para quem estiver
estudando de ltima hora para uma prova. . . )

2.1.3

Representao geomtrica

O leitor j deve estar familiarizado com o sistema de coordenadas cartesianas


e com a representao de vetores de R2 ou de R3 como setas no plano ou no espao, respectivamente. Sendo assim, no desenvolveremos essas ideias em detalhe
neste texto. Teceremos apenas alguns comentrios e apresentaremos exemplos, a
ttulo de recapitulao.
Na figura 2.1(a), o conjunto R2 representado geometricamente por um plano
coordenado. O sistema de coordenadas cartesianas
nesse plano determinado
 v1 
2
pelos eixos x1 e x2 indicados. Cada vetor v2 de R corresponde a um ponto de
coordenadas v1 e v2 com relao aos eixos horizontal e vertical, respectivamente.
mais intuitivo e usual, no entanto, representar vetores como setas no plano,
ao invs
na figura 2.1(a), por exemplo, os vetores
 5  de pontos.
 2  Representamos,
 4
u = 2 , v = 5 e w = 1 . Observe que os vetores so sempre representados
por setas que partem da origem do sistema de coordenadas, ou seja, do ponto
cujas coordenadas so iguais a zero. O vetor zero 0 representado nessa figura
simplesmente como um ponto na origem (j que no possvel desenhar uma seta
retilnea que comea e termina no mesmo ponto. . . ).
A representao geomtrica de R3 feita de forma anloga, mas, nesse caso,
usa-se um sistema de coordenadas cartesianas em um espao tridimensional. Na
3

A construo de imagens 3D a partir de fatias 2D nesses exames, a propsito, envolve


mtodos matemticos sofisticados. E, na base desses mtodos, h bastante lgebra linear.

Jones Colombo e Jos Koiller (texto em preparao)

35

Captulo 2. Vetores e Combinaes Lineares

x3

x2
v

y
u
x1

0
w

x1

(a)

x2
(b)

Figura 2.1: Representao geomtrica de vetores em R2 (a) e em R3 (b).


figura 2.1(b), esse sistema hdado
i pelos trs eixos indicados, e representamos
2
geometricamente o vetor y = 4 .
5
Em resumo, um vetor pode ser pensado como uma seta partindo da origem
dentro de um espao ambiente (um plano, no caso de R2 ; e um espao tridimensional, no caso de R3 ). A representao to natural que, s vezes, dizemos
coisas como esta seta o vetor x, ao invs de esta seta representa o vetor x.
Observao
Surpreendentemente, a ideia da representao geomtrica de vetores de Rn til mesmo
quando estamos lidando com espaos de dimenso mais alta, isto , quando n maior
do que trs. Um vetor de R7 , por exemplo, pode ser pensado como uma seta partindo
da origem dentro de um espao ambiente de dimenso sete. Ningum capaz de
visualizar diretamente um espao de dimenso sete, ento, isso pode parecer muito
abstrato ou viajante. No entanto, a imagem de vetores como setas pode ser elucidativa mesmo nesses casos. Logo adiante, na subseo 2.1.5, veremos um exemplo
disso. Podemos conceber que os vetores representados nas figuras 2.2 e 2.3 pertenam
a um espao maior, e no apenas ao plano da pgina.

2.1.4

Igualdade entre vetores

Dizemos que dois vetores so iguais quando suas componentes correspondentes so todas iguais. Assim, se u e v so dois vetores de Rn , ento

u1 = v1

u2 = v2
u = v uma forma sucinta de escrever
(2.1)
..

un = vn ,
onde u1 , u2 , . . . , un e v1 , v2 , . . . , vn so as componentes dos vetores u e v, respectivamente. Os vetores 23 e 32 de R2 no so iguais (como dissemos, um
vetor uma lista ordenada).
Para que dois vetores u e v sejam diferentes, basta que uma das componentes
de u seja diferente da componente correspondente de v. Em outras palavras,
36

Jones Colombo e Jos Koiller (texto em preparao)

2.1. Vetores de Rn

u 6= v uma forma resumida de dizer que pelo menos uma das igualdades
direita em (2.1) no vale. Mas isso no significa dizer que todas as componentes
de u e v sejam diferentes.
Observe que a igualdade esquerda, em (2.1), uma igualdade vetorial (entre
vetores), ao passo que as igualdades direita so igualdades entre escalares (a
que j estamos habituados).

2.1.5

Soma de vetores e produto de vetor por escalar

Dados dois vetores u e v de Rn , definimos a soma u + v como o vetor obtido


por meio da soma das componentes correspondentes de u e v, isto ,

u1 + v1
u2 + v2

u + v = .. Rn ,
.
un + vn
onde u1 , u2 , . . . , un e v1 , v2 , . . . , vn so, mais uma vez, as componentes dos
vetores u e v, respectivamente. Enfatizamos que a soma u + v um elemento de
Rn , ou seja, do mesmo conjunto onde residem u e v. No faz sentido somar um
vetor de Rn com um vetor de Rm quando n 6= m (esta operao no definida).
Por exemplo, se


2
1
2+1
3

3 , ento u + v = (3) + 3
0 .
u = 3
e v=
=
0
5
0 + (5)
5

Todos os vetores acima so elementos de R3 .


A soma de dois vetores representada, geometricamente, pela regra do paralelogramo, ilustrada na figura 2.2. Se u e v so representados pelas setas indicadas, que formam dois lados de um paralelogramo, ento o vetor-soma u + v
representado pela seta que corre ao longo da diagonal do paralelogramo. Lembrese de que todos os vetores so representados por setas que partem da origem 0.
u+v
v
u
0

Figura 2.2: A regra do paralelogramo para a soma de dois vetores.


Dados um escalar R e um vetor v Rn , definimos o produto de v por
, denotado por v, como o vetor obtido multiplicando cada componente de v
por , ou seja,

v1
v2

v = .. Rn .
.
vn
Jones Colombo e Jos Koiller (texto em preparao)

37

Captulo 2. Vetores e Combinaes Lineares

Assim, se

1
= 4 e v = 3 ,
5

1
4
ento v = (4) 3 = 12 .
5
20

Geometricamente, o produto por produz um esticamento de um vetor (se


|| > 1) ou uma contrao (se || < 1). Se negativo, o produto v produz,
ainda, uma inverso no sentido do vetor v. A figura 2.3 ilustra um vetor v e
seus mltiplos 3v, 21 v e (1)v. Podemos escrever v ao invs de (1)v.

1
2v

3v
v

Figura 2.3: Representao geomtrica do produto de um vetor por escalares.


As operaes de soma de vetores e multiplicao por escalar podem
 1  ser com2
binadas
de
vrias
formas
em
uma
expresso.
Por
exemplo,
se
x
=
,
y
=
2
0
 
e z = 31 , ento
  
 
 
1
2
3
2 3x + (1)y + 4z = 2 3
+ (1)
+4
=
2
0
1
     
    
    
3
2
12
1
12
2
12
14
=2
+
+
=2
+
=
+
=
. (2.2)
6
0
4
6
4
12
4
8


Dados dois vetores u e v, o vetor u + (1)v obtido, como indicado, multiplicando v pelo escalar 1 e somando o resultado a u. Chamamos esse vetor de
diferena entre os vetores u e v, e escrevemos u v ao invs de u + (1)v para
simplificar a notao.
As operaes que definimos acima tm boas propriedades algbricas. Traduzindo do matematiqus: fcil fazer e simplificar contas envolvendo as operaoes que definimos acima, pois valem diversas propriedades naturais (ou intuitivas).
Proposio 2.1 (Propriedades algbricas das operaes vetoriais)
Para quaisquer vetores u, v e w de Rn e quaisquer escalares e , valem as
propriedades abaixo.
(a)
(b)
(c)
(d)
(e)

u+v =v+u
(u + v) + w = u + (v + w)
u + 0n = u
u u = u + (1)u = 0
(u + v) = u + v

(f)
(g)
(h)
(i)
(j)

( + )u = u + u
(u) = ()u
1u = u
0u = 0n
0n = 0n

fcil verificar as propriedades acima, e no perderemos muito tempo pro38

Jones Colombo e Jos Koiller (texto em preparao)

2.1. Vetores de Rn

vando cada uma. Vejamos apenas a propriedade distributiva (e):

u1 + v1
u2 + v2

(u + v) = ..
.

pela definio de soma de vetores,

un + vn

(u1 + v1 )
(u2 + v2 )

..

(un + vn )

u1 + v1
u2 + v2

..

.
un + vn


v1
u1
u2 v2


= .. + ..
. .
vn
un
= u + v

pela definio de produto por escalar,

pela propriedade distributiva dos nmeros


reais (aplicada em cada coordenada),

pela definio de soma de vetores,

pela definio de produto por escalar.

Voc pode verificar as outras propriedades por conta prpria. A estratgia


sempre a mesma: escrever os vetores coordenada por coordenada, e usar as
propriedades que voc j conhece para nmeros reais.
Em vista da propriedade (b), podemos escrever a soma (u + v) + w simplesmente como u + v + w, uma vez que a ordem em que
 somamos no importa. Do
mesmo modo, uma soma da forma (u + v) + w + x pode ser reescrita como
u + v + w + x. Observaes como essa simplificam muito os clculos e a notao.
A expresso 2 3x + (1)y + 4z em (2.2), por exemplo, pode ser reescrita como
6x 2y + 4z (usamos as propriedades (b), (e) e (g) para fazer esta simplificao).
As operaes de soma de vetores e produto por escalar so as pedras fundamentais da lgebra linear. Todos os demais conceitos sero definidos, direta
ou indiretamente, em termos dessas operaes. Um exemplo o conceito de
combinao linear, que ser o tema da prxima seo.

Observao
Por dispor das operaes de soma, de produto por escalar, e das propriedades algbricas listadas acima, o conjunto Rn um exemplo de espao vetorial. No definiremos
esse conceito em toda sua generalidade, pois o nvel de abstrao exigido excederia os
limites propostos por este texto. Recomendamos o livro de Paul Halmos [1] aos leitores
interessados em um tratamento mais geral (e bem mais avanado!).
Jones Colombo e Jos Koiller (texto em preparao)

39

Captulo 2. Vetores e Combinaes Lineares

2.2

Combinaes lineares

Nesta seo, faremos uma breve introduo a um dos conceitos cruciais de


lgebra linear. Esse assunto ser aprofundado na seo 2.5.
Definio 2.2
Dados os vetores a1 , a2 , . . . , am de Rn e os escalares c1 , c2 , . . . , cm , dizemos que
o vetor
c1 a1 + c2 a2 + + cm am Rn
(2.3)
a combinao linear de a1 , . . . , am com pesos (ou coeficientes) c1 , . . . , cm .
Por exemplo, se a1 , a2 e a3 so vetores de R7 (no interessa quais sejam suas
coordenadas), ento
6a1 2a2 + 4a3 ,

a1 a2 = 1a1 + (1)a2 + 0a3

e 0a1 + 0a2 + 0a3 = 07

7
so combinaes lineares de a1 , a2 e a3 (lembre que
 14 07 o vetor zero do R ). A
equao (2.2) da seo anterior diz que o vetor 8 a combinao linear dos
vetores x, y e z com pesos 6, 2 e 4, respectivamente (verifique).
Dizer que um vetor b de Rn uma combinao linear de a1 , . . . , am o
mesmo que dizer que b gerado pelos vetores a1 , . . . , am . Subentende-se que
seja gerado por uma combinao linear desses vetores. Na seo 2.5, veremos
ainda outras maneiras de dizer isso,4 e abordaremos o importante problema de
determinar quando que um vetor uma combinao linear de outros vetores
dados.

Exemplo 2.3
Em uma sesso de gravao musical profissional, os elementos de uma msica so
gravados em faixas separadas (vocal, baixo, percusso e piano, por exemplo).
A faixa musical completa obtida pelo processo de mixagem (combinao) das
faixas individuais. Essa mixagem, em sua modalidade mais simples, nada mais
do que uma combinao linear.
Vejamos um exemplo concreto. Na figura 2.4, exibimos quatro faixas de uma
gravao da msica Rock and Roll, do conjunto Led Zeppelin: baixo eltrico,
bateria, guitarra e vocal.5 Representamos em cada grfico, na realidade, um
segmento de apenas 40 milissegundos extrado da faixa correspondente.
Estes sinais de udio6 podem ser representados por vetores de Rn . De fato,
cada faixa da figura 2.4 foi gravada digitalmente a uma taxa de 44.100 amostras
por segundo (44,1 kHz). Cada trecho de 40 milissegundos contm, ento, 44.100
0,040 = 1.764 amostras. Os sinais ilustrados na figura, portanto, podem ser
representados por vetores de R1764 , que vamos denotar por b (baixo), p (bateria,
ou percusso), g (guitarra) e v (vocal).
4

Essa, talvez, seja uma das principais causas de dificuldade na aprendizagem de lgebra
linear: em vrias instncias, existem muitas formas diferentes de dizer a mesma coisa!
5
Infelizmente, no conseguimos as faixas da gravao original. As gravaes apresentadas
aqui foram feitas pela banda-cover Boot Led Zeppelin. (Um trocadilho com bootleg, que
descreve um artigo pirateado. . . )
6
O significado de sinal, nesse contexto, ser dado logo a seguir.

40

Jones Colombo e Jos Koiller (texto em preparao)

2.2. Combinaes lineares

0.3

0.3

0.2

0.2

0.1

0.1

0.0

0.0

0.1

0.1

0.2

0.2

0.3

10

20

30

40

0.3

10

0.2

0.2

0.1

0.1

0.0

0.0

0.1

0.1

0.2

10

20

20

30

40

30

40

(b) bateria

(a) baixo

30

40

0.2

(c) guitarra

10

20

(d) vocal

Figura 2.4: Faixas de uma gravao musical. Em cada grfico, o eixo horizontal
representa o tempo em milissegundos.

Jones Colombo e Jos Koiller (texto em preparao)

41

Captulo 2. Vetores e Combinaes Lineares

Podemos obter uma faixa musical completa mixando os vetores b, p, g e


v por simples combinao linear: c1 b + c2 p + c3 g + c4 v. Os pesos c1 a c4 , neste
exemplo, representam os volumes de cada faixa. A arte de ajustar tais pesos,
de forma que os volumes relativos resultem em uma faixa musical harmoniosa,
pertence ao campo da engenharia de som.
Na figura 2.5, exibimos duas combinaes lineares (duas mixagens) das faixas individuais: (a) 43 b + p + g + 12 v, e (b) b + 21 p + 25 g + 15 v. Comparando,
0.5

0.5

0.0

0.0

0.5

10

20

30

(a) primeira mixagem

40

0.5

10

20

30

40

(b) segunda mixagem

Figura 2.5: Duas mixagens das faixas da figura anterior.


atentamente, os grficos da figura 2.5 com aqueles da figura 2.4, possvel ver que
o peso (volume) relativo do baixo b , realmente, maior na segunda mixagem do
que na primeira. Por outro lado, componentes de alta frequncia, caractersticas
da guitarra g e do vocal v, so maiores na primeira mixagem.
Admitimos que as msicas representadas na figura 2.5 so curtssimas: elas
tm durao de apenas 40 milissegundos! Uma faixa de 4 minutos gravada
taxa de 44,1 kHz teria 44.100 4 60 = 10.584.000 amostras, isto , teria de ser
representada por um vetor de R10.584.000 .
Observao
A lgebra linear utilizada intensivamente na rea de processamento de sinais, que
lida com a representao e o tratamento matemtico de udio, de imagens, de vdeo
e, genericamente, de mensagens ou medies de qualquer natureza. Na terminologia
dessa rea, um sinal uma representao eltrica ou matemtica de uma mensagem.
Os vetores b, p, g e v do exemplo anterior so, portanto, sinais de udio, bem como
qualquer uma de suas combinaes lineares.

2.3

O produto de matriz por vetor

Combinaes lineares so to importantes, e sero usadas com tanta frequncia, que merecem uma notao mais sucinta do que aquela empregada em (2.3).
O produto de uma matriz por um vetor, que definiremos abaixo, pode ser usado
para esse fim. Mais adiante, veremos outras interpretaes importantes para o
produto matriz-vetor, e ficar claro que ele mais do que uma mera convenincia de notao. Por ora, no entanto, esta ser sua utilidade principal. Dessa
42

Jones Colombo e Jos Koiller (texto em preparao)

2.3. O produto de matriz por vetor

maneira, a frase uma notao compacta para combinaes lineares pode ser
pensada como o subttulo desta seo.
conveniente introduzir primeiro uma notao para matrizes que destaque
suas colunas. Uma matriz n m

a11 a12 a1m


a21 a22 a2m

A = ..
(2.4)
..
..
.
.
.
an1 an2 anm
pode ser escrita por colunas como


A = a1 a2 am ,
onde a1 , . . . , am so os vetores de Rn dados por


a11
a12
a21
a22


a1 = .. , a2 = .. , . . . ,
.
.
an1

an2

(2.5)

a1m
a2m

am = .. .
.

(2.6)

anm

usual chamar os aj de vetores-coluna da matriz A. Compare (2.4) com (2.6)


e note que os aj so, de fato, as colunas de A.
A matriz


1 2 1
,
(2.7)
3 0
5


por exemplo, pode ser escrita como a1 a2 a3 , onde
 
 
 
1
2
1
a1 =
, a2 =
e a3 =
(2.8)
3
0
5
so seus vetores-coluna.
Agora podemos passar ao objetivo principal desta seo.
Definio 2.4
Seja A uma matriz n m com colunas dadas por a1 , a2 , . . . , am e seja x um
vetor de Rm de coordenadas x1 , x2 , . . . , xm . O produto de A por x, denotado
por Ax, definido como a combinao linear dos vetores a1 , . . . , am com pesos
x1 , . . . , xm , isto ,

x1


 x2

Ax = a1 a2 am .. = x1 a1 + x2 a2 + + xm am .
(2.9)
.
xm
Note que o produto Ax um vetor de Rn (onde n o nmero de linhas de A),
e que s est definido quando o nmero m de componentes de x igual ao nmero
de colunas de A. Verifique, tambm, que o produto Ax nada mais do que uma
combinao linear dos vetores-coluna de A (compare (2.3) com (2.9)).
Jones Colombo e Jos Koiller (texto em preparao)

43

Captulo 2. Vetores e Combinaes Lineares

Exemplo 2.5


2
1 2 1

3.
Vamos calcular o produto da matriz
de (2.7) pelo vetor
3 0
5
1
Usando a definio acima, temos



 
 
 
2
1 2 1
1
2
1
3 =2
+3
+ (1)
=
3 0
5
3
0
5
1
      

2
6
1
9
=
+
+
=
.
6
0
5
11


provvel que voc j tenha estudado o produto matriz-vetor no ensino mdio.


A definio 2.4 talvez no se parea muito com o produto que voc j conhece.
Mas no fique confuso, pois a expresso (2.9) dada acima coincide com o produto
habitual. Vamos verificar isso, escrevendo Ax por extenso. Se A a matriz
dada em (2.4), ento

a11
a12
a1m
a11 a12 a1m
x1
a21 a22 a2m x2
a21
a22
a2m


=
x
+
x
+

+
x
Ax = ..
..
.. ..
1 ..
2 ..
m ..
.
.
.
.
.
. .
an1 an2 anm
xm
an1
an2
anm

a11 x1 + a12 x2 + + a1m xm


a21 x1 + a22 x2 + + a2m xm

=
.
..

(2.10)

an1 x1 + an2 x2 + + anm xm

A primeira linha acima simplesmente (2.9) reescrita (verifique!) e a ltima


igualdade segue diretamente da aplicao das operaes vetoriais (veja a subseo 2.1.5). Verifique, agora, que o vetor direita, em (2.10), precisamente o
produto Ax habitual.
Proposio 2.6 (Propriedades algbricas do produto matriz-vetor)
Se A uma matriz n m qualquer, u e v so vetores de Rm , e um escalar,
ento valem as propriedades abaixo.
(a) A(u + v) = Au + Av

(b) A(u) = Au

fcil deduzir essas propriedades. Vamos verificar apenas (a), e deixamos


a verificao de (b) para o leitor (veja o exerccio p2.8). Se a1 , . . . , am so
as colunas da matriz A, e u1 , . . . , um e v1 , . . . , vm so, respectivamente, as
coordenadas de u e v, ento
A(u + v) = (u1 + v1 )a1 + (u2 + v2 )a2 + + (um + vm )am
= (u1 a1 + u2 a2 + + um am ) + (v1 a1 + v2 a2 + + vm am )
= Au + Av.
44

Jones Colombo e Jos Koiller (texto em preparao)

2.4. Notao vetorial para sistemas lineares

A primeira igualdade acima decorre diretamente da definio 2.4 (as coordenadas


de u + v so u1 + v1 , . . . , um + vm ); a segunda, das propriedades algbricas das
operaes vetoriais; e a terceira, novamente, da definio 2.4.
Aplicaes repetidas dessas propriedades permitem mostrar o seguinte resultado. Se A uma matriz n m, v1 , . . . , vq so vetores de Rm e c1 , . . . , cq so
escalares, ento

A c1 v1 + c2 v2 + + cq vq = c1 Av1 + c2 Av2 + + cq Avq .
(2.11)
Note que a expresso dentro dos parnteses, esquerda, uma combinao linear
dos vetores v1 , . . . , vq . A expresso direita, por sua vez, uma combinao
linear dos vetores Av1 , . . . , Avq . A moral da equao (2.11) dizer que o
produto matriz-vetor exibe bom comportamento com respeito a combinaes
lineares, no seguinte sentido: o produto por uma combinao linear a combinao linear dos produtos, com os mesmos pesos.
As propriedades discutidas acima tero papel crucial no captulo 5.

2.4

Notao vetorial para sistemas lineares

Os conceitos que vimos acima podem ser usados para escrever sistemas lineares
de forma mais simples e sucinta do que fizemos no captulo 1. Desejamos chamar
a ateno da leitora, ou do leitor, para este fato. Pense nesta seo como um
aparte que, de certa maneira, no pertence a este captulo, pois no traz nenhum
conceito novo sobre vetores. A notao que veremos aqui, no entanto, ser til
para as prximas sees, por isso vamos introduzi-la agora.
Vamos comear com um exemplo. O sistema de equaes lineares

x1 + 2x2 x3 =
9
(2.12)
3x1
+ 5x3 = 11
pode ser escrito, de acordo com (2.1) (pgina 36), na forma vetorial
 


x1 + 2x2 x3
9
=
.
3x1
+ 5x3
11

(2.13)

Usando as operaes definidas na seo 2.1.5, podemos reescrever (2.13) novamente como
 
 
  

1
2
1
9
x1
+ x2
+ x3
=
.
(2.14)
3
0
5
11
Representando a lista das variveis x1 , x2 e x3 como um vetor x de R3 , e usando
a definio do produto matriz-vetor, esta equao pode ser reescrita ainda como




1 2 1
9
x=
.
(2.15)
3 0
5
11

A equao acima nada mais do que um sistema linear. Enfatizamos que (2.13),
(2.14) e (2.15) so, de fato, formas diferentes de escrever o sistema (2.12). Observe
Jones Colombo e Jos Koiller (texto em preparao)

45

Captulo 2. Vetores e Combinaes Lineares

que fcil ler, diretamente de (2.15), a matriz completa desse sistema, que


1 2 1
9
.
3 0
5 11
Agora tratemos do caso geral. Um sistema qualquer de n equaes lineares
envolvendo m variveis

a11 x1 + a12 x2 + + a1m xm = b1

a21 x1 + a22 x2 + + a2m xm = b2


(2.16)
................................

an1 x1 + an2 x2 + + anm xm = bn


pode ser reescrito na forma vetorial


a11
a12
a1m
b1
a21
a22
a2m b2


x1 .. + x2 .. + + xm .. = .. .
.
.
. .
an1
an2
anm
bn

(2.17)

A equao acima igual a


x1 a1 + x2 a2 + + xm am = b,
onde os vetores a1 , a2 , . . . , am e b so dados por



a1m
a12
a11
a2m
a22
a21



a1 = .. , a2 = .. , . . . , am = ..
.
.
.
anm
an2
an1

(2.18)


b1
b2

e b = .. .
.
bn

Observe que esses so vetores de Rn , e n o nmero de equaes do sistema (2.16).


Representando a lista das variveis x1 , x2 , . . . , xm por um vetor x de Rm , e
usando o produto matriz-vetor, a equao (2.18) pode ser reescrita na forma


a1 a2 am x = b.
(2.19)


Chamando a matriz a1 am de A, como em (2.5), (2.19) torna-se
Ax = b.

(2.20)

Repare que A precisamente a matriz de coeficientes do sistema (2.16) (compare (2.16) com (2.4) da pgina 43). O vetor b o vetor dos termos independentes do sistema. A matriz completa do sistema escrita, usando a notao por
colunas, como


a1 a2 am b .


Podemos escrever essa matriz de forma ainda mais compacta como A b .
46

Jones Colombo e Jos Koiller (texto em preparao)

2.4. Notao vetorial para sistemas lineares

Enfatizamos, novamente, que (2.16), (2.17), (2.18), (2.19) e (2.20) so formas


diferentes (ordenadas da mais prolixa para a mais sucinta) de escrever o mesmo
sistema linear. Voc deve se habituar com cada uma destas notaes, pois elas
sero muito usadas. Ao deparar-se com algo como (2.18) ou (2.20), voc deve
perceber a correspondncia com (2.16) imediatamente, sem precisar pensar muito!
A notao compacta Ax = b de (2.20) ser particularmente til. Lembre-se
de que, no contexto de sistemas lineares, a matriz de coeficientes A e o vetor b
tipicamente so dados, e x o vetor cujas coordenadas so as variveis ou incgnitas x1 , . . . , xm . Voc pode pensar em x como a incgnita vetorial da
equao Ax = b.
Podemos, ento, reformular o conceito de soluo de um sistema: um vetor u
dito uma soluo do sistema linear Ax = b se Au = b, ou seja, se a igualdade
vetorial torna-se verdadeira quando substitumos x por u. O conjunto-soluo
de Ax = b o conjunto de todos os vetores u de Rm tais que Au = b.
A notao vetorial conveniente, tambm, para descrever tais conjuntossoluo. Revisitemos alguns exemplos do captulo 1, para ver como isso feito.
Exemplo 2.7
Considere o sistema (1.20) do exemplo 1.9, na pgina 22. Uma descrio paramtrica de seu conjunto-soluo dada por (1.22):

x1 = 5 + 3x3 ,

x = 3 2x ,
2
3

x3 uma varivel livre,

x4 = 0.
Usando a notao vetorial, podemos reescrever essa descrio como

x1
5 + 3x3
x2 3 2x3

x=
x3 = x3

(x3 uma varivel livre).


x4
0

(2.21)

Note que x um vetor de R4 , pois h quatro variveis no sistema (1.20). Perceba,


tambm, que a descrio (2.21) no impe nenhuma restrio genuna sobre x3 ,
j que essa uma varivel livre. As igualdades entre as terceiras coordenadas
em (2.21) dizem, simplesmente, x3 = x3 .
Podemos reescrever (2.21) em uma forma que ser ainda mais conveniente.
Para isso, colocamos em evidncia a varivel livre x3 :



x1
5 + 3x3
5
3
x2 3 2x3 3
2

= + x3 .
x=
(2.22)
x3 = x3
0
1
x4
0
0
0
Repare que a ltima igualdade acima vlida para qualquer valor de x3 . Basta
verific-la coordenada por coordenada.
Jones Colombo e Jos Koiller (texto em preparao)

47

Captulo 2. Vetores e Combinaes Lineares

Dizemos que (2.22) uma descrio vetorial paramtrica do conjuntosoluo do sistema (1.20). Vejamos mais um exemplo.
Exemplo 2.8
Considere, agora, o sistema (1.16) do exemplo 1.7, na pgina 19. Obtivemos uma
descrio paramtrica (no-vetorial) de seu conjunto-soluo em (1.18):

x1 = 3 2x2 5x4 ,

x uma varivel livre,


2

x
3 = 7 + 3x4 ,

x4 uma varivel livre.


Para obter essa descrio na forma vetorial, procedemos como no exemplo anterior. Escrevemos as variveis xj como coordenadas de um vetor x, usamos as
igualdades acima, e, depois, colocamos em evidncia as variveis livres:




2
5
x1
3 2x2 5x4
3
x2

x2
=
= 0 + x2 1 + x4 0 .
x=
x3 7 + 3x4 7
0
3
x4
x4
0
0
1
Perceba, novamente, que, com relao s variveis livres, a descrio acima diz
apenas x2 = x2 e x4 = x4 .
Exemplo 2.9
Por fim, consideramos o sistema (1.23) do exemplo 1.10, na pgina 23. A descrio
paramtrica de seu conjunto-soluo (1.25):

x1 = 24,
x2 = 7,

x3 = 4.
A descrio vetorial paramtrica, ento,

x1
24
x = x2 = 7 .
x3
4
Como observamos no exemplo 1.10, a terminologia, nesse caso, artificiosa, pois
no h parmetro algum nas descries acima. Isso porque o sistema (1.23)
no possui variveis livres.
Daqui para diante, resolver um sistema linear significar obter uma descrio
vetorial de seu conjunto-soluo, ou determinar que ele impossvel. Reveja o
procedimento descrito na subseo 1.7.3 e acrescente um stimo passo: obtenha
uma descrio vetorial paramtrica do conjunto-soluo. Com prtica, voc
ser capaz de ir diretamente do passo 4 a esse stimo passo, pulando o 5 e o 6.
Recomendamos os exerccios p2.9 e p2.10.
48

Jones Colombo e Jos Koiller (texto em preparao)

2.5. O espao gerado por vetores (o span)

2.5

O espao gerado por vetores (o span)

Nesta seo, voltamos a colocar o conceito de combinao linear em primeiro


plano. Uma rpida reviso da definio 2.2 aconselhvel (ver pgina 40).
Dado um conjunto de vetores de Rn , podemos considerar o conjunto de todas
as suas combinaes lineares (conforme a definio a seguir). O resultado um
tipo especial de subconjunto de Rn , chamado subespao, que tem grande importncia em lgebra linear. Estudaremos subespaos de Rn no captulo 4, mas,
at l, vamos usar essa terminologia sem muita justificativa. Por ora, considere
que um subespao meramente um subconjunto de Rn , com certas propriedades
especiais que sero discutidas mais adiante.
Definio 2.10
Dados os vetores a1 , a2 , . . . , am de Rn , o conjunto de todas as suas combinaes
lineares chamado de subespao gerado por a1 , a2 , . . . , am , e denotado
por Span{a1 , a2 , . . . , am }. Em outras palavras, Span{a1 , . . . , am } o conjunto de
todos os vetores de Rn que podem ser escritos na forma
x1 a1 + x2 a2 + + xm am ,
onde x1 , x2 , . . . , xm so escalares (pesos) quaisquer.
Enfatizamos que Span{a1 , . . . , am } um subconjunto de Rn , onde n o nmero de coordenadas dos vetores a1 , . . . , am . No confunda n com m!
Observao
A expresso o subespao gerado por a1 , . . . , am traduz-se para o ingls como the
span of a1 , . . . , am (da a notao Span{a1 , . . . , am }). O substantivo span, em ingls
corrente, significa algo como regio (ou perodo) de abrangncia, alcance ou alada. Assim, dizer que b est no span de a1 , . . . , am dizer que b est ao alcance
(via combinaes lineares) dos vetores a1 , . . . , am . Dizer que b no pertence ao span
de a1 , . . . , am como dizer que b est fora da alada desses vetores. Continuaremos a cometer esses anglicismos ocasionalmente, e faremo-lo sem remorso, porque o
significado corrente de span nos ajuda a ilustrar o conceito matemtico.

fcil descrever geometricamente subespaos gerados por vetores de R2 ou


de R3 , como mostra o exemplo a seguir. Os exerccios p2.16, p2.17, p2.21 e p2.22
contm mais exemplos dessa natureza (especialmente o ltimo).
Exemplo 2.11
Considere os vetores u e v de R3 ilustrados na figura 2.6(a). O span de u e v
precisamente o plano que contm ambos os vetores. Em outras palavras, qualquer
vetor desse plano pode ser escrito como uma combinao linear de u e v, mas
vetores que no se encontram nesse plano esto fora do alcance de u e v, isto
, no so combinaes lineares desses dois vetores.
Os vetores u0 e v0 de R3 , ilustrados na figura 2.6(b), por outro lado, so colineares (ou seja, esto ambos contidos em uma mesma reta) e no-nulos. Isso
implica que qualquer combinao linear de tais vetores simplesmente um mltiplo de u0 (ou de v0 ), conforme o exerccio p2.20. O span de u0 e v0 , portanto,
justamente a reta que contm esses vetores.
Jones Colombo e Jos Koiller (texto em preparao)

49

Captulo 2. Vetores e Combinaes Lineares

x3

x3

v
u

u
v

x1

x1
x2

x2

(b)

(a)

Figura 2.6: Span{u, v} o plano hachurado em (a). J Span{u0 , v0 } a reta


ilustrada em (b).
Determinar se um vetor b Rn pertence a Span{a1 , . . . , am } o mesmo que
determinar se b uma combinao linear dos vetores a1 , . . . , am .7
Vejamos como se faz essa determinao na prtica.
Exemplo 2.12
Considere os vetores de R3 dados por


1
1

2 , a2 = 3
a1 =
1
2

2
e b = 3 .
5

(2.23)

Determine se b pertence a Span{a1 , a2 }.


Soluo: Temos que determinar se b uma combinao linear de a1 e a2 , ou seja,
se existem escalares (pesos) x1 e x2 tais que x1 a1 + x2 a2 = b. Escrevendo essa
equao vetorial por extenso, obtemos


1
1
2
x1 2 + x2 3 = 3 .
(2.24)
1
2
5
Portanto, b uma combinao linear de a1 e a2 se e somente se a equao (2.24)
tem soluo. Como foi discutido na seo anterior, essa equao corresponde
exatamente ao sistema linear

x1 + x2 = 2
2x1 + 3x2 = 3

x1 + 2x2 = 5.
7

Esta afirmativa trivial, pois Span{a1 , . . . , am } definido como o conjunto das combinaes lineares de a1 , . . . , am (definio 2.10). Seria como dizer: Determinar se o ornitorrinco
pertence ao conjunto dos mamferos o mesmo que determinar se o ornitorrinco um mamfero.
O ornitorrinco, a propsito, um mamfero.

50

Jones Colombo e Jos Koiller (texto em preparao)

2.5. O espao gerado por vetores (o span)

Determinar se um sistema possvel um problema que j conhecemos (ver


as subsees 1.7.2 e 1.8.1, em particular as proposies 1.11 e 1.12). Escalonando
a matriz completa do sistema (2.24), obtemos

2
2
2
1 1
1 1
1 1
`2 `2 2`1
`3 `3 3`2
2 3
3
0 1 1
0 1 1 .
(2.25)
`3 `3 +`1
1 2 5
0 3 3
0 0
0
Como no h linhas do tipo (1.26) na matriz escalonada obtida (no h equaes
do tipo 0 = no sistema associado), o sistema (2.24) possvel. Portanto, b
uma combinao linear dos vetores a1 e a2 . Com isso, chegamos ao fim do
exerccio e seguinte concluso: o vetor b pertence a Span{a1 , a2 }.
Observe que no foi necessrio resolver o sistema (2.24) completamente para
responder questo proposta. Em particular, no foi necessrio obter a forma
escalonada reduzida em (2.25). No entanto, se quisermos escrever b explicitamente como combinao linear de a1 e a2 , ento, a sim, ser necessrio resolver
o sistema (2.24). Verifique que a (nica) soluo do sistema (2.24) x1 = 3,
x2 = 1, e, portanto, vale b = 3a1 a2 .
Exemplo 2.13
h 2i
Determine se o vetor d = 52 pertence a Span{a1 , a2 }, onde a1 e a2 so os
vetores de R3 do exemplo anterior.

Soluo: Procedemos como no caso anterior. Queremos determinar se o sistema


x1 a1 + x2 a2 = d possvel. Para isso, escalonamos a sua matriz completa:

2
2
2
1 1
1 1
1 1
`2 `2 2`1
`3 `3 3`2
2 3
2
0 1 2
0 1 2
`3 `3 +`1
1 2 5
0 3 3
0 0
3
O sistema x1 a1 + x2 a2 = d impossvel, pois equivalente a um sistema que tem
a equao 0 = 3, como se pode ver acima. Portanto, d no uma combinao
linear de a1 e a2 , isto , d no pertence a Span{a1 , a2 }.
Observao 2.14
O vetor zero de Rn sempre pertence a Span{a1 , . . . , am }, quaisquer que sejam os
vetores a1 , . . . , am de Rn , pois
0n = 0a1 + 0a2 + + 0am .
Ou seja, o vetor zero sempre uma combinao linear de a1 , . . . , am .
Observao 2.15
Cada um dos vetores a1 , . . . , am tambm sempre pertence a Span{a1 , . . . , am }.
Para verificar que a1 Span{a1 , . . . , am }, por exemplo, basta observar que a1 =
1a1 + 0a2 + + 0am . A verificao para os outros vetores anloga.
Jones Colombo e Jos Koiller (texto em preparao)

51

Captulo 2. Vetores e Combinaes Lineares

Existem diversas maneiras de se dizer que um vetor b de Rn pertence ao subespao gerado por a1 , . . . , am . Para a sua convenincia, reunimos as mais usuais
na proposio a seguir.8
Proposio 2.16
As seguintes afirmativas so equivalentes (isto , ou so todas verdadeiras, ou
ento so todas falsas):
(a) b Span{a1 , a2 , . . . , am }.9
(b) b gerado por a1 , . . . , am .10
(c) b uma combinao linear dos vetores a1 , a2 , . . . , am .
(d) Existe ao menos uma lista de pesos x1 , . . . , xm tal que b = x1 a1 + +xm am .
(e) O sistema linear x1 a1 + x2 a2 + + xm am = b possvel.
Esperamos que a equivalncia entre as afirmativas esteja clara, luz das definies e dos exemplos acima. Geralmente, a afirmativa (e) usada na prtica
para determinar se as outras valem ou no (como foi feito nos exemplos 2.12
e 2.13).

2.6

O espao-coluna de uma matriz

A definio a seguir est intimamente relacionada definio 2.10.


Definio 2.17

Seja A = a1 a2 am uma matriz n m. O espao das colunas de A o
subespao gerado pelos vetores a1 , a2 , . . . , am de Rn . Denotamos o espao das
colunas de A por Col A.
Em smbolos, a definio diz que Col A = Span{a1 , . . . , am }, onde a1 , . . . , am
so os vetores-coluna de A. O espao das colunas tambm chamado de espao
gerado pelas colunas ou, simplesmente, de espao-coluna de A.
Note que o espao-coluna de A um subconjunto de Rn , onde n o nmero
de linhas da matriz A. O conjunto Col A , de fato, um subespao de Rn , como
veremos no captulo 4.
Exemplo 2.18
Sejam

1 1
A = 2 3 ,
1 2

2
b = 3
5

Determine se b e d pertencem a Col A.

2
e d = 2 .
5

Admitimos que h muita redundncia no enunciado da proposio. Nossa inteno ajudar


o leitor a assimilar os conceitos e abordar os exerccios. Pecamos pela prolixidade, mas no
pela falta de clareza (ou assim esperamos).
9
Lembre que o smbolo significa pertence a.
10
Introduzimos essa terminologia na pgina 40.

52

Jones Colombo e Jos Koiller (texto em preparao)

2.7. Conjuntos que geram Rn

Soluo: Isso uma mera repetio dos exemplos 2.12 e 2.13. De fato, por definio Col A = Span{a1 , a2 }, onde a1 e a2 so os vetores-coluna de A, dados
em (2.23), na pgina 50. J sabemos que b Span{a1 , a2 } (exemplo 2.12) e que
d 6 Span{a1 , a2 } (exemplo 2.13), portanto, b Col A e d 6 Col A.
A questo est solucionada, mas vamos explorar esse exemplo um pouco mais.
Vimos, no exemplo 2.12, que b Span{a1 , a2 }, j que o sistema x1 a1 +x2 a2 = b
possvel. Esse sistema pode ser escrito na forma compacta Ax = b (ver seo 2.4).
Similarmente, o sistema x1 a1 + x2 a2 = d pode ser escrito como Ax = d. No
exemplo 2.13, vimos que esse sistema impossvel, logo d 6 Span{a1 , a2 }.
Em sntese, b Col A = Span{a1 , a2 }, pois o sistema Ax = b possvel.
J d 6 Col A, pois o sistema Ax = d impossvel.
Generalizando o exemplo acima, temos o resultado a seguir.
Proposio 2.19
Seja A uma matriz n m qualquer. Um vetor b de Rn pertence a Col A se e
somente se o sistema linear Ax = b possvel.


De fato, se A = a1 am , ento Col A = Span{a1 , . . . , am }. Dizer que
b Span{a1 , . . . , am } equivale a dizer que o sistema x1 a1 + + xm am = b
possvel (ver afirmativas (a) e (e) na proposio 2.16). Esse sistema, por sua vez,
exatamente o sistema Ax = b.
Podemos, assim, estender a proposio
2.16, acrescentando
mais algumas afir

mativas equivalentes. Quando A = a1 a2 am , estas so formas compactas de escrever as afirmativas (a), (b), (c) e (e), respectivamente:
(a0 ) b Col A.
(b0 ) b gerado pelas colunas de A.
(c0 ) b uma combinao linear das colunas de A.
(e0 ) O sistema linear Ax = b possvel.

2.7

Conjuntos que geram Rn

Dados os vetores a1 , a2 , . . . , am e y de Rn , j sabemos abordar o problema:


o vetor y gerado por a1 , . . . , am ? A chave est na afirmativa (e) da proposio 2.16: basta determinar se o sistema
x1 a1 + x2 a2 + + xm am = y

(2.26)

possvel. Uma questo mais interessante determinar se os vetores a1 , . . . , am


so capazes de gerar qualquer vetor de Rn .
Definio 2.20
Se o sistema (2.26) tem soluo, qualquer que seja o vetor y de Rn , dizemos
que o conjunto {a1 , a2 , . . . , am } gera o Rn . Podemos tambm dizer, mais
informalmente, que os vetores a1 , . . . , am geram o Rn .
Jones Colombo e Jos Koiller (texto em preparao)

53

Captulo 2. Vetores e Combinaes Lineares

Caracterizar os conjuntos que geram Rn uma questo importante em lgebra


linear. Antes de abordar essa questo no contexto geral, vamos considerar dois
exemplos.
Exemplo 2.21
Sejam

1
a1 = 2 ,
1

a2 = 3
2

1 .
e a3 =
10

Vamos investigar se o conjunto {a1 , a2 , a3 } gera o R3 .


Comeamos reformulando essa questo. O que queremos saber se qualquer
vetor y de R3 pode ser gerado por a1 , a2 e a3 , isto , se o sistema
x1 a1 + x2 a2 + x3 a3 = y

(2.27)

possvel para qualquer escolha de y.


Vamos denotar as coordenadas de y por y1 , y2 e y3 , e abordar essa questo
exatamente como nos exemplos 2.12 e 2.13. Assim, vamos escalonar a matriz
completa do sistema (2.27):

1 1 1
y1
1 1 1 y1
`2 `2 2`1
2 3
1 y2
3 y2 2y1
0 1
`3 `3 +`1
1 2 10 y3
0 3
9 y3 + y1

1 1 1
y1
`3 `3 3`2
3
2y1 + y2 (2.28)

0 1
0 0
0 7y1 3y2 + y3

A posio hachurada a chave de nossa investigao. Perceba que essa pode ou


no ser uma posio-piv da matriz completa, dependendo do valor de 7y1 3y2 +
y3 . Se esse valor for igual a zero, ento a ltima coluna da matriz completa ser
no-piv, e o sistema (2.27) ser possvel. Por outro lado, se o valor for diferente
de zero, ento a terceira linha da matriz escalonada obtida acima representar
uma equao do tipo 0 = . Em outras palavras, a ltima coluna da matriz
completa ser uma coluna-piv, e, nesse caso, o sistema (2.27) ser impossvel.
O conjunto {a1 , a2 , a3 }, portanto, no gera o R3 , pois, como acabamos de ver,
no para qualquer vetor y que o sistema (2.27) possvel. hOu
i seja, existem
1
3
0
vetores de R que no so gerados por a1 , a2 e a3 . O vetor y = 0 um exemplo
0
(h muitos houtros),
pois,
nesse
caso,
7y

3y
+
y
=
7
=
6
0.
Por
outro lado, o
1
2
3
i
0
00
vetor y = 1 gerado por a1 , a2 e a3 (verifique!). A descrio do conjunto dos
3
vetores que so gerados por a1 , a2 e a3 o objetivo do exerccio p2.21.
Cuidado!
Frisamos que a chave na discusso acima o valor de 7y1 3y2 + y3 , que ocupa a
posio talvez piv, talvez no na matriz escalonada em (2.28). O valor de y3 ,
que ocupa esta posio na matriz completa original, tem pouca relevncia nesta
54

Jones Colombo e Jos Koiller (texto em preparao)

2.7. Conjuntos que geram Rn

discusso. Ou seja, o valor de y3 , por si s, no determina se o sistema (2.27)


ou no possvel. O fato de que y3 ocupa a posio indecisa na matriz completa
original irrelevante. At porque poderamos permutar a linha 3 por outra, e,
ento, y1 ou y2 passaria a ocupar tal posio. O y3 no especial.
Exemplo 2.22
Sejam

1
a1 = 2 ,
1

a2 = 3 ,
2

1
a3 =
10

e a4 = 0 .
0

Vamos, agora, investigar se o conjunto {a1 , a2 , a3 , a4 } gera o R3 .


Para isso, procedemos como no exemplo anterior, escalonando a matriz completa do sistema
x1 a1 + x2 a2 + x3 a3 + x4 a4 = y,
(2.29)
onde y

1
2
1

, mais uma vez, um vetor qualquer de R3 , de coordenadas y1 , y2 e y3 .

1 1 1
1 1 1 y1
1
y1
`2 `2 2`1
3
1 0 y2
3 2 y2 2y1
0 1
`3 `3 +`1
2 10 0 y3
0 3
9
1 y3 + y1

1 1 1
1
y1
`3 `3 3`2
3 2
2y1 + y2 (2.30)

0 1
0 0
0
7 7y1 3y2 + y3

A situao agora bastante diferente daquela do exemplo anterior. A ltima


coluna da matriz completa do sistema (2.29) nunca ser piv, no importa quais
forem os valores de y1 , y2 e y3 .11 O sistema (2.29), portanto, sempre possvel,
para qualquer vetor y de R3 . Assim, o conjunto {a1 , a2 , a3 , a4 } gera o R3 .
Queremos caracterizar os conjuntos que geram Rn , e usaremos os exemplos
acima para nos guiarmos. Qual a distino essencial entre esses dois exemplos,
no contexto desta questo?


Observe que a matriz de coeficientes a1 a2 a3 do sistema (2.27) possui
uma linha sem posio-piv: a terceira
 (ver (2.28)).  Isso d margem para que
a ltima coluna da matriz completa a1 a2 a3 y seja, para alguns valores
de y, uma coluna-piv, como vimos no exemplo 2.21. Para tais valores de y, o
sistema (2.27) ser impossvel.


A matriz de coeficientes a1 a2 a3 a4 do sistema (2.29), por outro lado,
possui uma posio-piv em cada uma de suas trs linhas (ver (2.30)). Isso fecha
o cerco de tal forma que a ltima coluna da matriz completa a1 a2 a3 a4 y
nunca poder ser uma coluna-piv. De fato, cada linha da forma escalonada
em (2.30) j possui um elemento lder em uma coluna anterior ltima, portanto,
no h como encaixar mais um elemento lder nesta ltima coluna (verifique!).
Dessa forma, a sistema (2.29) ser sempre possvel.
Isso motiva o resultado principal desta seo.
11

Verifique esta afirmativa, examinando a forma escalonada em (2.30)!

Jones Colombo e Jos Koiller (texto em preparao)

55

Captulo 2. Vetores e Combinaes Lineares

Teorema 2.23
n
Sejam a1 , a2 , . . . , am vetores
{a1 , a2 , . . . , am } gera o Rn se
 de R . O conjunto

e somente se a matriz A = a1 a2 am possui uma posio-piv em cada
uma de suas n linhas.
Demonstrao: Por definio, o conjunto {a1 , a2 , . . . , am } gera Rn se e somente se
o sistema Ax = y sempre possvel, qualquer que seja o vetor y de Rn (lembre-se
de que esse sistema o mesmo que (2.26)). Vamos mostrar que o sistema Ax = y
sempre possvel se e s se A possui uma posio-piv em cada linha.
Seja F uma forma escalonada da matriz A. Dado um y Rn qualquer,
podemos escalonar a matriz completa do sistema Ax = y:
 escalonamento 


A y F z .
(2.31)
(operaes-linha)

O vetor z o vetor obtido aplicando-se sobre y as mesmas operaes-linha que


levam A at F . Observe que os sistemas Ax = y e F x = z so equivalentes.
Se a matriz A possuir uma posio-piv em cada linha, a matriz escalonada
F
ter

 um elemento lder em cada linha. A ltima coluna da matriz completa
F z , portanto, nunca ser uma coluna-piv, no importa qual seja o valor de
z (ou de y).12 Sendo assim, o sistema F x = z ser sempre possvel, e o mesmo
valer para o sistema equivalente Ax = y.
Se, por outro lado, a matriz A no tiver uma posio-piv em cada linha, ento
a ltima linha da matriz escalonada F ser, necessariamente, toda de zeros.13
Considere, ento, um vetor z0 de Rn cuja ltima coordenada zn0 seja diferente de
zero (zn0 = 1, por exemplo). O sistema F x = z0 ser, evidentemente, impossvel,
pois sua ltima equao ser do tipo 0 = 1. Agora considere o vetor y0 de Rn
obtido ao se aplicar sobre z0 as operaes-linha que revertem o processo (2.31)
acima, isto ,




des-escalonamento
F z0 A y0 .
(operaes-linha reversas)

O sistema Ax = y0 equivalente ao sistema impossvel F x = z0 , portanto ser,


ele prprio, impossvel. Assim, no para qualquer escolha de y que o sistema
Ax = y ser possvel.
Observe que, no caso em que a matriz A no tem uma posio-piv em cada
linha, a prova do teorema d uma receita para a construo de um vetor y0
de modo que o sistema Ax = y0 seja impossvel (essa dica poder ajud-los na
resoluo do exerccio p2.31).
Mais uma vez, h muitas formas de se afirmar que um conjunto {a1 , . . . , am }
gera Rn . Para a convenincia do leitor, enumeramos vrias delas a seguir.
Teorema 2.24
n
Sejam
 a1 , a2 , . . . , am vetores de R , e seja A a matriz de tamanho n m dada
por a1 a2 am . As seguintes afirmativas so equivalentes:
12

A situao, nesse caso, como a do exemplo 2.22: o cerco


 est
 fechado, e no h maneira
de encaixar mais um elemento lder na ltima coluna de F z .
13
Do contrrio, A teria uma posio-piv em cada linha, no mesmo? A situao aqui
como a do exemplo 2.21.

56

Jones Colombo e Jos Koiller (texto em preparao)

2.7. Conjuntos que geram Rn

(a) Span{a1 , . . . , am } = Rn .
(b) O conjunto {a1 , a2 , . . . , am } gera o Rn .
(c) Os vetores a1 , a2 , . . . , am geram o Rn .
(d) Qualquer y Rn uma combinao linear dos vetores a1 , a2 , . . . , am .
(e) Para qualquer y Rn , existe ao menos uma lista de pesos x1 , . . . , xm tal
que y = x1 a1 + + xm am .
(f) Para qualquer y Rn , o sistema linear x1 a1 + + xm am = y possvel.
(g) Para qualquer y Rn , o sistema linear Ax = y possvel.
(h) Col A = Rn .
(i) A matriz A possui uma posio-piv em cada uma de suas n linhas.
A equivalncia entre (b) e (i) precisamente o teorema 2.23, e a equivalncia
entre as afirmativas (a) a (h) decorre, diretamente, das definies deste captulo.
Encorajamos que voc faa a verificao de tais fatos. Essa tarefa ser um bom
exerccio de fixao dos conceitos. As seguintes consideraes podem ajudar.
A equivalncia entre (a) e (d) uma mera questo de linguagem: escrever
Span{a1 , . . . , am } = Rn se traduz, em palavras, para o conjunto das combinaes
lineares (o span) de a1 , . . . , am igual ao Rn todo, ou seja, qualquer
vetorde Rn

uma combinao linear de a1 , . . . , am . Sob a hiptese A = a1 am , vale
Col A = Span{a1 , . . . , am }, portanto, a equivalncia entre (a) e (h) imediata.
Em geral, a afirmativa (i) que usada na prtica para testar se todas as
outras valem ou no. Ela tambm a chave para demonstrar o seguinte resultado.
Proposio 2.25
Se os vetores a1 , a2 , . . . , am geram o Rn , ento, necessariamente, vale m > n.


Demonstrao: A matriz nm dada por A = a1 a2 am tem uma posiopiv em cada uma de suas n linhas, uma vez que a afirmativa (i) do teorema 2.24
equivalente hiptese desta proposio. Isto implica que A tem exatamente
n posies-piv, pois uma matriz (qualquer que seja) no pode ter mais do que
uma posio-piv por linha.
O nmero m de colunas de A, portanto, no pode ser menor do que n. Do
contrrio, a matriz A no poderia ter n posies-piv. Ela permitiria, no mximo,
m posies-piv, pois uma matriz qualquer tambm no pode ter mais do que
uma posio-piv por coluna. Veja o exerccio p1.19 do captulo 1.
A proposio 2.25 simples, mas importante. Uma outra forma de enuncila (a contrapositiva) dizer que se m < n, ento os vetores a1 , a2 , . . . , am no
podem gerar Rn (e, portanto, no podem satisfazer nenhuma das afirmativas do
teorema 2.24).
Isso bastante intuitivo. Dois vetores de R3 , por exemplo, nunca podero
gerar o R3 todo. Eles podero gerar, no mximo, um plano dentro de R3 , como
Jones Colombo e Jos Koiller (texto em preparao)

57

Captulo 2. Vetores e Combinaes Lineares

no caso dos vetores u e v do exemplo 2.11 (ver tambm o exerccio p2.22). Analogamente, dezesseis vetores, ou menos, em R17 jamais podero gerar o R17 todo.
Cuidado!
As recproca da proposio 2.25 no verdadeira, ou seja, a condio m > n
no garante que valham as afirmativas do teorema 2.24. Em particular, trs ou
mais vetores de R3 no geram, necessariamente, o R3 (ver o exemplo 2.21). Similarmente, dezessete (ou mais) vetores em R17 no geram, necessariamente, o
R17 todo. Para determinar se um dado conjunto de vetores gera Rn , necessrio verificar diretamente uma das afirmativas do teorema 2.24 (geralmente a
afirmativa (i), como mencionamos).

Exerccios propostos
P2.1.
P2.2.

Sejam x =

3
2

,y=

1
2

ez=

0
4

. Calcule o vetor 2x 6y + 3z.

Represente um sistema de coordenadas cartesianas em uma folha de papel


quadriculado. Posicione a origem bem no centro da folha, para que voc
tenha bastante espao. Complete os itens abaixo, cuidadosamente, usando
um par de esquadros.
(a) Represente os vetores x, y e z do exerccio anterior no sistema de
coordenadas.
(b) Agora represente os vetores 2x, 6y e 3z.
(c) Obtenha, graficamente, o vetor 2x + (6y), usando a regra do paralelogramo.

(d) Obtenha agora, graficamente, o vetor 2x + (6y) + 3z, usando, novamente, a regra do paralelogramo.
(e) Verifique que o vetor resultante, obtido graficamente, coincide com
aquele obtido no exerccio anterior.

2
2
5 3
1
1
1
4 2
P2.3. Calcule o produto 0
1 de duas maneiras distintas:
3 4
0
2
3
(a) usando a definio 2.4, como no exemplo 2.5;
(b) usando o mtodo usual empregado no ensino mdio.
Perceba que os resultados so idnticos.
P2.4.

58

Determine quais dos produtos abaixo esto definidos (alguns deles no


fazem sentido). Calcule aqueles que estiverem.
Jones Colombo e Jos Koiller (texto em preparao)

Exerccios


 
2 1
3
(a)
1 1 1


4 1
2

2 0
4
(c)
1 2
1


1 0 0 a
(e) 0 1 0 b
0 0 1
c


 x
(g) 3 5 7 y
z


 1
3 1 6
3
2 0
3
2

1 6  
3
0
9
0
4
1
 

 x
3 5 7
y


1 2 3 0
4 5 6 0
7 8 9 0


(b)

(d)

(f)

(h)

P2.5.

Escreva a combinao linear 2x6y +3z do exerccio p2.1 como o produto


de uma matriz 2 3 por um vetor de R3 . Observe que as coordenadas de
tal vetor correspondem aos pesos na combinao linear.

P2.6.

Seja A uma matriz n m qualquer. Mostre que A0m = 0n . (Lembre-se


de que 0m o vetor-zero de Rm e 0n o vetor-zero de Rn .) Dica: Use a
definio do produto matriz-vetor, e verifique que A0m uma combinao
linear com pesos todos iguais a zero.

P2.7.

Seja x um vetor de Rm qualquer. Mostre que 0 x = 0n , onde 0 a matriz


n m com entradas todas iguais a zero.

P2.8.

Verifique a propriedade (b) do produto de matriz por vetor (proposio 2.6,


na pgina 44). Sugesto: Escreva A coluna por coluna e u coordenada por
coordenada.

P2.9.

Use o mtodo de escalonamento para resolver o sistema linear (2.15) (pgina 45). Obtenha uma descrio vetorial paramtrica do conjunto-soluo,
como nos exemplos 2.7, 2.8 e 2.9.

Considere os sistemas dos exerccios p1.10 e p1.11 do captulo 1. Fornea


uma descrio vetorial paramtrica do conjunto-soluo de cada um que for
possvel. Sugesto: Aproveite o trabalho j realizado.


 
4 1 3
9
P2.11. Sejam A =
eb=
. Escreva a equao Ax = b explici1
2 0
5
tamente como um sistema de equaes lineares. Esse sistema tem quantas
variveis? E quantas equaes? Compare esses nmeros com o tamanho da
matriz A. Escreva a matriz completa

 do sistema explicitamente, e perceba
que faz sentido denot-la por A b .
P2.10.

Escreva o sistema (1.16) (pgina 19) na forma Ax = b. Em outras


palavras, determine A e b tais que o sistema (1.16) seja escrito nessa forma.
Qual o tamanho da matriz A? E do vetor b? Compare com o nmero de
variveis e de equaes do sistema (1.16).

P2.12.

Jones Colombo e Jos Koiller (texto em preparao)

59

Captulo 2. Vetores e Combinaes Lineares

Em cada item a seguir, determine se o vetor b uma combinao linear


dos vetores a1 , a2 , . . . , am . Inspire-se nos exemplos 2.12 e 2.13.



3
1
0

(a) a1 = 1 , a2 = 2 e b = 14.
5
2
2



3
1
1
(b) a1 = 1, a2 = 2 e b = 2.
5
2
3




3
1
0
1
(c) a1 = 1, a2 = 2, a3 = 14 e b = 2.
5
2
2
3




1
2
7
3
0
3
6
6




(d) a1 =
1, a2 = 1, a3 = 1 e b = 3.
2
0
6
2

P2.13.

Um vetor de R5 pode ser uma combinao linear de vetores de R8 ? E um


vetor de R8 pode pertencer ao span de vetores de R5 ? Justifique.
h 2i
h i
1
3
P2.15. Sejam a1 =
e a2 = 1 . verdade que Span{a1 , a2 } um subcon1

P2.14.

junto de R ? um subconjunto de R3 ? Justifique.


 
P2.16. Seja u = 43 . O conjunto Span{u} contm os vetores de R2 que podem
ser escritos na forma u, ou seja, Span{u} o conjunto de todos os mltiplos
escalares de u, certo?
 
(a) Verifique que um vetor v = vv12 pertence a Span{u} se e somente se
suas coordenadas satisfazem a relao 3v1 4v2 = 0. Lembre-se de
que esta a equao de uma reta no plano R2 . Essa reta, portanto,
a representao geomtrica de Span{u}.
(b) Represente u, geometricamente, por uma seta em uma folha de papel
quadriculado. Trace a reta Span{u} no mesmo esboo. Observe que
ela a reta que contm a seta u.
 
 
P2.17. Sejam u = 43 e v = 02 .
(a) Verifique que u e v geram R2 . Dica: Use o teorema 2.23.
(b) Relembre que o tem anterior equivale a dizer Span{u, v} = R2 (teorema 2.24).
(c) Conclua que Span{u, v} representado geometricamente pelo plano
R2 todo.
(d) Represente os vetores u e v em uma folha de papel quadriculado, e
observe que esses vetores no so colineares.
Verifique que o subespao gerado pelo vetor zero de Rn o subconjunto
de Rn que contm apenas o prprio vetor zero, isto , Span{0} = {0}. Dica:
Quais so os mltiplos do vetor zero?

P2.18.

60

Jones Colombo e Jos Koiller (texto em preparao)

Exerccios

Dizemos que dois vetores u e v de Rn so colineares quando u um


mltiplo escalar de v ou vice-versa. A figura 2.6(b) ilustra um exemplo em
R3 : os vetores u0 e v0 so colineares.

P2.19.

(a) Suponha que u e v sejam no-nulos. Mostre que u um mltiplo


escalar de v se e somente se v um mltiplo escalar de u. Dica: Escreva u = kv para algum escalar k, e argumente, usando as hipteses,
que k 6= 0.
(b) Agora, suponha que u seja no-nulo, mas que z = 0. Mostre que esses
vetores so automaticamente colineares. (Dica: Verifique que z
um mltiplo de u.) Mostre, no entanto, que u no um mltiplo de z.
(a) Suponha que u0 e v0 sejam vetores colineares e no-nulos em Rn
(como na figura 2.6(b)). Mostre que qualquer combinao linear x1 u0 +
x2 v0 pode ser escrita na forma u0 e na forma v0 . Em outras palavras,
qualquer combinao linear de u0 e v0 , simplesmente, um mltiplo escalar de u0 (ou de v0 ). Isso equivale a dizer Span{u0 , v0 } = Span{u0 } =
Span{v0 }, certo?
(b) Agora, suponha que u0 seja no-nulo, mas que v0 = 0. Mostre que
Span{u0 , v0 } = Span{u0 }, mas que Span{v0 } no coincide com esse
conjunto. De fato, neste caso Span{v0 } = {0}, conforme o exerccio p2.18.

P2.20.

Considere os vetores a1 , a2 e a3 do exemplo 2.21 (pgina 54). Neste


exerccio, vamos descrever geometricamente o conjunto Span{a1 , a2 , a3 }.

P2.21.

(a) Mostre que um vetor y R3 gerado por a1 , a2 e a3 se e somente se


suas coordenadas satisfazem a relao
7y1 3y2 + y3 = 0.

(2.32)

Dica: Aproveite o trabalho j desenvolvido no exemplo 2.21.


(b) Recorde-se (do ensino mdio, ou de um curso de geometria analtica)
de que (2.32) a equao de um plano em R3 passando pela origem.
(c) Convena-se (usando as definies deste captulo) que o item (a) deste
exerccio pode ser reformulado da seguinte maneira: O span de a1 , a2
e a3 o conjunto dos vetores de R3 que esto no plano dado por (2.32).
Ou, mais sucintamente: Span{a1 , a2 , a3 } o plano dado por (2.32).
(d) Verifique que cada um dos vetores a1 , a2 e a3 pertence ao plano (2.32)
(e no poderia ser de outra maneira, em vista da observao 2.15).
Esses vetores, portanto, so coplanares: os trs esto contidos num
mesmo plano. Observe, no entanto, que eles no so colineares.
A figura 2.7 ilustra essa situao, em que os trs vetores a1 , a2 e a3 de R3
geram um plano passando pela origem.14 Denotamos o plano por W .
14

A caixa pontilhada est na figura para realar sua tridimensionalidade, mas note que os
eixos x1 e x2 no atravessam as faces laterais perpendicularmente (isto , a caixa torta com
relao aos eixos).

Jones Colombo e Jos Koiller (texto em preparao)

61

Captulo 2. Vetores e Combinaes Lineares

x3
a3

a2
a1

x2

x1

Figura 2.7: O plano W gerado por a1 , a2 e a3 (veja o exerccio p2.21).


Convena-se dos fatos abaixo. Demonstraes rigorosas no so necessrias aqui, pois o objetivo apenas o de desenvolver a intuio geomtrica.
Faa esboos, imagens mentais, ou grficos auxiliados por computador.

P2.22.

(a) Se u R2 um vetor no-nulo, ento Span{u} uma reta contendo


a origem no plano R2 (ver o exerccio p2.16).
(b) Se u e v so vetores no-colineares em R2 , ento Span{u, v} o
plano R2 todo (ver o exerccio p2.17).
(c) Se u e v so vetores colineares em R2 , ento Span{u, v} uma reta
contendo a origem no plano R2 .
(d) Se u R3 um vetor no-nulo, ento Span{u} uma reta contendo
a origem no espao R3 .
(e) Se u e v so vetores no-colineares em R3 , ento Span{u, v} um
plano contendo a origem no espao R3 (ver a figura 2.6(a)).
(f) Se u0 e v0 so vetores colineares em R3 , ento Span{u0 , v0 } uma reta
contendo a origem no espao R3 (ver a figura 2.6(b)).
(g) Se u, v e w so vetores no-coplanares em R3 , ento Span{u, v, w}
o espao R3 todo.
(h) Se u, v e w so vetores coplanares, porm no-colineares em R3 , ento
Span{u, v, w} um plano contendo a origem no espao R3 (ver o
exerccio p2.21).
(i) Se u, v e w so vetores colineares em R3 , ento Span{u, v, w} uma
reta contendo a origem no espao R3 .

3
2
P2.23. Seja A = 2 1. Em cada item, determine se o vetor dado pertence
7
4
a Col A. Inspire-se no exemplo 2.18 e na proposio 2.19.
62

Jones Colombo e Jos Koiller (texto em preparao)

Exerccios

3
(a) u = 5.
5

(b) v = 2.
5

possvel resolver, simultaneamente,


ambos
os itens da questo anterior,


via o escalonamento da matriz A u v . Explique como isso possvel.
Sugesto: Primeiro, faa o escalonamento proposto.

P2.24.

Seja B uma matriz 6 4. Col B um subconjunto de qual espao


ambiente? De R6 ou de R4 ?

P2.25.

Nas afirmativas abaixo, A representa uma matriz n m. Determine se


cada uma verdadeira ou falsa. Justifique.

P2.26.

Sempre vale Col A = Rn .


Col A sempre um subconjunto de Rn .
Col A sempre um subconjunto de Rm .
Cada coluna de A pertence ao seu espao-coluna Col A. Dica: Veja a
observao 2.15.
(e) O espao-coluna de A o conjunto que contm apenas as colunas de A.
(f) O espao-coluna de A o conjunto gerado por seus vetores-coluna.
(g) Se y Col A, ento y um vetor de Rn que pode ser escrito como
uma combinao linear dos vetores-coluna de A.


P2.27. Seja C a matriz c1 c2 cp , onde cj so vetores de Rq , e seja z um
vetor qualquer de Rq . Qual o tamanho da matriz C? Escreva uma lista
com diversas maneiras distintas de dizer z Col C.




3
2
3
2

5 e a4 = 2. Determine quais
P2.28. Sejam a1 = 2 , a2 = 1 , a3 =
7
4
5
5
dos conjuntos abaixo geram R3 . Dica: Tente reaproveitar o trabalho j
realizado no exerccio p2.23.
(a)
(b)
(c)
(d)

(a) {a1 , a2 , a3 },
(b) {a1 , a2 , a4 },
(c) {a1 , a3 , a4 }.

5
4 3
5
4 3 1
6 e B = 0 3
6 1 .
P2.29. Sejam A = 0 3
2
1
0
2
1
0 1
(a) Determine se vale Col A = R3 . O que isso diz a respeito dos vetorescoluna de A?
(b) Determine se vale Col B = R3 . Vale Col B = R4 ?
h i
h i
1
2
3
P2.30. Sejam x =
e y = 4 . Nos itens abaixo, justifique suas respostas
2
1
sem fazer conta alguma.
(a) O conjunto {x, y} gera o R3 ?
(b) O conjunto {x, y} gera o R2 ?
Jones Colombo e Jos Koiller (texto em preparao)

63

Captulo 2. Vetores e Combinaes Lineares

2
6 1
9 1.
P2.31. Considere a matriz A = 3
1 3 4

(a) Verifique que as colunas de A no geram o R3 .


(b) D exemplos de vetores de R3 que no pertenam a Col A, isto ,
vetores que no sejam gerados pelas colunas de A.

Dica: Inspire-se no exemplo 2.21 (ou na prova do teorema 2.23).


As colunas de uma matriz 100 99 podem gerar o conjunto R100 ? Justifique.

P2.32.

P2.33.

Determine se cada afirmativa verdadeira ou falsa. Justifique.

(a)
(b)
(c)
(d)
(e)
(f)

64

Quatro vetores de R5 nunca geram o R5 .


Cinco vetores de R5 sempre geram o R5 .
Cinco vetores de R5 nunca geram o R5 .
Um conjunto contendo exatamente cinco vetores pode gerar o R5 .
Um conjunto com mais de cinco vetores pode gerar o R5 .
Quatro vetores de R5 nunca geram o R5 , mas podem gerar o R4 .

Jones Colombo e Jos Koiller (texto em preparao)

Captulo 3
Sistemas Homogneos, o Ncleo
de uma Matriz e Independncia
Linear
3.0

Introduo

Neste captulo, introduziremos trs conceitos importantes, que esto intimamente relacionados.
Na primeira seo, estudaremos sistemas lineares cujos termos independentes
so todos iguais a zero. Tais sistemas, ditos homogneos, tm certo papel especial
em lgebra linear. Na segunda seo, estudaremos mais a fundo os conjuntossoluo desses sistemas, abordando, tambm, seus aspectos geomtricos.
Finalmente, abordaremos o conceito fundamental de independncia linear, na
ltima seo. Essencialmente, um conjunto de vetores linearmente independente
quando nenhum de seus elementos pode ser escrito como uma combinao linear
dos demais. O conceito ser oficialmente definido de uma outra maneira, mais
conveniente. Veremos, no entanto, que a definio formal ser equivalente a essa
caracterizao intuitiva (conforme a proposio 3.18).

3.1

Sistemas lineares homogneos

Lembre-se de que qualquer sistema de n equaes lineares com m variveis


pode ser escrito na forma compacta Ax = b, onde A uma matriz n m
(a matriz de coeficientes do sistema), e b um vetor de Rn (o vetor dos termos
independentes). A definio abaixo ir distinguir o caso especial em que os termos
independentes so todos iguais a zero, isto , o caso em que b o vetor zero 0n .
Definio 3.1
Um sistema linear dito homogneo se puder ser escrito na forma Ax = 0n ,
onde A uma matriz n m.
O sistema Ax = b dito no-homogneo se b no for o vetor zero.
65

Captulo 3. Sistemas Homogneos, o Ncleo de uma Matriz e Independncia Linear

Os sistemas (a), (b) e (c) da pgina 1 so todos no-homogneos, bem como


quase todos os outros exemplos que vimos at aqui. J os sistemas
(
(
x1 3x2 + 2x3 = 0
x1 1 + 2x3 = 3x2 1
e
(3.1)
2x1 + x2 x3 = 0
x2 + 2 x3 = 2 2x1
so homogneos. O segundo parece no-homogneo, mas isso enganoso.
fcil ver que esses sistemas so equivalentes e podem ser escritos na forma


 
1 3
2
0
x=
,
(3.2)
2
1 1
0
onde x R3 o vetor das variveis x1 , x2 e x3 (exerccio p3.1). A matriz completa
desse sistema


1 3
2 0
.
2
1 1 0

completa do sistema homogneo geral Ax = 0n dada por


 A matriz

A 0n . Perceba que esta notao faz sentido.
Sistemas homogneos so sempre possveis. De fato, qualquer que seja a
matriz A (n m), o vetor zero 0m de Rm ser sempre uma soluo do sistema
Ax = 0n , pois A0m = 0n (ver o exerccio p2.6). Chamamos x = 0m de soluo
trivial do sistema Ax = 0n . A seguir iremos sintetizar essas observaes.
Observao 3.2
Seja A uma matriz nm qualquer. O sistema homogneo Ax = 0n sempre possui
a soluo trivial x = 0m . Em particular, todo sistema homogneo possvel.
Um sistema homogneo Ax = 0 pode ou no ter solues no-triviais, isto ,
solues diferentes do vetor zero.1 A proposio a seguir caracteriza esta questo
em termos das posies-piv da matriz A, e ser fundamental na seo 3.3.
Proposio 3.3
Um sistema linear homogneo Ax = 0 ou possui unicamente a soluo trivial,
ou ento possui uma infinidade de solues (a trivial e mais uma infinidade de
solues no-triviais).
O sistema Ax = 0 possui unicamente a soluo trivial x = 0 se e somente se
todas as colunas de sua matriz de coeficientes A so colunas-piv.
Demonstrao: Esta uma consequncia direta do teorema de existncia e unicidade 1.13. J sabemos que o sistema Ax = 0 possvel, isto , possui ao menos
uma soluo. Se todas as colunas da matriz A forem colunas-piv, ento o sistema Ax = 0 no ter variveis livres, e, portanto, ir possuir uma nica soluo.
Como x = 0 uma soluo, ela ser, exata e necessariamente, esta nica soluo!
Se, por outro lado, a matriz A tiver pelo menos uma coluna no-piv, ento o
sistema Ax = 0 ter pelo menos uma varivel livre, e, portanto, ir possuir uma
infinidade de solues. Sendo assim, o sistema Ax = 0 necessariamente ter uma
infinidade de solues, alm da soluo-trivial x = 0.
1

Para simplificar a notao, iremos usar 0 para indicar os vetores 0n e 0m . O contexto


dever ser suficiente para que voc faa a distino.

66

Jones Colombo e Jos Koiller (texto em preparao)

3.1. Sistemas lineares homogneos

Exemplo 3.4
Vamos determinar se o sistema homogneo Bx = 0 possui solues no-triviais,
onde

1
0
1
4 5 .
B = 3
(3.3)
0 1
2

Escalonemos a matriz de coeficientes

0
1
1
`2 `2 3`1
4 5

B= 3
0 1
2

B a fim de localizar suas posies-piv:

0
1 ` ` + 1 `
1 0
1
1
3
3 4 2
0
4 8
0 4 8 .
0 1
2
0 0
0

No necessrio obter a forma escalonada reduzida. Observe que B possui uma


coluna no-piv (a terceira). Pela proposio 3.3, o sistema Bx = 0 possui uma
infinidade de solues no-triviais, alm da soluo trivial.
Isso responde questo proposta nesse exemplo, mas desejamos explor-lo um
pouco mais, a fim de elucidar a proposio 3.3. Vamos, ento, resolver o sistema
Bx = 0, e obter explicitamente todas as suas
Verifique que a forma

 solues.
escalonada reduzida de sua matriz completa B 0

1 0
1 0
0 1 2 0 ,
(3.4)
0 0
0 0
Observe que x3 uma varivel livre do sistema Bx = 0, e que uma descrio
vetorial paramtrica de seu conjunto-soluo (ver seo 2.4) dada por


x1
x3
1

2 .
x = x2 = 2x3 = x3
(3.5)
x3
x3
1
Agora evidente que
h 1 oi sistema possui uma infinidade de solues: todos os
2 . Para cada escolha de x3 6= 0 em (3.5), obtemos uma
mltiplos do vetor
1
soluo no-trivial distinta. Fazendo x3 = 0, obtemos a soluo trivial x = 0.
Exemplo 3.5
Agora vamos determinar se o sistema homogneo Cx = 0 possui solues notriviais, onde


1 2
C=
.
3 4
Basta uma operao-linha para escalonar a matriz C:




1 2 `2 `2 3`1
1
2

.
C=
3 4
0 2
Pela proposio 3.3, o sistema Cx = 0 possui somente a soluo trivial x = 0, j
que ambas as colunas de C so colunas-piv. Como exerccio, sugerimos que voc
resolva o sistema Cx = 0 usando o mtodo
de escalonamento, e, assim, obtenha

0
uma verificao direta de que x = 0 a nica soluo. Ao fazer esse exerccio,
repare, em particular, que o sistema no tem variveis livres.
Jones Colombo e Jos Koiller (texto em preparao)

67

Captulo 3. Sistemas Homogneos, o Ncleo de uma Matriz e Independncia Linear

Um sistema linear homogneo com mais variveis do que equaes tem, necessariamente, variveis livres, e, portanto, uma infinidade de solues. Enunciamos
esse resultado, formalmente, a seguir. Lembre que se A uma matriz nm, ento
m o nmero de variveis do sistema Ax = 0 e n o de equaes.
Proposio 3.6
Seja A uma matriz n m. Se m > n, ento o sistema homogneo Ax = 0 possui
uma infinidade de solues (em particular, de solues no-triviais).
Demonstrao: Como A tem n linhas, essa matriz tem no mximo n posiespiv. J que A tem m colunas, e m > n, ento, necessariamente, h colunas
sem posio-piv. Assim sendo, pela proposio 3.3, o sistema Ax = 0 tem uma
infinidade de solues.
Exemplo 3.7
Consideremos o seguinte sistema homogneo de uma s equao:
2x1 + 5x2 6x3 = 0.

(3.6)

Usando
 a notao
 vetorial, 2 essa equao se escreve na forma Dx = 0, onde
D = 2 5 6 (verifique). Pela proposio 3.6, o sistema (3.6) possui uma
infinidade de solues, j que D uma matriz 1 3 e 3 > 1 (ou, em termos
mais simples, j que (3.6) um sistema homogneo com mais variveis do que
equaes). Neste exemplo, fcil verificar isso diretamente, pois as solues
de (3.6) so dadas por
5

5

x1
2 x2 + 3x3
2
3
x2 =
= x2 1 + x3 0 .
x2
(3.7)
x3
x3
0
1
Obtemos uma soluo distinta para cada escolha das variveis livres x2 e x3 .

3.2

O ncleo de uma matriz

O conjunto-soluo de um sistema homogneo um objeto matemtico


importante, pois aparece naturalmente em muitos problemas de lgebra linear
e aplicaes. Veremos exemplos disso em alguns captulos mais adiante. Em
virtude de sua importncia, h um nome especial para esse objeto, conforme a
definio a seguir.
Definio 3.8
Seja A uma matriz de tamanho n m. O conjunto-soluo do sistema linear
homogneo Ax = 0n um subconjunto de Rm que chamamos de ncleo ou
espao nulo da matriz A. Denotamos o ncleo de A por Nuc A.
Ou seja, um vetor u de Rm pertence ao ncleo de A se e somente se Au = 0n .
Repare que escrevemos o zero escalar em Dx = 0. O vetor zero 0 de R1 corresponde
simplesmente ao escalar 0, quando pensamos no conjunto R1 como o conjunto R dos escalares.
2

68

Jones Colombo e Jos Koiller (texto em preparao)

3.2. O ncleo de uma matriz

Alguns autores denotam o ncleo de A como Nul A ou Ker A, ao invs de


Nuc A. A notao Ker A padro em textos em ingls e alemo, pois, nessas
lnguas, as palavras usadas para ncleo so kernel e Kern, respectivamente.
Cuidado!
No confunda o ncleo de uma matriz com seu espao-coluna. Ambos so subconjuntos definidos em termos de uma matriz dada, mas veja que suas definies
so bastante diferentes! Observe, em particular, que se a matriz A n m, ento
Col A um subconjunto de Rn e Nuc A um subconjunto de Rm .
Exemplo3.9

h i
h i
h i
1 3
2
1
1
0
Seja A =
. Determine se os vetores u = 1 , v = 5 e 03 = 0
1
7
0
2
1 1
pertencem ao ncleo de A.
 
Soluo: Verifique que Au = 02 . Como
 este no o vetor zero, u no pertence
a Nuc A. Por outro lado, vale Av = 00 = 02 , logo v Nuc A. Finalmente,
fcil ver que A03 = 02 , logo o vetor zero 03 tambm pertence ao ncleo de A.
Observao 3.10
Seja A uma matriz nm qualquer. O ncleo de A sempre contm o vetor zero 0m
de Rm . Em particular, Nuc A nunca o conjunto vazio.
Essa observao uma mera reformulao, em termos do conceito de ncleo,
da observao 3.2. Podemos reformular tambm a importante proposio 3.3.
Proposio 3.11
Seja A uma matriz qualquer. O ncleo de A contm unicamente o vetor zero (em
smbolos, Nuc A = {0}) se e somente se todas as colunas de A so colunas-piv.
O exemplo 3.9 mostra que verificar se um dado vetor pertence ao ncleo de
uma matriz uma tarefa muito simples. O ncleo de A descrito, implicitamente,
pela relao Ax = 0.3 Assim, para determinar se um dado vetor pertence a Nuc A,
basta testar se ele satisfaz ou no essa equao.
Dada uma matriz A, no entanto, como podemos encontrar uma descrio
explcita de seu ncleo? Ora, isso tambm simples. Basta resolver o sistema
Ax = 0, e obter uma descrio paramtrica de seu conjunto-soluo, que, por
definio, Nuc A.
Exemplo 3.12
Obtenha uma descrio explcita do ncleo da matriz B do exemplo 3.4.
Soluo: Teramos que resolver o sistema Bx = 0, mas j fizemos isso no exemplo 3.4. Obtivemos, em (3.5), uma descrio explcita de Nuc B, em forma vetorial
paramtrica.
Queremos apresentar esse resultado de uma maneira mais formal.h A idescri1
2 . Isso
o (3.5) diz que Nuc B o conjunto dos mltiplos do vetor u =
1

Dizemos isso porque a condio Ax = 0 no fornece uma lista ou descrio explcita dos
elementos de Nuc A.

Jones Colombo e Jos Koiller (texto em preparao)

69

Captulo 3. Sistemas Homogneos, o Ncleo de uma Matriz e Independncia Linear

se traduz, em smbolos, para Nuc B = Span{u} (faa uma rpida reviso da


seo 2.5, se necessrio).
Span{u} a descrio explcita do ncleo de B que procurvamos. Vale a
pena, no entanto, fazer mais alguns comentrios de natureza geomtrica acerca
deste exemplo. O conjunto Nuc B = Span{u} representado pela reta no R3 que
passa pela origem e que contm o vetor u.
Reveja a matriz B em (3.3) e verifique que Bx = 0 equivale ao sistema

+ x3 = 0
x1
3x1 + 4x2 5x3 = 0
(3.8)

x2 + 2x3 = 0.
Cada uma das trs equaes acima representa (implicitamente) um plano passando pela origem em R3 . A interseo desses trs planos justamente o conjuntosoluo do sistema (3.8), ou seja, Nuc B. Como acabamos de discutir, essa interseo Nuc B uma reta. Tente visualizar esta situao: trs planos no espao
cuja interseo seja uma reta.
Enfatizamos que Span{u} uma descrio explcita da reta Nuc B, enquanto (3.8) (ou, equivalentemente, Bx = 0) uma descrio implcita da mesma.
Exemplo 3.13


Obtenha uma descrio explcita do ncleo da matriz D = 2 5 6 .
Soluo: J fizemos isso no exemplo 3.7. Obtivemos, em (3.7), uma descrio
explcita do conjunto-soluo de Dx = 0, isto , de Nuc D.
Novamente, desejamos escrever o resultado de maneira mais formal. A descrioh (3.7)imostra que
h iNuc D o conjunto das combinaes lineares dos vetores
5/2
3
v1 =
e v2 = 0 . Em smbolos, temos Nuc D = Span{v1 , v2 }.
1
0

Geometricamente, Nuc D representado pelo plano do R3 gerado pelos vetores


v1 e v2 . Observamos, como no exemplo anterior, que 2x1 + 5x2 6x3 = 0 (ou,
equivalentemente, Dx = 0) uma descrio implcita do plano Nuc D. O mesmo
plano descrito explicitamente por Span{v1 , v2 }.

Dada uma matriz A, sempre possvel escrever Nuc A, explicitamente, como o


span de certos vetores4 , como fizemos nos exemplos acima. Esse procedimento ser
muito usado em outras sees, problemas e aplicaes, e, por isso, recomendamos
fortemente o exerccio p3.10.
fcil interpretar, geometricamente, o ncleo de uma matriz quando este
um subconjunto de R2 ou R3 , pois, nesses casos, uma concepo visual direta
possvel.

3.3

Dependncia e independncia linear

 
 
Considere os vetores u = 21 e v = 63 de R2 . Note que u e v so colineares:
v um mltiplo de u, a saber, v = 3u. O vetor u tambm um mltiplo de
4

Isso ir valer mesmo quando Nuc A = {0}, pois {0} = Span{0} (veja o exerccio p2.18).
Nesse caso, no entanto, escrever Nuc A dessa maneira uma bobagem.

70

Jones Colombo e Jos Koiller (texto em preparao)

3.3. Dependncia e independncia linear

v, pois u = 13 v (veja o exerccio p2.19(a)). Nesse sentido, os vetores u e v so


dependentes entre si: podemos escrever um deles como uma combinao linear
do outro.5
 
 
Por outro lado, os vetores u = 21 e w = 40 so independentes: u no
mltiplo de w, nem w mltiplo de u. E quanto aos vetores u e 02 = 00 ? So
dependentes ou independentes? Bom, u no um mltiplo de 02 , mas 02
um mltiplo de u, pois 02 = 0u (veja o exerccio p2.19(b)). Assim, entendemos
que os vetores u e 02 so dependentes (afinal, possvel escrever 02 como a
combinao linear 0u do vetor u, no ?).
A definio a seguir generaliza esses conceitos de dependncia e independncia para conjuntos contendo mais do que dois vetores.6
Definio 3.14
O conjunto {a1 , a2 , . . . , am } de vetores de Rn dito linearmente independente
se o sistema linear homogneo
x1 a1 + x2 a2 + + xm am = 0n

(3.9)

tem apenas a soluo trivial x = 0m (isto , x1 = 0, x2 = 0, . . . , xm = 0).


Em contrapartida, o conjunto {a1 , a2 , . . . , am } dito linearmente dependente se o sistema (3.9) tem alguma soluo no-trivial, ou seja, se existem
escalares c1 , c2 , . . . , cm , no todos iguais a zero, tais que
c1 a1 + c2 a2 + + cm am = 0n .

(3.10)

Por simplicidade, podemos escrever os vetores a1 , . . . , am so linearmente


independentes (ou dependentes), ao invs de o conjunto {a1 , . . . , am } linearmente independente (ou dependente). s vezes, as expresses linearmente
independente e linearmente dependente so abreviadas por LI e LD.
Uma equao do tipo (3.10), quando os escalares cj no so todos iguais a zero,
chamada de uma relao de dependncia linear entre os vetores a1 , . . . , am .
claro que s existem relaes de dependncia linear entre vetores linearmente
dependentes. Assim, 3u v = 02 e 0u + 17(02 ) = 02 so relaes de dependncia
linear entre os vetores considerados no incio dessa seo (verifique!).7
Em uma primeira leitura, a definio 3.14 e o seu propsito podem no estar
muito claros. O conceito de independncia linear, no entanto, importantssimo, e
recomendamos uma leitura atenciosa do restante dessa seo. As proposies 3.18
e 3.20, em particular, so elucidativas quanto natureza de conjuntos linearmente
dependentes e independentes. Mas vamos comear com exemplos simples, apenas
para fixar ideias.
5

Observe que uma combinao linear de um s vetor simplesmente um mltiplo desse


vetor. Assim, v = 3u uma combinao linear do vetor u.
6
H um pequeno deslize tcnico nessa definio. Veja a observao no final da seo.
7
Obteramos outras relaes de dependncia linear entre u e 02 substituindo o escalar 17
por qualquer outro escalar no nulo em 0u + 17(02 ) = 02 .

Jones Colombo e Jos Koiller (texto em preparao)

71

Captulo 3. Sistemas Homogneos, o Ncleo de uma Matriz e Independncia Linear

Exemplo 3.15
Sejam

1
a1 = 2 ,
1


1
a2 = 3
2


1
e a3 = 1 .
10

Observe que estes so os mesmos vetores do exemplo 2.21. Vamos investigar se o


conjunto {a1 , a2 , a3 } linearmente independente ou no.
Temos que determinar se o sistema homogneo x1 a1 + x2 a2 + x3 a3 = 0 possui
unicamente a soluo trivial, ou se possui uma infinidade de solues (veja
 a
seo 3.1). Primeiro, obtemos uma forma escalonada da matriz a1 a2 a3 :

1 1 1
1 1 1
1 1 1
`2 `2 2`1
`3 `3 3`2
2 3
1
3
3 .
0 1
0 1
`3 `3 +`1
1 2 10
0 3
9
0 0
0


Agora, basta aplicar a proposio 3.3: como a matriz a1 a2 a3 tem uma
coluna no-piv, o sistema x1 a1 + x2 a2 + x3 a3 = 0 possui solues no-triviais, e,
portanto, os vetores a1 , a2 e a3 so linearmente dependentes.
Exemplo 3.16
Sejam agora

1
a1 = 2 ,
1

a2 = 3
2

e a4 = 0 .
0

Vejamos se o conjunto {a1 , a2 ,a4 } linearmente


independente.

Vamos escalonar a matriz a1 a2 a4 :

1
1 1
1
1 1
1 1 1
`3 `3 3`2
`2 `2 2`1
2 3 0
0 1 2 .
0 1 2
`3 `3 +`1
0 3
1
0 0
7
1 2 0


Como todas as colunas da matriz a1 a2 a4 so colunas-piv,
o sistema x1 a1 +
h x1 i
x2 a2 + x3 a4 = 0 possui apenas a soluo trivial xx23 = 0, logo o conjunto
{a1 , a2 , a4 } , de fato, linearmente independente.
Esses exemplos motivam e ilustram o resultado a seguir.
Teorema 3.17
Seja {a1 , a2 , . . . , am } um conjunto de vetores de Rn . Este conjunto
 linearmente
independente se e somente se todas as colunas da matriz A = a1 a2 am
so colunas-piv.
O teorema uma consequncia imediata da proposio 3.3 e da definio 3.14.
De fato, ele uma mera reformulao das proposies 3.3 e 3.11 em termos do
conceito de independncia linear.
A seguinte proposio fornece uma caracterizao de conjuntos linearmente
dependentes e, tambm, uma boa justificativa para o uso dessa terminologia.
72

Jones Colombo e Jos Koiller (texto em preparao)

3.3. Dependncia e independncia linear

Proposio 3.18
Um conjunto {a1 , a2 , . . . , am } de dois ou mais vetores de Rn linearmente dependente se e somente se (pelo menos) um dos ak uma combinao linear dos
demais vetores do conjunto.
Demonstrao: Suponha que o conjunto {a1 , . . . , am } seja linearmente dependente. Ento existe alguma relao de dependncia linear c1 a1 + + cm am = 0n ,
em que os escalares cj no so todos nulos. Assim, podemos escolher algum ck 6= 0
(pode haver vrias escolhas admissveis) e reescrever essa relao como
ck ak = c1 a1 c2 a2 ck1 ak1 ck+1 ak+1 cm am ,
ou ainda como
ak =

c2
ck1
ck+1
cm
c1
a1 a2
ak1
ak+1
am .
ck
ck
ck
ck
ck

A hiptese ck 6= 0 foi usada nesse ltimo passo. Se ck fosse zero, a diviso no


estaria definida! Conclumos da ltima equao acima que ak uma combinao
linear dos demais vetores do conjunto dado.
Reciprocamente, se ak uma combinao linear dos demais vetores, ento
existem escalares j tais que
ak = 1 a1 + 2 a2 + + k1 ak1 + k+1 ak+1 + + m am .
A equao acima equivalente a
1 a1 + 2 a2 + + k1 ak1 + (1)ak + k+1 ak+1 + + m am = 0n .
Essa uma relao de dependncia linear entre os vetores a1 , a2 , . . . , am , pois os
pesos na combinao linear esquerda no so todos iguais a zero: o coeficiente
de ak , ao menos, 1 6= 0.
O corolrio a seguir , meramente, um caso particular da proposio 3.18.
Corolrio 3.19
Um conjunto de dois vetores linearmente dependente se e somente se um dos
vetores um mltiplo do outro.
Isso mostra que a definio 3.14 generaliza a noo intuitiva de dependncia
entre dois vetores que discutimos no incio da seo, como havamos anunciado.
Recomendamos que voc reveja aquela discusso. Mas cuidado: o corolrio acima
se aplica apenas a conjuntos de dois vetores! Veja os exerccios p3.14 e p3.15.
A prxima proposio comea a revelar por que conjuntos linearmente independentes so de interesse.
Na seo 2.5, vimos que um vetor b uma combinao linear de a1 , . . . , am
(isto , b Span{a1 , . . . , am }) se e somente se o sistema x1 a1 + + xm am = b
possvel (ver proposio 2.16, na pgina 52). No discutimos, no entanto, a
questo da unicidade de soluo desse sistema. A proposio a seguir mostra que
essa questo diz respeito independncia linear do conjunto {a1 , . . . , am }.
Jones Colombo e Jos Koiller (texto em preparao)

73

Captulo 3. Sistemas Homogneos, o Ncleo de uma Matriz e Independncia Linear

Proposio 3.20
Seja {a1 , a2 , . . . , am } um conjunto de vetores de Rn . Esse conjunto linearmente
independente se e somente se cada vetor b Span{a1 , . . . , am } pode ser escrito
de uma nica maneira como combinao linear de a1 , . . . , am .
Demonstrao: Suponha, primeiro, que o conjunto {a1 , . . . , am } seja linearmente
independente, e seja b um vetor qualquer de Span{a1 , . . . , am }. Ora, se b pertence
a Span{a1 , . . . , am }, ento existem escalares c1 , . . . , cm tais que
b = c1 a1 + c2 a2 + + cm am .

(3.11)

Agora considere outra representao


b = d1 a1 + d2 a2 + + dm am .

(3.12)

Vamos mostrar que d1 = c1 , d2 = c2 , . . . , dm = cm . Dessa forma, a representao (3.11) , na realidade, nica. Subtraindo a equao (3.12) da (3.11),
obtemos
0n = (c1 d1 )a1 + (c2 d2 )a2 + + (cm dm )am .
Como o conjunto {a1 , . . . , am } linearmente independente, a equao acima implica que c1 d1 = 0, c2 d2 = 0, . . . , cm dm = 0, pois no h relaes de
dependncia entre a1 , . . . , am . Portanto, vale dj = cj para j = 1, 2, . . . , m.
Agora, provaremos a recproca. Suponha que cada vetor de Span{a1 , . . . , am }
tenha uma nica representao como combinao linear dos vetores a1 , . . . , am .
O vetor zero 0n , em particular, pertence ao span de a1 , . . . , am (conforme a
observao 2.14, na pgina 51). Dessa maneira,
0n = 0a1 + 0a2 + + 0am
a nica forma de representar 0n como combinao dos vetores aj . Em outras
palavras, o sistema homogneo (3.9) possui apenas a soluo trivial, e, portanto,
o conjunto {a1 , . . . , am } linearmente independente.
A proposio 3.20 ser crucial na seo 4.4.
Reunimos, no teorema abaixo, diversas formas de se dizer que um conjunto
linearmente independente. Esta lista pode auxiliar o leitor, ou a leitora, em seus
estudos e na resoluo de exerccios.
Teorema 3.21
n
Sejam
 a1 , a2 , . . . , am vetores de R , e seja A a matriz de tamanho n m dada
por a1 a2 am . As seguintes afirmativas so equivalentes:
(a) O conjunto {a1 , a2 , . . . , am } linearmente independente.
(b) Os vetores a1 , a2 , . . . , am so linearmente independentes.
(c) O sistema homogneo x1 a1 + + xm am = 0n tem unicamente a soluo
trivial x1 = 0, x2 = 0, . . . , xm = 0.
74

Jones Colombo e Jos Koiller (texto em preparao)

3.3. Dependncia e independncia linear

(d) Se x1 a1 + + xm am = 0n , ento todos os xj tm que ser iguais a zero.


(e) No existem relaes de dependncia linear entre os vetores a1 , . . . , am .
(f) Cada vetor de Span{a1 , . . . , am } pode ser escrito de uma nica maneira como
combinao linear de a1 , . . . , am .
(g) O sistema homogneo Ax = 0n tem unicamente a soluo trivial x = 0m .
(h) Nuc A = {0m }.
(i) O sistema Ax = 0n no possui variveis livres.
(j) A matriz A possui uma posio-piv em cada uma de suas m colunas.
A equivalncia entre as afirmativas deve estar clara, tendo em vista as definies e resultados deste captulo. Observe, em particular, que as afirmativas (f),
(h) e (j) so consideradas nas proposies 3.20, 3.11 e no teorema 3.17, respectivamente. A afirmativa (d) apenas uma outra forma de dizer (c). A afirmativa (g)
tambm meramente (c) escrita em forma compacta.
Muitas vezes, a afirmativa (j) usada, na prtica, para testar se as outras
valem ou no, como fizemos nos exemplos 3.15 e 3.16.
O resultado a seguir , essencialmente, uma reformulao da proposio 3.6.
Proposio 3.22
Se os vetores a1 , a2 , . . . , am de Rn so linearmente independentes, ento, necessariamente, vale m 6 n.
Demonstrao: Se m > n, pela proposio 3.6, o sistema x1 a1 + + xm am = 0n
teria uma infinidade de solues. Em particular, esse sistema teria solues notriviais. Assim, os vetores a1 , . . . , am no seriam independentes.
A proposio 3.22 diz que um conjunto linearmente independente de vetores
em Rn pode ter, no mximo, n elementos. Em outras palavras, um subconjunto
de Rn que contm mais do que n vetores , necessariamente, linearmente dependente. Um conjunto de seis vetores em R5 , por exemplo, automaticamente
linearmente dependente. O mesmo vale para um conjunto de 117 vetores em R100 .
A proposio 3.22 anloga proposio 2.25 da seo 2.7. Note, no entanto,
que as direes das desigualdades so trocadas. Cuidado para no confundir esses
resultados!
Observao
Rigorosamente falando, os enunciados da definio 3.14 e de diversos resultados seguintes contm um erro. Deixamo-lo estar at aqui, a fim de no tirar o foco das ideias
principais. Mas vamos, agora, remediar esse problema tcnico.
Para explicar a questo, precisamos, primeiro, considerar uma sutileza da notao
usual de teoria dos conjuntos. Em uma listagem explcita dos elementos de um conjunto, convenciona-se que elementos repetidos so irrelevantes (e podem ser ignorados).
Assim, por exemplo, os conjuntos {a, b, a} e {a, b} so iguais: ambos representam o conjunto que contm os elementos a e b (seja l o que forem a e b. . . ). Em particular, se a e
b forem iguais, esse conjunto na realidade conter um s elemento: {a, b} = {a} = {b}.
Jones Colombo e Jos Koiller (texto em preparao)

75

Captulo 3. Sistemas Homogneos, o Ncleo de uma Matriz e Independncia Linear

Para corrigir (ou arrematar) a definio


3.14, precisamos esclarecer que ela no res 3   3 
peita essa
conveno.
O
conjunto
,
, por exemplo, linearmente dependente,
2
2
 3
3
pois 2 2 = 0 uma relao de dependncia entre seus elementos (h muitas
outras). De acordo
  com a conveno de teoria dos conjuntos, no entanto, esse conjunto
seria igual a 32 , que, por sua vez, linearmente independente (verifique). Mas no
h dilema algum aqui: repetimos que a definio 3.14 no segue a conveno de ignorar
elementos repetidos em uma listagem.
Para enfatizar esse ponto, alguns autores apresentam o conjunto {a1 , a2 , . . . , am }
da definio 3.14 como um conjunto indexado, ou seja, um conjunto em que sejam
relevantes a ordem e as repeties dos elementos. Inclusive, alguns preferem usar a
notao a1 , a2 , . . . , am para conjuntos indexados.

Exerccios resolvidos
Mostre que se um conjunto {a1 , a2 , . . . , am } contm o vetor zero, ento
esse conjunto , automaticamente, linearmente dependente.

R3.1.

Soluo: Se aj = 0 (onde j um dos ndices entre 1 e m), ento vale


0a1 + 0a2 + + 0aj1 + 1aj + 0aj+1 + + 0am = 0.
Essa uma relao de dependncia linear entre os elementos de {a1 , . . . , am }
(observe que o coeficiente do vetor aj no zero), portanto, esse conjunto
linearmente dependente.
Outra forma de resolver a questo a seguinte:


Se aj = 0, ento a j-sima coluna da matriz a1 am toda de zeros,
portanto no pode ser coluna-piv (justifique, pensando no efeito do processo de escalonamento sobre esta coluna). Pelo teorema 3.17, o conjunto
linearmente dependente. Esta soluo vlida, mas a primeira mais
elegante.
Sejam a1 , a2 e v vetores de Rn . Mostre que se v pertence a Span{a1 , a2 },
ento o conjunto {a1 , a2 , v} linearmente dependente.

R3.2.

Soluo: A hiptese v Span{a1 , a2 } equivale a dizer que v uma combinao linear de a1 e a2 (veja a proposio 2.16 da seo 2.5). Ento, pela
proposio 3.18, o conjunto {a1 , a2 , v} linearmente dependente.
instrutivo obter esse resultado diretamente, sem usar a proposio 3.18
(repetindo, essencialmente, a sua prova, para esse caso mais simples). Se
v Span{a1 , a2 }, existem escalares c1 e c2 tais que v = c1 a1 + c2 a2 . Isso
equivale a c1 a1 + c2 a2 v = 0. Observe que esta uma relao de dependncia linear entre a1 , a2 e v (justifique!), portanto esses vetores so
linearmente dependentes.
76

Jones Colombo e Jos Koiller (texto em preparao)

Exerccios

Sejam a1 , . . . , am e v vetores de Rn , e suponha que I = {a1 , . . . , am }


seja um conjunto linearmente independente. Mostre que se v no pertence
a Span{a1 , . . . , am }, ento o conjunto {a1 , . . . , am , v}, obtido pela incluso
de v em I, , ainda, linearmente independente.

R3.3.

Soluo: Vamos considerar a relao


x1 a1 + x2 a2 + + xm am + xm+1 v = 0,

(3.13)

e mostrar que todos os escalares xj tm que ser iguais a zero (veja a afirmativa (d) do teorema 3.21). Primeiro, argumentamos que xm+1 necessariamente igual a zero. De fato, se xm+1 6= 0, poderamos reescrever (3.13)
como
x2
xm
x1
a1
a2
am .
v=
xm+1
xm+1
xm+1
Mas isto contradiz a hiptese de que v 6 Span{a1 , . . . , am }, portanto tem
que valer xm+1 = 0. Assim, podemos simplificar a relao (3.13) para
x1 a1 + x2 a2 + + xm am = 0.
Como, por hiptese, os vetores a1 , . . . , am so linearmente independentes,
os escalares x1 , . . . , xm tambm so necessariamente iguais a zero.

Exerccios propostos
P3.1.

Verifique que os sistemas em (3.1), na pgina 66, so equivalentes e podem


ser escritos na forma (3.2).

P3.2.

Determine se os sistemas homogneos abaixo possuem apenas a soluo


trivial, ou uma infinidade de solues. No necessrio resolver os sistemas
completamente. Use a proposio 3.3 ou a 3.6.

x1 3x2 = 0
(a)
2x1 + 3x2 = 0



1
3
1

(b) x1 2 + x2 2 + x3 1 = 0
1
3
1

1 2 4

(c) 1 3 9 x = 0
1 4 16


3 1
2
(d)
x=0
6
2 4

P3.3.

Considere o sistema Bx = 0 do
3.4. Faa o processo de esca exemplo

lonamento da matriz completa B 0 . Verifique, assim, que a sua forma
escalonada reduzida aquela dada em (3.4). Observe que cada matriz obtida durante o processo tem apenas zeros na ltima coluna.

Jones Colombo e Jos Koiller (texto em preparao)

77

Captulo 3. Sistemas Homogneos, o Ncleo de uma Matriz e Independncia Linear

P3.4.





Mostre que se a matriz A 0 linha-equivalente a G b , ento b = 0.

P3.5.

(a) Mostre
 que se B uma matriz escalonada (ou escalonada reduzida),
ento B 0 tambm (verifique os critrios da definio 1.5).


(b) Convena-se
de que se A e B so linha-equivalentes, ento A 0 e

B 0 tambm so.
(c) Explique a seguinte afirmativa luz do itens anteriores: Para resolver
o sistema Ax = 0, basta escalonar a matriz de coeficientes A.

P3.6.

Verifique uma espcie de recproca da observao 3.2: Se x = 0 uma


soluo do sistema Ax = b, ento esse sistema homogneo (isto , b = 0).

P3.7.

Suponha que Ax = b e Bx = d sejam sistemas equivalentes, ou seja, que


tenham o mesmo conjunto-soluo. Mostre que Ax = b homogneo se e
somente se Bx = d homogneo. Dica: Use o exerccio anterior.

P3.8.

Determine se cada afirmativa verdadeira ou falsa. Justifique.

(a) Se a um escalar diferente de zero e ax = 0, ento pode-se inferir que


x = 0.
(b) Se A uma matriz diferente da matriz zero e Ax = 0, ento pode-se
inferir que x = 0. Observao: Lembre que a matriz zero tem todas
as entradas iguais a zero.
(c) Um sistema linear com cinco variveis e trs equaes necessariamente
tem uma infinidade de solues.
(d) Um sistema linear homogneo com cinco variveis e trs equaes necessariamente tem uma infinidade de solues.
(e) Um sistema linear homogneo com trs variveis e cinco equaes necessariamente tem somente a soluo trivial.
(f) Um sistema linear homogneo com trs variveis e cinco equaes pode
ter solues no-triviais.
(g) Se um sistema homogneo possui uma soluo no-trivial, ento, necessariamente, possui uma infinidade de solues.

1 4 2
7
6
9 .
P3.9. Seja G = 3 0
1 2 4 1
Determine os vetores abaixo que pertencem a Nuc G:

1
2
,
1
1

1
2
,
0
1


1
3
,
2
1


2
1
,
1
0

2
1 ,
1


0
0
,
0
0


0
0 .
0

(3.14)

Descreva, explicitamente, o ncleo de cada matriz dada abaixo como o


span de certos vetores. Inspire-se nos exemplos 3.12 e 3.13.

P3.10.

78

Jones Colombo e Jos Koiller (texto em preparao)

Exerccios

(a)

(b)
(c)
(d)
(e)
(f)
(g)

2
0
4
1
3 1.
1 2
0

1
2 1 1
2 4 0
4.
3
6 4 2
A matriz A de (1.13), pgina 13. Dica: Sua forma escalonada reduzida
j foi obtida em (1.15).
A matriz G do exerccio anterior.


0 0 0 .


0 1 0 .


0 1 0 0
.
0 0 0 1

Considere a matriz C do exemplo 3.5, na pgina 67. Faa o exerccio


sugerido ao final do exemplo. Observe que {0} uma descrio explcita do
ncleo de C. Escrever Nuc C = Span{0} tambm correto, mas bobagem.

P3.11.

P3.12.

Considere o sistema abaixo:



3x1 x2 = 0
x1 + 2x2 = 0

(a) Cada equao do sistema representa uma reta em R2 . Esboce-as.


(b) Explique por quea interseo das duas retas representa o ncleo da
matriz A = 31 12 .
(c) Olhe para o seu esboo, e conclua que Nuc A contm apenas a origem
de R2 .
(d) Usando a proposio 3.11, verifique diretamente que Nuc A = {0}.
Em cada item, determine se os vetores dados so linearmente independentes ou dependentes.

0
2
3

(a) 2 , 2 , 2.
1
7
11

0
1
3

(b) 2 , 2 , 2.
1
0
11

0
1
3
2
(c) 2, 2, 2, 0. Dica: Use a proposio 3.22.
1
0
11
1

1
0
3
2 1 4

(d)
0, 1, 1.
1
0
1

P3.13.

Jones Colombo e Jos Koiller (texto em preparao)

79

Captulo 3. Sistemas Homogneos, o Ncleo de uma Matriz e Independncia Linear

   
3
0
(e)
,
. Dica: Veja o exerccio resolvido r3.1.
2
0
 
0
(f)
.
0
Verifique, por inspeo, que os seguintes vetores so linearmente dependentes. Dica: Use o corolrio 3.19.


2
6
1 e 3 .
1
3

P3.14.

P3.15.

(a) Verifique que os seguintes vetores so linearmente dependentes:





2
0
4
1 , 3 , 1 .
1
2
0

(b) Observe que, dentre os vetores dados, nenhum multiplo do outro.


Por que isso no contradiz o corolrio 3.19?
Prove o corolrio 3.19 novamente, fazendo uso direto da definio 3.14.
Dica: Reproduza, nesse caso mais simples, a prova da proposio 3.18.

P3.16.

Seja G a matriz dada no exerccio p3.9, e sejam u1 , u2 , u3 e u4 seus


vetores-coluna. Verifique que vale a relao de dependncia linear u1 +
2u2 +u3 u4 = 0. Sugesto: Aproveite o trabalho j feito no exerccio p3.9.
Repare, em particular, no primeiro vetor dado em (3.14).

P3.17.

Cada soluo no-trivial de Ax = 0 (caso exista) corresponde a uma


relao de dependncia linear entre as colunas de A. Explique.

P3.18.

Se houver uma relao de dependncia linear entre os vetores a1 , a2 , . . . ,


am , ento haver uma infinidade delas. Justifique.

P3.19.

Em cada item, determine os valores de h tais que (i) u Span{v1 , v2 },


e tais que (ii) o conjunto {v1 , v2 , u} seja linearmente dependente.



1
0
2

3 , v2 = 2 , u = 1.
(a) v1 =
1
4
h



1
2
2

3 , v2 = 6 , u = 1.
(b) v1 =
1
2
h



1
2
3
(c) v1 = 3, v2 = 6, u = 9.
1
2
h

P3.20.

80

Jones Colombo e Jos Koiller (texto em preparao)

Exerccios

Sejam a1 , a2 , . . . , am e v vetores de Rn . Mostre que, se v pertence a


Span{a1 , . . . , am }, ento o conjunto {a1 , . . . , am , v} linearmente dependente. Equivalentemente, se o conjunto {a1 , . . . , am , v} linearmente independente, ento v no pertence a Span{a1 , . . . , am }. Observao: Essa
uma generalizao do exerccio resolvido r3.2.

P3.21.

Sejam a1 , . . . , am e v vetores de Rn , e suponha que a1 , . . . , am sejam


linearmente independentes. Mostre que v pertence a Span{a1 , . . . , am } se
e somente se o conjunto {a1 , . . . , am , v} linearmente dependente. Equivalentemente, v no pertence a Span{a1 , . . . , am } se e somente se o conjunto
{a1 , . . . , am , v} linearmente independente.

P3.22.

Dica: Na realidade, o trabalho todo j foi feito nos exerccios r3.3 e p3.21.
Basta juntar as peas. Note que o exerccio resolvido r3.3 diz que, sob a
hiptese adicional da independncia linear dos vetores a1 , . . . , am , vale a
recproca do exerccio p3.21.
h 1i
h 2 i
h i
2
3 , a2 =
6
1 . Mostre que
P3.23. Considere os vetores a1 =
e
v
=
1
0
2
o conjunto {a1 , a2 , v} linearmente dependente, mas que v no pertence
a Span{a1 , a2 }. Explique por que isso no contradiz o exerccio p3.22.
Conclua que, em geral, no vale a recproca do exerccio p3.21.
P3.24.

Sejam a1 , a2 e v vetores de R3 , com a1 e a2 linearmente independentes.

(a) Convena-se de que Span{a1 , a2 } um plano passando pela origem em


R3 . Dicas: Os vetores a1 e a2 podem ser colineares? Algum deles pode
ser nulo? Agora, relembre o exemplo 2.11.
(b) Faa dois esboos representando a1 , a2 , v e o plano Span{a1 , a2 }: um
para o caso v Span{a1 , a2 }, e outro para o caso v 6 Span{a1 , a2 }.
Isso dar uma interpretao geomtrica, em R3 , para o exerccio p3.22.
Interprete, geometricamente, cada item do exerccio p3.20. Em cada caso,
determine se Span{v1 , v2 } uma reta ou um plano em R3 . Depois, reflita
sobre o significado geomtrico de u Span{v1 , v2 } e sobre o significado
geomtrico da dependncia linear entre v1 , v2 e u.

P3.25.

P3.26.

Determine se cada afirmativa verdadeira ou falsa. Justifique.

(a) Se o conjunto {w, x, y, z} linearmente dependente, ento z pode ser


escrito como uma combinao linear dos demais vetores.
(b) Se o conjunto {w, x, y, z} linearmente dependente, ento algum de
seus elementos pode ser escrito como combinao linear dos demais.
(c) Para determinar se o conjunto {w, x, y, z} linearmente dependente,
uma boa ideia verificar se x uma combinao linear dos demais
elementos.
(d) Para determinar se o conjunto {w, x, y, z} linearmente dependente,
uma boa ideia verificar se z uma combinao linear dos demais
elementos.
Jones Colombo e Jos Koiller (texto em preparao)

81

Captulo 3. Sistemas Homogneos, o Ncleo de uma Matriz e Independncia Linear

(e) Se o conjunto {w, x, y, z} linearmente dependente, ento algum de


seus elementos est no subespao gerado pelos demais.
P3.27.

Sejam a1 , a2 , . . . , am e u vetores de Rn .

(a) Mostre que, se {a1 , . . . , am } for um conjunto linearmente dependente,


ento {a1 , . . . , am , u} tambm ser. Ou seja, se acrescentarmos vetores a um conjunto linearmente dependente, o resultado permanecer
dependente. Dica: Comece com uma relao de dependncia linear
entre a1 , . . . , am . Como escrever, agora, uma relao de dependncia
linear entre os vetores a1 , . . . , am e u?
(b) Mostre que, se {a1 , . . . , am , u} for um conjunto linearmente independente, ento {a1 , . . . , am } tambm ser. Ou seja, se removermos vetores de um conjunto linearmente independente, o resultado permanecer
independente. Dica: Use o item anterior.

82

Jones Colombo e Jos Koiller (texto em preparao)

Captulo 4
Subespaos, Bases e Dimenso
4.0

Introduo

Em diversos exemplos e exerccios dos captulos anteriores, buscamos representaes geomtricas de certos subconjuntos de R2 e de R3 . O exemplo 2.11 e os
exerccios p2.16, p2.17, p2.21 e p2.22 tratam da interpretao geomtrica do span
de determinados conjuntos de vetores. Nos exemplos 3.12 e 3.13, interpretamos
o ncleo de certas matrizes.
Talvez voc tenha reparado que alguns tipos de subconjuntos so recorrentes
nesses exemplos. Referimo-nos, em particular, a retas passando pela origem em
R2 e R3 e a planos passando pela origem em R3 . A recorrncia desses tipos de
subconjuntos no um acaso: eles so exemplos de subespaos. Um subespao
um tipo especial de subconjunto de Rn , que tem papel central em lgebra linear.
Veremos que o span, o espao-coluna e o ncleo de uma matriz so subespaos.
O conceito ser definido precisamente na seo a seguir, e o restante do captulo
ser dedicado a estudar suas propriedades.
Boa parte do material deste captulo ser de natureza mais abstrata do que o
dos captulos anteriores. Um pouco de abstrao inevitvel nesta etapa, pois o
objetivo, essencialmente, descrever as propriedades de certos subconjuntos de
Rn , onde n pode ser qualquer inteiro positivo. Como podemos descrever um subconjunto de R5 , de R17 ou de R821 sem usar conceitos abstratos? Uma visualizao
geomtrica, direta e concreta desses espaos evidentemente impossvel.

4.1

Subespaos de Rn

Comecemos fazendo uma breve recordao sobre subconjuntos. Dizer que


Y um subconjunto de X o mesmo que dizer que todo elemento de Y
um elemento de X. Nesse caso, dizemos tambm que Y est contido em X, e
denotamos Y X.1 Quando dizemos, ento, que S um subconjunto de Rn ,
1

Quando x um elemento do conjunto X, geralmente dizemos que x pertence a X, e denotamos x X. Mas podemos tambm dizer que x est contido em X. Cuidado com essa
ambiguidade da terminologia.

83

Captulo 4. Subespaos, Bases e Dimenso

queremos dizer que S um conjunto de vetores, cada um de n coordenadas reais.


Observe que, por definio, o prprio Rn um subconjunto de Rn . Por outro lado,
o R2 no um subconjunto de R3 , pois um elemento de R2 (uma lista ordenada
de dois nmeros) no pertence a R3 (cujos elementos so listas de trs nmeros).
Definio 4.1
Seja V um subconjunto de Rn . Dizemos que V um subespao de Rn se as
seguintes condies forem satisfeitas:
1. O vetor zero 0n de Rn pertence a V .
2. Para quaisquer vetores u e v de V, a soma u + v tambm pertence a V .
3. Para qualquer u de V e qualquer escalar R, o produto u pertence
a V.
O conjunto Rn um subespao dele prprio. De fato, Rn um subconjunto
dele prprio que contm o vetor zero. Alm disto, se u e v so vetores de Rn e
um escalar, ento a soma u+v e o produto u so vetores de Rn . O conjunto Rn ,
portanto, satisfaz as condies da definio 4.1.
O subconjunto {0n } do Rn que contm apenas o vetor zero tambm um
subespao (verifique que este conjunto satisfaz as condies da definio). Por
no ter muita graa, este chamado de subespao trivial do Rn .
Cuidado!
Ateno para a premissa da definio 4.1: Para que V seja um subespao de Rn ,
V tem que ser um subconjunto de Rn (alm de satisfazer as condies 1 a 3). O
R2 no um subespao de R3 , por exemplo, pois no sequer um subconjunto
de R3 (ver o pargrafo que antecede a definio 4.1). Pela mesma razo, Rn no
um subespao de Rm quando n 6= m.
Observao 4.2
O exerccio p4.2 pede que voc verifique o seguinte fato, que segue da definio 4.1.
Se V um subespao e os vetores a1 , . . . , am pertencem a V , ento qualquer
combinao linear
c1 a1 + c2 a2 + + cm am
tambm pertence a V . Ou seja, se cada aj pertence a V , ento o conjunto gerado
por a1 , . . . , am est contido em V (em smbolos, Span{a1 , . . . , am } V ).
Na realidade, vale tambm a recproca. Com efeito, cada aj pertence a
Span{a1 , . . . , am }, em vista da observao 2.15. Assim, se Span{a1 , . . . , am } V ,
ento aj V . Temos, portanto, o resultado a seguir.
Proposio 4.3
Seja V um subespao de Rn , e sejam a1 , . . . , am vetores de Rn . O conjunto
gerado por a1 , . . . , am est contido em V (Span{a1 , . . . , am } V ) se e somente
se cada um dos vetores aj pertence a V .
84

Jones Colombo e Jos Koiller (texto em preparao)

4.1. Subespaos de Rn

A hiptese de que V seja um subespao muito importante na observao 4.2


e na proposio 4.3 (veja o exerccio p4.3).
Os prximos resultados mostram que o subespao gerado por vetores, o espao
das colunas e o ncleo de uma matriz so subespaos.2 As provas so simples e
elucidativas, pois consistem na verificao direta das condies da definio 4.1.
Proposio 4.4
Sejam a1 , a2 , . . . , am vetores de Rn . O subespao gerado por a1 , . . . , am (ou
seja, Span{a1 , . . . , am }) , de fato, um subespao de Rn .
Demonstrao: Em primeiro lugar, verificamos a premissa da definio 4.1: Como
a1 , . . . , am so vetores de Rn , claro que suas combinaes lineares tambm
o so, logo Span{a1 , . . . , am } um subconjunto de Rn . Agora, a condio 1:
O vetor zero 0n pertence a Span{a1 , . . . , am }, pela observao 2.14 (pgina 51).
Condio 2: Se u e v pertencem a Span{a1 , . . . , am }, ento existem pesos c1 , . . . ,
cm e d1 , . . . , dm tais que

Assim,

u = c1 a1 + + cm am

v = d1 a1 + + dm am .

(4.1)

u + v = (c1 + d1 )a1 + (c2 + d2 )a2 + + (cm + dm )am ,


isto , u + v uma combinao linear dos vetores a1 , . . . , am . Isso o mesmo
que dizer u + v Span{a1 , . . . , am }. Finalmente, verificamos a condio 3: Se
u Span{a1 , . . . , am }, mais uma vez podemos escrever u como em (4.1). E, se
um escalar qualquer, ento
u = (c1 a1 + c2 a2 + + cm am ) = (c1 )a1 + (c2 )a2 + + (cm )am ,
logo u Span{a1 , . . . , am }.
Como o espao-coluna de uma matriz , por definio, o espao gerado por
seus vetores-coluna, obtemos a seguinte consequncia direta dessa proposio.
Corolrio 4.5
Seja A uma matriz n m. O espao-coluna de A (Col A) um subespao de Rn .
Exemplo 4.6
h 1i
h i
h 1 i
1
2
3
Sejam a1 = 1 , a2 =
e a3 = 1 os vetores do exemplo 2.21, na pgina 54,
2
10
e seja W = Span{a1 , a2 , a3 }. Pela proposio 4.4, o conjunto W um subespao
de R3 . Mais concretamente, W um plano passando pela origem de R3 , conforme
o exerccio p2.21. Recapitulando esse exerccio, vimos que os vetores a1 , a2 e a3
so coplanares. fcil ver, no entanto, que esses vetores no so colineares.
A concluso de que o conjunto W gerado por eles seja um plano, portanto,
intuitiva (veja tambm o exerccio p2.22). Uma regio do plano W contendo os
vetores a1 , a2 e a3 , ilustrada na figura 2.7 (pgina 62).
2

Assim, a terminologia subespao gerado, que introduzimos no captulo 2, est finalmente


justificada.

Jones Colombo e Jos Koiller (texto em preparao)

85

Captulo 4. Subespaos, Bases e Dimenso

No exemplo acima, usamos fortemente os resultados do exerccio p2.21. Nos


exemplos 4.28 e 4.29 da seo 4.3, veremos uma forma mais sistemtica de fornecer
descries geomtricas de subespaos de R2 e de R3 .
Proposio 4.7
Seja A uma matriz n m. O ncleo de A (Nuc A) um subespao de Rm .
Demonstrao: Primeiramente, observamos que Nuc A um subconjunto de Rm
(recorde a definio 3.8). Condio 1: Em vista da observao 3.10, o vetor
zero de Rm pertence a Nuc A (0m sempre uma soluo do sistema Ax = 0n ).
Condio 2: Se u e v pertencem a Nuc A, ento, por definio, Au = 0n e
Av = 0n . Usando as propriedades algbricas do produto matriz-vetor, temos
A(u + v) = Au + Av = 0n + 0n = 0n , logo o vetor u + v pertence a Nuc A.
Verificamos a condio 3 similarmente: Se u Nuc A e um escalar, ento
A(u) = Au = 0n = 0n , logo u Nuc A.
Cuidado!
Mais uma vez, alertamos o leitor para no confundir Col A e Nuc A. Em particular, se A uma matriz n m, ento Col A um subespao de Rn , ao passo que
Nuc A um subespao de Rm .

4.2

Conjuntos geradores e bases de subespaos

Considere os seguintes n vetores de Rn :




1
0
0
1




e1 = 0 , e2 = 0 , . . . ,
..
..
.
.
0
0


0
0


en = ... .

0
1

(4.2)

Qualquer vetor de Rn pode ser escrito como uma combinao linear desses vetores,
ou seja, eles geram Rn (recorde a definio 2.20 e o teorema 2.24). De fato, se v
um vetor de coordenadas v1 , v2 , . . . , vn , ento




0
1
0
v1
0
1
0
v2







v = .. = v1 0 + v2 0 + + vn ... = v1 e1 + v2 e2 + + vn en . (4.3)
..
..

.
.
.
0
vn
0
0
1
Ademais, esta a nica forma de representar v como combinao linear de
e1 , . . . , en . Esse fato est associado independncia linear dos vetores e1 , . . . ,
en (conforme a proposio 3.20), mas o exerccio p4.6 pede que voc verifique-o
diretamente.
Em sntese, o conjunto {e1 , . . . , en } tem a seguinte propriedade interessante:
qualquer vetor de Rn pode ser escrito de uma nica maneira como combinao
86

Jones Colombo e Jos Koiller (texto em preparao)

4.2. Conjuntos geradores e bases de subespaos

linear de seus elementos. Dizemos que este conjunto uma base de Rn . Nesta
seo vamos definir esse conceito precisamente. De fato, introduziremos o conceito
de base de um subespao, que no precisa ser o Rn inteiro.
Primeiro, precisamos generalizar a definio 2.20.
Definio 4.8
Seja G = {a1 , a2 , . . . , am } um conjunto de vetores de Rn e seja V um subespao
de Rn . Se o subespao gerado por a1 , . . . , am coincide com V , isto , se
V = Span{a1 , a2 , . . . , am },

(4.4)

dizemos que G = {a1 , . . . , am } um conjunto gerador do subespao V . Podemos dizer tambm, mais informalmente, que os vetores a1 , a2 , . . . , am geram V ,
ou ainda que o conjunto G gera V .
claro que a condio (4.4) ser vlida se e somente se forem vlidas as seguintes duas condies:3 (i) Span{a1 , . . . , am } V , e (ii) V Span{a1 , . . . , am }.
Em vista da proposio 4.3, a condio (i) equivale a dizer que cada vetor aj pertence a V . A condio (ii), por sua vez, equivale a dizer que qualquer vetor de V
pode ser gerado pelos vetores a1 , . . . , am . s vezes, mais conveniente considerar separadamente estas duas sub-condies (como no exemplo 4.16, adiante).
Sintetizamos essas consideraes na seguinte observao.
Observao 4.9
O conjunto G = {a1 , . . . , am } gera V se e somente se valem as seguintes condies:
(i) cada aj est em V ; e (ii) qualquer vetor de V gerado por a1 , . . . , am .
Agora estamos prontos para enunciar a principal definio desta seo.
Definio 4.10
Seja V um subespao de Rn . Um conjunto B = {a1 , a2 , . . . , ap } de vetores de Rn
dito uma base do subespao V se as seguintes condies estiverem satisfeitas:
1. B um conjunto gerador para V , isto , Span{a1 , . . . , ap } = V . Conforme
a observao 4.9, esta condio se desdobra em duas:
(i) Cada vetor aj pertence a V .
(ii) Qualquer vetor v de V pode ser gerado por a1 , . . . , ap .
2. O conjunto B = {a1 , . . . , ap } linearmente independente.
Repetindo, uma base de V um conjunto gerador de V que tambm linearmente
independente.
Enfatizamos a sub-condio 1(i): Se {a1 , . . . , ap } uma base de V , ento
cada um dos vetores aj tem que pertencer a V . Na observao abaixo, destacamos
outra condio necessria (mas no suficiente) para que um conjunto seja uma
base de um subespao de Rn .
3

necessrio que ambas sejam verdadeiras para que valha V = Span{a1 , . . . , am }.

Jones Colombo e Jos Koiller (texto em preparao)

87

Captulo 4. Subespaos, Bases e Dimenso

Observao 4.11
Se B = {a1 , . . . , ap } uma base de um subespao V de Rn , ento B tem, no
mximo, n elementos. Ou seja, a condio p 6 n necessria. Isso segue da
proposio 3.22, j que os elementos da base B so, afinal, vetores linearmente
independentes de Rn . Neste ponto, a hiptese V Rn importante.
Observao 4.12
Dizemos, por conveno, que a base do subespao trivial {0} de Rn o conjunto vazio = {}. Coerentemente, dizemos tambm que o conjunto vazio
linearmente independente, e que um conjunto gerador para o subespao trivial.
Exemplo 4.13
O conjunto {e1 , . . . , en }, onde os ej so dados em (4.2), uma base de Rn . Como
vimos, esse conjunto gera Rn e, conforme o exerccio p4.7, tambm linearmente
n
independente. Esse conjunto chamado de base cannica
nh i hdei Rh . ioA base




1
0
0
0 , 1 , 0
cannica do R2 , por exemplo, 10 , 01 , e a do R3
.
0

Cuidado!
Estamos usando os mesmos smbolos (ej ) para escrever vetores da base cannica
de R2 , de R3 ou de Rn , para n qualquer! Denotamos, por exemplo, a base cannica
de R2 por {e1 , e2 }, e a de R3 por {e1 , e2 , e3 }. Mas os ej do primeiro conjunto so
vetores de R2 , e os ej do segundo so vetores de R3 . J os ej de (4.2) so vetores
de Rn . Cabe a voc atentar ao contexto para sanar essa ambiguidade.
Observao
Base cannica significa base padro ou standard. Problemas e aplicaes so muitas
vezes formulados em termos da base cannica, mas s vezes esta no a base mais
conveniente para se usar no desenvolvimento e resoluo de tais problemas. Veremos
exemplos disso no captulo 8.

Exemplo 4.14
 
 
Sejam u = 13 e v = 25 . Verifique que {u, v} uma base de R2 .
Soluo: Esse exerccio muito simples.
Para verificar as condies da defini
o 4.10, escalonamos a matriz u v :






1 2
1 2 `2 `2 +3`1
u v =

.
3 5
0 11


Pelo teorema 2.23, como a matriz u v tem uma posio-piv em cada linha, o
conjunto {u, v} gera R2 ( evidente que u e v pertencem a R2 , logo a condio 1(i)
satisfeita). E, pelo teorema 3.17, como a matriz tem uma posio-piv em cada
coluna tambm, esse conjunto linearmente independente.
Exemplo 4.15
 
 
 
Sejam u = 13 , v = 25 e w = 89 . Determine se {u, v, w} uma base de R2 .
Soluo: O conjunto {u, v, w} gera R2 (verifique!), mas no linearmente independente (um conjunto de trs vetores em R2 nunca o , conforme a proposio 3.22). Assim, esse conjunto no uma base de R2 .
88

Jones Colombo e Jos Koiller (texto em preparao)

4.2. Conjuntos geradores e bases de subespaos

Exemplo 4.16
h 1i
h i
h 1 i
1
1
Sejam a1 = 12 , a2 = 3 e a3 =
os vetores do exemplo 4.6, e seja
2
10
novamente W = Span{a1 , a2 , a3 }. Como vimos, W um plano passando pela
origem de R3 . Evidentemente, {a1 , a2 , a3 } um conjunto gerador de W , pela
prpria definio de W . No entanto, esse conjunto no uma base de W , pois
no linearmente independente (conforme o exemplo 3.15). Vamos verificar, em
contrapartida, que B = {a1 , a2 } uma base de W .
A condio 1(i) da definio 4.10 claramente satisfeita: a1 e a2 pertencem
a W , em vista da observao 2.15. Para abordar a condio 1(ii), observamos
primeiro que o vetor a3 gerado por a1 e a2 . De fato, a3 = 4a1 +3a2 (verifique!).
Agora, seja w = c1 a1 + c2 a2 + c3 a3 um vetor de W , isto , um vetor qualquer
gerado por a1 , a2 e a3 . Ora, w pode ser escrito como combinao linear de a1 e a2
apenas, j que
w = c1 a1 + c2 a2 + c3 a3 =
= c1 a1 + c2 a2 + c3 (4a1 + 3a2 ) = (c1 4c3 )a1 + (c2 + 3c3 )a2 .
Assim, qualquer vetor de W gerado por a1 e a2 . Finalmente, temos que verificar
que {a1 , a2 } um conjunto linearmente independente (condio 2). Deixamos isso
como um exerccio para o leitor.
Na seo 4.5, veremos um mtodo para encontrar, no caso geral, uma base
para o subespao gerado por um dado conjunto de vetores. Abordaremos tambm
a construo, na prtica, de bases para o ncleo e o espao-coluna de uma dada
matriz.
No momento, vamos discutir alguns resultados tericos, considerando um subespao qualquer de Rn . Veremos, em particular, que todo subespao de Rn , de
fato, possui uma base (veja o teorema 4.20, abaixo). As demonstraes so
relegadas seo 4.7, cuja leitura opcional. No entanto, recomendamos que
voc leia os enunciados dos resultados com ateno, e procure entend-los de
uma maneira geomtrica e intuitiva. Para que a discusso no fique demasiado
abstrata, a construo de imagens mentais til. Para isso, voc pode pensar em
um subespao V abstrato como sendo R2 , R3 , ou, digamos, um plano passando
pela origem de R3 .
Dito esse prembulo, passemos aos resultados. Vimos no exemplo 4.16, acima,
que o vetor a3 , em certo sentido, um elemento redundante do conjunto gerador
{a1 , a2 , a3 } de W . Quando retiramos esse vetor, o conjunto {a1 , a2 } resultante
permanece, ainda, um conjunto gerador de W . Isso se deve ao fato de que a3 ,
ele prprio, gerado por a1 e a2 . O lema a seguir generaliza esse resultado.
Lema 4.17
Seja V um subespao de Rn , e seja G = {a1 , a2 , . . . , am } um conjunto gerador
de V . Se um dos vetores de G digamos, ak uma combinao linear dos
demais, ento o conjunto G 0 = {a1 , . . . , ak1 , ak+1 , . . . , am }, obtido pela remoo
do vetor ak de G, ainda um conjunto gerador de V .
Jones Colombo e Jos Koiller (texto em preparao)

89

Captulo 4. Subespaos, Bases e Dimenso

Observao
J poderamos ter enunciado e provado a essncia desse lema no captulo 2 (veja o
exerccio p4.8). Postergamo-lo at aqui para que pudssemos usar a linguagem da
definio 4.8 e para que estivssemos mais habituados aos conceitos envolvidos.

Teorema 4.18
Se G = {a1 , a2 , . . . , am } um conjunto gerador do subespao V, ento algum subconjunto de G (possivelmente o prprio G) uma base de V. Em outras palavras,
ou G uma base de V, ou ento podemos obter uma base de V pelo processo de
remover de G um ou mais elementos.
O teorema 4.18 diz que qualquer conjunto gerador de V pode ser reduzido
a uma base, mediante a remoo de vetores redundantes. Um caso particular
simples foi ilustrado no exemplo 4.16. Veja tambm o exerccio p4.9.
O teorema a seguir , em certo sentido, complementar ao anterior. Ele diz
que qualquer conjunto linearmente independente de vetores de V pode ser expandido para constituir uma base. O ingrediente principal da demonstrao o
exerccio resolvido r3.3 (pgina 77).
Teorema 4.19
Seja V um subespao de Rn . Se I um conjunto linearmente independente de
vetores de V, ento existe uma base de V que contm o conjunto I. Em outras
palavras, ou I uma base de V, ou ento podemos obter uma base pelo processo
de acrescentar a I, apropriadamente, um ou mais vetores de V.
O teorema acima tem a importante consequncia a seguir.
Teorema 4.20
Todo subespao de Rn possui uma base finita.
Demonstrao: Seja V um subespao qualquer de Rn . O conjunto vazio
linearmente independente (pela observao 4.12) e est contido em V .4 Assim,
podemos aplicar o teorema 4.19 e acrescentar vetores ao conjunto vazio de
maneira a obter uma base de V .5
Perceba que a definio 4.10 requer, tacitamente, que uma base de um subespao de Rn seja composta por um nmero finito de vetores.6 Assim, no contexto
de subespaos de Rn , a expresso base finita um pleonasmo. s vezes, no
entanto, importante enfatizar a finitude, como fizemos no enunciado do teorema 4.20.
4

Ou seja, todo elemento de um elemento de V . Por estranha que parea, essa afirmativa
vale por vacuidade. Afinal, no existem elementos de que no pertenam a V (pois, simplesmente, no existem elementos de !). De fato, o conjunto vazio um subconjunto de qualquer
conjunto, como voc talvez j saiba.
5
Se voc no estiver convencido de que esse argumento seja vlido, verifique que a prova
do teorema 4.19, na seo 4.7, funciona mesmo no caso em que o conjunto I vazio. Basta
substituir as referncias a {a1 , . . . , am } por referncias a = {}, o que corresponde ao caso
m = 0. Voc ter que adaptar tambm o exerccio r3.3.
6
Mesmo que a finitude no fosse imposta por definio, ela ainda estaria garantida pela
observao 4.11.

90

Jones Colombo e Jos Koiller (texto em preparao)

4.3. Dimenso de um subespao

Esse teorema vlido mesmo no caso do subespao trivial {0} de Rn . Com


efeito, o subespao trivial tem uma base finita: o conjunto vazio, que tem zero
elementos (veja a observao 4.12).
O teorema 4.20 garante a existncia de uma base para qualquer subespao
de Rn , mas nada afirma sobre a unicidade. A base cannica {e1 , e2 } e o conjunto
{u, v} do exemplo 4.14 so ambos bases de R2 . Isso mostra que um subespao
pode ter mais de uma base. Na realidade, um subespao que no seja o trivial
sempre possui uma infinidade de bases, cada uma das quais composta por um
nmero finito de vetores (veja o exerccio p4.12). Em contrapartida, o conjunto
vazio a nica base do subespao trivial.
Observao
A proposio 4.4 diz que o span de um dado conjunto de vetores um subespao.
Segue do teorema 4.20 que todo subespao V de Rn pode ser descrito como o span
de certos vetores. Com efeito, se B = {a1 , . . . , ap } uma base de V , ento V =
Span{a1 , . . . , ap } = Col a1 am . Isso significa que o span e o espao-coluna no
so tipos especiais de subespaos. mais correto pensar no span e no espao-coluna
como formas de descrever subespaos. Tambm verdade que qualquer subespao de
Rn pode ser descrito como o ncleo de certa matriz (assim, o ncleo tambm no um
exemplo especial de subespao), mas isso no ser provado aqui.

4.3

Dimenso de um subespao

Discutimos o conceito de dimenso, informalmente, no captulo 2 (subseo 2.1.2). Nesta seo, finalmente, estudaremos o conceito precisamente. Uma
boa internalizao da ideia de dimenso, em nvel intuitivo, valiosa. Ela auxilia muito na compreenso da natureza dos subespaos. Assim, recomendamos
uma leitura cuidadosa desta seo, ainda que voc decida omitir as demonstraes.
O lema a seguir a pea fundamental desta seo, da qual decorrem naturalmente os demais resultados. Sua demonstrao, no entanto, relegada
seo 4.7.
Lema 4.21
Seja V um subespao de Rn , e suponha que V tenha um conjunto gerador com
m elementos. Ento qualquer conjunto contendo mais do que m vetores de V ,
necessariamente, linearmente dependente.
A parte (a) da proposio abaixo generaliza a proposio 3.22 (pgina 75). A
parte (b) generaliza a proposio 2.25 (pgina 57).
Proposio 4.22
Seja V um subespao de Rn , e suponha que V tenha uma base contendo p elementos. Ento valem as seguintes afirmativas.
(a) Um conjunto contendo mais do que p vetores de V linearmente dependente.
(b) Um conjunto contendo menos do que p vetores de V no gera V .
Jones Colombo e Jos Koiller (texto em preparao)

91

Captulo 4. Subespaos, Bases e Dimenso

Demonstrao: Seja B uma base de V contendo p vetores. Por ser uma base, B
um conjunto gerador de V . Assim, a afirmativa (a) segue da aplicao direta
do lema 4.21 (com p no papel de m). Agora, se existisse um conjunto gerador
de V com menos do que p elementos, o conjunto B teria que ser linearmente
dependente, em razo, novamente, do lema. Mas B linearmente independente,
por ser uma base. Ou seja, a negao da afirmativa (b) leva a uma contradio
com as hipteses da proposio. Conclui-se que (b) tem que ser verdadeira.
O teorema 4.20 garante a existncia de uma base para qualquer subespao de
R , mas, alm da finitude, nada diz a respeito da quantidade de elementos em
uma base. O teorema a seguir, que crucial, aborda essa questo.
n

Teorema 4.23
Seja V um subespao de Rn . Se V possuir uma base composta por p vetores,
ento qualquer base de V conter exatamente p vetores. Em outras palavras,
dado um subespao de Rn , qualquer uma de suas bases contm o mesmo nmero
de elementos.
Demonstrao: Suponha que V tenha uma base contendo p elementos. Se um
conjunto S de vetores de V contiver mais do que p vetores, ento ele ser linearmente dependente, pela afirmativa (a) da proposio 4.22. Se S contiver menos
do que p vetores, ele no poder gerar V , pela afirmativa (b). Em qualquer um
dos casos, S no ser uma base de V . Portanto, para ser uma base de V , um
conjunto dever conter exatamente p elementos.
Agora, estamos prontos para definir o conceito de dimenso.
Definio 4.24
Seja V um subespao de Rn . A dimenso de V, denotada por dim V, o nmero
de vetores contidos em qualquer base de V.
Essa definio tem sentido graas aos teoremas 4.20 e 4.23. Se um subespao
de Rn no tivesse nenhuma base, qual seria sua dimenso? E se um subespao
tivesse uma base com quatro vetores, digamos, e outra base com cinco vetores?
Sua dimenso seria quatro ou cinco? Ou seria algum outro nmero? Os teoremas
citados garantem que estes dilemas nunca ocorrem. Dado um subespao, bases
existem e todas elas tm igual nmero de vetores. Este nmero, que chamamos
de dimenso, est portanto bem definido.
Exemplo 4.25 (A dimenso de Rn )
A base cannica de Rn tem n vetores (veja o exemplo 4.13). De acordo com o
teorema 4.23, qualquer base de Rn ter precisamente n vetores. Assim, a dimenso
de Rn igual a n, conforme a definio 4.24. Observe que essa concluso condiz
com a conveno que adotamos na subseo 2.1.2.
A dimenso do subespao trivial {0} igual a zero. Isso decorre da conveno
de que o conjunto vazio , que contm zero vetores, uma base de {0}.
Lembre que um conjunto S de vetores ser uma base de V se for linearmente independente e gerar V . O teorema abaixo diz que, caso saibamos que S
92

Jones Colombo e Jos Koiller (texto em preparao)

4.3. Dimenso de um subespao

tem a quantidade certa de vetores, s precisamos verificar uma dessas duas


propriedades. Para isso, no entanto, preciso conhecer a priori a dimenso de V .
Teorema 4.26
Seja V um subespao de Rn de dimenso igual a p.
(a) Se S um conjunto linearmente independente contendo exatamente p vetores
de V , ento S automaticamente gera V, e, portanto, uma base de V.
(b) Se S um conjunto gerador de V contendo exatamente p vetores, ento S
automaticamente linearmente independente, e, portanto, uma base de V.
Esse teorema uma consequncia direta dos resultados desta seo e da anterior. A demonstrao detalhada est na seo 4.7.
Observao 4.27
O teorema 4.26 muito til. Ele implica, em particular, no seguinte fato: um
conjunto linearmente independente com n vetores de Rn , automaticamente, uma
base de Rn . Basta lembrar que a dimenso de Rn n, e aplicar a parte (a) do
teorema. Similarmente, um conjunto gerador de Rn com n elementos uma base
de Rn (basta aplicar a parte (b)).
Podemos usar a dimenso para classificar os subespaos de Rn . Nos exemplos
a seguir, consideramos os subespaos de R2 e de R3 , cujas classificaes possuem
interpretaes geomtricas simples.7
Exemplo 4.28 (Classificao dos subespaos de R2 )
Um subespao de R2 tem dimenso, no mximo, igual a 2. Isso uma consequncia da observao 4.11: uma base de um subespao de R2 tem, no mximo, dois
elementos. Assim, um subespao de R2 tem dimenso igual a 0, 1 ou 2. Consideremos cada caso:
Subespaos de dimenso zero: O nico subespao de dimenso zero de R2
o subespao trivial {02 }. Geometricamente, esse subespao representado
por um ponto: a origem de R2 .
Subespaos unidimensionais: So os subespaos gerados por um nico vetor no-nulo. Geometricamente, esses subespaos so as retas em R2 que
passam pela origem.
Subespaos bidimensionais: O nico subespao de R2 de dimenso igual a
dois o prprio R2 . De fato, um subespao de dimenso dois gerado por
dois vetores linearmente independentes (pois tem uma base contendo dois
elementos). Mas dois vetores linearmente independentes em R2 geram o R2
todo, pela observao 4.27. Geometricamente, o R2 representado por um
plano, como j sabemos.
7

Os exemplos mostraro que o conceito de dimenso ajuda na classificao geomtrica


dos subespaos de Rn . Essa interpretao geomtrica, por sua vez, ajuda muito na assimilao
do conceito de dimenso. Do ponto de vista estritamente lgico, isso pode parecer um crculo
vicioso. Didaticamente, no entanto, um crculo virtuoso. Tire proveito disso!

Jones Colombo e Jos Koiller (texto em preparao)

93

Captulo 4. Subespaos, Bases e Dimenso

Exemplo 4.29 (Classificao dos subespaos de R3 )


Um subespao de R3 tem dimenso igual a 0, 1, 2 ou 3 (justifique!). Consideremos
cada caso:
Subespaos de dimenso zero: Somente o subespao trivial {03 }. Geometricamente, esse subespao representado por um ponto: a origem de R3 .
Subespaos unidimensionais: So os subespaos gerados por um nico vetor no-nulo. Geometricamente, esses subespaos so as retas em R3 que
passam pela origem.
Subespaos bidimensionais: So os subespaos gerados por dois vetores linearmente independentes. Geometricamente, esses subespaos so os planos
em R3 que passam pela origem.
Subespaos tridimensionais: O nico subespao de R3 de dimenso igual a
trs o prprio R3 . O argumento anlogo ao do exemplo anterior, e usa o
fato de que trs vetores linearmente independentes em R3 geram o R3 todo.
Podemos generalizar esses exemplos (veja o exerccio p4.13), e concluir que
existem exatamente n + 1 tipos de subespaos de Rn : o de dimenso zero (apenas
o subespao trivial {0n }), os de dimenso um, os de dimenso dois, e assim por
diante, at o de dimenso igual a n (apenas o prprio Rn ).

4.4

Coordenadas com respeito a uma base

No incio da seo 4.2, vimos que qualquer vetor de Rn pode ser representado de uma nica maneira como combinao linear dos vetores da base cannica {e1 , . . . , en }. O teorema a seguir mostra que essa uma propriedade de
qualquer base, em qualquer subespao.
Teorema 4.30
Seja B = {a1 , a2 , . . . , ap } uma base para um subespao V de Rn . Para cada vetor
v de V , existe uma nica lista de escalares c1 , . . . , cp tal que
v = c1 a1 + c2 a2 + + cp ap .

(4.5)

Ou seja, existe uma nica maneira de expressar v V como combinao linear


dos elementos de B.
Demonstrao: O conjunto B gera V , porque , por hiptese, uma base de V .
Assim, para cada v V , existem escalares c1 , . . . , cp satisfazendo (4.5). Como o
conjunto B tambm linearmente independente, essa representao (4.5) nica,
em vista da proposio 3.20.
Exemplo 4.31
Sejam a1 , a2 e a3 os vetores do exemplo 4.16. J estabelecemos que B = {a1 , a2 }
94

Jones Colombo e Jos Koiller (texto em preparao)

4.4. Coordenadas com respeito a uma base

h 3i
uma base de W = Span{a1 , a2 , a3 }. Considere agora o vetor v = 94 . Observe
que v uma combinao linear de a1 , a2 e a3 (isto , v W ), pois
h 1 i h i h 1 i h 3 i
1
a1 + a2 a3 = 12 + 3 1 = 94 = v.
2

10

No entanto, existem muitas maneiras de escrever v como combinao linear de


a1 , a2 e a3 , j que estes vetores so linearmente dependentes (veja o exemplo 3.15
e a proposio 3.20). Vale tambm, por exemplo,
h 1i
h i h 1 i h 3 i
1
9a1 5a2 + a3 = 9 12 5 3 + 1 = 94 = v.
2

10

Para se obter todas as maneiras de escrever v como combinao linear de a1 , a2


e a3 , necessrio resolver o sistema x1 a1 + x2 a2 + x3 a3 = v.
Em contrapartida, pelo teorema 4.30, v = 5a1 2a2 a nica forma de
representar v como combinao linear de a1 e a2 , j que B = {a1 , a2 } uma
base
 x1  de W5. Voc pode verificar, usando a teoria do captulo 1 diretamente, que
x2 = 2 a nica soluo do sistema x1 a1 + x2 a2 = v.
Neste exemplo, usamos o vetor v em particular, mas resultados similares valem
para qualquer vetor de W .
Vamos tecer algumas concluses a respeito do exemplo acima. Vimos, no
exemplo 4.16, que os conjuntos {a1 , a2 , a3 } e {a1 , a2 } ambos geram W (em smbolos, W = Span{a1 , a2 , a3 } = Span{a1 , a2 }).8 Assim, podemos representar
vetores de W usando combinaes lineares de a1 , a2 e a3 , ou de a1 e a2 apenas.
Mas as representaes usando apenas a1 e a2 so claramente mais econmicas,
pois envolvem apenas dois vetores (compare a representao v = 5a1 2a2 com
v = a1 + a2 a3 ou com v = 9a1 5a2 + a3 ). Alm disso, tais representaes so
nicas, inambguas, visto que {a1 , a2 } uma base de W . Em sntese, vantajoso
representar os vetores de W usando uma base. Isso motiva a definio abaixo.
Definio 4.32
Seja V um subespao de Rn , seja B = {a1 , . . . , ap } uma base de V , e seja v um
vetor de V . Pelo teorema 4.30, existe uma nica representao
v = c1 a1 + c2 a2 + + cp ap

(4.6)

de v como combinao linear de a1 , . . . , ap . Nestas condies, os escalares


c1 , . . . , cp so chamados de coordenadas do vetor v com relao base B.
O vetor de Rp cujas coordenadas so c1 , . . . , cp chamado de vetor de coordenadas de v com relao a B, que denotamos por

c1
c2

[v]B = .. .
.
cp
8

Lembre-se de que W foi definido como Span{a1 , a2 , a3 } no exemplo 4.16.

Jones Colombo e Jos Koiller (texto em preparao)

95

Captulo 4. Subespaos, Bases e Dimenso

Atente para as premissas da definio acima. Enfatizamos que s faz sentido


falar de coordenadas de v com respeito a B se B for uma base de um subespao,
e se v for um vetor pertencente a esse mesmo subespao.
Um vetor de V fica completamente determinado (ou especificado) por meio
de suas coordenadas com relao a uma dada base de V . De fato, se c1 , . . . , cp
so as coordenadas de v com respeito base {a1 , . . . , ap }, ento o vetor v fica
determinado pela relao (4.6) (veja o exerccio resolvido r4.1).
Observao 4.33
Na definio 4.32, o vetor v pertence a Rn , pois v um vetor do subespao V , e,
por hiptese, V Rn . Repare, no entanto, que [v]B um vetor de Rp ! Perceba
tambm que p a dimenso de V (j que o nmero de elementos na base B).
Veja o exemplo 4.37, adiante.
Encontrar as coordenadas de um vetor v V com relao a uma base
{a1 , . . . , ap } de V simples. Basta resolver o sistema x1 a1 + + xp ap = v.
Exemplo 4.34
 
 
 
Sejam u = 13 , v = 25 e w = 89 os vetores dos exemplos 4.14 e 4.15. J
vimos que {u, v} uma base de R2 . Determine as coordenadas de w R2 com
respeito a essa base.
Soluo: Temos que resolver o sistema x1 u + x2 v = w, para obter a (nica)
representao de w como combinao linear de u e v. Escalonando a matriz
completa desse sistema, obtemos:






8
1 2 8 `2 `2 +3`1
1 2
u v w =

3 5 9
0 11 33




1 0 2
1 2 8 `1 `1 +2`2
`1 `1

0
1
3
0 1
3
`2 `2 /11
A nica soluo do sistema x1 = 2, x2 = 3 e temos, portanto, w = 2u + 3v.
Isso significa que as coordenadas de w com respeito base {u, v} so 2 e 3, e
o vetor de coordenadas de w com respeito a essa base [w]{u,v} = 23 .
Exemplo 4.35  
 
Sejam agora y = 23 , z = 20 . Verifique
que {y, z} uma base de R2 , e calcule

as coordenadas do vetor w = 89 com relao a essa base.
Soluo: Deixamos a verificao de que {y, z} uma base como um exerccio para
o leitor. Para calcular as coordenadas de w com respeito a essa base, procedemos
como no exemplo anterior, resolvendo o sistema x1 y + x2 z = w:






2 2 8 `1 `1 /2 1 1 4
y z w =

3 0 9 `2 `2 /3 1 0 3




1 0 3 `2 `2 `1
1 0 3
`1 `2

.
1 1 4
0 1 1
Assim, temos w = 3y + z e, portanto,
o vetor de coordenadas de w com respeito

base {y, z} [w]{y,z} = 31 .
96

Jones Colombo e Jos Koiller (texto em preparao)

4.4. Coordenadas com respeito a uma base

Observe
  que o vetor w o mesmo nos dois exemplos anteriores (a saber,
o vetor 89 R2 ). No entanto, seus vetores de coordenadas [w]{u,v} e [w]{y,z}
com relao a bases distintas so tambm distintos. comum dizermos que uma
base de um subespao fornece um sistema de coordenadas nesse subespao. Bases
distintas fornecem sistemas de coordenadas distintos. Isso ilustrado, usando os
exemplos acima, pela figura 4.1.
x2

x2

v
y

u
x1

(a)

x1

(b)

Figura 4.1: Dois sistemas de coordenadas em R2 .


O reticulado na figura 4.1(a) uma representao grfica do sistema de coordenadas em R2 induzido pela base {u, v}. Os pontos onde as linhas se encontram
representam as combinaes lineares de u e v com pesos inteiros. Verifique geometricamente, aplicando a regra do paralelogramo diretamente sobre a figura,
que w = 2u + 3v, conforme o exemplo 4.34.
J o reticulado na figura 4.1(b) representa o sistema de coordenadas associado
base {y, z}. Usando a regra do paralelogramo, mais uma vez, verifique que
w = 3y + z, conforme o exemplo 4.35. Observe, novamente, que o vetor w
o mesmo nas duas figuras (as setas que o representam so, de fato, idnticas).
O que mudou da figura (a) para a (b) foi somente o sistema de coordenadas
considerado.
A base cannica tambm fornece um sistema de coordenadas, que simplesmente o sistema usual de coordenadas cartesianas. A figura 2.1(a) (pgina 36)
ilustra o sistema de coordenadas cartesianas em R2 . Nas figuras 4.1(a) e (b), os
eixos x1 e x2 so apenas uma lembrana do sistema cartesiano (esses eixos no
so adequados aos sistemas de coordenadas considerados nas figuras).
Exemplo 4.36
8
2
Seja C = {e1 ,e2 } a base
cannica
do
R
,
e
seja
novamente
w
=
9 . evidente

que w = 8 10 + 9 01 = 8e1 + 9e2 . Assim, as coordenadas de w com relao
base cannica so 8 e 9.
Mais geralmente, se v um vetor de Rn de coordenadas v1 , v2 , . . . , vn , ento
a equao (4.3) (pgina 86) mostra que v1 , . . . , vn so as coordenadas de v com
Jones Colombo e Jos Koiller (texto em preparao)

97

Captulo 4. Subespaos, Bases e Dimenso

respeito base cannica de Rn . Ou seja, quando nos referimos simplesmente s


coordenadas de um vetor de Rn , sem referncia a uma base (como vnhamos
fazendo at esta seo), a qualificao adicional com respeito base cannica
fica subentendida.
O prximo exemplo mais interessante do que os anteriores, pois descreve um
sistema de coordenadas em um subespao prprio de R3 (isto , em um subespao
que no o R3 inteiro).
Exemplo 4.37
Sejam a1 , a2 e a3 os vetores dos exemplos 4.6 e 4.16. J verificamos, no segundo
desses exemplos, que B = {a1 , a2 } uma base do plano W = Span{a1 , a2 , a3 }. A
base B, portanto, fornece um sistema de coordenadas em W , conforme ilustra a
figura 4.2 (compare com a figura 2.7 da pgina 62).
x3
W

a3

a2
x2

a1
x1
v

Figura 4.2: O sistema de coordenadas no plano W dado pela base B = {a1 , a2 }.


h 3i
O vetor v = 94 do exemplo 4.31 tambm est ilustrado na figura 4.2.
Vimos, naquele exemplo, que v = 5a1 2a2 (verifique, caso no o tenha feito
ainda). Isso quer dizer
 5que
 as coordenadas de v com relao base B so 5
e 2, isto , [v]B = 2 . interessante verificar a igualdade v = 5a1 2a2
geometricamente, aplicando a regra do paralelogramo sobre figura 4.2.
Similarmente, no exemplo 4.16, vimos que a3 = 4a1 + 3a2 . (Verifique isso
geometricamente, usando, mais uma vez, a figura 4.2 e a regra do paralelogramo.)
 
Assim, o vetor de coordenadas de a3 com relao base B [a3 ]B = 43 .
Observe, no exemplo acima, que v um vetor de R3 (assim como a3 ), mas que
[v]B um vetor de apenas duas coordenadas (assim como [a3 ]B ). Por estranha
que essa situao possa parecer, ela consistente com a definio 4.32, j que a
base B do plano W possui apenas dois elementos, isto , W tem dimenso igual
a 2 (veja tambm a observao 4.33). Intuitivamente, o que ocorre que, j que
o vetor v est contido no plano W , podemos especific-lo usando um sistema de
coordenadas sobre esse plano. No necessrio usar um sistema de coordenadas
98

Jones Colombo e Jos Koiller (texto em preparao)

4.5. Bases para Nuc A, Col A e Span{a1 , . . . , am }

no espao R3 inteiro para especificar vetores contidos em W . Por outro lado, um


sistema de coordenadas sobre o plano W no suficiente para especificar vetores
quaisquer de R3 .
A situao descrita acima tem uma analogia com um exemplo mais concreto.
Vivemos num universo de trs dimenses espaciais (semelhante ao R3 ). No entanto, para especificar um ponto sobre a superfcie do planeta Terra, bastam duas
coordenadas: sua latitude e sua longitude. Os paralelos e meridianos definem um
sistema de coordenadas sobre a superfcie da Terra, assim como a base {a1 , a2 }
define um sistema de coordenadas sobre o plano W . Essa analogia, no entanto,
no perfeita. De fato, ela tem uma falha gravssima: A superfcie da Terra
no um subespao, e o sistema de coordenadas geogrficas no dado por uma
base, no sentido estrito da definio 4.10.
Observao
interessante notar que definio 4.32 s faz sentido graas ao teorema 4.30. De fato,
esse teorema garante a existncia e a unicidade do vetor de coordenadas [v]B , para
qualquer v V , quando B uma base de V . Repare, em particular, que se existisem
duas (ou mais) maneiras de escrever v como uma combinao linear dos elementos
de B, a definio de [v]B seria ambgua. O teorema 4.30 garante que isso nunca ocorre.

4.5

Bases para Nuc A, Col A e Span{a1, . . . , am}

Os resultados das sees 4.3 e 4.4 atestam a importncia do conceito de base.


Na seo 4.2, vimos que qualquer subespao de Rn , de fato, possui uma base
(teorema 4.20). No estudamos, no entanto, como construir, na prtica, uma
base para um dado subespao. Esse o objetivo desta seo. Ilustraremos,
por meio de exemplos, como determinar bases para subespaos especificados de
diversas formas. Discutiremos tambm a dimenso desses subespaos.

4.5.1

Uma base para Nuc A

Recorde os exemplos 3.12 e 3.13 da seo 3.2, bem como o exerccio p3.10.
Vimos que, dada uma matriz A, podemos escrever Nuc A explicitamente como o
span de certos vetores. Esses vetores formaro, portanto, um conjunto gerador
de Nuc A. O mtodo proposto nesses exemplos sempre produzir, de fato, uma
base do ncleo, como argumentaremos nesta subseo.
Exemplo 4.38
Vamos obter um conjunto gerador

0
1
A=
2
1

do ncleo da matriz A de (1.13) (pgina 13):

3 6
4
9
2 1
3
1
.
3
0
3 1
4
5 9 7

Temos que resolver o sistema Ax = 0, a fim de achar uma descrio explcita


de Nuc A, seguindo o procedimento da seo 3.2. Felizmente, j obtivemos a forma
Jones Colombo e Jos Koiller (texto em preparao)

99

Captulo 4. Subespaos, Bases e Dimenso

escalonada reduzida de A: a matriz B dada em (1.15) (pgina 18). Assim, o


sistema Ax = 0 equivalente a Bx = 09 , cuja matriz completa

1 0 3 0
5 0
 0 1

2 0 3 0
.
B 0 =
0 0
0 1
0 0
0 0
0 0
0 0
As variveis bsicas so x1 , x2 e x4 , e as livres so x3 e x5 . A descrio vetorial
paramtrica do conjunto-soluo de Ax = 0 , ento, dada por


5
x1
3x3 5x5
3
x2 2x3 + 3x5
2
3



= x3 1 +x5 0 = x3 u1 + x5 u2 .
x3
(4.7)
x=

x3 =

x4

0
0
0
1
x5
x5
0
| {z }
| {z }
u1
u2
Isso mostra que {u1 , u2 } um conjunto gerador de Nuc A, onde u1 e u2 so os
vetores de R5 indicados acima. Em smbolos, Nuc A = Span{u1 , u2 }.
Observao 4.39
Os vetores u1 e u2 obtidos no exemplo acima so linearmente independentes, pois
teremos x3 u1 + x5 u2 = 0 somente se os pesos x3 e x5 forem ambos iguais a zero.
A forma mais fcil de perceber isso examinar as componentes 3 e 5 do vetor
x = x3 u1 + x5 u2 , que so x3 e x5 , respectivamente. Evidentemente, para que x
seja o vetor zero, necessrio que essas componentes sejam nulas.
Assim, o conjunto gerador {u1 , u2 } linearmente independente e , portanto,
uma base de Nuc A.
O mtodo utilizado no exemplo acima para determinar um conjunto gerador
do ncleo de uma matriz sempre produzir uma base, pois um argumento anlogo
ao da observao 4.39 ser vlido em todos os exemplos dessa natureza.
Exemplo 4.40
Determine uma base para o ncleo da matriz

2
6
2 4
4
3 3 14 10 .
C= 1
1 3
0 2
1
Soluo: Mais uma vez, temos que resolver o sistema homogneo Cx = 0. Verifique que a forma escalonada reduzida da matriz completa [C 0] dada por

1 3 0
2 1 0
0 0 1 4
3 0 .
0 0 0
0
0 0
9

100

Caso tenha dvidas quanto a isso, veja o exerccio p3.5(b).

Jones Colombo e Jos Koiller (texto em preparao)

4.5. Bases para Nuc A, Col A e Span{a1 , . . . , am }

Assim, o conjunto-soluo do sistema Cx = 0 descrito, em termos das variveis


livres x2 , x4 e x5 , por



x1
2
1
3x2 2x4 + x5
3
x2

x2

0
0

1

= x2 0 +x4 4 +x5 3
x=
x3 = 4x4 3x5


x4
1
0

0
x4
0
1
x5
x5
0
| {z }
| {z }
| {z }
v1
v2
v3
= x2 v1 + x4 v2 + x5 v3 . (4.8)
Sejam v1 , v2 e v3 os vetores de R5 indicados acima. O conjunto {v1 , v2 , v3 }
uma base de Nuc C: esse conjunto no apenas gera Nuc C, como tambm
linearmente independente. Como mencionamos, um argumento anlogo ao da
observao 4.39 justifica a independncia linear. Os detalhes so deixados para o
exerccio p4.21.
Vamos, agora, discutir a dimenso do ncleo de uma matriz. Primeiro, consideramos os dois exemplos anteriores. A dimenso do ncleo da matriz A do
exemplo 4.38 igual a 2, pois a base {u1 , u2 } de Nuc A tem dois elementos
(assim, pelo teorema 4.23, qualquer base ter dois elementos). Observe que o
sistema Ax = 0 tem duas variveis livres, x3 e x5 , que so os coeficientes dos
vetores u1 e u2 na descrio paramtrica (4.7).
O ncleo da matriz C do exemplo 4.40, por sua vez, tem dimenso igual a 3,
pois a base {v1 , v2 , v3 } tem trs elementos. Observe, mais uma vez, que o sistema
Cx = 0 tem trs variveis livres, x2 , x4 e x5 , que so os coeficientes dos vetores
v1 , v2 e v3 na descrio (4.8).
Perceba que, para qualquer matriz A, sempre haver uma correspondncia
biunvoca entre as variveis livres do sistema Ax = 0 e os vetores da base de Nuc A
construda pelo mtodo dos exemplos acima. Com efeito, cada varivel livre ser
o coeficiente de um dos vetores da base, na descrio vetorial paramtrica do
conjunto-soluo de Ax = 0. Assim, a dimenso de Nuc A ser igual ao nmero
de variveis livres do sistema Ax = 0.
Lembre-se de que as variveis livres do sistema Ax = 0 so aquelas que
correspondem s colunas no-piv da matriz de coeficientes A. Assim, vale o
seguinte resultado.
Proposio 4.41
Seja A uma matriz qualquer. A dimenso do ncleo de A igual ao nmero de
colunas no-piv de A.
A dimenso do ncleo de A, que denotamos por dim Nuc A, s vezes chamada
de nulidade da matriz A.

4.5.2

Uma base para Col A

Veremos, nesta subseo, como obter uma base para o espao das colunas de
uma matriz. Comecemos com um exemplo simples.
Jones Colombo e Jos Koiller (texto em preparao)

101

Captulo 4. Subespaos, Bases e Dimenso

Exemplo 4.42
Vamos encontrar uma base para Col B, onde B a matriz de (1.15) (pgina 18):

1 0 3 0
5
0 1
2 0 3
.
B=
0 0
0 1
0
0 0
0 0
0
Denotamos as colunas de B por b1 , b2 , . . . , b5 . A matriz B est na forma
escalonada reduzida, ento fcil ver que as colunas no-piv b3 e b5 so combinaes lineares das demais. De fato, podemos ler, diretamente da matriz B,
as relaes b3 = 3b1 + 2b2 e b5 = 5b1 3b2 .
Por definio, {b1 , . . . , b5 } um conjunto gerador do espao-coluna de B,
isto , Col B = Span{b1 , . . . , b5 }. Em vista do lema 4.17, podemos remover os
vetores redundantes b3 e b5 , e o conjunto resultante {b1 , b2 , b4 } ainda ir gerar
Col B. Se quiser, verifique esse fato diretamente, usando um argumento similar
ao do exemplo 4.16. Verifique, tambm, que o conjunto {b1 , b2 , b4 } linearmente
independente (veja o exerccio p4.23). Isso mostra que esse conjunto uma base
de Col B.
O exemplo acima particularmente simples porque a matriz B est na forma
escalonada reduzida. Antes de passar a um exemplo mais interessante, precisamos
do resultado a seguir.
Proposio 4.43
Sejam A e B matrizes linha-equivalentes. Ento os vetores-coluna de A e os
vetores-coluna de B possuem as mesmas relaes de dependncia linear.
Demonstrao: Se A e B so linha-equivalentes, ento as matrizes [A 0] e [B 0]
tambm so linha-equivalentes (veja o exerccio p3.5(b)). Assim, os sistemas
Ax = 0 e Bx = 0 tm o mesmo conjunto-soluo. Para terminar a demonstrao,
basta lembrar que as solues no-triviais de um sistema Ax = 0 correspondem
precisamente s relaes de dependncia linear entre as colunas de A (veja o
exerccio p3.18).
O significado dessa proposio ficar mais claro no exemplo abaixo.
Exemplo 4.44
Vamos achar uma base para Col A, onde A a matriz de (1.13) (pgina 13):

0 3 6
4
9
1 2 1
3
1
.
A=
2 3
0
3 1
1
4
5 9 7
Denotamos as colunas de A por a1 , a2 , . . . , a5 . Observe que a matriz A
linha-equivalente matriz B do exemplo anterior (de fato, B foi obtida de A por
operaes-linha, na seo 1.5). Pela proposio 4.43, as colunas a1 , . . . , a5 da
102

Jones Colombo e Jos Koiller (texto em preparao)

4.5. Bases para Nuc A, Col A e Span{a1 , . . . , am }

matriz A tm as mesmas relaes de dependncia linear que as colunas b1 , . . . , b5


da matriz B. J havamos observado que b3 = 3b1 + 2b2 e que b5 = 5b1 3b2 .
Assim, valem tambm as relaes a3 = 3a1 + 2a2 e a5 = 5a1 3a2 (verifique-as
diretamente!).
Dessa maneira, podemos remover os vetores redundantes a3 e a5 do conjunto {a1 , . . . , a5 }, e o conjunto resultante {a1 , a2 , a4 } ainda ir gerar Col A. Esse
conjunto tambm linearmente independente, pelo seguinte argumento. Se houvesse uma relao de dependncia linear entre os vetores a1 , a2 e a4 , essa mesma
relao valeria para os vetores b1 , b2 e b4 , pela proposio 4.43, novamente. Mas
j constatamos que b1 , b2 e b4 so linearmente independentes.
Assim, mostramos que o conjunto {a1 , a2 , a4 } uma base de Col A. Observe
que esse o conjunto formado pelas colunas-piv da matriz A.
Os exerccios p4.22 e p4.24 contm um roteiro para generalizar os exemplos
acima, de forma a demonstrar o resultado a seguir.
Proposio 4.45
As colunas-piv de uma matriz constituem uma base de seu espao-coluna.
Para achar uma base para o espao-coluna de uma matriz, portanto, basta
desvendar, via escalonamento, quais so suas colunas-piv.
Exemplo 4.46
Encontre uma base para o espao das colunas da matriz

1 2
8
2 4 .
C = 0
3
2
8
Soluo: Vamos escalonar a matriz C:

8
1 2
8
1 2
8
1 2
`3 `3 3`1
`3 `3 4`2
0
2 4
2 4
2 4 .
0
0
3
2
8
0
8 16
0
0
0

(4.9)

Observe que no necessrio obter a forma escalonada reduzida. Constatamos


que as colunas-piv da matriz C so a primeira e a segunda. Assim, pela proposio 4.45, uma base de Col C dada pelo conjunto

2
1
0 , 2 .
(4.10)

3
2
Verifique que, de fato, a terceira coluna de C gerada pelas duas primeiras.
Cuidado!
Na busca de uma base para o espao-coluna de uma dada matriz, o escalonamento
serve apenas para determinar quais so as suas colunas-piv. Ao escrever a base,
tenha o cuidado de usar as colunas da prpria matriz dada, e no as da forma
Jones Colombo e Jos Koiller (texto em preparao)

103

Captulo 4. Subespaos, Bases e Dimenso

escalonada obtida. Observe, no exemplo 4.46, que a base (4.10) hdeiColhC i


2
1
2
composta pelas colunas-piv da matriz C, e no pelas colunas-piv 0 e
0
0
da matriz escalonada em (4.9). Estes dois vetores, de fato, no geram o espaocoluna de C. Note, em particular, que eles tm zero como ltimo elemento, e,
portanto, no podem gerar nenhum dos vetores-coluna de C. Similarmente, a
base de Col A obtida no exemplo 4.44 contm as colunas a1 , a2 e a4 da prpria
matriz A, e no as colunas b1 , b2 e b4 da forma escalonada B.
Definio 4.47
Seja A uma matriz qualquer. A dimenso do espao das colunas de A chamado
de posto de A, e denotado por posto A. Ou seja, definimos posto A = dim Col A.
Exemplo 4.48
O posto da matriz A do exemplo 4.44 igual a 3, visto que Col A tem uma base
com trs vetores. Observe que A tem trs colunas-piv, que formam, justamente,
a base de Col A obtida no exemplo 4.44. J o posto da matriz C do exemplo 4.46
igual a 2, visto que Col C tem uma base com dois vetores (as colunas-piv de C).
Em smbolos, posto A = 3 e posto C = 2.
Como vimos, as colunas-piv de qualquer matriz A formam uma base para
seu espao-coluna. Assim, a dimenso de Col A sempre igual ao nmero de
colunas-piv de A. Em outras palavras, temos o resultado abaixo.
Proposio 4.49
O posto de uma matriz A igual nmero de colunas-piv de A.
Alguns autores denotam o posto de A por rank A, pois, em ingls, a palavra
usada para posto rank.

4.5.3

Uma base para Span{a1 , . . . , am }

No exemplo 4.16 (pgina 89), verificamos que o conjunto B = {a1 , a2 } uma


base do subespao W R3 gerado pelos vetores a1 , a2 e a3 dados. No entanto,
no discutimos ainda o caso geral. Dada uma lista a1 , a2 , . . . , am de vetores de
Rn , como podemos obter, de maneira sistemtica, uma base para o subespao
Span{a1 , . . . , am } por eles gerado?
fcil abordar essa questo usando
os resultados
da subseo anterior. Pri

meiro, consideramos a matriz A = a1 am , cujas colunas so os vetores aj
dados. Dessa maneira, teremos Col A = Span{a1 , . . . , am }, pela definio de
espao-coluna. Agora, basta aplicar a proposio 4.45: as colunas-piv de A formaro uma base de Col A e, portanto, tambm de Span{a1 , . . . , am }, j que esses
subespaos so iguais.
Exemplo 4.50
Encontre uma base para o subespao de R4 gerado pelos vetores




1
1
2
1
3
4
5
2




v1 =
2 , v2 = 3 , v3 = 9 e v4 = 2 .
4
3
15
1
104

Jones Colombo e Jos Koiller (texto em preparao)

4.6. O teorema do posto

Em seguida, determine a dimenso desse subespao.




Soluo: Seja A = v1 v2 v3 v4 , de forma que Span{v1 , . . . , v4 } = Col A.
Vamos escalonar a matriz A para revelar suas colunas-piv:

1 2
1
1
1
1

3 4
5
2
0 1

A=
0
2
3
9
2
5
4
3 15 1
0
7

1 2
1
0 1 1

0
0
0
0
0
0

2
1
5
7

1
5

4
3

1
1
1 2 1

5
0 1 1 5

29
0
0
0 29
38
0
0
0 0

No necessrio chegar forma reduzida. As colunas-piv de A so a primeira, a


segunda e a quarta. Dessa forma, o conjunto {v1 , v2 , v4 } uma base do subespao
Span{v1 , . . . , v4 }. Como a base encontrada tem trs vetores, a dimenso desse
subespao igual a 3.

4.6

O teorema do posto

Como vimos na proposio 4.49, o posto de uma matriz A (a dimenso de


seu espao-coluna) igual ao nmero de colunas-piv de A. Por outro lado, a
proposio 4.41 diz que a dimenso do ncleo de A dada pelo nmero de colunas
no-piv de A, ou seja, pelo nmero de variveis livres do sistema Ax = 0. Em
resumo:
posto A = nmero de colunas-piv de A,
dim Nuc A = nmero de colunas no-piv de A.
Ora, a soma do nmero de colunas-piv e no-piv de A resulta no nmero total
de colunas de A! Esta observao trivial leva ao resultado abaixo.
Teorema 4.51 (Teorema do Posto, verso 1)
Se A uma matriz com m colunas, ento
posto A + dim Nuc A = m.

(4.11)

Enfatizamos que (4.11) nada mais do que uma reformulao do fato trivial


 
 

nmero de
nmero de colunas
nmero total de
+
=
.
colunas-piv de A
no-piv de A
colunas de A

Esse fato, no entanto, tem aplicaes interessantes, e conveniente ter a forma


sinttica (4.11) de exprimi-lo. O teorema do posto ser revisitado em um contexto
um pouco diferente na subseo 5.3.3, por isso usamos aqui o rtulo verso 1.
Jones Colombo e Jos Koiller (texto em preparao)

105

Captulo 4. Subespaos, Bases e Dimenso

4.7

Demonstraes dos resultados sobre bases e


dimenso (leitura opcional)

A seguir, fornecemos as demonstraes que omitimos nas sees 4.2 e 4.3.


Demonstrao do lema 4.17: Evidentemente, os elementos de G 0 pertencem a V ,
visto que G 0 est contido em G, e este um conjunto gerador de V (portanto
est, ele prprio, contido em V ). Assim, a condio (i) da observao 4.9 est
satisfeita. Basta mostrar, ento, que qualquer vetor v de V gerado pelos vetores
de G 0 . O vetor v pode ser escrito na forma
v = c1 a1 + c2 a2 + + ck1 ak1 + ck ak + ck+1 ak+1 + + cm am ,

(4.12)

j que v V e G gera V . Agora, por hiptese, ak uma combinao linear dos


demais vetores de G. Assim, o vetor ak pode ser escrito como
ak = d1 a1 + d2 a2 + + dk1 ak1 + dk+1 ak+1 + + dm am .

(4.13)

Substituindo a expresso (4.13) para ak em (4.12) e simplificando, obtemos


v = (c1 + ck d1 )a1 + (c2 + ck d2 )a2 + + (ck1 + ck dk1 )ak1 +
+ (ck+1 + ck dk+1 )ak+1 + + (cm + ck dm )am .
Mostramos, ento, que v gerado pelos vetores de G 0 .
Demonstrao do teorema 4.18: Se G um conjunto linearmente independente,
ento ele j uma base de V , pois, por hiptese, ele tambm um conjunto
gerador. No h mais o que considerar nesse caso.
Se, do contrrio, G linearmente dependente, ento, pela proposio 3.18, um
dos vetores de G uma combinao linear dos demais. Pelo lema 4.17, podemos
retirar esse vetor redundante do conjunto G, e o conjunto G 0 obtido ainda
ir gerar V . Se G 0 for linearmente independente, ele ser uma base de V , e o
processo terminar. Se, por outro lado, G 0 for linearmente dependente, poderemos
mais uma vez retirar um vetor de G 0 , de forma que o conjunto resultante ainda
gere V . O processo continuar at que obtenhamos um conjunto linearmente
independente. Como temos conjuntos geradores em cada etapa, o conjunto obtido
ir tambm gerar V , ou seja, ser uma base de V .
Para terminar a prova de forma honesta, no entanto, precisamos justificar por
que esse processo, de fato, termina. Por que o processo no poderia continuar
para sempre, sem sucesso? Como podemos garantir que, em algum estgio, vamos
necessariamente obter um conjunto linearmente independente? Ora, o conjunto
G dado no enunciado tem um nmero finito m de elementos. Assim, o processo
descrito acima poder ter, no mximo, m etapas de remoo de vetores. Se todos
os m vetores de G forem realmente removidos pelo processo, terminaremos com
o conjunto vazio, que linearmente independente, conforme a observao 4.12.
(Este caso extremo s ocorre quando V o subespao trivial.)
106

Jones Colombo e Jos Koiller (texto em preparao)

4.7. Demonstraes dos resultados sobre bases e dimenso (leitura opcional)

Demonstrao do teorema 4.19: Vamos fazer algumas consideraes preliminares. O conjunto I linearmente independente, e seus elementos so vetores de
Rn , j que I V Rn . Pela proposio 3.22, I contm no mximo n vetores.
Assim, I pode ser escrito como {a1 , . . . , am }, com m 6 n, ou ento como {}, no
caso em que I o conjunto vazio. Por hiptese, os vetores de I pertencem a V ,
como j indicamos. Pela observao 4.2, portanto, vale
Span I V,

(4.14)

onde Span I representa o conjunto gerado pelos vetores de I. Agora vamos passar
ao cerne da prova do teorema.
Se I um conjunto gerador de V , ento ele j uma base de V (pois tambm linearmente independente). Neste caso, a relao (4.14) vale com igualdade
(Span I = V ), e no h mais trabalho algum a fazer.
Vamos considerar, ento, o caso em que I = {a1 , . . . , am } no um conjunto
gerador de V , ou seja, o caso em que a incluso (4.14) estrita (Span I V ).10
Nesse caso, podemos escolher um vetor v de V que no pertena a Span I. Pelo
exerccio resolvido r3.3, o conjunto I 0 = {a1 , . . . , am , v}, obtido pela incluso
do vetor v em I, ainda ser linearmente independente. Observe que Span I 0
V , pois todos os vetores de I 0 pertencem a V . Se o conjunto I 0 gerar V , isto
, se tivermos a igualdade Span I 0 = V , esse conjunto ser uma base de V , e
processo terminar. Caso contrrio, poderemos acrescentar a I 0 mais um vetor
de V , de forma que o conjunto resultante ainda seja linearmente independente.
O processo continuar at que obtenhamos um conjunto gerador de V . Como
temos conjuntos linearmente independentes em cada etapa, o conjunto gerador
obtido ser uma base de V .
Mais uma vez, preciso justificar por que o processo necessariamente termina.
Como que podemos garantir que, em alguma etapa, um conjunto gerador para
V ser obtido? Ora, se um conjunto gerador nunca fosse obtido, poderamos
continuar acrescentando a I um nmero arbitrrio de vetores, um por um, sempre
mantendo a propriedade de independncia linear dos conjuntos resultantes. Mas
isso impossvel, em razo da proposio 3.22.
Demonstrao do lema 4.21: Suponha que G = {a1 , . . . , am } seja um conjunto
gerador de V . Seja S = {v1 , . . . , vq } qualquer conjunto de vetores de V , com
q > m. Vamos provar que S tem que ser linearmente dependente.
Como G gera V , cada vetor vi de S pode ser escrito como uma combinao
linear dos vetores aj de G.11 Sendo assim, existem escalares uij tais que
v1 = u11 a1 + u12 a2 + + u1m am ,
v2 = u21 a1 + u22 a2 + + u2m am ,
.................................
vq = uq1 a1 + uq2 a2 + + uqm am .
10
11

(4.15)

Em outras palavras, Span I est propriamente contido em V (no vale a igualdade).


A hiptese de que os vetores de S pertenam a V essencial nesse passo!

Jones Colombo e Jos Koiller (texto em preparao)

107

Captulo 4. Subespaos, Bases e Dimenso

Vamos agora definir os seguintes q vetores de Rm :

u11
u21
u12
u22

u1 = .. , u2 = .. , . . . ,
.
.
u1m
u2m

uq1
uq2

uq = .. .
.
uqm

No h nenhum mistrio aqui. Apenas atribumos os nomes u1 , u2 , . . . , uq aos


vetores indicados acima. Vamos
de A a matriz cujas colunas
 tambm chamar

so os vetores aj , isto , A = a1 am . Com esta notao, as q equaes
de (4.15) podem ser reescritas como
v1 = Au1 ,

v2 = Au2 ,

... ,

vq = Auq .

(4.16)

Para verificar a equivalncia entre (4.15) e (4.16), basta usar a definio 2.4 do
produto matriz-vetor (pgina 43).
Observe que {u1 , u2 , . . . , uq } um conjunto de q vetores de Rm e que, por
hiptese, q > m. Pela proposio 3.22, esse conjunto linearmente dependente.
Dessa forma, existem escalares c1 , . . . , cq , no todos iguais a zero, tais que c1 u1 +
+ cq uq = 0m . Essa relao de dependncia linear se traduz para os vetores vi ,
por meio das equaes (4.16). Com efeito, temos
c1 v1 + c2 v2 + + cq vq = c1 Au1 + c2 Au2 + + cq Auq =
= A(c1 u1 + c2 u2 + + cq uq ) = A0m = 0n .
Isso mostra que o conjunto S = {v1 , . . . , vq } linearmente dependente.
Demonstrao do teorema 4.26: Suponha que S seja linearmente independente.
Se S no gerasse V, ento, pelo teorema 4.19, poderamos acrescentar vetores de
V a S de forma a obter uma base. Essa base, no entanto, conteria mais do que
p vetores, pois seria obtida acrescentando vetores a S, que j tem p elementos.
Isso contradiria a hiptese de que p seja a dimenso de V. Assim, S tem que ser
um conjunto gerador de V. Isso termina a prova de (a).
Agora, suponha que S gere V. Se S no fosse linearmente independente,
ento, pelo teorema 4.18, poderamos remover elementos de S de forma a obter
uma base de V. Essa base, no entanto, conteria menos do que p vetores. Mais uma
vez, isso contradiria a hiptese dim V = p. Portanto, S tem que ser linearmente
independente. Isso prova (b).

Exerccios resolvidos
 
 
Sejam b1 = 12 e b2 = 32 , e considere
a base B = {b1 , b2 } de R2 .


Determine o vetor x R2 tal que [x]B = 42 .
 
Soluo: Basta aplicar a definio 4.32.
que[x]B = 42 o mesmo
 Dizer


que dizer x = 4b1 + 2b2 , ou seja, x = 4 12 + 2 32 = 20 . Note que 2 e 0
so as coordenadas de x com respeito base cannica de R2 .

R4.1.

108

Jones Colombo e Jos Koiller (texto em preparao)

Exerccios

Mostre que se V e W so subespaos de Rn , ento a interseo V W


tambm um subespao de Rn .

R4.2.

Soluo: Vamos verificar que o subconjunto V W satisfaz as condies da


definio 4.1. claro que V W um subconjunto de Rn , j que V e W
o so. O vetor zero de Rn pertence a V e a W (justifique), portanto ele
pertence interseo V W . Sejam agora u e v quaisquer vetores de V W .
Isso significa que cada um desses vetores pertence a V e a W . Assim, a
soma u + v pertence a V e a W (justifique novamente), portanto pertence
a V W . A verificao da ltima condio deixada para o leitor.

R4.3.

Seja V um subespao de Rn . Verifique as seguintes afirmativas:


(a) Se V contiver m vetores linearmente independentes, ento dim V > m.
(b) Se V for gerado por um conjunto contendo q vetores, ento dim V 6 q.

Soluo: Este exerccio uma mera reformulao da proposio 4.22. Verifique, lembrando que, se V tem uma base contendo p elementos, ento, por
definio, dim V = p.

Observao: Na proposio 4.22, no usamos explicitamente o termo dimenso. De fato, essa proposio foi essencial para definir o termo, de
modo que empreg-lo seria logicamente incorreto. No entanto, uma vez que
o conceito de dimenso esteja adequadamente definido, temos a liberdade
de reformular a proposio. O objetivo deste exerccio foi exatamente esse.

Exerccios propostos
P4.1.

Em cada item abaixo, temos um subconjunto do R2 . Suponha que cada


um deles contenha a sua respectiva fronteira (representada pela linha mais
grossa). Esses subconjuntos no so subespaos de R2 . Determine qual(is)
propriedade(s) da definio 4.1 (so) violada(s) em cada caso. Justifique
suas respostas graficamente, esboando algumas figuras.

Jones Colombo e Jos Koiller (texto em preparao)

109

Captulo 4. Subespaos, Bases e Dimenso

P4.2.

(a) O primeiro quadrante de R2 .

(b) A unio do primeiro quadrante


com o terceiro quadrante.

(c) Um disco com centro na origem.

(d) A unio de duas retas distintas


passando pela origem.

Mostre que se V um subespao de Rn e os vetores a1 , . . . , am pertencem


a V , ento qualquer combinao linear c1 a1 + + cm am desses vetores
tambm pertence a V , conforme a observao 4.2.
Dicas: Primeiro, observe que os vetores c1 a1 , . . . , cm am pertencem a V ,
pela condio 3 da definio 4.1. Em seguida, aplique repetidamente a
condio 2.

P4.3.

Seja Q = {x R2 ; x1 > 0, x2 > 0} o primeiro quadrante de R2 , incluindo


os semi-eixos positivos (ou seja, Q o subconjunto

  dado no item (a) do
exerccio p4.1). Sejam tambm e1 = 10 e e2 = 01 . Mostre que e1 e e2
pertencem a Q, mas Span{e1 , e2 } = R2 6 Q. Explique por que isso no
contradiz a observao 4.2.

P4.4.

Em cada item, determine se os vetores dados formam uma base de R2 .


Justifique.
   
   
     
3
1
3
1
3
1
4
(a)
,
.
(b)
,
.
(c)
,
,
.
1
2
6
2
1
2
3

P4.5.

Em cada item, determine se os vetores dados formam uma base de R3 .


Justifique.

110

Jones Colombo e Jos Koiller (texto em preparao)

Exerccios


1
4
3

3 ,
1 , 3.
(a)
2
4
1
P4.6.


2
1
0

2 , 3 , 8.
(b)
1
2
5


2
1

2 , 3.
(c)
1
2

Sejam e1 , . . . , en os vetores dados em (4.2) (pgina 86). Verifique, sem


utilizar a independncia linear dos vetores ej , que (4.3) a nica forma de
representar um vetor v de Rn como combinao linear de e1 , . . . , en .
Dica: Escreva duas combinaes lineares dos vetores ej e mostre, diretamente, que elas sero iguais somente se os pesos correspondentes forem
todos iguais. Para isso, use a prpria equao (4.3).

P4.7.

Mostre que os vetores e1 , . . . , en de (4.2) so linearmente independentes.


Dica: Use a equao (4.3) e a definio 3.14 de independncia linear.

P4.8.

Verifique que o lema 4.17 pode ser reformulado da seguinte maneira compacta: Se ak Span{a1 , . . . , ak1 , ak+1 , . . . , am }, ento vale a igualdade
Span{a1 , . . . , ak1 , ak+1 , . . . , am } = Span{a1 , . . . , am }. (Repare que essa
formulao no faz referncia alguma a subespaos abstratos.)

P4.9.

O teorema 4.18 diz que uma base de um subespao pode ser obtida mediante a remoo de elementos redundantes de um conjunto gerador (releia
o enunciado preciso, na pgina 90). Este exerccio mostra que, em geral,
h uma certa liberdade na escolha do(s) elemento(s) a ser(em) removido(s),
mas isso
em todos
Considere, primeiro, os vetores
 1  no verdade
 1
 1  os casos.
2
a1 = 2 , a2 = 1 e a3 = 0 de R e o conjunto G = {a1 , a2 , a3 }.
(a) Verifique que G um conjunto gerador de R2 , mas no uma base.
(b) Mostre que uma base de R2 pode ser obtida de G mediante a remoo
de qualquer um dos vetores aj . Em outras palavras, verifique que os
conjuntos {a1 , a2 }, {a1 , a3 } e {a2 , a3 } so bases de R2 .
(c) Conclua que nenhum dos vetores aj intrinsecamente redundante
no conjunto gerador G, ou seja, nenhum dos aj mais redundante
do que os outros.
 
Agora, considere o vetor a4 = 24 e o conjunto G 0 = {a1 , a2 , a4 }.
(d) Verifique que G 0 gera R2 , mas no uma base.
(e) Mostre que uma base de R2 pode ser obtida de G 0 mediante a remoo
de a1 ou de a4 , mas no de a2 .

Finalmente, considere o vetor a5 = 02 e o conjunto G 00 = {a1 , a2 , a5 }.

(f) Verifique que G 00 gera R2 , mas no uma base.


(g) Mostre que uma base de R2 pode ser obtida de G 00 mediante a remoo
de a5 , mas no de a1 ou de a2 .

Represente, geometricamente (usando setas), os vetores a1 , a2 , . . . , a5 no


plano R2 , e interprete intuitivamente os resultados acima. Ao considerar o
item (e), em particular, observe que a1 e a4 so colineares.
Jones Colombo e Jos Koiller (texto em preparao)

111

Captulo 4. Subespaos, Bases e Dimenso

P4.10.

Sejam u =

h i
1
0
4

ev=

h i
2
0 . Verifique que o conjunto {u, v} linearmente
1

independente, mas no uma base de R3 . Encontre um vetor w R3 de


forma que {u, v, w} seja uma base de R3 . Observao: H uma infinidade
de respostas admissveis.
nh i h io
6
3
0 , 0
P4.11. possvel acrescentar vetores ao conjunto
de forma a obter
uma base de R3 ? Justifique.

Dica: Veja o exerccio p3.27. O teorema 4.19 se aplica nesse caso?


Seja B = {a1 , . . . , ap } uma base do subespao V de Rn . Suponha que V
no seja o subespao trivial (ou, equivalentemente, que p > 1). Mostre que,
para qualquer escalar 6= 0, B = {a1 , a2 , . . . , ap } tambm uma base de
V . Em particular, V possui uma infinidade de bases distintas.

P4.12.

Mostre que Rn no pode conter um subespao de dimenso maior do


que n, e que o nico subespao de Rn de dimenso igual a n o prprio Rn .

P4.13.

Dica: Inspire-se no exemplo 4.28.


 2   1 
P4.14. Verifique que B =
uma base de R2 . Em seguida, determine
1 ,
3
o vetor de coordenadas de cada vetor abaixo com respeito base B.
 
 
 
 
5
7
2
0
(a)
(b)
(c)
(d)
1
7
6
0
nh 2 i h 1 io
nh 2 i h 1 io
2 , 3
2 , 3
P4.15. Seja V = Span
.
Verifique
que
B
=
uma
1
1
2
2
base de V . Em seguida, determine se cada vetor abaixo pertence a V . Nos
casos afirmativos, calcule o vetor de coordenadas com relao base B.




4
0
1
0

(b) 8
(c) 1
(d) 0
(a) 12
7
5
1
0
Seja W o plano
Rh3 considerado
no exemplo 4.37. J sabemos que
nh em
i
io
1
1
2 , 3
B = {a1 , a2 } =
uma base de W . Seja u o vetor de W tal
2
 4  1
que [u]B =
1 . Esboce o vetor u diretamente sobre a figura 4.2. Em
seguida, determine as coordenadas de u com relao base cannica de R3 .

P4.16.

P4.17.

Seja V um subespao de Rn , e seja B = {a1 , . . . , ap } uma base de V .

(a) Se u V , ento o sistema c1 a1 + + cp ap = u possvel e tem uma


nica soluo. Justifique essa afirmativa.
(b) Se u Rn , mas u 6 V , faz sentido falar das coordenadas de u com
relao a B? Explique. Neste caso, o sistema c1 a1 + + cp ap = u
possvel?
Em cada item abaixo, a primeira matriz linha-equivalente segunda
(neste contexto, o smbolo denota equivalncia por operaes sobre as

P4.18.

112

Jones Colombo e Jos Koiller (texto em preparao)

Exerccios

linhas). Em cada caso, determine bases para Col A e Nuc A. Determine


tambm a dimenso desses subespaos.

2 6
8
4
1 3 4
2
1 3 5
(a) A = 3 10 9 11 0
0
2
6 10
0
0 0
0

0
0 3
6
1 2 1 4
3 6
(b) A = 1 2 1 4 0 0
3
6 6 30
0 0
0 0

1 4 8 3 7
1 4 8 0
5
1 2 7

3
4
0 2 5 0 1
(c) A =
2 2 9
5
5 0 0 0 1
4
3 6 9 5 2
0 0 0 0
0

1
8 3 3 1
1 6 1 0 3
0

4 8 4
0
2 4 2 0
0

(d) A =
1 2 9 3
1 0
0 0 1 2
2 6 14 7
8
0
0 0 0 0
Em cada item a seguir, determine uma base para o subespao gerado
pelos vetores dados.

2
0
6
1
1 2 7 3

(a)
0, 0, 0, 2.
0
3
6
1

1
1
6
7
2 2 8 2

(b)
1, 1, 6, 7.
2
3
7
6

P4.19.

Seja A a matriz do exerccio p4.18(c). Denote as suas colunas por a1 ,


a2 , . . . , a5 .

P4.20.

(a) Verifique que B = {a1 , a2 , a4 } uma base de Col A. (Essa , provavelmente, a base que voc encontrou no exerccio p4.18(c).)
(b) Determine as coordenadas do vetor a5 com relao base B.
Dica: Aproveite o trabalho j realizado no exerccio p4.18(c), e utilize
a proposio 4.43.
Reveja o exemplo 4.40 (pgina 100). Mostre que o vetor x = x2 v1 +
x4 v2 + x5 v3 de (4.8) ser igual ao vetor zero somente se os pesos x2 , x4
e x5 forem todos iguais a zero. (Dica: Examine as componentes 2, 4 e 5
dos vetores envolvidos em (4.8).) Conclua que o conjunto {v1 , v2 , v3 }
linearmente independente.

P4.21.

P4.22.

(a) Convena-se de que cada coluna no-piv de uma matriz escalonada


reduzida gerada pelas colunas-piv que esto esquerda.

Jones Colombo e Jos Koiller (texto em preparao)

113

Captulo 4. Subespaos, Bases e Dimenso

Sugesto: Pense em termos de formas escalonadas reduzidas gerais,


como aquelas indicadas em (1.12) (pgina 12).
(b) Mostre que cada coluna no-piv de uma matriz qualquer gerada
pelas colunas-piv que esto esquerda.
Dica: Use o item anterior e a proposio 4.43.
(c) Use o lema 4.17 para concluir que o espao-coluna de qualquer matriz
gerado por suas colunas-piv.
Observe que os vetores b1 , b2 e b4 do exemplo 4.42 so iguais, respectivamente, aos vetores e1 , e2 e e3 da base cannica de R4 . Use o exerccio
p3.27(b) para concluir que esses vetores so linearmente independentes.

P4.23.

(a) Seja R uma matriz nm, na forma escalonada reduzida. Convenase de que as colunas-piv de R so iguais a certos elementos da base
cannica de Rn . De fato, se R tem p colunas-piv, ento essas colunas
so iguais aos vetores e1 , . . . , ep de Rn .
(b) Conclua, do item anterior, que as colunas-piv de uma matriz escalonada reduzida so sempre linearmente independentes.
(c) Mostre que as colunas-piv de uma matriz qualquer so linearmente
independentes.
Dica: Use novamente a proposio 4.43.

P4.24.

Verifique que o vetor v3 do exemplo 4.50 pode ser escrito como uma
combinao linear de v1 e v2 . Conclua que {v1 , v2 , v4 } um conjunto gerador para Span{v1 , . . . , v4 }. (Dica: Use o lema 4.17 ou o exerccio p4.8.)
Verifique tambm que o conjunto {v1 , v2 , v4 } linearmente independente.
Conclua que esse conjunto uma base de Span{v1 , . . . , v4 }, conforme afirmamos no exemplo 4.50.

P4.25.

Sejam A e B matrizes linha-equivalentes. Mostre que Nuc A = Nuc B.


Perceba, no entanto, que, em geral, no vale Col A = Col B.

P4.26.

Sugesto: Para a segunda parte, considere os exemplos da subseo 4.5.2.


Se o ncleo de uma matriz 6 8 tridimensional, qual a dimenso do
espao das colunas?

P4.27.

Se o posto de uma matriz 6 8 igual a dois, qual a dimenso de seu


ncleo?

P4.28.

Seja A uma matriz 5 8. A dimenso de Nuc A pode ser igual a zero?


Qual o menor valor possvel para a dimenso de Nuc A? Justifique suas
respostas.

P4.29.

P4.30.

Determine se cada afirmativa verdadeira ou falsa. Justifique.

(a) O conjunto vazio um subespao.


(b) O subespao trivial no contm vetor algum.
(c) O subespao trivial contm exatamente um vetor, portanto no vazio.
114

Jones Colombo e Jos Koiller (texto em preparao)

Exerccios

(d) Se B uma base de Rn e V um subespao de Rn , ento qualquer


vetor de V pode ser gerado pelos vetores de B.
(e) Se B uma base de Rn , ento B tambm uma base de qualquer
subespao de Rn .
(f) Se A e B so matrizes linha-equivalentes, ento uma base de Nuc A
tambm uma base de Nuc B.
(g) Se A e B so matrizes linha-equivalentes, ento uma base de Col A
tambm uma base de Col B.
(h) A dimenso do espao-coluna de uma matriz A igual ao nmero de
linhas de A.
(i) A dimenso do espao-coluna de uma matriz A igual ao nmero de
colunas de A.
(j) Para se obter uma base do espao-coluna de uma matriz, recomendvel determinar sua forma escalonada reduzida.
(k) Para se obter uma base do ncleo de uma matriz, recomendvel
determinar sua forma escalonada reduzida.

Jones Colombo e Jos Koiller (texto em preparao)

115

Captulo 4. Subespaos, Bases e Dimenso

116

Jones Colombo e Jos Koiller (texto em preparao)

Captulo 5
Transformaes Lineares
5.1

Introduo

Ao considerar a equao matricial Ax = b, podemos mudar o nosso ponto de


vista e comear a pensar que o vetor b foi obtido pela ao da matriz A sobre
o vetor x. Sob esse novo ponto de vista, resolver a equao Ax = b significa
encontrar todos os vetores x Rn que so transformados no vetor b Rm sob a
ao da multiplicao por A.
Antes de darmos a definio precisa do que significa uma transformao linear,
vamos chamar a ateno para duas propriedades que a multiplicao de uma
matriz A por um vetor u goza. Suponha que:

 
 
1
3
1
2
4 , u =
A = 3
ev=
2
1
1 2
Ento,

6
1
3  
5
1
3
21 = 3
4
= A(u + v) = A(u) + A(v) = 11 + 10
3
9
1 2
5
4
e

10
1
3  
5
2
22 = 3
4
= A(2u) = 2A(u) = 2 11 ,
4
10
1 2
10

isto , A(u+v) = Au+Av e A(u) = Au. E so exatamente essas propriedades


que caracterizam a linearidade da funo.
Definio 5.1
Uma Aplicao Linear (ou Transformao Linear) T de Rn em Rm uma
funo que associa um vetor v Rn a um vetor T v Rm , tal que para quaisquer
u, v Rn e R tenhamos
(a) T (u + v) = T (u) + T (v);
117

Captulo 5. Transformaes Lineares

(b) T (u) = T (u).


Escrevemos T : Rn Rm e para definir T denotamos v 7 T v.

T
v

Tv

Representa o Rn
Representa o Rm
Assim, T : Rn Rm linear se ela preserva a soma de vetores e a multiplicao de vetores por escalares, as duas operaes bsicas do Rn .
Quando tratamos de funes, os termos domnio, contradomnio e imagem
aparecem naturalmente. No caso de transformaes lineares T : Rn Rm o
domnio Rn , o contradomnio Rm e a imagem :
IM(T ) = {w Rm : se existe v Rn tal que T (v) = w} = {T (v) : v Rn } .
Exemplo 5.2
Da motivao inicial claro que se A uma matriz m n. Ento, A determina
uma transformao linear T : Rn Rm , definida por u 7 T (u) = Au. Sendo
mais especficos, digamos que



x
1 4 3

A=
e u = y ,
2 3 0
z
ento,




 x
1 4 3
x 4y + 3z
y =
.
T (u) =
2x 3y
2 3 0
z



x
x

4y
+
3z
3
2
Assim, dizemos que T : R R , definida por y 7
provem da
2x 3y
z
matriz A.
Antes de continuarmos veja a seguinte definio.
Definio 5.3
Seja T : Rn Rm uma transformao linear, no caso em que m = n chamamos
a transformao linear (ou aplicao linear) de operador linear.
118

Jones Colombo e Jos Koiller (texto em preparao)

5.1. Introduo

Vamos dar alguns exemplos de aplicaes lineares que apresentam os fatos


mais marcantes a respeito dessas aplicaes. Comeando com o seguinte exemplo:
Exemplo 5.4
Seja T : R2 R2 dada por
 

  

x
1 3 x
x + 3y
7
=
y
0 1 y
y
Para entendermos o que este operador linear faz, observe que ele toma uma reta e
leva em uma reta (alis, esta propriedade compartilhada por todas
 0   as
 transfor1 1
0
maes lineares). Agora considere o quadrado
de
coordenadas
,
,
0
1
1 , 0
       
e veja que esses pontos so levados em 00 , 31 , 41 , 10 , respectivamente. Portanto, este operador linear leva o quadrado em um paralelogramo, esse tipo de
transformao linear conhecido por cisalhamento.
T

y
1

y
1

3 x

3 x

Figura 5.1: Cisalhamento


Exemplo 5.5
Dado um escalar r > 0, defina T : R2 R2 dada por v 7 rv. Ento, chamamos
T de contrao quando 0 < r < 1 e de dilatao quando r > 1. Observe que
se u, v do R2 e escalares , , ento
T (u + v) = r(u + v)
= ru + rv
= (ru) + (rv)
= T (u) + T (v).

(5.1)

Portanto, T uma operador linear, pois se tomarmos = = 1 na equao


anterior temos a primeira condio para T ser uma aplicao linear e se fizermos
= 0 temos a segunda condio.
Exemplo 5.6
 
 
x
x
Considere a aplicao T : R R dada por
7 2 . Vamos mostrar que T
y
y    
no um operador linear. Para isso considere os vetores: 12 , 10 . Portanto:
   
   
1
1
2
4
T
+
=T
=
2
0
2
4
2

Jones Colombo e Jos Koiller (texto em preparao)

119

Captulo 5. Transformaes Lineares

 
       
1
1
1
1
3
T
+T
=
+
=
.
2
0
4
0
4

Se T fosse um operador linear deveria ocorrer a igualdade, isto ,


   
 
 
1
1
1
1
T
+
=T
+T
.
2
0
2
0

5.2

Propriedades de uma Transformao Linear


e sua Matriz

Se T : Rn Rm uma transformao linear, ento T (0) = 0. De fato, seja


u Rn ento T (0) = T (0u) = 0T (u) = 0.
Considere novamente a transformao linear T : Rn Rm e suponha que
u1 , u2 , . . . , up so vetores de Rn e seja u = 1 u1 + 2 u2 + + p up uma combinao linear destes vetores logo:
T (u) = T (1 u1 + 2 u2 + + p up )
= T (1 u1 ) + T (2 u2 ) + + T (p up )
= 1 T (u1 ) + 2 T (u2 ) + + p T (up ).

(5.2)

Isso nos sugere duas consequncias importantes: A primeira consequncia a


de que se soubermos como uma aplicao linear age sobre uma base de Rn , podemos determinar a ao da transformao linear no restante dos vetores por aplicar
a frmula anterior; a segunda consequncia a de que podemos associar uma matriz a uma transformao linear, da seguinte forma: suponha
que e1 , e2 , . . . , en
x1
.. Pn
n
a base cannica do R . Ento dado qualquer vetor u = . = i=1 xi ei e da,
xn

x1
n
.. X
T . =
xi T (ei )
i=1
xn
e T (ei ) so vetores de Rm , isto , T (u) uma combinao linear T (ei ) Rm .
Escrevendo isto em termos da multiplicao de matrizes temos:

x1


 x2

T (e1 ) T (e2 ) T (en ) .. .


.
xn
Portanto,
a transformao linear T fica completamente determinada pela matriz

T (e1 ) T (e2 ) T (en ) mn e chamamos esta matriz de matriz da aplicao
linear na base cannica. Mais para frente esse nome far mais sentido. No
momento vamos dar alguns exemplos.
120

Jones Colombo e Jos Koiller (texto em preparao)

5.2. Propriedades de uma Transformao Linear e sua Matriz

Exemplo 5.7
Vamos retornar ao exemplo 5.5, em que T : R2 R2 , que toma u R2 7 3u
R2 , que tal como havamos comentado uma dilatao e um operador linear.
Vamos determinar qual
desse operador linear com respeito  base
 1 seria a matriz
0

cannica. Seja
e
=
,
e
=
a
base
cannica de R2 , logo, T (e1 ) = 30 e
1
2
0
1

T (e2 ) = 03 e, portanto, a matriz fica:


3 0
A=
.
0 3
Exemplo 5.8
Considere a transformao linear R : R2 7 R2 , que para cada vetor v retorna um
vetor R(v), obtido por fazer uma rotao de radianos em torno da origem no
sentido anti-horrio. A prxima figura nos fornece uma demonstrao geomtrica
de que R(u + v) = R(u) + R(v).

(u

)+

u
(v
)

R(u)

R(v

)
u
0
Figura 5.2: Rotao de vetores

Com um desenho similar se prova que R(v) = R(v). Portanto, esta aplicao linear. Vamos determinar a sua matriz na base cannica. Para isto, vamos
1
0
investigar onde os vetores
 e1 = [ 0 ] ,e2 = [ 1] so levados. Na figura abaixo vecos
sen
mos que: R(e1 ) =
, R(e2 ) =
e a matriz na base cannica desta
sen
cos
transformao :


cos sen
A=
.
sen
cos

Jones Colombo e Jos Koiller (texto em preparao)

121

Captulo 5. Transformaes Lineares

( sen , cos )

(cos , sen )

1
2

sen

cos

12

Figura 5.3: Rotao


de um ngulo
12
O prximo exemplo trata da projeo ortogonal sobre o eixo x e o outro da
reflexo em torno desse eixo. Estes so exemplos de duas importantes famlias de
aplicaes lineares as projees e as1
reflexes.
Exemplo 5.9
 
 
Considere a aplicao P : R2 R2 definida por xy 7 x0 . possvel essa
verificao porque a mesma faz um grfico em que essa aplicao linear, uma
vez que ela pega um vetor u qualquer e projeta perpendicularmente sobre o eixo
x. Essa aplicao conhecida como projeo ortogonal sobre o eixo do x.
Agora a reflexo em torno do eixo x.
Exemplo 5.10
A reflexo S : R2 R2 do vetor u sobre o eixo x toma o vetor u e retorna o vetor
Su do lado oposto desse eixo, de tal maneira que o segmento de reta determinado
por u e Su perpendicular ao eixo x e o eixo corta este segmento no ponto mdio.
Observe que o vetor u + Su est sobre o eixo x, uma vez que o eixo exatamente a diagonal do paralelogramo determinado pelos vetores u e Su. Alm
disso, o vetor u+Su igual a duas vezes a projeo de u sobre o eixo x. Portanto:
2P u = u + Su Su = 2P u u.
Logo,
 
         
x
x
x
2x
x
x
S
= 2P

=
.
y
y
y
0
y
y

5.2.1

Composio e Aplicao Invertvel

Considere duas funes (ou aplicaes) f : A B e g : B C. A composio, denotada por f g, a aplicao f g : A C, definida por:
(f g)(a) = f (g(a)),
isto , primeiro aplicamos f em a A e depois aplicamos g em f (a) para obter
g(f (a)) C.
122

Jones Colombo e Jos Koiller (texto em preparao)

5.2. Propriedades de uma Transformao Linear e sua Matriz

2P u = u + Su

Pu

Su
Figura 5.4: Reflexo em torno do eixo x
Exemplo 5.11
Considere f : R R definida por f (x) = 2x2 3x e g : R R definida por
g(x) = x2 ento
(f g)(x) = f (g(x)) = f (x2 ) = 2(x2 )2 3(x2 ) = 2x4 3x2 .
Se A um conjunto no-vazio, a aplicao f : A A definida por f (a) =
a para todo a A chamada de aplicao identidade sendo, geralmente,
denotada por IA ou simplesmente por I. Assim, I(a) = a para todo a A.
Seja f : A B uma aplicao. Dizemos que g : B A a aplicao
inversa de f , denotada por g = f 1 , se
f g = IB

g f = IA .

Exemplo 5.12
 


x
2x + 5y
Considere o operador linear T : R R definida por
7
. Verifiy
3x + 7y
 


x
7x + 5y
que se S definida por
7
a inversa de T .
y
3x 2y
Observe que
  

 
  
x
2x + 5y
7(2x + 5y) + 5(3x + 7y)
x
S T
=S
=
=
.
y
3x + 7y
3(2x + 5y) 2(3x + 7y)
y
2

  

 
  
x
7x + 5y
2(7x + 5y) + 5(3x 2y)
x
T S
=T
=
=
.
y
3x 2y
3(7x + 5y) + 7(3x 2y)
y

Portanto, S = T 1 .

Jones Colombo e Jos Koiller (texto em preparao)

123

Captulo 5. Transformaes Lineares

5.2.2

Aplicao Linear Injetora e Sobrejetora

As aplicaes lineares formam uma classe bastante especial de funes na


qual fcil decidir se uma certa aplicao invertvel ou no. Inicialmente,
vamos lembrar que uma aplicao f : A B tem inversa se, e somente se, f for
uma aplicao injetora e sobrejetora. Por isso, para saber se uma certa aplicao
invertvel, precisamos estudar a fim de constatar se a aplicao injetora e
sobrejetora.
Dizemos que a transformao linear f : A B injetora se para cada a 6= b
em A tivermos que f (a) 6= f (b) em B. Apesar dessa definio ser mais natural,
comum utilizarmos a seguinte forma equivalente: f : A B injetora se sempre
que f (a) = f (b), quando pudermos mostrar que a = b.
No caso da aplicao ser uma aplicao linear, digamos T : Rn Rm , podemos substituir este critrio pelo seguinte: se T (u) = 0 em Rm , ento u = 0.
De fato, vamos admitir que T : Rn Rm uma aplicao linear e injetora
e como sabemos que o vetor nulo de Rn sempre levado no vetor nulo de Rm ,
ento se
T (u) = 0 = T (0) u = 0 Rn
e, reciprocamente se admitir que sempre ocorre T (u) = 0 u = 0, ento se
T (u) = T (v) T (u) T (v) = 0 T (u v) = 0,
logo u v = 0. Portanto, u = v. Da que T injetora.
Por isso, no estudo da injetividade de uma aplicao linear muito til a
introduo do seguinte conceito:
Seja T : Rn Rm uma transformao linear o subconjunto dos vetores de
Rn que so levados por T no vetor nulo de Rm chamado de ncleo de T e
denotado por:
N (T ) = {u Rn : T (u) = 0} .
Segue do que foi discutido anteriormente que N (T ) = {0} se, e somente se, T
injetora.
Exemplo 5.13
x
2
Seja T : R

R
definida
por

y 7 x y. Ao calcularmos N (T ) obtemos
x
2
N (T ) =
y  R
 : x y = 0 , que coincide com a reta y = x, ou ainda,
N (T ) = Span 11 .
Dizemos que f : A B sobrejetora se, para todo b B, existe a A tal
que f (a) = b.
Reescrevendo esse critrio, para aplicaes lineares, obtemos: uma aplicao
linear T : Rn Rm , sobrejetora se para cada vetor v Rm imagem de
algum vetor u Rn . Isso equivalente a pedir que IM(T ) = Rm .
Exemplo 5.14
124

Jones Colombo e Jos Koiller (texto em preparao)

5.3. lgebra Matricial

Seja T : R3 R3 definida por

h y i
3x . Ento, a imagem de T
0


1
y
0

IM(T ) = 3x : x, y R = x 3 + y 0 : x, y R

0
0
0

1
0
= Span 3 , 0 .

0
0
hxi
O ncleo de T dado pelos vetores u = yz , tais que:

x
y
0

y
T
= 3x = 0 .
z
0
0
Portanto, x = y = 0 e da

0
N (T ) = Span 0 .

5.3

lgebra Matricial

Vamos introduzir operaes sobre as matrizes e depois mostrar que essas operaes provm das operaes sobre as transformaes lineares. Para comear, vamos definir o que significa dizer que a matriz A = [aij ] igual matriz B = [bij ],
isso significa que ambas as matrizes so m n e que as entradas correspondentes
so iguais aij = bij . Quando isso acontece denotamos por A = B.
Dado um escalar r R e a matriz A = [aij ], definimos o produto de r por
A, por ser a matriz r A = [raij ], isto , cada uma das entradas da matriz
multiplicada pelo escalar r. E dado as matrizes A = [aij ] e B = [bij ] de ordem
m n, definimos a soma das matrizes por ser uma outra matriz, tambm de
ordem m n, dada por
A + B = [aij + bij ],
isto , entrada da matriz A + B a soma das entradas correspondentes de A e B.
Essas operaes tm as seguintes propriedades:
a. A + B = B + A
b. (A + B) + C = A + (B + C)
c. (A + 0) = A

5.3.1

d. r(A + B) = rA + rB
e. (r + s)A = rA + sB
f. r(sA) = (rs)A

A Transposta de uma Matriz

Dada a matriz A de ordem m n, a transposta de A a matriz n m,


denotada por At , cujas colunas so formadas pelas linhas correspondentes de A.
Jones Colombo e Jos Koiller (texto em preparao)

125

Captulo 5. Transformaes Lineares

Exemplo 5.15


5 4 2
A=
0 2 1


a b
B=
.
c d

Ento,

5 0
At = 4 2
2 1


a c
B =
.
b d
t

Se A e B so matrizes do mesmo tipo e r R, logo valem as seguintes


propriedades:
a. (At )t = A;
b. (A + B)t = At + B t ;
c. (rA)t = rAt ;
Denotaremos por M(mn) ao conjunto de todas as matrizes de ordem mn.

5.3.2

Multiplicao de Matrizes

Vamos introduzir a multiplicao de matrizes que tem uma definio um tanto


complicada. Mais para frente veremos que definimos a multiplicao para que a
mesma possa ser utilizada na composio de transformaes lineares.
Considere as matrizes A = [aij ] M(m n) e B = [bij ] M (n k) definimos
a matriz AB = [dij ] M (m k) por
dij =

n
X

ail blj .

l=1

Parafraseando, o elemento da i-sima linha e j-sima coluna da matriz AB a


soma dos produtos dos elementos correspondentes da i-sima linha de A e da
j-sima coluna de B. Observe, em primeiro lugar que o tamanho das linhas de A
igual ao tamanho das colunas de B e que a quantidade de linhas (colunas) da
matriz AB igual a quantidade de linhas de A (colunas de B).
Exemplo 5.16
Considere A uma matriz 2 2 e B uma matriz 2 3 ento AB uma matriz
2 3 e a entrada 12

 

 

3 2
4
1 6
 7 
 3(1) + 2(5) 
=
=
.
AB =
4 2
1 5 3



  
Tambm podemos encarar a multiplicao da matriz como multiplicao de
vetores, veja exemplo abaixo
Exemplo 5.17
Considere as matrizes

a11 a12 a13


b
b
11
12




A = a21 a22 a23 = v1 v2 v3 e B = b21 b22 = w1 w2 ,
a31 a32 a33
b31 b32
126

Jones Colombo e Jos Koiller (texto em preparao)

5.3. lgebra Matricial

onde v1 , v2 , v3 e w1 , w2 so os vetores colunas de A e B, respectivamente. Ento,

b11 a11 + b21 a12 + b31 a13 b12 a11 + b22 a12 + b32 a13
AB = b11 a21 + b21 a22 + b31 a23 b12 a21 + b22 a22 + b32 a23
b11 a31 + b21 a32 + b31 a33 b12 a31 + b22 a32 + b32 a33


= b11 v1 + b21 v2 + b31 v3 b12 v1 + b22 v2 + b32 v3


= Aw1 Aw2 .
Como podemos ver o resultado do produto AB pode ser visto como vetores
colunas, onde cada coluna uma combinao linear dos vetores colunas da matriz
A, com os coeficientes da coluna correspondente da matriz B, e tambm, os
vetores colunas de AB podem ser visto como o produto de A pelos vetores colunas
correspondentes de B. Claramente isso se generaliza para matrizes de qualquer
ordem em que o produto faa sentido.
A matriz 0 = [0] M (m n) chamada de matriz nula. A matriz nula
possui a seguinte propriedade: para quaisquer outras matrizes A M (k m) e
B M (n k) temos
A0 = 0 M (k n) e 0B = 0 M (m k).
Outra matriz que desempenha um papel importante a matriz quadrada
I = [ij ] onde

1 se i = j,
ij =
0 se i 6= j.
Esta matriz tem a seguinte propriedade: qualquer que seja a matriz A =
[aij ] Mn temos
A I = A e I A = A,
chamaremos tal matriz de matriz identidade.
Com respeito a operao de multiplicao de matrizes ela possui as seguintes
propriedades: suponha que A M(m n), e sejam B e C matrizes do tipo
adequado para que as operaes de soma e produto sejam possveis
a.
b.
b.
c.
d.
e.

A(BC) = (AB)C
A(B + C) = AB + AC
(B + C)A = BA + CA
r(AB) = (rA)B = A(rB)
Im A = A = AIm
(AB)t = B t At .

Associatividade da multiplicao;
propriedade distributiva esquerda;
propriedade distributiva direita;
r um escalar;
onde Im a matriz identidade;

Exemplo 5.18
Em geral a propriedade comutativa no verdadeira para as matrizes. Para
perceber isso considere:




0 2
1 0
A=
eB=
,
3 1
2 1
Jones Colombo e Jos Koiller (texto em preparao)

127

Captulo 5. Transformaes Lineares

logo,




4 2
0
2
AB =
e BA =
e, claramente, AB 6= BA.
5 1
3 3
Diremos que uma matriz B M(n m) o inverso direita de A
M(m n) se AB = Im e diremos que a matriz C M(n m) o inverso
esquerda de A se CA = In .
No caso em que a matriz A M(m n) possua inverso direita B e
esquerda C ento:
B = In B = (CA)B = C(AB) = CIm = C,
e isso significa que B = C, em particular m = n e a matriz A quadrada. Logo,
se A possui inverso esquerda e direita ao mesmo tempo, eles so os mesmos,
alm disso, pelo mesmo argumento usado anteriormente, se A possui inversa
direita e esquerda ao mesmo tempo, ento esta inversa nica e chamamos esta
matriz de matriz inversa de A e a denotamos por A1 e, nesse caso, diremos
simplesmente que A invertvel.
Exemplo 5.19
Vamos comear por considerar a matriz


2 1
A=
.
3 1


x y
Queremos determinar uma matriz B =
, tal que AB = I2 , mas isso implica
z w
no seguinte:


 
 

2 1 x y
2x + z 2y + w
1 0
AB =
=
=
3 1 z w
3x + z 3y + w
0 1
e da, precisamos resolver o seguinte sistema:

2x
+z

2y
+w
3x
+z

3y
+w

=
=
=
=

1
0
.
0
1

Nesse caso, resolvendo por


obtemos x = 1, y = 1, z = 3 e
 escalonamento,

1
1
w = 2 e portanto, B =
, alm disso, se fizermos BA tambm obtemos
3 2
a matriz identidade e, portanto, B = A1 .
Uma matriz A M(m n) pode admitir mais de uma inversa direita.
Exemplo 5.20
Se

128


1 0 0
A=
0 1 0
Jones Colombo e Jos Koiller (texto em preparao)

5.3. lgebra Matricial

considere para quaisquer que sejam a, b R a seguinte matriz:

1 0
B = 0 1 ,
a b
da,

 1 0
1 0 0
1 0 0
0 1 = 0 1 0 .
AB =
0 1 0
a b
0 0 1


Por outro lado, uma matriz A M(m n) pode admitir mais de uma inversa
esquerda.
Exemplo 5.21
Considere a matriz:

A= 3
0

1 0
e considere quaisquer a, b R e C =
0 1


 2
1 0 a
3
CA =
0 1 b
0

1
1
0

a
, logo,
b



1
1 0

1 =
0 1
0

Vamos demonstrar o seguinte teorema que nos fornece algumas propriedades


teis a respeito da inversa de uma matriz A.
Teorema 5.22
a) Se A Mn invertvel, ento a sua inversa A1 nica;
b) Se A uma matriz invertvel, ento A1 tambm o e (A1 )1 = A;
c) Se A, B Mn so matrizes invertveis, ento AB tambm invertvel e
(AB)1 = B 1 A1 .
Demonstrao: Como a) j foi estabelecida, vamos demonstrar b). Dizer que A1
invertvel significa dizer que existe uma matriz C, tal que
CA1 = I e A1 C = I.
Mas, A satisfaz estas equaes e como a inversa nica pela letra a), segue que
(A1 )1 = A. J na letra c) observe que como A e B so invertveis existem
nicas A1 e B 1 e veja que:
(B 1 A1 )(AB) = B 1 (A1 A)B = B 1 IB = B 1 B = I e
(AB)(B 1 A1 ) = A(BB 1 )A1 = AIA1 = AA1 = I,

(5.3)

portanto, AB invertvel e a sua inversa B 1 A1 .


Jones Colombo e Jos Koiller (texto em preparao)

129

Captulo 5. Transformaes Lineares

5.4

Matrizes Elementares

O objetivo dessa seo introduzir as matrizes elementares e com elas descrever um processo que permite obter a matriz inversa, isso claro, nos casos em
que a matriz admite uma inversa. Gostaria de chamar a ateno que as matrizes
elementares tambm podem ser usadas na criao de algoritmos que permitem
manipular matrizes, dito isso, vamos ao que nos interessa. Iniciamos lembrando
que existem apenas trs operaes elementares que podemos usar no processo de
escalonamento, que so:
(a) `i `i + `j ;
(b) `i `i ;
(c) `i `j .
Diremos que E uma matriz elementar se E pode ser obtido da matriz
identidade I por aplicar apenas umas das trs operaes elementares.
Exemplo 5.23



1 0
Veja que a matriz E =
uma matriz elementar pois pode ser obtida por
2 1
aplicar `2 `2 2`1 na matriz identidade.
As matrizes elementares tm inmeras aplicaes, em particular, ns podemos
substituir as operaes elementares sobre as linhas (as colunas), por multiplicar
a matrizes elementares esquerda ( direita) da matriz que queremos que sofra
a operao elementar. Veja o prximo exemplo.
Exemplo 5.24
Digamos
de aplicar a operao elementar `2 `2 2`1 na matriz
 que gostaramos

1 3 2
A=
, mas ao invs de fazer isso faa:
2 4 1


1 0
EA =
2 1


 

1 3 2
1
3
2
=
.
2 4 1
0 2 3

fcil de ver que o resultado o mesmo. Isso nos diz que podemos substituir o
procedimento de aplicar uma operao elementar em uma matriz por multiplicar
a mesma, esquerda, pela matriz elementar obtida da matriz identidade por
aplicar mesma operao elementar.
Olhando o resultado, vemos que o prximo passo, para escalonar a matriz
seria 
aplicar `2 21 `2 na matriz obtida acima. Ento vamos multiplicar por
1
0
E0 =
e teremos
0 21

 

1
0 1
3
2
1 3 2
E EA = E (EA) =
=
.
0 12 0 2 3
0 1 23
0

130

Jones Colombo e Jos Koiller (texto em preparao)

5.4. Matrizes Elementares

Para demonstrar o resultado principal enunciado no teorema a seguir vamos


necessitar do seguinte lema:
Lema 5.25
Se E uma matriz elementar, ento E invertvel.
Demonstrao: De fato se E uma matriz elementar, ento podemos determinar
uma matriz elementar E 0 obtida por fazer a operao inversa que a efetuada para
obter E. Logo, E 0 E = I.
O resultado principal fica.
Teorema 5.26
Seja A uma matriz quadrada de ordem n. Ento, A invertvel se, e somente se,
a sua forma escalonada reduzida for a matriz identidade.
Demonstrao. Suponha que A invertvel, isto , existe uma matriz B n n, tal
que AB = I = BA. Vamos comear analisando o sistema Ax = 0 para mostrar
que a nica soluo possvel x = 0. De fato, multiplicando a equao Ax = 0
por B temos que 0 = B 0 = B(Ax) = (BA)x = Ix = x. Por outro lado, se
resolvermos o sistema Ax = 0 atravs de um escalonamento de linhas, obtemos
a matriz R, que est escalonada de forma reduzida e linha equivalente A, ou
seja, R = Ek E1 A, onde E1 , . . . , Ek so matrizes elementares. Mas o sistema
Rx = 0 claramente equivalente ao sistema, Ax = 0, portanto tem a mesma
e nica soluo x = 0, e como R est na forma escalonada reduzida, a nica
possibilidade de R = I. Logo, se A invertvel ento ela linha equivalente a
matriz identidade. Reciprocamente, se A linha equivalente a matriz identidade,
1
isto , I = Ek E1 A, e multiplicando por Ek1 , Ek1
, . . . , E11 I, obtemos que
A = E11 E21 Ek1 , ou seja, A um produto de matrizes elementares e portanto
invertvel.
Analisando a demonstrao do teorema 5.26 podemos vislumbrar um mtodo
para obtermos a inversa de uma matriz. Suponha que A uma matriz invertvel,
isto , existe um nmero finito de matrizes elementares E1 , . . . , Ek , tais que:
I = Ek Ek1 E2 E1 A = (Ek Ek1 E2 E1 I)A.
Isso mostra que Ek Ek1 E2 E1 I = A1 . Isto , se aplicarmos as mesmas operaes, e na mesma ordem, necessrias para levar a matriz A a sua forma escalonada
reduzida, na matriz identidade, obtemos a matriz inversa de A. Isso nos motiva
a definir um algoritmo para obtermos a inversa de uma matriz. Para isso basta
considerar uma nova matriz B = [A : I], por acrescentar a matriz identidade
a direita de A ento, se escalonarmos a matriz A, para que se torne a matriz
identidade, segue que B se torna [I : C] e ento, C ser a matriz inversa de A.
Exemplo 5.27
Vamos usar esse processo para obter a inversa da matriz

1 1 2
1 0 .
A = 1
2 3 1
Jones Colombo e Jos Koiller (texto em preparao)

131

Captulo 5. Transformaes Lineares

Para isso considere a matriz:

1 1 2 | 1 0 0
1 0 | 0 1 0 .
[A|I] = 1
2 3 1 | 0 0 1

Vamos escalon-la. Comece por fazer `2 `2 + `1 e `3 `3 2`1 e obtemos

1 1
2 |
1 0 0
1 1
2 |
1 0 0
`2 `3
` `1 `2
0
0
2 |
1 1 0
0 1 3 | 2 0 1 1

0 1 3 | 2 0 1
0
0
2 |
1 1 0

1
0 0 |
1/2 5/2 1
1
0
5 |
3 0 1 ` ` 5 `
1
1 2 3
0 1 3 | 2 0
3/2
1
1
0 1 0 | 1/2
`2 `2 + 23 `3
0
0 2 |
1
1
0
0
0
2 |
1 1
0

1 0 0 | 1/2 5/2 1
`2 `2

0 1 0 | 1/2 3/2 1
`3 12 `3
0 0 1 | 1/2
1/2
0

1/2 5/2 1
1

e, portanto, A = 1/2 3/2 1 .


1/2
1/2
0

5.5

Ncleo e Imagem

Nesta seo vamos conectar os conceitos da dimenso da imagem de uma


transformao linear com a dimenso do seu ncleo, os quais nos daro um invariante importante para as aplicaes lineares. Vamos comear com o seguinte
teorema:
Teorema 5.28
Seja T : Rn Rm uma transformao linear. Ento o ncleo de T um subespao vetorial de Rn e a imagem de T um subespao vetorial de Rm .
Com o objetivo de estabelecer a segunda verso do Teorema do Posto, veja o
seguinte exemplo.
Exemplo 5.29
Suponha que T : R3 R4 a uma aplicao linear definida por


a11 x + a12 y + a13 z
z

y 7 a21 x + a22 y + a23 z .


a31 x + a32 y + a33 z
z
a41 x + a42 y + a43 z

t

t

t
Ento se e1 = 1 0 0 , e2 = 0 1 0 e e3 = 0 0 1 a base cannica de
R3 , portanto a matriz associada a T

a11 a12 a13



 a21 a22 a23

A = T (e1 ) T (e2 ) T (e3 ) =


a31 a32 a33 .
a41 a42 a43
132

Jones Colombo e Jos Koiller (texto em preparao)

5.5. Ncleo e Imagem

A imagem de T exatamente o espao gerado pela coluna da matriz A e,


portanto, a dimenso da imagem de T igual a dimenso do espao-coluna e
esse, por sua vez, dado pelo nmero de colunas-piv da matriz A. Por outro
lado, o ncleo de T consiste em todos os vetores u R3 para os quais T (u) = 0 e,
em termos da matriz A, exatamente a soluo do sistema homogneo Ax = 0,
que a dimenso do ncleo A, a qual dada pelo nmero de variveis livres do
sistema Ax = 0.
E podemos sintetizar isso por dizer que
N (T ) = Nuc(A),
IM(T ) = Col(A).
Da temos que:
Teorema 5.30 (Teorema do Posto, verso 2)
Seja T : Rn Rm uma aplicao linear, ento:

dim N (T ) + dim IM(T ) = dim Rn = n.

(5.4)

Exemplo 5.31
Seja T : R4 R3 a transformao linear definida por

z
xy+z+t
y
7 2x 2y + 3z + 4t .
z
3x 3y + 4z + 5t
t
(a) Encontre uma base e a dimenso do N (T ).

t
Queremos encontrar os vetores u = z y z t , tais que T (u) = 0. Mas
isso equivalente a resolver ao sistema:

xy+z+t=0

2x 2y + 3z + 4t = 0 .

3x 3y + 4z + 5t = 0
Escalonando a matriz:

1
2
3

1
0
0

1 1 1 0
1 1 1 1 0
2 3 4 0 0
0 1 2 0
3 4 5 0
0
0 1 2 0

1 1 1 0
1 1 0 1 0
0 1 2 0 0
0 1
2 0 .
0 0 0 0
0
0 0
0 0

As variveis livres so y e t. Portanto, dim N (T ) = 2. E fazendo y = 1, t = 0



t

t
obtemos 1 1 0 0 e fazendo y = 0, t = 1 obtemos 1 0 2 1 . Assim,

1
1


1
, 0 .
N (T ) = Span
0 2

0
1
Jones Colombo e Jos Koiller (texto em preparao)

133

Captulo 5. Transformaes Lineares

(b) Encontre uma base e a dimenso da imagem de T .


Observe que no sistema escalonado anteriormente somente a primeira e a terceira coluna so colunas-piv. Portanto, o vetor obtido da primeira e da terceira
coluna da matriz inicial geram a imagem, isto ,

1
1

2 , 3 .
IM(T ) = Span

3
4
Vamos exibir outra maneira de obter uma base para a IM(T ). Inicialmente,
calcule a imagem dos vetores da base cannica do R4 :


1
1
0

T = 2 ,
0
3
0



0
1
1

T = 2 ,
0
3
0



0
1
0

T = 3 ,
1
4
0



0
1
0

T = 4 .
0
5
1

Sabemos que estes vetores geram a IM(T ). Como IM(T ) um subespao


vetorial de R3 , segue que qualquer combinao linear desses vetores ainda so
vetores da IM(T ), em particular, se aplicarmos as 3 operaes elementares.
Para isso, monte uma matriz com estes vetores nas linhas e escalone a matriz
segundo linhas,

1
2
3
1
1 2 3
0

1
0
3
4
1
4
5
0

2
0
1
2

3
1

0
0

0
1
2
0

2
1
0
0

3
1
.
0
0


t 
t
Os vetores 1 2 3 , 0 1 1 so claramente LI e, tambm, geram a imagem.
Portanto, formam uma base da IM(T ) e novamente temos que a dim IM(T ) =
2.
Assim, podemos confirmar o teorema 5.30 pois temos que
dim N (T ) + dim IM(T ) = 2 + 2 = 4 = dim R4 .

Exerccios resolvidos
 


x
x+y
R5.1. Seja T : R R a aplicao definida por
7
. Mostre que T
y
y
linear.
2

Soluo: Precisamos mostrar que T uma aplicao linear, isto , que T (u+
v) = T (u) + T (v) para todo u, v R2 e T (u) = T (u) para todo R2
134

Jones Colombo e Jos Koiller (texto em preparao)

Exerccios

 
 0
e u R2 . Suponha que u = xy e v = xy0 , ento:
   0 


x
x
x + x0
T (u + v) = T
+ 0
=T
y
y
y + y0

  0



x + y0
x+y
x + x0 + y + y 0
= T (u) + T (v),
+
=
=
y0
y0
y + y0
  



x
(x + y)
x+y
T (u) = T
=
=
= T (u).
y
y
y
E isso demonstra que T uma aplicao linear.



x
x
+
y
+
z
R5.2. Seja T : R3 R2 a aplicao definida por y 7
. Mostre
2x 3y + 4z
z
que T linear.
Soluo: Considere a matriz:

A=

1
1 1
2 3 4




 x
x
1
1 1
y .
e veja que T y =
2 3 4
z
z

E como vale A(u + v) = Au + Av e A(u) = A(u), para quaisquer


u, v R3 e R, segue que T uma aplicao linear.
Mostre que as aplicaes abaixo no so lineares.
 


x
xy
2
2
(a) T : R R a aplicao definida por
7
;
y
2x 3y
 
 
Soluo: Observe que se tomarmos u = 21 e v = 20 , ento:
   
     
2
4
4
2
0
T (u + v) = T
=
e T (u) + T (v) =
+
=
.
1
5
1
3
2

R5.3.

Isso mostra que T (u + v) no sempre igual que T (u) + T (v) e,


portanto, T no uma aplicao linear.

 
x+3
x
(b) T : R2 R3 a aplicao definida por
7 2x .
y
x+y
Soluo: Observe que

 
3
0
0

T (0) = T
= 0 6= 0 .
0
0
0
Portanto, T no pode ser linear.
Jones Colombo e Jos Koiller (texto em preparao)

135

Captulo 5. Transformaes Lineares




x
|x|
3
2

(c) T : R R a aplicao definida por y 7


.
2x y + z
z
Soluo: Para
h 2 ivermos hquei T no pode ser uma transformao linear,
1
tome u = 0 e v = 2 , ento
3
1

 
1
1
T (u + v) = T 2 =
e
6
2
     
2
1
3
T (u) + T (v) =
+
=
.
7
1
6
Portanto, T (u + v) 6= T (u) + T (v).
 
   
 
1
2
0
1
2
2
R5.4. Seja T : R R a aplicao, tal que
7
e
7
. Admita
2
3
1
4
que T um operador linear e encontre a frmula para T .
Soluo: Vamos comear analisando o que T faz com os vetores da base
cannica, para isto, vamos usar que T linear:
 
 
 
1
1
0
T
=T
2
0
2
1
 
   
   
1
0
2
1
0
=T
2T
=
2
=
.
2
1
3
4
5
 
 
 
Por outro lado, sabemos que qualquer vetor xy = x 10 + y 01 e da,
 
 
 
 
  

x
1
0
2
0
2x
T
= xT
+ yT
=x
+y
=
.
y
0
1
3
5
3x 5y

xy+z+t


t
R5.5. Seja F : R2 R2 definida por x y z t 7 x + 2z t . Enx + y + 3z 3t
contre uma base e a dimenso de: (a) da imagem de F , (b) do ncleo de
F.
Soluo: Vamos comear obtendo o N (F ). Seja A matriz na base cannica
de F . Calcular o N (F ) equivalente a calcular os vetores que satisfazem
Ax = 0. Escalonando a matriz deste sistema homogneo obtemos:

1 1 1
1 0
0 2 1 0
[A 0] 1
1
1 3 3 0

1 1 1
1 0
1 0 2 1 0
0
1 1 2 0 0 1 1 2 0 ,
0
2 2 4 0
0 0 0
0 0
136

Jones Colombo e Jos Koiller (texto em preparao)

Exerccios

as solues
do
sistema

so x = 2z + t e y = z + 2t, portanto, N (F ) =
2
1

1 2

Span , . Para o clculo da IM(A) se lembrarmos que a 1a e


1
0

0
1
2a coluna so colunas piv da matriz escalonada, entoa1a e a2a colunas
de
1
1
A geram a imagem de A. Segue que IM(F ) = Span 1 , 0 .

1
1
R5.6.

Ache a transformao linear a qual uma rotao anti-horria de 45 .

Soluo: Lembre-se de que a matriz associada a uma rotao anti-horria


dada por:


cos sen
A=
.
sen
cos
Como o ngulo de 45 segue que = /4, ento
    
 
   
2
2

2
2
2(x

y)
x
x

2 .
=
R
= 
y
2 2
2 2 y
2(x + y) 2

R5.7.

Sejam:

1
0 2
3
1 1
1 .
A = 2 1 1 e B = 0 1
0 1
1
0 2
0

Sejam T e S as transformaes lineares dadas por A, B, respectivamente.


Encontre R1 = T S e R2 = S T .
Soluo: Como T e S so as transformaes lineares definidas pelas matrizes
A e B, respectivamente, segue que

x
x 2z
x
3x + y z
T y = 2x y z e S y = y + z .
z
y + z
z
2y
e da

x
x
3x + 5y z
R1 y = T S y = 6x + 5y 3z
z
z
y z

x
x
x + 4z
R2 y = S T y = 2x + 2z .
z
z
4x + 2y + 2z

Observe ainda que R1 6= R2 .

Jones Colombo e Jos Koiller (texto em preparao)

137

Captulo 5. Transformaes Lineares

Exerccios propostos
P5.1.

Seja T : Rn Rm uma transformao linear. Mostre que N (T ) um


subespao vetorial de Rn e que IM(T ) um subespao vetorial de Rm .

P5.2.

3
2
Mostre que so lineares
as seguintes aplicaes: (a) T : R R , a apli

x
x
+
2y

3z
cao definida por y 7
; (b) T : R2 R2 , a aplicao
4x 3y + 6z
 
z

x
ax + by
definida por
7
, com a, b, c, e d escalares.
y
cx + dy

P5.3.

Seja F : R3 R3 uma transformao linear. Se soubermos que:





1
2
0
5
0
2
F 0 = 3 , F 1 = 2 e F 0 = 0 .
0
1
0
7
1
7
Determine F (u), sendo u um vetor genrico do R3 .




x
2x
3
2
2
2
P5.4. Sejam F : R R e G : R R definidas por F y =
e
y+z
z
   
x
y
G
=
. Calcule (se possvel):
y
x
a) F + 2G,
b) G F e, por fim,
c) F G.
P5.5.

Admita que os operadores a seguir possuem inversas e encontre a frmula


para T 1 quando:


 


 
x T
x + 2y
x T 2x 3y
7

.
7

e (b)
(a)
2x + 3y
y
x 4y
y

P5.6.

Para cada uma das matrizes abaixo, determine a aplicao linear associada.
Depois encontre uma base e a dimenso do ncleo e da imagem de cada uma
delas.

1
2 0
2
1
0 2 2
3 2 1
(a) 2 1 2 1 ,
(b) 2
1 3 2 2
2 3 0 3

P5.7.

138

Encontre todas as possveis inversas

2
4
2

direita da matriz:

3
5 .
1

Jones Colombo e Jos Koiller (texto em preparao)

Exerccios



0 1
P5.8. Suponha que T : R R definido pela matriz A =
. Encontre (se
1 0
existirem) vetores u, v, tais que:
2

a) T (u) = u e b) T (v) = v.
P5.9.

Ache a transformao linear que uma rotao anti-horria de 60 .

P5.10.

Seja T : R3 R3 definida por


x
x 2y
y 7 z .
z
x+y

Mostre que T uma aplicao linear, injetora e sobrejetora, portanto, invertvel. Encontre T 1 .
Sejam T : Rn Rm uma aplicao linear injetora e se {u1 , u2 , . . . , uk }
um conjunto LI. Mostre que:

P5.11.

{T (u1 ), T (u2 ), . . . , T (uk )} tambm LI.


Seja T : Rn Rm uma transformao linear com a seguinte propriedade:
Se {u1 , u2 , . . . , uk } uma base do Rn , ento {T (u1 ), T (u2 ), . . . , T (uk )}
linearmente independente em Rm . Prove ento que T injetora.

P5.12.

Jones Colombo e Jos Koiller (texto em preparao)

139

Captulo 5. Transformaes Lineares

140

Jones Colombo e Jos Koiller (texto em preparao)

Captulo 6
Determinantes
J em 1683, o japons Seki Takakazu inventou o conceito de determinante,
provavelmente reinventado em 1693 pelo alemo Gottfried Liebniz, pois no havia comunicao entre eles. Na poca, o determinante estava relacionado com
as frmulas para exprimir a soluo de um sistema linear de n equaes e n
variveis, uma vez que a teoria de matrizes s seria desenvolvida muito mais
tarde. Posteriormente, em 1812, Augustin-Louis Cauchy identificou que o determinante poderia ser usado para calcular a rea do paralelogramo ou o volume
do paraleleppedo. Somente depois o determinante seria associado com as formas
multilineares alternadas.
O determinante associa um nmero para cada matriz quadrada.
O principal uso do determinante est no fato de que o determinante de um
operador linear no-nulo se, e somente se, o operador invertvel.
Neste captulo iremos deduzir frmulas e procedimentos para calcular o determinante de uma matriz, alm de apresentar dois mtodos para obter a inversa
de uma matriz e um critrio para decidir se um sistema admite soluo nica.

6.1

Determinantes de ordens 1, 2 e 3

O determinante uma funo que toma uma matriz quadrada A e retorna


com um nmero.
Os determinantes de ordens 1, 2 e 3 so definidos por:


 
a11 a12
det a11 = a11 , det
= a11 a22 a21 a12 e
a21 a22

a11 a12 a13


det a21 a22 a23 = a11 a22 a33 + a13 a21 a32 + a23 a31 a12
a31 a32 a33
a31 a22 a13 a32 a23 a11 a33 a21 a12 .
Observe que o determinante da matriz 3 3 possui seis produtos, cada um
consiste de trs elementos da matriz original. Trs destes produtos recebem sinal positivo e trs deles recebem sinal negativo. O diagrama a seguir ajuda a
141

Captulo 6. Determinantes

memorizar a frmula envolvida no clculo do determinante, o esquema obtido


por repetir a 1a e 2a coluna no final da matriz. O determinante obtido atravs
da soma dos produtos, ao longo das trs setas assinaladas com o sinal +, mais a
soma dos negativos dos produtos dos elementos que esto nas setas assinaladas
com o sinal .
+

a11 a12 a13 a11 a12


a21 a22 a23 a21 a22
a31 a32 a33 a31 a32

a11 a22 a33 + a31 a23 a12 + a13 a21 a32


a31 a22 a13 a11 a23 a32 a33 a21 a12

Exemplo 6.1

2
1
1
3
2
0
5 2 e B = 4
0 1. Encontre det(A) e det(B).
Sejam A = 0
2 3
4
1 3
2
det(A) = 2(5)4 + 1(2)2 + 1(0)(3) 2(5)1 (3)(2)2 4(0)1
= 40 4 10 12 = 14,
det(B) = 0 + (2) + 0 0 9 (16)
= 5.

6.2

Determinante em Geral

Observe que o determinante de uma matriz A = [aij ] de ordem 3 pode ser


reescrito da seguinte forma:
det(A) = a11 a22 a33 + a13 a21 a32 + a23 a31 a12 a31 a22 a13 a32 a23 a11 a33 a21 a12
= a11 a22 a33 a11 a32 a23 a12 a33 a21 + a12 a23 a31 + a13 a21 a32 a13 a31 a22
= a11 (a22 a33 a32 a23 ) a12 (a21 a33 a31 a23 ) + a13 (a21 a32 a31 a22 )






a22 a23
a21 a23
a21 a31
= a11 det
a12 det
+ a13 det
.
a32 a33
a13 a33
a22 a32
Algo parecido pode ser feito com a matriz A de ordem 2:
det(A) = a11 det [a22 ] a12 det [a21 ] .
Para facilitar a expresso do determinante introduzimos a notao a seguir.
Definio 6.2
Sejam n > 1 e A uma matriz quadrada de ordem n, indicaremos por Aij a matriz
de ordem n 1, obtida de A por apagar a i-sima linha e a j-sima coluna e por
ij = (1)i+j det(Aij ). Chamamos ij de cofator de A, na linha i e coluna j.
142

Jones Colombo e Jos Koiller (texto em preparao)

6.2. Determinante em Geral

Exemplo 6.3

1 1 2
1 0 . Ento,
Considere A = 1
2 3 1






1 0
1 1
1 2
A11 =
, A23 =
e A21 =
.
3 1
2 3
3 1
E os cofatores correspondentes so:
11 = (1)1+1 det(A11 ) = 1, 23 = (1)2+3 det(A23 ) = (3 + 2) = 1 e
21 = (1)2+1 det(A21 ) = (1 + 6) = 5.
Com essa notao podemos reescrever o determinante no caso de A ser de
ordem 2
det(A) = a11 22 + a12 21 .
e no caso de A ser uma matriz de ordem 3, o determinante fica:
det(A) = a11 11 + a12 12 + a13 13 .
Recursivamente definimos para a matriz 4 4 o seu determinante, por ser
det(A) = a11 11 + a12 12 + a13 13 + a14 14 .
E assim, sucessivamente, isto ,
Definio 6.4
Seja n > 1 e A uma matriz quadrada de ordem n, definimos o determinante de
A como sendo:
det(A) = a11 11 + a12 12 + + a1n 1n .
Exemplo 6.5

0
1
1 1
3
0
1
0
, calcule det(A).
Considere a matriz A =
1 1
0 2
2 1 1
1
det(A) = 011 + 112 + 113 + (1)14
= 0(3) + 1(11) + 1(9) + (1)(4) = 6.
Apesar de termos definido o determinante para qualquer matriz quadrada de
ordem n, sempre que precisamos calcular o determinante de uma matriz de ordem
n precisamos calcular n determinantes de matrizes de ordem n 1. Quando
n cresce, a quantidade de operaes necessrias para calcular o determinante
cresce muito depressa, o que inviabiliza a operao, para perceber isso tente ver
quantas operaes voc necessitaria se tivesse que calcular o determinante de
uma matriz de ordem n = 7. Mesmo empregando um computador para fazer esta
tarefa, se utilizarmos essa frmula, mesmo para matrizes relativamente pequenas,
Jones Colombo e Jos Koiller (texto em preparao)

143

Captulo 6. Determinantes

por exemplo n = 15, qualquer computador ter dificuldades em retornar uma


resposta.
Na atualidade os softwares empregados no clculo do determinante usam outros mtodos. Para entendermos como esses mtodos funcionam vamos observar
algumas propriedades do determinante. Para isto veja a definio do seguinte
conceito:
Definio 6.6
Dizemos que uma funo f : R R R 2-linear, se ela for linear em cada uma
de suas entradas, isto , para cada x, y, z e R valem:
f (x + y, z) = f (x, z) + f (y, z), f (x, y + z) = f (x, y) + f (x, z)
f (x, y) = f (x, y) e f (x, y) = f (x, y).
Exemplo 6.7
Considere f : R R R definida por f (x, y) = xy, ento se f (x + x0 , y) =
(x + x0 )y = xy + x0 y = f (x, y) + f (x0 , y) e se f (x, y + y 0 ) = x(y + y 0 ) = xy + xy 0 =
f (x, y) + f (x, y 0 ). Alm disso, se multiplicarmos x ou y por um nmero temos:
f (x, y) = (x)y = (xy) = f (x, y) e f (x, y) = x(y) = (xy) = f (x, y).
Considere A uma matriz n n. Podemos pensar tal matriz como n colunas
n
c1 , c2 ,. . . , cn , onde cada
 uma destas colunas um vetor R , e podemos escrever
A = c1 c2 cn . Vamos definir a funo D que toma n vetores do Rn e
retorna um nmero por


D(c1 , c2 , . . . , cn ) = det c1 c2 cn .
Observe que a funo determinante uma funo que toma uma matriz quadrada e retorna um nmero.
Exemplo 
6.8   
1
2
Calcule D
,
. Pela definio da funo D temos:
3
1
   


1
2
1
2
D
,
= det
= 1 + 6 = 5.
3
1
3 1
Proposio 6.9
A funo D(c1 , c2 , . . . , cn ) satisfaz as seguintes propriedades:
(d1 ) D alternada, isto , se ci = cj para i 6= j ento D(c1 , c2 , . . . , cn ) = 0.
(d2 ) D n-linear, isto , D linear em cada uma de suas colunas. Mais precisamente, se todos os cj com j 6= i estiverem fixos, ento
D(c1 , . . . , ci + c0i , . . . , cn ) = D(c1 , . . . , ci , . . . , cn ) + D(c1 , . . . , c0i , . . . , cn ).
(d3 ) Se [e1 , . . . , en ] a matriz identidade ento D(e1 , . . . , en ) = 1.
144

Jones Colombo e Jos Koiller (texto em preparao)

6.2. Determinante em Geral

A principal implicao das propriedades acima est na prxima observao.


Observao 6.10
Considere a funo D, como a que satisfaz as condies (d1 ) (d3 ). Ento, a
funo antissimtrica, isto , se trocarmos ci por cj o valor de D troca de sinal.
Mais precisamente,
D(c1 , . . . , ci , . . . , cj , . . . , cn ) = D(c1 , . . . , cj , . . . , ci , . . . , cn ).
Vamos demonstrar esse fato. Para simplificar a notao e, como s vamos tratar
dos vetores ci e cj e os outros vetores iro permanecer fixos, considere D(ci , cj ) =
D(c1 , . . . , ci , . . . , cj , . . . , cn ). Temos:
0 = D(ci + cj , ci + cj ) = D(ci , ci + cj ) + D(cj , ci + cj )
= D(ci , ci ) + D(ci , cj ) + D(cj , ci ) + D(cj , cj )
= D(ci , cj ) + D(cj , ci ).
E da D(ci , cj ) = D(cj , ci ). Portanto, se estivermos calculando o determinante
de uma matriz e trocarmos duas colunas entre si, o determinante troca de sinal.
Com estas propriedades tambm conseguimos reobter a frmula para o determinante. Veja o prximo exemplo.
Exemplo 6.11


 
 
a b
a
b
Considere a matriz A =
, logo a coluna c1 =
e c2 =
. Observe que
c
d
c
d
 
 
 
a
1
0
=a
+c
, logo pela propriedade (d2 ) temos que:
c
0
1
   
      
0
b
a
b
1
D
,
=D a
+
,
c
d
0
c
d
   
   
1
b
0
b
= aD
,
+D
,
0
d
c
d
   
    
1
b
0
b
= aD
,
+D c
,
0
d
1
d
   
   
1
b
0
b
= aD
,
+ cD
,
0
d
1
d
 
   
 
   
1
1
0
0
1
0
= aD
, b
+
+ cD
, b
+
0
0
d
1
0
d
   
   
1
1
1
0
= abD
,
+ adD
,
0
0
0
1
   
   
0
1
0
0
+ cbD
,
+ cdD
,
1
0
1
1
   
   
1
0
1
0
= adD
,
cbD
,
= ad bc.
0
1
0
1
Observe que usamos a propriedade (d1 ) quando trocamos a primeira coluna com
a segunda e, por isso, trocamos o sinal e na ltima igualdade usamos (d3 ).
Jones Colombo e Jos Koiller (texto em preparao)

145

Captulo 6. Determinantes

6.3

Matriz de Permutao e o Determinante da


Transposta

Definio 6.12
Uma matriz de permutao uma matriz obtida da matriz identidade pela
permutao de suas colunas.
Exemplo 6.13
A matriz

0 1 0
P = 1 0 0
0 0 1

obtida da matriz identidade por permutar a primeira e a segunda coluna. Alm


disso, claro que o det(P ) = 1, pois o determinante igual ao determinante da
matriz identidade multiplicado por (1).
Se {e1 , e2 , . . . , en } a base cannica do Rn , denotamos a matriz de permutao
por Pi1 i2 ...in , isso significa que na primeira coluna temos o vetor ei1 , na segunda
coluna est o vetor ei2 e na n-sima coluna est o vetor ein , assim, a matriz acima
denotada por P213 .
O determinante de uma matriz de permutao sempre 1, uma vez que
podemos obter a matriz identidade depois de executarmos um nmero finito de
permutaes em suas colunas. Podemos ser mais precisos: se executamos um
nmero par de trocas, ento o determinante 1; e se executamos um nmero
mpar de trocas, ento o determinante 1. Logo, definimos o sinal da matriz
de permutao P como:
(P ) = det(P ).
Agora vamos enunciar o resultado principal desta seo.
Teorema 6.14
Para todo n > 1 se A uma matriz n n, ento det(A) = det(At ).
Disso seguem duas observaes importantes. Para entendermos bem as observaes considere:

`1



`2
A = [aij ] = c1 c2 cn = ..
.
`n
escrita como n colunas ou n linhas.
Observao 6.15
Dada uma matriz A = [aij ] de ordem n podemos considerar B = At , logo o
det(B) = det(A) e D n-linear e alternada sobre as colunas de B, mas isso quer
dizer que, com respeito a matriz A, D(A) n-linear e alternada com respeito s
linhas de A.
146

Jones Colombo e Jos Koiller (texto em preparao)

6.4. Regra de Cramer

Observao 6.16
Sejam A e B = At . Calculando o determinante por fazer a expanso em termos
da primeira linha de B, temos
det A = det B = b11 11 + b12 12 + + b1n 1n
= a11 (1)1+1 det At11 + a21 (1)2+1 det At21 + + an1 (1)n+1 det Atn1
= a11 (1)1+1 det A11 + a21 (1)2+1 det A21 + + an1 (1)n+1 det An1 ,

isto , podemos calcular o determinante por fazer a expanso segundo a primeira


coluna de A. Na verdade, podemos calcular o determinante por fazer a expanso
em qualquer linha e qualquer coluna. Para ver como isso feito veja o exerccio
r6.6.

6.4

Regra de Cramer

Sejam A = [aij ] uma matriz n n e b Rn um vetor. Considere a equao


Ax = b.
Seja Ak a matriz obtida de A por substituir a coluna k de A pelo vetor b. Ento,
vale o seguinte resultado:
Teorema 6.17
O sistema (quadrado) Ax = b possui uma nica soluo se, e s se, det(A) 6= 0.
Nesse caso, a soluo dada por
x1 =

det(A2 )
det(An )
det(A1 )
, x2 =
, . . . , xn =
.
det(A)
det(A)
det(A)

Veja o seguinte exemplo


Exemplo 6.18
Resolva o seguinte sistema de equaes lineares

x+y+z =5
x 2y 3z = 1

2x + y z = 3
Para usarmos o teorema anterior, precisamos calcular o seguinte determinante:

1
1
1
det(A) = det 1 2 3 = 2 6 + 1 + 4 + 3 + 1 = 5.
2
1 1
Como det(A) 6= 0, o sistema tem apenas uma soluo, que dada por

5
1
1
1
5
1
20
1
10
1
x = det 1 2 3 = , y = det 1 1 3 =
5
5
5
5
3
1 1
2
3 1

1
1
5
1
15
z = det 1 2 1 = .
5
5
2
1
3
Jones Colombo e Jos Koiller (texto em preparao)

147

Captulo 6. Determinantes

Seja A = [aij ] uma matriz nn e, como j explicamos, chamamos os elementos


ij de cofatores da matriz A na posio ij. A Adjunta Clssica de A, denotada
por adj(A), a transposta da matriz de cofatores de A, a saber:

11 21 n1
12 22 n2

adj(A) = ..
..
.. .
.
.
.
.
.
.
1n 2n nn
Chamamos de Adjunta Clssica, em vez de simplesmente Adjunta, porque, hoje em dia, o termo adjunta reservado para outro conceito totalmente
diferente.
Teorema 6.19
Seja A uma matriz quadrada de ordem n qualquer. Ento,
adj(A)A = det(A)I
sendo I a matriz identidade. Assim, se det(A) 6= 0,
A1 =

1
adj(A).
det(A)

Exemplo 6.20
Por utilizar a tcnica sugerida no teorema acima vamos obter a inversa de

1 1 2
1 0 .
A = 1
2 3 1
Para isso, precisamos determinar os cofatores ij da matriz A. Vamos construir
uma matriz intermediria D e, por fim, obter a adj(A) que Dt .

11 12 13
1
1 1
D = 21 22 23 = 5 3 1 .
31 32 33
2 2 0
Portanto,

1 5 2
adj(A) = Dt = 1 3 2 .
1
1
0
Sabendo que det(A) = 2 segue que

A1

148

1/2
1
adj(A) = 1/2
=
det A
1/2

5/2 1
3/2 1 .
1/2
0

Jones Colombo e Jos Koiller (texto em preparao)

6.5. Determinante do Produto

6.5

Determinante do Produto

Antes de obtermos este resultado vamos ver como se comporta o determinante,


quando o aplicamos em matrizes elementares:
(a) Se E1 a matriz obtida por executar `i `i + k`j na matriz identidade,
ento, det(E1 ) = 1;
(b) Se E2 a matriz obtida por executar `i k`i com k 6= 0 na matriz identidade, ento, det(E2 ) = k;
(c) Se E3 a matriz obtida por executar `i `j na matriz identidade, ento,
det(E3 ) = 1;
(d) Se A uma matriz qualquer e E uma matriz elementar, ento, det(EA) =
det(E) det(A).
Teorema 6.21
Se A e B so matrizes n n, ento det(AB) = det(A) det(B).
Demonstrao: (1a caso) Se A ou B no so invertveis, logo pode acontecer: a) A
invertvel e B no ; b) B invertvel e A no ; c) A e B so ambas no invertveis.
Ento, nas trs situaes, podemos concluir que AB tambm no invertvel. De
fato, se a) ocorre ento existe A1 e admita que AB seja invertvel, nesse caso,
B = A1 (AB) tambm invertvel. Se ocorrer b) tratamos da mesma maneira.
Se ocorrer c) suponha, por absurdo, que AB invertvel, nesse caso, existe C, tal
que C(AB) = I = (CA)B e, portanto, B invertvel, o que um absurdo.
Logo, se A ou B no invertvel, ento AB tambm no invertvel e
det(AB) = 0 e como det(A) = 0 ou det(B) = 0 segue a igualdade.
(2a caso) Se A e B so invertveis, sabemos que existe uma sequncia finita
de operaes elementares (sobre as linhas) E1 , . . . , Ek que tornam A a matriz
identidade, isto , I = Ek1 E11 A Da temos:
det(AB) = det(E1 Ek IB)
e aplicando um nmero finito de vezes a propriedade (d) acima obtemos:
det(AB) = det(E1 ) det(E2 Ek1 B)
= det(E1 ) det(E2 ) det(Ek1 Ek ) det(B)
= det(E1 ) det(E2 ) det(Ek1 ) det(Ek ) det(B)
= det(E1 ) det(E2 ) det(Ek1 Ek ) det(B)
= det(E1 E2 Ek1 Ek I) det(B) = det(A) det(B).
Teorema 6.22
Seja A uma matriz n n. A matriz A invertvel se, e somente se, det(A) 6= 0,
1
e neste caso det(A1 ) = det(A)
.
Jones Colombo e Jos Koiller (texto em preparao)

149

Captulo 6. Determinantes

Demonstrao: () Se A invertvel existe uma matriz B, tal que AB = I,


aplicando o determinante dos dois lados desta igualdade obtemos:
det(AB) = det(A) det(B) = det(I) = 1.
1
Isso implica que det(A) 6= 0 e tambm que det(A1 ) = det(A)
.
() Se det(A) 6= 0 e seja B a adjunta clssica de A, ento sabemos que BA =
1
1
BA = I, isto , ao multiplicarmos det(A)
B por A
det(A)I, da temos que det(A)
1
1
obtemos I, e como a inversa de uma matriz nica, segue que A = det(A) B.

6.6

Matrizes em Blocos

O principal resultado dessa seo o seguinte:


Teorema 6.23
Seja B uma matriz quadrada triangular inferior (superior) em blocos com os
blocos diagonais A1 , A2 , . . . , Ak . Ento,
det(B) = det(A1 ) det(A2 ) det(Ak ).
Exemplo 6.24

3
2
7 9 4
5 1
1 1 9

0
3
2
0
Calcule o determinante de B =
0
. Observe que B uma
0
0 4
0 1
0
0
1 3
2
matriz triangular superior em blocos. Pelo teorema basta calcularmos o determinante de cada bloco diagonal:


3
2
det
= 10 3 = 13,
5 1

3
2
0
0 1 = 5.
det 4
1 3
2

Ento, det(B) = (13)(5) = 65.


Corolrio 6.25
Seja B = [bij ] uma matriz quadrada triangular inferior (superior). Ento,
det(B) = b11 b22 bnn .
Observao
 6.26

A B
Seja N =
, em que A, B, C e D so matrizes quadradas. Em geral, no
C D
vlido que det(N ) = det(A) det(D) det(B) det(C). (confira o exerccio p6.8).
150

Jones Colombo e Jos Koiller (texto em preparao)

6.7. rea e Volume atravs do Determinante

6.7

rea e Volume atravs do Determinante

Nesta seo mostraremos que os determinantes podem ser usados para calcular
a rea e o volume, tal como foi mencionado na introduo do captulo. Faremos
apenas para o R2 e R3 . E generalizamos o conceito de volume, usando estes
mtodos para espaos de dimenso n maior que 3.
Teorema 6.27
Se A uma matriz de ordem 2, a rea do paralelogramo determinado pelas colunas de A igual ao | det(A)|. Se A de ordem 3, o volume do paraleleppedo
determinado pelas colunas de A igual ao | det(A)|.
Demonstrao: No caso de A ser de ordem 2, o resultado verdadeiro se A for
diagonal, pois





a
0
det
= |ad| = {rea do retngulo de lados a e d} .

0 d
y
0
d

a
0

Figura 6.1: rea= |ad|


Suponha que A = [c1 c2 ] uma matriz qualquer. Para provarmos o resultado
basta verificarmos que a matriz A pode ser transformada em uma matriz diagonal
sem que com isso altere o | det(A)| e nem a rea do paralelogramo. J sabemos
que trocar uma coluna com a outra no altera o valor de | det(A)|, assim como
somar a uma coluna um mltiplo da outra coluna (verifique que isso o suficiente
para transformar qualquer matriz em uma matriz diagonal).
Claramente a rea do paralelogramo com respeito aos vetores c1 , c2 a mesma
que com respeito a c2 , c1 . Alm disso, se chamarmos a reta determinada por 0 e
c1 de L, ento a reta c2 + L uma reta paralela a L, e c2 + tc1 pertence a reta
c2 + L para todo t. Como a rea de um paralelogramo o comprimento da base
vezes a sua altura com respeito a esta base, segue que a rea do paralelogramo
determinado por c1 , c2 sempre igual a rea do paralelogramo determinado por
c1 , c2 + tc1 . Veja a prxima figura para entender melhor o que acontece.
No caso de A ter ordem 3, o raciocnio semelhante. No caso em que A
diagonal o resultado claramente verdadeiro.
Se A = [c1 c2 c3 ] uma matriz qualquer, podemos transform-la em uma
matriz diagonal, por permutar as suas colunas e somar a uma coluna um mltiplo
Jones Colombo e Jos Koiller (texto em preparao)

151

Captulo 6. Determinantes

c2 + L

y
c2
c2 + tc1

c1
x
Figura 6.2: rea= |ad bc|
y
0
b
0

a
0
0

0
0
c

Figura 6.3: Volume do paraleleppedo |abc|


de outra. Claramente estas operaes no alteram o | det(A)|. Vamos ver que
essas operaes no alteram o volume do paraleleppedo determinado pelos vetores c1 , c2 , c3 . Lembre-se de que o volume de um paraleleppedo determinado
pela multiplicao da rea de uma de suas faces pela altura com respeito a essa
face. Vamos considerar a face determinada pelos vetores c1 , c3 . Observe que, pelo
mesmo argumento usado no R2 , a rea dessa face no se altera se trocarmos os
vetores c1 , c2 por c1 , c2 + tc1 qualquer que seja t R.
Por simplicidade vamos supor que a face determinada por c1 , c3 coincida com
o plano xz veja a prxima figura
Considere o plano P = Span {c1 , c3 }, ento a face de cima do paraleleppedo
est no plano P +c2 obtido por transladar o plano P . O volume do paraleleppedo
igual a rea determinada por c1 , c3 , vezes a altura de c2 com respeito ao plano
P . Todos vetores da forma c2 + rc1 e c2 + tc3 , com r, t R, tem a mesma
altura com respeito ao plano P , uma vez que se encontram no plano P + c2
que paralelo a P . Portanto, o volume do paraleleppedo no se altera quando
trocamos [c1 c2 c3 ] por [c1 c2 + rc1 c3 ], uma vez que isso equivalente a
deslizar a face superior do paraleleppedo no plano P + c2 . Veja a figura abaixo

152

Jones Colombo e Jos Koiller (texto em preparao)

Exerccios

y
c2

c1
x

c3
z

Figura 6.4: Paraleleppedo


y
c2

c2
P

c2 + rc1

c1
x
P

c3
z

Figura 6.5: Deslizando a face do paraleleppedo


Exemplo 6.28
  0  4  6
Calcule a rea do paralelogramo determinado pelos pontos 2
2
 2,  3 , 1 e 4 .
Para comear, translade o paralelogramo
at que o vrtice 2 coincida com a

2
origem. Para isso, subtraia
  2 de todos
 os vrtices. O novo paralelogramo tem
a mesma rea e vrtices 00 , 25 , 61 e 86 . Logo, o paralelogramo determinado
pelas colunas de


2 6
A=
,
5 1
e da, | det(A)| = | 28| = 28 uni2 a rea do paralelogramo inicial.

Exerccios resolvidos
R6.1.

Calcule o determinante de cada uma das matrizes seguintes.








6 5
2 3
t5
6
a) A =
,
b) B =
,
c) C =
.
2 3
4
7
3 t+2

Soluo: Usando a frmula do determinante 2 2 temos:


a) det(A) = 6(3) 5(2) = 18 10 = 8,

Jones Colombo e Jos Koiller (texto em preparao)

153

Captulo 6. Determinantes

b) det(B) = 14 + 12 = 26,
c) det(C) = (t 5)(t + 2) 18 = t2 3t 10 18 = t2 10t 28.
R6.2.

Calcule o determinante

2
a) A = 1
4

de cada uma das matrizes seguintes.

3 4
2 1 5
2 3 ,
2 .
b) B = 2 3
0 3
2 1
1

Soluo: Usando a frmula do determinante 3 3 e escalonando temos:


a) det(A) = 12 36 + 0 (32) 0 (9) = 17,

b) fazendo `2
`2 + `1 e `3 `3 + `1 obtemos que
2 1 5

det(B) = det 0 4 3 = 2(16 (6)) = 20.


0 2 4
R6.3.

Calcule o determinante de cada uma das matrizes seguintes:

2
6
5
1
0
1
2 3 2
1
1
3
2 2
2 3

2
5
,
1
.
2
1
1
2
a) A =
b)
B
=

1
2 3
2
1 1
2 3
4
1 6 4
3
0
3 1
2
3

Soluo: Em a), se fizermos `2 `2 + 2`1 , `3 `3 `1 , `4 `4 + `1 ,


`3 `4 e, por fim, `3 `3 + 4`1 ficamos com a matriz:

1 2 3 2
0 1 4 9

det
0 0 23 35 = (1)(1)(1)(23)(4) = 92.
0 0
0
4
Em b), se fizermos `1 `1 2`2 , `3 `3 `2 e `4 `4 + `2 e na matriz
resultante expandirmos com respeito primeira coluna, teremos:

0 4 1 3
4
4 1 3 4
1 1

3
2 2

1 2 1 0

.
0
det 0 1 2 1
=
(1)
det

5
1
2
0 0
5 1
2
3 1
2 3
0 3 1
2
3

Nessa matriz faa `1 `1 4`2 e `4 `4 3`2 e obtemos

0
7
1 4
7
1
4
1 2 1 0
= (1)(1) det 5 1 2
det(B) = (1) det
0
5 1 2
5
5 3
0
5
5 3

7
1 4
= det 5 1 2 = 24.
0
6 5
154

Jones Colombo e Jos Koiller (texto em preparao)

Exerccios

Transposta e Determinante
R6.4.

Seja A = [aij ] uma matriz n n. Mostre que:


det(A) =

X
i1 ,...,in

(Pi1 ...in )ai1 1 ai2 2 ain n ,

(6.1)

sendo Pi1 ...in uma matriz de permutao e (Pi1 ...in ) = 1 o sinal desta
matriz de permutao.


Soluo: Seja A = c1 c2 cn = [aij ] uma matriz n n. E podemos
escrever:
c1 = a11 e1 + a21 e2 + + an1 en
c2 = a12 e1 + a22 e2 + + an2 en
..
..
.
.
cn = a1n e1 + a2n e2 + + ann en
sendo e1 , e2 , . . . , en a base cannica do Rn . E, assim,
det(A) = D(a11 e1 + + an1 en , c2 , . . . , cn )
= a11 D(e1 , c2 , . . . , cn ) + + a1n D(en , c2 , . . . , cn )
Se substiturmos c2 por a12 e1 + + an2 en obteremos uma expresso semelhante, s que com mais termos. Feitas todas as substituies de c2 , . . . , cn ,
e considerando que nos termos cujos ndices tm repeties D igual a zero,
chegamos a expresso:
det(A) = D(c1 , c2 , . . . , cn ) =

X
i1 ,...,in

X
i1 ,...,in

X
i1 ,...,in

ai1 1 ai2 2 ain n D(ei1 , ei2 , . . . , ein )


ai1 1 ai2 2 ain n det(Pi1 i2 ...in )
(Pi1 i2 ...in )ai1 1 ai2 2 ain n .

No somatrio acima il diferente de todos os outros ik se l 6= k.


Prove o teorema 6.14. Para todo n > 1, se A uma matriz n n, ento
det(A) = det(At ).

R6.5.

Jones Colombo e Jos Koiller (texto em preparao)

155

Captulo 6. Determinantes

Soluo: Seja A = [aij ] e B = [bij ] = At , portanto, bij = aji . Usando as


equao para o determinante, deduzida no exerccio r6.4, obtemos:
det(B) =

X
i1 ,...,in

X
i1 ,...,in

X
j1 ,...,jn

X
j1 ,...,jn

X
j1 ,...,jn

(Pi1 ...in )bi1 1 bi2 2 bin n




det ei1 ein a1i1 a2i2 anin
t

det ej1 ejn aj1 1 aj2 2 ajn n


det ej1 ejn aj1 1 aj2 2 ajn n
(Pj1 ...jn )aj1 1 aj2 2 ajn n = det(A).

Para entender melhor o que aconteceu na terceira igualdade veja a observao a seguir.
Dado um termo ai1 1 ai2 2 ain n do somatrio do determinante que aparece
no exerccio r6.4. Observe que cada fator aij k tem dois ndices ij e k, por
exemplo: ai2 2 tem o ndice i2 e o ndice 2. Todos os valores do {1, 2, . . . , n}
aparecem no primeiro ndice i2 . Ento podemos reordenar os termos, de tal
forma que o primeiro ndice aparea com valores crescentes, desta forma podemos determinar j1 , . . . , jn , tais que ai1 1 ai2 2 ain n = a1j1 a2j2 anjn . Por
exemplo, na expresso do determinante de ordem 3 3 aparece o seguinte
termo: a31 a12 a23 , que podemos reescrever da seguinte forma: a12 a23 a31 .
Alm disso, a matriz Pj1 ...jn obtida quando tomamos (Pi1 ...in )t , em que
possvel verificar que (Pi1 ...in ) = (Pj1 ...jn ). Por exemplo, associado
ao termo a31 a12 a23 temos a matriz de permutao P312 , como a31 a12 a23 =
a12 a23 a31 , e obtemos a matriz P231 associado ao lado direito da igualdade.
t
t
Agora verifique que P231 = P312
e que det(P231 ) = det(P312
).
Mostre que o determinante de qualquer matriz quadrada A = [aij ] pode ser
calculando fazendo a expanso em qualquer de suas linhas ou colunas. Chamamos esta expanso de Expanso de Laplace do determinante. Assim, a
expanso na i-sima linha e na j-sima coluna pode ser assim representada:

R6.6.

det(A) = ai1 i1 + ai2 i2 + + ain in =

n
X

aik ik e

k=1
n
X

det(A) = a1j 1j + a2j 2j + + anj nj =

alj lj , respectivamente.

l=1

Soluo: Faremos a demonstrao somente


 para a expanso pela j-sima
coluna. Considere a matriz escrita A = c1 cj1 cj cj+1 cn
156

Jones Colombo e Jos Koiller (texto em preparao)

Exerccios

como colunas, ento:




det(A) = det c1 cj1 cj cj+1 cn
= D (c1 , . . . , cj1 , cj , cj+1 , . . . , cn )
= D (c1 , . . . , cj , cj1 , cj+1 , . . . , cn )
..
.
= (1)j1 D (cj , c1 , . . . , cj1 , cj+1 , . . . , cn )


= (1)j1 det cj c1 cj1 cj+1 cn .


Seja B = cj c1 cj1 cj+1 cn e vamos calcular o determinante por fazer a expanso na primeira coluna de B
!
n
X
j1
k+1
det(A) = (1)
akj (1) det(Bk1 )
k=1

n
X

(1)k+1+j1 akj det(Akj )

k=1

n
X

k+j

akj (1)

det(Akj ) =

k=1

n
X

akj kj .

k=1

No caso, da expanso do determinante com respeito a uma linha s lembrar


que o determinante tambm linear antissimtrico com respeito s linhas
da matriz.
Determinantes e sistema de equaes lineares
Prove o teorema 6.17. O sistema (quadrado) Ax = b possui uma nica
soluo se, e s se, det(A) 6= 0. Nesse caso, a soluo dada por:

R6.7.

det(A2 )
det(An )
det(A1 )
, x2 =
, . . . , xn =
.
det(A)
det(A)
det(A)
Pn
da equao e ej
Soluo: Suponha que x =
j=1 xj ej seja uma soluo


c
c

c
seja os vetores
da
base
cannica.
Alm
disso,
se
A
=
,
1
2
n
P
P
logo Ax = nj=1 xj Aej = nj=1 xj cj = b, isso se traduz por:

x1
b1


 x 2 b2
Pn
Pn

c1 c2 cn .. = ..
j=1 xj cj = b e bi =
j=1 xj aij .
. .
xn
bn
x1 =

Assumindo que x uma soluo ento:




Ak = c1 ck1 b ck+1 cn


Pn
= c1 ck1
j=1 xj cj ck+1 cn
Jones Colombo e Jos Koiller (texto em preparao)

157

Captulo 6. Determinantes

e da
det(Ak ) = D(c1 , . . . , ck1 ,

n
X

xj cj , ck+1 , . . . , cn )

j=1

n
X

xj D (c1 , . . . , ck1 , cj , ck+1 , . . . , cn )

j=1

= xk D (c1 , . . . , ck1 , ck , ck+1 , . . . , cn )




= det c1 ck1 ck ck+1 cn = xk det(A).
Logo, se det(A) 6= 0 segue que:
xk =

det(Ak )
.
det(A)

Como consequncia se det(A) 6= 0 a soluo existe e nica.


Adjuntas clssicas e inversas
Prove o teorema 6.19. Seja A uma matriz quadrada de ordem n qualquer.
Ento:
adj(A)A = det(A)I,

R6.8.

sendo I a matriz identidade. Assim, se det(A) 6= 0,


A1 =

1
adj(A).
det(A)


t
n
Soluo: Se x = x1 xk xn R
e seja
 um vetor qualquer,

A = [aij ] vista como n colunas, isto , A = c1 ck cn , digamos

t
que u = u1 uk un = Ax. Por fazer a expanso na k-sima
coluna (veja o exerccio r6.6) de Ak , onde Ak a matriz obtida por substituir
ck por u, obtemos:
det(Ak ) =

n
X

(1)i+k ui det(Aik ), para todo k = 1, 2, . . . , n.

i=1

E pelo exerccio r6.7 temos


xk det(A) =

n
X

(1)i+k det(Aik )ui , para todo k = 1, 2, . . . , n.

i=1

Lembrando que ik = (1)i+k det(Aik ), podemos expressar estas n igualdades, usando a multiplicao de matriz por vetor, como a igualdade entre
os vetores


x1
11 21 n1
u1
x2 12 22 n2 u2


det(A) .. = ..
..
.. .. = adj(A)u.
...
. .
.
. .
xn
1n 2n nn
un
158

Jones Colombo e Jos Koiller (texto em preparao)

Exerccios

Como u = Ax temos que


det(A)x = adj(A)u = adj(A)Ax,

x Rn ,

ou seja,
adj(A)A = det(A)I.
E, no caso de det(A) 6= 0, temos que

1
det(A)

adj(A) = A1 .

Prove o teorema 6.23. Seja B uma matriz quadrada triangular inferior


(superior), em blocos, com os blocos diagonais A1 , A2 , . . . , Ak , ento,

R6.9.

det(B) = det(A1 ) det(A2 ) det(Ak ).


Soluo: Vamos demonstrar o resultado para um caso em particular. Considere a matriz:

a b a13 a14 a15


c d a23 a24 a25

e
f
g
B=
0 0
.
0 0
h
i
j
0 0
k
l m
Observe que A1 a matriz 2 2 e A2 a matriz 3 3. Vamos calcular o
determinante de B por fazer, duas vezes, a expanso de Laplace na primeira
linha, a seguir:

d a23 a24 a25


b a13 a14 a15

0
e
f
g
e
f
g
c det 0

det(B) = a det
0

h
i
j
0
h
i
j
0
k
l m
0
k
l m

e f g
e f g

= ad det h i j cb det h i j
k l m
k l m

e f g

= (ad bc) det h i j = det(A1 ) det(A2 ).


k l m
O caso geral segue por raciocnio semelhante.

1
1
0
1 1. Encontre (a) adj(B), (b) det(B) e (c) B 1 ,
R6.10. Seja B = 1
0 2
1
usando a adj(B).
Jones Colombo e Jos Koiller (texto em preparao)

159

Captulo 6. Determinantes

Soluo: Vamos comear por determinar adj(B).


terminar todos os ij = (1)i+j det(Aij ), ento:

(1)1+1 det(A11 ) (1)1+2 det(A12 )


= (1)2+1 det(A21 ) (1)2+2 det(A22 )
B
(1)3+1 det(A31 ) (1)3+2 det(A32 )

1 1 2
1
2 .
= 1
1
1
0

Para isto precisamos de


(1)1+3 det(A13 )
(1)2+3 det(A23 )
(1)3+3 det(A33 )

E como sabemos que adj(B)B = det(B)I, calculando apenas a posio 11


da matriz adj(B)B, obtemos o valor do determinante, ento:

1 1 1 1
1
0
2
t B = 1
.
1
1 1
1 1 =
adj(B)B = B
2
2
0
0 2
1
Portanto, det(B) = 2 e

B 1

1/2
1/2
1/2
= 1/2 1/2 1/2 .
1
1
0

Exerccios propostos
P6.1.

Use a regra de Cramer para calcular as solues

5x + 7y = 7
5x + 7y = 3
3x + z = 8 c)
a)
b)

2x + 4y = 1

y + 2z = 3

dos sistemas:

2x + y + z = 4
x + 2z = 2

3x + y + 3z = 2

a adjunta para calcular uma frmula para a matriz inversa de A =



a b
.
c d

P6.2. Use

P6.3.

160

Calcule det A, sendo

2
3
1 2
5
3
1
4

(a) A =
0
1
2 4
3 1 2
4

3
0
0
0
19 18
0
0

5
0
(c) A =

4
6 3 1/6
7
5
8
4

(b)

3 1
5 0
0
2
0 1

A=
2
0 1 3
1
1
2 0

0
0

0
.
0
4

Jones Colombo e Jos Koiller (texto em preparao)

Exerccios

P6.4.

Encontre A1 , sendo

4 1 2 2
1
0
x
2
1
4
3 1 0
0
(b) A = 1 1 x2 (c) A = 6 3 2
(a) A =
2
3 1
0
2 2 x2
4
1
2
0
7 1
1

P6.5.

Seja A uma matriz ortogonal, isto , At A = I. Mostre que det(A) = 1.

P6.6.

Mostre que

1 a a2
det 1 b b2 = (b a)(c a)(c b).
1 c c2


a b
P6.7. Seja V o espao vetorial das matrizes M =
de ordem 2. Decida se
c d
a aplicao D : V R dada bilinear (em relao as linhas)
(a) D(M ) = a + d, (b) D(M ) = ac bd
(c) D(M ) = ad, (d) D(M ) = ab + cd.

P6.8.

Sejam A, B, C e D matrizes quadradas de ordem


 n que
 comutam. ConA B
sidere a matriz de ordem 2n em blocos N =
, ento det(N ) =
C D
det(A) det(D) det(B) det(C). Mostre com um exemplo que a afirmao
falsa se as matrizes no comutarem.

P6.9.

Determine uma frmula para a rea do tringulo cujos vrtices so 0,v1 e


v2 no R2 .

P6.10.

Seja R o tringulo com vrtices (x1 , y1 ), (x2 , y2 ) e (x3 , y3 ). Mostre que





x
y
1
1
1

1

{rea do tringulo} = det x2 y2 1 .


2
x3 y 3 1

Encontre a rea do paralelogramo cujos vrtices so dados por:


       
 1   0   1   2 
 0   6   3   3 
a) 00 , 52 , 64 , 11
;
b)
,
,
,
;
c)
4
2 , 1 ,
6
5
1
0
1 , 2 .

P6.11.

Determine o volume do paraleleppedo


que
tem
um vrtice na origem e
1
1
7
os vrtices adjacentes nos pontos 0 , 2 e 1.
2
4
0

P6.12.

Para cada uma das matrizes


A , usando a adj(A).

1 3

2 4
(a)
5 2

P6.13.

a seguir calcule (a) adj(A), (b) det(A) e (c)

2
3
1

(b)

Jones Colombo e Jos Koiller (texto em preparao)

1 1 1
1 3 4 .
1 2 5

161

Captulo 6. Determinantes

162

Jones Colombo e Jos Koiller (texto em preparao)

Captulo 7
Mudana de Base
Este captulo mais tcnico, nele pretendemos explicar como as coordenadas
de um vetor mudam, ao mudarmos de uma base para outra. Antes de comear
preciso fazer uma distino sem a qual no possvel entender os conceitos
discutidos neste captulo. A distino a de que quando escrevemos w estamos
imaginando um vetor (como ente geomtrico) e quando escrevemos [w], estamos
pensando nas coordenadas deste vetor com respeito uma base.

7.1

Matriz Mudana de Coordenadas

Vamos considerar uma base = {u1 , u2 , . . . , un } do Rn , ento qualquer vetor


w Rn pode ser escrito de maneira nica como combinao linear dos vetores
de , isto , existem x1 , x2 , . . . , xn R tais que:
w = x1 u1 + x2 u2 + + xn un .
Se ordenarmos o conjunto podemos associar para cada vetor w um nico
conjunto de nmeros que informam
 as coordenadas
t do vetor w, em relao aos
vetores de , e escrevemos [w] = x1 x2 xn . Reciprocamente, se dermos
um conjunto de n nmeros x1 , x2 , . . . , xn existe um nico vetor associado, que
o vetor w = x1 u1 + x2 u2 + + xn un .
Agora se tivermos outra base, digamos = {v1 , v2 , . . . , vn }, ento podemos
encontrar y1 , y2 , . . . , yn R, tais que o mesmo vetor w se escreve
w = y1 v1 + y2 v2 + + yn vn ,


t
e as coordenadas desse vetor com respeito base so [w] = y1 y2 yn .
Nesta seo vamos entender como relacionar as coordenadas de w, na base ,
com as coordenadas de w, com respeito base .

7.1.1

Dimenso 2

Faremos as contas somente para o caso em que a dimenso do espao vetorial


2, isso porque o resultado obtido em dimenso 2 estende-se para espaos de
dimenso maior sem nenhuma dificuldade.
163

Captulo 7. Mudana de Base

Sejam = {u1 , u2 } e = {v1 , v2 } duas bases ordenadas de R2 . Ento dado,


o vetor
w = x1 u1 + x2 u2
= y1 v 1 + y2 v 2 .
Como v1 e v2 so vetores, podemos determinar as coordenadas destes vetores
com respeito base , isto ,
v1 = a11 u1 + a21 u2
v2 = a12 u1 + a22 u2 .
Substituindo na igualdade acima obtemos:
w = y1 v1 + y2 v2
= y1 (a11 u1 + a21 u2 ) + y2 (a12 u1 + a22 u2 )
= (a11 y1 + a12 y2 )u1 + (a21 y1 + a22 y2 )u2 .
E usando a unicidade da representao de um vetor em termos de uma base
ordenada e a multiplicao de matrizes obtemos que:
  
 
x1
a11 a12 y1
=
.
x2
a21 a22 y2
Observe que qualquer que seja o vetor w, se soubermos as coordenadas dele com
respeito base , [w] , podemos encontrar as coordenadas de w na base , [w] ,
bastando para isso multiplicar [w] pela matriz acima. Chamamos essa matriz de
matriz de mudana de coordenadas da base para a base e a denotamos
por [I] .
Exemplo 7.1
 1   0 
 1   1 
Considere V = R2 e =
e a base =
. Ento, para
0 , 1
1 , 1
determinarmos a matriz mudana da base para a base , [I] , precisamos
encontrar as coordenadas dos vetores da base com respeito base , isto ,
 
 
 
 
 
 
1
1
0
1
1
0
= a11
+ a21
e tambm
= a12
+ a22
.
1
0
1
1
0
1
Essas equaes vetoriais so muito fceis de serem resolvidas e as solues so
a11 = 1, a12 = 1, a21 = 1 e a22 = 1. Portanto,


1 1

[I] =
.
1 1
Vamos determinar tambm [I] . Para isso precisamos escrever os vetores da base
, em termos da base . Depois de fazermos as contas chegamos que:
 
 
   
 
 
1
1
1
0
1
1
= 1/2
+ 1/2
e
= 1/2
+ 1/2
.
0
1
1
1
1
1
164

Jones Colombo e Jos Koiller (texto em preparao)

7.1. Matriz Mudana de Coordenadas

Portanto,
[I]

1/2
=
1/2


1/2
.
1/2

Vamos fazer duas observao: a primeira a de que [I] [I] = I, portanto, uma
inversa da outra( este resultado geral!) A segunda a de que a matriz [I] tem
como colunas os vetores da base , esse fato sempre ocorre se a base de chegada
a base cannica.

7.1.2

Caso Geral

Vamos tratar o caso geral. Suponha que = {u1 , u2 , . . . , un } uma base de


V assim como = {v1 , v2 , . . . , vn } e, que w seja um vetor qualquer de V , ento
podemos determinar as coordenadas


x1
y1
x2
y2


[w] = .. e [w] = .. .
.
.
xn
yn
Escrevendo os vetores da base , em termos da base , podemos determinar os
n2 nmeros aij a seguir:
v1 = a11 u1 + a21 u2 + + an1 un
v2 = a12 u1 + a22 u2 + + an2 un

vj = a1j u1 + a2j u2 + + anj un

vn = a1n u1 + a2n u2 + + ann un


E, montando a matriz,


[I] = [v1 ] [v2 ]

a11 a12

a21 a22
[vn ] = ..
..
.
.
a1n a2n

a1n
a2n

.. .
..
. .
ann

Essa matriz foi obtida ao pegar os coeficientes que aparecem na expresso do


vetor vj como combinao linear dos vetores ui0 s e colocar na j-sima coluna.
Essa matriz chamada de matriz de mudana da coordenadas de para
a base ou simplesmente matriz de mudana de coordenadas.
Observao 7.2
Na literatura a matriz [I] muitas vezes chamada de matriz de mudana da base
para a base , ou, simplesmente, matriz de mudana de base. Voc poderia
pensar que cometemos um equivoco, mas, de fato, no cometemos. Mais para
frente justificaremos este nome.
Jones Colombo e Jos Koiller (texto em preparao)

165

Captulo 7. Mudana de Base

7.2

Aplicaes lineares e Matrizes

At o momento sabemos que dada uma aplicao linear T : Rn Rm podemos


associar uma matriz A = [aij ], de ordem m n e, reciprocamente, dada uma
matriz A = [aij ], de ordem m n, podemos determinar uma aplicao linear
S : Rn Rm definida por x Rn 7 Ax Rm . Vamos estender esse conceito
para quando levarmos em conta as coordenadas de um vetor.
Vamos iniciar considerando a aplicao linear T : Rn Rm , e sejam =
{u1 , u2 , . . . , un } uma base de Rn e = {v1 , v2 , . . . , vm } uma base de Rm . Observe que em qualquer vetor u Rn o vetor T (u) Rm podemos determinar as
coordenadas do mesmo com respeito base em particular,
T (u1 ) = a11 v1 + a21 v2 + + am1 vm
T (u2 ) = a12 v1 + a22 v2 + + am2 vm

T (uj ) = a1j v1 + a2j v2 + + amj vm

T (un ) = a1n v1 + a2n v2 + + amn vm


Assim, podemos associar a matriz

a11
a21

[T ] = ..
.

a12
a22
..
.

am1 am2

a1n
a2n

..
...
.
amn

que chamada matriz da aplicao linear T com respeito s bases e .

Exemplo 7.3
Considere T : R3 R2 definida por



x
y 7 2x + y z e as bases
3x 3y 4z
z

   
1
1
1
1
1
= 1 , 1 , 0 e =
,
.
1
1

1
0
0
Encontre a matriz de T com respeito estas bases. Precisamos encontrar as
166

Jones Colombo e Jos Koiller (texto em preparao)

7.2. Aplicaes lineares e Matrizes

coordenadas, na base , dos vetores da base avaliados por T .



 
 
 
1
2
1
1
T 1 =
= (3)
+ (1)
;
4
1
1
1

 
 
 
1
3
1
1

1
T
=
= (3/2)
+ (3/2)
;
0
1
1
0

 
 
 
1
2
1
1

0
T
=
= (1/2)
+ (5/2)
.
3
1
1
0
Portanto, a matriz de T , com respeito s bases e


3
3/2 1/2

[T ] =
.
1 3/2 5/2
Teorema 7.4
Sejam T : Rn Rm uma aplicao linear, uma base de Rn , uma base de
Rm , ento
[T (w)] = [T ] [w] .
Demonstrao: Esse teorema nos diz que se tomarmos o vetor w e calcularmos
as coordenadas de T (w), com respeito base , ser o mesmo que calcularmos
[w] vezes a matriz da aplicao T , com respeito s bases e .
Faremos a demonstrao somente para o caso n = 2 e m = 3, por acreditar
que isso bem mais instrutivo que a demonstrao no caso geral. Para comear,
sejam = {u1 , u2 } uma base do R2 e = {v1 , v2 , v3 } uma base do R3 . Sabemos
que existem nicos coeficientes aij R, tais que:
T (u1 ) = a11 v1 + a21 v2 + a31 v3
T (u2 ) = a12 v1 + a22 v2 + a32 v3 ,
e obtemos a matriz

a11 a12
[T ] = a21 a22 .
a31 a32
h y1 i
 
Seja w um vetor de R2 e sejam [w] = xx12 e [T (w)] = yy23 as suas coordenadas.
Logo, w = x1 u1 + x2 u2 e por fazer uso da linearidade da aplicao T temos:
T (w) = T (x1 u1 + x2 u2 )
= x1 T (u1 ) + x2 T (u2 )
= x1 (a11 v1 + a21 v2 + a31 v3 ) + x2 (a12 v1 + a22 v2 + a32 v3 )
= (a11 x1 + a12 x2 )v1 + (a21 x1 + a22 x2 )v2 + (a31 x1 + a32 x2 )v3 .
Jones Colombo e Jos Koiller (texto em preparao)

167

Captulo 7. Mudana de Base

Mas T (w) = y1 v1 + y2 v2 + y3 v3 e como as coordenadas com respeito uma base


so nicas segue que

y1
a11 a12  
y1 = a11 x1 + a12 x2
x
y2 = a21 x1 + a22 x2 , que equivalente a, y2 = a21 a22 1 .
x2

y3
a31 a32
y3 = a31 x1 + a32 x2
Isto , [T (w)] = [T ] [w] .
Exemplo 7.5
Considere o caso especial I : Rn Rn o operador identidade, isto , I(v) = v
para todo v Rn . Considere = {v1 , v2 , . . . , vn } uma base do domnio de I
e uma base = {u1 , u2 , . . . , un } do contradomnio de I. Vamos determinar a
matriz deste operador com respeito estas bases. Para isso calcule:
I(v1 ) = v1 = a11 u1 + a21 u2 + + an1 un ;
I(v2 ) = v2 = a12 u1 + a22 u2 + + an2 un ;

I(vj ) = vj = a1j u1 + a2j u2 + + anj un ;

I(vn ) = vn = a1n u1 + a2n u2 + + ann un .


Observe que a matriz de I com respeito s duas bases obtida por pegar as
coordenadas do vetor vj , em termos da base e colocar na j-sima coluna da
matriz. Mas isso exatamente a forma de calcular a matriz de mudana de
coordenada. Portanto,

a11 a12 a1n


a21 a22 a2n

[I] = ..
.. . .
.. .
.
. .
.
an1 an2 ann
E por isso denotar a matriz de mudana de coordenadas da base para a base
por [I] no nada de especial, apenas a matriz do operador I com respeito
s bases e .
Teorema 7.6
Sejam T : Rn Rm e S : Rm Rk duas aplicaes lineares e , e bases de
Rn , Rm e Rk , respectivamente. Ento, a composta de S T : Rn Rk , linear e
[S T ] = [S] [T ] .
A demonstrao desse resultado fcil, mas muito trabalhosa, veja o exerccio
r7.2.
Observao 7.7
Voc h de convir que seria muito mais natural definir a multiplicao entre matrizes como a simples multiplicao entre as entradas correspondentes e somente
168

Jones Colombo e Jos Koiller (texto em preparao)

7.2. Aplicaes lineares e Matrizes

para matrizes de mesmo tamanho, similarmente ao que ocorre com a operao de


soma de matrizes. Definimos dessa forma para tornar o Teorema 7.6 verdadeiro.
O Teorema 7.6 nos diz que a multiplicao entre matrizes compatvel com
a composio de funes lineares.
Corolrio 7.8
Se T : Rn Rn um operador linear invertvel e se e so bases do domnio e
do contradomnio, respectivamente. Logo, T 1 : Rn Rn tambm um operador
linear e
[T 1 ] = ([T ] )1 .
Demonstrao: Segue das seguintes duas observaes. Em primeiro lugar, se
I : Rn Rn o operador identidade, e uma base de qualquer de Rn , ento,
a0 calcularmos [I] obtemos sempre a matriz identidade, qualquer que seja
escolhida. A segunda observao a seguinte
[T 1 ] [T ] = [T 1 T ] = [I] .
Portanto, [T 1 ] = ([T ] )1 .
Segue deste corolrio que se [I] a matriz de mudana de coordenadas da
base para a base , ento [I] = ([I] )1 .
Se T : Rn Rm uma aplicao linear e, e 0 so bases de Rn e e
0
0 so bases de Rm , ento podemos associar as seguintes matrizes [T ] e [T ] 0
aplicao linear T .
Como podemos relacionar estas matrizes? Como elas provm da mesma transformao linear, devem ter a mesma ao sobre os vetores de Rn , o que deve sofrer
alterao, so as coordenadas desses vetores.
Observe que para avaliar o vetor w Rn em T , por usar a matriz [T ] ,
precisamos obter as coordenadas de w na base , digamos ainda que conheamos
as coordenadas na base 0 , isto , [w]0 . Portanto, para obtermos as coordenadas
0
na base precisamos da matriz [I] e, por um lado,
0

[T (w)] 0 = [T ] 0 [w]0
e por outro,
0

[T (w)] = [T ] [I] [w]0 .


0

Se ainda conhecermos a matriz [I] , ento temos a igualdade


0

[I] [T ] 0 [w]0 = [I] [T (w)] 0 = [T (w)] = [T ] [I] [w]0 .


Como isso vale para todo vetor w, logo essa igualdade vlida entre as matrizes,
isto ,
0
0
0
[I] [T ] 0 = [T ] [I] .
Jones Colombo e Jos Koiller (texto em preparao)

169

Captulo 7. Mudana de Base

Exemplo 7.9
Considere a mesma aplicao T : R3 R2 definida no exemplo 7.3 e 0 a base
cannica do R3 e 0 a base cannica do R2 , ento


2
1 1
0
[T ] 0 =
.
3 3 4
Vamos conectar com a matriz
[T ]

3
3/2
=
1 3/2


1/2
,
5/2
0

calculada no exemplo 7.3 com essa matriz, para isso precisamos das matrizes [I] ,
0
que foi calculada no exemplo 7.1, e tambm [I] . Executando as contas obtemos:



0
0 1
0
0
1/2 1/2
e [I] = 0 1 1 .
[I] =
1/2 1/2
1 1 0
Vale a seguinte igualdade (verifique):



0
0
1/2 1/2 2
1 1
= [I] [T ] 0
1/2 1/2 3 3 4


0
1/2 2 3/2
=
= [T ] [I]
5/2 1 5/2


 0
0 1
3
3/2 1/2
0 1 1 .
=
1 3/2 5/2
1 1 0
0

Se na equao [I] [T ] 0 = [T ] [I] tivermos m = n e = e 0 = 0 ,


0
0
0
a igualdade aqui demonstrada se torna [I] [T ]0 = [T ] [I] e, lembrando que
0
0
([I] )1 = [I]0 se multiplicarmos a igualdade por ([I] )1 obtemos:
0

[T ]0 = [I]0 [T ] [I] .
Observao 7.10
0
Continuando com a notao anterior, observe que ao fazemos [T ] [I] obteremos
0
0
[T ] . Portanto, a matriz [I] toma a matriz de T , na base , e retorna a matriz
0
de T com respeito s bases 0 , , podemos dizer que a matriz [I] a matriz de
mudana da base para a base 0 . Isso justifica o nome dado anteriormente na
observao 7.2.
Definio 7.11
Sejam A e B duas matrizes quadradas. Dizemos que A e B so matrizes semelhantes e denotamos por A
= B se existe uma matriz P invertvel, tal que
B = P 1 AP.
Disso temos que todas as matrizes associadas a um operador so semelhantes.
170

Jones Colombo e Jos Koiller (texto em preparao)

Exerccios

Exerccios resolvidos
Sejam = {u1 , u2 } e = {v1 , v2 } as bases de um espao vetorial V , e
suponha que v1 = 6u1 2u2 e v2 = 9u1 4u2 .

R7.1.

a) Determine a matriz de mudana de coordenadas [I] ;

b) Determine, usando o item a), [w] para w = 3u1 4u2 .


Soluo: a) Da expresso
 de v1 e v2 como combinao linear de u1 , u2
1
6
9
= [I] segue que
. Como [I]
obtemos [I] =
2 4


2/3 3/2

[I] =
.
1/3 1
b) Como sabemos que as coordenadas de w, com respeito base , para
encontrarmos as coordenadas de w, com respeito base , basta calcularmos:

   
2/3 3/2
3
4

[w] = [I] [w] =


=
.
1/3 1 4
3
Prove o teorema 7.6. Sejam T : Rn Rm e S : Rm Rk duas aplicaes lineares e , e bases de Rn , Rm e Rk , respectivamente. Ento, a
composta de S T : Rn Rk linear e

R7.2.

[S T ] = [S] [T ] .
Soluo: Suponha que = {u1 , . . . , un } Rn , = {v1 , . . . , vm } Rm
e = {w1 , . . . , wk } Rk sejam bases de Rn , Rm e Rk , respectivamente.
Podemos determinar escalares aij e bjl , satisfazendo:
T (ui ) =

m
X

aij vj e S(vj ) =

j=1

k
X

bjl wl , com i = 1, . . . , n e j = 1, . . . , m.

l=1

E isto determina as matrizes [S] = [bjl ]km e [T ] = [aij ]mn . Agora,


observe o seguinte:
!
m
X
(S T )(ui ) = S(T (ui )) = S
aij vj
j=1

m
X

aij S(vj )

j=1

m
X
j=1

aij

k
X

bjl wl =

l=1

Jones Colombo e Jos Koiller (texto em preparao)

k
m
X
X
l=1

!
aij bjl

wl .

j=1

171

Captulo 7. Mudana de Base

P
O escalar m
j=1 aij bjl a entrada il da matriz da transformao linear S T
com respeito s bases e . Por outro lado, a entrada na posio
Pm il da
matriz obtida por multiplicar [bjl ]km por [aij ]mn o escalar j=1 aij bjl .
De onde obtemos a igualdade desejada.
Considere o operador linear F de R2 definido por F
bases de R2 a seguir:
   
   
= 10 , 01
e = 14 , 27 .

R7.3.

 x 
y

 5xy 
2x+y

e as

a) Encontre a matriz P de mudana de coordenada da base para a base


e a matriz Q de mudana de coordenada da base para a base .
b) Encontre a matriz A que representa F na base .
c) Encontre a matriz B que representa F na base .
Soluo: a) Vamos comear determinando a matriz Q = [I] , a qual muito
fcil de determinar, visto que precisamos escrever os vetores da base como
combinao linear dos vetores da base que a base cannica, alm disso,
P = Q1 , ento:

 



1
7 2
7
2
1 2
1
=
.
Q=
logo P = Q = Q =
1
4 1
4 7
1 4
b) A matriz A = [T ] facilmente obtida da expresso, basta fazer
 
 
x 52 + y 11 e da


5 1

A = [T ] =
.
2
1

 5xy 
2x+y

c) Como sabemos que [T ] = [I] [T ] [I] , logo:


[T ]



 

 

7
2 5 1 1 2
7
2 1 3
5 1
=
=
=
.
4 1 2
1 4 7
4 1 6 11
2 1

Considere T : R3 R3 uma transformao linear, tal que T


h i h i
h i h 0 i h i
0
1
0
1
1
1
0 ,T
= 1 eT
= 0 .
2

R7.4.

h i
1
0
1

nh i h 0 i h io
1
1
1 , 1
0 ,
uma base do R3 .
2
1
1
h 2i
b) Determine [v] se v = 1 .
0
h 2 i
1
c) Determine T
.
a) Mostre que =

172

Jones Colombo e Jos Koiller (texto em preparao)

Exerccios

Soluo: a) Vamos montar uma matriz A,


nas colunas e ento

1
0 1
1
0
1 1 = det 0
1
det(A) = det 0
1 2 1
0 2

por colocar os vetores da base

1
1 0 1
1 = det 0 2 0 = 2 6= 0,
0
0 1 1

E isso garante que estes vetores so linearmente independentes, uma vez


que, se os vetores no fossem LI, ento eles estariam em um plano, nesse
caso o volume do paraleleppedo determinado por esses vetores seria 0, o
que no ocorre.
b) Se a base cannica do R3 precisamos encontrar a matriz [I] , mas
calcular a matriz [I] = A obtida acima, usando a adjunta podemos obter
o inverso desta matriz que

3/2 1 1/2
0 1/2 .
B = [I] = 1/2
1/2
1
1/2


3/2 1 1/2
2
4
0 1/2 1 = 1 .
Portanto, calcular [v] = [I] [v] = 1/2
1/2
1
1/2
0
2
c) Observe que



2
1
0
1
T 1 = T 4 0 + 1 2 1
0
1
2
1


1
0
0
4
= 4 0 + 1 2 0 = 1 .
0
0
1
2

Exerccios propostos
P7.1.

   
   
   
Considere as bases = 10 , 01 , = 13 , 14
e = 12 , 23
do
2
R . Encontre as matrizes de mudana de coordenadas nos seguintes casos:
a) [I] ; b) [I] ; c) [I] e d) [I] .

P7.2.

Suponha que os eixos x e y do plano R2 tenham sido girados 30 no sentido


anti-horrio para formar novos eixos x0 e y 0 do plano. Encontre:
a) Os vetores unitrios na direo dos novos eixos x0 e y 0 ;
b) A matriz P de mudana de coordenadas da base antiga para a base nova;
   
c) As novas coordenadas dos pontos 13 e 35 ;
d) Por fim, verifique que P P t = I.

Jones Colombo e Jos Koiller (texto em preparao)

173

Captulo 7. Mudana de Base

P7.3.

P7.4.

h i
1
a) Ache a expresso da transformao linear T : R3 R2 tal que T ( 0 ) =
0
h i
h i
 2 
 1
 2 
0
0
) = 1 e T ( 0 ) = 0 ;
1 , T( 1
0
1
 
b) Encontre v R3 tal que T (v) = 32 .
Seja G um operador do R2 e a base a seguir:
   2x7y 
   
G xy = 4x3y
e = 13 , 25
a) Encontre a matriz [G] de G, com respeito .
b) Verifique que [G] [w] = [G(w)] para o vetor w =

P7.5.

4
2


.

Para cada um dos operadores lineares T do R2 a seguir, encontre a matriz


A, que representa T (em relao base cannica do R2 ).
   
   
a) T definida por T 10 = 24 e T 01 = 58 .
b) T a rotao no sentido anti-horrio em torno da origem de /2.
c) T a reflexo de R2 em torno da reta y = x.

P7.6.

174

Mostre que a relao de semelhana entre matrizes uma relao de equivalncia, isto , a relao a seguinte: Dizemos que as matrizes A e B
so matrizes semelhantes (e escrevemos A
= B) se existe uma matriz P
invertvel, tal que B = P 1 AP . Mostre ento que: a) A
= A; b) Se A
=B

ento B = A e c) Se A = B e B = C ento A = C.

Jones Colombo e Jos Koiller (texto em preparao)

Captulo 8
Autovalores, Autovetores e
Diagonalizao de Operadores
8.0

Introduo

Ao invs de comearmos com uma introduo tradicional, vamos, sem rodeios,


considerar dois exemplos que iro motivar o assunto deste captulo. Esses exemplos envolvem o clculo de potncias de matrizes. Se A uma matriz quadrada
e k um nmero natural, ento Ak representa a matriz A A A A (k vezes).
A matriz Ak chama-se a k-sima potncia da matriz A. Note que s faz sentido
considerar potncias de matrizes que forem quadradas (veja o exerccio p8.1).
Exemplo 8.1



3
0
Calcule a k-sima potncia D da matriz D =
.
0 2
k

Soluo: Vamos primeiro calcular D2 :




 
3
0 3
0
33+00
2
D =
=
0 2 0 2
0320

  2

3 0 + 0 (2)
3
0
=
.
0 0 + (2) (2)
0 (2)2

Em seguida, calculamos D3 :
 2

  2
  3

3
0
3
0
3 3
0
3
0
3
2
D =D D =
=
=
.
0 (2)2 0 2
0
(2)2 (2)
0 (2)3
No difcil convencer-se de que, para qualquer k natural, vale a frmula
 k

3
0
k
D =
.
(8.1)
0 (2)k
Os leitores e leitoras cticos podem referir-se ao exerccio resolvido ??.
A simplicidade do exemplo anterior deve-se ao fato de que D uma matriz
diagonal, isto , as entradas fora de sua diagonal principal so todas iguais a zero.
Em geral, as potncias de uma matriz no so dadas por uma frmula to simples
como (8.1). Em particular, as potncias de uma matriz no podem ser calculadas
entrada por entrada, isto , se A = [aij ], ento, em geral, no vale Ak = [akij ].
175

Captulo 8. Autovalores, Autovetores e Diagonalizao de Operadores

Exemplo 8.2



8
5
Calcule a k-sima potncia A da matriz A =
.
10 7
k

Soluo: Para que no haja


quanto
a isso, comeamos observando que a
h dvidas
i
k
k
8
5
matriz Ak no igual a (10)k (7)k , conforme o comentrio que acabamos de
fazer (veja tambm o exerccio p8.2).
Para encontrar uma frmula para Ak , vamos utilizar um artifcio que, por ora,
pode parecer um passe de mgica.1 Considere a matriz


1 1
P =
.
(8.2)
1
2
A matriz P o coelho na cartola, que surge de forma aparentemente inexplicvel. Esse coelho, no entanto, muito til. Verifique que



 

2 1
8
5
1 1
3
0
1
P AP =
=
= D.
(8.3)
1 1 10 7 1
2
0 2
Ou seja, a matriz P 1 AP igual matriz D do exemplo anterior! A relao
P 1 AP = D equivalente a A = P DP 1 . De fato, temos
P 1 AP = D

P (P 1 AP )P 1 = P DP 1
IAI = P DP 1

A = P DP 1 (8.4)

P 1 AP = P 1 (P DP 1 )P
P 1 AP = IDI

P 1 AP = D. (8.5)

e, analogamente,
A = P DP 1

A relao A = P DP 1 a chave para se calcular Ak :


Ak = AA
A} = (P DP 1 )(P DP 1 ) (P DP 1 ) =
| {z
k vezes




1
1
1
PD
P
P D
P
P D D
P
P DP 1

| {z }
I

| {z }
I

| {z }
I

= P |DD{z
D} P 1 = P Dk P 1 . (8.6)
k vezes

J calculamos Dk no exemplo anterior. Aplicando o resultado l obtido, temos






1 1 3k
0
2 1
k
k 1
A = PD P =
=
1
2 0 (2)k 1 1


2 3k (2)k
3k (2)k
=
. (8.7)
2 3k + 2 (2)k 3k + 2 (2)k
Para convencer-se de que a mgica funcionou, calcule Ak diretamente, para
k = 1, 2 e 3, digamos (multiplicando A por ela prpria). Em seguida, aplique a
frmula (8.7) em cada caso, e verifique que os resultados coincidem.
1

O truque ser revelado plenamente ao longo do captulo. At l, os mgicos pedem pacincia


ao respeitvel pblico. . .

176

Jones Colombo e Jos Koiller (texto em preparao)

8.1. Autovalores e autovetores

De onde surgiu o coelho na cartola, ou melhor, a matriz P de (8.2)? Quais


propriedades acarretam na relao-chave P 1 AP = D obtida em (8.3)?
Essas perguntas s podero ser respondidas completamente na seo 8.4. No
entanto, j vamos dar algumas pistas, que comearo a revelar o truque empregado no exemplo acima.
 
 
Sejam v1 e v2 as colunas da matriz P , isto , v1 = 11 e v2 = 12 . Observe
que a matriz A age sobre os vetores v1 e v2 de forma especial:

   
 
8
5
1
3
1
Av1 =
=
=3
= 3v1
(8.8)
10 7 1
3
1

   
 
8
5 1
2
1
e Av2 =
=
= 2
= 2v2 .
(8.9)
10 7
2
4
2
Ou seja, o vetor Av1 um mltiplo escalar de v1 , e Av2 um mltiplo de v2 !
Nessas circunstncias, diremos que v1 e v2 so autovetores da matriz A. Os
fatores de proporcionalidade 3 e 2 que aparecem nas equaes acima so seus
respectivos autovalores. Isso motiva o tema da prxima seo, onde esses conceitos
sero definidos mais precisamente. Observe que os fatores 3 e 2 so justamente
as entradas na diagonal da matriz D em (8.3). Isso no mera coincidncia.
Para concluir a introduo, observamos que o clculo de potncias de matrizes
no um exerccio frvolo. Essa e outras questes correlatas so importantes, por
exemplo, na resoluo de equaes a diferenas lineares e sistemas de equaes
diferenciais ordinrias lineares, que surgem em muitas aplicaes.

8.1

Autovalores e autovetores

Vamos definir os conceitos de autovalor e autovetor mencionados acima.


Definio 8.3
Sejam A uma matriz n n, v um vetor no-nulo de Rn , e um escalar. Se a
equao vetorial
Av = v
(com v 6= 0)
(8.10)
for vlida, diremos que v um autovetor e que um autovalor da matriz A.
Diremos, mais precisamente, que v um autovetor de A associado ao autovalor .
Geometricamente, a equao (8.10) diz que os vetores Av e v so colineares,
com v no-nulo (recorde o exerccio p2.19).
Exemplo 8.4
Seja A
 a matriz 2 2 do exemplo 8.2. As equaes (8.8) e (8.9) mostram que
v1 = 11 um autovetor de A associado ao autovalor 1 = 3 e que v2 = 12
um autovetor de
 A
 associado ao autovalor 2 = 2.
2
O vetor u = 3 , por outro lado, no um autovetor de A, pois a equao
Au = u no vlida para valor algum do escalar . De fato,

   
 
2
1
2
8
5
Au =
=
6=
= u,
10 7 3
1
3
Jones Colombo e Jos Koiller (texto em preparao)

177

Captulo 8. Autovalores, Autovetores e Diagonalizao de Operadores

isto , a equao

1
1

 
= 32 no satisfeita para valor algum de .

USAR O EXEMPLO ANTERIOR PARA MOTIVAR A DISCUSSAO GEOMETRICA DE AUTOVALORES E AUTOVETORES DE OPERADORES. !!!
ALGO ASSIM: Pensando em A como um operador linear em R2 , o efeito de A
sobre v1 simplesmente uma dilatao pelo fator 3. O efeito sobre v2 de
dilatao pelo fator 2, seguida de uma reflexo com respeito origem (ou seja,
uma reverso no sentido do vetor, mas preservando sua direo). Por outro
lado, o operador A no preserva a direo do vetor u, isto , o vetor Au no
colinear a u.
COLOCAR UMA FIGURA mostrando as aes de A sobre v1 , v2 e u.
Exemplo 8.5
Seja A a matriz 2 2 do exemplo 8.2. Encontre todos os autovetores de A
associados ao autovalor 1 = 3.
Soluo: Queremos achar todas as solues de Ax = 3x, com x 6= 0. A equao
vetorial Ax = 3x simplesmente um sistema linear. De fato, temos
Ax = 3x Ax 3x = 0 Ax 3I2 x = 0 (A 3I2 )x = 0,

(8.11)

onde I2 representa a matriz identidade 2 2, de forma que I2 x = x para qualquer


vetor x R2 . Estamos buscando, portanto, as solues no-triviais do sistema
homogneo (A 3I2 )x = 0, cuja matriz de coeficientes A 3I2 dada por



 
 

8
5
1 0
83
5
5
5
A 3I2 =
3
=
=
.
10 7
0 1
10 7 3
10 10


Para resolver o sistema, vamos escalonar sua matriz completa A 3I2 0 :






5
5 0 `2 `2 +2`1 5 5 0 `1 15 `1 1 1 0

10 10 0
0 0 0
0 0 0
Assim, o sistema (A 3I2 )x = 0 equivalente a x1 + x2 = 0. A descrio vetorial
paramtrica de seu conjunto-soluo
  

 
x1
x2
1
x=
=
= x2
.
(8.12)
x2
x2
1
Isso mostra que os autovetores
de A associados a 1 = 3 so os mltiplos no 
nulos do vetor u1 = 11 , ou seja, so os vetores da forma (8.12), com x2 6= 0.
Observe que o autovetor v1 = 11 do exemplo 8.4 corresponde a x2 = 1.
Observao 8.6
A equao Av = v da definio 8.3 equivalente a (A In )v = 0n , onde In
a matriz identidade n n e 0n o vetor zero de Rn . Para provar a equivalncia,
basta generalizar o argumento em (8.11):
Av = v Av v = 0n Av In v = 0n (A In )v = 0n .
178

Jones Colombo e Jos Koiller (texto em preparao)

8.1. Autovalores e autovetores

Esse fato, apesar de simples, ser utilssimo. Note que, se fixarmos um escalar ,
e pensarmos no vetor v como uma incgnita, ento (A I)v = 0 torna-se
nada mais do que um sistema linear homogneo. Em particular, se for um
autovalor de A, ento os autovetores de A associados a sero precisamente as
solues no-triviais desse sistema.
Na definio 8.3, introduzimos simultaneamente os conceitos de autovetor e
de autovalor. Essa abordagem bastante clara (ou assim esperamos!), mas
importante compreender a seguinte reformulao, que um pouco mais sutil.
Definio 8.7 (Definio 8.3 reformulada)
Seja A uma matriz nn. Diremos que um vetor no-nulo v Rn um autovetor
de A se existir um escalar tal que Av = v. Similarmente, diremos que um
escalar um autovalor de A se existir um vetor v 6= 0 tal que Av = v.
Exemplo 8.8
Determine se = 2 um autovalor da matriz A do exemplo 8.2.
Soluo: Conforme a definio 8.7, = 2 ser um autovalor de A se existir um
vetor no-nulo v tal que Av = 2v. Pela observao 8.6, essa equao equivalente
a (A 2I)v = 0. Assim, 2 ser um autovalor de A se e somente se esse sistema
tiver solues no-triviais. Sua matriz de coeficientes dada por



 
 

8
5
1 0
82
5
6
5
A 2I =
2
=
=
.
10 7
0 1
10 7 2
10 9
Voc deve verificar que ambas as colunas dessa matriz so colunas-piv. Pela
proposio 3.3, o sistema (A 2I)v = 0 possui unicamente a soluo trivial
v = 0. Dessa maneira, = 2 no um autovalor de A.
A proposio a seguir generaliza esse exemplo e ser crucial na prxima seo.
Proposio 8.9
Seja A uma matriz n n. Um escalar ser um autovalor de A se e somente se
a matriz A I for no-invertvel.
Demonstrao: Por definio, o escalar ser um autovalor de A se existir um
vetor no-nulo v tal que Av = v. Pela observao 8.6, essa equao equivalente
a (A I)v = 0. Assim, ser um autovalor de A se o sistema homogneo
(A I)v = 0 tiver solues no-triviais. De acordo com a teoria do captulo 5,
isso ocorrer se e somente se a matriz A I no for invertvel.
O corolrio abaixo obtido ao considerar-se o caso = 0 na proposio.
Corolrio 8.10
Seja A uma matriz n n. O escalar zero ser um autovalor de A se e somente
se a matriz A for no-invertvel.
Enfatizamos que, por definio, um autovetor de A necessariamente um
vetor no-nulo. O escalar zero, por outro lado, pode ser autovalor de uma matriz,
conforme o corolrio acima.
Jones Colombo e Jos Koiller (texto em preparao)

179

Captulo 8. Autovalores, Autovetores e Diagonalizao de Operadores

Observao 8.11
Note que s faz sentido definir autovalores e autovetores de matrizes quadradas.
De fato, suponha que A seja uma matriz n m, e considere a equao Av = v.
Para que o produto Av esteja definido, necessrio que o vetor v pertena a Rm .
Sendo assim, a equao Av = v representa a igualdade entre o vetor Av de Rn
e o vetor v de Rm , o que s faz sentido se n for igual a m.

8.2

O polinmio caracterstico

Como mostra a observao 8.6, para cada escalar fixo, a equao Av = v


equivale a um sistema linear homogneo (veja tambm o exemplo 8.5). Assim, se
os autovalores da matriz A forem conhecidos, podemos facilmente encontrar seus
autovetores.
No to fcil, no entanto, determinar simultaneamente os autovalores e
autovetores de uma matriz (veja o exerccio p8.3). Como devemos proceder,
ento, para determinar os autovalores de A, ou, ao menos, caracteriz-los de
forma simples?
J estamos equipados para atacar essa questo. Aliando o teorema 6.25
proposio 8.9, obtemos o resultado principal desta seo:
Teorema 8.12
Seja A uma matriz n n. Um escalar ser um autovalor de A se e somente se
satisfizer a relao det(A I) = 0.
A equao det(A xI) = 0, onde x uma incgnita escalar, chamada a
equao caracterstica da matriz A.2 O teorema acima diz que os autovalores
de uma matriz so exatamente as solues de sua equao caracterstica.
Exemplo 8.13



8
5
Encontre todos os autovalores da matriz A =
do exemplo 8.2.
10 7
Soluo: Vamos calcular det(A xI):

det(A xI) = det






8
5
1 0
8x
5
x
= det
=
10 7
0 1
10 7 x
= (8 x) (7 x) 5 (10) = x2 x 6.

Pelo teorema 8.12, os autovalores de A so as solues da equao x2 x 6 = 0.


O polinmio x2 x 6 fatorado na forma (x 3)(x + 2), logo suas razes so
precisamente 3 e 2 (pode-se tambm usar a frmula de Bskara). J sabamos,
em vista das equaes (8.8) e (8.9), que 1 = 3 e 2 = 2 eram autovalores de A.
Agora sabemos que esses so seus nicos autovalores.
2

Lembre-se de que o determinante de uma matriz quadrada um escalar. Dessa maneira, a


equao caracterstica uma equao escalar, e no vetorial.

180

Jones Colombo e Jos Koiller (texto em preparao)

8.2. O polinmio caracterstico

Observe, no exemplo acima, que det(A xI) um polinmio de grau 2 em x.


Pode-se demonstrar que, se A for uma matriz n n, ento det(A xI) ser um
polinmio de grau n na varivel x. Este chamado o polinmio caracterstico
de A. Denota-se o polinmio caracterstico de A por pA (x).
Nessa terminologia, o teorema 8.12 diz que os autovalores de uma matriz A so
dados pelas razes de seu polinmio caracterstico. A multiplicidade algbrica
de um autovalor de A definida como a multiplicidade de como raiz do
polinmio caracterstico.
Exemplo 8.14
Obtenha o polinmio caracterstico da matriz

7
1 4
0 1
2
B=
0
0
0
0
0
0

0
3
.
1
7

Em seguida, determine os autovalores de B e suas respectivas multiplicidades.


Soluo: A matriz B xI dada


7
1 4 0
x 0
0 1

2 3 0 x

0
0
0 1 0 0
0
0
0 7
0 0

por
0
0
x
0

0
7x
1
4
0

0
1 x
2
3
= 0
.
0 0
0
x
1
x
0
0
0 7x

Como essa uma matriz triangular, seu determinante simplesmente o produto


dos elementos na diagonal (isso um caso particular do teorema 6.23). O polinmio caracterstico de B, portanto,
pB (x) = det(B xI) = (7 x)(1 x)(x)(7 x) = x(7 x)2 (1 x).
Os autovalores de B so dados pelas razes de pB , ou seja, pelas solues da
equao pB (x) = 0. Examinando a expresso de pB , acima, fica evidente que os
autovalores de B so:
1 = 0,
2 = 7,
3 = 1,

com multiplicidade igual a 1;


com multiplicidade igual a 2; e
com multiplicidade igual a 1.

Observe que os autovalores da matriz B do exemplo acima so justamente as


entradas na diagonal de B. Isso se deve ao fato de que B uma matriz triangular.
fcil generalizar esse exemplo para demonstrar o seguinte resultado.
Proposio 8.15
Se A uma matriz nn triangular (superior ou inferior), ento seus autovalores
so dados pelas entradas em sua diagonal principal.
Jones Colombo e Jos Koiller (texto em preparao)

181

Captulo 8. Autovalores, Autovetores e Diagonalizao de Operadores

Essa proposio vale, em particular, se A uma matriz diagonal (pois, nesse


caso, A triangular superior e inferior, simultaneamente).
Nem toda matriz possui autovalores reais, como mostra o exemplo a seguir.
Exemplo 8.16


3 2
Obtenha as razes do polinmio caracterstico da matriz C =
.
2
3
Soluo: O polinmio caracterstico de C dado por


3 x 2
pC (x) = det(C xI) = det
= (3 x)(3 x) + 4 = x2 6x + 13.
2
3x
Para achar as razes de pC (x), usamos a frmula de Bskara:

6 16
6 4 1
6 62 4 13
=
=
= 3 2 1.
=
2
2
2
Assim, as razes de pC (x) so os nmeros complexos conjugados 1 = 3 + 2i e
2 = 3 2i, onde i representa a unidade imaginria. Na seo ??, estudaremos
mais a fundo matrizes com autovalores complexos. Por ora, basta constatar que
a matriz C no tem autovalores reais. A matriz C tampouco possui autovetores
em R2 . De fato, se C possusse um autovetor v R2 , ento teria que existir
algum autovalor (real) associado a v.
Recorde que o polinmio caracterstico de uma matriz n n um polinmio
de grau n, e que suas razes so os autovalores da matriz em questo. Assim,
uma matriz de tamanho n n ter exatamente n autovalores, se contarmos os
autovalores complexos e as multiplicidades. Isso decorre do teorema fundamental
da lgebra, que diz que todo polinmio de grau n tem exatamente n razes (se
contarmos as multiplicidades e as razes complexas).
Achar as razes de um polinmio de grau n no uma tarefa fcil, em geral.
O caso n = 1 muito simples, e temos a frmula de Bskara para o caso n = 2.
Existem ainda frmulas para os casos n = 3 e n = 4, mas elas no so to
simples. Em contrapartida, no existem frmulas gerais para determinar as razes
de polinmios de grau maior que ou igual a cinco.3
Na prtica, os autovalores de matrizes grandes so determinados aproximadamente, por meio de mtodos computacionais.4 Em certos casos especiais, no
entanto, possvel determinar com exatido os autovalores de uma matriz de
tamanho arbitrrio. Um exemplo o caso das matrizes triangulares, conforme a
proposio 8.15.
O teorema a seguir ser importante na seo 8.4, e d mais uma pista a
respeito do truque empregado na introduo deste captulo. Recorde a definio 7.11: duas matrizes quadradas A e B so ditas semelhantes se existe uma
matriz invertvel P tal que B = P 1 AP .
3

No se trata, meramente, de que essas frmulas sejam ainda desconhecidas. O matemtico


noruegus Niels Abel demonstrou, em 1824, que tais frmulas, de fato, no existem!
4
Diversos bons mtodos existem, muitos dos quais calculam os autovalores e os autovetores
simultaneamente. Esse assunto, no entanto, foge ao escopo deste texto.

182

Jones Colombo e Jos Koiller (texto em preparao)

8.3. Autoespaos

Teorema 8.17
Se A e B forem matrizes n n semelhantes, ento elas tero o mesmo polinmio
caracterstico. Consequentemente, as matrizes A e B tero os mesmos autovalores, com as mesmas multiplicidades.
Demonstrao: Seja P uma matriz invertvel tal que B = P 1 AP . Ento
1
1
B xI = |P 1
{zAP} x |P {zP} = P (A xI)P.
B

Dessa maneira, usando os teoremas 6.24 e 6.25, obtemos



pB (x) = det(B xI) = det P 1 (A xI)P =
= det(P 1 ) det(A xI) det(P ) =
= det(P 1 ) det(P ) det(A xI) = det(A xI) = pA (x).
|
{z
}
1

8.3

Autoespaos

Na seo anterior, obtivemos uma caracterizao dos autovalores de uma dada


matriz. Cada autovalor est associado a um certo conjunto de autovetores. Nesta
seo, passaremos a estudar tais conjuntos. recomendvel reler, neste momento,
o exemplo 8.5 e a observao 8.6 da seo 8.1.
Conforme a observao 8.6, o conjunto dos autovetores de uma matriz quadrada A associados a um autovalor coincide com o conjunto das solues notriviais do sistema (A I)x = 0. O conjunto de todas as solues desse sistema
linear homogneo simplesmente o ncleo da matriz AI (veja a definio 3.8).
Isso motiva a definio a seguir.
Definio 8.18
Seja um autovalor de uma matriz quadrada A. O ncleo da matriz A I
chamado de autoespao de A associado a , e denotado por E(A, ).
Podemos sintetizar essa discusso, em smbolos, da seguinte maneira:
E(A, ) = Nuc(A I) = {0} {autovetores de A associados a }.
O smbolo representa a unio de conjuntos. A equao acima diz que o
autoespao E(A, ) consiste do conjunto de todos os autovetores de A associados
a , acrescido do vetor zero (que, conforme a definio 8.3, no um autovetor).
Pela proposio 4.7, um autoespao de uma matriz nn um subespao de Rn .
Podemos considerar, assim, as questes de encontrar uma base de um autoespao
e determinar sua dimenso. Tais questes sero importantes na seo 8.4.
Exemplo 8.19

Encontre uma base de cada autoespao da matriz A = 108
Em seguida, determine a dimenso de cada um.
Jones Colombo e Jos Koiller (texto em preparao)

5
7

do exemplo 8.2.

183

Captulo 8. Autovalores, Autovetores e Diagonalizao de Operadores

Soluo: Os autovalores de A so 1 = 3 e 2 = 2, como vimos no exemplo 8.13.


Assim, a matriz A tem dois autoespaos: E(A, 1 ) e E(A, 2 ).
Vamos, primeiro, encontrar uma base de E(A, 1 ), ou seja, de Nuc(A1 I) =
Nuc(A 3I). Para isso, usamos o procedimento sugerido na subseo 4.5.1.5
Queremos resolver o sistema (A 3I)x = 0. Essa tarefa j foi realizada no
exemplo 8.5, em queobtivemos
a descrio (8.12) do conjunto-soluo. Assim,

1
o conjunto {u1 } =
uma base de E(A, 1 ) = Nuc(A 1 I). De fato,
1
a descrio (8.12) mostra que o conjunto {u1 } gera E(A, 1 ), e claro que esse
conjunto linearmente independente.
Agora, vamos obter uma base de E(A, 2 ) = Nuc(A 2 I) = Nuc(A + 2I).
Seguindo, mais uma vez, o procedimento da subseo 4.5.1, vamos resolver o
sistema (A + 2I)x = 0, por escalonamento de sua matriz completa:



8+2
A + 2I 0 =
10

 
5
0
10
5
=
7 + 2 0
10 5

10 5
`2 `2 +`1

0 0


0

0



0 `1 101 `1 1 1/2 0

.
0
0 0 0

Assim, o sistema (A + 2I)x = 0 equivale equao x1 + 12 x2 = 0, e seu conjuntosoluo descrito por


   1 


2 x2
x1
1/2
=
= x2
x=
.
x2
x2
1

(8.13)

 1/2 
Isso mostra que o conjunto {u2 } =
uma base de E(A, 2 ). Observe
1
 1 
que o autovetor v2 = 2 do exemplo 8.4 igual a 2u2 , ou seja, v2 corresponde
escolha x2 = 2 na equao (8.13).
Resta apenas determinar a dimenso de E(A, 1 ) e de E(A, 2 ). Ora, cada
um desses subespaos possui uma base contendo apenas um vetor, portanto cada
um deles tem dimenso igual a 1.
Exemplo 8.20
Seja

4 1 2
0 .
A= 0 5
1 1
3
Sabendo que = 5 um autovalor de A, encontre uma base do autoespao
E(A, ) e determine a sua dimenso.
Soluo: Vamos resolver o sistema homogneo (A I)x = 0, onde = 5. Para
5

184

Sugerimos, neste momento, uma rpida reviso dessa subseo.

Jones Colombo e Jos Koiller (texto em preparao)

8.3. Autoespaos

isso, escalonamos sua matriz completa:

5
1
2
1
1
2
0
0


A I 0 = 0
0 = 0 0
55
0
0 0
1
1
35 0
1 1 2 0

1 1
2 0
1 1 2 0
`1 `1
` `3 `1
0
0 0 3
0 0 0 .

0
0
1
1 2 0
0
0 0 0
O sistema proposto equivale, portanto, equao x1 x2 + 2x3 = 0 (as variveis
livres so x2 e x3 ). O conjunto-soluo descrito por


x1
2
x2 2x3
1
x = x2 = x2 = x2 1 + x3 0 .
(8.14)
x3
1
x3
0
| {z }
|{z}
v1
v2
Pela teoria da subseo 4.5.1, os vetores v1 e v2 indicados acima compem uma
base de E(A, ) = Nuc(A 5I). Como a base {v1 , v2 } possui dois elementos, a
dimenso de E(A, ) igual a 2 (em smbolos, dim E(A, ) = 2).
Botar aqui algum BLAH BLAH BLAH !!! TALVEZ DIZER INCLUSIVE
QUE UM OPERADOR AGE DE FORMA MUITO SIMPLES SOBRE OS
AUTOESPAOS E COLOCAR UMA FIGURA.
Os resultados a seguir sero teis na seo 8.4. Recomendamos a leitura
cuidadosa dos enunciados. As demonstraes podem parecer um pouco abstratas,
portanto so relegadas ao final do captulo, como leitura opcional.
Teorema 8.21
Seja A uma matriz quadrada. Para cada autovalor de A, a dimenso do autoespao E(A, ) menor que ou igual multiplicidade algbrica de .
Lembre-se de que a multiplicidade algbrica de um autovalor de A a sua
multiplicidade enquanto raiz do polinmio caracterstico de A. A dimenso do
autoespao associado a chamada de multiplicidade geomtrica de . O
teorema acima diz que a multiplicidade geomtrica de um autovalor sempre
menor que ou igual sua multiplicidade algbrica. Em smbolos, isso se expressa
como dim E(A, ) 6 n , onde n representa a multiplicidade algbrica de .
BOTAR UM EXEMPLO EM QUE VALE A DESIGUALDADE ESTRITA???
MENCIONAR TB QUE 1 6 dim E(A, ). SINTETIZAR A DISCUSSO NUMA
OBSERVAO QUE DIZ 1 6 dim E(A, ) 6 n .
DIZER ALGO TO THE EFFECT QUE AGORA ESTUDAREMOS UM
POUCO A RELAO ENTRE AUTOESPAOS DISTINTOS. ELES SO, EM
CERTO SENTIDO, INDEPENDENTES. ???
Teorema 8.22
Sejam 1 , 2 , . . . , m autovalores distintos de uma matriz quadrada A e sejam
v1 , v2 , . . . , vm autovetores a eles associados, respectivamente. Nessas condies,
o conjunto {v1 , v2 , . . . , vm } linearmente independente.
Jones Colombo e Jos Koiller (texto em preparao)

185

Captulo 8. Autovalores, Autovetores e Diagonalizao de Operadores

Resumidamente, o teorema acima diz que autovetores associados a autovalores


distintos so linearmente independentes. MAIS BLAH BLAH BLAH ??? !!!
Corolrio 8.23
Sejam 1 , 2 , . . . , m autovalores distintos de uma matriz quadrada A, e sejam
B1 , B2 , . . . , Bm bases dos autoespaos E(A, 1 ), E(A, 2 ), . . . , E(A, m ), respectivamente. Ento, o conjunto B1 B2 Bm linearmente independente.
A demonstrao desse corolrio tambm relegada ao final do captulo.
til, no entanto, esmiuar aqui o enunciado, pois ele ser importante na seo 8.4.
Para cada k = 1, 2, . . . , m, vamos denotar os vetores de Bk por v1k , . . . , vpkk .
Por hiptese, Bk uma base de E(A, k ).6 Assim, cada vjk um vetor no-nulo
de E(A, k ), ou seja, um autovetor de A associado a k . Alm disso, cada um
dos conjuntos Bk = {v1k , . . . , vpkk } linearmente independente. O corolrio 8.23
diz que o conjunto de todos os autovetores vjk ,
B1 B2 Bm =

v11 , v21 , . . . , vp11 ,


|

{z

vetores de B1

v12 , v22 , . . . , vp22 ,

} |

{z

vetores de B2

... ,

v1m , v2m , . . . , vpmm


|

{z

vetores de Bm

o
,

(8.15)
, ainda, linearmente independente, desde que os autovalores k sejam distintos.
Exemplos de aplicao do corolrio 8.23 surgiro naturalmente na seo 8.4
(veja, em particular, os exemplos ?? e ???).
REFERENCIA SEO 8.4 EST REPETITIVA.
- Em um aparte, dizer que autoespaos distintos esto em soma direta/so
independentes (terminologia do Elon/do Halmos ??? (conferir)).
PASSAR ESSAS PROVAS PARA O FINAL: !!! ???
Demonstrao do corolrio 8.23: Vamos usar a notao introduzida logo aps o
enunciado do corolrio, isto , vamos denotar os vetores da base Bk de E(A, k )
por v1k , . . . , vpkk , de forma que
B1 B2 Bm = {v11 , v21 , . . . , vp11 , v12 , v22 , . . . , vp22 , . . . , v1m , v2m , . . . , vpmm },
conforme a equao (8.15). Considere a relao
u1
u2
z
}|
{ z
}|
{
1 1
1 1
1
1
2 2
2 2
2
2
x1 v 1 + x2 v 2 + + xp 1 v p 1 + x1 v 1 + x2 v 2 + + xp 2 v p 2 + +
m m
m m
m
+ xm
1 v1 + x2 v2 + + xpm vpm = 0. (8.16)
|
{z
}
um

Para mostrar que os vetores vjk so linearmente independentes, vamos mostrar


que todos os pesos xkj so necessariamente iguais a zero.7
6

Repare, ento, que o nmero pk de vetores em Bk denota a dimenso do autoespao E(A, k ), ou seja, pk a multiplicidade geomtrica de k .
7
Recorde a definio 3.14 e o teorema 3.21. Veja, em particular, a afirmativa (d) do teorema.

186

Jones Colombo e Jos Koiller (texto em preparao)

8.3. Autoespaos

Para cada k = 1, . . . , m, vamos denotar o vetor xk1 v1k + + xkpk vpkk por uk ,
como indicado na relao (8.16). Assim, podemos reescrever essa relao como
u1 + u2 + + um = 0.

(8.17)

Observe que cada uk pertence ao autoespao E(A, k ), pois uma combinao


linear de vetores da base Bk . Assim, ou uk = 0, ou, ento, uk um autovetor
associado a k . Contudo, se algum dos vetores uk fosse no-nulo, ento (8.17)
representaria uma relao de dependncia linear entre autovetores associados a
autovalores distintos, contrariando o teorema 8.22.
Conclumos, assim, que uk = xk1 v1k + + xkpk vpkk = 0, para k = 1, . . . , m. Os
vetores v1k , . . . , vpkk so linearmente independentes, j que compem a base Bk .
Assim, os escalares xk1 , . . . , xkpk so necessariamente iguais a zero. Isso termina
a prova de que todos os pesos na relao (8.16) so iguais a zero.
Demonstrao do teorema 8.22: til lembrar, inicialmente, que os vetores v1 , . . . ,
vm so todos no-nulos, j que so autovetores de A. Alm disso, podemos supor
que m > 2, j que o resultado trivial no caso m = 1.
Vamos denotar G = {v1 , . . . , vm } e V = Span{v1 , . . . , vm }. Suponhamos
que o conjunto G seja linearmente dependente.8 Pelo teorema 4.18, existe uma
base de V composta por um subconjunto de G. Mediante um possvel rearranjo
dos ndices, podemos supor, sem perda de generalidade, que {v1 , . . . , vp } seja
tal base.9 Observe que p estritamente menor do que m, pois supusemos que o
conjunto G = {v1 , . . . , vm } fosse linearmente dependente e, assim, no poderia
ser uma base de V .
Como o vetor vm pertence a V (veja a observao 2.15), podemos escrev-lo
como combinao linear dos vetores da base {v1 , . . . , vp }:
v m = c1 v 1 + c2 v 2 + + cp v p .

(8.18)

Multiplicando ambos os lados desta equao pela matriz A, obtemos


Avm = c1 Av1 + c2 Av2 + + cp Avp .
Por hiptese, v1 , . . . , vm so autovetores de A associados, respectivamente, a
1 , . . . , m , de modo que Avj = j vj para cada j. Assim, a equao acima se
reescreve como
m vm = c1 1 v1 + c2 2 v2 + + cp p vp .
(8.19)
Multiplicando, agora, ambos os lados da equao (8.18) pelo escalar m , obtemos
m vm = c1 m v1 + c2 m v2 + + cp m vp .

(8.20)

Sob as hipteses do teorema, chegaremos a uma contradio, isto , a uma impossibilidade lgica. Isso provar o resultado desejado. Este tipo de argumento chama-se prova por
contradio ou reduo ao absurdo e pode parecer, primeira vista, um pouco anti-intuitivo.
9
Isso significa, em outras palavras, que podemos reordenar os vetores do conjunto G =
{v1 , . . . , vm } de maneira que os primeiros p vetores componham uma base para o subespao V
gerado por todos os m vetores. Note que p representa a dimenso de V .

Jones Colombo e Jos Koiller (texto em preparao)

187

Captulo 8. Autovalores, Autovetores e Diagonalizao de Operadores

Finalmente, subtraindo a equao (8.20) da (8.19), obtemos


0 = c1 (1 m )v1 + c2 (2 m )v2 + + cp (p m )vp .

(8.21)

Os vetores v1 , . . . , vp so linearmente independentes, pois compem uma base


de V . Assim, todos os pesos cj (j m ) na equao (8.21) so necessariamente
iguais a zero. Por hiptese, os autovalores j so distintos, de modo que nenhum
dos fatores j m pode ser igual a zero. Isso mostra que os escalares cj so todos
nulos. Sendo assim, a equao (8.18) diz que vm o vetor zero. Isso, contudo,
contradiz a hiptese de que vm seja um autovetor de A.
Em resumo: a suposio de que o conjunto G = {v1 , . . . , vm } seja linearmente
dependente logicamente incompatvel com as hipteses do teorema. Isso prova,
ento, que esse conjunto G independente, como queramos demonstrar.

8.4

Diagonalizao de operadores

Nesta seo, iremos, finalmente, terminar de explicar o truque empregado


no exemplo 8.2 da introduo. Recomendamos que o exemplo seja relido neste
momento, pois ele motiva a definio a seguir.
Definio 8.24
Uma matriz quadrada A dita diagonalizvel se semelhante10 a uma matriz
diagonal, isto , se existem uma matriz invertvel P e uma matriz diagonal D tais
que D = P 1 AP ou, equivalentemente, A = P DP 1 .
A equivalncia das relaes D = P 1 AP e A = P DP 1 , mencionada na
definio acima, segue
(8.4) e (8.5).
 8das5 implicaes

A matriz A = 10 7 do exemplo 8.2 diagonalizvel,
pois,

 1 1
 conforme a
1
3 0
equao (8.3), vale D = P AP , onde D = 0 2 e P = 1 2 . Note que D
uma matriz diagonal e P invertvel.
natural formular agora a seguinte pergunta fundamental: em que condies
uma dada matriz ser diagonalizvel? O teorema abaixo responde a essa questo,
que est intimamente relacionada aos autovetores da matriz.
MUDAR O ENUNCIADO ABAIXO?? DAR PRIMEIRO A SNTESE, E
DEPOIS DETALHAR MAIS???
Teorema 8.25
Seja A uma matriz de tamanho n n. As seguintes afirmativas so equivalentes:
(a) Vale a relao de semelhana A = P DP 1 , onde


P = v1 v 2 vn

(8.22)

10

A palavra semelhante, nesse contexto, tem um significado matemtico preciso. Recorde


a definio 7.11.

188

Jones Colombo e Jos Koiller (texto em preparao)

8.4. Diagonalizao de operadores

uma matriz n n invertvel e

1 0
0 2

D = ..
..
.
.
0 0

..
.

0
0

.. ,
.

(8.23)

uma matriz n n diagonal.


(b) Os vetores v1 , v2 , . . . , vn so autovetores da matriz A, linearmente independentes, associados aos autovalores 1 , 2 , . . . , n , respectivamente.
Antes de provar o teorema, conveniente fazer alguns comentrios sobre o
enunciado. Em primeiro lugar, cuidado com a linguagem matemtica: o teorema
no diz que as afirmativas (a) e (b) so verdadeiras para qualquer matriz A! Ele
diz apenas que, se (a) for verdadeira para uma determinada matriz A, ento (b)
tambm o ser, e vice-versa. Para certas matrizes, ambas as afirmativas sero
falsas (veja o exemplo ????).
Observamos, tambm, que os escalares 1 , 2 , . . . , n indicados no enunciado
no so necessariamente todos distintos entre si. Veremos, logo adiante, um
exemplo que ilustra esse ponto.
Por fim, perceba que a afirmativa (a) diz, simplesmente, que a matriz A
diagonalizvel, conforme a definio 8.24. J a afirmativa (b) diz que existem
n autovetores de A (denotados por v1 , . . . , vn ) que so linearmente independentes. Nesse caso, esses autovetores formaro uma base de Rn , conforme a
observao 4.27. Assim, podemos reformular o teorema:
Observao 8.26 (Sntese do teorema 8.25)
Uma matriz A de tamanho n n ser diagonalizvel se, e somente se, existir uma
base de Rn composta por autovetores de A.
Demonstrao do teorema 8.25: Faremos algumas observaes preliminares, antes de abordar a equivalncia entre (a) e (b). Se P for uma matriz n n qualquer
(no necessariamente invertvel) cujas colunas sejam v1 , . . . , vn , ento

 

AP = A v1 v2 vn = Av1 Av2 Avn .
(8.24)
Alm disso, se D for qualquer matriz diagonal, cujos elementos na diagonal principal sejam 1 , . . . , n , ento

1 0 0




0 2 0 
P D = v1 v2 vn ..
.. . .
.. = 1 v1 2 v2 n vn .
.
. .
.
0 0 n
(8.25)
Vamos, agora, provar que a afirmativa (a) implica (b). Por hiptese, vale
A = P DP 1 . Multiplicando ambos os lados desta igualdade, direita, por P ,
obtemos AP = P D. Usando (8.24) e (8.25), esta relao se escreve na forma

 

Av1 Av2 Avn = 1 v1 2 v2 n vn .
(8.26)
Jones Colombo e Jos Koiller (texto em preparao)

189

Captulo 8. Autovalores, Autovetores e Diagonalizao de Operadores

Esta igualdade matricial equivale s n igualdades entre as respectivas colunas:


Av1 = 1 v1 ,

Av2 = 2 v2 ,

...

Avn = n vn .

(8.27)

Como, por hiptese, a matriz P invertvel, os seus vetores-coluna v1 , . . . , vn


so linearmente independentes. Em particular, esses vetores so todos no-nulos
(veja o exerccio resolvido r3.1). Sendo assim, as relaes em (8.27) mostram que
v1 , . . . , vn so autovetores de A, associados a 1 , . . . , n , respectivamente. Isso
termina a prova de que (a) implica (b).
Para mostrar que (b) implica (a), basta, essencialmente, refazer esse argumento, de trs para frente. Por hiptese, agora, v1 , . . . , vn so autovetores da
matriz A associados a 1 , . . . , n . Sendo assim, desta vez, comeamos com as
relaes (8.27), que equivalem equao matricial (8.26). Em seguida, definimos,
ou construmos, as matrizes P e D de acordo com as equaes (8.22) e (8.23).
Combinando, ento, as equaes (8.24), (8.25) e (8.26), obtemos AP = P D. Por
hiptese, os vetores v1 , . . . , vn so linearmente independentes, de forma que a
matriz P invertvel. Multiplicando ambos os lados de AP = P D, direita, por
P 1 , obtemos A = P DP 1 .
O processo de se encontrar uma matriz invertvel P e uma matriz diagonal D
tais que A = P DP 1 , quando possvel, chama-se diagonalizao da matriz A.
Por abuso de linguagem, s vezes nos referimos tambm diagonalizao do
operador A, interpretando a matriz A como o operador linear x 7 Ax em Rn .
O teorema 8.25 no apenas caracteriza as matrizes diagonalizveis, como tambm esboa uma receita para realizar a diagonalizao: basta obter uma base
{v1 , . . . , vn } de Rn composta por autovetores de A (se tal base existir) e, em
seguida, montar as matrizes P e D de acordo com as equaes (8.22) e (8.23).
A seguir, descrevemos esse processo de forma mais detalhada. Consideramos
a diagonalizao da matriz

4 1 2
0
A= 0 5
1 1
3

(8.28)

do exemplo 8.20. O roteiro dado abaixo, no entanto, geral, isto , pode ser
aplicado a uma matriz n n qualquer.
Passo 1: Determine os autovalores da matriz A.
O teorema 8.12 diz que os autovalores de A so as razes de seu polinmio
caracterstico (reveja os exemplos 8.13 e 8.14). Como observamos na seo 8.2,
no fcil, em geral, achar as razes de um polinmio de grau maior que 2. Nos
exerccios deste texto, as matrizes de tamanho maior do que 22 sero especiais
(triangulares, por exemplo) ou, ento, seus autovalores sero dados.
190

Jones Colombo e Jos Koiller (texto em preparao)

8.4. Diagonalizao de operadores

No presente exemplo, o polinmio caracterstico de A dado por

4x
1
2
5x
0 =
pA (x) = det(A xI) = det 0
1
1
3x


= (5 x) (4 x)(3 x) (2)(1) = (x 5)(x2 7x + 10).
Utilizamos, acima, a expanso de Laplace do determinante11 com respeito segunda linha de A xI. Verifique que x2 7x + 10 = (x 5)(x 2), de modo que
o polinmio caracterstico de A pode ser escrito na forma
pA (x) = (x 5)2 (x 2).
Os autovalores da matriz A so as razes desse polinmio, ou seja, so:
1 = 5

2 = 2.

Observe que 1 = 5 tem multiplicidade algbrica igual a 2.


Passo 2: Obtenha uma base para cada autoespao de A.
A matriz A de (8.28) tem dois autoespaos, E(A, 1 ) e E(A, 2 ), associados,
respectivamente, aos autovalores 1 = 5 e 2 = 2.
J sabemos como obter uma base para cada subespao: reveja os exemplos
contidos na seo 8.3. No exemplo 8.20, em particular, obtivemos uma base do
autoespao E(A, 1 ) dada pelo conjunto B1 = {v1 , v2 }, onde


1
2
v1 = 1 e v2 = 0 .
0
1
Observe, a propsito, que o autoespao E(A, 1 ) tem dimenso igual a 2.
Para determinar uma base de E(A, 2 ) = Nuc(A 2 I) = Nuc(A 2I),
resolvemos o sistema (A 2I)x = 0. A matriz completa desse sistema

42
1
2
0
2 1 2 0


0 = 0 3
52
0
0 0 .
A 2I 0 = 0
1
1
32 0
1 1
1 0
Verifique, via escalonamento, que o conjunto-soluo do sistema (A 2I)x = 0
descrito por


x1
x3
1

x = x2 = 0 = x3 0 .
x3
x3
1
|{z}
v3
Assim, obtemos uma base de E(A, 2 ) dada por B2 = {v3 }, onde v3 o vetor
indicado acima.
11

Veja o exerccio resolvido r6.6.

Jones Colombo e Jos Koiller (texto em preparao)

191

Captulo 8. Autovalores, Autovetores e Diagonalizao de Operadores

Passo 3: Determine se a matriz A diagonalizvel.


Este passo ser discutido de forma mais completa logo adiante (veja o teorema 8.30 e os exemplos ???). Por ora, basta fazer as seguintes consideraes.
Os conjuntos B1 e B2 so bases dos autoespaos E(A, 1 ) e E(A, 2 ), respectivamente, com 1 6= 2 . Pelo corolrio 8.23, o conjunto
B = B1 B2 = {v1 , v2 , v3 }
linearmente independente. Pela observao 4.27, este conjunto , de fato, uma
base de R3 , visto que tem trs elementos. Alm disso, os elementos de B so
autovetores de A. Assim, pela observao 8.26, a matriz A diagonalizvel.
Na prtica, podemos afirmar que a matriz A de (8.28) diagonalizvel
porque obtivemos trs autovetores linearmente independentes no passo anterior,
e A uma matriz 3 3.
Se tivssemos obtido menos do que trs autovetores no passo 2 (ou, em geral,
menos do que n autovetores, para uma matriz n n), concluiramos que a matriz
dada no seria diagonalizvel, e o processo terminaria aqui.
Convm enfatizar esse ponto: s faz sentido prosseguir ao prximo passo se a
matriz dada for diagonalizvel!
Passo 4: Construa as matrizes P e D.
J estabelecemos que a matriz A diagonalizvel, visto que B uma base
de R3 composta por autovetores. Resta apenas, ento, escrever matrizes P e D
da forma indicada nas equaes (8.22) e (8.23). O teorema 8.25 garantir, assim,
a validade da relao A = P DP 1 .
Primeiro, escrevemos a matriz P , conforme a equao (8.22), usando os elementos da base B, ou seja, usando os autovetores v1 , v2 e v3 obtidos no passo 2:

1 2 1


0 0 .
P = v1 v2 v3 = 1
0
1 1
A ordem em que escrevemos os autovetores , neste momento, irrelevante. Note
que P uma matriz invertvel, pois P quadrada e suas colunas so linearmente
independentes, como observamos no passo 3.
Em seguida, escrevemos a matriz diagonal D, conforme a equao (8.23).
fundamental, agora, que a ordem (e a multiplicidade) dos autovalores na diagonal
de D seja condizente com a ordem adotada para as colunas de P , como estabelece
o teorema 8.25. Lembre, do passo 2, que as duas primeiras colunas de P so
autovetores associados ao autovalor 1 = 5. A terceira coluna de P um autovetor
associado a 2 = 2. Assim, temos

1 0 0
5 0 0
D = 0 1 0 = 0 5 0 .
0 0 2
0 0 2
192

Jones Colombo e Jos Koiller (texto em preparao)

8.4. Diagonalizao de operadores

Convm salientar o fato de que o autovalor 1 = 5 aparece duas vezes na diagonal


de D. Isso ocorre porque o autoespao E(A, 1 ) tem dimenso igual a 2, como
observamos no passo 2.
Isso termina o processo de diagonalizao da matriz A. recomendvel conferir o trabalho realizado: calcule a inversa P 1 da matriz P e verifique, diretamente, que vale a relao A = P DP 1 . Veja tambm o exerccio ??.
MUDAR O LUGAR E A ORDEM DAS OBSERVACOES A SEGUIR???
Observao 8.27
O exemplo acima mostra que os autovalores 1 , 2 , . . . , n do teorema 8.25, que
aparecem na diagonal da matriz D, no so necessariamente distintos. s vezes,
conveniente escrever os autovalores de uma matriz repetidos de acordo com
as suas multiplicidades. Os autovalores da matriz A considerada acima seriam
escritos, dessa maneira, como 1 = 5, 1 = 5, 2 = 2.
Observao 8.28
DIAGONALIZAO NO NICA. !!!
Vejamos mais alguns exemplos envolvendo a diagonalizao de matrizes.
Exemplo 8.29



17 30
Diagonalize a matriz B =
, se possvel.
9 16
Soluo: Vamos seguir o roteiro dado acima.
Passo 1 : achar os autovalores de B. O polinmio caracterstico de B



17 x
30
pB (x) = det(B xI) = det
=
9
16 x
= (17 x) (16 x) (30) (9) = x2 x 2 = (x 2)(x + 1).
Os autovalores de B so as razes de pB (x), ou seja, so:
1 = 2

2 = 1.

Alternativamente, como pB (x) = x2 x2 um polinmio de grau 2, poderamos


ter aplicado a frmula de Bskara para obter estas razes.
Passo 2 : obter uma base para cada autoespao de B. Para achar uma base de
E(B, 1 ) = Nuc(B 1 I) = Nuc(B 2I), resolvemos o sistema (B 2I)x = 0.
Complete os passos do escalonamento da matriz completa:

 





17 2
30
0
15 30 0
1 2 0
B 2I 0 =
=

.
9
16 2 0
9 18 0
0
0 0
Dessa maneira, o conjunto-soluo do sistema (B 2I)x = 0 descrito por
   
 
x1
2x2
2
x=
=
= x2
,
x2
x2
1
Jones Colombo e Jos Koiller (texto em preparao)

193

Captulo 8. Autovalores, Autovetores e Diagonalizao de Operadores

 
e, portanto, {v1 } = 21 uma base de E(B, 1 ).
Para obter uma base de E(B, 2 ) = Nuc(B 2 I) = Nuc(B + I), resolvemos
o sistema (B + I)x = 0. Verifique, via escalonamento, que seu conjunto-soluo
descrito por
 
  5 
x2
5/3
x1
3
= x2
.
x=
=
x2
1
x2
Considerando x2 
= 3, para evitar fraes, encontramos uma base de E(B, 2 )
dada por {v2 } = 53 .
Passo 3 : determinar se a matriz B diagonalizvel. O conjunto {v1 , v2 }
linearmente independente e, evidentemente, possui dois elementos. Dessa forma,
esse conjunto uma base de R2 composta por autovetores de B. Pela observao 8.26, a matriz B diagonalizvel.
A independncia linear do conjunto {v1 , v2 }, a propsito, uma consequncia
imediata do teorema 8.22, j que v1 e v2 so autovetores de A associados a
autovalores distintos.
Passo 4 : escrever matrizes P e D tais que B = P DP 1 . Mais uma vez, basta
usar as equaes (8.22) e (8.23). Escrevemos, primeiro, a matriz P , usando os
autovetores v1 e v2 obtidos no passo 2:




2 5
P = v 1 v2 =
.
1 3
Em seguida, escrevemos a matriz diagonal D, usando os autovalores correspondentes s colunas de P :

 

1 0
2
0
D=
=
.
0 2
0 1
Isso termina o processo de diagonalizao: o teorema 8.25 garante que vale a
relao de semelhana B = P DP 1 .
COLOCAR AQUI UM OU DOIS EXEMPLOS DE MATRIZES NO DIAGONALIZVEIS. !!!
O teorema 8.25 forneceu uma caracterizao de matrizes diagonalizveis, que
foi sintetizada na observao 8.26. O teorema a seguir , essencialmente, uma
reformulao dessa caracterizao. Esta reformulao pode parecer um pouco
abstrata, mas til em determinadas circunstncias, e aprofunda o nosso conhecimento sobre a estrutura de operadores diagonalizveis.
Teorema 8.30
Uma matriz n n ser diagonalizvel se, e somente se, a soma das dimenses de
seus autoespaos distintos for igual a n.
Recorde que, para cada autovalor de uma matriz A, vale 1 6 dim E(A, ) 6
n , onde n representa a multiplicidade algbrica de . Desta observao e do
teorema acima, segue o seguinte resultado.
194

Jones Colombo e Jos Koiller (texto em preparao)

8.5. Matrizes reais com autovalores complexos

Corolrio 8.31
Se uma matriz n n tiver n autovalores reais e distintos, ento ela ser diagonalizvel.
ELABORAR OS ENUNCIADOS ACIMA UM POUCO??? E PROV-LOS!!!
DAR EXEMPLOS!!!

8.5

Matrizes reais com autovalores complexos

BLAH BLAH ???

Classificaao de matrizes 2 2

8.6

BLAH BLAH ???

Exerccios resolvidos
R8.1.

teste

Exerccios propostos
P8.1.

Seja A uma matriz de tamanho 23. A matriz A2 est definida? Justifique.

P8.2.

Seja A = [aij ] a matriz do exemplo 8.2. Verifique que A2 no coincide com


a matriz [a2ij ] obtida tomando o quadrado de cada entrada de A.

P8.3.

(a) Seja A a matriz do exemplo 8.2. Verifique que a equao Av = v


equivale ao sistema
(
8v1 + 5v2 v1 = 0
10v1 7v2 v2 = 0,
nas variveis , v1 e v2 (onde v1 e v2 so as coordenadas de v). Note
que esse sistema no-linear, em vista dos produtos v1 e v2 .
(b) Observe que, em geral, se A uma matriz n n, a equao Ax = x
representa um sistema no-linear nas variveis , x1 , . . . , xn , onde
x1 , . . . , xn so as coordenadas do vetor x.

Jones Colombo e Jos Koiller (texto em preparao)

195

Captulo 8. Autovalores, Autovetores e Diagonalizao de Operadores

196

Jones Colombo e Jos Koiller (texto em preparao)

Captulo 9
Produto Interno, Projees e
Operadores Ortogonais
9.1

Introduo

At o momento tratamos de diversos conceitos do Rn , sem abordar os conceitos de norma de vetor e de ngulo entre vetores e suas consequncias diretas, as
quais so a distncia entre pontos e a ideia de perpendicularidade. Para abordar
esses conceitos, precisamos definir o conceito de produto escalar. Aproveitando o
momento, vamos introduzir um conceito mais geral, que o de produto interno.
O produto interno nos permitir estender as noes de distncia e perpendicularidade a outros espaos vetoriais diferentes do Rn .
Introduzindo o conceito de produto interno, podemos mostrar que o produto
escalar do Rn um exemplo de produto interno. Por simplicidade, bom imaginar
que, pelo menos no princpio, quando falamos de produto interno, nos referimos
ao produto escalar do Rn .

9.2

Produto Interno

Iniciemos com a definio do produto interno no Rn .


Definio 9.1
Suponha que, para cada par de vetores u, v Rn , existe uma funo que associa
um nmero real, denotado por hu, vi. Essa funo chamada produto interno
de V se satisfizer s seguintes propriedades:
I1 (Linearidade) hu + v, wi = hu, wi + hv, wi;
I2 (Simetria) hu, vi = hv, ui;
I3 (Positividade) hu, ui 0, e hu, ui = 0 se, e somente se, u = 0,
197

Captulo 9. Produto Interno, Projees e Operadores Ortogonais

para todo u, v e w em Rn e , R. O Rn com o produto interno denominado


espao vetorial com produto interno ou ainda espao euclidiano1 .
Vamos definir o exemplo mais importante de produto interno no Rn .
Exemplo 9.2
 
 
O produto escalar usual do R2 , isto , para u = xx12 e v = yy12 definido por
hu, vi = x1 y1 + x2 y2 ,
um exemplo de produto interno. De fato, claro que esta uma funo que
toma dois vetores e retorna um nmero. Vamos verificar que esta funo satisfaz
s propriedades para que seja um
 produto interno. Para verificar a linearidade,
z1
considere ainda o vetor w = z2 . Ento,
  
   
x1
y
z
hu + v, wi =
+ 1 , 1
x2
y2
z2

  
x1 + y1
z
=
, 1
= (x1 + y1 )z1 + (x2 + y2 )z2
x2 + y2
z2
= (x1 z1 + x2 z2 ) + (y1 z1 + y2 z2 ) = hu, wi + hv, wi .
x21

A simetria evidente e, para a positividade, basta observar que hu, ui =


+ x22 0 zero, se e somente se, x1 = x2 = 0, isto , no caso em que u = 0.
Podemos generalizar o produto escalar usual para o Rn , com n > 2.

Exemplo 9.3
Considere os vetores u, v Rn . Digamos que


y1
x1
x2
y2


u = .. , v = .. defina hu, vi = x1 y1 + x2 y2 + + xn yn .
.
.
xn
yn
Verifique que a funo assim definida satisfaz s propriedades exigidas de um
produto interno, como fizemos para o caso do produto escalar no plano.
Gostaria de frisar que, para o melhor entendimento, no primeiro momento
interessante quando ler que Rn um espao vetorial munido de um produto
interno, imaginar que o produto interno o produto escalar.
Vamos deduzir algumas propriedades que devem valer para qualquer produto
interno. Para fazer isto s usaremos propriedades que constam na definio. Em
particular, devem valer para o produto escalar.
O produto interno pode ser generalizado para vetores de Cn , mas para fazer isso, precisamos
substituir a propriedade I2 por hu, vi = hv, ui, onde a barra denota a conjugao complexa.
Nesse texto faremos apenas a teoria para espaos vetoriais reais.
1

198

Jones Colombo e Jos Koiller (texto em preparao)

9.2. Produto Interno

1. O produto interno tambm linear na sua segunda entrada. Veja:


hu, v + wi = hv + w, ui
= hv, ui + hw, ui = hu, vi + hu, wi .
A primeira e terceira igualdades seguem pela simetria e a segunda igualdade
da linearidade.
2. O produto h0, ui = h00, ui = 0 h0, ui = 0, e, pela observao 1, temos,
tambm, hu, 0i = 0.
Vamos dar um exemplo de uma funo diferente do produto escalar que tambm satisfaz s propriedades do produto interno. E, mais adiante, vamos usar
o produto interno para introduzir as noes de distncia e ngulo entre vetores.
Como podemos usar vrias funes, vemos que existem vrias maneiras (diferentes) de medir distncia e ngulo entre vetores. Ento, podemos fazer diversas
perguntas, tais como: o que invariante entre uma forma de medir e outra? E,
sabendo as medidas de um objeto com respeito a um produto interno, como podemos determinar as suas medidas em relao a um outro produto interno? Com
respeito primeira pergunta, existe um ramo na matemtica chamado topologia
que responde a boa parte desta questo.
Exemplo 9.4
Sejam u = [ xx12 ] e v = [ yy12 ] em R2 , e considere
hu, vi = 2x1 y1 x1 y2 x2 y1 + x2 y2 .
Vamos verificar que essa funo um produto interno no plano. Para isso, seja
w = [ zz12 ] .
Vamos verificar a bilinearidade. Para isso, considere w = [ zz12 ] e R um
escalar. Ento,


 z1
1
hu + v, wi = xx12 +y
+y2 , [ z2 ]
= 2(x1 + y1 )z1 (x1 + y1 )z2 (x2 + y2 )z1 + (x2 + y2 )z2
= 2x1 z1 x1 z2 x2 z1 + x2 z2 + (2y1 z1 y1 z2 y2 z1 + y2 z2 )
= h[ xx12 ] , [ zz12 ]i + h[ yy12 ] , [ zz12 ]i = hu, wi + hv, wi ,
e, portanto, a funo linear na primeira entrada. Vamos verificar ainda a
simetria
hu, vi = 2x1 y1 x1 y2 x2 y1 + x2 y2 = 2y1 x1 y1 x2 y2 x1 + y2 x2 = hv, ui .
E, por fim,
hu, ui = 2x21 x1 x2 x2 x1 + x22 = x21 + x21 x1 x2 x2 x1 + x22 = x21 + (x1 x2 )2 0.
A expresso x21 + (x1 x2 )2 = 0 se, e somente se, x1 = x2 = 0. Portanto,
essa funo satisfaz a todas as propriedades requeridas para que seja um produto
interno.
Jones Colombo e Jos Koiller (texto em preparao)

199

Captulo 9. Produto Interno, Projees e Operadores Ortogonais

9.3

Normas

 
Lembramos que, no plano, para calcular o comprimento de um vetor u = xx12 ,
p
basta calcular x21 + x22 . Isso se d pela aplicao do teorema de Pitgoras.
Para certificar-se de que entendeu isso, veja a figura 9.3. Falar no comprimento
(ou norma) de um vetor equivalente a calcular a distncia da origem at as
coordenadas que definem o vetor.
u=

 x1 
x2

x2

x1

Figura 9.1: Aplicao do Teorema de Pitgoras


Observe que, se considerarmos o produto interno no plano, como o sendo o
produto escalar, podemos expressar:
q
p
x21 + x22 = hu, ui.
possvel fazer algo similar se estivermos no R3 com o produto interno sendo
o produto escalar (repita o raciocnio acima).
Podemos generalizar o conceito de comprimento de vetor sempre que tivermos
um produto interno definido, uma vez que, pela condio I3 , o produto interno
de um vetor por si mesmo sempre no negativo e, por isto, podemos definir:
Definio 9.5
Sejam Rn com um produto interno h, i e u Rn . Definimos a norma de um vetor
u por ser
p
kuk = hu, ui.
Se kuk = 1 ou, de maneira equivalente, hu, ui = 1, dizemos que o vetor
unitrio e que o vetor est normalizado. No caso em que u 6= 0, com kuk 6= 1,
ento podemos definir o versor desse vetor por fazer
u0 =

1
u.
kuk

Observe que o versor u0 tem norma igual a 1 e a mesma direo que o vetor u.
Esse processo tambm conhecido por normalizao do vetor u.
200

Jones Colombo e Jos Koiller (texto em preparao)

9.4. Ortogonalidade

Observao 9.6
Esta observao nos ser muito til no futuro. Sejam u e v dois vetores, ento:
ku + vk2 = hu + v, u + vi = hu, ui + hu, vi + hv, ui + hv, vi
= kuk2 + 2 hu, vi + kvk2 .

Exemplo 9.7 h i
1
Considere u = 32 R3 e o produto interno, o produto escalar. Logo a norma

kuk = 1 + 22 + (3)2 = 14.


Observao 9.8
Se Rn est munido de um produto interno, ento a norma satisfar seguinte
propriedade: para quaisquer u, v V , temos
ku + vk kuk + kvk (Desigualdade Triangular).
Essa propriedade nos diz que o comprimento de um dos lados de um tringulo
sempre menor ou igual soma dos comprimentos dos outros dois lados. Veja
figura 9.2.

u+

v
v

u
Figura 9.2: Desigualdade Triangular
Definio 9.9
Seja Rn com um produto interno h , i. A distncia entre u e v definida por
dist(u, v) = ku vk .
Exemplo 9.10
 1
2
Considerando
R
e
o
produto
interno

o
usual,
calcule
a
distncia
entre
u
=
2
 
e v = 31 .
    q
 2   2 
dist(u, v) = 21 31 =
= 13 unidades.
3 , 3

9.4

Ortogonalidade

Vamos justificar a ideia de u ser ortogonal ou perpendicular a v.


Jones Colombo e Jos Koiller (texto em preparao)

201

Captulo 9. Produto Interno, Projees e Operadores Ortogonais

Seja novamente R2 com o produto interno o produto


Considere
dois

 
 escalar.
vetores no nulos e no mltiplos um do outro, u = xx12 e v = yy12 . Ento,
podemos considerar os vetores u, v, u v, so os lados de um tringulo (veja
figura 9.3), e relacionar o comprimento de seus lados, usando a lei dos cossenos,
se o ngulo formado entre os vetores u e v ento
ku vk2 = kuk2 + kvk2 2 kuk kvk cos .
Isso equivalente a dizer que
y

Figura 9.3: Lei dos Cossenos



1
kuk2 + kvk2 ku vk2
2

1 2
x1 + x22 + y12 + y22 (x1 y1 )2 (x2 y2 )2
=
2
= x1 y1 + x2 y2
= hu, vi ,

kuk kvk cos =

e temos a seguinte relao:


hu, vi = kuk kvk cos .
Logo, se = /2, isto , u ortogonal a v, temos, neste caso, hu, vi = 0.
Reciprocamente, se u e v so dois vetores no nulos e hu, vi = 0, ento o ngulo
entre eles de cos = 0, portanto, = /2.
Portanto, definimos para qualquer produto interno.
Definio 9.11
Considerando o Rn com um produto interno, dizemos que dois vetores u e v em
Rn so ortogonais (ou perpendiculares) se, e somente se, hu, vi = 0. Neste caso,
denotamos por u v.
As seguintes propriedades seguem imediatamente a definio de ortogonalidade.
1) Qualquer que seja o vetor u Rn , temos u 0.
2) u w se, e somente se, w u.
202

Jones Colombo e Jos Koiller (texto em preparao)

9.4. Ortogonalidade

3) Se u w, para todo w V , ento u = 0.


4) Se u w e v w, ento (u + v) w.
Dizemos que X = {u1 , u2 , . . . , un } um conjunto ortogonal, se hui , uj i = 0,
para todo i 6= j. E, se alm disso, hui , ui i = 1, para todo i = 1, 2, . . . , n, dizemos
que X ortonormal.
Teorema 9.12
Considere o Rn munido de produto interno h , i. Se X um conjunto ortogonal
formado por vetores no nulos, ento X LI.
Demonstrao: Veja o exerccio r9.1.
Exemplo 9.13
nh i h 1 i
1
1 ,
1 ,
Considere R3 e o produto interno h , i o produto escalar do R3 e X =
1
0
h 1 io
1
. Vamos verificar que esse conjunto ortogonal. Para isso, considere
2

Dh i h 1 iE
1
1 ,
1
= 1 + 1 = 0,
1

Dh i h 1 iE
1
1 , 1
= 1 1 + 2 = 0
1

Dh 1 i h 1 iE
1 , 1
= 1 1 = 0. Portanto, esse conjunto ortogonal.
0

Observao 9.14
Teorema de Pitgoras: Sejam Rn com um produto interno e u e v dois vetores.
Ento, sabemos que
ku + vk2 = kuk2 + 2 hu, vi + kvk2 .
Se u v, temos que hu, vi = 0 e da
ku + vk2 = kuk2 + kvk2 ,
que o Teorema de Pitgoras para o caso vetorial.

9.4.1

Complemento Ortogonal

Seja F um subconjunto do Rn , o qual est munido de um produto interno


h , i. O complemento ortogonal de F , denotado por F , consiste nos vetores de
Rn que so ortogonais a cada vetor v F , ou seja,
F = {u Rn : hu, vi = 0, para todo v F } .
No caso em que F = {v}, temos que
v = {u Rn : hu, vi = 0}
fcil perceber que nesta situao v um subespao vetorial.
Jones Colombo e Jos Koiller (texto em preparao)

203

Captulo 9. Produto Interno, Projees e Operadores Ortogonais

Exemplo 9.15n
h 1i
h 2 io
Considere F = u = 12 , v = 0
um subconjunto de R3 . Encontre F .
h x i1
Queremos determinar w = yz , tais que hw, ui = 0 e, tambm, hw, vi = 0.
Fazendo as contas, obtemos
(
(
y = 3/2 x
x + 2y z = 0

z = 2x.
2x + z = 0
nh x i
o
nh 1 io
3/2 x : x R = Span
3/2
Portanto, F =
.
2x

Teorema 9.16
Seja F um subconjunto do Rn , o qual est munido de um produto interno, ento
F um subespao vetorial de Rn .
Demonstrao: Veja o exerccio r9.4.

9.5

Projees Ortogonais

O objetivo discutir como definir operadores lineares que projetam ortogonalmente um vetor sobre um subespao vetorial W do Rn .
Inicialmente, considere o vetor unitrio v e outro vetor u qualquer do Rn .
Chamamos o vetor hu, vi v de projeo ortogonal de u sobre v. Veja a figura 9.4.

iv

,v
hu

v
hu,

iv

Figura 9.4: Projeo ortogonal sobre o v


Vamos justificar esse nome, verificando que w = u hu, vi v perpendicular
ao vetor v.
hv, wi = hv, u hu, vi vi = hv, ui hu, vi hv, vi = 0,
pois hv, vi = 1. E, no caso geral, se v um vetor no nulo qualquer, consideremos
1
o seu versor, v0 = kvk
v. Ento, novamente hu, v0 i v0 a projeo ortogonal de u
sobre v0 e, substituindo v0 por v, temos:


1
1
hu, vi
hu, vi
0
0
hu, v i v = u,
v
v=
v.
2 v =
kvk
kvk
hv, vi
kvk
204

Jones Colombo e Jos Koiller (texto em preparao)

9.5. Projees Ortogonais

v.
Denotamos a projeo ortogonal de u sobre v por projv (u) = hu,vi
hv,vi
Observe ainda que a norma do vetor v indiferente para o resultado. Por
isso, mais interessante considerarmos o subespao vetorial gerado por v, isto ,
W = Span {v}, e definirmos
projW (u) =

hu, vi
v, onde 0 6= v W.
hv, vi

Antes de continuarmos, vamos dar um exemplo da forma que esse operador


assume no plano.
Exemplo 9.17
Estamos interessados em determinar as frmulas de uma transformao linear
que projeta um dado vetor u R2 sobre uma reta, passando pela origem, e que,
portanto, tem equao y = ax para algum
 1 a R fixo.
Logo, a reta gerada pelo vetor v = a , isto , qualquer ponto da reta um
mltiplo deste vetor. Considere u = xy . Queremos encontrar R, tal que v
seja a projeo ortogonal de u sobre a reta y = ax. Como vimos anteriormente,
outra maneira de expressar essa relao, pedir que os vetores v e u v sejam
perpendiculares, isto ,
hv, u vi = hv, ui hv, vi = 0.
Isolando , temos que

 1   x 
, y
x + ay
hv, ui
=
 a1   1  =
.
=
hv, vi
1 + a2
a , a
Portanto, se definirmos P : R2 R2 por u 7 projv (u) = v, este operador
ter a seguinte expresso:
 #
" 1 
 
a
x
+
2
2
x
1+a
 1+a2 y .

7
a
a
y
y
x + 1+a
2
1+a2
y
u
v

pro

jvu

a
y=

Figura 9.5: Projeo

Jones Colombo e Jos Koiller (texto em preparao)

205

Captulo 9. Produto Interno, Projees e Operadores Ortogonais

No exemplo 9.18, veremos que a reflexo de um vetor, em torno de uma reta


que passa pela origem, est intimamente ligada com a projeo do vetor sobre
esta mesma reta.
Exemplo 9.18
A reflexo de um vetor u sobre uma reta y = ax nos d um vetor Su do lado
oposto da reta, de tal maneira que o segmento de reta determinado por u e Su
perpendicular a reta y = ax que corta este segmento no ponto mdio, conforme
figura 9.6.
y

2 projv u = u + Su

Su

ax

Figura 9.6: Reflexo


Observe na figura 9.6 que o vetor u+Su est sobre a reta y = ax, uma vez que
esta reta exatamente a diagonal do paralelogramo determinado pelos vetores u
e Su. Alm disso, o vetor
u + Su igual a duas vezes a projeo ortogonal de u

1
sobre o vetor v = a que determina a reta. E, portanto,
2 projv u = u + Su Su = 2 projv u u.
Em termos de frmulas, obtemos:
"
 
x
S
=2
y

9.5.1

a
1
x +  1+a
2
1+a2
y

a2
a
x + 1+a2 y
1+a2

 #

 2 

 
2a
1a
x + 1+a2 y
x
1+a2
 2  .

=

a 1
2a
y
x
+
y
2
2
1+a

1+a

Desigualdade de Cauchy-Schwarz

Vamos retornar situao z = projv (u) e definir w = u z, isso implica


que u = w + z, com w z. Pelo teorema de Pitgoras, temos que: kuk2 =
kwk2 + kzk2 . Em particular, kzk kuk, isto , o comprimento da projeo
projv (u) sempre menor ou igual ao comprimento de u.
Mas a norma de projv (u) khu, vik / kvk. Segue que khu, vik / kvk kuk,
ou seja,
|hu, vi| kuk kvk (Desigualdade de Cauchy-Schwarz).
206

Jones Colombo e Jos Koiller (texto em preparao)

9.5. Projees Ortogonais

9.5.2

Processo de Ortonormalizao de Gram-Schmidt

O processo de Gram-Schmidt um procedimento que inicia com um conjunto LI {v1 , v2 , . . . , vs } de vetores de Rn e retorna um conjunto ortonormal
{u1 , u2 , . . . , us }, com a seguinte propriedade: para cada k, com 1 k s, os
vetores u1 ,u2 ,. . . , uk pertencem ao subespao vetorial Span {v1 , v2 , . . . , vk }.
Para entender o processo de ortogonalizao de Gram-Schmidt, vamos voltar
a nossa discusso de como obter a projeo ortogonal de um vetor u sobre um
subespao vetorial W , de dimenso dois, do Rn . Como estamos interessados
em encontrar uma frmula para a projeo ortogonal de um vetor u sobre W ,
considere v, w W , tal que W = Span {v, w}. Lembrando que j sabemos
calcular projv u e projw u. Ento, certamente existem e R, tais que o
b = projv u + projw u a projeo ortogonal de u sobre W . Precisamos
vetor u
b ) v deve acontecer, temos:
determinar e . Como sabemos que (u u
b ) , vi = hu ( projv u + projw u) , vi
h(u u
= hu, vi hprojv u, vi hprojw u, vi
hu, wi
hu, vi
hv, vi
hw, vi
= hu, vi
hv, vi
hw, wi
hu, wi hw, vi
= hu, vi hu, vi
= 0.
hw, wi
b ) w deve acontecer, obtemos que:
E, como tambm (u u

b ) , wi = hu ( projv u + projw u) , wi
h(u u
hu, vi hv, wi
= hu, wi
hu, wi = 0.
hv, vi

pro jv (u) v

(u)
j
w
ro
p
w

b
u

Encontrar e equivalente a encontrar a soluo de um sistema linear com


duas equaes nas variveis e . Mas este sistema possui uma soluo muito
simples se v w: nesta circunstncia a soluo = 1 = . Alm disso, se v
e w no so perpendiculares, sem nenhuma perda, podemos escolher os vetores
b = w projv w, e teremos que v w,
b uma vez que ainda W = Span {v, w}.
b
v, w
Juntando tudo isso, podemos definir o operador projeo ortogonal de u sobre
W por ser
projW u = projv u + projwb u.
Jones Colombo e Jos Koiller (texto em preparao)

207

Captulo 9. Produto Interno, Projees e Operadores Ortogonais

pro jv (u)

pr
w

)
(u
b
j
w
o

b = projv u + projwb u
u

b
w

Essa situao se generaliza para espaos em qualquer dimenso, e a base do


processo de ortonormalizao de Gram-Schmidt que descrevemos abaixo. O processo inicia com um conjunto LI X = {v1 , v2 , . . . , vs } de vetores de Rn e retorna
um conjunto ortonormal Y = {u1 , u2 , . . . , us }, com a seguinte propriedade: para
cada k, com 1 k s, os vetores u1 , u2 , . . . , uk pertencem ao subespao vetorial
Span {v1 , v2 , . . . , vk }.
Vamos descrever o procedimento, fazendo
v10 = v1 e {u01 } Span {v1 }
hv2 , v0 i
v20 = v2 0 10 v10 e {v10 , v20 } Span {v1 , v2 }
hv , v i
1 10

hv3 , v1 i 0 hv3 , v20 i 0
0
v +
v
e {v10 , v20 , v30 } Span {v1 , v2 , v3 }
v3 = v3
hv10 , v10 i 1 hv20 , v20 i 2

!
k

0
X
v
,
v
k
j

0 0 vj0 e {v10 , v20 , . . . , vk0 } Span {v1 , v2 , . . . , vk }


vk0 = vk
v j , vj
j=1

vs0 = vs

!
s

X
vs , vj0 0

0 0 vj e {v10 , v20 , . . . , vs0 } Span {v1 , v2 , . . . , vs } .


vj , vj
j=1

E, finalmente, vamos normalizar os vetores, isto ,


u1 =

1
1 0
v1 , . . . , us = 0 vs0 .
0
kv1 k
kvs k

Exemplo 9.19
n
h i
h i
1
0
Seja o R3 com o produto escalar, considere a seguinte base v1 = 1 , v2 = 2 ,
1
1
h io
0
3
v3 = 0
do R e aplique o processo de ortonormalizao de Gram-Schmidt,
3

208

Jones Colombo e Jos Koiller (texto em preparao)

9.5. Projees Ortogonais

para obtermos uma base ortogonal:



1
v10 = v1 = 1
1
Dh 0 i h 1 iE

0
1
1
0
1
2 , 1
0
hv2 , v1 i 0
3
1
1
0

Dh
i
h
iE
1 = 2
1 =
1
v2 = v2 0 0 v1 = 2
1
1
hv1 , v1 i
3
1 , 1
1
1
1
1
0
1
1


hv3 , v10 i 0 hv3 , v20 i 0
v +
v
v30 = v3
hv10 , v10 i 1 hv20 , v20 i 2
Dh i h 1 iE
Dh 0 i h 1 iE
0
0
1
1
0 , 1
0 ,
1
3
1
3
0
iE 1
= 0 Dh 1 i h 1 iE 1 + Dh 1 i h 1
1 , 1
1 ,
1
3
1
0
1
1
0


0
1
0
1
1
3

1
0
1
=
0

= 1 .
3
1
3
0
2
Normalizando, temos:



1
1
1
1
1
1
1 0
1 e u3 = 1 ,
u1 = 0 v1 = 1 ; u2 =
kv1 k
3 1
2
6
0
2
a qual uma base ortonormal do R3 .
Observao 9.20
Como consequncia do processo de ortonormalizao de Gram-Schmidt, temos
que todo espao vetorial de dimenso finita, munido de um produto interno,
admite uma base ortonormal. De fato, seja {v1 , v2 , . . . , vn } uma base qualquer de
Rn , aplicando o processo de Gram-Schmidt, obtemos {u1 , u2 , . . . , un } ortonormal,
que gera Rn . Pelo teorema 9.12, sabemos que {u1 , u2 , . . . , un } LI e, portanto,
ele uma base de Rn .
Observao 9.21
Uma outra consequncia do conceito de projeo ortogonal que o mesmo minimiza a distncia de um vetor u Rn a um subespao vetorial W Rn . Para
b = projW (u), isto , u
b a
compreender bem esta propriedade, suponha que u
projeo ortogonal de u sobre o subespao vetorial W . Vamos mostrar que
b k ku vk , para todo v W.
ku u
b v W e (b
b ), mas pelo
Seja v um vetor qualquer de W , ento u
u v) (u u
teorema de Pitgoras, para espaos vetoriais,
b+u
b vk2 = ku u
b k2 + kb
ku vk2 = ku u
u vk2 .
b k, para todo v W .
Portanto, ku vk ku u
Essa propriedade possui numerosas aplicaes, tais como o Mtodo dos Mnimos Quadrados ou Regresso linear, quadrtica ou Regresso exponencial, como conhecido na Estatstica.
Jones Colombo e Jos Koiller (texto em preparao)

209

Captulo 9. Produto Interno, Projees e Operadores Ortogonais

9.6

Matrizes e Operadores Ortogonais

As matrizes ortogonais so interessantes, pois com elas podemos executar


movimentos sem deformao no Rn .
Vamos fazer uma observao que serve como motivao para a definio da
3
matriz
Seja
produto interno o produto escalar do R3 .
h y1Vi = R hez1oio
n ortogonal.
h x1 i
uma base ortonormal, isto , hui , uj i =
Se u1 = xx23 , u2 = yy23 , u3 = zz23

uti uj = 0, se i 6= j, se i = j, ento hui , ui i = uti ui = kui k2 = 1.


Logo, se montarmos
 a matriz A, colocando os vetores ui nas colunas, acharemos A = u1 u2 u3 , e ao calcularmos

x1 x2 x3
x1 y1 z1
hu1 , u1 i hu1 , u2 i hu1 , u3 i
At A = y1 y2 y3 x2 y2 z2 = hu2 , u1 i hu2 , u2 i hu2 , u3 i .
z1 z2 z3
x3 y3 z3
hu3 , u1 i hu3 , u2 i hu3 , u3 i
E, usando que {u1 , u2 , u3 } uma base ortonormal, teremos que At A = I (veja
definio 9.11).
Definio 9.22
Dizemos que uma matriz quadrada A uma matriz ortogonal se At A = I.
Exemplo 9.23
De acordo com o exemplo 9.19, o conjunto




1
1
1

1
1
1
1 , u3 = 1
u1 = 1 , u2 =

3 1
2
6
0
2
uma base ortonormal e, portanto, a matriz


13 1 2
A = 13 1 2
1 3
0


16
1 6
2 6

ortogonal.
Teorema 9.24
Seja h , i um produto interno em Rn , considere e , duas bases ortonormais em
Rn . Ento a matriz de mudana de coordenadas [I] uma matriz ortogonal.
Demonstrao: Vamos fazer a demonstrao para o caso em que n = 3. Acreditamos que voc ser capaz de dar uma prova para o caso geral. Sejam =
{u1 , u2 , u3 } e = {v1 , v2 , v3 } duas bases ortonormais de R3 . Para achar a matriz [I] , precisamos encontrar as coordenadas dos vetores da base com respeito
base . Digamos que
u1 = a11 v1 + a21 v2 + a31 v3
u2 = a12 v1 + a22 v2 + a32 v3
u3 = a13 v1 + a23 v2 + a33 v3 .
210

Jones Colombo e Jos Koiller (texto em preparao)

9.6. Matrizes e Operadores Ortogonais

A matriz fica:

a11 a12 a13


[I] = a21 a22 a23 .
a31 a32 a33

Queremos ver que essa matriz ortogonal. Para isso, observe que, como e
so ortonormais, obtemos:
1 = hui , ui i = ha1i v1 + a2i v2 + a3i v3 , a1i v1 + a2i v2 + a3i v3 i
= a21i + a22i + a23i ,
e, tambm, se i 6= j, temos:
0 = hui , uj i = ha1i v1 + a2i v2 + a3i v3 , a1j v1 + a2j v2 + a3j v3 i
= a1i a1j + a2i a2j + a3i a3j .
Isso mostra que [I] ortogonal.
Vamos definir agora os operadores ortogonais que esto conectados com as
matrizes ortogonais
Definio 9.25
Sejam h , i um produto interno de Rn e T : Rn Rn um operador linear, se a
matriz [T ] , com respeito a alguma base ortonormal , for ortogonal, dizemos
que T um operador ortogonal.
Exemplo 9.26
Quando tratamos de rotaes de um ngulo em torno da origem, ao calcular a
matriz deste operador linear em termos da base cannica, obtivemos, no exemplo
5.8, a matriz


cos sen
A=
.
sen
cos




cos
sen
Agora, se temos os vetores u =
,v=
, obtidos por tomar as
cos
sen
colunas da matriz A, veremos que hu, ui = cos2 + sen2 = 1 = hv, vi. Alm
disso, hu, vi = 0, e {u, v} uma base ortonormal. Portanto, A uma matriz
ortogonal.
Teorema 9.27
Sejam h , i um produto interno em Rn e T : Rn Rn um operador linear, ento
as seguintes condies so equivalentes:
(1) T um operador ortogonal;
(2) A matriz de T com respeito a qualquer base ortonormal ortogonal;
(3) hT (u), T (v)i = hu, vi ,

u e v V.

Jones Colombo e Jos Koiller (texto em preparao)

211

Captulo 9. Produto Interno, Projees e Operadores Ortogonais

Exerccios resolvidos
Prove o teorema 9.12: Seja h, i um produto interno em Rn . Se X um
conjunto ortogonal formado por vetores no nulos, ento X LI.

R9.1.

Soluo: Considere X = {u1 , u2 , . . . , un } um conjunto formado por vetores


no nulo e ortogonais. Queremos verificar que a nica soluo do sistema
1 u1 + 2 u2 + + n un = 0
a soluo trivial. Se fizermos o produto interno com ui , obtemos
h1 u1 + 2 u2 + + n un , ui i = h0, ui i = 0.
Logo, i hui , ui i = 0 i = 0, para todo i = 1, 2, . . . , n e, portanto, a
nica soluo a trivial 1 = 2 = = n = 0. Por isso, X LI.
Prove o teorema 9.27: Sejam h , i um produto interno em Rn e T : Rn Rn
um operador linear, ento as seguintes condies so equivalentes:

R9.2.

(1) T um operador ortogonal;


(2) A matriz de T com respeito a qualquer base ortonormal ortogonal;
(3) hT (u), T (v)i = hu, vi ,

u e v V.

Soluo: (1) (2) Esta implicao segue da seguinte propriedade: digamos


que A e B sejam matrizes ortogonais, ento AB tambm uma matriz ortogonal. De fato, se calcularmos (AB)t AB = B t (At A)B = B t IB = B t B = I.
Vamos aplicar esta propriedade para provar a implicao. Iniciemos com
V , uma base ortonormal, na qual [T ] ortonormal, e V , uma
outra base ortonormal qualquer. Podemos calcular as matrizes de mudana
de coordenadas [I] e [I] , que so ortogonais pelo lema 9.24. Ento, como
[T ] = [I] [T ] [I] ,
segue da observao inicial que [T ] tambm ortogonal.
(2) (3) Seja = {v1 , v2 , . . . , vn } uma base ortonormal de V e seja
A = [T ] = [aij ].
Ento, os escalares aij so obtidos por
T (vj ) =

n
X
i=1

212

aij vi e T (vk ) =

n
X

ark vr , com j, k = 1, . . . , n.

r=1

Jones Colombo e Jos Koiller (texto em preparao)

Exerccios

E temos
hT (vj ), T (vk )i =
=

* n
X

aij vi ,

n X
n
X

n
X

+
ark vr

r=1

i=1

aij ark hvi , vr i

i=1 r=1

n
X

aij aik e como a matriz [aij ] ortogonal

i=1

= jk
= hvj , vk i
E hT (vj ), T (vk )i = hvj , vk i e a propriedade vlida para os vetores da base
inicial. Mas P
ento, se u e v so
P vetores quaisquer de V , ento podemos
escrever u = nj=1 xj vj e v = nk=1 xk vk , logo,
* n
+
n
X
X
hT (u), T (v)i =
yk T (vk )
xj T (vj ),
=
=

j=1
n
n
XX

j=1 k=1
n X
n
X
j=1 k=1

* n
X

k=1

xj yk hT (vj ), T (vk )i
xj yk hvj , vk i

xj v j ,

j=1

n
X

+
yk vk

k=1

= hu, vi .

(3) (1) Seja = {u1 , u2 , . . . , un }, uma base ortonormal de Rn , e aij R


escolhidos por satisfazer:
T (vj ) =

n
X

aij vi e T (vk ) =

n
X

ark vr , com j, k = 1, . . . , n.

r=1

i=1

Isto , os aij so os coeficientes da matriz [T ] . Ento,


ij = hvj , vk i
= hT (vj ), T (vk )i
* n
+
n
X
X
=
aij vi ,
ark vr
i=1

n
X

r=1

aij aik .

i=1

Mas isso equivalente a dizer que [T ] ortogonal.


Jones Colombo e Jos Koiller (texto em preparao)

213

Captulo 9. Produto Interno, Projees e Operadores Ortogonais

a) Encontre a aplicao linear S : R2 R2 , que a reflexo em torno da


reta y = x.

R9.3.

b) Obtenha a matriz de S na base cannica.


Soluo: Lembrando que Su = 2P u u dada pela frmula
 2 

 
1a
2a
x
+
y
2
x
1+a2
 1+a

.
S
=

2a
a2 1
y
x+
y
2
2
1+a

1+a

   
Como a hiptese do exerccio a = 1, segue que S xy = xy , e a matriz,
em relao base cannica,
  
  

1
0
0 1
A= S
S
=
.
0
1
1 0

Prove o teorema 9.16: Se F um subconjunto do Rn , o qual est munido


de um produto interno, ento F um subespao vetorial de Rn .

R9.4.

Soluo: Para garantir que F um subespao vetorial de Rn necessrio


verificar as seguintes trs condies:
0 F , uma vez que hu, 0i = 0, para todo u F ;

Se v, w F , ento hu, v + wi = hu, vi + hu, wi = 0 + 0 = 0


para todo R e, portanto, v + w F .

Isto o suficiente para garantir que F seja um subespao vetorial. Veja


que no exigimos nenhuma restrio ao subconjunto F .

Exerccios propostos
P9.1.

Encontre k, tal que os vetores


1
3
2
k


u=
k e v = 7
3
6

de R4 sejam ortogonais.
P9.2.

Encontre uma base ortogonal para os subespaos de R3 , gerados pelos


vetores:
h 1i h 1i
h i h i
2
1
a) 11 , 10
b) 1 , 3 .
1

214

Jones Colombo e Jos Koiller (texto em preparao)

Exerccios

P9.3.

Em cada um dos casos abaixo, determine se o conjunto {u, v, w} R3


ortogonal, apenas ortogonal ou nenhum dos dois.
h i
h 1i
h 1 i
1
a) u = 2 , v = 1 , w = 1 .
1
1
2
hai
h i
h ac i
b
b) u = cb , v = a , w = 2bc 2 .
0
a +b
h i
h 3i
h 6i
2
c) u = 71 6 , v = 17 62 , w = 17 3 .
3

P9.4.

Use a desigualdade de Cauchy-Schwarz no R3 , para mostrar que, se a >


0, b > 0 e c > 0, ento


1 1 1
(a + b + c)
+ +
9.
a b c

P9.5.

Sejam a, b e c nmeros reais positivos, tais que a + b + c = 1. Use a


desigualdade de Cauchy-Schwarz no R3 , para mostrar que




1
1
1
1
1
1 8.
a
b
c

P9.6.

P9.7.

Encontre uma base ortogonal para o espao soluo de:


(
2x + y + z = 0
a)
b) x y + z = 0.
y+z =0
a) Encontre a aplicao linear S : R2 R2 , que a reflexo em torno da
reta y = 2x.
b) Obtenha a matriz de S na base cannica.

P9.8.

Mostre a lei do paralelogramo: |u + v|2 + |u v| = 2 |u|2 + 2 |v|2 , para


quaisquer que sejam u, v (Rn , h , i).

P9.9.

Sejam u, v Rn , prove que se (u+v) (uv), ento |u| = |v|. Interprete


o resultado geometricamente.
Mostre que, se S um conjunto ortogonal de vetores no nulos, S
linearmente independente.

P9.10.

Seja {u1 , u2 , . . . , un } uma base ortogonal de Rn . Ento, dado qualquer


v Rn , verifique que as coordenadas de v com respeito a base so dadas
por
hv, u1 i
hv, u2 i
hv, un i
v=
u1 +
u2 + +
un .
hu1 , u1 i
hu2 , u2 i
hun , un i

P9.11.

Seja {e1 , e2 , . . . , en } uma base ortogonal de Rn e u, v Rn , dois vetores


quaisquer, mostre que

P9.12.

hu, vi = hu, e1 i hv, e1 i + + hu, en i hv, en i .


Jones Colombo e Jos Koiller (texto em preparao)

215

Captulo 9. Produto Interno, Projees e Operadores Ortogonais


0 5
uma matriz ortogonal, onde A =
.
5 0

P9.13.

Mostre que (I A)(I + A)

P9.14.

Determine valores para x, y e z, tal que a matriz abaixo seja cannica


1

1
0
2
2
0 0 1 .
x y z

Considere em R3 a funo
h x2 ihu, vi = 8x1 x2 3x2 y1 3x1 y2 +
h x1 i dada por
2y1 y2 + 2z1 z2 , onde u = yz11 e v = yz22 .

P9.15.

(a) Verifique que esaa funo um produto interno.


(b) Usando a norma que a consequncia deste produto interno, encontre
h 1 io
vetor do plano 2x + 3y 6z = 0 que est mais prximo do vetor w = 31 .
(c) Calcule a distncia, usando a funo distncia que provem deste produto
interno, de w at o plano 2x + 3y 6z = 0.
Considere o R2 com o produto interno dado por hu, vi = x1 y1 + 2x2 y2
x1 y2 x2 y1 , onde u = [ xx12 ] e v = [ yy12 ].

P9.16.

3
(a) Determine m, de tal forma que os vetores [ 1+m
2 ] e [ m1 ] sejam ortogonais.

(b) Determine todos os vetores de R2 ortogonais a [ 12 ].


m
(c) Determine todos os vetores [ m1
] que tm norma 1.

Mostre que uma transformao ortogonal do plano no plano deixa invariante a distncia entre dois pontos, isto , dados u e v, dois vetores
quaisquer,
kT u T vk = ku vk .

P9.17.

Mostre que, se T uma transformao ortogonal do plano no plano, sua


matriz em relao base cannica s pode ser da forma:


cos sen
A=
( Rotaes )
sen
cos

P9.18.

ou da forma

216


cos
sen
B=
( Reflexes ).
sen cos

Jones Colombo e Jos Koiller (texto em preparao)

Captulo 10
Cnicas, Matrizes Simtricas e
Formas Quadrticas
Nesse captulo vamos exibir dois mtodos de mudana de coordenadas. No
primeiro mtodo mostraremos um resultado mais forte, o qual nos fala que: para
toda equao do 2o grau, existe um sistema de coordenadas ortonormal no qual a
equao se escreve como uma das equaes padres das cnicas. Para demonstrar
esse resultado, introduziremos um tipo especial de operador linear, conhecido
como operador autoadjunto, e mostraremos que todo operador desse tipo possui
uma base ortonormal de autovetores.
O segundo mtodo dar-nos- um algoritmo que permite reduzir qualquer
forma quadrtica a uma forma diagonal, consistindo em uma tcnica til para
clculos em espaos de dimenso superior. Alm disso, essa tcnica usada para
classificar as formas bilineares simtricas. Ela tem o inconveniente, porm, de
gerar um sistema de coordenadas final que no ortogonal.
Ao final do captulo aplicaremos tais tcnicas para classificar as quadrticas
em duas variveis. Deve ficar claro que esse processo pode ser estendido para
equaes de segundo grau em mais de duas variveis.
Alm disso, neste captulo, ns iremos introduzir trs conceitos que esto relacionados: matrizes simtricas, formas bilineares simtricas e formas quadrticas.
No texto, apresentaremos as conexes entre eles, mas no nos aprofundaremos no
estudo das formas quadrticas e na classificao das formas bilineares. Gostaramos apenas de chamar a ateno para o fato de que esses dois conceitos oferecem
inmeras aplicaes em questes de otimizao e de tratamento de dados.

217

Captulo 10. Cnicas, Matrizes Simtricas e Formas Quadrticas

10.1

Cnicas

As cnicas, ou seces
cnicas, foram estudadas pelos gregos e desenvolvidas a partir de
suas propriedades geomtricas. Pouco se sabe
a respeito dos precursores do estudo das cnicas. Restaram apenas
os trabalhos de Apollonius de Perga (260-170
A. C.). Nesses trabalhos, no s foram compilados os resultados conhecidos na poca como
tambm apresentada de
forma sistemtica a deduo das propriedades
das cnicas.

Figura 10.1: Sees de um Cone

Abaixo daremos a definio das cnicas proposta por Apollonius.


Definio 10.1
y
P

A parbola obtida por considerar


os pontos P do plano que satisfazem
dist(F, P ) = dist(P, `),
p

onde ` a reta diretriz, e sua equao x = p.

y
P

F1

218

A elipse obtida por considerar os


pontos P do plano que satisfazem
F2

dist(P, F1 ) + dist(P, F2 ) = 2a.


(10.1)

Jones Colombo e Jos Koiller (texto em preparao)

10.1. Cnicas

A hiprbole obtida por considerar os


pontos P, P 0 do plano que satisfazem

P0

dist(P 0 , F1 ) dist(P 0 , F2 ) = 2a. (10.2)

F1
x
F2

ou
dist(P, F1 ) dist(P, F2 ) = 2a. (10.3)

possvel, a partir das definies acima, obter as seguintes equaes padres:


x2 y 2
x2 y 2
+
=
1
ou
2 = 1,
a2
b2
a2
b
as quais descrevem uma parbola, uma elipse, ou uma hiprbole, respectivamente.
Para exemplificar como feita a passagem da definio acima at a equao,
vamos tratar de forma completa somente o caso da parbola, que, das trs, a
mais simples de deduzir.
y 2 = 4px,

10.1.1

Equao da Parbola

Considere a > 0. Defina p = a = c e introduza um sistema de coordenada xy


tal que o eixo do x passe por cima dos focos e esse tenha coordenadas F = [ p0 ],
e o eixo do y seja paralela reta diretriz ` e satisfaa a equao x = p. Da
definio da parbola
dist(F, P ) = dist(P, `),
p
se P = [ xy ], segue que dist(F, P ) = (x p)2 + y 2 e dist(P, `) = |x + p|. A
equao fica
p
(x p)2 + y 2 = |x + p|.
Elevando ao quadrado ambos o membros dessa equao, e simplificando, obtemos:
y 2 = 4px.

10.1.2

Equao da Elipse

Considere a > b > 0. Defina c = a2 b2 que conhecida como a distncia


focal da elipse. Vamos introduzir um sistema de coordenadas xy, de tal forma
que os focos da elipse fiquem sobre o eixo x e tenham coordenadas F1 = [ c0 ] e
F2 = [ 0c ], denominados focos esquerda e direita, respectivamente. Escolha
o eixo do y de tal forma que ele seja a mediatriz do segmento F1 F2 . Com esse
sistema de coordenadas, a equao 10.1 torna-se
p
p
(x + c)2 + y 2 + (x c)2 + y 2 = 2a.
Assim, passando o segundo radical para o outro lado da igualdade, elevando ao
quadrado, simplificando, e usando a relao c2 = a2 b2 , obtemos a equao
padro da elipse
x2 y 2
+ 2 = 1.
a2
b
Jones Colombo e Jos Koiller (texto em preparao)

219

Captulo 10. Cnicas, Matrizes Simtricas e Formas Quadrticas

10.1.3

Equao da Hiprbole

Considere a > b > 0. Defina c = a2 + b2 que conhecido como a distncia


focal da Hiprbole. Aqui tambm introduza um sistema de coordenada xy tal
que o eixo do x passe por cima dos focos que tenham coordenadas F1 = [ c0 ] e
F2 = [ 0c ], denominados focos esquerda e direita. Escolha o eixo de y de modo
que ele seja a mediatriz do segmento F1 F2 . Com esse sistema, as equaes 10.2 e
10.3 tornam-se, respectivamente,
p
p
p
p
(x + c)2 + y 2 (x c)2 + y 2 = 2a e (x + c)2 + y 2 (x c)2 + y 2 = 2a.
Escolhendo qualquer uma dessas equaes, procedendo de forma idntica ao que
foi feito com a equao da elipse, e usando que c2 = a2 + b2 , obtemos a equao
padro da hiprbole
x2 y 2
2 = 1.
a2
b

10.1.4

Excentricidade e Propriedades das Cnicas

A seguir iremos definir alguns conceitos importantes a respeito das cnicas.


Diremos que as diretrizes da elipse e da hiprbole so as retas:
y=

a
a
e x = , respectivamente. A circunferncia no tem diretriz.
e
e

Observao 10.2
Se tivermos
na elipse ou nahiprbole b > a > 0, a distncia focal ser, respectivamente, c = b2 a2 , c = a2 + b2 . Devemos escolher o sistema de coordenadas
de maneira que os focos tenham coordenadas F1 = [ c0 ] e F2 = [ 0c ] e, nesse caso,
as diretrizes sero y = eb .
As cnicas possuem um invariante que nos permite defini-las mais sinteticamente e nos oferece uma outra viso sobre a natureza delas. Para esclarecer
melhor isso, introduziremos a noo de excentricidade e, que , por definio,
e = ac .
Segue da definio de excentricidade que, se a cnica for uma elipse, ento,
0 e < 1 (na circunferncia, e = 0); e se for uma hiprbole, ento e > 1, e se for
uma parbola, ento, e = 1.
Proposio 10.3
Fixe um ponto F (Foco), uma linha ` (a diretriz), que no contenha F , e escolha um nmero Real positivo e (a excentricidade). Considere que os pontos P
satisfaam
dist(P, F ) = e dist(P, `).
Mostre que: a) se 0 < e < 1, obtemos uma elipse; b) se e = 1, obtemos uma
parbola; c) se e > 1, obtemos uma hiprbole.
Demonstrao: veja o exerccio r10.1 e figura 10.1.4 que ilustra a propriedade.
220

Jones Colombo e Jos Koiller (texto em preparao)

10.2. Operadores Autoadjuntos

y
e=2

e=2

e=1

F
e=

1
2

Nos exerccios, exibiremos outras propriedades interessantes das cnicas. No


intuito de mostrar que toda equao do 2a grau pode ser vista como uma cnica
em um sistema de coordenadas ortonormal, vamos apresentar uma famlia de
operadores lineares, conhecida como famlia de operadores autoadjuntos.

10.2

Operadores Autoadjuntos

Seja h, i um produto interno em Rn . Diremos que um operador linear T :


Rn Rn ser um operador autoadjunto se a matriz [T ] , com respeito uma
base ortonormal , for simtrica.


2
Suponha que T : R2 R2 seja dado por [ xy ] 7 3x+4y
4x7y . Considerando R
2
com o produto interno usual e a base cannica do R , temos que a matriz


3
4

[T ] =
4 7
simtrica e, portanto, esse operador um operador autoadjunto.
Teorema 10.4
Sejam h , i um produto interno em Rn e T : Rn Rn um operador linear. Ento,
T um operador autoadjunto se, e somente se,
hT u, vi = hu, T vi , para todo u, v Rn .
Demonstrao: veja o exerccio r10.2
Vamos verificar tal propriedade com a transformao T : R2 R2 definida
acima e com o produto interno usual do R2 . Considere u = [ xx12 ] e v = [ yy12 ] ento,

 1 +4x2  y1
hT u, vi = 3x
4x1 7x2 , [ y2 ]
= 3x1 y1 + 4x2 y1 + 4x1 y2 7x2 y2
= 3x1 y1 + 4x1 y2 + 4x2 y1 7x2 y2
= x1 (3y1 + 4y2 ) + x2 (4y1 7y2 )

 1 +4y2 
= [ xx12 ] , 3y
= hu, T vi .
4y1 7y2
Jones Colombo e Jos Koiller (texto em preparao)

221

Captulo 10. Cnicas, Matrizes Simtricas e Formas Quadrticas

Corolrio 10.5
Suponha que T : Rn Rn seja um operador autoadjunto; ento a matriz de T
ser simtrica com respeito a qualquer base ortonormal.
Proposio 10.6
Seja h , i um produto interno em Rn . Se T : Rn Rn um operador autoadjunto
ento:
a) autovetores correspondentes a autovalores distintos so ortogonais;
b) T sempre possui pelo menos um autovalor.
Demonstrao: veja o exerccio r10.3
Lema 10.7
Seja T : Rn Rn um operador autoadjunto. Se o subespao W Rn T invariante, ento seu complemento ortogonal W tambm o .
Demonstrao: considere u W e v W , ento T u W e
hu, T vi = hT u, vi = 0.
Mas isso implica que T v W , logo W tambm T -invariante.
Teorema 10.8 (Teorema Espectral)
Seja h , i um produto interno em Rn . Se T : Rn Rn um operador autoadjunto,
ento existe uma base ortogonal de Rn composta por autovetores de T .
Demonstrao: veja o exerccio r10.5.
Exemplo 10.9
 x+3y 
. Seja C a base
Considere R2 com o produto interno usual e T ([ xy ]) = 3x7y
cannica do R2 , chame


1
3
C
. Segue que A (x) = x2 + 6x 16 = (x 2)(x + 8).
A = [T ]C =
3 7
Como a matriz A simtrica, segue que T autoadjunto e, portanto, pelo
teorema 10.8 (Teorema Espectral) este operador admite uma base de autovetores
ortonormal. Vamos determin-la.
(i) Por subtrair = 2 da diagonal da matriz A, obtemos


1
3 x
[ ] = [ 00 ] x + 3y = 0.
3 9 y
 
E, portanto, um autovalor associado a = 2 3y
= y [ 31 ].
y
(ii) Ao invs de seguir o procedimento padro, vamos usar a informao que o
Teorema Espectral nos fornece. Sabemos que os autovetores associado ao autovalor = 2 so ortogonais [ 31 ], e, como estamos em R2 , um autovetor associado
a = 8 deve ser [ 13 ]. De fato, veja que


1
3 1
[ 3 ] = [ 248 ] = 8 [ 13 ] .
3 7
222

Jones Colombo e Jos Koiller (texto em preparao)

10.3. Formas Bilineares Simtricas e Formas Quadrticas




Normalizando esses vetores, obtemos uma base ortonormal =



1/ 10

. A matriz mudana de coordenadas


3/ 10
"
#
P = [I] =

3
10
1
10

10
3
10

3/ 10

1/ 10


,

Como e so bases ortonormais, temos que P ortogonal, isto , P t = P 1 .


com base nisso, teremos


2
0
D=
= P t AP.
0 8

10.3

Formas Bilineares Simtricas e Formas Quadrticas

Diremos que uma aplicao f : Rn Rn R ser bilinear se ela satisfizer as


seguintes propriedades para u, v, w Rn e R quaisquer,
f (u + w, v) = f (u, v) + f (w, v) e f (u, v + w) = f (u, v) + f (u, w).
Alm disso, diremos que ela simtrica se
f (u, v) = f (v, u) para quaisquer que sejam u, v Rn .
Como exemplos de formas bilineares simtrica, podemos citar os produtos
internos sobre Rn .
s formas bilineares simtricas, podemos associar, para cada base, uma matriz
simtrica A da seguinte forma: fixe uma base = {v1 , v2 , . . . , vn } deP
Rn , tome
n
u e v
de Rn . Calculando as suas coordenadas, temos u =
i=1 xi vi ,
Pvetores
n
v = j=1 yj vj ento,
!
n
n
X
X
f (u, v) = f
xi v i ,
y j vj
i=1

=
=

n
X

xi f

i=1
n X
n
X

j=1

vi ,

n
X

!
y j vj

j=1

xi yj f (vi , vj ).

i=1 j=1

Portanto, para calcular f (u, v), basta saber os valores f (vi , vj ), 1 i, j n.


Se criarmos a matriz (simtrica) A = [f ] = [f (vi , vj )], isto , a matriz que na
posio ij tem o valor f (vi , vj ), ento,


x1
f (v1 , v1 ) f (v1 , v2 ) f (v1 , vn )
y1
x2 f (v2 , v1 ) f (v2 , v2 ) f (v2 , vn ) y2


f (u, v) = ..
.. .
..
..
..
...
.
.
.
.
.
xn
f (vn , v1 ) f (vn , v2 ) f (vn , vn ) yn
Jones Colombo e Jos Koiller (texto em preparao)

223

Captulo 10. Cnicas, Matrizes Simtricas e Formas Quadrticas

Chamamos a matriz A = [f ] = [f (vi , vj )] de matriz associada forma


bilinear simtrica na base .
Exemplo 10.10
Considere a forma bilinear f do R3 definida por
h x1 i h y1 i
x2 , y2
= 2x1 y1 4x2 y1 8x3 y1 4x1 y2 +x2 y2 +7x3 y2 8x1 y3 +7x2 y3 +5x3 y3 .
f
y3
x3
Seja C = {e1 , e2 , e3 } a base cannica do R3 . Calculando f (e1 , e1 ) = 2, f (e1 , e2 ) =
4 e todas as outras possibilidades, obtemos a matriz

2 4 8
7 .
[f ]C = 4 1
8 7
5
Definio 10.11
Dizemos que uma aplicao Q : Rn R ser uma forma quadrtica, se Q(u) =
f (u, u) para alguma forma bilinear simtrica f de Rn .
H uma maneira de, considerando uma forma quadrtica Q, obtermos a forma
bilinear f necessria para a definio 10.11. Considere a aplicao f : Rn Rn
Rn dada por
f (u, v) =

1
[Q(u + v) Q(u) Q(v)] (Frmula de Polarizao).
2

Para maiores detalhes, veja o exerccio r10.6.


Portanto, dado uma forma quadrtica Q : Rn R, podemos determinar uma
forma bilinear simtrica f , atravs da frmula de polarizao. Alm disso, se fixarmos uma base de Rn podemos associar uma matriz A = [f ] forma bilinear
f . Por isso, tambm, chamamos a matriz A de matriz da forma quadrtica
Q com respeito base .
possvel fazer o caminho inverso. Se tivermos uma matriz A = [aij ]nn ,
simtrica, poderemos determinar uma forma quadrtica fazendo Q(u) = ut Au.
Observao 10.12
Seja "
f uma
# forma bilinear representada pela matriz simtrica A = [aij ]. Considere
x1
x2

u=

..
.

. Ento a forma quadrtica Q pode ser representada por

xn


a11 a12 a1n
x1


 a21 a22 a2n x2

Q(u) = f (u, u) = x1 x2 xn ..
.. . .
.. ..
.

.
.
.
.
an1 an2 ann
xn
X
X
X
=
aij xi xj =
aii x2i +
aij xi xj .
i,j

i<j

Segue que Q ser uma forma quadrtica se, e somente se, Q(u) for um polinmio homogneo de grau 2 nas entradas do vetor u.
224

Jones Colombo e Jos Koiller (texto em preparao)

10.3. Formas Bilineares Simtricas e Formas Quadrticas

Pela observao 10.12, dada a aplicao Q : R2 R, definida por


Q ([ xx12 ]) = ax21 + bx1 x2 + bx22 , onde a, b, c R,
temos que esta uma forma quadrtica, pois consiste de um polinmio homogneo
de grau 2. Alm disso, fcil verificar que
 


 a b x1
x1
2
.
Q ([ x2 ]) = x1 x2 b
c x2
2
Essa observao se aplica a qualquer n 3, veja o exemplo 10.13.
Exemplo 10.13
Encontre a matriz simtrica A, associada forma quadrtica
h x i
Q yz
= 2x2 8xy + y 2 16xz + 14yz + 5z 2 .
Veja que os coeficientes que aparecem na diagonal so os mesmos que acompanham os termos x2 , y 2 e z 2 . Os coeficientes que acompanham os outros termos
devem aparecer, divididos por 2, fora da diagonal principal. Por exemplo: 8
que o coeficiente que acompanha xy deve aparecer, dividido por 2, na linha 1
coluna 2 e na linha 2 coluna 1. Ento,


2
4
8
x
h x i 


1
7
y .
Q yz
= x y z 4
8
7
5
z
A matriz acima matriz de Q com respeito base cannica do R3 (veja
exemplo 10.10).

10.3.1

Mudana de Coordenada e Formas Bilineares Simtricas

Suponha que x, y so as coordenadas de dois vetores do Rn em relao base


= {u1 , . . . , un }. Digamos que x0 e y0 representam os mesmos os vetores em
relao a outra base = {v1 , . . . , vn }. Dessa forma, existe uma matriz invertvel
P = [I] , que satisfaz
x = P x0 e, de outra forma, y = P y0 .
Se f : Rn Rn R uma forma bilinear simtrica e A = [f (ui , uj )], ento:
f (x, y) = xt Ay = (P x0 )t AP y0 = x0t P t AP y0 = f (x0 , y0 ).
Segue que a matriz de f , com respeito a base , isto , B = [f (vi , vj )], deve
satisfazer B = P t AP .
Definio 10.14
Diremos que uma matriz B ser congruente a uma matriz A (e escrevemos
B
= A), se existir, uma matriz invertvel P tal que B = P t AP .
Jones Colombo e Jos Koiller (texto em preparao)

225

Captulo 10. Cnicas, Matrizes Simtricas e Formas Quadrticas

Observao 10.15
No confunda o conceito de congruncia (definio 10.14) entre matrizes com o
de semelhana (definio 7.11) entre matrizes. Apesar disso, se a matriz P for
ortogonal, os dois conceitos iro coincidir.
De acordo com a definio acima, podemos dizer que matrizes associadas
a uma mesma forma quadrtica, em relao a bases diferentes, sero sempre
congruentes, e, reciprocamente, matrizes congruentes estaro associadas a uma
mesma forma quadrtica, s que relacionadas a outro sistema de coordenadas.
Exemplo 10.16
Considere u = [ xx12 ] R2 e a forma quadrtica q : R2 R, definida por q(u) =
x21 + 6x1 x2 7x22 . Esta pode ser reescrita, em termos da matriz associada, da
seguinte forma:

 

 1
3 x1
x1
q([ x2 ]) = x1 x2
.
3 7 x2
  

1/ 10
3/ 10

,
(veja o exemplo
Se escolhemos outra base, digamos =
1/ 10
3/ 10
10.9). Sabemos que a base inicial era a cannica, portanto a matriz de mudana
de coordenadas
"
#
P =

[I]

3
10
1
10

10
3
10

Se [u] = [ yy12 ] so as coordenadas do vetor u com respeito base , ento:


# 
#
"
  " 3
1

3
1




y
x1
1
10
10
.
e x1 x2 = y1 y2 1
= 110 310
3
y
x2
2
10
10
10
10
Dessa forma, temos que
q(u) =

q([ xx12


= y1

= y1


 
 1
3 x1
]) = x1 x2
3 7 x2
"
#t 
# 
" 3
1

 310 1
1
3
y1
10
10
10
y2 1
3
1
3
3
7
y2
10
10
10
10

 
 2
0 y1
y2
= 2y12 8y22 = q([ yy12 ]).
0 8 y2


Quem j estudou equaes do 2o grau (Ax2 + Bxy + Cy 2 + Dx + Ey + F = 0)


sabe que a principal dificuldade retirar o fator xy, mas as contas acima nos
sugerem uma tcnica para resolvermos esse problema.

10.4

Algoritmo de Diagonalizao

Apesar de j conhecermos um procedimento para diagonalizar matrizes simtricas, vamos apresentar um algoritmo que nos permite diagonalizar uma matriz
226

Jones Colombo e Jos Koiller (texto em preparao)

10.4. Algoritmo de Diagonalizao

simtrica sem precisar passar pelo processo de calcular o polinmio caracterstico, os autovalores e autovetores. Esse algoritmo exige apenas o conhecimento
de operaes elementares. Contra esse procedimento, pesa o fato de que a base
na qual a matriz simtrica se torna diagonal nem sempre ortonormal.
Vamos exibir um algoritmo que permite obter uma matriz invertvel P que
diagonaliza a matriz A. Existe uma sequncia de operaes elementares aplicado
s linhas e uma forma de aplicar, essas operaes, s colunas, que transforma a
matriz A na matriz diagonal D, alm disso, D = P t AP .
Antes de iniciar a leitura do procedimento, veja o exemplo ilustrativo a seguir.
Observao 10.17
Considere a matriz simtrica


1 2
A=
.
2 5
Recordemos que se quisermos fazer uma operao elementar entre as linhas, por
exemplo, `2 `2 2`1 , basta realizarmos a mesma operao na matriz identidade,
obtendo uma matriz que chamamos de matriz elementar E. Ento, se fizermos
EA, obteremos a mesma matriz que havamos obtido quando fizemos a operao
elementar em A. Alm disso, se tomarmos E t e fizermos AE t , obteremos a mesma
matriz A que sofreu a operao c2 c2 2c1 nas colunas.
Veja o exemplo:


1 0
EA =
2 1



 



t 
1 0
1 2
1 2
1 2
1 0
t
=
.
=
e AE =
2 1
2 5
0 1
2 5 2 1

Tendo ele como parmetro, vamos descrever o algoritmo:


Algoritmo
Passo 0 Dada a matriz simtrica A = [aij ] de ordem n.
Passo 1 Forme uma matriz n 2n em blocos M = [A1 : I], em que A1 = A a
metade esquerda de M e a metade direita de M a matriz identidade.
Passo 2 Ao examinar o termo a11 de M h trs possibilidades:
i1
Caso I Se a11 6= 0, ento faa as operaes `i `i aa11
`1 com i = 2, 3, . . . , n e,
ai1
depois, faa o mesmo com as colunas, isto , ci ci a11 c1 com i = 2, 3, . . . , n .
Essas operaes iro reduzir a matriz M forma


a11 0
M
.
0 A2

Caso II - Se a11 = 0, mas akk 6= 0, para algum k > 1. Nesse caso, faa `1 `k
e, tambm, c1 ck .
Essas operaes reduzem a matriz ao Caso I.
Caso III - Todas as entradas diagonais aii = 0, mas algum aij 6= 0. Nesse caso,
faa `i `j + `i e o mesmo na coluna ci cj + ci (Essas operaes levam 2aij
para a i-sima entrada diagonal). Assim M volta situao do Caso II.
Jones Colombo e Jos Koiller (texto em preparao)

227

Captulo 10. Cnicas, Matrizes Simtricas e Formas Quadrticas

Passo 3 Repita o passo 2 com cada nova matriz Ak (suprimindo as primeiras


linhas e colunas da matriz precedente) at que A esteja diagonalizada. Ento, M
torna-se M 0 = [D : Q], onde D diagonal.
Passo 4 Tome P = Qt . Ento, D = P t AP .
Observao 10.18
No passo 2, as operaes com as linhas modificam os dois lados de M , mas as
operaes com as colunas modificam apenas o lado esquerdo de M .
Exemplo10.19

1
2 3
5 4. Utilizando, nas operaes, o algoritmo anterior, vamos
Seja A = 2
3 4
8
determinar uma matriz no singular P tal que D = P t AP seja diagonal.
Iniciamos contruindo a matriz M = [A : I]

1
2 3 1 0 0
5 4 0 1 0 .
M = [A : I] = 2
3 4
8 0 0 1
Aplicando as operaes `2 `2 2`1 e `3 `3 + 3`1 nas linhas de M , e depois,
aplicando as operaes correspondentes c2 c2 2c1 e c3 c3 +3c1 nas colunas,
obtemos

1 0
0
1 0 0
1 2 3
1 0 0
0 1
2 2 1 0 .
2 2 1 0 e depois, 0 1
0 2 1
3 0 1
0 2 1
3 0 1
Em seguida, faremos `3 `3 2`2 e a operao correspondente c3 c3 2c2
obtendo, assim,

1 0
0
1
0 0
1 0
0
1
0 0
0 1
2 2
1 0 e depois, 0 1
0 2
1 0 .
0 0 5
7 2 1
0 0 5
7 2 1
Dessa forma, A foi diagonalizada. Escrevemos

1 2
7
1 0
0
1 2 e, portanto, D = P t AP = 0 1
0 .
P = 0
0
0
1
0 0 5
Observe que P a transposta da metade direita da matriz final.
Por fim, vamos justificar o algoritmo. Considere a matriz em blocos M =
[A : I]. O algoritmo aplica uma sequncia de operaes elementares nas linhas,
seguida de uma sequncia de operaes nas colunas do lado esquerdo de M , que
a matriz A. Isso equivale a pr-multiplicar A por uma sequncia de matrizes
elementares, digamos E1 , E2 , . . . , Ek e, depois, a multiplicar A pelas transpostas
228

Jones Colombo e Jos Koiller (texto em preparao)

10.5. Classificao das Equaes do 2o grau

das Ei0 s . Assim, quando o algoritmo terminar, a matriz diagonal D, esquerda


de M , ser igual a
D = Ek E2 E1 AE1t E2t Ekt , com Q = Ek E2 E1 .
Por outro lado, o algoritmo somente aplica as operaes elementares com as
linhas matriz identidade I do lado direito de M . Assim, quando o algoritmo
terminar, a matriz direita de M , igual a
Ek E2 E1 I = Ek E2 E1 = Q.
E por tomar P = Qt , iremos obter D = P t AP .

10.5

Classificao das Equaes do 2o grau

Agora, vamos cumprir o prometido no incio do captulo e aplicar a teoria para


classificar todas as formas quadrticas. Para isso, iniciemos com uma equao do
2o grau completa nas variveis x, y da forma:
g(x, y) = b11 x2 + b12 xy + b22 y 2 + a1 x + a2 y + a = 0.
Se fizermos
 




x
b11 b212
x=
, A = b12
e A1 = a1 a2 ,
y
b22
2
ento, poderemos escrever


 b11
g(x, y) = x y b12
2

b12
2

 
 

 x
x
+ a1 a2
+a
y
b22 y

= xt Ax + A1 x + a = 0.
Como A uma matriz simtrica, pelo teorema 10.8, existe uma matriz invertvel e ortogonal P tal que


 0
1 0
x
t
= P AP e seja y = 0 tal que x = P y.
0 2
y
E a equao inicial tomar a forma

g(x0 , y 0 ) = yt P t AP y + A1 P y + a

 
 
 0 0  1 0 x0

 x0
= x y
+ d1 d2
+a
0 2 y 0
y0
= 1 x02 + 2 y 02 + d1 x0 + d2 y 0 + a = 0,
onde d1 e d2 sero os coeficientes obtidos ao fazer A1 P . Voltando equao,
temos duas situaes:
Jones Colombo e Jos Koiller (texto em preparao)

229

Captulo 10. Cnicas, Matrizes Simtricas e Formas Quadrticas

Se 1 2 6= 0 (Se 1 2 < 0, temos uma hiprbole, e se 1 2 > 0, temos a elipse)


podemos completar os quadrados, se necessrio. E, com isso, obtemos

2

2
d1
d2
0 0
0
0
q(x , y ) = 1 x +
+ 2 y +
+ b = 0,
21
22
 2  2
d1
d2
onde b = a 2
2
. Assim, basta realizarmos uma translao no
1
2
R2 , dada por

x00 = x0 +

d1
,
21

y 00 = y 0 +

d2
,
22

para que a equao se torne


q(x00 , y 00 ) = 1 x002 + 2 y 002 + b = 0.
Se 1 2 = 0 (parbola) Pelo menos um dos dois autovalores no nulo, e digamos que 1 6= 0 ento, podemos completar o quadrado com respeito a x0 e
obtemos

2
d1
0 0
0
q(x , y ) = 1 x +
+ d2 y 0 + b0 = 0,
21
 2
d1
onde b0 = a 2
. Fazendo a mudana de coordenadas
1
x00 = x0 +

d1
,
21

y 00 = y 0 ,

a equao se torna
q(x00 , y 00 ) = 1 x002 + d2 y 002 + b0 = 0.
Em ambos os casos, fcil classificar a equao. Alm disso, podemos determinar
quais mudanas de coordenadas foram necessrias para lev-la a essa configurao.
Percebemos, tambm, que esse procedimento se generaliza para qualquer nmero de variveis 2.
Observao 10.20
Observe que no procedimento anterior, passamos da matriz




b11 b212
1 0
A = b12
para a matriz
0 2
b22
2
por uma mudana de coordenadas. Utilizamos a matriz P , que ortogonal, e
obtemos



1
1 0
det
= det(A) =
4b11 b22 b212 .
0 2
4
Com exceo dos casos nos quais a equao representa figuras degeneradas, a
classificao dessa equao em elipse, parbola ou hiprbole depende, apenas, do
sinal das constantes 1 e 2 , e podemos determinar esses sinais se conhecemos o
produto 1 2 = det(A). Esse sinal pode ser obtido calculando 4b11 b22 b212 . Por
isso, chamamos esse nmero de discriminante da equao do 2o grau.
230

Jones Colombo e Jos Koiller (texto em preparao)

10.5. Classificao das Equaes do 2o grau

Exemplo 10.21
Vamos aplicar o procedimento descrito acima para classificar a equao dada por
4x2 24yx + 56x + 11y 2 58y + 95 = 0.
Inicialmente, podemos escrever
g(x, y) = 4x2 24yx + 11y 2 + 56x 58y + 95

 
 

 4 12 x

 x
= x y
+ 56 58
+ 95
12 11
y
y
= xt Ax + A1 x + 95 = 0.

Depois, precisamos calcular a base de autovetores de





4 12
A=
A (x) = x2 15x 100 = (x + 5)(x 20).
12 11
i) Calculando o autovetor associado a 1 = 5, obtemos [ 43 ].
ii) O autovetor associado a 2 = 20 [ 34 ].
nh
i h
io
4/5
3/5
Portanto, em relao base =
, as coordenadas dos veto3/5 ,
4/5
 x0 
res sero escritas por ser u = y0 e considerando a matriz

 
 0
4/5 3/5
x
x
P =
, ento
=P 0 .
y
3/5
4/5
y


E, no sistema de coordenadas , a equao se torna


 

 

 x0
 0 0  5 0 x0
+ 95
+ 10 80
g(x , y ) = x y
y0
0 20 y 0
0

= 5x02 + 20y 02 + 10x0 80y 0 + 95


= 5(x02 2x0 ) + 20(y 02 4y 0 ) + 95
= 5(x02 2x0 + 1) + 20(y 02 4y 0 + 4) + (95 + 5 80)
= 5(x0 1)2 + 20(y 0 2)2 + 20.
Fazendo a mudana de coordenadas
x00 = x0 1,

y 00 = y 0 2,

obtemos
g(x00 , y 00 ) = 5x002 + 20y 002 + 20 = 0

x002
y 002 = 1.
4

Que , portanto, uma hiprbole no sistema x00 y 00 , que no cruza o eixo y 00 .


Jones Colombo e Jos Koiller (texto em preparao)

231

Captulo 10. Cnicas, Matrizes Simtricas e Formas Quadrticas

00

00

5 y

x
1
3

3x

2
4
Vamos utilizar o segundo mtodo (o algoritmo) para eliminar o fator xy na
equao
4x2 24yx + 56x + 11y 2 58y + 95 = 0
 
 



 x
4 12 x
x y
+ 56 58
+ 95 = 0.
12
11 y
y


Considere a matriz


4 12 1 0
M=
.
12
11 0 1
Para escalon-la, faa `2 `2 + 3`1 e c2 c2 + 3c1 e obtemos


4
0 1 0
.
0 25 3 1
Tomando




1 3
4
0
P =
, temos que
= P t AP.
0 1
0 25
 0
Portanto, se as coordenadas de u so xy0 , com respeito base = {[ 10 ] , [ 31 ]},
ento


 
 0
1 3
x
x
, e sabemos que
=P 0 .
P =
0 1
y
y
Ento,

  0
 
 0 0 4 0

 x0
x
0 0
q(x , y ) = x y
+ 56 110
+ 95
0 25 y 0
y0
= 4x02 25y 02 + 56x0 + 110y 0 + 95

22
= 4(x02 + 14x0 + 49) 25 y 02 y 0 +
5
= 4(x0 + 7)2 25(y 02
232

22
5

2 !2


4 49 + 25

22
5

2

11 2
) + 20.
5
Jones Colombo e Jos Koiller (texto em preparao)

+ 95

Exerccios

Fazendo x00 = x0 + 7 e y 00 = y 0

11
,
5

temos

4x002 25y 002 + 20 = 0

x002 y 002
+ 4 = 1.
5
5

y 00
y
5

0
1,

x00
1, 35

y0

x0
5

1
1

Veja que o sistema de coordenadas x00 y 00 no ortogonal nem preserva as


medidas.
Com as tcnicas propostas aqui, possvel classificar qualquer equao do
segundo grau como uma das situaes: degeneradas ou como
y 2 = 4px,

x2 y 2
x2 y 2
+
=
1,
2 = 1.
a2
b2
a2
b

Exerccios resolvidos
Demonstre a proposio 10.3. Fixe um ponto F (Foco), uma linha ` (a
diretriz) que no contm F , escolha, um nmero Real no-negativo e (a
excentricidade). Considere os pontos P , satisfazendo

R10.1.

dist(P, F ) = e dist(P, `).


Mostre que, se: 0 e < 1 obtemos uma elipse; se e = 1, obtemos uma
parbola; e se e > 1, obtemos uma hiprbole.
Soluo: Observe, que, se e = 0, claramente obtemos uma circunferncia
de raio 0 e centro P . Suponha, que P = [ xy ] e, F = [ p0 ] e ` seja o eixo do y,
isto , a reta x = 0. Pela definio, temos
p
(x p)2 + y 2 = e|x| (1 e2 )x2 2px + y 2 + p2 = 0.
Jones Colombo e Jos Koiller (texto em preparao)

233

Captulo 10. Cnicas, Matrizes Simtricas e Formas Quadrticas

Se e = 1, ento, podemos reescrever a equao acima como


p
y 2 = 2p(x ),
2
que uma parbola.
Se e 6= 1, podemos dividir por 1 e2 6= 0. Completando o quadrado e
p2
dividindo por 1e
2 , obtemos
2
p
2
1e
p2 e2
(1e2 )2

y2
p2 e2
1e2

= 1.

Se e < 1, ento 1 e2 > 0 e, com isso, temos uma elipse com


a2 =

p2 e 2
p2 e 2
2
e
b
=
.
(1 e2 )2
1 e2

Se e > 1, ento 1 e2 < 0 e, com isso, temos uma hiprbole.


Prove o teorema 10.4. Sejam h , i um produto interno em Rn e T :
Rn Rn um operador linear. Ento, T ser um operador autoadjunto se,
e somente se,

R10.2.

hT u, vi = hu, T vi , para todo u, v Rn .


Soluo: Seja = {u1 , u2 , . . . , un } a base ortonormal de Rn , na qual a
matriz [T ] = [aij ] simtrica. Os coeficientes aij so determinados por

T (uj ) =

n
X
i=1

aij ui , para todo 1 j n.

Por calcular
hT (uj ), uk i =

* n
X

+
aij ui , uk

i=1

= akj = ajk
*
+
n
X
= uj ,
aik ui = huj , T (uk )i .
i=1

E, com isso, vemos que essa propriedade verdadeira se substiturmos os


vetores u, v pelos vetores da base . Seja agora u, v Rn dois vetores
234

Jones Colombo e Jos Koiller (texto em preparao)

Exerccios

quaisquer, e por escrev-los em termos da base , obtemos u =


P
e v = kj=1 yj uj e, portanto,
*
hT u, T vi =
=

T(

n
X

j=1

+
k
X
T (ui ), T (
yj uj )

xi

j=1

n X
k
X
i=1 j=1

n X
k
X
i=1 j=1

n
X

xi yj hT (ui ), T (uj )i
xi yj hui , uj i

*
xi

ui ,

i=1

xi ui

i=1

i=1

+
k
X
xi ui ), T (
yj uj )

i=1
n
X

Pn

* n
X

k
X

+
yj uj

j=1

xi ui ,

i=1

k
X

+
yj uj

j=1

= hu, vi .

Reciprocamente, suponha que:


hT u, vi = hu, T vi para todo u, v Rn .
E seja = {v1 , v2 , . . . , vn } uma base ortonormal qualquer de Rn , ento, a
matriz [T ] = [bij ] ser determinada por satisfazer
T (vj ) =

n
X

bij vi .

i=1

E como uma base ortonormal temos que


blj = hT (vj ), vl i = hvj , T (vl )i = bjl .
Portanto, [T ] simtrica. Da, segue que, se a matriz de uma transformao simtrica, ento ela simtrica, tambm, com relao a qualquer base
ortonormal.
Prove a proposio 10.6. Seja h , i um produto interno em Rn . Se T :
Rn Rn um operador autoadjunto. Ento:

R10.3.

a) Autovetores correspondentes a autovalores distintos so ortogonais.


b) T sempre possui pelo menos um autovalor.
Jones Colombo e Jos Koiller (texto em preparao)

235

Captulo 10. Cnicas, Matrizes Simtricas e Formas Quadrticas

Soluo: a) Sejam i 6= j quaisquer:


(i j ) hui , uj i = hi ui , uj i hui , j uj i
= hT ui , uj i hui , T uj i = hT ui , uj i hT ui , uj i = 0,
uma vez que T autoadjunto. Como i j 6= 0 e (i j ) hui , uj i = 0,
isso implica que hui , uj i = 0.
b) Considere a aplicao : Rn R, definida por (u) = hT u, ui, que
contnua e dever assumir um mximo em K : {u Rn : kuk = 1}, uma
vez que o mesmo compacto. Seja u1 esse ponto, e 1 o valor de nesse
ponto. Ento, para todo u Rn , vale


1
1
2
u,
u
h(T 1 I)u, ui = kuk (T 1 I)
kuk kuk
 



1
1
2
= kuk
T
u ,
u 1 0,
kuk
kuk
mostrando que
h(T 1 I)u, ui 0, u Rn .
Ento, se escolhermos u = u1 + tv, com t R e v Rn , teremos
h(T 1 I)(u1 + tv), u1 + tvi
= t2 h(T 1 I)(v), vi + t [h(T 1 I)(u1 , vi + h(T 1 I)v, u1 i]
+ h(T 1 I)u1 , u1 i
= t2 h(T 1 I)(v), vi + 2t h(T 1 I)u1 , vi 0.
Temos uma equao do 2o grau com o coeficiente que acompanha t2 negativo e, portanto, o discriminante precisa ser menor ou igual a zero, isto ,
h(T 1 I)u1 , vi = 0 para todo v Rn . Ento (T 1 I)u1 = 0, mostrando,
assim, a existncia de um autovalor 1 e de um autovetor u1 .
R10.4.

Mostre que a equao da reta tangente parbola y 2 = 4px em P = [ xy00 ]

y0 y = 2p(x + x0 ).
Soluo: Queremos determinar a equao da reta tangente
y y0 = m(x x0 )
parbola passando por P = [ xy00 ]. Precisamos determinar m. Para isto,
faa a substituio y = mx mx0 + y0 na equao da parbola e teremos

(mxmx0 +y0 )2 = 4px m2 x2 + 2my0 2m2 x0 4p x+m2 x20 2mx0 y0 +y02 .
236

Jones Colombo e Jos Koiller (texto em preparao)

Exerccios

Essa equao do 2o grau s pode ter uma soluo e, portanto, o seu discriminante precisa ser igual a zero, isto ,

2
2my0 2m2 x0 4p 4m2 m2 x20 2mx0 y0 + y02 = 0.
Fazendo as contas obtemos
16p(x0 m2 y0 m + p) = 0 x0 m2 y0 m + p = 0.
Resolvendo para m, obtemos
m=

y0 +

p
y02 4x0 p
.
2x0

y0
Isso nos d m = 2x
visto que P pertence parbola. Substituindo m na
0
equao da reta inicial, obtemos a equao enunciada.

Prove o teorema Espectral 10.8: Seja h , i um produto interno em Rn . Se


T : Rn Rn um operador auto-adjunto, ento existe uma base ortogonal
de Rn composta por autovetores de T .

R10.5.

Soluo: Vamos demonstrar por induo sobre n = dim Rn . No caso que


n = 1, todo operador autoadjunto, uma vez que toda matriz 1 1 simtrica. Suponha o resultado verdadeiro em espao com dimenso n 1,
e vamos provar quando a dimenso n. Seja T : Rn Rn um operador autoadjunto, pela proposio 10.6 b., existe um autovetor unitrio
u1 associado ao autovalor 1 . Considere o subespao W = Span {u1 },
que um subespao T -invariante de dimenso 1. Segue, pelo lema 10.7,
que o subespao, com dimenso n 1, W tambm T -invariante. Logo,
T = T |W : W W tambm autoadjunto, pela hiptese de induo,
existe uma base ortonormal {u2 , . . . , un } W formada por autovetores
de T. Segue que {u1 , u2 , . . . , un } uma base ortonormal formada por autovetores de T .
Seja Q : Rn R uma forma quadrtica associada forma bilinear
simtrica f . Mostre que vale a seguinte identidade:

R10.6.

1
[Q(u + v) Q(u) Q(v)] ,
2
conhecida como frmula de polarizao.
f (u, v) =

Soluo: Sabemos que Q(u) = f (u, u), e seja u, w e v Rn e R. Ento


Q(u + v)Q(u) Q(v)
= f (u + v, u + v) f (u, v) f (v, v)
= f (u, u + v) + f (v, u + v) f (u, v) f (v, v)
= f (u, u) + f (u, v) + f (v, u) + f (v, v) f (u, v) f (v, v)
= 2f (u, v).
Dividindo por 2, obtemos a frmula de polarizao.
Jones Colombo e Jos Koiller (texto em preparao)

237

Captulo 10. Cnicas, Matrizes Simtricas e Formas Quadrticas

Exerccios propostos
P10.1.

Identifique a figura e ache sua posio quando a sua equao for:

a) 2xy + 3x y + 1 = 0;

b) x2 + y 2 + xy x + 1 = 0;

c) 9x2 + 12y 2 + 9z 2 6xy 6yz 1 = 0;

d) 11x2 + 10y 2 + 6z 2 12xy 8yz + 4xz 12 = 0;

e) xy + x + y = 0;

f) 3x2 4 3xy y 2 + 20y 25 = 0;

g) 4xy + 3y 2 + 2 5x + 4 5y = 0;

h) 9x2 + 16y 2 + 25z 2 + 24xy 40x + 30y = 0.


Mostre que as equaes paramtricas x = a cos t e y = b sen t, a > 0,
b > 0 e 0 t < 2 definem uma elipse cuja equao em coordenadas
2
2
cartesianas xa2 + yb2 = 1.

P10.2.

t
Mostre que as equaes paramtricas x = t e y = 4p
, com t R, definem
uma parbola cuja equao em coordenadas cartesianas y 2 = 4px.

P10.3.

Seja cosh t = e +e
e senh = e e
. Mostre que as equaes paramtri2
2
cas x = a cosh t e y = b senh t, a > 0, b > 0 e t R definem uma hiprbole
2
2
cuja equao em coordenadas cartesianas xa2 yb2 = 1.

P10.4.

Para as matrizes abaixo, aplique o algoritmo para encontrar uma matriz


invertvel P , tal que D = P t AP seja diagonal, onde

1 3
2
4 5
7
7 5 e A = 5 6
8 .
A = 3
2 5
8
7
8 9

P10.5.

a) D a transformao linear que descreve o movimento rgido que leva


o segmento de extremos [ 62 ] e [ 12 ] ao segmento de extremos [ 26 ] e [ 12 ],
respectivamente.

P10.6.

b) Mostre que essa transformao uma rotao, e encontre o seu ngulo.


P10.7.

Mostre que a equao da reta tangente elipse

x2
a2

y2
b2

= 1 em P = [ xy00 ]

b 2 x 0 x + a2 y 0 y = a2 b 2 .
Suponha que sejam dadas as retas y = m1 x + k1 e y = m2 x + k2 , as quais
se interceptam em um ponto P . Seja o ngulo entre elas. Ento,

P10.8.

tg =

m2 m1
, m1 m2 6= 1,
1 + m1 m2

onde m1 o coeficiente da reta onde se inicia o ngulo.


238

Jones Colombo e Jos Koiller (texto em preparao)

Exerccios

Seja P um ponto de uma parbola e ` a reta tangente parbola em P .


Sejam `1 a reta passando pelo foco F e o ponto P e `2 a reta que passa por
P , e que paralela ao eixo x, ento os ngulos, no ponto P , entre ` e `1
e entre ` e `2 , so iguais.

P10.9.

`1

P = [ xy ]

`2

Sejam P um ponto sobre uma elipse e ` a reta tangente a esta em P .


Considere `1 a reta ligando o foco em F1 e `2 , a reta ligando o foco F2 a P .
Ento, os ngulos: , entre as retas ` e `1 , e , entre ` e `2 , so iguais.

P10.10.

`1

`2

F1

F2

Jones Colombo e Jos Koiller (texto em preparao)

239

Captulo 10. Cnicas, Matrizes Simtricas e Formas Quadrticas

240

Jones Colombo e Jos Koiller (texto em preparao)

Bibliografia
[1] Paul R. Halmos, Finite-Dimensional Vector Spaces. Springer-Verlag, 1974.
[2] BIBLIOGRAFIA AINDA EST POR FAZER. . .

241