Você está na página 1de 359

lgebra Linear

Este livro ganhou o prmio Jabuti de


Cincias Exatas e Tecnologia, outorgado
pela Cmara Brasileira do Livro, em 1996

Lima, Elon Lages


lgebra linear / Elon Lages Lima. 1.ed. Rio de Janeiro :
IMPA, 2014.
357 p. : il. ; 23 cm. (Coleo matemtica universitria)
Inclui bibliografia.
e-ISBN 978-85-244-0390-3
1. Matrizes. 2. Espaos Vetoriais. I. Ttulo. II. Srie.
CDD-512

COLEO MATEMTICA UNIVERSITRIA

lgebra Linear

Elon Lages Lima

INSTITUTO NACIONAL DE MATEMTICA PURA E APLICADA

Copyright 2014 by Elon Lages Lima


Impresso no Brasil / Printed in Brazil
Capa: Rodolfo Capeto, Noni Geiger e Srgio R. Vaz

Coleo Matemtica Universitria


Comisso Editorial:
Elon Lages Lima
S. Collier Coutinho
Paulo Sad
Ttulos Publicados:
Anlise Real, vol. 1: Funes de uma Varivel Elon Lages Lima
EDP. Um Curso de Graduao Valria Irio
Curso de lgebra, Volume 1 Abramo Hefez
lgebra Linear Elon Lages Lima
Introduo s Curvas Algbricas Planas Israel Vainsencher
Equaes Diferenciais Aplicadas Djairo G. de Figueiredo e Aloisio Freiria Neves
Geometria Diferencial Paulo Ventura Arajo
Introduo Teoria dos Nmeros Jos Plnio de Oliveira Santos
Clculo em uma Varivel Complexa Marcio G. Soares
Geometria Analtica e lgebra Linear Elon Lages Lima
Nmeros Primos: Mistrios e Recordes Paulo Ribenboim
Anlise no Espao Rn Elon Lages Lima
Anlise Real, vol. 2: Funes de n Variveis Elon Lages Lima
lgebra Exterior Elon Lages Lima
Equaes Diferenciais Ordinrias Claus Ivo Doering e Artur Oscar Lopes
Anlise Real, vol. 3: Anlise Vetorial Elon Lages Lima
lgebra Linear. Exerccios e Solues Ralph Costa Teixeira
Nmeros Primos. Velhos Mistrios e Novos Recordes Paulo Ribenboim
Distribuio:
IMPA
Estrada Dona Castorina, 110
22460-320 Rio de Janeiro, RJ
e-mail: ddic@impa.br
http://www.impa.br

Pref
acio

Algebra
Linear e o estudo dos espacos vetoriais e das transformaco es
lineares entre eles. Quando os espacos tem dimensoes finitas, as
transformaco es lineares possuem matrizes. Tambem possuem matrizes as formas bilineares e, mais particularmente, as formas qua

draticas.
Assim a Algebra
Linear, alem de vetores e transformaco es

nulineares, lida tambem com matrizes e formas quadraticas.


Sao

merosas e bastante variadas as situaco es, em Matematica


e em suas

aplicaco es, onde esses objetos ocorrem. Da a importancia


central da

Algebra
Linear no ensino da Matematica.

introdutoria de AlgeO presente livro apresenta uma exposicao


pressupoe conhecimentos anteriores sobre o asbra Linear. Ele nao
natural de um tal
sunto. Entretanto convem lembrar que a posicao

curso no currculo universitario


vem apos um semestre (pelo menos)
de Geometria Analtica a duas e tres dimensoes, durante o qual o
estudante deve adquirir alguma familiaridade, em nvel elementar,
algebrica de ideias geometricas e vice-versa.
com a representacao
Tornou-se quase obrigatorio, ja faz alguns anos, dedicar as pri

meiras sessenta ou mais paginas


de todo livro de Algebra
Linear ao

estudo dos sistemas de equacoes lineares pelo metodo da eliminacao


das matrizes e dos detergaussiana, motivando assim a introducao
definidos os espacos vetoriais.
minantes. Somente depois disso sao
e seguido neste livro, cuja primeira sentenca
Esse costume nao
de espaco vetorial. Mencionarei tres razoes para isso:
e a definicao

de Algebra
vejo vantagem
(a) A definicao
Linear dada acima; (b) Nao
entendidos mais inem longas motivaco es; (c) Sistemas lineares sao

teligentemente depois que ja se conhecem os conceitos basicos


de

Algebra Linear. De resto, esses conceitos (nucleo,


imagem, base,
posto, subespaco, etc), quando estudados independentemente, tem
muitas outras aplicaco es.

gaussiana e apresentado na Secao


9e
O metodo da eliminacao
17. Ele e aplicado para obter respostas a varios

retomado na Secao
de sistemas lineares.
outros problemas alem da resolucao
O livro e dividido em vinte e duas seco es. As oito primeiras de
senvolvem os conceitos fundamentais e as proposico es basicas,
que

formam a linguagem mnima necessaria


para falar inteligentemente

faz a primeira aplicacao


dessas
sobre Algebra
Linear. A nona secao
gaussiana.
ideias, tratando da eliminacao
10, os espacos dispoem de produto interno,
A partir da Secao
o que possibilita o emprego de evocativas noco es geometricas como

destacados
perpendicularismo, comprimento, distancia,
etc. Sao
tipos particulares de operadores lineares, cujas propriedades
demonstradas nas Seco es 13, 14 e 15. O Teorema
especiais sao
13,
Espectral para operadores auto-adjuntos e provado na Secao
onde se demonstra tambem o Teorema dos Valores Singulares
corresponde a` sua cons(Teorema 13.10), cuja grande utilidade nao
pcua ausencia na maioria dos textos elementares.
Outro assunto igualmente importante e igualmente esquecido

no ensino da Algebra
Linear e a pseudo-inversa, que expomos na
16. Trata-se de um topico facil,

Secao
atraente, de grande apelo
para os congeometrico, que constitui um bom campo de aplicacao
ceitos anteriormente estudados.
17 e um interludio

A Secao
matricial, onde se mostra como as
propriedades das transformaco es lineares estudadas antes se tradu
zem imediatamente em fatos nao-triviais
sobre matrizes, principalmente algumas decomposico es de grande utilidade nas computaco es.

estudadas na Secao
18,
As formas bilineares e quadraticas
sao
onde e estabelecida a correspondencia fundamental (isomorfismo)
entre formas e operadores (Teorema 18.2) e provado o Teorema dos
do Teorema EspecEixos Principais (Teorema 18.3), que e a versao
ainda exposto o metodo de Lagrange

tral para formas quadraticas.


E

para reduzir uma forma quadratica


a uma soma (ou diferenca) de

quadrados e e feito um estudo das superfcies quadricas.


estudados na Secao
19, onde se define diOs determinantes sao
retamente o determinante de um operador sem recurso a bases nem
matrizes. Em seguida, o determinante de uma matriz n n e ca
n-linear alternada de suas colunas
racterizado como a unica
funcao

dos
(ou linhas) que assume o valor 1 na matriz unitaria.
A colocacao

determinantes quase no final do livro, depois de ja terem sido es


tabelecidos os resultados principais da Algebra
Linear e ensinados
os metodos mais eficientes para resolver sistemas, inverter matrizes etc, e uma atitude deliberada, que visa por esse conceito em seu
de grande importancia

devido lugar. Trata-se de uma nocao


teorica,

indispensavel
em varias
areas
da Matematica,
a qual foi, e ainda
deixou inteiramente de ser, equivocadamente considerada como
nao
instrumento computacional. Usar a Regra de Cramer para resolver
um sistema linear, ou calcular o determinante de um operador para
sao
metodos que funcionam bem no
ver se ele e invertvel ou nao,

caso 2 2, e ate mesmo 3 3, mas se tornam altamente inviaveis


a
partir da.
Depois que se tem os determinantes, o polinomio caracterstico e
20. Esse estudo se completa na Secao
21 com a
estudado na Secao
dos espacos vetoriais complexos, nos quais vale o notavel

introducao
fato de que todo operador possui autovetores, logo pode ser triangularizado. Este resultado e devidamente explorado, o que concede a
um ar de happy ending para a teoria, mas nao
o fim do
esta secao
livro.
final, numero

das
A secao
22, apresenta uma breve exposicao
` equaco es
equaco es a diferencas finitas, essencialmente limitada as
(e sistemas) lineares de segunda ordem. Basicamente, trata-se de
obter metodos eficazes de calcular as potencias sucessivas de um
operador ou de suas matrizes.

a` Algebra
Esta introducao
Linear reflete uma longa experiencia

como usuario
do assunto e, nos ultimos
dez anos, como professor.
Ao escreve-la, fui influenciado pelas reaco es dos meus alunos, suas
participaco es nas aulas e suas palavras de incentivo. Um agradecimento especial por esse motivo e devido aos estudantes da E.P.G.E.
Getulio

da Fundacao
Vargas. Agradeco ao meu colega Jonas de Miranda Gomes por me ter convencido de que ainda havia lugar para

mais um livro nesta area


e por suas sugestoes, sempre objetivas, que
contriburam para melhorar a comunicabilidade. Agradeco tambem
a Wilson L. de Goes pela incrvel eficiencia e grande boa vontade na
do manuscrito.
preparacao
Rio de Janeiro, maio de 1995
Elon Lages Lima

Pref
acio da Segunda Edic
ao
esgotada rapidamente,
A boa acolhida dispensada a` primeira edicao,
animou-me a fazer nesta algumas modificaco es, que enumero a seguir.
do texto, eliminando-se varios

Foi feita uma extensa revisao


exerccios incorretamente propostos e trechos
erros de impressao,

obscuros ou imprecisos. Para este trabalho, vali-me da colaboracao


de diversos leitores, dentre os quais destaco, de modo muito especial,

o Professor Florencio Guimaraes,


que elaborou uma lista minuciosa
de correco es. A todos esses amigos registro meus sinceros agradecimentos.

O numero
de exerccios foi consideravelmente aumentado com a
em especial, de mais problemas elementares de natureza
inclusao,
computacional, visando fazer com que os leitores menos experientes
ganhem confianca em si ao lidarem com assuntos novos.
15 foi inteiramente reescrita, passando a tratar dos opeA Secao

radores normais em espacos vetoriais reais, um assunto facil,


atra 15 (operadores
ente e muitas vezes negligenciado. A antiga Secao
anti-simetricos) tornou-se um mero caso particular. Sem esforco
(nem espaco) adicional, o tratamento ganhou uma abrangencia bem
maior.

Atendendo a varios
pedidos, acrescentei ao livro um Apendice
sobre a forma canonica de Jordan, tratando esse tema de modo sim apenas sob o ponto de vista matricial mas formulando-o
ples, nao
tambem sob o aspecto de operadores.
Rio de Janeiro, setembro de 1996
Elon Lages Lima

Pref
acio da Oitava Edic
ao
alem de conter novas correco es sugeridas pela atenta
Esta edicao,

vigilancia
do Professor Florencio Guimaraes,
deu-me oportunidade

de acrescentar a` lista de indicaco es bibliograficas


o livro do Professor
Ralph Costa Teixeira, que traz as soluco es de todos os exerccios aqui
propostos.
Rio de Janeiro, outubro de 2009
Elon Lages Lima

Conte
udo
1 Espa
cos Vetoriais

2 Subespa
cos

3 Bases

24

4 Transforma
co
es Lineares

38

5 Produto de Transforma
co
es Lineares

51

6 N
ucleo e Imagem

58

7 Soma Direta e Proje


c
ao

75

8 A Matriz de uma Transforma


c
ao Linear

83

9 Elimina
c
ao

101

10 Produto Interno

118

11 A Adjunta

133

12 Subespa
cos Invariantes

145

13 Operadores Auto-Adjuntos

156

14 Operadores Ortogonais

174

15 Operadores Normais (Caso Real)

189

16 Pseudo-inversa

195
5

17 T
opicos Matriciais

204

18 Formas Quadr
aticas

224

19 Determinantes

245

20 O Polin
omio Caracterstico

268

21 Espa
cos Vetoriais Complexos

280

22 Equa
co
es a Diferencas Finitas

299

Ap
endice: A Forma Can
onica de Jordan

321

Indicaco
es Bibliogr
aficas

335

Lista de Smbolos

341

Indice Remissivo

343

1
Espacos Vetoriais
A nocao
de espaco vetorial e a base do estudo que faremos; e o terreno

onde se desenvolve toda a Algebra


Linear. Esta secao
apresenta os
axiomas de espaco vetorial, deduz suas consequ
encias mais imediatas e exibe os exemplos mais importantes dessa nocao.

chamaUm espaco vetorial E e um conjunto, cujos elementos sao


definidas duas operaco es: a adicao,
dos vetores, no qual estao
que a
cada par de vetores u, v E faz corresponder um novo vetor u+v E,
chamado a soma de u e v, e a multiplicacao
por um numero

real, que

a cada numero
R e a cada vetor v E faz corresponder um vetor
v, ou v, chamado o produto de por v. Essas operaco es devem
satisfazer, para quaisquer , R e u, v, w E, as condico es abaixo,
chamadas os axiomas de espaco vetorial:
comutatividade:
associatividade:

u + v = v + u;
(u + v) + w = u + (v + w) e ()v = (v);

vetor nulo: existe um vetor 0 E, chamado vetor nulo, ou vetor


zero, tal que v + 0 = 0 + v = v para todo v E;
inverso aditivo: para cada vetor v E existe um vetor v E,
chamado o inverso aditivo, ou o simetrico de v, tal que v + v =
v + (v) = 0;
distributividade:

( + )v = v + v e (u + v) = u + v;

por 1: 1 v = v.
multiplicacao

Espacos Vetoriais

Sec
ao 1

O mesmo smbolo 0 representa o vetor nulo e o numeObservacao:


ro zero.

Exemplo 1.1. Para todo numero


natural n, o smbolo Rn representa

o espaco vetorial euclidiano n-dimensional. Os elementos de Rn sao

as listas ordenadas u = (1 , . . . , n ), v = (1 , . . . , n ) de numeros


reais.
a igualdade vetorial u = v significa as n igualdades
Por definicao,
numericas 1 = 1 , . . . , n = n .

chamados as coordenadas do vetor u.


Os numeros
1 , . . . , n sao
definidas pondo
As operaco es do espaco vetorial Rn sao
u + v = (1 + 1 , . . . , n + n ),
u = (1 , . . . , n ).
aquele cujas coordenadas sao
todas
O vetor zero e , por definicao,
iguais a zero: 0 = (0, 0, . . . , 0).
O inverso aditivo de u = (1 , . . . , n ) e u = (1 , . . . , n ).
Verifica-se, sem dificuldade, que estas definico es fazem de Rn um
espaco vetorial. Para n = 1, tem-se R1 = R = reta numerica. R2 e o
plano euclidiano e R3 e o espaco euclidiano tridimensional da nossa
experiencia cotidiana.
os vetores de R2 e R3 podem ser rePara ajudar a compreensao,
presentados por flechas com origem no mesmo ponto O. A soma u+v
e a flecha que liga a origem O ao vertice que lhe e oposto no paralelogramo que tem u e v como lados. (Veja Figura 1.1.)

u+ v
v
u
0

Figura 1.1 Soma de vetores.

Sec
ao 1

Espacos Vetoriais

Por sua vez, o produto u e a flecha colinear a u, de comprimento


vezes o comprimento de u, com o mesmo sentido de u se > 0 e
com sentido oposto se < 0.
as sequ
encias
Exemplo 1.2. Os elementos do espaco vetorial R sao

infinitas u = (1 , . . . , n , . . . ), v = (1 , . . . , n , . . . ) de numeros
reais.
encia 0 = (0, . . . , 0, . . . ), formada por
O elemento zero de R e a sequ
encia u = (1 , . . . , n , . . . )
infinitos zeros, e o inverso aditivo da sequ
e multiplicacao

e u = (1 , . . . , n , . . . ). As operaco es de adicao

definidas por
por um numero
real sao
u + v = (1 + 1 , . . . , n + n , . . . ),
u = (1 , . . . , n , . . . ).
Exemplo 1.3. Uma matriz (real) m n a = [aij ] e uma lista de

numeros
reais aij com ndices duplos, onde 1 i m e 1 j n.
Costuma-se representar a matriz a como um quadro numerico com
m linhas e n colunas, no qual o elemento aij situa-se no cruzamento
da i-esima linha com a j-esima coluna:

a11 a12 a1n


a21 a22 a2n

a= .
.. .
..
..
..
.
.
.
am1 am2

amn

O vetor (ai1 , ai2 , . . . , ain ) Rn e o i-esimo vetor-linha da matriz a e


o vetor (a1j , a2j , . . . , amj ) Rm e o j-esimo vetor-coluna de a. Quando
m = n, diz-se que a e uma matriz quadrada. O conjunto M(mn) de
todas as matrizes m n torna-se um espaco vetorial quando nele se
define a soma das matrizes a = [aij ] e b = [bij ] como a + b = [aij + bij ]

e o produto da matriz a pelo numero


real como a = [aij ]. A
matriz nula 0 M(m n) e aquela formada por zeros e o inverso
aditivo da matriz a = [aij ] e a = [aij ].

Exemplo 1.4. Seja X um conjunto nao-vazio


qualquer. O smbolo
F(X; R) representa o conjunto de todas as funco es reais f, g : X R.
Ele se torna um espaco vetorial quando se definem a soma f + g de

f da maneira
duas funco es e o produto f do numero
pela funcao
natural:
(f + g)(x) = f(x) + g(x), (f)(x) = f(x).

Espacos Vetoriais

Sec
ao 1

Variando o conjunto X, obtem-se diversos exemplos de espacos

vetoriais da forma F(X; R). Por exemplo, se X = {1, . . . , n} entao


n

F(X; R) = R ; se X e o produto carteF(X; R) = R ; se X = N entao


F(X; R) = M(m n).
siano dos conjuntos {1, . . . , m} e {1, . . . , n} entao
Outros exemplos de espacos vetoriais ocorrem como subespacos,
como veremos a seguir.
encias dos axiomas, as
Valem num espaco vetorial, como consequ
regras operacionais habitualmente usadas nas manipulaco es numericas. Vejamos algumas delas.

u = v. Em particular, w + u = w implica
1. Se w + u = w + v entao
u = 0 e w + u = 0 implica u = w.
Com efeito, da igualdade w + u = w + v segue-se que
u = 0 + u = (w + w) + u
= w + (w + u)
= w + (w + v)
= (w + w) + v
= 0 + v = v.
Em particular, w + u = w implica w + u = w + 0, logo u = 0. E se
w + u = w + (w) logo u = w.
w + u = 0 entao
2. Dados 0 R e v E tem-se 0 v = 0 E. Analogamente, dados
R e 0 E, vale 0 = 0.
Com efeito, v + 0 v = 1 v + 0 v = (1 + 0) v = 1 v = v, logo 0 v = 0

como vimos acima. De modo analogo,


como 0+0 = (0+0) = 0,
segue-se de 1) que 0 = 0.

v 6= 0.
3. Se 6= 0 e v 6= 0 entao
v = 1 v = (1 )v =
Com efeito, se fosse v = 0 entao
1 (v) = 1 0 = 0, isto e , teramos v = 0.
4. (1) v = v.
Com efeito,

v + (1) v = 1 v + (1) v = (1 + (1)) v = 0 v = 0,


logo (1)v = v, pela regra 1.
No que se segue, escreveremos u v para significar u + (v).
Evidentemente,
u v = w u = v + w.

Sec
ao 1

Espacos Vetoriais

Exemplo 1.5. Sejam u = (a, b) e v = (c, d) vetores em R2 com

u 6= 0, isto e , a 6= 0 ou b 6= 0. A fim de que v seja multiplo


de u,

isto e , v = u para algum R, e necessario


e suficiente que se
tenha ad bc = 0. A necessidade e imediata pois v = u significa
c = a e d = b. Multiplicando a primeira destas igualdades por
b e a segunda por a obtemos bc = ab e ad = ab, logo ad = bc,
supondo
ou seja, ad bc = 0. Reciprocamente, se ad = bc entao,

a 6= 0, obtemos d = (c/a)b. Alem disso, e claro que c = (c/a)a. Logo,


pondo = c/a, vem d = b e c = a,. isto e v = u. Se for b 6= 0,
tomaremos = d/b para ter v = u.

Exerccios
1.1. Dadas as matrizes


1 1 2
a=
,
3 2 1

2
3 0
b=
2 3 1

e


4 8 4
c=
12 13 1

(a) Calcule a matriz 3a 2b + c.

(b) Ache numeros


e , ambos diferentes de zero, tais que a+b+c
tenha a primeira coluna nula.
1.2. Mostre que as operaco es definidas no texto fazem realmente dos
conjuntos Rn , M(m n) e F(X; R) espacos vetoriais.
1.3. Ache o valor de t que torna a matriz abaixo igual a` matriz nula:
 2

t 1
t2 t
.
t3 1 t2 3t + 2
1.4. Determine os vetores u, v R4 sabendo que as coordenadas de
todas iguais, a ultima

u sao
coordenada de v e igual a 3 e u + v =
(1, 2, 3, 4).

1.5. Dados u = (1, 2, 3), v = (3, 2, 0) e w = (2, 0, 0), ache numeros


,
e tais que u + v + w = (1, 1, 1).

Espacos Vetoriais

Sec
ao 1

1.6. Dados os vetores v1 = (1, 2, 1), v2 = (2, 1, 2), v3 = (3, 3, 2) e


v4 = (1, 5, 1) em R3 , determine os vetores u = v1 3v2 + 2v3 v4 ,
v = v1 + v2 v3 v4 e w = v3 31 v2 43 v1 .
Num espaco vetorial E existe
1.7. Considere a seguinte afirmacao:

um unico
vetor nulo e cada elemento de E possui um unico
inverso.
assegura que esta afirmacao
e
Qual fato demonstrado nesta secao
verdadeira?
1.8. Use os axiomas do espaco vetorial E para provar que, se v E e

n v = v + + v (n parcelas).
n e um numero
natural entao

1.9. Sejam u, v vetores nao-nulos


do espaco vetorial E. Prove que v e

multiplo
de u se, e somente se, u e multiplo
de v. Que se pode dizer
suponhamos u e v ambos diferentes de zero?
caso nao
1.10. Sejam u = (x1 , . . . , xn ) e v = (y1 , . . . , yn ) vetores em Rn . Prove

que um deles e multiplo


do outro se, e somente se, xi yj = xj yi para
quaisquer i, j = 1, . . . , n.
1.11. Use as relaco es 2(u + v) = 2u + 2v, 2w = w + w para provar
que a comutatividade u + v = v + u pode ser demonstrada a partir
dos demais axiomas de espaco vetorial.
do produto v de um numero

1.12. Em R2 , mantenhamos a definicao


por um vetor mas modifiquemos, de 3 maneiras diferentes, a defini da soma u + v dos vetores u = (x, y) e v = (x , y ). Em cada
cao

tentativa, dizer quais axiomas de espaco vetorial continuam validos


violados:
e quais sao
(1)

u + v = (x + y , x + y);

(2)

u + v = (xx , yy );

(3)

u + v = (3x + 3x , 5x + 5x ).

1.13. Defina a media u v entre dois vetores u, v no espaco vetorial


E pondo u v = 12 u + 12 v. Prove que (u v) w = u (v w) se, e
somente se, u = w.
1.14. Dados os espacos vetoriais E1 , E2 , considere o conjunto E =
os
E1 E2 (produto cartesiano de E1 por E2 ), cujos elementos sao
pares ordenados v = (v1 , v2 ), com v1 E1 e v2 E2 . Defina operaco es
que tornem E um espaco vetorial. Verifique a validez de cada um
se estende para o caso de
dos axiomas e mostre que sua definicao

Sec
ao 1

Espacos Vetoriais

encia infinita
n espacos vetoriais E1 , . . . , En , ou mesmo de uma sequ
E1 , E2 , . . . , En , . . . .
1.15. Sejam X um conjunto qualquer e E um espaco vetorial. Mostre que, com as definico es naturais, o conjunto F(X; E) das funco es
f : X E se torna um espaco vetorial. Identifique os casos particulares em que X = {1, . . . , n}, X = N, X = A B, onde A = {1, . . . , m} e
B = {1, . . . , n}.
1.16. Dados os vetores u = (1, 2, 3), v = (3, 2, 1) e w = (3, 2, 7) em

R3 , obtenha numeros
, tais que w = u + v. Quantas soluco es
admite este problema?

1.17. Sejam u = (1, 1), v = (1, 2) e w = (2, 1). Ache numeros


a, b, c,

a , b , c , todos nao-nulos,
tais que au + bv + cw = a u + b v + c w,
com a 6= a, b 6= b, c 6= c.
1.18. Sejam E um espaco vetorial e u, v E. O segmento de reta de
o conjunto
extremidades u, v e , por definicao,
[u, v] = {(1 t)u + tv; 0 t 1}.
Um conjunto X E chama-se convexo quando u, v X [u, v] X.
(Ou seja: o segmento de reta que liga dois pontos quaisquer de X
esta contido em X.) Prove:
X1 . . . Xm de conjuntos convexos X1 , . . . , Xm E e
(a) A intersecao
um conjunto convexo.
(b) Dados a, b, c R, o conjunto X = {(x, y) R2 ; ax + by c} e
convexo em R2 .
(c) O conjunto Y = {(x, y, z) R3 ; a x b, c < y < d} e convexo
em R3 .
numeros

(d) Seja X E convexo. Se r, s, t sao


reais 0 tais que
u, v, w X ru + sv + tw X.
r + s + t = 1 entao
t1 v 1 + + tk v k ,
(e) Generalizando o resultado acima, a expressao
0 e t1 + + tk = 1 chama-se uma combinacao
onde t1 , . . . , tk sao

convexa dos vetores v1 , . . . , vk . Se o conjunto X E e convexo, prove


convexa de vetores v1 , . . . , vk X ainda perque toda combinacao
tence a X.
1.19. Prove que o disco D = {(x, y) R2 ; x2 + y2 1} e um conjunto
convexo.

Espacos Vetoriais

Sec
ao 1

1.20. Um subconjunto C do espaco vetorial E chama-se um cone


quando, para todo v C e todo t > 0, tem-se tv C. Prove:

(a) O conjunto dos vetores v Rn que tem exatamente k coordenadas


positivas (0 k n) e um cone.

(b) O conjunto das funco es f : X R que assumem valores negativos


em todos os pontos de um subconjunto fixado Y X e um cone em
F(X; R).

(c) Um cone C E e um conjunto convexo se, e somente se, u, v


C u + v C.

e a reuniao
de uma famlia qualquer de cones sao

(d) A intersecao
ainda cones.

1.21. Dado um subconjunto X no espaco vetorial E, seja C(X) o conjunto das combinaco es convexas t1 v1 + + tk vk (ti 0, ti = 1)
dos elementos de X. Prove que C(X) e um conjunto convexo, que
X C(X) e que se C e qualquer subconjunto convexo de E contendo
C C(X). (Por este motivo, diz-se que C(X) e o menor
X entao
subconjunto convexo de E que contem X. C(X) chama-se a envoltoria
convexa do conjunto X.)

2
Subespacos
Um subespaco vetorial do espaco vetorial E e um subconjunto F E
que, relativamente as
` operaco es de E, e ainda um espaco vetorial.
Os subespacos vetoriais constituem uma rica fonte de exemplos de
espacos vetoriais, como se vera nas seco es seguintes.
Seja E um espaco vetorial. Um subespaco vetorial (ou simplesmente um subespaco) de E e um subconjunto F E com as seguintes
propriedades:
1. 0 F;
u + v F;
2. Se u, v F entao
para todo R, v F.
3. Se v F entao,

Segue-se que se u e v pertencem ao subespaco F e , sao

u + v F. Mais geralmente, dados


numeros
reais quaisquer entao
v1 , . . . , vm F e 1 , . . . , m R tem-se v = 1 v1 + + m vm F.

O conjunto {0}, com o unico


elemento 0, e o espaco inteiro E
exemplos triviais de subespacos de E. Todo subespaco e , em si
sao
mesmo, um espaco vetorial.

Exemplo 2.1. Seja v E um vetor nao-nulo.


O conjunto F = {v;

R} de todos os multiplos
de v e um subespaco vetorial de E, chamado
a reta que passa pela origem e contem v.
Exemplo 2.2. Seja E = F(R; R) o espaco vetorial das funco es reais

de uma variavel
real f : R R. Para cada k N, o conjunto Ck (R)

10

Subespacos

Sec
ao 2

das funco es k vezes continuamente derivaveis


e um subespaco veto subespacos de E o conjunto Co (R) das funco es
rial de E. Tambem sao

contnuas, o conjunto C (R) das funco es infinitamente derivaveis,


o
conjunto P = P(R) dos polinomios p(x) = ao + a1 x + + an xn e o
conjunto Pn dos polinomios de grau n. Para n, k N quaisquer,
tem-se:
Co (R) Ck (R) Ck+1 (R) C (R) P Pn .
e um subespaco
Observe que o conjunto dos polinomios de grau n nao
vetorial de E pois a soma de dois polinomios de grau n pode ter
grau < n.

Exemplo 2.3. Sejam a1 , . . . , an numeros


reais. O conjunto H de
todos os vetores v = (x1 , . . . , xn ) Rn tais que
a1 x1 + + an xn = 0
e um subespaco vetorial de Rn . No caso desinteressante em que

a1 = = an = 0, o subespaco H e todo o Rn . Se, ao contrario,


pelo
menos um dos ai e 6= 0, H chama-se um hiperplano de Rn que passa
pela origem.
Exemplo 2.4. Sejam E um espaco vetorial e L um conjunto de
ndices. Se, para cada L, F e um subespaco vetorial de E entao

a intersecao
\
F=
F
L

do Exemplo 2.3
e ainda um subespaco vetorial de E. Segue-se entao
n
que o conjunto dos vetores v = (x1 , . . . , xn ) R cujas coordenadas
satisfazem as m condico es abaixo
a11 x1 + a12 x2 + + a1n xn = 0

a21 x1 + a22 x2 + + a2n xn = 0


..
.

am1 x1 + am2 x2 + + amn xn = 0


F = F 1 . . . Fm
e um subespaco vetorial de Rn , o qual e a intersecao
dos hiperplanos Fi definidos, segundo o Exemplo 2.3, por cada uma
das equaco es acima.

Sec
ao 2

Subespacos

11

Seja X um subconjunto do espaco vetorial E. O subespaco ve o conjunto de todas as


torial de E gerado por X e , por definicao,
combinaco es lineares
1 v 1 + 2 v 2 + + m v m
de vetores v1 , . . . , vm X.
facil

E
ver que o conjunto de todas as combinaco es lineares que
se podem formar com vetores retirados do conjunto X e , de fato, um
subespaco vetorial, que indicaremos pelo smbolo S(X).
O subespaco S(X), gerado pelo subconjunto X E, contem o conjunto X e, alem disso, e o menor subespaco de E que contem X. Nou
tras palavras, se F e um subespaco vetorial de E e X F entao

S(X) F. Evidentemente, se X ja e um subespaco vetorial, entao


S(X) = X. Quando o subespaco S(X) coincide com E, diz-se que X e
um conjunto de geradores de E.
Explicitamente: um conjunto X e um conjunto de geradores do
espaco vetorial E quando todo vetor w E pode exprimir-se como
linear
combinacao
w = 1 v 1 + + m v m
de vetores v1 , . . . , vm pertencentes a X.

Exemplo 2.5. Se v E e um vetor nao-nulo,


o subespaco gerado por
v e a reta que passa pela origem e contem v.
Exemplo 2.6. Sejam u = (a, b) e v = (c, d) vetores de R2 tais que

u 6= 0, v 6= 0 e, pelo Exemnenhum deles e multiplo


do outro. Entao
plo 1.5, ad bc 6= 0. Afirmamos que X = {u, v} e um conjunto de
geradores de R2 , ou seja, que qualquer vetor w = (r, s) R2 pode
linear w = xu + yv. De fato esta
exprimir-se como uma combinacao
2
` duas igualdades numericas
igualdade vetorial em R equivale as
ax + cy = r
bx + dy = s.

Como ad bc 6= 0, o sistema de equaco es acima possui uma solucao


(x, y), logo existem x, y R tais que xu + yv = w. Esta mesma con pode tambem ser obtida geometricamente, conforme mostra a
clusao
` retas que
Figura 2.1. A partir da ponta de w, tracam-se paralelas as

contem u e v, determinando assim os multiplos


xu, yv, que somados
w.
dao

12

Subespacos

Sec
ao 2

yv

v
0

u
=x

yv

xu

Figura 2.1.

Exemplo 2.7. Os chamados vetores canonicos


e1 = (1, 0, 0, . . . , 0),
e2 = (0, 1, 0, . . . , 0),
..
.
en = (0, 0, . . . , 0, 1)
constituem um conjunto de geradores do espaco Rn . Com efeito,
dado v = (1 , . . . , n ) Rn , tem-se v = 1 e1 + + n en . Analo
gamente, os monomios 1, x, . . . , xn , . . . (em numero
infinito) formam
um conjunto de geradores do espaco P dos polinomios reais. Por
sua vez, os n + 1 primeiros deles, a saber, 1, x, . . . , xn constituem
um conjunto de geradores de Pn , espaco vetorial dos polinomios de
grau n.

Resulta do Exemplo 2.6 que os unicos


subespacos vetoriais de R2
{0}, as retas que passam pela origem e o proprio R2 . Com efeito,
sao
seja F R2 um subespaco vetorial. Se F contem apenas o vetor
F = {0}. Se F contem algum vetor u 6= 0 entao
ha duas
nulo, entao
multiplos

possibilidades: ou todos os demais vetores de F sao


de u, e
F
neste caso F e a reta que passa pela origem e contem u, ou entao
e multiplo

contem, alem de u, um outro vetor v que nao


de u. Neste
caso, F contem todas as combinaco es lineares xu + yv, logo F = R2 ,
pelo Exemplo 2.6.

Sec
ao 2

Subespacos

13

Exemplo 2.8. O sistema linear de m equaco es a n incognitas


a11 x1 + a12 x2 + + a1n xn = b1

a21 x1 + a22 x2 + + a2n xn = b2


..
.

am1 x1 + am2 x2 + + amn xn = bm


(x1 , . . . , xn ) se, e somente se, o vetor b = (b1 ,
possui uma solucao
linear dos vetores-coluna
. . . , bm ) e combinacao
v1 = (a11 , a21 , . . . , am1 ),
..
.
vn = (a1n , a2n , . . . , amn )

da matriz a = [aij ]. Com efeito, estas equaco es significam que


b = x1 v 1 + x2 v 2 + + xn v n .
Em particular, se os vetores-coluna v1 , . . . , vn gerarem Rm , o sistema
seja qual for o segundo membro b.
possui solucao,
Sejam F1 e F2 subespacos vetoriais de E. O subespaco vetorial de
F1 F2 e , como se ve facilmente, o conjunto de
E gerado pela reuniao
todas as somas v1 + v2 , onde v1 F1 e v2 F2 . Ele e representado
pelo smbolo F1 + F2 .
Mais geralmente, dados os subconjuntos X, Y E, indica-se com
as somas u + v, onde u X e
X + Y o conjunto cujos elementos sao

v Y. Quando X = {u} reduz-se a um unico


elemento u, escreve-se
que u + Y resulta de Y pela
u + Y em vez de {u} + Y. Diz-se entao
de u.
translacao
Quando os subespacos F1 , F2 E tem em comum apenas o elemento {0}, escreve-se F1 F2 em vez de F1 + F2 e diz-se que F = F1 F2
e a soma direta de F1 e F2 .
Teorema 2.1. Sejam F, F1 , F2 subespacos vetoriais de E, com F1 F e
F2 F. As seguintes afirmaco es sao
equivalentes:
(1) F = F1 F2 ;

14

Subespacos

Sec
ao 2

(2) Todo elemento w F se escreve, de modo unico,

como soma
w = v1 + v2 , onde v1 F1 e v2 F2 .

Demonstracao:
Provemos que (1) (2). Para isto, suponhamos
que F1 F2 = {0} e que se tenha u1 + u2 = v1 + v2 , com u1 , v1 F1 e
u1 v1 = v2 u2 . Como u1 v1 F1 e v2 u2 F2 ,
u2 , v2 F2 . Entao
segue-se que u1 v1 e v2 u2 pertencem ambos a F1 e a F2 . Mas
F1 F2 = {0}. Logo u1 v1 = v2 u2 = 0, ou seja, u1 = v1 e u2 = v2 .
0 + v = v + 0 com
Para provar que (2) (1), seja v F1 F2 . Entao
0, v F1 e v, 0 F2 . Pela hipotse (2), isto implica 0 = v, portanto
F1 F2 = {0}.

Exemplo 2.9. Em R4 , sejam F1 o subespaco gerado pelos vetores


e1 = (1, 0, 0, 0), e3 = (0, 0, 1, 0) e F2 o subespaco gerado pelos veto F1 e o conjunto dos veres e2 = (0, 1, 0, 0), e4 = (0, 0, 0, 1). Entao
tores da forma (1 , 0, 3 , 0) enquanto os vetores de F2 tem a forma
claro que R4 = F1 F2 .
(0, 2 , 0, 4 ). E
de subespaco vetorial abrange as retas, planos e seus
A nocao

analogos multidimensionais apenas nos casos em que esses conjun passam


tos contem a origem. Para incluir retas, planos, etc. que nao
de variedade afim, que discutiremos
pela origem, tem-se a nocao
agora.
Seja E um espaco vetorial. Se x, y E e x 6= y, a reta que une os
o conjunto
pontos x, y e , por definicao
r = {(1 t)x + ty; t R}.
Pondo v = y x, podemos ver que r = {x + tv; t R}.
Um subconjunto V E chama-se uma variedade afim quando a
reta que une dois pontos quaisquer de V esta contida em V. Assim,
V E e uma variedade afim se, e somente se, cumpre a seguinte

condicao:
x, y V, t R (1 t)x + ty V.
Exemplo 2.10. Um exemplo o bvio de variedade afim e um subespa

co vetorial. Ao contrario
dos subespacos vetoriais, que nunca sao
acima e formulada de
vazios pois devem conter o zero, a definicao
tal modo que o conjunto vazio a cumpre, logo e uma variedade
afim.

Sec
ao 2

Subespacos

15

variedades afins entao


a intersecao
V =
Se V1 , . . . , Vm E sao
V1 . . . Vm e ainda uma variedade afim. Todo ponto p E e uma
variedade afim.

Exemplo 2.11. Sejam a1 , . . . , an , b numeros


reais. O conjunto H dos
n
pontos x = (x1 , . . . , xn ) R tais que
a1 x1 + + an xn = b
contem a origem quando b 6= 0). Se
e uma variedade afim (que nao

sao
todos nulos, H chama-se um hiperplano. Se
os numeros
ai nao
a1 = = an = 0, tem-se H = quando b 6= 0 e H = Rn quando
b = 0. Mais geralmente, o conjunto das soluco es de um sistema
linear de m equaco es com n incognitas (vide Exemplo 2.8) e uma
das m variedades
variedade afim (eventualmente vazia), intersecao
afins definidas pelas equaco es do sistema.

O teorema a seguir mostra que toda variedade afim nao-vazia


V
pode ser obtida transladando-se um subespaco vetorial F. Diz-se que
F e o subespaco vetorial paralelo a V.
Teorema 2.2. Seja V uma variedade afim nao-vazia

no espaco vetorial E. Existe um unico

subespaco vetorial F E tal que, para todo


x V tem-se
V = x + F = {x + v; v F}.
x+ F
x
F

0
Dado x V, seja F o conjunto de todos os vetores
Demonstracao:

v = y x, onde y V. Mostremos que F e um subespaco vetorial. E


v = y x, com
claro que 0 F. Alem disso, se R e v F entao
y V, logo
v = (y x) = [(1 )x + y] x = z x,

16

Subespacos

Sec
ao 2

com z = (1 )x + y V. Portanto v F. Finalmente, se v = y x

e v = y x pertencem a F entao
1
1
z = y + y V,
2
2
portanto z x F. Segue-se da que a soma
v + v = y + y 2x = 2(z x)
pertence a F.
Em seguida, mostremos que V = x + F. Com efeito, y V y =
x + (y x) com y x F, logo y x + F. Assim, V x + F. Por outro
lado, um elemento qualquer de x + F tem a forma x + (y x), com
y V, logo e igual a y e da x + F V.
subespacos vetoriais de E, tais que x +
Finalmente, se F e F sao

F = x + F para algum x E, provemos que se tem F = F . Com efeito,


v F x + v x + F x + v x + F x + v = x + v (v F )
v = v v F . Portanto F F . Da mesma forma, ve-se que F F,

o que conclui a demonstracao.


Exemplo 2.12. Vimos no exemplo 2.8 que o conjunto V das soluco es
de um sistema linear de m equaco es com n incognitas e uma variedade afim. Supondo V 6= , tomemos x0 V e chamemos de F
o subespaco vetorial de Rn formado pelas soluco es do sistema homogeneo correspondente (descrito no Exemplo 2.4; veja tambem a

que todas as soluco es


pagina
27). Tem-se V = x0 + F. Diz-se entao
particular com a solucao

do sistema se obtem somando uma solucao


geral do sistema homogeneo associado.

Exerccios
encias v =
2.1. Seja R() o subconjunto de R formado pelas sequ

(x1 , x2 , . . . , xn , . . .) que tem apenas um numero


finito de termos xn
diferentes de zero. Mostre que R() e um subespaco vetorial de R
encias que tem um unico

e que as sequ
termo nao-nulo
constituem
um conjunto de geradores para R() .
de matriz
2.2. Use o ndice deste livro para localizar a definicao
triangular. Mostre que o conjunto F1 das matrizes triangulares in
feriores e o conjunto F2 das matrizes triangulares superiores sao

Sec
ao 2

Subespacos

17

subespacos vetoriais de M(n n), que M(n n) = F1 + F2 e que


se tem M(n n) = F1 F2 .
nao
2.3.
Seja E = F(R; R). Para X R qualquer, ponhamos
N(X) = { E ; (x) = 0 para todo x X}. Prove:
(a) Para todo X R, N(X) e um subespaco vetorial de E.
(b) X Y N(Y) N(X)

(c) N(X Y) = N(X) N(Y)

(d) N(X) = {0} X = R

(e) N(X Y) = N(X) + N(Y)

(f) N(X) N(Y) = E Y = R X.

2.4. No espaco vetorial E = F(R; R) sejam:

F1 = conjunto das funco es f : R R que se anulam em todos os


pontos do intervalo [0, 1];
F2 = conjunto das funco es g : R R que se anulam em todos os
pontos do intervalo [2, 3].
subespacos vetoriais de E, que E = F1 + F2
Mostre que F1 e F2 sao
se tem E = F1 F2 .
e que nao

2.5. Considere os subespacos F1 , F2 R3 assim definidos: F1 e o


conjunto de todos os vetores v = (x, x, x) que tem as tres coordenadas
iguais e F2 e o conjunto de todos os vetores w = (x, y, 0) que tem a

ultima
coordenada igual a zero. Mostre que R3 = F1 F2 .
2.6. Dados u = (1, 2) e v = (1, 2), sejam F1 e F2 respectivamente
as retas que passam pela origem em R2 e contem u e v. Mostre que
R2 = F1 F2 .
2.7. Sejam F1 = S(u1 , v1 ) e F2 = S(u2 , v2 ) os subespacos de R3 gerados
pelos vetores u1 = (0, 1, 2), v1 = (1, 1, 1), u2 = (1, 0, 3) e v2 =

(2, 1, 0). Ache numeros


a1 , b1 , c1 e a2 , b2 , c2 tais que se tenha:
F1 = {(x, y, z) R3 ; a1 x + b1 y + c1 z = 0}

F2 = {(x, y, z) R3 ; a2 x + b2 y + c2 z = 0}.
2.8. No exerccio anterior, mostre que u2
/ F1 e que F1 + F2 = R3 .
nulo w F1 F2 e conclua que nao
se tem R3 =
Exiba um vetor nao
F1 F 2 .

18

Subespacos

Sec
ao 2

de todos os subespacos vetoriais


2.9. Prove que S(X) e a intersecao
que contem o conjunto X E.

2.10. Exiba tres vetores u, v, w R3 com as seguintes propriedades:

nenhum deles e multiplo


do outro, nenhuma das coordenadas e igual
3
e gerado por eles.
a zero e R nao

2.11. Seja F o subespaco de R3 gerado pelos vetores u = (1, 1, 1) e

v = (1, 1, 1). Ache numeros


a, b, c com a seguinte propriedade:
um vetor w = (x, y, z) pertence a F se, e somente se, ax + by + cz = 0.
linear dos vetores
2.12. Exprima o vetor (1, 3, 10) como combinacao
u = (1, 0, 0), v = (1, 1, 0) e w = (2, 3, 5).


4 4
2.13. Mostre que a matriz d =
pode ser escrita como
6 16
linear das matrizes
combinacao






1 2
1 2
1 2
a=
, b=
e c=
.
3 4
3 4
3 4
2.14. Assinale V(erdadeiro) ou F(also):
(

) O vetor w = (1, 1, 2) pertence ao subespaco gerado por u =


(1, 2, 3) e v = (3, 2, 1).

li) Qualquer vetor em R3 pode ser expresso como combinacao


near dos vetores u = (5, 3, 2) e v = (3, 1, 3).

S(X) S(Y).
) Se X Y entao

X Y.
) Se S(X) S(Y) entao

V e
) Se uma variedade afim V E contem o vetor zero entao
um subespaco vetorial de E.

subespacos vetoriais?
2.15. Quais dos seguintes subconjuntos sao
(a) O conjunto X R3 formado pelos vetores v = (x, y, z) tais que
z = 3x e x = 2y.
(b) O conjunto Y R3 formado pelos vetores v = (x, y, z) tais que
xy = 0.

Sec
ao 2

Subespacos

19

(c) O conjunto Z das matrizes 2 3 nas quais alguma coluna e


formada por elementos iguais.
(d) O conjunto F F(R; R) formado pelas funco es f : R R tais
que f(x + 1) = f(x) para todo x R.
(e) O conjunto L Rn dos vetores v = (x, 2x, . . . , nx), onde x R e

arbitrario.

(f) O conjunto dos vetores v R5 que tem duas ou mais coordenadas nulas.
(g) O conjunto dos vetores de R3 que tem pelo menos uma coordenada 0.
2.16. Exprima, em termos das operaco es num espaco vetorial E, uma
para que u, v, w E sejam colineares (isto e , pertencam a
condicao
o vetor zero).
uma mesma reta, que pode conter ou nao

2.17. Obtenha numeros


a, b, c, d tais que a variedade afim (plano)
ax + by + cz = d contenha os pontos
de R3 definida pela equacao
e1 = (1, 0, 0), e2 = (0, 1, 0) e e3 = (0, 0, 1).
de subespaco vetorial, a condicao

2.18. Prove que, na definicao


0 F pode ser substituda por F 6= .
subespacos vetoriais?
2.19. Quais dos seguintes conjuntos sao
n
(a) O conjunto dos vetores de R cujas coordenadas formam uma
aritmetica.
progressao
ge(b) Os vetores de Rn cujas coordenadas formam uma progressao
ometrica.
ari(c) Os vetores de Rn cujas coordenadas formam uma progressao
fixada.
tmetica de razao
ge(d) Os vetores de Rn cujas coordenadas formam uma progressao
fixada.
ometrica de razao
iguais.
(e) Os vetores de Rn cujas primeiras k coordenadas sao
(f) Os vetores de Rn que tem k coordenadas iguais.
encias (xn ) R tais que xn+2 3xn = xn+1 para todo n.
(g) As sequ
(h) Os vetores (x, y) R2 tais que x2 + 3x = y2 + 3y.
(i) As funco es f C (R) tais que f 2f + f = 0.

20

Subespacos

Sec
ao 2

2.20. Sejam v1 , v2 , v3 os vetores-linha e w1 , w2 , w3 os vetores-coluna


da matriz

1 2 3
4 5 6 .
7 8 9
Verifique as relaco es v3 = 2v2 v1 , w3 = 2w2 w1 . Exprima w1 e
w2 como combinaco es lineares de v1 e v2 , e vice-versa. Conclua que
os vetores-linha e os vetores-coluna da matriz dada geram o mesmo
subespaco de R3 .

2.21. De exemplo de uma matriz 3 3 cujos vetores-linha geram um


subespaco de R3 diferente daquele gerado pelos vetores-coluna.
de dois subespacos vetoriais de E e um
2.22. Prove que a reuniao
subespaco vetorial se, e somente se, um deles estiver contido no outro.
prove que, dados os numeros

2.23. A partir da definicao,


a1 , ..., an , c,
o conjunto V dos vetores x = (x1 , . . . , xn ) Rn tais que a1 x1 + +
an xn = c e um subespaco vetorial de Rn se, e somente se, c = 0.
feita no texto de que V e uma variedade afim.
Prove a afirmacao
2.24. Seja F um subespaco vetorial de E. Assinale V(erdadeiro) ou
F(also):
u+v
( ) Se u
/F e v
/ F entao
/ F;

u
( ) Se u
/ F e 6= 0 entao
/ F.

2.25. Diz-se que um subconjunto X de um espaco vetorial E e simetrico quando v X v X. Prove que um cone convexo simetrico

e nao-vazio
e um subespaco vetorial de E.

seja simetrico e um
2.26. De exemplo de um cone convexo que nao
seja convexo.
cone simetrico que nao
2.27. Uma matriz quadrada a = [aij ] chama-se simetrica (respect.
anti-simetrica) quando aij = aji (respect. aij = aji ) para todo i e
todo j. Prove que o conjunto S das matrizes simetricas e o conjunto
subespacos vetoriais de
A das matrizes anti-simetricas n n sao
M(n n) e que se tem M(n n) = S A.
2.28. Seja E = F(R; R). Fixada g : R R, mostre que o conjunto F
de todas as funco es f : R R tais que f(g(x)) = f(x) e um subespaco

Sec
ao 2

Subespacos

21

g tem-se F = conjunto das funco es


vetorial de E. Para qual funcao
periodicas de perodo a ? E se fosse g(f(x)) = f(x) ? Ou f(g(x)) =
g(x) ?
2.29. Prove que o subespaco vetorial gerado por um cone convexo
C E e o conjunto das diferencas u v, onde u, v C. Conclua que
o conjunto das funco es f : X R que so assumem valores positivos e
um conjunto de geradores de F(X; R).

f : X R e limitada quando existe


2.30. Diz-se que uma funcao
k > 0 (dependendo de f) tal que |f(x)| k para todo x X. Prove que
o conjunto das funco es limitadas e um subespaco vetorial de F(X; R),
o qual e gerado pelas funco es limitadas positivas.

2.31. Um subespaco vetorial de R3 gerado por dois vetores nao-colineares u, v chama-se um plano. Use um argumento geometrico para
pertence ao plano gerado por u e v
provar que se o vetor w R3 nao
u, v e w geram R3 .
entao

e combinacao
linear dos
2.32. Mostre que o vetor b = (1, 2, 2) nao
vetores v1 = (1, 1, 2) e v2 = (1, 2, 1). A partir da, formule um sistema
possui solucao
e que
linear de 3 equaco es com 2 incognitas, que nao
tem o vetor b como segundo membro.
2.33. Sejam F1 , . . . , Fk E subespacos vetoriais. Prove:
F1 . . .Fk e o conjunto F1 + +Fk
(1) O subespaco gerado pela uniao
das somas x1 + + xk , onde x1 F1 , . . . , xk Fk .
equivalentes:
(2) As seguintes afirmaco es sao

(a) Cada x F1 + + Fk se escreve de modo unico


como soma
x = x1 + + xk .
(b) Para cada j = 1, . . . , k tem-se Fj (F1 + +Fj1 +Fj+1 + +Fk ) =
{0}.
Quando uma das condico es (a) ou (b) vale, escreve-se F1 Fk em
vez de F1 + + Fk e diz-se que este subespaco e a soma direta de
F 1 , . . . , Fk .
2.34. Seja E = F1 F2 = G1 G2 . Se F1 G1 e F2 G2 , prove que
F1 = G 1 e F2 = G 2 .

22

Subespacos

Sec
ao 2

f : E F chama-se
2.35. Sejam E, F espacos vetoriais. Uma funcao
par (respect. mpar) quando f(v) = f(v) (respect. f(v) = f(v))
para todo v E. Prove:
(a) O conjunto A das funco es pares e o conjunto B das funco es mpa subespacos vetoriais de F(E; F) (vide Exerc. 1.15) e vale
res sao
F(E; F) = A B.

(b) Alem dos conjuntos A, dos polinomios pares, e B, dos polinomios


mpares, considere tambem o conjunto A dos polinomios da forma
p(x) = ai x2i que so contem expoentes pares e o conjunto B dos polinomios da forma q(x)=ai x2i+1 , que so contem expoentes mpares.
subespacos vetoriais do espaco P de todos os
Prove que A e B sao

polinomios, que A A, B B e P = A B . Conclua que A = A e


B = B .
2.36. Para todo n N seja Qn o conjunto dos polinomios (de graus

divisveis por xn . Prove que Qn e um subespaco


arbitrarios)
que sao
vetorial de P. Ache um subespaco F P tal que P = F Qn .

2.37. Dado X E, seja Y o conjunto obtido de X substituindo um


dos seus elementos v por v + u, onde u X e R. Prove que
X e Y geram o mesmo subespaco vetorial de E. Conclua da que os
conjuntos {v1 , . . . , vk } E e {v1 , v2 v1 , . . . , vk v1 } E geram o mesmo
subespaco vetorial de E.
de tres subespacos vetoriais so pode ser
2.38. Prove que a reuniao
um subespaco vetorial quando um deles contem os outros dois.
2.39. Sejam F1 , F2 subespacos vetoriais de E. Se existir algum a E
tal que a + F1 F2 , prove que F1 F2 .

2.40. Seja V E uma variedade afim. Dados v1 , . . . , vm V e


1 , . . . , m R com 1 + +m = 1, prove que 1 v1 + +m vm V.

2.41. Para todo subespaco vetorial F Rn , prove que existe um


subespaco G Rn tal que Rn = F G.

2.42. Verdadeiro ou falso? Para quaisquer subconjuntos X, Y E


tem-se
S(X Y) = S(X) + S(Y),
S(X Y) = S(X) S(Y).

Sec
ao 2

Subespacos

23

(A ultima
das igualdades acima sugere uma pergunta: qual seria
mais
o subespaco vetorial gerado pelo conjunto vazio? A convencao
conveniente e S() = {0}.)

2.43. Dado o subconjunto nao-vazio


X do espaco vetorial E, a va o conjunto V(X) de toriedade afim gerada por X e , por definicao,
das as combinaco es lineares 1 v1 + + n vn , com v1 , . . . , vn X e
1 + + n = 1. Prove que
(a) V(X) e uma variedade afim;
(b) Fixado qualquer v0 X, tem-se V(X) = v0 + F, onde F e o
subespaco vetorial de E gerado pelos vetores v v0 , onde v X.

3
Bases
Os espacos vetoriais de dimensao
finita, objetos centrais do nosso
estudo, possuem uma estrutura algebrica extremamente simples, evidenciada pelas ideias de base e dimensao,
que apresentaremos agora.
Uma vez fixada uma base num espaco vetorial de dimensao
n, seus
elementos sao
meramente combinaco es lineares dos n vetores basicos,

com coeficientes univocamente determinados. Nesta secao,


esses fatos
serao
estabelecidos e analisados em detalhe.
Seja E um espaco vetorial. Diz-se que um conjunto X E e linearmente independente (abreviadamente, L.I.) quando nenhum vetor
linear de outros elementos de X. Para evitar
v X e combinacao

ambiguidade, no caso em que X = {v} consta de um unico


elemento
quando v 6= 0. Quando X e L.I.,
v, diz-se que X e L.I., por definicao,
vetores linearmente indediz-se tambem que os elementos de X sao
pendentes.
todos 6= 0, pois o
Quando o conjunto X e L.I. seus elementos sao
linear de quaisquer outros: 0 = 0 v1 + +
vetor nulo e combinacao
ha outros, X = {v}, v 6= 0.)
0 vm . (Se nao

Um criterio extremamente util


para verificar a independencia
linear de um conjunto e dado pelo teorema abaixo.
Teorema 3.1. Seja X um conjunto L.I. no espaco vetorial E. Se
1 v1 + + m vm =0 com v1 , . . . , vm X entao
1 = = m =0. Reciprocamente, se a unica

combinacao
linear nula de vetores de X e
aquela cujos coeficientes sao
todos iguais a zero, entao
X e um conjunto L.I..

Sec
ao 3

Bases

25

Suponhamos, por absurdo, que se tenha 1 v1 + +


Demonstracao:
m vm = 0 com v1 , . . . , vm X mas nem todos os i sejam nulos. Por
teremos v1 = (2 /1 )v2
simplicidade, seja 1 6= 0. Entao
linear de outros
(m /1 )vm = 0, o que exprime v1 como combinacao
fosse L.I., algum dos seus
elementos de X. Reciprocamente, se X nao
linear dos demais:
vetores seria combinacao
v = 1 v 1 + + m v m ,

logo 1 v 1 v1 m vm = 0,

linear nula de vetores em X, na qual pelo menos o


uma combinacao
e zero.
primeiro coeficiente nao

Corolario.
Se v = 1 v1 + + m vm = 1 v1 + + m vm e os vetores
v1 , . . . , vm sao
L.I. entao
1 = 1 , . . . , m = m .
Com efeito, tem-se neste caso (1 1 )v1 + + (m m )vm = 0
logo 1 1 = = m m = 0.
Evidentemente, todo subconjunto de um conjunto L.I. e
ainda L.I. .
Exemplo 3.1. Os vetores canonicos e1 = (1, 0, . . . , 0), . . . , en =
L.I. . Com efeito, 1 e1 + + n en = 0
(0, . . . , 0, 1) em Rn sao
significa (1 , . . . , n ) = 0, logo 1 = = n = 0. Analogamente,
L.I. pois o + 1 x + + n xn =
os monomios 1, x, . . . , xn em Pn sao
identip(x) e o vetor nulo em Pn somente quando p(x) e a funcao
camente nula, isto e , p(x) = 0 para todo x R. Isto obriga a ser
nulo de grau k tem no
o = = n = 0 pois um polinomio nao

nos permite ainda concluir


maximo
k razes reais. Esta observacao
que X = {1, x, . . . , xn , . . .} P e um conjunto infinito L.I. .

` vezes util.

Na pratica,
o criterio seguinte e as

Teorema 3.2. Sejam v1 , . . . , vm vetores nao-nulos


do espaco veto linear dos anteriores entao
o
rial E. Se nenhum deles e combinacao
conjunto X = {v1 , . . . , vm } e L.I. .
li Suponhamos, por absurdo, que uma combinacao
Demonstracao:
todos nulos, fosse igual
near dos vetores dados, com coeficientes nao

a zero. Se r vr fosse a ultima


parcela nao-nula
dessa combinacao,

teramos entao
1 v1 + + r vr = 0,

26

Bases

Sec
ao 3

vr1 , logo vr seria


com r 6= 0. Da viria vr = 1r v1 r1
r
linear dos elementos anteriores a ele na lista v1 , . . . , vm .
combinacao
(Observe que r > 1 pois v1 6= 0.)

Evidentemente, vale um resultado analogo,


Observacao:
com sub
sequentes
em vez de anteriores no enunciado.
Um conjunto X E diz-se linearmente dependente (abreviada e L.I. .
mente, L.D.) quando nao
linear
Isto significa que algum dos vetores v X e combinacao
que X = {0}. A fim de que X seja
de outros elementos de X, ou entao

linear nula
L.D. e necessario
e suficiente que exista uma combinacao
1 v1 + + m vm = 0 de vetores v1 , . . . , vm X com algum coeficiente
Y tambem e L.D. . Se 0 X entao
o
i 6= 0. Se X Y e X e L.D. entao
conjunto X e L.D. .
Exemplo 3.2. Os vetores u = (1, 2, 3), v = (4, 5, 6), w = (7, 8, 9) em
L.D. pois w = 2v u.
R3 sao
L.D., isto nao
signiExemplo 3.3. Quando os vetores v1 , . . . , vm sao
linear dos demais. Por
fica que qualquer um deles seja combinacao
{u, v, w} R2 e um
exemplo se u = (1, 2), v = (3, 4) e w = (4, 8) entao
e combinacao
linear de
conjunto L.D. pois w = 4u + 0 v porem v nao
u e w.
Uma base de um espaco vetorial E e um conjunto B E linearmente independente que gera E. Isto significa que todo vetor v E

linear v = 1 v1 + +
se exprime, de modo unico,
como combinacao
m vm de elementos v1 , . . . , vm da base B. Se B = {v1 , . . . , vm } e uma
os numeros

base de E e v = 1 v1 + + m vm , entao
1 , . . . , m
chamam-se as coordenadas do vetor v na base B.
Exemplo 3.4. Os vetores e1 = (1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1) constituem uma base {e1 , . . . , en } de Rn , chamada a base canonica. Analogamente, os monomios 1, x, . . . , xn formam uma base para o espaco
vetorial Pn dos polinomios de grau n. O conjunto
{1, x, . . . , xn , . . .}

dos monomios de graus arbitrarios


constitui uma base (infinita) para
o espaco vetorial P de todos os polinomios reais. Convem observar, entretanto, que o conjunto X = {e1 , . . . , en , . . .} R , onde

Sec
ao 3

Bases

27

encia infinita cujo n-esimo termo e


en = (0, . . . , 0, 1, 0, . . .) e a sequ
iguais a zero, e um conjunto infinito L.I. mas
1 e os demais sao
e uma base de R pois nao
gera este espaco. Com efeito, o
nao
subespaco vetorial de R gerado por X e o conjunto R() formado
encias v = (1 , . . . , n , . . .) nas quais apenas um numero

pelas sequ
finito de coordenadas n e 6= 0.
Demonstraremos a seguir que se um espaco vetorial E admite
todas as bases de E tem o mesmo
uma base com n elementos entao

numero
n de elementos. Este numero
e chamado a dimensao
de E.
O ponto de partida e o lema abaixo. Nele, um sistema linear e
e
chamado homogeneo quando o segundo membro de cada equacao
igual a zero. Todo sistema homogeneo admite pelo menos a solucao

trivial (0, 0, . . . , 0). Isto e coerente com o Exemplo 2.4, pois as soluco es v = (x1 , . . . , xn ) de um sistema homogeneo constituem um
subespaco vetorial de Rn e todo subespaco contem o vetor nulo.
Lema 3.1. Todo sistema linear homogeneo cujo numero

de incognitas e maior do que o numero

de equaco es admite uma solucao


nao
trivial.
Consideremos o sistema
Demonstracao:
a11 x1 + a12 x2 + + a1n xn = 0

a21 x1 + a22 x2 + + a2n xn = 0


..
.

(*)

am1 x1 + am2 x2 + + amn xn = 0,


no
de m equaco es com n incognitas, onde m < n. Usaremos inducao

numero
m de equaco es. Para m = 1, temos uma unica
equacao
a11 x1 + + a1n xn = 0,
com n > 1 incognitas. Um dos coeficientes a1i e 6= 0. Mudando os

nomes das incognitas, se necessario,


podemos supor que a1n 6= 0. A
dada equivale a
equacao


a11
a1n1
xn =
x1 + +
xn1 .
a1n
a1n

` n 1 incognitas
Atribuindo arbitrariamente valores nao-nulos
as

obtex1 , . . . , xn1 e calculando xn por meio desta ultima


expressao,
nao-trivial

dada. Para
mos uma solucao
(x1 , . . . , xn ) para a equacao

28

Bases

Sec
ao 3

suponhamos o lema verdadeiro para um siscompletar a inducao,

tema com m 1 equaco es. Mudando, se necessario,


a ordem das
equaco es e os nomes das incognitas, podemos admitir que, no sis da m-esima equacao
resulta
tema (*) dado, tem-se amn 6= 0. Entao


am1
amn1
xn =
x1 + +
xn1 .
amn
amn
Substituindo, em cada uma das m 1 primeiras equaco es, a incognita xn por este valor, obtemos um sistema homogeneo de m 1 equa este
co es nas n 1 incognitas x1 , . . . , xn1 . Pela hipotese de inducao,
nao-trivial

sistema admite uma solucao


(1 , . . . , n1 ), pois n 1 >
m 1. Pondo


amn1
am1
n =
1 + +
n1 ,
amn
amn
nao-trivial

obtemos uma solucao


(1 , . . . , n1 , n ) do sistema proposto (*).
Teorema 3.3. Se os vetores v1 , . . . , vm geram o espaco vetorial E
qualquer conjunto com mais de m vetores em E e L.D.
entao

Demonstracao:
Dados os vetores w1 , . . . , wn em E, com n > m,
para cada j = 1, . . . , n temos wj = 1j v1 + + mj vm pois os vetores
L.D., devev1 , . . . , vm geram E. Para mostrar que os vetores wj sao
todos iguais a zero, tais que
mos achar coeficientes x1 , . . . , xn , nao
x1 w1 + + xn wn = 0. Substituindo os wj por suas expressoes em
termos dos vi , esta igualdade significa que

n
n
n
X
X
X

xj 1j v1 +
xj 2j v2 + +
xj mj vm = 0.
j=1

j=1

j=1

sera satisfeita desde que todos os


Certamente esta ultima
condicao
somatorios dentro dos parenteses sejam nulos, ou seja, que
nao-trivial

(x1 , . . . , xn ) seja uma solucao


do sistema homogeneo
11 x1 + 12 x2 + + 1n xn = 0

21 x1 + 22 x2 + + 2n xn = 0
..
.

m1 x1 + m2 x2 + + mn xn = 0.

Sec
ao 3

Bases

29

existe, pelo Lema 3.1, pois n > m. Logo w1 , . . . , wn


Uma tal solucao
L.D. e o teorema esta demonstrado.
sao

Corolario
1. Se os vetores v1 , . . . , vm geram o espaco vetorial E e os
vetores u1 , . . . , un sao
L.I. entao
n m.

do Teorema 3.3.
Este corolario
e uma mera reformulacao

Corolario
2. Se o espaco vetorial E admite uma base B={u1 , . . . , un }
com n elementos, qualquer outra base de E possui tambem n elementos.
Com efeito, seja B = {v1 , . . . , vm } outra base de E. Como B gera E

e B e L.I., temos n m, pelo Corolario


1. Como B gera E e B e L.I.,

do mesmo corolario
segue-se m n. Logo m = n.
Diz-se que o espaco vetorial E tem dimensao
finita quando ad
mite uma base B = {v1 , . . . , vn } com um numero
finito n de elemen
tos. Este numero,
que e o mesmo para todas as bases de E, chama-se
diz-se
a dimensao
do espaco vetorial E: n = dim E. Por extensao,
zero.
que o espaco vetorial E = {0} tem dimensao

Corolario
3. Se a dimensao
de E e n, um conjunto com n vetores
gera E se, e somente se, e L.I..
e L.I. entao
um dos
Com efeito, se X = {v1 , . . . , vn } gera E e nao
dos n 1 restantes. Estes n 1 vetoseus elementos e combinacao

res formariam ainda um conjunto de geradores de E, em contradicao


com o Teorema 3.3, pois E contem (uma base com) n vetores linearmente independentes. Reciprocamente, suponhamos que X seja
gerasse E, existiria um vetor v E que nao
seria
L.I. . Se X nao
linear dos elementos de X. Entao,
pelo Teorema 3.2,
combinacao
com o Teorema 3.3, pois uma
{v1 , . . . , vn , v} seria L.I., em contradicao
base de E, com n elementos, gera o espaco.
Como a base canonica {e1 , . . . , en } Rn tem n elementos, Rn e um
finita n. Segue-se entao
do Corolario

espaco vetorial de dimensao


3
n
que, para mostrarmos que n vetores v1 , . . . , vn R formam uma
L.I. ou, alternativamente, que
base basta provarmos que eles sao
n
geram R .

30

Bases

Sec
ao 3

Teorema 3.4. Seja E um espaco vetorial de dimensao


finita n. Entao:

(a) Todo conjunto X de geradores de E contem uma base.


(b) Todo conjunto L.I. {v1 , . . . , vm } E esta contido numa base.
(c) Todo subespaco vetorial F E tem dimensao
finita, a qual e
n.
(d) Se a dimensao
do subespaco F E e igual a n, entao
F = E.

Demonstracao:
(a) Os conjuntos L.I. em E tem no maximo
n
elementos. Seja Y = {v1 , . . . , vm } X um subconjunto L.I. de X

com o numero
maximo
possvel de elementos. Se existisse algum
fosse combinacao
linear de v1 , . . . , vm entao
o
vetor v X que nao
conjunto {v1 , . . . , vm , v} X seria L.I. pelo Teorema 3.2, mas isto contradiria a maximalidade de m. Logo devemos ter X S(Y), donde
E = S(X) S(Y) e da S(Y) = E, ou seja Y e uma base de E, contida
em X, como se devia demonstrar.
(b)

Seja
Y = {v1 , . . . , vm , vm+1 , . . . , vk }

um conjunto L.I. com o numero


maximo
possvel de elementos contendo os m vetores dados. (Pelo Teorema 3.3, tem-se k n.) Se
fosse combinacao
linear dos
existisse em E algum vetor v que nao
Y {v} seria um conjunto L.I., de acordo com
elementos de Y, entao
com a maximalidade de k. Segue-se
o Teorema 3.2, em contradicao
que Y gera E, logo e uma base de E, contendo v1 , . . . , vm .
(c) Seja Y = {v1 , . . . , vm } F um subconjunto de F que e L.I. e tem

Y gera F pois se
o numero
maximo
possvel de elementos. Entao
fosse combinacao
linear dos vetores de Y
algum elemento v F nao
pelo Teorema 3.2, {v1 , . . . , vm , v} F seria um conjunto L.I.,
entao,
contrariando a maximalidade de m. Portanto Y e uma base de F
finita. Alem disso, tem-se dim F = m n pois
e F tem dimensao
nenhum conjunto com mais de n elementos em E pode ser L.I. .
toda base de F e um subconjunto
(d) Se dim F = dim E = n entao

L.I. com n elementos em E, logo gera E, pelo Corolario


3. Segue-se
que F = E.

Sec
ao 3

Bases

31

Neste livro, trataremos primordialmente dos espacos vetoriais


finita. Diz-se que o espaco vetorial E tem dimensao
de dimensao

tem dimensao
finita, isto e , quando nenhum
infinita quando ele nao
subconjunto finito de E e uma base. Como todo subconjunto finito
se reduza ao vetor 0) contem um subconjunto L.I. que gera
(que nao
o mesmo subespaco, podemos dizer que um espaco vetorial E tem
infinita se, e somente se, nao
e gerado por um conjunto
dimensao
finito de vetores. Por exemplo, o espaco P de todos os polinomios
infinita pois se X P e um conjunto finito de
reais tem dimensao
polinomios e r e o mais alto grau de um polinomio qualquer de X
o subespaco vetorial gerado por X esta contido em Pr , logo nao

entao
e igual a P.
Exemplo 3.5. Os monomios 1, x, . . . , xn constituem uma base do
espaco vetorial Pn , dos polinomios de grau n, logo Pn tem di finita e dim Pn = n + 1. Por outro lado, o conjunto infimensao
nito {1, x, . . . , xn , . . .} e uma base do espaco vetorial P de todos os
infinita. Tambem tem dimensao
inpolinomios, o qual tem dimensao
()
finita o espaco R , introduzido no Exemplo 3.4, pois admite a base
encia
infinita {e1 , e2 , . . . , en , . . .}, onde en = (0, . . . , 0, 1, 0, . . .) e a sequ
zeros. Finalmente,
infinita cujo n-esimo termo e 1 e os demais sao
exibamos explicitamente uma base para o espaco R ,
embora nao
tem dimensao
finita, em virtude do
podemos assegurar que ele nao
()
item (c) do Teorema 3.4 acima, ja que R
e um subespaco de R
infinita.
com dimensao
Exemplo 3.6. O espaco vetorial M(m n), das matrizes m n, tem
finita, igual a m n. Uma base para M(m n) e formada
dimensao
da i-esima
pelas matrizes eij , cujo ij-esimo elemento (na intersecao

linha com a j-esima coluna) e igual a 1 e os demais elementos sao


iguais a zero.
sao
todos iguais a
Exemplo 3.7. Se os coeficientes a1 , . . . , an nao
zero, o hiperplano
H = {(x1 , . . . , xn ) Rn ; a1 x1 + + an xn = 0}
n 1 em Rn . Com efeito, ade um subespaco vetorial de dimensao
mitindo (por simplicidade) que an 6= 0, vemos que
v = (x1 , . . . , xn ) H xn =

a1
an1
x1
xn1 .
an
an

32

Bases

Sec
ao 3

Em particular, para todo i = 1, . . . , n 1, o vetor


vi = (0, . . . , 1, . . . , 0, ai /an ),

zero,
cuja i-esima coordenada e 1, a ultima
e ai /an e as demais sao
L.I., como se
pertence a H. Alem disso, os vetores v1 , . . . , vn1 sao
n 1 ou n. Como
ve facilmente. Logo o subespaco H tem dimensao
pertence a H),
H 6= Rn (por exemplo, o vetor v = (0, . . . , 0, an ) nao
segue-se que dim H = n 1 e os vetores v1 , . . . , vn1 formam uma
base do hiperplano H.
Diz-se que a variedade afim V E tem dimensao
r quando V =
r.
x + F, onde o subespaco vetorial F E tem dimensao

Exerccios
3.1.
Dados os vetores u = (a1 , a2 , a3 ), v = (b1 , b2 , b3 ) e
w = (c1 , c2 , c3 ), escreva u = (a1 , a2 ), v = (b1 , b2 ) e w = (c1 , c2 ).
Supondo u e v L.I., existem , R tais que w = u + v . Prove
que {u, v, w} e L.D. se, e somente se, w = u + v (com os mesmos
e ). Use esse criterio para determinar se os vetores u, v e w abaixo
L.I. ou L.D.:
sao
(a)

u = (1, 2, 3),

v = (1, 3, 2),

w = (1, 2, 3)

(b)

u = (1, 2, 3),

v = (1, 3, 2),

w = (1, 4, 1).

L.I.:
3.2. Mostre que as matrizes a, b e c abaixo sao






1 1
1 0
1 1
a=
, b=
, c=
.
0 0
0 1
1 1
linearmente independen3.3. Prove que os polinomios seguintes sao
tes:
p(x) = x3 5x2 + 1,

q(x) = 2x4 + 5x 6,

r(x) = x2 5x + 2.

3.4. Seja X um conjunto de polinomios. Se dois polinomios quaisquer


pertencentes a X tem graus diferentes, prove que X e L.I. .

Sec
ao 3

Bases

33

3.5. No espaco P3 dos polinomios de grau 3, verifique se os po L.I. ou L.D.:


linomios abaixo sao
p(x) = x3 3x2 + 5x + 1,
q(x) = x3 x2 + 6x + 2,
r(x) = x3 7x2 + 4x.

em C (R) e combinacao
linear de outras entao

3.6. Se uma funcao


combinaco es lineares (com os messuas derivadas sucessivas sao
mos coeficientes) das derivadas dessas outras. Use este fato para
mostrar que {ex , e2x , x3 , x2 , x} e um conjunto L.I. .
3.7. Seja E = F1 F2 . Se B1 e uma base de F1 e B2 e uma base de F2 ,
prove que B1 B2 e uma base de E.
3.8. Exiba uma base para cada um dos subespacos de R4 listados a
seguir:
F = {(x1 , x2 , x3 , x4 ); x1 = x2 = x3 = x4 }
G = {(x1 , x2 , x3 , x4 ); x1 = x2 e x3 = x4 }
H = {(x1 , x2 , x3 , x4 ); x1 = x2 = x3 }
K = {(x1 , x2 , x3 , x4 ); x1 + x2 + x3 + x4 = 0}.
finita. Dado um subespa3.9. Seja E um espaco vetorial de dimensao
co F E, prove que se pode obter um subespaco G E tal que
E = F G.
3.10. Seja F o subespaco vetorial (plano) de R3 formado pelos vetores
v = (x, y, z) tais que x 2y + 4z = 0. Obtenha uma base {u1 , u2 , u3 }
R3 tal que u1 e u2 pertencam a F.
3.11. Mostre que os polinomios 1, x1 e x2 3x+1 formam uma base
linear dos
de P2 . Exprima o polinomio 2x2 5x + 6 como combinacao
elementos dessa base.
3.12. Mostre que os vetores u = (1, 1) e v = (1, 1) formam uma
base de R2 . Exprima cada um dos vetores e1 = (1, 0) e e2 = (0, 1)
linear dos elementos dessa base.
como combinacao

34

Bases

Sec
ao 3

3.13. Mostre que os vetores u = (1, 1, 1), v = (1, 2, 1) e w = (2, 1, 2)


L.D. .
sao

3.14. Assinale V(erdadeiro) ou F(also) quanto a` validez da afirmacao:


de dois subconjuntos L.I. do espaco vetorial E e ainda
A uniao
um conjunto L.I.
(

) Sempre.

) Nunca.

) Quando um deles e disjunto do outro.

) Quando um deles e parte do outro.

) Quando um deles e disjunto do subespaco gerado pelo outro.

( ) Quando o numero
de elementos de um deles mais o numero
de
de E.
elementos do outro e igual a` dimensao
3.15. Seja S o conjunto das matrizes simetricas n n. Para cada

par (i, j) de numeros


naturais de 1 ate n, com i j, seja sij a matriz
iguais a 1 e os den n cujos elementos nas posico es ij e ji sao
zero. Prove que estas matrizes constituem uma base para
mais sao

o subespaco vetorial S M(n n). De modo analogo,


obtenha uma
base do subespaco A das matrizes anti-simetricas n n. Conclua
que dim S = n(n + 1)/2 e dim A = n(n 1)/2.
3.16. As matrizes t = [tij ] M(n n) tais que tij = 0 quando i < j
chamadas triangulares inferiores. Prove que elas constituem
sao
um subespaco vetorial L M(n n), obtenha uma base para L e

determine a sua dimensao.

3.17. Obtenha uma base e consequentemente


determine a dimensao
de cada um dos subespacos de M(n n) abaixo descritos:
(a) matrizes cuja soma dos elementos da diagonal (traco) e zero.

(b) matrizes que tem a primeira e a ultima


linha iguais.
(c) matrizes cuja segunda linha e igual a` terceira coluna.
(d) matrizes nas quais a soma dos elementos da primeira linha e
igual a` soma dos elementos da segunda coluna.

Sec
ao 3

Bases

35

3.18. Sejam u, v E vetores linearmente independentes. Dado 6=


0, prove que o conjunto de dois elementos {v, v + u} e uma base do
subespaco gerado pelos vetores v, v + u, v + 2u, . . . , v + nu, . . . .
3.19. Sejam v1 = (1, 2, . . . , n), v2 = (n + 1, n + 2, . . . , 2n), . . . , vn =
(n2 n + 1, n2 n + 2, . . . , n2 ). Prove que estes vetores geram em Rn o
mesmo subespaco F que os vetores w1 = (1, n+1, 2n+1, . . . , n2 n+1),
w2 = (2, n+2, . . . , n2 n+2), . . . , wn = (n, 2n, . . . , n2 ) e que dim F = 2.
(Veja Exerccio 2.3.)
nao-trivial

3.20. Ache uma solucao


para o sistema homogeneo:
x1 + 2x2 + 3x3 + 4x4 = 0
2x1 + x2 + x3 x4 = 0
3x1 2x2 + x3 2x4 = 0
linear nula dos vetores v1 =
e, a partir da, obtenha uma combinacao
(1, 2, 3), v2 = (2, 1, 2), v3 = (3, 1, 1), v4 = (4, 1, 2), na qual os
sao
todos iguais a zero.
coeficientes nao

3.21. Seja {v1 , . . . , vn } uma base do espaco vetorial E. Se os numeros


sao
todos iguais a zero, prove que o conjunto F dos
a1 , . . . , an nao
vetores v = x1 v1 + + xn vn tais que a1 x1 + + an xn = 0 e um
subespaco vetorial de E, com dim F = n 1.
3.22. Prove que {1, ex , e2x , e3x , e4x } e um conjunto L.I. no espaco
dada uma combinacao
linear nula, derive-a, deC (R). (Sugestao:
x
pois divida por e e prossiga.)
3.23. Sejam X1 , . . . , Xn , . . . subconjuntos L.I. do espaco vetorial E.
S
(a) Se X1 X2 . . . Xn Xn+1 . . ., prove que X = Xn e L.I. .

(b) Se cada Xn tem n elementos, prove que existe um conjunto linearmente independente X = {x1 , . . . , xn , . . .} com xn Xn para cada
n N.

(c) Supondo E = R()


S e admitindo as hipoteses dos tens anteriores,
e verdade que X = Xn seja uma base de E ?

L.I., prove que o mesmo se da com


3.24. Se os vetores v1 , . . . , vm sao
os vetores v1 , v2 v1 , . . . , vm v1 . Vale a recproca?

3.25. Dado o conjunto finito X = {a1 , . . . , an }, obtenha uma base para


o espaco vetorial F(X; R).

36

Bases

Sec
ao 3

3.26. Seja X um conjunto infinito. Para cada a X, seja fa : X R


tal que fa (a) = 1 e fa (x) = 0 se x 6= a. Prove que o conjunto
a funcao
Y F(X; R) formado por estas funco es e linearmente independente,
tem dimensao
finita. Prove ainda que Y nao
gera
logo F(X; R) nao
F(X; R).
finita. Obtenha uma
3.27. Sejam F1 , F2 E subespacos de dimensao
base do subespaco F1 + F2 que contenha uma base de F1 , uma base de
F2 e uma base de F1 F2 .
3.28. Exiba uma base para cada um dos espacos vetoriais abaixo e

da calcule sua dimensao:


(a) polinomios pares de grau n.
(b) polinomios mpares de grau n.
(c) polinomios de grau n que se anulam para x = 2 e x = 3.
(d) vetores de Rn (n 6) nos quais a segunda, a quarta e a sexta
iguais.
coordenadas sao
3.29. Pode-se ter uma base de Pn formada por n + 1 polinomios de
grau n ?
3.30. Mostre que os vetores u = (1, 1, 1), v = (1, 2, 3) e w = (1, 4, 9)
formam uma base de R3 . Exprima cada um dos vetores e1 , e2 , e3 da
linear de u, v e w.
base canonica de R3 como combinacao
encia infinita F1 , F2 , . . . , Fn , . . . de subespacos
3.31. Ache uma sequ
vetoriais de P tais que: (a) dim Fn = ; (b) Fm Fn = {0} se m 6= n.

3.32. Para 1 i m e 1 j n, sejam si , tj : M(m n) R as


funco es definidas por si (a) = soma dos elementos da i-esima linha
de a e tj (a) = soma dos elementos da j-esima coluna de a. Prove que
L.D. no espaco vetorial E = F(M(m n); R)
s1 , . . . , sm , t1 , . . . , tn sao
mas o conjunto {s1 , . . . , sm1 , t1 , . . . , tn } e L.I. .
3.33. Com as notaco es do exerccio anterior, sejam , : M(n n)

R as funco es definidas, para cada a = [aij ] M(n n) por (a) =


a11 + + ann (soma dos termos da diagonal principal) e (a) =
a1n + a2,n1 + + an1 (soma dos termos da outra diagonal). Prove

Sec
ao 3

Bases

37

funco es linearmente
que, para n 3, {s1 , . . . , sn1 , t1 , . . . , tn , , } sao
independentes.
3.34. Num espaco vetorial E, diz-se que o vetor v e uma combinacao

afim dos vetores v1 , . . . , vr quando se tem v = 1 v1 + + r vr ,


afimcom 1 + + r = 1. Diz-se que os vetores v1 , . . . , vr sao
afim dos
independentes quando nenhum deles e uma combinacao
equivalentes:
demais. Prove que as seguintes afirmaco es sao
afim-independentes.
(1) Os vetores v1 , . . . , vr sao
1 = = r = 0.
(2) Se 1 v1 + + r vr = 0 e 1 + + r = 0 entao
r
r
P
P

(3) Se 1 v1 + + r vr = 1 v1 + + r vr com
i =
i entao
i=1

i=1

1 = 1 , . . . , r = r . (Em particular, duas combinaco es afins dos vi


so podem ser iguais quando tiverem os mesmos coeficientes.)
L.I. .
(4) Os vetores v2 v1 , v3 v1 , . . . , vr v1 sao
r 1.
(5) A variedade afim gerada por v1 , . . . , vr tem dimensao

4
Transformaco
es Lineares

A Algebra
Linear pode ser apresentada sob tres pontos de vista equivalentes: transformaco es lineares, matrizes ou formas quadraticas.

A e nfase (ou ate mesmo a exclusividade) que se da a uma dessas


abordagens e muitas vezes uma questao
de habito,

gosto pessoal ou
conviccao.
Neste livro, os tres aspectos serao
devidamente tratados
porem a primazia sera concedida as
` transformaco es lineares, pelos
tres motivos apontados, principalmente o ultimo.

Sejam E, F espacos vetoriais. Uma transformacao


linear A : E F
e uma correspondencia que associa a cada vetor v E um vetor
A(v) = A v = Av F de modo que valham, para quaisquer u, v E
e R, as relaco es:
A(u + v) = Au + Av,
A( v) = Av.
O vetor Av chama-se a imagem (ou o transformado) de v pela trans A.
formacao
linear entao
A 0 = 0. Com
Se A : E F e uma transformacao
efeito, A 0 = A(0 + 0) = A 0 + A 0. Alem disso, dados u, v E e
, R, tem-se A(u + v) = A(u) + A(v) = Au + Av. Mais
geralmente, dados v1 , . . . , vm em E e 1 , . . . , m R, vale
A(1 v1 + + m vm ) = 1 Av1 + + m Avm .
Da resultam A(v) = Av e A(u v) = Au Av.

Sec
ao 4

Transformac
oes Lineares

39

A soma de duas transformaco es lineares A, B : E F e o produto


linear A : E F por um numero

de uma transformacao
R sao
as transformaco es lineares A + B : E F e A : E F, definidas
respectivamente por (A + B)v = Av + Bv e (A)v = Av, para todo
linear nula 0 : E F,
v E. O smbolo 0 indica a transformacao
definida por 0 v = 0 e, definindo A : E F por (A) v = Av,
ve-se que (A) + A = A + (A) = 0.
Seja L(E; F) o conjunto das transformaco es lineares de E em F. As
definico es acima tornam L(E; F) um espaco vetorial. Quando E = F,
L(E) em vez de L(E; E). As transformaco es liusaremos a notacao
chamadas
neares A : E E do espaco vetorial E em si mesmo sao
operadores lineares em E. Por sua vez, as transformaco es lineares
chamadas funcionais linea : E R, com valores numericos, sao

res. Escreve-se E em vez de L(E; R) e o conjunto E dos funcionais


lineares : E R chama-se o espaco vetorial dual de E.
Um operador linear especial e o operador identidade I : E E,

definido por I v = v para todo v E. Quando for necessario


especificar, escreveremos IE em vez de I.
linear A : E F e um tipo particular de
Uma transformacao
que tem o espaco vetorial E como domnio e o espaco F como
funcao
f: X Y
contra-domnio. Em geral, para se definir uma funcao

e necessario
especificar o valor f(x) para cada elemento x no seu
manejaveis

domnio X. O que torna as transformaco es lineares tao


e que, para se conhecer A L(E; F), basta que se saibam os valores
A v que A assume nos vetores v B, onde B e uma base de E. Isto

finita. Neste caso,


e particularmente util
quando E tem dimensao

um numero
finito de valores A v1 , . . . , A vn (onde {v1 , . . . , vn } E
e uma base) atribudos arbitrariamente, definem inteiramente uma
linear A : E F. Mais precisamente, vale o
transformacao
Teorema 4.1. Sejam E, F espacos vetoriais e B uma base de E. A

cada vetor u B, facamos corresponder (de maneira arbitraria)


um
existe uma unica

linear A : E F
vetor u F. Entao
transformacao
tal que A u = u para cada u B.

Todo vetor v E se exprime, de modo unico,


Demonstracao:
como
linear v = 1 u1 + + m um de elementos u1 , . . .
uma combinacao
. . . , um da base B. Definimos A : E F pondo
A v = 1 u1 + + m um .

40

Transformac
oes Lineares

Sec
ao 4

Dados v, w E temos
v = 1 u 1 + + m u m
e
w = 1 u 1 + + m u m .

(Mesmo que a base B seja infinita, podemos exprimir v e w como


combinaco es lineares dos mesmos elementos de B, completando com

coeficientes zero os multiplos


dos ui que aparecem apenas numa das

duas expressoes.) Entao


v+w=

m
X

(i + i )ui

i=1

logo
A(v + w) = (i + i )ui = i ui + i ui = A v + A w.

De maneira analoga
se ve que A(v) = Av, portanto A : E F,
linear, tal que A u = u , para
assim definida, e uma transformacao

todo u B. Quanto a` unicidade, seja B : E F outra transformacao


para cada v =
linear tal que B u = u para todo u B. Entao,
i ui E tem-se
B v = B(i ui ) = i Bui = i ui = A v

portanto B = A. Isto completa a demonstracao.


Em virtude do Teorema 4.1, se quisermos definir uma transfor linear A : Rn Rm basta escolher, para cada j = 1, . . . , n,
macao
um vetor vj = (a1j , a2j , . . . , amj ) Rm e dizer que vj = A ej e a
imagem do j-esimo vetor da base canonica, ej = (0, . . . , 1, . . . , 0), pela
linear A. A partir da, fica determinada a imagem
transformacao
A v de qualquer vetor v = (x1 , . . . , xn ) Rn . Com efeito, tem-se
v = x1 e1 + + xn en , logo

n
n
n
X
X
X

Av=A
(a1j xj , a2j xj , . . . , amj xj )
xj A e j =
xj e j =
=

n
X
j=1

a1j xj ,

j=1

j=1

j=1

n
X
j=1

a2j xj , . . . ,

n
X
j=1

amj xj ,

Sec
ao 4

Transformac
oes Lineares

41

ou seja,
A(x1 , x2 , . . . , xn ) = (y1 , y2 , . . . , ym ),
onde
y1 = a11 x1 + a12 x2 + + a1n xn

y2 = a21 x1 + a22 x2 + + a2n xn


..
.

(*)

ym = am1 x1 + am2 x2 + + amn xn .


linear A : Rn Rm fica inteiResumindo: uma transformacao
ramente determinada por uma matriz a = [aij ] M(m n). Os
as imagens A ej dos vetores da
vetores-coluna dessa matriz sao
n

base canonica de R . A imagem A v de um vetor arbitrario


v =
(x1 , . . . , xn ) Rn e o vetor w = (y1 , . . . , ym ) Rm cujas coordenadas
dadas pelas equaco es (*) acima, nas quais ocorrem os vetoressao
linha da matriz a. Diz-se que a e a matriz da transformacao
A rela` bases canonicas de Rn e Rm . Tem-se
tiva as
A ej =

m
X

aij ei

(j = 1, . . . , n),

i=1

em Rn e os ei em Rm .
onde os ej estao
Em particular, a matriz de um funcional linear : Rn R e do
tipo 1 n, logo pode ser escrita simplesmente como [a1 , a2 , . . . , an ],
onde aj = (ej ). Para todo vetor x = (x1 , . . . , xn ) Rn tem-se (x) =
a1 x1 + + an xn .
dual, uma transformacao
linear A : R Rn e dada
Na situacao

por uma matriz n 1, cuja unica


coluna e o vetor v = A 1 =

(a1 , . . . , an ). (A base canonica de R1 = R tem um unico


elemento
n
linear A : R R fica inteirae1 = 1.) Assim, a transformacao

mente determinada por um unico


vetor v Rn . Tem-se A t = t v
para todo t R. Evidentemente, o mesmo se pode dizer de toda
linear A : R F, seja qual for o espaco vetorial F:
transformacao
conhecendo v = A 1 F tem-se A t = tv para todo t R.
Exemplo 4.1. Se dim E = 1, todo operador A : E E e do tipo
A = I, isto e , existe uma constante R tal que Av = v para

42

Transformac
oes Lineares

Sec
ao 4

{u} E
todo v E. Com efeito, seja u E um vetor nao-nulo.
Entao

e uma base: todo vetor em E e multiplo


de u. Portanto existe R
tal que Au = u. Para qualquer outro vetor v E, temos v = u
portanto Av = A(u) = Au = u = ( u) = v.
de angulo

Exemplo 4.2. (Rotacao


em torno da origem em
R2 .) Trata-se do operador R : R2 R2 , que leva cada vetor v no vetor
de angulo

Rv que dele resulta pela rotacao


em torno da origem. A
bem mais claro ainda
Fig. 4.1 deixa claro que R(u+v) = Ru+Rv. E
2

que R(v) = Rv para v R e R, logo R e uma transformacao


2

linear. Para um vetor v = (x, y) R arbitrario,


seja R v = (x , y ).

Sabemos que x = ax + by e y = cx + dy e

Ru

(u

+
v
)

v
Rv

u+

de vetores.
Figura 4.1 Rotacao

queremos determinar a matriz





a b
,
c d

onde Re1 = (a, c) e Re2 = (b, d), com e1 = (1, 0) e e2 = (0, 1).

Ora, pelas definico es de seno e cosseno, o vetor unitario


Re1 ,

que forma com e1 um angulo


, tem coordenadas cos e sen , ou
seja, Re1 = (cos , sen ). Alem disso, como e2 forma com e1 um

angulo
reto, Re2 tambem forma com Re1 um angulo
reto. Logo Re2 =
( sen , cos ). (Veja Fig. 4.2.)

Sec
ao 4

Transformac
oes Lineares

Re2

43

e2

cos
sen

Re1

e1

-sen

cos

de angulo

Figura 4.2 Rotacao


.

R : R2 R2 leva um vetor v = (x, y) no vetor


Portanto, a rotacao

Rv = (x , y ), onde
x = x cos y sen ;
y = x sen + y cos .

A matriz de R relativa a` base canonica de R2 e





cos sen
.
sen cos

ortogonal sobre uma reta.) A reta y =


Exemplo 4.3. (Projecao
ax e o conjunto dos pontos (x, ax) R2 , onde x varia em R. Ela e
o subespaco vetorial de R2 gerado pelo vetor (1, a). Consideremos
o operador P : R2 R2 que faz corresponder a cada v = (x, y)
R2 o vetor Pv = (x , ax ), cuja extremidade e o pe da perpendicular
baixada de v sobre a reta y = ax. (Veja Fig. 4.3.)

44

Transformac
oes Lineares

Sec
ao 4

y = ax
Pv

ortogonal sobre uma reta.


Figura 4.3 Projecao
de x e y, o que nos dara as
Queremos determinar x em funcao
das coordenadas de v. No caso
coordenadas (x , ax ) de Pv em funcao
particular em que a = 0, a reta y = ax e o eixo das abcissas e a
Pv e simplesmente igual a (x, 0). As equaco es da projecao
P
projecao

portanto
sobre o eixo horizontalsao
x = x, y = 0. A matriz de P na

1 0
2
base canonica de R e
. No caso geral, a extremidade do vetor
0 0

Pv e o vertice do angulo
reto num triangulo
retangulo
cujos demais
a origem e a extremidade do vetor v. Pelo teorema de
vertices sao

Pitagoras,
temos
dist(v, 0)2 = dist(Pv, 0)2 + dist(v, Pv)2 ,
ou seja,
x2 + y2 = (x )2 + a2 (x )2 + (x x )2 + (y ax )2 .
Suponhamos x 6= 0. Desenvolvendo, simplificando e dividindo ambos os membros por x , obtemos (1 + a2 )x = x + ay, donde
x =

x + ay
,
1 + a2

ou seja x =

1
a
x+
y.
1 + a2
1 + a2

O caso x = 0 significa que v = (x, y) esta sobre a perpendicular a` reta


dessa perpendicular
y = ax passando pela origem. Ora, a equacao
x = (x + ay)/(1 + a2 ) fornece x
e x + ay = 0, logo a expressao
de x e y em todos os casos. Vemos, em particular, que
em funcao

Sec
ao 4

Transformac
oes Lineares

45

P : R2 R2 e um operador linear, cuja matriz na base


a projecao
canonica de R2 e

1+a

a
1+a2

a
1+a2
a2
1+a2

em torno de uma reta.) Seja S : R2 R2


Exemplo 4.4. (Reflexao
em torno da reta y = ax. Para todo v = (x, y) R2 , a reta
a reflexao

y = ax e a bissetriz do angulo
entre v e Sv e e perpendicular a` reta
ortogonal sobre a reta
que liga v a Sv. Seja P : R2 R2 a projecao
y = ax. A Fig. 4.4 mostra que, para todo v R2 , tem-se v + Sv = 2Pv,
ou seja, que I + S = 2P, onde I : R2 R2 e o operador identidade. Da
vem S = 2P I. Usando o exemplo anterior, conclumos que, para
todo v = (x, y), tem-se Sv = (x , y ), onde
x =

2a
1 a2
x+
y,
1 + a2
1 + a2

y =

2a
1 a2
x
y.
2
1+a
1 + a2

2Pv= v +Sv

Pv
Sv

em torno de uma reta.


Figura 4.4 Reflexao

Exemplo 4.5. Como vimos acima, o unico


tipo de funcional linear
: Rn R e o da forma (v)=a1 x1 + + an xn , para v = (x1 , . . . , xn ).
Por outro lado, se E = Co ([a, b]) e o espaco vetorial das funco es
contnuas f : [a, b] R, podemos definir o funcional linear : E R
pondo
Zb
(f) = f(x) dx.
a

Outro exemplo de funcional linear em E consiste em fixar um ponto


c [a, b] e definir, para cada f E, (f) = f(c). Ainda no contexto

46

Transformac
oes Lineares

Sec
ao 4

do espaco de funco es E = Co ([a, b]), podemos definir um operador


contnua
linear K : E E do seguinte modo: fixamos uma funcao

k : [a, b] [a, b] R, de duas variaveis,


e fazemos corresponder a
g = Kf E dada por
cada f E a funcao
Zb
g(x) = k(x, y)f(y) dy.
a

D : C (R)
Finalmente, temos o importante operador de derivacao
C (R), definido por Df = f = derivada de f. Ele tambem pode ser
considerado, de forma mais restrita, como um operador D : Pn Pn ,
onde
!
n
n
X
X
i
D
ai x =
iai xi1 ,
i=0

i=1

linear
ou, de forma mais ampla, como uma transformacao
D : Ck (R) Ck1 (R), para k > 0.

Exerccios
transformaco es lineares e e
4.1. Prove que se A, B : E F sao

A + B e A, conforme definidas no texto, sao

um numero
real entao
transformaco es lineares.
de 30 em
4.2. Sejam R, P, S : R2 R2 respectivamente a rotacao
ortogonal sobre a reta y = x/3 e a retorno da origem, a projecao
em torno da mesma reta. Dado o vetor v = (2, 5), determine
flexao
os vetores Rv, Pv e Sv.
4.3. Assinale verdadeiro (V) ou falso (F):
dada uma transformacao
linear A : E F.
E
(

v = 0.
) Se v E e tal que Av = 0 entao

w = u + v.
) Se Aw = Au + Av entao

linear de u1 , . . . , um entao
Av e combinacao

) Se v e combinacao
linear de Au1 , . . . , Aum .

colineares (isto e , pertencentes a uma mesma


) Se u, v, w E sao
Au, Av e Aw sao
colineares.
reta) entao

Sec
ao 4

Transformac
oes Lineares

47

sobre o eixo x, paralelamente a`


4.4. Seja A : R2 R2 a projecao
reta y = ax (a 6= 0). Isto significa que, para todo v = (x, y), temse Av = (x , 0), tal que v Av pertence a` reta y = ax. Exprima x
de x e y e escreva a matriz de A relativamente a` base
em funcao
canonica de R2 .
4.5. Dados os vetores u1 = (2, 1), u2 = (1, 1), u3 = (1, 4), v1 =
um operador
(1, 3), v2 = (2, 3) e v3 = (5, 6), decida se existe ou nao
linear A : R2 R2 tal que Au1 = v1 , Au2 = v2 e Au3 = v3 . Mesma
pergunta com v3 = (5, 6) e com v3 = (5, 6).

geral de um operador linear A : R2 R2 e A(x, y) =


4.6. A expressao
(ax + by, cx + dy). Determine as constantes a, b, c e d de modo que
A transforme os vetores u = (1, 2) e v = (3, 4) nos vetores Au = (1, 1)
e Av = (2, 2).
geral de um funcional linear f : R3 R e f(x, y, z) =
4.7. A expressao
ax + by + cz. Dados os vetores u = (1, 2, 3), v = (1, 2, 3) e w =
(1, 2, 3), determine a, b e c de tal modo que se tenha f(u) = 1,
f(v) = 0 e f(w) = 0.
4.8. Seja A : R2 R2 o operador linear definido por A(x, y) = (5x +

4y, 3x 2y). Ache vetores nao-nulos


u = (x, y) e v = (s, t) tais que
unicas

Au = u e Av = 2v. Sao
as soluco es? Sera possvel achar w 6= 0
em R2 com Aw = w, onde 6= 1 e 6= 2 ?

4.9. De as expressoes dos funcionais lineares f, g, h : R3 R que


formam a base dual em (R3 ) da base {u, v, w} R3 , onde u = (1, 1, 1),
v = (1, 1, 1) e w = (1, 1 1). (Vide Exerccio 4.20.)
linear A : R2 R3 . Sabe-se que
4.10. Tem-se uma transformacao
A(1, 1) = (1, 2, 3) e A(2, 3) = (1, 1, 1). Pede-se a matriz a M(3 2)
` bases canonicas de R2 e R3 .
de A relativamente as
linear A : E F transforma
4.11. Prove que uma transformacao
todo conjunto convexo C E num conjunto convexo A(C) F.

do operador linear A : R2 R2 , sa4.12. Determine a expressao


bendo que, para todo v = (x, y), o segmento de reta que liga v a
Av = (x , y ) e horizontal e tem seu ponto medio sobre a reta y = x.
Qual e a imagem do eixo vertical pelo operador A ?
4.13. Prove que os operadores lineares E11 , E12 , E21 , E22 : R2 R2 ,
definidos por E11 (x, y) = (x, 0), E12 (x, y) = (0, x), E21 (x, y) = (y, 0),

48

Transformac
oes Lineares

Sec
ao 4

E22 (x, y) = (0, y), constituem uma base do espaco vetorial L(R2 ).
Prove ainda que outra base deste espaco pode ser formada com os
operadores A, B, C, I, onde A(x, y) = (x + 3y, y), B(x, y) = (x, 0),
C(x, y) = (x + y, x y) e I(x, y) = (x, y).
4.14. Verifique que as funco es definidas nos Exerccios 3.32 e 3.33
funcionais lineares.
sao
linear
4.15. Seja A : E F uma transformacao
L.I., prove que v1 , . . . , vm E
(a) Se os vetores Av1 , . . . , Avm F sao
L.I. .
tambem sao
(b) Se F = E e os vetores Av1 , . . . , Avm geram E, prove que v1 , . . . , vm
geram E.
(c) Valem as recprocas de (a) e (b)? Seria (b) verdadeira com F 6= E ?
lineares?
4.16. Quais das transformaco es abaixo sao
(a)
(b)
(c)
(d)

A : R3 R3 , A(x, y, z) = (x, 2y , 2z ).

A : R3 R3 , A(x, y, z) = (3x, a, 5z), onde a R.

A : R4 R3 , A(x, y, z, w) = (x w, y w, x + z).

A : M(n n) Rn , A([aij ]) = (a11 , a22 , . . . , ann ).

A : C (R) C (R), Af = 3f 2f + 1.


a b
(f) A : M(2 2) R, A
= ad bc.
c d
(e)

linear e E E, F F
4.17. Sejam A : E F uma transformacao
subespacos vetoriais. Prove que A(E ) = {Av; v E } e um subespaco
de F e A1 (F ) = {v E; Av F } e um subespaco de E. Se V E
variedades afins, prove que os conjuntos A(V) F e
e W F sao
1
tambem variedades afins.
A (W) E, definidos analogamente, sao

finita
4.18. No exerccio anterior, prove que se E tem dimensao
dim A(E ) e finita e dim A(E ) dim E . De um exemplo de
entao
identicamente nulo A : R2 R2 e um subespaco
um operador nao

2
E R tal que dim A(E ) < dim E . Prove tambem que se E e F tem
finita e A e sobrejetiva entao
dim A1 (F ) dim F . De um
dimensao
exemplo em que A 6= 0 e dim A1 (F ) > dim F . De tambem um exemplo (com dim E = ), onde dim F e finita mas dim A1 (F ) = .

4.19. Dados os espacos vetoriais E, F, prove que L(E; F) e um subespaco vetorial de F(E; F). (Vide Exerccio 1.15.)

Sec
ao 4

Transformac
oes Lineares

49

4.20. Seja V = {v1 , . . . , vn } uma base do espaco vetorial E. Para


cada i = 1, 2, . . . , n, seja fi : E R o funcional linear determinado
(conforme o Teorema 4.1) pelas condico es fi (vi ) = 1, fi (vj ) = 0 se
j 6= i. Prove que {f1 , . . . , fn } e uma base de E = L(E; R) (chamada
a base dual da base V). Mostre que se tem fi (v) = xi para todo
v = x1 v1 + + xn vn E.

4.21. Seja f : R2 R um funcional linear. Sabendo que f(1, 1) = 3 e


f(2, 3) = 1, calcule f(1, 0) e f(0, 1).

4.22. Seja A : R2 R2 o operador linear dado por A(x, y) = (ax +


by, cx + dy), com ad bc 6= 0. Prove:
(1) Para todo v 6= 0 em R2 , tem-se A.v 6= 0.

1) e transfor(2) Toda reta R R2 (variedade afim de dimensao


mada por A numa reta.
(3) A transforma retas paralelas em retas paralelas.
4.23. Determine de modo que as retas perpendiculares em R2 , de
equaco es y = x e y = x/ sejam transformadas em retas perpendiculares pelo operador linear A : R2 R2 , dado por A(x, y) =
(2x + 3y, x 2y).

finita. Dados os
4.24. Sejam E, F espacos vetoriais de dimensao
vetores v1 , . . . , vm E e w1 , . . . , wm F, a fim de que exista uma
linear A : E F com Av1 = w1 , . . . , Avm = wm , e
transformacao

linear nula 1 v1 +
necessario
e suficiente que, para toda combinacao
+ m vm = 0, se tenha tambem 1 w1 + + m wm = 0.

4.25. Seja v um vetor nao-nulo


de um espaco vetorial E, de dimensao
finita. Dado qualquer espaco vetorial F 6= {0}, mostre que existe uma
linear A : E F tal que Av 6= 0.
transformacao
finita. Dada uma base
4.26. Seja E um espaco vetorial de dimensao
F = {f1 , . . . , fn } E , mostre que existe uma base {v1 , . . . , vn } E da
qual F e dual. (Veja Exerccio 4.20.)

4.27. Seja Y um conjunto de geradores do espaco vetorial E. Se as


tais que Aw = Bw para todo
transformaco es lineares A, B : E F sao
w Y, prove que Av = Bv para todo v E.

50

Transformac
oes Lineares

Sec
ao 4

4.28. Seja X = {v1 , . . . , vm } um conjunto L.I. no espaco vetorial E,

finita. Dados arbitrariamente os vetores w1 , . . . , wm no


de dimensao
linear A : E
espaco vetorial F, prove que existe uma transformacao

F tal que Av1 = w1 , . . . , Avm = wm . A e unica


se, e somente se, X e
uma base de E.
T : E F, entre espacos vetoriais, chama4.29. Uma transformacao
se afim quando se tem T ((1t)u+tv) = (1t)Tu+tTv para quaisquer
afim T : E F, prove:
u, v E e t R. Dada a transformacao

(a) Toda variedade afim V E e transformada por T numa variedade


afim V F.

escrevendo v = (1 )0 + v, resulta que


(b) Se T 0 = 0, entao,
T (v) = Tv para quaisquer R, v E.

T 21 (u + v) = 21 (Tu + Tv),
(c) Supondo ainda T 0 = 0, a relacao
implica que T (u + v) = Tu + Tv para quaisquer u, v E.
S : E F, definida por Sv =
(d) Para todo b F, a transformacao
Tv + b tambem e afim.

afim se, e somente


Conclua que T : E F e uma transformacao
se, existem A L(E; F) e b F tais que Tv = Av + b para todo v E.

n 1.
Seja H Rn um subespaco vetorial de dimensao
Tome uma base V H, formada pelos vetores v1 , . . . , vn1 , onde
vi = (i , . . . , in ), i = 1, . . . , n 1. Use o fato de que o sistema de
n
P
equaco es lineares
ij xj = 0, com n 1 equaco es e n incognitas, ad4.30.

j=1

nao-trivial

mite uma solucao


para concluir que existem n numeros
a1 , . . . , an tais que v = (x1 , . . . , xn ) pertence a H se, e somente se,

a1 x1 + + an xn = 0. (Todo subespaco vetorial de Rn com dimensao


n 1 e um hiperplano, isto e , e o conjunto das soluco es de uma
linear homogenea.)
equacao

5
Produto de
Transformaco
es Lineares
O produto de transformaco es lineares, que introduziremos nesta
secao,
e um exemplo concreto de estrutura algebrica que apresenta
variados e interessantes fenomenos, nao
encontrados nas operaco es
entre numeros

ou entre vetores.
Dadas as transformaco es lineares A : E F, B : F G, onde o
domnio de B coincide com o contra-domnio de A, define-se o produto
BA : E G pondo, para cada v E, (BA)v = B(Av),
E

BA

linear. ObVe-se imediatamente que BA e uma transformacao


serve-se tambem que BA nada mais e do que a composta B A das
dos princpios gerais que se C : G H
funco es B e A. Segue-se entao
linear, vale a
e outra transformacao
Associatividade: (CB)A = C(BA).

A linearidade tampouco e necessaria


para mostrar que, dadas
A : E F e B, C : F G, tem-se a
Distributividade a` esquerda: (B + C)A = BA + CA, que decorre
de B + C.
simplesmente da definicao
Usando a linearidade de C : F G, ve-se que, dadas A, B : E F,
vale a

52

Produto de Transformac
oes Lineares

Sec
ao 5

Distributividade a` direita: C(A + B) = CA + CB.


Com efeito, para todo v E, tem-se
[C(A + B)]v = C[(A + B)v] = C(Av + Bv) = C(Av) + C(Bv)
= (CA)v + (CB)v = (CA + CB)v.
Exemplo 5.1. Sejam f, g, h : R R definidas por f(x) = x, g(x) =
[h (f + g)](x) = 4x2 + 4x + 1, enquanto
x + 1 e h(x) = x2 . Entao
[(h f) + (h g)](x) = 2x2 + 2x + 1, logo h (f + g) 6= h f + h g. Isto
e linear.
se da porque h nao
encia da linearidade de B e a
Outra consequ

Homogeneidade: B(A) = (BA), valida


para R, A : E F e
B : F G quaisquer.
Evidentemente, dada A : E F, tem-se AIE = A = IF A, de modo
elementos
que as aplicaco es identidade IE : E E, IF : F F sao
cada uma delas do lado apropriado.
neutros para a multiplicacao,

Diferencas notaveis
entre o produto de transformaco es lineares

as ausencias da comutatividade,
e o produto de numeros
reais sao

da lei do corte e da inversa multiplicativa para uma transformacao


6= 0, alem da presenca de transformaco es nilpotentes, para as quais
de
tem-se An = 0 com A 6= 0. Deve-se ainda mencionar a restricao
que o produto BA so esta definido quando A toma valores no domnio
desaparece, naturalmente, quando se trata de
de B. Esta restricao
o produto BA esta
operadores lineares no mesmo espaco E: entao
definido quaisquer que sejam A, B L(E).
ortoExemplo 5.2. Sejam P, R : R2 R2 respectivamente a projecao
de um angulo

gonal sobre a reta y = x e a rotacao


de 90 em torno da
para todo v = (x, y) R2 , tem-se Pv = 12 (x + y, x + y),
origem. Entao,
Rv = (y, x). Segue-se que
1
RPv = (x y, x + y)
2
e
1
PRv = (x y, x y).
2
Portanto RPv 6= PRv para todo v, exceto para v = (0, 0). Observe que
bastaria que RPv 6= PRv para um unico

v a fim de termos RP 6= PR.

Sec
ao 5

Produto de Transformac
oes Lineares

53

ortogonal sobre uma certa


Exemplo 5.3. Seja P : R2 R2 a projecao
reta r. Para todo v sobre a reta r, tem-se Pv = v. Assim, para qualquer v R2 , tem-se PPv = Pv, pois Pv esta sobre r. Noutras palavras,
e pervale PP = P, ou seja PP = PI, embora P 6= I. Assim, nao
mitido cortar o fator P a` esquerda em ambos os membros da igual existe Q L(R2 ) tal que QP = I.
dade PP = PI. Segue-se que nao
Com efeito, se um tal operador Q existisse, de PP = P concluiramos
QPP = QP, isto e , IP = I, donde P = I.
Exemplo 5.4. Sejam P, Q : R2 R2 projeco es ortogonais sobre duas
retas do plano, uma das quais e perpendicular a` outra. Todo vetor

que tem Pv e Qv como lados.


v R2 e a diagonal de um retangulo
(Veja Fig. 5.1.)
v

Qv
Pv

Figura 5.1.
que v = Pv+Qv para todo v R2 , ou seja, P+Q = I
Segue-se entao
e Q = I P. Portanto PQ = P(I P) = P P2 = P P = 0. Obtemos
possvel mesmo

assim dois operadores nao-nulos


P, Q com PQ = 0. E
2
2

que um operador nao-nulo


A L(R ) cumpra A = 0. Basta por
A(x, y) = (x y, x y).
Um operador A chama-se nilpotente quando, para algum n N,
tem-se An = 0. Um exemplo significativo de operador nilpotente e a
D : Pn Pn . Para todo polinomio p de grau n tem-se
derivacao
Dn+1 p = 0, logo Dn+1 = 0.
rotaco es em torno da origem
Exemplo 5.5. Se R , R : R2 R2 sao

R R = R+ . (Isto pode
com angulos
e respectivamente, entao

54

Produto de Transformac
oes Lineares

Sec
ao 5

ser visto geometricamente na Fig. 5.2 ou usando as formulas de


em torno de uma
cos( + ) e sen( + )). Se S : R2 R2 e a reflexao
S S = I. Isto se segue da expressao
S = 2P I, levando
reta entao
em conta que P P = P, mas tambem pode ser visto geometricamente
(com mais facilidade).
Rb v

Ra Rb v = R a + b v

a
b

Figura 5.2 Rotacoes


do plano.

Exerccios
5.1. Verifique explicitamente que o produto BA de transformaco es
linear.
lineares e ainda uma transformacao
5.2. Considere os operadores lineares R, S, P : R2 R2 , onde R e a
de 30 em torno da origem, S e a reflexao
em torno da reta
rotacao
ortogonal sobre a mesma reta.
y = 2x e P e a projecao
(i) Mostre que se tem PS = SP = P.
(ii) Verifique a igualdade RSR = S.
comuta com S nem com P.
(iii) Mostre que R nao
(iv) Determine todos os vetores v tais que PRv = 0 e RPv 6= 0.
5.3. Dado o operador linear A : E E, seja N o conjunto dos vetores
v E tais que Av = 0. Mostre que N e um subespaco vetorial de E.
Prove que A2 = 0 se, e somente se, para todo v E tem-se Av N.

Sec
ao 5

Produto de Transformac
oes Lineares

55

5.4. Sejam R, R : R2 R2 respectivamente as rotaco es de angulos

e em torno da origem. Partindo do fato de que o produto RR e a


de angulo

rotacao
+ , use o Exemplo 4.2 para obter as formulas

classicas
cos( + ) = cos cos sen sen e sen( + ) =
sen cos + sen cos .
5.5. Seja A : E E um operador nilpotente. Prove que existe algum
vetor v 6= 0 em E tal que Av = 0.

5.6. Dados os operadores A, B : R2 R2 dados por A(x, y) = (x + y, 0)


e B(x, y) = (y, x), obtenha as expressoes dos operadores A + B,
AB, BA, A2 e B2 . Descreva geometricamente esses cinco operadores.
sobre o eixo x paralelamente a uma certa
(Exemplo: A e a projecao
reta. (Qual?))
5.7. Seja A : R3 R3 dado por A(x, y, z) = (ay + bz, cz, 0). Mostre
que A3 = 0.

5.8. Sejam A, B, C, D : R2 R2 os operadores dados por A(x, y) =


(x, 0), B(x, y) = (y, x), C(x, y) = (0, y) e D(x, y) = (y, x). Determine o operador ABCD.
5.9. Considere as transformaco es lineares A : R2 R3 e B : R3 R2 ,
definidas por: A(x, y) = (x, y, x + y) e B(x, y, z) = (ax + (a 1)y + (1
a)z, bx + (1 b)y + bz). Determine o operador BA : R2 R2 .
5.10. Dado o operador A : R2 R2 , com A(x, y) = (3x 2y, 2x + 7y),

ache um vetor nao-nulo


v = (x, y) tal que Av = 5v.

5.11. Sejam A, B : E E operadores lineares. Suponha que existam


vetores u, v E tais que Au e Av sejam L.D. . Prove que BAu e BAv
L.D. . Se a dimensao
de E for igual a 2, prove tambem que ABu
sao
L.D. . (Sugestao:
se u e v sao
L.D. o fato e o bvio. Caso
e ABv sao

contrario,
u e v formam uma base de E. Exprima Bu e Bv em termos
dessa base e depois aplique A.)
5.12. Sejam A, B : R3 R3 definidos por A(x, y, z) = (x, y, 0) e
B(x, y, z) = (x + z, y, 0). Obtenha vetores u, v R3 tais que Au e
Av sejam L.D. porem ABu e ABv sejam L.I. .
5.13. No espaco vetorial P dos polinomios, considere os operadores
(Dp(x) = p (x)) e multiplicacao

lineares D, A : P P de derivacao
por x (Ap(x) = xp(x)) respectivamente. Determine DA AD.

56

Produto de Transformac
oes Lineares

Sec
ao 5

5.14. Seja A : R2 R2 o operador linear definido por A(x, y) = (ax +


by, cx + dy). Verifique que A2 (a + d)A = (bc ad)I. Use esta
igualdade para provar que, se ad bc 6= 0, existe um operador linear
B : R2 R2 tal que BA = AB = I.

5.15. Seja C(A) o conjunto dos operadores lineares X : E E que


comutam com o operador A L(E) (isto e , AX = XA). Prove que C(A)
e um subespaco vetorial de L(E) e que X, Y C(A) XY C(A).

e da forma I.
5.16. Seja A : R2 R2 um operador linear que nao
Prove:
(a) Existe w R2 tal que {w, Aw w} R2 e uma base.
(b) Se P : R2 R2 e o operador que a cada v = xw + y(Aw w) R2
AP 6= PA.
faz corresponder Pv = xw entao

Conclua que os unicos


operadores lineares em R2 que comutam
os da forma I.
com todos os demais sao
5.17. Estenda o exerccio anterior para todos os espacos vetoriais de
finita (maior do que 1) em vez de R2 .
dimensao
linear e B : F E uma
5.18. Sejam A : E F uma transformacao
tal que AB = IF e BA = IE . Prove que B e uma transformacao

funcao
linear.
n. Para todo k =
5.19. Seja E um espaco vetorial de dimensao
2, . . . , n, exiba um operador linear A : E E tal que Ak = 0 mas
Aj 6= 0 se j < k.

5.20. Sejam A, P : E E operadores lineares nao-nulos


tais que
AP = 0. Prove que existem vetores diferentes de zero u 6= v com
Au = Av.

5.21. Sejam A : R2 R2 um operador linear e P : R2 R2 a projecao


ortogonal sobre uma reta r (passando pela origem). Prove que as
equivalentes:
seguintes afirmaco es sao
(a) Para todo v r tem-se Av r.
(b) PAP = AP.
linear tal que Xw 6= 0 para
5.22. Seja X : F G uma transformacao
todo w 6= 0 em F. Prove que se A, B L(E; F) cumprem XA = XB
A = B.
entao

Sec
ao 5

Produto de Transformac
oes Lineares

57

linear com a seguinte pro5.23. Seja X : E F uma transformacao


priedade: para cada w F existe (pelo menos) um vetor v E tal que
Xv = w. Suponha que A, B L(F; G) cumprem a igualdade AX = BX.
Prove que A = B.
5.24. Sejam A, B : E F transformaco es lineares tais que, para todo
operador linear X : F F, tem-se XA=XB. Prove que A=B.

6
N
ucleo e Imagem
Nesta secao,
sera examinada com cuidado a possibilidade de uma
transformacao
linear admitir ou nao
uma inversa. Veremos que isto
esta associado a` existencia e a` unicidade da solucao
de um sistema
de equaco es lineares. Sera introduzido o conceito de isomorfismo, que
dara um sentido preciso a` afirmacao
de que dois espacos vetoriais de
mesma dimensao
sao
algebricamente indistinguveis. Tudo comeca
com o nucleo

e a imagem de uma transformacao.

linear A : E F estao
associados dois subA toda transformacao

espacos vetoriais indispensaveis


para estudar o comportamento de

A: o nucleo
de A, que e um subespaco de E, e a imagem de A, que e
um subespaco de F.
A imagem de A e o subconjunto Im(A) F, formado por todos
imagens de elementos de E pela
os vetores w = Av F que sao
A.
transformacao
de imagem tem sentido seja qual for a funcao
A : E F,
A nocao
Quando A e linear, entao
Im(A) e um subespaco
seja linear ou nao.
vetorial de F, como se ve facilmente.
A e sobrejetiva. Isto
Se Im(A) = F, diz-se que a transformacao
significa que, para qualquer w F dado, pode-se achar v E tal que
A v = w.
Seja X E um conjunto de geradores do espaco vetorial E. A
linear A : E F e o subespaco vetorial
imagem da transformacao
de F gerado pelos vetores Av, v X. Em particular, A e sobrejetiva se, e somente se, transforma X num conjunto de geradores de F.

Sec
ao 6

N
ucleo e Imagem

59

Se v1 , . . . , vn geram E os vetores Av1 , . . . , Avn geram Im(A). Segue de Im(A) e menor do que ou igual a` dimensao

se que a dimensao
do domnio de A. Este fato sera tornado mais preciso a seguir.
(V. Teorema 6.6.)
Exemplo 6.1. Dado um sistema linear de m equaco es a n incognitas
a11 x1 + a12 x2 + + a1n xn = b1

a21 x1 + a22 x2 + + a2n xn = b2


..
.

am1 x1 + am2 x2 + + amn xn = bm ,


linear cuja matriz nas bases caseja A : Rn Rm a transformacao
nonicas de Rn e Rm e a = [aij ]. Isto significa, como sabemos, que,
para j = 1, . . . , n, os vetores
vj = Aej =

m
X
i=1

aij ei = (a1j , . . . , amj ) Rm

os vetores-coluna da matriz a. Em termos da transformacao

sao
linear A, o sistema acima pode ser interpretado como o problema
de achar um vetor x = (x1 , . . . , xn ) Rn tal que Ax = b, onde b =
se, e somente se, o
(b1 , . . . , bm ). Portanto o sistema admite solucao
linear A, o que equivale
vetor b pertence a` imagem da transformacao
a dizer que os conjuntos {v1 , . . . , vn } e {v1 , . . . , vn , b} geram ambos o
mesmo subespaco Im(A).

Exemplo 6.2. Um funcional linear f : E R e sobrejetivo ou e


os unicos

igual a zero, pois {0} e R sao


subespacos vetoriais de R.
D : Ck (R) Ck1 (R) e sobrejetiva, e o mesmo se da
A derivacao
linear
com o operador D : C (R) C (R) e com a transformacao
2
2
ortogonal sobre uma reta
D : Pn Pn1 . Se P : R R e a projecao
r, a imagem de P e essa reta r.
linear B : F E chama-se uma inversa a`
Uma transformacao
linear A : E F quando se tem AB = IF , ou
direita da transformacao
seja, quando A(Bw) = w para todo w F.
Teorema 6.1. A fim de que uma transformacao
linear A : E F,
entre espacos vetoriais de dimensao
finita, possua uma inversa a` direita B L(F; E) e necessario

e suficiente que A seja sobrejetiva.

60

N
ucleo e Imagem

Sec
ao 6

Se A admite uma inversa a` direita B : F E entao,


Demonstracao:
para todo w F tem-se A(Bw) = w, logo w = A v, onde v = Bw,
se usou a linearidade de A, e muito
e A e sobrejetiva. (Aqui nao
menos a finitude das dimensoes de E e F.) Suponhamos, em seguida, que A seja sobrejetiva. A fim de definir uma transforma linear B : F E com A(Bw) = w para todo w F, tomamos
cao
uma base B = {w1 , . . . , wm } F. Como A e sobrejetiva, podemos
escolher vetores v1 , . . . , vm E tais que Av1 = w1 , . . . , Avm = wm .
linear B : F E tal que
Pelo Teorema 4.1, existe uma transformacao
Bw1 = v1 , . . . , Bwm = vm . Afirmamos que, para todo w F, temse A(Bw) = w. Com efeito, sendo B uma base, podemos escrever
w = 1 w1 + + m wm , portanto
A(Bw) = A(1 Bw1 + + m Bwm )
= A(1 v1 + + m vm )
= 1 Av1 + + m Avm

= 1 w1 + + m wm = w.

linear sobrejetiva A : E F
Exemplo 6.3. Uma transformacao
pode admitir mais de uma inversa a` direita B : F E. Um exem linear A : R3 R2 , defiplo simples e dado pela transformacao
nida por A(x, y, z) = (x, y). Fixados arbitrariamente a, b R, a
linear B : R2 R3 , definida por B(x, y) = (x, y, ax +
transformacao

by), e uma inversa a` direita para A. Variando os numeros


a e b,
obtemos infinitas possibilidades para B.
D : Pn+1
Exemplo 6.4. Uma inversa a` direita para a derivacao
linear J : Pn Pn+1 , que a cada polinomio
Pn e a transformacao
p(x) = ao + a1 x + + an xn de grau n faz corresponder o polinomio
Jp(x) = ao x +

a1 2
an n+1
x + +
x .
2
n+1

linear A : E F e o conjunto dos veO nucleo

da transformacao
N (A) para repretores v E tais que Av = 0. Usaremos a notacao
facil

ver que N (A) e um subespaco vetorial


sentar o nucleo
de A. E
de E.
linear A : E F chama-se injetiva quando
Uma transformacao
v 6= v em E Av 6= Av em F. Equivalentemente: Av = Av v = v .
tem sentido para qualquer funcao
A : E F, seja ela
Esta nocao

Sec
ao 6

N
ucleo e Imagem

61

No caso linear, porem, o teorema abaixo simplifica a


linear ou nao.
da injetividade.
verificacao
Teorema 6.2. A fim de que uma transformacao
linear A : E F
seja injetiva e necessario

e suficiente que seu nucleo

N (A) contenha
apenas o vetor nulo.
v N (A) A v = 0 =

Demonstracao:
Seja A injetiva. Entao
A 0 v = 0, logo N (A) = {0}. Reciprocamente, seja N (A) = {0}.
Av = Av A(v v ) = Av Av = 0 v v N (A)
Entao
v v = 0 v = v , logo A e injetiva.
Teorema 6.3. Uma transformacao
linear e injetiva se, e somente se,
leva vetores L.I. em vetores L.I. .

linear injetiva.
Seja A : E F uma transformacao
Demonstracao:
linearmente independentes, vamos
Se os vetores v1 , . . . , vn E sao
vetores linearmente indeprovar que suas imagens Av1 , . . . , Avn sao

pendentes em F. Com efeito, se 1 Av1 + + n Avn = 0 entao


A(1 v1 + + n vn ) = 0, logo 1 v1 + + n vn = 0 pois A e in L.I., segue-se que 1 = = n = 0,
jetiva. Como v1 , . . . , vn sao
L.I. . Reciprocamente se a transformacao

portanto Av1 , . . . , Avn sao


v 6= 0 em
linear A : E F leva vetores L.I. em vetores L.I. entao
E {v} L.I. {Av} L.I. Av 6= 0, portanto N (A) = {0} e A e injetiva.
finita n e A : E
Segue-se deste teorema que se E tem dimensao
linear injetiva entao
dim F n. Assim, por
F e uma transformacao
existe uma transformacao
linear injetiva de R3 em R2 .
exemplo, nao

Teorema 6.4. Seja A : E F uma transformacao


linear. Para todo
b Im(A), o conjunto V = {x E; Ax = b}, formado pelas soluco es
do sistema linear Ax = b, e uma variedade afim em E, paralela ao
nucleo

N (A).
Fixemos x0 V, isto e , com Ax0 = b. Afirmamos
Demonstracao:
que V = x0 + N (A). Com efeito, v N (A) A(x0 + v) = Ax0 + Av =

62

N
ucleo e Imagem

Sec
ao 6

b + 0 = b x0 + v V. Logo x0 + N (A) V. Reciprocamente,


x V x = x0 + (x x0 ) = x0 + v

b = Ax = A(x0 + v) = Ax0 + Av = b + Av

b = b + Av

Av = 0

x = x0 + v x0 + N (A).

Logo V x0 + N (A).

Geometricamente, o Teorema 6.4 significa que o espaObservacao.


de laminas

co vetorial E se exprime como uma reuniao


paralelas
V = x0 + N (A), cada uma das quais e uma variedade afim que

se transforma por A num unico


ponto bIm(A). Este ponto, na
turalmente, varia quando se passa de uma lamina
para outra. (Veja
Fig. 6.1.)
E

x0
(A

(A

Ax0

+N

A
O

Im(A)

Figura 6.1.
Algebricamente, o Teorema 6.4 significa que, para cada b
Im(A), obtem-se todas as soluco es x E do sistema linear Ax = b
particular x0 desse sistema e a solucao

assim: acha-se uma solucao


particular com a solucao
gegeral x = xo + v e a soma dessa solucao
ral v do sistema homogeneo associado Ax = 0. Naturalmente, esta

ultima
e um elemento qualquer do nucleo
de A. Se b
/ Im(A) entao
possui solucao.

o sistema Ax = b, evidentemente, nao

ou de uma reflexao
no plano
Exemplo 6.5. O nucleo
de uma rotacao

ortogonal P : R2 R2 sobre
R2 reduz-se a {0}. O nucleo
da projecao

a reta r e a reta que contem 0 e e perpendicular a r. O nucleo


da

Sec
ao 6

N
ucleo e Imagem

63

D : Ck (R) Ck1 (R) e o subespaco uni-dimensional de


derivacao
k

C (R) formado pelas funco es constantes. O nucleo


de um funcional

linear nao-nulo
: E R e um hiperplano H E.
Sejam A : E F e B : F E transformaco es lineares. Diz-se que
B e uma inversa a` esquerda de A quando BA = IE , isto e , quando
B(Av) = v para todo v E.
Exemplo 6.6. Seja A : R2 R3 definida por A(x, y) = (x + 2y, 2x +
linear B : R3 R2 , dada por
3y, 3x + 4y). A transformacao
B(x, y, z) = (3x + 2y, 2x y)

cumpre a relacao
B(A(x, y)) = B(x + 2y, 2x + 3y, 3x + 4y)
= (3(x + 2y) + 2(2x + 3y), 2(x + 2y) (2x + 3y))
= (x, y)
para qualquer (x, y) R2 . Logo B e uma inversa a` esquerda para A.
linear pode admitir uma infiniExemplo 6.7. Uma transformacao
dade de inversas a` esquerda. Por exemplo, seja A : R2 R3 dada

por A(x, y) = (x, y, 0). Para quaisquer a, b R, a transformacao


linear B : R3 R2 , dada por B(x, y, z) = (x + az, y + bz) e uma inversa a` esquerda de A, pois BA(x, y) = B(x, y, 0) = (x, y) para todo
(x, y) R2 .
Teorema 6.5. Sejam E e F espacos vetoriais de dimensao
finita. A
transformacao
linear A : E F possui inversa a` esquerda se, e somente se, e injetiva.

Demonstracao:
Seja B : F E inversa a` esquerda de A. Entao
Au = Av u = B(Au) = B(Av) = v, logo A e injetiva. Reciprocamente, suponhamos que A seja injetiva. A fim de obter uma inversa
a` esquerda B para A, tomemos {v1 , . . . , vn } E, uma base. Pelo Te L.I., logo podemos achar
orema 6.3, os vetores Av1 , . . . , Avn F sao
vetores w1 , . . . , wk F tais que
{Av1 , . . . , Avn , w1 , . . . , wk } F

seja uma base. (Teorema 3.4.) Pelo Teorema 4.1, a fim de definir
linear B : F E, basta especificar seus valores nos
a transformacao

64

N
ucleo e Imagem

Sec
ao 6

elementos desta base. Poremos B(Av1 ) = v1 , . . . , B(Avn ) = vn , Bw1 =


0, . . . , Bwk = 0. Dado qualquer v E, tem-se v = 1 v1 + + n vn ,
logo
BAv = B(1 Av1 + + n Avn )
= 1 BAv1 + + n BAvn

= 1 v1 + + n vn = v,
portanto B e uma inversa a` esquerda de A.

linear A : E F chama-se invertvel quando


Uma transformacao
existe B : F E linear tal que BA = IE e AB = IF , ou seja, quando B
e , ao mesmo tempo, inversa a` esquerda e a` direita de A.
Neste caso, diz-se que B e a inversa de A e escreve-se B = A1 .
linear A seja invertvel, e necesA fim de que a transformacao

sario
e suficiente que ela seja injetiva e sobrejetiva. Diz-se, entao,
que A e uma bijecao
linear entre E e F ou, mais apropriadamente,

que A : E F e um isomorfismo e que os espacos vetoriais E e F sao


isomorfos.
isomorfismos, entao
A1 : F E e
Se A : E F e B : F G sao
isomorfismos. Tem-se (BA)1 = A1 B1 e,
BA : E G tambem sao
para 6= 0, (A)1 = 1 A1 .
Um isomorfismo A : E F entre espacos vetoriais transforma
toda base de E numa base de F. Reciprocamente, se uma transfor linear A : E F leva alguma base de E numa base de F entao

macao
A e um isomorfismo.
Do que foi dito acima resulta, em particular, que dois espacos
finita isomorfos tem a mesma dimensao.

vetoriais de dimensao
A
recproca e verdadeira, como veremos agora.
finita n. FiCom efeito, seja E um espaco vetorial de dimensao
xando uma base {v1 , . . . , vn } E, podemos definir uma transfor linear A : Rn E pondo, para cada v = (1 , . . . , n ) Rn ,
macao
Av = 1 v1 + + n vn . Tem-se Ae1 = v1 , . . . , Aen = vn . Assim, A
transforma a base canonica {e1 , . . . , en } Rn na base {v1 , . . . , vn } E,
logo e um isomorfismo entre Rn e E.
n e isomorfo
Noutras palavras, todo espaco vetorial de dimensao
a Rn .
Como o inverso A1 : E Rn e o produto BA1 : E F de A por
isomorfismos, segue-se que dois
outro isomorfismo B : Rn F sao
n, sao
isomorfos.
espacos vetoriais E, F, ambos de dimensao

Sec
ao 6

N
ucleo e Imagem

65

Exemplo 6.8. O espaco Pn , dos polinomios de grau n, tem di n+1, logo e isomorfo a Rn+1 . Por sua vez, o espaco M(mp),
mensao
das matrizes m p, e isomorfo a Rmp , portanto Pn e isomorfo a
M(m p) se, e somente se, n + 1 = mp.
de isomorfismo entre espacos vetoriais e fundamental .
A nocao

Ela nos permite identificar, sob o ponto de vista da Algebra


Linear, espacos vetoriais que se apresentam sob formas a` primeira
vista diferentes. Por exemplo, a correspondencia (ao , . . . , an ) ao +
a1 x + + an xn , e um isomorfismo natural entre Rn+1 e Pn , que

desempenha papel relevante em Analise.


Noutro exemplo, se dispusermos os elementos de uma matriz n
n em fileiras paralelas a` sua diagonal principal, veremos que ha um
total de
n(n + 1)
n + (n 1) + + 2 + 1 =
2
elementos nesta diagonal ou acima dela. Colocando esses elementos
numa linha, em ordem determinada, obtemos um vetor de Rn(n+1)/2 .

Se a matriz dada e simetrica, os elementos abaixo da diagonal nao


necessarios

sao
para determina-la
pois apenas repetem os demais.
Este processo estabelece um isomorfismo entre o espaco vetorial
S das matrizes simetricas n n e o espaco euclidiano Rn(n+1)/2 ,
o que nos permite concluir que dim S = n(n + 1)/2 . Um isomor
fismo analogo
(desprezando a diagonal principal que, neste caso, so
contem zeros) mostra que as matrizes anti-simetricas n n formam
n(n 1)/2.
um espaco vetorial de dimensao

Teorema 6.6. (Teorema do Nucleo


e da Imagem.) Sejam E, F
espacos vetoriais de dimensao
finita. Para toda transformacao
linear
A : E F tem-se dim E = dim N (A) + dim Im(A).

Demonstracao:
O teorema resulta imediatamente da seguinte
mais precisa, que provaremos a seguir: se {Au1 , . . . , Aup }
afirmacao

e uma base de Im(A) e {v1 , . . . , vq } e uma base de N (A) entao


{u1 , . . . , up , v1 , . . . , vq } e uma base de E.
Com efeito, em primeiro lugar, se tivermos
1 u 1 + + p u p + 1 v 1 + + q v q = 0

(*)

aplicando o operador A a ambos os membros desta igualdade


entao,

e lembrando que v1 , . . . , vq pertencem ao nucleo


de A, obtemos
1 Au1 + + p Aup = 0.

66

N
ucleo e Imagem

Sec
ao 6

L.I., resulta da que 1 = =


Como os vetores Au1 , . . . , Aup sao
p = 0. Portanto a igualdade (*) se reduz a
1 v1 + + q vq = 0.
L.I., conclumos que 1 = = q = 0. Isto
Como v1 , . . . , vq sao
L.I. .
mostra que os vetores u1 , . . . , up , v1 , . . . , vq sao

Em seguida, consideremos um vetor arbitrario


w E. Como
Aw Im(A), podemos escrever
Aw = 1 Au1 + + p Aup ,
pois {Au1 , . . . , Aup } e uma base da imagem de A. A igualdade acima
pode ser reescrita como
A[w (1 u1 + + p up )] = 0.

Assim, o vetor w (1 u1 + + p up ) pertence ao nucleo


de A, logo
linear dos elementos da base
pode ser expresso como combinacao

{v1 , . . . , vq }. Temos entao


w (1 u1 + + p up ) = 1 v1 + + q vq ,
ou seja, w = 1 u1 + + p up + 1 v1 + + q vq . Isto mostra que
os vetores u1 , . . . , up , v1 , . . . , vq geram E e portanto constituem uma
base.

Corolario.
Sejam E, F espacos vetoriais de mesma dimensao
finita
n. Uma transformacao
linear A : E F e injetiva se, e somente se, e
sobrejetiva e portanto e um isomorfismo.
Com efeito, temos n = dim N (A) + dim Im(A). Logo N (A) = {0}
se, e somente se dim Im(A) = n, ou seja, Im(A) = F.

Exemplo 6.9. Um caso particular do corolario


acima diz que, num
finita, um operador linear e injetivo se,
espaco vetorial de dimensao

e somente se, e sobrejetivo. Isto seria falso num espaco de dimensao


infinita, como se ve no seguinte exemplo: sejam A, B : R R
definidos por
A(x1 , x2 , x3 , . . .) = (0, x1 , x2 , x3 , . . .)
e
B(x1 , x2 , x3 , . . .) = (x2 , x3 , x4 , . . .).

Sec
ao 6

N
ucleo e Imagem

67

operadores lineares. O primeiro e injetivo mas nao


e soA e B sao
e injetivo.
brejetivo e o segundo e sobrejetivo mas nao

Exemplo 6.10. O Teorema do Nucleo


e da Imagem da outra expli para o fato de um hiperplano H Rn ter dimensao
n 1. Por
cacao
esse teorema, se dim E = n e f : E R e um funcional linear 6= 0
o nucleo

n 1 em E,
entao
de f e um subespaco vetorial de dimensao

pois f nao-nulo
implica Im(f) = R logo dim Im(f) = 1 e dim N (f) =
dim E dim Im(f) = n 1. Ora, o hiperplano
H = {(x1 , . . . , xn ) Rn ; a1 x1 + + an xn = 0}

nulo f : Rn R, definido por


e o nucleo
do funcional linear nao
f(x1 , . . . , xn ) = a1 x1 + + an xn .

Teorema 6.7. Se uma transformacao


linear A : E F tem uma
inversa a` esquerda B : F E e uma inversa a` direita C : F E entao

1
B = C e A e um isomorfismo, com A = B = C.

Demonstracao:
Tem-se BA = IE e AC = IF . Portanto B = BIF =
B(AC) = (BA)C = IE C = C.

Corolario.
Seja dim E = dim F. Se as transformaco es lineares
A : E F, B : F E sao
tais que BA = IE entao
AB = IF e B = A1 .

Com efeito, BA = IE A injetiva A sobrejetiva (Corolario


do Teorema 6.6) AC = IF para alguma C C = B (Teor. 6.7)
AB = IF .

Exerccios

linear
6.1. Prove que o nucleo
e a imagem de uma transformacao
respectivamente subespacos vetoriais de E e F.
A : E F sao

6.2. Seja A : E E um operador linear. Para quaisquer vetores


u N (A) e v Im(A), prove que se tem Au N (A) e Av Im(A).

6.3. Encontre numeros


a, b, c, d de modo que o operador A : R2 R2 ,

dado por A(x, y) = (ax+by, cx+dy) tenha como nucleo


a reta y = 3x.

68

N
ucleo e Imagem

Sec
ao 6

6.4. Ache a, b, c, d tais que o operador A : R2 R2 com A(x, y) =


(ax + by, cx + dy), tenha a reta y = 2x como imagem.

de um operador A : R2 R2 cujo nucleo

6.5. Escreva a expressao


seja a reta y = x e cuja imagem seja a reta y = 2x.

6.6. Defina um operador A : R2 R2 que tenha como nucleo


e como
imagem o eixo x.

6.7. Resolva um exerccio analogo


ao anterior, com a reta y = 5x em
lugar do eixo x.
linear A : R4 R3 , dada por
6.8. Considere a transformacao

A(x, y, z, t) = (x + y + z + 2t, x y + 2z, 4x + 2y + 5z + 6t),

pertenca a` imagem de A e com


encontre um vetor b R3 que nao
isso exiba um sistema linear de tres equaco es com quatro incognitas

sem solucao.
6.9. Seja E = C0 (R) o espaco das funco es contnuas f : R R. Defina
o operador
Rx linear A : E E pondo, para cada f E, Af = , onde

e a imagem do opera(x) = 0 f(t) dt, x R. Determine o nucleo


dor A.
as se6.10. Seja E = R o espaco vetorial cujos elementos sao
encias x = (x1 , x2 , . . .) de numeros

qu
reais. Defina os operadores
lineares A, B : E E pondo Ax = (x1 , 0, x2 , 0, x3 , . . .) e Bx = y, onde

y = (y1 , y2 , . . .), onde yk = xk+1 2xk . Determine o nucleo


e a imagem
de A e B.
6.11. Assinale verdadeiro (V) ou falso (F):
(

linear A : EF e sobrejetiva se, e somente


) Uma transformacao
se, dim N (A) = dim E dim F.

linear A : E F, para todo b fixado em


) Dada a transformacao
F, o conjunto G = {x E; Ax = b} e um subespaco vetorial de E.

(
(

) Para todo operador linear A : E E, tem-se E = N (A) Im A.

) Todo operador linear injetivo no espaco C0 (R) das funco es contnuas f : R R e tambem sobrejetivo.

Sec
ao 6

N
ucleo e Imagem

69

linear A : R5 R3 tem di) O nucleo


de toda transformacao
3.
mensao

6.12. Seja a = [aij ] uma matriz m n. Se suas colunas geram um


r, em Rm prove que, para todo
subespaco vetorial F, de dimensao
n
P
b F, as soluco es x = (x1 , . . . , xn ) do sistema linear
aij xj = bi (i =
j=1

n r em Rn .
1, . . . , m) formam uma variedade afim de dimensao

6.13. Prove que cada uma das transformaco es lineares abaixo e injetiva e obtenha uma inversa a` esquerda linear para cada uma delas.
(a) A : R Rn ; A(x) = (x, 2x, . . . , nx).

(b) B : R2 R3 ; B(x, y) = (x + 2y, x + y, x y).

(c) D : R3 R4 ; D(x, y, z) = (2x, 3y, 5z, x + y + z).

(d) C : Pn Pn+2 ; C p(x) = (x2 + 1)p(x).

finita. Dado um opera6.14. Seja E um espaco vetorial de dimensao


dor linear A : E E, defina o novo operador TA : L(E) L(E) pondo
TA (X) = AX, para todo X L(E). Prove que TA e invertvel se, e
somente se, A e invertvel. Mesmo problema para SA (X) = XA.
6.15. Sejam F1 , F2 subespacos de E tais que dim F1 +dim F2 = dim E.
Mostre que existe um operador linear A : E E tal que F1 = N (A) e
F2 = Im(A).

linear A : E F e sobrejetiva
6.16. Prove que uma transformacao
se, e somente se, transforma um conjunto de geradores de E num
conjunto de geradores de F.

6.17. Seja A : R2 R2 um operador linear 6= 0. Se An = 0 para


seja F = Im A. Entao
a
algum n > 2, prove que A2 = 0. [Sugestao:
de A a` reta F e zero ou e invertvel.]
restricao
6.18. Seja A : Pn Pn o operador linear definido por A p(x) =

x p (x). Descreva o nucleo


e a imagem de A. Obtenha bases para
N (A) e para Im(A).

70

N
ucleo e Imagem

Sec
ao 6

6.19. Assinale verdadeiro (V) ou falso (F):


(
(
(
(

linear A : Rm Rn e injetiva entao

) Se a transformacao
dim Im(A) = m.
dim N (A) = m n.
) Se A : Rm Rn e sobrejetiva entao

tais que dim Im(A) = dim Im(B) entao

) Se A, B L(Rn ) sao
dim Im(AB) = dim Im(BA) = dim Im(A).

a imagem do
) Se N (A) e gerado pelos vetores v1 , v2 , v3 entao
2.
operador A : R5 R5 tem dimensao

6.20. Determine uma base para a imagem de cada uma das trans sobrejetivas.
formaco es lineares abaixo e indique quais sao
(a) A : R2 R2 , A(x, y) = (x y, x y).

(b) B : R4 R4 , B(x, y, z, t) = (x + y, z + t, x + z, y + t).



(c) C : R3 R3 , C(x, y, z) = x + y2 , y + 2z , z + x2 .


1 1
.
(d) D : M(2 2) M(2 2), D X = AX, onde A =
0 1
(e) E : Pn Pn+1 , E p(x) = x p(x).

sobrejetivas
6.21. Prove que as transformaco es lineares a seguir sao
e obtenha uma inversa a` direita linear para cada uma delas.
(a) A : R3 R2 , A(x, y, z) = (2x + y, z).

(b) B : Pn R, B p(x) = p(1).

(c) C : R2 R2 , C(x, y) = (x + y, x y).

(d) P : Rn Rn1 , P(x1 , . . . , xn ) = (x1 , . . . , xn1 ).

Mostre que em tres dos quatro exemplos acima, as transformaco es dadas admitem infinitas inversas a` direita lineares e infinitas

nao-lineares.

Sec
ao 6

N
ucleo e Imagem

71

6.22. Para cada uma das nove transformaco es lineares dos exerc
cios anteriores, determine o nucleo
e obtenha uma base do mesmo,
se reduza a {0}.
caso nao
6.23. Seja T : Pn Pn o operador linear definido por T.p(x) =

5p(x) 4p (x) + p (x). Mostre que seu nucleo


e {0} e conclua que,
para todo polinomio b(x) existe um polinomio p(x) tal que 5p(x)
4p (x) + p (x) = b(x).
6.24. Seja X F um subconjunto com a seguinte propriedade: toda
linear A : E F cuja imagem contem X e sobrejetiva.
transformacao
Prove que X e um conjunto de geradores de F.
e muito mais facil
do que parece.)
(Sugestao:
linear sobrejetiva entre
6.25. Seja A : E F uma transformacao
finita. Prove que existe um subespaco
espacos vetoriais de dimensao
de A a E e um isomorfismo
vetorial E E tal que a restricao
sobre F.
6.26. Seja A : E F um isomorfismo. Se T : F E e tal que AT = IF
(ou TA = IE ), prove que T e linear.

finita. Se dim E <


6.27. Sejam E, F espacos vetoriais de dimensao
dim F, prove que existem transformaco es lineares A : E F e
B : F E tais que A e injetiva e B e sobrejetiva.

6.28. Dadas as transformaco es lineares A : E F, B : F G, assinale V(erdadeiro) ou F(also) nas seguintes implicaco es:

(
(
(
(

) BA sobrejetiva B sobrejetiva.
) BA sobrejetiva A sobrejetiva.
) BA injetiva B injetiva.
) BA injetiva A injetiva.

as quatro implicaco es sao

Prove ainda que se E = F = G entao


verdadeiras.
linear A pode escrever-se como o
6.29. Prove que toda transformacao
linear sobrejetiva e T e
produto A = TS, onde S e uma transformacao
linear injetiva. Vale tambem uma decomposicao

uma transformacao
do tipo A = S T , com S sobrejetiva e T injetiva?
6.30. Dado o conjunto finito X com n elementos, prove que o espaco
vetorial F(X; R) e isomorfo a Rn . Mais geralmente, dado qualquer

72

N
ucleo e Imagem

Sec
ao 6

espaco vetorial E, estabeleca um isomorfismo entre F(X; E) e En =


E E (n fatores).

6.31. Dados os numeros


reais a = ao < a1 < < an = b, considere
o conjunto E1 F([a, b]; R) formado pelas funco es f : [a, b] R que,
representadas
em cada intervalo fechado [ai1 , ai ], i = 1, . . . , n, sao
por polinomios de grau 1, isto e , f(x) = i x + i para ai1 x
ai . Prove que E1 e um subespaco vetorial e que a correspondencia
f 7 (f(ao ), . . . , f(an )) e um isomorfismo entre E1 e Rn+1 . Conclua
que dim E1 = n + 1. Descreva a base de E1 que corresponde a` base
canonica de Rn+1 .
de exerccio anterior, seja E2 o conjunto das
6.32. Com a notacao

funco es derivaveis
f : [a, b] R cujas restrico es aos intervalos
polinomios de grau 2. Considerando
[ai1 , ai ], i = 1, . . . , n, sao
D : E2 E1 , prove que E2 F([a, b]; R) e um subespaco
a derivacao
n + 2.
vetorial de dimensao

finita, E = L(E; R)
6.33. Sejam E um espaco vetorial de dimensao

seu dual e E = L(E ; R) seu bi-dual. Considere a correspondencia


: E E , que associa a cada vetor v E o elemento (v) = v E
tal que v (f) = f(v) para todo v E. Prove que e um isomorfismo.
[Este exerccio significa que f(v) pode ser considerado como um valor
f de variavel

v (mais exatamente, v ) de
da funcao
v ou da funcao

variavel
f.]

6.34. Seja f : E R um funcional linear nao-nulo


no espaco vetorial
n. Prove que existe uma base {u1 , . . . , un } E tal
E, de dimensao
que f(u1 ) = = f(un1 ) = 0 e f(un ) = 1. Use este fato para provar

existe um
que se g : E R e outro funcional linear nao-nulo
entao
isomorfismo A : E E tal que g = f A.

6.35. Dado o funcional linear nao-nulo


f : E R, prove que existe
um vetor u E tal que f(u) = 1. Seja F E o subespaco (reta) gerado
por u. Prove que E = F N (f).

6.36. Sejam f, g : E R funcionais lineares nao-nulos


no espaco
finita. Prove que um deles e multiplo

vetorial E, de dimensao
do

outro se, e somente se, eles tem o mesmo nucleo.

6.37. Supondo Y X, descreva o nucleo


e a imagem da transfor linear R : F(X; R)F(Y; R), que associa a cada funcao
f : XR
macao
Rf = f|Y : Y R.
sua restricao

Sec
ao 6

N
ucleo e Imagem

73

respecti6.38. Sejam E, F os espacos vetoriais cujos elementos sao


vamente as funco es pares e as funco es mpares R R. Descreva o

nucleo
e a imagem das transformaco es lineares R : E F([0, +); R)
f : R R sua
e R : F F([0, +); R) que associam a cada funcao
ao intervalo [0, +).
restricao

6.39. Estabeleca um isomorfismo entre o espaco vetorial das matrizes simetricas n n e o espaco das matrizes triangulares inferiores
(aij = 0 se i < j). Idem entre as matrizes anti-simetricas e as triangulares inferiores com diagonal nula.
3 em R5 . Quais
6.40. Sejam F1 e F2 subespacos vetoriais de dimensao
as dimensoes possveis do subespaco F1 F2 ? Mesma pergunta
sao
com dim F1 = 4 e dim F2 = 3.
6.41. Seja A : E E um operador linear. Prove que A2 = 0 se, e
somente se, Im(A) N (A).

6.42. Dadas as transformaco es lineares A, B : E F, entre espacos


finita, prove:
vetoriais de dimensao

existe um isomorfismo Q : F F tal que


(a) Se N (A) = N (B) entao
B = QA.

existe um isomorfismo P : E E tal que


(b) Se Im(A) = Im(B) entao
B = AP.

(c) Se dim N (A) = dim N (B) (ou, equivalentemente, dim Im(A) =


existem isomorfismos P : E E e Q : F F tais
dim Im(B)) entao
que B = QAP.
(d) Existem operadores lineares A, B : E E tais que N (A)=N (B),
Im(A) = Im(B), sem que exista um isomorfismo P : E E, com
B = P1 AP.

6.43. Se os vetores v1 , . . . , vm E geram um subespaco vetorial de


r, prove que o conjunto dos vetores (1 , . . . , m ) Rm
dimensao
tais que 1 v1 + + m vm = 0 e um subespaco vetorial de Rm
m r. [Sugestao:
considere a transformacao
linear
com dimensao
m
(1 , . . . , m ) 7 1 v1 + + m vm , de R em E.]

6.44. Seja A : E E um operador linear tal que Ak = 0 para algum

numero
natural k. Prove que, para todo 6= 0, o operador A I e
invertvel.

74

N
ucleo e Imagem

Sec
ao 6

6.45. Se, para algum o 6= 0, tem-se o I + 1 A + + m Am = 0,


prove que o operador linear A e invertvel.
6.46. Sem fazer hipoteses sobre as dimensoes de E e F, sejam A : E
F e B : F E transformaco es lineares. Se AB e invertvel, prove que
invertveis, prove que
A e sobrejetiva e B e injetiva. Se AB e BA sao
A e invertvel.
6.47. Calcule (B1 AB)m .

7
Soma Direta e Projec
ao

Esta secao
trata da decomposicao
de um espaco vetorial como soma
de subespacos independentes, mostra que essa decomposicao
equivale
a definir um operador idempotente no espaco e estabelece a conexao

entre projeco es e involuco es, ou simetrias.


2, vimos que se F1 e F2 sao
subespacos do espaco vetorial
Na Secao
F1 F2 e o conjunto
E, o subespaco vetorial de E gerado pela reuniao
F1 + F2 de todas as somas u + v, onde u F1 e v F2 . No caso
particular em que F1 F2 = {0}, escreve-se F1 F2 em vez de F1 + F2 ,
diz-se que F1 F2 e a soma direta de F1 com F2 e prova-se (Teorema
F1 F2 = {0} equivale a dizer que u + v = u + v ,
2.1) que a condicao
com u, u F1 e v, v F2 , implica u = u e v = v .
analoga

Existe uma nocao


a` de soma direta, que e o produto car
tesiano E1 E2 de dois espacos vetoriais E1 e E2 . Aqui E1 e E2 nao
precisam ser subespacos vetoriais do mesmo espaco E. Os elemen os pares ordenados (u, v), onde u E1
tos do conjunto E1 E2 sao

e v E2 . As operaco es que tornam E1 E2 um espaco vetorial sao


definidas por
(u, v) + (u , v ) = (u + u , v + v ),

(u, v) = (u, v),

para quaisquer u, u E1 , v, v E2 e R. O vetor nulo de


E1 E2 e o par (0,0) e o inverso aditivo de (u, v) e (u, v). Se

76

Soma Direta e Projec


ao

Sec
ao 7

bases, e imediato consta{u1 , . . . , um } E1 e {v1 , . . . , vn } E2 sao


tar que {(u1 , 0), . . . , (um , 0), (0, v1 ), . . . , (0, vn )} E1 E2 e uma base,
de modo que dim(E1 E2 ) = dim E1 + dim E2 .
subespacos vetoriais de E, com F1 F2 = {0}, entao

Se F1 e F2 sao
linear
a transformacao
A : F1 F2 F1 F 2 ,

definida por A(u, v) = u + v, u F1 , v F2 , e um isomorfismo,


como se verifica facilmente. Se {u1 , . . . , um } F1 e {v1 , . . . , vn } F2
bases entao
a base {(u1 , 0), . . . , (um , 0), (0, v1 ), . . . (0, vn )} de F1 F2
sao
e transformada por A no conjunto {u1 , . . . , um , v1 , . . . , vn } o qual e ,
por conseguinte, uma base de F1 F2 . Segue-se que dim(F1 F2 ) =
dim F1 + dim F2 = m + n.
F1 F2 dos dois subesNo caso mais geral, em que a intersecao
se reduz necessariamente ao vetor nulo, a soma
pacos F1 , F2 E nao
ser uma soma direta mas, mesmo assim, esta bem
F1 + F2 pode nao
linear
definida a transformacao
A : F1 F2 F1 + F2 ,
onde A(u, v) = u + v para u F1 e v F2 . Obviamente, A e sobreje
tiva. Seu nucleo
e formado pelos pares (u, v) tais que u + v = 0, isto
e , v = u, logo u e v pertencem ambos a F1 e a F2 . Noutras palavras,
N (A) = {(u, u); u F1 F2 }. A correspondencia u 7 (u, u) e um

isomorfismo evidente entre F1 F2 e N (A). Pelo Teorema do Nucleo


e da Imagem, temos
dim F1 + dim F2 = dim(F1 F2 )

= dim N (A) + dim(F1 + F2 )

= dim(F1 F2 ) + dim(F1 + F2 ).
Isto nos permite enunciar o
Teorema 7.1. Sejam F1 e F2 subespacos de dimensao
finita de um
espaco vetorial E. Tem-se dim F1 + dim F2 = dim(F1 F2 ) +
dim(F1 + F2 ).
de soma direta esta intimamente ligada a` nocao
de proA nocao
do espaco vetorial E como soma
Se E = F1 F2 e a decomposicao
jecao.

Sec
ao 7

Soma Direta e Projec


ao

77

direta dos subespacos F1 e F2 , define-se o operador linear P : E E,


projecao
de E sobre F1 , paralelamente a F2 , do seguinte modo: todo

vetor w E se escreve, de modo unico,


como soma w = u + v de
Pw = u. (Veja
um vetor u F1 com um vetor v F2 . Poe-se entao
Fig. 7.1.)
F2

F1
O

Figura 7.1.
O operador linear P : E E assim definido tem imagem F1 e

nucleo
F2 . Alem disso, como se ve facilmente, P e idempotente, isto
2
e , P = P. O teorema seguinte mostra que, reciprocamente, todo

operador linear idempotente e uma projecao.


para todo
Preliminarmente, observemos que se P2 = P entao,
w Im(P), tem-se Pw = w pois w Im(P) w = Pv Pw =
PPv = Pv = w.

Teorema 7.2. Seja P : E E um operador linear. Se P2 = P entao

E e a soma direta do nucleo

com a imagem de P. Alem disso, P e a


projecao
sobre Im(P) paralelamente a N (P).
Todo v E escreve-se como soma v = (v Pv) + Pv,
Demonstracao:
onde Pv, evidentemente, pertence a Im(P) e, como P(v Pv) = Pv
PPv = Pv Pv = 0, vemos que v Pv N (P). Portanto E = N (P) +
Im(P). Se w N (P) Im(P), por um lado tem-se Pw = 0 e, por
outro, Pw = w; logo w = 0. Assim N (P) Im(P) = {0} e tem-se a

do enunciado e
soma direta E = N (P) Im(P). A ultima
afirmacao
o bvia.

78

Soma Direta e Projec


ao

Sec
ao 7

Exemplo 7.1. Para todo operador linear A : E E num espaco


finita vale a relacao
dim E = dim N (A) +
vetorial de dimensao
implica que se tenha sempre E = N (A)
dim Im(A). Isto porem nao
Im(A). Por exemplo, se A : R2 R2 e definido por A(x, y) =
tomando w = (1, 1), temos w = Av, com v = (2, 1)
(x y, x y) entao,

e Aw = 0, logo N (A) Im(A) contem o vetor nao-nulo


w.

Outro exemplo de operador linear que esta ligado a` decomposicao


de um espaco vetorial como soma direta de dois subespacos e fornecido pelas involuco es.
Uma involucao
e um operador linear S : E E tal que S2 = I, ou
seja, S(Sv) = v para todo v E.
e um operador invertvel, igual
Noutras palavras, uma involucao
e a reflexao
(ortoao seu proprio inverso. Um exemplo de involucao
gonal) no plano em torno de uma reta que passa pela origem.
e a reflexao
em torno de um
Veremos agora que toda involucao
subespaco, paralelamente a outro.
Teorema 7.3. Seja S : E E uma involucao.

Os conjuntos F1 =
{u E; Su = u} e F2 = {v E; Sv = v} sao
subespacos vetoriais e
E = F1 F2 . Para todo w = u+v, com u F1 e v F2 tem-se Sw = uv.
sobre F1 , paralelamente a F2 .
Alem disso, P = 12 (S + I) e a projecao
(Veja Fig. 7.2.)
F2
w
v

F1
u

-v

Sw

Figura 7.2.

Sec
ao 7

Soma Direta e Projec


ao

79

Para todo w E, podemos escrever w = u + v, onde


Demonstracao:
u = (w + Sw)/2 e v = (w Sw)/2. Como S2 = I, e claro que Su = u e
claro tambem que F1 F2 = {0} e
Sv = v, ou seja, u F1 e v F2 . E
que w = u + v Sw = u v se u F1 e v F2 . Finalmente,
1
1
P = (S + I) P2 = (S2 + 2S + I)
2
4
1
= (2S + 2I)
4
1
= (S + I) = P.
2

Ve-se facilmente que o nucleo


de P e F2 e a imagem de P e F1 .
descrita pelo Teorema 7.3, diz-se que a involucao
S e
Na situacao
em torno do subespaco F1 , paralelamente a F2 . O caso mais
a reflexao
e aquele em que se tem dim E = n, dim F1 = n1
comum de reflexao
em torno do hiperplano F1
e dim F2 = 1, de modo que S e a reflexao
paralelamente a` reta F2 .

Exerccios
7.1. No plano R2 , considere as retas F1 e F2 , definidas respectivamente pelas equaco es y = ax e y = bx, com a 6= b. Em seguida:
(1) Exprima cada vetor v = (x, y) R2 como soma de um vetor em
F1 e um vetor em F2 .
a` base canonica) da projecao

(2) Obtenha a matriz (em relacao

P : R2 R2 , que tem F1 como nucleo


e F2 como imagem.
S : R2 R2 , em torno da reta F2 ,
(3) Ache a matriz da reflexao
paralelamente a F1 .

projeco es e PQ = QP, prove que PQ e uma


7.2. Se P, Q : E E sao
cujo nucleo

projecao
e N (P) + N (Q) e cuja imagem e Im(P) Im(Q).

7.3. Exprima um vetor arbitrario


v = (x, y, z) R3 como soma de um
e x + y z = 0, com um vetor da reta
vetor do plano F1 , cuja equacao

80

Soma Direta e Projec


ao

Sec
ao 7

F2 , gerada pelo vetor (1, 2, 1). Conclua que R3 = F1 F2 . Determine


P : R3 R3 , que tem
a matriz (relativa a` base canonica) da projecao

imagem F1 e nucleo
F2 .
dado um operador linear P : E E. Assinale verdadeiro (V)
7.4. E
ou falso (F):
(

P e uma projecao.

) Se E = N (P) Im(P) entao

P e uma projecao.

) Se E = N (P) + Im(P) entao

entao
I P tambem e .
) Se P e uma projecao

entao
Im(P) = N (I P) e N (P)
) Se P e uma projecao
Im(I P).

7.5. Se N (P) = Im(I P), prove que o operador linear P : E E e

uma projecao.
7.6. Mostre que

1
0

0
0

0
1
0
0

a
c
0
0

b
d

0
0

P : R4 R4 . Escreva
e a matriz (na base canonica) de uma projecao

as equaco es que definem o nucleo


e a imagem dessa projecao.

7.7. Prove que o operador P : R2 R2 , dado por P(x, y) = (2x


sobre uma reta. Determine o nucleo

4y, 23 x + 3y) e a projecao


ea
imagem de P.
7.8. Considere o operador linear A : R3 R3 , dado por

A(x, y, z) = (40x + 18y 6z, 18x + 13y + 12z, 6x + 12y + 45z).

1
que Im(P) e um plano e
A e uma projecao,
Mostre que P = 49
desse plano.
determine a equacao

7.9. Sejam F1 , F2 subespacos vetoriais de E, com dim F1 + dim F2 =


dim E (dimensoes finitas). Prove que E = F1 F2 se, e somente se,
F1 F2 = {0}.

Sec
ao 7

Soma Direta e Projec


ao

81

7.10. Seja A : E E um operador linear num espaco vetorial de


finita. Prove que E = N (A) Im(A) se, e somente se,
dimensao
N (A) = N (A2 ).
finita E admita
7.11. Suponha que o espaco vetorial de dimensao
E = F1 Fk , como soma direta de subespacos
a decomposicao
vetoriais. (Vide Exerccio 2.33.) Para cada i = 1, . . . , k, escreva Gi =
sobre
F1 Fi1 Fi+1 Fk e chame de Pi : E E a projecao
Fi , paralelamente a Gi . Prove que P1 + + Pk = I e Pi Pj = 0 se i 6= j.

7.12. Sejam P1 , . . . , Pk : E E operadores lineares tais que


P1 + + Pk = I e Pi Pj = 0 se i 6= j. Prove que esses operadores
projeco es.
sao
7.13. Sejam P, Q : E E projeco es. Prove que as seguintes afirma equivalentes:
co es sao
(a)

P + Q e uma projecao;

(b)

PQ + QP = 0;

(c)

PQ = QP = 0.

[Para provar que (b) (c), multiplique a` esquerda, e depois a`


direita, por P.]

se, e
7.14. Prove que o produto de duas involuco es e uma involucao
somente se, elas comutam.
involuco es e
7.15.
Mostre que os seguintes operadores sao
correspondente na forma do
determine, em cada caso, a projecao
Teorema 7.3.
(a)
(b)
(c)

S : F(R2 ; R) F(R2 ; R), Sf = f , f (x, y) = f(y, x).

^ f(x)
^ = f(1/x).
U : F(R+ ; R) F(R+ ; R), Uf = f,

V : Rn Rn , V(x1 , . . . , xn ) = (x1 , . . . , xk , xk+1 , . . . , xn ).

finita, prove que para


7.16. Se o espaco vetorial E tem dimensao
todo subespaco F E existe (pelo menos) um subespaco G E tal
que E = F G.

82

Soma Direta e Projec


ao

Sec
ao 7

linear
7.17. Seja E = F1 F2 . O grafico

de uma transformacao
A : F1 F2 e o subconjunto G E formado pelas somas v + Av, onde

v F1 . Prove que G e um subespaco vetorial de E e que a projecao


P : E F1 , restrita a G, define um isomorfismo entre G e F1 . Recipro de P
camente, se G E e um subespaco vetorial tal que a restricao

a G e um isomorfismo de G sobre F1 , prove que G e o grafico


de uma
linear A : F1 F2 .
transformacao

7.18. Diz-se que X Y = Z e uma particao


de Z quando X Y = . Se
prove que Rn = RJ RK , onde RJ e
J K = {1, . . . , n} e uma particao,
os subespacos vetoriais de Rn gerados pelos vetores ej , j J e
RK sao
pelos vetores ek , k K respectivamente. Seja F Rn um subespaco
J K = {1, . . . , n} tal que F
vetorial. Prove que existe uma particao

linear A : RJ RK , onde dim F =


e o grafico
de uma transformacao

numero
de elementos de J.

Prove que os vetores v e (1 t)v +


7.19. Seja P : E E uma projecao.
tPv, para todo v E e todo t R, tem a mesma imagem por P.

7.20. Sejam P, Q : E E projeco es. Se P + Q for ainda uma projecao,


prove que Im(P + Q) = Im(P) Im(Q). Considerando as projeco es
P, Q : R2 R2 , com P(x, y) = (x, 0) e Q(x, y) = 21 (x + y, x + y), mostre
que a recproca e falsa.
finita e soma di7.21. Prove que todo espaco vetorial de dimensao
1.
reta de subespacos de dimensao

8
A Matriz de uma
Transformac
ao Linear
A matriz de uma transformacao
linear e um objeto concreto, associado a essa transformacao
na presenca de bases em seu domnio e
seu contra-domnio. A matriz permite obter uma variedade ilimitada de exemplos de transformaco es lineares, bem como calcular especificamente a imagem de um dado vetor por uma transformacao.

Nesta secao
sera estudada a relacao
entre uma transformacao
linear
e sua matriz. Em particular, o produto de transformaco es conduzira
a uma profcua nocao
de produto de matrizes. Veremos como se relacionam as matrizes da mesma transformacao
tomadas em bases
diferentes e daremos uma demonstracao
direta da igualdade entre o
posto-linha e o posto-coluna de uma matriz.
4 que uma transformacao
linear A : Rn Rm
Vimos na Secao
fica inteiramente determinada pela matriz a = [aij ] M(mn), cujo
ij-esimo termo aij e a i-esima coordenada do vetor A ej Rm . Com
efeito, conhecendo essa matriz tem-se, para cada v = (x1 , . . . , xn )
Rn , o valor A v = (y1 , . . . , ym ) dado por
yi = ai1 x1 + + ain xn (i = 1, . . . , m).
liEstenderemos agora essas consideraco es a uma transformacao
finita.
near entre dois quaisquer espacos vetoriais de dimensao
finita e A : E F uma
Sejam E, F espacos vetoriais de dimensao
linear. Fixadas bases V = {v1 , . . . , vn } E e W =
transformacao

84

A Matriz de uma Transformac


ao Linear

Sec
ao 8

{w1 , . . . , wm } F, para cada j = 1, . . . , n o vetor Avj se exprime como


linear dos vetores da base W:
combinacao
Avj = a1j w1 + a2j w2 + + amj wm =

m
X

aij wi .

i=1

linear A : E F juntamente com as bases


Assim, a transformacao
V E e W F determinam uma matriz a = [aij ] M(m n),
chamada a matriz de A relativamente a essas bases (ou nas bases
V, W).
a j-esima coluna da matriz a e formada pelas coorPor definicao,
a` base W.
denadas de Avj em relacao
seja mencionado explicitamente, convem salienEmbora isso nao
dispostos numa ordem fixa,
tar que os vetores nas bases V e W sao
ficaria bem definida.
sem o que a matriz a nao
No caso em que A : E E e um operador linear, a menos que seja
explcita em contrario,

feita mencao
considera-se apenas uma base
V = {v1 , . . . , vn } E e a matriz a = [aij ] do operador A relativamente
a` base V (ou na base V) e definida pelas n igualdades
Avj =

n
X

aij vi

(j = 1, . . . , n).

i=1

Neste caso, a M(n n) e a matriz quadrada n n cuja j-esima


coluna e formada pelas coordenadas do vetor
Avj = a1j v1 + a2j v2 + + anj vn
na base V.
linear A : Rn Rm
Quando considerarmos uma transformacao
e dissermos apenas a matriz de A, estaremos significando a matriz
` bases canonicas de Rn e Rm . Caso utilizemos
de A relativamente as
outras bases, isto sera dito explicitamente.

Exemplo 8.1. Consideremos um espaco vetorial E, de dimensao


finita. Dado R, seja A : E E o operador linear definido por Av =
v para todo v E. Relativamente a qualquer base V = {v1 , . . . , vn }

E, a matriz a do operador A e sempre a mesma, com numeros


na

Sec
ao 8

A Matriz de uma Transformac


ao Linear

85

diagonal e zeros fora dela:

0
0

a = . .
..
.. ..
.
0 0

0
0

..
.

.
O operador A = I e o que se chama uma homotetia de razao
os unicos

Estes sao
operadores cujas matrizes independem da base
dada. (Vide Exerccio 8.35.)
sobre o subespaco F1 , paExemplo 8.2. Seja P : E E a projecao
ralelamente ao subespaco F2 . Sejam ainda V1 F1 e V2 F2 bases
V = V1 V2 e uma base de E,
quaisquer desses subespacos. Entao
relativamente a` qual a matriz p de P tem os k primeiros termos da
diagonal iguais a 1 (k = dim F1 ) e todos os demais termos (sobre a
diagonal ou fora dela) iguais a zero. Analogamente, se S : E E e a
em torno de F1 paralelamente a F2 , sua matriz s na base V
reflexao
tem os primeiros k termos da diagonal iguais a 1, os restantes iguais
a 1 e todos os termos fora da diagonal iguais a zero.
das bases V E e W F determina portanto uma
A fixacao

transformacao
: L(E; F) M(m n),

que faz corresponder a cada A L(E; F) sua matriz a nas bases V,


e linear, ou seja, se a, b M(m n) sao

W. A transformacao
numeros

as matrizes de A, B L(E; F) respectivamente e , sao


a matriz de A + B e a + b, a matriz de A e a e, mais
reais, entao
geralmente, a matriz de A + B e a + b. Mais ainda, e um
isomorfismo: a bijetividade de e assegurada pelo Teorema 4.1.
Convem observar que, no caso de E = Rn e F = Rm , existe um
par natural de bases (canonicas) nestes espacos, de modo que o isomorfismo : L(Rn ; Rm ) M(m n) pode ser definido sem depender

linear A : Rn Rm
de escolhas arbitrarias.
A cada transformacao
corresponde a matriz (A) = [aij ] cujo j-esimo vetor-coluna e A ej =
(a1j , . . . , amj ).
Em particular, a cada funcional linear f : Rn R corresponde,
de modo natural, uma matriz [a1 , . . . , an ] M(1 n) ou, o que e
o mesmo, um vetor (a1 , . . . , an ). As correspondencias entre a matriz [a1 , . . . , an ] e o funcional f tal que f(ei ) = ai , e entre f e o vetor

86

A Matriz de uma Transformac


ao Linear

Sec
ao 8

isomorfismos entre M(1 n), (Rn ) e Rn , determi(a1 , . . . , an ), sao


nados pela base canonica de Rn .
Entre transformaco es lineares, alem das operaco es A + B e A,
BA. O isomorfismo faz corresponexiste tambem a multiplicacao
der ao produto BA o produto ba das matrizes de B e de A, segundo
definiremos a seguir.
Sejam u = (1 , . . . , n ) e v = (1 , . . . , n ) vetores em Rn . O pro
duto interno de u por v e definido como o numero
hu, vi = 1 1 + + n n .
geral de produto interno, suas propriedades e aplicaco es
A nocao
estudadas na Secao
10. Um caso particular sera usado agora
serao
para introduzir o produto de duas matrizes.
Sejam b = [bij ] M(m n) e a = [aij ] M(n p) matrizes

tais que o numero


de colunas de b e igual ao numero
de linhas de
a. O produto da matriz b pela matriz a (nesta ordem) e a matriz
ba = c = [cij ] M(m p), cujo ij-esimo elemento
cij = bi1 a1j + bi2 a2j + + bin anj =

n
X

bik akj

k=1

e o produto interno do i-esimo vetor-linha de b pelo j-esimo vetorcoluna de a.


linear A : Rn Rm pode ser
Exemplo 8.3. Uma transformacao
de matrizes: em vez de A
interpretada como uma multiplicacao
n
m
L(R ; R ) considera-se sua matriz a = [aij ] M(m n). Em par substitudos por maticular, os funcionais lineares f : Rn R sao
trizes 1 n, ou seja, por vetores-linha. Alem disso, os vetores x =
(x1 , . . . , xn ) Rn e b = (b1 , . . . , bm ) passam a ser considerados como
matrizes n1 e m1 respectivamente, ou seja, como vetores-coluna.
a igualdade Ax = b passa a ser escrita sob a forma ax = b,
Entao
isto e :



a11 a1n
x1
b1
a21 a2n x2
b2



..
.. .. = .. .
..
.

.
.
.
am1

amn

xn

bm

Dentro deste ponto de vista, a Algebra


Linear se reduz ao calculo
de matrizes, o que traz vantagens sob o aspecto computacional mas

Sec
ao 8

A Matriz de uma Transformac


ao Linear

87

geometrica, da simplicidade conceitual,


o custo e a perda da intuicao
infinita.
alem da impossibilidade de se tratar o caso de dimensao
do produto de matrizes foi formulada de modo a torA definicao

nar verdadeiro o teorema seguinte. Nele, A : E F e B : F G sao


transformaco es lineares, U = {u1 , . . . , up } E, V = {v1 , . . . , vn } F e
bases, a M(n p) e a matriz de A nas
W = {w1 , . . . , wm } G sao
bases U , V e b M(m n) e a matriz de B nas bases V, W.
Teorema 8.1. A matriz de BA : E G nas bases U , W e o produto
ba M(m p) das matrizes b e a.
temos
Por definicao,
Demonstracao:
Auj =

n
X

akj vk

(j = 1, . . . , p)

k=1

e
Bvk =

m
X

bik wi

(k = 1, . . . , n).

i=1

Seja c = [cij ] M(m p) a matriz de BA nas bases U , W. Por


para cada j = 1, . . . , p, temos:
definicao,
!
m
n
n
X
X
X
cij wi = BAuj = B
akj Bvk =
akj vk =
i=1

k=1

k=1

m
X
k=1

akj

n
X

bik wi

i=1

m
n X
X
i=1

k=1

bik akj wi .

Igualando os coeficientes de cada wi , conclumos que, para i=1, ..., m


e j = 1, . . . , p, tem-se
n
X
bik akj ,
cij =
k=1

logo c = ba.
Resulta imediatamente do teorema acima e do isomorfismo
: L(E; F) M(m n) que as regras operacionais do produto de
transformaco es lineares se transferem diretamente para o produto
de matrizes. No que se segue, indicaremos com o smbolo In a matriz

88

A Matriz de uma Transformac


ao Linear

Sec
ao 8

identidade n n. Tem-se In = [ij ], onde ij e o smbolo de Kronec houver ambiguidade,

ker: ij = 0 se i 6= j e ii = 1. Quando nao


escreveremos simplesmente I em vez de In .
As propriedades abaixo listadas se provam considerando, para
linear A : Rn Rm cuja matriz
cada a M(m n), a transformacao
e a e aplicando a propriedade correspondente para transformaco es
lineares, ja provada anteriormente.
1) (cb)a = c(ba);
2) c(a + b) = ca + cb; (b + c)a = ba + ca;
3) a In = a, Im a = a se a M(m n);

4) b(a) = (ba).

Dada a M(m n), diz-se que x M(n m) e uma matriz


inversa a` esquerda de a quando xa = In e que y M(n m) e uma
matriz inversa a` direita de a quando ay = Im .
5) Uma matriz mn possui inversa a` esquerda se, e somente se, seus
vetores-coluna sao
L.I. e uma inversa a` direita se, e somente se, esses
vetores-coluna geram Rm .
Uma matriz a chama-se invertvel quando e quadrada e existe
uma matriz a1 , chamada a inversa de a, tal que a1 a = aa1 = I.
6) Se uma matriz a possui uma inversa a` esquerda x e uma inversa
a` direita y entao
a e quadrada, e invertvel e x = y = a1 .
7) Uma matriz quadrada a admite uma inversa a` esquerda se, e
somente se, admite uma inversa a` direita. Neste caso, a matriz a e
invertvel e cada uma dessas inversas laterais e igual a a1 .
A seguir, determinaremos como varia a matriz de uma transfor linear A : E F quando se mudam as bases em E e F.
macao
Sejam V = {v1 , . . . , vn } E e W = {w1 , . . . , wm } F bases, em
as
` quais a matriz da transformacao
linear A : E F e a =
relacao
[aij ] M(m n). Isto significa que
Avj =

m
X

aij wi

(j = 1, . . . , n).

i=1

Tomando novas bases V = {v1 , . . . , vn } E e W = {w1 , . . . , wm } F,


linear A tem nova matriz a = [aij ] M(m n),
a transformacao

Sec
ao 8

A Matriz de uma Transformac


ao Linear

definida por:
Avj =

m
X

arj wr

(j = 1, . . . , n).

89

(*)

r=1

entre as matrizes a e a , consideramos as


Para obter a relacao
matrizes de passagem p = [pkj ] M(n n) e q = [qir ] M(m m),
definidas pelas igualdades
vj =

n
X

pkj vk

wr =

k=1

m
X

qir wi .

i=1

p e a matriz de passagem da base V para a base V e


Por definicao,
q e a matriz de passagem da base W para a base W . Cada um dos
dois membros da igualdade (*) pode ser escrito separadamente, em
termos da base W, assim:
Avj =

n
X

pkj Avk =

k=1

n
X

pkj

m
X

aik wi

k=1
i=1
n
m
XX

pkj aik wi

k=1 i=1

m
n
X
X
i=1

m
X

arj wr

r=1

m
X

arj

aik pkj

k=1

m
X

qir wi
i=1
r=1
m
m X
X
arj qir wi
r=1 i=1
!
m
m
X
X

qir arj wi .
r=1
i=1

Igualando os coeficientes de wi vem:


n
X
k=1

isto e , ap = qa .

aik pkj =

m
X
r=1

qir arj ,

wi ,

90

A Matriz de uma Transformac


ao Linear

Sec
ao 8

Observemos agora que toda matriz de passagem e invertvel.


Com efeito, se p e a matriz de passagem da base V para a base V
p e tambem a matriz (em relacao
a` base V) do operador linear
entao
P : E E, tal que Pvj = vj (j = 1, . . . , n), o qual e invertvel porque
leva uma base numa base.
Assim, da igualdade ap = qa podemos concluir
a = q1 ap.
Esta e a formula que nos da a matriz a de A nas bases V , W em
da matriz a de A nas bases V, W. No caso particular de um
funcao
` bases V, V ,
operador A : E E e de suas matrizes a, a relativas as

temos uma unica


matriz de passagem p, que nos da
a = p1 ap.

As duas matrizes quadradas a e p1 ap dizem-se semelhantes.


a bases diferentes
Assim, as matrizes do mesmo operador em relacao
semelhantes. Vale tambem a recproca: se a e a = p1 ap sao

sao
existe um operador A : Rn Rn
matrizes n n semelhantes entao
matrizes de A relativamente a bases distintas
tal que a e a sao
n
de R .
Com efeito, dadas a e a = p1 ap, consideramos o operador
A : Rn Rn cuja matriz na base canonica E de Rn e a. Em seguida,
consideramos a base E Rn , obtida da base canonica pela matriz
a e a matriz de A na base E .
de passagem p. Entao

observar que se V = {v1 , . . . , vn } e uma


Para efeitos praticos
e util
a matriz de passagem da base canonica para V e
base em Rn entao
os vetores v1 , . . . , vn .
aquela cujas n colunas sao
Exemplo 8.4. Seja A : R2 R2 o operador linear que consiste na
em torno da reta y = ax. Como se viu no Exemplo 4.4, a
reflexao
matriz de A relativamente a` base canonica de R2 e
2

1a

1+a
a=

2a
1+a2

2a
1+a2

a2 1
1+a2

Seja V = {v1 , v2 } R2 a base formada pelos vetores v1 = (1, a) e


v2 = (a, 1). Para todo vetor v = (x, y) R2 , temos


2a
2a
a2 1
1 a2
A(x, y) =
x+
y,
x+
y ,
1 + a2
1 + a2 1 + a2
1 + a2

Sec
ao 8

A Matriz de uma Transformac


ao Linear

91

geometrilogo Av1 = v1 e Av2 = v2 . (De resto, estas igualdades sao


camente o bvias.) Portanto a matriz de A na base V e


1 0

a =
.
0 1
A matriz de passagem da base canonica de R2 para a base V e


1 a
p=
.
a 1
Segue-se que a = p1 a p. Neste caso, foi mais simples calcular a
p1 ap.
diretamente do que determinar
p1 e efetuar a multiplicacao

1 a
1
p1 = 1+a
(Observacao:
.)
2
a 1
linear entre espacos vetoriSeja A : E F uma transformacao
finita. O posto de A e a dimensao
da sua imagem.
ais de dimensao
Evidentemente, dim Im(A) dim F. Alem disso, pelo Teorema do

Nucleo
e da Imagem, dim Im(A) dim E. Segue-se que o posto de

A nao excede dim E nem dim F. O posto de A e igual a` dimensao


de F se, e
de E se, e somente se, A e injetiva. E e igual a` dimensao
somente se, A e sobrejetiva.
Se a M(m n) e a matriz de A relativamente a um par qual do subespaco
quer de bases U E, V F, o posto de A e a dimensao

de Rm gerado pelas colunas de a. Logo, o posto de A e o numero

maximo
de colunas linearmente independentes da matriz a.
nos leva a definir o posto segundo colunas de
Esta observacao

uma matriz a M(m n) como o numero


maximo
de colunas line
do
armente independentes em a. Este numero
e igual a` dimensao
subespaco vetorial de Rm gerado pelos vetores-coluna de a. (Espacocoluna de a.)

De maneira analoga,
definimos o posto segundo linhas da matriz

a M(m n) como o numero


maximo
de linhas L.I. em a, ou seja,
do subespaco vetorial de Rn gerado pelos vetorescomo a dimensao
linha da matriz a. (Espaco-linha de a.)
Embora o espaco-coluna e o espaco-linha da matriz a sejam subespacos de espacos vetoriais diferentes, vale o resultado seguinte:
Teorema 8.2. Para toda matriz a M(m n), o posto segundo
linhas e o posto segundo colunas sao
iguais.

92

A Matriz de uma Transformac


ao Linear

Sec
ao 8

Demonstracao:
Seja p o posto segundo colunas da matriz a =
existem p vetores wk = (b1k , . . . , bmk ) Rm
[aij ] M(m n). Entao
tais que cada uma das colunas vj = (a1j , . . . , amj ), 1 j n, e
linear de w1 , . . . , wp :
combinacao
vj =

p
X

ckj wk ,

k=1

1 j n.

(*)

Tomando a i-esima coordenada de cada um dos membros de (*), vemos que


p
p
X
X
aij =
ckj bik =
bik ckj ,
(**)
k=1

k=1

para quaisquer i, j, com 1 i m e 1 j n. Considerando agora


os vetores-linha ui = (ai1 , . . . , ain ) da matriz a, juntamente com os
vetores zk = (ck1 , . . . , ckn ), 1 k p, observamos que a igualdade
entre o primeiro e o terceiro membro de (**) significa que, para todo
i = 1, . . . , m tem-se
ui =

p
X
k=1

bik zk ,

1 i m.

combinaco es lineares de z1 , . . . , zp ,
Assim, os vetores-linha de a sao
portanto o posto de a segundo linhas e p. Aplicando este resultado
a` matriz aT (chamada a transposta de a), que tem como linhas as
colunas de a e como colunas as linhas de a, conclumos que o posto
de a segundo colunas e menor do que ou igual ao posto segundo

linhas. Isto conclui a demonstracao.


definir o posto de uma matriz como o numero

Podemos entao

maximo
de linhas, ou de colunas, L.I. dessa matriz. Mesmo quando
a matriz e quadrada (em cujo caso suas linhas e colunas pertencem
ao mesmo espaco Rn ) os subespacos gerados pelas linhas e pelas
colunas, respectivamente, podem ser diferentes mas tem a mesma

dimensao.
do Teorema 8.2.) Sejam f1 , ..., fm :E
Exemplo 8.5 (Uma aplicacao

R funcionais lineares nao-nulos


no espaco vetorial E, de dimensao

n. Vimos no Exemplo 6.10 que, para cada i = 1, . . . , m, o nucleo


de
n 1, Hi = {v E; fi (v) = 0}
fi e o subespaco vetorial, de dimensao

Sec
ao 8

A Matriz de uma Transformac


ao Linear

93

desses m hiperplanos e o subespaco


(hiperplano em E). A intersecao
vetorial F = H1 . . . Hm , formado pelos vetores v E que cumprem simultaneamente as condico es f1 (v) = 0, . . . , fm (v) = 0. Qual
do subespaco F ? Usando o Teorema 8.2 (juntamente
e a dimensao

com o Teorema do Nucleo


e da Imagem), mostraremos agora que

dim F = n r, onde r e o numero


maximo
de elementos linear do
mente independentes no conjunto {f1 , . . . , fm }, isto e , a dimensao

subespaco de E gerado por estes funcionais.


Com efeito, fixemos uma base V = {v1 , . . . , vn } E e seja
[ai1 , . . . , ain ] a matriz de fi nesta base (i = 1, . . . , m). Temos aij =
fi (vj ). Isto nos da uma matriz a = [aij ] M(m n), cuja i-esima
linha e a matriz de fi , logo o posto de a segundo linhas e r. Seguese do Teorema 8.2 que os vetores-coluna w1 , . . . , wn de a geram um
r em Rm . Ora, o subespaco gerado em Rm
subespaco de dimensao
linear A : E Rm , definida
pelos wj e a imagem da transformacao
por Av = (f1 (v), . . . , fm (v)), para todo v E. De fato,
Avj = (f1 (vj ), . . . , fm (vj ))

= (a1j , . . . , amj ) = wj , j = 1, 2, . . . , n.

do
Evidentemente, o nucleo
de A e o subespaco F. Resulta entao

Teorema do Nucleo
e da Imagem que dim F = dim E dim Im(A) =
n r.
Exemplo 8.6. O espaco-linha e o espaco-coluna da matriz


1 1
2 2
duas retas distintas em R2 .
sao

Exerccios
8.1. Determine a matriz do operador linear A : R2 R2 , relativamente a` base canonica, sabendo que A(1, 1) = (2, 3) e A(1, 1) =
(4, 5).
8.2. O produto vetorial de dois vetores v = (x, y, z) e w = (x , y , z )
o vetor v w = (yz zy , zx xz , xy yx ).
em R3 e , por definicao,

94

A Matriz de uma Transformac


ao Linear

Sec
ao 8

Fixado o vetor u = (a, b, c), determine a matriz, relativamente a`


base canonica, do operador A : R3 R3 , definido por A v = v

u. Descreva geometricamente o nucleo


desse operador e obtenha a
da sua imagem.
equacao
D : Pn Pn rela8.3. Determine a matriz do operador de derivacao
tivamente a` base {1, t, t2 , . . . , tn }.

8.4. Considere os subespacos vetoriais F e G do espaco C (R), cujas


respectivamente, os conjuntos {cos x, sen x} e
bases sao,
{ex cos x, ex sen x, e2x cos x, e2x sen x, e3x cos x, e3x sen x}.
em cada um desses
Determine a matriz do operador de derivacao
subespacos.
linear de posto r entre
8.5. Seja A : E F uma transformacao
finita. Prove que existem bases U =
espacos vetoriais de dimensao
` quais a
{u1 , . . . , un } E e V = {v1 , . . . , vm } F, relativamente as
matriz a = [aij ] de A tem a11 = = arr = 1 e os demais aij = 0.

8.6. Ache o valor de x para o qual operador P : R3 R3 , cuja matriz


na base canonica e

1
21 12
2
1 0 1
12 21 x

seja uma projecao.

8.7. Qual e a matriz, na base canonica, do operador A : R2 R2 tal


que A(2, 3) = (2, 3) e A(3, 2) = 0 ?


1 a
8.8. Calcule a n-esima potencia da matriz
.
0 1
8.9. Seja E = F1 F2 . Dado o operador linear A : E E, defina
transformaco es lineares A11 : F1 F1 , A21 : F1 F2 , A12 : F2 F1 e
A22 : F2 F2 tais que, para todo v = v1 + v2 E, com v1 F1 e v2 F2 ,
seja
Av = (A11 + A21 )v1 + (A12 + A22 )v2 .
que
Diz-se entao


A11 A12
A21 A22

Sec
ao 8

A Matriz de uma Transformac


ao Linear

95

E = F 1 F2 .
e a matriz do operador A relativamente a` decomposicao
Dado outro operador linear B : E E, determine a matriz de BA

relativamente a` mesma decomposicao.

do exerccio anterior, sejam a e b as matrizes


8.10. Com a notacao
a uma base U1 U2 E, onde
de A e B respectivamente, em relacao
bases. Mostre que se
U1 F1 e U2 F2 sao




a11 a12
b11 b12
a=
e b=
a21 a22
b21 b22

entao

b a + b12 a21 b11 a12 + b12 a22


ba = 11 11
b21 a11 + b22 a21 b21 a12 + b22 a22

por blocos de matrizes.)


(Multiplicacao
8.11. Seja a uma matriz 5 5 cujos elementos sobre a diagonal e
iguais a zero. Sem fazer nenhum calculo,

abaixo dela sao


conclua
que a5 = 0.
8.12. Sejam a uma matriz m n, com m < n, e b uma matriz n m.
Podem ab e ba ser ambas invertveis? Uma delas? Qual? Quando?
8.13. Assinale verdadeiro (V) ou falso (F):
(
(

operadores de mesmo posto r entao


o pro) Se A, B : E E sao
duto BA tem posto r.

) Se as matrizes a, b M(m n) tem o mesmo espaco-coluna


elas sao
matrizes da mesma transformacao
linear.
entao

) A matriz do operador linear A : EE na base {v1 , v2 , v3 , ..., vn }


difere da matriz do mesmo operador na base {v2 , v1 , v3 , . . . , vn }
das duas primeiras colunas.
pela permutacao

ba = I3 .
) Sejam a M(2 3) e b M(3 2). Se ab = I2 entao

de
) Se a matriz a se obtem da matriz a por uma permutacao
a e a tem o mesmo posto.
suas linhas entao

ali fornecida, prove as propriedades 1)


8.14. Seguindo a orientacao
de matrizes listadas apos a demonstracao
do
a 7) da multiplicacao

96

A Matriz de uma Transformac


ao Linear

Sec
ao 8

matrizes n n
Teorema 8.1. Em particular, prove que se a e b sao
se tem tambem ab = In . (Cfr. Corolario

com ba = In entao
do
Teorema 6.7.)
8.15. Sejam dados os vetores v1 , . . . , vn Rn . Se, para cada j =
1, . . . , n, o j-esimo vetor da base canonica de Rn se exprime como
ej = x1j v1 + + xnj vn ,
prove que x = [xij ] e a inversa da matriz que tem v1 , . . . , vn como
vetores-coluna.


I 0
8.16. Determine a inversa da matriz r
onde a M(s r) e
a Is
0 M(r s).

8.17. Sejam a M(m m) uma matriz de posto r e b M(n n)


uma matriz de posto s. Prove que a matriz (m + n) (m + n) abaixo
tem posto r + s:


a 0
0 b
O smbolo 0 na primeira linha significa a matriz nula m n e, na
segunda linha, 0 M(n m).

8.18. Dadas a M(m m), b M(n n) e c M(m n), com posto


de a = r e posto de b = s, que postos pode ter a matriz abaixo?


a c
0 b



a b
8.19. Seja
, com b 6= 0, a matriz de um operador A : R2 R2
c d
2
na
 base canonica.
 Ache uma base de R na qual a matriz de A seja
0
1
.
bc ad a + d

P : R2 R2 , P(x, y) = (x, 0)
8.20. Determine a matriz da projecao
2
relativamente a` base {u, v} R , onde u = (1, 1) e v = (1, 2).

8.21. Sabendo que a matriz do operador A : R3 R3 relativamente


a` base {u, v, w} R3 , onde u = (1, 1, 1), v = (1, 2, 1), w = (1, 1, 3), e

3
1
3
1
0
2
0 ,
2
1 1 1

Sec
ao 8

A Matriz de uma Transformac


ao Linear

97

determine a matriz de A relativamente a` base canonica de R3 .


` quais a
8.22. Obtenha bases U R2 e V R3 relativamente as
linear A : R2 R3 , dada por A(x, y) = (2x+
matriz da transformacao
y, 3x 2y, x + 3y), tem as linhas (1, 0), (0, 1) e (0, 0).

8.23. Suponha que os operadores lineares A, B : E E tem a mesma


a duas bases U , V E. Prove que existe
matriz a = [aij ] em relacao
um isomorfismo C : E E tal que B = CAC1 .

8.24. Seja A : R2 R2 o operador cuja matriz na base canonica e





0 1
.
1 0

Prove que se


a
a12
a = 11
a21 a22

e a matriz de A relativamente a uma base qualquer de R2 entao


a12 6= 0 ou a21 6= 0. (Noutras palavras, nenhuma matriz de A e
diagonal.)
8.25. Considere as transformaco es lineares
A : Rn+1 Pn , A(o , 1 , . . . , n ) = o + 1 x + + n xn

B : Pn Rn+1 , B.p(x) = (p(0), p(1), . . . , p(n)).

Determine a matriz de BA : Rn+1 Rn+1 (na base canonica) e prove


que e uma matriz invertvel.

os vetores v1 = (1, 2, . . .
8.26. Seja a a matriz n n cujas linhas sao
. . . , n), v2 = (n + 1, n + 2, . . . , 2n), etc. Prove que o posto de a e igual
a 2 e que o subespaco de Rn gerado por suas linhas coincide com o
subespaco gerado por suas colunas.
8.27. Prove que uma matriz c = [cij ] M(m n) tem posto 1 se,

e somente se, existem vetores nao-nulos


a = (a1 , . . . , am ) Rm e
b = (b1 , . . . , bn ) Rn tais que cij = ai .bj para todo i e todo j.

98

A Matriz de uma Transformac


ao Linear

Sec
ao 8

8.28. Assinale V(erdadeiro) ou F(also):


(

) Toda matriz e soma de matrizes de posto 1.

) O conjunto das matrizes de posto k em M(mn) e um subespaco vetorial.

) A matriz


x1 x2 . . . xn
y1 y2 . . . yn

tem posto 2 se, e somente se, existem i, j tais que xi yj 6= xj yi .


(

E = N (A)
) Se A : E E e um operador linear de posto 1 entao
Im(A).

8.29. Prove que uma matriz m n tem posto r se, e somente se, e
mais) de modo
possvel selecionar r linhas e r colunas (porem nao
que os elementos comuns a elas formem uma matriz invertvel r r.
reduza ao caso r = min{m, n} e aplique o Teorema 8.2.]
[Sugestao:
8.30. Sejam f1 , . . . , fm : E R funcionais lineares no espaco vetorial
n. Suponha que estes funcionais gerem em E =
E de dimensao
r. Prove que o conjunto F,
L(E; R) uma variedade afim de dimensao
formado pelos vetores v E tais que
f1 (v) = f2 (v) = = fm (v),
n r + 1.
e um subespaco vetorial de dimensao
8.31. Uma matriz n n chama-se um quadrado magico

quando a
soma dos elementos de cada uma de suas linhas, de cada coluna,
da diagonal principal e da outra diagonal (ao todo 2n + 2 somas)
iguais. Prove que, se n3, o conjunto Qn dos quadrados magicos

sao
2
n 2n do espaco M(nn).
nn e um subespaco vetorial de dimensao
use os Exerccios 8.30, 3.32 e 3.33.]
[Sugestao:
8.32. Em conformidade com o exerccio anterior, determine os 8 elementos restantes da matriz 4 4 abaixo, de modo a obter um qua
drado magico

1 2 3
4 5 6

7 8

Sec
ao 8

A Matriz de uma Transformac


ao Linear

99

8.33. Calcule o posto da matriz

1 2 3
4 5 6
2 1 0

e mostre que o subespaco gerado por suas linhas e diferente daquele


gerado por suas colunas.

8.34. Obtenha numeros


a, b, c tais que ax + by + cz = 0 seja a
do plano gerado pelas colunas da matriz
equacao

1 1 1
1 2 3 .
2 3 4

8.35. Seja A : E E um operador linear no espaco vetorial E, de


finita. Supondo que A nao
seja um multiplo

dimensao
do operador identidade, mostre que existem bases de E do tipo {v, Av, . . .} e
di{v, 2Av, . . .}. Relativamente a estas bases, as matrizes de A sao
os unicos

ferentes. Conclua que os operadores I sao


cuja matriz
depende da base escolhida e que as matrizes do tipo In sao
as
nao

unicas
que comutam com todas as matrizes invertveis n n.
8.36. Seja a uma matriz triangular (isto e , aij = 0 se i < j) nn cujos
todos iguais a zero. Mostre que an = 0.
elementos da diagonal sao
considere o operador A : Rn Rn cuja matriz na base
[Sugestao:
canonica e a.]

8.37. O traco de uma matriz quadrada a = [aij ] M(n n) e a soma


tr a = a11 + + ann dos elementos da sua diagonal. Prove que
tr (ab) = tr (ba) e conclua que todas as matrizes do mesmo operador
finita, tem o mesmo traco, o
A : E E, num espaco E de dimensao
tr A.
qual se indica com a notacao

8.38. Prove que o traco de um operador linear idempotente P : E E

e um numero
inteiro, igual ao seu posto.

8.39. Seja c = [cij ] M(n n) uma matriz de posto 1. Prove que


c2 = (tr c).c e, mais geralmente, para todo n > 1, cn = (tr c)n1 c.

100

A Matriz de uma Transformac


ao Linear

Sec
ao 8

8.40. Sejam U , V e W bases finitas do espaco vetorial E. Se p e q sao


respectivamente as matrizes de passagem de U para V e de V para
W, prove que as matrizes de passagem de U para W e de V para U
respectivamente pq e p1 .
sao
linear BA e menor do que
8.41. Prove que o posto da transformacao
ou igual ao posto de A e ao posto de B. De um exemplo em que posto
de A = posto de B > posto de BA.
linear A : E F, entre espacos de di8.42. Dada a transformacao
finita, sejam E1 E e F1 F subespacos tais que E =
mensao
N (A) E1 e F = Im(A) F1 . Tome bases U E e V F cujos
primeiros elementos formam respectivamente uma base de N (A) e
uma base de Im(A). Que forma tem a matriz de A relativamente a
U e V?
8.43. Sejam A : E F e B : F G transformaco es lineares entre

finita. Se B e injetiva, prove que o


espacos vetoriais de dimensao
sobre A assegura
posto de BA e igual ao posto de A. Que condicao
que o posto de BA seja igual ao de B?
finita, prove que nao
existem operadores
8.44. Se E tem dimensao
lineares A, B : E E tais que AB BA = I ou tais que AB BA seja
(Use o traco. Compare com o Exerccio 5.13.)
uma projecao.

8.45. Sejam V, V E, e W, W F bases finitas, e p, q as matrizes

de passagem de V para V e de W para W respectivamente. Dada


linear A : E F, sejam a e a respectivamente as
a transformacao
` bases V, W e V , W . Mostre que p e
matrizes de A relativamente as
a matriz de IE nas bases V , V e q e a matriz de IF nas bases W , W.
Use as igualdades A = AIE e A = IF A para provar que ap e qa
iguais a` matriz de A nas bases V , W. Obtenha assim uma nova
sao
da formula a = q1 ap.
deducao
8.46. Prove que uma matriz quadrada de posto 1 e idempotente se,

e somente se, seu traco e igual a 1 .

9
Eliminac
ao

Esta secao
trata de aspectos computacionais dos assuntos tratados
ate aqui. Do ponto de vista do encadeamento logico, sua leitura nao

e necessaria

para o entendimento das seco es seguintes. (Salvo no que


tange a` Secao
17 que, por sua vez, quase nada influi nas que lhe seguem.) Entretanto seu valor educativo e inestimavel

pois exibe um
processo simples e bem sucedido para responder a perguntas naturais sobre subespacos, transformaco es lineares, sistemas de equaco es
e matrizes.

Estudaremos a seguir algumas questoes de natureza pratica


que
resolvidas com o uso do tradicional e eficiente metodo de eliserao

minacao.

do subespaco gerado por m vetores


9.A. Dimensao
que abordaremos e o problema de determinar
A primeira questao
do subespaco gerado por m vetores v1 , . . . , vm no espaco
a dimensao
vetorial E que, por simplicidade, (porem sem perda de generalidade)
suporemos ser o espaco euclidiano Rn . Noutras palavras, queremos

linearmente indeachar o numero


r tal que r dos vetores dados sao
combinaco es lineares deles.
pendentes porem os demais sao

o bvia de que
O princpio basico
a ser utilizado e a observacao
se um dos vetores dados, digamos v1 , tem uma de suas coordena-

102

Eliminac
ao

Sec
ao 9

das, por exemplo a j-esima, diferente de zero mas todos os demais


v1 nao
e
vetores v2 , . . . , vm tem a j-esima coordenada nula entao
linear de v2 , . . . , vm . Resulta entao
do Teorema 3.2 (ou
combinacao
logo apos) que se cada um dos vetores nao
melhor, da observacao
nulos w1 , . . . , wr tem uma coordenada diferente de zero e a mesma
coordenada e zero em todos os vetores seguintes a ele nesta lista
{w1 , . . . , wr } e L.I. .
entao
Exemplo 9.1. Sejam v1 = (0, 1, 2, 3, 4), v2 = (0, 0, 1, 2, 3), e v3 =
(0, 0, 0, 0, 1). Neste caso, a segunda coordenada de v1 e 1 mas as
nulas. A terceira coordenada de
segundas coordenadas de v2 e v3 sao
v2 e 1 mas a terceira coordenada de v3 e zero. Logo {v1 , v2 , v3 } R5 e
um conjunto L.I. .
O criterio acima enunciado, que garante a independencia linear
dos vetores w1 , . . . , wr Rn , pode ser refraseado assim: a primeira

coordenada nao-nula
de cada wi tem ndice menor do que a primeira

coordenada nao-nula
dos vetores subsequentes
wi+1 , . . . , wr .
Se, para cada i = 1, . . . , r, escrevermos wi = (ai1 , . . . , ain ), te
remos uma matriz a = [aij ] M(r n), cujos r vetores-linha sao
w1 , . . . , wr . Diremos que essa matriz e escalonada quando o primeiro

elemento nao-nulo
de cada uma de suas linhas esta a` esquerda do

primeiro elemento nao-nulo


de cada uma das linhas subsequentes
e,
abaixo das demais.
alem disso, as linhas nulas (se houver) estao
podemos dizer que as linhas nao-nulas

Com esta definicao,


de
vetores linearmente independentes, ou
uma matriz escalonada sao
seja, uma matriz escalonada r n tem posto r se suas linhas forem
todas diferentes de zero.
escalonadas:
Exemplo 9.2. As matrizes abaixo sao

0 1 2 3 1
1 3 7 2

0 2 5 1 0 0 4 5 2 .
0 0 0 6 3
0 0 0 3
0 0 0 0 0
Ambas tem posto 3.

Dados os vetores v1 , . . . , vm Rn , vamos altera-los


passo a passo
de tal modo que, em cada etapa, os vetores obtidos geram o mesmo
subespaco que os da etapa anterior e, no final, os vetores resultantes

formam as linhas de uma matriz escalonada. Os nao-nulos


dentre

Sec
ao 9

Eliminac
ao

103

uma base do subespaco gerado pelos vetores originaleles formarao


mente dados.
As seguintes modificaco es, chamadas operaco es elementares, levam os vetores v1 , . . . , vm Rn em vetores v1 , . . . , vm Rn que geram
o mesmo subespaco: S(v1 , . . . , vm ) = S(v1 , . . . , vm ).
de dois vetores vi , vj (i < j) na lista dada. Esta
(1) Trocar a posicao

operacao e esquematizada como


(v1 , . . . , vi , . . . , vj , . . . , vm ) 7 (v1 , . . . , vj , . . . , vi , . . . , vm ).

(2) Somar a um dos vetores um multiplo


de outro vetor da lista, ou
seja, substituir vj por vj = vj + vi , i 6= j.

(2), sejam V = (v1 , . . . , vm ) e V =


Para justificar a operacao

(v1 , . . . , vj , . . . , vm ). Evidentemente S(V ) S(V). Alem disso, como


vj = vj vi , segue-se que S(V) S(V ). Logo V e V geram o mesmo
subespaco: S(V) = S(V ).
os vetores dados, estas
Em termos da matriz cujas linhas sao
operaco es elementares se exprimem assim:
de duas linhas;
(1) Trocar a posicao

(2) Somar a uma linha um multiplo


de outra linha.
Portanto, o subespaco gerado pelas linhas (ou seja, o espaco se altera quando essas duas operaco es
linha) de uma matriz nao
aplicadas a essa matriz.
elementares sao
Descreveremos a seguir o processo de eliminacao
(ou escalona
mento), o qual, mediante aplicacoes sucessivas das duas operaco es
` linhas de uma matriz, produz uma matriz escaloelementares as
nada. O procedimento e o seguinte:
(a) Se a11 6= 0, o processo comeca deixando a primeira linha intacta
e somando a cada linha Li , com i 2, a primeira linha multiplicada
por ai1 /a11 . Com isto se obtem uma matriz cuja primeira coluna e
(a11 , 0, . . . , 0).
(b) Se a11 = 0, uma troca de linhas fornece uma matriz com a11 6= 0,
seja nula. Se, porem, todos os eledesde que a primeira coluna nao
iguais a zero, passa-se para a sementos da primeira coluna sao
gunda coluna ou, mais geralmente, para a coluna mais proxima, a`

direita da primeira, onde haja algum elemento nao-nulo


e opera-se

104

Eliminac
ao

Sec
ao 9

como antes, de modo a obter uma matriz cuja primeira coluna nao iguais a
nula comeca com elemento 6= 0 mas todos os demais sao
se mexe mais na primeira linha. Recomeca-se
zero. A partir da nao
o processo, trabalhando com as linhas a partir da segunda, ate obter
uma matriz escalonada.
Exemplo 9.3. Sejam os vetores
v1 = (1, 2, 3, 4),
v2 = (5, 6, 7, 8) e
v3 = (9, 10, 11, 12)

encia de operaco es elementares efeem R4 . Indicamos abaixo a sequ


estes vetores, conduzindo a
tuadas sobre a matriz cujas linhas sao
uma matriz escalonada

1 2 3 4
5 6 7 8
9 10 11 12

1 2
3
4
L 2L
L2 5L1
0 4 8 12 3 2
L3 9L1
0 8 16 24

1 2
3
4
L3 2L2
0 4 8 12 .
0 0
0
0

Como a matriz escalonada final tem duas linhas diferentes de zero,


2
os tres vetores dados geram um subespaco vetorial de dimensao
4
em R e w1 = (1, 2, 3, 4), w2 = (0, 4, 8, 12) formam uma base
desse subespaco.
Li + Lj signiNo exemplo acima, como nos seguintes, a notacao
fica que a matriz a` direita foi obtida da matriz a` esquerda somando
se a` i-esima linha o multiplo
Lj da j-esima linha. Analogamente,
Li Lj para indicar a troca da linha i pela liusaremos a notacao
nha j.
Exemplo 9.4. Consideremos os vetores v1 = (0, 1, 2, 3), v2 = (2, 1,
3, 0), v3 = (3, 4, 2, 0) e v4 = (4, 2, 0, 1) em R4 . Indicamos abaixo a
encia de operaco es elementares efetuadas sobre a matriz que
sequ

Sec
ao 9

Eliminac
ao

105

tem esses vetores como linhas a fim de obter uma matriz escalonada

2 1 3 0
2 1 3 0
0 1 2 3
2 1 3 0 L2 L1 0 1 2 3 L3 23 L1 0 1 2 3

5
5
3 4 2 0 3 4 2 0 L4
2L1 0 2 2 0
4 2 0 1
4 2 0 1
0 0 6 1

2 1
3
0
2 1
3
0
L3 25 L2 0 1
L4 54 L3 0 1
2
3
2
3


0 0 15 15 0 0 15 15 .
2
2
2
2
0 0 6
1
0 0
0
7

L.I., portanto constiConclumos que os quatro vetores dados sao


4
tuem uma base de R . Alem disso, vemos que os vetores w1 =
15
(2, 1, 3, 0), w2 = (0, 1, 2, 3), w3 = (0, 0, 15
2 , 2 ) e w4 = (0, 0, 0, 7)
4
tambem formam uma base de R .

linear
9.B. Calculo
do posto de uma transformacao
9.A permite determinar o posto de uma transA resposta a` questao
linear A : Rn Rm e ate mesmo uma base para Im(A).
formacao

Uma tal base pode ser formada pelas colunas nao-nulas


de uma matriz escalonada, obtida da matriz de A por meio de operaco es ele podemos, como
mentares efetuadas sobre suas colunas. Ou entao
acima, operar sobre as linhas da transposta da matriz de A. (Pois
as colunas da matriz dada.) Nao
havera
as linhas da transposta sao
se lembrarmos que a base de Im(A) e formada por vetores
confusao
de Rn ! Quando m = n, e preciso ter cuidado, pois a imade Rm , nao
pelos
gem de A e gerada pelos vetores-coluna de sua matriz e nao
vetores-linha.

Exemplo 9.5. Obter uma base para a imagem da transformacao


linear A : R3 R4 , definida por
A(x, y, z) = (x + 5y + 9z, 2x + 6y + 10z, 3x + 7y + 11z, 4x + 8y + 12z).

Temos Ae1 = (1, 2, 3, 4), Ae2 = (5, 6, 7, 8) e Ae3 = (9, 10, 11, 12), de
modo que a imagem de A e gerada pelos vetores v1 , v2 , v3 do Exemplo
daquele exemplo que A tem posto 2 e os vetores
9.3. Resulta entao
w1 = (1, 2, 3, 4), w2 = (0, 4, 8, 12) formam uma base de Im(A).
e a matriz de A e
Note que a matriz que ocorre no Exemplo 9.3 nao
sim a sua transposta.

106

Eliminac
ao

Sec
ao 9

de sistemas lineares
9.C. Resolucao
embora simples e ingenuo, e a maneira
O metodo de eliminacao,
mais eficaz de resolver um sistema de m equaco es lineares, com n
incognitas, apresentado sob a forma matricial ax = b, onde a
M(m n), x M(n 1) e b M(m 1).
Resulta das noco es gerais ate aqui estudadas que o sistema ax =
se, e somente se, o vetor b Rm , correspondente a`
b possui solucao
linear A : Rn Rm
matriz b, pertence a` imagem da transformacao
cuja matriz (nas bases canonicas de Rn e Rm ) e a.
se, e
Dito de outra maneira, o sistema ax = b possui solucao
m
somente se, o vetor b R (correspondente a` matriz b) pertence
ao subespaco gerado pelas colunas de a. Isto equivale a dizer que a
matriz aumentada [a; b] M(m (n + 1)) tem o mesmo posto que a
matriz a do sistema.
mais completa e a seguinte: o sistema Ax = b
Uma afirmacao
possui solucao
quando b

nao
/ Im(A), possui uma unica
solucao
quando b Im(A) e A e injetiva, e possui infinitas soluco es quando
e injetiva. (Vide Teorema 6.4.)
b Im(A) e A nao
Em termos matriciais, o sistema ax = b, com a M(m n),
x M(n 1) e b M(m 1), admite as seguintes alternativas:
possui solucao
quando o posto da matriz aumentada [a; b] e
(1) Nao
maior do que o posto de a;

quando a matriz a e a matriz aumen(2) Possui uma unica


solucao

tada [a; b] tem o mesmo posto, igual ao numero


n de incognitas;
(3) possui infinitas soluco es quando se tem posto [a; b] = posto a =
r < n. Neste caso, o conjunto das soluco es e uma variedade afim de
n r.
dimensao
O que acabamos de dizer e mais ou menos um resumo do que
esclarecedora do ponto
ja vimos antes. Trata-se de uma discussao
ensina como reconhecer, na pratica,

de vista teorico mas que nao


em qual dos casos se enquadra um sistema dado e muito menos
como obter suas soluco es, caso existam. Isto se faz com o metodo
escalonando a matriz aumentada do sistema.
de eliminacao,
se baseia na observacao
de que ao efeO processo de eliminacao
elementar sobre as linhas da matriz aumentada
tuar uma operacao
[a; b] obtem-se uma matriz [a ; b ] que e a matriz aumentada de um
sistema a x = b , equivalente ao sistema original ax = b. (Dois sis-

Sec
ao 9

Eliminac
ao

107

temas se dizem equivalentes quando possuem o mesmo conjunto de


soluco es.)
No final do processo, obtem-se um sistema a x = b , equivalente
ao sistema proposto ax = b, no qual a matriz [a ; b ] e escalonada.
(Isto e o mesmo que dizer que a e escalonada.) O sistema a x = b e
facilmente resolvido de baixo para cima: acha-se primeiro o valor da

anterior
ultima
incognita, substituindo-a por esse valor na equacao
e assim por diante.
Vejamos alguns exemplos.
Exemplo 9.6. Consideremos o sistema
y + 2z + 3t = 1
2x + y + 3z
= 1
3x + 4y + 2z
= 1
4x + 2y
+ t = 1
O escalonamento da matriz aumentada e feito abaixo:

2 1 3 0 1
0 1 2 3 1
0 1 2 3 1
2 1 3 0 1

3 4 2 0 1 3 4 2 0 1
4 2 0 1 1
4 2 0 1 1

2 1 3
0 1 2

0 5 5
2
2
0 0 6

2
0 1

0
3 1

0
0 21
1 1
0

1
3
1
2
0 15
2
0
0

0
3
15
2
7

Obtem-se assim a matriz aumentada do sistema


2x + y +
y +

3z
2z +
15
2z

1
1
.
3
7
5

= 1
3t = 1
15
2 t = 3
7t = 75 .

Resolvendo este sistema de baixo para cima, vem: t = 51 , z = 15 ,

do sistema dado. Como a matriz


y = 0, x = 15 . Esta e a unica
solucao
existiria e seria unica,

do sistema tem posto 4, a solucao


fosse qual
fosse o segundo membro.

108

Eliminac
ao

Sec
ao 9

Exemplo 9.7. Seja o sistema


x + 2y 3z = 4
2x + 3y + 4z = 5
4x + 7y 2z = 12.
O escalonamento da sua matriz aumentada e o seguinte:

1 2 3 4
1 2 3 4
1 2 3 4
2 3 4
5 0 1 10 3 0 1 10 3 .
4 7 2 12
0 1 10 4
0 0
0 1
Vemos portanto que o sistema dado e equivalente a:
+ 2y 3z = 4
y + 10z = 3
0x + 0y + 0z = 1,
x

tem solucao.

o qual e obviamente impossvel. O sistema dado nao


observando, na forma
[Poderamos ter chegado a` mesma conclusao
do Exemplo 9.5, que a imagem do operador A : R3 R3 , cuja matriz tem colunas v1 = (1, 2, 4), v2 = (2, 3, 7) e v3 = (3, 4, 2), e um
2 em R3 do qual os vetores w1 = (1, 2, 4) e
subespaco de dimensao
w2 = (0, 1, 1) formam uma base e que o vetor b = (4, 5, 12) certa e combinacao
linear de w1 e w2 .]
mente nao
Exemplo 9.8. Seja o sistema
x + 2y + 3z + 4t = 1
5x + 6y + 7z + 8t = 2
9x + 10y + 11z + 12t = 3
O escalonamento da sua matriz aumentada segue o esquema:

1 2
3
4
1
1 2 3 4 1
5 6 7 8 2 0 4 8 12 3
0 8 16 24 6
9 10 11 12 3

1 2
3
4
1
0 4 8 12 3 .
0 0
0
0
0

Sec
ao 9

Eliminac
ao

109

A ultima
matriz obtida e a matriz aumentada do sistema:
x + 2y + 3z + 4t = 1
4y 8z 12t = 3
ou
x + 2y = 3z 4t + 1
4y = 8z + 12t 3.
Este sistema pode ser resolvido de baixo para cima (esquecendo que
incognitas) e nos da a solucao:

z e t sao
3
y = 2z 3t + ,
4

1
x = z + 2t .
2

(*)

O sistema dado possui portanto uma infinidade de soluco es, que po


dem ser obtidas atribuindo-se valores arbitrarios
a z e t e calcu delas por meio destas duas ultimas

lando x e y em funcao
igualda as equaco es da variedade
des. Observe que as igualdades (*) sao
2 no espaco R4 , formada por todas as soluco es do
afim de dimensao
sistema dado. Escrevendo o sistema original sob a forma Av = b,
linear cuja matriz tem as linhas
onde A : R4 R3 e a transformacao
(1,2,3,4), (5,6,7,8), (9,10,11,12) e b = (1, 2, 3), esta variedade afim,
formada por todos os vetores
1
3
v = (z + 2t , 2z 3t + , z, t) R4 ,
2
4
numeros

onde z, t sao
reais arbitrarios,
e o conjunto de todos os
4
vetores v R tais que Av = b.

Observacao:
O conjunto F = {(z + 2t, 2z 3t, z, t) R4 ; z, t

linear
R} e um subespaco vetorial de R4 , nucleo
da transformacao
A : R4 R3 acima considerada. Uma base de F e formada pelos vetores w1 = (1, 2, 1, 0) e w2 = (2, 3, 0, 1), obtidos fazendo z = 1, t = 0
dos vetores de F. De um modo gee depois z = 0, t = 1 na expressao

ral, para obter uma base para o nucleo


de um operador A : Rn Rm
o que se tem a fazer e resolver por escalonamento o sistema Ax = 0.

liExemplo 9.9. Achar uma base para o nucleo


da transformacao
5
3
near A : R R cuja matriz (nas bases canonicas) e

1 2 3 1 2
a = 3 4 5 3 4 .
1 0 1 1 0

110

Eliminac
ao

Sec
ao 9

O nucleo
de A e o conjunto das soluco es x = (x1 , x2 , x3 , x4 , x5 ) do sistema linear homogeneo
x1
3x1
x1

+
+

2x2
4x2

+
+

3x3
5x3
x3

+
+
+

x4
3x4
x4

+
+

2x5
4x5

=
=
=

0
0
0.

ha necessidade de considerar a maPara sistemas homogeneos, nao


triz aumentada. O escalonamento da matriz a e feito segundo o
esquema

1 2
3 1 2
1 2 3 1 2
3 4 5 3 4 0 2 4 0 2
0 2 4 0 2
1 0 1 1 0

1 2
3 1 2
0 2 4 0 2 .
0 0
0 0 0
Portanto o sistema homogeneo inicial e equivalente ao sistema escalonado
x1

2x2
2x2

3x3
4x3

x4

2x5
2x5

=
=

0
0,

ou seja
x1 + 2x2 = 3x3 x4 2x5
2x2 = 4x3
+ 2x5 .

Resolvendo o ultimo
(considerando x3 , x4 e x5 como conhecidos), vem
que o nucleo

x2 = 2x3 x5 e x1 = x3 x4 . Conclumos entao


da
linear A e formado por todos os vetores x = (x3
transformacao

escolhidos
x4 , 2x3 x5 , x3 , x4 , x5 ), onde os numeros
x3 , x4 e x5 sao

arbitrariamente. Uma base do nucleo


e obtida quando se faz sucessivamente (x3 , x4 , x5 ) = (1, 0, 0), (x3 , x4 , x5 ) = (0, 1, 0) e (x3 , x4 , x5 ) =
(0, 0, 1). Explicitamente, essa base e formada pelos vetores w1 =
(1, 2, 1, 0, 0), w2 = (1, 0, 0, 1, 0) e w3 = (0, 1, 0, 0, 1).

Sec
ao 9

Eliminac
ao

111

9.D. O metodo
de Gauss-Jordan
que faremos do metodo de eliminacao
e o calculo

A quarta aplicacao
da inversa de uma matriz (invertvel) a M(nn). Antes porem de da inversa nao
e necessaria

vemos advertir que a determinacao


para
x = a1 b para a solucao

resolver o sistema ax = b. A expressao

desse sistema e de grande elegancia


e significado teorico porem, na

explcita da inversa a1 requer a solucao


de n
pratica,
a obtencao
sistemas lineares. Convenhamos que isto seria um modo pouco efi
caz de resolver um unico
sistema.
Com efeito, examinando coluna por coluna cada membro da

igualdade aa1 = In , vemos que a j-esima coluna de a1 e a solucao


1

do sistema ax = ej , portanto o calculo


da inversa a equivale a
resolver os n sistemas lineares ax = e1 , . . . , ax = en .
que vimos utilizando e tambem chamado
O metodo de eliminacao
metodo de Gauss. Existe ainda o metodo de Gauss-Jordan.
iniciada pelo metodo de Gauss, cheEle continua a eliminacao
gando no final a uma matriz escalonada, com a propriedade adicio
nal de que, acima e abaixo do primeiro elemento nao-nulo
de cada li iguais a zero. Se a matriz for (quadrada
nha, todos os elementos sao

e) invertvel, o primeiro elemento nao-nulo


de cada linha da matriz
escalonada esta sobre a diagonal. Portanto, neste caso, o metodo de

Gauss-Jordan produz uma matriz cujos elementos nao-nulos


constituem a diagonal.
de Gauss-Jordan.
Vejamos um exemplo da eliminacao
de Gauss
Exemplo 9.10. No Exemplo 9.4, o metodo de eliminacao
por meio de operaco es
em resumo operou a seguinte transformacao
elementares sobre as linhas:

0
2

3
4

1
1
4
2

2
3
2
0

3
0

0
1

2
0

0
0

1
3
1
2
0 15
2
0
0

0
3

15
2
7

O metodo de Gauss-Jordan continua, aplicando as operaco es elementares sobre as linhas, de modo a anular tambem os elementos
de cada coluna situados acima da diagonal. Ele prossegue a partir

112

Eliminac
ao

Sec
ao 9

da com as seguintes operaco es elementares:

2 1
3
0
2 0
1
0 1
L1 L2 0 1
2
3
2

0 0 15 15
0 0 15
2
2
2
0 0
0
7
0 0
0
2
L3
L1 + 15

4
L3
L2 + 15

2
0

0
0

0
0
1
0
0 15
2
0
0

4
1

15
2
7

L1 + 74 L4

L2 71 L4

L3 + 15 L4
14

3
3

15
2
7

2
0

0
0

2
L1 + 15
L3

4
L2 + 15
L3

0
0
1
0
0 15
2
0
0

0
0
.
0
7

Esta ultima
matriz diagonal resulta portanto da matriz inicial
sucessiva de operaco es elementares sobre suas linhas.
pela aplicacao
elementar, que nao
tivemos
Existe ainda uma terceira operacao
de mencionar porque nao
foi necessaria

ainda ocasiao
ate agora, mas
` linhas de uma maque tem tambem a propriedade de, aplicada as
alterar o seu espaco-linha. Ela e a seguinte:
triz, nao

(3) Multiplicar uma linha por um numero


6= 0.
as
` linhas da matriz final do exemplo
Aplicando essa operacao
acima, obtemos a matriz identidade. (Multiplique a primeira linha
por 1/2, a terceira por 2/15 e a quarta por 1/7.)
do
O metodo de Gauss-Jordan fornece imediatamente a solucao
de
sistema ax = b sem necessidade de, no final, efetuar a resolucao
encia
baixo para cima. Com efeito, depois de efetuada qualquer sequ
de operaco es elementares (inclusive a terceira) sobre as linhas da
matriz aumentada obtemos sempre um sistema equivalente a x =
b . Se a matriz a e invertvel, o processo de Gauss leva a uma matriz
escalonada com elementos todos 6= 0 na diagonal. Prosseguindo a
partir da com Gauss-Jordan, chegaremos finalmente a um sistema
a x = b , equivalente ao original, com a = In , logo x = b , o que nos
x diretamente.
da a solucao
do sistema ax = b e a ultima

Assim, a solucao
coluna da ma

de Gauss-Jordan a`
triz [a ; b ] que se obtem aplicando a eliminacao
matriz aumentada [a; b] de modo a chegar com a = In .
Em particular, tomando b = ej (j-esimo vetor da base canonica de
n
x da equacao
ax = ej , que e a j-esima coluna de a1 ,
R ), a solucao
se obtem efetuando operaco es elementares sobre as linhas da matriz aumentada [a; ej ] ate reduz-la a [In ; x]. Como essas operaco es

Sec
ao 9

Eliminac
ao

113

de j, isto sugere o topico


dependem apenas da matriz a mas nao
seguinte

9.E. Metodo
pratico
para calcular a inversa a1
Acrescenta-se a matriz identidade In a`
uma matriz aumentada n 2n:

a11 a12 . . . a1n | 1


a21 a22 . . . a2n 0
|

..
..
..
.. | ..
.
.
.
.
.
|
an1 an2 . . . ann 0

direita de a, de modo a ter

0 ... 0
1 . . . 0

.. .. .. .
. . .
0 ... 1

` linhas dessa maEm seguida aplicam-se operaco es elementares as


triz aumentada de modo a reduzir a matriz a a` identidade In , chegando-se a:

1 0 . . . 0 | x11 x12 . . . x1n


0 1 . . . 0 x21 x22 . . . x2n
|

.. .. .. ..
.. .
..
..
.
. . . . | ..
.
.
.
|
0 0 . . . 1 xn1 xn2 . . . xnn
A matriz [xij ] a` direita e a inversa de a.

Exemplo 9.11. Damos abaixo um exemplo de como obter a inversa


de uma matriz segundo este metodo.

2 4
3 | 1 0 0
2 4 3 |1 0 0
0 1 1 | 0 1 0 0 1 1 | 0 1 0
3 5 7 |0 0 1
0 1 25 | 32 0 1

2 4 3 | 1 0 0
2 0 7 | 1 4 0
0 1 1 | 0 1 0 0 1 1 | 0
1 0
3
3
3
3
0 0 2 | 2 1 1
0 0 2 | 2 1 1

14
26
73
2 0 0| 8 3 3
1 0 0 | 4 13
3
5
5
2
2
0 1 0 | 1
0 1 0 | 1
3
3
3
3
3
2
3
2
0 0 1 | 1
0 0 2 | 2
1
1
3
3

Portanto

1
2 4 3
0 1 1
3 5 7

4 13
3
5
1
3
2
1
3

73
2
3
2
3

114

Eliminac
ao

Sec
ao 9

gaussiana no item final


Retornaremos ao asssunto de eliminacao
17.
da secao

Exerccios
9.1. Determine o posto da matriz

1 2 3 4
5 6 7 8

9 10 11 12 .
13 14 15 17

P : R4 R4 ,
9.2. Ache a matriz, na base {u1 , u2 , u3 , u4 }, da projecao
P(x, y, z, t) = (x, y, 0, 0), sabendo que u1 = (2, 0, 3, 4), u2 = (1, 1, 4, 2),
use eliminacao
gaussiu3 = (3, 2, 2, 0) e u4 = (0, 3, 0, 1). [Sugestao:
ana para exprimir e1 , e2 , e3 e e4 como combinaco es lineares de u1 ,
u2 , u3 e u4 .]
9.3. Exprima cada um dos vetores da base canonica de R3 como
linear dos vetores v1 = (1, 1, 0), v2 = (1,
combinacao
0, 2), v3 =
1 1 4

(4, 2, 5) e, a partir da, obtenha a inversa da matriz 1 0 2.


0 2 5

invertveis ou nao.
No caso
9.4. Decida se as matrizes abaixo sao
afirmativo, determine a(s) inversa(s). Caso uma delas (digamos a)
seja invertvel, ache uma matriz x M(3 1) tal que ax = 0:
nao

1 2 3
4 5 9
1 3 4

1 2 3
4 5 6 .
1 3 4

do subespaco vetorial de R5 gerado pelos


9.5. Calcule a dimensao
vetores v1 = (2, 4, 8, 4, 7), v2 = (4, 2, 1, 3, 1), v3 = (3, 5, 2, 2, 4) e
v4 = (5, 1, 7, 6, 2). Decida se o vetor b = (6, 18, 1, 9, 8) pertence ou
a esse subespaco.
nao

Sec
ao 9

Eliminac
ao

115

9.6. A matriz a M(mn) tem apenas uma linha e uma coluna nao as dimensoes possveis para
nulas. Dada b M(m 1), quais sao
a variedade afim formada pelas soluco es x M(n 1) do sistema
ax = b ?

9.7. Exprima cada vetor do conjunto {u, v, w, z} E como combinacao


linear dos vetores {w, u + 3z, v 2u + 3w, 5z}.
9.8. Obtenha uma base para o subespaco vetorial gerado por cada

um dos seguintes conjuntos e, consequentemente,


determine a di daquele subespaco:
mensao
(a) {(1, 2, 3, 4), (3, 4, 7, 10), (2, 1, 3, 5)}
(b) x3 + 2x2 + 3x + 4, 5x3 + 4x2 + 3x + 2, 4x3 2x2 + x, 7x3 + 2x2 3x 8
(c) (1, 3, 5), (1, 3, 1), (1, 21, 1)
(d) (1, 2, 3), (1, 4, 9), (1, 8, 27).

numeros

9.9. Mostre que se 0, 1, a, b, c sao


dois a dois diferentes
os vetores (1, 1, 1, 1), (a, a2 , a3 , a4 ), (b, b2 , b3 , b4 ) e (c, c2 , c3 , c4 )
entao
linearmente independentes. Generalize.
sao
9.10. Exiba uma base para a imagem de cada uma das transformaco es lineares abaixo e determine seu posto.
(a) A : R4 R3 , A(x, y, z, t) = (x + 2y t, 2x z + 2t, 2x + y + 3z)

(b) B : R4 R5 , B(x, y, z, t) = (x + 2y + 2z t, 2x + 4y + 3z + t, 3x +
2z + 3t, 3x + z + 6t, 10x + 2y + 5z + 5t)
(c) C : R3 R3 , C(x, y, z) = (x + 3y, 2y + 4z, x + y 4z)

(d) D : Pn Pn , Dp(x) = p (x).

9.11. Use escalonamento para resolver os seguintes sistemas linea-

116

Eliminac
ao

Sec
ao 9

res:
x + 3y + z = 1
2x + 6y + 9z = 7
2x + 8y + 8z = 6
x + y
x + 2y + z
3x + 3y + z
y + 3z

+ t = 0
+ t = 1
+ 2t = 1
t = 3

y z + 2t = 0
3y z + 3t = 0
2x y z + t = 0
x

envolvendo a, b, c para que o sistema


9.12. Ache uma condicao
e encontre as soluco es no caso em que elas
abaixo tenha solucao
existam
x + y + z + t = a
5y + 2z + 4t = b
3x 2y + z t = c

9.13. Ache uma base para o nucleo


de cada uma das transformaco es
lineares a seguir:
(a) A : R3 R3 , A(x, y, z) = (3y + 4z, 3x 5z, 4x + 5y).

(b) B : R4 R5 , B(x, y, z, t) = (2x 2z + 4t, x 2z + 3t, 4y + 2z +


t, 6x + 4y 4z + 13t, 2x + 4y 2z + 7t)

(c) C : R4 R3 , C(x, y, z, t) = (2x+yz+3t, x4y+2z+t, 2y+4zt).

(d) T : P P, T p(x) = p(x + m), m 6= 0.

9.14. Decida quais das matrizes abaixo possuem inversa e calcule a


inversa quando existir.

1 1 1 1
1 2 3 4


4 2 3

1 2
4 5 6 5 6 7 8 2 3 2 1

3 1 1 2
9 10 11 12
3 4
7 8 8
1 2 1 3
4 3 2 1

Sec
ao 9

Eliminac
ao

117

9.15. Prove que o sistema


x + 2y + 3z 3t = a
2x 5y 3z + 12t = b
7x + y + 8z + 5t = c
se, e somente se, 37a+13b = 9c. Ache a solucao
geral
admite solucao
do sistema quando a = 2 e b = 4.

9.16. Prove que toda matriz anti-simetrica 3 3 nao-nula


tem posto
igual a dois. De exemplo de uma matriz anti-simetrica invertvel
4 4.
9.17. Considere o sistema de n equaco es lineares a n incognitas:
xi + xi+1 = ai

(i = 1, . . . , n 1),

x1 + xn = an .

unica,

(a) Se n e mpar, prove que ele possui solucao


sejam quais

forem os ai . Explicite esta solucao.


(b) Supondo n par, obtenha condico es sobre os ai que sejam

necessarias
e suficientes para que o sistema possua solucao.
Caso existam soluco es, determine a variedade afim por elas
formada.

10
Produto Interno

O produto interno, que ja foi mencionado brevemente antes, na definicao


do produto de duas matrizes, sera apresentado formalmente
nesta secao
e adotado sistematicamente a partir daqui. Trata-se de
uma nocao
que completa e enriquece a estrutura de um espaco vetorial, permitindo a utilizacao
de uma linguagem geometrica altamente sugestiva e o destaque de tipos especiais de operadores, os
quais admitem uma analise

mais profunda de suas propriedades,


como se vera a seguir.
sao
suficientes para abordar
Os axiomas de espaco vetorial nao

certas noco es geometricas como angulo,


perpendicularismo, compri
de um
mento, distancia,
etc. Isto se torna possvel com a introducao
produto interno.
Um produto interno num espaco vetorial E e um funcional bilinear simetrico e positivo em E. Mais precisamente, um produto
E E R, que associa a cada par de vetointerno e uma funcao

res u, v E um numero
real hu, vi, chamado o produto interno de u

por v, de modo que sejam validas


as seguintes propriedades, para
quaisquer u, u , v, v E e R:

Bilinearidade: hu + u , vi = hu, vi + hu , vi, hu, vi = hu, vi,


hu, v + v i = hu, vi + hu, v i, hu, vi = hu, vi;
Comutatividade (simetria): hu, vi = hv, ui;

Sec
ao 10

Produto Interno

119

Positividade: hu, ui > 0 se u 6= 0.


Como h0, vi = h0 + 0, vi = h0, vi + h0, vi, segue-se que h0, vi =
hv, 0i = 0 para todo v E.

Resulta da positividade que se hu, vi = 0 para todo v E entao


u = 0. Com efeito, se fosse u 6= 0 teramos hu, vi =
6 0 pelo menos
quando v = u.
que se u, u E sao
vetores tais que
Segue-se desta observacao

hu, vi = hu , vi para todo v E entao u = u . Com efeito, isto implica


que hu u , vi = 0 para todo v E, p
logo u u = 0 e u = u .

O numero
nao-negativo
|u| =
hu, ui chama-se a norma ou o
tem-se |u|2 = hu, ui e a
comprimento do vetor u. Com esta notacao,
igualdade
hu + v, u + vi = hu, ui + hu, vi + hv, ui + hv, vi
le-se: |u + v|2 = |u|2 + |v|2 + 2 hu, vi.
Quando |u| = 1 diz-se que u E e um vetor unitario.

Todo vetor

Basta
u 6= 0 se escreve como u = |u| u , onde u e um vetor unitario.
por u = |u|1 u.

Exemplo 10.1. No espaco euclidiano Rn , o produto interno canonico


dos vetores u = (1 , . . . , n ) e v = (1 , . . . , n ) e definido por hu, vi =
1 1 + + n n . Este e o produto interno que consideraremos em

Rn , salvo aviso em contrario.

Exemplo 10.2. Consideremos R2 como o modelo aritmetico do plano


euclidiano, no qual se introduziu um sistema de coordenadas carte
sianas. Dados u = (1 , 2 ) e v = (1 , 2 ), os numeros
q
|u| = 21 + 22
e

|v| =

q
21 + 22

medem realmente os comprimentos das flechas que representam es


ses vetores. Suponhamos u 6= 0, v 6= 0 e chamemos de o angulo
formado por essas flechas. Afirmamos que o produto interno hu, vi =
1 1 + 2 2 acima definido e igual a |u| |v| cos . Isto sera provado
perpendiculares, entao

em tres passos: 1o ) Se os vetores u e v sao


hu, vi = 0 = |u| |v| cos 90 . Com efeito, por um lado,
|u + v|2 = hu + v, u + vi = |u|2 + |v|2 + 2 hu, vi

120

Produto Interno

Sec
ao 10

e por outro lado, pelo Teorema de Pitagoras,


|u + v|2 = |u|2 + |v|2 .

Figura 10.1.
hu, vi = cos . Com
Logo hu, vi = 0. 2o ) Se |u| = |v| = 1 entao

efeito, tomando o vetor unitario


u perpendicular a u temos, pela
de seno e cosseno, v = cos u + sen u . (Fig. 10.2.)
definicao

Figura 10.2.

Tomando o produto interno de ambos os membros desta igualdade


por u vem hu, vi = cos hu, ui + sen hu, u i. Como hu, ui = 1 e
hu, u i = 0 pelo primeiro passo, temos hu, vi = cos . 3o ) Caso ge
ral: pomos u = |u| u e v = |v| v , onde u = (1/|u|)u e v = (1/|v|)v sao

hu, vi = |u| |v| hu , v i = |u| |v| cos . Vemos,


vetores unitarios.
Entao

em particular, que os vetores u, v formam um angulo


agudo quando

hu, vi > 0, um angulo


obtuso quando hu, vi < 0 e um angulo
reto
quando hu, vi = 0.

Sec
ao 10

Produto Interno

121

Exemplo 10.3. Seja E = Co ([a, b]) o espaco vetorial cujos elementos


as funco es contnuas g, f : [a, b] R. Um produto interno em E
sao
pode ser definido pondo
hf, gi =

Zb

f(x)g(x) dx.

f e
Neste caso, a norma da funcao

|f| =

Zb

f(x)2 dx.

Este produto interno e utilizado no estudo das series de Fourier.


finita arbitra
Seja E um espaco vetorial de dimensao
Observacao.
rio. Dada uma base {u1 , . . . , un } E, podemos definir um produto
interno em E pondo, para u = i ui e v = i ui , hu, vi = i i ,
Isto mostra que todo espaco vetorial de dimensao
fipor definicao.
nita pode ser munido de um produto interno. (Fato verdadeiro em
entraregeral, pois qualquer espaco vetorial possui base, mas nao
mos nesse terreno.) Assim, quando nos referirmos a um espaco mu estaremos com isso atribuindo uma
nido de um produto interno, nao
propriedade especial a esse espaco mas apenas dizendo que, entre
os possveis produtos internos que nele podem ser introduzidos, um
particular foi escolhido e fixado.
Seja E um espaco vetorial com produto interno. Dois vetores
u, v E chamam-se ortogonais (ou perpendiculares) quando hu, vi =
u v. Em particular, 0 e ortogonal a qualquer
0. Escreve-se, entao,
vetor de E. Um conjunto X E diz-se ortogonal quando dois vetores
ortogonais. Se, alem disso, todos os vedistintos quaisquer em X sao
unitarios

X chama-se um conjunto ortonormal.


tores de X sao
entao
Portanto, o conjunto X E e ortonormal se, e somente se, dados
u, v X tem-se hu, vi = 0 se u 6= v e hu, vi = 1 se v = u. Uma base
ortonormal e uma base de E que e um conjunto ortonormal.
Teorema 10.1. Num espaco vetorial E com produto interno, todo
conjunto ortogonal X de vetores nao-nulos

e L.I. .

122

Produto Interno

Sec
ao 10

Sejam v1 , . . . , vn X. Temos hvi , vj i = 0 se i 6= j. Se


Demonstracao:
linear nula desses vetores
1 v1 + + n vn = 0 e uma combinacao
para cada i = 1, 2, . . . , n, tomamos o produto interno de ambos
entao,
os membros desta igualdade por vi e temos
1 hv1 , vi i + + n hvn , vi i = 0,
logo i hvi , vi i = i |vi |2 = 0 pois todos os produtos internos hvj , vi i,
nulos em virtude da ortogonalidade de X. Alem disso,
com j 6= i, sao
todos nao-nulos,

como os vetores pertencentes ao conjunto X sao


re2

sulta de i |vi | = 0 que i = 0. Assim, os coeficientes da combinacao


todos iguais a zero e os vetores do conjunto X
linear i vi = 0 sao
portanto, linearmente independentes.
sao,
Exemplo 10.4. A base canonica {e1 , . . . , en } Rn e ortonormal: temse hei , ej i = ij , onde ij = 0 se i 6= j e ij = 1 se i = j. No plano R2 os
ortogonais. Pondo
vetores u = (1, 1) e v = (1, 1) sao

u =

!
2
2
,
2
2

v =

!
2
2
,

,
2
2

o conjunto {u , v } R2 e uma base ortonormal.


ortogonais, a igualdade |u + v|2 = |u|2 + |v|2 +
Quando u e v sao
do Teorema de
2 hu, vi se torna |u + v|2 = |u|2 + |v|2 . Esta e a versao
Pitagoras

para um espaco vetorial com produto interno.


Num espaco vetorial E com produto interno, seja u um vetor

unitario.
Dado qualquer v E, o vetor hu, vi u chama-se a projecao

ortogonal de v sobre o eixo que contem u. A justificativa para esta


esta no fato de que, escrevendo w = v hu, vi u, temdenominacao
se v = hu, vi u + w, onde w e perpendicular a u. Com efeito, tomando o produto interno de u por ambos os membros da igualdade
w = v hu, vi u tem-se
hu, wi = hu, vi hu, vi hu, ui = hu, vi hu, vi = 0,
pois hu, ui = 1. (Fig. 10.3)

Sec
ao 10

Produto Interno

123

Figura 10.3.
Quando se tem apenas u 6= 0, o eixo que contem u e o mesmo

orque contem o vetor unitario


u = u/|u| (= |u|1 u). A projecao
togonal de v sobre este eixo e , portanto, igual a hu , vi u , ou seja,

(hu, vi / hu, ui) u. Usaremos a notacao


pru (v) =

hu, vi
u
hu, ui

ortogonal do vetor v sobre o eixo que contem


para indicar a projecao

o vetor nao-nulo
u.
Se z = pru (v), tem-se v = z + w, com w z. Pelo Teorema

de Pitagoras,
|v|2 = |z|2 + |w|2 . Em particular vemos que |z| |v|,
pru (v) e menor do que ou igual ao
isto e , o comprimento da projecao
comprimento de v.

Ora, a norma do vetor pru (v) e igual a | hu, vi |/|u|. Segue-se entao
que, para quaisquer u, v E, tem-se | hu, vi |/|u| |v|, ou seja
| hu, vi | |u| |v|

(desigualdade de Schwarz).

A rigor, o argumento acima prova a desigualdade de Schwarz


apenas no caso em que u 6= 0. Mas ela e o bvia no caso em que u = 0.
Logo vale em geral.
Um importante complemento da desigualdade de Schwarz e que
vale a igualdade | hu, vi | = |u| |v| se, e somente se, um dos vetores

u, v e multiplo
do outro. Isto resulta do raciocnio acima pois, no

Teorema de Pitagoras
|v|2 = |z|2 + |w|2 , dizer |v| = |z| significa que

w = 0, isto e , que v e multiplo


de u.
Resulta da desigualdade de Schwarz que num espaco vetorial
com produto interno a norma satisfaz a desigualdade triangular:
|u + v| |u| + |v|.

124

Produto Interno

Sec
ao 10

Como se trata de numeros


nao-negativos,
para provar esta desigualdade basta mostrar que |u + v|2 (|u| + |v|)2 . Ora,
|u + v|2 = hu + v, u + vi

= |u|2 + |v|2 + 2 hu, vi

|u|2 + |v|2 + 2|u||v|

= (|u| + |v|)2 ,

pois hu, vi |u| |v| pela desigualdade de Schwarz.


Vale a igualdade |u + v| = |u| + |v| somente quando um dos vetores

u, v e um multiplo
nao-negativo
do outro. Com efeito, pelo argumento acima, |u + v| = |u| + |v| ocorre quando hu, vi = |u| |v|, o que
e o bvio quando u = 0 e implica v = u quando u 6= 0. Neste caso,
|u| |v| = hu, vi = hu, ui = |u|2 , logo 0.
Alem da desigualdade triangular, a norma goza ainda das se
guintes propriedades, de imediata verificacao:
|u| > 0

se u 6= 0

e | u| = || |u|.

Em particular, | u| = |u|.

Observacao.
Em todo este livro, || significa o valor absoluto do

numero
e |u| representa tambem a norma do vetor u.
Num espaco vetorial E munido de produto interno, a distancia

d(u, v) = |u v|. Tem-se


entre os vetores u, v e , por definicao,
d(u, u) = 0, d(u, v) > 0 se u 6= v, d(u, v) = d(v, u) e d(u, w)
d(u, v) + d(v, w).
Mostraremos agora que existem bases ortonormais em todo es finita provido de um produto interno.
paco vetorial de dimensao
Mais precisamente, exporemos o processo de ortonormalizacao

de Gram-Schmidt, um algoritmo que ensina a passar de uma base


qualquer {v1 , . . . , vn } E para uma base ortonormal {u1 , . . . , un } E,
com a importante propriedade de que, para m = 1, . . . , n, os vetores
u1 , . . . , um pertencem ao subespaco Fm , gerado por v1 , . . . , vm .
Dada a base {v1 , . . . , vn } E, obteremos primeiro uma base ortogonal {w1 , . . . , wn } E e depois poremos u1 = w1 /|w1 |, . . . , un =
wn /|wn | para chegar a` base ortonormalizada {u1 , . . . , un } E.
Comecamos o processo tomando w1 = v1 e prosseguimos por

inducao.
Suponhamos ja obtidos os vetores nao-nulos
w1 , . . . , wm ,

Sec
ao 10

Produto Interno

125

dois a dois ortogonais, gerando o subespaco Fm , o mesmo que e gerado por v1 , . . . , vm . Definimos wm+1 pondo
wm+1 = vm+1

m
X
hwi , vm+1 i
i=1

hwi , wi i

Figura 10.4. w3 = v3 z3 , z3 =

wi .

hw1 ,v3 i
hw1 ,w1 i w1

hw2 ,v3 i
hw2 ,w2 i w2 .

Um calculo
simples mostra que wm+1 e ortogonal a w1 , . . . , wm .
pertence ao subespaco Fm
Alem disso, wm+1 6= 0 porque vm+1 nao
gerado por w1 , . . . , wm (ou por v1 , . . . , vm ). E, finalmente, wm+1 pertence ao subespaco gerado por {w1 , . . . , wm , vm+1 }, o qual e igual a
Fm+1 . Isto completa o processo.
Observamos que se os primeiros m vetores da base {v1 , . . . , vn }
E ja formarem uma base ortonormal do subespaco por eles gerado
o processo de Gram-Schmidt transforma essa base numa base
entao
ortonormal {u1 , . . . , un } E na qual u1 = v1 , . . . , um = vm .
Segue-se da que, dado um subespaco vetorial F E, toda base
ortonormal de F estende-se a uma base ortonormal de E: basta estende-la a uma base qualquer de E e depois ortonormalizar esta

ultima
por Gram-Schmidt.
O significado geometrico do processo de Gram-Schmidt e bastante simples e fica ilustrado na figura: se {w1 , . . . , wm } F e uma
para todo v E, o vetor
base ortogonal entao,
z=

m
X
hwi , vi
wi F,
hwi , wi i
i=1

126

Produto Interno

Sec
ao 10

soma das projeco es ortogonais de v sobre os eixos dos wi , tem a propriedade de que w = v z e perpendicular aos vetores w1 , . . . , wm .
Da resulta imediatamente que w e perpendicular a todos os vetores
combinaco es lineares dos wi . O vetor z
de F, pois esses vetores sao
chama-se a projecao
ortogonal de v sobre o subespaco F. Escrevese z = prF (v). (Fig. 10.5.) [Para a formula de prF (v) quando a base
e ortogonal, veja os Corolarios

{w1 , . . . , wm } F nao
1 e 2 do Teorema
16.1 ou o Exerccio 16.7.]

Figura 10.5.
Se z e qualquer outro vetor em F, temos
v z = (v z) + (z z ).
Como z z F, segue-se que (v z) (z z ). Do Teorema de

que |vz |2 = |vz|2 +|zz |2 . Em particular,


Pitagoras
resulta entao

|v z | |v z|. Isto mostra que a distancia


de v a` sua projecao

z = prF (v) sobre o subespaco F e menor do que ou igual a` distancia

de v a qualquer outro vetor z F. Noutras palavras, a projecao


z = prF (v) e o vetor mais proximo de v no subespaco F.
a projecao
ortoSe {u1 , . . . , um } F e uma base ortonormal entao
gonal de um vetor v E sobre o subespaco F se exprime, de forma
mais simples, como
prF (v) =

m
X
i=1

hui , vi ui .

geral:
Isto esta de acordo com a seguinte observacao

Sec
ao 10

Produto Interno

127

Seja {u1 , . . . , un } E uma base ortonormal. Para todo vetor v E


tem-se
n
X
hui , vi ui .
v=
i=1

linear
Com efeito, v se exprime como combinacao
v = 1 u 1 + + n u n

em termos da base dada. Tomando o produto interno de ambos os


membros desta igualdade por ui , temos hui , vi = i (i = 1, . . . , n)
pois hui , uj i = ij (= 1 se i = j e = 0 se i 6= j).
Assim, as coordenadas de um vetor relativamente a uma base
os produtos internos desse vetor pelos elementos daortonormal sao
quela base.
as expressoes dos vetores u, v
Se u = i ui e v = j uj sao
E em termos de uma base ortonormal {u1 , . . . , un } E, as relaco es
hui , uj i = ij implicam imediatamente que
* n
+
n
n
n
X
X
X
X
i i .
hu, vi =
i j hui , uj i =
j u j =
i u i ,
i=1

i,j=1

j=1

i=1

Portanto, quando se referem os vetores de E a uma base ortonormal

fixada, o produto interno assume a forma hu, vi = i i , analoga


a`
n
do produto interno canonico de R .

Tomando, mais geralmente, uma base arbitraria


{v1 , . . . , vn } E
e pondo hvi , vj i = gij , o produto interno dos vetores
u=

n
X

i v i

e v=

n
X

j v j

j=1

i=1

se exprime como
hu, vi =

n
X

gij i j .

(*)

i,j=1

A matriz g = [gij ] M(n n) e simetrica, isto e , gij = gji pois


hvi , vj i = hvj , vi i. Mais ainda: a matriz g e positiva. Isto significa
que, alem de g ser simetrica, para qualquer lista (x1 , . . . , xn ) de n

todos nulos, tem-se


numeros
reais nao
n
X

i,j=1

gij xi xj > 0.

128

Produto Interno

Sec
ao 10

Reciprocamente, fixada uma base {v1 , . . . , vn } num espaco vetorial


E (que pode ser, por exemplo, a base canonica em Rn ) e dada uma
matriz simetrica positiva g = [gij ] M(n n), a igualdade (*) acima
define um produto interno em E.

Exerccios
10.1. Seja E um espaco vetorial com produto interno. Para quaisquer
ortogonais.
vetores u, v E, prove que |u|v + |v|u e |u|v |v|u sao
10.2. Seja {u1 , . . . , un } E uma base ortonormal. Prove que, para
n
P

v, w E arbitrarios,
tem-se hv, wi =
hv, ui i hw, ui i.
i=1

10.3. Dado o vetor u = (2, 3, 6), seja P : R3 R3 o operador linear


definido por Pv = pru (v). Descreva I 2P geometricamente, escreva
H = I 2P e determine o vetor que se obtem de
a matriz da reflexao
em torno do plano perpendicular a u.
w = (1, 1, 1) por reflexao
10.4. Considere a base V = {v1 , v2 , v3 } R3 , formada pelos vetores
v1 = (1, 1, 1), v2 = (1, 1, 1) e v3 = (1, 1, 1). Determine a matriz
de passagem p, de V para a base ortonormal U = {u1 , u2 , u3 }, obtida
de V pelo metodo de Gram-Schmidt. Observe que os elementos da
numeros

diagonal de p sao
positivos e abaixo da diagonal todos sao
nulos. Generalize.
10.5. Seja V = {v1 , . . . , vn } Rn uma base, com vj =
. . . , nj ), j = 1, . . . , n. Seja U a base ortonormal de Rn
pelo processo de Gram-Schmidt. Prove que U e a base
Rn se, e somente se, ij = 0 para todo i > j e ii >
i = 1, . . . , n.

(1j , 2j , . . .,
obtida de V
canonica de
0 para todo

as bases obtidas de
10.6. Sem fazer calculo
algum, diga quais sao
V = {v1 , v2 , v3 } pelo processo de Gram-Schmidt nos seguintes casos:
(a) v1 = (3, 0, 0), v2 = (1, 3, 0), v3 = (2, 5, 1);
(b) v1 = (1, 1, 0), v2 = (5, 0, 0), v3 = (2, 2, 3).

10.7. Dado o vetor unitario


u = (1 , . . . , n ) Rn , forme a matriz
a = [i j ] M(n n). Seja H : Rn Rn o operador cuja matriz

Sec
ao 10

Produto Interno

129

na base canonica e In 2a. Mostre que para todo v Rn tem-se


Hv = v 2 hv, ui u e conclua que |Hv| = |v|.

10.8. Num espaco vetorial com produto interno, o angulo


entre dois

o angulo

vetores nao-nulos
u, v e , por definicao,
=<
)(u, v), tal que
0 180 e cos = hu, vi /|u| |v|. Dito isto, e dados os vetores
u = (3, 4), v = (1, 1) e w = (1, 1), ponha em ordem crescente os

angulos
<
)(u, v), <
)(u, w) e <
)(v, w).
10.9. Sejam u, v R2 vetores L.I. . Prove que o vetor |u|v + |v|u esta

contido na bissetriz do angulo


formado por u e v.

10.10. Seja u = (a, b, c) R3 um vetor unitario,


com abc 6= 0. Determine t de modo que, pondo v = (bt, at, 0) e w = (act, bct, 1/t), os

vetores u, v, w sejam unitarios


e dois a dois ortogonais.
10.11. Para cada par de vetores u = (x, y), v = (x , y ) em R2 , ponha
[u, v] = 2xx xy x y + 2yy . Prove que isto define um produto
interno no espaco vetorial R2 .
10.12. Dado o produto interno hu, vi no espaco vetorial E, prove que
se tem |u + v|2 + |u v|2 = 2(|u|2 + |v|2 ) para quaisquer u, v E.
Interprete esta igualdade geometricamente.
10.13. Seja X um conjunto de geradores do espaco vetorial E, onde
tais que
esta definido um produto interno. Se os vetores u, v E sao
hu, wi = hv, wi para qualquer w X, prove que u = v.
10.14. Seja {v1 , . . . , vn } uma base no espaco vetorial E, munido de

produto interno. Dados n numeros


reais arbitrarios
1 , ..., n , prove
que existe um, e somente um, vetor w E tal que
hw, v1 i = 1 , . . . , hw, vn i = n .
10.15. Para toda base V = {v1 , . . . , vn } no espaco vetorial E, dotado de

produto interno, prove que existe uma unica


base W = {w1 , . . . , wn }
E tal que hwi , vj i = ij (i, j = 1, 2, . . . , n). Se hvi , vj i = aij e
inversas
hwi , wj i = bij , prove que as matrizes a = [aij ] e b = [bij ] sao
uma da outra.
10.16. Suponha que
[u, v] =

n
X

i,j=1

aij xi yj

130

Produto Interno

Sec
ao 10

defina, para u = (x1 , . . . , xn ) e v = (y1 , . . . , yn ), um produto interno


em Rn . Prove que a11 > 0, . . . , ann > 0.
10.17. Calcule tres produtos internos entre os vetores u = (1, 0, 1),
linearmente
v = (4, 1, 4), w = (3, 24, 3) e conclua que eles sao
independentes.
10.18. Em cada um dos casos abaixo, determine se o conjunto
{u, v, w} R3 e ortonormal, apenas ortogonal ou nenhum dos dois.
(a) u = (1, 2, 1), v = (1, 1, 1), w = (1, 1, 2).
(b) u = (a, b, c), v = (b, a, 0), w = (ac, bc, a2 + b2 ).
(c) u = 71 (2, 6, 3), v = 71 (3, 2, 6), w = 17 (6, 3, 2).
10.19. Seja h , i um produto interno no espaco vetorial F. Dado
um isomorfismo A : E F, ponha [u, v] = hAu, Avi para quaisquer
u, v E. Prove que [ , ] e um produto interno em E.

10.20. Dados os vetores u = (2, 1, 2), v = (1, 2, 1) e w = (2, 3, 3),


ortogonal de w sobre o plano
determine o vetor de R3 que e a projecao
gerado por u e v.
10.21. Qual e a base ortonormal de R3 obtida pelo processo de GramSchmidt a partir da base {u, v, w}, onde u = (2, 6, 3), v = (5, 6, 24) e
w = (9, 1, 4)?
10.22. Mesma pergunta do exerccio anterior para u = (3, 4, 12),
v = (7, 8, 15) e w = (15, 6, 44).

10.23. Para todo numero


natural n, prove que a norma do vetor

v = (n, n + 1, n(n + 1)) R3 e um numero


natural.
10.24. Aplicando o processo de Gram-Schmidt a um conjunto de
e conhecida, prove
vetores v1 , . . . , vm cuja independencia linear nao
L.I.
que se obtem o primeiro vetor wr+1 = 0 quando v1 , . . . , vr sao
linear de v1 , . . . , vr .
mas vr+1 e combinacao

10.25. Fixado o vetor unitario


u = (a1 , . . . , an ) Rn , seja P : Rn
ortogonal
Rn o operador linear definido por Pv = pru (v) = projecao

de v sobre o eixo de u. Mostre que P2 = P, determine o nucleo


de
ortogonal H = I 2P em
P, as matrizes de P, de I P e da reflexao

Sec
ao 10

Produto Interno

131

torno do nucleo
de P. (A matriz de H e conhecida como uma matriz
de Householder.)

10.26. Seja a um vetor nao-nulo


no espaco vetorial E, de dimensao
n, munido de produto interno. Para todo b R, prove que o conjunto
n 1. Dado
V = {v E; hv, ai = b} e uma variedade afim de dimensao
vo V, mostre que v V se, e somente se, v vo e ortogonal a a.
10.27. Sejam u = (x1 , x2 , x3 ) e v = (y1 , y2 , y3 ) vetores em R3 . O
produto vetorial de u por v e definido como o vetor
u v = (x2 y3 x3 y2 , x3 y1 x1 y3 , x1 y2 x2 y1 ).
Prove que valem as seguintes propriedades:
(a) u v = v u;
(b) u (v + v ) = u v + u v ;
(c) u (v) = (u v);
L.D.;
(d) u v = 0 se, e somente se, u e v sao
(e) u v e ortogonal a u e a v;
(f) e1 e2 = e3 , e2 e3 = e1 , e3 e1 = e2 .
[Mais detalhes sobre o produto vetorial no livro Coordenadas no
Espaco, do autor, publicado pela Soc. Bras. de Mat.]
10.28. Seja r = {(1 t)u + tv; t R} a reta que liga u a v em E, com
u 6= v. Dado w E, prove que, tomando t = hw u, v ui /|v u|2
obtem-se o ponto x = (1 t)u + tv de r mais proximo possvel de w,
ou seja, tem-se |x w| < |y w| para qualquer outro ponto y r.
10.29. Seja U = {u1 , . . . , un } E uma base no espaco vetorial E,
munido de produto interno. Suponha que, para todo v = x1 u1 +
+ xn un E se tenha |v|2 = x21 + + x2n . Prove que a base U e
ortonormal.
10.30. Complete os detalhes do seguinte argumento que prova a
existencia de uma base ortonormal em qualquer espaco vetorial E,
n, com produto interno: Seja U = {u1 , . . . , ur } E
de dimensao

132

Produto Interno

Sec
ao 10

um conjunto ortonormal com o maior numero


possvel de elementos.
Para todo vetor v E, o vetor
w=v

r
X
i=1

hv, ui i ui

e ortogonal a u1 , . . . , ur . Pela maximalidade de U , tem-se w = 0, logo


U gera E e e uma base ortonormal.
10.31. Seja E um espaco vetorial com produto interno. Prove que,
para quaisquer u, v E, tem-se | |u| |v| | |u v|.
10.32. Prove que um operador A : E E, num espaco vetorial de
finita com produto interno, tem posto 1 se, e somente se,
dimensao

existem vetores nao-nulos


a, b E tais que Av = hv, ai b para todo
v E. (Compare com o Exerccio 8.27.)
10.33. Num espaco vetorial E com produto interno, o cosseno do

angulo
entre dois vetores nao-nulos
u, v e definido como cos(u, v) =
ortogonais e nao-nulos

hu, vi /|u| |v|. Prove que se u e v sao


entao
2
2
cos (u, uv)+cos (v, uv) = 1. (A soma dos quadrados dos cossenos

dos angulos
agudos de um triangulo
retangulo
e igual a 1.)
10.34. Sejam E um espaco vetorial com produto interno, C E um
conjunto convexo e a E um ponto fora de C. Suponha que existam xo , x1 C com a seguinte propriedade: para todo x C tem-se
|a xo | |a x| e |a x1 | |a x|. Prove que xo = x1 .

11
A Adjunta

Mostraremos, nesta secao,


como o produto interno nos permite associar a cada transformacao
linear A : E F uma nova transformacao

A : F E, chamada a adjunta de A. (Em espacos sem produto interno tambem existe uma nocao
de adjunta, mas a se trata de uma
transformacao
linear F E , do dual de F no dual de E. O produto
interno nos da condicao
de permanecer com E e F. Isto e particularmente interessante no caso de um operador linear A : E E.) A
adjunta nos da,
por assim dizer, uma visao
da transformacao
A sob
um novo angulo.

Essa mudanca de ponto de vista e reveladora, especialmente quando ocorre a existencia de relaco es entre A e A .
8 que a escolha
Sejam dim E = n e dim F = m. Vimos na Secao
de bases em E e F determina um isomorfismo : L(E; F) M(m
n), portanto o espaco vetorial L(E; F) das transformaco es lineares
mn. Em particular, o espaco E = L(E; R)
de E em F tem dimensao
os funcionais lineares f : E R, chamado espaco
cujos elementos sao
n. Isto implica que E e isomorfo a E.
dual de E, tem dimensao
Na realidade, dada uma base V = {v1 , . . . , vn } E, existe uma base

V = {v1 , . . . , vn } E , chamada base dual de V, onde, por definicao,

para cada vetor v = i vi E, tem-se vi (v) = i . (A verificacao

de que V E e uma base pode ser feita diretamente ou entao


de que (vi ) = ei = i-esimo elemento da
mediante a observacao
base canonica de Rn , onde : E M(1 n) = Rn e o isomorfismo

134

A Adjunta

Sec
ao 11

acima mencionado.) Obtem-se um isomorfismo A : E E impondo


que Avi = vi (i = 1, . . . , n).
Uma desvantagem dos isomorfismos entre E e E obtidos medi sao
intrnsecos: dado um
ante o emprego de uma base e que eles nao

vetor v E, o funcional v E que a ele corresponde depende nao


apenas de v mas tambem da base de E que se tomou. Esta dificuldade, entretanto, desaparece quando E esta munido de um produto
interno, como veremos agora.
finita, dotado de um proSeja E um espaco vetorial de dimensao
linear : E E faduto interno. Definimos uma transformacao
zendo corresponder a cada vetor v E o funcional linear v = v ,
tal que v (w) = hw, vi para todo w E.
da linearidade de e imediata: se u, v E, como
A verificacao
(u + v) (w) = hw, u + vi = hw, ui + hw, vi
= u (w) + v (w)
= [u + v ](w)
para todo w E, temos (u + v) = u + v . Analogamente, (v) =
v .

Alem disso, e injetiva. Com efeito, dado v E, se v = 0 entao,


para todo w E tem-se
hw, vi = v (w) = 0(w) = 0.
Em particular, hv, vi = 0, logo v = 0.
Finalmente, : E E e sobrejetiva pois e injetiva e os espacos

E, E tem, como vimos, a mesma dimensao.


Assim, podemos enunciar o
Teorema 11.1. Seja E um espaco vetorial de dimensao
finita, com
produto interno. A correspondencia : E E que associa a cada
v E o funcional linear (v) = v , tal que v (w) = hw, vi para todo
w E, e um isomorfismo.
O teorema acima sera usado principalmente na medida em que
assegura a existencia de 1 . Mais explicitamente: a todo funcional

linear f : E R corresponde um unico


vetor v = vf E tal que
hw, vi = f(w) para todo w E. Um tanto informalmente: para se
conhecer um vetor v E basta que se conheca o produto interno de

Sec
ao 11

A Adjunta

135

todos os vetores w E por v (desde que esses produtos dependam


linearmente de w).

O Teorema 11.1 e responsavel


pelo pouco (ou nenhum) uso que
se faz de funcionais lineares em espacos, como Rn , onde ha um pro substitudos por vetores e a acao
de um
duto interno: funcionais sao
funcional sobre um vetor e substituda por um produto interno.
De posse do Teorema 11.1, definiremos a adjunta de uma trans linear A : E F onde E, F sao
espacos vetoriais de diformacao
finita, ambos munidos de produto interno.
mensao
linear A : F E tal
A adjunta de A deve ser uma transformacao
que, para v E e w F quaisquer se tenha:
hAv, wi = hv, A wi .

(*)

Assim, a imagem A w E de um vetor arbitrario


w F e , por
aquele vetor de E tal que o produto interno de qualquer
definicao,
vetor v E por ele e igual a hAv, wi. Como, para cada w F, o

numero
f(v) = hAv, wi depende linearmente de v (ou seja, f e um
funcional linear), o Teorema 11.1 assegura que o vetor A w E

existe e e unico
de modo que valha (*) para quaisquer v E, w F.

A correspondencia w 7 A w assim definida e uma transformacao


linear de F em E. Com efeito, dados w, w F tem-se, para todo
v E:


v, A (w + w ) = Av, w + w = hAv, wi + Av, w


= hv, A wi + v, A w = v, A w + A w .

vetores em E cujos produtos


Assim, A (w + w ) e A w + A w sao
iguais. Portanto A (w + w ) =
internos por qualquer vetor v E sao

A w + A w . De modo analogo
se verifica que A (w) = A w.

Assim, A L(F; E).


A transposta de uma matriz a = [aij ] M(m n) e a matriz
T
a = [aji ] M(n m) que tem como linhas as colunas de a e como
colunas as linhas de a, na mesma ordem.

Teorema 11.2. Sejam U = {u1 , . . . , un } E e V = {v1 , . . . , vm } F


bases ortonormais. Se a = [aij ] M(m n) e a matriz da transformacao
linear A : E F nas bases U , V entao
a matriz da adjunta
A : F E nas bases V, U e a transposta aT = [aji ] M(n m)
de a.

136

A Adjunta

Sec
ao 11

de matriz de uma transformacao


li Por definicao
Demonstracao:
near, temos
m
X
Auj =
aij vi (j = 1, . . . , n)
i=1

A v i =

n
X

bri ur ,

r=1

onde b = [bri ] M(n m) e a matriz de A nas bases V, U , a ser


ortonormais, temos, para
determinada. Como ambas as bases sao
cada i = 1, . . . , m e cada j = 1, . . . , n:
bji = huj , A vi i = hAuj , vi i = aij
portanto, b = aT , transposta de a.

Corolario.
Uma transformacao
linear A e sua adjunta A tem o
mesmo posto. (Vide Teorema 8.2.)
apresentada a seguir uma lista de propriedades operacionais
E
linear, as quais se traduzem em
da adjunta de uma transformacao
propriedades da transposta de uma matriz, via Teorema 11.2. A va de que duas translidez dessas propriedades decorre da observacao
iguais quando se tem hAu, vi =
formaco es lineares A, B : E F sao
hBu, vi para quaisquer u E, v F.
I = I
(A + B) = A + B
(A) = A
(BA) = A B
A = A

(In )T = In
(a + b)T = aT + bT
(a)T = aT
(ba)T = aT bT
(aT )T = a

linear injetiva entao


existe
Se A : E F e uma transformacao
B : F E tal que BA = IE (vide Teorema 6.5). Tomando a adjunta
de ambos os membros desta igualdade, temos A B = IE . Assim
A : F E possui uma inversa a` direita B , logo e sobrejetiva. (Teorema 6.1.) Do mesmo modo se ve que A sobrejetiva implica A
injetiva. Portanto a adjunta de um isomorfismo A : E F e um isomorfismo A : F E. Alem disso, de A1 A = IE resulta A (A1 ) = IE
logo (A )1 = (A1 ) .

Sec
ao 11

A Adjunta

137

Analogamente, uma matriz quadrada a e invertvel se, e somente


se, sua transposta aT e invertvel e, no caso afirmativo, (aT )1 =
(a1 )T .
As noco es de retas e planos perpendiculares da Geometria Ele
mentar se estendem em Algebra
Linear ao conceito de complemento
ortogonal, o qual ajuda a entender as relaco es entre uma transfor linear e sua adjunta.
macao
Seja E um espaco vetorial com produto interno. O complemento

ortogonal de um conjunto nao-vazio


X E e o conjunto X formado
ortogonais a todos os vetores x X.
pelos vetores v E que sao
Portanto
v X hv, xi = 0 para todo x X.
Dado X E, temos h0, xi = 0 para todo x X, logo 0 X .

hv, xi = hv, xi = 0 para todo x X,


Se v X e R entao
portanto v X .
para todo x X, tem-se hu + v, xi =
Se u X e v X entao,
hu, xi + hv, xi = 0, logo u + v X .
Segue-se das tres observaco es acima que o complemento ortogo
nal de qualquer conjunto nao-vazio
X E e um subespaco vetorial
de E.
Evidentemente, X Y Y X e v X X v = 0.
v e ortoAlem disso, se v e ortogonal aos vetores x1 , . . . , xm entao

gonal a qualquer combinacao linear i xi , pois


D X
E X
v,
i xi =
i hv, xi i = 0.

Da resulta que o complemento ortogonal X do conjunto X coincide


com o complemento ortogonal S(X) do subespaco vetorial S(X), gerado por X.
Exemplo 11.1. Tem-se {0} = E e E = {0}. Se F Rn e o subespaco
nulo v = (a1 , . . . , an ) (reta que passa
vetorial gerado pelo vetor nao
pela origem), o complemento ortogonal F e o hiperplano definido
a1 x1 + + an xn = 0.
pela equacao

Teorema 11.3. Seja E um espaco vetorial de dimensao


finita, munido de produto interno. Para todo subespaco vetorial F E tem-se a
decomposicao
em soma direta E = F F .

138

A Adjunta

Sec
ao 11

Demonstracao:
Seja {u1 , . . . , un } E uma base ortonormal cujos
primeiros m elementos u1 , . . . , um formam uma base (ortonormal)
de F. (Comeca-se com uma base qualquer de F, estende-se-a a uma
base de E e depois aplica-se Gram-Schmidt.) Para todo vetor v E
tem-se v = 1 u1 + + n un = z + w, onde z = 1 u1 + + m um F
e w = m+1 um+1 + + n un F . Portanto E = F + F . Como
F F = {0}, segue-se que E = F F .

Corolario
1. dim F + dim F = dim E.

Corolario
2. Para todo subespaco vetorial FE, tem-se (F ) = F.

Com efeito, seja qual for o conjunto nao-vazio


X E, vale a in X (X ) . Em particular, o subespaco F esta contido em
clusao

(F ) . Do Corolario
1 resulta que
dim(F ) = dim E dim F = dim E (dim E dim F) = dim F.
Logo F = (F ) .
10 que a projecao
ortogonal de um vetor v E
Vimos na Secao
o vetor
sobre um subespaco F E e , por definicao,
m
X
hwi , vi
wi ,
z = prF (v) =
hwi , wi i
i=1

onde {w1 , . . . , wm } F e uma base ortogonal. Vimos ainda que, pondo


w = v z, temos v = z + w, com z F e w perpendicular a todos os
de saber ate
wi (i = 1, . . . , m), logo w F . Ficou no ar a questao
que ponto o vetor z = prF (v) depende da escolha da base ortogonal
{w1 , . . . , wm } F. A resposta e dada pelo Teorema 11.3. Como E =
F F , e unica

a maneira de escrever um vetor v E como soma


v = z + w de um vetor z F com um vetor w F . Isto mostra que
depende da escolha dos wi . (Veja tambem o Exercz = prF (v) nao
cio 11.5.)
PF : E E, ou
De agora em diante, indicaremos com a notacao
houver perigo de confusao,
a
simplesmente P : E E, quando nao

associada a` decomposicao
E = F F , a qual chamaremos a
projecao
projecao
ortogonal sobre F.

Sec
ao 11

A Adjunta

139

Teorema 11.4. Dada a transformacao


linear A : EF, entre espacos
vetoriais de dimensao
finita munidos de produto interno, tem-se
N (A ) = Im(A) ,

Im(A ) = N (A) ,

N (A) = Im(A )

Im(A) = N (A ) .

Basta provar a primeira dessas igualdades; as deDemonstracao:


mais se seguem dela usando A = A e F = F. Ora,
v N (A ) A v = 0 hu, A vi = 0 q.q.s. u E

hAu, vi = 0 q.q.s. u E v Im(A) .

Corolario
1. A fim de que o sistema de m equaco es lineares com n
incognitas
n
X
aij xj = bi (i = 1, . . . , m)
j=1

possua solucao
e necessario

e suficiente que o vetor b = (b1 , . . . , bm )


Rm seja perpendicular a toda solucao
y = (y1 , . . . , ym ) do sistema
homogeneo transposto
m
X

aji yj = 0

(i = 1, . . . , n).

j=1

Com efeito, pela ultima


das igualdades do Teorema 11.4, o sis se, e somente se, b e ortogonal ao nucleo

tema Ax = b tem solucao

m
de A , isto e , a todas as soluco es y R do sistema homogeneo
A y = 0.

O ponto do Corolario
1 e que ele permite concluir a existencia de

soluco es sem que seja necessario


exibir uma delas.

Corolario
2. O posto de A e igual ao posto de A.

140

A Adjunta

Sec
ao 11

dim N (A) + dim Im(A) = n, logo


Com efeito, se dim E = n entao
dim Im(A ) = n dim N (A)

= n [n dim Im(A)]
= dim Im(A).

Esta prova do Corolario


2 e uma alternativa para o corolario
do
Teorema 11.2 sem o uso de matrizes.
Na Fig. 11.1, os pares de retas perpendiculares representam pares de subespacos, cada um dos quais e o complemento ortogonal do
outro.

Figura 11.1.

Exerccios
linear entre espacos veto11.1. Seja A : E F uma transformacao
finita, munidos de produto interno. Prove:
riais de dimensao
AA : F F e invertvel e
(a) Se A e sobrejetiva entao
A (AA )1 : F E e uma inversa a` direita de A.

A A : E E e invertvel e (A A)1 A e
(b) Se A e injetiva entao
uma inversa a` esquerda de A.

Sec
ao 11

A Adjunta

141

11.2. Use o exerccio anterior a fim de achar uma inversa a` direita


linear A : R3 R2 , dada por A(x, y, z) = (x +
para a transformacao

2y + 3z, 2x y z) e uma inversa a` esquerda para a transformacao


linear B : R2 R4 , onde A(x, y) = (x + 2y, 2x y, x + 3y, 4x + y).


1 1 1
11.3. Dada a matriz a =
, calcule aaT e, a partir da, en1 1 2
contre uma matriz b M(3 2) tal que ab = I2 .
num espaco vetorial de dimensao

11.4. Seja P : E E uma projecao


finita, munido de produto interno. Prove que P tambem e uma
De um exemplo em que P 6= P.
projecao.
11.5. Seja U = {u1 , . . . , ur } uma base ortonormal do subespaco F,
contido no espaco vetorial E, dotado de produto interno. Usando U ,
P : E E, pondo, para todo v E, Pv = pru (v) =
defina a aplicacao
r
P
hv, ui i ui . Prove que P e um operador linear com Im(P) = F,
i=1

de que
N (P) = F e P2 = P. Obtenha assim outra demonstracao

E = F F . (Vide Teorema 7.2.)


11.6. Considere, no espaco vetorial M(n n), o produto interno
definido por
X
ha, bi =
aij bij ,
i,j

se a = [aij ] e b = [bij ]. (Vide Exerccio 11.17.) Mostre que o


subespaco A das matrizes anti-simetricas e o complemento ortogonal do subespaco S das matrizes simetricas em M(n n).
11.7. No espaco vetorial E das funco es contnuas f : [1, 1] R, sejam F, G E os subespacos vetoriais formados pelas funco es pares e
pelas funco es mpares,
respectivamente. Relativamente ao produto
R1
interno hf, gi = 1 f(x)g(x) dx, em E, mostre que G e o complemento
ortogonal de F.
11.8. Se os operadores lineares A, B : E E comutam (isto e , AB =
BA), prove que A e B tambem comutam.

11.9. Sejam {u1 , . . . , un } E e {v1 , . . . , vm } F conjuntos de geradores


nesses espacos vetoriais com produto interno. Sejam ainda A : E F
e B : F E transformaco es lineares tais que hAuj , vi i = huj , Bvi i para
i = 1, . . . , m e j = 1, . . . , n. Prove que B = A .

142

A Adjunta

Sec
ao 11

11.10. Dada a matriz a M(m n), prove que ou o sistema ax = b


qualquer que seja b M(m1) ou o sistema homogeneo
tem solucao
nao-trivial.

transposto aT y = 0 admite uma solucao


11.11. No espaco M(n n), munido do produto interno ha, bi =
tr(aT b), (veja Exerccio 11.17) considere uma matriz fixa a e defina
o operador linear Ta : M(n n) M(n n) pondo Ta x = ax. Mostre

que a adjunta de Ta e Tb , onde b = aT . Prove um resultado analogo


para o operador Sa : M(n n) M(n n), onde Sa x = xa. (Obs.
tr(ab) = tr(ba).)

em torno do plano z = 0, parale11.12. Seja S : R3 R3 a reflexao

lamente a` reta x = y = z. Determine a adjunta S . Mesma questao


P : R3 R3 , sobre o mesmo plano, paralelamente a`
para a projecao
mesma reta.
11.13. Sejam A, B : E E operadores lineares num espaco vetorial
finita, munido de produto interno. Prove que se B A =
de dimensao
para todo v E, os vetores Av e Bv sao
perpendiculares. Em
0 entao,
A = 0.
particular, se A A = 0 entao

11.14. Para todo conjunto nao-vazio


X num espaco vetorial munido

de produto interno, prove que X


= S(X) (subespaco vetorial gerado
por X).
11.15. Sejam F1 , F2 subespacos do espaco E, munido de produto in

terno. Prove que (F1 + F2 ) = F


1 F2 , (F1 F2 ) = F1 + F2 .
de que A e A tem o mesmo posto,
11.16. De mais uma demonstracao
e verdadeira quando A : E F e
nas seguintes linhas: a afirmacao
injetiva ou sobrejetiva pois nestes casos A e sobrejetiva ou injetiva,
no caso geral, use o fato de que
respectivamente. Para a conclusao
linear se escreve como um produto BA, onde B e
toda transformacao
injetiva e A e sobretiva. (Exerccio 6.29.)
finita, munidos de
11.17. Sejam E, F espacos vetoriais de dimensao
produto interno. Dadas as transformaco es lineares A, B : E F, ponha hA, Bi = tr(A B) e prove que isto define um produto interno em
as matrizes
L(E; F). (Vide Exerccio 8.37.) Se a = [aij ] e b = [bij ] sao
Pa bases ortonormais de E e F respectivamente,
de A e B em relacao
prove que hA, Bi =
aij bij .
i,j

Sec
ao 11

A Adjunta

143

P : E E, num espaco com produto


11.18. Prove que uma projecao
interno, e ortogonal (isto e , N (P) = Im(P) ) se, e somente se, para
todo v E tem-se hPv, v Pvi = 0.

11.19. Use o exerccio anterior para provar que se uma projecao


P e ortogonal.
P : E E cumpre |Pv| |v| para todo v E entao
suponha que, para algum v E, Pv nao
fosse ortogonal
[Sugestao:
a v Pv. Tome w = pe da perpendicular baixada de 0 sobre a reta
|w| < |Pv|. Mas todos os pontos desta reta
que contem v e Pv. Entao
tem a mesma imagem por P. Logo |Pv| = |Pw| e da |w| < |Pw|, uma

contradicao.]
11.20. Ache uma base para o complemento ortogonal do subespaco
(plano) de R3 gerado pelos vetores u = (3, 1, 2) e v = (1, 2, 3).
11.21. Dado o operador A : R3 R3 , definido por A(x, y, z) =
(x + y + z, 3x 2y z, 2x + 3y + 2z), obtenha bases para os seguintes
subespacos de R3 : Im(A), N (A), Im(A ) e N (A ).
11.22. Considere a base {u, v, w} R3 onde u = (1, 1, 1), v = (1, 2, 3),
w = (1, 2, 1). Determine as matrizes (na base canonica) dos funcionais lineares u , v , w : R3 R que formam a base dual de {u, v, w}.
do exerccio anterior, a base {u, v, w} R3
11.23. Com a notacao
determina um isomorfismo : (R3 ) R3 , que a cada funcional f
(R3 ) faz corresponder sua matriz (do tipo 1 3) na base dada. Prove
que (f) = [a, b, c] f = au + bv + cw .

11.24. Demonstre que (AB) = B A e A = A.

entre os Exerccios 4.20 e 10.15 por


11.25. Estabeleca uma conexao
intermedio do Teorema 11.1.
linear entre espacos de
11.26. Seja A : E F uma transformacao
finita, com produto interno. Se dim E < dim F, prove que
dimensao
e invertvel mas se N (A) = {0} entao

o operador AA : F F nao

com E = R2
A A : E E e invertvel. De um exemplo desta situacao
3
e F = R . Que se pode afirmar quando dim E > dim F ?
11.27. Num espaco vetorial E munido de produto interno, sejam
V = {v1 , . . . , vn } e W = {w1 , . . . , wn } bases tais que hvi , wj i = ij .
(Cfr. Exerccio 10.15.) Prove que a matriz do operador linear A
na base W e a transposta da matriz do operador A na base V.

144

A Adjunta

Sec
ao 11

11.28. Seja a uma matriz quadrada. Se o traco (soma dos elementos


da diagonal) de aT .a e zero, prove que a = 0.
11.29. Uma matriz quadrada a chama-se diagonalizavel

quando e
semelhante a uma matriz d = [dij ] do tipo diagonal (dij = 0 se i 6= j),
ou seja, quando existe p invertvel tal que p1 ap = d. Prove que

aT tambem o e . Se a matriz do operador


se a e diagonalizavel
entao

A : E E relativamente a uma base de E e diagonalizavel,


prove que
a qualquer outra base e diagonalizavel.

a matriz de A em relacao

11.30. Prove que a adjunta de A : E E, onde Av = hv, ai b, e A v =


hv, bi a.

11.31. Seja f : R E a adjunta do funcional linear f : E R.


Prove que v = f (1) e o vetor de E que corresponde a f pelo isomorfismo do Teorema 11.1. Prove ainda que f(f (1)) = |v|2 e f (f(w)) =
hw, viv w E.
linear A : E F, entre espacos de
11.32. Para toda transformacao
finita munidos de produto interno, prove que a restricao

dimensao
de A a` imagem de A define um isomorfismo A : Im(A ) Im(A).
Analogamente, A transforma o subespaco Im(A) isomorficamente
estes isomorfismos um o inverso do outro?
sobre Im(A ). Sao
11.33. Seja {u1 , . . . , un } E uma base ortonormal. Para todo operador linear A : E E, prove que
n
X
i=1

|Aui |2 =

n
X

|A ui |2 .

i=1

11.34. Seja J : F E a inclusao


do subespaco F E, isto e , Jv = v

para todo v F. Prove que J J : F F e o operador identidade de


de nucleo

F e que o operador JJ : E E e a projecao


F e imagem

F. (Noutras palavras, a adjunta J : E F e esta mesma projecao,


porem considerada com contra-domnio F.)

12
Subespacos Invariantes

Quanto menor e a dimensao


do espaco E, mais facil
e estudar os operadores lineares A : E E. (Isto e especialmente verdadeiro quando
dim E = 1 ou dim E = 2.) Por isso, quando se tem um operador
A : E E, e natural que se tente, de alguma maneira, decompo-lo
em operadores definidos em subespacos de dimensoes menores. O
passo inicial nessa busca e a nocao
de subespaco invariante por um
operador, que estudaremos nesta secao.
E o caso de maior e xito e o
dos operadores auto-adjuntos; como veremos na secao
seguinte, todo
operador daquele tipo se decompoe em operadores uni-dimensionais.
Outros exemplos de sucesso serao
vistos nas Seco es 14 e 15. As bases
serao
lancadas agora.
(Teorema 12.1) que, dado um operador
Provaremos nesta secao
finita, ou bem
linear A : E E num espaco vetorial de dimensao

existem
existe um vetor nao-nulo
u E tal que Au = u ou entao
ambos
u, v E linearmente independentes tais que Au e Av sao
combinaco es lineares de u e v: Au = u + v, Av = u + v. Este
fato sera fundamental para o estudo de certos tipos particularmente
importantes de operadores, como os auto-adjuntos e os ortogonais,
que abordaremos nas seco es seguintes.
Para demonstrar o Teorema 12.1, faremos uso do chamado Teo
rema Fundamental da Algebra,
do qual resulta que todo polinomio
monico real se decompoe como produto de polinomios monicos irre-

146

Subespacos Invariantes

Sec
ao 12

dutveis do primeiro e do segundo graus. (Lembramos que se chama


monico um polinomio no qual o coeficiente do termo de mais alto

grau e igual a 1 e que um polinomio irredutvel do segundo grau nao


admite raiz real.)
O teorema a ser demonstrado significa que existe em E um sub 1 ou 2, invariante por A de acordo com
espaco vetorial de dimensao

a seguinte definicao.
Diz-se que um subespaco vetorial F E e invariante pelo operador linear A : E E quando A(F) F, isto e , quando a imagem Av
de qualquer vetor v F e ainda um vetor em F.

Se F e um subespaco invariante do operador A : E E, a restricao


de A aos vetores de F define um operador que, salvo quando houver
indicaremos com a mesma notacao
A : F F.
perigo de confusao,
Assim, a existencia de um subespaco invariante permite o estudo de
um operador mais simples, por estar definido num domnio menor.
invariantes por qualquer
Exemplo 12.1. Os subespacos {0} e E sao

tambem
operador A : E E. O nucleo
N (A) e a imagem Im(A) sao
exemplos o bvios de subespacos invariantes. Um subespaco F de di 1 (reta passando pela origem) e invariante por A se, e somensao

mente se, existe um numero


tal que Av = v para todo v F. [Com
efeito, fixando um vetor u 6= 0 em F, todos os demais elementos de
da forma u, R. Como Au F, tem-se Au = u. Para
F sao
qualquer outro v F, vale v = u logo Av = Au = u = u, logo
linearmente independenAv = v, com o mesmo .] Se u, v E sao
tes, o subespaco F gerado por u e v (plano contendo a origem) e invariante por A se, e somente se Au F e Av F, isto e , Au = u + v
e Av = u + v.
Um vetor v 6= 0 em E chama-se um autovetor do operador
A : E E quando existe R tal que
Av = v.

O numero
R, por sua vez, chama-se um autovalor do operador

A quando existe um vetor nao-nulo


v E tal que Av = v. Diz-se
que o autovalor corresponde, ou pertence, ao autovetor v e,
entao
vice-versa, que o autovetor v tambem corresponde, ou pertence, ao
para todo w = v, tem-se Aw = w.
autovalor . Entao,

Sec
ao 12

Subespacos Invariantes

147

Achar um autovetor (ou, o que e equivalente, um autovalor) do


operador A e , portanto, o mesmo que achar um subespaco de di 1 invariante por A.
mensao

Analogamente, diz-se que o numero


real e um autovalor da
matriz a M(n n) quando e um autovalor do operador A : Rn
Rn , cuja matriz na base canonica e a. Isto significa que existe um
vetor x 6= 0 em Rn tal que Ax = x ou, o que e , o mesmo, uma matriz

nao-nula
x M(n 1) tal que ax = x.
R : R2 R2 em torno da origem, de
Exemplo 12.2. Uma rotacao

admite outros subespacos invariangulo


diferente de 0 e 180 , nao

antes alem de {0} e R2 . Por outro lado, para todo R, a rotacao


3
3

A : R R de angulo
em torno do eixo z, definida por
A(x, y, z) = (x cos y sen , x sen + y cos , z),

tem o eixo z e o plano z = 0 como subespacos invariantes. Para todo


z 6= 0, o vetor v = (0, 0, z) e um autovetor de A, cujo autovalor cor S : E E em
respondente e 1, pois Av = v. Ja no caso de uma reflexao
torno do subespaco F1 , paralelamente a F2 (vide Teorema 7.3), todo

vetor nao-nulo
em F1 e um autovetor de S, com autovalor 1, enquanto

autovetores correspondentes ao
que os vetores nao-nulos
em F2 sao

autovalor 1. Finalmente, se o operador A tem nucleo


nao-trivial
todo vetor nao-nulo

entao
v N (A) e um autovetor pois Av = 0 v.

Exemplo 12.3. O operador A : R2 R2 , definido por A(x, y) =

(x + y, y), chama-se cisalhamento. Se 6= 0, os unicos


subespacos
{0}, R2 e o eixo das abcissas. Com efeito, qualinvariantes por A sao

quer outro subespaco de R2 e uma reta F, formada pelos multiplos


tv = (ta, tb) de um vetor v = (a, b), com b 6= 0. Se t 6= 0 tem-se tv F
e invariante
mas A(tv) = (ta + tb, tb) = tv + (tb, 0)
/ F logo F nao
por A.
Dados o polinomio p(x) = a0 + a1 x + + an xn e o operador
p(A) indica o operador
A : E E, a notacao
p(A) = a0 I + a1 A + + an An .

Lema. Para todo operador linear A : E E, num espaco vetorial de


dimensao
finita, existem um polinomio monico irredutvel p, de grau
1 ou 2, e um vetor nao-nulo

v E, tais que p(A) v = 0.

148

Subespacos Invariantes

Sec
ao 12

Demonstracao:
Seja n = dim E. Como dim L(E) = n2 , os
2
2
linearmente dependentes. Porn + 1 operadores I, A, . . . , An sao

todos nulos, tais que


tanto existem numeros
reais o , . . . , n2 , nao
2

de maior
o I + 1 A + + n2 An = 0. Seja m o coeficiente nao-nulo
ndice nesta expressao.
Dividindo-a por m , obtemos um polinomio
monico p(x) = o + 1 x + + m1 xm1 + xm tal que p(A) = 0.
p(x) = p1 (x) p2 (x) pk (x), onde
Sabemos que existe uma fatoracao
cada pi e um polinomio monico irredutvel de grau 1 ou 2. Temos
p1 (A) p2 (A) pk (A) = 0. Logo, pelo menos um dos operadores
e invertvel. Assim, existe um vetor nao-nulo

pi (A) nao
v E tal que
pi (A) v = 0.
Teorema 12.1. Todo operador linear num espaco vetorial de dimensao
finita possui um subespaco invariante de dimensao
1 ou 2.
Dado A : E E, sejam p o polinomio e v E o vetor
Demonstracao:

nao-nulo
dados pelo lema, com p(A) v = 0. Se p(x) = x entao
Av v = 0, donde Av = v, logo a reta que passa pela origem e
1. Se p tem
contem v e um subespaco invariante por A, de dimensao
2
2
A v + aAv + bv = p(A) v = 0, logo
grau 2, p(x) = x + ax + b, entao
A(Av) = aAv bv. Isto mostra que o subespaco gerado por v e Av
L.I. pois se tivessemos
e invariante por A. Alem disso, v e Av sao

Av = v entao
0 = A2 v + aAv + bv = 2 v + av + bv = (2 + a + b)v,
pois p(x) = x2 + ax + b nao

donde 2 + a + b = 0, uma contradicao


tem raiz real. Logo o subespaco invariante gerado por v e Av tem
2.
dimensao
n admite
Um operador linear num espaco vetorial de dimensao

encia do
no maximo
n autovalores distintos. Isto e consequ
Teorema 12.2. A autovalores diferentes do mesmo operador correspondem autovetores linearmente independentes.
Dado o operador linear A : E E, sejam v1 , . . . , vm
Demonstracao:

vetores nao-nulos
em E tais que Av1 = 1 v1 , . . . , Avm = m vm , onde

dois a dois diferentes. Provaremos,


os numeros
reais 1 , . . . , m sao
que esses vetores sao
L.I. . A afirmacao
e o bvia quando
por inducao,
m = 1. Supondo-a verdadeira para m 1 vetores, inferiremos da

Sec
ao 12

Subespacos Invariantes

149

linear nula
sua validez para m. Dada a combinacao
1 v1 + + m vm = 0,

(*)

aplicamos o operador A a ambos os membros desta igualdade, le que


vando em conta que Avi = i vi . Resulta entao
1 1 v1 + + m m vm = 0.

(**)

Multiplicando a igualdade (*) por m e subtraindo de (**) vem:


(1 m )1 v1 + + (m1 m )m1 vm1 = 0.
os vetores v1 , . . . , vm1 sao
L.I. . Logo
Pela hipotese de inducao,
(1 m )1 = = (m1 m )m1 = 0.
todos diferentes, as m 1 diferencas nos
Como os autovalores sao
6= 0, logo 1 = = m1 = 0. Isto reduz
parenteses acima sao
a igualdade (*) a m vm = 0. Como vm 6= 0, segue-se que m = 0.
Assim, a igualdade (*) so pode ocorrer quando todos os coeficientes
nulos, o que prova o teorema.
i sao

Corolario.
Seja dim E = n. Se um operador linear A : E E possui
n autovalores diferentes entao
existe uma base {v1 , . . . , vn } E em
relacao
a` qual a matriz de A e diagonal (isto e , tem a forma [aij ] com
aij = 0 se i 6= j).

Com efeito, se Av1 = 1 v1 , . . . , Avn = n vn com os vi nao-nulos


e
{v1 , . . . , vn } e , em virtude do Teorema
os i dois a dois distintos entao
12.2, uma base de E. A matriz de A nesta base e

..

.
n

aparecem sao
iguais a zero.
na qual os termos que nao

A igualdade Av = v equivale a (A I)v = 0, logo v e um


autovetor do operador A : E E se, e somente se, e um elemento

nao-nulo
do nucleo
N (A I). Noutras palavras, a fim de que

150

Subespacos Invariantes

Sec
ao 12

seja um autovalor de A e necessario


e suficiente que o operador
possua inverso.
A I : E E nao

Exemplo 12.4. Um caso particular importante ocorre quando


dim E = 2. Vimos no Exemplo 2.6 que se {u, v} E e uma base
os vetores u + v e u + v sao
linearmente dependentes se,
entao
e somente se, = 0. Dados o operador A : E E e a base
{u, v} E, sejam Au = au + cv e Av = bu + dv. Noutras palavras, a
matriz do operador A na base {u, v} e


a b
.
c d
(A I)u = (a )u + cv e (A I)v = bu + (d )v. A fim de
Entao
seja invertvel e necessario

que A I nao
e suficiente que os vetores
(A I)u e (A I)v sejam L.D., ou seja, que (a )(d ) bc = 0,
ou ainda, que seja raiz do polinomio
p() = 2 (a + d) + ad bc,
chamado o polinomio caracterstico do operador A.

Portanto, o numero
real e um autovalor do operador A : E E,
onde dim E = 2, se, e somente se, e uma raiz do polinomio carac e p() = 2 (a + d) +
terstico do operador A, o qual, por definicao,
tirados da matriz de A em relacao

adbc. Os coeficientes de p() sao


a uma base qualquer de E.

Observacao.
A matriz do operador A muda quando se passa de
uma base para outra. Mas o polinomio p() (isto e , as expressoes
seus coeficientes) permanece (isto e , permaa + d e ad bc, que sao
Isto sera provado na Secao
20. No presente
necem) sem alteracao.
caso (dim E = 2), e claro que a + d = traco de A, logo independe da
base escolhida.
Quanto
ao coeficiente ad bc (o determinante da


a b
matriz a =
), vide o Exerccio 12.7.
c d
R : R2 R2 , R(x, y) = (x cos
Exemplo 12.5. No caso da rotacao
y sen , x sen + y cos ), temos a = cos , b = sen , c = sen ,
d = cos , logo o polinomio caracterstico de R e
p() = 2 (2 cos ) + 1.

Sec
ao 12

Subespacos Invariantes

151

possui raiz real pois neste


Se 6= 0 e 6= 180 , o trinomio p() nao

caso seu discriminante = 4(cos2 1) e negativo. Consequente


mente R so possui autovalores (reais) se = 0 ou = 180 .
Exemplo 12.6. Definamos o operador A : R2 R2 pondo A(x, y) =
(4x + 3y, x + 2y). Seu polinomio caracterstico e p() = 2 6 + 5,
1 = 1 e 2 = 5. Estes numeros

autovalores de A.
cujas razes sao
sao

Existem, portanto, vetores nao-nulos


v1 e v2 em R2 , tais que Av1 = v1
e Av2 = 5v2 . Pelo Teorema 12.2, v1 e v2 formam uma base de R2 , em
a` qual a matriz do operador A tem a forma diagonal:
relacao


1 0
a=
0 5
A fim de determinar os vetores v1 = (x, y) e v2 = (r, s) exprimimos as
igualdades Av1 = v1 e Av2 = 5v2 em termos de coordenadas, obtendo
os sistemas lineares
4x + 3y = x
x + 2y = y
e
4r + 3s = 5r
r + 2s = 5s.
indeterminados, e tinham que ser
Ambos os sistemas acima sao

assim pois se v e autovetor de A, todo multiplo


v tambem e . To nao-nula

mando uma solucao


de cada um desses sistemas obtemos
v1 = (1, 1), v2 = (3, 1) tais que {v1 , v2 } R2 e uma base formada por
autovetores de A.

Exerccios
12.1. Suponha que o operador linear A : E E, num espaco vetorial
n, admita um subespaco invariante F, de dimensao
r.
de dimensao
Prove que existe uma base de E, relativamente a` qual a matriz de A
tem a forma


a b
,
0 c

152

Subespacos Invariantes

Sec
ao 12

com a M(r r), b M(r (n r)), 0 M((n r) r) e c


M((n r) (n r)).

12.2. Enuncie e prove um resultado analogo


ao do exerccio anterior,
invariantes pelo operador A.
supondo que E = F G, onde F e G sao

12.3. De exemplo de um operador linear A : R3 R3 que admite um


subespaco invariante F R3 com a seguinte propriedade: nenhum
subespaco G R3 tal que R3 = F G e invariante por A.

12.4. Dado o vetor nao-nulo


a R3 , determine os subespacos de
3
R invariantes pelo operador A : R3 R3 , definido por Av = a v
(produto vetorial: veja Exerccio 10.27).

12.5. Sejam A, B : E E operadores lineares. Se AB = BA, prove


subespacos invariantes por A.
que N (B) e Im(B) sao

12.6. Dado o operador linear A : E E e o polinomio p(x), prove


invariantes
que os subespacos vetoriais N (p(A)) e Im(p(A)) sao
por A.

12.7. Um operador A : E E chama-se normal quando AA = A A.


para todo v E, tem-se |Av| = |A v|
Prove que se A e normal entao,
e conclua da que todo auto-vetor de A e tambem auto-vetor de A ,
se A e normal, AI tambem e .)
com o mesmo auto-valor. (Sugestao:
12.8. Se o operador A e normal, prove que N (A) = Im(A).

de posto 2. Prove que os unicos

12.9. Seja P : R3 R3 uma projecao


3
contidos na imagem ou
subespacos de R invariantes por P estao

contem o nucleo
de P. E se o posto de P for igual a 1 ?
12.10. Mostre que os subespacos vetoriais de C (R, R) gerados por
invariantes pelo operador de decada um dos conjuntos abaixo sao

D : C (R, R) C (R, R).


rivacao
(a) {cos x, sen x};
(b) {ex , xex , x2 ex }.
2, invariante pelo
12.11. Se F R3 e um subespaco de dimensao
3
3
possui auto-vetores em F,
operador linear A : R R , e A nao
2, alem de F, e invariante
prove que nenhum subespaco de dimensao
por A.
12.12. Dado o operador linear A : E E num espaco vetorial de
3, prove que existe uma base de E relativamente a` qual a
dimensao

Sec
ao 12

Subespacos Invariantes

153

matriz de A tem uma das formas abaixo:

a b e
a b 0
c d f .
c d 0
ou
0 0 g
e f g

Em qualquer caso, prove que existe um vetor nao-nulo


v E tal que
veremos na Secao
20 que, mais geralmente,
Av = gv. [Observacao:
mpar possui
todo operador linear num espaco vetorial de dimensao
pelo menos um auto-vetor.]
subespacos invariantes pelo operador linear
12.13. Se F1 , F2 E sao
invariantes por A.
A : E E, prove que F1 F2 e F1 + F2 tambem sao

12.14. Seja A : E E um operador invertvel, com dim E finita. Se


de A a
o subespaco F E e invariante por A, prove que a restricao
F e ainda um operador invertvel F F e conclua que F e tambem
invariante por A1 .

os autovetores e autovalores do operador de deri12.15. Quais sao


D: P P ?
vacao

n, prove que todo ope12.16. Num espaco vetorial E de dimensao


n 1 ou
rador linear possui um subespaco invariante de dimensao
aplique o Teorema 12.1 a` adjunta do operador dado,
n2. (Sugestao:
tendo antes introduzido um produto interno em E.)
respectivamente autovetores de A e A , corres12.17. Se v e w sao
pondentes a autovalores 6= , prove que hv, wi = 0.

12.18. Prove que um operador A e invertvel se, e somente se, nao


tem autovalor igual a 0. No caso afirmativo, prove que os autovetores de A e de A1 coincidem. E os autovalores?


a b
o
e , por definicao,
12.19. O determinante da matriz a =
c d
 det a = ad bc. Mediante um calculo

numero
direto, mostre que se
p q
det(am) = det a det m. Prove ainda que det a 6=
m=
entao
r s
0 se, e somente se, a e invertvel. Conclua que, para toda matriz
invertvel m, tem-se det a = det(m1 am), logo todas as matrizes do
operador A : E E, com dim E = 2, tem o mesmo determinante, o
qual e chamado o determinante do operador A.

154

Subespacos Invariantes

Sec
ao 12

12.20. Dado o operador linear A : E E, suponha que E = F1 F2 ,


onde Av1 = 1 v1 se v1 F1 e Av2 = 2 v2 se v2 F2 , com 1 6= 2 . Prove
os unicos

que 1 e 2 sao
autovalores de A e que os autovetores de A
em F1 ou em F2 .
estao
12.21. Seja A : Rn Rn o operador linear cuja matriz na base
canonica tem todos os elementos iguais a 1. Prove que o posto de
A e igual a 1 e que Rn = N (A) Im(A). Conclua que os autovalores
0 e n e que seus autovetores pertencem a N (A) ou a Im(A).
de A sao
Exiba uma base de Rn na qual a matriz de A tem n2 1 zeros.

12.22. Se todo vetor nao-nulo


de E for um autovetor do operador
linear A : E E, prove que A = I.

12.23. Para todo autovalor do operador linear A : E E, seja


E = {v E; Av = v}. Prove que E e um subespaco vetorial de E,
invariante por A. (E chama-se auto-subespaco correspondente ao
autovalor .)

12.24. Prove que um subespaco que contem o nucleo


de uma proje e invariante por essa projecao.

cao
12.25. Se AB = BA, prove que a imagem por B de um subespaco
invariante por A e ainda invariante por A.

12.26. Seja A : E E um operador linear tal que A2 possui algum


autovalor 0. Prove que A possui autovetor. De um exemplo em
possui.
que A2 possui autovetor mas A nao
12.27. Se os autovetores do operador linear A : E E geram o espaco
tambem invariE e, alem disso, os subespacos invariantes por A sao
antes por B, prove que AB = BA.
12.28. Seja dim E = n. Se o operador linear A : E E possui n
autovalores distintos, prove que existem no espaco E exatamente 2n
subespacos invariantes por A.

12.29. Seja A : E E um operador no espaco vetorial E, de dimensao


finita, onde E = F1 Fk e cada Fi e invariante por A. Tome uma
de bases dos Fi . Determine a forma
base V E que seja uma uniao
da matriz de A na base V.

Sec
ao 12

Subespacos Invariantes

155

12.30. Seja A : R2 R2 o operador definido por A(x, y) = (y, 0).



0 1
os autovalores de A ? E os autovetores? Se a =
Quais sao
,
0 0
existe alguma matriz invertvel p M(22) tal que p1 ap seja uma
matriz diagonal?
12.31. Seja A : R2 R2 o operador definido por A(x, y) = (2x

y, x + 4y). Mostre que A possui um autovalor unico


igual a 3 e que o
1. Conclua que
auto-subespaco E3 (v. Exerccio 12.23) tem dimensao
se


2 1
a=
1 4
nao
existe uma matriz invertvel b M(2 2) tal que b1 ab
entao
seja diagonal.
12.32. Seja A : R2 R2 o operador definido por A(x, y) = (3x +
y, 2x + 2y). Mostre que A possui os autovalores 4 e 1. Ache uma base
{u, v} R2 tal que Au = 4u e Av = v. Dada a matriz


3 1
a=
,
2 2
ache uma matriz invertvel p M(2 2) tal que p1 ap =


4 0
.
0 1

12.33. Prove que todo operador linear de posto 1 em Rn possui um


autovetor cujo autovalor correspondente e o traco do operador dado.
todas reais. Se
12.34. Seja p um polinomio 6= 0 cujas razes sao
p(A) = 0, prove que pelo menos uma raiz de p e autovalor do operador A.
12.35. Se o espaco vetorial E possui uma base formada por autovetores do operador A : E E, prove que existe tambem uma base de
E formada por autovetores de A : E E. (Veja Exerccio 11.29.)

12.36. Sejam A : E E um operador linear num espaco de dimensao


finita, munido de produto interno e F E um subespaco invariante
por A. Defina o operador B : F F pondo Bv = Av. Mostre que, para
todo v F, se tem A v = B v + Cv, com Cv F .

13
Operadores Auto-Adjuntos

O Teorema Espectral para operadores auto-adjuntos, a ser provado

nesta secao,
e um dos resultados mais relevantes da Algebra
Linear.
Serao
tambem demonstradas algumas de suas consequ
encias, entre
as quais se destaca o Teorema dos Valores Singulares.
Um operador linear A : E E, num espaco vetorial munido de
produto interno, chama-se auto-adjunto quando A = A , ou seja,
quando hAu, vi = hu, Avi para quaisquer u, v E.
operadores auto-adjuntos e R entao

Se A, B : E E sao

(A + B) = A + B = A + B e (A) = A = A, logo A + B e
auto-adjuntos.
A sao
O produto AB dos operadores auto-adjuntos A, B e auto-adjunto
se, e somente se, A e B comutam, isto e , AB = BA. Com efeito, sendo
A e B auto-adjuntos, temos
(AB) = B A = BA.
Logo, AB e auto-adjunto se, e somente se, BA = AB.
Exemplo 13.1. Sejam A, B : R2 R2 os operadores lineares definidos por A(x, y) = (x, 2y) e B(x, y) = (y, x). Para todo v = (x, y)
tem-se:
he1 , A vi = hAe1 , vi = he1 , vi = x

he2 , A vi = hAe2 , vi = h2e2 , vi = 2y,

Sec
ao 13

Operadores Auto-Adjuntos

157

portanto A v = (x, 2y) = Av e A = A. Analogamente se mostra


que B = B. Entretanto, como AB(x, y) = (y, 2x), ve-se que, para
v = (x, y), he1 , (AB) vi = hABe1 , vi = 2y, enquanto he1 , ABvi = y, logo
(AB) 6= AB, ou seja, o produto AB dos operadores auto-adjuntos
e auto-adjunto. Isto se da porque AB 6= BA. Com efeito,
A, B nao
AB(x, y) = (y, 2x) e BA(x, y) = (2y, x).
ortogonal P : E E sobre um subespaco
Exemplo 13.2. A projecao
F E e um operador auto-adjunto. Com efeito, dados v = z + w,
v = z + w , com z, z F e w, w F , temos


Pv, v = z, v = z, z = v, z = v, Pv .

P : E E sobre o subespaco F1 , paraReciprocamente, se a projecao

lelamente a F2 , onde E = F1 F2 , for um operador auto-adjunto entao


para quaisquer v1 F1 , v2 F2 vale
hv1 , v2 i = hPv1 , v2 i = hv1 , Pv2 i = hv1 , 0i = 0,
P : E E e um operador auto-adjunto
logo F2 = F
ao
1 . Assim, a projec
ortogonal.
se, e somente se, e uma projecao
Uma matriz quadrada a = [aij ] diz-se simetrica quando e igual a`
sua transposta aT , isto e , quando aij = aji para todo i e todo j.
No teorema 13.1 e dado um operador linear A : E E, num
finita, dotado de produto interno.
espaco vetorial de dimensao
Teorema 13.1. A : E E e auto-adjunto se, e somente se, sua matriz
a = [aij ] relativamente a uma (e portanto a qualquer) base ortonormal U = {u1 , . . . , un } E e uma matriz simetrica.

Demonstracao:
hui , Auj i = [i-esima coordenada do vetor Auj na
base U ] = [i-esimo elemento da j-esima coluna de a] = aij . Portanto
a matriz a e simetrica se, e somente se, hui , Auj i = hAui , uj i para
quaisquer i, j = 1, . . . , n. Devido a` linearidade de A e a` bilinearidade
do produto interno, isto equivale a dizer que hu, Avi = hAu, vi para
quaisquer u, v E, ou seja, que A e auto-adjunto.
Exemplo 13.3. As matrizes dos operadores A e B do Exemplo 13.1
respectivamente
na base canonica de R2 sao




0 1
1 0
,
e
b=
a=
1 0
0 2

158

Operadores Auto-Adjuntos

Sec
ao 13

ambas simetricas. Quanto ao Exemplo 13.2, se tomarmos em E uma


base ortonormal cujos primeiros m elementos formem uma base de

P nesta base
F e os ultimos
uma base de F , a matriz da projecao
tera os m primeiros termos da diagonal iguais a 1 e todos os demais
elementos iguais a zero. Seu formato sera

1
1
..

.
1
0
..

.
0

indicados acima, sao


todos zeonde os termos fora da diagonal, nao
simetricas, refletindo o fato de que represenros. Essas matrizes sao
tam operadores auto-adjuntos em bases ortonormais. Ja o operador
e auto-adjunto pois na base canonica de R2
A no Exemplo
 12.6 nao
4 3
sua matriz e
.
1 2
Teorema 13.2 Seja A : E E um operador auto-adjunto. Se o subespaco F E e invariante por A, seu complemento ortogonal F
tambem e .
O Teorema 13.2 decorre imediatamente do
Teorema 13.3 Se o subespaco F E e invariante pelo operador linear A : E E entao
seu complemento ortogonal F e invariante pelo
operador adjunto A : E E.

Demonstracao:
[u F, v F ] Au F hu, A vi = hAu, vi =

0 A v F , logo F e invariante por A .

Exemplo 13.4. No cisalhamento A : R2 R2 , onde A(x, y) =


(x + y, y), com 6= 0, o eixo x, das abcissas, e invariante mas
e pois
seu complemento ortogonal, o eixo y, das ordenadas, nao
e vertical.
Ae2 = (, 1) nao
No caso de um operador auto-adjunto, o Teorema 12.2 assume a
forma mais precisa seguinte.

Sec
ao 13

Operadores Auto-Adjuntos

159

Teorema 13.4. Se 1 , . . . , m sao


autovalores dois a dois diferentes
do operador auto-adjunto A : E E, os autovetores correspondentes
v1 , . . . , vm sao
dois a dois ortogonais.
Para i 6= j quaisquer:
Demonstracao:

(i j ) hvi , vj i = hi vi , vj i hvi , j vj i = hAvi , vj i hvi , Avj i

= hAvi , vj i hAvi , vj i = 0 pois A e auto-adjunto.

Como i j 6= 0, de (i j ) hvi , vj i = 0 resulta hvi , vj i = 0.


para todo multiplo

Observacao.
Se Av = v entao,
w = v, tem do Teorema 13.4, os vetores
se ainda Aw = w. Logo, na situacao

v1 , . . . , vm podem ser tomados unitarios,


caso haja conveniencia.
Um problema importante sobre operadores num espaco vetorial
finita e o de encontrar uma base em relacao
a` qual
de dimensao
a matriz desse operador seja a mais simples possvel. Mostrare que, se A : E E e um operador auto-adjunto num
mos nesta secao
finita com produto interno, existe uma
espaco vetorial de dimensao
base ortonormal em E, relativamente a` qual a matriz de A e uma
do
matriz diagonal a = [aij ], isto e aij = 0 se i 6= j. Este e o conteudo
Teorema Espectral.
Existe um tipo de operador auto-adjunto para o qual o Teorema
ortogonal sobre o
Espectral e imediato: se P : E E e a projecao
subespaco F, tomando uma base ortonormal {u1 , . . . , un } E cujos
primeiros vetores u1 , . . . , um formem uma base de F (portanto os

n m ultimos
formam uma base de F ), a matriz de P nesta base
tem a forma diagonal vista no Exemplo 13.3.
Quando se diz que a matriz do operador A : E E na base
{u1 , . . . , un } E e uma matriz diagonal, isto significa que, para todo
j = 1, . . . , n, tem-se Auj = j uj , ou seja, que os vetores da base dada
todos eles autovetores de A.
sao
ortogonal sobre o subespaco F, tem-se
No caso da projecao
Puj = uj para j = 1, . . . , m e Puj = 0 se j = m + 1, . . . , n. Assim,
a base ortonormal acima fixada e de fato formada por autovetores
1 e 0.
de P. Os autovalores sao
Comecamos com o caso particular do Teorema Espectral em que
2.
espaco tem dimensao

160

Operadores Auto-Adjuntos

Sec
ao 13

Teorema 13.5. Seja A : E E um operador auto-adjunto num


espaco vetorial de dimensao
2, munido de produto interno. Existe
uma base ortonormal {u1 , u2 } E formada por autovetores de A.

Demonstracao:
Seja {v, w} E uma base ortonormal arbitraria.
Em virtude do Teorema 13.1, temos Av = av + bw, Aw = bv +

cw. Como vimos antes no Exemplo 12.4, os autovalores de A sao


as razes reais do polinomio caracterstico p() = 2 (a + c) + ac
b2 . O discriminante deste trinomio e = (a + c)2 4(ac b2 ) =
b = 0, a = c e A = aI, logo todo
(a c)2 + 4b2 0. Se = 0 entao

o trinomio p()
vetor nao-nulo
em E e um autovetor. Se > 0 entao
possui 2 razes reais distintas 1 , 2 . Isto, como sabemos, quer dizer
ambos nao
invertveis, logo
que os operadores A 1 I e A 2 I sao

existem vetores nao-nulos


(que podemos supor unitarios)
u1 , u2 E
tais que (A 1 I)u1 = 0 e (A 2 I)u2 = 0, ou seja, Au1 = 1 u1 e
Au2 = 2 u2 . Pelo Teorema 13.4, {u1 , u2 } E e uma base ortonormal
de autovetores de A.


Corolario.
Todo operador auto-adjunto A : E E, num espaco vetorial de dimensao
finita com produto interno, possui um autovetor.

Com efeito, pelo Teorema 12.1 existe um subespaco F E, de


1 ou 2, invariante por A. Se dim F = 1 todo vetor nao-nulo

dimensao
aplicando o Teorema
v F e um autovetor de A. Se dim F = 2 entao,
A : F F de A ao subespaco invariante F, obtemos
13.5 a` restricao
um autovetor v F.


Teorema 13.6. (Teorema Espectral.) Para todo operador autoadjunto A : E E, num espaco vetorial de dimensao
finita munido
de produto interno, existe uma base ortonormal {u1 , . . . , un } E formada por autovetores de A.

na dimensao
de E. O teorema e
Usaremos inducao
Demonstracao:
n 1,
evidente se dim E = 1. Supondo-o verdadeiro em dimensao

seja dim E = n. Pelo Corolario


do Teorema 13.5, existe um au

tovetor unitario
un , portanto um subespaco F E, de dimensao
1, invariante por A. Pelo Teorema 13.2, o complemento ortogonal
F tambem e invariante por A. Como dim F = n 1, a hi assegura a existencia de uma base ortonormal
potese de inducao
A : F
{u1 , . . . , un1 } F formada por autovetores da restricao

F . Segue-se que {u1 , . . . , un1 , un } E e uma base ortonormal formada por autovetores de A.

Sec
ao 13

Operadores Auto-Adjuntos

161

Vale a recproca do Teorema Espectral: se existe uma


Observacao.
base ortonormal {u1 , . . . , un } E formada por autovetores do opera este operador e auto-adjunto. Com efeito, para
dor A : E E entao
quaisquer i, j = 1, . . . , n, tem-se
hAui , uj i = hi ui , uj i = i ij = j ij = hui , j uj i = hui , Auj i

e da resulta que hAu, vi = hu, Avi para quaisquer u, v E.


Diremos que o operador linear A : E E e nao-negativo,

e escreveremos A 0, quando A for auto-adjunto e, alem disso, hAv, vi 0


para todo v E. No caso particular em que hAv, vi > 0 para todo
v 6= 0, diremos que A e um operador positivo e escreveremos A > 0.
Teorema 13.7. Um operador auto-adjunto A : E E e nao-negativo

se, e somente se, seus autovalores sao


todos 0. A e positivo se, e
somente se, todos os seus autovalores sao
numeros

positivos.

Se A 0 e Av = v com v 6= 0 entao
Demonstracao:
hv, vi = hv, vi = hAv, vi 0,
0,
portanto 0. Reciprocamente, se os autovalores de A sao
seja {u1 , . . . , un } E uma base ortonormal formada por autovetores
(a qual existe pelo Teorema Espectral), com Aui = i ui . Para todo
vetor v E, tem-se v = 1 u1 + + n un , logo
hAv, vi = hi Aui , j uj i = hi i ui , j uj i = i 2i .
Como i 0 para i = 1, . . . , n, segue-se que hAv, vi 0, portanto
sobre operadores positivos se prova da mesma
A 0. A afirmacao
maneira.

Corolario
1. Seja A 0. Se, para um certo v E, vale hAv, vi = 0
entao
Av = 0.

Com efeito, sejam 1 , ..., k os autovalores nao-nulos


de A. Entao,
pondo v = 1 u1 + + n un , resulta que Av = 1 1 u1 + + k k uk ,
donde
0 = hAv, vi = 1 21 + + k 2k .
Como 1 > 0, . . . , k > 0, segue-se que 1 = = k = 0, portanto
Av = 0.

162

Operadores Auto-Adjuntos

Sec
ao 13

Geometricamente, A 0 significa que o angulo


Observacao.
entre
v e Av (caso estes vetores sejam 6= 0) e sempre agudo ou reto. O

Corolario
1 diz que, quando Av 6= 0, esse angulo
e sempre agudo.

Corolario
2. Um operador e positivo se, e somente se, e nao-negativo

e invertvel.
para todo v 6= 0 tem-se
Com efeito, se A 0 e invertvel entao,

Av 6= 0 logo, pelo Corolario


1, hAv, vi > 0. A recproca e o bvia.
Uma matriz quadrada a = [aij ] M(n n) diz-se nao-negativa,

e escreve-se a 0, quando o operador A : Rn Rn , cuja matriz na

base canonica e a, e nao-negativo.


Dado v = (x1 , . . . , xn ) Rn , tem-se Av = (y1 , . . . , yn ) onde, para
cada i = 1, . . . , n, yi = ai1 x1 + ai2 x2 + + ain xn . Logo
hAv, vi =

n
X
i=1

xi y i =

n
X

aij xi xj .

i,j=1

Portanto a matriz a = [aij ] M(n n) e nao-negativa


se, e somente
n
se, e simetrica e, para todo v = (x1 , . . . , xn ) R tem-se
n
X

i,j=1

aij xi xj 0.

Analogamente, a matriz a diz-se positiva quando o operador


A : Rn Rn , que a ela corresponde, e positivo. Isto significa que
a e simetrica e, para todo v = (x1 , . . . , xn ) 6= 0 em Rn , tem-se
n
X

aij xi xj > 0.

i,j=1

Assim uma matriz simetrica e nao-negativa


(respect. positiva)
0 (respect. positivos).
se, e somente se, seus autovalores sao
Exemplo

13.5. O polinomio caracterstico da matriz simetrica
a b
e p() = 2 (a + c) + ac b2 . A soma de suas razes e
a=
b c
ambas positivas se, e
a+c e o produto e acb2 . As razes de p() sao
somente se acb2 > 0 e a > 0 (ou c > 0). Com efeito, acb2 > 0 (isto
e , ac > b2 ) diz que essas razes tem o mesmo sinal. De a > 0 tiramos

Sec
ao 13

Operadores Auto-Adjuntos

163

c > b2 /a > 0, logo a + c > 0 e o sinal comum das razes e positivo.

Portanto as condico es a > 0 e ac b2 > 0 (ou c > 0 e ac b2 > 0) sao

necessarias
e suficientes para que a matriz simetrica a seja positiva.

Para que se tenha a 0 e necessario


e suficiente
queac b2 0,

1 1
e positiva e
a 0 e c 0. Assim, por exemplo, a matriz
1 2


1 1

e nao-negativa.
1 1
Um operador X : E E chama-se raiz quadrada do operador
A : E E quando X2 = A.
do Teorema 13.8, apresentaremos
Para uso na demonstracao
que tem outras aplicaco es.
uma nocao
Se e um autovalor do operador A : E E, o conjunto
E = {v E; Av = v}

e um subespaco vetorial de E, invariante por A, chamado um autosubespaco. Restrito a E , o operador A e simplesmente a multiplica por . Assim, todo vetor nao-nulo

cao
em E e um autovetor de A,
com autovalor .
seus autovalores distinQuando A e auto-adjunto e 1 , . . . , r sao
pelo Teorema 13.4, para i 6= j, todo vetor em Ei e ortotos entao,
gonal a qualquer vetor em Ej . Alem disso, pelo Teorema Espectral,

todo vetor v E se escreve, de modo unico,


como v = v1 + + vr ,
onde v1 E1 , . . . , vr Er , ou seja, E e soma direta dos subespacos
E1 , . . . , Er .
Teorema 13.8. Todo operador nao-negativo

A : E E, num espaco
vetorial de dimensao
finita munido de produto interno, possui uma
unica

raiz quadrada nao-negativa,

a qual e positiva se, e somente se,


A e positivo.

Demonstracao:
Sejam 1 0, . . . , r 0 os autovalores distintos

de A. Todo vetor v E se escreve, de modo unico,


como v = v1 + +
vr , onde v1 E1 , . . . , vr Er , logo Av = 1 v1 + + r vr . Definimos
o operador linear B : E E pondo
p
p
Bv = 1 v1 + + r vr .
hvi , wj i = 0
Se w = w1 + + wr com w1 E1 , . . . , wr Er entao

164

Operadores Auto-Adjuntos

Sec
ao 13

para i 6= j, portanto
hBv, wi =

r p
X
i hvi , wi i = hv, Bwi
i=1

hBv, vi =

r p
X
i |vi |2 .
i=1

Logo B e um operador nao-negativo.


Alem disso, e claro que B2 v = Av
para todo v E, logo B e uma raiz quadrada de A. Para provar que

e unica
a raiz quadrada nao-negativa
de A, comecamos observando
que toda raiz quadrada de A comuta com A. Com efeito, se C2 = A
AC = C2 C = CC2 = CA. A observacao
seguinte e que se C
entao
cada um dos auto-subespacos de A e invariante
comuta com A entao
por C. Com efeito,
v Ei Av = i v A(Cv) = C(Av) = C(i v) = i (Cv),

logo Cv Ei .
se C e uma raiz quadrada nao-negativa

Mais uma observacao:

de
de A entao,
para cada i = 1, . . . , r, o unico autovalor da restricao
C a Ei e i . Com efeito, se w Ei e autovetor de C, digamos
com
i w = Aw = C2 w = 2 w, logo i = 2 e = i .
Cw = w, entao

Agora o argumento final: seja C uma raiz quadrada nao-negativa


de
A. Cada auto-subespaco Ei e invariante
pelo
operador
auto-adjunto

C e o unico
autovalor de C em Ei e i . Logo Cw = i w para
dado v = v1 + + vr , com v1 E1 , . . . , vr Er ,
todo w Ei . Entao,
tem-se
p
p
Cv = 1 v1 + + r vr

portanto C coincide com o operador B acima definido. A afirmacao


sobre a positividade da raiz quadrada e o bvia.

1: Um dos argumentos acima usados permite mostrar


Observacao
eles tem
que se dois operadores auto-adjuntos A, B comutam entao
um autovetor comum. Com efeito, seja 1 um autovalor de A. Como
vimos acima, a hipotese AB = BA implica que o subespaco E1 =

{v E; Av = 1 v} e invariante por B. Pelo corolario


do Teorema
13.5, o operador auto-adjunto B possui um autovetor w E1 . Mas

todo vetor nao-nulo


em E1 e autovetor de A. Logo w e autovetor
comum de A e B. Usando repetidamente o Teorema 13.2 conclui-se
que se dois operadores auto-adjuntos comutam entao
existe
entao
uma base ortonormal formada por autovetores de ambos.

Sec
ao 13

Operadores Auto-Adjuntos

165

2: Somente operadores nao-negativos


Observacao
possuem raiz
de
quadrada auto-adjunta, pois resulta imediatamente da definicao

A que o quadrado de um operador auto-adjunto e nao-negativo.


Entretanto, o quadrado de um operador de outro tipo pode ser um
de 90 no
operador (auto-adjunto) negativo. Por exemplo, a rotacao
de 180 , que e igual a I. Alem
plano tem quadrado igual a` rotacao

disso, um operador positivo pode ter uma raiz quadrada que nao
e auto-adjunta. Por exemplo, o operador A : R2 R2 , definido por
A(x, y) = (2x y, 3x 2y) e uma raiz quadrada da identade IR2 , como
se pode ver sem dificuldade.

dados pelo teExemplos gerais de operadores nao-negativos


sao
orema seguinte.
Teorema 13.9. Seja A : E F uma transformacao
linear entre
espacos vetoriais de dimensao
finita munidos de produto interno. Os
operadores A A : E E e AA : F F sao
nao-negativos

e tem ambos o mesmo posto de A (e de A ). Em particular, sao


positivos se, e
somente se, A e invertvel.

Demonstracao:
Como (A A) = A A = A A, vemos que A A e
auto-adjunto e, semelhantemente, AA tambem. Alem disso, para
todo v E, tem-se hA Av, vi = hAv, Avi = |Av|2 0 logo A A 0.
Da mesma forma se ve que AA 0. Para determinar o posto de

A A, mostraremos inicialmente que N (A A) = N (A). A inclusao


N (A) N (A A) e o bvia, pois N (A) N (BA) seja qual for B : F E.
Por outro lado,
v N (A A) A Av = 0

Av N (A ) = Im(A)

Av Im(A) Im(A) ,

logo v N (A A) Av = 0, ou seja N (A A) N (A), que e a


restante. Em seguida observemos que, pelo Teorema do
inclusao

Nucleo
e da Imagem:
posto de A A = dim E dim N (A A)
= dim E dim N (A)
= posto de A.

analoga

A afirmacao
sobre AA se prova do mesmo modo.

166

Operadores Auto-Adjuntos

Sec
ao 13

Corolario.
A transformacao
linear A : E F e injetiva se, e somente
se, A A e invertvel. A e sobrejetiva se, e somente se, AA e invertvel.
Com efeito, A injetiva posto de A = dim E posto de A A =
dim E A A invertvel. Mesmo argumento para AA .

Observacao:
O Teorema 13.9 e seu corolario
podem ser enunciados em termos de matrizes, substituindo-se A por a e A por aT .
dizer que A e injetiva equivale a afirmar que o
Nesta formulacao,
posto da matriz a M(m n) e igual a n. Analogamente, A ser
sobrejetiva equivale a` matriz a ter posto m. Qualquer destas duas
hipoteses sobre A, quando formulada em termos de matrizes, pode
unica

ser expressa na afirmacao


de que a tem posto maximo,

isto e ,

o posto de a M(m n) e o menor dos dois numeros


m e n. Na

pratica,
quando quisermos um exemplo de matriz positiva ou nao
negativa, tomamos uma matriz a de posto maximo
e consideramos
as matrizes simetricas aaT e aT a. A maior delas e 0 e a menor
e > 0.


1 2 3
as matrizes
Exemplo 13.6. Seja a =
. Entao
4 5 6
aaT =

14 32
32 77

17 22 27
aT a = 22 29 36 ,
27 36 45

positiva e nao-negativa,

ambas de posto 2, sao


respectivamente.
do Teorema Espectral, valida

A seguir, uma extensao


para transformaco es lineares quaisquer.
Teorema 13.10. (Teorema dos Valores Singulares.) Seja A : EF
uma transformacao
linear de posto r entre espacos de dimensao
finita
com produto interno. Existem bases ortonormais {u1 , . . . , un } E e
{v1 , . . . , vm } F tais que Aui = i vi , A vi = i ui , com i > 0 para
i = 1, . . . , r e Aui = 0, A vi = 0 se i > r.

Pelo Teorema 13.9, o operador A A : E E e naoDemonstracao:


negativo e tem posto r. O Teorema Espectral assegura a existencia
de uma base ortonormal {u1 , . . . , un } E tal que A Aui = 2i ui , com

i > 0 se 1 i r e i = 0 se r + 1 i n. Entao
hAui , Auj i = hui , A Auj i = 2j hui , uj i.

Sec
ao 13

Operadores Auto-Adjuntos

167

dois a dois ortogonais, e nao


Assim, os vetores Au1 , . . . , Aur sao
nulos pois
|Aui |2 = 2i |ui |2 ,
logo |Aui | = i . (Na realidade, a prova do Teorema 13.9 mostra que

N (A) = N (A A), portanto Auj = 0 se r + 1 j n.) Podemos entao


escrever, para i = 1, . . . , r, Aui = i vi , onde {v1 , . . . , vr } F e um
conjunto ortonormal, de fato uma base ortonormal de Im(A), a qual
pode ser completada a uma base ortonormal {v1 , . . . , vm } F, onde
{vr+1 , . . . , vm } e uma base ortonormal de N (A ). Tem-se A vi = 0 se
i > r e, para i = 1, . . . , r:
A v i =

1
1
A Aui = 2i ui = i ui .
i
i

Os numeros
positivos 1 , . . . , r chamam-se os valores singulares
linear A : E F, de posto r.
da transformacao
No teorema acima, podemos observar que {v1 , . . . , vm } F e uma
base ortonormal de autovetores para o operador AA : F F, pois
(AA )vi = A(i ui ) = i Aui = 2i vi .

Analogamente, {u1 , . . . , un } E e uma base ortonormal de autovetores do operador A A : E E.


Vemos ainda que {u1 , . . . , ur } e uma base ortonormal de Im(A ),
enquanto o conjunto ortonormal {v1 , . . . , vr } e uma base para Im(A).

Ao mesmo tempo, {ur+1 , . . . , un } N (A) e {vr+1 , . . . , vm } N (A ) sao


sejam vazios.
bases, desde que nao

Exerccios
E e um espaco vetorial de diEm todos os exerccios desta secao
finita, munido de produto interno.
mensao
iguais se, e somente
13.1. Prove que duas projeco es P, Q : E E sao
se, tem os mesmos auto-vetores com os mesmos auto-valores. Con P : E E e auto-adjunta (portanto Im(P) =
clua que uma projecao

N (P) ) se, e somente se, e normal. (Veja Exerc. 12.7.)

13.2. Sejam A, B : E E operadores auto-adjuntos tais que


hAv, vi = hBv, vi para todo v E. Prove que A = B.

168

Operadores Auto-Adjuntos

Sec
ao 13

13.3. Se B e invertvel e BAB e auto-adjunto, prove que A e autoadjunto.


ortogonal e > 0. Exprima a raiz
13.4. Sejam P uma projecao
quadrada positiva de I + P em termos de P.
13.5. Seja A auto-adjunto. Prove que Ak v = 0 implica Av = 0.
13.6. Assinale se cada um dos seguintes subconjuntos do espaco
vetorial L(E) e um subespaco vetorial (S), um cone (C), um cone convexo (CC):
(

operadores normais (Veja Exerc. 12.7.)

operadores auto-adjuntos

operadores nao-negativos

homotetias.

13.7. Sejam S, T L(E) involuco es auto-adjuntas. Prove que ST e


auto-adjunta se, e somente se, ST = TS.
uma involucao
13.8. Dados os vetores v = (2, 1, 2), e w = (3, 6, 6), determine
o operador auto-adjunto A : R3 R3 tal que Av = (1, 1, 13) e Aw =
(3, 21, 33), sabendo que o traco de A e 5.

13.9. Dados os vetores u = (4, 4, 2), v = (4, 2, 4) e w = (1, 2,


2), seja A : R3 R3 o operador linear tal que Au = (10, 2, 2),
Av = (2, 10, 2) e Aw = (1, 1, 5). Prove que A e auto-adjunto.
13.10. Dado o subespaco F E, considere as transformaco es lineares
ortogonal (de nucleo

P : E F e J : F E, onde P e a projecao
F ) e
Jv = v para todo v F. (J chama-se a inclusao
de F em E.) Determine
as adjuntas P : F E e J : E F.

13.11. Seja A : E E o operador de posto 1 definido por Av = hv, ai b.


finita, com produto interno, e
(E e um espaco vetorial de dimensao
vetores nao-nulos.)

a, b E sao
Prove que A e auto-adjunto se, e

somente se, b e multiplo


de a. Alem disso, A e nao-negativo
se, e
somente se, pode-se tomar b = a. Dada uma base ortonormal em E,
das coordenadas de a e b nessa
determine a matriz de A em funcao
base. (Veja Exerccio 10.32.)

Sec
ao 13

Operadores Auto-Adjuntos

169

13.12. Se A A = A, prove que os autovalores de A pertencem ao


conjunto {0, 1}. De exemplo de uma matriz a M(2 2), tal que
a11 = 13 e aT a = a. Quantas dessas matrizes existem?
13.13. Seja A : E E auto-adjunto. Para todo k N mpar, mostre

que existe um unico


operador auto-adjunto X : E E tal que Xk = A.
Se k e par, existe X auto-adjunto com Xk = A se, e somente se, A 0.
e unico.

Neste caso, X pode ser escolhido 0 e entao


13.14. Assinale V(erdadeiro) ou F(also):
(

numeros

) Se todos os elementos de uma matriz simetrica sao


essa matriz e nao-negativa.

positivos entao

) O produto de operadores nao-negativos


e um operador nao-negativo.

) Um operador nao-negativo
e positivo ou e zero.

) Uma matriz do tipo [ai bj ] e nao-negativa


se, e somente se,
ai = bi (para todo i).

) O posto de uma matriz nao-negativa


n n pode ser qualquer

numero
de 1 a n.

) O inverso de um operador auto-adjunto (invertvel) tambem e


auto-adjunto.

) Se existirem u, v R3 nao-nulos,
com Au = 2u, Av = 3v
existe uma base de autovetores para o operador linear
entao
A : R3 R3 .

) Sejam h , i e [ , ] produtos internos definidos em R2 . Se um


A tamoperador A e auto-adjunto relativamente a h , i entao
a [ , ].
bem e auto-adjunto em relacao

13.15. Se o espaco vetorial E possui uma base formada por autovetores do operador A : E E, prove que e possvel definir em E um
ao qual A e auto-adjunto.
produto interno em relacao

finita, seja A um opera13.16. Num espaco vetorial E, de dimensao

dor diagonalizavel
(ou seja, E possui uma base formada por autovetores de A). Se F E e um subespaco invariante por A, prove que

170

Operadores Auto-Adjuntos

Sec
ao 13

de A ao subespaco F e um operador diagonalizavel

a restricao
em F.
use o exerccio anterior.)
(Sugestao:

13.17. Seja A : E E um operador diagonalizavel.


Se o subespaco
F1 E e invariante por A, prove que existe um subespaco F2 E,
tambem invariante por A, tal que E = F1 F2 .
auto-adjuntos, prove que
13.18. Se os operadores A, B : E E sao
AB + BA e auto-adjunto. Que se pode dizer sobre AB BA ?

13.19. Se A : E E e auto-adjunto, prove que, para todo B L(E), o


operador B AB tambem e auto-adjunto. Se A 0, prove que B AB
0. Se A > 0 e B e invertvel, prove que B AB > 0.

13.20. Se dois operadores auto-adjuntos A, B : E E comutam,


prove que o espaco E possui uma base ortonormal formada por autovetores comuns a A e B. Prove tambem a recproca.
13.21. Assinale V(erdadeiro) ou F(also):
(

) O conjunto dos operadores positivos e um cone convexo no espaco vetorial L(E).

) O conjunto dos operadores nao-negativos


e um subespaco vetorial de L(E).

numeros

) Os elementos da diagonal de uma matriz positiva sao


positivos.

B1 AB e auto-adjunto.
) Se A e auto-adjunto e B e invertvel entao

) Existe uma matriz positiva 2 2 com dois elementos negativos


e dois positivos.

) Se A : Rn Rn e um operador invertvel qualquer, alguma


base ortogonal de Rn e transformada por A numa base ortogonal.

o traco de A e igual a`
) Se o operador A e auto-adjunto entao
soma dos seus autovalores.

finita, com produto


13.22. Seja E um espaco vetorial de dimensao
interno. Um subconjunto E chama-se um elipsoide quando

Sec
ao 13

Operadores Auto-Adjuntos

171

existem uma base ortonormal {u1 , . . . , un } E e numeros


positivos
a1 , . . . , an tais que e o conjunto dos vetores v = x1 u1 + + xn un
a1 x21 + + an x2n = 1.
cujas coordenadas xi satisfazem a equacao
Seja A : E E um operador invertvel. Prove que todo elipsoide e
transformado por A num elipsoide .
use o Teorema 13.10.)
(Sugestao:

13.23. Seja um subconjunto de um espaco vetorial de dimensao


finita, com produto interno. Prove que e um elipsoide se, e somente
se, existe um operador positivo A : E E tal que
= {v E; hAv, vi = 1}.

finita, com produto in13.24. Num espaco vetorial E, de dimensao


terno hu, vi, seja B um operador positivo. Prove que [u, v] = hBu, vi
define um novo produto interno em E. Se A : E E e auto-adjunto
no sentido do produto interno original, prove que A e tambem autoadjunto no sentido do novo produto interno se, e somente se,
AB = BA.
13.25. Sejam A : E E auto-adjunto e B : E E positivo. Prove:

XAX e auto-adjunto.
(a) Se X e a raiz quadrada positiva de B entao

(b) v e autovetor de XAX se, e somente se, Xv e autovetor de BA.


necessariamente ortogonal) de autove(c) E possui uma base (nao

tores de BA. (Ou seja, BA e diagonalizavel.)


13.26. Se A : E E e auto-adjunto e B : E E e positivo, prove que
E possui uma base V tal que, para todo v V, existe R com
Av = Bv. (Problema de autovalores generalizados.)
13.27. Sejam A, B operadores auto-adjuntos no mesmo espaco veto

rial. Se BA e diagonalizavel,
prove que AB tambem e diagonalizavel.
(Veja Exerccio 12.35.)
linear A : E F, entre espacos veto13.28. Dada a transformacao
finita munidos de produto interno, seja 2 o maior
riais de dimensao
autovalor do operador A A : E E ( 0). Prove que e o maior

dos numeros
|Au|, onde u e qualquer vetor unitario
em E. Escrevese ||A|| = = max{|Au|; u E, |u| = 1} e diz-se que ||A|| e a norma

172

Operadores Auto-Adjuntos

Sec
ao 13

p
linear A. Seja |A| = tr(A A) a norma
espectral da transformacao
induzida pelo produto interno hA, Bi = tr(A B), definido no Exerccio
os autovalores de A A, tem-se
11.17. Se 21 , . . . , 2n sao
|A| =

q
21 + + 2n

Conclua que ||A|| |A|

e ||A|| = max i .

n.||A||.

13.29. Prove que todo operador auto-adjunto A : E E pode ser


escrito como A = 1 P1 + + m Pm onde:
(1) 1 < < m .

2 = P
uma projecao

(2) P12 = P1 = P1 , . . . , Pm
m = Pm . (Cada Pi e
ortogonal.)

(3) Pi Pj = 0 se i 6= j.
(4) P1 + + Pm = I.
A = i Pi com as propriedades
Prove tambem que a expressao

1 < < m sao


os autovalores
(1) a (4) acima e unica.
(Sugestao:
ortogonal sobre o auto-espaco Ei ,
distintos de A e Pi e a projecao
definido no Exerccio 12.23.)
13.30. Prove que todo operador auto-adjunto e soma de operadores

auto-adjuntos de posto 1, os quais podem ser tomados nao-negativos

Teorema Espectral.]
se A for nao-negativo.
[Sugestao:
13.31. Chama-se produto de Hadamard de duas matrizes a = [aij ],
b = [bij ] M(m n) a` matriz c = [cij ] M(m n) com cij = aij bij .

Prove que o produto de Hadamard de duas matrizes nao-negativas

e uma matriz nao-negativa.


(Use o fato de que toda matriz naonegativa pode escrever-se como soma
X
a=
a(r)
r

de matrizes nao-negativas
de posto 1, cada uma das quais tem a
(r)
(r)
(r)
forma a = [ai aj ].) (Veja o exerccio anterior.)

Sec
ao 13

Operadores Auto-Adjuntos

173

13.32. Prove que a norma espectral, definida no Exerccio 13.18, tem


as propriedades
||A + B|| ||A|| + ||B|| e ||BA|| ||B|| ||A||.
De exemplo de um operador A : R2 R2 para o qual se tem
||A2 || < ||A||2 .
p
13.33. Prove que a norma |A| =
tr(A A), proveniente do produto interno introduzido no Exerccio 11.17, cumpre a desigualdade
|BA| |B| |A|.
13.34. Seja A : E E auto-adjunto. Se u E e tal que Au 6= 0 e
hAu, ui = 0, mostre que existem v, w E com hAv, vi > 0 e hAw, wi <
0. Deduza da o Cor. 1 do Teor. 13.7 sem usar o Teorema Espectral.
considere tu + Au para valores convenientes de t.)
(Sugestao:

14
Operadores Ortogonais

Sob o ponto de vista da organizacao


geral da Matematica,

os operadores ortogonais sao


os automorfismos da estrutura de espaco vetorial com produto interno, ou seja, sao
as simetrias dessa estrutura.
Do ponto de vista mais pedestre em que nos colocamos, os operadores
ortogonais sao
aqueles para os quais se podem obter as matrizes mais
simples, depois dos auto-adjuntos. Eles possuem as propriedades
geometricas mais marcantes, muitas das quais lhes sao
exclusivas.
(Vide Teorema 14.1.) Nesta secao
consideramos, mais geralmente, as
transformaco es lineares ortogonais de um espaco noutro e as matrizes ortogonais nao-quadradas.

Obtemos a forma mais simples que


pode assumir a matriz de um operador ortogonal e conclumos demonstrando que todo operador e o produto de um nao negativo por
um ortogonal (forma polar).
estenderemos para espacos vetoriais com produto
Nesta secao,
de congruencia entre figuras da Geometria Elemeninterno a nocao
tar. Lembramos que uma congruencia entre duas figuras X, Y e uma
f : X Y que preserva distancias,

bijecao
isto e , tal que
d(f(x), f(x )) = d(x, x ) para quaisquer x, x X. Note-se que,
garanta a sobrejetividade, a propriedade de preservar
embora nao

distancias
ja assegura que f e injetiva pois f(x) = f(x ) d(x, x ) =
d(f(x), f(x )) = 0 x = x .

Sec
ao 14

Operadores Ortogonais

175

a seguir, um papel central e desempenhado pelos


Na discussao
conjuntos ortonormais {u1 , . . . , un } Rm . Uma matriz u M(m n)
cujas n colunas formam um conjunto ortonormal em Rm chama-se
uma matriz ortogonal.
as colunas da matriz u = [aij ] M(mn),
Se u1 , . . . , un Rm sao
para que u seja ortogonal e que hui , uj i = 0 se i 6= j e
a condicao
hui , ui i = 1, onde i, j = 1, . . . , n. Noutras palavras, deve-se ter
m
X

aki akj = ij .

(*)

k=1

(Estamos usando aqui, mais uma vez, o smbolo ij , conhecido como


delta de Kronecker, que vale 0 se i 6= j e 1 se i = j.) A igualdade (*)
significa precisamente que o produto uT u da transposta uT por u e
igual a` matriz identidade n n.
uT

Portanto a matriz u M(m n) e ortogonal se, e somente se,


u = In .

seu posto e n (logo m n),


Se u M(m n) e ortogonal entao
vetores L.I. no espaco Rm . Quando m = n e
pois suas n colunas sao
a igualdade
u M(n n) e uma matriz quadrada ortogonal entao
T
T
T
1

u u = In implica u u = In logo u = u . (Vide Corolario


do
8.)
Teorema 6.7 ou a propriedade 7) do produto de matrizes na Secao
aquelas cuja transposta
Assim, matrizes quadradas ortogonais sao
e igual a` inversa.
A igualdade u uT = In significa que as linhas de u formam um
conjunto de n vetores ortonormais em Rm . Portanto, para matrizes
quadradas, colunas ortonormais equivale a linhas ortonormais.
ortogonais entao
(vu)T vu
Se u M(n p), v M(m n) sao
T
T
T
T
= u v vu = u In u = u u = Ip logo o produto vu e ortogonal. Se
(uT )T uT = u uT = In logo uT = u1
u M(n n) e ortogonal entao
tambem e ortogonal.
Evidentemente, se m > n, as m linhas de uma matriz ortogonal
podem formar um conjunto ortonormal pois sao

u M(m n) nao
n
T
e ortogonal quando u nao
e quadrada.
vetores em R , logo u nao

176

Operadores Ortogonais

Sec
ao 14

os vetores
Exemplo 14.1. A matriz u, cujas colunas sao


1 2 2
u1 = , ,
,
3 3 3


2 1 2
, ,
e
u2 =
3 3 3


2 2 1
, ,
u3 =
,
3 3 3
e ortogonal.
Exemplo 14.2. (Matrizes ortogonais 2 2.) Seja


a b
u=
c d

uma matriz ortogonal 2 2. Como u1 = (a, c) e um vetor unitario


em R2 , existe R tal que a = cos , c = sen . Sendo u2 = (b, d)

unitario
e perpendicular a u1 , devemos ter u2 = ( sen , cos ).
Assim, ha duas possibilidades para a matriz u:




cos sen
cos sen
.
ou
u=
u=
sen cos
sen cos
No primeiro caso, tem-se ad bc = 1 e no segundo ad bc = 1.
No primeiro caso, o polinomio caracterstico de u, p() = 2
tem razes reais salvo se = 0 ou = 180 , casos
(2 cos ) + 1, nao
No segundo
em que u = I2 . Trata-se da matriz de uma rotacao.
2
o operador U : R2 R2 cuja
caso, p() = 1 tem razes 1. Entao
matriz (na base canonica) e u admite autovetores v1 , v2 , com Uv1 =
v1 e Uv2 = v2 . Observe que, neste caso, a matriz u e simetrica, o
operador U e auto-adjunto, {v1 , v2 } R2 e uma base ortonormal e U
em torno do eixo que contem v1 , paralelamente a v2 .
e a reflexao
Exemplo 14.3. (Matriz de passagem ortogonal.) Sejam U =
{u1 , . . . , un } E e U = {u1 , . . . , un } E bases ortonormais. A matriz de passagem p = [pij ] de U para U e uma matriz ortogonal.
Com efeito, para quaisquer i, j = 1, . . . , n, temos
ui =

n
X
k=1

pki uk e uj =

n
X
k=1

pkj uk ,

Sec
ao 14

Operadores Ortogonais

logo

177

X
ij = ui , uj =
pki pkj ,
k=1

pT

portanto
p = In . As ultimas
2 igualdades da linha acima mostram que, reciprocamente, se a matriz de passagem p e ortogonal,
U ortonormal U ortonormal.
entao

Teorema 14.1. As seguintes afirmaco es a respeito de uma transformacao


linear A : E F, entre espacos vetoriais de dimensao
finita
providos de produto interno, sao
equivalentes:
(1) A preserva norma: |Av| = |v| para todo v E;

(2) A preserva distancia:

|AuAv| = |uv| para quaisquer u, v E;


(3) A preserva produto interno: hAu, Avi = hu, vi para quaisquer
u, v E;
(4) A A = IE ;
(5) A matriz de A relativa a qualquer par de bases ortonormais
U E, V F e uma matriz ortogonal;
(6) A matriz de A relativa a um certo par de bases ortonormais
U E, V F e uma matriz ortogonal.
(7) A transforma uma certa base ortonormal U E num conjunto
ortonormal X F. (Se dim E = dim F, X e uma base.)
(8) A transforma toda base ortonormal W E num conjunto ortonormal Z F.
|Au Av| = |A(u v)| = |u v|,
Se vale (1) entao
Demonstracao:

logo (1) (2). Se vale (2) entao



1
|Au|2 + |Av|2 |Au Av|2
2

1
= |u|2 + |v|2 |u v|2 = hu, vi ,
2

hAu, Avi =

para quaisquer u, v E tem-se


logo (2) (3). Se vale (3) entao,

hu, vi = hAu, Avi = hA Au, vi, portanto A Au = u para todo u E,

178

Operadores Ortogonais

Sec
ao 14

donde A A = IE , logo (3) (4). Se vale (4) e a e a matriz de A nas


aT a = In e a e uma matriz
bases ortonormais U E, V F entao
ortogonal, logo (4) (5). Obviamente (5) (6). Se vale (6), sejam
U = {u1 , . . . , un }, V = {v1 , . . . , vm } e a = [aij ] a matriz ortogonal de A
nessas bases. De
Aui =

m
X

e Auj =

aki vk

m
X

akj vk

k=1

k=1

resulta
hAui , Auj i =

m
X

aki akj = ij ,

k=1

logo X = {x1 , . . . , xn } F, com xi = Aui , e um conjunto ortonormal e


(6) (7). Se vale (7), seja W = {w1 , . . . , wn } E uma base ortonormal qualquer. Para i, j = 1, . . . , n, temos
X
X
wi =
pki uk e wj =
pkj uk ,
k

onde a matriz de passagem p = (pij ) e ortogonal, pelo Exemplo 14.3.


Pondo Z = {z1 , . . . , zn }, onde zi = Awi , vem, para i, j = 1, . . . , n:
zi =

n
X

pki Auk =

n
X

pki xk

e zj =

pkj xk .

k=1

k=1

k=1

n
X

Como X = {x1 , . . . , xn } e ortonormal, resulta da que


hzi , zj i =

n
X

pki pkj = ij ,

k=1

logo Z e ortonormal e (7) (8).


Finalmente, se vale (8), seja U = {u1 , . . . , un } E uma base ortonormal. Para todo u = 1 u1 + + n un E tem-se
|u|2 =

n
X

2i .

i=1

Como {Au1 , . . . , Aun } F e um conjunto ortonormal,


2
n
n

X
X


2
2i = |u|2 ,
i Aui =
|Au| =


i=1

i=1

Sec
ao 14

Operadores Ortogonais

179

logo |Au| = |u| e (8) (1).

O Teorema 14.1 confirma o dito: enunciado longo


Observacao.
facil.

e generalidemonstracao
(Dito valido
com a mesma precisao
dade com que costumam valer os proverbios.)
linear A : E F chama-se ortogonal quando
Uma transformacao
cumpre uma das oito condico es do Teorema 14.1 (e portanto todas
elas). Em particular, um operador linear A : E E chama-se ortogonal quando A = A1 . Para que o operador linear A : E E seja
que AA = IE .
ortogonal, e suficiente que A A = IE ou entao

De |Av| = |v| resulta que os unicos


autovalores possveis para um
+1 e 1. Com efeito, Av = v com
operador ortogonal A : E E sao
v 6= 0 implica |v| = |Av| = |v| = || |v|, logo || = 1.
autovetores do operador ortogonal A, com Au = u e
Se u e v sao
hu, vi = 0. Com efeito:
Av = v entao
hu, vi = hAu, Avi = hA Au, vi = hu, vi = hu, vi .
Teorema 14.2. Se o operador ortogonal A : E E deixa invariante
o subespaco F E entao
A deixa invariante o complemento ortogo
nal F .

Demonstracao:
Dado arbitrariamente w F , queremos provar

que Aw F , isto e , que hAw, vi = 0 para todo v F. Ora, a restricao


de A ao subespaco invariante F e um operador injetivo A : F F, logo
sobrejetivo. Assim, dado v F, existe u F tal que v = Au. Logo
hAw, vi = hAw, Aui = hw, ui = 0, pois w F e u F.
Parte do argumento acima mostra que se o operador
Observacao.
F e invariante
A : E E e invertvel e F E e invariante por A, entao
1
por A .

Exemplo 14.4. Uma operador linear S : E E que e ao mesmo


tempo ortogonal e auto-adjunto cumpre S S = I e S = S, logo

SS = I. Portanto ortogonal + auto-adjunto involucao.


Pelo Teorema 7.3, tem-se E = F1 F2 , onde F1 = {v E; Sv = v} e F2 = {v

os autovetoE; Sv = v}. Assim, os elementos nao-nulos


de F1 e F2 sao
res de S correspondentes aos autovalores +1 e 1 respectivamente.
que precede o Teorema 14.2 resulta que F2 = (F1 ) .
Da observacao
Juntando-se uma base ortonormal de F1 com uma base ortonormal

180

Operadores Ortogonais

Sec
ao 14

a` qual a made F2 obtem-se uma base ortonormal de E em relacao


triz de S e diagonal, com a diagonal da forma (1, . . . , 1, 1, . . . , 1).
ortogonal. O leitor pode verificar sem
O operador S e uma reflexao
dificuldade que duas quaisquer das seguintes propriedades de um
operador linear S : E E implicam a terceira: (a) SS = I; (b) S = S;
(c) S = S1 .
Em seguida, examinaremos como pode ser um operador ortogonal A : E E num espaco vetorial de dimensao
2, dotado de um
produto interno.
Segundo a natureza dos autovalores de A, ha quatro possibilidades:
(1) A possui um unico

autovalor, o qual e igual a 1. Neste caso, A = I.

Com efeito, seja u E um vetor unitario


tal que Au = u. Se v E

Av tambem e um
e outro vetor unitario,
perpendicular a u, entao

vetor unitario
perpendicular a u, pelo Teorema 14.2, logo Av = v.
admite o autovalor 1, deve ser Av = v. Mas {u, v} E
Como A nao
e uma base, portanto A = I.
A = I.
(2) A possui um unico

autovalor, o qual e igual a 1. Entao

O raciocnio e inteiramente analogo


ao anterior.
tomamos vetores unitarios

(3) A admite os autovalores 1 e 1. Entao


u, v E com Au = u e Av = v, logo {u, v} E e uma base ortonormal, relativamente a` qual a matriz de A e


1 0
.
0 1
ortogonal em torno do eixo que contem o
Neste caso, A e a reflexao
vetor u.
(4) A nao
possui autovalores (reais).
tomamos uma base ortonormal arbitraria

Entao
{u, v} E. A
matriz de A nesta base, sendo ortogonal 2 2 sem autovalores, tem,
segundo o Exemplo 14.2, a forma


cos sen
a=
.
sen cos
Somos tentados a dizer que, neste caso, o operador A : E E e a
de angulo

rotacao
. Mas para isso e necessario
verificar se nao

Sec
ao 14

Operadores Ortogonais

181

depende da base ortonormal U = {u, v} E escolhida. Ora, se tomarmos outra base ortonormal U = {u , v } E, a nova matriz de A sera
a = p1 ap, onde


a b
p=
,
c d
matriz de passagem de U para U , e ortogonal, logo p1 = pT . Assim,


a c
a =
b d

 

 

cos sen
a b
.
sen cos
c d

Levando em conta a ortonormalidade das linhas e das colunas da

mostra que se tem


matriz p, um calculo
facil


cos sen
a =
sen cos

ou


cos sen
a =
sen cos

cos() sen()
sen() cos()

conforme seja ad bc = 1 ou ad bc = 1 respectivamente.

Noutras palavras, o angulo


fica determinado a menos do sinal.
2, munido de
Isto quer dizer que, num espaco vetorial de dimensao
de angulo

produto interno, faz sentido a nocao


apenas em valor abso
luto. Para que se possa falar no angulo
dotado de sinal e preciso introduzir uma orientacao
em E, isto e , escolher uma base ortonormal

tambem positi{u, v} E, chama-la


de positiva e declarar que sao
vas todas as bases ortonormais de E que se obtem a partir desta por
meio de matrizes de passagem ortogonais cujo determinante ad bc
os operae igual a 1. De qualquer modo, com ou sem orientacao,
dores ortogonais sem autovalores (juntamente com I) num espaco
2 serao
chamados rotaco es. (I e I sao
respecvetorial de dimensao

tivamente as rotaco es de angulo


0 e 180 respectivamente.)
Teorema 14.3. Seja A : E E um operador ortogonal num espaco
vetorial de dimensao
finita munido de produto interno. Existe uma

182

Operadores Ortogonais

Sec
ao 14

base ortonormal de E relativamente a` qual a matriz de A tem a forma

1
..

.
1
1
..

.
1
cos 1 sen 1
sen 1
cos 1
..
.
cos k
sen k

sen k
cos k

onde os termos nao


aludidos sao
iguais a zero.

Demonstracao:
Os conjuntos F1 = {v E; Av = v} e F2 = {v
subespacos vetoriais invariantes por A, com F1
E; Av = v} sao
F2 = {0}. Logo F = F1 F2 tambem e um subespaco invariante por
A, o mesmo acontecendo com o complemento ortogonal F . Seja
{u1 , . . . , ur } F uma base ortonormal cujos primeiros vetores formam uma base de F1 e os restantes uma base de F2 . Nenhum su 1 em F e invariante por A, logo existe um
bespaco de dimensao
2. Seja {v1 , w1 } G uma
subespaco invariante G F de dimensao
base ortonormal. Como vimos acima, tem-se Av1 = cos 1 v1 +
sen 1 w1 , Aw1 = sen 1 v1 + cos 1 w1 . Novamente, o complemento ortogonal de G em F e um subespaco invariante por A,
possui autovetores, logo contem um subespaco invariante
que nao
2. Prosseguindo analogamente, chegaremos a uma
de dimensao
base ortonormal {v1 , w1 , . . . , vk , wk } F tal que Avi = cos i vi +

sen i vi e Awi = sen i vi + cos i wi para i = 1, . . . , k. Entao


{u1 , . . . , ur , v1 , w1 , . . . , vk , wk } E e uma base ortonormal, relativamente a` qual a matriz de A tem a forma desejada.

Observacao.
A matriz a que se refere o Teorema 14.3 pode nao
conter
possuir elementos iguais a 1, ou a 1, como pode tambem nao
nenhum dos blocos 22, caractersticos de rotaco es. Alem disso, caso
seja conveniente, cada bloco igual a I2 ou a I2 pode ser substitudo

Sec
ao 14

respectivamente pelos blocos




cos 0 sen 0
sen 0 cos 0

Operadores Ortogonais

ou

183


cos sen
.
sen cos

Corolario.
Se E tem dimensao
mpar, todo operador ortogonal
A : E E possui um autovetor v, com Av = v ou Av = v.

Exemplo 14.5. Seja A : R3 R3 um operador ortogonal no espaco


existe uma base ortoeuclidiano tri-dimensional. Se A 6= I entao
a` qual a matriz de A tem uma
normal {u1 , u2 , u3 } R3 em relacao
das quatro formas abaixo:

1 0
0
1 0 0
0 1 0 , 0 1 0 ,
0 0 1
0 0 1

1
0
0
1
0
0
0 cos sen , 0 cos sen .
0 sen cos
0 sen cos

em torno do plano que contem os


No primeiro caso A e a reflexao

vetores u1 , u2 (paralelamente a u3 ). No segundo caso, A e a reflexao


de
em torno do eixo que contem u1 ou, o que e o mesmo, a rotacao
de angulo

180 em torno desse eixo. No terceiro caso, A e a rotacao

em torno do eixo que contem u1 . No ultimo


caso, A e essa rotacao
em torno do plano que contem u2 e u3 . Estas
seguida da reflexao
quatro possibilidades, mais A = I e A = I, esgotam todos os tipos
de operadores ortogonais em R3 .

Teorema 14.4. Seja E um espaco vetorial de dimensao


finita, munido de produto interno. Todo operador linear A : E E admite
uma decomposicao
da forma A = PU, onde U : E E e ortogonal e
P : E E e nao-negativo.

De acordo com o Teorema 13.10, existem bases orDemonstracao:

tonormais {u1 , . . . , un } E, {v1 , . . . , vn } E e numeros


i 0 tais que
Aui = i vi para i = 1, . . . , n. Definamos os operadores P, U : E E
impondo que Pvi = i vi e Uui = vi . Evidentemente, P e auto-adjunto,
0, U e ortogonal e PU = A.
A = PU chama-se uma decomposicao
A expressao
polar do opei

rador A, por analogia com a forma polar z = re de um numero

184

Operadores Ortogonais

Sec
ao 14

univocamente determinados a partir


complexo. Os fatores P e U sao
claro que
de A, no caso em que A e invertvel. Provemos isto. E
A invertvel obriga P a ser tambem invertvel, donde positivo. De
A = PU tiramos A = U P e, multiplicando membro a membro estas
igualdades, vem AA = PUU P = P2 , portanto P e a raiz quadrada
positiva do operador positivo AA . (Vide Teorema 13.8.) Multipli1
cando a igualdade A = PU por P1 a` esquerda, vem
U = P A. Isto
mostra que, no caso em que A e invertvel, P = AA e U = P1 A
univocamente determinados a partir da igualdade A = PU.
sao

Exerccios
duas a duas orto14.1. Prove que as linhas de uma matriz a sao
T
gonais se, e somente se, aa = d, onde d e uma matriz diagonal.

Enuncie e prove um resultado analogo


sobre a ortogonalidade das
colunas de a.
14.2. Se as linhas de uma matriz quadrada forem duas a duas ortogonais e tiverem a mesma norma, prove que as colunas dessa matriz
duas a duas ortogonais.
tambem sao
14.3. De os seguintes exemplos:
duas a duas ortogonais
(a) Uma matriz invertvel cujas linhas sao
sao.

mas as colunas nao

ortogonais e tem
(b) Uma matriz (nao-quadrada)
cujas linhas sao
sao
ortogonais.
a mesma norma mas as colunas nao
duas a duas ortogonais
(c) Uma matriz cujas linhas (e colunas) sao
diferentes.
mas as normas das linhas sao
tal que f(0) = 0 e |f(u) f(v)| =
14.4. Seja f : Rn Rn uma funcao
n
|u v| para quaisquer u, v R . (Ou seja: f deixa 0 fixo e preserva

distancias.)
Prove:
(a) Para todo v Rn , tem-se |f(v)| = |v|.
(b) Para quaisquer u, v Rn , tem-se hf(u), f(v)i = hu, vi. [Use a
igualdade hu, vi = 21 (|u|2 + |v|2 |u v|2 ).]

Sec
ao 14

Operadores Ortogonais

185

(c) Os vetores u1 = f(e1 ), . . . , un = f(en ) formam uma base ortonormal em Rn .


(d) Para todo v = x1 e1 + + xn en Rn , tem-se hf(v), ui i = xi , logo
f(v) = x1 u1 + + xn un .
(e) f : Rn Rn e um operador linear, logo e ortogonal.

g : Rn Rn chama-se uma isometria quando |g(u)


Uma funcao
g(v)| = |u v| para quaisquer u, v Rn . Conclua que toda isometria
tem a forma g(v) = A v + b, onde A : Rn Rn e um operador (linear)
ortogonal e b Rn e um vetor constante (independente de v).

finita, com produto


14.5. Seja E um espaco vetorial de dimensao
linear ortogonal defiinterno. Se Ao : F E e uma transformacao
nida num subespaco vetorial F E, prove que existe um operador
ortogonal A : E E tal que A v = Ao v para todo v F.

14.6. Sejam A : F G e B : F H transformaco es lineares in espacos de dimensao


finita, munidos de produto
vertveis. (G e H sao
ortogonal (invertvel)
interno.) Prove que existe uma transformacao
C : G H com B = CA se, e somente se, |Av| = |Bv| para todo v F.

finita, com produto


14.7. Seja E um espaco vetorial de dimensao
interno. Dados dois operadores A, B : E E tais que |Av| = |Bv|
para todo v E, prove que existe C : E E ortogonal, com B =
observe que N (A) = N (B). Considere F = N (A)
CA. (Sugestao:
e sejam Ao : F Im(A), Bo : F Im(B) os isomorfismos obtidos
de A e B respectivamente. Use o exerccio anterior
por restricao
para achar Co : Im(A) Im(B), com Bo = Co Ao e obtenha C pelo
Exerccio 14.5.)

14.8. Dada uma base ortonormal {u1 , u2 , u3 } R3 , sejam n, p N


tais que p = n2 + n + 1. Defina um operador A : R3 R3 pondo
Au1 = v1 , Au2 = v2 , Au3 = v3 , onde
1
[nu1 + (n + 1)u2 + n(n + 1)u3 ],
p
1
v2 = [n(n + 1)u1 + nu2 (n + 1)u3 ],
p
1
v3 = [(n + 1)u1 n(n + 1)u2 + nu3 ].
p

v1 =

186

Operadores Ortogonais

Sec
ao 14

Prove que o operador A e ortogonal.


14.9. Para quaisquer duas bases ortonormais U = {u1 , . . . , un } E e
V = {v1 , . . . , vn } E, prove que existe um operador ortogonal A : E
formadas
E tal que Au1 = v1 , . . . , Aun = vn . Se as bases dadas sao
pelos vetores
1
u1 = (1, 2, 2),
3
1
v1 = (2, 3, 6),
7

1
1
u2 = (2, 1, 2), u3 = (2, 2, 1) e
3
3
1
1
v2 = (6, 2, 3), v3 = (3, 6, 2) em R3 ,
7
7

determine a matriz de A na base canonica de R3 .

14.10. Dado o vetor unitario


u Rn , prove que o operador Hu : Rn
n
em torno
R , definido por Hu v = v 2 hv, ui u, e ortogonal. (Reflexao
de {u} .) Dados os vetores v 6= w em Rn , com |v| = |w|, mostre que,
tomando u = (v w)/|v w|, tem-se Hu v = w. Determine a matriz
das coordenadas de u (matriz de Householder).
de Hu em funcao
14.11. Prove que todo operador A : E E, num espaco vetorial de
finita munido de produto interno se escreve como A = UP,
dimensao

polar
onde U e ortogonal e P e nao-negativo.
(Faca a decomposicao
de A .)
do Exerccio 11.17, considere um operador
14.12. Com a notacao
ortogonal A L(E) e defina MA : L(E) L(E) pondo MA X = AX.
Prove que MA e um operador ortogonal.

14.13. Se uma matriz ortogonal e triangular, prove que ela e diagonal e seu quadrado e igual a` matriz identidade.
finita, com produto
14.14. Seja E um espaco vetorial de dimensao
S : E E chama-se uma semelhanca quando
interno. Uma funcao

existe um numero
r > 0 (chamado a razao
de semelhanca) tal que
|S(u)S(v)| = r|uv| para quaisquer u, v E. Se S e uma semelhanca
r, prove que existem um operador ortogonal A : E E e um
de razao
vetor b E tais que S(v) = r.Av + b para todo v E.
14.15. Seja A : E E um operador linear que transforma vetores

unitarios
em vetores unitarios.
Prove que A e ortogonal. Deduza
da que se S : E E e um operador linear invertvel que transforma
dois quaisquer vetores de mesmo comprimento em vetores de mesmo
S e uma semelhanca.
comprimento entao

Sec
ao 14

Operadores Ortogonais

187

14.16. Seja S : E E um operador linear invertvel que preserva

angulos,
isto e
hu, vi
hSu, Svi
=
|Su| |Sv|
|u| |v|
quando u 6= 0 e v 6= 0. Prove que S transforma vetores ortogonais de
mesmo comprimento em vetores ortogonais de igual comprimento.
Conclua que S e uma semelhanca.
14.17. Com o produto interno introduzido no Exerccio 11.17, prove

que os operadores ortogonais tem norma igual a n, onde n= dim E.


polar de um operador e unica,

14.18. Se a decomposicao
prove que
esse operador e invertvel.
14.19. Seja A : R3 R3 dado por A(x, y, z) = (2x + 3y 6z, 6x +

2y + 3z, 3x + 6y + 2z). Mostre que A e uma semelhanca de razao


7. Sabe-se que ou existe v R3 com Av = 7v ou existe w R3
com Aw = 7w. Ache um autovetor de A, complete-o de modo a
obter uma base ortonormal de R3 e determine a matriz do operador
A nesta base.
14.20. Seja a = [a1 a2 . . . an ] M(1 n) tal que a21 + + a2n = 1.
ortogonal.
Prove que aT a M(n n) e a matriz de uma projecao

Determine a imagem e o nucleo


dessa projecao.
14.20. Pode uma matriz ortogonal ser anti-simetrica?
14.21. Seja a uma matriz ortogonal n n.
(a) Prove que A : M(n n) M(n n), definida por Ax = axT +
linear cuja imagem e o conjunto das
xaT , e uma transformacao
matrizes simetricas.
(b) Prove que, dada uma matriz simetrica s M(nn), o conjunto
das matrizes x tais que axT + xaT = s e uma variedade afim de
n(n 1)/2 no espaco vetorial M(n n).
dimensao
todos
14.22. Ache uma matriz ortogonal 4 4 cujos elementos sao
1
da forma 2 .

188

Operadores Ortogonais

Sec
ao 14

14.23. Seja v = (a, b, c) um vetor unitario


diferente de e3 . Mostre
que existe x tal que a matriz abaixo e ortogonal:

a
b
c
bx ax
0 .
acx bcx 1/x
14.24. Um operador auto-adjunto N : E E chama-se negativo

quando hNv, vi < 0 para todo v 6= 0 em E. Determine a (unica)


de polar de um operador negativo N.
composicao
14.25. Prove que os elementos da diagonal de uma matriz negativa
numeros

sao
negativos.


34 12
.
14.26. Prove que a matriz abaixo e negativa
12 41


2 2
polar da matriz
14.27. Ache a decomposicao
.
2 1
14.28. Sejam a M(r r) e c M(s s) matrizes ortogonais.
Prove que a matriz (r + s) (r + s) abaixo e ortogonal se, e somente
se, b = 0:


a b
.
0 c
polar da matriz
14.29. Obtenha a decomposicao

2 1 1
2 1 1 .
0
1 1

15
Operadores Normais
(Caso Real)

Estudaremos agora o tipo mais geral de operadores (num espaco vetorial de dimensao
finita, munido de produto interno) para os quais
vale um resultado analogo

ao do Teorema 14.3, ou seja: existe uma


base ortonormal na qual a matriz do operador comeca na forma diagonal, seguida por uma serie de blocos 2 2 da forma




.

Eles sao
os operadores normais. Na Secao
21 veremos que, nos espac os vetoriais complexos, os operadores normais sao
precisamente
aqueles que admitem uma base ortonormal de autovetores.
todos os espacos vetoriais tem dimensao
finita e sao

Nesta secao,
munidos de produto interno.
Um operador linear A : E E chama-se normal quando comuta
com seu adjunto, isto e , quando AA = A A.
Uma matriz quadrada a diz-se normal quando comuta com sua
transposta, isto e , quando aaT = aT a. Portanto um operador e normal se, e somente se, sua matriz relativamente a uma base ortonormal e uma matriz normal.

190

Operadores Normais (Caso Real)

Sec
ao 15

Exemplo 15.1. Os operadores auto-adjuntos e os ortogonais sao


normais. Analogamente, as matrizes simetricas e as ortogonais qua normais.
dradas sao


a c
Exemplo 15.2. (Matrizes normais 2 2.) Seja a =
uma
b d
matriz normal 2 2. Temos

 2
a + c2 ab + cd
T
aa =
ab + cd b2 + d2
e


a2 + b2 ac + bd
.
a a=
ac + bd c2 + d2
T

Logo a e normal se, e somente se, b2 = c2 (isto e , b = c) e ab +

cd = ac + bd. Se b = c, a matriz a e simetrica. Caso contrario,


de ab + cd = ac + bd resulta
temos c = b (com b 6= 0). Entao,

b(a d) = b(d a), donde a = d. Portanto, as unicas


matrizes
as simetricas e as da forma
normais 2 2 sao


a b
a=
.
b a

0 6= r = a2 + b2 . Logo existe R tal


Observe que se a 6= 0 entao
a matriz a se escreve como
que cos = a/r e sen = b/r. Entao
a=r


cos sen
.
sen
cos

Isto nos permite concluir que uma matriz normal 22 ou e simetrica


ou e a matriz de uma semelhanca no plano.
Um operador linear A : E E chama-se anti-simetrico quando

A = A, ou seja, hAu, vi = hu, Avi para u, v E quaisquer. Para

que A seja anti-simetrico e necessario


e suficiente que sua matriz
a uma base ortornormal de E seja anti-simetrica, isto
[aij ] em relacao
e , aij = aji para quaisquer i, j = 1, 2, . . . , n. Em particular, aii = 0.
1, todo operador anti-simetrico e igual a
Num espaco de dimensao

zero; logo o unico


autovalor possvel de um operador anti-simetrico
e 0.
Evidentemente, todo operador anti-simetrico e normal.

Sec
ao 15

Operadores Normais (Caso Real)

191

Teorema 15.1. Seja A : E E um operador normal. Existe uma


base ortonormal de E na qual a matriz de A tem a forma

1
..

.
r
1 1
1 1
..

.
s
s

s
s

onde os elementos nao


expostos sao
iguais a zero.

Demonstracao:
Sejam 20 , 21 , . . . , 2k os autovalores distintos do

operador nao-negativo
AA = A A : E E, com 0 = 0 e i > 0
se i 1. Para cada i = 0, 1, . . . , k, seja Ei = N (AA 2i I) o autosubespaco correspondente ao autovalor 2i . O Teorema Espectral
nos afirma que E = E0 E1 Ek . Alem disso, se u Ei e
hu, vi = 0. Da igualdade AA = A A rev Ej com i 6= j entao
sulta imediatamente que cada subespaco Ei e invariante por A e por
AA em Ei coincide com 2i I. Logo o opeA . Ora, por definicao,
rador Bi : Ei Ei , definido para i = 1, 2, . . . , k por Bi v = (1/i )Av,
e ortogonal. Tomemos em E0 uma base ortonormal qualquer. (Observe que E0 = N (AA ) = N (A) = N (A ).) Tomemos ainda, em
cada subespaco Ei (i = 1, . . . , k) uma base ortonormal na qual a matriz do operador Bi tenha a forma dada no Teorema 14.3. Juntando
todas essas bases e ordenando seus elementos na forma adequada,
obtemos uma base de E na qual a matriz do operador A e do tipo
desejado.

Observacoes:

os autovalores de A. Dentre eles, os


1. Os numeros
1 , . . . , r sao

nao-nulos
tem a forma i = j , onde j e um
q valor singular de A.
j =
Os demais valores singulares de A sao

2j + 2j (j = 1, . . . , s).

possui autovetores, a matriz do Teorema 15.1 nao


apre2. Se A nao
senta a parte superior (diagonal). Por outro lado, se A e auto-adjunto
existem os blocos 2 2 da parte inferior.
nao

192

Operadores Normais (Caso Real)

Sec
ao 15

Corolario.
Seja A : E E um operador anti-simetrico. Existe uma
base ortonormal de E relativamente a` qual a matriz de A tem a forma

..

1
0

..

0 s
s
0

Segue-se imediatamente que o posto de um operador anti-sime


trico e um numero
par.
Exemplo 15.4. Seja A : R3 R3 um operador anti-simetrico. Pelo

corolario
acima, existe uma base ortonormal {u1 , u2 , u3 } R3 tal que
Au1 = 0, Au2 = u3 e Au3 = u2 . Em termos do produto vetorial

classico
de R3 , podemos escolher o sinal de u1 de modo que se tenha
se pusermos w = u1 , teremos
u1 u2 = u3 e u3 u1 = u2 . Entao,
0 = Au1 = u1 w, Au2 = u3 = (u2 u1 ) = u2 w e Au3 =
u2 = (u3 u1 ) = u3 w. Assim, A coincide com o operador linear

v 7 v w nos vetores basicos


u1 , u2 , u3 . Conclumos que, para todo
v R3 , vale Av = v w. Em resumo: todo operador anti-simetrico
no espaco R3 consiste no produto vetorial por um vetor fixo w R3 .

Exerccios
do operador A como soma do
15.1. Seja A = B + C a decomposicao
operador auto-adjunto B com o operador anti-simetrico C. Prove que
A e normal se, e somente se, BC = CB.
iguais
15.2. Prove que os operadores auto-adjuntos S, T : E E sao
se, e somente se, hSv, vi = hTv, vi para todo v E. Use este fato para
provar que A : E E e normal se, e somente se, |Av| = |A v| para
todo v E.

15.3. Se dim E = n e o operador normal A : E E tem n autovalores


distintos, prove que A e auto-adjunto.

Sec
ao 15

Operadores Normais (Caso Real)

193

15.4. Sejam u1 , . . . , un as linhas e v1 , . . . , vn as colunas de uma matriz a. Prove que hui , uj i = hvi , vj i para quaisquer i, j a e normal.
P : E E e um operador normal se, e
15.5. Prove que uma projecao

somente se, P = P . Resultado analogo


para uma involucao.
15.6. Seja A : E E um operador normal. Prove que N (A) = N (A )
e conclua que N (A) = Im(A) = Im(A ).
normais.
15.7. Entre as matrizes abaixo, determine quais sao

9 3 6
6
a = 3 9
6 6 9

1 2 3
b = 3 2 2
2 3 5

1 0
0
c = 0 1 2
0 2 1

15.8. Sejam A, B : E E operadores normais. Supondo AB = 0,


prove:

(a) A imagem de B esta contida no nucleo


de A;

(b ) A imagem de B esta contida no nucleo


de A ;

(c) A imagem de A esta contida no nucleo


de B.
que BA = 0.
Conclua entao
normais e AB = BA, prove que AB e normal.
15.9. Se A, B : E E sao

15.10. De exemplos de operadores normais A, B tais que A + B nao


e normal. De tambem um exemplo em que AB e
e normal e AB nao
normal mas AB 6= BA.

15.11. Seja A : E E um operador linear no espaco E, de dimensao


finita, com produto interno. Supondo I + A e I A invertveis, defina
S = (I + A)(I A)1 . Prove que S e ortogonal se, e somente se, A e
anti-simetrico.
15.12. Seja o operador A : R3 R3 dado por A(x, y, z) = (y + 2z, x +
3z, 2x 3y). Escreva sua matriz na base canonica e veja que A e
anti-simetrico. Por escalonamento, ache um vetor u R3 que e uma
base de N (A). Obtenha ainda uma base {v, w} N (A) e escreva a
matriz de A na base {u, v, w} R3 .

194

Operadores Normais (Caso Real)

Sec
ao 15

15.13. Seja A : R4 R4 o operador linear definido por

A(x, y, z, t) = (y z + t, x z + 2t, x + y t, x 2y + z).

Mostre que A e anti-simetrico.


Ache bases ortonormais
{u, v} N (A) e {u , v } N (A) . Determine a matriz de A na base
{u, v, u , v } R4 .
15.14. Se o operador A : E E e anti-simetrico, prove que todo vetor
v E e perpendicular a` sua imagem Av. Se E = R2 , prove que A e

de 90 R : R2 R2 .
um multiplo
R da rotacao

15.15. Seja

0
c b
a
a = c 0
b a 0

a matriz do operador A : R3 R3 . Mostre que, para todo v R3


tem-se Av = v w, onde w = (a, b, c).

15.16. Seja A : E E um operador normal. Se Au = u e Av = v


com 6= , prove que hu, vi = 0.

15.17. Sejam
 u1, ..., un os vetores-linha e v1 , ..., vn os vetores-coluna
a b
da matriz
, onde a M(p p). Se |ui | = |vi | para i = 1, . . . , n,
0 c
prove que b = 0 M(p (n p)).

15.18. Se um subespaco F E e invariante pelo operador normal


A : E E, prove que F tambem e invariante por A e que o complemento ortogonal F e ainda invariante por A e A .

15.19. Seja F E um subespaco invariante pelo operador normal


de A ao subespaco F e ainda um
A : E E. Prove que a restricao
operador normal.

16
Pseudo-inversa

A nocao
de pseudo-inversa e o estudo de suas propriedades constituem uma maneira simples e atraente de aplicar alguns dos resultados obtidos nas seco es anteriores. Do ponto de vista pratico,

esta
nocao
responde uma pergunta bastante natural, que ocorre de fato

em diferentes aplicaco es da Algebra


Linear: dada A L(E; F) e dado
b F, se e impossvel achar x E tal que Ax = b, qual e , ou melhor,
quais sao
os vetores x E tais que o erro |Ax b| e o menor possvel
e qual entre esses vetores x e a solucao
o tima, ou seja, tem a menor
norma?
Sabemos que um sistema de m equaco es lineares com n incognitas pode ser interpretado como o problema de achar um vetor x Rn
linear cuja
tal que Ax = b, onde A : Rn Rm e a transformacao
matriz (nas bases canonicas de Rn e Rm ) e dada pelos coeficientes do
os numeros

que
sistema e b Rm e o vetor cujas coordenadas sao
figuram nos segundos membros das equaco es do sistema.
pertence a` imagem de A, o sistema Ax = b evidenteSe b nao
possui solucao.
Faz sentido, entretanto, procurar em Rn
mente nao
um vetor x tal que Ax esteja o mais proximo possvel de b e, dentre
de
esses vetores x, aquele de menor norma. Isto nos leva a` nocao
linear.
pseudo-inversa de uma transformacao
linear entre espacos vetoriais
Seja A : E F uma transformacao
finita, munidos de produto interno. A pseudo-inversa
de dimensao

196

Pseudo-inversa

Sec
ao 16

de A e a correspondencia A+ : F E que associa a cada y F o


vetor A+ y = x E de menor norma entre todos os vetores x E que

tornam mnima a distancia


|y Ax|. (Fig. 16.1.)

Figura 16.1.
Descrevamos como opera a pseudo-inversa A+ : F E. Dado
ortogonal
y F, o vetor de Im(A) mais proximo de y e a projecao
yo de y sobre Im(A), caracterizada pelo fato de que yo Im(A)
e y yo e perpendicular a (todos os vetores de) Im(A), ou seja,
y yo N (A ). Como yo Im(A), existem vetores x E tais
da forma x + z, onde
que Ax = yo . Se x e um deles, os demais sao
z N (A), pelo Teorema 6.4. Dentre estes vetores x + z, o de me ortogonal de x sobre N (A)
nor norma e x xo , onde xo e a projecao

para todo
pois sendo x xo perpendicular a N (A), Pitagoras
nos da,
z N (A):
|x + z|2 = |x xo + z + xo |2 = |x xo |2 + |z + xo |2 |x xo |2 .
(pois z + xo N (A), logo e perpendicular a x xo ). Portanto A+ y =
x xo . Note que, sendo ortogonal a N (A), A+ y pertence a Im(A ).

Na realidade, A+ y e o unico
vetor da imagem de A tal que AA+ y =
yo . (Com efeito, A, restrita a Im(A ), e injetiva, visto que Im(A )
N (A) = {0}.)
da pseudo-inversa de uma transformacao
linear
Esta definicao
bem definida A+ : F E,
A : E F apresenta-a como uma funcao
deixa claro
com as propriedades geometricas procuradas, porem nao
+
linear. Usando o Teorema 13.10, aprese A e uma transformacao
A : F E, que certasentaremos em seguida uma transformacao
mente e linear mas que usa certas bases escolhidas em E e F, de

Sec
ao 16

Pseudo-inversa

197

parece estar bem definida. Em seguida, provaremos


modo que nao
depende das escolhas de
que A = A+ , logo A+ e linear e A nao
bases.
linear A : E F. Pelo Teorema
Seja r o posto da transformacao
13.10, existem bases ortonormais {u1 , . . . , un } E, {v1 , . . . , vm } F e

numeros
positivos 1 , . . . , r tais que Aui = i vi , A vi = i ui para
1 i r e Aui = 0, A vi = 0 para i > r. Pelo Teorema 4.1, existe

linear A : F E tal que


uma unica
transformacao
A v i =

1
ui para 1 i r
i

e A vi = 0 quando i > r.

Teorema 16.1. A = A+ = pseudo-inversa de A.


Devemos mostrar que, para todo y F, o vetor A y
Demonstracao:
e igual a A+ y, isto e , tem as seguintes propriedades: (1) AA y = yo
e o vetor de Im(A) mais proximo de y; (2) A y e o vetor de menor
equivanorma em E cuja imagem por A e yo . Estas afirmaco es sao

lentes a (1 ) (y AA y) Im(A), ou seja, y AA y N (A ), ou


ainda, A y = A AA y; (2 ) A y Im(A ). Evidentemente, basta verificar a validez de (1 ) e (2 ) quando y e qualquer um dos vetores

basicos
v1 , . . . , vm . Nestes casos, porem, (1 ) e (2 ) resultam imedia de A .
tamente da definicao

Corolario
1. AA+ : F F e a projecao
ortogonal sobre Im(A) e
+
A A : E E e a projecao
ortogonal sobre Im(A ).

Com efeito, temos AA vi = vi se 1 i r, A vi = 0 se


i > r, A = A+ e {v1 , . . . , vr } Im(A) e uma base. Analogamente

para A+ A. (O Corolario
1 tambem resulta diretamente da definicao
+
de A .)

Corolario
2. Se A : E F e injetiva entao
A+ = (A A)1 A .

Com efeito, se A e injetiva, o operador A A : E E e invertvel.

(Corolario
do Teorema 13.9). A igualdade alegada significa que
A (AA+ ) = A , o que foi estabelecido na prova do Teorema 16.1.
(1 ).)
(Forma final da condicao

Corolario
3. Se A : E F e sobrejetiva entao
A+ = A (AA )1 .

Com efeito, ainda pelo Corolario


do Teorema 13.9, A sobrejetiva

implica que o operador AA : F F e invertvel e a igualdade alegada

198

Pseudo-inversa

Sec
ao 16

equivale a (A+ A)A = A . Isto e evidente se substituirmos A+ por


A (vide prova do Teorema 16.1) e testarmos a igualdade em cada
um dos vetores da base {v1 , . . . , vm } F.

Corolario
4. Se A : E F e invertvel entao
A+ = A1 .
Evidente.

A+ e uma
Segue-se dos Corolarios
2 e 3 que se A e injetiva entao
A+ e uma inversa
inversa a` esquerda de A, e se A e sobrejetiva entao
a` direita de A.

Corolario
5. Para toda transformacao
linear A : E F, tem-se

+
+

(A ) = (A ) : E F.

Com efeito, as bases ortonormais fornecidas pelo Teorema 13.10


de A tanto servem para A como para A . Se
e usadas na definicao
as utilizarmos com A em vez de A, obteremos (A ) ui = (1/i )vi se
1 i r e (A ) ui = 0 se i r + 1. Mas e claro que (A ) opera

do mesmo modo sobre os vetores basicos


ui . Logo (A ) = (A ) e da

segue o corolario.
e injetiva, logo
Exemplo 16.1. Se A : E F e ortogonal entao
A+ = (A A)1 A . Mas a ortogonalidade de A significa A A = IE ,
logo A+ = A .
Exemplo 16.2. Seja A : R2 R3 dada por A(x, y) = (x, y, 0). Como
A e ortogonal, temos A+ = A . A matriz de A tem colunas (1, 0, 0) e
as linhas da matriz de A , portanto A (x, y, z)
(0, 1, 0), logo estas sao
= (x, y). Portanto a pseudo-inversa de A e A+ : R3 R2 , dada por
A+ (x, y, z) = (x, y).

Exemplo 16.3. Definamos A : R2 R3 pondo A(x, y) = (x, y, x +


y). Como A e injetiva, sua pseudo-inversa e A+ = (A A)1 A . As
(1, 0, 1) e (0, 1, 1),
colunas da matriz de A (linhas da matriz de A ) sao
logo
A (x, y, z) = (x + z, y + z)
e da
A A(x, y) = (2x + y, x + 2y).
Para determinar (A A)1 (x, y) = (s, t), resolvemos o sistema
(A A)(s, t) = (x, y), ou seja 2s+t = x, s+2t = y, no qual as incognitas

Sec
ao 16

Pseudo-inversa

199

s, t. Encontramos
sao
s=

(2x y)
3

t=

(2y x)
.
3

Portanto

1
(A A)1 (x, y) = (2x y, 2y x).
3
3
Assim, para qualquer (x, y, z) R temos
A+ (x, y, z) = [(A A)1 A ](x, y, z)
= (A A)1 (x + z, y + z)
1
= (2x y + z, 2y x + z).
3

Exemplo 16.4. Seja B : R3 R2 dada por

1
B(x, y, z) = (2x y + z, x + 2y + z).
3

Temos as matrizes de posto 2:

2 1 1
1

b=
3
1 2 1

2 1
1
bT = 1 2 .
3
1
1

Logo B e sobrejetiva e B+ = B (BB )1 . Como a matriz de B e bT ,


temos
1
B (x, y) = (2x y, x + 2y, x + y)
3
2
para qualquer (x, y) R . Segue-se que BB : R2 R2 e dado por
1
BB (x, y) = B(2x y, x + 2y, x + y)
3
1
= (6x 3y, 3x + 6y)
9
1
= (2x y, x + 2y).
3

Para determinar (BB )1 (x, y) = (s, t), resolvemos o sistema


BB (s, t) = (x, y), isto e , 2s t = 3x, s + 2t = 3y, nas incognitas
s, t, e encontramos s = 2x + y, t = x + 2y, portanto
(BB )1 (x, y) = (2x + y, x + 2y).

200

Pseudo-inversa

Sec
ao 16

finalmente:
Isto nos da,
B+ (x, y) = B (BB )1 (x, y)
= B (2x + y, x + 2y)
1
= (3x, 3y, 3x + 3y),
3
ou seja, B+ (x, y) = (x, y, x + y).
A do Exemplo 16.3, vemos que B = A+
Retomando a transformacao
+
+
e constatamos que (A ) = B+ = A.
A++ = A, verificada no caso particular acima, e verdaA relacao
deira em geral. Isto pode ser visto facilmente examinando a defini da transformacao
A e notando que (A ) = A. Como A = A+ , o
cao
resultado segue da.

Exerccios
16.1. Determine a pseudo-inversa de cada uma das seguintes transformaco es lineares:
nula 0 : E F;
(a) A transformacao

ortogonal P : E E sobre o subespaco F;


(b) A projecao

acima, considerada como transformacao


li(c) A mesma projecao
near de E sobre F;

(nao-ortogonal)

(d) A projecao
P : R2 R2 , sobre a reta F, paralelamente a` reta G. (Descreva P+ geometricamente.)
linear A : E F e todo 6= 0, prove
16.2. Para toda transformacao
que ( A)+ = 1 A+ .

16.3. Identifique o nucleo


e a imagem da pseudo-inversa de uma
linear A : E F.
transformacao
linear A : E F, prove que, para todo
16.4. Dada a transformacao
+

w F, tem-se A AA w = A w.

Sec
ao 16

Pseudo-inversa

201

16.5. Sejam A : E F e B : F G transformaco es lineares. Se


Im(A) = Im(B ), prove que (BA)+ = A+ B+ .

16.6. Dado o operador A : E E, prove:

(a) Se A e auto-adjunto, A+ tambem e .

(b) Se A e normal, A+ tambem e .

(c) Se A e nao-negativo,
A+ tambem e .
16.7. Dados os vetores linearmente independentes v1 , . . . , vr Rn ,
seja a M(n r) a matriz que os tem como colunas. Prove que a
ortogonal de um vetor qualquer x Rn sobre o subespaco
projecao
gerado por v1 , . . . , vr e Px = a(aT a)1 aT x, onde identificamos o vetor

x Rn com a matriz x M(n 1) cuja unica


coluna e x.
ortogonal do
16.8. Use a formula acima para determinar a projecao
vetor (1, 2, 3) sobre o plano gerado pelos vetores (1, 1, 1) e (1, 1, 1).
linear. Prove que, dado
16.9. Seja A : Rn Rm uma transformacao
A Ax = A b sempre possui solucao.

qualquer b Rm , a equacao

e invertvel.)
(Uma infinidade delas se A A nao
16.10. Prove as seguintes propriedades da pseudo-inversa de uma
linear A : E F:
transformacao
(a)

AA+ A = A

(b)

A+ AA+ = A+

(c)

(AA+ ) = AA+

(d)

(A+ A) = A+ A.

16.11. Seja A : R2 R3 dada por A(x, y) = (x, y, 2x + 3y). Determine


a pseudo-inversa A+ : R3 R2 .

linear A : R3 R2 ,
16.12. Ache a pseudo-inversa da transformacao
sabendo que A(x, y, z) = (x + y, y + z).

202

Pseudo-inversa

Sec
ao 16

16.13. Determine a pseudo-inversa de uma matriz diagonal d =


[dij ] M(n n). (Isto significa, naturalmente, a matriz de D+ ,
onde D : Rn Rn e o operador linear cuja matriz na base canonica
e d.) Considere explicitamente o caso em que a diagonal de d e
(1, 0, 2, 0, 1/3).
linear (nao
necessariamente injetiva)
16.14. Dada a transformacao
A : E F, sejam P : E E e Q : F F as projeco es ortogonais sobre
Im(A ) e Im(A) respectivamente. Interprete e demonstre a igualdade A+ = PA1 Q.
16.15. Defina o operador A : R2 R2 pondo A(x, y) = (x y, x y).
Determine a matriz de A+ : R2 R2 na base canonica. Ache o vetor
v R2 de menor norma tal que Av esta o mais proximo possvel de
w = (3, 5).

linear
16.16. Dado o vetor nao-nulo
a E, defina a transformacao

A : R E pondo A 1 = a. Mostre que A : E R e definida por


A+ = (A A)1 A , conclua que
A w = ha, wi e, usando a expressao
+
+
A : E R e dada por A w = ha, wi /|a|2 .

16.17. Fixado o vetor nao-nulo


b E, defina B : E R pondo B w =
+

hb, wi. Mostre que B = B (BB )1 para concluir que B+ : R E


cumpre B+ 1 = b/|b|2 .

16.18. Sejam A : R E e B : E R definidas por A 1 = a, B w =


vetores fixados de tal modo que ha, bi =
hb, wi, onde a, b E sao
6 0.
+
+
+
Prove que as transformaco es lineares (BA) : R R e A B : R R
dadas por
sao
(BA)+ 1 =

1
ha, bi

e (A+ B+ ) 1 =

ha, bi
.
|a|2 |b|2

Conclua que, em geral, se tem (BA)+ 6= A+ B+ . De um exemplo concreto desta desigualdade, com A : R R2 e B : R2 R.

dos dois exerccios anteriores, prove que


16.19. Com a notacao
+
+
+
(AB) = B A .

Sec
ao 16

Pseudo-inversa

203

linear de posto 1 dada por


16.20. Seja A : E F a transformacao
vetores 6= 0. Sabendo que
Av = hv, ai b, onde a E e b F sao
A w = hw, bi a para todo w F (cfr. Exerccio 11.17), mostre que
A+ w =

hw, bi
a
|a|2 |b|2

para todo w F.

16.21. Sejam A : Rm Rn sobrejetiva e B : Rn Rm injetiva. Prove


do Exerccio 16.19.)
que (BA)+ = A+ B+ . (Generalizacao

P : E E e ortogonal se, e somente se,


16.22. Prove que a projecao
P+ = P.

16.23. Use o Exerccio 16.20 para calcular a pseudo-inversa da


linear A : R2 R3 que tem a matriz
transformacao

1 3
a = 4 12 .
1 3
16.24. Sejam v1 , v2 , v3 , v4 , v5 R4 as colunas de uma matriz [aij ]
M(4 5). Suponha que v1 e v2 sejam L.I. e que v3 = b13 v1 + b23 v2 ,
v4 = b14 v1 + b24 v2 , v5 = b15 v1 + b25 v2 . Prove que

a11 a12 
a11 a12 a13 a14 a15


a21 a22 a23 a24 a25


= a21 a22 1 0 b13 b14 b15 .

a31 a32 0 1 b23 b24 b25


a31 a32 a33 a34 a35
a41 a42
a41 a42 a43 a44 a45

Mostre que este e um metodo geral para exprimir toda matriz m n


de posto r como produto de uma matriz m r por uma matriz r n,

ambas de posto (maximo)


igual a r. Compare com o Exerccio 6.29,
matricial. Mostre que as matrizes 4
do qual esta e uma versao
natural daquele
2 e 2 5 acima foram obtidas a partir da solucao
exerccio. Deduza da (com auxlio do Exerccio 16.21) um processo
para calcular a pseudo-inversa de qualquer matriz.

17
T
opicos Matriciais

Salvo o item C e a observacao


final do item G, os assuntos tratados
nesta secao
nao
serao
necessarios

para entender as seguintes. Alguns


deles sao
traduco es, para a linguagem das matrizes, de teoremas e
metodos apresentados nas seco es precedentes, outros sao
topicos matriciais interessantes em si mesmos ou temas classicos

do calculo

matricial que se tem revelado uteis,

especialmente sob o ponto de vista


computacional.

17.A Matrizes de Gram


finita, munido de produto
Seja E um espaco vetorial de dimensao
interno. A matriz de Gram dos vetores v1 , . . . , vk E e a matriz
g = [gij ] M(k k), onde gij = hvi , vj i. Quando precisarmos ser mais
explcitos, escreveremos g = g(v1 , . . . , vk ).
Dada uma base U = {u1 , . . . , un } E, seja a = [aij ] M(n k) a
a` base U , isto e :
matriz das coordenadas dos vetores vj em relacao
vj = a1j u1 + + anj un

para j = 1, . . . , k.

Seja ainda h = [hij ] M(n n) a matriz de Gram da base U , isto e ,


para i, j = 1, . . . , k, temos (escrevendo mij para
hij = hui , uj i. Entao,

Sec
ao 17

T
opicos Matriciais

205

indicar o ij-esimo elemento de uma matriz m):


* n
+
n
n
X
X
X
ari asj hrs
gij = hvi , vj i =
asj us =
ari ur ,
=

ari

r=1

r,s=1

s=1

r=1

n
X

n
X

hrs asj

s=1

n
X

(aT )ir (ha)rj = (aT ha)ij

r=1

portanto g = aT ha.
Em particular, se tomarmos uma base ortonormal {u1 , . . . , un }
E, teremos h = In , portanto a matriz de Gram g se escreve como
g = g(v1 , . . . , vk ) = aT a,
a uma
onde a e a matriz das coordenadas dos vetores vj em relacao
base ortonormal de E. Da resultam:
1) Toda matriz de Gram e nao-negativa;

2) A matriz de Gram g = g(v1 , . . . , vk ) e positiva (isto e , invertvel) se,


e somente se, os vetores v1 , . . . , vk sao
L.I. .
Reciprocamente, se uma matriz g = [gij ] M(k k) admite uma
do tipo g = aT a, onde a = [aij ] M(n k) entao,

decomposicao
tomando uma base ortonormal {u1 , . . . , un } E e escrevendo
vj =

n
X

aij ui

(j = 1, . . . , k),

i=1

obtemos vetores v1 , . . . , vk E tais que


hvi , vj i =

n
X
k=1

aki akj = (aT a)ij = gij ,

logo g = g(v1 , . . . , vk ) e a matriz de Gram dos vetores v1 , . . . , vk . Isto


leva a mais uma propriedade das matrizes de Gram:
3) Toda matriz nao-negativa

g = [gij ] M(k k) e a matriz de Gram


de uma lista de vetores v1 , . . . , vk E.

Com efeito, existe a M(kk) simetrica (e nao-negativa)


tal que
2
T
g = a = a a (Teorema 13.8).

206

T
opicos Matriciais

Sec
ao 17

17.B Matrizes Triangulares


Uma matriz t = [tij ] M(n n) diz-se triangular superior quando
tij = 0 para i > j e triangular inferior quando tij = 0 para i < j.
Trataremos primordialmente de matrizes triangulares superio analogas

res. As propriedades das triangulares inferiores sao


e se
provam analogamente.
Uma matriz triangular superior e a matriz de um operador linear
T : Rn Rn tal que hei , Tej i = 0 para i > j. Se chamarmos de Fi
Rn o subespaco vetorial formado pelos vetores (x1 , . . . , xi , . . . , 0) cujas

nulas, a matriz do operador T : Rn


ultimas
n i coordenadas sao
Rn (na base canonica) e triangular superior se, e somente se, todos
invariantes por T .
os subespacos Fo Fn sao
hei , Tej i = 0 para i > j significa que, para
Com efeito, a condicao

nulas, ou seja,
cada j, as ultimas
n j coordenadas do vetor Tej sao
que Tej Fj para j = 1, . . . , n. Isto e o mesmo que dizer que T (Fj ) Fj
para todo j.
Seguem-se algumas propriedades das matrizes triangulares superiores:
1) O produto de duas matrizes triangulares superiores e ainda uma
matriz triangular superior.
Com efeito, se o subespaco Fi Rn e invariante por cada um dos
Fi e invariante pelo produto ST .
operadores S, T : Rn Rn entao
2) Uma matriz triangular superior t = [tij ] e invertvel se, e somente
se, os elementos tii da sua diagonal sao
todos diferentes de zero. No
caso afirmativo, a inversa t1 e triangular superior e os elementos de
sua diagonal sao
t1
ii .

6= 0, dado um vetor nao-nulo

Com efeito, se todos os tii sao


v Rn
n
provemos que Tv 6= 0 (onde T e o operador de R cuja matriz na base
canonica e t). Seja v = x1 e1 + + xr er , com xr 6= 0. Como her , Tei i = 0
para i < r, temos
X
her , Tvi =
her , xi Tei i = xr her , Ter i = xr trr ,
ir

portanto her , Tvi =


6 0, e da Tv 6= 0. Assim t e invertvel.
para cada
Reciprocamente, se t (ou seja, T ) e invertvel entao,
T : Fi Fi , de T ao subespaco Fi , e tambem
i = 1, . . . , n, a restricao

Sec
ao 17

T
opicos Matriciais

207

invertvel, logo sobrejetiva. Se fosse tii = hei , Tei i = 0, teramos,


como acabamos de ver, para todo v = x1 e1 + + xi ei Fi , hei , Tvi =
xi tii = 0, logo Tv Fi1 . Isto significa que T (Fi ) Fi1 , contradizendo
diferentes
a sobrejetividade de T : Fi Fi . Portanto todos os tii sao
de zero.
Se a matriz triangular superior t e invertvel, o operador linear
T : Rn Rn tambem e . Cada um dos subespacos Fi = S(e1 , . . . , ei )
Rn sendo invariante por T e tambem invariante por T 1 . (Com efeito,
A(F) F A(F) = F A1 (F) = F.) Logo a matriz t1 , do
operador T 1 , e tambem triangular superior. Escrevendo t1 = [sij ],
para cada i = 1, . . . , n:
a igualdade t1 t = In nos da,
1

1 = (t t)ii =

n
X

sik tki = sii tii ,

k=1

pois sik = 0 se i > k e tki = 0 se k > i. Logo sii = 1/tii .


3) Os autovalores de uma matriz triangular superior t = [tij ]
M(n n) sao
os elementos tii da sua diagonal.

aqueles do operador
Por definicao,
os autovalores de t sao
n
n
T : R R cuja matriz na base canonica e t.
Em primeiro lugar, se e um autovalor de t, isto e , se existe
n 6= 0 em Rn tal que Tv = v, seja v = x1 e1 + + xr er , com xr 6= 0.
como her , Tei i = 0 se i < r, temos
Entao,
xr = her , vi = her , Tvi

= her , x1 Te1 + + xr Ter i

= her , xr Ter i = trr xr .

Segue-se que = trr . Assim, somente os numeros


tii podem ser
autovalores de T .
de fato, autovalores de t. Com
Em segundo lugar, todos os tii sao,
efeito, a matriz t tii In e triangular superior e o i-esimo elemento
e invertvel. Consequentemente,

de sua diagonal e zero, logo nao


tii
e um autovalor de t.
4) Seja U = {u1 , . . . , un } E uma base ortonormal, obtida pelo processo de Gram-Schmidt a partir da base V = {v1 , . . . , vn } E. A
matriz de passagem de V para U e triangular superior e seus autovalores sao
todos positivos.

208

T
opicos Matriciais

Sec
ao 17

Com efeito, escrevendo


uj =

n
X

pij vi ,

i=1

sabemos que cada uj pertence ao subespaco vetorial gerado por


v1 , . . . , vj , logo uj = p1j v1 + + pjj vj . Isto mostra que a matriz de
passagem p = [pij ] M(n n) e triangular superior. Alem disso,
como uj = |wj |1 wj , onde o vetor wj tem a forma
wj = vj

ij vi ,

i<j

vemos que pjj = |wj |1 e positivo, para cada j = 1, . . . , n. Como vimos

os autovalores da matriz p.
acima, esses numeros
pjj sao

de Cholesky
17.C Decomposicao
Mostraremos que toda matriz positiva a = [aij ] M(n n) pode ser
expressa como o produto a = tT t, onde t M(n n) e uma matriz
todos positivos.
triangular superior cujos elementos da diagonal sao
a = tT t chama-se a decomposicao
A expressao
de Cholesky da matriz a.
Mais adiante (17.G) daremos outra prova da existencia da de de Cholesky, por um metodo que permite obter a matriz
composicao
t por escalonamento a partir de a.
a = tT t
Agora, demonstraremos a possibilidade da decomposicao
usando Gram-Schmidt e a existencia da raiz quadrada de a quando
a > 0 (isto e , quando a e positiva).
Como vimos acima (17.A) existem vetores v1 , . . . , vn Rn tais
que aij = hvi , vj i, ou seja, a = g(v1 , . . . , vn ) e a matriz de Gram dos
vetores v1 , . . . , vn , os quais formam uma base de Rn , pois a > 0.
Pelo processo de Gram-Schmidt, obtemos uma base ortonormal
{u1 , . . . , un } Rn a partir de v1 , . . . , vn . Para i, j = 1, . . . , n, temos
ui =

X
r

pri vr ,

uj =

psj vs ,

onde a matriz de passagem p=[pij ] e triangular superior, com pii >0

Sec
ao 17

T
opicos Matriciais

209

para todo i. (17.B.) Usando o smbolo de Kronecker ij , temos


ij = hui , uj i =

n
X

r,s=1

pri psj hvr , vs i =

n
X

pri ars psj ,

r,s=1

logo pT ap = In . Pondo t = p1 , obtemos a = tT t.

de Cholesky e unica.

A decomposicao
Noutras palavras, se s e t
matrizes triangulares superiores n n com diagonais positivas
sao
s = t.
e sT s = tT t entao

Com efeito, de sT .s = tT .t resulta st1 = (sT )1 .tT . Como o pri


meiro membro desta ultima
igualdade e uma matriz triangular superior e o segundo e triangular inferior, conclumos que d = st1 =
(sT )1 .tT e uma matriz diagonal, com dii > 0 (e dij = 0 se i 6= j).
Segue-se imediatamente das igualdades acima que s = dt e t = ds.
Olhando para os elementos da diagonal, temos sii = dii tii e tii =
dii sii . Como sii > 0 e tii > 0, isto implica dii = 1, logo d = In e s = t.

qr
17.D A Decomposicao
matricial do processo de Gram-Schmidt.
Esta e uma interpretacao
Segundo ela, toda matriz invertvel a = [aij ] M(n n) admite uma
decomposicao
do tipo a = qr, onde q e ortogonal e r e triangular
superior, com elementos positivos na diagonal.
Para chegar a este resultado, chamemos de v1 , . . . , vn as colunas
da matriz a e de U = {u1 , . . . , un } Rn a base ortonormal obtida dos
vi pelo processo de Gram-Schmidt. Como sabemos, a matriz p = [pij ]
de passagem da base V = {v1 , . . . , vn } para a base U e triangular superior, com elementos positivos na diagonal. Alem disso, a matriz
os vetores uj = (q1j , q2j , . . . , qnj ), e ortoq = [qij ], cujas colunas sao
gonal.
Tomando a i-esima
P coordenada de ambos os membros da igualdade vetorial uj =
pkj vk , obtemos
k

qij =

n
X
k=1

pkj aik =

n
X
k=1

aik pkj = (ap)ij ,

210

T
opicos Matriciais

Sec
ao 17

para quaisquer i, j = 1, . . . , n. Logo q = ap. A matriz r = p1 e , como


vimos acima, (17.B), triangular superior com elementos positivos na
diagonal. De ap = q resulta imediatamente a = qr.
unicas

Dada a matriz invertvel a M(n n), sao


Observacao
as
matrizes q, r tais que a = qr, q e ortogonal, r e triangular superior
positivos. Com efeito, a = qr
e os elementos de sua diagonal sao
escreve-se tambem como ap = q, onde p = r1 . Isto quer dizer que p
e a matriz de passagem da base V = {v1 , . . . , vn } Rn , formada pelas
colunas de a, para a base ortonormal U = {u1 , . . . , un } Rn , dada
pelas colunas de q. Ora, as quatro condico es seguintes implicam
que cada uj e determinado univocamente a partir de v1 , . . . , vj :
1) uj = p1j v1 + p2j v2 + + pjj vj ;
2) uj e ortogonal a v1 , . . . , vj1 ;
3) |uj | = 1;
4) pjj > 0.
Com efeito, 1) diz que uj pertence ao subespaco F Rn gerado por
v1 , . . . , vj . 2) diz que uj pertence a reta R, complemento ortogonal de
{v1 , . . . , vj1 } no subespaco F. Ja 3) restringe uj a ser um dos 2 vetores

unitarios
da reta R. E, finalmente, 4) diz que uj e o vetor unitario
de
R tal que huj , vj i e positivo.
1) diz que a matriz p e triangular superior. 2) e 3) diA condicao
zem que a matriz q e ortogonal, enquanto 4) afirma que os elementos
positivos. Juntas, elas garantem a unicidade
da diagonal de p sao
de q e portanto a unicidade de p = a1 q.
acima estabelece tambem a unicidade do processo
A observacao
de que cada uj pertenca ao subde Gram-Schmidt sob a condicao
espaco gerado por v1 , . . . , vj e cumpra huj , vj i > 0 (alem, naturalmente, de serem u1 , . . . , uj ortonormais).
Em resumo: a igualdade a = qr significa que as colunas de q
formam a base ortonormal de Rn obtida das colunas de a por GramSchmidt e r e a matriz de passagem das colunas de q para as colunas
de a.

Sec
ao 17

T
opicos Matriciais

211

Polar e Valores
17.E Diagonalizacao,
Decomposicao
Singulares

O Corolario
do Teorema 12.2 e o Teorema Espectral 13.6, quando formulados em termos de matrizes, apresentam as seguintes versoes:
1) Se a matriz quadrada a M(n n) possui n autovalores diferentes entao
existe uma matriz invertvel p M(n n) tal que
p1 ap = d e uma matriz diagonal. Os elementos da diagonal de d
sao
os autovalores de a.
2) Se a matriz a M(n n) e simetrica entao
existe uma matriz
ortogonal q M(n n) tal que qT aq = d e uma matriz diagonal. Os
elementos da diagonal de d sao
os autovalores de a.
Ja o Teorema 14.4 assume a seguinte forma:
3) Toda matriz quadrada a M(n n) se exprime como produto a =
pu, onde p M(n n) e uma matriz nao-negativa

e u e ortogonal.
matricial abaixo:
Finalmente, o Teorema 13.10 tem a versao
4) Para toda matriz a M(m n) existem matrizes ortogonais p
M(mm), q M(nn), tais que paq = d, onde d M(mn) e uma
matriz diagonal, d = [dij ], isto e , dij = 0 se i 6= j. Para i = 1, . . . , r =
posto de a, tem-se dii = i > 0, 2i e um autovalor de aT a (e de aaT ) e,
para i > r, dii = 0.
Equivalentemente, podemos escrever a = pT dqT ou, mudando
a = pdq. Esta se chama a decomposicao
de notacao,
de a a valores

singulares (singular value decomposition), pois os elementos nao os valores singulares de a, ou seja,
nulos i da diagonal de d sao
i > 0 para todo i = 1, . . . , n e, alem disso,
21 , . . . , 2r
autovalores de aT a.
sao
Se a M(4 5) e tem posto 3
forma, com 1 > 0, 2 > 0 e 3 > 0:

1 0
0 2
d=
0 0
0 0

a matriz d tem a seguinte


entao
0
0
3
0

0
0
0
0

0
0
.
0
0

212

T
opicos Matriciais

Sec
ao 17

lu
17.F A Decomposicao
Cada uma das tres operaco es elementares sobre as linhas de uma
9, pode ser interpretada como a mulmatriz, introduzidas na Secao
a` esquerda por uma matriz invertvel de tipo especial, chatiplicacao
mada uma matriz elementar.
Mais precisamente, uma matriz elementar m m e uma matriz
de uma operacao
elementar a` matriz idenque resulta da aplicacao
tidade Im . Ha portanto 3 tipos de matrizes elementares. Vejamos
alguns exemplos no caso 4 4:

0
0

1
0

0
1
0
0

1
0
0
0

0
0

0
1

1
0

0
1
0
0

0
0
1
0

0
0

0
1

1
0

0
0

0
0

0
0
1
0

0
0

0
1

As matrizes acima se obtem a partir de I4 mediante as operaco es


L1 L3 , L4 + L1 e L2 respectivamente.

elementar a uma matriz


Afirmamos que aplicar uma operacao

com m linhas e o mesmo que multiplica-la


a` esquerda pela matriz
as
` linhas de Im .
que resulta de aplicar a mesma operacao
(cuja verificacao
deixamos
Isto decorre da seguinte observacao

a cargo do leitor): se a 7 a simboliza uma determinada operacao


para toda b M(m
elementar sobre matrizes com m linhas entao,
m), tem-se (ba) = b a. Admitido este fato, tomamos m = Im e
vemos que, para toda matriz a com m linhas, vale
a = (Im a) = Im a = m a.
de Gauss para reduzir uma maPortanto o metodo de eliminacao

triz de m linhas a` forma escalonada consiste em multiplica-la


sucessivamente a` esquerda por matrizes elementares do tipo 1 (transposi de duas linhas) ou do tipo 2 (subtrair de uma linha um multiplo

cao
de outra linha). Uma matriz elementar do tipo 2, que corresponda a`

Sec
ao 17

T
opicos Matriciais

213

Li Lj , com j < i, tem a forma abaixo:


operacao

..

..
..

.
.

.
.
.
1

..

.
1

indicados fora da diagonal sao


nulos. O numero

Os elementos nao
esta na linha i e na coluna j. A fim de tornar igual a zero o

elemento aij da matriz a = [aij ] mediante essa pre-multiplicacao,


deve-se tomar = aij /ajj . O elemento ajj , que se supoe 6= 0, chamase o pivo. Para eliminar (tornar iguais a zero) todos os elementos

abaixo da diagonal na coluna j da matriz a, deve-se pre-multiplica-la


pelo produto das mj matrizes da forma acima que se obtem fazendo
sucessivamente i = j + 1, . . . , m. Isto equivale a pre-multiplicar pela
matriz

1
..

j+1,j
mj =
(*)

..
..

.
.
mj . . . 1
(com os s na j-esima coluna), onde rj = arj /ajj .
m = 4 e j = 1, vemos facilmente que

1
1
0 0 0
1
0 0 0
0
2 1 0 0 0
1
0
0

0
0 1 0 3 0 1 0 0
4
0
0 0 1
0
0 0 1

1
0 0 0
2 1 0 0

=
3 0 1 0 .
4 0 0 1

Por exemplo, se
0
1
0
0

0
0
1
0

0
0

0
1

214

T
opicos Matriciais

Sec
ao 17

Suponhamos que, durante o processo de escalonamento de uma


de
dada matriz, nunca haja necessidade de se efetuar transposicao
podemos assegurar que existem matrizes m1 , . . . , mm
linhas. Entao
do tipo (*) acima, tais que
mm . . . m2 m1 a = u,
onde u e uma matriz escalonada. Se a for uma matriz quadrada,
u provem de upper trianu e triangular superior. (Da a notacao:
requerer
gular, em ingles.) Se u = [uij ] M(m n) (alem de nao

transposico es de linha em seu escalonamento) tem posto maximo


(m
o primeiro elemento nao-nulo

ou n) entao
de sua i-esima linha e uii .
os pivos,
Portanto, neste caso, os elementos uii da diagonal de u sao
diferentes de zero.
logo sao
Evidentemente, toda matriz elementar e invertvel, logo toda
matriz mj do tipo (*) acima possui uma inversa e e claro que

m1
j

1
..

.
1
j+1,j
..
.
mj

..

.
1

que toda matriz a cujo escalonamento nao


requer
Segue-se entao
transposico es de linhas se escreve como
1
1
a = m1
1 m2 . . . mm u = lu

onde as mj tem a forma (*) e u e escalonada.

Agora ocorre um fato notavel.


Embora o produto mm . . . m2 m1
tenha nenhuma expressao
especial, vale a igualdade
nao

21
1

..
1 1
1
,

.
l = m1 m2 . . . mm = 31 32

..
..

.
.
1
m1 m2
m,m1 1

Sec
ao 17

T
opicos Matriciais
(j)

215

(j)

indicamos com a(j) = mj . . . m1 a


onde ij = aij /ajj . Nesta notacao,
dos elementos abaixo da
matriz que se obtem depois da eliminacao
diagonal na j-esima coluna. (Portanto j = 0, 1, . . . , m 1, e a(0) = a.)
houve necessidade de efetuar transEstamos admitindo que nao
de linhas, ou seja, que em todas as etapas se tem o pivo
posicao
(a(j) )jj 6= 0.
que, mediante essa hipotese, a matriz a se esConclumos entao
creve como um produto
a = lu,
onde l M(m m) e uma matriz triangular inferior (lower triangular) com elementos diagonais todos iguais a 1 e u e uma matriz esca u M(m m)
lonada. Se a for uma matriz quadrada m m entao
sera uma matriz triangular superior. Esta e a chamada decomposicao
lu da matriz a.

E importante observar os seguintes fatos a respeito da decompo a = lu.


sicao
fornece diretamente os ele1o ) O metodo gaussiano de eliminacao
mentos das matrizes l e u.
a = lu, a solucao
do sistema
2o ) Quando se dispoe da decomposicao
ax = b, com b M(m 1), se reduz a resolver o sistema ly = b
e, depois de obtida y, o sistema ux = y. O primeiro se resolve de
cima para baixo e o segundo de baixo para cima, pois l e triangular
inferior e u e escalonada.
a=lu ocorre
3o ) A maior vantagem computacional da decomposicao

quando se tem de resolver um grande numero


de equaco es ax = b,
com a mesma matriz a e muitos vetores b. Dispondo da decom a = lu nao
e preciso repetir muitas vezes o processo de
posicao
gaussiana.
eliminacao
se sabe quais sao
(nem mesmo se vao
ser ne4o ) A priori, nao

cessarias)
as transposico es de linhas durante o processo de escalonamento de uma matriz a. Entretanto, depois de efetuado o processo,
de todas as transposico es feitas. Efetuando, na
dispomos da relacao
mesma ordem em que foram feitas, todas essas transposico es nas linhas da matriz identidade, obtemos uma matriz p M(m m), que
se chama uma matriz de permutacao.
O produto pa corresponde a
efetuar sobre a matriz a, antecipadamente, todas as transposico es

de linhas que seriam necessarias


durante o escalonamento. Por-

216

T
opicos Matriciais

Sec
ao 17

tanto a matriz pa pode ser escalonada usando apenas operaco es ele pa = lu.
mentares do tipo Li Lj . Assim, tem-se a decomposicao
o
suficiente (mas nao
necessaria)

para que uma


5 ) Uma condicao
matriz a M(m n) possa ser escalonada sem transposico es de li A = lu, e que suas submanhas, portanto admita uma decomposicao

trizes principais sejam invertveis. (Para todo numero


natural
r min{m, n}, a submatriz principal de ordem r da matriz a = [aij ]
e a matriz ar M(r r) formada pelos elementos aij com 1 i r e
1 j r.)
Provemos este fato no caso de uma matriz a M(3 4). O argu se torna mais complimento no caso geral e o mesmo mas a notacao
cada e pode obscurecer a ideia, que e extremamente simples. Seja

a11 a12 a13 a14


a = a21 a22 a23 a24 .
a31 a32 a33 a34

Como a matriz principal [a11 ] e invertvel, temos a11 6= 0. Usando


a11 como pivo, efetuamos as operaco es elementares
L2

a21
L1
a11

e L3

a31
L1
a11

sobre a matriz a, obtendo a nova matriz

a11 a12 a13 a14


a(1) = 0 b22 b23 b24 .
0 b32 b33 b34

A matriz

a11 a12
0 b22

resulta da matriz principal




a
a12
a2 = 11
a21 a22

da operacao
elementar L2 (a21 /a11 )L1 , logo e inpela aplicacao
vertvel. Como e triangular, isto obriga b22 6= 0. Assim podemos
(1)
geral, seria a22 em vez de b22 .)
tomar b22 como pivo. (Na notacao

Sec
ao 17

T
opicos Matriciais

L2 (b32 /b22 )L2 a`


Aplicando a operacao
triz escalonada

a11 a12
(2)

a = u = 0 b22
0
0

217

matriz a(1) chegamos a` ma


a13 a14
b23 b24
c33 c34

O mesmo raciocnio se aplica em geral.


Exemplo 17.1. Considerando o escalonamento

1 2 3 4
5 6 7 8
9 10 12 12

L2 5L1
L3 9L1

L3 2L2

obtemos a decomposicao

1 2
3
4
0 4 8 12
0 8 15 24

L3 2L2

1 2
3
4
0 4 8 12
0 0
1
0

1 2
3
4
1 0 0
1 2 3 4
5 6 7 8 = 5 1 0 0 4 8 12 ,
0 0
1
0
9 2 1
9 10 12 12

que exprime a matriz do primeiro membro como um produto do tipo


lu, de uma matriz triangular inferior com diagonal (1, 1, 1) por uma
matriz escalonada com pivos 1, 4, 1. (Todos 6= 0 pois a matriz dada

tem posto maximo.)


Exemplo 17.2. Examinando, no Exemplo 9.4, as operaco es ele ocorrem mais
mentares efetuadas a partir da segunda, quando nao
do tipo
transposico es de linhas, obtemos a seguinte decomposicao
a = lu:

1 0 0 0
1 1
3
0
2 1 3 0
0 1 0 0 0 1
0 1 2 3
2
3

3 4 2 0 = 3 5 1 0 0 0 15 15
2
2
2
2
4 2 0 1
0 0
0
7
2 0 54 1

218

T
opicos Matriciais

Sec
ao 17

17.G Matrizes Positivas: Cholesky versus lu


Quando a matriz a = [aij ] M(m m) e positiva, afirmamos que
tambem
todas as submatrizes principais ar = [aij ], 1 i, j r, sao

positivas, portanto invertveis. Com efeito, dado o vetor nao-nulo


v = (x1 . . . , xr ), tomamos v = (x1 , . . . , xm ), com xi = xi para i = 1, . . . , r
v e um vetor nao-nulo

e xi = 0 para i = r + 1, . . . , m. Entao
em Rm ,
logo
m
r
X
X
aij xi xj > 0.
aij xi xj =
i,j=1

i,j=1

Portanto o processo de escalonamento, quando aplicado a uma ma requer transposico es de linhas. Assim, tem-se a
triz positiva a, nao
a = lu.
decomposicao
Vemos que toda matriz positiva possui duas decomposico es: Cho natural indagar qual a relacao
entre elas. Mostraremos
lesky e lu. E
muito proximas: qualquer delas se obtem a partir da outra
que sao
de modo simples. Antes porem precisamos estabelecer a unicidade
abaixo.
existe uma unica

Se a matriz a e invertvel entao


maneira de
escreve-la como um produto a = lu, onde l e triangular inferior, com
os elementos da diagonal todos iguais a 1, e u e triangular superior.
Com efeito, sendo a invertvel, a igualdade a = lu obriga l e u a
serem invertveis. Portanto
1
a = l1 u1 = l2 u2 l1
2 l1 = u2 u1 .

Ora, o primeiro membro da ultima


igualdade e uma matriz triangular inferior e o segundo membro e triangular superior. Logo ambas
matrizes diagonais. Como os elementos diagonais de l sao
todos
sao
iguais a 1, segue-se que l1 = l2 = Im , portanto u1 = u2 e fica provada
a = lu no caso de a ser invertvel.
a unicidade da decomposicao
Voltemos a` matriz positiva a M(m m), que admite as decomposico es a = tT .t = l.u, onde l e triangular inferior com 1s na dia triangulares superiores e todos os elementos da diagonal, t e u sao
positivos. Se indicarmos com d M(m m) a matriz
gonal de t sao
a = (tT d1 )(dt), onde tT d1 e triangudiagonal com dii = tii , entao
lar inferior com 1s na diagonal e dt e triangular superior. Segue-se
da unicidade acima provada que l = tT d1 e u = dt, mostrando as-

Sec
ao 17

T
opicos Matriciais

219

a = lu a partir da decomposicao
de
sim como obter a decomposicao
Cholesky a = tT .t.
u = dt mostra, em particular que se a matriz a e
A expressao
em sua decomposicao
a = lu, os elementos uii da
positiva entao,
gaussiana) sao
todos
diagonal de u (isto e , os pivos da eliminacao
lu implica que esses pivos
positivos. A unicidade da decomposicao
univocamente determinados a partir da matriz a.
sao
de Cholesky
Mostremos agora como se pode obter a decomposicao
a = lu.
de uma matriz positiva a partir de sua decomposicao
Como uii > 0 para i = 1, . . . , m, podemos formar uma matriz

escrevediagonal d = [dij ] pondo dij = 0 se i 6= j e dii = uii . Entao


mos t = d1 u. Evidentemente, a = (ld)(d1 u). Portanto teremos a
de Cholesky a = tT .t desde que provemos que tT = ld,
decomposicao
ou seja, que uT .d1 = ld.
Ora, se tomarmos a transposta de ambos os membros da igualdade a = lu obteremos a = aT = uT lT , logo podemos escrever
a = uT .d2 .d2 .lT . Mas uT .d2 e triangular inferior com 1s na diagonal. (Na realidade, d foi definida com esse proposito.) E d2 lT e tri a = boldlu, vem
angular superior. Pela unicidade da decomposicao
uT .d2 = l (e d2 .lT = u). Da resulta uT .d1 = ld, como queramos
provar.
de uma matriz posiEm suma: se a = lu e a decomposicao
de Cholesky e a = (ld)(d1 u), onde d e a
tiva, sua decomposicao
matriz diagonal formada pelas razes quadradas dos elementos (necesssariamente positivos) da diagonal de u. Isto nos da um metodo

de Cholesky, como veremos no


pratico
para obter a decomposicao
Exemplo 17.3.
O argumento acima prova, na realidade, que se a e
Observacao
todos positivos entao
existe
uma matriz simetrica cujos pivos sao
a = tT .t, logo a e uma matriz positiva. (Observe
uma decomposicao
que, os pivos sendo positivos, a matriz a e invertvel.)
Exemplo 17.3. Como exemplo de matriz positiva, tomemos a matriz
de Gram dos vetores u = (1, 2, 1), v = (2, 1, 2), w = (1, 1, 2). Escalonando-se, obtemos

6 6 5
6 6
5
6 6 5
2
L

L
3 3 2
2 L1
6 9 7 L
0 3
0 3 2
2
5
L3 6 L1
5 7 6
0 2 11/6
0 0 1/2

220

T
opicos Matriciais

Sec
ao 17

lu:
Isto nos fornece a decomposicao

1 0 0
6 6 5
6 6 5
6 9 7 = 1 1 0 0 3 2 .
2
5
0 0 1/2
5 7 6
6
3 1

de Cholesky, tomamos a matriz diagonal


Para obter a decomposicao

6 0
0
d= 0
3 0
0
0
2/2

e calculamos


6 0
1 0 0

3
tT = ld = 1 1 0 0
2
5
0
0
6
3 1

6 0
0

6 3
0
=

2
2

5
6

2
3

0
0
.
2
2

a decomposicao
de Cholesky da matriz dada e
Entao


0
6 6 5/6
6 6 5
0
6
6 9 7 = 6

3 0 0
3 2/

3 .

5 7 6
5/ 6 2/ 3
0
0
2/2
2/2

Exerccios
17.1. Prove que os vetores v1 , . . . , vk E geram um subespaco veto r se, e somente se, a matriz de Gram g(v1 , . . . , vk )
rial de dimensao
tem posto r.
linear
17.2. Se dim E dim F, prove que existe uma transformacao
ortogonal A : E F tal que Av1 = w1 , . . . , Avk = wk se, e somente se,
iguais.
as matrizes de Gram g(v1 , . . . , vk ) e g(w1 , . . . , wk ) sao

17.3. Sejam a M(n n) uma matriz positiva e b M(n


m) uma matriz de posto n. Ache vetores v1 , . . . , vm Rn tais que
g(v1 , . . . , vm ) = bT ab.
17.4. Prove que aT a e a matriz de Gram dos vetores-coluna de a.

Sec
ao 17

T
opicos Matriciais

221

17.5. Um operador T : E E chama-se triangularizavel

quando o
espaco vetorial E possui uma base, relativamente a` qual a matriz de
T e triangular. Prove:

(a) T e triangularizavel
se, e somente se, existe uma cadeia ascendente {0} = Fo F1 Fn = E, de subespacos invariantes
por T , com dim Fi = i (i = 0, . . . , n).

(b) T e triangularizavel
se, e somente se, existe uma cadeia descendente E = Gn G1 Go = {0} de subespacos invariantes
por T tais que dim Gi = i para i = 0, 1, . . . , n.
(c) Se existe uma base de E na qual a matriz de T e triangular
superior, existe tambem uma base de E na qual a matriz de T
e triangular inferior.

(d) T e triangularizavel
se, e somente se, T e triangularizavel.
17.6. Seja t = [tij ] M(n n) uma matriz triangular. Prove que os
autovalores do operador T : Rn
elementos tii da diagonal de t sao
n

R cuja matriz na base canonica e t. Conclua que t e diagonalizavel


possuir elementos repetidos.
quando sua diagonal nao
17.7. Seja A : R3 R3 o operador definido por A(x, y, z) = (x +
2y + 3z, y + 2z, 3z). Obtenha dois autovetores L.I. para A e prove que

qualquer outro autovetor de A e multiplo


de um desses dois. Conclua
e diagonalizavel,

que A nao
embora sua matriz seja triangular.
17.8. Considere o operador B : R3 R3 , dado por B(x, y, z) = (x +
2z, y+3z, 4z), cuja matriz e triangular. Ache uma base de R3 formada
por autovetores de B.
17.9. Dada a matriz positiva



1 2
a=
,
2 5
determine

x y
t=
0 z

de Cholesky a = tT .t.
de modo que se tenha a decomposicao

222

T
opicos Matriciais

Sec
ao 17

17.10. Use o metodo do exerccio anterior, de modo a obter a decom de Cholesky da matriz positiva
posicao

3 4 6
a = 4 6 9 .
6 9 14

` colunas da matriz
17.11. Aplicando o processo de Gram-Schmidt as

1 2 2
a = 3 3 4 ,
4 1 3
a = qr, onde q e ortogonal e r e triangular
obtenha a decomposicao
superior, com elementos positivos na diagonal.
17.12. Mostre como obter, a partir dos teoremas demonstrados nas
seco es anteriores, cada uma das matrizes cuja existencia e assegurada nos tens 1), 2), 3) e 4) de 17.E (Por exemplo, no item 1), se
A : Rn Rn e o operador cuja matriz na base canonica E Rn e a
p e a matriz cujas colunas sao
os vetores de uma base ortoentao
n
normal U = {u1 , . . . , un } R , formada por autovetores de A e d e a
matriz diagonal formada pelos autovalores correspondentes.)
17.13. Dada a matriz



1 1
a=
,
2 1
a = pdq a valores singulares.
obtenha sua decomposicao
17.14. Assinale V(erdadeiro) ou F(also)
(

) Toda matriz quadrada escalonada e triangular superior.

) Toda matriz (quadrada) triangular superior e escalonada.

verdadeiras quando se trata


) As duas afirmaco es anteriores sao
de matrizes invertveis.

do tipo a = lu entao

) Se a matriz a admite uma decomposicao


invertveis.
todas as submatrizes principais de a sao

Sec
ao 17

T
opicos Matriciais

223

17.15. Prove que a matriz


a=


0 a
b c

do tipo a = lu se, e somente se, b = 0.


admite uma decomposicao
lu das matrizes
17.16. Obtenha a decomposicao

2 1
0
4
1 2 2
1
7 .
e
b = 4 5
a = 3 3 4
2 8 1 12
4 1 3

17.17. Seja a M(m n) uma matriz de posto maximo


que admite

do tipo a = lu , onde l M(m m) e triangular


uma decomposicao
inferior, com elementos da diagonal todos iguais a 1, e u M(mn)
e escalonada. Prove que existem uma matriz diagonal invertvel
d M(m m) e uma matriz escalonada u M(m n), com pivos
todos igual a 1, tais que a = ldu.
lu da matriz do Exemplo 9.3.
17.18. Obtenha a decomposicao
lu, obtenha a decomposicao
de
17.19. A partir da decomposicao
Cholesky das matrizes positivas a = matriz de Gram dos vetores
u = (1, 2, 1), v = (1, 1, 2), w = (2, 1, 3) e b = produto da matriz

1 1 1 1
1 2 1 1

m=
2 1 2 2
2 2 1 3
por sua transposta.

da matriz
17.20. Foi visto no texto que se a = lu e a decomposicao
positiva a e d e a matriz diagonal formada pelas razes quadradas

a = (ld) (d1 u) e a decomposicao


de
dii = uii dos pivos entao
Cholesky de a. Modifique ligeiramente este argumento para provar
de Cholesky a = tT .t para qualquer
que existe uma decomposicao

ha unicidade.)
matriz nao-negativa
a. (Mas agora nao

18
Formas Quadr
aticas

Uma forma quadratica

num espaco vetorial E e uma funcao


que, em
termos das coordenadas de um vetor relativamente a uma base de E,
se exprime como um polinomio homogeneo do segundo grau. As formas quadraticas

ocorrem com grande destaque em problemas de otimizacao


(maximos

e mnimos), no estudo das superfcies quadricas,

na Geometria Diferencial, na Mecanica,

etc. Em todas essas situac o es, e relevante o conhecimento do sinal (positivo ou negativo) que
a forma pode assumir ou, mais precisamente, dos seus autovalores.
Nesta secao,
e feito um estudo conciso, porem abrangente, dos principais pontos basicos

referentes a essas funco es e de suas relaco es com


os operadores lineares, finalizando com o metodo de Lagrange para
diagonalizacao
e a classificacao
das superfcies quadricas.

Sejam E, F espacos vetoriais. Uma forma bilinear b : E F R


b(u, v), linear em cada uma das duas variaveis

e uma funcao
u E,
v F. Mais precisamente, para quaisquer u, u E, v, v F e R
devem valer:
b(u + u , v) = b(u, v) + b(u , v);

b(u, v + v ) = b(u, v) + b(u, v );

b(u, v) = b(u, v)
b(u, v) = b(u, v).

As operaco es evidentes de soma e produto por um numero


fazem
do conjunto B(E F) das formas bilineares b : E F R um espaco
vetorial.

Sec
ao 18

Formas Quadr
aticas

225

Tomando bases U = {u1 , . . . , um } E e V = {v1 , . . . , vn } F, os

numeros
bij = b(ui , vj ) definem uma matriz b = [bij ] M(m n),
chamada a matriz da forma bilinear b relativamente as
` bases U , V.
Conhecidos os valores bij = b(ui , vj ), os quais podem ser tomados
arbitrariamente, a forma bilinear b : E F R fica inteiramente
determinada pois, para u = xi ui E e v = yj vj F quaisquer,
tem-se
b(u, v) =

xi yj b(ui , vj ) =

i,j

1 i m, 1 j n.

bij xi yj ,

i,j

A correspondencia que associa a cada forma bilinear b : E F R


` bases U E, V F (supossua matriz b = [bij ] relativamente as
tas fixadas) e um isomorfismo entre os espacos vetoriais B(E F) e
mn.
M(m n). Segue-se que B(E F) tem dimensao

Dadas novas bases U = {u1 , . . . , um } E e V = {v1 , . . . , vn } F


sejam
n
m
X
X

qij vi
pij ui , vj =
uj =
i=1

i=1

` bases
e bij = b(ui , vj ). A matriz da forma bilinear b relativamente as

U e V e b = [bij ] M(m n). O teorema abaixo exprime b em


de b e das matrizes de passagem p = [pij ] M(m m),
funcao
q = [qij ] M(n n).
Teorema 18.1. As matrizes b e b , da forma bilinear b nas bases
U , V e U , V respectivamente, se relacionam pela igualdade b =
pT bq, onde p e a matriz de passagem de U para U e q e a matriz de
passagem de V para V .
Para todo i = 1, . . . , m e todo j = 1, . . . , n, temos
Demonstracao:
bij

=
=

b(ui , vj )
X

=b

m
X
r=1

pri qsj brs =

r,s

logo b = pT bq.

pri ur ,

X
r,s

n
X
s=1

qsj vs

!
T

X
r,s

pri brs qsj = (p bq)ij ,

pri qsj b(ur , vs )

226

Formas Quadr
aticas

Sec
ao 18

Embora transformaco es lineares e formas bilineares sejam am


fixadas bases), vemos
bas representaveis
por matrizes (quando sao
que, ao mudarem essas bases, a matriz de uma forma bilinear se
linear.
altera de maneira diferente daquela de uma transformacao

Quando E = F, nos referiremos sempre (salvo aviso em contrario)


a` matriz de uma forma bilinear b : E E R relativamente a uma

unica
base U = {u1 , . . . , um } E. Essa matriz e b = [bij ] M(mm),
onde bij = b(ui , uj ).
a outra base U E
Se b e a matriz da mesma forma b em relacao
b = pT bp, onde p e a matriz de passagem da base U para
entao
a base U . A correspondencia b 7 b define um isomorfismo entre
B(E E) e M(m m), estabelecido com ajuda da base U . Dados
u = xi ui e v = yi ui em E, se a matriz de b na base U e b = [bij ],
tem-se
m
X
bij xi yj .
b(u, v) =
i,j=1

Assim, b(u, v) e um polinomio homogeneo do 2o grau em relacao


` coordenadas de u e v.
as
Uma forma bilinear b : E E R chama-se simetrica quando
b(u, v) = b(v, u) para quaisquer u, v E. Para que b seja simetrica
a uma base U E seja
e suficiente que sua matriz em relacao

a qualquer base
simetrica e e necessario
que sua matriz em relacao

de E seja simetrica. Com efeito, se bij = bji entao


b(v, u) =

bij yi xj =

i,j

bij xj yi

i,j

bji xj yi =

i,j

b x y = b(u, v).

encia acima faz

Observacao.
O quarto sinal de igualdade na sequ
que pode parecer desonesta mas e perfeiuso de uma manipulacao
tamente correta. O princpio e o seguinte: num somatorio, o nome

tem a menor imdo ndice de somacao,


ou ndice mudo, nao

portancia:
m
m
m
X
X
X
zi =
z =
zr = z1 + + zm .
i=1

=1

r=1

Sec
ao 18

Formas Quadr
aticas

227

O que importa e que ao substituir o ndice mudo i por (bem como


se faca em todos os lugares onde i ocorra
j por ) essa substituicao
(assim como j) e somente nesses lugares.
Analogamente, uma forma bilinear b : E E R chama-se
anti-simetrica quando b(u, v) = b(v, u) para u, v E quaisquer.
Para que b seja anti-simetrica e suficiente que se tenha b(ui , uj ) =
b(uj , ui ) ou seja, bij = bji numa base {u1 , . . . , um } E.
Uma forma bilinear b, ao mesmo tempo simetrica e anti-simetrica, deve ser nula. Este fato, juntamente com a igualdade
1
1
b(u, v) = [b(u, v) + b(v, u)] + [b(u, v) b(v, u)],
2
2
mostra que o espaco B(E E) das formas bilineares b : E E R
e a soma direta de dois subespacos, um deles formado pelas formas
simetricas e o outro pelas formas anti-simetricas.
Exemplo 18.1. Dados os funcionais lineares f : E R, g : F R, a
b : E F R, definida por b(u, v) = f(u)g(v), e uma forma
funcao
dotados
bilinear, chamada o produto tensorial de f e g. Se E e F sao
b: E F
de produto interno, fixados uo E e vo F, a funcao
R, onde b(u, v) = hu, uo i hv, vo i, e uma forma bilinear. No caso
particular em que E = F, dados f, g : E R, funcionais lineares,
as igualdades
entao
(f g)(u, v) = f(u)g(v) + f(v)g(u)

e
(f g)(u, v) = f(u)g(v) f(v)g(u),
definem formas bilineares fg, fg : EE R, a primeira simetrica
e a segunda anti-simetrica.

Teorema 18.2. Seja E um espaco vetorial de dimensao


finita provido
de produto interno. Para cada forma bilinear b : E E R existe um
unico

operador linear B : E E tal que


hu, Bvi = b(u, v) para u, v E quaisquer.

A correspondencia b 7 B, assim definida, e um isomorfismo entre


os espacos vetoriais B(E E) e L(E). A forma bilinear b e simetrica
(respect. anti-simetrica) se, e somente se, o operador B e auto-adjunto
(respect. anti-simetrico).

228

Formas Quadr
aticas

Sec
ao 18

f : E R, definida por
Para cada vo E, a funcao
Demonstracao:
f(u) = b(u, vo ), e um funcional linear. Pelo Teorema 11.1, existe um

unico
vetor em E, que indicaremos com Bvo , tal que f(u) = hu, Bvo i,

ou seja hu, Bvo i = b(u, vo ) para todo u E. Como vo E e arbitrario,

B : E E tal que
acabamos de mostrar que existe uma unica
funcao
hu, Bvi = b(u, v) para quaisquer u, v E. Dados v, v E, tem-se


u, B(v + v ) = b(u, v + v )
= b(u, v) + b(u, v )


= hu, Bvi + u, Bv

= u, Bv + Bv

para todo u E, logo B(v+v ) = Bv+Bv . De modo analogo


se verifica
que B(v) = (Bv) para R e v E quaisquer, portanto B : E E
a uma base ortonormal U = {u1 , . . . , um } E,
e linear. Em relacao
o ij-esimo elemento da matriz de B e hei , Bej i = b(ei , ej ) = ij-esimo
da matriz de b. Assim, a forma bilinear b e o operador B que a
ela corresponde tem a mesma matriz na base U . Da decorre que a
correspondencia b 7 B e um isomorfismo entre B(E E) e L(E) e
que B e auto-adjunto (respect. anti-simetrico) se,e somente se, b e
simetrica (respect. anti-simetrica).
: E R chama-se uma forma quadratica
Uma funcao

quando
existe uma forma bilinear b : E E R tal que (v) = b(v, v) para
todo v E.
Se, em vez da forma bilinear b tomarmos a forma bilinear simetrica
1
b (u, v) = [b(u, v) + b(v, u)],
2
teremos ainda
1
(v) = b(v, v) = [b(v, v) + b(v, v)] = b (v, v).
2
ha perda de generalidade em se exigir que a forma
Portanto, nao

quadratica
(v) = b(v, v) provenha de uma forma bilinear simetrica
b. Isto e o que faremos doravante. Com uma vantagem: se b e
simetrica, todos os seus valores b(u, v) podem ser determinados a

partir dos valores b(v, v) = (v) da forma quadratica


. Com efeito,
tem-se a seguinte formula de polarizacao:

1
b(u, v) = [b(u + v, u + v) b(u, u) b(v, v)].
2

Sec
ao 18

Formas Quadr
aticas

229

Se b = [bij ] e a matriz da forma bilinear b na base U =


para v = xi ui , tem-se
{u1 , . . . , um } E entao,
(v) =

m
X

bij xi xj .

i,j=1

Note que, sendo b uma matriz simetrica (como sempre supore


mos quando tratarmos de formas quadraticas),
cada parcela com
i 6= j aparece duas vezes na soma acima: uma vez como bij xi xj e
outra vez como bji xj xi , o que e o mesmo.
a
A matriz da forma quadratica

na base U e , por definicao,


matriz b, nesta mesma base, da forma bilinear b tal que (v) =
b(v, v). Se a matriz de passagem p levar a base U na base U , a

matriz b da forma quadratica


na base U sera dada por b = pT bp.
Note que se E possuir produto interno e as bases U , U forem am
bas ortonormais, a matriz p sera ortogonal, logo pT = p1 . Entao
b = p1 bp. Isto confirma o que foi visto no Teorema 18.1: relativamente a bases ortonormais a matriz da forma bilinear b coincide
com a do operador B, que lhe corresponde de maneira intrnseca.
Teorema 18.3. Seja E um espaco vetorial de dimensao
finita munido
de produto interno. Dada uma forma bilinear simetrica b : EE R,
existe uma base ortonormal U = {u1 , . . . , um } E tal que b(ui , uj ) = 0
se i 6= j.
Pelo Teorema 18.2, existe um operador auto-adjunDemonstracao:
to B : E E tal que b(u, v) = hu, Bvi para quaisquer u, v E. O
Teorema Espectral assegura a existencia de uma base ortonormal

U = {u1 , . . . , um } E tal que Bui = i ui (i = 1, . . . , m). Entao


i 6= j b(ui , uj ) = hui , Buj i = hui , j uj i = j hui , uj i = 0.

para formas bilineares, do Teorema


O teorema acima e a versao,
matricial do Teorema 18.3 e a seEspectral. Por sua vez a versao
guinte: para toda matriz simetrica b = [bij ] M(m m), existe uma
matriz ortogonal p M(m m) tal que pT bp = p1 bp e uma matriz
diagonal. A diagonal de d = pT bp e formada pelos autovalores de
b, os quais se dizem tambem autovalores da forma bilinear b e da

forma quadratica
(v) = b(v, v).

230

Formas Quadr
aticas

Sec
ao 18

Em termos das coordenadas dos vetores u = xi ui e v = yj uj relativamente a` base U do Teorema 18.3 a forma bilinear b se exprime
como
b(u, v) = i xi yi .

Em particular, a forma quadratica


: E R, (u) = b(u, u),
relativa a` base U ) e dada por uma combipara v = yi ui (expressao
linear de quadrados:
nacao
(v) = i y2i = 1 y21 + + m y2m .
costume numerar os autovalores i em ordem crescente: 1
E
2 m .

A forma quadratica
: E R diz-se nao-negativa

quando
(v) 0 para todo v E, positiva quando (v) > 0 para todo v 6= 0
em E, nao-positiva

quando (v) 0 para todo v E, negativa quando


(v) < 0 para todo v 6= 0 em E e indefinida quando existem u, v E
tais que (u) > 0 e (v) < 0.

A forma quadratica
: E R e nao-negativa,
positiva, naopositiva, negativa ou indefinida, respectivamente, conforme o operador auto-adjunto B : E E, tal que (v) = hv, Bvi, tenha uma
dessas propriedades, ou seja, conforme os autovalores 1 , . . . , m sejam todos 0, todos > 0, todos 0, todos < 0 ou 1 < 0 < m
respectivamente.
os autovalores da forma quadratica

Se 1 m sao
entao,

para todo vetor unitario


u E tem-se 1 (u) m . Com efeito,
x2i = 1,
relativamente a` base U do Teorema 18.3, se u = xi ui entao
portanto:
X
X
X
1 =
1 x2i
i x2i = (u)
m x2i = m .
i

Alem disso, (u1 ) = 1 e (um ) = m . Portanto, o menor au tambem o valor mnimo e o


tovalor 1 e o maior autovalor m sao

valor maximo
assumidos pela forma quadratica
entre os vetores

unitarios
de E.

Em Analise,
quando se estudam os pontos crticos de uma funcao

diferenciavel,
um papel crucial e desempenhado por uma forma qua
classificadratica,
chamada forma Hessiana. Os pontos crticos sao

dos de acordo com o numero


de direco es independentes ao longo das

Sec
ao 18

Formas Quadr
aticas

231

tem um maximo

quais a funcao
relativo e esse numero
coincide com
o ndice da forma Hessiana, como definiremos a seguir.

O ndice de uma forma quadratica


: E R e a maior dimensao
de um subespaco vetorial de E restrita ao qual a forma e negativa.
Quando 0, diremos que o ndice de e zero.

Portanto, o ndice da forma quadratica


: E R e igual ao

numero
i 6= 0 quando: 1) Existe um subespaco vetorial F E, com

dim F = i, tal que (v) < 0 para todo vetor nao-nulo


v F; 2) Se
maior do que i, existe
G E e um subespaco vetorial de dimensao

algum vetor nao-nulo


w G, tal que (w) 0.
toda forma quadratica

Se dim E = m entao
negativa : E R
tem ndice m.

Assim definido, o ndice de uma forma quadratica


e uma nocao

intrnseca, independente de escolhas ou construco es arbitrarias.

Outro invariante numerico associado a uma forma quadratica

: E R e o seu posto. Seja b : E E R a (unica)


forma bilinear
simetrica tal que (v) = b(v, v) para todo v E. Escolhendo uma
base V = {v1 , . . . , vm } E e pondo bij = b(vi , vj ), i, j = 1, . . . , m,
sabemos que, para todo vetor
X
X
v=
xi vi , tem-se (v) =
bij xi xj .
i,j

o posto de e o posto da matriz b = [bij ] M(m m).


Por definicao,
dePara provar que o posto de , definido desta maneira, nao
pende da base escolhida, observemos que se tomarmos outra base
V = {v1 , . . . , vm } E a forma sera representada pela matriz b =
pT bp, onde p M(m m) e a matriz de passagem de V para V .
invertveis, e claro que b e b = pT bp tem o mesmo
Como p e pT sao
posto.
Em particular, se existir uma base V = {v1 , . . . , vm } E tal que
(v) = 1 x21 + + r x2r

(com 1 6= 0, . . . , r 6= 0)

a matriz de na base V tem 1 , . . . , r


para todo v = xi vi , entao
na diagonal e os demais elementos iguais a zero, logo o posto de ,
igual ao posto desta matriz, e r.
o posto
Se E tem um produto interno e (v) = hv, Bvi entao

da forma quadratica
e igual ao posto do operador auto-adjunto
B : E E.

232

Formas Quadr
aticas

Sec
ao 18

Teorema 18.4. (Lei da inercia,


de Sylvester.) Se existir uma base
V = {v1 , . . . , vm } E tal que, para todo v = xj vj E se tem
(v) = x21 x2i + x2i+1 + + x2r
entao
a forma quadratica

tem ndice i e posto r.

Demonstracao:
Ja vimos acima que o posto de e r. Quanto ao
ndice, seja F E um subespaco vetorial, restrito ao qual e nega
tiva. Mostremos que dim F i. Com efeito, se o vetor nao-nulo
v=

m
X

xj v j

j=1

pertencer a F entao
x21 x2i + x2i+1 + + x2r < 0,
logo
x21 + + x2i > 0
linear A : F
e da (x1 , . . . , xi ) 6= 0. Isto mostra que a transformacao
Ri , definida por

m
X
Av = A
xj vj = (x1 , . . . , xi ),
j=1

e injetiva, portanto dim F i. Para finalizar, observamos que o


i e, restrita a ele,
subespaco gerado por v1 , . . . , vi tem dimensao
(v) = x21 x2i
de um subespaco de E, restrita
e negativa, Logo i e a maior dimensao
ao qual e negativa.
Usualmente, a Lei da Inercia de Sylvester e enunciada sob a seguinte forma equivalente: seja qual for a base V = {v1 , . . . , vm } E
tal que
(v) = x21 x2i + x2i+1 + + x2r
(*)

os mesmos.
para v = xj vj , os numeros
i e r sao

Sec
ao 18

Formas Quadr
aticas

233

Apresentaremos a seguir o metodo de Lagrange (de completar o


quadrado) para obter uma base no espaco vetorial E, relativamente

a` qual uma dada forma quadratica


: E R tenha uma matriz

iguais a 1 ou 1. Noutras
diagonal cujos elementos nao-nulos
sao
do tipo (*) acima.
palavras, nessa base, tem uma expressao
Comecemos com uma base qualquer U = {u1 , . . . , um } E, na
qual se tem
X
(v) =
bij xi xj ,
(**)
i,j

para v = x1 u1 + + xm um . Se a = [aij ] M(m m) e a matriz de

passagem da base U para a base V = {v1 , . . . , vm }, a nova expressao


X
(v) =
cij yi yj ,
i,j

para v = y1 v1 + + ym vm , se obtem simplesmente efetuando em


ou mudanca de variaveis,

(**) a substituicao,
X
X
xi =
aik yk , xj =
ajk yk .
k

De agora em diante, mencionaremos apenas cada mudanca de

variaveis,
deixando implcito que ela corresponde a` passagem de
uma base para outra pois, em cada caso, a matriz a = [aij ] [ou o
que e o mesmo, o operador (y1 , . . . , ym ) 7 (x1 , . . . , xm )] e invertvel.

A partir da expressao
X
(v) =
bij xi xj ,
i,j

faremos, se necessario,
uma mudanca de variaveis
para assegurar
que algum elemento bii da diagonal seja diferente de zero. (Estamos
seja identicamente nula, do contrario

supondo que nao


nada haveria a fazer.) Pois se todos os elementos da diagonal fossem iguais
a zero, escolheramos um brs 6= 0, com r 6= s e faramos a mudanca

a
de variavel
xr = yr + ys , xs = yr ys , xi = yi (se i
/ {r, s}). Entao
parcela 2brs xr xs da soma (v) se transformaria em 2brs y2r 2brs y2s e

de (v) contem ao menos


agora, nas novas variaveis
yi , a expressao

nulos, crr y2r = 2brs y2r e css y2s = 2brs y2s , os quais nao
dois termos nao
se cancelam com nenhuma das outras parcelas.

234

Formas Quadr
aticas

Sec
ao 18

(v) = bij xi xj , onde podemos agora suVoltemos a` expressao

das
por que algum bii 6= 0. Mudando, se necessario,
a numeracao

variaveis
(o que equivale a mudar a ordem dos vetores da base), po escrevemos
demos admitir que b11 6= 0. Entao

X
(v) = b11 x21 + 2x1
cj xj + (v ),
j2

onde cj = b1j /b11 e (v ) depende apenas de


v =

xj u j ,

j2

ou seja, e uma forma quadratica


definida no subespaco F E,
m 1, gerado por u2 , . . . , um . A expressao
dentro dos
de dimensao
parenteses acima e do tipo a2 + 2ab, logo e igual a (a + b)2 b2 , onde
X
a = x1 e b =
c j xj .
j2

Assim, a mudanca de variaveis


X
z 1 = x1 +
c j xj ,

z 2 = x2 , . . . , z m = xm

j2

ou, equivalentemente,
x1 = z 1

cj z j ,

x2 = z 2 , . . . , xm = z m ,

j2

dentro dos parenteses acima e igual a


mostra que a expressao

portanto

z21

X
j2

(v) = b11 z21 b11

cj z j ,
X
j2

cj zj + (v )

Sec
ao 18

Formas Quadr
aticas

235

ou seja, (v) = b11 z21 + (v ) onde, outra vez, e uma forma quadra m 1. Efetuando a nova mudanca
tica no subespaco F, de dimensao

de variaveis
y1
z1 = p
, zj = yj (j 2),
|b11 |
obtemos (v) = y21 + (v ). Aplicando o mesmo metodo a e prosseguindo analogamente, chegaremos no final a
X
(v) =
y2i
ou, mais explicitamente:

(v) = y21 y2i + y2i+1 + + y2r ,

onde i e o ndice e r o posto da forma quadratica


. Os numeros
as coordenadas do vetor v na base de E obtida apos a ultima

yj sao
mudanca de coordenadas.

Exemplo 18.2. Seja : R3 R a forma quadratica


dada por
(x, y, z) = 2x2 + 2y2 2z2 + 4xy 4xz + 8yz.

Completando o quadrado, vemos que a soma das parcelas que contem o fator x se escreve como
2x2 + 4xy 4xz = 2[x2 + 2x(y z)]
= 2[x2 + 2x(y z) + (y z)2 ] 2(y z)2
= 2(x + y z)2 2(y z)2 .

A mudanca de variaveis
s = x + y z nos da entao
(x, y, z) = 2s2 2(y z)2 + 2y2 2z2 + 8yz
= 2s2 4z2 + 12yz.
Novamente completamos o quadrado, agora na soma das parcelas
que contem z, e obtemos


3
2
2
4z + 12yz = 4 z 2z y
2


3
9 2
2
= 4 z 2z y + y + 9y2
2
4
2

3
= 4 z y + 9y2 .
2

236

Formas Quadr
aticas

Sec
ao 18

A mudanca de variaveis
t = z 32 y nos da portanto
(x, y, z) = 2s2 4t2 + 9y2 .

Isto ja nos diz que a forma quadratica


tem posto 3 e ndice 1, logo
e indefinida.

Se quisermos, podemos fazer a mudanca de variaveis


y1
s= ,
2

t=

y2
,
2

y=

y3
3

e teremos
(x, y, z) = y21 y22 + y23 .
ha dificuldade em obter a expressao
das vaEvidentemente, nao

de x, y, z e vice-versa. Mas, para efeito


riaveis
y1 , y2 e y3 em funcao

de conhecer o ndice e o posto de , isto e desnecessario.

Quadricas

interessante
O estudo das formas quadraticas
tem uma aplicacao
a` Geometria Analtica n-dimensional, que apresentaremos brevemente aqui.
Um subconjunto Rn chama-se uma quadrica

central quando

existe uma forma quadratica


: Rn R tal que e definido pela
(v) = 1.
equacao
Se
X
(v) =
aij xi xj
i,j

para v = (x1 , . . . , xn ), isto significa que e o conjunto dos pontos


(x1 , . . . , xn ) Rn tais que
n
X

aij xi xj = 1.

i,j=1

Segue-se imediatamente do Teorema 18.3 que, dada uma quadrin


ca central R , existe uma base ortonormal U = {u1 , . . . , un } em
de e
Rn , relativamente a` qual a equacao
1 y21 + + n y2n = 1,

Sec
ao 18

Formas Quadr
aticas

237

os autovalores da matriz simetrica [aij ].


onde 1 , . . . , n sao
Noutras palavras, quando se exprime o vetor v = y1 u1 + +yn un
linear dos elementos da base U , tem-se v se, e
como combinacao

somente se, suas coordenadas y1 , . . . , yn satisfazem a equacao


X
i y2i = 1.

As retas que contem os vetores ui da base U chamam-se os eixos

principais da quadrica
central .
Quando n = 2, chama-se uma conica. Portanto, a conica defi
nida em R2 pela equacao
ax2 + 2bxy + cy2 = 1

pode, numa nova base ortonormal de R2 , ser representada pela e


quacao
s2 + t2 = 1,


a b
os autovalores da matriz
onde , sao
.
b c
Segundo os sinais desses autovalores, as seguintes possibilidades
podem ocorrer:
1o ) Se < 0 (isto e , ac < b2 ) tem-se uma hiperbole.
2o ) Se > 0 e > 0 (isto e , a > 0 e ac > b2 ) tem-se uma elipse.
3o ) Se < 0 e < 0 (isto e , a < 0 e ac > b2 ) tem-se o conjunto
vazio.
4o ) Se = 0 (isto e , ac = b2 ) tem-se um par de retas paralelas, ou
o conjunto vazio, conforme seja a + c > 0 ou a + c 0.
Evidentemente, quando = > 0 tem-se uma circunferencia.
claro que, em cada caso concreto, dada a equacao
ax2 + 2bxy +
E
imediata do metodo de Lagrange (de comple= 1, uma aplicacao
tar o quadrado) permite escrever o primeiro membro sob a forma
b1 y21 + b2 y22 e da constatar, conforme os sinais de b1 e b2 , se se
trata de elipse, hiperbole ou um par de retas. Convem ter em conta,
porem, que o metodo de Lagrange, embora eficiente (principalmente
cy2

238

Formas Quadr
aticas

Sec
ao 18

em dimensoes maiores do que 2, onde e muito difcil calcular os au fornece bases ortonormais. Em particular, ele nao

tovalores), nao
permite distinguir uma elipse de uma circunferencia.
3, as superfcies quadricas

Em dimensao
centrais R3 tem,

num sistema de coordenadas ortogonais conveniente, uma equacao


do tipo
1 y21 + 2 y22 + 3 y23 = 1.
as seguintes:
As possibilidades sao
1o ) Se 1 > 0, 2 > 0 e 3 > 0, e um elipsoide.

2o ) Se 1 > 0, 2 > 0 e 3 < 0, e um hiperboloide de revolucao.


3o ) Se 1 > 0, 2 < 0 e 3 < 0, e um hiperboloide de duas folhas.
0, e o conjunto vazio.
4o ) Se 1 , 2 e 3 sao

5o ) Se 3 = 0, = C R = {(v, t); v C, t R}, onde C R2 e

definido pela equacao


1 y21 + 2 y22 = 1.
Neste caso, e um cilindro de base C.

das coordenadas se necesObserve que, mudando a numeracao

sario,
podemos sempre supor 1 > 0.

Ha outro tipo mais geral de quadricas,


alem das centrais. Sao
n
do tipo
subconjuntos R definidos por uma equacao
n
X

aij xi xj +

i,j=1

n
X

bi xi = c.

i=1

A escolha de uma base ortonormal conveniente em Rn faz com


assuma a forma
que esta equacao
r
X
i=1

i y2i +

n
X

bi yi = c,

i=1

onde r e o posto da matriz [aij ] e 1 6= 0, . . . , r 6= 0.


Procurando eliminar o termo linear bi yi mediante escolha de

novas coordenadas, somos levados a efetuar uma translacao.


(Ate

Sec
ao 18

Formas Quadr
aticas

239

agora nossas mudancas de coordenadas eram feitas por meio de


transformaco es lineares, logo preservavam a origem.) Introduzindo
as novas coordenadas
bi
2i
= yr+1 ,

zi = yi +
zr+1
..
.

(i = 1, . . . , r),

zn = yn ,
acima se torna
a equacao
1 z21 + + r z2r + br+1 zr+1 + + bn zn = c ,
na qual conseguimos eliminar os r primeiros termos lineares.
Pode ocorrer que os coeficientes bj sejam todos iguais a zero.
da
Neste caso, a forma simplificada que buscamos para a equacao

quadrica
e :
1 z21 + + r z2r = c .

Se r = n, e simplesmente a figura que resulta de uma quadrica


Se r < n entao
as ultimas

central depois de uma translacao.


nr
coordenadas zr+1 , . . . , zn podem ser tomadas arbitrariamente, en
quanto as r primeiras definem uma quadrica
em Rr , logo e um
cilindro generalizado: produto cartesiano = Rnr onde e

uma quadrica
em Rr .

Se algum dos numeros


bj (r + 1 j n) for 6= 0, introduziremos
novas coordenadas t1 , . . . , tn de tal modo que t1 = z1 , . . . , tr = zr e
br+1 zr+1 + + bn zn c = dtr+1 .
de modo a eliminar c . Para isso
Primeiro fazemos uma translacao
o
escolhemos um ponto (zr+1 , . . . , zon ) tal que
br+1 zor+1 + + bn zon = c
e escrevemos
s1 = z1 , . . . , sr = zr , sr+1 = zr+1 zor+1 , . . . , sn = zn zon .

240

Formas Quadr
aticas

Sec
ao 18

nas coordenadas si , a equacao


da quadrica

Entao,
se torna:
1 s21 + + r s2r + br+1 sr+1 + + bn sn = 0.

No espaco Rnr , a expressao


br+1 sr+1 + + bn sn
e o produto interno hb, wi, onde
b = (br+1 , . . . , bn )

e w = (sr+1 , . . . , sn ).

Escolhamos nesse espaco uma base ortonormal cujo primeiro ele


mento seja o vetor unitario
u = b/|b|. Sejam (tr+1 , . . . , tn ) as coor tr+1 = hu, wi,
denadas do vetor w = (sr+1 , . . . , sn ) nesta base. Entao
logo hb, wi = |b|tr+1 . Escrevendo t1 = s1 , . . . , tr = sr , vemos que, nas
da quadrica

novas coordenadas ti a equacao


assume a forma:
1 t21 + + r t2r + dtr+1 = 0,
onde d = |b|.
Observemos que todas as mudancas de coordenadas foram feitas mediante translaco es e transformaco es lineares ortogonais (ou,

o que e o mesmo, escolhas de bases ortonormais). Podemos entao

concluir que, dada uma quadrica:


:

n
X

aij xi xj +

i,j=1

n
X

bi x i = c

(*)

i=1

em Rn , existe uma mudanca de coordenadas


xi =

n
X

mij tj + ki

(i = 1, . . . , n)

j=1

tal que m = [mij ] e uma matriz ortogonal e, efetuando essa transfor na equacao
(*) de , ela se torna
macao
1 t21 + + r t2r + dtr+1 = 0,
ou
1 t21 + + r t2r = c ,

(d 6= 0)

Sec
ao 18

Formas Quadr
aticas

241

os seus autovalores
onde r e o posto da matriz [aij ] e 1 , . . . , r sao

nao-nulos.
No primeiro caso, supondo r = n 1, a quadrica
pode
ser definida por
tn = 1 t21 + + n1 t2n1
(com i = i /d) e chama-se um paraboloide.

Exerccios
18.1. Determine a matriz de cada uma das formas bilineares abaixo,
relativamente a` base especificada:
(a) b : R4 R4 R, b(u, v) = hu, vi, base {v1 , v2 , v3 , v4 } R4 , onde
v1 =(2, 0, 3, 1), v2 =(1, 2, 1, 1), v3 =(0, 1, 2, 1), v4 =(1, 2, 3, 1).
(b) b : Rn Rn R, b(u, v) = hAu, vi, A L(Rn ), base canonica
de Rn .
(c) b : Rn Rn R, b(u, v) = hAu, Bvi, A, B L(Rn ), base canonica
de Rn .

(d) b : Rn Rn R, b(u, v) = hu, ai hv, bi, a, b Rn , base canonica


de Rn .

18.2. Seja : R3 R a forma quadratica


dada por (x, y, z) = x2 +
2
2
y z + 2xy 3xz + yz. Qual e a matriz de na base {u, v, w} R3 ,
onde u = (3, 0, 1), v = (1, 1, 2), w = (2, 1, 2) ?

18.3. Prove que o conjunto das formas quadraticas


no espaco vetorial E e um subespaco vetorial Q(E) F(E; R). Se dim E = n, prove
que dim Q(E) = n(n + 1)/2.
18.4. Assinale V(erdadeiro) ou F(also):
(

) O conjunto das formas quadraticas


de ndice i no espaco vetorial E e um cone convexo em F(E; R).

) A matriz do operador B : E E na base U e igual a` matriz da


forma bilinear b(u, v) = hu, Bvi na mesma base.

242

Formas Quadr
aticas

Sec
ao 18

) As formas bilineares b e b , que correspondem aos operadores B e B segundo o Teorema 18.2, definem a mesma forma

quadratica
(v) = b(v, v) = b (v, v).

) O operador auto-adjunto B : E E e a forma bilinear simetrica


b : E E R, que lhe corresponde conforme o Teorema 18.2,
tem a mesma matriz relativamente a qualquer base de E.

18.5. A matriz de uma forma bilinear b : EE na base U ={u1 , . . . , un }

E e dada por bij = b(ui , uj ). Supondo conhecida a forma quadratica : E R, como se pode obter a matriz de na base U a partir
dos seus valores (v), v E ?

18.6. Sejam f, g : E R funcionais lineares. Prove que a forma


bilinear anti-simetrica f g : E E, definida por (f g)(u, v) =
f(u)g(v) f(v)g(u), e identicamente nula se, e somente se, um dos

funcionais dados e multiplo


do outro.
18.7. Seja b : E E R uma forma bilinear anti-simetrica no espaco
finita. Prove que as seguintes afirmaco es
vetorial E, de dimensao
equivalentes:
sobre b sao
(1) Tem-se b = f g, onde f, g E .
(2) Existe uma base V = {v1 , . . . , vn } E tal que b(vi , vj ) = 0 se
{i, j} 6= {1, 2}.
Conclua que toda forma bilinear em R3 e do tipo b = f g.
E em R4 ?

18.8. Seja b : R5 R5 R uma forma bilinear anti-simetrica. Prove

que existem numeros


, e uma base {v1 , v2 , v3 , v4 , v5 } R5 tais que
b(v1 , v2 ) = b(v2 , v1 ) = , b(v3 , v4 ) = b(v4 , v3 ) = e b(vi , vj ) = 0 nos
demais casos.
Conclua que existem funcionais lineares
f1 , f2 , f3 , f4 : R5 R tais que b = f1 f2 + f3 f4 .

finita, com produto


18.9. Sejam E, F espacos vetoriais de dimensao
interno. Estabeleca um isomorfismo natural entre B(E F) e L(E; F).
entre as matrizes de uma forma bilinear e da
Determine a relacao
linear que lhe corresponde.
transformacao

Sec
ao 18

Formas Quadr
aticas

243

18.10. Dados os funcionais lineares f, g : E R, considere a forma


bilinear f g : E E R (produto tensorial de f e g) definida por
(f g)(u, v) = f(u) g(v). Prove as seguintes afirmaco es:
(a) f g = 0 f = 0 ou g = 0.

(b) f g = g f um dos funcionais f, g e multiplo


do outro.

as formas bilineares fi fj
(c) Se {f1 . . . , fn } E e uma base entao
constituem uma base de B(E E).

(d) Nas condico es do item (c), as formas fi fj = fi fj + fj fi , com


i j, constituem uma base para o espaco das formas bilineares
simetricas.
de (c), as formas fi fj = fi fj fj fi , com
(e) Com a notacao
i < j, constituem uma base para o espaco das formas bilineares
anti-simetricas.

18.11. Dada a forma quadratica


: R2 R, com (x, y) = 2x2 y2 +

3xy, ache uma base ortonormal {u, v} R2 e numeros


, tais que,
2
2
para todo vetor w = su + tv R se tenha (w) = s + t2 .
18.12. Dada a matriz simetrica



4 1
b=
,
1 2
ache uma matriz ortogonal p tal que pT bp seja uma matriz diagonal.
A partir da obtenha uma base ortonormal {u, v} R2 tal que a forma

quadratica
: R2 R, com (x, y) = 4x2 + 2xy + 2y2 se escreva como
(w) = s2 + t2 para todo vetor w = su + tv.

18.13. Dadas as formas quadraticas


abaixo, use o metodo de Lagrange para exprimi-las como somas e diferencas de quadrados e, a
partir da, determine o ndice e o posto de cada uma delas:
(a)

(x, y) = x2 + 9y2 + 6xy

(b)

(x, y) = x2 + 8y2 + 6xy

(c)

(x, y, z) = x2 + 2xy + z2 3xz + y2 2yz

(d)

(x, y, z) = 8x2 + 36yz 6y2 27z2 24xy

244

Formas Quadr
aticas

Sec
ao 18

18.14. Dada a forma quadratica


: R2 R, com (x, y) = ax2 +
2
bxy + cy , escreva-a como
  2
 

x
x
(x, y) = y a
+b
+c
y
y
2

= y2 [at2 + bt + c],

t = x/y,

e use o trinomio at2 + bt + c para obter condico es sobre a, b, c que

caracterizam se e positiva, negativa, indefinida, nao-negativa


ou

nao-positiva.
linear invertvel. Para
18.15. Seja A : E F uma transformacao

toda forma quadratica


: F R, prove que = A : E R e uma

forma quadratica
em E, com o mesmo ndice e o mesmo posto que .
18.16. Prove que todo operador linear invertvel A : Rn Rn trans

forma uma quadrica


Rn noutra quadrica
de mesmo tipo.

19
Determinantes

O determinante surgiu inicialmente nas formulas que exprimem a


solucao
de um sistema determinado de n equaco es lineares a n incognitas. Posteriormente, ele foi identificado como a area

de um paralelogramo ou o volume de um paraleleppedo e depois, de forma


definitiva, como a funcao
multilinear alternada da qual todas as outras se deduzem.
Tradicionalmente se tem o determinante de uma matriz quadrada, ou de uma lista de vetores, que sao
as colunas (ou linhas) dessa

matriz. Em Algebra
Linear, e mais apropriado falar do determinante
de um operador linear. Seu interesse aqui decorre principalmente do
fato de que um operador e invertvel se, e somente se, seu determinante e diferente de zero. A partir da, o determinante fornece um
polinomio de grau n cujas razes reais sao
os autovalores de um operador num espaco vetorial n-dimensional (polinomio caracterstico),
polinomio esse que estudaremos na secao
seguinte.
Faremos aqui uma breve apresentacao
do conceito de determinante e de suas principais propriedades. Nosso ponto de partida sao

as funco es multilineares, mais especificamente as alternadas.


E representa um espaco vetorial de dimensao

Em toda esta secao,


ordenadas.
n, no qual todas as bases que tomaremos serao

246

Determinantes

Sec
ao 19

Uma forma r-linear no espaco vetorial E e uma funcao


f : E E R,

definida no produto cartesiano E E = Er , que e linear em cada

uma das suas variaveis,


isto e :
f(v1 , . . . , vi + vi , . . . , vr ) = f(v1 , . . . , vi , . . . , vr ) + f(v1 , . . . , vi , . . . , vr ),
f(v1 , . . . , vi , . . . , vr ) = f(v1 , . . . , vi , . . . , vr ),
para v1 , . . . , vi , vi . . . , vr E e R quaisquer.

Se f e r-linear e um dos vetores v1 , . . . , vr e igual a zero entao


f(v1 , . . . , vr ) = 0, pois
f(. . . , 0, . . .) = f(. . . , 0.0, . . .) = 0.f(. . . , 0, . . .) = 0.
Teorema 19.1. Seja U = {u1 , . . . , un } E uma base. Para cada uma
das nr listas ordenadas J = (j1 , . . . , jr ) de inteiros compreendidos entre 1 e n, fixemos um numero

real aJ = aj1 j2 ...jr . Existe uma, e somente


uma, forma r-linear f : E E R tal que f(uj1 , . . . , ujr ) = aJ para
todo J = (j1 , . . . , jr ).

Noutras palavras, uma forma r-linear f : Er R fica inteiramente determinada quando se conhecem seus nr valores

e esses valores podem


f(uj1 , . . . , ujr ) nas listas de elementos basicos,
ser escolhidos arbitrariamente.

Demonstracao:
Para facilitar a escrita, tomemos r = 3. O caso
geral se trata igualmente. Suponhamos dado, para cada lista (i, j, k)

de numeros
naturais compreendidos entre 1 e n, um numero
real
aijk . Definamos f : E E E R pondo
f(u, v, w) =

n
X

aijk xi yj zk ,

i,j,k=1

se
u=

xi u i ,

v=

y j uj

w=

z k uk .

Verifica-se facilmente que f, assim definida, e trilinear e que


f(ui , uj , uk ) = aijk . Alem disso, se g : E E E R e trilinear e
para
g(ui , uj , uk ) = aijk para i, j, k = 1, . . . , n quaisquer, entao
X
X
X
u=
xi u i , v =
y j uj e w =
z k uk .

Sec
ao 19

Determinantes

247

arbitrarios,
tem-se

logo g = f.

X
X
X
g(u, v, w) = g(
xi u i ,
y j uj ,
z k uk )
X
=
xi yj zk g(ui , uj , uk )
X
=
aijk xi yj zk = f(u, v, w),

Corolario.
O espaco vetorial Lr (E; R) das formas r-lineares
f : E E R tem dimensao
nr .

Com efeito, uma vez fixada a base U E, o Teorema 19.1 faz

corresponder, biunivocamente, a cada f Lr (E; R) os nr numeros


aJ .
r
Isto determina um isomorfismo entre Lr (E; R) e Rn .

Uma forma r-linear f : E E R chama-se alternada quando


f(v1 , . . . , vr ) = 0 sempre que a lista (v1 , . . . , vr ) tiver repetico es, ou
seja, quando
f(v1 , . . . , vi1 , v, vi+1 , . . . , vj1 , v, vj+1 , . . . , vr ) = 0
para quaisquer v, v1 , . . . , vr E.
Teorema 19.2. Uma forma r-linear f : E E R e alternada
se, e somente se, e anti-simetrica, isto e ,
f(v1 , . . . , vi , . . . , vj , . . . , vr ) = f(v1 , . . . , vj , . . . , vi , . . . , vr )

para quaisquer v1 , . . . , vr E.
Por simplicidade, escrevamos
Demonstracao:
f(v1 , . . . , u, . . . , v, . . . , vr ) = (u, v).
f alternada implica (u, u) = (v, v) = (u + v, u + v) = 0,
Entao,
logo
0 = (u + v, u + v) = (u, u) + (u, v) + (v, u) + (v, v)
= (u, v) + (v, u),
portanto (u, v) = (v, u), de modo que f e anti-simetrica. Re (v, v) = (v, v) logo
ciprocamente, se f e anti-simetrica entao
2(v, v) = 0, (v, v) = 0 e f e alternada.

248

Determinantes

Sec
ao 19

Corolario.
Seja f : E E R r-linear alternada. Para toda permutacao
dos inteiros 1, 2, . . . , r, e toda lista de vetores v1 , . . . , vr E
tem-se
f(v(1) , . . . , v(r) ) = f(v1 , . . . , vr ),
isto e ,
f(v(1) , . . . , v(r) ) = f(v1 , . . . , vr ),

onde o sinal e + se e uma permutacao


par e se e uma permutacao
mpar. (Vide Apendice.)
encia (v1 , . . . , vr ) para (v(1) , ..., v(r) )
Com efeito, passa-se da sequ
mediante k transposico es sucessivas, que correspondem a k mudan
cas de sinal no valor de f. Como = (1)k , o corolario
segue-se.
Ar (E) indica o espaco vetorial das formas r-lineares
A notacao
alternadas f : E E R.

Exemplo 19.1. Dados os funcionais lineares f1 , . . . , fr : E R, a


f : E E R, definida por
funcao
f(v1 , . . . , vr ) = f1 (v1 ) f2 (v2 ) fr (vr )

e uma forma r-linear, chamada o produto tensorial dos funcionais


lineares f1 , . . . , fr .
Exemplo 19.2. Todo funcional linear f : E R e uma forma 1-linear
e possvel violar a condicao
de anti-simetria.
alternada, ja que nao
Portanto A1 (E) = E .

r-linear f : R R R e do
Exemplo 19.3. Qualquer aplicacao
tipo f(t1 , . . . , tr ) = a t1 t2 tr , onde a = f(1, . . . , 1). (Vide Teorema
19.1.) Quando r > 1, f so pode ser alternada quando a = 0. Logo
Ar (R) = {0} se r > 1.

Exemplo 19.4. A forma f : R2 R2 R, definida por f(u, v) = x1 y2


x2 y1 quando u = (x1 , x2 ) e v = (y1 , y2 ), e bilinear alternada. Se
g : R2 R2 R e qualquer outra forma bilinear alternada em R2
pondo c = g(e1 , e2 ), vem:
entao,
g(u, v) = g(x1 e1 + x2 e2 , y1 e1 + y2 e2 )

= x1 y1 g(e1 , e1 ) + x1 y2 g(e1 , e2 )
+ x2 y1 g(e2 , e1 ) + x2 y2 g(e2 , e2 )
= (x1 y2 x2 y1 )g(e1 , e2 )
= c (x1 y2 x2 y1 ) = c f(u, v)

Sec
ao 19

Determinantes

249

pois g(e1 , e1 ) = g(e2 , e2 ) = 0 e g(e2 , e1 ) = g(e1 , e2 ). Isto mos


tra que toda forma bilinear alternada g e um multiplo
de f, logo
2
dim A2 (R )=1.
Teorema 19.3. Seja f : E E R r-linear alternada. Se os
vetores v1 , . . . , vr forem L.D. entao
f(v1 , . . . , vr ) = 0.

Demonstracao:
Isto e claro se v1 = 0. Caso contrario,
um dos
linear dos anteriores:
vetores, digamos vi , e combinacao
X
vi =
j v j .
j<i

Entao
f(v1 , . . . , vr ) = f(v1 , . . . ,
=

j v j , . . . , v r )

j<i

j f(v1 , . . . , vj , . . . , vj , . . . , vr ) = 0

j<i

pois f e alternada.

Corolario
1. Se existe uma forma r-linear alternada f : E
E R tal que f(v1 , . . . , vr ) 6= 0 entao
os vetores v1 , . . . , vr E sao

linearmente independentes.

Corolario
2. Se r > dim E entao
Ar (E) = {0}.

Com efeito, sendo r > dim E, quaisquer r vetores v1 , . . . , vr sao


linearmente dependentes, logo f(v1 , . . . , vr ) = 0 para todo f Ar e
todos v1 , . . . , vr E.
A partir de agora, concentraremos nosso interesse nas formas
n-lineares alternadas, f An (E), onde n = dim E. O resultado fun
damental e o teorema seguinte e, principalmente, seu Corolario
1.
Teorema 19.4. Seja U = {u1 , . . . , un } uma base de E. Dado arbitrariamente um numero

real a, existe uma unica

forma n-linear alternada f : E E R tal que f(u1 , . . . , un ) = a.

Suponhamos inicialmente que exista f An (E) tal


Demonstracao:
que f(u1 , . . . , un ) = a. Se g An (E) for tal que g(u1 , . . . , un ) tambem
para toda lista de vetores ui1 , . . . , uin U tem-se:
e igual a a, entao
g(ui1 , . . . , uin ) = 0 = f(ui1 , . . . , uin ),

250

Determinantes

Sec
ao 19

se houve repetico es na lista;


g(ui1 , . . . , uin ) = g(u(1) , . . . , u(n) )
= g(u1 , . . . , un )
= a
= f(u1 , . . . , un )
= f(ui1 , . . . , uin )
dos inteiros
se (i1 , . . . , in ) = ((1), . . . , (n)) for uma permutacao
houver repetico es na lista. Segue-se entao

(1, . . . , n), isto e , se nao


do Teorema 19.1 que f = g. Portanto a forma n-linear alternada f
fica determinada por seu valor f(u1 , . . . , un ).
Isto nos indica como obter uma forma n-linear alternada
f : E E R tal que f(u1 , . . . , un ) = a. Para toda lista ordenada (i1 , . . . , in ) de inteiros compreendidos entre 1 e n, poremos
f(ui1 , . . . , uin ) = 0 se houver repetico es na lista, f(ui1 , . . . , uin ) =
par dos numeros

a se (i1 , . . . , in ) for uma permutacao


1, 2, . . . , n e
mpar
f(ui1 , . . . , uin ) = a se a lista i1 , . . . , in for uma permutacao

dos numeros
1, 2, . . . , n. Pelo Teorema 19.1, ha uma unica
forma nlinear f : E E R com estas propriedades. Resta provar que f e
alternada. Com esse objetivo, tomamos um vetor v = xi ui qualquer.

Entao:
f(v v) =
=

n
X

i,j=1

X
i

xi xj f(ui uj )

xi xi f(ui ui ) +

X
i>j

(1)

= 0+

X
i<j

(2)

X
i<j

(3)

X
i<j

X
i<j

xi xj f(ui uj )

xi xj f(ui uj )
xi xj f(ui uj )

xi xj f(ui uj )
xi xj f(ui uj )

X
i<j

X
i<j

X
i>j

xi xj f(uj ui )

xj xi f(ui uj )
xi xj f(ui uj ) = 0.

Sec
ao 19

Determinantes

251

em lugar de n 2 vetores que permaAcima, os asteriscos estao


A igualdade (1) usa o fato de
necem fixos durante a argumentacao.
(n 2)-linear desses vetores, que satisque f(ui uj ) e uma funcao
f(ui uj ) = f(uj ui ) quando esses n 2 vetores
faz a condicao
pertencem a` base U logo, pelo Teorema 19.1, esta igualdade vale em
geral. Segue-se que f(ui ui ) = 0. Na igualdade (2) foram trocados
os nomes dos ndices mudos i, j. Finalmente, a igualdade (3) usa
apenas que xi xj = xj xi .

Corolario
1. Se dim E = n entao
dim An (E) = 1.
Com efeito, fixada a base U = {u1 , . . . , un } E, existe f An (E)
para toda gAn (E), se g(u1 , ..., un ) = a
tal que f(u1 , ..., un )=1. Entao,
tem-se tambem (af)(u1 , . . . , un ) = a, logo g = af. Portanto, {f} e uma
base de An (E).

Corolario
2. Se {u1 , . . . , un } E e uma base e 0 6= f An (E) entao

f(u1 , . . . , un ) 6= 0.
Com efeito, pelo Teorema 19.4 existe fo An (E) tal que

fo (u1 , . . . , un ) = 1. Pelo Corolario


1, f = afo , com a 6= 0. Logo
f(u1 , . . . , un ) = afo (u1 , . . . , un ) = a 6= 0.
linear A : E F induz uma transformacao

Toda transformacao
linear A# : An (F) An (E), a qual faz corresponder a cada forma nlinear alternada f : F F R a nova forma A# f : E E R,
definida por
(A# f)(v1 , . . . , vn ) = f(Av1 , . . . , Avn ),
facil
verificar que realmente A# f An (E), que
onde v1 , . . . , vn E. E
#
#
#
#

(BA) = A B e I = I. Se A for um isomorfismo, A# tambem sera,


#
1
1
#
com (A ) = (A ) .
Seja agora A : E E um operador linear.
Como dim An (E) = 1, o operador linear A# : An (E) An (E) con por um numero

siste na multiplicacao
real, que chamaremos o deter det A.
minante do operador A : E E e indicaremos com a notacao
#
A f = det A f, isto e ,
Assim, por definicao,
f(Av1 , . . . , Avn ) = det A f(v1 , . . . , vn )

para toda f : E E R n-linear alternada e quaisquer v1 , . . . ,


vn E.

252

Determinantes

Sec
ao 19

Isto define o determinante de um operador de modo intrnseco,


sem recurso a bases ou matrizes. A seguir mostraremos como obter,
as formas classicas

a partir desta definicao,


de apresentar o determi provar duas propriedades
nante. De imediato, veremos como e facil
cruciais do determinante.
Teorema 19.5. Se A, B : E E sao
operadores lineares entao

det(BA) = det B det A.

Sejam {v1 , . . . , vn } E uma base e 0 6= f An (E),


Demonstracao:

logo f(v1 , . . . , vn ) 6= 0. Entao


det(BA).f(v1 , . . . , vn ) = f(BAv1 , . . . , BAvn )
= det B.f(Av1 , . . . , Avn )
= det B. det A.f(v1 , . . . , vn ),
portanto det(BA) = det B det A.

Corolario.
Se A : EE e um operador nao-negativo

entao
det A0.

Com efeito, existe B : EE tal que A=B2 , logo det A=(det B)2 0.
O teorema abaixo mostra que det A > 0 quando A e positivo.
Teorema 19.6. O operador linear A : E E e invertvel se, e somente
se, det A 6= 0. No caso afirmativo, tem-se det(A1 ) = (det A)1 .
de AA1 = I resulta
Se existe A1 , entao
Demonstracao:
det A. det(A1 ) = det(AA1 ) = det I = 1,
logo det A 6= 0 e det(A1 ) = (det A)1 . Reciprocamente, se det A 6=
tomando uma base {v1 , . . . , vn } E e uma forma n-linear
0 entao,

alternada nao-nula
f : E E R temos
f(Av1 , . . . , Avn ) = det A.f(v1 , . . . , vn ) 6= 0,

logo, pelo Corolario


1 do Teorema 19.3, os vetores Av1 , . . . , Avn constituem uma base de E. Assim, A e invertvel.

Corolario.
O sistema de equaco es lineares Ax = b, com A L(Rn ),
possui uma unica

solucao
se, e somente se, det A 6= 0.

Sec
ao 19

Determinantes

253

Definamos, a seguir, o determinante de uma matriz quadrada.


Dada a M(n n), escreveremos, de agora em diante, a =
os vetores-coluna da
[v1 , . . . , vn ] para significar que v1 , . . . , vn sao
matriz a. Seja A : Rn Rn o operador linear cuja matriz na base
canonica de Rn e a, ou seja, Ae1 = v1 , . . . , Aen = vn .
o determinante da matriz a e igual a det A.
Por definicao,
Assim, se fo An (Rn ) e a forma n-linear alternada tal que

fo (e1 , . . . , en ) = 1 (vide Teorema 19.4) entao


det a = det A = det A.fo (e1 , . . . , en ) = fo (Ae1 , . . . , Aen ),
ou seja:
det a = fo (v1 , . . . , vn ).
Portanto det : M(n n) R e a unica

funcao
n-linear alternada
das colunas da matriz a = [v1 , . . . , vn ] que assume o valor 1 na matriz
identidade In .
n-linear alternada f(a) = f(v1 , . . . ,
Para uma qualquer funcao
vn ) das colunas da matriz a = [v1 , . . . , vn ], tem-se evidentemente
f(a) = f(v1 , . . . , vn ) = c det a, onde c = f(In ) = f(e1 , . . . , en ).
Escrevemos det[v1 , . . . , vn ] para indicar o determinante da ma os vetores v1 , . . . , vn Rn . A afirmacao
acima
triz cujas colunas sao
axiomatica

destacada e a caracterizacao
dos determinantes feita por
Weierstrass. Segundo ela, todas as propriedades dos determinantes
podem, em princpio, ser deduzidas das seguintes:
1) det[. . . , vi + wi , . . .] = det[. . . , vi , . . .] + det[. . . , wi , . . .];
2) det[. . . , vi , . . .] = det[. . . , vi , . . .];
3) det[. . . , vi , . . . , vj , . . .] = det[. . . , vj , . . . , vi , . . .];
4) det[e1 , . . . , en ] = 1.
Por exemplo, vale:
5) O determinante de uma matriz nao
se altera quando se soma a
uma de suas colunas uma combinacao
linear das demais.
Seja
w=

X
j6=i

j v j .

254

Determinantes

Sec
ao 19

acima significa que


A afirmacao
det[v1 , . . . , vi + w, . . . , vn ] = det[v1 , . . . , vi , . . . , vn ],
o que e claro pois a segunda parcela do segundo membro abaixo e
zero, pelo Teorema 19.3:
det[. . . , vi + w, . . . , ] = det[. . . , vi , . . .] + det[. . . , w, . . .].
de 5) temos o
Como aplicacao
Exemplo 19.5. O determinante de uma matriz triangular e igual
ao produto dos elementos de sua diagonal. Com efeito, seja t = [tij ]
M(n n) triangular superior. Escrevendo t = [v1 , . . . , vn ], temos
v1 = t11 e1 ,
v2 = t12 e1 + t22 e2 ,
v3 = t13 e1 + t23 e2 + t33 e3 , etc.
Portanto
det t = det[t11 e1 , v2 , . . . , vn ]
= t11 det[e1 , t12 e1 + t22 e2 , v3 , . . .]
= t11 t22 det[e1 , e2 , t13 e1 + t23 e2 + t33 e3 , v4 , . . .]
= t11 t22 t33 det[e1 , e2 , e3 , v4 , . . .].
Prosseguindo analogamente, chegamos a
det t = t11 t22 . . . tnn .
Dos Teoremas 19.5 e 19.6 resulta que det(ba) = det b det a
e que det a 6= 0 se, e somente se, existe a1 . No caso afirmativo,
det(a1 ) = (det a)1 .
Exemplo 19.6. (Regra de Cramer.) Seja a M(nn) uma matriz
invertvel. Dado b Rn , indiquemos com o smbolo a[i; b] a matriz

obtida de a quando se substitui sua i-esima coluna por b. A solucao


do sistema linear ax = b, de n equaco es a n incognitas e o vetor

x = (x1 , . . . , xn ) cujas coordenadas sao


xi =

det a[i; b]
,
det a

i = 1, . . . , n.

Sec
ao 19

Determinantes

255

Com efeito, se a = [v1 , . . . , vn ], a igualdade ax = b significa que


b = x1 v1 + + xn vn . Assim, para cada i de 1 ate n, tem-se
det a[i; b] = det[v1 , . . . , b, . . . , vn ]
n
X
xk det[v1 , . . . , vk , . . . , vn ]
=
k=1

= xi det[v1 , . . . , vn ]
= xi det a.

pois, quando k 6= i, a matriz [v1 , . . . , vk , . . . , vn ], com vk na i-esima


coluna, tem duas colunas iguais a vk , logo seu determinante e zero.
que xi = det a[i; b]/ det a.
Segue-se entao
matrizes do mesmo operador A em relacao
a bases
Se a e a sao

1
a = p ap, onde p e a matriz de passagem de uma
diferentes entao
base para a outra. Portanto
det a = (det p)1 det a det p = det a.
mostrando que o
O teorema seguinte completa esta observacao,
determinante de todas essas matrizes e igual a det A.
Teorema 19.7. O determinante do operador linear A : E E e igual
ao determinante de uma matriz de A numa base qualquer de E.

Demonstracao:
Seja a = [aij ] M(n n) a matriz de A numa
det a = det Ao , onde Ao : Rn Rn e o
base U E. Por definicao,
operador cuja matriz na base canonica de Rn e a. Seja : E Rn
o isomorfismo que transforma
U na base canonica de Rn . Para cada
P
uj U , tem-se Auj = i aij ui , logo
X
X
(Auj ) =
aij (ui ) =
aij ei = Ao ej = Ao (uj ).
i

Segue-se que A = Ao , ou seja, Ao = A 1 . Portanto, para


cada f An (Rn ) tem-se
det a f = A#o f = (# )1 A# # f = (# )1 det A # f =
= det A (# )1 # f = det A f.

Assim, det a = det A.

256

Determinantes

Sec
ao 19

Tradicionalmente, o determinante de uma matriz a = [aij ]


M(n n) e definido como a soma de n! parcelas do tipo
a1j1 a2j2 anjn .
produtos de n fatores que pertencem a linhas
Essas parcelas sao
dispostos
e colunas diferentes de a. A ordem em que os fatores sao
e a ordem crescente dos ndices 1, 2, . . . , n das linhas. Os segundos
ndices (das colunas) exibem uma permutacao
= (j1 , . . . , jn ) dos
inteiros 1, 2, . . . , n. O sinal que precede cada parcela e + ou ,
seja par ou mpar respectivamente. Nouconforme a permutacao
classica

tras palavras, a definicao


do determinante e
X
det a =
a1(1) a2(2) . . . an(n) ,

o somatorio sendo estendido a todas as permutaco es dos inteiros


1, 2, . . . , n, com = 1 se e par e = 1 se e mpar.
consideremos mais uma vez a forma
Para obter esta expressao,
fo An (Rn ) tal que fo (e1 , . . . , en ) = 1, logo fo (e(1) , . . . , e(n) ) =
dos inteiros 1, 2, . . . , n.
para toda permutacao
Dada a matriz a = [aij ] = [v1 , . . . , vn ] M(n n), temos
n
X

v1 =
v2 =

i1 =1
n
X

ai1 1 ei1 ,
ai2 2 ei2 ,

i2 =1

..
.
vn =

n
X

ain n ein ,

in =1

logo

det a = fo (v1 , . . . , vn )

n
n
n
X
X
X
= fo
ain n ein
ai2 2 ei2 , . . . ,
ai1 1 ei1 ,
i1 =1

n
X

i1 ,...,in =1

i2 =1

in =1

ai1 1 ai2 2 . . . ain n fo (ei1 , ei2 , . . . , ein ).

Sec
ao 19

Determinantes

257

nulas as parcelas em que ha repetiNeste ultimo


somatorio, sao
co es entre os ndices i1 , i2 , . . . , in , restando apenas aquelas em que
(i1 , i2 , . . . , in ) = ((1), (2), . . . , (n))
dos inteiros 1, 2, . . . , n. Neste caso,
e uma permutacao
ai1 1 ai2 2 . . . ain n = a1(1) a2(2) . . . an(n) ,
onde = 1 e a parcela correspondente e igual a
a1(1) a2(2) . . . an(n) f0 (e(1) , . . . , e(n) ).
Por conseguinte, levando em conta que = , tem-se:
det a =

a1(1) a2(2) . . . an(n) ,

(*)

o somatorio sendo estendido a todas as permutaco es dos inteiros 1, 2, . . . , n.


anterior (*), podemos escrever
Voltando a` expressao
X
det a =
a(1)1 a(2)2 . . . a(n)n .

Esta igualdade mostra que o determinante da matriz a e igual


ao determinante da sua transposta aT .
Se A : E E e um operador num espaco vetorial munido de pro
duto interno e a e sua matriz numa base ortonormal entao
det A = det a = det aT = det A .

Resulta da igualdade det a = det aT que o determinante e


n-linear alternada das linhas da matriz a M(n n).
uma funcao

(A unica
tal que det In = 1.) Como no caso de colunas, uma qual n-linear alternada f das linhas da matriz a e da forma
quer funcao
f(a) = c det a, onde c = f(In ) = f(e1 , . . . , en ).
encia da igualdade det A = det A e que o deterOutra consequ
minante de um operador ortogonal A e igual a 1, pois
(det A)2 = det A det A = det(A A) = det I = 1.

258

Determinantes

Sec
ao 19

a caracterizaO teorema seguinte utiliza, em sua demonstracao,


do determinante de uma matriz como funcao
multilinear altercao
nada das linhas ou das colunas dessa matriz.
Teorema 19.8. Se b M(r r), c M(r (n r)), 0 M((n r) r)
e d M((n r) (n r)) entao
o determinante da matriz


b c
a=
M(n n)
0 d
e igual a det b det d.
Para cada c fixa,
Demonstracao:



b c
f(b, d) = det
0 d
r-linear alternada das colunas de b e (n r)-linear
e uma funcao
alternada das linhas de d, logo


b c
det
= det b f(Ir , d)
0 d
= det b det d f(Ir , Inr )
= det b det d,

pois



Ir
c
f(Ir , Inr ) = det
= 1,
0 Inr
ja que o determinante de uma matriz triangular e o produto dos
elementos da sua diagonal.
mais geO Teorema 19.8 implica imediatamente uma sua versao
ral, onde se tem uma matriz triangular por blocos, por exemplo, do
tipo

b c d
e f .
a=
g

matrizes quadradas (de ordens possivelmente diferenA, b, e, g sao

tes) e b, c, d tem o mesmo numero


de linhas, assim como e, f. Alem

disso, d, f, g tem o mesmo numero


de colunas, assim como c, e. Os
ocupados por zeros.
lugares em branco sao

Sec
ao 19

Determinantes

259

Nestas condico es, det a = det b det e det g.


Mij
Dada a = [aij ] M(n n), indicaremos com a notacao

a matriz de ordem (n 1) (n 1) obtida mediante a omissao


da i-esima linha e da j-esima coluna da matriz a. O ij-esimo me o determinante det Mij o qual se chama
nor de a e , por definicao,
tambem o menor relativo ao elemento aij .
Resulta imediatamente do Teorema 19.8 que se a = [e1 , v2 , . . . ,
det a =
vn ] e uma matriz cuja primeira coluna e (1, 0, . . . , 0) entao

det M11 . Segue-se que se a = [ei , v2 , . . . , vn ] entao


det a = (1)i1 det Mi1 = (1)i+1 det Mi1
pois este caso se reduz ao anterior mediante i 1 transposico es de
linhas. Portanto, dada a = [aij ] = [v1 , . . . , vn ], com
X
v1 =
ai1 ei ,
i

tem-se
det a =

ai1 det[ei , v2 , . . . , vn ],

logo
det a =

X
(1)i+1 ai1 det Mi1 .
i

A formula acima, chamada o desenvolvimento de det a segundo

a primeira coluna, reduz o calculo


do determinante de sua matriz
n n ao de n determinantes de matrizes (n 1) (n 1).

Mais geralmente, podemos fixar um inteiro arbitrario


j, com
1 j n, e efetuar o desenvolvimento do determinante de a segundo a j-esima coluna. Para isso, observamos que se
a = [v1 , . . . , vj1 , ei , vj+1 , . . . , vn ]
det a = (1)i+j det Mij ,
e uma matriz cuja j-esima coluna e ei entao
pois a pode ser transformada numa matriz cuja primeira coluna e e1
mediante i 1 transposico es de linha e j 1 transposico es de coluna,
o que provoca i + j 2 mudancas de sinal em seu determinante, e

isto e o mesmo que multiplica-lo


por (1)i+j .
Assim, dada a = [v1 , . . . , vn ], com
X
vj =
aij ei ,
i

260

Determinantes

Sec
ao 19

temos
det a =

aij det[v1 , . . . , vj1 , ei , vj+1 , . . . , vn ],

o que fornece:
det a =

n
X

(1)i+j aij det Mij .

i=1

Este e o desenvolvimento do determinante de a segundo a j-esima


coluna.
Como o determinante de a e igual ao de sua transposta aT , vale

uma formula analoga,


que e o desenvolvimento segundo a i-esima
linha:
n
X
(1)i+j aij det Mij .
(*)
det a =
j=1

uteis

Estas formulas sao


nos calculos,
principalmente quando se
escolhe uma linha ou uma coluna com diversos elementos iguais a
zero. Elas tambem podem ser usadas como ponto de partida para
indutiva do determinante de uma matriz.
uma definicao
Resulta da formula (*) que, para quaisquer i, j = 1, . . . , n, temos
n
X
k=1

(1)j+k aik det Mjk = (det a) ij ,

(**)

ou seja, este somatorio, e igual a det a quando i = j e igual a zero


quando i 6= j. Com efeito, o caso i = j e simplesmente a formula
(*) e, para i 6= j, o somatorio acima e o desenvolvimento, segundo a
j-esima linha, do determinante de uma matriz a na qual as linhas i
iguais, portanto seu determinante e zero.
e j sao
O primeiro membro da igualdade (**) lembra um produto de
matrizes. De fato, podemos introduzir uma matriz adj a, chamada a adjunta classica

de a, pondo, para i, j = 1, . . . , n, (adj a)ij =


o primeiro membro da igualdade (**) e o ij(1)i+j det Mji . Entao
e simo elemento do produto a adj a, enquanto o segundo membro e
o ij-esimo elemento da matriz (det a).In . Portanto, a igualdade (**)
significa que
a adj a = (det a) In .

Sec
ao 19

Determinantes

261

Segue-se da que se a matriz a e invertvel (isto e , se det a 6= 0)


sua inversa se exprime como
entao
a1 =

1
adj a.
det a

Esta formula para a1 tambem pode ser obtida com auxlio da


Regra de Cramer. Com efeito, o problema de obter uma matriz a1 =
[w1 , . . . , wn ] tal que aa1 = In pode ser considerado como n sistemas
de equaco es lineares a wj = ej (j = 1, . . . , n). Pela Regra de Cramer,
wj = (x1j , . . . , xnj ) de cada um desses sistemas e dada por
a solucao
xij =

det a[i; ej ]
= (1)i+j det Mji ,
det a

pois a[i; ej ] = [v1 , . . . , vi1 , ej , vi+1 , . . . , vn ] se a = [v1 , . . . , vn ].


Uma submatriz da matriz a M(m n) e uma matriz obtida a
de algumas de suas linhas e/ou colunas.
partir de a pela omissao
Mais precisamente, dois subconjuntos
R = {i1 < < ir } {1, 2, . . . , m}
e
S = {j1 < < js } {1, 2, . . . , n}
determinam a submatriz aRS = [ai j ] M(r s) da matriz a, obtida
das linhas de a cujos ndices nao
pertencem a R e das
pela omissao
estao
em S.
colunas cujos ndices nao
Teorema 19.9. O posto de uma matriz a M(m n) e o maior
numero

r tal que a possui uma submatriz aRS M(r r), com


det aRS 6= 0.
Seja r o posto de a = [v1 , . . . , vn ]. Existe S = {j1 <
Demonstracao:
< jr } {1, 2, . . . , n} tal que {vj1 , . . . , vjr } e L.I., portanto a matriz
[vj1 , . . . , vjr ] M(m r) tem posto r. Como o posto segundo linhas e
igual ao posto segundo colunas (Teorema 8.2), existe um subconjunto
R = {i1 < < ir } {1, 2, . . . , m} tal que as linhas de [vj1 , . . . , vjr ] cujos
ndices pertencem a R sao
L.I. . Isto significa que a matriz quadrada
aRS M(r r) e invertvel, logo det aRS 6= 0. Mas e claro que o
posto de uma submatriz de a e menor do que ou igual ao posto de
a. Portanto, nenhuma submatriz k k de a, com k > r, pode ter
determinante 6= 0.

262

Determinantes

Sec
ao 19

17 (vide Observacao
no final de 17.G) foi provado que
Na Secao

uma matriz simetrica e positiva se, e somente se, seus pivos sao
todos positivos. Usaremos agora determinantes para provar outro
criterio de positividade de uma matriz, o qual e tradicional e ele
gante porem em dimensoes mais altas e muito menos pratico
do que
o teste dos pivos.
Para cada k = 1, . . . , n o menor principal de ordem k da matriz
a = [aij ] M(n n) e o determinante da submatriz principal ak =
[aij ], 1 i, j k.
Teorema 19.10. A fim de que uma matriz simetrica a = [aij ]
M(n n) seja positiva e necessario

e suficiente que seus menores


principais sejam todos positivos.

No incio de 17.G. viu-se que se a e positiva entao


Demonstracao:
positivas, logo det ak > 0 para
suas submatrizes principais ak sao
k = 1, . . . , n. Suponha, reciprocamente, que todos os menores prin a = lu (veja item
cipais sejam positivos. Tomando a decomposicao
5o em 17.F), resulta que ak = lk uk , para k = 1, . . . , n, lk e uk indicam
as submatrizes principais k k de l e u respectivamente. Segue-se
do Exemplo 19.5 que det lk = 1, pois todos os elementos da diagonal
iguais a 1. Logo det ak = det(lk uk ) = det uk = u11 u22 . . . ukk
de lk sao
(produto dos elementos da diagonal de uk ). Portanto u11 = det a1 >
0 e ukk = det ak / det ak1 > 0 para k = 2, . . . , n. Assim todos os pivos
a = lu sao
positivos, logo a matriz simetrica a
ukk da decomposicao
e positiva.

Apendice
: Jn Jn ,
Uma permutacao
dos inteiros 1, 2, . . . , n e uma bijecao
quanonde Jn = {1, 2, . . . , n}. Um exemplo particular de permutacao,
do n > 1, e dado pelas transposico es. Uma transposicao
: Jn Jn
e definida fixando-se dois elementos i 6= j em Jn , pondo (i) = j,
(j) = i e (k) = k se k
/ {i, j}.
permutaco es entao
a funcao
composta
Se , : Jn Jn sao
chamada o produto das
: Jn Jn tambem e uma permutacao,
. A inversa 1 : Jn
permutaco es e e indicada pela notacao
e ainda uma permutacao,
caracterizada pelo
Jn de uma permutacao
1
1
identidade Jn Jn . Se
fato de que = = n = permutacao

Sec
ao 19

Determinantes

263

entao
= n , ou seja, = 1 .
e uma transposicao
` vezes se representa uma permutacao
: Jn Jn pela lista
As

ordenada ((1), . . . , (n)) dos valores que ela assume nos numeros
1, 2, . . . , n.

O conjunto das permutaco es dos n numeros


1, 2, . . . , n tem
n! = 1 2 . . . n elementos.

: Jn Jn se escreve (de varias

Toda permutacao
maneiras diferentes) como produto de transposico es = 1 2 . . . k .

, o numero

Dada a permutacao
k de transposico es tais que
a sua paridade. Noutras
= 1 2 . . . k pode variar, porem nao

palavras, se puder ser expressa como produto de um numero


par
nao
podera ser expressa como produto de um
de transposico es entao

mpar de transposico es. Ou ainda, se = 1 2 . . . k onde as


numero

transposico es entao
(1)k e um numero
que depende apenas
i sao

.
de . Este numero,
igual a 1, e representado pela notacao
Quando = +1, diz-se que e uma permutacao
par. Se
= 1, diz-se que e uma permutacao
mpar. Tem-se = ,
ou seja, o produto de permutaco es pares e par, o produto de uma
par por uma permutacao
mpar e mpar e o produto de
permutacao

duas permutaco es mpares e par. E claro tambem que = 1 .

Exerccios

19.1. Sejam E1 , . . . , Er espacos vetoriais de dimensoes n1 , . . . , nr res r-linear f : E1 Er R e prove


pectivamente. Defina funcao
que o conjunto L(E1 , . . . , Er ; R) dessas funco es e um espaco vetorial
n1 n2 . . . nr .
de dimensao
n e U = {u1 , . . . , un }
19.2. Sejam E um espaco vetorial de dimensao
encia crescente J = {j1 < j2 < < jr } de
E uma base. Para cada sequ

r inteiros de 1 ate n, seja escolhido um numero


aJ . Prove que existe

uma (unica)
forma r-linear alternada f : E E R tal que
encia J = {j1 <  < jr }. Conclua
f(uj1 , . . . , ujr ) = aJ para toda sequ
igual a nr .
que o espaco vetorial Ar (E) tem dimensao

264

Determinantes

Sec
ao 19

19.3. Dados os funcionais lineares f1 , . . . , fr : E R, defina a forma


r-linear alternada f = f1 . . .fr : E E R pondo f(v1 , . . . , vr ) =
det(fi (vj )). (Produto exterior dos funcionais f1 , . . . , fr .) Prove que
L.I. . Prove tambem
f1 . . . fr 6= 0 se, e somente se, f1 , . . . , fr sao
as formas fJ = fj1 . . . fjr ,
que se {f1 , . . . , fn } E e uma base entao
para todo J = {j1 < < jr } {1, 2, . . . , n}, constituem uma base para
Ar (E).

19.4. Chama-se gramiano dos vetores v1 , v2 , . . . , vk Rn ao numero


(v1 , . . . , vk ) = det(hvi , vj i),
determinante da matriz de Gram g(v1 , . . . , vk ). Prove:
line(a) (v1 , . . . , vk ) > 0 se, e somente se, os vetores v1 , . . . , vk sao
armente independentes.
(v1 , . . . , vk ) = |v1 |2
(b) Se v1 e perpendicular a v2 , . . . , vk entao
(v2 , . . . , vk ).
do exerccio anterior, sejam w1 a projecao
or19.5. Com a notacao
togonal do vetor v1 sobre o subespaco gerado por v2 , . . . , vr e h1 =
v1 w1 , logo h1 e perpendicular aos vj com 2 j r. Prove que
(v1 , . . . , vr ) = |h1 |2 (v2 , . . . , vr ).
19.6. O paraleleppedo gerado pelos vetores linearmente independentes v1 , . . . , vr Rn e o conjunto P[v1 , . . . , vr ] das combinaco es lineares t1 v1 + + tr vr , onde 0 ti 1. O volume (r-dimensional) do
Se r = 1, ele se reduz ao segparaleleppedo e definido por inducao.

mento de reta [0, v1 ], cujo volume uni-dimensional e , por definicao,

|v1 |. Supondo definido o volume de um paraleleppedo de dimensao


r 1, poe-se
vol P[v1 , . . . , vr ] = |h1 | vol P[v2 , . . . , vr ],
onde |h1 | e a altura do paraleleppedo, isto e , h1 = v1 w1 e w1 e
ortogonal de v1 sobre o subespaco gerado por v2 , . . . , vr .
a projecao
Prove que
q
p
vol P[v1 , . . . , vr ] = (v1 , . . . , vr ) = det(hvi , vj i).

Sec
ao 19

Determinantes

265

os veto19.7. Seja a a matriz quadrada invertvel cujas colunas sao


res v1 , . . . , vn Rn . Prove que (v1 , . . . , vn ) = (det a)2 e conclua que
o paraleleppedo gerado pelos vetores v1 , . . . , vn tem volume igual a
| det a|.
19.8. Seja A : Rn Rn um operador linear invertvel. Para todo
paraleleppedo n-dimensional X Rn , prove que a imagem A(X) e
um paraleleppedo tal que vol A(X) = | det A| vol X.
19.9. Calcule o determinante da matriz

0
0
0 a14
0
0 a23 a24

0 a32 a33 a34


a41 a42 a43 a44
e generalize o resultado para uma matriz [aij ] M(n n) na qual
aij = 0 quando i + j n.
19.10. Se a matriz triangular b resulta de a pelo processo gaussi prove que det b = (1)t det a, onde t e o numero

ano de eliminacao,
de transposico es de linhas feitas durante o escalonamento. (Escalonamento e o modo mais eficaz de calcular o determinante de uma
matriz n n quando n 4.)
19.11. Escalonando a matriz de Vandermonde

1
1
1
...
1
x1
x
x
.
.
.
x
n
2
3

2
x22
x23 . . . x2n
v = x1
..
..
..
..
..
.
.
.
.
.

x1n1 x2n1 x3n1 . . . xnn1

mostre que seu determinante e igual a


(xi xj ),

i>j

dois
logo v e invertvel se, e somente se, os numeros
x1 , x2 , . . . , xn sao
mostre que, dados n + 1 pares de
a dois distintos. Como aplicacao,

numeros
(xo , yo ), . . . , (xn , yn ), onde xo <x1 < <xn , existe um, e somente um, polinomio p de grau n tal que p(xo )=yo , . . . , p(xn )=yn .

266

Determinantes

Sec
ao 19

gaussiana (escalonamento) para calcular os


19.12. Use eliminacao
determinantes das seguintes matrizes:

2 1
3
2
1 2 1 1
3 0
1 5 7 2
1 2

e
1 1 4
3 1 5 3
3
2 2 1 1
2 3 6 0
19.13. Proponha e resolva um sistema linear com o uso da regra
de Cramer e calcule pelo menos a inversa de uma matriz usando a

adjunta classica.
19.14. Calcule os determinantes das matrizes



1+a
b
c
0 Im
a

1+b
c
e
In 0
a
b
1+c
onde os zeros representam matrizes de dimensoes adequadas.
19.15. Analise o seguinte argumento segundo o qual toda matriz
anti-simetrica tem determinante igual a zero: Tem-se aT = a,
logo det a = det aT = det(a) = det a, logo det a = 0. Contraste
com


0 1
det
.
1 0
19.16. Defina o produto vetorial de n vetores v1 , . . . , vn Rn+1
como o vetor v = v1 vn tal que, para todo w Rn+1 , temse hw, vi = det[v1 , . . . , vn , w] = determinante da matriz cujas colunas
os vetores v1 , . . . , vn , w nesta ordem. Prove:
sao
(a) O vetor v = v1 vn Rn+1 esta bem definido e e uma
n-linear alternada dos vetores v1 , . . . , vn .
funcao

(b) Seja a = [v1 , . . . , vn ] a matriz (n + 1) n cujas colunas sao


v1 , . . . , vn . Para cada i = 1, . . . , n+1, seja ai M(nn) a matriz
da i-esima linha. Prove que a i-esima
obtida de a pela omissao
coordenada do vetor v = v1 vn e igual a (1)n+i+1 det ai .
(c) O produto vetorial v = v1 vn e ortogonal a v1 , . . . , vn .

Sec
ao 19

Determinantes

267

L.D. .
(d) Tem-se v = v1 vn = 0 se, e somente se, v1 , . . . , vn sao
(e) Quando v 6= 0, a norma |v| = |v1 vn | e igual ao volume do
paraleleppedo n-dimensional P[v1 , . . . , vn ] Rn+1 .
calcule vol P[v, v1 , . . . , vn ], levando em conta (c).)
[Sugestao:

L.I., tem-se det[v1 , . . . , vn , v1


(f) Quando os vetores v1 , . . . , vn sao
vn ] > 0.

(g) O produto vetorial v = v1 vn e o unico


vetor de Rn+1 com
as propriedades (c), (d), (e), (f) acima.
19.17. Para cada i = 1, . . . , n + 1, seja ai M(n n) a matriz obtida
omitindo a i-esima linha de a M((n + 1) n). Prove que
det(aT a) =

n+1
X

(det ai )2 .

(Identidade de Lagrange.)

i=1

use (e) acima e o Exerccio 19.6.]


[Sugestao:
19.18. Prove que todo operador ortogonal com determinante positivo

possui uma raiz quadrada ortogonal. Ela e unica?

20
O Polin
omio Caracterstico

Boa parte da importancia

dos determinantes em Algebra


Linear se
deve ao polinomio caracterstico, o qual ja tivemos ocasiao
de utilizar
em dimensao
2. Nesta secao,
ja de posse da nocao
geral de determinante, vamos considerar esse polinomio em dimensoes arbitrarias.

Seja A : E E um operador linear num espaco vetorial E, de


finita. A fim de que um numero

dimensao
real seja autovalor de A,
e necessario

e suficiente que exista v 6= 0 em E tal que (A I)v = 0,

ou seja, que o operador A I : E E tenha nucleo


nao-trivial
e
seja invertvel. Segundo o Teorema 19.6, isto acontece
portanto nao
se, e somente se, det(A I) = 0.

Conforme resulta da definicao


classica
de determinante,
det(AI) e um polinomio de grau n em , cujo termo lder e (1)n n .
Ele e chamado o polinomio caracterstico do operador A e e representado por pA (). Assim,
pA () = det(A I).
algebrica pA () = 0 sao

As razes (reais ou complexas) da equacao


chamadas as razes caractersticas do operador A. Do que foi dito
suas
acima, segue-se que os autovalores do operador linear A sao
razes caractersticas reais.

Sec
ao 20

O Polin
omio Caracterstico

269

Se E possui produto interno, o polinomio caracterstico do operador adjunto A : E E coincide com o do operador A pois
pA () = det(A I) = det(A I) = det(A I) = pA ().

O polinomio caracterstico de uma matriz quadrada a M(nn)


pa () = det(a In ), ou seja, e o polinomio carace , por definicao,
terstico pA () do operador A : Rn Rn cuja matriz na base canonica
e igual a a. Mais geralmente, pa () = pA () para qualquer operador

linear A : E E cuja matriz, relativamente a uma base arbitraria


de E, seja a. (Vide Teorema 19.7.)
semelhantes entao
seus
Se duas matrizes a e b = p1 ap sao
iguais. Com efeito, neste caso, a e
polinomios caractersticos sao
matrizes do mesmo operador A : Rn Rn relativamente a
b sao
bases diferentes, logo pa () = pA () = pb (). Analogamente, se A e
operadores semelhantes no espaco vetorial E, existem
B = P1 AP sao
` quais A e B tem a mesma matriz
duas bases de E relativamente as
a, logo pA () = pa () = pB ().
Exemplo 20.1. Se um dos operadores A, B : E E (digamos, B)
pAB () = pBA (). Com efeito, neste caso, BA =
e invertvel entao
operadores semelhantes. A igualdade
B(AB)B1 , logo BA e AB sao
entre os polinomios caractersticos de AB e BA prevalece, mesmo
nao-invert

quando ambos os operadores, A e B, sao


veis. Isto se
prova usando um argumento de continuidade, assim: como o opera

dor B tem no maximo


um numero
finito de autovalores positivos,

existe um numero
real c > 0 tal que 0 < < c B I invertvel. Portanto, para todo positivo, menor do que c, os operadores (B I)A e A(B I) tem o mesmo polinomio caracterstico.
Como os coeficientes do polinomio caracterstico do operador B I
evidentemente funco es contnuas de , fazendo 0 conclumos
sao
que
pAB = lim pA(BI) = lim p(BI)A = pBA .
0

Exemplo 20.2. Um operador A : EE diz-se triangularizavel

quan a` qual a matriz de A e triando existe uma base U de E em relacao


gular. Se a matriz de A na base U = {u1 , . . . , un } e triangular inferior
na base U = {un , . . . , u1 }, a matriz de A e triangular superior.
entao,
Isto significa que existem subespacos Fo F1 Fn = E, in
variantes por A, tais que dim Fi = i. Se A e triangularizavel
e, na

270

O Polin
omio Caracterstico

Sec
ao 20

o polinomio
base U , sua matriz a = [aij ] e triangular superior entao
caracterstico de A e
pA () =

n
Y

(aii ).

i=1

Com efeito, a matriz de A I na base U tambem e triangular superior, com os elementos aii na diagonal, logo seu determinante

e igual ao produto desses numeros.


(Exemplo 19.5.) Portanto, as

todas rerazes caractersticas de um operador triangularizavel


sao
autovalores desse operador. Em particular, sao
reais
ais, logo sao
as razes do polinomio caracterstico de uma matriz simetrica (ou, o
que e o mesmo, de um operador auto-adjunto num espaco com produto interno) pois toda matriz simetrica e semelhante a uma matriz
diagonal, que e certamente triangular.
de polinomio caracterstico permite concluir que se a
A nocao
de E e um numero

mpar entao
todo operador linear
dimensao
A : E E possui pelo menos um autovalor. Com efeito, o polinomio
caracterstico pA (), sendo um polinomio real de grau mpar, possui
pelo menos uma raiz real.
Quando dim E = 2, sabemos que o polinomio caracterstico do
operador A : R2 R2 , cuja matriz na base canonica tem linhas (a, b)
e (c, d), e igual a
2 (a + d) + ad bc,
onde o coeficiente de e menos a soma a + d dos elementos da diagonal dessa matriz e o termo constante, ad bc, e seu determinante.

Em que pese a importancia


dos autovalores de A, e uma tarefa
dos coeficientes de pA quando seu grau
complicada a determinacao

e elevado (e muito mais complicado ainda o calculo


de suas razes).
de calcular: o termo indeUm desses coeficientes e , entretanto, facil
pendente de e igual a pA (0), logo e igual a det A.
1 , . . . , n , tem-se
Por outro lado, se as razes de pA sao
pA () = (1)n ( 1 ) ( n ).
Pondo = 0 vem det A = pA (0) = 1 n . Portanto o determinante de A e igual ao produto das suas razes caractersticas, mesmo
numeros

quando algumas delas sao


complexos. (Como pA e um polinomio real, suas razes complexas, caso existam, vem aos pares

Sec
ao 20

O Polin
omio Caracterstico

271

conjugados, + i e i, com produto 2 + 2 , logo o produto das


razes de pA e real.)

no polinomio pA () e o coeOutro termo de facil


determinacao
n1
classica

ficiente de . Na expressao
de det(A I) em termos
da matriz a = [aij ] de A numa certa base, as parcelas que contem
a potencia n1 resultam do produto (aii ) dos termos da dia todas da forma (1)n1 aii n1 . Portanto
gonal dePa In , logo sao
n1
(1)
aii e o coeficiente de n1 no polinomio pA ().

Novamente, a expressao

pA () = (1)n

n
Y
( i )
i=1

mostra que o coeficiente de n1 e igual a (1)n1 vezes a soma das


razes do polinomio pA .
Isto nos leva a concluir que, seja qual for a base escolhida em E,
a soma aii dos elementos da diagonal da matriz de A nessa base e
a mesma, igual a` soma das razes caractersticas de A, que e sempre

um numero
real (mesmo que haja razes complexas) pois ( + i) +
( i) = 2.
Esta soma aii chama-se o traco do operador A e e designada
tr A.
com a notacao
Segue-se do Exemplo 20.1 que tr AB = tr BA sejam quais forem
os operadores lineares A, B : E E. (Isto tambem se ve diretamente,
multiplicando as matrizes de A e B.)
quando dim E = 2 o polinomio caracterstico
Com esta notacao,
de um operador A : E E se escreve pA () = 2 (tr A) + det A.

Vimos no Exemplo 20.2 que as razes caractersticas de um ope


todas numeros

rador triangularizavel
sao
reais. Mostraremos agora
que vale a recproca.
Para isso, faremos uso do seguinte
Lema. Seja F E um subespaco invariante pelo operador A : E E.
Se A : F F representa a restricao
de A ao subespaco F, entao
o

polinomio pA e um divisor de pA .

272

O Polin
omio Caracterstico

Sec
ao 20

Demonstracao:
Sejam a a matriz de A numa base U F e a a

matriz de A numa base U U . Entao



a Ir
b
a b
,

e
a In =
a=
0
c Inr
0 c
onde r = dim F e n = dim E. Pelo Teorema 19.8, temos
pA () = det(a In )
= det(a Ir ) det(c Inr )

= pA () q(),
onde

q() = det(c Inr ).

Portanto pA () e um multiplo
de pA ().
Teorema 20.1. Se as razes do polinomio caracterstico pA sao
todas
reais entao
o operador A : E E e triangularizavel.

Demonstracao:
O teorema e o bvio se dim E = 1. Para prova-lo
suponhamo-lo valido

n 1 e seja dim E =
por inducao,
em dimensao
exista ainda) um produto interno em
n. Introduzamos (caso nao
E. Como A e A tem o mesmo polinomio caracterstico, o operador
A : E E tem autovalor logo existe um subespaco F E, de di 1, invariante por A . O complemento ortogonal F = Fn1
mensao
n 1 em E, invariante por A,
e um subespaco vetorial de dimensao

pois A = (A ) . (Vide Teorema 13.3.) Pelo Lema, se A : Fn1 Fn1


de A ao subespaco Fn1 , as razes do polinomio carace a restricao
tambem razes de pA , logo sao
todas reais. Pela
terstico pA sao
existem subespacos Fo F1 Fn1 , com
hipotese de inducao,
dim Fi = i, invariantes por A , logo invariantes por A, o que prova o
teorema.

Exemplo 20.3. Um operador num espaco vetorial de dimensao

2 e triangularizavel
se, e somente se, possui ao menos um auto de angulo

valor real. Por exemplo, uma rotacao


, com 6= 0 e

e triangularizavel

6= 180 , nao
pois suas razes caractersticas sao
cos i sen , ambas complexas. (Vide Exemplo 14.2.) Ja o operador
A : R2 R2 , A(x, y) = (7x12y, 3x5y), tem polinomio caracterstico

Sec
ao 20

O Polin
omio Caracterstico

273

pA () = 2 2 + 1 com uma raiz real dupla = 1, logo A e trian


e diagonalizavel

gularizavel.
Evidentemente, A nao
pois se o fosse,

como seu unico


autovalor e 1, seria igual ao operador identidade. Se
quisermos achar uma base {u, v} R2 na qual a matriz de A seja
triangular superior, basta procurar um autovetor u = (x, y), com
nao-trivial

Au = u, ou seja, basta achar uma solucao


u = (x, y) do
sistema 7x 12y = x, 3x 5y = y. Uma dessas soluco es e u = (2, 1).
Tomando,
 por exemplo, v = (0, 1), a matriz de A na base {u, v} e

1 6
. Com efeito, Au = u e Av = 6u + v.
0 1
de angulo

Exemplo 20.4. Seja A : R3 R3 a rotacao


em torno do
eixo z. Temos, para todo (x, y, z) R3 :
A(x, y, z) = (x cos y sen , x sen + y cos , z).

Para evitar casos especiais o bvios, suponhamos 0 < < 180 . Chamando de a a matriz de A na base canonica de R3 , a matriz de A I
e

cos sen
0
cos
0
a I3 = sen
0
0
1

logo det(A I) = (1 )(2 2 cos + 1) = pA ().


Portanto o polinomio caracterstico pA tem uma raiz real 1 e duas
existe em R3 uma base
razes complexas cos i sen . Assim, nao
na qual a matriz de A seja triangular.
do Teorema 20.1 vemos que, se o
Examinando a demonstracao
espaco E vem provido de um produto interno, ela fornece uma base
a` qual a matriz do operador A : E E (cujo
ortonormal em relacao
polinomio caracterstico tem apenas razes reais) e uma matriz tri matricial para aquele
angular. Isto fornece a seguinte interpretacao
teorema: se o polinomio caracterstico da matriz a M(n n) e um
existe uma matriz
produto de fatores reais do primeiro grau entao
ortogonal q M(n n) tal que t = qT aq (= q1 aq) e uma matriz
triangular.
Dados um operador linear A : E E e um polinomio
p() = ao + a1 + + am m ,

o smbolo p(A) representara o operador

p(A) = ao I + a1 A + + am Am ,

274

O Polin
omio Caracterstico

Sec
ao 20

obtido de p() substituindo-se i por Ai , tendo o cuidado de lembrar


que Ao = I, logo o = 1 deve ser substitudo por I.

Um resultado importante em Algebra


Linear e o Teorema de
Cayley-Hamilton, segundo o qual, se p = pA e o polinomio carac p(A) = 0. Verifiquemos a veracidade
terstico do operador A entao
num caso particular.
desta afirmacao
Exemplo 20.5. Seja A : R2 R2 dado por

A(x, y) = (ax + by, cx + dy).

O polinomio caracterstico de A e
pA () = 2 (a + d) + (ad bc).
Vamos mostrar que o operador
B = pA (A) = A2 (a + d)A + (ad bc)I
e igual a zero. Para isto, basta verificar que Be1 = Be2 = 0. Ora,
temos Ae1 = (a, c), A2 e1 = (a2 + bc, ac + cd), e1 = (1, 0), logo
Be1 = A2 e1 (a + d)Ae1 + (ad bc)e1
= (a2 + bc, ac + cd) (a2 + ad, ac + cd) + (ad bc, 0)
= (0, 0).

De maneira analoga
se ve que Be2 = 0. Portanto B = 0. Isto mostra
2.
que o Teorema de Cayley-Hamilton vale em dimensao
Provaremos, a seguir, o Teorema de Cayley-Hamilton para ope
mostraremos que, num
radores triangularizaveis.
Na proxima secao

espaco vetorial complexo, todo operador e triangularizavel.


Da deduziremos a validez do teorema para qualquer operador num espaco
real.
Teorema 20.2. Se o polinomio caracterstico pA do operador
A : EE e o produto de fatores reais do primeiro grau entao
pA (A)=0.
Pelo Teorema 20.1 existe uma base {u1 , . . . , un } E
Demonstracao:
relativamente a` qual a matriz a = [aij ] de A e triangular superior.
Se escrevermos Fo = {0} e Fi = subespaco vetorial de E gerado por
u1 , . . . , ui , teremos Fo F1 Fn = E e cada Fi e invariante

Sec
ao 20

O Polin
omio Caracterstico

275

por A, ou seja, A(Fi ) Fi . Por hipotese, temos pA () = (1)n (


1 ) . . . ( n ). Escrevendo B = pA (A), resulta:
B = (1)n (A a11 I)(A a22 I) (A ann I)
os elementos aii da diagonal
pois as razes caractersticas de A sao
da matriz a. Para cada i = 1, . . . , n, temos Aui = z + aii ui , onde
z Fi1 , portanto (A aii I)ui = z Fi1 . Isto mostra que, para todo
i = 1, . . . , n, o operador Bi = A aii I transforma Fi em Fi1 . Ora,
temos pA (A) = B = B1 B2 . . . Bn , logo

pA (A) transforma E em {0}, isto e , pA (A) = 0.


Seja o um autovalor do operador A : E E. A multiplicidade
do subespaco vetorial Fo = {v
geometrica de o e a dimensao
E; Av = o v}. A multiplicidade algebrica de o e sua multiplicidade
como raiz do polinomio caracterstico de A, isto e , e o maior inteiro
m tal que pA () = (o )m q(), onde q() e ainda um polinomio.
Obviamente, Fo e um subespaco invariante por A. Restrito a
esse subespaco, A coincide com o I, ou seja, e simplesmente a mul por o . Portanto, o polinomio caracterstico do operador
tiplicacao

de A, e igual a (o )r , onde r e a dimensao

A : Fo Fo , restricao
de Fo , ou seja, a multiplicidade geometrica do autovalor o . Pelo
Lema que antecede o Teorema 20.1, o polinomio caracterstico de A

e um multiplo
de (o )r , ou seja, pA () = (o )r q(). Isto prova o
Teorema 20.3. A multiplicidade geometrica de um autovalor e menor do que ou igual a` sua multiplicidade algebrica.
Exemplo 20.6. No operador A do Exemplo 20.3, a multiplicidade
algebrica do autovalor 1 e igual a 2 mas a sua multiplicidade geometrica e 1.
Teorema 20.4. Se o operador A : E E e auto-adjunto, ou ortogonal, as multiplicidades geometrica e algebrica de qualquer autovalor
coincidem.

276

O Polin
omio Caracterstico

Sec
ao 20

F e F

Demonstracao:
Seja F = Fo = {v E; Av = o v}. Entao
ambos subespacos invariantes por A. Como vimos no Lema que
sao
antecede o Teorema 20.1, se indicarmos respectivamente por A : F
F e A : F F as restrico es de A a esses subespacos invariantes,
teremos pA = pA pA , ou seja, pA () = (o )r pA (), onde
de F, nao
pode existir em F (nem em
r = dim F. Mas, pela definicao
lugar algum fora de F) um autovetor correspondente ao autovalor o .
e raiz de pA . Assim, r e o maior inteiro tal que (o )r
Logo o nao
divide pA , ou seja, e a multiplicidade algebrica de o .

Exerccios
20.1. Assinale V(erdadeiro) ou F(also):
(

) Os operadores A e A tem os mesmos autovetores.

) Sejam a a matriz do operador A : Rn Rn na base canonica e


autovetores L.I. de A. Entao

p uma matriz cujas colunas sao


p1 ap e diagonal.

1 e autovalor
) Se e autovalor do operador invertvel A entao
1
de A .

) O polinomio caracterstico do operador A + B e a soma dos polinomios caractersticos de A e B.

v e
) Se v e um autovetor comum aos operadores A e B entao
autovetor de A + B e de BA.

iguais.
) Duas matrizes triangulares semelhantes sao

20.2. Determine os polinomios caractersticos dos seguintes operadores:

(a) Um multiplo
I da identidade;
P;
(b) Uma projecao

(c) Uma involucao;


D : Pn Pn .
(d) O operador de derivacao

Sec
ao 20

O Polin
omio Caracterstico

277

finita, com produto interno,


20.3. No espaco vetorial E, de dimensao
seja Av = hv, ai b um operador de posto 1. Escreva a matriz de A
numa base ortonormal que comece com u1 = a/|a| e, a partir da,
determine o polinomio caracterstico de A, seus autovetores e seus
autovalores com as respectivas multiplicidades.
20.4. Qual o coeficiente de 2 no polinomio caracterstico pa () de
uma matriz a = [aij ] M(3 3) ?
20.5. Seja F1 E um subespaco invariante pelo operador linear
sobre F2 paralelamente a
A : E E. Se E = F1 F2 , seja P a projecao
de A a F1 e com A2 : F2 F2
F1 . Indique com A1 : F1 F1 a restricao
o operador dado por A2 v = PAv, v F2 . Prove que pA () = pA1 ()
pA2 (). Seja U uma base de E, formada por uma base de F1 seguida
por outra de F2 . Mostre que a matriz de A na base U tem a forma


a1 b
0 a2
as matrizes de A1 e A2 respectivamente. De um
onde a1 e a2 sao

enunciado mais simples, em termos de matrizes, para a proposicao


cuja tese e pA () = pA1 () pA2 ().
20.6. Determine o polinomio caracterstico, ache os autovalores e
exiba uma base de autovetores para a matriz

4 3 1 1
2 1 1 1

0 0 4 3
0 0
2 1
20.7. Determine o polinomio
triz

4 3
2 1

0 0

0 0

0 0
0 0

caracterstico e os autovalores da ma
a3 a4 a5 a6
b3 b4 b5 b6

4 3 c5 c6

2
1 d5 d6

0
0 1
3
0
0 3 1

os autovetores do operador de derivacao


D : C (R)
20.8. Quais sao
C (R) ?

278

O Polin
omio Caracterstico

Sec
ao 20

20.9. Assinale V(erdadeiro) ou F(also):


(

) Se um operador e diagonalizavel,
todas as suas matrizes trian diagonais.
gulares sao

) Seja a uma matriz triangular nao-diagonal.


Se todos os ele e diagonalizavel.

mentos da diagonal de a forem iguais, a nao

) Uma matriz 3 3 que tem dois autovalores distintos e triangu


larizavel.

20.10. Sejam A, B : E E operadores cujas razes caractersticas


todas reais. Se AB = BA, prove que existe uma base na qual as
sao
ambas triangulares.
matrizes de A e B sao
20.11. Ache uma base de R3 na qual o operador A(x, y, z) = (x + 2y +
3z, 4y + 6z, y z) tem uma matriz triangular. Exiba essa matriz.
20.12. Determine o polinomio caractertico da matriz

0
1
0
... 0
0
0
1
... 0

..
..
..
..
..
.
.
.
.
.

0
0
0
... 1
an1 an2 an3 . . . ao
20.13. Obtenha o polinomio caracterstico e os autovalores (com as
respectivas multiplicidades, algebricas e geometricas) do operador
A : Rn Rn cuja matriz na base canonica tem todos os elementos
iguais a 1.
use o Exerccio 20.3.]
[Sugestao:
20.14. Prove que o modulo do determinante de um operador invertvel e igual ao produto dos seus valores singulares.

20.15. Sejam A, B : E E operadores lineares nao-negativos


eXa

raiz quadrada nao-negativa


de A. Prove:
(a) AB e XBX tem o mesmo polinomio caracterstico, logo
det(I + AB) = det(I + XBX).

Sec
ao 20

O Polin
omio Caracterstico

279

(b) O operador XBX e nao-negativo


e
det(I + XBX) =

n
Y

(1 + i ),

i=1

os autovalores de XBX.
onde 1 , . . . , n sao
(c) Conclua que det(I+AB) 1. Em particular, I+AB e invertvel.

21
Espacos Vetoriais
Complexos

Embora a nocao
de espaco vetorial tenha sentido (e interesse) sobre
um corpo qualquer, neste livro os vetores (pelo menos ate agora) vem
sendo multiplicados apenas por numeros

reais. Esta opcao


foi feita
por uma serie de razoes, das quais destacaremos duas. Em primeiro
lugar, ao nos limitarmos aos numeros

reais, nao
temos que nos preocupar com as peculiaridades dos varios

corpos possveis o que, num


livro introdutorio, traria o risco de focalizar a atencao
no acidental.
Assim ficou mais facil

nos concentrarmos em questoes realmente essenciais, sem maior perda de tempo. Em segundo lugar, porque o
caso real e , sem duvida,

o mais importante. Entretanto, o corpo dos


numeros

reais nao
e algebricamente completo: nem todo polinomio
com coeficientes reais possui raiz real. O corpo dos numeros

complexos nao
sofre dessa deficiencia. Isto torna necessario

que alguns teoremas referentes a espacos vetoriais reais utilizem numeros

complexos em sua demonstracao


(como foi feito, um tanto disfarcadamente,
no Teorema 12.1). Na presente secao,
e introduzido o conceito de
espaco vetorial complexo e e mostrado explicitamente como ele pode
ser util
para demonstrar teoremas sobre espacos vetoriais reais.
os espacos vetoriais que viemos estudando ate agora
Nesta secao,
chamados espacos vetoriais reais e as transformaco es lineares
serao

Sec
ao 21

Espacos Vetoriais Complexos

281

chamadas R-lineares. Analogamente, as maneles definidas serao


matrizes reais. A razao

trizes ate agora consideradas chamar-se-ao


e que introduziremos aqui os espacos vetoripara essa qualificacao
ais complexos.
Um espaco vetorial complexo e um conjunto E, cujos elementos
chamados vetores, no qual estao
definidas duas operaco es: a
sao
adicao,
que faz corresponder a cada par de vetores u, v E um vetor
u + v, chamado a soma de u e v, e a multiplicacao
por um numero

complexo, que a cada numero


complexo e a cada vetor v E faz corresponder um vetor v = v, chamado o produto de por v. Essas
1
operaco es devem cumprir as mesmas condico es impostas na Secao
para os espacos vetoriais reais. Em particular, se v E e = + i
v = v + iv = v + (iv).
entao
Exemplo 21.1. O conjunto Cn de todas as listas u = (1 , . . . , n ),

v = (1 , . . . , n ) de n numeros
complexos, com as definico es u + v =
(1 + 1 , . . . , n + n ), u = ( 1 , . . . , n ), e um espaco vetorial
complexo. Tambem o conjunto F(X; C) de todas as funco es f : X C,

definidas num conjunto arbitrario


X, com valores complexos, e um
espaco vetorial complexo quando munido das definico es o bvias para
f + g e f. O conjunto M(m n; C) das matrizes complexas m n
tambem e um espaco vetorial complexo.
As definico es de dependencia linear, geradores, subespaco, base,
etc. se fazem para os espacos vetoriais complexos da
dimensao,
mesma maneira como foram feitas para os reais. Na realidade, tudo
o que foi dito e demonstrado nas Seco es 1 a 9 vale para espacos vetoriais complexos e as transformaco es lineares entre eles, as quais
chamaremos C-lineares.
` vezes, uma base do espaco vetorial complexo E sera chamada
As
uma C-base.
Um espaco vetorial complexo E pode, de modo natural, ser considerado como um espaco vetorial real: basta que se considere apenas
dos vetores de E por numeros

a multiplicacao
reais. Analogamente,
C-linear A : E F entre espacos vetoriais comtoda transformacao
plexos e , a fortiori, R-linear. Quando for conveniente, usaremos a
Ar : E F para indicar essa transformacao
R-linear, que se
notacao
chama a descomplexificada de A.

Exemplo 21.2. O conjunto C dos numeros


complexos e um espaco
1, logo todo numero

vetorial complexo de dimensao


complexo

282

Espacos Vetoriais Complexos

Sec
ao 21

+i 6= 0 fornece uma base para C. Em particular, {1} e uma C-base.


Considerando C como espaco vetorial real, o conjunto {1, i} C e L.I.
pois 1 + i = 0, com , R implica = = 0. Na realidade,

{1, i} e uma R-base pois todo numero


complexo + i = 1 + i e
linear real de 1 e i. Em virtude da unidimensionauma combinacao
lidade, os operadores C-lineares A : C C consistem simplesmente
por um numero

na multiplicacao
complexo fixado + i. Assim,
para todo v = x + iy C, tem-se Av = ( + i)v = ( + i)(x + iy) =
x y + i(x + y).
A correspondencia x+iy (x, y) e um isomorfismo natural entre
os espacos vetoriais reais C e R2 . Pelo que acabamos de ver, esse
isomorfismo faz corresponder a cada operador C-linear A : C C,
um operador R-linear Ar : R2 R2 , dado por
Ar (x, y) = (x y, x + y),

cuja matriz na base canonica e





.

Excetuemos o caso trivial A = 0. Escrevamos
p
= 2 + 2

a matriz
e tomemos R tal que cos = /, sen = /. Entao
de Ar tem a forma


cos sen

.
sen cos
Isto mostra que o operador Ar e uma semelhanca, composta da ro de angulo

> 0. As semelhancas
tacao
com a homotetia de razao
portanto, os operadores de R2 que correspondem aos operadores
sao,

C-lineares nao-nulos
A : C C.
Guiados pelo Exemplo 21.2, observamos que se U = {u1 , . . . , un }
o conjunto
E for uma base do espaco vetorial complexo E entao

U = {u1 , . . . , un , iu1 , . . . , iun } E e uma R-base, ou seja, e L.I. sobre


linear dos
os reais e, alem disso, todo vetor v E e uma combinacao
uj e dos iuj (j = 1, . . . , n) com coeficientes reais.

Com efeito, se 1 , . . . , n , 1 , . . . , n R entao


1 u1 + + n un + 1 iu1 + + n iun = 0

Sec
ao 21

Espacos Vetoriais Complexos

283

implica
(1 + i1 )u1 + + (n + in )un = 0,
logo 1 + i1 = = n + in = 0 pois U e L.I. sobre os complexos.
Da resulta que 1 = = n = 1 = = n = 0, portanto U e L.I.

sobre os reais. Alem disso, dado qualquer v E, existem numeros


complexos 1 + i1 , . . . , n + in tais que
n
n
n
X
X
X
j (iuj ).
j u j +
(j + ij )uj =
v=
j=1

j=1

j=1

Assim, U e uma R-base para E.


de significado evidente, podemos portanto conCom uma notacao
dimR E = 2n.
cluir que se dimC E = n entao

Seja [akj + ibkj ] M(m n; C) a matriz da transformacao


` bases U = {u1 , . . . , un } E e
C-linear A : E F relativamente as
V = {v1 , . . . , vm } F. Considerando E e F como espacos vetoriais
R-linear Ar : E F,
reais, A pode ser vista como uma transformacao
` bases
a descomplexificada de A. Relativamente as
U = {u1 , . . . , un , iu1 , . . . , iun } E

e
V = {v1 , . . . , vm , iv1 , . . . , ivm } F,
vejamos qual e a matriz de Ar . Temos, para j = 1, . . . , n:
Ar uj = Auj =

m
X

(akj + ibkj )vk =

k=1

Ar (iuj ) = A(iuj ) = i Auj =

m
X

akj vk +

k=1

m
X
k=1

(bkj )vk +

m
X

bkj (ivk ),

k=1
m
X

akj (ivk ),

k=1

Portanto a matriz procurada e




a b
c=
M(2m 2n),
b a
onde a = [akj ] M(m n) e b = [bkj ] M(m n). Esta matriz 2m
2n chama-se a descomplexificada da matriz [akj +ibkj ] M(mn; C).
Mostraremos logo mais que, quando m = n, tem-se det c 0, e que
det c = 0 se, e somente se, det A = 0.

284

Espacos Vetoriais Complexos

Sec
ao 21

par 2n pode (de infiTodo espaco vetorial real E de dimensao


nitas maneiras) ser considerado como espaco vetorial complexo de
n de tal forma que a nova multiplicacao
de um numero

dimensao
anterior quando
complexo por um vetor coincida com a multiplicacao

esse numero
complexo e real. Para isso, basta considerar um opera
dor R-linear J : E E tal que J2 = I e definir, para cada numero
complexo = + i e cada vetor v E, o produto v como v =
de vetores continua a mesma.)
v + Jv. (A adicao
de que esta definicao
atende as
` exigencias sobre as
A verificacao
regras operacionais e imediata. Resta apenas mostrar como se acha
um tal operador J. Para isso, fixamos uma base de E, a qual nu
meramos da forma {u1 , . . . , un , v1 , . . . , vn }. Existe um unico
operador
R-linear J : E E tal que Ju1 = v1 , . . . , Jun = vn , Jv1 = u1 , . . . , Jvn =
de E como espaco vetorial complexo, o opeun . Nesta concepcao
pelo numero

rador J e simplesmente a multiplicacao


i, logo v1 =
iu1 , . . . , vn = iun e {u1 , . . . , un } E e uma C-base.
de espaco vetorial complexo foi introduzida aqui a fim de
A nocao
servir como instrumento para obter resultados referentes a espacos
vetoriais reais.
A esse proposito, a principal vantagem dos espacos vetoriais complexos sobre os reais e a seguinte: todo operador linear A : EE
finita possui pelo menum espaco vetorial complexo de dimensao
nos um autovalor (complexo). Antes, porem, de estabelecermos e
anterior, seexplorarmos este fato, vamos retomar uma afirmacao
9 sobre espacos vetorigundo a qual tudo o que foi feito ate a Secao
foi includa a
ais reais vale igualmente para complexos. Por que nao
10?
Secao
que se faz necessario

E
modificar o conceito de produto interno
quando se trata de um espaco vetorial complexo E. Se o produto
hiv, ivi = i2 hv, vi = hv, vi, logo nao
pode
interno for bilinear entao
ser positivo.
de produto interno herO impasse e resolvido mediante a nocao
uma funcao
E E C que associa a
mitiano. Este e , por definicao,
cada par ordenado de vetores u, v no espaco vetorial complexo E um

hu, vi, de tal modo que


numero
complexo, representado pela notacao
sejam cumpridas as condico es seguintes, para quaisquer u, v, u E,

C, onde uma barra sobre um numero


complexo = + i significa seu conjugado = i:

Sec
ao 21

Espacos Vetoriais Complexos

1.

hu, vi = hv, ui;

2.

hu + u , vi = hu, vi + hu , vi;

3.

hu, vi = hu, vi;

4.

hu, ui > 0, se u 6= 0.

285

Das propriedades 1. e 2. segue-se que hu, v + v i = hu, vi + hu, v i.


Com efeito,


u, v + v = hv + v , ui = hv, ui + hv , ui = hv, ui + hv , ui


= hu, vi + u, v .

Analogamente se mostra que 1. e 3. implicam que hu, vi =


hu, vi. Assim, o produto interno hermitiano e sesqui-linear, ou seja,

linear na primeira variavel


e anti-linear na segunda. Segue-se de 1.
que hu, vi = hv, ui hu, vi R.

Exemplo 21.3. No espaco Cn , o produto interno canonico e definido,


para u = (1 , . . . , n ) e v = (1 , . . . , n ), como
hu, vi = 1 1 + + n n .

imediatamente verificadas de modo que


As 4 propriedades acima sao
se trata de um produto interno hermitiano.
Exemplo 21.4. Seja E = C0 ([a, b]; C) o espaco vetorial complexo
formado pelas funco es contnuas f : [a, b] C, definidas no intervalo
[a, b] e tomando valores complexos. Um produto interno hermitiano
em E pode ser definido pondo
Zb
hf, gi = f(x)g(x) dx,
a

para f, g E quaisquer.

Exemplo 21.5. Em todo espaco vetorial complexo E, de dimensao


finita, pode-se introduzir um produto interno hermitiano. (Na realidade, uma infinidade deles.) Basta tomar uma base {u1 , . . . , un } E
e, para dois vetores
X
X
u=
k uk , v =
k u k

286

Espacos Vetoriais Complexos

quaisquer em E, por
hu, vi =

Sec
ao 21

k k .

Isto mostra que, como no caso real, a existencia de um produto in finita


terno hermitiano num espaco vetorial complexo de dimensao
e uma propriedade adicional desse espaco mas apenas uma esnao
colha que se fez dentre infinitas possibilidades.
de produto interno hermitiano ha poucas
A partir da definicao
adaptaco es a fazer a fim de que as restantes seco es, de 10 a 20,
tenham seus resultados validados (e alguns fortalecidos, como veremos logo mais).
encia da sesqui-lineUma das modificaco es a fazer como consequ
aridade do produto interno hermitiano diz respeito ao Teorema 11.1,
que passa a ter o seguinte enunciado:
Teorema 21.1. Seja E um espaco vetorial complexo de dimensao

finita, munido de um produto interno hermitiano. A correspondencia


que associa a cada vetor v E o funcional linear (v) = v : E C,
tal que v (w) = hw, vi para todo w E, e uma bijecao
: E E tal
que (u + v) = u + v e (v) = v para quaisquer u, v E e C.

Acima, E e , como antes, o dual de E, ou seja, o espaco vetorial


os funcionais C-lineares f : E C.
complexo cujos elementos sao

A diferenca entre os Teoremas 11.1 e 21.1 e que, neste ultimo,


a
e um isomorfismo entre E e E , pois falha
correspondencia v 7 v nao
(v) = v , em vez da qual se tem apenas (v) = v .
a condicao
Com efeito, para todo w E, tem-se
(v) (w) = hw, vi = hw, vi = v (w), portanto (v) = v .

Por isso, ela se chama um anti-isomorfismo.


ser refraseado dizendo-se que a bijeO Teorema 21.1 pode entao

: E E nele definida e um anti-isomorfismo.


cao
impede de maneira nenhuma que se defina a adjunta
Isto nao

C-linear A : E F, entre espacos


A : F E de uma transformacao
vetoriais complexos munidos de produto interno hermitiano, como a

C-linear A : F E tal que


unica
transformacao
hAv, wi = hv, A wi

para v E, w F quaisquer. Valem as propriedades (A + B) =


A + B , (BA) = A B , I = I, (A ) = A e (A )1 = (A1 ) , nesta

Sec
ao 21

Espacos Vetoriais Complexos

287

ultima
entendendo-se (como antes) que A e invertvel se, e somente

se, A e . A unica
diferenca diz respeito a` adjunta de A. Tem-se

(A) = A quando e um numero


complexo.
Outra mudanca ocorre no Teorema 11.2, que passa a ter o enun espacos vetoriais complexos, com produto
ciado abaixo. E e F sao
interno hermitiano.
Teorema 21.2. Se a matriz da transformacao
C-linear A : EF
relativamente a bases ortonormais U = {u1 , . . . , un } E e V =
{v1 , . . . , vm } F e a = [akj ] M(m n) entao
a matriz da trans
formacao
adjunta A : F E relativamente as
` bases V, U e a matriz
a = aT , transposta da conjugada de a.

A matriz conjugada de a = [akj ] M(m n; C) e a matriz a =

[akj ] M(m n; C) onde cada elemento akj e o numero


complexo
conjugado do elemento correspondente akj da matriz a.
Um operador C-linear A : E E chama-se hermitiano quando
A = A , ou seja, quando hAu, vi = hu, Avi para quaisquer u, v E.
Em particular, quando u = v, temos hAv, vi = hv, Avi. Portanto,

quando A e hermitiano, a forma quadratica


(v) = hv, Avi so assume
valores reais.
Uma matriz a = [akj ] M(nn; C) chama-se hermitiana quando
a = a , isto e , quando ajk = akj para k, j = 1, . . . , n. Em particular,
ajj = ajj para todo j = 1, . . . , n portanto a diagonal de uma matriz

hermitiana so possui numeros


reais. Para matrizes reais, hermitiana e o mesmo que simetrica.
Um operador C-linear A : E E e hermitiano se, e somente se,
sua matriz relativamente a uma (e portanto a qualquer) base ortonormal de E e uma matriz hermitiana.
Um operador C-linear U : E E chama-se unitario

quando
U = U1 . Isto equivale a dizer que hUv, Uwi = hv, wi para quaisquer v, w E.

para todo v E tem-se


Se U : E E e um operador unitario
entao,

|Uv| = |v|. Vale tambem a recproca. Para prova-la,


usa-se a identidade de polarizacao

1
hu, vi = [|u + v|2 |u v|2 + i|u + iv|2 i|u iv|2 ],
4
e imediata. Sua forma e mais complicada do que a
cuja verificacao

analoga
real, devido ao fato de que o produto interno hermitiano nao

288

Espacos Vetoriais Complexos

Sec
ao 21

e simetrico.
Uma matriz u M(nn; C) chama-se unitaria

quando u = u1 .
Para que isto aconteca basta que u u = In , ou que uu = In . A primeira destas igualdades significa que as colunas de u formam uma
base ortonormal de Cn (relativamente ao produto interno hermitiano). A segunda assegura a mesma propriedade para as linhas de

as ortogonais.
u. As matrizes unitarias
reais sao

Feitas essas observaco es de carater


geral, passemos a tirar proveito da estrutura complexa.
tem nada
O determinante e o polinomio caracterstico, como nao

a ver com produto interno, se definem de modo analogo


ao caso real.

Segundo o Teorema Fundamental da Algebra,


todo polinomio
p() = ao + a1 + + an n
com coeficientes complexos ao , . . . , an (em particular, com coeficientes reais), com an = (1)n , se decompoe como produto
p() =

n
Y

(k )

k=1

de fatores do primeiro grau. Os numeros


complexos 1 , . . . , n , nao
as razes do polinomio p, cada um
necessariamente distintos, sao

deles comparecendo na lista 1 , . . . , n um numero


de vezes chamado
sua multiplicidade como raiz do polinomio. A multiplicidade de k e
m se, e somente se, m e o maior inteiro tal que p() e divisvel por
(k )m .
Seja pA () = det(A I) o polinomio caracterstico do operador

C-linear A : E E. O numero
complexo o e uma raiz de pA se, e

somente se, o operador A o I e nao-invert


vel, ou seja, existe v 6= 0
em E tal que Av = o v. Portanto, para espacos vetoriais complexos,
as razes caractersticas de um operador A : E E coincidem com
os autovalores desse operador. Como as primeiras sempre existem,
segue-se que todo operador C-linear possui autovalores (que podem
ser reais ou complexos).
A existencia de autovetores nos espacos vetoriais complexos im fortalecida do Teorema 20.1, da qual decorplica a seguinte versao
todas as conclusoes a que chegaremos nesta secao.

rerao

Sec
ao 21

Espacos Vetoriais Complexos

289

Teorema 21.3. Todo operador C-linear A : E E e triangularizavel.

e a mesma do Teorema 20.1. So que agora nao

A demonstracao

e necessario
fazer hipotese adicional sobre A porque todo operador
linear complexo tem autovetor.
de que se E
Como anteriormente, vale a importante observacao
possui produto interno hermitiano, o enunciado acima pode ser tornado mais preciso: existe uma base ortonormal U E na qual a
matriz de A e triangular superior (ou inferior, se assim o quisermos).
matricial desse teorema e : para toda matriz complexa
A versao

a existe uma matriz unitaria


u tal que u au = u1 au = t e uma
matriz triangular.
encias do Teorema 21.3. Na
Vejamos, a seguir, algumas consequ
primeira delas, temos um operador linear A : E E num espaco
vetorial complexo E.

Teorema de Cayley-Hamilton. Se pA e o polinomio caracterstico


do operador C-linear A : E E entao
pA (A) = 0.

do Te segue exatamente a linha da demonstracao


Demonstracao:
orema 20.2 pois, em virtude do Teorema 21.3, todo operador C-linear

e triangularizavel.
matricial de Cayley-Hamilton.
Evidentemente, vale uma versao
Para toda matriz a M(n n; C), o polinomio caracterstico pa ()
e exatamente o polinomio pA (), onde A : Cn Cn e o operador Clinear que tem matriz a na base canonica. Tem-se tambem pa = pA
para qualquer operador C-linear A : E E cuja matriz, relativa
mente a uma base arbitraria
em E, seja igual a a. Qualquer que seja
o polinomio q(), vemos que q(a) M(n n; C) e a matriz do operador q(A) na mesma base relativamente a` qual a e a matriz de A. Portanto, se pa e o polinomio caracterstico da matriz a M(n n; C),
tem-se pa (a) = 0.
Se acontecer de a matriz a ser real, seu polinomio caracterstico
pa e um polinomio real e ainda assim se tem pa (a) = 0, pois todo

numero
real e complexo. Segue-se da o
Teorema de Cayley-Hamilton para operadores reais. Seja
A : E E um operador linear num espaco vetorial real E. Se pA e
seu polinomio caracterstico, tem-se pA (A) = 0.

290

Espacos Vetoriais Complexos

Sec
ao 21

Seja a M(n n) a matriz de A relativamente a


Demonstracao:
pa (a) = 0. Como pa (a) e a matriz do
uma certa base de E. Entao
operador pA (A) nessa mesma base, segue-se que pA (A) = 0.
encias do Teorema 21.3.
Continuemos apresentando consequ
Sejam a = [akj ], b = [bkj ] matrizes n n triangulares superiores,
de modo que akj = bkj =P
0 se k > j. O j-esimo elemento da diagonal
do produto ab e (ab)jj =
ajr brj = ajj bjj pois ajr = 0 se j > r e brj = 0
r

se j < r. Segue-se imediatamente que os elementos da diagonal de


qualquer
am tem a forma am
jj . Da resulta, mais geralmente, se p() e
p(a) e uma matriz triangular superior cuja diagonal
polinomio entao

e formada pelos numeros


p(ajj ), onde ajj percorre a diagonal de a.
Se A : E E e um operador C-linear, suas razes caractersticas,
(contando multiplicidades) os elemenou seja, seus autovalores, sao
tos da diagonal de uma matriz triangular que representa A relativamente a uma base conveniente de E. Segue-se do que foi dito
acima que, se p() e qualquer polinomio, os autovalores do opera os numeros

dor p(A), incluindo suas multiplicidades algebricas, sao


os autovalores de A.
p(j ), onde 1 , . . . , n sao
Um caso particular interessante e o de um operador nilpotente
A : E E. Isto significa, como se sabe, que existe um inteiro m > 0
tal que Am = 0. Neste caso, se n = dim E afirmamos que o polinomio
caracterstico de A e pA () = (1)n n .
Consideremos inicialmente o caso em que A e C-linear. Seja U
E uma base relativamente a` qual a matriz a = [akj ] do operador
os
A e triangular superior. Os elementos ajj da diagonal de a sao
autovalores de A, contados com suas multiplicidades. O polinomio
caracterstico de A e portanto
n

pA () = (ajj ).
j=1

m
am
Os elementos da diagonal de am sao
jj , j = 1, . . . , n. Como a = 0,
nulos, logo o polinomio caracterstico de
segue-se que todos os ajj sao
n
n
A e pA () = (1) .
Do ponto de vista matricial, podemos afirmar que se a e uma
matriz n n (real ou complexa, tanto faz) com am = 0 para algum
seu polinomio caracterstico e pa () = (1)n n .
m inteiro > 0 entao
Da resulta que, dado o operador R-linear A : E E no espaco vetorial real E, com dim E = n, se tivermos Am = 0 para algum inteiro

Sec
ao 21

Espacos Vetoriais Complexos

291

o polinomio caracterstico de A e pA () = (1)n n . Com


m > 0 entao
efeito, este e o polinomio caracterstico da matriz a do operador A
numa base qualquer de E, a qual cumpre am = 0.
Em seguida, usaremos a forma triangular para provar que o determinante do operador Ar : E E, descomplexificado de um operador C-linear A : E E, e sempre 0.
Com efeito, seja U = {u1 , . . . , un } E uma base na qual a matriz
m = [akj + ibkj ] de A e triangular superior: akj = bkj = 0 se k > j.
Para todo j = 1, . . . , n, temos
n
X
(akj + ibkj )uk .
Auj =
k=1

Consideremos agora a base U = {u1 , iu1 , . . . , un , iun } do espaco vetorial real E. Para obter a matriz c do descomplexificado Ar : E E na
base U , observamos que
Ar u j =

X
k

(akj uj + bkj iuj )

e Ar iuj =

X
k

(bkj uj + akj iuj ).

Da resulta que a matriz c tem uma forma triangular por blocos.


Mostramos abaixo esta matriz no caso n = 3:

a11 b11 a12 b12 a13 b13


b11 a11 b12 a12 b13 a13

0
0
a22 b22 a23 b23
.

c=
0
b22 a22 b23 a23

0
0
0
0
0
a33 b33
0

b33

a33

Segue-se imediatamente do Teorema 19.8 que o determinante da


matriz c e dado por:
det c =

n
Y
j=1

det

 Y
n
ajj bjj
(a2jj + b2jj ).
=
bjj ajj

(*)

j=1

Sendo a matriz m = [akj + ibkj ] triangular,Q


os numeros
complexos
seus autovaloresQ
j = ajj + ibjj sao
e det m =
j . Por outro lado, a
igualdade (*) mostra que det c =
|j |2 .

292

Espacos Vetoriais Complexos

Sec
ao 21

que det Ar = det c 0, valendo det Ar = 0 se,


Vemos entao
e somente se, det A = det m = 0. Vemos tambem que det Ar =
| det A|2 .
Noutras palavras, dada a matriz n n complexa m = [akj + ibkj ],
formamos as matrizes reais a = [akj ], b = [bkj ] M(n n) e



a b
c=
M(2n 2n).
b a
det c = | det m|2 .
Vale entao
de forca do Teorema 21.3 e o seu uso para
Mais uma exibicao
geral do Teorema Espectral para operadores
demonstrar a versao
complexos, conforme faremos agora.
Um operador C-linear A : E E num espaco vetorial complexo,
finita, chama-se normal quando comuta com seu adde dimensao
AA = A A. Analogamente,
junto, isto e , quando cumpre a condicao
uma matriz quadrada a chama-se normal quando aa = a a.
Evidentemente um operador e normal se, e somente se, sua matriz relativamente a uma (e portanto a qualquer) base ortonormal e
uma matriz normal.
Teorema Espectral para operadores complexos. Seja E um
espaco vetorial complexo, munido de um produto interno hermitiano.
Um operador C-linear A : E E e normal se, e somente se, existe em
E uma base ortonormal formada por autovetores de A.

matricial do Teorema Espectral. Seja a matriz a


Versao
M(n n; C). A fim de que exista uma matriz unitaria

u tal que

d = u au e diagonal e necessario

e suficiente que a a = aa .

Continuando com a veia matricial que tem predoDemonstracao:

claminado nestas ultimas


paginas,
provaremos a segunda versao,

ramente equivalente a` primeira. Seja u uma matriz unitaria


tal
que t = u au seja triangular. Tomando adjuntas, vem t = u a u.
Multiplicando membro a membro: tt = u auu a u = u aa u.
na ordem inversa: t t = u a au.
Fazendo a mesma multiplicacao

Como aa = a a, conclumos que t t = tt . Ora, sendo triangular e normal, t deve ser diagonal. (compare (tt )ii com (t t)ii para
i = 1, depois i = 2, etc.) Assim u au e diagonal. Reciprocamente, se
dd = d d, o que nos da imediatamente
d = u au e diagonal entao

Sec
ao 21

Espacos Vetoriais Complexos

293

u a au = u aa u. Multiplicando esta igualdade a` esquerda por u e


a` direita por u obtemos a a = aa logo a e normal.

Corolario.
Se A : E E e um operador hermitiano, existe uma base
ortonormal de E formada por autovetores de A.

A matriz de A nesta base e diagonal e, sendo hermitiana, os ele numeros

mentos da diagonal sao


reais. Segue-se que os autovalores
todos reais.
de um operador hermitiano sao

Outro caso particular de operador normal e um operador unitario


o qual tambem admite uma base ortonormal formada por auto-veto
numeros

res. Os autovalores de um operador unitario


sao
complexos
de modulo 1.

Exerccios
21.1. Seja E um espaco vetorial real. O complexificado de E e o
as expressoes formais u + iv, com
conjunto Ec cujos
elementos sao
u, v E e i = 1. Em Ec , a igualdade u + iv = u + iv significa,
que u = u e v = v . A soma e definida por (u + iv) +
por definicao,

(u + iv ) = (u + u ) + i(v + v ) e o produto por um numero


complexo
( + i)(u + iv) = (u v) + i(u + v).
e , ainda por definicao,
Para todo u E, escreve-se u + i0 = u e com isso tem-se E Ec .
O complexificado de um operador linear A : E E e Ac : Ec Ec ,
definido por Ac (u + iv) = Au + iAv. Prove:
(a) Ec e um espaco vetorial complexo e Ac : Ec Ec e um operador
e um
C-linear. O complexificado de Rn e Cn . E Ec mas E nao
subespaco vetorial (complexo) de Ec .
(b) Toda R-base {u1 , . . . , un } E e uma C-base de Ec . Em particular, dimC Ec = dimR E. A matriz de Ac : Ec Ec relativamente
a` base {u1 , . . . , un } E coincide com a matriz de A na mesma
iguais.
base. Os polinomios caractersticos de Ac e de A sao
(c) Se =+i, com 6=0, e autovalor de Ac , correspondente ao au {u, v} e a base de um subespaco vetorial
tovetor u+ivEc , entao

294

Espacos Vetoriais Complexos

Sec
ao 21

A : F F e
F E, invariante por A, e a matriz da restricao



.

21.2. Seja A : E E um operador linear, com dim E = n. Considere
o conjunto M de todos os polinomios p() tais que p(A) = 0. Prove:
numeros

1 p1 () +
(a) Se p1 (), p2 () M e 1 , 2 sao
entao
2 p2 () M.

p()q() M.
(b) Se p() M e q() e qualquer polinomio entao

(c) Existe um unico


polinomio monico mA () M tal que todos
multiplos

os outros p() M sao


de mA (). [Considere o polinomio monico de menor grau possvel em M. Chame-o de
mA (). Para todo p() M tem-se p() = q() mA () + r(),
com gr r() < gr mA (). Segue-se de (a) e (b) que r() M,
logo r() = 0.]
(d) O polinomio mA () chama-se o polinomio mnimo do operador
A. Ele e o polinomio monico de menor grau tal que mA (A) = 0.
As conclusoes acima valem igualmente para espacos vetoriais
reais ou complexos.
para todo polinomio p(), tem(e) Se B : E E e invertvel entao,
se p(B1 AB) = B1 p(A) B. Segue-se que os operadores A e
B1 AB tem o mesmo polinomio mnimo.
(f) Para toda matriz a do operador A, mA () e o polinomio monico
de menor grau tal que mA (a) = 0.
21.3. Determine o polinomio mnimo dos seguintes operadores:
(a) O operador zero.
(b) O operador I, com 6= 0.

(c) Uma projecao.

(d) Uma involucao.

Sec
ao 21

Espacos Vetoriais Complexos

295

D : Pn Pn .
(e) O operador de derivacao

(f) O operador A : R2 R2 , A(x, y) = (x + 2y, 2x + y).

(g) Qualquer operador A : R2 R2 .

Em todos estes casos, compare com o polinomio caracterstico.

21.4. Prove que um operador e invertvel se, e somente se, o termo


constante do seu polinomio mnimo e 6= 0.
21.5. Seja p() um polinomio tal que p(A) = 0. Prove que todo
autovalor 1 do operador A e raiz do polinomio p(). Conclua da
que toda raiz do polinomio caracterstico pA () e tambem raiz do
polinomio mnimo mA . (A recproca e evidente porque mA divide pA .)
21.6. Determine o polinomio mnimo do operador dado por Av =
hv, ai b.

21.7. Seja A : E E um operador num espaco vetorial de dimensao


An = 0.
n. Prove: se Ak = 0 para algum k > n entao
Teorema 21.3.]
[Sugestao:
21.8. Prove que um operador e nilpotente (isto e Ak = 0 para algum
iguais a zero.
k N) se, e somente se, todos os seus autovalores sao

seus auto21.9. Se o operador A e diagonalizavel


e 1 , . . . , k sao
valores distintos dois a dois, prove que o polinomio mnimo de A e
mA = ( 1 )( 2 ) ( k ).
21.10. Se o operador A : E E (num espaco vetorial complexo) e

diagonalizavel,
prove que existe um produto interno hermitiano em
E que torna A normal.
21.11. Seja E um espaco vetorial (complexo) munido de um produto
interno hermitiano. Prove que todo operador linear A : E E se

escreve, de modo unico,


como A = H + iK, onde H, K : E E sao
operadores hermitianos e que A e normal se, e somente se, H e K
comutam.

296

Espacos Vetoriais Complexos

Sec
ao 21

21.12. Sem fazer calculo


algum, conclua que o produto de duas matrizes 2n 2n do tipo


a b
b a
e ainda deste mesmo tipo.
21.13. Assinale V(erdadeiro) ou F(also):
(

) O determinante de um operador hermitiano e um numero


real.

iguais a 1.
) Os autovalores de um operador unitario
sao

do tipo
) Os autovalores de um operador real anti-simetrico sao
i, onde e real.

) Se



cos sen
a=
,
sen cos
existe uma matriz (complexa) 22 invertvel p tal que p1 ap =
d, onde d e diagonal (complexa).
21.14. Prove que todo operador num espaco vetorial (complexo) de
n possui um subespaco invariante de dimensao
n 1.
dimensao
21.15. Sejam 1 , . . . , n os autovalores do operador A : E E
(repetidos de acordo com suas multiplicidades algebricas). Dado um
polinomio qualquer p(), prove que os autovalores do operador p(A)
os numeros

Teorema 21.3.]
sao
p(1 ), . . . , p(n ). [Sugestao:
21.16. Prove que as seguintes afirmaco es acerca dos operadores li equivalentes:
neares A, B : E E sao
(a) pA (B) e invertvel. (Onde pA e o polinomio caracterstico de A.)
tem autovalores em comum.
(b) A e B nao
(c) pB (A) e invertvel.
os polinomios mnimos de A e B entao
mA (B)
(d) Se mA e mB sao
invertveis. [Sugestao:
use o exerccio anterior.]
e mB (A) sao

Sec
ao 21

Espacos Vetoriais Complexos

297

21.17. Suponha que o polinomio mnimo mA () = ( 1 ) ( k )


do operador linear A : E E seja um produto de fatores distintos do
primeiro grau (i 6= j se i 6= j). Prove:

(a) Escrevendo mA () = pi ()( i ) e Bi = pi (A), tem-se A(Bi v) =


i Bi v (i = 1, . . . , k) para todo v E.
primos entre si, logo existem
(b) Os polinomios p1 (), . . . , pk () sao
q1 (), . . . , qk () tais que
k
X

qi ()pi () = 1.

i=1

(c) Seja Ci = qi (A). Para todo v E tem-se v = Bi (Ci v), logo os


autovetores de A geram E.

(d) O operador A e diagonalizavel.


21.18. Sejam A, B, X operadores lineares no espaco vetorial E.
Prove:
A2 X = XB2 e, mais geralmente, p(A)X =
(a) Se AX XB = 0 entao
Xp(B) para todo polinomio p.
tem autovalores em comum entao
AX = XB se, e
(b) Se A e B nao
somente se, X = 0.
tem autovalores em comum entao
para todo ope(c) Se A e B nao

rador linear C : E E existe um unico


X L(E) tal que AX
XB = C.
21.19. Sejam 1 , . . . , n os autovalores da matriz a, repetidos de
acordo com suas multiplicidades algebricas. Prove que
X
21 + + 2n =
aij aji .
i,j

21.20. Se existir algum k N tal que Ak = I, prove que o operador

Exerccio 21.17.]
A : E E e diagonalizavel.
[Sugestao:

298

Espacos Vetoriais Complexos

Sec
ao 21

21.21. Sejam F1 F2 subespacos invariantes do operador A : E E.


Se dim F2 dim F1 2, prove que existe um subespaco F, diferente
de F1 e F2 , invariante por A, tal que F1 F F2 .
21.22. Seja A : E E um operador nilpotente no espaco vetorial E
n. Tome k, o menor numero

(real ou complexo) de dimensao


natural
k
tal que A = 0. Prove sucessivamente:
(a) {0} N (A) N (A2 ) . . . N (Ak ) = E;
N (Ai+1 ) = N (Ai+2 );
(b) Se N (Ai ) = N (Ai+1 ) entao
(c) Nenhuma das inclusoes em (a) se reduz a uma igualdade;
(d) k n.

22
Equaco
es a
Diferencas Finitas
Em muitas aplicaco es da Matematica

o tempo e discreto. Isto significa que, ao contrario

da Cinematica,

na qual o tempo flui continuamente, nestas situaco es que temos em mente (Economia, por
exemplo) as grandezas sao
medidas em instantes isolados, formando
uma sequ
encia. Nestes casos, as equaco es diferenciais nao
sao
o instrumento adequado para exprimir a evolucao
dos fenomenos, sendo
substitudas pelas equaco es a diferencas finitas. Nesta secao,
estudaremos os tipos mais simples dessas equaco es, como aplicacao
de
alguns dos resultados obtidos nas seco es anteriores.
a diferencas finitas, a incognita e uma sequ
encia
Numa equacao
dada.
(x0 , x1 , . . . , xk , . . . ), cujos termos devem satisfazer uma relacao
e do tipo xk+1 = f(xk ), onde f e uma funcao
determiSe a relacao
de primeira ordem. Se e do tipo xk+2 =
nada, tem-se uma equacao
de segunda ordem, e assim por dif(xk , xk+1 ), tem-se uma equacao
ante.

de primeira
Fixado arbitrariamente um numero
x0 , toda equacao

(x0 , x1 , . . . , xk , . . . )
ordem xk+1 = f(xk ) admite uma unica
solucao
com valor inicial x0 . Basta tomar sucessivamente x1 = f(x0 ), x2 =

f(x1 ), etc. De modo analogo,


fixados arbitrariamente x0 e x1 , toda
de segunda ordem xk+2 = f(xk , xk+1 ) admite uma unica

equacao
(x0 , x1 , x2 , . . . , xk , . . . ) cujos dois valores iniciais sao
os nume
solucao

300

Equac
oes a Diferencas Finitas

Sec
ao 22

ros dados. Basta tomar sucessivamente x2 = f(x0 , x1 ), x3 = f(x1 , x2 ),


de ordem n possui uma unica

etc. E assim por diante: toda equacao


cujos n valores iniciais sao
fixados arbitrariamente.
solucao
o primeiro termo de toda sequ
encia tem
Nesta secao,
Observacao.
ndice 0, em vez de 1.
da equacao
de primeira ordem xk+1 =
Exemplo 22.1. A solucao
encia (xo , xo + b, xo + 2b, . . .), de
xk + b com valor inicial xo e a sequ
b).
termo geral xk = xo + kb (progressao
aritmetica de razao
xk+1 = axk (linear, homogenea, de priExemplo 22.2. A equacao
com valor
meira ordem, com coeficiente constante) tem para solucao,
2
k
encia (xo , axo , a xo , . . . , a xo , . . .) cujo termo geral e
inicial xo , a sequ
a).
xk = ak .xo (progressao
geometrica de razao
Exemplo 22.3. Combinando os exemplos anteriores, seja xk+1 =
linear, nao-homog

axk +b a equacao
enea, de primeira ordem, com co desta equacao

eficientes constantes. Se (xo , x1 , . . . , xk . . .) e a solucao


temos sucessivamente:
com valor inicial xo , entao
x1 = axo + b,
x2 = ax1 + b = a2 xo + (1 + a)b,
x3 = ax2 + b = a3 xo + (1 + a + a2 )b,
..
.
xk = axk1 + b = ak .xo + (1 + a + + ak1 )b
geral da equacao
xk+1 = axk + b e
Portanto a solucao
1 ak
b,
se a 6= 1
1a
xk = xo + k b,
se a = 1.
xk = ak .xo +

xk+1 = axk + b pode ser olhada sob o


Exemplo 22.4. A equacao
ponto de vista de um operador linear A : R R , no espaco R ,
as sequ
encias x = (xo , x1 , . . . , xk , . . .). O operacujos elementos sao
encia x a nova sequ
encia y = Ax, onde
dor A associa a cada sequ
dada equivale ao problema de achar
yk = xk+1 axk . A equacao
^ onde b
^ = (b, b, . . .) e uma
os elementos x R tais que Ax = b,
encia constante de termos todos iguais a b. Como vimos no
sequ

Sec
ao 22

Equac
oes a Diferencas Finitas

301

^ e a soma de um
geral da equacao
Ax = b
Teorema 6.4, a solucao

geral da equacao
hoelemento qualquer do nucleo
de A (solucao
^
particular da equacao
Ax=b dada.
mogenea Ax=0) com uma solucao

Para obter uma dessas soluco es particulares, tentamos a solucao

constante c^ = (c, c, . . .). O numero


c deve cumprir c = ac + b, isto e ,
(1 a)c = b. Como no caso a = 1 ja foi visto no Exemplo 22.1, supo gemos aqui a 6= 1 e obtemos c = (1 a)1 .b. Por sua vez, a solucao

ral de Ax = 0 (equacao equivalente a xk+1 = axk ) e uma progressao


2

geometrica (p, ap, a p, . . .) cujo primeiro termo p e arbitrario.


As geral da equacao
xk+1 = axk + b, para a 6= 1, e dada
sim, a solucao
por xk = ak .p + (1 a)1 .b. Note que xo = p + (1 a)1 .b, donde
vem:
p = xo (1 a)1 .b e, por substituicao,
xk = ak .xo ak (1 a)1 .b + (1 a)1 b = ak xo +

1 ak
b,
1a

reobtendo o resultado do Exemplo 22.3.

22.A. Sistemas Lineares


Generalizando o Exemplo 22.2, podemos considerar, num espaco ve encia de
torial E, um operador linear A : E E e procurar uma sequ
vetores vk E tais que
vk+1 = A.vk

(k = 0, 1, 2, . . .).

Isto se chama um sistema linear homogeneo de primeira ordem,


de equaco es a diferencas finitas com coeficientes constantes.
Evidentemente, dado arbitrariamente um vetor inicial vo E,

encia (vo , v1 , . . . , vk , . . .) de vetores em E, coexiste uma unica


sequ
vk+1 = Avk para todo k 0.
mecando com vo e cumprindo a condicao
Basta tomar vk = Ak .vo .

O problema pratico
de resolver o sistema vk+1 = Avk reduz-se

portanto ao calculo
das potencias sucessivas Ak do operador A. Em
e uma tarefa simples. Ha,
entretanto, casos pargeral, isto nao
ticulares em que ela e factvel. Por exemplo, se existir uma base
U E formada por autovetores de A (o que se da quando dim E = n
e o polinomio caracterstico de A tem n razes reais distintas, ou
quando A e auto-adjunto), o vetor inicial vo exprime-se como
entao
linear
combinacao
v o = x1 u 1 + + xn u n

302

Equac
oes a Diferencas Finitas

Sec
ao 22

de vetores ui U , com Aui = i ui (i = 1, 2, . . . , n). Segue-se que


Ak .vo = x1 k1 u1 + + xn kn un

(k = 0, 1, . . .).

Exemplo 22.5. Seja A : R2 R2 o operador linear definido por


A(x, y) = (2x + 2y, 2x y). O sistema de equaco es a diferencas finitas vk+1 = Avk , com vk = (xk , yk ), escreve-se explicitamente como
xk+1 = 2xk + 2yk
yk+1 = 2xk yk .
O polinomio caracterstico do operador A e p() = 2 6, cujas
3 e 2. Para obter uma base de autovetores {u, v} R2 ,
razes sao
com u = (, ) e v = (, ), escrevemos as igualdades Au = 3u,
Av = 2v em termos de coordenadas, obtendo os sistemas
2 + 2 = 3
2 = 3
2 + 2 = 2
2 = 2
indeterminados. Tem que ser indeterminados
Estes sistemas sao

pois os numeros
3 e 2 foram obtidos de forma que fosse assim.
Tomemos as soluco es = 2, = 1, logo u = (2, 1), e = 1, = 2,
para todo k = 0, 1, 2, 3, . . . temos
logo v = (1, 2). Entao,
Ak .u = 3k .u = (3k .2, 3k )
e



Ak .v = (2)k .v = (2)k , (2)k+1 .

do sistema vk+1 = Avk cujo vetor


Para obter, digamos, a solucao
inicial e vo = (xo , yo ), com xo = 1, yo = 1, exprimimos o vetor
linear dos vetores basicos

vo = (1, 1) como combinacao


u = (2, 1)
e v = (1, 2), obtendo
3
1
vo = u v.
5
5
procurada e , portanto:
A solucao
3
1
3k+1
(2)k
vk = Ak .vo = Ak u Ak v =
u
v.
5
5
5
5

Sec
ao 22

Equac
oes a Diferencas Finitas

303

Em termos das coordenadas vk = (xk , yk ), temos


2
xk = [3k+1 + (2)k1 ]
5

1
e yk = [3k+1 (2)k+1 ].
5

No caso em que dim E = 2, o problema de calcular efetivamente a


do sistema vk+1 = Avk pode ser resolvido em todos os casos,
solucao
como mostraremos agora.
Tendo visto o caso em que o espaco E possui uma base de autovetores do operador A : EE, vamos agora (supondo sempre dim E=2)
existe. Ha duas possibilidaexaminar os casos em que tal base nao
as seguintes:
des, que sao
Primeira. O polinomio caracterstico de A possui uma raiz real
dupla , mas A 6= I. (Evidentemente, quando A = I todo vetor

nao-nulo
em E e autovetor de A, logo este caso ja foi visto.)
Segunda. O polinomio
caracterstico de A possui razes complexas
+ i e i (com i = 1 e 6= 0).
Consideremos o primeiro destes dois casos.

Existe um vetor nao-nulo


u E tal que Au = u. Alem disso,

somente os multiplos
de u podem ser autovetores de A. (Com efeito,

sendo o unico
autovalor de A, se existisse um autovetor v nao

multiplo
de u, teramos uma base {u, v} E com Au = u, Av = v,
donde A = I.)

Tomemos um vetor v tal que {u, v} E seja uma base. Entao


e autovetor. Se for 6= 1,
Av = u + v com 6= 0 pois v nao
substitumos v por w = 1 v e obtemos uma nova base {u, w} E
tal que Au = u, Aw = u + w. Na base {u, w}, A tem a matriz
triangular


1
,
0
, . Segue-se que = . Assim, temos
cujos autovalores sao

Au = u
Aw = u + w

1
.
e a matriz de A na base {u, w} e m =
0


(*)

304

Equac
oes a Diferencas Finitas

Sec
ao 22

Das igualdades (*) resulta que para k = 0, 1, 2, . . ., tem-se



Ak u = k u
Ak w = kk1 u + k w,
logo

k kk1
.
m =
0
k
k

Exemplo 22.6. O operador A : R2 R2 , dado por A(x, y) = (3x


y, x + y), tem o polinomio caracterstico
p() = 2 4 + 4,

o qual admite a raiz dupla =2, sendo u=(1, 1) um autovetor de A.


Portanto {u, e2 } R2 e uma base, com Au = 2u e Ae2 = (1, 1) =
1u+2e2 . Tomando w = e2 = (0, 1), obtemos a base {u, w} R2 ,
com Au = 2u e Aw = u + 2w, logo a matriz de A na base {u, w} e


2 1
m=
.
0 2
vk = (xk , yk ) = Ak .vo do
Pelo que foi dito acima, para obter a solucao
sistema
xk+1 = 3xk yk ,
yk+1 = xk + yk ,
com vetor inicial vo = (3, 5), primeiro exprimimos vo como combina linear de u e w, obtendo vo = 3u 2w. Da resulta que, para todo
cao
k = 0, 1, 2, . . ., tem-se
vk = 3.Ak u 2.Ak w.
Como vimos acima, Ak u = 2k u e Ak w = k2k1 u + 2k w. Logo
vk = 2k [(3 k)u 2w] = 2k (3 k, 5 k).
Em termos das coordenadas, isto significa que
xk = 2k (3 k)

e yk = 2k (5 k).

Sec
ao 22

Equac
oes a Diferencas Finitas

305

Para completar o estudo de sistemas lineares de equaco es a diferencas finitas no caso 2 2, trataremos agora o caso de um operador

linear A : E E, (com dim E = 2) cujas razes caractersticas sao

numeros
complexos + i, i, com 6= 0.
Sera conveniente considerar o complexificado de E, que e o espaco
(complexa) 2, cujos elementos tem
vetorial complexo Ec , de dimensao
dadas por
a forma u + iv, onde u, v E. As operaco es em Ec sao
(u + iv) + (u + iv ) = (u + u ) + i(v + v )
e
( + i)(u + iv) = (u v) + i(v + ).
Tem-se EEc de modo natural, pois u=u+i.0. O operador A : EE
estende-se a um operador Ac : Ec Ec , chamado o complexificado de
Ac (u + iv) = Au + iAv. Toda base de E
A, pondo-se, por definicao,
e tambem uma base de Ec , relativamente a` qual a matriz de Ac e a
mesma matriz de A. Em particular, os polinomios caractersticos de
autovalores distintos do
A e Ac coincidem, logo + i e i sao
operador C-linear Ac : Ec Ec . Para nossos efeitos, basta considerar
o autovalor + i.
Seja u + iv Ec um autovetor de Ac correspondente ao autovalor
u, v E sao
vetores nao
simultaneamente nulos, com
+ i. Entao
Ac (u + iv) = ( + i)(u + iv), ou seja:
Au + iAv = (u v) + i(u + v),
logo
Au = u v e

Av = u + v.

(*)

linearmente independenAfirmamos que os vetores u, v E sao


ambos 6= 0 pois se um deles fosse
tes. Em primeiro lugar, u e v sao
nulo o outro seria 6= 0 e, pelas equaco es (*), este seria um autovetor
do operador A : E E. Em seguida, se u e v fossem L.D. teramos
v = u, logo Au = u v = ( )u e u seria um autovetor de A.
Portanto, {u, v} E e uma base, relativamente a` qual a matriz do
operador A : E E tem a forma



.
a=

306

Equac
oes a Diferencas Finitas

Sec
ao 22

O calculo
das potencias do operador A ou, equivalentemente, da
de que as matrizes da forma
matriz a se baseia na observacao




a` adicao
e a` multiplicacao,
do mesmo
se comportam, em relacao

modo que os numeros


complexos + i.

Mais precisamente, se associarmos a cada numero


complexo
z = x + iy a matriz


x y
(z) =
y x
teremos uma correspondencia injetiva tal que (z + w) = (z) +
as operaco es
(w) e (z.w) = (z).(w), onde z + w e z.w sao
e multiplicacao
de numeros

de adicao
complexos e (z) + (w) e
as operaco es correspondentes com matrizes.
(z).(w) sao
Assim, se quisermos calcular a k-esima potencia da matriz




basta calcular ( + i)k = x + iy e teremos


k


x y
.
y x

Ora, as potencias de um numero


complexo se calculam facilmente com a formula de De Moivre: basta escreve-lo sob a forma tri (+i)k = k (cos k+
gonometrica +ip
= (cos +i sen ) e entao
2
2
i sen k ). A, = + , cos = / e sen = /. Portanto:


k


cos k sen k
.
sen k cos k

Se temos, por exemplo, um operador A : R2 R2 , dado por


os nu
A(x, y) = (ax + by, cx + dy), cujas razes caractersticas sao
acima que existe uma
meros complexos i, segue-se da discussao
a` qual a matriz de Ak tem a forma
base {u, v} R2 em relacao


cos k sen k
k
,

sen k cos k

Sec
ao 22

Equac
oes a Diferencas Finitas

307

onde
=

p
2 + 2 ,

cos = /,

sen = /.

Depois de obtidos , , a base {u, v} se determina resolvendo o


sistema Au = u v, Av = u + v, de 4 equaco es com 4 incognitas
as coordenadas dos vetores u = (x, y) e v = (s, t). Em termos
que sao
dessas coordenadas, o sistema se escreve como
ax + by
cx + dy
as + bt
cs + dt

=
=
=
=

x s
y t
x + s
y + t

ou
(a )x
cx
x

+by
+(d )y

+s
+(a )s
+cs

+t
+bt
+(d )t

=0
=0
=0
= 0.

Exemplo 22.7. Consideremos o sistema xk+1 = 3xk yk , yk+1 =


2xk + yk , com vetor inicial vo = (1, 1). Ele nos fornece o operador
A : R2 R2 , A(x, y) = (3x y, 2x + y), cuja matriz na base canonica
e


3 1
,
2 1

logo o polinomio caracterstico e p() = 2 4 + 5, cujas razes sao


2
2 i. Existe uma base {u, v} R , com u = (x, y), v = (s, t), tal que
Au = 2u v, Av = u + 2v. Para obter esta base, devemos achar uma
nao-nula

solucao
do sistema
3x y
2x + y
3s t
2s + t

=
=
=
=

2x s
2y t
x + 2s
y + 2t

ou seja
x y +s
=0
2x y
+t = 0
x
+s t = 0
y
+2s t = 0.

308

Equac
oes a Diferencas Finitas

Sec
ao 22

Por escalonamento, encontramos x = s t, y = 2s t, onde s, t sao

arbitrarios.
Tomamos s = 1, t = 0 e obtemos x = 1, y = 2. Logo
u = (1, 2) e v = (1, 0) formam uma base de R2 , relativamente a` qual
o operador A tem a matriz


2 1
.
a=
1 2

O numero
complexo 2 + i tem modulo = 5. Um angulo
tal que

para
cos = 2/ 5 e = 26 33 54 ou seja, = 0, 463 rad. Entao,
todo k = 0, 1, 2 . . ., temos



k
k cos k sen k
2 1
k
.
a =
= ( 5)
sen k cos k
1 2
do sistema vk+1 = Avk com vetor inicial vo = (1, 1) e
A solucao
dada por vk = Ak .vo . Para obte-la explicitamente, devemos comecar
linear dos vetores basicos

exprimindo vo como combinacao


u = (1, 2)
e v = (1, 0). Temos vo = 21 u + 21 v. Portanto
1
1
vk = Ak u + Ak v.
2
2
k
k
Ora, a e a matriz de A na base {u, v}. Logo
Ak u = 5k/2 (cos k u sen k v)
e
Ak v = 5k/2 (sen k u + cos k v).

Noutras palavras:

Ak u = 5k/2 (cos k sen k , 2 cos k )


e
Ak v = 5k/2 (sen k + cos k , 2 sen k ).
Portanto
1
1
vk = Ak u + Ak v = 5k/2 (cos k , cos k + sen k ).
2
2
que
Conclumos entao
xk = 5k/2 cos k ;
yk = 5k/2 (cos k + sen k ),
do sistema xk+1 = 3xk yk ,
com = 26 33 54 = 0,463 rad, e a solucao
yk+1 = 2xk + yk que cumpre xo = 1, yo = 1.

Sec
ao 22

Equac
oes a Diferencas Finitas

309

do Teorema de Cayley-Hamilton
22.B. Uma Aplicacao
Uma forma alternativa de calcular as potencias sucessivas Ak do
operador linear A : E E com dim E = n, consiste em observar
encia do Teorema de Cayley-Hamilton, basta que se
que, em consequ
considerem os expoentes k n 1. Com efeito, se
pA () = (1)n n + an1 n1 + + a1 + ao
e o polinomio caracterstico do operador linear A, segue-se de
pA (A) = 0 que
An = (an1 An1 + + a1 A + ao I).
Usaremos este fato para calcular as potencias Ak de um operador
linear A : E E, onde dim E = 2. Neste caso, o grau do polinomio ca de
racterstico pA () sendo igual a 2, segue-se que o resto da divisao
k por pA (), para todo k 2, tem a forma + . (Por simplicidade,
escrevemos , em vez de k , k .) Podemos portanto escrever
k = pA () q() + + ,
donde
Ak = pA (A) q(A) + A + I.

Como pA (A) = 0, segue-se que Ak = A + I.


Para encontrar e , suponhamos inicialmente que as razes
temos pA (1 ) =
caractersticas 1 e 2 sejam distintas. Por definicao,
k
pA (2 ) = 0 logo da identidade = pA () q() + + resultam as
igualdades:
1 + = k1
2 + = k2 .
Como estamos supondo 1 6= 2 , temos acima um sistema determi
nado, que nos permite obter valores unicos
para e . Observe
que este argumento vale, inclusive, quando as razes caractersticas
numeros

1 e 2 sao
complexos. Neste caso, usa-se a forma trigonometrica para calcular as potencias k1 e k2 e ve-se que as soluco es
numeros

, do sistema acima sao


reais.
Consideremos agora o caso em que o polinomio caracterstico

pA () do operador linear A possui uma raiz (real) dupla 1 . Entao

310

Equac
oes a Diferencas Finitas

Sec
ao 22

sabemos que 1 , alem de raiz do polinomio pA (), e tambem raiz de


sua derivada pA (). Portanto a identidade
k = pA () q() + +
1 + = k1 enquanto que sua derivada
fornece a equacao
kk1 = pA () q() + pA () q () +
fornece, em virtude das relaco es pA (1 ) = 0 e pA (1 ) = 0, a igualdade
k
= k k1
1 , logo = 1 (1 k).

22.C. Equacoes
Lineares de Segunda Ordem
Estudaremos apenas as que tem coeficientes constantes. Primeiro
as homogeneas:
xk+2 + axk+1 + bxk = 0.
(*)
acima ao sistema linear de
Podemos reduzir o estudo da equacao
primeira ordem:
xk+1 = yk
(**)
yk+1 = bxk ayk ,
onde foi introduzida a incognita auxiliar yk = xk+1 . (Em particular,
encias
yo = x1 .) Usando os metodos do item 22.A, obtemos as sequ
(xk ) e (yk ), com valores iniciais xo , yo dados. Isto significa que a
(*), quando sao
fixados os valores iniciais xo , x1 , tem por
equacao
a sequ
encia (xk ) que responde ao sistema (**). Com efeito,
solucao
temos:
xk+2 = yk+1 = bxk ayk = bxk axk+1 .
Portanto xk+2 + axk+1 + bxk = 0.
Observe que o polinomio caracterstico do sistema (**) e p() =
2
(*), nao
e
+ a + b. Isto sugere que, a fim de estudar a equacao

necessario
ter feito anteriormente o estudo dos sistemas lineares.
(*), independenA seguir, mostraremos como resolver a equacao
temente de sistemas lineares.
a fazer e que o subconjunto S R , forA primeira observacao
encias x = (xo , x1 , . . . , xk , . . .) que sao
soluco es da
mado pelas sequ
xk+2 + axk+1 + bxk = 0, e um subespaco vetorial de dimenequacao
2.
sao

Sec
ao 22

Equac
oes a Diferencas Finitas

311

imediO fato de que S e um subespaco vetorial e de verificacao

ata. (S e o nucleo
do operador linear A : R R , definido por

Ax = y, onde yk = xk+2 + axk+1 + bxk .) Alem disso, o comentario


feito
sobre a existencia e unicidade da solucao
de
no incio desta secao
de segunda ordem xk+2 = f(xk , xk+1 ), com valores iniciuma equacao
ais xo , x1 pre-fixados, significa precisamente que a correspondencia
x = (xk ) da equacao
(*) seus dois
S R2 , que associa a cada solucao

primeiros termos (xo , x1 ), nesta ordem, e um isomorfismo entre S e


2.
R2 . Portanto o espaco vetorial S tem dimensao

Este argumento mostra ainda que se x = (xk ) e x = (xk ) sao


xk+2 + axk+1 + bxk = 0 tais que os vetores
duas soluco es da equacao
linearmente independentes entao
toda solucao

(xo , x1 ) e (xo , x1 ) sao


se exprime, de modo unico,

linear
desta equacao
como combinacao
x + x .
e que se r e uma raiz do polinomio caracA segunda observacao
2
a sequ
encia r = (1, r, r2 , . . . , rk , . . .) e
terstico + a + b = 0 entao
da equacao
xk+2 + axk+1 + bxk = 0.
uma solucao
Com efeito, de r2 + ar + b = 0 segue-se que
rk+2 + ark+1 + brk = rk (r2 + ar + b) = rk 0 = 0.
Resulta dessas duas observaco es que, para determinar todas as
xk+2 + axk+1 + bxk = 0, devemos usar as razes
soluco es da equacao
do seu polinomio caracterstico a fim de obter duas soluco es linear combinaco es
mente independentes. Todas as demais soluco es serao
lineares destas.
Ha 3 casos a considerar.
Primeiro caso. O polinomio caracterstico 2 + a + b tem duas
razes reais distintas r, s.
as sequ
encias
Entao
r = (1, r, r2 , . . . , rk , . . .)

e s = (1, s, s2 , . . . , sk , . . .)

soluco es e, como r 6= s, os vetores inicias (1, r) e (1, s) sao


L.I. em
sao
linearmente independentes em R . A solucao

R2 , logo r e s sao
xk+2 + axk+1 + bxk = 0 e , portanto,
geral da equacao
xk = rk + sk ,
onde as constantes e podem ser determinadas de modo que xo e
x1 tenham valores pre-fixados.

312

Equac
oes a Diferencas Finitas

Sec
ao 22

xk+2 3xk+1 + 2xk = 0 tem o polinomio


Exemplo 22.8. A equacao
r = 1, s = 2. A solucao

caracterstico 2 3 + 2, cujas razes sao


k
tem a forma xk = + 2 .. Se quisermos, por
geral desta equacao
com xo = 1 e x1 = 0, temos que achar , tais
exemplo, a solucao

que + = 1 e + 2 = 0, o que nos da = 2, = 1, logo a solucao


k
procurada tem a forma xk = 2 2 .
Segundo caso. O polinomio caracterstico 2 + a + b tem uma raiz
real dupla r 6= 0.
da
Tem-se r = a/2, logo 2r+a = 0. Ja sabemos que uma solucao

k
xk+2 +axk+1 +bxk = 0 e r = (1, r, . . . , r , . . .). Afirmamos que
equacao
Com efeito, se xk = krk
r = (0, r, 2r2 , . . . , krk , . . .) e outra solucao.

entao
xk+2 + axk+1 + bxk = (k + 2)rk+2 + a(k + 1)rk+1 + bkrk
= rk [k(r2 + ar + b) + r(2r + a)] = 0.
L.I. em R2 , segue-se que
Alem disso, como os vetores (1, r) e (0, r) sao
soluco es linearmente independentes, logo a solucao
geral
r e r sao
dada tem a forma
da equacao
xk = rk + krk = rk ( + k),
onde as constantes e podem ser determinadas de maneira a fazer
com que xo e x1 assumam os valores iniciais pre-estabelecidos.
xk+2 6xk+1 + 9xk = 0. Seu polinomio
Exemplo 22.9. Seja a equacao
geral desta equacao

caracterstico tem a raiz dupla r = 3. A solucao


e xk = 3k ( + k). Se impusermos os valores iniciais xo = 1, x1 = 1
que tem esses valores
obteremos = 1, = 4/3, logo a solucao
iniciais e xk = 3k (1 + 4k/3).
aritmetica pode tambem ser conExemplo 22.10. Uma progressao
de uma equacao
a diferencas finitas de sesiderada como solucao
xk+2 xk+1 = xk+1 xk . Escrevendo-a
gunda ordem, a saber, a equacao
sob a forma xk+2 2xk+1 + xk = 0, vemos que seu polinomio carac geral e xk =
terstico possui a raiz dupla r = 1, logo sua solucao
aritmetica de primeiro termo e
+ k, ou seja, e a progressao
.
razao
2

Terceiro caso. As razes do polinomio caracter


stico + a + b sao

os numeros
complexos i com 6= 0, i = 1.

Sec
ao 22

Equac
oes a Diferencas Finitas

313

Escrevemos o numero
complexo r = + i sob a forma trigonometrica r = (cos + i sen ). Exatamente como no caso real,
encia de numeros

verificamos que a sequ


complexos rk = k (cos k +
da equacao
dada. Mas e o bvio que
i sen k ), k = 0, 1, 2, . . ., e solucao
numeros

encia complexa (zo , z1 , . . . , zk , . . .),


se a, b sao
reais e a sequ
da equacao
zk+2 + azk+1 + bzk = 0 entao

com zk = xk + iyk , e solucao

sua parte real xk e sua parte imaginaria


yk cumprem xk+2 + axk+1 +
bxk = 0 e yk+2 + ayk+1 + byk = 0 respectivamente.
encias xk = k cos k e yk = k sen k sao
soluco es
Logo as sequ
dada. Alem disso, como (xo , x1 ) = (1, cos ), (yo , y1 ) =
da equacao

e real), vemos que


(0, sen ) e sen 6= 0 (pois o numero
r nao
(xo , x1 ) e (yo , y1 ) formam uma base de R2 , logo as soluco es xk =
linearmente independentes.
k cos k e yk = k sen k sao
geral da equacao
xk+2 + axk+1 + bxk = 0,
Segue-se que a solucao
quando a2 < 4b, e dada por
xk = k [ cos k + sen k ],
onde as constantes , podem ser determinadas de modo que xo e
x1 assumam valores arbitrariamente pre-fixados.
xk+2 2xk+1
Exemplo 22.11. O polinomio caracterstico
da equacao
+
4xk = 0 tem as razes complexas 1
1+i 3
i 3. Escrevendo
+ i sen 60 ) =
3
=
2(cos
60
sob forma trigonom
e
trica,
temos,
1
+
i

geral da equacao
dada e
2 cos 3 + i sen 3 . A solucao


k
k
k
xk = 2 cos
+ sen
.
3
3
tal que xo = 5,
Se quisermos, por exemplo, obter a solucao
x1 = 7, os

numeros
, devem satisfazer as condico es = 5, = 2 3/3.
direta das equaco es de segunda ordem
Como se ve, a discussao
(lineares homogeneas, com coeficientes constantes) e bem mais sim casos particulaples do que o estudo dos sistemas dos quais elas sao
res.

22.D. Equacoes
com Segundo Membro Constante
as do tipo
As equaco es de que vamos tratar sao
xk+2 + axk+1 + bxk = c.

314

Equac
oes a Diferencas Finitas

Sec
ao 22

geral desta equacao


e a soma de uma
Como se sabe, a solucao
particular, que obtenhamos por qualquer processo, com a sosolucao
geral da equacao
homogenea xk+2 + axk+1 + bxk = 0. Como ja
lucao

aprendemos a determinar esta ultima,


basta-nos explicar como se
particular.
pode conseguir uma solucao
constante xk = d. Devemos
Comecamos tentando uma solucao
ter d + ad + bd = c, ou seja (1 + a + b)d = c. Portanto, se 1 + a + b 6= 0,

constante possvel para a equacao


dada e xk = d =
a unica
solucao
1
(1 + a + b) .c.
dada (com c 6= 0) nao
pode ter solucao

Se 1 + a + b = 0, a equacao
do tipo xk = k.d. Substituindo, na
constante. Tentamos uma solucao
dada, xk por kd vem
equacao
(k + 2)d + a(k + 1)d + bkd = c
ou
(1 + a + b)kd + (a + 2)d = c.
Como 1+a+b = 0, obtemos (a+2)d = c. Portanto, quando 1+a+b = 0
encia xk = kc.(a + 2)1 e uma solucao
particular.
e a 6= 2, a sequ
b = 1 e a equacao
dada
Finalmente, se 1+a+b = 0 e a = 2 entao
possui solucao
constante
se torna xk+2 2xk+1 + xk = c, a qual nao
da forma xk = k2 .d.
nem do tipo xk = k.d. Tentemos uma solucao
obtemos
Substituindo xk por este valor na equacao,
(k2 + 4k + 4)d 2(k2 + 2k + 1)d + k2 d = c,
imediata mostra
ou seja, 2d = c, donde d = c/2. Uma verificacao
2
particular da equacao

que, realmente, xk = k c/2 e uma solucao


xk+2 2xk+1 + xk = c.
vimos que a equacao
de se
Observacao.
No incio desta secao,
gunda ordem xk+2 + axk+1 + bxk = 0 pode ser resolvida considerandose o sistema
xk+1 = yk
yk+1 = bxk ayk .
Mostraremos agora que, reciprocamente, se quisermos resolver o
sistema
xk+1 = axk + byk
(*)
yk+1 = cxk + dyk

Sec
ao 22

Equac
oes a Diferencas Finitas

315

de
com vetor inicial v0 = (x0 , y0 ), podemos reduzi-lo a uma equacao
pelo metodo que acabamos de
segunda ordem, resolver essa equacao
do sistema.
expor e, a partir da, obter a solucao

Evidentemente, um dos numeros


a, b, c, d e diferente de zero.
as soluco es
Para fixar ideias, suporemos que b 6= 0. Se (xk ) e (yk ) sao

do sistema () entao
xk+2 = axk+1 + byk+1
= axk+1 + bcxk + bdyk
= axk+1 + bcxk + dxk+1 adxk ,
logo,
xk+2 (a + d)xk+1 + (ad bc)xk = 0.

(**)

Para resolver o sistema () com vetor inicial v0 = (x0 , y0 ), toma (xk ) da equacao
() com os valores iniciais x0 (dado)
mos a solucao
e x1 = ax0 + by0 (com y0 tambem dado). Em seguida, definimos a
encia (yk ) pondo yk = (xk+1 axk )/b. Isto da imediatamente
sequ
xk+1 = axk + byk . Alem disso, o valor y0 obtido nesta formula coincide com o valor inicial y0 anteriormente estipulado. Tem-se ainda
1
[xk+2 axk+1 ]
b
1
= [(a + d)xk+1 + (bc ad)xk axk+1 ]
b
1
= [(a + d)(axk + byk ) + (bc ad)xk axk+1 ].
b

yk+1 =

encias (xk ) e (yk )


Simplificando, vem yk+1 = cxk + dyk , logo as sequ
procurada do sistema ().
formam a solucao

Exerccios
que
22.1. Para cada uma das equaco es abaixo, determine a solucao
tem o valor inicial indicado
(a)

xk+1 = xk 7, xo = 0.

(b)

xk+1 = 6xk , xo = 1.

316

Equac
oes a Diferencas Finitas

(c)

xk+1 = 2xk + 5, xo = 3.

(d)

xk+1 = xk + k, xo = 2.

(e)

xk+1 =

k+1
k+2

Sec
ao 22

xk , xo = xo .

do tipo
22.2. Prove que o conjunto das soluco es de uma equacao
com
xk+1 = ak xk + bk (linear, de primeira ordem, homogenea ou nao,

1 em R .
coeficientes variaveis)
e uma variedade afim de dimensao
Em que condico es e um subespaco vetorial?
do sistema
22.3. Uma solucao
xk+1 = ak xk + bk yk + pk
yk+1 = ck xk + dk yk + qk
encias
pode ser considerada como um par (s, t) de sequ
s = (xo , . . . , xk , . . .),
t = (yo , . . . , yk , . . .),
portanto um elemento de R R . Prove que o conjunto S des 2 no espaco vetorial
sas soluco es e uma variedade afim de dimensao

R R . Em que condico es S e um subespaco vetorial?

22.4. Para cada um dos sistemas abaixo, determine a solucao


(vo , . . . , vk , . . .), vk = (xk , yk ), que tem o valor inicial vo = (xo , yo )
indicado.
xk+1 = 2xk + 9yk

xk+1 = 3xk + 16yk

xk+1 = xk + 3yk

yk+1 = xk + 2yk

yk+1 = 4xk 13yk

yk+1 = 2xk + yk

(xo , yo ) = (3, 2)

(xo , yo ) = (3, 2)

(xo , yo ) = (2, 3)

do sistema
22.5. Seja vk = (xk , yk ) uma solucao
xk+1 = 2xk yk
yk+1 = 4xk 2yk .
Prove que, seja qual for o vetor inicial vo = (xo , yo ), tem-se xk =
yk = 0 para todo k 2.

Sec
ao 22

Equac
oes a Diferencas Finitas

317

22.6. Sejam e as razes caractersticas (reais ou complexas) do


operador A : R2 R2 . Suponha que || < 1 e || < 1. Seja qual
vk = (xk , yk ) do
for o valor inicial vo = (xo , yo ), prove que a solucao
sistema vk+1 = Avk cumpre lim xk = 0, lim yk = 0.
22.7. Sejam r = (xo , . . . , xk , . . .) e s = (yo , . . . , yk , . . .) soluco es da
zk+2 + azk+1 + bzk = 0. Assinale V(erdadeiro) ou F(also):
equacao
(

L.I. entao,
para quaisquer ndices k 6= , os vetores
) Se r e s sao
L.I.
u = (xk , x ) e v = (yk , y ) sao

) Se existirem k 6= tais que os vetores u = (xk , x ) e v = (yk , y )


L.I. entao
as soluco es r e s sao
L.I.
sao

) Se, para todo k 0, os vetores u = (xk , xk+1 ) e v = (yk , yk+1 )


r e s sao
L.D.
forem L.D. entao

L.D. entao
u = (xk , x ) e v = (yk , y ) sao
L.D., sejam
) Se r e s sao
quais forem k e .

22.8. Sejam r=(xo , . . . , xk , . . .), s=(yo , . . . , yk , . . .), t=(zo , . . . , zk , . . .)


wk+3 + awk+2 + bwk+1 + ck wk = 0. Prove:
soluco es da equacao
(a) Se existirem k < < m tais que os vetores v = (xk , x , xm ),
L.I. entao
as sequ
encias
v = (yk , y , ym ) e v = (zk , z , zm ) sao
L.I. .
r, s e t sao
L.I. entao
existe k 0 tal que os vetores
(b) Se r, s e t sao
v=(xk , xk+1 , xk+2 ), v =(yk , yk+1 , yk+2 ) e v =(zk , zk+1 , zk+2 )
L.I. .
sao
encias r = (1, 2, 3, 4, 0, 0, . . .), s = (1, 2, 3, 1,
22.9. Prove que as sequ
podem ser soluco es da mesma
0, 0, . . .) e t = (1, 0, 0, 3, 0, 0, . . .) nao
xk+3 +axk+2 +bxk+1 +cxk = 0. [Sugestao:
item (b) do exerccio
equacao
anterior.]
22.10. Seja E : R R o operador linear definido por
E(xo , x1 , . . . , xk , . . .) = (x1 , x2 , . . . , xk+1 , . . .).

318

Equac
oes a Diferencas Finitas

Sec
ao 22

Prove que um subespaco vetorial S R e o conjunto das soluco es


linear homogenea de ordem n com coeficientes consde uma equacao
tantes,
xk+n + a1 xk+n1 + + an xk = 0,
se, e somente se, cumpre as condico es seguintes:
(1) S e invariante por E;
finita, igual a n.
(2) S tem dimensao
22.11. O metodo apresentado em 22.B para calcular as potencias
Ak mediante o uso do Teorema de Cayley-Hamilton da formulas
explcitas para essas potencias como combinaco es lineares de
I, A, . . . , An1 , mas faz uso das razes caractersticas do operador A,
facilmente calculaveis

2 porem difceis de obque sao


em dimensao
a formula geral
ter em dimensoes superiores. Caso se deseje, nao

para Ak , mas apenas o calculo


explcito de uma dessas potencias,

como A10 por exemplo, a alternativa seguinte utiliza apenas o calculo do polinomio caracterstico pA (), o que e bem mais factvel: Usa para escrever k = pA () q() + r(), onde
se o algoritmo da divisao
do espaco E. Tem-se
o grau do resto r() e menor do que a dimensao
Ak = r(A). Usando este metodo, mostre que, dado o operador
entao
A : R3 R3 , onde A(x, y, z) = (x+2y+3z, 3x+y+2z, xy+z), tem-se
A5 = 40A2 + 19A 143 I e A10 = 14281 A2 + 2246 A 49071 I.

que
22.12. Para cada uma das equaco es abaixo, determine a solucao
tem os valores iniciais indicados.
(a)

xk+2 = xk+1 + 20xk , xo = 3, x1 = 2.

(b)

1
5 xk+2

(c)

xk+2 6xk+1 + 25xk = 0, xo = 1, x2 = 3.

= 2xk+1 5xk , xo = 2, x1 = 1.

22.13. A sequ
encia de Fibonacci (xo , x1 , . . . , xk , . . .) e definida pelas

condicoes xo = 0, x1 = 1 e xk+2 = xk+1 + xk . Obtenha a formula geral


de k, prove que xk+2 = 1 + x1 + + xk e que
para xk em funcao

xk+1
1+ 5
lim
(o numero

de ouro).
=
k xk
2

Sec
ao 22

Equac
oes a Diferencas Finitas

319

de xo , x1 e k,
22.14. Qual a formula que exprime xk em funcao
sabendo-se que
1
xk+2 = (xk+1 + xk )
2
para todo k 0 ?
xk+3 6xk+2 + 11xk+1 6xk = 0.
22.15. Resolva a equacao
vk = (xk , yk ) do sistema
22.16. Ache a solucao
xk+1 = xk (xk yk )
yk+1 = yk + (xk yk ),
com vetor inicial vo = (xo , yo ), com yo < xo , 0 < < 1 e 0 < < 1.
Mostre que lim xk = lim yk = (xo + yo )/( + ), logo este limite
esta mais proximo de xo do que de yo se, e somente se, < . Mostre
que se tem xk < yk para todo k se, e somente se, + < 1, em cujo
encia (xk ) e decrescente e (yk ) e crescente.
caso a sequ
sim
[Observacao:
este sistema e um modelo para uma situacao
ples de barganha. Cada xk e o preco do vendedor e yk e a proposta
do comprador. Em cada etapa, o vendedor oferece um desconto proporcional a` diferenca de precos na etapa anterior e o comprador, por

sua vez, aumenta sua proposta de modo analogo.


Se a soma + ,
da constante do vendedor com a do comprador, for maior do que 1,
ja na primeira etapa tem-se x1 < y1 , o que daria o chamado negocio
de pai para filho...]
cujas razes carac22.17. Seja xk+2 + axk+1 + bxk = 0 uma equacao
os complexos conjugados r e r. Escreva r = (cos +
tersticas sao
i sen ) como xk = k cos( + k), onde as constantes e podem
ser determinadas de modo a fazer com que xo e x1 assumam os va a equacao
dada admite a
lores iniciais pre-estabelecidos. [Sugestao:
arbitrarios.

geral complexa xk = rk + rk , onde , C sao


solucao
k
real xk = 2 Re (r ). Escreva
Tomando = , obtem-se a solucao
= 2 (cos + i sen ) e use a formula cos(x + y) = cos x cos y
sen x sen y.]

320

Equac
oes a Diferencas Finitas

Sec
ao 22

xk+2 + axk+1 + bxk = ck , onde c nao


e raiz
22.18. Dada a equacao
caracterstica, prove que existe M R tal que xk = M ck e uma
particular. Se c e uma raiz caracterstica diferente de a/2,
solucao
particular. E se
prove que existe N tal que xk = Nkck e uma solucao
c = a/2 e raiz caracterstica prove que existe P tal que xk = Pk2 ck
particular.
e uma solucao
22.19. Se vk+1 = vk + wk , onde || < 1 e lim wk = 0, prove que
k

lim vk = 0

22.20. Seja A : E E um operador linear cujos autovalores cumprem |1 | < 1, . . . , |n | < 1. Prove que, para todo v E, tem-se
Tome uma base {u1 , . . . , un } E na qual
lim Ak v = 0. [Sugestao:

a matriz de A seja diagonal superior. Observe que Aui = w + i ui ,


onde w S(u1 , . . . , ui1 ) se i > 1 e Au1 = 1 u1 . Logo Ak+1 ui =
Ak w + i Ak ui . Ponha vk = Ak ui , wk = Ak w, = i e tenha vk+1 =
em i e o exerccio anterior para concluir que
vk + wk . Use inducao
k
lim A ui = 0 (i = 1, . . . , n), e da lim Ak v = 0 para todo v E.]

Ap
endice
A Forma Can
onica de Jordan
O objetivo deste apendice e provar que, dado um operador linear
A : E E num espaco vetorial complexo de dimensao
finita, existe
uma base de E na qual a matriz a de A e formada por uma serie
de blocos de Jordan ao longo da diagonal. Um bloco de Jordan e
uma matriz triangular inferior cujos elementos diagonais sao
todos
iguais a um mesmo auto-valor de A e os elementos imediatamente
abaixo da diagonal sao
iguais a 1. Diz-se entao
que a matriz a esta
na forma canonica de Jordan. Quando E possui uma base formada
por auto-vetores de A, os blocos de Jordan sao
todos 11, e neste caso
a forma canonica de Jordan para A e uma matriz diagonal.
A forma canonica de Jordan exibe a matriz mais simples que
se pode obter para o operador A. Ela se mostra util

no estudo de
questoes que envolvem potencias sucessivas do operador A, como as
equaco es diferenciais lineares e as equaco es a diferencas finitas lineares.

A1. Operadores Nilpotentes


estudaremos mais um tipo de operadores que podem
Nesta secao,
ser representados por matrizes especialmente simples, a saber, os

322

A Forma Can
onica de Jordan

Ap
endice

operadores nilpotentes. Os espacos vetoriais aqui considerados po faz diferenca. Tampouco se nedem ser reais ou complexos; nao
cessita de um produto interno. Veremos que, mesmo no caso real,
os operadores nilpotentes possuem matrizes triangulares. O estudo
para a secao
seguinte.
aqui feito serve de preparacao
Um operador linear A : E E diz-se nilpotente quando se tem
Ak = 0 para algum k N. O ndice de um operador nilpotente e o

menor numero
k N tal que Ak = 0. Isto significa que Ak1 6= 0 e
k
A = 0.
Analogamente, uma matriz quadrada a chama-se nilpotente
quando se tem ak = 0 para algum k N. Se ak1 6= 0 e ak = 0,
diz-se que a matriz nilpotente a tem ndice k.
D : Pn Pn e nilpotente,
Exemplo A1.1. O operador de derivacao
com ndice n + 1.

Exemplo A1.2. Um exemplo simples de matriz nilpotente e dado


pela matriz k k cuja k-esima coluna e o vetor nulo e, para 1 j
k 1, sua j-esima coluna e ej+1 Rk . Para k = 4 essa matriz tem a
forma abaixo:

0 0 0 0
1 0 0 0

a=
0 1 0 0 .
0 0 1 0

A matriz deste exemplo provem do operador A : Rk Rk , definido


por Ae1 = e2 , . . . , Aek1 = ek , Aek = 0. Evidentemente, tem-se Ak =
0 e Ak1 6= 0. Logo o ndice do operador A (e da matriz a) e igual a k.

Teorema A1.1. Dado o operador A : E E, seja u E um vetor


tal que Ak1 u 6= 0 e Ak u = 0. Entao
os vetores u, Au, . . . , Ak1 u sao

linearmente independentes.
Seja
Demonstracao:
1 u + 2 Au + + k Ak1 u = 0.
Aplicando o operador Ak1 a ambos os membros desta igualdade,
obtemos 1 Ak1 u = 0. Como Ak1 u 6= 0, conclumos que 1 = 0.
linear inicial se reduz a
Logo a combinacao
2 Au + + k Ak1 u = 0.

Ap
endice

A Forma Can
onica de Jordan

323

Aplicando o operador Ak2 , obtemos agora 2 Ak1 u = 0, logo 2 = 0.


Prosseguindo analogamente, tem-se 1 = 2 = = k = 0.


Corolario
1. Num espaco vetorial de dimensao
n, o ndice de um
operador nilpotente e n.

Corolario
2. Seja A : E E um operador nilpotente de ndice n
num espaco vetorial E, de dimensao
n. Existe uma base de E na qual
a matriz de A tem a forma abaixo:

0 0 0 0 0
1 0 0 0 0

0 1 0 0 0

.. .. ..
. .
. . . .. ..
0 0 0

1 0

Vale, evidentemente, a recproca do Corolario


2 acima: se alguma
matriz do operador A : E E (onde dim E = n) tem a forma acima
A e um operador nilpotente de ndice n.
entao
Se o ndice do operador nilpotente A : E E for menor do que a
do espaco E, mostraremos a seguir que existe uma base de
dimensao
E na qual a matriz de A e formada por blocos do tipo acima, dispostos
ao longo da diagonal.
e extremamente simples, mas a notacao

A ideia da demonstracao

pode tornar-se longa. A fim de evitar complicaco es tipograficas,


trataremos os casos de ndices mais baixos, deixando claro o processo
indutivo que leva ao caso geral.
O argumento se baseia no seguinte fato, que foi estabelecido na
do Teorema do Nucleo

demonstracao
e da Imagem, e que destacaremos aqui como um lema:
Lema. Se {Au1 , . . . , Aup } e uma base da imagem do operador
A : E E e {v1 , . . . , vq } e uma base do nucleo

de A entao
{u1 , . . . , up ,
v1 , . . . , vq } e uma base de E.
Seja inicialmente o operador nilpotente A : E E, de ndice 2:
A 6= 0 e A2 = 0.

Tomemos uma base {Au1 , . . . , Aup } da imagem de A. A condicao


2
A = 0 significa que Im(A) N (A), logo existem vetores v1 , . . . , vq
tais que
U = {Au1 , . . . , Aup , v1 , . . . , vq }

324

A Forma Can
onica de Jordan

Ap
endice

e uma base de N (A). Pelo Lema, o conjunto


V = {u1 , Au1 , . . . , up , Aup , v1 , . . . , vq }
e uma base de E.
a esta base V, a matriz do operador nilpotente
Em relacao
A : E E, de ndice 2, e formada por p blocos de matrizes 2 2
do tipo


0 0
1 0
ao longo da diagonal (onde p e o posto de A), seguidos de q colunas
nulas, onde 2p + q = dim E.
Por exemplo, se A : R5 R5 e nilpotente de ndice 2, sua matriz
na base V tem uma das formas abaixo, conforme seu posto seja 2
ou 1:

0 0 0 0 0
0 0 0 0 0
1 0 0 0 0
1 0 0 0 0

0 0 0 0 0
0 0 0 0 0

0 0 0 0 0
0 0 1 0 0
0 0 0 0 0
0 0 0 0 0

Em seguida, consideremos um operador nilpotente A : E E de


ndice 3.
de A ao subespaco invariante Im(A) e um operador
A restricao

nilpotente de ndice 2. Lembrando que os elementos de Im(A) sao


todos da forma Au, resulta do que vimos acima que existe uma base
de Im(A) do tipo
{Au1 , A2 u1 , . . . , Aup , A2 up , Av1 , . . . , Avq },

com A2 v1 = = A2 vq = 0. Os vetores linearmente independentes

A2 u1 , . . . , A2 up , Av1 , . . . , Avq pertencem ao nucleo


de A, logo podem
ser includos numa base:
U = {A2 u1 , . . . , A2 up , Av1 , . . . , Avq , w1 , . . . , wr } N (A).
Segue do Lema que o conjunto
V = {u1 , Au1 , A2 u1 , . . . ,

up , Aup , A2 up , v1 , Av1 , . . . , vq , Avq , w1 , . . . , wr }

Ap
endice

A Forma Can
onica de Jordan

e uma base de E.
a esta base V, a
Em relacao
A : E E, de ndice 3, e formada
da forma

0 0
1 0
0 1

325

matriz do operador nilpotente


por p blocos de matrizes 3 3

0
0
0

ao longo da diagonal, seguidos por q blocos de matrizes 22 da forma




0 0
,
1 0
ainda ao longo da diagonal, e por r colunas de zeros. (Aqui, p e o
de N (A).)
posto de A2 , 2p + q e o posto de A e p + q + r e a dimensao
Eventualmente, pode-se ter q = 0 ou r = 0 (ou ambos). Mas as
tres primeiras colunas do operador nilpotente A, de ndice 3, na base
V, devem ser e2 , e3 e 0.
acima assegura, para um operador nilpotente
A discussao
5
5
A : R R de ndice 3, uma base V na qual sua matriz tem uma
das formas seguintes

0
1

0
0

0
0
1
0
0

0
0
0
0
0

0
0
0
0
1

0
0

0
0

ou

0
1

0
0

0
0
1
0
0

0
0
0
0
0

0
0
0
0
0

0
0

0
,
0
0

conforme o posto de A seja 3 ou 2.


O caso geral se trata da mesma maneira. A fim de dar mais
e clareza ao seu enunciado, vamos introduzir uma definicao.

precisao
Dado um operador nilpotente A : E E, dizemos que um su a A) quando existe um
bespaco vetorial F E e cclico (em relacao
vetor u F tal que Am u = 0 e {u, Au, . . . , Am1 u} e uma base de

F. Isto significa que F E e um subespaco vetorial de dimensao


de A ao subespaco F e um
m, invariante por A, e que a restricao
operador nilpotente de ndice m.
Por exemplo, na base V, acima obtida quando analisamos um
operador nilpotente de ndice 3, cada um dos vetores u1 , . . . , up gera
3, cada vj (j = 1, . . . , q) gera um
um subespaco cclico de dimensao

326

A Forma Can
onica de Jordan

Ap
endice

2 e cada w ( = 1, . . . , r) gera um
subespaco cclico de dimensao
1 (o que significa Aw1 = =Aw =0).
subespaco cclico de dimensao
O resultado fundamental sobre operadores nilpotentes e o
Teorema A1.2. Seja A : E E um operador nilpotente de ndice k
num espaco vetorial de dimensao
n. Existem inteiros k1 = k k2
kr > 0, tais que E = F1 Fr , onde cada Fi e um subespaco
cclico de dimensao
ki .
Evidentemente, k1 + + kr = n.
Tomando em cada Fi (i = 1, . . . , r) uma base Vi = {ui , Aui , . . . ,
a` qual
Aki 1 ui }, obtemos uma base V = V1 . . . Vr , em relacao
a matriz de A e formada por r blocos ai M(ki ki ), ao longo da
diagonal. Cada bloco ai tem a forma vista no Exemplo 2: para j < ki
sua j-esima coluna e ej+1 Rki enquanto sua ki -esima coluna e zero.

A2. Existencia
da Forma Canonica
de Jordan.
Dado um operador linear A : E E num espaco vetorial complexo
finita, provaremos que existe uma base em E na qual a
de dimensao
matriz de A tem a forma canonica de Jordan: e triangular inferior,
repetidos consecutivaos auto-valores que formam sua diagonal sao
mente de acordo com suas multiplicidades algebricas e, alem disso,
iguais a 0 ou 1;
os elementos imediatamente abaixo da diagonal sao
nulos.
todos os demais elementos sao
Teorema A2.1. Seja A : E E um operador linear num espaco vetorial (real ou complexo) de dimensao
finita. Existe uma decomposicao

E = F G, como soma direta de subespacos invariantes F, G tais que


A e nilpotente em F e invertvel em G.
de E e finita, a sequ
encia de su Como a dimensao
Demonstracao:
bespacos invariantes
E Im(A) Im(A2 ) . . .
pode ser estritamente decrescente para sempre. Seja entao
ko
nao
k
k+1

menor numero
natural tal que Im(A ) = Im(A ). Afirmamos que
Im(Ak+1 ) = Im(Ak+2 ). Com efeito,
entao
Im(Ak+2 ) = A[Im(Ak+1 )] = A[Im(Ak )] = Im(Ak+1 ).

Ap
endice

A Forma Can
onica de Jordan

327

Segue-se que Im(Ak+2 ) = Im(Ak+3 ), etc. Note-se que vale


N (A) N (A2 ) N (Ak ) = N (Ak+1 ) = N (Ak+2 ) = .

Com efeito, pelo Teorema do Nucleo


e da Imagem, temos
dim N (Ak+1 ) = dim E dim Im(Ak+1 )

= dim E dim Im(Ak ) = dim N (Ak ).

invarianSejam F = N (Ak ) e G = Im(Ak ). Evidentemente, F e G sao


A : F F e nilpotente. Alem disso, a restricao

tes por A e a restricao


A : G G e um operador sobrejetivo pois
A(G) = A[Im(Ak )] = Im(Ak+1 ) = Im(Ak ) = G.

Logo A : G G e invertvel. Mostremos agora que E = F + G. Dado


v E, como Im(Ak ) = Im(A2k ), existe x E tal que Ak v = A2k x.
se escrevermos
Entao,
v = (v Ak x) + Ak x,
veremos que Ak (v Ak x) = Ak v A2k x = 0, logo v Ak x F e,
obviamente, Ak x G. Assim, todo elemento v E e soma de um
vetor de F com um vetor de G, ou seja, E = F + G. Para concluir que
E = F G, resta apenas mostrar que F G = {0}. Ora, sabemos que
dim F + dim G = dim(F + G) + dim(F G)
= dim E + dim(F G).

Por outro lado, o Teorema do Nucleo


e da Imagem, aplicado ao ope que
rador Ak : E E, nos da dim E = dim F + dim G. Segue-se entao
dim(F G) = 0, isto e , F G = {0}.


Teorema A2.2. Seja E = F G como no Teorema A2.1. Se n0 e a


multiplicidade algebrica do autovalor 0 do operador A : E E entao

a dimensao
do subespaco F e igual a n0 . Alem disso, F e o nucleo

e G e
E = FG,
a imagem de An0 : E E. Segue-se da que a decomposicao
com as propriedades enunciadas naquele teorema, e unica.

Demonstracao:
Sejam A : F F e A : G G as restrico es do
operador A aos subespacos invariantes F e G. Como A e nilpotente
e A e invertvel, o polinomio caracterstico de A e pA () = ()n ,

328

A Forma Can
onica de Jordan

Ap
endice

pA (0) 6= 0. A prova do lema


n = dim F, e o de A cumpre a condicao
que antecede o Teorema 20.1 nos da pA = pA pA . Por outro lado,
pA () = n0 q(), com q(0) 6= 0. Assim, n pA () = n0 q(), com
pA (0) 6= 0 e q(0) 6= 0. Segue-se que n = n0 . Sendo A nilpotente no
n0 , tem-se F N (An0 ). Reciprocamente,
subespaco F de dimensao
se u N (An0 ), escrevemos u = v + w, com v F (logo An0 v = 0) e
0 = An0 v + An0 w = An0 w. Sendo A invertvel em G, de
w G. Entao
An0 w = 0 conclui-se que w = 0, logo u = v F. Assim, F = N (An0 ).
Para provar que G = Im(An0 ), observamos primeiro que, sendo A
invertvel em G, o operador An0 : G G tambem e invertvel, logo
G Im(An0 ). Por outro lado, para todo u E, escrevendo u = v + w
com v F e w G, temos An0 u = An0 w G (pois G e invariante por

A) logo Im(An0 ) G. Assim, Im(An0 ) = G.
do proximo teorema, note Para uso na demonstracao
Observacao.

mos aqui que se E = F1 + + Fr e dim E dim F1 + + dim Fr entao


E = F1 Fr . Com efeito, tomando em cada subespaco Fi uma

base Vi (i = 1, . . . , r), o conjunto V = V1 . . . Vr gera E e o numero


de elementos de V e dim E, logo V e uma base de E. Assim, todo

vetor v E se exprime, de modo unico,


como soma v = v1 + + vr ,
com v1 F1 , . . . , vr Fr . Noutras palavras, E = F1 F1 .
Teorema A2.3. Sejam 1 , . . . , r os auto-valores distintos do operador A : E E, num espaco vetorial complexo de dimensao
finita.
Para cada i = 1, . . . , r, sejam ni a multiplicidade algebrica de i e
dim Ei = ni e E = E1 Er .
Ei = N [(A i I)ni ]. Entao
Mostremos inicialmente que ni e tambem a multiDemonstracao:
plicidade algebrica do auto-valor 0 do operador Ai = A i I. Com
efeito, pAi () = det[(Ai I)I] = det[A(+i )I] = pA (+i ). Temos pA () = ( i )ni q() com q(i ) 6= 0. Logo pAi () = pA ( + i ) =
ni r(), onde r() = q( + i ), portanto r(0) 6= 0. Isto posto,
o Teorema A2.2 nos assegura que dim Ei = ni . Em particular,
que precede este
dim E1 + + dim Er = dim E. Pela observacao
teorema, resta-nos apenas provar que E = E1 + + Er . Ora, o polinomio caracterstico do operador A se decompoe na forma
pA () =

r
Y
j=1

( j )nj .

Ap
endice

A Forma Can
onica de Jordan

Se pusermos
qi () =

329

( j )nj ,

j6=i

obteremos os polinomios q1 (), . . . , qr (), primos entre si. Por um

conhecido teorema de Algebra,


existem polinomios m1 (), . . . , mr ()
tais que
m1 ()q1 () + + mr ()qr () = 1.
Segue-se que
m1 (A)q1 (A) + + mr (A)qr (A) = I.
Assim, para todo v E, tem-se
v = v1 + + vr , vi = mi (A)qi (A)v.
Pelo Teorema de Cayley-Hamilton, temos
Y
(A j I)nj
Ani i qi (A) = (A i I)ni
j6=i

r
Y

(A j I)nj = pA (A) = 0.

j=1

Logo Ani i vi = 0, ou seja vi Ei para todo i = 1, . . . , r. Isto conclui a


do teorema.
demonstracao

Teorema A2.4. Os subespacos Ei = N [(A i I)ni ] definidos no
Teorema A2.3 sao
invariantes por qualquer operador B : E E que
comute com A.

Demonstracao:
AB = BA (A i I)B = B(A i I)
(A i I)ni B = B(A i I)ni . Logo v Ei (A i I)ni Bv =

B(A i I)ni v = B 0 = 0 Bv Ei .

Corolario.
Os subespacos E1 , . . . , Er sao
invariantes por A.
Um bloco de Jordan n n e uma matriz triangular inferior da
forma

..

.
B(; n) = 1

..

.
1

330

A Forma Can
onica de Jordan

Ap
endice

todos iguais, os elementos imeonde os elementos da diagonal sao


todos iguais a 1 e os demais elediatamente abaixo da diagonal sao
zeros.
mentos sao
Diz-se que uma matriz esta na forma canonica de Jordan quando
ela e triangular inferior, com blocos de Jordan ao longo da diagonal e
os demais elementos iguais a zero. Os blocos de Jordan devem estar
agrupados consecutivamente em listas do tipo
B(i ; k1 ), B(i ; k2 ), . . . , B(i ; ksi ),
onde k1 + k2 + + ksi = ni = multiplicidade algebrica do auto-valor
i da matriz dada.
Por exemplo, dispondo os blocos B(1 ; 3), B(1 ; 1) e B(2 ; 2) ao
longo da diagonal, obtemos uma matriz 6 6 na forma canonica de
Jordan:

1 0 0 0 0 0
1 1 0 0 0 0

0 1 1 0 0 0

0 0 0 1 0 0

0 0 0 0 2 0
0

Teorema A2.5. Para todo operador A : E E num espaco vetorial


complexo de dimensao
finita, existe uma base na qual a matriz de A
tem a forma canonica de Jordan.
assegurada
Seja E = E1 Er a decomposicao
Demonstracao:
pelo Teorema A2.3. O Teorema A1.2 prova a existencia da forma
canonica de Jordan para operadores nilpotentes. Ora, para cada
A i I : Ei Ei e nilpotente. Logo existe
i = 1, . . . , r, a restricao
uma base Vi Ei na qual a matriz de A i I : Ei Ei tem a
forma canonica de Jordan (com zeros na diagonal). Logo a matriz
A = (A i I) + i I : Ei Ei tem a forma canonica de
da restricao
Jordan (com os elementos da diagonal todos iguais a i ). Segue-se
que V = V1 . . . Vr e uma base de E na qual a matriz de A tem a
forma canonica de Jordan.

Do ponto de vista matricial, o resultado que acabamos de provar
significa que, para toda matriz quadrada complexa a, existe uma
matriz (complexa) invertvel p tal que p1 ap esta na forma canonica
de Jordan.

Ap
endice

A Forma Can
onica de Jordan

331

Exemplo A2.1. Vamos usar a forma canonica de Jordan para provar que toda matriz invertvel possui uma raiz quadrada (complexa).
Preliminarmente observamos que se x e uma raiz quadrada de
pxp1 e uma raiz quadrada de a, pois
p1 ap entao
(pxp1 )2 = pxp1 pxp1 = px2 p1 = p(p1 ap)p1 = a.
Portanto, ao provar a existencia da raiz quadrada de uma matriz
ha perda de generalidade em supor que essa mainvertvel, nao
triz esta na forma canonica de Jordan, que e uma forma triangular
particular. Em virtude da invertibilidade, os elementos da diagonal
todos diferentes de zero.
(auto-valores) sao
Trataremos explicitamente do caso 4 4, deixando para o leitor
o caso 3 3 (mais simples) e o caso geral (mais complicado, porem
suscetvel da mesma abordagem).
uma matriz da forma
Temos entao

a 0 0 0
b c 0 0

a=
0 d e 0 ,
0 0 f g

com a, c, e, g diferentes de zero, e procuramos uma matriz

x 0 0 0
y z 0 0

x=
m n p 0
q r s t

tal que x2 = a. Ora, um calculo


simples nos da

x2
0
0
0

y(x + z)
z2
0
0
.
x2 =
2
m(x + p) + ny
n(z + p)
p
0
q(x + t) + ry + ms r(z + t) + ns s(p + t) t2

Portanto as incognitas x, y, z, m, n, p, q, r, s e t devem satisfazer


as condico es
(1)

x2 = a, z2 = c, p2 = e, t2 = g,

(2)

y(x + z) = b, n(z + p) = d, s(p + t) = f,

332

A Forma Can
onica de Jordan

(3)

m(x + p) + ny = 0, r(z + t) + ns = 0,

(4)

q(x + t) + ry + ms = 0.

Ap
endice

diferentes de zero, podemos escolher x, z, p,


Como a, c, e, g sao
t tais que as igualdades (1) sejam satisfeitas e, alem disso, se tenha
x + z 6= 0, z + p 6= 0, p + t 6= 0, x + p 6= 0, z + t 6= 0 e x + t 6= 0. Isto nos
permite determinar y, n, s de modo a satisfazer as igualdades (2),

em seguida obter m, r de modo que as igualdades (3) sejam validas


e, finalmente, usar (4) para determinar q.

possuir raiz qua Uma matriz nao-invert


Observacao:
vel pode nao
drada. Este e o caso, por exemplo, da matriz


0 0
a=
.
1 0
facil

existem numeros

E
ver que
complexos x, y, z, t tais que a
 nao

x y
matriz x =
cumpra x2 = a.
z t

A = N+D
A3. A Decomposicao
mostraremos como visualizar a forma canonica de JorNesta secao,
dan de modo intrnseco, exprimindo-a sob o ponto-de-vista de operadores, em vez de matrizes.
anterior, mosA forma canonica de Jordan, estabelecida na secao
tra que, dado um operador A : E E num espaco vetorial complexo
finita, existe uma base V E na qual a matriz a de A e
de dimensao
formada por blocos de Jordan ao longo da diagonal, sendo os blocos
que correspondem ao mesmo auto-valor de A agrupados consecutivamente. Segue-se que a = n + d, onde d e uma matriz diagonal,
os elementos dessa diagonal sendo os auto-valores de A repetidos
de acordo com sua multiplicidade, e n e uma matriz triangular in todos iguais
ferior nilpotente (logo os elementos de sua diagonal sao

a zero) na qual os elementos imediatamente abaixo da diagonal sao


nulos.
iguais a 1 ou a 0 e os demais elementos sao
A = N + D, onde
Resulta imediatamente da a decomposicao
D : E E e o operador cuja matriz na base V e d e N : E E e o
operador nilpotente do qual n e a matriz na mesma base V.

Ap
endice

A Forma Can
onica de Jordan

333

Um operador D : E E chama-se diagonalizavel

quando existe
alguma base de E na qual a matriz de D e diagonal. Isto equivale a dizer que a referida base de E e formada por auto-vetores do
operador D.
Assim, acabamos de mostrar que, num espaco vetorial complexo
finita, todo operador A : E E pode escrever-se como
de dimensao

soma A = N + D de um operador nilpotente com um diagonalizavel.


do Teorema A2.3, N e o operador cuja restricao
a cada
Na notacao
subespaco Ei coincide com Ai I, enquanto D restrito a cada um dos
Ei s e igual a i I. Como A i I e i I comutam para todo i = 1, . . . , r,
segue-se que ND = DN.

Provaremos a seguir que esta e a unica


maneira de se escrever

A = N + D com N nilpotente, D diagonalizavel


e ND = DN.
Para maior clareza, destacaremos sob a forma de lemas dois fatos
dessa unicidade.
elementares que usaremos na demonstracao
Lema 1. A restricao
de um operador diagonalizavel

D: E E a
um subespaco invariante F E e ainda um operador diagonalizavel

D : F F.
Seja V E uma base formada por auto-vetores de
Demonstracao:
D. Introduzimos em E um produto interno hermitiano, impondo que
a base V seja ortonormal. Relativamente a esse produto interno, D
D : F F e um operador hermitiano,
e normal. Portanto a restricao

logo diagonalizavel.
(V. Exerccio 15.19).

Lema 2. A soma de dois operadores nilpotentes que comutam e
ainda um operador nilpotente.
Sejam M, N : E E com Mp = 0, Nq = 0 e MN =
Demonstracao:
NM. Esta comutatividade assegura que vale o binomio de Newton:
(M + N)

p+q


p+q 
X
p+q
=
Mi Np+qi .
i
i=0

nulas porque, neste


No somatorio acima, as parcelas com i p sao
i
p + q i > q,
caso, M = 0. Se, entretanto, tem-se i < p entao
nulas e
logo Np+qi = 0. Assim as parcelas com i < p tambem sao
p+q
conclumos que (M + N)
= 0.


334

A Forma Can
onica de Jordan

Ap
endice

Teorema A3.1. Seja E um espaco vetorial complexo de dimensao

finita. Para todo operador linear A : E E, existe uma unica

decomposicao
A = N+D com N : E E nilpotente, D : E E diagonalizavel

e ND = DN.

Demonstracao:
Evidentemente, N e D comutam com A. Pelo
Teorema A2.4, cada subespaco Ei = N [(A i I)ni ] e invariante por N
e por D. Para i = 1, . . . , r, sejam Ai , Ni , Di : Ei Ei as restrico es de
A, N e D ao subespaco Ei . A igualdade Ai = Ni + Di pode ser escrita
como (Ai i I) + i I = Ni + Di ou, ainda, como
(Ai i I) Ni = Di i I.

(*)

Pelo Lema 2, o operador (Ai i I)Ni e nilpotente e pelo Lema 1, Di

e diagonalizavel,
logo Di i I e diagonalizavel
(pois qualquer vetor

nao-nulo
e auto-vetor de i I). Pela igualdade (*), esses operadores
ao mesmo tempo, nilpotentes e diagonalizaveis,

sao,
logo iguais a
zero. Portanto vale Ni = Ai i I e Di = i I para i = 1, . . . , r. Segue os operadores anteriormente obtidos a partir do
se que N e D sao
Teorema A2.3.


Indicaco
es Bibliogr
aficas
encia usual das disciplinas matematicas

Na sequ
que se estudam na

universidade, a Algebra
Linear e pre-requisito para a Analise
das

funco es de varias
variaveis
e para as Equaco es Diferenciais Ordinarias. Seguem-se duas referencias:
de se esperar que vetores, matrizes, transformaco es lineares, etc constituam
E

a linguagem natural para tratar o Calculo


Diferencial pois, afinal de contas, este
se baseia na ideia de aproximar, na vizinhanca de cada ponto do seu domnio, uma
arbitraria

linear (chamada sua derivada) e, a partir das


funcao
por uma funcao

propriedades desta (presumivelmente mais faceis


de constatar) obter informaco es
sobre aquela.

E. L. Lima

Projeto
Colecao
[1] E. L. Lima, Curso de Analise,

vol. 2 (3a edicao.)


Euclides, IMPA, 1989.

A Algebra
Linear esta presente em toda parte do estudo das

funco es reais de varias


variaveis:
na teoria das funco es implcitas,
dos pontos crticos (na qual
nas integrais curvilneas, na discussao

as formas quadraticas
desempenham o papel principal) e nas integrais de superfcie, onde e reforcada por seu prolongamento natural,

a Algebra
Multilinear.
[2] M. Hirsch e S. Smale, Differential Equations, Dynamical Systems
and Linear Algebra. Academic Press, 1974.

Nestes ultimos
20 anos, o texto de Hirsch/Smale firmou-se como
moderna ao esuma das principais referencias para uma introducao

para
tudo das equaco es diferenciais ordinarias
e uma preparacao

a importante area
dos sistemas dinamicos.
Ele pressupoe conheci
mento de Analise
a nvel dos captulos iniciais da referencia 1 acima

336

Indicac
oes Bibliogr
aficas

e de Algebra
Linear a nvel do presente livro. Mais de um terco
` equaco es diferenciais lineares, o que leva
do texto e dedicado as
os autores a desenvolver, de forma convincente, todo material de

tratado neste nosso livro. Na realidade, os auAlgebra


Linear nao
tores afirmam que o estudo dos sistemas de equaco es diferenciais
lineares com coeficientes constantes praticamente se identifica com

um captulo da Algebra
Linear.

Vejamos agora algumas referencias de livros sobre Algebra


Linear.
Ha poucas decadas eram raros, muito raros mesmo, os livros de

Hoje em dia
Algebra
Linear destinados a estudantes de graduacao.
do ensino desta
ha centenas deles, refletindo a enorme expansao

disciplina aos mais variados cursos universitarios.


(Ver, a respeito,
de I. Kaplansky abaixo.)
a citacao
Aqueles que mencionarei representam uma amostra, extremamente restrita, de tres tipos: os livros onde aprendi a materia, os
que podem servir de leitura colateral e os que oferecem alternativas
de parcialidade
para estudos posteriores. A priori, aceito a acusacao
nas escolhas. Afinal, de gustibus et coloribus...

It is desirable to have at hand not merely the formal operations with matrices,
but also the (often neglected) interpretation of the matrices by linear transformations.
G. Birkhoff e S. MacLane

[3] Garrett Birkhoff e Saunders MacLane, A Survey of Modern Algebra. (Macmillan, 1941. Revised edition 1953.)

Birkhoff/MacLane e uma das mais bem sucedidas introduco es a`

Algebra
Moderna ja escritas. Trinta e oito por cento do livro e de
seja feita a partir dos
dicado a` Algebra
Linear. Embora a exposicao
linear, a e nfase domiconceitos de espaco vetorial e transformacao
nante e posta nas matrizes e suas formas canonicas, especialmente

matrizes de formas quadraticas.


O estilo e ameno e ligeiro, bastante

vA, em vez de
agradavel.
O leitor logo se acostumara com a notacao
Av, usada pelos autores.

Indicac
oes Bibliogr
aficas

337

That Hilbert space theory and elementary matrix theory are intimately associated came as a surprise to me and to many colleagues of my generation only after
studying the two subjects separately. This is deplorable... I present this little book
in an attempt to remedy the situation.
Paul R. Halmos

[4] Paul R. Halmos, Finite Dimensional Vector Spaces. (Princeton

Univ. Press 1942. Revised edition: Van Nostrand, 1958. Traducao


brasileira: Editora Campus, 1978.)

O livro de Halmos e outro best-seller. Nele, o autor conversa


com o leitor e procura motivar, com analogias, os conceitos e as
proposico es, tudo isso feito com clareza e coerencia logica. Ha uma
em dar definico es e demonstraco es sem utilizar
grande preocupacao
coordenadas. Isto e feito com o proposito admitido de preparar a ca infinita, estudados em Analise

minho para os espacos de dimensao


Funcional. So que muitas vezes esse purismo se torna artificial.
Alem disso, com vistas a diversas aplicaco es, a familiaridade do estudante com bases e coordenadas seria de grande utilidade.
Os livros acima, na ordem citada, me serviram de cartilhas de

Algebra Linear, como a tantos estudantes de varias


geraco es por
todo o mundo. Eles contem visoes complementares sobre o assunto

e sobre a maneira de ensina-lo.


Dealing with vector spaces in the abstract also saves effort. The general theory of vector spaces includes not only the vectors and matrices discussed in Chapters 1 and 2 but also sets of real- and complex-valued functions of a real variable
and other more exotic mathematical objects. A fact which has been proved once
and for all in the general theory applies to a wide range of particular cases. That is
why it is worth investing some intellectual effort in understanding abstract linear
algebra.
D. H. Griffel

[5] D. H. Griffel, Linear Algebra: A First Course and Applications (2


vols). (Ellis Horwood Limited, 1989.)

O livro de Griffel e escrito para estudantes nao-matem


aticos
que

usar Algebra Linear em suas carreiras. Ele emprega predodeverao

338

Indicac
oes Bibliogr
aficas

minantemente matrizes e Rn em vez de transformaco es lineares e


espacos vetoriais porem, conforme a advertencia acima citada, ocasionalmente se rende a` conveniencia de adotar uma atitude mais
adequada. Trata-se de um livro de grande simplicidade, muito claro
e bem organizado, com um sabor nitidamente aplicado. Contem

alguns erros matematicos


engracados (como, por exemplo, provar
que toda matriz anti-simetrica tem determinante zero ou afirmar
que, pelo Teorema de Cayley-Hamilton, a exponencial de qualquer
poumatriz reduz-se a um polinomio nessa matriz). Tais erros sao
interferem no merito geral e deverao
ser corrigidos em procos, nao
ate instrutivos, inclusive para mostrar ao leitor o
ximas edico es. Sao

que pode esperar no futuro ao ler alguns livros de Matematica


Aplicada.
The solution to each problem immediately follows the statement of the problem. However, you may wish to try to solve the problem yourself before reading
the given solution. In fact, even after reading the solution, you should try to resolve the problem without consulting the text. Used thus, 3000 Solved Problems
in Linear Algebra can serve as a supplement to any course in linear algebra, or
even as an independent refresher course.
S. Lipschutz

[6] Seymour Lipschutz, Schaums solved problems series: 3000 solved problems in Linear Algebra. McGraw-Hill Book Company, 1989.
A bem-sucedida serie Schaum de livros de problemas se baseia
connuma ideia tipo ovo-de-Colombo: em vez de disputar sua adocao
fortes competidores, esses livros-texto se disfarcam
tra tantos e tao
em coleco es de problemas e assim convivem pacificamente com seus
recorivais, sendo adquiridos pelos estudantes, mesmo quando nao
mendados pelos professores, como fontes suplementares de exerccios. De um modo geral (e isto se aplica ao livro de Lipschutz) eles
exigem grancontem uma boa lista de problemas rotineiros, que nao
Mas, principalmente porque sao
acompades rasgos de imaginacao.
esses exerccios sao
uma ajuda valiosa para os
nhados de solucao,
alunos que necessitam um esforco adicional a fim de acompanhar o

curso. Existe um livro analogo,


tambem de Lipschutz, chamado Linear Algebra, que foi traduzido para o portugues e publicado pela
McGraw-Hill do Brasil, em 1972.

Indicac
oes Bibliogr
aficas

339

Os livros [5]. e [6]. acima se enquadram na categoria de leitura


colateral. Seguem-se tres referencias a livros que constituem opco es
deste texto.
para a continuacao
Matrix theory can be studied with no mention of linear spaces and most of the
results in this book are of such a nature. However, the introduction of linear spaces
and the role of matrices in defining or representing linear transformations on such
spaces add considerably to our insight. Most important, perhaps, the notions of
linear spaces and linear transformations give a geometrical basis to matrix theory,
which aids both in understanding, as well as in suggesting proofs and new results.
J. Ortega

[7] James Ortega, Matrix Theory. A Second Course. Plenum Press,


1987.
bem como a riqueza imaA economia de pensamento e notacao,
ginativa que provem do uso da linguagem geometrica resultam do
liemprego judicioso das noco es de espaco vetorial e transformacao
near. Ortega tira grande proveito desse ponto de vista intrnseco

e consegue escrever um livro que, em meras 250 paginas,


faz uma

dos princpios basicos

revisao
da Algebra
Linear e desenvolve, com

sobre topicos avancados da algebra

notavel
eficiencia, uma exposicao
tanto para o matematico

das matrizes, que pode ser util


puro como

para aqueles que se interessam de modo inteligente pelo calculo


numerico matricial.
Linear Algebra, like motherhood, has become a sacred cow. It is taught everywhere; it is reaching down into the high schools; it is jostling calculus for the
right to be taught first.
I. Kaplansky

[8] Irving Kaplansky, Linear Algebra and Geometry. Chelsea, 1969.


Kaplansky e um consagrado expositor. Na Universidade de Chicago (onde era colega de MacLane e Halmos) suas aulas eram fa

mosas pela elegancia


das demonstraco es e pelo notavel
poder de
presentes neste livro. Nele, o autor
sntese. Estas qualidades estao

oferece uma alternativa para um segundo curso de Algebra


Linear,

como fundamento basico


da Geometria, esta ultima
vista em toda a
sua generalidade.

340

Indicac
oes Bibliogr
aficas

As a very simple example the reader should think of the principal axis theorem (spectral theorem) for Rn which says that given a self-adjoint transformation,
one can choose an orthonormal basis in Rn so that the matrix of that transformation in that basis is diagonal. That is, if one chooses the right isomorphic copy of
Rn (change of basis) then the operator becomes especially simple. As the reader
will see, this example is the first note of a rather long simphony.
M. Reed e B. Simon

[9] M. Reed/B. Simon, Methods of Mathematical Physics, vol. I:


Functional Analysis. (Revised Edition, Academic Press, 1980.)
Ao mencionar o bem conhecido texto de Reed/Simon, minha in e apresentar um livro de Analise

tencao
Funcional, uma area
da Ma
tematica
onde tudo se passa dentro de espacos vetoriais. Ha muitos
e o excelente
bons livros sobre este assunto. (Um exemplo a` mao
Operadores Auto-Adjuntos e Equaco es Diferenciais Parciais, de
Javier Thayer, publicado no Projeto Euclides do IMPA.) A escolha de
apenas as
` suas boas qualidades intrnsecas
Reed/Simon se deve nao

como tambem ao fato de que exibe a Analise


Funcional (portanto os

espacos vetoriais) como porta de entrada para a Fsica Matematica.


Uma palavra sobre pre-requisitos: o livro de Ortega esta ao alcance imediato de quem leu o presente texto. Kaplansky requer um
conhecimento elementar de corpos, a nvel de um curso introdutorio

de Algebra.
Reed/Simon (ou qualquer outro livro de Analise
Fun

cional) pressupoe noco es basicas


de Analise,
Teoria da Integral e
Equaco es Diferenciais.

[10] Ralph Costa Teixeira, Algebra


Linear, exerccios e soluco es .
Matematica

(Colecao
Universitaria,
IMPA, 2009.)
O livro de Ralph Costa Teixeira contem as soluco es dos 594 exerccios propostos no presente texto. Na verdade, o total e bem maior

multiplos.

do que seiscentos, pois varios


desses exerccios sao
Alem
das soluco es, todas completas e elegantemente apresentadas, cada
dos conceitos a serem tratados, a
captulo tem incio com a revisao
de simples exemplos adicionais e o destaque de algumas
discussao
proposico es referentes ao tema estudado.

Lista de Smbolos
Rn ,
R
M(m n)
F(X; R), F(X; E)
Ck (R)
C0 (R), C (R)
P,
Pn
S(X)
F1 + F 2
F1 F 2
R()
L(E; F),
L(E)

E
IE
Im(A)
N (A)
In
ij
hu, vi
uv
pru (v)
prF (v)
A
aT
X
Lr (E; R)
Ar (E)
det A
L(E1 , . . . , Er ; R)
pA
Cn
a

3
3
3
9
10
10
11
13
13
27
39
39
39
58
61
88
88
118
121
123
126
133
135
137
247
248
251
263
268
285
287

Indice Remissivo

Indice Remissivo

Adjunta classica
lide uma transformacao
near, 135
Anti-isomorfismo, 286
Auto-subespaco, 154, 163
Autovalor, 146, 147
generalizado, 171
Autovetor, 146

ortonormal, 121
Coordenadas de um vetor, 26

Cosseno do angulo
entre dois
vetores, 132
a valores singuDecomposicao
lares, 211
ldu, 223
lu, 212, 218
qr, 209
de Cholesky, 208, 218
polar, 183, 211
Descomplexificada, 281, 283
Desenvolvimento de um determinante, 260
Desigualdade de Schwarz triangular, 123
Determinante de ordem 2, 153
axiomatica),

(caracterizacao
253
de um operador, 251
de uma matriz, 253
do operador descomplexificado, 291
211
Diagonalizacao,

Dimensao
de um espaco vetorial, 27
de uma variedade afim, 32
finita, 29
infinita, 30

Base
canonica, 26
complexa, 281
de um espaco vetorial, 26
dual, 49, 133
ortonormal, 121
Bi-dual, 72
convexa, 7
Combinacao
Complemento ortogonal, 137
Completamento do quadrado,
232
de um espaco
Complexificacao
vetorial, 293, 305
Comprimento de um vetor, 119
Cone, 8
Conica, 237
Conjunto convexo
linearmente dependente, 26
linearmente independente,
24
Conjunto ortogonal, 121
344

Indice Remissivo

Distancia
entre vetores, 124

Gramiano, 264

Eixos principais, 237


Elpse, 237
de Gauss-Jordan, 111
Eliminacao
gaussiana, 103, 212
Elipsoide, 170, 238
Envoltoria convexa, 8
Equaco es (a diferencas finitas)
lineares, 299
Escalonamento, 103
Espaco dual, 39, 286
complexo, 280
euclidiano, 2
vetorial, 1
Espaco-coluna e espaco-linha,
91

Hiperbole, 237
Hiperboloide, 238
Hiperplano, 10
Homotetia, 85

Forma alternada, 247


Forma anti-simetrica, 247
Forma bilinear, 224
anti-simetrica, 227
indefinida, 230

nao-negativa,
230

nao-positiva,
230
negativa, 230
positiva, 230

quadratica,
228
r-linear, 245
simetrica, 226
Forma sesqui-linear, 285
mpar, 21
Funcao
limitada, 21
par, 21
Funcional linear, 39
Geradores, 11

Grafico
de uma transformacao
linear, 81

345

Identidade de Lagrange, 267


Imagem de um vetor, 38
lide uma transformacao
near, 58

Indice
mudo, 226

de uma forma quadratica,


231
Inversa, 64
a` direita, 59
a` esquerda, 88
Inverso aditivo de um vetor, 1
78
Involucao,
Isometria, 185
Isomorfismo, 64
L.D., 26
L.I., 24
Lei da inercia, 232
Matriz, 3
anti-simetrica, 20, 190
aumentada, 106
conjugada, 287
de forma bilinear, 224

quadratica,
229
de Gram, 204
de Householder, 131, 186
de passagem, 89
215
de permutacao,

de posto maximo,
166
de Vandermonde, 265
diagonal, 159

diagonalizavel,
144, 162

346

Indice Remissivo

elementar, 212
escalonada, 102
hermitiana, 287
identidade, 88
invertvel, 88

nao-negativa,
162
normal, 189, 292
orgotonal, 175
por blocos, 291
positiva, 128, 162, 232
quadrada, 3
simetrica, 20, 162
linear, 35, 70
transformacao
triangular, 34, 206

unitaria,
288
Matrizes semelhantes, 90
Menor (determinante), 259
principal, 262
Metodo de Lagrange, 232
Multiplicidade de um auto-vetor,
275
de uma raiz, 288
Negocio de pai para filho, 319
Norma de um vetor, 119
aspectral, 171

Nucleo,
60

Numero
de ouro, 318
elementar, 103, 111,
Operacao
212
Operador anti-simetrico, 190
auto-adjunto, 156
hermitiano, 287, 293
idempotente, 77
identidade, 39
linear, 39

nao-negativo,
161
nilpotente, 53, 290, 319

normal, 189, 292


positivo, 161

triangularizavel,
221, 269

unitario,
287
181
Orientacao,
Paraboloide, 241
Paraleleppedo, 264
262, 263
Permutacao,
Pivo, 213, 219
Plano, 21
228
Polarizacao,
Polinomio caracterstico, 150,
268
monico, 145
mnimo, 294
Posto de uma

forma quadratica,
231
matriz, 91, 92
linear, 91
transformacao
Processo de Gram-Schmidt, 124
Produto
cartesiano, 75
de Hadamard, 172
de matrizes, 86

de numero
por transforma 38
cao,

de numero
por vetor, 1
de permutaco es, 262
de transformaco es lineares,
51
exterior de funcionais lineares, 264
hermitiano, 284
interno, 118
tensorial de funcionais lineares, 214, 218, 227,
242, 248
vetorial, 131, 192, 266

Indice Remissivo

aritmetica e geomeProgressao
trica, 300
76
Projecao,
ortogonal, 43, 122, 138, 172
Pseudo-inversa, 195

Quadrado magico,
98

Quadrica,
238
central, 236
Raiz caracterstica, 268
quadrada de um operador,
163
no plano, 45
Reflexao
Regra de Cramer, 254
Reta, 9, 14
42, 181
Rotacao,
Segmento da reta, 7
Semelhanca, 186
encia de Fibonacci, 318
Sequ
Smbolo de Kronecker, 88
Sistema de equaco es a diferencas finitas linear homogeneo, 27
Sistemas lineares equivalentes,
106
trivial, 27
Solucao
Soma de transformaco es lineares, 38
de vetores, 1
direta, 13, 21, 75
Subconjunto simetrico, 20
Subespaco vetorial, 9
gerado por um conjunto, 10
invariante, 146
paralelo, 15
Submatriz principal, 216

347

Teorema
de Cayley-Hamilton, 274,
289, 309

de Pitagoras,
122

do nucleo
e da imagem, 65
espectral, 160
para operador complexo,
292

fundamental da Algebra,
145
Traco, 36, 99

Transformacao
afim, 50
C-linear, 281
injetiva, 60
invertvel, 64
linear, 38
ortogonal, 179
sobrejetiva, 58
239
Translacao,
262
Transposicao,
Transposta de uma matriz, 135
Valor singular, 166
Variedade afim, 14
Vetor-coluna e vetor-linha, 3

unitario,
119
Vetores
linearmente dependente, 26,
264
linearmente independentes,
24
ortogonais, 121
Volume, 264