Você está na página 1de 361

ÁLGEBRA LINEAR

por

KENNETH HOFFMAN
Assuciute PrufesstJr af Mulhemutics
Mussuchusetts Jnslilute uf Technology

RAY KUNZE
A.uociute Projessur of Muthemutirs
Wu.\'hington University
SI. luuis, Mo.

Traduç,io de

ADALBERTO PANOBIANCO BERGAMASCO

EolTÔRA DA UNIVERSIDADE DE SÃO PAULO


EDITÔRA POLÍGONO
~p~
(~~
Título do original:
Unear Algebra

Copyright @ 1961 by
PRENTICE~HALL INC.
Englewood Cliffs, N .J.

Direitos exclusivos para a língua portuguêsa


EDITÓRA POLfGONO S.A.
Av. Brigadeiro Luís Antônio, 3035
São Paulo
1971

Capa de
Studio /to

Jl2 .897 Ho//man, K~nn~th

Álgebra linear, por Kennelh Ho/fman


e Ray Kunu; lradur.ido por Adalberto P.
Bngama:,co. 1- Ptiulo, Ed. Univ. de S.
Paulo e Polígono. 1970.
J56p. Uus.

 lgebra linear

o
PREFÁCIO

Nosso propósito original ao escrever êste livro foi o de fornecer um


texto para o curso de grapuação de álgebra linear no Massachussetts
lnstitute of Technology. Este curso era destinado ao terceiro ano dos
optantes de matemática. Atualmente, cêrca de três quartos dos alunos
especializam-se em ciências ou engenharia e variam de calouros a
estudantes de pós-graduação.
Concessão alguma se fêz ao fato de a maioria dos alunos não
esfar interessada primordialmente em matemática. Isso porque acre-
ditamos que um curso de matemática não deveria fornecer a estu-
dantes de ciências ou engenharia um amontoado de métodos, e sim
proporcionar a êles uma compreensão dos conceitos matemáticos
fundamentais.
Por outro lado, estivemos profundamente conscientes da grande
variação de conhecimentos qu~e os estudantes poderiam possuir e,
em particular, do fato de terem os estudantes tido muito pouca ex-
periência com o raciocínio matemático abstrato. Por essa razão,
evitamos a introdução de muitas idéias abstratas logo no início do
livro. Como com:plement<.\ incluímos um Apêndice, onde são apré-
sentadas idéias básfcas tais como conjunto, função e relação de equi~
valência. Achamos mais próveitcso não insistir nessas idéias inde-
pendentemente, e sim aconselhar os estudantes a lerem o Apêndice
à medida que surjam tais idéias.
Em todo o livro incluímos uma grande diversidade de exemplos
dos conceitos importantes que ocorrem. O e.studo de tais exemplos
é de fundamental importância e tende a minimizar o número de
estudantes que conseguem repetir definições, teoremas e demonstra-
ções em ordem lógica, sem apreender o significado dos conceitos abs..
tratos. O livro contém também uma ampla variedade de exercícios
graduados (em tôrno de quinhentos), variand'o desde aplicações roti-
neiras aos que solicitarão até os melhores alunos. Pretende-se que
êsses exercícios sejam parte importante do texto.
O Capítulo l trata de sistemas de equações .lineari.!s e sua resof u..
X PREFÁCIO

ção por meio de operações elementares sôbre linhas de matrizes.


Tem sido nosso costume despender seis aulas nessa matéria. Isso
proporciona ao estudante um esbôço das origens da álgebra linear
e das técnicas de cálculo computacionais necessárias ao entendimento
de exemplos das idéias mais abstratas ocorr !nte's nos capítulos pos-
teriores. O Capítulo 2 discorre sôbre espaços vetoriais, subespaços,
bases e dimensão. O Capítulo 3 trata das transformações lineares,
sua álgebra, sua representação por matrizes, bem como isdmorfismo,
funcionais lineares e espaços duais. O Capítulo 4 define a álgebra
dos polinômios sôbre um corpo, os ideais naquela álgebra e a decom-
posiçãc, de um polinômio em fatôres primos. O Capítulo 5 desen-
volve determinantes de matrizes quadradas, seridoº o determinante
encarado como uma função n-Jinear alternada das linhas de uma
matriz. Os Capítulos 6 e 7 contêm uma discussão dos conceitos bá-
sicos para a análise de uma transformação linear isolada sôbre um
espaço vetorial de dimensão finita, a análise de transformações dia-
gonalizáveis, o conceito das partes diagonalizável e nilpotente de
uma traósformaçã·o mais geral e as formas canônicas racional e de
Jordan. O Capítulo 8 considera com algum detalhe espaços de di-
mensão finita com produto interno. Êle cobre, em particular, a geo-
metria básica e o estudo dos operadores auto-adjuntos·, positivos,
unitários e normais. O Capítulo 9 discute formas bilineares, enfati-
zando as formas canônicas para formas simétricas e anti-simétricas,
assim com o grupo que conserva uma forma não-degenerada. ·
A interdependência dos capítulos é como segue. Os Capítulos
1 e 2 e a maior parte do Cap(tulo 3 são básicos para o livro todo.
Os Capítulos 4 e 5 também são fundamentais; entretanto, podem ser
tratados de uma forma mais abreviada se o profeisor deseja passar
aos capítulos subseqüentes mais ràpidamente. Os Capítulos 6 e 7
são uma unidade. Os Capítulos 8 e 9 são independentes entre si e
não necessitam dos Capítulos 6 e 7 (exceto talvez das primeiras pá--
ginas do Capítulo 6). O Capítulo 9 não depende do Capítulo 4 nem
do 5 tampouco.
Somos gratos a nossos colegas, em particular, aos Professôres
Louis Howard e Daniel Kan e Doutores Harry Furstenberg e Edward
Thorp, por suas tantas e tão profícuas sugestões. Pela preparação do
manuscrito, agradecemos às Srtas. Betty Ann Sargent e Phyllis Ruby,
que datilografara1n as notas originais; Srta. Judith Bowers, que dati..
lografou o manuscrito final; ê à equipe da Prentice-Hall, Inc.

Cambridge, Ma.rsaclrussett.s KENNETH HOFFMA N


Wahl,am, Mti.,.,oclm.,,1(>11.1 RAY KUNZf.
SUMÁRlO

CAPITULO 1. EQUAÇÕES LINEARES . . . . . . . . . . . . . (


1. I. Corpos comutativos . . . . . . . . . . . . , 1
1.2. Sistemas de equações lineares . . . . . . . . . 3
1.3. Matrizes e operações elementares sôbre linhas . 6
1.4. Matrizes linha-reduzidas à forma em escada . 12
1.5. Multiplicação de matrizes . . 18
1.6. Matrizes inversiveis . . . . . 24
CAPiTULO 2. ESPAÇOS VETORIAIS. 30
2.1. Espaços vetoriais . . . . . . . . 30
2.2. Subespaços . . . . . . . . . 37
2.3. Bases e dimensão . . . . . . . . 43
2.4. Coordenadas . . . . . . . . 50
2.5. Resumo de linha-equivalência. 57
2.6. Cálculos concernentes a subespaços . . 61
CAPhULO 3. TRANSFORMAÇÕES LINEARES . . . 67
3.1. Transformações lineares . . . . . . . . . 67
3.2. A álgebra das transformações lineares. . 73
3.3. Isomorfismo , . . . . . . . . . . . . . . . 83
3.4. Representação de transformações por matrizes . . 85
3.5. Funcionais lineares . . . . . . . . . . . . . . . 97
3.6. Anuladores . . . . . . . . . . . . . . . 104
3. 7. A transposta de uma transformação. . . . . 109
CAPiTUW 4. POLINÓMIOS . . . . . 115
4.1. Álgebras . . . . . . . . 115
4.2. A álgebra dos polinômios . . . . . 117
4.3. Interpolação de Lagrange . . . . . . . . . • 122
4.4. Ideais de polinômios. . . . . . . . . . . . . . 126
4.5. A decomposição de um polinômio em íatôres primos . . 132
CAPITULO s. DETERMINANTES . . . . . . . . . . . . . . . 138
5.1. Anéis comutativos . . . . . . . . . . . . . . 138
S.2. Funções determinantes. . . . . . . . . . . . . . . 139
5.3. Permutações e a unicidade dos determinantes . . . 149
S.4. Propriedades adicionais dos determinantes . . . . . . ·1s6
CAPiTULO 6. DECOMPOSIÇÕFS EM SOMAS DIRETAS
INVARIANTES . . . . . . . . . . . . . . . 166
6.1. Decomposições em somas diretas . . . . . . . . . . • . 166
XII SUMÁRIO

6.2. Valores característicos e vetores característicos • , . 177


6.3. Operadores diagonalizáveis . . . . . . . . . . 184
6.4. O teorema da decomposição primária . • . . . . . . . . 193

CAPITULO 7. AS FORMAS RACIONAL E DE JORDAN 201


7.1. Subespaços cíclicos e anuladores . . . . . . • • . . . . 201
7 .2. O teorema da decomposição racional . . . 205
7,3. A forma de Jordan . . . . . . . . . . . . . . . . . . 219
7.4. Resumo: operadores semi-simples . • . . . . . . . . . . 226

CAPITULO 8. ESPAÇOS COM PRODUTO INTERNO. 235


8. 1. Produtos internos . . . . . . . . 235
8.2. Espaços com produto interno . . . • . . . . 242
8.3. Funcionais lineares e adjuntos 251
8.4. Operadores positivos. . . . . . . ... . 260
8.5.
_8.6.
Operadores unitários. . . • .
Operadores normais . . . . . . . . .
. . . 271
. • 282
8.7. O teorema espectral . . . . . . . . . . . • • . . 288
8.8. Diagonalização simultânea de operadores normais . 302
CAPITULO 9. FORMAS BILINEARES . . . . . . . . 305
9.1. Formas bilineares . . . : . . . . . . • . • • . . . . . 305
9.2. formas bilineares simétricas . . . . . . . • • . . . . 314
9.3. Formas bilineares anti-simétricas . . . . . . • . 323
9.4. Grupos que conservam formas bilineares . • • . • . . . 327

AP.~NDICE • • . • . . . . . . . . • . . . • 335
A.1. Conjuntos . • . . . . . . . . . . . . . . . . 335
A.2. Funções . . . . . . . . . . . . . . . • • . . 337
A.3. Relações de equivalência . . . . . . . . . . • . 341
A.4. Espaços quocientes . . . . . . . . . . . . . . . . 344
A.5. Relações de equivalência em álgebra linear 348

BIBLIOGRAFIA . . . . . . . . . . . . . . . . . . . 350
ÍNDICE . . . . . . . . . . . . . . . . . . • . 351
CAPITULO l
EQUAÇÕES LINEARES

1.1 Corpos ComutatlfOI


Supomos que o leitor tenha familiaridade com a ál1ebra ele•
meittar dos números re~is e complexos. Para uma grande parte dês~
livro as propriedades algébricas dos números que usaremos podem
ser fàcilmente deduzidas da pequena li~ta abaixo de propriedades da
adição e da multjplicitçlo. I~'dicamos por F o êohjunto dos números
reais ou o c·oojunto dos números complexos.
(1) A adiçl·o é coinqtativa.,
x+y-y+x
para todos x e y em F.
(2) A adição é qsoci~tiva,
x + (y + z) - (x + y) + z ·
para todos x, y e z em F.
(3) Existe um único elemento O (zero) em F tal que x + O - x,
para todo x em F.
(4) A cada x ein F corresponde um único elemento (-x) cm
F tal que x + (-x) =a O.
(5) A multip1icaçi:o é comutativa,
xy = yx
para todos x e y em F.
(6) A niultiplicaçlo é associativa,
x(yz) == (xy)z
para todos x, y e z em F.
2 EQUAÇÕES LINEARES ·

(7) Existe um único elemento não•nulo 1 (um) em F tal que


xi = x, para todo x em F.
(8) A cada x não-nulo em F corrersponde um ÚD}.co x- 1 (ou
1/x) em F tal que xx- 1 = 1.
(9) A multiplicação é distributiva em relação à adição; isto ~.
x(y + z) = xy + xz, para tpdos x, y e z em F.
Suponhamos que se tenha um conjunto F de objetos x, y, z, ...
e duas operações sabre os elementos de F como segue. A primeira
operação, denominada adição, associa a cada par de elementos x, y
em F um elemento (x + y) em F; a segunda operação, denominada
multiplicação, associa a cada par x, y um elemento xy em F; e estas
duas operações satisfazem as condições (1),-(9) acima. O conjunto F,
munido destas duas operações, é então denominado um corpo co-
mutativo*. A grosso modo, um corpo é um conjunto munido de
algumas operações sôbre seus objetos, as quais se comportam como
a adição. subtração, multiplicação e divisão usuais de números no
sentido de que elas obedecem às nove regras de álgebra acima rela•
cícinadas. Com as propriedades usul,\is da adição e multiplicação, o
conjunto C dos números complexos é um corpo, como o é o cónjunio
R dos números reais.
Na maior parte dêste livrot os "números" que usamos podem
ser os elementos de qualquer corpo F. Para permitir esta generaliza-
ção, usaremos a palavra ,·,escalar"' ao invés de "número.". O leitor
não perderá muito se supuser sempre que o corpo de escalares seja
um subcorpo do corpo dos números complexos. Um subcorpo do
corpo C é um conjunto F de números complexos que é um corpo cm
relação às operações usuais de adição e multiplicação de númerds
complexos. Isto significa que O e 1 estão no conjunto F e que se x e y
são elementos de F então (x + y), -x, xy e x- 1 (se x ;-6 O) também
o são. U,n exemplo de lim subcorpo desta natureza 6 o corpo R dos
números reais; de fato, se identificarmps os ndmeros reais com os
números complexos (a + ib) para os quais b = O, o Oe o l do corpo
complexo são números reais e, se x e y são reais, (x + y), .-x. xy;
e x- 1 (se x :;,&. O) também o são. Daremos outros exemplos abaix.ó.
O objetivo de nossa discussão sôbre subcorpos~ esséncialmente o se..
gwnte: quando trabalhamos com escalares de qm certo subcorpo de
C, a realii.ação das operações de adição, subtração, multiplicação
ou divisão s6bre êstes escalares não nos tira daquele subcorpo.

(•) Neste livro, sempre teremos corpos comutativos, portanto abreviare-


mos... a denominação escrevendo simplesmente corpos. (N. do T.)
SISTEMAS DE EQUAÇÕES LINEARES 3

Exemplo 1. O conjunto dos inteiros positivos: 1, 2, 3, ... t


não é um subcorpo de C, por diversas razõe~ Por exemplo, O não
é um iQteiro positivo; para qualquer iriteiro positivo n, -n não
é um inteiro posifivo; para quatq·uer inteiro n, exceto t., 1/n não
é um inteiro positivo.
Exemplo 2. O conjunto dos inteiros: ... , -2, -1, O, 1, 2, ... ,
não é um subcorpo de C, pois para um inteiro n, 1/n rião é um in•
teiro a menos que n seja 1 ou -J. Com as operações usuais de adi•
ção e multiplicação, o conjunt'o dos inteiros satisfaz tôdas as con-·
<lições (1)-(9) com exceção da condição (8).
Exemplo 3. O conjunto dos números racionais, isto é; núme-
ros da forma p/q, onde p e q são inteiros e q -:;d. O, é um subcorpo
do corpo dos números complexos. A divi,são, que não é possível
dentro do cónjunto dos inteiros, pode ser feita dentro do conjunto
dos números racionais. O leitor interessado deve verificar que qual-
quer subcorpo de C contém todos os números racionais.
Exemplo 4. O conjunto de todos os números complexos da
forma x + y V2~ onde x e y são raciona.is, é um subcorpo de C.
Deixamos a cargo do leitor a verificação dêste fato.

1. 2 Sistemas de Equações Lineares

Suponhamos que F seja um corpo. Consideremos o problema


da determinação de n escalares (elementos de F) xi, ... , x,. que sa-
tisfaçam as condições ·

À11X1 + À12X2 + + ÀtnXn = Yl


A21X1 + A22X2 + . .. + À2nX" = Y2
(1-1) .
. . .
Alft1X1 + À1n2!t2 + ... + À,,.nXR = y,.
onde Y1, ..• , Ym e À,j, l < i < m, 1 < j < n, são elementos dado•
de F. Denominamos (1-1) um sistema de m equaçiJes lineares a n
incógnitas. Toda n-upla (x1, ... , xll) de elementos de F que satis-
faz a cada uma das equações em (l-1) é dita uma solução do sis-
tema. Se Y1 = Y2 = ... = y. = O, dizemos que o sistema é ho-
mogêneo, ou que cada uma das equações é homogênea.
4 EQUAÇÕES LINEARES

O método mais importante para determinar as soluç&s de um


sistema de equações lineares é talvez o método de eliminação. Po,,
demos ilustrar êste método com o sistema homogêneo

2x1 - X2 + Xa = O
Xi + 3x2 + 4xa = O.
Somando (-2) v!zes a segunda equação à primeira equação obtemos
-7x2 -7xa =o
ou x2 = -x3. Somando 3 vêzes a primeira equáçlo à segunda equa-
ção obtemos · .
7x1 + 1xa -= O
ou xi '= -xa. Assim, conclufntos que se (x1., x2, xa) é uma solução
entlb x1 11111 x2 = -xa. Reciprocamente, pode-se verificar pronta·
mente que tacla terna dêste tipo é uma solução. Assi~ o conjunto
de soluções consiste de tMas as ternas (-a, -a, a). - ,,,
Determinamos as soluções d&te sistema de equações "elimi-
nando inc6-nitas!', isto é, multiplicari.do equações pór escalar~ e dlf
somá.rido-as para obter_ equações em que alguns dos x; não ésfayain
presentes. Queremos formalizar ligeiramente este processo para que
possamos compreender por que êle funciona e para que possamos
efetuar os cálculos necessários para resolvermos um sistema de uma
maneira organizada.
Para o sistema arbitrário (1-1), suponhamos selecionar m es-
calares, multiplicar a j-ésima equação por e; e daí somar. Obtemos
a equação

(c1Au + ... + c.A-.1)x1 + ... + (c1A'111 + ... + c..A ••)x,.


= C1Y1 + ... + c..y...
Tal equação será por nós denominada uma comblnaçio linear das
eq~cs em (l-1). Evidentemente, tôda solução do sistema ·de
equações (1-1) também será uma solução desta nova equação. Esta
é a idéia fundamental db processo de eliminação. Se temos outro
sistema de equações lineares

(l-2) •
SISTEMAS DE EQUAÇÕES LINEARES 5

no qual cada uma das k equações é uma combinação linear das equa-
ções em (1-1) então tôda solução de (1-1) é uma solução d&te
nôvo sistema. Ê claro que pode acontecer que algumas soluções d~
(1-2) não sejam solu~s-de (1-1). Isto obviamente não acontece
se cada equação do sistema original é uma combinação linear das
equações do nôvo sistema. Diremos que dois sistemas de equa_ções
lineares são equivalentes se cada equação de cada sistema fôr uma
combinação linear das equações do outro si1,tema. Podemos então
enunciar formalmente nossas observações como segue.
Teorema 1. Sistemas equivalentes de equações lineares têm exa-
tamente as mesmas soluções.
Para o processo de eliminação ser eficiente na determinação"
das soluções de um sistema como (1.....:J), é necessário que se saiba,
formando combi.náções lineares das equações dadas, como produzir
um sistema.equivalente de equações que seja mais fácil de resolver.
Na próxima seção discutiremos um mé:todo para conseguir isto.

Exerciclos
1. Verificar que o conjunto dos números complexos descrito no Exemplo 4
é um subcorpo de C.
2. Seja F o corpo dos números complexos. Os dois seauintes sistemas de
equações lineares são equivalentes'? Em caso afirmativo, exprimir cada equa-
ção de cada sistema como uma combinação linear das equações do outro
sistema.
Xi - X:a - 0 3x, + x, • O
2.x, + x. - o X1 + Xi - 0
3. Repetir o Exerc(cio 2 para os seguintes sistemas de equações:
-x, + Xa + 4x., - O x. -x 1 ... O
x. + 3x:a + 8x., - O x,. + 3x., - O
{x. + Xa + j"X,1 = O
4. Repetir o Exercicio 2 para os sistemas seguintes:

2.x, + (-1 + i)X:a

5. Seja F um conjunto que contém exatamente dois elementos, O e 1. Defi-


namos uma adição e uma multiplicação pelas tábuas:
+ O 1 • O 1
--
O
1
O 1
1 O
º1 oO o1
6 EQUAÇÕES LINEARES

Verificar que o conjunto F, munido destas duas operações~ é um corpo.


6. Demonstrar que se dois sistemas homogêneos de equações Hneares a
q.uas incógnitas têm as mesmas soluções, então êles são equivalentes.
7. Demonstrar que todo subcorpo do corpo dos números complexos con-
tém todos os números racionais.

1. 3 Matrizes e Operações Elementares sôbre Linhas


Não podemos deixar de observar que, ao formarmos combina-
ções lineares de equações lineares, não há necessidade de continuar-
mos escrevendo as "incógnitas;; xi, ... , Xn, uma vez que, na rea-
lidade, fazemos cálculos apenas com os coeficientes Âij e os escalares
Yi• Abreviaremos o sistema (l-1) por
AX = Y
onde
Àu •.• À1n

A -

- -
Âml • • • Àm11

Xz Yi

X= e Y=
Xn ,,,
Denominamos A a matriz dos coeficientes do sistema. Rigorow
sarnente falando, a tabela retangular acima exibida não é uma matriz,
mas sim uma representação de um matriz. Uma m X n matriz sô-
bre o corpo F é uma função A do conjunto dos pares de inteiros
(i, j), 1 < i < m, l < j < n, no corpo F. Os elementos da matriz A
são os escalares A ( i, j) = A ii e, com bastante freqüência, o mais con-
veniente é descrever a matriz exibindo seus elementos numa tabela
retangular com m linhas e n colunas, como acima. Assim X (acima)
é, ou define uma n X 1 matriz e Y é uma m X 1 matriz. Por ora.
AX - Y nada mais é que uma notação taquigráfica para o nosso
sistema de equações lineares. Posteriormente, quando houvermos
definido uma multiplicação de matrizes, aquilo significará que Y é
o produto de A por X. · ·
Queremos agora considerar operações sôbre linhas da matriz A
que correspondam a formar combinações lineares das equações do
MATRIZES E OPERAÇÕES ELEMENTARES SÔBRE LINHAS 7

sistema AX = Y. Restringiremos nossa atenção a três operações ele-


mentares sôbre as linhas de uma m X n matriz A sôbre o corpo F:
(l) multiplicação de uma linha de A por um escalar e não-nulo;
(2) substituição da ,-ésima linha de A pela linha r mais e vêzes
a linha s~ sendo e um escalar arbitrário e r ~ s; ·
(3) transposição de duas linhas de A.
Uma operação elementar sôbre linhas é assim um tipo particular
de função (regra) e que associa a cada m X n matriz A uma m X n
matriz e (A). Pode-se descrever e com precisão nos três casos ac,ima
como segue:
(1) e(A)ii = Âii se í ~ ,, e(A)r; = CÀr.i•
(2) e(A)ii - A;; se i ;tf. r, e(A)ri = Ar;+ cA._;.
(3) e(Â)ii = A ij se i é diferente de r e de s, e(A)rj = À,j,
e(A)aJ = A ri•
Ao definirmos e(A) dão importa muito o número de colunas de A,
mas o número de linhas de A é crucial. Por exemplo, de've.:.se tomar
cuidado ao decidir o que significa trocar as linhas 5 e 6 de uma 5 X 5
matriz. Para evitar tais complicações, convencionaremos que uma ope•
ração elementar e sôbre as linhas é definida sôbre a classe das m X n
matrizes sôbre F, para um certo m fixo mas para n arbitrário. Em
outras palavras, um e particular é definido sôbre a classe das matrj-
zes com m linhas sôbre F.
Uma razão para nos restringirmbs a êstes três tipos simples de
operações sôbre linhas é que, tendo efetuado uma tal operação e
sôbre uma matriz A, podemos voltar a A efetuando uma operação
do mesmo tipo sôbre e(A).
Teorema 2. A cada operação elementar sôbre linhas e corresr
ponde uma opera1y'iio elementar sôbre linhas e2, do mesmo tipo que e,
e1(e(A)) = e(e1(A)) = A para qualquer A. Em outras palavras, a
opera,·ão (função) in~'ersa de uma operação elementar sôbre linhas
existe e é uma opera~·ão elementar sôbre linhas do mesmo tipo.
Demonstração. (1) Suponhamos que e seja a operação que mul-
tiplica a r-ésima linha de uma matriz pelo escalar não-nulo e. ~ja
e1 a operação que multiplica a linha r por e- 1. (2) Sut,onlianlos que
e seja a operação que substitui a linha r pela linha r mais e vêzes a
linha s, r "F- s. Seja e1 a operação que substitui a linha r pela
linha r mais (-e) vêzes a linha s. (3) Se e transpõe as linhas r e s,
seja e1 = e. Em cada um dêstes três casos temos evidentemente
e1(e(A)) = e(e1 (A)) = A para cada A.
8 EQUAÇÕES LINEARES

Definição. Se A e B são m X n matrizes sôhre o corpo F~ dizemos


que B é linha--equivalente a A se B pode ser oh(ida de A por uma se-
qüência finita de operações elementares sôbre linhas .
.Usando o Teorema 2, o leitor deverá achar fácil verificar o que
segue. Tôda matriz é linha-equivalente a si mesma; se B é linha•·
equivalente a ,1, então, A é linha-equivalente a B; se B é linha-equi-
valente a A e C é linha-equivalente a B, então C é linha-equivalente
a A. Em outras palavras, a linha-equivalência é uma relação de equi-
valência (ver Apêndice).
Teorema 3. Se A e B são m X n matrizes linha ..equivalentqs,
os sistemas homogéneos de equações lineares AX = O e BX = O
têm exatamente as mesmas soluções.
Demonstração. Suponhamos passar de A para B por meio de
Ul)la seqüêricia finita de operações elementares sô.bre linhas:
A = Ao --+ A2 --+ ••• --+ A1c = B.
Basta demonstrar que os sistemas A,-X = ·o e A1+1X = O têm a_s
mesmas soluções, isto é, que U:ma operação elémentar sôbre linhas
não altera o conjunto das soluções.
Assim, suponhamos que B seja obtida de A por uma única ope ..
ração elementar sôbre linhas. Qualquer que seja o tipo da operaçã·o,
(1), (2) ou (3), cada equação dos sistema BX = O será uma com-
binação linear das equações do sistema AX = O. Como a inversa
de uma operação elementar sôbre linhas é U'ma operação elementar
sôbre linhas, cada equação em AX = O também será uma combi-
nação linear das equações em BX = O. Logo êstes dois sistemas são
equivalentes e, pelo Teorema l, têm as mesmas soluções.
Exemplo 5. Suponhamos que F seja o corpo dos números ra-
cionais e que

A = 1 [2-1 3 2]
2
4. O -1 ·
6 -1 5
Efetuaremos uma seqüência finita de operações elementares sôbre
as linhas de A, indicando por números entre parênteses o tipo de
opetação efetuaaa.

[2: -!6 -1
~ -i] i2) [? -:
5 --+ 2 6 -1
~ -~]
5
(2)
---+
-
MATRIZES E OPEP.AÇOES ELEMENTARES SOBRE LINHAS
~
9

D
-9
4
-2 -1
3
o -1]
7
il)
_.
F

-9
4
1
3
oJ
'I
=iJ-~~
[!
-9
o -2
1
3
1
2
~iJ ~ [! o
1
ª
o -2
111

l
i
.J
13
,.
'I
O)
---i'

[!
o
o -2
1
l

,
l -:u (~ G o
o
l
1
ot
li
"]

,
1
(2)
----..

G
o
-'·]o o
1 o
1
11
T
li
-i.

A linha-equivalência de A com a matriz final na seqüência acima


nos diz em particular qlte as soluções de

2x1 -- X2 + 3~:i + 2X4 =0


X1 + 4X2 - X4 = 0
2x1 + 6x2 - X3 + 5X4 = 0

Xa.- aJl X4 = o
X1 + •: X4 = 0
X2 - ~ X4 = 0
são exatamente as mesmas. No segundo sistema é evidente que atri-
buindo um valor racional arbitrário e a X4, obtemos uma solução
(- •.,.e, ¾e, !fc, e), e também que tôda solução é desta forma.
Exemplo 6. Suponhamos que F seja o corpo dos números com-
plexos e que

À=
[
-1 n
-i ~jº
Ao efetuarmos operações sôbre li~has freqüentemente convém com-
binar várias operações do tipo (2), Com isto ein mente

[-1 í] [º 2+
-i 3
1 2
(2)
---+
O 3
1 2
2i
i] (1)
-~

O 3 l 2i
1 2
+ ~ (2)
---+
[º IJ
O O •
1 O
10 EQUAÇÕES LINEARES

As'sim o sistema de equações


~x1 + IX2 = 0
-ix1 + 3x2 = O
tX1 + 2xz = O
possui apenas a solução trivial xi = x2 = O.
Nos Exemplos 5 e 6 é óbvio que não efetuamos operações sôbre
linhas ao acaso.·Nossa escolha de operações sôbre linhas foi motivada
por um desejo de simplificar a matriz dos coeficientes de uma maneira
análoga à "eliminação de incógnitas" no sistema de equações linea-
res. Coloquemos agora uma definição formal do tipo da matriz à
qual estávamos tentando chegar.
Definição. Uma m X n matriz Ré dita linha-reduzida se:
(a) o primeiro elemento não-nulo em cada linha não-nula de R
é igual a l;
(b) cada coluna de R que contém o primeiro elemento não-nulo
de alguma _linha tem todos os seus outros elementos nulos.
Exemplo 7. Um exemplo de uma matriz linha-reduzida é a n X n
matriz (quadrada) unidade l. Esta é a n X n matriz definida por
l, se i = j
{O,
liJ = ÔiJ = se i :F- j.
Esta é a primeira de muitas ocasiões em que usaremos o símbolo
de Kronecker (&).
Nos ·Exemplos 5 e ~' as matrizes finais nas seqüências apresen-
tadas são matrizes linha-reduzidas. Dois exemplos de matrizes que
não são linha-reduzidas são:

1 O O
[ O l -1 O
º] [ o1 2 1]
O -3 ·
O O l O -º o o
A segunda matriz não satisfaz a condição (a) porque o primeiro
elemento não-nulo da primeira linha não é 1. A primeira matriz
satisfaz a condição (a) mas não satisfaz a condição (b) na coluna 3.
Demonstraremos agora que podemos passar de uma matriz
arbitrária a uma matriz linha-reduzida. por meio de um número
finito de operações elementares sôbre linhas. Combinado com o
Teorema 3, isto nos fornecerá um instrumento eficiente para a reso-
lução de sistemas de equações lineares.
Teorema 4. Tôda m X n matriz sôbre o corpo Fé linha-equi-
valente a uma matriz linha-reduzido.
MATRIZES E OPERAÇÕES ELEMENTARES SÔBRE LINHAS ···-1 l.

Demonstrar;õo. Seja A uma m X n matriz sôbre F. Se todo ele-


mento na primeira linha de A é O, então a condição (a) está satis-
feita no que .diz respeito à linha 1. Se a linha I tem um elemento
não-nulot seja k o menor inteiro positivo j para o qual Áij #- O.
Multipliquemos a linha 1 por A-;,/
e então a condição (a) está satis-
feita em relação à linha 1. Agora, para cada i > 2, somemos (-A it)
vêzes a linha l à linha i, Agora o primeiro elemento não-nulo da
linha l ocorre na coluna k, êste elemento é l, e todos os outros ele•
mentos na coluna k são nulos. ·
Consideremos agora a matriz que resultou das operações acima.
Se todo elemento na linha 2 é nulo, nada fazemos à linha 2. Se algum
elemerµ.o na linha 2 é diferente de O, multiplicamos a linha 2 por um
escalar de modo que o primeiro elemento não-nulo seja 1. No caso
em que a linha l tenha um primeiro elemento não-nulo na coluna k,
êste primeiro elemento não-nulo na linha 2 não pode ocorrer na coluna
k; digamos que êle aparece na coluna k' -:;t! k. Somando múltiplos
adequados da linha 2 às diversas linhas, podemos fazer com que
todos os elementos na coluna k' sejam nulos, com exceção do l na
linha 2. O fato importante a ser notado é êste: ao efetuarmos estas
últimas operações, não alteramos os elementos da linha l nas colu•
nas 1, ... , k; além disso, não alteramos nenhum elemento da coluna
k. É claro que. se a linha 1 fôsse idênticamente nula, as operações
com a linha 2 não afeta riam a linha 1.
Trabalhando com uma linha de cada vez da maneira acima, é
evidente que, com um número finito de passos, chegaremos a uma
matriz linha-reduzida.

Exercícios
1. Determinar tôdas as soluções do sistema de equações
(1 - i)X1 - ÍX J =0
2x1 + (l - i).x~ = º·
1. Se

A = [3-1 2J
2 t 1
l -3 O
determinar tôdas as soluções de AX - O, tornando A linha-reduzi.da.
3. Se

À .... [!i~l
-1 O 3J
12 EQUAÇÕES LINEARES

determinar tôdas as soluções de AX """ 2X e tôdas as ,aluções de


AX = JX. (O símbolo cX indica a matriz cujos elementos são
e vêres os
elementos correspondentes de X.)
4. Encontrar uma matriz linha-reduzida que seja linha-equivalente a
;
A= [ l
-(1
-2
+ i) º]
l ·
l 2i -1
S. Demonstrar que as duas matrizes sea;uintes ,rão são linha-equivalentes:-

[i -! íl [-i i -n-
6. Seja

uma 2 X 2 matriz com elementos complexos. Suponhamos que A seja li-


nha-reduzida e também que a + + +
b e d = O. Demonstrar que exis-
tem exatamente três destas matrizes.
7. Demonstrar que a transposição de duas linhas de uma matriz pode ser
conseguida por uma seqüência finita de operações elementares sôbre li-
nhas dos outros dois tipos.
8. Consideremos o sistema de equações A.X - O onde

A = [~ :J
é uma 2 X 2 matriz sôbre o corpo F. Demonstrar o que segue.
(i) Se todo elemento de A é nulo, então todo par (x 1 t xi) é uma solução
de AX - O.
(ii) Se ad - bc ?t- O, o sistema AX = O possui apenas a solução trivial
Xi - X2-= 0,
(iii) Se ad - bc =- O e algum elemento de A é diferente de O. então existe
uma solução (x~, xntal que (Xa, Xa) é uma solução se e sàmente se existe
um esca r y ta que x1 ""' yx.,o X2 = YXz.o
la l .

1•4 Matrb:es Linha-reduzidas à Forma em F.&cada


Até agor~, nosso trabalho com sistemas de equações Une~res
foi motivado por uma tentativa de determinar as soluções de um tal
sistema. Na Seção 1. 3 estabelecemos um método padronizado para
determinar estas soluções. Desejamos agora obter algum conheci-
mento que seja um pouco mais teórico, e para tal propósito é con-
veniente ir um pouco além de -matrizes linha-reduzidas.
Definição. Uma m X n matriz R é dita uma matriz linha-redu•
zida à forma em escada se
(a) R é linha-reduzida;
" FORMA EM ESCADA
MATRIZES LINHA-REDUZIDAS A 13

(b) tôda linha de R cujos elementos são todos nulos ocorre abaixo
de tôdas as linhas que possuem um elemento não-nulo;
(e) se as linhas 1. ... , r são as linhas não-nulas de R e se o pri-
meiro elemento nãownulo da linha i ocorre na coluna ki, i = 1, ... , r,
então k1 < k2 < ... < kr.

Pode-se também descrever uma m X n matriz R linha-reduzida


à forma·em escada como segue. Todo elemento em R é nulo ou então
existe um inteiro positivo r, 1 < , < m, e r inteiros positivos k2,
... , kr com l < k" < n e
(a) R,i = O para i > r, e R;i = O se j < k,:.
( b) Ri:~· i = ~ ij, 1 < i < r, 1 < j < r.
(e) k1 < ... < kr.
Exemplo 8. Dois exemplos de matrizes linha-reduzidas à forma
em escada são n X n matriz unidade e a m X n matriz nula Qm,,,, na
qual todos os elementos são nulos. O leitor não deverá encontrar
nenhuma dificuldade para encontrar outros exemplos, mas gosta-
ríamos de dar mais um exemplo não-trivial:

o 1
[O O
-3 o
O l 2 ·
½]
o o o o o
Teorema 5. Tôda m X n matriz A é linha-equivalente a uma
matriz linha-reduzida à forma em escada.
Demonstração. Sabemos que A é linha-equivalente a uma matriz
linha-reduzida. Portanto, basta observar que, efetuando um número
finito de permutações das linhas de uma matriz linha-reduzida, po-
demos transformá-la numa matriz linha-reduzida à forma em escada.
Nos Exemplos 5 e 6, vimos a importância de matrizes linha-
reduzidas na solução de sistemas homogêneos de equações lineares.
Discutamos ràpidameJ'\te o sistema RX = O, no caso em que R é
uma matriz linha-reduzida à forma em escada. Sejam as linhas 1,
... , r as linhas não-nulas de R e suponhamos que o primeiro ele•
mento não-nulo da linha , ocorra na coluna k,. O sistema RX == O
consiste então de r equações não-triviais. Além disso, a incógnita
Xtti aparecerá (com coeficiente não .. nulo) apenas na i-ésima equação.
Se indicarmos por u1 , ••• , U,i-r as (n - r) incógnitas que são dife-
rentes de X.t., ... , Xk,, então as r equações não-triviais em RX = O
são da forma
14 EQUAÇÕES LINEARES

n-r
Xk
l
+ .
~ C11U;
l
= 0
J-

(1-3)
n-r
Xkr + 2; CrjUj = o•
.i - 1

Tôdas as soluções dos sistemas de equações RX = O são obtidas


atribuindo•se valores arbitrários a u1, ••• , Un-r e calculando os va-
lores correspondentes de xA- 1 , • • • , x1-,- por meio de (1-3). Por exem-
plo, se Ré a matriz do exemplo 8 acima, então r = 2, k1 = 2, k2 = 4,
e as duas equações não-triviais do sistema RX = O são
x2 - 3xa + ½xs = O ou x2 = 3x:j - ¾X.;
X4 + 2x5 = O ou X4 = 2x5.
Asshn, podemos atribuir valores arbitrários a xi, xa e x 5, digamos
i1 = a, xa = b, X5 = e, e obter a solução (a,3b - ½e, b, -2c, e).
Observemos mais um fato sõbre o sistema de equações RX = O.
Se o númer'o r de linhas não-nulas de R é menor que n, então o s_is~
tema RX = O admite uma solução não-trivial, isto é, uma solução
(xi, .. , , Xn) em que nem todo x; é nulo. De fato, como r < n, po-
demos tomar algum x 1 que não esteja entre as r incógnitas x~., ... ,
Xtr e daí construir uma solução como acima na qual êste x, é 1. Esta
observação nos leva a um dos conceitos mais fundamentais relativos
a sistemas de equações lineares homogêneas.
Teorema 6. Se A é uma m X n matriz e m < n, então o sistema
homogêneo de equações lineares AX = O admite uma solução não-
trivial.
Demonstração. Seja R uma matriz linha-reduzida à forma em
escada que seja linha-equivalente a A. Então os sistemas AX = O
e R;x = O possuemt pelo Teorema 3, as mesmas soluções. Se r é o
.número de linhas não-nulas em R, então certamente r < m e como
m < n, temos r < n. Decorre imediatamente de nossas observações
acima que AX = O admite uma solução não-trivial.
Teorema 7. Se A é uma n X n matriz (quadrada) e se o sistema
de equações AX = O não possui sQlução não-trivial, então A é linha-
equivalente a n X n matriz unidade.
Demonstração. Seja R uma n X n matriz linha-reduzida à for-
ma em escada que seja linha-equivalente a .A, e seja , o número de
' FORMA EM ESCADA
MATRIZES LINHA-REDUZIDAS A 15

elementos não-nulos de R. Como AX = O não admite solução não•


trivial. RX = O não admite solução não-trivial. Assim. r > n. Mas
como R possui n linhas, certamente r -<
n e temos r = n. Como isto
significa que R possui na verdade um primeiro elemento não-nulo
igual a I em cada uma de suas n linhas e como êstes l ocorrem cada
um numa das n colunas~ R é, necessàriamente, a n X n matriz uni-
dade.
Perguntemos agora que operações elementares sôbre linhas efe-
tuar para resolver um sistema de equações lineares AX = Y que não
seja homogêneo. De início, devemos observar uma diferença básica
entre êste caso e o caso homogêneo, a ·saber. que enquanto o siste-
ma homogêneo sempre admite a solução trivial x 1 = ... = Xn = O,
um sistema não homogêneo pode não ter nenhuma solução.
Formemos a matriz completa A' do sistema AX = Y. Esta é a
m X (n + 1) matriz cujas n primeiras colunas são as colunas de A
e cuja última coluna é Y. Mais precisamente

A;_.. - A,"j, se j <n


A,
+ 1 J z::: Yi
ir~

Suponhamos que efetuemos uma seqüência de operações elemen-


tares sôbre as linhas de A, obtendo uma matriz R linha-reduzida
à forma em escada. Se efetuarmos esta mesma seqüência de opera..
ções sôbre a matriz completa A', obteremos uma matriz R' cujas n
primeiras colunas são as colunas de R e cuja coluna contém certos
escalares zi, ... , z Os escalares Zi são os elementos da m X 1
Jfh

matriz

z -
- -
Zm

que resulta de se aplicar a seqüência de operações sôbre as linhas


da matriz Y. Deve ser evidente ao leitor que, como na demonstra-
ção do Teorema 3, os sistemas AX = Y e RX = Z são equivalen-
tes e portanto admitem as mesmas soluções. É bem fácil saber se
o sistema RX = Z possui soluções e em caso afirntativo determinar
tôdas as soluções. De fato, se R possuir r linhas não-riulas, com o
primeiro elemento não-nulo da tinha ; ocorrendo na coluna k.-,
i = 1, ... , r, então as r primeiras equações de RX ~ Z e~primem
16 EQUAÇÕES LINEARES

realmente x,t 1 , • • • , x~r em têrmos dos (n - r) Xi restantes e dos


escalares z1, ... , zT, As (m - r) últimas equações são
Q = Zr +l

Ü = Zm

portanto a condição para o sistema ter uma solução é que zi = O


para i > r. Se esta condição é satisfeita, tôdas as soluçoes dêste
sistema podem ser determinadas, como no caso homogêneo, atri-
buindo-se valores arbitrários a (n - r) dos XJ e daí" calculando
x1r, por meio da i-ésima equação
Exemplo 9. Seja F o corpo dos números racionais e
-1 -2 1-
A = 2 1 l
-º 5 -1
e suponhamos que se deseje resolver o sistema AX Y para certos =
Y1, Y2 e y3. Efetuemos uma seqüência de operações sôbre as linhas
da matriz completa A' qu'e torne A linha-reduzida:
-1 -2 l Y1] -1 -2 1 Y1 ]
2 l 1 Y2 (~ . O 5 -1 (y2 - 2Yt) i~
_O 5 -1 Ya _O 5 -1 Ya _
-1 -2
]
1 Y1
o 5 ~I (y2 - 2yi) (l)
----+
o o o (Y:i - Yz + 2yi)
-2 1
[i l
1 - -5
o o
Yt
¾(y2 -. 2y1)
(ya -yz + 2yi)
] <21
-1 o li
~
¼(y1 + 2y2) -
o l -6
1
¼(y2 - 2y1)
o o+ (ya - Y2 2y1)_

A condição para que o sistema AX = Y tenha uma solução é portanto
Y2 + Y:i = o
2y l -

e se os escalares y; dados satisfazem esta condição, tôdas as solu-


ções são obtidas atribuindo-se um valor e a xa e depois calculando
X1 = -¾e+ ¼(y1 + 2y2)
X2 = ¼e + rtY2 - 2y1).
MATRIZES LINHA-REDUZIDAS À FORMA EM ESCADA 17

Façamos uma observação final sôbre o sistema AX = Y. Supo•


nhamos que os elementos da matriz A e os escalares y1, ... , Ym
estejam num subcorpo F1 do co'rpo F. Se o sistema de equações
AX = Y admite uma solução com x1, . .. , Xn em F, êle admite
uma solução com xh ... , x,, em F1. De fato, sôbre qualquer u·m
dos dois corpos. a condição para o sistema admitir uma solução
é que valham certas relações entre y;, .•. , Ym em F1 (a saber, as
relações z, = O para i > r, acima). Por exemplo. se AX = Y é
um sistema de equações lineares no qual os escalares )'1-; e A ii s·ão
números reais e, se existe uma solução na qual x 1 , ••• , X11 são nú-
meros complexos, então existe uma solução com x 1 • · •.• , Xn nú-
meros reais.

Exerclcios
1. Determinar tôdas as soluções do seguinte sistema de equaçê'>es_ linha-re-
duzindo a matriz dos coeficientes:

i + 2x
X1 I - 6x .l - o
-4x 1 + Sx 1 - O
- lr1 + 6x 1 - l 3x J - O
-~Xi + 2X1 - ix1 - 0
2. Determinar uma matriz linhaRreduzida à forma em escada que seja equi-
valente a

A = [~
i
2;]
+;
1
·
Quais são as soluções de AX - O'?
3. Descrever explicitamente tôdas as 2 X 2 matrizes linha-reduzidas à for-
ma em escada.
4. Consideremos o sistema de equações
Xi - Xa + 2xl =- 1
2X1 + 2xl a= 1
x1 - 3x, + 4x 3 == 2.
tste sistema admite solução"! Em caso afirmativo, descrever explicitamente
tôdas as soluções.
5. Dar um exemplo de um sistema de duas equações lineares a duas incógni..
tas que não admite solução.
6. Seja
18 EQUAÇÕES LINEARES

Para que ternas Ü'i,YJ,YJ) o sistema AX = Y admite solução'!


'7. Seja

A=[-! 1 i -:J. l -2 l O
Para que (Y11Y..itY 3 ,y 4) o sistema de equações AX = 1' admite solução?
8. Suponhamos que R e R 1, sejam 2 X 3 matrizes linha-reduzidas à forma
em escada e que os sistemas RX = O e R'X .... O admitam as mesmas so-
luções. Demonstrar que R = R'.

1. 5 Multiplicação de Matrizes
É evidente (ou, de qualquer modo, deveria ser) que o processo
de formar combinações lineares das linhas de uma matriz é um
processo fundamental. Por esta razão é vantajoso introduzir um es•
quema sistemático para indicar exatamente que operações devem ser
efetuadas. Mais especificamente, suponhamos que B seja uma n X p
matriz sõbre umcorpo F com tinhas {J 1, ••• , {3,,, e que a partir de B
construamos uma matriz C com lihhas "Y1, ••• , "Ym formando cer-
tas combinações lineares
(114) 'Yt = Anf:11 + Ài2fJ2 + ... + Aiti/3m.
As tinhas de C slio determinadas pelos mn escalares Aí; que sã'o
os elémentos de uma m X n matriz A~ Se (l--4) é desenvolvido co~no
li

(Cil ... Cip) = 2; (Ài,6,1 .•. Ât,B,:,,)·


1 ... 1

vemos que os elementos de C são dados por


n.
C;j = ? AirBr;.
r• l

Definição. Seja A uma m X n matriz sôbre o c.orpo F e seja B


uma n X p matriz sôbre F. O produto AB é a m X p matriz C cujo
elemento itj e
n
Cij = 2; Ài,B,i.
r=l

Ex~mplo 10. Eis alguns produtos de matrizes com elementos


racionais.
(a) 5 -1 2]
[O 7 2 = -3 1
[ l º] [155 -1 2]
4 8
MULTIPLICAÇÃO o·E MATRIZES 19

Neste caso
'Y1 = (5 -1 2) = 1 . (5 -1 2) + O . (15 4 8)
-y2 = (O 7 2) = -3 (5 -1 2) + 1 . (15 4 8)
O 6 1- [ 1 o-
-s o r
(b) [ 9 12
,2 62 -3 =
-2 3
s 4 l3 s -21
6

3 8-2
-
O 1
- -
Neste caso
'Y2 = ( 9 12 -8) = -2(0 6 1) + 3(3 8 -2)
')':s = (12 62 -3) = 5(0 6 1) + 4(3 8 -2)

(e)
l2~J = [; !J [!]
(d) l-~ 1;J = [-1J 12 4}
Neste caso
'Y2 = (6 12) = 3(2 4)

(e) 12 4) l-iJ = llO)

(f)
-5
3 2] [2g
; =
3 4-
0 O
-1
º- o
(g) o [ºo ! gJ
o- =
o -o -
É importante observar que o produto de duas matrjzes pode · ·
não est~r definido; o produto é de,inido se, e somente se, o nú-
mero de coluna da primeira matriz coincide com o número de li-
nhas da segunda matriz. Assim, não faz sentido trocar a ordem dos
fatôres em (a), {b) e (e) acima. Freqüentemerite escreveremos produ-
tos como AB sem mencionar explicitamente as dimensões dos fa-
tôres e, em tais casos, estará sube(\tendido q'ue o produto está de-
finido. De (d), (e), (f), (g) vemos que mesmo quando ambos os pro-
dutos AB e BA estão definidos não é necessàriamente verdade que
A B = BA ; em . outras palavras a multiplicação de matrizes não
é comutativa.
20 EQUAÇÕES LINEARES

Exemplo 11.
(a) Se J é a m X m matriz unidade e A é uma m X n matriz,
IA= A.
(b) Se / é a n X n matriz unidade e A é uma m X n matriz,
AI= A.
(e) Se ()k,m é a k X m matriz nula, ()t,n = ()t,m A. Anàloga~
mente, AQn,P = Qm,t.

Exemplo 12. Seja A uma m X n mcitriz sôbre F. Nossa notação


taquigráfica anterior, AX = Y, para sistema:, de equações lineares,
é coerente com nossa definição de produtos de matrizes. De fato, se

Xi
X2

X-

com x; em F, então AX é a m X 1 matriz

y -

Ym
tal que Yi = Anx1 + Ài2X2 + .. , + À inXn,
A despeito do fato de que um produto de matrizes depende da
ordem em que os fatôres são escritos, êle é independente da maneira
pela qual elas são associadas, como o próximo teorema mostra.
Teorema 8. Se A, B, C são matrizes sôbre o corpo F tais que os
produtos BC e A(BC) são de/il'.lido$, então estão definidos os produ-
tos AB, (AB)C e
A(BC) = (AB)C.
Demonstração. Suponhamos que B seja uma n X p matriz. Como
BC está definida, C é uma matriz com p linhas e BC tem n lirihas.
Como A(BC) está definido pode,mos supor que A é uma m X n
matriz. Assim, o produto AB existe e é uma m X p matriz, do que
MULTIPLICAÇÃO DE MATRIZES 21

segue que o produto (AB}C existe. Mostrar que A(BC) = (A.B)C


significa mostrar que

[A(,BC)]ii = [(AB)C]ii
para cada i, j. Por definição

[A(BC)];1 = i;, Âir(BC~ri

, 1

- i; Z A i,B,.C,j
7 1

- l; ,i; ÂirBr,C11j
,
1

- ? (? AirBrs)C4i
Ir r

- X (AB);1 C1 ;

Quando A é uma n X m matriz (quadrada), o produto AA esü.


definido. Indicaremos e_,ta matriz por A 2 • Pelo Teorema 8, (AA)A ==
= A(AA) ou A 2A = A.A 2, de modo que o produto AAA esti defi-
nido sem ambigüidade. Indicaremos &te produto por A. 3·• Em geral,
o produto AA ... A (k vêzes) está definido sem ambigüidade e
· indicaremos este produto por A .t.
Notemos que a relação A(BC) = (AB)C implica, entre outras
coisas, que combinações lineares de combinações lineares das 1inhas
de C são novamente combinações lineares das linhas de C.
Se B é uma dada matriz e C é obtida de .B por meio de uma
operação elementar sõbre linhas, então cada linha de C é uma com-
binação linear das linhas de B~ logo existe uma matriz A tal que
AB = C. Em geral, existem muitas dessas matrizes A e, dentre elas
tôdas, é conveniente e possível escolher uma que tenha um número
de propriedades especiais. Antes de passar a isto precisamos intro..
duzir uma classe de matrizes.
Definição. Uma nxm matriz é dita wna matriz elementar se ela
pode ser obtida da m X m matriz unidade por mefo de uma única ope-
ração elementar.
22 EQUAÇÕES LINEARES

Exemplo 13. Uma 2 X 2 matriz elementar é necessàriamente


uma das se·guintes:

[~ 6], [ O•l e]1 ' [! ~]


º]
O 1 '. e ~ O, [~ ~] , e ~ O.
[ e

Lema. Seja e uma operação elementar sôbre linhas de matrizes


com p linhas. Seja A uma m X n matriz e B uma p X m matriz. Então
(1-5) e(B)A = e(BA).

Demonstração. Indiquemos as linhas de A por a1, ••• j ª•· As


linhas 'Yh .•• , 'Y:P de C = BA são então dadas por
(l-6) 'Yi = X BijOtj.
j

Se a operação e é a multiplicação de r-ésima linha por e ;,t!, O, então


a r--ésima linha de e( C) é dada por
(1-7)

enquanto "Y~ = 'Y i para i F- r. Por outro lado, se e é uma operação


que substitui a linha r pela linha r mais· e vezes a linha s, r ~ s, então
(l-8) -y; = t (Brj + cB,;'}a;
j

e 'Y1 = -y, para i ~ r. No caso restante, quando e transpõe as linhas


r e s, temos

(1-9)
"Y: = ? B,iªi
j

e 'Yi = .., i se i é difcrente de r e de s. Considerando ( 1-7), (1-8) e


(1-9) é evidente que em cada caso
-r! = I e(B)oa;
j

para i =
1, ... , p.
Tomando B como sendo a m X m matriz unidade em (1-5)
obtemos
(1-10) e(l)A = e(A).
MULTIPLICAÇÃO. OE MATRIZES 23

Por ser êste resultado de importância fundamental reenunciamo-lo


como segue:
Teorema 9. Seja A uma m X n matriz sôb.re o corpo F e seja C
uma matriz obtida efetuando-se uma única operação elementar sóbre
as linhas de A. Seja E a matriz elementar obtida efetuando-se a mesma
operação elementar sôbre a m X m matriz unidade. Então C = EA.
Corolário. Sejam A e B m X n matrizes sóbre o corpo F. Então
B é linha-equivalente a A se e somente se B = PA, onde Pé um pro-
duto de m X m matrizes elementares.
Demonstração. Suponhamos que B = PA onde P = E3 •..
E2 E1 e as E; são m X m matrizes elementares. Então E1A é linha-
equivalente a A e E2(E1A) é linha-equivalente a E2A. Assim E2 E1 A
é linha-equivalente a A; continuando desta maneira, vemos que
(Ei, ... E 1 )A é linha-equivalente a A.
Suponhamos agora que B seja linha-equivalente a A. Sejam
Ei, E2, ... , Es as matrizes elementares correspondentes a alguma
seqüência de operações elementares sôbre linhas que levam A em
B. Então B = (E, ... E1)A.

Exercicios
1, Sejam

A = [; -1 !] B - [_t] e - c1 -11.

Cakular ABC e CAB.


2, Sejam

A - D-g l] 8 -
[_!2-2]! .
Verificar diretamente que A(AB) - A~ B.
3. Determinar duas 2 X 2 matrizes A distintas tais que A:1 - O mas A p!õ O.
4. Para a matriz A do Exercício 2. determinar matrizes elementares Ei.
Ei, ... ; Ek tais que

5. Sejam

A= [il -1]
~ B = [-i !] ·
Existe alguma matriz C tal que CA = B'!
24 EQUAÇÕES LINEARES

6. Seja A uma m X 1t matriz e B uma 11 X k matriz. Mostrar que as colunas


de C - AB são combinações lineares das colunas de A. Se a1, ..• , ª" são
as colunas de A e .,,., ... , 1'k são as colunas de C, então

7. Sejam A e B duas 2 X 2 matrizes tais que A.B - I. Demonstrar que


BA - I.
8. Seja
e_ [·cu Cu]
Cu C1111
uma 2X2 matriz. Perguntamos quando é possível encontrar ~ X 2 ma-
trizes A e B tais que C - AB - BA. Demonstrar que tais matrizes po-
dem ser encontradas se e somente se e1 t + C l 3 ~ O.

l , 6 Matrizes Inversíveis
Suponhamos que P seja uma m X m matriz que seja um pro-
duto de matrizes elementares. Para cada m X n ·matriz A, a matriz
B = PA é linha-equivalente a A ; logo A é linha-equivalente a B e
existe um produto Q de matrizes elementares tal que A == QB. Em
_particular, isto é válido quando· A é a m X m matriz unidade. Em
outras palavras, existe uma m X m matriz Q, que é um produto de
mairizes elementares, tal que Q.P = I. Como logo veremos, a exis-
tencia de uma Q tal que Q P = I é equivalente ao fato de P ser um
produto de matrizes elementares.
Definlçio. Seja A uma n X n matriz (quadrada) sôbre o corpo F.
Uma n X n matriz B tal que BA = I e dita uma Inversa à esquerda
de A; uma n X n matriz B tal que AB =- I é dita uma Inversa à di-
reita de A. Se AB = BA = 1, enião B é dita lnversivel.
Lema. Se A possui uma inversa à esquerda B e uma inversa à
direita C, en~o B - e.
Demonstração. Suponhamos que BA = l e AC = 1. Então
B = Bl ·= B(AC) = (BA)C = /C == C.
Assim, se A possui uma inversa à esquerda e uma à direita,
A é inversível e possui uma única inversa bilateral, que indicaremos
pbr A- 1 e denominaremos simplesmente a inversa de A.
Teorema 10. Sejam A e B n X n matrizes sôbre F.
(a) Se A é inversíve/J A- 1 tambem o é e (A- 1)- 1 = A.
(b) Se A e B são inversíveis, AD também o é e (AB)- 1 = a- •A - 1•
MATRIZES INVERSÍVEIS 25

Demonstração. A primeira afirmação é evidente pela simetria


da definição. A segunda decorre da verificação das relações
(AB)(B- 1A- 1) = (B- 1A- 1)(AB) = /.
Corot,rio. Um produto de matrizes ;nversíveis é inversível.
Teorema 11. Uma matriz e/ementai' é inversível.
Demonstração. Seja E uma matriz elementar correspondente à
operação elementar sôbre linhas e. Se e1 é a operação inversa de e
(Teorema 2) e E1 = e1(/), então
EE1 = e(Ei) - e(e1(/)) = 1

E1E = ei(E) = e1(e(l)) = 1


de modo que E é inversível e E1 = E- 1 •

Exemplo 14.

(a) [~ b]-1 [~ 6] -

(b) [i ~]-1 = [b -tJ


(e) [! ~]-1 - [-! ~]
(d) Quando e "#- O,

_ [e-O º]1
1 e [l
O e
o]- 1 = [ 1 O 1] .
O e-
Teorema 12. Se A e uma n X n matriz sôbre F, as seguintes
· afirmações são equivalentes (isto é, tôdas verdadeiras ou tôdas falsas).
(i) A e inversível.
(ji) A possui uma inversu à esquerda.
(iii) AX = Oé um sistema de equa~·ões sem solução além da trivial.
nv) A é um produto de matrizes elementares.
Demonstração. Dem_onstraremos as implicações (i) ---+ (ii) ---+ (iii)
-➔ (iv)---+ (i). (i)---+ (ii). Se A é inversível, A""', 1 é uina inversa à es-
querda de A.
(ii)---+ (iii). Suponhamos que P seja uma inversa à esquerda de
A e que AX = O. Então X = IX = (PA)X = P(AX) ·= P . O = O.
26 EQUAÇÕES LJN EARES

(iii) ~ (iv). Suponhamos que o sistema de equaçoes lineares


homogêneas AX = O não possua solução não-trivial. St!ja R uma
matriz-reduzida à forma em escada e linha-equivalente a A. Então
R é uma n X n matriz quadrada e RX = O não possui soluções
X ~ O. Assim, R é a n X n matriz unidade e, pelo Corolário do
Torema 9, A = Ponde Pé um produto de matr.izes elementares.
(iv) --+ (i). Suponhamos que E1, E2, ... , Es sejam n X n ma-
trizes elementares tais que A = E1E2 ... Es, Pelo Teorema 11, cada
Ei é inversível e é evidente que
A -1 = E-1
11 , • • 2 IE-•
E- l •

Corolário 1. Se A e uma n X n matriz inversível e se uma se-


qüência de operações elementares sôbre linhas reduz A a unidade,
então aquela mesma seqüência de operações sôbre linhas quando apli-
cada a l produz A - 1 •
Corolário 2. Uma matriz quadrada com inversa à esquerda ou
à direita é inversível.
Demonstração. Se A e B são n X n matrizes tais que AB = I,
então A é uma inversa à esquerda de Bt logo B é inversível, o que
implica B- 1 = A e A- 1 = (B- 1)- 1 = B.
Corolário 3. Uma n X n ma1riz A e inversível se e somente se
o sistema de equações AX = X possui uma solução X para cada
n X 1 matriz Y.
Demonstração. Suponhamos que A seja inversível. Então X=
= A-• Y é uma solução da equação AX = Y.
Suponhamos que AX = Y possua uma solução para cada Y.
Seja Y.i a irésima coluna da n X n matriz unidade. Tomemos X; de
modo que AXi = Yi. Se B é a n X n matriz com cqlunas Xi, X2,
... , X» então A B = I; agora o corolário anterior se ap]ica e mos-
tra que B = A- 1•
Deve-se observar que o Corolário 3 mostra que se A é n X n
e AX = Y possui uma solução para cada Y, então na verdade
AX = Y possui uma única solução para cada Y.
Corolário 4. Sejam A e B m X n matrizes. Então B é (inha-
equivalente a A se e somente se B = PA onde P é uma m X m ma-
triz inversível.
Tomando m = n e fazendo B igual à n X n mat(.iz unidade
obtemos o resultado que segue.
Corolário 5. Uma n X n matr_iz A é linha-equivalente à l'l!llltriz
unidade se e somente se A é inversível. ·
MATRIZES INVERSÍVEIS 27

Corolário 6. Seja A = A1Az, ... Ak. onde Ai. ... , A1. sao
n X n matrizes (quadradas). Então A é inversível se e somente se
cada Ai é inversível.
Demonstra~·ào. Já demonstramos que o produto de duas ma-
trizes inversíveis é inversível. A partir disto vê-se facilmente que se
cada Ai é inversível então A é inversível.
Suponhamos agora que A seja inversível. Demonstremos pri-
meiro que Ât é inversíve}. Suponhamos que X seja uma n X I ma-
triz e AtX = O. Então AX = (A1 ... A.1:-1)AtX = O. Como A é
inversíveltemos X= O. Desta maneira, o sistema de equações AkX = O
não possui soluções não-triviais, portanto, Ak é inversível. Ma·s en-
tão A 1 .•. Àk-1 = AAk 1 é inversível. Pela razão anterior A.1:-i é
invers.ível. Prosseguindo desta forma, .concluímos que cada A 1 é
inversível.
Gostaríamos de fazer um comentário final sôbre a resolução
de eq:uações lineares. Suponhamos que A seja uma m X n matriz e
que desejamos resolver o sistema de equações AX = Y. Se Ré uma
matriz linha-reduzida à farma em escada que é equivalente a A,
então R = PA, onde P é uma m X m matriz invers,ível. As soluções
do sistema A,X = Y são exatamente as soluções do sistema RX =
= PY ( =Z). Na prática, nã·o é muito m·ais difícil determinar a ma-
triz P do que linha-reduzir A a R. De fato, suponhamos que for-
memos a matriz completa A' do sistema AX = Y, com escalares
arbitrários Y1 ... , Ym na última coluna. Se agora efetuarmos sôbr~
A• uma seqüência de operações elementares sôbre linhas que re-
duza A a R, tornar-se-á evidente o que é a matriz P. (O lejtor deve
consultar o Exemplo 9 onde, em essência, aplicamos êste processo.)
Em particular, se A é uma matriz quadrada, êste processo mostrará
claramente se A é inversível ou não e, se A fôr inversíyel, qual é a
inversa de P. Como já apresentamos o núcleo de um exemplo dêste
tipo de cálculo, contentar-nos-emos com um exemplo 2 X 2 ..
Exemplo IS. Suponhamos que F seja o corpo dos números
racionais e
A _
-
[2l -IJ.
3
Então

[i -! -1
3 Y2] (2) [1
Y1 ---t
3 Y2 ] (1)
O ~7 Y• - 2y2 ~
3 Y2 ] (2) [I O 1(y2 + 3y1)]
1 H2Y2 - yt) --, o 1 }(2y2 - Y1)
28 EQUAÇÕES LINEARES

onde se vê claramente que A é inversível e que

Deve ter ocorrido ao leitor que fizemos uma longa discussão


sõbre linhas de matrizes e pouco dissemos sôbre colunas. Concen-
tramos nossa atenção sôbre as linhas porque ist.o pareceu mais na-
tural do ponto de vista de equações lineares. Como não existe evi-
dentemente nada sagrado sôbre linhast a discussão das últimas se-
ções poderia muito be'm ter sido feita usando-se colunas em vez
de linhas. Se se define uma operação elementar sôbre colunas e uma
coluna eaui valência de maneira análoga à operação elementar SÔ•
bre linhas e à linha-equivalência é evidente que cada m X n matriz
será coluna equivalente a uma matriz Hcoluna-reduzida à forma em
escadaº. Além disso, cada operação elementar sô'bre colunas será
da forma A --+ A-E, onde E é uma n X n matriz elementar e assim
por diante.

Exercido&

1. Seja

A - [-l
_
~ ~ fl.
1 -2 1 íJ
Determinar uma matriz .R linha-reduzida à forma em escada que seja li-
nha-equivalente a A e uma 3 X 3 matriz invenivel P tal que R • P A.
l. Fazer o Excrcicio 1, com

A-[: -l -[l
3. Para cada uma das matrizes

[2 -1] [1-1 2]
4 -1
6 4
S
2
1
3
O
2 4
1 -2

usar operações elementares sôbre linhas para descobrir se é inversível e,


em caso ofirmativo, determinar a inversa.
4. Seja

A•[f ~ fl,
;J
O 1
MATRIZES INVERSÍVEIS 29

Para que X existe um escalar e tal que AX = cx·1


5. Suponhamos que A seja uma 2 X 1 matriz e que B seja uma 1 X 2 ma-
triz. Demonstrar que C - AB não é inversível.
6. Seja A uma n X n matriz (quadrada). Demonstrar as duas afirmações
seauintes:
(a) Se A é inversível e AB • O para alguma n X n matriz, então
B - O.
(b) Se A não é inversível, então existe uma n X n matriz B tal que
AB - O mas B - O.
7. Seja

A =- [~ !] •
Demonstrar, usando operações elementares sôbre linhas, que A é inversí--
vel se, e somente se, (ad - bc) ;é O.
8. Demonstar a seguinte generalização do Exercício 5. Se A é uma m X n
matriz, B é uma n X m matriz e n < m, então AB não é inversível.
9. Seja A uma m X n matriz. Mostrar que, por meio de um número finito
de operações elementares sôbre linhas e/ou colunas, pode-se passar de A
a uma matriz R, .. linha-reduzida à forma em escada.. e ..coluna-reduzida
à forma em escada", isto é, R,; - O sei ~ j, R;; • 1. 1 < i < r, R .. • O
se i> r. Mostrar que R e: P AQ, onde P é uma n X m matriz inversível
e Q é uma n X n matriz 1nversivet.
CAPÍTULO 2

ESPAÇOS VETORIAIS

2 .1 FApaços Vetoriais
Em várias partes da matemática, defrontamo-nos com um con-
junto, tal que é, ao mesmo tempo, significativo e interessante lidar
com Hcombinações lineares" dos objetos daquele conjunto. Por exem-
plo, em nosso estudo de equações lineares, foi bastante n~tural
considerar combinações lineares das linhas de uma matriz. É pro-
vável que o leitor tenha estudado cálculo e tenha já lidado com com-
binações lineares de funções; ist_o certamente ocorreu se êle estu-
dou equações diferenciais. Talvez o leitor tenha tido alguma expe-
riência com vetores no espaço euclidiano tridimensi_onal e, em par-
ticular, com combinações lineares de tais vetores.
A grosso modo, a álgebra linear é o ramo da matemática que
trata das propriedades comuns a sistemas algébricos constituídos
por um conjunto mais uma noç~o razoável de uma "combinação
linear" de elementos do conjunto. Nesta seção d~iniremos o objeto
matemático que, como a experiência mostrou, é a abstração mais
útil dêste tipo de sistema algébrico.
Defini~o. Um espaço vetorial (ou espaço linear) consiste do se-
guinte:
( 1) u.m corpo F de escalares;
(2) um corpo V de objetos, denominpdos vetores;
(3) uma regra (ou operação), dita adição de vetores, que associa
a cada par de vetores a, {3 em V um vetor a+ {3 em V, denominado a
soma de a e {3, de maneira tal que ·
(a) a adição é comunicativa, a + {3 = fJ + a;
+
(b)... a adição é associativa) a+ (fJ 1') = (a +J3) +-y;
(c) existe um único vetor O em V, denominado o vetor nulo,
tal que a + O = rx para todo a em V;
ESPAÇOS VETORIAIS 31

(d) para cada vetor a em V existe um único vetor - a em V


tal... q_!le
--
a + (- a) = O;
(4) uma regra (ou operação), dita multiplicação escalar, que as•
socia a cada esc,alar e em F e cada vetor a em V um vetor ca em V,
denominado o produto de e por a de maneira tal que
(a) 1 a = a para todo a em V;
{b) (c1c2)a = c1(c2a);
(e) c(a + (3) = ca + c{j;
(d) (ct + c2)a = eia + c2a.
É importante observar~ como afirma a definição, que um espaço
vetorial é um objeto composto de um corpp, um conjunto de "ve•
tores" e duas operações com certas propriedades especiais. O mesmo
conjunto de vetores pode ser parte de diversos espaços vetoriais
(ver Exemplo 5 abaixo). Qttando não há possibilidade de confusão,
podemos simplesmente nos referir ao espaço vetorial por V ou,
qu,ando fôr desejável especificar o corpo, dizer que V é um espaço
vetorial· sôbre o corpo F. O nome ºvetor" é aplicado aos elementos
do conjunto V mais por conveniência. A origem do nome é ericon-
traaa no Exemolo l abaixo, mas não se deye emprestar muita impor-
tância ao nome uma vez que a variedade de objetos que aparecem
como sendo os vetores em V podem não apresentar muita seme-
lhança- com qualquer conceito de vetor adquirido a priori pelo leitor.
Tentaremos indicar esta variedade através de uma lista de exemplos;
nossa lista será consideràvelmente ampliada assim que iniciarmos
o estudo de espaços vetoriais.
Exemplo 1. O espaço das n-uplas, F"'. Seja F um corpo arbitrá-
rio e seja V o conjunto de tôdas as n.. uplas a = (x1 , x2, ... , Xn)
de escalares Xi em F. Se fJ = (y1, Y2, ... , Yn) com Yi em F, a soma
de a e /3 é definida por
(2-1) a + /3 = (X1 + Y1, X2 + Y2, ... , X,. + Yn).
O produto de um escalar e por um vetor a é definido por
(2-2) ca = (exi, cx2 ... , ex,,).
O fato de que esta adição de vetores e multiplicação escalar satis-
fazem as condições (3) e (4) é fácil de verificar, usando as proprie-
dades semelhantes da adição e multiplicação de elementos de F.
Exemplo 2. O espaço das m X n matrizes sôbre o corpo F. Seja
F um corpo arbitrário e sejam m e n inteiros positivos. Seja V o
32 ESPAÇOS VETORIAIS

conjunto de tôdas as m X n matrizes sôbre o corpo F. A soma de


dois vetores A e B em Y é definida por
(2-3) (A + B)i; = À;i + Bii•

O produto de urp escalar e por A em V é definido por


(2-4) (cÀ)i; = CÀ ,;.

Exemplo 3. O espaço das funções de um ~njunto em um corpo.


Seja F um corpo arbitrário e seja S u~ conjunto não-vazio arbitrá-
rio. Seja V o conjunto das funções do conjunto S em F. A soma
de dois vetores/ e g em V é o vetor/+ g, isto é, a função de Sem
F, definida por
(2-5) (/ +
g) (s) = f(s) g(s). +
· O produto do escalar e pela função fé a função e/ definida por
(2-6) (<:/) (s) = cf(s).
Os exemplos anteriores são os casos particulares dêste. De fato,
uma n-upla de elementos de F pode ser considerada como uma f un-
ção do conjunto S dos inteiros 1, .. , , n em F. Anàlogamente, uma
m X n matriz sôbre o corpo F é uma função do conjunto S de pares
de inteiros (i,j), 1 < i < m, 1 < j < n, no corpo F. Para êste
terceiro exemplo indicaremos como se faz para verificar que as ope-
rações por nós definidas satisfazem· as condições (3) e (4). Para a
adição de vetores:
(a) Como a adição em Fé comutativa,
f(s) + g(s) + /(s)
= g(s)
para cada s em S, porta.nto as funções/ + g e g + f são idênticas.
(b) Como a adição em Fé associativa,
f(s) + [g(s) + h(s)] == /(s) + g(s) + J(s)
para cada s, portanto / + (g + h) e (/ + g) + h são
a mesma
função.
(e) O único vetor nulo é a função nula que associa a cada ele-
mento de S o escalar O em F.
(d) Para cada/ em V, (-f) é a função dada por
(-/) (s) = -J(s).
O leitor deverá achar fácil verificar que a multiplicação escalar sa-
tisfaz as condições de (4), fazendo como fizemos para a adição de
vetores.
ESPAÇOS VETORIAIS 33

Exemplo 4. O espaço das (unções polinomiais sôbre um corpo F.


Seja F um corpo e seja V o conjunto das funções/ de F em F que
são da forma
(2-7) /(x) = Co + CtX + ... + CnX"
onde co, eh ••. , Cn são escalares fixos em F (independentes de x).
Uma função dêste tipo é denominada uma função polinomial sôbre
F. Sejam a adição e multiplicação escalar definidas como no Exem ..
plo 3. Deve-se observar aqui que se/ e g são funções polinomiais
e e está em F, então/+ g e e/ são também funções polinomiais.
Exemplo S. O corpo C dos números complexos pode ser con-
siderado como um espaço vetorial sôbre o corpo R dos números
reais. De maneira mais geral, seja F o corpo dos números reais, e
seja V o conjunto das n~uplas a = (xi, ... , Xn) onde x 1 , ••. , x-.
são números complexos. Definamos a adição de vetores. e a multipli-
cação escalar por (2-1) e (2-2) 1 como no Exemplo 1. Desta forma
obtemos um espaço vetorial sôbre o corpo R que é bem diferente
do espaço C"' e do espaço R".
Há alguns fatos simples que decorrem quase imediatamente da
definição de um espaço vetorial e que passamos a deduzir. Se e é
um escalar e O é o vetor nulo, então, por (3) (e) e (4) (e),
cO = c(O + O) = cO + cO.
Somando -(cO} e usando 3(d) obtemos
(2-8) cO == º·
Anàlogamente, para o escalar O e qualquer vetor a temos que
(,2 ..9) 0a = o.
Se e é um escalar nio•nulo e a é um vetor tal que e a = O, então
por (2·8), c- 1(ca) = O. Mas
c- 1(ca) = (c- 1c)a = 1a - a
logot a = O. Assim, vemos que se e é um escalar e a um vetor tal
que ca = O, então e é o escalar nulo ou a é o vetor nulo.
Se a é um vetor arbitrário em V, então
O == 0a = (1 - l)a = 1 a + (-l)a = a + (-l)a
do que segue que
(2-10) (-l)a = -a.
34 ESPAÇOS VETO RIAIS

Finalmente, as propriedades associativa e comutativa da adição de


vetores implicam que uma soma envolvendo urn cert0 número de
vetores é independente da maneira pela qual êstes vetores são com-
binados ou associados. Por exemplo, se 0:1, a2. o::h a4 são vetores
em V, então
(a1 + a2) + (aa + 0:4) = [a2 + (ai + a:~)] + 0:4
e esta pode ser escrita sem confusão como
0:1 + a2 + a;i + a4.
Definição. Um vetor (3 em V é dito uma combina~o linear dos
vetores ai, • • . , an em V se existem escalares ci, ••. , Cn em F tais
que

Outras extensões da propriedade associativa da adição de ve-


tores e das propriedades distribuitivas (4) (e) e (4) (d) da multipli-
cação escalar aplicam-se a combinações lineares:
n n n
~ CiO:i
t .. 1
+ i
~ diCXi
=1
= !
i - l
(Ci + d/J:ji
n n
e !
{-1
Ciai = ,_,
! (cci)ai.

Certas partes da álgebra linear são intimamente relacionadas


com a geometria. A própria palavra "espaço" sugere algo ~amé-
trico, como o faz a pa]avra "'vetor" à maioria das pessoas. A me-
dida que prossigamos nosso estudo de espaços vetoriais, o leitor
,observará que grande parte da terminologia possui uma conotação
geométrica. Antes de concluirmos esta seção introdut6ria sôbre es-
paços vetori~is, seria bom discutirmos a relação dos espaços veto-
riais com a geometria até um ponto que indique pelo menos a ori-
gem do nome "'espaço vetorial". Esta será uma discussão breve· i.
intuitiva.
Consideremos o espaço vetorial R 3 . Na geometria analítica,
identificamos as ternas (x 1, x 2 , x 3 ) de números reais com os pontos
do espaço euclidiano tridimensional. Naquele contexto, um vetor é
usualmente definido como sendo um segmento de reta orientado
PQ, que vai de um ponto P do espaço a outro ponto Q. Isto signi-
ESPAÇOS VETORIAIS 35

fica uma formulação cuidadosa da idéia da ••flecha" de P a Q. Da


forma como os vetores são usados. pretende-se que êles sejam deter-
minados por seu comprimento~ direção e sentido. Assim, é neces-
sário identificar dois segmentos de reta orientados se êles têm o
mesmo comprimento. direção e sentido.
O segmento de reta orientado PQ, que vai do ponto P = (x 1,
X2, xa) ao ponto Q = (yi, Y2, y:i), tem o mesmo comprimento, di-
reção e sentido que o segmento de reta orientado que vai da ori-
gem O = (O, O, O) ao ponto (y1 - x1, y2 - x2, Ya - X:i). Além
disso, êste é o único segmento que emana da origem e tem o mes-
mo comprimento, direção e sentido que PQ. Assim, se resJlvermos
estudar apenas os vetores que emanam da origem, existe exata-
mente um vetor associado a cada comprimento, direç30 e sentido
dados.
O vetor OP. que vai da origem a P = (xi, x2, xa), é comple-
tamente determinado por P, portanto é possível identificar êste vetor
com o ponto P. Em nossa definição do espaço vetorial R 3 , os veto-
res são definidos corno sendo simplesmente as ternas (xi, x2, xa).
Dados pontos P = (xi, x2, xa) e Q = (y1, y2, y:J), a definição
da soma dos vetores OP e OQ pode ser dada geometricamente. Se
os vetores não são paralelos, então os segmentos O P e OQ deter-
minam um plano e êstes segmentos são dois dos lados de um para-
lelogramo naquele plano (ver Figura l). Uma diagonal dêste para-

S(X1 + Y1, X2 + Y2, X3 + Y3}


'\,

''
'

Figura l
36 ESPAÇOS VETORIAIS

lelogramo estende-se de O a um ponto Se a soma de OP e OQ é


definida como sendo o vetor OS. As coordenadas do ponto S são
(x1 + )'1, x2 + Y2, xa + y3), logo esta definição geométrica da
adição de vetores é equivalente à definição algébrica do Exemplo 1.
A multiplicação escalar tem uma interpretação geométrica mais
simples. Se e é um número rea], então, o produto de e pelo vetor
OP é o vetor que parte da origem, tem comprimento I e I vêzes o
comprimento de OP, mesma direção que OP e um sentido que con-
corda com o de OP se e > O e é oposto ao de OP se e< O. Esta
multiplicação escalar produz exatamente o vetor OT onde T = (cxi,
cx2, cxa) e ·é portanto compatível com a defini(ão algébrica dada
para R 3 •
De vez em quando, o leitor provàvelmente achará útil "pensar
geometricamente" sôbre espaços vetoriais, isto é, desenhar figuras
para uso próprio para ilustrar e motivar algumas idéias. Na ver•
dade deve fazer isto. Contudo, ao fazer tais ilustrações, deve ter em
mente que,- por estarmos tratando de espaços vetoriais como siste-
mas algébricos, tôdas as demonstrações que fizermos serão de na-
tureza algébrica.

Exerciclos
t. Se Fé um corpo, verificar que F" (tal como definido no Exemplo 1) é
um espaço vetorial sôbre o corpo F.
2. Se V é um espaço vetorial sôhre o corpo F. verificar que
(a, + a~) + (a 3 + a~) - [ai + (a + «1)] + a~
3

para todos vetores a, 1 a,, a., e a. em V.


1

3. Se C é o corpo dos números complexos, quais vetores em C J são combi•


nações lineares de (1, O, - J)t (Ot 1, 1) e (1, 1, 1) '!
4. Seja V o conjunto de todos os pares {x, y) de números reais e seja F o
corpo dos números reais. Definamos
(X1 Y) + (X1, Y1) - (x + Xi, Y + Y1)
c(x, y) - (ex. y}.
JI, com estas operações. é um espaço vetorial sôbre o corpo dos números reais?
S. Seja V o conjunto de todos os pares (x, y) de números reais e seja F o
corpo dos números reais. Definamos
(x, y) + (xi, Y1) = (Jy + 3yz. - x - x,)
c(x, y) = (ky, --ex).
Verificar que V1 com estas operações, não é um espaço vetorial sôbre o
corpo dos números reais.
SUBESPAÇOS 37

2. 2 Subespaços
Nesta seção introduziremos alguns conceitos básicos no estudo
dos espaços vetoriais.
Definição. Seja V um espaço vetorial sôbre o corpo F. Um sub-
espaço de V é um subconjunto W de V que é um espaço 'vetorial
sôbre F com as operações de adição de vetores e multiplieação esca-
lar de V.
Uma verificação direta dos axiomas para um espaço vetorial
mostra que o subconjunto W de V é um subespaço se para todos
a e /j em W o vetor a + /j está ainda em W; o vetor nulo está em
W; para todo a em W o vetor (-a) está em W; para todo a em W
e todo escalar e o vetor e a está em w; A comutatividade e associa-
tividade ·da adição de vetores e as propriedades (4) (a) 1 (b), (e) e
(d) da multiplicação escalar não precisam ser verificadas, uma vez
aue são propriedades das· operações em V. Podemos simplificar
ainda mais as coisas.
Teorema 1. Um subconjunto não-vazio W de V. é um subespaço
de V se, e somente se, para cada par de vetores a, fl em W e cada es-
calar e em F, o vetor ca + tJ está em W.
Demonstração. Sui,onhamos que W seja um subconjunto não-
-vazio de V tal que e a + fj pertença a W para todos os vetores
i:t., fj em W e todos escalares e em F. Como W é não-vazio, existe
um vetor p em W, logo (-1) p + p = O está em W. ·Então se a
é um vetor arbitrário em W e e um escalar arbitrário, o vetor ca
= ea + O está em W. Em particular (-l)a = -a está etn W.
Finalmente se a e fJ estão em W, então a + fJ = 1 a + fJ está em
W. Assim. W é um subespaço de V.
Reciprocamente. se W é um subespaço de V, a e fJ estão em
W e e é um escalar, certamente e a + fJ está em W.
Exemplo 6.
(a) Se V é um espaço vetorial arbitrário 1 V é um subespaço de
V; o subconjunto constituído somente pelo vetor nulo é um sub-
espaço de V, denominado o subespaço nulo de V.
(b) Em F", o conjunto das n-uplas (Xt, .•. , Xn) com x1 = O
é urn subespaço: contudo, o conjunto das n-uplas com x 1 = 1 + x 2
. não é um subespaço (n > 2).
(e) O espaço das funções polinomiais sôbre o corpo F é um
subespaço do espaço de tôdas as funções de F em F.
38 ESPAÇOS VETORIAIS

(d) Uma n X n matriz (quadrada) A sôbre o corpo F é simé•


trica se A;; =· A;i para todos i e j. As matrizes simétricas formam
um subespaço do espaço de tôdas as n X n matrizes sôbre F.
(e) Uma n X n matriz (quadrada) A sôbre o corpo C dos nú-
meros complexos é hermitiana (ou auto-adjunta) se
Âjk = A,..i
para todos j, k, sendo que a barra indica conjugação complexa.
Uma 2 X 2 matriz é hermetiana se e somente se é da forma

[
Z , X + i_V]
X - lY w
onde x, y, z e w são números reais. O conjunto de tôdas as matrizes
hermitianas não é um subespaço do espaço de tôdas as n X n ma-
trizes sôbre C. De fato, se A é hermitiana., todos os elementos A11,
A22t ••. , de sua diagonal são números reais mas os elementos dia-
gonais de iA em geral não são reais. Por outro lado, verifica-se fà-
cilmente que o conjunto das n X n matrizes hermitianas complexas
é um espaço vetorial sôbre o corpo R dos números reais (com as
operações usuais).
Exemplo 7. O espaço-solução de um sistema de equações linea..
res homogêneas. Seja A uma m X n matriz sôbre F. Então o con-
jünto de tôdas as n X l matrizes - (cplunas) X sôbre F tais que
AX = O é um subespaço do espaço de tôdas as n X l matrizes
sôbre F. Para demonstrar isto precisamos mostrar que A(cX + Y} = O
para AX = O, A Y = O e e um escalar arbitrário em F. Isto decorre
imediatamente do seguinte fato geral:
Lema. Se A é uma m X n matriz sobre F e B, C são n X p
matrizes sôbre F, então
A(dB + C) = d(AB) + AC
para todo escalar d em F .
.Demonstração. [A(dB + C)]ij == :t Àik(dB
I:
+ C)•j
- }; (dAuiB1c; + Â;1cC1c;)
1:

- rn; Ài1eB1; + 2-: Aui:C1;)


1: 1:

- d(AB)i; + (AC)i;
- [d(AB) + AC]i;.
SUBESPAÇOS 39

Anàlogamente, pode-se mostrar que (dB + C)A - d(BA) + CA,


se as somas e produtos de matrizes estão definidos.
Teorema 2. Seja V um espaço vetorial sóbre o corpo F. A interw
seção de uma coleção arbitrária de subespaços de V é um subespaço
de V.
Demonstração. Seja { H'n} uma coleção de subespaços de V e
seja W = r, Ili
Wn a sua interseção. Recordemós que W é definido
como sendo o conjunto dos elementos pertencentes simultâne3mente a
Wa (ver Apêndice). Como cada W11 é um subespaço, todos contem
o vetor nulo. Assim o vetor nulo está na interseção W e W é não
vazio. Sejam a e (j vetores em W e seja e um escalar. Pela definição
de W, tanto a como fj pertencem a cada W,, e, como cada w. é
um subespaço, o vetor (e a + {3) está em todo Wa, Assim, (e a+ fJ)
está em W. Pelo Teorema 1, W é um subespaço de V.
Do Teorema 2 decorre que se S é uma coleção arbitrária de
vetores em V, então existe um menor subespaço de V que contém
S, isto é. um subespaço que contém Se que está contido em todos
os outros subespaços que contêm S.
Defini~o. Seja S um conjunto de vetores num espaço vetor;aJ V.
O subespaço gerado por S é definido como sendo a interseção W de
tod,os os subespaços de V que contêm S. Quando S é um conjunto /i•
nito de vetores, S = {at, a2, ... ,an}, denominaremos W simples-
mente o subespaço gerado pelos vetores a1, 0:2, •.. , ª"'
Teorema 3. O subespaço gerado por um subconjunto nõo vazio S
de um espaço vetorial V é o conjunto de tôdas as combinações lineares
de vetores em S.
Demonstração. Seja W o subespaço gerado por S. Então, cada
combinação linear
cr = X1a1 + X2a2 + ... + Xma'"
de vetores a1. a2, .•. , 0!111 em S evidentemente está em W. Assim, W
contém o conjunto L de tôdas as combinações lineares de vetores
em S. O conjunto L, por outro lado, contém S e é não vazio. Se
a, fJ pertencem a L, então a é uma combinação linear,
a = X1a1 + x2a2 + ... +
x.am
de vetores ai em Se 13 é uma combinação linear
f3 = Y1fl 1 + Y2fJ2 + . . . + y,./j,.
de vetores (J1 em S. Para cada escalar e,
40 ESPAÇOS VETORIAIS

n
'"

Logo ca + f3 pertence a L. Assim, L é um subespaço de V.


Mostramos acima que L é um subespaço de V que contém Se
também que todo subespaço que contém S contém L. Decorr~ que
L é a interseção de todos os subespaços que contêm S, isto é, que
L é o subespaço gerado pelo conjunto S.
Definição. Se S1, S2, ... , S~ são subconjuntos de um espaço
vetorial V, o conjunto de tôdas as somas
a1 + + ... +
a2 a,t

de vetores x1 em Si é dito a soma dos subconjuntos S1, S2, ... , SJ: e


é indicado por

ou por
~
i; S1.
t• l

Se Wit W2, ... , Wt são subespaços de V, então vê-se fàcil-


mente que a soma
w+ Wi + W2 + ... + wk
é um subespaço de V que contém cada um dos subespaços W,.
Disto decorre, como na demonstração do Teorema 3, que W é o
subespa:ço gerado pela reunião de W1, W2, ... , W.t,
Exemplo 8. Seja F um subcorpo do corpo C dbs números com-
plexos, Suponham~s que
a1 == (1, 2, O, 3, O)
a2 = (O, O, l, 4, O)
a3 == (O, O, O, O, 1).
Pelo Teorema 3, um vetor a está no subespaÇ'O W de F 5 gerado por
ai, at2, aa sê, e somente se, existem escalares c1, c2, ca em F tais que
a == c1a1 + c2a2 + caaa.
Portanto, W consiste de todos os vetores da forma
a = (c1, 2c1, c2, 3c1 + 4c2, ca)
onde c1, c2, ca são escalares arbitrários em F. W pode ser descrito
de outra forma como sendo o conjunto de tôdas as quíntuplás
a = (x1, x2, xa, X4, ~
SUBESPAÇOS 41

com Xi em F tais que


X2 = 2Xt
X4 = 3x1 + 4xa.
Assim, (-3, -6, 1, -5, 2) está em W, enquanto que (2, 4, 6, 7, 8)
não está.
Exemplo 9. Seja F um subcorpo do corpo C dos números com-
plexos e seja V o espaço vetorial das 2 X 2 matrizes sôbre F. Seja
W1 o subconjunto de V constituído por tôdas as matrizes da forma

[: ~]
onde x, y, z são escalares arbitrários em F, Finalmente. seja W2 o
subconjunto de V constituído por tôdas as matrizes da forma

onde x e y são escalares arbitrários em F. Então, W1 e· W2 são sub-


espaços de V. Além disso
V= Wi + W2
pms
.

O subespaço W1 () W2 consiste de tôdas as matrizes da forma

[~ gJ.
Exemplo 10. Seja A uma m X n matriz sôbre um corpo F. Os
vetores.linhas de A são os vetores em F dados por a; = (A ih ••• ,
11

Âân), í = I, ...• m. O subespaço de F" gerado pelos vetores-li-


nhas de A é denominado o espaço-linha de A. O subespaço considerado
no Exemplo 8 é o espaço•linha da matriz
l 2 O 3
A= [ 0 0 1 4 0 •
º]

O O O 1
Êle também é o espaço•linha da matriz

B=[i
_-4
i! º]34 O
O
-8 1 -8 O
1 •
42 ESPAÇOS VETORIAIS

Exemplo 11. Seja V o espaço das funções polinomiais sôbre F.


Seja S o subconjunto de V constituído pelas funções polinomiais
/o, /1, /2,.• .. ·, definidas por
fix) = x", n = O, I, 2, ...
Então V é o subespaço gerado pelo conjunto S.

Exercicios
1. Quais dos seguintes conjuntos de vetores a - (a ..... , a"') em R.a são
subespaços de R"' '! (,r > 3)
(a) todos a tais que ul· > O;
(b) todos a tais que u. + 3aJ • aJ;
(e) todos a tais que u, - a:;
(d) todos o: tais J que a ,u = O;
(e) todos a tais que x a, seja racional.
2. Seja V o espaço vetorial (real) de tôdas as funções .f de R em R. Quais
dos se1uintes conjuntos de funções são subespaços de V'!
(a) tôdas / tais que /(x 3) = J(x 2) ;
(b) tôdas .f tais que /tO) .... /(1);
(e) tôdas / tais que /(3) ""' J + /(-5);
(d) tôdas f tais que /(-1) - O;
(e) tôdas / que são contínuas.
3. O vetor (3, -1, O, -1) está no subespaço de R-' gerado pelos vetores
(2, --1, 3, 2), (-1, 1, 1, -3) e (1. 1, 9, -Sr!
4. Seja W o conjunto de todos os (x., x,, x 3, x,., x 5) em R' que satisfazem
2x l - X J + 1x J - X.. =o
Xi + ~XJ - X 5 ..,. 0
9x 1 - 3x 2 + 6X J ~ 3x, -
3
Jx 5 = O.
Determinar um conjunto finito de vetores que aere W.
5. Seja F um corpo e seja n um inteiro positivo (,, > 2). Seja V o espaço
vetorial das ,r X n matrizes sôbre F. Quais dos seguintes conjuntos de ma..
trizes A em V são subespaços de V'!
{a) tôdas A inversiveis;
(~) tôdas A nãtrinversíveis;
(e) tõdas A tais que AB -= BA, onde B é uma certa matriz fixa em V;
(d) tôdas A ta.is que A 2 = A.
6i. (a) Demonstrar que os únicos subespaços de R 1 são R 2 e o subespaço
nulo.
(b) Demonstrar que um subespaço de R• ou é R 2, ou é o subespaço
nulo ou então consiste de todos os múltiplos escalares de um certo vetor
fixo em R 2 • (O último tipo de subespaço é (intuitivamente) uma reta pela
origem.)
(e) Você é éa.paz de descrever os subespaços de RJ'!
7. Sejam W1 e Wi subespaços de um espaç:o vetorial V tais que a reunião
de w. e W, também seja um subespaço. Demonstrar que um dos espaços
w. está contido no outro.
BASES E DIMENSÃO 43

8. Seja V o espaço vetorial das funçÕCS"de R em R; seja Vp o subconjunto


das fúnções pares, /(-x) = /(x); seja Vi o subconjunto das funções fm-,
pares. /(-x) = - /(x).
(a) Demonstrar que Vp e V; são subespaços de V.
(b) Demonstrar que V,. + V; = V.
(e) Demonstrar que Vp , \ V; = {O}.
9. Sejam W 1 e W :1 subespaços de um espaço vetorial V tais que W • + W
J -V
e w. n Wi = {O}. Determinar que para cada vetor a em V existem ve-
tores bem determinados a 1 em W 1 e a z em W 1. tais que a = a 1 + a~-

2. 3 Bases e Dimensão
Passamos agora à tarefa de atribuir uma dimensão a certos
espaços vetoriais. Apesar de associarmos usualmente '"dimensão''
a algo geométrico, precisamos encontrar uma definição algébrica
adequada da dimensão de um espaço vetorial. Isto será feito atra-
vés do conceito de uma base para o espaço.
Definição. Seja V um espaço vetorial sobre F. Um subconjunto
S de V é dito linearmente dependente (ou, simplesmente, dependente)
se existem vetores distintos ai, a2, ••. , an em S e escolares c1, c2,
••• , Cn em F, não todos nulos, tais que
C1a1 + C2a2 + , . , + CnOn = O.
Um conjunto que não é linearmente dependente é dito linearmente iode--
pendente. Se o conjunto S contém apenas um número finito de vetores
a1, a:2, ... , a:,1 dizemos, às vêzes, que ah a2, ... ;an são dependentes
(qu independentes) em vez de dizer que Sé dependente (ou independen~
te). Decorrem fàcilmente da definição as conseqüências seguintes:
(a) Todo conjunto que contém um conjunto linearmente depen-
dente é linearmente dependente.
(b) Todo subconjunto de um conjunto linearmente independente é
Jinearmen te independe,ue.
(e) Todo conjunto que contém o vetor nulo é linearmente depen-
dente, pois 1 . O = O.
(d) Um conjunto S de vetore., é linearménte independente se e
somente se todo subconjunto finito de S é linearmente independente,
isto é, se e somente se para quaisquer vetores distintos a1, ... , ª"
em S c1a1 + ... + Cna" = O implica que cada Ci = O.
Exemplo 12. Seja F um subcorpo do corpo dos números com•
plex.os. Em Fa os vetores
a1 - (3, O, -3)
az - (-1, 1, 2)
44 ESPAÇOS VETORIAIS

a3 = ( 4, 2, -2)
a4 = ( 2, 1, 1)
são linearmente dependentes, pois
2a1 + 2a2 - aa O. a4 + = O.
Os vetores
E1 = (1, o, O)
E2 = (O, 1, O)
E3 = (O, o, 1)

são linearmente independentes.


Definição. Seja V um espaço vetorial. Uma base de V é um con-
junto linearmente independente de vetores em V que gera V.
Exemplo 13. Seja F um corpo e, em Fn, s~ja S o subconjunto
constituído dos vetores E1, E2, ••• , E,. definidos por
EJ = (1, O, O, ... ' O)
E2 = (O, 1, o, ... ' O)
.. 1 • • • • • • • ...

E,. = (O, o, O, . . . , 1).


Sejam xi, x2, ..• , x~ escalares em F e coloquemos a = x1e1 +
+ X2E2 + ... + XnEn, Então

(2-12) a = (Xt, X2, • , • , Xn).

Isto mostra que Et, ••• ' f,a geram pn_ Como a = o se e somente se
xi = X2 = . . . = Xn = O, os vetores E1, ••• , e,l são linearmente
independentes. O conjunto S = {e:1, ••• , e"} é portanto uma base
de F". Denominamos esta base particular a base canônica de F•.
Exemplo 14. Seja F um subcorpo do corpo dos números com-
plexos. Usando a notação do &xemplo 11 consideraremos o subes-
paço V do espaço das funções polinomiais sôbre F que é gerado pelas
funções,/0, /1t /2. Suponhamos que co, ci, c2 sejam escalares em F
tais que
. cofo + c1J1 + c2/2 = O.
Isto significa que para cada x em F,
Co + C1X + C2X 2 0. =
Tomando x = O, vemos que c0 = O e, fazendo x = l ex = -l,
obtemos as equações
Ct + C2 = 0
-ci + c2 = O.
BASES E DIMENSÃO 4S

Somando e subtraindo, concluímos que 2c2 = O e 2ct = O. donde


concluímos que c1 ··· O e c2 = O. Assim as funções Jo. /1, / 2 são li-
nearmente independentes e formam uma base de V. Posteriormente,
mostraremos que o conjunto infinito constituído por tôdas as fun-
ções f .. , n = O, l, 2, ... , é uma base do espaço de tôdas as fun-
ções polinomiais sôbre F. Quando houvermos feito isto. teremos um
exemplo de uma base infinita para um espaço vetorial. Notemos
que, apesar de
{/o, /1, /2, /a, ... }
ser um conjunto infinito que é uma base para o espaço das funções
polinomiais sôbre F, isto não quer dizer que estejamos considerando
combinações lineares infinitas. Cada função polinomial será uma
combinação linear de um certo número finito das funções /n,
Teorema 4. Seja V um espaço vetorial gerado par um conjunto
finito de vetores fJ1, /32, ... , Pm, Então, todo conjunto independente
de vetores em V é finito e contém no máximo m elem€J1tos.
Demonstração. Para demonstrar o teorema basta mostrar que
todo subconjunto S de V que contém mais de m vetores é linear..
mente dependente. Seja S um tal conjunto. Em S existe.m vetores
distintos a1, a2, ... , an com n > m. Como /31, ... , f3m geram V
existem escalares A;1 em F tais que
m
a J. -- y
-
AIJ/'JI•
.. A.
i • l

Para n escalares arbitrários X1, x2, , .. , Xn temos


n
X1a1 + , , , + X,ia,, = 2; XjCl-:}
J "" l
n m
= i Xi r Àij/Ji
J=l i-1
n m
= ~ 2; (AijX))lli
J•l 1=1

Como n > m~ o Teorema 6 do Capítulo l implica que existem esca-


lares x1, x2, ... , x" não todos nulos~ tais que
"? Âi;Xi = 0, 1< i < m.
i-1
46 ESPAÇOS VETORIAIS

Logo, X1a1 + x2a2 + . . . + x,..a" = O. Isto mostra que S é um


conjunto linearmente dependente.
Definição. Um espaço vetorial V é de dimensão finita se é/e pos•
sui uma base finita.
Corolário 1. Se V é um espaço vetorial de dimensão finita, então
duas quaisquer bases de V têm o mesmo número (finito) de e/emen10s.
Demonstração. Sendo de dimensão finita, V possui uma base
finita
{/31, J32, •", J3m} •
Pelo Teorema 4, tôda base de V é finita e contém no máximo m
elementos. Assim, se { a1, a2, ... , an} é uma base, n < m. Pela
mesma razão, m < n. Logo m = n.
Definição. Se V é um espaço vetorial de dimensão finita, a di ..
mensio de V é definida como sendo o número de elementos de uma
base de V. Indicaremos a dimensão de um espaço vetorial V de dimen•
são finita por dim V.
Exemplo 15. Se F é um corpo, a dimensão de Fn é n, pois a
base canônica de F" contém n vetores.
Corolário 2. Seja V um espaço vetorial nMdimensional. Então
(a) todo conjunto de vetores em V que contém mais de n vetores
é linearmente dependente.
(b) nenhum conjunto contendo menos de n vetores pode gerar V.
Lema. Seja S um subconjunto linearmente independente de um
espaço vetorial V. Suponhamos que {3 seja um vetor em V que não
esteja no subespaço gerado por S. Então o conjunto obtido acrescen-
tando·se /3 a S é linearmente independente.
Demonstração. Suponhamos que a 1 , ••• , ª"' sejam vetores dis-
tintos em S e que
C1a1 + ... + c'"am + bfJ == O.
Então b = O, caso contrário

B = ( ~) a1 + . . . + (- cbm ) a,.

e /J estaria no subespaço gerado por S. Assim, c1a1 + ... +


+ e"'ª"' = O, e como S é um conjunto linearmente independente,
cada c1 = O.
BASES E DIMENSÃO 47

Teorema 5. Se W é um subespaç,o de um espaço vetorial V de


dimensão finita, todo subconjunto de W que é linearmente indepen-
dente é finito e é parte de uma base (finita) de W.
Demonstração. Suponhamos que So seja um subconjunto de W li-
nearmente independente. Se S é um subconjunto de W linearmente
independente contendo So, então S também é um subconjunto de W
linearmente independente; como V é de dimensão finita, S contém no
máximo dim V elementos. Portanto, existe um subconjunto S de W
linearmente independente que é maxima I e contém Se. Como S é
um subconjunto de W linearmente independente e maximal conten-
do So, o lema anterior mostra que W é o subespaço gerado por S.
Logo, S é uma base de W e o conjunto original Sn é parte de uma
base de W.
Corolário 1. Se W é um subespaço próprio de um espaço vetorial
V de dimensão finita, então W é de dimensão.finita e d;m W < dim V.
Demonstração. Pode1nos supor que W contém u:n vetor a ~ O.
Pelo Teorema 5 e sua demonstração, existe uma base de W que
contém a e no máximo dim V elementos. Logo W é de dimensão
finita e dim J,V -s; dim V. Como W é subespaço próprio; existe
um vetor /3 em V que nã-o está em W. Acrescentando fJ a uma base
arbitrária de W obtemos um subconjunto de V linearmente inde-
pendente. Portanto dim W < dim V.
Corolário 2. Num espaço vetorial V de dimensão finita todo con-
junto não-vazio de vetores linearmente independentes é parte de uma
base.
Corolário 3. Seja A uma n X n matriz sôbre um corpo F e supo-
nhamos que os vetores-linhas de A formem um conjunto de vetore$
de F linearmente independentes. Então A é i'lversrvel.
11

Demonstra~·ão. Sejam ai, a2 ...... a,~ os vetores-!inhas de A e


suponhamos que W seja o subespaço de pn gerado por a 1, a 2 , ••• crn.
Como ai, a2, ... , an são linearmente independentes, a dimensão
de W é n. O Corolário 1 mostra agora que W = Fn. Logo, existem
escalares Bu em F tais que
n
ti = 2;. Biia;, 1< i < n
J-1

onde { t 1 , t2, ••• , tn} é a base canônica de Fn. Portanto, para a


matriz B com elementos Bíi, temos
BA = /.
48 ESPAÇOS VETORIAIS

Teorema 6. Se W1 e- W 2 são subespaços de dimensão finita de


um espaço vetorial V, então W1 + W2 é de dimensão finita e
dim Wi + dim W2 = dim (W1 ('\ W2) + dim (W1 + W2).
Dem'Onstração. Pelo Teorema S e seus carolários, W1 r\ W2 tem
uma base finita {a 1 , ••• , a,..} que é parte de uma base
{ a1, ... , a,.., 131, ... , lim} de W1
e parte de uma base
{ai, ... , p,., 'Yt, •.• , 'Yn.} de W2.
O subespaço w, + W2 é gerado pelos vetores
41, , • • , «k, /31, • , • , fJm, 'Yl, • • • , 'YI
e êstes vetores formam um conjunto independente. De fato, supo-
nhamos que

Então

o que mostra que l: z,.-yr pertence a W1. Como I z,.-y,. pertence


também a W2, segue que

para certos escalares ci, ... , c,r. Por ser o conjunto

{ a:1, • • · t ak, 'Yl, · · •, 'Yn}

independente, cada um dos escalares z,. = O. Portanto,

e como

também é um conjunto independente, cada Xi = O e cada Yi - O.


As1im,

{ a:1, · • • , ak, fJi, • • · , fJ"', 'Yl, • • • , 'Y"'}


BASES E DIMENSÃO 49

é uma. base de W1 + W2. Finalmente


dim W1 + dim W2 ·= (k + m) + (k + n)
- k + (m + k \t- n)
=== dim ( W1 () W2) + dim (W1 + W2).
Exercidos
t. Demonstrar que, se dois vetores são linearmente dependentes, um deles
é um múltf pio escalar do outro.
1. Os vetores
«1 - (1. 1, 2, 4) a2 - (2, -1, -5, 2)
ª" - (1, -1. -4, 0) . a 4 - (2, 1, l, 6)
são linearmente independentes em R''?
3. Determinar uma base do subespaço de R' aerado pelos quatro vetores
do Exercido 2.
4. Mostrar que os vetores
a1 = (1, O, -]), a:J - (1, 2. l), O!J - (0, -.3, 2)
formam uma base de R J. Exprimir cada um dos vetores da base canônica
como combinações lineares de a., a~, e ªJ•
5. Determinar três vetores em R.t que sejam linearmente dependentes e tais
que dois quaisquer d@les sejam linearmente independentes.
6. Seja V o espaço vetorial das 2 X 2 matrizes sõbre o corpo F. Demons•
trar que V tem dimensão 4 mostrando uma base de V que tenha 4 elementos.
7. Seja V o espaço vetorial do Exerc[cio 6. Seja W1 o conjunto das matri-
zes da torma·
[; -~]
e seja W I o conjunto das matrizes da forma

(a) Demonstrar que W 1 e w~ são subespaços de V.


(b) Determinar as dimensões de W1o W,. W1 W, e W1 + n W1.
8. Novame11te, seja Y o es~ço das 2 X 2 matrizes sôbre F. Determinar
uma base { A1 , A2, A 1 • A"}de V tal que A: • A, para cada j.
9. Seja V um espaço vetorial sôbre um subcorpo F do corpo dos números
complexos. Suponhamos que a, fJ e 1' sejam vetores de V linearmente inde-
pendentes. Demonstrar que (a + /J), (fJ + -y) e h + a) são linearmente inde-
pendentes.
10. Seja Y um espaço vetorial sôbre o corpo F. Suponhamos que exista
um número finito de vetores «1t ••• , «, de Y que gerem V. Demonstrar
que f/ é de dimensão finita.
11. Seja V o conjunto du 2 X 2 matrizes A. com elementos compltxoa sa•
tisfazendo A11 + A,u - O.
50 ESPAÇOS VETORIAIS

{a} Mostrar que V é um espaço vetorial sôbre o corpo dos números


reais, com as operações usuais de adição de matrizes e multiplicação de
uma matriz por um escalar.
(b) Determinar uma base dêsse espaço vetorial.
(e) Seja W o conjunto de tôdas as matrizes A em V tais que
AJ, = -Au (a barra indica conjugação completa). Demonstrar que W é
um subespaço de V e determinar uma base de W.
12. Demonstrar que o espaço das m X 11 matrizes sôbre o corpo F tem
dimensão mn, mostrando uma base para êste espaço.
13. Discutir o Exercício 9, para o caso de V ser um espaço vetorial sôbre
o corpo formado por dois elementos descritos no Exercido 5, Seção 1 .1 (p. 5).
14. Seja V o conjunto dos números reais. Consideremos V como um es-
paço vetorial sôbre o corpo dos números racionais, com as operações usuais.
Demonstrar que êste espaço vetorial não é de dimensão finita.

2. 4 Coordenadas
Uma das características úteis de uma base (1\ de um espaço
n-dimensional V é essencialmente que ela nos permite introduzir
coordenadas em V análogas às "coordenadas naturais" Xi de um
vetor a = (xi, ... , Xn) do espaço F". Em assim sendo, as coorde-
nadas de um vetor a de V em relação à base CB serão os escalares
que servem para exprimir a como uma combinação linear dos veto~
res da base. Assim, gostaríamos de considerar as coordenadas na-
turais de um vetor a de pn como sendo definidas por a e pela base
canônica de F"; contudo, ao adotarmos êste ponto de vista preci~
sarnas ter um certo cuidado. Se

e m. é a base canônica de F", como são as coordenadas de a deter-


minadas por (ij e a? Uma maneira de formular a resposta é esta: Um
dado vetor a é expresso. de maneira única como uma combinação
linear dos vetores da base canônica, e a i-ésima coordenada Xi de
a é o coeficiente de Ei nesta expressão. Sob êste ponto de vista po-
demos dizer qual é a i-ésima coordenada, pois temos uma ordenação
"natural'' dos vetores da base canônica, isto é, te.mos uma regra
para determinar qual é o "primeiro" vetor da base, qual é o use-
gundo" e assim por diante. Se <B é uma base arbitrária do espaço
n-dimensional V, não teremos provàvelmente nenhuma ordenação
natural para os vetores de lB e será portanto necessário impormos
uma certa ordem sôbre êsses vetores antes de podermos definir
ua i-ésima coordenada de a em relação a CB".
Se Sé um conjunto com n elementos, o que é uma ordenação
dos elementos S? Existem muitas definições dêste conceito, apesar de
COORDENADAS 51

diferirem apenas superficialmente. Adotaremos a seguinte: Uma


s.
ordenação do conjunto de n elementos, é uma função do conjunto
dos inteiros positivos I. ... , n sôbre o conjunto S. Portanto uma
ordenação do conjunto é simplesmente uma regra para nos dizer que
elemento deve ser considerado como o primeiro elemento de S,
que elemento é segundo. etc. Uma ba!lie ordenada de um espaço
vetorial V de dimensão finita é uma base CB de V, mais uma cordena-
ção fixa dos elementos (vetores) de IB. Freqüentemente o que mais
convém é descrever essa base ordenada enumerando os vetores de
ei de uma maneira bem definida. Assim, diremos que
(B = { a 1, • • . i a,. }
é uma base ordenada de V, se ficar claro qual vetor do conjunto
/3 é o i-ésimo. ai.
Suponhamos agora que V seja um espaço vetorial de dimensão
finita sôbre o corpo F e que
ffi = { a. 1~ • • • • a,. }
seja uma base ordenada de V. Dado a: em V, existe uma única n-upla
(xi, ... , Xn) de escalares tal que
n
a = ~ X;a;.
i = l

A n-upla é única, pois, se tivéssemos

então
n
2: (X, - Zi:)a; = 0
í = l

e a independência linear dos a, nos diria que Xi - z i = O para


cada i. Denominaremos x; a i~ésima coordenada de a em relaçio à
base ordenada
<B == { a1, • , • • t ª" } .
Se

então
n
a + li - X (Xi + JiPi
' - 1
52 ESPAÇOS VETORIAIS

de modo que a i-ésima coordenada de (a +(:J) em relação a esta


base ordenada é (xi + yi). Anàlogamente, a i-ésima coo·rdenada de
(ca) é ex,. Devemos também notar que tôda n-upla (xi, ... , Xn)
de F 11 é a n-upla de coordenadas de algum vetor de V, a saber, o
vetor

Resumindo, cada base ordenada de V determina uma corres-


pondência bijetora
a -+ (xi, ... , x,.)

entre o conjunto dos vetores de Y e o conjunto das n~uplas de F•.


Esta correspondência tem a propriedade de que o correspondente
de (a + /3) é a soma em F" dos correspondentes de a e ~' e ·que
o correspondente de (ca) é o produto em F• do escalar e pelo cor-
respondente de a. ·
Poder-se-ia perguntar neste ponto por que não tomar simples-
mente uma base ordenada de V e descrever cada vetor de Y por sua
correspondente n-upla de coordenadas, visto que teríamos então a
conveni!ncia de operar apenas com n-uplas. Isto faria malograr nosso
objetivo, por duas razões. Primeiro, como indica a nossa definição
de espaço vetorial, estamos tentando aprender a raciocinar com es-
paços vetoriais como sistemas algébricos. Segundo, mesmo nos casos
em que usamos coordenadas, os resultados importantes decorrem
de nossa habilidade de mudar o sistema de coordenadas, isto é, mu-
dar a base ordenada.
Freqüentemente o mais conveniente será usar a matriz du coor-
denadas de a em relação à base ordenada <B:
X1

x-

em vez da n-upla (xi, •.. , x,.) das coordenadas. Para indicar que
esta matriz de c.oordenadas depende da base, usaremos o símbolo
[a]ll\
para a matriz das coordenadas do vetor a em relação à base orde-
nada s. Esta notação será particularmente dtil ao passarmos agora
a descrever o que acontece com as coordenadas de um vetor a quan-
do passamos de um.a base ordenada· a outra.
COORDENADAS 53

Suponhamos então que V seja 11-dimensional e que


(B = {a1, ... , an} e <B' = {at, ... , a~}
sejam duas bases ordenadas de V. Existem escalares Pi;; bem dei r-
minados, tais que
,.
(2-13) aí = }; P ,;ai. 1 <j < n.
i =l
Sejam xÍ, ...• x; as coordenadas de um dado vetor a em relação à
base ordenada m·. Então
a = X1a1
,,+ ... + x,,anI
f

l'I

= ~
~
I
X·a·
'./ J
I

J- 1
n 11
-- "" X~:I -~ p,.~
,,_,, ,,~
J..;,1 t-1
l'I /1
= 2: I (PuxJ)at
J-1 f • l

Portanto, obtL tos a relação

(2-14)

Como as coordenadas de a em relação à base orde-


xi, x2, ••• , Xn.
nada <B são determinadas de modo único, decorre de (2-14) que
ti

(2-15) Xi = ~ piJXj, l <i< n.


j • l

Seja P a n X n matriz cujo elemento i, j é o escalar P1; e sejam X


e X' as matrizes das coordenadas do vetor o: em relação às bases
·ordenadas d3 e; <B'. Podemos então reformular (2-1S) como
(2-16) X== PX'.
Como <i e Cf,' são conjuntos linearmente independentes, X= O se
e somente se X' = O. Assimt de (2-16) e do Teorema 7 do Capitulo
1, decorre que Pé inversível. Logo,
(2-17) X' = p- 1x.
54 ESPAÇOS VETORIAIS

Se usarmos a notação acima introduzida para a matriz das coorde-


nadas de um vetor em relação a uma base ordenada, então (2-16)
e (2-17) afirmam que
[a]ffi = P[a)(B,
e (a]CB1 = PP 1(a]ffi.
Portanto, a discussão precedente pode ser resumida como segue.
Teorema 7. Seja V wn espaço vetorial o-dimensional sôbre o corpo
F e sejam C8 e <B' duas bases ordenadas de V. Então existe wna única
n X n matriz P, necessàriamente inversível, com elementos em Fi tal
que
(a) [a]<B = P[a](B,
(b) [aJm, = ~ 1[a]ffi
para tod-o vetor a em V.
Para completar a análise acima demonstraremos também o re-
sultado que segue.
Teorema 8. Suponhamos que P seja uma n X n matriz inver-
sível s6bre F. Seja V um espaço vetorial n-dimensional sôbre F e sr!ja
<B uma base ordenada de V. Então, existe wna única base ordena-
da CB' de V tal que
{a) [aJm = P[a]CB'
(b) [aJm· = p~1(alm
para todo vetor a em V.
Demonstração. Seja ~ constituída pelos vetores a1, ... , ª"· Se
'.B' = {aí, ... , a~} é uma base ordenada de V para qual (a) é vá- a
lida, é claro que -
n
a} - 2: P ijO:i.
' - 1
Assim, basta-nos mostrar que os vetores aJt definidos por estas equa•
çõés, formam uma base. Seja Q = p- 1• Então
? Qjka} = X Qjk X Pi,a,
J j ~

- (~: P,iQik) al

a,
- X(~ P,jQik)
' j

= a4-.
COORDENADAS 55

Portanto, o subespaço gerado pelo conjunto


ffi , = { ai,, •.. ' a 'n }

contém <B, logo é igual a V. Assim, c:i\' é uma base e, de sua definição
e do Teorema 7, é evidente que (a) é válida, logo (b) também o é.

Exemplo 16. Seja F um corpo e seja

um vetor de F". Se cP, é a base ordenada canônica de F'\


(B = {Et, , , , , En } ,

a matriz das coordenadas do vetor a em·relação à base <B é dada por

[a]CR -

Exemplo 17. Seja R o corpo dos números reais e seja 9 um nú-


mero real fixo. A matriz

p = [cos 8 -sen
sen 8 cos ()
º]
é inversível e sua inversa é
p- 1 = [ cos sen(J
-sen (} cos 8
8].
Portanto, para cada 8, o conjunto <i' constituído pelos vetores (cos 8,
sen 8), (-sen 6, cos 9) é uma base de R 2 ; intuitivamente esta base
pode ser descrita como sendo a base obtida pela rotação de um ân-
gulo (J da base canônica. Se a é o vetor (x1, x:l), então

cos fJ sen
[a]m, = [ -sen 9 cos 9
fJ] [xi]
x2

ou
Xi - x 1 cos 8 + x2 sen 6
x~ - -x1 sen 9 + x2 cos 8.
56 ESPAÇOS VETORIAIS

Exemplo 18. Seja F um subcorpo do corpo dos números com-


plexos. A matriz

p = -
[-1g 4
2
o
-3
5-

.
8
-
é inversível e sua mversa é

p-1 -
--1o 2
l
:1
11-
T
a
til
.
o o 1
8-

Portanto, os vetores

ªt
I
= (-1, o, 0)
a~ = ( 4,
2, O)
a!i = ( 5, -3 ' 8)
formam uma base ffl' de F 3 • As coordenadas xí, x2, xs do vetor
C1 = (xi, x2, xa) em relação à base IB' são dados por

xJ]
[ =
X2
[-x\ + 2x
+ ,+ \ xal [
= o
,x1
-1 2
11] [ -]
2
fiX3
1

½
1
\'
X1

X2
_xa' O G81 Xa _ -8 -
Xa

Em particular,
(3, 2, -, 8) - -J0ai - ½aI - a3.

Exercicios
1. Mostrar que os vetores
ª1 = o. 1, ot o), a" - (0, ot 1, 1)
ªJ - (1, o, o, 4), a 4 - (O, O, O, 2)
formam uma base de R,.. Determinar as coordenadas de cada um dos VC•
tores da base canônica em relação à base ordenada { xu ª" o:J, a,.}.
2. Determinar a matriz das coordenadas do vetor (1, O, 1) em relação à
base de CJ constitufda pelos vetores (li, l, 0), (2t -1, 1), (O, 1 + i -O,
nesta ordem.
3. Seja <B - { a 1 , a~, a 3 } a base ordenada de R 3 constitu(da por
«1 • (1 1 O, -1), a, • (1, l, l), a3 • (1, O, O).
Quais são as coordenadas do vetor (a, b, e) em relação à base ordenada (B'!
'- Seja W o subespa;o de C3 aerado por a 1 • (1, O, I) eªª • (1 + /, 1, -1).
(a) Mostrar que a, e a, formam uma base de W.
RESUMO DE LINHA-EQUIVALÊNCIA S7

(b) Mostrar que os vetores /1 1 - (1, 1, O) e fJa - (1. i, 1 + ,) estão


em W e formam outra base de W.
(e) Quais são as coordenadas de a, e al em relação à base ordenada
{f11t fJa} de W?
5. Sejam a • (x 1 , Xa) e fJ • ÍY1, Ya) vetores de R1 tais que
X1Yi + x2Y l - O, xi + xJ • Y¾ + Y;- = J.
Demonstrar que CB • { a, fJ} é uma base de R '· Determinar as coordenadas
do vetor (a, b) em ·relação à base ordenada (B = {a, /3 }. (As condições
sõbre a e fJ dizem, geomêtricamente, que a e /J são perpendiculares e cada
um tem comprimento 1.)
6.- Seja V o espaço vetorial sõbre o corpo dos números complexos das fun•
ções de R em C, isto é, o espaço das funções definidas sõbre a reta real e
tomando valores complexos. Sejam J.(x) - 1, f.J..x) = e'.. , f,(x) - e-1z.
(a) Demonstrar que li, h e { 3 são linearmente independentes.
(b) Sejam g 1 (x) • 1, g:i(x) - cos g 3(x) =- sen x. Determinar uma 3 X 3
matriz P inversível tal que
~
Bi • t· P.-;fi.
i•l

7. Seja V o espaço vetorial (real) das funções polinomiai~ de R em R de


arau menor ou igual a 2, isto é, o espaço das func;ões / da forma
/(X) - l'o + C'1X + l'JXª.
Seja t um número fixo e definamos
K1(X) ,_ ]. ga(x) =- X + ,, KJ(x) _, (X + t)'.
Demonstrar que (8 = {g1 , 1/h x.1} é uma base de V. Se
f(x) • e., + C'1X + C1Xª
quais são as coordenadas de / em relação a esta base ordenada P?

2 . S Resumo de Linha-equivalência
Nesta seção utilizaremos alguns fatos elementares sôbre bases e
dimensão de espaços vetoriais de dimensão finita para completar
nossa discussão de linha-equivalSncia de matrizes. Lembramos que
se A é uma m X n matriz sabre o corpo F, os vetores-linhas de A
são os vetores ªh ••. , am em F" definidos por
ai == (An, ... , Âüt)
e que o espaço-linha de A é o subespaço de F• gerado por &tes ve-
tores. O pôsto-linha de A é a dimensão do espaço.linha de .A.
Se P é uma k X m matriz sôbre F, então o produto B = PA
é uma k X m matriz cujos vetores-linhas {j 1 , ••• , {jk são combina•
ções lineares
58 ESPAÇOS VETORIAIS

dos vetores-linhas de A. Portanto, o espaço-linha de B é um sub-


espaço do espaço-linha de A. Se P é uma m X m matriz inversível,
então B é linha-equivalente a A de modo que a simetria da linha..
-equivalência, ou a equação A = p- 1B, implica que o espaço-linha
de A também é um subespaço do espaço~Iinha de B.
Teorema 9. Matrizes linha-equivalentes possuem o mesmo es-
paço-linha.
Vemos assim que para estudar o espaço-linha de A podemos
estudar o espaço-linha de uma matriz linha-reduzida à forma em
escada que seja linha-equivalente a A. É o que passamos a fazer.
Teorema 10. Seja R uma matriz não-nuYa linha-reduzida à forma
em escada. Então os vetores-linhas não-nulos de R formam uma base
do espaço-linha de R.
Demonstração. Sejam PI, ... , Pr os vetores-linhas não-nulos de
R:
Pi = (Ril, , • • , Rin),
~ses vetores certamente geram o espaço-linha de R; precisamos
apenas demonstrar que êles são linearmente independentes, Como
R é uma matriz linha-reduzida à forma em escada, existem inteiros
positivos k1, ... , k, tais que, para i ..:S. r, tem-se
(a) R(i,j) = O, se j < ki
(2-18) (b) R(i, ki) = ôi;
(e) k, < ... < kr.
Suponhamos que tJ - (b 1 ••• , b,.) seja um vetor do espaço-linha
de R:
(2-19) f3 = CtPI + ... + C,.p ...
Afirmamos então que e; = b1t;, De fato, por (2-18)
r
bttj = 2; CiR(i,k;)
t•l

(2-20) = e;.
Em particular, se /j = O, isto é, se c 1p 1 + ... + c,.p,. == O, então
CJ é necessàriamente a k,-ésima coordenada do vetor nulo, de modo
que e; = O para j == I, ... , r. Assim Pt, ••• , p,. são linearmente
independentes.
RESUMO DE LINHA-EQUIVALÊNCIA 59

Teorema 11. Sejam m e n inteiros positivos e seja F um corpo.


Suponhamos que W seja um subespaço de Fn e que dim W < m. En-
tão, existe exatamente uma m X n matriz sóbre F. linha-reduzida
à forma em escada, cujo espa~·o-linha é W.
Demonstra<.;ão. Existe pelo menos uma m X n matriz linha-redu-
zida à forma em escada cujo espaço-linha é W. Como dim W < m,
podemos tomar m vetores a 1• • • • , am em W que geram W. Seja A
a m X n matriz com vetores-linhas a 1 , •.• , am e seja R uma matriz
linha-reduzida à forma em escada e linha-equivalente a A. Enfio,
o espaço-linha de R é W.
Seja agora R uma qualquer m X n matriz linha-reduzida à for-
ma em escada e com espaço-linha W. Mostraremos que R é deter-
minada de modo único pelo subespaço W. A descrição de R em
têrmos de W será feita como segue. Consideremos todos os vetores
fJ = (bi, ... , bn) em W. Se f3 ~ O, então a primeira coordenada
não-nula de f3 deve ocorrer em uma certa coluna t:
/3 = (O, ... , O, b,, .... bn), bt ~ O
Sejam k 1 , ••• , kr os inteiros positivos t tais que exista algum /3 ~ O
em W, cuja primeira coordenada não-nula ocorra na coluna t. Colo-
quemos os k1, ... , kr na ordem k1 < k2 < ... < kr. Para cada
inteiro positivo k. existirá um .e somente um vetor p. em W tal que
a k,-ésima coordenada de p, seja 1 e a ki-ésima coordenada de p.
seja O para i ;,é- s. Então, R é a m X n matriz cujos vetores-linhas
são Pl' ... ' Pr, o, ... ' O.
Tendo indicado como R será determinada a partir de W, pro•
cedemos como segue. Consideremos uma m X n matriz R arbitrá-
ria, linha-reduzida à forma em escada e com espaço-linha W. Se
ki, , .. , kr são as colunas distinguidas de R (2-18) e pi, ... , Pr,
são os vetores-linhas não-nulos de R, demonstraremos que ki, ... Prt
&ão exatamente como foram descritos no último parágrafo. Isto
mostrará que Ré a única m X n matriz linha-reduzida à forma em
escada cujo espaço•linha é W.
Pelo Teorema 10, os vetores-linhas não-nulos Pt, ... , p,. for•
mam uma base de W. Na demonstração do Teorema 10 observamos
que se fJ = (h1, ... , b,.) está em W.
/l = C1P1• + ... + c,p,.,
então Ci = b,u, isto é
r
(2-21)
1 .,.. 1
60 ESPAÇOS VETORIAIS

Assim, todo vetor /j está determinado se se conhecem as coordena-


das bkít i = 1, ... , r. Por exemplo, p, é o único vetor em W cuja
k,-ésima coordenada é 1 e cuja ki-ésima é O para i # s.
Supo!).hamos que /3 esteja em W e /3 #- O. Afirmamos que a pri-
meira coordenada não-nula de /3 ocorre em uma das colunas k,. Como

e fJ #- O, podemos escrever
T

(2-22) fJ = ,~... , b1uPi,


Das condições (2-18) tem-se que R,; = O se i > se j < k,. Por-
tanto,
~ = (0, ... , o, b1t., . ..• b,l), b,., #- O

e a primeira coordenada não-nula de f3 ocorre na coluna k ,.


Notemos que para cada k,, s = 1, ... , ,, existe um vetor em
W cuja primeira coordenada não-nula ocorre na coluna k,, a saber,
o vetor p,. Demonstramos assim que k 1 , ••• , kr são exatamente os
inteiros t tais que algum vetor não .. nulo em W possui sua primeira
coordenada não-nula na coluna t. Já ressaltamos o fato de que p,
é o único vetor em W cuja ki•ésima coordenada é 6úi.
Corot,rio. Cada m X n matriz A é linha-equivale~te a exata-
mente uma matriz linha-reduzida à forma em escada.
Demonstração. Sabemos que A é linha-equivalente a pelo menos
uma matriz R linha-reduzida à forma em escada. Se A é linha-equi-
valente a uma outra tal matriz R', então R é linha~equivalente a R';
logo, R e R' possuem o mesmo espaço-linha e são necessàriamente
idênticas.
Corolário. Sejam A e B m X n matrizes sôbre o corpo F. Então
A e B são linha-equivalentes se, e somente se, possuem o mesmo
espaço-linha.
Demonstração. Sabemos que se A e B são linha-equivalentes,
então possuem o mesmo espaço-linha. Suponhamos então que A e
B possuam o mesmo espaço-linha. Ora, A é linha~equivalente a uma
matriz R linha-reduzida à forma em escada e B é linha•equivalente
a uma matriz R' linha•reduzida à forma em escada. Como A e B
CÁLCULOS CONCERNENTES A SUBESPAÇOS 61

têm o mesmo espaço-linha, R e R' têm o mesmo espaço-linha. Por-


tanto, R = R~ e A é linha-equivalente a B.
Resumindo - se A e B são m X n matrizes sôbre o corpo F,
as seguintes afirmações são equivalentes:
(i) A e B são linha-equivalentes.
(ii) A e B possuem o mesmo espaço-linha.
(iii) B = PA, sendo P uma m X n matriz inversível.
Uma quarta afirmação equivalente é que os sistemas homogê-
neos AX = O e BX = O têm as mesmas soluções; contudo, ap~ar
de sabermos que a linha-equivalência de A e B implica que êsses
sistemas têm as mesmas soluções, o melhor parece ser deixar a de-
monstração da recíproca para mais tarde.

2•6 Cálculos Concernentes a Subespaços


Gostaríamos agora de mostrar como as operações elementares
fornecem um método padronizado de responder a certas perguntas
concretas concernentes a subespaços de F". Já deduzimos os fatos
de que precisaremos. ~les são aqui reunidos para conveni~ncia do
leitor. A discussão aplica-se a qualquer e~paço vetorial n-dimensional
sôbre o corpo F se se toma uma base ordenada <B, fixa, e se descreve
cada vetor a de V pela n-upla (x1, ... , Xn) que dá as coordenadas
de a em relação à base orden3:da <B.
Suponhamos que nos sejam dados m vetores a1, .•. , am em
F,._ Consiperemos as seguintes perguntas:
(l) Como se pode saber se os vetores ai, ... , am são linear-
mente dependentes? De maneira mais geral, como se determina a
dimensão do subespaço W gerado por êstes vetores?
(2) Dado (3 em Fn, como se pode saber se {j é uma combinação
linear de a 1, ••• , am, isto é, se fJ está no subespaço W?
(3) Como se pode fazer uma descrição explícita do subespaço W?
A terceira pergunta é um tanto vaga, pois não especifica o que
se quer dizer com uma "descrição explícita"; no entanto, esclare-
ceremos êste ponto fazendo o tipo de descrição que temos em mente.
Com esta descrição, as perguntas (l) e (2) podem ser respondidas
imediatamente.
Seja A a m X n matriz com vetores-linhas ª":
ai = (An, ... , A.,~).
Efetuemos uma seqüência de operações elementares sôbre linhas, co-
meçando com A e terminando com uma matriz R linha-reduzida à
62 ESPAÇOS VETORIAIS

forma em escada. Já explicamos anteriormente como fazer isto.


Neste ponto, a dimensão de W ( o espaço-l_inha de A) é evidente,
pois esta dimensão é simplesmente o número de vetores-linhas não-
.. nulos de R. Se PI> ••• , Pr são os vetores-linhas não-nulos de R,
então O:l = { P1 • .•. , p, } é uma base de W. Se a primeira coorde-
nada não-nula de Pi é a ki-ésima, então temos, para i < r,
(a) R(i, }) = O, se j < ki
(b) R(i, kJ = ô,1
(e) k1 < ... < k,.
O subespaço W consiste de todos os vetores
/3 = CtPI + , ·. + CrPr
r
- ! ci(Ril~ ...• Ri11).
i =1
As coordenadas b 1 , ••• , b" de um tal vetor /J são então
r
(2-23) b; = 2; CiR,"j,
i • 1

Em particular, bk; = eh e, se {3 = (b1, ... ,b11) é uma combinação


linear dos Pi, então tem de ser a particular combinação linear
.,
2-24)
t = 1

As condições sôbre f3 para que (2-24) valha são:


r
(2-25) bj = ~ bkiRij, j = I, ... , n. ·
i ... 1

Ora, (2-25) é a descrição explicíta do subespaço W gerado por ai, • .• ,


a .., isto é. o subespaço consiste dos vetores {3 em Ft,; cujas coordena-
das satisfazem (2-25). Que tipo de descrição é (2·25)? Em primeiro
lqgar, ela descreve W como o conjunto das soluções f3 = (b1, •.. , bn)
do sistema (2~25) de equações lineares homogêneas. Êste sistema de
equações é de uma natureza muito particular, pois (n - r) das
coordenadas como combinações lineares das r coordenadas distin•
guidas bki, ••• , bkr• Tem•se completa liberdade de escolha das co-
ordenadas bkª' isto é, se c1, ... , e, são r escalares arbitrários, existe
um e somente um vetor f3 em W cuja kj-ésima coordenada é Ci,
O ponto importante aqui é o seguinte: Dados os vetores ai, a
linha-redução é um método direto de determinar os inteiros r,
CÁLCULOS CONCERNENTES A SUBESPAÇOS 63

k 1, ••• , kr e os escalares Ri; que dão a descrição (2-25) do subes-


paço gerado por a 1 , ••• , ti!,,.. Deve-se observar, como no Teorema
H, que todo subespaço W de F• possui uma descrição do tipo (2-25).
Devemos destacar também a~gumas coisas sôbre a pergunta (2). Já
mostramos na seção 1.4 como se pode encontrar uma m X m ma-
triz inversível P tal que R = PA. O conhecimento de P nos
permite· determinar os escalares X1, ••. , Xm tais que
/3 = X1a1 + ... + Xm.am
quando isto é possível. Como os vetores-linhas de R são dados por
m
PC = ~ PijCl.j
J--1

temos que se fJ é uma combinação linear dos cz;, então

, m

= ~ b1t, ~ Pii«i
f•l J•l
m r
-- 2: ~ b1,;,Pi;a;
j - 1 i =1

e portanto
,,
X; =i •~ lbkiPi;
é uma escolha possível para os x; (podem existir muitas).
O problema de saber se /3 = (bi. ... , bn) é uma combinação
linear dos ai, e, em caso afirmativo, quais são os escalares Xi, pode
também ser considerado perguntando-se se o sistema de equações
"'
l: A.,;x, = b;, j = 1, ... , n
,-1
admite soluções e quais são elas. A matriz dos coeficientes d&te
sistema de equações é a n X m matriz B com vetores-colunas a1, ••• ,
a,.. No Capitulo I discutjmos o uso de operações elementares sôbre
linhas na resolução de um sistema de equações BX = Y. Cons~-
deremos um exemplo no qual adotamos êste último ponto de vista
ao respondermos a perguntas sôbre subespaços de F".
64 ESPAÇOS VETORIAIS

Exemplo 19. Proponhamos o seguinte problema: seja W o subes-


paço de .R4 gerado pelos vetores
a1 = ( l, 2, 2, l)
a2 = (O, 2, O, 1)
ªª = (-2, o, -4, 3).
(a) Demonstrar que a 1, a2, a3 formam uma base de W, isto é,
que êstes vetores são linearmente independentes.
(b) Seja /3 = (b1, b2, b3 , b4) um vetor em W. Quais são as co-
ordenadas de fJ em relação •à base ordenada { a1,a2, aa}?
(e) Sejam
a'i = (1, O, 2, O)
a'2 = (O, 2, O, 1)
a'a = (O, O, O, 3).

Mostrar que a'1, a'2, a'a formam uma base de W.


(d) Se /3 está em W, indiquemos por X a matriz das coordenadas
de /3 em relação à base dos a e por X' a matriz das coordenadas de
/j em relação à base dos a'. Determinar a 3 X 3 matriz P tal que
X= PX' para todo t3 em W.
Para responder a estas diversas perguntas, formemos a 4 X 3
matriz B com vetores-colunas ai, az, aa:
1 O -2
2 2 O
B= 2 O -4
1 1 3
Perguntamos para quais Y1, Y2, Ya~ y4 o sistema BX = Y admite
solução.
-1 o -2 Yt l o ~2 Y1
2 2 o Y2 ~
o 2 4 Y2 2y1 --+
2 o -4 Ya o o o Ya 2y1
1 l 3 Y4 o 1 5 Y4 Y1_
1 o -2 o o
¼{2y4 ' -. y2)
+. ]
Yi - aY2 iY4
o o -6 Y2 -Y1 2y4] --+ [ O o 1
o 1 5 Y4 - Yt O 1 o -y1 + !Y2 - ~Y4
o o Ya - o o
-º 2y1 O y3 - 2y1
Portanto, a condição para que o sistema BX = Y admita uma so(u..
_

ção é Ya = 2Y1. Então, fj = (bb b2, ba, b4) está em W se, e somente
CÁLCULOS CONCERNENTES A SUBESPAÇOS 65

se, b3 = 2b 1 • Se /3 está em W, então /3 = x1a1 + x2a2 + X3a3


onde necessàriamente,
X1 - b1 - !..b,,
8 ~ + sb4
(2-26) X2 - -bi + ~b2 - }b4
X3 - - ¼b2 + ¼b4
(a) As equações acima mostram certamente que ai, a2, aa são
linearmente independentes.
(b) Se /3 está em W, as coordenadas de {, em relação à base orde-
nada {ah a2, aa} são os escalares x1, X2, X3 dados por (2-26).
(e) Os vetores dados a{ a'2, a'3 satisfazem Ya = 2y1, portant.o
estão em W. Deveria ser óbvio para o leitor, à primeira vista. que
êsses vetores são linearmente independentes.
(d) A matriz P é determinada exprimindo-se a'i, a'2, a'3 como
combinações lineares dos ai". As equações (2-26) nos dizem como
fazer isto. Por exemplo, com {3 = a'i temos b1 - 1, b2 = O, ba = 2,
b4 = O, e
X1 - 1 - ¼{O) + ¾(O) = 1
X2 - -1 + ¾(O) - ¾(O) = -1
xa - - ¼(O) + ¼(O) = O.
Assim, cl 1 = a1 - An àlogamente, obtemos a' 2
a2. - a2 e a •a =
= 2a1 - 2a2 + a3. Logo
1 O
P - [ -1 1
o o -ü•
Exercici08
1. Responder as perguntas do Exemplo 19 usando operações ele n.d.res
sôbre as linhas da 3 X 4 matríz de vetores-linhas ai.
2. Sejam
a1 - (1, ], -2, 1), a~ ""' (3, O, 4, -1), a3 ,.. (-1, 2, S !),
Sejam
a - (4, -5, 9, -7), ~ = (3. 1. -4, 4), 'Y - (-t, 1, O. l).
(a) Quais dos vetores a, {J, 1' estão no subespaço de R4 gerado pç1os ai?
(b) Quais dos vetores a,~. -y estão no subespaço de C4 gerado pelos «i?
(e) Isto sugere algum teorema?
3. Consideremos os vetores em R • definidos por
o: 1 - (-1, O, 1, 2), a, - (3, 4, -2, S), a1 - (1, 4, O, 9).
66 ESPAÇOS VETORIAIS

Determinar um sistema de equações lineares homogeneas para o qual o es•


paço das soluções seja exatamente o subespaço de R• gerado pelos ttes
vetores dados.
4. Em CJ sejam
a1 - (1, O, -i), a;, - (J + i, 1- I, 1), a3 - (i, i, i).
Demonstrar que êstes vetores formam uma base de C J. Quais são as coor•
denadas do vetor (a, b, e) cm relação a esta base'!
5. Fai.er uma descrição explícita do tipo (2·2S) para os vetores
f3 - (b1, bi. b 3 , b 4 , b,.)
em R 5 que são combinações lineares dos vetores
a1 - Ot O, 2, 1,-1), a, - (-1, 2, -4, 2, O),
a3 - (2, -1, 5, 2, 1), e a 4 =- (2, 1, 3, 5; 2).
fí, Usar a nossa discussão de linha•redução para demonstrar o que seaue.
Se A é uma m X n matriz sôbre o corpo F com pôsto r, então a dimensão
do espaço-solução de A é (n - r). (Sugestãa: bastará demonstrar êste fato
para uma matriz R linha-reduzida à forma em escada. Para uma ta1 R, o
sistema RX - O exprime r das coordenadas xh, ... , x.b em função das
(n - r) coordenadas restantes u1 , • . • , u,_.,.. Construir a solução Xj obti-
da atribuindo-se o valor 1 a u; e O aos outros u;. Demonstrar que X11 • • • ,
X,.-,; formam uma base do espaço,-solução.)
7. Seja A uma m X n matriz sõbre o corpo F e consideremos o sistema de
equações AX • Y. Demonstrar que ~te sistema de equações admite uma
solução se, e somente se, o pôsto-linha de A é igual ao pôst~linha da ma-
triz completa do sistema.
CAPÍTULO 3

TRANSFORMAÇÕES LINEARES

3. 1 Transformações Lineares
Introduziremos agora as transformações lineares, objetos que es-
tudaremos na maior parte do restante dêste livro. O leitor poderá
achar útil ler ( ou reler) a discussão sôbre funções no Apêndice, visto
que usaremos livremente a terminologia daquela discu~são.
Definição. Sejam V e W espaços vetoriais sôbre o corpo F.
Uma transformação linear de V em W é uma função T de V em W
tal que
T(ca+l1) = c(Ta) + T/3
para todos a e (3 em V e todos escalares e e'm F.
Exemplo 1. Se V é um espaço vetorial arbitrário, a transforma-
ção idêntica J, definida por la = a, é uma transformação linear de
V em V. A transformação nula O, definida por 0a = O, é uma trans-
formação linear de V em V.
Exemplo 2. Seja F um corpo e seja V o espaço das funções po•
linomiais f de F em F, dadas por
f(X) = Co + C1X + ... + CkX,::.
Seja
(D f) (x) == c1 + 2c2~ + ... + kckxk- 1•
Então, D é uma transformação linear de V em V- a transformação
derivação.
Exemplo 3. Seja V o espaço das n X l matrizes - (colunas)
sôbre um corpo F e seja A uma m X n matriz fixa sôbre F. A função
T sôbre V, definida por T(X) = AX, é uma transformação linear
de V no espaço W das m X l matrizes sôbre F.
68. TRANSFORMAÇÕES LINEARES

Exemplo 4. Seja V o espaço das 1n X n matrizes sôbre um corpo


F, seja Puma m X m matriz fixa sôbre F e seja Q uma n X n ma-
triz fixa sôbre F. Definamos uma função T de V em V por T(A)
.- PAQ. Então T é uma transformação linear de V em V, pois
T(cA + B) = P(cA + B) Q
= (cPA + PB)Q
= cPAQ + PBQ
= cT(A) + T(B).
Exemplo S. Seja R o corpo dos números reais e seja V o espaço
das funções de R em R que são contínuas. Definamos T por

(Tf)(x) = j/ f(I) dt.


Então T é u.ma transformação linear de V em V. A função 7/, além
de continua, possui a primeira derivada contínua. A linearidade da
integração é uma de suas propriedades íundamentais.
O leitor não deverá encontrar nenhuma dificuldade para veri-
ficar que as transformações definidas nos Exemplos l, 2, 3 e S são
transformações lineares. Ampliaremos consider~velniente nossa lista
de exemplos à medida que aprendermos mais sôbre transformações
lineares.
É importante notar que se T é uma transformação linear de
Vem W, então T(O) = O; pode-se ver isto a partir da definição, pois
T(O) = T(O + O) = T(O) + f(O).
tste ponto freqüentemente causa confusão à pessoa que est1:1da álge-
bra linear pela primeira vez, desde que ela provàvelmente tomou
contato com uma utilização ligeiramente diferente do têrmo urun-
ção linear". Um comentário breve deverá eliminar a confusão. Su-
ponhamos que V seja o espaço vetorial R 1 • Uma transformação Ji..
near de V em V é então um tipo especial de função com valores
reais definida s&bre a reta real R. Num curso de cálculo, ter-se-ia
provàvelmente a denominação linear para uma tal função se seu
gráfico fôsse uma reta. Uma transformação linear de R 1 em R•,
de acôrdo com nossa definição, será uma função de R em R, cujo
gráfico é uma reta ·que passa pela origem.
Além da propriedade T(O) = O, · destaquemos outra proprie-
dade de uma transformação linear arbitrária T. Urna tal transfor ..
mação •'conserva" combinações Jineares; isto é, se a1 •.••• ª"' são
vetores em V e c1, ••• , e,,, são escalares, então
T(c1a1 + ... + C11an) = C1(Ta1) + ... + c"(Ta,.),
-TRANSFORMAÇÕES LINEARES 69

Isto decorre imediatamente da definição. Por exemplo,


T(c1a1 + C20:2) = c1(Ta1) + T(c2a2)
= C1(Ta1) + c2(Ta2),
Teorema 1. Seja V um espaço vetorial de dimensão Jinita sôhre
o corpo F e seja {a1; ... , a"} uma base ordenada de V. Seja W um
espaço vetorial sôbre o mesmo corpo F. e sejam /31, ... , /3n vetores
arbitrários em W. Então, existe exatamente uma transformação linear
T de V em W tal que
Ta; = {,j, j = 1, ... , n.
Demonstração. Para demonstrar que existe pelo menos uma trans-
formação linear T com Tai = {S 1 procedemos como segue. Dado a
em V, existe uma única n .. upla (xi, ... , Xn) tal que
a = X1a1 + .. , + Xna,..

Para êste vetor a, definamos


Ta = X1fJ1 + , .. + x,il:111.
Então, T é uma regra bem definida para se associar a cada vetor a
em V um vetor Ta em W. Pela definição, é evidente que Ta; = fJ;
para todo j. Para ver que T é linear, seja
/3 = Y1a1 + . •• + Ynª"'
em V e e escalar arbitrário. Ora,
ea + /3 = (cx1 + Y1)a1 + ... + (ex" + Yn)a"
portanto, pela definição,
T(ca + /3) = (cxi + Y1)/31 + ... + (ex" + Yn)fJn•
Por outro lado,
" n
c(Ta) + T/3 = e 2: Xi/h
i•l
+ X y,fji
, .. 1

,,
-
i
~ (CXi
r:a l
+ Yi)l'J,
e assim
T(~a + fj) = c(Ta) + T{j.
70 TRANSFORMAÇÕES LINEARES

Se Ué uma transformação linear de V em W com Ua; = {j;,


n
j = lt ••• , n, então, para o vetor a = ~ x;a;, temos
i =l

n
- ~ xi(Uai)
i =1

= ~ Xi~i
i = 1

de modo que U é exatamente a regra T que definimos acima. Isto


mostra que a transformação linear T com To.j = fJi é única.
Teorema 2. Sejam V e W espaços veto,iais sôbre o corpo F e
seja T uma transformação linear de V em W. Então, a imagem de T
é um subespaço de W. O conjunto de vetores a em V tais que Ta = O
também é um subespaço de V, dito o núcleo (ou espaço nulo) de T.
Demonstração. Indiquemos por R r a imagem de T, isto é, o
conjunto dos vetores J3 em W tais que~ = Ta para algum a em V.
Sejam /31 e /32 em R 7 e seja e em F. Ora, existem vetores a1 e a2 em
V tais que Tai = fJ;, i = 1, 2. Como T é linear
T(ca1 + a2) = cfJ1 + /32
o que mostra que c/3i + {j2 também está na imagem de T. Portanto,
Rr é um subespaço de W.
Seja Nr o conjunto dos a em V tais que Ta. = O. Se a1 e a 2
estão em N r e e é um escalar arbitrário, então
T(ca1 + 0:2) = c(Ta1) + Ta2
= c(O) + O
=o
de modo que ca1 + 0:2 está novamente em Nr. Logo, Nr é um sub-
espaço.
No exemplo 1, a imagem da transformação idêntica é todo o
espaço V, ao passo que seu núcleo é o subespaço nulo. A imagem
da transfarmação nula é o subespaço nulo e seu núcleo é todo o
espaço V. No Exemplo 2, a imagem da transformação derivação é
todo- o espaço das funções polinomiais e seu núcleo é o subespaço
das funções constantes (se Fé um subcorpo do corpo dos números
complexos). No Exemplo 3, a imagem da transformação X -. AX
TRANSFORMAÇÕES LINEARES 71

é o conjunto das m X 1 matrizes Y tais que o -sistema de equações


AX = Y admite solução, isto é, tôdas Y que sejam combinações
lineares das colunas de A. O núcleo desta transformação é o con-
junto das n X l matrizes X tais que AX = O, isto é, o espaço ..solu-
ção de A. No Exemplo 4, a imagem e o núcleo de T são um tanto
difíceis de descrever, exceto pela repetição de suas definições. No
Exemplo 5, a imagem de T consiste das g que têm a primeira
derivada contínua e tais que g(O) = O. O núcleo neste caso é o sub-
espaço nulo.
·Se T é uma transformação linear de V em W e ai, ... , an são
vetores que geram V, então é evidente que os vetores Ta1, ... , Tan.
geram a imagem de T. Em particular, se V fôr de dimensão finita, a
imagem de T será um subespaço de W de dimensão finita.
Definição. Seja T uma transformação linear de V em W, sendo
V de dimensão finita. O pôsto de T é a dimensão de imagem de T. A
nulidade de T é a dimensão do núcleo de T.
Teorema 3. Sejam V e W espaços vetoriais sôbre o corpo F e
seja T uma transformação linear de V em W. Suponhamos que V seja
de dimensão finito. Então
pôsto (T) + nulidade (T) = dim V.
Demonstração. Seja { a 1 , ••• , ª"} uma base de N, o núcleo de
T. Existem vetores ak + 1, ••• , an em V tais que {a 1, ••• , a,1} seja uma
base de V. Demonstrar-em os agora que { Tai.- + 1, • • • , Tan.} é uma
base da imagem de T. Os vetores Ta1, ... , To.,i certamente geram a
imagem de Te, como Ta 1 = O, para j < k, vemos que Tan+ 1, ••• , Ta,.
geram a imagem. Para ver que êsses vetores são independentes, su•
ponhamos que existam escalares ei tais que
n
I ci(Tai) = O.
i = k_ +l
Isto diz que
T( ,.i+ t ""'k l
C;ai)= 0

e, conseqüentemente. o vetor a = !" c;a; está no núcleo de T.


; ... .\+1
Como a1, ... , ª* formam uma base de N, existem, necessàriamente,
escalares bi, ••. , h1c tais que
k
a: = ? biai-.
i• 1
72 TRANSFORMAÇÕES LJNEAR.ES

Assim
k n
2: b1•ai - 2; c1a1 =O
1 ... 1 1-.1-+1

e, como a 1 , ••• , a,i são linearmente independentes. devemos ter


h1 = .. , = bk = Ck + 1 = ,., = Cu = O,
Se ré o pôsto de T, o fato de Tak+ 1, ••• , Ta" formarem uma
base da imagem de T nos diz quer = n - k. Como k é a nulidade
de Te n é a dimensão de V, está completa a demonstração.

Exe..cicios
1. Quais das seguintes funções T de R 3 em R 2 são transformações lineares?
(a) T(x 1 , x,) = (1 X1, x.,);+
( b) T(x 1 , X a) - x l, x 1 );
(e) T<x 1 • Xi) - (O, x,);
(d) T(x 1 , x~) ""' (sen x 1 , xJ);
(e) T(x 1 • x,) =
(x 1 - xh 0),
2. Verificar que as tran.~formaçõe.'- definidas em (a) e (b) são transforma~
ções lineares de R ª em R3, Determinar, para cada uma delas, a imagem.
pôsto, núcleo e nulidade.
(a) T(x11, X 1) = (X1 + xh X1 - X;i. X!);
(b) T(x,, Xi) = (x 1 - X:. X.t - x 1 , -x1 ).
3. Descrever explicitamente (como nos Exercícios I e 2) a transformação
linear T de F 2 em F 1 tal que TE, = (a, b). TE2 = (e, d).
4. Seja F um subcorpo do corpo dos números complexos e seja Ta função
de F3 em FJ definjda por
T(x 1 , x,, x 3 ) = {x 1 - Xz + 2xJ, 2x 1 + x,, -x 1 - 2x, + 2x,i),
(a) Verificar que T é uma transformação linear.
(b) Se (a, b, e) é um vetor em Fª, quais as condições sôbre a, h, e, para
aue o vetor esteia na imagem de T"! Qual é o pôsto de T'!
(e) Quais são as condições sôbre a, h e e para que o vetor este.ia no nú-
cleo de T"! Qual é a nulidade de T?
!. Descrever explicitamente uma transformação linear de Rª em Rª cuja
imagem seja o subespaço gerado por ( 1, O. -1) e (1, 2, 2).
6. Seja V o espaço vetorial das 11 X n matrizes sôbre o corpo F e seja B
uma n X n matriz fixa. Se
T(A) = AB- BA
verificar que T é uma transformação linear de V em V.
7. Seja V o conjunto_ dos números complexos considerado como um es-
paço vetorial sõbre o corpo dos números reais (operações usuais). Deter-
minar uma função de V em V que seja uma transformação linear sôbre o
ÁLGEBRA DAS TRANSFORMAÇÕES LINBARES -

espaço vetorial acima, mas que não seja uma transformação linear sbb,e.
C 1 • isto é, que não seja linear complexa. .
L Seja V o espaço das II X 1 matrizes sôbre F e seja W o espaço das m x t
.- matrii.es sôbre F. Seja A uma m X n matriz fixa sôbre F e seja T a trans-,
formação linear de Y em W definida por T(X) = AX. Demonstrar que T ,
a transformação nula se e somente se A é a matriz nula.
9. Seja V um espaço vetorial 11-dimensional sôbre o corpo F e seja T uma ·
transformação linear de V em V tal que a imagem e o núcleo de T sejam
idênticos. Demonstrar que ,r é par. (Dar um exemplo de uma tal transfor-
mação linear.)
10. Seja Y um espaço vetorial e T uma transformação linear de Y em Y.
Demonstrar que as duas afirmações seguintes sôbre T são equivalentes:
(a) A interseção da imagem de T com o núcleo de T é o subespaço
nulo de Y.
(b) Se T(Ta) = O, então Ta = O.
11. Usar o Teorema 3 e o Exercício 6 da Seção 2.5 para demonstrar que
para qualquer m X II matriz A, o põsto-linha de A é igual ao pôsto-coluna
de A. (Esbôço da demonstração~ Seja V o espaço das ,, X 1 matrizes sõ-
bre F e seja W o espaço das m X 1 matrizes. Seja T a transformação li-
near de Y em W definida por T(X) =- AX. Usar o Teorema 3 para demons-
trar que a soma do pôsto-coluna de A com a dimensão do espaço.solução
de A é n. Agora concluir a demonstração com o citado exercfcio do Capf.
tulo 2.)

,
3. 2 A Al1ebt"a das Transformações Lineares
No estudo das transformações lineares de Vem W, é de impor•
tl.ncia fundamental o fato de que o conjunto dessas transformações
hel'da uma estrutura natural de espaço vetorial. O conjunto das
transformações lineares de um espaço V em si mesmo possui uma
estrutura algébrica mais rica pois a composição usual ~e funções
fornece uma "multiplicação" dessas transformações. Nesta seção
exploraremos essas idéias.
Teorema 4. Sejam V e W espaços vetoriais sôbre o corpo F.
Sejam T i U transformações lineares de V em W. À .(unção (T + U)
de/inida por
(T + U) (a) = Ta + Ua
é uma tranfformação linear de V em W. Se e é um elemento qualquer
de F, a função (cT) definida por
(cT) (a) = c(Ta)
é uma transformação linear de V em W. O conjunto das transformtJ• ·
ções lineares de V em W, munido da adição e multiplicação escalar
acima definida, é um espaço vetorial sôbre o corpo F.
74 TRANSFORMAÇÕES LJNEARES

Demonstração. Suponhamos que T e U sejam transformações


lineares de V em W e definamos (T + V) como acima. Então
(T + U) (ca + /3) = T(ca + /j) + U(ca. + /J)
= c(Ta) + Tf3 + c(Ua) + U/3
= c(Ta + Ua) + (Tt, + UfJ)
= c(_T + U) (a) + (T + U) (/,)
o que mostra que (T + U) é uma transformação linear. Anàlogamente,
(cT) (da + /1) = c[T(da + ~)]
. c[d(Ta) + Tn]
= cd(Ta) + c(TfJ)
= d[c(To:)] + c(Tfj)
mostrando que (cT) é uma transformação linear.
Para verificar que o conjunto das transformações lineares de V
em W (munido destas duas operações) é um espaço vetorial, é ne-
cessário verificar diretamente cada uma das condições sôbre a adição
de vetores e a multiplicação escalar. Deixamos a parte principal disto
a cargo do leitor e contentamo"'.nos com êste comentário: O vetor
nulo dêste espaço será a transformação nula, que leva todo vetor de
V no vetor nulo de W; cada uma das propriedades das duas opera-
ções decorre diretamente da propriedade correspondente das opera-
ções no espaço W.
Talvez devamos mencionar outra maneira de considerar êste
teorema. Se se define soma e múltiplo escalar como fizemos acima,
então o con iunto de tôdas as funções de V em w· torna-se um espaço
vetorial sôbre o corpo F. Isto nada tem a ver com o fato de V ser
um espa.ço vetorial, mas apenas com o fato de V ser um co11junto
não-vazio. Quando V é um espaç·o vetorial podemos definir uma
transformação linear de V em W e o Teorema 4 diz que as transfor..
mações lineares formam um subespaço do espaço de tôdas as fun-
ções de V em W.
Indicaremos o espaço das transformações lineares de V em W
por LlY, W). Lembramos novamente ao leitor que L(V, W) está
definido somente para Ve W espaços vetoriais sôbrc o mesmo corpo.
Teorema 5. Seja V um espaço vetorial n-dimensiona/ sôbre o cor-
po F e seja W um espaço vetorial m-dimensional sôbre F. Então o
espaço L(V. W) é de dimensão finita e tem dimensão mn.
Demonstração. Sejam
cB = {a1. • •• , a11} e d\' = { ,81, ••• , ti.}
ÁLGEBRA DAS TRANSFORMAÇÕES LINEARES 75

bases ordenadas de V e W, respectivamente. Para cada par de inteiros


(p, q) com 1 < p <me 1 < q < n, definamos uma transformação
linear E!·" de V em W por
E1 •f(ai) = {º' {jp,
se ~ # q
se , #- q .
= Ôjq{,11.
De acôrdo com o Teorema 1, existe uma única transformação linear
de V em W que satisfaz estas condições. Afirmamos que as mn trari s..
formações E1·" formam uma base de L(V, W). _
Seja T uma transformação linear de V em W. Para cada j, 1 <
j < n, sejam A,;, ... , Àmi as coordenadas do vetor Ta; em relação
à base ordenada (B't isto é,
ffl

(3-1) Ta; = 2; A 11;/j11 •


P=l

Desejamos mostrar que

(3-2}

Seja U a transformação linear no segundo m$nbro de (3-2). Então


para cada}
11 •

as Ta;

e, conseqüentemente, U_ = T. Agora (3-2) mostra que as EP•f ge•


ram L(V, W); precisamos demonstrar que elas são independentes.
Mas isto é evidente pelo que fizemos acima, pois, se a transformação
u= % i Afl'lEP•'l
p 1

é a transformação nula, então Ua; = O para cada j, portanto


m
.l; Âp;/jp = o
P-1 '

e a independência dos fJp implica que AJJ, = O para todos p e j.


76 TRANSFORMAÇÕES LINEARES

Teorema 6. Sejam V, W e Z espa,os vetoriais sdbre o corpo F·


Seja T uma transformação linear de V em W e U uma transformação
linear de W e'!' Z. Então, a função composta UT, definit4, por (UT)
(a)= U(T(a)) é uma transformação linear de V em Z.
Demonstração.
(UT) (ca + fJ) = U[T(ca + P)J
= U(cTa + Tp)
= c(U(Ta)] +· U(Tfj)
= c:C.UT) (a) + (UT) (ft).
No que segue, estaremos primordialmente preocupados com
transformações lineares de um espaço vetorial em si mesmo. Como
tedamos de escrever a todo instante "Té uma transformação linear
de Y em V", substituiremos isto por "T é um operador linear sô-
bre V''.
Definição. Se V é um espaço vetorial sôbre o corpo F, um ope-
rador linear sôbre V é uma transformação linear de V em V.
Aplicando o Teorema 6 para V = W = Z, de modo que U e
T sejam operadores lineares sôbre o espaço V, vemos que a com-
posta UT é ainda um operador linear sôbre Y. Assim, o espaço
L( V, Y) possui uma "multiplicação", definida sôbre si por meio
da composição. Neste caso, o operador UT também está definido
e devemos notar que em geral UT ~ TU, isto 6, UT -. TU Jl4. O.
Devemos notar particularmente o fato de que se T é um operador
linear sôbre Y, então podemos compor T com T. Usaremos a no-
tação T" = TT e, em geral, T• = T ... T (n vêzes) para n = _1, 2,
3, . . . . Definimos TO· = l se T ;a-' O.
Exemplo 6. Seja F um corpo e Y o espaço vetorial das funções
polinomiais de F em F. Seja D o operador derivação definido no
Exemplo 2 e To operador Jinear "multiplicação por x'":
(T/) (x) = xf(x).
Então DT :# TD. Na verdade, o leitor deverá achar fácil verificar
que DT - TD = I, o operador idêntico.
Mesmo não sendo comutativa, a "multiplicação" que temos
sôbre U.Y, V) está bastante relacionada com as operações de espaço
vetorial de L( Y, Y).
Lema. Seja V um espaço vetorial sôbre o corpo F; sejam U,
T1 e T2 operadores lineares sôbre V; seja e wn elemento de F.
ÁLGEBRA DAS TRANSFORMAÇÕES LINEARES 77

(a) IV = UI= U;
(b) U(T1 + T2) = UT1 +
UT2; (T1 + T2)U == T1U + T U;
2
(e) c(UT1) = (cU)T1 = U(cT1).
Demonstração. (a) Esta propriedade da função idêntica é óbvia.
Enunciamo-la aqui por mera questão de ênfase.
(b) [U(T1 + T2)] (a) = U[(T1 + T2) (a)]
= U(T1a + T2a)
= U(T1a) + U(T2a)
= (UT1) (a) + (UT2) (a}
de modo que U(T1 + T2) = UT1 + UT2. Além disso
[(T1 + T2)U] (a) = + T2) ( Uà)
(T1
= T1(Ua) + T2(Ua.)
= (T1U) (a) + (T2U) (a)
de modo que (T1 + T2)U = T1 U + T2U. (O leitor pode notar que
para as demonstrações destas duas leis distributivas não foi usado
o fato de T1 e T2 serem lineares, e que para a demonstração da se-
gunda não foi usado tampouco o fato de U ser linear.)
(e) Deixamos a demonstração da parte (e) a cargo do leitor.
~ste lema e uma parte do Teorema 5 nos dizem que o espaço
vetorial L(V, V), munido da operação de composição, é o que se
conhece por.uma álgebra linear com elemento unidade. Discutiremos
isto no C-3:pítulo 4.
Teorema 7. Sejam V e W espaços -vetoriais sqbre o corpo F e
s,eja T uma transformação linear de V em W. Se T é injetora e sobre-
jetora enião a Junção inversa T- 1 é uma transfonnação linear de W
s6bre V.
Demonstração. Lembramos ao leitor que T injetora significa que
Ta Til sempre que a ~ /j e que T sobrejetora significa que a ima-
;aé
gem de T é todo o espaço W. Quando T é injetora e sobrejetora,.
existe uma função inversa T-i 1 , determinada de modç único, que
leva W sõbre V tal que r- 1 T é a função idêntica de V e rr- 1 é a
função idêntica de W. O que estamos demonstrando aqui é que, se
uma função linear T é inversível, então a inversa r- 1 também é
linear.
Sejam fh e fJ2 vetores em W e seja e um escalar. Queremos mos-
trar que
78 TRANSFORMAÇÕES LINEARES

Seja C..i = T- 1/Ji, i = 1, 2, isto é, seja ª i o único vetor em V tal que


· Ta, == /Ji. Como T é linear,
T(ca1 + a2) = cTa1 + Ta2
= cfJi + /j2.
Assim cai + a2 é o único vetor em V que é levado por T em cf31 +
+ ~2, portanto
r- 1(cfJ1 + /32) = cai + a2
= c(_T- /31) 1 + r- 1/j2
e T- 1 é linear.
Exemplo 7. Se Y é o espaço das funções polinomiais sôbre o
corpo F, D o operador derivaç•o e To operador Hmultiplicação por
x" do -~xemplo 6, temos a seguinte situação: A imagem de D é todo
o espaço Y, logo D é sobrejetor; contudo, D não é injetor, pois iô-
das as funções constantes são levadas em O por JJ. A imagem de
T é o conjunto das funções polinomiais f para as quais /(O) = O,
lbgo T não é sobrejetor; T é injetor, como se póde verificar fàcil--
mente.
Exemplo 8. Seja F um corpo e seja T o operador linear sôbre
F definiao por
2

T(xi, x2) = (Xi + X2, X1).


Então, T é injetor, pois se T(y1, y2) = T(x1, x2), temos
X1 + X2 = Yt + Y2
. X1 = Y1
de Diodo que X1 = Y• e x2 = y2. Vejamos também que T é sobre-
jetor; de fato, seja (z1, z2) um vetor arbitrário em F 2. Para mostrar
que (z1, z2) está na imagem de T precisamos determinar x1 e X2
tais que
X1 + X2 = Z1
X1 = Z2

e a solução é evidentemente x 1 = z2, x2 -= z 1 - z2. t.te último


cálculo nos dá até mesmo a fórmula explícita para T- 1, a saber,
T- 1(z1, Z2) = (z2, Z1 - Z2).
Se T é uma transformação linear de V em W diremos que T
é .nlo.singular se o núcleo de T consistir apenas do vetor nulo. O
leitor certamente observará que isto é equivalente à afirmação de
ÁLGEBRA DAS TRANSFO:ttMAÇÕES LINEARES 79

que T é injetora, porque quando T é linear Ta = T{J se, e somente


se, ,T(a - fJ) = O. Nesta linguagem, T é inversível (injetora e sobre- ·
jetora) se e somente se T é não-singular e a imagem de T é todo o
espaço W.
Teorema 8. Seja T uma transformação linear de V em W. En-
tão T é não-singular se e somente se T leva todo subconjunto linear.-
mente independente de V sôbre um subconjunto linearmente indtpenden_te
de W.
Demonstraçã_p. Suponhamos primeiro que T seja não-singular.
Seja S um subconjunto linearmente independente de V. Se a1, .•• , ai
são vetores em S, então os vetores Ta1, ... , Ta, são linearmente
independentes, pois se
c1(Ta1) + ... + c,:(Ta1) = O
então
T(c1a1 + ... + Ckat) = O
e como T é não..sirrgular
C1â'1 + ... + CJ,:a1ç = 0
do quç segue que cada Ci = O pois Sé um conjunto independente.
Êste argumento mostra que a imagem de S por meio de T é inde-
pendente.
Suponhamos que T leve subconjuntos independentes sôbre sub-
conjuntos independentes~ Seja a um vetor não-nulo em V. Então o ·.
conjunto S constituído apenas pelo vetor a é independente. A ima-
gem de S é o conjunto constituído apenas pelo vetor Ta e êste con-
junto é independente. Portanto Ta ~ O, pois o conjunto constituído
apenas pelo vetqr nulo é dependente. Isto mostra que o nücleo de
T é o suoespaço nulo, isto é, T é não..singular.. ...
Teorema 9. Sejam V e W espaços vetoriais de dimensão finita
sôbre o corpo F tai5 que dim V = dim W. Se T é uma transformação
linear de V em W, as segu'inles afirmações são equivalentes:
(i) T é in·versível.
(i.i) T é não-singular.
(iii) A imagem de T é W.
(iv) Se {a1~ ... , ª"} é uma base arbitrária de V1, então { Tai. Ta:n}
é uma base de W. .
. (-v) Existe pelo menos uma base { a 1, ••• , ª"} de V tal que
-{ Tai, ... t Ta" } seja uma base de W.
80 TRANSFORMAÇÕES LJNEARES

Demonstra~o. (i) ----. (ii). Se T é inversível, T é não-singular.


(ii)-+ (iii.). Suponhamos que Tseja não-singular. Seja { a1, ••. J «n}
. uma base de V. Pelo Teorema 8, { Ta1 , ••• , Tan} é um conjunto
linearmente independente de vetores em W e como a dimensão de
W também é n, êste conjunto de vetores é uma base de W. Agora
seja fJ um vetor arbitrário em W. Existem escalares ci, ... , Cn tais
que
/j = C1{Ta1) + ... + Cn(Ta.)
= T(c1a1 + ... + Cnan)
o que mostra que 13 está na imagem de T. (iii) -+ (iv). Suponhamos
agora que T seja sobrejetora. Se { a1, •.. , an} é uma base arbitrária
de V, os vetores Tai, ... , Ta,,. geram a imagem de T, que é todo o
espaço ·w por h'ipótese. Como a dimensão de W é n, êstes n vetores
precisam ser linearmente independentes, isto é, precisam formar
uma base de W. (iv) ~ (v). Não requer nenhum comentário. (v)-+ (i).
Suponhamos que exista alguma base { ai, ••• , ª" } de V tal que
{ Tai, ... , Ta,.}- seja uma base de W. Como os Tai geram W, é evi-
dente que a imagem de Tcoincide com W. Se a = c1a1 + ... +
Cnan
está no núcleo de T, então
T(c1a1 + ... + c"an) = O
ou
C1(Ta1) + ... + Cn(Tán) == O
e como os Ta;, são independentes,·cada e, = O e assim a = O. Mos-
tramos que a imagem de T é W e que T é não-singular, logo T é
inversível.
Se Y é um esp3'0 vetorial de dimensão finita, o Teorema 9 nos
diz o que segue a respeito de operadores lineares s•ôbre Y. Se T é
um operador linear sabre Y que é injetor (não-singular) então a
imagem de T é, necessàriamente, todo Y, logo tem que ser inversí-
vel. Se a imagem de T é todo V então T tem que ser não-singular,
logo inversível. Estas duas afirmações possuem uma demonstração
mais simples que a que fizemos e que usa o Toeroma 3. Seja r o
pôsto de T e seja k a nulidade de T. Pelo Teorema 3, r + k = n.
A afirmação de que .T é não-singular significa que k. == O, ao passo
que a afirmação de que a imagem de T é V significa que r = n. Como
r + k = n estas afirmações sôbre T são obviamente equivaJentes.
O leitor é aconselhado a compreender ambas as demonstrações.
Note-se que o Exemplo 7 mostra que nem a injeção nem a sobre.-
jeção implicam uma à outra para operadores em um espaço que
não seja de dimensão finita.
ÁLGEBRA DAS TRANSFORMAÇÕES LINEARES 81

Lema Seja V um espaço vetorial sóbre o corpo F, e sejam U e


T operadores lineares inversíveis sóbre V. Então UT é inversível e
(UT)- 1 = T- 1u- 1 •
Demonstra(·ão. Verificar simplesmente que
{UT) (r- 1 u- 1) = (r- 1 u- 1) cur) = 1.
O conjunto dos operadores lineares inversíveis sôbre um espaço
V. com a operação de composição, fornece um belo exemplo do que
é conhecido em álgebra por um "grupot'. Apesar de que não tere ..
mos tempo para discutir grupos com quaisquer promenores, dare-
mos pelo menos a definição.
Definição. Um grupo consiste do seguinte:
(1) Um conjunto G;
(2) Um regra (ou operação) que associa a cada par de elementos
x, y em G um elemento xy em G de uma maneira tal que
(a) x.(yz) = (xy)z, para todos x, y e z em G (associatividade);
(b) existe um elemento e em G tal que ex = xe = x, para todo
x em G; · .
(e) a cada elemento x em G corresponde um elemento x- 1 em
G tal que xx- 1 = x- 1x = e.
O lema acima nos diz que a composição (U, T) --+ r.tr associa
a cada par de operadores lineares inversíveis sôbre um espaço V
outro operador inversível sôbre V. A composição é uma operação
associativa. O operâdor idêntico J satisfaz IT = TI = T para todo
T e para um T inversível existe (pelo Teorema 7) um operador li-
near inversível T- 1 tal que rr- 1 = r- 1 T = I. Portanto o conjunto
dos operadores lineares inversíveis sô.bre V, munido desta opera-
ção, é um grupo. O conjunto das n X n matrizes inversíveis com a
multiplicação de matrizes como a operação é outro exemplo de um
grupo. Um grupo é dito comutativo se satisfaz a condição xy = yx
para todos x e y. Os dois exemplos -que demos acima não são; em
gera[, grupos comutativos. Freqüentemente indica-se a operação num
grupo comutativo por (x, y) ~ x + y em lugar de (x, y)--+ xy e
usa-se então o símbolo O para o elemento "unidade" e. O conjunto
dos vetores de um espaço vetorial, com a operação de adição de
vetores, é um grupo comutativo. Um corpo pode ser descrito como
um conjunto com duas operações, denominadas adição e rriulti-
plicação, que é um grupo comutativo em relação à adição e nl'> qual
os elementos não-nulos formam um grupo comutativo em relaçlo
à multiplicaçãot valendo a lei distributiva x(y + z) == xy + xz.
82 TRANSFOttMA.ÇÕES LINE:AllES

Eserelélos
1. Sejam T e U" os- operadores lineares sôbi'e R 1 definidos por
T(X1, Xa) - (X2, X1) e U(x1, Xa) - ·cxh O)•

(a} Como você- descreveria T e U geometricamente?
(b-) Dar regras como as que definem T e U para cada uma das trans..
formações- (U + T), UT, TU, T"- U 2 •
2. Seja T o (único) operador linear. sôbre Cª para o qual
Te1 • (1, O, i), Te:2 = (0, 1, l), Te:J = (i, 1, O) •
. T é inversível ·r
3.~ Seja T o operador linear sôbre R• definido por
T(x1,· X..i, XJ) .. (3Xi, X1 - Xz, 2x1 + x'l + x.J).
T é inversível'! "Em caso afirmativo, determinar uma regra para T- 1 como
a que define T.
4. Para o operador linear T do Exercício 3t demonstrar que
(T 2 - /) (T - 31) == O.
5. Seja V o espaço vetorial complexo das 2 X 2 matrizes como elementos
complexos. Seja

e seja To operador linear sôbre V definido por T(A) ... BA. Qual é o pôsto
de T? Descrever T 2 •
6. Seja T uma transformação linear de R J em R 2 e seja U uma traosfor•
mação linear de R :a em R J, Demonstrar que a transformação linear UT
não é inversível. Generalizar o teorema.
7. Determinar dois operadores lineares T e U sôbre Rª tais que TU= O
mas UT ;iiE o.·
8. Seja V um espaço vetorial sôbre o corpo F e T um operador linear sô--
bre Y. Se T 2 = O, o que se pode dizer sôbre a relação entre a imagem de
T e o núcleo de T? Dar um exemplo de um operador linear T sôbre R ª tal
que T 2 = O mas T #- O. ·
9. Seja T um operador linear sôbre o espaço vetorial V de dimensão fi-
nita. Suponhamos que exista um operador linear U sôbre V tal que TU = l.
Demonstrar que T é inversivel e U -= T-1 • Dar um exemplo que mostre
que isto é falso quando V não é de dimensão finita. (Sugestão: Seja T""" D.
-º operador derivação sôbre o espaço das funções polinomiais.)
10. Seja V um espaço vetorial de dimensão finita e seja B uma base orde-
nada de V. Construir a base {E'•f} para LJ.V. V) como na demonstra-
ção do Teorema S, usando <»' - CB. Então EP•fE'• 1 = '!
11, Seja V um espaço vetorial de dimensão finita e seja T um operador
!inear sôbre V. Suponhamos· qu.e pôsto(T 2) =- pôsto(n. Demonstrar que a
unagem e o núcleo de T são disjuntos, isto é, possuem em comum ape-
nas o vetor nulo.
ISOMORFISMO 83

12. Sejam p. m e n inteiros positivos e F um corpo. Seja V o espaço das


m X n matrizes sôbre F e W o espaço das p X n matrizes sôbre F. Seja
B uma p X m matriz fixa e seja T a transformação linear de V em W defi-
nida por T(A) - BA. Demonstrar que T é inversivel se, e somente se, p - m
e B é uma m X m matriz inversível.

3. 3 Isomorfismo
Se V e W são espaços vetoriais sôbre o corpo F, uma transfor-
mação linear bijetora (injetora e sobrejetora) T de V em W é deno-
minada um isomorfisíno de V em W. Se existir um isomorfisnto
de. V em W, diremos que V é isomorfo a W.
Notemos que V é trivialmente isomorfo a V, pois o operador
idêntico é um isomorfismo de V em V. Além disso, se V é isomorfo
a W por meio de um isomorfismo T, então W é isomorfo a V uma
vez que T-:--.t é um isomorfismo de W e·m V. O leitor deverá acliar
fácil verificar que se V é isomorfo a W e W é isomorfo a Z, então
V é isomorfo a Z. Em suma, o isomorfismo é uma relação de equi-
valência sôbre a classe dos espaços vetoriais. Se existir um isomor-
fismo de V em W, poderemos às vêzes dizer que V e W são iso..
morfos, em vez de dizer que V é isomorfo a W. Isto não causará
confusão alguma porque V é isomorfo a W se, e somente se, W
é isomorfo a V. ·
'
Teorema 10. Todo espaço vetorial n-dimensional sôbre o corpo
F é isomqrfo ao espaço F".
Demonstração. Seja V um espaço n-dimensional sôhre o corpo
F e seja <B = {a 1 , •.. , a,. } uma base ora.enada de V. Definamos
uma função T de V em F", como segue: Se a está em V, seja Ta a
n-upla (x 1, •• • , Xn) das coordenadas de a em relação à base orde-
nada <B, isto é, a n-upla tal que
a = X1a1 + ... + Xnan.
Em nossa discussão de coordenadas no Capítulo 2, verificamos
que esta T é linear, injetora e leva V sôbre F".
Para muitos objetivos freqüentemente consideram-se espaços
vetoriais isomorfos como sendq_ '~o mesmo", apesar de que os ve--
tores e as operações nos espaços possam ser bem diferentes, isto ét
freqüentemente identificamos espaços isomorfos. Não tentaremos
fazer uma longa discussão sôbre esta idéia no momento mas deixa--
remos a compreensão do isomorfismo e do sentido no qual espaços
isomorfos são "o mesmo" crescerem à medida que· continuemos
nosso estudo de espaços vetoriais.
84 TRANSFORMAÇÕES LINEARES

Faremos alguns comentários breves. Suponhamos que T seja


um isomorfismo de V em W. Se Sé um subconjunto de V, o Teb-
rema 8 nos diz que S é linearme'nte independente .se, e somente
se, o conjunto T(S) em W é independente. Portanto, ao decidirmos
se S é independente não importa se consideramos S ou T(S). A
partir disio vê-se que um isomorfismo "conserva a dimensão", isto
é, todo subespaço de V de dimensão finita tem a mesma dimensão
que sua imagem por meio de T. Eis uma ilustração muito simples
dessa idéia. Suponhamos que A seja uma m X n matriz sôbre o
corpo F. Na verdade demos duas definições do espaço-solução da
matriz A. O primeiro é o conjunto das n-uplas (x1, ... , Xn) em F•
que satisfazem cada uma das equações do sistema AX = O. O se-
gundo é o conjunto das n X 1 matrizes colunas X tais que .AX == O.
O primeiro espaço-solução é portanto um subespaço de F"' e o segundo
é um subespaço do -espaço de tôdas as n X I matrizes sôbre F.
Agora existe um isomorfismo evidente entre F.,,. e as n X l matri•
zes colunas sôbre F, a saber,

X"
Por meio dêste isomorfismo, o primeiro espaço-solução de À é le-
vado sôbre o segundo espaço-solução. Êstes espaços têm a mesma
dimensão, portanto se .quisermos demonstrar um teorema sôbre
a dimensão do ~spaço-solução, não importará qual espaço resot:..
vamos di;sçutir. Na verdade, o leitor provàvelmente não objetaria
se resolvêssemos identificar F• com o espaço das n X 1 matriz-es.
Poderemos fazê-lo quando fôr conveniente, e quando não o fgr
não o faremos.

Exercicios
1. Seja Y o conjunto dos números complexos e seja F o corpo dos núme--
ros reais. Com as operações usuais, V é um espaço vetorial sõbre F. Des•
crever explicitamente um isomorfismo dêste espaço em R :i.
2. Seja V um espaço vetorial sôbre o cr>rpo dos números complexos e su-
ponhamos que exista um isomoáismo T de V em C 3• Sejam ªH « i t aJ, «.e
vetores em V tais que
Tas ,... (1, O} i) Ta, ""' (-2, 1 + it O),
To 3 - (-1, 1, 1), Ta 4 =- ( ✓ 2, i, 3).
(a)a, está no subespaço gerado por a2 e aJ'?
(b) Seja W1 o subespaço gerado por Q(1 e «2 e seja Wa o subespaço se·
rado por a 3 e a 4• Qual é a interseção de W 1 com W 2 "! .
REPRESENTAÇÃO DE' TRANSFORMAÇÕES POR MATRIZES 85

(e) Determinar uma base do subespaço de V gerado pelos quatro ve-


tores ªi·
3. Seja W o conjunto das 2 X 2 matrizes hermitianas, complexas 1 isto é,
o conjunto das 2 X 2 matrizes complexas A tais que A;; - A 1, (a barra
indica conjugação complexa). Como destacamos no Exemplo 6 do Capí-
tulo 2, W é um espaço vetorial sõbre o corpo dos números reais, em rela-
ção às operações usuais. Verificar que

(x, y, z, t) ---+ [ t +
y -
X

lZ
yt + iz]
- X

é um isomorfismo de R• em W.
4. Seja V o conjunto dos números complexos considerado como um es-
paço vetorial sôbre o corpo dos números reais (Exercício 1). Definamos
uma função T de V no espaço das 2 X 2 matrizes reais, como segue. Se
+
z ... x iy com x e y números reais, então

T(z) _ [x + 7y Sy ] .
-lOy x - 7y
(a) Verificar que T é uma transformação linear (real) injetora de V
no espaço das 2 X 2 matrizes.
(b) Verificar que T(z1Z3)= T(z1)T(za),
(e) Como você descreveria a imagem de T'?
5. Sejam Y e W espaços vetoriais de dimensão finita sôbre o corpo F. De-
monstrar que V e W são isomorfos se, e somente se, dim V - dim W.
6, Sejam V e W tspaços vetoriais sôbre o corpo F e seja U um isomorfis-
mo de V em W. Demonstrar que T--+ UTu-• é um isomorfismo de UV, V)
em I.J.W, W). ·

3~4 Representação· de Transformações por Matrizes


Seja V um espaço vetorial n-dimensional sô bre o corpo F e seja
W um espaço vetorial m-dimensional sôbre F. Sejam c:s = {a 1, ••• , ª"}
uma base ordenada de V e ffl' = {~1 , •.• ,~,,.} uma base ordenada
de W. Se T é umà transformação linear arbitrária de V em W, então
T é determinada por seu efeito sôbre os vetores a;. Cada um dos n
vetores Tai pode ser expresso de modo único como uma combina-
ção linear
M
(3 ..3) Ta;=-= l: A,;6,
i-1

dos /j;, sendo os escalares À1;, • •• , A.,; as coordenadas de Ta; em


relação à base ordenada <B'. Conseq6entemente, a transformação
T é determinada pelos mn escalares A,; por meio das fórmulas (3-3).
A m X n matriz À definida por A.(i, j) = À;.; é denominada a ma-
triz de T em relaçlo ao par de bases ordenadas <i e <»'. Nosso tra-
86 TRANSFORMAÇÕES LINEARES

balho, imediato será o de compreender explicitamente como a matriz


A determina a transformação linear T.
Se a = X1a1 + ... + Xnan é um vetor em V, então

Ta = ri( l; x;a; )
j .., ]

" m
= X e1 l; A iJ {1.
J•l i-1

Se X é a matriz das coordenadas de a em relação à base ordenada <B,


o cálculo acima mostra que AX é a matriz das coordenadas do vetor
Ta em relação à base ordenada m', uma vez que o escalar

é o elemento da i-ésima linha da matriz coluna AX. Observemos


também que se A é uma m X n matriz arbitrária sôbre o corpo F
então

{3-4)

define uma transformação linear T de V em W, cuja matriz é À·,


em relação a Ci\, !i'. Resumindo formalmente:
Teorema 11. Seja V um espaço vetorial n-dimensional sóbre o
corpo F e W um espaço vetorial m•dimensional sôbre F. Seja CB uma
uma base ordenada de V e m' wna base ordenada de W. Para cada
transformação linear T de V em W, existe uma m X n ,matriz A
sôbre o corpo F, a matriz de T em relação a m, m', tal que
[Ta]m, = A[a]65
para todo vetor a em V. Além disso, T ~ A é uma correspondência
bijetora entre o conjunto das transformações lineares de V em W
e o conjunto das m X n matrizes sôbre o corpo F.
Suponhamos agora que Te U sejam transformações lineares de
V em W e que a matriz de Tem relação a m, <B' seja A e a matriz de
Vem relação a (B, m' seja B. Qual é a matriz correspondente a (T + U)?
Isto é respondido fàcilmente, pois se a = x 1a 1 + ...
+ Xna,.
Rl!PRBSENTAÇÃO DE TRANSFORMAÇÕES POR MATRIZES 87

(T + U) {a} ~- + Ua
Ta

i ( i=-=1
= ,-1 i B,;x;) f3,
f Ài;XJ)~i +, ..; 1 ( 1-1

Assim a matriz de T + U em relação a ffi, <B' é a soma das matri..


zes A e B. Anàlogamente, pode•se verificar com facilidade que se e
é um escalar arbitrário então a matriz de (cT) é cA. Estas duas obser-
vações nos dizem que a correspondência entre transformações linea-
res e matrizes definida por cs e <B' é linear.
Usando o que sabemos sôbre multiplicação de matrizes, a Ji ..
nearidade da representação por matrizes pode ser vista como segue:
Suponhamos que a matriz de Tem relação a m, m' seja À e que a
matriz de U em relação ao mesmo par seja B. Se a é um vetor arbi•
trário em V,
[Ta]m, = A[a]m
[Ua]ra, = B[a]re
e como sabemos que
(cA+ B)X = cAX + BX
temos [cTa + Uq]<B, = (tA + B) [a]&
Portanto, deve-se ter que cA + B é a matriz de cT + U em rela-
ção ao par <B, CB'.
Teorema 12. Seja V um espaço vetorial n-dimensional sôbre o
corpo F e seja W um espaço vetorial m-dimensional sôbre F. Para
cada par de bases ordenadas <B, m' de V e W, respectivamete, a fun-
ção que associa a uma transfvrmação linear T sua matriz em rela-
çao a CB, d\' é um isomorfismo entre o espaço L(V, W) e o espaço das
m X n matrizes sôbre o corpo F.
Demonstração. Observamos acima que a função em questão é
linear e, como está enunciado no Teorema 11, esta função é injetora
e leva L(V, _W) sôbre o conjunto das m X n matrizes.
Estaremos particularmente interessados na representação por
matrizes de transformações lineares de um espaço em si mesmo, isto é,
operadores lineares sôbre um espaço V. Neste caso, é mais conve-
niente usar a mesma base ordenada em cada caso, isto é, tomar
<B = m'. A matriz representante será então denominada simples-

88 TRANSFORMAÇÕES LINEARES

mente a matriz de Tem relac;io à base ordenada m. Como êste con-


ceito será muito importante para nós, recordaremos sua definição.
Se T é um operador linear sôbre o espaço vetorial Y de dimensão
rinita e <B = {a 1 , • _•• , an} é uma base ordenada de Y, a matriz
de T em relação a <B é a n X n matriz À cujos elementos A ij são
definidos pelas equações

(3-S) Ta; == ~" A,;ait j = 1, ... , n.


t- l
Deve-se ter sempre em mente que esta matriz que representa T de-
pende da base ordenada m e que existe uma matriz que representa T
em relação a cada base ordenada de Y. (Para transformações de
um espaço em outro a matriz depende de duas bases ordenadas,
uma de V e uma de W.) Para não esquecermos esta dependência,
usaremos a notação
[Tlm
para a matriz do operador linear Tem relação à base ordenada fj.
A maneira como esta matriz e a base ordenada descrevem T é que,
para cada a em V,
{Ta]cs = [T]a,(a]'B.
Exemplo 9. Seja V o espaço das n X 1 matrizes--colunas sô-
bre o corpo F; seja W o espaço das m X 1 matrizes sõbre F; seja
À uma m X n matriz sôbre F, fixa. Seja T a transformação Jineafr
de Y eni W definida p,or T(X) = AX. Seja CB a base drdenada de
V análoga à base canônica em F•; isto é, o i-ésim.o vetor em CB é a
n X l matriz X; com 1 linha i e com todos os outros elementos
nu.los. Seja <B' a correspondente base ordenada de W, isto é; o i•ésiíno
vetor em <B' é a m X 1 matriz Y; com 1 na linha j e com tódos
os outros elementos nulos. Então a matriz de T em relação ao par
<B. (B' é a própria matriz A. Isto é evidente. pois a matriz AX; é a
j-ésima coluna de A. ·
Exemplo 10. Seja F um cotpo e seja T o operador sôbre F 2
defibido por
T(x1, x2) == (xi, O).
É fácil ver que T é ~m oper,ador lineàr sõbre F 2• Seja CB a base orde-
náda canônica de F 2, <B · = {ei. e2 }. Ora,
TE1 = T(l, O) - (1, .O) == lei + Oe2
. TE2 = T(O, () = (O, O) = <h1 + Ot:2
REPRESENTAÇÃO DE TRANSFORMAÇÕES POR MATRIZES 89

de modo que a matriz de Tem relação à base ordenada ffl é

C1lm = [õ gJ.
Exemplo 11. Seja V o espaço das funções polinomiais de R
em R da forma
/(x) = Co + C1X +
C2X 2 + C3X3

isto é, o espaço das funções polinomiais de grau menor ou igual a 3.


O operador derjvação D do Exemplo 2 leva V em V, pois D dimi-
nui o grau. Seja <B a base ordenada de V form'àda pelas quatro fún-
ções /1, /2, /a, /4 definidas por /lx) = xi- 1 • El\tão
(D/1Xx) = DJ1 = 0/1 + 0/2 +O/a+ U/4
O,
(D/2X~) = 1, Df2 = 1/1 + 0/2 +O/a+ 0/4
(.D.fa)(x) = 2x, Df3 = 0/1 + 2/2 +O/a+ 0/4
(Q/4)(x) = 3x2 , I>/4 = 0/1 + 0/2 3/a + 0/4 +
de modo que a matriz de D em relação à base ordenada <B é
O 1 O O
[D]ro = O O 2 O
'-D O O O 3
o o o o
·Vimos o que acontece à:s matrizes representantes quando as
transformações são somadas, a saber, que as matrizes se somam.
Gostaríamos agora de perguntar o que acontece quando compomos
transforma~es. Mais especificamente, sejam V, W e Z espaços veto-
riais sôbre o corpo F, de dimensões n, me p, respectivamente. Seja
T uma transformação linear de V em W e U uma transformação
linear de W em Z. Suponhamos que existam bases ordenadas
(B = {a], ... ' «n }, <B' = {Ih, ... ' fJrn }, era" = {'YI,. ·.• ,,.,,, }
para os espaços V, W e Z, respectivamente. Seja A a matriz de T
em relação ao par m, <B' e B a matriz de U em relação ao par <B',
<B". É fácil ver então que a matriz C da transformação UT em rela-
ção ao par <B, <B" é o produto de B por A, pois se a é uín vetor ar-
bitrário em V
[Ta]m, = A[aJB
[U(Ta}lm" = B[Ta]<B,
e então [( UTXa)Jm" = BA[nlm
logo, pela definição e uni'cidade da matriz representante, temos.
necessàriarnente. C = BA. Isto também pode ser visto efetuando
os cálculos
90 TRANS1'.°0RMAÇÕES LINEARES

(UTXa;) = U(i:a;)

= U( i A11;~1c)
1-1

,,, ,
== ~ À.111; ~ Bi1lYi
i-1 •-1

de modo que t'emos


'"
(3-6) Cii =k•l
l: Bi,:À1;;.

A definição (3-6) de mul'tiplicação de matrizes foi motivada por


meio de operações sôbre as linb.as de uma matriz. V.@-.sc aqui que
uma motivação bastante forte para a definição encontra-se na com-
posição de transformações lineares. Resumindo formalmente:
Teore.. 13. Sejam V, W e Z espa,os vetoriais de dimens,ão
finita idbre o corj,o F; seja T uma transformação linear de V em W
e U uma transformação linear de W em Z. Sem, m' em" são bases
ordenadas dos espaços V, W e Z, respectivamente, se A é 11J!llriz de
T em relação ao par <B, <B' e B é a matriz de U em relação ao par al',
4'' ,·, então a matriz da composta UT em relação ao par <B, <'J/' é a 1n4-
triz JJ.roduto C - BA.
Ê importante notar que se Te U são operadores lineares sô-
bre um espaço Y e se estamos usando apenas uma base ordenada <B,
~ntão o Teorema 11 toma a forma simples [UTJ<B = [Uh [T](B.
Assim, neste case>, a correspondência que <B determina entre operar-
dores lineares e matrizes é nã'o éàmente um
isomorfismo de espaço
vetorial nias conserva também produtos. Uma conseqüencia sim-
ples disto é que o operadnr linear T é inversível se, e somente se,
CTJt1 é uma matriz inversível. De fato, o ·operador identico I é re-
presentado pela matriz unidade em
relação a qualquer base orde-
nada, portanto
UT =TU= I
é equivalente a
[llJ<BlTlB = [T](B[U]<B = I.
REPRESENTAÇÃO DE TRANSFORMAÇÕES POR MATRIZES 91

Evidentemente, quando T é in versíve1


1r- 11m = ITJ ·1.
Gostaríamos agora de perguntar o que acontece com as matri..
zes representantes quando mudamos a base ordenada. Para efeito
de simplicidade, consideraremos esta equação apenas para operad·o..
res lineares sôb're um espaço V, de modo que possamos usar uma
úniba base ordenada. A questão especifica é a seguinte: seja Tum
operador linear sôbre o espaço de dimensão finita V e sejam a
CB = { a1, ••. , ª•} e CB' = {a~, ... , a;}
duas bases ordenadas de V. Qual é a relação entre as matrizes [TJce
e [T]ffi,7 Como o&ervamos no CapítuJo 2, existe uma única n X n
matriz (invershel) P tal que
(3-7) [a]m = P(a]<B'
para todo vetor a: em V. Por definição
(3-8) (Taks = (T]03(a]cs.
Aplicando (3-7) ao vetor Ta temos
(3-9) [Ta)m = .P[Ta]<B'·
Combfnando (J-7), (3-8) e (3~9)~ obtemos
[TJm P[«Jffl, = P{TaJm 1
ou P 1[T]CB P[a)m 1 = [Ta]m'
e então é necessário que
(3".'dQ) [71<Jl' = P 1[TJ03P.
Isto responde nossa pergunta.
An-tes de enunciarmos formalmen:te êste resulta,do, obsef\'emos
um fato. Existe um único operador 1inear U que leva <B sôõre dl'
definido por ·
Uai = aj, j = 1, ... , n. · ·
tste operador U é inversivel u~a vez que leva uma ba~e de V sô-
bre uma base de V. A matriz P (acima) é exatamente a matriz do
operador U em relação à base ordenada&. De fato, Pé definida por
n
a,; = ~ P íPi
' - 1
e como Uai = aj, esta equação pode ser escrita como
n.
Ua; = X- P.;.iai,
t =I

Portanto P = fUJ<», por definição.


92 TRANSFORMAÇÕES LlNEARES

Teorema 14. Seja V wn espaço vetorial de dimensão finita sô-


·bre o c·otpo F e sejam
CB = { a1, ... , an} e i:P,' = { aí, •.. , a~}

bases ordenadas de V. Suponhamos que T seja um operador linear


sôbre V. Se P é a n X n matriz que exprime as coordenadas de cada
vetor de V em relação a m em térmos de suas coordenadas em rela-
ção a m', então
[Tlcs = 1 P- 1[TJmP.
Alternativamente, se U é o operador inversível sôhre V definido por
Va1 = aJ, j = 1, ... , n, éntão
[T]CB, = [ UJm
1[TJ(B[U)(J!,

Exemplo 12. Seja T o operador linear sôbre R 1 definido por


T(x1, x2) = (xi, O). No Exemplo 10 mostramos que a matriz de T
em relação à base ordenada canônica m = { ~1, t2 } é

tnm = [b gJ.
Suponhamos que al' seja a base ordenada de R 2 formada pelos ve ..
tores EÍ = (I, l}, e2 = (2, 1). Então
ti = 1:1 + t2
E2 = 2E1 + E2
de modo que P é a matrii

p = [~ f] ·
-n
Efetuando cálculos simples obtemos

p-1 = [-:
Assim
(TJCi\, = p-·1[TJcsP
_[-11 -12] [lO Oº] [1l 2]1
-
_[-11 --412] [·O O2]
-
_[-11 ~2]2 .
-
Podemos verificar fàcilmente q\le isto está correto porque
TEi = (IJ O) == -Ei E~ +
Tt2 = (2, O) = -2e~ + 2Ez,
REPRESENTAÇÃO DE TRANSFORMAÇÕES POR MATRIZES 93

Exemplo 13. Seja Y o espaço das funções polinomiais de R em


R, de '~grah" menor ou isual a 3. Como no Exemplo 1-1, seja D o
operador derivação sôbre V e seja
4' = {/1,/2,/a,/4}
a base orclenada de V definida por./i{x) = x'- 1• Seja t um número
real e definamos g,{x)1 = (x +
t)'- 1, isto é,
g1 = /1
K2 = t/1 /2 +
fa = t2/i 2tf2+ /a +
3
g4 = t /1 +
3t2/2 + 3tfa + /4.
Como se pode ver fàcilmente, a matriz

P = O O l
ol I1 ,2
2t 'ªl
3t 2
3t

é inversfvel com
O O O 1
-
l -t ,-,. - t3
p-1 = O O O I -2t 3t 2
1 -3t
O O O I
portanto dec~rr~ que ~, == {gi, g2, ga; g4} é uma ~ase ordenada de
JI. No Exemplo 1tt ficamos sabendo que a matnz de D e·m rela-
ção à base ordenada ffl é
O 1 O O
O O 2 O
[D]m = O O O 3 .
o oo o
A matriz de D em relação à base ordenada é portanto

P· 1[DJ<sP
1 -t
= oo o1 -2t
12 ,n
3,2
O 1 OO
OO2 O
&'

-. t
O 1 2t
,2 tª
3,2
1 -3t OOO 3oo 1 3t ·
o o o l oooo oo o 1
1 -t ,2 t O 1 2t
o 1
= o
-2, 3,2 oo 2
o 1 -3t oo o
o o o l oo o
O1
- o o 2o O
ooO3
°] •
oooo
94 TRANSFORMAÇÕES LINEARES

Assim D é representado pela mesma matriz em relação às bases


ordenadas CB e <B'. Evidentemente, isto pode ser visto um pouco
mais diretamente· pois
Dg1 - o
Dg2 - g1
Dga - 2g2
Dg4 - 3g3.
tste ·e.xcmplo ilustra um fato interessante. Se se conhece a matriz
de um operador linear em relação a alguma base ordenada m e quer-
se determinar a matriz em relação a outra base ordenada <B', fre•
qüentemente o que mais convém é efetuar a mudança de coordena-
das usando a matriz inversível P; contudo, pode ser muito mais
fácil determinar a matriz representante recorrendo diretamente à
sua definição.
Definição. Sejam A e B n X n matrizes (quadradas) sôbre o corpo
F. Dizemos que B é semelhante a A sôbre F se existe uma n X n
matriz inversível P sôbre F tal que B = p- 1AP.
De acôrdo com o Teorema 14t temos o seguinte: Se V é um
espaço vetorial n-dimensional sôbre F e me m' são duas bases orde-
nadas de V, então, para cada operador linear T sôbre V, a matriz
B = [TJ<B, é semelhante à matriz A = [Tl<B• O argumento também
vale no outro sentido. Suponhamos que A e B sejam n X n matri-
zes e que B seja semelhaftte a A. Seja V um espaço vetorial n-dimen-
sional arbitrário sôbre F e seja CB uma base ordenada de V. Seja T
o operador linear sôbre V que é representada em relação à base <B
por A. Se B = p- 1AP, seja <B' a base ordenada de V obtÍda de Ol
por meio de P, isto é,
n
aj = 2: pijUi.
i - l

Entãot a matriz de Tem relação à base ordenada Cl\ 1 será B.


Assim, a afirmação de que B é semelhante a A significa que
em cada espaço n•dimensional sôbre F as matrizes A e B represen•
tam a mesma transformação linear em relação a duas bases orde~
nadas (possivelmente) distintas.
Notemos que tôda n X n matriz A é semelhante a si mesma,
bastando tomar P = I; se é semelhante a A, então A é semelhante
a B, pois, B = p- 1A.P implica que Â. = (P- 1)- l BP-. 1 ; se B é se-
melhante a A e C é semelhante a B, então C é semelhante a A', pois
B = p- 1AP e e = Q- 1BQ implicam que C = (PQ)- 1A(PQ). Assim,
a semelhança ~ uma relação de equivalência sõbre o conjunto das
REPRESENTAÇÃO DE TRANSFORMAÇÕES POR MATRIZES 95

matrizes sôbre. o corpo F. Notemos também que a única matriz


semelhante à matriz unidade / é a própria J e que a única matriz
semelhante à matriz nula é a própria matriz nula.
Exercidos

1. Seja To operador linear sôbre C 3 definido por T(x11 X:1) = (x 1 , O). Seja
CB ~ ~ ordenada can~:mica de C 3 • e seja CB' = { a 1 , a 1 } a base ordenada
deftruda por a 1 - (1, r). a2 = (-1, 2).
(a) Qual é a matriz de T em relação ao par <B, CB''?
(b) Qual é a matriz de T em relação ao par (B', ffi?
(e) Qual é a matriz de Tem relação à base ordenada <B' '?
(d) Qual é a matriz de Tem relação à base ordenada { aJ, a 1 }?
2. Seja T a transformação linear de R J em R :1 definida por
T(x1, X:i, X3) = (X1 + X21 2x3 - X1).
(a) Se CB é a base ordenada canônica de Rl e 03' é a base ocdenada ca ..
nônica de R 1 , q uai é a matriz de T em relação ao par m, m1 ?
(b) Se m - { ah ai, a 3 } e <B' = { f11o '32},
sendo
a:, - (1, O, -1), ªª - (1,1,1) 1 a 1 = (1, O, 0), fJ 1 - (O, 1), P2 - (1, O)
qual é a matriz de Tem relação ao par CB, CB''!
3. Seja T um operador linear sôbre F14, seja A a matriz de T em relação à
base ordenada canônica de F" e seja W o subespaço de F" gerado pelos ve-
tores-colunas de A. Qual é a relação de W com T?
4. Seja Y um espaço vetorial bidimensional sôbre o corpo F e seja Q uma
base ordenada de V. Se T é um operador linear sôbre V e

ITJm - [: !]
demonstrar que T 3 - (a + d)T + (ad - bc)l - O.
5. Seja To operador linear sôbre RJ, cuja matriz em relação à base ordenada
canônica é
A-[ Ai}].
_-1 3 4
Determinar uma base da imagem de T e uma base do núcleo de T.
6. Seja T o operador linear sôbre R ,i definido por
T(xh X2) - (-x:i, xt).
(a) Qual é a matriz de T em relação à ~ ordenada canônica de R J?
(b) Qual é a matriz de Tem relação à base ordenada (R - {a1 , «,}
sendo a 1 - (1, 2) e a.i - (1, -1)?
(e) Demonstrar que para todo número real e o operador (T- cl)
é inversível.
(d) Demonstrar -que se- <B é uma base ordenada qualquer de R 2 e
,C7lcs • A, então A12Au #- O.
7. Seja To operador linear sôbre Rl definido por
. T(x,, X:1, X1) - (3x1 + X1, -2x1 + x,, ~x1· + 2.l':i + 4X3).
(a) Qual é a matriz de T em relação à base ordenada canônica de R' 7
(b) Qual é a matriz de T em relação à base ordenada
{ «1 • «:1, ªi}
96 TRANSFORMAÇÕES LINEARES

sendo a 1 ""' (1, O, 1), 0:1 = (-1, 2, l). e a 3 = (2, 1, l)'!


(e) Demonstrar que T é inversível e dar uma regra para r 1 como
a que define T.
8. Se.ia 8 um número real. Demonstrar que as duas matrizes seguintes são
semelhantes sôbre o corpo dos números complexos:

[ cos fJ -sen
sen 8
e]
cos 8
[ il o ]
Ó c'6
(Sugestão: Seja T o operador linear sôbre C 3 que é representado pela pri-
meira matriz em relação à base ordenada canônica. Determinar então
vetores a, e o:~ tais que To:1 = ei9a1, Tal = e--i8a3, e { O:r, 0:::i} seja uma
base.)
9. Seja V um espaço vetorial de dimensão finita sôbre o corpo F e seiam
S e T operadores lineares sôbre V. Perguntamos: quando é que existem
bases ordenadas CB e Ol' de V tais que [SJ(B. - [71(B'? Demonstrar que tais
bases existem set e somente se, existe um operador linear inversível V s.ô-
bre V tal que T =- USU- 1 • (Esbôço de demonstração: Se [S] 03 = [~,, seja
U o operador que leva IB sôbre m'; mostrar que S = uru~-1 • Reciproca-
mente se T =- US U- 1 para algum U inversível, seja (B uma base ordenada
arbitrária de V e seja Q' sua imagem por meio de U. Mostrar então que
lSJm = [7103 d
10. Vimos que o operador linear Tsôbre R 1 definido por T(x 1 , X2) = (x1 , 0)
é representado em relação à base ordenada canônica pela matriz

A = [ü gJ.
fuite operador satisfaz 7 1 = T. Demonstrar que se Sé um operador linear
sõbre R ª tal que S ª = S, então S - O ou S ""' I ou então existe uma base
ordenada ffi de R~ tal que [S)<B = A (acima).
11. Seja W o espaço das n X. 1 matri:zes-colunas sôbre um corpo F. Se
A é uma n X n matriz sôbre F, então A define um operador linear LA sô-
bre W por meio da multiplicação à esquerda: LA{X) = AX. Demonstrar
que todo operador linear sôbre W é a multiplicação à esquerda por algu•
ma n X n matriz, isto é, é LA para algum A.
Suponhamos agora que V seja um espaço vetorial-dimensional sô-
bre o corpo F e seja (B uma base ordenada de V. Para cada a em V defi-
namos Ua = [a] 0.\' Demonstrar que Ué um isomorfismo de V em W. Se
T é um operador linear sôbre V, então UTU~ 1 é um o_perador linear sô-
bre W. Isto significa que UTU- 1 é a multiplicação à esquerda por alguma
n X n matriz A. Qual é a matriz A'!
12. Seja V um espaço vetorial n-dimens.ional sôbre o corpo F e seja
d\ = { a1., •.• , ª• } uma base ordenada de V.
(a) De acôrdo com o Teorema 1, existe um único operador linear T
sõbre Y tal que
Ta; - a;+i, j = 1, ... , n - 1, Ta 11 =- O,
Qual é a matriz A de T em relação à base ordenada <B?
(b) Demonstrar que T• - O mas r---•~ O.
(e) Seja S um operador linear arbitrário sôbre V tal que S" = O mas
s•- 1 ~ O. Demonstrar que existe uma base ordenada <B' de V tal que a ma-
triz de S em relação à base ordenada as' é a matriz A da parte (a).
FUNCIONAIS LINEARES 97

(d) Demonstrar que se M e N são n X n matrizes sôbre F tais que


M• a N• - O mas M,,,- 1 '#- O pi!l N•- 1 , então M e N são semelhantes.
13. Sejam V e W espaços vetoriais de dimensão finita sôbre o corpo F e
Seja T uma transformação linear de V em W. Se
. O\ • { ai, ••.• ª" } e <B' - { /J., ... , fJ"' }
são bases ordenadas de V e W, respectivamente, definamos as transforma-
ções lineares EP•'l como na demonstração do Teorema 5: EIW(ai) - aiflJ311•
Então as E""• 1 < p < m, 1 < q < n. formam uma base de (LV. W),
e portanto
m •
T - Z l: A'lHIEP,q
P•l q•l
para certos escalares .AJ)Q (as coordenadas de Tem relação a esta base de
UV, W). Mostrar que a matriz com elementos A(p,q) - AN é exatamente
a matriz de Tem relação ao par CB, m'.
3. S Funcionais Lineares
No estudo de um espâço vetorial V sôbre o corpo F, as trans-
formações lineares de V em F têm interêsse suficiente para merece-
rem um nome especial, funcionais lineares. Num sentido rigoroso,
não deveríamos falar de transformações lineares de V em F, porque
F não é um espaço vetorial. Deveríamos _falar de transformações
lineares de V em F 1 ; no entanto, da mesma form~ que dizemos que
V é um espaço vetorial sôbre F, diremos que Fé um espaço vetorial
sôbre F, isto é, usaremos o símbolo F tanto para o corpo como
para o espaço F 1 •
Definiçlo. Se V é wn espaço vetorial $Ôbre o corpo, F, um fun-
cional linear s6bl'e V é uma tranifarmação linear de V em F. O es•
paço L(\', F) de tôdas as funcionais lineares serd indicado por v•
e denominado o espaço dual de V.
Se se quer começar do início, um funcional linear sôbre V é
uma função f de V em F tal que
f(ca + -13) = cf(a) + f([j)
para quaisquer vetores a e (3 em V e qual:quer escalar e em F. O cdn•
ceito de "funcional linear" é importante e tem muitas aplicações.
Teremos tempo de tocar em apenas algumas destas aplicações. Des-
creveremos abaixo pelo menos a forte relação entre funcionais linea-
res, equações lineares e coordenadas. ·
Exemplo 14. Seja V um espaço vetorial de dimensão finita sa-
bre o corpo F e seja <B uma base ordenada de V. A função /i que
associa a cada vetor a em V a i--ésima coordenada de a em relação
à base ordenada <B é um funcional linear sôbre V. Discutiremos abaixo
êste exemplo com alguns detalhes.
98 TRANSFORMAÇÕES LINEARES

Exemplo 15. Eis um exemplo importante de funcional linear.


Seja n um inteiro positivo e F um corpo. Seja V o espaço vetorial
das n X n matrizes sôbre F. Se A está em V, o traço de A é o escalar
trA = A11 + A22 + ... + A11n•
A função traço é um funcional linear sôbre V, pois

tr(cA + B) = I" (cAii + Bii)

=
t• 1

e
.X Àii +1•1
,.
I Bi,
11'.•l

= c[tr(A)] + tr(B).
Exemplo 16. Seja V o espaço vetorial das funções polinomiais
do corpo F em F. Seja t um elemento de F. Se definirmos
L,(p) = p(t)
então L, será um funcional linear sôbre V. Geralmente descreve-se
isto dizendo que, para cada t, o cálculo do valor em t é um funcional
linear sôbre o espaço das funções polinomiais.
·Se V é de dimensão finita podemos obter uma descrição bas..
tante explícita do espaço dual V*. Pelo Teorema 5 sabemos alguma
coisa sôbre o espaço v•, a saber, que
dim V* = dim V.
Seja CB = {a 1 , ••. , ª"} uma base de V. De acôrdo com o Teorema
1, existe (para cada i) um único funcional linear /1 sôbre V tal que
(3-11) /i{a;) = &,;.
Desta maneira obtemos a partir de d\ um conjunto de n funcionais
lineares distintos /1, ... , f.,. sôbre V. Êstes funcionais também são
linearmente independentes. De fato, suponhamos que
JI

(3-12) f = ~ Ci/i,
•• l
Então
n
/(a;) = 1: c,/1.(a;)
"- 1

= e;.
FUNCIONAIS LINEARES 99

Em particular, s~ fé o funcional nulo, /(a;) = O para cada j, logo,


os escalares Cj são todos nulos. Ora, /1, ••• , ln são n funcionais }i...
nearmente independentes e como sabemos que V* tem dimensão n,
devemos ter que IB* = {/1, ... , fn} é uma base de V*. Esta base
é dita a base dual de CB.
Teorema 15. Seja V um espaço vetorial de dimensão finita sôbre
o corpo F e seja <B = { a1, ... , an} uma base de V. Então existe uma
única base dual tB" = {f1, ••• , fn} de V* tal que f;(a 1) = Ô1;, Para
cada funcional linear [ sôbre V temos
n
(3-13) f = l; f(ai)/i
i - 1

e para cada vetor a em V temos


,.
(3-14) a = 1-; fi(a')ai,
t., l

Demonstração. Demonstramos acima que existe uma única base


que é ºdual" a <B. Se/ é um funcional linear sôbre V então fé al-
guma combinação linear (3-12) dos /i e, como observamos por
(J-··· 12), os escalares e; são dados necessàriamente por ei = f(aj),
Anàlogamente, se

é um vetor em V, então

[;(a) = ! xJi(a.)
t • 1

de modo que a única expressão de a como combinação linear dos


ª• é
n.
a = 1; /i(a)a,.
' - 1
(3-14) nos fornece agora uma ~aneira satisfatória de descrever
o que é a base dual. Ela nos diz que se m = {a1, ... , a,.} é uma·
base ordenada de V e t»* = {/1, ••• , /,.} é a base dual, então /i é
100 TRANSFORMAÇÕES LINEARES

exatamente a função que associa a cada vetor a em V a i-ésima coor-


denada de a em relação à base ordenada <B. Assim podemos tam-
bém chamaras/ide funções coordenadas para <B. A fórmula (3-13)
quando combinada com (3-14) nos diz o seguinte: Sef está em v•
e /(a;) = aí, então se
a = X1a1 + ... + XnOl.n

temos
(3-15) /(a) = a1x1 + ... + anXn,
Em outras palavras, se fixamos uma base ordenada ~ de V e des-
crevemos cada vetor em V por sua n-upla de coordenadas (x1, ~ .. ,
Xn) em relação a <B, então, todo funcional linear sôbre V é da forma
(3---15). O leitor certamente notará que esta é exatamente a repre-
sentação de f que obtemos aplicando a / nossa representação ma-
tricial geral de ·transfarmações lineares; isto é,
[a1 a2 ••• Dn]
é a matriz de / em relação às bases ordenadas cs de V e { l} de F.
É particularmente importante notar que todo funcional linear/ sô-
bre o espaço F" das n-up]as é da forma
/(Xi, , , . , X11) = a1X1 + , , , + anXn
onde a1, ... , a.. são n escalares fixos em F.
U·ma questão que surge naturalmente neste ponto é se tada
base de V* é a base dual de alguma base de V. Isto ocorre e, para
ver por que, investigaremos ràpidamente o espaço V** = (V*)*
dual do espaço v•. Se a é um vetor arbitrário em V, a função La.
sõbre V* definida por
(3-16) La(/) = /(a)
é um funcional linear sôbre v•, pois
La(cf + g) = (cf + g) {a)
= c/(a) + g(a)
= cLJf) + L.(g).
Demonstraremos agora que todo funcional linear sôbre v• é da
forma (3-16) para algum a em V.
Lema. Seja V um espaço vetorial de dimensão finita sôbre o corpo
F. Se a é um vetor nao-nulo em V, existe um_funcional linear f sdbre
V tal q~ /(a) '# O.
Demonstração. Como a ;:tE O existe uma base { a1, ••• , a,.} de
V tal que a2 = a. Se {/1, ... ,/.} 6 a base dual, então/1(a) #- O.
FtJNCIONAIS LINEARES 101

Teorema 16. Seja V um espaço vetorial de dimensão finita sôbre


o corpo F. Para cada vetora em V definamos
L,x(f) = /(a), / em v•.
A aplicação a ~ L« é então um isomorfismo de V em v••.
Demonstração. Mostramos que para todo a a função La. é linear.
Suponhamos que a e fJ estejam em V, e esteja em F e seja...,. = e a +
+ {3. Então!' para todo f em V*
L-y(f) = /(-y)
= f(ca + {j)
= cf(a) + /(/3)
= cL~lf) + L,lf),
portanto L.., = cLª +
LtJ.
Isto mostra que a aplicação a -+ L" é uma transformação linear de
V em V**. Esta transformação é não singular, pois de acôrdo com
o Lema acima LQ = O se, e somente se, a = O. Portanto a ~ Lfl(
é uma transformação linear não-singular de V em v••, e como
dim V** = dim V* = dim V
o Teorema 9 nos diz que esta transformação é inversível, sendo por ..
tanto um isomorfismo de V em V*•.
Corolário. Seja V um espaço vetorial de dimensão finita sóbre
o corpo F. Se L é um funcional linear sôbre o espaço V* dual de V,
então existe um único vetor a em V tal que
L(f) = /(a)
para todo f em V•.
Corolário. Seja V um espaço vetorial de dimensão finita sôbre o
corpo F. Tôda base de V* é a dual de alguma base de V.
Demonstração. Seja <B * = {/1, ... , /" } uma base de V*. Pelo
Teorema 15, existe uma base { L1, ... , Ln} de V** tal que
- Li(f;) == 6i;.
Usando o corolário acima, para cada i existe um vetor ai em V tal que
L.{j) == f(a,)
para tôda/ em v•, isto é, tal que L. == L,.,i. Decorre imediatamente
que { cri, ... , ª"} é uma base de Ve que a• é a dual desta base.
Exemplo 17. Seja V o espaço vetorial das funções polinomiais
de R em R, de grau menor ou igual a 2. Sejam t 1, t2 e t3 três quais-
quer números reais distintos e seja
102 TRANSFORMAÇÕES LINEARES

Li(p) = p(,ti).
Então Li, Lz e La são funcionais lineares sôbre V. Êstes funcionais
são linearmente independentes; de fato, suponhamos que
L = c,L, + c2L2 + c:1L:i,
Se L = O, isto é, se L(p) = O para todo p2 em V, então, aplicando
L às •~funções" polinomiais particulares l, x. x 2 , obtemos
C1+ Cz + Ca = 0
f1C1 + t2C2 + f:1C:1 = 0
t~ci + f2c2 + t:ka = O.
Disto decorre que ci = c2 = ca = O, pois (como mostram alguns
cálculos simples) a matriz

r:l t'l.
_ 1
:2
{'l
2
~3-
(1;
ª-
é inversível quando t 1 , t 2 e ta são distintos. Portanto, os Li são inde•
pendentes e como V tem dimensão 3, êstes funcionais formam uma
base de V*. Qual é a base de V cuja dual é esta? Tal base 1P1, p2, p:.i, J
de V precisa satisfazer

ou
p/t i) = Ôij•

Estas funções polinomiais são. como se vê fàcilmente,


(x - ta) (x - t:i)
Pi(X) = (t1 - t2) (t1 - ta)
( x - I 1) (x - ta)
P•}(x) = -·---· - -------
- (ti - /2) (t1 - l:1)
Pa(x) = (x ~ t,) (x ~ l2)
(t:1 - 11) (t:i ~ 12)
A base {p1, p2, Jh} de V é interessante porque, de acôrd o com (3-14),
te~os, para cada p em V,
p = p(ti)p1 + p(,t2)p2 + JJ(h)P:i-
Assim, se c1, c2 e ca são números reais arbitrários, existe exatamente
um.a função polinomial p sôbre R de grau menor ou igual a 2 que
satisfaz p(_t;) == eh j = 1, 2, J. Esta função polinomial é p = c1p1 +
+ C2/J2 + capa,
FUNCIONAIS LINEARES 103

Exercícios
1. Em R'. sejam c:r1 ..,. (1, O, 1), a3 - (0, 1, -2), a 3 .... (-1, -1, O).
(a) Se fé um funcional linear sôbre R 3 tal que
/(a,) = I, Í(a1) = -1, /(a.1} = 3,
e se a = (a, b, e), determinar /(a).
(b) Descrever explicitamente um funcional linear f sôbre R J tal que
Í(a 1 ) = /(aJ) ..,, O mas /(x 3 ) ~ O,
(e) Seja / um funcional linear arbitrário tal que
=
/(a1) = O e /(a3) -;tf. O.
f{a1}
Se a = (2, 3, -1), mostrar que /(a} ;11!: O.
2. Seja CB = { o::J, a., aJ}
a base de Cª definida por
a1 = (1,
O, -1), al = (l, 1, l), a 3 = (2, 2 1 0).
Determinar a base dual de <B.
3..Se A e B são II X ,r matrizes sôbre o corpo F, mostrar que traço (AB) = tra-
ço (BA). Mostrar depois que matrizes semelhantes têm o mesmo traço.
4. Seja V o espaço vetorial das funções polinomiais p de R em R que têm
grau menor ou igual a 2, ou seja,
p(,x) = Co + C1X + C .iX:i.
Definamos três funcionais lineares sôbre V por

[i(p) - Jo 1 p(x) dx f .J.p) = J,2 p(,x) dx h(P) = Ío- l /J(.x) dx.

Mostrar que {ji, /3, [J} é uma base de V* exibindo a base de v• da qual
ela é dual.
5. Se A e B são n X ,r matrizes complexas, mostrar que é impossível ter-se
AB- BA = l.
6. De acôrdo com o Exercício 3, matrizes semelhantes têm o mesmo tra-
ço. Assim, podemos definir o tra;o de um operador linear sôbre um espa-
ço vetorial de dimensão finita como sendo o traço de qualquer matriz que
represente o operador em relação a uma base ordenada. Isto está bem de-
finido uma vez que tôdas as matrizes representantes de um operador· são
semelhantes.
Seja agora V. o espaço das 2 X 2 matrizes sôbre o corpo F e seja P
uma 2 X 2 matriz fixa. Seja T o operador linear sôbre V definido por
T(A) = PA. Demonstrar que traço (T) ""' 2 traço (P).
7. Sejam f.. e /; funcionais lineares sôbre um espaço vetorial n-dimensio-
nal V. Seja N; o núcleo de /,, j == 1, 2. Suponhamo~ que / 1 ;é O ;é h e
que N, ~ Na. Determinar as dimensões de cada um dos espaços N11 Ni,
N1 ('\ Ni e N1 N2. +
8. Sejam m e n inteiros positivos e F um corpo. Sejam /1, ... , f.,,. funcio-
nais lineares sôbre Fn. Para a em F" definamos
Ta = (.(1 (a), ... , J,..(a) ).
Mostrar que T é uma transformação linear de Fn em F'". Mostrar então
que tôda transformação linear de F11 em F,,. é da forma acima, para certos
Is, ... , /111-
104 TRANSFORMAÇÕES LINEARES

t. Seja V um espaço vetorial sôbre o corpo F. Seja / um funcional linear


fixo não-nulo sôbre V e seja N o núcleo de f. Fixemos um vetor a 0 em V
que nio esteja em N. Demonstrar que para cada a em V existe um escalar
e e um vetor {J em N tal que a "'"' e ªº + fj. Demonstrar que e e ~ são únicos.
10. Seja V um espaço vetorial de dimensão finita sôbre o corpo F e seja
W um subespaço de V. Se/ é um funcional linear sôbre Wt demonstrar que
existe um funcional linear g sõbre V tal que g(a) ... f(a.) para todo a no sutr
espaço W.
11. Seja F um subcorpo do corpo dos números complexos e seja V um es-
paço vetorial arbitrário sõbre F. Suponhamos que / e g sejam funcionais
lineares sôbre V tais que a função h. definida por /(a) =- /(«)g(a) também
seja um funcional linear sôbre V. Demonstrar que ou / = O ou g = O.
12. Mostrar que o funcional traço sôbre n X n matrizes é o único no se-
guinte sentido: se W é o espaço das n X n matrizes sôbre o corpo F e se
/ é um funcional linear sôbre W tal que /(AB) .... f(BA) para tõdas' as A e B
em W, então/é um múltiplo escalar da função traço. Se1 além disso. /(/) == n,
então / é a função traço.
13. Seja F um subcorpo do corpo dos números complexos e seja V um es-
paço vetorial de dimensão finita sõbre F. Se a 1 ••• , a,.. são um número
finito de vetores em V. todos diferentes do vetor nulo, demonstr~r que existe
um funcional linear / sôbre V tal que
/(«1) 9'- O, i - l •.•.• m.
14. Sejam /i, . . . 1 Ir funcionais lineares sôbre um espaço vetorial V e seja
N; o núcleo de /;, j ""' 1, ... , r. Seja f outro funcional linear sôbre V, com
núcleo N. Demonstrar que/ é uma combinação Jinear de / 1 , • • • • Ir, se e
r
somente se, Ncontém a interseção('\ N;, (Demonstrar primeiro parar ... 1.)
J-l
15. Seja W o espaço das n X n matrizes sôbre o corpo F e seja Wo o sub-
espaço gerado pelas matrizes e da forma C == AB - BA.
Demonstrar que W0 é exatamente o subespaço das matrizes que têm
traço nulo. (Sugestão: Qual é a dimensão do espaço das matrizes de traço
nulo'? Usar as "matrizes unitárias", isto é, as matrizes com exatamente um
elemento não-nulo, para construir um número suficiente de matrizes Jinear-
mente independentes da forma AB - BA.)

3. 6 Anuladores
O objetivo principal desta seção é demonstrar que um subespaço
W de um espaço vetorial V de. dimensão finita é determinado pelo
conjunto dos funcionais lineares/ em V* que se anulam em W. Mais
precisamente, se dim V= li e dim W = r, demonstraremos que exis-
tem (n - r) funcionais Jineares/1 , ••• ,/n-r em v• tais que W con-
siste exatamente dos vetores a em V que satisfazem /,(a) = O, j =
= l, ... , n - r.
.,

Definição. Se V é wn espaço vetorial sôbre o c-0rpo F e S é wn


subconjunto de V, o anulador de S é o conjunto S0 dos funcionais li-
neares f s6bre tais V que f(a)' = O para todo a em S.
ANULADORES 105

Deve ficar claro para o leitor que So é um subespaço de v•,


seja S um subespaço de V ou não. Se S é o conjunto formado ape-
nas pelo vetor nulo, então, S 0 = v•. Se S = Y, então So é o sub-
espaço nulo de v•. (Isto é fácil de ver para o caso em que Y é de
dimensão finita.)
Teorema 17. Seja V um espaço vetorial de dimensão sóbre o
corpo F e seja W um subespaço de V. Então
dim W + dim Wº = dim V.
Demonstração. Seja k a dimensão de W e {a1, ••• , a,} uma
base de W. Tomemos vetores a.1: + h ••. , ª• em Y tais que fa 1, ••• , ª"}
seja uma base de V. Seja {/1, ... , /,.} a base de v• que ê a dual des..
ta base de V. Afirmamos que {/i+ 1, ••. ,,/.} é uma base do anulador
de W 0• Certamente/; pertence a Wº para i > k + 1, porque
Íi(a;) = Bi;
e 6,; = O sei> k + 1 ej< k; disto decorre que, para i > k 1,+
fi(a) = O sempre que a seja uma combinação linear dea1, ... , at. Os
funcionais /• + 1, •••• /n são independentes, portanto basta mostrar
que êles geram w0• Suponhamos quef esteja em V*. Ora,
n
f = l; /(a;)/i
1-1

de modo que, se f está em Wº, temos /(a,) - O para i '$ k e

Mostramos que se k i a dimensão de W e n é a dimensão de V, então


a dimensão de Wº é (n - k).
Um fato razoàvelmente elementar mas importante sõbre um es-
paço V de dimensão finita é que se W1 e W2 são dois subespaços de
V tais que Wf = W~, então W1 = W2. Uma .maneira de ver isto
é investigar o anulador do anulador de um subconjunto S de Y. ~
S é um subconjunto de Vt então, rigorosamente falando, s00 = (sdj0
é um subespaço do espaço bidual Y*•; contudo, identificando V**
com V por meio do isomorfismo a _. L., podemos considerar Soº
como um subespaço de Y, isto é, conjunto de todos a em V tais que
/{a) = O para todo / em So.
Teorema 18. Seja V um espaço vetorial de dimensão finita sôbre
o corpo F e seja W um subespaço de V. Então W 00 = W.
106 TRANSFORMAÇÕES LINEARES

Demonstração. Certamente W é um subconjunto de w 00 , pois


se a está em W, então /(a) = O para todo/ em w 0• De acôrdo com
o Teorema 17,
dim W + = dim V
dim Wº
dim Wº + = dim V*= dim V
dim Wºº
do que segue que dim W = dim w00 . Como W está contido em
w00 temos, necessàriamente, que W = w00 •
Corolário. Se S é um subconjunto arbitrário de V, então S?º é o
subespaço gerado por S.
Demonstração. Seja W o subconjunto gerado por S. Então
So = Wº; pois se/ está em Wº é evidente que/ está em s0 e, reci-
procamente, se f está em Sº então /(a) = O sempre que a é uma
combinação linear de vetores em S, isto é, f está em w0 • Pelo Teo-
rema 18, w00 = W e como Wº = s 0 temos s 00 = W.
Corolário. Se W1 e W2 são subespaços de V, então W2 = W1
se e somente se wi = W~.
Consideremos ràpidamente sistemas de equações lineares homo-
gêneas do ponto de vista de funcionais lineares. Suponhamos ter um
sistema de equações lineares
À11X1 + ... + À1nXn = 0

À,.1X1 + , , . + À,.mXn = O
cujas soluções queiramos determinar. Se indicarmos por[i, i = 1, ... ,
m, o funcional linear s.ôbre pn definido por
fi{x1, ... , Xn) = Ài!X 1 + ... + À,:nXn
então estamos procurando o subespaço de F" constituído por todos
a tais que
Íi(a.) = O, i = 1, ... , m.
Em outras palavras, estamos procurando o subespaço anulado por
/1, ... , / •. A linha-redução da matriz dos coeficientes nos fornece
um mék>do sistemático para determinar êsse subespaço. A n•upla
(Ail, ... , Ài,.) dá as coordenadas do funcional linear/, em rela-
ção à base que é dual da base canônica de F". O espaço-linha da
matriz dos coeficientes pbde portanto ser considerado como o es~
paço de funcionais lineares gerado por / 1 i • • • , / ,,.. O espaço-solução
é o subespaço anulado por êsse espaço de funcionais. Pelo Teo-
ANULADORES 107

rema 18, isto é o mesmo que dizer que o espaço de funcionais


gerado pelas /i é o anulador do espaço das soluções. O que o Teo-
rema 17 nos diz nesse contexto é que a soma do pôsto-linha de A
com a dimensão do espaço-solução é n. Em outras palavras, se A
é uma m X n matriz de pôsto-linha r, então o espaço das solu-
ções do sistema homogêneo AX = O tem dimensão (n - r).
Agora podemos considerar o sistema de equações do ponto de
vista "dual". Isto é, suponhamos que nos sejam dados m vetores
em F"
ai = (An, ... , Ain)
e queiramos determinar o anulador do subespaço gerado por êsses
vetores. Como um funcional linear arbitrário sôbre pn tem a forma
f(X1, . , , , Xn) = C1X1 + , .. + CnX,i
a condição para que festeja nesse anulador é que
n
~ ÀijCj = O, i= 1, ... ,m
i-1
isto é, que (c 1 , ••• , cn) seja uma solução do sistema AX = O. Sob
êste ponto de vista, a linha-redução nos dá um método sistemático
para determinar o anulador do subespaço gerado por um dado con-
junto finito de vetores em F".
Exemplo 18. Seja W o subespaço de R 5 gerado pelos vetores
a1 = (2, -2, 3, 4, -1), aa = (O~ O, -l, -2. 3),
a2 = (-1, l, 2, 5, 2), a4 = (l, -1, 2, 3, O).
Com,o se descreve Wº, o anulador de W? Formemos a 4 X 5 ma-
triz À com vetores-linhas ai, a2, a3, a1 e determinemos a matriz R
linha-reduzida à forma em escada que é linha-equivalente a A;
-_: -f
[ ~ 1 -}]- -~ -b ~ -1 g-
À = O O -1 -2 3 ~R = O O O O 1 .
1 -1 2 3 O
Se f é um funcional linear sôbre R 6 ,
- O O O O O
-
5
/(x1, •.. ' Xs) = l:: C;X;
j=l
entio / está em Wº se, e somente se, /(ai) = O, i = 1, 2, 3, 4, isto
6) se, e somente se,
õ
1; À i.jC; = 0, 1 < i < 4.
j - 1
108 TRANSFORMAÇÕES LINEARES

Isto é equivalente a
5
1: Ri;C; = o,
J-1
ou
Ct - C2 - C,4 = 0
C3 + 2c4 = 0
0. C5 =
Obtemos todos êsses funcionais lineares atribuindo valores arbitrá-
rios a c2 e e,, por exemplo, c-2 = a e e, = b e depois calculando
os correspondentes c1 = a + b, ca = -2b, e.; = O. Portanto,. Wº
consiste de todos os funcionais lineares / da forma
/(xi, x2, xa, x,, X5) = (a + b)x1 + ax2 - 2bxa + bx4.
A dimensão de w0 é 2 e pode-se encontrar uma base {/1, /2 } de
W0 tomando primeiro a = 1, b = O e depois a = O, b = I :
l1(X1t • •., X5) = X1 + X2
/2(x1, ... , xs) = X1 - 2xa + X4.
Um/ arbitrário em Wº é/ = a/1 + b/2. O fato de que w00 = W
significa exatamente que W consiste de todos os vetores a = (X1t
x2J xa, X4, X5) que satisfazem /1{a) = /2(a.) = O, isto é, todos a.
tais que
X1 + X2 = 0
x1 -O 2xa + X4 •

O leitor deve notar que esta é a descrição explicita de W que demos


no Capitulo 2, (2-25).
ExerclclOI
1. Sejam a1 - O. O, -1, 2) e «2 • (2, 3, l, J) e seja W o subespaço de
Ra prado por a1 eªª' Quais funcionais lineares/.
/(x,, Xi, XJ, X4) • C1X1 CaXJ + C3XJ + + C 4X 4•
estio no anulador de W'!
2. Seja W o .subespaço de R s gerado pelos vetores
ª• = 1!1 + 2ea + fJ, + 3e + Je,. +
0!3 - f:r 3 fa
a3 """ + 412 + 6e + 4,e +
ft 3 f11,

Determinar uma base de Wº.


3. Seja V o espaço vetorial das 2 X 2 matrizes sôbre o corpo dos números
reais e seja

B - [-12 -2J1 •
A TRANSPOSTA DE UMA TRANSFORMAÇÃO LINEAR 109

Seja W o subespaço de V que consiste de tôdas A tais que AB - O. Seja


/ um funcional linear sôbre V que esteja no anulador de W. Suponhamos
que /(/) - O e /(C) =-= 3. sendo l a 2 X 2 matriz unidade e

e - [ ·oo º]1 ·
Determinar /(B).
4. Seja F um subcorpo do corpo dos números complexos. Definamos n
funcionais lineares sôbre F1nf..11 > 2) por
,.
ÍJÍ..X1, , • • , Xn) - % (k - })Xi, 1 <k < li,
j •l
Qual é a dimensão do subespaço anulado por li .... , ln'!
5. Seja n um inteiro positivo e F um corpo. Seja W o conjunto de todos
os vetores (x 1 , ••. , Xn) em P• tais que x 1 + ... +
x,. =-= O.
(a) Demonstrar que Wº consiste dos funcionais lineares f da forma
,,
f(xh .•• , x,.) - e :t Xj,
J- l
(b) Mostrar que o espaço w• dual de W pode ser identificado de ma~
ncira ºnaturalº com os funcionais lineares ,
/(x1,., , . , Xn) - C1X1 + .. , + C,,X,.
sõbre F" que satisfazem c 1 + ... + cn. • O.
6. Se V é um espaço vetorial sôbre o corpo F, definamos um hiperplano
em V como sendo o núcleo de um funcional linear não-nulo sõbrc V. Se
V é de dimensão finita, demonstrar que todo subespaço de V é a interseção
de um número finito de hiperplanos.
7. Sejam W1 e Wi subespaços de um espaço vetorial V de dimensão finita.
(a) Demonstrar que (W 1 +
WS' - Wf ('\ w;.
(b) Demonstrar que ( W1 ('\ W~)º - Wf WJ. +
3. 7 A Transposta de uma Transformação Linear
Suponhamos que existam dois espaços vetoriais V e W sõbre
o corpo F e uma transformação linear T de V em W. Então T induz
uma transformação linear de w• em v•, como segue. Suponhamos
que g seja um funcional linear sôbre W e seja
(3•17) /(a) = g(Ta)
para cada. a em V. Então (3-17) define uma função f de V em F,
a saber, a composta de T, uma função de V em W, com g, uma fun-
ção de W em F. Como Te g são ambas lineares, o Teorema 6 nos
diz que; f também é linear, isto é, fé um funcional linear sôbre V.
Assim T nos fornece uma função T' que a cada funcional linear g
sôbre W faz corresponder um funcional linear/ = T'g sôbre V,
definido por (3-11). Notemos também que T' é na verdade uma
transformação linear de w• em V*; de fato, se g1 e g2 estão em
w• e e é um escalar
110 TRANSFORMAÇÕES LlSEARpS

[Tl(cg1+ g2)](0:) = (cg1 + K2XTa)


= cgi(Ta) + g2(Ta)
= c(T'g1Xa) + (T g2Xa)
1

de modo que T'(cg1 + g2) = cTtg 1 + T'g2, Façamos um resumo.


Teorema 19. Sejam V e W espaços vetoriais sôbre o corpo F.
Para cada tran~fol'mllção linear T de V em W existe uma única trans-
formação linear Tt de W* em V* tal que
(T'g')(_a) = g(_Ta)
para todos g em W* e a em V.
Denominaremos T' a transposta de T. Esta transformação T'
é freqüentemente denominada a adjunta de T; no entanto, não usa-
remos essa terminologia.
Teorema 20. Sejam V e W espaços vetoriais sôbre o corpo F e
seja T uma transformação linear de V em W. O núcleo de Tt é o anu-
lador da imagem de T. Se V e W são de dimensão finita, então
(í) pôsto (Ti) = pôsto (T)
(ii) a imagem de Tt é o anulador do núclep de T.
Demonstraçã,o. Se g está em W*, então por definição
(T'g)(a) = g(_Ta:}
para todo a em V. A afirmação de que g está no núcleo de T' signi•
fica que g(_T«) = O para todo a em V. Portanto o núcleo de T' é
exatamente o anulador da imagem de T.
Suponhamos que V e W sejam de dimensão finita, digamos
dim V = n e dim W = n. (i) Seja r o (1ôsto de T, isto é, a dimen-
são da imagem de T. Pelo Teorema 17, o anulador da imagem de T
tem dimensão (m - r). Pela primeira afirmação dêste Teorema, a
nulidade· de T' deve ser (m - r). Mas como T' é uma transfor-
mação linear sôbre um espaço vetorial m..dímensional, o pôsto de
T é m - (m - r) = r, logo T e T' têm o mesmo pôsto. (ii) Seja
No núcleo de T. Todo funcional que está na imagem de T' está
no anulador de N; de fato, suponhamos que/ = T'g para algum
g em w•; então, se a está em N
f(a) = (T'gXa) = g(Ta) = g(O) = O.
Ora, a imagem de T' é um subespaço do espaço Nº, e
dim Nº = n - dim N = pôsto (D = pôsto (T')
de modo que a imagem de T' deve ser exatamente N°.
A TRANSPOSTA DE UMA TRANSFORMAÇÃO LINEAR 111

Teorema 21. Sejam V e W espaços vetoriais de dimensão finita


sôbre o corpo F. Seja ~ uma base ordenada de W com base dual <B •
e seja <B' uma base ordenada de W com base dual fl' •. Seja T uma
transformação linear de V em W; seja A a matriz de T em relação
a <B, <B' e seja B a matriz der em relação a m'*, <B*. Então BH = AH.
Demonstração. Sejam
$ -= { ai, ... , a,.}, <B' = {/11, • • •, /3m},
m* -= {/1, ... ,/a}, <B.' * = {g1, • • •. t g na } •

Por definição,
n
Ta; = l: Âi;/h, j == l, ... , n
i•l
,.
T'g; = ? B,;/,, j = 1, ••. , m.
' - 1
Por outro lado,
(T'g/J(.ai) = gi{Ta,)
= g; ( ; À1rt/31e)
.t • l
m
== 2': À1eig,(/Ji)
t. ... 1
m
= ? À1ri8;1e
t-1
= A;...
Para qualquer funcional linear f sôbre V
ffl

f = 2; f (tzi)Íi•
i-1

Aplicando esta fórmula ao funcional/ = T'g; e usando o fato de que


(g;)T' (a,) = À,i temos
n
T'g; = 'EÀiiÍ•
i -1
do que decorre imediatamente que B,; == À;i-
Definiçlo. Se A é uma m X n matriz sôbre o corpo F, a trans-
posta de A é a n X m matriz At definida por Ab = Au. ·
112 TRANSFORMAÇÕES LINEARES

O Teorema 21 a.firma portanto que se T é uma transforma ..


ção linear de V em W, cuja ·matriz em relação a algum par de bases
é A, então a transformação transposta T' é representada em re]a..
ção ao par de bases duais pela matriz transposta A'.
Teorema 22. Seja A uma m X n matriz arbitrária sôhre o cor-
por F. Então o pôsto .. linha de A é igual ao pôsto-coluna de A.
Demonstração. Seja a base ordenada canônica de F• e m' a
<B
base ordenada canônica de pm. Seja T a transformação linear de
F" em F"" tal que a matriz de Tem relação ao par ffl, <B' seja A, isto é,
T(x1, ... , Xn) - (y1, .•. , Ym)

onde Yt - " A ;;X; •


l';
.i - 1
O pôsto-coluna de A é o pôsto da transformação T, pois a imagem
de T consiste de tôdas as m..uplas que são combinações lineares dos
vetores-colunas de A.
Em relação às bases duais m'• e CB*, a aplicação transposta
T' é representada pela matriz A'. Como as colunas de A' são as
linhas de A, vemos, pelo mesmo raciocínio, que o pôsto-linha de A
(o pôsto ..coluna de A') é igual ao pôsto de T'. Pelo Teorema 20,
Te T' têm o mesmo pôsto, logo o pôsto..finha de A é igual ao pôs-
to-coluna de A.
Vemos agora que se A é uma m X n rnatriz sôbre F e T é a
transformação linear de F"' em pm definida acima, então

p&sto (T) - pôsto-linha (A) = pôsto-coluna (A)


e denominaremos êste número simplesmente o pôsto de A.
Exemplo 19. tste exemplo será de natureza geral - mais uma
discussão que um exemplo. Seja V um espaço vetorial n-dimensional
sôbre o corpo F e seja T um operador linear sôbre V. Suponhamos
que m= {a1, ... , a,.} seja uma base ordenada de V. A matriz
de T em relação à base m é definida como sendo a n X n matriz A
tal que
m
Tai = l'; Ài;ai;
.i,. l

em outras palavras, Âii é a i-ésima coordenada do vetor Tai em


relação à base ordenada CB. Se {/ 1, ••• ,!/,.} é a base dual de m, isto
pode ser enunciado simplesmente como
A TRANSPOSTA DE UMA TRANSFORMAÇÃO LINEAR 113

A ii = /i(To.J.
Vejamos o que acontece quando mudamos de base. Suponhamos que
(B' = { aL . . . , a~ }
seja outra base ordenada de V, com base dual {/í, ... ,/~}. Se B
é a matriz de T em relação à base ordenada m', então
Bi1 = (f ~To.1).
Seja U o operador linear inversível tal que Uai = a\. Então, a
transposta de U é dada por U'f: = /1:. E. fácil verificar que por
ser U inversível, U' também o é e ( Ut)- 1 = ( u- 1)'. Assim
f 1 = (U- 1)'./1, i = l, ... , n. Portanto
Bii = [( u- 1):{.] (Ta D
= f.(U- 1Taí)
= /i( u- 1TUaJ),
O que significa isto? Bem, /i(U- 1TUa;) é o elemento i, j da matriz
de u- l TU em relação à base ordenada ffi. Nossos cálculos acima
mostram que êste escalar é também o elemento i, j da matrjz de T
em relação à base ordenada CB'. Em outras palavras,
111~' = ru- 1 TV1B
= [u- i ]aJ: TJm[ UJm
= [UJm 1 u1(B cn(Bl
e esta é exatamente a fórmula de mudança de base que deduzi-
mos anteriormente.
Exercidos
1. Seja F um corpo e seja f o funcional linear sôbre F definido por2

/(x 1 • xi) = ax 1 + bx 2- Para cada um dos operadores lineares T seguintes,


sendo g - T 1/, determinar g(xi, x 1).
(a) T(x 1 , xl) - (xi, O);
(b) T(x .. Xi) - (-x,, x 1 );
(e) T(xi, Xi) - (x 1 - xh x 1 + Xai),
l, Seja V o espaço vetorial das funções polinomiais sóbre o corpo dos nú-
meros reais. Sejam a e h números reais· fixos e seja/ o funcional linear sô-
bre V definidr- por

f(p) = J. 11
p(x) dx.

Se D é o operador derivação sôbre V, o que é D 1/"!


3. Seja V o espaço das n X n matrizes sôbre um corpo F e seja B uma n X n
matriz fixa. Se T é o operador linear sôbre V definido por T(A) - AB - BA
e se / é a função traço, o que é T1f?
4.. Seja JI um espaço vetorial de dimensão finita sôbre o corpo F e seja T
um operador linear sôbre V. Seja e um escalar e suponhamos que exista
um vetor não-nulo a em V tal que Ta - ca. Demonstrar que existe um
funcional linear não-nulo / sõbre V tal que T'f = ef
114 TRANSFORMAÇÕES LINEARES

5. Seja A uma m X n matriz com elementos reais. Demonstrar que A = O


se, e somente se, traço (A 1A) = O.
6. Seja n um inteiro positivo e seja V o espaço das funções polinomiais só-.
bre o corpo dos números reais, de grau menor ou igual a n, isto é, funções
da forma
f(x) = Co + c X + ... + c,.x".
1

Seja D o operador derivação sôbre V. Determinar uma base do núcleo do


operador transposto D 1•
7. Seja V um espaço vetorial de dimensão finita sôbre o corpo F. Mostrar
que T - T 1 é um isomorfismo de L(V, V) em L(V*, V*).
8. Seja V o espaço vetorial das n X n matrizes sôbre o corpo F.
(a) Se B é uma n X II matriz fixa, definamos uma função Is sôbre
V por fil..A) = traço (B'A). Mostrar que /a é um funcional linear sôbre Vi
(b) Mostrar que todo funcional linear sôbre V é da forma acima, isto
é, é f » para algum B.
(e) Mostrar que B - [B é um isomorfismo de V em v•.
CAPITULO 4

POLINÔMIOS

,,
4 .1 Algebras
O objetivo dêste capítulo é estabelecer algumas das proprie-
dades básicas da álgebra dos polinômios sôbre um corpo. A discus-
são será facilitada se introduzirmos primeiro o conceito de uma ál-
gebra linear sôbre um corpo. ·
Definiçlo. Seja F um corpo. Uma álgebra linear sôbre o cor-
po Fé um espaço vetorial a sôbre F com uma operação adicional,-
dita multipllcaçio de vetores, que associa a cada par de vetores
a, fJ em a um vetor afj em ct dito o produto de a por fJ de maneira
tal que
(1) a multiplicação é associativa,
a(fj-y) = (afj")y
(2) a multiplicação é distributiva em relação à adição,
a(fl + -y) = a/3 + cry e (a + {3)y = a-y + fj-y
(3) para cada escalar e em P.,
c(afj) = (ca)/3 = a(c/3).
Se existir um elemento l em a tal que la ==
al = a para todo a
em a , denominaremos a uma álgebra linear com elemento unidade
sôbre F e denominaremos 1 o elemento unidade de ct. A álgebra a
é dita comutatha se afl = fJa para todos a e (j em ct .
Exemplo 1. O conjunto das n X n matrizes sôbre um corpo,
com· as operações usuais, é uma álgebra linear com elemento uni-
dade; em particular o próprio corpo é um á]gebra com elemento
unidade. Esta álgebra não é comutativa se n > 2. O corpo é (evi-
dentemente) comutativo.
116 "
POLINOMIOS

Exemplo 2. O espaço dos operadores lineares sôbre um espaço


vetorial, com o composto como o produto,. é uma álgebra linear
com elemento uq_idade. Ela.~ comutativa se- e somente se o espaço
é unidimensionat.
O leitor talvez tenha tido alguma experiência com o produto
escalar e com o produto vetorial em R 3 • Se é o caso, deve verificar
que nenhum dêsses produtos é o do tipo descrito na definição de
uma álgebra linear. O produto escalar, como o nome indica, associa
cada par de vetores um escalar., e assim, certamente, não é o tipo
de produto que ora discutimos. O produto vetorial associa de fato
um vetor a cada par de vetores em R 3 ; no entanto, esta não é uma.
multiplicação associativa.
O restante desta seção será dedicado à construção de uma álge-
bra que é significativamente diferente das álgebras dos exemplos
precedentes. Seja F um corpo e S o conjunto dos inteiros não-nega-
tivos. Pelo Exemplo 3 do Capítulo 2, o conjunto de tôdas as fun-
ções de S em F é um espaço vetorial sôbre F. Indicaremos êste
espaço vetorial por Frr.,. Os vetores em prr.o são portanto seq üên-
cias infinitas f = {fo, /1, /2, ... } de escalares /1 em F. Se
g = {go, g1, g2, ... }, com gi em P e A, b são escalares em F,
af + bg é a seqüência infinita dada por
(4-1) af + bg = { a/o + bgo, a/1 + bg1, a/2 + bg2, .. . } .
Definamos um produto em prr.o associado a cada par de vetores/,
g em r
o vetor f g que é dado por
n
(4-2) (fg)n = I [ign-i, n = O, l, 2, ....
i - o
Assim

e como
n n
(gf)n = i gi/n-i == !, ÍiKn-i = (fg)n
1=0 i=O

para n == O, l, 2, ... , segue que a multiplicação é comutativa, isto


é, f g = gf Se h tainbém pertence a F°°, então
11

[(fg)h]n = }; (fg)ihn-i
i- o
A ÁLGEBRA DOS POLINÔMIOS 117

" i
- 2; ~ f;giLjhn-i
t ... o i•O

" j
== i /; 2; gihn-i-i
;-o -i-o
11

= ~ fj(gh),i-j = [/(gh)]n
1-0

para n = O, 1, 2, ... , de modo que


(4-l) (/g)h = f(gh).
Deixamos a cargo do leitor verificar que a multiplicação definida
por (4-2) satisfaz (2) e (3) da definição de uma álgebra linear e que
o vetor 1 = { l, O, O, ... } funciona como um eJemento unidade
de r. Então, F'°°, com as operações definidas acima, é uma álge·
bra linear comutativa com elemento unidade sôbre o corpo F.
O vetor { O, 1, O, ... t O, •.• } desempenha um papel notá-
vel no que segue e indicá-lo-emos consistentemente por x. Em todo
êste capítulo, x nunca será usado para indicar um elemento do cor-
po F. O produto de x por si mesmo n vêzes será indicado por x•
e colocaremos ;xO = 1. Então
x 2 = {O, O, 1, O, ... } t x 3 -= { O, O, O, 1, O, ..• }
e, de maneira geral, para cada inteiro k ~ O, (x')1: =ic 1 e (x1:)n = O
para todos inteiros não-negativos n ~ k. Concluindo esta seção,
observemos que o conjunto formado por 1, x, x~t ... é independen-
te e infinito. Assim a álgebra F'° não é de dimensão finita.
4. 2 A Álgebra dos Polinômios
Estamos agora em condições de definir um polinômio sôbre o
corpo F.
Definlçlo. Seja F[x] o subespaço de FQII gerado pelos veto-
res 1, x, x2, •••• Um elemento de F(x] é dito um polinômio sôbre F.
O leitor deve notar que um polinómio não é mesmo o tipo de objeto
que uma função polinomial.
Como F(x] consiste de tôdas as combinações lineares (finitas)
de x e suas potências, um vetor não-nulo f em F'° é um polinõ•
mio se e somente se existe um inteiro n > O tal que /. ~ O e tal
que /1t = O para todos os inteiros k > n; êste inteiro (quando existe)
é evidentemente único e é denominado o grau de /. Indicamos o
grau de um polinômio por gr(/) e não atribuímos nenhum grau ao
poliuômio nulo. Se f é um polinômio não-nulo de grau n temos que
(4-4) f = /()X!' + /1x + /2x 2 + ... + f,.x.,., ln ~ O.
118 POLINÔMIOS

Os escalares / 0, /1, ... , /. são às vêzes ditos os coeficientes de:/ e


podemos dizer que/ é um polinômio com coeficientes em F. Deno-
minaremos polinômios da forma ex" polinômios constantes e fre-
qüentemente indicaremos xcº por e. Um polinômio não-nulo f de
grau n tal que/,,. == 1 é dito um polinômio unitário.
Teorema 1. Sejam f e g polinômios não-nulos sôbre F. Então
(a) fg é um polinômio não-nulo;
(b} gr(fg) = gr(f) + gr(g);
(e) fg é. um polinômio unitário se f e g são ambos polinômios
unitários;
(d) fg é um polinómio constante se, e somente se, f e g são poli-
nômios constantes;
(e) se f + g #- O,
gr(/ + g) < máx (gr')(f} gr(g) ).
Demonstração. Suponhamos que/ tenha grau me que g tenha
grau n. Se k é um inteiro não-negativo.
;.

m+n+.1: 1

(fg)m+n+k = l: /,g,,.+•+1:-i•
i-o
Para que /,gm+n+1c-, ~ O, é necessário que i < m e m + n +
k - i < n. Logo, é necessário quem + k <; i < m, o que implica
k = O e i = m. Assim,
(4-5) (jg)m+ n = f ,,.g.
e

(4-6) k > O.
As afirmações (a), (b), (e) decorrem imediatamente de (4-5) e (4-6),
enquanto (d) é uma conseqüência de (a) e (b). Deixamos a verifica-
çio de (e) a cargo db leitor.
Corolário 1. O conjunto dos pblin'6,r,ios sôbre um dado ·corpo F
é uma álgebra linear comutativa com elemento unidade sôbre F, em
relação às operaç.ões dadas por (4-1) e (4-2).
Demonstração. Como as operações (4-1) e (4--2) são aquelas
definidas na álgebra F'°° e como F {x] é um subespaço de F 00
,

basta demonstrar que o produto de dois polinômios é novamente


um polinômio. Isto é trivial quando um dos fatôres é nulo e, em
caso contrário, decorre de (a).
A ÁLGEBRA 00S POLINÔMIOS 119

Corolmo 2. Suponhamos que f, g e h sejam polinômios sôbre


o corpo F tais que f ~ O e fg = fh-. Então g = h.
Denionsttpção. Como f g = fh, f(g - h) = O, e como f ~ O
decorre imediatamente de (a) que g - h = O.
Certos fatos adicionais decorrem bastante fàcilmente da demons,.
tração do Teorema 1 e mencionaremos alguns dêles.
Suponhamos que
ffl "
f = ]; /ix" e g = ]; g;x1•
,-o J-0

Então, de (4-6) obtemos


111+11 1 )
(4-7) fg = ? ( 2; f,g,_, x'.
••O r-O

O leitor deve verificar que, no caso particular de f = ex'", g = dx"


com e, d em F, (4-7) reduz-se a
(4---8)
Ora. de (4-8) e das leis distributivas em F[x], segue que o próduto
em (4-7) também é dado por
(4-9)
onde a soma é estendida a todos os pares i, j de inteiros tais que
O < i <- m, e O < "j < n.
Definiçio. Seja a uma dlgebra linear com elemento unidade sô-
bre o corpo F. Indicaremos o elemento unidade de a por l e faremos
a conve,ção a0 = 1 para todo a em Cl. Então, a cada polinómio
n
f X/ix' sôbre F e a em a, associamos wn elemento /(a) em a pela
i -o
regra
li

/(a) = ~ /,a'.
' .. o
Exemplo 3. Seja C o corpo d0s números complexos e seja
f = x 2 + 2.
(a) Se a = C e z pertence a C, f(z) = z2 + 2, em particular
/(2) = 6 e
120 POLINOMIOS
.

(b) Se aé a álgebra das 2 X 2 matrizes sôbre C e se

B = [-! ~]
então f(B) =2 [i ~] + [_! ~] = [-~ 2
~]-
(e) Se a é a álgebra dos operadores Jineares sôbre C3 e T é o
elemento de a _dado por
T(ci, c2, ca) = (i V2 c1, c2, iy2 c::1)
entio . /(D é o operador linear sôbre C8 definido por
f(T) (ci, c2, cs} .- (O, 3c, O).
(d) Se ct é a álgebra dos polinõmios sõbrc C e g == X 4 + 3i,
então /{g) é o polinômio em a dado por
f(g) =- 7 · 1
• 6ix 4 + x'.
O leitor observador poderá notar em rela9io a Bste último exem-
plo que, se/ é um polin&rnio sôbre um corpo arbitrário e x é o poli-
nõmio { O, 1, O, ... } , então f = f(x), mas aconsclhamo..Jo a es-
quecer estefato.
Teorema 2. Seja F um corpo e a uma álgebra linear com ele•
mento unidade sdbre F. Suponhamos que f e g sejam polindmios sdbre
F, que a seja um elemento de d e que e pertença a F ~ Entao
(a) (e/ + g) (a) - ç/(a) + g(a).
(b) (Jg) (a) === /(a) g(a).
Demonstração. Como (a) é bem fácil de demonstrar, demons-
traremos sàmente (b).
Suponhamos que
111 "
f :s "Z f;x1 e g = 1: g,x!.
•-o .1-0

Por (4--8) e (4-9)


fg == i; f;g;xi+J
i,j

e portanto por (a)


<f,Xa) = z fil;a'+'
iJ
A ÁLGEBRA DOS POLINÔMIOS 121

-= /(a) g(a).

t. Seja F um subcorpo do corpo dos números complexos e seja A a seguin-


te 2 X 2 matriz sôbre F: ·

Para cada um dos seguintes polinômios/ sôbre F. calcular /(A):


(a) / = x• - x + 2;
(b) , - XJ -1;
(e) / • x• - Sx +
1.
2. Seja T o operador linear sõbre R J definido por

Seja/ o polinômio sõbre R definido por/,.. -x1 + 2. Determinar f<n.


3. Seja A uma n X ,r matriz diaaonal sôbre o corpo F, isto é, uma matriz
que satisfaz Âii =- O para i ;d: j. Seja f o polinômio sõbre F definido per
f =- (X - À 11) ••• (X - A ••).

Qual é a matriz /(A)?


4. Se f e 6 são polinômios independentes sõbre um corpo F e h é um poli-
nômio não-nulo sõbre F, mostrar que fh e gh sill independentes.
5. Se F é um corpo, mostrar que o produto de dois elementos não-nulos
de pcio é nlo-nulo.
6. Seja S um conjunto de polinômios não-nulos sõbre um corpo F. Se dois
quaisquer elementos de F nunca tem o mesmo grau, mostrar que S é um
conjunto independente em F[x]. .
7. Se a e b são elementos de um corpo F e a -;ó O, mostrar que os polin&.
mios 1, ax + b, (ax + b) 1 , (ax + b) 3" •• formam uma bue de F(x].
8. Se F é um corpo e h é um polinômio sôbre F de grau > 1, mostrar que
a aplicação / - t /(h) é uma transformação linear injetora de F[x] em flxJ.
Mostrar que esta transformação é um isomorfismo de F[x] em J-lx] se. e
somente se, ar(h} ,.. 1.
9. Seja F um subcorpo do corpo dos números complexos e sejam Te D
transformações sõbre F[x) definidas por

e
122 POLINÔMIOS

(a) Mostrar que T é um operador linear não-singular sôbre F[x]. Mos·


trar também que T não é inversível.
(b) Mostrar que D é um operador linear sôbre.F[x] e determinar seu
núcleo.
(e) Mostrar que DT = I e TD ~ /. .
(d) Mostrar que 7l(T.f)gJ """ (TfXTg) - 11ftTg)J para todos / e g em
F[x].
(e) Enunciar e demonstrar uma regra para D semelhante à regra dada
para Tem (d).
(f) Suponhamos que V seja um subespaço não-nulo de F[x] tal que
T/pertença a V para todo /em V. Mostrar que V não é de dimensão finita.
(g) Suponhamos que V seja um subespaço de F[x] que tenha dimensão
finita. Demonstrar que existe um inteiro m > O tal que D114f- O para todo
/em V.

4. 3 Interpolação de Lagrange
Em tôda esta seção suporemos que F seja um corpo fixo e que
to, ti, ... , t" sejam n + 1 elementos distintos de F. Seja V o subespaço
de F[x] que consiste dos polinômios de grau menor ou igual a n (mais
o polinômio nulo) e seja L; a função de V em F definida para/ em
V por
L;(f) = f(t;), O < i < n.
Pela parte (a) do Teorema 2, cada Li é um funcional linear sôbre
V e uma das coisas que pretendemos mostrar é que o conjunto for-
mado por Lo, L1 , ••• , L,,, é uma base do espaço V,_. dual de V.
Evidentemente, para que isto ocorra, é necessário e suficiente
(cf. Teorema 16 do Capítulo 3) que f Lo, Li, ... , L,,,} seja a dual
de uma base { P0, Pi, ... , P" } de V. Existe no máximo uma tal
base e, se existe, é caracterizada por
(4-10)
Os polinômios
(4-ll) P· _ (x- to) ... (x - t.-1) (x - li+1) ... (x - t,.)
' - (t. - to) ••. (t, - li-1) (li - li+1) ... (t; - ln)
- li
J~i
ex - t;)
li - lj
são de grau n, logo pertencem a V e, pelo Teorema 2, satisfazem
{4--10).
Se / = l: eipi, então, para cada j,
'
(4-l2)
INTERPOLAÇÃO DE LAGRANGE 123

Como o po1inômio nulo tem a propriedade de que O(t) = O para


todo t em F, decorre de (4-12) que os polinômios Po, Pi, .•. , Pn
são linearmente independentes. Os polinômios 1, x, ... , x" formam
uma base de V, logo a dimensão de V é n + 1. Portanto o conjunto
independente { Po, Pi, ... , Pn} deve também ser uma base de V.
Assim, para todos / em V
11

(4-13) f = ~ f(ti)P •.
,-o
A expressão (4-13) é denominada a fórmula de interpola~o de
Lagrange. Tomando f = x 1 em (4-13) obtemos
n
X; = ~ (tiY P;.
,-o
Decorre então do Teorema 7 do Capítulo 2 que a matriz
1 lo ,: t;
1 /1 li n
. . . . .
(4-14)

1 ln t? ... t:
é inversível. A matriz em (4-14) é dita uma matriz de Vandermonde;
constitui um exercício interessante mostrar diretamente que uma tal
matriz é inversível, quando t 0 , t 1 ••• , tn são n + 1 elementos dis-
tintos ·de F.
Se/ é um po1inômio arbitrário sôbre F, indicaremos por f' em
nossa presente discussão a função polinominal de F em F qUe leva
cada t em F em f(t). Por definição (cf. Exemplo 4 do Capítulo 2)
tôda função polinomial surge desta maneira; contudo, pode acon-
tecer que/' = g' para dois polinômios/ e g tais que f ;é g. Feliz..
mente, como veremos, esta situação desagradável ocorre apenas
quando Fé um corpo com um número finito de elementos distintos.
Para descrever de maneira precisa a relação entre polinômios e fun-
ções polinomiais, precisamos definir o produto de duas funções poli-
nomiais. Se/ e g são polinômios sôbre F, o produto de F por g' é
a função/' g' de F em F dada por
(4---15) (f' g')(t) = f'(t)g'(t), t em F.
PeJa parte (b) do Teorema 2, (fg)(t) = f(t)g(t), logo
(/g)'(t) = f'(t)g'(t)
124 POLINÔMIOS

para cada t em F. Assim,/' g' = (fg)' e é uma função polinomial.


Neste ponto, um fato de verificação imediata, que deixamos a cargo
do leitor, é que o espaço vetorial das funções polinomiais sôbre F
torna-se uma álgebra liriear com elemento unidade sôhre F se a
multiplicação é definida por (4-15).
Definiçlo. Seja F um corpo e sejam d e a ' álgebras lineares
sôbre F. As álgebras Cl e d' são ditas isomorfa.,; .,;e e~xiste uma apli-.
cação bijetora a --+ a' de a em a,' tal que
(1) (ca + d(3)' = ca.' + d/3'
(2) (a.fl)' = a.'fJ'
para todos a e fj em a e todos escalares e e d em F. A aplicu~·ão a....._. a'
é dita um isomor/ismo de a ema'. Um isomorfismo de a ema' é assim
um isomorfismo de espa,·o vetorial de a ema' que tem a propriedade
adicional (2) de "conservar" produtos.
Exemplo 4. Seja Y um espaço vetorial n..<Jimensional sabre o
corpo F. Pelo Teorema 13 d·o Capitulo 3 e observações subseqüen-
tes, cada base ordenada <B de Y determina um isomorfismo T-+
-. [T] CB da álgebra dos operadores lineares sôbre V na álgebra das
n X n mâtrizes sôbre F. Suponhamos agora que U seja um oper·ador
fixo sôbre V e que nos seja dado um polinômio

com coeficientes ei em F. Então

f(U) = 21" c.-u•


,-o
e como T -. [T]ffl é uma aplicação linear
n
= ~
[/(U)Jce
,-oci[,U~m•
Ora, do fato adicional
[T1T2]s = [Tt]e1[T2](R
par~ quaisquer Ti, T2 em L(V, V) decorre que
[U'Jci = ([lJJtg)', 2 <i< n.
INTERPOLAÇÃO DE LAGRANGE 125

Como esta relação também é válida para i = O, 1 obtemos o resul-


tado
(4-16) [/(U)]m = /([VJ&).
Em palavras, se Ué um operador linear sôbre V, a matriz de um po-
linômio em U, em relação a uma dada base, é o mesmo polinômio
na matriz de U.
Teorema 3. Se F é um corpo contendo wn número i11Jinito de
elementos distintos, a aplica~·ão f _. f' é um isomorfismo da álgebra
dos polinômios sôbre F na álgebra das funções polinomiais sobre F.
Demonstração. Pela definição. a aplicação é sobrejetora e se
f,g pertencem a F[x], é evidente que
(cf + dg)' = d/; + dg'
para todos os escalares e e d. Como já mostramos que (/g)' = /'g;'
basta mostrar que a aplicação é injetora. Para tanto, é suficiente,
pela linearidade, demonstrar que/' = O implica/= O. Suponha~
mos então que f seja um polinômio de grau menor ou igual a n tal
que/' = O. Sejam to, 11, •.• , '" n +
1 elementos arbitrários dis-
tintos de F. Como/' = o. /(ti) - O para i = O, 1, ... , n, e é uma
conseqüência imediata de (4-13) que/= O.
A partir dos resultados da próxima seção, obteremos uma de-
monstração totalmente diferente dêste teorema.

Exercícios
t. Usar a íórmula de interpolação de Lagrange para determinar um po-
linômio J com coeficientes reais tal que f tenha grau < 3 e ft-1) - --6,
/(O) = 2, /0) ""' -2, /(2) - 6. -
2. Sejam a, (3. y e a números reais. Perguntamos quando é possível deter-
minar um polinômio /sôbre R, de grau 11iío maior que 2, tal que /(-1) .. a,
_{( 1) = fj, /(3) - 'Y, e /(0) = 8. Demonstrar que isto é possível se, e so-
mente se,
Ja+6/J-')'-8i =0.

3. Seja F o corpo dos números reais,

A = [5O O~ Og 1
-
O O 3 O
ü
e p = (x - 2Xx - 3)(., - l).
126 POLINÔMIOS

(a) Mostrar que p(A) - O.


(b) Sejam P 1 , P2, PJ os polinômios de Lagrange para '• = 2, ta .... 3,
t, =- 1. Calcular E, - P,(Â), i - 1, 2, 3.
(e) Mostrar E 1 + Ei + E 3 - 1, E,E; = O se i '#- j, Ef = E,.
(d) Mostrar que .4 - 2E1 + 3Ea + EJ.
4. Seja p - (x - 2Xx - 3Xx - 1) e seja T um operador arbitrário sõ-
bre R' tal que p(T) '""' O. Sejam P1 , P,,, P 3 os polinômios de Lagrange do
Exercício 3 e seja E, :a Pt(D, i = 1, 2, 3. Demonstrar que
Ei + Ei + E 3 - I, E;Ei = O se i ,- j,
El - E,, e T = 2E1 + 3E:i + E 3•

5. Seja n um inteiro positivo e F um corpo. Suponhamos que A seja uma


n X n matriz s6bre F e P seja uma n X n matriz inversível sõbre F. Se /
é um polinômio arbitrário sóbre F, demonstrar que
1cP-1AP> = P-1f<A>P.
6. Seja F um corpo. Consideremos certos funcionais lineares panicu1ares sô-
bre F, obtidos pelo cálculo do valor em t" :
11

U./) ... /(t).

Tais funcionais não são apenas lineares, mas também tem a propriedade de
que U./r) • L(/)L(g). Demonstrar que, se L é um funcional linear qual-
quer sõbre FixJ tal que
L(fg) = li../)L(g)
para todos /e g, então L = O ou existe um tem F tal que U./) = /(t) para
todos f.

4.4 Ideais de Polinômios


Nesta seção preocupamo-nos com resultados que dependem
fundamentalmente da estrutura multiplicadora da álgebra dos po-
linômios sôbre um corpo.
Lema. Supanhamos que f e d sejam polinômios não-nulos sôbre
um corpo F tal que gr(d) < gr(f). Então existe um polinômio g em
F lxJ tal que
f - dg = O ou gr(/ - dg) < gr(/)
Demonstração. Suponhamos que
m-1
/ = DmX"' + i•O
:Z. OiX', ª· ~ o
e que
•-1
d= b"x• + i :Z- oba', b,. ~ O.
IDEAIS DE POLINÕMIOS 127

Então m > n e

Assim, podemos tomar g = (~:) x'"-".


Usando êste lema podemos mostrar que o processo familiar
de divisão de polinômios com coeficientes reais complexos é possí-
vel sôbre um corpo arbitrário.
Teorema 4. Se f, d são polin6mios sôbre wn corpo F e d é dife-
rente de O, então existem polinômios q, r em F [x] tais que
(Í) f = dq + r.
(ii) r = O ou gr(r) < gr(d).
Os polinômios q,r que satisfazem (i) e {ii) são únicos.
Demonstração. Se/ é O ou se gr(/) < gr(_d) podemos tomar
q = O e r = f. Caso f -;,!. O e gr(/) > gr(c/), o lema anterior mostra
que podemos escolher um polinômio g tal que/- dg = O ou gr(/-
-dg) <•gr(/). Se/- dg ~ O e gr(/- dg) > gr{d) podemos esco-
lher um polinômio h tal que(/- dg)- dh = O ou
gr[f - d(g + h)] < gr(J- dg).
Continuando êste processo enquanto fôr necessário, obteremos no
final polinômios q, r tais que r = O ou gr(r) < gr(d) e/ = dg r. +
Suponhamos agora que também tenhamos / = dq' r' onde r' = +
= O ou gr(r') < gr(d). Então dq r = dq +
1
+
r', e d(q - q') =
= rt - r. Se q - q' #, O então d(q - q') ;,6- O e
gr(d) + gr(q - q') = gr(r' - r).
Mas como o grau der' - ré menor que o grau de d, isto é impos-
sível e q' - q = O. Logo r' - r - O.
Deflnlçlo. Seja d um polinômio não..nulo sôbre o corpo F. Se
f está em F(x], o teorema anterior mostra que existe no mdximo um
polinômio q em F[x] tal que f = dq. Se existe um tal q dizemos que
d divide f, que fé dlvlsiTel por d, que fé um múltiplo de d e denomi-
naremos q o quociente de f por d. Escreveremos lambem q = f/d.
Corolário 1. Seja f um polindmio sôbre o corpo F e seja e um ele-
mento de F. Então fé divisfvel por x - e se, e somente se, f(c) = O.
128 POLINÔMIOS

Demonstração. Pelo teorema, f = (x - c)q + r onde r é um


polinômio constante. Pelo Teorema 2,
/(e) = Oq(c) + r(c) = r(c).
Logo r = O se, e somente se., /(e) = O.
Definição. Seja F um corpo. Diz-se que um elemento e em F é
wna raiz ou um zero de um dado polinómio f sôbre F se f(e) = O.

Corolário 2. Um polinómio f de grau n sôbre wn corpo F tem


no máximo n raízes em F.
Demonstração. O resultado é obviamente verdadeiro para poli-
nômios de grau O e grau 1. Suponhamos que seja verdadeiro para
polinômios de grau n - 1. Se a é uma raiz de/~/= (x - a')q onde
q tem. grau n - 1. Comof(b) = O se, e somente se, a = b ou q{b) =
= O, decorre de nossa hfpótese de indução que f tem no máximo n
raízes. ·
O leitor deve notar que o passo principal na demonstração do
Teorema 3 é uma conseqüência imediata dêste corolário.

Definição. Seja F um corpo. Um ideal em F[x] é um subespaço


M de F[x] tal que fg pertence a M para todo f em F[x] e todo g em M.
Exemplo S. Se Fé um corpo e d um polinômio sôbre F, o con-
junto M = dF[x], de todos os múltiplos df de d com f arbitrário
em F[x], é um ideal. De fato, M é não-vazio, pois M contém d. Se
f,g pertencem a F[x] e e é um escalar, então
c(df) - dg = d<_cf- g)
pertence a M, portanto M é um subespaço. Finalmente, M também
contém (d/)g = d(/g). O ideal M é denominado o ideal principal
gerado por d.
Exemplo 6. Sejam d1, ... , d" um número finito de polinômios
sôbre F. Então a soma M dos subespaços d;F[x] é um subespaço e
também é um ideal De fato, suponhamos que p pertença a M. Então
existem polinômios / 1, ••• , / " em F[x] tais que p = d 1f 1 + .. . +
+ d,if". Se g é um polinômio arbitrário sôbre F, então
pg = d1(/1g) + .. : + d,.(/,.g)
de modo que pg também pertence a M. Assim, M é um ideal e dize ..
mos que M é ó ideal gerado pelos polinômios d1, ... , dn.
.
IDEAIS DE POLINOMJOS 129

Exemplo 7. Seja F um subcorpo do corpo dos números·com-


plexos e consideremos o ideal
M = (x + 2)F[x] + (x 2 + 8x + 16)F[x].
Afirmamos que M = F[x]. D'e fato, M contém
+ 8x + 16 - x(x + 2) = 6x + 16
x2
logo M contém 6x + 16 - 6(x + 2) = 4. Assim, o polinômio cons-
tante 1 pertence a M, bem como todos os seus múltiplos.
Teorema 5. Se. F é um corpo e M é um ideal não•nulo arbitrário
em Ftx], existe um único polinómio unitário d em F{x] tal que M seja
o ideal principal gerado por d.
Demonstraçilo. Por hipótese, M cont6m um polinômio não-nulo;
entre todos os polinômios não-nulos em M existe um polinômio d
de grau mfnimo. Podemos supor d unitário, pois caso contrário po-
demos multiplicar d por um escalar de modo a torná•lo unitário. Ora 1

se/ pertence a M, o Teorema 4 mostra que/= dq +ronde,= O


ou gr(r) < gr(d). Como d está em M, dq e/- dq = r também per-
tencem a M. Como d é um elemento de M de grau mínimo não po-
demos ter gr(r) < gr(d), portanto r = O. Assim, M = dF[x]. Se g
6 um outro polinômio unitário tal que M = gF[x], então existem
polinômios não-nulos p,q tais que d = gp e g = dq. Assim d = dpq e
gr(d) = gr(d) + gr(p) + gr(q).
Logo gr(p) = gr(q) = Oe como d,g são unitários, p = q = 1. Assim
d-g
- E. interessante observar que na
demonstração acima, utiJizamos
um caso particular de um fato mais geral e bastante útil; a saber,
se p é um polin&mio não-nulo em um ideal M e se/ 6 um poliné>mio
em M que não é divisível por p, então/ = pq + r onde o •tresto"
r pertence a M, é diferente de O e tem grau menor que o de p. Já
usamos bte fato no Exemplo 7 para mostrar que o polinômio cons-
tante 1 é o gerador unitário do ideal 1, considerado. Em princípio,
é sempre possível determinar o polin&mio unitário que gera um
dado ideal não-nulo, pois podemos, em ·última análise, obter um
polin&mio no ideal que tenha grau mfnimo por meio de um número
finito de divisões sucessf'leis.
Corolúio. Se p1, ••• , p. são polinômios sôbre um corpo F, não
todos nulos, existe um único polin8mio unitário d em F[x] tal que
(a} d está no ideal gerado por pi, ... , Pn;
,..
130 POLINOMIOS

(b) d divide cada um dos polinômios pi•


Todo polinômio que satisfaz (a) e (b) satisfaz, necessàriamente,
(e) d é divisível por todo polinômio que divide cada um dos poli-
nômios pi, ... , Pn•
Demonstração. Seja d o gerador unitário do ideal
p1F{x] + ... + PnF[x].
Todo membro dêste ideal é divisível por d; assim, cada um dos poli-
nômios p; é divisível por d. Suponhamos agora que f seja um poli-
nômio que divida cada um dos polinômios p1, ... , Pn• Então, exis-
tem polinômios g1, .•• , gn tais que p, = f gi, 1 < i < n. Além disso,
como d está no ideal
p1F[x] + ... + p,Jlx],
existem polinômios qi, ... , qn em F[x] tais que
d = p1q1 + ••• + Pnqn,
Assim d = f[g1q1 + ... + gnq11].
Mostramos que d é um polinômio unitário que satisfaz (a), (b) e (e).
Se d' é um polinômio arbitrário que satisfaz (a) e (b) decorre de (a)
e da definição de d que d' é um múltiplo escalar de d e satisfaz (e).
Finalmente, se d' é um polinômio unitário temos d' = d.

Definição, Se Pi, ... , P11 são polinómios sóbre um corpo F, não


todos nulos, o gerador unitário d do ideal
P1F[x] + ... + PnF[x]
é denominado o máximo divisor comum (m. d. e.) de P1, ... , P~ e é
indicado por {p1, ... , p,,). Esta terminologia é justificada pelo coro-
lário anterior. Dizemos que os polinômios p1, ••• , p. são relativamente
primos se seu mdximo divisor comum é 1 ou, equivalentemente, se o
ideal que lles geram coincide com F[x].
Exemplo 8. Seja C o corpo dos números complexos. Então
(a) (x + 2, x 2 + 8x + 16) = 1 (ver Exemplo 7);
(b) ( (x - 2} 2(x + i), (x- 2) (x 2 + 1)) = (x- 2) (x + i)..
De fato, o ideal
(x - 2) 2(x + i)F[x] + (x - 2)(x 2 + l)F[x]
IDEAIS DE POLINÔMIOS 131

contém
(x ~ 2)'(:x + i) - (x - 2) (:X 2 + 1) = (x - 2) (x + i) (i - 2).
Logo contém (x - 2) (x + i), que é unitário e divide
(x - 2) 2{x + í) e {x - 2)(.x 2 + 1).

Exemplo 9. Seja F o corpo dos números racionais e em [Fx]


seja M o ideal gerador por
(x - l)(x + 2) 2 , (x + 2) 2(x - 3) e (x - 3).
Então M contém
¼(x + 2) 2[(x - l) - {x - 3)) = (x + 2) 2
e como
(x + 2) 2 = (x - 3)(x + 7) - 17
M contém o polinômio constante 1. Assim, M = F[x] e os polinômios
(x - l)(x + 2) 2, (x + 2fª(x - 3) e (x - 3)
são relativamente primos.

Exercidos
1. Seja Q o corpo dos números racionais. Determinar quais dos seguin-
tes subconjuntos de Q(x] são ideais. Quando o conjunto fõr um ideal deter-
minar seu gerador unitário.
(a) Todos / de grau par;
{b) Todos f de grau > 5;
(e) Todos / tais que /(0) .... O;
(d) Todos /tais que /(2) .... /(4) - O;
(e) Todos f na imagem do operador linear T definido por

2. Determinar o m. d. e. de cada um dos seguintes pares de polinômios


(a) 2x1 - x• - 3x• - 6x + 4, x' - x• - 2x - 2;
(b) 3x• + 8x• - 3, x.1 + 2x~ +
3x + 6;
(e) x-t - 2xJ - 2x• - 2x - 39 x 1 + 6x 1 + 7x + 1.
3. Seja A uma n X n matriz sôbre wn corpo. F. Mostrar que o conjunto
dos pglin3mios / em P(x] tais que Jl.4] - O é um ideal.
4. Seja F um subcorpo dos números complexos e seja

A,.. (O1 -2]3 •


132 POLINÔMIOS

Determinar o aerador unit!rio do ideal dos polinômios f em F[x] tais que


/(A) - O.
5. Seja F um corpo. Mostrar que a interseção de um número arbitrário .
de ideais em F(x] é um ideal.
6. Seja F um corpo. Mostrar que o ideal gerado por um número finito de
polinõmios /,., .... .1,. em F[x] é a interseção de todos os ideais que con-
tem li, ... ' '"·
7. Seja K um subcorpo de um corpo F e suponhamos que f. g sejam po-
linômios em K[x]. Seja Mx o ideal gerado por/ e g em K[x) e M.r o ideal
que eles geram em flx]. Mostrar que Mg e My possuem o mesmo gerador
unitário.

4.5 A Decomposlçlo de um Polin6mlo em Fat&-es Primos


Nesta seção demonstraremos que cada polinômio sôbre o corpo
F pode ser escrito como um produto de polinômios "primosº. Esta
fatoração nos fornece um instrumento eficiente para determinar o
máximo divisor comum de urri número finito de polinômios e, em
particular, fornece um meio efetivo para decidir se os polinõmios
são relativamente primos.
Deftnlçlo. Seja F um corpo. Diz..se que um polin8mio r em F[x] é
redutf,el aehre F se existem polinômios g,h em F[x] de grau 2::. 1 tais
que f - gh e, em caso contrário, diz-se que f I lrredutf,el s&bre F.
Um polindmio nao constante irredutível st1bre F é denominado un,.
polln61111o primo 1&bre F e t!izemos, às vlzes, que é um primo em F{x).
Exemplo 10, O polin&mio x 2 + 1 é redutível s&bre o corpo
C dos números complexos, pois
x2 + l = (x + i)(x - i)
e os polinõmios x + i, x - i pertencem a qxJ. Por outro lado,
x 1 + 1 é irredutível sôbre o corpo R dos números reais, pois se
x2 + l = (ax + b)(a'x + b')
com a, a', b, b' em R. então
aa' - 1, · ab' + bat = O, bb' - 1.
Estas relações implicam a 2 + b 2 == O, o que é impossfvel com nú-
meros reais a e b, a menos que a= b - O.
Teorema 6.. Sejam p, f e g polin8mios sôbre o corpo F. Supo•
nhamos que p seja um polin8mio primo e que p divida o produto fg.
Então p divide f ou p divide g.
A DECOMPOSIÇÃO DE UM POLINÔMIO EM FATÔllES SIMPLES t°33

Demonstração. Não há perda de generalidade se supomos que


pé um polinômio primo unitário. O fato de que pé primo diz então
simplesmente que os únicos divisores unitários de p são 1 e p. Seja
d - (f,p) o m. d. e. de/ e p. Ou d = 1 ou d = p, pois d é um poli-
nômio unitário que divide p. Se d = p então p divide f e já termi-
namos. Portanto, suponhamos que d = l, isto é, suponhamos que
/ e p sejam relativamente primos. Demonstraremos que p divide g.
Como {fp) = 1, existem polinômios /o e /JO tais que 1 ==/o/+ /JOP·
MultipJicando por g obtemos
g = fofg + PoPB
= (/g)/o + p{JJog).
Como p divide/g, divide também (/g)/o e certamente p divide p{.JJol).
Assim p divide g.
Corolário. Se p é um primo e divide wn produto f1, • • • , /,., en-
tão p divide um dos polinômios. /1, ... , / •.
Demonstração. A demonstração é por indução. Para n = 2, o
resultado é simplesmente o enunciado do Teorema 6. Suponhamos
que o resultado seja válido para n = k e que p divide o produto
/1, ... ,/1i+1 de certos (k + 1) polin6mios. Como p divide(/1, ...
. . . /,,J/1 + 1, p divid~ /, + 1 ou p divide /1 ..• f•• Pela hipótese de indu-
ção, se p divide/1 ••. /1r, então p divide li para algum j, 1 < j < k.
Portanto vemos que em qualquer caso p deve dividir algum /;, 1 <
<i<k+l.
Teorema 7. Se F é um corpo, um polinômio não-co.nstante ,
unitário em F[x] pode ser decomposto como um produto de primos
unit6rios em F[x] de uma e, a menos da ordem, somente uma maneira.
Demonstração. Suponhamos que/ seja um polinômio nlo-cons•
tante e unitário sõbre F. Como polinômios de grau 1 são irredutíveis.
nada há a demonstrar se gr(/) - 1. Suponhamos que/ tenha grau
n > 1. Por indução podemos supor o teorema verdadeiro para todos
os polinõmios não-constantes e unitírios de grau menor que n. Se
/ é irredutfvel1 / já está decomposto como utn produto de· primos
unitários e, em caso contrário._/ == gh onde g e h sio polinbmios
não.constantes e unitários de grau menor que n. Assim g eh podem
ser decompostos como produtos de primos unitários em F[x], logo
/ também pode sê-lo. Suponhamos agora que
f = PI • • ~ p,,. = qi, • • • fn

onde pi, ••• , p,,. e q1, •.. , q,. são primos unitários em }lx]. Entlo
134 POLINÔMIOS

p .. divide o produto q1 •.• q•• Pelo corolário acima, p,,. divide algum
q•• Como qi e p,,. são ambos primos e unitários isto significa que
(4-16)
De (4-16) vemos que m =n= 1 se m = 1 ou n = l, pois

Neste caso nada resta a demonstrar, porianto podemos supor m >


> 1 e n > 1. Reordenando os q podemos supor que p.. = q" e que
PI • • • Pm- IP-. = qi • • • q,.,_ tP••
Ora, pelo Corolário 2 do Teorema 1 decorre que
PI • • • p,,. - l = q1 • • • q_ - 1 •
Como o polinômio P1 ••• P•- t tem grau menor que n, nossa hipó-
tese de indução se aplica e mostra que a seqüência q1, ... , qn-1 é no
nuíxinio uma reordenação da seqüência p1, ..• , p,,._ 1. Isto, junto
com (4--16), mostra que a decomposição de/ num produto de pri-
mos unitários é única a menos da ordem dos fatôres.
Na decomposição acima de um polinômio/ não--constante e
uniuírio, alguns dos fatôres primos e unitários podem repetir-se.
Se Pt, P2, ... , p,. são os primos unitários distintos que ocorrem nes-
ta decomposição de /. então
(4-17) f -- p"1p"1
1 2 ••• p""
r,

sendo o expoente n, o número de vêzes que o primo Pi ocorre na


decomposição. Esta decomposição é certamente única e é denomi-
nada a decomposição priniária de/. Verifica-se fàcilmente que todo
divisor unitário de/ é da forma
(4-18) P1•1p•1
2 • • • p"'"
r t

De (4--1,8) decorre que o m. d. c. de um número finito de polin&-


mios nã<>constante,s e unitários /1t ... , /. é obtido combinàndo
todos aquêles primos unitários que ocorrem simultâneamente nas
decomposições de /1, ... , /.. O e_xpoente ao qual càda primo deve
ser cl~vado é o maior número natural para o qual a correspondente
potencia prima é um fator de cada/;~ Se não existem potencias pri-
mas (não-triviais) que sejam fatõres de cada /;, os polin&mios são
·relativamente primos.
A ~ECOMPOSIÇÃO DE UM POLINÔMIO EM FATÔRES SIMPLES 135

Exeaplo 11. Suponhamos que F seja um corpo e sejam a, b


e e element.Os distintos de F. Então os polinômios x - a, x - b e
x - e slo primos unitários distintos em F[x). Se m, n e s são inteiros
positivos, (x - c'Y i o m. d. e. dos polili&mios
(x - b)-Cx - e)' e (x - a)"'(x - e)•
enquanto que os três polin6mios
(x - b)"(:.t - e)•, (x - a)"'(x - e)', (x - a)•(x - b)•
são relàtivamente primos.
Teorema 8. Seja f um polinômio não-constante e unitário sôbre
o corpo F e seja
I = Pf 1 ••• p:•
a decomposição de f / atôres primos. Para cada j, 1 <j< k, seja
f; = IIP1j = n p?i
i~j

Entao /1, ... , /,, são re/ati,amente primos.


Demonstra,ãd. Deixamos a demonstração (fácil) dêste fato a
cargo do leitor. Enunciamos êste teorema principalmente porque
pretendemos usá-lo posteriormente.
Deflniçlo. O corpo Fé dito algàhricamente fechado se todo po•
linômio primo sôbre F tem grau 1.
Dizer que Fé algebricamente fechado significa que todo poli-
nômio não-constante irredutível e unitário sôbre Fé da forma (x - e).
Já observamos que cada um d&stes polinômios é irredutível para qual•
quer F. Conseqüentemente, pode-se dar uma definição equivalente de
um corpo algebricamente fechado como um corpo F tal que tocl_o po-
linômio não-constante/ em }lx] possa ser expresso sob a forma
J= c(x - c1)" 1 ••• (x - c1)"1
onde e é um _escalar, c1, .•• , c1r são elementos distintos de F e
n1, ... , n1 são inteiros positivos. Ainda uma outra formulação é
que, se / 6 um polinômio não-constante sôbre F, então existe um
elemento e em F tal que /(e) - O.
O corpo R dos números reais não é algebricamente fechado por- .
que o polinõmio (x 2 + t) é irredutível sôbre R mas nio tem grau 1,
ou porque não existe um número real e tal que c 2 + l - O. O_ cha-
mado Teorema Fundamental da Álgebra afirma que o corpo C dos
136 POLINOMIOS
.

números complexos é algebricamente fechado. Não demonstraremos


&te teorema, apesar de usarmo-lo um pouco mais adiante neste livro~
A demonstração é omitida em parte pelas limitações de tempo e em
parte porque a demonstração depende de uma propriedade "não
alg~brica" do sistema dos números reais. Para uma das demonstra-
ções possfveis o leitor interessado poderá consultar o ti'vro de Schreier
e Sperner citado na bibliografia.

1. Seja p um polinõmio unitário s6bre o corpo F e sejam / e g polinômios


s&bre F, relativamente primos. Demonstrar que o m. d. e. de pf e P6 é p.
2. Admitindo o Teorema Fundamental da Álgebra, demonstrar o que se-
aue. Se f e g são polinõmios sõbre o corpo dos números complexos, então
(/,1) • 1 se, e somente se, / e g não poauem nenhuma raiz comum.
3. Seja D o operador derivação sõbre o espaço dos polinõmios sõbre o
corpo dos números complexos. Seja / um polinõmio unitário s6bre o corpo
dos números complexos. Demonstrar que
f = (x - ca) •.• (.t - Ct)

onde e i , . • • • • c i são números complexos distintos se, e somente se, / e Df


alo relativamente primos. Em outras palavras, / não possui raiz múltipla
se, e somente se, /e D/oi.o possuem nenhuma raiz comum. (Admitir o Teo-
rema Fundamental da Álgebra.)
4. Demonstrar a se,uinte aeneralizaçlo do Exercfcio 3. Seja F um subcor-
po do corpo dos números complexos e seja / um polinômio sõbre F. Então
/ é um produto de polinômio• primos di1ti11to1 s&bre F set e somente se,
(/,D/) - 1. .
5. Seja F um subcorpo do corpo dos números complexos e seja / um poli-
nõmio sõbre F de grau no nuiximo n. Indiquemos por f<•l a k-áima deri-
vada de/. isto é, /O:) - D"f. Demonstrar .a fórmula de Taylor:
li 1
f • %· -ff •>(cXx - e)•
l•• k!
1
•/(e)+ J( 1 >(c)(x - e)+ 2,P·*)(cXx - cp
.
+ ... + ,n.1 f1•l(cXx- e)"
onde e é um elemento arbitrúio de F. (Suge11ão: Demonstrar primeiro para
f • x.,; depois usar combinações lineares.)
'· Demonstrar a squinte aeneralizaçio da fórmula de Taylor. Sejam/, ,
e/, polin6mios sõbre um subcorpo dos números complexos, com gr<.f) < n.
Então

/(1) - :z:" -1 /fil(lfX, - /,)".


••• k!
(Aqui /(1) indica "/ de t".)
7. !)emonstnr que todo polin&nio irredudvel sbbre o corpo dos números
rema tem arau par ou arau 1. (É necessário usar um teorema de cáckulo.)
A DECOMPOSIÇÃO DE UM POLINÔMIO EM FATÔRES SIMPLES 137

Para os exercícios restantes, precisaremos da definição seguinte: Se


f. g e p são polinômios sôbre o corpo C com p r5- O, d.i:zemos que fé con•
gruente a g módulo p se(/- g) é divisível por p. Se fé congruente a g mó-
dulo p, escrevemos
f = g mod p.

8. Demonstrar, para todo polinômio não-nulo p, que a congruência mó--


dulo p é uma relação de equivalência.
(a) Reflexiva: /::: / mod p.
(b) Simétrica: se f - g mod p e g - f moei p.
(e) Transitiva: se f !!li g mod p e g - h mod p, então / a h mod p.
9. Suponhamos que f 'i!2. g mod p e li - K1 mod p.
(a) Demonstrar que / + /1 = g + K1 mod p;
(b) Demonstrar que /li - KK1 mod p.
10. Usar o Exercício 9 para demonstrar o que segue. Se J; g, h e p são po-
linômios sôbre o corpo F e p :;z!= O e se f • g mod p, então h(J) • h(_g) mod p.
11. Se p é um polinômio irredutível e fg • O mod p, demonstrar que ou
f a& O mod p ou g :!!' O mod p. Dar um exemplo que mostre que isto é falso
se p não é irredutível.
CAPÍTULO 5

DETERMINANTES

5 .1 Anéis Comutativos
Neste capitulo demonstraremos os fatos essenciais sôbre deter..
minantes de matrizes quadradas. Faremos isto não apenas para
matrizes sôbre um corpo, mas também para matrizes cujos elementos
sejam ºescalares" de um tipo mais geral. Existem duas razões para
esta generalidade. Primeiro, em certos pontos do próximo capítulo,
será necessário tratarmos de determinantes de matrizes cujos ele-
mentos são polinômios. Segundo, no tratamento de determinantes
que apresentamos, um dos axiomas da definição de um corpo não
desempenha nenhum papel, a saber, o axioma que garante a exis-
tência de um inverso multiplicativo para todo elemento não-nulo.
Por estas razões, é conveniente desenvolver a teoria dos determi-
nantes para matrizes cujos elementos sejam pertencentes a um anel
comutativo com elemento unidade.
Definição. Um anel é um conjunto K, munido de duas operações
(x, y) -t x + y e (x, y) ~ xy que satisfazem
(1) K é um grupo comutativo em relação à operação (x, y) ~
~ x + y (K é um grupo comutativo em relação a adição);
(2) (xy)z == x(yz) (a multiplicação é associativa);
(3) x(y + z) == xy + xz; (y + z) x = yz + zx (valem as duas
leis distributivas).
Se xy ~ yx para todos x e y em K, dizemos que o anel K é co•
mutativo. Se existe um elemento l em K tal que lx = xi = x para
todo x, dizemos que K é um anel com elemento unidade e 1 é deno•
minado o elemento unidade de K.
Estamos interessados em anéis comutativos com elemento uni-
dade. Tal anel pode ser descrito ràpidamente como um conjunto K,
munido de duas operações que satisfazem todos os axiomas da de~
FUNÇÕES DETERMINANTES 139

finição de um corpo dado no Capítulo l, com exceção talvez do


axioma (8) e da. condição 1 ;;a! o_ Assim, um corpo é um anel comu-
tativo com elemento unidade diferente de zero tal que a cada x não~
-nu]o corresponde um elemento x- 1 ta1 que xx- 1 = 1. O conjunto
dos inteiros, com as operações usuais, é um anel comutativo com
elemento unidade qias não é um corpo. Outro aneJ comutativo com
elemento unidade é o conjunto dos polinômios sôbre um corpo, com
a adição e a multiplicação que definimos para polinômios.
Se K é um anel comutativo com elemento unidade, definimos
uma m X n matriz sôbre K como sendo uma função A do conjunto
dos pares ('i, j) de inteiros, l < i < m, 1 < j < n, em K. Como sem ..
pre, representamos ta] matriz por uma tabela retangular com m fi ..
nhas e n colunas. A soma e o produto de matrizes sôbre K são defi..
riidas como para matrizes sôbre um corpo
(A + B),i = A;; + Bi;
(AB),; = 2-; A ikBlci
,t

sendo que a soma é definida quando A e B têm o mesmo número


de linhas e o mesmo número de colunas e o produto é definido quan--
do o número de colunas de A é igual ao número de linhas de B. As
propriedades algébricas básicas destas opera~õés são ainda válidas.
Por exemplo
A(B + C) = AB + AC, = A(BC), etc.
(AB)C
Corn:o no caso de corpos, referir-nos-emos aos elementos de K
como escalares. Podemos erltão definir combinaçoes lineares das
linhas ou colunas de uma matriz como fizemos anteriormente. A
grosso modo, tudo o que fizemos para matrizes sôbre um corpo é
válido para matrizes sôbre K, excetuando-se os resultados que de...
pendiam da oossibilidade de "dividir'' em K.

5. 2 Funções Determinantes
Seja K um anel comutativo com elemento unidade. Desejamos
associar a cada n X n matriz (quadrada) sôbre K um escalar (ele•
mento de K) que será conhecido como o determinante da matriz.
É possível definir o determinante de uma matriz quadrada A sim-
plesmente escrevendo uma f6rrnula para êste determinante em função
dos elementos de A. Pode-se então deduzir as diversas propriedades
dos determinantes a partir desta fórmula. Contudo, tal fórmula é
bastante complicada e a fim de ganhar alguma vantagem técnica,
procederemos como segue. Definiremos uma "função determinante"
140 DETERMINANTES

sôbre n X n matrizes como uma função que associa a cada n X n


matriz sôbre K um escalar, sendo que essa função possui proprie-
da.des especiais. É linear como uma função de cada uma das linhas
da matriz; seu valor é O sôbre qualquer matriz que tenha duas linhas
iguais e seu valor sôbre a n X n matriz unidade é 1. Demonstrare-
mos que existe uma tal função e depois que é únicat isto é, que existe
exatamente uma tal função. Ao demonstrarmos a unicidade será
obtida uma fórmula expl'ícita para o determinante, junto com muitas
de suas úteis propriedades.
Eita seção será dedicada à definição da Hfunção determinante"
e .à demonstração de que existe pelo menos uma tal função.
Definição. Seja K um anel comutativo com elemento unidade,
num inteiro positivo e seja D uma/unção que associa a cada n X n
matriz A sôbre K um escalar D(A) em K. Dizemos que D é n-linear
se para cada i, 1 < i <
n, D é uma função linear da i-ésima linha
quando as outras (n - 1) linhas são mantidas fixas.
Esta definição exige algum esclarecimento. Se D é uma função
das n X n matrizes sôbre K em K e se a 1, ••• , an, são as linhas da
matriz A, escrevamos também
D(A) = D(o:1, ... , a,.)
isto é, consideremos D também como uma função das linhas de A·
A afirmação de que D é n-linear significa então
(5-1) D(o:1, ... , ca; + aí, ... , a,~) = cD(ai, ... , a,, ... , an)
+ D(o:1, ~ .. , a/ . ... , an),
Se fixamos tôdas as linhas exceto a linha i e consideramos K como
uma funcão da i-ésima linha, em geral é conveniente indicar D(A)
por D(_a;). Assim, podemos abreviar (5-1) para
D(ca; + af) = cD(a;) + D(_at)
desde que esteja claro o que isto significa.
Exemplo 1. Sejam ki, ... , k,l inteiros positivos, 1 k; ~ n <
e seja a um elemento de K. Para cada n X n matriz A sôbre K defi-
namos
(5-2) D(A) = aA(I, k1) ... A(n, kn).
Então, a função D definida por (5-2) é n-li'near. De fato, conside-
rando B como uma função da i-ésima linha de A, com as outras
linhas fixas, podemos escrever
D(a;) = A(i, k;)b
FUNÇÕES DETERMINANTES 141

onde b é algum elemento fixo de K. Seja af = (A[r, ...• Af,i).


Então temos
D(_ca, + ai) = (cA(i~ ki) + A '(i, k;)Jb
= cD(a ;) + D(_ a'.i).
Assim, D é uma função linear de cada uma das linhas de A.
Uma particular função n-linear dêste tipo é
D(A) = A11A22 ..• Am,-

Em outras palavras, o "produto dos elementos diagonais" é uma


função n-linear sôbre n X n matrizes sôbre K;

Exemplo 2. Determinemos tôdas as funções bilineares (2-linea-


res) sôbre 2 X 2 matrizes sôbre K. Seja D uma dessas funções. [ndi-
càndo as linhas da 2 X 2 matriz unidade por Et, EZ, temos
D(A) = D(A11E1 + A12E2, A21E1 + A22E2).

Usando o fato de que D é bilinear, (5~1) implica


D(A) = A11 D(e1, A21E1 + A22E2) + A12D(f;2, A21_e1 + A22t2)
= À11A21D(t1, ti} + A11A22D(1:1, E2)
+
+ A 12Â:n D(f:2, e1) A 12A22D(E2~ e2).

Assim, D é completamente determinada pelos quatro escalares


D(E1, Et), e D(t2, e2).

O leitor deverá achar fácil verificar o seguinte: se a, b, e, d são qua-


tro escalares arbitrários em K e se definimos
D(A) = A11 A21G + A11A22b + À12A21C + A12Â22d.,
então D é uma função bilinear sôbre as 2 X 2 matrizes sôbre K e
D(E1, E1) = a, D(E1, t2) = b,
D(e2, ti) = e, D(E2, E2) = d.
Lema. Uma combinação linear de Junções n-lineares é n-■linear.
Demonstração. Basta demonstrar que uma combinação linear
de duas funções n-lineares é n-linear. Sejam D e E funções n-lineares.
Se a e b pertencem a K, a combinação linear aD bE é evidente- +
mente definida por
(aD + bE)(A) = aD(A) + bE(A).
142 DETER.MINANTES

Logo, fixando t&las as linhas ~ceto a linha i


(aD + bE)(ca; + a!) = + a,i) + bE(ca; + aD
aD(.ca;
= acD(a;) + aD(_a.f) + bcE(a); + bE(a!)
= c(_aD + bEXa;) + (aD + bEX,af).
Se K é um corpo e V é o_ conjunto das n X n matrizes sôbre K,
o lema acima diz o seguinte: o conjunto das funções n-lineares sôbre
V é um subespaço do espaço de tôdas as funções de V em K.
Exemplo 3. Seja D a função definida sôbre as 2 X 2 matrizes
s6bre K por
(5-3)
Ora, D é a soma de duas funções do tipo descrito no Exemplo 1 :
D=D1+D2
D1(A) = A11A22
D2(A) = - A12A21.
Pelo lema acima, D é uma função bilinear. O leitor que tenha tido
alguma experiencia com determinantes não achará êste fato surpre-
endente, pois reconhecerá (5-3) como a definição usual do deter-
minante de uma 2 X 2 matriz. É claro que a função D que acabamos
de definir não é uma função bili'near típica. Ela possui muitas
propriedades particulares. Vejamos algumas dessas propriedade~
Primeiro, se 1 é a 2 X 2 matriz unidade, então .D(./) = 1, isto é,
.D( E2, E1) :__ 1. Segundo, se as duas linhas de A são iguais, então
D(A) = Ai 1:.412 - A12A11 = O.
_Terceiro, se A' é a matriz obtida de uma 2 X 2 matriz A per-
mutando suas linhas, então D(A') = - D(A); de fato,
.D(.A 1
) = A'11A'22 - A'12A'21
= A21A12 - A22A11
= -D(A).
Definição. Seja D uma f unçqo n-lineur. Dizemos que D é alter-
nada (ou alternante) se as duas condições seguintes estão satisfeitas:
{1) .D(_A) = O sempre que duas linhas de A são iguais.
(2) Se A' é uma mattiz obtida de A permutando duas~ de
A, então _D(A') = - D(A).
Demonstraremos abaixo que tôda função n-linear D qne satisfaz
{l) automàticamente satisfaz (2). Colocamos as duas propriedades na
FUNÇÕES DETERMINANTES 143

definição de função n-linear alternada por conveniência. O leitor


provàvelmente notará que se D satisfaz (2) e A é uma matriz com
duas linhas iguais então D(.A) = -D(A). Somos tentados a concbiir
que D também satisfaz. a condição- ( 1). Isto é verdade, por exemplo,
se K é um corpo no qual 1 +
1 :# O, mas em geral (1) não é uma
conseq üSncia c;le (2).
Definição. Seja K um anel comutativo com elemento unidade e
seja n um inteiro positivo. Suponhamos que D seja uma função _das
n X n matrizes sôbre K em K. Dizemos que D é uma funçio ·deter·
minànte se D é o-linear, alternada e D(I) = 1.
Como afirmamos anteriormente, mostraremos no final que exis-
te exatamente uma função determinante sôbre n X n matri~s sôbre
K. Isto pode ser visto fàcilmente para 1 X 1 matrizes A - (a] sôbre
K. A função D dada por D(_A) == a é uma função determinante e é
_evidentemente a única função determinante sôbre 1 X I matrizes.
Estamos em condições de eliminar também o caso n = 2. Demons-
tramos, no Exemplo 3, que a função
IX.A) = A11A22 - A12A21

é uma função determinante. Além disso, a fórmula apresentada no


Exemplo 2 mostra que D é a única função determinante sôbre 2 X 2
matrizes, pois demonstramos que para qualquer função bilinear D
IX.A) - À11Â21D(e1, Et) +Au A2a-D(E1, E:a)
+ À12A21D(E2, e1) + A12À22D(e2, e2).
Se D é alternada, então
.D(e1, e1) = DC.e2, e2) = O
e
D<.e2, E1) - -DC.e1, t:2) = -D(/).
Se D satisfaz também D(./) = 1, então
D(A) == Â11À22 - A12A21.

Exemplo 4. Seja F um corpo e seja D uma função trilinear al-


ternada, arbitrária, sõbre as 3 X 3 matrizes sôbre o anel de polinô--
mios F[x].
Seja

A= [f r -~J·
144 DETERMINANTES

Se indicarmos as linhas da 3 X 3 matriz unidade por ti, t2, t;{, então


D(,A) = D<.xE1 - x 2Ea, 1:2, E1 + x 3E:1).
Como D é uma função linear de cada linha
D(A) = X~Ei, E2, E1 +ª x 31:3) - x 2D(_Ea, 1:2, 1:1 +x 31:a)
= xD(E1, 1:2, E1) + x 4 D(1:1, E2, E:1)- x 2 D(E:-J, E2, E1) ~ x'iD(E:h E2, Ea),.
Como D é alternada decorre que
D(A) = (x1 + x 2)D(t1, ti, ta).
Lema. Seja D uma fun~·ão bilinear com a propriedade de que
D(A) = O para tôdas 2 X 2 matrizes A sôbre K que tenham linhas
iguais. Então D é alternada.
Demonstração. O que precisamos mostrar é que se A é uma
2 X 2 matriz e A' é obtida transpondo-se as linhas de A, então
D<.A') = - D(A). Se as linhas de A são a e /3, isto significa que pre-
cisamos mostrar que D(J3, a) = -D(a, {3). Çomo D é bilinear
D(a + (3, a + /3) = D(a, a) + D(o:, /3) + D(_fl, o:) + D(J3, /3).
Por nossa hipótese, D(_a + {3, a + fj) = D(a, a) = (/3, {3) = O. Portanto,
O = D(a, /3) + D(J3, a).
Lema. Seja D uma função n-linear sôbre n X n matrizes sôbre
K. Suponhamos que D tenha a propr.iedade de que D(A) = O sempre
que duas linhas adjacentes de A sejam iguais. Então D é alternada.
Dempnstraçâo. Precidamos mostrar que D(A) = O quando duas
quaisquer linhas de A são iguais e que D(A') = - D(À) e A' é obti-
da transpondo-se (trocando entre si) duas quaisquer Jinhas de A.
Em primeiro lugar suponhamos que A' seja obtida pela transposi-
ção de duas linhas adjacentes de A. O leitor deve verificar que o
argumento usado na demonstração do lema anterior se aplica ao
presente caso e nos fornece D(A') = - D(A).
Seja agora B obtida transpondo-se as linhas i e j de A, onde
i < j. Podemos obter B a partir de A por uma sucessão de transpo-
sições de pares de linhas adajacentes. Começamos transpondo a
linha i com a linha (i +
1) e continuamos até que as linhas estejam
na ordem
a1, ... , O:i-!1, a;+ 1, ••. , <x.j, a.;, aí+ 1, .•• , a11.
Isto requer k = j - i transposições de linhas adjacentes. Agora~
movemos ªí para a i-ésima posição usando ·(k - l) transposições
FUNÇÕES DETERMINANTES 145

de linhas adajacentes. Desta maneira obtivemos B a partir de A por


+
meio de k (k .. 1) = 2k- l transposições de linhas adjacentes. Assim,
D(B) = (-l) 21- 1 D(A) = - DC.A).
Suponhamos que A seja uma n X n matriz arbitrária com duas
linhas iguais, digamos a; = a;, com i < j. Se j = i + 1, então A
tem duas linhas iguais e adajacentes e D(A) = O. Se j > i + 1 trans ..
pomos ai+ 1 e ªi e a matriz resultante B possui duas linhas iguais e
adjacentes, portanto .D(_B) = O. Por outro lado D(_B) = - D(A),
portanto D(A) = O.
Definiçlo. Se n > l e A é uma n X n matriz sô,bre K, indique-
mos por A(ilj) a (n - l) X (n - 1) matriz obtida de A retirando-se
a i-ésima linha e a j../sima coluna. Se D é umq f un·ção (n - 1)-linear
e A é urna n X n matriz, colocamos Djj(A) = D[A(ilj)J.
Teor~• 1. Seja n ·> 1 e seja D ume,função (n - 1)-linear al-
ternadâ sôbre as (n - l) X (n - 1) matrizes sóbre K. Para cada j,
1 < j < n, a função Ej definida por
n
(5-4) E_lA) = 2:: (- 1)1 + 1A;_iD;.;(A)
1 ... 1

é umafu11,·ão o-linear u/Jernadü .~ôbr~ n X n mulrizr:s A. Se D é uma


fum;ão determinante, EJ também o é.
Demonstração. Se A é uma n X n matriz, D;i(A) é indepen ..
dente da i-ésima linha de A. Como D é (n - 1)-Jinear, é claro que
D;; é uma função linear de qualquer linha exceto a linha i. Portan..
to À;;D;;(A) é uma função n-linear de A. Uma combinação linear
de funções n•lineares é n-Iinear, logo E; é n-linear. Para demons-
trar que E1 é alternada, bastará demonstrar que E;(A) = O sempre
que A tiver duas linhas iguais e adjacentes. Suponhamos que ak = ak +1 •
Se i ~ k e i ~ k +1, a matriz (Ailj) tem duas linhas iguais e então
D;,{A) = O. Portanto
E,(A) = (- 1t+ 1AJt;D1tlA) + (- l)i:+ 1 +1Au+1vDu:+1)j(A).
Como a,= a,+i,
Ai; = Ac,+tli e A(klj) = A(k + l!j).
Então é evidente que E,{A) = O.
Suponhamos agora que D seja uma função determinante. Se
146 DETERMINANTES

é a n X n matriz unidade, então Jl"1(j/j) é a (n - .l) X (n -


JCnJ 1)
matriz unidade JCn- 1l. Como Jln) = 6i;, decorre de (5--4) que
(5-5) E,{J(")) = D(/<" .. 1J).
Ora, D(_J(n- 1>) = 1, de modo que E;(/<")) = 1 e E; é uma função
determinante.
Cotolário. Seja K um anel comutativo com elemento unidade e
seja num inteiro positivo. Existe pelo menos urna função detel'minQnte
s6bre o conjunto das n X n matrizes sôhl'e K.
Demonstração. Demonstramos a existência de um função de~
terminante sôbre 1 X 1 matrizes sôbre K e mesmo sôbre 2 X 2
matrizes sabre K. O Teorema l nos diz explicitamente como cons-
truir uma função determinante sôbre n X n matrizes, a partir de
uma função determinante sôbre (n - 1) X (n - 1) matrjzes. Oco~
rotário decorre por indução.
Exemplo S. Se B é uma 2 X 2 matriz sôbre K façamos
1 B! = B11B22 - B12B21.

Então /Bt - D(B), onde D é a função determinante sôbre 2 X 2


matrizes.
Seja

uma 3 X 3 matriz sôbre K. Definindo E1, E2, E3 como em (5-4),


então

(5-6) E1(A) = À IÀ•• A,a, _


u A32 Aaa A21 IA12Au
Aa2 Asa + À311~:: Àl81
A2a.

(5-7) ·E2(A) = -A12 A21


Aa1
À23
À33 + À221~~: Aial-
Àaa.
Â32 jAu Arnl
.A2iÀ23

(5-8) Ea(A) = À IÂ21 A22


1a A31 As2 - A 23 jAu
Aa1
A12j + Aaa lA11
À32 Â21
A121
A22

Decorre do Teorema I que Ei, E2 e Ea são funções determinantes.


Na realidade, como mostraremos posteriormente, E1 · = E2 = Ea,
mas isto ainda não é evidente mesmo neste caso simples. Poder-se..ia.
FUNÇÕES DBTBRMJNANTES 147

contudo, verificar díretamente êste fato desenvolvendo .. se cada uma


das expressões acima. Em vez de fazei:. isto daremos exemplos par..
ticulares. ·
(a) Seja K == R(xJ e
x- l X
2

1 ] .
A = [ O x-2
o o x-3
Então

E1(A) = (x -
X -
1)I 0
2 x _1 '/ = (x - l) (.x - 2) (x - 3)
3

~A) = -x O
10
2
X-
l ; 1·x - 1
3\ + (x - 2)i O
x3
X - 31
~

.= ('x - l) (x - 2) (x - 3)

Ea(A) = r\g o21 - x 1x Ol ~21 + (x - 3)r O1 X


x-2
2

= (x - l)(x - 2){x - 3).


(b) Seja K == R e

A= G D· l
o
o
Então
11 o:
E1(A) = lo 1i = l

'O
E2(A) = -~i] o
1
-
io
Ea(A) = -/ 1 ~, = 1.

Exercícios
1. Cada uma das expressões seguintes, define uma função D sôbre o con•
junto das 3 X 3 matrizes s.ôbre o corpo dos números reais. Em quais de,.
tes casos D é um função trilinear?
(a) D(A) - Au +
A.,.i Au; +
(b) D(A) - (A11) 1 +
3A11A 111 ;
148 DETERMINANTES

(c) D(A) = A11AuA33;


(d) D(A) • AuAuA3a + SA, JAuA3,;
(e) D(A) - O;
(f) D(A) .. 1.
2. Verificar diretamente que as três funções E 1 , EJ, EJ definidas por (5---6),
(S-7) e (5----8) são idênticas.
3. Seja X um anel comutativo com elemento unidade. Se A é uma 2 X 2
matriz sõbre K, a adjunta clássica de A é a 2 X 2 matriz adj A definida por

adjA=r Au
_-Aai
-A1z].
Â11._

Se det indica a única função determinante sôbre 2 X 2 matrizes sõbre K,


mostrar que
(a) (adj A)A - A(adj A) - (det A)/;
(b) det (adj A) • det (A);
(e) adj (A') • (adj A)'.
(A' indica a transposta de A).
4. Seja A uma 2 X 2 matriz sôbre um corpo F. Mostrar que A é in•
versivel se, e somente se, det A ~ O. Quando A é inverslvel, dar uma fór-
mula para A- 1 •
s. Seja A uma 2 X 2 matriz sôbre um corpo F e suponhamos que A 1 = O.
Mostrar para cada escalar e que det(c/ - A) - e 1 •
6. Seja K um subcorpo do corpo dos números complexos e n um inteiro
positivo. Sejam j 1 , ••• , j. e k 1 , •••• k. inteiros positivos menores ou iguais
a n. Para uma n X n matriz A sõbre X derínamos
D(A) - A.(jlt k1)A.(j;,, k~) .. , A(j,., k,.),

Demonstrar que D é n•linear se. e sàmente set os inteiros ji, ... t j. são
distintos.
7. Seja X um anel comutativo com elemento unidade. Mostrar que a fun-
ção determinante sõbre as 2 X 2 matrizes A sôbre K é alternada e bilinear
~mo uma função das colunas de A.
8. Seja K um anel comutativo com elemento unidade. Definamos uma fun-
ção D sõbre K pela regra

D(A) = Au det [Au


A 12
Â23]-
Au
A.12 det [A31
AJ1
A~J]
A.u
+ Au det [AJ
Au
Au]
Ap

Mostrar que D é alternada e trilinear como uma função das colunas de A.
9. Seja X um anel comutativo com elemento unidade e D uma função n-li-
near alternada sõbre as n X n matrizes sôbre X. Mostrar que
(a) D(A) ""' O, se uma das linhas de A é O.
(b) D(B) • D(A) se B é obtida a partir de A somand~se um múltiplo
escalar de uma linha de A a outra.
10. Seja F um corpo, A uma 2 X 3 matriz sôbre F e (c1 , ca, c 3) o vetor em
F3 definido por

e, -1.A:11
Ân
Âul.
Âu
PERMUTAÇÕES E A UNICIDADE DE DETERMINANTES 149

Mostrar que
(a) pôsto (À) • 2 se, e somente se, (e .. c.h Ca) ~ O;
{b) se A tem p&to 2, então (c1 ,c,,c 3) é uma base do espaçoMsolução
do sistema de equações AX - O.
11. Seja X um anel comutativo com elemento unidade e seja D uma função
bilinear alternada sõbre as 2 X 2 matrizes sõbre K. Mostrar que D(A) • (det
A)D(l) para qualquer A. Utilizar agora hte resultado (nio são permitiM
dos cálculos com os elementos) para mostrar que det (AB) - det(A) det(B)
para quaisquer 2 X 2 matrii.es A e B sõbre K.
12. Seja F um corpo e D uma função sõbre as n X n matrizes sõbre F (com
valores em F), Suponhamos que D(AB) - D(A) D(B) para quaisquer A,
B. Mostrar que ou D(A) • O para qualquer A ou D(/) - 1. No último
caso mostrar que D(A) fi O sempre que A é invers(vel.
13. Seja R o corpo dos números reais e seja D •uma função sõbre as 2 X 2
matrizes sõbre R, com valores em R, tal que D(AB) • D(A)D(B) para quais-
quer A. B. Suponhamos também que

Demonstrar o seguinte:
(a) D(O) • O;
(b) D(A) - O se A• • O;
(e) D(B) • -D(A) se B é obtida transpondo-se duas linhas (ou co-
lunas de A;
(d) D(A) se uma linha (ou coluna) de A é O;
(e) D(...4) • O sempre que A é singular.
14. Seja ...4 uma 2 X 2 matriz sõbre um corPo F. Então o conjunto das ma-
trima da forma /(A), onde / é um polinõmio sõbre F, é um anel comutativo
K com elemento unidade. Se B é uma 2 X 2 matriz s&bre X, o determi-
nante de B e! então uma 2 X 2 matriz sõbre F, da forma /(A). Suponhamos
que I seja a 2 X 2 matriz unidade sõbre F e que B seja a 2 X 2 matriz sa-
bre K

Mostrar que det B • /(A), onde f • x• - (A 11 + Au)x + det A, e tam-


bém que /(A) • o.-

5. 3 Permutaç&. e a Unlddade de Determinantes


Nesta seção demonstraremos a unicidade da função determi-
nante sabre as n X n matrizes s6bre K. A dem·onstraçio nos levará,
de niodo bem natural, a considerar permutações e algumas de suas
propriedades b4sicas.
Suponhamos que D seja uma função n-linear alternada sõbre
as n X n matrizes sõbre K. Seja A uma n X n matriz s&bre K com
150 DETERMINANTES

linhas a 1 , a2, ..• , an. Se indicarmos as linhas da n X n matriz uni-


dade sôbre K por t1, , 2 , .•• , e11, erílão

(5-9) a; = l" A(i,j'~;, l <i< n.


j• l

Logo
D(A) = D(~ A(l,j)t;, a2, ... , aR)
j

== 'l; A(l,j)D<.tJ, a2, ... , a,.).


j

Se agora substituirmos a2 por i A(2, k')e" veremos que


,t

D(E;, a2, ... , a,. = l: A(2, k)D(EJ, t4-, ••. , a,.).


-':
Assim
JXA) = 2-: A(l ,j)A(2, k)D<,.t;, fk, ..• , an)•
j,Jc

Em D{_t;, tt, ••• , a,.) substituimos em seguida aa por % A(3, 1)E, e


assim por diante. Obtemos finalmente uma expressão complicada
mas tebricamente importante para D(A), a saber

(5-10) D(_A) = 2: A(l, k1)A(2, k2) ..• A(n, k,.)D{_t1ci, Ekz, ••• t1i;.).
ih, k1, .. ., if.,.

Em (5-10) a soma é estendida a tôdas as seqüências (k1, k2, ..• , k,.)


de inteiros positivos menores ou iguais a n. Isto mostra que D é uma
soma finita de fu'nções do tipo descrito por (5 ..1). Deve~se notar que
(5-10) é uma conseqüência apenas da hipótese de que D é n-1inear e
também que um caso particular de (5-10) foi obtido no Exemplo 2.
Como D é alternada,

D = {tA: 0 Eka, •• , , Ek,.) =O


·,

sempre que dois dos índices k; são iguais. Uma seqüência (k1, k2, .•. _
..... k,.) de inteiros positivos menores ou iguais a n, com a proprie
dade de não existirem dois k; iguais, é denominada uma permutação
de grau n. Portanto, em (5-10), precisamos somar considerando ape-
nas as seqüências que sejam permutações de grau n.
Com uma seqüência finita, ou n-upla, é uma função definida
sôbre os n primeiros inteiros positivos, uma permutação de grau n
pode ser definida como uma função bijetora do conjunto { 1, 2, ... , n}
em si mesmo. Tal função ,r corresponde à n-upla (o- 1, o-2, .... , un) e é
PERMUTAÇÕES E A UNICIDADE DE DETERMINANTES 151

simplesmente uma regra para ordenar 1, 2, ... , n de alguma maneira


bem definida.
Se D é uma função n-linear alternada e A é uma n X n matriz
sôbre Kt então temos
(5-11) D(_A) = }; A(I, ul) ..• A(n, un)D(E.,u., . , E.,...)
ti

onde a soma é estendida a tadas as permutações <r distintas e de grau n.


A seguir mostraremos que
(S.12)
onde o sinal ± depende somente da permutação a. A razão para
isto é a que segue. A seqüência (ui, a2, ... , o-n) pode ser obtida da
seqüência (1, 2, ... , n) por um número finito de transposições de
pares de elementos. Por éxemplo, se ui #- J, podemos transpor 1 e
a-1 obtendo (o-1, ... , 1, ... ). Procedendo desta maneira chegaremos
à seqüência ( ~ 1, .•. , un) ap6s n ou menos transposições de pares.
Como D é alternada, o sinal de seu valor muda cada vez que trans-
pomos duas das linhas E; e Ej. Assim, se passamos de 2, ... , n) a,
a (ui, u2, ... , o-n) po'r meio de m transposiçbes de pares (i,j) teremos
fX..tvi, .. • , Ec,,.) = (- l)m D(E1, . • . , tn),
Em particular, se D é uma função determinante
(S-13)
onde m depende somente de t1 e não de D. Assim, tôdas as funções
determinantes associam o mesmo valor à matriz com linhas Ec, 1 , • • • ,
... , E.,., e êste valor é l ou -1.
Um fato básico sôbre permutações é o seguinte: se u é uma
permutação de grau n, pode.se passar da seqüência (1, 2, ... , n)
à seqüência (u 1, o-2, ... , <1n) por meio de uma série de transposições
de pares e isto pode ser feito de diversas maneiras; contudo, qual-
quer que seja a maneira pela qual isto é feito, o número de trans-
posições usadas é sempre par ou sempre ímpar. A permutação é
então denominada par ou ímpar, respectivamente. Define-se o sinal
de uma permutação por

sinal rr = { l, se u ~ par
-1, se ,, e 1mpar
com o símbolo "l" indicando aqui o inteiro 1. Mostraremos abaixo
que esta propriedade básica das _permutações pode ser deduzida do
que já sabemos sôbre funç~ determinantes. Suponhamos por ora
152 DETERMINANTES

que isto seja verdade. Então o inteiro m que aparece em (5-13) é


sempre par se a é uma permutação par e é sempre ímpar se a é uma
permutação fmpar. Para qualquer função D n-linear e alternada
temos então
D(_e• ., .•. , e.,,.) = (sinal a)D( e1, .•. , 1:,.)

e usando (5-11)
(5•14) .D(A) = [J; (sinal a)A(l, vi) •.. A(n, vn)] D(/) .

É claro que J indica a n X n matriz unidade.
De (5-14) vemos que existe exatamente uma função determi-
nante s:õbre as n X n matrizes sõbre K. Se indicarmos esta função
por det, ela será dada por
(5-15) det(A) - :Z:, (sinal a-)A(l, al) ... A(n, an)
sendo a soma estendida a t&das as permutações v distintas e de grau
n. Podemos resumir rormalmente como segue.
Teorema 2. Seja K um anel comutativo com elemento unidade
e seja n um inteiro positivo. Existe exatamente uma Junçã,o determi-
nante sôbre o conjunto das m X n matrizes sdbre K, que é a f un,ão
det definida por (5-15). Se D é uma função n-linear alternada arbi-
trária s~bre o conjunto das n X n matrizes sôbre K, então, para tôda
. matriz A diste tipo,
D(A) - (det A)DC.J.).
&te é o teorema que procuraivamos, m&i1 deixamos uma lacuna
na de'monstraçi·o. Essa lacuna é a demonstração de que, para umi.
dada permutação tr, quando passamos de (1, 2, ... , li) p~ra (cri,
0'2, ~ .• , O'n) transpondo pares1 o número de transposições é sempre
par ou sempre fn,,.par. iste fato básico de CDmbinatória pode ser
demonstrado sem nenhuma referencia a determinantes; conttldo, gos-
tad~mos de salientar como lle decorre da existlncia de uma função
determi;r1arite sõbre n X n matrizes.
Tomemos K como sendo· o 1tnel dos inteiros. Seja D uma fun-
çlo determinante sõbre as n X n matrizes s&bre K. Seja,, uma pet•
niutaçlo de arau n e sup,bnhamos que passemos de (1, 2, ... , n) a
(D"l, 0'2, ••• , t1,n) por meio de m ttansposições de pares (i, j)' i P' j.
Cdmo mostramos em (5-13)
(- l.)111 ia .D(-.1 1 ••• , 1,,.),
PERMUTAÇÕES E A UNICIDADE DE DETERMINANTES 153

isto é, o número (- 1)-. tem que ser o valor de D sôbre a matriz de


linhas E.1 , • • • , E... Se
DE.1(, ... ' f •• ) = 1,
então m tem que ser par. Se
D(E•u ... , E.,.) = - 1,
então m tem que ser fm par.
Como temos uma fórmula explicita para o determinante de uma
n X n matriz e esta fórmula envolve as permutações de grau n, va•
nios concluir esta seção fazendo mais algumas o~servações sôbre
permutações. Primeiro, nbtenios que existem exatamente n! = 1 . 2
.•. n· permuta.ções de grau n, pois se 11 é uma tal permut.8;ção, exis-
tem n escolfias possíveis para 111; uma vez feita, e_xistem (n - 1) pos-
sibilidades para 0'2! depois (n - 2) possibilidades para o-3 e assim
p'or diante. Lo·go~ existem
n(n -. l) (n - 2) ... 2 . 1 = n!
permutação 11. A fórmula (5-15) para det (.A) fornece desta maneira
det (A) como uma soma de n! tSrmos, um para ca_da permutação de
grau n. U·m têrmo genérico é um produto
A(l, ai) ... A(n, an) de n elementos de A,
um elemento de cada linha e um de c~da coluna, e é acompanhado
de u'm sinal"+" ou"-" conforme" seja uma permutação par ou
ímpar.
Quando as permutações sã'o consideradas como funções bije-
toras do conjunto { 1, _2, ... , n} em si mesmo, é possível definir um
produto de permutações. O produto deu por r será simplesmente a
função composta rr-r definjda por
(u-r) (i) = a{T(i) ).

Se 1. indica a permutação idêntica, t(i) = i, então cada a possui


uma inversa a- 1 tal qhe

Pode-se resumir estas observações dizendo que, em relação à ope-


ração de composição, o conjunto d'as permutações de grau n é um
grupo. tste grupo é usualmente denominado o grupo simétrico de
IJ'8U 11.
154 DETERMINANTES

Do ponto de vista de produtos de permutações, a propriedade


fundamental do sinal de uma permutação é qu,e
(5•16) sinal (aT} = (sinal u) (sinal .,).
Em outras palavras, u·T é uma permuta~o par se ,,. e T são ambas
pares ou ambas ímpares enquanto que rrT é ímpar se urna das d\Jas
permutações é ímpar e a outra é par. Pode-se ver isto pela definição
do sinal em têrmos de permutações sucessivas de pares (i, j): Poderá
ser também instrutivo se ressaltartrlos como a igualdade sinal (uT) =
= (sinal ") (sinal T) decorre de uma propriedade fundamental dos
determinantes.
Seja K o anel dos inteiros e sejam " e r permutações de grau n.
Sejam E1, ••• , En as linhas da n X n matriz unidade sô bre K, seja
A a matriz de linhas E-n, , •• , Eh e seja B a matriz de linhas to,.,
••• , E., A i-ésima li_nha de A contém exatamente um elemento
11 •

não-nulo, a saber, o 1 na coluna Ti. A partir disto, é fácil ver que E.,T,
é a i-ésima linha da matriz produto AB. Ora',
det(A) = sinal r, det(B) = sinal o- e det(AB) = sinal (ur).
Portanto terehtos sinal (CTr) = (sinal .r) (sinal -r-) desde que demons•
tremos o seguinte:
Teorema 3. Seja K wn anel comutativo com elemento unidade
e sejam A e· B n X n matrizes sôbre K. Então
det (AB) = (det A) (det B).
Demonstração. Seja B uma n X n matriz fixa sôbre K e para
cada n X n matriz A definamos D(A) = det ·(AB). Se indicarmos
as linhas de A por a1, ... , ª"' então
D<.a1, ... , aa) = ·det (a1B, .. , , anB).
Aqui a;B indica a 1 X n matriz que é o produfo da 1 X n matriz
a; pela n X n matriz B. Como
(ca; + a!}B = ca;B + a~B
e det é n-linear, é fácil ver que D é n-linear. Se a; - a;, então, a;B =-
= a;B, e como det é alternada
D(a1, ... , a,.) = O.
Logo, D é alternada. Ora, D é uma função n-linear alternada e pelo
Teorema 2
D(A) = (det A)D(_/).
PERMUTAÇÕES E A UNICIDADE DE DETERMINANTES 155

Mas D(.I) = det (/B) = det B, portanto


det {A.B) =· D(A) = (det A) (det B).
O fato de que sinal (o-T) = (sinal a) (sinal .,.) é apenas um dos
muitos corolários do Teorema 3. Consideraremos alj:uns d&ses co-
rolários na próxima seção.

Exerciclm
t. Se K é um anel comutativo com elemento unidade e A é a matriz sôbre
K dada por

À-[..! -b --e
Q
o

mostrar que det .A - O. ·


2. Demonstrar que o determinante da matriz de Vandermonde

[l
a
b :-:1
c;J
e

é (b - a) (e - a) (e - b).
3. Enunciar explicitamente as seis permutações de arau 3, di7.el' quais são
ímpares e quais são pares e usar isto para dar uma fórmula completa (5-1 S)
para o determinante de uma 3 X 3 matriz.
4,,. Sejam -y e ,, as permutações de ,arau 4 definidas por ,, 1 = 2. fT2 = 3,
0'3 • 4, a-4 - 1, 1'1 • 3, ,.2 • t, ,.3 - 2, .,.4 - 4.
(a) " é par ou [mpar? r é par ou impar?
{b) Determinar t1T e .,,,•
5. Se A é uma n X n matriz inversivel sabre um corpo, mostrar que det
A ~ O.
6. Seja A uma 2 X 2 matriz sôbre um corpo. Demonstrar que det (I + A)-
- 1 + det A se, e sômente se, traço (A) - O.
7. Uma n X n matriz A é denominada trianpllr se A,; • O sempre que
i > j ou se Aí; - O sempre que ; < j. Demonstrar que o determinante de
uma matriz triana;ular é o produto A11 Au ... A •• de seus elementos dia-
gonais.
8. Seja A uma 3 X 3 matriz sõbre o corpo dos números complexos. For-
memos a matriz xi - A cujos elementos são polinômios, sendo o elemen-
to ;, j desta matriz o polinômio l,;x - A,;. Se / - det (xi -- A), mos..
trar que / é um polinômio unitário de grau 3. E.screvendo
/ • (x ~ c 1 )(x - c:iXx - c 3)

com números complexos c1, e.a, e c 3 , demonstrar que


e. + C3 + cJ =- traço (A) e c 1 c11: 3 • det A.
156 DETERMINANTES

9. Seja II um inteiro positivo e F um corpo. Se v é uma permutação de grau


lf, demonstrar que a função

T(X1, , •, , Xn) ""' (Xn,, , , , XrTn)


é um operador linear inversível sôbre Fn.
10. Seja F um corpo, n um inteiro positivo e S o conjunto das n X ,r ma-
trizes sôbre F. Seja V o espaço vetorial de tôdas as funções de S em F. Seja
W o conjunto das funções n-lineares alternadas sôbre S. Demonstrar que
W é um subespaço de V. Qual é a dimensão de W?
11. Seja T um operador linear sôbre Fn. Definamos
Drl.,a. 1 , ••• ,an) - det ( Ta 1 , ••• , Tan)
(a) Mostrar que DT é uma função n-linear alternada.
(b) Se
e = det (TE. 1 , ••• , TE. 1 )
mostrar que para II quaisquer vetores a 1 , ••• , a,. temos
det (Ta1, ... , Tan) _. e det (a1, ... , a:n),
(e) Se (B é uma base ordenada arbitrária de Fn e A é a matriz de Tem
relação à base ordenada cB, mostrar que det A =- e.
(d) Qual é um nome razoável para o escalar e'?
12. Se v é uma permutação de grau n e A é uma n X n matriz sôbre o cor-
po F com vetores-linhas a1, ... , an, indiquemos por a(A) a II X n ma-
triz com vetores-linhas ªn, ... , ªIT"•
(a} Demonstrar que a-(AB) = a-(A)B e em particular que u(A) = q(/)A.
(b) Se T o operador linear do Exercício 9, demor.->trar que a matriz
T em relação à base ordenada canônica é u(/).
(e) cr- 1 ([) é a matriz inversa de u(/)?
(d) É verdade que u(A) é semelhante a A'!
13. Demonstrar qua a função sinal sôbre permutações é única no seguinte
sentido: se fé uma função qualquer que associa a cada permutação de grau
num inteiro e se /(ur) = /(cr) /(r), então fé idênticamente nula, ou/ é idên-
ticamente 1 ou / é a função sinal.

5 . 4 Propriedades Adicionais dos Determinantes


Nesta seção relataremos algumas das propriedades úteis da fun•
ção determinante sôbre n X n matrizes. Talvez a primeira coisa que
devamos destacar seja a que segue. Em nossa discussão de det A,
as linhas de A desempenharam um papel privilegiado. Como não
existe nenhuma diferença fundamental entre Jinhas e colunas, pode-
se muito bem espetar que det A seja uma função n~linear alternada
das colunas de A. Isto ocorre e, para demonstrá-lo, basta mostrar
que
(5-17) det (A') = det (A)
onde A' indica a transposta de A.
PROPRIEDADES ADICIONAIS DOS DETERMINANTES 157

Se u é uma permutação de grau n


A '(i, ui) = A(ui, i).
Da expressão (5-15) tem-se então
det (A') = ~ (sinal o-)A(ul, 1) ... A(crn, n).
"
Quando i = ji A(ui, i) = A(j, u- 1j). Assim
<T- 1

A(ul, 1) ... A(an, n) = A(l, <1- 1 1) ... A(n, u- 1n).

Como ucr- 1 é a permutação idêntica,


(sinal u) (sinal u- 1) = 1, ou seja, sinal (u-J) = sinal (u).
Além disso, quando u percorre tôdas as permutações de grau n, u- 1
também o faz.
Portanto
det (A')= 2-; (sinal u- 1)A(1, u-11) ... A(n, u- 1n)
tT

= det A,
o que demonstra (5-17).
Em certas ocasiões é preciso calcular certos determinantes par-
ticulares. Quando isto é necessário, é freqüentemente útil tirar van~
tagem do fato seguinte: se B é obtida de A somando-se um múltiplo
de uma linha de A a outra (ou um múltiplo de uma coluna a outra),
então
(5-18) det B = det A.
Demonstraremos a afirmação relativa às linhas. Seja B obtida de A
somando-se ca; a ex;, onde i < }. Como det é linear como uma fun-
ção da i-ésima liriha
det B = det A + e det ((l' 1, ••• , (l',, ... , ai, ... , ª")
= det A.
Outro fato útil é o seguinte: consideremos uma n X n matriz
da forma em blocos

[t ~]
onde A é uma r X r matriz, C é uma s X s matriz, B é r X se O
indica a s X r matriz nula. Então

(5-12)
det [A
det O
eª] = (det A) (det C).
158 DETERMINANTES

Para demonstrar isto, definamos

D(A, B, C) = det (g ~] ·
Se fixarmos A e B, então D é alternada e s•linear como uma função
das linhas de C. Assim, pelo Teorema 2
D(A, B, C) = (det C)D(A, B, 1)
onde/ é as X s matriz . unidade. Subtraindo das linhas de B múl-
'
tiplos das linhas de / e usando a afirmação (5-18) acima, obtemos
D(_A, B, /) = D(_A, O,/).
Ora, D(A, O,/) é evidentemente alternada e , ..linear como uma fun•
ção das linhas de A. Assim
IX.A, O, /) = (det A),D(./, O, /).
Mas D(Jt O, /) = 1, logo
D<.A, B, C) = (det C)D(A, B, /)
= (det C)D(A, O,/)
= (det C) (det A).
Por um raciocínio do mesmo tipo, ou tomando transpostas

(5~20) det [ ÀB º]
C = (det A) (det. C).

Exemplo 6. Suponhamos que X seja o corpo dos números ra-


cionais e que desejamos calcular o determinante da 4 X 4 matriz
1 -1 2 3

A=
2
4
2 O
l -1 -1
2 .
1 2 3 o
Subtraindo das linhas 2, 3 e 4 múltiplos c'odvenientes da linha 1,
obtemos a matriz

[g -~
O 3
=: -1;1
1 -3~
que, como sabemos por (5-18), terá o mesmo determinante que A.
PROPRIEDADES ADICIONAIS DOS DETERMINANTES 159

Subtraindo da linha 3, ~ da linha 2 e depois subtraindo da Jinha 4,


¾ da liriha 2, obtemos

B=O [1-1 2 3] 4-4-4


O 0-4-8
O O 4 O
e novamente det B = det A. A forma em blocos de B nos diz que
det A = det B = 1 1-4 -81 =
1 -1
O 4 4 O 4('32) = I 28.

Seja agora n > 1 e seja A uma n X n matriz sôbre K. No Teo--


rema 1 mostramos como construir uma função determinante sôbre
as n X n matrizes, dada uma tal função sôbre as (n - l) X (n - 1)
matrizes. Agora que demonstramos a unicidade da função determi ..
nante, a fó~mula (5-4) nos diz o que segue. Se fixamos uma coluna
arbitrária de índiée j,

det A- = ~" (- 1)1 + 1A;; det A(i/j).


j - 1

O escalar (- l)'+ J det A(ilj) é usualmente denominado o i~ j cofator


de A ou o cofator do elemento i,j de A. A fórmula acima para det A
é então denominada o desenvo]vimento de det A pelos cofatores da
J-ésima coluria (ou, às vêzes, o desenvolvimento pelos menores da
j.ésima coluna). Se colocartnos
Cif = (- l)'+i det A(i/j)
entã 0 a fórmula acima dirá que para cada J
1

n
det A = I A;;Ci.1
i- 1

onde o cofator C;i é (- l)'+i vêzes o determinante da (n - 1) X


X (n - l) matriz obtida de A retirando-se ai-ésima linha e aj-ésima
coluna de A.
Se j ~ k, então
n
2: A ,1:C;i = O.
,-1
De fato, substitu~mos a j•ésima coluna de A por sua k-ésima coluna
160 DETERMINANTES

e chamemos a matriz resultante de B. Então B possui duas colunas


iguais, fogo det B = O. Como B(ilJ) = A(i/j) te'mos
O = det B
n
= .! (- l) t+jB;J det B(il})
j =1
n
=}; (- l)'+JA;kdetA(i/j)
i - l
n
-
-
V
"""
A·lk C·,
JJ•
i- l

Estas propriedades dos cofatores podem ser resumidas por


,,
(5-21) ~ A;1tCi1 = ô,;k det A.
i- l

A n X n matriz adj A, que é a transposta da matriz dos cofa ..


tores de A, é deno"minada a adjunta clássica de A. Assim
(5-22) (adj A);J = CJ; = (- 1t+ 1 det A(jli).
As fórmulas (5-21) podem ser resumidas na equação matricial
(5-23) (adj A)A = (det A)/.

Desejamos também ver que A(adj A) = (det A)/. Como A'(i/j) =


= A(jli)' temos
(- l) 1 +J det A'(i/j) = (- 1)1+' det A(jli)

que diz simplesmente que o i, j cofator de A' é o j, i cofator de A.


Assim
(5-24) adj (A') = (adj A) 1•

Aplicando (5-23) a A' obtemos


(adj At)A' = (det A')/ = (det A)/
e transpondo
A(adj A')' == (det A)/.
Usando (5-23) obtemos o que queremos:
(5-25) A(adj A) = (det A)l.
PROPRIEDADES ADICIONAIS DOS DETERMINANTES 161

Da mesma forma que para matrizes sôbre um corpoJ uma n X n


matriz A sôbre K é dita inversivel sôbre K se existe uma 11 X n ma•
triz A- 1 com e]ementos em K tal que AA- 1 = A- 1 A = /. Se existe
uma tal inversa, ela é unica, pois o mesmo argumento usado no Ca-
pítulo I mostra que quando BA = AC = I temos B = C. As fór-
mulas (5-23) e (5-Z5) nos dizem o seguinte sôbre a inversibilidade
de matrizes sôbre K: se o elemento det A possui um inverso multi-
plicativo em K, então A é inversível a A- 1 = (det A)- 1 adj A é a
única inversa de A. Reciprocamente, é fácil ver que, se A é inversível
sôbre K, o elemento det A é inversível em K, pois se BA = I temos

l = det J = det (A'B) = (det A) (det B).

O que demonstramos é o seguinte:


Teorema 4. Se Ja A uma n X n matriz sóbre K. Então A é i,n-
versível sôbre K se, e somente se, det A é inversível em K. Qudndo A
é inversfvel, n única inversa de A é

A- 1 = (det A)- 1 adj A.

Em particular, uma n X n matriz sôbre um corpo é inversível se, e


somente se, seu determinante é d(ferente de zero.
Gostaríamos de salientar que êste critério relativo a determi-
nantes para a inversibilidade demonstra que uma n X n matriz com
uma inversa à esquerda ou à direita é inversívei. Esta demonstr~ão
é completamente iddependente da demonstração que fizemos no
Capítulo 1 para matrizes sôbre um corpo. Gostaríamos também de
ressaltar o que a inversibilitiade significa para matrizes cujos ele•
mentos são polinômios. Se K é o anel de p'olinômios F[x], os únicos
elementos de K que são inversíveis são os polinômios constantes
não-nulos. De fato, se/ e g são polinômios e f g = l, temos gr(f) +
+ gr(g) == Ode modo que gr(/) = gr(g) = O, isto é, f e g são poli-
nômios constantes. Portanto uma n +
n matriz sôbre o anel de
polinômios F{x] é inversível sôbre F[x] se, e somente se, seu deter-
minante ~ um polinômio constante não-nulo.
Exemplo 7. Seja K = R(x], o anel de polinõmios sõbre o corpo
dos números reais. Sejam

 = [Xx 2- + l X X + '] _ [ X2 --- 1 X + 2-,


1 B- x2 - 2x + 3 x _.
Então, por meio de cálculos simples, det A = x + l e det B = - 6.
162 DETERMINANTES

Assim, A não é inversível sôbre K, enquanto que B é inversível sôbre


K. Notemos q'ue

adj A=[-/+ 1 x2x+ !J adj B = l-x2 -x-2J


+x-2x-3 x 2 - 1
e (adj A)A = (x + 1)/, (adj B)B = -6/. É claro que

B- 1 = - ¾ [-x +x2x -
2 3 -1 ~-xf]
Exemplo 8. Seja K o anel dos inteiros e

A = [~ ~]-
Então det A = -2 e

adj A = [ 4-2J
-3 1 .

Assim, A não é inversivel como uma matriz sôbre o anel dos inteiros;
no entanto, podemos também considerar A como uma matriz sôbre
o corpo dos números racionais. Se o fazemos~ então A é inversível e

A_ 1 = _ ![
2 - l•
4-2J = [-~- --!] .
l- 2 2_

Com relação a matrit.e!, inversíveis, gostaríamos de mencionar


mais um fato elementar. Matrizes semelhantes têm o mesmo deter-
minante, istp é, se Pé inversível sôbre K e B = p- 1 AP, então det B =
= det A. Isto é evidente, pois
det(P- 1AP) = (det p- 1)(det A)(det P) = det A.

Esta observação simples torna possível definir o determinante de um


operador linear sôbre um espaço vetorial de dimensão finita. Se T
é um operador linear sôbre V, definimos o determinante de T como
sendo o determinante de qualqlter n X n matriz que represente T
em relação a atguma base ordenada de V. Como tôdas essas matrizes
são semelhante~, elas possuem o mesmo determinante e nossa defi-
nição faz sentido.
Gostaríamos agora de discutir a regra de Cramer para a reso-
lução de sistemas de equ~ções lineares. Suponhamos que A seja uma
n X n matriz sôbre o corpo F e que desejamos resolver o sistema
PROPRIEDADES ADICIONAIS DOS DETERMINANTES 163

de equações Jineares .AX == Y para uma dada n:.upla (y1, ... i y,.).
Se AX = Y, então
(adj AJAX == (adj A)Y
e portanto (det A)X == (adj A)Y.
n
Assim (det A)x1 = ! (adj A)iiY,
i" ,.. l
n
= l; ( - l)í +1y,. det A(ii}).
i "' 1

Esta última expressão é o determinante de n X n matriz obtida subs-


tituindo a j-ésima coluna de A por Y. Se det A = O, tudo isto não
nos diz nada; contudo, se det A ~ Otemos o que é conhecido como
a regra de Cramer. Seja A uma n X n matriz sôbre o corpo F tal
que det A ~ O. Se Yh ... , Yn são escalares arbitrários em F, a única
solução X = A- 1 Y do sistema de equações AX = Y é dada por
det Bi
Xi = det A' j = 1, .... 11

onde Bi é a n X n matriz obtida de A substituindo a j-ésima coluna


de A por Y.
Concluindo êste capítulo, gostaríamos de fazer alguns comen·
tários que sirvam para colocar os determinantes naquilo que acre-
ditamos ser a perspectiva apropriada. De vez em quando, é neces-
sário·calcular a1guns determinantes particulares e esta seção foi par-
cialmente dedicada a técnicas que irão facilitar êsse trabalho. No
entanto, o papel principal dos determinantes neste livro é teórico.
Não se discute a beleza de fatos tais como a regra de Cramer. Mas
a regra de Cramer é um instrumento ineficiente para resolver siste-
mas de equações lineares, principalmente porque envolve cálculos em
demasia. Portanto, deve-se concentrar no que a re:gra de Cramer
diz, e não em como calcular por meio dela. D.e fato, refletindo sôbre
êste capítulo, esperamos que o leitor coloque mais ênfase na com-
preensão do que a função determinante é e como ela se comporta
do que no modo de calcular determinantes de matrizes particulares.

Exercícios
1. Usar a fórmula da adjunta clássica para calcular as inversas das 3 X 3
matrizes reais seguintes :

[ -26 O
l
4 1 -1
3 -1 cos
[ O
8
1
sen 6 O
O -sen
O
cos,
J
164 DETERMINANTES

2. Usar a regra de Cramer para resolver os seguintes sistemas de equações


lineares sôbre o corpo dos números racionais:
(a) X + )' + Z z: l}
2x - 6y- = E o
3x + 4y + 2z = O
(b) 3x - ly • 7
)y - 2: • 6
3z - 2x • -1
3, Uma n X n matriz A sôbre um corpo F é anti-simétrica se A' - -A.
Se A é uma n X ,r matriz anti•simétrica com elementos complexos e se n
é ímpar, demonstrar que det A • O,
4. Uma n X 11 matriz A sõbre um corpo F é dita ortoaonal se AA 1 - 1.
Se A ~ ortoaonal, mostrar que det A - ± 1. Dar um exemplo de uma ma-
triz ortoaonal para a qual det A - -1.
5, Uma n X n matriz A sõbre o corpo dos números complexos 6 dita wú-
tairia se AA • - I {A* indica a transposta conjupda de A). Se A é unitá-
ria, mostrar que det A
I 1. 1 •

6. Sejam T e U operadores lineares s6bre o espaço vetorial V de dimen-


são finita. Demonstrar que
(a) det ( TU} - (det TX det V);
(b) T é inversível se, e somente se, det T ;é O.
7. Seja A uma n X n matriz sôbre K, um anel comutativo com elemento
unidade. Suponhamos que A seja da forma em blocos
A1 O ..• O
O A, O
A -
. .
O O • . • Ai
onde Ai é uma ri X ri matriz. Demonstrar que
det A - (det A1 Xdet A1) ... (det A.t),
8, Seja V o espaço vetorial das n X n matrizes sôbre o corpo F. Seja B um
elemento fixo de V e seja TB o operador linear sôbre V definido por Ta{A)
• AB - BA. Mostrar que det Ta - O.
9. Seja A uma n X n matriz sôbre um corpo, A pi! O. Se r é um inteiro
positivo arbitrário entre 1 e n, uma r X r submatrlz de A é qualquer r X r
matriz obtida retirando (n - r) linhas e (n - r) colunas de A. O p6sto-
-4etermlnante de A é o maior inteiro positivo r tal que alguma r X r su~
matriz de A possua um determinante não-nulo. Demonstrar que o p&to-
-determinante de A é iaual ao põsto,.linha de A (- põsto-coluna de A),
10, Seja A uma n X II matriz sõbre o corpo F. Demonstrar que existem
no máximo n escalares e distintos em F tais que det (e/ - A) • O.
11. Sejam A e B ,r X 11 matrizes sõbre o corpo F. Mostrar que se A é inver•
sível existem no máximo n escalares e em F para 01 quais a matriz cA + B
nio é inversível.
PllOPRJEDADES ADICIONAIS DOS DETERMINANTES 16S

12. Seja V o espaço vetorial das n X II matm.es sôbre F, B uma n X n


matriz fixa sôbre F e sejam LB e Ra os operadores lineares sôbre J' defini-
dos por Ls(.A) - BA e Rri,A) • AB. Mostrar que
(a) det Ls - (det Br:
(b) det Rs = (det B)~.
13. Seja V o espaço vetorial das n X n matrizes sôbre o cprpo dos núme-
ros complexos e seja B uma n X n matriz sôbre C, fixa. Definamos um
operador linear Ms sôbre V por Mll(A) - BAB*. onde B* - 1ii. Mos-
trar que
det Ma - 1det B I ai,.
Seja agora H o conjwito de tôdas as matri:zes hermitianas em V. (A
é hermitiana se A - A*.) Então H é um espaço vetorial sôbre o corpo dos
números reais. Mostrar que a função Ta definida por T B(A) - BAB* é
um operador linear sõbre o espaço vetorial real H e depois mostrar que
Ts - ldet B( n. (Sugestão: Ao calcular det TB) mostrar que V possui u.ma
base constituída de matrizes hcrmitianas e então mostrar que det Ts - dct
Ms.)
14. Sejam A, B, C, D n X n matrizes sôbre o corpo F tais que elas comvtam.
Mostrar que o determinante da 2n X 2n matriz

é det (AD - BC).


CAPÍTULO 6

DECOMPOSIÇOES
EM SOMAS DIRETAS JNV ARIANTES

6. 1 Decomposições em Somas Diretas


Mencionamos anteriormente que nossa meta principal é estu-
dar transformações lineares sôbre espaços vetoriais de dimensão
(inita. Até êste ponto já vimos muitos exemplos particulares de trans-
formações lineares e demonstramos alguns teoremas sôbre transfor-
formações lineares arbitrári.as. No caso de dimensão finita utilizamos
bases ordenadas para representar essas transformações por me_io de
matrizes e essa representação nos ajuda a perceber o seu comporta-
mento. Pesquisamos o espaço vetorial L(V, W) das transformações
lineares de um espaço em outro e também a álgebra linear L(V, V)
das transformações lineares de um espaço em si mesmo. Nos pró-
ximos dois capitulos, estaremos preocupados com operadores linea-
res. Nosso programa é tomar um operador linear T sôbre um espaço
vetorial V de dimensão finita e "desmontá-lo para ver como êle
funciona". Nosso método fundamental para o estudo de T será o
de decompor o espaço subjacente V numa soma de subespaços, cada
um dos quais é invariante sob T. Isto "decomporá" T numa soma de
operadores mais simples. Passamos agora a apresentar as idéias fun~
damentais de que necessitaremos.
Se W1 e W2 são subespaços de V, já discutimos a soma W =
= W1 + W2, isto é, o subespaço de todos os a = a1 + a2 com ai
em W;. Uma situação particularmente agradável ocorre quando W1
e W2 são disjuntos, isto é, quando a interseção de W1 e W2 é o sub-
espaço nulo. De fato, neste caso, um dado vetor a em W pode ser
escrito sob a forma a = a 1 + a 2, a; em W;, de uma única maneira.
Isto resulta do fato de que se também temos a == 131 + /32 com /J;
em W;, então
a1 + a2 = /31 + /32
de modo que a1 - /j1 = 132 - a2
OECOMPOSIÇÕES EM SOMAS DIRETAS 167

e como (a1 - 81) está em W1 e (fJ2 - a2) está em W2, devemos ter
a:1 - J31 == J12 - a.2 = =
O, isto é, a1 = 131 e a2 /32. Quando W1 e
W2 forem disjuntos diremos que a soma W = W2 + W 1 é direta
ou que W é a soma direta de W1 e W2 e escreveremos W = W1 ·EB W2.
A importância das somas diretas está no fato de que se W = W1 EB
W2, podemos estudar W através dos pares de vetores (a2, ai) com
ai em W;.
Desejamos considerar "somas diretas~' de vários subespaços. Para
fazer isto precisaremos de um conceito de independência de subes--
paços, análogo à condição de disjunção no caso de dois sube_spaços.
Definição. Sejam W1, ... , W1: subespaços do e.spoço vetorial V.
Diremos que W 1, ••• , W,. são independentes se
0:1 + . . . + ak = O, a; em Wi
implica que cada ai é nu/o.
Teorema 1~ Seja V um espaço vetorial sôbre o corpo F. Sejam
W1, ... , W1r subespaços de V e seja W = W1 + ... Wh As se.. +
guintes condições são equivalentes.
(i) W1, ...• W1r são independentes.
(ii) Cada vetor a em W pode ser expresso de uma única nu:meira
sob o formo
a = 0:1 + . , , + ak

com a.; em W ;, i = 1, ... , k.


(iii) Para cada j, 2 < j < k~ o subespaço WJ é disjunto da soma
(W1 + ...+ Wi-1).
Demonstração. (i)(ii). Suponhamos que W1, ... , Wt sejam
---+
ihdependentes. Pela definição de W, cada vetor a ou W pode ser
expresso sob a forma a = a1 + ... +
a1: com a:i em W;. Suponha~
mos também que a = ~1 + .. . +
fh com {J; em W;. Então
a1 + . . . + a,: = tl1 + , . . + /31.-

pm;tanto (ai - /31) + ... + (a1; - 6k) = O


e como (a; - /ji) está em W;, a independência dos W,- implica que
a; - fJ; ::::;: O, i == I, ... , k. Isto mostra que os O:i são determinados
de modo único por a.
(ii) -. (iii). Seja a um vetor na interseção
Wi ('\ ( W1 + ... + WJ _ L).
168 DECOMPOSIÇÕES EM SOMAS DIRETAS INVARIANTES

Então existem vetores ai, ... , ªi-1 com ai em W; tais que a = a: 1; +


+ ,.. + a:1- 1 • Mais como a está em Wi a única expressão para a
como umà soma de vetores, um em cada W;, deve ser
a = O+ . .. + O + a + O + ... + O.
Conseqüentemente, devemos ter que a = a1 = ... = a;-1 = O.
(i~i) -+ (i). Seja ai em Wi, i = 1, ... , k e suponhamos que
ai + ... + = O.
Desejamos demonstrar que cada a; é o vetor
ak
nulo. Suponhamos o contrário, isto ét que para algum i tenhamos
ai ~ O. Sejaj o maior inteiro i entre 1 e k tal que a; ;:é O. Então temos

(6•1) Cit + ... + CLj = 0, CLj "F- 0.


Agora (6-1) diz que a; = - a1 - •.. - ªi-1, de modo que a; está
na interseção de W; com (W1 + ... JV;-1). Logo a; = O. Con- +
tradjção.
Se uma (e portanto tôdas) das três condições do Teorema 1
valer para W1, ... , Wk, diremos que a soma W = W1 Wk + ... +
é direta ou que W é a soma direta de W 1 , ••• , Wk e escreveremos
W = W1 EB . • . EB W,.,.
Teorema 2. Seja V um espaço vetorial de dimensãQ finita sóbre o
corpo F e sejam W1, ... , w,._. subespaçps de V. As duas afirmações
seguintes são equivalentes:
(i) V = W1 ffi ... Ef) Wk,
(ii) Se t:B; é uma base de Wi, 1 = l, ... , k, então a reunião
-4:
IB = i U,.. 1 é uma base de V.
Demonstração. (i) ----, (ii). Seja IB; = {ai, ... , at} uma base de
Wi (di =
dim W;) e seja CB a reunião das bases IB;. Uma combina-
ção linear típíca dos vetores em ffi é
d1 dt
(6-2) ~
.i'""l
cJa}. + ... +i=l
l: cja1
.

onde os cj, 1 < i < k, l < j < d; são d 1 . . • dJc escalares em F.


Portanto uma combinação linear típica dos vetores em m é

/31 + ... + ""


d;
onde tJ
1,1; = -· .., 1ca
,..,,
., J
.. r t

J""

Como V= W1 + ... + Wk e <B; é uma base de W; é claro que todo


vetor em V pode ser expresso sob a forma (6-3), isto é, que <R gera
DE COM POSIÇÕES EM SOMAS 01:RB TAS 169

V. Se em (6-3) ~1 + ... + fJ1c = O, a independência dos espaços Wj


nos diz que Pi = O pa~a cada i; mas então, como <B; é um conjunto
independente, temos cj == O para todos i e j.
Deixamos a cargo do leitor demonstrar que {ii) --+ (i). É uma
inversão bastante simples do racioc(nio usado acima.
Uma conseqüência particular do Teorema 2 é que se
v= W1 e ... EB wh
então
dim V = dim W1 + . . . + dim W k,

Um:a espécie de reciproca dêste fato é verdadeira, a saber, se a soma


das dimensões dos Wi é igual à dimensão de V e se Y é a soma dos
W;, então V é a soma dirçta dos W.. Deixamos isto para a parte
de exercfcios.
Exemplo l. Seja V um espaço vetorial de dimensão finita sô. .
bre o corpo F e seja { a1, ... , an} uma base arbitrária de V. Se W;
é o subespaço unidimensional gerado por a;, então V = W; EB ...
. . . EB W,,.
Exemplo l. Seja n um inteiro positivo, F um subcorpo do corpo
dos números complexos e seja V o espaço das n X n matrizes sôbre
F. Sejá W1 o subespaço das matrizes simétricas, isto é, matrizes A
tais .A' = A. Seja W2-o subespaço das matrizes anti-simétricas, isto é,
matrizes tais que .A' = A. Então V = W1 EB W2. Se A é uma ma-
triz arbitrária em V, a única expressão para A como uma somll de
duas matrizes. uma em W1 e a outra em W2, é
A =
A1 + A2
A1 = {(A + At)
A2 = ½(A - Ar).

Definição. Seja V um espaço vetorial e T um operador linear


sôbre V. Se W é um subespaço de V, dizemos que W é invariante sob
T se para cada vetor a em W o vetor Ta está em W, isto é, se T(W)
está contido em W.
Exemplo 3. Se T é um operador linear arbitrário sôbre V, en-
tão V é invariante sob T, da mesma forma que o é o subespaço nulo.
A imagem de Te o núcleo de T também são invariantes sob T.
Exemplo 4. Seja F um corpo e seja D o operador derivação
sôbre o espaço F[x] dos polinômios sôbre F. Seja n um inteiro posi..
tivo e seja W o subespaço dos polinômios de grau menor ou igual a
170 DECOMPOSIÇÕES EM SOMAS DIRETAS INVARIANTES

n. Então W é invai:iante sob D. Esta é apenas outra maneira de dizer


que D diminui o grau.
Exemplo 5. Seja T o operador linear sôbre R 2 que é represen-
tado em relação à base ordenada canônica pela matriz

[~ -gJ.
Então os únicos subespaços de R 2 que são invariantes sob T são
R 2 e o subespaço nulo. De fato, qualquer outro subespaço invariante
W teria necessàriamente dimensão 1. Mas se W é o subespaço ge-
rado por algum vetor não-nulo a, a afirmação de que W é invariante
sob T significa que Ta = ca para algum número real e. Mas isto
é impos~Jvel com a ;;é O, pois pode..se verificar fàcilmente que para
qualquer e o operador (T - cl) é inversível, isto é-, para todo nú-
mero real e a matriz ·

[ .__e
l
-lJ
-e
é inversível.
Quando o subespaço W é invariante sob o operador T, então
T induz um operador linear Tw sôbre o espaço W se restringimos o
seu domínio de definição a W. O operador linear T w é definido por
Tw(cr) = T(a), para a em W, mas Tw é um objeto bem diferente de
T uma vez que seu domínio é W e não V.
Quando V é de dimensão finita, a invariância de W sob T admite
uma interpretação simples por meio de matrizes e é interessante
mencioná-la neste ponto. Suponhamos que tomemos uma base or·
denada ca = {ªIt ••• , ª"} de V tal que <R' = {a1, ... , ar} seja uma
base ordenada de W(r = dim W). Seja A = [TJm. Então
n
Ta; = X A,1a;.
i.., l

Como W é invariante sob T, · o vetor T «i pertence a W para j < r.


Isto significa que
r
(6-4) Taj = ~ A;.;a;, j < r.
i • l

Em outras palavras, Àü == O se j < r e i < r.


Esquemàticamente, A é da forma em blocos
DECOMPOSIÇÕES EM SOMAS DIRETAS 171

onde B é uma r X r matriz, C 6 uma r X (n - r) matriz e D é uma


(n - r) X (n - r) matriz. O leitor deverá notar que., de acõrdo com
(6-4), a matriz B é exatamente a matriz do operador induzido Tw,
em relação à base ordenada G.\1 •
Ao estudarmos T estaremos muito interessados em decomposi-
ções em somas diretas J/ = W1 E& ••• EB W.t, onde cada um dos
subespaços Wi. seja invariante sob T. Dada uma tal decomposição
de J/; Tinduz um operador linear T;., sôbre cada W,'., ~travis dares-
trição. A ação de T é então a que segue. Se a é um vetor em Y, exis-
tem vetores bem determinados a1, ••• ~ ª"' com ai. em W;. tais que
a = a1 + ... + OJ·

e então
(6 .. 5)
Descreveremos esta situação dizendo que T é a 80ll18 direta dos
operadores T1, ... t Tk. Deve-se lembrar, ao usarmps esta termino-
logia, que os T; não são operadores lineares sabre o espaço Y mas
sim sôbre os diversos subespaços W;. O fato de que V - W1 EB
$ ... E9 Wk nos permite associar a cada a em Y uma única k-dupla
a,
(cr1, •.. , aA:) de vetores em W; (sendo a = a1 + ... -+ a,) de uma
maneira tal possamos efetuar as operações lineares em Y trabalhando
em cada subespaço W;. O fato de que cada W; é invariante sob T
nos permite considerar a ação de T como a ação independente dos
operadores T; sõbre os sube1paços W;. Nosso propósito é estudar
T determinando decomposições em somas diretas invariantes nas
quais os T; sejam operadores de natureza elementar.
Antes de considerarmos um exemplo, observemos ·o análogo
desta situação para matrizes. Suponhamos que tomemos uma base
ordenada <S, para cada W; e seja l'.B a base ordenada de V formada
~la reunião das c:B;, ordenada como <B1, ••• , <Bt, (Sabemos, pelo
Teorema 2, que CB é uma base de V.) De nossa discussão acima,
quanto ao análogo para matrizes para um único subespaço inva-
riante, é fácil ver que se A = (T]m e A;= (T;]~;, então A é da forma
em blocos
Â1 o ... o
o Â2 ... o
(6·6) A=

o o . .. Ai: =-
172 DECOMPOSIÇÕES EM SOMAS DIRETAS INVARIANTES

Em (6-6), A; é a d; X d; matriz (d,- = dim W;) e os símbolos O sio


blocos retangulares de vários tamanhos constituídos de escalares
nulos. Parece ser também apropriado descrever {6·6) dizendo que
A é a soma direta das matrizes A1 •... ~ Ak,
Exemplo 6. Seja V um espaço vetorial de dimens.ão finita sôbre
o corpo F e seja E um operador linear sôbre V. Suponhamos_ que E
seja idempotente, isto é, que E 2 = E. Se Ré a imagem de E e N é
o núcleo de E, afirmamos que V= R a) N. De fato1 seja a um vetor
arbitrário em Y. Escrevamos
(6-7) a = Ea + (a - Ea).
Ora1 & está na imagem R de E e como
E(a - Ea.} = Ea - E 2a
=Ea-Ea
=0
vemos que (a - Eo:) está no núcleo N de E. Assim, V = R + N·
Além disso, R e N são disjuntos. De fato, suponhamos que a esteja
na interseção R r'\ N. Então a = E{j para algum fJ em v. logo
Ea = E(EfJ) = E 2{3 = E{1 = a. Como a está em N, Ecr = O, logo
a ~ O. Portanto Y = R EB- N. Deveríamos notar que nossos cál-
culos acima mostram que a imagem R consiste exatamente nos ve-
tores a em V tais que Ea = a. Para todo operador linear T, a ima-
·gem de Te o núcleo de T são invariantes sob T e isto, em particular,
é verdadeiro para E. O que é o operador ER que E induz sôbre R?
Como salientamos há pouco, E funciona como o operador idêntico
s·abre R, isto é, ER é o operador idêntico sõbre o espaço R. O ope-
rador induzido EN é evidentemente o operador nulo sõbre N. Supo-
nhamos que tomemos uma base ordenada de R e uma base orde-
nada de N e reunamo-las, formando uma base ordenada <B de Y.
Então a matriz de E em relação a m será
1 O o o
O 1 . .. o o

o o 1 o

o o o o
DECOMPOSIÇÔBS EM SOMAS DIRETAS 173

ou, na forma em blocos,

onde J é a r X r matriz unidade e r == pôsto(E).


Um operador idempotente é freqüentemente denominado uma
projeçlo. Na verdade se R é a imagem de E e N é o núcleo de E di•
zemos que E é a projeçlo sôbre R segundo N. Um exame rápido do
operador idempotente E sôbre F 2 representado pe1a m'atriri

1
[o º]
o
em relação à base ordenada canônica, deverá explicar a terminologia.
Como logo veremos, se R e N são subespaços de V ta~s que Y = R
EB N, então existe uma única projeção sôbre R segundo N.
Projeções podem ser usadas para descrever decomposições do
esp'aço V em somas diretas. De fato, suponhamos Y = W1 E9 ...
. . . e W,. Para cada j definiremos um operador EJ sôbre V. Seja
a em V, digamos a = ai + ... + a1: com a; em W;. Definamos
E.,a == a.,;. Então, E; é uma regra bem 1efinida. É fácil ver que E;
é linear, que a imagem E,; é W°; e que Ej = E;. O núcleo de E_; é o
subespaço
(W1 + ... + W:;-1 + W:;+1 + ... + W1-)
pois a afirmação de que Ep. = O significa simplesmente que a_; =- o.
isto é, que a é na realidade uma soma de vetores dos espaços W;
com i ;4 j. Em têrmos das projeções E,; temos
(6-8)
para cada a em V. O que (6-8) diz é que
(6·9)
Notemos também que se i ~ j então E;Ei = o. pois a imagem de
E; é o subespaço W; que está contido no núcleo de E;~ Resumiremos
agora nossas conclusões, enunciaremos e demonstraremos uma re-
cíproca.
Teol'ema 3. Se V= W1 EB ... e Wk, então existem k opera-
dores Ei, ... , Et s6bre V tais que
(a) cada Ei é uma projeção (Ef = Ei);
(b) EiEJ = O, se i #- j ;
174 DECOMPOSJÇÔES EM SOMAS DIRETAS INVARIANTES

(e) I = E1 + ... +
Ek;
(d) a imagem de Ej é Wi.
Redprocamente, se Ei, ... , Ek são k operadores lineares sôbre V que
satiefazem as condições (a), (b) e (e) e se indicamos por W1 a imagem
de E1, então V= W1 ·(B ..• ·EB Wk,
Demonstração. Precisamos demonstrar apenas a afirmação recí-
proca. Suponhamos que E 1, ••• , E" sejam operadores lineares sôbre
V que satisfaçam as três primeiras condições e seja Wi a imagem de
E1. Então, certamente
V= W1 + ... + W,.-:
pois, pela condição (e) temos
a = E1 a + . . . + EkQ
para cada a em V e E;a está em W;. Esta expressão para a é única,
porque se
a = a1 + , · · + ªk
com a; em W; 1 d'.rgamos a; = E;/3;~ então, usando (a) e (b), temos
k
E;a :::z X E,;a,
i= l

= l:* EiE;/3i
i.,... 1

- E~~-
.., .1

- E-~-
1/J.1

= a;.
Isto mostra que V é a soma direta dos W;.
Suponhamos que T seja um operador linear sôbre V e que Wi
e E; sejam como acima. Como se enuncia em têrmos dos E; a con--
dição de que ca.da W; st;ja invariante sob 'P!.
Teorema 4. Seja T um operador linear sôbre o espaço V e se-
jam Wi, ... , Wk e E1, ... , Ek como no Teorema 3. Então, uma con-
dição necessária e suficiente para que cada $ubespaço W; seja inva•
riante sob T é que T comute ~om cada uma das projeções Ei, isto é.
TE; = E;T, ; = 1, ... , k.
DECOMPOSIÇÔES EM SOMAS DIRETAS 175

Denionstração. Suponhamos que T comute com cada E;. Seja


a em Wi. Então E_;a =a e
Ta = T(EJa)
= EiTa)
o que mostra que Ta está na imagem de Ei, isto é, que Wj é inva-
riante sob T.
Suponhamos agora que cada W; seja invariante sob T. Mos-
traremos que TEi == EjT. Seja a u_m vetor arbitrário em V. Então
a = E1a + . . . + Eko:
Ta = TE1a + ... + TEka.
Como E;a está em W;, que é invariante sob T, devemos ter T(E;a) =
= Ei/3; para algum vetor {jj. ~ntão
EiTE;a = E1E1/3i

=
{o se ; r6
EJ/3J, se i =
j
j.
Assim E1Ta = EiTEia + ... + EJTEra
=ºEif,i
= TE;~.
Isto vale para todo a em V, portanto E;T = TE1.
Exercidos
1. Seja V um espaço vetorial de dimensão finita e seja W1 um subespaço
arbitrário de V. Demonstrar que existe um subespaço W 2 de V tal que
V - Wx EB W2.
l. Seja V um espaço vetorial de dimensão finita e sejam W1 •... , W1: sub-
espaços de V tais que
V - W1 + ... + W1; e dim V = dim W1 + ... + dim W.t,
Demonstrar que V - W1 ED ••• EB Wk.
3. Seja T o operador linear sôbre R 2 , cuja matriz em relação à base orde,-
nada canônica é
A,_ [1-lJ
2 2 .

(a) Demonstrar que os únicos subespaços de R 2 , que são invariantes


sob T, são R I e o subespaço nulo.
(b) Se Ué o operador linear sôbre C 1 , cuja matriz em relação à base
ordenada canônica é A, mostrar que U possui subespaços invariantes uni-
dimensionais.
176 DECOMPOSIÇÕES EM SOMAS DIRETAS INVARIANTES

4. Seja Y um espaço vetorial sôbre o corpo F, seja T um operador linear


sõbre V e seja / um polinômio sôbre o corpa F. Se W é o núcleo do opera-
dor /(T), demonstrar que W é invariante sob T.
S. Seja E uma projeção sôbre V e seja Tum operador linear sôbre V. De~
monstrar que a imagem de E é invariante sob T se. e somente se, ETE = TE.
Demonstrar que a imagem e o núcleo de E são invariantes sob T se. e sõ..
mente se, ET = TE.
6. Determinar uma projeção E sôbre R ª tal que E projeta R 2 sôbre o sub-
espaço gerado por (1, -1) segundo o subespaço gerado por (l, 2).
7. Seja To operador linear sôbre R.:a, cuja matriz em relação à base ordena-
da canônica é

Seja W1 o subespaço de R I gerado pelo vetor E1.


(a) Demonstrar que W 1 é invariante sob T.
(b) Demonstrar que não existe nenhum subespaço W :i de R ª que seja
invariante sob Te que também tenha a propriedade de que R 2 .... W1 (D W l•
(Comparar com o Problema l.)
8. Demonstrar que se E é a projeção sôbre R sellllft(lo N, entio (1- E)
é a projeção sõbre N segundo R.
9. Sejam Ei, • .. , E11 operadores lineares sôbre o espaço V tais que
E1 + ... + E11 • I.
(a) Demonstrar que se EiE; = O para i '/á j, então Ef - Eí para todo i.
(b) No caso k =- 2, demonstrar a recíproca de (a). Isto é, se E, + Ea - 1
e Ef == Eu EJ = E2, então E 1 E~ - O.
10. Seja JI um espaço vetorial real e E um operador linear idempotente
sôbre V, isto é, uma projeção. DemO'nstrar que ( 1 + E) é invenivel. De-
terminar (1 + E)- 1 •
11. Seja J/ um espaço vetorial, sejam W i . ••• , W k subespaços de V e seja
Vi ... W 1 + . .. + W; _, + W; + 1 + ... + Wk.
Suponhamos que V - W1 E9 ... E& W,t. Demonstrar que o espaço dual
JI"' admite a decomposição em soma direta e• - V~ E9 ... (& Y2.
12. Seja V um espaço vetorial de dimensão finita e seja T um operador li-
near sabre Y. Suponhamos que Y - W1 (& ••• $ Wk, onde cada W, é
invariante sob T. Se T, é o operador induzido sõbre W. por T. demons,,,
trar que
det(T} = det(T1 } ••• det(T.t},
(Sugestão: Usar o fato correspondente sõbre somas diretas de matrizes.)
13. Seja T um oper\dor linear sõbre o espaço vetorial V de dimensão fi-
nita, seja R a imagem de T e seja N o núcleo de T. Demonsttar que R e N
são disjuntos se, e somente se. V = R EB N.
14. Seja F um subcorpo do corpo dos números complexos e seja V um es-
paço vetorial de dimensão finita sôbre F. Suponhamos que E 1 • . • • , E,. se-
jam projeções sõbre V e que E 1 + ....
+ E1: - I. Demonstrar que EiE; = O
para i ~ j. (Suge1tão: Usar a função traço, descobrir o que é o traço de
uma projeção e usar o resultado do Exercício 2.)
VALORES CARACTERÍSTICOS E VETORES CARACTERÍSTICOS 177

19. Seja V um espaço vetorial de dimensão finita.


(a) Se T é um operador linear inversível sõbre V e W t e W ~ são sub-
espaços de V tais que V - Wi. \1) W11 demonstrar que
V - T(V) • T(Wi) EB T(W2).
(b) Seja T .um operador linear sôbre V que tenha a propriedade de
que se V - W1 E9 W,. então T(V) - T(W1 ) EB T(Wi), Demonstrar que
T é inversível.

6. 2 Valol'el Característico, e Vetores Característicos


Em tôda esta seção, T será um operador linear sôbre um espaço
vetorial n•dimensional V sôbre o corpo F.
Defbdçio. Um valor característico de T é um escalar e em F tal
que exista um vetor não-nulo a em V com Ta = ca. Se e é um valor
caracter'lstico de T, então todo a tal que Ta = ca é denominado um
vetor caraderistico de T associado ao valor caracteristico e.
Valores característicos são freqüentemente denominados raízes
caracter{sticaSi, raízes latentes, autova]ores, valores próp{ios ou va-
lores espectraJs. Neste livro usaremos apenas o nome valores carac-
terísticos. Ora, o fato de que Ta = ca, com a ~ O, drz que o sub-
espaço unidimensional de Y que é gerado pelo vetor a é invariante
sob T. Assi111:, valores (vetores) característicos surgem de subespaços
invariantes não•nulos e de dimensão minima. Exploraremos êsse
uaspecto de invariânciaº das coisas na Seção 6.3.
Teorema 5. As seguintes.condições são equivalentes:
(i) e é um valor característico de T.
(ii) O operador (T - cl) é s~ngular (nãb-inversível).
(iii) det(T - cl) = O.

Demonstração. A afirmação de que existe um vetor nãernulo


a tal que Ta =- ca é simplesmente a afirmação de que existe um
vetor não•nulo a tal_ que (T - cT)a = O. A partir disto é evidente
que (i), (ii) e (Ui) são afi.rmações equivalentes.
Se <B é uma base ordenada arbitrária de V e A = [71m, então
(T - cl) é inversível se e somente se a matriz (A - c/) é inversível.
Portanto. colocamos a definição que segue.·
Deflniçio. Se A é uma n X n matriz sôbre o corpo F, um valor
caracteristlco de A é um escalar e em F tal que a matriz (A - cI) seja
singular (não-inversível).
178 OECOMPOSIÇÕES EM SOMAS DIRETAS INVARIANTES

Como e é um valor caracteristico de A se, e somente se, det


(A - cl) :a: O, ou equivalentemente, se, e somente se, det(cJ- A) =
= O, podemos formar a matriz (xi - A) cujos elementos são poli.:.
nômios e considerar o polinômio / = det(x/ - A). Evidentemente
os valores caracteristicos de A são exatamente os escalares e em F
tais que f(c) as O. Por esta rmo / é denominado o polinômio ca~
racterístlco de A. É importante notar que/ é um polinômio unitário
cujo grau é exatamente n. Isto pode ser visto fàcilmente através da
fónnula para o determinante de uma matriz em função de seus ele-
mentos.
Lema. Matrizes semelhantes têm o mesmo polinômio caracte-
ríslico.
Demonstração. Se B = p- 1A P, então
det (xi - B) = det (xi - p- 1AP)
= det (P- 1(x/ - A)P)
= det p- 1 • det (xi - A) . det P
= det (xi - A).
Êste lema nos permite definir sensatamente o polinômio carac-
terístico do operador T como o polinômio característico de qualquer
11 X n matriz que represente Tem relação a alguma base ordenada
para V. Da mesma forma que para matrizes, os valores caracterís-
ticos de T serão as raízes do polinômio característico de T. Em par-
ticular, isto nos mostra que T não pode ter mais que n valores ca•
racteristicos distintos. É importante ressaltar que T pode não ter
nenhum valor característico.
Exemplo 7. $(tia T o operador linear sôbre R 2 que é represen-
tado em relação à base ordenada canônica pela matriz

A=[~
O polin&mio caracterfstico de T (ou de A) é
-n
det (xi - A) -1-f !I = x2 + 1.

Como êste polinômio não possui raízes reais, T não possui valores
caracterfsticos. Isto é rç:almente uma repetição de um fato que sali-
entamos anteriormente, -a saber, que T não possui subespaços inva-
riantes unidimensionais. Se U é o operador linear sôbre C 2 que é
representado por A em relação à base ordenada canônica, então
U possui dois valores característicos, ; e -i. Vemos aqui um ponto
VALORES CARACTERÍSTICOS E VETORES CARACTERÍSTICOS 179

suti~ Ao discutirmos os valores característicos de uma matriz A,


precisamos tomar o cuidado de estipular o corpo envolvido. A ma-
triz A acima não possui nerlhum valor característico quando coQ.Si-
derada corno uma matriz real, mas possui dois valores caracteris•
ticos, i e -i, quando considerada como uma 2 X 2 matriz com-
plexa.
Exemplo 8. Seja A a 3 X 3 matraz
5 -6
[ -1 4
--6]4 ·
3 -6 -4
Então o polinômio característico de A é
jx - 5 6 6
i 1 x - 4 -2 = x3 - 5x 2 + 8x - 4 = (x - l) (x- 2) 2 .
1-3 6 x+4
Uma propriedade muito interessante e útil do polinômio carac-
teristico é dada pelo teorema Cayley-Hamilton, que agora demons-
traremos.
Teorema 6. (Cayley-Hamilton). Seja Tum operador linear sôbre
o e.r~o vetorial n-dimensional V [ou, seja A uma n X n matriz sóbre
o corpo F] e seja f o polinômio característico de T (de A]. Entflp f(T)=
= O [f(A) = O].
Demonstração. Seja Tum operador linear sôbre o espaço n-di-
mensional V. Se g é um polinômio sôbre o corpo F e a é um vetor
em V, usaremos a notação ga para o vetor g(_T)a. Se h é um outro
polinômio sôbre F, então
(g + h)a = ga + ha e g(ha) = (gh;)a.
Estas afirmações são simplesmente
g(T) + h(T) = (g + hXT) e g(.'I)h(_D = (ghXn,
que demonstraremos no Capítulo 4.
Tomemos uma base ordenada { ai. •.. , ª"} de V e seja A a ma•
triz que representa Tem relação a esta base ordenada. Seja B a ma-
triz (xl~ A). Então B é uma n X n matr.iz sôbre o anel de polinô-
mios fl~] e, por definição,/= det B é o polinômio característico
de T (ou de A). Como A representa T em relação à base ordenada
.
acuna
,,
Ta1 == E A;p;.
; ., 1
180 DECOMPOSIÇÔES EM SOMAS DIRETAS INVARIANTES

Cam a notação que introduzimos no primeiro parágrafo da demons-


tração, isto pode ser reescrito como
ti

Xa.j = li
; •j
A ijOl.i
ou
li

i; (6;;x - A;;)a; -= O.
i "" 1

Como 6;;x - A ii = B;i temos


n
(6-10) li B;ja.; = O, j = 1~ ...• n.
i• 1

Desejamos mostrar q~ /(T) • O. Para que /(n seja o operador


nulo, é necessário e suficiente que /(T)a1: -= O para k = 1, ... , n.
Fixe~os k, .1 s_ k < n; mostraremos que... /(1,')a. = O, isto é,Jai = O.
Seja B a matriz adjunta clássica de B, B = adj B. De (6-10) tem01
IS ,..

Z B;i:B;p; = O, j = l, ..• , n
i - l

e somando sõbre j

z"
o =r j-1 .
l:
r•l
B;1tBijOli

..
Ora, BB = (det B)/ = / 1, e então

Assim, temos
n
O= l: i;t/a;
, ""1

=fa1,:.
No Capítulo 7 faremos uma outra demonstração diste teorema.
Para compreender a demonstração que fizemos acima, insistimos
veementemente para que o leitor examine de perto o argumento para
o caso n = 2. As equações (6-10) serão então
(x - An)a.1 - A.210:2 =O
-A1201 + (x - A:22)a2 =O
VALORES CARACTERfSTICOS E VETORES CARACTERÍSTICOS 181

e o polinômio caracterfstico
.f = x2 - (Au + A22)x + (AuA22 - A12A21).
Pode-se obter /a1 = O "eliminando" a2 destas equações e pode•se
obter /a2 a:: O "eliminando" a1. No caso geral, êste processo de eli-
minação é o que se consegue através do uso da adjunta clássica de
(xi - A).
O teor.ema de Cayley-Hamilton nos diz algo que não é muito
fácil de ver diretamente, a saber, que se T é um operador linear
sõbre o espaço n-dimensional V, então existe um polfu6mio / de
grau n tal que /(T) • O. Notemos que é fácil ver que existe um po-
lin&mio não-nulo g de grau não maior que n2 tal que g(T) =- O.
De fato, o espaço L(V, V) tem dimensão n 2t portanto os operad·o-
res /, T, T 2 , •• , T- 2 devem ser linearmente dependentes. O conjunto
dos polinômios g em F[xJ tais que g(_T) :m: O é um ideal, como é
fácil de verificar. Alim disso, este ideal contém um polin6mio
unitário de grau n, que é o polin6mio característico de T. Assim,
existe um único polin&mio unitário p que gera o ideal formado por todos
g tais que g(T) - O. ~te p é denominado o polinômio mfntmal de
T. O nome vem (6 claro) do fato de p ser o polinômip unitário de
grau mfnimo que leva Tem O. O teorema de Cayley-Hamilton po..
de ser reenunciado: O polin6mio característico de T é divisfvel pelo
polin8mio minimal de T.
Definimos o polinômio minimal de uma n X n matriz da ma..
neira correspondente, isto é, como o único gerador unitário do ideal
de todos os polinômios g sõbre F tais que g(A) = O. É fácil ver
que matrizes semelhantes tem exatamente o mesmo ideal de polina-
mios ºanuladoresn g, porque
,<_p- l AP) = p- 1~A)P
e, conseqüentemente, matrizes semelhantes têm o mesmo polinômio
minimal. Se o operador é representado em relação a alguma base
ordenada pela ,matriz A, então T e A tam~m têm o mesmo poli-
nômio minimál, pois para todo g o operador g(T) é representado
l
pela matriz g(.A).
Exemplo 9. Seja F um subcorpo do corpo dos números com ..
plexos e seja To operador linear sôbre F 3 que é representado em
relação à base ordenada canônica pela matriz A do Exemplo 8.
Vimos que o polin~io caracteristico de A (e portanto de T) é
f = (x - t)(x - 2) 2• Qual é o polinômio minimal de T'! Bem,
o teorema de Cayley-Hamil\on nos diz qlle o polinômio minimal
de T deve dividir/. Logo, é evidente que êste polinômio deve ser
182 DECOMPOSIÇÔES EM SOMAS DIRETAS INVARIANTES

J. (x -l)(x - 2), (x - 2):\ ou (x - l). Logo veremos que os


dois óltimos polinômios não são, na verdade, candidatos porque o
polinômio minimal deve ter todos os valores característicos como
raizes; mas por ora não sabemos isto. Qual dêstes é o polinômio
minimal? Precisamos tomar cada polinômio, ver se !le "anula" T
e então tomar o de menor grau que o faz. É claro que (A - /) "# O
e cálculos breves mostram que (A - 2/)2 ~ O. Por outro lado

(A - IXA - U) =
3-6-5
[~i 7 7] [-f 7 3-6-6
7] = O

logo. o polinômio minimal é p = (x - 1)(x - 2).


No Exemplo 9, vimos que seria convenien•e, para a determina-
ção do polinômio minimal de um ·dado operador, se soubéssemos
que todo valor caracter:istico iem de ser uma raiz do polinômio
minimal. Demonstraremos isto agora, com o objetivo de nos auxi..
liar no cálculo de polinômios minimais. No Capitulo 7, veremos que
todo divisor irredutível do polinômio característico também é um
divisor do polinômio minimal. Portantoi suponhamos que e seja
· um valor característico de T, digamos _Ta = ca com a "# O.· Se
g é um polinômio arbitrário sôbre o corpo F, então g(_T)a = g(_c)a,
por exemplo.
T 2a = T(Ta) = T(ca) = cTa = c 2a.
Assim~ para todo polinômio g, o escalar g(_c) é um valor caracterís-
tico do operador g(T). Em particular, se g(T) = O, então g(c) é
um valor característico do operador nulo, logo é nulo. Apliquemos
isto ao caso em que g é o polinõmio minimal. Combínando isto
com o Teorema de Cayley-Hamilton, vemos que os valores carac. .
terísticos de T são exatamente as raízes do polinômio minimal, ou
as raízes do polinômio caracteristico. Assim, êstes dois polinômios
tem exatamente as mesmas raízes, apesar de que as raizes possam
ocorrer com maior multiplicidade no polinômio característico.

Exercielos
t. Em cada um dos casos seauintes, seja To operador linear sôbre R que .
2

é representado pela matriz A em nlação à base ordenada canônica de R •


e seja U o operador linear sõlxe e• representado por A em relação à bue
ordenada canõnica. Determinar os polinômios caracteristicos de Te de U,
detennil)8I'. os valores caracterlsticos de cada operador e para cada valor
caracterfstico e determinar uma base do correspondente espaço de vetores
caracteristicds.

A • [i gJ A • [_f !] A -· [t ~]
VALORES CARACTERÍSTICOS E VETORES CARACTERÍSTICOS l 83

2. Seja A a 3 X 3 matriz do Exemplo 8 e seja T o operador linear sôbre


R:' representado por A em relação à bue ordenada canônica. Determinar
uma bue de R 3 formada por vetores característicos de T.
3. Seja V um espaço vetorial ,i-dimensional sôbre F. Qual é o polinômio
~ter.lstico do operador id!ntico sõbre V? Qual ~ o polinômio minimal
de /? Quais são os polinõmios caracteristico e minimal do operador nulo?
4. Seja A a 3 X 3 matriz real

[ ~ : -s~]-
-3 -3
Determinar o polinômio característico e o polinômio minimal de A.
5. Seja A uma n X n matriz triangular sôbre o corpo F. Demonstrar que
os valores caractcristicos de A são os elementos diagonais de A, isto é, os
escalares Au.
6. Seja V um espaço, vetorial n-d:imensional sôbre o corpo F e seja T um
operadOI' linear s6bre V. Suponhamos que exista um inteiro positivo k tal
que T1 •O. Demonstrar que T,,, • O.
7. Sejam a. b e" elementos de um corpo F e seja A a quinte 3 X 3 ma-
triz ~ôbre F: ·

a?n
Demonstrar que o polinômio característico de A é xJ -
que fste polinômio é também o polinômio minimal.
axJ - hx - e, e

8. Se;am A. e n X n matrizes sõbre o corpo F. Demonstrar que se (1 - AB)


é inversível, então (l - BA.) é inversível é
c1 - BA>-' - , + B(t - ABr 1 A.
9. Usar o resultado do Exercício 8 para demonstrar que se A e B são,,. X 11
matrizes sôbre o cotpo F, então AB e BA tem exatamente os mesmos valo-
res característicos.
10. Seja A uma n X n matriz sôbre o corpo F e suponhamos que A seja
a soma direta

. . .
o o À

das matri~ A., ...• A 1• Demonstrar que o polinômio característico de


A é o produto dos polinômios caracteristicos das Ai.
11. Seja V o espaço vetorial de tôdas as funções f de R em R que são con-
tinuas, isto é, o espaço das funções continuas, definidas sôbre a reta real e
tomando valores reais. Seja To operador linear sõbrc V definido por

(Tf) (x) - J: /(t')dt.

Demonstrar que T nin possui nenhum valor característico.


184 DECOMPOSIÇÔES EM SOMAS DIRETAS INVARIANTES

6. 3 Operadores Diagonalbáveis
Deffniçio. Seja T um operador linear sóbre o espaço V de di-
mensão finita. Dizemos que T é dia1onaHável se existe uma base de
V formada por vetores caracterbticos de T.
A razio para o nome deveria ser evidente; de fato,· se existe
uma base ordenada <B = {a1 1 • • • , a,.} de Y na qual cada a; é um
vetor característico de T, então a matriz Tem relação à base orde-
nada as é diagonal. Se a; = c;a;, então
C1 0 0
O c 2 O
[T<B; =

O O • . . cfl
Certamente não pretendemos que escalares c1, ..• , e" sejam dis.
tintos; na verdade~ !les podem ser todos i9uais (quando T é um
múltiplo escalar do operador identicô).
P.óder-se-ia também definir T como sendo diagona]izável quando
os vetores característicos de T serassem Y. Isto difere apenas super•
ficialmente de nossa definição, uma vez que podemos sempre obter
uma base a partir de qualquer conjunto de vetores que seja gerador.
Suponhamos que T seja diagonalizável e sejam c1, .... , c1c os
valores característicos distintos de T. Para cada i, seja W; o subespaço
dos vetores caracterfsticos associados a e,, isto 6, o núcleo de (T- c;l).
A própria definição "diagorlaJizáveln diz que, juntos, os subespaços
Wi ••.. , W.t geram J/, isto é, que Y = Wi + ... + W.1:. Esta soma
é d.freta; na realidade·, a independ@ncía dos subespaços W1, •.. , w.
nlo depénde do fàto de T ser diagonalizável.
Teorema 7. Seja T wn operador linear arbitr.6rio Jôbre o espaço
V de dimensão finita, sejam ci, . . • , Ck os valores característicos dis-
tintos de Te seja W; o núcleo de (T - cl;). Então os subespaçoss
Wi, .•• ~ W.1: são independentes.
Demo'ltstração. Seja a; em W;, i = l, ... , k e suponhamos que
(6·11) 0:1 + ... + a.1: = O.

Seja j um. inteiro entre 1 e k e seja U; o produto dos operadores


(T- c;I) para i #- j. Pela definição de W;, temos (T-c;l')a; == Oe,
como todos os operadores (T- c;l) comutam, por serem polin8mios
em T, é claro que U;a; = Opara i ~ j. Além disso
ft- l2) Uia.J = [ II (c1 - c;)]a1•
j-,,ii
OPERADORES DIAGONALIZÁVEIS 185

Se aplicamos Ui a ambos os membros de (6-11) obtemos U.Pi = O.


Como ós Ci são distintos, o produto
II (e; - e;)
,#j

é um escalar não•nulo. Então (6-12) nos mostra que U_;ai == O im-


plica ªi = O. Mostramos que cada a; = O, portanto os subespaços
W1, ... , Wk são independentes.
Voltando ao nosso T diagonali:zável, temos agora
V = W1 a, . . . EB W,...
Certamente cada W; é invariante sob T, pois T significa simples-
mente a multiplicação de W; pelo escalar e;; Temos aqui então um
exemplo extremamente simples de uma decomposição em soma di•
reta invariante, sendo que os operadores ind02idos sabre os subes•
paços W; são múltiplos escalares do operador idêntico.
Examinemos as projeções associadas a esta decomposição em
soma direta, como no Teorema 3 ." Neste caso, a imagem da projeção
E; é o espaço W; dos vetores característicos associados a e;. Se a é
um vetor arbitrário em V, então
a = E1 a + . . . + EJcO.
logo Ta = TE1a + ... + TEl:O.
= c1E1a + . .. + c,.E,ra.
!$to diz que
T = ciE1 + . . . + ckEk.
Teorema 8. Se T é um operador diagonalizável sôbre o espaço
V de dimensão finita e c1, ..• , c1c são os valores caracteristi~os dis ..
tintos de T, então existem operadores lineares E1, ...• ~ sôbre V
tais que
(a) T = c1E1+ ... + ckEk:
(b) J = E1 + ... + Ek;
(e) EiEJ = O, i # j ;
(d) E~ = Ei;
(e) a imagem de Ei é o espaço dos vetores característicos de T
associados ao valor característico Ci.
Esta é a versão para operado1es da afirmação de que T é repre•
sentado por uma matriz diagonal em relação a alguma base orde•
nada. O leitor poderá sentir que parece bem complicada em com•
186 DECOMPOSIÇÕES EM SOMAS DIRETAS INVARIANTES

paração com a formulação para matrizes ou em relação à simples


afirmação de que os vetores caracterfsticos de T geram o espaço V.
Temos diversas razões para apresentá-la. Primeiro, o enunciado de
tais teoremas puramente em têrmos de operadores é útil quando se
deseja estudar posteriormente espaços de dimensão infinita. Segundo,
Sle nos ajudará a compreender mais tarde alguns teoremas de decom-
posição mais profundos. Terceiro, existe uma reciproca dêste teore-
ma que agora enunciaremos e que nos ajudará a dar uma caracte•
rizaglo dos operadores diagonalizáveis.
Teorema 9. Seja Tum operador linear sôbre o espaço V de di-
mensão finita. Suponhamos que existam k escalares c1, •.• , Ct, dis-
tintos e k operadores lineares não-nulos E1, •.. , Et sôbre V que sa•
tisfaçam as condiêões (a), (b) e (e) do Teorema 8. Então T é diago-
naliz6vel, c1, ••• , Ck são exatamente os -valores caracterfsticos dis-
tintos de Te os E1 tambem satisfazem as condições (d) e (e) do Teo•
rema 8.
Demonstração. Como E;EJ = O para i ~ j, multiplicando am-
bos os membros de/= E 1 + ... + E1e por E; obtemos imediata-
mente E: = E;. Multiplicando T = c1E1 + ... + CtEt por E; re-
sulta TE; = c;E;, o que mostra que todo vetor na imagem de E;
está no núcleo de (T - c;l). Como supusemos que E; ~ O, isto de-
monstra que existe um vetor não-nulo no núcleo de (T - c;l), isto
é, que e; é um valor característico de T. AJém disso, os Ci são os
únicos valores característicos de T; de fato, se e é um escalar arbi..
trário, então
T - cl = (c1 - c)E1 + ... + (c.t - c)E1r
portanto se (T - c/)a = O, devemos ter (e; - c)E;a = O. Se a não
é o vetor nulo então E;a # O para algum ;, de modo que para êste
i temos e; - e = O.
T é certamente diagonalizável, pois mostramos que todo vetor
não-nulo na imagem de E; é um vetor característico de T e o fato
de que / = E1 + ... + E, mostra que asses vetores caracterfsticos
geram J'. Tudo o que resta a ser demonstrado é que o núcleo de
(T- e;/) é exatamente a imagem de E;. Mas isto é evidente, porque
se Ter = c;a, então

i
'
2: (ci -
•1
c;)Eja = O

logo (ci - c;)E;a = O para cada j


e então E,;a = O, j ;r! i.
OPERADQR.ES DIAGONALIZÁVEIS 187

Como a = Eia + ... + E1«, e Eia - O para j ~ i temos a = E;a,


demonstrando que a está na imagem de E;.
Uma parte do Teorema 9 diz que para um operador diagonali-
zável T, os escalares c1, ... , Ct e os operadores E1, ... , Ei são de-
terminados de modo único pelas condições (a), (b), (e), mais o fato
de que os e; são distintos e o fato de que os E; são não-nulos. Uma
das características agradáveis da decomposição T = c1E1 +
+ ... + c1eE• é que g é um polinômio arbitrário sôbre o corpo F.
então
g(T) = g(c1)E1 + ... + g(_ci)E1c.
Deixemos os detalhes da demonstração a cargo do leitor. Para ver
como se demonstra, basta calcular T" para todo inteiro positivo r.
Por exemplo

T2 = 2:' c;E; ~
t CjE,;
i=l i-1
~ t
= 2: :E C;CjEiEj
i•l .i••d
,t
= :E1 e~~
j ...

.t.
=; :E... l C,E;.
O leitor deve comparar isto com g(A) sendo A uma matriz diagonal,
pois neste caso g(A) é simplesmente a matriz diagonal de elementos
diagonais g(.Au), . . . , g(Ann).
Gostaríamos de observar em particular o que acontece no caso
dos polinômios de Lagrange correspondentes aos escalares c1, ••• ,
•• , , Ck:

II (x - e;)
Pí = !~J(Cj ~ C;)
·
Temos pie;) = 6;1, o que significa que
.t
pi{T) = 2: aiíE;
l=l

= E1.
Assim, as projeções E1 não apenas comutam com T, mas são poli•
nõmios em T. ·
188 DECOMPOSIÇÕES EM SOMAS DIRETAS INVARIANTES

Notemos também que se g é um polinômio, a fórmula


g(_T)= g(c1)E1 + ... + g(_c,:)E,.
nos mostra que g(T) = O se, e somente se, g(c;) = O para cada i.
A partir disto é eviq.ente que o polinômio minimal de T é
p = (x - c1) •.• (x - c1r).

Teorema 10. Seja T um operador linear s6bre o espaço V de


dimensão finita s6bre o corpo F. Então~ uma condição necessária e
suficiente para que T seja diagonalizável é que o polinómio minimal
de T seja da forma
p = (x - c1) . . . (x - Ct)

onde c1, .•• ; ck são escalares distintos em F.


Demonstra,ão. Acabamos de ver que se T é diagonalizável,
então o polin6mio minimal para T é da forma dada. Suponhamos
agora que T seja um operador linear s&bre Y com polin&mio minimal
p = (x - c1) ... (x - c1)
onde c1, , •• , c1r são elementos di&tintos de F. Formemos os polin6•
mios de Lagrange
(x - e;)
Pi= II . ·
iFj(Cj - C;)

Recordemos do Capitulo 4 que pi{c;) = I;; e, para todo polin&mio


g de grau menor ou igual a (k - 1), temos
g = g(_c1)p1 + . . . + g(_ci,)pi,
Tomando g como sendo o polinômio constante l e logo em seguida
como o polinômio x, temos
1 = Pt + ... + p1e
(6-13) X - C1P1 + ... + CtPk
(0 leitor astuto terá notado que a aplicação a x pode não ser válida
porque k pode ser igual a 1. Mas se k == l, T é um múltiplo escalar
do operador idêntico, sendo portanto diaconalizável.) Seja agora
E; = p,{n. De (6-13) tem~s
(6-14) I = E1 + ... ·+ E1:
T - c1E1 + . . . + c1rEk.
OPERADORES DIAGONALIZÁVEIS 189

Observemos que se i ~ j então p;p1 é divisível pelo polinômio mini-


mal p, pois p;p1 contém cada (x - Cr) como um fator. Assim
(6-15) EiEi = O, i ~ j.
Precisamos notar ainda mais um fato, a saber, que E; ~ O para todb
i. Isto ocorre porque p é o polinômio minimal de T e então não po-
dentos ter p,{T) = O, pois p; tem grau menor que o de p. ~ste último
comentário, junto com (6-14), (6-15) e o fato de que os e; são dis-
tintos nos permite aplicar o Teorema 9 e concluir que T é diagona-
lizável.
Corolário. Seja A uma n X n matriz sôbre o corpo F. Então
A é semelhante sôbre F a uma matriz diagonal se, e somente se, o
polin6mio minimal p de A é da forma
p = (x ~ c1) ... (x - c1)
onde c 1, .•• , ck são elementos distintos de F.
Exemplo 10. Seja F um subcorpo do corpo dos números com-
plexos e seja To operador linear sôbre F3 representado em relação
à base ordenada can6nica pela matriz A dos Exemplos 8 e 9. Já
sabemos que o polinômio característico de T é (x, - 1) (x - 2) 2 e
que o polin8mio minimal de T é (x - 1) (x - 2); Como o polinô-
mio minimal é um produto de polinômio sôbre F que são lineares,
unitários e distintos, sabemos de imediato que T é diagonalizável.
Sabemos ainda que existe uma base ordenada de P3 em relação à
qual T é representado pela matriz
l O 0-.
[
O 2
O O 2 ºJ ·
O '2' aparece duas vêzes na diagonal porque (x - 2) ocorre d\Ull
vêzes no polinômio característico. Podemos determinar uma tal base
ordenada determinando simplesmente bases dos núcleos de (T - /)
e (T - 21). Mas, com o objetivo de alcançar alguma compreensão
da demonstração do Te.orema 10, vamos proceder como segue. O
pblinômios de Lagrange do Teorema 1O são
(x- 2)
Pi = (1 _ 2) =2- x

(x - 1)
p2 = (2 - 1) =X - l.
190 DBCOMPOSIÇÕES EM SOMAS DJRBTAS INVARIANTB-S

Portanto, E 1 == 21 - T e E2 == T - 1. As matrizes de E1 e E2 em
relação à base canônica são então

21- A= [-3 6 6]
-J
1 -2 -2
6 6
A - I = [ 4-6-6]
-1 3 2 ·
3 -6 -5
É óbviot já à primeira vista, que uma base da imagem de E1 é o vetor
(-3t 1, -3), pois as colunas de 21 - A geram a imagem de EJ.
Anllogamente, ve-se que um base da imagem de E2 é
"{ (4, -], 3), (--6, 3t -6) }.
&tes três vetores juntos formam uma base de P em relação à qual
a matriz de T será. diagonal. Em linguagem matricial, se fizermos

p = [-~
-3
--13 -~]
-6
então p- 1AP será a matriz diagonal de elementos diagonais 1, 2, 2.
Para o operador diagonalizável arbitrário T do Teorema 9,
deve-se observar o seguinte: O polinômio característico de T será
/ = (x _·· C1)d1 ••. (x - Ct)dt

onde d; é a dimensão do subespaço W;. Isto é evidente a partir da


versão matricial do Teorema 9. Assim, para um operador diagonali-
zá·vel T, a dimensão do espaço dos vetores característicos asssociados
ao valor caracterfstico e, é a multiplicidade de Ci como uma raiz do
polin6mio caracteristico de T.
Outro fato que merece ser notado é que, sendo as projeções
E; polinômios em Te T == c1E1 + ... + c1eEt, um operador U co-
muta com T se, e somente se, U comuta com cada um dos Ei. Como
observamos na Seção 6. 1, a afirmação de que U comuta com cada
E; significa exatamente que cada W; é invariante sob U. Isto nos
conduz a um teorema intere9sante.
Teorema 11. Sejam T e U operadores lineares diagonalizáveis
sôbre o espaço V de dimensão finita. Se T e V comutam, então êles
são simultdneamente diagonalizáveis, isto é, existe uma base de V
na qual cada vetor é um vetor característico de T e também um vetor
característico de V.
Demonstração. Seja T = c1 E 1 + ... + c1cEi, onde os e; são os
valores característicos de T e as E; são projeções tais que / = E1 +
+ . . . + E1c e E;E1 = O se i F- j. Como observamos acima, o fato
OPERADORES DIAGONALIZÁVEIS 191

de que U comuta com T significa que U comuta com cada E;, ou


seja, que a imagem W; de E; é invariante sob U. Seja U, o operador
linear sôbre W; induzido por U, isto é, a restrição de U a W ;. Como
Ué diagonalizável, cada Uj também o é; de fato, o polinômio mi-
nimal de U é da forma
g = (x - d1) ... (x - d,)
com os d; distintos. É evidente que g(_ U;) = O para todo i, pois
g(U) = O. Isto significa que o polinômio minimal de U; necessària-
mente divide g; logo, êste polinômio minimal possui raízes distin-
tas, portanto U; é diagonalizável. Isto significa que em cada W; po-
demos encontrar uma base m;, cujos vetores sejam vetores caracte-
rísticos de U; e conseq üentcmente de U. Como todo vetor em Wí
é um vetor característico de T, a reunião das bases c.B; é uma base
de V, formada por vetores que são vetores característicos tanto de
T como de U.
O leitor não deverá encontrar dificuldades para estender o Teo•
rema 11 para um conjunto finito arbitrário de operadores sõbre V,
que comutem e sejam diagona[izáveis. Deverá também notar que a
mesma base que diagonaliza simultâneamente um número finito de
operadores lineares também diagonaliza tôda combinação linear dos
mesmos. Assim, decorre que se temos um conjunto arbitrário de
operadores diagonalizáveis sôbre V, todos comutando entre si, existe
uma base de Y que diagonaliza todos êsses operadores; de fato,
basta extrair um conjunto linearmente independente maximal da
familia de operadores comutáveis; esta família será finita e sua dia•
gonalização irá evidentemente diagonalizar tôda a familia.
Corolário. Sejam A e B n X n matrizes sôbre o corpo F, serulo
cada uma semelhante s6bre F a uma matriz diagonal. Se A e B co-
mutam existe uma n X n matriz inversível P sôbre F tal que tanto
p- 1AP como p- 1BP são diagonais.

Exerclcios
1. Seja T o operador linear sôbre R J que é representado em relação à base
ordenada canônica pela matriz

[
-9 44]
-8 3 4 ·
- -16 8 7
Demonstrar que T é diagonalizável 1110Strando uma base de RJt formada
par vetores caracteristicos de T.
192 DECOMPOSIÇÕES EM SOMAS DIRETAS INVARIANTES

2. Para a matriz A. do Exercício l, determinar matri7.es E, e E,. tais que


A - c,E, + +
ctE2 (c:i: e c:i sio os valores característicos de ..4), E" E, -
-= I, E1E2 = O.
3. A matriz

A=[~ } =!] 2 2 O
é semelhante sôbre o corpo R a alguma matriz diagonal? Esta matriz é se-
melhante sôbre o corpo e a alguma matriz diagonal?
4. Responder às perauntas do Exercício 3 para a matriz

A= [ 6-3 -2]
4 -1 -2
10 -5 -3_
5. Seja T um operador linear sõbre o espaço vetorial ,,-.dimensional V e
suponhamos que T possua ,r valores característicos distintos. Demonstrar
que T é diagonali:zável.
6. Seja Tum operador linear sôbre um espaço vetorial de dimensão finita
sôbre o corpo dos numeros complexos. Demonstrar que T é diagonalizáM
ve1 se, e somente se, existe um polinômio g sôbre C que tenha rafz.es dis-
tintas e seja tal que K<,T) • O.
7. Seja Tum operador linear diagonalizável sôbre o espaço V de dimen-
são finita e seja W um subespaço qualquer, invariante sob T. Demonstrar
que o operador linear TW que T induz sôbre W é diagonalizável.
8. Determinar uma matriz real inversível P tal que p- 1 AP e P- 1 BP sejam
ambas diagonais, sendo A e B as matrizes reais

(a) A - [õ i] B - [ii ~]
(b) A == [} ~] B = [! ~]

9. Suponhamos que A seja uma 2 X 2 matriz com elementos reais que


seja simétrica (A' - A). Demonstrar que A é semelhante sôbre R a uma
matriz diagonal.
10. Seja Tum operador linear sôbre o espaço V de dimensão finita e su•
ponhamos que o polinômio característico de T seja
f- (x - cJ)'• ... (x - c_.)d.t
sendo cl, ... t c1; escalares distintos. Demonstrar que T é diagonalizável
se, e somente se, a dimensão de (T- cd) é di para í = 1, ... , k.
11. Seja A wna n X n matriz diago11al com polinômio característico (x -
- c1)d1 ••• (x - c1)'k t sendo os Ci distintos. Seja V o espaço das II X n
matrizesBtaisqueAB - BA. Demonstrar que a dimensão de Védf + ...
+d?.
12. Seja Numa 2 X 2 matriz complexa tal que N 2 = O. Demonstrar que
ou N .- O ou N é semelhante a
O TEOREMA DA DECOMPOSIÇÃO PRIMÁRIA 193

13. Usar o resultado do Exercício 12 para demonstrar o seguinte: Se A


é uma 2 X 2 matriz com elementos complexos, então A. é semelhante s6-
bre C a uma matriz de um dos tipos seguintes:

[~ iJ [~ ~]-
14. Seja F um corpo, 11 um inteiro positivo e seja V o espaço das ,r X n
matrizes sôbre F. Se B é uma 11 X II matriz fixa sõbre F, seja Ta o operador
linear~ sôbre V definido por T s (A} - AB - BA. Consideremos a famflia
dos operadores lineares T. obtida faz.endo B percorrer o coitjunto das ma-
trizes diaaonais. Demonstrar que os operadores desta familia são simul-
tlneamente diagonalizáveis.

6. 4 O Teorema da Decomposlçlo Primária


Estamos tentando estudar um operador Jinear / sôbre o espaço
de V de dimensão finita, pela decomposição de T numa soma di-
reta de operadores que sejam, num certo sentido, elementares. Po-
demos fazê;.lo através dos valores e vetores característicos de Tem
certos casos particulares, isto é, quando o polinômio de T decom-
põe-se sôbre o corpo F de escalares num produto de polinômios
unitários, distintos e de grau 1. Que podemos fazer com um T
arbitrário? Se tentarmos estudar T usando vafores caracteristicos,
iremos nos confrontar com dois problemas. Primeiro, T poderá
não ter nenhum valor característico; isto, na verdade, é uma de-
ficiSncia do corpo de escalares. a saber, que e1e não é alg~bricamente
fechado. Segundo, mesmo que o polinômio característico se de-
componha completamente sôbre F num produto de polinômios de
grau l, podem não existir vetores característicos suficientes para que
T gere o espaço V; isto é, evidentemente uma deficifncia de T. A
segunda situação é ilustrada pelo operador T sõbre F 3 (F um corpo
arbitrário) representado em relação à base canônica por

A= [i ~ g]·
O O -1_
O polinômio característico de A é (x - 2) 2 (x + 1) e este é obvia-
merlte o polinômio .minimal de A (ou de T). Assim, T não é dia-
gonalizáveJ. V@-se que isto ocorre porque o núcleo de (T- 21) tem
dimensio 1 apenas. Por outro lado, o núcleo de (T + /")
e o núcleo
de (T - 2/) jui,tos geram V, sendo o primeiro o subespaço gerado
2

por E.'i e o segundo o subespaço gerado por e1 e e2 •


Êste será mais ou menos o nosso método geral para o segundo
problema. Se (lembrar que isto é uma hipótese) o polinômio mini-
194 DECOMPOSIÇÕES EM SOMAS DIRETAS INVARIANTES

mal de T se decompõe como


p = (x - cr)'l ... (x - ct)'.t
sendo ci, ... , Ck elementos distintos de F, então mostraremos que
o espaço Vé a soma direta dos núcleos de (T- Cil)'i, i = l, ... ,k.
O operador diagonalizável é o caso particular dêste em que r; = l
para cada i. O teorema que demonstraremos é mais geral que isto
que descrevemos, uma vez que trabalhará com a decomposição pri-
mária do polinômio minimal, quer sejam ou não de grau l os primos
que comparecem na decomposição. O leitor achará útil pensar no
caso particular em que os primos são de grau 1 e, de modo ainda
mais particular, pensar na demonstração do Teorema 10 como um
caso particular dês te teorema.
Teorema 12 (Teorema da Decomposiçlo Primária). Seja T um
operador linear sôbre o espaço vetorial V de dimensão finita sôbre o
corpo F. Seja p o poUnômio minimal de T,
p = P1 TJ · .. Pi"
r·-

onde os Pi são polinômios distintos, irredutíveis e unitários sôbre F


e os r1 são inteiros positivos. Seja Wi o núcleo de p,(T)'', i = 1,.... k.
Então
(a) V == W1 EB ••• EB ·Wk
(b) cada W 1 é invariante sob T
(e) Se Ti é o operador induzido sôbre Wi por T, então o polinô•
mio minimal de Ti é pf i.
Demonstração. A idéia da demonstração é a que segue. Se a
decomposição (a) em soma direta é válida, como podemos obter as
projeções E1, .•. , E1c associadas a esta decomposição? A projeção
E; será o operador idêntico sõbre W; e zero sõbre os outros W;.
Vamos determinar um polinômio h; tal que h,(T) seja o operador
idêntico sôbre W; e seja nulo sôbre os outros W; e então que h1('1) +
+ ... + htC.n = I, etc.
Para cada i, seja
(6-16) "·I -- plpr·iZ --
J n p' ·Jj•
. J~i

Como p;, .•. , p k são polinômios primos distintos, os polinômios


/1, ... , /,. são relativamente primos (Teorema 8, Capftulo 4). As-
sim existem polinômios g 1, ••• , g, tais que

(6-1?) ~
" f;g; = l.
i-1
O TEOREMA DA DECOMPOSIÇÃO PRIMÁRIA ] 95

Notemos também que se i "F- j, então f;/1 é divisível pelo polinômio


p poisf;f; contém cada p;.,"' como um fator. Vamos mostrar que
os polinômios h; = f;g; comportam-se da maneira descrita no pri-
meiro parágrafo da demonstração.
Seja E, = h,(.T) = f,{T)g ;(T). Como h1 + ... +
h;: = l e p
divide f;/1 para i ~ j, temos

E1 + ... + E1: _: /
E;E; = O, se i ~ j.
Assim, os E; são projeções que correspondem a alguma decomposi-
ção do espaço V em soma direta. Desejamos mostrar que a imagem
de Ei é exatamente o subespaço Wi, E evidente que cada vetor na
imagem de E; está em W;, pois se a está na imagem de E;, então
a = E;a, logo

pois p'if;g; é divisível pelo polinômio minimal p. Reciprocamente,


suponhamos que a esteja no núbleo de p;(T)';. Se j #- i, então f;g1
é divisível por p;\ logo jj(T)gJ(T)a = O, isto é, E1 o. = O paraj ~ i.
Mas,então é imediato que E;a. = a, isto é, que a está na imagem
de E;. Isto completa a demonstração da afirmação (a).
É certamente óbvio que os subespaços W,- são invariantes sob T.
Se T; é o operador induzido sôbre Wi por T, então, evidentemente
p;(T;)'i = Ot pois, por definição, p,(TY, se anula no subespaço W;.
Isto mostra que o polinômio minimal de T; divide p';. Reciproca•
mente, seja g um polinômio arbitrário tal que g(_Ti) = O. Então
g(,.T)f,{T) = O. Assim, gf; é divisível pelo polinômio minimal p de
T, isto é, p~f; divide gj,. Vê-se fàcilmente que p~ divide g. Lógot o
polinômio minimal de T; = p,·.
Corolário. Se E1, ... , Ek são as projeções associadas à decom-
posição primária de T, então cada Ei é um polinômio em Te, conse-
qüentemente, se um operador linear V comuta com T então U comuta.
com cada um dos Et, isto é, cada subespaço W i é invariante sob CJ.
Com a notação do Teorema 12, vamos considerar ràpidamente
o caso particular em que o polinômio minimal de T é um produto
de polinamios do primeiro grau, isto é, o caso em que cada p; é
da forma p; = x - e;. Ora, a imagem de E; é o núcleo W; de
(T - e;/'•). Coloquemos D = c1E1 + ... + c1cE1:. Pelo Teorema
196 DECOMPOSIÇÕES EM SOMAS DIRETAS INVARIANTES

9, D é um operador diagonalizável que denominaremos a parte


diagonalizável de T. Consideremos o operador N = T - D. Ora,
T = T E1 + .. . + TEi:
D = c1E1 + ... + CJ;E1c
portanto N = (T - c1/)E1 + ... + (T - c1r/)E1c.
A esta altura o leitor já deverá estar suficientemente familiarizado
com projeções, portanto verá que
N 2 = (T - ci/) 2E1 + ... + (T - ckl) 2 E.,
e que, em geral,
N' = (T- ci/)'E1 + ... + (T- CJ1fEk,
Quando r > r; para todo i, teremos N' = O, pois o operador (T-
- c;l)' será então O sôbre a imagem de E;.
Definiçlo. Seja N um operador linear sôbre o espaço vetorial V.
Dizemos que N é nilpotente se existe algum inteiro positivo r tal que
Nr ::a: O.
Teorema 13. Seja Tum operador linear sôbre o espaço vetorial
rfp .-fimensão finita sôbre o corpo F. Suponhamos que o poli1tômio
11,mima/ de T se deçomponha sôbre F num produto de polinômios
lineares. Então existe um operador diagonalizável D sôbre V e um
operador nilpotente N sôbre V tais que
(a) T = D+ N,
(b) DN = ND.
O operador diagonalizável D e o operador nilpotente N são determi-
nados de modo único por (a) e (b) e cada um dê/es é um polinômio
em T.
Demonstração. Acabamos de observar que podemos escrever
T = D + N onde D é diagonalizável e N é nilpotente e tambéhl
que D e N não só comutam mas também são polinômios em T.
Suponhamos agora que também tenhamos T = D" + N' sendo D'
diagonaliz.á~el e D'N' = N'!J'. Vamos demonstrar que D = D' e
N = N'.
Como D' e N' comutam entre si e T = D' + N', veptos que
D' e N' comutam com T. Assim, D' e N' comutam com qualquer
polinômio em T, logo eles comutam com D e com N. Agora temos
D+ N =D'+ N'
ou D- D'= N'- N
O TEOREMA DA DECOMPOSIÇÃO PRIMÁRIA 197

e todos êstes quatro operadores comutam entre si. Como D e DJ


·são ambos diagonalizáveis e, comutam) êles são simultâneamente
diagonalizáveis e D - D' é diagonalizável. Como N e N' são ambos
nilpotentes e comutam, o operador (N' - N) é nilpotente; c.om
efeito, usando o fato de que N e N' comutam

(N' -NY = :i;


J.o\J
I~) (N')'-í(-NY
e então quando r fôr suficientemente grande todos os têrmos nesta
expressão de (N' - N)' serão nulos. (Na realidade, um operador
nilpotente sôbre um espaço n-dimensional deve ter sua n-ésima po-
tência nula; no caso acima, se tomamos r = 2n, êste número é su-
ficientemente grande. Decorre então que r = n é suficientemente
grande, mas isto não é evidente a partir da expressão dcima.) Ora,
D - D' é um operaãor diagonalizável que também é nilpotente.
Tal operador tem de ser, àbviamente, o operador nulo; de fato,
sendo nilpotente, o polinômio minimal dêste operador é da forma xr
para um certo r < m; mas como o operador é diagonaliz.ável, o
polinômio minimal não pode ter uma raiz múltipla, logo r = l e
o polinômio minimal é simplesmente x, o qtte diz que o operador
é nulo. Assim, vemos que D = D' e N = N'.
Corolário. Seja V um espaço vetorial de dimensão finita sôbre
wn corpo algebricamente fechado F, por exemplo, o corpo dos núme-
meros complexos. Então, todo operador linear T sôbre V pode ser
escrito como uma soma de um operador diagonalizável
... D com um
operador nilpotente N os quais comutam. Estes operadores D e N
são únicos e são pólinômios em T.
Por êsses resultados vê-se que o estudo dós operadores lineares
sôbre espaços vetoriais sôbre um corpo algebricamente fechado fica
essencialmente reduzido ao estudo dos operadores nilpotentes. Para
espaços vetoriais sôbre corpos não algebricamente fechados, preci-
samos ainda encontrar algum substitituto para valo'res caractéristi-
cos. Um fato iritcteSsante é que êstes dois problemas podem ser tra•
tados simultinettmentc e é isto o que fazemos no próximo capítulo.
Concluindo esta seção, gostariàmos de dar um exemplo que
ilustre algUmas das idéias do teorema da decompo~ição primária.
D&:idimos dá-lo no final da seção porque êle usa equações diferen•
ciais, não sendo assim ,tgebra linear pura.
Exemplo 11. No Teorema da decomposição primária não é
necessário que o espaço vetorial V tenha dimensão finita, nem é
necessário, para as partes (a} e (b), que p seja o polinômio minimal
198 DECOM POSIÇÕES EM SOMAS DUtET AS INVARIANTES

de T. Se T é um operador linear sôbre- um espaço vetorial arbitrá-


rio e se existe um polinômio unitário p tal que p(T) = O, então
as partes (a) e (b) do Teorema 12 são válidas para T com a demons-
tração q'ue fiitemos.
Seja n uin inteiro positivo e seja To espaço das fúnções n vê-
zes continuamente diferenciáveis sôbre a reta real que satisfazem a
e9uação diferencial
dtij d"-·'/ df
(6-18) dt" + a,._1 dt"- 1 + ... + a1 dt + aof = O

onde ao, ... , Dn-1 são certos escalares fix-os. Se Cn indica o espaço
das funções n vêzes continuamente diferenciáveis, então o espaço
T das soluções desta equação diferencial é um subespaço de e•.
Se D indica o operador derivação e p é o polinômio
p = xn + a,._ 1x 11 - 1 + . . . + a1x + ao
então V é o núcleo do operador p(_D), pois (6-'I 8) diz simplesmente
que p(D)f = O. Consideremos aaora D como um operador littea-r
sõ'bre o subespaço V. Então p(D) = O.
Se estamos discutindo funções diferenciáveis com valores comple-
xos, então Cn e V são espaços vetoriais complex-0s e a0 , •• • , a,._1
podem ser quaisquer núineros complexos. Dscrevamos agora
p = (x - c1)' 1 ••• (x- c1tY• ·
onde c1, ... , c1r são números complexos distintos. Se Wi é o nú-
cleo de (D - ci/)11, então o Teorema 12 diz que
V = W1 í:B • • • EB WA:.
Em outras palavras, se f satisfaz a equação diferencial (6-18), entio
/ potie ser expressa de modo .único sob a forma
f = /1 + ••• + /k
onde fj satisfaz a equação diferencial (D - cil)'fi = O. Assim, o
estudo das soluções da equação (6-18) fica reduzido ao estudo do
espaço das soluções de uma equação diferen~ial da forma
(6-l9) (D - cl)'f = O.
Esta redução foi conseguida por meio dos métodos gerais de álgebra
linear, isto é, pelo teorema da decomposição primária.
Para descrever o esp~ço das soluções de (6-19), é necessário sa-
ber alguma coisa sôbre equações diferenciais. isto é, é necessário
O TEOREMA DA DECOMPOSIÇÃO PRIMÁRIA 199

saber alguma coisa a respei'to de D além do fato de que D~ um ope-


rador linear. No entanto. não se precisa saber muito. É bem fáciJ
demonstrar por indução sôbre r que, se /·está em C,, então
(D - e/)'/ = e''Dr(e-"f)
ísto é,
dif d
dt - c/(t) = e'' dt (e-c'f), etc.

Assim, (D -- cl)'f = O se, e s.àmente se, D'(e-c'f) = O. Uma fun-


ção g tal que D'g = O, isto é, d'g/dt' = O, deve ser uma função
polinomial de grau menor ou igual a (r - 1):
g(t) = bo +bit+ ... + b,-11'- 1 •
Assim f satisfaz (6·19) se, somente se,/ tem a forma
f(t) = ~ (ho 1 + b1t + ... + b,-tt'- 1).
Conseqüentemente, as "funções" é 1, té'~ .. . , ,,- 1e'' geram o es-
paço das soluções de (6·19). Como l, t, ... , ,,- 1 são funções li·
nearmente independentes e a função exponencial não possui raízes,
estas r funções t1e'', O ~j s_ r - l; formam uma base do es-
paço das soluções.
Voltando à equação diferencial (6· 18), que é
p(D)f = O
p = (x - c1f 1 • • • · {x - ck)'•
vemos que as n funções 1•é1't O < m < r, - l, 1 < j < kJ formam
uma base do espaço das soluções de (6.. 18). Em particular, o espa-
ço das soluções tem dimensão finita igual ao grau do polinômio p.

Exercícios

1. Seja T um operador linear sôbre Ri que é representado em relação à


base ordenada canônica pela matriz

[6-3-ü
4 -1 -2
IO -S -3
·

Exprimir o polinômio minimal p de T sob a forma p - P1P,, sendo p, e


P.1 unitários e irredutíveis sôbre o corpo dos números reais. Seja W, o nú·
cleo de P1{D, Determinar bases (6., dos espaços W1 e W,. Se ·T. é o opera-
dor induzido sôbre W, por T, determinar II matriz de T; em relação à base
CB i (acima).
200 DECOMPOSIÇÔES EM SOMAS DIRETAS INVARIANTES

2. Seja T o operador linear sôbre R J que é representado pela matriz

r~l2 ~
2
=!]a
em relação à base ordenada canônica. Mostrar que existe um operador
diagonalizável D sôbre R J e um operador nilpotente N sõbre R l tais que
T - D + N e DN = ND. Determinar as matrizes de D e Nem relação à
base canônica. ( Basta repetir a demonstração do Teorema 12 para êste caso
particular.)
3. Se V é o espaço dos polinômios de grau menor ou igual a 11 sôbre um
corpo F, mostrar que o operador derivação sôbre V é nilpotente.
4. Seja T um operador linear sôbre o espaço V de dimensão finita cujo po-
linômio característico seja
f.,,;,. (X - C1) 4 t ••• (X - C't)'•
e cujo polinômio minimal seja
p == (x - C1)~1 ••• (x - c,y,.
Seja W, o núcleo de (T - cdY,i.
(a) Demonstrar que W; é o conjunto dos vetores a em V tais que
(T- Cil)• a - O para algum inteiro positivo m {que pode depender de a),
(b) Demonstrar que a dimensão de W; é dj. [Sugestão: Se T; é o ope-
rador induzido sôbre Wí por T, então Ti - c-J é nilpotente; assim, o po~
linômio característico de Ti - cd deve ser x•i, sendo f!í a dimensão de
Wi (demonstração'?); assim, o polinômio qtracteristico de Ti é (x - c,)'i;
agora usar o fato de que o polinômio caracteristico de T é o produto dos
polinômios caracteristicos de T; para mostrar que e, • d;.)
S. Seja V um espaço vetorial de dimensão finita sôbre o corpo dos núme-
ros complexos. Seja Tum operador linear sõbre V e seja D a parte diago-
nalizável de T. Demonstrar que se g é um poHnômio qualquer com coefi-
cientes complexos, então a parte diagonaHzável de g(T) é g(D).
6. Seja V um espaço vetorial de dimensão finita sôbre o corpo F e seja T
um operador linear sôbre T tal que pôsto (T) - 1. Demonstrar que ou T
é diaaonaliZttvel ou T é nilpotente, não ambos.
7. Seja V um espaço vetorial de dimensão finita sôbre F e seja Tum ope-
rador linear sôbre Y. Suponhamos que T comute com todo operador li~
near diagonalizável sôbre V. Demonstrar que T é um múltiplo escalar do
operador id@ntico.
8. Seja Y o espaço das ,, X n matrizes sôbre um corpo F e seja A uma II X •,r
matriz fixa sôbre F. Definamos um operador linear T sôbre V por T(B) -
- AB - BA.. Demonstrar que se A é uma matriz nilpotente, então T é
um operador nilpotente.
9. Dar um exemplo de duas 4 X 4 matrizes nilpotentes que tenham o mes--
·mo polinômio minimal (elas têm, necessàriamcnte, o mesmo polinômio ca•
racterístico) mas que não sejam semelhantes.
10. Seja Tum operador linear sõbre o espaço V de dimensão finitat seja
p - pfi ~ .. pC• o polinômio minimal de Te seja V - Wi E9 ... EB w,,
a decomposição primária de T; isto i, W1 i o núcleo de p,{T)'1. Seja W um
subespaço qualquer de V que seja invariante sob T. Demonstrar que
W - (W ('\ WJ:) $ (W ('\ W,) EB ••• EB (W /\ W,1:).
CAPÍTULO~

AS FORMAS RACIONAL E DE JORDAN

7. 1 Subespaços Cíclicos e Anuladores


Uma vez mais Y é um espaço vetorial de dimensão finita sôbre
o corpo F e T é urn operador linear fixo (mas arbitrário) sôbre V. Se a é
um vetor qualquer em V, existe um menor subespaço de T que é
invariante sob Te contém a. ~s'te subespaço pode ser definido como
a interseçio de todos os· subespaços T-invatiantes que contêm a;
contudo, é mais proveitoso no momento consideratmos as coisas
de outra maneira. Se W é um subespaço arbitrário de V que seja ·
invariante sob T e contenha a, então W deve conter o vetor Ta;
portanto, W deve conter T(Ta) = T 2o., T(T 2a) = T 3a, etc. Em
Em outras pala-vras, W deve conter g(T)a para todo polinômio g
sabre F. O corljunto dos vetores da forma g(T)a, com g em Ft"'J
é evidentemente invariante sob T e é assim o menor subespaço T-in•
variante que contém.
Definiçlo. Se a é um vetor qualquer em V, o subespaço T-cíclia,
gerado por « e o subespaço 'Z(a; T) dos vetores da Jorma g('[)a, g
em F[x]. Se Z(a; T) V, eniãb a é denominado um vetor cicllco
=is

de T.
Outra maneira de descrever o subespaço Z(a;T) é dizer que
Z(a:; T) é o subespaço gerado pelos vetores T"a, k > O, e assim
a é um vetor cíclico de T se, e somente se, êstes vetores geram V.
Prevenimos o leitor de que um operador aenérico T não possui ve-
tores cíclicos.
Exemplo 1. Para T arbitrário, o subespaço T•cíclico gerado pelo
vetor nulo é o subesp·aço nulo. O espaço Z(a:;T) é unidimensional
se, e sbmente se, a é um vetor característico de T. Para o operador
idêntico, todo vetor não-nulo gera um subespaço cíclico unidimen-
sio•n~_l; assim, se dim V > 1, o operador idintico rião possui nenhum
vetor'"cfcliéo. Um exemplo de um operador que possui um· vetor
202 AS FOllMAS RACIONAL E DE JORDAN

cíclico é o operador linear T sôbre F 2 que é representado em rela-


ção à base ordenada canônica pela matriz

[~ gJ.
Neste caso o vetor cíclico (um vetor cíclico) é t1 ~ de fato, se (j = (a,
b), então, para g = a +bx, temos 8 - g(T")E1. Para êste mesmo
operador T, o subespaço cíclico gerado por t2 é o espaço unidimen-
sional gerado por t 2, porque t 2 é um vetór característico de T.
Para quaisquer T e a, estaremos interessados em relações li-
neares
coa+ c1Ta + ... + ckTxa = O
entre os·. vetores Po:, isto é, estaremos interessados nos polinômios
g == c0 + c1 x + ... + ckxt que tenham a propriedade de que
g(_T}a = O. O conjunto dos 8 em F[x] tais que g(T)a == O é eviden-
temente um ideal em F[x]. E também um ideal não ..nulo, pois con•
tém o polirlômio minimal p do operador T(p(T')a = O para todo
a em V).
Definição. Se a é um vetor arbitrário em V; o T•anulador de a é
o ideal M(a; T) em F{x]formado pelos polinômios g sôbre F tais que
g(T)a = O. O único polinômio unitário p. que gera êste ideal tam-
'bém será denominado o T-anulador de a.
Como ressaltamos acima, o T-anulador p"- divide o po1inô-
mio minimal do operador T. O leitor deverá notar também que
gr(pa) > O a não ser quando q. é o vetor nulo.
Teorema 1. Seja a um vetor nulo arbitrdrio em V e seja p., o
T•anulador de a.
(a) O grau de Pa é igual à dimensão do subespaço cíclico Z(a; T).
(b) Se o grau de pa; é k, então os vetores a, Ta, T 2o:, ••. , Tk- •a
formam uma base de Z(a; T).
(e) Se Ué o operador linear sôbre Z(a; T) induzido por T, então
o polinômio minimal de V e p.. .
Dtmonstração. Seja g um polinômio qtlalguer sôbre o corpo F.
Podemos escrever
g = pªq +r
onde r = O ou gr(r) < gr(p"-) = k. O p·olin6mio p,.q está no T-anu-
lador de a, portanto
g(,T)a = r(T)a.
SUBESPAÇOS CÍCLICOS E ANULADORES 203

Como r = O ou gr(r) < k, o vetor r(T)a é urna combinação linear


dos vetores a, Ta, . .. , Tk- 1a e conto g(T)a é U:m vetor típico em
Z(a; T) isto mostra que êstes k vetores geram Z(a; n. ~stes veto..
res são, sem dúvi'da, linearmente independentes, pois tôda relação
linear não-tri.vial entre êles nos forneceria um polinômio não-nulo
g tal que g(T")a = O e gr(g) < gr(p11;), o que é absurdo. Isto demons-
tra (a) e (oJ.
Seja U o operador linear sôbre Z(a; T) obtido pela restrição
de T àquele subespaço. Se g é um polinômio arbitrário sõbre F,
então
po.( U)g(T')a = po.(T)g(T)a
= g(T)p,,_(T)a
= g(T)O
- o.
Assim, o operador p,,_(U) leva todo vetor de Z(a ;T) em O e é por-
tanto o operador nulo sôbre Z(a; T). Além disso, se h é um poli-
nômio de grau menor que k, não podemos ter h( V) = O, pois en-
tão h( U)a. = h(T')a = O, contrariando a definição de Pts.• Isto mos-
tra que p"- é o polinômio minimal de U.
Uma conseqüência particular dêste teorema é a seguinte: Se
acontecer que a seja um vetor cíclico de T, então o polinômio mi-
nimal de T deve ter grau igual à dimensão do espaço V; daqui de•
corre que... o polinômio minimal de T é o polinômio característico
de ·T. Démonstraremos posteriormente que para todo T existe um
vetor a em V cujo anulador é o polinômio minimal de T. Decor~
rerá então que T possui um vetor cíclico set e somente se, os polinô-
mios minimal e característico de T são idênticos. Mas teremos al-
gum trabalho para chegarmos a ver isto.
Nosso plano é estudar um T arbitrário usando operadores que
possuam um vetor cíclico. Portanto, consideremos um operador
linear U sôbre um espaço W de dimensão k que possua um vetor
cíclico a. Pelo Teorema l, os vetores a, ... , u1:- 1a formam uma
base do espaço W e o anulador P« de a é o polinômio minimal de
U (logo, e também o polinômio característico de U). Se fizermos
a; = ui- 1a, i = l, ... k, então a ação de U sôbre a base ordena-
da (B = {a1, ••• , ak } é
7-1) Uai = a;+i, i == l, ... , k - l
Ua,e = -coai - c1a2 - ••• - Ck-LO!A:

onde p. - ca + c1x + ... + Ck-1xk-I + x 1 • A expressão de Uat


decorre do fato de que pr,.{U)a = O, isto é,
LJka + C~-luk- + ... + c1Ua"+
la Coa = o.
-204 AS FORMAS RACIONAL E DE JORDAN

Isto diz que a matriz de U em relação à base ordenada <B é


o o o o -co
1 O O O -c1
O l O O -c2
(7-2)

o o o l -Ck-1

A matriz (7-2) é denominada a matriz associada ao polinômio uni•


tário p.

Teorema 2. Se V é um operador linear sôbre o espaço de W di-


mensão.finita, então V possui um vetor cíclico se, e somente se, existe
a/g:una base ordenada de W em relação à qual Ué representado pela
motriz associada ao polinômio minimal de U.
Demonstração. Acabamos de observar que se U po~sui um vetor
cíclico, então existe uma tal base ordenada de W. Reciprocamente, se
existe uma base ordenada {ai, ... , a.t} de W em relação à qual U
é representado pela matriz associada ao seu poliriômio minimal, é
óbvio que a1 é u·m vetor cíclico de U.
Corolário. Se A é a matriz associada a um polinômio unitário p,
então p é tanto o polinômio minimal como o polinômio característico
de A.
Demonstração. Se p é um polinômio unitário de grau k sôbre
o corpo F, seja U o operador linear sôbre p1: que é represent_ado por
A em relação à base ordenada canônica. Basta agora aplicar nossos
resultados acima.
No último comentário - se T é um operador linear arbitrário
sôbre o espaço Ve a é um vetor qualquer em V, então o operador U que
Tinduz sôbre o subespaço cíclico Z(o:; T) possui um vetor cíclico, a
saber) a. Assim, Z{a; T) possui uma base ordenada ·elll relação à
qual Ué representado pela matriz associada a p,., sendo p 0 o T•anu-
lador de a.

Exercícios
1. Seja T um operador linear sôbre F 1 • Demonstrar que todo vetor nio-
•nulo que não seja um vetor característico de T é um· vetor cíclico de T.
Depois, demonstrar que ou T possui um vetor cíclico ou então T ~ um mú1-
tiplo escalar do operador idêntico.
O TEOREMA DA DECOMPOSIÇÃO RACIONAL 205

2. Seja T o operador linear sôbre R .1 que é representado em relação à base


ordenada canônica pela matriz

[O~ Og -1_g-1 ·
Demonstrar que T não possui vetores cíclicos. Qual é o subespaço T-cí-
clico gerado pelo vetor (1, -1. 3)'!
3. Seja T o operador linear sôbre C J que é representado em relação à base
ordenada canônica pela matriz

[ - tt 2;
O 1
ºJ
-i
1

Determinar o r. .anulador do vetor ( 1, O, 0). Determinar o T-anulador de


(1, o, i).
4. Demonstrar que se Tª possui um vetor cíclico, então T possui um vetor
cfclico. A recíproca é verdadeira'!
5. Seja V um espaço vetorial n..dimensional sôbre o corpo F e seja N um
operador linear nilpotente sôbre Y. Suponhamos que N•- 1 '#- O e seja a
um vetor arbitrário em V tal que N"-1 a -j!é O. Demonstrar que a: é um ve-
tor cíclico de N. Di:zer exatamente qual é a matriz de N em relação à base
ordenada {a, Na, ...• N,._ 1a} '?
6. Demonstrar diretamente que se A é a matriz associada ao polinômio
unitário p, então p é o polinômio característico de A.
7. Seja V um espaço vetorial n-dimensional e seja T um operador linear
sôbre V. Suponhamos que T seja diagonalizável.
(a) Se T possui um vetor cíclico, mostrar que T possui ri-valores ca-
racteristicos distintos.
( b) Se T possui II valores característicos distintos e se {a 1 • • • • • ª- }
é uma base formada de vetores característicos de T, mostrar que a .... ª•• +
+ .. . + an é um vetor cíclico de T.
8. Seja T um operador linear sôbre o espaço vetorial V de dimensão finita.
Suponhamos que T possua um vetor cíclico. Demonstrar que se Ué um
operador linear arbitrário que comuta com T, então Ué um polinômio em T.

7. 2 O Teorema da Decomposiçio Racional


O objetivo primordial desta seção é dem<Jnstrar que se T é um
operador linear qualquer sôbre V, então existe~ vetores a 1, ••• , ª"
em V tais que
V = Z(a1 ; T) EB • • . EB Z(ar ; T).
Em outras palavras, desejamos demonstrar que V é a soma direta de
subespaços T-cíclicos. Isto nos mostrará que T é a soma direta de
um número finito de operadores lineares, cada um dos quais possui
206 AS FORMAS RACIONAL E OE JORDAN

um vetor cíclico. O resultado disto será a redução de muitos pro-


blemas relativos a um operador genérico a problemas semelhantes
sôbre um operador que possua um vetor cíclico. O teorema que
vamos demonstrar, o teorema da decomposição racional, é um ta·n-
to mais forte que a afirmáção de que V é a soma direta de subespa-
ços T-cíclicos e êste teorema possui muitos corolários interessantes.
Como seria possível demonstrar que Vé a soma direta de subes-
paços T-cíclicos·? Uma maneira de tentar resolver êste problema é a
seguinte: Tomar algum vetor não-nulo a1 em V. Se V = Z(a1; T),
ótimo. Se não, tomar um vetor não-nulo a2 tal que Z(a2; ·T) seja
disjunto de Z(a1, T). Se V = Z(a1 ; T) + Z(a2; T), ótimo. Se não,
tomar a::i r! O ta] que Z(a::i; T) seja disjunto de Z(a1; T) +
Z{a2; T),
etc. Em outras palavras, tentar chegar a JI = Z(a1; T) EB ••• EB
Z(a,.; T) selecionando indutivamente os vetores ai, ... , a,.. Êsfe é
fundamentalmente o método que uti1itaremos: no entanto, teremos
de suplantar grandes dificuldades relacionadas com a escolha de
a., ... ,a,.. Um exemplo de tal dificuldade é o seguinte: Se toma-
mos um vetor não-nulo arbitrário a1 em V e se V ~ Z(a1 ; T), então
pode não ixistir nenhum vetor não-nulo a2 tal que Z(à2: T) disjunto
de Z(a1; T). Assim, teremos de ser argutos quanto à seleção dos
vetores a;. Nesta seleção, nosso princípio orientador será· a obser•
vação que segue.
.Suponhamos que V = Z(a1; T) EB , .. EB Z(a,; T) .. Se l < i < r,
seJam
W, = Z(a1; T) + ... + Z(o:,; T)
e
W/ = Z(aj+ 1; T) + ... + Z(ar: T).
Então JI = ~i EB ~/ e tanto ,V:; como W.! são invariantes
sob T.
Em geral, se W é um subespaço invariante sob T, não existe um
subespaço W' tal que V = W EB w~ e W' seja invariante sob T.
Mas vemos que, quando tivermos uma decomposição de V em sub-
espaços T-cíclicos, cada Wi satisfará esta propriedade. Assim, se to-
marmos a1, ... , a, indutivamente, deve·remos ter que, uma vez
ai, • • • , ar selecionados, o subespaço W; = Z(à 1 ; T) + ... +
+ Z(ai; T) possui esta propriedade.
Vamos agora rros perguntar o seguinte: Se W é um subespaço
invariante sob T, quando é que existe um subespaço T~invariante W'
tal que V = W EB W'? Se W é um subespaço do espaço V de dimen-
são finita, sempre existe um subespaço W' tal que V= W E9 W'.
Usualmente existem muitos dêsses subespaços W' e qualquer um
um dêles é denominado um suplementar de W. Estamos pergun-
O TEOREMA DA DECOMPOSIÇÃO RACIONAL 207

tando quando é que um sube'spaço T-invariante possui um subes-


paço complementar que também seja invariante sob T. Vamos agora
passar a responder esta pergunta. Uma vez feito isto, obteremos fà-
cilmente uma decomposição de V em subespaços T-cíclicos.
Suponhamos que V = W EB W', onde W e W' são ambos inva-
riantes sob Te vejamos o que é possível dizer a respeito cfo subes-
paço W. Cada vetor /j em Vé da forma {3 = a +
a·, com a em W e
a' em W'. Se f é um polinômio sôbre o corpo de escalares, então

f(T) tJ = f(T)o: + /(T)a'.


Como W e w~ são invariantes sob T, o vetor j(T)ct está em W e
f(T)a' está em W'. Em particular, f(T) /3 está em W se, e somente
se, j(T")a' = O, isto é, se, e sbmen"te se, f(T)f, = /(T'Ja. Assim, se
W possui algum subespaço T-invariante suplementar, então W ne-
cessàriamente tem a seguinte propriedade: Se f3 é um vetor arbi-
trário em V e/ um polinômio tal que /(T)/3 está em W, então exis-
te um vetor a em W tal que f(T)a = f(T)/3. Demonstraremos abai-
xo que esta condição sôbre W também é suficiente para a e'xistên-
cia de um subespaço T-invariante suplementar. Em outras palavras,
os subespaços invariantes que possuem um subespaço suplementar
invariante serão os subespaços que satisfazem a propriedade que
acabamos de descrever. Vamos agora enunciar formalmente o re-
sultado e dividir a demonstração da suficí8ncia numa seqüência de
lemas.
Teorema 3. Seja T um operado,· linear sôbre o espaçp vetorial V
de dimensão finita sôhre o corpo F e seja W tun subespaço de V que
seja invariante sob T. Uma c'ondição necessária e suficiente para que
W admita um subespaço suplementar T-invariante é a seguinte: Se
~ é um vetor em V e f um polinômio sôbre F tal que f(T) /3 esteja em
W, existe um vetbr a em W tal que f{T)~ = f(T)t,.
Para o restante desta seção, denominaremos W um subespa-
ço T-admissível se
(i) W é invariante sob T;
(ii) se/(T)/3 está em W, existe um a em W tal que/(T)a = /(T)/3.
Isto nos poupará algumas palavras na demonstração do Teorema 3.
Lema 1. Seja W um subespaço T .. invariante de V e seja p wn
vetor qualquer em V. Seja S((3; W) o conjunto dos polinômios f sdbre
o corpo F de escalares ttiis que f(T)P estéja em W. Então
{a) S(.B; W) é um ideal não•nulo em F[x];
(b) se a é um vetor arbitrário em W então S(.8 -a; W) = S(ft;W);
208 AS FORMAS RACIONAL E DE JORDAN

(e) Z(/3; T) e disjunto de W se e somente se S(.8; W) é T-anulador


de fj, isto é, se, e somente se, o gerador unitário 'cle S(fj; W) é o T-anu-.
lador de {3.
Demonstração. Usaremos a notação //3 para /(T)/3. {a) Se/ e g
estãoemS(/3; W),então/~eg/3estãoem W, portanto(/+ g)fl =f/3+
+ g{J está em W, isto é,(/+ g) está etn S(/3 1 W). Se/está em S({j; W)
e h é um polinômio qualquer sôbre F, então (hJ')fJ = h(/{3). Como
f{J está em W e W é invariante sob T, vemos que hf está em S({3; W).
O conjunto S(/3; W) é não-vazio e não-nulo, pois contém o polinô-
mio minimal de T. (b) Se a está em W e/ é um polinômio arbitrá-
rio, então /(fj - a) = ff3 -fa, e co·mo /a está em W vemos que
/(13 ,_ a) está em W se, e somente se, /f3 está em. W. (e) A interse-
çã·o de Z(fl; T) com W é simplesmenie o conjunto dos vetores em
W da forma f p, com f em F[x]. Dizer que esta inferseçlo é o subes-
paço nulo é o mesmo que dizer que ft3 está em W se, e somente se,
J/3 = Oe isto é evidenttmente a afirmação de que S(fJ; W') é o T-anu-
lador de fJ.
Lema 2. Seja W um subespaço próprio de V que seja T-admissí-
vel. Então existe wn vetor não-nulo a1 em V tal que o subespaço cí-
clico Z(a1; T) seja disjunto de W.
Demonstração. Tomemos um vetor /3 em V que não esteja em W.
Seja p o geradbr unitário db ideal S(B; W), isto é, /fJ está em W se,
e somente se, p divide/. Como p fJ está em W e W é T-admissivel,
existe um vetor a em W tal que p ~ = pa. Seja a1 = /3 - a. Pelo
Lema 1, S(a1; W) = S(fJ; W); isto é, /a1 está em W se, e somente
se, p divide/. Mas pa.1 = p(fl - a) == O. Assim,. fa. 1 está em W se,
e sõmente se, /0.1 · = O, ou seja Z(a1 ; T) é disjunto de W. Ora,
a1 ~ O pois a está em W e /3 não está em W.
A'gora teremos o passo crucial:
Lema 3. Seja W um subespaço T-admissivel de V e seja o. 1 um
vetot em V tal que
(1) 2.(a1 ; T) é disjunto de W;
(2) Z(a1; T) possui dimensao máxima entre todos os subespaços
T~cíclicos dis~untos de W, isto é, W n .Z(/j; ·T) = {O} implica dim
'Zl..fJ; T) < d1m Z(a1 ; T).
Então o subespaço W $ Z(o:1; T) é T.;,admissível.
Demohstração. Abréviaremos a notação de Z(a 1 ; T) para Za1.
O que desejamos demomtrar é: Se fJ é um vetor qualquer em V e
f ~ Um polinõmio ial que //j esteja em W EB Za1, então existe um
O TEOREMA DA DECOMPOSIÇÃO RACIONAL 209

vetor a em W e Za1 tal que /fJ = /a.. Fizemos /j em V e conside•


remos o ideal S(fj; W E9 Za1) dos f tais que /fJ esteja em W EB Za1.
Ora, S(fJ; W EB Za 1) = pF [x] para um certo polinômio unitário p.
Suponhamos que seja possí\lel demonstrar a existencfa de um ve-
tor a em WEB Za1 tal que pfJ = pa. Então êste mesmo vetor a
servirá para qualquer/ em S(/j; W EB Za1), isto é, se /J3 está em
W E9 Zcr1, então JfJ = f a. De fato, se f/3 está em W EB Za1, p di-
vide f e sç / = /1P, temos/~ = fipfJ = f1pa = Ja.
Pela definição de P~ o vetor p/3 está no espaço W E9 Za1, ou
seja, p{J = ;- + ga1 onde;- está em W e g é um polinômio. Temos
g = pq + r onde r = O ou gr(r) < gr(p). Vamos demonstrar que
r = O, mas antes completaremos a demonstração supondo r = O.
Ora, r = O diz que pfJ = ;- + pqai, logo p(_fj - qa1) = 'Y está em
W. Como W é T-ad1missível, existe um vetor 'Yo em W tal que
p(/3 - qa,) = P"Yo, isto é, p{j = P'Yo + pqa.1. Se a = 'Yo +
qa1, en-
tão a está em W EB Za 1 e p/3 = pa.
Voltamos agora ao traba]ho que nos resta, a saber, demonstrar
quer = O. É neste ponto que entra a hipótese de Za 1 ter dimensão
máxima entre todos os subespaços T-cíclicos disjuntos de W. Te-
mos p{J = 'Y + pqa1 + ra1, ou seja, p{J - pqa1 = 'Y +
rai. Seja
/3' = {3 - qa,. Então
S({J'; WEB Za1) = S(fJ; WEB Za1) = pF{x]
e
pft = "Y + ra1.
Consideremos o ideal S(fJ'; W) dos/ tais que /fJ' esteja em W. Quan-
do /fJ' está em W temos certamente /fJ' em W EB Za, ; conseq üen-
temente1 p divide tódos este&/. Portanto, S(fJ'·; W) = phF (~] para
algum polinômio h, isto é, o geradbr de S(/3'; W) é divisível por p.
Ora,
ph/3' = h(_p'fj')
= h(,y +ra1)
= hy hra1. +
Pela definição de h, o vetor ph{J' = lry + hra.1 está em W e como W
e Za 1 são disjuntos devemos ter hra.1 = O. Daqui tiramos duas
conclusões.
(i) Como W ~ T-admissível e ph/j~ está em W, existe um vetor «'
em W tal que p~' = ph-y'. (ii) Como lira1 - O, o T-anulador p1
de a1 divide hr; em particulart se, ;d O
gr(p1) ~ gr(hr) = gr(h) + gr(r) < gr(h) + gr(p) - gr(ph).
210 AS FORMAS RACIONAL E DE JORDAN

De (í) temos ph/3' ::: ph'Y ', em W. Seja /3" = {3' - -y'; então S(/3~';
W) ~ S(J3'; W) = phF[x] e ph(f' = O. Assim, o subespaço cíclico
Z(/3"; T) é disjunto de W e ph é o r . anulador de /3". Pela hipótese
(2) dêste lema devemos ter então
gr(ph) = dim Z(/3"; T) < di01 Z(a1; T) = gr(p1).
Em (ii) acima, observamos que se r ~ O temos gr(pt) < gr(ph).
Decorre que r = O.
Resumiremos os resultados dos Lemas 2 e 3 e acrescentaremos
um fato adicional obtido na demonstração do Lema 3.
Lema 4. Seja W um subespaço próprio de V que seja T-admissível.
Então, existe um vetor não-nulo a 1 em V tal que Z(a1; T) seja dis-
junto de W. Se a1 foi escolhido de modo que Z(a 1 ~ T) tenha dimensão
máxima entre todos os subespaços T-ciclicos disjuntos de W, temos
1ambém
(a) o subespaço W EB Z(a1; T) é T-admissível;
(b) .re {3 é um vetor arbitrário tal que Z(~; T) seja disjunto de
W ffi Z{a 1 ; T), então o T-anulador de fJ divide o T--anulador de a1.
Demonstraçâh. Temos que demonstrar apenas a afirmação (b ).
Se Z(/3; T) é disjunto de W ffi Za 1 , então
S(/3; W + Za 1) = pF{x]
onde pé o T-anulador de {j. Assim, p(3 = O. Se p 1 é o T-anulador de
ai, então p1a1 = O, portanto

p/3 = O + p1a1.
Na demonstração do Lema 3 podemos tomar 'Y = O e g == P1.
Como mostramos naquela demonstração, p deve dividir P•·
O Teorema 3 decorre fàcilmente do Lema -4. Suponhamos que
w· seja um subespaço T-admissível de V e que desejamos encontrar
um subespaço T-invariante W' com V = W e W'. Se W = V, to-
mamos W, = {O}. Se W é um subespaço próprio de V. tomemos
um vetor não-nulo c:n em V tal que W @ Za 1 seja T-admissível.
Se W EB Za 1- = V, tomando W' = Za 1 a demonstraçã·o se com-
pleta. Em caso contrário, apliquemos novamente o Lema 4 e deter-
minemos um a 2 não--nulo em V tal que WEB Za1 EB Zas seja T-
admissivel. Se êste espaço esgota V, tomamos W' = Za1 EB Za2.
Em caso contrário, prosseguimos. O fato fundamental aqui é
êste: por meio de um número finito de aplicações do Lema 4 deve-
mos obter
W EB Za1 EB • • .. EB Zoe,. - V
O TEOREMA DA DECOMPOSIÇÃO RACIONAL 211

pois cada vez que acrescentamos um vetor não ..nulo a1, a dimensão
do subespaço admissível respectivo aumenta de pelo menos l.
O problema original desta seção~ o de decompor V numa soma
direta de subespaços T-cíclicos, também é resolvido pelo Lema 4.

Teorema 4. (Teorema da Decomposição Racional). Seja T um


operador linear sôbre o espaço vetorial V de dimensão finita (dim V > 1).
Então existem r vetores não-nulos a1, ... ,ar em V com os respecti-
vos T-anuladores p 1, ..• , p e tais que
(a) V = Z(a1; T) ffi ... 01 Z(ar; T);
(b) se 1 < k < r - 1, então Pk+1 divide Pk•
Além disso, o inteiro r e os anuladores p1, ... , Pr são determinados
de modo único pelas condições (a) e (b) mais o fato de que nenhum a4:
é nulo.

Demonstração. Demonstraremos primeiro que existem vetores


não-nulos a1, ... , ar com T-anuladores p1, ... , Pr que satisfazem
as condições (a) e (b). Esta demonstração é essencialmente uma re-
petição da demonstração que acabamos de fazer para o Teorema 3~
começando com o subespaço T-admissível W = {O}. Neste caso,
usamos a afirmação (b) do Lema 4 para obter a condição de divisi-
bilidade: pk +I dividep1i, Assim, a demonstração é feita ràpidamen-
te da seguinte maneira: Seja a 1 um vetor não-nulo arbitrário em V
que gere um subespaço T-cíclico de dimensão máxima. Como
W = {O} é trivia/mente T-admissível, o Lema 4 afirma que Z(a1 ;T)
é admissível. Se 1V = Z(a 1 ; T), a demonstração está completa. Se
V ~ Z(a 1 ; T), tomemos um a 2 não-nulo tal que Z(a2; T) tenha di-
mensão máxima entre os espaços T-cíclicos que são disjuntos de
Z(a 1; T). Pelo Lema 4, p2 divide p1. Se V = Z(a1; T) EB Z(a2; T),
ótimo. Se não, usamos o Lema 4 para escolher um o:a conveniente,
etc.
Suponhamos que 0:1, ••• ,ar sejam vetores não-nulos satisfazendo
(a) e (b). Suponhamos que também existem vetores não-nulos fji, ... ,
13, com T-anuladores g1, ..• , g, tais que
(a) V = Z(fl1; T) e ... EB Z({J,; T};
(b) KA=+1 divide g1 para k == 1, ... , s - 1.
Vamos demonstrar que r = se pj = gh j l, ... , r.
=
Se fé u'm polinômio sôbre F e W é um subespaço de V, indi-
quemos por JW o espaço dos vetores/a com a em W. Assim, /V é
a imagem do operador f (T). Vamos usar agora dois fatos, cujas de-
212 AS FORMAS RACIONAL E DE JORDAN

monstrações deixamos como exercícios. Primeiro, se V ~ Z(a1 ; T.)


E9 . . . EB Z(ar; T) e/ é um polinômio arbitrário s~bre F, então
fV = f Z(a1 ; T) EB ... @ /Z(ar; T) = Z(fa1 ; T) e, ... EB Z(/o.r; T).
Segundo, se a e fJ são vetores em V que tenham o mesmo T-anulador,
então /a e //j têm o mesmo T-sriulador; em particular Z(/a; T) e
Z(/fJ; T) têm a mesma dimensão.
Voltando a a1, • .• ,ar; e 131, ..• ,fJ,, demonstremos que p1 = g1.
Temos
Pi V = p1Z(a1; T) EB ••• EB p1Z(ai-; T)
Pi V = p1Z(fJ1; T) $ . . . EB p1Z(fJ.; T).
Ora, piai = Oparaj = 1, ... , r, pois Pi divide p1. Assim, Pt V= {O}.
Portanto, p1/31 = O paraj = 1, ... , s. Em particular, pi/Ji = O, logo
g1 divlde pi. Invertendo o raciocfnio, isto é, considerando g1 V, ve-
mos que Pt divide g1. Portanto P1 = g1.
O fato de quer = se Pi = gj podem ser demonstrados por in•
d ução sô bre j. De'monstraremos a partir de p1 = g1 que p2 = 12 e,
a partir disto, a indução deverá ser evidente. A demonstração ser,
feit'a envolvendo principalmente dimensões. Suponhamos quer _2: 2,
isto é, que realmente exista um vetor a 2 • Entã'o teremos forç<>!amente
s > 2, pois ·
dim V = dim Z(a.1; T) + ... + dim Z(ar; 7)
dim V = dim Z(/31 ; T) + ._. . + dim Z(H.; T)
e como dim Z(a1; T) + gr(p1) = gr(g1) = Z(/31; 7)~ vemos que
X dim Z(~;; T) = l: dim Z(a1; T) > O.
j~2 j~~

Consideramos agora o subespaço p2 V. Temos duas descrições deste


espaço,
p2 V = Z(p2a1; T) E9 • • • EB Z<.P'Jctr; T)
p2V = Z(p2/31; T) E9 ••• E9 Z{p2a.; T).
Como ]'2«j -= O para j ..2 2
P2 V - ZC.p20t1 ; T).
Os vetores a1 e {J1 possuem o mesmo T-anulador, logo J12a1 e p2fJ1
possuem o mesmo T-atiulador. Portanto
dim (p2 JI) = dim Z(P2a1; T) = dim Z(P2'11; T)
d'onde segue que dim Z(p2{J;; T) = O para j 2 2. Em particular,
O TEOREMA DA DECOMPOSIÇÃO RACIONAL 21 3

p2~2 = O e assim g2 divide p2. Invertendo o argumento, p2 divide g2,


e então P2 :::::; g2.
G'ostaríamos de ressaltar que nossa demonstração do Teorema
4 mostra u~ pouco mais do que o teorema afirma. Suponhamos
que exi~tem vetores não-nulos a i , ••• , at em V que satisfaçam as
condições:
(i) Z(a 1 ; T) tem dimensão máxima entre os subespaços T-cí-
clicos.
(ii) Para j > 2, o subespaço Z(a1 ; T) tem dimensão máxima
entre todos os subespaç'os T-cfclicos que são disjuntos de
Z{a1 ~ T) + ... + Z(aJ-l; T).
Então, existem vetores não-nulos a t + 1, ••• , ar tais que a1, ... ,
a, satisfaçam as condições (a) e (b) do Teore_ma 4.
Gostaríamos também de destacar qu~ se ai, ••• , ar satisfaze,m
as condições do Teorema 4, então o T-anulador de a1 é o polinômio
minimal de T. De fato, como PJ divide j, 1 para j = 1, ... , r, temos
pi V= {O}, isto é, p1(T) = O. Conseqüentemente, pi é divisível
pelo polinômio minimal de T. Mas P1 é o T-anulador de a1, por-
tanto divide o polinômio minimal. Assim, se se pergunta quais ve-
tores a 1 poderiam ser o primeiro vetor no Teorema 4, a resposta é
os vetores cujo T-anulador seja o polinômio minimal.
Suponhamos que existem T, r, ai e p; como no teorrma ~ indi-
quemos por T; o operador linear sôbre Z(a;; T) obtido pela rc!stri-
ção de T àquele subespaço. Então T; possui um vetor cíclico, a saber,
a; e, além disso, os polinômios característicos e minimal de T; são
ambps iguais a p,. Assim, o polinômio caractérístico de T é

(7-'3) f = P1P2. · • Pr•


(Nunca demonstramos explicitamente que se T é a soma direta dos
operadores Ti, ... , Tr, então o polinômio característico de T é o
produto dos polinômios característicos dos Ti; no entanto, o leitor
deve observar que isto é evidente a partir do resultado correspon-
dente sôbre somas diretas de matrizes e q.ue o último fato déborre
da regra da '~forma em blocos" para determipantes de matrizes.)
Corolário 1. Se T é um operador linear sdbre o espaço V de di-
meflsão finita (ou, se A é uma n X n matriz sôbre o corpo F), então os
fdt8res primos do polinômio minimal de T (de A) são os mesmos que
os fatôres primos do polinômio característico de T (de A).
Demonstração. De acôrdo com a expressão (7-3) para o polinõ-
mio carad:erístiêo, / é um produto de polinômios, cada um dos quais
214 AS FORMAS RACIONAL E DE JORDAN

divide o polinômio minimal pi. Assim, os fatôres primos de/ e p1


são os mesm·os, apesar de qu~ êles possam se repetir,:,mais vêzes em/.
_Corolário 2. Seja Tum operador linear sô'bre o espaço V de di-
mensão finita. Então T possui um vetor cíclico se, e somente se, os
polinômios caràcteris~ico e minimal de T são idênticos.
Demonstração. De acôrdo com nossa demonstração do Teore-
ma 4, se a: é vetor em V a máxima dimensão que o espaço Z(a:; T)
pode ter é o grau do polinônio minitnal de T; além disso, existe um
vetor a tal que Z(a:; T) possui esta dimensão. Assim T possui um
vetor cíclico se, e somente se, os polinômios caracter'ístico e minimal
de T têm o mesmo grau, isto é, se, e somente se, êles são idênticos.
Observamos agora o a·nálo·go matricial do teorema de decom-
posição racional. Se temos o operador T e a decomposição em soma
direta do Teorema 4, seja m, a "base ordenada cíclica'.,
..,..a·,, • • • ' r.1:;-1.,.,.}
{ .....,.,,,. .11 u.,
de Z(a;; T). Aqui k; indica a dimensão de Z(a,~ T), ou seja, o grau
do anulador p;. A matriz do operador induzido T; em relação à base
ordenada <.B i é a matriz associada ao polinômio p;. Assim, se <.B é a
base ordenada de V obtida pela reunião das <.B;, ordenadas como
(Bi, ••• , <Br, então a matriz de Tem relação à base ordenada <R será

A1 o .. . o-
o À2 .. . o
(7-4) A - •



_o o Ar_
onde A; é a k; X k; matriz associada a p;. Diremos que uma n X n
matriz A, que seja a soma direta (7-4) das matrizes associadas a po-
linômios não-constantes e unitários pi, ... , Pr tais que p;+1 divide
p; para i = l, .. ,r - 1, está sob a forma racional. O teorema da
decomposição racional nos diz o seguinte em rebtção a matrizes:
Teorema 5. Seja F um corpo e teja B uma n X n motriz sôbre p·
Então B é semelhante sôbre o corpo F a uma e somente a uma matriz sob
a forma racional.
Demonstração. Seja To operador linear sôbre F• que é repre-
sentado por B em relação à base ordenada canônica. Como acaba-
mos de observar, existe alguma base ordenada de F• em relação à
qual T é representado por uma matriz A sob a forma racional. En-
O TEOREMA DA DECOMPOSIÇÃO RACIONAL 215

tão B é semelhante a esta matriz A. Suponhamos que B seja seme-


lhante sôbre F a uma outra matriz C que esteja sob a forma racional.
Isto significa simplesmente que existe alguma base ordenada de F"
em relação à qual o operador T é representado pela matriz C. Se C
é a soma direta das matrizes C; associàdas a polinômios unitários
g 1, ••• , g,, tais- que g;+1 divida g; para i = l, ... , s - 1 então é
evidente que teremos vetores não-nulos /J1, ... , fJ. em V com T-anu-
ladores g1 ... , g r tais que
V = Z(fJi; T) Q) •.• $ Z(fj.; T).
Mas então, pela afirmação da unicidacle no teorema da decompo-
sição racional. os polinômios g; são idênticos aos polinômios p; que
definem a matriz A. Assim, C = A.
Exemplo 2. Suponhamos que V seja um espaço vetorial bidi-
mensional sôbre. o corpo F e T seja um operador linear sôbre V. As
possibilidades para a decomposição de Tem subespaços cíclicos são
bastante limitadas. De fato, se o polinômio minimal de T tem grau
2, êle é igual ao polinômio característico de T e T possui um vetor
cíclico. Assim, existe uma base ordenada de V em relação à qual T
é representado pela matriz associada ao seu polinômio caract'erís-
tico. Se, por outro lado, o polinômio minimal de T tem grau 1, então
T é um múltiplo escalar do operador idêntico. Se T = Cl, então para
dois quaisquer vetores Jinearmente independentes a1 e a2 em V, temos
V = Z(a1; T) <B Z(a2; T)
Pi = P2 = x - e.
Para matrizes, esta análise diz que tôda 2 X 2 matriz sôbre o corpo
F é semelhà:"9-te sôbre F a exatamente uma matriz dos tipos

[~ ~] [~ :~;].
Exemplo 3. Seja To operador linear sôbre R 3 que é representa-
do pela matriz

em relação à base ordenada canônica. Como já calculamos anterior-


mente, o polinômio característico de T é/ == (x - 1)(x - 2) 2 e o
polinômio minimal de T é p = (x - l) (x - 2). Assim, sabemos
que na decomposição cíclica de T o T-anulador do primeiro vetor
a1 será p. Como estamos operando num espaço tridimensional, só
pode existir mais um vetor, a 2 • Êste vetor deve gerar um subespaço
216 AS FORMAS RACIONAL E DE JORDAN

cíclico de dimensão 1, isto é, deve ser um vetor característico de T.


O seu TManulador p2 deve ser (x - 2), porque devemos ter pp2 = f.
Notemos que isto nos diz imediatamente que a matriz A é semelhante
à matriz

B = r~-j
Lo o
g]2
ou seja, que T é representado por Bem relação a uma certa base orM
denada. Como podemos encontrar vetores adequados a1 e a27 Bem,
sabemos que todo vetor que gera um subespaço TMciclico de dimen-
são 2 é um a1 adequado. Portanto experimentamos E1. Temos
TE1 = (5, -1, 3)

gue não é múltiplo escalar de Ei; logo Z(a2; T) tem dimensão 2.


Este espaço consiste dos vetores a E1 + b{Tt 1);
a(l, O, O) + h(S, -·J, 3) = (a + 5b, -b, 3b)
ou seja, todos os vetores (x1, x2, xa) que satisfazem xa = -3x2. O
que desejamos agora é um vetor a2 tal que Ta2 = 2a2 e Z(a2; T)
seja disjunto de Z(t 1; T). Como "o:-2 deve ser um vetor característiM
co de T, o espaço Z(a2; T) será simplesmente o espaço unidimensio-
nal gerado por a2 e então o que exigimos é que 0:2 não esteja em Z(11!1;
T). Se a = (xi, x2, xa), podeMse calcular fàcilmente que Tet. = 2a
se, e somente se, x 1 :: 2x2 + 2«a. Assim, 0:2 = (2, l, O) satisfaz
To:2 = 20:2 e gera um subespaço T-cíclico disjunto de Z(E1; T). O
leitor deverá verificar diretamente que a matriz de Tem re]ação à
base ordenada
{ (1, O, O), (6, -1, 3), (2, 1, O)}
é a matriz B acima.

Exercici:01
1. Seja To operador linear sôbre F 3 que é representado em relação à base
ordenada canônica pela matriz

[? gJ.
Seja a1 - (O, 1). Mostrar que F 2 ~ Z(a 1 ; T) e que não existe nenhum
vetor não-nulo az em F 2 tal que Z(a2; T) seja disjunto de Z(a1: T).
2. Seja Tum operador linear sôbre o espaço V de dimensão finita e seja
R a imaaem de T.
(a) Demonstrar que R possui um subespaço suplementar Tainvariante
se, e somente se, R é disjunto do núcleo N -de T. .
(b) Se R e N são disjuntost demonstrar que N é o único subespaço
T-invariante que é um suplementar de R.
O TEOREMA DA DECOMPOSIÇÃO RACIONAL 217

3. Seja To operador linear sobre RJ que é representado em relação à base


ordenada canônica pela matriz

[ o: og 87.
iJ
Seja W o núcleo de T- 21. Demonstrar que W não possui nenhum subes-
paço suplementar T•invariante. [Sugestão: Seja /j - t1 e observemos que
(T- 21')/J est, em W. Demonstrar que não existe nenhum a em W tal que
(T- 21~ = (T- 2I)a.]
4. Seja To operador linear sôbre F' que é representado em relação à base
ordenada canônica pela matriz

[! ~ ; fl.~J
O O 1
Seja W o núcleo de T - el.
(a) Demonstrar que W é o subespaço gerado por •.i•
(b) Determinar os geradores unitários dos ideais Sh 4 ; W), S<•,; W),
S(e,; W), S(.i 1 ; W).
5. Seja T um opera~or linear sôbre o espaço vetorial Y sôbre o corpo F.
Se / é um polinômio sôbre F e a: está em V, seja /a - /(Tp.. Suponhamos
que a 1 , ••• , ª" sejam vetores em V tais que V =- Z(a,; T) E9 ... E9 Z(«,;
n. Demonstrar que
.(V == /Z(a1; D ED •.. EB /Z(a.,; T) = Z(f«; T) fB .•• EB Z(/o.),; T
(/Y é o conjunto dos /a. a em V. etc.).
6. Sejam T, V e F como no Exercicio 5. Suponhamos que a e fl sejam ve-
tores em V que o mesmo T•anulador. Demonstrar que, para todo polinô-
mio/, os vetores /a e /fJ têm o mesmo T•anulador.
7. Determinar os polinômios minimais e as formas racionais de cada uma
das sesuintes matrizes reais:

[ ~ -iº -Al [
e
0
O
e
-tJ-1 cos ti sen ']
[ ----sen
-1 oJ -1 1 e
fJ cos ,

8. Seja T o operador linear sôbre R 3 que é representado em relação à base


ordenada canôni~a por

[ - 2t -4
j ~J-
, ____,
lkterminar vetores não-nulos a 1 , •••• a, que satisfaçam as condições do
Teorema 4.
9. Seja A a matriz real

A-[-~ -3 ,_3 -5
i ~]·
Decerminar uma 3 X 3 matriz real inversível P tal que p-l AP esteja, sob
a forma racional.
218 AS FORMAS RACIONAL E DE JORDAN

10. Seja F um subcorpo do corpo dos números complexos e seja To ope•


rador linear sôbre F'4 que é representado em relação à base ordenada ca•
nônica pela matriz

[! ! i p.~J
O O b
Determinar o polinômio característico de T. Considerar os casos a • b •
- 1; a = h = O; a = O, b = 1. Em cada um dêstes casos, determinar o
polinômio minimal de Te vetores não.nulos a1, ... , ar que satisfaçam as
condições do Teorema 4.
11. Demonstrar que se A e 8 são 3 X 3 matrizes sõbre o corpo F, uma
condição necessária e suficiente para que A e B sejam semelhantes sôbre
F é que possuam o mesmo polinômio característico e o mesmo polinômio
minimal. Dar um exemplo que mostra que isto é falso para 4 X 4 matrizes.
12. Seja F um subcorpo do corpo dos números complexos e sejam A e 8
n X n matrizes sôbre F. Demonstrar que se A e B são semelhantes sôbre
o corpo dos números complexos, então elas são semelhantes sôbre F. (Su-
gestão: Demonstrar que a forma racional de A. é a mesma seja A conside-
rada como uma matriz sôbre F ou como uma matriz sôbre C; o mesmo
para B.)
13. Seja A. uma ,, X n matriz com element<>& complexos. Demonstrar que
se todo valor característico de A é real. então A é semelhante a uma ma-
triz com elementos reais.
14. Seja T um operador linear sôbre o espaço V de dimensão finita. De-
monstrar que existe um vetor a em V com a seguinte propriedade: Se / é
um polinômio e f(T")a = O, então /(T) • O. (Um tal vetor a é denominado
um vetor separador para álgebra dos polinômios em T.) Para o caso em que
T possui um vetor cíclico, demonstrar diretamente que todo vetor cíclico
é um vetor separador para a álgebra dos polinômios em T.
15. Seja F um subcorpo do corpo dos números complexos e seja A uma
n X n matriz sôbre F. Seja p o polinômio minimal de A. Se considerarmos
A como uma matriz sôbre C, então A. possuirá um polinômio minimal .1:
quando considerada como uma n X n matriz sôbre C. Usar um teorema
sôbre equações lineares para demonstrar que p = f De que forma êste
resultado decorre do teorema da decomposição racional'!
16. Seja A uma n X ,z matriz com elementos reais tal que A :i + l = O.
Demonstrar que 11 é par e que, se ,r = 2k, então A é semelhante sôbre o
corpo dos números reais a uma matriz da forma em blocos

[~ -~J
onde I é a k X k matriz unidade.
17. Seja V um espaço vetorial de dimensão finita e seja Tum operador li•
near sôbre . V com polinômio minimal p. Se
P = li• .... 1:1:
é a decomposição de p em fatôres primos, demonstrar que o polinômio
característico de T é
.f = .ri, ... /f•
onde di é a nulidade de J;-( T)'i dividida pelo grau de Íi•
A FORMA DE JORDAN 219

18. Seja T um operador linear sôbre o espaço V de dimensão finita. De~


monstrar que T possui um vetor cíclico se, e sàmente se, vale o seguinte:
Todo operador linear U que comuta com T é um polinômio em T.
19· Seja V um espaço vetorial de dimensão finita sôbre F e seja Tum ope-
rador linear sôbre V. Perguntamos quando é que todo vetor não-nulo em
V é um vetor cíclico de T. Demonstrar que isto ocorre 1 se, e somente se, o
polinômio característico de T é irredutível sôbre F.
20. Seja A uma 11 X n matriz com elementos reais. Seja T o operador li-
near sôbre Rn que é representado por A em relação à bas~ ordenada ca-
nônica e seja U o operador linear sôbre C 11 que é representa.do por A em
relação à base ordenada canônica. Usar o resultado do Exercício 19 para
demonstrar o seguinte: Se os únicos subespaços invariantes sob T são R,.
e o subespaço nulo, então U é diagonalizável.
7 .3 A Forma de Jordan
Suponhamos que N seja um operador linear nilpotente sôbre
o espaço V de dimensão finita. Consideremos a decomposição cí-
clica de N que obtemos por meio do teorema da decomposição ra-
cional. Temos um inteiro positivo r e r vetores não-nulos ai, . . • ~ ar
em V com N-anuladores pi, ... , Pr, tais que
V = Z(a1; N) ffi ... Ef> Z(ar; N)
e p;+ 1 divide p; para i = l, ... , r ~ l. Como N é nilpotente, o po-
linômio característico de N é x". O polinômio é x.1.: para um certo
k < n. Assim, cada p; é da forma p; = xt, e a condição de divisibi-
lidade diz simplesmente que
k1 > k2 > ... > kr,
Evidentemente, kr = k e k,. > 1. A matriz associada a x.t, é a k; X k;
matriz
o o .. o o
l o .. . o o
o 1 o o
(7-5) Ai -

o o 1 o
Assim, o Teorema 4 nos fornece uma base ordenada de V em relação
à qual a matriz de N é a soma direta das matrizes nilpotentes ele-
mentares (7-5), cujas dimensões diminuem à medida que i aumenta.
V!-se, a partir disto, que estão associados a uma n X n matriz nil-
potente um inteiro positivo r e r inteiros positivos k1, ... , kr tais
que k1 + ... + kr = n e k; > k; + 1, e êstes inteiros positivos de-
terminam a forma racional da matriz, isto é, determinam a matriz
a menos de semelhança.
220 AS FORMAS RACIONAL E DE JORDAN

Eis aqui algo que gostaríamos de ressaltar sôbre o operador


nilpotente N acima. O inteiro positivo r é precisamente a nulidade
de N; na verdade, uma base do núcleo é farmada pelos r vetores
(7-6) Nk;- 1ai.
De fato, suponhamos que a esteja no núcleo de N. Podemos escre-
ver a sob a forma
a = /1a1 + , , , + f ,ar
onde/; é polinômio, cujo grau podemos supor menor que k;. Como
Na = O, para cada i temos
O N(f;a;)
::ic

- N/i(N')a,
- (xi·)a,.
Assim, ~f; é divisível por xk,. e como gr(.f;) > k; isto significa que
J
r.I -- c·xt
I ,
__ ,
onde e; é um certo escalar. Mas então
a = C1(X1 1• 1a:1) + ...
+ cr(~.t,_1 ar)
o que nos mostra que os vetores (7-6) formam uma base do núcleo
de N. O leitor deverá notar que êste fato também é evidente do ponto
de vista de matrizes.
O que desejamos fazer agora é combinar nossas conclusões a
respeito de operadores ou matrizes nilpotentes com o teorema da
decomposição primária do Capítulo 6. A situação é a seguinte:
Suponhamos que T seja um operador linear sôbre V e que o poli-
nômio característico de T se decomponha sôbre F como segue:
/ = (x - C1)d 1 • • • (x - Ct)11ª
onde c1, ... , ck são elementos distintos em F e d; > 1. Então, o
polinômio minimal de T será
p = (x - c1)' 1 • • • (x - ckY"
onde 1 < ri< d;. Se W; é o núcleo de (T - cJ)'.-, então o teorema
da decomposição primária nos diz que
V = W1 EB • • • EB W1-
e que o operador T; induzido sôbre W; por T possui polinômio mi-
nimal igual a (x - c;y.-. Seja N; o operador linear sôbre W; definido
por N; = T; - e;/. Então, Ni é nilpotente e seu polinômio minimal
é x'i. Sôbre W;, T age como N; mais o escalar e; vêzes o operador
idêntico. Suponhamos que tomemos uma base do subespaço W;
correspondente à decomposição cíclica do operador nilpotente N;.
Então a matriz de T; em relação a esta base ordenada será a soma
direta das matrize~
A FORMA DE JORDAN 221

e o o o-
l e o o
(7-7)

e
o
-º 1 e_
cada uma com e = e,. Além disso, as dimensões destas matrizes
diminuem quando se lê da esquerda para a direita. Uma matriz da
forma (7-7) é dita uma matriz elementar de Jordan com valor carac-
terístico e. Reunindo tôdas as bases dos W; obtemos uma base de
V. Descrevamos a matriz A de T em relação a esta base ordenada,
a matriz A é a soma direta
-Ai o .o
o A2 o
(7-8) A - ... .
• • .
• • .
o o . . . Âk
das matrizes A1, ... , A1i;. Cada A; é da forma
J~" o ... o -
o Jt ... o
À;= ► • •
. •
. . .
o o JM'
onde cada Jjn é uma matriz elementar de Jordan com valor carac-
terístico e;. Além disso, dentro de cada A;, as dimensões das matri-
zes JJ'> diminuem à medida que j aumenta. Diremos _que uma n X n
matriz A que satisfaz tôdas as condições descritas até agora neste
parágrafo (para certos escalares distintos c1, ... , ck) está sob a
forma de Jordan.
Acabamos de salientar que se T é um operador linear para o
qual o polinômio característico se decompõe completamente S:ôbre
o corpo de escalares, então existe um~ base ordenada de V em re•
lação à qual T é representado por uma matriz que está sob a forma
de Jordan. Gostaríamos de mostrar agora que esta matriz é algo
associado de modo único a T, fl menos da ordem em que os valores
característicos de T são escritos. Em outras palavras, se duas matri~
zes estão sob a forma de Jordan e se elas são semelhantes, então
elas podem diferir apenas quanto à ordem dos escalar'es e;.
222 AS FORMAS RACIONAL E DE JORDAN

Podemos ver a unicidade como segue. Suponhamos que exista


alguma base ordenada de V em relação à qual T seja representado
pela matriz de Jordan À descrita no parágrafo anterior. Se A; é uma
d; X d; matriz, então d; é evidentemente a multiplicidade de e; como
uma raiz do polinômio característico de A, ou de T. ·Em outras pa-
lavras, o polinômio característico de T é
f = (x - C1)d 1 • , , (x - Ck)dt_
Isto mostra que ci, ... , ck e d1, ... , dk são únicos, a menos da or-
dem em que são escritos. O fato de que A é a soma direta das ma-
trizes A; nos fornece uma decomposição em soma direta V = W1 EB
€B ••. EB Wk invariante sob T. Observemos agora que W; deve ser
o núcleo de (T- c;l)", sendo n = dim V; de fato, A; - e;/ é obvia-
mente nilpotente e A,; - e;/ é não-singular para j ~ i. Portanto,
vemos que os subespaços W; são únicos. Se T; é o operador induzido
sôbre W; por T, então a matriz A; é determinada de um único modo
como a forma racional de (Ti - e;/).
Desejamos agora fazer mais algumas observações sôbre o ope-
rador T e a matriz de Jordan A que representa T em relação a uma
certa base ordenada. Faremos uma cadeia de observações:
{a) Todo elemento de A que não esteja na diagonal principal
ou imediatamente abaixo dela é nulo. Na diagonal de A aparecem
os k valores característicos distintos c 1, ••• , ck de T. Além disso, -
e; se repete d; vêzes, sendo d; a multiplicidade de e; como uma raiz
do polinômio característico, isto é, d; = dim W;.
(b) Para caqa i, a matriz A; é a soma direta de n; matrizes ele-
mentares de Jordan, Jjí\ com valor característico e;. O número ni
é exatamente a dimensão do espaço dos vetores característicos a·s1so-
ciados ao valor característico e,. De fato, n; é o número de blocos
nqpotentes elementares na forma racional de (Ti - e;/) sendo por-
tanto igual à dimensão do núcleo de (T- c;l). Em particular, note-
mos que T é diagonalizãvel se, e somente se, n; = dí para todo i.
(c) Para cada i, o primeiro bloco 1pi na matriz A; é uma r; X ri
matriz, sendo r í a multiplicidade de e; como uma raiz do p'olinômio
minimal de T. Isto decorre do fato de que o polinômio minimal do
operador nilpotente (T; - cd) é xr.-.
,
E claro que temos, corno sempre, o mesmo resultado para ma-
trizes. Se B é uma n X n matriz sôbre o corpo F e se o polinômio
caràcterístico de B se decompõe completamente sôbre F, então B
é semelhante sôbre F a uma n X n matriz A sob a forma de Jordan
A é única a merios da ordem dos valores característicos. Dizemos
que A é a forma de Jordan de B.
A FORMA DE JORDAN 223

Al6rn disso. notemos que se F é um corpo algebricamente fe-


chado, então as observações acima se aplicam a todo operador li-
near sôbre um espaço de dimensão finita, ou, a tôda n X n matriz
sôbre F. Assim, por exemplo, tôda n X n matriz sôbre o corpo
dos números complexos é semelhante a uma matriz essencialmente
única sdb a forma de Jordan.
Exemplo 4. Suponhamos que T seja um operador linear sôbre
C2 • O polinômio característico de T é (x - c1) (x - c2), sendo c1
e c2 números complexos distintos ou então é (~ - c) 2 • No pritneiro
caso, T é diagonafizável e é representado em relação a alguma base
ordenada por

[~1 ~2].
No segundo caso, o polinômio minimal de. T pode ser (x - e), e
então T = e/ e pode ser (x - c) 2 e então T é representado em rela-
ção a alguma base pela matriz
. [~ ~] ·
Assim, tôda 2 X 2 matriz sôbre o corpo dos números complexos
é semelhante a uma matriz de um dos dois tipos acima exibidos,
possívelmente com c1 = c2.
Exemplo 5. Seja A a 3 X 3 ntatriz complexa

[~e~ -1Jgl.
b
O polinômio característico de A é obviamente (x - 2) 2 (x + 1). Ou
êste polinômio é o polinômio minimal e A é semelhante a

JiLo o~ -1g]'
ou então o polinômio minimal é (x - 2) (x + 1), caso em que A é
semelhante a
o
rn 2
o -1
gl
Ora,
o
(A - 2/) (A + 1) = [º
3a
ac
o
o g]
224 AS FORMAS RACIONAL E DE JORDAN

e assim A é semelhante a uma matriz diagonal se, e somente se,


a= O.
Exemplo 6. Seja

-21 O O O
2 O
[ O O 2 O.
º]-
Â=
O O a 2
O polinômio característico de A é (x - 2)-i. Como A é a soma di-
reta de duas 2 X 2 matrizes, é evidente que o polinômio minimal
de A é (x - 2) 2 • Ora, se a == O ou se a = 1, então a matriz A está
sob a forma de Jordan. Notemos que as duas matrizes que se obtem
para a -= O e a = 1 têm o mesmo polinômio característico e o mesmo
polinômio minimal, mas não são semelhantes. Elas não são seme-
lhantes porque, para a primeira matriz, o espaço-solução de (A -
- 2/) tem dimensão 3, enquanto que para a segunda matriz a di-
mensão é 2.

Kx.ercícios

1. Sejam N1 e N, 3 X 3 matrizes nilpotentes sôbre o corpo F. Demons-


trar que N 1 e Ni são semelhantes1 se, e somente se, possuem o mesmo po-
linômio minimal.

2. Usar o resultado do Exercício I e a íorma de Jordan para demonstrar
o seguinte: Sejam A e B II X 11 matrizes sôbre o corpo F que possuam o
mesmo polinômio característico
f - (x - C'1)d'1 • , •• (x - t'1-)d'•

e o mesmo polinômio minimal. Se nenhum d, é maior que 3, então A e B


são semelhantes.
3. Se A é uma 5 X ·5 matriz complexa com polinômio fcaracterístico
l- (x - 2)3 (x + 7)i e polinômio minimal p == (x - 2P {x 7). qual +
é a forma de Jordan de A.'?
4. Quantas formas de Jordan são possíveis para a 6 X 6 matriz complexa
cujo polinômio característico é (x + 2)" (x ~ 1)2'?
5. O operador derivação sôbre o espaço dos polinômios de grau menor
ou igual a 3 é representado em relação à base ordenada .. natural.. pela ma--
triz

[go og o !F
~J
Qual é a íorma de Jordan desta matriz? (Fé um subcorpo do corpo dos
números complexos.)
6. Seja A a matriz complexa
A FORMA DE JORDAN 225

2 o o o o o
1 2 o o o o
-1 o 2 o o o
o 1 o 2 o o
1 l 1 1 2 o
o o o o 1 -1
Determinar a forma de Jordan de A.
7. Se A é uma n X n matriz sôbre o corpo F com polinômio característico
f = (x - ci)ªt ... (x - c1iJdi.,
qual é o traço de A'!
8. Classificar, a menos da semelhança, tôdas as 3 X 3 matrizes complexas.
A tais que Aª = I.
9. Classificar, a menos da semelhança, tôdas as n X n matrizes complexas
A tais que A"' = I.
10. Seja n um inteiro positivo. n > 2 e seja N uma n X n matriz sôbre
o corpo F tal que N" = O mas Nn~i ri O. Demonstrar que N não possui
nenhuma raiz quadrada. isto é, que não existe nenhuma n X n matriz A
tal que N 2 = N.
11. Sejam N I e N ~ 6 X 6 matrizes nilpotentes sôbre o corpo F. Suponha~
mos que N 1 e N i tenham o mesmo polinômio minimal e a mesma nulidade.
Demonstrar que N1 e N ~ são semelhantes. Mostrar que isto não é válido
para 7 X 7 matrizes nilpotentes.
12. Usar o resultado do Exercício 11 e a forma de Jordan para demons•
trar o seguinte: Sejam A e B n X n matrizes sôbre o corpo F que possuam
o mesmo polinômio característico
f = (x - ci)d1 ..• (x - c 1 )d"'
e o mesmo polinômio minimaL Suponhamos também que para cada i, os
espaços-soluções 9e (A - e;/) e de (B - c,:l) ·tenham a mesma dimensão.
Se nenhum dos d, é maior que 6, então A e B são semelhantes.
13. Se N é uma k X k matriz nilpotente elementar, isto é, NJ: = O mas
N"-1 ~ O, mostrar que N' é semelhante a N. Usar agora a forma de Jor-
dan para demonstrar que tôda n X n matriz complexa é semelhante à sua
transposta.
14. O que está errado na demonstração que segue'? Se A é uma n X 11 ma-
triz complexa tal que A 1 = -A, então A é O. Demonstração: Seja J a for-
ma de Jordan de A. Como A t = -A, Jt - -J. Mas J é triangular, logo
J 1 ""' -J implica que todo elemento de J é nulo. Como J .., O e A é se-
melhante a J, vemos que A - O. (Dar um exemplo de uma A não-nula tal
que A' - -A.)
15. Se N é uma 3 X 3 matriz nilpotente sôbre C, demonstrar que
A - I + ½N - ¼N 2 satisfaz A 2 = 1 + Nt isto é, A é uma raiz qua-
drada I + N. Usar a série binomial (1 + 1)111 para obter uma fórmula se-
melhante para a raiz quadrada de 1 + N, onde N é uma n + n matriz nil-
potente arbitrária sôbre C.
16. Usar o resultado do Exercício 15 para demonstrar que se e é um nú-
mero complexo não-nulo e N é uma matriz .complexa nilpotente, então
(cl + N) possui uma raiz quadrada. Usar depois a forma de Jordan para
demonstrar que tôda n X n matriz complexa nã01insular possui uma raiz
quadrada. ·
226 AS FORMAS RACIONAL E DE JORDAN

7. 4 Resumo; Operadores Semi-Simples


N·os dois últimos capítulos, estivemos tratando de um único
operador linear T sõbre um espaço vetorial Y de dimensão finita.
O prográma foi decompor T numa soma direta de ~peradores linea-
res de natureia elementar, com o objetivo de obter informações de-
talhadas sôbre ·como T 'opera' sôbre o espaço Y. Recordemos r'ttpi-
damente onde nos encontramos.
Começamos estudando T por meio de valores característicos e
vetores característicos. Introduzimos o~ operadores diagonalizáveis,
operadores que pcidem ser descritos completamente em têrmos de
valores e vetores característicos. Observamos então que podia ocor-
rer que T não tivesse nenhum vetor característico. Mesmo no caso de
um corpo de escalares algebricamente fechado, em que todo operador
linear realmente possui pelo menos um vetor caracterfstico, notamos
que os vetores característicos de T nem sempre geravam o espaço.
Demonstramos então o teorema da decomposição racional, ex-
primindo um operador linear arbitrário como a soma direta de ope-
radores que tinham um vetor ciclico, sem fazer nenhuma hipótese
quanto ao corpo de escalares. Se U é um ope:rador linear que tem
um vetor ciclico, existe uma base { ai, : .. , an} tal que
Ua; = a;+i, j = 1, ...• n - 1
Ua.n = -Caa1 - C1a2 - • • • - e.· 1a,..
A ação de U sôbre esta base é então a de transformar cada a; no
vetor seguinte a;+1, com a exceção de Ua,. que é uma combinação
linear predeterminada dos vetores da base. Como um operador li--
near genérico T é a soma direta de um número finito de tais ope-
radores U, obtivemos uma descrição explicita e razoàvelmente ele-
mentar da ação de T.
Aplicamos a seguir o te01·ema da decomposição racional a ope-
radores nilpotentes. Para o caso de um corpo de escalares algebrica--
mente fechado, combinamos êste resultado com o teorema da de-
composição primária obtendo a forma de Jordan. A forma de Jordan
fornece uma base {ai, ... , «n} do espaço V tal que, para cadaj, ou
Tai é wn múltiplo escalar de ai ou Ta; = ca.; + ªi+t• Esta base cer-
tamente descreve a ação de T de unia maneira explicita e elementar.
A importância da forma racional ( ou da forma de Jordan) ori-
gina-se do fato de ela existir e não do fato de poder ser determinada
cm casos particulares. É claro que se se tem um particular operador
linear Te se pode determinar a sua forma racional ou de Jordan,
deve-se fad-lo, pois, tendo esta forma, pode...se conseguir vastas
quantidades de informações &abre T. Dois tipos de dificuldades sur•
gem no cálculo dessas formas canônicas. Uma dificuldade i, obvia-
RESUMO: OPERADORES SEMI-SIMPLES 227

mente, a extensão dos cálculos. A. outra dificuldade é que pode não


existir nenhum método de efetuar os cálculos mesmo que se tenham
paciência e tempo suficientes. A segunda dificuldade surge ao, diga-
mos, se tentar determinar a forma de Jordan de uma matriz complexa.
Simplesmente não existe nenhum método bem definido de se decom-
por·o polinômio característico e assim já se é barrado no início. A
forma racional não apresenta esta dificuldade. Em outras palavras,
existe um método bem definido para se determinar a forma racional
de uma dada n X n matriz; contudo, tais cálculos são usualmente
longos demais. O leitor interessado deverá consultar o livro de A. A.
Albert citado na Bibliografia para uma· ·discussão dêste aspecto da
forma racional.
Em nosso resumo dos resultados dêstes dois últimos capítulos,
ainda não mencionamos um teorema que demonstramos'. É o teo-
rema que afirma que se T é um operador linear sôbre um espaço
vetorial de dimensão finita sôbre um corpo algebricamente fechado,
então T pode ser expresso de um único modo como a soma de um
operador diagorializável com um operador nilpotente os quais c'o-
mutam. ~le foi demonstrado a partir do teorema da decomposição
primária e algumas informações sôbre operadores diagonalizáveis.
Não é um teorema tão profundo como o teorema da decomposição
racional ou a existência da forma de Jordan, mas possui aplicações
importantes e úteis em certas partes da matemática. Conc}Jlirido êste
capitulo, vamos demonstrar um teorema análogo, sem supor que o
corpo de escalares seja algebricamente fechado. Começamos por de ..
finir os operadores que desempenharão o 'papel dos operadores dia-
gonalizáveis.
Definição. Seja V um espaço vetorial de dimensãb finita sâbre o
corpo F e seja T um operador linear sôbre V. Dizemos que T é semi..
simples se todo subespaço T-invariante possui um subespaço suplemen-
tar T-invariante.
O que estamos prestes a demonstrar é que, com certas rcstri•
ções sôbre o corpo F, todo operador linear T pode ser expresso de
um único modo como T = S + N, sendo S semi•simples, N nil-
poteilte e SN = NS. Primeiro, vamos caracterizar os operadores
semi-simples por meio de seus polinômios minimais e esta çarac-
ierização nos mostrará que, quando F é algebricamente fechado, um
operador é semi-simples se, e somente se, é diagonalfzável.
Lema. Seja T um operador linear sôbre o espaço vetprial V de
dimensão fi'nita e seja V =- W 1 EB . • • EB W11: a decomposição p1imá-
ria de T. Em outras palavras, se n é o polinômio de Te p = p; 1 • • •
. . . pl• é a decomposição de n emfatôres primos, então W; é o núcleo
228 AS FORMAS RACIONAL E DE JORDAN

de pj(T)r;_ Seja N um subespaço arbitrário de V que seja invariante


sob T. Então
W = (W ('\ W1) ffi ... $ (W ('\ Wk)-
Demonstràção. Para a demonstração precisaremos recordar um
corolário de nossa demonstração do teorema da decomposição pri-
mária na Seção 6.4. Se E 1, ••• , E1e são as projeções associadas à
.decomposição V = W1 EB . . . EB W k, então cada E1 é um polinô-
mio em T. Isto é, existem polinômios h1, ... , hk tais que EJ = hJ (T).
Seja agora W utn subespaço· invariante sob T. Se a é um vetor
qualquer em W, então a = a1 + ... + a.:, com «i em W1• Ora,
ªi = _E1a = hiT)a, e como W é invariante sob T, cada ªi também
está em W. Assim, cada vetor a em W é da forma a = ai + ... + a.t,
com aJ na interseção W 0i W:1- Esta expressão é única pois V = W1
EB • • • EB Wk, Portanto
W = (W f\ W1) e . . . EB ( W ('\ W,).
Lema. Seja T um operador linear sóbre V e suponhamos que o
polinômio minimal de T seja irredutível sôbre o corpo F de escalares
Então T é semi~simples.
Demonstração. Seja W um subespaço de V que seja invariante
sob T. Precisamos demonstrar que W possui um subespaço. suple-
mentar T-invariante. De acôrdo com o Teorema 3, será suficiente
demonstrar que se fé um polinômio e /3 é um vetor em V tais que
Jt~ esteja em W, então existe um vetor a em W tal que /(T~ =
= f(T)a. Portanto, suponhamos que /3 esteja em V e que/ seja um
polinômio tal que /(T)/1 esteja em W. Se f(T')/3 = O, fazemos a == O
e então a é um vetor em W tal que /(DfJ = f(Da. Se f(T){J ~ O, o
polinômio/ não é divisível pelo polinômio minimal p do operador
T. Como pé primo, isto significa que/ e p são relativamente primos
e existem polinômios g e h tais que Jg +
ph = l. Como p(T) = O
te··mos/(Dg(T) = I. Daqui segue que o vetor B deve estar no sub-
espaço W; de fato.
/3 = g(T)f(T~
= g(T) /(T)a)
enquanto f(T)fJ está em W e W é invariante sob T. Basta tomar
a=~-
Teorema 6. Seja T um operador linear sôbre o espaço vetorial
V de dimensão /inita. Uma condiçiio necess4ria e suficiente para que
T seja semi•sirnp/es é que o polinômio minimal p de T seja da forma
p = p1 ..• P1t, sendo Pi, •.. , Pk polinômios irredutiveis distintos sô-
bre o corpo F de escalares.
RESUMO: OPERADORES SEMI-SIMPLES 229

Demonstração. Suponhamos que T seja semi-simples. Mostra-


remos que nenhum polinômio irredutível se repete na decomposi-
ção do polinômio minimal p em fatôres primos. Suponhamos o.
contrário. Então existe um polinômio unitário não-constante g tal
que g 2 divide p. Seja W o núcleo do operador g(T). Então W é in-
variante sob T. Ora, p = g 2h para algum polinômio h. Como g não
é um polinômio constante, o operador g(T)h(T) não é o operador
nulo e existe um vetor fj em V tal que g(T)h(T)fJ = O! isto é, (gh)f3 -:;é, O.
Ora, (gh)fJ está no subespaço W, pois g(gh/j) = g 2h/3 = p/3 = O.
Mas não existe nenhum vetor a em W tal que gh f3 = gh a; de fato,
se a está em W
(gh) a = (hg) a = h(g a) = h(O) = O.
Assim, W não pode ter um subespaço suplementar T-invariante,
contradizendo a hipótese de T ser semi-simples.
Suponhamos agora que a decomposição de p em fatôres primos
seja p = P• ... p1c, sendo p1, ... , Pk polinômios unitários (não--cons-
tantes), irredutíveis e distintos. Seja W um subespaço de V que seja
invariante sob T. Vamos demonstrar que W possui um subespaço
suplementar T-invariante. Seja V = W1 EB ... ffi Wk a decompo-
sição primária de T, isto é, seja Wi o núcleo de Pi (.T). Seja Ti o ope-
rador linear induzido sôbre Wi por T, de modo que o polinômio
minimal de T1 é o primo Pi· Ora, W ('\ Wi é um subespaço de W1
que é invariante sob Ti (ou sob T). Pelo último lema, existe um subes•
paço VJ de Wi tal que W1 = (W n W)) EB V; e V1 seja invariante
sob TJ (e portanto sob T). Então temos
v = W1 EB ••• m wk
= (W r'I W1) $ V1 EB •.. EB (W 0. W1) EB V1c
= (W·ri W1) + ... + (W Í\ Wt) EB V1 EB ••• EB Vt-.
Pelo primeiro lema acima, W = ( W ("\ W1) e . . . EB ( W ('\ w~),
de modo que se W' = V1 EB . . . E9 V1c, então V = W EB W' e W'
é invariante sob T.
Corolário. Se T é um operador linear sôbre um espaço vetorial
de dimensão finita sôbre um corpo algebricamente fechado, então T
é semi-simples se, e somente se) T é diagonalizável.
Demonstração. Se o corpo F de escalares é algebricamente - fe-
chado, os primos unitários sôbre F são os polinômios x - e. Neste
caso, T é semi-simples se, e somente se, o polinômio minimal de
T é p = (x - c1)... (x -· e,), sendo c1, ... , c1r elementos distintos
de F. tste é exatamente o critério para a diagonalização de T, por
nós estabelecido no Capítulo 6. ·
230 AS FORMAS RACIONAL E DE JORDAN

Gostaríamos de destacar que T é semi-simples se, e somente se,


existe um polinômio/, que seja um produto de primos distintos, tal
que /(n = O. Isto difere apenas superficialmente da condição de
que o polinômio minimal seja um produto de primos distintos.
Voltemos agora ao problema de exprimir um operador linear
como a soma de um operador semi-simples e um operador nilpo-
tente que comutem. Para esta parte,· restringiremos o corpo de esca-
lares a um subcorpo do corpo dos números complexos. O leitor in-
formado verá que o importante é o corpo F ser um corpo de carac-
terística zero, isto é, para cada inteiro positivo n, a soma 1 + ... + 1
(n vêzes) em F não deve ser nula. Para um polinômio f sôbre F, indi-
quemos por /O:) a k-ésima derivada formal de/. Em outras palavras,
/(t) = D'l onde D é o operador derivação sôbre o espaço dos poli-
nômios. Se g é um outro polinômio, /(g) indica o resultado de se
substituir g emf, isto é, o polinômio obtido aplicando/ ao elemento
g na álgebra linear F[x].
Lema (Fórmula de Taylor). Se.ia F um subcorpo do corpo dos
números complexos e sejam g e h polinômios sôbre F. Se f é um poli-
nômio qualquer sóbre F com gr(f) < n, então

f(g) =f(h) + [lll(h)(g- h) + J<;~h) (g-h)' + ... + /1:t) (g-h)•.

Demonstração. O que estamos demonstrando é uma fórmula de


Taylor generalizada. O leitor provàvelmente está acostumado a ver
o caso particular em que h = e, um polinõmio constante, e g = x.
Nesse caso, a fórmula diz:
f = f(x) = /(e) + /{l)(c) (x - e)

+ J(''(c)
2., (x - e)
2
+ ... + .f("'J(c)
n.., (x -
"
e) .
A demonstração desta f6rmu1a é simplesmente uma aplicação d.o
teorema binomial

(a + b)" = ai: + kat.- 1b + k(k; I) aª- 2b2 + .. ~ + bi.


De fato, o leitor notará que, sendo a substituição e a derivação- pro-
cessos lineares, basta demonstrar a fórmula paraf == xª. A fórmula
,.
para/= l: c1:x1: decorre por uma combinação linear. No caso
4.-0
f =·xt com· k ~ n, a fórmula diz
g• == ht + kl,t-l(g- h) + k(_k;; 1) ,,.-2 (g- h)2 + ... + (g- ht·
RESUMO: OPERADORES SEMI-SIMPLES 231

que é exatamente o desenvolvimento binomial de


gt = [h +
(g - h)].t.
Lema. Seja F um subcorpo do corpo dos números complexos,
seja f um polinômio sôbre F e seja f' a derivada de f. As seguinte's
afirmações são equivalentes:
(i) fé um produto de polinômios irredutíveis e distintos sôbre F.
(ii) f e f' são relativamente primos.
(iii) Considerado como um polinômio com coeficientes comple-
xos, f não possui raízes múltiplas.
De,nonstração. Demonstraremos primeiro que (i) e (ii) são afir-
mações equivalentes sôbre /. Suponhamos, na decomposição de /
em fatôres primos sôbre o corpo F, que algum polinômio (não-cons-
tante) primo p se repita. Então/= p 2h para algum hem F[x]. Então,
/' = p 2h' + 2pp'h
e p é também urn divisor d~/'. Logo,/ e/' não são relativamente pri-
mos. Concluímos que (ii) implica {i).
· Suponhamos agora que .f = p1 •.• Pio onde Pit ... , P1c são po-
linômios não-constantes, irredutíveis e distintos sôbre F. Seja
Íi = f/p;. Então,
/' = pf/1 + p2/2 + . . . + p'f".
~e;a p um polinômio primo que divida/ e / 1 • Então p = p;-para ai•
gum i. Ora, p; divide li para j ;é i e como p; também divide
.t
/' = I p}fi
j - 1
vemos que p; deve dividir pi/;. Portanto, p; divide/; ou pf. Mas p; não
divide/; uma vez que pi, . .. , p" são distintos. Então, p; divide
p;. Isto não é possível, pois o grau de pS é um a menos que o grau de
Pí- Concluí·mos que nenhum primo divide/e/', ou seja, que(/,/')=- 1.
Para ver que a afirmação (iii) é equivalente a (i) e (ii), preci-
samos observar apenas o seguinte: Suponhamos que/ e g sejam po•
linômios sôbre F, um subcorpo do corpo dos números complexos.
P~_emos considerar/ e g também como polinômios com coeficien-
tes complexos. A afirmação de que/ e g são relativamente primos
como polin&mios sôbre F é equivalente à afirmação de que / e g
são relativamente primos como polinbmios sôbre o corpo dos nú-
meros complexos. Deixamos a demonstração d&te resultado como
exercício. Usemos êste fato com g = 1•. Notemos que (iii) 6 exa-
tamente (i) quando / é considerado_ como um polinômio sô1:'n'e o
corpo dos números complexos. Assim, (ii) e (iii) são equivalentes,
pelo mesmo argumento utilizado acima.
232 AS FORMAS RACIONAL E DE JORDAN

Podemos agora demonstrar um teorema que tornará mais evi-


dente a relação entre operadores semi-simples e operadores diago-
nalizáveis.
Teorema 7. Seja F um subcorpo do corpo dos números comple-
xos, seja V um espaço vetorial de dimensão finita sóbre F e seja T
um operador linear sóbre V. Seja & uma base ordenada de V e seja
A a matriz de Tem relação à base ordenada m; Então~ T é semi-sim-
ples set e somente se, a matriz A é semelhante, sôbre o corpo dos nri-
meros comp/exost a uma diagonal.
Demonstração. Seja p o polinômio minimal de T. De acôrdo
com o teorema 6, T é semi-simples se, e somente se, p = p1 ••• p1c
onde p1, ... , Pt são polinômios distintos irredutíveis sôbre F. Pelo
último lema, temos que T é semi-simples se, e somente se, p não
possui raízes complexas múltiplas.
Ora, p também é o polinômio minimal da matriz A. Sabemos
que A é semelhante sôbre o corpo dos números complexos a uma
matriz diagonal se, e somente se, o seu polinômio minimal não
possui raízes complexas múltiplas. Isto demonstra o teorema, a
menos de um detalhe. Deve-se observar que A possui o mesmo po--
linômio minirríalt seja considerada como uma matriz sôbre F ou
como uma matriz sôbre o corpo dos números complexos. Em outras
palavras, se tomarmos o polinômio unitário de menor grau dentre
todos os polinômios com coeficientes complexos que levam A em O,
êste polinômio terá seus coeficientes no subcorpo F. Um polinômio
f = co + c1x + ... + Cnx" tal que /(A) = O corresponde a uma
relação linear
co/ + c1À + ... + c,.A" = O.
entre as potências de A. Tal relação diz que c0, ••• , Cn satisfazem
um sistema de r 2 equações lineares homogêneas, onde A é uma
r X r matriz. Os coeficientes dêste sistema de equações se origi-
nam dos elementos de A e são, portanto, elementos do subcorpo
F. Se tal um sistema de equações possui uma solução não-trivial
com co, ..• , e,. números complexos, então êle admite uma solução
não trivial com co, ... , e,. ern · F. Isto mostra que o polinômio mi-
nimal de A, considerada como uma matriz sôbre Ft tem o mesmo
grau que o polinômio minimal de A, como uma matriz sôbre C.
:Estes dois polinômios unitários ~m o mesmo grau e o segundo
divide o primeiro, logo são idênticos.
Teorema 8. Seja F um subcorpo do corpo dos números comple-
xos, seja V urn espaço vetorial de dimensão finita sôbre F e seja T
RESUMO: OPERADORES SEMl-SlMPLES 233

um operador linear sôbre V. Existe um operadvr semi-simples S sô-


bre V e um operador nilpotente N sôbre V tais que
(i) T = S + N;
(ii) SN = NS.
Além disso, o S semi-simples e o N nilpotente que satisfazem (i) e (ii)
são únicos e cada um é um polinômio em T.
Demonstração. Seja pÍ' ... p;1t. a decomposição em fatôres
primos do polinômio minimal de T e seja / = p1 •.. p1r;. Seja r o
maior dos inteiros positivos ri, ... , ri(. Então, o polinômio fé um
produto de primos distintos, /' é divisível pelo polinômio minimal
de Te então
f(T)' = O.
Vamos construir uma seqüência de polinômios: goJ g 1 , g2, • ..
tais que

f (x - .X g1/
1-0
1)

seja divisível por 1•- 1, n = O, 1, 2, . . . . Tomando go = O temos


que f(x - gofº) = f(x) = f é divisível por f. Suponhamos que te-
nhamos escolhido go, ..• , g.,,,_1. Seja
n-1
h =X - ~ gjfi
_; =0
de modo que, por hi_pótese, /(h) é divisível por/". Queremos tomar
Bn de modo que
f(h - Bnf")
seja divisivel por/"+ 1• Aplicando a fórmula geral de Taylor, obtemos
f(h - gn/") == f(h) - gnf"/'(h) 1•+ 1h +
onde b é algum polinômio. Por hipótese; f(h) = qf". Assim, vemos
que para /(h - g,,/") ser divisível por/"+ 1 basta escolher fn de
maneira tal que (q - gnf') seja divisível por/. Isto pode ser feito.
pois f não possui fatôres primos repetidos e então f e /' são rela-
tivamente primos. Se a, e e são polinômios tais que af + ef' = 1
e se fizermos g,. = eq, então q - g,.f' será divisível por .f.
Agora temos uma seqüência go, ltt ... tal que /"+ 1 divide
1(x -; §g;f')- Tomemos n = ,: - 1; como /(T)' = O, temos
0

f (r -.'i/ gj(T)/(TY) = O.
1•0
234 AS FORMAS RACIONAL E DE JORDAN

Seja
r-1 ,-1
N = ~ gJ(T)f(TY = ~ g;{T)f<TY.
j•J j=O
li

Como l: gJ/1 é divisível por/, vemos que Nr = O e N é nilpotente.


J-l
Seja S = T - N. Então /(S) = f(T - N) = O. Como f possui fa-
tôres primos distintos, S é semi-simples.
Temos agora T = S + N onde S é semi-simples, N é nilpo-
tente e cada um é um polinômio em T. Para demonstrar a afirmação
da unicidade, passaremos do corp·o de escalares F ao corpo dos nú-
meros complexos. Seja <B uma base ordenada do espaço V. Então
temos
[Th = [Sh + [NlB
sendo [SJm diagonalizável sôbre o corpo dos números complexos e
[N]m nilpotente. Esta matriz diagonalizável e esta matriz nilp'otente
que comutam são determinadas de modo único, como demonstra-
remos no Capítulo 6.

Exercicios
1. Se N é um operador linear nilpotente sôbre V, mostrar que para todo
polinômio J; a parte semi--simples de f(N) é um múltiplo escalar do opera•
dor idêntico (F é um subcorpo de C).
2. Seja F um subcorpo do corpo dos números comple:s:05i B um espaço
vetorial de dimensão finita sõbre F e T um operador linear semi-simples
sôbre V. Se fé um polinômio arbitrário sôbre F, demoostrar que /{T) é se-
mi-simples.
3. Seja T um operador linear sóbre um espaço de dimensão finita sôbre
um subcorpo de e. Demonstrar que T é semi-simples se, e somente se, vale
o seguinte: Se / é um polinômio e /(T) é nilpotente, então /i.T) =- O.
CAPfTULO 8

ESPAÇOS COM PRODUTO INTERNO

8. 1 Produtos Internos
Em todo êste capítulo trataremos apenas de espaços vetoriais
reais o'u complexos, isto é, de espaços vetoriais sôbre o corpo dos
números reais ou sôbre o corpo dos números complexos. Nosso
objetivo principal é estudar espaços vetoriais nos quais tenha sentido
falar do "comprimento" de um vetor e do ºângulo" entre dois ve-
tores. Faremos isto por meio do estudo de um certo tipo de função
definida sôbre pares de vetores e tomando valores escalares, conhe-
cida como um "produto interno". Um exemplo de produto interno
é o produto escalar de vetores em R 3 • O produto escalar de

a = (xi, x2, xa) .e ~ = (yi, Y2, Ya)


c:m R 3 é o escalar
(a.{3) = X1Y1 + X2Y2 + X3y3.
Geométricamente, êste produto escalar é o produto do comprimento
de a pelo comprimento de {J e pelo cosseno do ângulo entre a e fj.
Assim, é possivel definir os conceitos geométricos de "comprimentoº
e ºângulo" em R 3 em têrmos do produto escalar que é algebrica-
mente definido. Um produto interno sôbre um espaço vetorial é
uma generalização do produto escalar e, em têrmos de tal produto
interno, pode-se também definir "'comprimento" e "ângulo". Nos-
sos comentários sôbre ângulos restringir-se-ão ao conceito de per-
pendicularidade (ou ortogonalidade) de dois vetores.
Nesta primeira seção, vamos definir produto interno, conside-
rar alguns exemplos particulares e estabelecer algumas proprieda-
des básicas do produto interno geral. Então, volta.r-'nos-emós ao
trabalho de discutir comprimento e ortogonalidade.
236 ESPAÇOS COM PRODUTO INTERNO

Definição. Seja F o corpo dos números reais ou o corpo dos nú..


meros complexos e seja V um espaço vetorial sôbre F. Um produto
interno sôbre V é uma função que associa a cada pat ordenado de
vetores a, /3. em V um escalar (a:, /3) em F de maneira tal que
(a) (tr + (,, -y) = {a, "Y) + (/3, 'Y);
(b) (ca, /1) = c(a, (,);
(e) (/3, a} = {a, /3), onde a barra indica conjugação complexa;
(d) (a; a) > O se a :;é O,
Deve-se observar que as condições (a), (b) e (e) implicam o
seguinte:
(e) (a, c{J + -y) = c(a, fJ) + (a, -y).
Outro fato merece ser mencionado. Quando F é o corpo R dos nú-
meros reais, os complexos conjugados que aparecem em (e) e (e)
são supérfluos; no entanto, no caso de F ser complexo êles são ne-
cessários para se obter a condição (d). Sem êstes complexos conju-
gados, teríamos a contradição óbvia:
(a,a) > O e (ia, ia) = -](ata) > O.
Nos exemplos que seguem, como em todo o capítulo, F é o
corpo dos números reais ou o corpo dos números complexos.
Exemplo l. Sôbre Fn existe umr
produto interno que denomina~
mos o produto interno canônico. E definido sôbre a = (x1,.•• ·., x,.)
e /j = (y1, ... y,.) por
(8-1) (a,/j) = X1,V1 + X2,Y2 + .. , + X,iYn•
Quando F = R, esta definição torna-se
(a,fj) = X1Y1 + ••• + XnYn
e êste produto interno é freqü~nte.nente denominado o "produto es-
calar".
Exemplo 2. Para a = (xi, x2) e ~- = (yi, y2) em R 2, seja
(a,/j) = X1Y1 - X1Y2 - X1Y2 4x2y2. +
Como (a,a) = (xi - x2) + 3~, decorre que (a,a) > O se a ~ O.
2
As condições (a), (b) e (e) da definição são fàcilmente verificadas.
Exemplo 3. Seja V o espaço de tôdas as n X n matrizes sôbre
F. Então V é isomorfo a Fn2, de uma maneira natural. Decorre por-
tanto do Exemplo 1 que
(A, B) = ~ ÀjkBjk
J,lt
PRODUTOS INTERNOS 237

define um produto interno sôbre V. Além disso, introduzindo a ma-


triz transposta conjuga_da B*, onde B*kj = B1k, podemos exprimir
êste produto interno sôbre V em têrmos da função traço
(A, B) = tr(A B*) = tr (B* A).
De fato, pois
tr (AB*) = 2: (AB*)JJ
.1

- ~ ~ Âjk~Jr-ftj
j k

- 2; 2: ÂjkBJk•
i k
Exemplo 4. Seja V o espaço das n X l matrizes (- colunas)
sôbre F e seja Q uma n X n n1atriz inversível sôbre F. Para X, Y
em V definamos
(X, Y) = Y*Q *QX.
Estamos identificando uma 1 X 1 matriz sôbre F com o seu único
elemento. Quando Q é a matriz unidade, êste exemplo é essencial-
mente o mesmo que o Exemplo I.
Exemplo 5. Seja V o espaço vetorial das funções contínuas de-
finidas sôbre o intervalo unitário, O < t < l e tomando valores
complexos. Seja.

(/, g) = Íol /(t)g(t)dt.


O leitor provàvelmente tem mais familiaridade com o espaço das
funções contínuas definidas sôbre o intervalo unitário e tomando
valores reais, .e para êste espaço, a conjugação complexa sôbre g
pode ser omitida.
Exemplo 6, Êste é na realidade tôda uma classe de exemplos.
Pode-se construir novos produtos internos a partir de um dado
produto interno pelo seguinte método: Sejam V e W espaços veto-
riais sôbre o mesmo corpo e suponhamos que (,) seja um produto
interno sôbre W. Se T é uma transformação linear não-singular de
V em W, então
p 7 {atf;j) = (Ta, T/3)
define um produto interno pr sôbre V. O produto interno do Exem-
plo 4 é um caso particular desta situação. Os que_ seguem também
são casos particulares.
(a) Seja V um espaço vetorial de dimensão finita e seja
(B = {a1' ••. ' a~}
238 ESPAÇOS COM PRODUTO INTERNO

uma base ordenada de V. Sejam e1, ... , en os vetores da base ca•


nônica de F e seja T a transformação linear
11 de V em pn tal que
Ta1 = e;, j = 1, . .. , n. Em outras palavras, seja T o isomorfis-
mo "natural" de V em F" determinado por m. Se tomarmos o pro-
duto interno canônico sôbre pn, então
,,
PrC~ XJaJ, i Ykak) = :Z XJYJ·
i k J-1
Assim, para tôda base ffi de V, existe um produto interno sôbre V
com a propriedade de que (a1, at) = ÓJk; na verdade, é fácil mos-
trar que existe exatamente um tal produto interno. Mostraremos pos-
teriormente que todo produto interno sôbre V é determinado por
alguma base <B da maneira acima.
(b) Consideremos novamente o Exemplo 5. Tomemos V = W,
o espaço das funções contínuas sôbre o intervalo unitário. Seja T
o operador linear "multiplicação por t'', isto é, (Tf)(t) = t/(t),
O < t < 1. É fácil ver que T é linear. T também é nãowsingular;
de fato, suponhamos que Tf = O. Então, tf(t) = O para O< t < l;
logo, f(t) = O para t > O. Como f é contínua temos também /(O),
ou seja, f = O. Usando o produto interno do Exemplo 5, construa-
mos um produto interno sôbre V por

PT(}: g) = fo 1 (T/Xt'J(Tg")(t)dt

r1 /(L)g(J)t
= Ju --
2dt.

Voltemos agora a observações gerais sôbre produtos internos.


Suponhamos que V seja um espaço vetorial complexo com produto
interno. Então, para todos a, fj em V
(a, {3) = Re(a, t,) + ilm(a, t,)
onde Re(a, /3) e lm(a, {"3) são as partes real e imaginária do número
complexo (a, fJ). Se zé um número complexo, então lm(z) = Re(- iz).
Decorre que
lm(a, /3) = Re[ -i(a, P)] = Re(a, i/3).
Assim, o produto interno é completamente determinado por sua
"parte real" de acôrdo com
(8-2) (a, /j) = Re(a, /3) + ;Re(a, i~).
As vêzes é bastante útil saber que um produto interno sôbre um
espaço vetorial real ou complexo é determinado por outra função, a
chamada forma quadrática determinada pelo produto interno. Para
defini-la, indiquemos primeiro a raiz qu~drada positiva de (a, a)
PRODUTOS INTERNOS 239

por llal 1; llal I é


denominada a norma de a em relação ao produto
interno. Observando~ produtos internos canônicos em R 1, C 1, R 2 , e
R 3, o leitor poderá se convencer de que é conveniente considerar a
norma de a como _o "comprimento" ou hmagnitude" de a. A forma
quadrática determinada pelo produto interno é a função que asso-
cia a cada vetor a o escalar llall 2 • Decorre da definitão que
lla: + m12 = !la! l2 + 2Re<.a, 13) + lltill 2 •
Assiin, no caso real,

(8-3) (o:, /j) = 41 !1a 1


+ /J l' 2 1 -
41 11 a - fJ.11 ·,-•

No caso complexo também precisamos usar (8-2) e obtemos uma


expressão mais complicada:

(8-4) (a, /j) = ~ lla + 1311 2 - ~ lia -1ill 2

+ i lla + ;1311 2 - ~ ]la - ;~11 2 •


As equações (8·3) e (8-4) são denominadas as identidades de pola-
rização. Notemos que (8~4) pode também ser escrita como segue:
1
= -4 n "",-.=- l 1•111·la + 1,-,: 1~.
-1
(a:, ,.,R) 'JJI" •J

As observações acima valem para qualquer produto interno sô-


bre qualquer espaço vetorial real ou complexo, não importando sua
dimensão. Voltamos agora ao caso em que V é de dimensão finita.
Um produto interno sôbre um espaço de dimensão finita sempre
pode s"er descrito em têrmos de uma dada base por meio de uma
matriz.
Suponhamos então que V seja de dimensão finita, que
CR = {ai, a2, . . . , an }
seja uma base ordenada de V e que nos seja dado um particular
produto interno sôbre V; mostraremos que êle é completamente
determinàdo pelos valores
(8-5) G;k = (at, a_;)
que assume sôbre pares de vetores em (l\. Se
a = ~
k
Xt..-Ot.k e /3 = ~ YJct.i
J
· 240 ESPAÇOS COM PRODUTO INTERNO

então (a, ~) = ( 1:x•a~, {:J)


k

- 2; y;GjkXk
.i,~
= Y*GX
onde X•. Y são as matrizes das coordenadas de a, /3 etn relação à-
base ordenada <B e G é a matriz com elementos GJ1r. = (att a;). De-
nominamos G a matriz do produto interno em relação à base orde..
nada <B. Decorre de (8-5) que G = G• ou, em outras palavras, que
G é hermitiana; contudo, G não é uma matriz hermitiana tipica.
De fato, pois G deve satisfazer a condição adicional
(8-6) X*GX > O se X ~ O.
Em particular, G deve ser inversível. Caso contrário, existiria urna
X 7'":- O tal que GX = O. Quando escrita explicitamente, (8-6) tor-
na-se
(8-7) x x1GJ1tXk > o, x ;,&- o.
.i,~
Daqui vemos imediatamente que todo elemento diagonal de G deve
ser positivo; no entanto, esta condição sôbre os elementos diago-
nais não é de forma alguma suficiente para assegurar a validez de
(8-6).
~te processo é reversível; isto é, se G é uma n X n matriz
arbitrária sôbre F que satisfaz G = G* e (8·6), então G é a ma-
triz, em relação à base ordenada m, de algum produto interno sô ..
bre V. Tal produto interno é aquêle definido por
(a, fJ) = Y*GX
onde X e Y são as matrizes das coordenadas de a e fJ em relação
à base ordenada <B.
Assim, fixando-se uma base ordenada <B, pode-se obter uma
descrição d.e todos os produtos internos possíveis sôbre o espaço V
de dimensão finita. Por exemplo, podemos· descrever todos os pro•
dutos internos sôbre F" através de suas matrizes em relação à base
ordenada canônica. Todo produto interno sôbre F" é obtido to-
mando-se uma n X n matriz G sôbre F que satisfaça
G = G*
~ G,ixJx" > O, se X -,,t: O
i,lt..
PRODUTOS INTERNOS 241

e definindo então o produto interno de a = (xi, ... , Xn) e


~ - (yi, ... , y,,) por
(a, fJ) == 2; G11cyjX1t = Y*GX.
j,lr..
Para que uma tal descrição seja realmente útil, deve-se definir al-
guma maneira eficaz de se decidir quando é que uma dada matriz
G satisfaz (8-7). Faremos isto posteriormente.

Exercicios
t. Seja V um espaço vetorial e ( , ) um produto interno sôbre V.
(a) Mostrar que (0, /3) - O para todo /J em V.
(b) Mostrar que se (a, /j) =-= O para todo fJ em V, então a - O.
2-. Seja V um espaço vetorial sôbre F. Mostrar que a soma de dois produ-
tos internos sôbre V é um produto interno sôbre V. A diferença de dois
produtos internos é um produto interno'! Mostrar que um múltiplo posi-
tivo de um produto interno é um produto interno.
3. Descrever explicitamente todos os produtos internos sôbre R 1 e sôbre C1,
4. Verificar que o produto interno canônico sôbre F" é um produto interno,
5. Seja ( , ) o produto interno canônico sôbre R 2 •
(a) Sejam a = (l 1 2), fJ = (-1. 1). Se 'Y é um vetor tal que (at y) - -1
e {fJ, ,y) = 3, determinar -y.
(b) Mostrar que para todo a em Rª temos a. = (a, l!1)t: 1 + (a, ea) t2,
6. Seja (.) o produto interno canônico sôbre C 2 e seja T o operador li-
near T(x~, x1) = (-x2, X1). Ora, T é "'a rotação de 9()0'' e possui aproprie-
dade de que (a, Ta) = O para todo a em Ri. Determinar todos os produtos
internos [ 1 ] sôbre R 2 tais que [a, Ta] = O para todo a.
7. Seja ( , ) o produto interno canônico sôbre e~.
Demonstrar que não
existe nenhum operador linear não-nulo sôbre c:1. tal que (a"; Ta) - O para
todo a em C 2• Generaliz.ar.
8. Seja V o espaço das 2 X 1 matrizes sôbre R e seja A uma 2 X 2 matriz
com elementos reais. Para X, Y em V seja
f,t(X, Y) = Y 1AX.
Mostrar que /A é um produto interno sôbre V se, e somente se, A """ A 1,
Au > O, A u > O e det A O. >
9. Seja V um espaço vetorial real ou complexo com produto interno. Mos-
trar que a forma quadrática determinada pelo produto interno satisfaz a
regra do paralelogramo
jja + /jll + li.a- tlH
1 1 """2llall 1 + 2111111 2,

10. Seja ( , ) o produto interno sôbre R definído no Exemplo 2 e seja <B


2

a base ordenada canônica de R ~. Determinar a matriz d~te produto interno


em relação a <B.
11. Mostrar que a fórmu.Ja
( . b •) a;b1,
~ a;x1 , :t kX - ~ .
1 ' J,lt: J
+ k + J
242 ESPAÇOS COM PRODUTO INTERNO

define um produto interno sôbre o espaço R[xJ dos polinômios sôbre o


corpo R. Seja W o subespaço dos polinômios de grau menor ou igual a n.
Restringjr o produto interno acima a W e determinar a matriz dêste pro-
duto interno sôbre W em relação à base ordenada { 1, x, xi .... , x 11 } •
(Sugesrão: Para mostrar que II fórmula define um produto interno, obser•
var que

(/, g) = Íol /(t)g(t)dt


e trabalhar com a integral.)
11. Seja V um espaço vetorial de dimensão finita e seja Os = {a ...... ª" }
uma base de V. Seja ( , ) um produto interno sôbre V. Se e,, ... , e. são
n escalares arbitrários, mostrar que existe exatamente um vetor a em V tal
que (a, a;) = Cj, j = l. ... , 11.
13. Seja V um espaço vetorial complexo. Uma função J de li em V é de-
nominada uma e 1njugaçio (também chamada função semilinear) se J(a. +
+#) = J(a) + J(~). J(ca) = cJ(a) e J(J(a) = a, para todos os escalares e e
todos a, {J em V. Se J é uma conjugação, mostrar que
(a) o conjunto W de todos a em V tais que Ja = a é um espaço ve~
torial sôbre R em relação às operações definidas em V;
(b) para cada a em V existe um único par de vetores /J, ;, em W tais
que a = (J + ;;,.
14. Seja V um espaço vetorial complexo e W um subconjunto de V com
as seguintes propriedades:
(i) W é um espaço vetorial real em relação às operações definidas em V.
(ii) Para cada a em V existe um único par de vetores /3. 1' em W, tais que
a +
=-- fJ i-y. Mostrar que a equação Ja "'"' fJ - i,, define uma conjugação
sôbre V tal que Ja = a se, e somente se, a pertence a W e mostrar tam-
bém que J é a única conjugação sôbre V com esta propriedade.
15. Determinar tôdas as conjugações sôbre C 1 e C''.
1,. Seja W um subespaço real de dimensão finita de um espaço vetorial
complexo V. Mostrar que W satisfaz a condição (ii) do Exercício 14 se, e
somente se, tôda base de W é também uma base de V.
17. Seja V um espaço vetorial complexo, J uma conjuR&ção sôbre V, W
o conjunto dos a em V tais que Ja = a e f um produto jnterno sôbre W.
Mostrar que
(a) existe um único produto interno g sôbre V tal que g(a, tJ) = /(a, /3)
para todos a, (j em W.
(b) g(Ja, JfJ) """ g(/1, a) para todos a, f:J em V.
O que à parte (a) diz acêrca da relação entre os produtos internos canôni-
cos sõbre R e e• ou sõbre R" e 0 '?

8. 2 F.apaços com Produto Interno


Agora que temos alguma idéia sôbre o que um produto inte-
no é, voltaremos nossa atenção para o que pode ser dito a respeito
da combinação de um espaço vetorial e algum produto interno par-
ESPAÇOS COM PRODUTO INTERNO 243

ticular sôbre êle. Especificamente, estabeleceremos as propriedades


básicas dos conceitos de ºcomprimento~' e ºortogonalidade" que
slo impostas ao espaço pelo produto interno.
Definlçlo. Um espaço com produto interno é um espaço vetorial
real ou complexo, munido de um produto especificado sôbre aquêle
espaço.
Um espaço real com produto interno e de dimensão finita é
freqüentemerite denominado um espaço euclidiano. Um espaço com-
plexo com produto interno é freqüentemente dito um espaço unitário.
Teorema 1. Se V é wn espa~·o com produto interno, então, para
quaisquer vetores a, fJ em V e todo escalar e
(a) licall = lei llall;
(b) llall > O para a ~ O;
(e) l(a,~)I < llal 111~1[;
(d) !la+/311 < llall + !l/311.
Demonstração. As afirmações (a) e (b) decorrem quase imediata-
mente das diversas definições envolvidas. A desigualdade em (e)
é evidentemente válida quando a = O. Se a ~ O, coloquemos
(P,a)
'Y = (3 - l/all 2 a.

Então (1', a) = O e

O< li 112 ( (/3,a) R (ft,a) )


- 'Y = 13 - lla/1 2 a,~ - llal! 2 a
(~~-;)
= (/3, /3) - llal 12 (fJ, a)

= IIPI 12 - l(a, D)l2.


llall 2
Logo /(a, /3)1 2 < lla:ll 2 llPll 2 • Usando agora (e) concluimos que
jfa + Jj!l llall 2 + (a, /3) + (fJ, a)+ ll-'ll 2
2 =
= llall 2 + 2Re(a, ft) + IIHll 2
< 1lall 2 + 2Jlall 2 llPII + ilBH 2
= (llall + IIPll)2 •
Assim, li« + .Bli < llad/ + j/.BH, o que demonstra (d).
244 ESPAÇOS COM PRODUTO INTERNO

Observação. A desigualdade dada em (e) é denominada a desi-


gualdade de Cauchy-Schwarz. Elo possui uma ampla gama de apli-
cações em matemática.
Exemplo 7. Aplicando a desigualdade de Cauchy-Schwarz aos
produtos internos dados nos Exemplos l, 2, 3 e S obtemos o seguinte:
(a) II X1eY•I < (:t lxtl2)112(X IY.tl 2 ) 112
{b) /x1y1 - X2Y1 - x1.V2 + 4"x2Y2i
< ((x1 - x2) 2 + 3xl)112((.v1 - y2) 2 + 3y:J1 t2
(e) jtr (AB•)[ < ltr (AA.*)j 112 jtr (BB*)l 1/ 2
(d) f!o J(x)g(x)dx\ < (fu j/(x)l dx)
1 1 2 112(Jo 1
dx)1 12 •
1g(x)l 2

Definição. Sejam a e f3 vetores num espaço V com produto in- ·


terno. Dizemos que a e {3 são ortogonais se (a, fj) = O. Se S é um con•
junto de vetores em V, dizemos que S é um conju~to ortogonal se dois
quaisquer vetores distintos em S são ortogonais. Um conjunto orto-
normal é um conjunló ortogonal S, com a propriedade adicional de
que j lal r = 1 para todo a em S.
O vetor nulo é ortogonal
,. a todo vetor em V e é o único vetor
com esta propriedade. E conveniente pensar em um conjunto orto-
normal como um conjunto de vetores mutuamente perpendiculares,
cada um tendo comprimento 1.

Exemplo 8. A base canônica de R" ou de C" é ortonormal em


relação ao produto interno canônico sôbre R" ou C".

Exemplo 9. Seja V o espaço das n X n matrizes complexas e


E a matriz cujo único elemento não-nulo é um I na linha p e coluna
1" 1

q. Então, o conjunto de tôdas estas matrizes EP" é ortonormal em re-


lação ao produto interno dado no Exemplo 3. De fato, pois
(EVIJ, E") = tr (E 1" 1E' 7 ) = 8q, tr (EPr) = ô,,," Ôpr•
Exemplo 10. Se V é o espaço das funções contínuas definidas
sôbre o intervalo O < x < I e tomando valores complexos ( ou
valores reais), com o produto interno

(/, g) = J,1 f(x)g(x) dx

e se J~(x) = V2 cos 2r nx
g,a(x) = \/ 2 sen 2 1r nx
ESPAÇOS COM PRODUTO INTERNO 245

então S = { 1, /1; g1, /2, g2, .. . } é um conjunto ortonormal. No


caso complexo, se
hn(X) = e'J,TCinx, n = o, :t. 1, + 2, ...
então S = {hn} é um conjunto ortonormal. Estamos supondo qu~
o leitor tenha familiaridade com o cálculo das integrais acima. De•
ve-se notar que ambos os conjuntos há pouco exibidos são infinitos.
Teorema 2. Um conjunto ortogonal de vetores não-nulos é li·
nearmente independente.
Demonstração. Seja S um conjunto ortogonal de vetores não-
nulos num espaço com produto interno. Suponhamos que a1,a2, ••• ,
am sejam vetores distintos em S e que
/3 = C1a1 + C2a2 + .. , + Cmam,
Então ({3, t'.kk) = l:_; (Cjn'.j, ak)

- Ck (aa:, a.t).
Como («t, a.t) ;;.d: O, decorre que
(/3, a_..)
C1.: = 'I
l!a.t
112 '
1
l < k < m.
Assim, quando /3 = O, cada c1c = O; logo S é um conjunto indepen-
dente.
Corolário. Se um vetor ~
é uma combinação linear de um con-
junto ortogonal de vetores não-nulos ai, a2 •.•• , am, então {3 é exa..
tamente a combinação linear
R - : ({3, O!k)
(8-8) ,., - .t ..
""' l 11 ak,11 2 ªt-

~ste corolário decorre da demonstração do teorema. Existe


um outro corolário· que, apesar de evidente, deve ser mencionado.
Se {ai, ... , ª'"} é um conjunto ortogonal de vetores não-nulos em
um espaço V de dimensão finita com produto interno1 então m <
dim V. Intuitivamente, isto diz que o número de dimensões mutua-
mente ortogonais no espaço não pode exceder a dimensão do es-
paço, algebricamente definida. O número máximo de direções orto-
gonais em V é o que provàvelmente se consideraria como sendo a
246 ESPAÇOS COM PRODUTO INTERNO

dimensão geométrica de Y, e acabamos de ver que esta não é maior


que a dimensão algébrica. Evidentemente, veremos sem grande sur-
prêsa que estas duas dimensões são idênticas.
Teorema 3. Todo espaço de dimensão finita com produto inter•
no possui uma base ortonormal.
Demonstração. Seja. V um espaço com produto interno e {/J.,
•• -. , fJ,.} uma base de V. A partir desta base, vamos obter uma base
ortogonal, por meio de uma construção conhecida como o processo
de ortORonalização de Gram-Schmidt. Em primeiro lugar, seja a1 = fJ1.
Então
(fJ2a1)
a2 = /32 - lla1ll2 a1.

Como tli e /j2 são linearmente independentes, cr2 ~ Oe, por cálculos
diretos, vemos que -(a2, a1) _= O. Seja agora
(fJa, a1) <Pa, a2)
a:i = fJa - ll«t 11 2 ª 1 - / la2l l2 ª 2 •
' .
Então a 3 ;il! O, pois caso contrário, Ra seria uma combinação linear
de /31 e fJ2; além disso, {a3, a1) = (aa, a2) = O. Suponhamos agora
que tenhamos construído vetores ortogonais não-nulos a1, a2, ..• , a1:
de maneira tal que a; seja /Ji menos uma certa combinação linear de
!11, ~2, •• , IJi-1 para 2 < j < k. Seja

(8-9)

Então

,a/ t+ •
1, a;) =
(
fJ.1: + 1, a;) -
, _ 1
I (f:'.1:+1,aJ)
~ ,I ·li 2 (crj, a;}
1 ª' .
= ('3.1:+1, a;) - (fJ1:+1, a;)
= O, 1 < ; < k.
Assim, a1:+ 1 é ortogonal a cada um dos vetores a 1, a 2 •••• , cu. Su-
ponhamos que at + 1 = O. Então /31i + 1 seria uma combinação de ai,
a2, .•• , a1: e, portanto, de fJ1, fl2, ••• ,,3.1:. Assim, a1:+ 1 ~ O e, con-
tinuando desta forma, obteremos no final um conjunto ortogonal
não-nulo { a1, a2, •.. , ª•} contendo n vetores distintos. Pelo Teo:..
rema 2. êste conjunto é independente, logo é uma base. Para obter
uma base ortonormal basta substituir cada
.
a; por 1,ª~l
a, i
1•
ESPAÇOS COM PRODUTO INTERNO 247

tste teorema nos mostra que o número máximo de vetores em


um subconjunto ortonormal de V é dim V. ~le também nos mostra
outro fato, que deve ser mencionado.
Suponhamos que V seja um espaço vetorial de dimensão finita
sôbre o corpo dos números reais ou sôbre o_ corpo dos números com--
plexos. Na última seção ressaltamos que todos os produtos internos
possíveis sôbre V podem ser descritos por meio de certas matmes
hermitianas. Com o Teorema 3, pode-se fazer uma descrição dife;.
rente de todos os produtos internos sôbre V. Uma maneira de defi-
nir um produto interno sôbre V é esta: Tomar uma base arbitrária
{ a 1 , . . • , a,.} de V e definir o produto interno de a = x1a1 + x.a,.
e /j = y1a1 + ... + y""" por
,,
(a, /3) =j 2::... JXJY i•
Em relação êsse produto interno, { a1, ..• , ª" } é uma base orto-
normal. O que o Teorema 3 nos diz é que todo produto interno sô-
bre V surge desta maneira, isto é, que êste é o único tipo de produto
interno que existe sôbre V. De fato, pois se ( , ) é um produto in•
terno, existe uma base { a 1 , ••• ,an} de V que é ortonormal em re-
lação a êste produto interno. Como (a;, aA) = 8Jk, é imediato que
n
(.t XJa.;, 1; YkQ.1:) = .t xjyJ.
j * j - 1

Definiçio. Seja V um espaço com produto interno e seja S um


conjunto arbitrário de vetores em V. O suplementar ortogonal de Sé
o conjunto S1 de todos os vetores em V que não são ortogonais a todo
vetor em S.
Se Sé um subconjunto arbitrário de V, o suplementar ortogo-
nal S1 (S perpendicular) é um subespaço de V. De fato, pois S1
contém o vetor nulo e é portanto não-vazio. Sejam a e f3 em S1 e
seja e um escalar arbitrário. Para todo vetor a em S temos
(ca + ~' ,y) = c(a, "Y) + (~, -y)
= cO + o
=0
o que mostra que ca + f3 está em si.. O suplementar ortogonal de
V é o subespaço nulo, e reciprocamente.
Teorema 4. Se W é um subespaço de dimensão finita de um es..
paço V com produto interno, então
V= WEB W 1 •
248 ESPAÇOS COM PRODUTO INTERNO

Demonstração. Seja {a 1, a2, ... , a,,.} uma base ortogonal qual-


quer de W; a existência de uma tal base é garantida pelo Teorema 3.
Se f3 é um vetor qualquer em V,
"' (f3, a,)
13 = ?
k - 1
11 1i 2
ak j
ª" + ,.,
onde
'" (ft, a,)
,, = fJ - .t -1
: 11
a1
11 2 a.1 .

Como ("Y,«i) = O para todo ai, decorre que 'Y é ortogonal a tôda
combinação linear de a1, 0:2, .•• , a,,.; logo, V = W + Wl. Se a
pertence a W e também a w.1J então {a, a) = O, o que mostra que
a == O. Assim, V é a soma direta de W e W1 •
Corolário. Seja {a1, ... , a .. } um conjunto ortogonal de vetore1
não-nulos em um espaço V com produto interno. Se ~ é um vetor arhi-
trário em V, entao
';; /(~, a1:)~ 2 < 1l~l l2•
llai:11
,t - 1

Além disso} a igualdade vale se, e somente se,


M ~' OJ:)
fj = J: l:... 1 ·11 1 i 2 «.t,
at i

Demonstração. Seja
• (13, a.t)
8 =Je ~• 1 11
10:.t
112 a1.

Então /3 = a+ "Y, onde (8, 'Y) = O. Logo


1,/J l l 2 == ( a + 'Y, 8 + ,-) = 11811 2 + 1h-11 2•
Agora basta demonstrar que
118112 = X l(f3,ak~l2.
t - 1 1 lo:kl)
Isto é U:m cálculo imediato, usando o fato de que (aJ,a.t) = O paraj ~ k.
A desigualdade no corolário cima é conhecida como a desi-
paldade de Bessel. No caso particular em que {a 1, ••• , a,,.} é um
conjunto ortonormal, a desigualdade de Bessel diz
ESPAÇOS COM PRODUTO INTERNO 249

O corolário também nos diz que, neste caso, /j está no subespaço


gerado por a:1, ••• , a,.. se, e somente se,
,,,
fJ =
,-1(/J,
l; ak}ak

ou seja. se, e somente se, a desigualdade de Bessel é, na verdade,


uma igualdade. É claro que, no caso de V ser de dimensão finita
e {a 1, ••• , a.,.} ser uma base ortonormal de V, a fórmula acima vale
para todo vetor fJ em V. Em outras palavras, se {a1, ..• , ª"' } é uma
base ortonormal de V, a k-ésima coordenada de fJ em relação à base·
ordenada { a1, ..• , ª"'} é (fJ, cu).
Exemplo 11. Aplicaremos o último corolário_ aos conjuntos orto-
normais descritos no Exemplo 10. Concluímos que

(a) i
,t ,. -n
lf~J(t)e-2.ri~tdtl2 < Íol lf(t)l2dt
(b) j/ /t}-• c•e••'4'1 dt = t~-)c,1
2 2

(c) fo (\/2 cos 21rt + V2 sen 4rt) dt = l + 1 = 2.


1 2

Se W é um subespaço de dimensão finita de um espaço V com


produto interno, já mostramos que V = W EB W.l. Decorre que
existe uma única projeção· E com imagem W e núcleo Wl. Deno-
minamos esta projeção E a projeção ortogonal de Y sôbre W. Lem-
bramos ao leitor que E é o operador linear definido como segue:
Se a está em V, escrevamos a = fj +
'Y, com fJ em W e 'Y em W1 •
Então Ea = fj. Se { a1, ... , ª"'} é uma base ortogonal arbitrária de
W, a demonstração do Teoren1a 4 nós mostra uma fórmula explí·
cita para a projeção ortogonal E em têrmos dos vetores a:1, .•. , ª"':
m (fJ, 0:AJ
(8-10) Efj = l };• 1 li a1; 112 ª"·
1

Exercícios

1. Consideremos R4 com o produto interno canônico. Seja W o subespaço


de R 4 formado pelos vetores que são ortogonais a a = (1, O, - lt 1) e a
/J "'" (2, 3, - 1. 2). Determinar uma base de W.
2. Aplicar o processo de Gram-Schmidt aos vetores /11 = (1, O, 1), ·fj2 -
- (1, O, - 1), fJ 3 = (0, 3, 4), para obter uma base ortonormal de Rs com
o produto interno canônico.
3. Consideremos C J com o produto interno canônico. Determinar uma
base ortonormal do subespaço gerado por /J1 - (1 1 O, i) e fJ~ = (2, l, 1 + i).
250 ESPAÇOS COM PRODUTO INTERNO

4. Seja V .um espaço com produto interno. A distância entre dois vetores
a e /j em V é definida por
d<.a, /12) - lla - PII-
Mostrar que
(a) d(a, fj) > O;
(b) .d(a, 13) = O se, e somente se, a - 13;
(e) df.a, fJ) == d(./3, a);
(d) d(a, /J) < d(a, -y) +
d(-y, fJ).
5. Seja V um espaço com produto interno e sejam a, fJ vetores em V. Mos-
trar que a - fJ se, e somente se, (a, -y) - (~, ,.) para todo ,, em V.
6, Seja W o subespaço de R 2 gerado pelo vetor (3, 4). Usando o produto
interno canônico, seja E a projeção ortogonal de R :1 sôbre W. Determinar=
(a) uma fórmula para E(xh x2);
(b) a matriz de E em relação à base ordenada canônica;
(e) w.1; .
(d) uma base ortonormal em relação à qual E seja representada pela
matriz

[b 8] ·
7. Seja V o espaço com produto interno que consiste de R:1 com o produto
interno cuja forma quadrática é definida por
ll(x1, Xi)l l 2 = (x1 - X2) 1 + 3x:,
Seja E a projeção ortogonal de V sôbre o subespaço W gerado pelo vetor
(3, 4). Responder agora às quatro questões do Exercício 6.
8. Determinar um produto interno sôbre R• tal que (e., e:1) = 2.
9. Seja Y um espaço com produto internot W o subespaço gerado por um
vetor não-nulo a e E a projeção ortogonal de V sôbre W. Se pé um vetor
em Y, mostrar que
1IJS- Etil 1< IIP - 1'11
para todo -y em W. O que isto diz geometricamente?
10. Seja V o subespaço de R(x] formado pelos polinômios de grau no má-
ximo 3. Equipemos V com o produto interno
(/. g) • J:' /Ct)g(t)dr.

(a) Deternúnar o suplementar ortogonal do subespaço dos polinômios


constantes. .
(b) Aplicar o processo de Gram-Schmidt à base { 1. x, x 1 ; x 3 } •
11. Seja V o espaço vetorial das n X n matrizes sôbre C, com o produto
interno (A, B) - tr (AB*). Determinar o suplementar ortogonal do subes-
paço das matrizes diagonais.
12. Seja V um espaço de dimensão finita com produto interno e seja
{a,, ... , ª•} uma base ortonormal de V. Mostrar que para quaisquer
vetores a, fJ em V -
.
(a, fJ) ""' E (a, a.1:)(13, at).
1-1
FUNCIONAIS LINEARES E ADJUNTOS 251

13. Seja W um subespaço de dimensão finita de um espaço V com produto


interno e seja E a projeção ortogonal de V sõbre W. Demonstrar que
(&, /J) = (a, E{J) para todos a, fl cm V. .
14. Seja S um subespaço de um espaço V com produto interno. Mostrar
que (S.L)..L contém o subespaço gerado por S. Para Y de dimensão finita,
mostrar que (S.L)J. é o subespaço gerado por S.
15. Seja V um ~paço de dimensão finita com produto interno e seja
ffl = {a1 •••• , ª" J uma base ortonor~I de V. Seja T um operador linear
sôbre V e A a matriz de T em relação à base ordenada CB. Demonstrar que
Ãij '""' (Ta;, «i),
16. Suponhamos que V ,_ W1 ED w~ e que J;. e /2 sejam produtos inter•
nos sõbre W1 e W, respectivamente. Mostrar que existe um único produto
interno / sõbre V tal que
(i) W, = W1.1;
(ii) /(a, fl) = /,i,_a~ fj), quando a. fJ estão em W1, k ... 1, 2.
17. Seja V um espaço com produto interno e W um subespaço de V de di•
mensão finita. Existem (em geral)- muitas projeções que têm W por sua ima•
gem. Uma destas, a projeção ortogonal sôbre W, tem a propriedade de
que IIEcrll < l!all para todo a em V. Demonstrar que se E é uma projeção
com imagem W. tal que l!Ea!I < ]la\l para todo o: em Y, então E é a pra.
je.ção ortogonal sôbre W.
18. Seja V o espaço real com produto interno que consiste do espaço das
funções contínuas, definidas no intervalo - 1 < t < 1, tomando valores
reais, com o produto interno

(f, g) = f\/(t)g(t)dt.

Seja W o subespaço das funções inipan:s, isto é, funções que satisfaz.em


= - /(1). Determinar o suplementar ortogonal de W.
/ ( - t)

8. 3 Funcionais Uneares e Adjuntos


A primeira parte desta seção trata dos funcionais lineares sôbre
um espaço com produto interno e de sua relação com o produto
interno. O resultado fundamental é que todo funcional linear f sôbre
um espaço de dimensão finita com produto interno é o ''produto
interno por um vetor fixo no espaço'', isto é, que um tal/ é da forma
/(a) = (a,/3), para um certo /3 fixo em V. Usaremos êste resultado
para demonstrar a existência do "adjunto" de um operador linear
Tsôbre V, sendo êste um operador linear T* tal qu~ (Ta,$)= (a,T*d)
para todos a e (j em V. Através do uso de uma base_ ortonormal, esta
operação de conjugação sôbre operadores lineares (passando de T·a
· T*) é identificada com a operação de se tomar a transposta conju•
gada de uma matriz. Vamos explorar superficialmente a analogia·
entre a operação de conjugação e a conjugação sôbre números com-
plexos.
252 ESPAÇOS COM PRODUTO INTERNO

Seja V um espaço arbitrário com produto interno e seja /3 um


certo vetor fixo em V. Definamos uma função /tJ de V no corpo de
escalares por

Esta função ftJ é um funcional linear sôbre V, pois, por sua própria
definição, (a,{J) é linear como uma função de a. Se V é de dimensão
finita, todo funcional linear sôbre V provém desta maneira de al~
gum (3.
Teorema 5. Seja V um espaço de dimensão finita com produto
interno e f um funcional linear sôbre V. Então existe um único vetor
13 em V tal que f(a) = (a,~) para todo a em V+
. Demonstração. Seja {a1, a2, ... , an} um base ortonormal de V.
Coloquemos

{8-11) /3 = 2:" f(aj)aj


)=1

e seja /tJ o funcional linear definido por


/,la) = (a,/3).
Então
f{J(ak) = (at, ; J(a_;)et1-} == J(ak).
J

Como isto é válido para todo ak, decorre que f = ÍfJ· Suponhamos
agora que ,y seja um vetor em V tal que (ail) = (a,-y} para todo a.
Então (p - -y,{3 - ,y) = O e /J = -y. Assimt existe exatamente um
vetor /3 que determina o funcional linear/ da maneira afirmada.
A demonstração dêste teorema pode ser ligeiramente reformu-
lada, em têrmos da representação de funcionais lineares em relação
a uma base. Se tomarmos uma base ortonormal { a1, •.. , a,. J de
V, o produto interno de a = X1a1 + ... + Xnan e 13 = y1a1 + ... +
+ Y•ªn será
{a,/j} = X1)'1 + . .. + XnYn•

Se fé um funcional linear arbitrário sôbre V, então/ é da forma


f(a) = C1X1 + ... + C,iXn
- ,
para certos escalares fixos c1, ... , cn determinados pela base. E
claro que CJ = f(a.1)- Se desejamos encontrar um vetor {3 em V tal
FUNCIONAIS LINEARES E ADJUNTOS 253

que (a,fj) = /(a) para todo a, então evidente!_llente as coordenadas Yi


de fj devem satisfazer Yi = Citou seja, Yi = f(a;). Conseqüentemente
f'3 = f (a1'Ja1 + . . . + f(an)a,.
é o vetor desejado.
Exemplo 12. Gostaríamos de dar um exemplo que mostre que
o Teorema 5 não é válido sem a hipótese de V ser de dimensão finita.
Seja V o espaço vetorial dos polinômios sôbre o corpo dos números
complexos, com o produto interno

(/, g) = fo 1 ,J(t)g(t)dt.

~..ste produto interno pode também ser definido algêbricamente. Se


f = X a1ex1: e g = ~ h1tx 1\ então
1
(f, g) ~ .+ k
= J,k. + l Ojbk,
j

Seja z um número complexo fixo e seja L o funcional linear ºvalor


que assume em z":
= /(z). L(f)
Existe um polinômio g tal que (/ g) = 4/) para todo/'! A resposta
1

é negativa; de fato, suponhamos que se tenha


/(z) = lo /(t)g(t)dt
l

para todo/. Seja h = x - z, de modo que para todo f temos (h/)


(z) = o·. Então

0 = lo h(_t)f(t'X,gt)dt
l

para todo .f. Em particular, isto vale para/ = hg de modo que

f/ jh(t)/ 2 lg(t)I 2dt = o


e entio hg = O. Como h ~ O, devemos ter que g = O. Mas L não
é o funcional nulo; logo, nenhum tal g existe.
Pode-se, num certo sentido, generalizar o exemplo, para o caso
em que L é uma combinação linear de funcionais do tipo acima.
Suponhamos que tomemos números complexos fixos z1, ... , Zn e
escalares Ct, •.• , Cn e SCJa
L(/) = c1/(z1) + . . . + c,,J(zn)-
254 ESPAÇOS COM PRODUTO INTERNO

Então L é um funcional linear sôbre V~ mas não existe nenhum g


tal que L(f) = (f, g), a menos que c1 = c2 = ... = cn = O. Bastar
repetir o argumento acima com h = (x - z1) ... (x - Zn),
Voltamos agora ao conceito do adjunto de um operador linear.
Demonstraremos primeiro o que segue.
Teorema 6. Para qualquer operador linear T sôbre um espaço
V de dimensão finita com produto interno, existe um único operador
linear T* sôbre V tal que
(8-12) (Ta, /3) = (a, T*/3)
para todos a,/3 em V.
Demonstração. Demonstraremos que existe um tal operador li-
near T*. Seja /3 um vetor em V; definiremos T*/3. Ora,/(a) = (Ta,f3)
é um funcional linear sôbre V e o Teorema 5 nos diz que existe um
vetor (3' em V tal que (Ta,/3) = (a,/3') para todo a. tste {3' é deter-
minado de modo único por f3 e a regra que associa /3' a /3 será cha-
mada de T*:
{f' = T*{:J.
Temos (8-12)t mas precisamos verificar que T* é um operador linear.
Sejam {3, 'Y em V e seja e um escalar. Então, para qualquer a
(a, T*(c{3 + -y)) = (Ta, ct, + 'Y)
= (Ta, c{J) + (Ta, 'Y)
= c(Ta, /3) + (Ta,y)
= c(a, T*/3) + (a, T*'Y)
= (a, cT*/3) + (a, T*'Y)
= (a, cT*/3 + T*..,,).
Assim, T*(c/3 + 'Y) = cT*/3 + T*'Y e T* é linear.
A unicidade de T* é evidente. Para li arbitrário em V, o vetor
T*fJ é determinado de modo único como sendo o vetor /3' tal que
(Ta, fJ) = (a, /3') para todo a.
Teorema 7. Seja V um espaço de dimensão finita com produto
interno e seja CB = {a 1 , ••• , a,.} uma base ortonormal (ordenada) de
V. Seja Tum operador linear sôbre V e seja A a matriz de Tem re-
lação à base ordenada IB. Então AkJ == (Ta:h ak)-

Demonstração. Como <B é uma base ortonormal, temos


n
a = 2: (a, a1:)a.t.
k•l
FUNCIONAIS LINEARES E ADJUNTOS 255

A matriz A é definida por

Ta; =
" A1.:.;a1=
~
,t =1
,.
e como Ta1 = 2; (TaJ, a,)a1:
.t .. 1

temos Allj =- (T«i, ai).


Corolário. Seja V um espaço de dimensão finita com produto
interno e seja T um operador linear sóbre V. Em relação a qualquer
base ortonormal de V, a matriz de T* é a transposta conjugada da
·matri'Z de T.
Demonstração. Seja <i = {a1t a,. } uma base ortonormal de
••• ,
V, seja A = ID<B e B = [T*Jm- De acôrdo com o Teorema 7,
A1c; = (Tai, aA:)
Bti = (T*ah a:1:).
Então, pela definição de T*, temos
B1:1 = (T*a1, aA:)
= (a~, T*a.1)
= (Tak, a;)
= Âjk•

Definição. Seja T um operador linear sôbre um espaço V com


produto interno. Dizemos que T possui um adj1_1nto se existe um ope-
rador linear T* sôbre V tal que (Ta, fj) = (a, T*{j) para todos a e
fJ em V.
A afirmação do Teorema 6 é que todo operador linear sôbre
um espaço de dimensão finita com produto interno possui um ad ..
junto. Isto não mais vale se V não é de dimensão finita. Em qualquer
caso, existe no máximo um tal operador T*; quando existe, derto-
minamo~lo o adjunto de T.
Dois comentários devem ser feitos acêrca do caso de dimensão
finita. (1) O adjunto de ·T depende não só de T, mas também do
produto interno. (2) Para um base ordenada arbitrária m, a relação
[T]<P, e [T*Jm é m~is complicada que a apresentada no corolário
acima.
Exemplo 13. Seja V o espaço das n X 1 matrizes complexas,
com o produto interno (X, Y) = Y*X. Se A é uma ·n X n matriz
256 ESPAÇOS COM PRODUTO INTERNO

com elementos complexos, o adjunto do operador linear X ---i' AX


é o operador X ---i' A* X. De fato, pois
(AX, Y) = Y*AX = (A*Y)*X = (X, A*Y).
O leitor deverá se convencer de que isto é na realidade uma refor-
mulação do último corolário.
Exemplo 14. tste é semelhante ao Exemplo 13. Seja V o espaço
das n X n matrizes complexas, com produto interno (A, d) =
= tr (B* A). Seja M uma n X n matriz fixa sôbre C. O adjunto da
multiplicação à esquerda por M é a multiplicação à esquerda por
M*. Evidentemente, "multiplicação à esquerda por M" é o ope-
rador linear LM definido por L~A) = MA.
(LM(A), B) = tr (B*(MA))
= tr (MAB*)
= tr (AB*M)
= tr (A(M* B)*)
= (A, LM*(B) ).
Assim, (LM)* = LM*· No cálculo acima, usamos duas vêzes a pro-
priedade característica da função traço: tr (AB) = tr (BA).
Exemplo 15. Seja V o espaço dos polinômios sôbre o corpo
dos números complexos, com o produto interno

(/, g) = Ío 1
f(t)g(J)dt.

Se/ é um polinômio,/= X akxk, seja/= 2; a,4:x.t. Isto é,/ é o poli-


mônio cuja função polinomial associada é a complexa conjugada
da de/:
l(t) = t real
J(t),
Consideremos o operador "multipJicação por/'', isto é, o operador
linear mi definido por mj(g) = fg. Então êste operador possui um
adjunto, a saber, a multiplicação por]. De fato, pois
(Mj(g), h) = (Jg, h)

= j/ f(t)g(_t)h{t)dt
= fo 1
g(tXJ(t)h<.tJJdt
= (g, ]h)
= (g, M7(h))
e portanto (MJ)* = M1 .
FUNCIONAIS LINEARES. E ADJUNTOS 257

Exemplo 16. No Exemplo 15, vimos que alguns operadores li-


neares sôbre um espaço de dimensão finita com produto interno
possuem um adjunto. Como comentamos anteriormente, outros não
o têm. Seja V o espaço com produto interno do Exemplo 15 e seja
D o operador derivação sôbre C [x]. A integração por partes móstra
que
(Df, g) = /(l)g(l) -/(O)g(O) - (/, Dg).
Fixemos g e perguntemos quando é que existe um polinômio D•g
tal que (Df, g) = (/, D*g) para todo f. Se um tal D*g existe, temos
(f, D*g) = f(l)g(I) -/(O)g(O) - (/, Dg)
ou
.
seJa, (f, D*g + Dg) = /(l)g(l) -/(O)g(O) .
Com g fixo, L(f) = ft l )g( 1) -/(O)g(O) é um funcional linear do
tipo considerado no Exemplo 12 e não pode ser da forma L(/) = (f, "h)
a menos que L = O. Se D*g existe, então com h = D*g + Dg
temos de fato L(f) = (f, h), e então g(0) = g(l) = O. A existencia
de um polinômio adequado D*g implica g(0) = g(l) = O. Reclpro-
camente, se g(O) = g(l) = O, o polinômio ·n•g = - Dg satisfaz
(Df, g) = (/, D*g) para todo/. Tomando um g qualquer para o
qual g(0) ;,1. O ou g(l) '#- 0J não podemos definir D*g de modo
conveniente, portanto, concluímos que D não possui adjunto.
Esperamos que êstes exemplos aumentem a compreensão do
leitor quanto ao adjunto de um operador linear. Vemos que a ope-
ração de conjugação, que faz passar de T a T*, se comporta um
pouco como a conjugação sôbre números complexos. O teorema se-
guinte fortalece esta analogia.
Teorema 8. Seja V um espaço de dimensão finita com produto
interno. Se T e U são operadores lineares sóbre V e e é um escalar
( a) (T + U)* = T* + U *;
(b) (cT)• = cT*;
(e) (TU)* = U *T*;
(d) (T•)* = T.
Demonstração. Para demonstrar (a)
( (T + U')a, /3) = (Ta + Ua, /j)
= (Ta, /3)+ (Ua, /3)
= (a, T*fJ)+ (a, U*{J)
= (a, T*fj +U*{J)
= (a, (T* + U*)fJ).
258 ESPAÇOS COM PRODUTO INTERNO

Pela unicidade do adjunto temos (T + U)• = T* + u•.


Deixa-
mos a demonstração de (b) a cargo do leitor. Obtemos (e) e (d) a
partir de
(TUa, fJ) = (Ua, T*/3) = (a, U*T*fJ)
(T•a, fJ) ~ (fJ, T*~) = (TfJ, a) = (a, T{:1).
O Teorema 8 é freqüentemente formulado como segu:: a apli·
cação T -+ T* é um anti..isomorfismo linear-conjugado de período
2. A analogia com a conjugação complexa que mencionamos acima
é, evidentemente, baseada na observação de que a conjugação com-
plexa tem as propriedades (21 + z2) = z1 + z2, (z1z2) = z1z2,
z = z.
Deve-se ter o cuidado de observar a inversão da ordem num pro-
duto, imposta pela operação de conjugação: (Un* = T*U*. Men-
cionaremos extensões da analogia à medida que prossigamos nosso es-
tudo de operadores lineares sabre um espaço com produto interno.
Podemos mencionar .alguma coisa nesse sentido agora. Um núme-
ro complexo z é real se, e somente se, z = z. É de esperar que
os operadores lineares T tais que T == T* se comportem, de certa
maneira, como os números reais. É isto o que realmente ocorre.
Por exemplo, se T é um operador linear sôbre um espaço complexo
de dimensão finita com produto interno, então
(8-13)
onde U1 = U*1 e U2 = 1?2. Assim, de certa forma, T possui
uma "parte real" e uma "parte imaginária". Os operadores Ui e
U2 que satisfazem. U1 - U*2, U2 = U*1 e (8-13) são únicos e são
dados por
1
U, = -2 (T + T*)
1
U2 = 2i (T - T*).

Um operador linear T tal que T = r• é dito auto-adjunto ou


(hermitiano). Se <B é uma base ortonormal de V, então
[T*]m = [T]re
e então T é auto-adjunto se, e somente set sua matriz em reJação a
tôda base ortonormal é uma matriz auto-adjunta. Operadores auto-
-adjuntos são importantes, não só porque nos fornecem uma espé ..
cie de partes real e imaginária de um operador linear arbitrário,
mas também pelas seguintes razões: (1) Operadores auto-adjuntos
FUNCIONAIS LINEARES E ADJUNTOS 259

possuem muitas propriedades especiais. Por exemplo, para um ope•


rador dêste tipo, existe uma base ortonormal formada por vetores
característicos. (2) Muitos operadores que surgem na prática são
auto•adjuntos. Consideraremos posteriormente as propriedades es·
peciais dos operadores auto-adjuntos.

Execcícios
1. Seja V o espaço C l, com o produto interno canônico. Seja T o opera-
dor definido por Te 1 ""' (1, -2), Tei """ (i, -1). Se a = {x 1 , x,), determi-
nar T*a.
2. Seja T o operador linear sôbre C,. definido por Tu = (1 + i, 2),
Te1 = (i, i). Usando o produto interno canônico, determinar a matriz de
T* em relação à base ordenada canônica. T comuta com T* '?
3. Suponhamos que V seja C 2 com o produto interno canônico. Seja T o
operador linear sôbre V cuja matriz em relação à base ordenada canônica
é definida por
A;k = ;iH, (i 2 = -1).

Determinar wna base do núcleo de r•.


4. Seja V um espaço de dimensão finita com produto interno e T um ope-
rador linear sôbre V. Se T é inversível, mostrar que r• é inversível e 1cr•r
- (11)•.
5. Seja V um espaço com produto interno e 6, 'Y vetores fixos em V. Mos-
trar que Ta = (a, t,}y define um operador linear sôbre V. Mostrar que T
possui um adjunto e descrever T* ex:pllcit~mente.
Suponhamos agora que V seja C" com o produto interno canônico,
fj """ (Y1t ... , Y11) e y = (X1, •.. , x,.,). Qual é o elemento j, k da matriz
de T em relação à base ordenada canônica? Qual é o pôsto desta matriz?
6. Mostrar que o produto de dois operadores auto-adjuntos é auto-adjunto
se, e somente se, os dois operadores comutam.
7. Seja V o espaço vetorial dos polinômios sôbre R de grau menor ou
igual a 3, com o produto interno

(/, g) - /o 1
/(l)g(l'Jdt.

Se , é um número real, determinar o polinômio g, em V tal que(/, g,) -( ft)


para todo / em V.
8. Seja V o espaço com produto interno do Exercício 7 e seja D operador
derivação sôbre V. Determinar o•.
9. Seja V um espaço de dímensão finita com produto interno e Tum ope-
rador linear sôbre V. Mostrar que a imagem de T* é o suplementar orto--
gonal do núcleo de T.
10. Seja V o espaço das n X n matrizes sôbre o corpo dos números com-
plexos, com o produto interno (A. B) = tr (AB*). Seja P uma matriz in•
versfvel fixa em V e seja TP o operador linear sôbre V definido por Tp(A) -
= p- 1 AP. Determinar o adjunto de T p.
260 ESPAÇOS COM PRODUTO INTERNO

li. Seja V um espaço de dimensão finita com produto interno e seja E um


operador linear idempotente sõbre V. isto é. Eª - E. Demonstrar que E
é auto-adjunto se, e somente set EE• - E* E.
12. Seja V um espaço complexo de dimensão finita com produto interno
e seja T um operador linear sôbre V. Demonstrar que T é auto-adjunto
se, e somente se, (Ta, a) é real para todo a em V.

8. 4 Operadores Positivos
Seja Y um espaço com produto interno e seja T um operador
linear s&bre V. Seja p a função definida sõbre os pares ordenados
de vetores a, fJ em V por
p(a, /j) == (Ta, fj).
Estamos interessados em obter condições necessárias e suficientes
que T precisa satisfazer para p ser um produto interno. Certamente
p(a., /j) é linear como uma função de a., portanto o que precisamos
fazer é traduzir as propriedades
p(a, fJ) = p(JJ9 a)
Ãa, a) > O, para a P' O
em afirmações s6bre T. Ora, p(a, /3) - (Ta, /j) e p(fj, a} - (Tfl, a) =
-= (a, T~). Como p(_a, a) = (Ta, a), vemos que a função p é um
produto interno se, e sàmente se, o operador linear T satisfaz
(Ta, fl) - (a, TfJ)
(8-14')
(Ta, a) >O se a 7'- O.
A primeira condição diz que T é auto-adjunto. Um operador linear
T que satisfaz as condições (8-14) é dito positivo. O que acabamos
de observar pode ser reformulado como segue: O operador linear
T é positivo, se, e somente se, a função p definida por JJ(.a, fj) =
- (Ta, /J) é um produto interno.
Desejamos agora mostrar que, no caso de dimensão finita,
todo produto interno sõbre V é do tipo há pouco descrito.
Teorema 9. Seja V um espaço de dimensão finita com produto
interno (, ). Se pé um produto interno- arbitrário sôbre V, existe um
único operador linear positivo T sôbre V tal que p{a, /3) - (Ta, fJ)
para quaisque-r a., fj em V.
Demdnstraçlo. Fixemos um vetor fJ em V. Então p(a, fl) é uma
função linear de a. Pelo Teorema S existe um único vetor fJ' em V
tal que p(a, fJ) = (a, fJ') para todo a.. Definamos uma função T de
V em V por T{J = IP. Em vista da maneira como T é definida, te-
OPERADORES POSITIVOS 261

mos p{a, P) ~ J..a, TfJ) para todos a, P em V. Temos também p(a, {J) =-=
=-= (a, T{J) = p(/3, a) = (ft, Ta) = (Ta, f3) para quaisquer a, fj em
V. Para mostrar q·ue T é linear, observemos que
(T(c a + t,), -y) = p(_c a + /3, 'Y)
= cp(a, 'Y) + p(_/3, "Y)
= c(Ta, ;,) + (TfJ, 'Y)
= (cTa + T/3, -y)
para todos a, /3, 'Y em V e todos escalares e. Logo, T(ca + fj) -=
== cTa + T/3. Então, demonstraremos a existencia de um· operador
linear T tal que p(a, /3) = (Ta, fJ). É claro que T é positivo, pois p
é um produto interno. Precisamos mostrar que T é único. Suponha-
mos que p(a, /3) - ( Ua, /3). Então
(Ta, /3) = (Ua, /3), ou (Ta - Ua, fJ) =O
para todos a e /3. Para a fixo, o vetor Ta - Ua é ortogonal a todo
o espaço V e é portanto o vetor nulo; logo Ta = Ua para todo a.
Sabemos agora que todos os produtos internos sôbre um es-
paço de V de dimensão finita com produto interno podem ser des-
critos em têrmos dos operadores lineares positivos sôbre V. Passa-
mos então a estudar os operadores lineares positivos de modo a tor-
nar mais significativa nossa descrição de produtos internos. Alguns
dêstes resultados deverão tornar claras as razões para o nome "ope-
rador positivo".
Teorema 10. Seja V um espaço de dimensão finita com produto
interno e T um operador linear sôbre V. Então T é positivo se, e so-
mente se, existe um operador linear inversível U sôbre V tal que
T = u•u.
Demonstração. Suponhamos que T = U*U, onde Ué operador
linear inversível sôbre V. Então T* = (U*U)* = U*U = T, de
modo que T é auto-adjunto. Além disso, (Ta,a) = (U*Ua, a) ==
= (Ua, Ua) > O. Ora, U é inversível; portanto se a ~ O temos
Ua -jll! O e (Ta, a) > O. Então T é positivo.
Suponhamos agora que T seja positivo. Então p(a, /3) = (Ta, fJ)
é um produto interno sôbre V. Seja { a1, ... , an} uma base de V
que seja ortonormal em relação ao produto interno (,) e seja
{ /31, ... , /Jn } uma base ortonormal em relação a p. Então
p(J:Ji, /11c) = 8j1: = (ai, at).
Seja agora U o único operador linear sôbre V tal que UPi = aJ,
262 ESPAÇOS COM PRODUTO INTERNO

j = 1t ••• , n. Por levar uma base em outra base U é inversível.


Temos
p({,j, f:J1e) = (U{j;, U/l,) = (ai, ai).
Sejam a = l x;/3; e fJ = ? Yi/3j vetores arbitrários em V. Então
p(_a, {:J) = p(}; XjfJi, :E Ytf:l1:)
_; ,\:

- }; }; Xjj1;p{(jj, f3k)
j *
- ~ l': x/jk( UP1, Uf31c)
j ~

= (I: XjUfJj, ~ y,UfJ,c)


j .t

= (Ua, U/3).
Pela definição de p temos ((Ta, /j) = (Ua, UfJ) = (U•Ua, fj) para
todos a, fJ em V. Assim, T = U* U.
Se considerarmos a operação de conjugação como sendo aná~
Ioga à conjugação sôbre números complexos, veremos que "opera-
.dor positivo" é mais ou menos análogo a "número positivou. De
fato, um número complexo zé positivo se, e somente se, é da forma
z = ww para algum número complexo não-nulo w.
É interessante o fato de que num espaço complexo com produto
interno, a condição T = T* pode ser retirada da definição de um
operador linear positivo. Em outras palavras, se (Ta, a) > O para
a ~ O, então T é necessàriamente auto-adjunto. Isto decorre db
lema seguinte:
Lema. Seja V um espaço complexo com produto interno e T um
operador linear sóbre V. Se (Ta, a) é real para todo a em V, então
T é auto-adjunto.
Demonstração. Sejam a e fJ vetores em V. Precisamos mostrar
que (Ta, fJ) = (a, TfJ). Ora, ·
(T(a + fJ), a + fJ) = (Ta, a) + (Ta, fJ) + (TfJ, a) + (TfJ, fJ).
Como (T(a + 13), a + fJ), (Ta, a) e (T/j, 13) são reais, o número
(Ta, fl) + (T{:J, a) é real. Usando o mesmo argumento para a+ ifJ
em vez de a + (j, temos,
(T(a + ifJ), a + ifJ) = (Ta, a) -.- i(Ta, fJ) + i(TfJ, a) + (TfJ, fJ)
e então concluímos que -i(Ta, fJ) + i(TfJ, a) é real. Tendo conclui-
OPERADORES POSITIVOS 263

do que dois números são reais, igualamo•los aos seus complexos


conjugados e obtemos
(Ta, /3) + (T/3, a) = (f:J, Ta) + (a, Tfj)
-i(Ta, /3) + i(T~, a) = i(/3, Ta) - i(a, T/3).
Multiplicando a segunda equação por i e somando o resultado à
primeira equação, obtemos
2(Ta, /3) = 2(a, T~).
Evidentemente, êste lema é falso para um espaço real com pro-
_duto interno, onde (Ta, a) é real para qualquer T. Se T é auto.adjun-
to, então (Ta, a) é real porque (Ta, o:) = (a, Ta) = (Ta, a). Assim,
num espaço complexo com produto interno, os operadores auto-■ adjun­
tos são caracterizados pelo fato de que (Ta, a) é rea) para todo a e
os operadores positivos pelo fato de que (Ta, a) é positivo para
todo a não-nulo.
A fim de obter informações mais detalhadas a respeito de ope-
radores lineares positivos, observemos a matriz de um tal operador
T em relação a uma base ortonormal (ordenada) m = {a 1, ••• , «n }.
Se A é a matriz de Tem relação à base ordenada <B, a condição
T = T* diz simplesmente que A = A*, ou seja, que A1t = A,1.:.
Lembramos ao leitor que isto usa, de modo fundamental, o fato
de <B ser ortonormal e o conseqüente fato de que A,1c = (Ta.1:, a1).
A condição (Ta, a) > O é fàcilmente interpretada em têrmos de
A. Se a = X1a1 + . . . + Xnan
(Ta, a) = ~j( x1 Tah ~ X1i;a,1;)
J .t

~ ? ? XjXk (Tau, ak)


J k

- X l: À(cjXjXko
1 .t

Portanto, vem-os que T é positivo se, e somente se, sua matriz em


relação à base ortonormal <B satisfaz
A= A*
(8-15)
~ 2; Â11:jXjXk
j .t
> o, se (x1, ... , Xn) ~ o.
Definição. Seja A uma n X n matriz com elementos complexos.
·Dizemos que A é positiva se vale o seguinte: Sempre que x 1, ••• , Xn
são números complexos, não todos nulos, então
2; 2; Â1tjXjXk
j .t
> 0.
264 ESPAÇOS COM PRODUTO INTERNO

Teorema 11. Seja V um espaço de dimensão finita com produto


interno e CB uma base ortonormal ordenada de V. Se T é um o~ra...
dor linear sôbre V, então T é positivo se, e somente se, a matriz de
T em 'relação a esta base ordenada é positiva.
Demonstração. Na verdade definimos uma matriz positiva de
maneira tal que êste teorema valesse. No entanto, existem alguns
pontos que decididamente requerem comentários.
Primeiro, suponhamos que V seja um espaço complexo com
produto interno. Se A é a matriz de T em relação a <B, a afirmação
de que A é positiva diz simplesmente que (Ter, a) > O para todo
a em V. Como uma conseq üêrtdia do último lema, observamos que
esta condição vale se, e somente se, T é positivo. tste
i o argumento
completo para o caso complexo. Notemos que uma conseqü@ncia
disto é que uma matriz positiva é automàticamente auto-adjunta.
Suponhamos agora que V seja um espaço real com produto
interno e seja A == [7105 • Precisamos mostrar que se A é positiva,
então T é positivo e que se T é positivo, então A é positiva. Em
cada uma destas demonstrações surge um ponto sutil, que não ocor-
rera no caso complexo. Suponhamos que A seja positiva. Como es-
tamos em um espaço real com produto interno, A é uma matriz
com elementos reais; contudo, a afirmação de que A é positiva
significa simplesmente que
(8-16) i ?
J ,I;
ÀkjXjX!t >o
para quaisquer números complexos x 1 , ••. , x" não todos nulos•
Como isto é válido em particular quando x1, ... , Xn são reais, o
argumento que conduziu a (8-15) mostra que (Ta, a) > O para qual-
quer vetor não•nulo a em V. Mas num espaço real com produto
interno, isto não implica necessàriamente que T seja positivo. Pre-
cisamos mostrar também que T é auto-adjunto. É aqui que usamos
a hipótese de que (8-16) vale para todos os complexos xi, ... , x,..
Esta hipótese mais forte implica que A é auto-adjunta e, portanto,
que T é auto--adjunto.
Novamente para o caso real, suponhamos que T seja positivo.
Então nosso argumento que levou a (8-15) mostra que A é auto-
-adjunta e que (8-16) vale para números reais arbitrários xi, ... , Xn,
não todos nulos. Mas precisamos mostrar que (8-16) também vale
para x1, ... , x" complexos. Pelo Teorema 10, existe um operador
linear inversível U sôbre V, tal que T = u•u. Se P é a matriz de
U em relação à base &, temos
A = P*P = P'P.
OPEllAOOR.ES POSITIVOS 265

Se X é uma n X l matriz complexa, então


1; ~ ÀtjXjXk == x•Ax == X*P*PX = (PX)*(PX).
, 1:

Seja Y == PX. Se X ~ O, então como P é inversível, Y ~ O e então


Y*Y > O. Logo, A é positiva.
'
Corollirlo. Se A é U111Q n X n matriz com elementos complexos,
então A é positiva se, e somente se, existe uma n X n matriz inver-
. sfvel P tal que A == P*P. Se A é positiva e possui elementos reais
então A = ptp onde Pé uma n X n matriz inversível com elementos
reais.
O restante desta seção será dedicado à obtenção de um teste
para a positividade de uma dada matriz. Pràticamente por defini-
ção, a n X n matriz A é positiva se, e somente se,
(X, Y) = Y*AX
define um produto interno sôbre o espaço das n X 1 matrizes sô- .
'bre e' isto é,
(8-17)

define um produto interno sô-bre e•. O teste para a positividade


que vamos obter é baseado em duas observações.
(i) Se A é uma matriz positiva, então det A > O.
(ii) Se A é uma matriz positiva e 1 < k ~ n, a matriz
... Au
An
(8-18)

_A.u Àk2 • • • Âkk.

é uma k X k matriz positiva.


A afirmação (i) é demonstrada como segue: Se A é positiva
então A = P*P para alguma n X n matriz inversível P. Assim,
dct A = det (P*P) = det (P*) det (P) = (det P) det P > O.
A afirmação (il) decorre desta observação: Suponhamos que V -
seja um espaço vetorial de dimensão finita e que ( , ) seja um pro-
duto interno sôbre V. Se { a:1, ••• , ª"} é uina base arbitrária de V,
a matriz do produto interno em relação a esta base é uma matriz
266 ESPAÇOS COM PRODUTO INTERNO

positiva. Observamos êste fato na primeira seção dêste capítulo.


Lembramos ao leitor que a matriz G do produto interno (,) em
relação à base {a 1, • • • , ª" } é definida por
Gjk = (ak, a1).

Esta matriz é positiva simplesmente porque


(? Xja.j, 2; Ytak) = i 2: G1rJXjVk
j k, i k.

e então [X, Y] = Y*GX é um produto interno sôbre o espaço das


n X 1 matrizes. Suponhamos agora que nos seja dada uma n X n
matriz positiva A. Se I < k < n, seja W,.. o subespaço de C" gera-
do por , 1, E2, ••• , Ek• Ora, (8-17) define um produto interno ( , )
sôbre cn, Se· restringirmos êste produto interno ao subespaço W ~' .
obteremos um produto interno sôbre W ,t, cuja matriz em relação à
base { t:1, ••• , E,t } será Afu
Àjk = (t:k, t-j).
O que as observações (i) e (ii) nos dizem é que, se A é uma ma ..
triz positiva, então det AU:) > O para k = 1, ... , n:
A11 > O, A11A22 - A12A21 > O, .•. , det A > O.
Para matrizes auto-adjuntas, vale a recíproca.
Definição. Seja A uma n X n matriz. Os menores principais
de A são os n escalares definidos por
Au Au
det ACk> - det k - 1, ... , n.

Au Àu

Teorema 12. Seja A uma n X n matriz sôbre o corpo dos núme•


ros complexos e suponhamos que A seja auto-adjunta (hermitiana).
Então A é positiva se, e somente se, os menores principais de A são
todos positivos.
Demonstração. Acabamos de observar que se A é uma matriz
positiva, os menores principais de A são números positivos.
Suponhamos agora que A seja auto-adjunta e que det A<-U > O
para k = 1, ... , n. Demonstraremos que A é positiva. Seja ( , ) a
função definida sôbre os pares ordenados de vetores em C" por (8-17).
OPERADORES POSITIVOS 267

· Certamente (ca + fJ, -y) = c(a 'Y) + (/3, -y); e, como estamos su-
pondo que A é auto-adjunta, temos (ft, a) = (a, /3).
Demonstraremos que A é positiva, por indução sôbre n. No-
temos primeiro que uma 1 X 1 matriz auto-adjuntí!, com menores
principais positivos é positiva. Suponhamos que o resultado seja ver-
dadeiro para (n - 1) X (n - 1) matrizes e seja A uma n X n ma-
triz auto-adjunta com menores principais positivos. Seja
Ai·1
Ej
I
= e; - A
11
e1, 2<j < n.
A divisão por Au não causa complicações porque A11 > O. Então
d\ 1 = {E1 , t2, ••• , t,.} é uma base ordenada de Usando o fato cn.
de que Âjk = (t:1-, EJ) e que (/3, a) = (a:, ~), obtém-se (E}, e1) = ( ei,
e}) = O para j > 2. Se indicarmos por A' a matriz de ( , ) em re-
lação à base m', veremos então que
Au o o ... o
o A22 A:h A~"
A' - .

o À~2 Ân3 A,~"-


De fato, se j >2ek >2 1 temos por definição
À_ik = (Ek, Ej)

= (• - ~:: •1, Ej - ~:: E!)


Au
- (Ek• Ej) - A~ (t:t, Ej)
11

Au
- Àjk - À- Âj1.
11

Esta relação também é válida para j = 1 e k > 2. Assim, temos


Au
A~ = Âk - --
Au
A1, 2 < k <n
onde AL é a k-ésima coluna de A', Ak é a k-ésima coluna de A e A1
é a primeira coluna de A. Em outras palavras, subtraindo das ou•
tras colunas múltiplos convenientes da primeira coluna de A, obte-
mos a matriz
268 ESPAÇOS COM PRODUTO INTERNO

... o
...
. .·

Ânt

Podemos obter A' a partir desta matr~ subtraindo das outras linhas
múltiplos convenientes da primeira linha. O fato crucial agora é
observar que os menores principais não são alterados por estas ope-
rações elementares sôbre colunas e linhas. Assim, A e .A' possuem os
mesmos menores principais. Como êsses menores são positivos

Au det > O, k = 2, •.. , n.

. ..
Dividindo por Au, concluímos que os menores principais da
(n - ·1) X (n - 1) matriz

B=
.
.. . À~n

são todos positivos. Ora, B também é auto-adjunta, porque para


j'> 2 e k > 2

Pela hipótese de indução, B é uma matriz positiva. Como


n n
? ~ À~JXjXk
i k
= A11lx11 2 + ~-2
! ~ À~JXiXk
J--2
então é evidente que A é uma rnatríz positiva. Mas A' é a matriz de
( , ) em relàção à base ordenada { Et, f:2, ••• , E~} e então ( , ) deve
ser um produto interno. Assim, A é positiva.
Resumindo, se A é uma n X n matriz sôbre o corpo dos núme-
meros complexos, as seguintes afirmações são equivalentes:
OPEllADORES POSITIVOS 269

(i) A é positiva, isto é, J; :i A1c1 x;x, > Osempre que x1, ... , x,.
j '
ilo números complexos, não todos nulos .
. (ii) (X, Y) = y• AX é um produto interno sõbre o espaço
das n X 1 matrizes complexas;
(iii) Em relação ao produto interno canônico (X, Y) = Y* X
s&bre n X l matrizes, o operador linear X --+ AX é positivo.
(iv) A = P*P para alguma n X n matriz inversível P sôbre C.
{v) A = A•, e os menores principais de A são positivos.
Se todo elemento de A é real, estas são equivalentes a:
(vi) A = A' e l: :E À1tJXjX1c > O sempre que xi, •.. , x,. são
j .t
números reais nio todos nulos.
(vii) (X, Y) = Y'AX é um produto interno sõbre o espaço
das n X 1 matrizes reais.
(viii) Em relação ao produto interno canônico (X, Y) = Y'X
s6bre n X 1 matrizes reais, o operador linear X_. AX é positivo.
(ix) Existe uma n X n matriz inversível P, com elementos
reais, tal que A = ptp_

Exercid01
1. Seja V igual a C 1 , com o produto interno canônico. Para que vetores
a em V eXJ.ste u~:'!- operador linear positivo T tal que a - T11?
2. Suponhamos que V seja R 1 , com o produto interno canônico. Se O é
um número real, seja r, o operador linear ..rotação de lngulo ,r
T,Cx1, x2) _. (x1 cos 6- X2 sen 9, x1 sen B + X2 cos 8).
Para que valores de 6 se tem r, um operador positivo'?
. '
3. Seja V o esp~ Jas n X 1 matrizes sabre C, com o produto interno
(X, Y) = Y•GX (onde G é uma n X n matriz tal que isto seja um produto
interno). Seja A uma n X n matriz e T o operador linear T(X) • AX. De-
terminar T*. Se Y é um elemento fixo de v. encontrar o elemento Z de V
que determina o funcional linear X -+ y• X. Em outras palavras. encontrar
Z tal que y• Z ... (X, Z) para tôda X em V.
4. Seja Y um espaço de dj.mensão finita com produto interno. Se T e V são
operadores lineares positivos sõbre V, demonstrar que (T + U) é posi-
tivo. Dar um exemplo que mostre que TU não é necessàriamente positivo.
5. Seja

À= [ i1 !]¼ .
270 ESPAÇOS COM PRODUTO INTERNO

(a) Mostrar que A é positiva.


(b) Seja V o espaço das 2 X l matrizes reais, com o produto interno
(X. Y) = y; AX. Determinar uma base ortonormal de V, aplicando o pro-
cesso de Gram-Schmidt à base { X1, x~} definida por

Xi = [ó] Xi = [?] ·
(e) Determinar uma 2 X 2 matriz real P tal que A = P 1P.
6. Quais das matrizes são positivas'?

+ i] 1 -t
[ l
1- i
1
3
[ 2 -1
3 -1 l]
7. Dar um exemplo de uma n X n matrizes cujos menores principais se~
jam todos positivos. mas que não seja matriz positiva.
8. Verificar se ( (x1, x~). (Y1, Y1)) = x1ji1 + 2xl.v1 + 2x1Y2 +
X:iYi define
um produto interno sôbre C 2 •
9. Demonstrar que todo elemento da diagonal principal de uma matriz po•
sitiva é positivo. .
10. Seja V um espaço de dimensão finita com produto interno. Se T e U
são operadores lineares sôbre V, coloquemos T < Use U - T é um ope-
rador. positivo. Demonstrar o seguinte~
(a) É imposstvel que T < U e V< T.
(b) Se T < U e U < S, então T < S.
(e) Se T < U e o < s. não é necessário que ST < SU.
11. Seja V um espaço de dimensão finita com produto interno e E a pro-
jeção ortogonal de V sôbre algum suôespaço.
(a) Demonstrar que, para todo número positivo arbitrário ct o opera•
dor cl + E é positivo.
(b) Exprimir em têrmos de E um operador linear auto-adjunto T tal
que T 1 = 1 + E.
12. Seja n um inteiro positivo e A a II X n matriz
1 1
l ~ ~

2 3 n
1 1 1 1

A=
2 3 4 n +1

1 1 1 1
n n+l n+2 2n- l
Demonstrar que A é positiva.
13. Seja A. uma n X n matriz auto-adjunta. Demonstrar que existe um
número real e tal que a matriz cl + A seja positiva.
14. Demonstrar que o produto de dois operadores lineares &! positivo se,
e sômente se. êles comutam.
,
OPERADORES UNJTARIOS 271

8. 5 Operadores Unitários
Nesta seçijo, vamos considerar o conceito de um isomorfismo
entre dois espaços com produto interno. Se V e W são espaços ve-
toriais, um isomorfismo de V em W é uma transformàção linear bi-
jetora de V em W, isto é, uma correspondência bijetora entre os ele-
mentos de V e os de W, a qual "conserva" as operações de espaço
vetorial. Ora, um espaço com produto interno consiste de um espa-
ço vetorial e um produto interno especificado sôbre aquêle espaço .
. A~im, quando V e W são espaço com produto interno, exigiremos
que um isomorfismo de V em W não só conserve as operações li-
neares, mas também conserve produtos internos. U'm isomorfismo
de um espaço com produto interno em si mesmo é denominado um
"operador unitário" sôbre aquêle espaço. Consideraremos vários
exemplos de operadores unitários e estabeleceremos suas próprieda-
des fundamentais.
Defini~o. Sejam V e W espaços com produto interno sôbre o
mesmo corpo e seja T urna transfol'mação linear de V em W. Dize-
mos que T conserva produtos internos se (Ta, T,B) = (a, /3) para to-
dos a, {3 em V. Um isomorfismo de V em W é um isomorfismo T de es-
paço vetorial de V em W que tambem conserva produtos internos.
Se T conserva produtos internos, então I fTa:I 1 = !/ai 1, portanto
T é, necessà.riamente, não-singular. Assim, um isomorfismo de V em
W pode também ser definido como uma transformação linear de V
em W que consen,a produtos internos. Se T é um isomorfismo de V
em W, então TP 1 é um isomorfismo de W em V; logo, quando um
tal T existir, diremos simplesmente que V e W são isomorfos. É cla-
ro que o isomorfismo de espaços com produto interno é uma rela-
lação de equivalência.
Teorema 13. Sejam V e W espaços de ·dimensão finita com pro
duto interno sobre o mesmo corpo, que tenham a mesma dimensão
Se T é uma transformação linear de V em W, as seguintes afirmações
são equivalentes:
(i) T conserva produtos iniernos.
{ii) T é um isomo,fismo (de espaço com produto interno).
(iii) T leva tôda base ortonormal de V em uma base ortonor-
mal de W.
(iv) T leva alguma base ortonormal de V em alguma base orto-
normal de W.
272 ESPAÇOS COM P:RODUTO INTERNO

Demonstração. (i) --+ (ii) Se T conserva produtos internos, então


11 Tal 1 = !la! 1 para todo a em V. Assim, T é não-singular e como
dim V = dim W, sabemos que T é um isomorfismo de espaço ve-
torial.
(ii)--+ (iii) Suponhamos que T sejá um isomorfismo. Seja { 0:1, ••• ,
••• , a,. } uma base ortonormal de V. Como T é um isomorfismo de
espaço vetorial e dim W = dim V, decorre que { Ta1, ~ .. , Tan}
é uma base de W. Como T conserva também produtos internos,
(Ta.i, Tci,) = (11;, cu) = aJ1c.
(iii) --+ (iv) Não requer comentários.
(iv)--+ (i) Seja { a 1 , ••• , a,.} uma base ortonormal de V tal que
{ a1, ••• , Tan } seja uma base ortonormal de W. Então

(Ta;, Tak) = (ab are) = 8j1r:.


Para todos a = X1a1 + . . . + Xnan C /j == Y1cr1 + , .; + Yntr,i em
V, temos
,.
(a, ~) == l; Xj'jj
i•l

(Ta:, TfJ) = (~ XjTet.j, 1: YkTa.1:)


j . ,t

= ? % Xj1/P(.Ta.j, Tak)
j ~

n
- % XiJi
i•l
logo T conserva produtos internos.
Corolário. Sejam V e W espaços de dimensão finita como produto
interno sdbre o mesmo corpo. Então V e W são isomorfos se, e sõ ..
mente se, tem a mesma dimensão.
Demons,tração. $e {«1., ... , ª"} é uma base ortonormal de V e
{ ~1, ••• , Pn} é uma base ortonormal de W, seja Ta transformação
linear de V em W definida por Ta; == fli- Então T é um isomorfismo
de V em W.
Exemplo 17. Se V é um espaço n-dinl!nsional com produto in-
terno, então tôda base ortonormal ordenada (\\ = {a, , .. , an} de-
termina um isomorfismo de V em F• com o produto interno canô-
nico. O isomorfismo é ~implesmentlõ!
T(x1a:1 + . . . + Xna,.) = (Xi, .•. , Xn).
OPERADORES UNITÁRIOS 273

Existe o isomorfismo, superficialmente diferente, determinado por


ti, de V no espaço das n X l matrizes com (X, Y) = y•x como
produto interno. O isomorfismo é
a -+ [a]CB
isto é, a transformação que leva a na matriz de suas coordenadas
· em· relação à base ordenada <B. Para qualquer base ordenada <R,
8ste é um isomorfismo de espaço vetorial; no entanto, êle é um iso-
morfismo dos dois espaços com produto interno se, e somente se,
ffl é ortonormal.

Exemplo 18. Eis um isomorfismo um pouco menos superficial.


Seja W o espaço das 3· X 3 matrizes A sõbrc R que sejam anti-simé-
tricas, isto é, A' = -A. Vamos equipar W com o produto interno
(A, B) - ¼ tr (A B'), sendo o ½ colocado por conveni!ncia. Seja V
o espaço R 3 com o produto interno canônico. Seja Ta transforma-
ção linear de V em W definida por
O -xa X2]
T(x1, x2, xa) = [ xa O -~1 •
--X2 X1
Então T leva V sôbre W, e colocando

A = - ~a -·~
3
-~~] B = [ ~3
-ya Y2]
~1 -~1
_-· X2 X1 Ü _-y2
temos
tr ('A B') = XaYa + X2Y2+ X:iY3 + x2y2 + X1Y1
= 2(x~y1 + X2Y2 + X3y3).
Assim, (a, /j) = (Ta, T/3) e T é um isoformismo de espaço vetorial.
Notemos que T leva a base canônica { e:1 1 e:2, €:l } na base ortonormal
formada pelas três matrizes

[ºº
O O -1
ºJ[ºººJ O O O
-o1 -1
O O ·
º]
O 1 O -1 O O -º o o
Exemplo 19. Nem sempre é particularmente conveniente descre-
ver um isomorfismo em têrmos de bases ortonormais. Por exemplo,
seja G uma n X n matriz positiva, isto é, uma matriz auto-adjunta
(hermitiana) com os menores principais positivos. Seja V o espaço
das n X l matrizes complexas, com o produto interno [X, Y] =
274 ESPAÇOS COM PRODUTO INTERNO

= Y*GX. Seja W o mesmo espaço vetorial, com o produto interno


canônico (X, Y) = Y* X. Sabemos que V e W são espaços com pro-
duto interno que são isomorfos. Deveria parecer que a maneira
mais conveniente de descrever um isomorfismo entre V e W seja a
seguinte: Como G é positiva, existe uma n X n matriz inversível
P tal que G = P* P. Seja T a transformação linear de V em W defi-
nida por T(X) = PX. Então
(TX, TY) = (P X, PY)
- (PY) * (PX)
Y*P*PX
= Y*GX
= [X, Y].
Logo, T é um isomorfismo.
Exemplo 20. Seja V o espaço das funções contínuas, definidas
sôbre o intervalo unitário, O< t < l e tomando valores reais, com
o pród uto interno

(/, g) = J;,1 f(t)g(_t)t 2dt.


Seja W o mesmo espaço vetorial com o produto interno
(f, g) = j/ f(t)g(_t)dt.
Seja T a transformação linear de V em W dada por
(TI) (t) = t/(t).
Então (Tf, Tg) = [f, g], portanto T conserva produtos internos; con-
tudo, T não é um isomorfismo de V em W, porque a imagem de T
não é todo o espaço W. Evidentementet isto ocorre porque o espaço
vetorial subjacente não é de dimensão finita.
Teorema 14. Sejam V e W espaços com produto interno sôbre o
mesmo_ corpo e seja T uma tran~formação linear de V em W. Então,
T conserva produtos internos se, e somente se, !ITall = ll«H para
todo a em V.
Demonstração. Se T conserva produtos internos, T "conserva
normas". Suponhamos que ilTall = !lall para todo a em V. Então
ltTall 2 = llall 2 • Usando agora a identidade de polarização conveni-
ente, (8-3) ou (8-4) e o fato de que T é linear, obtém-se fàcilmente
(à,~) = (Ta, T~) para quaisquer a, 13 em V.
,,
OPERADORES UNITARIOS 275

Definição. Um operador unitário sôbre um espaço com produto


interno é um isomorfismo do espaço em si mesmo.
O produto de dois operadores unitários é unitário. De fato,
se U1 e U2 são unitários, então U2U1 é inversível e 11 U2U1all .=
s: l]U1a!l = llall para todo a. Além disso, o inverso de um ope-

rador unitário é unitário, pois 11 Uai 1 = 1ial I diz que 11 u- 1fJl l =


= !IP)I, onde /3 = Ua. Como o operador idêntfoo é obviamente uni-
tário, ·vemos que o conjunto dos operadores unitários sôbre um es-
paço com produto interno é um grupo, com a operação de com-
posição.
Se V é um espaço de dimensão finita com produto interno e U
é um operador linear sôbre V, o Teorema 13 nos diz que U é uni-
tário se, e somente se, (Ua, U{J) = (a, /3) para todos a, (3 em V: ou
seja, se, e somente se, para alguma (tôda) base ortonormal { ai, .•• ,
... , an} é verdade que { Uai, ... , Ua,i} é uma base ortonormal.
Teorema 15. Seja U um operador linear sôbre um espaç·o V com
produto interno. Então U é unitário se, e somente se, o adjunto U *
de V existe e UU* = U*U = L
De'monstraty·ão. Suponhamos que U seja unitário. Então U é
inversível e
(Ua, /3) = (Ua,-Uu- 111) = (a, u- 1~)
para todos a, /3. Logo, u-11. é o adjunto de U.
Reciprocamente, suponhamos que U·~ f!Xista e UU* = u•u
=
= /. Então V é inversível, com u- 1 = U*. Portanto, basta mostrar
que U conserva produtos internos. Temos
( Ua, U/3) = (a, U*UfJ)
= (a, /{3)
= (a, /3)
para todos a,~-
Exemplo 21. Seja V o espaço das n X 1 matrizes sôbre C, com
o produto interno (X, Y) = Y* X. Seja A uma n X n matriz sôbre
C e seja U o operador linear definido por U(X) == AX. Então
(UX, UY) = (A·X, AY) = Y*A*AX
para t6das X, Y. Logo, Ué unitário se, e somente se, A• A = l.
Definição. Uma n X ·n motriz complexa A é dita unitária se
A•A = ·I.
276 ESPAÇOS COM PRODUTO INTERNO

Teorema 16. Seja V um espaço de dimensão finita com produto


interno e seja V um operador linear sóbre V. Então V é unitário se,
e sàmente se, a matriz de U em relação a alguma (tôda) base orto-
normal ordenada é uma matriz unitária.
Demonstração. A esta altura, isto não é bem um teorema e só
o enunciamos por questão de ênfase. Se dl = {ai, ... , a,.,} é uma
base ortonormal ordenada de V e A é a matriz de U em relação a
c.B, então A* A = I se, e somente se, U* U = I. O resultado decorre
do Teorema 15.
Seja A uma n X n matriz. A afirmação de que A é unitária
diz simplesmente
(A*A)jb :m &jk

ou
n
2: ÀrJÂrk - aJk,
r•l

Em outras palavras, diz que as colunas de A formam um conjunto


ortonormal de matrizes-colunas, usando o produto interno canônico
(Xt Y) = y• X. Como A* A = I se, e somente se, AA * I vemos
=i=

que A é unitária exatamente quando as linhas de A constituem um


conjunto ortonormal de n-uplâs em C" (com o produto interno ca-
nônico). Portanto, úsando produtos internos carianicos, A é uni-
tária se, e somente se, as linhas (colunas) de A são ortonormais.
Vê-se aqui um exemplo da fôcça do teorema que afirma que uma
inversa unilateral de uma matriz é, na verdade, uma inversa bila-
teral. Aplicando êste teorema como fizemos acima, digamos, a ma-
trizes reais, temos o seguinte: Suponhamos que exista uma tabela
quadrada de números reais tal que a soma dos quadrados dos ele-
mentos de cada linha seja 1 e tal que linhas distintas sejam ortogo-
nais. Então a soma dos quadrados dos elementos de cada coluna é
1 e colunas distintas são ortogonais. Basta escrever a demonstra-
ção dêste fato para uma tabela 3 X 3, sem usar nenhum conheci-
mento sôbre matrizes, para se ficar razoàvelmente impressionado.
Definição. Uma n X n matriz A, real ou complexa, é dita orto-
gonal se AtA == 1.
Uma matriz ortogonal real é unitária; uma matriz unitária é
ortogonal se, e somente se, cada um dos seus elementos é real.
Exemplo 22. Vejamos alguns exemplos de matrizes unitárias e
ortogonais.
OPERADORES UNITÁRIOS 277

(a) Uma 1 X 1 matriz [e] é ortogonal se, e somente se, e= + 1


e é unitária se, e somente se, cc = 1. A última condição significa
(é claro) que lei - 1, ou seja, e = e", com (J real.
(b) Seja

Então A é ortogonal se, e somente se,

A' = A-I = 1
ad- bc -e
[ d -ah].
O determinante de qualquer matriz ortogonal, como se pode ver
fàcilmente, é + 1. Assim A é ortogonal se, e somente set

A=[_: !l
ou

A= [: _:J
onde a 2 + b 2 = 1. Os dois casos são distinguidos pelo valor de
det A.
(e) As bem conhecidas relações entre as funções trigonométricas
mostram que a matriz

A, = [cos
sen 6
8 -sen
cos 8
º]
é ortogonal. Se 8 é um número real, então A6 é a matriz, em· relação
à base ordenada canônica de R 2 , do operador linear U,, que é '!
rotação do ângulo fJ. A afirmação de que A, é uma matriz ortogo-
nal real (logo unitária) significa simplesmente que U, é um operador
unitário, isto é, conserva produtos escalares.
(d) Seja

Então A é unitária se, e somente se,


b
e]d =ad-bc
1 [ d
-e
ab]·
278 ESPAÇOS COM PRODUTO INTERNO

O determinante de uma matriz unitária tem valor absoluto 1 e é


portanto um número complexo da forma e'8, 0 real. Assim, A é
unitária se, e somente se,

onde 8 é um número real e a, b são números complexos tais que


lar 2 + 1h1 2 = 1. ,'.
Consideremos agora abreviadamente uma mudança de êoorde~
nadas em um espaço com produto interno. Suponhamos que V se-
ja um espaço de dimensão finita com produto interno e que m =
= {ai, ... , an} e CB' = { aL ... , a~} sejam duas bases ortonormais
or~enadas de V. Existe uma única n X n matriz P (necessàriamente
inversível) tal que
[ales' = p- t [aJm
para todo a em V. Se U é o bem determinado operador linear sôbre
V definido por Uaj = a}, então P é a matriz de U em relação à
base ordenada Z: :

ª' n

~ pjJc(Xj,
= i-1
como me m, são bases ortonormais, Ué um operador unitário e P
é uma matriz unitária. Se T é um operador linear arbitrário sôbre
V, então
[TJm' = p- l[TJcsP = P*[11mP.
Definição. Sejam A e B n X n matrizes complexas. Dizemos
que B é unitàriamente equivalente a A se existe uma n X n matriz
unitária P tal que B = P*AP. Dizemos que B é ortogonalmente equi..
valente a A se existe uma n X n m'atriz ortogonal P tal que B = ptAP.
Com essa definição, o que observamos acima pode ser enun-
ciado como segue: Se l'.B e CB' são duas bases ortonormais ordenadas
de V, para todo operador linear T sôbre V, a matriz [n«r é unità-
riamente equivalente à matriz [TJCB· No caso de V ser um espaço
real com produto interno, estas matrizes são ortogonalmente equi-
valentes, através de uma matriz ortogonal real.

Exercícios

1. Determinar uma matriz unitária que não seja ortogonal e determinar


uma matriz ortogonal que não seja unitária.
OPERADORES UNITÁRIOS 279

2. Seja V o espaço das ,r X n matrii.es complexas com o produto interno


(A B) =- tr (AB•). Para cada M em V. seja T.v o operador linear definido
po~ T11(A) = MA. Mostrar que r,,,
é unitário se. e somente se, M é uma
matriz unitária.
3. Seja V o conjunto dos números complexos. considerado como um es-
paço vetorial real.
(a) Mostrar que (a, /3) = Re (aP) define um produto interno sôbre
Y.
(b) Exibir um isomorfismo (de espaço com produto interno) de V em
Rª com o produto interno canônico.
(c) Para cada 'Y em V, seja M,., o operador linear sôbre V definido por
M..,(a) = -ya. Mostrar que (M-y)* = M:y.
(d) Para quais números complexos .,. se tem M'Y auto-adjunto?
(e) Para quais ,,, M..,, é unitário?
(f) Para quais ,-. M., é positivo'!
(g) Qual é o det(M-,P
(h) Determinar a matriz de M"' em relação à base { 1. i.}
(i) Se T é um operador linear sôbre V, encontrar condições necessá-
rias e suficientes para que T seja um M,.,.
(j) Encontrar um operador unitário sôbre V que não seja um M-r,
4.. Seja V o espaço Ri. com o produto interno canônico. Se U é um ope..
rador unitário sôbre V, mostrar que a matriz de U em relação à base orde-
nada canônica é

cos 8 -sen ']


[ sen [cos fJ sen "]
8 cos e ou sen fJ -cos 9
para algum 8, O < 8 < 2. Seja u,, o operador linear correspondente à pri-
meira matriz, isto é, u, é uma rotação de um ângulo fJ. Agora é possível
convencer-se de que todo operador .unitário sôbre V é uma rotação ou uma
reflexão em relação ao eixo fJ 1 seguida de uma rotação.
(a) O que é U1U,p?
(b) Mostrar que U*9 = U-,.
(e) Seja q, um número real fixo e <B = { a1i aJ} a base ortonormal obti-
da girando { E1, E.2} de um ângulo t/,, isto é, «j = Uq,Er Se fJ é um outro
número real, qual é a matriz de U8 em relação à base ordenada ffi '!
5. Seja V o espaço R J, com o produto interno canônico. Seja W o plano
prado por a = (1. 1. 1) e fJ = (1. 1, -2). Seja U o operador linear de-
finido geometricamente como segue: U é uma rotação de um ângulo 8,
em tômo de uma reta que passa pela origem e é ortogonal a W. Existem
na verdade duas tais rotações! tome-se uma delas. Determinar a matriz
.de U em relação à base ordenada canônica. (Eis um modo possível de se
proceder: Determinar a1 e a2 que formem uma base ortonormal de W. Seja
a, um vetor de norma 1, ortogonal a W. Determinar a matriz de U em re-
lação à base { 0-1. a,, a- 3 }. Efetuar uma mudança de base.)
6. Seja V um espaço de dimensão finita com produto interno e seja W um
subespaço de V. Então V = W 63 w.1, isto é, cada a em V pode ser expres-
so de um único modo sob a forma a = ~ + 'Y, com fJ em W e 'Y em w.1.
Definamos um operador linear U por lh = fJ - ,,•
(a) Demonstrar que U é auto-adjunto e unitário.
280 ESPAÇOS COM PRODUTO INTERNO

{b) Se V é R 3 com o produto interno canônico e W é o subespaço ge•


rado por ( 1, O~ 1). encontrar a matriz de U em relação à base ordenada
canônica.
7~ Seja V um espaço complexo com produto interno e T um operador li-
near auto-adjunto sôbre V. Mostrar que
(a) \\o:: +
iTa\\ ""' \\a - iTal para todo a em V.
1\

(b) a + iTcX - ~ + iTr, se, e somente se, a: .... (3.


(e) I + iT é não-singular
( d) I - iT é não-singular.
(e) Suponhamos que V seja de dintensão finita; demonstrar que
U· - (1- iTX_I + iD-L é um operador unitário; Ué denominado a trans-
formada de Cayley de T. Num certo sentido, U = f(T), ortde /(x) = (tr -- ix)
/(1 + ix). ·
8. Se fJ é um número real, demonstrar que as matrizes seguintes são uni-
tàriamente equivalentes.
( cos fJ -sen
sen 6 cos 6_
ff) [ eifJ
O
o]
e-•'1 •

9. Seja V um espaço de dimensão finita com produto interno e T um ope-


rador linear positivo sôbre V. Seja Pr o produto interno sôbrc V definido
por pr{a, [,) ... (Ta, /3). Seja U um operador linear sôbre V e U* o seu adjun-
to ern relação a ( ~ ). Demonstrar que U é unitário em relação ao produto
interno PT se, e somente se, T - u•ru.
10. Seja V um espaço de dimensão finita com produto interno. Para cada
par o:, /j em V, seja Ta,fJ o operador linear sôbre V definido por Ta,tih) =
- (-y, fj)o.. Mostrar que
(a) T!.~ = r,.a;
(b) traço (T0t.,fJ) •(a,#);
(e) Ttr,13 T-r,a "'"' Ta,{~.-y)&.
(d) Em que condições Ta,P é auto-adjunto'!
11. Seja V um espaço 11-dimensional com produto interno sôbre o corpo
F e seja li.V, V) o espaço dos operadores lineares sõbre V. Mostrar que
existe um único produto interno sôbre L( V, V) com a propriedade que
IIT«,.611 2 - 1!all '11'3!1 • para todos a,/3 em V. (Ta,f3 é o operador definido no
Ex.ercício 10.) Encontrar um isomorfismo entre l( V, V) com ês.te produto
interno e o espaço das ,, X n matrizes sôbre F, com o produto interno (A,
B) - tr (AB*}.
ll. Seja V um espaço de dimensão finita com produto interno. No Exer-
cício 6, mostramos como construir certos operadores lineares sôbre V que
são auto-adjuntos e unitários. Demdnstrar então que não existem outros,
isto é, que todo operador auto-adjunto unitário provém de algum subes-
paço W como descrevemos no Exercício 6.
13. Sejam V e W espaços de mesma dimensão finita com produto interno.
Seja V um isomorfismo de V em W. Mostrar que ·
(a) a aplicação T---+ uru- 1 é um isomorfismo do espaço vetorial
L( V, V) no espaiço vetorial l( W, W);
(b) tr•ço {UTU- 1 ) """ traço(T) para todo Tem L(V, V);
(e) UT«~u- 1 = Tvo,., uçt (To,IJ defini.do no Exercício 10);
(d) <UTU-L)• - ur•u- 1 ;
OPERADORES UNITÁRIOS 28)

(e) se equiparmos L( V, V) com o produto interno (Ti, Tl) - traço


(T1 T1). e anàlogamente para L( W, W), então T - uru- 1 é um isomor~
Cismo de espaço com produto interno.
14. Se V é um espaço com produto interno, um morimento rigido é uma
função qualquer T de V em V (não necessàriamente linear) tal que 11 Ta -
- T.811 - a ~ iil I para todos a, (3 em V. Um exemp]o de um movimento
rígido é um operador linear unitário. Outro exemplo é uma translação por
um vetor fixo -y.
T-y(a) - a + i'
(a) Seja V o espaço R 2 com o produto interno canônico. Suponha-
mos que T seja um movimento rígido de V e que T(0) - O. Demonstrar
que T é linear e é um operador unitário.
(b) Usar o resultado da parte {a) para demonstrar que todo movimento
rígido de R 'J é composto de uma translação, seguida de um operador uni-
tário.
{e) Mostrar agora que um movimento rígido de R 2 é uma translação
seguida de uma rotação ou então uma translação seguida de uma reflexão
seguida de uma rotação.
15. Um operador unitário sôbre R~ (com o produto interno canônico) é
simplesmente um operador linear que conserva a forma quadrática
li(x, Y, z, 1)11 2 = x + Y + zz + tª
2 2

isto é, um operador linear U tal que li Uai l 2 = llal 1ª para todo a em R 4•


Numa certa parte da teoria da relatividade, é de interêsse determinar os
operadores lineares T que conservam a forma
ll(x, Y, z, t)l!l ""' fl - x2 - y 2 - z 2•
Contudo, li 111 não vem de um produto interno, mas de algo chamado .. mé-
trica de Lorentz" (a qual não estudaremos). Por esta razão, um operador
linear T sõbre R 4 tal que !ITalll - lla[ll, para todo a em R'-, é denominado
uma transfonnação de Lorentz.
(a) Mostrar que a função U definida por

U(x, y, z, t) _= ['y -+ rzz. yt +


-
iz]
x

é um isomorfismo de R 4 no espaço vetorial H das 2 X 2 matrizes comple-


xas auto-adjuntas.
(b) Mostrar que llcxl ll = det ( Ua).
(e) Suponhamos que T seja um operador linear (real) sôbre o espa-
ço H das 2 X 2 matrii.es auto-adjuntas. Mostrar que L ""' 1 é um u- ru
operador linear sõbre R4.
{d) Seja' M uma 2 X 2 matriz· complexa arbitrária. Mostrar que
T..v(A) ""' M• AM define um operador linear TM sôbre H. (É necessário veri-
ficar que T,_v leva Hem H.)
(e) Se M é uma 2 X 2 matriz tal que fdet Ml =- 1, mostrar que
LM = u-• T.vU é uma transformaçãp de Lorentz sôbre R 4 •
(f) Encontrar uma transformação de Lorentz que não seja uma /.,g,
282 ESPAÇOS COM PRODUTO INTERNO

8. 6 Operadores Normais
O objetivo principal desta seção é a resolução do problema
seguinte: Se T é um operador linear sôbre um espaço V de dimensão
finita com produto interno, sob que condições V possui uma base
ortonormal formada por vetores característicos de T? Em outras
palavras, quando é que existe uma base ortonormal O:\ de V, tal que
a matriz de T em relação à base <B seja diagonal?
Vamos iniciar deduzindo algumas condições necessárias sôbre
T, que mostraremos subseqüentemente serem suficient_~• Suponha-
mos que IB = {a1, •.• ~ a11} seja uma base ortonormal ê'le V com a
propriedade
(8-19) Ta1 = CjOt.j, j = 1, ... , n.
Isto diz simplesmente que a matriz de Tem relação à base ordenada
<B é a matriz diagonal com elementos diagonais c 1, ••• , e". O ope-
rador adjunto T* é representado em relação a esta mesma base.orde-
nada pela matriz transposta conjugada, isto é, a matriz diagonal
com elementos diagonais l;1, ••. , e". Se V é um espaço real com
produto interno, os escalares c1, ... , e" são (evidentemente) reais
e então temos T = T*. Em outras palavras, se V é um espaço real
·de dimensão finita com produto interno e T é u n operador linear
para o qual existe uma base ortonormal de vetores característicos,
então T deve ser auto-adjunto. Se V é um espaço complexo com
produto interno, os escalares c 1, ••• , e" não são necessàriamente
reais, isto é, T não é necessàriamente auto-adjunto. Mas notemos
que T deve satisfazer
(8-20) TT* = T*T
De fato, duas matrizes diagonais quaisquer comutam e como T e
T* são ambas representadas por , matrizes diagonais e'll
, relação à
base ordenada <S, temos (8-20). E um fato bastante notavel que esta
condição também seja suficiente para implicar a existência de uma
base ortonormal formada por vetores característicos.
Definição. Seja V um espa,·o de dimensão finita com produto
interno e Tum operador linear sôbre V. Dizemos que T é normal se
comuta com seu adjunto, isto é~ TT* = T*T.
Todo operador auto-adjunto é normal. como também o é todo
operador unitário. Todo múltiplo escalar. de um operador normal
é normal; contud·o, somas e produtos de operadores normais não
são em geral normais. Embora isso não seja de forma alguma ne-
cessário. iniciaremos nosso estudo de operadores normais conside-
rando operadores auto-adjuntos.
OPERADORES NORMAIS 283

Teorema 17. Seja V um espaço com produto interno e T um


operador linear auto-adjunto sôbre V. Todo valor característico de
T é real. Vetores característicos de T associados a valores caracte-
rfsticos distintos são ortogonais.
Demonstração. Suponhamos que e seja um valor característico
de T, isto é, que Ta = ca para algum vetor não-nulo a. Então
c(a, a) = (ca, a)
= (Ta, a)
= (a, T~)
= (a. ca-}
= c(a, a).
Como (a, a) ~ O, devemos ter e = ê. Suponhamos também que
T~ = ~ com /3 -# O. Então
c(a, [j) = (Ta, fj)
= (a, Tt,)
= (fj, d/3)
- cl(a, f:J)
= d(a, /3).
Se e ~ d, então (a, fJ) = O.
Deve-se salientar que o Teore1na 17 nada diz a respeito da exis-
tência de valores característicos ou de vetores característicos.
Teorema 18. Em wn espaço de dimensão f ínita positiva com pro-
duto in_terno, todo operador auto-adjunto possui um vetor caracterís-
tico (não-nulo).
D,emonstração. Seja V um espaço de dimensão n com produto
interno, sendo n > O e seja Tum operador auto-adjunto sôbre V~
Tomemos uma base ortonormal m de V e seja A = [71<B- Como
T = T* temos A = A*. Seja agora W o espaço das n X 1 matrizes sôbre -
C, com produto interno (X, Y) = Y* X. Então U(X) = AX define um o-
perador linear auto-adjunto V sôbre W. O polinômio característico,
det fxl - A), é um polinômio de grau n sôbre o corpo dos números
complexos; todo polinômio sôbre C de grau positivo possui uma raiz.
Assimt existe um número complexo e tal que det (cl - A) = O.
Isto significa que A - cl é singular, ou que existe uma X não-nula
tal que AX = cX. Como o operad'or U (multiplicação por A) é
auto-adjunto, decorre do Teorema 17 que e é real. Se V é urn espaço
vetorial real, podemos tomar X com elementos reais. De fato, nes..
284 ESPAÇOS COM PRODUTO INTERNO

se caso A e A - e/ têm elementos reais e como A - e/ é singular,


o sistema (A - cl)X = O possui uma solução real não-nula X.
Decorre que existe um vetor não-nulo a em V ta) que To: = ca.
Diversos comentários devem ser feitos a respeito da demons-
tração. (1) A demonstração da existência de um X não-nulo tal
que AX = cX nada teve que ver com o fato de A ser hermitiana
(auto-adjunta). Ela mostra que todo operador linear sõbre um es-
paço vetorial complexo de dimensão finita possui um vetor caracte-
rístico. No caso de um espaço real com produto interno, a auto-adjun-
ção de A é usada de modo fundamental para nos dizer que cada valor
característico de A é real e que portanto podemos encontrar um X
conveniente com valores reais. (2) O argumento mostra que o poli-
nômio característico de uma matriz auto-adjunta tem coeficientes
reais, a despeito do fato de que a matriz possa não ter elementos
reais. (3) A hipótese de V ser de dimensão finita é necessária para o
teorema; um operador auto-adjunto sôbre um espáço de dimensão
infinita com produto interno pode não ter nenhum valor caracterís-
tico.
Exemplo 23. Seja V o espaço vetorial das funções complexas
(ou reais) contínuas, definidas sôbre o intervalo unitário O< t < l,
com o produto interno

(f, g) = j/ f(t)g(t)dt.
O operador "multiplicação por t", (Tf)(t) = tf(t), é auto-adjunto.
Suponhamos que Tf == cf. Então
(t - c)f(t) = O, O < t < 1
e então /(t) = O para t ;it: e. Como fé contínua,/ = O. Logo T
não possui valores (vetores) característicos.
Teorema 19. Seja V um espaço de dimensão finita com produto
interno e. seja T um operador linear arbitrário sôbre V. Suponhamos
que W seja um subespaço de V que seja invariante sob T. Então o
suplementar ortogonal de W é invariante sob T.

Demonstração. Recordamos que o fato de W ser invariante sob


T não quer dizer que cada vetor em W permaneça fixo por meio
de T; significa que se a está em W então Ta está em W. Seja /j em
w..1.. Precisamos mostrar que· T*/3 está em WJ., isto é, que
(aJ T*P) = O para todo a em W. Se a está em W, então Ta está
em W, portanto (Ta. fj) = O. Mas (Ta, f:l) = (a, T*fJ)*.
OPERADORES NORMAIS 285

Teorema 20. Seja V um espaço de dimensão finita com produto


interno e seja Tum operador linear auto-adjunto sôbre V. Então existe
uma base ortonormal de V, cujos vetores são vetores característicos
de, T.
Demonstração. Estamos supondo dim V > O. Pelo Teorema 18,
T possui um vetor característico a. Seja a1 = a/11a! 1de modo que
a 1 também é um vetor característico de Te I ja 1 II = 1. Se dim V = l,
já terminamos. Vamos agora proceder por indução sôbre a dimen-
são de V. Suponhamos que o teorema seja válido para espaços com
produto interno de dimensão menor que dim V. Seja W o subes-
paço unidimensional gerado pelo vetor a1. A afirmação de que a 1
, um vetor característico de T significa simplesmente que W é inva-
riante sob T. Pelo Teorema 19, o suplementar ortogonal w.1 é
invariante sob T* = T. Ora W\ com o produto interno de V,
é um espaço com produto interno de dimensão um a menos que a
dimensão de V. Seja U o operador linear induzido sôbre WJ. por
T, isto é, a restrição de T a w.1. Então U é auto-adjunto e, pela
hipótese de indução, w.1 possui uma base ortonormal { a2, ..• , an}
formada por vetores característicos de U. Ora, cada um dêsses ve-
tores também é um vetor característico de T e como V = W ffi W-\
concluimos que {ai, ... , a,.} é a desejada base de V.

Corolário. Seja A uma n X n matriz hermitiana (auto-adjunta).


Enteio existe uma matriz unitária P tal que P* AP seja diagonal (A
é unitàriamente equivalente a uma matriz diagonal). Se A é wna ma-
triz simétrica real, existe uma matriz ortogonal real P tal que ptAP
seja diagonal.
Demonstração. Seja V o espaço C", com o produto interno ca-
nônico e seja T o operador linear sôbre V que é representado por
A em relação à base ordenada canônica. Como A = A*, temos
T = T*. Seja m = { át, ... , o:n } uma base ortonormal ordenada
de V, tal que TaJ = c1a1, j = l, ... , n. Se D = [71rn, então D é
a matriz diagonal com elementos diagonais c1, ... , cn. Seja P a
matriz com vetores•colunas o: 1, •.• , a 11 • Então D = P* AP.
Caso todo elemento de A seja real. podemos tomar V como
sendo R", com o produto interno canônico e repetir o argumento.
Neste caso, P será uma matriz unitária com elementos reais, ou
seja, uma matriz ortogonal real.
Caso todo elemento de A seja real, podemos tomar V como
sendo R 11 , com o produto interno canônico e repetir .o argumento.
286 ESPAÇOS COM PRODUTO INTERNO

Neste caso, P será uma matriz unitária com elementos reais, ou


seja, uma matriz ortogonal real.
· Combinando o Teorema 20 com nossos comentários no início
desta seção, temos o seguinte: Se V é um espa_ço real de dimensão
finita com produto interno e T é um operador linear sôbre V, então
V possui uma base ortonormal formada p.or vetores característicos
de T se, e somente se, T é auto-adjunto. Equivalentemente, se A é
uma n X n matriz com elementos reais, existe uma matriz ortogo-
nal real P tal que piAP seja diagonal se. e somente se, A = A'.
Não existe nenhum resultado semelhante ··para matrizes simétricas
complexas. Em outras palavras, para matrizes complexas, uma di-
ferença significativa entre as condições A = A' e A = A •.
Tendo resolvido o caso de operadores auto-adjuntos, voltamos
ao estudo dos operadores normais em geral. Vamos demonstrar
o análogo do Teorema 20 para operadores normais, no caso com-
plexo.
Teorema 21. Seja V um espaço de dimensão finita com produto
interno e T um operador normal sôbre V. Entã-o todo vetor caracte-
rístico de T também é um vetor característico de T*.
Demonstração. Suponhamos que U seja um operador normal
arbitrário sôbre V. Então 11 Uai 1 = 11 U*a[ 1 para todo a em V. De
fato, usando UU* = U*U vemos que
[1Ualj 2 = (Ua, Ua) = (a, U*Ua)
= = (U*a, U*a) = llU*al [2•
(a, UU*a)
Se T é normal e e é um escalar, o operador U = T - e/ é normal,
pois (T- e/)* = T* - êl. Então, para cada a em V
ll(T- c/)al! = ll(T* - c/)fj.
Em particular, (T - c/)a = O se, e somente se, (T* - cl)a = O.
Assi':m, a é um vetor característico de T com valor característico e
se, e somente se, a é um vetor característico de T* com valor carac-
terístico e.
Teorema 22. Seja V um espaço complexo de dimensão finita
com produto interno e seja T um operador normal sôbre V. Então
V possui uma base ortonormal, onde cada vetor é um vetor caracterís--
tico de T.
Demonstração. Como estamos trabalhando sôbre um espaço ve-
torial complexo, T possui um vetor característico a 1, qtie, podemos
supor, satisfaz r lcr1' 1 = 1. Seja w o subespaço gerado por ô!t, de
OPERADORES NORMAIS 287

modo que W é invariante sob T. Pelo Teorema 21, W também é


invariante sob T*. Decorre do Teoren1a l9 que WJ. é invariante
sob T* *. Mas T* * = T e então w.1. é invariante sob T. A restri-
.ção de T a w1. é um operador normal, sendd o adjunto desta res-
trição a restrição de T* a W 1 • A-gora basta repetir o argumento
usado na demonstração do Teorema 20.
Novamente existe a interpretação matridal. Talvez esta defini-
ção proceda. ·
Definição. Uma n X n matriz complexa A é dita normal se
AA* = A*A.
Corolário. Seja A uma n X n matriz com elementos complexos.
Existe uma matriz unitária P tal que P*AP seja diagonal se, e sàmente
se, AA * = A* A. Em outras palavras, A é unitàriamente equivalente
a uma matriz diagonal se, e somente se, A é normal.

Exercícios

1. Para cada uma das seguintes matrizes simétricas reais A, encontrar uma
matriz ortogonal real P tal que P 1AP seja diagonal.

[ cos fJ sen ()]


sen (J --cos 8
2. Uma matriz simétrica complexa é auto-adjunta'? É normal?
3. Para

A = [l 2 3]
2 3 4
3 4 5
existe uma matriz ortogonal real P tal que PtAP = .D seja diagonal. De-
terminar esta matriz diagonal D.
4, Seja V o espaço C 1 , com o produto interno canônico. Seja T o opera-
rador linear sôbre V que é representado em relação à base ordenada ca•
nônica pela matriz

Mostrar que T é normal e determinar uma base ortonormal de V, constituí~


da de vetores característico$ de T.
5. Dar um exemplo de uma 2 X 2 matriz A tal que A~ seja normal, mas
A não seja normal.
6. Seja T um operador normal sôbre um espaço complexo de dimensão
finita com produto interno. Demonstrar que T é auto-adjunto, positivo
ou unitário conforme todo valor característico de T seja real, positivo ou
de valor absoluto 1. (Usar o Teorema 22 para reduzir o problema a um
semelhante relativo a matrizes diagonais.)
288 ESPAÇOS COM PRODUTO INTERNO

7. Seja Tum operador linear sôbre o espaço V de dimensão finita com pro-
duto interno e suponhamos que T seja posítivo e unitário. Demonstrar que
T = l.
8. Demonstrar que T é normal se, e somente se, T -= T. + iT1, onde T1
e Ti são operadores auto-adjuntos que comutam.
9. Demonstrar que uma matriz simétrica real possui uma raiz cúbica si-
métrica real; isto, é se A é simétrica real, existe uma B simétrica real tal
que BJ = A.
10. Demonstrar que tôda matriz positiva é o quadrado de uma raiz po-
sitiva.
11. Demonstrar que se um operador.--, normal e nHpotente então êle é o
operador nulo. ·
12. Se T é um operador normalt demonstrar que vetores característicos
de T associados a valores característicos distintos são ortogonais.
13. ·Seja T um operador normal sôbre um espaço complexo de dimensão
finita com produto interno. Demonstrar que existe um polinômio /, com
coeficientes complexos, tal que T* - f(t). (Representar T por meio de uma
matriz diagonal e verificar o que f deve ser.)
14. Se dois operadores normais comutam, demonstrar que o seu produto
é m;>rmal.

8. 7 Teorema Espectral

Em tôda esta seção, V será um espaço complexo de dimensão


finita com produto interno. Vamos demonstrar o teorema espectral
que afirma que todo operador normal T pode ser expresso sob a
forma
T = c1E1 + c2E2 + ... + c1rEk
onde Ei, ... ,- Ek são projeções ·ortogonais duas a duas ortogonais
entre si, E; Ej = O parai ~ j. Abreviadamente (e um tanto despreo-
cupadamente) todo operador normal é uma combinação linear_ de
projeções ortogonais. Ora, êste teorema pode ser deduzido de modo
bastante fácil a partir do teorema de diagonalização para operado-
res normais (Teorema 22); contudo, gostaríamos de fazer uma de•
monstração independente. A demonstração que fizemos do Teorema
22 foi uma demonstração "especial", isto é) ela lidou diretamente
com a geometria do espaço com produto ihterno e com o modo co-
mo o operador normal se comporta em relação a esta geometria.
Faremos uma demonstração do teorema espectral que é quase pu•
ramente algébrica. Nenhuma demonstração dêste teorema pode ser
(ou deve ser) completamente divorciada da geometria do espaço sub-
jacente V; entretanto; sentimos que uma Hdemonstração algébrica"
merece ser feita, por duas razões. (1) Essa demonstração vai relacio~
nar o tratament~ dos operadores normais com o tratamento, no Ca •
TEOREMA ESPECTRAL 289

pitulo 6, dos operadores diagonalizáveis sôbre um espaço vetorial


sem nenhum produto interno particular. ◄ 2) Em anos recentes, m'é•
todos algébricos colaboraram para uma demonstração elegante do
teorema espectral para operadores normais em certos espaços par-
ticulares de dimensão infinita com produto interno, conhecidos co-
mo uespaços de Hilbert".
Seja T um operador normal sôbre V. Desejamos escrever T co..
mo uma combinação linear de projeções ortogonais. Antes de che-
garmos ao âmago da demonstração de que isto é po'ssível, parece
aconselhável que nos familiarizemos um pouco mais com projeções
ortogonais. Recordemos que se W é um subespaço de V, então
V = W EB W 1 , ou seja, cada vetor a em V pode ser expresso de um
único modo sob a forma a = /3 + 'Y, com {:1 em W e 'Y no suplemen-
tar ortogonal W 1 • A projeção ortogonal de V sôbre W é simplesmen-
te o operador linear E definido por Ea = /f Em geral, existem muitas
maneiras de "projetar" V sôbre W. Todo operador linear E que tem
W por sua imagem e satisfaz E 2 = E é uma tal projeção. A proje-
ção ortogonal é distinguida pelo fato ge que seu núcleo é W\ o su-
plementar ortogonal de sua imagem. E útil ter um critério para dis-
tinguir as projeções ortogonais e com tal fim demonstraremos o que
segue.
Teorema 23. Seja E uma projeção, E 2 = E. As seguintes afirma-
ções são equi1valen tes.
(i) E é normal, EE* = E *E;·
(ii) E é auto-adjunto, E = E*;
(iii) E é a projeção ortogonal sóbre sua imagem.
Demonstração. (i)---+ (ii). De EE* = E*E, temos IIEtlll - IIE*~II
para todo fJ em V. De fato
= (t,, E*EfJ) = (fJ, EE*/3) = (E*/3, E*fJ).
(E/3, E/3)
Em particular, E/3 = O se, e somente se, E*/3 = O. Seja a um vetor
arbitrário em V e seja p = a - Ea.. Então
E/3 = Ea-E 2a = &-Ea = O
logo O = E*/3 = E*a - E* Ea.
Portanto E* - E* E e
E = E** = (E*E)* = E*E = E*.
{ii) ~ (iii). Suponhamos que E= E*. Então, o núcleo de E é o
suplementar ortogonal de sua imagem. De fato, (Ea, {J) = (a, E/3),
290 ESPAÇOS COM PRODUTO INTERNO

. portanto, /j é ortogonal a todo Ea. se, e somente se, EfJ é ortogonal a


V, isto é, E/3 = O. Logo, E é a projeção ortogonal sôbre sua imagem.
(iii)---+ (i). Suponhamos que E seja uma projeção ortogonal.
Sejam a, fJ vetores arbitrários em V. Então a - Ea está no núcleo de
E e E{J está na imagem de E, logo
O = (a - &, E{J)
= {a, Efj) - (1Ea, Efj)
= (a, E/3}'\ (o:, E*Er,).
Como isto vale para todos a, ~. concluímos que E = E* E. Assim,
E é auto-adjunta, logo norma1.
Sejam W1, ... , W.t subespaços de V. Lebremos (Seção 6.1) que
V é a soma direta de W1, •.. , Wk, isto é, V = Wi EB ... EB W1,
se todo vetor a em V pode ser expresso de um único modo sob a forma
a :; a:1 + ... + O:k, a; em Wi.
Em um espaço com produto interno, interessam-nos de maneira espe-
cial as decomposições em soma direta que são ortogonais, isto é, nas
quais todo vetor em W; é ortogonal a todo vetor em W; parai '#- j.
Teorema 24. Sejam W1, ..• ·, W k subespaços de V e seja EJ a pro-
jeção sôbre Wh j = 1, ... , k. As seguintes condições são equivalen-
tes.
(i) V = W1 EB . • • e Wk, e esta é uma soma direta ortogonal.
(ii) I = E1 + ... + Ek, e EiEj = O parai F- j.
(iii) Se <BJ é uma base ortonormal de Wh j = 1, . . . k, então a
reunião das <B; é uma base ·ortonormal de V.
DemoMtração. Vamos esboçar a demonstração. Se o leitor en-
contrar dificulê:lades em alguns detalhes, deverá -1ver as demonstra-
ções ·dos Teoremas 1, 2 e 3 do Capitulo 6, que contém todo o argu-
mento, ·exceto pelas questões sôbre ortogonalidade.
Sup,onhamos que (ü) seja válida. Se a está em V, então, de / =
= Ei + . . . + E11: temos
a = Eia + . . . + Ekot,
Assim, a é uma soma de vetores, um de cada subespaço W1.
Se a = ai + . . . + ª• com a.1 em 1+:.J, então
Eiaj = a1 e a = E1a1 + . . . + E,ia1c,
Portanto
TEOREMA ESPECTRAL 291

Conseqüentemente, a única expressão de a com uma soma de veto-


res dos subespaços Wi é a = Eia + ... + EirCK; logo
V = w. EB ••• EB Wk.
Para ver que esta é uma soma direta ortogonal, observemos que
(E;a, Ej{,) = (a, E7 EJ/3) = (a, EiEj{3)" = (a, O) = O.
Usamos aqui o fato de E; ser auto-adjunto, por ser uma projeção
ortogonal. Então (ii) implica (i). Não é difícil inverter a argumenta-
ção, para mostrar que (i) implica (ii).
Vejamos por que é que (iii) é equivalente a (i). Se (i) vale, cada
a em V é da forma a = ar + ... +
a11: com ªi em Wj e (ai, aJ) = O
para i ~ j. Se <Bj é uma base ortonormal de W:;, j = 1, ... , k, seja·
CB a reunião das d\J, Então & gera V, poi$ se a está em V, podemoses-
crever ªi como uma combinação linear dos vetores em <Bj e a expres-
são a = ai + ... +
a1c fornece a como uma combinação linear dos
vetores em m. Além disso, m é um conjunto ortonormal, pois mi é or-
tonormal e todo vetor em <.B; é ortogonal a todo vetor em <B; se i ~ j.
Logo, <R é uma base ortonormal. Novamente, deixamos a cargo do
leitor a inversão desta argumentação.
A grosso modo, os Teoremas 23 e 24 são a parte geométrica de
nossa demonstração do teorema espectral. O efeito dêsses teoremas
é traduzir afirmações sôbre a ortogonalidade de subespaços em afir-
mações algébricas sôbre projeções e suas adjuntas. ·
Voltemos agora ao nosso operador normal T. Vamos estudar T ·
considerando a álgebra dos polinômios em T, isto é, a coleç-ão de ope-
radores lineares da forma /(T), onde/ é um polinômio com coefici-
entes complexos. Necessitaremos de três fatos básicos, que enuncia-
"remos sob a forma de lemas. ·
Lema. Seja Tum operador normal e a um vetor tal que T 2a = O.
Então Ta = O. Em outras palavrast a imagem e o n'úcleo um ope- de
rador normal são disjuntos.
Demonstração. Suponhamos que T 2a = O. Seja /j = Ta, de mo-
do que TfJ = O. Usando TT* = T*T temos IIT/31] = IIT•fJJI e assim
T*fJ = O. Conseqüentemente,
O = (T*/3, a}
= (IJ, Ta.)
= (/3, /3)
e fJ = O.
292 ESPAÇOS COM PRODUTO INTERNO

A afirmação de que T 2a = O implica Ta. = O diz simplesmente


que a imagem e o núcleo de T são disjuntos. De fato, ela diz que se fJ
está na imagt·m de T, (j = Ta, e T/j = O, então /j = O.
Lema. Seja T um operador normal e f um polinómio com coefi-
cientes complexos. Então o operador f(T) é normal.
Demonstração. Se/= ao + a1x + ... + OJ:X\ então
/(T) = aol + a1T + ... + akT1r.
Assim,
f(T)* =1 ão/+ a1T*
i
+ ... + ãi(T*t.
Como TT* = T*T é"fácil ver que/(T) comuta com,/(D*-.
Lema. O polinômio minimal de um operador normal possui raízes
distintas.
Demonstração. Lembramos (Seção 6.2) q,ue o polinômio mini-
mal de T é o polinômio unitário de menor grau entre os polinômios
/ tais que f(T) = O. Seja p êste polinômio minimal. Vamos mostrar
que p = (x - c1) . , . (x - ck), onde c1, ... , c1 são números com-
plexos distintos. Suponhamos que isto não ocorra, isto é, que algu-
ma raiz e de p seja múltipla. Isto significa que p = (x - c) 2g para
algum polinômio g. Como p(.T) = O, temos (T - c/) 2g(_T) = O, ou
(T - cl) 2g(T")a = O
para todo a em V. Pelo último lema, o operador U = T- e/ é nor-
mal. Seja a em V e seja f3 = g(_T)a. Então
U 2/3 = (T - = O.
cl)2g(T')a
Então, pelo primeiro lema acima, temos C,(~ = O. Assim,
(T- c/)g(T)a == ·o
para todo a, ou seja (T - cl)g(_T) = O. Mas isto contradiz a hipóte-
se de que p tem o menor grau dentre todos/ tais que/(T) = O.
Vamos agora escrever T como uma combinação linear de pro-
jeções ortogonais. O método que vamos usar será exatamente o mes•
mo que usamos no estudo de operadores diagdnalizáveis no Capíiu-
lo 6. Se alguns detalhes não estiverem claros, insistimos em que o
leitor consulte as demonstrações dos Teoremas 8, 9 e 10 do Capí--
tulo 6.
Como T é normalt o polinômio minimal p de T é da forma
p = (x - C1) ••• (x - Ck)
TEOREMA ESPECTRAL 293

onde c1, ••• , C1t são números complexos distintos. Ora, c1, •• , c1c
são, na verdade. os valores característico's de T, mas não precisamos
saber isto agora, uma vez que logo se tornará evidente. Vamos expri-
mir T sob a forma T = c1E 1 + ... + c1cE1, onde E 1 , ••• , E1i; são
projeções ortogonais que satisfazem/ = E1 + ... + Ek e E;Ei =
= O para i #- j. Para compreender o método que usamos, suponha"'
mos que tivéssemos as projeções E1, ... , E1,;. Então teriamas

T = (. "-
2 2;
r-1
c;E;
)
(.Ik ciEJ)
1•1

= l; l; e iCJE;Ei
i j

== ~ cJE]
j

- ~ c}Ei.
j

Da forma mais geral, teríamos

e, tomando combinações lineares,


~
g(T) = t g{_cj)EJ
j-1

para todo polinômio g. Isto nos diz como conseguir as projeções


Ei, ... , E,.. De fato, suponhamos que Pi seja. um polinômio tal
que pAc;) = liij, Então
,,
plT) = l; p;{c,)Ei
i•l
n
= 2; 6,jE;
i- l

= EJ.
Ora, começamos com T e seu polinômio minimal
p = (x - c1) •.. (x - c1),

seja p; = (x - c1) ... (x - Cj-1)(x


________ .;;.__...;...._~-_ ___;Cj+1) .•. (x -._____,
:;_.:. . . . . :. ____ c1);, •
(Cj - C1) ... (e; - Cj-t) (Cj - Cj+ 1) ••• (Cj - C1)

Então Pi (e;) = 8iJ• Os polinômios pi, ..• , p,. são os polinômios de


294 ESPAÇOS COM PRODUTO INTERNO

Lagrange determinados por c 1, ••• , C1t. tstes polinômios têm a pro-·


priedade de que se / é um polinômio qualquer de grau no máximo
k - 1, então
f = f(c1)p1 + ... + f(c1r,)p1t.
Isto decorre do fato de que
f-f(c1)P1 - ... -f(c1e)P1t
é um polinômio de grau máximo k - l que, em vista de pi{c;) = 8;i,
tem as k raízes distantes c1, ... , c1. Em particrilar, temos

1 = PI + ·. · + P1t
X = C1P1 + ... CkPk•

(Estamos supondo k ~ 2; em caso contrário, T é um múltiplo esca-


lar do operador id!ntico e então tudo está certo.) Definamos agora
E1 = pi{T). A equação acima nos f0:rnece então

/ = E1-· + ... + Ek
T = c1E1 + . . . + c1r.E1c.
Façamos algumas observações.
(i) E1 ~ O, para cadaj. De fato, Ei = pi(D e Pi é um polin&-
mio de grau k - l. Como p é o polinômio minimal de T, não pode•
mos ter pi{T) = O. ·
(ii) E;Ei = O se i ~ j. De fato, E;E_; = p;(T)pi{n. Quando
i ~ j, o polinômio h = p;pj é tlivis[vel por p. -Assim, h(T) = ps{Tj
p.;(_T) = ·º·
(iii) Cada Ei é uma projeção. Como
i

I = E1 + ... + E1r. e E;E; = O


·para i ~ j, temos
E; = E_;E1 + . . . + EJEt
= E].
(iv) ci, ••• , c1; são exatamente os valores característicos dis-
tintos de T. Primeiro, ci é um valor característico pela seguinte ra-
zão: Seja a um vetor não.nulo da imagem de Ei. Então a = E.;a, por-
tanto
TEOREMA ESPECTRAL 295

Ta - TEp
- E·Ta
J

- Eic1E1a + ... + c1cEkQ)


- c1E1E1a + ... + c"E;E1ca
- c·E·a
J 'J

- C1a.

Reciprocamente, suponhamos que e seja um valor característico de


T. Seja a um vetor tal que (T- c/)a = O. Isto diz
* (Cj
k - )E_;a = º·
j ""l

Aplicando E; a esta expressão obtemos


(e; - c)E;a·= O
para i = l, .... , k. Se e; ~ e para cada i, então temos E;a - O pa-
ra todo a, logo

Assim, e sendo um valor característico, deve ser igual a algum e;.


(v) A imagem de EJ é o espaço dos vetores característicos de
T que são associados ao valor característico e.;. Em outras palavras,
aestá na imagem de EJ se, e somente se, Ta = CJa, Primeiro, supo-
nhamos q~e Ta - c,;a. Então
k ~
~ c,E;a - CJ ~ E;a
i-l i•l

,t
ou 2; (ci - c1)Eia = O.
,-1
A partir disto concluímos que E;a = O para i ~ j e portanto que
a == E,;a. Suponhamos agora que a esteja na imagem de Ei, isto é,
que a = E1a. Na parte (iv) mostraremos que Ta = c1a.
(vi) EJ é a projeção ortogonal sôbre sua imagem. De fato, Ei
é um polinômio no operador normal T. Assim, Ej é uma projeção
normal e, pelo Teorema 23, é uma projeção ortogonal.

Teorema 25 (Teorema Espectral). Seja T um operador normal


sôbre o espaço complexo V de dimensão finita com produto interno.
Sejam c1, ••• , -Ck os valores característicos distintos de T e seja E1 a
296 ESPAÇOS COM PRODUTO INTERNO

projeção ortogonal sôbre o espaço dos vetores característicos associa•


dos ao valor característico Cj. Então
(a) T = c1E1 + ... + c11:Ek;
(b) / = E1 + , . , + Ek;
(e) EiEi = O, se i ~ j.
Além disso, a decomposição na parte (a) é única, no seguinte sentido.
Suponhamos que c1, ... , ck sejam números complexos distintos e
E1 •... , Ek, operadores lineares não-nulos sóbre V tais que as condi-
ções (a), (b) e (e) estejam satisfeitas. Então Ci, .•. , ck são exatamente
os valores característicos distintos de T e, para cada i, Ei é a projeção
ortogonal de V sóbre o espaço dos vetores característicos de T associa-
do ao valor característico Ci.
Demonstração. Já fizemos acima tc,da a demonstração. Talvez
sejam oportunos alguns comentários sôbre a unicidade. Salientamos
que se c1 e EJ satisfazem (a), (b) e (e) e se pj(c;) = ô;J, então EJ = pj(T).
Isto determina E1 de um único modo como um polinômio bem determi-
nado em T, uma vez que já mostramos que c1, ... , ck são os valores ca-
racterísticps. Isto, e mais o restante da demonstração da unidade, estão
contidos nas observações (iii)-(iv) acima. Basta notar que (iii)-(Vi)
foram demonstradas usando apenas (a), ('b), (e), o fato dos e, serem
distintos e mais o fato de que nenhum· dos E1 é o operador nulo.
Denominaremos a decomposição T = é1E1 + ... + ckEk a
resolução espectral de T. Deveríamos ressaltar que se T é um opera-
dor linear arbitrário que tem uma re,solução
T = c1E1 + ... + ckEk
tal que Ei = E/ e E;E1 - O para i # j, então T é normal. De fa-
to, E/ = E; implica
T* = c1E1 + ... + c"Ek
e como E1, ... , E1c' comutam porque E;E1 = EJEi = O para i r6 j~
·é claro que Te T* comutam. Pode-se descrever isto dizend.o que ope-
radores normais sôbre V são caracterizados como sendo os opera-
dores que podem ser expressos como uma combinação linear de p.ro-
jeções ortogonais que comutam.
Corolário. Se T é um operador normal, então V possui uma base
ortonormal formada de vetores característicos de T.
Demonstração. Seja W; o espaço dos a tais que Ta = c1a, e
seja mi uma base ortonormal de W1. Então, a reunião das m1 é uma
TEOREMA ESPECTRAL 297

·ba.se ortonormal de V. Isto decorre das partes (b) e (e) do teorema


espectral e do Teorema 24. Como todo vetor em W1 é um vetor
característico de T, a demonstraçãQ está completa.
Façamos alguns comentários. Na demonstração do corolário,
que é exatamente o Teorema 22, o fato de os diversos espaços Wi
serem ortogonai~ entre si é exatamente a afirmação de que vetores
característicos de um operador normal, que pertençam a valores
característicos distintos, são ortogonais. Notemos também que o
teorema espectral se esquece de mencionar um dos fatos importantes
que demonstramos, a saber, que as projeções Ei, ... 1 E1: são poli•
n8mios em T. Evidentemente, i'itO decorre das condições (a), (b) e
(e) do teorema. De maneira mais geral, temos
g(_T) = g(_c1)E1 + . . . + g(ck)E1;
para todo polinômio g. A partir disto temos o seguinte:
Corolário. Seja T um operador linear sôbre V. Então T é nor•
mal se, e somente se o adjunto T* é um polinômio em T.
1

Demonstração. Se existe um polinômio f tal que T* = f(T), enw


do, obviamente, T e T* comutam. Reciprocamente, suponhamos
que T stja normal. Seja
T = Ci'E1 + . , . + C1t.Ek
a resolução espectral de T. Como El = Ei, temos
T* = c1E1 + . .. + c1cE1e.
Ora, c1, ••• , c1c são números complexos distintos, portanto existe
um. polinômio/ tal que f(ci) = Cj, j = 1, ..• , k. Podemos tomar
f = C1P1 + · •• + CkPk,
onde pi, ... , Pk são os polinômios utilizados na demonstração do
Teorema 25. De f(c1) = êj, é imediato que T* .= /(n.
Talvez devamos observar agora os tipos,:especiais de operadores
normais com os quais trabalhamos neste capítulo: auto--adjuntos,
positivos e unitários. Se T é um operador normal com resolução
espectral T = c1E1 + ... + ckE1e 1 então T* = c1E1 + ... + c1eEk.
Diz.er que T é auto--adjunto é dizer que T = T*, ou seja,

(c1 - c1)E1 + ... + (ck - ,·k)E1,: = O.
Usando o fato de que E;Ei = O parai ~--Í e o fato de q® nenhum
E; é o operador nulo, vemos que T é auto--adjunto se, e somente se.
298 ESPAÇOS COM PRODUTO INTERNO

Cj = j = l, ... , k. Para distinguir os operadores normais que


l:J,
são positivos, observemos

(Ta, a) = ( i
j•l
CJE1a,
_
i E;a )
i-1

- 1: 2:: cj(E1a, E;a)


i j

- ~ Cjl(E;all 2•
,
.

Usamos o fato de que (E1a, Eia) = O para i ~ j. A partir disto é


evidente que a condição (Ta, a) > O para a > O é satisfeita se, e
somente se, c1 > O para todo f. Para distinguir os operadores uni-
tários, observamos que
TT* = C1C1E1 + ... + CkCkEk
- lcil 2E1 + ... + lctl 2Ek.
Se rr• = /, então / = lei 12E1 + ... + lckl 2Ek e, aplicando Eh
EJ = lei! 2EJ.
Como EJ ;é O, temos lc1I 2 = 1 ou lcil = 1. Reciprocamente, se
Jcil 2 = 1 para cada J, é claro que TT* -:: /.
Teorema 26. Seja T um operador normal sôbre o espaço com-
plexo V de dimensão finita com produto interno. Então, T é auto-
adjunto, positivo ou unitário conforme todo valor característico de T
seja real, positivo ou de valor absoluto 1.
É importante notar que êste é um teorema sôbre operadores
normais. Se T é um operador linear genérico sôbre V que possui
valores característicos reais, não decorre que T é auto-adjunto. O
teorema afirma que se T possui valores característicos reais e se T
é nprmal, então T é auto--adjunto. Um 'teorema dêste tipo serve para
fortalecer a analogia entre a operação de conjugação (operação de
se tomar adjuntos) e o processo de
se formar o conjugado de um
número complexo. Um número complexo z é real, positivo ou de
valor absoluto 1 conforme z = z, z = ww para algum w ~ O, ou
zz = 1, réspectivamente. Um operador T é auto-adjunto, positivo
du unitirio se, respectivamente, T = T*, T = V- U para algum
U inversível, ou 'F"'T'= I.
Vamos agbra demonstrar dois teoremas, que são os análogos
destas duas afirmações. (I) Todo número não-negativo possui uma
única raiz quadrada não--negativa. (2) Todo número complexo pod~
TEOREMA ESPECTRAL 299

ser expresso sob a forma ru onde r é não-negativo e luj = l. Esta


é a decomposição polar z = re• para números complexos. Para
estes dois résultados vamos precisar da seguinte :
Definição. Seja T um operador linear sôbre o espaço complexo
V com produto interno. Dizemos que T é nlo-neptivo se (Ta, a) > O
para todo a em V.
Se (Ta, a) > O para todo a, então, em particular, (Ta, a) é real
para todo a. Assim T é auto-adjunto. Em um espaço real com pro-
duto interno, deveríimos acrescentar a condição T - r• à definição
de um operador nio-negativo. Se U é um operador linear arbitrário
sôbte V, então, T = U* U é, como se vê f àcilmente, não-negativo:
(U*Ua, a) = (Ua., Ua) > O.
Se Ué inversível, então (ôbviamente) T é positivo.
Se T é um operador normal sôbre V, então T é não•negativo se,
e somente se, todo valor característico de T é não-negativo. Isto
se demonstra da mesma maneira que o resultado análogo para ope-
radores positivos.
Teorema 27. Seja V um espaço complexo de dimensão finita
com produto interno e seja T um operador não•negativo sôbre V-. Então
T possui uma única raiz quadrada não-negativa, isto é, existe um, e
somente um, operador não-negiltivo N l·ôbre V tal que N 2 = T.
Demonstração. Seja T = c1E1 + ... + c1cE1c a res·olução es·
pectral de T. Existe essa resolução, pois T é não-negativo, portanto
n·ormal. O fato de T ser não .. negativo nos diz que e_; > O para cada
j. Indiquemos por v' c1 a única raiz quadrada não-negativa de c1
e seja
N = V CJ Ei + ... + "rc,. E1t.
Certamente N é normal e afirmamos que esta ex.pressão é a. resolu-
çlo espectral de N. De fato, / = E1 + ... + E1, EiE., = O para
i '# j, nenhum EJ é O e 'V'ci, ... , V c1; são distintos. Como v' e., > O
para cada j, N é um operador não-negativo. É óbvio que N 2 = T.
Seja agora Pum operador não-negativo sôbre V tal que p 2 = T.
Vamos demonstrar que P = N. Seja
P = d1F1 + ... + d,Fr
a resolução espectral de P. Então d1 > O para cada}, pois Pé não•
negativo. De P 2 = T resulta
T = dfF1 + . .. + d~F,.
300 ESPAÇOS COM PRODUTO INTERNO

Ora, Fi, ... , Fr satisfazem as condições / = F 1 + ... + F,, FiFJ =


== O para i ;,ti. j e nenhum FJ é O. Os números d:, ... , d; são distin-
tos, porque números não-negativos distintos possuem quadrados dis-
tintos. Pela unicidade da resolução espectral de T, devemos ter r = k
e (talvez reordenando) FJ = E1, d} = c1• Assim P = N.
Teorema 28. Seja V um espaço complexo de dimensão finita
com produto interno e seja T wn operador linear arbitrário sôbre V.
Então, existe um operador unitlirio V sôbre V e um operador não-
negativo N sôbre V tal que T = UN. O operador não-negativo "1 é
único. Se T é inversível, o operador V tambem é único.
Demonstração. Suponhamos que T = UN, onde U é unitário
e N não-negativo. Então T* = (UN)* = N*U* = NU*. Assim,
r•r = NU•UN = N 2 • Isto mostra que N é determinado de um
único modo como a raiz quadrada não-negativa do operador não-
negativo T*T.
Então, para iniciarmos a demonstração da existência de U e N,
usaremos o Teorema 27 para definirmos N como a única raiz qua-
drada não-negativa de T*T. Se T é inversível, então N também o é
porque
(Na, Na) = (N 2a, a) = (T*Ta, a) = (Ta, Ta).
Neste caso, definamos U = TX- 1 e demonstraremos que Ué uni-
tário .. Ora, u• = (TN- 1)* = (N- 1)*T* = (N*)- 1T• = N- 1r•.
Assim,
uu• == TN- 1N- 1T*
- T(N- 1) 2T*
- T(N 2 )- 1 T*
- T(T*T)- 1 T*.
- rr- 1(T')- 1 r•
== l
o U é unitário.
Se T 6 não inversível, teremos de realizar um pouco mais de
trabalho para definir U. Definamos primeiro U sõbre a imagem de
N. Seja a um vetor na imagem de N, digamo,, a= Nfl . .Definamos
Ua. == TfJ, motivados pelo fato de que queremos UNfJ a:: TfJ. Preci ..
samos verificar que U está bem definida s&bre a imagem de N; em
outras•palavras, se N~~ = N(J, então Tft = TfJ. Verifiéamos acima
que !IN-Yll 2 = IIT-rll 2 para todo 'Y e_m .V. Assim, com a = fj - fj',
vemos que N(fl-fl') = O se, e sàmente se, T(fl-~') = O. Portanto, U
TEOREMA ESPECTRAL 301

·está bem definida sôbre a imagem de N e é evidentemente linear


onde definida. Se W é a imagem de N, vamos agora definir U sôbre
w.1.
Para fazer isto precisamos da seguinte observação: Como Te
N possuem o mesmo núcleo, suas imagens tem a mesma dimensão.
Assim, WJ. possui ntesma dimensão que o suplementar ortogonal
da imagem de T. Portanto, existe um isomorfismo (de espaço com
produto interno) Uo de W'. em T(Y).L. Agora já definimos U sôbrc
W e vamos definir U sôbre w.1
como sendo Vo.
Repitamos a definição de U. Como V = W e WJ., cada a em
V pode ser expresso de um único modo sob a forma a = N{j 'Y, +
onde Nfj está na imagem W de N e 'Y está em w.1. Definamos
Ua == T{J + Uo-y.
@ate U é evidentemente linear e, como verificamos acima, está bem
definido. Além disso
(Ua, Ua) = (TfJ + Uo"Y, Tfj + Uo'Y)
= (T~, TfJ) + (Uo-r, Uo:Y)
= (NfJ, N~) + (-y, 'Y)
= (a,a)
portanto U é unitário. Também UNfJ = Tfj para cada fl.
Denominamos T = UN a decomposfçio polar de T. Certamente
não dizemos que é a decomposição polar, pois U não é único. Mes•
mo quando T é inversível, de modo que U é único, temos a dificul•
da,de de que U e N podem não comutar. Na verdade, êles comutam
se, e somente se, T é normal. Por exemplo, se T = UN = NU, com
N não-negativo e U unitário.
rr• = (NU)(NU)• = NUU*N = N' == T*T.
O operador arbitrário T também possui uma decomposição T =
. - N1 U1, com N1 não-negativo e U1 unitário. Neste caso, N1 será
a raiz quadrada não-negativa de TT*. ~te resultado pode ser obtido
. aplicando..se o teorema há pouco demonstrado ao operador T• e
depois tomando adjuntos.

E:xereiciOI
1. Dar uma definição razoável de uma n X n matriz não-negativa e de--
pois demonstrar que uma tal matriz possui uma única raiz quadrada não--
•neptiva.
2. Seja T um operador normal e seja U um operador arbitrário que comute
com T. Demonstrar que U cómuta com T*.
302 ESPAÇOS COM PRODUTO INTERNO

3. Se U e T são operadores normais que comutam, demonstrar que U + T


e UT são normais.
4. Seja T um operador linear sôbre o espaço complexo V de dimensão fi-
nita com produto interno. Demonstrar que as dez afirmações seguintes sô-
bre T são equivalentes:
(i) T é normal.
(ii) IITall = IIT*all para todos a em V.
(iii) T = Ti + iL, onde Ti e Ti são auto-adjuntos e T1 Tl - T~T1.
(iv) Se a é um vetor e e um escalar tal que Ta = co:, então T•a =- ca.
(v) Existe uma base ortonormal de V formada por vetores caracte-
rísticos de T.
(vi) Existe uma base ortonormal IB tal que [71<B seja diagonal.
(vii) Existe um polinômio g com coeficientes complexos tal que
T* = g(_T).
(viii) Todo subespaço que é invariante sob T também é invariante sob r•.
(ix) T = NU, onde N é não-negativo, Ué unitário e N comuta com U.
(x) T = cE. + ... + ckEk, onde / = E1 + ... + Ek, E1E1 = O
para i ;,= i, e El = Ei = Ei*,

8. 8 Diagonali:zaçio Simultânea de Operadores Normais


Novamente, seja V um espaço complexo de dimensão finita
com produto interno. O que vamos demonstrar é que se tivermos
uma família arbitrária de operadores normais sôbre V, todos os
quais comutam, existe um base ortonormal de V que diagonaliza
tôdos êsses operadores simultâneamente.
Teorema 29. Sejam T e U operadores normais sôbre V que co-
mutam. Então existe um operador normal S sôbre V com estas prb-
priedades:
(i) Tanto T como U são polinômios em S.
(ii) S comuta com todo operador linear sôbre V que comute com
Te U.
Demonstração. Sejam T = c1E1 + ... + ckE1t: e U = d1F1 +
+ ... + drFr as resoluções especiais de T e U, respectivamente.
Cada E; é um polinômio em T; logo, U comuta com cada E;. Como
cada Fi é um polinômio em U-yemos que E,- e F1 comutam. Seja
agora
G,; = E;F1, 1 < i < k, l <j < r.
Então, Gij é uma projeção ortogonal. De fato, como E;F1 = F1E,,
temos
GJ = E;F'JE;Fi =- E;E;FiFJ = E,Fi = Gii
IJ == (E·F·)*
G~ I J -- F*J.C,
.l:'lk
- I· -- F·E·
J - E·F·
J I J -
--G IJ•
··
DIAGONALIZAÇÃO SIMULTÂNEA DE OPERADORES NORMAIS 303

k r
Além disso 2; ~ G;1 = ~ ! E;FJ
;.,=1 J-1 ' .,

=_(~E,) i=l
k (
~
r

,1=-
FJ)
l

- I . I
- /.
Se i ~ p ou j ;:é q, então
G,;Gpq = EiEJE11 Eq
= E;EpFiF,
= o.
Portanto, temos aqui kr projeções ortogonais Gü tais que Gi1G" = O
a menos que i = p e j = q (e talvez mesmo nesse caso). Ora, Te
U são combinações lineares das G,1 :
T = TI = (~Ci Ei) (~ F1) = 2; 2; c,,Gu
t j • j

U = VI = (2; d;~') (I E,) = 2; I d.;G ;_;.


J t i J

Sejam agora e;1, 1 < i < k, l ~ j < r, kr números complexos arbi:.


trários distintos e seja
S = 2: X eiJGiJ.
j j

As condições que estabelecemos sôbre as G;1 nos mostra que S é


normal e que

I j

para todo polinômio/. Tomemos agora um polinômio/ tal que


f(e;j} = e, e um polinômio g tal que g(_e;j) = d1 e temos T = /(S) e
U = g(S).
Todo operador linear que comuta com Te com U comuta com
E; e com Fh logo comuta com cada Gij, portanto comuta com S.
Poder.íamos destacar que Sé um polinômio em Te U conjuntamente,
isto é, S tem a forma
N
s= ~ a,,.,.rmun.
m,n•O
304 ESPAÇOS COM PRODUTO INTERNO

Isto é evidente, pois cada G ii é o produto de um polinômio em T


por um polinômio em U.
Corolário. Sejam Ti, ... , Tn um número finito de operadores
normais sôbre V tais que Ti comuta com Ti para todos i, j. Então existe
um operador normal T sôbre V tal que cada Ti seja um polinômio
em T.
Demonstração. A demonstração será por indução sôbre n, usando o
Teorema 29. Se n = l, basta tomar T = T1. Suponhamos que n >
> 1 e que o teorema seja válido para quaisquer n - l operadores
normais que comutam. Pelo Teorema 29, existe um operador nor-
mal S sôbre V tal que T1 e T2 sejam polinômios em· Se S comuta
com todo operador que comute com T1 e com T2. Ora, { S, Ta, ... ,
... , Tn} é uma coleção de n - 1 operadores normais sôbre V que
comutam. Pela hipótese de indução, existe um operador normal T
tal que S, Ta, ... , Tn sejam polinômios em T. Como T1 e T2 são
polinômios em S, vemos que cada Ti _é um polinê\mio em T.
Teorema 30. Seja 5 uma família arbitrária de operadores nor-
mais sôbre V, todos .os quais comutam. Então existe um operador
normal T sôbre V tal que todo operador na família ~ seja um poli-
nómio em T.
Demonstração. Seja W o subespaço de L(V, Y), gerado por fF,
isto é} o conjunto das combinações lineares (finitas) de operadores
em 5. Então, todo operador em Wé normal. De fato, sejam U1, ... ,
... , U" operadores em 5 e c1, ... , ck números complexos. Pelo
último corolário, existe um operador normal S tal que cada U1 seja
um polinômio em S. Portanto, a combinação linear c1U1 + . . . +
+ c1cU1c é um polinômio no operador normal Se é também normal.
Além disso, é evidente que todos os operadores em W comutam.
Seja agora { T1, ... , Tn.} uma base de W. Pelo último corolário,
existe um operador normal T tal que ca,da TJ seja um polinômio
em T. Como todo operador em W é uma combinação linear de
T 1 , ••• , T,., todo operador em W (em particular, em ff) é um poli-
nômio em T.
Corolário. Se O: é uma família arbitrária de ope_radores normais
sôbre V que comutam, existe um base ortonormal ordenada <B de V
tal que todo operador em 5· seja representado por uma matriz diago-
nal em relação à base ordenada m.
Demonstração. Tomemos T como no Teorema 30 e uma base
ortonormal CB tal que [71ffl seja diagonal. Se D é uma matriz diago-
nal e/ é um polin·ômioJ então f(D) é diagonal.
CAPITULO 9

FORMAS BILINEARES

9. t Formas Bilineares
Neste capitulo vamos tratar das formas bilineares sôbre espaços
vetoriais de dimensão finita. O leitor provàvelmente observará uma
semelhança entre uma parte da matéria e a discussão dos determi-
nantes no Capitulo 5 e dos produtos internos no Capítulo 8. A re-
lação entre formas bilineares e produtos internos é particularmente
forte; no entanto, êste capítulo não pressupõe nada da matéria do
Capítulo 8. O leitor que não tiver familiaridade com produtos inter-
nos provàvelmente lucraria lendo a pritt1eira parte do Capítulo 8 à
medida que lesse a discussão de formas bilineares.
A primeira seção trata do espaço das formas bilineares sôbre
um espaço vetorial de dimensão n. A matriz de uma forma bilinear
em relação a uma base ordenada é introduzida e é estabelecido o
isomorfismo entre o espaço das formas e o espaço das n X n ma-
trizes. Define-se o pôsto de uma forma bilinear e são introduzidas
as formas bilineares degeneradas. A segunda seção discute as for-
mas bilineares simétricas e sua diagonalização. A terceira seção es-
tuda as formas bilineares anti-simétricas. A quarta seção discute
o grupo que conserva uma forma bilinear não-degenerada, com aten-
ção especial prestada aos grupos ortogonais, os grupos pseudo-
-ortogonais e um grupo pseudo-ortogonal particular - o grupo de
Lorentz.

Definição. Seja V um espaço vetorial sôbre o corpo F. Uma forma


bilinear sôbre V é uma função f, que associa a cada par ordenado de
vetores a, fJ em V um escalar f(a, fJ) em F, e que satisfaz

(9-1)
/ ( Ca1 + a2,fJ) = cf(a.1, fJ) + /(a2, fJ)
f(a, cfJ1 + fJ2) = cf(a, /ji) + /(a, fJ2).
306 FORMAS BILINEARES

Indicando por V X V o conjunto de todos os pares ordenados de


vetores em Y, esta definição pode ser reformulada como segue:
Uma forma bilinear sôbre V é uma função/ de Y X V em F que
é linear como uma função de qualquer dos seus argumentos quando
o outro é deixado fixo. A função nula 4e V X V em Fé evidente•
mente uma forma bilinear. É também verdade que tôda combinação
linear de formas bilineares sôbre V é ainda uma forma bilinear.
Para demonstrar· êste fato, basta considerar combinações lineares
do tipo cf + g, sendo f e g formas bilineares sôbre V. A demons-
tração de que cf + g satisfaz {9·1) é semelhante a muitas outras que
fizemos e vamos omiti-la. Tudo isto pode ser resumido dizendo-se
que o conjunto das formas bilineares sôbre V é um subespaço do
espaço das funções de V X V em F (Exemplo 3, capítulo 2). Indica-
remos o espaço das formas bilineares sôbre V por L (V, V, F).
Exemplo 1. Seja V um espaço vetorial sôbre o corpo F e sejam
L1 e L2 funcionais lineares sôbre V. Definamos/ por
/(a, 8) = L1(a)lifJ).
Fixando fJ e considerando f como uma função de a, então temos
simplesmente um múltiplo escalar do funcional linear L1 • Com a
fixo,/ é um múltiplo escalar de L2. Assim, é evidente que f é uma
forma b~inear sôbre V.
Exemplo 2. Sejam m i n inteiros positivos e F um corpo.
Seja V o espaço vetorial das m X n matrizes sôbre F. Seja A uma
m X m matriz fixa sôbre F. Definamos
/A(X, Y) = traço (X'A Y).
Então /A é uma forma bilinear sôbre V. De fato, se X, Y e Z são
m X n matrizes sôbre F.
.fA(cX + Z, Y) = traço [{cX + Z)'A-Y]
= traço (cX'AY) + traço (Z'AY)
= c/A(K., Y) + ÍA(Z, Y).
Evidentemente, utilizamos o fato de que a operação transposta e a
função traço são lineares. É ainda mais fácil mostrar que /A é linear
como uma função do seu segundo argumento. No caso particular
n = 1, a matriz X'AY é I X l, isto ét um .escalar, e a forma bilinear
é ~implesmente
J.(X, Y) = xiAY
= 2; l; A ijXi)'j.
t J
FORMAS BILINEARES 307

Mostraremos em breve que tôda forma bilinear sôbre o espaço das


m X 1 matrizes é dêsse tipo, isto é, é /A para alguma m X m ma -
triz A.
Exemplo 3, Seja F um corpo. Vamos determinar tôdas as for•
mas bilineares sôbre o espaço P2. Suponhamos que f seja uma tal
forma bilinear. Se a = (x1,x2) e /j = (y1, a2) são vetores em F 2, então
/(a, /3) = /(X1E1 + X2E2, /3)
= x1/(E1, /3) + x2/(E2, /3)
= x1f(t:1, Y1E1 + Y2E2) + x2/(E2, Y1E1 + Y2E2)
= XiY1/(E, E1) + X1Y2f(E1, E2) + x2y1/(E2~ E1) + x2y2/(t:2, E2).
Assim, f é completamente determinada pelos quatro escalares A iJ =
/(E;, Ei) da seguinte maneira:
/(a, ~) = Â1lX1Y1 + A12X1Y2 + A21X2Y1 + A22X2Y2
= l: Â;jXiYi·
i,j

Se X e Y são as matrizes das coordenadas de a e {3 e se A é a 2 X 2


matriz com elementos A(í,j) = A ii = f( e,, Ej), então
(9..2) f(a, fJ) = XtAY.
Observemos no Exemplo 2 que se A é uma 2 X 2 matriz arbitrária
sôbre F, então {9-2) define uma forma bilinear sôbre F 2• Vemos que
as formas bilineares sôbre F 2 são exatamente as obtidas por meio
de uma 2 X 2 matriz como em (9-2).
A discussão no Exemplo 3 pode ser generalizada de modo a
descrever tôdas as formas bilineares sôbre um espaço vetorial de
dimensão finita. Seja V um espaço vetorial de dimensão finita sôbre
o corpo F e seja c.B = {a1, . . . , an } uma base ordenada de V. Supo-
nhamos que/ seja uma forma bilinear sôbre V. Se
a = X1a1 + . . . + Xna:n e fJ = y1a1 + , , • + Yna:n
são vetores em V, então
/(a, /3) =. f (~ x;a;, #)
i

- 2; x;f(a;, /j)

- l; I x;y1f(ai, a:J).
i i
308 FORMAS BILINEARES

Se fizermos ÀiJ = /(a;, a1), então


/(ot, /3) = 1: ~ À ijXiYj
i j

== X 1AY

onde X e Y são as matrizes das coordenadas de a e ~ em relação à


base ordenada <B. Assim, tôda forma bilinear sôbre V é do tipo
(9-3) /(a, /3) = [a]tB A[B]m
para alguma n X n matriz A sôbre F. Reciprocamente, se temos uma
n X n matriz arbitrária A, é fácil ver que (9-3) define uma forma
bilinear sô'bre V, tal que A u = /(a;, ctJ).
Definição. Se.ia V um espaço vetorial de dimensão finita e seja
CB = {a1, ... , ª"'} uma base ordenada de V. Se f é uma forma bili-
near sôbre V t a matriz de f em relação à base ordenada CB e a n X n
matriz A com elementos Au = f(a1, aJ}. Às· Yêzes, indicaremos esta
matriz por [f]a3.
Teorema 1. Seja V um espaço vetorial de dimensão finita sôb1e
o corpo F. Para cada base ordenada CB de V, a/unção que associa a
cada f onna bilinear sôbre V sua matriz em relação à base ordenada
cs é um isomorfismo do espaço L(V, V, F) no espaço das n X n
matrizes sôbre o corpo F.
Demonstração. Observamos acima que/~ [/lm é uma corres-
pondência bijetora entre o conjunto das formas bilineares sôbre V
e o conjunto de tôdas as n X n matrizes sôbre F. Que isso é uma trans-
formação linear é fácil de ver, pois
(cf + gXai, aj) = cf(a;, ov) + g(a,,--a1)
para todos i e j. Isto diz simplesmente que
[e/+ g]m = c[/]m + [gJm-
Corolário. Se <B = {a 1 , • •• , an} é uma base ordenada de V e
Q * = f L1, ... , Ln } é a base dual de V*, então as n 2 f orrnas bili-
neares
f;J(a, 11) = L1(a)L.,{P), 1< i < n, l <j < n
formam uma base do espaço L(Vt V, F). Em particular, a dimensão
de L(V, V, F) é n 2 •
Demonstração. A base dual { Li, ... , L"} é definida essencial-
mente pelo fato de que L,{a:) é ai-ésima coordenada de a em relação
FORMAS BILINEARES 309

à ~ase ordenada ffi (para todo a em V). Ora, as funções f;j definidas
por
f;;(a, /3) = L;(a)LJ({j)
são formas bilineares do tipo considerado no Exemplo l. Se
a = X1a1 + , .. + Xnan e i3 = y1a1 + ... + Ynan,
então
fila, 13) = x;y;.
Seja/ uma farma bilinear arbitrári~ sôbre V e seja A a matriz
de f em relação à base ordenada m. Então
f (a, /j) = ? A ux,y1
i,j
o que diz simplesmente que
/ = X A;i/ii,
i.j

Agora é evidente que as n 2 f ormas/iJ formam uma base de L( V, V, F).


Pode-se reformular a demonstração do corolário como segue. A
matriz da forma bilinear/;; em relação à base ordenada m é a ma-
triz "unitária" E1•·1, cujo único elemento não-nulo é um 1 na linha i
e coluna j. Como estas matrizes E;,;· constituem uma base do espaço
das n X n matrizes, as farmas fii constituem uma base do espaço
das formas bilineares.
O conceito de matriz de uma forma bilinear em relação a uma
base ordenada é semelhante ao conceito de matriz de um operador
linear em relação a uma base ordenada. Do mesmo modo que para
operadores lineares, estaremos interessados no que acontece à ma-
triz que representa uma forma bilinear, ao passarmos de _uma base
ordenada a outra. Então, suponhamos que m = {a1, ... , ª• } e
<B1 = {a;, ... , a~} sejam duas bases ordenadas de- V e que /
seja uma forma bilinear sôbre V. Como se relacionam as matrizes
[/1m e [J1ov? Bem, seja P a n X n matriz (inversivel) tal que
[a]m = P[afav
para todo a em V. Em outras palavras. definimos P por
n
. aí i.,,,~ 1 Pija;,
Para vetores arbitrários a, ~ em V
f(tx, /3) = [aJmC.f1<BCf31<B
== (P[a]<B' )tl/]mP(fj]11i,
= (a]~,(plj](BP)[p']c»'.
310 FOlMAS BILINEARES

Pela definição e unicidade da matriz que representa/ em relação à


base ordenada m', devemos ter
(9-4) [fl<B' = P'[/JmP.
Exemplo 4. Seja Y o espaço vetorial R 2• Seja/ a forma bilinear
definida sôbre a = (xh x2) e fJ = (y1, 12) por
/(a, /j) = X1Y1 + X1Y2 + X2Y1 + X2Y2.
Ora,

/(a, fj) = [xi, X2] [! i] ~~]


e então a matriz de f em relação à base ordenada canônica
(B = {fJ , E2 } é

Cfl& = 1 I •[ l l]
Seja (B' .- { 1:;, 1:;} a base ordenada definida por f{ == (l, -1,)
e2 = (l, 1). Neste caso, a matriz P que transforma as coordena·
das de · <i' para m é

p = [-1 ~]-
Assim
[/J03, = ÍP'fJm.P
= [! -!] [~ ~] [_; !]
- [~ -!] (g ~]
- [g ~]-
ºde que isto significa é que, se exprimirmos os vetores
suas coordenadas em relação à base m', digamos
a e /j _por meio

a = x{t{ + X~E~, fJ ·= yiEf + Y2E~


então
f(o:, fJ) = 4x2y2.
Uma conseqüência da fórmula (9..4) da mudança de base é a
seguinte: Se A e B são n X n · matrizes que representam a mesma
FORMAS BILINEARES 311

forma bilinear sôbre V em relação a bases ordenadas (possivelmente)


diferentes, então A e B têm o mesmo pôsto. De fato, se P é uma
n X n matriz inversível e B = P 1AP, é evidente que A e B têm o
mesmo pôsto. Isto torna possível definir o pôsto de uma forma bili-
near sôbre V, como sendo o pôsto de qualquer matriz que repre-
sente a forma em relação a uma base ordenada de V.
É desejável dar uma definição mais intrínseca do pôsto de uma
forma bilinear. Isto pode ser feito como segue: Suponhamos que/
seja uma forma bilinear sabre o espaço vetorial V. Fixando um ve-
tor a em V, f(a, /3) é linear com uma função de (3. Desta maneira,
cada a fixo determina um funcional linear sôbre V; indique êste
funcional linear por Lt(a). Repetindo, se a é um vetor em V, então
L,{a) é o funciOnal linear sôbre V cujo valor em qualquer vetor /j.
é/(a, S). Isto nos dá uma transformação a-+ LJ(a) de V no espaço
dual V*. Como
f(ca1 + a2, /3) = cf(a1, /3) + /(a2, /3)
vemos que
LJ(ca1 + a2) = cLJ(a1) + L1'._a2)
isto é, L1 é uma transformação linear de V em V*.
De maneira semelhante, f determina uma transformação linear
R 1 de V em V*. Para cada fJ fixo em V, f(a, /3) é linear como uma
função de a. Definimos R.,(_(3) como sendo o funcional linear sôbre
V cujo valor no vetor a é /(a, (3).

Teorema 2. Seja f uma forma bilinear sôbre o espaço vetorial V


de dimensão finita. Sejam Lt e Rr as transformações lineares de V
em V* definidas por (Lra)(P) = /(a, {3) = (Rf~)(a). Então pôsto
(Lr) = pôsto (Rr).
Demonstração. Pode-se fazer uma demonstração dêste teorema
que seja "independente de coordenadasn. Tal demonstração é se-
melhante à demonstração (na Seção 3.7) de que o pôsto-linha de
uma matriz é igual ao seu pôsto-coluna. Então, faremos aqui uma
demonstração que começa tomando um sistema de coordenadas
(base), utilizando depois o teorema "pôsto-linha igual a pôsto-co•
luna',.
Para demonstrar que pôsto (L1) = pôsto (R 1) bastará demons-
trar que L1 e R 1 têm a mesma nulidade. Seja <B uma base ordenada
de V e seja A = [J]<B. Se a e fJ são vetores em V, com matrizes de
coordenadas X e Y em relação à base ordenada <B, então /(a, ~) =
== X'AY. Ora, RJ({3) = O significa que /(a, {3) == O para todo a em
312 FORMAS BILINEARES

V, isto é, que X'AY = O para tôda n X 1 matriz X. A última con-


dição diz simplesmente que A Y = O. A nulidade de R1 é portanto
igúal à dimensão do espaço das soluções de A Y = O.
Anàlogamente, LJ(a) = O se, e somente se, X' A :Y = O para
tôda n X 1 matriz Y. Assim, o: está no núcleo de L1 se e somente
se X'A = O, isto é, A'X = O. A nulidade de L1 é portanto igual à
dimensão do espaço das soluções de A' A = O. Como as matrizes
A e A I têm o mesmo pôsto-coluna, vemos que
nulidade (L1 ) = nulidade (R.,).
Definição. Se f é uma forma bilinear sôbre o espaço V de dimen-
são finita, o pôsto de f é o inteiro r = pôsto {Lr) = pósto (R,).
Corolário 1. O pôsto de uma forma bilinear é igual ao pôsto
da matriz da forma bilinear em relação a qualquer base ordenada.
Corolário 2. Se fé uma forma bilinear sôbre o espaço vetorial
n-dimensional V, as seguintes afirmações são equivalentes:
(i) pôsto (f) = n.
(ii) Para cada a. nã<>--nulo em V, existe umt, em V tal quef(a, /3) ;d. O.
(iii) Para cada 13 não•nulo em V, existe um a em V tal que f(a, fj) ~ Q.
Demonstra~ão. A afirmação (ii) diz simplesmente que o núcleo
de L1 é o subespaço nulo. A afirmação (iii) diz que o núcleo de R1
é o subesp~-ço nulo. As transformações lineares L1 e R 1 têm nulidade O
se, e somente se, elas têm o mesmo pôsto n, isto é, se, e somente
se, p8sto (/) = n.
Definição. Uma forma bilinear f sôbre um espaço vetorial V é
dita nãHegenerada (ou não-singular) se satisfaz as condições (íi) e
(iii) do Corolário 2.
Se Vé de dimensão finita, então/ é não-degenerada, desde que/
satisfaça qualquer uma das três condições do. Corolário 2. Em par•
ticular, / é não-degenerada (não-singular} se, e somente se, sua ma-
triz em re1ação a alguma (tôda) base ordenada de V é uma matriz
não-singµlar.
· Exemplo 5. Seja V = R" e seja/ a forma bilinear definida sôbre
<X = (xi, .. , , Xn) e {3 = (y1, , . , , Yn) por
/(a, /j) = X1Y1 + •. .
+ XnYn•
Então f é uma forma bilinear não-degenerada sôbre R"'. A matriz
de/ em relação à base ordenada canônica é a n X n matriz unidade:
/(X, Y) =r X'Y.
FORMAS BILINEARES 313

Esta fé usualmente denominada o produto escalar. O leitor provà-


velmente tem familiaridade com esta forma bilinear, pelo menos
no caso n = 3. Geometricamente, o número /{a, /3) é o produto
do comprimento de a pelo comprimento de /3 e pelo cosseno do
ângulo entre a e fJ. Em particular, /(a, /3) = O se, e somente se, os
vetores a e p são ortogonais (perpendiculares).

Exercícios

1. Quais das seguintes funções /, definidas sõbre vetores a = (x .. X1} e


f3 -= (Y1, y i} em Ri, são formas bilineares'?
(a) /(a, t,) = 1;
(b} /(a, (1) = (xi-· Y1) 2 + xlyl;
(e) f(a, fj) = (xi +y 1 )2 - (x, - y,) 1 ;
{d) /(a, /3) = X1Y1 - x~y1,

2. Seja f a forma bilinear sôbre R 2 definida por


f((x1, yi), (x J, Y i)) = X1Y1 + X 1Y ~-
Determinar a matriz de f em relação a cada uma das seguintes bases:
{(1, O), (O, 1}} 1 { L-1), (1, l)}, { lt 2), (3, 4)}.
3. Seja V o espaço das 2 X 3 matrizes sôbre R e seja f a forma bilinear
sôbre V definida por /(X1 y) = traço (X1A Y) 1 onde

A = [} ~]
Determinar a matriz de f em relação i'1 base ordenada
{ E u Eu Eu Eu Eu Eu}
' t ' ' '

onde Eii é a matriz cujo único elemento não-nulo é um 1 na linha i e co-


luna /.
4. Descrever explicitamente tôdas as formas bilineares .f sôbre R J com a
propriedade de que /(a, /3) = f(/3. a) para todos a. /3.
5. Descrever as formas bilineares sôbre R J que satisfazem /(a, ti) = - f({J, a)
para todos a, {J.
6. Seja ,i um inteiro positivo e seja V o espaço das II X ,r matrizes sôbre o
corpo dos números complexos. Mostrar que a equação
.f(A, B) = 1t tr (AB) - tr (A) tr (8)
define uma forma bilinear fsôbre B. É verdade que f(A, B) """ .f(B, A) para
tôdas A, B'?
7. Seja f a forma bilinear do Exercício 6. Mostrar que .fé degenerada (/
não é nã~degenerada). Seja V, o subespaço de V formado pelas matrizes
de traço O e seja/,. a restrição de f a V,. Mostrar que f. é não degenerada.
8. Seja f a forma bilinear definida no Exercício 6 e seja V~ o subespaço
de V formado por tôdas as matrizes A tais que traço (.4) - O e A• = -A.
314 FORMAS BILINEARES

(A* é a transposta conjugada de A.) Indiquemos por t a restrição de .f a


V.1, Mostrar que /i é negativa definida, isto é, que fJ..A. A) < O para tôda
A não-nula em V 1,
9. Seja f a forma bilinear definida no Exercicio 6. Seja W o conjunto das
matrizes A em V tais que /(A. B) - O para tôda B. Mostrar que W é um
subespaç~ de V. Descrever W explicitamente e determinar sua dimensão.
10. Seja f uma forma bilinear sõbre um espaço vetorial V de dimensão fi-
nita. Seja W o subespaço formado pelos p tais que /(a, fj) ... O para todo a.
Mostrar que
pôsto (/) =- dim V - dim W.
Usar êste resultado e o resultado do Exercício 9 para calcular o pôsto da
forma bilinear definida no Exercício 6.
11. Seja / uma forma bilinear sôbte um espaço vetorial V de dimensão fi-
nita. Suponhamos que V, seja um ~ubespaço de V com a propriedade de
que a restrição de /a Vi seja não-degenerada. Mostrar que pôsto (_f) > dim
v •.
12. Sejam / e g formas bilineares sôbre um espaço vetorial V de dimensão
finita. Suponhamos que g seja não-singular. Mostrar que existem operado-
res lineares Ti, T J sôbre V 1. únicos, tais que
/(a, f3) = g(.Tia, /3) K{_a, T Jj)
para todos a, B.
13. Mostrar que o resultado do Exercício 12 não é necessàriamente válido
se g é singular.
14. Seja fuma forma bilinear sôbre um espaço vetorial V de dimensão fi-
nita. Mostrar que f pode ser expresso como um produto de dois funcíonais
lineares (isto é, /(a, /3) =- Li(a)Lí.13) para L1, L.1 em V•) se, e somente se,
.f tem pôsto. 1.

9. 2 Formas Bilineares Simétricas


O propósito principal desta seção é responder à seguinte per-
gunta: Se fé uma forma bilinear sôbre o espaço vetorial V de di-
mensão finita, quando é que existe uma base ordenada & de V, em
relação à qual/ é representada por uma matriz diagonal? Vamos
demonstrar que isto é possível se, e somente se, fé uma forma bi-
linear simétrica~ ou seja, /(à, fJ) = f(/3, a). O teorema será demons-
trado apenas para o caso do corpo de escalares ser um subcorpo
dos números complexos. O leitor informado verá que basta o corpo
F de escalares ter característica zero, isto é, que, se n é um inteiro
positivo, a soma 1 + ... + 1 (n vêzes) em F não é O.
Defini~o. Seja f uma forma bilinear sobre o espaço vetorial V.
Dizemos que fé simétrica se f(a:, fl) = f(/3, a) para todos os vetores a, fj
em V.
FORMAS BILINEARES SIMÉTRICAS 315

Se V é de dimensão finita, a forma bílinear f é simétrica se, e


somente sel sua matriz A em relação a alguma ou (tôda) base orde•
nada é simétrica, isto é, A 1 = A. Para ver isto, perguntamos quando
é que a forma bilinear
f(X, Y) = X'AY
é simétrica. Isto acontece se, e somente se, X'AY = Y'AX para tôdas
matrizes-colunas X e Y. Como X 1A Y é uma 1 X 1 matriz, temos
X'AY - Y'A'X. Assim,/é simétrica se, e somente se, Y'A'X = Y'AX
p·ara tôdas X, Y. Evidentemente, isto significa apenas que A = A'.
Em particular, deve-se notar que se existir uma base ordenada de V
em relàção à qual / seja representada por uma matriz diagonal,
então fé simétrica, pois qualquer matriz diagonal é uma matriz si-
métrica.
Se/ é uma forma bilinear simétrica, a forma quadrática associa-
da a/ é a função q de V em F definida por
q(a) = /(a, a).
Se Fé um subcorpo do corpo dos números complexos, a forma bili-
near simétrica f é completamente determinada por sua forma qua-
drática associada, de acôrdo com a identidade de polarização.
(9-5) /(a., P) = ¼q(a + /3) - ¼q(a - fj).
A demonstração de (9-5) requer apenas cálculos de rotina, que omi•
tiremos. Se / é a forma bilinear do Exemplo 5, ou seja, o produto
escalar, então a forma quadrática associada é
q(x1, ... , Xn) = X~ + . . . + x;.
Em outras palavras, q(_a} é o quadrado do comprimento de a. Para
a forma bilinear f A(X, Y) = X'AY, a forma quadrática associada é
qA(X) = X'AX = ? ÀijXiXj-
i,i

Uma classe importante de formas bilineares simétricas consiste


dos produtos internos sôbre espaços vetoriais reais, discutidos no
Capitulo 8. Se V é um espaço vetorial real, um produto interno sô~
bre V é uma forma bilinear simétrica/ sôbre V que satisfaz
(9-6) /(a, a) > O se a :;é- O.
Uma forma bilinear que satisfaz (9'"6) é dita positiva definida. As-
sim, um produto interno sôbre um espaço vetorial real é uma forma
bilinear siméttica positiva definida sôbre aquêle espaço. Notemos
316 FORMAS BILINEARES

que um produto interno é não-degenerado. Dois vetores a, {3 são


ditos ortogonais em relação ao produto interno f se f(a, 13) = O.
A forma quadrática q(_a) = /(a, a) toma apenas valores não-nega-
tivos e q(a) é usualmente considerado como sendo o quadrado do
comprimento de a. Evidentemente, êstes conceitos de comprimento
e ortogonalidade se originam do exemplo mais importante de pro-
duto interno - o produto escalar do Exemplo 5.
Se/ é uma forma bilinear simétrica sôbre um espaço vetorial V,
é conveniente aplicar um pouco da terminologia de produtos internos
a /. É particularmente conveniente dizer que a e /3 são ortogonais
em relação a/ se /(a, f)) = O. Não é aconselhável considerar .f(a, a)
como sendo o quadrado do comprimento de a; por exemplo, Se V é
um espaço vetorial complexo, podemos ter f(a, a) = v -1, ou
num espaço vetorial real f(a, a) = -2.
Passamos agora ao teorema fundamental desta seção. Ao ler a
demonstração, o leitor deverá achar útil pensar no caso particular
em que V é um espaço vetorial real e/ é um produto interno sô·
bre V.
Teorema 3. Seja V um espaço vetorial de dimensão finita sôbre
um subcorpo do corpo dos números complexos e seja f uma forma bi-
linear simétrica sôbre V. Então existe uma base ordenada de V em
relação à qual f é representada por uma matriz diagonal.
Demonstração. O que precisamos encontrar é uma base ordenada
(B = {ai, ••• ' an }
tal que /(a;, a1) = O para i ~ j. Se f = O ou n = 1, o teorema é
obviamente verdadeiro. Assim, podemos supor f #- O e n > 1. Se
/(at a) = O para todo a em V, a forma quadrática associada q é
idênticamente O e a identidade de polarização (9-5) mostra que f = O.
Assim, existe Ufll vetor a em V tal que /(a, a) - q(a) ~ O. Seja W
o subespaço unidimensional de V que é gerado por a e se.ia w.1 o
conjunto dos vetores (3 em V tais que /{a, ~) = O. Afirmamos ago•
ra que V == WEB w.1. Certamente os subespaços W e w·1. são
disjuntos. Um vetor típico em W é ca, onde e é um escalar. Se ca
está também em W\ então/(ca,ca) = c2/(ata) = O. Masf(a,a) ~ O,
logo e = O. Além disso, todo vetor em V é a soma de um vetor
em W e um vetor em W·\ De fato, seja 'Y um vetor arbitrário em
V e coloquemos
/(-y, a:)
/3 = 'Y - /(a, à) ª·
FORMAS BILINEARES SIMÉTRICAS 317

Então
/('Y, a)
f(a, /3) = f(a, 'Y) = /(a, a)J(a, a)
e como/ é simétrica,/(a, [j) = O. Portanto, /3 está no subespaço W.L.
A expressão

'Y = /('Y, a) a + /3
f(a., a)
nos mostra que V = W WJ.. +
A .restrição de/ a WJ. é uma forma bilinear simétrica sôbre WJ.
Como WJ. tem dimensão (n - 1), podemos supor, por indução.
que w.1 possua uma base { a2, .. , , ª" } tal que
J(a;, cr.j) = O, i -;4 j (i > 2, j > 2).
Colocando a1 = a, obtemos uma base {a1,.,., ª"} de V tal que
(a,-, aJ) = O para i ;é j.
f Corolário. Seja F um subcorpo do corpo dos números complexos
e seja A uma n X n matriz simétrica sôbre F·. Então existe um n X n
matriz inversível P sôbre tal que ptAP seja diagonal.
No caso de F ser o corpo dos números reais, a matriz inversível P
neste corolário pode ser escolhida de modo a ser uma matriz orto•
gonal, isto é, P' = p- 1 • Em outras palavras, se ·A é uma n X n
matriz simétrica real, existe uma matriz ortogonal real P tal que
P'AP seja diagonal'; contudo, isto não é nada evidente a partir do
que fizemos acima (ver Capítulo 8}.
Teorema 4. Seja V um espaço vetorial de ·dimensão finita sôbre
o corpo dos números complexos. Seja fuma forma bilinear simétrica
sôbre V que tenha pôsto r. Então existe uma base ordenada
O\= {~i, ... ,,3 de V tal que
0 }

(i) amatriz de f em relação à base ordenada B é diagonal;


(ii) /1(~. a·) = { l, ~ = 1, ... , r
. 1, fJ.I o, j > T•

Demonstração. Pelo Teorema 3, existe uma base ordenada


{a1, ... , ari} de V tal que
f(a.;, a.i) = O para i "F- j.
Como f tem pôsto r, sua matriz em relação à base ordenada
{ ai, ••• , a:n} também o tem. Assim, precisamos ter f(ai, aJ) ;;d O
318 FORMAS BILINEARES

para exatamente r valores de j. Reordenando os vetores a,, podemos


admitir que
f(a.i, a1 ) ~ 0; J = l, ... , r.
Usemos, agora o fato de que o corpo de escalares é o corpo dos
números complexos. Se v J(a.1, a1) indica uma raiz quadrada com-
plexa qualquer de J(a, 1, a_;) e se colocarmos

{'JJ = { '
.,. j"( 1
a_;, a_;
) o:;,
..
j = 1, ... ' ,.
a·1, . ,·>r
a base { 1'1, ... , .Bn} satisfará as condições (i) e (ii).
Evidentemente, o Teorema 4 é válido se o corpo de escalares
é um subcorpo qualquer do corpo dos números complexos, no qual
todo elemento possua uma raiz quadrada. Não é válido, por exem-
plo, quando o corpo de escalares é o corpo dos números reais. Sô-
bre o corpo dos números reais, temos o seguinte substituto para o
Teorema 4.
Teorema 5. Seja V um espaço Yetorial n-dimensional sóbre o
corpo dos números reais e seja f uma forma bilinear simétrica sôbre
V que tenl/ta pósto r. Então existe uma base ordenada { J,1, ... , Pn }
de V em relação à qual a matriz de fé diagonal e tal que
.f(f3J, /3.;) = + 1, j = I, ... , r.
Além disso, o número de vetores /jj da base para os quais f({Jh /3j) = l
é independente da escolha da base.
Demonstração. Existe uma base {a1, ... , an} de V tal que
/(a;, a1) = O, i ~ j.
f(aj, ~;) ~ O, 1 < j <_ ,.
f(a1, aJ) = O, j > ,..
Seja /3i = 1/(ai, ct:J)j- 1 l 2ai, l <j ~. ,.
f11 = ªi, j > r
Então { /ji, ... , tJn} é uma base que tem as prppriedades enunciadas.
Seja p o númerode vetores f3J da base para os quais/(.BJ, fJJ) - 1;
precisamos mostrar que o número p é independente da particular
base que tomemos satisfazendo as condições acima. Seja v+ o
subespaço de V gerado pelo vetores fJ; da base para os quais f(fJJ,
/jJ) = 1, e seja v- o subespaço gerado pelos vetores /J; da base
FORMAS BILINEARES SIMÉTRICAS 319

tais que f(/31, 131) = -1. Ora, p = dim v+, logo o que precisa~
mos demonstrar é a unicidade da dimensão de v+. É fácil ver que
se a é um vetor não.nulo em v+, então /(a, a) > O; em outras pa~
lavras, f é positiva definida sôbre o subespaço v+. Anàlogamente,
se a é um vetor não~ntllo em v-,
então J(a, a) < O, isto é, / é ne~
gativa <;tefinida sôbre o subespaço v-. Seja agora VJ.. o subespaço
gerado pelos vetores f3J da base para os quais /(/3_;, /3i) = O. Se a
está em V\ então /(a, /1) = O para todo /j em V.
Como { /31, ... , f3n } é uma base de V, temos
v = v+ e, v- e vi.
Além disso, afirmamos que se W é um subespaço arbitrário de V
sôbre o qual f seja positiva definida, então os subespaços W, v-
e v.1. são independentes. De fato. suponhamos que a. esteja em W,
(3 em v-, 'Y em VJ. e que a + f3 + 'Y = O. En~ão

O = /(a, a + /3 + ,y) = /(a, a) + /(a, /3) + /(a, -y)


O = f({J, a + f3 + 'Y) = f(/3, a) + /({3, /3) + /(~, -y).
Como ;- está em Vi, f(CJ., 'Y) = f(/3., 'Y) = O: como f é simétrica,
obtemos
O = j(CJ., a) + f(a, /1)
O = J(/3, 13) +
/(a. /3)
logo f(a, a) = /(fJ, /j). Como f(a, /3) ,> O e J(/3, {:J) < O, segue que
f(a, a) = f(f), /3) = O.
Mas/ é positiva definida sôbre W e negativa definida sôbre v--
Concluímos que a = {3 = O, e portanto que 'Y = O também.
Como
v = v+ e, v- e, vi
e W, v-, YJ. são independentes, vemos que dim W < dirn v+•
Isto é, se W é um subespaço arbitrário de V sôbre o qual/ é posi-
tiva definida, a dimensão de W não pode exeder a dimensão de v+.
Se m1 é uma outra base ordenada de V que satisfaz as condições
do teorema, teremos subespaços correspondentes Vt, Yr e V1;
o argumento acima mostra que dim vt < dim v+. Invertendo o
argumento. obtemos dim v+ < dim Vt et conseqüentemente~
dim v+ = dim Vt.
Existem diversos comentários que devem ser fei~os acêrcá da
base { {J 1 , ••• , (3. } do Teorema 5 e dos subespaços associados
320 FORMAS BILINEARES

v+, v- e VJ.. Primeiro, notemos que VL é exatamente o subespaço


dos vetores que são "ortogonais" a todo espaço V. Observamos
acima que y.i. está contido neste subespaço; mas.
dim VJ. = dim V - (dim v+ + dim v-) = dím V- pôsto (/)

portanto, todo vetor a tal que f(a, {j) = O para todo /3 deve estar
em v.1.·. Assim, o subespaço v,1. é único. Os subespaços v+ e v-
não são únicos; contudot suas dimensões são únicas. A demonstra•
ção do Teorema 5 nos mostra que dim v+ é a máxima dimensão
possível para qualquer subespaço sôbre o qual/ seja positiva de-
finida. Anàlogamente, dim v-
é a máxima dimensão de qualquer
subespaço sabre o qual/ seja negativa definida. É claro que
dim v+ + dim v- = pôsto (f).
O número
dim v+ - dim v-
freq üentemente é denominado a assinatura de /. Ela é introduzida
porque as dimensões de .v+ e v- são fàcilmente determinadas a
partir do pôsto de f e da assinatura de f.
Talvez devamos fazer um comentário final a respeito da relação
entre formas bilineares simétricas sôbre espaços vetoriais reais e
produtos internos. Suponhamos que V seja um espaço vetorial real
de dimensão finita e que V1, V2, V3 sejam subespaços de V tais que
V = Vi EB V2 EB V:1.
Suponhamos que /1 seja um produto interno sôbre V1 e /2 seja um
produto interno sabre V2. Podemos então definir uma forma bili-
near simétrica/sôbre V como segue: Se a, (j são vetores em V, então
podemos escrever
a = a1 + a2 + aa e fJ = f:J 1 + /12 + th
com ªi e fJ_; em V.;. Seja
f(a, /l) = /1 (oq, #d - .h(a2, tJ ).

O subespaço VJ. para/ será V:1, V 1 é um v+ conveniente para f e


V2 é um v- conveniente, Uma parte do enunciado do Teorema 5
é que tôda forma bilinear simétrica sôbre V surge desta maneira.
O conteúdo adicional do teorema é que um produto interno é re-
presentado em relação a alguma base ordenada pela matriz unidade.
FOR.MAS BILINEARES SIMÉTRICAS 321

Exorciclos
1. As seguintes expressões definem formas quadréticas q sõbre R~. De-
terminar a forma bilinear simétrica / correspondente a cada q,
(a) ax~;
(b) bx 1x 1
(e) cxl;
(d) 2x~ - }x1x1;
(e) x~ + 9xl;
(f) 3x1X1 - x:;
(1) 4xl + 6x1 x1 - 3x}.
2. Determinar a matriz, em relaçlo à base ordenada canônica, e o p&to
de cada uma das formas bilineares do Exercicio 1. Indicar quais formas slo
nlo-deaeneradas.
3. Seja q(.l"1, x1) • ax: + bx1 x,, + cxl a forma quadrática associada a
uma forma bilinear simétrica / sõbre R•. Mostrar que / é nlo-depnerada
se, e sbmente se, b1 • 4ac p11 O.
4. Seja V um espa;o vetorial de dimensão finita sõbre um subcorpo F do
corpo dos números complexos e seja S o conjunto das formas bilineares
simétricas sõbre V.
(a) Mostrar que S é um subespaço de L(V, Y, F).
(b) Determinar dim S.
Seja Q o coltjunto de tõdas as formas quadr,ticas sõbre V.
(e) Mostrar que Q é um subespaço do espaço de tõdas as funções de
Vem F.
(d) Descrever e~llcitamente um isomorfismo T de Q em S, sem re-
ferencia a qualquer base.
(e) Seja U um operador linear sõbre Y e q um elemento de Q. Mos-
trar que a equação ( U'qXa} • q( Lb) define uma forma quadrática U1q
sõbre V.
(f) Se Ué um operador linear sõbre V, mostrar que a função u• de-
finida na parte (e) 6 um operador linear s6bre Q. Mostrar que U• 6 inver-
s(vel se, e somente se, Ui inversivel.
5. Seja q a forma quadrática sôbre R1 dada por
q(xi, X1) ::a axf + 2bx1X1 + ex:, a pi: O,
Determinar um operador linear U sôbre R• tal que

(U•q(x1 , x1 ) 11111 axf + (e - ~) x:.

(Suge1tiio. Para determinar u- 1 (e portanto li), completar o quadrado. Para


a .,iniçlo de U', ver a parte (e) do Exercício 4.)
,. Seja q a forma quadrática sõbre R.1 dada por
q(x1, x,) • 2bx1x,.
Determinar um opei:ador linear invenfvel U sõbre R1 tal que
(V•qXxa, X1) • 2bxf - 2b:r..
322 FORMAS 91LINEARES

7. Seja q a forma quadrlitica sôbre R1 dada por


q(x1 , x" x 1) - x1 x 1 + 2x1 X1 + x:.
Determinar um operador linear inversf vel U sôbre R' tal que
(U'q)(x 11 x1 , x1 ) - x! - x: + x:.
(Sugeatao. Exprimir U como um prodqto de operadores semelhantes àqueles
usados nos Exercícios 5 e 6.)
8. Seja A uma n X n matriz simétrica sõbre R e seja q a forma quadrá-
tica sõbre kt dada por
q(xi, ~ ~ ~ , Xn) - :z: A;;X1·X;,
i,i
Generalizar o método usado no Exercício 7 para mostrar que existe um ope-
rador linear inversí'vel U sôbre .Ra tal que

(U'qXxi, .•. , x,.) - "


:Z: cix;
,-1
onde ci é 1, -1 ou O, i - 1, ..• , n.
9. Seja fuma forma bilinear simétrica sôbre R,., Usar o resultado do Exer-
cicio 8 para demonstrar a existência de uma base ordenada <B tal que [/Jm
seja diagonal.
10. Seja V o espaço vetorial real das 2 X 2 matrizes hermitianªª-._(comple-
xas), isto é, 2 X 2 matrizes complexas A que satisfazem ÂiJ - A;i,
(a) Mostrar que a equação q(A) - dct A define uma forma quadrá-
tica q sõbre V.
(b) Seja W o subespaço de V formado pelas matri:zes de traço O. Mos-
trar que a forma bilinear f determinada por q é negativa definida sõbre o
subespaço W.
11. Seja V um espaço vetorial de dimensão finita e / wna forma bilinear·
simétrica não,.degenerada sôbre V. Mostru que para cada operador linear
T sõbre V existe um único operador T' sôbre V tal que /(Ta, /3) - /(a, r(3)
para todos a, 'fJ em JI. Mostrar também que
(T1 T1)' - T~r,_
(c 1 T1 + c.,.T 1 )' - C1T~ + c T; 1
(T')' - T.
Quanto disto acima continua v4lido sem a hipótese de que/é não-degenerada?
12. Seja F um corpo e V o espaço das n X 1 matrizes sôbre F. Suponhamos
que A. seja uma n X n matriz fixa sõbre F e / seja a forma bilinear sôbre
V definida por /(X, Y) - X' A Y. Suponhamos que./ seja simétrica e não-
-depnerada. Seja B uma n X n matriz sôbre F e To operador linear sõ-,
bre V que leva X em BX. Determinar o operador T' do Exercício 11.
13. Seja V um espaço vetorial de dimensão finita e / uma forma bilinear
sim!trica não-degenerada s6bre V. Associado a / existe um isomorfismo
..natural" de V no espaço dual v•, sendo êste isomorfismo. a transforma-
ção L1 da Seção 9 .1. Usando L" mostrar que para cada base <B - { ai, ••• ª"}
FORMAS BILINEARES ANTI-SIMéTRICAS 323

· de Y existe uma única base <B' =. {a;, ..• , a~} de Y tal que /(a,, aí) = lii•
Mostrar então que para todo vetor a em Y temos
a: .. :Z: /(a., c:r;)r, • :Z: /(ai, a)a~.
i i

14. Sejam JI~ /. (B e CB' como no Exercfcio 13. Suponhamos que T seja um
operador linear sôbre Y e que T' seja o operador que /associa a r, como
no Exercfcio 11. Mostrar que
(a) [T'Jce, - [71~
(b) traço (n • traço (T') • l: /(Ta,, aa.
1

15. Sejam V, f, <i e CB' como no Exercício 13. Suponhamos que (/]d\ - A.
Mostrar que
a~ - :Z: (K"1 )i;«J = E (A- 1 )1,a1.
i i

16. Seja F um corpo e V o espaço das n X l matrizes sõbre F. Suponha-


mos que A seja uma n X n matriz simétrica inversível sõbre F e que / seja
a forma bilinear sõbre V definida por /(X, Y) • X 1AY. Seja P uma n X n
matriz inversível sõbre F e <B a base de V formada pelas colunas de P. Mos-
trar que a bue <B' do Exercfcio 13 consiste das colunas da matriz .4.-1 (P•r•.
11. Seja V um espaço vetorial de dimenslo finita sõbre um corpo F e /uma
forma bilinear siatrica sõbre V. Para cada subespaço W de V, seja w.1- o
cortjunto dos vetores a: em Y tais que /(a, (1) .. O para todo f3 em W. Mos~
trar que
(a) w.a. é um subespaço;
(b) Y - {0}.1.;
(e) vi - {O} se, e somente se, /é nlo-deaenerada;
(d) põsto (/) - dim Jf.L;
(e) se dim J' • 11 e dim W - m, então w.a. > n - m
(S"6t&tãa. Seja {f1., .•• , fl,. } uma base de W e consideremos a aplicação
a: --+ (/(a, f11), • , • , /(a, fJ,,.))
de J/ em F-);
(0 a restrição de f a W é não-degenerada seJ e somente se,
w f'"\ w.L .... f o} ;
(a) Y • W $ w.1. se, e somente se, a restrição de / a W é não-dege-
nerada.
11. Seja V um espaço vetorial de dimensão finita sôbre C e / uma forma
bilinear simétrica não-degenerada sôbre V. Demonstrar que existe uma base
<B de Y tal que CB' =- Cil. (Ver o Exercício 13 para uma definiGão de d\'.)

9. 3 Formas Bilineares Anti-Simétricas


Em tôda esta seção V será um espaço vetorial sôbre um subcorpo
_ F do corpo dos números complexos. Uma forma bilinear f sôbre V
324 FORMAS BILINEARES

é dita anti-simétrica se /(a, fJ) = -f(fl, a) para todos os vetores a, {3


em V. Demonstraremos um teoren1a concernente à simplificação
da matriz de uma forma bilinear anti-simétrica sôbre um espaço V
de dimensão finita. Primeiro faremos algumas observações gerais.
Suponhamos que/ seja uma forma bilinear arbitrária sôbre V.
Se fizermos
g(a, fJ) = ½[/(a, /3) + f(/3, a)]
h(a, /j) = i [/{a, /,) - f(ft, a)]
então é fácil verificar que g é uma forma bilinear simétrica sôbre Y
eh é uma forma bilinear anti..simétrica sõbre V. Além disso/=g + h.
Ainda mais, esta expressão de/ como a soma de uma forma bilinear
simétrica e uma anti-simétrica é única. Assim, o espaço L(Y, V, F)
é a soma direta do subespaço das formas simétricas e o subespaço
das formas anti•sim6tricas.
Se V é de dimensão finita, a forma bilinear f é anti-simétrica se,
e somente se, sua matriz A em relação a alguma (ou tõda) base orde-
nada é anti-simltrica, Ai= -À. Isto é demonstrado da mesma ma-
neira como se demonstra o fato correspondente sôbre formas bili-
neares· simétricas. Quando fé anti-sim6trica, a matriz de/ em relação
a .. qualquer base ordenada terá todos os seus elementos diagonais
.·:nu.!~s. Isto corresponde exatamente à observação de que /(a,a) = O
para todo a em Y, uma vez gue /(a, a.) = -/(a; a).
Suponhamos que / seja uma forma bilinear anti-simétrica não-
nula · sabre V. Como f ~ O, existem vetores a, ~ em V tais que
/(a., (J) ~ O. Multiplicando a por um escalar conveniente, podemos
supor que /(a, fJ) =- 1. Seja 'Y um vetor arbitrário no subespaço ge-
rado por a. e fJ, digamos, "'I = ca + d{:J. Então
f('Y, a) = f(ca + d{J, a) =df(ft, a) = -d
/('Y, /;J) = f(ca + dfj, fJ) = cf(a, fJ) = e
e então
(9-7) 'Y = /('Y, {f)a - /('Y, a.)/3.
Em particular, notemos que a e fJ são, necessàriamente, linearmente
independentes; de fato. se "'I = O, então /(a, a) = f('Y, ~) = O.
Seja W o subespaço bidimensional gerado por a e~- Seja W"" o
.conjunto dos vetores a em Y tais que /(a, a) = /(8, ~) ·- O, isto é,
o conjunto dos 8 tais que /(a, -r) para todo -r no subespaço W. Afir•
mamos que V =- W E& WJ.. De fato, seja e um vetor arbitrário em Y e
'Y= /(e, 8)a - /(e, a)/j
a = e - 'Y·
FORMAS BILINEARES ANTl•SIMÉTRICAS 325

Então .., está .em W e & está em w.1., pois


/(8, a.) = f(E - /( E, {Jp + /(t, 0:)/3, a)
= /(E, a) + /(E, a.)/(fJ, a).
=0
e, anàlogamente, /(8, {1) = O. Assim, todo E em V é da forma E =
= .., + a, com,, em W e 6 em WJ., De (9-7) é evidente que W ft w.1 =
= {O}, portanto V= W ffi WJ..
Ora, a restrição de / a w.1. é uma forma bilinear anti-simétrica
sôbre W1 . Esta restrição pode ser a forma nula, Se não o fôr, exis-
tirão dois vetores a' e fJ' em w.1. tais que /(a', fJ) ==- 1. Se indicarmos
por W' o subespaço bidimensional gerado por a' e~', teremos
V= WEB W' EB Wo
onde W0 é o conjunto dos vetores 8 em WJ. tais que /(a', &) =
f(fJ' ,8) = O. Se a restrição de/ a W0 não é a forma nula, podemos sele-
cionar vetores a", {J" em Wo tais que/(a", ,8") = l, e então continuar.
No caso de dimensão finita, deveria estar evidente que obtemos
uma seqüência finita de pares de vetores,
(ai, tl1), (a2, /32), ... , (a.t, /31e)
com as seguintes propriedades:
(i) /{o:i, [ji) = 1, J = 1, ... , k.
(ii) f.(ai, "-i) = f({J;, /3j) = /(a;, Ri) = O, i "#- j.
(iii) Se Wj é o subespaço bidimensional gerado por a.J e (ji, então
V = W1 EB • • • e W1: EB .-Wo
onde todo vetor em Wo é 'ortogonal' a todos ªi e /31, e a restrição
de f a Wo é a forma nula.
Teorema 6. Seja V um espaço vetorial n-dimensional sôbre um
subcorpo do corpo dos números complexos e seja f uma forma bilinear
anti-simétrica sôbre V. Então o pôsto r de f é pa,· e se r = 2k, existe
uma base ordenada de V eln relação à qual a matriz de fé a soma
direta da (n - r) X (n - r) ma.triz nula e k cópias da 2 X 2 matriz

[-~ ~]-
Demonstração. Sejam a 1, ~1, •.• , ak, fh vetores que satisfaçam
as condições (i), (ii) e (iii) acima. Seja {a1, .. , , .., , } uma base or-
denada arbitrária do subespaço Wo. Então
<B = {ai, fh, a2, fJ2, ••• , ak~ f:J1t., 'Yl, , •. , 'Y s-}
326 FORMAS BILINEARES

é uma base ordenada de V. De (i), (ii) e (iii) é evidente que a matriz


de/ em relação à base ordenada CB é a soma direta da (n - 2k) X
X (n - 2k) matriz nu]a e k cópias da 2 X 2 matriz

l-~ b] ·
Além disso, é evidente que o pôsto desta matriz, e portanto o pôsto
de f~ é 2k.
Uma conseqüência disto acima é que se fé uma forma bilinear
anti-simétrica não-degenerada sôbre V, então a dimensão de V deve
ser par. Se dim V = 2k, existe uma base ordenada {a1. /31, ... ,
• • • i ah (3,.,} de V tal que
Jo, i ~ j
= l l, i = j
f(a;, /3_;)
f(a;, a1) = j({:J;, f3.i) = O.
A matriz de f em relação a esta base ordenada é a soma direta de k
cópias da 2 X 2 matriz anti-simétrica (9-8). Obtém-se uma outra
forma canônica para a matriz de urna farma anti-simétrica não-
degenerada se, ao invés da base ordenada acima, considera-se a
base ordenada
{ 0:1, . . . , CXk, {h-, , - , , .81} ·
O leitor deverá achar fácil verificar que a matriz de f em relação à
última base ordenada é da forma em blocos

[-~ ~]
onde J é a k X k matriz
-o O l
o .. . 1 O

1 o o
ExercíciOSi

1. Seja V um espaço vetorial sôbre um corpo F. Mostrar que o conjunto


das formas bilineares anti-simétricas sôbre V é um subespaço de L(V, V~ F).
2. Determinar tôdas as formas bilineares anti-simétricas sôbre R 3 • · -
GRUPOS QUE CONSERVAM FORMAS BILINEARES 327

J. Determinar uma base do espaço das formas bilineares anti-simétricas


sôbre R•.
4. Seja f uma forma bilinear simétrica e,, e g uma forma bilinear anti-si-
métrica sôbre C11 • Suponhamos que f +
g = O. Mostrar que / = g = O.
5. Seja V um espaço vetorial n-dimensional sôbre um subcorpo F de C.
Demonstrar o seguinte:
(a) A equação (P/Xa1 fj) = -}/(a, /j) - ½/('3, a) define um .operador
linear P sôbre L(V, V. F).
(e) pôsto (P) = ,i(n - 1)
; nubdade (P) =
.

n(n + 1)
2 2
(d) Se Ué um operador linear sôbre V, a equação ( U'.fXa, /j) = .f( lkt, U(J)
define um operador U' sôbre L( V, V, F).
(e) Para todo operador linear U, a projeção P comuta· com V'.
6. Demonstrar um análogo do Exercício 11 na Seção 9. 2 para formas bi-
lineares anti-simétricas não-degeneradas.
7. Seja / uma forma bilinear sôbre um espaço vetorial V. Sejam L 1 e R 1
as aplicações de V em v• associadas a / na Seção 9. 1. Demonstrar que .f
é anti-simétrica se, e sàmente se, L 1 .... -R1.
8. Demonstrar um análogo do Exercício 17 na Seção 9. 2 para formas anti ..
-simétricas.
9. Seja V um espaço vetorial de dimensão finita e L1, L~ funcionais lineares
sôbre V. Mostrar que a equação
.f<a~ [j) = Li(a)Li/3} -1(t,)L2(a)
define uma forma bilinear anti-simétrica sôbre V. Mostrar que f = O se,
e somente se, Li e L2 sã.o linearmente independentes.
10. Seja V um espaço vetorial de dimensão finita sôbre um subcorpo do
corpo dos números complexos e fuma forma bilinear anti-simétrica sô-
bre V. Mostrar que f tem pôsto 2 se, e somente se, existem funcionais li-
neares linearmente independentes Li, L2, sôbre V tais que
f(a~ fJ) = L1(a)Ll,JJ) - L1(~)Li(a).
11. Seja f uma forma bilinear anti-simétrica arbitrária sôbre R 3 • Demons-
trar que existem funcionais lineares L1. L, tais que
/(a, P) ..,. L1(01)LJ.li) - L1(/3)LJ.a),
12. Seja V um espaço vetorial de dimensão finita sôbre um subcorpo do
corpo dos números complexos e sejam f, g formas bilineares anti-simétri-
cas sôbre V. Mostrar que existe um operador linear inversível T sôbre JI
tal que /(Ta, T(J) = g(a, ~) para todos ª• fJ se. e somente se, .f e g têm o
mesmo pôsto.
13. Mostrar que o resultado do Exercício 12 é válido para formas bili-
neares simétricas sôbre um espaço vetorial complexo, mas não é válido
para formas bilineares simétricas sôbre um espaço vetorial real.

9. 4 Grupos que Conser,am Formas Bilineares


Seja / uma forma bilinear sôbre o espaço vetorial V e seja T
um operador linear sôbre V. Dizemos que T comervaj' sef(Ta, TfJ)=
328 FORMAS BILINEARES

f(a, fj) para todos a, f3 em V. Para quaisquer T ef, a função g de·


finida por g(a, f3) = f(Ta, TfJ), como se vê fàcilmente, é uma forma
bilinear sôbre V. Dizer que T conserva f é simplesmente dizer que
g = f. O operador idêntico conserva tôda forma bilinear. Se S e T
são operadores lineares que conservam f, o produto ST também
conserva/; de fato, f(STa, STt,) = /(Ta, T/3) = f(a, /3).
Em outras palavras, a coleção de operadores lineares que conser-
vam uma dada forma bilinear é fechada em relação à formação de
produtos (de operadores). Em geral, não se pode dizer muito mais
acêrca desta coleção de operadores~ no entanto~ se f é não-degene-
rada, temos o que segue.
Teorema 7. Seja fuma forma bilinear não-degenerada sôbre um
espaço vetorial V de dimensão finita. O conjunto dos operadores linea-
res sôbre V que conservam fé um corpo em relação à operação de
composição.
Demonstração. Seja G o conjunto dos operadores lineares que
conservam/. Observamos que o operador idêntico está em G e que,
sempre que Se T estão em G, o composto ST também está em G.
A partir do fato de que fé não-degenerada, demonstraremos que
todo operador Tem G é inversível e que r-
1 também está em G.

Suponhamos que T conserve f. Seja a um vetor no núcleo de T.


Então, para todo /3 em V, temos
= f(Ta, T(3) = f(O, T/3) = O.
f(a, /3)
Como f é não-degenerada, a = O. Assim, T é inversível. Evidente-
mente r- 1 também conserva f~ pois
f(T- 1a, r- 1{l) = f(Tr- 1a, TT- 1{3) = J(a, {3).
Se fé uma forma bilinear nãowdegenerada sôbre o espaço V de
dimensão finita, então cada\ base ordenada CB de V determina um
grupo de matrizes que "conservam"/. O conjunto de tôdas as ma-
trizes [.r'Jm, onde T é um operador linear que conserva f, será um
grupo em· relação à multiplicação de matrizes. Existe uma descrição
alternativa dêste grupo de matrizes, como segue. Seja A = [j]l'.B, de
modo que se a e {3 são vetores em V com respectivas matrizes de
coordenadas X e Y em relação a <B, teremos
f(a, /3) = X'A Y.
Seja T um operador linear arbitrário sôbre V e M = [TJm. Então
/(Ta., T/3) = (MX)'A(MY)
= X'(MlAM}Y.
GRUPOS QUE CONSERVAM FORMAS BILINEARES 329

Conseqüentemente, T conserva/ se, e somente se, M'AM =A.Em


linguagem matricial, o Teorema 7 diz o seguinte: Se A é uma n X n
matriz inversível, o conjunto dás n X n matrizes M tais que M' AM =
= A é um grupo em relação à multiplicação matricial. Se A = [/JCB,
então M está neste grupo de matrizes se, e somente se, M = [TJm
onde T é um operador linear que conserva /.
Antes de passarmos a alguns exemplos, façamos mais uma obser-
vação. Suponhamos que/ seja uma forma bilinear que seja simétrica.
Ut:n operador linear Tconser-va/se, e somente se, Tconserva a forma
quadrática
q(a) = /(a, a)
associada a /. Se T conserva /, certamente temos

q(Ta) = f(Ta, Ta) = /(a, a) = q(a)


para tddo a em V. Reciprocamente, como/ é simétrica, a identidade
de polarização
f(a, /3) = ¼q(a + /j) - ¼q(a - [j)

nos mostra que T conserva f se qtT'Y) = q(-y) para cada "Y em Y.


(Estamos supondo aqui que o corpo de escalares seja um subcorpo
do corpo dos números complexos.)
Exemplo 6. Seja V o espaço R" ou o espaço C". Seja/ a forma
bilinear
n
/(a, fj) = l: XiYi
J =l

onde a = (xi, ... , Xn) e /3 = (Yi, ... , Yn)• O grupo que conserva
/ é denominado o lll'llpo ortogonal (real ou complexo) n-dimensional.
O nome 'grupo ortogonal' é mais comumente aplicado ao grupo
associado de matrizes em relaçã'o à base ordenada canônica. Como
a matriz de/ em relação à base canônica é /, êste· grupo consiste das
matrizes M que satisfazem M'M = 1. Uma tal matriz M é dita uma
n X n matriz ortogonal (real ou complexa). Os dois n X n grupos
ortogonais são usualmente indicados por O(n, R) e O(n, C). Eviden-
temente, o grupo ortogonal é também o grupo que conserva a for.ma
quadrática
q(xi, ... , Xn) = xf + . . . + x;.
330 FORMAS BILINEARES

Exemplo 7. Seja f a forma bilinear simétrica sôbre R" com


forma quadrática
'P tt

q(_x1, ... , X,i) = ~ x} - l; xJ.


J-1 1=11+'1

Esta/ é não-degenerada e tem assinatura 2p - n. O grupo das matri-


zes que conservam uma forma dêste tipo é denominado um grupo
pseudo-ortogonal. Quando p = n, obtemos o grupo ortogonal O(n, R)
como um tipo particular de grupo pseudo-ortogonal. Para cada um
dos n + l valores p = O, 1, 2~ ... , n, obtemos uma f arma bilinear
diferente f; contudo, para p = k e p = n - k as formas s~o uma
a oposta da outra e têm, portanto, o mesmo grupo associado. Assim,
quando n é ímpar, temos (n +
l)/2 grupos pseudo .. ortogonais de
n X n matrizes e quando n é par, temos (n +
2)/2 dêsses grupos.
Teorema 8. Seja V um espaço vetorial n-dimensional sôbre o
corpo dos números complexos e seja f uma forma bilinear simétrica
não-degenerada sôbre V. Então o grupo que conserva fé isomorfo ao
grutpo ortogonal complexo O(n, C).
Demonstração. Obviamente, por um isomorfismo entre grupos,
queremos dizer urna correspondência bijetora entre seus elementos
que 'conserva' a operação de grupo. Seja G o grupo dos operadores
lineares sô bre V que conservam a f orrna bilinear f. Como f é si mé-
trica e não-degenerada, o Teorema 4 · nos diz que existe uma base
ordenada m de V em relação à qual fé representada pela n X n
matriz unidade. Portanto, um operador linear T conserva f se, e
somente se, sua matriz em relação à base ordenada <S é uma matriz
ortogonal complexa. Logo
T -i- [T]m
é um isomorfismo de G em O(n, C).
Teorema 9. Seja V um espaço vetorial n-dimensiona/ sôbre o corpo
dos números reais e seja f umaforma bilinear simétrica não-degenerada
sôbre V. Então, o grupo que conserva fé isomorfo a um n X n grupo
pseudo-ortogona /.
Demonstração. Repetir a demonstração do Teorema 8, usando
o Teorema 5 em vez do Teorema 4.
Exemplo 8. Seja f a forma bilinear simétrica sôbre R4 com
forma quadrática
q(x, Y; z, t) = t2 - x2 - y2 - z 2•
GRUPOS QUE CONSERVAM FORMAS BILINEARES 331

Um operador linear T sôbre R4 que conserva esta forma bilinear


(ou quadrática) particular é denominado uma transformaçio de
Lorentz e o grupo que conserva f é dito o grupo de Lorentz. Gosta-
ríamos de dar um método para a descrição de algumas transforma•
ções de Lorentz.
Seja H o espaço vetorial real das 2 X 2 matrizes complexas A
que sejam hermitianas, A = A"'. É fácil verificar que

cI>(x z t) = rl_yt +- ~
'y, ' IZ t -
y + iz]
X

define um isomorfismo rJ> de R 4 no espaço H. Por meio dêste iso-


morfismo, a forma quadrática q é levada sôbre a função determi-
nante, isto é,

q(x, y, z, t) = t
det [ y-zz
+
X y +
. t -z
;z]
ou q(a) = det cI> (a).

Isto sugere que podemos estudar as transformações de Lorentz sôbre


W estudando operadores lineares sôbre R que conservam determi-
nantes.
Seja M uma 2 X 2 matriz complexa arbitrária e, para uma ma-
triz hermitiana A, definamos
U.u(A) = MAM*.
Ora, MAM* também é hermitiana. A partir disto, é fácil ver que
UM é um operador linear (real) sôbre H. Perguntamos quando é
que UM 'conserva· determinantes, isto é, det[ U_v{A)] = det A para
cada A em H. Como o determinante de M* é o complexo conjugado
do determinante de M, vemos que
det [UM(A)] = jdet Ml 2 det A.
Assim, UM conserva determinantes exatamente quando det M tem
valor absoluto l.
Selecionemos então uma 2 X 2 matriz complexa arbitrária M
para a qual ldet MI = 1. Então UM é um operador linear sôbre H
que conserva determinantes. Definamos
TM = ('i- l UAf4>,

Como cI> é um isomorfismo, T M é um operador linear sôbre R 4 • Além


disso, T M é uma transformação de Lorentz, pois
332 FORMAS BILINEARES

q(T,ya) = q(4>- l V M<I>a)


- det (M- 1 U_w<f>a)
- det ( UMcJ,a)
- det (<Jta)
- q(a)
e portanto T.11 conserva a forma quadrática q.
Usando 2 X 2 matrizes· particulares M, pode-se usar o método
acima para calcular transformações de Lorentz particulares. Dois
comentários devem ser feitos neste ponto; êles não são difíceis de
serem verificados.
(i) Se M1 e M2 são 2 X 2 matrizes inversíveis com elementos
complexos, então UMi = M_i.1 2 se, e sômente se, M2 é um múltiplo
escalar de M 1, Assim, tôdas as tránsformações de Lorentz acima
exibidas podem ser obtidas a partir de matrizes unimodulares M,
isto é, a partir de matrizes M que satisfazem det M = 1. Se M 1 e
M2 são matrizes unimodulares tais que M 1 ~ M2 e M1 ~ - M2
então TM 1 ~ T Mz·
(ii) Nem tôda transformação de Lorentz pode ser obtida -pelo
método acima.

Exercícios

1. Seja M um membro do grupo ortogonal complexo, O(n, C). Mostrar


que J\.1 1, M e 1'1* = Mt também pertencem a O(n, C).
2. Suponhamos que M pertença a O(n, C) e que M' seja seme1hante a M.
M' também pertence a 0(11, C)?
3. Seja
.
Yi """ X M;kXJ..·
k ""'l

onde i\1 é um membro de 0(11, C). Mostrar que


t. Y/ - ;
J I
x;.
4. Seja M uma II X n matriz sôbre C com colunas M., Ma, ... , Mn, Mos-
tar que M pertence a O(n, C) se, e somente se,
MfM,, = a11_..
5. Seja X uma n X l matriz sôbre C. Em que condições 0(11, C) contém
uma matriz M cuja primeira coluna seja X?
6. Determinar uma matriz em 0(3, C) cuja primeira linha seja (2i, 2;, 3).
7. Seja V o espaço das n X 1 matrizes sôbre C e f a forma bilinear sôbre
V dada por /(X, Y) = X'Y. Seja M pertencente a O(n, C). Qual é a ma-
triz de / em relação à base de V formada pelas colunas M z, M 2, ••• , M"
de M?
GRUPOS QUE CONSERVAM FORMAS BILINEARES 333

8. Seja X uma n X 1 matriz sôbre C tal que xrx = 1 e seja l; a }-ésima


coluna da matriz unidade. Mostrar que existe uma matriz M em O(n, C)
tal que MX = li. Se X tem elementos reais mostrar que existe uma M em
O(n, R) com a propriedade de que MX = li,
9. Seja V o espaço das n X 1 matrizes sôbre C, A uma n X n matriz sô--
bre C e/ a forma bilinear sôbre V dada por f(Xt Y) = XtAY. Mostrar que
fé invariante sob O(n, Ct isto é, j(MX, MY} = f(X, Y) para tôdas X; Y
em V e tôda M em O(n, C), se, e sàmente se, A comuta com cada membro
de O(n, C).
10. Seja S um conjunto arbitrário de 11 X 11 matrizes sôbre C e S' o con-
junto das n X n matrizes sôbre C que comutam com todo elemento de S.
Mostrar que S' é uma álgebra sôbre C.
11. Seja F um subcorpo de C, V um espaço vetorial de dimensão finita sô-
bre F e fuma forma bilinear não--singular sôbre V. Se T é um operador li-
near sôbre· V que conserva /, demonstrar que det T = ± 1.
12. Seja F um subcorpo de C, V o espaço das n X 1 matrizes sôbre F, A
uma n X n matriz inversível sôbre F e f a forma bilinear sôbre V dada por
f(X, Y) = X 1A Y. Se M é uma n X n matriz sôbre F, mostrar que M con-
serva f se, e somente se, A- 1 M 1A = M- 1 .
13. Seja g uma forma bilinear não-singular sôbre um espaço vetorial V de
dimensão finita. Suponhamos que T seja um operador linear inversível sô-
bre V e que f seja a forma bilinear sôbre V dada por f(a, {j) = g{a, T/3). Se
U é um operador linear sôbre V, determinar condições necessárias e sufici-
entes para que U conserve f.
14. Seja T um operador linear sôbre e, que conserva a forma quadrática
xl - x;. Mostrar que
(a) det (T) = ± 1 ~
(b) se M é a matriz de Tem relação à base canomca, então M22 =
= ± Mu, Mu = ± M 12 , Ml1 - Mf 2 = 1;
(e) se det M = 1, então existe um número complexo não-nulo e tal que

M = 1
2
e+ e-1

e
1
e-~]
+ e- e+ -e_
e
1

(d) se det M =- l, então existe um número coltlplexo e tal que


e -1
e

--e: - ~
e

15. Seja f a forma bilinear sôbre C 1 definida por


f((X11 X 2), (yi, Y2)) = X1Y2 - X2Yt,

Mostrar que
(a) se T é um operador linear sôbre C 2 , então /(Ta, T/3) = (det T) f(a, {:J)
para todos a, {:J em C 2 ;
334 i;oRMAS BILINEARES

tb) T conserva l se, e somente se, det T .... + 1.


(e) O que é que (b) diz acêrca do grupo das 2 X 2 matrizes M tais que
MtAM =Aonde

A = [-~ ~] '!

16. Seja II um inteiro positivo, Ia,, X II matriz unidade sôbre C e J a 211 X


X 2,1 matriz dada por

J = [ -~ ~]-
Seja M a 211 X 211 matriz sôbre C da forma

onde A, B, C, D são II X n matrizes sôbre C. Determinar condições neces-


sárias e suficientes sôbre A, B, C, D para que MtJM = J.
17. Determinar tôdas as formas bilineares sôbre o espaço das n X 1 matri•
z.es sõbre R que sejam invariantes sob O(n, R).
18. Determinar tôdas as formas bilineares sôbre o espaço das 11 X l matri-
i.es sôbre C que sejam invariantes sob O(n. C).
APtNDICE

Este Apêndice divide-se de maneira lógica em duas partes. A primei-


ra parte, compreendendo as três primeiras seções, contém certos con-
ceitos fundamentais q,,ue ocorrem por todo o livro (na verdade, por
tôda a matemática). E mais uma espécie de introdução do livro que
apêndice. A segunda parte é ·mais genuinamente um apêndice ao texto.
A Seção l contém uma discussão s~bre conjuntos, suas reuniões
e interseções. A Seção 2 discute o conceito de função e as idéias afins
de imagem, domínio, função inversa e a restrição de uma função a
um subconjunto do seu domínio. A Seção 3 trata das relações de
equivalência. O assunto destas três seções, especialmente o das Se-
ções 1 e 2, é apresentado de uma maneira bem concisa. É tratado
mais como um acôrdo sôbre a terminologia que como uma exposi•
ção detalhada. Num sentido fógico estrito, esta matéria constitui uma
parte dos pré-requisitos para a leitura do livro; contudo, o leitor não
deverá se desencorajar se não conseguir aprender completamente o
significado das idéias na sua primeira leitura. Estas idéias são impor-
tantes, mas o leitor que não tiver muita familiaridade com elas deve-
rá achar mais fácil absorvê-las se rever a discussão de tempos em tem~
pos, à medida que fôr lendo o texto em si.
As Seções 4 e 5 consideram as relações de equivalência no con ..
texto da álgebra linear. A ,Seção 4 contém uma discussão breve de
espaços quocientes. Pode ser lida a qualquer momento após os dois
ou três primeiros capítulos do livro. A Seção 5 considera ràpidamen-
te algumas das relações de equivalência que aparecem no livro~ ten ..
tando indicar como alguns dos resultados do livro poderiam ser in~
terpretados do ponto de vista de relações de equivalência.

A. 1 Conjuntos
Usaremos as palavras ·conjunto', ·classe\ ·coleção' e 'família'
indiferentemente, apesar de darmos preferência a 'conjunto'. Se S
é um conjunto e x é um objeto do conjunto S, diremos x é um mem-
...
336 APENDICE

bro de S, que x é um elemento de S, que x pertence a Sou simples-


mente que x está em S. Se S possui apenas um número finito de mem-
bros, x1, ... ,X,,1, freqüentemente descrevemos S exibindo seus ele•
mentos dentro de chaves:
S = {X1, . . . ~X;1 } •

Assim, o conjunto S dos inteiros positivos de 1 a 5 seria


S = { 1, 2, 3, 4, 5 } .
Se Se T são conjuntos, dizemos que Sé um subconjunto de T,
ou que S está contido em T, se cada membro de Sé um membro de
T. Cada conjunto S é um subconjunto de si mesmo. Se Sé um sub-
conjunto de T mas S e T não são idênticos, denominamos S um sub-
conjunto próprio de T. Em outras palavras, S é um subconjunto pró-
prio de T se S está contido em T mas T não está contido em S.
Se Se T são conjuntos, a reunião de
S com T é o conjunto S U T,
constituído de todos os objetos x que são membros de S ou de T.
A interseção de S com T é o conjunto S fl T, formado por todos os
x que são membros de S e de T. Para dois conjuntos arbitrários, S
e T, a interseção S f\ T é uni subconjunto da reunião S V T. Isto
deve auxiliar a esclarecer o uso da palavra 0U' que prevalecerá neste
6

livro: Quando dizemos que x está em S ou em T, não excluímos a


possibilidade de x estar em ambos Se T.
Para que a interseção de S e T seja sempre um conjunto, é ne-
cessário introduzir o conjunto vazio, isto é, o conjunto sem elemen-
tos. Então S n
T é o conjunto vazio se, e somente se, S e T não têm
elementos em comum.
Freqüentemente precisaremos discutir a reunião ou a interseção
dos diversos conjuntos. Se S 1, ••. , Sn são conjuntos, sua reunião é o
n
conjunto V S, farmado por todos os x que são membros de pelo
i=l
menos um dos conjuntos S 1 , .•• ,Sn, Sua interseção é o conjunto
n" Sj, formado por todos os x que são membros de cada um dos con-
.1 -1 '
juntos S 1, . . • ,S,.. Em algumas ocasiões, discutiremos a reunião ou
a interseção de uma coleção infiniia de conjuntos. Deveria estar evi-
dente a maneira como tais reuniões e interseções são definidas. O
exemplo que segue deverá esclarecer estas definições e uma notação
para elas.
Exemplo 1. Indiquemos por R o conjunto dos (de todos os)
números reais (a reta real). Se testá em R, associamos atum subcon•
FUNÇÕES 337

junto S, de R, definido como segue: S1 consiste dos números reais x


que não são menores que t.
(a) s,l U s,2 = St onde { é O menor entre !1 e (z.
(b) s,l fl s,'l = s,, onde t é O maior entre ft e f2.
(c) Seja / o intervalo unitário, isto é, o conjunto dos t em R que
satisfazem O < t < l. Então
U Si= So
l em I

n
tem I
St - S1

A.2 Funções
Uma função consiste do seguinte:
(í) um conjunto X, denominado o domínio da função;
(ii) um conjunto Y, denominado o contradomínio da função;
(iii) uma regra (ou correspondência) f, que associa a cada ele-
mento x de X um único elemento f(x) de Y.
Se (X, Y,f) é umafu nção, diremos que/ é uma função de X em
Y. Isto é um tanto confuso, pois não é f que é a função; fé a regra
da função. No entanto, êste uso do mesmo símbo]o para a função e
e sua regra nos fornece uma maneira muito mais maleável de falar
sôbre funções. Assim, diremos que fé uma função de X em Y, que
X é o domínio de/ e que Y é o contradomínio de /-tudo isto sig-
nificando que (X, Y, f) é uma função como definido acima. Existem
várias outras palavras que são comumente usadas no lugar da pala•
vra 'função'. Algumas delas são 'transfarmação', ·operador' e 'apli-
cação·. Estas são usadas em contextos onde pareçam ser mais suges-
tivas na transmissão do papel desempenhado por uma função espe-
cífica.
Se/ é uma função de X em Y, a imagem de fé o conjunto dos
f(x), x em X. Em outras palavras, a imagem de.f consiste dos elemen-
tos y em Y tais que y = f(x), para algum x em X. Se a imagem de/
é todo o conjunto Y, dizemos que fé uma fun~ão sobrejetora de X
em Y ou simplesmente que fé sobrejetora. A imagem de f é freq üen-
temente indicada por /{X).
Exemplo 2. (a) Seja X o conjunto dos números reais e seja Y = X.
Seja/a função de X em Y definida por f(x) = x 2 • A imagem de/é o
C'.:>njunto dos números reais não-negativos. Assim, f não é sobrejetora.
338
.
APENDICE

(b) Seja X o plano euclidiano e Y = X. Seja/ definida como se-


gue: se Pé um ponto do plano, então/( P) é o ponto obtido girando-
se P de 9()o (em tôrno da origem, no sentido anti-horário). A imagem
de/ é todo Y, isto é, todo o plano; portanto .. / é sobrejetora.
(e) Novamente, seja X o plano euclidiano. Coloquemos coorde ..
nadas em X como em geometria analítica, usando duas retas per-
pendiculares para identificarmos os pontos de X com pares ordena-
dos de números reais (x1, x2). Seja Y o eixo dos x1, isto é, o conjunto
dos pontos (x1, x 2) com x2 = O. Se Pé um ponto de X, seja/(P)
ponto obtido projetando P sôbre o eixo dos x1. paralelamente ao
eixo dos x2. Em outras palavras,/((x1, x2)) = (xi, O). A image1n de.f
é todo Y, portanto fé sobrejetora.
(d) Seja X o conjunto dos números reais e seja Y o conjunto dos
números reais positivos. Definamos uma função f de X em Y por
f(x) = ex. Então,.( é uma função sobrejetora de X em Y.
(e) Seja X o conjunto dos números reais positivos e .Y o conjunto
dos números reais. Seja/ a função logarítmica natural, isto é1 função
definida por f(x) = log x = ln x. Novamente, / é sobrejetora, isto é,
todo número real é o logaritmo natura! de algum número positivo.
Suponhamos que X, Ye Z sejam conjuntos, que/ seja uma fun-
ção de X em Ye que g seja uma função de Yem Z. Existe, associada
a/ e g, uma função g o f de X em Z, conhecida como a composta de
g e /. Ê definida por
(g O/) (x) = g(f(x)).

Para um exen1plo simples, seja X = Y = Z, o conjunto dos números


reais, sejam/, g, h as funções de X em X definidas por
f(x) = ~2, g(x) = e~, h(x) = ez 2

e então h = g O J. A composta g o fé freqüentemente indicada por


gf; contudo, como mostra o exemplo simples acima, existem oca-
siões em que isto pode levar a confusão.
Uma questão de interêsse é a que segue. Suponhamos que/ seja
uma função de X em Y. Quando é que existe uma função g de Yem.
X tal que g(/(x)) = x para todo x em X? Indicando por / a função
idêntica sôbre X, isto é, a função de X em X definida por l(x) = x, es-
tamos perguntando: Quando é que existe uma função g de Y em X tdl
que g O f = I? A grosso modo, queremos uma função g que 'leva
cada elemento de Y de volta ao lugar de onde veio'. Para que uma tal
g exista./ptecisa ser injetora, isto é,/ precisa ter a propriedade de que
se ·x1 ~ x2, então /(x1) :;,f. f(x2). Se fé injetora, existe uma tal função
FUNÇÕES 339

g. Ela é definida como segue: Seja y um elemento de Y. Se y está na


imagem de f, então existe um elemento x em X tal que y = J(x); com:0
/ é injetora, existe exatamente um ta] x. Definamos g(y) = x. Se y não
está na imagem de/, definamos g(y) como sendo um elemento qual-
quer de X. àbviamente temos g o f ~ /.
Seja/ uma função de X em Y. Dizemos que fé inversível se exis-
te uma função g de Y em X tal que
(i) g O fé a função idêntica sôbre X;
(ii) / O g é a função idêntica sôbre Y.
Acabamos de ver que. se existe uma g satisfazendo (i), então/ é inje-
tora. Anàlogamente, pode-se ver que se existe uma g satisfazendo
(ii), a imagem def é todo o conjunto Y, isto é, fé sobrejetora. Assim
se fé inversível,/ é injetora e sobrejetora (bijetora ). Reciprocamente.
se fé bijetora, existe uma função g de Y em X que satisfaz (i) e (ii).
Além disso, esta g é única. Ela é a função de Y em X, definida por
esta regra: se y está em Y, então g(y) é o único elemento x em X para
o qual/(x) = y.
Se/ é inversível (bijetora) a inversa de fé a única função 1- 1 de
Y em X que satisfaz
(i') J- 1(/(x)) = x, para cada x em X,
(ii') J(J- 1 (jy)) = y, para cada y em Y.
Exemplo 3. Consideremos as fun~ücs do Exemplo 2.
(a) Se X = Y, o conjunto dos números reais, e/(x) = x 2 , então
f não é inversível. De fato não é injetora nem sobrejetora.
1 /

(b) Se X = Y, o espaço euclidiano, e/ é a 'rotação de 90°', então


fé bijetora. A função inversa 1- 1 é a 'rotação de -90°' ou a "rotação
de 270°'.
(e) Se X é o plano, Y o eixo dos x1 e/((x1, x2)) = (x1, O), então
f não é inversível. De fato, apesar de ser sobrejetora, f não é injetora.
(d) Se X é o conjunto dos números reais, Yo conjunto dos núme~
ros reais positivos e /(x) = ex, então/ é inversível. A função J- 1 é a
função logaritmo natural da parte (e): log ex = x, e 1°K" = y.
(e) A inversa desta função logarítmica natural é a função expo•
nencial da parte (d).
Seja/uma função de X em Ye seja/o uma função de Xo em Yo.
Dizemos que/o é uma restrição de/(ou uma restrição de/ a Xo) se
(i) Xo é um subconjunto de X,
(ii) fo(x) = f(x), para cada x em Xo.
340 APÊNDICE

Evidentemente, quando /o é uma restrição de/, decorre que Yo é um


subconjunto de Y. O nome 'restrição' vem do fato de que f e Jo têm
a mesma regra e diferem principalmente porque restringimos o do~
mínio de definição da regra ao subconjunto Xo de X.
Se nos é dada uma função/ e um subconjunto arbitrário X 0 de
X, existe uma maneira óbvia de construir uma restrição de f a Xu. De-
finamos uma função /o de Xo em Y por / 0(x) = f(x) para cada x em
Xo. Poder-se-ia perguntar por que não denominamos esta [o a restri-
ção de/ a Xo. A razão é que, ao discutirmos restrições def, queremos
a liberdade de mudar o contradomínio Y, bem como o domínio X.
Exemplo 4. (a) Seja X o conjunto dos números reais e f a fun-
ção de X definida por /(x) = x 2 • Então,J não é uma função inversí-
vel mas o será se restringirmos seu domínio aos números reais não-
negativos. Seja Xo o conjunto dos números reais não-negativos e seja
/o a função de Xo em Xo definida por / 0(x) = x 2 • Então/o é uma res-
trição de/ a Xo. Ora,/ não é injetora nem sobrejetora~ enquanto que
/o é injetora e sobrejetora. A última afirmação diz simplesmente que
cada número não-negativo é o quadrado de exatamente um número
não-negativo. A função inversaf0 1 é a função de Xo em Xo definida
por /õ 1(x) = v'x.
(b) Seja X o conjunto dos números reais e seja/ a função de X
em X definida por f(x) = x 3 + .x; 2 + 1. A imagem de/ é todo X, por-
tanto! é sobrejetora. A função/ certamente não é injetora pois/(-1) =
f(O). Masf é injetora sôbre X0 , o conjunto dos números reais não-ne-
gativos, pois a derivada de fé positiva para x > O. Quando x percor-
re todos os números reais não-negativos,/(x) percorre todos os núme-
ros reais y tais que y .> l. Se indicarmos por ·yo o conjunto dos y > 1
e por/0 a função de X 0 em Yo definida porfo(x) = f(x), entãofo é uma
função bijetora de X0 em Y0 • Conseqüentemente, /o possui uma fun~
ção inversa /õ 1 de Y0 em X0 • Qualquer fórmula para /õ 1(y) é bas-
tante complicada.
(e) Novamente, seja X o conjunto dos números reais e seja/ a
função seno, isto é~ a função de X definida por /(x) = sen x. A ima-
gem de/ é o conjunto dos y tais que -1 < y s_ l; logo~ J não é so-
brejetora. Comof(x + 271'") = f(x), vemos que/ não é injetora. Se in-
dicarmos por Xo o intervalo - 7r/2 < x < - 1rl2, então J é injetora
em Xi,. Seja Yo o intervalo - l < y s;_ l e seja /o a função de Xo em
Yo definida por.frlx) = sen x. Então/o é uma restrição de/ ao inter-
valo Xo e/o é bijetora. Esta é apenas uma outra maneira de dizer que,
no intervalo de -1rl2 a 1rl2, a função seno toma cada valor entre -,l
e l exatamente uma vez. A função fõ 1 é a função arco•seno:
/õ 1{y) = sen- 1y = are sen y.
RELAÇÕES DE EQUIVALÊNCIA 341

(d) Êste é um exemplo geral de uma restrição de uma função.


É muito mais característico d~ tipo de restrição que usaremos neste
livro do que os exemplos em (b) e (e) acima. O exemplo em (a) é um
caso particular dêste. Seja X um conjunto e fuma função de X em si
mesmo. Seja X0 um subconjunto de X. Dizemos que Xo é invariante
sobf se para cada x em Xo o elementof(x) está em Xo, Se Xo é inva-
riante sob/, então .f induz uma função [o em X0 em si mesmo, restrin•
gindo-se o seu domínio de definição a Xo. A importância da invari-
ância é que retringindo J a X0 podemos obter uma função de Xo em
sí mesmo, em vez de simplesmente uma função de X0 em X.

A . 3 Relações de Equivalência
Uma relação de equivalência é um tipo particular de relação en-
tre pares de elementos de um conjunto. Para definir uma relação de
equivalência, precisamos primeiro decidir o que é uma ·relação'.
Certamente uma definição formal de 'relação' deve envolver re--
lações familiares tais como ·x = y\ 'x < i, · x é a mãe de y' e "x é
mais velho que y'. Se X é um conjunto, o que é necessário para deter•
minar uma relação entre pares de elementos de X? O que se precisa.
evidentemente, é de uma regra para determinar se, para dois quais-
quer elementos dados x e y em X, x está na relação dada com y ou
não. Uma tal regra R, será denominada uma relação (binárt::i) sôbre
X. Se desejarmos ser ligeiramente mais precisos, poderemos pro<.:cder
como segue. Indiquemos por X X X o conjunto dos pares ordenados
(x, y) de elementos de X. Uma relação binária sôbre X é uma função
R de X X X no conjunto { O, 1 }. Em outras palavras, R associa a ca-
da par ordenado (x, y) um 1 ou um O. A idéia é que se R(x, y) = 1,
então x está na relação dada com y, e se R(x, y) = O, não o está.
Se R é uma relação binária sôbre o conjunto X, é conveniente
escrever xRy quando R(xt y) = 1. Uma relação binária é dita
{i) reflexiva~ se xRx para todo x em X;
(ii) simétrica, se yRx.sempre que xRy;
(iii) transidva, se xRz sempre que xRy e yRz.
Uma relação de equivalência sôbre X é uma relação binária sô·
bre X que é reflexiva, simétrica e transitiva.
Exemplo 5. (a) S6bre qualquer conjunto, a igual~ade é uma re-
lação de equivalência. Em outras palavras, se xRy si,nifica x = y,
então Ré uma relação de equivalência. De fato, x=x~ se x= y então
y - x, se x = y e y - z então x - z. A relação 'x ;,é y' é simétrica,
mas não é reflexiva nem transitiva.

. ; ..JI
A
342 APENDICE

(b) Seja X o conjunto dos números reais e suponhamos que xRy


signifique x < y. Então R não é uma relação de equivalência. Ape-
sar de ser transitiva, não é nem reflexiva nem simétrica. A re1ação
'x < y' é reflexiva e transitiva, mas não é simétrica.
(e) Seja E o plano euclidiano e seja X o conjunto dos triângulos
no plano E. Então, a congruência é uma relação de equivalência sô•
bre X, isto é., 'T1 ,,_., T2' (T1 é congruente a T2) é uma relação de equi-
valência sôbre o conjunto dos triângulos no plano. ·
(d) Seja X. o conjunto dos inteiros:
... , -2, -1, o, 1, 2, ...
Seja n um inteiro positivo fixo. Definamos uma relação R. sôbre X
por: xR,.y se, e somente se, (x -y) é divisível por n. A relação R,. é
denominada congruência módulo n. Em vez de xRny escreve-se em
gera1,
x = y, mod n (x é congruente a y módulo n)
quando (x - y) é divisível por n. Para cada inteiro positivo n, a con-
gruência n1ódulo n é uma relação de equivalência sôbre o conjunto
dos inteiros.
(e) Sejam X e Y conjuntos e/ uma função de X em Y. Defina-
mos uma relação R sôbre X por: x1Rx2 se, e somente se,j(x1) =/{x2).
É fácil verificar que R é uma relação de equivalência sôbre o conjun-
to X. Como veremos, êste exemplo engloba, na verdade, tôdas as re-
lações de equivalência.
Suponhamos que R seja uma relação de equivalência sôbre o
conjunto X. Se x é um elemento de X, indiguemos por E(x; R) o con-
junto dos elementos y em X tais que xRy. Êste conjunto E(x; R) é de-
nominado a classe de equivalência de x (segundo a relação de equi-
valência R). Como Ré uma relação de equivalência, as classes de equi-
valência possuem as seguintes propriedades:
(i) Cada E(x; R) é não-vazio, pois, como xRx, o elemento x
pertence a E(x; R).
(ii) · Sejam x e y elementos de X4 Como R é simétrica, y per-
tence a E(x; R) se, e somente se, x pertence a E(y; R).
(iii) Se x e y são elementos de X, as classes de equivalência
E (x; !l,) e E(y;· R) ou são idênticas ou não têm nenhum elemento em
comum. Primeiro, suponhamos que xRy. Seja z um elemento arbi-
trário de E (x; R), isto é, um elemento de X tal que xRz. Como Ré
simétrica, também temos zRx. Por hipótese, xRy e como R é tran-
sitiva, obtemos zRy, ou yRz. Isto mostra que todo membro de E(x; R)
RELAÇÕES DE EQUIVALÊNCIA 343

é um membro de E(y; R). Pela simetria de R, vemos, anàlogamente,


que todo membro de E(y; R) é um membro de E(x; R);. logo
E(x; R) = E(y; R). Afirmamos agora que se a relação xRy não va•
le, então E(x; R) ('\ E(y; R) é vazia. De fato, se z está em ambas es-
tas classes de equivalência, temos xRz e yRz, portanto xRz e zRy,
logo xRy.
. Indicando por ;J" a família das classes de equivalência segundo
uma relação de equi~alência R, vemos que: (1) cada conjui:ito na fa-
mília íf é não-vazio; (2) cada elemento x de X pertence a um e so-
mente um dos conjuntos na família ff; (3) xRy se, e somente se. x e
_., pertencem ao mesmo conjunto na família 5. Abreviadamente, are-
lação de equivalência R subdivide X na reunião de uma família de
subconjuntos (não-vazios) disjuntos dois a dois. O argumento tam-
bém vale no outro sentido. Suponhamos que ff seja uma família ar-
bitrária de subconjuntos de X que satisfaça as condições (1) e (2)
acima. Se definirmos uma relação R por (3), então R será uma rela-
ção de equivalência sôbre X e ff a família das classes de equivalên..
eia segundo R.
Exemplo 6. Vejamos quais são as classes de equivalência se-
gundo as relações de equivalência do Exemplo 5.
(a) Se Ré a igualdade sôbre o conjunto X, então a classe de equi-
valência do elemento x é simplesmente o conjunto {x}, cujo único
elemento é x.
(b) Se X é o conjunto dos triângulos num plano e Ré a relação
de congruência, pràticamente tudo o que se pode dizer, de início,
é que a classe de equivalência do triângulo T consiste de todos os
triângulos que são congruentes a T. Uma das tarefas da geometria
plana é dar outras descrições destas classes de equivalência.
(e) Se X é o conjunto dos inteiros e Rn é a relação ·congruência
módulo n', então existem precisamente n classes de equivalência. ca .
da inteiro x pode ser expresso de um único modo sob a forma
x ~ qn + r, onde q e r são inteiros e O< r < n - l. Isto mostra
que cada x é congruente módulo n a exatamente um dos n inteiros
O, 1, 2, . . . , n -1. As classes de equivalência são
Eo = {... , -2n, -n, O, n, 2n, ... }
E1 = {... , 1-2n, 1 - n, l, .1 + n, l + 2n, ... }
.
En-1 = { ... t n. ...:.._ 1 - 2n, n - 1- n, n - t, n - 1 + n,
n- l + 2n, ..• {.
...
344 APENDICE

(d1) Suponhamos que X e Y sejam conjuntos, fuma função de


X em Y e R a relação de equivalência definida por: x1Rx2 se, e so•
mente se,f(x1) = f(x2). As classes de equivalência para R são exata-
mente os maiores subconjuntos de X sôbre os quais fé 'constante'.
Outra descrição das classes de equivalência é a que segue. Elas estão
em correspondência bijetora com os elementos na imagem de/. Se
y está na imagem de/, o conjunto dos x em X tais que/(x) = y é uma
classe de equivalência para R; isto define uma correspondência bi-
jetora entre os membros da imagem de/ e as classes de equivalência R.
Façamos mais um comentário· acêrca de relações de equivalên-
cia. Dada uma relação de equivalência R sôbre X, seja fr a família
das classes de equivalência segundo R. Associando ao elemento x a
classe de equivalência E(x; R), definimos uma função/ de X em ff
(na verdade, sôbre ff):
f(x) = E(x; R).
Isto mostra que R é a relação de equivalência associada a uma fun-
ção cujo domínio é X, como no Exemplo 5 (e). O que isto nos diz é
que tôda relação de equivalência sôbre o conjunto X é determinada
como segue. Temos uma regra (função)/ que associa a cada elemen-
to x de X um objeto/(x), e xRy se, e somente se,f(x) = f(y). Agora
deve-se considerar /(x) como uma propriedade de x, de modo que o
que a relàção de equiv~lência faz (a grosso modo) é reunir todos os
elementos ·cte X que têm esta propriedade em comu,rri. Se o objeto
/(x) é a cla~se de equivalência de x, então tudo o que se disse é que
a propriedade comum dos membros de uma classe de eçiuivalêrrcia
é que êles pertencem à mesma classe de equivalência. É claro que
isto não diz muito. Em geral, existem muitas funções distintas f que
determinam a dada relação de equivalência como acima, e um obje-
tivo no estudo das relações de equivalência é determinar uma. tal f
que dê uma descrição significativa e elementar da relação de- equi-
valência. Na Seção A.5 veremos como isto é conseguido para algu-
mas relações de equivalincia particulares que surgem em álje:bra
linear. -

A.4 Espaços Quocientes


Seja V um espaço vetorial sôbre o corpo F e seja W um subes-
paço de V. Existem, em geral, muitos subespaços W' que são suplê-
mentares de Wt isto é, subespa_çps com a propriedade de que
V = W e W'. Se temos um produto interno sõbre V e se W é de di-
mensão finita, existe um subespaço particular que provàvelmente
ESPAÇOS QUOCIENTES 345
A

se denominaria o subespaço suplementar ·natural' de W. Ele é o su-


plementar ortogonal de W. Mas se V não possuJ nenhuma estrutura
além de sua estrutura de espaço vetorial, não exist.e nenhuma ma-
neira de selecionar um subespaço W' que se pudesse denominar o
subespaço suplementar natural de W. Contudo, pode-se construir, a
partir de V e W, um espaço vetorial V/W, conhecido como o 'quo-
ciente' de V por W, que desempenhará o papel do suplementar na-
tural de W. ~ste espaço quociente não é um subespaço de V, portan-
to não pode ser realmente um subespaço suplementar de W; no en-
tanto, êle é um espaço vetorial definido apenas em têrmos de V e W
que tem a propriedade de ser isomorfo a todo subespaço W' que seja
suplementar de W.
Seja W um subespaço do espaço vetorial V. Se a e /3 são vetores
em V, dizemos que a é congruente a /3 módulo W se o vetor (a - /j)
está no subespaço W. Se a é congruente a~ módulo W, escrevemos
a == (3, mod W.
Ora, a congruência módulo W é uma relação de equivalência sôbre V.
(i) a = a, mod. W, porque a - a = O está em W.
(ii) Se a = {3, mod W, então /3 = a, mod W. De fato, como W
é um subespaço de V, o vetor (a - /3) está em W se, e somente se,
('{3 - a) está em W. ·
(iii) Se a = fJ, mod W, e /3 = 'Y, mod W, então a = 'Y, mod W.
De fato, se (a - /3) e (/3 - 'Y) estão em W, então a - 'Y = (a - /3)
+ (P - -y) está em W.
As classes de equivalência desta relação de equivalência são co-
nhecidas como as classes laterais de W. Qual é a classe de equivalên-
cia (classe lateral) de um vetor a? Ela consiste dos vetores f3 em V tais
que (/3 - a) está em W, isto é, os vetores da forma {3 = a + 'Y, com-,,
em W. Por esta razão. a classe lateral do vetor a é indicada por

Oi+ w.
É conveniente pensar na classe lateral de a ero relação a W como senf"
do o conjunto dos vetores obtidos por translação do subespaço W
pelo vetor a. Para visualizar estas classes laterais, o leitor pode pen-
sar no seguinte caso particular: Seja V o espaço Rª e seja W um sub-
espaço unidimensional de V. Se imaginarmos V como sendo o plano
euclidiano, W será uma reta passando pela origem. Se a = (xi. x2)
é um vetor em V, a classe lateral a + W é a reta que passa pelo ponto
(xi, x2) e é paralela a W.
346 APtNDICB

A coleção de tôdas as classes laterais de W será indicada por


V/W. Definamos agora uma adição de vetores e uma multiplicação
escalar sôbre V/W corno segue:
(a + W) + (ft + W) = (a + /3) + W
c(a + W) == (ca) + W.
Em outras palavras, a soma da classe lateral de a com a classe late-
+
ral de f3 é a classe lateral de (a {3), e o produto do escalar e pela clas-
se lateral de a é a classe lateral do vetor ca. Ora, muitos vetores dis-
tintos em V terão a mesma classe lateral em relação a W, portanto
precisamos verificar que a soma e o produto acima dependem somen-
te das classes laterais envolvidas. O q1ue isto significa é que precisa-
mos mostrar o seguinte:
(]) Se a = a', mod W, e fJ = {J', moei W, então
a + /3 =ol + {3 1 , mod W.
(2) Se a = a', mod W, então e a = ca', mod W.
tstes fatos são fáceis de verificar. (l) Se a - a' está em W e
(3 - {3' está em W, então como (a + {3) - (a' + /3 1 ) = (a - a') +
(ft - fJ') vemos que a + fJ é congruente a a' + fJ' módulo W. (2) Se
a - a' está em W e e é um escalar arbitrário, então ca - ca' =
c(a - a') está em W.
Agora é fácil verificar que V/W, com a adição de vetores e a mul-
tiplicação escalar acima definidas; é um espaço vetorial sôbre o cor~
po F. Deve-se verificar diretamente cada um dos axiomas para um es-
paço vetorial. Cada uma das propriedades da adição de vetores e da
multiplicação escalar decorre da propriedade correspondente das ope-
rações em V. Um comentário deve ser feito. O vetor nulo em V/W
será a classe lateral do vetor nulo em V. Em outras palavras, W é o
vetor nulo em V/ W.
O espaço vetorial V/ W é denominado o quociente ( ou diferença)
de Y P9r W. &iste uma transformação linear natural Q de V sôbre
V/W. É definida por Q(a) = a + W. Deve-se ver que definimos as
operações em Y/W exatamente de modo que esta transformação
Q viesse a ser linear. Notemos.que o núcleo de Q é exatamente o sub•
espaço W. Denominamos Q a transformação quociente (ou aplicação
quociente) de V sôbre V/W.
A relação entre o ..espaço quociente V/We subespaços de V que
são suplementares de W pode agora ser enunciada como segue.
Teorema. Seja W um subespaço do espaço vetorial V e seja Q a
aplicação quociente de V sôbre V/W. Suponhamos que W seja um
ESPAÇOS QUOCIENTES 347

sUÍ,espaço de V. Então V = W EB W' se, e somente se, a restrição


de Q a W' é um i$omorfismo de W' em V/W.
Demonstração. Suponhamos que V = W E0 W'. Isto significa
que cada vetor a em V pode ser expresso de um único modo sob a
forma a = 'Y + -y', com 'Y em W e a' em W'. Então, Qa = Qy +
Qy, isto é, a + W = ,y' + W. Isto mostra que Q leva W' sôbre V/W,
ou seja, que Q(W') = V/W. Além disso, Q é injetora em W'; de fa-
to, suponhamos que -yi e 'Y' sejam vetores em W' e que Qyí :=: Qy~.
Então, Q('YÍ - 'Y~) = O de modo que 'YÍ - "Y2 está em W. ~te
vetor também está em W', que é disjunto de W; logo -y{ - 'Y~ = O.
A rest1 ição de Q a W' é portanto uma transfarmação linear bijetora
de W' em Vf'W.
Suponhamos que W' seja um subespaço de V tal que Q seja in-
jetora em W' e que Q(W') = V/W. Seja a um vetor em V. Então exis ..
+
te um vetor ,.,, em W' tal que Q:y' = Qa, isto é, 'Y' W = a + W.
Isto significa que a = 'Y + ,y' para algum vetor "Y em W. Portanto
V = W + W'. Para ver que W e Wt são disjuntos, suponhamos que
'Y esteja em W e em W'. Como 'Y está em W, temos Q,y = O. Mas Q
é injetora em W', logo devemos ter que 'Y = O. Assim, temos que
V= WEB W'. .
O que este teorema realmente diz é que W' é um suplementar de
W se, e somente se, W' é um subespaço que contém exatamente um
elemento de cada classe lateral de W. ~le mostra que, quando
V = W t:B W'J a aplicação quociente Q 'identifica' W' com V/W.
Abreviadamente, (WEB W')/W é isomorfo a W' de uma maneira
'natural'. ·
Um fato bastante ,óbvio deve ser notado. Se W é um subespaço
do espaço vetorial V de dimensão finita, então
dim W + dim (V/W)=dim V.
Pode-se ver isto a partir do teorema acima. Talvez seja mais fácil
observar que esta fórmula sôbre dimensões diz:
nulidade (Q) + pôsto (Q) . dim V.
Não é nosso objetivo aqui fazer um tratamento detalhado dos espa-
ços quocientes. Contudo, existe um resultado fundamental que de•
vemos demonstrar.
Teorema. Sejam V e Z espaços Yetoriais sobre o corpo F. Supo-
nhamos que T seja uma tran.sformação linear de V sôbre Z. Se W é o
n•úc/eo de T, então Zé isomorfo a V/W.
348 APÊNDICE

Demonstração. Definamos uma transformação U de V/W em


Z por U(a + W) = Ta. Precisamos verificar que U está bem defi-
nida, isto é, que se a + W = (3 +
W então Ta = TfJ. Isto decor-
re do fato de que W é o núcleo de T; de fato, a +
W = fJ +
W sig-
nifica que a - ~ em W e isto ocorre se, e somente se, T(a - fj) = O.
Isto mostra não só que U está bem definida, mas também que U é
injetora.
Agora é fácil verificar que Ué linear e leva V/W sôbre Z, pois
T é uma transformação linear de V sôbre Z.

A.! Relações de Equivalência em Álgebra Linear


Vamos considerar algumas das relações de equivalência que sur-
gem no texto dêste livro. Esta é apenas uma ·amostra de tais relações.
(l) Sejam m e n inteiros positivos e F um corpo. Seja X o con-
junto das m X n matrizes sôbre F. Então, a linha-equivalência é uma
relação de equivalência sôbre o conjunto X. A afirmação 'A é linha-
equivalente a B' significa que A pode ser obtida de B por uma suces-
são finita de operações elementares sôbre linhas. Se escrevermos
A "-J B para Indicar que A é linha-equivalente a B, então não é di-
fícil verificar as propriedades (i) A ,_, A; (ii) se A ·"' B, então B ,_, A;
(ii) se A ~ B e B 1'J C, então A ,...__, C. Que sabemos a respeito desta
relação de equivalência? Na realidade, sabemos bastante. Por exem-
plo, sabemos que A ,_, B se, e somente se, A = PB para alguma
m X m matriz inversível P; ou, A ,_, B se, e somente se, os siste-
mas homogêneos de equações lineares AX = O e BX = O têm as
mesmas soluções. Também temos informações bem explícitas sô-
bre as classes de equivalência segundo esta relação. Cada m X m
matriz A é linha..equivalente a uma, e somente uma, matriz linha-re-
duzida à forma em escada. O que isto diz é que cada classe de equi-
valência segundo esta relação contém precisamente urna matriz R
linha.. reduzida à forma em escada; a classe de equivalência deter•
minada por R consiste das matrizes A = PR onde P é uma m X m
matriz inversível. Pode-se também considerar esta descrição das clas-
ses de equivalência da seguinte maneira: Dada uma m X n matriz
A, temos uma regra (função)/ que associa a A a matrizf(A), linha-
-reduzida à forma em escada, que é linha-equivalente a A. A linha-
-equivalência é completamente determinada por f. De fato, A ,_, B
se, e somente se, /(A) = /(B), isto é, se, e somente se, A e B têm a
mesma forma em escada linha-reduzida.
(2) Seja n um inteiro positivo e F um corpo. Seja X o conjunto
das n X n matrizes sôbre F. Então, a semelhança é uma relação de
RELAÇÕES DE EQUIVALÍNCIA COM ÁLGEBRA LINEAR 349

equivalência sôbre X; cada n X n matriz A é semelhante a si mesma;


se A é semelhante a B, então B é semelhante a A; se A é semelhante a
B e B é seme]hante a C, então A é semelhante a C. Também sabemos
muita coisa acêrca -desta relação de equivalência. Por exemplo, A é
semelhante a B se, e somente se, A e B representam o mesmo ope-
rador linear sôbre F,i em relação a bases ordenadas (p'}ssivelmente)
diferentes. Entretanto, sabemos algo muito mais profundo que isto.
Cada n X n matriz A sôbre Fé semelhante (sôbre F) a uma, e somen-
te uma, matriz sob a forma racional (Capítulo 7). Em outras palavras,
cada classe de equivalência segundo a rehção de semelhança con-
tém exatamente uma matriz que está sob a forma raciona]. Uma ma-
triz sob a forma racional é determinada por uma k-upla (p 1 , ••• ,Pk)
de polinômios unitários com a propriedade de que Pi+ 1 divide PJ,
j = 1, . .. ,k - 1. Assim, temos uma função/ que associa a cada
n X n matriz A uma k-upla f(A) = (p1, ... ,p;J que satisfaz a con-
dição de divisibilidade PJ+i divide Pi· Então A e B são semelhantes
se, e somente se,f(A) = f(B).
(3) Eis um caso particular do Exemplo 2 acima. Seja X o con-
junto das 3 X 3 matrizes sôbre um corpo F. Consideremos a rela-
ção de semelhança sôbre X. Se A e B são 3 X 3 matrizes sôbre F,
então A e B são semelhantes se, e somente se, possuem o mesmo po-
linômio característico e o mesmo polinômio minimal. Associado a
cada 3 X 3 matriz A, temos um par (/, p) de polinômios unitários
que satisfazem
(a) gr(,'J) = 3.
· (b) p divide/,
send~ / o polinômio característico de A e p o polinômio minimal de
A. Dados polinômios unitários./ e p sôbre F que satisfaçam (a) e (b).
é fácil exibir uma 3 X 3 matriz sôbre F, cujos polinômios caracte-
rístico e minimal sejam/ e p, respectivamente. O que tudo nos diz
é o que segue. Se considerarmos a relação de semelhança sôbre o con-
junto das 3 X 3 matrizes sôbre F, as classes de equivalência estarão
em correspondência bijetora com os pares ordenados (/~ p) de poli-
nômios unitários sôbre F que satisfazem (a) e (b).
BIBLIOGRAFIA

Albert, A. A. Modern higher algebra. University of Chicago Press,


Chicago, 1937.
Birkhoff. O. and MacLane, S. A survey o/ modern a/gebra. The Mac~
millan Co., New York, 1941.
Halmos, P. Finite-dime.nsional vector spaces. D. Van Nostrand Co.,
Princeton. 1958.
Jacobson, N. Lectures in obstract algebra, II. D. Van Nostrand Co.,
Princeton, 1953.
Schreier, O. and Sperner, E. Modem algebra and matrix theory.
Chelsea Publishing Co., New York, 1955.
van der Waerden, B. L. Modern .A.lgebra (two volumes). Frederick
Ungar Publishing Co., New York, 1949.
1NDICE ALFABÉTICO

A Cíclico:
subespaço, 201
Adjunta: vetor, 201
clássica, 160 Cofator, 159
de uma transformação, 253, 255 Completa, matriz, lS
Álgebra, 115 Conjugação, 242
Algebricamente fechado, corpo, 135 Constante, po1inômio, 118
Alternada, função n-linear, 142 Coordenadas, 50
Anel, 138 matriz de coordenadas, 52
Anulador: coordenadas em relação a uma
de subespaço, 104 base, Sl
de vetor ( T-anulador}, 202 Corpo; 2
Associada, matrjz, 204 algebricamente fechado, 13S
Auto-adjunta (o) : subcorpo, 2
matriz, 38, 285 Cramcr, regra de, 163
operador, 258
D
B
Determinante, função~ 143
Base, 44 existência de, 146
canôníca de pn 1 44 unicidade de, 153
dual, 99 Diagonalizável (eis) :
ordenada, 51 operador, 134
ortonormal, 249 parte diagonalizável de opera-
Bessel, desigualdade de, 248 dor, 196
Bilinear, forma, 305 simultâneamente, 190, 302
anti-simétrica, 323 Dimensão, 46
assinatura de, 320 Direta, soma, 167, 168
diagonalização de, 316 de matrizes, 172
grupo que conserva, 327 de operadores, 171
matriz de, 308 Disjuntos, subespaços, 166
não-degenerada, 312 Divisão com resto, 127
positiva definida, 31 S Dual:
pósto de, 312 base, 99
simétrica, 314 espaço, 97

e E
Característico: Elementar:
poiln6mio, 178 matriz, 21
valor, 177 operação elementar sõbre li-
vetor, 177 nhas, 7
Cauchy-Schwarz, desigualdade de, operação elementar sôbre co.
244 tunas, 28
Cayley-Hamilton, teorema de, 179 Equivalincia, relação de, 341
Cayley, transformada de, 280 Escalar, 2
352 ÍNDICE

Espectral, teorema, 295 J


Euc;lidiano, espaço, 243
Jordan, forma de, de uma matriz,
F 221
Finita, de dimensão, 46
Função, 337 K
inversível, 338
par e ímpar, 43 Kronecker, símbolo de, 10
polinomial1 33
L
G
Gram-Schmidt, processo de, 246 Lagrange, fórmula de interpolação
Grup:,, 81 de, 123
de Lorentz, 3 31 Linear. álgebra. 115
ortogonal, 329 Linear, combinação:
pseudo.ortogonal, 330 de equações, 4
que conserva uma forma, 327 de vetores, 34
simétrico, 153 Lineares; equações (sistemas de), 3
unitário, 275 bases de soluções de, 66
homogêneas, 3
H regra de Cramer para a resolu-
ção de. 163
Hermitiana, v. Auto-adjunta sistemas equivalentes de, 5
Homogêneas, sistema de equações li- Linear. funcional, 97
neares, 3 Linearmente dependente ( indepen-
dente), 43
I Linear, transformação (operador),
67, 76
Idealt 128 adjunta (o), 255
ideal principal, 128 auto-adjunta, 258
Idempotente, transformação. 173 combinações lineares de, 73
Idêntica, função, 338 decomposição racional de, 211
Interno, produto, 23 5, 315 diagonalizá vel, 184
espaço com, 243 matriz de, 85 1 88, 255
forma quadrática de, 238 não-negativa, 299
matriz de, 240 não-singular, 78
Interseção, 336 nilpotente, 196
de subespaços, 39 nulidade de, 71
Invariante, subespaço, 169 parte diagonalizável de, 196
sob função, 341 positiva, 260
Inversível: pôsto de, 71
função, 338 produtos de, 76
matriz, 24 semi-simples, 227
transformação linear, 77 transposta de. 11 O
Irredutí~el, polinômio, 132 unitária, 2 7 5
Isomorfismo: Linha-equivalência, 8
de ãlgebras, 124 resumo de, 57
de espaços com produto inter- Linha-reduzida, matriz, 1O
no, 271 matriz linha-reduzida à fonna
de espaços vetoriais, 8 3
de grupos, 330
em escada, 12
Linhas, operações sôbre, 6
ÍNDICE 353

Lorentz: Núcleo de transformação linear, 70


grupo de, 331 Nulidade de transformação linear, 71
transformação de, 281, 3 31
o
M
Ordenação, 51
Matriz (es), 6 Ordenada, base, 51
associada, 204 Ortogonal (ais),
anti-simétrica, 164, 169 equivalência de matrizes, 278
auto"adjunta (hermitiana), 38, grupoJ 329
285 matriz, 164, 276
completa, 15 projeção, 249
das coordenadas, 52 suplementar, 247
de forma bilinear, 308 vetores; 244
de produto interno, 240 Ortonormal,
de transformação linear, 85, 88, base, 249
255
conjunto, 244
de Vandermonde, 123 p
dos coeficientes, 6
elementar, 21 Paralelogramo, regra de, 241
elementar de Jordan, 221 Permutação ( ões). 150
espaço de, 31 par, ímpar, 151
forma de Jordan de, 221 produto de, 154
forma racional de, 214 sinal de, ·151
inversível, 24 Polar, decomposição, 301
linha-reduzida, 10 Polarização; identidades de, 239
linha-reduzida à forma em es- Polinomial, função, 33t 126
cada, 12 Polinômio, - 117
normal, 287 característico, 178
ortogonal, 164, 276 decomposição de polin6mio em
positiva, 263 fat6rés primos, 134
produto de, 18 minimal, 181
semelhança de, 94 primo (irredutível), 132
simétrica. 38, 169, 285 raiz de, 128
traço de, 98 Positivo (a),
transposta, 111 matriz, 263
triangular, 15 S operador, 260
unitária, 164, 275 Pôsto:
Máximo divisor comum, 130 - coluna, 112
Menores principais, 266 de forma bilinear, 312
Minimal, polinamio, 181 de matriz, 112
- determinante, 164.
N de transformação linear. 71
- linha, 57, 112
n-linear, função, 140 Primária, teorema de decomposição,
alternada, 142 194
Nio-ne1ativo, operador, 299 Primo, polin6mio, 132
Nio-sinaular, transformação linear, Produto:
78 de matrizes, 18
Nilpotente, operador, 196 de permutações, 154
Norma, 239 de transformações lineares, 76
Normal, operador, 282 Projeção, 173
resolução espectry1.l de, 296 ortogonal, 249
354 ÍNDIC:E

Q T
Quadrática, forma: Taylor, fórmula de; 230
de forma bilinear, 315 Traço:
de produto interno, 238 de matriz, 98
Quociente, espaço, 346 de transformação linear, 103 ·
Transposta:
de matriz, 111
R de transformação linear, 1IO
Triangular, matriz, 1.SS
Racional de uma matriz, forma, 214
Racional, teorema da decomposição, u
211
Reunião, 336 Unidade, matriz, 10
Rígido, movimento, 281 Unitário (a, as),
Rotação, 277 equivalincia de matrizes, 278
espaço, 243
s gru_po, 275
matriz, 275
Semelhantes, matrizes, 94 operador, 275
Semi-simplc". o~rador, 227 polinômio, 118
Simétrica (o),
forma bilinear. J 14 V
lf'Up01 153
m_atriz, 38, 285 V:tndermonde, matriz t:le, 123
Subespaço (s), 37 Vetores-linha111, 41 ·
anulador de, 104 Vetorial, espaçot· 31
cíclico, 201 base de, 44 ·
disjuntos, 166 · de funções polinomiais, 33
aendo por, 39 de n-uplas, 31
independentes, 167 de soluções de equações linea•
soma de, 40 res, 38
suplementar, 206 dimensão de, 46
suplementar ortogonal de~ 247 quociente de, 346
T-admissível, 207 subespaço det 37 ·
SÍMBOLO 5.A. INDOSTRIAS GRÁFICAS
Rua General Flor••• 518 522 525
Tel.ton• 221 5133
sao Paulo

Você também pode gostar