Você está na página 1de 528

I'

ALGEBRA
LINEAR
2� EDIÇÃO

KENNETH HOFFMAN

j ssocia te Professor of Mathematics


Massachusetts lnstitute of Technology

RAY KUNZE

Associate Professor of Mathematics


Washington University
St. Louis, Mo.

Tradução de

RENATE WATANABE

Professora .de Matemática da Universidade Mackenzie

RIO DE JANEIRO
SÃO PAULO

0t LIVROS TÍCNICOS E ClfNlfHCOS EDITORA


COPYRIGHT © 197 9, Kenneth Hoffman e Ray K unze

Proibida a reprodução, mesmo


parcial, e por qualquer process'i,
sem autorização expressa dos
Autores e Editor.

11!- edição - 1971


Reirnpressões - 1973 e 1976
21!- edição - 1979

CIP-Brasil. Catalogação-na-fonte
Sindicato Nacional dos Editores de Livros, RJ.

Hoffman, Kenneth.
H647a Álgebra linear / Kenneth Hoffman [e) Ray Kunze; tra-
dução de Renate Watanabe. - 2. ed. - Rio de Janeiro:
Livros Técnicos e Científicos, 1979.

Tradução de: Linear a1gebra


Apêndice
Bibliografia

1. Álgebra linear 1. Kunze, Ray 1. Título

CDD - 512.5
79-0363 CDU - 512.8
· . ·

ISBN 85-216-0062�3 ·

DireitOs desta edição reservados:


LIVROS Tf'.CNICOS E CIENTIFICOS EDITORA S. A.
Av. Venezuela, 163 -Centro
20220 - Rio de Janeiro - RJ
i979
Impresso no Brasil
PREFÁCIO

Nosso propósito original ao escrever este livro foi fornecer um


texto para o curso de graduação em Álgebra Linear no M assachu­
setts Jnstitute of Technology. Esse curso se destinava ao terceiro ano
dos que optassem por Matemática, embora três quartos dos estu­
dantes que o freqüentavam se especializassem em outras disCiplinas
tecnológicas e cientificas e variassem desde calouros até estudantes
de pós�graduação. Essa descrição da audiência do M.I.T. para o
texto permanece, em linhas gerais, correta até hoje. Os dez anos
decorridos desde a primeira edição viram a proliferação de cursos
de Álgebra Linear por todo o país e ofereç,elam a um dos Autores
a oportunidade de lecionar essa matéria básica para diversos grupos
na Brandeis University, Washington University (St. Louis) e Univer­
sity of California (lrvine).
Nosso objetivo principal ao revisar o livro Álgebra linear foi
adaptá-lo p,ara uma maior variedade de cursos. De um lado,
estruturamos os capítulos, principalmente os mais difíceis, de tal
modo que existis6em, ao longo do caminho, vários pontos naturais
de parada, possibilitando ao instrutor escolher de diversas ma­
neiras os tópicos para um curso trimestral ou, semestral. Por outro
lado, aumentamos a· quantidade da matéria para que o texto
pudesse ser usado em um curso de Álgebra Linear mais amplo, de
um ano, ou mesmó como um livro de referência para matemáticos.
As maiores alterações ocorreram no nosso tratamento . de
formas canônicas e· espaços com produto interno. No Cap. 6 não
mais começamos com a teoria espacial geral que fundamenta a
teoria das formas canônicas. Tratamos inicialmente os valores
característicos em relação com teoremas de triangulação e diagona­
lização e em seguida escalamos o caminho para a teoria geral.
VIII - PREFACIO

Separamos o Cap. 8 em dois, de modo que os tópicos fundamentais


sobre espaços com produto interno e diagonalização unitária fos­
sem seguidos de um novo Cap. 9, que, por sua vez, trata de formas
sesquilineares e das propriedades mais sofisticadas de operadores
normais, incluindo operadores normais sobre espaços com pro­
duto interno.
Introduzimos também pequenas alterações e melhoramentos
na primeira edição, porém a filosofia subjacente do texto perma­
neceu inalterada.
Concessão alguma foi feita ao fato de a maioria dos alunos
não estar interessada primordialmente em Matemática, porque
acreditamos que um curso de Matemática não deveria fornecer
a estudantes de Ciências, Engenharia ou Ciências Sociais um amon­
toado de métodos, e sim proporcionar a eles uma compreensão dos
conceitos matemáticos fundamentais.
Por outro lado, estávamos profundamente conscientes da grande
variação de conhecimentos que os estudantes poderiam possuir e,
em particular, do fato de terem eles tido muito pouca experiência
com· o raciocínio matemático abstrato. Por essa razão, evitamos
a introdução de muitas idéias abstratas logo no início do livro.
Como complemento incluímos um Apêndice, onde são apresen­
tadas idéias básicas tais como conjunto, função e relação de equi­
valência. Achamos mais proveitoso não insistir nessas idéias inde­
pendentemente, e sim aconselhar os estudantes a ler o Apêndice
à medida que elas surgissem.

Em todo o livro incluímos uma grande diversidade de exem­


plos dos conceitos importantes que ocorrem. O estudo de tais
exemplos é de fundamental importância e tende a minimizar o
número de estudantes que conseguem repetir definições, teoremas
e demonstrações em ordem lógica, sem apreender o significado dos
conceitos abstratos. O livro contém também uma ampla gama de
exercícios graduados (em torno de seiscentos), que variam desde
aplicações rotineiras aos que desafiarão até os melhores alunos.
Pretendemos que esses exercícios sejam parte importante do texto.
O Cap. 1 trata de sistemas de equações lineares e sua reso­
lução por meio de operações elementares sobre linhas de matrizes.
Tem sido nosso costume despender seis aulas nessa matéria, o que
proporciona ao estudante um esboço das origens da Álgebra Linear
e das técnicas de cálculo computacionais necessárias ao entendi­
mento de exemplos das idéias mais abstratas ocorrentes nos capítulos
PREFÁCIO - IX

posteriores. O Cap. 2 discorre sobre espaços vetoriais, subespaços,


bases e dimensão. O Cap. 3 trata <;tas transformações lineares,
sua álgebra, sua representação por matrizes, bem como de isomor­
fismo, funcionais lineares e espaços duais.
O Cap. 4 define a álgebra dos polinômios sobre um corpo,
os ideais naquela álgebra e a decomposição de um polinômio em
fatores primos. Nele também são tratadas as raízes, a fórmula de
Taylor e a fórmula de interpolação de Lagrange. O Cap. 5 desen­
volve determinantes de matrizes quadradas, sendo o determinante
encarado como uma função n-linear alternada das linhas de uma
i;natriz, e prossegue com o estudo das funções multilineares spbre
módulos e o anel de Grassman. A matéria sobre módulos coloca
o conceito de determinante em um contexto mais amplo e abran­
gente do que o normalmente encontrado em livros elementares.
Os Caps. 6 e 7 contêm uma discussão dos conceitos funda­
mentais para a análise de uma só transformação linear sobre um
espaço vetorial de dimensão finita; a análise de valores caracte­
rísticos, transformações trianguláveis e diagonalizáveis; os conceitos
de partes diagonalizáveis e nilpotentes de uma transformação mais
geral e as formas racional e canônica de Jordan. Os teoremas da
decomposição primária e cíclica desempenham um papel central,
chegando-se a este último por meio do estudo de subespaços admis­
·
síveis. O Cap. 7 inclui a discussão de matrizes sobre um domínio
de polinômios, o cálculo de fatores invariantes e divisores elemen­
tares de uma matriz e o desenvolvimento da forma canônica de
Smith. O capítulo termina com uma discussão sobre operadores
semi-simples, para completar a análise de um só operador.
O Cap. 8 trata, com algum detalhe, dos espaços de dimensão
fini,ta com produto interno. Desenvolve· a geometria básica, rela­
cionando o conceito de ortogonalização à idéia de "melhor apro­
ximação de um vetor" e passando aos conceitos de projeção orto­
gonal de um vetor sobre um subespaço e o suplementar ortogonal
de um subespaço. O capítulo ainda trata dos operadores unitários
e culmina com a diagonalização de operadores normais e auto­
adjuntos.
O Cap. 9 introduz as formas sesquilineares, relaciona-as com
os operadores positivos e auto-adjuntos sobre um espaço côm
produto interno, prossegue com a teoria espectral de operadores
normais e, em seguida, com resultados mais sofisticados a respeito
de operadores normais sobre espaços reais ou complexos com
produto interno.
X-PREFACIO

. O Cáp. JO discute as formas bilineares, ressaltando as formas


canônicas para formas simétricas e anti-simétricas, bem como
grupos que conservam formas não-degeneradas, .principalmerite os
grupos ortogonal, unitário, pseudo-ortogonal e de Lorentz.
Acreditamos que qualquer curso que use este texto deva desen­
volver completamente os Caps. 1, 2 e 3 com a possível exclusão das
Seçs. 3.6 e 3.7, que tratam do bidual e Q.a transposta de urna trans­
formação linear. Os Caps. 4 e 5, sobre .polinômios e determinantes,
podem ser tratados com diversos graus de profundidade: . Ideais de
polinômios e as propriedades fundamentais dos determinantes
podem ser apenas esboçados, sem maior prejuízo do fluxo de lógica
do texto; no entanto, sentimo-nos inclinados a desenvolver cuida­
dosamente esses capítulos (salvo os resultado.s sobre módulos),
porque o seu conteúdo ilustra· muito bem as idéias básicas da
Álgebra Linear. Um curso elementar pode então ser satisfatoria­
mente concluído com as quatro .Primeiras seções do Cap. 6; junta­
mente com o (novo) Cap. 8. Se as formas racionais e as de Jordan
forem incluídas, então será necessário desenvolver mais extensiva­
me11te o Cap. 6.
N.osso reconhecimento permanece para com aqueles que con­
tribuíram na primeira edição, principalmente os Profs. Harry Furst­
enberg, Louis Howard, Daniel Kan, Edward l horp, Sta. Judith
Bowers, Sra. Bettx Ann (Sargent) Rose e Sra. Phyllis Ruby. Que­
remos acrescentar nossos agradecimentos aos muitos estudantes e
colegas cujos comentários perspícuos nos levaram a esta revisão
e à equipe da Prentice"Hall, pela paciente colaboração .com dois
autores envolvidos nas agonias da administração. acadêmica. Por
último, nossos agradecimentos à Sra. Sophia Koulouras pela sua
habilidade e incansável esforço na datilografia do manuscrito
revisado.

K.M.H. / R.A.K.
SUMÁRIO

CAPÍTULO 1. EQUAÇÕES LINEARES ................................


l.i". Corpos Comutativos.............. : ......................... .
1.2. Sistemas de Equações Lineares . .. .... .. .. .... .. .. .. .. .. ... . .. 4
1.3. Matrizes e Operações Elementares sobre Linhas...... .. .. ...... 7
1.4. Matrizes Linha-Reduzidas à Forma: em Escada .. . ... .. .. .. ... . 14
1.5. Multiplicação de Matrizes... .... ...... ...... .. ... . , .. .. . . . .. . 20
1.6. Matrizes Inversíveis..... . ... . .. .... .... .. ....... ..... .. ...... 27

CAPÍTULO 2. ESPAÇOS VETORIAIS.................................. 35


2.1. Espaços Vetoriais.......... .. .. ... .... .... . .. ..... ..... .. .. ... . 35
2.2. ·subespaços........................... : ....· ............... ...
. " 43
2.3. Bases e' Dimensão . . . . . . . . . . . . . ............
.. . . . . . . . . . . . . . . . . ·. 50
2.4. Coordenadas... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.5. Resumo de Linha-equivalência.. . .. . . . .. ...... .. .. .......... _. . 70
2.6. Cálculos Concernentes a Subespaços .. ... .. . .. . . .. .. . . .. ...... 74

CAPÍTULO 3. TRANSFORMAÇÕES LINEARES....................... 85


3.1. Transformações Lineares. .. ... ... . ... ........ . . . .... . . . ...... 85
3.2. A Álgebra das Transformações Lineares......... . ... .. ...... .. 94
3.3 Isomorfismo........................ : ........... ... : ... ...... . 107
3.4. Representação de Transformações por Matrizes.. ..... . .. .. .... 109
3.5. Funcionais Lineares . : . . . . . . • . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . · 1 23
3.6. O Bidual. . . .... .... ... . .. .. .. ..... ... .. ...... .............. 13 6
3.7. A Transposta de uma Transformação Linear ......... .... .... : . 14 2

CAPÍTULO 4. POLINÔMIOS............ : ........... .. .. .......... .... 148


4.1. Álgebras...................................... . .............. 148
4.2. A Algebra dos Polinômios................................... 1 49
4.3. Interpolação de Lagrange ....... ...... .. .. .·.... . . .. .. .... .. .. 157
4.4. Ideais de Polinômios ................................... : .... 161
4.5. A Decomposição de um Polinômio em Fatores Primos......... 170

CAPÍTULO 5. DETERMINANTES ....................... .. ,.......... . 178


�i".I. Anéis Comutativos . .............. :........................ . 178
5.2. Funções Determinantes . .. .. .. .... .. .. .... .. .. . ... .... .. .. .. 179
XII - SUMARIO

5.3. Permutações e a Unicidade dos Determinantes... ..... . ...... . . 190


5.4. Propriedades Adicionais dos Determinantes......... . ... . . ... .. 198
5.5. Módulos.......... .......... .. . .. .. ....................... .. 208
5.6. Funções Multilineares........................................ 210
5.7. O Anel de Grassman........................................ 221

CAPÍTULO 6. FORMAS CANÔNICAS ELEMENTARES................ 2 32


6.1. Introdução...... . .... ....... .... . . ..... ... .. .. . .... ......... 2 32
6.2. Valores Característicos......... .............................. 233
6:3. Polinômios Anuladores......... .. .............. ............ .. 2 44
6.4. Subespaços Invariantes.... ... .. ...... ... ... .. .. . . . . . . ... ... .. 254
6.5. Triangulação Simultânea; Diagonalização Simultânea .. . . . . . . . . . 264
6.6. Decomposições em Soma Direta.............. ........ ...... .. 2 67
6.7. Somas Diretas Invariantes..... .. . ... . ... .......... .. ....... .. 27 3
6.8. O Teorema da Decomposição Primária.......... .............. 280

CAPÍTULO 7. AS FORMAS RACIONAL E DE JORDAN... ......... .. 290


7.1. Subespaços Cíclicos e Anuladores............................. 290
7.2. Decomposições Cíclicas e a Forma Racional................... 295
7.3. A Forma d e Jordan............... . ... .. ...... .... ... ... .... 311
7.4. Cálculo dos Fatores Invariantes ...... ...................... .. 321
7.5. Resum.o; ·Operadores Semi-Simples............................ 335

CAPÍTULO 8. ESPAÇOS COM PRODUTO INTERNO............ ...... 3 45


8.1. Produtos Internos. .... .. .... ...... .... ........ .......... ... . 3 45
8.2. Espaços com Produto Interno................................ 354
8.3. Funcionais Lineares e Adjuntos.......... ... . .. ............. .. 371
8.4. Operadores Unitários.... ..... . .. ..... ...... ................. 38 3
8.5. Operadores Normais... .. .......... . . . .. ... ... ... .. .... .... .. 398

CAPÍTULO 9. ·OPERADORES SOBRE ESPAÇOS COM PRODUTO


INTERNO.............................................. 40 6
9.1. Introdução.............. .................................... 40 6
9.2. Formas so\:> e Espaços com Produto Interno................... 40 6
. �.
9.3. Formas Positivas.... .... ............ .... ..... .... ... .. .. . .. . 41 3
9.4. Mais sobre Formas..... . . . ... . .... .. .......... . ... .. . . . . . . . . 422
9.5. Teoria Espectral....... .. . . . . . . ... . .. . ........ .. ....... . . .. . . 427
9.6. ,Outras Propriedades dos Operadores Normais.......... .. .... . . 444

CAPÍTULO 10. FORMAS BILINEARES................................ 457


10.1. Formas Bilineares........................................... 457
10.2. Formas Bilineares Simétricas ......... ................ '........ 468
10.3. Formas Bilineares Anti-Simétricas.............. .. . . ... . . ... .. . 478
10.4. Grupos que Conservam Formas Bilineares.... ............. .... 48 3

APÊNDICE................................................ 491
A.l. Conjuntos ..... ... .. . ............. .. .. . . ........ .. .......... 492
A.2. Funções.................................................... 49 3
A.3. Relações de Equivalência....... ...... .. ..... . ...... .......... 498
A.4. Espaços Quocientes.......................... ... .. .. . . .. .. . . . 501
SUMÁRIO - XIII

A.5. Relações de Equivalência em Álgebra Linear......... ... .... .. 506


A.6. O Axioma da Escolha.. ... .. .. ... ....................... .... 508
BIBLIOGRAFIA............................................ 510
ÍNDICE.................................................... 511
Capítulo 1

EQUAÇÕES LINEARES

1.1 Çorpos Comutativos

Supomos que o leitor tenha familiaridade com a álgebra ele­


mentar dos· números reais e complexos. Para uma grande parte
deste livro as propriedades algébricas dos números que usaremos
podem ser facilmente deduzidas da pequena lista abaixo de pro­
priedades da adição e da multiplicação. Indicamos por F o con­
junto dos números reais ou o conjunto dos números complexos.
.
\

1. A adição é comutativa,

para todos x e y em F.
2. A adição é associativa,

x + (y + z) = (x + y) + z

para todos x, y e z em F.
3. Existe um único elemento O (zero) em F tal que x +O= x,

para todo x em F.
4. A cada x em F corresponde um único elemento ( - )
x em
F tal que x + ( - x) = O .

5. A multiplicação é comutativa,
xy = yx
para todos x e y em F.
6. A multiplicação é associativa,
x(yz) = (xy) z
para todos x, y e z em F.
2 - ALGEBRA LINEAR

7. Existe um único elemento não-nulo 1 (um) em F tal que


xl = x, para todo x em F.
8. A cada x não-nulo em F corresponde um único x -1 (ou
1/x) em F tal que xx-1 =
1.

9. A multiplicação é distributiva em relação à adição; isto é,


x(y + z) = xy + xz, para todos x, y e z em F.

Suponhamos que se tenha um conjunto F de objetos x, .l::j__Z, • • •

e duas operações sobre os elementos de F como segue. A primeira


operação, denominada adição, associa a cada par de elementos x, y
em F um elemento (x + y) em F; a segunda operação, denominada
multiplicação, associa a cada par x, y um elemento xy em F; e estas
duas operações satisfazem as condições (1)-(9) acima. O conjunto F,
munido destas duas operações, é então denominado um corpo
comutativo*. A grosso modo, um corpo é um conjunto munido
de algumas operações sobre seus objetos, as quais se comportam
como a µ<lição, subtração, multiplicação e divisão usuais de nú­
meros no sentido de que elas obedecem às nove regras de álgebra
acima relacionadas. Com as propriedades usuais da adição e multi­
plicação, o conjunto C dos números complexos é um corpo, como
o é o conjunto R dos números reais.
Na maior parte deste livro, os "números" que usamos podem
ser os elementos de qualquer corpo F. Para permitir esta generali­
zação, usaremos a palavra "escalar" ao invés de "número':. O leitor
não perderá muito se supuser sempre que o corpo de escalares seja
um subcorpo do corpo dos números complexos. Um subcorpo do
corpo C é um conjunto F de números complexos que é um corpo
em relação às operações usuais de adição e multiplicação de nú­
meros complexos. Isto significa que O e 1 estão no conjunto F e
que se xey são elementos de F então (x + y), - x, xy e x-1 (se x #-O)
também o são. Um exemplo de um subcorpo desta natureza é o
corpo R dos números reais; de fato, se identificarmos os números
reais com os números complexos (a+ ib) para os quais b O o =
,

O e o 1 do corpo complexo são números reais e, se -:X e y são reais,


(x + y), - x, xy, e x-1 (se x #- O) també.m o são. Daremos outros

(*) Neste livro, sempre teremos corpos comutativos, portanto abreviaremos a


denominação escrevendo simplesmente corpos (N. do T.)
EQUAÇÔES LINEARES - 3

exemplos abaixo. O objetivo de nossa discussão sobre subcorpos


é essencialmente o seguinte: quando trabalhamos com escalares de
um certo subcorpo de C, a realização das operações de adição,
subtração, multiplicação ou divisão sobre estes escalares não nos
tira daquele subcorpo.

Exemplo 1. O conjunto dos inteiros positivos: 1, 2, 3, ...,


não é um subcorpo de C, por diversas razões. Por exemplo, O não
é um inteiro positivo; para qualquer inteiro positivo n; - n não é
um inteiro positivo; para qualquer inteiro n, exceto 1, 1/n não é um
inteiro positivo.

Exemplo 2. O conjunto dos inteiros: ... , -2, -1, O, 1, 2, ... ,


não é um subcorpo de C, pois para um inteiro n, 1/n não é um
inteiro a menos que n seja 1 ou 1. Com as operações usuais de
-

adição e multiplicação, o conjunto dos inteiros satisfaz todas as


condições (1)-(9) com exceção da condição (8).

Exemplo 3. O conjunto dos números racionais, isto é, núme­


ros da forma p/q, onde p e q são inteiros e q =F O, é um subcorpo
do corpo dos números complexos. A divisão, que não é possível
dentro do conjunto dos inteiros, pode ser feita dentro do conjunto
dos números racionais. O leitor interessado deve verificar que
qualquer subcorpo de C contém todos os números racionais.

Exemplo 4. O conjunto de todos os números complexos da


forma x+y J2, onde x e y são racionais, é um subcorpo de C.
Deixamos a cargo do leitor a verificação deste fato.
Nos exemplos e exercícios deste livro, o leitor deve supor que
o corpo em questão é um subcorpo dos números complexos, a não
ser que seja explicitamente declarado que o corpo é mais geral.
Não queremos nos estender sobre esse ponto mas, devemos indi­
car por que adotamos tal convenção. Se F é um corpo, pode ser
possível adicionar um número finito de parcelas iguais à unidade 1
e obter O (veja o exercício 5 após a seção 1.2):

1+1+... +1 =o.

Isto não acontece no corpo dos números complexos (ou em qual­


quer de seus subcorpos). Quando este fato acontecer em F, o
menor n, tal que a soma de n l's é O, é chamado característica do
4 -. ALÓEBRA LINEAR

corpo F. Se este fato não acontecer em F, então (por alguma


estranha razão) F se diz um corpo de característica zero. Freqüen­
temente quando supomos que F é um subcorpo de C, queremos
é garantir que F seja um corpo de característica zero; mas, num
primeiro contato com álgebra linear, é melhor, em geral, não nos
preocuparmos muito com a característica de corpos.

1.2 Sistemas de Equações Lineares

Suponhamos que F seja um corpo. Consideremos o problema


da determinação de n escalares (elementos de F) xi> ... , xn que
satisfaçam as condições
Â11X1 + Â12X2 + ... + A1nXn = Y1
Â2 1X1 + Â22X2 + · · · + A2nXn = Y2
(1-1)

Aml X1 + A m2X2 + · · · + AmnXn = Ym


onde y , , ... , Ym e Aii' 1 � i � m, 1 �j � n, .são elementos dados
de F. Denominamos (1-1) um sistema de m equações lineares a n
incógnitas. Toda n- upla ((x 1, , xn) de elementos de F que satis�
• • •

faz a cada uma das equações em (1-1) é dita uma solução do sis­
tema. Se y 1 y2 = =
Ym O dizemos que o sistema é homo­
. . .
= =
,

gêneo, ou que cada uma ·das equações é homogênea.

O método mais importante para determinar as soluções de


um sistema de equações lineares é talvez o método de eliminaÇão.
Podemos ilustrar este método com o sistema homogêneo

2x 1 - x2 + x3 = Ü
x 1 + 3x2 + 4x3 =
O .

Somando ( - 2) vezes a segunda equação à primeira equação obtemos

ou x2 ..,. x3. Somando 3 vezes a primeira equação à segunda


=

equação, obtemos

ou x1 - x3. Assim, concluímos que se (x1, x2 , x3) é uma solução


=

então x 1 x2 =
- x3. Reciprocamente, pode-se verificar pronta-
=
ÉQUAÇÔES LINEARES - 5

mente que toda terna deste tipo é uma solução. Assim, o conjunto
de soluções consiste de todas as ternas (-a, -a, a) ..
Determinamos as soluções deste sistema de equações "elimi­
nando incógnitas", isto é, multiplicando equações por escalares e
daí somando-as para obter equações em que alguns dos xj não
estejam presentes. Queremos formalizar ligeiramente este processo
para que possamos compreender por que ele funciona e para que
possamos efetuar os cálculos necessários para resolvermos um
sistema de uma maneira organizada.
Para o sistema arbitrário (1-1), suponhamos selecionar m esca­
lares, multiplicar a j-ésima equação por c.1 e daí somar. Obtemos
a equação

(c1A11 + . . . + cm Aml) X1 + ... + (c1A1n + . .


. + cmAmn) xn =

= C1Y1 + ··· + CmYm·

Tal equa.ção será por nós denominada uma combinação linear das.
equações em (1-1). Evidentemente, toda solução do sistema de
equações (1-1) também será uma solução desta nova equação.
Esta é a idéia fundamental do processo de eliminação. Se temos
outro sistema de equações lineares

(1-2)

no qual cada uma das k equações é uma combinação linear das


equações em (1-1), então toda solução de (1-1) é uma solução deste
novo sistema. É claro que pode acontecer que algumas soluções
de (1-2) não sejam soluções de (1-1). Isto obviamente não acontece
se cada equação do sistema original é uma combinação linear das
equações do novo sistema. Diremos que dois sistemas de equações
lineares. são equivalentes se· cada equação de cada sistema for uma
combinação linear das equações do outro sistema. Podemos então
enunciar formalmente nossas observações como segue.

Teorema 1. Sistemas equivalentes de equações lineares têm exa­


tamente as mesmas soluções.
Para o processo de eliminação ser eficiente na determinação
das soluções de um sistema como (1-1), é necessário que se saiba,
6 - ALGEBRA LINEAR

formando combinações lineares das equações dadas, como pro­


duzir um sistema equivalente de equações que seja mais fácil
de resolveu Na próxima seção discutiremos um método para con­
seguir isto.

Exercícios

1. Verificar que o conjunto de números complexos descrito no Exemplo 4 é um


subcorpo de e.

2. Seja F o corpo dos números complexos. Os dois seguintes sistemas de equa­


ções lineares são equivalentes? Em caso afirmativo, exprimir cada equação
de cada sistema como uma combinação linear das equações do outro sistema.

X1 - X2 = 0 3x1 + X2 = 0
2x1 + X2 = 0 X1 + X2 = 0

3. Repetir o Exercício 2 para os seguintes sistemas de equações:

-X1 + X2 + 4x3 = 0
x1 + 3x2 + 8x3 =O
!x' + X2 + !x3 =O

4. Repetir o Exercício 2 para os sistemas seguintes:

5. Seja F um conjunto que contém exatamente dois elementos, O e 1. Definamos


uma adição e uma multiplicação pelas tábuas:

+ o

o o 1 o o
1 1 o o 1 .

Verificar que o conjunto F, munido destas duas operações, é um corpo.

6. Demonstrar que se dois sistemas homogêneos de equações lineares a duas


incógnitas têm as mesmas soluções, então eles são equivalentes.

7. Demonstrar que todo subcorpo do corpo dos números complexos contém


todos os números racionais.

8. Demonstrar que todo corpo de característica zero contém uma cópia do corpo
dos números racionais.
EQUAÇÔES LINEARES - 7

1.3 Matrizes e Operações Elementares sobre Linhas

Não podemos deixar de observar que, ao formarmos combi­


nações lineares de equações lineares, não há necessidade de conti­
nuarmos escrevendo as "incógnitas" xl' . .,
. x., uma vez que, na
realidade, fazemos cálculos ap�nas com os coeficientes A; 1 e os
escalares Y;· Abreviaremos o sistema (1-Í) por

AX = Y

onde

Denominamos A a matriz dos coeficientes do sistema. Rigo­


rosamente falando, a tabela retangular acima exibida não é uma
matriz, mas sim uma representação de uma matriz. Uma m X n
matriz sobre o corpo F é umà função A do conjunto dos pares de
inteiros (i, j), 1 :::;; i :::;; m, 1 :::;j; :::;; n, no corpo F. Os elementos da
matriz A são os escalares A(i,j) A;1= e, com bastante freqüência,
o mais conveniente é descrever a matriz exibindo seus elementos
numa tabela retangular com m linhas e n colunas, como acima.
Assim X (acima) é, ou define uma n x 1 matriz e Y é uma m x 1
matriz. Por ora, AX = Y nada mais é. que uma notação taqui­
gráfica para o nosso sistema de equações lineares. Posteriormente,
quando houvermos definido uma multiplicação de matrizes, aquilo
significará que Y é o produto de A por X.
Queremos agora considerar operações sobre linhas da matriz A
que correspondam a formar combinações lineares das equações do
sistema AX = Y. Restringiremos nossa atenção a três operações
elementares sobre as linhas de uma m x n matriz A sobre o corpo F:

1. multiplicação de uma linha de A por um escalar e não-nulo;


2. substituição da r-ésima linha de A pela linha r mais e vezes
a linha s, sendo e um escalar arbitrário e r # s;
3. transposição de duas linhas de A.
8 -'- ALGEBRA LINEAR

Uma operação elementar sobre linhas é assim um tipo particular


de função (regra) e que associa a cada m x n matriz A uma m x n
matriz e (A). Pode-se descrever e com precisão nos três casos acima
como segue:

1. e(A);j = Aij se i # r, e(A),i = cA,r


2. e(A)ij = Aij se i # r, e(A),i = A,i + cA,r
3. e(A)ij A; se i é diferente de r e de s, e(A),i A•i'
,
= =

e(A),i = A,r

Ao definirmos e(A) não importa muito o número de colunas de A,


mas o número de linhas de A é crucial. Por exemplo, deve-se tomar
cuidado ao decidir o que significa trocar as linhas 5 e 6 de uma
5 x 5 matriz. Para evitar tais complicações, convencionaremos que
uma operação elementar e sobre as linhas é definida sobre a classe
das m x n matrizes sobre F, para um certo m fixo mas para n arbi­
trário. Em outras palavras, um e particular é definido sobre a classe
das matrizes com m linhas sobre F.
Uma razão para nos restringirmos a estes três tipos simples de
operações sobre linhas é que, tendo efetuado um.a tal operação e
sobre uma matriz A, podemos voltar a A efetuando uma operação
do mesmo tipo sobre e(A).

Teorema 2. A cada operação elementar sobre linhas e corres­


ponde uma operação elementar sobre linhas e tal que, do mesmo tipo
que e, e1 (e(A)) = e(e1(A)) =A para qualquer A. Em outras palavras,
a operação U'unção) inversa de uma operação elementar sobre linhas'
existe e é uma operação elementar sobre linhas do mesmo tipo.

Demons tração. (1) Suponhamos que e seja a operação que mul­


tiplica a r-ésima linha de uma matriz pelo escalar não-nulo e. Seja
1
e1 a operação que multiplica a linha r por c • (2) Suponhamos
que e seja a operação que substitui a linha r pela linha-r mais e
vezes a linhas, r #s. Seja e1 a operação que substitui a linha r pela
linha r mais ( - e) vezes a linha s. (3) Se e transpõe as linhas r e s,
seja e1 = e. Em cada um destes três casos temos evidentemente
e1(e(A)) = e(e1(A)) =A para cada A.

Definição. Se A e B são m x n matrizes sobre o corpo F, dizemos


que B é linha-equivalente a A se B pode ser obtida de A por uma
seqüência finita de operaçães. elementares sobre linhas.
EQUAÇÔES LINEARES - 9

Usando o Teorema 2, o leitor deverá achar fácil verificar o


que segue. Toda matriz é linha-equivalente a si mesma; se B é
linha-equivalente a A, então, A é linha-equivalente a B; se B é linha­
equivalente a A e C é linha-equivalente a B, então C é linha-equi­
valente a A. Em outras palavras, a linha-equivalência é uma relação
de equivalência (ver Apêndice).

Teorema 3. Se A e B são m x n matrizes linha-equivalentes,


os sistemas homogêneos de equações lineares AX = O e BX =O têm
exatamente as mesmas soluções.

Demonstração. Suponhamos passar de A para B por meio de


uma seqüência finita de operações elementares sobre linhas:

A = A0 --> A2 --> ... --> Ak = B.

Basta demonstrar que os sistemas AjX =O e Aj+1X =O têm as


mesmas soluções, isto é, que uma operação elementar sobre linhas
não altera o conjunto das soluções.
Assim, suponhamos que B seja obtida de A por uma única
operação elementar sobre linhas. Qualquer que seja o tipo da ope­
ração, (1), (2) ou (3), cada equação dos sistemas BX =O será uma
combinação linear das equações do sistema AX =O. Como a in­
versa de uma operação elementar sobre linhas é uma operação
elementar sobre linhas, cada equação em AX =O também será uma
combinação línear das equações em BX =O. Logo estes dois sis­
temas são equivalentes e, pelo Teorema 1, têm as mesmas soluções.

Exemplo 5. Suponhamos que F seja o corpo dos números


racionais e que

-1
4
6

Efetuaremos uma seqüência finita de operações elementares sobre


as linhas de A, indicando por números entre parênteses o tipo de
operação efetuada.

-1
4
6 -1
� - �
5
] -8 r�
l2
-9
4
6 -1
3
o
10 - ALGEBRA LINEAR

[! - �] [! i]m
-9 3 -9 3

Ql
4 o 4 o
l
-2 -1 1 2
=

[! '
-9
o
1
i] m [! 1
-2
3

!.
2
o
o
..Ll.
2
2
!.
2 -,{"] Ql
-3
1 7 (2
3 --)
[! 1 -;�] [! -
o 1 o 1

'i m
o o

"]

o -2
!. 1 !. ]_
2 2 2

l! 3
o 1

o o !.1
5
1 o -3

A linha-equivalência de A com a matriz final na seqüência acima


nos diz em particular que as soluções de

2x - x2
x11 + 4x2 x4
+ 3x.i + 2x4 O

2x1 + 6x2 5x4


=

-
= O
- x3 + = O

X3 - \1 X4
e

X1 + \7 X4
= Ü

X2 - � x4
= Ü
= Ü

e a x4,
são exatamente as mesmas. No segundo sistema é evidente que

( -137 e, �e, \1 e, e), e também que toda solução é desta forma.


atribuindo um valor racional arbitrário obtemos uma solu­
ção

Exemplo 6. Suponhamos que F seja o corpo dos· números


complexos e que

1 ] i
À=[- -i 3 .
.. 1 2
EOUAÇÔES LINEARES - 11

Ao efetuarmos operações sobre linhas freqüentemente convém com­


binar várias operações do tipo (2). Com isto em mente

[.-�1
-z

Assim o sistema de equações

- X1 + ix2 = Ü
-ix1 + 3x2 = O
ix1 + 2x2 O =

possui apenas a solução trivial x1 = x2 = O.


Nos Exemplos 5 e 6 é óbvio que não efetuamos operações
sobre linhas ao acaso. Nossa escolha de operações sobre linhas
foi motivada por um desejo de simplificar a matriz dos coeficientes
de uma maneira análoga à "eliminação de incógnitas" no sistema
de equações lineares. Coloquemos agora uma definição formal do
tipo da matriz à qual estávamos tentando chegar.

Definição. Uma m x n matriz R é dita linha-reduzida se:


(a) o primeiro elemento não-nulo em cada linha não-nula de R
é igual a 1;
(b) cada coluna de R que contém o primeiro elemento não-nulo
de alguma linha tem todos os seus outros elementos nulos.

Exemplo 7. Um exemplo de uma matriz linha-reduzida é a


n X n matriz (quadrada) unidade J. Esta é a n x n matriz definida
por

{1, se i=j
Iii
ôii
O, se i # j.
=
=

Esta é a primeira de muitas ocasiões em que usaremos o símbolo


'
de Kronecker (ô).

Nos Exemplos 5 e 6, as matrizes finais nas seqüências apre­


sentadas são matrizes linha-reduzidas. Dois exemplos' de matrizes
que não são linha-reduzidas são:
12 - ALGEBRA LINEAR

[1. - � �] [� � �] .
o
o
1 -
o o 1 o o o o

A segunda matriz não satisfaz a condição (a) porque o primeiro


elemento não-nulo da primeira linha não é 1. A primeira matriz
satisfaz a condição (a) mas não satisfaz a condição (b) na coluna 3.
Demonstraremos agora que podemos passar de uma matriz
arbitrária a uma matriz linha-reduzida por meio de um número
finito de operações elementares sobre linhas. Combinado com o
Teorema 3, isto nos fornecerá um instrumento eficiente pa�a a
resolução de sistemas de equações lineares.

Teorema 4. Toda m x n matriz sobre o corpo F é linha-equi­


valente a uma matriz linha-reduzida.

Demonstração. Seja A uma m x n matriz sobre F. Se todo


elemento na primeira linha de A é O, então a condição (a) está
satisfeita no que diz respeito à linha l. Se a linha 1 tem um
elemento não-nulo, seja k o menor inteiro positivo j para o qual
A1j ::/= O. Multipliquemos a linha por A�/ e então a condição (a)
1
está satisfeita em relação à linha l. Agora, para cada i ;;:::: 2, some­
mos ( Aik) vezes a linha 1 à linha i. Agora o primeiro elemento
-

não-nulo da linha 1ocorre na coluna k, este elemento é 1, e


todos os outros elementos na coluna k são nulos.
Consideremos agora a matriz que resultou das operações
acima. Se todo elemento na linha 2 é nulo, nada fazemos à linha 2.
Se algum elemento na linha 2 é diferente de O, multiplicamos a
linha 2 por um escalar de modo que o primeiro elemento não-nulo
seja 1. No caso em que a linha tenha um primeiro elemento não­
1
nulo; na coluna k, este primeiro elemento não-nulo na linha 2
não pode ocorrer na coluna k; digamos que ele aparece na coluna
k' ::/= k. Somando múltiplos adequados da linha 2 às diversas linhas,
podemos fazer com que todos os elementos na coluna k' sejam
nulos, com exceção do na linha 2. O fato importante a ser notado
1
é este: ao efetuarmos estas últimas operações, não alteramos os
elementos da linha 1nas colunas ... , k; além disso, não altera­
1,
mos nenhum elemento da· coluna k. É claro que, se a linha 1 fosse
identicamente nula, as operações com a linha 2 não afetariam
a linha l.
EQUAÇÕES LINEARES - 13

Trabalhando com uma linha de cada vez da maneira acima,


é evidente que, com um número finito de passos, chegaremos a
uma matriz linha-reduzida.

Exercícios

1. Determinar todas as soluções do sistema de equações

2x1 + (l -
(1 - i)X1 - ix2 = 0
i)x2 =O.

2. Se

determinar todas as soluções de AX=O, tornando A linha-reduzida.

3. Se

A= [ : -4 º]
-1
-2
o
o
3

determinar todas as soluções de A.X=2X e todas as soluções de AX = 3X.


(O símbolo cX indica a matriz cujos elementos são e vezes os elementos
correspondentes de X.)

4. Encontrar uma matriz linha-reduzida que seja linha-equivalente a

�]·
-(1 + i)
-2
2i -1

5. Demonstrar que as duas matrizes seguintes não são linha-equivalentes:

[� ! �] [-� � -!]
·-

6. Seja

A= [: �]
uma 2 x 2 matriz com elementos complexos. Suponhamos que A seja linha­
reduzida e também que a + b + e + d=O. Demonstrar que existem exata­
mente três destas matrizes.
14 - ALGEBRA LINEAR

7. Demonstrar que a transposição de duas linhas de uma matriz pode ser conse­
guida por uma seqüência finita de operações elementares sobre linhas dos
outros dois tipos.
8. Consideremos o sistema de equações AX =O onde

é uma 2 x 2 matriz sobre o corpo F. Demonstrar o que segue.

(a) Se todo elemento de A é nulo, então todo par (x,, x2) é uma solução
de AX =O.
(b) Se ad - bc � O, o sistema AX =O possui apenas a solução trivial
X1 = X2 = Ü.
(e) Se ad - bc =O e algum elemento de A é diferente de O, então existe uma
solução (x�, x�) tal que (x 1' x2) é uma· solução se, e somente se, existe um
escalar y tal que x1 = yx�, x2 yxg.
=

1.4 Matrizes Linha-reduzidas à Forma em Escada

Até agora, nosso trabalho com sistemas de equações lineares


foi motivado por uma tentativa de determinar as soluções de um
tal sistema. Na Seção 1.3 estabelecemos um método padronizado
para determinar estas soluções. Desejamos agora obter algum
conhecimento que seja um pouco mais teórico, e para tal propósito
é conveniente ir um pouco além de matrizes linha-reduzidas.

Definição. Uma m x n matriz R é dita uma matriz linha-redu­


zida à forma em escada se

(a) R é linha-reduzida;
(b) toda linha de R cujos elementos são todos nulos ocorre
abaixo de todas as linhas que possuem um elemento não-nulo;
'
( c) se as linhas 1, . , r são as linhas não-nulas de R e se o pri­
. .

meiro elemento não-nulo da linha i ocorre na coluna k;, i = 1, ..., r,


.então k1 < k2 < . . < k,.
.

Pode-se também descrever uma m x n matriz R linha-reduzida


à forma em escada como segue. Todo elemento em R é nulo ou
º
então existe um inteiro positivo r, 1 :::;;r:::;;m, e r inteiros positivos
kl' ... , k, com 1 :::;; k;:::;; n e
(a) R
ii =O para i > r, e R
ii =O se j < k;.
(b) R k =Ô;;• 1 :::;; i:::;;r, 1 :::;j; :::;;r.
i i
(c) k1 < ... < k,.
EQUAÇÔES LINEARES - 15

Exemplo 8. Dois exemplos de matrizes linha-reduzidas à forma


em escada são n x n matriz unidade e a m x n matriz nula om·", na
qual todos os elementos são nulos. O leitor não deverá encontrar
nenhuma dificuldade para encontrar outros exemplos, mas gosta­

[
ríamos de dar mais um exemplo não-trivial:

o 1
o
o
o
o
-� � �]· .
o o o

Teorema 5. Toda m x n matriz A é linha-equivalente a uma


matriz linha-reduzida à forma em escada.

Demonstração. Sabemos que A é linha-equivalente a uma


matriz linha-feduzida. Portanto, basta observar que, efetuando um
número finito de permutações das linhas de uma matriz linha­
reduzida, podemos transformá-la numa matriz linha-reduzida à
forma em escada.

Nos Exemplos 5 e 6, vimos a importância de matrizes linha­


reduzidas na solução, de sistemas homogêneos de equações lineares.
Discutamos rapidamente o sistema RX =
O no caso em que R é
,

uma matriz linha-reduzida à forma em escada. Sejam as linhas


1, ... , r as linhas não-nulas de R e suponhamos que o primeiro
elemento não-nulo da linha i ocorra na coluna ki. O sistema
RX =O consiste então de r equações não-triviais. Além disso, a
incógnita xk
i
aparecerá (com coeficiente não-nulo) apenas na i-ésima
equação. Se indicarmos por u1, ..., un-r as. (n -r) incógnitas que
são diferentes de xk , ..., xk •
1 ,
então as r equações não-triviais em
RX = O são da forma
n-r
k
x 1 + L Ctpj = O
i= 1
.

(1-3)
n-r

xkr + "_L.i CYJ.uJ


=
O.
j=l

Todas as soluções dos sistemas de equações RX =


O são obtidas
atribuindo-se valores arbitrários a ul' . . ., un -r e calculando os va­
lores correspondentes de xk , ... , xk
1 ,
por meio de (1-3). Por exem-
16 - ALGEBRA LINEAR

pio, se R é a matriz do exemplo 8 acima, então r = 2, k1 = 2, k2 = 4,


e as duas equações não-triviais do sistema RX =O são

x2 - 3x 3 + !x5 = O ou Xz = 3x 3 - !xs
x4 + 2x5 = O ou X4 = 2x5•

Assim, podemos atribuir valores arbitrários a x1, x3 e x5, digamos


x1 =a, x3 = b, x5 =e, e obter a solução (a,3b - !e, b, - 2c, e).
Observemos mais um fato sobre o sistema de equações RX =0.
Se o número r de linhas não-nulas de R é menor que n, então o
sistema RX =O admite uma solução não-trivial, isto é, uma solução
(x1, . . . , x,,) em que nem todo xj é nulo. De fato, como r < n,
podemos tomar algum xj que não esteja entre as r incógnitas
xk,, ... , xk e daí construir uma solução como acima na qual este
,
xj é 1. Esta observação nos leva a um dos conceitos mais funda­
mentais relativos a sistemas de equações lineares homogêneas.

Teorema 6. Se A é uma m x n matriz e m :f. n, então o sistema


homogêneo de equações lineares AX =O admite uma solução não­
trivial.

Demonstração. Seja R uma matriz linha-reduzida à forma em


escada que seja linha-equivalente a A. Então os sistemas AX = O
e RX =O possuem, pelo Teorema 3, as mesmas soluções. Se r é o
número de linhas não-nulas em R, então certamente r � m e como
m < n, temos r < n. Decorre imediatamente de nossas observações
ac�ma que AX =O admite uma solução não-trivial.

r Teorema 7. Se A é uma n x n matriz (quadrada), então A é


linha equivalente a n x n matriz unidade se, e somente se, o sistema
de equações AX = O possuir apenas a solução trivial.
Demonstração. Se A é linha-equivalente a J, então AX = O e
IX =O têm as mesmas soluções. Reciprocamente, suponhamos que
AX =O admita somente a solução trivial X = O. Seja R uma n x n
matriz linha-reduzida à forma em escada que seja linha-equivalente
a A, e seja r o número de linhas não nulas de R. Então RX O =

não admite solução não-trivial. Assim, r 2 n. Mas como R possui


n linhas, certamente r � n e temos r =n. Como isto significa que
R possui na verdade um primeiro elemento não-nulo igual a 1 em
cada uma de suas n linhas e como estes 1 ocorrem cada um numa
das n colunas, R é, necessariamente, a n x n matriz unidade.
EQUAÇÔES LINEARES - 17

Perguntemos agora que operações elementares sobre linhas efe­


tuar para resolver um sistema de equações lineares AX = Y que
não seja homogêneo. De início, devemos observar uma diferença
básica entre este caso e o caso homogêneo, a saber, que enquanto
o sistema homogêneo sempre admite a solução trivial x1 = . .. =

= x" = O, um sistema não-homogêneo pode não ter nenhuma


solução.
Formemos a matriz completa A' do sistema AX = Y. Esta é
a m x (n + 1) matriz cujas n primeiras colunas são as colunas de A
e cuja última coluna é Y. Mais precisamente

A;1 = AiJ' se j � n
A;<n+1> =
Y;
Suponhamos que efetuemos uma seqüência de operações elemen­
tares sobre as linhas de A, obtendo uma matriz R linha-reduzida
à forma em escada. Se efetuarmos esta mesma seqüência de opera­
ções sobre a matriz completa A', obteremos uma matriz R' cujas n
primeiras colunas são as colurias de R e cuja última coluna contém
certos escalares z 1, ... , zm. Os escalares z; são os elementos da
m x 1 matriz

que resulta de se aplicar a seqüência de operações sobre as linhas


da matriz Y. Deve ser evidente ao leitor que, como na demons­
tração do Teorema 3, os sistemas AX = Y e RX = Z são equiva­
lentes e portanto admitem as mesmas soluções. É bem fácil saber
se o sistema RX = Z possui soluções e em caso afirmativo deter­
minar todas as soluções. De fato, se R possuir r linhas não-nulas,
com o primeiro elemento não-nulo da linha i ocorrendo na co­
luna k;, i =
1, ... , r, então as r primeiras equações de RX = Z expri­
mem realmente xk·' . . . ,xk em termos dos (n-r)x restantes e dos
escalares zl' . . ., :,. As (� - r) últimas equações �ão
O = z,+ 1
18 - ALGEBRA LINEAR

portanto a condição para o sistema ter uma solução é que z; = O


para i > r. Se esta condição é satisfeita, todas as soluções deste
sistema podem ser determinadas, como no caso homogêneo, atri­
buindo-se valores arbitrários a ( n - r) dos x.1 e daí calculando xk
;
por meio da i-ésima equação.

Exemplo 9. Seja F o corpo dos números racionais e

-2
1
5

e suponhamos que se deseje resolver o sistéma AX = Y para certos


y1, y2 e y3• Efetuemos uma seqüência de operações sobre as linhas

] [ ]
da matriz completa A' que torne A linha-reduzida:

-2 Y, -2

rn
1 1 1 y,
1 1 Y2 _@ O 5 -1 (Y2 - 2y1) _@

]
5 -1 y3 O 5 -1 Y3

-2 Y,
[�
1
5 -1 (Y2 - 2y1) Ql
o o (y3 - Y2 + 2y1).

[8
-2

]
1
1
1
HY2 - 2yl) Ql

[
(Y3 - Y2

]
o + 2y1)
y,

d_
1 o 5 t(y, + 2y,).
1
o 1 -5 i( Y2 - 2y1) .
o o o (y 3 - Y2 + 2y1)
A condição para que o sistema AX = Y tenha uma solução é por­
tanto

e se os escalares y. dados satisfazem esta condição, todas as solu­


t
ções são obtidas a ribuindo-se um valor e a x3 e depois calculando

X1 = te + t(y1 + 2y2)

Xz = te + HY2 - 2y1).
EQUAÇÔES LINEARES - 19

Façamos uma observação final sobre o sistema AX = Y. Supo­


nhamos que os elementos da matriz A e os escalares y1, ... , Ym
estejam num subcorpo F1 do corpo F. Se o sistema de equações
AX = Y admite uma solução com xl' . . . , x,, em F, ele admite uma
solução com x 1' . . . , x,, em F1. De fato, sobre qualquer um dos
dois corpos, a condição para o sistema admitir uma solução é
que valham certas relações entre yl' . . , Ym em F1 (a saber, as .

relações Z; =O para i > r, acima). Por exemplo, se AX = Y é um


sistema de e4uac;ôes lineares no qual os escalares yk e A,i são
números reais e, se existe uma solução na qual x 1, , x são nú­
• . .
,,
meros complexos, então existe uma solução com xl' . ., x,, núme­
.

ros reais.

.
Exercicios

1. Determinar todas as soluções do seguinte sistema de equações linha-reduzindo


a matriz dos coeficientes:

tx1 + 2x2 - 6x3 =O


-4x1 + 5x3 =O
-3x1 + 6x2 - 13x3 =O
-1x1 + 2x2 - �x3 =O

2. Determinar uma matriz linha-reduzida à forma em escada que seja equiva­


lente a

[1 ] - i
A= 2 2 ·

i 1 + i

Quais são as soluções de AX = O?

3. Descrever explicitamente todas as 2 x 2 matrizes linha-reduzidas à forma


em escada.

4. Consideremos o sistema de equações

X1 - X2 + 2x3 = 1
2x1 + 2x3 = 1
x1 - 3xi + 4x3 = 2.

Este sistema admite solução? Em caso afirmativo, descrever 'explicitamente


todas as soluções. •

5. Dar um exemplo de um sistema de duas equações lineares a duas incógnitas


que não admite solução.
20 - ÁLGEBRA LINEAR

6. Mostrar que o sistema

x1 - 2x2 + x3 + 2x4 = l
X1 + X2 - X3 + x4 = 2
x1 + 7x2 - 5x3 - x4 = 3

não admite solução.


7. Determinar todas as soluções de

2x1 - 3x2 - 7x3 + 5x4 + 2x5 = -2


x1 - 2x2 - 4x" + 3x4 + x5 = -2
2x1 - 4x3 + 2x4 + x5 = 3
x1 - 5x2 - 7x3 + 6x4 + 2x5 = -7.

8. Seja

Para que ternas (yl'y,,y3) o sistema AX = Y admite solução?


9. Seja

[ 3 -6 2 -1]
-2 4 l 3 .
A=
o o l l
l - 2 l o

Para que (yl' y,, y3, y4) o sistema de equações AX = Y admite solução?

10. Suponhamos que R e R', sejam 2 x 3 matrizes linha·reduzidas à forma em


escada e que os sistemas RX = O e R' X = O admitam as mesmas soluções.
Demonstrar que R= R'.

1.5 Multiplicação de Matrizes

É evidente (ou, de qualquer modo, deveria ser) que o processo


de formar combinações lineares das linhas de uma matriz é um
processo fundamental. Por esta razão é vantajoso introduzir um
esquema sistemático para indicar exatamente que operações devem
ser efetuadas. Mais especificamente, suponhamos que B seja uma
n x p matriz sobre um corpo F com linhas {31, . . • , {30 e que a partir
de B construamos uma matriz C com linhas y1, • • • , ym formando
certas combinações lineares

( 1-4)
EQUAÇÔES LINEARES - 21

As linhas de C são determinadas pelos mn escalares A;; que são


os elementos de uma m x n matriz A. Se (14
- ) é desenvolvido como
n

(ci1 · · · cip) = I (A;,.B,1 ... A;,B,p)


r= 1

vemos que os elementos de C são dados por

li

cij = L A;,.B,r
r=1

Definição. Seja A uma m x n 111a1riz sobre o corpo F e seja B


uma n x p matriz sobre F. O produto AB é a m x p mairiz C cujo
elemento ij e
n

cij == I A;,B,r
r= 1

Exemplo 10. Eis alguns produtos de matrizes com elementos


racionais.

Neste caso

Y1 =(5 -1 2)= 1 . (5 -1 2) + o . (15 4 8)


Yz =(O 7 2)= -3(5 -12)+1. (15 4 8)

(b)
[ � _:] [-� �J [�
1
6
12
62
8
-3
-2
6
8 _;J
Neste caso

Y2 = 12 -8) = -2 (O 6 1)+3 (3 8 -2)


( 9

Y3 =(12 62 -3)= 5(0 6 1)+4(3 8 -2)

(c)
22 - ALGEBRA LINEAR

(d)

Neste caso

1'2 = (6 12) = 3 (2 4)

(e) [2 4]
[-;J =
[10]

rn �] D 1] rn �]
1 -5 3
(f) o 3 o
o -1 o

[� �][g g] rn �]
-5 1 1
(g) 3 o 2
-1 o 9

É importante observar que o produto de duas matrizes pode


não estar definido; o produto é definido se, e somente se, o
número de colunas da primeira matriz coincide com o número
de linhas da segunda matriz. Assim, não faz sentido trocar a ordem
dos fatores em (a), (b) e (c) acima. Freqüentemente escreveremos
produtos como AB sem mencionar explicitamente as dimensões
dos fatores e, em tais casos, estará subentendido que o produto
está definido. De (d), (e), (f), (g) vemos que mesmo quando ambos
os produtos AB e BA estão definidos não é necessariamente ver­
dade que AB=BA; em outras palavras a multiplicação de ma­
trizes não é comutativa.

Exemplo 11.
(a) Se 1 é a m X m matriz unidade e A é uma m X n matriz,
IA=A.
(b) Se I é a n x n matriz unidade e A é uma m x n matriz,
AI= A.
(c) Se <f·m é a k x m matriz nula, 01'·11 =<f·m A. Analogamente,
AO"·P =om·P.
Exemplo 12. Seja A uma m X n matriz sobre F. Nossa notação
taquigráfica anterior, AX = Y, para sistemas de equações lineares,
é coerente com nossa definição de produtos de matrizes. De fato, se
EQUAÇÔES LINEARES - 23

X=

com xi em F, então AX é a m x 1 matriz

Y=

Y,,.

tal que yi = Ai1x1 + Ai2x2 + ... + Ainxn.


O uso de matrizes-coluna sugere uma notação que freqüen­
temente é útil. Se B for uma n x p matriz, as colunas de B são
as l. x. n matrizes B�, ..., B definidas por
11;•.;:L.
P

A matriz B é a sucessão destas colunas:

B = [Bl' ... ,B ].
P
O elemento i, j da matriz produto AB é formado a partir da
i-ésima linha de A e a j-ésima coluna de B. O leitor deve verificar
que a j-ésima coluna de AB é ABJ:

AB = [ABl' ..., AB ].
P
A despeito do fato de que um produto de matrizes depende da
ordem em que os fatores são escritos, ele é independente da maneira
pela qual elas são associadas, como o próximo teorema mostra.
24 - ÁLGEBRA LINEAR

Teorema 8. Se A, B, C são matrizes sobre o corpo F tais que


os produtos BC e A( BC) são definidos, então estão definidos os pro­
dutos AB, ( AB)C e
A(BC) = (AB)C.

Demonstração. Suponhamos que B seja uma n x p matriz.


Como BC está definida, C é uma matriz com p linhas e BC tem
n linhas. Como A(BC) está definido podemos supor que A é uma
m x n matriz. Assim, o produto AB existe e é uma m x p matriz,
do que segue que o produto (AB)C existe. Mostrar que A(BC) =
= (AB) C significa mostrar que

para cada i, j. Por definição,

[A (BC)];j =
L A;.(BC),.,
r

r S

=
L L A i,BrsC.rj
s r

=
� (� Ai,Brs) Csi
=
L (AB)isCsj
s

= [(AB) C];r

Quando A é uma n x m matriz (quadrada), o produto AA


está definido. Indicaremos esta matriz por A 2• Pelo Teorema 8,
(AA) A A(AA) ou A2A = AA2, de modo que o produto AAA está
=

definido sem ambigüidade. Indicaremos este produto por A 3. Em


geral, o produto AA ... A (k vezes) está definido sem ambigüidade
e indicaremos este produto por Ak.
Notemos que a relação A(BC) = (AB)C implica, entre outras
coisas, que combinações lineares de combinações lineares das linhas
de C são novamente combinações 'lineares das linhas de C.
EQUAÇÔES LINEARES - 25

Se B é uma dada matriz e C é obtida de B por. meio de uma


operação elementar sobre linhas, então cada linha de C é uma
combinação linear das linhas de B, logo existe uma matriz A tal
que AB = C. Em geral, existem muitas dessas matrizes A e, dentre
elas todas, é conveniente e possível escolher uma que tenha um
número de propriedades especiais. Antes de passar a isto preci­
samos introduzir urna classe de matrizes.

Definição. Uma rn x rn matriz é dita uma matriz elementar se


ela pode ser obtida da rn x m matriz unidade por meio de uma única
operação elementar sobre linhas.

Exemplo 13. Uma 2 x 2 matriz elementar é necessariamente


uma das seguintes:

e
[1O 1] [1 º] ' e 1

[� �l O, [� �l e# e # O.

Teorema 9. Seja e uma operação elementar sobre linhas e


seja E a m x m matriz elementar E= e(I). Então, para toda m x n
matriz A,

e(A) = EA.

Demonstração. O ponto-chave da demonstração é que o


elemento da í-ésima linha e j-ésima coluna da matriz produto EA
é obtido da i-ésirna linha de E e da j-ésirna coluna de A . Os três .

tipos de operações elementares sobre linhas devem ser tratados


separadamente. Daremos uma demonstração detalhada para uma
operação do tipo (2). Os outros dois casos são de tratamento
ainda mais simples que este, e serão deixados como exercícios.
Suponhamos r # s e seja e a operação "substituição da linha r
pela linha r mais e vezes a linha s". Então,

E -
ik -
{ ô
ik• i # r
ô,k + cô,.k• i = r.

Portanto,
26 - ALGEBRA LINEAR

(EA) . =
·
'1
k=l
f EikAkJ. =
{ A'k' i =1=· r
ATJ. + cA J.' i = r.
S

Em outras palavras, EA = e(A).

Corolário. Sejam A e B m x n matrizes sobre o corpo F. Então


B é linha-equivale111e a A se, e somente se, B = PA, onde Pé um pro­
duto de m x m matrizes elementares.

Demonstração. Suponhamos que B = PA, onde P = E• ... E2E1


e as E; são m x m matrizes elementares. Então E1A é linha­
equivalente a A e E2(E1A) é linha-equivalente a E1A. Assim E2E1A
é linha-equivalente a A; continuando desta maneira, vemos que
(E• ... E1) A é linha-equivalente a A.

Suponhamos agora que B seja linha-equivalente a A. Sejam


El' E2' ... , E. as matrizes elementares correspondentes a alguma
seqüência de operações elementares sobre linhas que levam A em
B. Então B =(E• ... E1) A.

Exercicios

1. Sejam

e= [1 -1].

Calcular ABC e CAB.


2. Sejam

Verificar diretamente que A(AB) = A2B.


3. Determinar duas 2 x 2 matrizes A distintas tais que A2 =O mas A #O.
4. Para a matriz A do Exercício 2, determinar matrizes elementares EI' Ev ... ,
E1 tais que

5. Sejam

-1]
2 , B = [ 3
-4
1].
4
o
EQUAÇÔES LINEARES - 27

Existe alguma matriz C tal que CA = lf?


6. Seja A uma m x n matriz e B uma n x k matriz. Mostrar que as colunas
de C =AB são combinações lineares das colunas de A. Se °'" ..., °'• são
as colunas de A e y1, ··:· yk são as colunas de C, então

Y; = I B ,,11.
. ,.
r=l

7. Sejam A e B duas 2 x 2 matrizes tais que AB = 1. Demonstrar que BA = 1.


8. Seja

uma 2 x 2 matriz. Perguntamos quando é possível encontrar 2 x 2 matrizes


A e B tais que C AB - BA. Demonstrar que tais matrizes podem ser
=

encontradas se, e somente se, C 11 + C22 O. =

/,\?' .
il.6 Matrizes Inversíveis

Suponhamos que P seja uma m x m matriz que seja um pro­


duto de matrizes _elementares. Para cada m x n matriz A, a matriz
B= PA é linha-equivalente a A; logo A é linha-equivalente a B e
existe um produto Q de matrizes elementares tal que A = QB. Em
particular, isto é válido quando A é a m x m matriz unidade. Em
outras palavras, existe uma m x m matriz Q, que é um produto de
matrizes elementares, tal que QP= I. Como logo veremos, a exis­
tência de uma Q tal que QP= I é equivalente ao fato de P ser um
produto de matrizes elementares.

F.
Definição. Seja A uma n x n matriz (quadrada) sobre o corpo
Uma n x n matriz B tal que BA I é dita uma inversa à esquerda
=

de A; uma n x n matriz B tal que AB I é dita uma inversa à di­ =

reita de A. Se AB BA I, então A é dita inversível.


= =

Lema. Se A possui uma inversa à esquerda B e uma inversa à


direita C, então B = C.
Demonstração. Suponhamos que BA = I e AC= I. Então

B = BI = B(AC)= (BA)C = IC = C.

Assim, se A possui uma inversa à esquerda e uma à direita,


A é inversível e possui uma única inversa bilateral, que indica­
remos por A - i e denominaremos simplesmente a inversa de A.
28 - ALGEBRA LINEAR

Sejam A B e n x n matrizes sobre F.


A A-1 A
Teorema 10.
1 1

AB AB (AB)-1 B -1 A
( i ) Se é inversível, também o é e (A- )- = .
1

A A
(ii) Se e são inversíveis, também o é e = - .
Demonstração. primeira afirmação é evidente pela simetria
da definição. segunda decorre da verificação das relações

Corolário. Um produto ·de matrizes inversíveis é inversível.

Teorema 11. Uma matriz elementar é inversível.


Demonstração.Seja E uma matriz elementar correspondente
à operação elementar sobre linhas e.
Se e1 é a operação inversa

1 1
de e (Teorema 2) e E =e (J), então

EE1= e(E1)= e(e1(1))= 1

E1 E = e1(E)= e1(e(I))= 1

1
de modo que E é inversível e E1=E - •

Exemplo 14.

(a)
[� �rl [� �J
(b)
[� �rl [� -�J
[1e º -l º
] [ -e 1 ]
1
(c)
1

(d) Quando e"# O,


º - c1 º 1 -1 O
[e01] 1 [ O- 1]
= e
[ Oco] [1Oc1_ J.
Teorema 12. A Se é uma n x n matriz, as seguintes afirmações

A
são equivalentes:
(i) é inversível.
EQUAÇÔES LINEARES - 29

(ii) A é linha-equivalente a n x n matriz unidade.


(iii) A é um produto de matrizes elementares.
Demonstração. Seja R uma matriz linha-reduzida à forma em
escada que seja linha· equivalente a A. Pelo Teorema 9 (ou seu
corolário),

R = Ek ... E2E1A

onde El' ... , Ek são matrizes elementares. Cada Ei é inversível e,


portanto,

Como produtos de matrizes inversíveis são imcr-;Í\'eis. vemos que


A é inversível se, e somente se, R é invers1vel. Como R é uma
matriz (quadrada) linha-reduzida à forma em escada, R será inver­
sível se, e somente se, cada linha de R contiver um elemento não
nulo, isto é. se, e somente se, R I. Mostramos assim que A é
=

inversível se, e somente se, R I, e, se R


= I então A= E;: 1 ... E� 1.
=

Deve ser evidente agora que \i), (ii) e (iii) são afirmações equiva­
lentes sobre A.

·Corolário. Se A é uma n x n matriz inversível e se uma se­


qüência de operações elementares sobre linhas reduz A a unidade,
então aquela mesma seqüência de operações sobre linhas quando apli­
cada a 1 produz A-1.

Corolário. Sejam A e B m x n m atrizes. Então B é linha­


equivalente a A se, e somente se, B = PA onde Pé uma m X m matriz
inversível.

Teorema 13. Para uma n x n matriz A, as seguintes afirmações


são equivalentes:
(i) A é inversível.
(ii) O sistema homogêneo AX = O possui somente a solução
trivial X = O.

(iii) O sistema de equações AX = Y possui uma solução X para


toda n x 1 matriz Y.
Demonstração. De acordo com o Teorema 7, a condição (ii)
é equivalente ao fato de que A é linha-equivalente a matriz unidade.
Pelo Teorema 12, (i) e (ii) são, portanto, equivalentes. Se A for
30 - ALGEBRA LINEAR

inversível, a solução de AX= Y é X=A - 1 Y. Reciprocamente,


suponhamos que AX= Y possua uma solução para cada Y. Seja
R uma matriz linha-reduzida à forma em escada que seja linha­
equivalente a A. Queremos mostrar que R= 1. É suficiente mostrar
que a última linha de R não é (identicamente) nula. Seja

o
o

E=

o
1
r

Se o sistema RX = E puder ser resolvido em X, a última linha de


R não pode ser nula. Sabemos que R = PA, onde P é inversível.
Assim RX =E se, e somente se, AX= p-1 E. De acordo com (iii)
este último sistema tem uma solução.

Corolário. Uma matriz quadrada com inversa à esquerda ou à


direita é inversível.
Demonstração. Seja A uma n x n matriz. Suponhamos que A
possua uma inversa à esquerda, isto é, uma matriz B tal que
BA= 1. Então AX=O possui somente a solução trivial porque
X= IX= B(AX). Portanto, A é inversível. Por outro lado, supo­
nhamos que A tenha uma inversa à direita, isto é, uma matriz C
tal que AC= 1. Então C possui uma inversa à esquerda e é, por­
tanto, inversível. Segue daí que A= C 1 e portanto A é inversível
com inversa C.

Corolário. Seja A = A1 A2, • . • , Ak, onde AI' . . . , Ak são n x n


matrizes (quadradas). Então A é inversível se, e somente se, cada
Aj é inversível.

Demonstração. Já demonstramos que o produto de duas ma­


trizes inversíveis é inversível. A partir disto vê-se facilmente que se
cada A. é inversível então A é inversível.
Suponhamos agora que A seja inversível. Demonstremos pri­
meiro que Ak é inversível. Suponhamos que X seja uma n x 1 ma­
triz e AkX = O
. Então AX=(A1 ·'· Ak_1)AkX=O. Como A é inver­
sível temos X=O. Desta maneira, o sistema de equações AkX=O
EOUAÇÔES LINEARES - 31

não possui soluções não-triviais, portanto, Ak é inversível. Mas


1
então A 1 Ak 1
• • •AAk_ é inversível. Pela razão anterior Ak- 1 é
=

inversível. Prosseguindo desta forma, concluímos que cada Ai é


inversível.
Gostaríamos de fazer um comentário final sobre a resolução
de equações lineares. Suponhamos que A seja uma m x n matriz e
que desejamos resolver o sistema de equações AX = Y. Se R é uma
matriz linha-reduzida à forma em escada que é equivalente a A,
então R = PA, onde P é uma m x n matriz inversível. As soluções
do sistema AX = Y são exatamente as soluções do sistema RX =

= PY( = Z). Na prática, não é muito mais difícil determinar a ma­


triz P do que linha-reduzir A a R. De fato, suponhamos que for­
memos a matriz completa A' do sistema AX = Y, com escalares
arbitrários y1, , Ym na última coluna. Se agora efetuarmos sobre
• • •

A' uma seqüência de operações elementares sobre linhas que re­


duza A a R, tornar-se-á evidente o que é a matriz P. (O leitor deve
consultar o Exemplo 9 onde, em essência, aplicamos este processo.)
Em particular, se A é uma matriz quadrada, este processo mostrará
claramente se A é inversível ou não e, se A for inversível, qual é a
inversa P. Como já apresentamos o núcleo de um exemplo deste
tipo de cálculo, contentar-nos-emos com um exemplo 2 x 2.

Exemplo 15. Suponhamos que F seja o corpo dos números


racionais e

[
2
A-
- 1
-

�l
Então

3
-1
Y2
Y1
] [ (2l
___,
1
O
3
-7
Y2
2
y1- y2 J
(ll

onde se vê claramente que A é inversível e que


32 _;__ ALGEBR.4 LINEAR

Pode parecer muito trabalhoso continuar escrevendo os esca­


lares arbitrários y1, y2, , no cálculo da inversa. Algumas pessoas
• • •

acham mais simples trabalhar com duas seqüências de matrizes,


uma descrevendo a redução de A à matriz unidade e a outra,
registrando o efeito da mesma seqüência de operações, começando
com a matriz unidade. O leitor deverá julgar por si mesmo qual
é o melhor processo.

Exemplo 16. Vamos determinar a inversa de

�[i !] A
!_
2
1

1
3
1
4

'] [ 1
[i � [� 1 �]º]
!_
2
1
3
1
4
'
o

[� "] 1
2
1
1
ii
1
ii ' 45
3
_L.
12. '
1
-t
-1
o

o
o

1
[� i]q[ 1H -1 �]
!_ o
2
..L
12
o 180

[� 1 2

1
!_

-6
30 - 12
180
1
180º]
'
o
o

9 60 - 60
o

1 -36
[� gl [- 30 -180
1
2
192 -180
180]
- 36 30
o 1

[� 1o

o g
1 l [ - 3:
30 192
-180 ·- 180
180 ] .

Deve ter ocorrido ao leitor que fizemos uma longa discussão


sobre linhas de matrizes e pouco dissemos sobre colunas. Concen-
EQUAÇÔES LINEARES - 33

tramas nossa atenção sobre as linhas porque isto pareceu mais na­
tural do ponto de vista de equações lineares. Como não existe evi­
dentemente nada sagrado sobre linhas, a discussão das últimas
seções poderia muito bem ter sido feita usando-se colunas em vez de
linhas. Se se define· uma operação elementar sobre colunas e uma
coluna equivalência de maneira análoga à operação elementar
sobre linhas e à linha-equivalência é evidente que cada m x n matriz
será coluna equivalente a uma matriz "coluna-reduzida à forma
em escada". Além disso, cada operação elementar sobre colunas
será da forma A � AE, onde E é uma n x n matriz elementar e
assim por diante.

Exercícios

1. Seja

A = [ 1
-1
1
� !
-2 1
�].
1

Determinar uma matriz R linha-reduzida à forma em escada que seja linha­


equivalente a A e uma 3 x 3 matriz inversível P tal que R PA.
=

2. Fazer o Exercício 1, com

[! -�l
o
A -3
=
1

3. Para cada uma das matrizes

[2 5
4
6
-1
4 -�] [�
1 o - �
1 -2 ;]
usar operações elementares sobre linhas para descobrir se é inversível e, em
caso afirmativo, determinar a inversa.

4. Seja

A= l5 ºJ
1
o
o
5
1
O
5
·

Para que X existe um escalar e tal que AX = cX?


34 - ALGEBRA LINEAR

5. Descobrir se

2 3 4

A=
[1 ]
O
o
o
2
o
o
3
3
o
4
4
4

é inversível e determinar A -
1 caso exista.
6. Suponhamos que A seja uma 2 x 1 matriz e que B seja uma 1 x 2 matriz.
Demonstrar que C = AB não é inversível.
7. Seja A uma n x n matriz (quadrada). Demonstrar as duas afirmações se­
guintes:
(a) Se A é inversível e AB = O para alguma n x n matriz B, então B = O.
(b) Se A não é inversível, então existe uma n x n matriz B tal que AB = O
mas B "#O.
8. Seja

A=
[� �l
Demonstrar, usando operações elementares sobre linhas, que A é inversível
se, e somente se, (ad bc) "# O.
-

9. Urna n x n matriz A se diz triangular-superior se A;; O para i > j, isto é, =

se cada elemento abaixo da diagonal principal for O. Demonstrar que uma


matriz (quadrada) triangular superior é inversível se, e somente se, cada
elemento da sua diagonal principal for diferente de O.
10. Demonstrar a seguinte generalização do Exercício 6. Se A é uma m x n

matriz, B é uma n x m matriz e n < m, então AB não é inversível.


11. Seja A uma m x n matriz. Mostrar que, por meio de um número finito de
operações elementares sobre linhas e/ou colunas, pode-se passar de A a uma
matriz R, "linha-reduzida à forma em escada" e "coluna-reduzida à forma
em escada", isto é, Ri; O se i "# j, R;; = 1, 1 ::;; i ::;; r, Ru = O Se i > r.
=

Mostrar que R PAQ, onde P é uma m x m matriz inversível e Q é uma


=

n x n matriz inversível.

12. O resultado do Exemplo 16 sugere que a matriz

.! .l.
2
.l. 1 1
2 3 ;;+1

A=

.l. 1 1
n n+l rn=-r

é inversível e que A - 1 possui elementos inteiros. Você saberia demonstrar


este fato?
Capítulo 2

ESPAÇOS VETORIAIS

2.1 Espaços Vetoriais


Em várias partes da matemática, defrontamo-nos com um con­
junto, tal que é, ao mesmo tempo; significativo e interessante lidar
com "combinações lineares" dos objetos daquele conjunto. Por
exemplo, em nosso estudo de equações lineares, foi bastante na­
tural considerar combinações lineares das linhas de uma matriz.
É provável que o leitor tenha estudado cálculo e tenha já lidado
com combinações lineares de funções; isto certamente ocorreu se
ele estudou equações diferenciais. Talvez o leitor tenha tido alguma
experiência com vetores no espaço euclidiano tridimensional e, em
particular, com combinações lineares de tais vetores.
A grosso modo, a álgebra linear é o ramo da matemática que
trata das propriedades comuns a sistemas algébricos constituídos
por um conjunto mais uma noção razoável de uma "combinação
linear" de elementos do conjunto. Nesta seção definiremos o objeto
matemático que, como a experiência mostrou, é a abstração mais
útil deste tipo de sistema algébrico.

Definição. Um espaço vetorial (ou espaço linear) consiste do


seguinte:
(1) um corpo F de escalares;
(2) um corpo V de objetos, denominados vetores;
(3) uma regra (ou operação), dita adição de vetores, que associa
a cada par de vetores a, f3 em V um vetor a+ f3 em V, denominado
a soma de a e {3, de maneira tal que:
(a) a adição é comunicativa, a+ f3 =
p +a;
(b) a adição é associativa, a+ (/3 + y) =(a+ p) + y;
(c) existe um único vetor O em V, denominado o vetor nulo,
tal que a+ O a para todo a em V;
=
36 - ALGEBRA LINEAR

(d) para cada vetor <X em V existe um único vetor -a em V


tal que a + ( - oc) =O;

(4) uma regra (ou operação), dita multiplicação escalar, que


associa a cada escalar· c em F e cada vetor IX em V um vetor CIX
em V, denominado o produto de c por IX de maneira tal que:
(a) 1 IX =IX para todo <X em V;
(b) (c1c2)1X =c1(C21X);
( c) c(IX + p) =CIX + cp;
(d) (c1 + c2)1X = C1<X + C21X.
É importante observar, como afirma a definição, que um es­
paço vetorial é um objeto composto de um corpo, um conjunto de
"vetores" e duas operações com certas propriedades especiais. O
mesmo conjunto de vetores pode ser parte de diversos espaços
vetoriais (ver Exemplo 5 abaixo). Quando não há possibilidade
de confusão, podemos simplesmente nos referir ao espaço vetorial
por V ou, quando for desejável especificar o corpo, dizer que V é
·um espaço vetorial sobre o corpo F. O noma, vetor" é aplicado
aos elementos do conjunto V mais por conveniência. A origem do
nome é encontrada no Exemplo 1 abaixo, mas não se deve em­
prestar muita importância ao nome ·uma vez que a variedade de
objetos que aparecem como sendo os vetores em V podem não
apre.sentar muita semelhança com qualquer conceito de vetor adqui­
rido a priori pelo leitor. Tentaremos indicar esta variedade através
de uma lista de exemplos; nossa lista será consideravelmente am­
pliada assim que iniciarmos o estudo de espaços vetoriais.

Exemplo 1. O espaço das n-upl_as, F. Seja F um corpo arbi­


trário e seja V o conjunto de todas as n-uplas IX= (xl' x2, , xn)
• • •

de escalares xi em F. Se f3 =(y1' Yi, . . . , yn) com yi em F, a soma


·

de a e f3 é definida por

O produto de um escalar c por um vetor IX é definido por

(2-2)

O fato de. que esta adição de vetores e multiplicação escalar satis­


fazem as condições (3) e (4) é fácil de verificar, usando as proprie­
dades semelhantes da adição e multiplicação de elementos de F.
ESPAÇOS VETORIAIS - 37

Exemplo 2. O espaço das m x n matrizes, pm x " . Seja F um


corpo arbitrário e sejam m e n inteiros positivos. Seja pm x" o
conjunto de todas as m x n matrizes sobre o corpo F. A soma de
dois vetores A e B em pm x • é definida por

(2-3)

O produto de um escalar e pela matriz A é definido por

(2-4)
1 F".
Observar que F
X n =

Exemplo 3. O e�paço das funções de um conjunto· em· um


corpo. Seja F um corpo arbitrário e seja S um conjunto não-vazio
arbitrário. Seja V o conjunto das funções do conjunto S em F.
A soma de dois vetores f e g em V é o wtor f + q. isto é, a função
de S em F, definida por

(2-5) (f + g) (s) = f (s) + g(s).


O produto do escalar e pela função f é a função cf definida por

(2-6) (cf) (s) = cf (s).

Os exemplos anteriores são os casos particulares deste. De fato,


uma n-upla de elementos de F pode ser considerada como uma
função do conjunto S dos inteiros 1, . . , n em F. Analogamente, ..

uma m x n matriz sobre o corpo F é uma função do conjunto S de


pares de inteiros (i, j), 1 ::;; i ::;; 111, 1 �j::;; n, no corpo F. Para este
terceiro exemplo indicaremos como se faz para verificar que as
operações por nós definidas satisfazem as condições (3) e (4). Para
a adição de vetores:

( a) Como a adição em F é comutativa,

f(s) + g(s) = g(s) + f (s)

para cada s em S, portanto as funções f + g e g+f são idênticas.


(b) Como a adição em F é associativa,

f (s) + [g(s) + h(s)] = [! (s) + g(s)] + h(s)


38 - ALGEBRA LINEAR

para cada s, portanto f+(g +h) e (f +g) + h são a mesma função.


( c) O único vetor nulo é a função nula que associa a cada
elemento de S o escalar O em F.
(d) Para cada f em V, (-f) é a função dada por

( -/) (s) = -f (s) .

O leitor deverá achar fácil verificar que a multiplicação escalar


satisfaz as condições de (4), fazendo como fizemos para a adição de
vetores.

Exemplo 4. O espaço das funções polinomiais sobre um corpo F.


Seja F um corpo e seja V o conjunto das funções f de F em F que
são da forma

(2-7) f (x) = � o + c1x + . .. + cnx"

onde cw .... e,, são escalares fixos em F (independentes de x).


Uma função deste tipo é denominada uma função polinomial sobre
F. Sejam a adição e multiplicação escalar definidas como no Exem­
plo 3. Deve-se observar aqui que se f e g são funções polinomiais
e e está em F, então f +g e cf são também funções polinomiais.

Exemplo 5. O corpo C dos números complexos pode ser con­


siderado como um espaço vetorial sobre o corpo R dos números
reais. De maneira mais geral, seja F o corpo dos números reais, e
seja V o conjunto das n-uplas ex = (x1, ..., x11) onde x1, ... , x11 são
números complexos. Definamos a adição de vetores e a multipli­
cação escalar por (2-1) e (2-2), como no Exemplo i.' Desta forma
obtemos um espaço vetorial sobre o corpo R que é bem diferente
do espaço C" e do espaço R". ,
Há alguns fatos simples que decorrem quase imediatamente da
definição de um espaço vetorial e que passamos a deduzir. Se e é
um escalar e O é o vetor nulo, então, por 3 (e) e 4 (e),

cO = c(O +O) = cO +cO.

Somando -(cO) e usando 3(d) obtemos

(2-8) cO =O.
ESPAÇOS VETORIAIS' - 39

Analogamente, para o escalar O e qualquer vetor oc temos que

(2-9) Ooc =O.

Se c é um escalar não-nulo e oc é um vetor tal que coe= O, então


por (2-8), c-1(coc) =O. Mas

1
c - 1 (c ex) = (c- c)oc = lex = oc

logo, ex =O. Assim, vemos que se c é um escalar e ex um vetor tal


que ca. = O, então c é o escalar nulo ou oc é o vetor nulo.
Se ex é um vetor arbitrário em V, então

O =Oex = (1 - l)a. = la + ( - l)a. = a + ( - l)ex

do que segue que

(2-10) ( - l)a. = - ()( .

Finalmente, as propriedades associativa e comutativa da adição de


vetores implicam que uma soma envolvendo um certo número de
vetores é independente da maneira pela qual estes vetores são com­
binados ou associados. Por exemplo, se °'1' °'2' oc3, oc4 são vetores
em V, então

e esta pode ser escrita sem confusão como

Definição. Um vetor f3 em V é dito uma combinação linear


dos vetores a.1' .. ., °'n em V se existem escalares cl' .. ., c0 em F tais
que

= L cioci.
i= 1

Outras extensões da propriedade associativa da adição de ve­


tores e das propriedades distributivas 4 (e) e 4 ld) da multiplicação
escalar aplicam-se a combinações lineares:
40 - ALGEBRA LINEAR

n n n

Ll C/L; + L d;rx; = Ll (e;+ d;)ct;


i= i=l i=
n n

e L C;ct; = L (cc)ct;.
i= 1 1
i=

Certas partes da álgebra linear são intimamente relacionadas


com a geometria. A própria palavra "espaço" sugere algo geomé­
trico, como o faz a palavra "vetor" à maioria das pessoas. À me­
dida que prossigamos nosso estudo de espaços vetoriais, o leitor
observará que grande parte da terminologia possui uma conotação
geométrica. Antes de concluirmos esta seção introdutória sobre
espaços vetoriais, vamos considerar a relação dos espaços veto­
riais com a geometria até um ponto que indique pelo menos a
origem do nome "espaço vetorial". Esta será uma discussão breve
e intuitiva.
3
Consideremos o espaço vetorial R . Na geometria analítica,
identificamos as ternas (x1, x2' x3) de números reais com os pontos
do espaço euclidiano tridimensional. Naquele contexto, um vetor
é usualmente definido como sendo um segmento de reta orientado
PQ, que vai de um ponto P do espaço a outro ponto Q. Jsto signi�
fica uma formulação cuidadosa da idéia da "flecha" de P a Q. Da
forma como os vetores são usados, pretende-se que eles sejam
determinados por seu comprimento, direção e sentido. Assim, é
necessário identificar dois segmentos de reta orientados se eles têm
o mesmo comprimento, direção e sentido.
O segrnento de reta orientado PQ, que vai do ponto P = (xl'
x2' x3) ao ponto Q = (yl' y2' y3), tem o mesmo comprimento, di­
reção e sentido que o segmento de reta orientado que vai da ori­
gem O= (O, O, O) ao ponto (y1 - xl' y2 - x2, y3 - x3). Além disso,
este é o único segmento que emana da origem e tem o mesmo
comprimento, direção e sentido que PQ. Assim, se resolvermos
estudar apenas os vetores que emanam da origem, existe exata­
mente um vetor associado a cada comprimento, direção e sen­
tido dados.
O vetor OP, que vai da origem a P = (x1, x2, x3), é comple­
tamente determinado por P, portanto é possível identificar este
3
vetor com o ponto P. Em nossa definição do espaço vetorial R ,
os vetores são definidos como sendo simplesmente as ternas
(xl' X2, x3).
*
ESPAÇOS VETORIAIS - 41

Dados pontos P = (xl' x2, x3) e Q = (yl' y2, y3), a definição


soma dos vetores OP e OQ pode ser dada geometricamente.
os vetores não são paralelos, então os segmentos OP e OQ
terminam. um plano e estes segmentos são dois dos lados de
um paralelogramo naquele plano (ver Figura 1). Uma diagonal
deste paralelogramo estende-se de O a um ponto S e a soma de

Figura 1

OP e OQ é definida como sendo o vetor OS. As coordenadas do


ponto S são (x1 + y1, x2 + y2' x3 + y3), logo esta definição geomé­
trica da adição de vetores é equivalente à definição algébrica do
Exemplo 1.
A multiplicação escalar tem uma interpretação geométrica mais
simples. Se e é um número real, então, o produto de e pelo vetor
OP é o vetor que parte da origem, tem comprimento lei vezes o
comprimento de OP, mesma direção que OP e um sêntido que
-
concorda com o de OP se e> O e é oposto ao de OP se e< O.
Esta multiplicação escalar produz exatamente o vetor OT onde
T = (cx1, cx2, cx3) e é portanto compatível com a definição algé­
3
brica dada para R .
De vez em quando, o leitor provavelmente achará útil "pensar
geometricamente" sobre espaços vetoriais, isto é, desenhar figuras
para uso próprio .para ilustrar e motivar algumas- idéias. Na ver­
dade deve fazer isto. Contudo, ao fazer tais ilustrações, deve ter
42 -'--- ÁLGEBRA LINEAR

em mente que, por estarmos tratando de espaços vetona1s como


sistemas algébricos, todas as demonstrações que fizermos serão de
natureza algébrica.

Exercícios

1. Se F é um corpo, verificar que F" (tal como definido no Exemplo 1) é um


espaço vetorial sobre o corpo F.
2. Se V. é um espaço vetorial sobre o corpo F, verificar que

para todos vetores IXI' IX2' ix3 e a4 em V.


3. Se C é o corpo dos números complexos, quais vetores em C3 são combinações
lineares de (1, O, -1), (O, 1, 1) e (1, 1, 1)?
4. Seja V o conjunto de todos os pares (x, y) de números reais e seja F o corpo
dos números reais. Definamos

(x, y) + (x1, y1) (x +xi' Y + Y1)


=

c(x, y)=(ex, y).

V, com estas operações, é um espaço vetorial sobre o corpo dos números reais?
5. Em R" definamos duas operações
ix(f){J=a-{3
C' IX=-CIX.

As operações do lado direito são as operações usuais. Quais dos axiomas de


espaço vetorial são satisfeitos por (R", (f), )? ·

6. Seja V o conjunto de todas as funções f definidas sobre a reta real e tomando


valores complexos, tais que (para todo t em R)

f(-t) =lifJ.

A barra indica conjugação complexa. Mostrar que V, com as operações

(f +g) (t)=f(t) + g(t)


(cf) (t)= cf(t)

é um espaço vetorial sobre o corpo dos números reais. Dar um exemplo de


uma função em V que não assuma somente valores reais.
7. Seja V o conjunto de todos os pares (x, y) de números reais e seja F o corpo
·

dos números reais. Definamos

(x, y) +(xi' y1) =


(3y + 3y1, - x - x1)
c(x, y) = (3cy, -ex).

Verificar se V, com estas operações, é um espaço vetorial.


ESPAÇOS VETORIAIS - 43

2.2 Subespaços
Nesta seção introduziremos alguns conceitos básicos no estudo
dos espaços vetoriais.

Definição. Seja V um espaço vetorial sobre o corpo F. Um


subespaço de V é um subconjunto W de V que é um espaço vetorial
sobre F com as operações de adição de vetores e multiplicação es­
calar de V.
Uma verificação direta dos axiomas para um espaço vetorial
mostra que o subconjunto W de V é um subespaço se para todos
a e f3 em W o vetor a+ f3 está ainda em W; o vetor nulo está em
W; para todo a em W o vetor ( -a) está em W; para todo a em W
e todo escalar c o vetor ca está em W. A comutatividade e associa­
tividade da adição de vetores e as propriedades-- (4) (a), (b), (cf e
(d) da multiplicação escalar não precisam ser verificadas, uma vez
que são propriedades das operações em V. Podemos simplificar·
ainda mais as coisas.

Teorema 1. Um subconjunto não-vazio W de V é um subespaço


de V se, e somente se, para cada par de vetores a, f3 em W e cada
escalar c em F, o vetor ca+ f3 está em W.
Demonstração. Suponhamos que W seja um subconjunto não­
vazio de V tal que ca+ f3 pertença a W para todos os vetores
a, fJ em W e todos escalares c em F. Como W é não-vazio, existe
um vetor p em W, logo (-1) p+ p =O está em W. Então se a
é um vetor arbitrário em W e c um escalar arbitrário, o vetor
ca = ca+O está em W. Em particular ( - l)a = -a está em W.
Finalmente se a e fJ estão em W, então a+ f3 =la+ f3 está em W .
Assim, W é um subespaço de V.
Reciprocamente, se W é um subespaço de V, a e fJ estão em
W e c é um escalar, certamente ca+ fJ está em W.
Algumas pessoas preferem usar a propriedade ca + fJ do Teo­
rema 1 como definição de subespaço. Isto faz pouca difereriÇa.
O ponto importante é que se W for um subconjunto não vazio de
V tal que ca+ fJ esteja em V para todos a, f3 em W e todos c em
F, então W (com as operações herdadas de V) é um espaço vetorial.
Este fato nos fornece muitos exemplos novos de espaços vetoriais.
Exemplo 6.
(a) Se V é um espaço vetorial arbitrário, V é um subespaço
de V; o subconjunto constituído somente pelo vetor nulo é um
44 - ALGEBRA LINEAR

subespaço de V, denominado o subespaço nulo de V.

(b) Em F", o conjunto das n-uplas (x1, • • . , x


"
) com x
1
= O
é um subespaço; contudo, o conjunto das n-uplas com x
1
= 1 + x2
não é um subespaço (n � 2).
(c) O espaço das funções polinomiais sobre o corpo F é um
subespaço do espaço de todas as funções de F em F.
(d) Uma n x n matriz (quadrada) A sobre o corpo F é simé­
trica se Aii
Aii para todos i e j. As matrizes simétricas formam
=

um subespaço do espaço de todas as n x n matrizes sobre F.


(e) Uma n x n matriz (quadrada) A sobre o cor.po C dos nú­
meros complexos é hermitiana (ou auto-adjunta) se

Aik = Aki

para todos j, k, sendo que a barra indica conjugação complexa.


Uma 2x2 matriz é hermitiana se, e somente se, é da forma

[ X-
Z .
zy
X+
W
iy ]
onde x, y, z e w são números reais. O conjunto de todas as matrizes
hermitianas não é um subespaço do espaço de todas as n x n ma­
trizes sobre C. De fato, se A é hermitiana, todos os elementos A11'
A22, • • • , de sua diagonal são números reais mas os elementos dia­
gonais de iA em geral não são reais. Por outro lado, verifica-se
facilmente que o conjunto das n x n matrizes hermitianas complexas
é um espaço vetorial sobre o corpo R dos números reais (com as
operações usuais).

Exemplo 7. O espaço-solução de um sistema de equações


lineares homogêneas. Seja A uma m x n matriz. sobre F. Então
o conjunto de todas as n X sobre F tais que
x1 matrizes-(colunas)
AX = O é um subespaço do espaço de todas as n x 1 matrizes sobre
F. Para demonstrar isto precisamos mostrar que A(cX + Y) O =

para AX O, A Y O e e um escalar arbitrário em F. Isto decorre


= =

imediatamente do seguinte fato geral:

Lema. Se A é uma m x n matriz sobre F e B, C são n x p


matrizes sobre F, então

(2-11) A(dB + C) = d(AB) + AC


ESPAÇOS VETORIAIS - 45

para todo escalar d em F.

Demonstração. [A(dB + C)]ii = I: Aik(dB + C)ki


k
= I: (dAi1tBki + Aik C k)
k
= dI: A;k B ki + I: Aik Cki
k k
= d(AB)ii + (AC)ii
= [d(AB) + AC]ii"

Analogamente, pode-se mostrar que (dB + C ) A d(B A) + C A, =

se as somas e produtos de matrizes estão definidos.

Teorema 2. Seja V um espaço vetorial sobre o corpo F. A inter­


seção de uma coleção arbitrária de subespaços de V é um subespaço
de V.
Demonstração. Seja { W.} uma coleção de subespaços de V e
seja W = Ç'I W0 a sua interseção. Recordemos que W é definido
como sendo o conjunto dos elementos pertencentes simultanea­
mente a W. (ver Apêndice). Como cada W. é um subespaço, todos
contêm o vetor nulo. Assim o vetor nulo está na interseção W e W
é não vazio. Sejam a e f3 vetores em W e seja c um escalar. Pela
definição de W, tanto a como f3 pertencem a cada W. e, como cada
W. é um subespaço, o vetor (ca + /3) está em todo W.· Assim,
(ca + /3) está em W. Pelo Teorema 1, W é um subespaço de V.
Do Teorema 2 decorre que se S é uma coleção arbitrária de
vetores em V, então existe um menor subespaço de V que contém
S, isto é, um subespaço que contém S e que está contido em todos
os outros subespaços que contêm S.

Definição. Seja S um conjunto de vetores num espaço vetorial V.


O subespaço gerado por S é definido como sendo a interseção W de
todos os subespaços de V que contêm S. Quando S é um conjunto
finito de vetores, s {al, ª2' ... . anj, denominaremos w simplesmente
=

o subespaço gerado pelos vetores a ' a ,


l 2
. • • , a •
0

Teorema 3. O subespaço gerado por uni subconjunto não vazio


S de um espaço vetorial V é o conjunto de todas as combinações
lineares de vetores em S.
46 - ALGEBRA LINEAR

Demonstração. Seja W o subespaço gerado por S. Então,


cada combinação linear

()( = Xl()(l + X2()(2 + · · ·


+ Xm()(m
de vetores IXl' IX2, , IXm em S evidentemente está em W. Assim, W
• • •

contém o conjunto L de todas as combinações lineares de vetores


em S. O conjunto L, por outro lado, contém S e é não vazio. Se
IX, {3 pertencem a L, então IX é uma combinação linear,

de vetores IX; em S e {3 é uma combinação linear

de vetores {3i em S. Para cada escalar e,

m n

CIX + {3 = L (cx;)IX; + L yif3r


i=1 j= 1

Logo coe+ {3 pertence a L. Assim, L é um subespaço de V.


Mostramos acima que L é um subespaço de V que contém S
e também que todo subespaço que contém S contém L. Decorre
que L é a interseção de todos os subespaços que contêm S,
isto é, que L é o subespaço gerado pelo conjunto S.

Definição. Se Sl' S2, , Sk são subconjuntos de um espaço


• . .

vetorial V, o conjunto de todas as somas

()(1 + ()(2 + ... + ()(k

de vetores ()(i em si é dito a soma dos subconjuntos s 1' s 2' • • • ' sk e


é indicado por

ou por

Se Wl' W2, • • • , Wk são subespaços de V, então vê-se facilmente


que a soma
ESPAÇOS VETORIAIS - 47

é um subespaço de V que contém cada um dos subespaços W,.


Disto decorre, como na demonstração do Teorema 3, que W é o
subespaço gerado pela reunião de Wl' W2, • • • , Jv,..

Exemplo 8. Seja F um subcorpo do corpo C dos números


complexos. Suponhamos que

a1 = (1, 2, O, 3, O)
a2 =
(O O, 1, 4,0)
,

a3 = (O, O, O, O, 1).

Pelo Teorema 3, um vetor a está no subespaço W de F5 gerado por


a1, a2, a3 se, e somente se, existem escalares cl' c2' c3 em F tais que

Portanto, W consiste de todos os vetores da forma

onde cl' c2, c3 são escalares arbitrários em F. W pode ser descrito


de outra forma como sendo o conjunto de todas as quíntuplas

a = (xl' X2, X3, X4, X5)


com x, em F tais que

X2 = 2x1
x4 =
3x1 + 4x3.

Assim, ( - 3, - 6, 1, - 5, 2) está em W, enquanto que (2, 4, 6, 7, 8)


não está.

Exemplo 9. Seja F um subcorpo do corpo C dos números


complexos e seja V o espaço vetorial das 2 X 2 matrizes sobre F.
Seja W1 o subconjunto de V constituído por todas as matrizes
da forma
48 -'--- ALGEBRA LINEAR

onde x, y, z são escalares arbitrários em F. Finalmente, seja W2 o


subconjunto de V constituído por todas as matrizes da forma _,

onde x e y são escalares arbitrários em F. Então, W1 e Wz são


subespaços de V. Além disso

pois

b
[a ] [ª ] [ ] b + º º
e d e O O d

o subespaço wl 11 w2 consiste de todas as matrizes da forma

Exemplo 10. Seja A uma m x n matriz sobre um corpo F. Qs


vetores-linhas de A são os vetores em F" dados por rx; (A; 1, , A;n), = . • •

i= 1, , m. O subespaço de F" gerado pelos vetores-linhas de A


. . .

é denominado o espaço-linha de A. O subespaço considerado no


Exemplo 8 é o espaço- linha da matriz.

2
[1 1 ] o 3 º
A= O O 4 O
o o o o 1

Ele também é o espaço-linha da matriz

1J
2 º

l�
o i 4 o
B= O o o o
-4 - 8 1 -8 o.
3

Exemplo 11. Seja V o espaço das funções polinomiais sobre F.


Seja S o subconjunto de V constituído pelas funções polinomiais
. f0, f1, f2, , definidas por
. . •
ESPAÇOS VETORIAIS - 49

Ín(x) = xn, n = o, 1, 2, ...

Então V é o subespaço gerado pelo conjunto S.

Exercícios

1. Quais dos seguintes conjuntos de vetores a =(a1, ... , a.) em R" são subespaços
de R"'? (n � 3)

(a) todos a tais que a1 � O;


(b) todos a tais que a1 + 3a2 a3;
=

(c) todos a tais que a2 =a�;


(d) todos a tais que a1a =O;
2
(e) todos a tais que a1 seja racionãl.

2. Seja V o espaço vetorial (real) de todas as funções f de R em R. Quais dos


seguintes conjuntos de funções são subespaços de V?

(a) todas f tais que f (x2) f(x)2;


=

(b) todas f tais que f (O) f(l);


=

(c) todas f tais que f(3) = 1 + f( -5);


(d) todas f tais que f(-1) =O
(e) todas f que são contínuas.

3. O vetor (\. 1. O. -1) está no subespaço de R4. gerado pelos vetores


-

(2, -1, 3, 2), ( -1, 1, 1, - 3) e (1, 1, 9, 5)'?


5
-

4. Seja W o conjunto de todos os (xi' x2, x3, x4, x5) em R que satisfazem

2x1 x2 + !x3 - x4 = O
X1 + 1x3 X5 =Q
'9x1 - 3x2 + 6x3 - 3x4 - 3x5 =O.

Determinar um conjunto finito de vetores que gere W.

5. Seja F um corpo e seja n um inteiro positivo (n � 2). Seja V o espaço vetorial


das n x n matrizes sobre F. Quais dos seguintes conjuntos de matrizes A
em V são subespaços de V?

(a) todas A inversíveis;


(b) todas A não-inversíveis;
(c) todas A tais que AB BA, onde B é uma certa matriz fixa em V;
=

(d) todas A tais que A2 A.


=

1
6. (a) Demonstrar que os únicos subespaços de R são R1 e o subespaço nulo.
(b) Demonstrar que um subespaço de R2 ou é R2, ou é o subespaço nulo ou
então consiste de todos os múltiplos escalares de um certo vetor fixo em ·R 2.
(O último tipo de subespaço é (intuitivamente) uma reta pela origem.)
(c) Você é capaz de descrever os subespaços de R3?
50 - ALGEBRA LINEAR

7. Sejam 11-1 e 11-2 subespaços de um espaço vetorial V tais que a reunião de


11-1 e 11-2 também seja um subespaço. Demonstrar que um dos espaços vi.;
está contido no outro.
s, Seja V o espaço vetorial das funções de R em R; seja V,, o subconjunto das
funções pares, f(-x) f(x); seja V, o subconjunto das funções ímpares,
=

f(- x) = f(x).
-

(a) Demonstrar que VP e Vi são subespaços de V.


(b) Demonstrar que VP + Vi= V.
(c) Demonstrar que VP n Vi= {O}.

9. Sejam W1 e W2 subespaços de um espaço vetorial V tais que W1 + W2 = V


e W1 n W2 = {O}. Demonstrar que para cada vetor IX em V existem vetores
bem determinados ix1 em w; e cx2 em H'i, tais que ex = cx1 + cx2•

2.3 Bases e Dimensão


Passamos agora à tarefa de atribuir uma dimensão a certos
espaços vetoriais. Apesar de associarmos usualmente "dimensão"
a algo geométrico, precisamos encontrar uma definição algébrica
adequada da dimensão de um espaço vetorial . Isto será feito atra­
vés do conceito de uma base para o espaço.

Definição. Seja V um espaço vetorial sobre F. Um subconjunto


S de V é dito linearmente dependente (ou, simplesmente, dependente)
se existem vetores distint0s ocl' oc2, , oc0 em Se escalares cl' c2,
• • • c0 • • . ,

em F, não todos nulos, tais que

Cl(l(l + C20C2 + ... + cn°'n = O


.

Um conjunto que não é linearmente dependente é dito linearmente


independente. Se o conjunto S contém apenas um número finito de
vetores oc1, oc2, ... , oc0 dizemos, às vezes, que ocl' oc2, ... , oc0 são depen­
dentes (ou independentes) em vez de dizer que S é dependente (ou
independente).
Decorrem facilmente. da definição as conseqüências seguintes:
1. Todo conjunto que contém um conjunto linearmente depen­
dente é linearmente dependente.
2. Todo subconjunto de um conjunto linearmente indepen­
dente é linearmente independente.
3. Todo conjunto que contém o vetor nulo é linearmente
dependente, pois 1 O O.· =

4. Um conjunto S de vetores é linearmente independente se;


e somente se, todo subconjunto finito de S é linearmente inde�n-
ESPAÇOS VETORIAIS - 51

dente, isto é, se, e somente se, para quaisquer vetores distintos


et1, • . . , ocn em S, c1oc1 + .. . + cnetn =O implica que cada e;= O.

Definição. Seja V um espaço vetaria/; Uma base de V é um con­


junto linearmente independente de vetores em V que gera o espaço V.
O espaço vetorial V é de dimensão finita se ele possui uma base
finita.

Exemplo 12. Seja F um subcorpo do corpo dos números com­


3
plexos. Em F os vetores

ª1 = ( 3, o, - 3)
ª2 = ( - 1, 1, 2)
Ct3 = ( 4, 2, - 2)
Ct4 = ( 2, 1, 1)

são linearmente dependentes, pois

Os vetores

81 = (1, O, O)
82 = (O, 1, O)
83 =(O, O, 1)

são linearmente independentes.

n
Exemplo 13. Seja F ·um corpo e, em F , seja S o subconjunto
constituído dos vetores 81, 82, ... , 8n definidos por

81 = (1, O, O, ... , O)
82 =(O, 1, O, ... , O)

8n =(O, O, O, ... , 1).

Sejam xl' x2, ... , xn escalares em F e coloquemos et = x 181 +


+ X282 + . . . + Xn8n. Então

(2-12)

Isto mostra que 81' ... , 8n geram Fn. Como et =O se, e somente se,
x1 = x2= ... = x. =O, os vetores s1' ... , 8" são linearmente indepen-
52 - ALGEBRA LINEAR

dentes. O conjunto S { sl' ... , s. } é .portanto uma base de


=
pn_
n
Denominamos esta base particular a base canônica de F .

Exemplo 14. Seja P uma n x n matriz inversível com elementos


no corpo F. Então as colunas P1, , P n de P formam uma base
. . •
1
do espaço das matrizes-coluna F" x . Vemos isto da seguinte ma­
neira. Se X é uma matriz-coluna, então

PX = x1P1 + . .

Como PX = O admite somente a solução trivial X O, segue-


. + xnP n.

que {P1, . . . , P n} é um conjunto linearmente i� d:p�ndente, Por qu


n 1
ele gera p x ? SeJa _
_ Y uma matnz-coluna 1
arb1trana. Se X= p- Yi,
= �
.
então Y = PX, isto é,

Portanto, { P1, . .. , Pn} é uma base de p n xi.

Exemplo 15. Seja A uma m x n matriz e seja S o espaço so­


lução do sistema homogêneo AX =O (exemplo 7). Seja R uma
matriz linha-reduzida à forma em escada que seja linha-equiva­
lente a A. Então S é também o espaço solução do sistema RX= O.
Se R tiver r linhas não nulas, então o sistema de equações RX = O
simplesmente exprime r das incógnitas xl' .. . , xn em função das
(n-r) incógnitas restantes. Suponhamos que os primeiros elementos
não nulos, das linhas não nulas, ocorram nas colunas k1, , k,. • • •

Seja J o conjunto dos n-r índices, distintos de kl' . .. , k,:

J = {1, ... , n} - {k1, . • . , k,}.

O sistema RX= O tem a forma


xk, + L c1ixi = O
J

Xk· + "C .x. = Ü


r L.. r] J
J.

onde os cii são certos escalares. Todas as soluções são obtidas atri­
buindo valores (arbitrários) aos xi com j em J e calculando os
valores correspondentes de xk,, . .., xkr" Para cada j em J seja Ei
ESPAÇOS VETORIAIS - 53

a solução obtida, colocando xi= 1 e xi= O para todos os demais


i em J. Afirmamos que os (n-r) vetores Ei, j em J, formam uma
base do espaço solução.
·

Como a matriz coluna Ei possui um 1 na linha j e zeros nas


linhas indexadas por outros elementos de J, o Exemplo 13 mostra
que o conjunto destes vetores é linearmente independente. Este
conjunto gera o espaço solução pela seguinte razão: se a matriz
coluna T, com elementos tl' ..., t. estiver no espaço solução, a
matriz
N= L tjEj
J

também estará no espaço solução e será uma solução tal que


xi= tipara cada j em J. A solução com essa propriedade é única;
portanto, N = T e T está no espaço gerado pelos vetores Er

Exemplo 16. Daremos agora um exemplo de uma base infi­


nita. Seja F um subcorpo do corpo dos números complexos e seja
V o espaço das funções polinomiais sobre F. Lembremos que essas
funções são as funções de F em F da forma

Seja fk(x)= x\ k= O, 1, 2, .. . . O conjunto (infinito) {!0,f1,f2' ..} é


.

uma base de V. É claro que o conjunto gera V porque a função f


(acima) é

O leitor deverá perceber que isto é virtualmente uma repetição da


definição de função polinomial, isto é, Uma função f de F em F é
uma função polinomial se, e somente se, existirem um inteiro n e
escalares c0, ..., e. tais que f = c0f0 + ... + cJ.. Por que as fun­
ções são independentes? Mostrar que o conjunto {!0, f1, f2, . ..} é
independente significa mostrar que cada um de seus subconjuntos
finitos é independente. Será suficiente mostrar que, para cada n,
o conjunto {!0, fJ é independente. Suponhamos que
• . • ,

Isto significa que


54 -_ ÁLGEBRA LINEAR

para todo x em F; em outras palavras, todo x em F é uma raiz


do polinômio f (x) = c0 + c1 x + ... + c.x". Assumiremos que o leitor
saiba que um polinômio de grau n com coeficientes complexos não
pode ter mais que n ralzes distintas. Segue-se que c0 = c1 = ... =
= c. = O.
Exibimos uma base infinita de V. Isto significa que V não
é de dimensão finita? Embora a resposta seja afirmativa, ela não
decorre imediatamente da definição, pois, pelo que sabemos até
agora, V poderia também ter uma base finita. Essa possibilidade
é facilmente eliminada. (Nós a eliminaremos, de um modo geral,
no próximo teorema.) Consideremos um número finito de funções
polinomiais g1' ... , g,. Haverá uma maior potência de x apare­
cendo (com coeficiente não nulo) em g1(x), ... , g,(x). Se este expo­
ente for k, obviamente fk + 1 (x) = xk+ 1 não estará no espaço gerado
por g1, g,. Logo, V não é de dimensão finita.
• • •

Uma observação final sobre esse exemplo é oportuna. Bases


infinitas nada têm a ver com "combinações lineares infinitas". O
leitor que sentir um impulso irresistível de injetar séries de potên­
cias neste exemplo

deverá estudá-lo novamente, com cuidado. Se isto não curá-lo� ele


deverá, de agora em diante, restringir sua atenção a espaços de
dimensão finita.

Teorema 4. Seja V um espaço vetorial gerado por um conjunto


finito de vetores /31, /32' ... , f3m· Então, todo conjunto independente
de vetores em V é finito e contém no máximo m elementos.
Demonstração. Para demonstrar o teorema basta mostrar que
todo subconjunto S de V que contém mais de m vetores é linear­
mente dependente. Seja S um tal conjunto. Em S existem vetores
distintos °'1' °'2' ... , °'•com n > m. Como /31' . . ., /3m geram V exis­
tem escalares Aii em F tais que
m

()(.J =
' L Aijf3i.
i= 1
Para n escalares arbitrários x1 , x2' ... , x11 temos
n

�1°'1 + + x.°'. =
I xpj
j=l
· · ·
ESPAÇOS VETORIAIS - 55

n m

z:· xi L Auf3;
j=l i=l

n m

= L L (Aiix) /3;
j=l i=l

Como n > m, o Teorema 6 do Capítulo 1 implica que existem esca­


lares x 1' x2' ... , xn não todos nulos, tais que

n
L1 Aiixi =
O, 1 ::;; i ::;; m.
j=

Logo, x1ix 1 + x2ix2 + . .. + xnixn = O. Isto mostra que S é um con­


junto linearmente dependente.

Corolário 1. Se V é um espaço vetorial de dimensão finita, então


duas quaisquer bases de V têm o mesmo número (finito) de elementos.
Demonstração. Sendo de dimensão finita, V possui uma base
finita

Pelo 1 eorema 4, toda base de V é finita e contém no máximo m


elementos. Assim, se { ix1, ix2, ... , ixJ é uma base, n::;; m. Pela
mesma razão, m ::;; n. Logo m =
n.
Este corolário nos permite definir a dimensão de um espaço
vetorial de dimensão finita como sendo o número de elementos
numa base de V. Indicaremos a dimensão de um espaço vetorial V
de dimensão finita por dim V. Isto nos permite reformular o
Teorema 4 como segue.

Corolário 2; Seja V um espaço vetorial de dimensão finita e


sejan = dim V. Então:

(a) todo subconjunto de V que contém mais de n, vetores é


linearmente dependente;

(b) nenhum subconjunto de V contendo menos de n vetores pode


gerar V.
56 - ALGEBRA LINEAR

Exemplo 17. Se F é um corpo, a dimensão de F" é n, pois a


base canônica de F" contém n vetores. O espaço das matrizes
m
p x" tem dimensão mn. Isto deve estar claro por analogia com

F", pois as mn matrizes que têm um 1 na posição i,j e zero nas


m
demais, formam uma base de p x ". Se A for uma m x n matriz,
então o espaço solução para A tem dimensão n 1, onde r é o
-

número de linhas não nulas de uma matriz linha-reduzida à forma


em escada e linha-equivalente a A. Veja o Exemplo 15.
Se V for um espaço vetorial arbitrário sobre F, o subespaço
nulo de V será gerado pelo vetor O, mas {O} é um conjunto linear­
mente dependente e não uma base. Por isso con�ionaregi os que
o subespaço nulo tem dimensão O. Poderíamos ter chêgactó'à mesma
conclusão, argumentando que o conjunto vazio é uma base do
subespaço nulo. O conjunto vazio gera {O} pois a interseção de
todos os subespaços contendo o conjunto vazio é {O} e o conjunto
vazio é linearmente independente por não conter. nenhum vetor.
. .

Lema. Seja S um subconjunto linearmente independente de um


espaço vetorial V. Suponhamos que f3 seja um vetor em V que não
esteja no subespaço gerado por S. Então o conjunto obtido acrescen­
tando-se f3 a S é linearmente independente.
Demonstração. Suponhamos que a1, ... , am sejam vetores dis­
tintos em ,s e que

Então b = O, caso contrário

e f3 estaria no subespaço gerado por S. Assim, c1 a1 + ... + cmam = O,


e como S é um conjunto ·linearmente independente, cada ci = O.

Teorema 5. Se W é um subespaço de um espaço vetorial V de


dimensão finita, todo subconjunto de W que é linearmente indepen­
dente é finito e é parte de uma basf! (finita) de W.

Demonstração. Suponhamos que S0 seja um subconjunto .de


W linearmente independente. Se S é um subconjunto de W linear­
mente independente contendo S0, então S também é um subcon-
ESPAÇOS VETORIAIS - 57

junto de W linearmente independente; como V é de dimensão


finita, S contém no máximo dim V elementos.
Estendemos S0 até obtermos uma base de W, da seguinte ma­
neira. Se S0 gerar W, então S0 é uma base de W e a demonstração
está terminada. Se S0 não gerar W usamos o lema anterior para
encontrar um vetor /31 em W tal que o conjunto S1 = S0 u {/31}
seja independente. Se S 1 gerar W, ótimo. Caso contrário, apli­
camos o lema para obter um vetor /32 em W tal que S2 = S1 u {/32}
seja independente. Continuando dessa maneira (em no máximo
dim V passagens) obtemos o conjunto

que é uma base de W.

Corolário 1. Se W é um subespaço próprio de um espaço ve­


torial V de dimensão finita, então W é de dimensão finita e dim W <
<dimV.
Demonstração. Podemos supor que W contém um vetor ex. #- O.
Pelo Teorema 5 e sua demonstração, existe uma base de W que
contém ex. e no máximo dim V elementos. Logo W é de dimensão
finita e dim W s dim V. Como W é subespaço próprio, existe
um vetor f3 em V que não está em W Acrescentando f3 a uma base
arbitrária de W obtemos um subconjunto de V linearmente inde­
pendente. Portanto dim W <dim V.

Corolário i. Num espaço vetorial V de dimensão finita todo


conjunto não-vazio de vetores linearmente independentes é parte de
uma base.

Corolário 3. Seja A uma n x n matriz sobre um corpo F e supo­


nhamos que os vetores-linhas de A formem um conjunto de valores
de F" linearmente independentes. Então A é inversível.
Demonstração. Sejam cx.1, cx.2' ..., cx.n os �et()res-linhas de A e
_
suponhamos que W seja o subespaço de F" gerado por cx.1, ix2, , ex.".
• . .

Como ix1, ix2, ..., ix" são linearmente independentes, a dimensão de


W é n. O Corolário 1 .mostra agora que W = F". Logo, existem
escalares Bii em F tais que
58 -'-- ALGEBRA LINEAR

onde { cl' c2' ... , cn } é a base canônica de Fn. Portanto, para a


matriz B com elementos Bii' temos

BA =l.

Teorema 6. Se W 1 e W2 são subespaços de dimensão finita de


um espaço vetorial V, então W 1 + W2 é de dimensão finita e

Demonstração. Pelo Teorema 5 e seus corolários, W1 n w;


tem uma base finita { tX1, . • • , tXk} que é parte de uma base

e parte . de uma base

o subespaço w 1 + w2 é gerado pelos vetores

e estes vetores formam um conjunto independente. De fato, supo­


nhamos que

Então

o que mostra que L Z,'Y, pertence a w 1. Como L Z,'Y, pertence


também a w2' segue que

para certos escalares e 1, ... , ck. Por ser o conjunto


ESPAÇOS VETORIAIS - 59

independente, cada um dos escalares z, = O. Portanto,

e como

também é um conjunto independente, cada X;= O e cada yi =O .

Assim,

é uma base de W1 + W2• Finalmente

dim wl + dim w2 = (k + m) + (k + n)
= k + (m + k + n)
= dim (W1 n Wj + dim ( W1 + W2).
Encerremos esta seção com uma observação a respeito de
dependência e independência linear. Esses conceitos foram defi­
nidos para conjuntos de vetores. É útil defini-los para seqüências
finitas ·(n-uplas ordenadas) de vetores: a1, ... , ªn· Dizemos que os
vetores a,, , a,. são linearmente dependentes se existir�m esca­
. . _.

lares cl'. . ., cn, não todos nulos, tais que c1a1 + ... .+ cnan =O. Isso
tudo é tão natural que o leitor talvez descubra já ter usado esta
terminologia. Qual é a diferença entre uma seqüência finita
al' . ..,a.. e um conjunto {al' ...,a..}? Existem duas diferenças,
identidade e ordem.
Ao discutirmos o conjunto {a1, ,a,.} normalmente admi­
• • .

timos que os vetores a1, ... , a.. sejam distintos dois a dois. Em
uma seqüência al' ... ,a.. todos os a; podem �er o m�smo_ vetor.
Se ai = ai para algum i i=], então a seqüência a1, ... ,a.. é linear­
mente dependente:

ai. + ( - 1) a.J = O.
Assim, se al' . . . , ª" forem linearmente ind�pel!dentes_,_ele� são dis_ �
tintos e podemos falar a respeito do conjunto {ai> . :. ; ·an} e saber
que ele possui n vetores. Logo é claro que não surgirá nenhuma
confusão ao discutirmos bases e dimensão. A dimensão de um
espaço V de dimensão finita é o maior n tal que alguma n-upla de
vetores em V seja linearmente independente - e :issim por diante.
60 - ALGEBRA LINEAR

O leitor que achar que esse parágrafo faz muito alarde a respeito
de nada, poderá perguntar· a si mesmo se os vetores

ª1 = (e"12, 1)
ª2 =
(Jfiü, 1)
'são linearmente independentes em R 2•
Os elementos de uma seqüência são enumerados em uma
ordem específica. Um conjunto é uma coleção de objetos sem
nenhum arranjo especial ou ordem. Naturalmente, para descre­
vermos o conjunto podemos enumerar seus elementos e isso requoc
a escolha de uma ordem. Mas, a ordem não faz parte do conjunto.
Os conjuntos {1, 2, 3, 4} e {4, 3, 2, 1} são idênticos, enquanto que
a seqüência 1, 2, 3, 4 é bem diferente da seqüência 4, 3, 2, 1. O
aspecto de ordem da seqüência não tem efeito sobre questões de
independência, dependência �te., porque dependência (como defi­
nida) não é afetada pela ordem. A seqüência ª"' ... , a 1 é dependente

se, e somente se, a seqüência a1, ... , a é dependente. Na. próxima


11
seção, a ordem será importante.

Exercícios

1. Demonstrar que, se dois vetores são linearmente dependentes, um deles é


um múltiplo escalar do outro.
2. Os vetores

a:. = (1, 1, 2, 4) (X2 = (2, - 1, - 5, 2)


a:3 = (1, -1, -4, O) IX4 = (2, 1, 1, 6)

são linearmente independentes em R4?

3. Determinar uma base do subespaço de R4 gerado pelos quatro vetores do


Exercício 2.

4. Mostrar que os vetores

a:1 = (1, O, - 1), (X2 = (1, 2, 1), a: = (O, -3, 2)


3

formam uma base de R3. Exprimir cada um dos vetores da base canônica
como combinações lineares de à1, a2' a3•

5. Determinar três vetores em R3 que sejam linearmente dependentes e tais que


dois quaisquer deles sejam linearmente independentes.
ESPAÇOS VETORIAIS - 61

6. Seja V o espaço vetorial das 2 x 2 matrizes sobre o corpo F. Demonstrar


que V tem dimensão 4 exibindo uma base de V que tenha 4 elementos.
7. Seja V o espaço vetorial do Exercício 6. Seja W,. o conjunto das matrizes da
forma

e seja W2 o conjunto das matrizes da forma

(a) Demonstrar que )11.1 e 11-2 são subespaços de V.


(b) Determinar as dimensões de W1, W2, W1 + W2 e W1 n W2.
8. Novamente, seja V o espaço das 2 x 2 matrizes sobre F. Determinar uma
base {A1, A2, A3, A4} de V tal que Aj Aj para cada j. =

9. Seja V um espaço vetorial sobre um subcorpo F dó corpo dos números com­


plexos. Suponhamos que ()(, f1 e y sejam vetores de V linearmente independentes.
Demonstrar que ( ()( + {1), ({1 + y) e (y + ()() são linearmente independentes.
10. Seja V um espaço vetorial sobre o corpo F. Suponhamos que exista um nú­
mero finito de vetores ()(" ..., ()(, de V que gerem V. Demonstrar que V é de
dimensão finita.
11. Seja V o conjunto das 2 x 2 matrizes A com elementos complexos satisfazendo
Au + A22 =
O .

(a) Mostrar que V é um espaço vetorial sobre o corpo dos números reais,
com as operações usuais de adição de matrizes e multiplicação de uma matriz
por um escalar.
(b) Determinar uma base desse espaço vetorial.
(c) Seja )li. o conjunto de todas as matrizes A em V tais que A21 -A12 =

(a barra indica conjugação complexa). Demonstrar que W é um subespaço de


V e determinar uma base de W.
12. Demonstrar que o espaço das m x n matrizes sobre o corpo F tem dimensão
mn, exibindo uma base para este espaço.
13. Discutir o Exercício 9, para o caso em que V é um espaço vetorial sobre
o corpo formado por dois elementos descritos no Exercício 5, Seção 1.1.
14. Seja V o conjunto dos números reais. Consideremos V como um espaço
vetorial sobre o corpo dos números racionais, com as operações usuais.
Demonstrar que este espaço vetorial não é de dimensão finita.

2.4 Coordenadas
Uma das características úteis de uma base rJ6 de um espaço
n-dimensional V é essencialmente que ela nos permite introduzir
coordenadas em V análogas às "coordenadas naturais" xi de um
vetor r:t. = (x1, ... , xn) do espaço F". Deste modo, as coordenadas
de um vetor r:t. de V em relação à base rJ6 serão os escalares que
62 - ALGEBRA LINEAR

servem para exprimir rx como uma combinação linear dos vetores


da base. Assim, gostaríamos de considerar as coordenadas natu­
rais de um vetor rx de pn como sendo definidas por rx e pela base
canônica de F"; contudo, ao adotarmos este ponto de vista preci­
samos ter um certo cuidado. Se

e f!J é a base canônica de F", como são as coordenadas de rx deter­


minadas por f!J e rx? Uma maneira de formular a resposta é esta:
Um dado vetor rx é expresso de maneira única como uma combi­
nação linear dos vetores da base canônica, e a i-ésima coordenada
xi de rx é o coeficiente de ei nesta expressão. Sob este ponto de
vista podemos dizer qual é a i-ésima coordenada, pois temos uma
ordenação "natural" dos vetores da base canônica, isto é, temos
uma regra para determinar qual é o "primeiro" vetor da base, qual
é o "segundo" e assim por diante. Se f!J é uma base arbitrária do
espaço n-dimensional V, não teremos provavelmente nenhuma orde­
nação natural para os· vetores de f!J e será portanto necessário im­
pormos uma certa ordem sobre esses vetores antes de podermos
definir "a i-ésima coordenada de rx em relação a f!J". Em outras
palavras, coordenadas são definidas relativamente a seqüências de
vetores e. não em relação a conjuntos de vetores.

Definição.Se Vé um espaço vetorial de dimensão finita, uma


base ordenada de V é uma seqüência finita de vetores linearmente
independentes, que gera V.
Se a seqüência rx1 , . . , . rxn é uma base ordenada de V, então
o conjunto { rx1' ... , rx } é uma base de V. A base ordenada é o
n
conjunto, juntamente com uma ordem especificada. Vamos nos
permitir um ligeiro abuso de notação e descrever tudo isto di­
zendo que

é uma base ordenada de V.


Suponhamos agora que V seja um espaço vetorial de dimensão
finita sobre o corpo F e que
ESPAÇOS VETORIAIS - 63

seja uma base ordenada de V. Dado a. em V, existe uma Única


n-upla (x1, • • • , xn) de escalares tal que

a. = I xia.i.
i= 1

A n-upla é única, pois, se tivéssemos

a. = I zia.i
i= 1
então
n

L (xi - z) a.i = O
i= 1
e a independência linear dos a.i nos diria que xi-zi =O para cada i.
Denominaremos xi a i-ésima coordenada de a. em relação à base
ordenada

Se

/3 = L Yiªi
i= 1
então

a. + /3 = L (xi + Y) a.i
i=l

de modo que a i-ésima coordenada de (a.+ /3) em relação a esta


base ordenada é (xi + yJ Analogamente, a i�ésima coordenada de
(ca.) é cxi. Devemos também notar que toda n-upla (xl' . . , xn)
.

de F" é a n-upla de coordenadas de algum vetor de V, a saber,


o vetor

Resumindo, cada base ordenada de V determina uma corres­


pondência, bijetora
64 - ÁLGEBRA LINEAR

entre o conjunto dos vetores de V e o conjunto das n-uplas de F".


Esta correspondência tem a propriedade de que o correspondente
de (a+ /J) é a soma em F" dos correspondentes de a e p, e que
o correspondente de (ca) é o produto em F" do escalar e pelo
correspondente de a.
Poder-se-ia perguntar neste ponto por que não tomar simples­
mente uma base ordenada de V e descrever cada vetor de V por sua
correspondente n-upla de coordenadas, visto que teríamos então a
conveniência de operar apenas com n-uplas. Isto faria malograr
nosso objetivo, por duas razões. Primeiro, como indica a nossa
definição axiomática de espaço vetorial, estamos tentando aprender
a raciocinar com espaços vetoriais como sistemas algébricos abstra­
tos. Segundo, mesmo nos casos em que usamos coordenadas, os
resultados importantes decorrem de nossa habilidade de mudar o
sistema de coordenadas, isto é, mudar a base ordenada._
Freqüentemente o mais conveniente será usar a matriz das
coordenadas de rx em relação à base ordenada 11:

em vez da n-upla (x1, ..., x.) das coordenadas. Para indicar que
esta matriz de coordenadas depende da base, usaremos o símbolo

[a]"
para a matriz das coordenadas do vetor a em relação à base orde­
nada f!J. Esta notação será particularmente útil ao passarmos
agora a descrever o que acontece com as coordenadas de um vetor
a quando passamos de uma base ordenada a outra.
Suponhamos então que V seja n-dimensional e que

sejam duas bases ordenadas de V. Existem escalares Pii' bem deter­


minados, tais que
n

(2-13) aj = L P;pp 1 :::;; j :::;; n.


i= 1
ESPAÇOS VETORIAIS - 65

Sejam x'1, ..., x� as coordenadas de um dado vetor a em relação à


base ordenada !!4'. Então

n n

= L xj L P;p;
j=l i=l

n n

= L L (P,ixj) ai
j=l i=l

Portanto, obtemos a relação

(2-14)

Como as coordenadas x 1, x2, ..., x" de a em relação à base orde­


nada f!4 são determinadas de modo único, decorre de (2-14) que

(2-15) xi= L P,ixj, 1 :::;; i :::;; n.


j= 1

Seja P a n x n matriz cujo elemento 1, J e o escalar Pii e sejam X


e X' as matrizes das coordenadas do vetor a em relação às bases
ordenadas PJ e !!4'. Podemos então reformular (2-15) como

(2-16) X=PX'.

Como f!4 e PJ' são conjuntos linearmente independentes, X=O se,


e somente se, X'=O. Assim, de (2-16) e do Teorema 7 do Capí­
tulo 1, decorre que P é inversível. Logo,

(2-17) X'= P 1X.


66 -'-- ÁLGEBRA LINEAR

Se usarmos a potação acima introduzida para a matriz das coorde­


nadas de um vetor em relação a uma base ordenada, então (2-16)
e (2-17) afirmam que

[ oc] � = P[ct] 8fJ'


e

Portanto, a discussão precedente pode ser resumida como segue.

Teorema 7. Seja V um espaço vetorial n-dimensional sobre o


corpo F e sejam 8fJ e 8fJ' duas bases ordenadas de V. Então existe
uma única n x n matriz P, necessariamente inversível, com elementos.
em F, tal que

(i) [oc] � = P[ct}8fJ'


(ii) [ct] gfJ' = p- 1 [()(] gfJ

para todo vetor ct em V. As colunas de P são dadas por

j = 1, ... , n.

Para completar a análise acima demonstraremos também o


resultado que segue.

Teorema 8. Suponhamos que P seja uma n x n matriz inver­


-
sível sobre F . Seja V um espaço vetorial o-dimensional sobre F e seja
8fJ uma base ordenada de V. Então, existe uma única base ordenadã
8fJ' de V tal que

(i) [ct] 8fJ = P[aJ 8fJ1


(ii) [oc]8fJ'= p-i [oc]I�

para todo vetor a em V.

Demonstração. Seja 8fJ constituída pelos vetores oc1, ... , ocn. Se


8fJ' = { oc�, ... , oc�} é uma base ordenada de V para a qual (i) é
válida, é claro que

ª� = I 1pijª;·
i= 1
ESPAÇOS VETORIAIS - 67

Assim, basta-nos mostrar que os vetores a'j' definidos por estas


equações, formam uma base. Seja Q = p- 1. Então

L Qjk(J.J =
L Qjk L Pipi
j j

=II Pijºjk ai
j i

Portanto, o subespaço gerado pelo conjunto

contém f!l, logo é igual a V. Assim, f!l' é uma base e, de sua defi­
nição e do Teorema 7, é evidente que (i) é válida, logo (ii) também o é.

Exemplo 18. Seja F um corpo e seja

um vetor de P. Se f!l é a base ordenada canônica de Fn,

a matriz das coordenadas do vetor a em relaÇão à base f!l é dada por

[a]ii

Exemplo 19. Seja R o corpo dos números reais e seja () um


número real fixo. A matriz

p =
[ cos ()
sen ()
- sen ()
cos ()
]
68 - ÁLGEBRA LINEAR

é inversível e sua inversa é

p- 1 = [ cos
- sen
8
8
sen
cos
8
8
] .

Portanto, para cada 8, o conjunto f!6' constituído pelos vetores


(cos 8, sen 8), ( - sen 8, cos 8) é uma base de R2. intuitivamente
esta base pode ser descrita como sendo a base obtida pela rotação
a
de um ângulo 8 da base canônica. Se é o vetor (x1, x2), então

[a]@= [. cos
- sen
8
8
sen
cos
8
8
] [x2x1]
ou

x� x1 cos 8 + x2 sen ()
+ x2 COS 8.
=

X� = - X1 sen 8

Exemplo 20. Seja F um subcorpo do corpo dos números com­


plexos. A matriz

[-1 4


2
p = o

é inversível e sua inversa é


-�]
p -1 =
[-1� ','l 2
1.
2 l
16 .

8
1
o

Portanto, os vetores
=
(I(� (-1, o, O)
=
(I(� ( 4, 2, O)
5,
=
(I(� ( -3, 8)

formam uma base f!6' de F3• As coordenadas x�, x�, x� do vetor


a=
(x1, x2, x3) em relação à base f!6' são dadas por
ESPAÇOS VETORIAIS - 69

Em particular,

(3, 2, -8)

Exercidos

1. Mostrar que os vetores

a1 = (1, 1, O, O), a2 = (O, O, 1, 1)


a3 = (1, O, O, 4), a4 = (O, O, O, 2)

formam uma base de R4. Determinar as coordenadas de cada um dos vetores


da base canônica em relação à base ordenada {ex1, ex2, a3, a4}.
2. Determinar à matriz das coordenadas do vetor (1, O, 1) em relação à base
3
de C .constituída pelos vetores (2i, 1, O), (2, -1, 1), (O, 1 + i, - i), nesta ordem.
3. Seja íJI {exl' ex2, ex3} a base ordenada de R3 constituída por
=

a1 = (1, O, -1), ex2 ,,,;, (1, 1, 1), ex3 = (1, O, O).

Quais são as coordenadas do vetor (a, b, e) em relação à base ordenada f!lJ?


4. Seja W o subespaço de C3 gerado por ex1 (1, O, i) e a2 = (1 + i, 1, -1).
=

(a) Mostrar que a, e a2 formam uma base de W.


(b) Mostrar que os vetores /31 (1. 1. O) e /31 (1, i, 1 + i) estão em W e
= =

formam outra base de W.


(c) Quais são as coordenadas de ex1 e a2 em relação à base ordenada
{P 1, /32} de W?
5. Sejam ex = (x 1, x2) e /3 (y 1' y2) vetores de R2 tais que
=

x/ y/ + y/ 1.
x/ + = =

2
Demonstrar que f!J {ex. p} é uma base de R . Determinar as coordenadas do
=

vetor (a, b) em relação à base ordenada f!J {rx, f3}. (As condições sobre ex
=

e p dizem, geometricamente, que a e f3 são perpendiculares e cada um tem


comprimento 1.)
6. Seja V o espaço vetorial sobre o corpo dos números complexos das funções
de R em C, isto é, o espaço das funções definidas sobre a reta real e tomando
valores complexos. Sejam f1(x) 1, f2(x) eix, f3(x) =e-'·'.
= =

(a) Demonstrar que f1, f2 e f3 são linearmente independentes.


(b) Sejam g1(x) = 1, g2(x) cos x, g3(x) sen x. Determinar uma 3 x 3 ma­
= =

triz P inversível tal que


3
gj L P ,J,. =

i=l

7. Seja V o espaço vetorial (real) das funções polinomiais de R em R de grau


menor ou igual a 2, isto é, o espaço das funções f da forma
f(x) = Co + C1X + C2X2.
70 .:__ ÁLGEBRA LINEAR

Seja t um número real fixo e definamos

g1(x) = 1, g2(x) = x + t, g3(x) = (x + t)2.

Demonstrar que tJI = {gl' g,, g3} é uma base de V. Se

quais são as coordenadas de f em relação a esta base ordenada fJ4?

2.5 Resumo de Linha-equivalência


Nesta seção utilizaremos alguns fatos elementares sobre bases
e dimensão de espaços vetoriais de dimensão finita para completar
nossa discussão de linha-equivalência de matrizes. Lembramos que
se A é uma m x n matriz sobre o corpo F, os vetores-linhas de A
são os vetores al' ... , am em F" definidos por

e que o espaço-linha de A é o subespaço de F" gerado por estes


vetores . O posto-linha de A é a dimensão do espaço-linha de A.
Se P é uma k x m matriz sobre F, então o produto B = PA
é uma k x m matriz cujos vetores-linhas /31, . . • , f3k são combina­
ções lineares

dos vetores-linhas de A. Portanto, o espaço-linha de B é um subes­


paço do espaço-linha de A. Se P é uma m x m matriz inversível,
então B é linha-equivalente a A de modo que a simetria da linha­
equivalência, ou a equação A= P 1 B, implica que o espaço-linha
de A também é um subespaço do espaço-linha de B.

Teorema 9. Matrizes linha-equivalentes possuem o mesmo es­


paço-linha.
Vemos assim que para estudar o espaço-linha de A podemos
estudar o espaço-linha de uma matriz linha-reduzida à forma em
escada que seja linha-equivalente a A. É o que passamos a fazer.

Teorema 10. Seja R uma matriz não-nula linha-reduzida à forma


em escada. Então os vetores-linhas não-nulos de R formam uma base
do espaço-linha de R.
ESPAÇOS VETORIAIS - 71

Demonstração. Sejam p 1, • • • , P, os vetores-linhas não-nulos


de R:

Esses vetores certamente geram o espaço-linha de R; precisamos


apenas demonstrar que eles são linearmente independentes. Como
R é uma matriz linha-reduzida à forma em escada, existem inteiros
positivos kl' .... , k, tais que, para i :s; r, tem-se

(a) R(i,j) = O, se j < k;


(2-18) (b) R(i, k) = ôii
( c) k; < ... < k,.

Suponhamos que fJ = (b 1, ... , bn) seja um vetor do espaço-linha


de R:

(2-19)

Afirmamos então que c = bk


i F De fato, por (2-18)

(2-20) bkj = L C;R(i,k)


i= 1

= :L cJ5ij
i= 1

Em particular, se fJ =O, isto é, se c1p1 + .. . + c,p, =O, então ci é


necessariamente a k./.-ésima coordenada do vetor nulo, de modo
qtie ci =O para j = 1, ... , r. Assim, p1, ... , p, são linearmente inde-
pendentes.

Teorema 11. Sejam m e n inteiros positivos e seja F um corpo.


Suponhamos que W seja um subespaço de F° e que dim W :s; m.
Então, existe exatamente uma m x n matriz sobre F, linha-reduzida
à forma em escada, cujo espaço-linha é W.
Demonstração. Existe pelo menos uma m x n matriz linha-redu­
zida à forma em escada cujo espaço-linha é W. Como dim W :s; m,
podemos tomar m vetores IX '
l
. , IXm em W que geram W. Seja A
• •

a m x n matriz com vetores-linhas IX1, , IX m e seja R uma matriz


• • •
72 ALGEBRA LINEAR
/
-

linha-reduzida à forma em escada e linha-equivalente a A. Então,


o espaço-linha de R é W
Seja agora R uma matriz arbitrária, linha-reduzida à forma
em escada e com espaço-linha W Sejam p1, ... , p, vetores-linha,
não nulos, de R e suponhamos que o primeiro elemento não nulo
de P; esteja na coluna k;, i = 1, . . ., r. Os vetores pl' . .. , P, formam
uma base W. Na demonstração do Teorema 10 observamos que
se f3 = (bl' .. , bn)
. estiver em W, então

e ci = bki; em outras palavras, a única expressão de f3 como uma


combinação linear de pl' ... , p, é

(2-21) f3 = L: bkipi.
i= 1
Assim, todo vetor f3 está determinado se se conhecem as coorde­
nadas bki' i = 1, . . . , r. Por exemplo, Ps é o único vetor em W cuja
k-ésima coordenada é 1 e cuja ki-ésima é O para i =F s.
Suponhamos que f3 esteja em W e f3 =F O. Afirmamos que a
primeira coordenada não-nula de f3 ocorre em uma das colunas k•.
Como
r

f3 L: bkpi
i 1
=

e f3 =F O, podemos escrever

(2-22) f3 = L:s bk;P;, bks =F O.


j=

Das condições (2-18) tem-se que Rii =O se i > s e j:::::; k •. Portanto,

e a primeira coordenada não�nula de f3 ocorre na coluna k.. Note­


mos também que para cada k., s = 1, ..., r, existe um vetor em
W cuja primeira coordenada não-nula ocorre na coluna k., a saber,
o vetor Ps·
Está claro agora que R é determinada de modo único por W.
ESPAÇOS VETORIAIS - 73

A descrição de R em termos de W será feita como segue. Consi­


deremos todos os vetores f3 = (b1, • • • , bn) em W. Se f3 =I= O, então
a primeira coordenada não-nula de f3 deve ocorrer em uma certa
coluna t:

f3 = (O, ... , O, bt, ... , bn),

Sejam k1, • . . , k, os inteiros positivos t tais que exista algum f3 =I= O


em W, cuja primeira coordenada não-nula ocorra na coluna t.
Coloquemos os kl' ... , k, na ordem k1 < k2 < ... < k,. Para cada
inteiro positivo k. existirá um, e somente um, vetor Ps em W tal que
a k5-ésima coordenada de Ps seja 1 e a k(ésima coordenada de Ps
seja O para i =I= s. Então, R é a m x n matriz cujos vetores-linhas
são p 1, • • • , p,, O, . . , O.
.

Corolário. Cada m x n matriz A é linha-equivalente a exata­


mente uma matriz linha-reduzida à forma em escada.
Demonstração. Sabemos que A é linha�equivalente a pelo
menos uma matriz R linha-reduzida à forma em escada. Se A é
linha-equivalente a uma outra tal matriz R', então R é linha-equi­
valente a R'; logo, R e R' possuem o mesmo espaço-linha e são
necessariamente idênticas.

Corolário. Sejam A e B m x n matrizes sobre o corpo F: Então


A e B são linha-equivalentes se, e somente se, possuem o mesmo
espaço-linha.
Demonstração. Sabemos que se A e B são linha-equivalentes,
então possuem o mesmo espaço-linha. S:uponhamos então que A
e B possuam o mesmo espaço-linha. Ora, A é linha-equivalente
a uma matriz R linha-reduzida à forma em escada e B é linha-equi­
valente a uma matriz R' linha-reduzida à forma em escada. Conio
A e B têm o mesmo espaço-linha, R e R' têm o mesmo espaço-linha.
Portanto, R = R' e A é linha-equivalente a B.
Resumindo - se A e B são m x n matrizes sobre o corpo F,
as seguintes afirmações são equivalentes:
1. A e B são linha-equivalentes.

2. A e B possuem o mesmo espaço-linha.


3. B = PA, sendo P uma m x m matriz inversível.
Uma quarta afirmação equivalente é que os sistemas homo­
gêneos AX =O e BX =O têm as mesmas soluções; contudo, apesar
74 - ÁLGEBRA LINEAR

de sabermos que a linha-equivalência de A e B implica que esses


sistemas têm as mesmas soluções, parece melhor deixar a demons­
tração da recíproca para mais tarde.

2.6 Cálculos Concernentes a Subespaços


Gostaríamos agora de mostrar como as operações elementares
fornecem um método padronizado de responder a certas perguntas
concretas concernentes a subespaços de F". Já deduzimos os fatos
de que precisaremos. Eles são aqui reunidos para conveniência do
leitor. A discussão aplica-se a qualquer espaço vetorial n-dimen­
sional sobre o corpo F se se toma uma base ordenada f!4, fixa, e se
descreve cada vetor de V pela n-upla (x1, ,x que dá as coorde­
a . • •
n)
nadas de a em relação à base ordenada :11.
Suponhamos que nos sejam dados m vetores al' ... , am em
F". Consideremos as seguintes perguntas:
1. Como se pode saber se os vetores al' ... , am são linear­
mente dependentes? De maneira mais geral, como se determina a
dimensão do subespaço W gerado por estes vetores?
2. Dado f3 em F", como se pode saber se f3 é uma combinação
'
linear de al' ... , am, isto é, se f3 está no subespaço W ?

3. Como se pode fazer uma descrição explícita do subes­


paço W?
A terceira pergunta é um tanto vaga, pois não especifica o que
se quer dizer com uma "descrição explícita"; no entanto, esclare­
ceremos este ponto fazendo o tipo de descrição que temos em
mente. Com esta descrição, as perguntas (1) e (2) podem ser respon­
didas imediatamente.
Seja A· a m x n matriz com vetores-linhas a;:

ª
;
= (A;p ... 'A;J
Efetuemos uma seqüência de operações elementares sobre linhas,
começando com A e terminando com uma matriz R linha-reduzida
à forma em escada. Já explicamos anteriormente como fazer isto.
Neste ponto, a dimensão de W (o espaço-linha de A) é evidente,
pois esta dimensão é simplesmente o número de vetores-linhas
não-nulos de R. Se p1, ... , p, são os vetores-linhas não-nulos de R,
então :11 = {pl' ..
. , p,} é uma base de W. Se a primeira coorde­
nada não-nula de P; é ª·· krésima, então temos, para i::;; r,

(a) R(i,j) =O, se j < k;


ESPAÇOS VETORIAIS - 75

(b) R(i, k) =
ôii
(c) kl < ... < k,.

O subespaço W consiste de todos os vetores

= L cJRil' ... , Rin).


i= 1

As coordenadas bl' ... , bn de um tal vetor f3 são então

(2-23) bi = L c;R;r
i= 1

Em particular, bki = ci, e, se f3 = (b 1,


, b") é uma combinação
. • .

linear dos P;, então tem de ser a particular combinação linear

(2-24) f3 =
t
i= 1
bk;P;·

As condições sobre f3 para que (2-24) valha são:

(2-25) bj = I bkjRij' j = 1, . . . , n.
i= 1

Ora, (2-25) é a descrição explícita do subespaço W gerado por


a1, ... , °'m' isto é, o subespaço consiste dos. vetores f3 em F" cujas
coordenadas satisfazem (2-25). Que tipo de descrição é (2-25)?
Em primeiro lugar, ela descreve W como o conjunto das soluções
f3 (b 1,
= , b") do sistema (2-25) de equações lineares homogêneas.
. . •

Este sistema de equações é de uma natureza muito particular, pois


(n - r) das coordenadas como combinações lineares das r coorde­
nadas distinguidas bk,, ... , bk, Tem-se completa liberdade de es­
colha das coordenadas bk;• isto é, se cl' .. , e, são r escalares arbi­ .

trários, existe um e somente um vetor f3 em W cuja k;-ésima coor­


denada é e;.
O pohto importante aqui é o seguinte: Dados os vetores
°';•a linha-redução é uin método direto de determinar os inteiros
r, k1, , k, e os escalares Rii que dão a descrição (2-25) do subes­
• . .

paço gerado por ocl' , ocm. Deve-se observar, como no Teore-


. . .
76 - ALGEBRA LINEAR

ma 11, que todo subespaço W de pn possui uma descrição do


tipo (2-25). Devemos destacar também algumas coisas sobre a per­
gunta (2). Já mostramos na seção 1.4 como se pode encontrar uma
m x rn matriz inversível P tal que R = P A . O conhecimento de P

nos permite d�terminar os escalares x1' ... , xm tais que

quando isto é possível. Como os vetores-linhas de R são dados por

m
Pi= Il Pipj
j=

temos que se /3 é uma combinação linear dos ªi' então

/3 = I bkpi
i=1

e portanto
r

xj I bklij
i= 1
=

é uma escolha possível para os xi (podem existir muitas).


O problema de saber se f3 = (bl' ... , bn) é uma combinação.
linear dos ai' e, em caso afirmativo, quais são os escalares x;, pode
também -ser considerado perguntando-se se o sistema de equações

m
I Aijxi bi, j = 1, ... , n
i= 1
=

admite soluções e quais são elas. A matriz dos coeficientes deste


sistema de equações é a n x m matriz B com vetores-colunas
a1' ... , am. No Capítulo 1 discutimos o uso de operações elemen­
tares sobre linhas na resolução de um sistema de equações BX = Y.
Consideremos um exemplo no qual adotamos este último ponto
de vista ao respondermos a perguntas sobre subespaços de F".
ESPAÇOS VETORIAIS - 77

Exemplo 21. Proponhamos o seguinte problema: seja W o


subespaço de R4 gerado pelos vetores

Ct1 = (1, 2, 2, 1)
et2 = (O, 2, O, 1)
et3 = (-2, O, -4, 3).

(a) Demonstrar que etl' et2' et3 formam uma base de W, isto é,
que estes vetores são linearmente independentes.
(b) Seja /3 (bl' b2, b3, h_.) um vetor em W. Quais são as coor­
=

denadas de /3 em relação à base ordenada {etp et2, et3}?


(c) Sejam

et'1 = (1, O, 2, O)
et� = (O, 2, O, 1)
et� = (O, O, O, 3).

Mostrar que et'1, et�, et� fo,rmam uma base de W.


(d) Se f3 está em W, indiquemos por X a matriz das coorde­
nadas de f3 em relação à base dos et e por X' a matriz das coor­
denadas de f3 em relação à base dos et'. Determinar a 3 x 3 matriz
P ta) que X= P X' para todo f3 em W.
Para responder a estas questões usando o primeiro método,
formamos a matriz A com vetores-linha et1, Ctv et3, determinamos
a matriz R, linha-reduzida à forma em escada e equivalente a A
e, simultaneamente, efetuamos as mesmas operações na matriz uni­

íl � º]
dade para obter a matriz inversível Q tal que R= QA:

2 o 2

[j
2 1
2 o 1 ->R= O 1 o o
o -4 3 o o o 1

[� �J H -n
o -6
1 5
o
� º �� -4

. (a) É claro que R possui posto 3 e portanto etl' et2 e et3 são
mdependentes. .
(b) Quais vetores /3 (bp b2, b3, b4) estão em W? Temos a
=

base de W formada pelos vetores-linha de R, p1, p2, p3. Podemos


78 - ALGEBRA LINEAR

ver imediatamente que o espaço gerado por p1 , p2' p3 é formado


pelos vetores P para os quais b3= 2b1 . Para um tal p temos

p = b1 P1 + h2P2 + b4p4
= [b1 ,b2 , b4] R
= [b1, b2' b4] QA
= X11X1 + X21X2 + X31X3
onde X;= [bl' b2' b4] Q;:
X1 = b1 - tb2 + �b4
(2-26)
X 2 = -bl + %b2 - �b4
X3 = - ib2 + tb4
(c) Os vetores IX'p IX�, IX� são todos da forma (ypy2, y3, y 4)
com h= 2y1 e, portanto, estão em W. Pode-se ver facilmente que
eles são independentes.
(d) A matriz P tem para colunas

p. = [IX'.]
J J �

onde f!,I = {1X1, 1X2, 1X3}. As equações (2-26) nos dizem como deter­
minar as matrizes das coordenadas de IX'P IX�, IX�. Por exemplo
com P=IX� temos b1 = 1, b2 =O, b3=2, b4 O e =

X1 = 1 - t(O) + �(O) 1 =

X2 = -1 + %(0) - �(0) = -1
X3 = - i(O) + t(O) = o.

Assim, IX'1 =IX1 - IX2. Analogamente, obtemos IX�=IX2 e IX�=21X1 -

[
- 21X2 + IX3. Logo
1 o
p= -1 1
o o

Vejamos, agora, como responderíamos às questões usando o


segundo método. Formemos a 4 x 3 matriz B com vetores-colunas
1Xp1X2,1X3:

-�].
-4
3
ESPAÇOS VETORIAIS - 79

Perguntamos para quais y1, y2, y3, y4 o sistema BX = Y admite


solução.

-2 -2

l [� J fr,]
Y

[�
o o
2 o Y2 -+
2 4 Y2- 2y1 -+
o -4 Y3 o o Y3 - 2y 1
1 Y4, 1 5 Y 4-
y, Y1

l[
Y; - tY, +

[�
o -2 3 o o
o -6 Y2-, 2y4 O o 1 6(2y4- Y2)
-+
5 2
1 5 Y4 - Y1 O 1 o - 1+6Y2-3Y4
y
o o Y3- 2y1 O o o Y3- 2y1

Portanto, a condição para que o sistema BX = Y admita uma


solução é y3 2y1• Então, /3 (bl' b2, b3, b4) está em W se, e
= =

somente se, b3 2b1. Se f3 está em W, então as coordenadas


=

(xl' x2, x3, x4) na base ordenada {a:l' a:2, a:3} podem ser obtidas da
última matriz acima. Para essas coordenadas, obtemos novamente
as fórmulas (2-26).
As questões (c) e (d) permanecem com a resolução anterior .

Exemplo 22. Consideremos a 5 x 5 matriz

º]
-1 -1 o
1 4
3 o
1 10 1
o o .1

e os seguintes problemas a respeito de A.


(a) Determinar uma matriz inversível P tal que PA seja uma
matriz R, linha-reduzida à forma em escada.
(b) Determinar uma base para o espaço-linha W de A.
(c) (bl' b2, b3, b4, b5) estão em W.
Dizer quais vetores
(d) Na base escolhida em(b), determinar a matriz das coorde­
nadas de cada vetor (bl' b2, b3, b4, b5) de W.
(e) Escrever cada vetor (bl' b2 , b3, b4, b5) de W como com­
binação linear das linhas de A.
( f) Descrever explicitamente o espaço vetorial V das 5 x 1
matrizes-coluna X tais que AX = O.
80 - ALGEBRA LINEAR

(g) Determinar uma base de V.


(h) Para quais 5 x 1 matrizes-coluna Y a equação AX = Y
possui soluções X?

"] [
Para resolver estes problemas, formamos a matriz completa
A' do sistema AX Y e aplicamos uma seqüência apropriada de
=

operações sobre as linhas de A':

r l
2 o 3 o 1 2 o 3 o y
2 -1 -1 O y2 O O -1 -4 o -y1 ,+ Y2
o o 1 4 O y3 - O O 1 4 o Y3 -
2 4 1 10 1 y4 O O 1 4 1 -2y1 + Y4
o o o o 1 y5 O O o o 1 Ys

l
1 2 o 3 o Y
,
o o 1 4 o Y1 - Y2
o o o o o -y1 + Y2 + Y3. -
o o o o 1 -3y1 + Y2 + Y4
o o o o 1 Ys

[� l
2 o 3 o y
,
o 1 4 o Y1 - Y2

[
o o o 1 Ys
o o o o -Y1 + Y2 + Y3
o o o o -3y1 + Y2 + Y4 - Ys

(a) Se

l
Y
,
Y1 - Y2
py =
Ys
-y1 + Y2 + Y3
-3 y1 + Y2 +_y4 Ys '--

P�[ i
para todo Y, então

º]
o o o
�1 o o o
o o o 1
-1 1 1 o o
-3 1 o 1 ·-1
ESPAÇOS VETORIAIS - 81

logo PA é a matriz linha-reduzida à forma em escada

1 2 o 3 o
o o 1 4 o
R= o o o o 1
o o o o o
o o o o o

Deve ser ressaltado que a matriz P não é única. Existem, de fato,


muitas matrizes inversíveis P (que surgem das diferentes escolhas
das operações usadas para reduzir A') tais que PA = R.

(b) Como base de W podemos escolher as linhas não nulas

P1 = (1 2 O 3 O)
P2 =(O O 1 4 O)
P3=(O o o o 1)

de R.

(c) O espaço-linha W é constituído de todos os vetores da


forma

p= C1P1 + C2P2 + C3P3


= (cp 2c1' c2' 3c1 + 4c2, c3)

onde cl' c2' c3 são escalares arbitrários. Assim, (bp b2, b3, b4, b5)
está em W se, e somente se,

o que acontece se, e somente se,

b2= 2b1
b4 = 3b1 + 4b3.

Estas equações são exemplos do sistema geral (2-25) e nos permitem


dizer imediatamente se um dado vetor está em W. Assim, ( - 5, - 10,
1, - 11, 20) é uma combinação das linhas de A, o mesmo não acon­
tecendo com (1, 2, 3, 4, 5).
82 - ALGEBRA LINEAR

(d) A matriz das coordenadas do vetor (b1, 2b1' b3, 3b 1 +


+ 4b3, b 5 ) na base {p1, p2, p3} é, evidentemente,

(e) Existem vários modos de escrever os vetores de W como


combinações lineares das linhas de A. O método mais simples
talvez seja o de seguir o primeiro processo, indicado antes do
Exemplo 21:

!]
o o o
-1 o o
o o o A
1 1 o . .

1 o 1 -1

[
Em particular, com f3 = ( - 5, -10, 1, -11, 20), temos

-� -i �1
1 2
1 2
f3 = ( - 4, -1, o, o, 20) o o 1 4 o
2 4 1 10 1
o o o o 1

(f) As equações no sistema RX =O são

x1 + 2x2 + 3x4 =O
x; + 4x4 =O
X5 = O.

Assim, V é constituído de todas as colunas da forma


ESPAÇOS VETORIAIS - 83

onde x2 e x4 são arb itrários.

(g) As colunas

formam uma base de V. Este é um exemplo de uma base como a


descrita no Exemplo 15.

(h) A equação AX = Y tem soluções se, e somente se,

- Y1 + Y2 + Y3 = O

- 3y 1 + y2 + y4 - y 5 = o.

Exercícios

1. Seja s < n e A uma s x n matriz com elementos no corpo F. Usar o Teo­


rema 4 (não sua demonstração) para mostrar que existe um X, não nulo,
em F""', tal que AX=O.

2. Sejam

1X1 = (1, 1, -2, 1), 1X2 = (3, O, 4, -1), 1X3 = (-1, 2, 5, 2).

Sejam

()(= (4, -5, 9, - 7), p = (3, 1, -4, 4), y = (-1, 1, O, 1).

(a) Quais dos vetores ex, p, y estão no subespaço de R4 gerado pelos 1X,?
(b) Quais dos vetores 1X, p, y estão no subespaço de C4 gerado pelos 1X,?
(e) Isto sugere algum teorema?

3. Consideremos os vetores em R4 definidos por

1X1 = (-1, O, 1, 2), 1X2 = (3, 4, -2, 5), 1X3 = (1, 4, O, 9).
84 - ALGEBRA LINEAR

Determinar um sistema de equações lineares homogêneas para o qual o espaço


das soluções seja exatamente o subespaço de R4 gerado pelos três vetores dados.
4. Em C3 sejam

0.:1 = (1, O, -i), o.:2 = (1 + i, 1 - i, 1), o.:3 = (i, i, i).


Demonstrar que estes vetores formam uma base de C3. Quais são as coor­
denadas do vetor (a, b, e) em relação a esta base?
5. Fazer uma descrição explícita do tipo (2-25) para os vetores

em R5 que são combinações lineares dos vetores

<X1 = (1, o, 2, 1, -1), IX2 = ( - 1, 2, - 4, 2, O),

IX3 = (2, -1, 5, 2, 1), e IX4 = (2, 1, 3, 5, 2).

-
6. Seja V o espaço vetorial real gerado pelas linhas da matriz

["'
o

n
1 7 -1 -2
A
= 2 14 o 6
6 42 -1 13

(a) Determinar uma base de V.


(b) Dizer quais vetores ( x 1' x2, x3, x4, x5) são elementos de V.
(c) Se (xi' x2, x3, x4, x5 ) estiver em V,, quais serão as suas coordenadas em
relação à base escolhida na parte (a)?

7. Seja A uma m x n matriz sobre o corpo F e consideremos o sistema de equa­


ções AX = Y. Demonstrar que este sistema de equações admite uma solução
se, e somente se, o ·posto-linha de A é igual ao posto-linha da matriz com­
pleta do sistema.
Capítulo 3

TRANSFORMAÇÕES. LINEARES

;u Transformações Lineares

Introduziremos agora as transformações lineares, objetos que


estudaremos na maior parte do restante deste livro. O leitor po­
derá achar útil ler (ou reler) a discussão sobre funções no Apêndice,
visto que usaremos livremente a terminologia daquela discussão.

Definição. Sejam V e W espaços vetoriais sobre o corpo F.


Uma transformação linear de V em W é uma função T de V em W
ili/ Cflle

T(ca + /3) = c(Ta) + T/3

para todos a e f3 e m V e todos escalares c em F.

1. Se V é um espaço vetorial arbitrário, a transfor­


Exemplo
fa =IX, é uma transformação linear
mação idêntica 1, definida por
de V em V. A transformação nula O, definida por Oa O, é uma
·
=

transformação linear de V em V.

Exemplo 2. Seja F um corpo e seja V o espaço das funções


polinomiais f de F em F, dadas por

Seja

Então, D é uma transformação linear de V em V - a transfor­


mação derivação.
86 - ÁLGEBRA LINEAR

Exemplo 3. Seja A uma m x n matriz, fixa, com elementos


no corpo F. A função T
definida por T(X)=AX é uma transfor­
mação linear de F" x 1 em F m x 1. A função V definida por V (ex) cxA =

é uma transformação linear de Fm em F".

Exemplo 4. Seja P uma m x m matriz fixa com elementos no


corpo F e seja Q uma n x n matriz fixa sobre F. Definamos uma
função T do espaço Fm x" em si mesmo por 'I{A) =PAQ. Então
T é uma transformação linear de Fm X n em Fm X n' pois

'I{cA +B) = P(cA +B)Q


= (cPA +PB)Q
= cPAQ +PBQ
= cT(A) + T(B).

Exemplo 5. Seja R o corpo dos números reais e seja V o


espaço das funções de R em R que são contínuas. Definamos T por

(Tf) (x) = f: f (t) dt.

Então T é uma transformação linear de V em V. A função Tf ,


além de contínua, possui a primeira derivada contínua. A lineari­
dade da integração é uma de suas propriedades fundamentais.
O leitor não deverá encontrar nenhuma dificuldade para veri­
ficar que as transformações definidas nos Exemplos 1, 2, 3 e 5
são transformações lineares. Ampliaremos consideravelmente nossa
lista de exemplos à medida que aprendermos mais sobre transfor­
mações lineares.
É importante notar que se T é uma transformação linear de
V em W, então T(O) =O; pode-se ver isto a partir da definição, poi�

T(O) = T(O +O) = T(O) + T(O).

Este ponto freqüentemente causa confusão à pessoa que estuda


álgebra linear pela primeira vez, desde que ela provavelmente tomou
contato com uma utilização ·ligeiramente diferente do termo "fun­
ção linear". Um comentário .breve deverá eliminar a confusão.
Suponhamos que V seja o espaço vetorial R1. Uma transformação
linear de V em V é então um tipo especial de função com valores
reais definida sobre a reta real R. Num curso de cálculo, ter-se-ia
TRANSFORMAÇÔES LINEARES - 87

provavelmente a denominação linear para uma tal função se seu


1 1
gráfico fosse uma reta. Uma transformação linear de R em R ,
de acordo com nossa definição, será uma função de R em R, cujo
gráfico é uma reta que passa pela origem.
Além da propriedade T(O) =O, destaquemos outra proprie­
dade de uma transformação linear arbitrária T. Uma tal transfor­
mação "conserva" combinações lineares; isto é, se al' ... , an são
vetores em V e e
1, • . . , cn são escalares, então

Isto decorre imediatamente da definição. Por exemplo,

T(c1a1 + c2a2) = T(c1a1) + T(c2a2)


= c1(Ta1) + c2(Ta2).

Teorema 1. Seja V um espaço vetorial de dimensão finita sobre


o corpo F e seja { ex1, , ex,,} uma base ordenada de V. Seja W um
• • •

espaço vetorial sobre o mesmo corpo F e sejam {31, , Pn vetores .



.

arbitrários em W. Então, existe exatamente uma transfarmação


linear T de V em W tal que
Tai =
{Ji, j = 1, ... , n.

Demonstração. Para demonstrar que existe pelo menos uma


transformação linear T com Tai = {Ji procedemos como segue.
Dado a em V, existe uma única n-upla (xp ... , xn) tal que

Para este vetor a, definamos

Então, T é uma regra bem definida para se associar a cada vetor a


em V um vetor Ta em W. Pela definição, é evidente que Tai = {Ji
para todo j. Para ver que T é linear, seja

{3 =
Y1ª1 + · · · + Ynªn
em V e e um escalar arbitrário. Ora,
88 - ALGEBRA LINEAR

portanto, pela definição,

T(crx + /3) = (cx1+ y1)/31+ ...+(ex.+ Y.)f3•.

Por outro lado,

n n

c(Trx)+ T /3 = e L X;/3;+ L Y;/3;


i= 1 i= 1

L (ex; + Y)f3i
i= 1
e assim

T(crx+ /3) = c(Trx)+ Tf3.

Se U é uma transformação linear de V em W com Urxi = /3i,


n

j = 1, . . . , n, então, para o vetor rx = I xirxi' temos


i= 1

= I x;(Urx)
i= 1

de modo que Ué exatamente a regra T que definimos acima. Isto


mostra que a transformação linear T com Trxi = f3i é única.
O Teorema 1 é bastante elementar; no entanto, ele é tão
fundamental, que decidimos enunciá-lo formalmente. O conceito
de função é muito geral. Se V e W são espaços vetoriais (não nulos),
existe um grande número de funções de V em W. O Teorema 1
ajuda ressaltar o fato de que funções que sejam lineares são extre­
mamente especiais.

Exemplo 6. Os vetores

. rx1 = (1, 2)
e
rx2 = (3, 4)
TRANSFORMAÇÓES LINEARES - 89

são linearmente independentes e portanto constituem uma base


2
de R • De acordo com o Teorema 1, existe uma única transfor­
2
mação linear de R em R3 tal que

Tal = (3, 2, 1)
e

Tcx2 = (6, 5, 4)

Assim, devemos ser capazes de determinar T(e1). Determi­


namos escalares c1 e c2 tais que e1 c1cx1 + c2cx2 e sabemos que
=

Te1= c1 fo.1 + c2 Tcx2 • Se (1, O)= c1(1, 2) + c2(3, 4), então c1 = -2 e


c2= 1. Assim,

T(l, O)= -2(3, 2, 1) + (6, 5, 4)


= (O, 1, 2).

Exemplo 7. Seja T pm
uma transformação linear do espaço
das m-uplas no espaço F" das n-uplas. O Teorema 1 nos diz que T
é determinado de modo único pela seqüência de vetores /31' ..., /3 m,
onde

/3; = Te; i= 1, ..., m

Em suma, T é determinada de modo único pelas imagens dos ve­


tores da base canônica. A determinação é

(X = ( xl, ..., xm)


Tcx = X1/31 + . .. + xm/3m.

Se B for a m x n matriz com vetores-linha /31' ..., /3m isto significa


que

Tcx = cxB.

Em outras palavras, se /3;= (B;1, ..., B;n), então

Esta é uma descrição muita explícita da transformação linear. Na


Seção 3.4 faremos um estudo mais profundo da relação entre trans-
90 - ÁLGEBRA LINEAR

formações lineares e matrizes. Não prosseguiremos com a descrição


Ta =ap porque nela a matriz B está à direita do vetor a e isto
pode causar alguma confusão. O objetivo deste exemplo é mostrar
que podemos dar uma descrição explícita, e razoavelmente simples,
de todas as transformações lineares de pm em Fn.
Se T é uma transformação linear de V em W, a imagem de
T não é apenas um subconjunto de W; é um subespaço de W.
Seja RT a imagem de T, isto é, o conjunto de todos os vetores p
de W tais que P =Ta para algum a em V. Sejam p1 e p2 elementos
de RT e seja e um escalar. Existem vetores a1 e a2 em V tais que
T(a1 =P1 e Ta2 = P2• Sendo T linear

T(ca1 + a2) = cTa1 +Ta2


= cP1 + P2
o que mostra que cP1 + P2 também está em RT.
Um outro subespaço interessante, associado com a transfor­
mação linear T, é o conjunto N dos vetores a em V tais que
Ta =O. Este conjunto é um subespaço de V pois
(a) T(O) =O; de modo que N é não vazio;
(b) se Ta1 =Ta2 =O, então

T(ca1 + a2) = cT a1 + Ta2


= cO +O

de modo que c a1 + a2 está em N.

Definição. Sejam V e W espaços vetoriais sobre o corpo F e


seja T uma transformação linear de V em W. O núcleo (ou espaço
nulo) de T é o conjunto de todos os vetores a de V tais que Ta � O.
Se V é de dimensão finita, o posto de T é a dimensão da ima­
gem de T e a nulidade de T é a dimensão do núcleo de T.
O teorema seguinte é um dos resultados mais importantes na
álgebra linear.

Teorema 2. Sejam V e W espaços vetoriais sobre o corpo F e


seja T uma transfarmação linear· de V em W. Suponhamos que V
seja de dimensão finita. Então

posto (T) + nulidade (T) = dim V.


TRANSFORMAÇÔES LINEARES - 91

Demonstração. Seja { oe1' ... , oek} uma base de N, o núcleo de


T. Existem vetores oek+ 1' ..., oe" em V tais que { oel' ... , oe"} seja uma
base de V. Demonstraremos agora que { Toek+ 1' ... , Toe"} é uma

- .
base da ima�cm de T. Os vetores Toe1, • • • , Ta,, certamente geram a
imagem de T e, como Ta. O, para J. < k, vemos que Ta11+ 1, . . , Toeli
=
J
geram a imagem. Para ver que esses vetores são independentes,
suponhamos que existam escalares c; tais que
n

L ci(Toe;) = O.
i=k+l

Isto diz que

T (f )
i=k+ 1
cioei = O

e, conseqüentemente, o vetor oe = L c;oei está no núcleo de T.


i=k+ 1
Como oc1, . • . , ock formam uma base de N, existem, necessariamente,
escalares b 1, ... , bk tais que

k
oe =

i
I biai.
== 1

Assim

-
k li

I1 bi oei I
k l
cpi =O
i= j= +

e, como oc1, . .. , ª"· são linearmente independentes, devemos ter

-
Se r é o posto de T, o fato de Tock + 1, • • • , Toe" formarem uma
base da imagem de T nos diz que r = n k. Como k é a nulidade
de T e n é a dimensão de V, está completa a demonstração.

Teorema 3. Se A é uma m X n matriz com elementos no


corpo F, então

posto-linha (A) = posto-coluna (A).

Demonstração. Seja T a transformação linear de F" x 1 ,· 111


pmx 1
definida por T (X) = AX. O núcleo de T é o espa1,'<) ,,1lu-
92 .:_ ALGEBRA LINEAR

ção do sistema AX = O, isto é, o conjunto de todas as matrizes­


coluna X tais que AX O. A imagem de T é o conjunto de todas
=

as m x l matrizes-coluna Y ·tais que AX Y tenha solução em =

X. Se Al' ... , A" forem as colunas de A, então

.AX = X1À1 + ... + xnAn


de modo que a imagem de Té o subespaço gerado pelas colunas
de A. Em outras palavras, a imagem de T é o espaço-coluna
de A. Portanto

posto (T) = posto�coluna (A).

O Teorema 2 nos diz que, sendo S o espaço solução do sistema


AX = O, temos
-

dim S + posto-coluna (A) = n.

Voltando ao Exemplo 15 do Capítulo 2, vimos que se r for


a dimensão do espaço-linha de A então o espaço solução S terá
·uma base contendo n - r vetores:

dim S =n - posto-linha (A).


É evidente agora que

posto-linha (A) =.posto-coluna (A).

A demonstração que acabamos de dar do Teorema 3 depende


de cálculos explícitos envolvendo sistemas de equações lineares.
Existe uma demonstração mais conceituai que não depende de tais
cálculos. Daremos esta demonstração na Seção 3.7.

Exercícios

2 2
1. Quais das seguintes funções T de R em R são transformações lineares?

(a) T(x1, x2) = (1 + x1, x2);


(b) T(x., x2) = (x2, x1);
(e) T(x., x2) = (x�, x2);
(d) T(x., x2) = (sen x" x2);
(e ) T(x., xi}= (x1 - x2, O).

2. Determinar a imagem, o posto, o núcleo e a nulidade da transformação nula


e da transformação idêntica sobre um espaço V de dimensão finita.
TRANSFORMAÇÔES LINEARES - 93

3. Descrever a imagem e o núcleo da transformação derivação do Exemplo 2.


Fazer o mesmo para a transformação integração do Exemplo 5.

4. Existe uma transformação linear T de R3 em R2 tal que T(I, - 1, I) = (1, O)


e T(I, 1, 1) =
(O, l)?

5. Se

ª1 = (!, - 1 ), p1 =
(1, O)
ª2 = (2, -1), P2 =
(O IJ
,

IX3 = (-3, 2), p3 = (1, 1)

existe urna transformação linear T de R2 em R2 tal que 7ix1 = /11 para


i= 1, 2 e 3?
6. Descrever explicitamente (como no Exercício 1) a transformação linear T de
F 2 cm F2 tal que Te1 = (a, b), Te2 (e, d). =

7. Seja F um subcorpo do corpo dos números complexos e seja T a função de


F3 em F3 definida por

(a) Verificar que T é uma transformação linear.


(b) Se (a, b, e) é um vetor em F3, quais as condições sobre a, h, e, para que
o vetor esteja na imagem de T! Qual é o posto de T?
(c) Quais são as condições sobre a, b e e para que o vetor esteja no núcleo
de T? Qual é a nulidade de T?
8. Descrever explicitamente uma transformação linear de R" em R3 cuja imagem
seja o subespaço por (1, O, -1) e (1, 2, 2).

9. Seja V o espaço vetorial das 11 x n matrizes sobre o corpo F e seja B uma


n x 11 matriz fixa. Se

T(A) = AB - BA

verificar que T é uma transformação linear de V em V.


10. Seja V o conjunto dos números complexos considerado como um espaço
vetorial sobre o corpo dos números reais (operações usuais). Determinar uma
função de V em V que seja uma transformação linear sobre o espaço vetorial
acima, mas que não seja urna transformação linear sobre C 1, isto é, que não
seja linear complexa.
11. Seja V o espaço das n x 1 matrizes sobre F e seja W o espaço das m x 1
matrizes sobre F. Seja A uma m x 11 matriz fixa sobre F e seja T a trans­
formação linear de V em W definida por T(X ) AX. Demonstrar que T é
=

a transformação nula se, e somente se, A é a matriz nula.

12. Seja V um espaço vetorial 11-dimensional sobre o corpo F e seja T uma trans­
formação linear de V em V tal que a imagem e o núcleo de T sejam idênticos.
Demonstrar que n é par. (Dar um exemplo de uma tal transformação linear.)

13. Seja V um espaço vetorial e T uma transformação linear de V em V. De­


monstrar que as duas afirmações seguintes sobre T são equivalentes:
94 -'--- ALGEBRA LINEAR

(a} A interseção da imagem de T com o núcleo de T é o subespaço nulo de V.


(b} Se T(Tcx) = O, então Tcx = O.

3.2 A Álgebra das Transformações Lineares

No estudo das transformações lineares de V em W, é de impor­


tância fundamental o fato de que o conjunto dessas transformações
herda uma estrutura natural de espaço vetorial. O conjunto das
transformações lineares de um espaço V em si mesmo possui uma
estrutura algébrica mais rica pois a composição usual de funções
fornece uma "multiplicação" dessas tran�formações. Nesta seção
exploraremos essas idéias.

Teorema 4. Sejam V e W espaços vetoriais sobre o corpo F.


Sejam T e U transformações lineares de V em W. A função (T + U)
definida por
(T + U) (a) = Ta + Ua
é uma transformação linear de V em W. Se c é um elemento qualquer
de F, a função (cT) definida por

(cT) (a) = c(Ta)

é uma transformação linear de V em W. O conjunto das transfor­


mações lineares de V em W, munido da adição e multiplicação escalar
acima definida, é um espaço vetorial sobre o corpo F.
Demonstração. Suponhamos que T e U sejam transformações
lineares de V em W e definamos (T + U) como acima. Então

(T + U) (ca ·+ /3) = T (ca + /3) + U(ca + /3)


= c(Ta) + T/3 + c(Ua) + U/3
= c(fo + Ua) + (T/3 + U/3)
= c(T + U)(a) + (T + U) (/3)

o que mostra que (T + U) é uma transformação linear. Analoga­


mente,

(cT ) (da + /3) = e[T (da + /3)]


= c[d(Ta) + T/3]

cd(Ta) + c(T/3)
=

= d[c(fo)] + c(T/3)

mostrando que (cT ) é uma transformação linear.


TRANSFORMAÇÔES LINEARES - 95

Para verificar que o conjunto das transformações lineares de V


em W (munido destas duas operações) é um espaço vetorial, é
necessário verificar diretamente cada uma das condições sobre a
adição de vetores e a multiplicação escalar. Deixamos a parte prin­
cipal disto a cargo do leitor e contentamo-nos com este comen­
tário: O vetor nulo deste espaço será a transformação nula, que
leva todo vetor de V no vetor nulo de W; cada uma das proprie­
dades das duas operações decorre diretamente da propriedade cor­
respondente das operações no espaço W

Talvez devamos mencionar outra maneira de considerar este


teorema . Se se define soma e múltiplo escalar como fizemos acima,
então o conjunto de todas as funções de V em W torna-se um es­
paço vetorial sobre o corpo F. Isto nada tem a ver com o fato de
V ser um espaço vetorial, mas apenas com o fato de V ser um
conjunto não-vazio. Quando V é um espaço vetorial· podemos
definir uma transformação linear de V em W e o Teorema 4 diz
que as transformações lineares formam um subespaço do espaço
de todas as funções de V em W.
Indicaremos o espaço das transformações lineares de V em W
por L(V, W). Lembramos novamente ao leitor que L(V , W) está
definido somente para V e W espaços vetoriais sobre o mesmo corpo.

Teorema 5. Seja V um espaço vetorial n-dimensional sobre o


corpo F e seja W um espaço vetorial m-dimensional sobre F. Então
o espaço L(V, W) é de dimensão finita e tem dimensão mn.

Demonstração. Sejam

bases ordenadas de V e W, respectivamente. Para cada par de


inteiros (p, q) com 1 :::;; p:::;; m e 1 :::;; q:::;; n, definamos uma transfor­
mação linear Ep,q de V em W por

Ep,q(a) = {º'
/3p,
se
se
i =f.
i =
q
q

=
(jiqf3p.
De acordo com o Teorema 1, existe uma u111ca transformação
linear de V em W que satisfaz estas condições. Afirmamos que as
mn transformações EP· <J formam uma base de L(V, W).
96 - ALGEBRA LINEAR

Seja T uma transformação linear de V em W. Para cada j,


1 � :::;; n, sejam A1i, ... , Ami as coordenadas do vetor Tai em rela­
ção ãõase--O rdenada ff'', isto é,

(3-1) Tai= L APif3P.


p=l
Desejamos mostrar que
.n

T= L " A qEp,q
m

(3-2) p
p=l q=l
L..
Seja U a transformação linear no segundo membro de (3-2).
Então para cada j

Uaj = L L ApqEM(a.)
'
P q

=Ta.J

e, conseqüentemente,. U = T. Agora (3-2) mostra que as Ep,q geram


L(V, W); precisamos demonstrar que elas são independentes. Mas
isto é evidente pelo que fizemos acima, pois, se a transformação

é a transformação nula, então Uai= O para cada j, portanto

e a independência dos f3P implica que A


Pi
=O para todos p e j.

Teorema 6. Sejam V, W e Z espaços vetoriais sobre o corpo F.


Seja T uma transfarmação linear de V em W e U uma transformação
TRANSFORMAÇÔES LINEARES - 97

linear de W em Z. Então, a função composta UT, definida por


(UT) (a)= U(T(o:)) é uma transformação linear de V em Z.

Demonstração

(UT) (ca + p)= U[T(ca + p)]


= U(cTa + TP)
= c[U(Ta)] + U(Tp)
= c(UT) (a)+ (UT) (p).
No que segue, estaremos primordialmente preocupados .com
transformações lineares de um espaço vetorial em si mesmo. Como
teríamos de escrever a todo instante "T é uma transformação linear
de V em V", substituiremos isto por "T é um operador linear
sobre V".

Definição. Se V é um espaço vetorial sobre o corpo F, um

operador linear sobre V é uma transformação linear de V em V.

Aplicando o Teorema 6 para V= W Z, de modo que U e


=

T sejam operadores lineares sobre o espaço V, vemos qué a com­


posta UT é ainda um operador linear sobre V. Assim, o espaço
L(V, V) possui uma "multiplicação", definida sobre si por meio
da composição. Neste caso, o operador TU tam bém está definido
e devemos notar que em geral UT#TU, isto é, UT- TU#O.
Devemos notar particularmente o fato de que se T é um operador
linear sobre V, então podemos compor T com T Usaremos a no­
2
tação T = TTe, em geral, T" T . . T(n vezes) para n = l, 2, 3, .. .
= . .

Definimos Tº = I se T#O.

Lema. Seja V um espaço vetorial sobre o corpo F; sejam U,


T1 e T2 operadores lineares sobre V; seja c um elemento dl! F.

(a) IU = UI= U;
(b) U(T1 + T2)= UT1 + UT2; (T1 + T2)U = T1U + 1�U;
(c) c(UT1)= (cU)T1 = U(cT1).

Demonstração. (a) Esta propriedade da função idêntica é óbvia.


Enunciamo-la aqui por mera questão de ênfase.

(b) [U(T1 + T2)] (a)= U[(T1 + T2)(o:)]


= U(T1a + T2o:)
98 - ALGEBRA LINEAR

= U(T1a) + U(T2a)
= (UT1)(a) + (UT2)(a)

de modo que U(T1 + T2) = UT1 + UT2• Além disso

[(T1 + T2)U] (a) = (T1 + T2) (Ua)


= T1(Ua) + T2(Ua)

- = (T1U) (a) + (T2U) (a)

de modo que (T1 + T2)U = T1U + T2U. (O leitor pode notar que
para as demonstrações destas duas leis distributivas não foi usado
o fato de T1 e T2 serem lineares , e que para a demonstração da
segunda não foi usado tampouco o fato de U ser linear.)
(c ) Deixamos a demonstração da parte (c) a cargo do leitor.
Este lema e uma parte do Teorema 5 nos dizem que o espaço
vetorial L(V, V), munido da operação de composição , é o que se
conhece por uma álgebra linear com elemento unidade. Discuti­
remos isto no Capítulo 4.

Exemplo 8. Se A é uma m x n matriz com elementos em F,


1
temos a transformação linear T definida porT(X) = AX, de F" x
pm x 1
em . Se B é uma p x m matriz, temos a transformação linear U
pm x 1 1
de em FP x definida por U( Y) = B Y. É fácil descrever a
composta UT:

(UT) (X) = U(T(X))


= U(AX)
= B(AX)

= (BA)X.

Assim, UT é "a multiplicação à esquerda pela matriz produto BA".

Exemplo 9. Seja F um corpo e V o espaço vetorial das funções


polinomiais de F em F. Seja D o operador derivação definido no
"
Exemplo 2 e T o operador linear "multiplicação por x :

(Tf) (x) = x f(x) .

Então DT#- TD. Na verdade, o leitor deverá achar fácil verificar


que DT - TD = I, o operador idêntico.
TRANSFORMAÇÔES LINEARES - 99

Mesmo não sendo comutativa, a "multiplicação" que temos


sobre L(V, V) está bastante relacionada com as operações de es­
paço vetorial de L(V, V).

Exemplo 10. Seja 14 = { o:1, ... , o:


n
} uma base ordenada do es­
paço vetorial V. Consideremos os operadores lineares EM que
apareceram na demonstração do Teorema 5:

Estes n2 operadores lineares formam uma base do espaço dos ope­


radores lineares sobre V. O que vem a ser Ep,q E'·"? Temos

(EM E'"') (o:;) = EM(â,_,o:, )

= Ô isE1" '1(o:,)
=
f>;/'"Pv·
Portanto,

E p,q E'·• = {º- se


li/"-', se
r -:f. </
1/ = r.

Seja T um operador linear sobre V. Vimos na demonstração do


Teorema 5 que se

então L, L,

T = '°' '°' A E p,q .


pq
p q

Se

r s

for um outro operador linear sobre V então pelo último lema

TV = ('°' " A EM)() > BrsE'·•)


Li L.i pq L..... ,,_
p q , s

=
LI L L ApqB,.EME'··.
p q r s
100 - ALGEBRA LINEAR

Como observamos, os únicos termos que permanecem nesta soma


enorme são os termos nos quais q =re como EP·'E'·• = EP·•, temos

TU = L L <L: Ap,B,.)EP··
p s r

= L L (AB)psEP·•.
p s

Assim, o efeito de compor T e Uéo de multiplicar as matrizes A e B.


Na nossa discussão sobre operações algébricas com transfor­
mações lineares, nada dissemos sobre inversibilidade. Uma questão
específica de interesse é a seguinte: para quais operadores linea­
res T sobre o espaço V existe um operador linear r-1 tal que
yy 1 y 1y
- = - = I?
A função T de V em W se diz inversível se existir uma função
U de W em V tal que UT é a função idêntica sobre V e 7V é a
função idêntica sobre W. Se T for inversível, a função U é única
e é representada por r-1• (Veja Apêndice.) Além do mais, T é
inversível se, e somente se,

1. T é injetora, isto é·, Ta= T/3 implica a= {3;


2. T é sobrejetora, isto é, a imagem de T é W.

Teorema 7. Sejam V e W espaços vetoriais sobre o corpo F e


seja T uma transformação linear de V em W. Se T é inversível então
a função inversa T-1 é uma transformação linear de W sobre V.
Demonstroção. Nós nos repetiremos aqui por questão de ênfase.
y
. Quando T é injetora e sobrejetora, existe uma função inversa
-1,
y
determinada de modo único, que leva W sobre V tal que r-1 é
a função idêntica de V e TT-1 é a funçüo idêntica de W. O que
estamos demonstrando aqui é que, se uma função linear T é inver­
sível, então a inversa r-1 também é linear.
Sejam /31 e P2 vetores em W e seja e um escalar. Queremos
mostrar que

Seja ai= 11pi, i= 1, 2, isto ·é, seja ai o único vetor em V tal que
Tai =pi. Como T é linear,

T(ca1 + a2) = cTa1 + Ta2


= cP1 + f32·
TRANSFORMAÇÔES LINEARES - 101

Assim,coc + oc2 é o único vetor em V que é levado por T em


1
cp + Pi> portanto
1
r-1(cP + P2) = C()(l + ()(2
1
c(T-1P ) + T-1p2
=

1
e T-1 é linear.
Suponhamos que T seja uma transformação linear inversível
de V sobre W e que V seja uma transformação linear inversível
de W sobre Z. Então UT é inversível e (UT)-1 = T-1u-1. Esta
conclusão não requer a linearidade, nem a verificação em separado
de que UT seja injetora e sobrejetora. Ela somente requer a veri­
ficação de que r-1 U-1 seja ao mesmo tempo uma inversa à es­
querda e à direita de UT.
Se T for linear, então T(oc - p) = Toc - Tp; logo, Toc = TP se,
e somente e, T(oc - p) =O. Isto simplifica imensamente a verifi­
cação de que T é injetora. Diremos que uma transformação linear
T é não-singular se Ty =O implicar y =O, isto é_, se o núcleo de T
for {O}. Evidentemente, T é injetora se, e somente se, T for não
singular. A importância desta observação é que transformações
lineares não-singulares são aquelas que preservam a indepen4'
dência linear.

Teorema 8. Seja T uma transformação linear de V em W.


Então T é 11ão-si11gular se, e somente se, T leva todo subconju11to
linearmente independente de V sobre um subconjunto linearmente
independente de W.

Demonsrração. Suponhamos primeiro que T seja não-singular.


Seja S um subconjunto linearmente independente de V. Se oc1, ... , ock
são vetores em S, então os vetores Ta. , • • • , Ta.k são linearmente
1
independentes, pois se

então

e como T é não-singular
102 -'--- .Á.LGEBRA LINEAR

do que segue que cada e; = O pois S é um conjunto independente.


Este argumento mostra que a imagem de S por meio de T é inde­
pendente.
Suponhamos �-� T leve subconjuntos indeµendenles sobre
subconjuntos independentes.: Seja a um vetor não-nulo em V.
Então o conjunto S constituído apenas pelo vetor a é independente.
A imagem de S é o conjunto constituído apenas pelo vetor Ta e
este conjunto é independente. Portanto Ta # O, pois o conjunto
constituído apenas pelo vetor nulo é dependente. Isto mostra que
o núcleo de T é o subespaço nulo, isto é, T é não-singular.
)

Exemplo 11. Seja F um subcorpo do corpo dos números com­


plexos (ou um corpo de característica zero) e seja V o espaço das
funções polinomiais sobre F. Consideremos o operador derivação
D e o operador T, "multiplicação por x", do Exemplo 9. Como D
leva todas as constantes em zero, D é singular; no entanto, V não
é de dimensão finita, a imagem de D é todo o espaço V e é possível
definir um inverso à direita para D. Por exemplo, se E for o ope­
rador integração indefinida:

então E é um operador linear sobre V e DE= 1. Por outro lado,


ED =!= lpois ED leva as constantes em zero. O operador T está,
no que podemos chamar de situação reversa. Se xf (x) = O para
todo x, então f O. Portanto, T é não-singular e é possível deter­
=

minar um inverso à esquerda para T. Por exemplo, se U for a ope­


ração "remover o termo constante e dividir por x":

então U é um operador linear sobre V e UT= 1. Mas TU=!= l


pois toda a função na imagem de TU está na imagem de T que é
o espaço das ·funções polinomiais f tais que f (O) = O.

Exemplo 12. Seja F um corpo e seJa T o operador linear


sobre F2 definido por
TRANSFORMAÇÔES LINEARES - 103

Então T é não singular, pois se T (x 1, x2) = O, temos

X1 + X2 = Ü
x, =o

de modo que x1 =x2=O. Vejamos também que T é sobrejetor;


de fato, seja (z" z2) um vetor arbitrário em F2• Para mostrar que
(z 1, z 2) está na imagem de T precisamos determinar escalares x 1
e x2 tais que

e a solução é evidentemente x1=z2, x2=z1-z2• Este último


cálculo nos dá uma fórmula explícita para r- 1, a saber,

Vimos no Exemplo 11 que uma transformação linear pode


ser não-singular sem ser sobrejetora e pode ser sobrejetora sem ser
não-singular. O exemplo acima ilustra um caso importante onde
isto não pode acontecer.

Teorema 9. Sejam V e W espaços vetoriais de dimensão finila


sobre o corpo
F zais qw_' tlim V= dim W. Se T é uma tro11s/ármaç-tw
linear de V em W, as seguintes afirmações são equivalentes:
(i) T é inversível.
(ii) T é não-singular.
(iii) T é sobrejetora, isto é, a image111 de T é W.
Demonstração. Seja n = dim V= dim W. Pelo Teorema 2 sa-
bemos que

posto (T) + nulidade (T) = n.

Ora.T é não singular se. e somente se, nulidade (T)=O, e (como


n= dim W) a imagem de T é W se, e somente se, posto (T)= n.
Como o posto mais a nulidade é n, a nulidade é O precisamente
quando o posto for n. Portanto T é não-singular se. e somente se,
T(V)= W. Assim, se uma das condi<,:ões (ii) ou (iii) se verificar,
a outra também se verificará e T será ínversivel.

O leitor deve tomar cuidado de rião aplicar o Teorema 9


V= dim W.
salvo na presença de dimensionalidade finita e com dim
104 -
ALGEBRA LINEAR

Com as hipóteses do Teorema 9, as condições (i), (ii) e (iii) são


também equivalentes às seguintes:
(iv) Se {al' . . ., an} é uma base arbitrária de V, então {Ta1,
..., Tan} é uma base de W.
(v) Existe pelo menos uma base {a 1' . . , a.} . de V 1 ai que
{Ta 1' . . . , TaJ seja uma base de W.
Daremos uma demonstração da equivalência das cinco con­
dições, que contém uma demonstração diferente, da equivalência
de (i) , (ii) e (iii).
(i) � (ii). Se T é inversível, T é não-singular. (ii) � (iii). Supo­
nhamos que T seja não-singular. Seja {a 1 , . • • , an} uma base de V.
Pelo Teorema 8, {Ta 1 . To:.} é um conjunto linearmente inde­
. . . .

pendente de vetores em W e como a dimensão de W também é n,


este conjunto de vetores é uma base de W. Agora seja f3 um vetor
arbitrário em W. Existem escalares e1, • • • , e" tais que

/3 = c1(Ta1) + . . . + cn(Tan)
= T(c1ª1 + ... + cnan)

o que mostra que f3 está na imagem de T. (iii) � (iv). Suponhamos


agora que T seja sobrejetora. Se {a1, . • . , an} é uma base arbitrária
de V, os vetores Tal' . . . , Ta. geram a imagem de T, que é todo o
espaço W por hipótese. Como a dimensão de W é n, estes n vetores
precisam ser linearmente independentes, isto é, precisam formar
uma base de W. (iv) � (v). Não requer nenhum comentário. (v) � (i).
Suponhamos que exista alguma base {al' . . . , a.} de V tal qµe
{Ta1, .. . , Tan} seja uma base de W. Como os Ta; geram W, é evi­
dente que a imagem de T coincide com w. Se a = C1ª1 + ... + cnan
está no núcleo de T, então

ou

c1(T�1) + .. . + c.(Tan) =O
e como os Ta; são independentes, cada e; =O e assim a O. =

Mostramos que a imagem de. T é W e que T é não-singular, logo


T é inversível.
O conjunto dos operadores lineares inversíveis sobre um es­
paço V, com a operação de composição, fornece um belo exemplo
do que é conhecido em álgebra por um "grupo". Apesar de que
TRANSFORMAÇÔES LINEARES - 105

não teremos tempo para discutir grupos com quaisquer porme­


nores, daremos pelo menos a definição.

Definição. Um grupo consiste do seguinte:


(1) Um conjunto G;
(2) Uma regra (ou operação) que associa a cada par de ele­
menlos x, y em G um elemenlo xy em G de uma maneira ai que
(a) x(yz) (xy)z, para odo.� x, y e z em G (associatividade);
=

(b) exisl e um elemenl o e em G 1 ai que ex = xe= x, para 1 oda


x em G;
( c ) a cada elemento x em G corresponde um element.o x - 1 em
G tal que xx -1=x -1x =e.
Vimos que a composição (U, T)--> UT associa a cada par de
operadores lineares inversíveis sobre um espaço V outro operador
inversível sobre V. A composição é uma operação associativa. O
operador idêntico 1 satisfaz IT
=TI=Tpara todo Te para um T
inversível existe (pelo Teorema 7) um operador linear inversível
y- 1 tal que Ty- 1= y- 1 T
=1. Portanto o conjunto dos opera­
dores lineares inversíveis sobre V, munido desta operação, é um
grupo. O conjunto das n x n matrizes inversíveis com a multipli­
cação de matrizes como a operação é outro exemplo de um grupo.
Um grupo é dito comutativo se satisfaz a condição xy = yx para
todos x e y. Os dois exemplos que demos acima não são, em geral,
grupos comutativos. Freqüentemente indica-se a operação num
grupo comutativo por (x, y)--> x + y em lugar de (x, y)--> xy e usa-se
então o símbolo O para o elemento "unidade" e. O conjunto dos
vetores de um espaço vetorial, com a operação de adição de veto­
res, é um grupo comutativo. Um corpo. pode ser descrito como
um conjunto com duas operações, denominadas adição e multi­
plicação, que é um grupo comutativo em relação à adição e no qual
os elementos não-nulos formam um grupo comutativo em relação
à multiplicação, valendo a lei distributiva x(y + z) = xy + xz.

Exercícios

1
1. Sejam T e U os operadores lineares sobre R2 definidos p,or 1

(a) Como você descreveria T e U geometricamente?


(b) Dar regras como as que definem T e U para cada uma das transfor­
mações (U + T), UT, TU, T2 U2.
106 - ALGEBRA LINEAR

2. Seja T o (único) operador linear sobre C3 para o qual

Te1 (1, O, i), Te = (O, l, 1), Te3 = (i, 1, O).


2
=

T é inversível?
3. Seja T o operador linear sobre R3 definido por

T é inversível? Em caso afirmativo, determinar uma regra para T-1 como


a que define T.
4. Para o operador linear T do Exercício 3, demonstrar que

(T2 - /) (T - 3/)= O.

5. Seja C2 • 2 o espaço vetorial complexo das 2 x 2 matrizes como elementos


complexos. Seja

B= [ - ! - !J
e seja T o operador linear sobre C2 • 2 definido por T (A) =
B A. Qual é o
posto de T? Descrever T2.
6. Seja T uma transformação linear de R3 em R2 e seja U uma transformação
linear de R2 em R3. Demonstrar que a transformação linear UT não é
inversível. Generalizar o teorema.
7. Determinar dois operadores lineares T e U sobre R2 tais que TU =O mas
UT#O.
· 8. Seja V um espaço vetorial sobre o corpo F e T um operador linear sobre V.
Se T2 = O, o que se pode dizer sobre a relação entre a imagem de T e o
núcleo de T? Dar um exemplo de um operador linear T sobre R2 tal que
T2 = O mas T#O.
9. Seja T um operador linear sobre o espaço vetorial V de dimensão finita.
Suponhamos que exista um operador linear U sobre V tal que TU= 1.
Demonstrar que T é inversível e U= T-1• Dar um exemplo que mostre
que isto é falso quando V não é de dimensão finita. (Sugestão: Seja T = D,
o operador derivação sobre o espaço das funções polinomiais.)
10. Seja A uma
. m x n matriz com elementos em F e seja T a transformação

linear de F" • 1 em Fm • 1 definida por T(X) = AX. Mostrar que se m < n


pode acontecer que T seja sobrejetora sem ser não-singular. Analogamente,
mostrar que se m > n podemos ter T não-singular mas não sobrejetora.
II. Seja V um espaço vetorial de dimensão finita e seja T um operador linear
sobre V. Suponhamos que posto (T2) =posto (T). Demonstrar que a imagem
e o núcleo de. T são disjuntos, isto é, possuem em comum apenas o vetor nulo.
12. Sejam p, m e n inteiros positivos e F um corpo. Seja V o espaço das m x n
matrizes sobre F e W o espaço das p x n matrizes sobre F. Seja B uma
p x m matriz fixa e seja T a transformação linear de V em W definida por
T(A)= BA. Demonstrar que T é inversível se, e somente se, p= m e B é
uma m X m matriz inversível.
TRANSFORMAÇÔES LINEARES - 107

3.3. Isomorfismo

Se V e W são espaços vetoriais sobre o corp o F, uma transfor­


mação linear bijetora (injetora e sobrejetora) T de V em W é
denominada um isomorfismo de V em W. Se existir um isomor­
fismo de V em W, diremos que V é isomorfo a W.
Notemos que V é trivialmente isomorfo a V, pois o operador
idêntico é um isomorfismo de V em V. Além disso, se V é isomorfo
a W por meio de um isomorfismo T, então W é isomorfo a V uma
vez que f-1 é um isomorfismo de W em V. O leitor deverá achar
fácil verificar que se V é isomorfo a W e W é isomorfo a Z, então
V é isomorfo a Z. Em suma, o isomorfismo é uma relação de equi­
valência sobre a classe dos espaços vetoriais. Se existir um isomor­
fismo de V em W, poderemos às vezes dizer que V e W são iso­
morfos, em vez de dizer que V é isomorfo a W. Isto não causará
confusão alguma porque V é isomorfo a W se, e somente se, W
é isomorfo a V.

Teorema 10. Todo espaço vetorial n-dimensional sobre o corpo


F é isomorfo ao espaço F".
Demonstração. Seja V um espaço n-dimensional sobre o corpo
F e seja .?4 = { ct 1, . . ., a,,} uma base ordenada de V. Definamos
uma função T de V em F", como segue: Se ct está em V, seja Ta
a 11-upia (x 1, . . ., x11) das coordenadas de ct em relação à base orde­
nada f11J, isto é, a n-upla tal que

Em nossa discussão de coordenadas no Ca pítulo 2, verificamos


que esta T é linear, injetora e leva V sobre F".
Para muitos objetivos freqüentemente consideram-se espaços
vetoriais isomorfos como sendo "o mesmo", apesar de que os ve­
tores e as operações nos espaços possam ser bem diferentes, isto é,
freqüentemente identificamos espaços isomorfos. Não tentaremos
fazer uma longa discussão sobre esta idéia no momento mas deixa­
remos a compreensão do isomorfismo e do sentido no qual espaços
isomorfos são "o mesmo" crescerem à medida que continuemos
nosso estudo de espaços vetoriais.
Faremos alguns comentários breves. Suponhamos que T seja
um isomorfismo pe V em W. Se S é um subconjunto de V, o Teo-
108 -'- ALGEBRA LINEAR

rema 8 nos diz que S é linearmente mdependente se, e somente


se, o conjunto T(S) em W é independente. Portanto, ao decidirmos
se S é independente não importa se consideramos S ou T(S). A
partir disto vê-se que um isomorfismo "conserva a dimensão", isto
é, todo subespaço de V de dimensão finita tem a mesma dimensão
que sua imagem por meio de T. Eis uma ilustração muito simples
dessa idéia. Suponhamos que A. seja uma m x n matriz sobre o
corpo F. Na verdade demos duas definições do espaço-solução da
matriz A. O primeiro é o conjunto das n-uplas (x 1, . • • , x.) em F"
que satisfazem cada uma das equações do sistema AX O se­ = O .

gundo é o conjunto das l matrizes colunas X tais que AX O.


n x =

O primeiro . espáço-solução 6, portanto, um subespaço de F" e o


segundo é um subespaço do espaço de todas as n x 1 matrizes
1
sobre F. Agora existe um isomorfismo evidente entre F" e F"x ,

[]
-à.. saber,

(x., .. . , x,) �

Por meio deste isomorfismo, o primeiro espaço-solução de A é


levado sobre o segundo espaço-solução. Estes espaços têm a mesma
dimensão, portanto se quisermos demonstrar um teorema sobre
a dimensão do espaço-solução, não importará qual espaço resol­
vamos discutir. Na verdade, o leitor provavelmente não objetaria
se resolvêssemos identificar F" com o espaço das n x 1 matrizes.
Poderemos fazê-lo quando for conveniente, e quando não o for
não o faremos.

Exercícios

1. Seja V o conjunto dos números complexos e seja F o corpo dos números


reais. Com as operações .usuais, V é um espaço vetorial sobre F. Descrever
explicitamente um isomorfismo deste espaço em R 2•
2. Seja V um espaço vetorial sobre o corpo dos números complexos e supo­
nhamos que exista um isomorfismo T de V em C3• Sejam ct1• '.12• ct-'" ct4
vetores em V tais que

Tct1 == (1, O, i) Tct2 = (-2, 1 +i, O),


Tct3 = ( -1, 1, 1), 7"ct4 = (..j2, i, 3).
TRANSFORMAÇÔES LINEARES - 109

(a) <X1 está no subespaço gerado por <X2 e <X3?


(b) Seja W1 o subespaço gerado por <X1 e <X2 e seja 11':? o subespaço gerado
por <X3 e <X4• Qual é a interseção de W1 com W2?
(e) Determinar uma base do subespaço de V gerado pelos quatro vetores <Xi.
3. Seja W o conjunto das 2 x 2 matrizes hermitianas, complexas, isto é, o con­
junto das 2 x 2 matrizes complexas A tais que A,i = A ; (a barra indica conju­
;
gação complexa). Como destacamos no Exemplo 6 do Capítulo 2, W é um
espaço vetorial sobre o corpo dos números reais, em relação às operações
usuais. Verificar que

(x, y, z, t) -+
[t-+X yt-x
y
+ ]
.
IZ
iz

é um isomorfismo de R4 em W.
4. Mostrar que pm •" é isomorfo a Fm''.
5. Seja V o conjunto dos números complexos considerado como um espaço
vetorial sobre o corpo dos números reais (Exercício 1). Definamos uma
função T de V no espaço das
com x e y números reais, então
2 x 2 matrizes reais, como segue. Se z =x + y
i

7'(z) = [X-lOy 5y J
+ 7y x-7y
(a) Verificar que 1' é uma transformação linear (real) injetora de V no espaço
das 2 x 2 matrizes.
(b) Verificar que 7'(z1z2) = 1' (z 1 ) T(z2).
(c) Como você descreveria a imagem de 7'?
6. Sejam V e 11 espaços vetoriais de dimensão finita sobre o corpo F. Demons­
trar que V e 11 são isomorfo s se, e somente se, dim V = dim W.
7. Sejam V e 11 espaços vetoriais sobre o corpo F e seja U um isomorfismo de
V em 11 . Demonstrar que T-+ UTu- • é um isomorfismo de L(V, V) em
L(W, W).

3.4 Representação de Transformações por Matrizes

Seja V um espaço vetorial n-dimensional sobre o corpo F e seja


W um espaço vetorial m-dimensional sobre F. Sejam f!.I = {al' ... , a,,}
uma base ordenada de V e f!J' = {[31' .. . , /3m} uma base ordenada
de W. Se T é uma transformação linear arbitrária de V em W, então
T é determinada por seu efeito sobre os vetores ªr Cada um dos n
vetores Tai pode ser expresso de modo único como uma combi­
nação linear

(3-3) Taj = I Aijf3i


i= 1
110 .:_ ALGEBRA LINEAR

dos {Ji, sendo os escalares A1i' ..., Ami as coordenadas de Tai em


relação à base ordenada f!4'. Conseqüentemente, a transformação
T é determinada pelos mn escalares
-
Ai.J por. meio das fórniulas (3-3).
A m x n matriz A definida por A {l, j) = Aii é denominada a ma-
triz de Tem relação ao par de bases ordenadas f!4 e f!4'. Nosso tra­
balho imediatõ- será o de compreender explicitamente como a
matriz A determina a transformação linear T.
Se a= x1a1 + . + x"a" é um vetor em V,
. . então

I x/Ta)
j =l

n m

L ci L A;A
j= 1 i= 1

Se X é a matriz das coordenadas de a em relação à base orde­


nada f!J, o cálculo acima mostra que AX é a matriz das coordenadas
do vetor Ta em relação à base ordenada f!4', uma vez que o escalar
'
n

L A;ixi
j =I

é o elemento da i-ésima linha da matriz coluna AX. Observemos


também que se A é uma m x n matriz arbitrária sobre o corpo F
então

(3-4)

define uma transformação linear T de V em W, cuja matriz é A,


em relação a f!J, f!J'. Resumindo formalmente:

Teorema 11. Seja V um espaço vetorial n-dimensional sobre o


corpo F e W um espaço vetorial m-dimensional sobre F. Seja f!J uma
base ordenada de V e f!J' uma base ordenada de W. Para cada trans-
TRANSFORMAÇÔES LINEARES - 111

formação linear T de V em W, existe uma m x n matriz A com ele­


mentos em F tal que

[Te.:J 94' = A [c.:]31


para todo vetor a em V. Além disso, TA é uma correspondência
-->

bijetora entre o conjunto das transformações lineares de V em W


e o conjunto das m x n matrizes sobre o corpo F.
A matriz A, associada a T no Teorema 11, é denominada
matriz de Tem relação às bases ordenadas (ljJ e éã'. Notemos que
pela Equação (3-3), A é a matriz cujas colunas são dadas por

Aj = [Tc.:J 94• , j = 1, ... , n.


Se U for uma outra transformação de V em W e B = [B1, • • • , B,J
for a matriz de U em relação às bases ordenadas (ljJ e f!4', então
cA + B será a matriz de c T+ U em rela<,âo a (ljJ e éã'. Isto é ev i ­
dente, pois

cA +
i
Bj =.c[Tc.:J31.+ [UaJ!M·
= [cTc.:j + Uc.:J IM'

= [( T + U)c.:.J , .
c
J ,91

Teorema 12. Seja V um espaço vetorial n-dimensional sobre o


corpo F e seja W um espaço velorial m-dimensional soh. e F. Para
cada par de bases ordenadas f!J, (ljJ' de V e W, respec1 ivamen/ e, a .fún­
ção que associa a uma transformação linear T sua mal riz em relação
a éã, f!,ã' é um isomo1jismo en/ re o espaço L(V, W) e o espaço das
m x n matrizes sobre o corpo F.

Demonstração. Observamos acima que a função em questão é


linear e, como está enunciado no Teore�a 11, esta função é injetora
e leva L(V, W) sobre o conjunto das m x n matrizes.

Es.taremos particularmente interessados na representação por


matrizes de transformações lineares de um espaço em si mesmo,
isto é, operadores lineares sobre um espaço V. Neste caso, é mais
conveniente usar a mesma base ordenada em cada caso, isto é,
tomar (ljJ = f!J'. A matriz representante será então denominada
simplesmente a matriz de' Tem relação à base ordenada éã. Como
este conceito será muito importante para nós, recordaremos sua
definição. Se T é um operador linear sobre o espaço vetorial V
de dimensão finita e (ljJ = {c.:P . . . , c.:n} é uma base ordenada de V,
112 .:__ ALGEBRA LINEAR

a matriz de T em relação a f!8 é a n x n matriz A cujos elementos


Aii são definidos pelas equações

(3-5) Tai L A;pp j 1, ... , n.


i=l
= =

Deve-se ter sempre em mente que esta matriz que representa T


depende da base ordenada f!8 e que existe uma matriz que repre­
senta T em relação a cada base ordenada de V. (Para transfor­
mações de um espaço em outro a matriz depende de duas bases
ordenadas, uma de V e uma de W.) Para não esquecermos esta
dependência, usaremos a notação

[T]iv
para a matriz do operador linearT em relação à base ordenada f!8.
A maneira como esta matriz e a base ordenada descrevem T é que,
para cada a em V,

Exemplo 13. Seja V o espaço das n x l matrizes-colunas sobre


o corpo F; seja W o espaço das m x 1 matrizes sobre F; seja A
uma m X n matriz sobre F, fixa. Seja T a transformação linear
de V em W
definida por T(X) AX. Seja f!8 a base ordenada de
=

V análoga à base canônica em P, isto é, o i-ésimo vetor em f!8 é a


n x 1 matriz X; com 1 na linha i e com todos os outros elementos
nulos. Seja f!8' a correspondente base ordenada de W, isto é, o
j-ésimo vetor em f!8' é a m x 1 matriz lj com 1 na linha j e com
todos os outros elementos nulos. Então a matriz de T em relação
ao par �. f!8' é a própria matriz A. Isto é evidente, pois a matriz
AXi é a. j-ésima coluna de A.

Exemplo 14. Seja F um corpo e seja T o operador sobre F2


definido por

T (x1, x2) = (x1, O).


É fácil ver que T é um operador linear sobre F2• Seja f!8 a base
ordenada canônica de F2, f!8 = { el' e2} . Ora,

Te1 = T(l, O) = (1, O) = le


1 + Oe 2
Te2 = T(O, .1) = (O, O) = Oe1 + Oe2
TRANSFORMAÇÔES LINEARES - 113

de modo que a matriz de T em relação à base ordenada f!J é

[T]91= [� �]·
Exemplo 15. Seja V o espaço das funções polinomiais de R
em R da forma

f (x) c0 c1x c2 x2 3
= + + + c3 x
isto é; o espaço das funções polinomiais de grau menor ou igual
a 3. O operador derivação D do Exemplo 2 leva V em V, pois D
diminui o grau. Seja f!J a base ordenada de V formada pelas quatro
funções f1,f2,f3,f� definidas por �(x) = xi-1• Então.

(DJ1) (x) = O, O O Df1 = 0/1 + Oj� + QI� + Oj�


(Dj2) (x) 1, Df2 1/1 + Qf� + j� + Oj�
(D/3) (x) 2x, Df3
= =

�j + 2j� + Oj� + Oj�


(Df4) (x) = 3 x2 , Dj� = Of1
= =

+ Oj� + 3j� + Of4

de modo que a matriz de D em relação à base ordenada f!4 é

[OOlOOJ
D
[ J.91
OO =
o o 2 o
3 · .

o o o o

Vimos o que acontece às matrizes representantes quando as


transformações são somadas, a saber, que. as matrizes se somam.
Gostaríamos agora de perguntar o que acontece quando compomos
transformações. Mais especificamente, sejam· V, W e Z espaços
vetoriais sobre o corpo F, de dimensões n, m e p, respectivamente.
Seja T uma transformação linear de V em W e U uma transfor­
mação linear de W em Z. Suponhamos que existam bases ordenadas

para os espaços V, W e Z, respectivamente. Seja A a matriz de T


em relação ao par f!J, f!J' e B a matriz de U em relação ao par !!4',
!!4". É fácil ver então que a matriz C da transformação UT em
relação ao par f!J, !!4" é o produto de B por A, pois se
rx é um vetor

arbitrário em V
114 -'-'-- ALGEBRA LINEAR

[To:] a' =
A [o: la
U
[ (fo)J,a = B[T�j,a.
e então

logo, pela definição e unicidade da matriz' representant,e, temos,


necessariamente, C = BA. Isto também pode ser visto efetuando
os cálculos

(UT) (c1) = U(To:)

L AkiUf3k)
k=l
=

de modo que temos


m

(3-6) cij L BikAkr


k=l
=

A definição (3-6) de multiplicação de matrizes foi motivada por


meio de operações sobre as linhas de uma matriz. Vê-se aqui que
uma motivação bastante forte para a definição encontra-se na com­
posição de transformações lineares. Resumindo formalmente:

Teorema 13. Seiam V, W e Z espaços vetoriais de dimensão


finita sobre o corpo F; seja T uma transfarmação linear de V em W
e U uma transfarmação linear de W em Z. Se f!J, f!J' e f!J" são bases
ordenadas dos espaços V, W e Z, respectivamente, se A é matriz de
T em relação ao par f!J, f!J' e B é a matriz de U em relação ao par f!J',
f!J", então a matriz da composta UT em relação ao par f!J,, f!J' é a

matriz produto C =
BA.
TRANSFORMAÇÔES LINEARES - 115

Observamos que o Teorema 13 demonstra que a multiplicação


de matrizes é associativa - uma demonstração que não requer
cálculos e é independente da demonstração dada no Capítulo 1.
Devemos destacar também que no Exemplo 12 demonstramos um
caso especial do Teorema 13.
É importante notar que se Te U são operadores lineares sobre
um espaço V e se estamos usando apenas uma base ordenada !JJ,
então o Teorema 13 toma a forma simples [ UT]ie = [ U] 14 [ T] fJtJ
Assim, neste caso, a correspondência que !JJ determina entre opera­
dores lineares e matrizes é não somente um isomorfismo de espaço
vetorial mas conserva também produtos. Uma conseqüência sim·
pies disto é que o operador linear T é inversível se, e somente se,
[T]a é uma matriz inversível. De fato, o operador idêntico 1 é
representado pela matriz unidade em relação a qualquer base orde­
nada, portanto

UT = TU = 1

é equivalente a

Evidentemente, quando T é inversível

Gostaríamos agora de perguntar o que acontece com as matri­


zes representantes quando mudamos a bas� ordenada. Para efeito
de simplicidade, consideraremos esta questão apenas para opera­
dores lineares sobre um espaço V, de modo que possamos usar
uma única base ordenada. A questão específica é a seguinte: seja T
um operador linear sobre o espaço de dimensão finita V e sejam a

. f!4 = { oc 1' . . ., oc,.} e f!J' = { oc'l' ... , oc �}

duas bases ordenadas de V. Qual é a relação entre as matrizes


[TJa e [TJ!Jtl.? Como observamos no Capítulo 2, existe uma única
n X n matriz (inversível) p tal. que

(3-7) [cx]i11 = P[cx]i11·


116 - ALGEBRA LINEAR

para todo vetor a em V. É a matriz P = [P 1, •.. , Pn] onde P = [rx.'.JIW.


Por definição
i

(3-8) [ Trx.J:sr = [T]a[ a] a.

Aplicando (3-7) ao vetor Ta temos

(3-9) [Ta] iv = P[Trx.] a·


Combinando (3-7), (3-8) e (3-9), obtemos

[ T].1VP[rx.]a1= P[Trx.]a•
ou

e então é necessário que

(3-10)

Isto responde nossa pergunta.


Antes de enunciarmos formalmente este resultado, observemos
um fato. Existe um único operador linear V que leva f!J sobre f!J'
definido por

Uai= rx.'i' j= 1, .. . , n.

Este operador U é inversível uma vez que leva uma base de V sobre
uma base de V. A matriz P (acima) é exatamente a matriz do ope­
rador V em relação à base ordenada f!J. De fato, P é definida por

rx.j = L P;p;
i=i

e como Uai= rx.j, esta equação pode ser escrita como

Uai = L PJi·;·
i=l

Portanto P = [ V]a , por definição.


TRANSFORMAÇÔES LINEARES - 117

Teorema 14. Seja V um espaço vetorial de dimensão finita sobre


o corpo F e sejam

/Jl ={oi:" ... , oi:. } e /Jl' ={oi:'" ... , oi: �j

bases ordenadas de V. Suponhamos que T seja um opei ador linear


sobre V. Se P = [P1, • . . , PJ éan x n matriz com colunas Pi= [ oi:;J 111,
então

Alternativamente, se U é o operador inversível sobre V d(:;linido por


Uoi:i =oi:;, j = 1, . .. , n, então

[T] 111• = [U];; 1 [TJ.,, [U] 111 •

Exemplo 16. Seja To operador linear sobre R' definido por


T(xl x2) = (x1, O). No Exemplo 14 mostramos que a matriz de
'

T em relação à base ordenada canônica /Jl ={e" e2} é

[T]111 = [� �] ·

Suponhamos que /Jl' seja a base ordenada de R2 formada pelos


vetores e� = (1, 1), e; = (2, 1). Então

e'1 = e1 + e2
e� = 2e1 + e2

de modo que P é a matriz

Efetuando cálculos simples obtemos

1
p- - - [ -
1
1

Assim

[T]1111= p-'[T] 111 P


118 - ÁLGEBRA LINEAR

= [-11 -12] [1o oº] [11 12]


= [-11 -12] [1o o2]
=[-� ;
J
-

Podemos verificar facilmente que isto está correto porque

= (1, O)= -e� e� +


Te; = (2, O)= -2e� 2e;.
Te�
+

Seja V o espaço das funções polinomiais de R


15,
Exemplo 17.
em R, de "grau" menor ou igual a 3. Como no Exemplo seja
D o operador derivação sobre V e seja

a base ordenada de V definida por J;_(x)


real e definamos g;(x) = (x + t)i-1, isto
=é, xi-1. Seja t um número

Como se pode ver facilmente, a matriz

[1oo o1 1 3t 1
t t2
2t
t3
3t2
p =

oo o 1
é inversível com

1o 21tt2 -3t3t2t
-t 3

1
-

o o 1 .
TRANSFORMAÇÔES LINEARES - 119

portanto decorre que ffl' {g1, g2' g3, g4} é uma base ordenada
=

-
de V. No Exemplo 15 ficamos sabendo que a matriz de D em

A matriz de D

[ 'j[
em relação à base ordenada f!B' é portanto

'l
mi
-t t2 1 o l t
2

p-'[D) OI p � � 1 -2t 3t2 º


o o 2 1 2t 3t2
Ü o 1 -3t . o o o o 1 3t
o o o 1

lJ J
o o o o o 1

l�
-t t2 2t1 3t'

l -2t 3t'2' oº o 2 6t
o 1 -3t o o o .3

-r� ü
o o 1 o o o o

1 o
o 2
- o o o
o o o
Assim D é representado pela mesma matriz em relação às bases
ordenadas ffl e r!B'. Evidentemente, isto pode ser visto um pouco
mais diretamente pois

Dg1 =
O
Dg2 =
gi
Dg3 = 2g2
Dg4 = 3g3.

Este exemplo ilustra um fato interessante. Se se conhece a matriz


de um operador linear em relação a alguma base ordenada fJB e
quer-se determinar a matriz em relação a outra base ordenada f!jj',
freqüentemente o que mais convém é efetuar a mudança de coorde­
nadas usando a matriz inversível P; contudo, pode ser muito mais
fácil determinar a matriz representante recorrendo diretàmente à
sua definição.
120 -'- ALGEBRA LINEAR

Definição. Sejam A e B n x n matrizes (quadradas) sobre o


corpo F. Dizemos que B é semélhante a A sobre F se existe
- uma
n x n matriz inversível P sobre F tal que B = p- i AP.

De acordo com o Teorema 14, temos o seguinte: Se V é um


espaço vetorial n-dimensional sobre F e f!J e f!J' são duas bases
ordenadas de V, então, para cada operador linear T sobre V, a
matriz B = [T]iv', é semelhante à matriz A= [TJ,iv. O· argumento
também vale no outro sentido. Suponhamos que A e B sejam n x n
matrizes e que B seja semelhante a A. Seja V um espaço vetorial
n-dimensional arbitrário sobre F e seja f!J uma base ordenada de V.
Seja T o operador linear sobre V que é· representado em relação
à base f!J por A. Se B = p-1AP, seja f!J' a base ordenada de V
obtida de f!J por meio de P, isto é,

aj = L Pipi.
i= 1
Então, a matriz de T em relação à base ordenada f!J' será B.
Assim, a afirmação de que B é semelhante a A significa que
em cada espaço n-dimensionaf sobre F as matrizes A e B represen­
tam a mesma transformação linear em relação a duas bases orde­
nadas (possivelmente) distintas.
Notemos que toda n
x n matriz A é semelhante a si mesma,

bastando tomar P= I; sl' é semelhante a A, então A é semelhante


a B, pois, B=P-1AP implica que A=(P-1)-1BP-1; se B é seme­
lhante a A e C é semelhante a B, então C é semelhante a A, pois
B= p-1 AP e C= Q- 1 BQ implicam que C=(PQ)-1A(PQ). Assim,
a semelhança é uma relação de equivalência: sobre o conjunto das
n x n matrizes sobre o corpo F. Notemos também que a única
matriz semelhante à matriz unidade I é a própria I e que a
única matriz semelhante à matriz nula é a própria matriz nula.

Exercícios

2
1. Seja To operador linear sobre C definido por Tx ( " x2) = x( " O). Seja !Ã
2
a base ordenada canônica de C e seja !,l' = {a" a 2} a base ordenada definida
por a1 = (1, i), a2 = (-i, 2).
(a) Qual é a matriz de T em relação ao par a, !,l'?
(b) Qual é a matriz de T em relação ao par a', a?
(e) Qual é a matriz de T em relação à base ordenada a'?
(d) Qual é a matriz de T em relação à base ordenada {a2' a1}?
TRANSFORMAÇÔES LINEARES - 121

2. Seja T a transformação linear de R3 em R2 definida por

(a) Se f!I é a base ordenada canônica de /�-' e' 111 é a base ordenada canônica
2
de R , qual é a matriz de T em relação ao par 1!4, !!4'?
(b) Se lJ4 = {a" a2, a3} e f!I' = {P,, P2 }, sendo

a1 = (1, O, -1), a2 = (1, 1, 1), a3 = (1, O, O), {J1 =


(0, 1), {J2 =
(1, O)

qual é a matriz de T em relação ao par lJI, f!I'?


3. Seja T um operador linear sobre F", seja A a matriz de 1' em relação à
base ordenada canônica de F" e seja 1-1- o subespaço de F'' gerado pelos veto­
res-colunas de A. Qual é a relação de W com TI
4. Seja Jt um espaço vetorial bidimensional sobre o corpo F e seja f!I uma base
ordenada de Jt. Se T é um operador linear sobre V e

[T]f!I= [� �]
2
demonstrar que 1' - (a + d) 1' + (ad - bc) 1 = O.

5. Seja T o operador linear sobre R-', cuja matriz em relação ú base ordenada
canônica é

[ 1 2 1 )
A= O 1 l_ ·

-1 3 4

Determinar uma base da imagem de 1' e uma base do núcleo de 7:

6. Seja T o operador linear sobre R2 definido por

2
(a) Qual é a matriz de T em relação à base ordenada canônica de R ?
(b) Qual é a matriz de 1' em relação à base ordenada f!J = {a1, a2} sendo
a1 = (l, 2) e a2 = (!, 1)? -
(c) Demonstrar qile para todo número real e o operador (1' - cl) é inversível.
2
(d) Demonstrar que se lJ4 é uma base ordenada qualquer de R e [T],., = A,
então A12A21 #-O.

3
7. Seja 1' o operador linear sobre R definido por

T(xl' x2, x3) =


(3x1 + x-
3, 2x1 + x2, -x, + 2x2 + 4x3).

(a) Qual é a matriz de T em relação à base ordenada canônica de R3?


(b) Qual é a matriz de 1' em relação à base ordenada
122 .;___ ALGEBRA LINEAR

sendo IX1 = (1, O, 1), IX2 = (- 1, 2, 1), e IX3 = (2, 1, l)?


(c) Demonstrar que T é inversivel e dar uma regra para T-1 como a que
define T.

8. Seja O um número real. Demonstrar que as duas matrizes seguintes são seme­
lhantes sobre o corpo dos números complexos:

[cos O
sen O
-sen
coso
º]
.
(Sugestão: Seja T o operador linear sobre C2 que é representado pela pri­
meira matriz em relação à base ordenada canônica. Determinar então vetores
IX1 e ct2 tais que Tct1 = é61XP Tct2= e-i6ct2' e {ctl' ct2} seja uma base.)

9. Seja V um espaço .vetorial de dimensão finita sobre o corpo F e sejam S e T


operadores lineares sobre V. Perguntamos: quando é que existem bases orde­
nadas f!J e f!J1 de V_ tais que [S]t!J = [T:M8"1 Demonstrar que tais bases
existem se, e somente se, existe um operador linear inversível U sobre V tal
que T= úsu-1• (Esboço de demonstração: Se [SJ.@=[T]f!J",'seja U o
operador que leva.@ sobre f!J'; mostrar que S = UTU-1• Reciprocamente se
T= usu-1 para algum U inversível, seja f!J uma base ordenada arbitrária
de V e seja t!J' sua imagem por meio de U. Mostrar então que [S],96' = [T]f!J'.)

10. Vimos que o operador linear 1' sobre R2 definido por T(xp x,) = (xp O) é
representado em relação à base ordenada canônica pela matriz

A= [� �J
2
Este operador satisfaz T = T. Demonstrar que se S é um operador linear
2
sobre R2 tal que S = S, então S = O ou S = l ou então existe uma base
ordenada rM de R2 tal que [S]f!J= A (acima).

11. Seja W o espaço das n x 1 matrizes-colunas sobre um corpo F. Se A é uma

n x n matriz sobre F, então A define um operador linear LA sobre· W por


meio da multiplicação à esquerda: LA(X) = AX. Demonstrar que todo ope­
rador linear sobre W é a multiplicação à esquerda por alguma n x n matriz,
isto é, é L A para algum A.
. _

Suponhamos agora que V seja um espaço vetorial-dimensional sobre o corpo


F e seja f!J uma base ordenada de V. Para cadà ct em V definamos UIX= [ ct]f!J.
Demonstrar que U é um isomorfismo de V em W. Se T é um operador linear
sobre V; então UTU-1 é Úm operador linear sobre W. Isto sÍgnifica que
UTu-r é a multiplicação à esquerda por alguma n x n matriz A. Qual é a
matriz A?

12. Seja V um espaço vetorial n-dimensional sobre o corpo F e seja f!J = {ct , ..., ctn}
1
uma base ordenada de V.
(a) De acordo com o Teorema 1, existe um único operador linear T sobre
V tal que
TRANSFORMAÇÔES LINEAR.ES - 123

Tai = ai+ l' j = 1, .. , . n - 1, Ta. = O.

Qual é a matriz A de T em relação à base .ordenada 14?


(b) Demonstrar que T" =O mas r·-1 #O.
(c) Seja S um operador linear arbitrário sobre V tal que S" =O mas s•-1 #O.
Demonstrar que existe uma base ordenada f!iJ1 de' V tal que a matriz de S em
relação à base ordenada f!iJ' é a matriz A da parte (a).
(d) Demonstrar que se Me N são n ·'><· n matrizes sobre F tais que M" = N" =O
mas M"- 1 #O # N"-1, então M e N são semelhantes.

13. Sejam V e W espaços vetoriais de dimensão finita sobre o corpo F e seja T


uma transformação linear de V em W. Se
f!iJ = {11.1, • • • ,a.} e f!iJ' = {P" ... , P } ..

são bases ordenadas de V e W, respectivamente, definamos as transformações


lineares EM como na demonstração do Teorema 5: F,M(a;) = 01,,p".• Então
as E"·'', 1 s; p s; m, l s; q s; 11, formam uma base de L(V, W), e portanto
m "

T = I I A,,,,Ep,q
p= 1 q= 1

para certos escalares A.,, (as coordenadas de T em relação a. esta base de


L(V, W)). Mostrar que a matriz com elementos A(p,q) =A,,., é exatamente a
matriz de T em relação ao par f!iJ, r!fi'.

3.5 Funcionais Lineares


Se V é um espaço vetorial sobre o corpo F, uma transfor­
mação linear f de V no corpo F dos escalares é também denomi­
nada funcional linear sobre V. Se partirmos do início, isto significa
que f é uma função de V em F tal que

f (ccx + /3) = cf (ex) + f (/3)


para todos os vetores ex e f3 em V e todos os escalares e em F. O
conceito de funcional linear é importante nos estudos dos espaços
de dimensão finita porque ajuda organizar e esclarecer a discussão
de subespaços, equações lineares e coordenadas.

Exemplo 18. Seja F um corpo e sejam a 1, • • • , ª" escalares


em F. Definamos a função f sobre F":

f(xl, ...,xn) = alx1 + · · · + an Xn.

Então f é um funcional linear sobre F", e é representado pela matriz


[a1' ... , a" ] em relação à base ordenada canônica de F" e à base
{1} de F:
124 - ALGEBRA LINEAR

ai = f (e), j = 1, ... , n.

Todo funcional linear sobre F" é dessa forma, para determinados


escalares al' . . . , ª ·
"
Isto decoire imediatamente da definição de
funcional linear pois colocamos ai = j (e) e usamos a linearidade

f (xl' ... , x" ) = 1(� ) Xh

=L,x)(€)

=
L ª XJ .J •

Exemplo 19. Eis um exemplo importante de funcional linear.


Seja n um inteiro positivo e F um corpo. Se A é uma n x n matriz
com elementos em F, o traço de /Í é o escalar

tr A = A 11+ A 22+ . .. + A nn·

A função traço é um funcional linear sobre o espaço das matrizes


F"x", pois
ti

tr(cA + B) = L (cA;; + B;)


i= 1

n n
= e L A;; + L B;;
i=l i= 1

= e tr A+ tr B.

Exemplo 20. Seja V o espaço vetorial das funções polinomiais


do corpo F em si mesmo. Seja t um elemento de F. Se definirmos

L,(p) = p(t)
então L1 será um funcional linear sobre V. Geralmente descreve-se
isto dizendo que, para cada t, o cálculo do valor em t é um fun­
cional linear sobre o espaço das funções polinomiais. Talvez de­
vamos observar que o fato de as funções serem polinomiais, não
desempenha nenhum papel neste exemplo. O cálculo do valor
em t é um funcional linear no espaço de todas as funções de F em F.
TRANSFORMAÇÔES LINEARES - 125

Exemplo 21. Este talvez seja o funcional linear mais impor­


tante da matemática. Seja [a, b] um intervalo fechado na reta real
e seja C([a, b]) o espaço das funções contínuas definidas sobre
[a, b], com valores reais. Então

L(g) = rg(t)dt
define um funcional linear L sobre C([a, b]).
Se V é um espaço vetorial, a coleção de todos os funcionais
lineares sobre V constitui um espaço vetorial de uma maneira
natural. Trata-se do espaço L(V, F). Representamos este espaço
por V* e o denominamos espaço dual de V:

V*= L(V, F).

Se V é de dimensão finita podemos obter uma descrição bas­


tante explícita do espaço dual V*. Pelo Teorema 5 sabemos alguma
coisa sobre o espaço V*, a saber, que

dim V*= dim V .

Seja 36= { cv:l' ... , cv:"} uma base de V. De acordo com o Teorema 1,
existe (para cada i) um único funcional linear J; sobre V tal que

(3-11)

Desta maneira obtemos a partir de 36 um con� unto de n funcionais


lineares distintos /1, • . . , f� sobre V. Estes funcionais também são
linearmente independentes. De fato, suponhamos que

li

(3-12) J = L C;);
i= 1

Então
n

I (cv:) = I cJ,(cv:)
i=l

= I cJ>ij
i= 1
126 -'-- ALGEBRA LINEAR

Em particular, se fé o funcional nulo, f(oc) =O para cada j, logo,


os escalares cj são todos nulos. Ora, fl' . . . , fn são n funcionais
linearmente independentes e como sabemos que V* tem dimensão n,
devemos ter que :?J* = lf1, ... ,fJ é uma base de V*. Esta base
é dita a base dual de PÃ.

Teorema 15. Seja V u m espaço vetorial d e dimensão f inita sobre


o corpo F e seja :?J = { a1, . .. , txnf uma base de V. Então existe uma
única base dual :?J* = { fl' . .. , fn} de V* tal que fJo:) = <\. Para
cada funcional linear f sobre V temos
n

(3-13) r L: r(ocJr;
i=
=

e p ara cada vetor oc em V temos

(3-14)' a � L fi(oc) oci.


i= 1

Demonstração. tj
D monstraremos acima que existe uma única
base que é "dual" a PÃ. Se f é um funcional linear sobre V então
f é alguma combinação linear (3-12) dos J; e, como observamos
por (3-12), os escalares cj são dados necessariamente por cj=f(oc).
Analogamente, se
n

oc = L xioci
i= 1
é um vetor em V, então

Jj(oc) = I xfiocJ
i= 1 .

= x.J
de modo que a única expressão de oc como combinação linear dos

O(i é
n

oc = I J;(oc) oci.
i= 1
TRANSFORMAÇÕES LINEARES - 127

A equação (3-14) nos fornece agora uma maneira satisfatória


de descrever o que é a base dual. Ela nos diz que se f!lJ {al' ... , cx.}
=

é uma base ordenada de V e f!lJ* lfl' . .. j J é a base dual, então


=
, ;

f; é exatamente a função que associa a cada vetor cx em V a i-ésima


coordenada de et em relação à base ordenada f!JJ. Assim podemos
também chamar as J; de funções coordenadas para f!lJ. A fórmula
(3-13) quando combinada com (3-14) nos diz o seguinte: Se f está
em V* e f(cx;) =a;, então se

temos
(3-15)

Em outras palavras, se fixamos uma base ordenada f!lJ de V e des­


crevemos cada vetor em V por sua n-upla de coordenadas (xl' ... , x11)
em relação a f!lJ, então, todo funcional linear sobre V é da forma
(3-15). Esta é a generalização natural do Exemplo 18 onde foi visto
o caso especial V = F" e f!lJ { s 1, ... , 1>11 } .
=

Exemplo 22. Seja V o espaço vetorial das funções polinomiais


de R em R, de grau menor ou igual a 2. Sejam tl' t2 e t3 três quais­
quer números reais distintos e seja

L;(P) =
p(t;).

Então L 1, L 2 e L3 são funcionais lineares sobre V. Estes funcionais


são linearmente independentes; de fato, suponhamos que

Se L O isto é, se L(p) O para todo p em V, então, aplicando


=
,
=

2
L às "funções" polinomiais particulares 1, x, x , obtemos

c1 + c2 + c3 = O
t1c1 + t2c2 + t3c3 = 0
ti c1 + t; c2 + t; c3 =
O .

Disto decorre que c1 c2 = =


c3 =
O pois (como mostram alguns
,

cálculos simples) a matriz


128 .:___ ÁLGEBf!A LINEAR

[;1 t 3.
t� t� 1�
� / ]
e inversível quando tl' t2 e t3 são distintos. Portanto, os L; são.
independentes e como V tem dimensão 3, estes funcionais formam
uma báse de V*. Qual é a base de V cuja dual é esta? ·Tal base
{ptt' P2, p3} de V precisa satisfazer

Li(P) = ô1i

ou

Estas funções polinomiais são, como se vê facilmente,

A base .{pl' p2' p3} de V é interessante porque, de acordo com


(3-14), temos, para cada p em V,

P = p(t1)P1 + p(t2)P2 + p(t3)P3·

Assim, se cl' c2 e c3 são números reais arbitrários, existe exata­


mente uma função polinomial p sobre R de grau menor ou igual
a 2 que satisfaz p (t) = ci, j = 1, 2, 3. Esta função polinomial é
p = C1P1 + C2P2 + C3P3·
Discutamos agora a relação entre f1mcionais lineares e subes­
paços. Se f é um funcional linear não nulo, o posto de f é 1, pois
a imagem de f é um subespaço não nulo do corpo dos escalares
e é necessariamente o corpo dos escalares. Se o espaço V súbja­
cente for de dimensão finita, o teorema do posto mais a nulidade
(Teorema 2) afirma que o núcleo NI tem dimensão
dimN dim V-1.
1
=
TRANSFORMAÇÔES LINEARES - 129

Em um espaço vetorial de dimensão n, um subespaço de dimensão


n - 1 é denominado um hiperplano. Estes espaços são às vezes
denominados subespaços de codimensão 1. Perguntamos: todo
hiperplano é núcleo de um funcional linear? É fácil ver que a
resposta é afirmativa. E não é muito mais dificil mostrar que todo
subespaço d-dimensional de um espaço n-dimensional é a inter­
seção dos núcleos de (n - d) funcionais lineares (Teorema 16
abaixo).

Definição. Se V é um espaço vetorial sobre o corpo F e S é um


subconjunto de V, o anulador de S é o conjunto Sº dos funcionais
lineares f sobre tais V que f(ex) O para todo ex em S.
=

Deve ficar claro para o leitor que Sº é um subespaço de V*,


seja S um subespaço de V ou não. Se S é o conjunto formado
apenas pelo vetor nulo, então, .Sº = V*. Se S = V, então Sº é o
subespaço nulo de V*. (Isto é fácil de ver para o caso em que V
é de dimensão finita.)

Teorema 16. Seja V um espaço vetorial de dimensão finita sobre


o corpo F e seja W um subespaço de V. Então

dim W + dim Wº = dim V.

Demonstração. Seja k a dimensão de W e {ex1, ..., exk} uma


base de W. Tomemos vetores exk + 1' ..., exn em V tais que {ex 1, , exn} • . •

seja uma base de V. Seja {!1' ..., fn} a base de V* que é a dual
desta base de V. Afirmamos que {fk + 1, ..., fn } é uma base do
anulador Wº. Certamente fi pertence a Wº- para i ;;:::: k + 1, porque

f,(ex) = ôii

e ôii = O se i;;:::: k + 1 e j::;; k; disto decorre que, para i ;;:::: k + 1,


J;(ex)
= O sempre que' ex seja uma combinação linear de exl' ..., exk.
Os funcionais fk + 1, ..., fn são independentes, portanto basta mostrar
qtte eles geram Wº. Suponhamos que f esteja em V*. Ora,
n
! = I f (exi) J;
i= 1
de modo que, se f está em Wº, temos f (exi) = O para i::;; k e
n
! =
I ! (ex)J;.
i=k+1
130 -'--- ALGEBRA LINEAR

Mostramos assim que se dim W = k e dim V =


n então

dim wº = n - k.

Corolário. Se W é um subespaço k-dimensional de um espaço


vetorial V, n-dimensional, então W é a interseção de (n - k) hiper­
planos em V.

Demonstração. Este é um corolário da demonstração do Teo­


rema 16, mais do que do seu enunciado. ·Com a notação da
demonstração, W é exatamente o conjunto dos vetores oc tais que
fi(oc) O i k + 1, ... , n. Quando k n 1, W é o núcleo de f,,.
=
, = = -

Corolário. Se W 1 e W2 são subespaços de um espaço vetorial


de dimensão finita, então w1 w2 = se, e somente se, w� = w�.
Demonstração. Se W 1 W2 ent�o certamente W� W�. Se
= =

W1 # W2 então um dos subespaços contém um vetor que não está


no outro. Suponhamos que exista um vetor oc que esteja em W2
mas não em W1. Pelos corolários anteriores (ou a demonstração
do Teorema 16), existe um funcional linear f tal que f (/3) O para =

todo p em W, mas f (a.) # O. Então f está em W1 mas não em W�


e w� # w�.
Na próxima seção daremos uma demonstração diferente destes
dois corolários. O primeiro corolário afirma que se fixarmos alguma
base ordenada para o espaço, cada subespaço k-dimensional pode
ser descrito, especificando-se (n - k) condições lineares homogêneas
sobre as coordenadas, em relação àquela base.
Consideremos rapidamente sistemas de equações lineares homo­
gêneas do ponto de vista de funcionais lineares. Suponhamos ter
um sistema de equações lineares

À11X1 + . . . + Alnxn =
O

cujas soluções queiramos determinar. Se indicarmos por fi, i = 1,


. . , m, o funcional linear sobre pn definido por
.
TRANSFORMAÇÔES LINEARES - 131

então estamos procurando o subespaço de F" constituído por todos


ix tais que

fJix) = O, i = 1, . ., m.
.

Em outras palavras, estamos procurando o subespaço anulado por


f1, • • . ,fm. A linha-redução da matriz dos coeficientes nos fornece
um método sistemático para determinar esse subespaço. A n-upla
(A;1, . ., . A;.) dá as coordenadas do funcional linear f; em relação
à base que é dual da base canônica de F". O espaço-linha da
matriz dos coeficientes pode portanto ser considerado como o
espaço de funcionais lineares gerado por !1' .. .,f m' o espaço­
solução é o subespaço anulado por esse espaço de funcionais.
Agora podemos considerar o sistema de equações do ponto
de vista "dual". Isto é, suponhamos que nos sejam dados m vetores
em F"

e queiramos determinar o anulador do subespaço gerado por esses


vetores. Como um funcional linear arbitrário sobre F" tem a forma

a condição para que festeja nesse anulador é que

L A;fi = O, i = 1, . ., m
.

j=l

isto é, que (c1, ..., e,,) seja uma solução .do sistema AX = O . Sob
este ponto de vista, a linha-redução nos dá um método sistemático
para determinar o anulador do subespaço gerado por um dado
conjunto f inito de vetores em F".

Exemplo 23. Consideremos os três funcionais lineares sobre R•:

f1(xl, X2, X3, X4) =


X1 + 2x2 + 2x3 + X4
f2(X1, x2' X3, X4) =
. 2x2 + X4 .
f (xl' x2, x3, x4) =
-2x1 - 4x3 + 3x4.

O subespaço que eles anulam pode ser descrito explicitamente,


determinando-se a matriz linha-reduzida à forma em escada que
é linha-equivalente a
132 - ALGEBRA LINEAR

A= [�; 2 1
o 1 .
]
-2 o -4 3
/'
Um rápido cálculo ou um exame do Exemplo 21 do Capítulo 2,
mostra que

]
� �o 1�
o

Portanto os funcionais lineares

gl(xl' X2, X3, X4) =


X1 + 2x3
g2(x1' x2' X3, X4) =
X2
g3(X1, X2, X3, X4) =
X4

4
geram o mesmo subespaço de (R )* e anulam o mesmo subespaço
de R4 que fl ' f2, f3. O subespaço anulado é constituído dos veto-
res com
X1 =
-2x3
X2 =
X4 =
Ü

Exemplo 24. Seja W o subespaço de R5 gerado pelos vetores

oc1 =
(2 -2, 3, 4, -1),
, oc3 =
(O O, -1, -2, 3),
,

0(2 =
( -1, 1, 2, 5, 2), OC4 =
(1, -1, 2, 3, O).

Como se descreve Wº, o anulador de W? Formemos a 4 x 5 ma­

1 [
triz A com vetores-linhas ocl' oc2' oc3, oc4 e determinemos a matriz R

[-i
linha-reduzida à forma em escada que é linha-equivalente a A;

ºl.
-2 3 4 -1 1 -1 o 1
1 2 5 o 1 -2 o
A
= O
1
o
-1
-1
2
2
-3 i �
R

� � o
o
o
o
o
o
1
o

Se f é um funcional linear sobre R5,

5
f(x1, ..., Xs) =
L1 eh
j=
TRANSFORMAÇÔES LINEARES - 133

então f está em Wº se, e somente se, f (ex) = O, i = 1, 2, 3, 4, isto é,


se, e somente se,

L À;fi = O, 1 ::;; i ::;; 4.


j= l

Isto é equivalente a

5
L Riici = O, 1 ::;; i ::;; 3
j= l
ou

c1 - c2 - c4 Ü =

C3 + 2c4 0 =

C5 =O.

Obtemos todos esses funcionais lineares atribuindo valores arbi­


trários a c2 e c4, por exemplo, c2 =a e c4 = b e depois calculando
os correspondentes c1 =a+ b, c3 = -2b, c5 = O. Portanto, Wº
consiste de todos os funcionais lineares f da forma

A dimensão de Wº é 2 e pode-se encontrar uma base {f1, f2} de


Wº tomando primeiro a 1, b O e depois a = O, b = 1:
= =

f1(Xp . . •
, X5) = Xl + Xz
f2(Xp • • •
, X5) = X1 - 2x3 + X4.

Um f arbitrário em Wº é f =
af 1 + bf2•

Exercícios

1. Em R3, sejam oc1 = (1, O, 1), oc2 =(O, l, -2), oc3 = (-1, -1, O).

(a) Se f é um funcional linear sobre R3 tal que

e se oc = (a, b, e), determinar f(oc).

(b) Descrever explicitamente um funcional linear f sobre R3 tal que


134 -'--- ALGEBRA LINEAR

(c) Seja f um funcional linear arbitrário tal que

Se IX= (2, 3, -1), mostrar que f(1X) #-O.


3
2. Seja fJI = {1Xl' IX2, 1X3} a base de C definida por

IX1 = (1, O, -1), IX2 = (1, 1, 1), IX3 = (2, 2, O).

Determinar a base dual de ffl.

3. Se A e B são n x n matrizes sobre o corpo F, mostrar que traço (AB) traço =

(BA). Mostrar depois que matrizes semelhantes têm o mesmo traço.

4. Seja V o espaço vetorial das funções polinomiais p de R em R que têm grau


menor ou igual a 2, ou seja,

Definamos três funcionais lineares sobre V por

f. 1 f. 2
- ·
f1(p) =
0 p(x) dx f 2(p) = 0 p(x) dx f3(p) =
10 p(x) dx.

Mostrar que {f1,f2,f3} é uma base de V" exibindo a base de V da qual


ela é dual.

5. Se A e B são n x n matrizes complexas, mostrar que é impossível ter-se


AB - BA = 1.
6. Sejam m e n inteiros positivos e F um corpo. Sejam f1 , ..., fm funcionais
lineares sobre F". Para IX em F" definamos

Mostrar que T é uma transformação linear de F" em Fm. Mostrar então que
toda transformação linear de F" em � é da forma acima, para certos
Ít> ... , Ím·

7. Sejam IX1 (1, O, -1, 2) e IX2 = (2, 3, 1, 1) e seja W o subespaço de R4


=

gerado por IX1 e IX2• Quais funcionais lineares f,

estão no anulador de W?

8. Seja W o subespaço de R5 gerado pelos vetores

IX1 = 81 + 282 + 83 , IX2 = 82 + 383 + 3e4 + 85


1X3 = 81 + 482 + 683 + 484 + e5•
TRANSFORMAÇÔES LINEARES - 135

Determinar uma base de Wº.

9. Seja V o espaço vetorial das 2 x 2 matrizes sobre o corpo dos números


reais e seja

Seja W o subespaço de V que consiste de todas A tais que AB=O. Seja f um


funcional linear sobre V que esteja no anulador de W. Suponhamos que
f(J) =O e f(C) = 3, sendo 1 a 2 x 2 matriz unidade e

e= [� �]-
Determinar f (B).

10. Sej� F um subcorpo do corpo dos números complexos. Definamos n fun­


cionais lineares sobre F"(n ;;:: 2) por

j�(x P .. ., x.)= I (k - j) xi' 1 5: k 5: n.


j= l

Qual é a dimensão do subespaço anulado por f1, • • . j�?


,

11. Sejam 11-1 e W2 subespaços de um espaço vetorial V de dimensão finita.


(a) Demonstrar que (W; + W2)º= W� n W�.
(b) Demonstrar que (W; n W2)º= W� + W�.

12. Seja V um espaço vetorial de dimensão finita sobre o corpo F e seja W um


subespaço de V. Se f é um funcional linear sobre W� demonstrar que existe
um funcional linear g sobre V tal que g(a) = f (a) para todo a no subespaço W.

13. Seja F um subcorpo do corpo dos números complexos e seja V um espaço


vetorial arbitrário sobre F. Suponhamos que f e g sejam funcionais lineares
sobre V tais que a função h, definida por h(a)=f(a)g(a) também seja um
funcional linear sobre V. Demonstrar que ou f=O ou g =O.

14. Seja F um corpo de característica zero e seja V um espaço vetorial de dimensão


finita sobre F. Se ai' ..., am são um número finito de vetores em V, todos dife­
rentes do vetor nulo, demonstrar que existe um funcional linear f sobre V
tal que

f (a,) #O, i = 1, ..., m.

15. De acordo com o Exercício 3, matrizes semelhantes possuem o mesmo traço.


Portanto podemos definir o traço de um operador linear sobre um espaço de
dimensão finita, como sendo o traço de qualquer matriz que represente o ope­
rador em relação a uma base ordenada. Essa é uma boa definição pois todas
as matrizes representantes de um mesmo operador são semelhantes.
136 -'--- ALGEBRA LINEAR

Seja agora V o espaço das 2 x 2 matrizes sobre o corpo F e seja P uma


2 2' matriz fixa, Seja T o operador linear sobre V definido por T(A) = PA.
x

Demonstrar que traço (T) = 2 traço (P).

16. Mostrar que o funcional traço sobre n x n matrizes é o único no seguinte sen­
tido: se W é o espaço das n x n matrizes sobre o corpo F e se f é um
funcional linear sobre W tal que f (AB) = f (BA) para todas as A e B em W,
então f é um múltiplo escalar da função traço. Se, além disso, f (1) = n, então
f é a função traço.

17. Seja W o espaço das n x n matrizes sobre o corpo F e seja W� o subespaço

gerado pelas matrizes C da forma C AB - BA. =

Demonstrar que W0 é exatamente o subespaço das matrizes que têm


traço nulo. (Sugestão: Qual é a dimensão do espaço das m�trizes de traço
nulo? Usar as "matrizes unitárias", isto é, as matrizes com exatamente um
elemento não-nulo, para construir um número suficiente de matrizes linear­
mente independentes da forma AB - BA.)

3.6 O Bidual

Uma das perguntas a respeito de bases duais que não foi res­
pondida na última seção é se cada base de V* é a dual de alguma
base de V. Uma maneira de responder esta questão é considerar
V**, o espaço dual de V*.
Se a é um vetor de V, ele induz um funcional linear Lª sobre
V*, definido por

Lª(f)=f(a) f , em V*.

O fato de que Lª é linear é apenas uma reformulação da defi­


nição de operações lineares em V*:

L.,(cf+ g)= (cf+ g) (a)


(cf) (a)+ g(a)
=

cf(a)+ g(a)
=

cLª(f)+ Lª(g).
=

Se V for de dimensão finita e a#O, então Lª #O; em outras


palavras, existe um funcional linear f tal que f(a)#O. A demons­
tração é muito simples e foi dada na Seção 3.5: Escolhemos uma
base ordenada .14= { al' ... , an} de V tal que a1=a e para f, o
funcional linear que assóCia a cada vetor em V sua primeira coor­
denada em relação a base ordenada .14.
TRANSFORMAÇÔES LINEARES - 137

Teorema 16. Seja V um espaço vetorial de dimensão finita sobre


o corpo F. Para cada vetor a em V definamos

Lª(f) = f(a), f em V*.

A aplicação <X-+ Lª é então um isomorfismo de V em V**.


Demonstração. Mostramos que para todo a a função Lª é
linear. Suponhamos que a e fJ estejam em V, c esteja em F e seja
y = ca + {J. Então, para todo f em V*

Lif) = f(y)
f(ca + {J)
=

cf (a) + f ({J)
=

= c Lª( f) + L1i(f),
portanto,

Isto mostra que a aplicação a -+ Lª é uma transformação linear de


V em V**. Esta transformação é não-singular, pois de acordo com
as observações acima La.=O se, e somen�e se, a =O. Portanto,
a -+ Lª é uma transformação linear não-singular de V em V**,
e como

dim V** = dim V* = dim V

o Teorema 9 nos diz que esta transformação é inversível, sendo


portanto um isomorfismo de V em V**.

Corolário. Seja V um espaço vetorial de dimensão finita sobre


o corpo F. Se L é um funcional linear sobre o espaço V* dual de V,
então existe um único vetor a em V tal que

4,f) = f(a)

para todo f em V*.

Corolário. Seja V um espaço vetorial de dimensão finita sobre


o corpo F. Toda base de V* é a dual de alguma base de V.

Demonstração. Seja f!I* = {fp . , ln} uma base de V*,


. . Pelo
Teorema 15, existe uma base {Lp ... , L n } de V** tal que
138 - ALGEBRA LINEAR

Usando o corolário acima, para cada i existe um vetor rxi em V tal que

para todaf em V*, isto é, tal que Li= L(1.,· Decorre imediatamente
que {rxl' ... , rx.} é uma base de V e que B* é a dual desta base.
Em vista do Teorema 17, geralmente identificamos rx com La.
e dizemos que V "é" o espaço dual de V* ou que os espaços V e
V* são duais um do outro de uma maneira natural. Cada um é o
espaço dual do outro. No último corolário vimos um exemplo de
como este fato pode ser usado. Aqui está mais um exemplo:
Se E é um subconjunto de V*, o anulador Eº é (tecnicamente)
um subconjunto de V**. Se decidirmos identificar V e V**, como
no Teorema 17, então Eº é um subespaço de V, a saber, o con­
junto de todos os rx em V tais que f (rx)=O para todo f em E. Num
dos corolários do Teorema 16 observamos que cada subespaço W
é determinado pelo seu anulador Wº. Determinado de que ma­
neira? A resposta é que W é o subespaço anulado por todos os f
em Wº, isto é, W é a interseção dos núcleos de todos os f em Wº.
Como nossa atual notação para anuladores, a resposta pode ser
formulada de uma maneira muito simples: W= (Wº)º.

Teorema 18. Se S é um subconjunto qualquer de um espaço


vetorial V de dimensão finita, então (Sº)º é o subespaço gerado por S.
Demonstração. Seja W o subespaço gerado por S. Obviamente
Wº = Sº. Portanto, devemos demonstrar que W = Wºº. Já fizemos
uma demonstração. Aqui está uma outra. Pelo Teorema 16

dim W + dim Wº = dim V

dim Wº + dim Wºº = dim V*

e sendo dim V= dim V*, temos

dim w= dim w00.

Como W é um subespaço de Wºº, vemos que W= Wºº.


Os resultados desta seção são válidos para espaços veto­
toriais arbitrários; no entanto, sua demonstração requer o uso do
assim chamado Axioma da Escolha. Queremos evitar uma extensa
TRANSFORMAÇÔES LINEARES - 139

discussão deste axioma e portanto não trataremos de anuladores


de espaços vetoriais em geral. Mas, existem dois resultados a res­
peito de funcionais lineares sobre espaços vetoriais arbitrários que,
por serem tão fundamentais, deverão ser incluídos aqui.
Seja V um espaço vetorial. Queremos definir hiperplanos em
V. A não ser que V seja de dimensão finita, não podemos dar essa
definição através da dimensão do hiperplano. Mas, podemos tra-·
duzir a idéia de um espaço N, que preenche V a menos de uma
dimensão, da seguinte maneira:
1. N é um subespaço próprio de V .
2. Se W é um subespaço de V contendo N, então ou W = N
ou W=V.
Tomadas em conjunto, as condições (1) e (2) dizem que N é
um subespaço próprio e não existe nenhum subespaço próprio
maior; em suma, N é' um subespaço próprio maximal.
Definição. Se V é um espaço vetorial, um hiperplano em V é
um subespaço próprio maximal de V.

Teorema 19. Se f é um funcional linear não nulo sobre o espaço


vetorial V, en tão o núcleo de f é um hiperplano em V. Reciproca­
mente, todo hiperplano de V é o núcleo de um (não único) .funcional
linear não nulo sobre V.
Demonstração. Seja f um funcional linear não nulo sobre V e
N1 o seu núcleo. Seja i:x. um vetor em V que não esteja em N , isto é,
I
um vetor tal que f (i:x.) #O. Vamos mostrar que todo vetor de V
pertence ao subespaço gerado por N
I
e a. Este subespaço é for­
mado por todos os vetores

y + ca y em N 1 , e em F.

Seja {3 um vetor de V. Definamos

({3)
e =f
f(a)

o que faz sentido pois f (a) =I= O. Então todo vetor y = {3 - ca está
em N 1, pois

f (y) =f({3 -ca)


=f({J)-c f(a)
=Ü.
140 - ALGEBRA LINEAR

Portanto, fJ pertence ao subespaço gerado por Nf e a.


Seja agora N um hiperplano em V. Fixemos um vetor a que
não esteja em N. Como N é um subespaço próprio maximal, o
subespaço gerado por N e a é o espaço todo V. Portanto, todo
vetor f3 em V tem a forma

f3 = y + ca y em N, c em F.

O vetor y e o escalar c são determinados de modo único por {J.


Se também tivéssemos

'
fJ = y' + c'a y em N, c' em F,

então
'
(c' - c ) a = y - y.

'
Se c' - c =f. O, a estaria em N; logo c'·= c e y = y. Uma outra
maneira de formular nossa conclusão é esta: Se f3 está em V, existe
um único escalar c tal que fJ - ca está em N. Chamemos esse
escalar de g(/3). É fácil ver que g é um funcional linear sobre V e
que N é o núcleo de g.

Lema. Se f e g são funcionais lineares �bre um espaço vetorial


V, então g é um múltiplo escalar de f se, e somente se, o núcleo
de g contiver o núcleo de f, isto é, se, e somente se, f(a) =O impli­
car g(a) =O.
Demonstração. Se f = O então também g = O e g é trivialmente
um múltiplo escalar de f. Suponhamos f =f. O, de modo que o núcleo
Nf seja um hiperplano em V. Escolhamos um vetor a em V com
f (a)-:/- O e seja
g(a) .
c=
f (a)

O funcional linear h = g - cf é nulo sobre Nf pois tanto f como g


são nulos sobre Nf e h(a) g(a) - cf (a). Assim h é nulo sobre o
=

subespaço gerado por Nf e !X - e este subespaço é V. Concluímos


que h = O, isto é, que g = cf. ·

Teorema 20. Sejam g, f1, ... , f, funcionais lineares sobre utn


espaço ·vetorial V e sejam N, N 1, N, se us respectivos núcleos.
• • . ,
TRANSFORMAÇÔES LINEARES - 141

Então g é uma combinação linear de f1 , • • • , f, se, e somente se, N


com iver a interseção N 1 n ... n N ,.
Demonstração. Se g = c1/1 + ... + cJ, e f,(rx.) =O para cada i,
então obviamente g(rx.) O Portanto, N contém N1 n .. n N,.
= . .

Provaremos a recíproca (a parte "se" do teorema) por indução


sobre o número r. O lema precedente demonstra o teorema para
o caso r = 1. Suponhamos o resultado conhecido para r k-1 =

e sejam f1, ,fk funcionais lineares com núcleos N1' ..., Nk tais
. • .

que N 1 n ... n Nk esteja contido em N, o núcleo de g. Sejam


g', f�, ... ,f�_1 as restrições de g, fp ...,fk-l ao subespaço Nk.
Então g',f 'l' ... ,f�_1 são funcionais lineares sobre o espaço veto­
rial Nk. Além do mais, se rx. é um vetor em Nk e f ;(a)= O, i = 1, ... ,
k-1, então rx. pertence a N1 n ... n Nk e portanto g'(rx.) O Pela = .

hipótese de indução (o caso r = k 1), existem escalares ci' tais que


-

,
g = c1 j''1 + · · · +
c
k 1 f'k-1 ·

Seja
k -1
(3-16) h = g -
I cJ,·:
i= 1

Então h é um funcional linear sobre V e utilizando (3-16), h(rx.) =O


para todo rx. e m Nk. Pelo lema anterior, h é um múltiplo escalar
de fk. Se h = cJk, então
k

n = I cJ;·
i=-1

Exercícios

l. Seja n um inteiro positivo e F um corpo. Seja W o conjunto de todos os


vetores (x 1' . ., x.) em F" tais que x 1 + ... + x,,
. O. =

(a) Demonstrar que w0 consiste dos funcionais lineares f da forma

f(xl' . . , x.)
. =e L x/
1
j=

(b) Mostrar que o espaço W* dual de W pode ser identificado de maneira


"natural" com os funcionais lineares

sobre F" que satisfazem c1 + ... + e. = O.


142 - ÁLGEBRA LINEAR

2. Usar o Teorema 20 para demonstrar o seguinte: Se W é um subespaço de


dimensão finita de um espaço vetorial V e se {gl' .. ., g,} é uma base arbitrária
de Wº, então

W= n N., .
i= 1

3. Sejam S um conjunto, F um corpo e V(S;F) o espaço das funções de Sem F:

(f + g) (x) = f(x ) + g (x)


(cf) (x) = cf(x).

Seja W um subespaço n-dimensional arbitrário de V(S;F). Mostrar que exis­


tem pontos Xp ... , x. em S e funções fp ... ,f. em W tais que f,(x) = b1r

3. 7 A Transposta de uma Transformação Linear

Suponhamos que V e W sejam dois espaços vetonais sobre


o corpo F e sejam uma transformação linear de V em W. Então
T induz uma transformação linear de W* em V*, como segue.
Supônhamos que g seja um funcional linear sobre W e· seja

(3-17) f(a) = g(Ta)

para cada a em V. Então (3-17) define uma função f de V em F,


a saber, a composta de T, uma função de V em W, com g, uina fun­
ção de W em F. Como Te g são ambas lineares, o Teorema 6 nos
diz que f também é linear, isto é, fé um funcional linear sobre V.
Assim T nos fornece uma função T1 que a cada funcional linear g
sobre W faz corresponder um funcional linear f = T1g sobre V,
definido por (3-17). Notemos também que T' ·é na verdade uma
transformação linear de W* em V*; de fato, se g1 e g2 estão em
W* e c é um escalar

[T1(cg1 + g2)](a) = (cg1 + g2) (TrY.)


= cg1(Tr1.) + gz(TrY.)
= c(T1g1)(a) + (T1g2)(a)

de modo que T1(cg1 + g2) = cT'g1 + T'g2.. Façamos um resumo.

Teorema 21. Sejam V é W espaços vetoriais sobre o corpo F.


Para cada transformação linear T de V em·w existe uma única trans­
formação linear T1 de W* em V* tal que
'
(T1g) (a) g (Ta) =

para todos g em W* e a em V.
TRANSFORMAÇÔES LINEARES - 143

Denominaremos T' a transposta de T. Esta transformação T'


é freqüentemente denominada a adjunta de T; no entanto, não
usaremos essa terminologia.

Teorema22. Sejam V e W espaços vetoriais sobre o corpo F e


seja T uma transformação linear de V em W. O núcleo de T 1 é o
anulador da imagem de T. Se V e W são de dimensão finil a, então
(i) posto (T 1) = posl o (T);
(ii) a imagem de T 1 é o anulador do núcleo de T.

Demonstração. Se g está em W*, então por definição

(T1g)(rx) = g(Trx)

para todo rx em V. A afirmação de que g está no núcleo de T' signi­


fica que g(Trx) =O para todo rx em V. Portanto, o núcleo de T' é
exatamente o anulador da imagem de T.
Suponhamos que V e W sejam de dimensão finita, digamos
dim V= n e dim W = n. (i) Seja r o posto de T, isto é, a dimen­
são da imagem de T. Pelo Teorema 16, o anulador da imagem de
T tem dimensão (m - r). Pela primeira afirmação deste Teorema,
a nulidade de T' deve ser (m - r). Mas como T' é uma transfor­
mação linear sobre um espaço vetorial m-dimensional, o posto de
T é m - (m - r ) = r, logo T e T' têm o mesmo posto. (ii) Seja N
o núcleo de T. Todo funcional que está na imagem de T1 está no
anulador de N; de fato, suponhamos que f = T1g para algum g
em W*; então, se rx está em N

f (rx) = (T1g)(rx) = g (Trx) = g (O) = O.

Ora, a imagem de T1 é um subespaço do espaço Nº, e

dim Nº = n - dim N = posto (T) = posto (T1)

de modo que a imagem de T1 deve ser exatamente Nº.

Teorema 23. Sejam V e W espaços vetoriais de dimensão finita


sobre o corpo F. Seja f!J uma base ordenada de V com base dual f!J*
e seja f!J' uma base ordenada de W com base dual f!J'*. Seja T uma
transformação linear de V em W; seja A a matriz de T em relação a
f!J, f!J' e seia
� B a matriz de T 1 em relação a f!J'* , f!J * . Então B IJ
. . = AJ... 1
144 - ALGEBRA LINEAR

Demonstração. Sejam

fJI {oc 1
= ocn } ,
' . • • ' !JI' = {/31' Pm}, · · ·,

= .
[JI* if1, .. JJ , ,
!JI'* = {gl, ... g m } . ,

Por definição,

Toei L Aiif3i' j = 1, . . , . n
i= 1
=

Pgj = L BiJi' j = 1, .
.. , m.
t= 1
Por outro lado,

m
= Ll Akigif3k)
k=

Para qualquer funcional linear f sobre V

m
t = I t (oc)f;·
i= 1

Aplicando esta fórmula ao funcional f = T'gi e usando o fato de


que (T'g) (oc;) = Aii temos

T'gj L. Aj,ff
i= 1
=

do que decorre imediatamente que Bii =Ai;·

Definição. Se A é uma m x n matriz sobre o corpo F, a trans­


posta de A é a n x m matriz A' definida pr A:j Aw =
· TRANSFORMAÇÔES LINEARES - 145

O Teorema 23 afirma , portanto, que se T é uma transfor­


mação linear de V em W, cuja matriz em relação a algum par de
bases é A, então a transformação transposta T1 é representada em
relação ao par de bases duais pela matriz transposta A'.

Teorema 24. Seja A uma m x n matriz arbitrária sobre o corpo


F. Então o posto-linha de A é igual ao posto-coluna de A.
Demonstração. Seja !14 a base ordenada canônica de F" e !14' a
base ordenada canônica de Fm. Seja Ta transformação linear de F"
em Fm tal que a matriz de T em relação ao par !14, !!J' seja A, isto é,

onde
n

yi L Aiixi"
j= 1
=

O posto-coluna de A é o posto da transformação T, pois a imagem


de Tconsiste de todas as m-uplas que são combinações lineares dos
vetores-colunas de A.
Em relação às bases duais !14'* e !14*, a aplicação transposta
T' é representada pela matriz A 1• Como as colunas de A1 são as
linhas de A, vemos, pelo mesmo raciocínio, que o posto-linha de A
(o posto-coluna de A1) é igual ao posto de T'. Pelo Teorema 22,
T e T1 têm o mesmo posto, logo o posto-linha de A é igual ao
posto-coluna de A.
Vemos agora que se A é uma m x n matriz sobre F e T é a
transformação linear de F" em pm definida acima, então

posto (T) = posto-linha (A) = posto-coluna (A)

e denominaremos este número simplesmente o posto de A.

Exemplo 25. Este exemplo será de natureza geral - mais


uma discussão que um exemplo. Seja V um espaço vetorial n-dimen­
sional sobre o corpo F e seja Tum operador linear sobre V. Supo­
nhamos que !14 = {al' ... , an} seja uma base ordenada de V. A
matriz de T em relação à base !14 é definida como sendo a n x n
matriz A tal que
146 - ALGEBRA LINEAR

Taj = L A;p;;
j= 1

em outras palavras, Aii é a i-ésima coordenada do vetor Trx.i em


relação à base ordenada PÃ. Se {!1, • • • , JJ é a base dual de PÃ,
isto pode ser enunciado simplesmente como

A ii = f;(T!X).

Vejamos o que acontece quando mudamos de base. Suponhamos que

seja outra base ordenada de V, com base dual {!�, .. . , f�}. Se B


é a matriz de T em relação à base ordenada t,I', então

Seja U o operador linear inversível }al que Uai= rxj. Então, a


transposta de Ué dada por V'l'; = Í;· E fácil verificar que por ser U
inversível, U1 também o é e (UT1 = (u-1y. Assim J; = (U 1 )1J;
- ,

i = 1, ... , n. Portanto,

Bii = [(u-1 )'l';] (Trx.j)


=f;(u 1Trx.j)
-

=f;(U-1TUrx.).
O que significa isto? Bem, f;(u-1 TUrx) é o el.emento i, j da matriz
de u- 1 TU em relação à base ordenada PÃ. Nossos c álculos acima
mostram que este escalar é também o elemento i, j da matriz de T
em relação à base ordenada t,I'. Em outras palavras,

[T]a·= [U 1 TU] g.J


-

= [u-1]a[T]a[U]a
= [V]; 1 [T]a [U] a

e esta é exatamente a fórmula de mudança de base que deduzimos


anteriormente.

Exercícios

2
1. Seja F um corpo e seja j o funcional linear sobre F definido por f (x" x2) =

= ax1 + bx 2• Para cada um dos operadores lineares T seguintes, sendo


g = T'f, determinar g(x., x2).
TRANSFORMAÇÔES LINEARES - 147

(a) T(x1, x2) = (x1, O);


(b) T(x" x2) = (-x2, x1);
(c) T(x1, x2 ) = (x1 - x2, x1 + x2).

2. Seja V o espaço vetorial das funções polinomiais sobre o corpo dos números
reais. Sejam a e b números reais fixos e seja f o funcional linear sobre V defi­
nido por

f( )
p =
r )d .
p(x x

Se D é o operador derivação sobre V, o que é D'f?

3. Seja V o espaço das n x n matrizes sobre um corpo F e seja B uma n x n

matriz fixa. Se T é o operador linear sobre V definido por T( A) AB - BA =

e se f é a função traço, o que é Tf?

4. Seja V um espaço vetorial de dimensão finita sobre o corpo F e seja T um


operador iinear sobre V. Seja e um escalar e suponhamos que exista um
vetor não-nulo ex em V tal que Ta ccx. Demonstrar que existe um funcional
=

linear não-nulo f sobre V tal que T'f cf.


=

5. Seja A uma m x n matriz com elementos reais. Demonstrar que A = O se,


e somente se, traço ( A' A) O. =

6. Seja n um inteiro positivo e seja V o espaço das funções polinomiais sobre o

corpo dos números reais, de grau menor ou igual a n, isto é, funções da forma

f(x) = c0 + c1x + ... + c.x".

Seja D o operador derivação sobre V. Determinar uma base do nÜcleo do


operador transposto D'.

7. Seja V um espaço vetorial de dimensão finita sobre o corpo F. Mostrar que


T-+ T' é um isomorfismo de L(V, V) em L(V*; V*).

8. Seja V o espaço vetorial das n x n matrizes sobre o corpo F.


(a) Se B é uma n x n matriz fixa, definamos uma função j� sobre V por
f8(A) =traço (B'A). Mostrar que f8 é um funcional linear sobre V.
(b) Mostrar que todo funcional linear sobre V é da forma acima, isto é,
é f8 para algum B.
(c) Mostrar que B-+ f8 é um isomorfismo de V em V*.
Capítulo 4

POLINÔMIOS

4.1 Álgebras

O objetivo deste capítulo é estabelecer algumas das proprie­


dades básicas da álgebra dos polinômios sobre um corpo. A dis'cus­
são será facilitada se introduzirmos primeiro o conceito de uma
álgebra linear sobre um corpo.

Definição. Seja F um corpo. Uma álgebra linear sobre o cor­


po F é um espaço vetorial d sobre F com uma operação adicional,
dita multiplicação de vetores, que associa a cada par de vetores IX,
f3 em d um vetor IX/J em d dito o produto de IX por f3 de maneira
tal qué

(1) a multiplicação é associativa,

a(f3y) = (a.f3)y

(2) a multiplicação é distributiva em relação à adição,

a(/3 + y) = af3 + ay e (a + f3)y = ay + {Jy

(3) para cada escalar c em F,

c(a/3) = (ccx)f3 = cx(c/3 ).

Se existir um elemento 1 em d tal que la= cxl =ex para todo ex


em d, denominaremos d uma álgebra linear com elemento unidade
sobre F e dfnominaremos 1 o elemento unidade de d. A álgebra d
é dita comutativa se exf3 Pex para todos ex e f3 em d.
=

Exemplo 1. O conjunto das n x n matrizes sobre um corpo,


com as operações usuais, é uma álgebra linear com elemento uni-
POLINÔMIOS - 149

dade; em particular o próprio corpo é uma álgebra com elemento


unidade. Esta álgebra não é comutativa se n :2: 2. O corpo é (evi­
dentemente) comutativo.

Exemplo 2. O espaço dos operadores lineares sobre um espaço


vet<:>rial, com o composto como o produto, é uma álgebra linear
com el�ipento unida,d�. Ela é comutativa se, e somente se, o espaço
é unidimensional. · -

· · ·· -O léitóf talvez 'tenha tido alguma experiência com o produto


escalar e com o produto vetorial em R3. Se é o caso, deve verificar
que nenhum desses produtos é o do tipo descrito na definição de
uma álgebra linear. O produto escalar, como o nome indica, associa
cada par de vetores um escalar, e assim, certamente, não é o tipo
de produto que ora discutimos. O produto vetorial associa de fato
um vetor a cada par de vetores em R3; no entanto, esta não é uma
multiplicação associativa.

. O restante desta seção será dedicado à construção de uma álge­


bra que é significativamente diferente das álgebras dos exempios
precedentes. Seja F um corpo e S o conjunto dos inteiros não­
negativos. Pelo Exemplo 3 do Capítulo 2, o conjunto de todas
as funções de S em F é um espaço vetorial sobre F. Indicaremos
este espaço vetorial por F00• Os vetores em F00 são portanto
seqüências infinitas f (f0,f1,f2,. ..) de escalares f; em F. Se
=

0 ,
g =(g , g1 g2 , ...), com g; em F e a, b são escalares em F, af + bg
é a seqüência infinita dada por

(4-1) af + bg =
(af0 + bg0, af1 + bg1' af2 + bg2, .•. ) .

Definamos um produto em F00 associado a cada par de vetores f,


g em Fro o vetor fg que é dado por
n
(4-2) (fg)n =
L fign-i' n =O, 1, 2,
i=O

Assim

e como
n n
. (gf )n =
L gJn-i L Jign-i = ( fg )n
i=O i=O
150 - ALGEBRA LINEAR

para n = O, 1, 2, ... , segue que a multiplicação é comutativa, isto é,


fg = gf. Se h também pertence a F00, então

n
[{fg)h]n = L ·(fg);hn-i
i=O

i tCt fg h
)
o j i-j n-i

n u-j
=
L Íj L Y;hn-i-j
j=O i=O

=
j=O
I .fj(gh)n-j = [f (gh)]n
para n = O, 1, 2, ... , segue que a multiplicação é comutativa, isto é,

(4-3) (fg)h = f(gh).

Deixamos a cargo do leitor verificar que a multiplicação definida


por (4-2) satisfaz (2) e (3) da definição de uma álgebra linear e que
o vetor 1 = (1, O, O, ...) funciona como um elemento unidade de F00•
Então, F00, com as operações definidas acima, é uma álgebra linear
comutativa com elemento unidade sobre o corpo F.
O vetor (O, 1, O, ... , O, ...) desempenha um. papel notável no
que segue ��-emos consistentemente por x. Em todo este
capítulo, x nunca será usado para indicar um elçmento do CO_!Pº F.
O produto de x por si mesmo n vezes será indicado por x" e colo­
caremos xº ·,;;, 1. Então

x2 =
(O, O, 1, O, ...), x3 = (O, O, O, 1, O, ...)

e, de maneira geral, para cada inteiro k ;;:::: O, (xk)k = 1 e (xk)n = O


para todos inteiros não-negativos n =1- k. Concluindo esta seção,
observemos que o conjunto formado por 1, x, x2, ... é independente
e infinito. Assim a álgebra F00 não é de dimensão finita.
A álgebra F00 é denominada, algumas vezes, álgebra das séries
formais de potências sobre F. O elemento f = (f0,f1,f2, ...) é fre­
qüentemente representado por
POLINÔMIOS - 151

(4;-4)

Esta notação é mmto conveniente para efetuar operações algé­


bricas. Quando ela for usada, deve se ter em mente que ela é pura­
mente formal. Não existem "somas infinitas" em álgebra e a no­
tação (4-4) de séries de potências não deve sugerir nada quanto a
convergência, se é que o leitor sabe o que seja isto. Usando seqüên­
cias, foi possível definir precisamente uma álgebra na qual as ope­
rações se comportam como adição e multiplicação de séries formais
de potências, sem correr o risco de confusão a respeito de objetos
como somas infinitas.

4.2 A Álgebra dos Polinômios

Estamos agora em condições de definir um polinômio sobre o


corpo F.

Definição. Seja F [x] o subespaço de F00 gerado pelos vetores


1, x, x 2, . ·: . Um elemento de F [x] é dito um polinômio sobre F.

Como F [ x] consiste de todas as combinações lineares (fim tas)


de x e suas potências, um vetor não-nulo f em F00 é um polinômio
se, e somente se, existe um inteiro n ;;::: O tal que fn #O e tal que
fk = O para todos os inteiros k > n; este inteiro (quando existe)
é evidentemente único e é denominado o grau de j'. Indicamos o
grau de um polinômio por gr(f) e não atribuímos nenhum grau ao
polinômio nulo. Se fé um polinômio não7nulo de grau n temos que

Os escalares /0, f 1, .• ., fn são às vezes ditos os coeficientes de f e


podemos dizer que f é um polinômio com coeficientes em F. Deno·
minaremos polinômios da forma exº polinômios constantes e fre­
qüentemente indicaremos xc0 por e. Um polinômio não-nulo f de
grau n tal que fn = 1 é dito um polinômio unitário.

O leitor deve notar que polinômios não são a mesma coisa


que funções polinomiais sobre F, já discutidas em várias ocasiões.
Se F possuir infinitos elementos, existe um isomorfismo natural
entre F[x] e a álgebra das funções polinomiais sobre F. Discuti-
152 - ALGEBRA LINEAR

remos isto na próxima seção. Verifiquemos que F[x] é uma


álgebra.

Teorema 1. Sejam f e g polinômios não-nulos sobre F. Então


(i) fg é um polinômio não-nulo;
(ii) gr (fg) = gr(t) + gr(g);
(iii) fg é um polinômio unitário se f e g são ambos polinômios
unitários,
(iv) fg é um polinômio constante se, e somente se, f e g são
polinômios constantes;
(v) se f + g ;é O,

gr (f + g) s máx (gr (t), gr (g)).

Demonstração. Suponhamos que f tenha grau m e que g tenha


grau n. Se k é um inteiro não-negativo.

m+n+k
Jg)m+n+k =
L Ji gm+n+k-i"
i=O

Para que figm+n+k-i #O, é necessário que 1 s m e m + n + k - is n.


Logo, é necessário que m + k s i s m, o que implica k =O e i = m.

Assim,

(4-6)

(4-7) (jg)m+n+k =O, k >O.

As afirmações (1), (11), (ni) decorrem imediatamente de (4-6) e (4-7),


enquanto (iv) é uma conseqüência de (i) e (ii). Deixamos a verifi­
cação de (v) a cargo do leitor.

Corolário 1. O conjunto dos polinômios sobre um dado corpo F


é uma álgebra linear comutativa com elemento unidade sobre F, em
relação às operações dadas por (4-1) e (4-2).

Demonstração. Como as operações (4-1) e (4-2) são aquelas


definidas na álgebra F"' e como F[x] é um subespaço de F00,
POLINÔMIOS - 153

basta demonstrar que o produto de dois polinômios é novamente


um polinômio. Isto é trivial quando um dos fatores é nulo e, em
caso contrário, decorre de (i).

Corolário 2. Suponhamos que f, g e h sejam polinômios sobre


o corpo F tais que f # O e fg = fh. Então g = h.
= .fh,
- = O,
Demonstração. Como .fú f (g - h) e como f # O
decorre imediatamente de (i) que g h = O.
Certos fatos adicionais decorrem bastante facilmente da
demonstração do Teorema 1 e mencionaremos alguns deles.
Suponhamos que

m 11

I = L J>i e g = L gjxi.
i=O j=O

Então, de (4-7) obtemos

(4-8)
(s )m+11

fg s�O �/rgs..._r Xs.


=

O leitor deve verificar que, no caso particular de f =ex"', g = dx"


com e, d em F, (4-8) reduz-se a

(4-9)

Ora, de (4-9) e das leis distributivas em F [x], segue que o produto


em (4-8) também é dado por

(4-10) L.f;gjxixi
1,j

onde a soma é estendida a todos os pares i, j de inteiros tais que


O:::;i:::;m, e O:::;j:::;n.

Definição. Seja d uma álgebra linear com elemento unidade


sobre o corpo F. Indicaremos o elemento unidade de d por 1 e fare­
0
mos a convenção a = 1 para todo a em d. Então, a cada polinômio
n

f = i=LO f;xi sobre F e a em d, associamos um elemento f(a) em d


.
pela regra
154 - ALGEBRA LINEAR

f(a) =
L J;a'.
i=O

Exemplo 3. Seja C o corpo dos números complexos e seja


f x2 2.
= +

2, em particular
f(2) 6 .s#
(a) Se
= e
= C e z pertence a C, f(z) z2
= +

(b) Se .s# é a álgebra das 2 x 2 matrizes sobre C e se

B= [ -11 2º]
então

f(B) 2 [O º] [ º]2
= 2
1[ 33 º]6 .
1 + -1
1
=

é (c) Se
o elemento de
.s# é .s#
a álgebra dos operadores lineares sobre C3 e
dado por
T

então f(T) é o operador linear sobre C3 definido por

(d) Se
então f(g) é.s# é
a álgebra dos polinômios sobre C e
o polinômio em .s# dado por
g x4 3i,
= +

f(g) = -7 + 6ix4 x8• +

O leitor observador poderá notar em relação a este último


exemplo que, se
é fé
um polinômio sobre um corpo arbitrário e
o polinômio {O, 1, O, }, então f f(x),
mas aconselhamo-lo a
. . . =
x
esquecer este fato.
POLINÔMIOS - 155

Teorema 2. Seja F um corpo e d uma álgebra linear com ele­


mento unidade sobre F. Suponhamos que f e g sejam polinômios sobre
F, que ex seja um elemento de d e que e pertença a F. Então
(i) (cf + g) (0r:) = cf(0r:) + g(0r:);
(ii) (fg) (0r:) = f(cx) g(cx).

Demonstração. Como (i) é bem fácil de demonstrar, demons­


traremos somente (ii).
Suponhamos que

m n

f = l., Jixi e g = I gjxi.


i=O j=O
Por (4-10)

e, portanto, por (i)

(fg)(cx) =
I
i
f;gi+j
,j

= ( .t r;ai) ( .t )
,1-0 J-0
gpi

=
f (ex) g(cx).

Exercicios

1. Seja F um subcorpo do corpo dos números complexos e seja A a seguinte


2 x 2 matriz sobre F:

A
= [ 2 1]-.
- 1 3

Para cada um dos seguintes polinômiosf sobre F, calcularf(A):


(a) f = x2 - x + 2;
(b)f=x3-l;
(c) f = x2 - 5x + 7.

2. Seja T o operador linear sobre R3 definido por

"

Seja f o polinômio sobre R definido por f = -x3 + 2. Determinar f(T).


156 - ÁLGEBRA LINEAR

3. Seja A uma n x n matriz diagonal sobre o corpo F, isto é, uma matriz que
satisfaz A1i = O para i � j. Seja f o polinômio sobre F definido por

f = (x - A1 ,) . • • (x - A ).
••

Qual é a matriz f (A)?

4. Se f e g são polinômios independentes sobre um corpo F e h é um poli­


nômio não-nulo sobre F, mostrar que jh e gh são independentes.

S. Se F é um corpo, mostrar que o produto de dois elementos não-nulos de F"'


é não-nulo.

6. Seja S .um conjunto de polinômios não-nulos sobre um corpo F. Se dois


quaisquer elementos de F nunca têm o mesmo grau, mostrar que. S é um con­
junto independente em F[x].

7. Se a e b são elementos de um corpo F e a � O, mostrar que os polinômios l,


ax + b, (ax + b)2, (ax + b)3, formam uma base de F[x].
• • •

8. Se F é um corpo e h é um polinômio sobre F de grau � l, mostrar que a


aplicação f -+} (h) é uma transformação linear injetora de F[x] em F[x].
Mostrar que esta transformação é um isomorfismo de F[x] em F[x] se, e
somente se, gr(h) l.=

9. Seja F um subcorpo do corpo dos números complexos e sejam 1' e D trans­


formações sobre F[x] definidas por

(a) Mostrar que Té um operador linear não-singular sobre F[x]. Mostrar


também que Tnão é inversível.
(b) Mostrar que D é um operador linear sobre F[x] e determinar seu núcleo.

(c) Mostrar que DT = 1 e TD � /.


(d) Mostrar que T([ Tf) g] = (Tf) (Tg) - T[f(Tg)] para todos f e g em
F[x].
(e) Enunciar e demonstrar uma regra para D semelhante à regra dada para
Tem (d).
(f) Suponhamos que V seja um subespaço não-nulo de F[x] tal que Tf
pertença a V para todo f em V. Mostrar que. V não é de dimensão finita
(g) Suponhamos que V seja um subespaço de F[x] que tenha dimensão
finita. Demonstrar que existe um inteiro m �O tal que D"'f =O para todo
f em V.
POLINÔMIOS - 757

4.3 Interpolação de Lagrange


Em toda esta seção suporemos que F seja um corpo fixo e que
t0, tl' ... , t" sejam n + 1 elementos distintos de F. Seja V o subes­
paço de F [x] que consiste dos polinômios de grau menor ou igual
a n (mais o polinômio nulo) e seja L; a função de V em F definida
para f em V por

LJJ) = f (t;), Os is n.

Pela parte (i) do Teorema 2� cada Li é um funcional linear sobre


V e uma das coisas que pretendemos mostrar é que o conjunto for­
mado por L0, 4, ... , L" é uma base do espaço V* dual de V. ·

Evidentemente, para que isto ocorra, é necessário e suficiente


(cf. Teorema 15 do Capítulo 3) que { L0, L 1, • • • • LJ seja a dual de
uma base {P0, Pl' ... , P11} de V. Existe no máximo uma tal base
e , ·se existe, é caracterizada por

(4-11)
Os polinômios

P.'
(x - t0) (x - t;_1) (x - ti+t) ... (x - t")
(4-12)
• • .

(t; - t0) (ti - ti_1) (t; - ti+ 1 ) . . (ti - t 11 )


=

• . • .

n (X - t.)
=j.,,.i M
são de grau n, logo pertencem a Ve, pelo Teorema 2, satisfazem (4-10).
Se f = L c;P;, então, para cada j,
i

(4- 1 3) f (t) = L ciPJt) = c1•


i

Como o polinômio nulo 'tem a propriedade de que O (t) = O para


todo t em F, decorre de (4 1 3)
- que os polinômios P0, P1, ... , P11
são linearmente independentes. Os polinômios 1, x, ... , x" formam
uma base de V, logo a dimensão de V é n + 1. Portanto o conjunto
independente· {P0, P,, ... , P11} deve também ser uma base de V.
Assim, para todos f em V
n

(4-14) f = L f (t;) Pi.


i=O
158 - ALGEBRA LINEAR

A expressão (4-14) é denominada a fórmula de interpolação de


Lagrange. Tomando f = !ICJ em (4-14) obtemos

n
xj = L CtYP,.
i=O

Decorre então do Teorema 7 do Capítulo 2 que a matriz

lo t2o t"o
1-1 tl t21 tn1

l;
(4-15)

12n n
tn tn

é inversível. A matriz em ( 4-15) é dita uma matriz de Vandermonde;


constitui um exercício interessante mostrar diretamente que uma
tal matriz é inversível, quando t0, t1, • . . , t. são n + 1 elementos
distintos de F.

Se fé um polinômio arbitrário sobre F, indicaremos por f - em


nossa presente discussão a função polinominal de F em F que leva
cada l em F em f(l). Por definição (cf. Exemplo 4 do Capítulo 2)
toda função polinomial surge desta maneira; contudo, pode acon­
tecer que f -= g - para dois polinômios f e g tais que f '# g. Feliz­
mente, como veremos, esta situação desagradável ocorre apenas
quando F é um corpo com um número finito de elementos distintos.
Para descrever de maneira precisa a relação entre polinômios e fun­
ções polinomiais, precisamos definir o produto de duas funções poli­
nomiais. Se f e g são polinômios sobre F, o produto de f- por g-é
a função f- g- de F em F dada por

(4-16) tem F.

Pela parte (ii) do Teorema 2, (fg) (t) =; f(t) g(t), logo

U{Jnt) =f-(1)g-(1)

para cada t em F. Assim, f -g -= (fg) - e é uma função polinomial.


Neste ponto, um fato de verificação imediata, que deixamos a cargo
do leitor, é que o espaço vetorial das funções polinomiais sobre F
torna-se uma álgebra linear com elemento unidade sobre F se a
multiplicação é definida por (4-16).
POLINÔMIOS - 159

Definição. Seja F um corpo e sejam d e d - álgebras lineares


sobre F. As álgebras d e d- são ditas isomorfas se existe uma apli­
cação bijetora IX -+ IX- de d em d - tal que

(a)

(b)

para todos IX e f3 em d e todos escalares c e d em F. A aplicação


IX-+ IX- é dita um isomorfismo de d em d� Um isomorfismo de d
em d - é assim um isomorfismo de espaço vetorial de d em d - que
tem a propriedade adicional (b) de "conservar" produtos.

Exemplo 4. Seja V um esp aço vetorial n-dimensional sobre o


corpo F. Pelo Teorema 13 do Capítulo 3 e observações subse­
qüentes,· cada base ordenada fJI de V determina um isomorfismo
T-+ [TJ.sv da álgebra dos operadores lineares sobre V na álgebra
das n x n matrizes sobre F. Suponhamos agora que U seja um
operador linear fixo sobre V e que nos seja dado um p olinômio

n
f I C;Xi
i=O
=

com coeficientes ci em F. Então

n
f(U) I cpi
i=O
=

e como T -+ [T] 11 é uma aplicação linear

[f(U)]!ll L c;[Ui] 11 •
i=O
=

Ora, do fato adicional

para quaisquer TI' T2 em L(V, J1 decorre que

2:::;; i:::;; n.
160 - .ALGEBRA LINEAR

Como esta relação também é válida parai= O, 1 obtemos o resultado

(4-17)

Em palavras, se U é um operador linear sobre V, a matriz de um


polinômio em, U, em relação a uma dada base, é o mesmo polí­
nômio na matriz de U.

Teorema 3. Se F é um corpo contendo. um número irifinito de


elementos distintÕs, a aplicação f ___. r- é um isomorfismo da -álgebra
dos polinômios sobre F na álgebra das funções polinomiais sobre F.
Demonstração. 1>e1a_ definição, a aplicação é sobrejetora e se
f, g pertencem a F[x], é evidente que

para todos os escalares e e d. Como já mostramos que (fg)- f g -


=

basta mostrar que a aplicação é injetora. Para tanto, é suficiente,


pela linearidade, demonstrar que f -= O implica f = O. Suponha­
mos então que f seja um polinômio de grau menor ou igual a n tal
que f -= O. Sejam t0, t 1, , tn n + 1 elementos arbitrários distintos
• • •

de F. Como f -= O, f (t;) O para i O, 1, ... , n, e é uma conse­


= =

qüência imediata de (4-14) que f = O .

A partir dos resultados da próxima seção, obteremos uma


demonstração totalmente diferente deste teorema.

Exercícios

1. Usar a fórmula de interpolação de Lagrange para determinar um polinômio f


com coeficientes reais tal que f tenha grau s; 3 e f( - 1) = - 6, f(O) =2,
f(l) =-2, f(2) = 6.

2. Sejam a, {3, y e ô números reais. Perguntamos quando é possível determinar


um poiinômio f sobre R, de grau não maior que 2, tal que f( -1) = cc, f (1) = /3,
f(3) = y, e f(O) = ô. Demonstrar que isto é possível se, e somente se,

3a + 6{3 - y - Só = O.

3. Seja F o corpo dos números reais,

-
A-[� o
o
POLINÓMIOS - 161

e
p = (x - 2)(x - 3) (x - 1).

(a) Mostrar que p(A) =O.


(b) Sejam P1, P2, P3 os polinômios de Lagrange para t 1 = 2, t 2 = 3, t 3 = 1.
Calcular E; P;(A), i = l, 2, 3.
=

(c) Mostrar E1 + E2 + E3 = 1, E;E; =O se i "# j, E; =E,.


(d) Mostrar que A = 2E1 + 3E2 + E3•

4. Seja p (x - 2) (x - 3) (x - 1) e seja T um operador linear arbitrário sobre


=

R4 tal que p(T) =O. Sejam PP P2, P3 os polinômios de Lagrange do


Exercício 3 e seja E; = P;(T), i = l, 2, 3. Demonstrar que

E1 + E2 + E3 = 1, E,E; =O se i "# j,

E? =E,, e T = 2E1 + 3E2 + E3.

5. Seja n um inteiro positivo e F um corpo. Suponhamos que A seja uma n x n

matriz sobre F e P seja uma n x n matriz inversível sobre F. Se f é um


polinômio arbitrário sobre F, demonstrar que

6. Seja F um corpo. Consideremos certos funcionais lineares particulares sobre


F, obtidos pelo "cálculo do valor em t":

L(/) =f(t).

Tais funcionais não são apenas lineares, mas também têm a propriedade de
que L(jg) = L(f) L(g). Demonstrar que, se L é um funcional linear qualquer
sobre F[x] tal que

L(fg) = L(f) L(g)

para todos j e g, então L =O ou existe um t em F tal que L(f) =f (t) para


todos f.

4.4 Ideais de Polinômios

Nesta seção preocupamo-nos com resultados que dependem


fundamentalmente da estrutura multiplicadora da álgebra dos
polinômios sobre um corpo.

Lema. Suponhamos que f e d sejam polinômios não-nulos sobre


um corpo F tais que gr(d) s gr(f). Então existe um polinômio g em
F[x] tal que

f - dg = O ou gr(f - dg) < gr(f)


162 - ALGEBRA LINEAR

Demonstração. Suponhamos que

m -1
f = a xm + L aixi,
m
i=O

e que

n-1
d = b xn + i
L bix ,
n
i=O
Então m;;::; n e

f - �: Xm-nd =O OU gr � - (�:) xm -nd J < gr(f).

Assim, podemos tomar g = (�:) x m ".

Usando este lema podemos mostrar que o processo familiar


de divisão de polinômios com coeficientes reais ou complexos é
possível sobre um corpo arbitrário.

Teorema 4. Se f, d são polinômios sobre um corpo F e d é dife- .


rente de O, então existem polinômios q, r em F[x] tais que
(i) f = dq + r.
(ii) r = O ou gr(r) < gr(d) .

Os polinômios q, r que s atisfazem (i) e (ii) são únicos .

Demonstração. Se f é O ou se gr(f ) < gr(d) podemos tomar


q =O e r =f. Caso f #O e gr(f);;::; gr(d), o lema anterior mostra
que podemos escolher um polinômio g tal que f -dg =O ou
gr(f - dg) < gr(f). Se f - dg #O e gr(f-dg);;::; gr ( d) podemos
escolher um polinômio h tal que (f - dg)-dh =O ou
gr[f- d(g + h)] < gr (f - dg).

Continuando este processo enquanto for necessário, obteremos no


final polinômios q, r tais que r =O ou gr(r) < gr(d) e f =dq + r.
Suponhamos agora que também tenhamos f =dq 1 +r1 onde r1 =
=Ü ou gr (r 1 ) < gr(d). Então dq+r=dq1 +r1' e d(q-q1)=r1 -r.
Se q - q1 #O então d(q - q1) #O e

gr (d) + gr(q - q1) = gr(r1 -r).


POLINÔMIOS - 163

Mas como o grau de r 1 - r é menor que o grau de d, isto é impos­


sível e q - q 1 =O. Logo r 1 - r=O.

Definição. Seja d um polinômio não-nulo sobre o corpo F. Se


-f está em F [x], o teorema antl!rior mostra que existe no máximo um
polinômio 4 1!171 F [ x J tal que f dq. Se existe um tal q dizemos que
=

d divide f, que f é divisível por d, que f é um múltiplo de d e denomi­


naremos q o quociente de f por d. Escreveremos também q fjd. =

Corolário 1. Seja f um polinômio sobre o corpo F e seja e um ele­


mento de F. Então f é divisível por x - e se, e somente se, f(c)=O.
Demonstração. Pelo teorema, f = (x - c)q + r onde r é um
polinômio constante. Pelo Teorema 2,

f (e)= Oq(c) + r(c)= r(c).

Logo r=O se, e somente se, f (e) = O.

Definição. Seja F um corpo. Diz-se que um elemento c em F é


uma raiz ou um zero de um dado polinômio f sobre F se f(c) = O .

Corolário 2. Um polinômio f de grau n sobre um corpo F tem


no máximo n raízes em F.
Demonstração. O resultado é obviamente verdadeiro para poli­
nômios de grau O e grau 1. Suponhamos que seja verdadeiro para
polinômios de grau /1 - 1. Se u é uma raiz de f� I = (x - a)q onde
q tem grau n - l. Como /(h) - O se, e somente se, a = h
q(b) = O, decorre de nossa hipótese de indução que I tem no má­
ximo n raízes.
O leitor deve notar que o passo principal na demonstração do
Teorema 3 é uma conseqüência imediata deste corolário.
As derivadas formais de um polinômio são úteis na discussão
de raízes múltiplas. A derivada do polinômio
"
f= C0 + C1X + .. . + CnX

é o polinômio

f' = cl + 2c 2x + . .. + ncnxn-I
Usaremos também a notação Df=f'. Derivação é linear, isto é,
D é um operador linear sobre F [ x]. Existem as derivadas formais
de maior ordem f" = D2f, f (3l D 3f, e assim por diante.
=
164 - ALGEBRA LINEAR

Teorema 5. (Fórmula de Taylor) Sejam F um corpo de caracte­


rística ze ro , c um elemento de F e n um inteiro positivo. Se f é um
polinômio sobre F com gr(f) � n, então

f =
I=O
k k.
{
(Dk )
(c) (x - ct

Demonstração. A fórmula de Taylor é uma conseqüência do


teorema do binômio e da linearidade dos operadores D, D2, . • . , D".
O teorema do binômio é facilmente demonstrado por indução e
afirma que

onde

( k) m =

k ! (m
m!
-
k) !
= m(m - 1) ..
1 ·
.

2 ..
(m - k + 1)
. k

é o conhecido coeficiente binomial, dando o número de combi­


nações de m objetos k a k. Pelo teorema do binômio

xm = [c + (x - c)]"'

I []
k=O k
m
e"' -k(x - c)k

= cm + me"'� 1(x - e) + ... + (x - e)"'


x"'.
=

e este é o enunciado da fórmula de Taylor para o caso f Se

L amxm
n

J =

m=O

m
e

}::Dkf(e) - c k
k=O k!
(x ) =
(Dkx"')
L L a,,, --,- (e) (x
k m k •
- c)k
POLINÔMIOS - 165

m
- "a
- L., mx
m
=f

Observando-se que os polinômios 1, (x - c), ... , (x-c)" são


linearmente independentes (ver Exercício 6, Seção 4.2), a Fórmula
de Taylor fornece o único método de escrever f como uma combi­
nação linear dos polinômios (x - c)k (O :'.".: k :'.".: n).

Apesar de não entrarmos em detalhes, talvez seja bom men­


cionar aqui que a fórmula de Taylor, com uma interpretação apro­
priada, é também válida para polinômios sobre corpos de caracte­
rística finita. Se o corpo F tiver característica finita (a soma de um
certo número finito de l's em F é O) então podemos ter k ! =O
em F, caso em que a divisão de (Dkf) (c) por k! não teria sentido.
Apesar disso, a divisão de Dkf por k ! tem interpretação, pois cada
coeficiente de D"f é um elemento de F multiplicado por um inteiro
divisível por k ! Se tudo isto parecer muito confuso, aconselhamos
ao leitor restringir sua atenção a corpos de característica O ou
subcorpos do corpo dos números complexos.
Se e for uma raiz do polinômio f, a multiplicidade de e como
uma raiz de I é o maior inteiro positivo . tal que (x-c)' divida f,
Obviamente a multiplicidade de uma raiz é menor ou igual
ao grau de f. Para polinômios sobre corpos de característica zero,
a multiplicidade de e como uma raiz de f, está relacionada com o
número de derivadas de f que se armlam em e.

Teorema 6. Seja F um corpo de característica zero e f um poli­


nômio sobre F com gr(f) s n. Então o escalar c é uma raiz. de ,f de
multiplicidade r se, e somente se,

O=s;k=s:r-1

(Drf) (e) i= O.

Demonslração. Suponhamos que r seja a multiplicidade de e


como uma raiz de f. Então existe um polinômio g tal que f (x-e)'g =

e g(c) i= O. Caso contrário, pelo Corolário 1 do Teorema 4, f seria


divisível por (x-c)'+1. Pela Fórmula de Taylor aplicada a g
166 - ALGEBRA LINEAR

[n-r� (Dm )
� (e) (X
f = (X - e)'
m -

J
cr

n-r
m O
(Dmg)
= L __ (x - cy+m
m=O m!
Como só existe uma maneira de escrever f como combinação linear
das potências (x - c)k (Osks n), segue-se que

(D"f) (e)
--- =
{O se
Dk _ 'g (c)
O ::;;
. ks r - 1

k! se r s k ::;; n
(k r) !
_

Portanto, D"f (e)= O para Osksr - 1 e D'f (c) = g (c) #-O. Reci­
procamente, se estas condições estiverem satisfeitas, decorre imedia­
tamente da fórmula de Taylor, que existe um polinômio g tal
f = (x - c)'g e g (c) #-O. Suponhamos agora que r não seja o maior
inteiro positivo tal que (x e)' dividaf. Então existe um polinômio
-

h tal que f = (x - cy+ 1h. Mas isto implica, pelo Corolário 2 do


Teorema 1, que g = (x c)h; logo g (c) =O, uma contradição.
-

Definição. Seja F um corpo. Um ideal em F[x J é um subespaço


M de F[x] tal que fgperten ce a M para todo f em F[x] e todo g em M.

Exemplo 5. Se Fé um corpo e d um polinômio sobre F, o con·


junto M = dF[x], de todos os múltiplos df de d com f arbitrário
em F[x], é um ideal. De fato, M é não-vazio. pbis M contém d. Se
f, g pertencem a F [x] e e é um escalar, então

c (df) - dg = d (cf - g)
pertence a M, portanto M é um subespaço. Finalmente, M também
contém (df)g = d(fg). O ideal M é denominado o ideal principal
gerado por d.

Exemplo 6. Sejam dl' ..., d" um número finito de polinômios


sobre F. Então a soma M dos subespaços d;F[x] é um subespaço e
também é um ideal. De fato, suponhamos que p pertença a M.

n
Então existem polinômios fp .. .,fn em F[x] tais que p = d/1 +
+... +d" f · Se g é um polinômio arbitrário sobre F, então
POLINÔMIOS - 167

de modo que - pg também pertence a M. Assim, M é um ideal e


dizemos que M é o ideal gerad_o pelos polinômios dp ... , dn.

Exemplo 7. Seja F um subcorpo do corpo dos números com­


plexos e consideremos o ideal

M = (x + 2)F[x] + (x2 + 8x + 16)F[x].

Afirmamos que M = F[x]. De fato, M contém

x2 + 8x + 16 - x(x + 2)= 6x + 16

logo M contém 6x + 16 - 6(x + 2) = 4. Assim, o polinômio cons­


tante 1 pertence a M, bem 'como todos os seus múltiplos.

Teorema 7. Se Fé um corpo e M é um ideal não-nulo arbitrário


em F [x], existe um único polinômio unitário d em F [x] tal que M
seja o ideal principal gerado por d.
Demonstração. Por hipótese, M contém um polinômio não­
nulo; entre todos os polinômios não-nulos em M existe um poli­
nômio d de grau mínimo. Podemos supor d unitário, pois caso
contrário podemos multiplicar d por um escalar de modo a torná-lo
unitário. Ora, se fpertence a M, o Teorema 4 mostra que f= dq + r
onde r =O ou gr(r) < gr(d). Como d está em M, dq e f - dq = r
também pertencem a M. Como d é um elemento de M de grau
mínimo não podemos ter gr(r) < gr(d), portanto r = O Assim, .

M = dF[x]. Se g é um outro polinômio unitário tal que M= gF[x],


então existem polinômios não-nulos p,q tais que d= gp e g dq. =

Assim, d= dpq e

gr(d)= gr(d) + gr (p) + gr(q).

Logo, gr(p)=gr(q)=O e como d, g são unitários, p = q = 1. Assim, d=g.


É interessante observar que na demonstração acima, utilizamos
um caso particular de um fato mais geral e bastante útil; a saber,
se p é um polinômio não-nulo em um ideal M e se fé um polinômio
em M que não é divisível por p, então[= pq + r onde o "resto"
r pertence a M, é diferente de O e tem grau menor que o de p. Já

usamos este fato no Exemplo 7 para mostrar que o polinômio cons­


tante 1 é o gerador unitário do ideal l_á considerado. Em princípio,
é sempre possível determinar o polinômio unitário que gera um
168 - ALGEBRA LINEAR

dado ideal não-nulo, pois podemos, em última análise, obter um


polinômio no ideal que tenha grau mínimo por meio de um número
finito de divisões �

Corolário. Se pl' ... , Pn são polinômios sobre um corpo F, não


todos nulos, existe um único polinômio unitário d em F [xJ tal que
(a) d está no ideal gerado por p l' ... , Pn;
(b) d divide cada um dos polinômios pi.
Todo polinômio que sal isfaz (a) e (b) satisfaz, necessariamente,
(c) d é divisível por todo polinômio que divide cada um dos
polinômios Pi> ... , Pn.

Demonstração. Seja d o gerador unitário do ideal

Todo elemento deste ideal é divisível por d; assim, cada um dos


polinômios pi é divisível por d. S uponhamos agora que f seja
um polinômio que divida cada um dos polinômios pl' ... , Pn·
Então, existem polinômios g1, ... , g11 tais que p1 = fg1, 1 � i � n.
Além disso, como d está no ideal

p1F[x] + ... + PnF[x],

existem polinômios q 1, ... , qn em F[x] tais que

Assim

Mostramos que d é um polinômio unitário que satisfaz (a), (b) e (c).


Se d' é um polinômio arbitrário que satisfaz (a) e (b) decorre de (a)
e da definição de d que d' é um múltiplo escalar de d e satisfaz (c).
F inalmente, se d' é um polinômio unitário temos d' = d.

Definição. Se p1, ... � Pn são polinômios sobre um corpo F, não


todos nulos, o gerador unitário d do ideal
POLINÔMIOS - 169

é denominado o máximo divisor comum (m. d. c.) de p 1, • . • , Pn e é


indicado por (p 1, • • • , pn). Esta terminologia é justificada pelo coro­
lário anterior. Dizemos que os polinômios p1, . • • , p0 são relativa­
mente primos se seu máximo divisor comum é 1 ou. equivalentemente,
se o ideal que eles geram coincide com F[x].

Exemplo 8. Seja C o corpo dos números complexos. Então


(a) m.d.c. (x + 2, x 2 + 8x + 16) 1 (ver Exemplo 7);
=

(b) tn.d.c. ((x - 2)2(x + i), (x - 2) (x 2 + 1)) = (x - 2) (x + i).

De fato, o ideal

(x - 2)2(x + i)F[x ] + (x - 2)(x 2 + l)F[x ]

contém

(x - 2)2 (x + i) - (x - 2)(x 2 + 1) = (x - 2)(x + i) (i - 2).

Logo contém (x - 2)(x + i), que é unitário e divide

(x - 2)2 (x + i) e (x - 2)(x 2 + 1).

Exemplo 9. Seja F o corpo dos números racionais e em [ Fx ]


seja M o ideal gerador por

(x - l)(x + 2)2, (x + 2)2 (x - 3) e (x - 3).

Então M contém

t(x + 2)2[(x - 1) - (x - 3)] = (x + 2)2

e como

(x + 2)2 = (x - 3) (x + 7) - 17

M contém o polinômio constante 1. Assim, M = F[x ] e os poli­


nômios

(x - 1) (x + 2)2, (x + 2)2 (x - 3) e (x - 3)

são relativamente primos.


170 - ALGEBRA LINEAR

Exercícios

1. Seja Q o corpo dos números racionais. Determinar quais dos seguintes sub­
conjuntos de Q[x] são ideais. Quando o conjunto for um ideal determinar
seu gerador unitário.
(a) Todos f de grau par;
(b) Todos f de grau � 5;
(c) Todos f tais que f(O) =O;
(d) Todos f tais que f(2) f(4) = O;
=

(e) Todos f na imagem do operador linear T definido por

2. Determinar o m. d. c. de cada um dos seguintes pares de polinômios


(a) 2x5 x3
- 3x2 - 6x + 4, x4 + x3 - x2 - 2x - 2;
-

(b) 3x4 + 8x2 .:_ 3, x3 + 2x2 + 3x + 6;


(c) x4 - 2x.i - 2x2 - 2x 3, x3 + 6x2 + 7x + l.
-

3. Seja A uma n x n matriz sobre um corpo F. Mostrar que o conjunto dos


polinômios f em F[x] tais que f[A] =O é um ideal.

4. Seja F um subcorpo dos números complexos e seja

A - 1
-

o
[ -

�l
Determinar o gerador unitário do ideal dos polinômios f em F[x] tais que
f(A) =O.

5. Seja F um corpo. Mostrar que a interseção de um número arbitrário de


ideais em F[x] é um ideal.

6. Seja F um corpo. Mostrar que o ideal gerado por um número finito de


polinômios f 1, . , f. em F[x] é a interseção de todos os ideais que contêm
• • .

fp ...,f •
.

7. Seja K um subcorpo de um corpo F e suponhamos que f, g sejam polinômios


em K[x]. Seja MK o ideal gerado por f e g em K[x] e MF o ideal que
eles geram em F[x]. Mostrar que MK e MF possuem o mesmo gerador unitário.

4.5 A Decomposição de um Polinômio em Fatores Primos


Nesta seção demonstraremos que cada polinômio sobre o
corpo F pode ser escrito como.um produto de polinômios "primos".
Esta fatoração nos fornece um instrumento eficiente para deter­
minar o máximo divisor comum de um número finito de polinômios
e, em particular, fornece um meio efetivo para decidir se os poli­
nômios são relativamente primos.
POLINÔMIOS - 171

Definição. Seja F um corpo. Diz-se que um polinômio f em F [xJ


é redutível sobre F se existem polinómios g, h em F[x[ de grau � 1
tais que f gh e, em caso contrário, diz-se que fé irredutfvel sobre F.
=

Um polinómio não constante irredutível sobre F é denominado um


polinômio primo sobre F e dizemos, às vezes, que é um primo em F[x].

Exemplo 10. O polinômio x2 + 1 é redutível sobre o corpo C


dos números complexos, pois

x2 + 1 = (x + i) (x - i)

e os polinômios X + i, X - i pertencem a e [x]. Por outro lado,


x2 + l é irredutível sobre o corpo R dos números reais, pois se

x2 + l = (ax + b) (a'x + b')

com a , a', b, b' em R, então

aa' = 1, ab' + ba' =


O, bb' =
1.

Estas relações implicam a2 + b2 =


O , o que é impossível com nú­
meros reais a e b, a menos que a= b =O.
Teorema 8. Sejam p, f e g polinómios sobre o corpo F. Supo­
nhamos que p seja um polinômio primo e que p divida o produto fg.
Então p divide f ou p divide g.

Demo11s1rnção. Não há perda de generalidade se supomos


que p é um polinômio primo unitário. O fato de que p é primo diz
então simplesmente que os únicos divisores· unitários de p são l e p.
Seja d o m.d.c. de f e p. Ou d =
1 ou d= p, pois d é um poli­
nômio unitário que divide p. Se d =
p então p divide f e já termi­
namos. Portanto, suponhamos que d =
1, isto é, suponhamos que
fe p sejam relativamente primos. Demonstraremos que p divide g.
Como (f,p) = 1, existem polinômios f0 e p0 tais que 1 =
./ �f + PoP·
Multiplicando por g obtemos

g =
.fofg + PoP9

=
(.fg)fo + p(pog).

Como p divide fg, divide também (fg) f0 e certamente 11 d11 ide·


p(p0g). Assim p divide g.
172 - ALGEBRA LINEAR

Corolário. Se p é um primo e divide um produto f 1," ••• , fn, então


p divide um dos polinômios f 1, ••• , fn.
Demonstração. A demonstração é por indução. Para n = 2,
o resultado é simplesmente o enunciado do Teorema 8. Supo­
nhamos que o resultado seja válido para n = k e que p divide o
produto fl' .. .f, k -< 1 de certos (k + 1) polinômios. Como p divide
f
( l' .. . , k) k+ l' p divide !k+ 1 ou p divide fp ...,fk. Pela hipó­
f f
tese de indução, se p dividef1' .. ., fk, então p dividefj para algum j,
1 sj s k. Portanto vemos que em qualquer caso p deve dividir
algum fi' 1 sj s k + 1.

Teorema 9. Se F é um corpo, um polinômio não-constante e


unitário em F [ xJ pode ser decomposto como um produto de primos
unitários em F[x] de uma e, ·a menos da ordem, somente uma maneira.

Demonstração. Suponhamos quef seja um polinômio não-cons­


tante e unitário sobre F. Como polinômios de grau 1 são irredu­
tíveis, nada há a demonstrar se gr(f) = 1. Suponhamos que f tenha
grau n > 1. Por indução podemos supor o teorema verdadeiro
para todos os polinômios não-constantes e unitários de grau menor
que n. Se f é irredutível, f já está decomposto como um produto
de primos unitários e, em caso· contrário, f gh onde g e h são =

polinômios não-constantes e unitários de grau menor que n. Assim


g e h podem ser decompostos como produtos de primos unitários
em F[x], logo f também pode sê-lo. Suponhamos agora que

onde p1' . . ., Pm e q1' ..., q" são primos unitários em F[x]. Então
Pm divide o produto q1, .. ., q11• Pelo corolário acima, Pm divide algum
qi. Como qi e Pm são ambos primos e unitários isto significa que

(4-18)

De (4-18) vemos que m = n = 1 se m = 1 ou n = 1, pois

m n
gr(f) = L gr(p;) = L gr(q).
i = 1. j= 1
Neste caso nada resta a demonstrar, portanto podemos supor
m> 1 e n> 1. Reordenando os q podemos supor que P m = qn e que
POLINÔMIOS - 173

Ora, pelo Corolário 2 do Teorema 1 decorre que

Como o polinômio p1' ... , Pm- l tem grau menor que n, nossa hipó­
tese de indução se aplica e mostra que a seqüência q 1' ... , qn _ 1 é no
máximo uma reordenação da seqüência Pp ... , p,,,_ 1. Isto, junto
com (4-18), mostra que a decomposição de f num produto de pri­
mos unitários é única a menos da ordem dos fatores.
Na decomposição acima de um polinômio f não-constante e
unitário, alguns dos fatores primos e unitários podem repetir-se.
Se p i ' p2, • • • , p,. são os primos unitários distintos que ocorrem
nesta decomposição de f, então

(4-19) f =
P�'p;2, · · · , P�',

sendo o expoente n; o número de vezes que o primo P; ocorre na


decomposição. Esta decomposição é certamente única e é denomi­
nada a decomposição primária de f. Verifica-se facilmente que todo
divisor unitário de f é da forma

(4-20)

De (4-20) decorre que o m.d.c. de um número finito de polinômios


não-constantes e unitários fp ... ,j� é obtido combinando todos
aqueles primos unitários que ocorrem simultaneamente nas decom­
posições de f1, . . . , j�. O expoente ao qual cada primo deve ser
elevado é o maior número natural para o. qual a correspondente
potência prima é um fator de cada f;· Se não existem potências
primas (não-triviais) que sejam fatores de cada f;, os polinômios
são relativament� primos.

Exemplo 11. Suponhamos que F seja um corpo e sejam a, b


e e elementos distintos de F. Então os polinômios x - a, x - b e
x - e são primos unitários distintos em F [x]. Se m, n e s são
inteiros positivos, (x - e)' é o m.d.c. dos polinômios

(x - b)n (x - e)• e (x - ar(x - e)•

enquanto que os três polinômios


174 - ALGEBRA LINEAR

(x - b)"(x - e)', (x - ar(x - �(x - b)"

são relativamente primos.

Teo.rema 10. Seja f um polinômio não-constante e unitário


sobre o corpo F e seja

a decomposição de f em fatores primos. Para cada j, 1 sj s k, seja

Então f1, ... , fk são relativamente primos.

Demonstração. Deixamos a demonstração (fácil) deste fato a


cargo do leitor. Enunciamos este teorema principalmente porque
pretendemos usá-lo posteriormente.

Teorema 11. Seja f um polinômio sobre o corpo F com deri­


vada f'. Então f é um produto de polinômios distintos e irredutíveis
sobre F se, e somente se, f e f' forem relativamente primos.
Demonstração. Suponhamos que na decomposição de f em
fatores primos sobre o corpo F algum polinômio primo p (!_lão
constante) esteja repetido. Então f = p2h para algum h em F [ x].
Portanto
f = p2h' + 2pp'h
e também p é um divisor de f'. Logo f e f' não são relativamente
primos.
Suponhamos f = pl' ... , pk onde pl' ..., pk são polinômios dis­
tintos, não constantes e irredutíveis sobre F. Seja fi = f IPr Então

I' = P;f, + P�f 2 + .. . + P�f k.


Seja p um polinômio primo que divida f e f'. Então p = P; para
algum i. Ora, P; divide Jj para j =I= i, e como P; também divide
k
f' ·= 2: P}ij
j= 1
vemos que P; necessariamente divide p'j;. Portanto P; divide J; ou
divide p;. Mas P; não divide f; pois pl' ... , pk são distintos. Por-
POLINÔMIOS - 175

tanto P; divide p;. Isto não é possível, pois o grau de p; é uma uni­
dade menor que o grau de P;- Concluímos que nenhum primo
divide f e f', ou seja, f e f' são relativamente primos.

Definição. O corpo F é dito algebricamente fechado se todo


polinômio primo sobre F tem grau 1.
Dizer que F é algebricamente fechado significa que todo poli­
nômio não-constante irredutível e unitário sobre F é da forma
(x - e). Já observamos que cada um destes polinômios é irredutível
para qualquer F. Conseqüentemente, pode-se dar uma definição
equivalente de um corpo algebricamente fechado como um corpo
F tal que todo polinômio não-constante f em F [x] possa ser ex­
presso sob a forma

f = c (x - c1)''1 • • • (x - ckr
onde e é um escalar, cl' ... , ck são elementos distintos de F e
nl' ... , nk são inteiros positivos. Ainda uma outra formulação é
que, se f é um polinômio não-constante sobre F, então existe um
elemento e em F tal que f (e)= O.
O corpo R dos números reais não é algebricamente fechado
porque o polinômio (x2 + 1) é irredutível sobre R mas não tem
grau 1, ou porque não existe um número real e tal que c2 + 1 = O .

O chamado Teorema Fundamental da Álgebra afirma que o


corpo C dos números complexos é algebricamente fechado. Não
demonstraremos este teorema, apesar de usarmo-lo um pouco
mais adiante neste livro. A demonstração é omitida em parte peias
limitações de tempo e em parte porque a demonstração depende
de uma propriedade "não algébrica" do sistema dos números reais.
Para uma das demonstrações possíveis o leitor interessado poderá
consultar o livro de Schreier e Sperner citado na bibliografia.
O Teorema Fundamental da Álgebra também esclarece quais
são as possibilidades para que um polinômio com coeficientes reais
seja decomposto. em fatores primos. Se fé um polinômio com coefi­
cientes reais e e é uma raiz complexa de f, então o complexo conju­
gado e também é uma raiz de f. Portanto, todas as raízes com­
plexas, que não sejam reais, necessariamente ocorrem aos pares
conjugados e o conjunto todo de raízes tem a forma {tl' ... , tk, cl'
e 1' ..., e,, e,} onde t 1' . ., . tk são reais e e 1' .. ., e, são números com­
plexos não reais. Portanto f se decompõe em
176 - ALGEBRA LINEAR

onde P; é o polinômio quadrático

P; == (x - e;) (x - cJ

Estes polinômios P; têm co eficientes reais. Concluímos que todo


polinômio irredutível sobre o corpo dos números reais tem grau 1
ou 2. Todo polinômio sobre R é o produto de certos fatores
lineares, obtidos a partir das raízes reais de f, e certos polinômios
quadráticos irredutíveis.

Exercícios

1. Seja p um polinômio unitário sobre o corpo F e sejam f e g polinômios


sobre F, relativamente primos. Demonstrar que o m. d. c. de pf e pg é p.

2. Admitindo o Teorema Fundamental da Álgebra, demonstrar o que segue.


Se f e g são polinômios sobre o corpo dos números complexos, então
m. d. c. (j, g) 1 se, e somente se,f e g não possuem nenhuma raiz comum.
=

3. Seja D o operador derivação sobre o espaço dos polinômios sobre o corpo


dos números complexos. Seja f um polinômio unitário sobre o corpo dos
números complexos. Demonstrar que

onde c1' .. . , ck são números complexos distintos se, e somente se, f e Df


são relativamente primos. Em outras palavras, f não possui raiz múltipla se,
e somente se, j e Df não possuem nenhuma raiz comum. (Admitir o Teorema
Fundamental da Álgebra.)

4. Demonstrar a seguinte generalização da fórmula de Taylor. Sejam f, g e h


polinômios sobre um subcorpo dos números complexos, com gr(f) � n. Então

f(g) = f J..pk)(h)(g - h)k.


k/

k�O

(Aqui f(g) indica "f de g".)


Para os exercícios restantes, precisaremos da definição seguinte: Se f, g
e p são polinômios sobre o corpo F com p "# O, dizemos que fé congruente a g

módulo p se ( f-g) é divisível por p. Se fé congruente a g módulo p, escrevemos

f = g mod p.

5. Demonstrar, para todo polinômio não-nulo p, que a congruência módulo p é


uma relação de equivalência.
(a) Reflexiva: f =f mod p.
(b) Simétrica: se f = g mod p e g =f mod p.

(c) Transitiva: se f = g mod p e g = h mod p, então f = h mod p.


POLINÔMIOS - 177

6. Suponhamos que f = g mod f' e/, = g1 mod p.


(a) Demonstrar que f + f1 = g + g1 mod p;

(b) Demonstrar que .fj1 = gg 1 mod p.

7. Usar o Exercício 6 para demonstrar o que segue. Se f, g, h e p são polinômios


sobre o corpo F e p #-O e se f = g mod p, então h(j) = h(y) mod p.

8. Se p é um polinômio irredutível e fq O mod p, demonstrar que ou f = O


=

mod p ou g =O mod p. Dar um exemplo que mostre que isto é falso se p


não é irredutível.
Capítulo 5

DETERMINANTES

5.1 Anéis Comutativos


Neste capítulo demonstraremos os fatos essenciais sobre deter­
minantes de matrizes quadradas. Faremos isto não apenas para
matrizes sobre um corpo, mas também para matrizes cujos elemen­
tos sejam "escalares" de um tipo mais geral. Existem duas razões
para esta generalidade. Primeiro, em certos pontos do próximo
capítulo, será necessário tratarmos de determinantes de matrizes
cujos elementos são polinômios. Segundo, no tratamento de deter­
minantes que apresentamos, um dos axiomas da definição de um
corpo não desempenha nenhum papel, a saber, o axioma que ga­
rante a existência de um inverso multiplicativo para todo elemento
não-nulo. Por estas razões, é conveniente desenvolver a teoria dos
determinantes para matrizes cujos elementos sejam pertencentes a
um anel comutativo com elemento unidade.

Definição. Um anel é um conjunto K, munido de duas operações


(x, y) --+ x + y e (x, y) --+ xy que satisfazem
(1) K é um grupo comutativo em relação à operação (x, y) --+
--+ x + y (K é um grupo comutativo em relação à adição);
(2) (xy)z = x(yz) (a multiplicação é a s sociativa);
(3) x(y + z) = xy + xz; (y + z)x = yz + zx (valem as duas leis
distributivas).
Se xy = yx para todos x e y em K, dizemos que o anel K é
comutativo. Se existe um elemento l em K tal que lx xl x para
= =

todo x, dizemos que K é um anel com elemento unidade e 1 é deno­


minado o elemento unidade de K.
Estamos interessados em anéis comutativos com elemento uni­
dade. Tal anel pode ser descrito rapidamente como um conjunto K,
munido de duas operações que satisfazem todos os axiomas da
DETERMINANTES - 179

definição de um corpo dado no Capítulo 1, com exceção talvez do


axioma (8) e da condição 1 =1- O. Assim, um corpo é um anel comu­
tativo com elemento unidade diferente de zero taJ que a cada x
-1 -
não-nulo corresponde um elemento x tal que xx 1 = l. O con­
junto dos inteiros, com as operações usuais, é um anel comutativo
com elemento unidade mas não é um corpo. Outro anel comuta­
tivo com elemento unidade é o conjunto dos polinômios sobre um
corpo, com a adição e a multiplicação que definimos para poli­
nômios.
-Se K é um anel comutativo com elemento unidade, definimos
uma m x n matriz sobre K como sendo uma função A do conjunto
dos pares (i, j) de inteiros, 1 si s m, 1 sj s n, em K. Como sempre,
representamos tal matriz por uma tabela retangular com m linhas
e n colunas. A soma e o produto de matrizes sobre K são defi­
nidas como para matrizes sobre um corpo

(A + B);i = A;i + B;i


(AB)ij = L Ai kBkj
k
sendo que a soma é definida quando A e B têm o mesmo número
de linhas e o mesmo número de colunas e o produto é definido
quando o número de colunas de A é igual ao número de linhas de
B. As propriedades algébricas básicas destas operações são ainda
válidas. Por exemplo

A(B +C) = AB +AC, (AB) C = A(BC), etc.

Como no caso de corpos, referir-nos-ell).OS aos elementos de K


como escalares. Podemos então definir combinações lineares das
linhas ou colunas de uma matriz como fizemos anteriormente. A
grosso modo, tudo o que fizemos para matrizes sobre um corpo é
válido para matrizes sobre K, excetuando-se os resultados que de­
pendiam da possibilidade de "dividir" em K.

5.2 Funções Determinantes


Seja K um anel comutativo com elemento unidade. Desejamos
associar a cada n x n matriz (quadrada) sobre K um escalar (ele­
mento de K) que será conhecido como o determinante da matriz.
É possível definir o determinante de uma matriz quadrada A sim­
plesmente escrevendo uma fórmula para este determinante em
180 .;__ ALGEBRA LINEAR

função dos elementos de A. Pode-se então deduzir as diversas pro­


priedades dos determinantes a partir desta fórmula Contudo, tal
fórmula é bastante complicada e a fim de ganhar alguma vantagem
técnica, procederemos como segue. Definiremos uma "função deter­
minante" sobre K" x" como uma função que associa a cada nx n
matriz sobre K um escalar, sendo que essa função possui proprie­
dades especiais. É linear como uma função de cada uma das linhas
da matriz; seu valor é O sobre qualquer matriz que tenha duas
linhas iguais e seu valor sobre a n x n matriz unidade é 1. Demons­
traremos que existe uma tal função e depois que é única, isto é, que
existe exatamente uma tal função. Ao demonstrarmos a unicidade
será obtida uma fórmula explícita para o determinante, junto com
muitas de suas úteis propriedades.

Esta seção será dedicada à definição da "função determinante"


e à demonstração de que existe pelo menos uma tal função .

Definição. Seja K um anel comutativo com elemento unidade,


n um inteiro positivo e seja D uma função que associa a cada n x n
matriz A sobre K um escalar D(A) em K. Dizemos que D é o-linear
se para cada i, 1 ::;; i ::;; n, D é uma função linear da i-ésima linha
qu ando as outras (n 1) linhas são mantidas fixas.
-

Esta definição exige algum esclarecimento. Se D é uma função


de K" x" em K e se a1, . • . , ª" são as linhas da matriz A, escre­
vamos também

isto é, consideremos D também como uma função das linhas de A.


A afirmação de que D é n-linear significa então

(5-1) D(a1,• •.• , cai +a;,. . . , an) = cD(al' . . , ai' .. , an)


. .

''. +D(al' ... ,a;, ...,a,,).

i e consideramos D como
Se fixamos todas as linhas exceto a linha
uma função da i-ésima linha, em geral é conveniente indicarD(A)
por D(a;). Assim, podemos abreviar (5-1) para

D(cai +ex;) =·cD(a;) + D(a;)

desde que esteja claro o que isto significa.


DETERMINANTES - 181

Exemplo 1. Sejam kl' ... , k" inteiros positivos, 1 ::::;;; k;::::;;; n e


seja a um elemento de K. Para cada n x n matriz A sobre K defi­
namos

( 5 2)
- D(A) = aA(l, k1) ... A(n, kJ

Então, a função D definida por (5-2) é n-linear. De fato, conside­


rando D como uma função da i-ésima linha de A, com as outras
linhas fixas, podemos escrever

D(rx;) = A(i, k;)b


onde b é algum elemento fixo de K. Seja rx; = (A; l' ... , A;,.).
Então temos

D(crx; + rx;) = [cA(i,k;) + A'(i,k;)]b


= cD(rx;) + D(rxJ

Assim, D é uma função linear de cada uma das linhas de A.


Uma particular função n-linear deste tipo é

Em outras palavras, o "produto dos elementos diagonais" é uma


função 11-linear sobre K
11 x "
.

Exemplo 2. Determinemos todas as funções bilineares (2-Iinea··


res) sobre 2 x 2 matrizes sobre K. Seja D uma dessas funções.
Indicando as linhas da 2 x 2 matriz unidade por 81' 82, temos

Usando o fato de que D é bilinear, (5-1) implica

D(A) = A11D(8p A2181 + A2282) + A12D(82, A2181 + A2282)


= A11A21D(8p 81) + A11A22D(8p 82)
+ A12A21D(e2 , 81) + A12A22D(82 , 82).

Assim, D é completamente determinada pelos quatro escalares


182 -'--- ALGEBRA LINEAR

O leitor deverá achar fácil verificar o seguinte: se a, b, e, d são


quatro escalares arbitrários em K e se definimos

então D é uma função bilinear sobre as 2 x 2 matrizes sobre K e

D(81' 81) = a, D(81, 82) = b ,


D(82, 81) = e, D(82, 82) = d.

Lema. Uma combinação linear de funções n-lineares é n-linear.


Demonstração. Basta demonstrar que uma combinação linear
n-linear. Sejam D e E funções n-lineares.
de duas funções n-lineares é
Se a e b pertencem a K, a combinação linear aD + bE é evidente­
mente definida por

(aD + bE) ( A) = aD (A) + bE ( A).

Logo, fixando todas as linhas exceto a linha i

(aD + bE) (coei + ex;)= aD(cexi + ex;) + bE (cexi + ex;)


= acD(exi) + aD (ex;) + bcE(ex); + bE(ex;)
= c (aD + bE) (exi) + (aD + bE) (ex;).

Se K é um corpo e Vé o conjunto das n x n matrizes sobre K,


o lema acima diz o seguinte: o conjunto das funções n-lineares
sobre V é um subespaço do espaço de todas as funÇões de V em K.

Exemplo 3. Seja D a função definida sobre as 2 x 2 matrizes


sobre K por

(5-3)

Ora, D é a soma de duas funções do tipo descrito no Exemplo 1:

D= D1 + D2
Di(A) = A11A22
Dz(A) = - A12A21·

Pelo Lema acima, D é uma função bilinear. O leitor que tenha tido
alguma experiência com determinantes não achará este fato surpre­
endente, pois reconhecerá (5-3) como a definição usual do deter-
DETERMINANTES - 183

minante de uma 2 x 2 matriz. É claro que a função D que acabamos


de definir não é uma função bilinear típica Ela possui muitas
propriedades particulares. Vejamos algumas dessas propriedades.
Primeiro, se 1 é a 2 x 2 matriz unidade, então D(J) = 1, isto é,
D(c1, c2) = 1. Segundo, se as duas linhas de A são iguais, então

D(A ) = A 11A 12 - A 12A11 = O.

Terceiro, se A' é a matriz obtida de uma 2 x 2 matriz A permu­


tando suas linhas, então D(A') = - D(A ); de fato,

Definição. Seja D uma função n-linear. Dizemos que D é alter­


nada (ou alternante) se as duas condições seguintes estã<J salis/éilas:
(a) D(A) = O sempre que duas linhas de A são iguais.
(b) Se A' é uma matriz obtida de A permutando duas linhas de
A, então D(A}= - D(A).

Demonstraremos abaixo que toda função n-linear D que sa­


tisfaz (a), automaticamente sati sfaz (b). Colocamos as duas proprie­
dades na definição de função n-linear alternada por conveniência.
O leitor provavelmente notará que se D satisfaz (b) e A é uma matriz
com duas linhas iguais, então D(A) =
- D(A). Somos tentados a
concluir que D também satisfaz a condição (a). Isto é verdade, por
exemplo, se K é um corpo no qual 1 + 1 =!=O, mas em geral (a) não
é uma conseqüência de (b).

Definição. Seja K um anel comutativo com elemento unidadi! I!

seja n um inteiro positivo. Suponhamos que D seja uma função das


n x n matrizes sobre K em K. Dizemos que D é uma função deter­
minante se D é n-linear, alternada e D(I) 1. =

Como afirmamos anteriormente, mostraremos no final que


existe exatamente uma função determinante sobre n x n matrizes
sobre K. Isto pode ser visto facilmente para 1 x 1 matrizes A = [aJ
sobre K. A função D dada por D(A) =a é uma função determinante
e é evidentemente a única função determinante sobre 1 x l matrizes.
Estamos em condições de eliminar também o caso n =2 Demons­
tramos, no Exemplo 3, que a função

D(A) =
A 11A 22 - A 12A 21
184 -'-- ALGEBRA LINEAR

é uma função determinante. Além disso, a fórmula apresentada no


Exemplo 2 mostra que D é a única função determinante sobre 2 x 2
matrizes, pois demonstramos que para qualquer função bilinear D
D(A )= A11A21D(81 , e1) + A11A2iD(81' 82)
+ A12A21D(e2 , e1) + A12A22D(e 2' 8 2).

Se D é alternada, então

.e

Se D satisfaz também D(J) = 1, então

Exemplo. Seja F um corpo e seja D uma função trilinear


alternada, arbitrária, sobre as 3 x 3 matrizes sobre o anel de poli­
nômios F[x].
Seja

[X Ü - �2 ]
A= O 1
3
1 o x

Se indicarmos as linhas da 3 x 3 matriz unidade por 81, e2, e3, então


2 3
D(A) = D(x81 - x 83, 82' e1 + x 83).

Como D é uma função linear de cada linha

3 2 3
D(A) = xD(81 , 82 , 81 + x e3) - x D(83, e2' e1 + x i;3)
2
= xD(81 '82 ,81 ) + x4D(81 'e2'83) - x D(e3,e2 ,e1) - x5 D(e3,82'83).

Como D é alternada decorre que

Lema. Seja D uma função bilinear com a propriedade de que


D(A)=O para todas 2 x 2 matrizes A sobre K que tenham linhas
iguais. Então D é alternada.
DETERMINANTES - 185

Demonstração. O que precisamos mostrar é que se A é uma


2 x 2 matriz e A' é obtida transpondo-se as linhas de A , então
D(A') = - D(A). Se as linhas de A são r:t. e [3, isto significa que
precisamos mostrar que D(/3, r:t.) = - D(r:t., [3). Como D é bilinear

D(r:t. + [3, r:t. + /3 ) = D(r:t., r:t.) + D(r:t., /3 ) + D(f3, r:t.) + D( /3, [3).

Por nossa hipótese, D(r:t. + [3, r:t. + [3) = D(r:t., r:t.) = D(/3, [3) =O. Por­
tanto,

O = D(r:t., /3) + D(p, r:t.).

Lema. Seja D uma função n-linear sobre n x n matrizes sobre


K. Suponhamos que D tenha a propriedade de que D(A) =O sempre
que duas linhas adjacentes de A sejam iguais. Então D é alternada.
Demonstração. Precisamos mostrar que D(A) =O quando duas
quaisquer linhas de A são iguais e que D(A') = - D(A) e A' é obti­
da transpondo-se (trocando entre si) duas quaisquer linhas de A.
Em primeiro lugar suponhamos que A' seja obtida pela transpo­
sição de duas linhas adjacentes de A. O leitor deve verificar que o
argumento usado na demonstração do lema anterior se aplica ao
presente caso e nos fornece D(A') D(A). = -

Seja agora B obtida transpondo-se as linhas i e j de A, onde


i <j. Podemos obter B a partir de A por uma sucessão de trans­
posições de pares de linhas adjacentes. Começamos transpondo a
linha i com a linha (i + 1) e continuamos até que as linhas estejam
na ordem

Isto requer k j i transposições de linhas adjacentes. Agora, mo­


= -

vemos r:t.i para a i-ésima posição usando (k - 1) transposições de


linhas adjacentes. Desta maneira obtivemos B a partir de A por meio
de k + (k 1) = 2k 1 transposições de linhas adjacentes. Assim,
- -

D(B) = (-1)2k-1D(A) = -D(A).

Suponhamos que A seja uma n x n matriz arbitrária com duas


linhas iguais, digamos r:t.i r:t.i' com i < j. Se j = i + 1, então A
=

tem duas linhas iguais e adjacentes e D(A) =O. Se j > i + 1 trans­


pomos r:t.i+l e r:t.i e a matriz resultante B possui duas linhas iguais e
adjacentes, portanto D(B) =O. Por outro lado D(B) = - D(A), por­
tanto D(A) =O.
186 -'-- ALGEBRA LINEAR

Definição. Se n > 1 e A é uma n x n matriz sobre K, indique­


mos por A (i lj) a (n - 1) x (n - 1) matriz obtida de A retirando-se
a i-ésima linha e a j-ésima coluna. Se D é uma função (n - !)-linear
e A é uma n x n matriz, colocamos D;/A) D[A(iU)J. =

Teorema 1. Seja n·> 1 e seja D uma função (n _,!}linear alter­


nada sobre as (n - 1) X (n - 1) matrizes. sobre K. Para cada j,
1 :::;; j :::;; n, a função Ei definida por
n
(5-4) Ej(A) = L ( - l)i+jAijDJA)
i= 1

é uma função n-linear alternada sobre n x n matrizes A Se D é uma


função determinante, cada Ei também o é.
Demonstração. Se A é uma n x n matriz, Dii(A) é indepen­
dente da i-ésima linha de A. Como D é (n - 1)-linear, é claro que
Dii é uma função linear de qualquer linha exceto a linha l Por­
tanto Ai pi/A) é uma função n-linear de A Uma combinação
linear de funções n-lineares é n-linear, logo Ei é n-linear. Para
demonstrar que Ei é alternada, bastará demoftstrar que E/A)= O
sempre que A tiver duas linhas iguais e adjacentes. Suponhamos
que IXk= IXk+ 1• Se i =1- k e i =1- k + 1, a matriz (A(il/) tem duas linhas
iguais e então Di /A)= O. Portanto,

Como IX= IXk+l'


k

Aki = Ack+ l)i e A(kl/) = A(k + 11/) .

Então é evidente que E/A)= O.


Suponhamos agora que D seja uma função determinante. Se
1<n! é a n x n matriz unidade, então I'n'U/j) é a (n - 1) .x (n - 1)
matriz unidade 1<n-1>. Como 1:''/ ôii' decorre de (5-4) que
=

(5-�) Ep<n)) = D(J<n- lJ).


Ora, D(I'n-l!) == 1, de modo. que Ep<n!)= 1 e Ei é uma função
determinante.
Corolário. Seja K um anel comutativo com elemento unidade e
seja n um inteiro positivo. Existe pelo menos uma função determi­
nante sobre Knxn.
DETERMINANTES - 187

Demonstração. Demonstramos a existência de uma função


determinante sobre 1 x 1 matrizes sobre K e mesmo sobre 2 x 2
matrizes sobre K. O Teorema 1 nos diz explicitamente como cons­
truir uma função determinante sobre n x n matrizes, a partir de
uma função determinante sobre (n - 1) x (n - 1) matrizes. O coro­
lário decorre por indução.

Exemplo 5. Se B é uma 2 x 2 matriz sobre K façamos

IBI= B11B22 - B12B 21 ·

Então IBI= D(B), onde D é a função determinante sobre 2 x2


matrizes. Mostramos que esta função sobre K2 2 é
x única Seja

uma 3 x 3 matriz sobre K. Definindo El' E2, E3 como em (5-4),


então

(5-7) E2(A )= -Au l �:: �:: 1 +


A22 I �:� �:: 1 -A 32 I ��: �::I
(5-8) E 3(A)= À13 I �:: �:� 1 -A2 3 I �:� �:� 1 +
À33
I ��: ���1
Decorre do Teorema 1 que El' E2, E3 são funções determinantes.
Na realidade, como mostraremos posteriormente, E1= E2= E3,
mas isto ainda não é evidente mesmo neste caso simples. Poder­
se-ia, contudo, verificar diretamente este fato desenvolvendo-se
cada uma das expressões acima. Em vez de fazer isto, daremos
exemplos particulares.

(a) Seja K= R[x] e

[X -1 x2 :x;3
.
A= O x-2 1
o o x-3
]
188 -ALGEBRA LINEAR

Então

E1(A) = (x - 1)
1
X-
0 2
x
1
_ 3 1 = (x - l)(x - 2) (x - 3)

Ez(A) =
- x2 ÜO 1 ,
1 3. + (x - 2)
x- 1 X- 1
O
x3
x-3 1
= (x - 1) (x - 2) (x-3) ·

3
E3(A) = x ÜO 1 X -0
2
, ,
_
X - 1 X2
0
O
+ (x-3)
·

I 1 X
- 1
O
x2
x- 2 1
= (x - 1) (x - 2) (x - 3).

(b) Seja K =R e

Então

E1(A) =
/� �/ = 1

E2(A) = -

/� b/ = 1

E3(A) = -1 � bl = l
·

Exercícios
1. Cada uma das expressões seguintes, define uma função D sobre o conjunto
das 3 x 3 matrizes sobre o corpo dos números reais. Em quais destes casos Dé
uma função trilinear?

(a) J)(A) A11 + A22 + A33;


2
=

(b) D(A) (A1i} + 3A11A22;


(c) D(A) A1.1A12A33;
=

(e) D(A) O;
=

. (f) D(A) 1.
=

=
DETERMINANTES - 189

2. Verificar diretamente que as três funções E" E2, E3 definidas por (5-6), (5-7)
e (5-8) são idênticas.

3. Seja K um anel comutativo com elemento unidade. Se A é uma 2 x 2 matriz


sobre K, a adjunta clássica de A é a 2 x 2 matriz adj A definida por

adj A = [ A22

-À21

Se det indica a única função determinante sobre 2 x 2 matrizes sobre K,


mostrar que

(a) (adj A) A = A(adj A) = (det A) J;


(b) det (adj A) = det (A);
(c) adj (A') =
(adj A)'.

(A' indica a transposta de A.)

4. Seja A uma 2 x 2 matriz sobre um corpo F. Mostrar que A é inversível se, e


somente se, det A # O. Quando A é inversível, dar uma fórmula para A - ' .
5. Seja A uma 2 x 2 matriz sobre um corpo F e suponhamos que A2 =O .

Mostrar para cada escalar e que det (cl - A) = c2.

6. Seja K um subcorpo do corpo dos números complexos e n um inteiro posi­


tivo. Sejam j" ... , jn e k1> ... , k,, inteiros positivos menores ou iguais a 11.
Para uma 11 x 11 matriz A sobre K definamos

Demonstrar que D é 11-linear se, e somente se, os inteiros j1, • • • , j,, são distintos.

7. Seja K um anel comutativo com elemento unidade. Mostrar que a função


determinante sobre as 2 x 2 matrizes A sobre K é alternada e bilinear como
uma função das colunas de A.

8. Seja K um anel comutativo com elemento unidade. Definamos uma função D


sobre as 3 x 3 matrizes sobre K pela regra

Mostrar que D � alternada e trilinear como uma função das colunas de A.

9. Seja K um anel comutativo com elemento unidade e D uma função n-linear


alternada sobre as n x 11 matrizes sobre K. Mostrar que

(a) D(A) =
O se uma das linhas de A é O.
,

(b) D(B) =
D(A) se B é obtida a partir de A somando-se um múltiplo escalar
de uma linha de A a outra.

10. Seja F um corpo, A uma 2 x 3 matriz sobre F e (e,, e,, c3) o vetor em F3
definido por
190 - ALGEBRA t.INEAR

Mostrar que
(a) posto (A)= 2 se, e somente se, (e" c2, c3) #O;
(b) se A tem posto 2, então (cl' c2, c3) é uma base do espaço-solução do
sistema de equações AX =
O.

11. Seja K um anel comutativo com elemento unidade e seja D uma função bilinear
alternada sobre as 2 x 2 matrizes sobre K. Mostrar que D(A)=(det A) D(J)
para qualquer A. Utilizar agora este resultado (não são permitidos cálculos
com os elementos) para mostrar que det(AB) = det(A) det(B) para quaisquer
2 x 2 matrizes A e B sobre K.
12. Seja F um corpo e D uma função sobre as n x n matrizes sobre F (com valores
em F). Suponhamos que D ( ÁB) = D(A) D(B) para quaisquer A, B. Mostrar
que ou D(A) = O para qualquer A ou D(J) = l. No último caso mostrar que
D(A) #O sempre que A é inversível.

13. Seja R o corpo dos números reais e seja D uma função sobre as 2 x 2 matrizes
sobre R, com valores em R, tal que D(AB) =D(A) D(B) para quaisquer A, B.
Suponhamos também que

Demonstrar o seguinte:
(a) D(O) =O;
(b) D(A) =O se A2 =O;
(c) D(B) = -D(A) se, B é obtida transpondo-se duas linhas (ou colunas de A);
(d) D(A) =O se uma linha (ou coluna) de A é O;
(e) D(A) =O sempre que A é singular.

14. Seja A uma 2 x 2 matriz sobre um corpo F. Então o conjunto das matrizes
da forma f(A), onde f é um polinômio sobre F, é um anel comutativo K com
elemento unidade. Se B é urna 2 x 2 matriz sobre K, o determinante de B é
então urna 2 x2 matriz sobre F, da forma f(A). Suponhamos que J seja a
2 x 2 matriz unidade sobre F e que B seja a 2 x 2 matriz sobre K

Mostrar que det B =


! (A) , onde f =x2 - (A11 + A22) x + det A, e também que
f(A)=O.

5.3 Permutações e a Unicidade dos Determinantes


Nesta seção demonstr aremos a unicidade da função determi­
nante sobre as n x n ·matrizes sobre K. A demonstração nos levará,
DETERMINANTES - 191

de modo bem natural, a considerar permutações e algumas de suas


propriedades básicas.
Suponhamos que D sejà uma função n-linear alternada sobre
as n x n matrizes sobre K. Seja A uma n x n matriz sobre K com
linhas ctl' ct2, • • . , a,,. Se indicarmos as linhas da n x n matriz uni­
dade sobre K por B1, s2, . . . , e,,, então

n
(5-9) ct; = L 1
A(i, j)i:., :::;; i:::;; n.
j= 1 .1

Logo

D(A) = D( L A(l,j)ep ct2, • • • , rx,, )


' j

= L A(l,j)D(Bp rx2, • . • , )
rx,, .
j

Se agora substituirmos rx2 por L A(2, k)i:k veremos que


k

D(Bj, rx2, • • • , rx,,) = I A(2, k)D(cj, Bk, ... , rx,,).


k

Assim

D(A) = I A(l,j)A(2, k)D(ej, ek, ... , rx,,).


j,k

Em D( i;j, 1;k, . • • , rx,,) substituímos em seguida rx3 por � A(3, l)i:1 e


assim por diante. Obtemos finalmente uma expressão complicada
mas teoricamente importante para D(A), a saber

(5-10) D(A) =

k1' ki:' · · · 'iJcin

Em (5-10) a soma é estendida a todas as seqüências (k1, k2' ... , k,,)


de inteiros positivos menores ou iguais an. Isto mostra que D é uma

soma finita de funções do tipo descrito por (5-2). Deve-se notar que
(�-10) é uma conseqüência apenas da hipótese de que D é n-linear e
também que um caso particular de (5-10) foi obtido no Exemplo 2.
Como .D é alternada,

sempre que dois dos ÍJ!dices k; são iguais. Uma seqüência (k1, k2, • • • ,

... , k") de inteiros positivos menores ou iguais a n, com a proprie-


192 .--::- ALGE8B(J. LINEAR (

dade de não existirem dois k; iguais, é denominada uma permutação


de grau n. Portanto, em ( 5-1 O), precisamos somar considerando
apenas as seqüências que sejam permutações de grau n.
Como umà seqüência finita, ou n-upla, é uma função definida
sobre os n primeiros inteiros positivos, uma permutação de grau n
pode ser definida como uma função bijetora do conjunto { 1, 2, ... , n}
em si mesmo. Tal função a corresponde à n-upla (al, ai, ..., an)
e é simplesmente uma regra para ordenar 1, 2, ... , n de alguma
maneira bem definida.
Se D é uma função n-linear alternada e A é uma n x n matriz
sobre K, então temos

(5-11) D(A) = L A(l, al) ... A(n, an) D(sª'' .. ., t:a, )


a

onde a soma é estendida a todas as permutações a distintas e de


grau n.
A seguir mostraremos que

(5-12) ,D(sl' ..., s;,)

onde o sinal ± depende somente da permutação a. A razão para


isto é a que segue. A seqüência (al, a2, ..., an) pode ser obtida da
seqüência (1, 2, ... , n) por um número finito de transposições de
pares de elementos. Por exemplo, se al # 1, podemos transpor 1 e
al obtendo (al, ..., 1, ...). Procedendo desta maneira chegaremos
à seqüencia (al, ... , an) após n ou menos transposições de pares.
Como D é alternada, o sinal de seu valor muda cada vez que trans­
pomos duas das linhas s; e sr Assim, se passamos de (1, 2, ... , n)
a (al, a2, ..., an) por meio de m transposições de pares (i,j) teremos
D(sª'' ... , sa ) = (- 1rD(s1, ..., sn).

Em particular, se D é uma função determinante

(5-13)

onde m depende somente de <T e não de D. Assim, todas as funções


determinantes associam o mesmo valor à matriz com linhas
s
0'1
, ..., sCTn , e este valor é 1 ou - 1.
Um fato básico sobre permutações é o seguinte: se a é uma
permutação de grau n, pode-se passar da seqüência (1, 2, ... , n)
DETERMINANTES - 193

à seqüência (al, á2, ..., an) por meio de uma série de transposições
de pares e isto pode ser feito de diversas maneiras; contudo, qual­
quer que seja a .maneira pela qual isto é feito, o número de trans­
posições usadas é sempre par ou sempre ímpar. A permutação é
então denominada par ou ímpar, respectivamente. Define-se o sinal
de uma permutação por

sinal a = {-i: :: : : r�� ar

com o símbolo "1" indicando aqui o inteiro 1. Mostraremos abaixo


que esta propriedade básica das permutações pode ser deduzida do
que já sabemos sobre funções determinantes. Suponhamos por ora
que isto seja verdade. Então o inteiro m que aparece em (5-13) é
sempre par se a é uma permutação par e é sempre ímpar se a é uma
permutação ímpar. Para qualquer função D n-linear e alternada
temos então

e usando (5-11)

(5-14) D(A) = O:: (sinal a) A(l, ul) . . . A(n, un)] D(/).


(J

É claro que I indica a n x n matriz unidade.


De (5-14) vemos que existe exatamente uma função determi­
nante sobre as n x n matrizes sobre K. Se indicarmos esta função
por det, ela será dada por

(5-15) det(A) = L (sinal u) A(l, ul) . . . A(n, un)


(J

sendo a soma estendida a todas as permutações u distintas e de


grau n. Podemos resumir formalmente como segue.

Teorema 2. Seja K um anel comutativo com elemento unidade


e seja n um inteiro positivo. Existe exatamente uma função deter­
minante sobre o conjunto. das n x n matrizes sobre K, que é a função
det definida por (5-15). Se D é uma função n-linear alternada arbi­
trária sobre Kº x º, então, para toda n x n matriz A

D(A) = (det A) D(I).


194 - ALGEBRA LINEAR

Este é o teorema que procurávamos, mas deixamos uma lacuna


na demonstração. Essa lacuna é a demonstração de que, para uma
dada permutação u, quando passamos de (1, 2, ... , n) para (ul, u2,
... , un) transpondo pares, o número de transposições é sempre par
ou sempre ímpar. Este fato básico de combinatória pode ser
demonstrado sem nenhuma referência a determinantes; contudo,
gostaríamos de salientar como ele decorre da existência de uma
função determinante sobre n x n matrizes.
Tomemos K como sendo o anel dos inteiros. Seja D uma fun­
ção determinante sobre as n x n matrizes sobre K. Seja u uma
permutação de grau n e suponhamos que passemos de (1, 2, ... ' n)
a (ul, u2, ... , un) por meio de m transposições de pares (i, j), i # j.
Como mostramos em (5-13)

(-lr = D(e,,1, ... , ea)•


isto é, o número ( - ir tem que ser o valor de D sobre a matriz
de linhas eª'' ... , e,,n· Se

D(e,,1, ... , e") = 1,

então m tem que ser par. Se

então m tem que ser ímpar.


Como temos uma fórmula explícita para o determinante de
uma n x n matriz e esta fórmula envolve as permutações de grau n,
vamos concluir esta-seção fazendo mais aigumas observações sobre
permutações. Primeiro, notemos que existem exatamente n! =

= 1 2
· ... 11 permutações de grau n, pois se u é uma tal permu­
tação, existem 11 escolhas possíveis para ul; uma vez feita, existem
(n - 1) possibilidades para u2', depois (n - 2) possibilidades para
u".> e assim por diante. Logo, existem

n(n - 1) (n - 2) ... 2 1 · = n!

permutação u. A fórmula (5-15) para det (A) fornece desta ma­


neira det (A) como uma soma de n! termos, um para cada permu­
tação de grau n. Um termo genérico é um produto

A(l, ul) ... A(n, un)


DETERMINANTES - 195

de n elementos ·de A, um elemento de cada linha e um de cada


coluna, e é acompanhado de um sinal + ou " - " conforme seja
" "

uma permutação par .ou ímpar.


Quando as permutações são consideradas como funções bije­
toras do conjunto { 1, 2, ... , n} em si mesmo, é possível definir um
produto de permutações. O produto de por i será simplesmente
a função composta <n definida por

(<n) (i) = a(i(i)).

Se i; indica a permutação idêntica, i;(i) = i, então cada possm


uma inversa a-1 tal que

Pode-se resumir estas observações dizendo que, em relação à ope­


ração de composição, o conjunto das permutações de grau n é um
grupo. Este grupo é usualmente denominado o grupo simétrico
de grau n.
Do ponto de vista de produtos de permutações, a propriedade
fundamental do sinal de uma permutação é que

(5-16) sinal (ai) = (sinal a) (sinal i).

Em outras palavras, ai é uma permutação par se a e i são ambas


pares ou ambas ímpares enquanto que ar é ímpar se uma das suas
permutações é ímpar e a outra é par. Pode-se ver isto pela defi­
nição do sinal em termos de permutações sucessivas de pares (i,j).
Poderá ser também instrutivo se re·ssaltarmos como a igualdade
sinal (ai)= (sinal a) (sinal i) decorre de uma propriedade funda -
mental dos determinantes.
Seja K o anel dos inteiros e sejam a e i permutações de grau n.
Sejam t:1, ..., i;n as linhas da n x n matriz unidade sobre K, seja
A a matriz ·de linhas i; , ... , i; e seja B a matriz de linhas i; 1,
A i-ésima linh�1 de A'" contém exatamente um elemento
, i;un·
não-nulo, a saber, o 1 na coluna Ti. A partir disto, é fácil ver que
• • •

i;u<i é a i-ésima linha da matriz produto AB. Ora,


det(A) = sinal i, det(B) = sinal a e det(AB) = sinal (ai).

Portanto teremos sinal (ai)= (sinal a) (sinal r) desde que demons­


tremos o seguinte:
196 - ALGEBRA LINEAR

Teorema 3. Seja K um anel comutativo com elemento unidade


e sejam A e B n x n matrizes sobre K. Então

det(AB) = (det A) (det B).

Demonstração. Seja B uma n x n matriz fixa sobre K e para


cada n x n matriz A definamos D(A) = det(AB). Se indicarmos
as linhas de A por al' ... , ª"' então

Aqui aiB indica a 1 x n matriz que é o produto da x n matriz


ai pela n x n matriz B . Como

e det é n-linear, é fácil ver que D é n-linear. Se a;=ª ' então,


;
a,B = a B , e como det é alternada
i

Logo, D é alternada. Ora, D é uma função n-linear alternada e


pelo Teorema 2

D(A) = (det A) D(J).

Mas D(J) = det(JB) = detB, portanto

det (AB) = D(A) = (det A) (detB) .

O fato de que sinal (ar) = (sinal a ) (sinal )


r é apenas um dos
muitos corolários do Teorema 3. Consideraremos alguns desses
corolários na próxima seção.

Exercícios

1. Se K é um anel comutativo com elemento unidade e Aé a matriz sobre K


dada por

A= [ O O �] -a

-b -e
a

mostrar que det A= O.


DETERMINANTES - 197

]
2. Demonstrar que o determinante da matriz de Vandermonde
2
a ª

[� b
e
bl
c
2

é (b - a) (e - a) (e - b).

3. Enunciar explicitamente as seis permutações de grau 3, dizer quais são Ím­


pares e quais são pares e usar isto para dar uma fórmula completa (5-15)
para o determinante de uma 3 x 3 matriz.

4. Sejam cr e r as permutações de grau 4 definidas por cri= 2, cr2 = 3, cr3 = 4,


cr4 = l, d = 3, r2 = l, r3 = 2, r4 = 4.

(a) cr é .par ou ímpar? r é par ou ímpar? ·

(b) Determinar crr e rcr.

5. Se A é uma n x n matriz inversível sobre um corpo, mostrar que det A =F O.

6. Seja A uma 2 x 2 matriz sobre um corpo. Demonstrar que det(/ +A) =


= l + det A se, e somente se, traço (A)= O.

7. Uma n x 11 matriz A é denominada triangular


se A;;= O sempre que i > j ou
se A1; =O sempre que i <}. Demo11'lr<11 qt1<: ,, determinante de uma matriz
triangular é o produto A11 A22, ... , A"" de seus elementos diagonais.

8. Seja A uma 3 x 3 matriz sobre o corpo dos números complexos. Formemos


a matriz xi -A cujos elementos são polinômios, sendo o elemento i, j desta
matriz o polinômio <\;x - Av Se f = det(x/ - A), mostrar que f é um poli­
nômio unitário de grau 3. Escrevendo

com números complexos e" c2, e c3, demonstrar que

\1. Seja 11 um inteiro positivo e F um corpo. Se cr é uma permutação de grau n,

demonstrar que a função

é um operador linear inversível sobre F".

10. Seja F um corpo, 11 um inteiro positivo e S o conjunto das n x n matrizes


sobre F. Seja V o espaço vetorial de todas as funções de S em F. Seja W o
conjunto das funções n lineares alternadas sobre S. Demonstrar que W é um
subespaço de V. Qual é a dimensão de W?
198 - ALGEBRA LINEAR

li. Seja T um operador linear sobre F". Definamos

(a) Mostrar que DT é uma função n-linear alternada.


(b) Se

mostrar que para n quaisquer vetores ex 1, ••• , ex. temos

det(Tex" . . .,Tex.) =e det(ex., ...,ex.).

(c) Se !!4 é uma base ordenada arbitrária de F" e A é a matriz de T em


relação à base ordenada !!4, mostrar que det A = e.

(d) Qual é um nome razoável para o escalar e?

12. Se cr.é uma permutação de grau n e Aé uma n x n matriz sobre o corpo F


com vetores linhas ex1,. . .,ex., indiquemos por cr(A) a n x n matriz com vetores­
linhas i:xc:r1, . . , <Xc:rn·
.

(a) Demonstrar que cr(AB) = cr(A) B e em particular que lí(A) = cr(l) A.


(b) Se T o operador linear do Exercício 9, demonstrar que a matriz T em
relação à base ordenada canônica é cr(J).
(c) cr-1(1} é a matriz inversa de cr (J)?
(d) É verdade que cr(A) é semelhante a A?

13. Demonstrar que a função sinal sobre permutaçõesé única no seguinte sentido:
fé uma função qualquer que associa a cada permutação de grau n um
se
f(cr-r:) =f(u)f(-r:), então fé identicamente nula, ou f é identica­
inteiro e se
mente 1 ou fé a função sinal.

5.4 Propriedades Adicionais dos Determinantes

Nesta seção relataremos algumas das propriedades úteis da


função determinante sobre n x n matrizes. Talvez a primeira coisa
que devamos destacar seja a que segue. Em nossa discussão de
detA, as linhas de A desempenharam um papel privilegiado. Como
não existe nenhuma diferença fundamental entre linhas e colunas,
·
pode-se muito bem esperar que det A seja uma função n-linear alter­
nada das colunas de A. Isto decorre e, para demonstrá-lo, basta
mostrar que

(5-17) det(A1) = det(A)

onde A1 indica a transposta de A.

Se u é uma permutação de grau n


DETERMINANTES - 199

A'(i, o-i) =A(o-i, i) .

Da expressão (5-15) tem-se então

det (A1) =L (sinal o-) A(o-1, 1) ... A(o-n, n).

Quando i = o- -1j, A(o-i, i) =A(j, o--1j). Assim

1
A(o-1, 1) ... A(o-n, n) =A(l, 0--11) ... A(n, o-- n).

Como (J0" -1 é a permutação idêntica,

(sinal o-) (sinal o--1) = 1, ou seja, sinal(o--1) = sinal(o-).

Além disso, quando percorre todas as permutações de grau n,


0--1 também o faz.
Portanto,

"

= det A,

o que demonstra (5-17).


Em certas ocasiões é preciso calcular certos determinantes par­
ticulares. Quando isto é necessário, é freqüentemente útil tirar van­
tagem do fato seguinte: se B é obtida de A s omando-se um múltiplo
de uma linha de A a outra (ou um múltiplo de uma coluna a outra),
então

(5-18) det B = det A.

Demonstraremos a afirmação relativa às linhas. Seja B obtida de


A somando-se crxi a rxi, onde i <j. Como det é linear como uma
função da i-ésima linha

det B =det A+ e det(rx , ... , rxi, ... , rxi' ... , rxn)


1
=det A.
Outro fato útil é o seguinte: consideremos uma n x n matriz
da forma em blocos
200 - ALGEBRA LINEAR

onde A é uma r x r matriz, C é uma s x s matriz, B é r x s e O


indica a s x r matriz nula. Então

(5 1 2)
- det .[� �] = (det A)(det C).

Para demonstrar isto, definamos

D(A, B, C) = det [� �] ·

Se fixarmos A e B, então D é alternada e s-linear como uma


função das linhas de C. Assim, pelo Teorema 2

D(A, B, C) = (det C) D(A, B,J)


onde I é a s x s matriz unidade. Subtraindo das linhas de B múl­
tiplos das linhas de I e usando a afirmação (5-18) acima, obtemos

D(A; B, I) = D(A, O,!).

Ora, D(A, O, I) é evidentemente alternada e r-linear como uma


função das· linhas de A. Assim

D(A, O, I) = (det A) D(I, O; I).

Mas, D(I, 0,1) = l, logo,

D(A, B, C) = (det C) D(A, B, I)


= (det C) D(A, O, I)
= (det C) (det A).

Por um raciocínio do mesmo tipo, ou tomando transpostas

(5-20) det [� �J (det A)(det C).

Exemplo 6.
<acionais O que dese �� [� r r 1j
Suponhamos que K seja o corpo dos números
OS cal � O ter inante de 4 X 4 mat'iz

- 4 1 -1 -1
1 2 3 o
DETERMINANTES - 201

Subtraindo das linhas 2, 3 e 4 múltiplos convenientes da linha 1,


obtemos a matriz

]
2
-4 -4
-9 -13
1 -3

que, como sabemos por (5-18), terá o mesmo determinante que A.


Subtraindo da linha 3, � da linha 2 e depois subtraindo da linha 4,
i da linha 2, obtemos

-J
-1 2
4 -4
o -4 -8
o 4

o

e novamente det B = det A. A forma em blocos de B nos diz que

det A = det B = 1� - ! 1-: """"� 1 = 4(32) = 128.

Seja agora n >1 e seja A uma n x n matriz sobre K. No Teo­


rema 1 mostramos como construir uma função determinante sobre
as n x n matrizes, dada uma tal função sobre as (n - 1) x (n - 1)
matrizes. Agora que demonstramos a unicidade da função determi­
nante, a fórmula (5-4) nos diz o que segue. Se fixamos uma coluna
arbitrária de índice j,
n

det A = L ( - l)i+ iA;i det A(il;).


i= 1
O escalar ( - 1); + i det A (i IJ) é usualmente denominado o z, J co­
fator de A ou o cofator do elemento i, j de A. A fórmula acima para
det A é então denominada o desenvolvimento de det A pelos cofa­
tores da }-ésima coluna (ou, às vezes, o desenvolvimento pelos me­
nores da j-ésima coluna). Se colocarmos

então a fórmula acima dirá que para cada j


n

det A = L A;Fii
i= 1
202 - ALGEBRA LINEAR

j
onde o cofator Cu é ( - l)i+ vezes o determinante da (n - 1) x
x (n - 1) matriz obtida de A retirando-se a i-ésima linha e aj-ésima

coluna de A.
Se j =!= k, então

L Aikcij =o.
i= 1
De fato, substituamos a j-ésima coluna de A por sua k-ésima coluna
e chamemos a matriz resultante de B. Então B possui duas colunas
iguais, logo det B=O. Como B (i lj) A(i lj) temos =

O= det B
n
j
= L ( -1);+ Bij det B(il/)
i= 1
n
i j
= I (-l) + A ik detA(i l/)
i=l
n

= I Aikcir
i= 1
Estas propriedades dos cofatores podem ser resumidas por

I A kc j ôjk detA.
i= 1 i i
(5-21) =

A n x n matriz adj A, que é a transposta da matriz dós cofa­


tores de A, é denominada a adjunta clássica de A. Assim

(5-22) (adj A)ij = Cji =( - l)i+j detA(i ii) .

As fórmulas (5-21) podem ser resumidas na equação matricial

(5-23) (adjA)A =(detA) I.

Desejamos também ver que A(adj A)=(det A)J. Como A 1(i lj) =

=A (jli)1 temos
DETERMINANTES - 203

que diz simplesmente que o i, j cofator de A1 é o j, i cofator de A.


Assim,

(5-24) adj(A') =( adj A)'.

Aplicando (5-23) a A1 obtemos

(adj A1) A1 = (det A1)J = (det A)J

e transpondo

A(adj A1)1 =(det A)J.

Usando (5-23) obtemos o que queremos:

(5-25) A(adj A)= (det A)J.

Da mesma forma que para matrizes sobre um corpo, uma n x n


matriz A sobre K é dita inversível sobre K se existe uma n x n ma­
triz A� 1 com elementos em K tal que AA - l =A- l A = /. Se existe
uma tal inversa, ela é única, pois o mesmo argumento usado no
Capítulo 1 mostra que qu ando B A = AC =1 temos B =C. As fór­
mulas (5-23) e (5-25) nos dizem o seguinte sobre a inversibilid ade
de matrizes sobre K: se o elemento det A possui um inverso multi­
plicativo em K, então A é inversível a A -1 = (det A)-1 adj A é a
única inversa de A. Reciprocamente, é fácil ver que, se A é inversível
sobre K, o elemento det A é inversível em K, pois se BA = 1 temos

1 = det 1 = det(AB) = (det A) (det B) .

O que demonstramos é o seguinte:

Teorema 4. Seja A uma n x n matriz sobre K. Então A é


inversível sobre K se, e somente se, det A é inversível em K. Quando
A é inversivel, a única inversa de A é

A-1 = (det A)-1 adj A.

Em particular, uma n x n matriz sobre um corpo é inversível se, e


somente se. seu determinante é d iferente de zem.
Gostarí amos de salientar que este critério relativo a determi­
n antes para a inversibilidade demonstra que uma n x n matriz com
204 - ALGEBRA LINEAR

uma inversa à esquerda ou à direita é inversível. Esta demonstração


é completamente independente da demonstração que fizemos no
Capítulo 1 para matrizes sobre um corpo. Gostaríamos também de
ressaltar o que a inversibilidade significa para matrizes cujos ele­
mentos são polinômios. Se K é o anel de polinômios F[x ], os
únicos elementos de K que são inversíveis são os polinômios cons­
tantes não-nulos. De fato, se f e g são po linômios e fg = 1, temos
gr(f) + gr(g)
=O de modo que gr(f) =gr(g) =O, isto é, f e g são
polinômios constantes. Portanto uma n x n matriz sobre o anel de
polinômios F[x] é inversível sobre F[x] se, e somente se, seu
determinante é um polinômio constante não-nulo.

Exemplo 7. Seja K =R [x] o anel de polinômios sobre o


corpo dos números reais. Sejam

A [xX2 + X ]
B= 2 [
x2 - 1
1
= X+ 1
- 1 ' . X - 2x- 3

Então, por meio de cálculos simples, detA =x + 1 e det B - 6.


Assim, A não é inversível sobre K, enquanto que B é inversível
=

sobre K. Notemos que

adj A= [ - X1+ 1 -2
x-
X +X
1] ' adJ. B= [ -X2. +x2x - 3
-x - 2
x2 - 1
]
e (adj A)A (x + l)J, (adj B)B=-61. É claro que
=

B-1 -__ _!_[ -x2 +X2x


6 - 3
-x - 2
1 - x2
]
Exemplo 8. Seja K o anel dos inteiros e

=
A [ � �l
Então det A= -2 e

adj A=
[ _1 -n ·

Assim, A não é inversível como uma matriz sobre o anel dos intei­
ros; no entanto, podemos também considerar A como uma matriz
DETERMINANTES - 205

sobre o corpo dos números rac1ona1s. Se o fazemos, então A é


inversível e

l. [ 4 - 2 ] [-2 1].
2 -3 1 1 -t
Com relação a matrizes inversíveis, gostaríamos de mencionar
mais um fato elementar. Matrizes semelhantes têm o mesmo deter­
minante, isto é, se P é inversível sobre K e B = p-1 AP, então
det B = det A. Istü é evidente, pois

1
det (P- AP) = ( det P 1 ) (det A) (det P) = det A.

Esta observação simples torna possível definir o determinante de


um operador linear sobre um espaço vetorial de dimensão finita.
Se T é um operador linear sobre V, definimos o determinante de T
como sendo o determinante de qualquer n x n matriz que repre­
sente T em relação a alguma base ordenada de V.
· Como todas
essas matrizes são semelhantes, elas possuem o mesmo determi­
nante e nossa definição faz sentido. Em relação a isto, veja o
Exercício 11 da Seção 5-3.

Gostaríamos agora de discutir a regra de Cramer para· a reso­


lução de sistemas de equações lineares. Suponhamos que A seja
uma n x n matriz sobre o corpo F e que desejamos resolver o sis­
tema de equações lineares AX = Y para uma dada n-upla (y1, ... , yJ
Se AX = Y, então

(adj A)AX = (adj A) Y

e, portanto,

(det A)X = (adj A) Y.

Assim
li

(det A) x
i = L (adj A)iy i
i= 1

= L ( -1);+ iy; [
det A(i j).
i= 1

Esta última expressão é o determinante de n x n matriz obtida subs­


tituindo a j-ésima coluna de. A por Y. Se det A = O, tudo isto não
nos diz nada; contudo, se det A :f. O temos o que é conhecido como
a regra de Cramer. Seja A uma n x n matriz sobre o corpo F tal
206 - ALGEBRA LINEAR

que det Ai= O. Se y1, . • . , Y. são escalares arbitrários em F, a única


solução X = A - 1 Y do sistema de equações AX = Y é dada por

det B.
j 1, ., n
xi= det A'
= . .

onde B. é a n x n matriz obtida de A substituindo


. a j-ésima coluna
J
de A por Y.

Concluindo esta seção, gostaríamos de fazer alguns comen­


tários que sirvam para colocar os determinantes naquilo que acre­
ditamos ser a perspectiva apropriada De vez em quando, é neces­
sário calcular alguns determinantes particulares e esta seção foi Mr­
cialmente dedicada a técnicas que irão facilitar esse trabalho. NÓ.
-

entanto, o papel principal dos determinantes neste livro é teórico.


Não se discute a beleza de fatos tais como a regra de Cramer. Mas
a regra de Cramer é um instrumento ineficiente para resolver siste­
mas de equações lineares, principalmente porque envolve cálculos
em demasia Portanto, deve-se concentrar no que a regra de Cramer
diz, e não em como calcular por meio dela De fato, refletindo sobre
este capítulo, esperamos que o leitor coloque mais ênfase na com­
preensão do que a função determinante é e como ela se comporta
do que no modo de calcular determinantes de matrizes particulares.

Exercícios

1. Usar a fórmula da adjunta clássica para calcular as inversas das 3 x 3 m_atrizes


reais seguintes:

[-� � �]
4 1 -1

2. Usar a regra de Cramer para resolver os seguintes sistemas de equações


lineares sobre o corpo dos números racionais:

(a) X + y + Z = 11

2x - 6y - z = O
3x + 4y + 2z O =

(b) 3x - 2y = 7
3y - 2z = 6
3z - 2x = -1

3. Uma n x n matriz A sobre um corpo F é anti-simétrica se A' = - A. Se A é


uma n x n matriz anti-simétrica com elementos complexos e se n é ímpar,
demonstrar que det A =O.
DETERMINANTES - 207

4. Uma n X n matriz A sobre um corpo F é dita ortogonal se AA' = /. Se A é


ortogonal, mostrar que det A= ± l. Dar um exemplo de uma matriz orto­
gonal para a qual det A= - l.

5. Uma n x n matriz A sobre o corpo dos números complexos é dita unitária


se AA* = 1 (A* indica a transposta conjugada de A). Se A é unitária, mostrar
que j detA j = 1.

6. Sejam T e V operadores lineares sobre o espaço vetorial V de dimensão


finita. Demonstrar que
(a) det(TU) = (det T) (det U);
(b) T é inversível se, e somente se, det T # O .

7 . Seja A uma n x n matriz sobre K , u m anel comutativo com elemento unidade.


Suponhamos que A seja da forma em blocos

'

A= �
[ �' :]
O O A•

onde A; é uma r; x r; matriz. Demonstrar que

det A =(det A1) (det A2) • • • (det A.).

8. Seja V o espaço vetorial das n x n matrizes sobre o corpo F. Seja B um


elemento fixo de V e seja T,, o operador linear sobre V definido por T8(A) =
= AB - BA. Mostrar que det T8= O.

9. Seja A uma n x n matriz sobre um corpo. A# O. Se r é um inteiro positivo


arbitrário entre 1 e n, uma r x r submatriz de A é qualquer r x r m a triz obtida
retirando (n-r) linhas e (n-r) colunas de A . . O posto-determinante de A é
o maior inteiro positivo r tal que alguma r x r submatriz de A possua um
determinante não-nulo. Demonstrar que o posto-determinante de A é igual ao
posto-linha de A (=posto-coluna de A).

10. Seja A uma 11 x n matriz sobre o corpo F. Demonstrar que existem no mil­
ximo n escalares e distintos em F tais que det(cl - A)= O.

11. Sejam A e B n x n matrizes sobre o corpo F. Mostrar que se A é inversível


existem no máximo n escalares e em F para os quais a matriz cA + B não
é inversível.

12. Seja V o espaço vetorial das n x n matrizes sobre F, B uma n x n matriz


fixa sobre F e sejam L8 e R8 os operadores lineares sobre V definidos por
L8(A) = BA e R8(A) =AB. Mostrar que
(a) det L8 = (det B)";
(a) det R8 = (det B)".
208 - ALGEBRA LINEAR

13. Seja V o espaço vetorial das n x n matrizes sobre o corpo dos números com­
plexos e seja B uma n x n matriz sobre C, fixa. Definamos um operador linear
M B sobre V por M B(A) � BAlf' onde Jf'
, Bí. Mostrar que
=

Seja agora H o conjunto de todas as matrizes hermitianas em . V. (A é


hermitiana se A = A*.) Então H é um espaço vetorial sobre o corpo dos
números reais. Mostrar que a função T,, definida por 7�(A) = BAlf' é
um operador linear sobre o espaço vetorial real H. e depois mostrar que
TB = ldet Bl2". (Sugestão: Ao calcular det TB, mostrar que V possui uma
base consu.tuida de matrizes hermitianas e então mostrar que det lB = det M B.)

14. Sejam A, B, C, D n x n matrizes sobre o corpo F tais que elas comutam.


Mostrar que o determinante da 2n x 2n matriz

é det(AD - BC).

5.5 Módulos
Se K é um anel comutativo com elemento unidade, um módulo
sobre K é um sistema algébrico que se comporta como um espaço
vetorial, K fazendo o papel do corpo dos escalares. Para sermos
precisos, diremos que V é um módulo sobre K (ou um K-módulo) se

1. existe uma adição (oc, /3) --t oc + f3 em V, em relação 'a qual


V é um grupo comutativo;

2. existe uma multiplicação (e, oc) --t ca de elementos oc em V


e e em K, tal que

(cl + C2)oc = Cl()( + C2()(


c(a1 + oc2) = coc1 + coc2
(c1c2)ct C1(C20C)
=

la= oc.
Para nós, os K-módulos de maior importância serão os mó­
dulos K", das n-uplas. Os módulos K"' , das matrizes, também
'"

são importantes. Se V é um mqdulo qualquer, falaremos de combi­


nações lineares, dependência linear, independência linear, exata�
mente como num espaço vetorial. Devemos ter o cuidado de não
aplicar a V qualquer resultado de espaços vetoriais que dependa da
divisão por escalares não nulos, a única operação de corpo que
DETERMINANTES - 209

poderia estar ausente no anel K. Por exemplo, se 1X1, • • • , IX" são


linearmente dependentes, não poderemos concluir que algum IX;

seja uma combinação linear dos demais. Isto torna mais difícil
determinar bases em módulos.
Uma base do módulo V é um conjunto linearmente indepen­
dente que gera o módulo. Esta definição é igu al à que foi d ada
para espaços vetoriais; e a propriedade import ante de uma base �,
é que todo elemento de V pode ser escrito, de modo único, como
uma combinação linear de ( algum número finito de} elementos de
f!J. Se admitirmos na matemática o Axioma da Escolha (veja o
Apêndice), poderemos mostrar que todo espaço vetorial possui uma
base. O leitor está bem ciente que existe uma base em qu alquer
espaço vetorial que seja gerado por um número finito de vetores.
Isto não acontece em módulos. Por isso precis amos de denomi­
n ações especiais para módulos que possu am bases e para módulos
gerados por um número finito de elementos.

Definição. O K-módu/o V é denominado módulo livre se ele


possuir uma base. Se V possuir uma base contendo n elementos, V
é denominado K-módulo livre com n geradores.

Definição. O módulo V é de tipo finito se ele contiver um sub­


conjunto finito que gere V. O posto de um módulo de tipo finito é
o menor inteiro k tal que k elementos gerem V.

Repetimos que um módulo pode ser de tipo finito sem que


tenha uma base finita. Se V é um K-módulo livre com n geradores,
então V é isomorfo ao módulo K". Se {/31' ..., {311} é uma base de
V, existe um isomorfismo que leva o vetor c1/31 + ... + c11/311 na
n-upla (c1, ... , c11) de K11• Não é aparente, de imediato, que o mesmo
módulo V não possa t ambém ser um módulo livre com k geradores,
k i= n. Em outras palavras, não é evidente que duas bases quaisquer
de V devam conter o mesmo número de elementos. A demons­
tração deste fato é uma aplicação interessante de determinantes.

Teorema 5. Seja K um anel comutativo com elemento unidade.


Se V é um K-módulo livre com n geradores, então o posto de V é n.

Demonstração. Devemos provar que V não pode ser gerado


por menos de n dos seus elementos. Sendo V isomorfo a K"; deve­
mos mostrar que se m < n, o módulo K11 não é gerado por n-uplas
1Xp . • • , IX . Seja A a matriz com linhas IXl' . • . , IX . Suponhamos que
m '"
210 - ALGEBRA LINEAR

cada um dos vetores da base canônica e 1, ... , en seja uma combi­


nação linear de ct '
l
.. ., ctm. Então existe uma matriz P, em Kn x m,
tal que

PA = !,

onde I é a n x n matriz unidade. Seja à a n x n matriz que se


obtém acrescentando n-m linhas de O's à matriz A e seja P uma
n x n matriz arbitrária, cujas primeiras n colunas sejam as colunas
�Então

PÃ = I.

Portanto, det à =F O. Sendo, porém, m < n, pelo menos uma linha


de à é constituída somente de O. Esta contradição mostra que
Kn não é gerado por ct 1, .. . , ct m.

É interessante notar que o Teorema 5 estabelece a unicidade


da dimensão de um espaço vetorial (de dimensão f inita). A demons­
tração, baseada na existência da função determinante, é bem dife­
rente da demonstração dada no Capítulo 2. Pelo Teorema 5 sa­
"
bemos que "módulo livre de posto n é o mesmo que "módulo
livre com n geradores".

Se V é um módulo sobre K, o módulo dual V* consiste de


todas as funções lineares fde V em K. Se V é um módulo livre de
posto 11, então V* é também um módulo livre de posto n. A
demonstração é igual à que foi feita para espaços vetoriais. Se
: f3, ... , f3.} é
, uma base ordenada de V, existe uma base dual
associada, {! 1, • • • , fn} para o módulo V*. A função f; associa
a cada ct em V sua i-ésima coordenada em relação a { f3 1, • • •
, f3n} :

Se fé uma função linear sobre V,

5.6 Funções Multilineares

O objetivo desta seção é colocar nossa discussão sobre deter­


minantes no que acreditamos ser a perspectiva apropriada. Trata­
remos de formas multilineares alternadas sobre módulos. Estas
DETERMINANTES - 211

formas são a generalização natural dos determinantes, como foram


apresentados. O leitor que não leu (ou não tiver desejo de ler) a
rápida descrição de módulos da Seção 5.5, ainda pode estudar esta
seção com proveito, substituindo, consistentemente, a expressão
"módulo livre sobre K de posto n" por "espaço vetorial sobre F
de dimensão n".
Seja K um anel comutativo com elemento unidade e seja V
um módulo sobre K. Se r é um inteiro positivo, a função L de
V' =V x V x ... x V em K é denominada multilinear se L(rx 1, , a,) • • •

é linear, como uma função de cada ai .quando os demais ai são man­


tidos fixos, isto é, se para cada i
L(ctp ... , cai + /3i, . . , a,)
. = cL(cx:1' . , a;, ... , a, +
. .

+ L(ct1, • • • , /J;, . . , cx:J


.

Uma função multilinear sobre V' será também denominada forma


r-linear sobre V ou forma multilinear de grau r sobre V. Tais fun­
ções são às vezes chamadas r-tensores sobre V. A coleção de todas
as funções multilineares sobre V' será indicada por M'(V). Se L e
M estão em M'(V), a soma L + M:

(L + M) ( a 1, ... , a,) =
L(a 1, ... , a,) + M (a1' . . , a,)
.

é também multilinear; e, sendo e um elemento de K, o produto cL:

(cL) (cx:1, . . , a,) = cL(ctp ... , a,)


.

é multilinear. Portanto, M'(V) é l!J!L..K�.rnitdt!lo --:::; um submódulo


do módulo de todas as funções V' em K.
Ser= 1, temos M1(V) =V*, o módulo dual das funções lineares
sobre V. As funções lineares também podem ser usadas para cons­
truir exemplos de formas multilineares de grau mais elevado. Se
f1 , f são funções lineares sobre V, definamos
• . . , ,

Evidentemente L é uma forma r-linear sobre V.

Exemplo 9. Se V é um módulo, uma forma 2-linear sobre V é


denominada forma bilinear sobre V. Seja A uma n X n matriz com
elementos em K. Então,
212 - ALGEBRA LINEAR

L(X, Y) = Y1 AX
1
define u ma forma bilinear sobre o módulo K" x . Analogamente

M (IX, {3) = IXA {31

define u ma forma bilinear M sobre K".

Exemplo 10. A função determinante associa a cada n x n


matriz A, um elemento det A, em K. Se considerarmos det A como
uma funçã � as de A:

det A = D (IX ,
1 ... , IX.)
então D é uma forma n-linear sobre K".

Exemplo 11. É fácil obter uma expressão algébrica para a


forma r-linear, geral, sobre o módulo K". Se IXl' ... , IX, são vetores
em Ve A é a r x n matriz com linhas ... , IX,., então para qualquer
IXl'
função L em M'(K"),

= ,L A1iL(ei' IX2, • • • , IX,)


j=l

=
f, f,
j=l k=l
A1iA2k L(ei, ek, IX3, ... , IX,)

=
L A1i A2kL(ei, ek, 1X3, . • . , IXJ
j,k= 1

Se, por sua vez, substituirmos 1Xp • • • , IX, pelas suas expressões como
combinações lineares dos vetores da base canônica, e escrevermos
A(i,j) no lugar de Aii' obteremos o seguinte:

(5-26) L(1X1, • • • , IX,) = L A(l, j1) • . • 4(r, j,) L(ei,. ... ei).
ji, ... ,j,""1
DETERMINANTES - 213

Em (5-26) existe um termo para cada r-upla J = U1, ..., j,) de intei­
ros positivos entre 1 e n. Existem n' r-uplas deste tipo. Logo, L é
completamente determinada por (5-26) e os valores particulares

'
atribuídos aos n elementos ( e.)1 , 1r). É também fácil ver que
... , e.

escolhendo para cada r-upla J um elemento c


1
de K

(5-27) L (ap ... ,a,)= L A(l,j1) ... A(r,j,) c1


J

define uma forma r-linear sobre Kn.


Suponhamos que L seja uma função multilinear sobre V' e
M uma função multilinear ·sobre v•. Definamos uma função
L ®M sobre vr+s por

(5-28) (L ® M)(a1, ...,a,+.)= L(a1, ...,a,)M(a,+l' ...,a,+.).

Se considerarmos V' +s como sendo V' x v• , então para a em V'


e fJ em v·

(L ® M)(a,[J)' = L(a)M([J).

É claro que L®M é multilinear sobre vr+s. A função L® M é


denominada produto tensorial de L e M. O produto tensorial não
é comutativo. De fato, M®Li= L®M a não ser quando L=O
ou M =O; no entanto, o produto tensorial está intimamente rela­
cionado com as operações de módulo em M' e M• .

Lema. Sejam L e L1 formas r-lineares sobre V, M e M1 formas


s-lineares sobre V e c um elemento de K.

( a) (cL + L1) ® M = c(L ® M) + L1 ® M;


(b ) L ® (cM + M1) = c(L ® M) + L ® M1.

Demonstração. Exercício.
O produto tensorial é associativo, isto é, se L, M e N são
formas (respectivamente) r-, s- e t-lineares sobre V, então

(L ®M) ®N= L ®(M ®N).


214 - ALGEBRA LINEAR

Isto decorre imediatamente do fato de que a multiplicação em K


é associativa. Portanto, se Ll' L2' ..., Lk são funções multilineares
k
sobre V'1, • • • • V' , o produto tensorial

L = L1 ® . .. <8> Lk

é definido, sem ambigüidade, como uma função multilinear sobre


V', sendo r=r1 + . . +rk. Um caso particular disto foi mencio­
.

nado anteriormente. Se f1, . .. ,f, são funções lineares sobre V, o


produto tensorial

L =
fl <8> · · · ®f..
é dado por

Teorema 6. Seja K um anel comutativo com elemento unidade.


Se V éum K-módulo livre de posto n, então Mr(V) é um K-módulo
livre de posto n'; de fato, se { fl' ... , fnJ é uma base dual V*, os nr
produtos tensoriais

f.J1 <8> ... ® f.J '


r
formam uma base de M'(V).
Demonstração. Seja {!1, .. ., f"} uma base ordenada de V* e
que seja dual da base {P 1, ..., Pn} de V. Para cada vetor ex em V,
temos

Efetuamos agora o cálculo desenvolvido no Exemplo 11. Se Lé


uma for mar-linear sobre Ve ex1, ..., ex, são elementos de V, então
de (5-26)
L (ex1, ... ,ex,)= L �.(ex1) ... f)ex,)L(pii, ..., Pi,).
i1,. . ,j,
.

Em outras palavras,

(5-29) L= L L(ªf-'.,
J1
. )f.J1 ® ... ®f1·r
..., pJr •

ji,. ,j,
. .

Isto mostra que os n' produtos tensoriais

(5-30) E1 =
f.J1 ® ... ® fJr.
DETERMINANTES - 215

dados pelas r-uplas J=U1, • . • ,jr) geram o módulo M'(V). Vemos


que as várias r-formas EJ são independentes, da seguinte maneira:
suponhamos que para cada J tenha-se um elemento cJ em K e
formemos a função multilinear

(5-31)

Observemos qtJe se 1 = (i1, ... , i,), então

{o 1-=11
Eif3i1' ... ,f3i)= :
1 l=J.

Portanto, utilizando (5-31), temos

(5-32)

Em particular, se L �O então c1 =O para cada r-upla J.

Definição. Seja L uma forma r-linear sobre um Kmódulo V.


Dizemos que L é alternada se L(al' ... , a,)=O sempre que ai= ctj
com i # j.
Se L é uma função multilinear alternada sobre V',

Em outras palavras, transpondo dois dos vetores (de índices dife­


rentes) na r-upla (ctl' ... , a.) o valor correspondente de L muda de
sinal. Como toda permutação é um produto de transposições,
vemos que };;_(a"'' ... , a")= (sinal CT) L(a1: , a.). • • .

Indicaremos por N(V) a coleção de todas as formas r-lineares


alternadas sobre V. É claro que N(V) é um submódulo de M' (V).

Exemplo 12. Mostramos anteriormente, neste capítulo, que


existe exatamente uma forma n-linear alternada D, sobre o mó­
dulo Kn, tal que D (el ... , en )= 1. Mostramos também, no Teo­
'

rema 2, que se L é uma forma arbitrária em A" (Kn),

L = L(el' ... , e )D .

n
Em outras palavras, N(Kn) é um K-módulo livre de posto 1. Em
(5-15) desenvolvemos uma fórmula explícita para D. Com a no­
tação que estamos usando agora, esta fórmula pode ser escrita
216 - ALGEBRA LINEAR

(5-33) D = L (sinal a) Íai ® . · · ® Ían·


a

onde fl' . .. ,f,. são as funções coordenadas canônicas sobre Kn e


a somatória se estende sobre as n! permutações distintas a do con­
junto {1, ... n}. Se indicarmos o determinante de uma matriz A por
,

det A = L (sinal a) A (al, 1) ... A (a n, n)

obteremos uma expressão diferente para D:

(5-34)
a

onde

Existe um método geral para associar uma forma multilinear


com uma forma alternada. Se L é uma forma r-linear sobre um
módulo Ve se
a é uma permutação de {1, . . . , r} obtemos uma
outra função Lª, r-linear, definindo

Lª(a.1 , ..., a,)= L(aal' ..., aª.).

Se L for alternada então Lª= (sinal o-) L . Agora, para cada L em


M'(V) definamos uma função n,L em M'(V) por:

(5-35) n,L = L (sinal a)Lª


a
isto é,

(5-36) (n,L) (a.1' ...,a,)= L (sinal a) L(a.ª1,


,aª.). • • •

a
Lema. n, é uma transformação linear de M'(V) em N(V). Se
L está em N(V) então /n,L � r ! L.
Demonstração. Seja1 r unia-p ermutação arbitrária de { 1, ... , r }.
Então
(n, L) (a.,1' ...'arr)= L (sinal a) L(aro-1' ...,arar)
a
= (sinal r) L (sinal w) L(aro-1' ..., ara,).
a
DETERMINANTES - 217

Quando u percorre (uma vez) todas as permutações de { 1, ... , r}


o mesmo acontece com TU. Portanto,

(n,L) (ex,p ... , ex,,) = (sinal T ) (n,L) (cxp ..., cxJ

Logo, n,L é uma forma alternada.


Se L está em N(V), então L(cxª1, ... , cxª,) = (sinal u) L(ix1, • • • , ex, )
para cada u; logo, n,L r ! L. =

Mostram os, em (5-33), que a função determinante D em


. J\"(K") é

onde fp ... ,j� são as funções coordenadas canomcas sobre K".


Existe uma observação importante que deve ser feita em relação a
este último lema. Se K é um corpo tal que r! seja inversível em
K, então n l eva M'(V) sobre N(V). De fato, neste caso, é mais
natural, de um certo ponto de vista, usar a aplicação n1 = (l/r!)n
no lugar de n, pois n1 é a projeção de M'(V) sobre N(V), isto é,
n1 é uma aplicação linear de M'(V) sobre N(V) tal que n1(L) = L
se, e somente se, L estiver em N(V).

Teorema 7. Seja K um anel comutativo com elemento unidade


e seja V um K-módulo livre de posto n. Se r > n, N(V) = {O}. Se

1 ::; r::; n, então N(V) é um K-módulo livre de posto (�).


Demonstração. Seja {/31, ... , f3n} uma base ordenada de V com
base dual {fl' ... ,fn}. Se L está em M'(V), temos

(5-37)

onde a somatória se estende sobre todas as r-uplas J = (j 1, . . . , },)


de inteiros entre 1 e n. Se L é alternada,

sempre que dois dos índices ji forem iguais. Se r > n, em cada r-upla
J, algum inteiro é necessariamente repetido. Portanto, N(V) = {O}
se r > n.
Suponhamos agora 1::; r::; n. Se L está em N(V), a soma em
(5-37), precisa ser efetuada apenas para as r-uplas J para as quais
218 - ALGEBRA LINEAR

J 1' ... , j, são distintos, uma vez que todos os outrós termos são
nulos. Cada l'-upla de inteiros distintos entre 1 e n é uma permu­
tação de uma, r-upla J = U1, . .. ,j,) tal que j1 < ... <j,. Este tipo
especial de r-upla é denominado r-upla crescente de elementos de
{l, . .. , n }. Existem

(n )r
=
n!
r! (n - r) !

tais r-uplas.

Suponhamos fixado uma r-upla crescente J. Seja LJ a soma


de todos os termos em (5-37) correspondentes a permutações da
r-upla J. Se a é uma permutação de { 1, ... , r}, então

Assim,

(5-38)

onde

(5-39)
,�-_}Ji = � (sinal a) fj"1 <8> . .. ®fJur
J

De (5-39) vemos que cada DJ é alternada e que

(5-40) L = L L(/3j1' ... , /3j,)DJ


J
para toda L em N(V), onde o índice da somatória percorre o con­

junto de todas as r-uplas crescentes. Afirmamos que as (�) formas

D.
,J.
constituem uma
.
base de N(V). Vimos que elas geram N(V).
E fácil ver que elas são indypendentes, da seguinte maneira: se
I = (il' .. . , i,) e J= U1,. .. ,j,) são r-uplas crescentes, então

(5-41) DJ(/3
f3 '

) =
{ 1, I = J
; , , • • ·, ;,/ o, J =f. J ·
DETERMINANTES - 219

Suponhamos que cJ seja um escalar associado a cada r-upla cres­


cente , e definamos

De (5-40) e_ (5-41) obtemos

Em particular, se L =
O c1
,
=
O para cada r-upla crescente 1.

Corolário. Se V é um K-módulo livre de posto n, então N(V)


é um K-módulo livre de posto 1. Se T é um operador linear sobre
V, então existe um único elemento c em K, tal que

para toda forma L, n-linear alternada, sobre V.

Démonstração. Se L está em A"(V), evidentemente

define uma forma L ri n-linear alternada. Seja M um gerador do


módulo A"(V) de posto 1. Cada L em A"(V) pode ser escrito de
modo único como L =aM para algum a em K. Em particular,
Mr =
cM para um determinado e. Para L =aM, temos

LT =(AM)y
=aMT
=a(cM)
=c(aM)
=
cL.
É claro que o elemento e, neste último corolário, é denomi­
nado o determinante de T. De (5-39), para o caso r =
n (quando
existe somente uma r-upla crescente J = (1, .. , n), vemos que o
.

determinante de T é o determinante da matriz que representa T


em qua_lquer base ordenada {/31, ... , /3.}. Vejamos por que. O
elemento i, j da matriz representante é

Aij =f/T/3;)
220 - ALGEBRA LINEAR ·

de modo que

Di(T/31, ., TP.)
. • = L (sinal o) A( l, lTl) ... A(n, lTn)

= det A.
Por outro lado,

Di(T/31' ..., T/3.) = (det T) Di(/31' ..., /3.)


= det T.

A razão destas observações é que, por intermédio do Teorema 7


e seu corolário, obtemos uma definição do determinante de um
operador linear, que não requer o conhecimento de determinantes
de matrizes. Determinantes de matrizes podem ser definidos em
termos de determinantes de operadores ao contrário do que fizemos
na Seção 5.4.
Queremos dizer algo mais sobre as formas especiais DJ' r-linea­
res alternadas, associadas a uma base {fl' ...,f"} de V* em (5-39).
É importante entender que Di(cx.1, ,ex.,) é o determinante de uma
• • •

determinada r x r matriz. Se

1 :$; i :$; r, 1 :$; j :5: n,

isto é, se

(5-42)

[ A(l j1)
: • . . �
A'( ,j,) l
-
- det . .

. .

A(r,j1) A(r., j,)

Assim, Di(cx.1, , ct,) é o determinante da r x r matriz, formada pelas


• • •

colunas j1, ... ,j, da r x n matriz, que tem para linhas (as· n-uplas
coordenadas de) ct1, . ,ex.,. Uma outra notação, algumas vezes
. .

usada para este determinante, é


ô(cx.1' ...' ct, )
(5- 43)
ô(JJjl' ...' /3j,)
DETERMINANTES - 221

Nesta notação, a demonstração do Teorema 7 mostra que toda


forma r-linear, alternada L pode ser expressa em relação a uma
base {/31, ... , Pn} pela equação

o(Ctp ... ' oc,) f3 )


L (°'P et,) - " L (/3h' ... '
.

(5-44) ... ' - L,


j .
r
. <
Jt . . .
< .
Jr
o(f3.Jt ' ... ' f3.)
Jr

5.7 O Anel de Grassman


Muitas das propriedades importantes de determinantes e formas
multilineares alternadas podem ser descritas em termos de uma
operação de multiplicação sobre formas, denominada produto ex­
terior. Se L e M são formas sobre o módulo V, respectivamente
r e s-lineares, a elas está associado um produto de L e M, o pro­
duto tensorial L ® M. Ele não define uma forma alternada a não
ser quando L =O ou M = O ; no entanto, existe uma maneira na­
tural de projetá-lo em N+s(V). Aparentemente

(5-45) L M · =
nr+s(L ® M)
deveria ser a multiplicação "natural" de formas alternadas. Mas
será que é?
Tomemos um exemplo específico. Suponhamos que V seja o
módulo Kn e f1, ... ,fn as funções coordenadas canônicas sobre K".
Se i # j,

é a função (determinante)

dada por (5-39). Suponhamos agora que k seja um índice dife­


rente de i e de j. Então

Dii-jk =
n3[(f; ®� - � ®J) ®fk]
=
nif; ®� ®fk) - 1t3� ®J; ®fk).

A demonstração do Lema, que está após a equação (5-36), mostra


que para uma forma L, r-linear, arbitrária e para qualquer permu­
tação a de {1, ... , r}
222 - ALGEBRA LINEAR

Logo, D;j fk·


= 2n3(f; ®fj ®fk). Por um cálculo análogo Í; Djk ·
=

= 2n3(f; ® fj ® fk). Portanto, temos

e tudo isto parece muito promissor. Mas há um problema. Apesar


do cálculo que acabamos de efetuar, a multiplicação admitida em
(5-45) não é associativa. De fato, se l for um índice diferente de
i, j, k, os cálculos mostram que

Assim, em geral

e vemos que nossa primeira tentativa de achar uma multiplicação,


produziu uma operação não associativa.
O leitor não deve ficar surpreso com a monotonia de uma veri­
ficação direta das du;:is_ eguações gue mostram a não associativi­
dade. Isto é típico do assunto, como também é típico que exista
um fato geral que simplifique consideravelmente o trabalho.
Suponhamos que L seja uma forma r-linear e M uma forma
s-linear sobre o módulo V. Então

nr+s((n.L) ® (n.M)) n.+/L (sinal a) (sinal r) L ª ® M.)


(_
=

ª•'
1 = .Dsinal a) (sinal r) n.+.(Lª ® M.)
a,<

com a variando sobre o grupo simétrico s. das permutações de


{l, ..., r} e r variando sobre .s•. Cada par a,r define um elemento
(a, r) de s.+. que permuta os primeiros r elementos de {1, . . ., r + s}
de acordo com O' e os últimos s elementos de acordo com r. É
claro que
sinal (a, r) = (sinal a) (sinal r)
e que
DETERMINANTES - 223

Portanto,

nr+s [(n,L) ® (n,M)] = L sinal(a, r)n.+,[(L ® M )(a,rl


a,t

Ora, já observamos que

Assim, segue-se que

(5 -46)

Esta fórmula simplifica numerosos cálculos. Por exemplo, supo­


nhamos que I = ( i1 . ... , i.) seja uma r-upla crescente e que
J = fi p ...,j,) seja uma s-upla crescente. Para simplificar as coisas,
suponhamos ainda que

Então temos as funções determinantes associadas

D1 = n.(E1)
DJ n,(EJ)
=

onde E1 e EJ são dadas por (5-30). Usando (5-46), vemos imedia­


tamente que

D1 DJ = nr+s[n,(E1) ® n,(EJ)]
·

= r!s!n.+,(E1 ® EJ).

Como E1 ®EJ = E1uJ' segue-se que

Isto sugere que a ausência de associatividade para a multiplicação


(5-.45) decorre do fato de que D1 DJ =1- D1ur
· Afinal, o produto de
D1 e DJ deveria ser D1Ur Para consertar a situação, deveríamos
definir um novo produto, o produto exterior de uma forma r-linear
alternada L e uma forma s-linear alternada M por

1
(5-47) L /\ M = -
1 -1 n +,(
. L ® M ).
r. s.
224 '--- ALGEBRA LINEAR

Temos então

D /\ D = D
1 1 1u1
para as funções determinantes sobre Kn, e se existir alguma justiça
neste mundo, deveríamos ter encontrado uma boa multiplicação
para formas multilineares alternadas. Infelizmente, (5-47) não tem
sentido para o caso mais geral sob consideração, pois talvez não
seja possível dividir por r!s! no anel K. Se K for um corpo de
característica zero, então (5-47) tem sentido e pode-se rapidamente
demonstrar que o produto exterior é associativo.

Teorema 8. Seja K um corpo de característica zero e V um es­


paço vetorial sobre K. Então o produto exterior é uma operação
associativa sobre as formas. multilineares alternadas sobre V. Em
outras palavras, se L, M e N são formas multilineares alternadas de
graus r, s e t, respectivamente, então

(L /\ M) /\ N = L /\ (M /\ N).

Demonstração. Decorre de (5-47) que cd(L /\ M) = cL /\ dM


para escalares e e d arbitrários. Logo

r!s!t![(L/\ M) /\ N] = r!s!(L /\ M) /\ t!N

e como n,(N) = t!N, resulta que

r!s!t![(L/\ M) /\ N]= n,+/L®M) /\ n,(N)


1 1 .
n,+s+t[n,+.(L ® M) ® n,(N)].
(r + s)! tf

De (5-46) vemos agora que


'

r!s!t [(L /\ M) /\ N] = n,+s+,(L ® M ® N).

Por um cálculo análogo

r!s!t![L /\ (M /\ N)] = n,+s+t(L ® M ® N)


e, portanto,

(L /\ M) /\ N = L /\ (M /\ N).
DETERMINANTES - 225

Voltemos agora ao caso geral, onde somente suporemos que


K seja um anel comutativo com elemento unidade. Nosso primeiro
problema é substituir (5-47) por uma definição equivalente e que
funcione em geral. Se L e M forem formas inultilineares alternadas
de graus r e s, respectivamente, construiremos uma forma multi­
linear L /\ M, alternada, canônica, de grau r + s, tal que

r!s!(L /\ M) = n,+/L ® M).

Lembremos a definição de n,+/L ® M). A cada permutação


a de {1, ... , r + s} associamos a função multilinear

(5-48) (sinal a) (L ® M)11


onde

e somamos as funções (5-48) sobre todas as permutações a. Exis­


tem (r + s) ! permutações; no entanto, coino L e M são alternadas,
muitas das funções (5-48) são iguais. De fato, existem no máximo
(r + s)!
r!s!
funções distintas (5-48). Vejamos por que. Seja S,+s o conjunto
das permutações de {1, . , r + s}, isto é, seja sr+s o grupo simé­
. .

trico de grau r + s. Como na demonstração de (5-46), distingui­


remos o subconjunto G das permutações a que permutam entre si
os elementos de {1, ... , r} e {r + 1, ... , r + s}. Em outras palavras,
a está em G se 1 ::;; ai ::;; r para cada i entre l e r. (Decorre necessa­
riamente que r + 1 ::;; aj::;; r + s para cada j entre r + 1 e r + s).
Ora, G é um subgrupo de S,+s' isto é, se a e r estiverem em G,
ar-1 estará em G. Evidentemente G possui r!s! elementos.
Temos uma aplicação

s
Sr+s � Mr+ (V)
definida por

tf;(a) = (sinal a) (L ® M)11•


Como L e M são alternadas

l/J(y) = L®M
226 - ALGEBRA LINEAR

para todo y em G. Portanto, como (Na)r = Nw para toda f�


(r + s)-lineàr N sobre V, temos

l/J(ry) = l/J(r), r em S,+•' y em G.

Isto mostra que a aplicação 1/1 é constante sobre cada classe lateral
(à esquerda) rG do subgrupo G. Se r1 e r2 estão em S,+s' as classes
laterais r 1 G e r2 G são idênticas ou disjuntas conforme r � 1r1 esteja
ou não em G. Cada classe lateral contém r!s! elementos; logo,
existem
(r + s) !
r!s!

classes laterais distintas. Se S,+./G indicar a coleção de élasses


laterais, então 1/1 define uma função sobre S,+./G, isto é, pelo que
mostramos, existe uma função íjí sobre este conjunto, tal que

para todo r em S,+s· Se H é uma classe lateral à esquerda de G,


então Í/Í(H) l/J(r) para todo r em H.
=

Definamos agora o produto exterior das formas multilineares


alternadas L e S, de graus r e s, colocando

(5-49) L /\M = L lf(H)


H

onde H varia sobre S,+/G. Uma outra maneira de enunciar a defi­


nição de L/\ M é a seguinte: seja S um conjunto arbitrário de per­
mutações de {1, ... , r + s} que contenha exatamente um elemento
de cada classe lateral à esquerda de G. Então

(5-50) L /\ M = L, (sinal a) (L ® M)"


"

onde a varia sobre S. Evidentemente

r!s!L /\M = n,+.(L ® M)

de modo que a nova definição é equivalente a (5-47) quando K


for um corpo de característica zero.
DETERMINANTES - 227

Teorema 9. Seja K um anel comutativo com elemento unidade


e seja V um módulo sobre K. Então o produto exterior é uma ope­
ração associativa sobre as formas multilineares alternadas sobre V.
Em outras palavras, se L, M e N são f armas multilineares alternadas
sobre V de graus r, s e t, respectivamente, então

(L /\ M) /\ N = L /\ (M /\ N).

Demonstração. Apesar de não podermos aplicar aqui a demons­


tração do Teorema 8, ela sugere como devemos tratar o caso geral.
Seja (r,s,t) o subgrupo de S,+s+r constituído das permutações que
permutam entre si os elementos dos conjuntos

{1, ... ,t},{r+1, ... ,r+s}, {r+s+ 1, ... ,r+s+t}.

Então (sinal µ) (L ® M ® N)µ é a mesma função multilinear para


todos µ numa dada classe lateral à esquerda de G(r,s,t). Esco­
lhamos um elemento de cada classe lateral à esquerda de G(r, s, t)
e seja E a soma dos termos correspondentes (sinal µ) (L ® M ® N)1,.
Então E é independente da maneira em que os representantes µ
são escolhidos, e

r!s!t!E = 1T.r+s+rCL ® M ® N).

Devemos mostrar que (L /\ M) /\ N e L /\ (M /\ N) são ambos


iguais a E.
Seja G(r+s,t) o subgrupo de S,+s+t que permuta entre si os
elementos dos conjuntos

{1, ... ,r+s}, {r+s+ 1,... >+s+t}.

Seja T uma permutação arbitrária de { 1, ... ,r+s+t} que con­


tenha exatamente um elemento de cada classe lateral à esquerda de
G(r + s,t). De (5-50)

(L /\ M) /\ N = L (sinal r) [(L /\ M) ® N],

-onde a somatória se estende sobre as permutações r em T. Ora,


seja G(r,s) o subgrupo de Sr+s que permuta entre si os elementos
dos conjuntos

{1, ... ,r}, {r+l, ... ,r+s}.


228. - ALGEBRA LINEAR

Seja S um conjunto arbitrário de permutações de {1, ..., r + s} que


contenha exatamente um elemento de cada classe lateral à esquerda
de G(r, s). D� (5-50) e do que foi visto acima, decorre que

(L A M) A N = L (sinal u) (sinal r) [(L ® M ® N),,J;.


a,t

onde a somatória se estende sobre todos os pares u, r em S x T.


Se convencionarmos identificar catla u em S,+. com o elemento
de s,+s+r que age como O' sobre {1, ...'r + s} e é igual 'a função
idêntica sobre {r + s + 1, ..., r + s + t}, podemos escrever

(L A M) A N = L sinal (u r) [(L ®M ®N,,],.


a,t

Mas

[(L ® M ® N),,], = (L ® M ® N),ª.


Portanto,

(L A M) A,N = L sinal (r u) (L ® M ® N),,,.


a,t

Suponhamos agora que

cory O'; em S, r; em Te y em G(r, s, t). Então •21 r1=u2yu;1, e


como u2yu;1 está em G(r + s, t), segue-se que r1 e r2 estão na
mesma classe lateral à esquerda de G(r + s, t). Portanto, r1=r2 e
O' 1 =O'2y. Mas isto implica que O' 1 e O' 2 (considerados como ele­
mentos de S,+J estão na mesma classe lateral de G(r, s); logo
O' 1 =u 2. Portanto, os produtos ru correspondentes aos

(r + s + t)! (r + s)!
-(r + s)!t! r!s!

pares (r, u) em Tx S são todos distintos e estão em classes laterais


distintas de G(r, s, t). Como exfstem em s,+.+P exatamente

s + r) i
(r +
r!s!t!
classes laterais à esquerda de G(r, s, t) segue-se que (L A M) A N=E.
Por um argumento análogo, também L A (M A N) =E.
DETERMINANTES - 229

Exemplo 13. O produto exterior está intimamente relacionado


com certas fórmulas usadas para calcular determinantes e conhe­
cidas sob o nome de desenvolvimento segundo Laplace. Seja K
um anel comutativo com elemento unidade e seja n um inteiro
positivo. Suponhamos que 1 s r < n e seja L a forma r-linear alter­
n
nada sobre K , definida por

Se s =
n - r e M é a forma s-linear alternada

M (ap ... '·a. ) = det


[Al(r+l) l · · · Àln

: :
. A�<r+ lJ. A.,,

então L /\ M =
D , a função determinante sobre K". Isto decorre
imediatamente do fato de que L /\ M é uma forma n-linear alter­
nada e (como pode ser visto)

Se agora descrevermos L /\ M da maneira· correta, obteremos um


desenvolvimento segundo Laplace do determinante de uma n x n
matriz sobre K.
No grupo das permutações Sn, seja G o subgrupo que permuta
entre si os elementos dos conjuntos {1, ... , r} e {r + 1, ... , n}. Cada
classe lateral à esquerda de G contém precisamente uma permu­
tação a tal que al <a2 < ... <ar e a(r + 1) < ... <an. O sinal
desta permutação é dado por

sinal

O produto exterior L /\ M é dado por


(J =
( - 1)"1 +. +ur+(ri - 1 )/2)
230 - ALGEBRA LINEAR·

onde a somatória se estende sobre uma coleção de a, um de cada


classe lateral de G. Portanto,

(L /\ M)(a1, ,a.)= L e1L(ah, ... ,a )M(ak,• ...,ak)


. • •
i
)t <··· <Jr
onde

eJ = (-l)ii+ ...+ Jr+/r(r-1)/2)


k; = a(r + i).

Em outras palavras,

det A=
ii< ... <ir
Ajr,r Akr,r+ 1

Este é um desenvolvimento segundo Laplace. Outros podem ser


obtidos, substituindo os conjuntos {1, ... , r} e {r + 1, .. . , n} por
outros dois conjuntos complementares de índices.
Se V é um K-módulo, podemos reunir os diversos módulos
N(V) e usar o produto exterior para definir um anel. Para simpli­
ficar, faremos isto apenas para o caso de um K-módulo livre de
posto n. Os módulos N(V) são então triviais parar> n. Definamos

A(V) = Aº(V) EB A1(V) EB . . EB A"(V).


.

Esta é uma soma direta externa - algo ainda não discutido. Os


elementos de A(V) são as (n + 1)-uplas (L0, ... ,L.) com Lr em
N(V). A adição e a multiplicação por elementos de K são defi­
nidas da maneira esperada para (n + 1)-uplas. Aliás, Aº(V) = K.
Se identificarmos N(K) com as (n + 1)-uplas (O, ..., O, L, O, ... , O)
com L em N(K), então N(K) é um submódulo de A(V) e a
decomposição em soma direta

A(V) = Aº(V) EB ... EB A"(V)

é válida no sentido usual. Como N(V) é um K-módulo livre de

posto (�), vemos que A(V) é um K-módulo livre e

posto A(V) =

t (�)
r
DETERMINANTES - 231

O produto exterior define uma multiplicação em A(V); basta usar


o produto exterior sobre formas e estendê-lo linearmente para
A(V). Ele é distributivo sobre a adição em A(V) e define em A(V)
uma estrutura de anel. Este anel é o anel de Grassman sobre V*.
Ele não é comutativo, pois, por exemplo, se L e M estiverem,
respectivamente em N e A•, então

L /\ M = ( - l}"M /\ L.

Mas, o anel de Grassman é importante em várias partes da mate­


mática.
Capítulo 6
FORMAS CANÔNICAS ELEMENTARES

6.1 Introdução
Mencionamos anteriormente que nossa meta principal é estudar
transformações lineares sobre espaços vetoriais de dimensão finita.
Até este ponto já vimos muitos exemplos particulares de transfor­
mações lineares e demonstramos alguns teoremas sobre trans­
formações lineares arbitrárias. No caso de dimensão finita utili­
zamos bases ordenadas para representar essas transformações por
meio de matrizes e essa representação nos ajuda a perceber o seu
comportamento. Pesquisamos o espaço vetorial L(V, W) das trans­
formações lineares de um espaço em outro e também a álgebra
'
linear L(V, V) das transformações lineares de um espaço í em si
mesmo.
Nos próximos dois capítulos, estaremos preocupados com ope­
radores lineares. Nosso programa é tornar um operador linear T
sobre um espaço vetorial V de dimensão finita e "desmontá-lo para
ver como ele 'funciona". De início, será mais fácil exprimir nosso
objetivo em linguagem matricial: Dado um operador linear i,
determinar uma base ordenada para V, em relação à qual a matriz
de T as�uma uma forma especialmente simples.
Eis uma ilustração do que temos em mente. Com exceção dos
múltiplos escalares da matriz unidade, as matrizes mais simples
talvez sejam as matrizes diagonais:
FORMAS CANÔNICAS ELEMENTARES - 233

S�ja T um operador linear sobre um espaço V, n-dimensional.


Se conseguíssemos determinar uma base ordenada f!J = { at> ... , a" }
de V. em relação à qual T fosse representado por uma matriz dia­
gonal D(6-l), obteríamos bastante informações sobre T. Por exem­
plo, números simples associados a T, como o posto de T ou o
determinante de T, poderiam ser determinados com nada mais que
um simples exame da matriz D. Poderíamos descrever explicita­
mente a imagem e o núcleo de T. Como [T]:!4 =D se, e somente se,

(6-2) k = 1, ... , n

a imagem será o subespaço gerado por aqueles et.k para os quais


ck #O e o núcleo será gerado pelos et.k restantes. De fato, parece
ser justo dizer, que se conhecêssemos u.ma base PlJ e uma matriz
diagonal D tal que [T] rA = D, poderíamos responder imediata­
mente a qualquer pergunta que pudesse surgir a respeito de T.

Será que qualquer operador T µode ser representado por uma


matriz diagonal em relação a alguma base ordenada? Em caso
negativo, para quais operadores T existe uma tal base? Se uma
tal base existir, como poderemos determiná-la? E se não existir,
qual é o tipo mais simples de matriz que pode representar T ? Estas
são algumas das questões que trataremos neste (e no próximo)
capítulo. À medida que aprendermos quais são as dificuldades, a
·forma das nossas questões tornar-se-á mais sofisticada.

6.2 Valores Característicos

As observações da introdução, na seção anterior, nos fornecem


um ponto de partida para a nossa tentativa de analisar um ope­
rador linear arbitrário T. A expressão (6-2) sugere que estudemos
vetores que sejam levados por T em múltiplos escalares de si mesmos.

Definição. Seja V um espaço vetorial sobre o corpo F e seja


T um operador linear sobre V. Um valor característico de T é u,:,,,_
escalar c em F tal que exista um vetor não-nulo et. em V com Ta = ca .
Se c é um valor característico de T, então
(a) todo a tal que Ta = ca é chamado vetor característico de T
associado ao valor característico c;
(b) a coleção de todos os a tais que Tet. = ca é denominado
espaço característico associado a c.
234 - ALGEBRA LINEAR

Valores característicos são freqüentemente denominados raízes


características, raízes latentes, autovalores, valores próprios ou va­
lores espectrais. Neste livro usaremos apenas o nome "valores
característicos".
Se T é um operador. linear arbitrário e c um escalar qualquer,
o conjunto dos vetores rx tais que Trx = crx é um subespaço de V.
Esse subespaço é o núcleo da transformação linear (T - cl). Dize­
mos que c é um valor característico de T se esse subespaço for dife­
rente do subespaço nulo, isto é, se (T cl) não for injetora. Se o
-

espaço subjacente Vfor de dimensão finita, (T - cl) deixará de ser


injetora precisamente quando o seu determinante for diferente de
zero. Em resumo:

Teorema 1. Seja T um operador linear sobre um espaço V de


dimensão finita e seja c um escalar. As seguintes condições são
equivalentes:
(i) c é um valor característico de T.
(ii) O operador (T - cl) é singular (não-inversível).
(iii) det (T -cl) =O.
O critério (iii) é muito importante, pois nos diz onde procurar
os valores característicos de T. Como det(T cl) é um polinômio
-

de grau n na variável e, eis valores característicos serão as �aízes


desse polinômio. Expliquemos com mais cuidado.
Se P,4 é uma base ordenada arbitrária de Ve A= [T]lll, então
( T - cl) é inversível se, e somente se, a matriz (A - cl) é inversível.
Portanto, colocamos a definição que segue.

Definição. Se A é uma n x n malriz sobre o corpo F, um valor


característico de A em F é um escalar c em F tal que a matriz
(A cl). seja singular (não-inversível).
-

Como e é um valor característico de A se, e somente se,


det(A cl) =O, ou equivalentemente, se, e somente se, det(cJ -A)=
-

=O, podemos formar a matriz (xl A) cujos elementos são poli­


-

nômios e considerar o pplinômio f det(xl -A). Evidentemente


=

os valores característicos d-e· � em F são exatamente os escalares


e em F tais que f(e) O. Por\ esta razão f é denominado o poli­
=

nômio característico de A. É importante notar que fé um polinômio


unitário cujo grau é exatamente n. Isto pode ser visto facilmente
através da fórmula para o determinante de uma matriz em função
de seus elementos.
FORMAS CANÔNICAS ELEMENTARES - 235

Lema. Matrizes semelhantes têm o mesmo polinômio caracte­


rístico.
Demonstração. Se B = p-1 AP, então

det(xJ - B) = det(xJ - p-1 AP)


= det(P-1(xJ - A) P)
= det p 1 - · det(xJ - A)· det P
= det(xJ - A).

Este lema nos permite definir sensatamente o polinômio carac­


terístico do operador Tcomo o polinômio característico de qualquer
n x n matriz que represente Tem relação a alguma base ordenada
de V. Da mesma forma que para matrizes, os valores caracterís­
ticos de T serão as raízes do polinômio característico de T. Em
particular, isto nos mostra que Tnão pode ter mais que n valores
característicos distintos. É importante ressaltar que T pode não
ter nenhum ·valor característico.

Exemplo 1. Seja To operador linear sobre R2 que é repre­


sentado em relação à base ordenada canônica pela matriz.

-
A=
[� �l
O polinômio característico de T(ou de A) é

det(xJ - A)= 1-� � 1 = x2 + 1.

Como este polinômio não possui raízes reais, Tnão possui valores
característicos. Se U é o operador linear sobre C2 que é repre­

sutil.
-
sentado por A em relação à base ordenada canônica, então U
possui dois valores característicos, i e i. Vemos aqui um ponto
Ao discutirmos os valores característicos de uma matriz A,
precisamos tomar o cuidado de estipular o corpo envolvido. A

possui dois valores característicos, i e -


matriz A acima não possui nenhum valor característico em IR, mas
i, em C.

Exemplo 2. Seja A a 3 x 3 matriz (real)


236 - ALGEBRA LINEAR

O polinômio característico de A é

X - 3 - 1 1
-2 X - 2 1 = x3 - 5x2 + 8x - 4 = (x - 1) (x - 2)2.
-2 - 2 X

Logo, os valores característicos de A são 1 e 2.


Suponhamos que T seja o operador linear sobre R3, represen­
tado por A em relação à base canônica. Determinemos os vetores
característicos de T, associados aos valores característicos 1 e

-1
-1 .
] 2. Ora,

-1
Obviamente, o posto de A - l é 2 (e portanto a nulidade de
T l é 1). Assim, o espaço dos vetores característicos associados
-

ao vaior característico 1, tem dimensão 1. O vetor IX1 = (1, O, 2)


gera o núcleo de T 1. Logo, TIX =IX se, e somente se, IX é um

[ ]
-

múltiplo escalar de IX1. Consideremos agora

1 1 -1
A - 21 = 2 O -1 .
2 2 -2

Evidentemente, o posto de A - 21 também é 2, de modo que ,o


espaço dos vetores característicos associado ao valor característico 2
tem dimensão 1. É evidente que TIX = 21X se, e somente se, IX é um
múltiplo escalar de IX2 = (1, 1, 2).
Definição. Seja T um operador linear sobre o espaço V de
dimensão finita. Dizemos que T é diagonalizável se existe uma base
de V formada por vetores característicos de T.
A razão para o nome deveria ser evidente; de fato, se existe
uma base ordenada flà = { IX1, • • • , IXn} de V na qual cada IX; é um
vetor característico de T, então a matriz T em relação à base orde­
nada flà é diagonal. Se TIX; = C;IX;, então

o . . O­
.O

o . e
n
FORMAS CANÔNICAS ELEMENTARES - 237

Certamente não pretendemos que os escalares cl' ... , cn sejam dis­


tintos; na verdade, eles podem ser todos iguais (quando T é um
múltiplo escalar do operador idêntico).
Poder-se-ia também definir Tcomo sendo diagonalizável quando
os vetores característicos de T gerassem V. Isto difere apenas super­
ficialmente de nossa definição, uma vez que podemos sempre obter
uma base a partir de qualquer conjunto de vetores que seja gerador.

Para os exemplos 1 e 2 escolhemos propositalmente operadores


lineares T sobre Rn não diagonalizáveis. No Exemplo 1 temos um
operador linear sobre R2 que não é diagonalizável pois não possui
valores característicos. No Exemplo 2, o operador T tem valores
característicos; de fato, o polinômio característico de T é completa­
mente fatorável sobre o corpo dos. números reais.: f = (x - 1 ) (x - 2)2.
Apesar disso T não é diagonalizável. Existe somente um espaço de
dimensão um, de vetores característicos, associado a cada um dos
dois valores característicos de T. Portanto, não há possibilidade de
formar uma base de R3 constituída de vetores característicos de T.
Suponhamos que 1\ seja um operador linear diagonalizável.
Sejam cJ, ... , ck os val6res característicos distintos de T Então
existe uma base ordenada fJ.6 em relação à qual T é representado
por uma matriz diagonal cujos elementos diagonais são os esca­
lares ci' cada um repetido um determinado número de vezes. Se
e; está repetido d; vezes, então (podemos fazer com que) a matriz
tenha a forma em blocos

(6-3) [T]êíl =

o o

onde I. é a d. x d. matriz unidade. A partir dessa matriz verificamos


J J J •

dois fatos. Primeiro, o polinômio característico de T é o produto


de fatores lineares (possivelmente repetidos):

d1
I = (x - c1 ) ... (x - ck r.
Se o corpo F dos escalares for algebricamente fechado, como por
exemplo o corpo dos números complexos, todo polinômio sobre F
poderá ser fatorado dessa maneira (ver Seção 4.5); no entanto,
238 - ALGEBRA LINEAR

se F não for algebricamente fechado, estaremos citando uma pro­


priedade especial de T, ao dizermos que seu polinômio característico
tem uma tal fatoração. O segundo fato que observamos a partir
de (6-3) é que d;, o número de vezes que ci é repetido como raiz
de f,é igual à dimensão do espaço dos vetores característicos asso­
ciado ao valor característico ck. Isto acontece porque a nulidade
da matriz é igual ao número de zeros que ela possui na sua dia­
gonal principal, e a matriz [T- cJ] ��em d; zeros na sua diagonal
principal. A relação entre a dimensão do espaço característico e a
multiplicidade do valor característico como uma raiz de f, não
parece ser muito emocionante a primeira vista; no entanto ela nos
fornecerá uma maneira mais simples de verificar se um dado ope­
rador é ou não diagonalizável.

Lema. Suponhamos que Ta = ca. Se f é um polinômio arbi­


trário, então f(T)a = f(c)a.
Demonstração. Exercício.

Lema. Seja T um operador linear sobre o espaço V de dimen­


são finita. Sejam c 1 ... , ck valores característicos distintos de T e
'

seja W; o espaço dos vetores característicos associado ao valor


característico C;. Se w = wl + ... + Wk, então

dim w = dim w1 + ... + dim wk.

De fato, se f!4; é uma base ordenada de W u então f!4 =(í!41' ... , í!4k)
é uma base ordenada de W.
Demonstração. O espaço W = W1 + ... + W,, é o subespaço ge­
rado por todos os vetores característicos de T. Normalmente,
quando formamos a soma W de subespaços W,, esperamos que
dim w < dim wl + ... + dim w,, por causa das relações lineares que
possam existir entre os vetores nos diversos espaços. Esse lema
afirma que os espaços característicos associados a valores caracte­
rísticos distintos, são independentes um do outro.
Suponhamos que (para cada i) /3; seja um vetor em W; e que

/31 + ... + /3k =O. Mostraremos que /3; =O para cada i. Seja f um
polinômio arbitrário. Como T/3; = c;/3;, o lema anterior nos diz
que

O =f(T)O =f(T)/31 + ... + f(T)/Jk


=f(c1)/31 + + f(cJ/3k · · ·
FORMAS CANÓNICAS ELEMENTARES - 239

Escolhamos polinômios fl' ... ,fk tais que

i =j
{1
f;(c) = ôii = o'' 1. f= ]..

Então

o = /;(T)O = I óJ3j
j

Seja, agora, 38, uma base ordenada de Wi e seja i!,4 a sequencia


i!Ã=(i!ÃI' .. . ,38k). Então 38 gera o subespaço W= '111 + ... + W1 .
,
Também, 38 é uma seqüência de vetores linearmente independentes,
pelo seguinte: qualquer relação linear entre os vetores de 38 terá
a formâ]31 + .. . + {3k=O, onde {3i é alguma combinação linear dos
vetores de 38i. Pelo que acabamos de ver, sabemos que {3i =O para
cada i. Como cada 38i é linearmente independente, vemos que
existe apenas a relação linear trivial entre os vetores em 38.

Teorema 2. Seja T um operador linear sobre um espaço vetorial


V de dimensão finita. Sejam c 1, , ck valores característicos distintos
• • •

de T e seja Wi o núcleo de (T - c il). As seguintes afirmações são


equivalentes:
(i) T é diagonalizável.
(ii) O polinômio característico de T é

f= (x - c1)d' . . . (x - ck)dk

e dim wi = di, i = 1, ... , k. �


(iii) dim W1 + . .. + dim � = dim V.
Demonstração. Já observamos que (i) implica (ii). Se o poli­
nômio característico f for o produto de fatores lineares como em
(ii), então d1 + ... + dk= dim V. De fato, a soma dos d; é o grau
do polinômio característico e este grau é dim V. Portanto, (ii) im­
plica (iii). Suponhamos (iii). Pelo lema, devemos ter V = W1 + ...
.. . + Jv,,, isto é, os vetores característicos de T geram V.

O análogo do Teorema 2, usando matrizes, pode ser formulado


da seguinte maneira: Seja A uma n x n matriz com elementos em
um corpo F e sejam c 1, ... , ck os valores característicos distintos
de A em F. Para cada i, seja W; o espaço das matrizes coluna X
(com elementos de F) tais que
240 - ALGEBRA LINEAR

(A- cJ)X =O,

e seja i!J; uma base ordenada de W;. As bases f!l 1' .. ; f!lk
. podem
ser reunidas para formar a seqüência de colunas de uma matriz P:

A matriz A é semelhante sobre F a uma matriz diagonal se, e


somente se, P é uma matriz quadrada. Quando P é quadrada, P
inversível e p-1 AP é diagonal.

Exemplo 3. Seja T o operador linear sobre R3 representado


em relação à base ordenada canônica pela matriz

-� - � ] .

-6 -4

Mostraremos como se pode calcular o polinômio característico por


meio de diversas operações sobre linhas e colunas:

x-5 6 6 x-5 o 6
1 x- 4 -2 1 x-2 -2
-3 6 x+4 -3 2-x x+4

x-5 o 6
= (x-2) 1 1 -2
-3 -1 x+4

x-5 o 6
(x 2) 1 1 -2
= ·-

-2 ÜX+ 2

.= (X - 2) IX -5
2
-
X 1 6
+2

= (x- 2) (x2 -3x+2)

= (x - 2)2 (x- 1).


FORMAS CANÔNICAS ELEMENTARES - 241

Quais são as dimensões dos espaços dos vetores característicos


associados aos dois valores característicos? Temos

-6
A-I� - [ ! �] -6
3
-
-
5

A - 21 [-l 2 2] .

-6

-6
-6

-6

Sabemos que A - I é singular e obviamente posto (A - I) ;;:::: 2.


Portanto, posto(A =-1) 2. -21)
É evidente que posto (A 1. =

Sejam W1 e W2 os espaços dos vetores característicos asso­

que dim W1 = 1 e dim W2 = 2. 2, 2.


ciados, respectivamente, aos valores característicos 1 e
Pelo Teorema
3
Sabemos
T é diagonalizável.
É fácil construir uma base de R em relação à. qual T seja repre­
sentado por uma matriz diagonal. O núcleo de (T- I) é gerado
pelo vetor ix1= (3, -1, 3) e assim { ix1} é uma base de W1. O núcleo
21
de T- (isto é, o espaço Wz) é constituído pelos vetores (x 1, x2, x3)
com x1 2x2 + 2x3. Assim, um exemplo de uma base de W2 é
=

{ ix2' ix3}, com

IX2 =
IX3 =
((22,, 1, O)
O, 1).

Se fJI= { ixl' ix2, ix3}, então [ T] 94, é a matriz diagonal

1 o
[ º]2
D= O 2 O ·
o o

O fato de que T é diagonalizável significa que a matriz origi­


nal A é semelhante (sobre R) à matriz diagonal D. A matriz P que
nos possibilita mudar coordenadas da base !14 para a base canônica
é (naturalmente) a matriz que tem como vetores colunas as trans­
postas de ixl' ix2, ix3:
2 2]
1 o .
o 1
242 - ÁLGEBRA LINEAR

Além do mais, AP = PD, de modo que

p-1AP =D.

Exercícios

1. Em cada um dos casos seguintes, seja T o operador linear sobre R2 que


é representado pela matriz A em relação à base ordenada canônica de R2
-
e seja U o operador linear sobre C2 representado por A em relação à base
ordenada canônica. Determinar os polinômios característicos de T e de U,
determinar os valores característicos de cada operador e para cada valor
característico e determinar uma base do correspondente espaço de vetores
característicos.

A= [� � ] A=
D �]
2. Seja V um espaço vetorial n-dimensional sobre F. Qual é o polinômio carac­
terístico do operador idêntico sobre V? Qual é o polinômio característico do
operador nulo?

3. Seja A uma n x n matriz triangular sobre o corpo F. Demonstrar que os


valores característicos de A são os elementos diagonais de A, isto é, os esca­
lares A,,.

4. Seja T o operador linear sobre R3 que é representado em relação à base


ordenada canônica pela matriz

[-
- 8
-16
9
3
8
4 ]
7
4 .
4
Demonstrar que T é diagonalizável mostrando uma base de R3, formada por
vetores característicos de T.

5. Seja

A= [� -3
-1
-2
-2
]
10 -5 -3

A é semelhante sobre o corpo R a alguma matriz diagonal? Esta matriz é


semelhante sobre o corpo C a alguma matriz diagonal?

6. Seja T o operador linear sobre R4 representado em relação à base ordenada


canônica pela 11}atriz

Em que condições sobre a, b e e, T é diagonalizável?


FORMAS CANÔNICAS ELEMENTARES - 243

7. Seja T um operador linear sobre o espaço vetorial n-dimensional V e supo­


nhamos que T possua n valores característicos distintos. Demonstrar que T
é diagonalizável.

8. Seja A e B n x n matrizes sobre o corpo F. Demonstrar que se (J - AB) é


inversível, então I - BA é inversível e

9. Usar o resultado do Exercício 8 para demonstrar que se A e B são n x n ma­


trizes sobre o corpo F, então AB e BA têm exatamente os mesmos valores
característicos eni F.

10. Suponhamos que A seja uma 2 x 2 matriz com elementos. reais que seja simé­
trica (A' =A). Demonstrar que A é semelhante sobre R a uma matriz
diagonal.

11. Seja N uma 2 x 2 matriz complexa tal que N2 =O. D�monstrar que ou
N =O ou N é semelhante sobre C a

12. Usar o resultado do Exercício l para demonstrar o seguinte: Se A é uma


2 x 2 matriz com elementos complexos, então A é semelhante sobre C a uma
matriz de um dos tipos seguintes:

13. Seja V o espaço vetorial de todas as funções j de R em R que são contínuas,


isto é, o espaço das funções contínuas, definidas sobre a reta real e tomando
valores reais. Seja T o operador linear so�e V definido por

(Tf) (x) = I: f(t) dt.

Demonstrar que T não possui nenhum valor característico.

14. Seja A uma n x n matriz diagonal com polinômio característico

sendo c > .. ., c
t k
distintos. Seja V o espaço. das n x n matrizes B tais que
AB = BA. Demonstrar que a dimensão de V é df + ... + tfi.

15. Seja V o espaço das n x n matrizes sobre F. Seja A uma n x n matriz fixa
sobre F. Seja T o operador linear "multiplicação à esquerda por A" sobre V.
É verdade que A e T possuem os mesmos valores característicos?
244 - ALGEBRA LINEAR

6.3 Polinômios Anuladores

Ao tentarmos analisar um operador linear T, é de grande utili­


dade conhecermos a classe dos polinômios que anulam T. Especi­
ficamente, suponhamos que T seja um operador linear sobre V,
espaço vetorial sobre o corpo F. Se p for um polinômio sobre
F, então p(T) seríi novamente um operador linear sobre V. Se q
for um outro polinômio sobre F, então

(p + q)(T) =p(T) + q(T)


(pq)(T) = p(T)q(T).

Portanto, a coleção de polinômios p que anulam T, no sentido de que

p(T)' = O,

é um ideal da álgebra dos polinômios F [x]. Poderia ser o ideal


nulo, isto é, -poderia· ser que T não fosse anulado por nenhum poli­
nômio não-nulo. Mas, isso não poderá acontecer se o espaço V
for de dimensão finita.
Suponhamos que T seja um operador linear sobre o espaço
n-d
- imensional V. Observemos as primeiras (n2 + 1) potências de T:

Essa é uma seqüência de n2 + 1 operadores em L(V, V), o espaço


dos operadores lineares sobre V. O espaço L(V, V) tem dimensão
2 2
u • Portanto, essa seqüência de n + 1 operadores é necessaria­
mente linearmente dependente, isto é,, temos

para escalares e;, não todos nulos. Portanto, o ideal dos poli­
nômios que anulam T contém um polinômio
.
não-nulo de grau
menor ou igual a n2•
De acordo com o Teorema 5 do Capítulo 4, todo ideal de
polinômios consiste de todos os múltíplos de algum polinômio uni­
tário fixo, o gerador do ideal. Portanto, podemos associar ao ope­
rador T um polinômio unitário p com essa propriedade: Se fé um
polinômio sobre F, então f(T) =O se, e somente se, f = pg, onde g
é algum polinômio sobre F.
FORMAS CANÓNICAS ELEMENTARES - 245

Definição. Seja T um operador linear sobre um espaço vetorial


V de dimensão finita sobre o corpo F. O polinômio minimal de T
é o (único) gerador unitário do ideal dos polinômios sobre F que
anulam T.
O nome "polinômio minimal" deriva do fato de que o gerador
de um ideal de polinômios é o polinômio unitário de menor grau
no ideal. Isso significa que o polinômio minimal p do operador
linear T é determinado de modo único . pelas tres propriedades
seguintes:
(1) p é um polinômio unitário sobi:e o corpo F dos escalares.
(2) p(T) O= .

(3) Nenhum polinômio sobre F que anule T tem grau menor


que o de p.

Se A é uma n x n matriz sobre F, definimos o polinômio mini­


mal de A, de maneira análoga, como sendo o único gerador uni­
tário do ideal formado pelos polinômios sobre F que anulam A.
Se o operador T for representado, em relação a alguma base orde­
nada, pela matriz A, então Te A terão o mesmo polinômio minimal.
Isso acontece porque f (T) é representado, em relação a esta base,
pela matriz f(A), de modo que .f(T) O se, e somente se, f (A)= O.
=

Dessas últimas observações sobre operadores e matrizes de­


corre que matrizes semelhantes possuem o mesmo polinômio mi­
nimal. Este fato decorre também das definições, pois

f(P-1 AP) = p-1/(A)P

para todo polinômio f.


Existe uma outra observação funda� tal que devemos fazer
a respeito de polinômios minimais de matrizes. Suponhamos que
A seja uma n x n matriz com elementos em wm corpo F. Supo­
nhamos que F1 seja um corpo contendo F como subcorpo. (Por
exemplo, A poderia ser uma matriz com elementos racionais, en­
quanto que F 1 seria o corpo dos números reais. Ou, A seria uma
matriz com elementos reais e F o corpo dos números complexos).
1
Podemos considerar A como uma n x n matriz sobre F ou como
uma n x n matriz sobre F
1. À primeira 'vista, poderia parecer
que obteríamos dois polinômios minimais distintos para A. Feliz­
mente isso não acontece e devemos ver por que. Qual é a definição
de polinômio minimal de A, quando A é considerada como uma
n x n matriz sobre o corpo F? Consideremos todos os polinômios
246 � ALGEBRA LINEAR

unitários com coeficientes em F que anulem A, e escolhamos aquele


de menor grau. Se fé um polinômio unitário sobre F:

k-l
k
(6-4) f = x + L aixi
j=O

f(A)= O apenas afirma que existe uma relação linear entre as po­
tências de A:

O grau do polinômio minimal é o menor inteiro positivo k tal que


exista uma relação linear da forma (6-5) entre as potências I,
A, ... , Ak. Além disso, pela unicidade do polinômio minimal, existe
para aquele k uma, e uma só, relação da forma (6-5); isto é, uma vez
determinado o mínimo, existem escalares ªº' ... 'ªk-l' determi­
k
nados de modo único em F, tais que (6-5) seja válido. Estes esca­
lares são os coeficientes do polinômio minimal.
Ora (para cada k) temos em (6-5) um sistema de n2 equações
lineares nas "incógnitas" a0, , ak_ 1. Como ós coeficientes de A
• • •

pertencem a F, os coeficientes do sistema de equações (6-5) estarão


em F. Portanto, se o sistema possuir uma solução com a0, ... , ªk-I
em F 1' ele possuirá uma solução com a0, ... , ak 1 em F. (Veja o _

fim da Seção 1.4.) Deveria estar claro agora que os dois polinômios
minimais são iguais.

O que sabemos, até aqui, a respeito de polinômio minimal de


um operador linear sobre um espaço n-dimensional? Apenas que
o seu grau não excede n2• Esta é uma estimativa muito pobre pois
o grau não pode exceder n. Demonstraremos mais adiante que o
operador é anulado pelo seu polinômio característico. Primeira­
mente, porém, observemos um fato mais elementar.

Teorema 3. Seja T um operador linear sobre um espaço ve­


torial n-dimensional V [ou, seja A uma n x n matriz]. Os polinômiosi
característico e minimal de T (de A) possuem as mésmas raízes, ã'
menÕs de multiplicidades.

Demonstração. Seja p à polinômio minimal de T. Seja c um


escalar. Queremos mostrar que· p (c) = O se, e somente se, e é um
valor característico de T.
Primeiramente, suponhamos p (c) = O . Então
FORMAS CANÔNICAS ELEMENTARES - 247

p =(x-c)q

onde q é um polinômio. Como gr ( q) < gr(p), a definição de poli­


nômio minimal p nos diz que q (T)=f. O. Escolhamos um vetor f3
tal que q (T)f3 =f. O. Seja IX= q (T )f3. Então

O= p(T)/3
= (T - cl)q (T)/3
= (T - c1)1X

e assim, e é um valor característico de T.


Suponhamos, agora, que e seja um valor característico de T,

digamos, TIX = CIX com IX =f. O. Como observamos no lema anterior,


p(T)IX= p(c)IX.

Como p(T)=O e IX =f. O, temos p(c) =O.


Seja T um operador linear diagonalizável e sejam e1, , ck • • .

os valores distintos de T. É fácil ver que o polinômio minimal de


;
T é o polinômio

Se IX é um vetor característico, então um dos operadores T- c11,


... , T- ckl leva IX em O. Portanto,

(T - cJ) . . . (T - ci)IX=O
para todo vetor caracte'rístico IX. Existe uma base para o espaço
subjacente constituída de vetores característicos de T; logo
p(T )= (T - c1J)... (T - ckl)=O.

O que concluímos é o seguinte: Se T é um operador linear diagona­


lizlivel, o polinômio minimal de T é um produto 9f fatores lineares
distintos. Como veremos mais adiante, esta propriedade caracte­
riza os operadores diagonalizáveis.

Exemplo 4. Tentemos determinar os polinômios mínimais dos


operadores dos exemplos 1, 2 e 3. Vamos discuti-los em ordem
inversa. Vimos que o operador do Exemplo 3 é diagonalizável e
que seu polinômio característico é

f = (x - 1) (x - 2)2.
248 - ALGEBRA LINEAR

Sabemos, pelo parágrafo precedente, ·que o polinômio minimal


de T é
p = (x - 1) (x - 2).

O leitor talvez ache confortante verificar diretamente que

(A - J) (A - 21)= O.

No Exemplo 2, o polinômio característico do operador T


também é f=(x - 1) (x - 2)2• Mas este T não é diagonalizável e
portanto não sabemos se o polinômio minimal é (x - 1) (x - 2). O
que sabemos a respeito do polinômio minimal neste caso? Usando.
o Teorema 3, sabemos que suas raízes são 1 e 2, sendo permitidas
algumas multiplicidades. Portanto, procuremos p entre polinômios
da forma (x - l)k(x - 2)1, k � 1, l � 1. Tentemos (x - 1) (x - 2):

(A - l)(A - 21)
rn i =!] [� � =!] -1 2 2 -2

�[H =!J.

-2

Assim, o grau do polinômio minimal é pelo menos 3. Devemos


então tentar (x - 1)2(x - 2) ou (x - 1) (x - 2)2• Esse último, sendo
o polinômio característico, pareceria ser uma escolha· menos ao
acaso. É fácil verificar que (A - J) (A - 21)2=O. Portanto, o poli­
nômio minimal de T é o seu polinômio característico.
No Exemplo 1 discutimos o operador linear Tsobre R2 repre­
sentado, em relação à base canônica, pela matriz

A= [� -�J
O seu polinômio característico é x2 + 1 e não possui raízes reais.
Para determinar o polinômio minimal, esqueçamos Te concentre­
mo-nos em A. Como uma 2 x 2 matriz complexa, A tem valores
característicos i e - i. Ambas as raízes são necessariamente raízes
do polinômio minimal. Portanto, o polinômio minimal é divisível
por x2 x 1. É trivial verificar que A2 + I=O. Portanto, o poli­
nômio minimal é x2 + 1.
FORMAS CANÔNICAS ELEMENTARES - 249

Teorema 4 (Cayley�Hamilton). Seja T um operador linear


sobre um espaço vetorial V de dimensão finita. Se f é o polinômio
característico de T, então f(T) =O; em outras palavras, o polinômio
minimal divide o polinômio característico de T.

Demonstração. Mais tarde daremos duas demonstrações deste


resultado, independentes da demonstração que será dada aqui.
Esta demonstração, apesar de curta, talvez seja difícil de com­
preender. Além da brevidade, ela tem a virtude de oferecer uma
aplicação ilustrativa e não trivial da teoria geral dos determinantes,
desenvolvida no Capítulo 5 ..
Seja K o anel comutativo com elemento unidade constituído
por todos os polinômios em T. É claro que K é realmente uma
álgebra comutativa com elemento unidade sobre o corpo dos esca­
lares. Escolhamos uma base ordenada { o:l' ... , o:n} qe V e seja A a
matriz que representa T em relação à base dada. Então
n
To:i = Il Ajio:j, 1 sj sn.
j=

Essas equações podem ser· escritas na forma equivl).lente

n
I1 (ôljT - AjiJ)o:j =o, 1 si sn.
j=

Indiquemos por B o elemento de Kn x n com argumentos

Quando n =2

e
det B = (T - AllJ) (T - À22n - À12À21I
I
2
= T - (A11 + A22)T + (A11A22 - A12A21)I
=f(T)

onde f é o polinômio característico:

2
f = x - (traço A)x + det A.
250 - ALGEBRA LINEAR-

Para o caso n > 2, é claro que


=

det B f( T )

pois f é o determinante da matriz xl - A cujos elementos são os


polinômios

a1_� a
Queremos mostrar que f(T) O Para que f(T) seja o ope­
= .
= =

rador nulo é necessário e suficiente que (det B) k O para k 1,


... , n. Pela definição de B, os vetores , °'n satisfazem as . • •

equações

n =

(6-6) L
j=l
Bipj O , 1 :::;;; i :::;;; n.

Quando n 2, é sugestivo escrever (6-6) na forma

Nt;sse caso, a adjunta clássica, adj B é a matriz

- [T 22
1121
- A 1
B =
-�

[
J
- det·B O
BB = .
O dêt B

Assim, temos

(det B)
-. [ª1]
ª2
=

(BB) [ªª21]
=

B(B:[:J)
[�].
_

=
FORMAS CANÓNICAS ELEMENTARES - 251

No caso geral, seja B = adj B. Então, por (6-6)

L jjki BJ1·j = o
j=l

para cada par k, i, e somando em relação a i, temos

n n

o L L jjki Bi/Xi
i=l j=l
=

t ( t1 Bk;Bu)
i 1 ªr

Ora, BB = (det B)J, de modo que

L BkiBii = . B.
ôki det
i= 1
Portanto,
n

O = L ôkidet B)cxi
F=f

= (det B)cxk, 1 :::;; k:::;; n.

O teorema de Cayley-Hamilton é útil /para nós, neste ponto,


principalmente porque abrevia a pesquisa 1 do polinômio minimal
de diversos operadores. Se conhecermos a matriz A que representa
Tem relação a alguma base ordenada, podemos determinar o poli­
nômio característico f. Sabemos que o polinômio minimal p divide
fe que os dois polinômios possuem as mesmas raízes. Não existe
nenhum método que permita determinar precisamente as raízes de
um polinômio (a não ser que seu grau seja pequeno); no entanto,
se f é fatorável

c , ... , c
1 k
distintos, d; 2 1

então

(6-8)

Em geral, é só isso que podemos dizer. Se fé o polinômio (6-7)


e tiver grau n, então para todo polinômio p, como em (6-8), pode-
252 - ALGEBRA LINEAR

mos determinar uma n X n matriz que tenha polinômio caracte­


rístico fe polinômio minimal p. Não vamos demonstrar esse fato
agora. Mas queremos ressaltar que o fato de sabermos que o poli­
nômio característico tem a forma (6-7) nos diz que o polinômio
minimal tem a for�a (6-8) e nada mais nos diz a respeito de p.

Exemplo 5. Seja A a 4 x 4 matriz (racional)

[ ºJ
fácil calcular as potências de A:

2 o 2

J
4 o 4
O 2 O 2 . o 4 o
A2
2 o 2 o 4 o 4·
=

o 2 o 2 o 4 o

Assim, A3 = 4A, isto é, se p x3 - 4x x(x + 2) (x -2), p(A) O


= = = .

O polinômio minimal de A necessariamente divide p. Obviamente


o grau do polinômio minimal não é 1 pois isto significaria que A
é um múltiplo escalar da matriz unidade. Portanto, os candidatos
para polinômio minimal são. p, x(x + 2), x(x -2), x2 - 4. Os
polinômios quadráticos podem ser eliminados pois é óbvio que
A2 =!= -2A, A2 =!= 2A e
A2 =!= 41. Portanto, p é o polinômio minimal
2 e 2 ·são os valores característicos de A.
de A. Em particular, O, --'

Um dos fatores x, x -2 ou x + 2, deve estar repetido duas vezes


no polinômio característico. Evidentemente, posto(A) 2. Por­ =

tanto, existe um espaço bi-dimensional de vetores característicos


associado ao valor característico O. Usando o Teorema 2, deve
ser evidente, agora, que o polinômio característico é x2(x2 - 4) e
que A é semelhante, sobre o corpo dos números racionais, à matriz
FORMAS CANÔNICAS ELEMENTARES - 253

Exercícios

1. Seja V um espaço vetorial de dimensão finita. Qual é o polinômio minimal


do operador idêntico sobre V? Qual é o polinômio minimal do operador nulo?

2. Sejam a, b e e elementos de um corpo F e seja A a seguinte 3 x 3 matriz


sobre F:

Demonstrar que o polinômio característico de A é x3 - ax2 - bx - e, e que


este polinômio é também o polinômio minimal de A.

3. Seja A a 4 x 4 matriz real

[
A = --
-

2
1
-1
-2
o
o
2
º]
o
1
1 1 -1 o

Demonstrar que o polinômio característico de A é x2(x - 1)2 e que esse


polinômio é também o polinômio minimal.

4. A matriz A do exercício 3 é semelhante sobre o corpo dos números com­


plexos a alguma matriz diagonal?

5. �
Seja V um espaço vetorial n-dimensional e seja T um o erador linear sobre V.
Suponhamos que exista um inteiro positivo k tal que 'i"' �\O. Demonstrar
que T" =O.

6. Determinar uma 3 x 3 matriz cujo polinômio minimal seja x2.

7. Seja n um inteiro positivo e seja V o espaço dos polinômios sobre R de grau


no máximo igual a n (acrescentar o polinômio nulo). Seja D o operador
derivação sobre V. Qual é o polinômio minimal de D?

8. Seja P o operador sobre R2 que projeta cada vetor sobre o eixo-x, paralela­
mente ao eixo-y: P(x, y) (x, O). Mostrar que Pé linear. Qual é o polinômio
=
·

minimal de P?

9. Seja A uma n x n matriz com polinômio característico

Demonstrar que

c1d1 + ... + c•d• = traço(A).

10. Seja V o espaço vetorial das n x n matrizes sobre o corpo F. Seja A uma
n x n matriz fixa. Seja T o operador linear definido por
254 - ALGEBRA LINEAR

T(B) = AB.

Demonstrar que o polinômio minimal de T é o polinômio minimal de A.

11. Sejam A e B n x n matrizes sobre o corpo F. De acordo com o exercício 9


da seção 6.1, as matrizes AB e BA possuem os mesmos valores característicos.
Elas possuem o mesmo polinômio característico? Elas possuem o mesmo
polinômio minimal?

6.4 Subespaços Invariantes

Nessa seção serão introduzidos alguns conceitos úteis na tenta­


tiva de analisar um operador linear. Usaremos essas idéias para
obter caracterizações de operadores diagonalizáveis (e trianguláveis)
em termos de seus polinômios minimais.

Definição. Seja V um espaço vetorial e T um operador linear


sobre V. Se W é um subespaço de V, dizemos que W é invariante
sob· T se para cada vetor ex em W, o vetor T cx está em W, isto é, se'
T(W) está contido em W.

Exemplo 6: Se T é um operador linear arbitrário s.obre V,


então V é invariante sob T, da mesma forma que o é o subespaço
nulo . A imagem de Te o núcleo de T também são invariantes sob T.

Exemplo 7. Seja F um corpo e seja D o operador derivação


sobre o espaço F[x] dos polinômios sobre F. Seja n um inteiro
positivo e seja W o subespaço dos polinômios de grau menor ou
igual a n. Então W é invariante sob D. Esta é apenas outra ma­
neira de dizer que D diminui o grau.

Exemplo 8. Aqui está uma generalização muito útil do Exem­


plo 6. Seja T um operador linear sobre V. Seja V um operador
linear arbitrário sobre V que comuta com T, isto é, TU= UT.
Sejam W a imagem de V e N o núcleo de U. Tanto W como N
são invariantes sob T. Se ex está na imagem de V, digamos ex = V {3,
então Tcx = T(U{3) ='U(T{3), de modo que Tcx_ estará na imagem
de U. Se ex está em N, então U(Tcx) =T(Ucx)=T(O) =O; logo,
Tcx estará em N.
Um- tipo particular de operador que comuta com T é um
operador U = g(T) onde g é um polinômio. Por exemplo, podemos
ter U= T cl, onde c é o valor característico de T. Conhecemos
-

o núcleo de U. Vemos que este exemplo inclui o fato (óbvio) de


FORMAS CANÔNICAS ELEMENTARES - 255

que o espaço dos vetores característicos de Tassociado ao valor


característico e, é invariante sob T.

Exemplo 9. Seja To operador linear sobre R2 que é repre­


sentado em relação à base ordenada canônica pela matriz

A-[º
- 1
�l -

Então os umcos subespaços de R2 que são invariantes sob Tsão


R2 e o subespaço nulo . Qualquer outro subespaço invariante teria
necessariamente dimensão 1. Mas se W é o subespaço gerado por
algum vetor não-nulo IX, a afirmação de que W é invariante sob T
significa que IXé um vetor característico, mas A não possui valores
característicos reais.
Quando o subespaço W é invariante sob o operador T, então
Tinduz um operador linear Tw sobre o espaço W. O operador
linear Tw é definido por Tw(IX= ) T(IX), para IXem W, mas Tw é um
objeto bem diferente de Tuma vez que seu domínio é W e não V.
Quando V é de dimensão finita , a invariância de W sob T
admite uma interpretação simples por meio de matrizes e talvez
\
devamos mencioná-la neste ponto. Suponhamos que tomemos uma
base ordenada f!I {1Xl' . . , o:J de V tal que f!I' {o:P . . , IX}, seja
= . = .

uma base ordenada de W(r= dim W). Seja A= [T] :M. Então

TIXj= L A;p;·
i= 1

Como W é invariante sob T, o vetor T IXi pertence a W para j sr.


Isto significa que

(6-9) T IXi= L AiilXi, j s r.


i=l

Em outras palavras, Aii= O se j sr e i> r.


Esquematicamente , A é da forma em blocos

(6-10) A= [� �]
256 - ALGEBRA LINEAR

onde B é uma r x r matriz, C é uma r x (n - )


r matriz e D é uma
(n - r) x matriz. O leitor deverá notar que, de acordo com
(n - )
r

(6-9), a matriz B é exatamente a matriz do operador induzido Tw,


em relação à base ordenada f!J'.

Na màioria das vezes desenvolveremos argumentos sobre T e


Tw sem fazer uso _da forma em blocos da matriz A em (6-10). De­
vemos observar, porém, como certas relações entre Tw e T tor­
nam-se aparentes nessa forma em blocos.

Lema. Seja W um subespaço invariante sob T. O polinômio


característico do ope,rador Tw (restrição de T à W) divide o poli­
nômio característico de T. O polinômio minimal de Tw divide o poli-
nômio minimal de T.
·

Demonstração. Temos

A= [� �]
onde A= [TJ 91 e B = [Tw] . Por causa da forma em blocos dessa
.
matriz

det(xi - A) = det(x/ - B) det(xJ - D).

.
Isso demonstra a �firmação quanto aos polinômios característicos,
Observemos que o símbolo I foi usado para representar matrizes
unidades de três tipos diferentes.
A k-ésima potência da matriz A é da forma em blocos

onde Ck é uma r x (n - r) matriz. Portanto, qualquer polinômio


que anula A também anula B (e D também). Assim, o polinômio
minimal de B divide o polinômio minimal de A.

Exemplo 10. Seja T 4m operador linear arbitrário sobre um


,
espaço V de dimensão firiita.. Seja W o subespaço gerado por todos
os vetores característicos de T. Sejam c 1' ... , ck valores caracterís­
.
ticos distintos de T. Para cada i, s�ja W; o espaço dos vetores
característicos associados ao valor característico c; e seja f!J; uma
FORMAS CANÔNICAS ELEMENTARES - 257

base ordenada de W;· O lema que precede o Teorema 2 nos diz


que !!4'= (!!41, • • . , !!,lk) é uma base ordenada de W. Em particular,

dim w = dim wl + .. . "j- dim w,..

Seja fl,I'= { 1Xp , , IX,} tal que os primeiros IX formam a base !!41' os
• .

seguintes !!42 e assim por diante. Então

i = 1, . .. , r

onde (tp ... , t,)= (cp cl' ... , cl' .. . , ck, ck, ... , ck) com� e; repetido
dim W, vezes.
Ora, W é invariante sob T, pois para cada IX em W temos

IX= X11X1 + .. . + X,IX,


TIX= t1x11X1 + .. . + t,x,IX,

Escolhamos quaisquer outros vetores IX 1' . . . , IXn em V tais que


,+
!!4 = { IX 1, . • • , IXn} seja úma base de V. A matriz de T em relação à
!!4 é da forma �m blocos (6-10) e a matriz do operador Tw, restrição
de T a W, em relação à base !!4' é

B=

o o t,

O polinômio característico de B (isto é, de Tw) é

g= (x - c1} e1 ... (x - ckr

com e; = dim W,. Além do mais, g divide f, o polinômio caracte­


rístico de T. Portanto, a multiplicidade de e ,
;
como uma raiz de
f, é no mínimo dim W,.
Tudo isso deveria deixar o Teorema 2 absolutamente claro.
Ele simplesmente afirma que T é diagonalizável se, e somente se,
= n, isto é, se, e somente se, e1 + . . . + ek=
r n. Ele não é de grande
ajuda nos casos não diagonalizáveis, pois não conhecemos as ma­
trizes C e D de (6-10).
258 - ALGEBRA LINEAR

Definição. Seja W um subespaço invariante sqb T e seja IX ·um


vetor de V. o T-::conduJo� de oc em w �o conjunto ST(IX ; W) consti�
tuído de todos os polinômios g (sobre o corpo dos escalares) tais que
g(T)IX esteja em W.
Como o operador T permanecerá ·fixo durante a maioria das
discussões, abandonaremos,· em geral, o índice T e escreveremos
S(IX; W). Muitos autores chamam esta coleção de polinômios de
"estofo" ("das einstopfende Ideal"). "Condutor" é o termo padrão,
preferido por aqueles que visualizam um operador g(T) menos
agressivo, gentilmente conduzindo o vetor r:x. para dentro de W
No caso especial em que W =
{O} , o condutor é denominádo o
T-anulador de IX .

Lema. S e W � u m subespaço invãriante de T, então W é inva�


riante sob qualquer polinômio em T. Assim, para cada IX em V, o
condutor S(IX; W) é um ideal na álg ebrà dos polinômios F[x].
Demonstração. Se /3 está em W, então T {3 estará em W. Conse­
qüentemente, T(T/3) '12{3 estará em W. Por indução, Tk/3 estará
=

em W, para cada k. Tomamos combinações lineares, para concluir


que f(T)/3 está em W para todo polinômio f.
A definição de S(IX; W) tem sentido mesmo quando W é um
subconjunto arbitrário de V. Se Wé um subespaço, então S(IX; W)
é um subespaço de F [xJ porque

(cf + g)(T) = cf(T) + g(T).

Suponhamos, além disso, que W seja invariante sob Te seja g um


polinômio em S(IX; W), isto é, seja g(T)IX um elemento de W. Se f
é um polinômio arbitrário, então f(T)[g(T)1X] está em W. Como

( fg)(T) =
f(T)g(T)

fg está em S(IX; W). Portanto, o condutor absorve o produto por


qualquer polinômio.
O único gerador unitário do ideal S(IX; W) é também deno­
minado T-condutor de IX em W (o T-anulador no caso em que
W = { O}) . O T-condutor de
IX em W é o pofinômio unitário g de
menor grau tal que g(T)IX esteja em. W. Um polinômio f está em
S(IX; W) se, e somente se, g divide f. Observemos que o condutor
S(IX; W) contém sempre o polinômio minimal de T; logo, todo
T-condutor divide o polinômio minimal de T.
FORMAS CANÔNICAS ELEMENTARES - 259

Como primeira ilustração de como usar o condutor S(a: W)


caracterizaremos os operadores trianguláveis. O operador linear T
se diz triangulável se existir uma base ordenada em relação à qual
'/' seja representado por uma matriz triangular.

Lema. Seja V um espaço vetorial de dimensão finita sobre o


corpo F. Seja T um operador linear sobre V tal que o polinômio
minimal de T seja um produto de fatores lineares

Seja W um subespaço próprio de V(W =!= V) invariante sob T. Então


existe um vetor a em V tal que
(a)
a não está em W;
(b) (T - cl)a está em W, para algum valor característico c do
operador T.
Demonstração. (a) e (b) estão dizendo que o T-condutor de a
em W é um polinômio linear. Seja f3 um vetor arbitrário em V
que não esteja em W. Seja g o T-condutor de f3 em W. Então g
divide p, o polinômio minimal de T. Como f3 não está em W, o
polinômio g é não constante. Portanto,

onde pelo menos um dos inteiros e; é positivo. Escolhamos j tal


que ei >O. Então (x - c) divide g:

g = (x - c)h.

Pela definição de g, o vetor a= h(T)f3 não pode estar em W. Mas

(T - c/)r:x. = (T - c/)h(T)fl
= g(T)f3
está em W.

Teorema 5. Seja V um espaço vetorial de dimensão finita sobre


o corpo F e seja T um operador linear sobre V. Então T é trian­
gulável se, e somente se, o polinômio minimal de T é um produto de
polinômios lineares sobre F.
260 - ÁLGEBRA LINEAR

Demonstração. SuponhallJOS que o polinômio minimal se de-.


componha em:

Aplicando repetidamente o lema acima, chegaremos a unia base


ordenada fJI = { (Xl' ' °'n} , em relação a qual a matriz que repre­
• • •

senta T é triangular superior

ª1 l ª12 • ª13 Qin


o ª22 ª23 ª2;,
o o ª33 Q3n
(6-11) [T] !li=

o o o Qnn

Ora, (6-11) simplesmente diz que

(6-12) Ta i = ª1/X-1 + ··· + ªi/X-i" f �j�n

istoé; Tai está no subespaço gerado por cx1, , ªr Para determinar . . •

cx1, ... , an, começamos aplicando o lema ao subespaço. W ={O};


para obter o vetor a1. Em seguida, aplicanibs· o lema a WP o es­
paço gerado por cx1 e obtemos cx 2• Em seguida, aplicamos o lema
a W2, o espaço gerado por a1 e cx2, Conünuamos dessa maneira.
Um ponto merece ser comentado. Após determinarmos ªi, . . ·� °';•

são as relações ele tipo triangular (6-12) para j:::;: 1, .. , i, que garan­ .

tem que o subespàço gerado por a1, ... , ix; é invariante sob T.
Se T é triangulável, é evidente que o polinômio característico
de T tenha a forma ·

- (x - c1 )d1 ... ( x - ck)d ,


k
f ·-
c; em F.

Basta olhar para a matriz triangular (6-11). Os elementos diago­


nais a 1 1 , • • • , ann são os valores característicos, com c; repetido d;
vezes. Mas se f pode ser fatorado dessa maneira, o mesmo acon­
tece com o polinômio minimal p, pois p divide f.
Corolário. Seja F um ·corpo algebricamente fechado, por exem·
pio, o corpo dos números complexos. Toda n X n matriz sobre F é
semelhante sobre F a uma matriz triangular.
FORMAS CANÔNICAS ELEMENTARES - 261

Teorema 6. Seja V um espaço vetorial de dimensão finita sobre


o corpo F e seja T um operador linear sobre V. Então T é diago­
nalizável se, e somente se, o polinômio minimal de T tem a forma

com c1, ... , ck elementos distintos de F.

Demonstração. Observamos, anteriormente, que se T é diago­


nalizável, seu polinômio minimal é um produto de fatores lineares
distintos (ver a discussão que precede o Exemplo 4). Para demons­
trar a recíproca, seja W o subespaço gerado por todos os vetores
característicos de Te suponhamos que W:;i: V. Pelo lema usado
na demonstração do Teorema 5, existe um vetor o:, não em W, e
um valor característico ci de T, tal que o vetor

/3. == (T � c/)o:

esteja em W. Como P. está em W,

/3 = /31 + ... + /3k

onde T/3; = c;/3;, 1 ·:S; i :S; k, e portanto, o vetor

está em W, para todo polinômio h.


Ora, p = (x - ci)q para algum polinômio q. Também

q - q(c) = (x - c)h.

Temos

q(T)a - q(c)a = h(T) (T- c/)o: = h(T)/3.

Mas h(T)/3 esta em W e, como

O = p(T)a = (T- c/)q(T)o:

o vetor q(T)o: está em W.. Portanto, q(c)a está em W. Como a


não está em W, temos q(c) =O. Isto contradiz o fato de que p
possui raízes distintas.
262 - ÁLGEBRA L./NEAR

No f im da Seção 6.7, daremos uma outra demonstração do


Teorema 6. Além de ser um resuh11do elegante, o Teorema 6 é
útil sob o aspecto computacional. Seja Tum operador linear repre­
sentado, em relação a alguma base o�denada, pela matriz A. Que­
remos saber se T é diagonalizá vel. Calculemos o polinômio caracte­
rístico f Se pudermos decompor f:

teremos dois métodos diferentes para determinar se T é ou não


diagonalizável. Um 'método será. verificar se é possível (para
cada i) determinar di vetores característicos independentes, asso­
ciados ao valor característico e;. O outro métod_o será. verificar se
(T - c1J) .. (T
. - cJ) é ou não o operador nulo.
O Teorema 5 oferece uma demonstração diferente do teorema
de Cayley-Hamilton. Esse teorema é fácil para uma matriz trian­
gular. Logo, por meio do Teorema 5, obteremos o resultado para
uma matriz arbitrária sobre um corpo algebricamente fechado.
Qualquer corpo é um subcorpo de um corpo algebricamente fe­
chado. Se conhecermõs éste resultado, obteremos uma demons­
tração do teorema de Cayley-Hamilton para matrizes sobre um
corpo arbitrário. Se aceitarmos em nossa discussão o Teorema
Fundamental da Álgebra, então o Teorema 5 proporciona uma
demonstração do teorema de Cayley-Hamilton para matrizes com­
plexas e esta demonstração é independente da que foi dada ante­
riormente.

Exercícios

1. Seja T o operador linear sobre R2, cuja matriz em relação à base ordenada
canônica é

A
=D -�J
(a) Demonstrar que os únicos subespaços de R2, que são invariantes sob T,
são R2 e o subespaço nulo.
(b) Se U é o operador linear sobre C2, cuja matriz em relação à base orde­
nada canônica é A, mostrar que U possui subespaços invariantes unidi­
mensionais.

2. Seja W um subespaço invariante sob T. Demonstrar, sem fazer uso de ma­


trizes, que o polinômio minimal do operador Tw, restrição de T a W, divide
o polinômio minimal de T.
FORMAS CANÔNICAS ELEMENTARES - 263

3. Seja e um valor característico de T e seja W o espaço dos vetores caracte­

rísticos associado ao valor característico e. Qual é o operador Tw?

4. Seja

. [º
A= 2
·2

A é semelhante sobre o corpo dos números reais a uma matriz triangular?


Em caso afirmativo, determinar uma tal matriz triangular.

5. Toda matriz A, tal que A2 =A, é semelhante a uma matriz diagonal.

6. Seja T um operador linear diagonalizável sobre o espaço vetorial n-dimen­


sional V, e seja W um subespaço invariante sob T. Demonstrar que o ope­
rador 1;., é diagonalizável.

7. Seja T um operador linear sobre um espaço vetorial de dimensão finita sobre


o corpo dos números complexos. Demonstrar que T é diagonalizável se, e
somente se, T é anulado por algum Polinômio sobre C que possua raízes
· . .

distintas.

8. Seja T um operador linear sobre V. Se todo subespaço de V for invariante


sob T, então T será um múltiplo em�lar do operador idêntico.

9. Seja T o operador integral indefinida

f:
"

\
(Tf)(x)= f(t )dt

sobre o espaço das funções contínuas sobre o intervalo [O, 1]. O espaço das
funções polinomiais é invariante sob T? O espaço das funções diferenciáveis?
O espaço das funções que se anulam em x=t?

10. Seja A µma 3 x 3 matriz com elementos reais. Demonstrar que se A não for
semelhante sobre R a uma matriz triangular, então A será semelhante sobre
C a uma matriz diagonal.

11. Verdadeiro ou falso? Se a matriz triangular A for semelhante a uma matriz


diagonal, então A já é diagonal.

12. Seja T um operador linear sobre um espaço vetorial de dimensão finita sobre
um corpo F algebricamente fechado. Seja f um. polinômio sobre F. Demons­
trar que e é um valor característico de f(T) se� e somente se, c=f()
t , onde t
é um valor característico de T.

13. Seja V o espaço das n x n matrizes sobre F. Seja A uma n x n matriz fixa
sobre F. Sejam T e U operàdores lineares sob.re V definidos por

T(B) = AB
U (B) = AB - BA.
264 - ALGEBRA LiNEAR

(a) Verdadeiro ou falso? Se A for diagonalizável (sobre F), então T será


diagonalizável.
(b) Verdadeiro ou falso? Se A for diagonalizável, então U será diagonalizável.

6.5 Triangulação Simultânea; Diagonalização Simultânea

Seja V um espaço de dimensão finita e· seja ff uma família de


operadores lineares sobre V. Queremos saber quando é possível
triangular ou diagonalizar simultaneamente os operadores em ff,
isto é, determinar uma base r!4 tal que todas as matrizes '[T] gr ,
Tem ff, sejam triangulares (ou diagonais). No caso da diagonali­
zação é necessário que ff seja uma família comutativa de opera­
dores: UT =TU para todo Te u em ff. ISso decorre do fato de
que todas as matrizes diagonais comutam. É claro qué também é
necessário que cada operador em ff seja um operador diagonali­
zável. A fim de triangularmos sim.ultaneamente, cada operador em
ff terá que ser triangulável. ·Não é necessário que·ff seja uma
família comutativa; no entanto, esta condição é suficiente para
triangulação simultânea (se cada Tfor individualmente triangulável).
Esses resultados decorrem de pequenas variações das demonstrações
dos· Teoremas 5 e 6.
O subespaço W é invariante sob (a família de operadores) ff
se W é invariante sob cada operador em ff.
Lema. Seja ff uma famílici comutativa de operadores lineares
-
trianguláveis sobre V. Seja W um subespaço p róprio de V, inva­
riante sob ff. Então existe um vetor IX em V tal que
(a) IX não está em W;
(b) para cada T .em ff, o vetor TIX está no subespaço gerado
por IX e W.
Demonstração. Não há perda de generalidade se admitirmos
que ff contenha apenas um número finito de operadores, por causa
da seguinte observação: Seja {T1' .. , T,.} m:p subconjunto linear­
.

mente indepen , dente maximal de ff, isto é, uma base do subespaço


gerado por .9'. Se IX é um vetor tal qúe (b) é -verdadeiro para cada
J;, então (b) será verdadeiro para todo operador que seja uma com-
·

binação linear de T1, , T,..• . .

. Pelo lema que precede o Teorema 5 (o lema atual para um


só operador), podemos determinar um vetor {31 (não em W) e um
escalar c1, tal que (T1 - c1J){31 esteja em W. Seja V1 a coleção de
todos os vetores P em V tais que (T1 - e 1 J) 'f3 esteja em W. Então
FORMAS CANÔNICAS ELEMENTARES - 265

V1 é um subespaço de V propriamente maior que W. Além do


mais, V1 é invariante sob !F pela seguinte razão: Se Tcomutar com
T1, então

Se f3 está em J:'1, então (T1 - c11){3 estará em W Como W é inva­


riante sob cada Tem!#', teremos T(T1 c11){3
-
. em W, isto é, T{3
em V1 para todo f3 em V1 e todo T em !F.
Ora, W é um subespaço próprio de V1. Seja U2 o operador
linear sobre V1 obtido pela restrição de T2 ao subespaço V1. O
polinômio mir:iimal de U2 divide o polinômio minimal de T.2
Portanto, podemos aplicar o l.ema que precede o Teorema 5 a esse
operador e ao subespaço invariante W Obteremos um vetor /32
em V1 (não em W) e um escal.ar c2 tais que (T2 - c2/)/32 esteja
em W. Observemos que
(a)· /32 não está em W;
(b) (T1 - c1 J)/32 está em W;
(c) (T2 - c2/)/32 está em W.
Seja V2 o conjunto de todos os vetores /3 em V1 tais que
(T2 - c2J) f3 esteja em W Então V
2 é invariante spb, !F. Apliquemos
1
o lema que precede o Teorema 5 a U 3, a restri"ção de T3 a V2 •

Continuando dessa maneira, chegaremos a um vetor a = /3, (não


,
em W) tal que (1j- c/ )a esteja em W, j 1, . . . , r.
=

Teorema 7. Seja V um espaço vetorial de dimensão finita sobre


o co,rpo F. Seja !F uma família comu.tativa de ope,radores lineares
trianguláveis sobre V. Existe uma base ordenada de V tal que todo
operador em !F seja representado, em relação àquela base, por uma
matriz triangular.
Demonstração. Dado o lema que acabamos de provar, a de­
monstração deste teorema é igual à demonstração do Teorema 5
colocando T no lugar de !F.

Corolário. Seja !F uma família comutativa de n x n matrizes


sobre um corpo F algebricamente fechado. Existe uma n x n matriz
1
P, não-singular, com elementos em F, tal que p-AP seja triangu-
· lar-superior para toda matriz A em !F.

Teorema 8. Seja !F uma família comutativa de operadores linea·


res diagonalizáveis sobre o espaço vetorial V de dimensão finita.
266 - ALGEBRA LINEAR

Então existe uma base ordenada de V tal que todo operador em !!!'
seja representado, em relação àquela base, por uma matriz diagonal.
l)emonstração. Poderíamos demonstrar esse teorema adaptando
o lema que precede o Teorema 7 ao caso diagonalizável, exatamente
como adaptamos o lema que preéede o Teorema 5 ao caso diago­
nalizável para demonstrar o 1Teorema 6. No entanto, nesse ponto,
é mais fácil procedermos por indução sobre a dimensão de V.
Se dim V= 1, não há i:J.ada a demonstrar. Admitamos o teo­
rema para espaços vetoriais de dimensão menor que n, e seja V um
espaço n-dimensional. Escolhamos um' T arbitrário em!!!' que não
seja múltiplo escalar do operador idêntico. Sejam c ' ... , c
1 k
os
valores característicos distintos de T, e. (para cada i) seja W; o
núcleo de T - J.
c Fixemos um índice i. Então W; será invariante
sob cada operador que comute com T. Seja ff; a família de opera­
dores lineares sobre JV;, obtida pela restrição dos operadores em!!!'
ao subespaço (invariante) JV;. Cada operador em ffi é diagonali­
zável porque o seu polinômio minimal divide o polinômio minimal
do operador correspondente em!!!'. Como dim W; < dim V, os ope­
radores em ff; podem ser diagonalizados simultaneamente. Em
outras palavras, W; possui uma base r!J; que consiste de vetores que
são, simultaneamente, vetores característicos de todos os opera­
dores em !!!';.
Como T é diagonalizável, o lema que precede o Teorema 2,
nos diz que f?l = (f?l 1, . .. , f?l,J é uma base de V. Esta é a base que
procuramos.

Exercícios

1. Determinar uma matriz real inversível P tal que p-1AP e p-1 BP sejam ambas
diagonalizáveis, onde A e B são as matrizes reais

(a) A -[1
- o

(b) A=
D B
= [!
2. Seja ff uma família comutativa· de 3 x 3 matrizes complexas. Quantas ma­
trizes linearmente independentes existem em ff? E no caso n x n?
3. Seja T um operador linear sobre um espaço n-dimensional, e suponhamos que
T possua n valores característicos distintos. Demonstrar que qualquer ope­
rador linear que comuta com T é um polinômio em T.
FORMAS CANÔNICAS ELEMENTARES - 267

4. Sejam A, B, C e D n x n matrizes complexas que comutam Seja E a


2n x 2n .matriz

E= [� �l
Demonstrar que det E= det(AD - BC).

S. Seja F um corpo, n um inteiro positivo e seja V o espaço das n x n matrizes


sobre F. Se A é uma n x n matriz fixa sobre F, seja 7� o operador linear
sobre V definido por TA(B) AB - BA. Consideremos a família dos opera­
=

dores lineares TA obtida fazendo A percorrer o conjunto das matrizes diagonais.


Dem onstrar que os operadores desta família são simultaneamente diagona­
lizáveis.

6.6 Decomposição em Somas Diretas

Ao continuarmos nossa análise de um só operador linear,


formularemos nossas idéias de uma maneira ligeiramente mais sofis­
ticada - menos em termos de matrizes e mais em termos de subes­
paços. Quando iniciamos esse capítulo, descrevemos nossos obje­
tivos dessa maneira: ·determinar uma base ordenada em relação
à qual a matriz de T assumisse uma forma especialmente simples.
Agora descreveremos nosso objetivo assim: Depómpor o espaço
subjacente V em uma soma de subespaços invario/htes sob T, tais
que as restrições dos operadores a esses subespaços sejam simples.

Definição. Sejam W 1' . . , Wk subespaços do espaço vetorial V.


.

Diremos que W 1, • • • , Wk são independentes se


°'1 + ... + °'k = O, °'i em_ Wi

implica que cada °'i é nulo.


Para k = 2, o significado da independência é "interseção igual
a {O}", isto é, W1 e W2 são independentes se, e somente se,
W1 n W2 ={O}. Se k > 2, a independência de Wl' ..., Wk diz muito
mais do que W1 n n Wk ={O}. Ela diz que a interseção de
. . .

cada J.tí com a soma dos outros subespaços W; contém somente


o vetor nulo.
O significado da independência é o seguinte: Seja W = W1 +
+ ... + � o subespaço gerado por W1, . . • , �· Cada vetor oc em
W pode ser expresso como uma soma

°'; em JV;.
268 - ALGEBRA LINEAR

Se Wl' . . • , � forem índependentes, então a expressão para r:t. será


única; de fato, se

então O= (r:t.1 - fJ1) + ... + ( r:t.k - fJk)i logo, r:t.;..,... /3; =O, i = 1, . . . , k.
Assim, quando �, . . . , � são independentes, podemos operar com
os vetores de W como k-upl.as (r:t.1,
: , r:t.k), r:t. em W;,. da mesma ma­
; • •

neira como operamos com vetores em Rk como k-uplas de números.

Lema. Seja V um espaço vetorial de dimensão finita. Sejam


W1, . .. , Wk subespaços de V e seja W W1 + . .. + Wk. As se­ =

guintes condições são equivalentes:


(a) wl' ... , wk são independentes.
(b) Para cada j, 2 :::;j::::;; k, temos

(e) Se fJI; é uma base ordenada de Wi, 1::::;; i::::;; k, então a se­
quência fJ6 = (fJl1, ... , fJlk) é uma base ordenada de W.
Demonstração. Suponhamos (a). Seja r:t. um vetor na inter­
seção W j n (W 1 + . . . + W _1). Então existem vetores r:t.1' , r:t.j-1'
j
• • .

com r:t.; em W;, tais que r:t. = r:t.1 + ... + r:t.j_1. Como

Cl.1 + ... + ªj-1 + ( -ix) + o + ... + o = o

e como Wl' ... , � são independentes, necessariamente r:t.1 = r:t.2 =


= ... ='Cl.j�l =r:t.=0.
Observemos agora que (b) implica (a). Suponhamos

Seja j o maior inteiro i tal que r:t.; =I= O. Então

Logo, r:t.i = -r:t.1 - ... -et.i-l é um vetor não nulo em Vlj n.(W1 +
+ ... + Wí-1).

Agora que sabemos que (a) e (b) são equivalentes, vejamos


por que (a) é equivalente a (e). Suponhamos (a). Seja fJI; uma b�se
de W;, 1::::;; i::::;; k e seja fJ6 =(fJll' • • • , fJ6k). Qualquer relação linear
entre os vetores de f!4 terá a forma
FORMAS CANÔNICAS ELEMENTARES - 269

/3 1 + ... + /3k = o

onde é alguma combinação linear dos vetores de f!Jr Como


/3;
W1, • . . são independentes, cada /3; é O. Gomo cada f14 é inde­
, Jt;,
pendente, a relação existente entre os vetores de f!4 é a relação trivial.
Deixamos a demonstração de que (c) implica (a) como exer­
cício (Exercício 2).
Se uma (e portanto todas) das três condições do último lema
é válida, diremos que a soma w w + .... + wk é direta ou que w
,
=

é a s9ma direta de W 1 , , Wk e escreveremos


• • •

W= W1 EB ... EB Jt;,.
Na literatura, o leitor poderá encontrar essa soma direta sob os
nomes de soma independente ou soma interna de W1, ... , Jt;,.

Exemplo 11. Seja V um espaço vetorial de dimensão finita


sobre o corpo F e seja { al' ... , a" } uma base arbitrária de V. Se
W; é o subespaço unidimehsional gerado por a;, então V= W1 EB ...
... EB W,,.

Exemplo 12. Seja n um inteiro positivo, F um s{ibcorpo do


corpo dos números complexos e seja V o espaço das n x n matrizes
sobre F. Seja W 1 o subespaço das .matrizes simétricas, isto é, ma­
trizes A tais que A' =A. Seja W2 o subespaço das matrizes anti­
simétricas, isto é, matrizes tais que A'
A Então V= W1 ® W2
= - . •

Se A é uma matriz arbitrária em V, a única expressão para A como


uma soma de duas matrizes, uma em W1 e a outra em W 2' é

A== A1 + A2
2
A1 - 1-(A +A'' )
A2 = k(A - Á1).

Exemplo 13. Seja T um operador linear arbitrário sobre um


espaço vetorial V de dime�são finita. Sejam .c1, ..., ck valores carac­
terísticos distintos de Te seja W; o espaço dos vetores caracterís­
ticos associado ao valor característico e;. Então, W1, • • • ; Wk são
independentes. Ver o lema que precede o Teorema 2. Em parti­
cular, se Té diagonalizável, então V= W1 EB ... EB Jt;,.

Definição. Se V é um espaço vetorial, uma projeção de V é um


operador linear E sobre V tal que E2 = E.
270 - ALGEBRA LINEAR

Suponhamos que E seja uma projeção. Sejam R a imagem


de E .e N o núcleo de E.
1. O vetor f3 está na imagem R se, e somente se, E/3 = {3. Se
f3=EIX, então E/3=E21X=EIX {3. Reciprocamente, se f3=E/3, então
=

(é claro) f3 está na imagem de E.


2. V=R@N.
3. A única expressão de iX como uma soma de vetores em R
·

e N é IX EIX + (IX - E1X).


=

De (1), (2) e (3) é fádl ver o seguinte: Se R e N são subespaços


de V tais que V= R EB N, então existe um e um só operador pro­
jeção E cuja imagem seja R e cujo núcleo seja N. Esse operador
é chamado projeção sobre R segundo N.
Qualquer projeção E é (trivialmente) diagonalizável. Se
{1X1, ...,IX.} é uma base de R e {1X,+1' ... , IXJ uma base de N, então
a base f?4 {1X1, ... , 1Xn} diagonaliza E:
=

[E].íB = [� �]
onde I é a r x r matriz unidade. Isso deveria esclarecer parte da
terminologia ligada a projeções. O leitor deverá examinar vários
casos no plano R2 (ou no espaço tri-dimensional R3) para se con­
v,encer de que a projeção sobre R segundo N leva cada vetor para
R, projetando-o paralelamente a N.
Projeções podem ser usadas para descrever decomposições do
espaço V em somas diretas. De fato, suponhamos V= W1 EB ...
... EB liv,,. Para cada j definiremos um operador Ei sobre V. Seja
IX em V, digamos IX=IX1 + ... + IXk com IX; em JV;. Definamos
Ep=1Xr Então, Ei é uma regra bem definida. É fácil ver que Ei
é linear, que a imagem de Ei é ttj e que EJ= Er O núcleo de Ei
é o subespaço

(W1 + · · ·
+ tt-J-1 + tt-}+1 + · · · + liv,,)

pois a afirmação de que Ep =.0 significa simplesmente que IXi=O,


isto é, que IX é na realidade uma soma de vetores dos espaços W;
com i '# j. Em termos das projeções Ei temos

(6-13)
FORMAS CANÔNICAS ELEMENTARES - 271

para cada 0<. em V. O que (6-13) diz é que

Notemos também que se i # j então E;Ei =O, pois a imagem de


Ei é o subespaço l1-j que está contido no núcleo de E;. Resumi­
remos agora nossas conclusões, enunciaremos e demonstraremos
uma recíproca.

Teorema 9. Se V W1 EB ... EB Wk• então existem k operadores


=

EP ... , E k sobre V tais que


(i) cada Ei é uma projeção (E�=E;);
(ii) E;Ej =O, se i # j;
(iii) l=E1+ ... +Ek;
(iv) a imagem de E; é W;.

Reciprocamente, se E1, ... , Ek são k operadores lineares sobre V


que satisfazem as condições (i), (ii) e (iii) e se indicamos por W; a ima­
gem de E;, então V=W1 EB ... EB Wk.

Demonstração. Precisamos demonstrar apenas a afirmação recí-


'
proca. Suponhamos que Ep ... , Ek sejam operadores lineares sobre
V que satisfaçam as três primeiras condições e seja W; a imagem de
E;. Então, certamente

V = W1 + ... + W,.;

pois, pela condição (iii) temos

OI.= E10<. + ... + Ek0<.


para cada 0<. em V e Ep. está em JV;. Esta expressão para 0<. é única,
porque se •

()( = ()(1 + .. . + ()(k

com OI.; em JV;, digamos EJ3;, então,


0<.; = usando (i) e (ii), temos
k
Ep = L Ep;
i= 1
k
= L EjEJl;
i= 1
. 272 - ALGEBRA LINEAR

=
EJPj
=
E/3i
r:x.j"
=

Isto mostra que V é a soma direta dos JV;.

Exercít:iOs

1. Seja V um espaço vetorial de dimensão finita e seja w; um subespaço arpi­


trárjo de V. Demonstrar que existe um subespaço w; de V tal que V= J17i. 9 w;.

2. Seja V um espaço vetorial de dimensão finita e sejam W1, • • • , Wk subespaços


de V tais que

V = l17i_ + . . . + w,; e dim V = dim W, + . . . + dim w,;.

Demonstrar que V= l17i_ EEl . ·: E0 w,;.

3. Determinar uma projeção E que projeta R2 sobre o subespaço gerado por


(1, -1) segundo o subespaço gerado por (1, 2).

4. Se E1 e E2 são projeções sobre subespaços independentes então E 1 + E2 é


uma projeção. Verdadeiro ou falso?

5. Se E é uma p�ojeção e f um polinômio, então f (E) =ai + bn. O que são


a e b em termos dos coeficientes de f?

6. Verdadeiro ou· falso? Se os únicos valores característicos de um operador


diagonalizável são O e l, então esse operador é uma projeção.

7. Demonstrar que se E é a projeção sobre R segundo N, então (J - E) é a pro­


jeção sobre N segundo R.

,9, Sejam E1, ..., Ek operadores lineares sobre o espaço V tais que E1 + .
. .. +
+ Ek. = 1.
(a) ·Demonstrar que se E;E;=O para i # j, então Ef =E; para todo i.
(b) No caso k 2, demonstrar a recíproca de (a). Isto é, se E1 + E2=1 e
=

Et = E1, E� = E2, eµtão E1E2 =O..

9. Seja V um espaço vetorial real e E um operador linear idempotente sobre V,


1
isto é, uma projeção. Demonstrar que (1 + E) é inversível. Determinar (1 + E)- .

10. S.eja F um subcorpo do corpo dos· números complexos (ou, um corpo de carac­
terística zero). Seja V um espaço vetorial de dimensaci finita sobre F. Supo­
nhamos que E" . . . , Ek sejam projeções sobre V e que E1 + ... + Ek = J . . De­
monstrar que E1E; = O para i # j. (Sugestão: Usar a função traço e descobrir
o que é o traço de uma projeção.)
FORMAS CANÔNICAS ELEMENTARES __: 273

11. Seja V um espáço vetorial, sejam W1, ... , Wk subespaços 'de V e seja

vj = w1 + . . . + wj·-1 + wj+l + ... + wk

Suponhamos que V . W1 EfJ ... 'EfJ Wk.


,,,; Demonsfrar que o espaço dual V*
admite a decomposição em soma direta V* = V� EfJ . • . EfJ Vf.

6. 7 Somas Diretas Invariantes

Estamos essencialmente interessados em . decomposições em


somas diretas V= W1 $ ... $ i--J1, onde cada um dos subespaços
w; seja invariante sob algum operador linear dado T. Dada uma
tal decomposição de V, T induz um operador linear r;, sobre cada
w;, através da restrição. A ação de T é então a que segue. Se a é
um vetor em V, existem vetores bem determinados a1, ... , ak com
ai em J:V;, tais que

e então

Descreveremos esta situação dizendo qU;e T é a soma direta dos


operadores T1, . . , 'I'ic· Deve-se lembrar, ao usarmos esta termino�
,

logia, que os r; não são operadores lineares sobre o espaço V mas


sim sobre os diversos subespaços »-;. O fato de que V= W1 $ ...
... $ Wk nos permite associar a cada a em V uma única k-upla
de vetores ai em w; (sendo a= a1 + . . . + a,J de uma
(ap ... , ak)
maneira tal que possamos efetuar as operaÇões lineares em V tra­
balhando em cada subespaço w;. O fato de que cada w; é inva­
riante sob T nos permite considerar a ação de T como a ação inde­
pendente dos operadores T sobre ·.OS subespaços w;. Nosso pro­
pósito é estudar T determiri ando decomposições em s9mas diretas
invariantes nas quais os r; sejam operadores de natureza elementar.
Antes de considerarmos um exemplo, observemos o análogo
desta situação para matrizes. Suponhamos que tomemos .uma base
ordenada f141 para cada w; � seja fJ4 a base ordenada de V formada
pela reunião das f14i, ordenada como fJl1, ... , fJlk, de modo que f14
seja uma base de V. De nossa discussão acima:, quanto ao análogo
para matrizes para um único subespaço invariante, é fácil ver que
se A= [TJ� e Ai= [T;]l<lli' então A é da forma em blocos
o
o

Em (6-14), Ai é uma di x di matriz ( di= dim J.V;) e os símbolos O


são blocos retangulares de vários tamanhos constituídos de esca­
lares nulos. Parece ser também apropriado descrever (6-14) dizendo
que A é a- soma direta das matrizes Al' ... , A k .
Na maioria das vezes descreveremos o subespaço w; por meio
das projeções associadas Ei (Teorema 9). Portanto, teremos que
formular a invariância dos subespaços W; em termos dos Ei .

Teorema 10. Seja T um operador linear sobre o espaço V e -

sejam W1 ' ... , Wk e EP ... , Ek como no Teorema 9. Então, uma


condição necessária e suficiente para que cada subespaço W i seja
invariante sob T é que T comute com cada uma das projeções Ei,
isto é,

Demonstração. Suponhamos que T comute com cada Ei. Seja


a em llJ· Então Ep=a e

Ta= T(Ep)
=E/Ta)

o que mostra que Ta está na imagem de Ei' isto é, que Wí é inva­


riante sob T.
Suponhamos agora que cada w; seja invariante sob T. Mos­
traremos que TE.J=EJT
. . Seja a um vetor arbitrário em V. Então

a= E1a + ... + Eka


Ta= TE1a + ... + TEka.
·

Como E;a está em J.V;, que é invariante sob T, devemos ter T(Eia)=
=EJ3; para a,lgum vetor pi. Então
FORMAS CANÔNICAS ELEMENTARES - 275

se i -/= j
se i = j.

Assim,

EiTrx = EiTE1rx + . . + . EiTEkrx


= Eii
= TEp.

Isto vale para todo rx em V, portanto EiT = TEr


Descreveremos agora um operador diagonalizável T utilizando
decomposições em somas diretas invariantes (projeções que comu­
tam com T). Isso será de grande ajuda para compreendermos mais
tarde alguns teoremas de decomposição mais profundos. O leitor
talvez ache complicada a descrição que iremos dar, em comparação
com a formulação por meio de matrizes ou com a afirmação de que
os vetores característicos de T geram o espaço subjacente. Mas,
ele deverá ter em mente que este é nosso primeiro contato com
um método muito eficiente, graças ao qual vários problemas )iga­
dos a subespaços, bases, matrizes e outros semelhantes, pÓClerão
ser reduzidos a cálculos algébricos com operadores lineares.' Com
um pouco de experiência, a eficiência e elegância desse modo de
pensar tornar-se-á aparente.

Teorema 11. Seja T um operador linear sobre um espaço V de


dimensão finita. Se T é diagonalizável e cl' ... , ck são os valores
característicos distintos de T, então existem operadores lineares
El' ... , Ek sobre V tais que

(i) T = c1E1 + ... + ckEki


(ii) 1 = E1 + ... + Eki
(iii) E;Ei = O, i i= j i
(iv) E� =
E;; (E; é uma projeção)j
(v) a imagem de E; é o espaço característico de T associado a c;.

Reciprocamente, se existirem k escalares distintos c1, ..., ck e k


operadores lineares não-nulos E1 , , Ek satisfazendo as condições
• • .

(i), (ii) e (iii), então T é diagonalizável, c1, , ck são os valores


• • .

característicos distintos de T e as condições (iv) e (v) também são


satisfeitas.
276 · � ALGEBRA LINEAR

Demonstração. Suponhamos que T seja diagonalizável, com va­


lores característicos distintos e 1, . . . , ck. Seja W; o espaço dos veto­
res característicos associado ao valor característico e;. Como vimos
V= W1 EB ... EB Wic·

Sejam El' . .. , Ek as projeções associadas a esta decomposição, como


no Teorema 9. Então (ii), (iii), (iv) e (v) são satisfeitas. Para veri­
ficar (i) procedamos da seguinte maneira: para cada rx em V,

logo

Trx = TE1rx. + ... + TEk rx


= c1E1rx + ... + ckEk rx.

Em outras palavras T = ciE1 + . . . + ckEk.


Suponhamos agora que sejam dados um operador linear T
juntamente com escalares distintos e; e operadores não-nulos E;
que satisfaçam (i), (ii) e (iii). Como EiEi =O para i # j, multipli­
cando ambos os membros de I =E1 + . . . + Ek por E; obtemos
imediatamente E? =E;. Multiplicando T = c1E1 + ... + ckEk por E;
resulta TE;= c;E;, o que mostra que todo vetor na imagem de E;
está no núcleo de (T - cJ). Como supusemos que E;# O, isto
demonstra que existe um vetor não-nulo no núcleo de (T - cJ),
isto é, que e; e um valor característico de T. Além disso, os e; são
os únicos valores característicos de T; de fato, se e é um escalar
arbitrário, então

T - cI = (c1 - c)E1 + ... + (ck - c)Ek

portanto, se (T- cl)rx =O, devemos ter. (e; - c)E;rx. =O. Se rx não
é o vetor nulo então E;rx # O para algum i, de modo que para este
i temos ci - e =O.
T é certamente diagonalizável, pois mostramos que todo vetor
não-nulo na imagem de E; é um vetor característico de T e o fato
de que I =E1 + ... + Ek mostra que esses vetores característicos
geram V. Tudo o que resta a ser demonstrado é que o núcleo de
(T - cJ) é exatamente a imagem de E;· Mas isto é evidente,
porque se Trx = c;rx, então
k
L (ci - c;)Ep = O
j= 1
FORMAS CANÔNICAS ELEMENTARES - 277

logo

(ci - c)Ep = O para cada j

e então

Ep = O, j =I= i.

Como a= E1a + ... + Eka, e Ep =O para j =I= i temos a= E;a,


demonstrando que a está na imagem de E;.
Uma parte do Teorema 9 diz que para um operador diagona­
lizável T, os escalares cl' ... , ck e os operadores El' ... , Ek são deter­
minados de modo único pelas condições (i), (ii), (iii), mais o fato
de que os e; são distintos e o fato de que os E; são não-nulos.
Uma das características agradáveis da decomposição T = c1E1 +
+ . . + ckEk é
. que g é um polinômio arbitrário sobre o corpo F,
então

Deixemos os detalhes da demonstração a cargo do leitor. Para


ver como se demonstra, basta calcular T' para todo inteiro posi-.
tivo r. Por exemplo
k k
y2 = L c;E; L ciEi
i= 1 j= 1
k k
= L L ciciEiEi
i=l j=l
k
= L c;E;
i= 1
k
= L c;E;·
i= 1
O leitor deve comparar isto com g(A) sendo A uma matriz dia­
gonal, pois neste caso g(A) é simplesmente a matriz diagonal de
elementos diagonais g(A11 ) ... , g(A"").
,

Gostaríamos de observar em particular o que acontece no


caso dos polinômios de Lagrange correspondentes aos escalares
cl' ... , ck:

rr (x e;) .
P·1 =
-

i</=i (ci -
e;)
278 .- ALGEBRA LINEAR

Temos pi(c) = ôii' o que significa que

k
p/T ) =
L ôijEi
i=l

= Er
Assim, as projeções Ei não apenas comutam com T, mas são poli­
nômios em T.
Cálculos como este, com polinômios em T, podem ser usados
para dar uma outra demonstração do Teorema 6 que caracterizou
operadores diagonalizáveis em termos de seus polinômios minimais.
A demonstração é inteiramente independente da nossa demons­
tração anterior.
Se T é diagonalizável, T = c1E1 + ... + ckEk , então

para todo polinômio g. , Logo, g(T) O se, e somente se, g(c;) = = O


para cada i. Em particular, o polinômio minimal de T é

Suponhamos agora que T seja um operador linear sobre V com


polinômio minimal

onde cl' ..., ck são elementos distintos do corpo dos escalares.


Formemos os polinômios de Lagrange

(x - e) .
P1· = fl (c e
ief:i i- )
Recordemos do Capítulo 4 que p/c;) ôii e, para todo polinômio =

g de grau menor ou igual a (k - 1), temos


g = g(c1)P1 + · · · + g(ck)pk .
Tomando g como sendo o polinômio constante 1 e logo em se­
guida como o polinômio x, temos

(6-15)
1 =
P1 + · · ·
+ Pk
X = C1P1 + · · · + ckpk.
FORMAS CANÔNICAS ELEMENTARES - 279

(O leitor astuto terá notado que a aplicação a x pode não ser válida
porque k pode ser igual a l. Mas se k 1, Té um múltiplo escalar
=

do operador idêntico, sendo portanto diagonalizável.) Seja agora


Ei =
p/T). De (6-15) temos

I =
E1 + ... + Ek
(6-16)
T =
c1E1 + . . + ckEk.
.

Observemos que se i # j então P;Pi é divisível pelo polinômio mini­


mal p, pois P;Pi contém cada (x e ) como um fator. Assim
,
-

(6-17)

Precisamos notar ainda mais um fato, a saber, que E; # O para


todo i. Isto ocorre porque p é o polinômio minimal de Te então
não podemos ter p;(T) O pois P; tem grau menor que o de p.
=
,

Este último comentário, junto com (6-16), (6-17) e o fato de que


os e; são distintos nos permite aplicar o Teorema e concluir que
T é diagonalizável.

Exercícios

1. Seja E uma projeção sobre V e seja T um operador linear sobre V. Demons­


trar que a imagem de E é invariante sob T se, e somente se, ETE = TE.
Demonstrar que a imagem e o núcleo de E são invariantes sob T se, e somente
se, ET= TE.

2. Seja T o operador linear sobre R2, cuja matriz em relação à base ordenada
canônica é

Seja W,, o subespaço de R2 gerado pelo vetor e1 = (1, O).


(a) Demonstrar que W1 é invariante sob T.

(b) Demonstrar que não existe nenhum subespaço W, que seja invariante sob
T e que seja complementar de W,,:

R1 = w; E0 J.Vi.

(Comparar com o Problema 1 da Seção 6.5.)

3. Seja T um operador linear sobre o espaço vetorial V de dimensão finita,


seja R a imagem de T e seja N o núcleo de T. Demonstrar que R e N são
independentes se, e somente se, V R E0 N. =
280 - ÁLGEBRA LINEAR

4. Seja T um operador linear sobre V. Suponhamos V= w,_ $ . $ W,., onde ..

cada W; é invariante sob T. Seja I; a restrição do operador T a »j.


(a) Demonstrar que det(T) = det(T1) •.. det(T.).
(b) Demonstrar que o polinômio característico de f é o produto dos poli­
nômios característicos de f1, .<.
.J•.
(c) Demonstrar que o polinômio minimal de T é o mínimo múltiplo comum
dos polinômios minimais de T" . , r.. (Sugestão: Demonstrar e em seguida
..

usar os fatos correspondentes a respeito de somas diretas de matrizes.)

5. Seja T o operador linear, diagonalizável sobre R3, discutido no Exemplo 3


da Seção 6.2. Usar os polinômios de Lagrange para escrever a matriz A, que
representa T, na forma A= E,+ 2E,, E,+ E2= 1, E1E2=O.

6. Seja A a 4 x 4 matriz do Exemplo 6 da Seção 6.3. Determinar matrizes


E" E2, E3 tais que A c1E1 +c2E2 + c3E3, E1 + E2+E3=1 e E,EJ O i '# j.
= =
,

7. Nos Exercícios 5 e 6 observar que (para cada i) o espaço dos vetores caracte­
rísticos associado ao valor característico e, é gerado pelos vetores-coluna das
várias matrizes Ei com j '# i. Isso é uma coincidência?

8. Seja T um operador linear sobre V que comuta com todos os operadores


projeção sobre V. O que se pode afirmar sobre T?

9. Seja V o espaço vetorial das funções contínuas reais definidas sobre o inter­
valo [ - 1, 1] da reta real. Seja W,, o subespaço das funções pares, f( -x) f (x) =

e seja W. o subespaço das funções ímpares, f( - x) = f (x). -

(a) Demonstrar que V = W,, ffi W. ·

(b) Se T é o operador integral indefinida

(Tf)(x)= I:f(t)dt

W,, e »; são invariantes sob T?

6.8 O Teorema da Decomposição Primária

Estamos tentando estudar um operador linear T sobre o es­


paço de V de dimensão finita, pela decomposição de T numa soma
direta de operadores que sejam, num certo sentido, elementares.
Podemos fazê-lo através dos valores e vetores característicos de Tem
certos casós particulares, isto é, quando o polinômio de T decom­
põe-se sobre o corpo F de escalares num produto de polinômios
unitários, distintos e dê grau 1. Que podemos fazer com um T
arbitrã'rio? Se tentarmos estudar T usando valores característicos,
iremos nos confrontar com dois problemas. Primeiro, T poderá
não ter nenhum valor característico; isto, na verdade, é uma defi-
FORMAS CANÔNICAS ELEMENTARES - 281

ciência do corpo de escalares, a saber, que ele não é algebricamente


fechado. Segundo, mesmo que o polinômio característico se decom­
ponha completamente sobre F num produto de polinômios de
grau 1, podem não existir vetores característicos suficientes de T
para gerar o espaço V; isto é, evidentemente uma deficiência de T.
A segunda situação é ilustrada pelo operador T sobre F3 (F um

[
corpo arbitrário) representado em relação à base canônica por

2 o

O polinômio característico de A
A=
.
1
o
2
o -1
é(x - 2)2 (x + 1) e este é obvia­
�]·
mente o polinômio minimal de A (ou de T). Assim, T não é diago­
nalizável. Vê-se que isto ocorre porque o núcleo de (T- 2/) tem
dimensão 1 apenas. Por outro lado, o núcleo de (T + /) e o núcleo
de (T- 2/)2 juntos geram V, sendo o primeiro o subespaço gerado
por 8 3 e o segundo o subespaço gerado por 81 e 8 2 •

Este será mais ou menos o nosso método geral para o segundo


problema. Se (lembrar que isto é uma hipótese) o polinômio mini­
mal de T se decompõe como

p = (x - c1}'1 . . . (x - cSk

sendo cl' ... , ck elementos distintos de F, então mostraremos que


o espaço V é a soma direta dos núcleos de (T - cJ)'i, i = 1, ... , k.
A hipótese a respeito de p é equivalente ao fato de que T seja tri­
angulável (Teorema 5); no entanto o conhecimento deste fato não
nos ajudará.
O teorema que demonstraremos é mais geral que isto que
descrevemos, uma vez que trabalhará com a decomposição pri­
mária do polinômio minimal, quer sejam ou não de grau 1 os
primos que comparecem na decomposição. O leitor achará útil
pensar no caso particular em que os primos são de grau 1 e, de
modo ainda mais particular, pensar na demonstração do Teorema 6
como um caso particular deste teorema.

Teorema 12 (Teorema da Decomposição Primária). Seja T um


operador 1inear sobre o espaço vetorial V de dimensão finita sobre o
corpo F. Seja p o polinômio minimal de T,

P = P/1 • • • P?
282 - ALGEBRA LINEAR

onde os pi são polinômios distintos, irredutíveis e unitários sobre F


e os ri são inteiros positivos. Seja Wi o núcleo de pi(T)'i, i 1, .. ., k. =

Então
(i) V =W1 EB ... EB Wk;
(ii) cada Wi é invariante sob T;
(iii) se Ti é o operador induzido sobre Wi por T, então o poli­
nômio minimal de Ti é p:i.

Demonstração. A idéia da demonstração é a que segue. Se a


decomposição (i) em soma direta é· válida, como podemos obter
as projeções E1, ..., Ek associadas a esta decomposição? A pro­
jeção Ei será o operador idêntico sobre W; e zero sobre os outros
Vlj. Vamos determinar um polinômio h, tal que h;(T) �eja o ope­
rador idêntico sobre W; e seja nulo sobre os outros Vlj e de modo
que h1(T) + ... + hk(T) 1, etc.
=

Para cada i1 seja

Como pl' ..., pk. são polinômios primos distintos, os polinômios


relativamente_primos (Teorema 10, Capítulo 4). Assim,
fp ...,fk são
existem -polinômios g 1, . • , , gk tais que

I fg; =
i.
i= 1

Notemos também que se i =l=j, então fJi é divisível pelo polinômio


p pois !Ji contém cada p';;;' como um fator. Vamos mostrar que
os polinômios h; = J;gi comportam-se da maneira descrita no pri­
meiro parágrafo da demonstração.
Seja E;= h;(T) = J;(T)g;(T). Como h1 + .. . + hk = 1 e p divide
fifi para i =I= j, temos

E1 + . . . + Ek = I
E;Ei = O, se i =1= j .

Assim, os E , são projeções que correspondem a alguma decompo­


sição do espaço V em soma direta. Desejamos mostrar que a ima­
gem de I[.; é exatamente o subespaço w;. É evidente que cada vetor
FORMAS CANÔNICAS ELEMENTARES - 283

na imagem de Ei está em u;;, pois se a está na imagem de Ei' então


a=Eia, logo
i
P;(T)'ia = pJT)' Eia
= pJT)''.[;(T)gi(T)a

pois p'f; gi é divisível pelo polinômio minimal p. Reciprocamente,


i
suponhamos que a esteja no núcleo de pi(T)' . Se j # i, então J;gi
é divisível por p�i, logo �(T)g/T)a =O, isto é, Ep =O para j # i.
Mas, então, é imediato que Ea=a, isto é, que a está na imagem
de Ei . Isto completa a demonstração da afirmação (i).
É certamente óbvio que os subespaços W; são invariantes
sob T. Se J; é o operador induzido sobre W; por T, então, eviden­
temente P;(T;)'i =O, pois, por definição, p;(TY; se anula no subes­
paço u;;. Isto mostra que o polinômio minimal de J; divide P?·
Reciprocamente, seja g um polinômio arbitrário tal que g(J;) =O.
Então g(T)J;(T)=O. Assim, gJ; é divisível pelo polinômio minimal
p de T, isto é, p�i; divide gJ;. Vê-se facilmente que p�i divide g .
Logo, o polinômio minimal de J; é p�i.

Corolário. Se E 1, .. ., Ek são as projeções associadas à decom­


. posição primária de T, então cada Ei é um polinômio em T e, conse­
qüentemente, se um operador linear U comuta com T então U comuta
com cada um dos Ei, isto é, cada subespaço Wi é invariante sob U.
Com a notação do Teorema 12, vamos considerar rapidamente
o caso particular em que o polinômio minimal de T é um produto
de polinômios do primeiro grau, isto é, o caso em que cada p.1 é
·
da forma pi = x - ci. Ora, a imagem de Ei é o núcleo W; de
i
(T - cJr ). Coloquemos D = c1E1 + ... + ckEk. Pelo Teorema 11,
D é um operador diagonalizável que denominaremos a parte diago­
nalizável de T. Consideremos o operador N = T - D. Ora,

T = TE1 + ... + TEk


D = c1E 1 + ... + ckE k

portanto,

A esta altura o leitor já deverá estar suficientemente familiarizado


com projeções, portanto, verá que
284 - ALGEBRA LINEAR

e que, em geral,

N' = (T- ci1)'E1 + . . . + (T - cJ)'Ek.

Quando r ;;::; ri para todo i, teremos N' =O, pois o operador


(T - cJ)' será então O sobre a imagem de E;·

Definição. Seja N um operador linear sobre o espaço vetorial V.


Dizemos que N é nilpotente se existe algum inteiro positivo r tal
que N' =O.

Teorema 13. Seja T um operador linear sobre o espaço vetorial


V de dimensão finita sobre o corpo F. Suponhamos que o polinômio
minimal de T se decomponha sobre F num produto de polinômios
lineares. Então existe um operudor diagonalizável D sobre V e um
operador nilpotente N sobre V tais que
(i) T=D+ N;
(ii) DN ND.=

O operador diagonalizável D e o operador nilpotente N são deter­


minados de modo único por (i) e (ii) e cada um deles é um poli­
nômio em T.
Demonstração. Acabamos de observar que podemos escrever
T =D + N onde D é diagonalizável e N é nilpotente e também
que D e N não só comutam mas também são polinômios em T.
Suponhamos, agora, que também tenhamos T=D'+ N', sendo d'
diagonalizável, N' nilpotente e D'N1= N'D'. Vamos demonstrar
que D =D' e N = N'.
Como D 1 e N' comutam entre si e T =D' + N', vemos que
D' e N' comutam com T. Assim, D1 e N' comutam com qualquer
polinômio em T, logo eles comutam com D e com N. Agora temos

D+ N = D1 + N'
ou
D - D'= N' - N
e todos estes quatro operadores comutam entre si. Como D e D'
são ambos diagonalizáveis e comutam, eles são simultaneamente
diagonalizáveis e D - D' é diagonalizável. Como N e N' são ambos
FORMAS CANÔNICAS ELEMENTARES - 285

nilpotentes e comutam, o operador é nilpotente; com


efeito, usando o fato de que N N'(N' - N)
e comutam

(N' - N)' = ± (�)(N')'-i(-N)i


j=O )

e então quando r for suficientemente grande, todos os termos nesta


expressãç:i de (N' -N)' serão nulos. (Na realidade, um operador
nilpotente sobre um espaço n-dimensional deve ter sua n-ésima
potência nula; no caso acima, se tomamos r = 2n, este número é
suficientemente grande. Decorre então que r = n é suficientemente
grande, mas isto não é evidente a partir da expressão acima.) Ora,
D - D' é um operador diagonalizável que também é nilpotente.
Tal operador tem de ser, obviamente, o operador nulo; de fato,
sendo nilpotente, o polinômio minimal deste operador é da forma
x' para um certo r � m; mas como o operador é diagonalizável, o
polinômio minimal não pode ter uma raiz múltipla, logo r = 1 e
o polinômio minimal é simplesmente x, o que diz que o operador
é nulo. Assim, vemos que D� D' e N = N'.

Corolário. Seja V um espaço vetorial de dimensão finita sobre


um corpo al{?ebricamente fechado F, por exemplo, o corpo dos núme­
ros complexos. Então, todo operador linear T sobre V pode ser
escrito como uma soma de um operador diagonalizável D com um
operador nilpotente N, os quais comutam. Estes operadores D e N
são únicos e são polinômios em T.

Por esses resultados vê-se que o estudo dos operadores lineares


sobre espaços vetoriais sobre um corpo algebricamente fechado fica
essencialmente reduzido ao estudo dos operadores nilpotentes. Para
espaços vetoriais sobre corpos não algebricamente fechados, preci­
samos ainda encontrar algum substituto para valores e vetores
característicos. Um fato interessante é que estes dois problemas
podem ser tratados simultaneamente e é isto o que faremos no
próximo capítulo.
Concluindo esta seção, gostaríamos de dar um exemplo que
ilustre algumas das idéias do teorema da decomposição primária.
Decidimos dá-lo no final da seção porque ele usa equações dife­
renciais, não sendo assim álgebra linear pura.

Exemplo 14. No teorema da decomposição primaria não é


necessário que o espaço vetorial V tenha dimensão finita, nem é
286 - ALGEBRA LINEAR

necessário, para as partes (i) e (ii), que p seja o polinômio minimal


de T. Se T é um operador linear sobre um espaço vetorial arbi­
trário e se existe um polinômio unitário p tal que p(T) = O, então
as partes (i) e (ii) do Teorema 12 são válidas para T com a demons­
tração que fizemos.
Seja n um inteiro positivo e seja V o espaço das funções n
vezes continuamente diferenciáveis f sobre a reta real que satis­
fazem a equação diferencial

(6-18)

onde a0, , an 1 são certos escalares fixos. Se Cn indica o espaçci


• • . _

das funções n vezes continuamente diferenciáveis, então o espaço


V das soluções desta equação diferencial é um subespaço de Cn.
Se D indica o operador derivação e p é o polinômio

então V é o núcleo do operador p(D), pois (6-18) diz simplesmente


que p(D)f =O. Portanto, V é invariante sob D. Consideremos
agora D como um operador linear sobre o subespaço V. Então
p(D) =O.
Se estamos discutindo funções diferenciáveis com valores com-,
plexos, então Cn e V são espaços vetoriais complexos e a0, ... , an 1
_

podem ser quaisquer números complexos. Escrevamos agora

onde cl' ..., ck são números complexos distintos. Se WJ é o núcleo


de (D c/)'i, então o Teorema 12 diz que
-

V = W1$ ... $W,..

Em outras palavras, se f satisfaz a equação diferencial (6-18), então


f pode ser expressa de modo único sob a forma
f =!1 + ... + fk

onde fi satisfaz a equação diferencial (D c/Yii


. O. Assim, o
- =

estudo das soluções da equação (6-18) f ica reduzido ao estudo


do espaço das soluções de uma equação diferencial da forma
FORMAS CANÔNICAS ELEMENTARES - 287

(6-19) (D - cl)'f =O.

Esta redução foi conseguida por meio dos métodos gerais de álge­
bra linear, isto é, pelo teorema da decomposição primária.
Para descrever o espaço das soluções de (6-19), é necessário
saber alguma coisa sobre equações diferenciais, isto é, é necessário
saber alguma coisa a respeito de D além do fato de que D é um
operador linear. No entanto, não se precisa saber muito. É bem
fácil demonstrar por indução sobre r que, se f está em C,, então

(D - cJ)'f =ectD'(e-c'f)

isto é,

df
- cf(t) =e<•� (e-c'f)' etc.
dt dt
Assim, (D - cl)'f =O se, e somente se, D'(e-c'f) =O. Uma função g
tal que D'g =O, isto é, d'g/dt' O, deve ser uma função polinomiãl
=

de grau menor ou igual a (r - 1):

Assim f satisfaz (6-19) se, somente se, f tem a forma

f(t) = e<'(b0 + b1t + . . . + b,_1r-1).

Conseqüentemente, as "funções" e<•, te<•, ... , r-1e<1 geram o espaço


das soluções de (6-19). Como 1, t, ... , t''"'1 são funÇões linearmente
independentes e a função exponencial não possui raízes, estas r
funções tYec•, Osj sr - 1, formam uma base do espaço das soluções.
Voltando à equação diferencial (6-18), que é

p(D)f =O
p = (x - c1 )'1 ... (x - c )'k
k
vemos que as n funções tmecit, Os m s ri - 1, 1 sj s k, formam
uma base do espaço das soluções de (6-18). Em particular, o es­
paço das soluções tem dimensão finita igual ao grau do polinômio p.

Exercicios
1. Seja 1' um operador linear sobre R3 que é representado em relação à base
ordenada canônica pela matriz
.
288 - ALGEBRA LINEAR

1
-3 -2
-1 -2 .
[1! -5 -3

Exprimir o polinômio minimal p de T sob a forma p p1p,, sendo p1 e p2


=

unitários e irredutíveis sobre o corpo dos números reais. Seja W; o núcleo de


p;(I'). Determinar bases @, dos espaços W. e 1-Ji. Se i; é o operador induzido
sobre W. por T, determinar a matriz de i; em relação à base @, (acima).

2. Seja T o operador linear sobre R3 que é representado pela matriz

[; ;
2 2
=n
oj
em relação à base ordenada canônica. Mostrar que existe um operador diago­
nalizável D sobre R3 e um operador nilpotente N sobre R3 tais que T= D+ N
e DN = N D. Determinar as matrizes de D e N em relação à base canônica.
(Basta repetir a demonstração do Teorema 12 para este caso particular.)

3. Se V é o espaço dos polinômios de grau menor ou igual a n sobre um corpo F,


mostrar que o operador derivação sobre V é nilpotente.

4. Seja T um operador linear sobre o espaço V de dimensão finita cujo poli­


nômio característico seja

e cujo polinômio minimal seja

p = (x - c1)" ... (x - )
e, ''.

Seja W. o núcleo de (T - c,Jl''.


(a) Demonstrar que W; é o conjunto dos vetores a em v tais que (T- c,Jra=O
para algum inteiro positivo m (que pode depender de a)
(b) Demonstrar que a dimensão de W. é d,. [Sugestão: Se 1,' é o operador
induzido sobre W; por T, então i; - c,i é nilpotente; assim, o polinômio
característico de i;- c,J deve ser x'', sendo e, a dimensão de W. (demons­
tração?); assim, o polinômio característico de i; é (x - e,)''; agora usar o fato
de que o polinômio característico de T é o produto dos polinômios caracte­
rísticos de i; para mostrar que e,= d,.]

S. Seja V um espaço vetorial de dimensão finita sobre o corpo dos números com­
plexos. Seja T um operador linear sobre J! e seja D a parte diagonalizável
de T. Demonstrar que se g é um polinômio qualquer com coeficientes com­
plexos, então a parte diagonalizável de g(T) é g (D).

6. Seja V um espaço vetorial de dimensão finita sobre o corpo F e seja T um


operador linear sobre V tal que posto (T) l. Demonstrar que ou T é diago­
=

nalizável ou T é nilpotente, não ambos.


FORMAS CANÔNICAS ELEMENTARES - 289

7. Seja V. um espaço vetorial de dimensão finita sobre F e seja T um operador


linear sobre V. Suponhamos que T comute com todo operador linear diago­
nalizável sobre V. Demonstrar que T é um múltiplo escalar do operador
idêntico.

8. Seja V o espaço das n x n matrizes sobre um corpo F e seja A uma n x n


matriz fixa sobre F. Definamos um operador linear T sobre V por T(B) =

= AB - BA. Demonstrar que se A é uma matriz nilpotente, então T é um


operador nilpotente.

9. Dar um exemplo de duas 4 x 4 matrizes nilpotentes que tenham o mesmo


polinômio minimal (elas têm, necessariamente, o mesmo polinômio caracte­
rístico) mas que não sejam semelhantes.

10. Seja T um operador linear sobre o espaço V de dimensão finita, seja


p =p� ', ... , p�k o polinômio minimal de T e seja V W 1 (B . . (B Wk a decom­
= .

posição primária de T, isto é, li:} é o núcleo de PiT)'i. Seja W um subes­


paço qualquer de V que seja invariante sob T. Demonstrar que

W =
(W n W1) Ee (W n W2) E9 ... E9 (W n W.).

11. O que está errado na seguinte demonstração do Teorema 13? Suponhamos


que o polinômio minimal de T seja um produto de fatores lineares. Então,
pelo Teorema 5, .T é triangulável. Seja f!4 uma base ordenada tal que A [T]f!4 =

seja triangular superior. Seja D a matriz diagonal com elementos diagonais


a1., ª··· Então A= D+ N, onde N é estritamente triangular superior.
• • • ,

Evidentemente N é nilpotente.

12. Se você pensou sobre o Exercício 11, pense novamente, após observar o que
.
o Teorema 7 afirma sobre as partes diagonalizável e nilpotente de T.

13. Seja T um operador linear sobre V com polinômio minimal da forma p", sendo
p irredutível sobre o corpo dos escalares. M ostrar que existe um vetor. ex em V
.
tal que o T-anulador de ex seja p".

14. Usar o teorema da decomposição primária e o resultado do Exercício 13 para


demonstrar o seguinte: Se T é um operador linear arbitrário sobre um espaço
vetorial V de dimensão finita, então existe um vetor cx em V cujo T-anulador
é igual ao polinômio minimal de T.

15. Se N é um operador linear nilpotente sobre um espaço vetorial n-dimensional V,


então o polinômio característico de N é x".
Capítulo 7

AS FORMAS RACIONAL E DE JORDAN

7.1 Subespaços Cíclicos e Anuladores

Uma vez mais V é um espaço vetorial de dimensão finita sobre


o corpo F e T é um operador linear fixo (mas arbitrário) sobre V.
Se a é um vetor qualquer em V, existe um menor subespaço de T
que é invariante sob T e contém a. Este subespaço pode ser defi­
nido como a interseção de todos os subespaços T-invariantes que
contêm a; contudo, é mais proveitoso no momento considerarmos
as coisas de outra maneira. Se W é um subespaço arbitrário de V
que seja invariante sob T e contenha a, então W deve conter o
vetor Ta; portanto, W deve conter T(Ta) = T2a, T(T2r:t.) = T3a etc.
Em outras palavras, W deve conter g (T)a para todo polinômio g
sobre F. O conjunto dos vetores da forma g (T)a, com g em F[x]
é evidentemente invariante sob T e é assim o menor subespaço
T-invariante que contém a.

Se a é um vetor qualquer em V, o subespaço T-cíclico


Definição.
gerado por é o subespaço Z(a: T) dos vetores da forma g (T)r:t., g
a

em F[x]. Se Z(a; T) =V, então a é denominado um vetor cíclico


de T.
Outra maneira de descrever o subespaço Z(a; T) é dizer que
Z(r:t.; T) é o subespaço gerado pelos vetores ra, k;;::: O, e assim
a é um vetor cíclico de T se, e somente se, estes vetores geram V.
Prevenimos o leitor de. que um operador genérico T não possui
vetores cíclicos.

Exemplo 1. Para T arbitrário, o subespaço T-cíclico gerado


pelo vetor nulo é o subespaço nulo. O espaço Z(a; T) é unidimen­
sional se, e somente se, a é um vetor característico de T. Para o
operador· idêntico, todo vetor não-nulo gera um subespaço cíclico
unidimensional; assim, se dim V> 1, o operador idêntico nãu
AS FORMAS RACIONAL E DE JORDAN - 291

possui nenhum vetor cíclico. Um exemplo de um operador que


possui um vetor cíclico é o operador linear T sobre F2 que é repre­
sentado em relação à base ordenada canônica pela matriz

[� �].
Neste caso o vetor cíclico (um vetor cíclico) é e1; de fato , se
f3 = ( a, b), então, para g =a+ bx, temos f3 = g(T)e1• Para este
mesnio operador T, o subespaço cíclico gerado por a2 é o espaço
unidimensional gerado por e2, porque 82 é um vetor caracte­
rístico de T.
Para quaisquer T e oc, estaremos interessados em relações
lineares

entre os vetores Tia, isto é, estaremos interessados nos polinômios


g =c0 + c1x + ... + ckxk que tenham a propriedade de que g(T)oc =O.
O conjunto dos g em F[x] tais que g(T)oc =O é evidentemente
um ideal em F [ x]. É também um ideal não-nulo, pois contém o
polinômio minimal p do operador T(p(T) oc =O para todo oc em V).

Definição. Se oc é um vetor arbitrário em V, o T�anulador de oc


é o ideal M(oc; T) em F[x] formado pelos polinômios g sobre F tais
que g(T)oc =O. O único polinômio unitária Pa que gera este ideal
também será denominado o T-anulador de oc.
Como ressaltamos acima, o T-anulador. Pa divide o polinômio
minimal do operador T. O leitor deverá notar também que
gr(pª) >O a não ser quando oc é o vetor nulo.
Teorema 1. Seja oc um vetor não nulo arbitrário em V e seja Pa
o T-anulador de oc.
(i) O grau de Pa é igual à dimensão do subespaço cíclico
Z(oc; T).
(ii) Se o grau de Pa é k, então os vetores �. Toe, T2oc, ..., Tk- loc
formam uma base de Z(oc; T).
(iii) Se U é o operador linear sobre Z(oc; T) induzido por T,
então o polinômio minimal de U é Pa·
Demonstração. Seja g um polinômio qualquer sobre o corpo F.
Podemos escrever
292 - ALGEBRA LINEAR

g = Pa.q + r

onde r =O ou gr(r) < gr(pa.) = k. O polinômio pa.q está no T-anu­


lador de ex, portanto
g(T)ex = r(T)ex.

Como r =O ou gr(r) < k, o vetor r(T)ex é uma combinação linear


dos vetores ex, Tex, ... , yk-lex e como g(T)ex é um vetor típico em
Z(ex; T) isto mostra que estes k vetores geram Z(ex; T). ·.Estes veto­
res são, sem dúvida, linearmente independentes, pois toda relação
linear não-trivial entre eles nos forneceria um polinômio não-nulo
g tal que g(T)ex =O e gr(g) < gr(pa.), o que é absurdo. Isto demons­
tra (i) e (ii).
Seja U o operador linear sobre Z(ex; T) obtido pela restrição
de T àquele subespaço. Se g é um polinômio arbitrário sobre F,
então

Pa.(U) g(T)ex = Pa.(T)g(T)ex


= g(T)pa.(T)ex
= g(T)O
=Ü.

Assim, o operador Pa.(U) leva todo vetor de Z(a; T) em O e é, por­


tanto, o operador nulo sobre Z(ex; T). Além disso, se h é um poli­
nômio de grau menor que k, não podemos ter h(U) =O, pois então
h(U)ex = h(T)ex =O, contrariando a definição de Pa.· Isto mostra
que Pa. é o polinômio minimal de U.
Uma conseqüência particular deste teorema é a seguinte: Se
acontecer que ex seja um vetor cíclico de T, então o polinômio mi­
nimal de T deve ter grau igual à dimensão do espaço V; daqui de­
corre, pelo teorema de Cayley-Hamilton, que o polinômio minimal
de T é o polinômio característico de T. Demonstraremos poste­
riormente que para todo T existe um vetor ex em V cujo anulador
é o polinômio minimal de T. Decorrerá então que T possui um
vetor cíclico se, e sómente se, os polinômios minimal e caracte­
rístico de T são idênticos. Mas teremos algum trabalho para che­
garmos a ver isto.
Nosso plano é estudar um T arbitrário usando operadores que
possuam um vetor cíclico. Portanto, consideremos um operador
linear U sobre um espaço W de dimensão k que possua um vetor
cíclico ex. Pelo Teorema 1, os vetores ex, ... , uk-1ex formam uma
AS FORMAS RACIONAL E DE JORDAN - 293

base do espaço W e o anulador . pa de rx é o polinômio �inimal de


·

U (logo, é também o polinômio característico de U). Se fizermos


rx. = ui-1rx, i = 1, . , k, então a ação de U sobre a base ordenada
. .

�= {IX1 , : • •
, rxk} é

u !Xi = !Xi+ 1, . ' k - 1


i = . .

(7-1) l'
Urxk = -corx1 - C11X2 - ... - ck-1rxk

k k
onde Pa=c0+c1x+ ...+ck_1x -1+x . A expressão de Urxk de­
corre do fato de que pª(U)rx=O, isto é,

Isto diz que a matriz de U em relação à base ordenada f!J é

o o o
1 o o
o 1 o
(7-2)

o o o

A matriz (7-2) é denominada a matriz


. associada ao polinômio uni-
tário 'Pa·

Teorema 2. Se U é um operador linear sobre o espaço de W


dimensão finita, então U possui um vetor cíclico se, e somente se,
existe alguma base ordenada de W em relação à qual U é represen­
tado pela matriz associada ao polinômio minimal de U.
Demonstração. Acabamos de observar que se U possui um
vetor cíclico, então existe uma tal base ordenada de W Reciproca­
mente, se existe uma base ordenada {rxl' .... , rxk} de W em relação
à qual U é representado pela matriz associada ao seu polinômio
minimal, é óbvio que rx1 é um vetor cíclico de U.

Corolário. Se A é a matriz associada a um polinômio unitário p,


então p é tanto o polinômio minimal como o polinômio caracte­
rístico de A.
Demonstração. Uma maneira de ver isso é indicar por U o
k
operador linear sobre F representado pela matriz A, em relação
à base ordenada canônica e aplicar o Teorema 1 juntamente com
294 - ALGEBRA LINEAR

o teorema. de Cayley-Hamilton. Um outro método é usar o


Teorema .1 para ver que p ft ó polinômio minimal de A e verificar,
por um cálculo direto, que p é o polinômio caracterÍstico de A..
Um último comentário - se Té um operador linear arbitrário
sobre o espaço V e a é um vetor qualquer em V, então o operador
U que T induz sobre o subespaço cíclico Z(a; T) possui um vetor
cíclico, a saber, a. Assim, Z(a; T) possui uma base ordenada em
relação à qual U é representado pela matriz associada a p,,, sendo
P,, o T-anulador de a.

Exercícios

1. Seja T um operador linear sobre F2. Demonstrar que todo vetor não-nulo
que não seja um vetor característico de T é um vetor cíclico de T. Depois,
demonstrar que ou T possui um vetor cíclico ou então T é um múltiplo escalar
do operador idêntico.

2. Seja T o operador linear sobre R3 que é rep'resentado em relação à base orde­


.nada canônica pela matriz

[2o o2
o o '�].
-1
Demonstrar que T não possui vetores cíclicos. Qual é o subespaço T-cíclico
gerado pelo vetor (1, -1, 3)?

3. Seja T o operador linear sobre C3 que é representado em relação à base


ordenada canônica pela matriz

[-i i !J -

Determinar o T-anulador do vetor (1, O, O). Determinar o T-anulador de (1, O, i).

4. Demonstrar que se T2 possui um vetor cíclico, então T possui um vetor


cíclico. A recíproca é verdadeira?

5. Seja V um espaço vetorial n-dimensional sobre o corpo F e seja N um ope­


rador linear nilpotente sobre V. Suponhamos que N"-1 ·t'Oe seja ex um vetor
arbitrário em V tal que N"-1ex '#O. Demonstrar que ex é um vetor cíclico
de N. Dizer exatamente qual é a matriz de N em relação à base ordenada
{ex, Nex, ··:• N"-1ex}?

6. Demonstrar diretamente que se A é a matriz associada ao polinômio unitá­


rio p, então p é o polinômio característico de A.
AS FORMAS RACIONAL E DE JORDAN - 295

7. Seja V um espaço vetorial n-dimensional e seja T um operador linear sobre V.


Suponhamos que T seja diagonaUzável.

(a) Se _T possui um vetor cíclico, mostrar que _T possui n-valores caracte­


rísticos distintos.
(b) Se T possui n valores característicos distintos e se {ext> ..,.,ex"} é_ uma base
formada de vetores característicos de T, mostrar que ex= ex!> + · · : +ex" é_ um
vetor cíclico de T.

8. Seja T um operador linear sobre o espaço vetorial V de dimensão finita.


Suponhamos que T possua um vetor cíclico. Demonstrar que se U é_ um
operador linear arbitrário que comuta com T, então U é um polinômio em T.

7.2 Decomposições Cíclicas e a Forma Racional


O objetivo primordial desta seção é demonstrar que se Té um
operador linear qualquer sobre V, então existem vetores al' , .. , a,
em V tais que

V= Z(a1; T) $ ... $ Z(a,i T).

Em outras palavras, desejamos demonstrar que Vé a soma direta


de subespaços T-cíclicos. Isto nos mostrará que Té a soma direta
de um número finito de operadores lineares, cada um dos quais
possui um vetor cíclico. O resultado disto será a redução de muitos
problemas relativos a um operador genérico a problemas seme­
lhantes sobre um operador que possua um vetor cíclico. O teorema
que vamos demonstrar (Teorema 3) ·é um dos resultados mais pro­
fundos da álgebra linear e possui muitos corolários interessantes.
O teorema da decomposição cíclica está intimamente relacio­
nado com a seguinte questão: quais subespaços W T-invariantes
possuem a propriedade de que exista um subespaço W1 T-invariante
tal que V= WEB W'? Se W é um subespaço arbitrário de um es­
paço V de dimensão finita, então existe um subespaço W' tal que
V= W$ W'. Usualmente existem muitos desses subespaços W' e
cada um deles é denominado um suplementar de W. Estamos per­
guntando quando é que um subespaço T-invariante possui um
subespaço suplementar que também seja invariante sob T.

Suponhamos que V= W $ W', onde W e W' são ambos inva­


riantes sob Te vejamos o que é possível dizer a respeito do subes­
paço W. Cada vetor /3 em V é da forma f3 = y + y', com y em W e
y' em W'. Se fé um polinômio sobre o corpo de escalares, então
'
f(T)/3 = f(T)y + f(T)y .
296 - ALGEBRA LINEAR

Como W e W' são invariantes sob T, o vetor f(T)y está em W e


f(T)y' está em W1• Portanto, f(T)/3 está em W se, e somente se,
f(T)y' =O. O que nos interessa é o fato, aparentemente inocente,
de que se f(T)/3 está em W, então f(T){J =f(T)y.

Definição. Seja T um operador linear sobre um espaço vetorial


V e seja W um subespaço de V. Dizemos que W é T-admissível se
(i) W é invariante sob T;
(ii) se f(T){J está em W1 existe um vetor y em W tal que
f(T) f3 =f(T) y.
Como acabamos de mostrar, se W for invariante e tiver um
subespaço suplementar invariante, então W será admissível. Uma
das conseqüências do Teorema 3 será a recíproca dessa afirmação,
de modo que a propriedade de ser admissível caracterizará aqueles
subespaços invariantes que possuam subespaços suplementares inva­
riantes.
Vejamos como a propriedade de ser admissível se envolve na
tentativa de obtermos uma decomposição

O processo básico para chegarmos a uma tal decomposição será


o de selecionar indutivamente os vetores IXl' ... , IX,. Suponhamos
que por um processo ou outro tenhamos escolhido a1, ..., ai e que
o subespaço

seja próprio. Gostaríamos de encontrar um vetor não-nulo IXi+ 1


tal que

»} n Z(1X1+1; T)= {O}


pois nesse caso o subespaço ltJ+1 = »JE9Z(1Xi+1; T) se aproximará,
de pelo menos mais uma dimensão, ao ponto de esgotar V. Mas
por que deverá existir um IXi+l nessas condições? Se a1, IXi foram
• . . ,

escolhidos de modo que »] seja um subespaço T-admissível, é bas;


tante fácil ver que podemos encontrar um ªi+ 1 conveniente. E
esse fato que fará funcionar nossa demonstração do Teorema 3,
apesar de não ser assim que iremos formular o argumento.
Seja W um subespaço próprio T-invariante. Tentemos encon­
trar um vetor não-nulo IX tal que
AS FORMAS RACIONAL E DE JORDAN - 297

(7-3) W n Z(1X; T) = {O}.

Podemos escolher um vetor f3 que não esteja em W. Consideremos


o T-condutor S({3; W), formado de todos os polinômios g tais
que g(T)/3 esteja em W. Recordemos que o polinômio unitário
f= s(f3; W), que gera o ideal S(f3; W) também é denominado o
T-condutor de f3 em W O vetor f(T)IJ está em W. Ora, se W
é T-admissível, existe um y em Wcomf(T)f3 =f(T)y. Seja IX= {3-y
e seja g um polinômio arbitrário. Como f3 ix está em W, g(T)f3
-

estará em W se, e somente se, g(T)IX estiver em W; em outras


palavras, S(IX; W)= S(f3; W). Portanto, o polinômio f é também
um T-condutor de IX em W. Mas f(T)IX =O. Isso nos diz que g(T)IX
estará em W se, e somente se, g(T)IX =O, isto é, os subespaços
Z(IXi T) e W são independentes (7-3) e f é o T-anulador de IX.

Teorema 3 (Teorema da Decomposição Cíclica). Seja T um


operador linear sobre um espaço veto.ria[ V de dimensão finita e seja
W0 um subespaço próprio T-admissível de V. Então existem veto.res
não-nulos IX1' ... , IX r em V com respectivos T-anulado.res p1, ... , p r
tais que
(i) V= W0 Ef> Z(1X1; T)© ... © Z{IX,� T)j
(ii) pk divide pk 1, k = 2, .. . , r.
_

Além disso, o intei.ro r e os anulado.res p 1' ... , p, são determi­


nados de modo Único por (i), (ii) e pelo fato de ciue nenhum IXk é nulo.
Demonstração. A demonstração é bastante longa; por isso nós
a dividiremos em quatro partes. Numa primeira leitura será mais
simples tomarmos W0 { O} apesar de que esse fato não produza
=

nenhuma simplificação substancial. Ao longo da demonstração


escreveremos f f3 no lugar de f( T){3.
Primeira parte. Existem vetores não-nulos {31' ... , /3, em V tais
que
(a) V = W0 + Z(/31; T) + ... + Z(/3,; T);
(a) se 1 s k s r e

Wk = W0 + Z({31;T) + ... + Z(f3k;T),


o condutor pk s(f3k; Wk_1) tem grau máximo entre todos os T-con­
=

dutores no espaço wk-1' isto é, para cada k

gr(pk) = máx. gr (s (IX ; W k-1)).


a: em V
298 - ALGEBRA LINEAR

Esta parte depende somente do fato de que W0 é um subespaço


invariante. Se W é um subespaço próprio T-invariante, então

O < máx. gr(s(ll(;


,
W)) s dim V

e podemos escolher um vetor f3 de modo que gr(s(/3; W )) atmJa


esse máximo. O subespaço W + Z(/3; T) é então T-invariante e
possui dimensão maior que dim W. Apliquemos esse processo a
W = W0 para obter /31. Se W1= W0 + Z (/3 1 ; T) é ainda próprio,
então apliquemos o processo a W1 para obter /32• Continuemos
dessa maneira. Como dim aj. > dim aj._ 1' devemos obter W, V =

em, no máximo, dim V passagens.


Segunda parte. Sejam {31, ... , /3, vetores não-nulos satisfazendo
·

as condições (a) e (b) da primeira parte. Fixemos k, 1 sk sr. Seja


f3 um vetor arbitrário de V e seja f= s(f3; Wk_1). Se

,;k1,; i

então f divide cada polinômio g; e /30= fy0 com '}'0 em W0.


Se k = 1 estamos afirmando exatamente que W0 é T-admissível.
Para provar a afirmação para k > 1, apliquemos o algoritmo da
divisão:

(7-4) ri = O ou gr r; < gr f.

Queremos mostrar que ri= O para cada i. Seja


k-1
(7-5) '}' = f3 - . I h;/3;
1
Como y - f3 está em Wk_1,

Além do mais

k-1
(7-6) ÍI' = f3o + L rif3i.
1

Sll;ponhamos que algum r; seja diferente de zero. Mostraremos


que isso nos conduzirá a uma contradição. Seja j o maior índice i
para o qual ri =I= O. Então
AS FORMAS RACIONAL E DE JORDAN - 299

j
(7-7) fy =/30 + L r;/3;, ri =I O e gr r i < gr f.

Seja· p = s(y; Wi_1). Como Wk_1 contém Wi-1' o condutor


f =s(y; Wk_1) necessariamente divide p :
p =fg.

Apliquemos g(T) a ambos os membros de (7-7):

(7-8) PY =g fy =grA + gf3o + L gr;f3;·


1-:S;i<j

Por definição, py está em UJ_ 1 e os dois últimos termos no


segundo membro de (7-8) estão em UJ_ 1. Portanto, grif3i está em
UJ- 1 Usemos agora a condição (b) da primeira parte:
.

gr (gr) 2::: gr s ( f3i; UJ_1)


=
gr pi
2::: gr s(y; UJ_1)
gr P
gr (fg).

Assim, gr (r) 2::: gr(f) e isso contradiz a escolha de j. Sabemos


agora que f divide cada g; e, portanto, que /30 fy. Como W0 é =

T-admissível, {30 =fy0 com y0 em W0• Observemos, de passagem,


que a segunda parte é uma forma mais forte da afirmação de que
cada um dos subespaços W1, W2, ••• , W, é T-admissível.
Terceira parte. Existem veto.res não-nulos ixl' . • . , ix
,
em V que
satisfazem as condições (i) e (ii) do Teorema 3.
Comecemos com os vetores /31, ••. , /3, como na primeira parte.
Fixemos k, 1 :::;; k :::;; ,r. Apliquemos o resultado da segunda parte ao
vetor /3 Pk e ao T-condutor f =pk. Obteremos
=

(7-9) Pkf3k =PkYo + L k pkh;/3;


1 <i <

onde y0 está em W0 e hp ... , hk-l são polinômios. Seja

(7-10)
300 - ALGEBRA LINEAR

Como /3k - CY.k está em Wk-1'

(7-11)

(7-12)

Cada CY.k satisfaz (7-11) e (7-12). Segue-se que

e pk é o T-anul.ador de CY.k. Em outras pal.avras, os vetores CY.1' • • • , CY.,


definem a mesma seqüência de subespaços wl' w2' ... que os ve­
tores /31' . . . , /3, e OS T-condutores pk=S(CY.k, Wk_1) possuem as
mesmas propriedades de maximalidade (condição (b) da primeira
parte). Os vetores CY.1, • . . , CY., possuem a propriedade adicional de
que os subespaços W0, Z(CY.1; T), Z(CY.2; T), ... são independentes.
É portanto fácil verificar a condição (ii) do Teorema 3. Como
piCY.i=O para cada i, temos as relações triviais

Apliquemos o resultado da segunda parte, com CY. 1, ... , CY.k no lugar


de /31, . • • , /3k e /3 = ak. Conclusão: pk divide cada pi com i < k.
Quarta parte. O número r e os polinômios p1, , P, • . . são deter­
minados de modo único pelas condições do Teorema 3.
Suponhamos que al.ém dos vetores CY.p • • • , CY., do Teorema 3,
tenhamos os vetores não-nulos y1, • . . , y•' com respectivos T-anula-
dores g1, , g., tais que
·

• . •

V= W0 EB Z(y1; T) EB . EB Z(y.; T) . .

(7-13)
gk divide gk_1, k 2, .. ., s. =

Mostraremos que r = s e pi= gi para cada i.

É muito fácil ver que p1 = g 1. O polinômio g 1 é determinado


a partir de (7-13), como o T-condutor de V em W0. Seja S(V; W0)
a coleção dos polinômios f tais que f/3 esteja em W0 para todo f3
em V, isto é, polinômios f tais que a imagem de f(T) esteja con­
tida em WQ. Então S(V; W0) será um ideal não nulo da álgebra
AS FORMAS RACIONAL E DE JORDAN - 301

dos polinômios. O polinômio g1 é, pela mesma razão, o gerador


unitário desse ideal. Cada f3 em V tem a forma

e, assim,
s

gifJ= gif3o + L1 gJtri·

Como cada gi divide gl' temos g1yi=0 para todo i e g1{3=g1{30


está em W0. Logo, g1 está em S(V; W0). Como g1 é o polinômio
unitário de menor grau que leva y1 em W0, vemos que g1 é o poli­
nômio unitário de menor grau no ideal S(V; W0). Pelo mesmo
argumento, p1 é o gerador desse ideal, logo p1 g1. =

Se f é um polinômio e W um subespaço de V, indicaremos


abreviadamente por f W o conjunto de todos os vetores fa com a
em W. Deixaremos como exercício a demonstração dos seguintes
três fatos:

1. f Z(a; T) = Zifa; T).


2. Se V= V1 EB ... EB V,,, onde cada Y; é invariante sob T, então
f V=f V1 EB ... EB! V,,.
3. Se a e y tiverem o mesmo T-anulador, então fa e fy terão
o mesmo T-anulador e (portanto)

dim Z(fa; T) = dim Z(fy; T).

Procederemos, agora, por indução, mostrando que =s e


r

pi=gi para i = 2, ... , r. O argumento consistirá em contar dimen­


sões de maneira apropriada. Demonstraremos que se r � 2, então
p2=g2 e a partir disso, a indução tornar-se-á clara. Suponhamos
r � 2. Então

dim W0 + dim Z(a.1; T) < dim V.

Como sabemos que p1 gl' saberemos também que Z(a.1; T) e


=

Z( y1; T) têm a mesma dimensão. Portanto,


dim W0 + dim Z(y1; T) < dim V

mostrando que s � 2. Agora tem sentido perguntarmos se p2=g 2.


Dás duas decomposições de V, obtemos duas decomposições do
subespaço p2V:
302 - ALGEBRA LINEAR

P2 V P2Wo EB Z(p2 0:1 ; T)


(7-14)
=

p V = p2W0 EB Z(p2y1; T) EB ... EB Z(p2y.; T).


2

Fizemos uso dos fatos (1) e (2) acima e também do fato de que
p2o: ; = O, i � 2. Como sabemos que p1 91' o fato (3) acima nos
=

diz que Z(p2o:1; T) e Z(p2y1; T) têm a mesma dimensão. Portanto,


usando (7-14) vemos que

i � 2.

Concluímos que p2y2 =O e 92 divide p 2. O argumento pode ser


invertido para mostrar que p2 divide g2• Portanto, p2 92. =

Corolário. Se T é um operador linear sobre um espaço vetorial


de dimensão finita, então todo subespaço T-admissível possui um
subespaço suplementar que também é invariante sob T.

Seja W0 um subespaço admissível de V Se


Demonstração.
W0 =
o suplemento que procuramos é {O}. Se W0 é próprio,
V
,

Apliquemos o Teorema 3 e seja

W'0 = Z(o:1; T) EB ... EB Z(o:,i T).

Então W� é invariante sob T e V = W0 EB W�.

Corolário. Seja T um operador linear sobre um espaço vetorial V


de dimensão finita. Então:
(a) Existe um vetor o: em V tal que o T-anulador de o: seja o
polinômio minimal de T.
(b) T possui um vetor cíclico se, e somente se, os polinômios
característico e minimal de T são idênticos.

Demonstração. Se V = {O}, os resultados são trivialmente ver­


dadeiros. Se V:;6 {O}, seja

(7-15) V= Z(o:1; T) EB ... EB Z(o:,; T)

onde os T-anuladores p1, .. .', p, são tais que Pk+l divida pk ,

1 ::; k ::; r l. Como observamos na demonstração do Teorema 3,


-

segue-se facilmente que P; é o polinômio minimal de T, isto é, o


T-condutor de V em {O}. Assim demonstramos (a).
AS FORMAS RACIONAL E DE JORDAN - 303

Vimos na Seção 7.1 que, se T possui um vetor cíclico, o poli­


nômio minimal de T coincide com o polinômio característico. O
conteúdo de (b) está na recíproca. Escolhamos um ex arbitrário
como em (1). Se o grau do polinômio minimal for dim V, então
V= Z(cx; T).
Teorema 4 (Teorema generalizado de Cayley-Hamilton). Seja
T um operador linear sobre um espaço vetorial V de dimensão finita.
Sejam p e f, respectivamente, os polinômios minimal e característico
de T. Então
(i) p divide f.
(ii) p e f possuem os mesmos fatores primos a menos de multi­
plicidades.
(iii) Se

(7-16) p = Fi.1 . . . �k

é a decomposição em fatores primos de p, então

(7-17) f = f�· . . . f�k

onde di é a nulidade de fi(T)'i dividida pelo grau de fi.

Demonstração. Ignoraremos o caso trivial V= {O}. Para de­


monstrar (i) e (ii) consideremos a decomposição cíclica (7-15) de V,
obtida do Teorema 3. Como observamos na demonstração do
segundo corolário, Pi=p. Seja U; a restrição de T a Z(cx;; T).
Então U; possui um vetor cíclico e assim p�é tanto o polinômio
minimal como o polinômio característico de U;. Portanto, o poli­
nômio característico fé o produto f =P i ... Pr· Issoé evidente a
partir da forma em blocos (6-14) que a matriz de T assume em
relação a uma base conveniente. Obviamente, Pi= p divide f e
isso demonstra (i). É claro que qualquer divisor primo de pé um
divisor primo de f Reciprocamente, um divisor primo de f=pi . . . p,
divide, necessariamente, um dos fatores P;, que por sua vez divide p1•

Seja (7-16) a decomposição em fatores primos de p. Apliquemos


o teorema da decomposição primária (Teorema 12 do Capítulo 6).
- · ·

Ele afirma que se V;é o núcleo de f;(T)';, então

(7-18) V =ViEB ... EBV,,


304 - ALGEBRA LINEAR

i
e n é o polinômio minimal do operador r;, obtido pela restrição
de T ao subespaço (invariante) v;. Apliquemos a .parte (ii) deste
teorema ao operador r;. Como seu polinômio minimal é uma
potência do polinômio primo J;, o polinômio característico de r;
tem a forma fti , com d;� ri. Obviamente

dim v;
d.=
' gr (!;)
i
e (quase por definição) dim Vi= nulidade fi(T)' . Como T é a soma
direta dos operadores T1, , Yic, o polinômio característico f é o
. . •

produto

Corolário. Se T é um operador linear nilpotente sobre um es­


paço vetorial de dimensão n, o polinômio característico de T é xº.
Observamos agora o análogo matricial do teorema de decom­
posição cíclica. Se temos o operador T e a decomposição em soma
direta do Teorema 3, seja !!Ã; a "base ordenada cíclica"

de Z(cti; T). Aqui ki indica a dimensão de Z(cti; T), ou seja, o grau


do anulador pi. A matriz do operador induzido r; em relação à
base ordenada !!Ã; é a matriz associada ao polinômio P;· Assim, se
!!Ã é a base ordenada de V obtida pela reunião das f!Ji, ordenadas
como f!J 1' . , !!Ã,, então a matriz de
. . T em relação à base orde­
nada !!Ã será

A1 o o
o A2 o

(7 1 9 )
-
A=

o o A,

onde Ai é a k; x k; matriz associada a P;· Diremos que uma n x n


matriz A, que seja a soma direta (7-19) das matrizes associadas a
polinômios não-constantes e unitários_ p 1, • • • , p, tais que P;+ 1
divide pi para i= 1, . . . ,r - 1, está sob a forma racional. O teorema
da decomposição cícllca nos diz o seguinte em relação a matrizes:
AS FORMAS RACIONAL E DE JORDAN - 305

Teorema 5. Seja F um corpo e seia B uma n X n matriz sobre F.


Então B é semelhante sobre o corpo F a uma e somente a uma matriz
sob a farma racional.

Demonstração. Seja To operador linear sobre F" que é repre­


sentado por B em relação à base ordenada canônica. Como acaba­
mos de observar, existe alguma base ordenada de F" em relação à
qual T é representado por uma matriz A sob a forma racional.
Então B é semelhante a esta matriz A. Suponhamos que B seja
semelhante sobre F a uma outra matriz C que esteja sob a forma
racional. Isto significa simplesmente que existe alguma base orde­
nada de F" em relação à qual o operador T é representado pela
matriz C. Se C é a soma direta das matrizes C; associadas a poli­
nômios unitários gl' ... , gs tais que g;+i divida g; para i = 1, .. , .

1 então é evidente que teremos vetores não-nulos {3 , ... , P. em


s -
1
V com T-anuladores gl' ..., gs tais que

V = Z({31; T) EB ... EB Z(fJ.; T).

Mas então, pela afirmação da unicidade no teorema da decompo­


sição cíclica, os polinômios g; são idênticos aos polinômios P; que
definem a matriz A. Assim, C = A.
Os polinômios p 1, · ·,· , p, são denominados fatore� invariantes
da matriz B. Na Seção 7.4 descreveremos um algoritmo que per­
mite calcular os fatores invariantes de uma matriz B dada. O fato
de que é possível calcular esses polinômios por meio de um número
finito de operações racionais sobre os elementos de B, é que dá
às formas racionais o seu nome.

Exemplo 2. Suponhamos que V seja um espaço vetorial bidi­


mensional sobre o corpo F e T seja um operador linear sobre V.
As possibilidades para a decomposição de Tem subespaços cíclicos
bastante limitadas. De fato, se o polinômio minimal de T tem
grau 2, ele é igual ao polinômio característico de Te T possui um
vetor cíclico. Assim, existe uma base ordenada de V em relação à
qual T é representado pela matriz associada ao seu polinômio
característico. Se, por outro lado, o polinômio minimal de T tem
grau 1, então T é um múltiplo escalar do operador idêntico. Se
T =e!, então para dois quais vetores linearmente independentes
IX1 e a2 em V, temos
306 - ALGEBRA LINEAR

P1 = P2 = x - e.

Para matrizes, esta análise diz que toda 2 x 2 matriz sobre o corpo
F é semelhante sobre F a exatamente uma matriz dos tipos

Exemplo 3. Seja T o operador linear sobre R3 que é represen­


tado pela matriz

-6
- � -�]
-4

em relação à base ordenada canônica. Como já calculamos ante­


2
riorinerite, o polinômio característico de T é!-,;,; (x - 1) (x 2) e o -

polinômio minimal de T é p =(x - 1) (x - 2). Assim, sabemos que


na decomposição cíclica de T o T-anulador do primeiro vetor a1
será p. Como estamos operando num espaço tridimensional, só
pode existir mais um vetor, a2• Este vetor deve gerar um subespaço
cíclico de dimensão 1, isto é, deve ser um vetor característico de T.
O seu T-anul.ador p2 deve ser (x 2), porque devemos ter pp2 = f.
-

Notemos que isto nos diz imediatamente que a matriz A é seme­

[� º]
lhante- à matriz

-2
B = 3 o
o o 2

ou seja, que T é representado por B em relação a uma certa base


ordenada. Como podemos encontrar vetores adequados a1 e a2?
Bem, sabemos que todo vetor que gera um subespaço T-cíclico de
dimensão 2 é um a1 adequado. Portanto, experimentamos e1• Temos

Te1 = (5, - 1, 3)

que não é múltiplo escalar de e1; logo Z (e1; T) tem dimensão 2.


Este espaço consiste dos vetores a e-1 + b(Te1):

a(l1 O� O) + b(51 -11 3) =(a + 5b1 -b1 3b)


AS FORMAS RACIONAL E DE JORDAN - 307

ou seja, todos os vetores (x1, x2, x3) que satisfazem x3 = - 3 x2• O


que desejamos agora é um vetor a2 tal que Ta2 = 2a2 e Z(a2; T)
seja disjunto de Z(a1; T). Como a2 deve ser um vetor caracterís­
tico de T, o espaço Z(a2; T) será simplesmente o espaço unidi­
mensional gerado por a2 e então o que exigimos é que a2 não esteja
em Z(a1; T). Se a= (xp x2, x3 ), pode-se calcular facilmente que
Ta= 2a se, e somente se, x1= 2 x2 + 2x3. Assim, a2= (2, 1, O) satis­
faz Ta2= 2a2 e gera um subespaço T-cíclico disjunto de Z(e1; T).
O leitor deverá verificar diretamente que a matriz de Tem relação
à base ordenada

{(1, O, O), (5, -1, 3), (2, 1, O)}

é a matriz B acima.

Exemplo 4. Suponhamos que T seja um operador linear diago­


nalizável sobre V. É interessante relacionar uma decomposição
cíclica de T com uma base que diagonaliza a matriz de T. Sejam
cl' ... , ck valores característicos distintos de T e seja v; o espaço
dos vetores característicos associado ao valor característico ci. Então

e se di = dim v;, então

é o polinômio característico de T. Se a é um vetor em V, é fácil


relacionar o subespaço cíclico Z(a; T) com os subespaços Vl' .. . , Vk.
Existem vetores {31, ... , {3k determinados de modo único, tais que
{3i esteja em vi e

(7-20)

para todo polinômio f. Dados escalares arbitrários t 1' ... , tk existe


um polinômio f tal que f (e;)= ti, 1 :::;; i:::;; k. Portanto, Z(a; T) é
308 - ALGEBRA LINEAR

exatamente o subespaço gerado pelos vetores {31' ... , f3k. Qual é o


anulador de a? De acordo com (7-20) temos f (T)a =O se, e so­
mente, se f(c;)f3i =Ü para cada i. Em outras palavras, f(T)a =0
desde que f (e;)= O para cada i tal que f3i ,p O. Conseqüentemente,
o anulador de a é o produto

(7-21 ) n (x - cJ
/JitO
i
Seja !!li= {/3 l' . '. . , f3�J uma base ordenada de v;. Seja

r = máx. di.
i

Definamos os vetores a1, ... , a, poí:

(7-22) ªj = I: /3� 1 sj sr.


(J. (?..i

O subespaço cíclico Z(aj ; T) é o subespaço gerado pelos vetores


/3j quando i tomar aqueles valores para os quais di �j. O T-anu­
lador de ai é

(7-23) Pj = TI (x - cJ
d(?:j
Temos

pois cada f3J pertence a um, e somente um, dos subespaços Z(a1; T),
.. . , Z(a1; T) e ffi=(ffll' . . . , PJk) é uma base de V. Por (7-23), Pj+i
divide Pr

Exercícios

1. Seja T o operador linear sobre F2 que é representado em relação à base orde­


nada canônica pela matriz

Seja lX1 = (0, 1). Mostrar que F2 # Z(tX1; T) e que não existe nenhum vetor
não-nulo tX2 em F2 tal que Z(tX2; T) seja disjunto de Z(tX1; T).

2. Seja .T um operador linear sobre o espaço V de dimensão finita e seja R a


imagem de T.
AS FORMAS RACIONAL E DE JORDAN - 309

(a) Demonstrar que R possui um subespaço suplementar T-invariante se, e


somente se, R é disjunto do núcleo N de .T.
(b) Se R e N são disjuntos, demonstrar que N é. o único subespaço T-inva­
riante que é um suplementar de R.

3. Seja T o operador linear sobre R3 que é representado em relação à base orde­


nada canônica pela matriz

Seja W o núcleo de T- 21. Demonstrar que W não possui nenhum subes­


paço suplementar r:invariante. [Sugestão: Seja /3 = e1 e observemos que
(T- 21) f3 está em W. Demonstrar que não existe nenhum ex em W tal que
(T- 2/) /3 = (T- 21) ex.]

4. Seja T o operador linear sobre F4 que é representado em relação à base orde­


nada canônica pela matriz

Seja W o núcleo de T - cl.


(a) Demonstrar que W é o subespaço gerado por e4.
(b) Determinar os geradores unitários dos ideais S(e4; W), S(e3; W), S(e2; W),
S(e1; W).

5. Seja T um operador linear sobre o espaço vetorial V sobre o corpo F. Se


f é um polinômio sobre F e ex está em V, seja fcx =f (T)cx. Suponhamos que
VI> ... , v. sejam subespaços r:invariantes e que V= V1 Et> ... Et> v•. Demonstrar
que

fV =fV1 Et> • • • Et> fV•.

6. Sejam T, V e F como no Exercício 5. Suponhamos que ex e /3 sejam vetores


em V que têm o mesmo r:anulador. Demonstrar que, para todo polinômio f,
os vetores fcx e f/3 têm o mesmo T-anulador.

7. Determinar os polinômios minimais e as formas racionais de caãa uma das

oo -lioo , [ -li
seguintes matrizes reais:

-1
O
e O
e 1 ,
[ cose
- sene
senº]
cose
-1 1 e

8 Seja T o operador linear sobre R3 que é representado em relação à base orde­


nada canônica por
310 - ALGEBRA LINEAR

[-i 2
-�
-4
-

-3
�] ·

Determinar vetores não-nulos ai' ...,a, que satisfaçam as condições do Teo­


.

rema 3.

9. Seja A a .matriz real

3
A= [; -3 -3 -5
;] .
Determinar uma 3 x 3 matriz real inversível P tal que p - 1 A P esteja sob a
forma racional.

10. Seja F um subcorpo do corpo dos números complexos e seja T o operador


linear sobre F4 que é representado em relação à base ordenada canônica
pela matriz

Determinar o polinômio característico de T. Considerar os casos a = b = 1;


a= b =O; a= O, b = 1. Em cada um destes casos, determinar o polinômio
minimal de T e vetores não-nulos °'J> . ..,a, que satisfaçam as condições do
Teorema 3.

11. Demonstrar que se A e B são 3 x 3 matrizes sobre o corpo F, uma condição


necessária e suficiente para que A e B sejam semelhantes sobre F é que pos­
suam o mesmo polinômio característico e o mesmo polinômio minimal. Dar
um exemplo que mostra que isto é falso para 4 x 4 matrizes.

12. Seja F um subcorpo do corpo dos números complexos e sejam A e B n x n

matrizes sobre F. Demonstrar que se A e B são semelhantes sobre o corpo


dos números complexos, então elas são semelhantes sobre F. (Sugestão:
Demonstrar que a forma racional de A é a mesma seja A considerada como
uma, matriz sobre F ou como uma matriz sobre C; o mesmo para B.)

13. Seja A uma n x n matriz com elementos complexos. Demonstrar que se todo
valor característico de A é real, então A é semelhante a uma matriz com
elementos reais.

14. Seja T um operador linear sobre o espaço V de dimensão finita. Demonstrar


que existe um vetor a em V com a seguinte propriedade: Se f é um polinômio
e f (T) a = O, então f (T) =O. (Um tal vetor a é denominado um vetor sepa­
rador para a álgebra dos polinômios em T.) Para o caso em que T possui
um vetor cíclico, demonstrar diretamente que todo vetor cíclico é um vetor
separador para a álgebra dos polinômios em T.
AS FORMAS RACIONAL E DE JORDAN - 311

15. Seja F um subcorpo do corpo dos números complexos e seja A uma n x. n


matriz sobre F. Seja p o polinômio minimal de A. Se considerarmos A como
uma matriz sobre C, então A possuirá um polinômio minimal f, quando
considerada como uma n x n matriz sobre C. Usar um teorema sobre equações
lineares para demonstrar que p f. De que forma este resultado decorre do
=

teorema da decomposição cíclica?

16. Seja A uma n x n matriz com elementos reais tal que A2+1 =O. Demonstrar
que n é par e que, se n = 2k, então A é semelhante sobre o corpo dos números
reais a uma matriz da forma em blocos

[� -�J
onde 1 é a k x k matriz unidade.

17. Seja T um operador linear sobre um espaço vetorial V de dimensão finita.


Suponhamos que
(a) o polinômio minimal de T seja uma potência de um polinômio irredutível;
(b) o polinômio minimal seja igual ao polinômio característico.
Demonstrar que nenhum subespaço não-trivial e 1:invariante possui um subes­
paço suplementar T-invariante.

18. Se T for um operador linear diagonalizável, então todo subespaço T-invariante


terá um subespaço suplementar 1:invariante.

19. Seja T um operador linear sobre o espaço V de dimensão finita. Demonstrar


que T possui um vetor cíclico se, e somente se, vale o seguinte: Todo ope­
rador linear U que comuta com T é um polinômio em T.

20. Seja V um espaço vetorial de dimensão finita sobre F e seja T um operador


linear sobre V. Perguntamos quando é que todo vetor não-nulo em V é um
vetor cíclico de T. Demonstrar que isto ocorre se, e somente se, o polinômio
característico de T é irredutível sobre F.

21. Seja A uma n x n matriz com elementos reais. Seja T o operador linear sobre
R" que é representado por A em relação à base ordenada canônica e seja U
o operador linear sobre e• que é representado por A em relação à base orde­
nada canônica. Usar o resultado do Exercício 20 para demonstrar o seguinte:
"
Se os únicos subespaços invariantes sob T são R" e o subespaço nulo, então
U é diagonalizável.

7.3 A Forma de Jordan

Suponhamos que N seja um operador linear nilpotente sobre


o espaço V de dimensão finita. Consideremos a decomposição
cíclica de N que obtemos por meio do Teorema 3. Temos um
3.12 - ALGEBRA LINEAR

inteiro positivo r e r vetores não-nulos a1' ... , a, em V com N-anula­


dores p1' ... , p,, tais que

e P; + 1 divide P; para i = 1, . . , r
. 1. Como N é nilpotente, o poli­
-

nômio minimal é xk para um certo k :::; n. Assim, cada P; é da


forma P; = xk; e a condição de divisibilidade diz simplesmente que

Evidentemente, k, = k e k, ;;::: 1. A matriz associada a xk; é a k; x k;


matriz

o o o o
1 o o o
o 1 o o
(7-24) A. =
.1

o o 1 o

Assim, o Teorema 3 nos fornece uma base ordenada de V em rela­


ção à qual a matriz de N é a soma direta das matrizes nilpotentes
elementares (7-24), cujas dimensões diminuem à medida que i
aumenta. Vê-se, a partir disto, que estão associados a uma n x n
matriz nilpotente um inteiro positivo r e r inteiros positivos k1'
... , k, tais que k1 + ... + k, = n e k; ;;::: k; + 1, e estes inteiros positivos
determinam a forma racional da matriz, isto é, determinam a
matriz a menos de semelhança.
Eis aqui algo que gostaríamos de ressaltar sobre o operador
nilpotente N acima. O inteiro positivo r é precisamente a nulidade
de N; na verdade, uma base do núcleo é formada pelos r vetores
.

(7-25)

De fato, suponhamos que a esteja no núcleo de N. Podemos escre­


ver a sob a forma
AS FORMAS RACIONAL E DE JORDAN - 373

onde f é um polinômio, cujo grau podemos supor menor que k.i


i
Como Nrx. = O, para cada i temos

O= N(f;rx.)
= Nf;(N)rx.;
= (xJJ rx.;.

Assim, xf; é divisível por xk; e como gr ( f;) > k; isto significa que

j'. = c.xk1-1
1 '

onde e; é um certo escalar. Mas então

o que nos mostra que os vetores (7-25) formam uma base do núcleo
de N. O leitor deverá notar que este fato também é evidente do
ponto de vista de matrizes.
O que desejamos fazer agora é combinar nossas conclusões a
respeito de operadores ou matrizes nilpotentes com o teorema da
decomposição primária do Capítulo 6. A situação é a seguinte:
Suponhamos que T seja um operador linear sobre Ve que o poli­
nômio característico de T se decomponha sobre F como segue:

onde cl' . .., c


k são elementos distintos em F e di � 1. Então, o
polinômio minimal de T será

p = (x - c1 ) '1 ... (x - ck ) 'k


onde 1 � ri � di. Se Wi é o núcleo de (T - cJ)'i, então o teorema

da decomposição primária nos diz que

e que o operador Ti induzido sobre_ Wi por Tpossui polinômio mi­


nimal igual a (x - cJi. Seja Ni o operador linear sobre Wi defi­
nido por Ni =Ti - e/. Então, Ni é nilpotente e seu polinômio mi­
nimal é x'i. Sobre W;, T age como N i mais o escalar ci vezes o
operador idêntico. Suponhamos que tomemos uma base do subes-
314 - ÁLGEBRA LINEAR

paço Wi correspondente à decomposição cíclica do operador nil­


potente Ni. Então a matriz de Ti em relação a esta base ordenada
será a soma direta das matrizes

e O O O
1 e O O

(7-26)

O O 1 e

cada uma com e = ci. Além disso, as dimensões destas matrizes


diminuem quando se lê da esquerda para a direita. Uma matriz da
forma (7-26) é dita uma matriz elementar de Jordan com valor
característico e. Reunindo todas as bases dos Wi obtemos uma
base de V. Descrevamos a matriz A de T em relação a esta base
ordenada, a matriz A é a soma direta

(7-27) A=

o o

das matrizes �1, ... , Ak. Cada A; é da forma

li)
Jl o o
li)
o J2 o

A.=
"

o o

onde cada JYl é uma matriz elementar de Jordan com valor caracte­
rístico ci. Além disso, dentro· de cada Ai' as dimensões das ma­
trizes JYl diminuem à medida que j aumenta. Diremos que uma
n x n matriz A que satisfaz todas as condições descritas até agora
neste parágrafo (para certos escalares distintos e 1, .. . , ck) está sob
a forma de Jordan.
AS FORMAS RACIONAL E DE JORDAN - 315

Acabamos de salientar que se T é um operador linear para o


qual o polinômio característico se decompõe completamente sobre
o corpo de escalares, então existe uma base ordenada de V em re­
lação à qual Té representado por uma matriz que está sob a forma
de Jordan. Gostaríamos de mostrar agora que esta matriz é algo
associada de modo único a T, a menos da ordem em que os valores
característicos de T são escritos. Em outras palavras, se duas ma­
trizes estão sob a forma de Jordan e se elas são semelhantes, então
elas podem diferir apenas quanto à ordem dos escalares ci.
Podemos ver a unicidade como segue. Suponhamos que exista
alguma base ordenada de V em relação à qual Tseja representado
pela matriz de Jordan A descrita no parágrafo anterior. Se Ai é
uma di x di matriz, então d; é evidentemente a multiplicidade· de
ci como uma raiz do polinômio característico de A, ou de T. Em
outras palavras, o polinômio característico de T é

Isto mostra que e 1' . . , ck


. e dl' ... , dk são únicos, a menos da
ordem em que são escritos. O fato de que A é a soma direta
das matrizes Ai nos fornece uma decomposição em soma direta
V= W1 EB ... EB Wk invariante sob T. Observemos agora que Wi
deve ser o núcleo de (T - cJ)", sendo n = dim V; de fato, Ai - cJ
é obviamente nilpotente e A - cJ é não-singular para j i= i. Por­
i
tanto, vemos que os subespaços Wi são únicos. Se Ti é o operador
induzido sobre Wi por T, então a matriz Ai é determinada de um
único modo como a forma racional de (Ti - cJ).
Desejamos agora fazer maís algumas observações sobre o ope­
rador Te a matriz de Jordan A que representa Tem relação a uma
certa base ordenada. Faremos uma cadeia de observações:

(1) Todo elemento de A que não esteja na diagonal principal


ou imediatamente abaixo dela é nulo. Na diagonal de A aparecem
os k valores característicos distintos e 1, .. . , ck de T. Além disso,
e; se repete di vezes, sendo di a multiplicidade de ci como uma raiz
do polinômio característico, isto é, di = dim wi.
(2) Para cada i, a matriz Ai é a soma direta de ni matrizes
elementares de Jordan, JU>, com valor característico
1
e .
'
O nú-
mero ni é exatamente a dimensão do espaço dos vetores caracterís-
ticos associados ao valor característico e;. De fato, n
;
é o número
de blocos nilpotentes elementares na forma racional de (Ti - cJ)
316 - ALGEBRA LINEAR

sendo portanto igual à dimensão do núcleo de (T - cJ). Em parti­


cular, notemos que T é diagonalizável se, e somente se, n
i
= di
para todo i.

(3) Para cada i, o primeiro bloco J<il na matriz Ai é uma


ri x ri matriz, sendo ri a multiplicidade de ci como uma raiz do
polinômio minimal de T. Isto decorre do fato de que o polinômio
minimal do operador nilpotente (Ti - cJ) é 'i
x .

É claro que temos, como sempre, o mesmo resultado para ma­


trizes. Se B é uma n x n matriz sobre o corpo F e se o polinômio
característico de B se decompõe completamente sobre F, então B
é semelhante sobre F a uma n x n matriz A sob a forma de Jordan
e A é única a menos da ordem dos valores característicos. Dizemos
que A é a forma de Jordan de B.
Além disso, notemos que se F é um corpo algebricamente
fechado, então as observações acima se aplicam a todo operador
linear sobre um espaço de dimensão finita, ou, a toda n x n matriz
sobre F. Assim, por exemplo, toda n x n matriz sobre o corpo
dos números complexos é semelhante a uma matriz essencialmente
única sob a forma de Jordan.

Exemplo 5. Suponhamos que T seja um operador linear sobre


C2. O polinômio característico de T é (x - c1) (x - c ), sendo c1
2
e c números complexos distintos ou então é (x - c)2. No primeiro
2
caso, Té diagonalizável e é representado em relação a alguma base
ordenada por

No segundo caso, o polinômio minimal de T pode ser (x - e), e


então T = cI ou pode ser (x - c)2 e então T é representado em
relação a alguma base pela matriz

Assim, toda 2 x 2 matriz sobre o corpo dos números complexos


é semelhante a uma matriz de um dos dois tipos acima exibidos,
possivelmente com c1 c •
2
=
AS FORMAS RACIONAL E DE JORDAN - 317

Exemplo 6. Seja A a 3 x 3 matriz complexa

[� � �].
b

O polinômio característico de A é obviamente


e -1

(x - 2)2 (x + 1). Ou
este polinômio é o polinômio minimal e A é semelhante a

ou então o polinômio minimal é


o
º
-1
] '

(x - 2) (x + 1), caso em que A é _

semelhante a

[� � �]·
o o -1

21) [ ]
Ora,

o o
(A - (A + J) = 3a O O
º-
ac O O

e assim A é semelhante a uma matriz diagonal se, e somente se,


a=O.

Exemplo 7. Seja

A=
r2000]
2 1
o o
O O .
2 o
O O a 2

O polinômio característico de A é (x - 2)4. Como A é a soma


2
direta de duas
de A é (x - 2)2• 2
sob a forma de Jordan.
obtêm para
x matrizes, é evidente que o polinômio minimal
Ora, se a= O ou se a= 1, então a matriz A está
Notemos que as duas matrizes que se
a =O e a =1 têm o mesmo polinômio característico
e o mesmo polinômio minimal, mas não são semelhantes. Elas não
318 - ALGEBRA LINEAR

são semelhantes porque, para a primeira matriz, o espaço-solução


de (A - 21) tem dimensão 3, enquanto que para a segunda matriz
a dimensão é 2.
Exemplo 8. As equações diferenciais com coeficientes cons­
tantes (Exemplo 14, Capítulo 6) oferecem uma boa ilustração da
forma de Jordan. Sejam a0, • • • , ªn- l números complexos e seja V
o espaço de todas as funções f, n vezes diferenciáveis sobre um
intervalo da reta real, que satisfaçam a equação diferencial

d "f d"-1f df
dx" + ª11-1 dxn-1 + ... + ª1 dx + a J = O .

Seja D o operador derivação. Então V é invariante sob D porque


V é o núcleo de p(D), onde

Qual é a forma de Jordan do operador derivação sobre V?


Sejam cl' ... , ck as raízes complexas distintas de p:

Seja V; o núcleo de (D - cJ)'i, isto é, o conjunto das soluções da


equação diferencial

(D - cJ)'i f =O.

Como observamos no Exemplo 15, Capítulo 6, o teorema da


decomposição primária nos diz que

Seja N; a restrição de D - cJ a v;. A forma de Jordan do operador


D (sobre V) é então determinada pelas formas racionais dos ope­
radores nilpotentes N1, ... , Nk sobre os espaços V1, . . . , V,..
Assim, o que devemos conhecer (para vários valores de e) é
a forma racional do operador N =
(D - cl)' sobre o espaço Vc, que
é formada pelas soluções da equação

(D - cl)'f =O.
AS FORMAS RACIONAL E DE JORDAN - 319

Quantos blocos nilpotentes elementares existem na forma racional


de N? O número será a nulidade de N, isto é, a dimensão do
espaço característico associado ao valor característico e. Essa
dimensão é 1 porque qualquer função que satisfaça a equação
diferencial

Df = cf

é um múltiplo escalar da função exponencial h(x) = ecx_ Portanto,


o operador N (sobre o espaço VJ possui um vetor cíclico. Uma
boa escolha para um vetor cíclico é g = x' ih:
-

Isso nos dá

N'-1g = (r - 1)! h
O parágrafo anterior nos mostra que a forma de Jordan de
D (sobre o espaço V) é a soma direta de k matrizes elementares
de Jordan, uma para cada raiz e;.

Exercícios

1. Sejam N 1 e N 2 3 x 3 matrizes nilpotentes sobre o corpo F. Demonstrar que


N1 e N são semelhantes se, e somente se, pos'suem o mesmo polinômio
2
minimal.

2. Usar o resultado do Exercício 1 e a forma de Jordan para demonstrar o se­


guinte: Sejam A e B n x n matrizes sobre o corpo F que possuam o mesmo

polinômio característico

e o mesmo polinômio minimal. Se nenhum d, é maior que 3, então A e B


são semelhantes.

3. Se A é uma 5 x 5 matriz complexa com polinômio característico f (x - 2)3 (x + 7)2


=

e polinômio minimal p = (x - 2)2 (x + 7), qual é a forma de Jordan de A?


4. Quantas formas de Jordan são possíveis para a 6 x 6 matriz complexa cujo
polinômio característico é (x + 2)4 (x - 1)2?
320 - ALGEBRA LINEAR

5. O operador derivação sobre o espaço dos polinômios de grau menor ou igual


a 3 é representado em relação à base ordenada "natural" pela matriz

Qual é a forma de Jordan desta matriz? (F é um subcorpo do corpo dos


números complexos.)

6. Seja A a matriz complexa:

o o o o

H �]
2 o o o
o 2 o o
1 o 2 o
1 1 1 2
o o o -1

Determinar a forma de Jordan de A.

7. Se A é uma n x n matriz sobre o corpo F com polinômio característico

qual é o traço de A?

8. Classificar, a menos da semelhança, todas as 3 x 3 matrizes complexas A tais


que A3=1.

9. Classificar, a menos da semelhança, todas as n x n matrizes complexas A


tais que A"= I.

10. Seja n um inteiro pos1t1vo, n ;::::: 2 e seja N uma n x n matriz sobre o corpo F
tal que N" =O mas N"- 1 =F O. Demonstrar que N não possui nenhuma raiz
quadrada, isto é, que não existe nenhuma n x n matriz A tal que A2 = N.

11. Sejam N 1 e N2 6 x 6 matrizes nilpotentes sobre o corpo F. Suponhamos que


N 1 e N 2 tenham o mesmo polinômio minimal e a mesma nulidade. Demonstrar
que N 1 e N 2 são semelhantes. Mostrar que isto não é válido para 7 x 7 ma­
trizes nilpotentes.

12. Usar o resultado do Exercício 11 e a forma de Jordan para demonstrar o


seguintes: Sejam A e B n x n matrizes sobre o corpo F que possuam o mesmo
polinômio característico
AS FORMAS RACIONAL E DE JORDAN - 321

e o mesmo polinômio minimal. Suponhamos também que para cada i, os


espaços-soluções de (A - c,J) e de (B - c,J) tenham a mesma dimensão. Se
nenhum dos d; é maior que 6, então A e B são semelhantes.

13. Se N é uma k x k matriz nilpotente elementar, isto é, Nk=O mas Nk- i °"'O,
mostrar que N' é semelhante a N. Usar a forma de Jordan para demonstrar
que toda n x n matriz complexa é semelhante à sua transposta.

14. O que está errado na demonstração que segue? Se A é uma n x n matriz


complexa tal que A' = -A, então A é O. (Demonstração: Seja J a forma de
Jordan de A. Como A'= -A, J' = -J. Mas J é triangular, logo J' = -J
implica que todo elemento de J é nulo. Como J =O e A é semelhante a J,
vemos que A =O.) (Dar um exemplo de uma A não-nula tal que A' = -A.)

15. Se N é uma 3 x 3 matriz nilpotente sobre C, demonstrar que A=1 + ± N. -i N2


satisfaz A 2 I + N, isto é, A é uma raiz quadrada I + N. Usar a série bino­
=

mial (1 + t)112 para obter uma fórmula semelhante para a raiz quadrada de
J + N, onde N é uma n x n matriz nilpotente arbitrária sobre C.

16. Usar o resultado do Exercício 15 paja demonstrar que se e é um número com­


plexo não-nulo e N é uma matriz complexa nilpotente, então (e/ + N) possui
uma raiz quadrada. Usar depois a forma de Jordan para demonstrar que toda
n x h matriz complexa não-singular possui uma raiz quadrada.

7.4 Cálculo dos Fatores Invariantes

Suponhamos que A seja uma n x n matriz com elementos no


corpo F. Queremos descobrir um processo que permita calcular
os fatores invariantes p l' . , P, que definem a forma racional de A.
. .

Comecemos com o caso muito simples no qual A é a matriz asso­


ciada (7.2) a um polinômio unitário

Vimos na Seção 7.1 que p é o polinômio minimal e característico


da matriz associada A. Queremos agora efetuar um cálculo direto,
que mostre que p é o polinômio característico de A. Nesse caso,

X o o o Co
-1 X o o c1
o -1 X o Cz
'
xi= A

o o o X c,,_2
o o o - 1 X+ C11_1
322 - ALGEBRA LINEAR

Adicionemos x vezes a linha n à linha (n -1). Isso removerá o x


na posição (n 1, n -1)
- e não mudará o determinante. Em seguida,
adicionemos x vezes a nova linha (n -1) à linha (n 2).
- Conti­
nuemos sucessivamente, até que todos os x da diagonal principal
tenham sido removidos por esse processo. O resultado será a matriz
O O O O x" + .. . + e1 x + c0
-1 O O O x"-1+ ... +c2x+c1
2
Ü -1 Ü Ü x"- + ... + C3X + c2-

2
o o o o x + cn-lx + c,,-2
o o o -1 X+ Cn-1

cujo determinante é igual ao determinante de xl - A. O elemento


no canto superior, à direita, dessa matriz é o polinômio p. Introdu­
zamos zeros na última coluna, adicionando a ela múltiplos apro­'
priados das outras colunas:
o o o o p
-1 o o o o
o -1 o o o

o o o o o
o o o -1 o

Multipliquemos cada uma das primeiras (n -1) colunas por -1 e


efetuemos (n -1) trocas de colunas adjacentes para levar a atual
coluna n para a primeira posição. O efeito total das 2n - 2 mudan­
ças de sinal, é o de deixar o determinante inalterado. Obteremos
a matriz
p o o o
o 1 o o
o o 1 o
(7-28)

o o o 1
É claro, então, que p = det(xJ - A).
Mostraremos que para uma nxn matriz arbitrária, existe uma
seqüência de operações sobre linhas e colunas que transformará
AS FORMAS RACIONAL E DE JORDAN - 323

xl - A numa matriz muito parecida com (7-28), na qual os fatores


invariantes de A aparecerão na diagonal principal. Deixemos com­
pletamente daro que operações iremos usar.
Estaremos trabalhando em F [ x]mxn, a coleção das m x n ma­
trizes cujos elementos são polinômios sobre o corpo F. Se M é
uma tal matriz, uma operação elementar sobre as linhas de M é
uma das operações seguintes:
1. multiplicação de uma linha de M por um escalar não­
nulo de F;
2. substituição da r-ésima linha de M pela linha r mais f vezes
a linha s, onde f é um polinômio arbitrário sobre F e r '# s;
3. transposição de duas linhas de M.
A operação inversa de uma operação elementar sobre linhas
é· uma operação elementar sobre linhas, de mesmo tipo. Devemos
notar que não poderíamos fazer tal afirmação se admitíssemos poli­
nômios não constantes em (1). Uma m x n matriz elementar, ou
seja, uma matriz elementar em F[x]mxn é uma matriz que pode
ser obtida da m x m matriz unidade por meio de uma única ope­
ração elementar sobre linhas. É claro que toda operação elementar
sobre as linhas de M pode ser efetuada, multiplicando M, à esquer­
da, por uma m x m matriz elementar conveniente; de fato, se e é a
operação, então

e(M)=e(I)M.

Sejam M e N matrizes em F [X]m X n. Dizemos que N é linha­


equivalente a M se N pode ser obtida de M· por uma seqüência
finita de operações elementares sobre linhas:

Evidentemente N é linha-equivalente a M se, e somente se, M é


linha-equivalente a N, de modo que poderemos dizer "M e N são
linhas-equivalentes". Se N é linha-equivalente a M, então

N=PM

onde a m x m matriz P é um produto de matrizes elementares:


324 - ALGEBRA LINEAR

Em particular, P é uma matriz inversível e sua inversa é

É óbvio que a inversa de E provém da operação elementar inversa


i
sobre linhas.
Tudo isso é exatamente igual ao caso das matrizes com ele­
mentos em Fe é apenas uma cópia dos resultados elementares do
Capítulo 1. Assim, o problema que se apresenta a seguir é o de
introduzir uma forma em escada, linha-reduzida, para matrizes
cujos elementos são polinômios. Aqui encontramos um novo obstá­
culo. Como obteremos uma matriz linha-reduzida? Inicialmente
devemos localizar o primeiro elemento não-nulo da linha 1 e dividir
cada elemento dessa linha por esse elemento não-nulo. Isso não é
(necessariamente) possível quando os elementos da matriz são poli­
nômios. Como veremos no próximo teorema, poderemos, em certos
casos, contornar essa dificuldade; no entanto, não existe uma forma
linha-reduzida inteiramente satisfatória para uma matriz arbitrária
de F[x]mxn. Se introduzirmos também operações sobre colunas e
estudarmos o tipo de equivalência que resulta do uso de ambos os
tipos de operações, poderemos obter para cada matriz uma forma
canônica muito útil. A ferramenta básica é o seguinte

Lema. Seja M uma matriz em F [xJm xn que tenha um elemento


-
nã o-nulo na sua primeira coluna e seja p o máximo divisor comum
dos elementos da coluna 1 de M. Então M é linha-equivalente a uma
matriz N, cuja primeira coluna é

p
o

Demonstração. Vamos provar algo mais do que enunciamos.


Vamos mostrar que existe um ·algoritmo para determinar N, isto é,
uma receita que uma máquina poderia usar para calcular N em
um número finito de passagens. Inicialmente, precisamos de alguma
notação.
AS FORMAS RACIONAL E DE JORDAN - 325

Seja M uma m x n matriz arbitrária com elementos em F [x]


que possui uma primeira coluna não-nula

Definamos
l(M 1 ) = min gr(f;)
fi f' o
(7-29)

Seja j um índice tal que gr(�) l(M 1 ) . Especificamente, seja


=

j o menor índice i para o qual gr (!;) l (M 1 ) . Tentemos dividir


=

cada J; por�:

(7-30) J; = �g; + r;, r; = O ou gr(r;) <' gr(fj).

Para cada i diferente de j, substituamos a linha i de M pela linha i


menos g; vezes a linha j. Multipliquemos a linha j pelo inverso
do coeficiente dominante de� e em seguida permutemos as linhas
j e l. O resultado de todas essas operações será uma matriz M'
cuja primeira coluna é

-
M'1 -

onde J; é o polinômio unitário obtido pela normalização de fj, de


modo que o coeficiente dominante seja 1. Demos, assim, um pro-
326 - ALGEBRA LINEAR

cesso bem definido para associar a cada matriz M uma matriz M'
·

com as seguintes propriedades:

(a) M' é linha-equivalente a M.


(b) p(M�) = p(M1).
(c) Ou l(M�) < l(M1) ou

M'1

Usando (7-30) e (7-31) é fácil verificar (b) e (c). A proprie­


dade (c) é apenas uma outra maneira de afirmar que existe algum
ín�ice i tal gue ri# O e gr(r1)<gr (f) ou então ri= O para todo i
efu é, portanto, o máximo divisor coinum de fp ...,fm·
A demonstração do lema é, agora, bastante simples. Come­
cemos com a matriz M e apliquemos o processo acima para obter
M'. A propriedade (c) nos diz que M' funcionará como a matriz N
do lema ou l(M'1)<l(M1). Nesse último caso, apliquemos o pro­
cesso a M' para obter a matriz M<2l (M')'. Se M<2l não for um
=

N conveniente, formaremos Af<3l = (M(2l)', e assim por diante. O


fato é que as desigualdades estritas

não podem continuar por muito tempo. Após não mais que 1(M1)
iterações do processo, deveremos chegar a uma matriz M<kl que
possui as propriedades que procuramos.

Teorema 6. Seja P uma m x m matriz com elementos na álgebra


dos polinômios F [x]. As seguintes condições são equivalentes:
(i) P é inversível.
(ii) O determinante de P é um polinômio constante não-nulo.
(iii) -p é Íinha-equivalente a m x m matriz unidade.
(iv) P é um produto de matrizes elementares.

Demonstração. Certamente (i) implica (ii) porque a funçâo


determinante é multiplicativa e os únicos polinômios inversíveis
de F [xJ são os polinômios constantes não-nulos. Na realidade,
AS FORMAS RACIONAL E DE JORDAN - 327

no Capítulo 5, usamos a adjunta clás�ica ·para mostrar que (i) e (ii)


são equivalentes. Nosso argumento, agora, oferece uma demons­
tração diferente de que (i) é uma conseqüência de (ii). Completa- ·

remos o ciclo

(i) � (ii)

T t
(iv) � (iii).

A única implicação não óbvia é que (iii) decorre .de (ii).


Admitamos (ii) e consideremos a primeira coluna de P. Ela
contém certos polinômios pl' . . . , Pm e

porque qualquer divisor comum de p 1, .•. , Pm necessariamente divide


(o escalar) det. P. Apliquemos a P o lema anterior para obter a matriz

1 a
ª1 m
o

(7-32) Q= B

que é linha equivalente a P. Uma operação elementar sobre linhas


muda o determinante de uma matriz de (no máximo) um fator cons­
tante não-nulo: Assim, det Q é um polinômio constante não"nulo;
Evidentemente a (m - 1) x (m-" 1) matriz B em P-32) e a matriz Q
têm ·o mesmo determinante. Portanto, podemos aplicar o último
lema a B. Se continuarmos dessa maneira, em m passageris obte­
remos uma matriz triangular superior

R=

o o 1

que é linha-equivalente a R . Obviamente R é linha-équivalente à


m x m matriz unidade.
328 - ALGEBRA LINEAR

Corolário. Sejam M e N m x n matrizes com elementos na


álgebra dos polinômios F [x]. Então N é linha-equivalente a M se,
e somente se,

N=PM,

onde P é uma m x m matriz inversívei com elementos em F [x].


Definamos, agora, operações elementares sobre colunas e
coluna-equivalência de modo análogo a operações sobre linhas
e linha-equivalência. Não precisaremos de um novo conceito de
matriz elementar porque a classe das matrizes que podem ser obti­
das por meio de uma operação elementar sobre as colunas da
-
matriz unidade é igual à elasse obtida, efetuando-se uma única
operação elementar sobre suas linhas.

Definição. A matriz N é equivalente à matriz M se for possível


passar de M para N por meio de uma seqüência de operqções

cada uma sendo uma operação elementar sobre linhas ou uma ope­
ração elementar sobre colunas.

Teorema 7. Sejam M e N m x n matrizes com elementos nâ


álgebra dos polinômios F[x]. Então N é equivalente a M se, e so­
mente se,

N =PMQ,

onde P é uma matriz inversível em F [ xJm xm e Q uma matriz inver­


sível em F[x]nxn.

Teorema 8. Seja A uma n x n matriz com elementos no corpo


F e sejam p1, , p, os fatores invariantes de A. Então -� matriz
• • .

xi A é equivafenie a n x n matriz diagonal cujos elementos dia­


-

gonais são p1, , p,, 1, 1, ... , 1. .


. • .

Demonstração. Existe uma n x n matriz P, inversível, com ele­


mentos em F, tal que PAP-1 esteja na forma racional, ou seja,
tenha a forma em blocos
AS FORMAS RACIONAL E DE JORDAN - 329

Al o o
o Az o

PAP-1 =

o o A,

onde Ai é a matriz associada ao polinômio P;· De acordo com o


Teorema 7, a matriz

1
(7-33) P(xl - A)P- =xi - PAP-1

é equivalente a xi - A. Ora,

xi - A O o
1
O xI - A2 o

(7-34) ·xl-PAP-1

o o xI - A,

onde os vários I usados são as matrizes unidades de dimensões


apropriadas. No início dessa seção mostramos que xl - Ai é equi"
valente à matriz

Pi O O
o 1 o

o o 1

Usando (7-33) e (7-34) torna-se claro que xi - A é equivalente a


uma matriz diagonal que possui na sua diagonal principal os poli­
nômios P; e (n - r) elementos iguais a 1. Por meio de uma sucessão
de transposições de linhas e colunas, poderemos arranjar os ele­
mentos da diagonal na ordem que desejarmos, por exemplo,
P1, . . . , p ,, 1, . . .,1.
O Teorema 8 não nos dá um meio eficiente para calcular os
divisores elementares p1, .. ., p,, porque nossa demonstração de­
pende do teorema da decomposição cíclica. Daremos, agora, um
330 - ALGEBRA LINEAR

algoritmo explícito para reduzir uma matriz, cujos elementos são


polinômios, à forma diagonal. O Teorema 8 sugere que também
podemos fazer com que os elementos sucessivos da diagonal prin­
cipal dividam um ao outro.

Definição. Seja N uma matriz em F [Xr X n. Dizemos que N


está na forma normal (de Smith) se
(a) todo elemento que não está na diagonal principal de N
é nulo;
(b) na diagonal principa]_fte N aparecem (em ordem) polinômios
f1, ... , f1 tais que fk divida,fk +1' 1 :=:;:; k :=:;:; 1 1. -

Na definição, o número l é l = min(m, n). Os elementos da


diagonal principal são fk = Nkk' k = 1, ... , l.

Teorema 9. Seja M uma m x n matriz com elementos na álge­


bra dos polinômios F [x]. Então M é equivalente a uma matriz N na
forma normal.
Demonstração. Se M = O, não há nada a demonstrar. Se M =/= O
daremos um algoritmo para determinar uma matriz M' que seja
equivalente a M e que tenha a forma

f1 o o
o
(7-35) M'= R

onde R é uma (m -1) x (n -1) matriz e f1 divide cada elemento de


R. A demonstração estará então terminada porque podemos aplicar
o mesmo processo a R e obter !2' etc.
Seja l(M) o menor dos graus dos elementos não nulos de M.
Procuremos a primeira coluna que tenha um elemento de grau
l(M) e permutamos essa coluna com a coluna 1. Chamemos de
M'º> a matriz resultante. Descrevamos um processo para deter-
minar uma matriz na forma

g o o
o
(7-36) s

o
AS FORMAS RACIONAL E DE JORDAN - 331

que seja equivalente à M<0>. Comecemos, aplicando à matriz M<0>


o processo do lema que precede o Teorema 6, processo que indi­
caremos por PL6. Resultará uma matriz

p a b
O e d

(7-37)

O e f
Se os elementos a, ... , b forem todos nulos, ótimo. Se não forem,
usaremos o análogo de PL6 para a primeira linha, um processo
que indicaremos por PL6'. O resultado será a matriz

q o o
' ' '
a e e

(7-38)

b' d' f'


onde q é o máximo divisor comum de p, a, . . . , b. Ao construirmos
M12' é possível que tenhamos perdido a forma conveniente da
coluna 1. Se isso aconteceu poderemos aplicar PL6 novamente.
Aqui está o ponto: Em não mais de l(M) passagens

(O) PL6 (l) PL6' (2) PL6


M ---+ M ---+ M ---+ .. . -+ M (t)

chegaremos, necessariamente, a uma matriz M<1> que possui a

forma (7-36) porque em cada passagem sucessiva temos l(M<k+ ii) <

< l(M<k>). Indicaremos o .processo que acabamos de definir por


P7-36:

Em (7-36) o polinômio g pode ou não dividir todos os elemen­


tos de S. Em caso negativo, determinemos a primeira coluna que
tenha um elemento não divisível por g e adicionemos essa coluna
à coluna 1. A nova primeira coluna conterá g e um elemento
gh + r com r =F O e gr(r) < gr(g). Apliquemos o processo P7-36 e
o resultado será uma outra matriz na forma (7-36) onde o grau do
g correspondente diminuiu.
332 - ALGEBRA LINEAR

Deverá estar claro agora que após um número finito de pas­


sagens, obteremos '(7-35), isto é, chegaremos a uma matriz na forma
(7-36) onde o grau de g não poderá mais ser reduzido.
Queremos mostrar que a forma normal associada a uma ma­
triz M é única. Dois fatos já vistos indicam por que os polinômios
f1, ,f1 do Teorema 9 são determinados de modo único por M.
• . •

Primeiramente, operações elementares sobre linhas ou colunas não


mudam o determinante de uma matriz quadrada a não ser por
um fator constante não-nulo. Em segundo lugar, operações elemen­
tares sobre linhas ou colunas não mudam o máximo divisor comum
dos elementos de µma matriz.
Definição. Seja M uma m x n matriz com elementos em F[x].
Se l:::;; k::;; min(m,n), definimos ôk(M) como sendo o máximo divisor
comum dos determinantes de todas as k x k submatrizes de M.
Lembremos que uma k x k submatriz de M é a matriz obtida
pela remoção de m k linhas e n k colunas de M. Em outras
- -

palavras, escolhemos certas k-uplas.

I = (il' ...,ik), 1 ::;; i1 < ... < ik ::;; m


J =
(jl' ...,jk), 1 ::;; j1 < ... < jk ::;; n

[
e olhamos para a matriz formada, usando aquelas linhas e colunas
de M. Estamos interessados nos determinantes

M'1..Jt

(7-39) D i.AM) = det :


Mi kit

O polinômio ôk(M) é o max1mo divisor comum dos polinômios


D1jM) quando I e J percorrem todas as possíveis k-uplas.

Teorema 10. Se M e N são m x n matrizes equivalentes com


elementos em F[x], então

(7-40) 1 :::;; k ::;; min(m,n).

Demonstração. Será suficiente mostrar que uma umca ope­


ração elementar e sobre linhas não altera ôk. Como a inversa de e
AS FORMAS RAÓONAL E DE JORDAN - 333

é também uma operação elementar sobre linhas, bastará mostrar o


seguinte. Se um polinômio f divide todo D1jM), então f divide
D1je(M)) para todas as k-uplas I e J.
Como estamos considerando operações sobre linhas, sejam
a1, ... , exm as linhas de M e usemos a notação

Dados I e J, qual é a relação entre D1jM) e Dr)e(M))? Conside­


remos os três tipos de operações e:
(a) multiplicação da linha r pelo escalar não-nulo e;
(b) substituição da linha r pela linha r mais g vezes a linha
s, r =1-s;,
( c ) transposição das linhas r es, r =1- s.

Esqueçamos por um momento as operações do tipo (c) e


concentremo-nos nos tipos (a) e (b) que somente alteram a linha r.

Se r não for um dos índices il' ... , ik, então

Se r estiver entre os índices il' ... , ik, então teremos, nos dois casos,

= cD1jM);

(b) D1je(M)) = Di( ex; , , ...,a,+ gex., ...,aik)


= D1jM) + gDi(ex i , , ... ,ex.,... , exi).

Para as operações do tipo (a) é claro que qualquer f que divida


D1jM) também dividirá D1je(M)). Para o caso das operações do
tipo (b) observemos que

Di(exi,' ... ;ex., ... , exik) =O, ses= ii para algum j


Di(ai,, ...,a.; ... , ex;k)= ± D�jM), ses =1- ii para todo j.

O I' na última equação é a k-upla (il' ... , s, ..., ik) arranjada em


ordem crescente. Deverá ser evidente agora que se f dividir todo
Dr)M) então f dividirá todo DI,J(e(M)).
334 - ALGEBRA LINEAR

Poderemos tratar o caso das operações do tipo (c) usando


praticamente o mesmo argumento ou então usando o fato de que
estas operações podem ser efetuadas por meio de uma seqüência
de operações do tipo (a) e (b).

Corolário. Cada matriz M em F[x]º"'" é equivalente a exata­


mente uma matriz iN na forma normal. Os polinômios fl' ...,f1 que
ocorrem na diagonal principal de N são

<\(M)
fk -
- . 1 ::;; k ::;; min(in, n)
ôk-1(M)'

onde, por conveniência, definimos ô0(M) = l.


Demonstração. Se N está na forma normal com elementos
diagonais fp ...,f 1 é fácil ver que

A matriz N do último corolário é denominada forma normal


de M. Os polinômios f 1, • ·:, f1 são denominados fatores invari-
·

antes de M.
Suponhamos que A seja uma n x n matriz com elementos
em F e sejam p1, . • . , p, os fatores invariantes de A. Vemos agora
que a forma normal da matriz xl -A possui elementos diagonais
1, 1, . . . , 1, p,, . . . , p1. O último corolário nos diz o que são pl' .. . , p,,
em termos das submatrizes de xl A. O número n - r é o maior
-

k tal que ôk(xl


a)= 1. O polinômio minimal p1 é o polinômio
-

característico ·de A, dividido pelo máximo divisor comum dos deter­


minantes de todas as (n.:.. 1) x (n-1) submatrizes de xl -A, etc.

Exercicios

1. Verdadeiro ou falso? Toda matriz em F[x]nxn é linha-equivalente a uma


matriz triangular superior.

2. Seja T um operador linear sobre um espaço vetorial de dimensão finita e seja


A a matriz de T em relação a alguma base ordenada Ei!tão T possui um vetor
cíclico se, e somente se, os determinantes das (n - 1) x (n - 1) submatrizes de
xl - A são relativamente
. primos.

3. Seja A uma n x n matriz com elementos no corpo F e sejam fl' ... ,f. os
elementos diagonais da forma normal de xl A. Pàra que matrizes A -

tem-se f1 oi !?
AS FORMAS RACIONAL E DE JORDAN - 335

4 Construir um operador linear T com polinômio minimal x2(x - lf e poli­


nômio característico x3(x - 1)4. Descrever a decomposição primária do espaço
vetorial. sob T e determinar as projeções sobre as componentes primárias.
Determinar uma base em relação à qual a matriz de 1' esteja sob a forma de
Jordan. Determinar também, explicitamente, uma decomposição do espaço �m
soma direta de subespaços T-cíclicos, como no Teorema 3, e dar os fatores
invariantes.

5. Seja T um operador linear sobre R8, representado em relação à base canônica


pela matriz

l l l l l 1 1
o o o o o o o
o o o o o o o -1
o 1 1 o o o o 1
A=
o o o o o o
o 1 1 1 1 o
o -1 -1 -1 -1 o l -1
o o o o o o o o

(a) Determinar o polinômio característico e os fatores invariantes.


(b ) Determinar a decomposição primária de R8 sob T e as projeções sobre
as componentes primárias. Determinar as decomposições cíclicas de cada com-
ponente primária, como no Teorema 3.
(c) Determinar a forma de Jordan de A.
(d) Determinar uma decomposição de R8 em soma direta de subespaços T-cí­
clicos, como no Teorema 3. (Sugestão: Uma das maneiras de se fazer isso é
usar os resultados de (b) e uma generalização apropriada das idéias discutidas
no Exemplo 4.)

7 .5 Resumo; Operadores Semi-Simples

Nos dois últimos capítulos, estivemos tratando de um único


operador linear T sobre um espaço vetorial V de dimensão finita.
O programa foi decompor T numa soma direta de operádores linea­
res de natureza elementar, cmn o objetivo de obter informações
detalhadas sobre como T 'opera' sobre o espaço V. Recordemos
rapidamente onde nos encontramos.
Começamos estudando T por meio de valores característicos e
vetores característicos. Introduzimos os operadores diagonalizáveis,
operadores que podem ser descritos completamente em termos de
valores e vetores característicos. Observamos então que podia ocor­
rer que T não tivesse nenhum vetor característico. Mesmo no
caso de um corpo de escalares algebricamente fechado, em que
todo operador linear realmente possui pelo menos um vetor carac­
terístico, notamos que os vetores característicos de T nem sempre
geravam o espaço.
336 - ALGEBRA LINEAR

Demonstramos então o teorema da decomposição cíclica, ex­


primindo um operador linear arbitrário como a soma direta de
operadores que tinham um vetor cíclico, sem fazer nenhuma hipó­
tese quanto ao corpo de escalares. Se U é um operador linear que
tem um vetor cíclico, existe uma base {o: 1, ... , o:n} tal que

Urx.j=o:j+l' j=l, ... ,n-1


Urx.n = -Co!X.1 - C10:2 cn-1ªn·
- • • . -

A ação de U sobre esta base é então a de transformar cada rx.j no


vetor seguinte o:j + l' com a exceção de Urx.n que é uma combinação
linear predeterminada dos vetores da base. Como um operador
linear genérico T é a soma direta de um número finito de tais ope­
radores U, obtivemos uma descrição explícita e razoavelmente ele­
mentar da ação de T.
Aplicamos a seguir o teorema da decomposição cíclica a ope­
radores nilpotentes. Para o caso de um corpo de escalares algebri­
camente fechado, combinamos este resultado com o teorema da
decomposição primária obtendo a forma de Jordan. A forma de
Jordan fornece uma base { o:l' ... , o:n} do espaço V tal que, para
cada j, ou Trx.j é um múltiplo escalar de rx.j ou Trx.j=crx.j + o:j+ 1. Esta
base certamente descreve a ação de T de uma maneira explícita
e elementar.
A importância da forma racional (ou da forma de Jordan) ori­
gina-se do fato de ela existir e não do fato de poder ser determinada
em casos particulares. É claro que se se tem um particular operador
linear T e se pode determinar a sua forma racional ou de Jordan,
deve-se fazê-lo, pois, tendo esta forma, pode-se conseguir vastas
quantidades de informações sobre T. Dois tipos de dificuldades
surgem no cálculo dessas formas canônicas. Uma dificuldade é,
obviamente, a extensão dos cálculos. A outra dificuldade é que
pode não existir nenhum método de efetuar os cálculos mesmo que
se tenham paciência e tempo suficientes. A segunda dificuldade
surge ao, digamos, se tentar determinar a forma de Jordan de uma
matriz complexa. Simplesmente não existe nenhum método bem
definido de se decompor o polinômio característico e assim já se
é barrado no início. A forma racional não apresenta esta difü:ul­
dade. Como mostramos na Seção 7.4, existe um método bem defi­
nido para se determinar a forma racional de uma dada n x n matriz;
contudo, tais cálculos são usualmente longos demais.
Em nosso resumo dos resultados destes dois últimos capítulos,
ainda não mencionamos um teorema que demonstramos. É o teo-
AS FORMAS RACIONAL E DE JORDAN - 337

rema que afirma que se Té um operador linear sobre um espaço


vetorial de dimensão f inita sobre um corpo algebricamente fechado,
então T pode ser expresso de um único modo como a soma de um
operador diagonalizável com um operador nilpotente os quais co­
mutam. Ele foi demonstrado a partir do teorema da decomposição
primária e algumas informações sobre operadores diagonalizáveis.
Não é um teorema tão profundo como o teorema da decomposição
cíclica ou a existência da forma de Jordan, mas possui aplicações
importantes e úteis em certas partes da matemática. Concluindo
este capítulo, vamos demonstrar um teorema análogo, sem supor
que o corpo de escalares seja algebricamente fechado. Começamos
por definir os operadores que desempenharão o papel dos opera­
dores diagonalizáveis.

Definição. Seja V um espaço vetorial de dimensão finita sobre o


corpo F e seja T um operador linear sobre V. Dizemos que T é semi­
simples se todo subespaço T-invariante possui um subespaço suple­
mentar T-invariante.
O que estamos prestes a demonstrar é. que, com certas restri­
ções sobre o corpo F, todo operador linear T pode ser expresso de
um único modo como T = S + N, sendo S semi-simples, N nil­
potente e SN = NS. Primeiro, vamos caracterizar os operadores
semi-simples por meio de seus polinômios minimais e esta caracte­
rização nos mostrará que, quando F é algebricamente fechado, um
operador é semi-simples se, e somente se, é diagonalizável.

Lema. Seja T um operador linear sobre o espaço vetorial V de


dimensão f inita e seja V W 1 EB ... EB Wk a decomposição primária
=

de T. Em outras palavras, se p é o polinômio de T e p = p�1 p�k • • •

é a decomposição de p em fatores primos, eritãÕ wj é o núcleo de


p/T)'i. Seja W um subespaço arbitrário de V que seja invariante
sob T. Então

Demonstração. Para a demonstração precisaremos recordar um


corolário de nossa demonstração do teorema da decomposição pri­
mária na Seção 68. Se E 1, . .. , Ek são as projeções associadas à
decomposição V= W1 EB ... EB W,., então cada Ei é um polinômio
em T. Isto é, existem polinômios hp ... , hk tais que E h/T).
i
=

Seja agora W um subespaço invariante sob T. Se ex é um vetor


qualquer em W, então ex= ex1 + ... + exk, com exi em llJ· Ora,
338 - ALGEBRA LINEAR

ai= Ep = h/T)a, e como W é invariante sob T, cada ài também


está em W. Assim, cada vetor a em W é da forma a = a.1 + ... + ak,
com a. na interseção W n W .. Esta expressão é única pois V= W1 Et>
J J
EB . . . Et> f!f,,. Portanto,

W = (W n W1) Et> ... EB (W n Vf,,).

Lema. Seja T um operador linear sobre V e suponhamos que o


polinômio minimal de T seja irredutível sobre o corpo F de escalares.
Então T é semi-simples.
Demonstração. Seja W um subespaço de V que seja invariante
sob T. Precisamos demonstrar que W possui um subespaço suple­
mentar T-invariante. De acordo com um corolário do Teorema 3,
será suficiente demonstrar que se Jé um polinômio e /3 é um vetor
em V tais que f(T)/3 esteja em W , então existe um vetor a em W tal
que f(T)/3 f (T)a. Portanto, suponhamos que /3 esteja em V e
=

que f seja um polinômio tal que f(T)/3 esteja em W. Se f(T)/3 O =


,

fazemos a= O e então a é um vetor em W tal que f(T)/3 = f (T)a.


Se f(T)/3 =F O, o polinômio f não é divisível pelo polinômio mini­
mal p do operador T. Como p é primo, isto significa que f e p
são relativamente primos e existem polinômios g e h tais que
fg + ph = 1. Como p(T)=O temos f(T) g(T) I. Daqui segue que =

o vetor f3 de"Vé estar no subespaço W; de fato,

/3 = g(T) f(T)/3
= g(T)(f(T)/3)

enquanto f (T) f3 está em W e W é invariante sob T. Basta tomar


a=/3.

Teorema 11. Seja T um operador linear sobre o espaço vetorial


V de dimensão finita. Vma condição necessária e suficiente para que
T seja semi-simples é que o polinômio minimal p de T seja da forma
p = p1, , pk, sendo p1, . , pk polinômios irredutíveis distintos sobre
. • . . .

o corpo F de escalares.
Demonstração. Suponhamos que T seja semi-simples. Mostra­
remos que nenhum polinômio irredutível se repete na decompo­
sição do polinômio minimal p em fatores primos. Suponhamos o
contrário. Então existe um polinômio unitário não-constante, g tal
que g2 divide p. Seja W o núcleo do operador g(T). Então W é
invariante sob T. Ora, p = g2h para algum polinômio h. Como g
AS FORMAS RACIONAL E DE JORDAN - 339

não é um polinômio constante, o operador g(T)h(T) não é o ope­


rador nulo e existe um vetor f3 em V tal que g(T) h(T)/3=O, isto é,
(gh)/3-:/- O. Ora, (gh)/3 está no subespaço W, pois g(gh/3) = g2h/3=
=pf3=O. Mas não existe nenhum vetor IX em Wtal que gh /3=ghr:x.;
de fato, se IX está em W

(gh)rx = (h g)r:x.= h(g1X)=h(O)= O.

Assim, W não pode ter um subespaço suplementar T-invariante,


contradizendo a hipótese de T ser semi-simples.
Suponhamos agora que a decomposição de p em fatores primos
seja p=p1 , . . • , pk, sendo p1 , ... , pk polinômios unitários (não-cons­
tantes), irredutíveis e distintos. Seja W um subespaço de V que seja
invariante sob T. Vamos demonstrar que W possui um subespaço
suplementar T-invarianté. Seja V= W1 EB ... EB W,. a decomposição
primária de T, isto é, seja Uj o núcleo de p/T). Seja Ti o ope­
rador linear induzido sobre Wi por T, de modo que o polinômio
minimal de Ti é o primo Pr Ora, W n Wi é um subespaço de Wi
que é invariante sob Ti (ou sob T). Pelo último lema, existe um
subespaço V] de Uj tal que Uj= (W n ttj) EB V i e Vi seja inva­
riante sob Ti (e, portanto, sob T). Então temos

V =W1 EB ... EB Wk ,
=(W n W1) EB V 1 EB ... EB (W n Wk ) EB Vk
=(W n W1) + ... + (W n Wk) EB V 1 EB ... EB Vk.

Pelo primeiro lema acima, W= (W n W1) EB ... EB (W n Wk), de


modo que se W'=V1 EB ... EB Vk, então V=1WEB W' e W' é inva­
riante sob T.

Corolário. Se T é um oper ador linear sobre um esp aço vetorial


de dimen são finit a sobre um corpo al gebric amente fech ado, então T
é semi-simp les se, e somen te se, T é diagon alizável.
Demon str ação. Se o corpo F de escalares é algebricamente
fechado, os primos unitários sobre F são os polinômios x - c.
Neste caso, T é semi-simples se, e somente se, o polinômio minimal
de T é p=(x - c1) ... (x - ck) , sendo cl' ..., ck elementos distintos
de F. Este é exatamente o critério para a diagonalização de T, por
nós estabelecido no Capítulo 6.
Gostaríamos de destacar que T é semi-simples se, e somente
se, existe um polinômio f , que seja um produto de primos distintos,
340 - ALGEBRA LINEAR

tal que f (T) =O. Isto difere apenas superficialmente da condição


de que o polinômio minimal seja um produto de primos distintos.
Voltemos agora ao problema de exprimir um operador linear
como a soma de um operador semi-simples e um operador nilpo­
tente que comutem. Para esta parte, restringiremos o corpo de
escalares a um subcorpo do corpo dos números complexos. O
leitor informado verá que o importante é o corpo F ser um corpo
de característica zero, isto é, para cada inteiro positivo n, a soma
1 + . . + 1 (n vezes) em F não deve ser nula. Para um polinômio f
.

sobre F, indiquemos por jCk> a k-ésima derivada formal de f. Em


outras palavras, JCk> D11 onde D é o operador derivação sobre
=

o espaço dos polinômios. Se g é um outro polinômio, f(g) indica


o resultado de se substituir g em f, isto é, o polinômio obtido apli­
cando f ao elemento g na álgebra linear F [x].

Lema (Fórmula de Taylor). Seja F um corpo de característica


zero e sejam g e h polinômios sobre F. Se f é um polinômio qualquer
sobre F com gr(t)::;; n, então

r<2>(h) rn>(h)
f{g) = f{h) + fC1l(h) {g - h) + ll {g - h)2 + .. . + lll {g - h)n.

Demonstração. O que estamos demonstrando é uma fórmula


de Taylor generalizada. O leitor provavelmente está acostumado
a ver o caso particular em que h c, um polinômio constante, e
=

g x. Nesse caso, a fórmula diz:


=

f = f (x) = f(c) + Jºl(c) (x - e) +


f (2l (c) f Cn l (c)
+ � (x - c)2 + ... + n! (x - ct

A demonstração desta fórmula é simplesmente uma aplicação do


teorema binomial

De fato, o leitor notará que, sendo a substituição e a derivação


processos lineares, basta demonstrar a fórmula para f xk. A =

fórmula para f = L c xk decorre por uma combinação linear. No


�O k
k
AS FORMAS RACIONAL E DE JORDAN - 341

caso f = xk com k s; n, a fórmula diz

que é exatamente o desenvolvimento binomial de

gk = [h + (g - h)]k.

Lema. Seja F um subcorpo do corpo dos números complexos,


seja f um polinômio sobre F e seja f' a derivada de f. As seguintes
afirmações são equivalentes:
(a) fé um produto de polinômios irredutíveis e distintos sobre F.
(b) f e f' são relativamente primos.
( c) Considerado como um polinômio com coeficientes comple­
xos, f não possui raízes múltiplas.

Demonstração. Demonstraremos primeiro que (a) e (b) são


afirmações equivalentes sobre f. Suponhamos, na decomposição
de f em fatores primos sobre o corpo F, que algum polinômio
(não-constante) primo p se repita. Então f = p2h para algum h em
F [x]. Então,

f' = p2h' + 2pp' h

e p é também um divisor de f'. Logo, f e f' não são relativamente


p� os. Concluímos que (b) implica (a).
Suponhamos agora que f = p1, • • • , pk, onde p1, ... , pk são poli­
nômios não-constantes, irredutíveis e distintos sobre F. Sejafi = f!Pr
Então,

f' P1iÍ1 + p�f + ... + PUk·


2
=

Seja p um polinômio primo que divida f e f'. Então p = P; para


algum i. Ora, P; divide f i para j -=/= i e como P; também divide

k
f' =
I1 P�fj
j=

vemos que P; deve dividir PJ;· Portanto, P; divide f; ou p;. Mas


P; não divide f; uma vez que p1, ... , pk são distintos. Então, P;
divide p;. Isto não é possível, pois o grau de p; é um a menos que
342 - ÁLGEBRA LINEAR

o grau de P;· Concluímos que nenhum primo divide f e f', ou seja,


que (f, f') = 1.
Para ver que a afirmação (c) é equivalente a (a) e (b), preci­
samos observar -apenas o seguinte. Suponhamos que f e g sejam
polinômios sobre F, um subcorpo do corpo dos números com­
plexos. Podemos considerar f e g também como polinômios com
coeficientes complexos. A afirmação de que f e g são relativamente
primos como polinômios sobre F é equivalente à afirmação de que
f e g são relativamente primos como polinômios sobre o corpo
dos números complexos. Deixamos a demonstração deste resultado
como exercício. Usemos este fato com g = f'. Notemos que (c) é
exatamente (a) quando fé considerado como um polinômio sobre
o corpo dos números complexos. Assim, (b) e (c) são equivalentes,
pelo mesmo argumento utilizado acima.
Podemos agora demonstrar um teorema que tornará mais evi­
dente a relação entre operadores semi-simples e operadores diago­
nalizáveis.

Teorema 12. Seja F um subcorpo do corpo dos números com­


plexos, seja V um espaço vetorial de dimensão finita sobre F e seja
T um operador linear sobre V. Seja 14 uma base ordenada de V e
seja A a matriz de T em relação à base o.rdenada f!l. Então, T é semi­
simples se, e somente se, a matriz A é semelhante, sobre o corpo dos
números complexos, a uma matriz diagonal.
Demonstração. Seja p o polinômio minimal de T. De acordo
com o teorema 11, T é semi-simples se, e somente se, p = p1 ... pk
onde p1, .. ., pk são polinômios distintos irredutíveis sobre F. Pelo
último lema, temos que T é semi-simples se, e somente se, p não
possui raízes complexas múltiplas.
Ora, p também é o polinômio minimal da matriz A. Sabemos
que A é semelhante sobre o corpo dos números complexos a uma
matriz diagonal se, e somente se, o seu polinômio minimal não
possui raízes complexas múltiplas. Isto demonstra o teorema.

Teorema 13. Seja F um subcorpo do corpo dos números com­


plexos, seja V um espaço vetorial de dimensãofinita sobre F e seja T
um operador linear sobre V. Existe um operador semi-simples S sobre
V e um operador nilpotente N sobre V tais que
(i) T=S+N;
(ii) SN = NS.
AS FORMAS RACIONAL E DE JORDAN - 343

Além disso, o S semi-simples e o N nilpotente que.satisfazem (i) e (ii )


são únicos e cada um é um polinômio em T.
Demonstração. Seja p� 1 p�k a decomposição em fatores pri­
• • •

mos do polinômio minimal de Te seja f =p1 ... pk. Seja r o maior


dos inteiros positivos r1, , rkº Então, o polinômio f é um pro­
. • .

duto de primos distintos, f' é divisível pelo polinômio minimal


-

de T e então
f(T)' = O .

Vamos construir uma seqüência de polinômios. g0, g1, g2, • . •

tais que

n
seja divisível por j +i, n = O, 1, 2, Tomando g0 O temos
0 . . . =

que f(x - g0f )=f(x)=f é divisível por f. Suponhamos que te­


nhamos escolhido g0, ... , gn_ 1. Seja

n-1
h=x- I gJi
j=O

de modo que, por hipótese,f(h) é divisível por r. Queremos tomar


gn de modo-que

n TI. Aplicando a fórmula geral de Taylor,


seja divisível por f
obtemos

oride b é algum polinômio. Por hipótese,f(h)=qfn. Assim, vemos


n n
que para f (h - gn f ) ser divisível por f +t basta escolher gn de
maneira tal que (q - gJ') seja divisível por f. Isto pode ser feito,
pois f não possui fatores primos repetidos e então f e f' são rela­
tivamente primos. Se a e e são polinômios tais que af + ef' 1 =

e se fizermos gn=eq, então q - gn f será divisível por f.


'
344 - ALGEBRA LINEAR

Agora temos uma seqüência g0, g1' ... tal que fn+i divide

1(x - _I gJ1) • Tomemos n = r -1; como f(T)' = O, temos


1=0

Seja
r-1 r-1
N = L giT)f(T)i = L giT)f(T)i.
j= 1 j= o
n
Como .L: gJ i é divisível por f, vemos que N' = O e N é nilpotente .

=
. j 1
Seja S T N. Então f(S) =f(T- N) = O. Como f possui fatores
= -

primos distintos, S é semi-simples.


Temos agora T = S + N onde S é semi-simples, N é nilpo­
tente e cada um é um polinômio em T. Para demonstrar a afir­
mação da unicidade, passaremos do corpo de escalares F ao corpo
dos números complexos. Seja f!4 uma base ordenada do espaço V.
Então temos

[ T J� =
[SJ"' + [NJ�

sendo [SJ 11 diagonalizável sobre o corpo dos números complexos e


[N]"' nilpotente. Esta matriz diagonalizável e esta matriz nilpotente
que comutam são determinadas de modo único, como demons­
tramos no Capítulo 6.

Exercícios

1. Se N é um operador linear nilpotente sobre V, mostrar que para todo poli­


nômio f, a parte semi-simples de f (N) é um múltiplo escalar do operador
idêntico (F é um subcorpo de C).

2. Seja F um subcorpo do corpo dos números complexos, V um espaço vetorial


de dimensão finita sobre F e T um operador linear semi-simples sobre V. Se f
é um polinômio arbitrário sobre F, demonstrar que f(T) é semi-simples.

3. Seja T um operador linear sobre um espaço de dimensão finita sobre um


subcorpo de C. Demonstrar que T é semi-simples se, e somente se, vale o
seguinte: Se f é um polinômio e f(T) é nilpotente, então f(T) =O.
Capítulo 8

ESPAÇOS COM PRODUTO INTERNO

8.1 Produtos Internos


Em todo este capítúlo trataremos apenas de espaços vetoriais
reais ou complexos, isto é, de espaços vetoriais sobre o corpo dos
números reais ou sobre o corpo dos números complexos. Nosso
objetivo principal é estudar espaços, vetoriais nos quais tenha sen­
tido falar do "comprimento" de um vetor e do "ângulo" entre dois
vetores. Faremos isto por meio do estudo de um certo tipo de
função definida sobre pares de vetores e tomando valores escalares,
conhecida como um produto interno. Um exemplo de produto
interno é o produto escalar de vetores em R3. O produto escalar
dos vetores

em R3 é o número real
____..--'

(r:x/3) = X1Y1 + X2Y2 + X3Y3·

Geometricamente, este produto escalar é o produto do compri­


mento de r:x pelo comprimtnto de f3 e pelo cosseno do ângulo entre
r:x e /3. Assim, é possível definir os conceitos geométricos de "com­
primento" e "ângulo" em R3 em termos do produto escalar que é
algebricamente definido.
Um produto interno sobre um espaço vetorial é uma função
com propriedades semelhantes às do produto escalar em R3 e, em
termos de tal produto interno, pode-se também definir "compri­
mento" e "ângulo". Nossos comentários sobre a noção geral de
ângulo restringir-se-ão ao conceito de perpendicularidade (ou orto­
gonalidade) de vetores. Nesta primeira seção, vamos dizer o que
é um produto interno, considerar alguns exemplos particulares e
estabelecer algumas propriedades básicas dos produtos internos.
346 - ALGEBRA LINEAR

Então, voltar-nos-emos ao trabalho de discutir comprimento e


ortogonalidade.

Definição. Seja F o corpo dos números reais ou o corpo dos


números complexos e seja V um espaço vetorial sobre F. Um pro­
duto interno sobre. V é uma função que associa a cada par ordenado
de vetores ix, f3 em V um escalar (exi/3) em F de maneira tal que para
todo ex, /3, y em V e todos escalares c

(a) (ex+ PIY) (exJy) + ( /3ly);


=

(b) (cexl/3) = c(exif3);


(c) (ftiex) (exl/3), onde a barra indica conjugação complexa;
=

(d) (exiex) >O se ex=/:- O.


Deve-se observar que as condições (a), (b) e (c) implicam que
(e) (exlc/3 + y) = c(exl/3 ) + (exiy).

Outro fato merece ser mencionado. Quando F é o corpo R dos


números reais, os complexos conjugados que aparecem em (c) e (e)
são supérfluos; no entanto, no caso de F ser complexo eles são
necessários para a consistência das condições. Sem estes complexos
conjugados, teríamos a contradição:

(exiex) >O e (iex l iex) = - l(exiex) >O.

Nos exemplos que seguem, como em todo o capítulo, F é o


corpo dos números reais ou o corpo dos números complexos.

Exemplo 1. Sobre F' existe um produto interno que denomi­


namos o produto interno canônico. É definido sobre ex (x,, ... , xn) =

e f3 = (y 1' yn) por


• • . '

(8-1) (exi/3) = �:X1Yr


j

Quando F = R, podemos também escrever

(exl/3) = L xiyr
j

No caso real, o produto interno canônico é freqüentemente deno­


.minado produto escalar e é indicado por ex· f3.
ESPAÇOS COM PRODUTO INTERNO - 347

Exemplo 2. Para IX= (x1, x2) e /3 = (yl' y2 ) em R2, seja

2
Como (1X l 1X) = (x1 - x2) + 3x�, decorre que (ai IX)> O se IX =F O. As
condições (a), (b) e (c) da definição são facilmente verificadas.

Exemplo 3. Seja V = F" x" o espaço de todas as n x n matrizes


sobre F. Então V é isomorfo a F"2, de uma maneira natural.
Decorre, portanto, do Exemplo 1 que a equação

(A I B) = L A jkBjk
j,k

define um produto interno sobre V. Além disso, introduzindo a


matriz transposta conjugada B*, onde B\i Bik' podemos expri­
=

mir este produto interno sobre F" x" em termos da função traço

(AIB) = tr(AB*) = tr(B*A).


De fato,
tr(AB*) = L (AB*)ii
j

Exemplo 4. Seja F" x 1 o espaço das n x 1 matrizes (colunas)


sobre F e seja Q uma n x n matriz inversível sobre F. Para X, Y
em F" x 1 definamos

(XI Y) = Y*Q*QX.

Estamos identificando a 1 x 1 matriz à direita com o seu único


elemento. Quando Q é a matriz unidade, esse produto interno é
essencialmente o mesmo que o do Exemplo 1; nós o denominamos
p
produto interno canônico sobre n x 1. O leitor deverá observar
que a denominação "produto interno canônico" está sendo usada
em dois contextos especiais. Para um espaço vetorial arbitrário
sobre F, de dimensão finita, não existe nenhum produto interno
evidente, que possa ser denominado canônico.
348 - ALGEBRA LINEAR

Exemplo 5. Seja V o espaço vetorial das funções contínuas


definidas sobre o intervalo unitário, Os t s 1 e tomando valores
complexos. Seja

(f lg) = Ia1 f (t) g(t) dt.

O leitor provavelmente tem mais familiaridade com o espaço das


funções contínuas definidas sobre o intervalo unitário e tomando
valores reais, e para este espaço, a conjugação complexa sobre g
pode ser omitida.

Exemplo 6. Este é na realidade toda uma classe de exemplos.


Pode-se construir novos produtos internos a partir de um dado
produto interno pelo seguinte método: Sejam V e W espaços veto­
riais sobre F e suponhamos que ( 1) seja um produto interno sobre
W. Se T é uma transformação linear não-singular de V em W,
então a equação

Pr(rx,/3) =
(Trxl T/3)
define um produto interno Pr sobre V. O produto interno do
Exemplo 4 é um caso particular desta situação. Os que seguem
também são casos particulares.
(a) Seja V um espaço vetorial de dimensão finita e seja .

uma base ordenada de V. Sejam a 1, . . , i;n os vetores da base


.

canônica de pn e seja Ta transformação linear de V em pn tal que


Trxi = i;i' j = 1, ... , n. Em outras palavras, seja T o isomorfismo
"natural" de V em F" determinado por flÃ. Se tomarmos o pro­
duto interno canônico sobre F", então

PlLj xirxi, Lk ykrxk) =


L x/flr
j= 1

Assim, para toda base f!J de V, existe um produto interno sobre V


com a propriedade de que (rx;l rxk) = ôik; na verdade, é fácil mos­
trar que existe exatamente um tal produto interno. Mostraremos
posteriormente que todo produto interno sobre V é determinado
por alguma base fl,I da maneira acima.
ESPAÇOS COM PRODUTO INTERNO - 349

(b) Consideremos novamente o Exemplo 5. Tomemos V= W,


o espaço das funções contínuas sobre o intervalo unitário. Seja T
"
o operador linear "multiplicação por t , isto é, (Tf) (t) = tf(t),
O ::;; t ::;; 1. É T é linear. T também é não-singular;
fácil ver que
de fato, suponhamos que Tf=O. Então, tf(t) =O para O::;; t::;; l;
logo, f(t) =O para t >O. Como fé contínu_a, temos também f(O) =O
ou seja, f =O. Usando o produto interno do Exemplo 5, cons­
truamos um novo produto interno sobre V colocando

Pr (f, g) = r (Tf) (t) (Tg) (t) dt

= r f(t) g (t) t2dt.

Voltemos agora a observações gerais sobre produtos internos.


Suponhamos que V seja um espaço vetorial complexo com um
produto interno. Então, para todos a, f3 em V

onde Re(ixl/3) e Jm(ixl/3) são as partes real e imaginária do número


complexo (ixl/3). Se zé um número complexo, então Jm(z)=Re(-iz).
Decorre que

----
Assim, o produto interno é completamente determinado por sua
"parte real" de acordo com

(8-2)

Às vezes é bastante útil saber que um produto interno sobre


um espaço vetorial real ou complexo é determinado por uma outra
função, a chãmada forma quadrática determinada pelo produto in­
terno. Para defini-la, indiquemos primeiro a raiz quadrada positiva
de (ixlix) por lia li; llix li é denominada a norma de a em relação ao
produto interno. Observando os produtos internos canônicos em
R1, C1, R2 e R3, o leitor poderá se convencer de que é conveniente
considerar a norma de a como o "comprimento" ou "magnitude"
de rx. A forma quadrática determinada pelo produto interno é a
350 - ALGEBRA LINEAR

função que associa a cada vetor IX o escalar lllX 112. Decorre das
propriedades do produto interno que

lllX ± fi 112 = lllX 112 ± 2Re(1Xlfi) + llfi 112•

para todos os vetores IX e fi. Assim, no caso real,

1 1
(8-3) (ixlfi) = 4 lllX + fi 112 - 4 lllX - fi112.

No caso complexo usamos (8-2) para obter a expressão mais com­


plicada:

1 1
(8-4) (1Xlfi ) = 4 lllX + fi 112 - 4 lllX - fi 112

+ � lllX + ifi 112 - ! :llX - ifi 112.

As equações (8-3) e (8-4) são denominadas as identidades de pola­


rização. Notemos que (8-4) pode também ser escrita como segue:

(1Xlfi) = !I n=l
i" lllX + i"/3112•

.
As propriedades obtidas acima valem para qualquer produto
interno sobre um espaço vetorial real ou complexo, não impor­
tando sua dimensão. Voltamos agora ao caso em que V é de dimen­
são finita. Como se pode imaginar, um produto interno sobre um
espaço de dimensão finita sempre pode ser descrito em termos de
uma base ordenada por meio de uma matriz.
Suponhamos então que V seja de dimensão finita, que

seja uma base ordenada de V e que nos seja dado um particular


produto interno sobre V; mnstraremos que ele é completamente
determinado pelos valores

(8-5)
ESPAÇOS COM PRODUTO INTERNO - 351

que assume sobre pares de vetores em 8'. Se

então

= L xk L Ji/ockjoc)
k j
G
= L yi ikxk
j,k
= Y*GX

onde X, Y são as matrizes das coordenadas de oc, f3 em relação à


base ordenada 8' e Géa matriz com elementos Gik = (ockjoc). Deno­
minamos G a matriz do produto interno em relação. à base orde­
nada 8'. Decorre de (8-5) que Gé hermitiana, isto é, que G = G*;
contudo, Gé uma matriz hermitiana especial. De fato, pois G deve
satisfazer a condição adicional

(8-6) X*GX>O X=J;O.

Em particular, G deve ser inversível. Caso contrário, existiria uma


X# O tal que GX =O e para uma tal X, (8-6) é impossível. Mais
explicitamente, (8-6) afirma quêpara quaisquer escalares xl' .. . , x.,
não todos nulos

(8-7) L;'.xpikxk > O,


j ,k
Daqui vemos imediatamente que todo elemento diagonal de G deve
ser positivo; no entanto, esta condição sobre os elementos diago­
nais não é de forma alguma suficiente para assegurar a validez de
(8-6). Condições suficientes para a validez de (8-6) serão dadas
mais tarde.
O processo acima é reversível; isto é, se Gé uma n x n matriz
arbitrária sobre F que satisfaz (8-6), e a condição G = G*, ·então G
é a matriz, em relação à base ordenada 8', de algum produto interno
sobre V. Tal produto interno é dado pela equação
352 - ALGEBRA LINEAR

(o:IP) = Y*GX

onde X e Y são as matrizes das coordenadas de o: e p em relação


à base ordenada @.

Exercícios

1. Seja V um espaço vetorial e (li) um produto interno sobre V.


(a) Mostrar que (OIP} =O para todo p em V.
l l =O para todo P em V, então oe =O.
(b) Mostrar que se (oeP

2. Seja V um espaço vetorial sobre F. Mostrar que a soma de dois produtos


internos sobre V é um produto interno sobre V. A diferença de dois produtos
internos é um produto interno? Mostrar que um múltiplo positivo de um pro­
duto interno é um produto interno.

1
3. Descrever explicitamente todos os produtos internos sobre R e sobre C1.

4. Verificar que o produto interno canônico sobre F" é um produto interno.

5. Seja ( 1) o produto interno canônico sobre R2.


(a) Sejam oe=(1, 2), fJ =( -1, 1). Se y é um vetor tal que (oeiy) .
= -1 e · I ) =3,
(PY
determinar y. ·

(b) Mostrar que para todo oe em R2 temos oe=(ali:1)&1 +(ale )e •


2 2

6. Seja ( 1) o produto interno canônico sobre R2 e seja T o operador linear


T(xl' x ) =(-x , x1). Ora, T é "a rotação de 90º" e possui a propriedade
2 2
de que (ai Toe)=O para todo oe em R2• Determinar todos os produtos internos
·
[IJ sobre R2 tais que [oel Toe]=O para todo oe.

7. Seja ( 1) o produto interno canônico sobre C2. Demonstrar que não existe
nenhum operador linear não-nulo sobre C2 tal que (ai Toe)=O para todo oe em
C2. Generalizar.

8. Seja A uma 2 x 2 matriz com elementos reais. Para X, Y em R2 x 1 seja

fA(X, Y) = Y'AX.

Mostrar que fA é um produto interno sobre A 2 1 se, e somente se, A=A',


x

A11 >O, A >O e det A >O.


22
9. Seja V um espaço vetorial real ou complexo com produto interno. Mostrar
que a forma quadrática determinada pelo produto interno satisfaz a regra do
paralelogramo

lloe +Pll2 + lloe -Pll2 = 211oell2 + 211Pll2.


ESPAÇOS COM PRODUTO INTERNO - 353

10. Seja ( 1) o produto interno sobre R2 definido no Exemplo 2 e seja íiJ a base
ordenada canônica de R2• Determinar a matriz deste produto interno em
relação a íil.

11. Mostrar que a fórmula

define um produto interno sobre o espaço R [x] dos polinômios sobre o corpo
R. Seja W o subespaço dos polinômios de grau menor ou igual a n. Restringir
o produto interno acima a W e determinar a matriz deste produto interno
sobre "f'. em relação à base ordenada {1, x, x2, •.• , x"}. (Sugestão: Para mostrar
que a fórmula define um produto interno, observar que

Ulg) = f f(t)g(t)dt
e trabalhar com a integral.)

12. Seja lv um espaço vetorial de dimensão finita e seja íiJ = { ai' . . . , ex.} uma base
de V. Seja ( 1 ) um produto interno sobre V. Se e 1, , e. são n escalares arbi­
. • .

trários, mostrar que existe exatamente um vetor ex em V tal que (cxicx) = cí'
j = 1, ... , n.

13. Seja V um espaço vetorial complexo. Uma função J de V em V é denomi­


nada uma conjugação (também chamada função semilinear) se J(cx + fJ) =

= J(cx) + J(p), J(ccx) = cJ(cx) e J(J(cx)) =ex, para todos os escalares e e todos
ex, p em V. Se J é uma conjugação, mostrar que

(a) o conjunto W de todos ex em V tais que Jcx =ex é um espaço vetorial


sobre R em relação às operações definidas em V;
(b) para cada ex em V existe um úllico par de vetores p, y em W. tais que
a= P + �
14. Seja V um espaço vetorial complexo e W um subconjunto de V com as
seguintes propriedades:
(a) W é um espaço vetorial teat em relação às operações definidas em V.
(b) Para cada ex em V existe um único par de vetores p, y em W, tais que
� = + i)•. Mostrar que a equação JrJ. = fJ
f! i;• define uma conjugação sobre
-

V tal que Jcx =ex se, e somente se, ex pertence a W e mostrar também que J
é a única conjugação sobre V com esta propriedade.

15. Determinar todas as conjugações sobre C1 e C2•

16. Seja W um subespaço real de dimensão finita de um espaço vetorial com­


plexo V. Mostrar que W satisfaz a condição (b) do Exercício 14 se, e somente
se, toda base de W é também uma base de V.

17. Seja V um espaço vetorial complexo, J uma conjugação sobre V, W o con·


junto dos ex em V tais que Jcx =ex e f um produto interno sobre W Mostrar que:
354 - ALGEBRA LINEAR

(a) existe um único produto interno g sobre V tal que g(rx, {3) = f (rx, PJ para
todos rx, f3 em W,

(b) g(Jrx, J{J) g({J, rx) para todos rx, f3 em V.


=

O que a parte (a) diz acerca da relação entre os produtos internos ·canônicos
sobre R' e C1 ou sobre R" e C"?

8.2 Espaços com Produto Interno

Agora que temos alguma idéia sobre o que um produto interno


é, voltaremos nossa atenção para o que pode ser dito a respeito
da combinação de um espaço vetorial e algum produto interno par­
ticular sobre ele. Especificamente, estabeleceremos as propriedades
básicas dos conceitos de "comprimento" e "ortogonalidade" que
são impostas ao espaço pelo produto interno.

Definição. Um espaço com produto interno é um espaço ve­


torial real ou complexo, munido de um produto interno especificado
sobre aquele espaço.

Um espaço real com produto interno e de dimensão finita é


freqüentemente denominado um espaço euclidiano. Um espaço
complexo com produto interno é freqüentemente dito um espaço
unitário.

Teorema 1. Se V é um espaço com produto interno, então, para


quaisquer vetores oc, p em V e todo escalar e
(i) llcocll =le i llcxll;
(ii) liali > O para a# O;
(iii) i(oci P)i ::; //oc 11 !IP 11;
(iv) lia + P li ::; lloc li + llP li.

Demonstração. As afirmações (i) e (ii) decorrem quase imedia­


tamente das diversas definições envolvidas. A desigualdade em (iii) ·

é evidentemente válida quando a = O. Se oc# O, coloquemos

Então (y i a ) = O e
ESPAÇOS COM PRODUTO INTERNO - 355

- (/3iex) (exl/3)
(/31/3)
=

llex 112

l<exlPW .
= 11/3112 _

llex 112
Logo, l(exl/3}12 � llexll2 11/3112. Usando agora (iii) concluímos que

llex + /3112 = llex112 + (exl/3) + (f3 iex) + 11/3112


= llex112 + 2Re(exl/3) + 11/3112
� llex112 + 2 llexli 11/3li + 11/3112
= (llexll + 11/311)2•
Assim, llex + /3li � llexli + 11/3li.
A desigualdade em (iii) é denominada a desigualdade de
Cauchy-Schwarz. Ela possui uma ampla gama de aplicações. A
demonstraçlfo mostra (por exemplo) que se ex Tor não-nulo, então
l(exl/3) 1<llexii11/311 a não ser que
/3
/3 - ( iex) ex.
- llex 112
Portanto, a igualdade ocorre em (iii) se, e somente se, ex e f3 são
linearmente dependentes.

Exemplo 7. Aplicando a desigualdade de Cauchy-Schwarz


aos produtos internos dados nõs--Exemplos 1, 2, 3 e 5 obtemos o
seguinte:
(a) IL xkJ\ I � (L lxkl2)1;2(L lhl2)1/2
lx Y1
1 --' X2Y1 - X1Y2 + 4X2Y2 I
(b)
((x 1 - X2 )2 + 3x�)1f2((Y1
� Y )2 + 3y � )1 f2
2
-

( c) l tr(AB*)I � (tr(AA*))112(tr(BB*))112

Definições. Sejam ex e f3 vetores num espaço V com produto


interno. Dizemos que ex é ortogonal a /3 se (exIP}= O; como isso im­
plica que f3 é ortogonal a ex, dizemos simplesmente que ex e /3 são
ortogonais. Se S é um conjunto de vetores em V, dizemos que S é um
356 - ALGEBRA LINEAR

conjunto ortogonal se dois quaisquer vetores distintos em S são


ortogonais. Um conjunto ortonormal é um conjunto ortogonal S,
com a propriedade adicional de que lloc li 1 para todo oc em S.
=

O vetor nulo é ortogonal a todo vetor em V e é o único vetor


com esta propriedade. É conveniente pensar em um conjunto orto­
normal como um conjunto de vetores mutuamente perpendiculares,
cada um tendo comprimento 1.

Exemplo 8. A base canônica de Rn ou de cn é um conjunto


ortonormal em relação ao produto interno canônico.

Exemplo 9. O vetor (x,y) em R2 é ortogonal a ( -y,x) em


relação ao produto interno canônico, pois

((x,y)l(-y,x)) = -xy + yx = O .

No entanto, se R2 estiver munido do produto interno do Exemplo 2,


(x, y) e (-y, x) serão ortogonais se, e somente se,

Exemplo 10. Seja V= C" x" o espaço das n x n matrizes com­


plexas e EP"ii a matriz cujo único elemento não-nulo é um 1 na linha
p e coluna q. Então, o conjunto de todas estas matrizes EPq é orto�
normal em relação ao produto interno dado no Exemplo 3. De
fato, pois

(WqlErs) = tr(EPqE") = (J tr(EP')


qs pr
. . qs
.
.
= (J (J •

Exemplo 11. Se V é o espaço das funções contínuas definidas


sobre o intervalo Os x s 1 e tomando valores complexos (ou va­
lores reais), com o produto interno

ifM = I f (x)g(x) dx

Suponhamos f.(x) J2 cos 2n nx e g .(x) J2 sen 2 n nx. Então


= =

{1,fl'gl'f2,g2, }é um conjunto ortonormal infinito. No caso


• • •

complexó, podemos também formar as combinações lineares


ESPAÇOS COM PRODUTO INTERNO - 357

,}i ifn + ign), n =


1, 2, ...

Dessa maneira obteremos um novo conjunto ortonormal S consti­


tuído de todas as funções da forma

n =
±1, ±2, ...

Acrescentando-se ao conjunto S a função constante 1 obtém-se


o conjunto S' que também é ortonormal. Estamos supondo aqui
que o leitor esteja familiarizado com o cálculo das integrais em
questão.
Os conjuntos ortonormais dados nos exemplos acima são
todos linearmente independentes. Mostraremos agora que neces­
sariamente isso acontece.

Teorema 2. Um i conjunto ortogonal de vetores não-nulos é


linearmente independP.ate.

Demonstração. Seja S um conjunto ortogonal finito ou infi­


nito de vetores não-nulos num espaço com produto interno. Supo­
nhamos que o:P o:2, • • • , o:m sejam vetores distintos em S e que

/J = C
10:1 + C21X2 + · · · + CmO:m.

Então

(/Jlak) =

Ite,ajlo:k)
j
=
I c/o:jio:k)
j
=
ck(o:kiak).
Como (o:kio:k) =F O, decorre que

1 ::5: k :::;; m.

Assim, quando f3 =
O cada
,
ck =
O ; logo S é um conjunto indepen­
dente.
·-

Corolário. Se um vetor f3 é uma combinação linear de uma se-


qüência ortogonal de vetores não-nulos ·
o:1, 0:2' • • • , o:m então /3 é: exata-
mente a combinação linear
358 - ALGEBRA LINEAR

(8-8)

Este corolário decorre da demonstração do teorema. Existe


um outro corolário que, apesar de evidente, deve ser mencionado.
Se { oc1, . . . , ocm} é um conjunto ortogonal de vetores não-nulos em
um espaço V de dimensão finita com produto interno, então
m < dim V. Isso diz que o número de direções mutuamente orto­
gonais em V não pode exceder a dimensão de V, algebricamente
definida. O número máximo de direções mutuamente ortogonais
em V é o que, intuitivamente, se consideraria como sendo a dimen­
são geométrica de V, e acabamos de ver que esta não é maior que
a dimensão algébrica. O fato de que essas duas dimensões sejam
iguais, é um corolário particular do próximo teorema.

Teorema 3. Seja V um espaço com produto interno e sejam


{31' , {Jn vetores independentes arbitrários em V. Então é possível
. . .

construir vetores ortogonais oc1, , ocn em V tais que, para cada



• •

k 1, 2, . , n, o conjunto
= . .

é uma base do subespaço gerado por {31, , {Jk. • • •

Demonstração. Os vetores oc1, ... , oc" serão obtidos por meio


de uma construção conhecida como o proc_esso de ortogonalização
de Gram-Schmidt. Inicialmente, seja oc 1 P�. Os outros vetores =

serão obtidos, indutivamente, da seguinte maneira: Suponhamos


que ocl' . . . , ocm(l � m < 11) tenham sido escolhidos de tal modo que,
para caôa k

l � k � m,

seja uma base ortogonal para o subespaço de V, gerado por


{31, • . • , {Jk. Para construir o vetor seguinte, ocm 1'
+ seja

(8-9)

Então ocm+t #-O pois, caso contrário, Pm+r seria uma combinação
linear de ocl' ... , ocm e, portanto, uma combinação linear de {3 ' . . , {Jm.
1 .
ESPAÇOS COM PRODUTO INTERNO - 359

Além do mais, se 1 ::;; j ::;; m,

(ctm+ 1 la) =
(f3m+1la) - k l � ([3�;j�k) (akla)
=
(f3m+1la) - (f3m+1la)
= O .

Portanto, {al' ... , ªm+ 1} é um conjunto ortogonal form�do de


m + 1 vetores não nulos do subespaço gerado por [31' ..., !3m+ 1.
Pelo Teorema 2, ele constitui uma base desse subespaço. Assim, os
vetores al' ..., a,, podem ser construídos, um após o outro, de
acordo com (8-9). Em particular, se n =:' 4, temos

ª1 =
f31

a2 [32 _ (/Jzlai) a
llct1 112 .
=
1

(8-10)

Corolário. Todo espaço de dimensão finita com produto interno


possui uma base ortonormal.
Demonstração. Seja V um espaço de dimensão finita com pro­
duto interno e seja {[31' ... , [311} uma bas� de V. Apliquemos o
processo de Gram-Schmidt para construir uma base ortogonal
{al' ... ,a,,}. Para obter em seguida uma base ortonormal, substi­
tuamos simplesmente cada vetor ak por ai llak 11-
Uma das principais vantagens que as bases ortonormais pos­
suem, em comparação com bases arbitrárias, é que os cálculos
envolvendo coordenadas tornam-se mais simples. Para mostrar, em
termos gerais, por que isso é verdade, suponhamos que V seja um
espaço de dimensão finita com produto interno. Podemos então,
como na última seção, usar a Equação (8-5) para associar a cada
base ordenada f!l = {al' ...,a,,} de V, uma matriz G. Usando essa
matriz
360 - ALGEBRA LINEAR

podemos calcular produtos internos em termos de coordenadas.


Se f!I for uma base ortonormal, G será a matriz identidade e para
quaisquer escalares xi e yk

Assim, em termos de uma base ortonormal, o produto interno


sobre V tem a mesma aparência que o produto interno canônico
sobre P.
Apesar do seu limitado uso prático em cálculos, é interessante
observar que o processo de Gram-Schmidt pode também ser. usado
para testar dependência linear. De fato, suponhamos que /31, .. ., f3.
sejam vetores linearmente dependentes em um espaço V com
produto interno. Para excluirmos· um caso trivial, suponhamos
/31 # O. Seja m o maior inteiro para o qual os vetores /31, ..., f3m
são independentes. Então 1 � m < n. Sejam oc1, ..., ª• os vetores
obtidos, aplicando-se aos vetores /31' ..., /3m o processo de ortogo­
nalização. Então o vetor ocm+1' dado por (8-9.), é necessariamente
nulo. De fato, ªm+l está no subespaço gerado por oc1, ..., am e é
ortogonal a cada um desses vetores; logo am+ 1 é nulo por (8-8).
Reciprocamente, se ocl' ..., am são não nulos e am+ 1 O os vetores =
,

/31' ..., /3m+ 1 são linearmente dependentes.

Exemplo 12. Consideremos os vetores

/31 =
(3, O, 4)
/32 = (-1, o, 7)
�3 =
(2, 9, 11)

em R3 munido do produto interno canônico. Aplicando aos veto­


res /31' /32, {33 o processo de Gram-Schmidt, obteremos os seguintes
vetores

ª1 =
(3, Q, 4)
((-1, O, 7)1(3, O, 4))
ª2 - (' -l ' O ' 7)
_ _

2.5 (3
''
O
'
4)

=
(-1, 7) - (3, O, 4)
O,

= (-4, O, 3)
ESPAÇOS COM PRODUTO INTERNO - 361

((2, 9, 11 )1(3, o, 4)) o 4)


°'3 =
(2' 9 ' 11) - (3' '
25
((2, 9, 11)1(-4, o, 3)) o 3)
- (-4'
25 '

=
(2, 9, 11) - 2(3, O, 4) - (-4, O, 3)
=(O, 9, O).
Esses vetores são obviamente não nulos e mutuamente ortogonais.
3
Logo, {a1, a2, a3} é uma base ortogonal de R . Para exprimir um
3
vetor arbitrário (x1, x2, x3) de R , como uma combinação linear
de oc1' oc2, a3 não é necessário resolver nenhuma equação linear.
Basta usar (8-8). Assim,

como é facilmente verificável. Em particular,


í
(1, 2, 3) = 1 (3, O, 4) + t (-4, O, 3) + %(0, 9, O).

Sob outro aspecto, o que mostramos foi o seguinte: A base


3
{f1,f2,f3} de (R )*, dual da base {a1' a2, a3} é definida explicita­
mente pelas equações

e essas equações podem ser escritas, mais geralmente, na forma

Finalmente, observemos que de oc1' a2, a3 obtemos a base orto­


normal

{t (3, O, 4), t ( -4; O, 3), (O, 1, O)}.


362 - ÁLGEBRA LINEAR

Exemplo 13. Seja A = [: !J onde a, b, e e d são números

complexos. Coloquemos /31 =(a, b), /32 =(e, d) e suponhamos que


/31 #O. Se aplicarmos o processo de ortogonalização a /31' /32 usan­
do o produto interno canônico de C2, obteremos os seguintes vetores

a1 =
(a, b)
((e, d)jia. b))
(e, d) a b)
_

ª2
lal2 lbl2 ( ,
=

. (cã + db)
= (e, d) - (a b)
lal2 + IW ,

=
(cbb - dba dãa - cãb )
lal2 + lbl2' l a l2 + lbl2
det A
2 2 ba
lbl (- , ).
- _

= lal +

Ora, a teoria geral nos diz que a #O se, e somente se, /31 e /32
forem linearmente independentes.
2Por outro lado, a fórmula para
a2 mostra que isso acontece se, e somente se, det A #O.
Em essência, o processo de Gram-Schmidt consiste de apli­
cações repetidas de uma operação geométrica fundamental, deno-.
minada projeção ortogonal, e o processo é melhor compreendido
sob este ponto de vista. O método da projeção ortogonal também
surge, de um modo natural, na solução de problemas importantes
de aproximação.
Suponhamos que W seja um subespaço de um espaço com pro­
duto interno V e /3 um vetor arbitrário de V. O problema consiste
em determinar uma melhor aproximação possível de f3 por vetores
de W. Isso significa que devemos determinar um vetor a para o
qual 11/3 - a li seja tão pequeno quanto possível e sujeito à res­
trição de que a seja um elemento de W. Precisemos nossa lin­
guagem.

UÍna melhor aproximação d.e /3 por vetores de W é um vetor


a em W tal que

11/3 - (X li � 11/3 - y li
para todo vetor y em W.
ESPAÇOS COM PRODUTO INTERNO - 363

Examinando esse problema em R2 ou em R3 ve' mos, intuiti­


vamente, que uma melhor aproximação de {3 por vetores de ·w
deverá ser um vetor IX em W tal que {3 rx seja perpendicular (orto­
-

gonal) a W e que deverá existir exatamente um IX nessas condições.


Essas idéias intuitivas são corretas para subespaços de dimensão
finita e para alguns, mas não todos, subespaços de dimensão infi­
nita. Como a situação precisa é demasiadamente complicada para
ser tratada aqui, demonstraremos apenas o seguinte resultado:

Teorema 4. Seja W um subespaço de um espaço V com produto


interno e seja {3 um vetor de V.
(i) O vetor rx em W é uma melhor aproximação de {3 por veto­
res de W se, e somente se, {3 - IX é ortogonal a todo vetor de W.
(ii) Se uma melhor aproximação de {3 por vetores de W existir,
ela é única.
(iii) Se W é de dimensão finita e [ IX 1, ... , IX
n
J é uma base orto­
normal arbitrária de W, o vetor

é a (única) melhor aproximação de {3 por vetores de W.


Demonstração. Inicialmente observemos que se y é um vetor
arbitrário de V, então fJ - y'= ({3 - IX)+ (IX y), e -

11{3 - 1' 112 = 11{3 - a 112 + 2 Re({3 - aia - y) + lla - 1' 112.

Suponhamos agora que {3 -a seja ortogonal a todo vetor em W,


que y esteja em W e que y #a. Como a -y está em W, segue-se que

11{3 - 1' 112 = 11{3. a 112 +


- lia - 1' 112
> 11{3 - a 112•

Reciprocamente, suponhamos que 11{3 -y li;:::: li {3 - a li para todo


y em W. Então, segue-se, da primeira equação acima, que

2 Re ({3 - ala - y) + lia - y 112 ;:::: O

para todo y em W. Como todo vetor em W pode ser expresso na


forma a -y com y em W, vemos que

2 Re({3 -ai-r) + 11-r 112 ;:::: O


364 - ALGEBRA LINEAR

para todo r em W. Em particular, se y está em W e y i= oc, podemos


colocar

(/3 ' - y)
- - (oc y.
- °' °'

' lloc - ')' 112 - )


Então a desigualdade se reduz a

_21(/3 - °' ' °' - Y)l2 + IW - ocloc - Y)l2 > 0


lloc - ')' 112 lloc ')' 112
·
-
-

Essa expressão é válida se, e somente se, (/3 - txloc - y) =O. Por­
tanto, f3 - oc é ortogonal a todo vetor de W. Isso completa a
demonstração da equivalência das duas condições sobre oc, dadas
em (i). A condição ,de ortogonalidade é evidentemente satisfeita
por, no máximo, um' vetor de W, o que demonstra (ii).
Suponhamos agora que W seja um subespaço de dimensão
finita de V. Então, como corolário do Teorema 3, sabemos que W
possui uma base ortogonal. Seja { °'1' . . . , ocn} uma base ortogonal
arbitrária de W e definamos oc por (8-11). Então, em vista do cálculo
feito na demonstração do Teorema 3, f3 - oc é ortogonal a cada um
dos vetores ock(/3 - oc é o vetor obtido na última passagem, quando
o processo de ortogonalização é aplicado a oc1, ... , °'n• /3). Assim,
f3 - oc é ortogonal a toda combinação linear de °'1' ... , °'n' isto é,
a todo vetor de W. Se y está em W e y i= oc, segue-se que
11/3 - ')'li > 11/J - oc li. Portanto, oc é a melhor aproximação de f3
contida em W.

Definição. Seja V um espaço com produto interno e seja S


um conjunto arbitrário de vetores em V. O suplementar ortogonal
de S é o conjunto S1- de todos os vetores em V que são ortogonais a
todo vetor em S.
O suplementar ortogonal de V é o subespaço nulo e, recipro­
camente {O} 1 = V. Se
S é um subconjunto arbitrário de V, seu
suplementar ortogonal S 1 (S perpendicular) é sempre um subes­
paço de V. De fato, S1 é não vazio pois ele contém O; e sempre
que oc e f3 estiverem em s.t e. c for um escalar arbitrário,

(coe + /311') =c(ocl y) + (/Jly)


=cO +O

ESPAÇOS COM PRODUTO INTERNO - 365

para todo y em S, logo cex + /3 também estará em S1. No Teore­


ma 4, a propriedade característica dó vetor ex é a de que ele é o
único vetor em W tal que f3 - ex pertença a W 1.

Definição. O vetor ex do Teorema 4, sempre que existir, é deno­


minado projeção ortogonal de f3 sobre W. Se todo vetor de V tiver
uma projeção ortogonal sobre W, a aplicação que associa a cada
vetor de V sua projeção ortogonal sobre W é denominada projeção
ortogonal de V sobre W.

Pelo Teorema 4, sempre existe a projeção ortogonal. de um


espaço com produto interno, sobre um subespaço de dimensão
finita. Mas o Teorema 4 também implica o seguinte resultado:

Corolário. Sejam V um espaço com produto interno, W um


subespaço de di'!lensão finita e E a projeção ortogonal de V sobre W.
Então a aplicação

/3 - /3 - E/3

é a projeção ortogonal de V sobre W 1.

Demonstração. Seja f3 um vetor arbitrário em V. Então f3 - E/3


1 1
está em W , e para qualquer y em W , f3 - y E/3. + (/3 - E/3 - y).
.L
=

Como E/3 está em W e f3 - E/3 - y está em W , segue-se que

11/3 - Y 112 = llE/Í 112 + 11/3 E/3 - y 112


-

:2: 11/3 - (/3 - E/3) 112

valendo a desigualdade estrita quando y # f3 --'-- E/3. Portanto, f3 - E/3


é a melhor aproximação de f3 por vetores em w-1.

Exemplo 14. Seja dado R3, munido do produto interno canô­


nico. A projeção ortogonal de ( -10, 2, 8) sobre o subespaço W ge­
rado por (3, 12, -1) é o vetor

(( -10, 2, 8)j(3, 12, -1))


ex= (3' 12 - l)
9 + 144 + 1
'

-14
= (3, 12, -1).
154
366 - ALGEBRA LINEAR

A projeção ortogonal de R3 sobre W é a transformação linear E,


definida por

(Xp X2, X3) __.


( 3x1 + 12x2 - x3 ) (3, 12, -1).
154

O posto de E é, evidentemente, 1; portanto, sua nulidade é 2.


Por outro lado,

se, e somente se, 3x1 + 12x2 - x3 O Isso acontece se, e somente


= .

se, (xl' Xz, X3) estiver em w..L. Portanto, w_j_ é o núcleo de E e


dim (W1) 2. Calculando

( )
=

3x1 + 12x2 - x3
(Xp X2, X3) - - (3, 121 -1)

154
3
vemos que a projeção ortogonal de R sobre W .L é a transfor­
mação linear 1 E que leva o vetor (xp x2' x ) no vetor
3
-

As observações feitas no Exemplo 14 generalizam-se da se­


guinte maneira:

Teorema 5.Seja W um subespaço de dimensão finita de um


espaço V com produto interno e seja E a projeção ortogonal de V
sobre W. Então E é uma transfarmação linear idempotente de V
J.
sobre W, W é o núcleo de E e
V= WE!1W.i.

Demonstração. Seja [J um vetor arbitrário de V. Então E[J é


a melhor aproximação de [J contida em W Em particular, E[J [J =

quando [J estiver em W. Portanto, E(E[J) E[J para todo [J em V; =

isto é, E é idempotente: E2 =E. Para provar que E é uma trans­


formação linear, sejam a e [J vetores quaisquer em V e e um escalar
arbitrário. Pelo Teorema 4, a - Ea e [J - E[J são ortogonais a todos
os vetores de W. Portanto, o vetor

'é(a. - Ea) + ([J - E[J) = (ca. + [J) - (cEa + E[J )


ESPAÇOS COM PRODUTO INTERNO - 367

também pertence a W ..L. Como cEa + EfJ é um vetor em W,


segue-se, do Teorema 4, que

E(crx + fJ) = cErx + EfJ.


É claro que podemos também demonstrar a linearidade de E
usando (8-11). Novamente seja fJ um vetor arbitrário em V. Então
E{3 é o único vetor em W tal que fJ - EfJ esteja em wl. Portanto,
E {3 = O quando fJ estiver em W.L. Reciprocamente, fJ estará em
W-'- quando EfJ = O. Logo W.i_ é o núcleo de E. A equação

fJ = EfJ + fJ - EfJ

mostra que V = W + Wl.; além disso, W n W..L = {O} . De fato, se


rx é um vetor em W W.L, então n (aja)= O. Portanto,°'= O e V é
a soma direta de W e W..L.

Corolário. Nas condições do teorema, 1 - E é a projeção orto­


gonal de V sobre W-'-. Ela é uma transformação linear idempotente
de V sobre W l. com núcleo W.

Demonstração. Já vimos que a aplicação {3 � fJ - EfJ é a pro­


jeção ortogonal de V sobre W..L. Como E é uma transformação
linear, essa projeção sobre W ..L é a transformação linear 1 - E.
Das suas J?ropriedades geométricas, vê-se que I - E é uma trans­
formação idempotente de V sobre W. Isso decorre também do
cálculo

(/ - E) (/ - E) = I - E - E + E2
= 1 - E.

Além disso, (/ - E) fJ = O se, e somente se, fJ = EfJ, e isso acontece


se, e somente se, {3 estiver em W. Portanto, W é o núcleo de 1 - E.
O processo de Gram-Schmidt pode, agora, ser descrito geome­
tricamente, da seguinte maneira: Dados um espaço V com pro­
duto interno e vetores fJ l' ... , Pn em V, seja Pk(k > 1) a projeção
ortogonal de V sobre o suplementar ortogonal do subespaço gerado
por {3" . . . , flk-" e coloquemos P 1 = /. Então os vetores que se
obtém, aplicando o processo de ortogonalização a {31' ... , fln, são
definidos pelas equações

(8-12) 1 ::;; k::;; n.


368 - ALGEBRA LINEAR

O Teorema 5 implica um outro resultado conhecido como a


desigualdade de Bessel.

Corolário. Seja {al' ... , a.} um conjunto ortogonal de vetores


não-nulos em um espaço V com produto interno. Se ·
f3 é um vetor arbi-
trário em V, então

e a igualdade vale se, e somente se,

f3
f3 = L- ( 1 a�; ak.
k llak li
Demonstração. Seja y = L [(f31ak)/ llak 112] ak. Então f3 = y + 8,
onde (ylc5) =O. Logo, k

llfJ 112 = lly 112 + llc5 ll2.


Agora, basta demonstrar que

Isto é um cálculo imediato, usando o fato de que (ailak) = O


para j "# k.

No caso especial em que {a1, ...,a.} é um conjunto ortonor­


mal, a desigualdade de Bessel afirma que

'L IC/3lak)i2 ::;; 11/3112•


k
O corolário também nos diz que, neste caso, f3 está no subespaço
gerado por al' .. . , ª• se, e somente se,

f1 = I (fJlak) ak .
k

ou seja, se, e somente se, a desigualdade de Bessel é, na verdade,


uma igualdâde. É claro que, no caso de V ser de dimensão finita
e {a1, ...,a.} ser uma base ortonormal de V, a fórmula acima vale
ESPAÇOS COM PRODUTO INTERNO - 369

para todo vetor {3 em V. Em outras palavras, se {al' . .. , a,, } é uma


base ortonormal de V, a k-ésima coordenada de p em relação à
base ordenada {al' , a,, } é (f3iak).
...
Exemplo 15. Aplicaremos o último corolário aos conjuntos
ortonormais descritos no Exemplo 11. Concluímos que

(a)

2
(b) Í11 k t é e2nikt
k , dt =

Jo = -n .

(c) L1 (J2 cos 2nt + J2 sen 4nt)2 dt =


1 + 1 = 2.

Exercícios

: 1. Consideremos R4 com o produto interno canomco. Seja W o subespaço de


R4 formado pelos vetores que são ortogonais a ex= (1, O, -1, l) e a f3 = (2, 3,
-1, 2). Determinar uma base de W.

2. Aplicar o processo de Gram-Schmidt aos vetores /31 = (1, O, 1), /32 = (!, O, -1),
{33=(0, 3, 4), para obter uma base ortonormal de R3 com o produto interno
canônico.

3. Consideremos C3 com o produto interno canomco. Determinar uma base


ortonormal do subespaço gerado por {31 = (1, O, i) e /32 (2, l, 1 + i). =

4. Seja V um espaço com produto interno. A distância entre dois vetores ex e f3


em V é definida por

Mostrar que

(a) d(a, /3) 2: O;


(b) d(a, /3) =O se, e somente se, ex={3;
(c) d(ex, /3 ) d(/3, ex);
=

(d) d(ex, /3) s; d(ex, y) + d(y, /3).


5. Seja V um espaço com produto interno e sejam ex, f3 vetores em V. Mostrar
que ex=/3 se, e somente se, (exiy)=(/JJy) p�ra todo y em V.
2
6. Seja W o subespaço de R gerado pelo vetor (3; 4). Usando o produto interno
canônico, seja E a projeção ortogonal de R2 sobre W. Determinar:
/
370 - ALGEBRA LINEAR

(a) uma fórmula para E(x" x2);


(b) a matriz de E em relação à base ordenada canônica;
i.
(c) W ;
(d) uma base ortonormal em relação à qual E seja representada pela matriz

7. Seja V o espaço com produto interno que consiste de R2 com o produto


interno cuja forma quadrática é definida por

ll(x1, x2 ) 112 = (x1 - x,)2 + 3x; .

Seja E a proJeçao ortogonal de V sobre o subespaço W gerado pelo vetor


(3, 4). Responder agora às quatro questões do Exercício 6.

8. Determinar um produto interno sobre R2 tal que (e1, e2) = 2.

9. Seja V o subespaço de R [x] formado pelos polinômios de grau no máximo 3.


Equipemos V com o produto interno

(f 1 g) = L' f(t) g(t) dt.


(a) Determinar o suplementar ortogonal do subespaço dos polinômios cons­
tantes.
(b) Aplicar o processo de Gram-Schmidt à base {1, x, x2, x3}.
10. Seja V o espaço vetorial das n x n matrizes sobre C, com o produto interno
!A I Bl tr(A.B"). Determinar o suplementar ortogonal do subespaço das ma­
=

trizes diagonais.

11. Seja V um espaço de dimensão finita com produto interno e seja {1X1, . . . , IX"}
uma base ortonormal de V. Mostrar que para quaisquer vetores IX, f3 em V

(ixl /3) = I
k=l
(ixl IXk) (/31ixk).

12. Seja W um subespaço de dimensão finita de um espaço V com produto interno


e seja E a projeção ortogonal de V sobre W. Demonstrar que (Eix//3) = (IX-IE/3)
para todos IX, p em V.

13. Seja S um subconjunto de um espaço V com produto interno. Mostrar que


(s't ·contém o subespaço gerado por S. Para V de dimensão finita, mostrar
que (s'f é o subespaço gerado por S.

14. Seja V um espaço de dimensão finita com produto interno e seja rJB ={IX"... , IX"}
uma base ortonormal de V. Seja T um operador linear sobre V e A a matriz
de T em relação à base ordenada !JB. Demonstrar que
ESPAÇOS COM PRODUTO INTERNO Br

15. Suponhamos que V= W1 EEl W2 e que /1 e /2 sejam produtos intCJrtlllN Nllhl'9


W1 e W2 respectivamente. Mostrar que existe um único produto i11tu11111 /
sobre V tal que

(i) W2 = W/';
(ii) f (IX, /3) = fk(rt., /3), quando IX, f3 estão em W,,, k = 1, 2.

16. Seja V um espaço com produto interno e W um subespaço de V de dimct1Níl11


finita. Existem (em geral) muitas projeções que têm W por sua im11111•111
Uma destas, a projeção ortogonal sobre W, tem a qtll' propriedade de
!IEIX!i:::; 111)'.ll para todo IX em V. Demonstrar que se E é uma projeção rn111
imagem W, tal que llE1Xll:::; lllXll para todo rt. em V, então E é a projc�il11
ortogonal sobre W.

17. Seja V o espaço real com produto interno que consiste do espaço das fu11�1\u•
contínuas, definidas no intervalo 1 :::; t :::; !, tomando valores reais. com 11
-

produto interno

u, g) = L, f(t) g(t) dt.

SejaW o subespaço das funções ímpares, isto é, funções que satisfazu111


/(-r) -f(r). Determinar o suplementar ortogonal de W.
=

8.3 Funcionais Lineares e Adjuntos


A primeira parte desta seção trata dos funcionais lineares sobrt!
um espaço com produto interno e de sua relação com o produto
interno. O resultado fundamental é que todo funcional linear f
sobre um espaço de dimensão finita com produto interno é o "pro­
duto interno por um vetor fixo no espaço'', isto é, que um tal f é
da forma f (a) = (a l ,B), para um certo f3 fixo em V. Usaremos este
resultado para demonstrar a existência do "adjunto" de um ope­
rador linear T sobre V, sendo este um operador linear T* tal que
(Tal,B) =(ai T*,B) para todos a e fJ em V. Através do uso de uma
base ortonormal, esta operação de conjugação sobre operadores
lineares (passando de T a T*) é identificada com a operação de se
tomar a transposta conjugada de uma matriz. Vamos explorar
superficialmente a analogia entre a operação de conjugação e a
conjugação sobre números complexos.
Seja V um espaço arbitrário com produto interno e seja fJ um
certo vetor fixo em V. Definamos uma função fp de V no corpo
de escalares por ·

fp(a) = (a 1 fJ).
372"� ÁLGEBRA LINEAR

Esta função Íp é um funcional linear sobre V, pois, por sua própr�a


definição, (ocfp) é linear como uma função de oc. Se V é a dimensão
finita, todo funcional linear sobre V provém desta maneira de
algum p.

Teorema 6. Seja V um espaço de dimensão finita com produto


interno e f um funcional linear sobre V. Então existe um único vetor
P em V tal que f(o:) = (oclP) para todo o: em V.
Demonstração. Seja {oc1, oc2' ... , ocn } uma base ortonormal de V.
Coloquemos

(8-13)

e seja fp o funcional linear definido por

fp�.) =
(o:fp)
Então
fp(ock) = (o:kfL f(oc)oc) = f(ock).
j

Como isto é válido para todo ock, decorre que f = ff" Suponhamos
agora que y seja um vetor em V tal que (ocfp) = (oc1y) para todo o:.
Então (p - yJp- y) =O e P = y. Assim, existe exatamente um vetor p
que determina o funcional linear f da maneira afirmada.
A demonstração deste teorema pode ser ligeiramente reformu­
lada, em termos da representação de funcionais lineares em relação
a uma base. Se tomarmos uma base ortonormal { o: 1, , �"} de V, . • .

o produto interno de oc x 1o:1 + . . + x"oc" e p = Y10:1 + ... + Ynªn


= .

será
(oc j p) = X1Y1 + · · · + XnYn·
Se fé um funcional linear arbitrário sobre V, então f é da forma

j(oc) = C1X1 + ... + CnXn


para certos escalares fixos c1' ... , cn determinados pela base. É
claro que c i = f(á). Se desejamos encontrar um vetor p em V tal
que (ocjp)-= f (oc) para todo oc, então evidentemente
--
as coordenadas y.J
de P devem satisfazer yi = ci, oti seja, yi = f(oc). Conseqüentemente

P = f(oc1)oc1 + ... + f (oc.)oc.

é o vetor desejado.
ESPAÇOS COM PRODUTO INTERNO - 373

Alguns comentários adicionais devem ser feitos. A demons­


tração do Teorema 6, que acabamos de fazer, é admiravelmente
curta, mas ela deixa de dar ênfase ao fato geométrico essencial de
que f3 está no suplementar ortogonal do núcleo de f. Seja W o
núcleo de f. Então V W + W-\ e f é completamente determi­
=

nada pelos seus valores em W ..L. De fato, se P é a projeção orto­


gonal de V sobre W..L, então

f(a) =f(Pa)

para todo a em V. Suponhamos f #- O. Então, o posto de f é 1 e


dim( W..L ) = l. Se y é um vetor não nulo, arbitrário, de W'\ se­
gue-se que

para todo a em V. Assim

1 f (y)
f (a) = (a y) tt ·

para todo a, e f3=[l(y)/llY112] y.

Exemplo 16. Gostaríamos de dar um exemplo que mostre que


o Teorema 6 não é válido sem a hipótese de V ser de dimensão
finita. Seja V o espaço vetorial dos polinômios sobre o corpo dos
números complexos, com o produto interno

Este produto interno pode também ser definido algebricamente.


k
Se f = Lakx e g = Lbkx\ então

Seja z um número complexo fixo e seja L o funcional linear "valor


que assume em z":

L(f) =
f (z ) .
374 - ÁLGEBRA LINEAR

Existe um polinômio g tal que (f lg) = L(f) para todo f? A res­


posta é negativa; de fato, suponhamos que se tenha

1 (z) = I 1 (t)g(t) dt

para todo f. Seja h =x - z, de modo que para todo f temos


(hf) (z) = O. Então

º = I h(t)f(t)(gt)dt

para todo f. Em particular, isto vale para f = hg de modo que

e então hg =O. Como h #-O, devemos ter que g =O. Mas L não
é o funcional nulo; logo, nenhum tal g existe.
Pode-se, num certo sentido, generalizar o exemplo, para o caso
em que L é uma combinação linear de funcionais do tipo acima.
Suponhamos que tomemos números complexos fixos z 1, ... , z" e
escalares c1' ..., c" e seja

L(f) =
cif(z1) + ... + cJ(zn ).

Então L é um funcional linear sobre V, mas não existe nenhum g


tal que L(f) = Ulg), a menos que c1 = c2 = ... = c" =O. Basta
repetir o argumento acima com h = (x - z 1) ...(x - z,J
Voltamos agora ao conceito do adjunto de um operador linear.

Teorema 7. Para qualquer operador linear T sobre um espaço


V de dimensão finita com produto interno, existe um único operador
linear T* sobre V tal que

(8-12) (foi/3) = (etlT*/J)

para todos et, p em V.

Demonstração. Seja p um vetor arbitrário em V. Então


et-+ (Tetl/3) é um funcional linear sobre V. Pelo Teorema 6, existe
ESPAÇOS COM PRODUTO INTERINO - 375

um único vetor /3' em V tal que (To: i/3) (1Xi/31


= para todo IX em V.
Indiquemos por T* a aplicação f3 � /3':

/3' = T*f3.

Temos (8-14), mas precisamos verificar que T* é um operador


linear. Sejam {3, y em V e seja c um escalar. Então, para qualquer a

(aiT*(cf3 + y)) = (To:ic/3 +y)


= (To:ic/3) + (To:iy)
= c(To:i/3) + (Ta y) l
= c(ai T*/3) +(a T*y)
= (aicT*/3) +(aiT*y)
= (aicT*/3 +T*y).

Assim, T*(cf3 + y) = cT*/3 +T*y e T* é linear.


A unicidade de T* é evidente. Para f3 arbitrário em V, o vetor
T*/3 é determinado de modo único como sendo o vetor {31 tal que
(To:i/3) = (1Xi/31) para todo a.

Teorema 8. Seja V um espaço de dimensão finita com produto


interno e seja 86 { IX 1, ..., a"} uma base ortonormal (ordenada) de
=

V. Seja T um operador linear sobre V e seja A a matriz de T em


relação à base ordenada !À. Então Aki (Tai 1 ak). =

Demonstração. Como 86 é uma base ortonormal, temos


n

IX = L (IX i ixk) ak.


k=l

A matriz A é definida por

To:j =
L Akpk
k=l
e como
n

To:i =
L (To:iiak)ak
k=l

Corolário. Seja V um espaço de dimensão finita com produto


interno e seja T um operador linear sobre V. Em relação a qualquer
376 - ALGEBRA LINEAR ,

base ortonormal de V, a matriz de T* é a transposta conjugada da


.
matriz de T.
Demonstraçãp:) Seja PJ = { al' .. ., an} uma base ortonormal de
V, seja A= [T]38 e B= [T*]38, De acordo com o Teorema 8,

A ki =
(Taiiak)
Bki =
(T*ailak).

Então, pela definição de T*, temos

Bki (T*ailak)
=

= (akl T*a)
= (T\la)
= A,k.
J

Exemplo 17. Seja V um espaço de dimensão finita com pro­


duto interno e seja E a projeção ortogonal de V sobre um subes­
paço W. Então, para quaisquer vetores a e f3 em V,

(Eaif3) (EalE/3 + (1 - E)/3)


=

= (EalE/3)
(Ea + (1 E)aiE/3)
= -

= (alE/3).

Da unicidade do operador E* segue-se que E* =


E. Consideremos
agora a projeção E descrita no Exemplo 14. Então

36 -3
A=
1
154
[9 36 144 -1 �
-3 -12
]
é a matriz de E em relação à base ortonormal canônica. Como
E= E*, A é também a matriz de E* e, porque A= A*, isso não
contradiz o corolário anterior. Por outro lado, suponhamos

a1 = (154, O, O)
ª2 = (145, - 36, 3)
IX3 = ( - 36, 10, 12).
ESPAÇOS COM PRODUTO INTERNO - 377

fol = (9, 36, -3)


Ea2 = (O, O, O)
fo.3 = (O, O, O).

Como (9, 36, - 3) = -(154, O, O) - (145, - 36, 3), a matriz B de E em

]
relação à base {<X 1, a2, a3} é definida pela equação

[-1 o º
B = -1 O O ·

o o o

Nesse caso B =F B* e B* não é a matriz de E*= E em relação à base


{ocl' ªv oc3}. Aplicando o corolário, concluímos que {ocl' oc2, oc3} não
é uma base ortonormal. De qualquer modo, tudo isso é trivial.

Definição. Seja T um operador linear sobre um espaço V com


produto interno. Dizemos que T possui um adjunto sobre V se existe
um operador linear T*' sobre V tal que (ToclP) (oclT*P) para todos =

oc e p em V.
O Teorema 7 afirma que todo operador linear sobre um es­
paço V de dimensão finita com produto interno possui um adjunto
sobre V. No caso de dimensão infinita isso nem sempre é verdade.
Mas, em qualquer caso, existe no máximo um tal operador T*;
quando existir, denominamo-lo o adjunto de T.
Dois comentários devem ser feitos acerca do caso de dimensão
finita.

1. O adjunto de T depende não só de T, mas também do


produto interno.
2. Como foi visto no Exemplo 17, para uma base ordenada
arbitrária f!J, a relação entre [T}'1i e [T*].(19 é mais complicada que
·

a apresentada no corolário acima.

Exemplo 18. Seja V = C" x 1 o espaço das n x 1 m atrizes com­


plexas, com o produto interno (X 1 Y) = Y*X. Se A é uma /1 x /1

matriz com elementos complexos, o adjunto do operador linear


X --+ AX é o operador X --+ A *X. De fato, pois

(AXI Y) = Y*AX = (A * Y)* X= _(XjA * Y).


378 - ALGEBRA LINEAR

O leitor deverá se convencer de que isto é na realidade uma refor­


mulação do último corolário.

Exemplo 19. Este é semelhante ao Exemplo 18. Seja V= C" x


n

com produto interno (A IB ) = tr(B*A) . Seja M uma n x n matriz


fixa sobre C. O adjunto da multiplicação à esquerda por M é a
multiplicação à esquerda por M*. Evidentemente, "multiplicação
à esquerda por M" é o operador linear LM definido por LM(A) = MA.

(LM(A) i B) = tr(B*(MA))
= tr(MAB*)
·" = tr(AB* M)
= tr (A (M*B)*)
l
= (A 4t*(B)).

Assim, (LM)* = LJJ. No cálculo acima, usamos duas vezes a pro­


priedade característica da função traço: tr(AB) = tr(BA).

Exemplo 20. Seja V o espaço dos polinômios sobre o corpo


dos números complexos, com o produto interno

Ulg) = f f(t)g(t)dt.
Se j é Urp. polinômio, f
1: akxk, seja f= 1: ãkxk. Isto é, fé o poli­
=

nômio cuja função polinomial associada é a complexa conjugada


da de f:

f(t) = f(t), t real

Consideremos o operador "multiplicação por f", isto é, o operador


linear M 1 definido por M /g) = fg. Ent!o este operador possui um
adjunto, a saber, a multiplicação por f. De fato, pois

·
(M /g)ih) = ifgih)
= f f(t)g(t)h{i)dt
= fo1 g(t)[f(t)h(t)]dt
ESPAÇOS COM PRODUTO INTERNO - 379

=(glfh)
= (gl M:r(h) )
e, portanto, (M:r)* =Mr

Exemplo 21. No Exemplo 20, vimos que alguns operadores


lineares sobre um espaço de dimensão infinita com produto interno
possuem um adjunto. Como comentamos anteriormente, outros
não o têm. Seja V o espaço com produto interno do Exemplo 20 e
seja D o operador derivação sobre C[x]. A integração por partes
mostra que

(Df g
l ) =f (l)g(l) --,.
f (O)g(O) - UIDg).

Fixemos g e perguntemos quando é que existe um polinômio D*g


tal que (Dflg)=UID*g) para todo f. Se um tal D*g existe, temos

UID*g) =f (l)g(l ) - f(O)g(O) - UIDg)

UID*g + Dg) = f(l)g(l ) - f(O)g(O) .

Com g fixo, L(f ) =f(l)g(l) -f(O)g(O) é um funcional linear do


tipo considerado no Eiemplo 16 e não pode ser da forma L(f) =
=Ulh) a menos que L =O. Se D*g existe, então com h =D*g + Dg
te�os de fato L(f )=Ulh) , e então g(O)=g(l)=O. A existência
de um polinômio adequado D*g implica g(O)=g(l)=O. Reci­
procamente, se g(O)=g(l)=O, o polinômio D*g = - Dg satisfaz
(Df lg)=UID*g) para todo f. T omando tim g qualquer para o
qual g(O) #O ou g(l) #.O, não podemos definir D*g de modo con­
veniente; portanto; concluímos que D não possui adjunto.
Esperamos que estes exemplos aumentem a compreensão do
leitor quanto ao adjunto de um operador linear. Vemos que a ope­
ração de conjugação, que faz passar de T a T* , se comporta um
pouco como a conjugação sobre números complexos. O teorema
seguinte fortalece esta analogia.

·Teorema 9. Seja V um espaço de dimensão finita com produto


interno. Se T e U são operadores lineares sobre V e c é um escalar
(i) (T + U)* = T* + U*;
(ii) (cT )* =êT*;
380 - ALGEBRA LINEAR

(iii) (TU)*=U *T*;


(iv) (T*)*=T.
Demonstração. Para demonstrar (i)

((T + U) al/3) =(Ta + Valf3)


= (T<XIP} +(Vaj/J)
=(a T*p) +(ai U*p)
=(a T*/J + U*/J)
=(a (T* + U*)/J).

Pela unicidade do adjunto, temos (T +U)*=T* +U*. Deixa­


mos a demonstração de (ii) a cargo do leitor. Obtemos (iii) e (iv)
a partir de

(WalfJ) =(UajT*/J) =(ai U*T*/J)


(T*alfJ) =(/31 T*a) =(T{3ja) =(ai Tf3).

O Teorema 9 é freqüentemente formulado como segue: a apli­


cação T-+ T* é um antiisomorfismo linear-conjugado de período
2. A analogia com a conjugação complexa que mencionamos acima
é, evidentemente, baseada na observação. de que a conjugação com­
plexa tem as propriedades (z1 + z2)=z1 +z2, (z1z2)=z1z2, z=z.
Deve-se ter o cuidado de observar a inversão da ordem num pro-
. duto, imposta pela operação de conjugação: (UT)* = T*U*'. Men­
cionaremos extensões da analogia à medida que prossigamos nosso
estudo de operadores lineares sobre um espaço com produto interno.
Podemos mencionar alguma coisa nesse sentido agora. Um número
complexo zé real se, e somente se, z=z. É de esperar que os ope­
radores lineares T tais que T=T* se ·comportem, de certa ma­
neira, como os números reais. É isto o que realmente ocorre. Por
exemplo, se Té um operador linear sobre um espaÇo complexo
de dimensão finita com produto interno, então

(8-15)

onde U1 =U*1 e U2 = U*2. Assim, de certa forma, T possui uma


"parte real" e uma "parte imaginária". Os operadores U 1 e U 2 que
satisfazem U 1 =U*1, U2 =U*2 e (8-15) são únicos e são dados por
ESPAÇOS COM PRODUTO INTERNO - 381

1
U1 = l (T + T*)

U2 = �i (T - T*).
Um operador linear T tal que T = T* é dito auto-adjunto
(ou hermitiano). Se !!J é uma base ortonormal de V, então

[T*],\ij = [TJ*r;i

e, então, Té auto-adjunto se, e somente se, sua matriz em relação


a toda base ortonormal é uma matriz auto-adjunta. Operadores
auto-adjuntos são importantes, não só porque nos fornecem uma
espécie de partes real e imaginária de um operador linear arbitrário,
mas também pelas seguintes razões: (1) Operadores auto-adjuntos
possuem muitas propriedades especiais. Por exemplo, para um
operador deste tipo, existe uma base ortonormal formada por ve­
tores característicos. (2) Muitos operadores que surgem na prática
são auto-adjuntos. Consideraremos posteriormente as propriedades
especiais dos operadores auto-adjuntos.

Exercícios

1. Seja V o espaço C2, com o produto interno canônico. Seja T o operador


definido por Te1 = (1, - 2), Te2 (i, - 1). Se
= a = (x�, x2), determinar T* a.

2. Seja T o operador linear sobre C2 definido por Ti;1 = (1 + i, 2), Ts2 = (i, i).
Usando o produto interno canônico, determinar a matriz de T" em relação
à base ordenada canônica. T comuta com T"?

3. , Suponhamos que V seja C3 com o produto interno canônico. Seja T o ope­


rador linear sobre V cuja matriz em relação à base ordenada canônica é defi­
nida por

AJ• = ii+k, (i2 = - 1) .

Determinar uma base do núcleo de T*.

4. Seja V um espaço de dimensão finita com produto interno e T um operador


linear sobre V. Mostrar que a imagem de T* é o suplementar ortogonal
do núcleo de T.

5. Seja V um espaço de dimensão finita com produto interno e T um operador


linear sobre V. Se T é inversível, mostrar que T* é inversível e ( T* )- 1 ( r 1 )*. =
382 - ALGEBRA LINEAR

6. Seja V um espaço com produto interno e fJ, y vetores fixos em V. Mostrar


que Ta= (cxl fJ) y define um operador linear sobre V. Mostrar que T possui um
adjunto e descrever T* explicitamente.
V seja C" com o produto interno canônico,
Suponhamos agora que
fJ = (y" ..., Y.) e y = (x" .. ., x.).
Qual é o elemento j, k da matriz de T em
relação à base ordenada canônica? Qual é o posto desta matriz?

7. Mostrar que o produto de dois operadores auto-adjuntos é auto-adjunto se,


e somente se, os dois operadores comutam.

8. Seja V o espaço vetorial dos polinômios sobre R de grau menor ou igual a 3,


com o produto interno

iflo) = f J(t)g(t)dt.
Se t é um número real, determinar o polinômio g1 em V tal que (f 1g,) =f (t)
para todo f em V.

9. Seja V o espaço com produto interno do Exercício 8 e seja D operador deri­


vação sobre V. Determinar D*.

10. Seja V o espaço das n x n matrizes sobre o corpo dos números complexos,
com o produto interno (A 1 B) = tr (AB* ). Seja P uma matriz inversível fixa em
V e seja Tp o operador linear sobre V definido por Tp(A) = p- i AP. Deter­
minar o adfunto de Tr

11. Seja V um espaço de dimensão finita com produto interno e seja E um ope­
rador linear idempotente sobre V, isto é, E2 =E. Demonstrar que E é auto­
adjunto se, e somente se, EE* = E* E.

12. Seja V um espaço complexo de dimensão finita com produto interno e seja T
um operador linear sobre V. Demonstrar que T é auto-adjunto se, e somente
se, (Tcxicx) é real para todo ex em V.

8.4 Operadores Unitários

Nesta seção, vamos considerar o conceito de um isomorfismo


entre dois espaços com produto interno. Se V e W são espaços ve­
toriais, um isomorfismo de V em W é uma transformação linear
bijetora de V em W, isto é, uma correspondência bijetora entre os
elementos de V e os de W, a qual "conserva" as operações de es­
paço vetorial. Ora, um espaço com produto interno consiste de
um espaço vetorial e um produto interno especificado sobre aquele
espaço. Assim, quando V e W são espaços com produto interno,
exigiremos que um isomorfismo de V em W não só conserve as ope­
rações lineares, mas também conserve produtos internos. Um iso­
morfismo de um espaço com produto interno em si mesmo é deno-
ESPAÇOS COM PRODUTO INTERNO - 383

minado um "operador unitário" sobre aquele espaço. Considera­


remos vários exemplos de operadores unitários e estabeleceremos
suas propriedades fundamentais.

Definição. Sejam V e W espaços com produto interno sobre o


mesmo corpo e seja T uma transfarmação linear de V em W. Dize­
mos que T conr.erva produtos internos se (TixlT,8) (ixl,B) para todos =

ix, ,8 em V. Um isomorfismo de V em W é um isomorfismo T de es­


paço vetorial de V em W que também conserva produtos internos.

Se T conserva produtos internos, então li Tix li= l l a li, portanto,


T é, necessariamente, não-singular. Assim, um isomorfismo de V
em W pode também ser definido como uma transformação linear
de V sobre W que conserva produtos internos. Se Té um isomor­
fismo de V em W, então y-i é um isomorfismo de W em V; logo,
quando um tal T existir, diremos simplesmente que V e W são
isomorfos. É cláro que o isomorfismo de espaços com produto
interno é uma relação de equivalência.

Teorema 10. Sejam V e W espaços de dimensão finita com pro­


duto interno sobre o mesmo corpo, que tenham a mesma dimensão.
Se T é uma transformação linear de V em W, as seguintes ajirmações
são equivalentes:

(i) T conserva produtos internos.


(ii) T é um isomorfismo (de espaço com produto interno).
(iii) T leva toda base ortonormal de V em uma base ortonor­
mal de W.
(iv) T leva alguma base ortonormal de V em alguma base orto­
normal de W.

Demonstração (i)-> (ii). Se T conserva produtos internos, então


li Ta li= lla li para todo a em V. Assim, T é não-singular e como
dim V= dim W, sabemos que T é um isomorfismo de espaço ve­
torial.
(ii)-> (iii) Suponhamos que T seja um isomorfismo. Seja
{ a1, ... , an} uma base ortonormal de V. Como Té um isomorfismo
de espaço vetorial e dim W = dim V, decorre que {Tal' ... , Toe,,}
é uma base de W. Como T conserva também produtos internos,
(TctilTak) = (ocilock) = bik.
384 - ALGEBRA LINEAR

(iii)-t (iv) Não requer comentários.


(iv)-t (i) Seja { ocl' ..., ocn} uma base ortonormal de V tal que
{Tocl' ... , Toe.} seja uma base ortonormal de W. Então

n
(ocifi) = Ll xiyi
j=
(Toei Tfi) = (L xiTioc lL ykTock)
j k
= L L xiyk(Tocil Tock)
j k

logo T conserva produtos internos.

Corolário. Sejam V e W espaços de dimensão finita como pro­


duto interno sobre o mesmo corpo. Então V e W são isomorfos se, e
somente se, têm a mesma dimensão.

Demonstração. Se {oc1, ocn} é uma base ortonormal de V e


• . . ,

{ fil' ..., fin} é uma base ortonormal de W, seja Ta transformação


linear de V em W definida por Toei= fir Então T é um isomor­
fismo de V em W.

Exemplo 22. Se V é um espaço n-dimensional com produto


interno, então toda base ortonormal ordenada PÃ .= {oc, ..., oc"} deter­
mina um isomorfismo de V em F" com o produto interno canônico.
O isomorfismo é simplesmente

Existe o isomorfismo, superficiaI. mente diferente, determinado por


PÃ,de V no espaço F" x 1 com (X [ Y) Y *X como produto interno.
=

O isomorfismo é

O( -t [O(]gi
ESPAÇOS COM PRODUTO INTERNO - 385

isto é, a transformação que leva °' na matriz de suas coordenadas


em relação à base ordenada f!J. Para qualquer base ordenada f!J,
este é um isomorfismo de espaço vetorial; no entanto, ele é um
isomorfismo dos dois espaços com produto interno se, e somente
se, f!J é ortonormal.

Exemplo 23. Eis um isomorfismo um pouco menos super­


ficial. Seja W o espaço das 3 x 3 matrizes A sobre R que sejam
anti-simétricas, isto é, A1 = -A. Vamos equipar W com o produto
interno (A f B) = ! tr(AB'), sendo o ! colocado por conveniência.
Seja V o espaço R3 com o produto interno canônico. Seja T a
transformação linear de V em W definida por

Então T leva V sobre W, e colocando

B = [ �
y
-y2

temos

tr(AB1) =
X3Y3 + X2Y2 + X3Y3 + X1Y1 + X2Y2 + X1Y1
= 2(X1Y1 + X2Y2 + X3Y3).
Assim, (°'J/3) = (T°'I T/3) e T é um isomorfismo de espaço vetorial.
Notemos que T leva a base canônica {e1, e2, e3} na base orto­
normal formada pelas três matrizes

[oo oo -1º] ' [ oo oo oº] '


o 1 o -1 o o
Exemplo 24. Nem sempre é particularmente conveniente des­
crever um isomorfismo em termos de bases ortonormais. Por
exemplo, suponhamos G = P *P, onde P é uma n x n matriz inver­
sível com elementos complexos. Seja V o espaço das n x 1 ma­
trizes complexas, com o produto interno [Xf Y] = Y*GX. Seja
W o mesmo espaço vetorial, com o produto interno canônico
(Xi Y) = Y*X. Sabemos que V e W são espaços com produto
386 - ALGEBRA LINEAR

interno que são isomorfos. Deveria parecer que a maneira mais


conveniente de descrever um isomorfismo entre V e W seja a
seguinte: Seja T a transformação linear de V em W definida por
T(X)= PX. Então

(TXITY) = (PXIPY)
= (PY)*(PX)
= Y*P*PX
= Y*GX
=[XIY].
Logo, T é um isomorfismo.

Exemplo 25. Seja V o espaço das funções contínuas, definidas


sobre o intervalo unitário, D s ts 1 e tomando valores reais, com
o produto interno

[( fig)] = J: f(t)g(t)t2dt.
Seja W o mesmo espaço vetorial com o produto interno

Ulg) = J: f(t)g(t)dt.
Seja T a transformação linear de V em W dada por

(Tf )(t) = tf(t).

Então (TflTg)=[ flgJ, portanto T conserva produtos internos;


contudo, T não é um isomorfismo de V em W, porque a imagem
de T não é todo o espaço W. Evidentemente, isto ocorre porque o
espaço vetorial subjacente não é de dimensão finita.

Teorema 11. Sejam V e W espaços com produto interno, sobre


o mesmo corpo e seja T uma transformação linear de V em W.
Então, T conserva produtos internos se, e somente se, li Toe li= lloe li
para todo oe em V.
Demonstração. Se T con�erva produtos internos, T "conserva
normas". Suponhamos que l iToe li = lloe li para todo oe em V. Então
liToe 112 = lloe 112. Usando agora a identidade de polarização conve­
niente, (8-3) ou (8-4) e o fato de que T é linear, obtém-se facil­
mente (oe ·1 /3 = (Toe 1 T /3) para quaisquer oe, /3 em V.
ESPAÇOS COM PRODUTO INTERNO - 387

Definição. Um operador unitário sobre um espaço com produto


interno é um isomorfismo do espaço em si mesmo.
O produto de dois operadores unitários é unitário. De fato,
se U1 e U2 são unitários, então U2 U é inversível e li U 2 U 1 tx li =
1
= liU1 tx li= lltx li para todo tx. Além disso, o inverso de um ope­
rador unitário é unitário, pois llUtxll= lltx ll diz que 11u-1p11 =
= llP ti, onde /3 = Utx. Como o operador idêntico é obviamente
unitário, vemos que o conjunto dos operadores unitários sobre um
espaço com produto interno é um grupo, com a operação de com­
posição.
Se V é um espaço de dimensão finita com produto interno e
U é um operador linear sobre V, o Teorema 10 nos diz que U é
unitário se, e somente se, (Utxl U p) = (txlP} para todos tx, f3 em V;
0u seja, se, e somente se, para alguma (toda) base ortonormal
{tx1' ... , tx.} é verdade que {Utxp ..., Utx.} é uma base ortonormal.

Teorema 12. Seja U um operador linear sobre um espaço V


com produto interno. Então U é unitário se, e somente se, o adjunto
U* de U existe e UU*= U*U = I.
Demonstração. Suponhamos que U seja unitário. Então U é
inversível e

para todos tx, p. Logo, u-1 é o adjunto deU.


Reciprocamente, suponhamos que U* exista e U**= U*U = I.
Então U é inversível, com u-1 = U*. Portanto, basta mostrar
que U conserva produtos internos. Temos

(Utxl U/3) = (tx U*U/3)


= (tx Jp)
= (tx p)
para todos tx, {3.
1
Exemplo 26. Consideremos cn X , com o produto interno
(XI Y) = Y *X. Seja A uma n x n matriz sobre C e seja U o ope­
rador linear definido por U (X) = AX. Então

(UXiUY) = (AXIAY) = Y *A*AX

para todas X, Y. Logo, Ué unitário se, e somente se, A*A = I.


388 - ALGEBRA LINEAR

Definição. Uma n x n matriz complexa A é dita unitária se


A*A = I.

Teorema 13. Seja V um espaço de dimensão finita com produto


interno e seja U um operador linear sobre V. Então U é unitário se,
e somente se, a matriz de U em relação a alguma (toda) base orto­
normal ordenada é uma matriz unitária.

Demonstração. A esta altura, isto não é bem um teorema e só


o enunciamos por questão de ênfase. Se fJI = { oc1, . .. , ocn} é uma
base ortonormal ordenada de V e A é a matriz de U em relação
a @, então A*A = I se, e somente se, U* U = I. O resultado de­
corre do Teorema 12.

Seja A uma n x n matriz. A afirmação de que A é unitária


diz simplesmente

ou

n
L ÃrjArk =
Ôjk"
r= 1

Em outras palavras, diz que as colunas de A formam um conjunto


ortonormal de matrizes-colunas, usando o produto interno canô­
nico (XI Y) = Y* X. Como A*A = I se, e somente se, AA* = I vemos
que A é unitária exatamente quando as linhas de A constituem um
conjunto ortonormal de n-uplas em cn (com o produto interno
canônico). Portanto, usando produtos internos canônicos, A é uni­
tária se, e somente se, as linhas e colunas de A são conjuntos orto­
normais. Vê-se aqui um exemplo da força do teorema que afirma
que uma inversa unilateral de uma matriz é, na verdade, uma in­
versa bilateral. Aplicando este teorema como fizemos acima, diga­
mos, a matrizes reais, temos o seguinte: Suponhamos que exista
uma tabela quadrada de números reais tal que a soma dos qua­
drados dos elementos de cada linha seja 1 e tal que linhas distintas
sejam ortogonais. Então a soma dos quadrados dos elementos de
cada coluna é 1 e colunas distintas são ortogonais. Basta escrever
a demonstração deste fato para uma tabela 3 x 3, sem usar nenhum
conhecimento sobre _,matrizes, para se ficar razoavelmente impres­
sionado.
ESPAÇOS COM PRODUTO INTERNO - 389

Definição. Uma n x n matriz A, real ou complexa, é dita orto­


gonal se A'A 1.
=

Uma matriz ortogonal real é unitária; uma matriz unitária é


ortogonal se, e somente se, cada um dos seus elementos é real.

Exemplo 27. Vejamos alguns exemplos de matrizes unitárias


e ortogonais.
(a) Uma 1 x 1 matriz [e] é ortogonal se, e somente se, e= ± 1
e é unitária se, e somente se, cc 1. A última condição significa
=

(é claro) que l ei= 1, ou seja, e eº; , come real.


=
(b) Seja

A
=
[� �l
Então A é ortogonal se, e somente se,

A '= A-1 =
ad - bc
1 [ -e
d -b
a
] .

O determinante de qualquer matriz ortogonal, como se pode ver


facilmente, é ± 1. Assim, A é ortogonal se, e somente se,

A=
[ a b ]
-b a.

ou

A= [ ª
b
b
-a
]
onde a2 + b2= 1. Os dois casos são distinguidos pelo valor de
det A.
(c) As bem conhecidas relações entre as funções trigonomé­
tricas mostram que a matriz

A -
[cos 8 -sen º ]
,O sene cose

é ortogonal. Se e é um número real, então A0 é a matriz, em re­


lação à base ordenada canônica de R2, do operador linear U0, � e
é a rotação do ângulo e. A afirmação de que A0 é uma matrl.z
390 - ALGEBRA LINEAR

ortogonal real (logo unitária) significa simplesmente que U8 é um


operador unitário, isto é, conserva o produto escalar.

(d) Seja

A=
[: �l
Então A é unitária se, e somente se,

[ã ê] = 1 [ d -b ]
b d ad - bc -c a ·

O determinante de uma matriz unitária tem valor absoluto 1 e é,


portanto, um número complexo da forma ei8, e real. Assim, A é
unitária se, e somente se,

onde e é um número real e a, b são números complexos tais que


lal2 + lbl2 = 1.

Como observamos anteriormente, os operadores unit�rios sobre


espaços com produto interno formam um grupo. Desse fato e do
Teorema 13 segue-se que o conjunto V (n) das n x n matrizes uni­
tárias também é um grupo. Assim, a inversa de uma matriz unitária
e o produto de duas matrizes unitárias é novamente uma matriz
unitária. É claro que é fácil verific;tr esses fatos diretamente. Uma
n n matriz A com elementos complexos é unitária se, e somente
x

se,
A-1 =A*. Assim, se A é unitária, temos (A-1)-1 =A=(A*r1 =
=(A -1 )*. Se A e B são n x n matrizes unitárias, então' (AB)-1 =

=B-1 A-1 =B*A*=(AB)*.


O processo de Gram-Schmidt em C" tem um corolário interes­
sante para matrizes, que envolve o grupo U(n).

Teorema 14. Para cada n x n matriz complexa inversível B,


existe uma única matriz triangular inferior M, com elementos posi­
tivos na diagonal principal, tal que MB é unitária.
Demonstração. As linhas /31, , Pn de B formam uma base
. . .

de C". Sejam al' . .. , ª" vetores obtidos de /31' ... , Pn pelo processo
de Gram-Schmidt. Então, para 1 � k � n, { a 1, , ak } é uma base
• • .

ortogonal do subespaço gerado por {/31, ... , /3k} e


ESPAÇOS COM PRODUTO INTERNO - 391

ak /3k - ""' (/3kla;) a ..


2
=

L. liaJ.11 J
J<k
Logo, para cada k existem escalares Cki' determinados de modo
único, tais que

ªk = /3k - I: ckj/3r
j<k
Seja U a . matriz unitária com linhas

e M a matriz definida por

1
ckj se j < k
- llak11 · '
M ki -- 1
=
se J. = k
llak li'
O, se j > k.

Então M é triangular inferior, no sentido de que os elementos


acima da diagonal principal são nulos. Os elementos Mkk de M
na diagonal principal são todos positivos, e

1 s;; k s;; n.

Ora, essas equações simplesmente dizem que

U =
MB.
Para demonstrar a unicidade de M, indiquemos por T+(n) o
conjunto de todas as n x n matrizes complexas triangular inferiores
com elementos positivos na diagonal principal. Suponhamos que
M1 e M2 sejam elementos de r+(n) tais que M;B esteja em U(n)
para i =
1, 2. Como U (n) é um grupo,
392 - ALGEBRA LINEAR

está em U(n). Por outro lado, apesar de não ser inteiramente óbvio,
r+(n) também é um grupo em relação à multiplicação de matrizes.
Uma das maneiras de se ver isso é a de considerar as propriedades
geométricas das transformações lineares

X--+ MX, (M em r+(n))


sobre o espaço das matrizes-coluna. Assim, M; 1, M 1M;1 e
(M1M;_--1)-1 estão todas em r+(n). Mas, como M M;1 está em
1
U(n), (M1M;1)-1 = (M 1M;-1)*. A transposta ou a transposta con­
jugada de qualquer matriz triangular inferior é uma matriz trian­
gular superior. Portanto, M 1M;1 é simultaneamente triangular su­
perior e inferior, isto é, diàgonal. Uma matriz diagonal é unitária
se, e somente se, cada um de seus elementos na· diagonal principal
tiver valor absoluto 1; se os elementos diagonais forem todos posi­
tivos, eles deverão ser iguais a 1. Logo, M M;1 = I e M1 = M 2.
1
Indiquemos por GJJ_n) o conjunto das n x n matrizes com­
plexas inversíveis. Então GJJ_n) é também um grupo em relação à
multiplicação de matrizes. Esse grupo é denominado o grupp
linear . geral. O Teorema 14 é equivalente ao seguinte resultado:

Corolário. Para cada B em GL(n) existem matrizes N e V,


determinadas de modo único, tais que N está em T+(n), U em U(n) e

B=N·U.

Demonstração. Pelo teorema, existe uma única matriz M em


r+(n) tal que MB esteja em U(n). Seja MB= U e N=M-1 .
Então N estará em r+ (n) e B N U. Por outro lado, se forem
= ·

dados elementos N e U tais que N esteja em r+(n), U em U(n) e


B N U, c;:ntão N-1B estará em U(n) e N-1 será a única matriz M
= ·

caracterizada pelo teorema; além disso U será, necessariamente,


N-1B.

Exemplo 28. Sejam x1 e x2 números reais tais que xi + x� = 1


e x1 #O. Seja
ESPAÇOS COM PRODUTO INTERNO - 393

Aplicando o processo de Gram-Schmidt às linhas de B, obteremos


os vetores

IX1 = (
x1, x2' O)
IX2 = (O, 1, O) - X
(
2 X1' X2, O)
= x1 ( -x2, x1' O)
IX3 = (O, o, 1).
Seja U a matriz cujas linhas são IX 1, ( / )
a2 x 1 , IX3• Então, U é
unitária e

r
Multiplicando agora pela inversa de

�J
o
M� - :
x
,
1
X1
1
o o
vemos que

[g x X

1
o
2

�] [� º][
� X1
o

o
O
1
-
X

x2

o
,
X2

o
1

�l
1

Consideremos agora abreviadamente .uma mudança de coor­


denadas em um espaço com produto interno. Suponhamos que V
seja um espaço de dimensão finita com produto interno e que
f!4 = { al' . . . , IX.} e í!4' = {IX�, . . . , a �} sejam duas bases ortonormais
ordenadas de V. Existe uma única n x n matriz P (necessariamente
inversível) tal que

para todo IX em V. Se U é o bem determinado operador linear sobre


V definido por U1X �
=a , então P é a matriz de U em relação à
i
base ordenada :?J.
n

a�= L piklXr
j= 1
394 - ALGEBRA LINEAR

como !!J e !!J' são bases ortonormais, U é um operador unitário


e P é uma matriz unitária. Se T é um operador linear arbitrário
sobre V, então

[T].;i = p-1[T]91P = P*[T][$P.

Definição. Sejam A e B n x n matrizes complexas. Dizemos


que B é unitariamente equivalente a A se existe uma n X n matriz
unitária P tal que B p-1 *AP. Dizemos que B é ortogonalmente
=

equivalente a A se existe uma n x n matriz ortogonal P tal que


B p-·1AP.
=

Com essa definição, o que observamos acima pode ser enun­


ciado como segue. Se !!J e !!J' são duas bases ortonormais orde­
nadas de V, para todo operador linear T sobre V, a matriz [T],;1
é unitariamente equivalente à matriz [T]ill. No caso de V ser um
espaço real com produto interno, estas matrizes são ortogonal­
mente equivalentes, através de uma matriz ortogonal real.

Exercícios

1. Determinar uma matriz unitária que não seja ortogonal e determinar uma
matriz ortogonal que não seja unitária.

2. Seja V o espaço das n x n matrizes complexas com o produto interno (A 1 B) =

= tr(AB* ). Para cada M em V, seja 7� o operador linear definido por


TM(A) =MA. Mostrar que TM é unitário se, e somente se, M é uma matriz
unitária.

3. Seja V o conjunto dos números complexos, considerado como um espaço


vetorial real.
(a) Mostrar que (ocl/J) = Re(ap) define um produto interno sobre V.
(b) Exibir um isomorfismo (de espaço com produto interno) de V em R2 com
o produto interno canônico.
(c) Para cada y em V, seja M, o opl!rador linear sobre V definido por
M/oc) ya. Mostrar que (M f M y:
;
= =

(d) Para quais números complexos y se tem My auto-adjunto?


(e) Para quais y, M1 é unitário?
(f) Para quais ')', M1 é positivo? (ver definição na pág. 363).
(g) Qual é o det(M)?
(h) Determinar a matriz de M1 em relação à base {l, i}.
( i) Se T é um operador linear sobre V, encontrar condições necessárias e
suficientes para que T seja um M,.
( j ) Encontrar um operador unitário sobre V que não seja um M,.
ESPAÇOS COM PRODUTO INTERl>JO - 395

4. Seja V o espaço R2, com o produto interno canônico. Se U é um operador


unitário sobre V, mostrar que a matriz de U em relação à base ordenada
canônica é

cos O
[
sen fl
-sen
cos IJ
l:JJ ou
[ cose
sene
sen
-cose
º]
para algum li. O s; li < 2n. Seja U 0 o operador linear correspondente à pri­
meira matriz, isto é, U0 é uma rotação de um ângulo li. Agora é possível
convencer se de que todo operador unitário sobre V é uma rotação ou uma
reflexão em relação ao eixo e1 seguida de uma rotação.
(a) O que é U0Uq,?

(b) Mostrar que U* 9 = U -o·


(c) Seja d' um número real fixo e !JI= {o:1• o:2} a base ortonormal obtida
girando {e 1' ) de um ângulo </J, isto é, o: = U .,e. r Se O é um outro número
F. 2
1
real, qual é a matriz de U9 em relação à base ordenada !JI?

5. Seja V o espaço R3, com o produto interno canônico. Seja W o plano


gerado por o:= (1, 1, 1) e {J= (1, 1, - 2). Seja U o operador linear definido
geometricamente corno segue: V é uma rotação de um ângulo li, em. torno
de uma reta que passa pela origem e é ortogonal a W. Existem na verdade
duas tais rotações: tome se uma delas. Determinar a matriz de U em relação
à base ordenada canônica. (Eis um modo possível de se proceder: Determinar
o:1 e o:2 que formem uma base ortonormal de W. Seja o:3 um vetor de
norma 1, ortogonal a W. Determinar a matriz de U em relação à base
·

{ap a2, a3}. Efetuar uma mudança de base.)

6. Seja V um espaço de dimensão finita com produto interno e seja W um subes­


L
paço de V. Então V= W$ W. , isto é, cada a em V pode ser expresso de um
único modo sob a forma a= {J + y, com {J em W e ')' em W.L. Definamos um
operador linear V por Ua = {J - y.
(a) Demonstrar que U é auto adjunto e unitário.
(b) Se V é R' com o produto interno canônico .e W é o subespaço gerado
por (1, O, 1), encontrar a matriz de V em relação à base ordenada canônica.

7. Seja V um espaço complexo com produto interno e 1' um operador linear


auto-adjunto sobre V. Mostrar que
(a) lia + iTo: li = lia - iTo: li para todo a em V.
(b) a + iTa = {J + iT{J se, e somente se, a= {J.
(e ) 1 + iT é não-singular.
(d) 1 - iT é não-singular.

(e) Suponhamos que V seja de dimensão finita; demonstrar que

u = (J - iT) (/ + iT)- 1

é um operador unitário; V é denominado a transformada de Cayley de 7'.


Num certo sentido, V= /(1), onde f(x) (1-ix)/(I + ix).
=
396 - ALGEBRA LINEAR

8. Se IJ é uq:i número real, demonstrar que as matrizes seguintes são unitaria­


mente equivalentes.

[
J
cos IJ -sen {J
sen IJ cos {J ,

9. Seja V um espaço de dimensão finita com produto interno e T um operador


linear positivo sobre V. Seja pT o produto interno sobre V definido por
pT(oi, p) = (Toij {3). Seja U um operador linear sobre V e U' o seu adjunto em
relação a ( ! ) . Demonstrar que U é unitário em relação ao produto interno
PT se, e somente se, T = U*TU.

10. Seja V um espaço de dimensão finita com produto interno. Para cada par
ex, P em V, seja T..P o operador linear sobre V definido por T..l>') = (y 1 Pl oi.
Mostrar que

(a) r..P = Tp,ai


(b) traço (T.,p) = (oij/3);
(c) T.,p T,,b = T 1p1,1b/
•.

(d) Em que condições 1� P é auto-adjunto?


.

11. Seja V um espaço n dimensional c.om produto interno sobre o corpo F e seja
L(V, V) o espaço dos operadores lineares sobre V. Mostrar que existe um único
produto interno sobre L(V, V) com a propriedade que li T.,p 112 = lloi 112 llP 112
para todos oi, p em V. (1� P é o operador definido no Exercício 10.) Encontrar
.
um isomorfismo entre L(V, V) com este produto interno e o espaço das n x n
matrizes sobre F, com o produto interno (A 1 B) tr (AB* ). =

12. Seja V um espaço de dimensão finita com produto interno. No Exercício 6,


mostramos como construir certos operadores lineares sobre V que são auto­
adjuntos e unitários. Demonstrar então que não existem outros, isto é, que
todo operador auto adjunto unitário provém de algum subespaço W como
descrevemos no Exercício 6.

13. Sejam V e W espaços de mesma dimensão finita com produto interno. Seja U
um isomorfismo de V em W. Mostrar que

(a) a aplicação T-+ UTu-1 é um isomorfismo do espaço vetorial L(V, V)


no espaço vetorial L ( W, W);
(b) traço (UTU-1) = traço (T) para todo T em L(V, V);
(c) UT_,pu-1=1� up (T,,.,p •. definido no Exercício 10);
(d) 1uru-1r = ur,u-1;
(e) se equiparmos L(V, V) com o produto interno (T 1 T2) = traço(T1 T,), e
1
analogamente para L (W, W), então T-+ UTu-1 é um isomorfismo de espaço
com produto interno.

14. Se V é um espaço com produto interno, um movimento rígido é uma função


qualquer T de V em V (não necessariamente linear) tal que il 1ix - Tp !I = lloi - p li
ESPAÇOS COM PRODUTO INTERNO - 397

para todos rx, f3 em V. Um exemplo de um movimento rígido é um operador


linear unitário. Outro exemplo é uma translação por um vetor f ixo y.

r;,(rx) = rx +y

(a) Seja V o espaço R2 com o produto interno canomco. Suponhamos que


T seja um movimento rígido de V e que T(O) =O. Demonstrar que T é linear
e é um operador unitário.

(b) Usar o resultado da parte (a) para demonstrar que todo movimento
rígido de R2 é composto de uma translação, seguida de um operador unitário.

(c) Mostrar agora que um movimento rígido de R2 é uma translação se·


guida de uma rotação ou então uma translação seguida de uma reflexão
seguida de uma rotação.

15. Um operador unitário sobre R4 (com o produto interno canônico) é simples­


mente um operador linear que conserva a forma quadrática

ll(x, y, z, t) 112 = x2 +y2 +z2 +t2

isto é, um operador linear U tal que li Urx 112= llrx 112 para todo rx em R4. Numa
certa parte da teoria da. relatividade, é de interesse determinar os operadores
lineares T que conservam a forma
2
ll(x, y, z, t)lli = t2 - x 2 - y -
z2.

Contudo, li li z não vem de um produto interno, mas de algo chamado "métrica


de Lorentz" (a qual não estudaremos). Por esta razão, um operador linear T
sobre R4 tal que li Trx li i, para todo rx em R4, é denominado uma transformação
de Lorentz.
(a) Mostrar que a função U definida por
_

[t +X y + iz]
U(x,y,z,t)= .
y !Z
- t - X

é um isomorfismo de R4 no espaço vetorial H das 2 x 2 matrizes complexas


auto-adjuntas.
(b) Mostrar que llrx Ili= det(Urx).

(c) Suponhamos que T seja um operador linear (real) sobre o espaço H das
2 x 2 matrizes auto-adjuntas. Mostrar que L= u-1 T U é um operador linear
sobre R4.

(d) Seja M uma 2 x 2 matriz complexa arbitrária. Mostrar que TM(A)=


= M* AM define um operador linear 7� sobre H. (É necessário verificar que
7� leva H em H..)

(e) Se M é uma 2 x 2 matriz tal que l det MI= 1, mostrar que LM= u-1 TMU
é uma transformação de Lorentz sobre R4.

(f) Encontrar uma transformação de Lorentz que não seja uma LM.
398 - ALGEBRA LINEAR

8.5 Operadores Normais

O objetivo principal desta seção é a resolução do problema


seguinte: Se T é um operador linear sobre um espaço V de dimensão
finita com produto interno, sob que condições V possui uma base
ortonormal formada por vetores característicos de T? Em outras
palavras, quando é que existe uma base ortonormal 11' de V, tal que
a matriz de T em relação à base 86 seja diagonal?
Vamos iniciar deduzindo algumas condições necessárias sobre
T, que mostraremos subseqüentemente serem suficientes. Suponha­
mos que 11' = {ocl' ... , ocn} seja uma base ortonormal de V com a
propriedade

(8-16)

Isto diz simplesmente que a matriz de T em relação à base ordenada


11' é a matriz diagonal com elementos diagonais cl' ...'cn. o ope­
rador adjunto T* é representado em relação a esta mesma base
ordenada pela matriz transposta conjugada. isto é, a matriz diagonal
com elementos diagonais c1, • • • , cn. Se V é um espaço real com
produto interno, os escalares cl' ... , cn são (evidentemente) reais
e então temos T = T*. Em outras palavras, se V é um espaço real
de dimensão finita com produto interno e T é um operador linear
para o qual existe uma base ortonormal de vetores característicos,
então T deve ser auto-adjunto. Se V é um espaço complexo com
produto interno, os escalares cl' ... , cn não são necessariamente
reais, isto é, T não é necessariamente auto-adjunto. Mas notemos
que T deve satisfazer

(8-17) TT* = T*T

De fato, duas matrizes diagonais quaisquer comutam e como T e


T* são ambas representadas por matrizes diagonais em relação à
base ordenada fll, temos (8-17). É um fato bastante notável que esta
condição também seja suficiente para implicar a existência de uma
base ortonormal formada por vetores característicos.

Definição. Seja V um espaço de dimensão finita com produto


interno e T um operador linear sobre V. Dizemos que T é normal
se comuta com seu adjunto, isto é, TT* = T*T .
Todo operador auto-adjunto é normal, como também o é
todo operador unitário. T odo múltiplo escalar de um operador
ESPAÇOS COM PRODUTO INTERNO - 399

normal é normal; contudo, somas e produtos de operadores normais


não são em geral normais. Embora isso não seja de forma alguma
necessário, iniciaremos nosso estudo de operadores normais consi­
derando operadores auto-adjuntos.

Teorema 15. Seja V um espaço com produto interno e T um


operador linear auto-adjunto sobre V. Todo valor característico de
T é real. Vetores característicos de T associados a valores caracte­
rísticos distintos são ortogonais.
Demonstração. Suponhamos que c seja um valor característico
de T, isto é, que Trx = crx para algum vetor não-nulo rx. Então

c( rxlrx) = (crxlrx)
= (Tx!o:)
= (rx 1 Trx)

= (o:ico:)
= c(rxirx).

Como (rxirx) #O, devemos ter c =e. Suponhamos também que


T/3=d/3 com f3 #O. Então

c ( er:l/3) = (Ter:l/3)
=(er:IT/3)
=(/3ld/3)
= d(o: /3)
l
= d (a (3).
Se c #d, então (er:ifJ)=O.
·oeve-se salientar que o Teorema 15 nada diz a respeito da exis­
tência de valores característicos ou de vetores característicos.

Teorema 16. Em um espaço de dimensão finita positiva com


produto interno, todo operador auto-adjunto possui um vetor caracte­
rístico (não-nulo).
Demonstração. Seja V um espaço de dimensão n com produto
interno, sendo n >O e seja T um operador auto-adjunto sobre V.
Tomemos uma base ortonormal f!J de V e seja A= [TJ.,. Como
T=T* temos A ;, A*. Seja agora W o espaço das n x 1 matrizes
sobre C, com produto interno ( XjY)=Y*X. Então' U(X)=AX
define um operador linear auto-adjunto V sobre W. O polinômio
característico, det(x/ - A), é um polinômio de grau n sobre o corpo
dos números complexos; todo polinômio sobre C de grau positivo
400 - ALG,BRA LINEAR

possui uma raiz. Assim, existe um número complexo e tal que


det(cJ A)=O. Isto significa que A cI é singular, ou que existe
AX = cX.
- -

uma X não-nula tal que Como o operador U (multi­


plicação por A) é auto-adjunto, decorre do Teorema 15 que e é
real. Se V é um espaço vetorial real, podemos tomar X com ele­
mentos reais. De fato, nesse caso AeA cI têm elementos reais e
A é singular, o sistema (A cl)X =O possui l!?1ª solu­
-

como cl
X.
- -

ção real não-nula Decorre que existe um vetor não-nulo a em


V tal que Ta= ca.
Diversos comentários devem ser feitos a respeito da demons­
tração.
(1) A demonstração da existência de um X não-nulo tal que
AX = cX nada teve que ver com o fato de A ser hermitiana (auto­
adjunta). Ela mostra que todo operador linear sobre um espaço
vetorial complexo de dimensão finita possui um vetor caracterís­
tico. No caso de um espaço real com produto interno, a auto­
adjunção de A é usada de modo fundamental para nos dizer que
cada valor característico de A é real e que, portanto, podemos
encontrar um X conveniente com valores reais.
(2) O argumento mostra que o polinômio característico de
uma matriz auto-adjunta tem coeficientes reais; a despeito do fato
de que a matriz possa não ter elementos reais.
(3) A hipótes� de V ser de dimensão finita é necessária para
o teorema; um operador auto-adjunto sobre um espaço de dimen­
são infinita com produto interno pode não ter nenhum valor
característico.

Exemplo 29. Seja V o espaço vetorial das funções complexas


(ou reais) contínuas, definidas sobre o intervalo unitário O::;; t::;; 1,
com o produto interno

(fig) = rf(t)g (t�.dt.


O operador "multiplicação por t'', (T f) (t) = tf(t), é auto-adjunto.
Suponhamos que Tf = cf. Então · . .

(t - e) / (t) =O, O ::;; t ::;; 1

e, então, f(t) =O para t #e. Como fé contínua, f =O. Logo T


não possui valores (vetores) característicos.
ESPAÇOS COM PRODUTO INTERNO - 401

Teorema 17. Seja V um espaço de dimensão finita com pro­


duto interno· e seja T um operador linear arbitrário sobre V. Supo­
nhamos que W seja um subespaço de V que seja invariante sob T.
Então o suplementar ortogonal de W é invariante sob T*.
Demonstração. Recordamos que o fato de W ser invariante sob
T não quer dizer que cada vetor em W permaneça fixo por meio
de T; significa que se rJ. está em W então Ta está em W. Seja f3
em W..L. Precisamos mostrar que T*/3 está em W-L, isto é, que
(cxl T*/3)= O para todo rJ. em W. Se ex está em W, então Ta está
em W, portanto, (Tcxl/3)=0. Mas (Tcxl,B)=(alT*/3)*.
Teorema 18. Seja V um espaço de dimensão finita com produto
interno e seja T um operador linear auto-adjunto sobre V. Então
existe uma base ortonormal de V, cujos vetores são vetores caracte­
rísticos de T.
Demonstração. Estamos supondo dim V> O. Pelo Teorema 16,
T possui um vetor característico a. Seja a1=a/ lia. li de modo que
a.1 também é um vetor característico de Te lla.111=1. Se dim V= 1,
já terminamos. Vamos agora proceder por indução sobre a dimen­
são de V. Suponhamos que o teorema seja válido para espaços com
produto interno de dimensão menor que dim V. Seja W o subes­
paço unidimensional gerado pelo vetor a.1. A afirmação de que cx1
é um vetor característico de T significa simplesmente que W é inva­
riante sob T. Pelo Teorema 17, o suplementar ortogonal W.L é
invariante sob T* = T. Ora W..L, com o produto interno de V,
é um espaço com produto interno de dimensão um a menos que a
dimensão de V. Seja V o operador linear induzido sobre W..L: por
T, isto é, a restrição de T a W-L. Então V é auto-adjunto e, pela
hipótese de indução, w.L possui uma base ortonormal {a.2, . 'a.n} .
.

formada por vetores característicos de V. Ora, cada um desses ve­


tores também é um vetor característico de Te como V= WEB W-L,
concluímos que {a.1, . • . , a.n} é a desejada base de V.

Corolário. Seja A uma n x n matriz hermitiana (auto-adjunta).


Então existe uma matriz unitária P tal que P - l AP seja diagonal
(A é unitariamente equivalente a uma matriz diagonal). Se A é uma.
matriz simétrica real, existe uma matriz ortogonal real P tal que
p- 1 AP seja diagonal.

Demonstração. Seja V o espaço cn X 1, com o produto interno


canônico e seja T o operador linear sobre V que é representado
402 - ALGEBRA LINEAR

por A em relação à base ordenada canônica. Como A= A*, temos


T= T*. Seja r!,I = {ix 1' . . , ixn} uma base ortonormal ordenada de
.

V, tal que Tixj = cp j = 1, ... , n. Se D= [T]�. então D é a matriz


p
diagonal com elementos diagonais cl' ... , c". Seja P a matriz com
vetores-colunas (J(l' • • • , ()(n. Então D= p-1 AP.
\
Caso todo elemento de A seja real, podemos tomar ·V como
sendo R", com o produto interno canônico e repetir o argumento.
Neste caso, P será uma matriz unitária com elementos reais, ou
seja, uma matriz ortogonal real.
Caso todo elemento de A seja real, podemos tomar V como
sendo Rn, com o produto interno canônico e repetir o argumento.
Neste caso, P será uma matriz unitária com elementos reais, ou
seja, uma matriz ortogonal real.
Combinando o Teorema 18 com nossos comentários no início
desta seção, temos o seguinte: Se V é um espaço real de dimensão
finita com produto interno e T é um operador linear sobre V, então
V possui uma base ortonormal formada por vetores característicos
de T se, e somente se, Té auto-adjunto. Equivalentemente, se A é
uma n x n matriz com elementos reais, existe uma matriz ortogo­
nal real P tal que P1 AP seja diagonal se, e somente se, A = A'.
Não existe nenhum resultado semelhante para matrizes simétricas
complexas. Em outras palavras, para matrizes complexas, exi�te
uma diferença significativa entre as condições A= A' e A =A*.
Tendo resolvido o caso de operadores auto-adjuntos, voltamos
ao estudo dos operadores normais em geral. Vamos demonstrar
o análogo do Teorema 18 para operadores normais, no caso com­
plexo. Existe uma razão para essa restrição. Um operador normal
sobre um espaço real com produto interno pode não ter nenhum
vetor característico não nulo. Isso é verdade, por exemplo, para
todas as rotações de R2, salvo duas.

Teorema 19. Seja V um espaço de dimensão finita com pro­


duto interno e sefa T um operador normal sobre V. Suponhamos que
()( seja um vetor em V. Então ()( é um vetor característico de T, com
valor característico c se, e somente se, ()( é um vetor característico de
T* com valor característico e.

Demonstração. Supo,.,hamos que U seja um operador normal


arbitrário sobre V Então li U()( li= li U*()( li. De fato, usando a con­
dição UU* = U*U, vemos que
ESPAÇOS COM PRODUTO INTÊRNO' - 403

li Ua li� :;:: . (Uri.J Ua)'.,;: (a J U * Ua) =


== (a IV U*a)= (Ú*al U*a) ==· ri U*a 112,
Se e é um esealar arbÚráiio; o operador (! T - cl é normal. De =

fato, (T- cl)* = T* - c1 e é fácil verificar que UU* U*U: Logo,


. .
=

. '. ' "• .
.' .-··, '· ; ;
'

6ll(T � d)a li =
'll('f* � cl)IX li

de modo que (T�d) ix = O; se; :e somente sé; (T* --' êl)iX ::::;, O.

Definição; ·Uma nx 1i ·matriz complexa " A é düa normal se


AA* =A*A.
Não é muito fácil compreender o real significado de normali­
dade de matrizes ou operadores; n<;> entanto, na sua tentativa de
sentir o coriC:eifo, o' leit8r podê 'achar {ftil saberqu\:. uma màtriZ'
'
trili,ngula�_''é ,.n'órttial se, e soni�1lte se, e1a é diagonai'
,.
.
. . "

. . ··- ·. -.
. .
. '
·.
.
.•_.. ·: ·:..-' ,- ";.. _ ·-_:.
;. ·;.

'teórema 20: ·sejàm V um . espaço de .dimensão 'finita com pro­


duto interno, T úYYI oper�dor linear sobre V e f!J u'l11a bas� ório�
nornial .de 'Y: Supp�hmnos que. a matriz .A qe T. ém. re/.(lçâo. à ba!$e PJ
seja triangular superidr. Ei1tão T e normal se, e somente se1, A é.
uma matriz diagonal. ·
·

i . .. . •
Dem�nstÍ'aÇãó.' Como PJ é uma ba.se ortonormal, A� é a' matriz
. .
·•· . . . .·
· . .
. . . ·• . . . ..· .

de T* etn relação a P,d; Se A é diagonal, então '<4A* =A*A•éAsso


implica TT;i: �'T*'.1>' Reciprocamente, suponhamos :que T seja
normaJ.e.8iJ=.{a1,. . . ,, a,J'Como.A é triangu1.ar silperi_or,·'fa1 =
=.A1iªí··,Usando.o.Teorerria 19;-isto implica T�aí=A1: 1a1. Por
outro lado, ·

. ' -�. ' .,


-.... f1'oc1 � L(A*)Jiªi
j
. i, . . i; :· ..:
• � ·:.:, - ..
J •

P()J:t�ntp, A.1L7 O p,�ra t9�0 f> .t :�P.1 :i:mrtic;11l<;tr,_ A12 ;;=. Q;,e, ç0mo
A é triangular superior, , �eg11e�se gu�

As.�im,. '[�a2 :;:;:.,.l22cx2• e. ;<12j.:=", O para todo j of.2.. Continqando dessa


•.

maneira, vemos que A é diagonaL


404 - ALGEBRA LINIAR

Teorema 21. Seja V um espaço complexo de dimensão finita com


produto interno e seja T um operador linear arbitrário sobre V. Então
existe uma base ortonormal de V em relação à qual a matriz de T é
triangular superior.
Demonstração. Seja n a dimensão de V. O teorema é verda­
deiro quando n = 1 e procederemos por indução sobre n, supondo
que o resultado seja verdadeiro para operadores lineares sobre es­
paços complexos com produto interno, de dimensão n - 1. Como
V é um espaço complexo de dimensão finita com produto interno,
existe um vetor unitário a em V e um escalar c tal que

T*a = ca.

Seja W o suplementar ortogonal do subespaço gerado por a e seja


S a restrição de T a W. Pelo Teorema 17, W é invariante sob T.
Logo, S é um operador linear sobre W. Como a dimensão de W
é n - 1, nossa hipótese de indução implica a existência de uma
base ortonormal { °' ' .. . , °' -1 } de W, em relação à qual a matriz
1 n
de S é triangular superior: coloquemos °' =a. Então {a1, ... , a.]
n
é uma base ortonormal de V em relação à qual a matriz de T é
triangular superior.
Este teorema implica o seguinte resultado para matrizes:

Corolário. Para toda n x n matriz complexa A existe uma


matriz unitária U tal que U'-1AU é triangular superior.
Combinando, agora, os Teoremas 21 e 20, obtemos imediata­
mente o seguinte análogo ao Teorema 18, para operadores normais.

Teorema 22. Seja V um espaço complexo de dimensão finita


com produto interno e seja T um operador. normal sobre V. Então
V possui uma base ortonormal, onde cada vetor é um vetor caracte­
rístico de T.
Novamente existe uma interpretação em termos de matrizes.

Corolário. Para toda matriz normal A existe uma matriz uni­


tária P tal que p-1AP é uma matriz diagonal.

Exercícios

1. Para cada uma das seguintes matrizes simétricas reais A, encontrar uma matriz
ortogonal real P tal que P' AP seja diagonal.
ESPAÇOS COM PRODUTO INTERNO - 405

[
cos O
sen O
sen
-coso
º]
2. Uma matriz simétrica complexa é auto-adjunta? É normal'?

3. Para

2
3
A= [1 ]
2

3
3
4
4
5

existe uma matriz ortogonal real P tal que P'AP = J; seja diagonal. Deter­
minar esta matriz diagonal D.

4. Seja V o espaço C2, com o produto· interno canônico. Seja T o operador


linear sobre V que é representado em relação à base ordenada canônica
pela matriz

Â=D �l
Mostrar que T é normal e determinar uma base ortonormal de Jt, constituída
de vetores característicos de T.

5. Dar um exemplo de uma 2 x 2 matriz A tal que A 2 seja normal, mas A


não seja normal.

6. Seja T um operador normal sobre um espaço complexo de dimensão finita


com produto interno. Demonstrar que T é auto-adjunto, ou unitário conforme
todo valor. característico de T seja real, ou de valor absoluto 1. (Usar o
Teorema 22 para reduzir o problema a um semelhante relativo a matrizes
diagonais.)

7. Demonstrar que T é normal se, e somente se, T = T1 + iT,, onde T1 e T2 são


operadores auto-adjuntos que _comutam.

8. Demonstrar que uma matriz simétrica real possui uma raiz cúbica simétrica
real, isto é, se A é simétrica real, existe uma B simétrica real tal que B·' = A .

9. Demonstrar que se um operador é normal e nilpotente então ele é o ope­


rador nulo.

10. Se T é um operador normal, demonstrar que vetores característicos de T


associados a valores característicos distintos são ortogonais.

t t. Seja T um operador normal sobre um espaço complexo de dimensão finita


com produto interno. Demonstrar que existe um polinômio f,. com coeficientes
complexos, tal que T* =f (t). (Representar T por meio de uma matriz dia­
gonal e verificar o que f deve ser.)

12. Se dois operadores normais comutam, demonstrar que o seu produto é normal.
Capítulo 9

OPERADORES SOBRE ESPAÇOS COM PRODUTO


INTERNO

9.1 Introdução
Consideramos os tópicos tratados no Capítulo 8 como funda�
mentais, fatos que todos deveriam conhecer. O presente capítulo
se destina ao estudante mais avançado ou ao leitor ansioso de
ampliar seus conhecimentos a respeito de operadores sobre espaços
com produto interno. Com exceção do teorema do Eixo Principal,
que é em essência apt?nas uma outra formulação do Teorema 18
sobre a diagonalização ortogonal de operadores auto-adjuntos, e
dos outros resultados sobre formas na Seção 9.2, o material aqui
apresentado é mais sofisticado e, em geral, mais envolvido tecnica­
mente. Também exigiremos mais do leitor, como já o fizemos nas
últimas partes dos Capítulos 5 e 7. Os argumentos e demonstrações
são escritos em· um estilo mais condensado e não há quase àem­
plos que suavizem o caminho; tomamos a precaução, no entanto,
de suprir o leitor com amplos conjuntos de exercícios.
As primeiras três seções se destinam a resultados ligados a
formas sobre espaços com produto interno e relações entre formas
e operadores lineares. A seção seguinte trata da teoria espectral,
isto é, das implicações dos Teoremas 18 e 22 do Capítulo 9 concer­
nentes à diagonalização de operadores auto-adjuntos e normais.
Na seção final, prosseguimos o estudo de operadores normais tra­
tando, em partieular, o caso real e assirn fazendo, examinamos o
que o teorema da decomposição primária do Capítulo 6 diz a res­
peito de operadores normais.

9.2 Formas sobre Espaços com .Produto Interno


Se Té um operador linear sobre um espaço V de dimensão
finita com produto interno, a função f definida sobre V x V por

f (rx, {3) :'7 (Trxl/3)


OPERADORES SOBRE ESPAÇOS COM PR!()DUTO INTERNO - 407

pode ser considerada como uma espécie de substituta de T. Muitas


questões a respeito de T são equivalentes a questões a respeito de .f.
De fato, é fácil ver que f determina T, pois se f!l= {ex1, '.Y.11} é • • • •

uma base ortonormal de V, os elementos da matriz de T em relação


a f!l são dados por

É importante entender, sob um ponto de vista mais abstrato, por


que f determina T. As propriedades cruciais de f são descritas
na seguinte definição.

Definição. Uma forma (sesquilinear) sobre um espaço vetorial V.


real ou complexo, é uma função sobre V x V com valores no corpo ·

de escalares, tal que

(a) f(cex + {3, y) = cf(ex, y) + f(/3, y)


(b) f(ex, c{J + y) = cf(ex, {3) + f(ex, y)

para todos ex, [J, y em V e todos os escalares c.


Assim, uma forma sesquilinear é uma função sobre Vx V tal
que f (ex, {3) é uma função. linear de ex, para f3 fixo e uma função
linear-conjugada de {3, para ex fixo. No caso real, f (ex, {3) é linear
como uma função de cada argumento; em outras palavras, f é
uma forma bilinear. No caso complexo, a forma sesquilinear não
é bilinear a não ser quando f =O. No restante do capítulo omiti­
remos o adjetivo "sesquilinear" a não ser que pareça importante
incluí-lo.
·

Se f e g são formas sobre V e c é um escalar, é fáCil verificar


que cf + g também é uma forma. Segue daí que qualquer combi­
nação linear de formas sobre V será novamente uma forma. Assim,
o conjunto de todas as formas sobre V é um subespaço do espaço
vetorial de todas as funções sobre V x V com valores escalares.

Teorema 1. Seja V um espaço de dimensão finita com produto


interno e f uma forma sobre V. Então existe um único operador linear
T sobre V tal que

f(ex, {3) = (Texj{J)


408 - ALGEBRA LINEAR

para todos a, fJ em V e a aplicação f� T é um isomorfismo do espaço


das formas em L(V, V).
Demonstração. Fixemos um vetor fJ em V. Então O!� f (a, /J)
é uma função linear sobre V. Pelo Teorema 6, existe um único
vetor /3' em V tal que f (a, /J) = (O!i/3') para todo a. Definamos uma
função U de V em V, colocando UfJ = /J'. Então

f (aicfJ + y) = (ai U (c/J +y))


= cf (a, /J) +f (a, y)
= c(O!i Up) +(aiUy)
= (aicU/3 +Uy)

para todos a, p, y em V e todos os escalares e. Portanto, U é um


operador linear sobre V e T =U* é um operador tal que f (a, /J)=
=(TO!i/J) para todos a e p. Se também tivermos f(a, /3)=(T 'O!i/3),
então
(Ta - T'al/3) = O
para todos a e /3; assim Ta=T'a para todo a. Logo, para cada
forma f existe um único operador linear T1 tal que

para todos a, f3 em V. Se f e g são formas e e um escalar,

(cf + g) (a, /J) = (Tcf+gO!i/J)


= cf(a, /3) +g(D!, /J)
= c(T1alf3) + (T9alf3)
= ((cT1 +T9)0!i/3)

para todos a e p em V. Portanto,

de modo que f � T1 é uma aplicação linear. Para cada T em


L(V, V), a equação

f (a, /J) =
(Ta i /J)

define uma forma tal que T1= T, e T1=O se, e somente se, f = O.
Logo, f � T1 é um isomorfismo.
OPERADORES SOBRE ESPAÇOS COM PRODUTO INTERNO - 409

Corolário. A equação

(fJg) = tr(Tr-r;')

define um produto interno sobre o espaço das formas com a proprie­


dade de que

(fJg) L r(ixk, ix) g(ixk, ixj>


j,k
=

para toda base ortonormal {ixl' . . . , ix0} de V.

Demonstração. Do exemplo 3 do Capítulo 8, decorre facil­


mente que (T, U) � tr(TU*) é um produto interno sobre .L(V, V).
Como f � Ti é um isomorfismo, o Exemplo 6 do Capítulo 8 mos­
tra que

é um produto interno. Suponhamos, agora, que A e B sejam ma­


trizes de Ti e T9 em relação à base ortonormal fl,4 = {ixl' . . ., ix"}.
Então

e Bik = (1;,ockloc) g(ak, a). Como AB* é a matriz de


= rir; em
relação à base fl,4, segue-se que

Ulg) = tr(AB*) = I AikBik'


j,k
Definição. Se f é uma forma e fl,4 {ocl' ..., oc0} uma base orde­
=

nada arbitrária de V, a matriz A com elementos

é denominada a matriz de "f em relação à base ordenada fl,4,

Quando fl,4 for uma base ortonormal, a matriz de f em relação


a fl,4 será também a matriz da transformação linear Ti mas, em
geral, esse não é o caso.
Se A é a matriz de f em relação à base ordenada fl,4 = {IX 1, . .. , oc"}
segue-se que
• ;e."'

(9-1)
r,s
-1
para todos os escalares ·:.x. e y,{1 :d- r; ·s::; n). Em outras palavras,
a. ll)\!Jri� .4 p9ssui... a IWOP�i,�d-�cJe ,d,e1,que. ,, ,, ,.,._ ., ,,

f(rx,{3) = Y*AX
onde X e Y são as ,respectivas m�trizes ,cias coordenadas de ·
rx e f3
em relação à base ordenada g{ -
A matriz de f em relação a uma outra ��se
n
: ; -
-
·. :·o. � ,·, . -· • .. i'�
. --

•<,,i;x5,=
i�;pij!Xi!
- .- 1 : • �-. "1_,) ;
•• ·,
..
. J _{l.::;j�
- �)_ '·
,_. J .v ··-· •• •• � '· .i. .'

(9-2) A'= P*AP.

De fato,
.·· /")

. Á;� � f<��:, �;r :-·-

J('[, psk!Xs, L P,p,)


=

s r
··= l..J
�P:A'P
r1 rs sk
'

= (P*Â'P)_,.}.k.
Como para matrizes unitárias P* = decorre de (9-2) que no p-1,
estudo de formas, ppdem·ser apHçacios os çesultados concernentes
à equivalência unitáriã . . . .· . · .

"féÓrema 2.'' Seja f"umaforma sobre um> �spàço àJ.rnple'Xo V de


·

dimensão finita cbm' •priiduti:Y. ·int-errío.· ·'Então· ·existe- úmá" base· orto­
normal ·de V em relação à qual q matriz de f é triangular superior.
Demonstração. Seja f' o ôpérador linear sobre V tal que
f (rx, m =(Trxif3) para todo� rx. e {3. Pelo Teorema 21, existe uma
base· orfoiiêlriíial {&'!; .'..;'&J'éin''rélaçaó
_ _
â.1'qtii:fl \à ·matriz tle' T é
s
t���i:igµl!l<r . µperjqr.-,,I.iogQ,: · ,,.,, .. 1 . ,, ,,,
; . ; .'. ';.--
J .'
' . ,.·
.�-> .
., '
.
.� . ,. ' :· . ' . . .r

f (rxk, rx) = (Trxklrx) :== .Q


: • • . ! .. ' . � .
•··,..
OPERADORES SOBRE ESPAÇOS COM PRODUTO INTERNO - 411

. Definição. Umá forma f sobre um espaço vetorial real ou com­


plexo é dita hermitiana se0•

f(a, p) = f({J, a)
para todos ·a e· f3 em V.
Se T. é um operador' 'linear sobre' um espaço V de dimensão
finita com produto interno e f é a forma

f (a, {3) == (Tai/3)


então f ({3, &f= {tx1Tf3) (T*ix!P); portanto, f é hermitiana se, e so­
=

mente ' se, t . é : auto-adjunto.


Quando f for hermitiana,f (a, a) será real para todo a e, sobre
espaços complexos, essa propriedade caracteriza as formas hermi­
tianas.

Teorema 3. Seja V um espaço vetorial complexo e f uma forma


sobre V tal que f (a, a) seja real para todo a. Então f é hermitiana.
Demonstração. Sejam a e f3 vetores em V. Precisamos mostrar
que f (a, {3) /(/3, a), Ora,
=

f (a + {3, a + /3) f(a, {3) + f (a, {3) + f(f3, a) + f(f3, {3).


=

Como f (a+ [3, a+ {3),f (a,.a) ef ({3, {3) são reais, o número f (a, {3)+
+ f ({3, a) é real. Examinando o mesmo argumento com a+ if3 no
lugàr de a + {3, vemos que - if(a, {3) + if(f3, a) é real. Tendo con­
cluído que dois números são reais, podemos igualá-los aos seus
complexos conjugados e obter

/(a, {3) + f(j3,oa) =f(a, {3) + f ({3, a)


- f(a, {3) + if(P, a)
i =if (a, {3) - if ({3, a)

Se multiplicarmos a segunda equação por i e adicionarmos o resul­


tado à primeira equação, obteremos

2f (a, /3) = 2f ({3, a).

Corolário. Seja T um operador linear sobre um espaço complexo


V de. dimensão }inita com produto interno. Então T é auto-adjunto
se, e somente se; (Tala) é real para todo a em V. /
412 - ALGEBRA LINEAR

Teorema 4 (Teorema do Eixo Principal). Para toda forma


hermitiana f sobre um espaço V de dimensão finita com produto in­
terno, existe uma base ortonormal de V em relação à qual f é repre­
sentada por uma matriz diagonal com elementos reais.
Demonstração. Seja T um operador linear tal que f(rx, /3) =

= (Trxj{3) para todos rx e /3 em V. Então, como f(rx, /3) =f(/3, rx)


· ·
e
(TPlrx) (rxj Tf:J), segue-se que
=

(Trxl/3) = f(/3,rx) = (rxlT /3)

para todos rx e {3; logo, T = T*. ·Pelo Teorema 18 do Capítulo 8,


existe uma base ortonormal de V constituída de vetores caracterís­
ticos de T. Suponhamos que { rx 1' ... , rxn} seja uma base ortonormal
e que

para 1 �j � n. En tã o,

f (rxk, rx) = (Trxklrx) =


ôkick

e pelo Teorema 15 do Capítulo 8, cada ck é real.

Corolário. Sob as condições acima

Exercidos

1. Quais das seguintes funções f, definidas sobre vetores ix =(xi' x2) e f:i =(yl' y2)
de C2, são formas (sesquilineares) sobre C2?
(a ) f (ix, f:i)1. =

(b) f (IX, {:i) =(x1 -y1)2 + x2Yi.


(e) f(ix, f:i) =(x, + y,)2 -(x, -y,)2.
(d) f (ix, f:i) = X1Y
2 X2Ji.-

2. Seja f a forma sobre R2 definida por

Determinar a matriz de f em relação a cada uma das seguintes bases:

{(l, O), (O, l)}, {(l, -1), (1, l)}, {(l, 2), (3, 4)}.
OPERADORES SOBRE ESPAÇOS COM PRODUTO INTERNO - 413

3. Seja
=[· 1 i]
A
-1 2

e seja g a forma (sobre o espaço das 2 x 1 matrizes complexas) definida por


g(X, Y)= Y* AX. Verificar se g é um produto interno.

4. Seja V um espaço vetorial complexo e sejaf uma forma (sesquilinear) sobre


V que seja simétrica: f(<i,P)=f(P,rx). Como éf?

5. Seja f a forma sobre R2 dada por

f((x,, x,), (y,, Y2)) = X1Y1 + 4X2Y2 + 2X1Y2 + 2X2Y1 .

. . Encontrar uma base ordenada em relação à qual f seja representada por


uma matriz diagonal.

6. Dizemos que a forma fé não-degenerada (à esquerda) se O for o único vetor rx


tal que f(rx, p) O para todo p. Seja f uma forma sobre um espaço V com
=

produto interno. Demonstrar que f é não-degenerada se, e somente se, o opera­


dor linear associado T1 (Teorema 1) é não singular.

7. Seja f uma forma sobre um espaço vetorial V de dimensão finita. Ver a


definição de forma não-degenerada à esquerda, dada no Exercício 6. Definir
forma não-degenerada à direita e demonstrar que a forma fé não-degenerada
à esquerda se, e somente se, f é não-degenerada a direita.

8. Seja f uma forma não-degenerada (Exercícios 6 e 7) sobre um espaço V de


dimensão finita. Seja L um funcional linear sobre V. Mostrar que existe um,
e somente um, vetor p em V tal que L(rx) f( rx, PJ para todo a.
=

9. Seja f uma forma não·degenerada sobre um espaço V de dimensão finita.


Mostrar que cada operador linear S possui um "adjunto relativo a/", isto é,
um operador S' tal que J \Srx, JJ) =f(rx, S'PJ para todos rx, p.

9.3 Formas Positivas

Nessa seção vamos discutir formas (sesquilineares) não-nega­


tivas e a sua relação com um dado produto interno sobre o espaço
vetorial subjacente.

Definições. Uma forma f sobre um espaço vetorial real ou com­


plexo V é não-negativa se f é hermitiana e f(oc, oc) 2: O para todo oc
em V. A forma f é positiva se f é hermitiana e f(oc, oc) > O para
todo oc# O.

Uma forma positiva sobre V é simplesmente um produto in­


terno sobre V. Uma forma não-negativa satisfaz todas as propn;
414 - ALGEBRA LINEAR

dades de um produto interno salvo que alguns vetores não nulos


podem ser "ortogonais" a si mesmos.
Seja fuma forma sobre o espaço V de dimensão finita. Seja
.11 = {1Xp . .. , IXn} uma base ordenada de V e seja A a matriz de f
em relação à base fl,d, isto é, Aik = f(ak, a). Se IX = x11X1 + ... + X"IX",
então

f (IX, IX) = f (l., xpi' L xkak)


j 'k
=
L Lk i X,.f (ai' ak)
x
j
= L L AkJx/xk.
j !:
Assim, vemos que f é não-negativa se,. e somente se,

A= A*

e
(9-3) l: l: Akixixk 2 o
j k
para todos os escalares xl' ... , xn. A fim de que f seja positiva, a
desigualdade (9-3) terá que ser estrita para todo (xp ... , xn) =F O.
As co�ões que deduzimos afirmam que f é uma forma positiva
sobre V se, e somente se, a função

g(X, Y) = Y*AX

é uma forma pos1t1va sobre o espaço das n x 1 matrizes coluna


sobre ó corpo de escalares.

Teorema 5. Seja F o córpo dos números reais ou o corpo dos


números complexos. Seja A uma n x n maÚ·iz sobre F. A função g
definida por

(9-4) ,g(X, Y) := Y"" AX

é uma forma positiva sobre o espaço Fº x 1 se, e somente se, existir


uma n x n matriz inversível P, com elementos em F, tal que A = P*P.
Demonstraçqo. Para uma n x n matriz A arbitrária, a função g
em (9-4) é uma forma sobre o espaço das matrizes coluna. Estamos
OPERADORES SOBRE ESPAÇOS COM PRODUTO INTERNO - 415

tentando demonstrar que g é positiva se, e somente se, A= P*P.


Inicialmente, suponhamos A= P*P. Então g é hermitiana e

g( X, X)= X*P*PX
= (PX)*PX
;;:: O.

Se P for inversível e X -:/= O, então (PX)*PX> O.


Suponhamos, agora, que g seja uma forma positiva sobre o
espaço das matrizes coluna. Então g é um produto interno e, por­
tanto, existem matrizes coluna Ql' ... , Q" tais que

Mas isso apenas diz que se Q for a matriz com colunas Ql' .. ., Q"
então Q*AQ=I. Como {Ql' ... , Q.} é uma base, Q é inversível.
Façamos P= Q -
1 e teremos A= P*P.
Na prática não é fácil verificar se uma dada matriz A satisfaz
o critério de positividade estabelecido acima. Uma conseqüência do
último teorema é que se g é positiva então det A> ü, porque
detA= det(P*P)= detP* detP= JdetP 2. J O fato de que detA>O
não é de modo algum suficiente para garantir que g seja positiva;
no entanto existem n determinantes associados com A que pos­
suem a seguinte propriedade: Se A= A* e se cada um desses deter­
minantes for positivo, então g será uma· forma positiva.

Definição. Seja A uma n x n matriz sobre o corpo F. Os me­


nores principais de A são os escalares Llk(A) definidos por

L\k(A)= det
[ l
A11

:
A.·1k '

1 ::::; k ::::; n.

Ak1 Akk

Lema. Seja A uma n x n matriz inversível com elementos de um


corpo F. As s eguintes afirmações são equivalentes:

( a) Existe uma matriz triangular superior P com Pkk = 1


( 1 ::::; k s; n) tal que a matriz B = AP é triangular it?ferior.
( b) Os menores principais de A são todos diferentes de O.
416 - ALGEBRA LINEAR

Demonstração. Seja P uma n x n matriz e façamos B = AP.


Então

Bjk LÂi,P rkº


=

Se P é triangular superior e P kk = 1 para todo k, então

k-1

L Aj,Prk Bjk - Akk' k > 1.


r=l
=

Ora, B é triangular inferior desde que Bik = O para j < k. Assim, B


será triangular inferior se, e somente se,

k-1
(9-5) L Ajrprk = Akk• lsjsk-1
r= 1
-

2 ::;; k s n.

Vemos, assim, que a afirmação (a) do lema é equivalente à afir­


mação de que existem escalares P ,k, l sr sk, 1 sks n, que satis­
façam (9-5). e Pkk 1, 1 sks n.
=

Em (9-5), para cada k > 1 temos um sistema de k- 1 equações


lineares nas incógnitas P 1k' P lk' . . . , Pk -l ,k" A matriz dos coefi­
cientes do sistema é

e seu determinante é o menor principal Ak- 1(A). Se cada Ak- l (A)# O,


os sistemas (9-5) possuem soluções únicas. Mostramos, assim, que
a afirmação (b) implica a afirmação (a) e que a matriz P é única.
Suponhamos, agora, que (a) seja válida. Então, como veremos,

Ak(A) = Ak(B)
(9-6) = B11 B22, • • •
, B kk' k = 1, .. ,
. n.

Para verificar (9-6), sejam Al' ... ,A" e B1 , ... , B", respectivamente,
as colunas de A e de B. Então
OPERADORES SOBRE ESPAÇOS COM PRODUTO INTERNO - 417

(9-7)
r-1

B, = L Pj,AJ + A,, r > 1.


j= l

Fixemos k, 1 � k � n. Usando (9- 7), vemos que a r-ésima coluna


·

da matriz

e: :::i
é obtida, adicionando-se à r-ésima coluna de

uma combinação linear de suas outras colunas. Tais operações


não alteram determinantes. Isso demonstra (9-6) a menos da obser­
vação trivial de que Ak(B) = B1 P • • • , Bkk porque B é triangular.
Como A e P são inversíveis, B é inversível. Portanto,

e, assim, Ak(A) i= O, k = 1, ... , n.

Teorema 6. Seja f uma forma sobre um espaço vetorial V de


dimensão finita e seja A a matriz de f em relação a uma base orde­
nada gj_ Então f é uma forma positiva se, e somente se, A= A* e
os menores principais de A são todos positivos.
Demonstração. Provemos, inicialmente, a metade interessante
do teorema. Suponhamos que A= A* e Ak(A) >O, 1 � k � n. Pelo
lema, existe uma (única) matriz triangular superior P com 1, Pkk =
tal que B = AP seja triangular inferior. A matriz P* é triangular
inferior, de modo que P* B = P* AP também é triangular inferior.
418 - ALGEBRA LINEAR

Como A é auto-adjunta, a matriz D= P*AP é auto-adjunta. Uma


matriz triangular auto-adjunta é necessariamente uma matriz dia�.
gonal. Por um raciocínio análogo ao usado para obter (9-6),

dk(D) = dk(P*B)
--
.. - , .. =,dk(B), - '. �.::
= L\(A).
Como D é diagonal, seus menores principais são

L\(D) = Dll' . . º \ Dkkº

De dk(D) >O, 1 :s; k :s; n, obtemos Dkk :>O para cada k.


Se A é a matriz da forma .Cem relação à base ordenada
�={ix1, . .. ,ix. } , D=P*AP é a matriz def na base {ix', .. .,ix�}
definida por - · "' ' ·
- -

a; = I Pija,.
·i= 1 .

Examinemos (9-2). Como D é diagonal, com elementos positivos


na sua diagonal, é óbvio que
X*D'x >·O, X =I= O
do que_ decorre qu�f �. 11ma forma positiva. _ _ .

Com�çenios,, agoi;a,;cym,.um;i.. fo_rma positj.vaJ. Sabem()S· que


A= A*_,,,Çqmo _ pocier.em9s QlOStrar que 47ck1) �-O, 1.:$ k;:s; 11;? Seja
Yic o subespaço,gera�o •po'r· ixl' .. , �;. e sejâ . .t;, '!- re�trição ,def .a
,

[
-

Yic x Yic· Evidentementefk é uma forma positiva sobre Vk e, em


relação à base {ixl' . .., ix" } , fj, é representa<;J.a pela matriz

A11

• >
• .�
. '
� .· .
;. ;·
�·
.
. ..... ; ·;·,,. . A1<1,.,
Já observamos, como cÓtiseqüélleíâ <lb- Teoterrta:·5� 'qué ci raiô· de
que üma• fdi"ínà'é 'positiva :iril.'pliea qüe o deterí:Üinaritê·de'quâ:lquer
matriz que a tepreserifa' -é" positivo. - '-" ·· '
·

C:'o entârids' dêvk·ni' ser feitÓs parâ"<cótii pl�tár . - nóssó


Al�hris;· *1 -
estudô. fü1 . relação 'existbit�. entrk' 'tqim�s' pósitiVa'.s e: imatfiz�s: o
qde c�Fácterizà as 'màtr'íz·�� ' tj ue representam rõrnias _pósiti�as? se·j
OPERADORES SOBRE ESPAÇOS COM PRODUTO INTERNO - 419


é uma forma sobre um espaço vetorial complexo e A é a matriz
de f em relação a alguma base ordenada, então f será positiva se,
e somente se, A= A* e

(9-8) X*AX >O,

para toda matriz complexa X '#O. Decorre do Teorema 3 que a


condição A= A* é redundante, isto é, (9-8) implica A= A*. Por
outro lado, se estivermos trabalhando com um espaço vetorial real,
a forma f será positiva se, e somente se, A= A' e

(9-9) X1AX >O,

para toda matriz real X '# O. Queremos acentuar que do fato de


que uma matriz real A satisfaça (9-9), não decorre que A= A1• Um
fato verdadeiro é o seguinte: se A= A1 e (9-9) for válido então
também (9-8) será válido. Isso porque

(X + iY)* A(X + iY) = (X' - iY1) A(X + iY)


= X1AX + ytAY + i[X1AY - Y'AX]

e, se A= A', então Y'AX= X'AY.


Se A é uma n x n matriz com elementos complexos e se A
sãtisfaz (��9), diremos que A é uma matriz po�tiva. Os comen­
tários que acabamos de fazer podem ser resumidos assim: Tanto
no càso real como no complexo, uma forma f é positiva se, e
somente se, sua matriz em relação a alguma (de fato, toda) base
ordenada é uma matriz positiva.
Suponhamos, agora, que V seja um espaço de dimensão finita
com produto interno . Seja f uma forma não-negativa sobre V.
Existe um único operador linear auto-adjunto T sobre V tal que

(9-10) f (a, /3) = (TalfJ).


e T possui a propriedade adicional de que (Ta 1 a) 2::-: O..

Definição.Um operador linear T sobre um espaço V de dimen­


são finita com produto interno é não-negativo, se T T* e ( Ta 1 a) 2::-: O
=

para todo a em V. Um operador linear positivo é um operador tal que


T =T* e (Ta 1 a) >O para todo a '# O.
420 - ALGEBRA LINEAR

Se V é um espaço vetorial (real ou complexo) de dimensão


finita e se ( I ) é um produto interno sobre V, então existe uma
· ·

classe de operadores lineares positivos sobre V, associada a esse


produto. Por intermédio de (9-10) existe uma correspondência
bijetora entre essa classe de operadores positivos e a coleção de
todas as formas positivas sobre V Usaremos os exercícios dessa
seção para acentuar as relações entre operadores positivos, formas
posi�ivas e matrizes positivas. O seguinte resumo poderá ser útil:
Se A é uma n x n matriz sobre o corpo dos números complexos,
as seguíntes afirmações são equivalentes:

(1) A é positiva, isto é, L L Akix/5(,k >O sempre que x1, • • • , xn


j k
são números complexos, não todos nulos.
(2) (XI Y) = Y*AX é um produto interno sobre o espaço das
n x 1 matrizes complexas.
(3) Em relação ao produto interno canônico (XI Y)= Y*X
sobre n x.-1 matrizes, o operador linear X - -AX é positivo.
(4) A= P*P para alguma n x n matriz inversível P sobre C.
(5) A= A*, e os menores principais de A são positivos.

Se todo elemento de A é real, estas são equivalentes a:

(6) A= A1 e L L Akixixk >O sempre que x1, , xn são nú­


i k
• . •

meros reais não todos nulos.


(7) (XI Y) Y1AX é um produto interno sobre o espaço das
=

n x 1 matrizes reais.
(8) Em relação ao produto interno canônico (XI Y)= Y1X
sobre n x 1 matrizes reais, o operador linear X - AX é positivo.
(9) Existe uma n x n matriz inversível P, com elementos reais,
tal que A= P1P.

Exercícios

1. Seja V igual a C2, com o produto interno canônico. Para que vetores IX em
V existe um operador linear positivo T tal que IX= Te1?

2. Suponhamos que V seja R2, com o produto interno canônico. Se () é um


riúinero real, seja To o operador linear "rotação de ângulo ()"
OPERADORES SOBRE ESPAÇOS COM PRODJ/.JTO INTERNO - 421

'I'a(x,, x2) = (x1 cos (} - x2 sen (}, x1 sen (} + x2 cos (}).

Para que valores de (} se tem Ta um operador positivo?

3. Seja V o espaço das n x 1 matrizes sobre C, com o produto interno (XI Y) =


= Y* GX (onde G é uma h x n matriz tal que isto seja um produto interno).
Seja A uma n x n matriz e T o operador linear T (X) = AX. Determinar T*.
Se Y é um elemento fixo de V, encontrar o elemento Z de V que determina
o funcional linear X ...... Y"' X. Em outras palavras, encontrar Z tal que
Y* X= (X,I Z) para toda X em V.

4. Seja V um espaço de dimensão finita com produto interno. Se T e U são


operadores lineares positivos sobre V, demonstrar que (T+ U) é positivo.
Dar um exemplo que mostre que TU não é necessariamente positivo.

5. Seja

(a) Mostrar que A é positiva.


(b) Seja V o espaço das 2 x matrizes reais, com o produto interno
l
(XI Y) = Y'AX. Determinar uma· base ortonormal de .v, aplicando o pro­
cesso de Gram-Schmidt à base {X J> X,} definida por

(c) Determinar uma 2 x 2 matriz real P tal que A= P'P.

6. QuaiS' das matrizes são positivas?

[i t t]
-1
[l 2]
3 4 '
l + i]
3
' ...,.1
-1

7. Dar um exemplo de uma n x n matriz cujos menores principais sejam todos


positivos, mas que não seja uma matriz positiva.

8. Verificar se ((x1, x2 )j(yJ> y2)) = x1y1 + 2x2y1 + 2x1y2 + x2y2 define um pro­
duto interno sobre C2.

9. Demonstrar que todo elemento da diagonal principal de uma matriz positiva


é positivo.

10. Seja V um espaço de dimensão finita com produto interno. Se T e U são


operadores lineares sobre .v. coloquemos T < U se U - T é um operador
positivo. Demonstrar o seguinte:
(a) É impossível que T < U e U < T.
422 - ALGEBRA LINEAR

(b) Se T < U e U < S, então T < S.


(c) Se T < U e O< S, não é necessário que ST < SU.

1 t. Seja .V um espaço de dimensão finita com produto interno e E a projeção


ortogonal de .V sobre algum subespaço.
(a) Demonstrar que, para todo número positivo arbitrário e, o operador
cI + E é positivo.
(b) Exprimir em termos de E um operador linear auto-adjunto T tal que
T2 I +E.
=

12. Seja n uni inteiro positivo e A a n x n matriz

2 3 n

2 3 4 n+ 1
A=

n n+l n+2 2n - 1

Demonstrar que A é positiva.

13. Seja A uma n x n matriz auto-adjunta. Demonstrar que existe um número


real e tal que a matriz cl + A seja positiva.

14. Demonstrar que o produto de dois operadores lineares é positivo se, e


somente se, eles comutam.

15. Seja T um operador normal sobre um espaço complexo de dimensão finita


com produto interno. Demonstrar que T é positivo se todo valor caracte­
rístico de T é positivo.

16. Seja T um operador linear sobre o espaço V de dimensão finita com produto
interno e suponhamos que T seja positivo e unitário. Demonstrar que T J. =

17. Demonstrar que toda matriz positiva é o quadrado de uma matriz positiva.

9.4 Mais sobre Formas

Essa seção contém dois resultados que darão informações mais


detalhadas sobre formas (sesquilineares).

Teorema 7. Seja f uma forma sobre um espaço vetorial real


ou complexo V e seja {at> .. ., a,} uma base do subespaço W de di­
mensão finita de V. Seja M a r x r matriz com elementos
OPERADORES SOBRE ESPAÇOS COM PRODUTO INTERNO - 423

e W' o conjunto de todos os vetores /3 em V tais que f(ex, /3) =O para


todo ex em W. Então W1 é um subespaço de V e W 11 W' = {O} se, e
somente se, M é inversível. Quando esse for o caso, V= W + W'.
Demonstração. Se /3 e y são vetores em W' e c um escalar, .

então para todo ex em W

f (ex, cf3 + y) = êf (ex, /3) + f (ex, y)


= O.

Logo, W' é um subespaço de V.


r r

Suponhamos, agora, que ex= I xkexk e que /3 = I YPr Então


k=I j=!
f(ex, /3) =
L Yj�kxk
j,k

Segue daí que W 11 W'-=/- {O} se, e somente se, o sistema homogêneo
r

I yjMjk =o,
j= 1

possuir uma solução não-trivial (Yp . ., y,). Logo, W 11 W' = {O} .

se, e somente se, M* for inversível. Mas a inversibilidade de M*


é equivalente à inversibilidade de M.
Suponhamos que M seja inversível e 'coloquemos

Definamos gi sobre V pela equação

gi/3) L AiJ(exk, /3).


k=I
=

Então

g/c/3 + y) =
I AiJ(exk, cf3 + y)
k
424 - ALGEBRA LINEAR

= e
L AiJ(rxk, /3) + L AiJ(rxk, y)
k k
=
cgi(/3) + g/y).

Logo, cada gi é uma função linear sobre V. Podemos, então, definir


um operador linear E sobre V colocando

E/3 =
L g/f3)rxr
j= 1
Como

g/rx.) = L: AiJ(rxk, rx.)


k
L A jk(M*)kn
k
=

=
[Jjn

segue-se que E (rx.) = ª• para 1 � n � r. Isso implica que E rx = rx


para todo rx em W. Portanto, E leva V sobre W e E2 = E. Se f3 é
um vetor arbitrário em V, então

f(rx., E/3) =
1( ª '
• t gi(/3)rxi)
= L giJ/3)f(rx., rx)
J

= t (� �J(rxk, /3)) f(rx., rx).


Como A* = M-1, segue-se que

f(rx., E/3) = � (� (M-1)kjMjn) f(rxk, /3)


= L: ôkJ(rxk, /3)
k

Isso implica que f(rx, E/3) = f(rx, /3) para todo rx em W. Logo,

f(rx, /3 - E/3) = O
OPERADORES SOBRE ESPAÇOS COM PRODUTO INTERNO - 425

para todo a em W e f3 em V. Assim, 1- E leva Vem W'. A equação



/3 = E/3 + (J - E)/3

mostra que V= W + W'. Um último fato deve ser mencionado.


Como W n W' ={O}, todo vetor em V é, de modo único, soma de
um vetor de W e um vetor de W'. Se f3 está em W', segue-se que
E/3 =O. Logo, l - E leva V sobre W'.
A projeção E, construída na demonstraÇão, pode ser caracte­
rizada da seguinte maneira: E/3 =a se, e somente se, a estiver em
W e f3 - a pertencer a W'. Portanto, E é independente da base de
W que foi usada na sua construção. Podemos, então, nos referir
a E como a projeção de V sobre W, determinada pela decompo­
sição em soma direta

'
V = WEB W .

Notemos que E é uma projeção ortogonal se, e somente se, W' = W .


.L

Teorema 8. Seja f uma forma sobre um espaço vetorial real ou


complexo V e seja A a matriz de f em relação à base ordenada
{ai' ... , a.} de V. Suponhamos que os menores principais de A sejam
todos diferentes de zero. Então existe uma única matriz triangular
superior P com P kk 1 (1 ::;; k ::;; n) tal que
=

P*AP

seja triangular superior.

Demonstração. Como Ak(A*) = Ak(A) (1 ::;; k::;; n), os menores


principais de A* são todos diferentes de zero. Logo, de acordo com
o lema usado na demonstração do Teorema 6, existe uma matriz
triangular superior P com P kk = 1 tal que A* P seja triangular infe­
rior. Portanto, P* A = (A* P)* é triangular superior. Como o pro­
duto de duas matrizes triangulares superiores é novamente trian­
gular superior, segue-se que P*AP é triangular superior. Isso
mostra a existência de P mas não a sua unicidade. Existe, porém,
um outro argumento mais geométrico, que pode ser usado para
demonstrar tanto a existência como a unicidade de P.
Sejam Wk o subespaço gerado por a1, ... , ak .e W'k o conjunto
de todos os /3 em V tais que f (a, /3) =O para todo a em Wk. Como
Ak(A) :I= O, a k x k matriz M com elementos
426 - ALGEBRA LINEAR

(1 ::; i,j::; k) é inversível. Segundo o Teorema 7

v = wk EB w�.
Seja Ek a projeção de V sobre Wk determinada por essa decompo­
sição e façamos E0 = O. Seja

(1 ::; k ::; n).

Então /31 = a1 e Ek-l°'k pertence a Wk_1 para k > 1. Assim, quando


k> 1, existem escalares P jk' determinados de modo único, tais que

k -1
k
E -1°' k L pjk°'F
j= 1
=
-

Fazendo Pkk = 1 e Pjk O para j > k, teremos


= uma n x n matriz
triangular superior P com P kk 1 e =

k
Pk 'L Pjk°'j =

j=l

para k = 1, ... , n. Suponhamos 1 ::; i < k. Então /3; está em � e


W; e Wk_ 1. Como /3k pertence a W�_ 1, segue-se que f (/3;, /3k) = O
.

Indiquemos por B a matriz de f em relação à base ordenada


{/31' ... , /3.}. Então

Bki =
f(/3;, f3k)
de modo que Bki = O para k > i. Portanto, B é triangular superior.
Por outro lado,

B = P*AP.

Reciprocamente, suponhamos que P seja uma matriz trian­


gular superior com Pkk = 1 tal que P*AP seja triangular superior.
Coloquemos

Pk = 'L Pjk°'j· (1 ::; k ::; n).


j

Então, evidentemente, {/31' ... , f3k} é uma base de Wk. Suponhamos


k > 1. Então {/31, . . ., {3k_ 1} é uma base de W1ç-i e como f (/3;, /3k) =O
OPERADORES SOBRE ESPAÇOS COM PRODUTO INTERNO - 427

quando i < k, vemos que Pk é um vetor de W�_1• A equação que


define Pk implica

k-1

Ora, I Pj/i.j pertence a wk-1 e pk está em w�-1· Portanto,


j= 1
Pw ... , Pk- lk são os únicos escalàres tais que
k-1
k
E -1 (Xk L pjk(Xj
j=l
= -

de modo que P é a matriz já construída anteriormente.

9.5 Teoria Espectral

Nessa seção desenvolveremos as implicações dos Teoremas 18


e 22 do Capítulo 8 no que diz respeito à diagonalização de opera­
dores auto-adjuntos e normais.

Teorema 9 (Teorema Espectral). Seja T um operador normal


sobre um espaço complexo V de dimensão finita com produto interno
ou um operador auto-adjunto sobre um espaço real V de dimensão
finita com produto interno. Sejam c1 ... , Se
, valores característicos
distintos de T.
Sejam Wi o espaço característico associado a ci e Ei
a projeção ortogonal de V sobre W Então Wi é ortogonal a Wi
r
quando i #- j, V é a soma direta de W 1, ..., W k• e

(9-11)

Demonstração. Seja, IX um vetor em wj' p um vetor em wi e


suponhamos i #- j. Então

c/rxlP) = (Trxlp) = (rxlT*P) = (rxlc;p).

Logo, (cL- c;) (rxlP) =O e como c j - c; #- O, segue-se que (rxlP) =O.


Assim, ttj é ortogonal a W; quando i #- j. Do fato de que V possui
uma base ortonormal formada de vetores característicos (ver Teo­
remas 18 e 22 do Capítulo 8), segue-se que V= W1 + ... + Wk.
Se rxj pertence a Vj (1 ::;,j:::;, k) e rx1 + ... + rxk =O, então
428 - ALGEBRA LINEAR

o (ixilI (1) = 'L (o:;Jo:)


j j
=

para todo i, de modo que V é a soma direta de W1, ... , Wk. Por­
tanto, E 1 + . . . + Ek = I e

T = TE 1 + ... + TEk
= c1E1 + ... + ckEk.
A decomposição (9-11) é denominada a resolução espectral
de T. Essa terminologia surgiu parcialmente de aplicações físicas
que fizeram com que o espectro de um operador linear sobre um
espaço vetorial de dimensão finita fosse definido como o conjunto
de valores característicos do operador. É importante observar que
as projeções ortogonais E 1, ... , Ek são canonicamente associadas
a T; na verdade elas são polinômios em T.

ci
Corolário. Se e.
J
=
fl
i'fj
(x - )
ci-ci ,
então E.= e.(T) para 1 �j �k.
J J

Demonstração. Como E;Ej = O quando i '/= j, segue-se que

e por um simples argumento de indução, temos que

para todo inteiro n � O. Para um polinômio arbitrário

temos
r

f(T) = L a.T"
n=O

r
k
= L ª• L cjEj
n=O j=l
OPERADORES SOBRE ESPAÇOS COM PRODUTO INTERNO - 429

jtlk Cto a.e}) Ei


L f(c) Er
j=l

Como e/cm)= ôim' segue-se que e/ T) = Er
Como EP ... , Ek estão canonicamente associados a T e

a família das projeções {E 1, • • • , Ek} é denominada a resolução do


operador idêntico definida por T.

Um comentário ainda deve ser feito a respeito da demons­


tração do teorema espectral. Deduzimos o teorema usando os
Teoremas 18 e 22 do Capítulo 8, sobre a diagonalização de opera­
dores auto-adjuntos e normais. Existe uma outra demonstração,
mais algébrica, na qual deve ser demonstrado inicialmente que o
polinômio minimal de um operador normal é um produto de fa­
tores primos distintos. Procede-se então, como na demonstração
do teorema da decomposição primária (Teorema 12, Capítulo 6).
Daremos uma tal demonstração na próxima seção.
Em várias aplicações, é necessário saber se é, ou não, possível
calcular certas funções de operadores ou matrizes, por exemplo,
raízes quadradas. Isso pode ser feito de uma maneira bastante
simples para operadores normais diagonalizáveis.

Definição. Seja T um operador normal ·diagonalizável sobre um


espaço de dimensão finita com produto interno e seja
k

T= L ciEi
j=l

sua resolução espectral. Suponhamos que f seja uma função com


valores no corpo de escalares e cujo domínio contenha o espectro
de T. Então o operador linear f(T) é definido pela equação

(9-12) f(T) = L f(ci) Ei.


j=l
430 - ALGEBRA LINEAR

Teorema 10. Seja T um operador normal diagonalizável com


espectro S sobre um espaço V de dimensão finita com produto interno.
Suponhamos que f seja uma função com valores no corpo de escalares
e cujo domínio contenha S. Então f(T) é um operador normal diago­
nalizável com espectro f(S). Se U é uma aplicação unitária de V
sobre V' e T' UTu-1, então S é o espectro de T1 e
=

f{T') = Uf{T)u-1.

Demonstração. A normalidade de f(T) decorre de (9-12) por


meio de um cálculo simples e do fato de que

f(T)* = L, f(c)Er
j

Além disso, é claro que para todo a em EiV)

f(T)a = f(c)a.
Assim, o conjuntof(S) de todos osf(c) com c em S está contido no
espectro de f (T). Reciprocamente, suponhamos a# O e que

f(T)a = ba.
Então a = L E1a e
j
f(T)a = 'L, f(T)Ep
j
= 'L,f(c)Ep
j

Logo,

llL, (f(c) - b)Eia 112 = L, lf(c) - bl2 llEp 112


j j
= O.

Portanto, f(c) = b ou Ep = O
. Por hipótese, llC # O, de modo que
existe um índice i tal que E;a # O. Segue-se que f(c;) = b e por­
tanto, que f(S) é o espectro de f(T). Suponhamos, de fato, que

f(S) =
{bl' ... , b,}
OPERADORES SOBRE ESPAÇOS COM PRODUTO INTERNO - 431

com b m =I= bn quando m #- n. Seja X,,. o conjunto dos índices i tais


que 1::;; i ::;; k e f(c;)= bm. Seja Pm= L Ei, onde a somatória se
i
estende sobre todos os índices i de Xm. Então Pm é a projeção
ortogonal de V sobre o subespaço dos vetores característicos per­
tencentes ao valor característico b,,, ·� f(T), e

m=
1
é f(T).
a resolução espectral de
Suponhamos, agora, que U seja uma transformação unitária
de V sobre V' e que T' = uw-1• Então a equação

Ta= ca

é válida se, e somente se,

T'Ua= cUa.

Assim, S é o espectro de T' e U transforma todo subespaço caracte­


rístico de T sobre o subespaço correspondente de T'. De fato,
usando (9-12), vemos que

E'.=
J
UE.u-1
J

é a resolução espectral de T'. Logo,

f(T1)= Li(cj)E;
j
= IJ(c)UEju-1
j
= U("I,f(c)E)U-1
j
= Uf(T)u-1.

Examinando o que acabamos de ver, é importante manter em


mente que o espectro do operador normal Té o conjunto
432 - ALGEBRA LINEAR

de valores característicos distintos. Quando T é representado por


uma matriz diagonal em relação a uma base de vetores caracte­
rísticos, torna-se necessário repetir cada valor ci tantas vezes quanto
for a dimensão do espaço de vetores característicos correspondente.
Essa é a razão para a mudança de notação no seguinte resultado.

Corolário. Com as hipóteses do Teorema 10, suponhamos que T


seja representado, em relação à base ordenada f!lj {et1, ... , cxJ , pela
=

matriz diagonal D 'com elementos d1, ... , dn. Então, em relação à


base f!lJ, f(T) é representado pela matriz diagonal f(D) com elementos
.
f(d 1) , ... , f(dJ Se f!lj' {et'1, ... , et�} é uma outrd base ordenada e
. =

P a matriz tal que

cx
; =
L Pipi
i

então p-1f(D)P é a matriz de f(T) em relação à base !!4'.

Demonstração. Para cada índice i, existe um único j tal que


1 :s;j :s;k, et1 pertença a E/V) e d i
cr Portanto, f(T)eti
= f(d)eti =

para todo i, e
·

f(T)etj = L PiJ(T )et;


i

L(DP)ip;
=
i
L(DP)ij L p;;;let�
.
=

k
= L(P-1DP)kp�.
k

Decorre desse resultado, que podemos formar certas funções de


uma matriz normal. De fato, suponhamos que A seja uma matriz
normal. Então existe uma matriz inversível P, na verdade uma
matriz unitária P, tal que PAP-1 seja uma matriz diagonal, diga­
mos D, com elementos d 1, ..." d". Seja f uma função assumindo
valores complexos, que possa ser aplicada a dl' ... , d" e seja f(D)
uma matriz diagonal com elementos!(d1 ) , , f(d,,). Então p-1f(D)P
• • •

é independente de D e somente uma função de A, no seguinte sen­


tido. Se Q é uma outra matriz inversível tal que QAQ-1 seja uma
OPERADORES SOBRE ESPAÇOS COM PRODUTO INTERNO - 433

matriz diagonal D', então J pode ser aplicada aos elementos dia­
gonais de D1 e

Definição. Sob as condições acima, f(A) é definida como sendo


p-1f(D)P.
A matriz f(A) também pode ser caracterizada de uma maneira
diferente. Para fazer isso, enunciaremos sem demonstração alguns
resultados sobre matrizes normais, que são obtidos formulando-se,
para matrizes, teoremas análogos aos anteriores.

Teorema 11. Seja A uma matriz normal e c 1 ... , ck as raízes


,

complexas distintas de det(xl - A). Seja

I = E1 + ... + Ek.

Se f é uma função com valores complexos cujo domínio inclua


cl' ... , ck, então

em particular,

Lembremos que um operador T sobre um espaço com produto


interno é não-negativo se T for auto-adjunto e (Taioc) �O para todo
a em V.

Teorema 12. Seja T um operador normal diagonalizável sobre


um espaço V de dimensão finita com produto interno. Então T é
auto-adjunto, não-negativo ou unitário, conforme cada valor caracte­
rístico de T seja real, não-negativo ou de valor absoluto 1.
Demonstração. Suponhamos que T tenha a resolução espectral
T= c1E1 + ... + ckEk. Então T* = c1E1 + . .. + êkEk. Dizer que T
é auto-adjunto é dizer que T = T*, ou
434 - ALGEBRA LINEAR

Usando o fato de que E;Ei =O para i =1- j e o fato de que nenhum


Ei é o operador nulo, vemos que Té auto-adjunto se, e somente
se, ci = ci' j = 1, ... , k. Para distinguir os operadores normais que
são não-negativos, olhemos para

(Tctlct) = Ct ciEpl ;� E;ct)


= L L c/EictlE;ct)
i j

= L ci llEp 112•
j

Usamos o fato de que (E;ct 1 E;ct) =O para i =1- j. Fica claro então
que a condição (Tctlct)?: O é satisfeita se, e somente se, c i?: O para
cada j. Para distinguir os operadores unitários, observemos que

TI* = c1c1E1 + ... + ckckEk


= lc1l2 E1 + · · · + lckl2Ek.

Se TI*= I então I = lc112 E1 + .. . + lckl2 Ek, e, operando com Ei

Ei = iclEr

Como Ei=!-0, temos lcl = 1 ou lcJ·I = 1. Reciprocamente, se lcJ.12=1


'

para cad a j, e claro que T 7* = I.


É importante notar que este é um teorema sobre operadores
normais. Se Té um operador linear genérico sobre V que possui
valores característicos reais, não decorre que Té auto-adjunto. O
teorema afirma que se T possui valores característicos reais e se T
é normal, então T é auto-adjunto. Um teorema deste tipo serve
para fortalecer a analogia entre a operação de conjugação (ope­
ração de se tomar adjuntos) e o processo de se formar o conjugado
de um número complexo. Um número complexo z é real ou de
valor absoluto 1 conforme z = z ou zz = 1. Um operador T é
auto-adjunto ou unitário conforme T = T* ou T*T= I.
Vamos, agora, demonstrar dois teoremas, que são os análogos
destas duas afirmações.
OPERADORES SOBRE ESPAÇOS COM PRODUTO INTERNO - 435

(1) Todo número não-negativo possui uma única raiz qua­


drada não-negativa.

(2) Todo número complexo pode ser expresso sob a forma


ru onde r é não-negativo e l�I =1. Esta é a decomposição polar
z= réº para números complexos.

Teorema 13. Seja V um espaço complexo de dimensão finita


com produto interno e seja T um iperador não-negativo sobre V.
Então T possui uma única raiz quadrada não-negativa, isto é, existe
um, e somente um, operador não-negativo N sobre V tal que N2 = T.
Demonstração. Seja T = c1E1 + ... + ckEk a resolução espectral
de T. Pelo Teorema 12, cada ci �O. Se c é um número real não­
negativo arbitrário, indiquemos por JC a raiz quadrada não-nega­
negativa de c. Então, de acordo com o Teorema 11 e (9-12), N = JT
é um operador normal diagonalizável bem definido sobre V. Ele é
não-negativo pelo Teorema 12 e, por um cálculo óbvio, N2 =T.
Seja, agora, P um operador não-negativo sobre V tal que
p2 = T. Vamos demonstrar que P =N . Seja

P=d1F1 + . . . + drFr

a resolução espectral de P. Então di �O para cada j, pois P é não­


negativo. De P2 = T resulta

Ora, FI' ... , Fr satisfazem as condições 1=F1 + . . + Fr, F/i =O


.

para i =I: j e nenhum Fi é O. Os números· di, ... , d; são distintos,


porque números não-negativos distintos possuem quadrados dis­
tintos. Pela unicidade da resolução espectral de T, devemos ter
r =k e (talvez reordenando) Fi =Ei' dJ = cr Assim, P N. =

Teorema 14. Seja V um espaço de dimensão finita com pro­


duto interno e seja T um operador linear arbitrário sobre V. Então,
existe um operador unitário U sobre V e um operador não-negativo
N sobre V tal que T =UN. O operador não-negativo N é único.
Se T é inversível, o operador U também é único.

Demonstração. Suponhamos que T =UN, onde U é unitário


e N não-negativo. Então T* =(UN)* =N*U* =NU*. Assim,
T*T= NU*UN = N2• Isto mostra que N é determinado de um
436 - ALGEBRA LINEAR .

único modo como a raiz quadrada não-negativa do operador


não-negativo T*T.
Então, para iniciarmos a demonstração da existência de U
e N, usaremos o Teorema 13 para definirmos N como a única raiz
quadrada não-negativa de T*T. Se Té inversível, então N também
o é porque

(MxlN oe) = (N2oeioe) = (T*Toeioe) = (Toei Toe).


Neste caso, definamos U TN-1 e demonstraremos que U é
=

unitário. Ora, U* (TN-1)* (N-1)*T* (N*)-1T*


= N-1T*.
= = =

Assim,

U U* = m-1N-1T*
= T(N-1)2T*
= T(N2)-1T*
= T(T*T)-1T*
= TT-1(T*)-1T*
= 1
e U é unitário.
Se T é não inversível, teremos de realizar um pouco mais de
trabalho para definir U. Definamos primeiro U sobre a imagem
de N. oe um vetor na imagem de N, digamos, oe N/3. Defi­
Seja =

namos U oe
T/3, motivados pelo fato de que queremos UN/3 T/3 .
= =

Precisamos verificar que U está bem definido sobre a imagem de


N; em outras palavras, se N/3' N{3, então T/3' T/3 Verificamos
= = .

acima que li N y 112 li Ty 112 para todo y em V. Assim, com y f3 - {3',


= =

vemos que N(/3 - /3') =O se, e somente se, T(/3 - /3') =O. Portanto,
U está bem definida sobre a imagem de N e é evidentemente linear
onde definida. Se W é a imagem de N, vamos agora definir U sobre
W J.. Para fazer isto precisamos da seguinte observação: Como T
e N possuem o mesmo núcleo, suas imagens têm a mesma dimen­
são. Assim, W .L possui mesma dimensão que o suplementar orto­
gonal da imagem de T. Portanto, existe um isomorfismo (de es­
paço com produto interno) U0 de W .L em T (V) i. Agora já de­
finimos U sobre W e vamos definir U sobre W .L como sendo U o-
Repitamos a definição de. U. Como V = W E9 W .L, cada oe em
V pode ser expresso de um único modo sob a forma oe = N[J + y,
onde Nf3 está na imagem W de N e y está em W .L. Definamos

U oe = T/3 + U0y.
OPERADORES SOBRE ESPAÇOS COM PRODUTO INTERNO - 437

Este U é evidentemente linear e, como verificamos acima, está


bem definido. Além disso

(UajUa) = (T/3 + U0yjT{3 + U0y)


= (T{JjT/3) + (U0yjU0y)
= (N/JIN/3) + (yjy)
= (aia)
portanto, U é unitário. Também l/N/3 = T/3 para cada {3.
Denominamos T = UN a decomposição polar de T. Certamente
não dizemos que é a decomposição polar, pois U não é único. Mes­
mo quando Té inversível, de modo que
Ué único, temos a dificul­
dade de que e
N podem não comutar. Na verdade, eles comutam
U
se, e somente se, T é normal. Por exemplo, se T UN =NU, com =

N não-negativo e U unitário, então

T1* = (N U) (NU)*= NUU*N = N2 = T*T.

O operador arbitrário T também possui uma decomposição


T = N1U1, com N1 não-negativo e U1 unitário. Neste caso, N1
será a raiz quadrada não-negativa de TT*. Este resultado pode
ser obtido aplicando-se o teorema há pouco demonstrado ao ope­
rador T* e depois tomando adjuntos.
Voltaremos, agora, nossa atenção ao que pode ser dito a res­
peito da diagonalização simultânea de famílias comutativas de ope­
radores normais. Para esse propósito a seguinte terminologia é
apropriada.

Definições. Seja !F uma família de operadores sobre um espaço


V com produto interno. Uma função r sobre !F com valores no
corpo F de escalares será denominada uma raiz de !F se existir um a
não nulo em V tal que

Ta = r (T) a

para todo T em !F. Para uma função arbitrária r de !F em F, indica­


remos por V(r) o conjunto de todos os a em V tais que ra r (T) a =

para todo T em !F.


Então V(r) é um subespaço de V e r é uma raiz de !F se, e
somente se, V(r) #{O}. Todo a não nulo em V(r) é simultanea­
mente um vetor característico para todo T em !!J;,
438 - ALGEBRA LINEAR

Teorema 15. Seja !F uma família comutativa de operadores nor­


mais diagonalizáveis sobre um espaço V de dimensão finita com pro­
duto interno. Então !F possui somente um número finito de raízes.
Se r1, ... , rk, são as raízes distintas de !F, então
(i) V(r;) é ortogonal a V (ri) se i =f. j e
(ii) V= V(r 1) E9 ... E9 V(rk).
Demonstração. Suponhamos que r e s sejam raízes distintas
de ff. Então existe um operador T em !F tal que r(T) =f. s(T).
Como vetores característicos pertencentes a valores característicos
distintos deT são necessariamente ortogonais, segue-se que V (r)
é ortogonal a V(s). Como V é de dimensão finita, !F possui no
máximo um número finito de raízes. Sejam r1, ..., rk as raízes deff.
Suponhamos que { T1, ..., Tm} seja um subconjunto linearmente
independente maximal de !F e seja

{E;l' E;2• ...}

a resolução do operador idêntico definida por Ti (1 s i s m). Então


as projeções Ei i formam uma família comutativa. De fato, cada
Eii é um polinômio em Ti e Yi, ..., Tm comutam entre si. Como

J= (L E lj) (L E2h) "· (L E mjm)


ii h im
cada vetor a em V pode ser escrito na forma

(9�13) a=
I Elj, E2h ... E mimª·
Ji, .. jm
. .

Suponhamos que j1 , ... , jm sejam índices para os quais . ,. ..


fJ E1.}I E2}2
=

... , EmJ. ma =f. O. Seja

/Ji = ( n En.1n) a.
n"fi

Então /3 = Eiii/Ji; logo, existe um escalar ci tal que

1 s i s m.

Para cada T em !F, existem escalares bi, determinados de modo


único, tais que
m
T L b/J;.
i= 1
=
OPERADORES SOBRE ESPAÇOS COM PRODUTO INTERNO - 439

Assim,

T/3 = L b/I;/3

= (L b;c)f3.
i

A função T __. L b;c; é evidentemente uma das raízes, digamos rt,


i

de :F e f3 está em V(r1). Portanto, cada termo não nulo em (9-13)


pertence a um dos espaços V(r 1 ) , ... , V(rk). Decorre daí que Y é
a soma direta ortogonal de V(r 1 ) , ... , V(rk).

Corolário. Sob as hipóteses do teorema, sejá P1 . a pro1eçao


ortogonal de V sobre V (r) , (1 :::;; j ::;; k). Então PrPi ;;: O se i # j,

e todo T em :F pode ser escrito na forma

(9-14)

Definições. A família das projeções ortogonais { P 1, ... , Pk} é


denominada a resolução do operador idêntico determinada por :F,
e (9-14) é a resolução espectral de T em termos dessa família.
Apesar de que as projeções P1, • • • , Pk, no corolário acima,
estejam canonicamente associadas com a familia :F, em geral elas
não estão em :F e nem são combinações lineares de operadores
em :F; no entanto, mostraremos que elas. podem ser obtidas for­
mando.-se certos produtos de polinômios em elementos de :F.
No estudo de uma família arbitrária de operadores lineares
sobre um espaço com produto interno, é geralmente proveitoso
considerar a álgebra auto-adjunta gerada por essa família.

Definição. Uma álgebra auto-adjunta de operadores sobre um


espaço V com produto interno é uma subálgebra linear de L(V, V)
que contém o adjunto de cada um de seus elementos.
Um exemplo de uma álgebra auto-adjunta é o próprio L(V, V).
Como a interseção de qualquer coleção de álgebras auto-adjuntas
é novamente uma álgebra auto-adjunta, a seguinte terminologia tem
sentido.
440 - ALGEBRA LINEAR

Definição. Se :!F é uma família de operadores lineares sobre


um espaço de dimensão finita com produto interno, a álgebra auto­
adjunta gerada por :!F é a menor álgebra auto-adjunta que con1ém :!F.

Teorema 16. Seja ff uma família comutativa de operadores


normais diagonalizáveis sobre um espaço V de dimensão finita com
produto interno, e seja d a álgebra auto-adjunta gerada por ff e o
operador idêntico. Seja {P 1' . ., PkJ a resolução do operador idêntico
.

definida por :!F. Então d é o conjunto de todos os operadores sobre


V dajàrma
k
(9-15) T I ciPi
j= l
=

onde c , ... , ck são escalares arbitrários.


1
Demonstração. Indiquemos por Jl o conjunto de todos os ope­
radores sobre V da forma (9-15). Então Jl contém o operador
idêntico e o adjunto

de cada um de seus elementos. Se T = I ciPi e V = I diPi,


então para todo escalar a i i

aT + V = I (ac + d)P
i
j
e

i,j

=
UT.

Assim, Jl é uma álgebra comutativa auto-adjunta contendo ff e o


operador idêntico. ;i>ortanto, Jl contém d.

Sejam r1, ..., rk todas as raízes de ff. Então para cada par
de índices (i, n ), com i # n, existe um operador 1';" em ff, tal que
r;(T;n) # rn(Tin). Sejam ain r;(T;n)- rn(T;n) e b in
= rn(T;n). Então O =

operador linear

Q; =
TI ª;� 1CI';. b ;.J)
njd
-
OPERADORES SOBRE ESPAÇOS COM PRODUTO INTERNO - 441

é um elemento da álgebra d. Mostraremos que Qi P i (1 :::; i:::; k). =

Para esse fim, suponhamos j #- i e que a seja um vetor arbitrário


em V(r). Então

T;/t. = r}T;j)a.
= h;p.

de modo que
tam, segue-se que Q;!X
(T;j - bJ)!X O C9mo todos os fatores de Qi comu­
= .

O Portanto, Q; e P; atuam da mesma ma­


= .

neira sobre V(r) sempre que j #- i. Suponhamos, agora, que a seja


um vetor em V(rJ Então Tin!X = r,,J,T;n)!X, e

Assim, Qia.
portanto, Qi =
=a e
Pi para i .
Q; e P; atuam da mesma maneira sobre
1, . . , k. Decorre disso que d = R..
=
V(r);

O teorema mostra que a álgebra d é comutativa e que cada


elemento de d é um operador normal diagonalizável. Mostraremos
a seguir que d possui um único gerador.

Corolário. Sob as hipóteses do teorema, existe um operador


T em d tal que todo elemento de d é um- polinômio em T.
k
Demonstração. Seja T = I tjPp onde tl' ... , tk são escalares
distintos. Então i= 1
k
T" I t)Pj =

j= 1
para n = 1, 2, . . .
. Se

segue-se que

n=l n=l j=l

Jl Ctl antj)
k
pj

I f(t)Pr
j=l
442 - ALGEBRA LINEAR

Dado um operador arbitrário


k

U =
L ciPi
j;l

em d, existe um polinômio f tal que f(t) = ci (1 �j � k) e para


qualquer f nessas condições, U f (T).
=

Exercícios

1. Dar uma definição razoável de uma n x n matriz não-negativa e depois

demonstrar que uma tal matriz possui uma única raiz quadrada não-negativa.

2. Seja A uma n x n matriz com elementos complexos tal que A* = -A, e seja
B=eÂ. Mostrar que

(a) det B = e''Â;


(b) B* =e-A;
(c) B é unitária.

3. Se U e T são operadores normais que comutam, demonstrar que U+ T e


UT são normais.

4, Seja T um operador linear sobre o espaço complexo .V de dimensão finita


com produto interno. Demonstrar que as dez afirmações seguintes sobre T
são equivalentes:
(a) T é normal.
(b) li Trx li = li T* a li para todos a em V.
(c) T = T, + iT,, onde 1; e T2 são auto-adjuntos e T1 T2 = T2 T1•
(d) Se a é um vetor e e um escalar tal que Ta=ca, então T* a= êa.
(e) Existe uma base ortonormal de V formada por vetores característicos de T.

( f) Existe uma base ortonormal i!A tal que [T] fA seja diagonal.
(g) Existe um polinômio g com coeficientes complexos tal que T* = g(T).
(h) Todo subespaço que é invariante sob T também é invariante sob T*.
(i) T =NU, onde N é não-negativo, V é unitário e N comuta com V.
( j) T = c1E1 + ... + ckEk, onde 1 =E,+ ... + Ek, EiEJ O para i
= #}, e

EJ = EJ = 11'5.

5. Usar o Exercício 3 para mostrar que uma família arbitrária· de operadores


normais (não necessariamente diagonalizáveis) sobre um espaço de dimensão
finita com produto interno, gera ·uma álgebra auto-adjunta comutativa de
operadores normais.

6. Seja V um espaço de dimensão finita com produto interno e U um operador


unitário sobre V tal que Ua =a implique a= O. Seja
OPERADORES SOBRE ESPAÇOS COM PRODUTO INTERNO - 443

. (1 + z)
f(z) = 1 z � 1
(l_ z),
Mostrar que
(a) f(U) = i(J + U) (/ - U)-1;
(b) f ( U) é auto-adjunto;
(c) para todo operador auto-adjunto T sobre y, o operador

U = (T- il)(T + iW'

é unitário e tal que T = f (U).

7. Seja V o espaço das n x n matrizes complexas, munido do produto interno

(AjB) = tr(AB").

Se B é um elemento de V, indiquemos por L8, R8 e T8 os operadores lineares


sobre .V definidos por
(a) L8(A) = BA.
(b) R8(A) = AB.
(c) T8(A) = BA - AB.

Considerar as três famílias de ·operadores que se obtém, deixando B variar


sobre todas as matrizes diagonais. Mostrar que cada uma dessas famílias é
uma álgebra auto-adjunta comutativa e determinar suas resoluções espectrais.

8. Se B é um elemento arbitrário do espaço com produto interno do Exercício 7,


mostrar que L8 é unitariamente equivalente a R8 .
1

9. Seja .V o espaço com produto interno do Exercício 7 e G o grupo das matrizes


unitárias em V. Se B está em G, indiquemos por C 8 o operador linear sobre y,
definido por

Mostrar que
(a) C8 é um operador unitário sobre .V;
(b) Cn,n, Cn,Cs,i
=

(c) não existe nenhuma transformação unitária U sobre V tal que

para todo B em G.

10. Seja F uma família arbitrária de operadores lineares sobre um espaço .V 4e


dimensão finita com produto interno e seja a a álgebra auto-adjunta gerada
por F. Mostrar que
(a) toda raiz de d define uma raiz de F;
(b) toda raiz r de d é uma função linear multiplicativa sobre A, isto é,
444 - ALGEBRA LINEAR

r(TU) = r(T)r(U)
r(cT + U) = cr(T) + r(U)

para todos T e U em d e todos os escalares e.

11. Seja ff uma família comutativa de operadores normais diagonalizáveis sobre


um espaço V de dimensão finita com produto interno, e seja d a álgebra
auto adjunta gerada por .'F e o operador idêntico /. Mostrar que cada raiz
de d é diferente de O, e que para cada raiz r de ff existe uma única raiz s de
d tal que s (T) = r(T) para todo T em ff.

12. Seja ff uma família comutativa de operadores normais diagonalizáveis sobre


um espaço V de dimensão finita com produto interno e d0 a álgebra auto­
adjunta gerada por .'F. Seja d a álgebra auto-adjunta gerada por ff e o
operador idêntico J. Mostrar que
(a) dé o conjunto de todos os operadores sobre V da forma cJ + 1 sendo e

um escalar e .T um operador em d0.


(b) Existe no máximo uma raiz r de d tal que r(T) = O para todo Tem d0.
(c Se uma das raízes de dé a função nula sobre oc0, as projeções PI' .. ., P•
na resolução do operador idêntic9 definida por .'F podem ser indexadas de tal
maneira que d0 seja constituída de todos os operadores sobre V da forma
k

T = I cjPj
j=2

onde c2, .. ., c k são escalares arbitrários.


(d) d= d0 se, e somente se, para cada raiz r de d existir um operador Tem
d0 tal que r(T) #- O.

9.6 Outras Propriedades dos Operadores Normais

Na seção 8.5 desenvolvemos as propriedades fundamentais dos


operadores auto-adjuntos e normais,_ usando os métodos mais sim­
ples e diretos possíveis. Na seção 9.5 consideramos vários aspectos
da teoria espectral. Provaremos, agora, alguns resultados de natu­
reza mais técnica a respeito, principalmente, de operadores normais
sobre espaços reais.
Começaremos demonstrando uma versão mais profunda do
teorema da decomposição primária, do Capítulo 6, para operadores
normais. Ele se aplica tanto ao caso real como ao caso complexo.

Teorema 17. Seja T um operador normal sobre· um espaço V


de dimensão finita com produto interno. Seja p o polinômio minimal
de T e sejam pl' ... , pk seus fatores primos unitários distintos. Então
cada p ocorre com multiplicidade 1 na decomposição de p e possui
i
grau 1 ou 2. Suponhamos que Wj seja o núcleo de pi(T). Então
OPERADORES SOBRE ESPAÇOS COM PRODUTO INTERNO - 445

(i) w é ortogonal a wj se i # j;
j
(ii) V W 1 EB , ... , EB Wt;
=

(iii) W é invariante sob T e pi é o polinômio minimal da res­


i
trição de T a W ;
i
(iv) para cada j, existe um polinômio ei com coeficientes no
corpo de escalares, tal que ei(T) é a projeção ortogonal de V sobre W
r
Na demonstração, usaremos certos fatos fundamentais que
enunciaremos como lemas.

Lema 1. Seja N um operador normal sobre um espaço W com


produto interno. Então o núcleo de N é o suplementar ortogonal da
sua imagem. .
Demonstração. Suponhamos (ex 1 N/3) =O para todo f3 em W.
Então (N*cx 1 /3) =O para todo {3; logo N*cx =O. Pelo Teorema 19
do Capítulo 8, isso implica Ncx O Reciprocamente, se Net =O
= .

então N*cx O e =

(N*ixl/J) = (ixlN/J) =O

para todo f3 em W.

Lema 2. Se N é um operador normal e ix um vetor tal que


N2ix = O, então Nix O. =

Demonstração. Suponhamos que N seja normal e que N2ix = O .

Então Nix está na imagem de N e também está no núcleo de N.


Pelo Lema 1, isso implica Nix = O.

Lema 3. Seja T um operador normal e f um polinômio arbitrário


com coeficientes no corpo de escalares. Então f(T) também é normal.
Demonstração. Suponhamos f = a0 + a1x + .. . + a.x". Então

f (T)* =
ã01 + ã1 T* + ... + ãn(T*)".
Como T*T =:=' TT*, segue-se que f (T) comuta com f (T)*.

Lema 4. Sejam T- um operador normal e f e g polinômios relati­


vamente primos, com coeficientes no corpo de escalares. Suponhamos
446 - ALGEBRA LINEÀR

que rx e /3 sejam vetores tais que f(T) rx = O e g(T) f3 = O. Então


(ocJ/3)=O.
Demonstração. Existem polinômios a e b, com coeficientes no
corpo de escalares, tais que af + bg = 1. Assim,

a(T)f(T) + b(T)g( T) = I
e rx = g(T)b(T)rx. Segue-se que

(rxl/3) = ( g(T)b(T)rxJ/3) = (b(T)rxig(T)*/3).


Por hipótese g( T) f3 =O. Pelo Lema 3, g( T) é normal. Portanto,
pelo Teorema '19 do Capítulo 8, g(T)*/3·=O; logo (rx lf3) =O.
Demonstração do Teorema 17. Lembremos que o polinômio
minimal de T é o polinômio unitário de menor grau entre todos
os polinômios f tais que f(T)=O. A existência de tais polinômios
decorre da hipótese de que V é de dimensão finita. Suponhamos
que algum fator primo pi de p esteja repetido. Então p =pfg para
algum polinômio g. Como p(T) =O, segue-se que

para todo rx em V. Pelo Lema 3, piT) é normal. O Lema 2 im­


plica

p/T)g(T)rx = O

para todo oc em V. Mas isso contradiz a hipótese de que p possua


o menor grau entre todos os f tais que f(T)=O. Portanto,
p =p1, , pk. Se V é. um
• . .
espaço complexo com produto interno,
cada pi é necessariamente da forma

p.=x-c.
J J

com ci real ou complexo. Por outro lado, se V é um espaço real


com produto interno, então pi=xi - ci com ci em R, ou

pi = (x - e) (x - e)

sendo e um número complexo não real.


OPERADORES SOBRE ESPAÇOS COM PRODUTO INTERNO - 447

Façamos, agora, fi=P!Pr Então, como _f1' ... ,fk são relati­
vamente primos, existem polinômios gi com coeficientes no corpo
de escalares, tais que

(9-16)

Indicaremos, resumidamente, como tais gi podem ser cons­


truídos. Se pi=x-ci, então fiei)# O, e para gi tomamos o poli­
nômio constante 1/f/c). Quando todos os pi são dessa forma,
os fig i são os conhecidos polinômios de Lagrange associados a
c1, ... , ck, e (9-16) é evidentemente válido. Suponhamos algum
pi=(x - e) (x - e) sendo e um númqro complexo não real. Então
V é um espaço real com produto interno e tomamos

x-c x-c
g.=--+-
J
- -
s s

onde s=(e-c)�(c). Então

(s + s)x - (c s + cs)
gj
ss
=
de modo que gi é um polinômio com coeficientes reais. Se o grau
de p é n, então

é um polinômio com coeficientes reais de grau no máximo igual a


n - l; além disso, ele se anula para cada uma das n raízes (comple­
xas) de p e é, portanto, identicamente nulo.

Seja ex, agora, um vetor arbitrário em V. Então, por (9-16)

ex=" f.(T) g.(T)ex


L. J )· .

j
e como p/T)�(T)=O, segue-se que fiT)g/T)ex está em Wi para
todo j. Pelo Lema 4, Wi é ortogonal a W;, sempre que i # j. Por­
tanto, V é a soma direta ortogonal de W1, • • • , Wk. Se [J é um vetor
arbitrário em itj,
p/T)T[J = Tp/T)[J =O;
448 - ALGEBRA LINEAR

logo Wi é invariante sob T. Seja Ti a restrição de T a Wr Então


p/ T) =O de modo que pi é divisível pelo polinômio minimal de
Tr Como pi é irredutível sobre o corpo de escalares, segue-se que
pi é o polinômio minimal de Ti.
Em seguida, seja e fpi e Ei e/ T ) . Então, para todo vetor
i
= =

a em V, Eja está em Wi, e

a=l:Ep.
j
Assim, a - Eia= I Ep; como Hij é ortogonal a W; quando j =!= i,
i'f i
isso implica que a.:... Eia está em W,l.. Decorre agora, do Teore-
ma 4 do Capítulo 8, que E; é a projeção ortogonal de V sobre W;.

Definição. Os subespaços W (1 :::;:; j :::;:; k) são denominados as


j
componentes primárias de V sob T.

Corolário. Seja T um operador normal sobre um espaço V de


dimensão finita com produto interno e sejam W 1' . .., Wk as compo­
nentes primárias de V sob T. Suponhamos que W seja um subespaço
dé V, invariante sob T. Então

Demonstração. Obviamente, w contém L w "wj.


Por outro
j
lado, sendo W invariante sob T, ele será invariante sob qualquer
polinômio em T. W é invariante sob a projeção
Em particular,
ortogonal Ei de V sobre Wr Se a está em W, segue-se que Ep está
em W n Wi e, ao mesmo tempo, a=
. L Ep. Portanto, W está con-
- j
tido em I w " wr
.i
O Teorema 17 mostra que todo operador normal T, sobre um
espaço de dimensão finita com produto interno, é canonieamente
especificado por um número finito de operadores normais Ti, - defi­
nidos sobre as componentes primárias Wi de V sob T e cada um
dos polinômios minimais desses operadores é irredutível sobre o
corpo de escalares. Para compreender totalmente os operadores
normais é necessário estudar os operadores normais desse tipo
especial.
OPERADORES SOBRE ESPAÇOS COM PRODUTO INTERNO - 449

Um operador normal cujo polinômio minimal possui grau 1


é obviamente um múltiplo escalar do operador idêntico. Por outro
lado, quando o polinômio minimal for irredutível e de grau 2 a
situação torna-se mais complicada.

Exemplo 1. Suponhamos r >O e que e seja um número real


não múltiplo inteiro de n. Seja T o operador linear sobre R2 cuja
matriz em relação à base canônica é

[ cos 8 - sen fJ

J
.
A= r
sen e cose

Então T é um múltiplo escalar de uma tr!nsformação ortogonal


e, portanto, é normal. Seja p o polinômio característico de T.
Então

p = det(xJ - A)
= (x � r cos 8)2 + r2 sen2 e
=x - 2r cosex + r2•

Seja a = r cos fJ, b r sen e e c =a+ ib. Então b =F O, e= rei9

[: �J
=

A= -

e p = (x - e) (x - e). Portanto, p é irredutível sobre R. Como p é


divisível pelo polinômio minimal de T, segue-se que p é o poli­
nômio minimal.
Esse exemplo sugere a seguinte recíproca.

Teorema 18. Seja T um operador normal sobre um espaço V


de dimensão finita com produto interno e p o seu polinômio minimal.
Suponhamos que

p = (x - a)2 + b2

onde a e b são reais e b =F O. Então existe um inteiro s >O tal que


p5 é o polinômio característico de T e existem subespaços V 1, .. . , V5
de V tais que

(i) v é ortogonal a vi se i =F j i
i
(ii) V=V1$ ... Ef>Vs;
450 - ALGEBRA LINEAR

(iii) cada Vi possui urna base ortonormal {ai , P) com a pro­


priedade fie que

Ta. = aa. +
J J
b{J.
J
T{Ji = - bai + a{Ji"

Em outras palavras, se r = Ja2 + b2 e ()é escolhido de modo


que a= r cos () e b=r sen e, então V é uma soma direta ortogonal
de subespaços V , de dimensão dois, sobre os quais T atua como
i
"r vezes uma rotação de ângulo ()".

A demonstração do Teorema 18 se baseará no seguinte resul­


tado.

Lema. Seja V um espaço real com produto interno e S um


operador normal sobre V tal que S2 + I = O. Seja a um vetor arbi­
trário de V e fJ=Sa. Então

S*a= -P
(9-17)
S*{J =a

(aifJ)=O, e lia li= 11/Jli.


Demonstração. Temos Sa=fJ e S{J=S2a= -a. Portanto,

O = llSa - fJ112 + llS/J + a112 = llSa 112 - 2(SaifJ) + 11/J112


+ llS/3112 + 2(SfJia) + lia 112.
Como S é normal, segue-se que

O= llS*all2 - 2(S*fJia) + 11/3112 + llS*/3112 + 2(S*aifJ) + llall2


= llS*a + fJ112 + llS*fJ - a 112.
Isso implica (9-17); logo

(a i fJ) = (S*fJifJ) = <PIS/J)


=<PI - a)
= - (aifJ)
e (aifJ)=O. Analogamente

lia112 =(S*fJia) =
(fJISa) = 11/J112.
OPERADORES SOBRE ESPAÇOS COM PRODUTO INTERNO - 461

Dem onstração do Teorema 18. Seja V 1, ... , Vs uma coleção ma­


ximal de subespaços de dimensão dois, satisfazendo (i) e (ii) e as
condições adicionais

(9-18) 1 ::;; j ::;; s.

Seja W = V1 + . . . + V5• Então W é a soma direta ortogonal de


V1, .•. , V5• Vamos mostrar que W V. Suponhamos que isso não
=

aconteça. Então W L -:/= {O}. Além disso, como (iií) e (9-18) impli­
cam que W é invariante sob T e T*, segue-se que W1 é invari­
ante sobT* e T= T**. Seja S=b-1(T-al) Então S*=b-1(T*-al),
S* S = SS* e W J. é invariante sob S e S*. Como ( 7-a/)2 + b2l =O.
segue-se que S2 + I = O. Seja cx um vetor arbitrário de norma 1
em W 1. e façamos fJ = Scx. Então fJ está em W .i e SfJ =-cx.
Como T =al + bS, isso implica

Tct =act + b{J


T{J = -bct + a{J.

Pelo lema, S*cx -{J, S*{J = cx, (cxifJ) =O e


= 11/Jll = 1. Porqui.:
T* =ai+ bS*, segue-se que

T*ct =act + b{J


T*{J = bct + ct{J.

Mas isso contradiz o fato de que Vl' . . : , Vs é uma coleção maximnl


de subespaços satisfazendo (i), (ii) e (9-18). Portanto, W = V e com11

[X
-a b
det
-b x-a J = (x -a)2 + b2

decorre de (i), (ii) e (iii) que

det (xi - T) = [(x-a)2 + b2]5.

Corolário. Sob as condições do t eorema, T é inver sível e


452 - ALGEBRA LINEAR

Demonstração. Como

segue-se de (iii) e (9-18) que T T* = (a2 + b2)1. Logo, T é inver­


sível e T* = (a2 + b2) T 1 .
-

Teorema 19. Seja T um operador normal sobre um espaço V


de dimensão finita com produto interno. Então qualquer operador
linear que comute com T, também comuta com T*. Além do mais,
todo subespaço invariante sob T é também invariante sob T*.
Demonstração. Suponhamos que U seja um operador linear
sobre V que comute com T. Seja Ei a projeção ortogonal de V
sobre a compónente primária wp :::;j::::; k) de V sob T. Então
Ei é um polinômio em T e, portanto, comuta com U. Assim,

Portanto, U (W) é um subconjunto deWr Indiquemos por Ti e


Ui T e U a Wr Suponhamos que Ii seja o ope­
as restrições de
rador idêntico sobre Wr Então Ui comuta com Ti e se Ti= c/i'
é claro que Ui também comuta com T*i = ê/r Por outro lado,
se Ti não é um múltiplo escalar de Ii, então Ti é inversível e exis­
tem números reais ai e b i tais que

Como UiTi= TiUi, segue-se que Ti-1Ui= UiT'j1. Portanto, Ui


comuta com ·T 7 em ambos os casos. Ora, T* também comuta
com Ei e, portanto, Wi é invariante sob T*. Além disso, para
todos a e /3 em wi

(Tial/3) = (Tal/3) = (ai T*/3) = (ai T7 /J).

Como T*(W) está contido em Wi, isso implica que TJ é a res­


trição de T* a Wr Assim,

UT*aJ. = T*UaJ.
OPERADORES SOBRE ESPAÇOS COM PRODUTO INTERNO - 453

para todo ai em W Como V é a soma de Wl' ... , Wk, segue-se que


r

UT*rx = T*Urx

para todo a em V e portanto, U comuta com T*.


Suponhamos, agora, que W seja um subespaço de V, inva­
riante sob T, e seja Zi= W n Wr Pelo corolário do Teorema 17,
w= L zj" Assim, é suficiente mostrar que cada zj é invariante
j
sob TJ. Isso é óbvio se Ti= c/ Se esse não for o caso, Ti é
inversível e transforma Z.J em, e, portanto, sobre ZJ.. Logo,
T.J- 1 (ZJ.) = Z.J e como

segue-se que T*(Z) está contido em Zi para todo j.


Suponhamos que T seja um operador normal . sobre um es­
paço V de dimensão finita com produto interno. Seja W um
subespaço invariante sob T. Então, o corolário acima mostra que
W é invariante sob T*. Disso decorre que wi. é invariante sob
T**= T (e, portanto, sob T* também). Usando esse fato, pode-se
demonstrar facilmente a seguinte versão mais forte do teorema da
decomposição cíclica dada no Capítulo 7.

Teorema 20. Seja T um operador linear sobre um espaço V


de dimensão f inita com produto interno (dim V� 1). Então existem r

vetores não nulos rxl' ... , ixr em V, com respectivos T-anuladores


el' .. ., er, tais que

(i) V = Z(a.1; T) EB ... EB Z(ar; T);


(ii) se 1 s k sr - 1, então ek 1 + divide ek;

(iii) Z(ixj; T) é ortogonal a Z(ixk; T) quando j #- k. Além do mais,


o inteiro r e os anuladores e1, ... , er são determinados de modo único
pelas condições (i) e (ii) e pelo fato de que nenhum ixk é nulo.

Corolário. Se A é uma matriz normal com elementos reais (com­


plexos), então existe uma matriz real ortogonal (unitária) P tal que
1
p- AP esteja sob a forma racional canônica.
Segue daí que duas matrizes normais A e B são unitariamente
equivalentes se, e somente se, elas possuem a mesma forma racio-
454 - ALGEBRA LINEAR

nal; A e B são ortogonalmente equivalentes se seus elementos forem


reais e elas possuírem a mesma forma racional.
Por outro lado, existe um critério mais simples para a equi­
valência unitária de matrizes normais e operadores normais.

Definições. Sejam V e V' espaços com produto interno sobre


o mesmo corpo. Uma transformação linear

U: V� V1

é denominada uma transformação unitária se ela trans_forma V sobr_e_


V' e preserva produtos internos. Se T é um operador linear sobre V
e T1 é um operador linear sobre V', então T é unitariamente equi­
valente a T1 se existir uma transformação unitária U de V sobre V1
tal que

UTU-1 = T1•

Lema. Sejam V e V' espaços de dimensão finita com produto


interno sobre o mesmo corpo. Suponhamos que T seja um operador
linear sobre V e que T1 seja um operador linear sobre V'. Então T
é unitariamente equivalente a T' se, e somente se, existir uma base
'
ortonormal PJ de V e uma base ortonormal PJ' de V' tal que

[TJ91 = [T']91 •

Demonstração. Suponhamos que exista uma transformação uni­


táriaU de V sobre V' tal que UTU-1 = T'. Seia PJ= {oc1' . , oc.} . .

uma base (ordenada) ortogonal arbitrária de V. Seja oc'.= Uoc.(l 5,j5,n).


-
Então PJ' = { oc'1, ... , ix�} ··é uma base ortonormal a/ V" e �ofõcando
n

Toei= L Akpk
k=l
vemos que

T1oc'.J = UToc.J

= L Akp°'k
k
L Akp�
k
=
l
OPERADOR S SOBRE ESPAÇOS COM PRODUTO INTERNO - 455
Logo, [T]g,j = A = [T')g,j.
Reciprocamente, suponhamos que exista uma base ortonormal
86 de V e uma base ortonormal 861 de V' tal que

[T]g,j = [T'].'ll

A [T].<ll. Suponhamos 86 {al' ..., a"} e 86' {a�, ... , e<}.


e seja = = =

SejaU a transformação linear de Vem V'tal que Uaj aj (1 sj sn). =

Então U é uma transformação unitária de V sobre V' e

u w-1a; = u raj
u I Ak/Xk
k
=
I A kp�.
k
Portanto, UTU-1a; = T'a�(l s j s n),e isso implica que uru-1 = T'.
Decorre imediatamente desse lema, que operadores unitaria­
mente equivalentes sobre espaços de dimensão finita possuem o
mesmo polinômio característico. Para operadores normais vale a
recíproca.

Teorema 21. Sejam V e V' espaços de dimensão finita com pro­


duto interno sobre o mesmo corpo. Suponhamos que T seja um
operador normal sobre V e que T' seja um operador normal sobre V'.
Então T é unitariamente equivalente a T' se, e somente se, T e T '
possuem o mesmo polinômio característico.
Demonstração.' Suponhamos que T e T' possuam o mesmo
polinômio característico f. Sejam Hj (1 s j sk) as componentes pri­
márias de V sob T e T. )
a restrição
. de T a W.. Suponhamos que J.
J J
seja o operador idêntico sobre W Então
r
k
f = 0 det(xJ
j
- T).
j= 1

Seja pj o polinômio minimal de �· Se pj = X - cj é claro que

det(xl
j
- T) = (x - c)'j
onde s j é a dimensão de W
r
Por outro lado, se p j (x a +b = - )2 J
com a1 e b j reais e b j :f. O, então decorre do Teorema 18 que

j
det(xi.
J
- T.) J
= p�
)
456 - ALGEBRA LINEAR

onde, nesse caso, 2si é a dimensão de Wr Portanto, f = 0 p'ji.


j
Agora podemos também calcular f pelo mesmo método, usando
as componentes primárias de V1 sob T'. Como pi' . . . , pk são
primos distintos, segue-se da unicidade da decomposição em fato­
res primos de f, que existem exatamente k componentes primárias
w;(l sj s k) de V' sob T' e que elas podem ser i r,9exadas de tal
modo que pJ seja o polinômio minimal da restrição Tj de T' a
Wj. Se P; =
ci, então Ti= c/i e Tj= c/j onde Ij é o operador
x -

idêntico sobre Wj. Nesse caso é evidente que 1j é unitariamente


equivalente a Tj. Se pi= (x a)2 + bJ, como acinia, então usan­
-

do o lema e o Teorema 20, vemos novamente que Ti é unitariamente


equivalente a r;. Assim, para cada j existem bases ortonormais
f!4i e í!4j de Wi e Wj, respectivamente, tais que

Finalmente, seja V a transformação linear de V em V' que trans­


forma cada f!4. sobre PJ'.. Então V é uma transformação unitária
J J .
de V sobre V' tal oue uru-1 = T'.
Capítulo 10

FORMAS BILINEARES

10.1 Formas Bilineares


Neste capítulo vamos tratar das formas bilineares sobre .es­
paços vetoriais de dimensão finita. O leitor provavelmente obser­
vará uma semelhança entre uma parte da matéria e a discussão
dos determinantes no Capítulo 5 e dos produtos internos e formas
nos Capítulos 8 e 9. A relação entre formas bilineares e produtos
internos é particularmente forte; no entanto, este capítulo não pres­
supõe nada da matéria do Capítulo 8 ou 9. O leitor que não tiver
familiaridade com produtos internos provavelmente lucraria lendo
a primeira parte do Capítulo 8 à medida que lesse a discussão de ·

formas bilineares.
A primeira seção trata do espaço das formas bilineares sobre
um espaço _vetorial de dimensão n. A matriz de uma forma bilinear
em relação a uma base ordenada é introduzida e é estabelecido o
isomorfismo entre o espaço das formas e o espaço das n x n ma­
trizes. Define-se o posto de uma forma bilinear e são introduzidas
as formas bilineares não degeneradas. A segunda seção discute as
formas bilineares simétricas e sua diagonalização. A terceira seção
estuda as formas bilineares anti-simétricas. A quarta seção discute
o grupo que conserva uma forma bilinear não-degenerada, com
atenção especial prestada aos grupos ortogonais, os grupos pseudo­
ortogonais e um grupo pseudo-ortogonal particular - o grupo de
Lorentz.
Definição. Seja V um espaço vetorial sobre o corpo F. Uma
forma bilinear sobre V é uma função L que associa a cada par orde­
nado de vetores tX, fJ em V um escalar f(tX, /J) em F, e que satisfaz

f( ctX1 + tX2, /3) = cf(tXp /J) + f(rx.". /!)·


(10-1)
f (tX, c/J1 + /32) = cf(tX, /31) + f(tX, /32).
458 - ALGEBRA LINEAR

Indicando por V x V o conjunto de todos os pares ordenados de


vetores em V, esta definição pode ser reformulada como segue:
Uma forma bilinear sobre V é uma função f de V x V em F que
é linear como uma função de qualquer dos seus argumentos quando
o outro é deixado fixo. A função nula de V x V em F é evidente­

mente uma forma bilinear. É também verdade que toda combi­


nação linear de formas bilineares sobre V é ainda uma forma bili­
near. Para demonstrar este fato, basta considerar combinações
lineares do tipo cf + g, sendo f e g formas bilineares sobre V. A
demonstração de que cf + g satisfaz (10-1) é semelhante a muitas
outras que fizemos e vamos omiti-la. Tudo isto pode ser resumido
dizendo-se que o conjunto das formas bilineares sobre V é um
subespaço do espaço das funções de V x V em F (Exemplo 3, Capí­
tulo 2). Indicaremos o espaço das formas bilineares sobre V por
L(V, V, F).

Exemplo 1. Seja V um espaço vetorial sobre o corpo F e


sejam L1 e L2 funcionais lineares sobre V. Definamos f por

Fixando f3 e considerando f como uma função de a, então temos


simplesmente um múltiplo escalar do funcional linear L1. Com a

fixo, f é um múltiplo escalar de L2. Assim, é evidente que fé uma


forma bilinear sobre V.

Exemplo 2. Sejam m e n inteiros positivos e F um corpo.


Seja V o espaço vetorial das m x n matrizes sobre F. Seja A uma
m x m matriz fixa sobre F. Definamos

Então fA é uma forma bilinear sobre V. De fato, se X, Y e Z são


m x n matrizes sobre F,

f A(cX + z; Y) = traço [(cX + Z)' A Y]


=c traço(cX'A YI + traço(Z'AY)
= cfA(X, Y) + fA(Z, Y).

Evidentemente, utilizamos o fato de que a operação transposta e a


função traço são lineares. É ainda mais fácil mostrar que fA é linear
FORMAS BILINEARES - 459

como uma função do seu ségundo argumento. No caso particular


n = 1, a matriz. X'AY é 1 x 1, isto é, um escalar, e a forma bilinear
é simplesmente

f,.i(X, Y)= X1AY


=
Li L A iixYr
j
Mostraremos em breve que toda forma bilinear sobre o espaço
das m x 1 matrizes é desse tipo, isto é, é fA para alguma m xm
matriz A.

Exemplo 3. F um corpo. Vamos determinar todas as


Seja
formas bilineares sobre o espaço F2. Suponhamos que f seja uma
2
tal forma bilinear. Se a= (x1 x2) e f3 = (yl' y2) são vetores em F ,
então

f (rx, /3) =f (x1e1 + x262, /3)


= xJ(el' /3) + x2f(6v /3)
= x1f(el' Y161 + Y262) + X2f(62, Y1B1 + Y262)
= X1YJ(6, 61) + X1Y2f(e , e2) + X2YJ(62' 61) + X2YzÍ(e2 , 62).
1

Assim, f é completamente determinada pelos quatro escalares


Aii = f (6;, 6) da seguinte man,eira:

f(rx, /3) =
Â11X1Y1 + Â12X1Y2 + Â21X2Y1 + Â22X2Y2
A;iX;Yr
=
iL
,j

Se X e Y são as matrizes das coordenadas de rx e f3 e se A é a


2 x 2 matriz com elementos· A (i, j) Aii = f (6i' E), então=

(10-2) f(rx, /3) =


XtAY.

Observemos no Exemplo 2 que se A é uma 2 x 2 matriz arbitrária


sobre F, então (10-2) F2• Vemos
define uma forma bilinear sobre
2
que as formas bilineares sobre F são exatamente as obtidas por
meio de uma 2 x 2 matriz como em (10-2).
A discussão no Exemplo 3 pode ser generalizada de modo a
descrever todas as formas bilineares sobre um espaço vetorial· de
dimensão finita. Seja V um espaço vetorial de dimensão finita sobre
460 - ALGEBRA LINEAR

o corpo F e seja � = { a1, • . . , an} uma base ordenada de V. Supo­


nhamos que f seja uma forma bilinear sobre V. Se

a= X1ª1 + ... + xnan e fJ = Y1ª1 + . .


. + Ynªn
são vetores em V, então

f (a, {J) = fC[, X;IX;, fJ)


i

= L xJ(a;, fJ)
i

= Li xJ(a;, L Yp)
i

= L L X;YJ(a;, a).
i j

Se fizermos Aii =f(a;, a) , então

f (a, fJ) = L L Aiixiyi


i j

=X'AY

onde X e Y são as matrizes das coordenadas de a e fJ em relação


à base ordenada �. Assim, toda forma bilinear sobre V é do tipo

(10-3)

para alguma n x n matriz A sobre F. Reciprocamente, se temos


uma n n matriz arbitrária A, é fácil ver que (10-3) define uma
x
·
forma bilinear f sobre V, tal que Aii =f (a;, a).

Definição. Seja V um espaço vetorial de dimensão finita e seja


� = { al' .. ., an}
uma base ordenada de V. Se f é uma forma bili­
near sobre V, a matriz de f em relação à base ordenada 14 e a
n x n matriz A com elementos Ai = f(a;, a). Às vezes, indicaremos
j
esta matriz por [fJ18•

Teorema 1. Seja V um espaço vetorial de dimensão finita sobre


o corpo F. Para cada base ordenada 14 de V, a função que associa a
cada forma bilinear sobre V s�a matriz em relação à base ordenada
� é um isomorfismo do espaço L(V, V, F) no espaço das n x n
matrizes sobre o corpo F.
FORMAS BILINEARES - 461

Demonstração. Observamos acima quef--> [f],, é uma corres­


pondência bijetora entre o conjunto das formas bilineares sobre V
e o conjunto de todas as n x n matrizes sobre F. Que isso é uma
transformação linear é fácil de ver, pois

para todos e j. Isto diz simplesmente que

[cf + g],,= c[f],, + [g],,.

Corolário. Se f!J { 0(1, ... , 0(0} é uma base ordenada de V e


=

f!J* ={L1, . , L0} é a base dual de V*, então as n2 formas bilineares


. .

formam uma base do espaço L(V, V, F). Em particular, a dimensão


de L(V, V, F) é n2•
Demonstração. A base dual { Ll' ... , L.} é definida essencial­
mente pelo fato de que L;((J() é a i-ésima coordenada de ()( em
relação à base ordenada f!J (para todo ()( em V). ·
Ora, as funções
f;i definidas por

f..IJ.(()(, /3) = L.(a)L.(p)


j,
! '

são formas bilineares do tipo considerado no Exemplo l. Se

então

Seja f uma forma bilinear arbitrária sobre V e seja A a matriz


de f em relação à base ordenada f!J. Então

f(a, /3) =
L A;ixtyi
i,j

o que diz simplesmente que

f =
L Aijfij.
i,j
462 - ALGEBRA LINEAR

Agora é evidente que as n2 formas fii formam uma base de


L(V, V, F).
Pode-se reformular a demonstração do corolário como segue.
A matriz da forma bilinear fu em relação à base ordenada - !!lJ é a
matriz "unitária" E;·1, cujo único elemento não-nulo é um 1 na
linha i e coluna j. Como estas matrizes Ei,j constituem uma base
do espaço das n x n matrizes, as formas fij constituem uma base
do espaço das formas bilineares.
O conceito de matriz de uma forma bilinear em relação a
uma base ordenada é semelhante ao conceito de matriz de um
operador linear em relação a uma base ordenada. Do mesmo
modo que para operadores lineares, estaremos interessados no que
acontece à matriz que representa uma forma bilinear, ao pas­
sarmos de uma base ordenada a outra. Então, suponhamos que
!!lJ{ al' ... , an} e !!J'= { a '1 , ... , a�} sejam duas bases ordenadas de
=

V e que f seja uma forma bilinear sobre V. Como se .relacionam


as matrizes [ !]11 e [ ! ]111 Bem, seja P a n x n matriz (inversível)
tal que

para todo a em V. Em outras palavras, definimos P por

n
a;= L P;p;·
i= 1
Para vetores arbitrários a, f3 em V

f(a, /3) = [a]�[!J�[/31


= (P[a]J!')'[f]"P[/3]�'
= [a1' (P1[f]91P) [/3]§9'.
Pela definição e unicidade da matriz que representa f em relação
à base ordenada !!J', devemos ter

(10-4) [!]§$, = P'[f1P.

Exemplo 4. Seja V o espaço vetorial R2. Seja fa forma bili­


near definida sobre a= (x1, x2) e f3 = (y1, y2) por
FORMAS BILINEARES - 463

Ora,

e, então, a matriz de f em relação à base ordenada canônica ,

1J = {t:l' i;2} é

[f]M=[� �]·
Seja 14' =
{ s � , s ;} a base ordenada definida por i;'1 = (1, - 1),
e�= (1, 1). Neste caso, a matriz P que transforma as coorde­
nadas de 141 para 14 é

[ l]. p
=
-1
1
1

[fJM = [fJ�P
Assim,

pt

=[! -1] [! �] [-� �]


= [�
�J [ � �J .-

[� �l
=

O que isto significa é que, se expnm1rmos os vetores rx e /3 por


meio de suas coordenadas em relação à base [!l)', digamos

então

Uma consequencia da fórmula (10-4) da mudança de base é


a seguinte: Se A e B são n x n matrizes que representam a mesma
forma bilinear sobre V em relação a bases ordenadas (possivel­
mente) diferentes, então A e B têm o mesmo posto. De fato, se P
464 - ALGEBRA LINEAR

é uma n x n matriz inversível e B =P1AP, é evidente que A e B


têm o mesmo posto. Isto torna possível definir o posto de uma
forma bilinear sobre V é uma função f. que associa a cada par orde­
que represente a forma em relação a uma base ordenada de V.
É desejável dar uma definição mais intrínseca do posto de
uma forma bilinear. Isto pode ser feito como segue: Suponhamos
que f seja uma forma bilinear sobre o espaço vetorial V. Fixando
um vetor a em V,f (a, /3) é linear com uma função de fJ. Desta ma-.
neira, cada a fixo determina um funcional linear sobre V; indique­
mos este funcional linear por Lia). Repetindo, se a é um vetor
em V, então L (a) é o funcional linear sobre V cujo valor em
qualquer vetor 1
é f (a, /3). Isto nos dá uma transformação a--+ Lia)
de V no espaço dual V*. Como

vemos que

isto é, LI é uma transformação linear de V em V*.


f determina uma transformação linear
De maneira semelhante,
RI de V em V*. Para cada /3 fixo em V,f (a, /3) é linear como uma
função de a. Definimos RI(/3) como sendo o funcional linear sobre
V cujo valor no vetor aé f (a, /3).

Teorema 2. Seja f uma forma bilinear sobre o espaço vetorial V


de dimensão finita. Sejam Lr e Rr as transformações lineares de
V em V* definidas por (Lra) (/3) =f(a, /3) =(Rr/3) (a). Então, posto
(Lr) =posto (Rr).
Demonstração. Pode-se fazer uma demonstração deste teorema
que seja "independente de coordenadas". Tal demonstração é seme­
lhante à demonstração (na Seção 3.7) de que o posto-linha de uma
matriz é igual ao seu posto-coluna Então, faremos aqui uma
demonstração que começa tomando um sistema de coordenadas
(base), utilizando depois o teorema "posto-linha igual a posto­
coluna".
Para demonstrar que posto (LI ) =posto (RI) bastará demons­
trar que LI e RI têm a mesma nulidade. Seja f!Ã uma base orde­
nada de V e seja A = [f];i· Se a e /3 são vetores em V, com ma­
trizes de coordenadas X e Y em relação à base ordenada f!J, então
FORMAS BILINEARES - 465

f (a, {3) = X1AY. Ora, R!({3) =O significa que f (a, {3) =O para todo
<1. em V, isto é, que X1A y =o para toda n X 1 matriz X. A última

condição diz simplesmente que AY =O. A nulidade de Rf é, por­


tanto, igual à dimensão do espaço das soluções de A Y = O.
Analogamente, L/1X) =O se, e somente se, X1AY =O para toda
n xmatriz Y. Assim, IX está no núcleo de L1 se, e somente se,
1
X1A =o, isto é, A1X =O. A nulidade de Lf é, portanto, igual à
dimensão do espaço das soluções de A1X =O. Como as matrizes
A e A1 têm o mesmo posto-coluna, vemos que

nulidade (LJ) =nulidade (RJ).

Definição. Se f é uma forma bilinear sobre o espaço V de dimen­


são finita, o posto de f é o inteiro r =posto (Lr) =posto (Rr).

Corolário 1. O posto de uma forma bilinear é igual ao posto


da matriz da forma bilinear em relação a qualquer base ordenada.

Corolário 2. Se f é uma forma bilinear sobre o espaço vetorial


o-dimensional V, as seguintes afirmações são equivalentes:

(a) Posto (f) =n.

(b) Para cada IX não-nulo em V, existe um f3 em V tal que


f(1X, {3) :/=O.
(c) Para cada f3 não-nulo em V, existe um IX em V tal que
f(IX, {3) :/=O.

Demonstração. A afirmação (b) diz sin;iplesmente que o núcleo


de Lf é o subespaço nulo. A afirmação (c) diz que o núcleo de Rf
é o subespaço nulo. As transformações lineares Lf e Rf têm nuli­
dade O se, e somente se, elas têm o mesmo posto n, isto é, se, e
somente se, posto (f) =n.

Definição. Uma f arma bilinear f sobre um espaço vetorial V é


dita não-degenerada (ou não-singular) se satisfaz as condições (b) e
(c) do Corolário 2.
Se V é de dimensão finita, então f é não-degenerada, desde
que f satisfaça qualquer uma das três condições do Corolário 2.
Em particular, f é não-degenerada (não-singular) se, e somente se,
sua matriz em relação a alguma (toda) base ordenada de V é uma
matriz não-singular.
466 - ALGEBRA LINEAR

Exemplo 5. Seja V = Rn e seja f a forma bilinear definida


sobre ct (x1, ..., xn) e /3
= = (yl' . . , Yn ) por
.

f(ct, /3) = X1Y1 + · · · + XnYn·

Então f é uma forma bilinear não-degenerada sobre R". A matriz


de f em relação à base ordenada canônica é a n x n matriz unidade:

f(X, Y) = xiy

Esta fé usualmente denominada o produto escalar. O leitor prova­


velmente tem familiaridade com esta forma bilinear, pelo menos
no caso n = 3. Geometricamente, o número f(cc, /3) é o produto
do comprimento de cc pelo comprimento de f3 e pelo cosseno do
ângulo entre cc e {3. Em particular, f(cc, /3) O se, e somente se, os =

vetores cc e f3 são ortogonais (perpendiculares).

Exercícios
1. Quais das seguintes funções f, definidas sobre vetores lX = (x" x2) e /3 = (y 1 y2)
em R1, são formas bilineares?
(a) f (lX, /3) = 1 ;,
(b) f(ll,/J)=(x1 -y1)2+X2Y2>
(e) j(lX, /3) =(x1+y1)2 -(x1 -y1)\
(d) f(lX, /J)= X1)'2 -X2Yi·

2. Seja f a forma bilinear sobre R2 definida por

f((x,, y,), (x2, Y2ll = x,y, + X2Yr


Determinar a matriz de f em relação a cada uma das seguintes bases:

{(l, O), (0, 1)}, {(l, - 1), (1, 1)}, {(l, 2), (3, 4)}.

3. Seja V o espaço das 2 x 3 matrizes sobre R e seja f a forma bilinear sobre V


definida por f(X, Y) = traço (X' A Y), onde

Determinar ·a matriz de f em relação à base ordenada

onde E'j é a matriz cujo único elemento não-nulo é um 1 na linha ; e coluna j.


FORMAS BILINEARES - 467

4. Descrever explicitamente todas as formas bilineares f sobre R3 com a pro­


priedade de que f (rt, /3) =f (/3, O'.) para todos rt, /3.

5. Descrever· as formas bilineares sobre R3 que satisfazem f (O'., /3) = -f (/3, rx) para
todos O'., {3.
6. Seja n um inteiro positivo e seja V o espaço das n x n matrizes sobre o corpo
dos números complexos. Mostrar que a equação

f(A, B) = n tr(AB) - tr(A) tr(B)

define uma forma bilinear f sobre _V É verdade que f(A, B) =f (B, A) para
todas A, B?

7. Seja f a forma bilinear do Exercício 6. Mostrar que f é degenerada if não


é não-degenerada). Seja V1 o subespaço de V formado pelas matrizes de traço O
e seja /1 a restrição de f a V1. Mostrar que f, é não-degenerada.

8. Seja f a forma bilinear definida no Exercício 6 e seja V2 o subespaço de V


formado por todas as matrizes A tais que traço (A)= O e A* = -A. (A* é a
transposta conjugada de A.) Indiquemos por f2 a restrição de f a V2. Mostrar
quef2 é negativa definida, isto é, quef,(A, A)<O para toda A não-nula em V2.

9. Seja f a forma bilinear definida no Exercício 6. Seja W o conjunto das ma­


trizes A em V tais que f(A, B) =O para toda B. Mostrar que W é um
subespaço de V Descrever W explicitamente e determinar sua dimensão.

10. Seja f uma forma bilinear sobre um espaço vetorial V de dimensão finita.
Seja W o subespaço formado pelos f3 tais que j(rt, /3) = O para todo rt.
Mostrar que
posto (f ) = dim V - dim W.

Usar este resultado e o resultado do Exercício 9 para calcular o posto da


forma bilinear definida no Exercício 6.

11. Seja f uma forma bilinear sobre um espaço vetorial .v de dimensão finita.
Suponhamos que V1 seja um subespaço de _V com a propriedade de que a
restrição de f a V1 seja não-degenerada. Mostrar que posto if) � dim _V,.

12. Sejam f e g formas bilineares sobre um espaço vetorial V de dimensão finita.


Suponhamos que g seja não-singular. Mostrar que existem operadores lineares
1;, 7� sobre vl únicos, tais que

para todos O'., {3.

13. Mostrar que o resultado do Exercício 12 não é necessariamente válido se g


é singular.
468 - ALGEBRA LINEAR

14. Seja f uma forma bilinear sobre um espaço vetorial V de dimensão finita.
Mostrar que f pode ser expresso como um produto de dois funcionais lineares
(isto é,f(rx /3) L1(rx) L2(/3) para LH L2 em V") se, e somente se,f tem posto 1.
=

10.2 Formas Bilineares Simétricas

O propósito principal desta seção é responder à seguinte per­


gunta: Se f é uma forma bilinear sobre o espaço vetorial V de di­
mensão finita, quando é que existe uma base ordenada � de V,
em relação à qual f é representada por uma matriz diagonal?
Vamos demonstrar que isto é possível se, e somente se, f é uma
forma bilinear simétrica, ou seja, f (a, /3) f(f3,a). O teorema será
=

demonstrado apenas para o caso do corpo de escalares ser um


corpo F de característica zero, isto é, que, se n é um inteiro posi­
tivo, a. soma 1 + ... + 1 (n vezes) em F não é O.

Definição. Seja f uma forma bilinear sobre o espaço vetorial V.


Dizemos que f é simétrica se f (a , [3) f(/3, a) para todos os vetores
=

a, f3 em V.
Se V é de dimensão finita, a forma bilinear f é simétrica se,
e somente se, sua matriz A em relação a alguma ou (toda) base
ordenada é simétrica, isto é, A' = A. Para ver isto, perguntamos
quando é que a forma bilinear

f(X Y)
, = X'AY

é simétrica. Isto acontece se, e somente se, X' AY Y1AX para =

todas matrizes-colunas X e Y. Como X' AY é uma 1 x 1 matriz,


temos X'AY = Y1A1X. Assim, f é simétrica se, e somente se,
Y1A1X = Y1AX para todas X, Y. Evidentemente, isto significa
apenas que A A1• Em particular, deve-se notar que se existir
=

uma base ordenada de V em relação à qual f seja representada por


uma matriz diagonal, então f é simétrica, pois qualquer matriz
diagonal é uma matriz simétrica.
Se f é uma forma bilinear simétrica, a forma quadrática asso­
ciada a f é a função q de V em F definida por
q (a) = f(a, a) .

Se F é um subcorpo do corpo dos números complexos, a forma


bilinear simétrica f é completamente determinada por sua forma
quadrática associada, de acordo com a identidade de polarização.
FORMAS BILINEARES - 469

(10- 5 ) f(rx, {3) = ±q(rx + {3) - ±q(rx - {3).


A demonstração de (10-5) requer apenas cálculos de rotina, que
omitiremos. Se f é a forma bilinear do Exemplo 5, ou seja, o pro­
duto escalar, então a forma quadrática associada é

q (x 1 , . • • , x.) =xi+ . . . + x�.


Em outras palavras, q(rx) é o quadrado do comprimento de rx. Para
a forma bilinear fA(X, Y) X'AY, a forma quadrática associada é
=

qA(X) = X1 AX = L Aijxixj"
i,j
Uma classe importante de formas bilineares simétricas consiste
dos produtos internos sobre espaços vetoriais reais, discutidos no
Capítulo 8. Se V é um espaço vetorial real, um produto interno
sobre V é uma forma bilinear simétrica f sobre V que satisfaz

(10-6) f(rx, rx) > O se rx #O.

Uma forma bilinear que satisfaz (10-6) é dita positiva definida.


Assim, um produto interno sobre um espaço vetorial real é uma
forma bilinear simétrica positiva definida sobre aquele espaço. No­
temos que um produto interno é não-degenerado. Dois vetores
IX, f3 são ditos ortogonais em relação ao produto interno f se
f(IX, {3) =O. A forma quadrática q(IX) =f(IX, IX) toma apenas valores
não-negativos e q(IX) é usualmente considerado como sendo o qua­
drado do comprimento de rx. Evidentemente, estes conceitos de
comprimento e ortogonalidade se originam do exemplo mais impor­
tante de produto interno - o produto escalar do Exemplo 5.
Se f é uma forma bilinear simétrica sobre um espaço vetorial V,
é conveniente aplicar um pouco da terminologia de produtos inter­
nos a f. É particularmente conveniente dizer que IX e f3 são orto­
gonais em relação a f sef(IX, {3) =O. Não é aconselhável considerar
f(IX, rx) como sendo o quadrado do comprimento de rx; por exem­
plo, se V é um espaço vetorial complexo, podemos ter f(rx, IX)=
= .J=l, ou num espaço vetorial real f(rx, rx) = -2.
Passamos, agora, ao teorema fundamental desta seção. Ao ler
a demonstração, o leitor deverá achar útil pensar no caso particular
em que V é um espaço vetorial real ef é um produto interno sobre V.
470 - ALGEBRA LINEAR

Teorema 3. Seja V um espaço vetorial de dimensão finita sobre


um corpo de característica zero e seja f uma forma bilinear simétrica
sobre V. Então existe uma base ordenada de V em relação à qual
f é representada por uma matriz diagonal.
Demonstração. O que precisamos encontrar é uma base orde­
nada

tal que f(a;. a)= O para i =F j. Se f =O ou n = 1, o teorema é


obviamente verdadeiro. Assim, podemos supor f =F O e n> 1. Se
f(a,a)= O para todo a em V, a forma quadrática associada q é
identicamente O e a identidade de polarização (10-5) mostra que
f =O. Assim, existe um vetor a em V
f(a,a)= q(a) =F O.
tal que
Seja W o subespaço unidimensional de V que é gerado por a e
seja W_J_ o conjunto dos vetores f3 em V tais que f(a, /3) = O . Afir­
mamos, agora, que V= WEB W 1. Certamente os subespaços W e
W_J_ são independentes. Um vetor típico em W é ca, onde c é um
escalar. Se ca está, também, em W\ então f(cac , a) =c2f(aa
, ) = O.
Mas, f(a, a) =F O , logo, c = O . Além disso, todo vetor em V é a soma
de um vetor em W e um vetor em W .L. De fato, seja y um vetor
arbitrário em V ê coloquemos

f( ,a)
f3=y- y a
f(a,a) ·

Entiio
f(y, a)
f(a, /3) =f(a,y) -
f(a,a /
(a, a)

e, como f é simétrica, f(a, /3) = O . Portanto, f3 está no subespaço


W 1. A expressão

1' f( ,a)
= y a+ f3
f(a, a)

nos mostra que V= W+ �.

A restrição de f a W_J_ é uma forma bilinear simétrica sobre


W 1. Como W_J_ tem dimensão (n - 1), podemos supor, por indu­
ção, que w_J_ possua uma base {a2' ..., an} tal que

f (a;, a) = O , i =F j (i � 2, .i � 2).
FORMAS BILINEARES - 471

Colocando a1 =a, obtemos uma base {a1, ... , an} de V tal que
f(a;, a)=O para i #- j.

Corolário. Seja F um subcorpo do corpo dos números complexos


e seja A uma n x n matriz simétrica sobre F. Então existe um n x n
matriz inversível P sobre F tal que ptAP seja diagonal.

No caso de F ser o corpo dos números reais, a matriz inver­


sível P neste corolário pode ser escolhida de modo a ser uma matriz
ortogonal, isto é, pt =p-1• Em outras palavras, se A é uma n x n
matriz simétrica real, existe uma matriz ortogonal real P tal que
P'AP seja diagonal; contudo, isto não é nada evidente a partir do
que fizemos acima (ver Capítulo 8).

Teorema 4. Seja V um espaço vetorial de dimensão finita sobre


o corpo dos números complexos. Seja f uma forma bilinear simétrica
sobre V que tenha posto r. Então existe uma base ordenada
86 = {/31, ... , /3..} de V tal que
(i) a matriz de f em relação à base ordenada 86 é diagonal;

(ii) f(f3., f3.)


{1, � = 1, . . 'r
.

. . J J
=

O, J > r.
Demonstração. Pelo Teorema 3, existe uma base ordenada
{ap ... , a"} de V tal que

Como f tem posto r, sua matriz em relação à base ordenada


{al' ... , aJ também o tem. Assim, precisamos ter f(ai' a)#- O
para exatamente r valores de j. Reordenando os vetores ai, pode­
mos admitir que

f(ai, a) #- O, j = 1, ... , r.

Usemos, agora, o fato de que o corpo de escalares é o corpo dos


números complexos. Se .jf (ai, a) indica uma raiz quadrada com­
plexa qualquer de f(ai, a) e se colocarmos
f3. =
{ 1 a., j = 1, ..., r
1 .jf(ai, a) 1

ªi' j > r
a base {/31, ..., /3"} satisfará as condições (i) e (ii).
472 - ALGEBRA LINEAR

Evidentemente, o Teorema 4 é válido se o corpo de escalares


é um subcorpo qualquer do corpo dos números complexos, no
qual todo elemento possua uma raiz quadrada. Não é válido, por
exemplo, quando o corpo de escalares é o corpo dos números reais.
Sobre o corpo dos números reais, temos o seguinte substituto para
o Teorema 4.

Teorema 5. Seja V um espaço vetorial n-dimensional sobre o


corpo dos números reais e seja f uma forma bilinear simétrica sobre
V que tenha posto r. Então existe uma base ordenada {/31' . . . , /3,. }
de V em relação à qual a matriz de f é diagonal e tal que

f(/3 , /3) = ± 1, j = 1, ... , r.


j

Além disso, o número de vetores f3.J da base para os quais f( f3.,


. J
f3.)
J
= l
é independente da escolha da base.

Demonstração. Existe uma base {IX.1' . . . , IX.,.} de V tal que

f(IX.;, IX.) =O, i


#j.
f (1Xp IX.i) # O, 1
sj sr
f(IX.j' IX.)= o, j > r.
Seja

1
/3j = lf(IX.j, 1X.)1- 121X.j,
/3
i
= IX.i' j >r

Então { /31, , /3,.} é uma base que tem as propriedades enunciadas.


. . •

Sejap o número de vetores /3i da base para os quais f (/3p /3) = 1:


precisamos mostrar que o número p é independente da particular
base que tomemos satisfazendo as condições acima. Seja v+ o
subespaço de V gerado pelos vetores f3i da base para os quais
((f3J, /3) = 1, e seja v-· o subespaço gerado pelos vetores f3J da base
; = - l. Ora, p = dim v+, logo o, que precisa-
tais que f (/3; , /3)
mos demonstrar é a unicidade da dimensão de v+. E fácil ver que
se IX. é um vetor não-nulo em v+, então f(IX., IX.) > O; em outras pa­
lavras, f é positiva definida sobre o subespaço v+. Analogamente,
se IX. é um vetor não-nulo em· v-, então f(tX, IX.)< O, isto é, fé ne­
1
gativa definida sobre o subespaço v-. Seia, agora, V o subespaço
gerado pelos vetores f3i da base para os quais f(/]i, /3) =O. Se IX.
está em V 1., então f(IX., /3) = O para todo f3 em V.
FORMAS BILINEARES - 473

Como {/31, • • . , Pn} é uma base de V, temos

Além disso, afirmamos que se W é um subespaço arbitrário de V


sobre o qual f seja positiva definida, então os subespaços W, v­
e V.L são independentes. De fato, suponhamos que ex esteja em W,
f3 em v-, y em V .L e que ex+ f3 + y O Então = .

O = f(ex, ex + /3 + y) = f(ex, ex) + f(ex, /3) + f(ex, y)


O = J(/3, + /3 + y) = f (/3, a) + f (/3, /3) + I(fJ, y).
ex

Como y está em V.L, f(a, y) = f(/3, y) = O ; como f é simétrica,


obtemos
O = f( ex, ex) + f(ex, /3)
O =
f (/3, /3) + f(ex, /3)

logo f(ex, ex)= f (/3, /3). Como f (ex, ex)� O e f (/3, /3)::;;; O, segue que

f(ex, ex)= f (/3, /3) = O.

Mas f é positiva definida sobre W e negativa definida sobre v-.


Concluímos que a= jJ O e portanto que y =O também.
=
,

Como

V= v+ EB v- EB V'-
e W, v-, VJ_ são independente�, vemos que dim W::;;; dim v+.
Isto é, se W é um subespaço arbitrário de V sobre o qual f é posi­
tiva definida, a dimensão de W não pode exceder a dimensão de
V+. Se 86 1 é uma outra base ordenada de V que satisfaz as con­
dições do teorema, teremos subespaços correspondentes v7, V� e
Vf; o argumento acima mostra que dim v7::;;; dim v+. Invertendo
o argumento, obtemos dim v+ ::;;; dim v7 e, conseqüentemente,

dim v+ = dim v:.


Existem diversos comentários que devem ser feitos acerca da
base {/31' .. , /3n} do Teorema 5 e dos subespaços associados
.

V+, v- e V.L. Primeiro, notemos que V.L é exatamente o suhes-


474 - ALGEBRA LINEAR

paço dos vetores que são "ortogonais" a todo espaço V. Obser­


vamos acima que V"- está contido neste subespaço; mas,

dim V"- = dim V - (dim v+ + dim v-) = dim V - posto (f)

portanto, todo vetor a tal que f (a, {3) = O para todo fJ deve estar
em V.L. Assim, o subespaço V"- é único. Os subespaços v+ e v­
não são únicos; contudo, suas dimensões são únicas. A demons­
tração do Teorema 5 nos mostra que dim v+ é a máxima dimen­
são possível para qualquer subespaço sobre o qual f seja positiva
definida. Analogamente, dim v- é a máxima dimensão de qualquer
subespaço sobre o qual f seja negativa definida. É claro que

dim v+ + dim v- = posto (f).


O número
dim v+ - dim v-
freqüentemente é denominado a assinatura de f. Ela é introduzida
porque as dimensões de v+ e v- são facilmente determinadas a
partir do posto de f e da assinatura de f.
Talvez devamos fazer um comentário final a respeito da relação
entre formas bilineares simétricas sobre espaços vetoriais reais e
produtos internos. Suponhamos que V seja um espaço vetorial real
de dimensão finita e que Vl' V2, V3 sejam subespaços de V tais que

Suponhamos que f 1 seja um produto interno sobre V1 e f2


seja um produto interno sobre V2. Podemos, então, definir uma
forma bilinear simétrica f sobre V como segue: Se a, fJ são vetores
em V, então podemos escrever

O subespaço V.L para f será V3, V1 é um v+ conveniente para f e


V2 é um v- conveniente. Uma parte do enunciad0 do Teorema 5
FORMAS BILINEARES 475

é que toda forma bilinear simétrica sobre V surge desta maneira. O


conteúdo adicional do teorema é que um produto interno é repre­
sentado em relação a alguma base ordenada pela matriz u nidade.

Exercícios
1. As seguintes expressões definem formas quadráticas q sobre R1. Determinar
a forma bilinear simétrica f correspondente a cada q,
(a) axi.
(b) bx1x2.
(e) exª.
(d) 2xi - �X 1X2.
le) xi+9x;.
( f) 3x,x2 - x�.
(g) 4xi + 6x1x2 - 3x;.

2. Determinar a matriz, em relação á base ordenada canônica, e o posto de cada


'
uma das formas bilineares do Exercício l. Indicar quais formas são não­
degeneradas.

3. Seja q (x 1, x2) = axi +bx 1 x2 +ex; a forma quadrática associada a uma forma
bilinear simétrica f sobre R2. Mostrar que f é não-degenerada se, e somente
2
se, b - 4ac # O.

4. Seja V um espaço vetorial de dimensão finita sobre um subcorpo F do corpo


dos números complexos e seja S o conjunto das formas bilineares simétricas
sobre V.
(a) Mostrar que S é um subespaço de L(V, V, F).
(b) Determinar dim S.
Seja Q o conjunto de todas as formas quadráticas sobre V
(c) Mostrar que Q é um subespaço do espaço de todas as funções de V em F.
(d) Descrever explicitamente um isomorfismo T de Q em S, sem referência a
qualquer base.
(e) Seja U um operador linear sobre V e q um elemento de Q. Mostrar
que a equação (U+ q) (a)= q(Ua) define uma forma quadrática u+ q sobre V.
(f) Se U é um operador linear sob1.' e v; mostrar que a função u+ definida
na parte (e) é um operador linear sobre Q. Mostrar que u+ é inversível se, e
somente se, U é inversível.
5. Seja q a forma quadrática sobre R2 dada por

Determinar um operador linear inversível U sobre R2 tal que

(U + q) (X1' X2 )
b2
2+ C-a
= QX 1
( ) .2
X,-
r75 - ALGEBRA LINEAR

(Sugestão: Para determinar u-1 (e portanto U), completar o quadrado. Para


a definição de u+, ver a parte (e) do Exercício 4.)

6. Seja q a forma quadrática sobre R2 dada por

q(xl' x2) = 2bx1x2•

Determinar um operador linear inversível U sobre R2 tal que

7. Seja q a forma quadrática sobre R3 dada por

Determinar um operador linear inversível U sobre R3 tal que

(Sugestão:Exprimir U como um produto de operadores semelhantes àqueles


usados nos Exercícios 5 e 6.)

8. Seja A uma n x n matriz simétrica sobre R e seja q a forma quadrática sobre


Rn dada por

q(Xp ... , xn ) = L Aijxixj"


i, j

Generalizar o método usado no Exercício 7 para mostrar que existe um ope­


rador linear inversível U sobre Rn tal. que
n
(U+q)(xp ...,xn) = L c,x?
i=1

onde e, é 1, -1 ou O, i = 1, . . . , n.

9. Seja f uma forma bilinear simétrica sobre Rn. Usar o resultado do Exercício 8
para demonstrar a existência de uma base ordenada fJB tal que [f ]aJ seja
diagonal.

O. Seja V o espaço vetorial real das 2 x 2 matrizes hermitianas (complexas),


isto é, 2 x 2 matrizes complexas A que satisfazem Aij = Aj;·
(a) Mostrar que a equação q(A) = det A define uma forma quadrática q
sobre V.
(b) Seja W o subespaço de V formado pelas matrizes de traço O. Mostrar
que a forma bilinear f determinada por q é negativa definida sobre o subes­
paço W.

11. Seja V um espaço vetorial de dimensão finita e f uma forma bilinear simé­
trica não-degenerada sobre V. Mostrar que para cada operador linear T
FORMAS BILINEARES - 477

sobre .v existe um único operador T' sobre V tal que f(Ta, Pl = f(a., T' PJ para
todos a, p em V Mostrar também que

(T1T2)' = T� T'1
(c1T1 + c2 T2)' = c1T'1 + c2T2
(T')' = T.

Quanto disto acima continua válido sem a hipótese de que f é não-degenerada?

12. Seja F um corpo e V o espaço das n x l matrizes sobre F. Suponhamos


que A sejà uma n x n matriz fixa sobre F e f seja a forma bilinear sobre V defi­
nida por f(X, Y) = X'AY. Suponhamos que f seja simétrica e não·degenerada.
Seja B uma n x n matriz sobre F e T o operador linear sobre V que leva X
em BX. Determinar o operador T' do Exercício l l.

13. Seja V um espaço vetorial de dimensão finita e f uma forma bilinear simé­
trica não degenerada sobre V. Associado a f existe um isomorfismo "natural" .
de V no espaço dual V", sendo este isomorfismo a transformação L1 da
Seção LQ.1. Usando L1, mostrar que para cada base !JIJ=(a1 ,a..} de V . • •

existe uma única base !JIJ' = {rx.'1' ... ,a.:} de V tal que f(a,, rx.j) = ô,r Mostrar
então que para todo vetor a. em V temos

14. Sejam V, f, rJIJ e !JIJ' como no Exercício 13. Suponhamos que T seja um ope­
rador linear sobre V e que 7" seja o operador que f associa a r; como no
Exercício 11. Mostrar que
(a) [T']!JIJ'= [T]' rJIJ
(b) traço (T) = traço (T') � IJ(T a,, 11.J

15. Sejam .V, f, rJIJ e !JIJ' como no Exercício 13. Suponhamos que [f]!JIJ0= A.
Mostrar que

16. Seja F um corpo e V o espaço das n x 1 matrizes sobre F. Suponhamos


que A seja uma n x n matriz simétrica inversível sobre F e que f seja a forma
bilinear sobre .V definida por f (X, Y) = X'AY. Seja P uma n x n matriz
inversível sobre F e rJIJ a base de .v formada pelas colunas de P. Mostrar que
a base !JIJ' do Exercício 13 consiste das colunas da matriz A 1(P')- 1•
-

17. Seja V um espaço vetorial de dimensão finita sobre um corpo F e f uma


form� bilinear simétrica sobre V. Para cada subespaço W de V, seja Wl o
conjunto dos vetores a em V tais que f(rx., p) =O para todo p em W. Mostrar que
.i.
(a) W é um espaço.
(b) V={Ot.
(c) V.i. ={O} se, e somente se, f é não-degenerada.
478 - ALGEBRA LINEAR

(tl) posto (( ) = tlim V - tlim v"--


-'-
(e) se tlim V=n e tlim W=m, então w ;;::n-m.

(Suge�uio: Seja {/11 • • • • • fl.} uma hase de W e consideremos a aplicação

de _V em Fm.)
t f) a restrição de f a W é não-degenerada se, e somente se,

W n W.. = { O} .

-'-
(g) V _ = Wffi w se, e somente se, a restrição de f a W é não-degenerada.

18. Seja V um espaço vetorial de dimensão finita sobre C e f uma forma bilinear
simétrica não-degenerada sobre _V. Demonstrar que existe uma base rJIJ de V
tal que rJIJ' = !!i. (Ver o Exercício 13 para uma definição de rJIJ'.)

10.3 Formas Bilineares Anti-Simétricas

Em toda esta seção V será um espaço vetorial sobre um sub­


corpo F do corpo dos números complexos. Uma forma bilinear I
sobre V é dita anti-simétrica se f(a, /3 ) = - f (/3 a)
, para todos os
vetores a, f3 em V. Demonstraremos um teorema concernente à
simplificação da matriz de uma forma bilinear anti-simétrica sobre
um espaço V de dimensão finita. Primeiro faremos algumas obser­
vações gerais.
Suponhamos que f seja uma forma bilinear arbitrária sobre V.
Se fizermos

g(a, /3) = t[f(a, /3) + f(/3, a)]


h(a, /3) = Hf (a, /3) - f(/3, a)]
então é fácil verificar que g é uma forma bilinear simétrica sobre V
e h é uma forma bilinear anti-simétrica sobre V. Além disso
f = g+ h. Ainda mais, esta expressão de f como a soma de uma
forma bilinear simétrica e uma anti-simétrica é única. Assim, o
espaço L(V, V, F) é a soma direta do subespaço das formas simé­
tricas e o subespaço das formas anti-simétricas.

Se V é de dimensão finita, a forma bilinear fé anti-simétrica se,


e somente se, sua matriz A em relação a alguma (ou toda) base
ordenada é anti-simétrica, At = -A. Isto é demonstrado da mesma
maneira como se demonstra o fato correspondente sobre formas
FORMAS BILINEARES - 479

bilineares simétricas. Quando f é anti-simétrica, a matriz de f em


relação a qualquer base ordenada terá todos os seus elementos
diagonais nulos. Isto corresponde exatamente à observação de que
f(e<, o:)= O para todo a em V, uma vez que f(a, a)= -f(a , a).
Suponhamos que f seja uma forma bilinear anti-simétrica não­
nula sobre V. Como f =!=O, existem vetores a, f3 em V tais que
f ('Y., /J) :;to O. Multiplicando a por um escalar conveniente, podemos
supor que f(a, /3)= 1. Seja y um vetor arbitrário no subespaço
gerado por a e /3, digamos, y = ca + df3. Então

f(y, a)= f(ca + d/3, a)=df( /3, a) = -d


f(y, /3)= f(ca + d/3, /3) = cf(a , /3) =e
e, então,

(10-7) 'Y =f(y, f3)a - f(y, a)/3.

Em particular, notemos que a e f3 são, necessariamente, linearmente


independentes; de fato, se y =O, então f(y, a)=f (y, /3) =O.
Seja W o subespaço bidimensional gerado por a e /3. Seja W ...

o conjunto dos vetores ô em V tais que f (ô, a)= f (o, /3) =O, isto é, o
conjunto dos ô tais que f (ô, y) para todo y no subespaço W. Afir­
mamos que V= W Ef> W De fato, seja Bum vetor arbitrário em V e
... .

= f(B, f3)a - f(B, a)/3


'Y
O= B - ')!.

Então y está em W e o está em W.L, pois

f(ô, a)= f(B - f(B, f3)a + f(B, ix)/3, a)


= f(B, a) + f(B, r:t.) f( /3, r:t.)

e, analogamente, f (o, /3)=O. Assim, todo B em V é da forma


e = y + o, com y em W e ô em w-. De (10-7) é evidente que
W n W.L ={O}, portanto, V= W © W.L.

Ora, a restrição de f a W.L é uma forma bilinear anti-simétrica


sobre W.L. Esta restrição pode ser a forma nula. Se não o for,
L
existirão dois vetores ix' e /3' em W. tais que f(a1, /3') = 1. Se indi­
carmos 'por W' o subespaço bidimensional gerado por a' e /3',
teremos
480 - ALGEBRA LINEAR

V=WEBW'EBW0

onde W0 é o conjunto dos vetores ô em W_J_ tais que f(a', ô) =

= f ({3', ô)=O. Se a restrição de f a W0 não é a forma nula, pode­


mos selecionar vetores a", {3" em W0 tais que !(a", {3") 1, e então =

continuar.
No caso de dimensão finita, deveria estar evidente que obte­
mos uma seqüência finita de pares de vetores.

com as seguintes propriedades.


(a) f(ap {3) = 1, j =1, ... , k.
(b) f(a;, ai ) =f(f3;, f3) f(a;, f3) =O, i #-j.
=

(e) Se Wi é o subespaço bidimensional gerado por ai e f3p então

onde todo vetor em W0 é 'ortogonal' a todos ai e f3p e a restrição


de f a W0 é a forma nula.

Teorema 6. Seja V um espaço vetorial n-dimensional sobre um


subcorpo do corpo dos números complexos e seja fuma forma bilinear
anti-simétrica sobre V. Então o posto r de f é par e se r = 2k, existe
uma base ordenada de V em relação à qual a matriz de f é a soma
direta da (n - r) x (n - r) matriz nula e k cópias da 2 x 2 matriz

[-� �l
Demonstração. Sejam al' {31, ... , ak, {3k vetores que satisfaçam
as condições (a), (b) e (c) acima. Seja {yl' ... , y.} uma base orde­
nada arbitrária do subespaço Wo- Então

é uma base ordenada de V. De (a), (b) e (e) é evidente que a matriz


de f em relação à base ordenada � é a soma direta da (n - 2k) x

x (n - 2k) matriz nula e k cópias da 2 x 2 matriz


FORMAS BILINEARES - 481

(10-8)
[_� �J
1:
Além disso, é evidente que o posto desta matriz, e, portanto, o
posto de f, é 2k.
Uma conseqüência disto acima é que se fé uma forma bilinear
anti-simétrica não-degenerada sobre V, então a dimensão de V deve
ser par. Se dim V= 2k, existe uma base ordenada {0:1' /31, ... , o:k, /3J
de V tal que

{O, i #- j
f(o:
;, /3)
=
1, i = j
f(o:i' o:) =
f(/3;, /3) = O.

A matriz de f em relação a esta base ordenada é a soma direta de


k cópias da 2 x 2 matriz anti-simétrica (10-8). Obtém-se uma outra
forma canôn)ca para a matriz de uma forma anti-simétrica não­
degenerada se, ao invés da base ordenada acima, considera-se a
base ordenada

O leitor deverá achar fácil verificar que a matriz de f em relação


à última base ordenada é da forma em blocos

onde J é a k x k matriz

o o 1
o 1 o

1 o o
482 - ALGEBRA LINEAR

Exercícios

1. Seja V um espaço vetorial sobre um corpo F. Mostrar que o conjunto das


formas bilineares anti-simétricas sobre V é um subespaço de L(V, _V, F).
2. Determinar todas as formas bilineares anti-simétricas sobre R3.

3. Determinar uma base do espaço das formas bilineares anti simétricas sobre R".

4. Seja f uma forma bilinear simétrica sobre C" e g uma forma bilinear anti­
simétrica sobre C". Suponhamos que f + g =O. Mostrar que f=g =O.

5. Seja V um espaço vetorial 11-dimensional sobre um subcorpo F de C. Demons­


trar o seguinte:

(a) A equação (PJ) (o:, {3) = !f(o:, {3) - !f({J, o:) define um operador linear P
sobre L( V, V, F).

(b) P1 =P, isto é, P é uma projeção.

n(n - 1) . n(n + 1)
(c) posto (PJ= --2-; nulidade (P) = - --2 ·

(d) Se Ué um operador linear sobre V, a equação (U+f) (ex, {J)=f(Uo:, U{J)


define um operador u+ sobre L(_V, V, F).
(e) Para todo operador linear U, a projeção P comuta com u+.

6. Demonstrar um análogo do Exercício 11 na Seção 10.2 para formas bilineares


anti-simétricas não-degeneradas.

7. Seja f uma forma bilinear sobre um espaço vetorial _V . Sejam L1 e R1 as


aplicações de _V em _V* associadas a f na Seção 10.1. Demonstrar que f é
. anti-simétrica se, e somente se, L 1 = - Rr

8. Demonstrar um análogo do Exercício 17 na Seção l0.2 para formas anti­


simétricas.

9. Seja V um espaço vetorial de dimensão finita e L 1' L2 funcionais lineares


sobre V. Mostrar que a equação

define uma forma bilinear anti-simétrica sobre V Mostrar que f =O se, e


somente se, L1 e L2 são linearmente dependentes.

10. Seja _V um espaço vetorial de dimensão finita sobre um subcorpo do corpo


dos números complexos ef uma forma bilinear anti-simétrica sobre V Mostrar
2
que j tem r ost o se. e somente se. existem funcionais lineares linearmente
independentes LP L2, sobre _V tais que
FORMAS BILINEARES - 483

11. Seja f uma forma bilinear anti-simétrica arbitrária sobre R3. Demonstrar que
existem funcionais lineares L1, L2 tais que

f(rx, p) = L1(rx) L2(p) - L1{p) L2(rx).

12. Seja V um espaço vetorial de dimensão finita sobre um subcorpo do corpo


dos números complexos e sejam f, g formas bilineares anti-simétricas sobre V.
Mostrar que existe um operador linear inversível T sobre .v tal quef(71l, Tf3) =

= g(ci:, /3) para todos rx, f3 se, e somente se, f e g têm o mesmo posto.

13. Mostrar que o resultado do Exercício 12 é válido para formas bilineares


simétricas sobre um espaço vetorial complexo, mas não é válido para formas
bilineares simétricas sobre um espaço vetorial real.

10.4 Grupos que Conservam Formas Bilineares


Seja f uma forma bilinear sobre o espaço vetorial V e seja T
um operador linear sobre V. Dizemos que T conserva f se
f(Ta, T/3) = f (a , /3) para todos
a, f3 em V. Para quaisquer T e f,
a função g definida por
g(a, /3) = f (Ta, T/3), como se vê facilmente,
é uma forma bilinear sobre V. Dizer que T conserva fé simples­
mente dizer que g = f. O operador idêntico conserva toda forma
bilinear. Se S e T são operadores lineares que conservam f, o pro­
duto ST também conserva f; de fato, f(STa, ST/3) =f(Ta, T/3) =
=_!(a, /3).
Em outras palavras, a coleção de operadores lineares que
conservam uma dada forma bilinear é fechada em relação à for­
mação de produtos (de operadores). Em geral, não se pode dizer
muito mais acerca desta coleção de operadores; no entanto, se f é
não-degenerada, temos o que segue.

Teorema 7. Seja f uma forma bilinear· não-degenerada sobre um


espaço vetorial V de dimensão finita. O conjunto dos operadores
lineares sobre V que conservam f é um grupo em relação à operação
de composição.
Demonstração. Seja G o conjunto dos operadores lineares que
consérvam f. Observamos que o operador idêntico está em G e
que, sempre que S e T estão em G, o composto ST também está
em G. A partir do fato de que f é não-degenerada, demonstrareIJlOS
que todo operador T em G é inversível e que y-1 também está
em G. Suponhamos que T conserve f. Seja a um vetor no núcleo
de T. Então, para todo f3 em V, temos

f(a, /3) = f(Ta, Tf3) = f(O, T/3) =O.


484 - ALGEBRA LINEAR

Como fé não-degenerada, IX = O. Assim, T é inversível. Evidente­


mente r-1 também conserva f, pois

Se f é uma forma bilinear não-degenerada sobre o espaço V


de dimensão finita, então cada base ordenada � de V determina um
grupo de matrizes que "conservam" f. O conjunto de todas as
matrizes [T]"'" onde T é um operador linear que conserva f, será
um grupo eni relação à multiplicação de matrizes. Existe uma
descrição alternativa deste grupo de matrizes, como segue. Seja
A= [f]t.1, ºde modo que se IX e f3 são vetores em V com respectivas
matrizes de coordenadas X e Y em relação a �, teremos

Seja Tum operador linear arbitrário sobre V e M = [T]i11· Então

f(Ta, T/3) = (MX)IA(MY)


= X1(MtAM) Y.
Conseqüentemente, T conserva f se, e somente se, MtAM = A. Em
linguagem matricial, o Teorema 7 diz o seguinte: Se A é uma
n x n matriz inversível, o conjunto das n x n matrizes M tais que
M1AM=A é um grupo em relação à multiplicação matricial. Se
A = [f }'lt, então M está neste grupo de matrizes se, e somente se,
M= [T]i11 onde T é um operador linear que conserva f.
Antes de passarmos a alguns exemplos, façamos mais uma
observação. Suponhamos que f seja uma forma bilinear que seja
simétrica. Um operador linear T conserva f se, e somente se, T
conserva a forma quadrática

q(IX) =f(a., a)

associada a f. Se T conserva f, certamente temos

q(Ta.) =f(Ta, Ta.)=f(a., a) = q(a.)

para todo a. em V. Reciprocamente, como f é simétrica, a identi­


dade de polarização

f(a., /3) = iq(a. + /3) - iq(a. - /3)


FORMAS BILINEARES - 485

nos mostra que T conserva f se q(Ty) q(y) para cada y em V.=

(Estamos supondo aqui que o corpo de escalares seja um subcorpo


do corpo dos números complexos.)

Exemplo 6. Seja V o espaço R" ou o espaço C". Seja f a forma


bilinear
n

f (rx, p) =
L xiyi
j=l

onde a=(x1, , x") e /3 (yl' .. . , Yn). O grupo que conserva f é


• • • =

denominado o grupo ortogonal (real ou complexo) n-dimensional.


O nome 'grupo ortogonal' é mais comumente aplicado ao grupo
associado de matrizes em relação à base ordenada canônica. Como
a matriz de f em relação à base canônica é /, este grupo consiste
das matrizes M que satisfazem M1M l. Uma tal matriz M é dita
=

uma n x n matriz orto�onal (real ou complexa). Os dois n x n


grupos ortogonais são usualmente indicados por O(n, R) e O(n, C).
Evidentemente, o grupo ortogonal é também o grupo que conserva
a forma quadrática

q(xl' ..., x") =xi+ ... + x;.

Exemplo 7. Seja f a forma bilinear simétrica sobre R" com


forma quadrática
p n

q(xl' ... , xn) = L xJ -


L xJ.
j=l j=p+l

Então f é não-degenerada e tem assinatura 2p - n. O grupo das


matrizes que conservam uma forma deste tipo é denominado um
grupo pseudo-ortogonal. Quando p n, obtemos o grupo orto­
=

gonal O(n, R) como um tipo particular de grupo pseudo-ortogonal.


Para cada um dos n+ 1 valores p =O, 1, 2, ., n, obtemos uma . .

forma bilinear diferente f; contudo, para p =k e p =n k as formas -

são uma a oposta da outra e têm, portanto, o mesmo grupo asso­


ciado. Assim, quando n é ímpar, temos (n+ 1)/2 grupos pseudo­
ortogonais de n x n matrizes e quando n é par, temos (n+ 2)/2
desses grupos.

Teorema 8. Seja V um espaço vetorial n-dimensional sobre o


corpo dos números complexos e seja f uma forma bilinear simétrica
486 - ALGEBRA LINEAR

não-degenerada sobre V. Então o grupo que conserva f é isomorfo


ao grupo ortogonal complexo O(n, C).
Demonstração. Obviamente, por um isomorfismo entre grupos,
queremos dizer uma correspondência bijetora entre seus elementos
que 'conserva' a operação de grupo. Seja G o grupo dos operadores
lineares sobre· V que conservam a forma bilinear f . Como f é simé­
trica e não-degenerada, o Teorema 4 nos diz que existe uma base
ordenada f!J de V em relação à qual f é representada pela n x n
matriz unidade. Portanto, um operador linear T conserva f se, e
somente se, sua matriz em relação à base ordenada f!J é uma matriz
ortogonal complexa. Logo,

T � [T]IM
é um isomorfismo de G em O (n, C).
Teorema 9. Seja V um espaço vetorial n-dimensional sobre o
corpo dos números reais e seja f uma forma bilinear simétrica não­
degenerada sobre V. Então , o grupo que conserva f é isomorfo a um
n x n grupo pseudo-ortogonal.
Demonstração. Repetir a demonstração do Teorema 8, usando
o Teorema 5 em vez do Teorema 4.

Exemplo 8. Seja f a forma bilinear simétrica sobre R4 com


forma quadrática

q (x, y, z, t) = t2 - x2 - y2 - z2•

Um operador linear T sobre R4 que conserva esta forma bilinear


(ou quadrática)· particular é denominado uma transformação de
Lorentz e o grupo que conserva f é dito o grupo de Lorentz. Gosta­
ríamos de dar um método para-a descrição de algumas transfor-
·

mações de Lorentz.
Seja H o espaço vetorial real das 2 x 2 matrizes complexas A
que sejam hermitianas, A= A*. É fácil verificar que

<D(x, y, z, t) =
[ t +X
- lZ
.
y + iz
t X
]
y -

define um isomorfismo <D de R4 no espaço H. Por meio deste iso­


morfismo,. a forma quadrática q é levada sobre a função determi­
nante, isto é,
FORMAS BILINEARES - 487

q(x; y, z, t) = det
[ t +X
.
y + iz ]
y -iz t-x
ou

q(llC) = det <l> (llC).

Isto sugere que podemos estudar as transform�ções de Lorentz


sobre R4 estudando operadores lineares sobre H que conservam
determinantes.
Seja M uma 2 x 2 matriz complexa arbitrária e, para uma
matriz hermitiana A, definamos

u M(A) = MAM*.

Ora, MAM* também é hermitiana. A partir disto, é fácil ver que


UM é um operador linear (real) sobre H. Perguntamos quando é
que U M 'conserva' determinantes, isto é, det [UM(A)] = det A para
cada A em H. Como o determinante de M* é o complexo conju­
gado do de(erminante de M, vemos que

det [UM(A)] = i det M i 2 det A.

Assim, UM conserva determinantes exatamente quando det M tem


valor absoluto 1.
Selecionemos, então, uma 2 x 2 matriz complexa arbitrária M
para a qual l det M I = 1. Então, UM é um operador linear sobre H
que conserva determinantes. Definamos

TM = <I>-1uM<1>. .

Como <l> é um isomorfismo, TM é um operador linear sobre R4.


Além disso, TM é uma transformação de Lorentz, pois

q(T MllC) = q(<l>-1UM<l>llC)


= det (<l><l>- l UM<l>llC)
= det (UM <l>llC)
= det (<l>a)
= q(a)

e, portanto, TM conserva a forma quadrática q.


Usando 2 x 2 matrizes particulares M, pode-se usar o método
�Cima para calcular transformações de Lorentz particulares. Dois
488 - ALGEBRA LINEAR

comentários devem ser feitos neste ponto; eles não são difíceis de
serem verificados.
(1) Se M 1 e M2 são 2
x 2 matrizes inversíveis com_ elementos

complexos, então UM,= UMz se, e somente se, M 2 é um múltiplo


escalar de M 1.Assim, todas as transformações de Lorentz acima
exibidas podem ser obtidas a partir de matrizes unimodulares M,
isto é, a partir de matrizes M que satisfazem det M = 1. Se M 1 e
M 2 são matrizes unimodulares tais que M 1 =f. M2 e M 1 =f. -
M 2,
então, TM 1 =f. TM,.
(2) Nem toda transformação de Lorentz pode ser obtida pelo
método acima.

Exercícios

1. Seja M um elemento do grupo ortogonal complexo, O(n, C). Mostrar que


M', M e M* = M' também pertencem a O(n, C).

2. Suponhamos que M pertença a O(n, C) e que M' seja semelhante a M. M'


também pertence a O(n, C)?

3. Seja
"
Y; = L M;•x•
k=l

onde M é um elemento de O(n, C). Mostrar que

LYI = Z:xJ-
i j

4. Seja M uma n x n matriz sobre C com colunas MP M 2, • . . , M,,. Mostrar que


M pertence a O(n, C) se, e somente se,

5. Seja X uma n x 1 matriz sobre C. Em que condições O(n, C) contém uma


matriz M cuja primeira coluna seja X?

6. Determinar uma matriz em 0(3, C) cuja primeira linha seja (2� 2i, 3).

7. Seja V o espaço das n x l matrizes sobre C e f a forma bilinear sobre V


dada por f(X, Y) X'Y. Seja M pertencente a O(n, C). Qual é a matriz de f
=

em relação à base de .V formada pelas colunas MP M,, ... , M" de M?

8. Seja X uma n x l matriz sobre C tal que X;X l e seja l; a j-ésima coluna
=

da matriz unidade. Mostrar que existe uma matriz M em O(n, C) tal que
MX = lr Se X tem elementos reais mostrar que existe uma M em O(n, R)
com a propriedade de que M X =Ir
FORMAS BILINEARES - 489

9. Seja V o espaço das n x 1 matrizes sobre C, A uma n x n matriz sobre C e f


a forma bilinear sobre .V dada por f(X, Y)=X'A Y. Mostrar que J é inva­
riante sob O(n, C), isto é, f(MX, MY)=f(X, Y) para todas X, Y em Y e
toda M em O(n, C), se, e somente se, A comuta com cada elemento de O(n, C).

10. Seja S um conjunto arbitrário de n x n matrizes sobre C e S' o conjunto das


n x n matrizes sobre C que comutam com todo elemento de S. Mostrar que
S' é uma álgebra sobre C.

11. Seja F um subcorpo de C, V um espaço vetorial de dimensão finita sobre F e f


uma forma bilinear não-singular sobre V. Se T é um operador linear sobre V ·

que conserva f, demonstrar que det T;,,, ± 1.

12. Seja F um subcorpo de C, .V o espaço das n x 1 matrizes sobre F, A uma


n x n matriz inversível sobre F e f a forma bilinear sobre .V dada por
f(X, Y) = X'A Y. Se M é uma n x n matriz sobre F, mostrar que M conserva
f se, e somente se, A-'M'A=M-1•

13. Seja g uma forma bilinear não-singular sobre um espaço vetoriàl .V de dimen­
são finita. Suponhamos que T seja um operador linear inversível sobre .V e
que f seja a forma bilinear sobre .V dada por f(a., PJ= g(cx, Tp). Se U é um
operador, linear sobre _V, determinar condições necessárias e suficientes para
que U conserve f.

14. Seja T um operador linear sobre C2 que conserva a forma quadrática x i - x� .


Mostrar que
(a) det(T) = ± 1.
(br Se M é a matriz de T em relação à base canônica, então M22= ± M"'
Mi,= ± M,,, Mi, - Mi2 = 1.

(c) Se detM= 1, então existe um número complexo não-nulo e tal que

M=
2
1
l .lj
c+.l c-

e--
e

1 1
c+-
.

e
.

c e

(d) Se det M = - 1, então existe um número complexo e tal que

2
15. Seja f a forma bilinear sobre C definida por
490 - ALGEBRA LINEAR

Mostrar que
(a) Se T é um operador linear sobre C2, então f(Ta, T/3)
·
= (det T)f(a, /I) para
· ·

todos a, fJ em C2.
(b) T conserva J se, e somente se, det T = + 1.

(c) O que é que (b) diz acerca do grupo das 2 x 2 matrizes M tais que
M'AM=A onde

16. Seja n um inteiro positivo, 1 a n x n matriz unidade sobre C e J a 2n x 2n


matriz dada por

J
=

[ JJ.
o
-/ o

Seja M a 2n X 2n matriz sobre e da forma

M = [� �]
onde À, B, C, D são n x n matrizes sobre C. Determinar condições necessárias
e suficientes sobre A, B, C, D para que M'JM J. =

17. Determinar todas as formas bilineares sobre o espaço das n x 1 matrizes sobre
R que sejam invariantes sob O(n, R).

18. Determinar todas as formas bilineares sobre o espaço das n x 1 matrizes sobre
C que sejam invariantes sob O(n, C).
APÊNDICE

Este Apêndice divide-se de maneira lógica em duas partes. A


primeira parte, compreendendo as três primeira seções, contém
certos conceitos fundamentais que ocorrem por todo o livro (na
verdade, por toda a matemática). É mais uma espécie de introdução
do livro que apêndice. A segunda parte é mais genuinamente um
apêndice ao texto.
A Seção 1 contém uma discussão sobre conjuntos, suas reuniões
e interseções. A Seção 2 discute o conceito de função e as idéias
afins de imagem, domínio, função inversa e a restrição de uma
função a um subconjunto do seu domínio. A Seção 3 trata das
relações de equivalência. O assunto destas três seções, especialmente
o das Seções 1 e 2, é apresentado de uma maneira bem concisa. É
tratado mais como um acordo sobre a terminologia que como uma
exposição detalhada. Num sentido lógico estrito, esta matéria
constitui uma parte dos pré-requisitos para a leitura do livro; con­
tudo, o leitor não deverá se desencorajar se não conseguir aprender
completamente o significado das idéias na sua primeira leitura.
Estas idéias são importantes, mas o leitor que não tiver muita fami­
liaridade com elas deverá achar mais fácil absorvê-las se rever a
discussão de tempos em tempos, à medida que for lendo o texto em si.
As Seções 4 e 5 consideram as relações de equivalência no con­
texto da álgebra linear. A Seção 4 contém uma discussão breve de
espaços quocientes. Pode ser lida a qualquer momento após os dois
ou três primeiros capítulos do livro. A Seção 5 considera rapida­
mente algumas das relações de equivalência que aparecem no livro,
tentando indicar como alguns dos resultados do livro poderiam ser
interpretados do ponto de vista de relações de equivalência. A
Seção 6 descreve o Axioma da Escolha e suas implicações para a
Álgebra Linear.
492 - ALGEBRA LINEAR

A.1 Conjuntos
Usaremos as palavras 'conjunto', 'classe', ,'coleção"' e 'família'
indiferentemente, apesar de darmos preferência a 'conjunto'. Se S
é um conjunto e xé um objeto do conjunto S, diremos que xé
um elemento de S, que x pertence a S ou simplesmente que x está
em S. Se S possui apenas um número finito de elementos, xl' ... , xn,
freqüentemente descrevemos S exibindo seus elementos dentro de
chaves:

S = {xl' ..
. , x.}.

Assim, o conjunto S dos inteiros positivos de 1 a 5, seria

s = {1, 2, 3, 4, 5}.
Se S e T são conjuntos, dizemos que Sé um subconjunto de T,
ou que S está contido em T, se cada elemento de Sé um elemento
de T. Cada conjunto Sé um subcon}unto de si mesmo. Se Sé um
subconjunto de T mas S e T não são idênticos, denominamos S
um subconjunto próprio de T. Em outras palavras, S é um sub­
conjunto próprio de T se S está contido em T mas T não está
contido em S.
Se S e T são conjuntos, a reunião de S com T é o conjunto
S u T, constituído de todos os objetos x que são elementos de S
ou de T. A interseção de S com Té o conjunto S n T, formado por
todos os x que são elementos de S e de T. Para dois conjuntos
arbitrários, S e T, a interseção S n Té um subconjunto da reunião
S u T. Isto deve auxiliar a esclarecer o uso da palavra 'ou' que
prevalecerá neste livro: Quando dizemos que x está em S ou em
T, não excluímos a possibilidade de x estar em ambos S e T.
Para que a interseção de S e T seja sempre um conjunto, é
necessário introduzir o conjunto vazio, isto é, o conjunto sem
elementos. Então S n Té o conjunto vazio se, e somente se, S e T
não têm elementos em comum.
Freqüentemente precisaremos discutir a -reunião ou a inter­
seção de diversos conjuntos. Se S1, ... , Sn são conjuntos, sua
n

reunião é o conjunto u Sj formado por todos os x que são ele­


j= 1
mentos de pelo menos um dos conjuntos S 1; . . • , S�. Sua interseção
n
é O conjunto íl S , formado por todos OS X que são elementos
j
j=l
APtNDICE - 493

de cada um dos conjuntos�S1, ... , Sn. Em algumas ocasiões, discuti­


remos a reunião ou a interseção de uma coleção infinita de con­
juntos. Deveria estar evidente a maneira como tais reuniões e inter­
seções são definidas. O exemplo que segue deverá esclarecer estas
definições e uma notação para elas.

Exemplo 1. Indiquemos por R o conjunto dos (de todos os)


números reais (a reta real). Se t está em R, associamos a t um sub­
conjunto S1 de R, definido como segue: S1 consiste dos números
reais x que não são menores que t.

(a) st u st = st onde t é o menor entre t 1 e t2.


1 2
(b) st1 n st2 = s,, onde t é o maior entre t 1 e t2.
(c) Seja I o intervalo unitário, isto é , o conjunto dos t em R
que satisfazem O ::::;; t ::::;; 1. Então

A.2 Funções

Uma função consiste do seguinte:


(1) um conjunto X, denominado o domínio da função;
(2) um conjunto Y, denominado o contradomínio da função;
(3) uma regra (ou correspondência) f, que associa a cada
elemento x de X um único elemento f (x) de Y.

Se (X, Y, .f) é uma função, diremos que f é uma função de X


em Y. Isto é um tanto confuso, pois não é f que é a função; f é
a regra da função. No entanto, este uso do mesmo símbolo para
a função e sua regra nos fornece uma maneira muito mais maleável
de falar sobre funções. Assim, diremos que f é uma função de X
em Y, que X é o domínio .de f e que Y é o contradomínio de f -
tudo isto significando que (X, Y,f) é uma função como definido
acima. Existem várias outras palavras que são comumente usadas
no lugar da palavra 'função'. Algumas delas são 'transformação'
'operador' e 'aplicação'. Estas são usadas em contextos onde pa­
reçam ser mais sugestivas na transmissão do papel desempenhado
por .uma função específica.
494 - ALGtBRA LINEAR

Se f é uma função de X em Y, a imagem de f é o conjunto dos


f(x), x em X. Em outras palavras, a imagem de f consiste dos
elementos y em Y tais que y =f(x), para algum x em X . Se a
imagem de f é todo o conjunto Y, dizemos que f é uma função
sobrejetora de X em Y ou simplesmente que f é sobrejetora. A
imagem de f é freqüentemente indicada por /(X).

Exemplo 2. (a) Seja X o conjunto dos números reais e seja


2
Y =X. Seja f a função de X em Y definida por f(x) = x • A
imagem de f é o conjunto dos números reais não-negativos. Assim,
f não é sobrejetora.
(b) Seja X o plano euclidiano e Y = X. Seja f definida como
segue. se P é um ponto do plano, então f(P) é o ponto obtido
girando-se P de 90º (em torno da origem, no sentido anti-horário).
A imagem de f é todo Y, isto é, todo o plano; portanto,/ é sobre­
jetora.

(c) Novamente, seja X o plano euclidiano. Coloquemos coor­


denadas eni X como em geometria analítica, usando duas retas
perpendiculares para identificarmos os pontos de X com pares orde­
nados de números reais (x1, x2). Seja Y o eixo dos xl' isto é, o con­
junto dos pontos (x1, x2) com x2 =O. Se P é um ponto de X, seja
f(P) ponto obtido projetando P sobre o eixo dos xl' paralelamente
ao eixo dos x2. Em outras palavras, f((xl' x2)) = (xl' O). A imagem
de f é todo Y, portanto f é sobrejetora.

(d) Seja X o conjunto dos números reais e seja Y o conjunto


dos números reais positivos. Definamos uma função f de X em Y
por J(x) =ex. Então, f é uma função sobrejetora de X em Y.

(e) Seja X o conjunto dos números reais positivos e Y o con­


junto dos números reais. Seja/ a função logarítmica natural, isto é,
a fünção definida por f(x) =log x =ln x. Novamente, f é sobre­
jetora, isto é, todo número real é o logaritmo natural de algum
número positivo.
Suponhamos que X, Y e Z sejam conjuntos, que f seja uma
função de X em Y e que g seja uma função de Y em Z. Existe,
associada· a f e g, uma função g O f de X em Z, conhecida como
a composta de g e f. É definida por

(g Of) (x) = g(f(x)).


APÊNDICE - 495

Para um exemplo simples, seja X= Y=Z, o conjunto dos números


reais, sejam f, g, h as funções de X em X definidas por

.f(x) = x2, g(x) x


=e , h(x) =e
x2

e, então, h =g O .f. A composta g O .f é freqüentemente indicada


por g.f; contudo, como mostra o exemplo simples acima, existem
ocasiões em que isto pode· levar a confusão.
Uma questão de interesse é a que segue. Suponhamos que .f
seja uma função de X em Y. Quando é que existe uma função g
de Y em X tal que g(f(x))=x para todo x em X? Indicando por
I a função idêntica sobre X, isto é, a função de X em X definida
por I(x)=x, estamos perguntando: Quando é que existe uma
função g de Y em X tal que g O .f = I? A grosso modo, queremos
uma função g que 'leva cada elemento de Y de volta ao lugar de
onde veio'. Para que uma tal g exista, j precisa ser injetora, isto é,
f precisa ter a propriedade de que se x1 =f:.x2, então.f(x1)=1-.f(x2).
Se.f é injetora, existe uma tal função g. Ela é definida como segue:
Seja y um elemento de Y. Se y está na imagem de f, então existe
um elemento x em X tal que y=.f (x); como .f é injetora, existe
exatamente um tal x. Definamos g(y)=x. Se y não está na ima­
gem de f, definamos g (Y) como sendo um elemento qualquer de X.
Obviamente, temos g O .f = 1.
Seja f uma função de X em Y. Dizemos que f é inversível se
existe uma função g de. Y em X tal que
(1) g O f é a função idêntica sobre X,
(2) fO g é a função idêntica sobre Y.
Acabamos de ver que se existe uma g satisfazendo (1), então f
é injetora. Analogamente, pode-se ver que se existe uma g satisfa­
zendo (2), a imagem de .f é todo o conjunto Y, isto é, .f é sobre­
jetora. ·Assim, se f é inversível, f é injetora e sobrejetora (bijetora).
Reciprocamente, se f é bijetora, existe uma função g de Y em X
que satisfaz (1) e (2). Além disso, esta g é única. Ela é a função de Y
em X, definida por esta regra: se y está em Y, então g(y) é o único
elemento x em X para o qual .f(x)=y.
Se f é iD.versível (bijetora) a inversa de f é a única função r 1
de Y em X que satisfaz
(1') f-1(f(x))=x, para cada x em X,
(2') f(f-1 (y))=y, para cada y em Y.
496 - ALGEBRA LINEAR

Exemplo 3. Consideremos as funções do Exemplo 2.


(a) Se X= Y, o conjunto dos números reais, e f (x)= x , então
2

f não é inversível. De fato, f não é injetora nem sobrejetora.


(b) Se X= Y, o espaço euclidiano, e f é a 'rotação de 90º',
então f é bijetora. A função inversa 1-1 é a 'rotação de 90º' ou a
-

'rotação de 270°'.
(c) Se X é o plano, Y o eixo dos x1 ef((xl' x 2 ))= (xl' O), então
f não é inversível. De fato, apesar de ser sobrejetora, f não
é injetora.
(d) Se X é o conjunto dos números reais, Y o conjunto dos
números reais positivos e f (x) = eX, então f é inversível. A função
f-1 é a função logarítmica natural da parte (e): log e' = x, e10gy = y.
(e) A inversa desta função logarítmica natural é a função
exponencial da parte (d).
Sejaf uma função de X em Y e sejaf0 uma função de X0 em Y0.
Dizemos que fo é uma restrição de f (ou uma restrição de f a Xo ) se

(1) X0 é um subconjunto de X,
(2) f 0(x)=f (x), para cada x em x0•
Evidentemente, quando f0 é uma restrição de f, decorre que Y0
é um subconjunto de Y. O nome 'restrição' vem do fato de que
f e f0 têm a mesma regra e diferem principalmente porque restrin­
gimos o domínio de definição da regra ao subconjunto X0 de X.
Se nos é dada uma função f e um subconjunto arbitrário X 0
de X, existe uma maneira óbvia de construir uma restrição de f a
X0. Definamos uma função f0 de X0 em Y por f0(x)=f(x) para
cada x em X0. Poder-se-ia perguntar por que não denominamos
esta f0 a restrição de f a X0. A razão é que, ao discutirmos res­
trições de f, queremos a liberdade de mudar o contradomínio Y,
bem como o domínio de X.

Exemplo 4. (a) Seja X o conjunto dos números reais e f a


função de X em X definida por f (x) = x2. Então, f não é uma fun­
ção inversível mas o será se restringirmos seu domínio aos números
reais não-negativos. Seja X0 o conjunto dos números reais não­
negativos e seja /0 a função de X0 em X0 definida porf0(x)= x2•
Então /0 é uma restrição de f a X0. Ora, f não é injetora nem
sobrejetora, enquanto que f 0 é injetora e sobrejetora. A última
afirmação diz simplesmente que cada número não�negativo é o qua-
APÊNDICE - 497

drado de exatamente um número não-negativo. A função inversa


f� 1 é a função de X 0 em X 0 definida por f� 1(x)= ,J X.

(b) Seja X o conjunto dos números reais e seja f a função de


X em X definida por f(x) x3 + x2 + l. A imagem de fé todo X,
=

portanto, f é sobrejetora. A função f certamente não é injetora,


pois, f(-1)=f(O). Mas f é injetora sobre X0, o conjunto dos
números reais não-negativos, pois a derivada de f é positiva para
x > O. Quando x percorre todos os números reais não-negativos,
f(x) percorre todos os números reais y tais que y 2".: l. Se indicar­
mos por Y0 o conjunto dos y � 1 e por f0 a função de X0 em Y0
definida por f0(x)=f(x), então f0 é uma função bijetora de X0
em Y0. Conseqüentemente, f0 possui uma função inversa f�1 de
Y0 em X 0. Qualquer fórmula para f� 1(y) é bastante complicada.

(e) Novamente, seja X o conjunto dos números reais e seja


f a função seno, isto é, a função de X em X definida por f(x)= sen x.
A imagem de fé o conjunto dos y tais que -1 :s; y :s; 1; logo, f não
é sobrejetora. Como f(x + 2n)=f(x), vemos que f não é injetora.
Se indicarmos por X 0 o intervalo -n/2 :s; x :s; n/2, então f é inje­
tora em X 0. Seja Y0 o intervalo -1 :s; y :s; 1 e seja f0 a função de
X0 em Y0 definida por f0(x) = sen x. Então f0 é uma restrição de
f ao intervalo X0 e j� é bijetora. Esta é apenas uma outra maneira
de dizer que, no intervalo de - n/2 a n/2, a função seno toma
cada valor entre - 1 e 1 exatamente uma vez. A função f 0- 1 é a
função arco-seno:

lo 1(y) = sen-1y =are se:p. y.

(d) Este é um exemplo geral de uma restrição de uma função.


É muito mais característico do tipo de restrição que usaremos neste
livro do que os exemplos em (b) e (e) acima. O exemplo em (a) é um
caso particular deste. Seja X um conjunto e f uma função de X
em si mesmo. Seja X0 um subconjunto de X. Dizemos que X0
é invariante sob f se para cada X em Xo o elemento f(x) está em
X0. Se X 0 é invariante sob f, então f induz uma função /0 de X0
em si mesmo, restringindo-se o seu domínio de definição a X 0. A
importância da invariância é que restringindo f a X 0 podemos
obter uma função de X0 em si mesmo, em vez de simplesmente
uma função de X 0 em X.
498 - ALGEBRA LINEAR

A.3 Relações de Equivalência

Uma relação de equivalência é um tipo particular de relação


entre pares de elementos de um conjunto. Para definir uma relação
de equivalência, precisamos primeiro decidir o que é uma 'relação'.
Certamente, uma definição fqrmal de 'relação' deve envolver
relações familiares tais como 'x = y', 'x < y', 'x é a mãe de y' e
'x é mais velho que y'. Se X é um conjunto, o que é necessário
para determinar uma relação entre pares de elementos de X? O
que se precisa, evidentemente, é de uma regra para determinar se,
para dois quaisquer elemehtos dados x e y em X, x está na relação
dada com y ou não. Uma tal regra R, será denominada uma
relação (binária) sobre X. Se desejarmos ser ligeiramente mais pre­
cisos, poderemos proceder como segue. Indiquemos por X x X
o conjunto dos pares ordenados (x, y) de elementos de X. Uma
relação binária sobre X é uma função R de X x X no conjunto
{O, 1}. Em outras palavras, R associa a cada par ordenado (x, y)
um 1 ou um O. A idéia é que se R(x, y) = 1, então x está na relação
dada com y, e se R(x, y) = O, não o está.
Se R é uma relação binária sobre o conjunto X, é conveniente
escrever xRy quando R(x, y) = 1. Uma relação binária é dita

(1) reflexiva, se xRx para todo x em X;


(2) simétrica, se yRx sempre que xRy;
(3) transitiva, se xRz sempre que xRy e yRz.
Uma relação de equivalência sobre X é uma relação binária
sobre X que é reflexiva, simétrica e transitiva.

Exemplo 5. (a) Sobre qualquer conjunto, a igualdade é l!_ma


relação de equivalência. Em outras palavras, se xRy significa x y,
=

então R é uma relação de equivalência. De fato, x = x, se x = y


então y = x, se x = y e y = z então x = z. A relação 'x # y' é simé­
trica, mas não é reflexiva nem transitiva.

(b) Seja X o conjunto dos números reais e suponhamos que


xRy signifique x < y. Então R não é uma relação de equivalência
Apesar de ser transitiva, não é nem reflexiva nem simétrica. A
relação 'x::::;; y' é reflexiva e transitiva, mas não é simétrica.

( c) Seja E o plano euclidiano e seja X o conjunto dos triân­


gulos no plano E. Então, a congruência é uma relação de equiva-
APÊNDICE - 499

lência sobre X, isto é, T � T2' (T1 é congruente a T2) é uma


1
'

relação de equivalência sobre o conjunto dos triângulos no plano.


(d) Seja X o conjunto dos inteiros:

... , -2, -1, O, 1, 2, ...


Seja n um inteiro positivo fixo. Definamos uma relação R" sobre
X por: xR"y se, e somente se, (x - y) é divisível por n. A relação
R" é denominada congruência módulo n. Em vez de xR y escreve-se
11
em geral,

x = y, mod n(x é congruente a y módulo n)

quando (x - y) é divisível por n. Para cada inteiro positivo n, a


congruência módulo n é uma relação de equivalência sobre o con­
junto dos inteiros.
(e) Sejam X e Y conjuntos e f uma função de X em Y. Defi­
namos uma relação R sobre X por: x1Rx2 se, e somente se,
f(x2). É fácil verificar que R é uma relação de equivalência
f (x,1) =

sobre o conjunto X. Como veremos, este exemplo engloba, na


verdade, todas as relações de equivalência.
Suponhamos que R seja uma relação de equivalência sobre o
conjunto X. Se x é um elemento de X, indiquemos por E(x; R) o
conjunto dos elementos y em X tais que xRy. Este conjunto
E(x; R) é denominado a classe de equivalência de x (segundo a
relação de equivalência R). Como R é uma relação de equiva­
lência, as classes de equivalência possuem as seguintes propriedades:

(1) Cada E(x; R) é não-vazio, pois, como xRx, o elemento x


pertence a E(x; R).
(2) Sejam x e y elementos de X. Como R é simétrica, y per­
tence a E (x; R) se, e somente se, x pertence a E (Y; R).
(3) Se x e y são elementos de X, as classes de equival&ncia
E(x; R) e E(y; R) ou são idênticas ou não têm nenhum elemento
em comum. Primeiro, suponhamos que xRy. Seja z um elemento
arbitrário de E(x; R), xRz. Como
isto é, um elemento de X tal que
R é simétrica, também temoszRx. Por hipótese, xRy e como R é
transitiva, obtemos zRy, ou yRz. Isto mostra que todo elemento
de E(x; R) é um elemento de E(y; R). Pela simetria de R, vemos,
analogamente, que todo elemento de E(y;R) é um elemento de
E(x; R); logo $(x; R) E(y; R). Afirmamos, agora, que se a re-
=
500 - ALGEBRA LINEAR

lação xRy não vale, então E(x; R) nE(y; R) é vazia. De fato, se z


está em ambas estas classes de equivalência, t emos xRz e yRz, por­
tanto, xRz e zRy, logo, xRy.
Indicando por fF a família das classes de equivalência segundo
uma relação de equivalência R, vemos que: (1) cada conjunto na
família fF é não-vazio. (2) cada elemento x de X pertence a um
e somente um dos conjuntos na família ff; (3) xRy se, e somente
se, x e v pertencem ao mesmo conjunto na família ff. Abreviada­
mente, a relação de equivalência R subdivide X na reunião de uma
família de subconjuntos (não-vazios) disjuntos dois a dois. O argu­
mento também vale no o utro sentido. Suponhamos que fF seja
uma família arbitrária de subconjuntos de X que satisfaça as �on­
dições (1) e (2) acima. Se definirmos uma relação R por (3), então
R será uma relação de equivalência sobre X e fF a família das
classes de equivalência segundo R.
Exemplo 6. Vejamos quais são as classes de equivalência se·
gundo as relações de equivalência do Exemplo 5.
(a) Se Ré a igualdade sobre o conjunto X, então a classe
de equivalência do elemento x é simplesmente o conjunto {x}, cujo
único elemento é x.
(b) Se X é o conjunto dos triângulos num plano e Ré a relação
de congruência, praticamente tudo o que se pode dizer, de início,
é que a classe de equivalência do triângulo T consiste de todos os
triângulos que são congruentes a T. Uma das tarefas da geometria
plana é dar outras descrições destas classes de equivalência.

(c) Se X é o conjunto dos inteiros e R. é a relação 'congruência


módulo n', então existem precisamente n classes de equivalência.
Cada inteiro x pode ser expresso de um único modo sob a forma
x =qn + r, onde q e r são inteiros e O .:::;; r .:::;; n- 1. Isto mostra que
cada x é congruente módulo n a exatamente um dos n inteiros
O, 1, 2, ... , n- 1. As classes de equivalência são

E0 = { ., -2n, -n, O, n 2n,


. . ...}

E1 = { . . . , 1 - 2n, 1 - n, 1, 1 + n, 1 + 2n, . . .}

E._ 1 = { . .., n- 1 -2n, n - 1 - n; n - 1, n-1 + n,


n-1 +2n, . . }. .
APÊNDICE - 501

(d) Suponhamos que X e Y sejam conjuntos, fuma função de


X em Y e R a relação de equivalência definida por: x1Rx2 se, e
somente se, f(x1) f(x2). As classes de equivalência para R são
=

exatamente os maiores subconjuntos de X sobre os quais f é 'cons­


tante'. Outra descrição das classes de equivalência é a que segue.
Elas estão em correspondência bijetora com os elementos na ima­
gem de f. Se y está na imagem de f, o conjunto dos x em X tais
que f(x) y é uma classe de equivalência para R. isto define uma
=

correspondência bijetora entre os elementos da imagem de f e as


classes de equivalência R.
Façamos mais um comentário acerca de relações de equiva­
lência. Dada uma relação de equivalência R sobre X, seja ffe a
família das classes de equivalência segundo R. Associando ao ele­
mento x a classe de equivalência E(x; R), definimos uma função
f de X em ffe (na verdade, sobre $'):

f(x) = E(x; R).

Isto mostra que R é a relação de equivalência associada a uma


função cujo domínio é X, como no Exemplo 5 (e). O que isto
nos diz é que toda relação de equivalência sobre o conjunto X é
determinada como segue. Temos uma regra (função) f que associa
a cada elemento x de X um objeto f(x), e xRy se, e somente se,
f(x) f(y). Agora, deve-se considerar f(x) como uma propriedade
=

de x, de. modo que o que a relação de· equivalência faz (a grosso


modo) é reunir todos os elementos de X que têm esta propriedade
em comum.· Se o objeto f(x) é a classe de equivalência de x, então
tudo o que se disse é que a propriedade comum dos elementos de
uma classe de equivalência é que eles pertencem à mesma classe
de equivalência. É claro que isto não diz muito. Em geral, existem
muitas funções distintas f que determinam uma dada relação de
equivalência como acima, e um objetivo no estudo das relações de
equivalência é determinar uma tal f que dê uma descrição signifi­
cativa e elementar da relação de equivalência. Na Seção A.5 vere­
mos como isto é conseguido para algumas relações de equivalência
particulares que surgem em álgebra linear.

A.4 Espaços Quocientes

Seja V um espaço vetorial sobre o corpo F e seja W um subes­


paço de V. Existem, em geral, muitos subespaços W' que são suple-
500 - ALGEBRA LINEAR

lação xRy não vale, então E(x; R) nE(y; R) é vazia. De fato, se z


está em ambas estas classes de equivalência, temos xRz e yRz, por­
tanto, xRz e zRy, logo, xRy.
Indicando por $" a família das classes de equivalência segundo
uma relação de equivalência R, vemos que: (1) cada conjunto na
família ff é não-vazio. (2) cada elemento x de X pertence a um
e somente um dos conjuntos na família ff; (3) xRy se, e somente
se, x e v pertencem ao mesmo conjunto na família ff. Abreviada­
mente, a relação de equivalência R subdivide X na reunião de uma
família de subconjuntos (não-vazios) disjuntos dois a dois. O argu­
mento também vale no outro sentido. Suponhamos que ff seja
uma família arbitrária de subconjuntos de X que satisfaça as �on­
dições (1) e (2) acima. Se definirmos uma relação R por (3), então
R será uma relação de equivalência sobre X e ff a família das
classes de equivalência segundo R.
Exemplo 6. Vejamos quais são as classes de equivalência se·
gundo as relações de equivalência do Exemplo 5.
(a) Se R é a igualdade sobre o conjunto X, então a classe
de equivalência do elemento x é simplesmente o conjunto {x}, cujo
único elemento é x.
(b) Se X é o conjunto dos triângulos num plano e R é a relação
de congruência, praticamente tudo o que se pode dizer, de início,
é que a classe de equivalência do triângulo T consiste de todos os
triângulos que são congruentes a T Uma das tarefas da geometria
plana é dar outras descrições destas classes de equivalência.

( c) Se X é o conjunto dos inteiros e R" é a relação 'congruência


módulo n', então existem precisamente n classes de equivalência.
Cada inteiro x pode ser expresso de um único modo sob a forma
x = qn+r, onde q e r são inteiros e O � r � n -1. Isto mostra que
cada x é congruente módulo n a exatamente um dos n inteiros
O, 1, 2, ... , n -1. As classes de equivalência são

E0 = { ... , -2n, -n, O, n 2n, . ..}

E1 = { ..., 1 - 2n, 1 - n, 1, 1 + n, 1 + 2n, ...}

En- l = {.. ., n - 1 - 2n, n - 1 -n; n - 1, n - 1+n,


n -1+2n, ... }.
APlNDICE - 501

(d) Suponhamos que X e Y sejam conjuntos,f uma função de


X em Y e R a relação de equivalência definida por: x 1 Rx2 se, e
somente se, f(x1) = f (x1 ) . As classes de equivalência para R são
exatamente os maiores subconjuntos de X sobre os quais f é 'cons­
tante'. Outra descrição das classes de equivalência é a que segue.
Elas estão em correspondência bijetora com os elementos na ima­
gem de f. Se y está na imagem de f, o conjunto dos x em X tais
que f(x) = y é uma classe de equivalência para K isto define uma
correspondência bijetora entre os elementos da imagem de f e as
classes de equivalência R.
Façamos mais um comentário acerca de relações de equiva­
lência. Dada uma relação de equivalência R sobre X, seja fi' a
família das classes de equivalência segundo R. Associando ao ele­
mento x a classe de equivalência E(x; R), definimos uma função
f de X em fi' (na verdade, sobre fi'):
f(x) = E (x; R).

Isto mostra que R é a relação de equivalência associada a uma


função cujo domínio é X, como no Exemplo 5 (e). O que isto
nos diz é que toda relação de equivalência sobre o conjunto X é
determinada como segue. Temos uma regra (função) f que associa
a cada elemento x de X um objeto f(x), e xRy se, e somente se,
f(x) f(y). Agora, deve-se considerar f(x) como uma propriedade
. ·
=

de x, de modo que o que a relação de equivalência faz (a grosso


modo) é reunir todos os elementos de X que têm esta propriedade
em comum.· Se o objeto f (x) é a classe de equivalência de x, então
tudo o que se disse é que a propriedady comum dos elementos de
uma classe de equivalência é que eles pertencem à mesma classe
de equivalência. É claro que isto não diz muito. Em geral, existem
muitas funções distintas f que determinam uma dada relação de
equivalência como acima, e um objetivo no estudo das relações de
equivalência é determinar uma tal f que dê uma descrição signifi­
cativa e elementar da relação de equivalência. Na Seção A.5 vere­
mos como isto é conseguido para algumas relações de equivalência
particulares que surgem em álgebra linear.

A.4 Espaços Quocientes

Seja V um espaço vetorial sobre o corpo F e seja W um subes­


paço de V. Existem, em geral, muitos subespaços W' que são suple-
502 - ALGEBRA LINEAR

mentares de W, isto é, subespaços com a propriedade de que


V= WEB W'. Se temos um produto interno sobre V e se W é de
dimensão finita, existe um subespaço particular que provavelmente
se denominaria o subespaço suplementar 'natural' de W. Ele é o
suplementar ortogonal de W. Mas se V não possui nenhuma estru­
tura além de sua estrutura de espaço vetorial, não existe nenhuma
maneira de selecionar um subespaço W' que se pudesse denominar
o subespaço suplementar natural de W. Contudo, pode-se cons­
truir, a partir de V e W, um espaço vetorial V /W, conhecido como
o 'quociente' de V por W, que desempenhará o papel do suple­
mentar natural de W. Este espaço quociente não é um subespaço
de V, portanto, não pode ser realmente um subespaço suplementar
de W, no entanto, ele é um espaço vetorial definido apenas em
termos de V e W que tem a propriedade de ser isomorfo a todo
subespaço W' que seja suplementar de W.
Seja W um subespaço do espaço vetorial V. Se a e f3 são ve­
tores em V , dizemos que a é congruente a f3 módulo W se o vetor
(a - /3)
está no subespaço W. Se a é congruente a f3 módulo W,
escrevemos
a = {3, mod W.
Ora, a congruência módulo W é uma relação de equivalência
sobre V.

(1) a = a, mod W, porque a - a= O está em W.

(2) Se a = {3, mod W, então f3 = a, mod W. De fato, como W


é um subespaço de V, o vetor (a - /3) está em W se, e somente se,
(/3 - a) está em W.

(3) Se a = /3, mod W, e f3 = y, mod W, então a = y, mod W.


De fato, se (a - /3) e (/3 - y) estão em W, então a - y=(a /3) + -

+ (/3 - y) está em W.
As classes de equivalência desta relação de equivalência são
conhecidas como as classes laterais de W. Qual é a classe de equi­
valência (classe lateral) de um vetor a? Ela consiste dos vetores f3
em V tais que (/3 a) está em W, isto é, os vetores da forma
-

/3= a + y, com y em W. Por esta razão, a classe lateral do vetor a


é indicada por
<X+ w.

É conveniente pensar na classe lateral de a em relação a W como


sendo o conjunto dos vetores obtidos por translação do subespaço
APÊNDICE - 503

W pelo vetor oc. Para visualizar estas classes laterais, o leitor pode
pensar no seguinte caso particular: Seja V o espaço R2 e seja W
um subespaço unidimensional de V. Se imaginarmos V como sendo
o plano euclidiano, W será uma reta passando pela origem. Se
Se IX= (x1, x2) é um vetor em V, a classe lateral IX+ W é a reta
que passa pelo ponto (x1, x2) e é paralela a W.
A coleção de todas as classes laterais de W será indicada por
V/W. Definamos, agora, uma adição de vetores e uma multipli­
cação escalar sobre V/W como segue:

(IX + W) + (p + W) = (IX + p) + w
c(IX + W) = (c1X) + W.

Em outras palavras, a soma da classe lateral de IX com a classe


lateral de p é a classe lateral de (IX+ p), e o produto do escalar e
pela classe lateral de IX é a classe lateral do vetor CIX. Ora, muitos
vetores distintos em V terão a mesma classe lateral em relação a
W, portanto, precisamos verificar que a soma e o produto acima
dependem somente das classes laterais envolvidas. O que isto
significa é que precisamos mostrar o seguinte:
(1) Se IX = '
oc , mod W, e P = P', mod W, então

IX + P = 1X1 + P', mod W.


(2) Se IX= IX', mod W, então c1X = c1X1, mod W.
Estes fatos são fáceis de verificar. (1) Se IX - 1X1 está em W e
P - P' está em W, então como (IX+ p) - (IX' + P') =(IX - 1X1) + (p - P')
vemos que IX+ p é congruente a oc' + p� módulo W. (2) Se IX - 1X1
está em W e e é um escalar arbitrário, então CIX c1X1 = c(IX - 1X1)
-

está em W.
Agora é fácil verificar que V/W, com a adição de vetores e a
multiplicação escalar acima definidas, é um espaço vetorial sobre
o corpo F. Deve-se verificar diretamente cada um dos axiomas
para um espaço vetorial. Cada uma das propriedades da adição
de vetores e da multiplicação escalar decorre da propriedade corres­
pondente das operações em V. Um comentário deve ser feito. O
vetor nulo em V/W será a classe lateral do vetor nulo em V. Em
outras palavras, W é o vetor nulo em V/W.
O espaço vetorial V/ W ::: denominado o quociente (ou dife­
rença) de V por W. Existe uma transformação linear natural Q
504 - ALGEBRA LINEAR

de V sobre V/W É definida por Q(a) =a+ W. Deve-se ver que


definimos as operações em V/W exatamente de modo que esta
transformação Q viesse a ser linear. Notemos que o núcleo de Q
é exatamente o subespaço W. Denominamos Q a transformação
quociente (ou aplicação quociente) de V sobre V/ W.
A relação entre o espaço quociente J1W e subespaços de V
que são suplementares de W pode, agora, ser enunciada como segue.

Teorema. Seja W um subespaço do espaço vetorial V e seja Q


a aplicação quociente de V sobre V/W. Suponhamos que W' seja um
subespaço de V. Então V =WEB W' se, e somente se, a restrição
de Q a W' é um isomoifismo de W' em V/W.
Demonstração. Suponhamos que V= WEB W'. Isto significa
que cada vetor a em V pode ser expresso de um único modo sob a
forma a=y+y', com y em W e y' em W'. Então Qa=Qy+
+ Qy'=Qy', isto é, a+ W =y' + W. Isto mostra que Q leva W'
sobre V/W, ou seja, que Q(W') = V/W. Além disso, Q é injetora em
W'; de fato, suponhamos 'que y� e y; sejam vetores em W' e que
Qy� =Qy;. Então, Q(y� - y;) O de modo que ')'� - y; está em W.
=

Este vetor também está em W', que é disjunto de W; logo')'� -y;=0.


A restrição de Q a W' é, portanto, uma transformação linear bije­
tora de W' em V/W.
Suponhamos que W' seja um subespaço de V tal que Q seja
injetora em W' e que Q(W')= V/W. Seja a um vetor em V. Então
existe um vetor y' em W' tal que Qy' Qa, isto é, y'+ W =a+ W.
=

Isto significa que a = ')' + y' para algum vetor ')' em W Portanto,
V= W + W'. Para ver que W e W' são disjuntos, suponhamos que
')'esteja em W e em W'. Como')' está em W, temos Qy=O. Mas Q
é injetora em W', logo devemos ter que ')' =O. Assim, temos que
V= WEB W'.
O que este teorema realmente diz é que W' é um suplementar
de W se, e somente se, W' é um subespaço que contém exatamente
um elemento de cada classe l.ateral de W. Ele mostra que, quando
V= W $ W', a aplicação quociente Q 'identifica' W' com V/W.
Abreviadamente, ( W $ W')/W é isomorfo a W' de uma maneira
'natural'.
Um fato bastante óbvio· deve ser notado. Se W é um subes­
paço do espaço vetorial V de dimensão finita, então

dim W + dim(V/W) = dim V.


APtND/CE - 505

Pode-se ver isto a partir do teorema acima. Talvez seja mais fácil
observar que esta fórmula sobre dimensões diz:

nulidade (Q) + posto (Q) = dim V.

Não é nosso objetivo, aqui, fazer um tratamento detalhado dos


espaços quocientes. Contudo, existe um resultado fundamental que
devemos demonstrar.

Teorema. Sejam V e Z espaços vetoriais sobre o corpo F. Supo­


nhamos que T seja uma transformação linear de V sobre Z. Se W é
o núcleo de T, então Z é isomorfo a V/W.
Demonstração. Definamos uma transformação U de V/W em
Z por U (rx + W) = Trx. Precisamos verificar que U está bem defi­
nida, isto é, que se rx + W= fJ + W então Trx T{J. Isto decorre =

do fato de que W é o núcleo de T; de fato, rx + W= f3 + W signi­


fica que rx fJ está em W e isto ocorre se, e somente se, T(rx p) =O.
- -

Isto mostra não só que U está bem definida, mas também que U é
injetora.
Agora é fácil verificar que U é linear e leva V/W sobre Z, pois
T é uma transformação linear de V sobre Z.

A.5 Relações ·de Equivalência em Álgebra Linear·

Vamos considerar algumas das relações de equivalência que


surgem no texto deste livro. Esta é, apenas, uma amostra de ta,is
relações.
( 1) Sejam m e n inteiros positivos e F um corpo. Seja X o
conjunto das m x n matrizes sobre F. Eritão, a linha-equivalência é
uma relação de equivalência sobre o conjunto X. A afirmação 'A é
linha-equivalente a B' significa que A pode ser obtida de B por uma
sucessão finita de operações elementares sobre linhas. Se escre­
vermos A,...., B para indicar que A é linha-equivalente a B, então
não é difícil verificar as propriedades (i) A,...., A; (ii) se A,..., B, então
B,..., A; (iii) se A,..., B e B,..., C� então A,..., C. Que sabemos a respeito
desta relaÇão de equivalência? Na realidade, sabemos bastante. Por
exemplo, sabemos que A,..., B se, e somente se, A= PB para alguma
m x m matriz inversível P, oti, A,..., B se, e somente se, os sistemas
homogêneos de equações lineares AX =O e BX =O têm as mesmas
soluções. Também temos informaçõeS bem explícitas sobre as
classes de equivalência, segundo esta relação. Cada m x n matriz A
506 - ALGEBRA LINEAR

é linha-equivalente a uma, e somente uma, matriz linha-reduzida


à forma em escada. O que isto diz é que cada classe de equivalência
segundo esta relação contém precisamente uma matriz R linha­
reduzida à forma em escada; a classe de equivalência determinada
por R consiste das matrizes A = PR onde P é uma m x m matriz
inversível. Pode-se também considerar esta descrição das classes
de equivalência da seguinte maneira: Dada uma m x n matriz A,
temos uma regra (função) f que associa a A a matriz f (A), linha­
reduzida à forma em escada, que é linha-equivalente a A. A linha­
equivalência é completamente determinada por f. De fato, A ,..., B
se, e somente se, f (A)= f (B), isto é, se, e somente se, A e B têm a
mesma forma em escada linha-reduzida.

(2) Seja n um inteiro positivo e F um corpo. Seja X o con­


junto das n x n matrizes sobre F. Então, a semelhança é uma re­
lação de equivalência sobre X; cada n x n matriz A é semelhante
a si mesma; se A é semelhante à B, então B é semelhante a A; se A
é semelhante a B e B é semelhante a C, então A é semelhante a C�
Também sabemos muita coisa acerca desta relação de equivalência.
Por exemplo, A é semelhante a B se, e somente se, A e B repre­
sentam o mesmo operador linear sobre Fn em relação a' bases orde­
nadas (possivelmente) diferentes. Entretanto, sabemos algo muito
mais profundo que isto. Cada n xn matriz A sobre Fé semelhante
(sobre F) a uma, e somente uma, matriz sob a forma racional
(Capítulo 7). Em outras palavras, cada classe de equivalência se­
gundo a relação de semelhança contém exatamente uma matriz
que está.sob a forma racional. Uma matriz sob a forma racional é
determinada por uma k-upla (p1, , pk) de polinômios unitários
• • .

com a propriedade de que Pi+ 1 divide pi' j = 1, . , k 1. Assim, . . -

temos uma função f que associa a cada n x n matriz A uma k-upla


f(A)={Pp'·"Pk) que satisfaz a condição de divisibilidade Pi+l
divide Pr
Então, A e B são semelhantes se, e somente se,f(A)=f(B).

(3) Eis um caso particular do Exemplo 2 acima. Seja X o


conjunto das 3 x 3 matrizes sobre um corj,o F. Consideremos a
relação de semelhança sobre X. Se A e B são 3 x 3 matrizes
sobre F, .então A e B são semelhantes se, e somente se, possuem o
mesmo polinômio característico e o mesmo polinômio minimal.
Associado a cada 3 x 3 matriz A, temos um par (/, p) de polinômios
unitários que satisfazem
APÊNDICE - 507

(a) gr(f) = 3.

(b) p divide f,

sendo f o polinômio característico de A e p o polinômio minimal


de A. Dados polinômios unitários f e· p sobre F que satisfaçam
(a) e (b), é fácil exibir uma 3 x 3 matriz sobre F, cujos polinômios
característicos e minimal sejam f e p, respectivamente. O que tudo
isso nos diz é o que segue. Se considerarmos a relação de seme­
lhança sobre o conjunto das 3 x 3 matrizes sobre F, as classes de
equivalência estarão em correspondência bijetora com os pares
ordenados (f, p) de polinômios unitários sobre F que satisfazem
(a) e (b). ·

A.6 O Axioma da Escolha

Sem muito rigor, o Axioma da Escolha é uma regra (ou um


princípio) de pensamento afirmando que dada uma família de con­
juntos não vazios, podemos escolher um elemento de cada conjunto.
Para sermos mais precisos, suponhamos que A seja um conjunto
de índices e que exista associado a cada IX de A, um conjunto não­
vazio S,,. "Escolher" um elemento de cada S,, significa dar uma
regra f que associe a cada IX algum elemento f (1X) do conjunto S,,.
O axioma da escolha afirma que isso pode ser feito, isto é, dada
uma família de conjuntos {Sª}, existe uma função f de A em

tal que !(IX) esteja em S,, para cada IX. Esse princípio é aceito pela
maioria dos matemáticos, apesar de surgirem muitas situações onde
não é nada evidente como qualquer função explícita f possa ser
encontrada.
O Axioma da Escolha tem algumas conseqüências surpreen­
dentes. A maioria delas não tem relação com o assunto tratado
nesse livro; no entanto, uma conseqüência merece ser mencionada:
Todo espaço vetorial possui uma base. Por exemplo, o corpo dos
números reais possui uma base como espaço vetorial sobre o corpo
dos números racionais. Em outras palavras, existe um subcon­
junto S de R, que é linearmente independente sobre o corpo dos
508 - ALGEBRA LINEAR

números racionais, e que possui a propriedade de que todo número


real é uma combinação linear racional de algum número finito de
elementos de S. Não deduziremos aqui esse resultado para espaços
vetoriais, a partir do Axioma da Escolha. Para uma demonstração,
referimos o leitor ao livro de Kelley, mencionado na bibliografia.
BIBLIOGRAFIA

Halmos, P., Finite-Dimensional Vector Spaces. D. Van Nostrand Co.,


Princeton, 1958.

Jacobson, N., Lectures in Abstract Algebra, II. D. Van Nostrand Co.,


i>rinceton, 1953.

Kelley, John L., General Topology, D. Van Nostrand Co., Princeton,


1955.

MacLane, S. and Birkhoff, G., Algebra, The Macmillan Co., New


York, 1967.

Schreier, O. and Sperner, E., Modem Algebra and Matrix 1heory.


2.ª Ed., Chelsea Publishing Co., New York, 1955.

van der Waerden, B. L., Modem Algebra (dois volumes), Rev. Ed., ·

Frederick Ungar Publishing Co., New York, 1969.


fNDICE ALFABETICO

A c

Adjunta: Característica do corpo, 3-4


clássica,189,202 Classe de equivalência, 499
de uma transformação, 378 Classe lateral, 226, 502
Álgebra, 148,150, 151 Coeficiente de um polinômio, 151
auto-adjunta, 440 Cofator,201
comutativa,148 Coluna-equivalência,328
das séries formais de potência, 150 Combinação linear, 39
linear,148, 506 de equações, 4
Anéis comutativos,178 de vetores,39
Anel, 178 Componentes primárias, 448
comutativo, 180 Composição,495
de Grassman, 221, 231 Condutor,258,259,297
Anulador: Congruência,176,499,502
de subconjunto,129 ConjugaÇâ°o,353 (exerc. 13)
de subespaço,129 Conjugado,346
de vetor (T-anulador), 258,291 Conjunto,492
Aproximação, 362 ortogonal,356
Assinatura de forma bilinear, 474. ortonormal, 35 7
Associatividade, 1 vâzio,492
da adição de vetor�s. 35 Coordenadas,61
da multiplicação de matrizes,36 Corpo, 2
Autovalor (ver: Valor característico) algebricamente fechado,175
Axioma da escolha,508
D
B
Decomposição:
Base, 50 cíclica de operador linear,295
canônica de P', 52 em fatores primos,de polinômio,170
de espaço vetorial, 51 em somas diretas,267
de módulo, 209 polar de operador linear, 437
dual,126,210 primária de polinômio,170
ordenada,52,62,409 Dependência linear,50, 59
ortonormal,359,398 Derivada do polinômio, 163, 340
INDICE ALFABÉTICO -511

'Desenvolvimento segundo Laplace, 229 de soluções de equações lineares, 44


Desigualdade: quociente, 501
de Bessel, 368 sobre o corpo, 36
de Cauchy-Schwarz, 355 Espectro, 430
Determinante, 183
de transformação linear, 216
F
Diagonalização, 264,278
de forma bilinear simétrica, 472 pn xn 37
,
de forma hennitiana, 411
P',36
de matriz (operador) auto-adjunta(o),
Fatoração de polinômio, 170
401
Fatores invariantes, 305, 321,334
de matriz (operador) normal, 404
de uma matriz, 305, 321
simultânea, 264,437
Forma:
unitária, 404
alternada, 215
Dimensão, 50
bilinear, 211, 407, 457
de espaço vetorial, 50
anti-simétrica, 478
finita, 51
não-degenerada (não-singular), 465
Distância, 369 (Ex. 15 exerc. 4)
positiva definida, 469
-

Divisão com resto, 167


-

simétrica, 468
de Jordan de uma matriz, 290, 311,
E 314,316
hermitiana, 411
Elemento: multilinear, 211
de conjunto, 492 não-degenerada, 413 (exerc. 6)
de matriz, 7 não-negativa, 413
unidade, 148, 178 não-singular (ver: Forma não-degene­
Equações: rada)
diferenciais, 286 (Ex.14),318(Ex.8) normal, 330, 332
lineares (ver: Sistema de equações li­ positiva, 413,417
neares) quadrática, 349,468
Equivalência: r-linear, 211
de matrizes ortogonais, 394 racional, 290
unitária de matrizes, 394 racional de matriz, 304
de transformações lineares, 454 sesquilinear, 407
Escalar, 2 Formas canônicas elementares, 232
Espaço, 40 Fórmula:
característico, 233 da dimensão, 55-56
com produto interno, de interpolação de Lagrange, 158
. 345
dual, 125 de Taylor, 164,340
euclidiano, 354 FunçãB, 493
linha, 48 determinante, 179-180, 183
quociente, 501 idêntica, 495
solução, 44 inversível, 495
unitário, 354 linear, 86,123, 371,
vetorial, 35 multilinear, 210-211·
de dimensão finita, 5 1 n-linear, 180
de funções·polinomiais, 38 alternada, 183, 186
de n-uplas, 36 polinomial, 38
512 - (NO/CE ALFAB!:T/CO

Funcional linear,123 M

G Matriz(es), 7
Grau,118 anti-simétrica,206 (Ex. 8),269
de forma multilinear, 211 associada,293
de polinômio, 151 auto-adjunta,44,401
Grupo, 104 completa, 17
comu tativo, 105 das coordenadas,ó4
de Lorentz, 486 de forma,411
linear geral, 392 de forma bilinear,.463
ortogonal,485 de transformação linear,112,113
pseudo-ortogonal, 485 em relação a uma base ortonormal,
que conserva formas bilineares, 483 376-377
simétric9,195 de Vandermonde, 158
do produto interno, 351
H dos coeficientes,7
dos cofatores,201
Hiperplano,129, 139 elementar,25,323
de Jordan,314
hermitiana (ver: Matriz auto-adjunta)
Ideal,166 inversível, 27,203
principal,166 linha-reduzida, 11
Identidades de polarização,350,468 à forma em escada, 14, 70
Imagem, 90 nilpotente,312
de função,494 normal, �03
de transformação linear, 90 nula, 13
Independência linear,50,59 ortogonal,207 (Ex. 8), 485
Inteiros, 3 positiva,419
positivos,3 semelhantes, 120
Interpolação,157 simétrica,44,269
Interseção,492 triangular, 197 (Ex. 5)
de subespaços,43 superior, 34
Inversa: unidade,11
de função, 495 unitária,207 (Ex. 8), 389
de matriz,27,203 Máximo divisor comum,169
Inverso: Menores principais de matriz, 415
à direita, 27 Módulo,208
à esquerda, 27 dual, 210
Isomorfismo, 107 finitamente gerado, 209
de espaços com produto interno, 384 livre, 209
de espaços vetoriais,107 Movimento rígido, 396 (exerc. 14)
Mudança de base,115
L Multiplicidade,165

Linearmente:
dependente,50, 59 N
independente, 50, 59
Linha-equivalência,9 n-upla,36
Linha-equivalente, s : 10, 323 Norma,349
{ND/CE ALFABtTICO - 513

Núcleo, 90 de matriz, 147


Nulidade de uma transformação linear, 90 de módulo, 209
Números: de transformação linear, 91
complexos, 2, 38 linha, 70,91,145
racionais, 3 Processo de Gram-Schmidt, 358, 369
reais, 2 Produto:
de matrizes, 21, 113
o de permutações, 194
de transformações lineares, 98
Operações elementares: exterior, 223, 226
sobre colunas, 32, 328 interno, 345, 3/!4, 406
sobre linhas, 7, 327 canônico, 346, 34 7
Operador linear, 97 (ver tambt!m:Trans- tensorial, 213
formação linear) Projeção, 269
auto-adjunto, 382,389 ortogonal, 365, 425
diagonalizável, 236
hermitiano (ver: Operador auto­ R
adjunto)
não-negativo, 419, 435 Raíz:
nilpotente, 284 de famfüa de operadores, 437
normal, 398 de polinômio, 163
positivo, 419 quadrada, 436
semi-simples, 335 Regra:
unitário, 388 de Cramer, 205
Ortogonalização, 358 do paralelogramo, 352 (Ex. 6 -

exerc. 9)
p Relação, 498
de equivalência, 498, 506
Parte diagonalizável de operador linear, Relativamente primos, 169
283 Resolução:
Permutação, 192 do operador idêntico, 429, 435
de grau, 192 espectral, 428, 435
par, Ímpar, 193 Restriçã(), 496
Polinômio, 148, 151 de função, 496
característico, 234 de operador, 256
constante, 151 Reunião, 492
irredutível (primo), 171 Rotação, 68, 395 (Ex. 28 - exerc. 4)
minimal, 245
de matriz, 245 s
de operador linear, 245
primo, 171 Semelhança de matrizes, 120
redutível, 171 Seqüência de vetores, 56-57
unitário, 151 Série formal de potência, 150-151
Polinômios anuladores, 244 Símbolo de Kronecker, 11
Posto, 90, 145 Sinal de permutação, 193
coluna, 91,145 Sistemas de equações lineares, 4
de determinante, 207 (Ex. 8) homogêneas, 4
de forma bilinear, 465 Sistem,as equivalentes de equações, 5
5.14 - (Noit:E ALFABtTICO .

Sobrejetora, 494 de transformação linear, 134


Soma, 46 Transformação:
de subespaços, 43 de Lorentz, 397 (exerc. ·15), 486
direta, 269, 273 derivação, 85
das matriz!'ls, 274·_ idempotente (ver: projeção)
dos operadores, 273 linear (ver tambtm: Operador linear),
invariante, 273 85, 96-97, 114
Subconjunto, 492 auto-adjunta, 382, 401
invariante, 497 diagonalizável, 236
próprio, 492 inversível, 100
Subcorpo,� não-negativa, 419, 435
Subespaço(s), 43, 254 não-singular, 101
admissível, 296 nilpotente, 284
anuladores, 290 normal, 398
cíclico, 290 ortogonal, 390
disjuntos (ver: Subespaços indépen- positiva, 419
dentes) quociente, 501
gerado por, 45 semi-simples, 337
independentes, 267 triangulável, 259, 403
invariante, 254, 264, 401 unitária, 388, 454
nulo, 44 nula, 85
quociente, 501 Transformada de Cayley, 395 (exerc. 7)
suplementar, 295 Transposta:
ortogonal, 364 conjugada, 347
T-admissível, 296 de matriz, 147
Submatriz, 207 (Ex. 8) de transformação linear, 142
Suplementar
. ortogonal
. de subespaço, 364 Triangulação, 264, 425
simultfinea, 264

T
u

T-admissível, 296
Unicidade dos determinantes, 190
T-anulador, 258,291
T-condutor, 258, 259, 299
Tensor, 211 V
Teorema:
da decomposição cíclica, 297 Valor. i:araçterístico,233, 234
da decomposição primária, 280, 28l Vetor(es), 36 /

de Cayley-Hamilton, 2Sl, 294, 303 característico, 233


do eixo principal, 412 cíclico, 290
·

espectral, 427 linha, 48


fundamental da álgebra, 175 ortogonais, 356, 468
generalizado, 303 separador, 310 (Ex. 4 - exerc. 14)
Teoria espectral, 427
Traço:· z
de matriz, 124
de operador linear,.135 Zero de polinômio, 163

1 Composto em Univen pelo impreao na


PfOCftfO de Composiçlo GRÁFICA PORTINHO CAVALCANTI LTOA.
i:Jt
.
· Eletrônica - 1 BM no Setor de Comp�içio .de Rue lr.inaU Marinho, 30 - s/loja 206
LIVROS TECNICOS E CIENTl"FlCOS EDITORAS.A. TeL: 224-7732.(PABXI
- -�iode J.aneiro - Brnit ·
Ato de Joneiro ·- AJ

Você também pode gostar