Você está na página 1de 73

Prontuario de

lgebra Linear e Geometria Analtica


A

R. Albuquerque

14 de Fevereiro de 2013
Prontuario de


Algebra Linear e Geometria Analtica

Segunda versao

Rui Albuquerque
rpa@uevora.pt

Departamento de Matematica da Universidade de Evora

Rua Romao Ramalho, 59, 7000-671 Evora, Portugal

Introduc
ao

Estes apontamentos serviram de guia `a disciplina Algebra Linear e Geometria
Analtica das licenciaturas em areas da Engenharia e da Fsica da Universidade de

Evora do ano lectivo 2008/09. A materia segue a das aulas teoricas, complementada
com exemplos e problemas novos.
Percorrem-se diversos temas da algebra ligados `a geometria dos espacos vec-
toriais e das aplicacoes lineares, estruturas fundamentais da Fsica-Matematica-
Engenharia.
2

Desejamos cumprir objectivos praticos e concretos de transmissao do conheci-


mento. Todavia, queremos que estas notas contrariem, ou mesmo nao permitam, a
reducao da materia a um punhado de receitas e a desvalorizacao do saber teorico.
E por duas razoes: nem o conhecimento pratico sera sempre u til, nem o saber
teorico ocupa assim tanto lugar, parafraseando o celebre adagio popular.
O conhecimento teorico devera ser alias o esteio de toda a formacao cientfico-
tecnica de base.
Vemos a necessidade, como em qualquer outra disciplina nuclear da Matematica,
de demonstrar os teoremas e proposicoes que vamos escrevendo. Estas demon-
stracoes apoiam-se em definicoes e, naturalmente, em teoremas e proposicoes anteri-
ores. Assumimos de conhecimento do leitor outras teorias ou delas uma ligeirssima
parte, como a dos conjuntos, da logica, da geometria euclidiana ou dos n umeros
naturais.
Explicada a extensao aparente do conte udo, deve o leitor acompanhar-se de uma
folha de papel e lapis para resolver algumas afirmacoes nao provadas aquelas
que sao apenas auxiliares de objectivos maiores ou que julgamos serao exerccios
interessantes.
Vejamos um resumo dos captulos.
Comecamos com a algebra abstracta, que tem algumas definicoes essenciais para
a parte linear da materia. Sao particularmente importantes a nocao de funcao e
a nocao de grupo, que desde cedo devem ser assimiladas. Outras definicoes neste
primeiro captulo servem apenas para ilustrar problemas com que os matematicos se
debatem, esperando que este contacto traga mais luz que permita ao leitor superar
alguns dos purismos que a teoria exige.
Segue-se o estudo das matrizes e dos sistemas de equacoes lineares, onde reina o
espaco vectorial Rn posto que nos limitamos a coeficientes reais. Para os sistemas,
invocamos princpios classicos de equivalencia ou indepedencia de equacoes. Para
levar `a compreensao da nocao de caracterstica de uma matriz e `a de indepedencia
linear de um sistema de vectores.
Neste contexto segue o captulo dos determinantes para matrizes quadradas de
coeficientes em R. Apoia-se em elementos da teoria dos grupos de permutacoes.
Depois vemos as propriedades multilineares da funcao determinante, a linguagem
que permitira o aluno interessado prosseguir em Geometria-Fsica modernas.

O cerne da Algebra Linear encontra-se no captulo quatro, com a introducao e
manuseio dos conceitos de espaco vectorial e aplicacao linear.
Mesmo em dimensao finita, em que escolhida uma base poderemos fazer a iden-
tificacao de um dado espaco vectorial com Rn , os conceitos abstractos sao os mais
valiosos. Sao as bases e a dimensao do espaco, a partir da nocao fundamental de
sistema de vectores linearmente indepedente, sao os exemplos em dimensao infinita,
e o retorno `as matrizes com o importante conceito de representacao e sao, final-
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 3

mente, as transformacoes lineares entre espacos vectoriais e a procura de vectores


proprios, como direccoes singulares que sao, de um endomorfismo linear.
No captulo cinco mostramos aplicacoes na geometria do espaco euclidiano Rn ,
com o seu produto interno canonico: o mais elementar produto interno decorre da
generalizacao do teorema de Pitagoras. E de notar que nesse modelo se verifica o
axioma das paralelas para hiperplanos afins. Temos por isso tambem uma geometria
euclidiana no sentido axiomatico.
Apresentamos uma classificacao dos solidos platonicos, exemplo da geometria
analtica e combinatoria nao usual no contexto de cursos como este. Por muitos
considerada uma autentica maravilha da matematica, aqueles solidos poliedricos,
infelizmente, ainda sao pouco conhecidos dos estudantes. A nossa necessidade de
referir os poliedros vem de uma seccao final, em que se define volume como area
da base vezes altura, a qual tem m ultiplas aplicacoes e literalmente nos permite
fechar o crculo, retornando `as matrizes e aos determinantes de captulos iniciais.
Na elaboracao deste prontuario fizemos uso dos manuais dos nossos mestres,
[Agu83], [Mac90] e [Mon89], e de outras gratas referencias para nos como a de
[Aud03].
Tambem beneficiamos da consulta `a enciclopedia [Wik] e assim podera e devera
acontecer, acautele-se a falta de demonstracoes, com o leitor avido de mais con-
hecimento.
Conte
udo

1 6
1.1 Topicos elementares da Teoria dos Conjuntos . . . . . . . . . . . . 6
1.1.1 Primeiras nocoes . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.2 Relacoes de equivalencia . . . . . . . . . . . . . . . . . . . . 7
1.1.3 Funcoes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 Topicos de Estruturas Algebricas . . . . . . . . . . . . . . . . . . . 9
1.2.1 Grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.2 Aneis e Corpos . . . . . . . . . . . . . . . . . . . . . . . . . 11

2 14
2.1 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.1 Primeiras definicoes . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.2 Matrizes especiais . . . . . . . . . . . . . . . . . . . . . . . . 16
2.1.3 Transposta . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Sistemas de Equacoes Lineares . . . . . . . . . . . . . . . . . . . . . 18
2.2.1 Metodo de resolucao pela adicao ordenada . . . . . . . . . . 18
2.2.2 Condensacao de uma matriz . . . . . . . . . . . . . . . . . . 19
2.2.3 Estudo dos sistemas . . . . . . . . . . . . . . . . . . . . . . 20
2.3 Espaco Euclidiano . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.1 O espaco vectorial Rn ou espaco euclidiano . . . . . . . . . . 21
2.3.2 Independencia linear . . . . . . . . . . . . . . . . . . . . . . 22
2.4 A caracterstica e a inversa de novo . . . . . . . . . . . . . . . . . . 23
2.4.1 Caracterstica de linha vs caracterstica de coluna . . . . . . 23
2.4.2 Calculo da inversa . . . . . . . . . . . . . . . . . . . . . . . 25

3 27
3.1 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.1.1 Grupos de permutacoes . . . . . . . . . . . . . . . . . . . . . 27
3.1.2 Definicao de determinante . . . . . . . . . . . . . . . . . . . 29
3.1.3 Propriedades do determinante . . . . . . . . . . . . . . . . . 29
3.1.4 Calculo de determinantes . . . . . . . . . . . . . . . . . . . . 31
3.1.5 Regra do produto . . . . . . . . . . . . . . . . . . . . . . . . 32
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 5

3.2 Regra de Laplace e aplicacoes . . . . . . . . . . . . . . . . . . . . . 34


3.2.1 Regra de Laplace . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.2 A matriz adjunta . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.3 Regra de Cramer . . . . . . . . . . . . . . . . . . . . . . . . 37

4 39
4.1 Espacos vectoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.1.1 Definicoes e exemplos . . . . . . . . . . . . . . . . . . . . . . 39
4.1.2 Bases e dimensao . . . . . . . . . . . . . . . . . . . . . . . . 40
4.1.3 Soma cartesiana e soma directa . . . . . . . . . . . . . . . . 42
4.2 Aplicacoes lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2.1 Definicoes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2.2 Representacao matricial . . . . . . . . . . . . . . . . . . . . 44
4.2.3 Composicao vs produto . . . . . . . . . . . . . . . . . . . . 46
4.2.4 Valores e vectores proprios . . . . . . . . . . . . . . . . . . . 48
4.2.5 Matrizes semelhantes . . . . . . . . . . . . . . . . . . . . . . 50

5 52
5.1 Geometria do Espaco Euclidiano . . . . . . . . . . . . . . . . . . . . 52
5.1.1 Produto interno euclidiano . . . . . . . . . . . . . . . . . . . 52
5.1.2 Ortogonalidade . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.1.3 Subespacos afins . . . . . . . . . . . . . . . . . . . . . . . . 56
5.1.4 Problemas metricos em subespacos afins . . . . . . . . . . . 57
5.2 Geometria de R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.2.1 Equacoes de rectas e planos . . . . . . . . . . . . . . . . . . 59
5.2.2 Algumas formulas de distancias . . . . . . . . . . . . . . . . 60
5.2.3 Polgonos e poliedros . . . . . . . . . . . . . . . . . . . . . . 61
5.2.4 Comprimentos, areas e volumes . . . . . . . . . . . . . . . . 65
Captulo 1

1.1 T
opicos elementares da Teoria dos Conjuntos
1.1.1 Primeiras noc
oes
Ami ude necessitamos de referir aquilo que se conhece como conjuntos e descrever
as suas relacoes, que se entendem como relac
oes que os elementos desses conjuntos,
e de outros, satisfazem entre si.
Os conjuntos designam-se por letras: A, B, C, .... Se escrevemos x A, quere-
mos dizer que x pertence a A ou, o que e o mesmo, x e elemento de A.
Novas relacoes/notacoes: chamamos intersec c
ao e reuniao, respectivamente,
aos conjuntos

A B = {x : x A e x B}, A B = {x : x A ou x B}. (1.1)

Ao dizermos A e subconjunto de B, em smbolos, A B, significamos que x


A, x B.
O conjunto B \ A e o conjunto {x : x B e x / A}. Sabendo, de antemao,
o universo a que todos os elementos pertencem, podemos escrever e designar por
complementar de B o conjunto B c = {x : x / B}.
Poder-se-a pensar tambem no conjunto vazio como o complementar do uni-
verso. E o conjunto sem elementos.
Da logica bivalente (logica natural construda ao longo da evolucao humana de
milhoes de anos), resultam as seguintes leis de Morgan:

Ac B c = (A B)c Ac B c = (A B)c . (1.2)

Claro que (Ac )c = A, donde a segunda lei tambem resulta da primeira.


Outras construcoes importantes de conjuntos sao, por exemplo, o produto
cartesiano de A e B:

A B = {(a, b) : a A, b B}. (1.3)

Os novos elementos (a, b) chamam-se pares ordenados.


Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 7

Note-se que nem todos os subconjuntos de A B podem ser escritos, de novo,


como produtos cartesianos de subconjuntos de A e B. Por exemplo, tal e o caso da
diagonal de um conjunto A, ou seja, (A) = {(a, a) A A : a A}, a qual e
distinta de A A se A tem mais do que um elemento.
Claro que (A B) C = A C B C. E analogamente para no lugar de
.

1.1.2 Rela
coes de equival
encia
Algum tipo de relacoes entre elementos de um ou varios conjuntos e particular-
mente u til na conceptualizacao de novas propriedades e distincoes. Por exemplo,
a relacao de ordem total em R esta intrnsecamente ligada aos fundamentos da
Analise Matematica.
Tratamos, neste momento, das relacoes de equivalencia, as quais decompoem
um dado conjunto X em classes de equivalencia. Lembremos que uma rela c
ao
consiste numa determinada escolha de pares ordenados. Dizemos que uma relacao
em X e uma relac ao de equival encia se:

x X, x x (reflexividade),
x X, x y y x (simetria), (1.4)
x, y, z X, x y & y z x z (transitividade).

Claro que as tais classes de equival


encia sao dadas por um representante: Cx =
{y : y X e x y}. Note-se que o papel de x e mesmo e apenas o de representante
facil ver que:
da sua classe. E

Cx Cx1 6= x x1 . (1.5)

Com efeito, se y : x y e x1 y, entao pela simetria e transitividade vem x x1 .


E recprocamente.
Assim, neste tipo de relacoes, as classes ou nao se tocam, ou sao as mesmas.
Mais ainda, qualquer decomposicao de um dado conjunto Z como uniao de
subconjuntos nao vazios e disjuntos dois-a-dois,
[
Z= Z , tal que Z Z0 = , 6= 0 , (1.6)

da origem a uma u
nica relacao de equivalencia em Z, a saber:

x y : x, y Z . (1.7)

O conjunto dos s, isto e, formado como o conjunto das classes de equivalencia,


denota-se por Z/ .
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 8

1.1.3 Fun
coes
Conceito fundamental em matematica e o de funcao, um dispositivo que estabelece
uma correspondencia entre um dado conjunto X, chamado de partida, e outro
conjunto Y , dito de chegada. Tambem se chama a uma funcao uma aplica cao.
Denota-se por
f : X Y, x X 7 y = f (x) Y. (1.8)
Uma tal correspondencia so e uma fun ao quando a cada x X, um objecto, se
c
atribui um, e um so, valor ou imagem y = f (x) Y .
A funcao diz-se injectiva se, para xs distintos em X, f atribui valores f (x)s
tambem distintos. Formalmente,

x1 , x2 X, x1 6= x2 = f (x1 ) 6= f (x2 ). (1.9)

Logicamente, esta afirmacao e equivalente a

x1 , x2 X, f (x1 ) = f (x2 ) = x1 = x2 . (1.10)

A funcao e sobrejectiva se todo o y e imagem de algum x por meio de f :

y Y, x X : y = f (x). (1.11)

A funcao e bijectiva se for injectiva e sobrejectiva. Neste caso pode-se definir


uma funcao chamada de inversa, a saber, a funcao f 1 : Y X dada por

y Y, o valor de f 1 (y) e o u
nico x : f (x) = y. (1.12)

Necessitamos, com frequencia, de outras formas de obter novas funcoes.


Podemos compor duas funcoes dadas f : X Y e g : Z W , por certa ordem,
desde que, por exemplo, Y, Z tenham pontos em comum. Obtemos, com efeito, a
funcao composta g f : X 0 W definida por (g f )(x) = g(f (x)) e onde X 0 e o
domnio onde faz sentido essa mesma expressao, isto e,

X 0 = {x X : f (x) Z}. (1.13)

Dado um conjunto X chamamos funcao identidade a 1X : X X, 1X (x) = x.


Uma funcao f : X Y tem uma inversa ` a esquerda, isto e, g : Y X tal
que g f = 1X se, e so se , f for injectiva.
1

Uma funcao f : X Y tem uma inversa ` a direita, isto e, h : Y X tal


que f h = 1Y sse f for sobrejectiva.
As duas afirmacoes anteriores sao exerccios para o leitor. Delas se conclui, no
caso em que f e bijectiva, h = g = f 1 .
1
Daqui em diante, como abreviatura de se, e so se, tomamos sse. Significa o mesmo que
equivalente.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 9

Uma relacao bem estabelecida entre um par de conjuntos2 e a seguinte, denotada


':
A'B sse existe funcao bijectiva entre A e B. (1.14)
Trata-se de uma relacao de equivalencia, como e facil provar.
Outras identificacoes se podem naturalmente estabelecer. Por exemplo, para
tres conjuntos dados, tem-se A (B C) = (A B) C.

1.2 T
opicos de Estruturas Alg
ebricas
1.2.1 Grupos
A nocao algebrica simultaneamente mais elementar e necessaria e a de grupo.
Um conjunto G munido de uma operacao binaria

G G G, (a, b) 7 ab, (1.15)

que satisfaz

- associatividade : a, b, c G, (ab)c = a(bc),


- existe elemento neutro : e G : a G, ae = ea = a, (1.16)
- todos os elementos tem inverso : a G, b G : ab = ba = e,

chama-se um grupo.
Prova-se facilmente que o elemento neutro e u nico e que o inverso de cada
elemento tambem e u nico. O truque esta, em ambos os casos, em comecar por
supor que existem dois elementos e acabar por chegar a um absurdo.
Usamos acima a notacao multiplicativa. Por vezes usa-se a aditivia. Na primeira
notacao, o elemento neutro designa-se por e ou por 1. Na segunda, por 0. Na
primeira notacao, o inverso de a denota-se por a1 , e na segunda denota-se por a
e chama-se oposto ou sim etrico de a.
Exemplos:

1. (R, +) e um grupo com a operacao de adicao + usual.

2. (R \ {0}, ) e um grupo com a operacao de multiplicacao usual.

3. Seja dado um conjunto X e seja

G := A(X) = {f : X X| f e bijectiva} (1.17)

o conjunto das funcoes bijectivas de X para X. Entao G e um grupo se


tomarmos como operacao a composicao de funcoes. Com efeito, se f, g G,
2
Evitemos desde j
a o paradoxo que consiste em tomar o conjunto de todos os conjuntos.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 10

entao f g tambem esta em G porque tambem e uma funcao bijectiva. Vejamos


a associatividade: duas funcoes com o mesmo espaco de partida e de chegada
sao iguais se, a cada objecto, fazem corresponder a mesma imagem. Entao,
por definicao, tomando um terceiro elemento h G e qualquer x X,

(g f ) h (x) = (g f )(h(x)) = g(f (h(x))) = g (f h) (x).

Donde (g f )h = g (f h), como queramos. Agora, o elemento neutro de G


e naturalmente a funcao identidade 1X . E o inverso de f coincide exactamente
com a funcao inversa, como se esperava.

Nos grupos dos exemplos 1 e 2 acima, as operacoes, bem conhecidas, sao comu-
tativas.
Um grupo G qualquer diz-se comutativo ou abeliano se

ab = ba, a, b G. (1.18)

O exemplo 3 de ha pouco nao e comutativo em geral. Repare-se no grupo de


permutac oes de n N elementos, ou grupo sim etrico Sn , o qual consiste no
grupo A(X) com X = {1, 2, 3, . . . , n}. E simples concluir que A(X) = Sn tem n!
elementos.
Se n 3, entao aquele grupo nao e comutativo. Basta pensar nas seguintes
funcoes (em cima estao os objectos, em baixo as respectivas imagens):
! !
1 2 3 1 2 3
f= , g= , (1.19)
1 3 2 2 1 3

admitindo ainda que f, g fixam todos os i 4. Resulta entao


! !
1 2 3 1 2 3
f g = , gf = (1.20)
3 1 2 2 3 1

onde se rende explcita a falta de comutatividade.


Ha muitos mais grupos nao comutativos que comutativos.
Ha exemplos, como o de grupo de permutacoes, que explicam muito. Veja-se o
seguinte teorema celebre.

Teorema 1 (Cayley). Todo o grupo G e subgrupo de um grupo de permutac


oes.

A nocao de subgrupo e a de um subconjunto que herda a estrutura do grupo


em que esta contido. Portanto, um subconjunto fechado para a operacao do grupo
e para a passagem ao inverso.
Vejamos a demonstracao do teorema de Cayley.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 11

Demonstracao. Com efeito, a cada g G associamos a seguinte permutacao Lg do


proprio grupo G: Lg : G G, Lg (h) = gh. Vem entao que

Lg1 g2 (h) = g1 g2 h = Lg1 (Lg2 (h)) = Lg1 Lg2 (h), g1 , g2 , h G (1.21)

pelo que a estrutura da imagem de L como subgrupo de A(G),

L : G A(G), g 7 Lg , (1.22)

e a mesma estrutura de G, pois que L e injectiva como se podera verificar.

Note-se que a aplicacao L esta subjacente no enunciado do teorema de Cayley.


Raramente, claro, a aplicacao L e sobrejectiva.

1.2.2 An
eis e Corpos

A nocao que se segue e muito rica, ainda que dispensavel num curso de Algebra
Linear.
Seja A um conjunto munido de duas operacoes, + e vezes , tais que

- (A, +) e grupo comutativo


- a operacao e associativa
(1.23)
- dao-se as propriedades distribuitivas:
a(b + c) = ab + ac, (a + b)c = ac + bc, a, b, c A.

Dizemos entao que A e um anel. Se e comutativa, o anel A diz-se comutativo


ou abeliano. Se existe elemento neutro 1 da multiplicacao, o anel diz-se unit ario.
(Z, +, ) e o exemplo primario. Nao menos o sao o anel dos n umeros pares,
2Z, ou os m ultiplos de 3, ou 4, etc... Os aneis kZ = {kn : n Z} sao todos
comutativos, mas so Z e unitario.
Outro exemplo menos trivial e o anel de funcoes RX , onde X e um espaco fixado
de incio.
RX = {f : X R} (1.24)
tem soma e produto de funcoes bem definidos: f1 , f2 RX , f1 +f2 e f1 f2 definem-
se obviamente por

(f1 + f2 )(x) = f1 (x) + f2 (x), (f1 f2 )(x) = f1 (x)f2 (x). (1.25)

RX e um anel e provara a sua utilidade mais `a frente.


Nos aneis unitarios poe-se a questao de saber quais sao os elementos invertveis
para a multiplicacao. Mais ainda, um tal anel A contem um grupo U A consti-
tudo pelos elementos invertveis. Por exemplo, o anel Z tem U = {1, 1}. Ja o
anel Q tem U = Q \ {0}.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 12

claro que 0 nunca sera invertvel: prova-se que 0 a = 0, a A.


E
Um anel K comutativo, unitario e com U = K \ {0} chama-se um corpo.
Sao exemplos de corpos: Q, R, C.
Nos corpos vale a lei do anulamento do produto:

ab = 0 = a = 0 ou b = 0. (1.26)

Tambem so nos corpos podemos invocar em geral a lei do corte:

ax = b x = a1 b. (1.27)

Estas leis demonstram-se com grande facilidade. Veremos em seguida que ha corpos
finitos.
Um famoso teorema de Euclides garante que, se tivermos dois n
umeros inteiros
m, n, entao existem dois n
umeros inteiros unicos q e r (chamados quociente e
resto) tais que
0 r n 1 e m = qn + r. (1.28)
Dizemos que r e o resto de m mod n. Se somarmos ou multiplicarmos dois m1 , m2
Z, temos

m1 + m2 = (q1 n + r1 ) + (q2 n + r2 ) = (q1 + q2 )n + (r1 + r2 ),


(1.29)
m1 m2 = (q1 q2 n + r1 q2 + q2 r1 )n + r1 r2
Entao vemos que o resto da soma e do produto mod n e o mesmo que o resto mod n
da soma e do produto dos restos, respectivamente.
trivial verificar agora que as operacoes de + e vezes habituais, mas com
E
ns fora, verificam todas as propriedades de anel, pois elas provem das respectivas
propriedades do anel dos inteiros. Assim, prova-se o

Teorema 2. O conjunto dos restos Zn = {0, 1, . . . , n 1} e um anel com a soma


e o produto acima.

Da-se a Zn o nome de anel dos restos mod n.


Por exemplo, o anel Z5 tem as seguintes tabelas de operacoes:

+ 0 1 2 3 4 0 1 2 3 4
0 0 1 2 3 4 0 0 0 0 0 0
1 1 2 3 4 0 1 0 1 2 3 4
(1.30)
2 2 3 4 0 1 2 0 2 4 1 3
3 3 4 0 1 2 3 0 3 1 4 2
4 4 0 1 2 3 4 0 4 3 2 1

Curiosamente, ve-se que x2 = 3 nao tem solucoes mod 5, ou seja em Z5 . Ha entao


lugar para um estudo de novo tipo de equacoes algebricas.
Um resultado importante nesta teoria finaliza o nosso captulo.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 13

Teorema 3. Zn e corpo sse n e n


umero primo.

Demonstracao. Suponhamos que Zn e corpo e que ab = n, com 1 < a, b < n. Mas


isto e o mesmo que ab = 0 mod n e entao, valendo a lei do corte, resulta a = 0 ou
b = 0, o que e absurdo. Assim, n nao tem divisores proprios, ie. e primo.
Suponhamos recprocamente que n e primo. Entao para cada a Z\0 ha sempre
solucoes inteiras x, y de ax + ny = 1 (tal decorre recursivamente do algoritmo
de Euclides, o poder escrever-se assim o mdc de dois quaisquer inteiros a e n).
Obviamente, em Zn temos ax + ny = ax = 1 mod n, pelo que todos os elementos
a Zn \ 0 tem inverso. E estao verificadas as condicoes para termos um corpo.
Captulo 2

2.1 Matrizes
2.1.1 Primeiras defini
coes
Damos o nome de matriz a uma tabela A = [aij ]i=1,...,p com entradas ou coefi-
j=1,...,q
cientes1 aij R.
O ndice p e o n
umero de linhas e q o de colunas. Denotamos

a11 a12 a1q
a21 a22 a2q

A= . .. .. . (2.1)
.. . .
ap1 ap2 apq

p e q sao as dimens
oes da matriz A. Faz jeito chamar

Mp,q = {A : A e uma matriz de p linhas e q colunas}. (2.2)

O interesse das matrizes esta, como veremos mais tarde, na representacao das
aplicac
oes lineares que elas possibilitam.
A estrutura de grupo de (R, +) passa automaticamente para Mpq . Dadas quais-
quer matrizes A, B Mpq , sendo A = [aij ] e B = [bij ], i = 1, . . . , p, j = 1, . . . , q,
temos por definicao
A + B = [aij + bij ], (2.3)
permanecendo em Mpq .
Se R, entao denotamos por A a matriz [aij ], com as mesmas dimensoes.
Em seguida definimos a multiplica c
ao de duas matrizes. Tambem aqui ha
uma condicao nos ndices. Esta operacao tem uma ordem. Logo pomos uma matriz
`a esquerda e outra `a direita, como um par ordenado, e a condicao e que, para as
multiplicarmos, a da esquerda deve ter n umero de colunas igual ao n
umero de linhas
da da direita.
1
Poderamos deixar estes aij pertencerem a um corpo K ou mesmo um anel qualquer previa-
mente fixado, mas aqui prosseguimos apenas com matrizes reais.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 15

Assim

Mpq Mql Mpl


(2.4)
(A, B) 7 AB.

Atente-se bem no espaco de chegada, aquele onde aparece o resultado. O produto


M = AB define-se entao como segue: pondo M = [ij ]i=1,...,p , temos
j=1,...,l

X
q
ij = ai1 b1j + + aiq bqj = aik bkj . (2.5)
k=1

Prova-se facilmente que esta multiplicacao e associativa: se A, B sao como acima


e C Mlr , entao estamos habilitados a fazer tanto (AB)C como A(BC). Com
alguma surpresa, tem-se entao

(AB)C = A(BC). (2.6)

Com efeito, sendo M = AB = [st ]s=1,...,p e BC = [uv ]u=1,...,l , o elemento generico


t=1,...,l v=1,...,r
de ndice (s, v) do produto do lado esquerdo de (2.6) e igual a

X
l X
l X
q
X
q
X
l X
q
st ctv = (ask bkt )ctv = ask (bkt ctv ) = ask kv . (2.7)
t=1 t=1 k=1 k=1 t=1 k=1

Usamos a associatividade e distributividade dos n umeros reais para reagrupar as


parcelas. O resultado a que se chegou representa o elemento generico de ndice
(s, v) do produto do lado direito de (2.6), ou seja A(BC).
Outra propriedade valida e a distributividade `a esquerda e `a direita: se A, B
Mpq e C, D Mql , entao

A(C + D) = AC + AD
(2.8)
(A + B)C = AC + BC.

Note que as igualdades fazem sentido no computo das dimensoes das matrizes. A
demonstracao daquelas igualdades e trivial.
Exemplos:

" # 4 5 3 " #
2 3 1 13 20 21
1 2 5 = , (2.9)
2 0 1 6 6 6
2 4 0

h i 2 2 h i 4 6 8

2 3 4 3 = 9, 3 2 3 4 = 6 9 12 . (2.10)
1 1 2 3 4
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 16

Como se ve, as matrizes nao permutam no produto. Dizemos que duas matrizes
dadas A e B permutam ou comutam se AB = BA. Isso nao acontece em geral,
mesmo se forem quadradas.
E importante notar que Mpp , chamado o espaco das matrizes quadradas, e
uma anel com a soma e produto introduzidos, pois tal espaco e fechado para o
produto. O ndice de linhas p igual ao ndice de colunas tambem se diz a ordem
de cada matriz quadrada.
Repare-se agora que, para qualquer matriz A Mpq ,

1 0 0
0 1 a a a a
0
11 1q 11 1q
.. ..
. . = . , (2.11)
.. 0
ap1 apq ap1 apq
0 0 1

1 0 0
a11 a1q a a
0
11 1q
.. 0 1 ..
. . = . . (2.12)
.. 0
ap1 apq ap1 apq
0 0 1
Uma matriz quadrada D = [dij ] de ordem p diz-se diagonal se dij = 0, i 6= j.
Chamamos matriz identidade, e denotamo-la por 1p , `a matriz diagonal que tem
dii = 1, i = 1, . . . , p.
As formulas (2.11,2.12) reescrevem-se portanto como

1p A = A e A1q = A. (2.13)

No caso das matrizes quadradas temos, em particular, um elemento neutro da


multiplicacao. Destaca-se assim o

Teorema 4. O espaco das matrizes quadradas Mpp e um anel unitario.

Neste espaco nem sequer se da a lei do anulamento do produto. Veja-se o caso:


" #" # " #
0 1 1 0 0 0
= . (2.14)
0 0 0 0 0 0

2.1.2 Matrizes especiais


claro que o espaco das matrizes Mm,n , como tabelas de n
E umeros reais, se identifica
com R . O leitor podera identificar neste grande espaco mais do que um simples
mn

produto cartesiano. Ha uma estrutura de espaco vectorial o que sera trivial de


verificar quando explicarmos do que tal se trata.
Uma matriz A Mmn diz-se invertvel ` a esquerda se existe B Mnm tal
que BA = 1n .
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 17

Uma matriz A Mmn diz-se invertvel ` a direita se existe C Mnm tal que
AC = 1m .
Uma matriz diz-se invertvel se o for `a esquerda e `a direita. Neste caso prova-se
facilmente que B = C e que a matriz A tem de ser quadrada2 , n = m. A matriz
nica B = C denota-se por A1 :
u

AA1 = A1 A = 1n . (2.15)

Com efeito, o inverso, quando existe, e u


nico. Aqui poderamos falar do grupo das
matrizes invertveis.
Em particular tem-se a regra de inversao do produto:

A, B Mnn invertveis = (AB)1 = B 1 A1 . (2.16)

Outro tipo de matrizes especiais sao as triangulares superiores:

T = [tij ]i=1,...,m , com tij = 0, j < i. (2.17)


j=1,...,n

Ou seja, T Mmn tem as entradas todas nulas abaixo da diagonal principal (a


diagonal principal de uma matriz P = [pij ] designa os n
umeros pii ).
Tambem se definem matrizes triangulares inferiores: tij = 0, i < j.

2.1.3 Transposta
Dada uma matriz A Mmn , definimos a transposta de A = [aij ]i=1,...,m como a
j=1,...,n
matriz AT Mnm dada por AT = [aTji ]j=1,...,n onde
i=1,...,m

aTji = aij . (2.18)

Prova-se com facilidade que a passagem `a transposta do produto verifica:

A Mmn , B Mnp = (AB)T = B T AT . (2.19)

Claro que (AT )T = A para qualquer matriz A.


1
Se A e invertvel, entao prova-se facilmente que (A1 )T = (AT ) .
Agora, uma matriz diz-se sim etrica se A = AT . Uma matriz diz-se anti-
sim etrica se A = AT .
O primeiro contributo destas nocoes esta na possibilidade de escrever qualquer
matriz quadrada C Mmm como a soma de uma matriz simetrica e de uma anti-
simetrica. Essa decomposicao de C esta em
1  1 
C = C + CT + C CT , (2.20)
2 2
como o leitor verificara.
2
P
Para ver que n = m, sendo AB = 1m e BA = 1n , atente-se a m = i,j ai,j bi,j = n, o calculo
do traco.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 18

2.2 Sistemas de Equa


coes Lineares
2.2.1 M
etodo de resolu
cao pela adi
c
ao ordenada
Vamos agora estudar os sistemas de m equacoes lineares, isto e, do 1o grau, a n
incognitas. Comecemos com um exemplo (m, n) = (2, 3) e sua resolucao.
(
2x + 3y z = 0
(2.21)
x + 4y = 2z

e um sistema possvel indeterminado, o qual se resolve pelo metodo de substituic


ao
como ( ( (
2x + 3y = z z = y
(2.22)
x + 4y = 4x 6y 5x = 10y x = 2y
donde, para cada y R, ha uma solucao (x, y, z) = (2y, y, y).
Outro metodo, chamado de adic ao ordenada, permite resolver o sistema de
forma mais rapida.
Utilizando os princpios elementares de equivalencia de equacoes, percebemos
que se obtem um sistema equivalente a (2.21) se multiplicarmos a segunda equacao,
em ambos os termos, por 2. E o mesmo acontece se adicionarmos ordenadamente
esse resultado `a 1a equacao. Estamos, por hipotese, a adicionar a mesma quantidade
a ambos os termos, pelo que o novo sistema permanece equivalente.
Conseguimos anular os 2x na 1a equacao.
Fazendo ao mesmo tempo o mesmo para a equacao de baixo, usando a de cima
multiplicada por 2 para anular o z, obtem-se:
( ( (
2x + 3y z = 0 5y 5z = 0 z = y
. (2.23)
x + 4y + 2z = 0 5x + 10y = 0 x = 2y

Claro que as operacoes escolhidas foram as que mais rapidamente permitiram anular
alguma variavel. Este metodo tem por isso as suas vantagens sobre o primeiro3 .
Vejamos outro exemplo:


4x + y + z = 0
4x + y + z = 0
4x + y + z = 0
8x + z = 0 2y z = 0 2y z = 0 , (2.24)

4x y = 0
2y z = 0 0=0

e um sistema possvel e indeterminado. E outro exemplo:


( (
4x + y = ... 8x = ...
. (2.25)
4x y = ... 2y = ...
3
Nao e prop
osito de um curso de ALGA a procura do melhor algoritmo de resolucao de sistemas.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 19

Neste caso, quaisquer que sejam os valores nas reticencias iniciais, o sistema e
sempre possvel e determinado. Mas nem sempre e assim. Considere-se o sistema
em x, y: ( (
4x + y = c 4x + y = c
(2.26)
8x + 2y = d 0 = d 2c
Aqui ha claramente duas hipoteses: o sistema e possvel indeterminado se d = 2c,
e impossvel no caso contrario. De qualquer forma o estudo das equacoes indepen-
dentes parte dos coeficientes do lado esquerdo.

2.2.2 Condensa
cao de uma matriz
Em geral, um sistema de m equacoes a n incognitas aparece como

a11 x1 + + a1n xn = b1

.. . (2.27)
.

am1 x1 + + amn xn = bm

Claramente podemos escrever (2.27) em termos matriciais:



a11 a1n x1 b1
.. .. ..
. . = . (2.28)
am1 amn xn bm
e logo sucintamente como
AX = B (2.29)
onde A, X, B tem correspondencia obvia com as matrizes anteriores.
Nunca esquecendo a posicao de cada incognita xi , i = 1, . . . , n, podemos fazer as
adicoes ordenadas sobre as linhas da matriz ampliada [A|B], de um dado sistema,
para o resolver.
Suponhamos, por exemplo, que nos sao dadas as equacoes


x y + z = 0,
x + 3y = 1, . (2.30)

z = 3x + 1 + y

Entao a matriz ampliada, seguida da multiplicacao e adicao ordenada, resulta em



1 1 1 | 0 1 1 1 | 0
L2 L1 , L3 3L1 L2 2L3 , L2 L3
1 3 0 | 1 0 4 1 | 1
3 1 1 | 1 0 2 2 | 1
(2.31)
1 1 1 | 0 1 0 0 | 12
L1 + 2 L2 , 3L2 +2L3
1

0 2 2 | 1 0 6 0 | 1 .
0 0 3 | 1 0 0 3 | 1
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 20

O sistema esta resolvido, x = 12 , y = 16 , z = 13 . Neste caso, a matriz A e quadrada,


pelo que essencialmente fomos ao encontro da sua inversa de modo a obter a solucao
X = A1 B.
Ao metodo anteriormente descrito de resolucao de um sistema da-se o nome de
metodo de Gauss.
Os exemplos acima mostram o uso da condensa c
ao sobre linhas (ou colunas)
de uma matriz, ou seja a adicao e multiplicacao por escalar das linhas (ou colunas)
de uma matriz.
A condensacao sobre as linhas consiste em:

troca de linhas (para obter elementos nao nulos na diagonal principal ou


simplesmente para simplificar calculos)

multiplicacao de uma linha por um escalar nao nulo

substituicao de uma linha por si propria adicionada de um m


ultiplo nao nulo
de outra linha

desenvolver este processo de forma ordenada com vista a encontrar uma matriz
triangular superior.

Tambem se podem escrever as mesmas regras para a condensacao sobre as col-


unas (a qual nao pode ser feita na resolucao de sistemas, pois estaramos a juntar
coeficientes de incognitas diferentes).

2.2.3 Estudo dos sistemas


Dado o sistema (2.29), e imediato concluir que chegamos sempre a um sistema
equivalente do tipo:

11 12 1r 1n | 1
0 22 |

.
0 0 . . |
(2.32)
0 0 rr rn | r

.. .. .
. 0 . 0 | ..
0 0 0 0 | m
com r m, n e os ii 6= 0, i = 1, . . . , r.
Os s resultam da condensacao sobre linhas de A e os s resultam das corre-
spondentes transformacoes sobre B.
O ndice r e o n
umero de equacoes independentes. Chama-se caracterstica
de linha de A. Se para algum i > r, tivermos i 6= 0, entao ha mais equacoes
independentes na matriz ampliada A|B que em A e o sistema e impossvel. Recp-
rocamente, de qualquer sistema impossvel se retira a mesma condicao.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 21

Agora, das primeiras r linhas, ve-se bem que o sistema e possvel determinado
sse r = n; ou seja, indeterminado sse r < n. A n r da-se o nome de grau de
indeterminac ao do sistema (este grau e tambem a dimens
ao do espaco de solucoes
4
do sistema ).
Em resumo, pondo r(A) = n umero de linhas independentes, temos o seguinte
quadro.
r(A) = r(A|B) r(A) < r(A|B)
sistema possvel s. impossvel
(2.33)
determinado indeterminado
sem solucoes
r(A) = n r(A) < n

2.3 Espaco Euclidiano


2.3.1 co vectorial Rn ou espa
O espa co euclidiano
Temos vindo a considerar as linhas de uma dada matriz e a falar da dependencia
linear de um conjunto de linhas. Convem entao considerar o espaco M1,n de tais
linhas (com n colunas) e dar-lhe o destaque que merece.
Damos o nome de espaco euclidiano ao produto cartesiano Rn = R R
(com n factores). Tambem se diz por vezes o espa co cartesiano Rn . Os seus
elementos chamam-se vectores e escrevem-se como n-tuplos ordenados (c1 , . . . , cn ),
portanto com ci R.
A adicao de vectores e a multiplicacao de um vector por um escalar devolvem-nos
um novo vector (essas operacoes sao as mesmas do espaco de matrizes acima):

(c1 , . . . , cn ) + (d1 , . . . , dn ) = (c1 + d1 , . . . , cn + dn ),


(2.34)
(c1 , . . . , cn ) = (c1 , . . . , cn )

ci , di , R, i = 1, . . . , n.
Repare-se agora que uma matriz A Mmn induz uma funcao ou aplicac
ao

A : Rn Rm , X 7 AX (2.35)

Esta aplicacao tem a propriedade de ser linear 5 :

A(X + Y ) = AX + AY, X, Y Rn , , R. (2.36)

Tal resulta da propriedade distribuitiva do produto sobre a soma. Voltaremos a


estas questoes mais tarde.
4
Isto far
a sentido apos a verificac
ao de que o conjunto de solucoes forma um subespaco afim.
5
As func
oes lineares tomam o nome de aplicac oes lineares.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 22

2.3.2 Independ
encia linear
Vimos no estudo dos sitemas de equacoes lineares a necessidade de fazer anular
linhas de uma dada matriz `a custa de outras linhas. Essa possibilidade da lugar a
um conceito em Rn .
Dizemos que um conjunto (ou um sistema) de m vectores do espaco euclidiano
R , ou seja, {L1 , . . . , Lm } Rn , e um conjunto de vectores linearmente depen-
n

dentes se podemos escrever um deles como combina c


ao linear dos restantes, isto
e, se existe um ndice i0 e existem escalares 1 , . . . , i0 1 , i0 +1 , . . . , m R tais
que
Li0 = 1 L1 + + i0 1 Li0 1 + i0 +1 Li0 +1 + + m Lm . (2.37)
Repare-se que passando Li0 para o lado direito de (2.37) obtemos o vector nulo
0 escrito como combinacao linear nao nula de todos os L1 , . . . , Lm .
Uma forma mais simples de dizer o que e a dependencia linear sera pela negativa:
dizemos que m vectores dados L1 , . . . , Lm sao linearmente independentes se se
verifica a condicao:

1 L1 + + m Lm = 0 = 1 = = m = 0. (2.38)

um simples problema logico provar que um conjunto de vectores e linearmente


E
independente sse nao e linearmente dependente.
Exemplos:

1. Um vector L1 isolado e linearmente independente sse L1 6= 0. Com efeito, so


nesse caso garantimos que 1 L1 = 0 implica 1 = 0.

2. Os vectores (2, 3), (3, 4) sao linearmente independentes. Com efeito,


( (
21 + 32 = 0 1 = 0
1 (2, 3) + 2 (3, 4) = 0 . (2.39)
31 + 42 = 0 2 = 0

3. Se o vector nulo esta entre os vectores L1 , . . . , Lm , entao este conjunto e


linearmente dependente. De facto, podemos escrever 0 como combinacao
linear dos restantes vectores. Basta fazer a combinacao linear com os escalares
nulos.

4. Num dado subconjunto de Rn , o n umero maximo de vectores linearmente


independentes que ele podera conter e n.

O exemplo 4 e muito elucidativo. Dito de outra forma: em Rn quaisquer vectores


L1 , . . . , Ln , Ln+1 sao linearmente dependentes.
Com efeito, procurando escrever 0 como combinacao linear daqueles, ou seja,

1 L1 + + n Ln + n+1 Ln+1 = 0, (2.40)


Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 23

escrevemos o sistema

1 l11 + + n ln1 + n+1 ln+1,1 = 0

.. (2.41)
.

1 l1n + + n lnn + n+1 ln+1,n = 0

onde Li = (li1 , . . . , lin ). Como sabemos, tal sistema e sempre possvel indetermi-
nado. Existem entao solucoes 1 , . . . , n+1 nao nulas, como queramos.

2.4 A caracterstica e a inversa de novo


2.4.1 Caracterstica de linha vs caracterstica de coluna
Seja M Mmn uma matriz qualquer. Chamamos caracterstica de linha de
M , denotada rl , ao numero maximo de linhas linearmente independentes que M
contem. Ja nos referimos a esta definicao em seccao anterior.
Chamamos caracterstica de coluna de M , denotada rc , ao n umero maximo
de colunas linearmente independentes que M contem.
Dissemos anteriormente como obter rl : efectuando uma condensacao da matriz
de modo a fazer aparecer a matriz de aspecto simples (2.32) evidentemente,
aqui, sem a parte ampliada. Mas e claro que ha muitos caminhos desde a matriz
inicial M ate aquela forma canonica (2.32), pelo que se poderia perguntar se rl nao
depende da escolha do caminho.
Vemos que tal definicao e intrnseca, independente da condensacao sobre linhas,
tal como se exprimiu acima: se M tem linhas L1 , . . . , Lm e fazemos uma troca de
Li por Li + Lj , R, vemos que

1 L1 + + i Li + + j Lj + + m Lm = 0 (2.42)

tem solucoes nao nulas sse

1 L1 + +
i (Li + Lj ) + +
j Lj + +
m Lm = 0 (2.43)

i +
tem solucoes nao nulas. So temos de fazer a transformacao j = j .6
O proximo teorema afirma que a caracterstica de linha e igual `a caracterstica
de coluna. A primeira parte da demonstracao assenta na prova de que nao se altera
rl a cada passo para achar rc .

Teorema 5. Em qualquer matriz, rl = rc .


6
Como dissemos em 2.2.3, os sistemas de equacoes lineares (independentes ou nao), apos con-
densacao, mantem-se equivalentes (em particular, com o mesmo n umero de equacoes indepen-
dentes). Poderamos passar a falar em sistemas de vectores.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 24

Demonstracao. Suponha-se

L1 l11 l1n h i
.. ..
M = . = . = C1 Cn . (2.44)
Lm lm1 lmn
A dependencia das linhas estuda-se pelo sistema em s,
1 l1j 0 + + + m lmj 0 = 0, j 0 = 1, . . . n. (2.45)
Agora, o passo mais geral da condensacao sobre colunas sera a troca Ci Cj
seguida de Ci Ci + Cj , para certos i, j e R, levando-nos para a matriz

l11 l1j l1i + l1j l1n
.. ..
M = . . . (2.46)
lm1 lmj lmi + lmj lmn
O respectivo sistema de equacoes sera o mesmo que o anterior excepto para j 0 = j, i:






1 l1j + + m lmj = 0
(2.47)



1 (l1i + l1j ) + + m (lmi + lmj ) = 0



Mas e evidente, rearrumando os termos e pondo em evidencia, que este sistema
e equivalente a (2.45).
Agora, tal como em 2.2.3, fazendo uma condensacao por colunas de forma or-
denada, chegaremos a uma matriz de aspecto

11 0 0 0 0
..
21 22 0 0 . 0

.. ..
. .
(2.48)
rc rc 0 0

.. .. ..
. . .
m1 mrc 0 0
com os kk 6= 0, 1 k rc . Como nunca se alterou rl desde M e agora ja e facil
descobrir a caracterstica de linha, fazendo por anular tudo o que esta abaixo da
diagonal principal de (2.48), deduz-se entao que rc = rl , como queramos demon-
strar.
Exemplo:

1 0 3 1 0 3 1 0 0
L3 2L1 , C1 2C2 C3 3C1 2C2
2 1 2 0 1 2 0 1 0 (2.49)
2 0 6 0 0 0 0 0 0
e a caracterstica r = rc = rl neste caso e 2.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 25

2.4.2 C
alculo da inversa
Vamos agora estabelecer um metodo para encontrar a inversa de uma matriz quadrada
A Mn,n , supondo que existe.
Repare-se que escrevendo o vector-coluna
h iT
Vi0 = 0 0 1 0 0 (2.50)

(1 no lugar i0 e 0 em todas as outras entradas), vem



b1i0

BVi0 = ... (2.51)
bni0

para qualquer matriz quadrada B = [bst ].


Para encontrar A1 temos de encontrar os n vectores-coluna Xi tais que AXi =
Vi . Pois da vira
h i h i
A X1 Xn = V1 Vn = 1n . (2.52)

Note-se em particular que A : Rn Rn induz, no sentido de (2.35), uma


aplicacao bijectiva (tem uma inversa7 ) sse a matriz A e invertvel. Por sua vez,
cada sistema AX = Vi e possvel e determinado sse r(A) = n. Esta entao provado
o

Teorema 6. Uma matriz quadrada A Mn e invertvel sse r(A) = n.

Agora, os Xi , 1 i n, encontrados acima serao as colunas de A1 . Pelo


metodo de condensacao sobre linhas, aplicado simultaneamente na resolucao dos n
sistemas de n equacoes a n incognitas, podemos dar como certo o seguinte algoritmo
para determinar a matriz inversa de A:
h i h i
1
A | 1n (condensacao) 1n | A . (2.53)

Exemplo:
" #
0 5
1. Para encontrar a inversa de fazemos
5 3
" # " #
0 5 | 1 0 5 3 | 0 1

5 3 | 0 1 0 5 | 1 0
" # " # (2.54)
1 35 | 0 15 1 0 | 3
15
25 .
0 1 | 1
5
0 0 1 | 1
5
0
7
Convem aqui notar que a inversa de uma aplicac
ao linear bijectiva e ainda uma aplicacao
linear.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 26

A verificacao e imediata:
" #" # " #
0 5 3
25
15 1 0
= . (2.55)
5 3 1
5
0 0 1
Captulo 3

3.1 Determinantes
3.1.1 Grupos de permuta
coes
Consideremos de novo o grupo de permutacoes Sn de n objectos, recorde-se, um
grupo com n! elementos.
Um tipo particular de permutacoes sao os ciclos. Um ciclo Sn e uma
permutacao denotada (a1 a2 ak ), com os ai {1, . . . , n} todos diferentes, que
obedece a
a1 7 a2 7 a3 7 7 ak 7 a1 (3.1)
e que deixa todos os outros elementos, nao referidos, no mesmo lugar.
O natural k e a ordem do ciclo.
Como exemplos, em S4 , temos
!
1 2 3 4
(143) = (431) = (314) = ,
4 2 1 3 (3.2)
(123) (341) = (234) = (34)(24).

Note-se que a funcao composta se le da direita para a esquerda e que, como e usual,
deixamos car o sinal . A` funcao composta tambem se chama produto.
A permutacao inversa de um ciclo escreve-se facilmente. Em particular, as
chamadas transposic oes (ij), ou seja ciclos de ordem 2, verificam (ij)1 = (ij) =
(ji).
Agora, cada permutacao e um produto de ciclos. Para o vermos comecamos
por construir o ciclo (1 (1) ((1)) k1 1 (1)). Concerteza que havera um fim,
de tal forma que ( k1 1 (1)) = 1, pois nao se repete nunca e n e finito. A
seguir procuramos o primeiro elemento i0 {1, . . . , n} que nao esta entre os i (1) e
construimos o ciclo (i0 (i0 ) ((i0 )) k2 1 (i0 )). Pelas razoes anteriores, o ciclo e
finito. Repetimos assim e sucessivamente o processo anterior, sabendo que havemos
de parar porque se esgotam os n umeros. Obtemos finalmente a permutacao dada
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 28

como um produto de ciclos, que ate comutam entre si pois nao tem elementos
comuns.
quase tao convincente ver um exemplo:
E
!
1 2 3 4 5 6 7 8
= = (1674)(253). (3.3)
6 5 2 1 3 7 4 8
Mais ainda, cada permutacao e produto de transposicoes, pois cada ciclo o e:
(a1 a2 ak ) = (ak ak1 )(ak ak2 ) (ak a2 )(ak a1 ). (3.4)
Fazemos agora a seguinte afirmacao: a permutacao identidade e sempre o pro-
duto de um n umero par de transposicoes: (1) = (ij)(ij). A demonstracao deste
facto, so aparentemente obvio, e um problema de ordem e combinatoria que deix-
amos ao leitor para sua pesquisa, [Gro83].
Agora se uma mesma permutacao se decompoe, uma vez, num n umero l1 de
transposicoes e, noutra vez, num n umero l2 de transposicoes, entao l1 + l2 e par.
Equivale a passar, nessa igualdade de decomposicoes, todas as transposicoes para
um lado, ficando a identidade no outro. Em particular, l1 e par sse l2 e par. Com
efeito, apenas dois pares, ou dois mpares, somam um par. Em resumo, temos o
Teorema 7. Toda a permutacao Sn e produto de transposicoes.
A paridade do n umero de transposic oes de qualquer decomposic
ao de num
produto de transposicoes e um invariante de .
Este teorema permite-nos definir rigorosamente o sinal de uma permutacao .
Trata-se do valor +1 ou 1, conforme o invariante indicado acima. Ou seja,
sg() = (1)] (3.5)
onde
] = n
umero de transposicoes numa decomposicao de . (3.6)
A conhecida regra dos sinais prova de imediato o seguinte
oes , Sn ,
Teorema 8 (Bezout). Para quaisquer permutac
sg( ) = sg()sg( ). (3.7)
Em particular, sg() = sg( 1 ).
Para aplicacoes futuras, com argumentos de tipo indutivo, convem reparar que
podemos escrever a uniao de subconjuntos disjuntos
Sn = S10 S20 Sn0 (3.8)
onde
Si0 = { : (1) = i}. (3.9)
Cada um destes subconjuntos, grosso modo, identifica-se com Sn1 . Para deduzir
tal identificacao, so temos de fixar nova numeracao dos objectos, suprimindo o 1 no
espaco de partida e o i no espaco de chegada.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 29

3.1.2 Defini
cao de determinante
Voltemos agora `as matrizes. Define-se determinante de uma matriz quadrada
A = [aij ] Mn,n como sendo o n
umero real
X
det A = sg()a11 a22 ann . (3.10)
Sn

A notacao refere i = (i).


Vemos que aquele e um somatorio com n! parcelas. De cada linha i apenas se
escolhe um aii , em cada parcela.
A notacao |A| = det A e tambem usual.
Por exemplo, para n = 2, temos

a b

= ad cb. (3.11)
c d

A deducao da chamada regra de Sarrus e da respectiva regra mnemonica para


o determinante de ordem 3 e um bom exerccio para o leitor:

a
11 a12 a13

a21 a22 a23 = a11 a22 a33 + a31 a12 a23 + a13 a21 a32
(3.12)
a31 a32 a33
a13 a22 a31 a11 a23 a32 a12 a21 a33 .

3.1.3 Propriedades do determinante


Suponhamos que e dada a matriz A tal como acima.
Tendo em conta que podemos ordenar os factores em cada parcela de (3.10) pelo
ndice de coluna, que sg() = sg( 1 ) e que o somatorio sobre os Sn e o mesmo
que o somatorio sobre os seus inversos, resulta
X
det A = sg()a11 1 a21 2 an1 n
Sn
X
= sg( )a1 1 a2 2 an n (3.13)
1 = S
X
n

= sg( )aT11 aT22 aTnn = det AT .


Sn

Provamos o

Teorema 9. Para qualquer matriz A, tem-se det A = det AT .

Esta e a primeira das principais propriedades do determinante. Em sua virtude,


daqui em diante tudo o que se diga sobre as linhas tera um equivalente sobre as
colunas.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 30

Agora, uma pequena alteracao nas linhas de A podemos cometer sem muito
perturbar o seu determinante.
Sejam 1 i 6= j n. Se trocarmos as linhas i e j de A uma pela outra,
e da decorrem as seguintes igualdades:
aparece-nos a matriz A,
X
det A = sg()a11 aji aij ann
Sn
X
= sg((ij))a11 ajj aii ann (3.14)
Sn
X
= sg((ij)) sg()a11 ann = det A.
Sn

entao
Em particular, se as linhas i e j forem iguais, ou seja A = A,

det A = 0. (3.15)

Escrevendo agora

L1
a11 a1n
.. L2
A= . = .. (3.16)
.
an1 ann
Ln

e logo
det A = det (L1 , . . . , Ln ), (3.17)
tem-se que o determinante e uma aplicacao multilinear nas linhas (e nas colunas).
Com efeito, para qualquer ndice i, det e linear na linha i quando se fixam as outras
e quaisquer
variaveis todas, ou seja, para quaisquer linhas Lj , j = 1, . . . , n, e L
, R, det verifica
. . . , Ln ) =
det (L1 , . . . , Li + L,
(3.18)
. . . , Ln ).
det (L1 , . . . , Li , . . . , Ln ) + det (L1 , . . . , L,

Compare-se esta linearidade 1 com aquela descrita em (2.36).


Demostremos (3.18). Suponhamos que a linha L = ( a1 , . . . , a
n ). Como a linha
i da matriz do lado esquerdo e igual a (ai1 + a1 , . . . , ain + an ), no calculo do
determinante vem
X
sg()a11 (aii +
ai ) ann
Sn
X X (3.19)
= sg()a11 aii ann + sg()a11 a
i ann .
Sn Sn

1
O conceito de aplicac
ao linear ou de aplicacao multilinear sera formalizado no captulo 4.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 31

Usamos apenas as propriedades de distributividade e comutatividade de R. A


expressao a que se chegou e claramente aquela do lado direito de (3.18), como
queramos.
Vejamos um exemplo de aplicacao (como na teoria dos polinomios em varias
variaveis):

x2 x x 0 1 1 0
1 1 2

x1 x3 x2 x3 x 3 x4 = x1 x2 x 3 1 x 2 x4 =
2 2

x1 x4 x22 0 x4 x 2 0

1 0 0 0 1 0 (3.20)


= x1 x2 x3 1 x2 x4 + x1 x2 x 3 1 x 2 x4 =
2 2

x4 x2 0 x4 x 2 0
= x21 x2 x3 (x2 x4 + x24 ) = x21 x2 x3 x4 (x4 x2 ).
Para finalizar, reescrevendo (3.14) na notacao anterior, verificou-se que o deter-
minante e uma aplicacao multilinear alternada ou anti-sim etrica:
det (L1 , . . . , Li , . . . , Lj , . . . , Ln ) =
(3.21)
= det (L1 , . . . , Lj , . . . , Li , . . . , Ln ).
Tambem se pode escrever (3.18) em dois passos. O respeito pela multiplicacao de
uma linha por um escalar:
det (L1 , . . . , Li , . . . , Ln ) = det (L1 , . . . , Li , . . . , Ln ) (3.22)
e o respeito pela soma de duas linhas
. . . , Ln ) =
det (L1 , . . . , Li + L,
(3.23)
. . . , Ln )
det (L1 , . . . , Li , . . . , Ln ) + det (L1 , . . . , L,
Li , L
Rn , R.

3.1.4 C
alculo de determinantes
Pela definicao, e trivial provar que

t t13
11 t12 t1n

0 t22 t23 t2n

0 0 t33 t3n = t11 t22 tnn . (3.24)

..
0 0 .

0 0 0 tnn
E se a matriz dada for triangular inferior, o resultado e analogo.
Agora, o processo de condensacao de uma qualquer matriz A Mnn conduz-nos
a uma matriz triangular. Observamos entao que ha uma forma pratica de calcular
determinantes, tendo em conta as regras:
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 32

se trocarmos duas linhas (ou colunas) diferentes, o determinante muda de


sinal

se substituirmos uma linha por ela mesma adicionada de um m


ultiplo de outra
linha, o determinante nao se altera

se substituirmos uma coluna por ela mesma adicionada de um m


ultiplo de
outra coluna, o determinante nao se altera.

Por exemplo,

1 2 3 1 2 4
4 3 1 3 5
0 1 3 0 1 3 5
5
= = 4 5 2 11 =
1 3 1 7 0 5 2 11
1 1 2
3 2 5 4 0 4 4 8 (3.25)

1 3 5
3 14

= 4 0 17 14 = 4 = 20.
1 3
0 4 3

A segunda igualdade resulta de apenas valerem S4 tais que (1) = 1. Na quarta


acontece o mesmo.

Teorema 10. Uma qualquer matriz A e invertvel sse det A 6= 0.

De podermos usar a condensacao sobre uma dada matriz para a levar a outra na
forma triangular, sem alterar o seu determinante ou caracterstica, resulta que se
pode supor desde ja que A e triangular. Ora, algum dos ajj , j = 1, . . . , n da matriz
triangular (3.24) e nulo, ou seja, r(A) < n, sse det A = 0. Invocando o teorema 6,
ve-se que dele decorre o teorema anterior.

3.1.5 Regra do produto


Verificaremos primeiro que aplicacoes multilineares2 alternadas

f : Rn Rn R
(3.26)
(v1 , . . . , vn ) 7 f (v1 , . . . , vn ),

tais como o determinante sobre as linhas ou colunas de uma matriz, existe essen-
cialmente uma.
Para prova-lo necessitamos da base can onica de Rn , isto e, o conjunto de n
vectores
ei = (0, . . . , 0, 1, 0, . . . , 0) (3.27)
2
Recordamos que este conceito pode ser visto no captulo 4.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 33

com 1 na i-esima entrada (cf. (2.50)).


Dizendo de outra forma,

1 0 0
0 1 e1
0 .. .
1n = ... = . (3.28)
0
en
0 0 1

evidente que qualquer vector de Rn (o mesmo que uma matriz-linha) satisfaz


E

X
n
(x1 , x2 , . . . , xn ) = x1 e1 + x2 e2 + + xn en = xj ej . (3.29)
j=1

Eis o resultado que referamos.

ao multilinear alternada f sobre n vectores de Rn


Teorema 11. Qualquer aplicac
verifica
f (A) = det (A) f (1n ). (3.30)

Demonstracao. Com efeito, por multilinearidade e por (3.29)

f (A) = f (L1 , . . . , Ln )
X n X
n X
n 
= f a1j1 ej1 , a2j2 ej2 , . . . , anjn ejn
j1 =1 j2 =1 jn =1 (3.31)
X n
= a1j1 anjn f (ej1 , . . . , ejn ).
j1 ,j2 ,...,jn =1

Note-se que, por hipotese de f ser alternada, tal como em (3.15), resulta

f (ej1 , . . . , ejn ) = 0 (3.32)

no caso em que ha dois jl iguais, l = 1, . . . , n, e resulta


 

f (ej1 , . . . , ejn ) = sg( 1
j1
n
jn
) f (e1 , . . . , en ) (3.33)

no caso em que todos os jl sao diferentes.


Continuamos agora o calculo inicial. Aparece a entao apenas o somatorio sobre
as permutacoes de 1, . . . , n, ou seja
X
f (A) = a11 ann sg() f (e1 , . . . , en ) = det A f (1n ) (3.34)
Sn

visto que f (e1 , . . . , en ) = f (1n ). Chegamos a (3.30), como queramos demonstrar.


Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 34

Agora podemos provar um valioso teorema com a regra do produto para os


determinantes.

Teorema 12. Para quaisquer A, B Mnn , vem

det (AB) = det (A) det (B). (3.35)

Em particular, det (A1 ) = (det A)1 .

Demonstracao. Fixemos B e consideremos a funcao sobre as matrizes A (Rn )n =


Mnn
f (A) = det (AB) = |AB| (3.36)
trivial verificar que
com valores reais. E

L1 B


f (A) = f (L1 , . . . , Ln ) = ... (3.37)

Ln B

e, logo, que f e multilinear e alternada: lembrar que (Li +L)B para


= Li B +LB,
cada i e para quaisquer , Li , L, e que a propria funcao determinante tem aquelas
propriedades.
Entao f esta nas condicoes da hipotese do teorema 11, donde f (A) = |A| f (1n ).
Como f (1n ) = |1n B| = |B|, a formula anterior le-se |AB| = |A||B|, como queramos
demonstrar.

Por outras palavras, o determinante do produto de duas quaisquer matrizes e o


produto dos determinantes.
Por exemplo,
a b c x 0 0


0 d e y z 0 = adf xzt, (3.38)

0 0 f w s t
o que se tornou muito facil de ver.

3.2 Regra de Laplace e aplica


coes
3.2.1 Regra de Laplace
Suponhamos que e dada uma matriz A Mnn da qual queremos calcular o deter-
minante.
Repare-se agora na decomposicao (3.8) e restringa-se o somatorio sobre Sn na
definicao (3.10) de determinante apenas ao subconjunto Sj0 = { Sn : 1 = j},
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 35

com j {1, . . . , n} previamente escolhido. Uma vez que 1 = j esta fixo, obtemos
X
sg()a11 ann =
Sj0
X
= (1)j1 a1j sg( 1
2


j
j


n
n
)a22 ann (3.39)
Sj0

= (1)j1 a1j |A(1,j) |.

Com efeito, o sinal da permutacao Sj0 , multiplicado por (1)j1 , e o da mesma


permutacao composta com j 1 trocas de j com 2 , 3 , etc, ate j , ou seja, j levado
de 1 ate `a posicao j. Depois e imediato constatar que aparece o determinante da
matriz A(1,j) , como se escreveu, a matriz sem linha 1 nem coluna j.
Em geral, define-se

a11 a1,j1 a1,j+1 a1n
.. .. .. ..
. . . .

ai1,1 ai1,j1 ai1,j+1 ai1,n

A(i,j) = . (3.40)

a
i+1,1 a i+1,j1 a i+1,j+1 ai+1,n
.. .. .. ..
. . . .
an1 an,j1 an,j+1 ann

Passando o resultado anterior para um somatorio sobre Sn = nj=1 Sj0 , vem


X X X
= + + (3.41)
Sn S10 0
Sn

e logo a regra de Laplace na primeira linha

|A| = a11 |A(1,1) | a12 |A(1,2) |+


(3.42)
+ a13 |A(1,3) | + (1)n1 a1n |A(1,n) |.
P
Dito de outra forma, |A| = j (1)j1 a1j |A(1,j) |.
Se quisermos fazer o mesmo calculo mas a partir de outra linha, so temos de
puxar essa linha para o 1o lugar de tal forma que tudo o resto permaneca na mesma
ordem, ou seja, trocando sucessivamente digamos a linha i com a linha i1, depois,
esta, com a linha i 2, etc, ate ao primeiro lugar. E o mesmo que considerar as
matrizes A(i,j) e a alternancia do sinal em (1)i1 , o que acrescentado ao sinal das
parcelas acima vai dar (1)i1 (1)j1 = (1)i+j .
Assim ficou provado o

Teorema 13 (regra de Laplace). Para qualquer ndice de linha i, tem-se


X
n
|A| = (1)i+j aij |A(i,j) |. (3.43)
j=1
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 36

Esta regra e muito pratica; permite calcular determinantes recursivamente sobre


a ordem n das matrizes.
Note-se que tambem existe uma regra de Laplace sobre as colunas. E simples:
na formula (3.43) fazemos o somatorio em i em vez de j.

3.2.2 A matriz adjunta


Se na matriz A da seccao anterior, uma matriz n por n qualquer, substituirmos a
linha i pela linha k 6= i, entao ja sabemos que o determinante e nulo (tem duas
linhas iguais). Pela regra de Laplace aplicada na linha i, obtemos entao
X
n
0= (1)i+j akj |A(i,j) |. (3.44)
j=1

Como veremos, o n umero (1)i+j |A(i,j) | tem grande importancia; designa-se por
complemento alg ebrico de aij .
`
A matriz adj A que tem entradas (j, i) iguais ao complemento algebrico de aij ,
ou seja, a matriz transposta da matriz formada pelos complementos algebricos, ou
seja, ainda,
(adj A)ji = (1)i+j |A(i,j) |, (3.45)
da-se o nome de matriz adjunta de A.
Ja vimos que:
X
n X
n
aij (adj A)ji = |A|, akj (adj A)ji = 0 (3.46)
j=1 j=1

para k 6= i. Ora isto e equivalente a

A adj A = |A| 1n . (3.47)

Em particular, se A e invertvel, entao


1
A1 = adj A. (3.48)
|A|
Eis uma nova solucao para o problema de calcular a inversa de uma matriz.
Exemplos:

1. A formula (3.48) permite demonstrar esse facto belssimo que e o de uma


matriz de coeficientes inteiros e determinante 1 ter inversa tambem com coe-
ficientes inteiros. " #1 " #
7 5 8 5
= (3.49)
11 8 11 7
e um exemplo, calculado pela dita formula.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 37

2. Outro exemplo, com a matriz dada de determinante 56,



1 3 2 3 2 3


1 4 2 4 2 1 3
5 2 3

1 0 3 5 3
5 3
0 1 3 =
56 2 2 2 2 0 3
2 4 2
0 1 5 2 5 2
(3.50)

2 4 2 4 0 1

10 8 3
1
= 6 16 15
56
2 24 5

3.2.3 Regra de Cramer


Suponhamos que temos um sistema de n equacoes lineares, independentes, a n
incognitas,
AX = B. (3.51)
Ou seja, de caracterstica n. Logo com A invertvel e logo com uma u nica solucao.
Pelo exposto na seccao 3.2.2,
 
1 1 1 X
X=A B= (adj A)B = (1) |A(j,i) |bj
i+j
(3.52)
|A| |A| j

ou seja
a11 b1 a1n

.. ..
. .

an1 bn ann
xi = (3.53)
|A|
com B tomando o lugar da coluna i de A.
Esta e a chamada regra de Cramer para a resolucao de sistemas possveis
determinados.
Por exemplo: sendo

x + y + z = 2v
3x y z = 2 + v , (3.54)

x+y =3

a matriz ampliada do sistema em x, y, z vem a ser



1 1 1 | 2v

3 1 1 | 2 + v . (3.55)
1 1 0 | 3
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 38

Aplicando a regra de Cramer encontramos as solucoes



2v 1 1
1
1 1 2v
1 3v + 2
x = 2 + v 1 1 = 2 + 3v 0 0 = , (3.56)
4 4 4
3 1 0 3 1 0

1 2v
1 3v + 10
1

y = 3 2 + v 1 = , (3.57)
4 4
1 3 0

1 1 2v 0 0 2v 3

1 1 8v 12
z = 3 1 2 + v = 3 1 2 + v = . (3.58)
4 4 4
1 1 3 1 1 3
Captulo 4

4.1 Espacos vectoriais


4.1.1 Defini
coes e exemplos
Por espaco vectorial sobre o corpo R entende-se um grupo abeliano (V, +)
no qual estao definidas, adicionalmente, operacoes de multiplica
cao por escalar
para cada real R,
: V V, v 7 v, (4.1)
de tal modo que

(v1 + v2 ) = v1 + v2 1v = v
(4.2)
(1 + 2 )v = 1 v + 2 v ()v = (v)

v, v1 , v2 V, , 1 , 2 , R.
Aos n umeros reais chamamos escalares e aos elementos de V vectores. Repare-
se que estamos1 a generalizar os conceitos aprendidos em 2.3.1 a proposito do espaco
euclidiano Rn .
Exemplos:

1. Rn ou Mnm sao espacos vectoriais sobre R ja bem conhecidos2 .

2. Para qualquer conjunto X e espaco vectorial V temos um novo espaco vec-


torial V X = {f : X V }. Este exemplo generaliza outro, referido como
exemplo de um anel em 1.2.2. Os vectores sao as funcoes e a sua soma e
produto por escalar definem-se trivialmente.
1
Devamos ir mais longe e falar de espacos vectoriais sobre um corpo qualquer. Significaria
que no lugar e no papel dos escalares reais teramos os elementos de um outro corpo unitario (cf.
seccao 1.2.2). As aplicac
oes sao in
umeras. Porem, note-se que ocorrem logo fenomenos peculiares
se a chamada caracterstica ou tors ao do corpo for nao nula.
2
Observe-se a nocao de espaco vectorial ser tao simples, por nao requerer a multiplicacao de
dois vectores `a semelhanca do espaco das matrizes.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 40

3. Recordemos C Ck+1 Ck C0 RI onde Ck e o espaco de


funcoes do intervalo I em R, k vezes diferenciaveis e com derivada de ordem
k contnua. Todos estes sao espacos vectoriais sobre R. Sao muito grandes...

4. Um subconjunto U de um espaco vectorial V tal que

u1 , u2 U, R = u1 + u2 U (4.3)

diz-se um subespaco vectorial de V . Claro que, neste caso, U herda uma


estrutura de espaco vectorial sobre R.

Conceito central na teoria dos espacos vectoriais e o seguinte. Dizemos que


v V e combinacao linear de vectores u1 , . . . , um se existem escalares 1 , . . . , m
P
tais que v = i i ui . Note-se que so falamos de somas finitas.
Dado um subconjunto S V , chamamos espa co vectorial gerado por S a

hSi = combinacoes lineares de vectores de S . (4.4)

hSi e um subespaco vectorial de V .


Apresentemos agora a nocao de sistema de vectores linearmente independentes
(sli). Um conjunto, ou sistema, de vectores B = {u }I diz-se linearmente
independente se qualquer parte finita {u1 , . . . , uk } B for linearmente indepen-
dente no sentido que ja conhecamos de (2.38), ou seja, no sentido em que nenhum
ui , i = 1, . . . , k, e combinacao linear dos restantes, ou seja, ainda, se, supondo que
existem i R,

1 u1 + + k uk = 0 = 1 = = k = 0. (4.5)

Em presenca de um sli {u }I , nao ha duas formas de escrever a mesma com-


P P
binacao linear. Essencialmente, isto vale por v = i ui = i
i ui implicar
P i

i (i i )ui = 0. E logo i i , i.
i = 0. Ou seja i =
Diz-se, no caso acima, que e uma escrita de forma u nica.

4.1.2 Bases e dimens


ao
Suponhamos que e dado um espaco vectorial V sobre R.
Um sli (sistema linearmente independente) B0 diz-se menor () que o sli B se

u B 0 , u e combinacao linear de vectores de B. (4.6)

Um sli B diz-se maximal se for maior que todos os outros: B0 , B0  B. A


um sli maximal chamamos uma base de V .
Dizemos que V tem dimens ao finita se V admite uma base finita.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 41

Teorema 14. Se V tem dimensao finita, entao todas as bases de V s


ao finitas e
tem o mesmo n
umero de vectores.

Demonstracao. Seja B = {u1 , . . . , un } a base finita e B1 outra base qualquer. Ora,


qualquer vector u na segunda base e combinacao linear de vectores da primeira,
porque B1  B. Portanto existem sempre escalares 1 , . . . , n com os quais es-
P
crever u = j j uj escrita de forma u nica. Os vectores de B1 estao assim em
univoca com vectores (1 , . . . , n ) de Rn . Estes tem de ser linear-
correspondencia bi
mente independentes, porque os u B1 o sao. Mas nao ha mais do que n vectores
linearmente independentes em Rn (cf. exemplo 4 da seccao 2.3.2).

Chamamos dimens ao de um espaco vectorial de dimensao finita V , denotada


dim V , ao n
umero comum de vectores de qualquer base de V .
Dada uma base B V de um espaco de dimensao qualquer, tem-se hBi = V ,
pois no caso contrario entraramos em contradicao.
Assim, uma base de V e o mesmo que um sistema de vectores linearmente
independente que gera o espaco todo.
Muito importante e observar que, escolhida uma base, cada vector v V se
escreve de forma u
nica como combinacao linear dos vectores da base.
Exemplos:

1. Os seguintes conjuntos sao subespacos vectoriais dos espacos onde estao con-
tidos:
i) Ua = {(x, y, z) R3 : a2 (x + y) + z = 0, 3x + y = 0} verifica (4.3), tem
dimensao 1 e uma base {(1, 3, 2a2 )}.
ii) W = {A Mnn : a11 + 3a1n + an1,1 ann = 0} tem dimensao n2 1.
Trata-se do espaco de todas as matrizes n por n, sujeitas a uma u
nica equacao
linear.
iii) O subespaco vectorial de Mn,n das matrizes simetricas de ordem n tem
dimensao igual a n(n + 1)/2 (pense-se na area do tri
angulo pois so contam as
entradas de um lado triangular da matriz).

2. O conjunto Rn [x] = {polinomios em x de grau n} e um subespaco vecto-


rial real, de dimensao n + 1, do espaco de todos os polinomios. Este u
ltimo

tem dimensao e e por sua vez subespaco de CR . Uma base de Rn [x] e
1, x, x2 , . . . , xn .

3. Um sistema AX = 0 como em (2.27), portanto um sistema homogeneo, com


A Mmn e X Rn , da origem a um subespaco vectorial: Nuc A = {X Rn :
AX = 0} e subespaco vectorial devido `a formula (2.36). A sua dimensao e
nr(A) por que o sistema resolve a equacao de dependencia linear das colunas
de A e a caracterstica de linha e igual `a caracterstica de coluna.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 42

Repare-se que B0  B implica hB0 i hBi, donde se diz tambem que uma base
e um conjunto minimal de geradores de V .
Sob certas condicoes da teoria dos conjuntos, pode-se provar que todo o espaco
vectorial admite uma base. Mesmo os de dimensao .

4.1.3 Soma cartesiana e soma directa


Partindo de W, Z dois quaisquer espacos vectoriais, falamos de espa co vectorial
produto ou de soma cartesiana de W e Z quando fazemos o produto cartesiano
W Z e nele tomamos, para estrutura de espaco vectorial, a adicao
(w1 , z1 ) + (w2 , z2 ) = (w1 + w2 , z1 + z2 ) (4.7)
e multiplicacao por escalar
(w, z) = (w, z) (4.8)
w, w1 , w2 W, z, z1 , z2 Z, R. E facil perceber que sao satisfeitas as
condicoes (4.2).
Se W, Z tem dimensao finita, a dimensao do espaco vectorial produto e sempre
a soma das dimensoes.
Exemplo:
1. Rn = R R R.
Sejam agora dados dois subespacos vectoriais U, V de um mesmo espaco vectorial
W.
Chamamos soma de U e V ao subespaco

U + V = u + v : u U, v V . (4.9)
Trata-se de facto de um subespaco vectorial, como e facil provar. Mais ainda
U, V U + V . E
evidente, pois u = u + 0, u U .
Outra forma de obter um subespaco vectorial e pela interseccao
U V (4.10)
dos subespacos dados. Com efeito, e claro que a soma de vectores e produto por
escalar de u, v U V esta tanto em U como em V , ou seja, em U V .
claro que um subespaco vectorial U de um espaco de dim finita W tem ele
E
proprio dim finita. Basta comecar num vector 6= 0 e ir procurando sli cada vez
maiores dentro do subespaco U ate obter um sli maximal. O processo e finito por
estar majorado pela dimensao do espaco W .
Teorema 15. Se U, V tem dimensao finita, entao
dim(U + V ) = dim U + dim V dim(U V ). (4.11)
Em particular, U + V tem dimensao finita.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 43

Demonstracao. Comecemos com uma base {u1 , . . . , up } de U V , que prolongamos,


como acima, a uma base {u1 , . . . , up , up+1 , . . . , un } de U . Seja {v1 , . . . , vm } uma
base de V . Entao o conjunto {up+1 , . . . , un , v1 , . . . , vm } e um sistema de vectores
linearmente independentes, pois se fosse

p+1 up+1 + + n un + 1 v1 + + m vm = 0
p+1 up+1 + + n un = 1 v1 m vm

entao este u ltimo vector estaria em U V , pelo que seria combinacao linear dos
u1 . . . , up . Mas sendo escrito so com os ui , com i > p, tem de ser 0. Entao todos os
i , j sao 0, como queramos.
tambem facil verificar que qualquer outro vector de U +V e combinacao linear
E
daqueles. Entao esta provado que {up+1 , . . . , un , v1 , . . . , vm } e uma base. O n
umero
de vectores de tal base e n p + m.

Finalmente, chamamos soma directa a U + V quando os dois subespacos ver-


ificam U V = {0}. Denota-se por U V . A dimensao desta e a soma das
dimensoes.

4.2 Aplicaco
es lineares
4.2.1 Defini
coes
Finalmente formalizamos o conceito ja utilizado em duas ocasioes: em 2.3.1 como
caso particular e em (3.15) a proposito da propriedade do determinante de matrizes
ser uma aplicacao multilinear.
Sao dados dois espacos vectoriais V e W .
Uma funcao f : V W diz-se uma aplicac ao linear se

f (v + u) = f (v) + f (u) e f (u) = f (u) (4.12)

u, v V, R.
Assim, uma aplicacao linear e uma aplicacao que preserva as estruturas dos
espacos vectoriais em causa. Em particular, tem-se o facto trivial: f (0) = f (0+0) =
0.
trivial verificar que a imagem de uma aplicacao linear
E

Im f = f (V ) = f (v) : v V (4.13)

e um subespaco vectorial de W . Com efeito, f (u) + f (v) = f (u + v) tambem


esta na imagem de f , quaisquer que sejam u, v, .
Tambem, dado um qualquer subespaco U W , o conjunto imagem recproca

f U = v V : f (v) U (4.14)
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 44

e um subespaco vectorial de V .
Em particular f {0}, denotado

Nuc f = v V : f (v) = 0 , (4.15)
e um subespaco vectorial de V chamado nucleo de f .
Deixamos a demonstracao do proximo resultado como um exerccio.
Teorema 16. Seja f : V W uma aplicac ao linear entre espacos vectoriais.
Ent ao:
i) f e injectiva sse Nuc f = {0}.
ii) f e injectiva sse f transforma vectores linearmente independentes em vectores
linearmente independentes.
iii) f e sobrejectiva sse o espaco gerado por f (B) e igual a W , ou seja hf (B)i = W ,
para qualquer base B de V .
iv) f e bijectiva sse transforma uma base de V numa base de W .
Ha nomes proprios para f linear e injectiva, sobrejectiva ou bijectiva. Diremos
entao que f e, respectivamente, um monomorfismo, um epimorfismo ou um
isomorfismo.
Se V = W , entao f : V V diz-se um endomorfismo. Um isomorfismo
endomorfismo diz-se um automorfismo.
Prove-se, `a parte, que a inversa de uma aplicacao linear bijectiva e uma aplicacao
linear.
O conjunto das aplicacoes lineares de V para W denota-se por L(V, W ).
trivial mostrar que a soma ou a composicao de duas aplicacoes lineares e uma
E
aplicacao linear e que o mesmo acontece com o produto de uma aplicacao linear
por um escalar. Enfim, prova-se sem dificuldade o
Teorema 17. L(V, W ) e um espaco vectorial sobre R. O espaco End (V ) :=
L(V, V ) dos endomorfismos de V e um anel e o subconjunto dos automorfismos
Aut(V ) = {isomorfismos de V para V } e um grupo.
Contudo, o resultado nao e surpreendente: em dim finita ha correspondencia
entre aqueles espacos e, respectivamente, o espaco vectorial das matrizes Mnm , o
anel das matrizes quadradas Mnn e o grupo das matrizes invertveis.

4.2.2 Representa
cao matricial
Sejam V, W espacos vectoriais reais de dimensao finita n, m, respectivamente. Se-
jam B = {v1 , . . . , vn }, B = {w1 , . . . , wm } bases fixadas em V, W , respectivamente.
Sejam
x1 b1

X = ... , B = ... (4.16)
xn bn
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 45

a matriz dos coeficientes de um qualquer vector v V e, respectivamente, a matriz


dos coeficientes de um vector w0 W . Ou seja,

h i x1
Xn
.. X m
v= x i vi = v1 vn . , w0 = bj wj = B B (4.17)
i=1 j=1
xn

Seja agora f : V W uma aplicacao linear. Denotamos entao

A = M (f, B, B)
(4.18)

a matriz definida da seguinte forma: como para cada 1 i n, o vector f (vi ) se


escreve de forma unica `a custa dos vectores wj , 1 j m, existem escalares aji
tais que
X
m
f (vi ) = aji wj . (4.19)
j=1

obvio que A = [aji ] Mmn . A esta matriz damos o nome de matriz da


E
aplicacao linear f nas bases {vi }, {wj }.
Note-se bem que esta representacao depende das bases.
Recprocamente, fixadas as bases, a cada matriz A Mmn corresponde uma
u
nica aplicacao linear f . A linearidade, como condicao, determina unvocamente f
de tal forma que a sua representacao em matriz e a matriz dada.
Exemplo:

1. Seja f : R2 R2 [] definida por

f (x, y) = 2x 2 + 3(x + y) + 4x y. (4.20)

Trata-se com efeito de uma aplicacao linear entre espacos vectorias (cf. ex-
emplo 2 da seccao 4.1.2). Considerando as bases canonicas daqueles espacos,
de um lado B = {(1, 0), (0, 1)}, do outro B = { 2 , , 1}, temos

f (1, 0) = 2 2 + 3 + 4, f (0, 1) = 3 1. (4.21)

Donde
2 0
=
M (f, B, B) 3 3

(4.22)
4 1
e a matriz de f nas bases escolhidas.

2. Consideremos a aplicacao identidade 1V : V V . Podemos tomar a mesma


base no espaco de chegada alias e quase sempre assim que fazemos quando
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 46

tratamos de endomorfismos de um dado espaco. Tem-se logo 1V (vi ) = vi ,


1 i n, pelo que a representacao matricial e

M (1V , B, B) = 1n (4.23)

como era de esperar.

Prova-se naturalmente, sem dificuldade, que a uma equacao linear f (v) = w0


em v corresponde um e um so sistema linear AX = B:
X
n X
m
f (v) = w0 xi f (vi ) = bj wj
i=1 j=1
X
m X
n X
m
xi aji wj = b j wj (4.24)
j=1 i=1 j=1
Xn
aji xi = bj , j AX = B.
i=1

Prova-se ainda que o conjunto solucao Cw0 = {v : f (v) = w0 } e igual a


v0 + Nuc f , onde v0 e uma solucao particular, isto e, f (v0 ) = w0 . De facto, v Cw0
sse f (v v0 ) = w0 w0 = 0.
Como ja foi certamente observado no teorema 16, a dimensao da imagem de
f esta relacionada com o maior sli contido na imagem, em W , dos vectores de
uma base de V . Ou seja, e exactamente a caracterstica da matriz A. Mais ainda,
conclui-se que o grau de indeterminacao n r(A) do sistema acima e a dimensao
do nucleo de f . Uma vez que n = n r(A) + r(A), esta provado o

Teorema 18. dim V = dim Nuc f + dim Im f .


um resultado relevante pois nao depende da escolha das bases.
E
Nesta teoria acresce dizer que segue sem demonstracao a identidade

M (f + g, B, B)
= M (f, B, B)
+ M (g, B, B)
(4.25)

f, g L(V, W ), R.

4.2.3 Composi
cao vs produto
Sejam V, W, U espacos vectoriais reais de dimensao finita n, m, p, respectivamente.
Sejam B = {v1 , . . . , vn }, B = {w1 , . . . , wm }, B 0 = {u1 , . . . , up } bases fixadas em
V, W, U , respectivamente.
Suponhamos que sao dadas aplicacoes lineares
f g
V W U. (4.26)
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 47

Uma vez que g f tambem e uma aplicacao linear, poe-se a questao de relacionar
as matrizes
A = M (f, B, B),
B = M (g, B, B0 ) (4.27)
com a matriz C = M (g f, B, B 0 ).
P
Por definicao, analogamente com (4.19), isto e, f (vi ) = m
j=1 aji wj , tem-se

X
p
X
p
g(wj ) = bkj uk , g f (vi ) = cki uk . (4.28)
k=1 k=1

Mas uma vez que


X
m  X
m
g f (vi ) = g aji wj = aji g(wj ) =
j=1 j=1
(4.29)
X
m X
p
X
p
X
m
= aji bkj uk = bkj aji uk
j=1 k=1 k=1 j=1

obtem-se afinal
C = BA. (4.30)
Repare-se que A Mmn , B Mpm , pelo que o resultado C = BA Mpn faz
pleno sentido.
Esta descoberta a natureza geometrica do produto de matrizes. Toda a teoria
estudada nos captulos anteriores passou a fazer parte de um todo coerente.
Recordemos agora a aplicacao identidade 1V : V V e representemo-la numa
dada base B = {vi } de V como a matriz M (1V , B, B) = 1n . Pela lei demonstrada da
composicao vs produto, deduz-se logo que a matriz da inversa de um isomorfismo
f : V W , nas mesmas bases acima, verifica

M (f 1 , B, 1 .
B) = (M (f, B, B)) (4.31)

Repare-se que se mudarmos para a base B1 do mesmo espaco V temos uma


matriz quadrada
P = M (1V , B, B1 ) = (M (1V , B1 , B))1 (4.32)
(a qual nao tem nada que ser a matriz identidade). Uma tal matriz P chama-se
uma matriz de mudanca de base.
Vejamos como se transforma em geral a matriz de uma aplicacao linear qualquer
como a f : V W inicial. Suponhamos que, alem da mudanca de bases em V ,
descrita por P , temos a mudanca de bases B para B1 em W , descrita pela matriz
Q = M (1W , B1 , B).
Sendo A1 = M (f, B1 , B1 ), resulta de se ter f = 1W f 1V , de
(4.27) e de (4.30) que
A = QA1 P. (4.33)
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 48

Em particular, se f : V V e um endomorfismo e usamos a mesma base dos


dois lados, uma mudanca de bases, de ambos os lados, descrita por P , produz o
efeito A = P 1 A1 P .
Exemplos:

1. Consideremos o exemplo 1 da seccao 4.2.2 e, em W = R2 [], mudemos da


base B = { 2 , , 1} para a base B1 = {( + 2)2 , ( + 2), 1}. Imediatamente
calculamos

2 = ( + 2)2 4( + 2) + 4
= ( + 2) 2 (4.34)
1=1

pelo que
1 0 0
B1 ) =
Q = M (1W , B,

4 1 0 . (4.35)
4 2 1
Logo

2 0 2 0

M (f, B, B1 ) = Q 3 3 = 5 3 . (4.36)
4 1 6 7
Podemos usar este resultado para escrever3 f na nova base:

f (x, y) = 2x( + 2)2 + (5x + 3y)( + 2) + 6x 7y. (4.37)

Lembrar que tambem as matrizes, fixadas as bases, determinam unvocamente


as aplicacoes lineares.

2. Como exemplo de aplicacao, temos que se pode definir o determinante de


um endomorfismo f : V V . Basta escrever

det f = det (M (f, B, B)). (4.38)

trivial provar, por (4.32) e (4.33), que (4.38) nao depende da escolha da
E
base. Por exemplo, se f (v) = v, entao det f = n .

4.2.4 Valores e vectores pr


oprios
Suponhamos que e dado um endomorfismo f : V V de um espaco vectorial V
sobre R. Interessa-nos encontrar as direccoes em V , socorrendo-nos aqui de uma
E o desenvolvimento de Taylor do polinomio em em torno de 2.
3
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 49

linguagem geometrica, sobre as quais a imagem de f se expande ou se contrai. Ou


seja, interessam as direccoes nao nulas u V tais que

f (u) = 0 u (4.39)

para algum 0 R. Um vector como u chama-se um vector pr oprio de f asso-


ciado ao valor pr oprio 0 .
Assumamos que V tem dimensao finita n e que uma sua base foi previamente
claro que a equacao f (u) u = 0 tem solucoes em u, , u 6= 0, sse o
escolhida. E
sistema homogeneo (A 1n )X = 0 e possvel indeterminado, quando representa-
mos por A a matriz de f (veja-se (4.24)).
Escrevendo o polinomio caracterstico de A,

pA () = det (A 1n ), (4.40)

dizamos que o sistema tem solucao (u, 0 ) sse 0 e uma raz de pA , ou seja,

0 e valor proprio de A pA (0 ) = 0. (4.41)

Com efeito, se aquele determinante e nulo, a matriz A 0 1n tem caracterstica


< n e logo o sistema tem solucoes u V nao nulas. E recprocamente.
Prova-se, reflectindo um pouco sobre as definicoes, que pA e de facto um polinomio
em , que o seu grau e n, que o coeficiente do termo n e (1)n e que o termo in-
dependente e |A|.
Exemplo:

1. Seja f (x, y) = (2x, 3x y) de R2 para si mesmo. A sua matriz na base


canonica (1, 0), (0, 1) e o respectivo polinomio caracterstico sao
" #
2
2 0 0
A= , pA = = ( 2)( + 1). (4.42)
3 1 3 1

Entao os valores proprios sao 2 e 1. Os vectores proprios associados resultam


de resolver, por exemplo, f (x, y) = 2(x, y). Isto e equivalente a (2x, 3x y)
2(x, y) = 0, ou ainda x = y. Segue portanto que os vectores em U2 = {(y, y) :
y R} = h(1, 1)i sao associados ao valor proprio 2. Fazendo o mesmo para
1, ve-se logo que o respectivo subespaco proprio e U1 = h(0, 1)i.

Dissemos bem no exemplo anterior. Prova-se sem dificuldade que o subespaco


pr
oprio de V associado ao valor proprio 0 de f ,

U0 = u V : f (u) = 0 u , (4.43)

e um subespaco vectorial. A sua dimensao e a multiplicidade geom etrica de 0 .


Esta distingue-se da multiplicidade alg ebrica de 0 , que e a multiplicidade do
valor proprio 0 como raz de pA .
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 50

Ha, no maximo, tantas direccoes proprias linearmente independentes dentro de


U0 quanto a multiplicidade algebrica de 0 . Ou seja,

m.g. 0 m.a. 0 . (4.44)


" #
3 3
O caso da matriz mostra-nos o problema que esta em procurar uma
0 3
base de vectores proprios. No exemplo vertente, de valor proprio 3, 1 = m.g. 3
m.a. 3 = 2.
Seguramente para valores proprios distintos ha independencia linear, como diz
o

Teorema 19. Vectores proprios u1 , . . . , uk V de uma aplicac ao linear f associ-


ados a valores proprios distintos 1 , . . . , k , respectivamente, formam um sistema
de vectores linearmente independente.

Demonstracao. Por inducao em k. Sendo o resultado claro para k = 1, admitamo-


lo como valido para k e provemo-lo para k + 1. Podemos ja supor k+1 6= 0.
Suponhamos, por absurdo, que existem escalares 1 , . . . , k tais que

uk+1 = 1 u1 + + k uk .

Aplicando entao f de ambos os lados temos, por definicao e por linearidade,

k+1 uk+1 = 1 1 u1 + + k k uk .

Ou seja, igualando a uk+1 , temos


1 1 k k
1 u1 + + k uk = u1 + + uk .
k+1 k+1
Agora, para vectores linearmente independentes, ha unicidade da escrita de uma
i
combinacao linear. Usando a hipotese de inducao, so podemos ter entao k+1 =
1, 1 i k. Mas isto contradiz o facto de os i serem todos distintos.

Outra forma de enunciar o teorema e simplesmente dizer que os diferentes sube-


spacos vectoriais proprios
U1 Uk (4.45)
estao em soma directa.

4.2.5 Matrizes semelhantes


Duas matrizes quadradas A, A1 de ordem n dizem-se semelhantes se existe uma
matriz invertvel P de ordem n tal que

A1 = P AP 1 . (4.46)
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 51

Trata-se de uma relacao de equivalencia entre matrizes, cf. 1.1.2. Por exemplo,
a propriedade de transitividade resulta de

A = P A1 P 1 & A1 = QA2 Q1 (4.47)

implicar
A = P QA2 Q1 P 1 = (P Q)A2 (P Q)1 . (4.48)
A reflexividade e simetria sao ainda mais simples de ver.
Ja vimos que sao semelhantes as varias matrizes M (f, B, B) de um endomorfismo
f representadas nas diferentes bases B de um mesmo espaco vectorial.
Pela mesma razao de representarem endomorfismos e de os vectores proprios
destes serem independentes da base fixada, o polinomio caracterstico de matrizes
semelhantes nao se altera:
pA () = pA1 (). (4.49)
Mas pode e deve-se verificar este facto directamente da definicao de pA1 .
Uma matriz diz-se diagonaliz avel se for semelhante a uma matriz diagonal.
Podemos agora afirmar sinteticamente que um endomorfismo admite uma base
de vectores proprios sse a sua representacao matricial e diagonalizavel.
A melhor aproximacao ao problema de diagonalizacao de uma matriz e dada,
grosso modo, pelo teorema da forma can onica de Jordan, que estudaremos mais
tarde.
Para finalizar, lembramos que ha invariantes numericos da classe de equivalencia
por semelhanca de cada matriz. O primeiro, ja visto no exemplo 2 de 4.2.3, e o
determinante.
O mesmo se passa com o traco de uma matriz. Chamamos tra co de A `a soma
das entradas da diagonal principal.
X
n
Tr : Mn,n R, Tr A = aii (4.50)
i=1

e uma aplicacao linear `a qual acresce a propriedade

Tr (AB) = Tr (BA) (4.51)

para quaisquer matrizes A, B Mn,n .


Donde Tr A1 = Tr (P AP 1 ) = Tr (P 1 P A) = Tr A para matrizes semelhantes.
Captulo 5

5.1 Geometria do Espa


co Euclidiano
5.1.1 Produto interno euclidiano
No espaco euclidiano Rn , os problemas metricos, etimo de problemas de medic
ao, sao
entendidos como aqueles que envolvem questoes sobre o produto interno euclidiano.
Trata-se de um conceito matematico que joga o papel da regua e do compasso, ou
seja, dos instrumentos de medida de distancias e angulos. Assim sera tambem
em geral, como veremos mais tarde, em qualquer espaco vectorial munido de um
dispositivo em tudo semelhante e ainda designado de produto interno.
Comecemos pela presente situacao.
O produto interno euclidiano consiste na funcao1
X
n
Rn Rn R, (u, v) 7 hu, vi = xi yi (5.1)
i=1

onde se admite u = (x1 , . . . , xn ), v = (y1 , . . . , yn ).


imediato constatar que o produto interno e uma aplicacao bilinear, ou seja, lin-
E
ear em u quando se fixa v e vice-versa. Basta alias verifica-lo de um lado, porque tem
a propriedade adicional de ser simetrico. Assim, u, u1 , u2 , v, v1 , v2 Rn , , R,

hu1 + u2 , v1 + v2 i = hu1 , v1 + v2 i + hu2 , v1 + v2 i =


= hu1 , v1 i + hu1 , v2 i + hu2 , v1 i + hu2 , v2 i, (5.2)
hu, vi = hv, ui.

Verifica-se tambem que hu, ui 0, com igualdade sse u = 0.


Posto isto, pode-se definir a norma de um vector, associada ao produto interno
euclidiano, como sendo
p q
kuk = hu, ui = x21 + + x2n . (5.3)
1
Roga-se ao leitor o cuidado de nao confundir os parenteses do p.i. com os de subespaco gerado.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 53

O leitor, numa primeira abordagem, podera aqui reconhecer formalmente o teorema


de Pitagoras.
O produto interno euclidiano respeita mesmo a decomposicao de Rn como soma
directa Rn1 Rn2 , onde n = n1 + n2 , de espacos com produto interno. E imediato
provar pela definicao, em sentido dos ndices facil de entender, que se tem

hu, vin = hu1 , v1 in1 + hu2 , v2 in2 (5.4)

onde u = u1 + u2 e v = v1 + v2 representa a decomposicao, u nica, na soma directa.


Daqui segue de facto o teorema de Pitagoras, mas ve-lo-emos adiante noutra forma,
mais geral.
Como exemplo a destacar, calculemos o produto interno de alguns pares de
vectores em Rn . Seja ei = (0, . . . , 0, 1, 0, . . . , 0), i = 1, . . . , n, a base canonica;
entao
hei , ei i = 02 + + 02 + 12 + 02 + + 02 = 1
(5.5)
hei , ej i = 02 + + 0.1 + + 1.0 + + 02 = 0

para i 6= j.
A norma euclidiana obedece `a desigualdade de Cauchy

|hu, vi| kukkvk, com igualdade sse u, v sao colineares. (5.6)

A demonstracao pode ser feita por inducao ou pela analise do binomio descriminante
da parabola hu + v, u + vi em , a qual como ja vimos esta sempre acima do eixo
dos s.
Repare-se agora nas propriedades, faceis de provar, para todos os vectores e
escalares,
kuk = ||kuk, ku + vk kuk + kvk. (5.7)
A segunda chama-se desigualdade triangular.
A desigualdade de Cauchy permite definir o
angulo entre dois vectores
hu, vi
](u, v) = arccos (5.8)
kukkvk
com a determinacao de arccos, e.g., entre 0 e .

5.1.2 Ortogonalidade
Seja U Rn um subconjunto qualquer, nao vazio. Define-se o ortogonal de U
como o subconjunto

U = v Rn : hu, vi = 0, u U . (5.9)

Tem-se que U e sempre um subespaco vectorial.


Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 54

Por linearidade, e evidente que U aparece como espaco solucao do sistema


homogeneo em v = (x1 , . . . , xn ) de, digamos, k equacoes lineares:

hu1 , vi = 0, hu2 , vi = 0, . . . , huk , vi = 0 (5.10)

onde u1 , . . . , uk e um sistema de vectores linearmente independente maximal dentro


de U , ou seja, uma base de hU i (subespaco gerado por U ). Logo dim U = n k.
Como U hU i = {0}, esta provado o

Teorema 20. Para qualquer subconjunto U do espaco euclidiano, temos a decom-


posic
ao em soma directa
Rn = U hU i. (5.11)
Em particular, dim U = n dimhU i.

Seja V um subespaco vectorial; de modo que Rn = V V .


Podemos definir aplicacoes lineares : Rn V e : Rn V dadas pela
nica, w Rn , w = w1 + w2 com w1 V, w2 V : escrevemos
decomposicao u
entao (w) = w1 , (w) = w2 . Tem-se entao as relacoes:

1Rn = + , = 0, = 0,
(5.12)
= = , ker = V ker = V.

e sao de facto lineares e chamam-se projec c


oes ortogonais.
Repare-se que a sucessao de aplicacoes lineares

0 V Rn V 0

(5.13)

com a aplicacao de inclusao, (w) = w, verifica em cada espaco que a imagem da


aplicacao anterior e igual ao n
ucleo da seguinte.
n
E claro que {0} = R , R = {0}. Mais cuidado e preciso ter em verificar que
n

(U ) = hU i. (5.14)

Em particular, para um subespaco vectorial V Rn , tem-se (V ) = V . (E pela


deducao da dimensao, vista no teorema acima, que se afirma a inclusao do ortogonal
do ortogonal em V .)
Por exemplo em R2 , o ortogonal ao vector (a, b), suposto 6= 0, e a recta gerada
por (b, a).
Em R3 , o ortogonal a (a, b, c), suposto 6= 0, e o plano (dim 2) gerado pelo
sistema de vectores linearmente dependente (b, a, 0), (c, 0, a), (0, c, b). Com
efeito, todos os tres vectores sao ortogonais a (a, b, c), como se ve por exemplo no
caso do primeiro, h(b, a, 0), (a, b, c)i = ba + ab + 0c = 0, e tem-se a combinacao
linear c(b, a, 0)+b(c, 0, a)+a(0, c, b) = 0, donde apenas dois em tres daqueles
vectores sao linearmente independentes.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 55

Escrevemos agora duas identidades cuja verificacao e um exerccio. Primeiro, a


do paralelogramo

ku + vk2 + ku vk2 = 2kuk2 + 2kvk2 (5.15)

agoras generalizada: se u v, ou seja, hu, vi = 0,


e, segundo, a identidade de Pit
entao
ku + vk2 = kuk2 + kvk2 . (5.16)
Muitos problemas surgem em geometria euclidiana dos subespacos de Rn para
os quais certas bases sao mais indicadas que outras.
Dizemos, para comecar, que um vector u e unit ario ou normado se kuk = 1.
Define-se base ortonormada como uma base {u1 , . . . , un } do espaco euclidiano
formada de vectores unitarios e ortogonais entre si. Ou seja,
(
1 se =
hu , u i = = (5.17)
0 se 6=

Os sao chamados de smbolos de Kronecker e correspondem `as entradas


da matriz 1n .
Exemplos:

1. A celebre base canonica de Rn e uma base ortonormada, cf. (5.5).

2. Seja U o subespaco vectorial de R4 gerado por u1 = (1, 2, 3, 0) e u2 =


(2, 1, 4, 1). Portanto U = {1 u1 + 2 u2 : 1 , 2 R}. E facil ver que
os dois geradores sao linearmente independentes, ie. formam uma base de U .
A projeccao de u2 sobre a recta ortogonal a u1 dentro de U e u02 = u2 v
onde v = hu1 , u2 i kuu11k2 . Com efeito,

hu1 , u1 i
hu1 , u02 i = hu1 , u2 i hu1 , u2 i =0
ku1 k2

e, por outro lado, u2 = u02 + v com v sobre o eixo u1 . Entao

u1 1 u0 1
u1 = = (1, 2, 3, 0) e u2 = 20 = (6, 9, 4, 7) (5.18)
ku1 k 14 ku2 k 182
formam outra base de U , desta feita uma base ortonormada: h
ui , uj i = ij ,
i, j = 1, 2.
Agora, U e dado pelos vectores (x, y, z, w) solucao de
(
x + 2y + 3z = 0
. (5.19)
2x + y + 4z w = 0
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 56

Uma base ortonormada de U encontra-se pela mesma tecnica:


1 1
u3 = (2, 1, 0, 3), u4 = (9, 6, 7, 4). (5.20)
14 182

Claramente u1 , u2 , u3 , u4 forma uma base ortonormada de R4 = U U .

Antes de passar `as aplicacoes, vejamos ainda dois resultados teoricos sobre a
decomposicao ortogonal.
Primeiro, se U1 U2 Rn sao subespacos vectoriais, entao e claro que U2
U1 .
Segundo, para quaisquer dois subespacos vectoriais U, V tem-se

(U + V ) = U V (U V ) = U + V . (5.21)

Basta ver a primeira igualdade, ja que a segunda decorre desta tomando o ortogonal
do ortogonal. Essencialmente o resultado segue entao de U, V serem subespacos de
U + V Rn .

5.1.3 Subespa
cos afins
Primeiro uma referencia ao conceito de espaco afim, que nao definimos. A duali-
dade, mas nao ambiguidade, entre pontos e vectores devia-nos levar a pensar num
espaco de pontos mais abstracto que Rn , onde sempre fizesse sentido adicionar pon-
tos com vectores, obtendo novos pontos, e onde se verificassem as mais elementares
regras de adicao. Onde a diferenca entre dois quaisquer pontos fosse um vector.
Um espaco afim e pois entendido a partir daquela ideia, mas nao privilegiando
uma origem dos pontos nem um qualquer referencial escolhido, ou seja, e um espaco
abstracto onde sempre que tomamos quaisquer n + 1 pontos em posic ao geral estes
definem uma identificacao com R e onde, ao mudarmos de um referencial para
n

outro, damos lugar a um isomorfismo (afim) do espaco euclidiano.


Entenda-se por agora a questao da invariancia de referencial, sustentada pela
chamada geometria afim, numa forma ideal como a da propria invariancia dos con-
ceitos fundamentais da geometria. Adiada essa questao, continuaremos a trabalhar
apenas com o espaco euclidiano.
Sabemos que os subespacos vectoriais de Rn passam todos por (0, . . . , 0). Para
descrever subconjuntos paralelos a estes so temos de lhes adicionar um ponto.
Chamamos subespaco afim a um subconjunto de Rn do tipo

F = P0 + U, (5.22)

com P0 um ponto qualquer de Rn e U um subespaco vectorial de Rn .


Note-se que o mesmo subespaco afim F pode ser descrito por F = P00 + U com
P00 outro ponto. Basta que o vector P0 P00 pertenca a U .
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 57

O subespaco vectorial U chama-se subespa co associado ao subespaco afim F.


Tambem se diz de U ser a direc c
ao do subespaco afim. Referimo-nos `a dimens ao
de F como sendo a dimensao de U .
Se dim U = 1, entao F diz-se uma recta; se dim U = 2, F diz-se um plano. E
se dim U = n 1, entao dizemos que F e um hiper-plano.
Sendo F0 = P0 + U0 , F1 = P1 + U1 dois subespacos afins de direccoes U0 , U1 , a
sua interseccao, se nao for vazia, e um subespaco afim de direccao U0 U1 .
Diremos que F0 e paralelo a F1 , e escrevemos F0 k F1 , se U0 U1 . Note-se
que tal so depende dos subespacos vectoriais associados e nao dos pontos P0 , P1 . E
claro que se o subespaco afim F0 e paralelo e intersecta F1 , entao esta contido em
F1 . E recprocamente.
Dois subespacos afins dizem-se oblquos se os respectivos subespacos vectoriais
associados tem interseccao trivial.
Sera u
til arranjar criterios para dizer quando dois subespacos afins se encontram.
Neste sentido temos o

Teorema 21. Sejam E, F0 , F1 tres subespacos afins associados, respectivamente,


aos subespacos vectoriais E, U0 , U1 . Suponhamos que F0 , F1 est
ao contidos em E e
que dim(U0 + U1 ) dim E. Entao existe pelo menos um ponto na intersecc ao, ou
seja,
F0 F1 6= . (5.23)

Demonstracao. Sejam Pi Fi , i = 0, 1, quaisquer. Entao P1 P0 E pois P0 , P1


E. Por U0 , U1 E e pela hipotese sobre a dimensao, resulta que U0 + U1 = E.
existem u0 U0 , u1 U1 tais que P1 P0 = u0 + u1 ; daqui vem P1 u1 = P0 + u0
F0 F1 como queramos demonstrar.

Dito de outro modo, se F0 = P0 + U0 esta contido em F1 + U0 = P1 + U1 + U0 ,


entao F0 F1 6= .
Como ja se referiu acima, a dimensao da interseccao e dim U0 U1 .

5.1.4 Problemas m
etricos em subespa
cos afins
Voltemos agora aos problemas metricos.
Dado um subespaco afim F = P0 + U , poderemos referir um subespaco afim or-
togonal ao subespaco afim dado como um qualquer subespaco afim cujo subespaco
vectorial associado e o ortogonal de U .
Por cada ponto do espaco passa um u nico subespaco afim ortogonal ao primeiro.
Agora, tendo em conta que U + U = Rn e que U U = {0} (estao em soma

directa), dado um subespaco afim F de direccao U e dado um ponto P qualquer,


vemos pelo teorema 21 que P + U intersecta F num u nico ponto Q0 .
A Q0 da-se o nome de p e da perpendicular a F passando por P .
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 58

P2
A

F
2
B P1
F F1
2

Figura 5.1: A ortogonal comum.

ancia entre dois subconjuntos A, B de Rn ao valor


Chamamos dist

dist(A, B) = inf kP 0 P 00 k (5.24)


P 0 A, P 00 B

(repare-se que o nfimo existe pelo nosso conhecimento dos n umeros reais e por a
norma ser sempre 0).
A distancia entre dois conjuntos e, assim, o nfimo das distancias entre pares de
pontos, um de A outro de B.
evidente que a distancia entre um ponto P Rn e um subespaco afim F tem
E
a seguinte expressao:

dist(P, F) = kP Q0 k
(5.25)
com Q0 um ponto em F tal que P Q0 F.

Q0 e precisamente o pe da perpendicular a F passando por P . A demonstracao


deste facto resulta da aplicacao do teorema de Pitagoras no triangulo P, Q0 , Q onde
Q e outro ponto qualquer de F.
O seguinte teorema generaliza o resultado anterior.

Teorema 22. Para quaisquer dois subespacos afins F1 , F2 do espaco euclidiano,


existem sempre A F1 e B F2 tais que dist(F1 , F2 ) = kA Bk.
Se F1 , F2 sao oblquos, entao A e B sao u
nicos.

Demonstracao. (Ver figura 5.1) Sejam U1 , U2 subespacos vectoriais e P1 , P2 pontos


quaisquer, tais que Fi = Pi + Ui , i = 1, 2. Seja E = F1 + U2 = P1 + (U1 + U2 ).
Encontremos Q = pe da perpendicular a E passando por P2 . Seja F20 = Q + U2 .
Como Q E, temos E F1 , F20 . Seja entao A F1 F20 um ponto encontrado
pelo teorema 21. Finalmente chamemos B = A + P2 Q. Verifica-se facilmente
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 59

que B F2 . E ainda A B = Q P2 F1 , F2 , cf. (5.21). Agora se Xi Fi ,


i = 1, 2, entao

kX1 X2 k2 = kX1 A + A B + B X2 k2
= kX1 Ak2 + kA Bk2 + kB X2 k2

donde o nfimo destas normas ao quadrado e kABk2 . Uma vez que a raz quadrada
e uma funcao crescente, tem-se dist(F1 , F2 ) = kA Bk.
Vejamos agora a unicidade. Suponhamos U1 U2 = {0} e escolhamos P20
qualquer em lugar de P2 . Seja Q0 o respectivo pe da perpendicular a E. Entao
Q Q0 U2 e logo F20 e u
nico. Entao A e unico e logo B tambem.

A distancia entre dois subespacos afins tais que o primeiro e paralelo ao segundo,
e a distancia entre um ponto qualquer do primeiro subespaco afim e o segundo
subespaco afim:
F1 k F2 = dist(F1 , F2 ) = dist(A, F2 ) (5.26)
com algum A F1 . Com efeito, se B e o pe da perpendicular a F2 passando por
A e se A0 F1 e outro ponto qualquer, como A, entao o pe da perpendicular a F2
passando por A0 e o ponto B 0 = B + A0 A. Por ser F1 paralelo a F2 , tem-se de
A0 A no subespaco associado a F2 .

5.2 Geometria de R3
5.2.1 Equa
coes de rectas e planos
Uma recta2 r = P0 + hui de R3 pode ser dada pela sua equa
cao vectorial

P r P = P0 + tu para algum t R. (5.27)

A recta tambem se pode escrever, resolvendo a equacao anterior em ordem a t,


como a interseccao de dois planos... Supondo P0 = (1 , 2 , 3 ) e u = (a, b, c), entao
P = (x, y, z) estara na recta r sse

x = 1 + at, y = 2 + bt, z = 3 + ct (5.28)

para algum t R. Donde em geral se podera escrever o sistema de equa


coes
axiais da recta como:


bx ay + a2 b1 = 0
cx az + a3 c1 = 0 . (5.29)

bz cy + c b = 0
2 3

2
Em geometria euclidiana e usual denotar os planos por letras gregas min
usculas, as rectas por
letras latinas min
usculas e os pontos por letras latinas mai
usculas.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 60

Este sistema tem caracterstica 2, como e facil provar. Sera mesmo 2 se a recta
nao degenera num ponto: com efeito, por exemplo, se for b 6= 0, entao L2 =
ab L3 + cb L1 .
Vejamos agora o caso de um plano.
Um plano em R3 aparece sempre como o ortogonal a um vector v = (a, b, c),
adicionado de um outro ponto P0 . Ou seja P0 + hvi . A equa c
ao vectorial
do plano e pois
P P P0 v. (5.30)
Assim, denotando o real d = hP0 , vi, a equa
cao axial do plano e

(x, y, z) ax + by + cz = d. (5.31)

Um resultado classico da geometria euclidiana garante que tres pontos definem


um e um so plano. Na geometria analtica encontramos problemas praticos como
esse e muitos outros, que admitimos o leitor deva saber reconhecer.
Exemplos:

1. Sendo dada a recta r pelo sistema de equacoes x = 0, y = 2z + 3, procuremos


a sua equacao vectorial. Os pontos P0 = (0, 3, 0) e P1 = (0, 1, 1) estao na
recta, logo r P0 + hui com u = P1 P0 = (0, 2, 1).

2. Dado o ponto P0 = (2, 3, 1) e a recta r (1 + 3t, 4t, 1 2t), t R, sera que os


dois definem um u nico plano que por eles passa? Qual a sua equacao axial?
Bom, P0 nao satisfaz a equacao da recta r, a qual tem direccao u = (3, 4, 2);
entao ha um so plano que os contem:

P P = P0 + s(P1 P0 ) + tu, s, t R (5.32)

onde P1 e um ponto qualquer na recta. Podemos tomar, por exemplo, P1 =


(1, 0, 1), fazendo t = 0, e entao P1 P0 e linearmente independente de u. O
vector v = (a, b, c) que procuramos para a equacao axial do plano satisfaz a
condicao de ser ortogonal a P1 P0 = (1, 3, 0) e `a direccao da recta r:
( ( (
hP1 P0 , vi = 0 a 3b = 0 a = 3b
. (5.33)
hu, vi = 0 3a + 4b 2c = 0 2c = 5b

Podemos entao tomar v = (6, 2, 5) e logo d = hP0 , vi = 12 6 + 5 = 11;


donde, finalmente, 6x 2y + 5z = 11.

5.2.2 Algumas f
ormulas de dist
ancias
A distancia entre dois pontos P0 , P1 e claramente a norma de P1 P0 .
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 61

A distancia entre um ponto P = (1 , 2 , 3 ) e um plano ax + by + cz = d e


dada pela formula
|a1 + b2 + c3 d|
dist(P, ) = . (5.34)
a2 + b2 + c2
Com efeito, sendo Q0 o pe da perpendicular a passando por P , temos de ter
P Q0 = t(a, b, c) = tu, com t R a descobrir. Ora, hP Q0 , ui = tkuk2 . Entao
dist(P, ) = kP Q0 k = |t|kuk = kuk1
|a1 + b2 + c3 d|, como queramos.
Dependente da forma como aparecem as equacoes, assim se justificara a melhor
e mais expedita formula.
A distancia entre um ponto P e uma recta r P0 + tu, t R e dada por
s
kP P0 k2 kuk2 hu, P P0 i
dist(P, r) = . (5.35)
kuk2

De novo, sendo Q0 o pe da perpendicular a r que passa por P , temos Q0 = P0 + tu


para algum t e por definicao P Q0 u. Desenvolvendo, obtem-se (5.35). Formula
valida tambem em Rn , note-se.
Exemplos:

1. A distancia entre o ponto P por exemplo de coordenadas (t, t2 , t3 ), com t R


qualquer, e o plano de direccao gerada por (2, 3, 2), (1, 0, 1) e que passa
por (1,0,0), calcula-se do seguinte modo: a direccao ortogonal a e gerada
por (3,-4,-3), como e facil de ver. Como d = h(1, 0, 0), (3, 4, 3)i = 3, resulta
que 3x 4y 3z = 3. Entao a distancia dist(P, ) = |3t4t3t
2 3 3|

34
.

2. Podemos falar em distancias entre rectas e planos em R3 se estes forem par-


alelos, cf. (5.26). Por exemplo, entre a recta s dada pelo sistema de equacoes
4x y + z = 2, 2z 3y = 3 e o plano 4z 6y = 0. Primeiro, s e paralela
a porque esta contida no plano 2z 3y = 3, o qual claramente tem a mesma
direccao ortogonal que . Um ponto na recta e, por exemplo, P = ( 41 , 1, 0);
entao
63 3
dist(s, ) = dist(P, ) = = . (5.36)
16 + 24 2 10
Tambem poderamos ser acometidos com problemas de determinacao de angulos
entre recta e plano, ou entre dois planos.
Sendo r P0 + tu, t R e P P1 v, definimos o
angulo entre recta e
plano como ](r, ) = ](u, v). Se P P2 w e outro plano, podemos definir
](, ) = ](v, w) como o angulo entre dois planos.

5.2.3 Polgonos e poliedros


Um segmento de recta de extremidades P0 , P1 e entendido como o conjunto de
pontos (1 t)P0 + tP1 , com 0 t 1. Denota-se por P0 P1 . Aos extremos tambem
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 62

se da o nome de v ertices. Se P0 6= P1 , entao ha uma u nica recta que contem o


segmento de recta; e a recta suporte.
Um triangulo e uma uniao de tres segmentos descritos por apenas tres vertices
nao colineares. Denota-se por P0 P1 P2 .
A partir de segmentos de recta Pi1 Pi , i = 1, . . . , k, denominados arestas ou
lados, podemos construir os chamados polgonos ou linhas poligonais fechadas:

P0 P1 P2 Pk = P0 P1 P1 P2 Pk1 Pk , (5.37)

sem outras repeticoes de vertices alem de Pk = P0 .


O comprimento de um segmento de recta P0 P1 e a quantidade real L(P0 P1 ) =
kP1 P0 k.
Um quadril atero e entendido como um polgono de quatro lados, fechado e
contido num plano. Um trap ezio e um quadrilatero em que dois dos lados sao
paralelos.
Um paralelogramo e um quadrilatero em que os lados nao adjacentes sao
paralelos e tem o mesmo comprimento.
Um paralelogramo e pois descrito em Rn por um vertice P0 e dois vectores u, v
linearmente independentes, com os quais se constroem os outros vertices, a saber
P0 + u, P0 + v, P0 + u + v. Vamos denotar uma tal polgono por (P0 , u, v).
Um polgono diz-se regular se for plano, se todos os lados tem o mesmo com-
primento e se todos os vertices formam o mesmo angulo. Por exemplo, o triangulo,
o quadrado, o pentagono, o hexagono, o heptagono, o octogono, etc sao polgonos
regulares. Estes existem sempre, qualquer que seja o n umero k de arestas, se k 3.
Sem preocupacoes de maior, avancemos agora para a teoria dos poliedros, gen-
eralizando a 3 dimensoes o conceito de polgono.
Diremos que os poliedros sao as unioes de varios polgonos planos pelas suas
arestas, as quais sao coincidentes em pares.
Cada um destes polgonos determina uma face; a geometria3 dos poliedros pode
ser bem complicada. Um poliedro diz-se convexo se sempre que tomamos dois
pontos em faces diferentes o segmento de recta que os une nao toca nenhuma outra
face.

Teorema 23 (relac ao de Euler). Para qualquer poliedro convexo, verifica-se a


relac
ao, dita de Euler,
V A+F =2 (5.38)
onde V =n
umero de vertices, A =n
umero de arestas e F =n
umero de faces.
3
Na realidade, e a parte da geometria chamada de topologia do espaco euclidiano que nao cabe
nestas notas. Teramos de definir o interior do poliedro. E tambem no domnio da topologia, a
topologia algebrica, que se demonstra cabalmente a relacao de Euler.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 63

Faremos aqui um esboco, muito incompleto, da demonstracao. Argumentos mais


profundos encontram-se e.g. em [Aud03]. Mencionamos apenas um raciocnio de
construcao/por inducao. Aceitemos entao que o poliedro, so porque e convexo(!), se
decompoe, como um lego, em tetraedros figura de 4 faces, 4 vertices e 6 arestas,
verificando 4 6 + 4 = 2. Agora suponhamos que a formula (5.38) e valida para um
dado poliedro e acrescentemos-lhe um tetraedro junto de uma qualquer face. Esta
face desaparece. Ao poliedro acresce entao um 1 vertice, 3 arestas e 2 faces. Como
1 3 + 2 = 0, a identidade de Euler nao se altera.
Posto isto, diremos que um poliedro e regular se todas as faces sao c opias
do mesmo polgono regular e todos os vertices sao copia do mesmo vertice (copia
significa isometria, em sentido a precisar noutra seccao).
Um s olido platonico e um poliedro regular convexo.
Teorema 24. Considere-se um poliedro convexo tal que cada face tem o mesmo
n
umero s de arestas e de cada vertice emanam o mesmo n umero r de arestas.
Ent
ao (s, r) esta entre os casos (3, 3), (3, 4), (4, 3), (3, 5) ou (5, 3).
Demonstracao. Seguindo a notacao anterior, tem-se F s = 2A (cada aresta encontra
duas faces) e 2A = rV (cada aresta tem dois vertices). Da relacao de Euler resulta
entao, substituindo, 2A
r
A + 2A
s
= 2. Entao
1 1 1 1 1
+ = + >
r s 2 A 2
visto que A > 0. Uma vez que cada face tem pelo menos 3 arestas e cada vertice
encontra pelo menos 3 faces, vem r, s 3. Entao
1 1 1 1 1 1
> =
r 2 s 2 3 6
donde r 5. Fazendo o mesmo para s, da-nos s 5. Ve-se bem da primeira
desigualdade que os casos simultaneamente r, s {4, 5} nao sao solucao.

Alem de u
nicos a menos da escala, os 5 casos descritos no teorema anterior sao
de facto possveis de construir como poliedros regulares. Pela ordem do enunci-
ado do teorema, tratam-se do tetraedro, do cubo (hexaedro), do octaedro, do
dodecaedro4 e do icosaedro.
Como se ve pela demonstracao acima, os naturais r, s determinam V, A, F :
r s V A F
tetraedro 3 3 4 6 4
cubo 3 4 8 12 6
(5.39)
octaedro 4 3 6 12 8
dodecaedro 3 5 20 30 12
icosaedro 5 3 12 30 20
4
Do grego, dodeca=do+deca=2+10=12. Icosa=20.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 64

Figura 5.2: Os 5 solidos platonicos.


Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 65

Mais ainda, os pares (r, s) sao duais no sentido seguinte: dado um poliedro convexo,
construimos o seu dual unindo com segmentos de recta os centros das faces.
Como um polgono regular tem tantas arestas quantos vertices, o poliedro dual
do poliedro dual e o poliedro inicial.
Nao e difcil compreender que no caso dos poliedros regulares convexos, os val-
ores de r, s trocam entre si, na troca pelo dual. Assim, o tetraedro coincide com o
seu dual, o cubo e dual do octaedro e o dodecaedro e dual do icosaedro.
Tendo em conta o conhecimento comum dos tres primeiros solidos e a dualidade
do icosaedro, restar-nos-a demonstrar a possibilidade honesta de construcao do
dodecaedro; remetemos o leitor para [Aud03].
Terminamos aqui esta brevssima incursao pela geometria classica e combi-
natoria, esperando ter por esclarecida a classificacao dos solidos platonicos, tal
como podemos ver na figura 5.2.

5.2.4 Comprimentos,
areas e volumes
Ja vimos em que consiste o comprimento de um segmento de recta. O compri-
mento de uma linha poligonal 4 = P0 P1 P2 Pk e a quantidade real

X
k
L(4) = kPi Pi1 k. (5.40)
i=1

L(4) tambem se diz permetro quando a linha e fechada: Pk = P0 .


area de um paralelogramo (P0 , u, v), a qual se
Interessa-nos agora a nocao de
define como a quantidade real, independente de P0 :

A(u, v) = kukkvk sen ](u, v). (5.41)

De (5.3), (5.8) e da igualdade trigonometrica sen 2 + cos2 = 1 (que aqui define a


propria funcao seno), resulta de imediato
p
A(u, v) = hu, uihv, vi hu, vi2 . (5.42)

# R e supondo que u = (a, b), v =


2
Supondo que estamos no " espa
# co "euclidiano
u a b
(c, d), designemos por L = = ; entao daqui vira
v c d
" # " #
a2 + b2 ac + bd hu, ui hu, vi
LLT = = . (5.43)
ac + bd c2 + d2 hu, vi hv, vi

Como det(LLT ) = det L det LT = (det L)2 , aplicando a (5.42) descobrimos a for-
mula p
A(u, v) = det(LLT ) = | det L | = | det(u, v)| = |ad bc| (5.44)
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 66

ou seja
A = | det |. (5.45)
Da soma de areas de paralelogramos resultam as areas de outras superfcies
seccionalmente planas. A funcao area devera ser aditiva 5 . Em particular, a area de
um triangulo de arestas u, v tem de valer 12 | det(u, v)|.
Voltemos a Rn com n 3. Comecemos por generalizar a nocao de paralelo-
gramo.
Um paralelippedo e um poliedro de 6 faces tal que as faces sao paralelogramos
e copia umas das outras em planos paralelos, quando nao adjacentes.
Um paralelippedo e pois descrito em Rn por um vertice P0 e tres vectores u, v, w,
com os quais se constroem os outros vertices, a saber P0 + u, P0 + v, P0 + w, P0 +
u + v, P0 + u + w, P0 + v + w, P0 + u + v + w. Vamos denotar um tal poliedro por
(P0 , u, v, w).
Damos agora a nocao de volume de um paralelippedo (P0 , u, v, w), o qual se
define como a quantidade real, independente de P0 :
V (u, v, w) = A(u, v)kw Qk (5.46)
onde Q e o pe da perpendicular passando pela extremidade de w ao plano gerado
por u, v.
Note-se que, tal como a area corresponde ao comprimento da base vezes a
altura, tambem o volume corresponde a area da base vezes altura.
Consideremos a matriz

kuk2 hu, vi hu, wi

G = hu, vi kvk2 hv, wi . (5.47)
hu, wi hv, wi kwk 2

Teorema 25. Dado um paralelippedo (P0 , u, v, w) em Rn , o seu volume e dado


por
V (u, v, w) = det G. (5.48)
Demonstracao. Tem-se Q = u + v para certos , R. O sistema de equacoes
w Q u, v traduz-se como
( (
hw u v, ui = 0 kuk2 + hv, ui = hw, ui
.
hw u v, vi = 0 kvk2 + hv, ui = hw, vi
Usamos uma notacao habitual E = kuk2 , F = kvk2 , G = hu, vi (nao se confunda
com o G do enunciado). Usamos tambem = hw, ui, = hw, vi, = kwk2 e ainda
A2 = EF G2 . Continuando a resolver o sistema anterior, vem
( (
E + G = = EG
A2 .
G + F = = FAG
2

5
Eis outra noc
ao que escapa ao ambito deste curso.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 67

Se fosse A = 0 o sistema u, v seria degenerado, ou seja, u, v seriam linearmente


dependentes; mas ve-se bem que neste caso o determinante do enunciado tambem
e nulo.
Por definicao, kQk2 = ku + vk2 = 2 E + 2G + 2 F . Substituindo resulta

kQk2 A4 = (G + F )2 E + 2(E G)(F G)G + (E G)2 F


= 2 G2 E 2EF G + 2 F 2 E + 2EF G 2 2 EG2
2 2 F G2 + 2G3 + 2 E 2 F 2EF G + 2 G2 F
= 2 (E 2 F EG2 ) + 2(G3 EF G) + 2 (F 2 E F G2 )
= 2 EA2 2GA2 + 2 F A2 .

Tem-se ainda kw Qk2 = kwk2 kQk2 , pelo teorema de Pitagoras com w na


hipotenusa ou lado maior. Donde

V 2 = kw Qk2 A2
= kwk2 A2 kQk2 A2
= 2 A2 2 E + 2G 2 F

E G


= 2 A2 (F G) + (G E) = G F

Esta u
ltima e ja a igualdade que se procurava.

A formula encontrada mostrara tambem que a nocao de volume e totalmente


simetrica em u, v, w, ou seja, tambem podemos dizer que

V (u, v, w) = V (u, w, v) = V (v, w, u) (5.49)

e outras simetrias obvias.


Vejamos agora a situacao em que n = 3.
O volume de um paralelippedo em dim 3 e dado pelo determinante dos tres
vectores u, v, w que o geram: sendo u = (a11 , a12 , a13 ), v = (a21 , a22 , a23 ), w =
(a31 , a32 , a33 ), vem


a11 a 12 a 13

V (u, v, w) = det a21 a22 a23 . (5.50)

a31 a32 a33

Ou seja, V (u, v, w) = | det(u, v, w)|.


A demonstracao desta formula e analoga ao caso da dim 2: pondo L = [aij ], de
novo se deduz (det L)2 = det G.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 68

Invocando a multilinearidade do determinante, percebemos que o volume e uma


funcao aditiva 6 . Em particular, como um cubo contem 6 tetraedros de iguais com-
primentos das arestas, podemos concluir que o volume do tetraedro gerado por
quaisquer u, v, w e
1
Volume(tetraedro(u, v, w)) = V (u, v, w). (5.51)
6
Voltemos `a dimensao n qualquer. A expressao do volume como um determinante
generaliza-se a Rn e mais geralmente a espacos vectoriais orientados com produto
interno.

6
Tal como no caso da area, este aditiva seria bastante demorado de explicitar. Tem o sentido
e a consequencia de a func
ao volume ser linear sobre a decomposicao dos poliedros em tetraedros,
para aqueles que a admitam.
Bibliografia

[Agu83] F. R. Dias Agudo. Introduc ao `a algebra linear e geometria analtica.


Livraria Escolar Editora, 1983.

[Aud03] M. Audin. Geometry. Universitext. Springer-Verlag Berlin Heidelberg


New York, 2003.

[Gro83] L. C. Grove. Algebra. Academic Press, 1983.



[Mac90] A. Machado. Topicos de Algebra Linear e Multilinear. Textos e Notas 42.
Instituto Nacional de Investigacao Cientfica, 1990.

[Mon89] A. J. A. Monteiro. Algebra linear e geometria analtica. Associacao dos
Estudantes da Faculdade de Ciencias de Lisboa, 1989.

[Wik] Wikipedia. www.


Indice

area, 65 comutativo, 10, 11


angulo condensacao, 20
entre dois planos, 61 conjunto
entre dois vectores, 53 de chegada, 8
entre recta e plano, 61 de partida, 8
corpo, 12
abeliano, 10, 11 Cramer
alternada, 31 regra de , 37
anel, 11 cubo, 63
unitario, 11
anti-simetrica, 31 desigualdade triangular, 53
aplicac
ao, 8 determinante, 29
linear, 43 de um endomorfismo, 48
aresta, 62 diagonal, 7
associativa, 9 diagonal principal, 17
automorfismo, 44 diagonalizavel, 51
dimensao, 14, 40, 41, 57
base, 40 direccao, 57
canonica, 32 distancia, 58
ortonormada, 55 dodecaedro, 63
caracterstica, 20 elemento
de coluna, 23 neutro, 9
de linha, 23 oposto, 9
Cauchy simetrico, 9
desigualdade de , 53 endomorfismo, 44
ciclo, 27 entradas, 14
classes de equivalencia, 7 epimorfismo, 44
coeficientes, 14 escalar, 39
coluna, 14 espaco
combinacao linear, 40 afim, 56
complementar, 6 cartesiano, 21
complemento algebrico, 36 euclidiano, 21
composicao, 8 vectorial, 39
composta, 8 espaco vectorial
comprimento, 62, 65 gerado, 40
comutam, 16 produto, 42
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 71

soma cartesiana, 42 linearmente


Euler dependentes, 22
relacao de , 62 independentes, 22, 40
linha, 14
face, 62 linhas poligonais fechadas, 62
funcao, 8
bijectiva, 8 metodo de Gauss, 20
identidade, 8 matriz, 14
injectiva, 8 adjunta, 36
inversa, 8 ampliada, 19
sobrejectiva, 8 anti-simetrica, 17
da aplicacao linear, 45
Gauss de mudanca de base, 47
metodo de , 20 diagonal, 16
geometria afim, 56 diagonalizavel, 51
grau de indeterminacao, 21 identidade, 16
grupo, 9 invertvel, 17
permutacoes, de, 10, 27 ordem, 16
simetrico, 10, 27 quadrada, 16
sub, 10 simetrica, 17
hexaedro, 63 traco de uma , 51
hiper-plano, 57 transposta, 17
triangular inferior, 17
icosaedro, 63 triangular superior, 17
identidade, 16 matrizes
imagem, 8 semelhantes, 50
imagem recproca, 43 maximal, 40
independencia linear, 22 menor, 40
interseccao, 6 monomorfismo, 44
inversa, 8 multiplicacao
`a direita, 8 de matrizes, 14
`a esquerda, 8 por escalar, 39
inverso, 9 multiplicidade
invertvel, 17 algebrica, 49
`a direita, 17 geometrica, 49
`a esquerda, 16
isomorfismo, 44 n
ucleo, 44
norma, 52
Kronecker normado, 55
smbolos de , 55
objecto, 8
lado, 62 oblquos, 57
Laplace octaedro, 63
regra de , 35 ordem, 16, 27
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 72

ortogonal, 53, 57 regular


polgono , 62
pe da perpendicular, 57 relacao, 7
paralelippedo, 66 de equivalencia, 7
paralelo, 57 de Euler, 62
paralelogramo, 55, 62 resto, 12
pares ordenados, 6 reuniao, 6
permetro, 65
permutacao, 27 solido platonico, 63
sinal, 28 smbolos de Kronecker, 55
permutam, 16 Sarrus
pertence, 6 regra de , 29
Pitagoras, 55 segmento de recta, 61
plano, 57 simetrico, 10
equacao axial, 60 simetria, 7
equacao vectorial, 60 sinal, 28
polgono, 62 sli, 40
regular, 62 soma directa, 43
poliedro, 62 subconjunto, 6
convexo, 62 subespaco
dual, 65 afim, 56
regular, 63 associado, 57
polinomio caracterstico, 49 ortogonal, 53
produto cartesiano, 6 proprio, 49
produto interno vectorial, 40
euclidiano, 52 vectorial soma, 42
projeccao subgrupo, 10
ortogonal, 54
tetraedro, 63
quadrilatero, 62 traco, 51
quociente, 12 transitiva, 7
transposicao, 27
recta, 57 trapezio, 62
equacao axial, 59 triangulo, 62
equacao vectorial, 59
segmento de , 61 vertice, 62
suporte, 62 valor, 8
reflexiva, 7 valor proprio, 49
regra de vazio, 6
Cramer, 37 vector, 21, 39
Laplace, 35 normado, 55
na 1a linha, 35 proprio, 49
produto, 34 unitario, 55
Sarrus, 29 volume, 66

Você também pode gostar