Escolar Documentos
Profissional Documentos
Cultura Documentos
R. Albuquerque
14 de Fevereiro de 2013
Prontuario de
Algebra Linear e Geometria Analtica
Segunda versao
Rui Albuquerque
rpa@uevora.pt
Departamento de Matematica da Universidade de Evora
Rua Romao Ramalho, 59, 7000-671 Evora, Portugal
Introduc
ao
Estes apontamentos serviram de guia `a disciplina Algebra Linear e Geometria
Analtica das licenciaturas em areas da Engenharia e da Fsica da Universidade de
Evora do ano lectivo 2008/09. A materia segue a das aulas teoricas, complementada
com exemplos e problemas novos.
Percorrem-se diversos temas da algebra ligados `a geometria dos espacos vec-
toriais e das aplicacoes lineares, estruturas fundamentais da Fsica-Matematica-
Engenharia.
2
1 6
1.1 Topicos elementares da Teoria dos Conjuntos . . . . . . . . . . . . 6
1.1.1 Primeiras nocoes . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.2 Relacoes de equivalencia . . . . . . . . . . . . . . . . . . . . 7
1.1.3 Funcoes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 Topicos de Estruturas Algebricas . . . . . . . . . . . . . . . . . . . 9
1.2.1 Grupos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.2 Aneis e Corpos . . . . . . . . . . . . . . . . . . . . . . . . . 11
2 14
2.1 Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.1 Primeiras definicoes . . . . . . . . . . . . . . . . . . . . . . . 14
2.1.2 Matrizes especiais . . . . . . . . . . . . . . . . . . . . . . . . 16
2.1.3 Transposta . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Sistemas de Equacoes Lineares . . . . . . . . . . . . . . . . . . . . . 18
2.2.1 Metodo de resolucao pela adicao ordenada . . . . . . . . . . 18
2.2.2 Condensacao de uma matriz . . . . . . . . . . . . . . . . . . 19
2.2.3 Estudo dos sistemas . . . . . . . . . . . . . . . . . . . . . . 20
2.3 Espaco Euclidiano . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.1 O espaco vectorial Rn ou espaco euclidiano . . . . . . . . . . 21
2.3.2 Independencia linear . . . . . . . . . . . . . . . . . . . . . . 22
2.4 A caracterstica e a inversa de novo . . . . . . . . . . . . . . . . . . 23
2.4.1 Caracterstica de linha vs caracterstica de coluna . . . . . . 23
2.4.2 Calculo da inversa . . . . . . . . . . . . . . . . . . . . . . . 25
3 27
3.1 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.1.1 Grupos de permutacoes . . . . . . . . . . . . . . . . . . . . . 27
3.1.2 Definicao de determinante . . . . . . . . . . . . . . . . . . . 29
3.1.3 Propriedades do determinante . . . . . . . . . . . . . . . . . 29
3.1.4 Calculo de determinantes . . . . . . . . . . . . . . . . . . . . 31
3.1.5 Regra do produto . . . . . . . . . . . . . . . . . . . . . . . . 32
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 5
4 39
4.1 Espacos vectoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.1.1 Definicoes e exemplos . . . . . . . . . . . . . . . . . . . . . . 39
4.1.2 Bases e dimensao . . . . . . . . . . . . . . . . . . . . . . . . 40
4.1.3 Soma cartesiana e soma directa . . . . . . . . . . . . . . . . 42
4.2 Aplicacoes lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2.1 Definicoes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2.2 Representacao matricial . . . . . . . . . . . . . . . . . . . . 44
4.2.3 Composicao vs produto . . . . . . . . . . . . . . . . . . . . 46
4.2.4 Valores e vectores proprios . . . . . . . . . . . . . . . . . . . 48
4.2.5 Matrizes semelhantes . . . . . . . . . . . . . . . . . . . . . . 50
5 52
5.1 Geometria do Espaco Euclidiano . . . . . . . . . . . . . . . . . . . . 52
5.1.1 Produto interno euclidiano . . . . . . . . . . . . . . . . . . . 52
5.1.2 Ortogonalidade . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.1.3 Subespacos afins . . . . . . . . . . . . . . . . . . . . . . . . 56
5.1.4 Problemas metricos em subespacos afins . . . . . . . . . . . 57
5.2 Geometria de R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.2.1 Equacoes de rectas e planos . . . . . . . . . . . . . . . . . . 59
5.2.2 Algumas formulas de distancias . . . . . . . . . . . . . . . . 60
5.2.3 Polgonos e poliedros . . . . . . . . . . . . . . . . . . . . . . 61
5.2.4 Comprimentos, areas e volumes . . . . . . . . . . . . . . . . 65
Captulo 1
1.1 T
opicos elementares da Teoria dos Conjuntos
1.1.1 Primeiras noc
oes
Ami ude necessitamos de referir aquilo que se conhece como conjuntos e descrever
as suas relacoes, que se entendem como relac
oes que os elementos desses conjuntos,
e de outros, satisfazem entre si.
Os conjuntos designam-se por letras: A, B, C, .... Se escrevemos x A, quere-
mos dizer que x pertence a A ou, o que e o mesmo, x e elemento de A.
Novas relacoes/notacoes: chamamos intersec c
ao e reuniao, respectivamente,
aos conjuntos
1.1.2 Rela
coes de equival
encia
Algum tipo de relacoes entre elementos de um ou varios conjuntos e particular-
mente u til na conceptualizacao de novas propriedades e distincoes. Por exemplo,
a relacao de ordem total em R esta intrnsecamente ligada aos fundamentos da
Analise Matematica.
Tratamos, neste momento, das relacoes de equivalencia, as quais decompoem
um dado conjunto X em classes de equivalencia. Lembremos que uma rela c
ao
consiste numa determinada escolha de pares ordenados. Dizemos que uma relacao
em X e uma relac ao de equival encia se:
x X, x x (reflexividade),
x X, x y y x (simetria), (1.4)
x, y, z X, x y & y z x z (transitividade).
Cx Cx1 6= x x1 . (1.5)
da origem a uma u
nica relacao de equivalencia em Z, a saber:
x y : x, y Z . (1.7)
1.1.3 Fun
coes
Conceito fundamental em matematica e o de funcao, um dispositivo que estabelece
uma correspondencia entre um dado conjunto X, chamado de partida, e outro
conjunto Y , dito de chegada. Tambem se chama a uma funcao uma aplica cao.
Denota-se por
f : X Y, x X 7 y = f (x) Y. (1.8)
Uma tal correspondencia so e uma fun ao quando a cada x X, um objecto, se
c
atribui um, e um so, valor ou imagem y = f (x) Y .
A funcao diz-se injectiva se, para xs distintos em X, f atribui valores f (x)s
tambem distintos. Formalmente,
y Y, x X : y = f (x). (1.11)
y Y, o valor de f 1 (y) e o u
nico x : f (x) = y. (1.12)
1.2 T
opicos de Estruturas Alg
ebricas
1.2.1 Grupos
A nocao algebrica simultaneamente mais elementar e necessaria e a de grupo.
Um conjunto G munido de uma operacao binaria
que satisfaz
chama-se um grupo.
Prova-se facilmente que o elemento neutro e u nico e que o inverso de cada
elemento tambem e u nico. O truque esta, em ambos os casos, em comecar por
supor que existem dois elementos e acabar por chegar a um absurdo.
Usamos acima a notacao multiplicativa. Por vezes usa-se a aditivia. Na primeira
notacao, o elemento neutro designa-se por e ou por 1. Na segunda, por 0. Na
primeira notacao, o inverso de a denota-se por a1 , e na segunda denota-se por a
e chama-se oposto ou sim etrico de a.
Exemplos:
Nos grupos dos exemplos 1 e 2 acima, as operacoes, bem conhecidas, sao comu-
tativas.
Um grupo G qualquer diz-se comutativo ou abeliano se
ab = ba, a, b G. (1.18)
L : G A(G), g 7 Lg , (1.22)
1.2.2 An
eis e Corpos
A nocao que se segue e muito rica, ainda que dispensavel num curso de Algebra
Linear.
Seja A um conjunto munido de duas operacoes, + e vezes , tais que
ab = 0 = a = 0 ou b = 0. (1.26)
ax = b x = a1 b. (1.27)
Estas leis demonstram-se com grande facilidade. Veremos em seguida que ha corpos
finitos.
Um famoso teorema de Euclides garante que, se tivermos dois n
umeros inteiros
m, n, entao existem dois n
umeros inteiros unicos q e r (chamados quociente e
resto) tais que
0 r n 1 e m = qn + r. (1.28)
Dizemos que r e o resto de m mod n. Se somarmos ou multiplicarmos dois m1 , m2
Z, temos
+ 0 1 2 3 4 0 1 2 3 4
0 0 1 2 3 4 0 0 0 0 0 0
1 1 2 3 4 0 1 0 1 2 3 4
(1.30)
2 2 3 4 0 1 2 0 2 4 1 3
3 3 4 0 1 2 3 0 3 1 4 2
4 4 0 1 2 3 4 0 4 3 2 1
2.1 Matrizes
2.1.1 Primeiras defini
coes
Damos o nome de matriz a uma tabela A = [aij ]i=1,...,p com entradas ou coefi-
j=1,...,q
cientes1 aij R.
O ndice p e o n
umero de linhas e q o de colunas. Denotamos
a11 a12 a1q
a21 a22 a2q
A= . .. .. . (2.1)
.. . .
ap1 ap2 apq
p e q sao as dimens
oes da matriz A. Faz jeito chamar
O interesse das matrizes esta, como veremos mais tarde, na representacao das
aplicac
oes lineares que elas possibilitam.
A estrutura de grupo de (R, +) passa automaticamente para Mpq . Dadas quais-
quer matrizes A, B Mpq , sendo A = [aij ] e B = [bij ], i = 1, . . . , p, j = 1, . . . , q,
temos por definicao
A + B = [aij + bij ], (2.3)
permanecendo em Mpq .
Se R, entao denotamos por A a matriz [aij ], com as mesmas dimensoes.
Em seguida definimos a multiplica c
ao de duas matrizes. Tambem aqui ha
uma condicao nos ndices. Esta operacao tem uma ordem. Logo pomos uma matriz
`a esquerda e outra `a direita, como um par ordenado, e a condicao e que, para as
multiplicarmos, a da esquerda deve ter n umero de colunas igual ao n
umero de linhas
da da direita.
1
Poderamos deixar estes aij pertencerem a um corpo K ou mesmo um anel qualquer previa-
mente fixado, mas aqui prosseguimos apenas com matrizes reais.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 15
Assim
X
q
ij = ai1 b1j + + aiq bqj = aik bkj . (2.5)
k=1
X
l X
l X
q
X
q
X
l X
q
st ctv = (ask bkt )ctv = ask (bkt ctv ) = ask kv . (2.7)
t=1 t=1 k=1 k=1 t=1 k=1
A(C + D) = AC + AD
(2.8)
(A + B)C = AC + BC.
Note que as igualdades fazem sentido no computo das dimensoes das matrizes. A
demonstracao daquelas igualdades e trivial.
Exemplos:
" # 4 5 3 " #
2 3 1 13 20 21
1 2 5 = , (2.9)
2 0 1 6 6 6
2 4 0
h i 2 2 h i 4 6 8
2 3 4 3 = 9, 3 2 3 4 = 6 9 12 . (2.10)
1 1 2 3 4
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 16
Como se ve, as matrizes nao permutam no produto. Dizemos que duas matrizes
dadas A e B permutam ou comutam se AB = BA. Isso nao acontece em geral,
mesmo se forem quadradas.
E importante notar que Mpp , chamado o espaco das matrizes quadradas, e
uma anel com a soma e produto introduzidos, pois tal espaco e fechado para o
produto. O ndice de linhas p igual ao ndice de colunas tambem se diz a ordem
de cada matriz quadrada.
Repare-se agora que, para qualquer matriz A Mpq ,
1 0 0
0 1 a a a a
0
11 1q 11 1q
.. ..
. . = . , (2.11)
.. 0
ap1 apq ap1 apq
0 0 1
1 0 0
a11 a1q a a
0
11 1q
.. 0 1 ..
. . = . . (2.12)
.. 0
ap1 apq ap1 apq
0 0 1
Uma matriz quadrada D = [dij ] de ordem p diz-se diagonal se dij = 0, i 6= j.
Chamamos matriz identidade, e denotamo-la por 1p , `a matriz diagonal que tem
dii = 1, i = 1, . . . , p.
As formulas (2.11,2.12) reescrevem-se portanto como
1p A = A e A1q = A. (2.13)
Uma matriz A Mmn diz-se invertvel ` a direita se existe C Mnm tal que
AC = 1m .
Uma matriz diz-se invertvel se o for `a esquerda e `a direita. Neste caso prova-se
facilmente que B = C e que a matriz A tem de ser quadrada2 , n = m. A matriz
nica B = C denota-se por A1 :
u
AA1 = A1 A = 1n . (2.15)
2.1.3 Transposta
Dada uma matriz A Mmn , definimos a transposta de A = [aij ]i=1,...,m como a
j=1,...,n
matriz AT Mnm dada por AT = [aTji ]j=1,...,n onde
i=1,...,m
Claro que as operacoes escolhidas foram as que mais rapidamente permitiram anular
alguma variavel. Este metodo tem por isso as suas vantagens sobre o primeiro3 .
Vejamos outro exemplo:
4x + y + z = 0
4x + y + z = 0
4x + y + z = 0
8x + z = 0 2y z = 0 2y z = 0 , (2.24)
4x y = 0
2y z = 0 0=0
Neste caso, quaisquer que sejam os valores nas reticencias iniciais, o sistema e
sempre possvel e determinado. Mas nem sempre e assim. Considere-se o sistema
em x, y: ( (
4x + y = c 4x + y = c
(2.26)
8x + 2y = d 0 = d 2c
Aqui ha claramente duas hipoteses: o sistema e possvel indeterminado se d = 2c,
e impossvel no caso contrario. De qualquer forma o estudo das equacoes indepen-
dentes parte dos coeficientes do lado esquerdo.
2.2.2 Condensa
cao de uma matriz
Em geral, um sistema de m equacoes a n incognitas aparece como
a11 x1 + + a1n xn = b1
.. . (2.27)
.
am1 x1 + + amn xn = bm
desenvolver este processo de forma ordenada com vista a encontrar uma matriz
triangular superior.
Agora, das primeiras r linhas, ve-se bem que o sistema e possvel determinado
sse r = n; ou seja, indeterminado sse r < n. A n r da-se o nome de grau de
indeterminac ao do sistema (este grau e tambem a dimens
ao do espaco de solucoes
4
do sistema ).
Em resumo, pondo r(A) = n umero de linhas independentes, temos o seguinte
quadro.
r(A) = r(A|B) r(A) < r(A|B)
sistema possvel s. impossvel
(2.33)
determinado indeterminado
sem solucoes
r(A) = n r(A) < n
ci , di , R, i = 1, . . . , n.
Repare-se agora que uma matriz A Mmn induz uma funcao ou aplicac
ao
A : Rn Rm , X 7 AX (2.35)
2.3.2 Independ
encia linear
Vimos no estudo dos sitemas de equacoes lineares a necessidade de fazer anular
linhas de uma dada matriz `a custa de outras linhas. Essa possibilidade da lugar a
um conceito em Rn .
Dizemos que um conjunto (ou um sistema) de m vectores do espaco euclidiano
R , ou seja, {L1 , . . . , Lm } Rn , e um conjunto de vectores linearmente depen-
n
1 L1 + + m Lm = 0 = 1 = = m = 0. (2.38)
escrevemos o sistema
1 l11 + + n ln1 + n+1 ln+1,1 = 0
.. (2.41)
.
1 l1n + + n lnn + n+1 ln+1,n = 0
onde Li = (li1 , . . . , lin ). Como sabemos, tal sistema e sempre possvel indetermi-
nado. Existem entao solucoes 1 , . . . , n+1 nao nulas, como queramos.
1 L1 + + i Li + + j Lj + + m Lm = 0 (2.42)
1 L1 + +
i (Li + Lj ) + +
j Lj + +
m Lm = 0 (2.43)
i +
tem solucoes nao nulas. So temos de fazer a transformacao j = j .6
O proximo teorema afirma que a caracterstica de linha e igual `a caracterstica
de coluna. A primeira parte da demonstracao assenta na prova de que nao se altera
rl a cada passo para achar rc .
Demonstracao. Suponha-se
L1 l11 l1n h i
.. ..
M = . = . = C1 Cn . (2.44)
Lm lm1 lmn
A dependencia das linhas estuda-se pelo sistema em s,
1 l1j 0 + + + m lmj 0 = 0, j 0 = 1, . . . n. (2.45)
Agora, o passo mais geral da condensacao sobre colunas sera a troca Ci Cj
seguida de Ci Ci + Cj , para certos i, j e R, levando-nos para a matriz
l11 l1j l1i + l1j l1n
.. ..
M = . . . (2.46)
lm1 lmj lmi + lmj lmn
O respectivo sistema de equacoes sera o mesmo que o anterior excepto para j 0 = j, i:
1 l1j + + m lmj = 0
(2.47)
1 (l1i + l1j ) + + m (lmi + lmj ) = 0
Mas e evidente, rearrumando os termos e pondo em evidencia, que este sistema
e equivalente a (2.45).
Agora, tal como em 2.2.3, fazendo uma condensacao por colunas de forma or-
denada, chegaremos a uma matriz de aspecto
11 0 0 0 0
..
21 22 0 0 . 0
.. ..
. .
(2.48)
rc rc 0 0
.. .. ..
. . .
m1 mrc 0 0
com os kk 6= 0, 1 k rc . Como nunca se alterou rl desde M e agora ja e facil
descobrir a caracterstica de linha, fazendo por anular tudo o que esta abaixo da
diagonal principal de (2.48), deduz-se entao que rc = rl , como queramos demon-
strar.
Exemplo:
1 0 3 1 0 3 1 0 0
L3 2L1 , C1 2C2 C3 3C1 2C2
2 1 2 0 1 2 0 1 0 (2.49)
2 0 6 0 0 0 0 0 0
e a caracterstica r = rc = rl neste caso e 2.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 25
2.4.2 C
alculo da inversa
Vamos agora estabelecer um metodo para encontrar a inversa de uma matriz quadrada
A Mn,n , supondo que existe.
Repare-se que escrevendo o vector-coluna
h iT
Vi0 = 0 0 1 0 0 (2.50)
Exemplo:
" #
0 5
1. Para encontrar a inversa de fazemos
5 3
" # " #
0 5 | 1 0 5 3 | 0 1
5 3 | 0 1 0 5 | 1 0
" # " # (2.54)
1 35 | 0 15 1 0 | 3
15
25 .
0 1 | 1
5
0 0 1 | 1
5
0
7
Convem aqui notar que a inversa de uma aplicac
ao linear bijectiva e ainda uma aplicacao
linear.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 26
A verificacao e imediata:
" #" # " #
0 5 3
25
15 1 0
= . (2.55)
5 3 1
5
0 0 1
Captulo 3
3.1 Determinantes
3.1.1 Grupos de permuta
coes
Consideremos de novo o grupo de permutacoes Sn de n objectos, recorde-se, um
grupo com n! elementos.
Um tipo particular de permutacoes sao os ciclos. Um ciclo Sn e uma
permutacao denotada (a1 a2 ak ), com os ai {1, . . . , n} todos diferentes, que
obedece a
a1 7 a2 7 a3 7 7 ak 7 a1 (3.1)
e que deixa todos os outros elementos, nao referidos, no mesmo lugar.
O natural k e a ordem do ciclo.
Como exemplos, em S4 , temos
!
1 2 3 4
(143) = (431) = (314) = ,
4 2 1 3 (3.2)
(123) (341) = (234) = (34)(24).
Note-se que a funcao composta se le da direita para a esquerda e que, como e usual,
deixamos car o sinal . A` funcao composta tambem se chama produto.
A permutacao inversa de um ciclo escreve-se facilmente. Em particular, as
chamadas transposic oes (ij), ou seja ciclos de ordem 2, verificam (ij)1 = (ij) =
(ji).
Agora, cada permutacao e um produto de ciclos. Para o vermos comecamos
por construir o ciclo (1 (1) ((1)) k1 1 (1)). Concerteza que havera um fim,
de tal forma que ( k1 1 (1)) = 1, pois nao se repete nunca e n e finito. A
seguir procuramos o primeiro elemento i0 {1, . . . , n} que nao esta entre os i (1) e
construimos o ciclo (i0 (i0 ) ((i0 )) k2 1 (i0 )). Pelas razoes anteriores, o ciclo e
finito. Repetimos assim e sucessivamente o processo anterior, sabendo que havemos
de parar porque se esgotam os n umeros. Obtemos finalmente a permutacao dada
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 28
como um produto de ciclos, que ate comutam entre si pois nao tem elementos
comuns.
quase tao convincente ver um exemplo:
E
!
1 2 3 4 5 6 7 8
= = (1674)(253). (3.3)
6 5 2 1 3 7 4 8
Mais ainda, cada permutacao e produto de transposicoes, pois cada ciclo o e:
(a1 a2 ak ) = (ak ak1 )(ak ak2 ) (ak a2 )(ak a1 ). (3.4)
Fazemos agora a seguinte afirmacao: a permutacao identidade e sempre o pro-
duto de um n umero par de transposicoes: (1) = (ij)(ij). A demonstracao deste
facto, so aparentemente obvio, e um problema de ordem e combinatoria que deix-
amos ao leitor para sua pesquisa, [Gro83].
Agora se uma mesma permutacao se decompoe, uma vez, num n umero l1 de
transposicoes e, noutra vez, num n umero l2 de transposicoes, entao l1 + l2 e par.
Equivale a passar, nessa igualdade de decomposicoes, todas as transposicoes para
um lado, ficando a identidade no outro. Em particular, l1 e par sse l2 e par. Com
efeito, apenas dois pares, ou dois mpares, somam um par. Em resumo, temos o
Teorema 7. Toda a permutacao Sn e produto de transposicoes.
A paridade do n umero de transposic oes de qualquer decomposic
ao de num
produto de transposicoes e um invariante de .
Este teorema permite-nos definir rigorosamente o sinal de uma permutacao .
Trata-se do valor +1 ou 1, conforme o invariante indicado acima. Ou seja,
sg() = (1)] (3.5)
onde
] = n
umero de transposicoes numa decomposicao de . (3.6)
A conhecida regra dos sinais prova de imediato o seguinte
oes , Sn ,
Teorema 8 (Bezout). Para quaisquer permutac
sg( ) = sg()sg( ). (3.7)
Em particular, sg() = sg( 1 ).
Para aplicacoes futuras, com argumentos de tipo indutivo, convem reparar que
podemos escrever a uniao de subconjuntos disjuntos
Sn = S10 S20 Sn0 (3.8)
onde
Si0 = { : (1) = i}. (3.9)
Cada um destes subconjuntos, grosso modo, identifica-se com Sn1 . Para deduzir
tal identificacao, so temos de fixar nova numeracao dos objectos, suprimindo o 1 no
espaco de partida e o i no espaco de chegada.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 29
3.1.2 Defini
cao de determinante
Voltemos agora `as matrizes. Define-se determinante de uma matriz quadrada
A = [aij ] Mn,n como sendo o n
umero real
X
det A = sg()a11 a22 ann . (3.10)
Sn
Provamos o
Agora, uma pequena alteracao nas linhas de A podemos cometer sem muito
perturbar o seu determinante.
Sejam 1 i 6= j n. Se trocarmos as linhas i e j de A uma pela outra,
e da decorrem as seguintes igualdades:
aparece-nos a matriz A,
X
det A = sg()a11 aji aij ann
Sn
X
= sg((ij))a11 ajj aii ann (3.14)
Sn
X
= sg((ij)) sg()a11 ann = det A.
Sn
entao
Em particular, se as linhas i e j forem iguais, ou seja A = A,
det A = 0. (3.15)
Escrevendo agora
L1
a11 a1n
.. L2
A= . = .. (3.16)
.
an1 ann
Ln
e logo
det A = det (L1 , . . . , Ln ), (3.17)
tem-se que o determinante e uma aplicacao multilinear nas linhas (e nas colunas).
Com efeito, para qualquer ndice i, det e linear na linha i quando se fixam as outras
e quaisquer
variaveis todas, ou seja, para quaisquer linhas Lj , j = 1, . . . , n, e L
, R, det verifica
. . . , Ln ) =
det (L1 , . . . , Li + L,
(3.18)
. . . , Ln ).
det (L1 , . . . , Li , . . . , Ln ) + det (L1 , . . . , L,
1
O conceito de aplicac
ao linear ou de aplicacao multilinear sera formalizado no captulo 4.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 31
3.1.4 C
alculo de determinantes
Pela definicao, e trivial provar que
t t13
11 t12 t1n
0 t22 t23 t2n
0 0 t33 t3n = t11 t22 tnn . (3.24)
..
0 0 .
0 0 0 tnn
E se a matriz dada for triangular inferior, o resultado e analogo.
Agora, o processo de condensacao de uma qualquer matriz A Mnn conduz-nos
a uma matriz triangular. Observamos entao que ha uma forma pratica de calcular
determinantes, tendo em conta as regras:
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 32
Por exemplo,
1 2 3 1 2 4
4 3 1 3 5
0 1 3 0 1 3 5
5
= = 4 5 2 11 =
1 3 1 7 0 5 2 11
1 1 2
3 2 5 4 0 4 4 8 (3.25)
1 3 5
3 14
= 4 0 17 14 = 4 = 20.
1 3
0 4 3
De podermos usar a condensacao sobre uma dada matriz para a levar a outra na
forma triangular, sem alterar o seu determinante ou caracterstica, resulta que se
pode supor desde ja que A e triangular. Ora, algum dos ajj , j = 1, . . . , n da matriz
triangular (3.24) e nulo, ou seja, r(A) < n, sse det A = 0. Invocando o teorema 6,
ve-se que dele decorre o teorema anterior.
f : Rn Rn R
(3.26)
(v1 , . . . , vn ) 7 f (v1 , . . . , vn ),
tais como o determinante sobre as linhas ou colunas de uma matriz, existe essen-
cialmente uma.
Para prova-lo necessitamos da base can onica de Rn , isto e, o conjunto de n
vectores
ei = (0, . . . , 0, 1, 0, . . . , 0) (3.27)
2
Recordamos que este conceito pode ser visto no captulo 4.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 33
X
n
(x1 , x2 , . . . , xn ) = x1 e1 + x2 e2 + + xn en = xj ej . (3.29)
j=1
f (A) = f (L1 , . . . , Ln )
X n X
n X
n
= f a1j1 ej1 , a2j2 ej2 , . . . , anjn ejn
j1 =1 j2 =1 jn =1 (3.31)
X n
= a1j1 anjn f (ej1 , . . . , ejn ).
j1 ,j2 ,...,jn =1
Note-se que, por hipotese de f ser alternada, tal como em (3.15), resulta
com j {1, . . . , n} previamente escolhido. Uma vez que 1 = j esta fixo, obtemos
X
sg()a11 ann =
Sj0
X
= (1)j1 a1j sg( 1
2
j
j
n
n
)a22 ann (3.39)
Sj0
Como veremos, o n umero (1)i+j |A(i,j) | tem grande importancia; designa-se por
complemento alg ebrico de aij .
`
A matriz adj A que tem entradas (j, i) iguais ao complemento algebrico de aij ,
ou seja, a matriz transposta da matriz formada pelos complementos algebricos, ou
seja, ainda,
(adj A)ji = (1)i+j |A(i,j) |, (3.45)
da-se o nome de matriz adjunta de A.
Ja vimos que:
X
n X
n
aij (adj A)ji = |A|, akj (adj A)ji = 0 (3.46)
j=1 j=1
ou seja
a11 b1 a1n
.. ..
. .
an1 bn ann
xi = (3.53)
|A|
com B tomando o lugar da coluna i de A.
Esta e a chamada regra de Cramer para a resolucao de sistemas possveis
determinados.
Por exemplo: sendo
x + y + z = 2v
3x y z = 2 + v , (3.54)
x+y =3
(v1 + v2 ) = v1 + v2 1v = v
(4.2)
(1 + 2 )v = 1 v + 2 v ()v = (v)
v, v1 , v2 V, , 1 , 2 , R.
Aos n umeros reais chamamos escalares e aos elementos de V vectores. Repare-
se que estamos1 a generalizar os conceitos aprendidos em 2.3.1 a proposito do espaco
euclidiano Rn .
Exemplos:
u1 , u2 U, R = u1 + u2 U (4.3)
1 u1 + + k uk = 0 = 1 = = k = 0. (4.5)
i (i i )ui = 0. E logo i i , i.
i = 0. Ou seja i =
Diz-se, no caso acima, que e uma escrita de forma u nica.
1. Os seguintes conjuntos sao subespacos vectoriais dos espacos onde estao con-
tidos:
i) Ua = {(x, y, z) R3 : a2 (x + y) + z = 0, 3x + y = 0} verifica (4.3), tem
dimensao 1 e uma base {(1, 3, 2a2 )}.
ii) W = {A Mnn : a11 + 3a1n + an1,1 ann = 0} tem dimensao n2 1.
Trata-se do espaco de todas as matrizes n por n, sujeitas a uma u
nica equacao
linear.
iii) O subespaco vectorial de Mn,n das matrizes simetricas de ordem n tem
dimensao igual a n(n + 1)/2 (pense-se na area do tri
angulo pois so contam as
entradas de um lado triangular da matriz).
Repare-se que B0 B implica hB0 i hBi, donde se diz tambem que uma base
e um conjunto minimal de geradores de V .
Sob certas condicoes da teoria dos conjuntos, pode-se provar que todo o espaco
vectorial admite uma base. Mesmo os de dimensao .
p+1 up+1 + + n un + 1 v1 + + m vm = 0
p+1 up+1 + + n un = 1 v1 m vm
entao este u ltimo vector estaria em U V , pelo que seria combinacao linear dos
u1 . . . , up . Mas sendo escrito so com os ui , com i > p, tem de ser 0. Entao todos os
i , j sao 0, como queramos.
tambem facil verificar que qualquer outro vector de U +V e combinacao linear
E
daqueles. Entao esta provado que {up+1 , . . . , un , v1 , . . . , vm } e uma base. O n
umero
de vectores de tal base e n p + m.
4.2 Aplicaco
es lineares
4.2.1 Defini
coes
Finalmente formalizamos o conceito ja utilizado em duas ocasioes: em 2.3.1 como
caso particular e em (3.15) a proposito da propriedade do determinante de matrizes
ser uma aplicacao multilinear.
Sao dados dois espacos vectoriais V e W .
Uma funcao f : V W diz-se uma aplicac ao linear se
u, v V, R.
Assim, uma aplicacao linear e uma aplicacao que preserva as estruturas dos
espacos vectoriais em causa. Em particular, tem-se o facto trivial: f (0) = f (0+0) =
0.
trivial verificar que a imagem de uma aplicacao linear
E
Im f = f (V ) = f (v) : v V (4.13)
e um subespaco vectorial de V .
Em particular f {0}, denotado
Nuc f = v V : f (v) = 0 , (4.15)
e um subespaco vectorial de V chamado nucleo de f .
Deixamos a demonstracao do proximo resultado como um exerccio.
Teorema 16. Seja f : V W uma aplicac ao linear entre espacos vectoriais.
Ent ao:
i) f e injectiva sse Nuc f = {0}.
ii) f e injectiva sse f transforma vectores linearmente independentes em vectores
linearmente independentes.
iii) f e sobrejectiva sse o espaco gerado por f (B) e igual a W , ou seja hf (B)i = W ,
para qualquer base B de V .
iv) f e bijectiva sse transforma uma base de V numa base de W .
Ha nomes proprios para f linear e injectiva, sobrejectiva ou bijectiva. Diremos
entao que f e, respectivamente, um monomorfismo, um epimorfismo ou um
isomorfismo.
Se V = W , entao f : V V diz-se um endomorfismo. Um isomorfismo
endomorfismo diz-se um automorfismo.
Prove-se, `a parte, que a inversa de uma aplicacao linear bijectiva e uma aplicacao
linear.
O conjunto das aplicacoes lineares de V para W denota-se por L(V, W ).
trivial mostrar que a soma ou a composicao de duas aplicacoes lineares e uma
E
aplicacao linear e que o mesmo acontece com o produto de uma aplicacao linear
por um escalar. Enfim, prova-se sem dificuldade o
Teorema 17. L(V, W ) e um espaco vectorial sobre R. O espaco End (V ) :=
L(V, V ) dos endomorfismos de V e um anel e o subconjunto dos automorfismos
Aut(V ) = {isomorfismos de V para V } e um grupo.
Contudo, o resultado nao e surpreendente: em dim finita ha correspondencia
entre aqueles espacos e, respectivamente, o espaco vectorial das matrizes Mnm , o
anel das matrizes quadradas Mnn e o grupo das matrizes invertveis.
4.2.2 Representa
cao matricial
Sejam V, W espacos vectoriais reais de dimensao finita n, m, respectivamente. Se-
jam B = {v1 , . . . , vn }, B = {w1 , . . . , wm } bases fixadas em V, W , respectivamente.
Sejam
x1 b1
X = ... , B = ... (4.16)
xn bn
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 45
A = M (f, B, B)
(4.18)
Trata-se com efeito de uma aplicacao linear entre espacos vectorias (cf. ex-
emplo 2 da seccao 4.1.2). Considerando as bases canonicas daqueles espacos,
de um lado B = {(1, 0), (0, 1)}, do outro B = { 2 , , 1}, temos
Donde
2 0
=
M (f, B, B) 3 3
(4.22)
4 1
e a matriz de f nas bases escolhidas.
M (1V , B, B) = 1n (4.23)
M (f + g, B, B)
= M (f, B, B)
+ M (g, B, B)
(4.25)
f, g L(V, W ), R.
4.2.3 Composi
cao vs produto
Sejam V, W, U espacos vectoriais reais de dimensao finita n, m, p, respectivamente.
Sejam B = {v1 , . . . , vn }, B = {w1 , . . . , wm }, B 0 = {u1 , . . . , up } bases fixadas em
V, W, U , respectivamente.
Suponhamos que sao dadas aplicacoes lineares
f g
V W U. (4.26)
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 47
Uma vez que g f tambem e uma aplicacao linear, poe-se a questao de relacionar
as matrizes
A = M (f, B, B),
B = M (g, B, B0 ) (4.27)
com a matriz C = M (g f, B, B 0 ).
P
Por definicao, analogamente com (4.19), isto e, f (vi ) = m
j=1 aji wj , tem-se
X
p
X
p
g(wj ) = bkj uk , g f (vi ) = cki uk . (4.28)
k=1 k=1
obtem-se afinal
C = BA. (4.30)
Repare-se que A Mmn , B Mpm , pelo que o resultado C = BA Mpn faz
pleno sentido.
Esta descoberta a natureza geometrica do produto de matrizes. Toda a teoria
estudada nos captulos anteriores passou a fazer parte de um todo coerente.
Recordemos agora a aplicacao identidade 1V : V V e representemo-la numa
dada base B = {vi } de V como a matriz M (1V , B, B) = 1n . Pela lei demonstrada da
composicao vs produto, deduz-se logo que a matriz da inversa de um isomorfismo
f : V W , nas mesmas bases acima, verifica
M (f 1 , B, 1 .
B) = (M (f, B, B)) (4.31)
2 = ( + 2)2 4( + 2) + 4
= ( + 2) 2 (4.34)
1=1
pelo que
1 0 0
B1 ) =
Q = M (1W , B,
4 1 0 . (4.35)
4 2 1
Logo
2 0 2 0
M (f, B, B1 ) = Q 3 3 = 5 3 . (4.36)
4 1 6 7
Podemos usar este resultado para escrever3 f na nova base:
trivial provar, por (4.32) e (4.33), que (4.38) nao depende da escolha da
E
base. Por exemplo, se f (v) = v, entao det f = n .
f (u) = 0 u (4.39)
pA () = det (A 1n ), (4.40)
dizamos que o sistema tem solucao (u, 0 ) sse 0 e uma raz de pA , ou seja,
uk+1 = 1 u1 + + k uk .
k+1 uk+1 = 1 1 u1 + + k k uk .
A1 = P AP 1 . (4.46)
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 51
Trata-se de uma relacao de equivalencia entre matrizes, cf. 1.1.2. Por exemplo,
a propriedade de transitividade resulta de
implicar
A = P QA2 Q1 P 1 = (P Q)A2 (P Q)1 . (4.48)
A reflexividade e simetria sao ainda mais simples de ver.
Ja vimos que sao semelhantes as varias matrizes M (f, B, B) de um endomorfismo
f representadas nas diferentes bases B de um mesmo espaco vectorial.
Pela mesma razao de representarem endomorfismos e de os vectores proprios
destes serem independentes da base fixada, o polinomio caracterstico de matrizes
semelhantes nao se altera:
pA () = pA1 (). (4.49)
Mas pode e deve-se verificar este facto directamente da definicao de pA1 .
Uma matriz diz-se diagonaliz avel se for semelhante a uma matriz diagonal.
Podemos agora afirmar sinteticamente que um endomorfismo admite uma base
de vectores proprios sse a sua representacao matricial e diagonalizavel.
A melhor aproximacao ao problema de diagonalizacao de uma matriz e dada,
grosso modo, pelo teorema da forma can onica de Jordan, que estudaremos mais
tarde.
Para finalizar, lembramos que ha invariantes numericos da classe de equivalencia
por semelhanca de cada matriz. O primeiro, ja visto no exemplo 2 de 4.2.3, e o
determinante.
O mesmo se passa com o traco de uma matriz. Chamamos tra co de A `a soma
das entradas da diagonal principal.
X
n
Tr : Mn,n R, Tr A = aii (4.50)
i=1
para i 6= j.
A norma euclidiana obedece `a desigualdade de Cauchy
A demonstracao pode ser feita por inducao ou pela analise do binomio descriminante
da parabola hu + v, u + vi em , a qual como ja vimos esta sempre acima do eixo
dos s.
Repare-se agora nas propriedades, faceis de provar, para todos os vectores e
escalares,
kuk = ||kuk, ku + vk kuk + kvk. (5.7)
A segunda chama-se desigualdade triangular.
A desigualdade de Cauchy permite definir o
angulo entre dois vectores
hu, vi
](u, v) = arccos (5.8)
kukkvk
com a determinacao de arccos, e.g., entre 0 e .
5.1.2 Ortogonalidade
Seja U Rn um subconjunto qualquer, nao vazio. Define-se o ortogonal de U
como o subconjunto
U = v Rn : hu, vi = 0, u U . (5.9)
1Rn = + , = 0, = 0,
(5.12)
= = , ker = V ker = V.
0 V Rn V 0
(5.13)
(U ) = hU i. (5.14)
hu1 , u1 i
hu1 , u02 i = hu1 , u2 i hu1 , u2 i =0
ku1 k2
u1 1 u0 1
u1 = = (1, 2, 3, 0) e u2 = 20 = (6, 9, 4, 7) (5.18)
ku1 k 14 ku2 k 182
formam outra base de U , desta feita uma base ortonormada: h
ui , uj i = ij ,
i, j = 1, 2.
Agora, U e dado pelos vectores (x, y, z, w) solucao de
(
x + 2y + 3z = 0
. (5.19)
2x + y + 4z w = 0
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 56
Antes de passar `as aplicacoes, vejamos ainda dois resultados teoricos sobre a
decomposicao ortogonal.
Primeiro, se U1 U2 Rn sao subespacos vectoriais, entao e claro que U2
U1 .
Segundo, para quaisquer dois subespacos vectoriais U, V tem-se
(U + V ) = U V (U V ) = U + V . (5.21)
Basta ver a primeira igualdade, ja que a segunda decorre desta tomando o ortogonal
do ortogonal. Essencialmente o resultado segue entao de U, V serem subespacos de
U + V Rn .
5.1.3 Subespa
cos afins
Primeiro uma referencia ao conceito de espaco afim, que nao definimos. A duali-
dade, mas nao ambiguidade, entre pontos e vectores devia-nos levar a pensar num
espaco de pontos mais abstracto que Rn , onde sempre fizesse sentido adicionar pon-
tos com vectores, obtendo novos pontos, e onde se verificassem as mais elementares
regras de adicao. Onde a diferenca entre dois quaisquer pontos fosse um vector.
Um espaco afim e pois entendido a partir daquela ideia, mas nao privilegiando
uma origem dos pontos nem um qualquer referencial escolhido, ou seja, e um espaco
abstracto onde sempre que tomamos quaisquer n + 1 pontos em posic ao geral estes
definem uma identificacao com R e onde, ao mudarmos de um referencial para
n
F = P0 + U, (5.22)
5.1.4 Problemas m
etricos em subespa
cos afins
Voltemos agora aos problemas metricos.
Dado um subespaco afim F = P0 + U , poderemos referir um subespaco afim or-
togonal ao subespaco afim dado como um qualquer subespaco afim cujo subespaco
vectorial associado e o ortogonal de U .
Por cada ponto do espaco passa um u nico subespaco afim ortogonal ao primeiro.
Agora, tendo em conta que U + U = Rn e que U U = {0} (estao em soma
P2
A
F
2
B P1
F F1
2
(repare-se que o nfimo existe pelo nosso conhecimento dos n umeros reais e por a
norma ser sempre 0).
A distancia entre dois conjuntos e, assim, o nfimo das distancias entre pares de
pontos, um de A outro de B.
evidente que a distancia entre um ponto P Rn e um subespaco afim F tem
E
a seguinte expressao:
dist(P, F) = kP Q0 k
(5.25)
com Q0 um ponto em F tal que P Q0 F.
kX1 X2 k2 = kX1 A + A B + B X2 k2
= kX1 Ak2 + kA Bk2 + kB X2 k2
donde o nfimo destas normas ao quadrado e kABk2 . Uma vez que a raz quadrada
e uma funcao crescente, tem-se dist(F1 , F2 ) = kA Bk.
Vejamos agora a unicidade. Suponhamos U1 U2 = {0} e escolhamos P20
qualquer em lugar de P2 . Seja Q0 o respectivo pe da perpendicular a E. Entao
Q Q0 U2 e logo F20 e u
nico. Entao A e unico e logo B tambem.
A distancia entre dois subespacos afins tais que o primeiro e paralelo ao segundo,
e a distancia entre um ponto qualquer do primeiro subespaco afim e o segundo
subespaco afim:
F1 k F2 = dist(F1 , F2 ) = dist(A, F2 ) (5.26)
com algum A F1 . Com efeito, se B e o pe da perpendicular a F2 passando por
A e se A0 F1 e outro ponto qualquer, como A, entao o pe da perpendicular a F2
passando por A0 e o ponto B 0 = B + A0 A. Por ser F1 paralelo a F2 , tem-se de
A0 A no subespaco associado a F2 .
5.2 Geometria de R3
5.2.1 Equa
coes de rectas e planos
Uma recta2 r = P0 + hui de R3 pode ser dada pela sua equa
cao vectorial
2
Em geometria euclidiana e usual denotar os planos por letras gregas min
usculas, as rectas por
letras latinas min
usculas e os pontos por letras latinas mai
usculas.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 60
Este sistema tem caracterstica 2, como e facil provar. Sera mesmo 2 se a recta
nao degenera num ponto: com efeito, por exemplo, se for b 6= 0, entao L2 =
ab L3 + cb L1 .
Vejamos agora o caso de um plano.
Um plano em R3 aparece sempre como o ortogonal a um vector v = (a, b, c),
adicionado de um outro ponto P0 . Ou seja P0 + hvi . A equa c
ao vectorial
do plano e pois
P P P0 v. (5.30)
Assim, denotando o real d = hP0 , vi, a equa
cao axial do plano e
(x, y, z) ax + by + cz = d. (5.31)
5.2.2 Algumas f
ormulas de dist
ancias
A distancia entre dois pontos P0 , P1 e claramente a norma de P1 P0 .
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 61
34
.
P0 P1 P2 Pk = P0 P1 P1 P2 Pk1 Pk , (5.37)
Alem de u
nicos a menos da escala, os 5 casos descritos no teorema anterior sao
de facto possveis de construir como poliedros regulares. Pela ordem do enunci-
ado do teorema, tratam-se do tetraedro, do cubo (hexaedro), do octaedro, do
dodecaedro4 e do icosaedro.
Como se ve pela demonstracao acima, os naturais r, s determinam V, A, F :
r s V A F
tetraedro 3 3 4 6 4
cubo 3 4 8 12 6
(5.39)
octaedro 4 3 6 12 8
dodecaedro 3 5 20 30 12
icosaedro 5 3 12 30 20
4
Do grego, dodeca=do+deca=2+10=12. Icosa=20.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 64
Mais ainda, os pares (r, s) sao duais no sentido seguinte: dado um poliedro convexo,
construimos o seu dual unindo com segmentos de recta os centros das faces.
Como um polgono regular tem tantas arestas quantos vertices, o poliedro dual
do poliedro dual e o poliedro inicial.
Nao e difcil compreender que no caso dos poliedros regulares convexos, os val-
ores de r, s trocam entre si, na troca pelo dual. Assim, o tetraedro coincide com o
seu dual, o cubo e dual do octaedro e o dodecaedro e dual do icosaedro.
Tendo em conta o conhecimento comum dos tres primeiros solidos e a dualidade
do icosaedro, restar-nos-a demonstrar a possibilidade honesta de construcao do
dodecaedro; remetemos o leitor para [Aud03].
Terminamos aqui esta brevssima incursao pela geometria classica e combi-
natoria, esperando ter por esclarecida a classificacao dos solidos platonicos, tal
como podemos ver na figura 5.2.
5.2.4 Comprimentos,
areas e volumes
Ja vimos em que consiste o comprimento de um segmento de recta. O compri-
mento de uma linha poligonal 4 = P0 P1 P2 Pk e a quantidade real
X
k
L(4) = kPi Pi1 k. (5.40)
i=1
Como det(LLT ) = det L det LT = (det L)2 , aplicando a (5.42) descobrimos a for-
mula p
A(u, v) = det(LLT ) = | det L | = | det(u, v)| = |ad bc| (5.44)
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 66
ou seja
A = | det |. (5.45)
Da soma de areas de paralelogramos resultam as areas de outras superfcies
seccionalmente planas. A funcao area devera ser aditiva 5 . Em particular, a area de
um triangulo de arestas u, v tem de valer 12 | det(u, v)|.
Voltemos a Rn com n 3. Comecemos por generalizar a nocao de paralelo-
gramo.
Um paralelippedo e um poliedro de 6 faces tal que as faces sao paralelogramos
e copia umas das outras em planos paralelos, quando nao adjacentes.
Um paralelippedo e pois descrito em Rn por um vertice P0 e tres vectores u, v, w,
com os quais se constroem os outros vertices, a saber P0 + u, P0 + v, P0 + w, P0 +
u + v, P0 + u + w, P0 + v + w, P0 + u + v + w. Vamos denotar um tal poliedro por
(P0 , u, v, w).
Damos agora a nocao de volume de um paralelippedo (P0 , u, v, w), o qual se
define como a quantidade real, independente de P0 :
V (u, v, w) = A(u, v)kw Qk (5.46)
onde Q e o pe da perpendicular passando pela extremidade de w ao plano gerado
por u, v.
Note-se que, tal como a area corresponde ao comprimento da base vezes a
altura, tambem o volume corresponde a area da base vezes altura.
Consideremos a matriz
kuk2 hu, vi hu, wi
G = hu, vi kvk2 hv, wi . (5.47)
hu, wi hv, wi kwk 2
5
Eis outra noc
ao que escapa ao ambito deste curso.
Albuquerque, Prontu
ario de Algebra Linear e Geometria Analtica 67
V 2 = kw Qk2 A2
= kwk2 A2 kQk2 A2
= 2 A2 2 E + 2G 2 F
E G
= 2 A2 (F G) + (G E) = G F
Esta u
ltima e ja a igualdade que se procurava.
6
Tal como no caso da area, este aditiva seria bastante demorado de explicitar. Tem o sentido
e a consequencia de a func
ao volume ser linear sobre a decomposicao dos poliedros em tetraedros,
para aqueles que a admitam.
Bibliografia