Você está na página 1de 138

G.

Morais

Introdu c ao ` a Algebra Linear e Geometria Anal tica


Vers ao Experimental 0.0.6

ISEL 2004

Gon calo Morais Departamento de Engenharia Mec anica Sec c ao de Matem atica Instituto Superior de Engenharia de Lisboa Rua Conselheiro Em dio Navarro Lisboa, Portugal

http://sites.isel.ipl.pt/cmat/gmorais gmorais@dem.isel.ipl.pt

Estas folhas est ao dispon veis num formato universal, sendo livre a sua c opia e redistribui c ao. Estas folhas n ao podem em situa c ao alguma ser vendidas.

Actualizado em:

15 de Junho de 2004

Pref acio
Estas folhas pretendem ser um material de apoio ` a disciplina de AG, a ser leccionada no ISEL no semestre de Ver ao de 2004. Esta e a vers ao 0.0.6, ou seja mais do que inst avel, cont em uma s erie de erros quer formais, quer pedag ogicos. O objectivo e encontrar uma vers ao t ao est avel quanto poss vel com a ajuda de todos. Caso encontre algum erro de qualquer tipo ou tenha alguma proposta referente ao presente texto, n ao hesite em comunica-la para: gmorais@dem.isel.ipl.pt Au ltima vers ao em PDF destas folhas estar a dispon vel em: http://sites.isel.ipl.pt/cmat/gmorais As guras em 3D foram produzidas pelo FEATPOST, um conjunto de macros escritas em METAPOST, uma linguagem de programa c ao desenvolvida por John Hobby. O FEATPOST foi desenvolvido por Lu s Gon calves e est a dispon vel livremente sob a licen ca GPL1 . Estas folhas foram produzidas integralmente usando software livre. Sem todos aqueles que desenvolvem, utilizam e publicitam o sistema GNU/Linux estas seriam sem d uvida muito menos pr odigas do que aquilo que eu gostaria que fossem.

Gnu Public Licence. Para mais detalhes consultar o site www.gnu.org/

Strangel, What kind of ground are you dancing on?


| Young Gods, Only Heaven, (1995)

Un coup de ton doigt sur le tambour d echarge tous les sons et commence la nouvelle harmonie.
| Rimbaud, Illuminations, (1873)

Conte udo
Pref acio 1 Sistemas de Equa c oes Lineares 1.1 Formula c ao e interpreta c ao geom etrica. 1.2 M etodo de Elimina c ao de Gauss. . . . . 1.3 Algebra de matrizes . . . . . . . . . . . 1.4 Condensa c ao e Caracter stica . . . . . . 1.5 Matrizes Inversas e Transpostas . . . . . 1.6 Determinantes . . . . . . . . . . . . . . 1.7 Classica c ao e resolu c ao de SEL . . . . iii 1 1 7 12 18 27 33 38 43 43 43 50 57 61 71 71 76 88 92 105

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

2 Espa cos Vectoriais 2.1 Deni c ao e exemplos de Espa cos Vectoriais 2.2 Subespa cos Vectoriais . . . . . . . . . . . . 2.3 Bases e Dimens ao . . . . . . . . . . . . . . . 2.4 Espa cos Vectoriais e Sistemas Lineares . . . 2.5 Soma e Intersec c ao de Subespa cos . . . . . 3 Transforma c oes Lineares 3.1 Primeiros Exemplos . . . . . . . . . . . . 3.2 Propriedades das Transforma c oes Lineares 3.3 Composi c ao de Transforma c oes Lineares . 3.4 Mudan cas de Base . . . . . . . . . . . . . 3.5 Valores e Vectores Pr oprios . . . . . . . . 4 Geometria Anal tica 4.1 Estudo da Recta e do Plano no Espa co 4.2 Produto Interno, Externo e Misto . . . 4.3 Dist ancias entre Conjuntos Ans . . . 4.4 C onicas . . . . . . . . . . . . . . . . . 4.5 Classica c ao das C onicas . . . . . . . Bibliograa

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

111 . 111 . 116 . 121 . 121 . 127 129

vi Ind ce

CONTEUDO 130

Cap tulo 1

Sistemas de Equa c oes Lineares


Introdu c ao
Existem problemas que, pela sua natureza, s ao formulados atrav es de uma equa c ao linear ou atrav es de um sistema de equa c oes lineares. As solu c oes deste tipo de problemas, por outro lado, possuem propriedades geom etricas elegantes que podem ser analisadas com ferramentas matem aticas quase elementares. No entanto, como muitas vezes se observa na pr atica, os sistemas de equa c oes lineares com aplicabilidade a situa c oes concretas, tem um n umero demasiado grande quer de equa c oes, quer de vari aveis para poderem ser manipulados deste modo fundamental o desenvolvimento de uma formanualmente. E mula c ao dos sistemas de equa c oes lineares atrav es de algo que permita a sua manipula c ao em termos computacionais. Tais objectos s ao as matrizes. Assim, o esfor co desenvolvido ao longo deste cap tulo ir a no sentido de formular os sistemas de equa c oes lineares em termos matriciais, introduzindo de seguida as opera c oes entre matrizes, por forma a podermos obter a solu c ao dos mesmos. As opera c oes introduzidas n ao ser ao mais do que as necess arias para a implementa c ao do m etodo de elimina c ao de Gauss. Para introduzir com algum cuidado os conte udos atr as enunciados, vamos rever o referido m etodo de elimina c ao de Gauss, bem como a interpreta c ao geom etrica do conjunto solu c ao de um SEL.

1.1

Formula c ao e interpreta c ao geom etrica.

Proposta do pa s X . Numa determinada organiza c ao internacional, est a a ser discutida a atribui c ao de quotas para a produ c ao de ur anio enriquecido. Existem, numa primeira fase, dois pa ses, o pa s X e o pa s Y , que

Sistemas de Equa c oes Lineares disputam a atribui c ao da maior quota parte poss vel a cada um deles. A produ c ao anual de ur anio enriquecido foi xada em 5 dezenas de toneladas. Por ser o l der de produ c ao no sector, a proposta do pa s X e de que a diferen ca entre a sua produ c ao e a do pa s concorrente seja de 10 toneladas a seu favor. Para sabermos qual o valor da quota de cada um dos pa ses, podemos formular o problema atrav es de um sistema com duas equa c oes lineares. Pelo facto de a produ c ao de ur anio ser no total de 5 dezenas de toneladas, representado a produ c ao do pa s X e do pa s Y por x e y respectivamente, obtemos a equa c ao: x+y =5 Por outro lado, pela condi c ao assumida pelo pa s X , obtemos a segunda equa c ao: xy =1 O sistema ser a ent ao: x+y = 5 xy = 1 (1.2) (1.1)

A solu c ao deste sistema ser a o par ordenado (x, y ) que verica as duas condi c oes do sistema (1.2), ou seja, s ao todos os pontos que vericam as duas equa c oes simultaneamente. Deste modo, a solu c ao do sistema e o par ordenado, cujas coordenadas s ao as coordenadas do ponto de intersec c ao das rectas de equa c ao x + y = 5 e x y = 1. No gr aco 1.1 temos uma representa c ao gr aca deste facto.

x+y =5

(3, 2)

xy =1
Figura 1.1: Identica c ao da solu c ao. Como podemos ver na gura 1.1, a solu c ao do nosso sistema e o par ordenado (x, y ) = (3, 2). Que particularidade especial ter a este ponto? Considerem-se

1.1 Formula c ao e interpreta c ao geom etrica. os vectores (1, 1) e (1, 1) que s ao respectivamente os coecientes de x e de y no sistema (1.2) e a equa c ao vectorial: x(1, 1) + y (1, 1) = (5, 1) (1.3)

Assim, x e y s ao os valores para os quais a equa c ao (1.3) se torna numa proposi c ao verdadeira. Considerem-se agora os coecientes de x e de y no sistema (1.2) arrumados verticalmente naquilo que vamos chamar matriz coluna na seguinte equa c ao (matricial): x 1 1 5 +y = 1 1 1 (1.4)

Embora a equa c ao (1.4) seja apenas uma forma diferente de formular a equa c ao (1.3) introduz um conceito novo, o conceito de matriz que vamos explorar um pouco mais ` a frente. Estas equa c oes parecem ter um car acter puramente alg ebrico mas no entanto elas apenas exp oem algebricamente a chamada lei do paralelogramo. A gura 1.2 e uma ilustra c ao deste regra que ser a referida repetidamente ao longo desta monograa.

(1, 1)

(5, 1)

(1, 1)

Figura 1.2: Lei do paralelogramo.

Contraproposta do pa s Y . Vendo que a proposta lhe e desfavor avel, e visto que o valor total da produ c ao n ao pode ser alterado, o pa s Y apresentou uma nova proposta em que pretende diminuir a diferen ca entre a produ c ao dos dois pa ses. Assim, em vez da equa c ao (1.1) apresenta a equa c ao: x y = 1 a, onde obviamente que o valor do par ametro a e positivo1 .
1

(1.5)

Porque raz ao o valor de a e necessariamente positivo?

Sistemas de Equa c oes Lineares Nota 1 A a damos o nome de par ametro e n ao de vari avel pois as solu c oes do problema v em em fun c ao de a, i. e. , para diferentes valores de a teremos, possivelmente, diferentes solu c oes do problema. Ao modicar esta condi c ao, que efeitos e que isto ter a na solu c ao nal do sistema? Novamente pelo m etodo de substitui c ao, podemos concluir que: x+y =5 xy =1a x=3 a 2 y =2+ a 2 (1.6)

O sistema (1.6) tem solu c ao admiss vel para o nosso problema, no caso de as vari aveis x e y serem positivas, ou seja, no caso de: a a > 0 2 + > 0 a < 6. 2 2 Ter amos que garantir ainda que a produ c ao de cada um dos pa ses n ao ultrapassa o limite xado, mas esta restri c ao revela-se mais fraca do aquela aqui analisada. Repara-se no facto de que para valores de a maiores do que 6, algebricamente, o sistema (1.6) ter ainda solu c ao, embora nessa solu c ao o valor da vari avel ser negativa, o que e manifestamente uma solu c ao n ao admiss vel para o nosso problema2 . Para alguns valores de a ]0, 3[, a representa c ao geom etrica dos sistemas e apresentada na gura 1.3. 3

y xy =1a

x+y =5 x
Figura 1.3: V arias solu c oes da contraproposta do pa s Y . Quanto maior f or o valor de a, melhor ser a a solu c ao para o pa s Y . Caso este queira anular a diferen ca entre as produ c oes dos dois pa ses o valor de a ser a 1/2. Exerc cio 1.1 Indique a sensibilidade da solu c ao da produ c ao dos dois pa ses em fun c ao de a, ou seja, analise de que forma e que uma varia c ao
Na verdade, grande parte do tempo vamos estar preocupados com a exist encia de solu c oes alg ebricas, n ao nos preocupando nesse momento com o facto dessas solu c oes serem ou n ao admiss veis num determinado contexto.
2

1.1 Formula c ao e interpreta c ao geom etrica. no valor de a, afecta a produ c ao dos dois pa ses dada pela solu c ao do sistema (1.6). A proposta nal do pa s X . Depois de receber a proposta nal do pa s Y , o pa s X decidiu mudar a sua proposta em rela c ao ` a diferen ca entre a produ c ao dos dois pa ses e quer apresentar uma contraproposta que mude radicalmente a diferen ca entre os dois pa ses. Assim pretende mudar a sua anterior proposta de modo a que a equa c ao (1.1) seja: x y = 1, cando assim o sistema na forma: x+y =5 x y = 1 . (1.8) (1.7)

Nota-se de imediato que quando = 1 e = 1 o sistema, n ao s o n ao tem solu c oes admiss veis , como n ao tem qualquer solu c ao alg ebrica, pois pelo m etodo de substitui c ao, pelo sistema (1.8) obteremos: x+y =5 x+y =1 x+y =5 5=1 ,

o que e de facto um sistema imposs vel. Geometricamente, isto deve-se ao facto de as duas rectas serem paralelas. Para procurarmos as solu c oes admiss veis do sistema (1.8) para os v arios valores de e , vamos proceder a resolu ` c ao do mesmo atrav es do m etodo de substitui c ao. Assim: x+y =5 x y = 1 . x= y=
5 +1 + 51 +

Pelo facto de ` a partida e serem constantes positivas3 , as solu c oes admis2 s veis deste problema ser ao todos os pares ordenados (, ) R tais que: (1 5 > 0 5 1 > 0) ( > 1/5 < 1/5) . O subconjunto de R2 das solu c oes admiss veis est a representado gracamente na gura 1.4. Exerc cio 1.2 Discuta a posi c ao relativa dos planos em (1.8) em fun c ao de e de . Exerc cio 1.3 Dentro do conjunto de todas as solu c oes admiss veis, qual e o melhor par ordenado para as pretens oes do pa s X ? E para as do pa s Y ?
3

Porqu e?

Sistemas de Equa c oes Lineares

(1/5, 1/5)
Figura 1.4: Solu c oes admiss veis. Proposta nal do pa s Y . Depois de analisada a u ltima proposta do pa s X , a delega c ao do pa s Y decidiu apresentar uma derradeira proposta, onde pretende alterar a equa c ao (1.7) para a equa c ao ainda mais geral: x y = 1 a pelo que iremos obter o sistema: x+y =5 x y = 1 a . (1.10) (1.9)

Sem o resolver, pelo que foi referido anteriormente, no caso de = 1 e = 1, assumindo que a > 0, o sistema e imposs vel, pois para qualquer um destes casos, as rectas s ao paralelas. Tratando o problema do ponto de vista puramente alg ebrico, o par ametro a pode ser qualquer n umero real. No caso em que a = 4, obtemos o sistema: x+y =5 x+y =5 onde as duas rectas s ao coincidentes. Neste caso, qualquer ponto da recta x+y = 5 e solu c ao do sistema, ou seja, o sistema tem innitas solu c oes. Neste caso o sistema diz-se poss vel, por ter solu c ao, e indeterminado, por o n umero de solu c oes ser maior do que 1. A an alise das solu c oes do sistema (1.10) ca como exerc cio. Exerc cio 1.4 Indique o conjunto de triplos ordenados (, , a) para o qual o sistema (1.10) e poss vel. Dentro deste conjunto analise quais as solu c oes que s ao admiss veis, supondo que , e a s ao todos par ametros positivos e a produ c ao dos dois pa ses e positiva. Exerc cio 1.5 Fixando a = 1/2 qual seria a melhor proposta que o pa s Y poderia apresentar? E o pa s X ?

1.2 M etodo de Elimina c ao de Gauss. Exerc cio 1.6 Discuta as anteriores solu c oes para um valor admiss vel de a. Conclus ao. Esta sec c ao mostrou que a discuss ao das solu c oes de um sistema de equa c oes tem um importante car acter geom etrico. Para os casos anteriores, em que est avamos a trabalhar no plano (dimens ao 2), era poss vel discutir a exist encia de solu c oes de um determindo sistema apenas atrav es da representa c ao gr aca das rectas que o compunham. Nas sec c oes seguintes iremos ver que este tipo de abordagem, ainda poss vel para dimens ao 3, passa a ser impractic avel para dimens oes superiores. Ao inv es, ser a atrav es da resolu c ao alg ebrica que poderemos estudar algumas propriedades geom etricas dos planos e hiper-planos envolvidos, o que al em de ser uma reviravolta na forma de abordar os problemas, p oe em evid encia a grande utilidade da Algebra Linear, pois consegue de uma maneira bastante sosticada abordar problemas em dimens oes muito superiores ` a dimens ao 3.

1.2

M etodo de Elimina c ao de Gauss.

Introdu c ao. Na sec c ao anterior discutimos a exist encia de solu c ao de sistemas com duas equa c oes a duas inc ognitas. Preferimos at e agora uma abordagem geom etrica em vez de uma abordagem alg ebrica, pois desta maneira podemos desenvolver a intui c ao em rela c ao ao que se ir a passar em dimens oes superiores, n ao sendo quase sempre poss vel abordar estes problemas de um ponto de vista geom etrico. Nesta sec c ao, iremos proceder de uma forma mais alg ebrica na resolu c ao dos sistemas, ao introduzir a chamado m etodo de elimina c ao de Gauss. A chegada do pa s Z . Entretanto, nas negocia c oes, chega a not cia que um pa s Z tem capacidade de produzir ur anio enriquecido e amea ca produzir independentemente este produto caso n ao seja reconhecido internacionalmente o seu papel de produtor. Precipitadamente, o pa s Y faz uma proposta que prejudica os seus pr oprios interesses. Eis a formula c ao da mesma: x + y + z = 5 x + 2y z = 1 xy =1

(1.11)

O m etodo de elimina c ao de Gauss consiste em somar m ultiplos da primeira linha, por forma a eliminar (e da o nome de elimina c ao) todos os elementos da primeira coluna abaixo da diagonal principal, passando depois ` a elimina c ao de todos os elementos da segunda coluna abaixo da diagonal principal, prosseguindo desta forma at e obtermos uma matriz triangular superior. A

Sistemas de Equa c oes Lineares partir da matriz triangular superior invertemos o processo de elimina c ao, i. e. , caso seja poss vel, eliminamos os elementos da u ltima coluna acima da diagonal principal prosseguindo at e obtermos uma matriz cujas u nicas componentes n ao nulas sejam as componentes da diagonal principal. Exemplicando com o sistema, multiplicando a primeira linha do sistema por (1) e somando na segunda iremos obter: x+y+z =5 y 2z = 4 xy =1 Fazendo o mesmo para eliminar o coeciente do x na 3a linha, obtemos: x + y + z = 5 y 2z = 4 2y z = 4 Repare-se que neste momento, apenas na primeira linha o coeciente de x e n ao nulo. As duas u ltimas linhas dependem apenas de y e de z , pelo que poder amos aplicar o m etodo de substitui c ao para descobrirmos os valores de tais vari aveis. Contudo, vamos continuar a aplicar o m etodo de elimina c ao. O pr oximo passo ser a tentar anular uma das restantes vari aveis na 3a linha do sistema, por exemplo y , por forma a conseguirmos determinar o valor da vari avel z . Para isso basta multiplicar a 2a linha por 2 e somar ` a terceira. Obtemos ent ao: x + y + z = 5 y 2z = 4 5z = 12 x + y + z = 5 y 2z = 4 z = 12 5

Depois de determinado o valor da vari avel z , podemos retomar a elimina c ao, agora da vari avel z nas restantes linhas. Multiplicando a 3a linha por 2 e somando ` a segunda linha, obtemos: x + y + z = 5 y=4 5 12 z= 5 Finalmente multiplicando a segunda e a terceira linhas por 1 e somando ` a primeira linha, iremos obter a solu c ao do sistema: x = y= z=
9 5 4 5 12 5

1.2 M etodo de Elimina c ao de Gauss. Exerc cio 1.7 Sem efectuar qualquer c alculo, indique 3 planos cuja intersec c ao seja unicamente o ponto (9/5, 4/5, 12/5). Exerc cio 1.8 Sem efectuar qualquer c alculo, indique dois planos cuja intersec c ao seja uma recta que contenha o ponto (9/5, 4/5, 12/5).

(a) Intersec c ao num ponto.

(b) 3 planos sem pontos comuns.

Figura 1.5: Poss veis posi c oes relativas de 3 planos. Vemos que a proposta do pa s Y e-lhe claramente desfavor avel. Vista a situa c ao, esta delega c ao ir a apresentar uma nova proposta. Contudo, a an alise de sensibilidade torna-se cada vez mais dif cil ` a medida que o n umero de condi c oes aumenta. Examinando com aten c ao o algoritmo anterior, apenas precisamos de manobrar os coecientes das v arias vari aveis e os termos independentes para conseguirmos alcan car a desejada solu c ao. Formula c ao Matricial. forma matricial: Deste modo, vamos formular o sistema (1.11) na

AX = B onde: 1 1 1 x 5 A = 1 2 1 , X = y e b = 1 1 1 0 z 1

(1.12)

` matriz A d A a-se o nome de matriz dos coecientes, ` a matriz X o nome de matriz das inc ognitas e ` a matriz b o nome de matriz dos termos n ao

10

Sistemas de Equa c oes Lineares

homog eneos ou dos termos independentes. Note-se que A,X e b s ao matrizes. No entanto s ao notoriamente diferentes quanto ` a dimens ao. No caso anterior, a matriz A tem 3 linhas e 3 colunas, pelo que a sua dimens ao e 9. Por outro lado, tanto X como b s ao matrizes com 3 linhas e 1 coluna, ou seja, t em ambas dimens ao 3. Pelo facto de terem apenas uma coluna s ao chamadas de matrizes coluna. Podemos identicar os elementos de uma matriz pela posi c ao que eles ocupam na mesma. Usualmente uma matriz cuja dimens ao e igual m n e representada na forma: A = [aij ] onde i {1, . . . , m} indica a linha e j {1, . . . , n} indica a coluna da componente aij . Assim, no caso da matriz A teremos: a11 = 1 a12 = 1 a13 = 1 A = a21 = 1 a22 = 2 a23 = 1 a31 = 1 a32 = 1 a33 = 0 Ao contr ario do que acontece com os espa cos vectoriais, que como teremos oportunidade de ver a respectiva dimens ao e indicada por um n umero inteiro positivo ou nulo, no caso das matrizes, a dimens ao de uma matriz e designada por n m, onde n e o n umero de linhas e m o n umero de colunas. Entendese facilmente esta necessidade pois uma matriz 2 4 e bastante diferente de uma matriz 4 2 apesar das suas dimens oes serem iguais. Exerc cio 1.9 Escreva as matrizes A e B , de dimens ao 3 4, cujas componentes s ao denidas respectivamente por aij = 2i + j e bij = (1)i+j . A pr oxima deni c ao xa algumas no c oes de extrema import ancia para o desenvolvimento do nosso estudo. Deni c ao 1.1 Dada uma matriz A = [aij ], d a-se o nome de diagonal principal ao conjunto dos elementos da forma aii . A partir do conceito de diagonal principal, podemos denir rigorosamente duas classica c oes importantes para as matrizes de um SEL, a no c ao de matriz triangular. Deni c ao 1.2 Uma matriz diz-se triangular superior se todos os elementos abaixo da diagonal principal forem nulos. Por outro lado, no caso de todos os elementos acima da diagonal principal forem nulos, a matriz diz-se uma matriz triangular inferior. Exemplo 1.1 As seguintes matrizes s ao matrizes triangulares: 0 0 1 1 0 1 0 . 0 1 1 0 0

1.2 M etodo de Elimina c ao de Gauss. Por outro lado nenhuma das seguintes matrizes e uma matriz triangular: 0 1 1 1 0 1 0 . 1 1 1 0 0

11

Para representar o sistema temos de criar uma matriz cujos termos tenham todos os coecientes e todos os termos independentes. Esta matriz e chamada matriz ampliada e representa-se por [A|b] sendo naturalmente denida por: 1 1 1 5 [A|b] = 1 2 1 1 1 1 0 1 Vamos usar a matriz ampliada para executar o m etodo de elimina c ao de Gauss. O primeiro passo deste algoritmo corresponde a multiplicar a primeira linha da matriz por 1 e somar ` a segunda linha, substituindo a segunda linha pelo resultado obtido. Formalmente, as opera c oes atr as descritas s ao representadas por L2 L1 + L2 , ou seja: 1 1 1 5 1 1 1 5 1 2 1 1 0 1 2 4 L1 +L2 1 1 0 1 1 1 0 1 Aplicando sucessivamente este m etodo, iremos 1 1 1 5 1 0 1 2 4 0 L1 +L3 1 1 0 1 0 obter: 1 1 5 1 2 4 2 1 4

A partir desta u ltima matriz podemos obter: 1 1 1 5 1 1 1 5 0 1 2 4 0 1 2 4 2L2 +L3 0 2 1 4 0 0 5 12 Para concluir a primeira fase do m etodo de elimina c ao basta dividir a 3a linha por 5, formalmente L3 1/5L3 , obtendo a matriz: 1 1 1 5 0 1 2 4 0 0 1 12/5 Eliminando sucessivamente no sentido inverso obtemos nalmente: 1 1 1 5 1 1 1 5 0 1 2 4 0 1 0 4/5 2L3 +L2 0 0 1 12/5 0 0 1 12/5

12

Sistemas de Equa c oes Lineares

A solu c ao do sistema ser a obtida eliminando as restantes posi c oes na primeira linha da matriz anterior. A solu c ao ser a deste modo: 1 1 1 5 1 0 0 9/5 0 1 0 4/5 0 1 0 4/5 L1 L2 L3 0 0 1 12/5 0 0 1 12/5 A equa c ao matricial (1.12) e ent ao equivalente ` a equa c ao: 1 0 0 x 9/5 I3 X = b 0 1 0 y = 4/5 0 0 1 z 12/5

(1.13)

Nota 2 As equa c oes (1.12) e (1.13) denem implicitamente uma opera c ao entre matrizes a que se d a o nome de multiplica c ao de matrizes. Quer a deni c ao, quer as propriedades desta opera c ao ser ao tratadas na pr oxima sec c ao. Conclus ao. Formulando matricialmente o nosso sistema, estamos aptos para resolver computacionalmente sistemas de equa c oes lineares, tendo apenas de denir qual a matriz dos coecientes e quais os termos independentes. Para isso foi necess ario introduzir um novo objecto matem atico denominado por matriz. Como veremos seguidamente, as matrizes gozam de certas propriedades que ir ao, pelo menos do ponto de vista alg ebrico, simplicar ainda mais a resolu c ao dos sistemas de equa c oes lineares, no caso destes serem poss veis.

1.3

Algebra de matrizes

Lei do Paralelogramo. A lei do paralelogramo e a ilustra c ao geom etrica da soma de dois vectores4 . Esta lei permite-nos interpretar as solu c oes de um sistema de equa c oes lineares, que designaremos sempre que poss vel por SEL, de um modo que nos ir a levar ` a deni c ao do produto de matrizes. Considerem-se dois vectores no plano: v1 = (x1 , y1 ) e v2 = (x2 , y2 ). A soma usual de vectores permite-nos concluir que: v1 + v2 = (x1 + x2 , y1 + y2 )
4 A lei do paralelogramo, como teremos oportunidade de ver mais tarde, expressa a seguinte igualdade: xy 2+ x+y 2 =2 x 2+2 y 2

facto que tem implica c oes importantes nas propriedades do produto interno.

1.3 Algebra de matrizes

13

Sendo o resultado desta soma o vector v , este e a diagonal do paralelogramo cujos lados s ao formados pelos vectores v1 e v2 e que n ao passa nas extremidades nais destes. Na gura 1.6 podemos ver um esbo co desta lei.

y y1 + y2 y2 y1

x2

x1

x1 + x2 x

Figura 1.6: Lei do paralelogramo. Na equa c ao (1.13), us amos a lei do paralelogramo para interpretarmos os valores de x e de y como solu c oes de um SEL. Neste momento pretendemos reinterpretar os valores obtidos nessa equa c ao. Assim consideremos novamente o sistema denido em (1.11): x+y = 5 xy = 1 (1.14)

cuja solu c ao vimos que era (x, y ) = (3, 2). Dissemos na altura que os valores de x e de y encontrados s ao precisamente os que tornam a equa c ao: x(1, 1) + y (1, 1) = (5, 1) (1.15)

uma proposi c ao verdadeira. Este facto baseia-se directamente na lei do paralelogramo que acab amos de ilustrar. Considere-se o produto interno usual entre dois vectores no plano: v1 , v2 = v1 v2 cos() (1.16)

onde eo angulo entre os vectores v1 e v2 . O produto interno introduzido tem propriedades geom etricas importantes que est ao relacionadas com a lei do paralelogramo. Pelo facto de no plano real existirem dois vectores ortonormados, i. e. , dois vectores perpendiculares cuja norma e 1, o produto interno denido em (1.16) e equivalente a: v1 , v2 = x1 x2 + y1 y2 . (1.17)

14

Sistemas de Equa c oes Lineares

A rela c ao (1.17) permite-nos calcular muito facilmente o produto interno entre dois vectores. Considere-se a solu c ao do sistema (1.14). Considerando o vector posi c ao no plano que une a origem a cada um dos pontos, denimos o vector v = (3, 2) e os vectores dados pelos coecientes de x e de y em cada uma das equa c oes do sistema: v1 = (1, 1) v2 = (1, 1)

Com esta nota c ao, a solu c ao do sistema (1.14) ser a o vector v , de componentes (x, y ) que vericam as seguintes condi c oes: v1 , v v2 , v = 5 = 1 (1.18)

Considere-se novamente o sistema (1.14), representado na sua forma matricial: AX = b 1 1 1 1 5 x . = 1 y

` luz da equa A c ao (1.18), a multiplica c ao matricial entre as matrizes A e X ser a uma matriz com duas linhas e uma coluna, cujas componentes ser ao5 : a11 = 1 1 x y a21 = 1 1 x y

Logo a matriz resultante ser a a que resulta do produto interno das linhas da matriz A pela coluna da matriz X , ou seja: AX = x+y xy

Assim, se quisermos calcular (simultaneamente) o produto interno dos vectores v1 e v2 pelo vector v basta proceder ao produto das matrizes: 1 1 1 1 5 3 = 1 2

Podemos ver que a solu c ao do sistema e o par ordenado (3, 2). Como veremos mais tarde, estas s ao as componentes do vector (5, 1) na base formada pelos vectores v1 e v2 , sendo a matriz A e a sua inversa, matrizes de mudan ca de base. (5, 1) = 3v1 + 2v2 .
Existe um erro formal nestas igualdades. De facto estamos a dizer que um n umero real e igual a uma matriz, algo que e obviamente falso em qualquer situa c ao. Seria mais rigoroso considerar n ao a componente a11 mas a matriz de dimens ao 1, cuja u nica componente e precisamente esta.
5

1.3 Algebra de matrizes

15

v1

v2 3v1 + 2

v2

Figura 1.7: Interpreta c ao da solu c ao pela lei do paralelogramo. Uma representa c ao geom etrica deste facto e apresentada na gura 1.7. As raz oes pelas quais podemos escrever todos os vectores do plano ` a custa de v1 e v2 ser ao estudadas profundamente no cap tulo 2. Os factos mais delicados das raz oes de calcularmos estas coordenadas atrav es de um produto de matrizes, ser ao estudadas com todo o detalhe no cap tulo 3, ao estudarmos matrizes de mudan ca de base. Voltaremos v arias vezes a estes pontos nos pr oximos cap tulos. Nas pr oximas sec c oes deste cap tulo sistematizaremos esta opera c ao. Exerc cio 1.10 Calcule as componentes do vector v = (1, 2) a partir dos vectores v1 = (1, 1) e v2 = (1, 0). Exerc cio 1.11 Poder amos calcular as coordenadas do mesmo vector se v1 = (2, 0)? Interprete geometricamente. Exerc cio 1.12 Calcule as coordenadas do vector v = (1, 2, 3) a partir dos vectores v1 = (1, 1, 0), v2 = (1, 0, 1) e v3 = (0, 1, 1). Interprete geometricamente o resultado obtido. Multiplica c ao de Matrizes. Considerem-se os vectores v1 e v2 denidos anteriormente. Imaginemos que pretendemos apresentar o produto interno de cada um destes vectores pelos vectores wi denidos por: w1 = (3, 2) w2 = (3, 1) w3 = (3, 0).

Pela forma como denimos o produto de matrizes, podemos concluir que isso corresponde ao produto matricial: VW = 1 1 1 1 3 3 3 5 4 3 = =P 2 1 0 1 2 3

16

Sistemas de Equa c oes Lineares

Cada componente pij da matriz P corresponde ao produto interno dos vectores vi e wj , ou seja: pij = vi1 w1j + vi2 w2j . Por exemplo: 4 = p12 = v11 w12 + v12 w22 = 1 3 + 1 1 Nota-se de imediato que o produto entre duas matrizes A e B s o e poss vel no caso de o n umero de colunas de A ser igual ao n umero de linhas de B . A seguinte proposi c ao estabelece estes factos de uma forma rigorosa. Proposi c ao 1.1 Seja A uma matriz de dimens ao m n e B uma outra matriz de dimens ao n l. Ent ao a matriz P , resultante do produto destas duas matrizes e uma matriz de dimens ao m l, cujas componentes s ao dadas por:
n

pij =
k=1

vik wkj .

A partir desta proposi c ao ca estabelecida a multiplica c ao de quaisquer pares de matrizes, desde que veriquem as condi c oes estabelecidas. Exerc cio 1.13 Calcule o produto da matriz A denida por: 1 2 3 A = 1 2 3 1 0 0 pelas matrizes: 1 1 0 0 1 0 , 0 0 1

1 0 0 1 1 0 , 0 0 1

1 1 0 1 1 0 , 0 0 1

1 1 0 0 1 0 . 0 0 1

Interprete os resultados obtidos e compare-os com o m etodo de elimin c ao de Gauss. O exerc cio anterior mostrou que podemos implementar o m etodo de elimina c ao de Gauss atrav es do produto de determinadas matrizes. Estas matrizes s ao chamadas matrizes elementares e t em um papel importante quer te orico, quer computacional no desenvolvimento da Algebra Linear. Exerc cio 1.14 Considere o sistema de 2x + y + z x+y+z xy+z equa c oes lineares: = 1 = 1 = 1

1.3 Algebra de matrizes

17

Escreva-o na forma matricial e expresse o m etodo de elimina c ao de Gauss como um produto da matriz ampliada do sistema com matrizes elementares. Soma de matrizes e multiplica c ao por um escalar. A soma de duas matrizes e a multiplica c ao de um escalar por uma matriz6 s ao opera c oes com uma mec anica muito mais natural. Assim, sem mais delongas podemos denir estas opera c oes da seguinte forma: Deni c ao 1.3 Considere-se duas matrizes A = [aij ] e B = [bij ], ambas com dimens ao m n e R. Se S f or a matriz que resulta da soma de A e B ent ao S tem a mesma dimens ao destas e as suas componentes denen-se por: S = sij = aij + bij Por outro lado, sendo A a matriz que resulta do produto do escalar7 pela matriz A, ent ao as suas componentes denem-se por: A = aij . A deni c ao imp oe que apenas podemos somar duas matrizes com a mesma dimens ao, ou seja, o mesmo n umero de linhas e de colunas. Terminamos esta sec c ao expondo as propriedades das opera c oes anteriormente introduzidas. Proposi c ao 1.2 Dadas as matrizes A, B e C de dimens ao m n e os escalares k e l, as seguintes propriedades s ao v alidas: 1. A + B = B = A; 2. A + (B + C ) = (A + B ) + C ; 3. k (lA) = (kl)A; 4. k (A + B ) = kA + kB ; 5. (k + l)A = kA + lA; 6. A + (A) = 0; 7. A + 0 = A; 8. 1.A = A; 9. 0.A = 0M .
6 7

E nunca o contr ario. Ou seja, do n umero real ou complexo .

18

Sistemas de Equa c oes Lineares

Exerc cio 1.15 Mostre que s ao v alidas as propriedades enunciadas na proposi c ao anterior. No caso da multiplica c ao de matrizes um facto que conv em salientar e o de o produto de matrizes n ao ser em geral comutativo. A proposi c ao seguinte estabelece as propriedades fundamentais da multiplica c ao de matrizes. Proposi c ao 1.3 Considere as matrizes A, Bi e C de dimens oes a b, b c e c d respectivamente e o escalar k . Ent ao s ao v alidas as seguintes propriedades: 1. A(BC ) = (AB )C ; 2. (kA)B = k (AB ); 3. A(B1 + B2 ) = AB1 + AB2 . Exerc cio 1.16 Mostre que as anteriores igualdades s ao verdadeiras. Exerc cio 1.17 Mostre que em geral, o produto de matrizes n ao e comutativo.

1.4

Condensa c ao e Caracter stica

Depois de termos introduzido a algebra de matrizes na sec c ao anterior, estamos preparados para dar os passos nais na formula c ao e resolu c ao dos SEL. Nesta sec c ao vamo-nos preocupar com a factoriza c ao triangular de matrizes quadradas e introduziremos a matriz inversa para as matrizes elementares. No exerc cio 1.2, vimos que podemos reproduzir os passos do m etodo de elimina c ao de Gauss atrav es da multiplica c ao de matrizes. Os processos empregues neste cap tulo s ao sempre matriciais, mas como poderemos observar, estes equivalem ` a soma de linhas ou de colunas, bem como as suas permuta c oes, opera c oes atr as estudadas. A formula c ao matricial da condensa c ao permite-nos uma maior compreens ao dos v arios algoritmos que iremos estudar relativos ` a condensa c ao e invers ao de matrizes. Matrizes Elementares e de Permuta c ao. matrizes: 1 1 2 A = 1 1 3 2 1 1 Considerem-se as seguintes

1 0 0 E = 1 1 0 0 0 1

Como vimos, o produto de matrizes n ao e em geral comutativo. Este facto e bem representado por estas duas matrizes pois:

1.4 Condensa c ao e Caracter stica

19

2 1 2 AE = 2 1 3 3 1 1

1 1 2 EA = 2 2 5 , 2 1 1

ou seja, multiplicar ` a esquerda a matriz E por A equivale a substituir a a 2 linha de A pela soma da primeira com a segunda linha, mantendo as restantes. Caso multipliquemos a matriz E ` a direita de A equivale a substituir a primeira coluna de A pela soma das suas primeira e segunda colunas, mantendo as restantes. Por outro lado, dada a matriz P12 denida por: 0 1 0 = 1 0 0 , 0 0 1

P12

multiplicar esta ` a esquerda pela matriz A equivale a permutar a primeira linha com a segunda. Multiplicando a mesma matriz ` a direita e obviamente equivalente a permutar a primeira coluna com a segunda coluna. As matrizes cujo produto com uma matriz dada equivale ` a soma de linhas ou de colunas t em o nome de matrizes elementares. As matrizes cujo produto por uma dada matriz equivale a uma troca de linhas ou de colunas t em o nome matrizes de permuta c ao. Da observa c ao destas propriedades e natural questionarmo-nos se atrav es do produto de matrizes de permuta c ao e de matrizes elementares uma determinada matriz A pode ser diagonalizada, i.e., se podemos a partir dessa matriz, pelo processo referido, calcular uma matriz onde as u nicas componentes possivelmente n ao nulas sejam as componentes da diagonal principal. A resposta e, em certas condi c oes, sim. Como consequ encia podemos empregar este processo na resolu c ao de um SEL, visto que o produto ` a esquerda de matrizes elementares ou de permuta c ao pela matriz dos coecientes de um SEL e equivalente ao m etodo de elimina c ao de Gauss. Considere-se a matriz A dos coecientes de um determinado SEL e b a matriz dos termos independentes. Se existir uma matriz diagonal D e uma matriz S tal que: D = SA o SEL poder a ser escrito na forma: DX = SAX = Sb. Como no caso do m etodo de elimina c ao de Gauss, tamb em o processo de diagonaliza c ao de uma matriz pode ser separado em duas fases principais, primeiro at e obter uma matriz triangular superior, continuando posteriormente at e obtermos uma matriz diagonal. A primeira parte deste processo tem o nome de condensa c ao. A pr oxima deni c ao xa a nota c ao em rela c ao as matrizes elementares e de permuta ` c ao.

20

Sistemas de Equa c oes Lineares

Deni c ao 1.4 Designamos por Eij (k ) a matriz elementar cuja componente ij e igual a k , sendo todas as outras componentes iguais ` as da matriz identidade de dimens ao igual ` a da referida matriz8 . As seguintes matrizes s ao matrizes elementares, designadas de acordo com a nota c ao xada na deni c ao anterior. 1 0 0 E31 (k ) = 0 1 0 k 0 1 1 l 0 E12 (l) = 0 1 0 0 0 1

Deni c ao 1.5 Uma matriz quadrada Pij cujas linhas s ao iguais ` as da matriz identidade excepto nas linhas i e j , sendo estas iguais ` as linhas j e i, respectivamente, da matriz identidade. As seguintes matrizes s ao matrizes de permuta c ao, conforme a deni c ao anterior. 0 0 1 = 0 1 0 1 0 0 0 1 0 = 1 0 0 0 0 1

P13 = P31

P21 = P12

Podemos agora sem ambiguidade denir a condensa c ao e diagonaliza c ao de matrizes quadradas. Contudo, s o depois de introduzirmos o conceito de depend encia linear e que esta deni c ao poder a ser completamente interiorizada. Deni c ao 1.6 A condensa c ao de uma matriz A e o processo que consiste em multiplicar esta matriz por matrizes elementares ou de permuta c ao por forma a obter uma matriz triangular superior depois de eliminadas as linhas linearmente dependentes. Observe-se que a deni c ao anterior ressalva que o processo de consensa c ao s o termina ap os as linhas linearmente dependentes terem sido eliminadas. Embora n ao tenhamos ainda denido o conceito de independ encia linear, o que esta observa c ao nos diz e simplesmente que a matriz A denida por: 1 1 1 A = 0 0 1 0 0 1 apesar de ser uma matriz triangular superior n ao se trata de uma matriz condensada pois somando as duas u ltimas linhas obtemos uma matriz triangular superior mais simples:
8

Est a impl cio que uma matriz elementar e necessariamente uma matriz quadrada.

1.4 Condensa c ao e Caracter stica

21

1 1 1 A = 0 0 1 0 0 0

(1.19)

O exemplo seguinte emprega estas deni c oes no processo de condensa c ao e de diagonaliza c ao de uma matriz. Exemplo 1.2 Considere-se a matriz 1 A = 2 2 A denida por: 1 2 2 1 . 1 3

(1.20)

Vamos proceder ` a condensa c ao e posterior diagonaliza c ao da matrix A usando apenas o produto por matrizes elementares ou por matrizes de permuta c ao. Como as opera c oes envolvem s o opera c oes sobre linhas9 , as multiplica c oes ser ao todas ` a esquerda da matriz A. Multiplicando ` a esquerda a matriz A por E21 (2), obtemos: 1 1 2 1 1 2 1 0 0 E21 (2) A = 2 1 0 2 2 1 = 0 0 3 2 1 3 2 1 3 0 0 1 Multiplicando o resultante por E31 (2) conclu mos: 1 1 2 E31 (2) E21 (2) A = 0 0 3 0 1 1 Multiplicando nalmente pela matriz de permuta c ao P23 para trocarmos a segunda com a terceira linha, obtemos a matriz condensada (a que daremos o nome de S): 1 1 2 S = P23 E31 (2) E21 (2) A = 0 1 1 . 0 0 3 Vamos denir a matriz L como sendo a matriz: L = E31 (2) E21 (2) Um c alculo simples mostra que: 1 0 0 L = 2 1 0 , 2 0 1 tratando-se portanto de uma matriz triangular inferior.
9

Temos sempre os SEL em mente e nestes as opera c oes sobre colunas n ao fazem sentido.

22

Sistemas de Equa c oes Lineares

Deni c ao 1.7 Aos elementos da diagonal principal da matriz S d a-se o nome de pivots da matriz A. Mais geralmente, se S for uma matriz triangular inferior, resultante da condensa c ao de uma matriz A, ap os uma poss vel troca de colunas, por forma a obter se poss vel posi c oes n ao nulas na diagonal principal, os elementos da diagonal principal de S t em o nome de pivots da matriz A. Por exemplo, os pivots da matriz denida em (1.19) s ao 1, 1, 0, apesar de a diagonal principal ter dois elementos nulos. No caso extremo, podemos apresentar o caso da matriz: 1 1 1 1 1 0 0 0 1 0 0 0 0 0 1 Os pivots desta matriz s ao 1, 1 e 1, apesar de dois destes n ao ocuparem a diagonal principal. Esta e a raz ao pela qual na deni c ao de pivot de um matriz se prev e possiveis mudan cas de colunas. Ligada ` a deni c ao de pivot est a o de matriz singular, conceito que como teremos oportunidade de ver, relativamente ` as matrizes quadradas, permite decidir quanto ` a sua invertibilidade. Deni c ao 1.8 Uma matriz diz-se n ao-singular se todos os seus pivots forem n ao nulos. No caso contr ario diz-se, naturalmente, singular. Uma matriz n ao singular tem o nome de matriz regular. O pr oximo exerc cio demonstra que pelo facto de as matrizes elementares E31 (2) e E21 (2) serem matrizes triangulares inferiores, n ao e por acaso que a matriz L, denida como o produto das outras duas, seja tamb em uma matriz triangular inferior. Exerc cio 1.18 Considere-se o conjunto L3 das matrizes quadradas triangulares inferiores de dimens ao 9 cujas componentes da diagonal principal seja iguais a 1, ou seja: 0 0 1 L3 = a21 1 0 : aij R a31 a32 1 1. Mostre que A, B L3 : AB L3 2. Para uma determinada matriz A L3 indique uma outra matriz B L3 para as quais sejam verdadeiras as seguintes desigualdades: AB = BA = I3 3. Em que situa c ao e que o produto de matrizes em L3 e comutativo?

1.4 Condensa c ao e Caracter stica Exerc cio 1.19 Dada a matriz U denida por: 1 1 2 U = 0 1 1 , 0 0 3

23

(1.21)

de que forma, atrav es do produto de matrizes elementares, poder amos obter de novo a matriz A denida em (1.20)? Vamos prosseguir o processo de diagonaliza c ao da matriz A iniciado no exemplo 1.2. Exemplo 1.3 Considere-se novamente a matriz U denida (1.21). Para diagonalizar esta matriz vamos em primeiro lugar anular todas as componentes da terceira coluna. Para isso basta efectuar: 1 0 0 1 1 2 1 1 2 E23 (1/3) U = 0 1 1/3 0 1 1 = 0 1 0 0 0 1 0 0 3 0 0 3 Multiplicando de forma an aloga a matriz obtida por E12 (1) E13 (2/3) obtemos nalmente: 1 0 0 E12 (1) E13 (2/3) E23 (1/3) U = 0 1 0 0 0 3 nalizando assim o processo de diagonaliza c ao da matriz A. O aspecto mais importante a referir dos exemplos anteriores, e expresso na seguinte proposi c ao. Proposi c ao 1.4 Seja A uma matriz quadrada n ao-singular, multiplicada por uma matriz de permuta c ao P por forma a que as posi c oes dos pivots durante o processo de diagonaliza c ao sejam sempre ocupadas por elementos n ao nulos. Neste caso: 1. O sistema AX = b tem solu c ao u nica; 2. Com as linhas permutadas convenientemente ` a partida, a matriz P A pode ser factorizada no produto de duas matrizes LU , onde L e uma matriz triangular inferior e U uma matriz triangular superior. Demonstra c ao: Para uma ideia da demonstra c ao ver [16], p aginas 3139, onde poder a ver com todo o detalhe a discuss ao da factoriza c ao triangular e suas propriedades.

24

Sistemas de Equa c oes Lineares

A factoriza c ao da matriz A pode ser de alguma forma melhorada passando do produto de duas matrizes triangulares para: A = LDU, onde D e uma matriz diagonal, onde cada posi c ao e ocupada por cada um dos pivots da matriz e L e U s ao matrizes triangulares, triangular inferior e superior respectivamente, cujos elementos em ambas as diagonais s ao todos iguais a 1. A pr oxima proposi c ao mostra que esta decomposi c ao eu nica. Proposi c ao 1.5 Se A = L1 D1 U1 e A = L2 D2 U2 ent ao L1 = L2 , D1 = D2 e U1 = U2 . Demonstra c ao: Para uma ideia da demonstra c ao ver [13], p agina 22. Depend encia Linear. Vamos agora introduzir um dos conceitos funda mentais em Algebra Linear, o conceito de depend encia linear entre vectores, bem como um algoritmo se permite decidir se um vector v e ou n ao linearmente independente do conjunto formado pelos vectores v1 , . . . , vn . Este e um conceito central no pr oximo cap tulo. Considere-se um vector n ao nulo (no plano) v1 = (x1 , y1 ). Dado um outro vector qualquer v2 = (x2 , y2 ), que condi c oes teremos de imp or ` as componentes de v2 por forma a que n ao seja colinear com v1 ? De outra forma, quais s ao os vectores colineares com v1 ? A gura 1.8 tenta claricar este conceito. Atrav es dessa gura podemos concluir que dois vectores s ao linearmente dependentes no caso de as suas componentes serem proporcionais, pois neste caso eles formam a hipotenusa de dois triangulos semelhantes com os eixos coordenados.

v v

Figura 1.8: Combina c ao linear de v . Podemos ent ao denir depend encia linear de um determinado vector para podermos depois generalizar de forma natural este conceito.

1.4 Condensa c ao e Caracter stica

25

Deni c ao 1.9 Dado um vector n ao nulo v = (v1 , . . . , vn ), um vector u = (u1 , . . . , un ) e linearmente dependente de v se existir um escalar tal que: u = v. Caso contr ario u e v dizem-se linearmente independentes. Exerc cio 1.20 Mostre que a deni c ao de depend encia linear entre dois vectores v e u e equivalente a existirem dois escalares n ao nulos e para os quais se verique a igualdade: v + u = 0. Exemplo 1.4 Os vectores v = (1, 1, 1) e u = (2, 2, 2) s ao linearmente independentes. Por outro lado, o vector w = (1, 0, 2) e linearmente independente de cada um dos outros dois. A quest ao natural que podemos colocar ser a em que circunst ancia e que dados dois vectores u e v e o plano por eles gerado P , um vector w pertence ao plano P ? Sabemos que se w P ent ao existem escalares 1 e 2 tais que: w = 1 v + 2 u. Nestas circunt ancias diremos que w e linearmente dependente (complanar) de v e u. Podemos generalizar a deni c ao 1.9 a um n umero nito de vectores. Deni c ao 1.10 Dado um conjunto de vectores v1 , . . . , vn , um vector u e linearmente dependente de v1 , . . . , vn se existirem escalares 1 , . . . , n para os quais: u = 1 v1 + . . . + n vn . Exerc cio 1.21 Mostre que a deni c ao 1.10 e a equivalente a, dado um vector u e um conjunto de vectores linearmente independentes v1 , . . . , vn , u e linearmente dependente de v1 , . . . , vn se existirem escalares 1 , . . . , n , , dos quais pelo menos 2 s ao n ao nulos, para os quais se verica a seguinte igualdade: u + 1 v1 + . . . + n vn = 0. Exerc cio 1.22 Em que circunst ancias e que poderemos dizer que um conjunto de vectores v1 , . . . , vn e linearmente independente? Interprete geometricamente. Exerc cio 1.23 Mostre que o vector nulo de Rn que representaremos por 0Rn e linearmente dependente de todo e qualquer vector de Rn .

26

Sistemas de Equa c oes Lineares

Depois de introduzido o conceito de depend encia linear, podemos apresentar a deni c ao de caracter stica de uma matriz. Deni c ao 1.11 Dado um conjunto de vectores v1 , . . . , vn de componentes: vk = (vk1 , . . . , vkt ); k {1, . . . , n},

a caracter stica da matriz A denida por: v11 . . . v1t . . .. A= . . . . . vn1 . . . vnt e o n umero de vectores linearmente independentes do conjunto formado por v1 , . . . , vn . Esta deni c ao aparentemente inofensiva, apresenta-nos um algoritmo poderoso para decidirmos quais os vectores linearmente independentes de um conjunto v1 , . . . , vn . A justica c ao do algoritmo ser a estudada no cap tulo referente a transforma c oes lineares. Considere-se o conjunto de vectores: v1 = (1, 1, 1), v2 = (1, 2, 1) e v3 = (2, 3, 2),

e a matriz A denida pelas componentes linhas: 1 1 A = 1 2 2 3

destes vectores dispostas segundo 1 1 . 2

Condensando esta matriz, sem permutarmos qualquer linha ou coluna, iremos obter a matriz A denida por: 1 1 1 A = 0 1 0 . 0 0 0 Como a terceira linha e composta inteiramente por 0s, trata-se de uma linha linearmente dependente das outras duas, ou seja, a caracter stica da matriz A e igual a 2, o que nos diz que os vectores v1 e v2 s ao linearmente independentes, sendo v3 linearmente dependente destes dois. Este m etodo consiste em condensar a matriz e ver quantas linhas s ao nulas. O n umero de linhas nulas indica-nos os vectores linearmente dependentes do conjunto formado pelos vectores que ` a partida ocupavam as posi c oes das linhas n ao nulas ap os a condensa c ao. Exerc cio 1.24 Dos seguintes conjuntos dde vectores, indique os que formam o maior conjunto linearmente independente:

1.5 Matrizes Inversas e Transpostas 1. {(1, 1, 1, 0), (1, 1, 0, 1), (1, 0, 1, 1), (0, 1, 1, 1)}; 2. {(1, 2, 3), (4, 5, 6), (7, 8, 9)}; 3. {(1, 2, 3), (5, 7, 9), (4, 5, 6)}.

27

1.5

Matrizes Inversas e Transpostas

Matriz Inversa. A invers ao de matrizes e um dos problemas fundamen tais da Algebra Linear, cujas implica c oes est ao omnipresentes ao longo dos pr oximos cap tulos. Por outro lado, para o caso que nos interessa, os sistemas de equa c oes lineares, estamos simplesmente preocupados em encontrar a solu c ao da equa c ao matricial: AX = b X = b . Se existir uma matriz E que verique Eb = b , podemos concluir: AX = b EAX = Eb EAX = X , para qualquer matriz coluna X . Teremos ent ao necessariamente: EA = In . Neste caso E diz-se a matriz inversa esquerda de A. Podemos denir de modo an alogo a matriz inversa direita da matriz A como sendo a matriz D que verica AD = In . Exemplo 1.5 Considere-se a matriz A denida por: A= 1 2 1 . 0 1 2 (1.23) (1.22)

Comprova-se facilmente que as matrizes: 4 1 D1 = 2 1 1 1 1 2 D2 = 0 1 0 0

s ao inversos direitos de A mas n ao s ao inversos esquerdos. Exerc cio 1.25 Determine todos os inversos direitos da matriz A denida em (1.22) e conclua que s ao innitos. Exerc cio 1.26 Mostre que a matriz A n ao admite nenhuma matriz que seja simultaneamente seu inverso esquerdo e direito.

28

Sistemas de Equa c oes Lineares

Notemos que nos casos tratados, devido ao facto de a matriz denida em (1.23) ser uma matriz rectangular, o produto pelos seus inversos esquerdos e inversos direitos originava matrizes com dimens oes distintas. A pr oxima proposi c ao esclarece esta multiplicidade quando as matrizes s ao matrizes quadradas. Proposi c ao 1.6 Considere-se uma matriz quadrada A e uma matriz E que e um inverso esquerdo de A. Ent ao E e tamb em inverso direito. Al em disso este inverso eu nico. Demonstra c ao: Considere-se a matriz E como sendo um inverso esquerdo de uma matriz quadrada de A, ou seja: EA = In . Considere-se uma matriz D que verique AD = In . Deste modo poderemos concluir pela associatividade da multiplica c ao de matrizes: EA = In (EA)D = D E (AD) = D E = D. Logo E e tamb em um inverso direito. Para mostrar que a matriz E e a u nica com esta propriedade, considere-se um outro inverso esquerdo E1 . Assim, novamente pela associatividade da multiplica c ao de matrizes, podemos obter: E1 A = In (E1 A)E = E E1 (AE ) = E E1 = E , logo a matriz E eu nica. Deni c ao 1.12 Uma matriz quadrada A diz-se invert vel se existir uma matriz A1 tal que: AA1 = A1 A = In . Neste caso A1 diz-se a matriz inversa de A. A pr oxima proposi c ao indica-nos uma propriedade importante das matrizes invert veis. Proposi c ao 1.7 Uma matriz quadrada e invert vel se e s o se e n ao-singular. Demonstra c ao: Para uma discuss ao da dedu c ao deste resultado ver [16], p aginas 4547. No caso de uma matriz quadrada A ser invert vel, um sistema de equa c oes lineares e sempre poss vel e determinado. A equa c ao matricial (1.22) poder a ser resolvida por:

1.5 Matrizes Inversas e Transpostas

29

AX = b X = A1 b = b . A passagem ao inverso goza de duas propriedades importantes. Proposi c ao 1.8 Dadas duas matrizes quadradas invert veis A e B com a mesma dimens ao, ent ao: 1. (A1 )1 = A ; 2. (AB )1 = B 1 A1 . Demonstra c ao: Para demonstrar o primeiro ponto basta notar que (A1 )1 A1 = In o que pela unicidade da inversa mostra que (A1 )1 = A. Para demonstrar o segundo ponto basta usar a associatividade da multiplica c ao de matrizes: (AB )(B 1 A1 ) = A(BB 1 )A1 = AA1 = In o que demonstra o resultado pretendido. Exemplo 1.6 Considere-se a matriz A que admite a triangular: 1 0 0 2 0 0 1 A = LDU = 1 1 0 0 1 0 0 1 0 1 0 0 3 0 seguinte factoriza c ao 1 1 1 0 0 1

Pelas propriedades das matrizes triangulares e diagonais, podemos concluir de imediato que: L1 e de forma an aloga: U 1 1 1 1 1 1 1 1 0 . = 0 1 0 = 0 1 0 0 1 0 0 1 1 1 0 0 1 0 0 = 1 1 0 = 1 1 0 1 0 1 1 0 1

Por outro lado, a matriz diagonal e ainda mais f acil de diagonalizar, basta inverter os elementos da sua diagonal. Deste modo: D 1 1 2 0 0 1/2 0 0 = 0 1 0 = 0 1 0 . 0 0 3 0 0 1/3

30

Sistemas de Equa c oes Lineares

Dito isto, e muito f acil resolver o sistema de equa c oes lineares: 1 AX = 0 , 2 pois pelas propriedades estudadas, sabemos que a solu c ao do sistema anterior ser a: 1 5/6 X = U 1 D1 L1 0 = 1 . 2 1/3 M etodo de Gauss-Jordan. Agora que denimos inversa de uma matriz quadrada, estamos interessados em encontrar um m etodo para calcular a inversa de uma determinada matriz. Para isso basta notar que calcular a inversa de uma matriz A de dimens ao n n consiste em resolver o sistema de 3n equa c oes por 3n inc ognitas: AX = In , onde neste caso a matriz X n ao se trata de uma matriz coluna mas de uma matriz quadrada com o mesmo n umero de linhas e de colunas da matriz A. De facto, a solu c ao para este sistema ser a X = A1 . Para isso vamos resolver o sistema de forma habitual, considerando a matriz ampliada [A|In ], iremos multiplicar esta matriz ` a esquerda por matrizes elementares por forma a obtermos deste modo a matriz [In |B ]. Esta matriz B ser a necessariamente igual a A1 . Este processo de obter a inversa de uma determinada matriz e designado por m etodo de Gauss-Jordan.. Considere-se o seguinte exemplo, onde iremos implementar este algoritmo. Exemplo 1.7 Considere-se a matriz A denida por: 1 2 1 A = 0 1 0 1 0 2 Para determinarmos a sua matriz inversa vamos ampli a-la com a matriz I3 , procedendo depois ` a elimina c ao de Gauss. Assim, obteremos a matriz ampliada: 1 2 1 [A|I3 ] = 0 1 0 1 0 2 1 0 0 0 1 0 0 0 1

Atrav es das habituais opera c oes sobre linhas, iremos obter sucessivamente:

1.5 Matrizes Inversas e Transpostas

31

1 2 1 0 1 0 1 0 2 Eliminando 1 2 0 1 0 0

1 0 0 1 2 1 0 1 0 0 1 0 L3 L1 0 0 1 0 2 1

1 0 0 0 1 0 1 0 1

a componente da segunda coluna, 1 1 0 0 1 0 0 1 0 0 L1 2L2 L3 1 1 2 1 0

terceira linha, obtemos: 2 4 1 0 0 1 0 0 1 0 0 1 1 2 1

Deste modo, podemos concluir que a matriz inversa de A ser a: 2 4 1 1 0 , A1 = 0 1 2 1 podendo este facto ser facilmente comprovado. Neste algoritmo e evidente a import ancia da matriz ser n ao singular, pois nesse caso o processo de elimina c ao de Gauss n ao poderia levar ` a obten c ao da matriz I3 . Exerc cio 1.27 Encontre a inversa da matriz A denida no exemplo 1.7 atrav es da multiplica c ao de matrizes elementares. Exerc cio 1.28 Das seguintes matrizes, indique para essas calcule a respectiva inversa. 1 2 0 1 0 1 1 A1 = 0 1 1 ; A2 = 1 1 1 ; A3 = 1 1 1 0 2 3 3 2 as que s ao invert veis e 1 11 1 2 . 2 3

Transposi c ao de Matrizes. Vamos agora introduzir uma outra opera c ao denida sobre as matrizes: a Transposi c ao de Matrizes. Deni c ao 1.13 Considere-se uma matriz A = [aij ]. Designa-se por matriz transposta de A a matriz denida por AT = [aji ]. Exemplo 1.8 Considere-se a matriz A denida por: A= A sua transposta ser a: 1 2 AT = 2 1 3 1 1 2 3 . 2 1 1

32

Sistemas de Equa c oes Lineares

As propriedades da transposi c ao s ao muito semelhantes ` as da invers ao de matrizes. Podemos estabelecer sem diculdade a pr oxima proposi c ao. Proposi c ao 1.9 Considerem-se as matrizes A e B e uma matriz invert vel C . Ent ao: 1. (AB )T = B T AT ; 2. (AT ) = A; 3. (C T )
1 T

= (C 1 ) .

4. (A + B )T = AT + B T Demonstra c ao: Para estabelecer o ponto 1 considere-se as matrizes A e B de dimens oes na ma e ma mb respectivamente. Deste modo, podemos denir a matriz D = AB por: DT = [dik ]T =
j =1

ma

ma j =1

ma j =1

bkj T aji T = B T AT .

aij bjk =

bjk aij =

A partir desta propriedade e extremamente f acil demonstrar as seguintes. O ponto 2 e imediato bem como o ponto 4. Falta apenas demonstrar o ponto 3. Para isso, dadas as propriedades j a demonstradas e notando que In T = In , considere-se a seguinte equa c ao matricial: C 1
T

H = In H T C 1 = In T = In H T = C H = C T .

Deste modo, pela unicidade da inversa de matrizes quadradas, temos que: A 1 como era pretendido. A pr oxima deni c ao estabelece duas importantes classes de matrizes, fundamentais para futuras aplica c oes no desenvolvimento da teoria como o caso do produto interno. Deni c ao 1.14 Uma matriz A diz-se sim etrica se A = AT . No caso de T A = A a matriz diz-se naturalmente anti-sim etrica. Estas matrizes gozam de propriedades importantes, por exemplo, veremos que o Teorema Espectral garante que os vectores pr oprios de matrizes sim etricas associados a vectores pr oprios distintos s ao ortogonais, propriedade de import ancia fulcral nas aplica c oes. Os pr oximos exerc cios pretendem estabelece-las de uma forma pr atica.
T

= AT

1.6 Determinantes Exerc cio 1.29 Mostre que uma matriz diagonal e sim etrica.

33

Exerc cio 1.30 Mostre que se A e B s ao matrizes sim etricas com a mesma dimens ao ent ao A + B e tamb em uma matriz sim etrica. Exerc cio 1.31 Mostre que dada uma matriz quadrada A ent ao a matriz 1 T e uma matriz sim etrica. 2 A+A Exerc cio 1.32 Em que condi c oes e que o produto de matrizes sim etricas e uma matriz sim etrica?

1.6

Determinantes

O determinante de uma matriz e uma constante que encerra em si importantes propriedades. Por em o conceito de determinante, quer associado a uma matriz, quer a uma aplica c ao linear, e algebricamente elaborado. Por este motivo, vamos deixar uma deni c ao rigorosa deste conceito e as demons tra c oes rigorosas das suas propriedades para o cap tulo dedicado ` a Algebra Tensorial. Para uma apresenta c ao algebricamente rigorosa do conceito de determinante e suas propriedades pode consultar por exemplo [12] cap tulo 2. Introdu c ao Geom etrica. Considerem-se os vectores v1 e v2 cuja posi c ao relativa e apresentada na gura 1.9.

v1 proj
v1 v2

proj

v2 v 1

v2

Figura 1.9: Projec c ao Ortogonal sobre as componentes ortogonais. O vector v1 encontra-se decomposto em duas componentes ortogonais geradas a partir do vector (n ao-nulo) v2 . Esta decomposi c ao e calculada a partir da chamada projec c ao ortogonal de v1 sobre v2 e um vector ortogonal a este. A projec c ao ortogonal de v1 sobre v2 e o vector: proj
v2 v1

v1 , v2 v2 v2 , v2

(1.24)

onde , designa o produto interno usual em R2 . Supondo que v1 = (a1 , b1 ) e v2 = (a2 , b2 ), em (1.24) obtemos:

34

Sistemas de Equa c oes Lineares

v = proj

v1 v2

a1 b2 b1 a2 v2 , (a2 )2 + (b2 )2

= (b , a ). Sabemos que a onde a partir da deni c ao de v2 fazemos v2 2 2 area de um paralelogramo, que designaremos por , formado a partir dos vectores v1 e v2 e dada pela express ao:

A( ) = v

v2 .

(1.25)

Por (1.24) e (1.25) podemos concluir de imediato que: A( ) = |a1 b2 b1 a2 | . Considere-se ent ao uma matriz A cujas linhas s ao formadas pelas componentes dos vectores v1 e v2 , ou seja: A= a1 b1 a2 b2

Vamos denir determinante da matriz A como o valor cujo m odulo e igual ` a area do paralelogramo representado na gura 1.10, formado pelos vectores cujas componentes s ao as componentes das linhas da matriz A. Deni c ao 1.15 Designa-se por det A ou por |A|, o determinante de uma matriz de dimens ao 2 2, o valor: det A = a1 b1 = a1 b2 a2 b1 . a2 b2

Pelo facto de termos denido geometricamente o conceito de determinante, podemos deduzir intuitivamente uma s erie de propriedades referentes a este conceito. A demonstra c ao das igualdades seguintes ca como (um optimo) exerc cio.

v1

v2
Figura 1.10: Paralelogramo formado a partir dos vectores v1 e v2 . Duas propriedades imediatas dos determinantes s ao:

1.6 Determinantes

35

a1 + a2 b1 + b2 c1 d1 t a1 t b1 c1 d1

a1 b1 a b + 2 2 c1 d1 c1 d1 a1 b1 c1 d1

(1.26) (1.27)

= t

Por outro lado, o determinante n ao e afectado pela soma de uma linha pelo m ultiplo de outra, como e expresso na seguinte igualdade: a1 l c1 b1 l d1 c1 d1 (1.28)

A partir desta propriedade podemos concluir que no caso das linhas de uma matriz serem linearmente dependentes, o seu determinante e 0, pois: 0= 0 0 l c1 l c1 l d1 l d1 l c1 l d1 = = c1 d1 c1 d1 c1 d1

Com alguns c alculos podemos mostrar que dadas duas matrizes quadradas com a mesma dimens ao A e B ent ao o det(AB ) = det(A) det(B ), ou seja: a1 b1 a2 b2 a a + b1 c2 a1 b2 + b1 d2 = 1 2 c1 d1 c2 d2 c1 a2 + d1 c2 c1 b2 + d1 d2 (1.29)

Uma outra consequ encia imediata e o facto de o determinante de uma matriz triangular ser igual ao produto dos elementos da sua diagonal principal, i.e., a1 b1 a 0 = 1 = a1 d1 0 d1 c1 d1 (1.30)

igualmente imediato que a troca de duas linhas de uma matriz troca o E sinal do determinante: a1 b1 c d1 = 1 c1 d1 a1 b1 (1.31)

Por m, dada uma matriz A, o seu determinante e igual ao determinante da T matriz A , ou seja: det(A) = det(AT ) (1.32)

Exerc cio 1.33 Indique sem calcular o determinante das seguintes matrizes: 1 1 ; 2 2 1 156 ; 0 2 0 1 . 1 0

36

Sistemas de Equa c oes Lineares

Pela propriedade (1.28) podemos concluir que o processo de condensa c ao n ao altera o valor do determinante. Por outro lado, no m etodo de elimina c ao de Gauss, por vezes somos obrigados a trocar linhas ou colunas da matriz. Pelas propriedades (1.31) e (1.32) isto equivale a mudar o sinal do determinante se as trocas forem em n umero mpar, permanecendo tudo na mesma no caso contr ario. Contudo, o processo de condensa c ao transforma uma determinada matriz numa matriz triangular superior. Pela propriedade (1.30) sabemos que o determinante de uma matriz triangular e o produto dos elementos na sua diagonal principal. Ora no caso da matriz estar condensada, os elementos da sua diagonal principal s ao precisamente os pivots da matriz. E assim sem surpresa que denimos o determinante de uma matriz quadrada de dimens ao n n como sendo precisamente o produto dos seus pivots. Deni c ao 1.16 Dada uma matriz quadrada A de dimens ao n n, designamos por det(A) o n umero: det(A) = p1 . . . pn onde pi s ao os pivots da matriz A. A quest ao que se coloca naturalmente e: precisamos de condensar uma matriz para podermos calcular o seu determinante? A resposta e n ao. Seguidamente iremo-nos concentrar precisamente em encontrar uma f ormula para este c alculo. Exerc cio 1.34 Mostre que uma matriz quadrada e n ao-singular se e s o se o seu determinante f or n ao-nulo. Exerc cio 1.35 Mostre que se A e uma matriz invert vel ent ao det(A1 ) = 1 det(A) . Teorema de Laplace. O Teorema de Laplace e a resposta armativa ` a quest ao se seria poss vel calcular o determinante de uma matriz sem ter de a condensar. Apresentamos o teorema na sua forma mais geral. A demonstra c ao do mesmo pode ser encontrada em [13], p aginas 237238. Teorema 1 (Teorema de Laplace) Dada uma matriz quadrada A = [aij ] de dimens ao n n. Ent ao:
n

det A =
j =1

aij (1)i+j det Aij ,

onde cada cada uma das matrizes Aij e a matriz de dimens ao (n 1) (n 1) que obt em-se de A retirando desta a linha i e a coluna j . A Aij d a-se o nome de menor-ij da matriz A e a (1)i+j det Aij o cofactor-i, j da mesma matriz.

1.6 Determinantes

37

O seguinte exemplo aplica o teorema de Laplace para calcular o determinante de uma matriz de dimens ao 4 4.

Exemplo 1.9 Considere-se a matriz A denida por: 1 0 A= 0 1 1 1 2 0 2 2 1 0 1 1 1 1

Pelo teorema de Laplace, obtemos, escolhendo a primeira coluna 10 da matriz A: 1 2 1 1 2 1 det A = 1 (1)1+1 2 1 1 + 1 (1)4+1 1 2 1 . 2 1 1 0 0 1

(1.33)

Pelo facto de as duas primeiras linhas da u ltima matriz serem linearmente dependentes, podemos concluir de imediato que o seu determinante e nulo. Assim, em (1.33) obtemos: 1 2 = 3. 2 1

det A =

Exerc cio 1.36 Calcule o determinante das seguintes matrizes e classiqueas quanto ` a sua invertibilidade: 1 0 A= 1 2 2 1 1 1 1 1 1 2 1 1 ; 1 1 2 3 C= 5 7 3 5 7 2 5 7 2 3 7 2 . 3 5

1 3 5 B = 2 7 11 ; 5 13 1

Exerc cio 1.37 Calcule o volume do paralelep pedo (com lados n ao perpendiculares) representado na gura seguinte.
10 Pelo facto de o determinante de uma matriz ser igual ao determinante da sua transposta, o teorema de Laplace pode ser aplicado segundo linhas ou segundo colunas.

38

Sistemas de Equa c oes Lineares

(4, 1, 1)

(1, 3, 1) (3, 0, 0)

(0, 0, 0)

1.7

Classica c ao e resolu c ao de SEL

Nesta sec c ao vamos usar tudo aquilo que denimos at e agora para, como o nome desta sec c ao indica, classicar e quando poss vel resolver um sistema de equa c oes lineares (SEL). A pr oxima proposi c ao estabelece uma regra que nos permite classicar um SEL sem termos de o resolver. Proposi c ao 1.10 Considere-se o SEL AX = b, onde A e uma matriz de dimens ao n m. Ent ao: 1. Se r(A) = r(A|b) o SEL e poss vel. Neste caso, se r(a) = m ent ao o SEL e poss vel e determinado. No caso de r(A) < m ent ao o sistema e poss vel mas indeterminado; 2. Se r(A) < r(A|b) ent ao o sistema e imposs vel. Nos seguintes exemplos aplicamos esta forma de calssica c ao, apresentando mais detalhes ` a medida que formos avan cando. Exemplo 1.10 Considere-se o seguinte sistema: x + y + 2z = 1 2x + y + 2z = 0 Formulando este sistema matricialmente, obtemos a matriz ampliada: [A b] = 1 1 2 2 1 2 1 0
2L1 +L2

1 1 2 0 1 2

1 2

Obtemos ent ao a matriz condensada, visto tratar-se de uma matriz triangular superior, sem linhas linearmente dependentes. Antes de transformarmos esta matriz numa matriz diagonal podemos classicar de imediato este sistema. Assim: r ([A b]) = r(A) = 2

1.7 Classica c ao e resolu c ao de SEL

39

Conclu mos ent ao que o sistema e poss vel. Para decidirmos se e determinado ou indeterminado, temos de comparar esta caracter stica com o n umero de inc ognitas, ou seja, o n umero de colunas da matriz A. Como r ([A b]) < 3, o sistema e poss vel mas indeterminado. De facto as equa c oes do sistema s ao as equa c oes de dois planos que se intersectam, raz ao pela qual o sistema e poss vel, mas em mais do que um ponto, raz ao pela qual o sistema e indeterminado. Acabando de resolver o sistema, podemos ver sem diculdade que este equivale em termos matriciais a ter: 1 1 2 0 1 2 1 2
L2+L1

1 0 0 0 1 2

1 , 2

ou seja, equivale ` a recta que resulta da intersec c ao dos planos de equa c ao x + y + 2z = 1 e 2x + y + 2z = 0. A partir das matrizes anteriores podemos concluir que a equa c ao desta recta e: x = 1 y + 2z = 2 No exemplo seguinte temos o caso de um sistema igualmente poss vel e indeterminado, se bem que o conjunto solu c ao tem particularidades um pouco diferentes. Exemplo 1.11 Consideremos por exemplo o denido por: = x+y+z 2x + 2y + 2z = 3x + 3y + 3z = sistema de equa c oes lineares

0 0 0

Vemos claramente que as equa c oes deste sistema s ao todas equivalentes, ou seja, os planos denidos por cada uma destas equa c oes s ao todos iguais. Podemos comprovar isto mesmo ao formular matricialmente o SEL anterior. 1 1 1 0 1 1 1 0 2 2 2 0 0 0 0 0 0 0 3 3 3 0 0 0 Ora podemos ent ao concluir que o sistema e poss vel mas indeterminado pois: r ([A b]) = r(A) = 1 < 3. Neste caso o conjunto solu c ao do nosso SEL e o plano de equa c ao x + y + z = 0. Note-se que ao contr ario do caso do sistema apresentado no exemplo 1.10, em que uma das vari aveis estava univocamente determinada, havendo no entanto uma depend encia entre as outras duas, neste caso, al em

40

Sistemas de Equa c oes Lineares

de n ao conseguirmos determinar univocamente o valor de cada uma das inc ognitas, o melhor que podemos obter e estabelecer uma depend encia entre as 3 vari aveis envolvidas. Como os exemplos 1.10 e 1.11 mostraram, existem sistemas poss veis e indeterminados que de um certo ponto de vista s ao mais indeterminados do que outros. A pr oxima deni c ao estabelece rigorosamente esta no c ao. Deni c ao 1.17 Dado um sistema de equa c oes lineares denido matricialmente por AX = b, no caso de o sistema ser indeterminado, d a-se o nome de grau de indetermina c ao do sistema ` a diferen ca entre a caracter stica da matriz A e o seu n umero de colunas. No caso de o sistema ser poss vel e determinado, o seu grau de indetermina c ao e 0. Como veremos no pr oximo cap tulo, o grau de indetermin c ao e igual ` a dimens ao do conjunto solu c ao. A partir desta deni c ao, podemos concluir que o grau de indetermina c ao do sistema do exemplo 1.10 e igual a 1 enquanto que no caso do sistema do exemplo 1.11 e 2. Exemplo 1.12 Considere-se o seguinte sistema de equa c oes lineares: 2x + y + 3z = 0 2x y + z = 1 2x + y + 3z = 1 Para podermos classicar este sistema vamos ciais. Assim: 2 1 3 [A b] 2 1 3 2 1 3 Procedendo a ` condensa c ao 2 1 3 2 1 3 2 1 3 da forma habitual 0 2 1 0 L1 +L2 1 2 formul a-lo em termos matri 0 1 1 obtemos: 1 3 2 2 1 3 0 1 1

Continuando com este processo, obtemos: 0 2 1 3 2 1 3 0 2 2 1 0 2 2 L1 +L3 2 1 3 1 0 0 0

0 1 1

Conclu mos de imediato que r ([A b]) < r(A), pelo que o sistema e imposs vel. Observando com algum cuidado o sistema de equa c oes lineares anterior, vemos que existem dois palnos paralelos, os planos 2x + y + 3z = 0 e 2x + y + 3z = 1. Assim, estes dois planos nunca se intersectam, pelo que

1.7 Classica c ao e resolu c ao de SEL

41

n ao existe nenhum ponto comum aos 3 planos enunciados no sistema, pelo que o sistema e imposs vel. Classica c ao de SEL. Munidos com as ferramentas estudadas neste cap tulo, estamos preparados para voltar ao estudo dos problemas param etricos com que come c amos o presente cap tulo. Exemplo 1.13 Dados 3 planos denidos pelas equa c oes x + y + z = 0, 2x + 4y + z = 1 e x + y + z = 2, estamos interessados em saber quais os valores de para os quais os 3 planos se intersectam num u nico ponto. Este problema com um natureza geom etrica, pode ser formulado algebricamente. Algebricamente, este problema equivale a saber quais os valores de para os quais o sistema composto pelas equa c oes dos 3 planos forma um sistema poss vel e determinado. Matricialmente isto equivale a: 1 1 2 4 1 0 1 1 1 0 4 2 2 2L1 +L2 1 2 0 1 . 2

A partir desta matriz, podemos eliminar a componente que resta da primeira coluna multiplicando a primeira linha por e somando ` a u ltima linha. Ficaremos ent ao com: 1 1 0 4 2 2 1 0 1 1 1 0 4 2 2 L1 +L3 2 0 2 1 0 1 2

Para facilitar a elimina c ao, vamos trocar a segunda com a terceira coluna. seguindo depois com a elimina c ao, fazendo ( 1)L2 + ( 2)L3 obtemos: 1 1 0 2 4 2 0 1 2 0 1 1 1 0 2 4 2 2 0 0 P () 0 1 3 5

onde P () = ( 1)(2 + )(2 ). Podemos concluir que o sistema ser a poss vel e determinado se: P () = ( 1)(2 + )(2 ) = 0 = 2,

ou de um modo equivalente, quando / {1, 2}. Podemos concluir que tirando os casos apontados, para qualquer outro valor de os planos intersectam-se em apenas um ponto. Exerc cio 1.38 Escolha um valor de para o qual o sistema anterior seja poss vel e determinado e para esse valor determine o ponto de intersec c ao dos 3 planos.

42

Sistemas de Equa c oes Lineares

Exerc cio 1.39 Haver a algum valor de para o qual os 3 planos de intersectem em mais do que 1 ponto? Conclus ao No in cio do presente cap tulo introduzimos problemas semelhantes ao discutido no par agrafo anterior. Com a formula c ao matricial podemos constatar que a resolu c ao de tais problemas cou bastante mais simplicada. Em vez de ser o ponto de vista geom etrico a ajudar a entender o problema alg ebrico e agora a resolu c ao alg ebrica que nos ajuda a perceber um problema geom etrico. Esta inex ao na nossa abordagem ter a repercurs oes importantes nos pr oximos cap tulos.

a minha cidade tinha um rio donde sobe hoje o cheiro a cora c oes de lodo e um e uvio de enxofre e de moscas cercando as cabe cas dos vivos
| Al Berto, Horto de Inc^ endio, (1997)

El Coronel se puso de pie y la luz de la antorcha que llevaba el Mulato le dio de friente. La mujer vio su piel oscura y sus eros ojos de puma y supo al punto que estaba frente al hombre m as solo de este mundo. Quiero ser Presidente dijo el.
| Isabel Allende, Cuentos de Eva Luna, (1989)

Cap tulo 2

Espa cos Vectoriais


2.1 Deni c ao e exemplos de Espa cos Vectoriais

Falta esta sec c ao que ser a escrita numa altura oportuna. Qualquer livro da bibliograa especicamente sobre Algebra Linear cont em o essencial desta sec c ao. Ver por exemplo [16].

2.2

Subespa cos Vectoriais

Deni c ao de Subespa co. Dado um sistema de equa c oes lineares homog eneo, sabemos que este admite sempre a solu c ao trivial. Deste modo, um sistema deste tipo nunca e imposs vel, ou seja, o seu conjunto solu c ao e sempre n ao vazio. Veremos que este conjunto tem propriedades not aveis do ponto de vista linear. Exemplo 2.1 Dado o seguinte sistema linear homog eneo: x 2y + z = 0 2x y + z = 0 x + y + z = 0 Em termos matriciais este sistema 1 2 1 equivale a considerarmos a matriz: 2 1 1 1 . (2.1) 1 1

Nesta matriz, ao contr ario do que acontecia anteriormente, n ao e necess ario considerar a matriz ampliada visto que os termos independentes s ao todos nulos. Tamb em por esta raz ao, um sistema linear homog eneo e sempre poss vel, visto a caracter stica da matriz dos coecientes e a matriz dos termos independentes coincidir. Prosseguindo como e habitual, poder amos condensar a matriz, acabando por concluir que existe mais do que uma

44

Espa cos Vectoriais

solu c ao do sistema. No caso de haver uma u nica solu c ao, vimos no cap tulo anterior que isto equivalia a dizer que a matriz em (2.1) e invert vel. Al em disso, isto equivale tamb em a dizer que o determinante da matriz e n ao-nulo. Calculando o determinante da referida matriz, obtemos: 1 2 1 2 1 1 = 3 = 0. 1 1 1

(2.2)

Pela igualdade (2.2) conclu mos que o sistema considerado tem apenas a solu c ao trivial. No cap tulo anterior, o nosso objectivo era obtermos tanto quanto poss vel sistemas poss veis e determinados como o do exemplo apresentado. Contudo por vezes depar avamo-nos com sistemas poss veis mas indeterminados. Neste cap tulo estamos interessados em estudar com todo o detalhe o conjunto conjunto solu c ao deste tipo de sistemas. Para isso comecemos por estudar o caso homog eneo. O seguinte exemplo vai-se revelar muito mais interessante do que o anterior visto que o grau de indetermina c ao ser a maior do que 0. Exemplo 2.2 Considere-se o sistema linear homog eneo denido da seguinte forma: x 2y + z = 0 2x y + z = 0 (2.3) x + y = 0 Raciocinando de forma an aloga ao do exemplo anterior, calculando o determinante da matriz dos coecientes deste sistema, obtemos: 1 2 1 2 1 1 = 0. 1 1 0 Conclu mos imediatamente que o sistema e poss vel mas indeterminado, visto ter ` a partida a solu c ao trivial, ou seja, a solu c ao: (x, y, z ) = (0, 0, 0). Atrav es do processo de condensa c ao, obtemos sucessivamente: 1 2 1 1 1 0 2 1 1 0 3 1 1 1 0 0 0 0 Conclu mos que o grau de indetermina c ao do sistema e 1. Mais exactamente, o conjunto solu c ao do nosso sistema e denido em compreens ao por:

2.2 Subespa cos Vectoriais

45

C.S. = { (x, y, z ) : x + y = 0

3y z = 0 } ,

ou seja, todos os vectores da forma (k, k, 3k ) onde k e um n umero real qualquer, s ao solu c oes do sistema. Com o conjunto solu c ao assim denido, podemos com clareza decidir quais os vectores que pertencem ou n ao ao conjunto solu c ao do sistema considerado. Por outro lado, o conjunto solu c ao assim denido permite-nos apresentar duas propriedades fundamentais. Considerem-se duas solu c oes v1 e v2 (n ao necessariamente iguais) do sistema. Ent ao existem dois n umeros reais k1 e k2 tais que: v1 = (k1 , k1 , 3k1 ) v2 = (k2 , k2 , 3k2 ).

Somando as duas solu c oes, assumindo que k1 + k2 = k3 obtemos de imediato: v1 + v2 = (k1 k2 , k1 + k2 , 3k1 + 3k2 ) ou mais simplesmente: v1 + v2 = ((k1 + k2 ), k1 + k2 , 3(k1 + k2 )) = (k3 , k3 , 3k3 ), podendo concluir ent ao que a soma de solu c oes do sistema e ainda solu c ao do sistema. De forma ainda mais simples podemos mostrar que o produto de um escalar por uma solu c ao do mesmo sistema e ainda uma solu c ao do sistema pois: (k, k, 3k ) = ((k ), (k ), 3(k )). Os exemplos anteriores mostraram que existem subconjuntos de subespa cos vectoriais que s ao ainda fechados para a soma e para a multiplica c ao por um escalar. A pr oxima proposi c ao estabelece que estas propriedades s ao sucientes para que este subconjunto seja ainda e por si s o um espa co vectorial. Proposi c ao 2.1 Um subconjunto S de um espa co vectorial E que seja fechado para a soma e para o produto escalar e ainda um espa co vectorial. Nestas condi c oes S diz-se um subespa co vectorial de E e esta rela c ao representa-se por S E . Exerc cio 2.1 Mostrar que S E se e s o se , K e u, v S temos que v + u S . Nos exemplos anteriores vimos que o conjunto solu c ao dos sistemas lineares homog eneos estudados possu am uma estrutura linear importante. O pr oximo exerc cio mostra que esta e uma propriedade de todo o conjunto solu c ao de um sistema linear deste tipo. Exerc cio 2.2 Mostre que o conjunto solu c ao de qualquer sistema linear homog eneo e um subespa co vectorial.

46

Espa cos Vectoriais

Exerc cio 2.3 Mostre que o conjunto solu c ao do sistema x 2y + z = 1 2x y + z = 0 x+y = 0 n ao e um subespa co vectorial. A estrutura vectorial de um determinado conjunto e de extrema import ancia nas aplica c oes visto que a sua exist encia simplica de sobremaneira os c alculos e a pr opria forma como o espa co e organizado. Identica c oes de Subespa cos reais. Existe uma forma natural de identicar os elementos de um determinado subespa co vectorial real. Esta identica c ao ser au til para, n ao s o ganhar intui c ao, mas para compreender de uma forma mais simples a estrutura das opera c oes sobre os conjuntos que suportam os subespa cos vectoriais. O entendimento da estrutura desta opera c oes e vital para o desenvolvimento da teoria. A forma mais natural de identicar um subespa co e atrav es da associa c ao de cada vector a um ponto ou, de forma inversa, a cada ponto o seu vector posi c ao. O pr oximo exemplo desenvolve estes princ pios. Exemplo 2.3 Considere-se S R3 o conjunto denido por: S = (x, y, z ) R3 : x = y . (2.4)

Para mostrar que este subconjunto forma um subespa co vectorial basta mostrar que: u, v S , R : v + u S.

Considerem-se ent ao dois elementos u, v S . Como elementos de S sabemos que existem escalares x1 , x2 , z1 e z2 tais que: u = (x1 , x1 , z1 ) pelo que, para , R, temos que: v + u = (x1 , x1 , z1 ) + (x2 , x2 , z2 ) = (x1 + x2 , x1 + x2 , z1 + z2 ), sendo este um elemento de S , pois os elementos deste subconjunto s ao todos 3 os vectores de R tais que a primeira componente e igual ` a segunda. Podemos agora perguntar, depois de mostrarmos que S e um subespa co de R3 , qual 3 o subconjunto de pontos de R cujos vectores posi c ao s ao os vectores de S . v = (x2 , x2 , z2 ),

2.2 Subespa cos Vectoriais

47

A resposta a esta pergunta e clara, s ao todos os pontos cujas primeira e segunda coordenada s ao iguais, ou seja, o conjunto Sp denido por: Sp = (x, y, z ) R3 : x = y . (2.5)

Mostr amos assim que o subespa co vectorial S pode ser identicado com o plano Sp . Note-se que existe uma diferen ca importante entre os conjuntos denidos em (2.4) e (2.5), pois enquanto o primeiro e um conjunto de vectores, o segundo e um conjunto de pontos. Note-se ainda que o plano Sp e um plano que passa na origem. A u ltima observa c ao no exemplo anterior, colocou em evid encia uma propriedade importante, estabelecida de uma forma mais geral na pr oxima proposi c ao. Proposi c ao 2.2 Todos os subespa cos vectoriais de R3 podem ser identicados com a origem, ou com rectas e planos que por ela passem1 . Quando discutirmos o conceito de dimens ao vamos poder aprofundar com todo o detalhe as propriedades das identica c oes. Vamos nalizar a introdu c ao do conceito de subespa co vectorial discutindo v arios exemplos dos mesmos. Exemplo 2.4 Considere-se o conjunto de todas as matrizes quadradas de dimens ao 2 2 com coecientes reais, M2 (R) denido na sec c ao anterior. Mostr amos que este conjunto forma um espa co vectorial. Considere-se o subconjunto S como sendo o subconjunto de todas as matrizes A vericando a equa c ao: A 0 1 . = 0 1

Todos os elementos de S ser ao assim matrizes quadradas de dimens ao 2 2 da forma: A= a a . b b

Para mostrar que S e um subespa co vectorial de M2 (R), vamos considerar e dois escalares reais e duas matrizes A e B de S . Como A, B S ent ao necessariamente: a1 , a2 , c1 , c2 R :
1

A=

a1 a1 , c1 c1

B=

a2 a2 . c2 c2

Verica-se claramente que no caso de considerarmos R3 como subespa co de si pr oprio, este n ao poder a ser identicado com nenhum destes conjuntos, mas apenas com ele pr oprio, o que verica necessariamente as consequ encias da proposi c ao.

48

Espa cos Vectoriais

Assim, pelas propriedades dos n umeros reais e das opera c oes entre matrizes, podemos obter: A + B = a1 + a2 a1 + a2 , c1 + c2 c1 + c2

tratando-se este claramente de um elemento ainda de S , pelo que poderemos conluir que S M2 (R). Na sec c ao anterior vimos que o conjunto de todos os polin omios de uma vari avel com coecientes reais e um espa co vectorial, espa co que n os representamos por R[x]. Os pr oximos exemplos s ao uma caracteriza c ao de subespa cos naturais deste espa co. Exemplo 2.5 Considere-se R3 [x] como o conjunto de polin omios em R[x] com grau menor ou igual a 3, ou seja: p(x) R3 [x] a, b, c, d R : p(x) = ax3 + bx2 + cx + d. Para mostrar que este subconjunto de R[x] e um subespa co vectorial considerem-se , R e dois polin omios p(x) e q (x) de R3 [x]. Neste caso, teremos que: p(x) = a1 x3 + b1 x2 + c1 x + d1 q (x) = a2 x3 + b2 x2 + c2 x + d2 .

Pelas regras das opera c oes entre polin omios obtemos imediatamente que: p(x) + q (x) = (a1 + a2 )x3 + . . . + (d1 + d2 ), tratando-se este ainda um polin omio de grau inferior a 3 com coecientes reais. Conclu mos ent ao que R3 [x] R[x]. Exerc cio 2.4 Mostre que Rn [x] R[x]. Os pr oximos exemplos exploram duas situa c oes em que uma das condi c oes para que um determinado conjunto seja subespa co vectorial falha. Exemplo 2.6 Considere-se Np R2 o conjunto formado pelos eixos coordenados e N o conjunto de todos os vectores de R2 colineares a uma das rectas de Np . Assim denido, N n ao e mais do que o conjunto de todos os vectores: N = (x, y ) R2 : x = 0 y = 0 . imediato que N E e fechado para o produto escalar, pois sendo R e u N , ent ao: u = (x, y ) N (x = 0 y = 0) (x = 0 y = 0) u N.

2.2 Subespa cos Vectoriais

49

Por outro lado, denindo Nx o eixo das abcissas e Ny o eixo das ordenadas, considere-se ux Nx e uy Ny . Assim, sabemos que estes vectores s ao da forma: ux (a, 0), uy = (0, b), pelo que, se a = 0 = b, ent ao ux + uy = (a, b), pelo que nenhuma das componentes deste vector e nula. Logo N n ao e um conjunto fechado para a soma de vectores, n ao se tratando portanto de um subespa co vectorial. Exemplo 2.7 Considere-se N R2 denido por: N = (x, y ) R2 : x Z y Z . Pelas propriedades dos n umeros inteiros, temos que N e fechado para a soma de vectores. Contudo n ao e fechado para o produto escalar, pois: u = (1, 1) N = 2 R por em u / N.

O pr oximo exemplo tem importantes implica c oes em An alise Matem atica pois estabelece uma estrutura vectorial no conjunto de todas as solu c oes de uma equa c ao diferencial linear homog enea de coecientes constantes. Exemplo 2.8 Considere-se o subconjunto de todas as fun c oes de classe C 2 num aberto A R que vericam a equa c ao diferencial: y + y = 0. (2.6)

Dadas duas solu c oes particulares desta equa c ao y1 e y2 e dados dois n umeros reais e , verica-se facilmente pelas regras de deriva c ao: d d2 (y1 + y2 ) = y1 + y2 (y1 + y2 ) = y1 + y2 . dx dx2 Pelas equa c oes (2.6) e (2.7) obtemos de imediato: d2 (y1 + y2 ) + (y1 + y2 ) = (y1 + y1 ) + (y2 + y2 ) = 0 , dx2 pelo que o conjunto de todas as solu c oes desta equa c ao e um subespa co vectorial. O exemplo seguinte verica uma propriedade que ser a referida repetidas vezes ao longo do presente texto. Exemplo 2.9 Dado um espa co vectorial E e um vector u E , considerese o conjunto de todas as combina c oes lineares de u que designaremos por f L(u). E acil mostrar que este conjunto e um subespa co vectorial de E . Com

(2.7)

50

Espa cos Vectoriais

efeito, considerem-se v e w duas combina c oes lineares de u. Deste modo, existem dois escalares e tais que: v = u w = u.

Dados dois escalares quaisquer a, b K, temos que: av + bw = au + bu = (a + b )u, tratando-se este ainda uma combina c ao linear de u pelo que L(u) e um subespa co vectorial de E . Exerc cio 2.5 Mostre que se u e v , vectores do mesmo espa co vectorial E , s ao linearmente dependentes ent ao L(u, v ) = L(u). Exerc cio 2.6 Mostre que L(u1 , . . . , un ) e um subespa co vectorial. Exerc cio 2.7 Considere-se SL(2, R), o conjunto de todas as matrizes de M2 (R) sim etricas, ou seja, todas as matrizes A M2 (R) tais que A = AT . Mostre que SL(2, R) e um subespa co vectorial.

2.3

Bases e Dimens ao

Independ encia Linear. Vamos rever o conceito de depend encia linear introduzido no cap tulo anterior, ` a luz dos novos exemplos apresentados na sec c ao sobre subespa cos vectoriais. Exemplo 2.10 Considere o conjunto 1, x, x2 . Mostr amos na sec c ao anterior que o conjunto formado por todos os polin omios de grau inferior a 2 e um subespa co vectorial. Vamos mostrar que este conjunto e um sistema linearmente independente. De facto, pelas propriedades dos polin omios temos que: x2 + x + 1 = 0 = = . pelo uma combina c ao linear destes 3 mon omios e igual ao polin omio nulo se e apenas se as constantes forem todas nulas, pelo que o conjunto e linearmente independente em R[x]. Iremos ver mais tarde que este conjunto e a base can onica de R2 [x]. Exerc cio 2.8 Averigue se os seguintes conjuntos s ao linearmente independentes: 1. {1 x, 1 + x}; 2. {1, 1 x, 1 + x};

2.3 Bases e Dimens ao 3. 1 2x, 1 + x2 , 2x x2 .

51

Vimos na sec c ao anterior que o conjunto de todas as combina c oes lineares de um determinado conjunto de vectores pertencentes a um determinado espa co vectorial formam um subespa co vectorial deste. Iremos ver de seguida que muitas vezes este conjunto de vectores pode ser simplicado e continuar a gerar o mesmo conjunto de combina c oes lineares. Exemplo 2.11 Considere-se o conjunto A como sendo o conjunto de todas as combina c oes lineares: A = L ((1, 1, 1), (1, 0, 2), (1, 0, 1), (1, 1, 0)) . Vamos mostrar que este conjunto e igual ao conjunto gerado pelo conjunto de vectores {(1, 0, 2), (1, 0, 1), (1, 1, 0)} . Para isso, considere-se um vector v A. Por deni c ao isto signica que existem escalares 1 , . . . , 4 tais que: v = 1 (1, 1, 1) + 2 (1, 0, 2) + 3 (1, 0, 1) + 4 (1, 1, 0) (2.8)

Pelo facto de o vector (1, 1, 1) ser um vector linearmente dependente dos outros tr es, podemo-lo escrever como combina c ao linear dos restantes: (1, 1, 1) = (1, 1, 0) + (1, 0, 2) (1, 0, 1). Deste modo em (2.8) podemos obter o mesmo vector v apenas como combina c ao linear destes 3 vectores fazendo:

v = 1 (1, 1, 1) + 2 (1, 0, 2) + 3 (1, 0, 1) + 4 (1, 1, 0) = (2 + 1 )(1, 0, 2) + (3 + 1 )(1, 0, 1) + (4 4 )(1, 1, 0). Podemos ent ao concluir que qualquer elemento do conjunto A e igualmente elemento do conjunto L ((1, 0, 2), (1, 0, 1), (1, 1, 0)), ou dito de uma forma ainda mais simples:

L ((1, 1, 1), (1, 0, 2), (1, 0, 1), (1, 1, 0)) L ((1, 0, 2), (1, 0, 1), (1, 1, 0)) . Assim, o conjunto de todas as combina c oes lineares de um conjunto de de vectores linearmente dependentes e igual ao conjunto de todas as combina c oes linares de um seu subconjunto formado por vectores linearmente independentes.

52

Espa cos Vectoriais

Antes de enunciarmos a proposi c ao que estabelece rigorosamente o caso estudado no exemplo anterior, considere-se o conjunto de vectores A denido por: A = {v1 , . . . , vn } . Um subconjunto de B A formado unicamente por vectores linearmente independentes diz-se linearmente maximal ou simplesmente maximal, se qualquer conjunto Cv denido por: v A B : Cv = B {v },

for um conjunto linearmente dependente. Um conjunto de vectores pode ter v arios subconjuntos maximais diferentes, embora todos tenham o mesmo n umero de elementos. Exerc cio 2.9 Indique quais os subconjuntos maximais dos seguintes conjuntos de vectores: 1. A = {(1, 1, 1), (1, 0, 2), (1, 0, 1), (1, 1, 0)} 2. B = {(1, 1, 1, 0), (0, 1, 0, 2), (1, 0, 0, 1), (1, 1, 0, 0)} Exerc cio 2.10 Mostre que todos os subconjuntos linearmente maximais de um determinado conjunto A t em todos o mesmo n umero de elementos. A partir da ideia retirada da an alise do exemplo anterior, sabemos que, no caso de termos um sistema linearmente dependente de vectores, existem subconjuntos deste cujo conjunto de todas as combina c oes lineares eo mesmo. A pr oxima proposi c ao estabelece que nem todos os subconjuntos formados por vectores linearmente independentes v ao gerar exactamente o mesmo conjunto de combina c oes lineares. Proposi c ao 2.3 Dado um conjunto A = {v1 , . . . , vn }, um subconjunto B A e gerador do espa co gerado pelo conjunto A se e somente se cont em um subconjunto linearmente maximal de A. Por outro lado, se B for formado apenas por elementos linearmente independentes ele e um subconjunto linearmente maximal de A Bases e Dimens ao At e agora o que temos estudado e o conjunto de todas as combina c aoes lineares geradas por um conjunto de vectores {v1 , . . . , vn }. Nos par agrafos anteriores vimos que a parte relevante de um conjunto desta forma no estudo do subespa co vectorial de todas as combina c oes lineares de elementos deste conjunto e apenas comportada pelos seus subconjuntos maximais. Vimos igualmente que um conjunto B e linearmente maximal dentro de um conjunto A se no caso juntarmos algum vector de A a B , o

2.3 Bases e Dimens ao

53

conjunto resultante for linearmente dependente. O que estamos agora interessados em saber e dado um subespa co qual o conjunto linearmente maximal que est a nele contido. Como veremos, num subespa co vectorial formado por mais do que um elemento, existem innitos subconjuntos linearmente maximais. No entanto, o seu n umero de elementos e sempre igual. A pr oxima deni c ao d a um nome a qualquer conjunto linearmente maximal de um qualquer subespa co vectorial. Deni c ao 2.1 Dado um subespa co vectorial S de um espa co vectorial E , a um conjunto linearmente maximal de S d a-se o nome de base de S . Ligado directamente ao conceito de base est a o de dimens ao. A pr oxima deni c ao, apoiada no facto de o n umero de elementos de uma base ser invariante, esclarece esta rela c ao. Deni c ao 2.2 Dado um subespa co vectorial S de um espa co vectorial E a dimens ao de S e igual ao n umero de vectores que comp oe qualquer uma das suas bases. No caso de S ser um subespa co vectorial de um determinado espa co vectorial E , e sendo v1 , . . . , vs uma base de S iremos escrever: S = v1 , . . . , vs , indicando que o subespa co S e gerado pela base {v1 , . . . , vs }. Os seguintes exemplos tratam de v arios exemplos de espa cos vectoriais, dos seus subespa co e das respectivas bases e dimens oes. Exemplo 2.12 Um dos exemplos mais tratados at e agora no presente texto imediato ver que qualquer vector deste espa tem sido o caso de R3 . E co vectorial pode ser escrito como uma combina c ao linear dos vectores: {e1 , . . . , e3 } = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} . De facto, qualquer vector v = (x, y, z ) pode ser expresso nesta base por: (x, y, z ) = x(1, 0, 0) + y (0, 1, 0) + z (0, 0, 1). Por este facto, muitos autores referem-se a esta base como as coordenadas naturais de R3 (por exemplo [1]). N os vamos chamar a esta base (ou a este tipo de bases) base can onica. A partir daquilo que foi dito podemos concluir que a dimens ao de R3 e igual a 3, visto que a base can onica forma um conjunto maximal para o referido espa co.

54

Espa cos Vectoriais

Podemos facilmente generalizar o exemplo anterior para obtermos a base can onica de Rn . A partir daqui, sem qualquer diculdade, podemos concluir que a dimens ao deste espa co e igual a n, ou seja, qualquer conjunto maximal n de R e formado por n vectores. O pr oximo exemplo, ao contr ario do anterior, e um exemplo de um espa co vectorial de dimens ao innita. Exemplo 2.13 Considere-se R[x], o conjunto de todos os polin omios com coecientes reais. Qualquer conjunto maximal deste espa co e formado por um n umero innito de polin omios. A base can onica deste espa co e o conjunto k formado por todos os mon omios da forma x , com k N, ou seja: R[x] = 1, x, x2 , x3 , . . . , pelo que a dimens ao de R[x] e innita2 . Vimos anteriormente que as matrizes t em uma estrutura natural de espa co vectorial. O pr oximo exemplo estabelece resultados semelhantes aos anteriores para o caso das matrizes. Exemplo 2.14 Considere-se M2 (R) o subespa co vectorial de todas as ma f trizes quadradas de ordem 2 com componentes reais. E acil ver que qualquer matriz deste conjunto pode ser escrita como: 0 0 0 0 0 1 1 0 a b . +d +c +b =a 0 1 1 0 0 0 0 0 c d Podemos ent ao concluir que a base can onica de M2 (R) e o conjunto formado pelas matrizes anteriores, i. e. , M2 (R) = 1 0 0 1 0 0 0 0 , , , 0 0 0 0 1 0 0 1 .

Assim, conclu mos que a dimens ao de M2 (R) e igual a 4. Os pr oximo exerc cios generalizam os resultados obtidos anteriormente para espa cos mais gerais. Exerc cio 2.11 Indique a base can onica de Rn e a respectiva dimens ao. Exerc cio 2.12 Indique a base can onica de Mn (R) e a respectiva dimens ao.
Em rigor n ao podemos dizer que este conjunto e uma base de R[x] visto que e composto por um n umero innito de elementos. Contudo, ao contr ario do que se passa em geral com os espa cos de dimens ao innita, qualquer elemento de R[x] pode ser escrito como a soma de um n umero nito de m ultiplos deste conjunto, pelo que n ao se coloca neste caso qualquer problema de natureza topol ogica.
2

2.3 Bases e Dimens ao

55

Exerc cio 2.13 Sendo k N indique a dimens ao e a base can onica de Rk [x]. O pr oximo exemplo explora um outro caso de um espa co vectorial de diN mens ao innita que costuma ser representado por R , o espa co vectorial de todas as sucess oes de n umeros reais. Exemplo 2.15 Considere o conjunto de todas as sucess oes de n umeros reais, i. e. , o conjunto de todas as fun c oes f da forma

f : N R n f (n). Podemos ver um elemento deste espa co como um vector com innitas posi imediato que este conjunto c oes f = (f (1), f (2), . . . ). E e fechado para a soma e para o produto por um escalar. Podemos tamb em concluir que o conjunto natural para base can onica seria o conjunto das sucess oes gn denidas na forma: gn = ( 0, 0, . . . , 0 , 1, 0, . . . ).
n 1 posi c oes

Assim qualquer sucess ao f pode ser escrita como:

f=
k=0

f (n) gn .

(2.9)

No entanto a igualdade expressa em (2.9) mostra que f n ao e uma combina c ao linear dos elementos do conjunto {g1 , g2 , . . . } visto que n ao pode ser expresso como uma soma nita de m ultiplos destes. Assim, ao contr ario do que se passava em R[x], n ao existe uma base para RN , visto que qualquer dos seus elementos n ao pode ser escrito como a soma nita de m ultiplos dos elementos de um seu conjunto maximal. Voltando ao exemplo de R[x], considerando a sua base can onica: R[x] = 1, x, x2 , . . . , vemos que a soma innita de elementos degenera, ou seja, somando por exemplo todos os elementos deste conjunto n ao obtemos um polin omio:

xk =
k=0

1 1x

56

Espa cos Vectoriais

mas sim uma fun c ao racional. Assim, o estudo dos espa cos vectoriais de dimens ao innita apresenta aspectos delicados sobre os quais e preciso ter um extremo cuidado. Um dos pontos interessantes e que nem todos os espa cos de dimens ao innita admitem uma base. Exerc cio 2.14 Discuta porque raz ao R[x] admite uma base e RN n ao. Exerc cio 2.15 D e exemplos de subespa cos de RN de dimens ao nita e de dimens ao innita. Para os primeiros indique as respectivas bases. Caracteriza c ao das Bases. Vamos agora apresentar alguns resultados que estabelecem as propriedades fundamentais das bases de um espa co vectorial. Comecemos por um teorema extremamente importante. Teorema 2 Em qualquer espa co vectorial E , um seu subconjunto B E denido por: B = {b1 , . . . bn } e uma base se e s o se todo o vector de E se pode escrever de uma forma u nica como elementos de B . Demonstra c ao: Vamos sup or que um determinado subconjunto B E e uma base de E . Dado um elemento qualquer v E vamos sup or que v se pode escrever como combina c ao linear de elementos de B , i. e. , existem escalares 1 , . . . , n e 1 , . . . , n tais que: v = 1 b1 + . . . + n bn v = 1 b1 + . . . + n bn . (2.10)

A partir da equa c ao (2.10) obtemos: 0E = v v = v = (1 1 ) b1 + . . . + (n n ) bn . Como por hip otese B e uma base, todos os seus elementos s ao linearmente independentes. Assim, pelas equa c oes anteriores podemos concluir que: 1 = 1 ... n = n .

Logo todo o elemento de E se pode escrever de forma u nica como combina c ao linear de elementos de B . A implica c ao rec proca e trivial. A demonstra c ao anterior e v alida no caso do espa co ter dimens ao nita. O pr oximo exerc cio mostra que os mesmos resultados podem ser transportados para o caso em que o espa co tem dimens ao innita. Exerc cio 2.16 Mostre que o teorema anterior e ainda v alido caso o espa co E tenha dimens ao innita.

2.4 Espa cos Vectoriais e Sistemas Lineares

57

Pela unicidade da representa c ao de qualquer vector na base do espa co ou subespa co vectorial ao qual pertence podemos denir a representa c ao do vector nessa base. Deni c ao 2.3 Seja E um espa co vectorial que admite como base o conjunto B formado pelos vectores b1 , . . . , bk . Dado um qualquer vector v E , sabemos que existem escalares 1 , . . . , k tais que: v = 1 b1 + . . . + n bn . Os escalares 1 , . . . , k s ao as coordenadas de v na base B . Por outro lado o n-uplo ordenado (1 , . . . , k ) e a representa c ao do mesmo vector na referida base. O pr oximo exerc cio explora as m ultiplas representa c oes de um determinado vector em diferentes bases. Exerc cio 2.17 Considere o vector v = (1, 2, 3, 4) R4 . Determine a representa c ao de v nas seguintes bases: 1. Na base can onica de R4 ; 2. {(1, 1, 0, 0), (1, 0, 1, 0), (1, 0, 0, 1), (0, 1, 0, 1)}; 3. {(1, 1, 1, 1), (1, 0, 1, 1), (1, 1, 0, 1), (0, 1, 1, 1)}; 4. {(1, 1, 1, 1), (1, 2, 2, 2), (1, 3, 3, 3), (1, 4, 4, 4)}.

2.4

Espa cos Vectoriais e Sistemas Lineares

Nesta sec c ao, ` a luz daquilo que apreendemos nas sec c oes anteriores, poderemos reformular a caracteriza c ao do conjunto solu c ao de um determinado sistema de equa c oes lineares. Conforme vimos no in cio deste cap tulo, o conjunto solu c ao de um sistema linear homog eneo e um subespa co vectorial3 . Partindo daqui vamos conseguir reformular todas as respostas em rela c ao ao n umero de solu c oes de um determinado sistema de equa c oes lineares. O espa co coluna. Para nos apercebermos melhor daquilo que se est aa 4 desenrolar , vamos trabalhar num caso concreto. Considere-se o seguinte sistema: 1 1 1 x 2 1 0 0 y = 1 . (2.11) 0 1 1 z 1
Visto que a dimens ao deste espa co nunca e igual ` a dimens ao do espa co todo onde as solu c oes do sistema est ao imersas a n ao ser num caso trivial. 4 Curioso o uso da palavra desenrolar!
3

58

Espa cos Vectoriais

Como sabemos, esta formula c ao e equivalente a uma outra formula c ao matricial: 1 1 1 2 x 1 + y 0 + z 0 = 1 . (2.12) 0 1 1 1 Pela equa c ao em (2.12), temos que o sistema (2.11) tem solu c ao se e s o se: (2, 1, 1) L((1, 1, 0), (1, 0, 1), (1, 0, 1)). De imediato conclu mos que a proposi c ao anterior e equivalente a ter: (2, 1, 1) (1, 1, 0), (1, 0, 1) , ou seja, o sistema (2.11) e poss vel se e s o se, o vector (2, 1, 1) e um elemento do subespa co gerado pelas colunas da matriz dos coecientes do sistema. Como poderemos ver facilmente o espa co gerado pelas colunas deste sistema pode ser descrito por: S = (1, 1, 0), (1, 0, 1) = (x, y, z ) R3 : x = y + z . Para mostrar esta igualdade considere-se um vector qualquer v S . Deste modo, v pode ser escrito como combina c ao linear dos vectores da base de S , pelo que existir ao escalares e tais que: v = (1, 1, 0) + (1, 0, 1) = ( + , , ), pelo que um elemento gen erico de S s ao todos os vectores de R3 cuja primeira componente e igual ` a soma das outras duas. Conclu mos ent ao que o vector (2, 1, 1) e um elemento deste espa co pelo que o sistema e poss vel. Podemo-nos perguntar se esta e a u nica solu c ao do sistema (2.11). No pr oximo par agrafo vamos denir o n ucleo de uma matriz, um conceito que nos permitir a responder a esta pergunta de uma forma rigorosa. N ucleo de uma matriz. De facto o n ucleo de uma matriz e um conceito que j a trat amos diversas vezes no in cio deste cap tulo, n ao sendo mais do que o conjunto solu c ao do sistema linear homog eneo a estudado. Deni c ao 2.4 Dada uma matriz A, o n ucleo desta matriz e o conjunto solu c ao do sistema linear homog eneo AX = 0 e vamos represent a-lo por Nuc (A). Vimos anteriormente que este conjunto e um subespa co vectorial. Veremos mais tarde que as suas propriedades s ao determinantes na classica c ao de aplica c oes lineares. O facto mais relevante neste ponto e que a forma como o n ucleo de uma matriz est a relacionado com a solu c ao do sistema linear

2.4 Espa cos Vectoriais e Sistemas Lineares

59

n ao homog eneo associado a essa matriz. Recuperando o exemplo anterior, considere-se o sistema homog eneo: 1 1 1 x 0 1 0 0 y = 0 . 0 1 1 z 0 Este sistema e equivalente ao 1 0 0 sistema condensado: 0 0 x 0 1 1 y = 0 , 0 0 z 0

de onde podemos concluir que o conjunto solu c ao do sistema linear homog eneo, i. e. , o Nuc (A) e denido exactamente por: Nuc (A) = (x, y, z ) R3 : x = 0 y + z = 0 . Podemos a partir daqui concluir de imediato que um vector gen erico de Nuc (A) e um vector da forma (0, , ), pelo que: Nuc (A) = (0, 1, 1) . Considere-se agora uma solu c ao do sistema linear n ao homog eneo denido em (2.11), por exemplo (1, 1, 0). Vericamos sem diculdade que esta solu c ao somada com qualquer solu c ao do sistema homog eneo e ainda solu c ao do sistema n ao homog eneo, bastando para isso vericar a igualdade: 2 1 1 1 1 1 0 0 1 + = 1 . 1 0 1 1 Por outro lado n ao existem outras solu c oes do sistema n ao homog eneo que n ao sejam desta forma. Para mostrar este facto, considere-se a solu c ao apresentada anteriormente, (1, 1, 0) e uma outra solu c ao qualquer que vamos designar por v1 = (x1 , y1 , z1 ). Ent ao: 1 1 1 x1 1 0 1 0 0 y1 1 = 0 , 0 1 1 z1 0 o que mostra que v1 (1, 1, 0) Nuc (A), existindo deste modo u Nuc (A) tal que: u = v1 (1, 1, 0) v1 = (1, 1, 0) + u v1 (1, 1, 0) + Nuc (A). Temos assim nalmente, sendo S o conjunto solu c ao do sistema linear n ao homog eneo,

60

Espa cos Vectoriais

S = (1, 1, 0) + Nuc (A). Podemos ent ao concluir que se tivermos perante um sistema que na sua forma matricial pode ser formulado por AX = b, qualquer solu cao deste pode ser escrita como a soma de uma sua solu c ao particular com uma solu c ao do sistema homog eneo, i. e. , o conjunto solu c ao do sistema n ao homog eneo e completamente descrito na forma: S = vpart + Nuc (A). Por outro lado note-se que, sendo c(A) a dimens ao do espa co gerado pelas colunas da matriz A, a dimens ao do Nuc (A) no exemplo anterior e igual a: dim Nuc (A) = 3 r(A) = 3 c(A), o que e equivalente a dizermos que: r(A) = 3 dim Nuc (A) = c(A). Pela deni c ao de caracter stica, esta e igual ao n umero de linhas linearmente independentes na matriz A, ou seja, e igual ` a dimens ao do espa co gerado pelas linhas da matriz. Ent ao dois factos fundamentais em Algebra Linear emergem das observa c oes anteriores. Teorema 3 Considere-se o sistema AX = b. Ent ao s ao verdadeiras as seguintes arma c oes: 1. O grau de indetermina c ao do sistema e igual ` a dimens ao do Nuc (A); 2. A dimens ao do espa co gerado pelas colunas de A e igual ` a dimens ao do espa co gerado pelas suas linhas, i. e. , a sua caracter stica. Demonstra c ao: Para ver uma demonstra c ao destes resultados ver por exemplo [16], p agina 90 e seguintes. Os pr oximos exerc cios revelam a riqueza escondida no Teorema 3, ao estabelecer as rela c oes entre as solu c oes dos sistemas lineares homog eneos e os espa cos vectoriais. Exerc cio 2.18 Determine uma matriz 3 3 cujo n ucleo sejam todos os vectores de R3 que vericam a equa c ao x + y + z = 0. Exerc cio 2.19 Considere-se a matriz A 1 1 A = 1 0 2 0 denida por: 1 1 , 1

2.5 Soma e Intersec c ao de Subespa cos


T

61

e o sistema de equa c oes lineares AX = b onde b = . Analisando o espa co gerado pelas colunas de A, mostre que quaisquer que sejam os escalares , e , o sistema anterior e sempre poss vel e determinado. Qual e a dimens ao do Nuc (A)? Exerc cio 2.20 Determine uma base e um vector linearmente independente do Nuc (A) onde A e uma matriz de 3 3 denida por: 1 0 2 A = 0 2 1 . 1 2 0 Indique ainda uma matriz coluna b para a qual o sistema AX = b seja imposs vel. Exerc cio 2.21 Sabendo que sistema de equa co es lineares: 1 0 1 s= 1 1 1
T

e uma solu c ao particular do

2 x 0 2 2 1 y = 3 , 1 z 2 0

determine todas as solu c oes do sistema anterior. ( Sugest ao: Use o Nuc (A) calculado no exerc cio anterior.) Exerc cio 2.22 Mostre que os espa cos gerados pelas colunas e pelas linhas das seguintes matrizes t em a mesma dimens ao: 1 1. 2 1 1 1 2. 2 1 2 1 1 1 1 1 1 1 1 2 1 1 1 3 1 1 0

3. 1 2 3 1 2

2.5

Soma e Intersec c ao de Subespa cos

Como vimos anteriormente, subespa cos vectoriais n ao s ao mais do que subconjuntos de um determinado espa co vectorial que possuem ainda a estrutura de espa co vectorial. Como conjuntos, existem tr es opera c oes naturais sobre subespa cos: a uni ao, a intersec c ao e a passagem ao complementar. Por em, um subespa co vectorial e um conjunto munido da soma de vectores.

62

Espa cos Vectoriais

Imersos dentro de um espa co maior, faz sentido questionarmos se esta estrutura alg ebrica adicional induz ou n ao uma outra opera c ao sobre subespa cos. A resposta e sim, induz naturalmente a soma de dois subespa cos, que como veremos tem uma rela c ao previlegiada com a uni ao dos mesmos. Opera c oes entre Conjuntos. Vamos rever a deni c ao das v arias opera c oes entre conjuntos. Considerem-se os conjuntos A, B e um conjunto que contenha a uni ao dos dois. A intersec c ao entre A e B consiste no conjunto formado por todos os elementos que pertencem simultaneamente a ambos, i. e. , denido em compreens ao: A B = {x : x A x B} .

Do mesmo modo podemos denir a uni ao dos referidos conjuntos como o conjunto de todos os elementos que ou pertencem a A ou pertencem a B ou a ambos. Em compreens ao isto signica: A B = {x : x A x B} .

A passagem ao complementar do conjunto A e simplesmente o conjunto de todos os elementos de que n ao pertencem a A. Em compreens ao: Ac = {x : x / A} . Finalmente, no caso de possuir uma estrutura aditiva, i. e. , no caso de ser um grup oide aditivo, podemos denir ainda a soma de dois conjuntos como o conjunto de todos os elementos de que resultam de soma de um elemento de A com um elemento de B , ou seja: A + B = {x : x = a + b , a A b B } . Os pr oximos exerc cios pretendem consolidar estas no c oes. Exerc cio 2.23 Considere os conjuntos A = {1, 2, 3} e B = {0, 1, 5}. Indique qual a uni ao e a intersec c ao dos dois conjuntos. Indique igualmente qual o complementar de cada um destes em R e em Z. Conclua que a soma de ambos e igual em qualquer dos conjuntos. Exerc cio 2.24 Considere = {0, 1, 2, 3, 4, 5} e os seus subconjuntos A = {1, 2, 3} e B = {3, 4, 5}. Mostre que A + B n ao est a denido em . Qual o menor conjunto no qual a soma dos dois conjuntos est a denida? Neste conjunto indique os respectivos complementares.

2.5 Soma e Intersec c ao de Subespa cos

63

Intersec c ao de Subespa cos. Considerem-se dois subespa cos vectoriais S e M de um determinado espa co vectorial E denido sobre um corpo K. A pr oxima proposi c ao estabelece uma importante propriedade da intersec c ao de subespa cos vectoriais. Proposi c ao 2.4 A intersec c ao de dois subespa cos vectoriais S e M e ainda um subespa co vectorial de E . Demonstra c ao: A demonstra c ao desta proposi c ao e bastante simples. Vamos em primeiro lugar mostrar que o produto por um escalar e fechado na intersec c ao de dois subespa cos. Para isso considere-se v S M . Ent ao v pertence a cada um dos subespa cos. Deste modo, para qualquer escalar K, temos que v S e v M , pois s ao ambos subespa cos. Assim v S M , o que mostra que o produto de um escalar por um vector em SM e ainda um elemento deste. A demonstra c ao de que a soma de dois vectores da intersec c ao de dois subespa cos e ainda um elemento da intersec c ao e perfeitamente an aloga e ca como exerc cio. Pela proposi c ao anterior sabemos que a intersec c ao de dois subespa cos vectoriais e ainda um subespa co vectorial. Todos os nossos esfor cos ir ao no sentido de encontrar uma base para o espa co que resultou da intersec c ao. O seguinte exemplo explora este problema. Exemplo 2.16 Considerem-se dois subespa cos de R3 , S e M denidos por: S = (x, y, z ) R3 : x = y e M = (1, 0, 1) .

Da maneira como os dois subespa cos est ao denidos e dif cil compreender quais os vectores que pertencem a S M . Para facilitar a nossa tarefa vamos escrever o subespa co M em compreens ao. Para isso considere-se um vector gen erico v M . Deste modo, existir a um escalar R tal que: x= x=z y=0 , v = (x, y, z ) = (1, 0, 1) y=0 z= ou seja, M ca denido simplesmente por: M = (x, y, z ) R3 : x = z y=0 .

Logo, a intersec c ao dos subespa cos S e M e denida em commpreens ao por: S M = (x, y, z ) R3 : x = z y=0 x=y .

Podemos ver de imediato que o u nico vector que pertence ` a intersec c ao dos dois subespa cos e o vector nulo, ou seja:

64

Espa cos Vectoriais

S M = {(0, 0, 0)} . Conclu mos ent ao que a dimens ao de S M e igual a 0, pelo que a intersec c ao e trivial. Vamos agora analisar um segundo exemplo que resulta de uma pequena perturb c ao do exemplo anterior. Exemplo 2.17 Considere-se o subespa co de R3 denido no exemplo anterior e o subespa co M denido por: M = (1, 1, 1) . Podemos ver facilmente que M e denido em compreens ao por: M = (x, y, z ) R3 : x = z x=y .

Assim denido e imediato que a intersec c ao dos dois subespa cos e simplesmente: S M = (x, y, z ) R3 : x = z x=y = M,

podendo de imediato concluir que M S , pelo que a base da intersec c ao dos dois subespa cos e naturalmente a base de M . O pr oximo exerc cio e a jun c ao dos dois exemplos anteriores. Seria interessante tentar adivinhar qual o seu resultado a partir dos resultados dos dois exemplos anteriores. Exerc cio 2.25 Considere S o subespa co de R3 denido nos exemplos anteriores e M = (1, 0, 1), (1, 1, 1) . Indique a dimens ao da intersec c ao destes dois subespa cos. Uni ao e Soma de Subespa cos. Seguindo a linha de racioc nio do in cio desta sec c ao, seria natural ` a partida assumir que a uni ao de dois subespa cos seria igualmente um subespa co. O pr oximo exemplo clarica em parte esta situa c ao. Exemplo 2.18 Considerem-se dois subespa cos vectoriais Sx , Sy R2 denidos por: Sx = (x, y ) R2 : y = 0 Sy = (x, y ) R2 : x = 0 .

A uni ao destes dois subespa cos e denida pela disjun c ao das proposi c oes que denem cada um deles: Sx Sy = (x, y ) R2 : y = 0 x=0 .

2.5 Soma e Intersec c ao de Subespa cos Escolhendo dois vectores v, w SX Sy tais que: v = (, 0) = 0 e w = (0, ) = 0,

65

pela forma como foram denidos e imediato mostrar que v + w / Sx Sy , pelo que a uni ao destes dois subespa cos vectoriais n ao forma um subespa co vectorial. A partir deste exemplo podemos garantir que em geral a uni ao de dois (ou mais) subespa cos vectoriais n ao e um subespa co vectorial. Analisando geometricamente o exemplo anterior, talvez possamos chegar ` a conclus ao em que situa c oes e que a uni ao de dois subespa cos e ainda um subespa co vectorial. Pela an alise da gura 2.1 podemos come car a perceber porque raz ao a uni ao

Sy

Sx
Figura 2.1: Vectores cuja soma n ao est a em Sx Sy . dos dois subespa co n ao e um subespa co. Por deni c ao, Sx e Sy s ao todos os vectores colineares ao eixo dos xs e ao eixo dos y s respectivamente. A soma, para estar na uni ao destes dois subespa cos era necess ario que a soma de quaisquer dois vectores fosse tamb em um vector colinear aos eixos ordenados. Ora para tal acontecer era necess ario que os eixos ordenados fossem iguais. A pr oxima proposi c ao estabelece em que circunst ancias e que a uni ao de dois subespa cos e ainda um subespa co. Proposi c ao 2.5 Considerem-se dois subespa cos vectoriais S e M do mesmo espa co vectorial E . Ent ao a uni ao destes dois subespa cos e ainda um subespa co se e s o se S M ou M S , i. e. , se um dos subespa cos est a contido no outro. Demonstra c ao: Uma das implica c oes e trivial visto que se um dos espa cos est a contido no outro, a uni ao deles e o maior destes, sendo este subespa co,

66

Espa cos Vectoriais

ca demonstrado que a uni ao tamb em e um subespa co. Para demonstrar o rec proco, vamos supor que a uni ao M S e um subespa co de E e que no entanto M S e S M . Ent ao existem dois vectores s, m tais que: sS s /M mM s / S.

Como a uni ao destes subespa co e ainda um subespa co ent ao s + m M S . Ora se a soma est a na uni ao destes dois subespa cos ent ao tamb em estar a em pelo menos um deles. Vamos sup or que s + m S . Ent ao: (s + m) s S m S, o que e obviamente um absurdo. Supondo que a soma est a em M vamos de forma an aloga chegar a um absurdo pelo que chegamos ` a conclus ao que: s+m / M s+m / S s + m / S M, o que e absurdo. A raz ao de chegarmos a este absurdo cou-se a dever ao facto de assumirmos que M S e S M era uma proposi c ao verdadeira. Assim sendo, a proposi c ao ser a necessariamente falsa, o que nos mostra que a sua nega c ao e verdadeira, i. e. , representando a nega c ao l ogica pelo s mbolo , obtemos: (M S S M ) (M S S M) ,

terminando assim a demonstra c ao. Temos agora uma caracteriza c ao completa da uni ao de dois subespa cos. E um exerc cio de combinat oria extender o anterior resultado para mais do que dois subespa cos. Exerc cio 2.26 Extenda o resultado da proposi c ao anterior para um n umero nito de subespa cos. Visto que a uni ao de subespa cos n ao e necessariamente um subespa co, podemos perguntar qual o menor subespa co que cont em a uni ao S M ? A resposta e o espa co S + M que passamos a tratar. Vamos denir a soma de dois subespa cos vectoriais S, M E como o conjunto de todos os vectores de E que resultam da soma de um vector de S com um vector de M . Formalmente, podemos escrever: S + M = {v E , va S vb M : v = va + vb } . N ao e dif cil mostrar que a soma de dois subespa cos e ainda um subespa co. Este resultado e estabelecido na proposi c ao seguinte.

2.5 Soma e Intersec c ao de Subespa cos Proposi c ao 2.6 Dados dois subespa cos S, M E ent ao S + M E . Exerc cio 2.27 Demonstre a proposi c ao anterior.

67

A pr oxima proposi c ao mostra que para al em da soma de subespa cos ser um subespa co, e de facto o menor subespa co que cont em a uni ao. Proposi c ao 2.7 Dados dois subespa cos vectoriais S, M E , o subespa co S+M e o menor subespa co que cont em a uni ao S M , i. e. , se existir outro subespa co F E tal que S M F ent ao necessariamente teremos S + M F. Exerc cio 2.28 Demonstre a proposi c ao anterior. Os pr oximos exemplos lidam com algumas subtilezas da soma de dois subespa cos. Exemplo 2.19 Considerem-se dois subespa cos M1 , M2 R3 denidos por: M1 = (1, 1, 1), (1, 1, 0) M2 = (1, 0, 1), (0, 1, 0) .

Um vector v M1 + M2 pode ser denido como a soma de um vector m1 M1 com um vector m2 M2 . Por sua vez cada um destes vectores pode ser escrito como combina c ao linear dos vectores da base respectiva. Assim, o vector v pode ser escrito como: v = (1, 1, 1) + (1, 1, 0) + (1, 0, 1) + (0, 1, 0) .
m1 m2

Logo qualquer vector v M1 + M2 ser a necessariamente combina c ao linear dos vectores da base dos dois subespa cos, ou seja: v L ((1, 1, 1), (1, 1, 0), (1, 0, 1), (0, 1, 0)) . Por sua vez, o conjunto de todas as combina c oes lineares dos vectores das duas bases, admite como base qualquer seu conjunto maximal pelo que basta encontrar um conjunto maximal no conjunto: {(1, 1, 1), (1, 1, 0), (1, 0, 1), (0, 1, 0)} Assim, a soma dos dois subespa cos ca denida por: M1 + M2 = (1, 1, 1), (0, 1, 0), (1, 1, 0) . Como dim (M1 + M2 ) = 3 ent ao M1 + M2 = R3 . Note-se por outro lado que nem todos os elementos de R3 se podem escrever de forma u nica, como soma de um vector de M1 com um vector de M2 . O pr oximo exerc cio come ca a discernir as raz oes para este facto.

68

Espa cos Vectoriais

Exerc cio 2.29 Mostre que a dimens ao de M1 M2 e positiva. Uma das raz oes para que um vector no espa co M1 + M2 se possa escrever de mais do que uma maneira tem a ver precisamente com o facto de a intersec c ao dos dois subespa cos n ao ser unicamente o vector nulo. Exerc cio 2.30 Mostre que o vector (3, 3, 3) M1 + M2 e que pode ser escrito de v arias formas como soma de um elemento de M1 com um elemento de M2 . Exerc cio 2.31 Dados dois subespa cos vectoriais S e M de um determinado espa co vectorial E , mostre que se dim M S e positiva ent ao todos os vectores de M + S que n ao pertencem a S M e a M S se podem escrever de v arias maneiras como soma de um elemento de M com um elemento de S. A pr oxima deni c ao introduz um conceito fundamental em Algebra Linear, o conceito de soma directa de subespa cos. Deni c ao 2.5 Dados subespa cos vectoriais S e M de um determinado espa co vectorial E , diz-se que S e M est ao em soma directa se todos os vectores do subespa co S + M se pode escrever de uma forma u nica como soma de um elemento de S com um elemento de M e neste caso a soma dos dois subespa cos representa-se por M S . A pr oxima proposi c ao d a-nos uma condi c ao necess aria e suciente para que um espa co vectorial se possa escrever como soma directa de um conjunto de subespa cos. Teorema 4 Dado um espa co vectorial E e um conjunto de subespa cos vectoriais S1 , . . . , Sn de E tais que: E = S 1 + . . . + Sn . Assim E pode ser escrito como soma directa dos subespa cos indicados, i. e. : E = S1 S2 . . . Sn , se e s o se Si Sj = {0E } para i = j . Para demonstrar esta proposi c ao vamos enunciar o seguinte lema. A demonstra c ao do mesmo e um bom exerc cio. Lema 1 Dados dois subespa cos S e M do mesmo espa co vectorial E , se a intersec c ao de S e M e trivial ent ao todos os vectores de S s ao linearmente independentes dos vectores de M e vice-versa.

2.5 Soma e Intersec c ao de Subespa cos

69

Demonstra c ao: [do teorema 4] Para mostrar que se Si Sj e trivial para i = j ent ao E pode ser escrito como soma directa dos referidos espa cos, considere-se v S1 + + Sn e vamos supor que existem 2n vectores:
n 2 s1 i , si n

Si : v =
i=1

v=
i=1

s2 i .

(2.13)

Por (2.13) obtemos:


n

0E =
i=1

(s1 i s2 i ).

(2.14)

Pelo lema 1 temos que a soma em (2.14) e igual ao vector nulo de E se e apenas se cada uma das parcelas e igual ao vector nulo, visto que vectores de subespa cos distintos s ao necessariamente linearmente independentes. Assim, podemos concluir que: s1 1 = s2 1 = . . . s1 n = s2 n , pelo que v escreve-se de forma u nica como soma de elementos de cada um dos espa cos, logo E pode ser decomposto em soma directa dos subespa cos referidos, i. e. : E = S1 . . . Sn . O rec proco e bastante mais simples de demonstrar. Considerem-se dois quaisquer subespa cos Si e Sj e vamos sup or w Si Sj . Ent ao, como os subespa cos S1 , . . . , Sn est ao em soma directa, existem si Si e sj Sj u nicos tais que w = si + sj . Pelo facto de este vector estar na intersec c ao dos dois subespa cos, teremos necessariamente: w = si + sj = 0E + sj = si + 0E = 0E o que mostra que a intersec c ao entre quaisquer dois subespa cos e trivial. O teorema anterior caracteriza de uma forma bastante precisa as condi c oes para que subespa cos vectoriais possam estar em soma directa. O pr oximo exerc cio mostra que n ao podemos enfraquecer as condi c oes do teorema 4. Exerc cio 2.32 Considere M1 , M2 e M3 subespa cos de R3 denidos por: M1 = M2 = M3 = (x, y, z ) R3 : y = z = 0 ; (x, y, z ) R3 : x = z = 0 ; (x, y, z ) R3 : x = y .

Mostre que apesar de M1 M2 M3 ser trivial, e R3 = M1 + M2 + M3 os tr es subespa cos n ao est ao em soma directa.

70

Espa cos Vectoriais

Terminamos este cap tulo com o Teorema de Grassmann, que relaciona as dimens oes da soma e da intersec c ao com as dimens oes dos espa cos envolvidos e um corol ario natural. Teorema 5 Dados dois subespa cos vectoriais S e M do mesmo espa co vectorial, ent ao: dim(S + M ) + dim(S M ) = dim S + dim M. Corol ario 5.1 Se E = S M ent ao dim(S M ) = dim S + dim M .

You can make TEX do almost everything that Ben Fraklin could do in his printers shop. And of course you lose the tactile and olfactory sensations, and the thrill of doing everything by youself. TEX will never completely replace the good old ways.
| Donald Knuth, The

TEXbook,

(1984)

Morning found us calmly unware, Noon burn gold into our hair, At night we swam in laughing sea, When summers gone, where will we be?
| Jim Morrisson, Summer's almost gone, (1969)

Cap tulo 3

Transforma c oes Lineares


3.1 Primeiros Exemplos

Rota co es no Plano. Vamos nesta sec c ao come car a estudar as transforma c oes que preservam as propriedades lineares dos espa cos estudados na sec c ao anterior. Muitas vezes nas aplica c oes estamos sobretudo interessados em estudar o movimento de uma part cula, situa c ao em que a abordagem vectorial que temos seguido parece de alguma forma desadequada. As duas abordagens, a pontual e a vectorial, podem ser facilmente interligadas, pois os pontos podem ser identicados com os seus vectores posi c ao. Esta dicotomia permite-nos estudar de uma forma mais simples quer as transforma c oes sobre os objectos do espa co (pontos ou vectores) quer as transforma c oes sobre o pr oprio espa co (mudan cas de referencial). As rota c oes s ao um importante exemplo do primeiro caso. As rota c oes s ao um caso particular das isometrias. De uma forma geral as isometrias s ao transforma c oes geom etricas que preservam as dist ancias. Como caso particular, as rota c oes s ao isometrias com apenas um ponto xo. Vamos considerar um vector no plano v que sem perda de generalidade se sup oe de norma 1. Deste modo este vector, na base can onica poder a ser representado muito simplesmente como: v = (cos , sin ). Ao procedermos ` a rota c ao deste vector no valor de , iremos obter um novo vector v cujas componentes s ao precisamente: v = (cos( + ), sin( + )). Utilizando as devidas f ormulas trigonom etricas, o vector v e igual a: v = (cos cos sin sin , sin cos + sin cos ).

72

Transforma c oes Lineares

Dispondo os vectores v e v de uma forma conveniente na forma matricial podemos encontrar uma rela c ao operacional entre os dois vectores. De facto: cos( + ) cos sin = sin( + ) sin cos cos . sin

Encontr amos assim um processo simples para automatizar as rota c oes no plano. Podemos agora sem qualquer diculdade proceder ` a rota c ao de um qualquer vector segundo um qualquer angulo. Exemplo 3.1 Vamos proceder ` a rota c ao do vector (1, 2) no plano no valor de /4. Usando a matriz anterior sabemos que a rota c ao ser a dada por: 2 2 cos 1 1 sin 22 4 4 2 2 = = , 2 2 3 2 cos 2 2 sin 4 4
2 2 2

sendo assim o vector 22 , 3 2 2 o resultado da rota c ao. De um modo geral, dado um vector gen erico (x, y ), podemos encontrar o resultado da rota c ao deste no valor de 4 calculando:
2 2 2 2

2 2 x

2 2

2 2 2 2

y y

2 2

= 2 y x+
2

Gr acamente, esta rota c ao pode ser apreciada na gura 3.1, sendo as linhas a tracejado o resultado das rota c oes.

(x , y )

(x, y )

Figura 3.1: Rota c ao no plano.

3.1 Primeiros Exemplos

73

Rota co es no Espa co. Podemos generalizar de uma forma bastante imediata as rota c oes do plano para o espa co no caso de um dos eixos coordenados ser o eixo de rota c ao, ou seja, qualquer vector neste eixo e invariante pela transforma c ao. A n ao ser que seja explicitamente dito algo em contr ario, ao longo desta introdu c ao vamos sempre considerar que o eixo de rota c ao eo eixo dos zz s. Considere-se ent ao um vector v R3 dado por v = (x, y, z ). Pelo facto de o eixo de rota c ao ser o eixo dos zz s, a coordenada nesta direc c ao ser a invariante pela rota c ao. Considere-se ent ao o vector v que resulta da projec c ao do vector v sobre o plano xOy . Pela gura 3.2, podemos concluir facilmente que as coordenadas deste vector s ao exactamente (x, y, 0).
z

x y

Figura 3.2: Rota c ao de um vector em torno do eixo dos zz s. Deste modo a u nica coisa a fazer e proceder ` a rota c ao do vector v no plano xOy na magnitude desejada, preservando a coordenada em z . Assim, ao rodar o vector v em torno do eixo dos zz s um angulo iremos obter o vector Rz v = (x , y , z ) cujas coordenadas s ao iguais ` as posi c oes correspondentes da matriz que resulta da multiplica c ao: cos sin 0 x x sin cos 0 y = y . 0 0 1 z z Temos assim um m etodo ecaz para calcular a rota c ao de qualquer vector no espa co nas condi c oes referidas. De uma forma imediata podemos concluir

74 que as matrizes: 1 0 0 Rx = 0 cos sin ; 0 sin cos

Transforma c oes Lineares

cos 0 sin 1 0 , Ry = 0 sin 0 cos

representam um papel an aloga da matriz Rz no caso das rota c oes serem em torno dos eixos dos xxs e dos yy s respectivamente. Temos assim denidas as rota c oes em torno dos eixos coordenados em R3 . Considerando o primeiro caso, o da rota c ao em torno do eixo dos zz s, podemos formalizar todo esse processo denindo a aplica c ao Rz : R3 R3 , atrav es da rela c ao: Rz (x, y, z ) = (x cos y sin , x sin + y cos , z ), onde as coordenadas da imagem do vector podem ser calculadas atrav es do produto matricial: cos sin 0 x sin cos 0 y . 0 0 1 z Podemos mostrar sem diculdade que multiplicar um vector de coordenadas (x, y, z ) por um escalar de depois aplicar a transforma c ao Rz e o mesmo do que aplicar a rota c ao Rz e depois multiplicar pelo escalar , pois: Rz ((x, y, z )) = (x cos y sin , x sin + y cos , z ) = (x cos y sin , x sin + y cos , z ) = Rz (x, y, z ). De modo perfeitamente an alogo podemos mostrar que: Rz ((x1 , y1 , z1 ) + (x2 , y2 , z2 )) = Rz ((x1 , y1 , z1 )) + Rz ((x2 , y2 , z2 )) . Uma aplica c ao entre espa cos vectoriais que possua as duas propriedades anteriores diz-se uma aplica c ao linear ou transforma c ao linear. Ao longo do presente cap tulo iremos usar indistintamente as duas nomenclaturas. Formalizando o conceito anterior, podemos denir aplica c ao linear de uma forma mais geral. Deni c ao 3.1 Considerem-se dois espa cos vectoriais E e E denidos sobre o mesmo corpo K e uma aplica c ao T : E E . Esta diz-se uma aplica c ao linear se u, v E e K vericam-se as seguintes propriedades: 1. T (u + v ) = T u + T v ; 2. T (u) = T u.

3.1 Primeiros Exemplos

75

Uma forma mais pr actica para mostrar que uma determinada transforma c ao e uma aplica c ao linear e enunciada no seguinte lema. Lema 2 Uma transforma c ao T : E E e uma transforma c ao linear entre os espa cos vectoriais E e E se e apenas se: v, u E , K : T ( u + v ) = T u + T v. Demonstra c ao: Exerc cio. Vamos agora ver outros exemplos de transforma c oes lineares que n ao as rota c oes discutidas anteriormente. Um primeiro exemplo e o da magnica c ao. Exemplo 3.2 Considere-se a transforma c ao linear em S : R2 R2 , que para uma constante s, e denida da seguinte forma: S (x, y ) = (sx, sy ). Para mostrar que se trata de uma aplica c ao linear, pelo lema anterior, basta mostrar que dados v1 = (x1 , y1 ) e v2 = (x2 , y2 ) dois vectores quaisquer de R2 e , dois quaisquer n umeros reais e v alida a igualdade: S ( v1 + v2 ) = Sv1 + Sv2 . Usando o primeiro membro da igualdade anterior, obtemos sucessivamente:

S ( v1 + v2 ) = S (x1 + x2 , y1 + y2 ) = (sx1 + sx2 , sy1 + sy2 ) = (sx1 , sy1 ) + (sx2 , sy2 ) = (sx1 , sy1 ) + (sx2 , sy2 ) = Sv1 + Sv2 , pelo que podemos concluir que S e de facto uma transforma c ao linear. O pr oximo exemplo estabelece uma transforma c ao linear entre dois espa cos de dimens oes distintas. Exemplo 3.3 Considere-se a transforma c ao linear T : R2 R3 denida por: T (x, y ) = (x, y, x y ). Para mostrar que esta transforma c ao e uma transforma c ao linear, vamos usar o m etodo do exemplo anterior. Para isso, vamos considerar v1 = (x1 , y1 )

76

Transforma c oes Lineares

e v2 = (x2 , y2 ) dois vectores quaisquer de R2 e , dois quaisquer n umeros reais. Assim: T ( v1 + v2 ) = T ( x1 + x2 , y1 + y2 ) = ( x1 + x2 , y1 + y2 , x1 + x2 y1 y2 ) = (x1 , y1 , x1 y1 ) + (x2 , y2 , x2 y2 ) = T v 1 + T v2 , pelo que a transforma c ao T e uma transforma c ao linear. Vamos por m ver um exemplo de uma transforma c ao entre espa cos lineares que n ao e uma transforma c ao linear. Exemplo 3.4 Vamos considerar a transforma c ao T denida entre os espa cos lineares R2 e R3 denida por: T (x, y ) = (x, y, 1). Para mostrar que esta transforma c ao n ao e uma transforma c ao linear, basta mostrar que uma das propriedades falha. Assim, dado (x, y ) R2 teremos: T ((x, y, z )) = T (x, y, z ) = (x, y, 1) = (x, y, 1) = T (x, y, z ), pelo que naturalmente esta transforma c ao n ao e uma transforma c ao linear, n ao sendo sequer necess ario averiguar o que se passa em rela c ao a preservar ou n ao a soma de vectores.

3.2

Propriedades das Transforma c oes Lineares

Nesta sec c ao vamos estudar as propriedades fundamentais das aplica c oes lineares e vamos usar essas propriedades para estabelecer rela c oes entre alguns dos espa cos e subespa cos vectoriais estudados no cap tulo anterior. Representa c ao Matricial de uma Transforma c ao Linear. Devido as propriedades dos espa ` cos vectoriais, as transforma c oes lineares s ao de alguma forma mais simples de denir do que qualquer outra transforma c ao. De facto, para denir completamente uma aplica c ao linear basta saber qual a imagem dos vectores da base do espa co de partida e escrever essas imagens como combin c ao linear dos vectores do espa co de chegada. Para melhor compreendermos esta propriedade considere-se o seguinte exemplo. Exemplo 3.5 Seja T uma aplica c ao linear denida de R3 para R2 , considerando ` a partida e ` a chegada as respectivas bases can onicas, tal que a imagem dos vectores da base de R3 e:

3.2 Propriedades das Transforma c oes Lineares

77

T (1, 0, 0) = (1, 2),

T (0, 1, 0) = (1, 1) e

T (0, 0, 1) = (0, 2).

A quest ao que se coloca e saber se isto e suciente para denir completamente a transforma c ao T , i. e. , se e suciente para calcularmos a imagem de todos os vectores do espa co de partida. Para isso considere-se um vec3 tor gen erico (x, y, z ) R . Usando o facto de T ser uma aplica c ao linear sabemos que:

T (x, y, z ) = T (x(1, 0, 0) + y (0, 1, 0) + z (0, 0, 1)) = xT (1, 0, 0) + yT (0, 1, 0) + zT (0, 0, 1) = x(1, 2) + y (1, 1) + z (0, 2) = (x + y, 2x + y + 2z ). o que mostra que sabendo os valores das imagens dos vectores da base de R3 podemos saber a imagem de qualquer vector do mesmo espa co. Al em disso, se repararmos com o cuidado suciente podemos ver que do mesmo modo que a imagem das rota c oes e das reex oes estudadas podiam ser obtidas atrav es de um simples produto de matrizes, tamb em neste exemplo isso pode ser feito, notando que neste caso as colunas de tal matriz s ao mais uma vez dadas pelas imagens dos vectores da base do espa co de partida. Assim, a matriz associada a esta transforma c ao ser a dada por: AT = 1 1 0 , 2 1 2

conrmando-se que as componentes da imagem do vector (x, y, z ) R3 s ao dadas pelo produto: x x 1 1 0 y . AT y = 2 1 2 z z O exemplo anterior p oe em evid encia duas importantes caracter sticas das aplica c oes lineares. Em primeiro lugar, conforme foi referido anteriormente, para denir completamente uma aplica c ao linear basta saber o valor das imagens dos vectores da base do espa co de partida. Em segundo lugar, e como consequ encia do primeiro ponto, existe uma rela c ao previligiada entre matrizes e aplica c oes lineares, podendo estas ser representadas pelas primeiras. A pr oxima deni c ao estabelece de uma forma deniva estas observa c oes. Deni c ao 3.2 Considere-se uma transforma c ao T : E E e consideremse as bases respectivas (e1 , . . . , en ) e (e1 , . . . , ek ). Sendo as imagens dos vectores da base do espa co de partida denidas por:

78

Transforma c oes Lineares

T e1 . . . a matriz AT denida por:

a11 e1 + . . . + ak1 e k . . .

T en = a1n e1 + . . . + akn e k,

a11 . AT = . . ak1

... .. . ...

a1n . . . akn

diz-se a representa c ao matricial da transforma c ao T . Al em disso, a imagem de qualquer vector v E tal que: v = 1 e1 + . . . + n en , e o vector cujas componentes s ao as componentes da matriz: 1 a11 . . AT . . = . . n ak1 ... .. . ... a1n 1 . . , . . . . akn n

estabelecendo-se assim as rela c oes existentes entre uma transforma c ao linear e sua representa c ao matricial. A deni c ao faz transparecer o papel fundamental da escolha das bases ` a partida e ` a chegada. Caso uma destas seja alterada, a representa c ao matricial da transforma c ao muda. O exemplo seguinte evidencia estes pontos. Exemplo 3.6 Considere-se a transforma c ao linear T : R2 R3 cujo termo geral e dado por: T (x, y ) = (x + y, x, y ). Considerando ` a partida e ` a chegada as bases can onicas respectivas, para encontrar a representa c ao matricial da transforma c ao nestas bases, basta calcular as imagens dos vectores da base de partida. Sem diculdades poderemos concluir que de a representa c ao matricial nas bases can onicas e dada pela matriz: 1 1 AT = 1 0 . 0 1 Esta matriz diz-se a matriz can onica da transforma c ao T . Por outro lado, se considerarmos as bases de R3 e R2 :

3.2 Propriedades das Transforma c oes Lineares

79

R3 = R
2

(1, 1, 1), (1, 1, 0), (1, 0, 0) (1, 1), (0, 1) ,

a representa c ao matricial can onica n ao representa a transforma c ao nestas novas bases. Para encontrar a nova matriz do sistema temos de refazer todos os nossos c alculos. As imagens dos vectores da nova base s ao escritos como combina c ao linear dos vectores da base do espa co de chegada como:

T (1, 1) = (2, 1, 1) = 1(1, 1, 1) + 0(1, 1, 0) + 1(1, 0, 0) T (0, 1) = (1, 0, 1) = 1(1, 1, 1) 1(1, 1, 0) + 1(1, 0, 0), pelo que a representa c ao matricial de T AT denida por: 1 AT = 0 1 nestas bases ser a dada pela matriz 1 1 . 1

Podemos assim constatar os factos referidos anteriormente que, devido ` a forma como foi denida, a representa c ao matricial de uma transforma c ao linear deixa de ser v alida quando s ao alteradas as bases do espa co de partida e/ou espa co de chegada. Um dos problemas que nos iremos deparar e saber qual a base indicada para expressar a transforma c ao e de que forma a altera c ao da base ir a alterar a representa c ao matricial. Estes problemas ser ao colocados com mais rigor e ser ao tratados com todo o detalhe quando estudarmos a mudan ca de base de uma transforma c ao linear. N ucleo de uma Transforma c ao Linear. No cap tulo referente aos sistemas de equa c oes lineares, estud amos o n ucleo de uma matriz. Na altura denimo-lo como o conjunto solu c ao do sistema linear homog eneo. Vamos de imediato denir o n ucleo de uma transforma c ao linear e estabelecer a rela c ao que existe com o n ucleo da matriz que representa essa transforma c ao. Deni c ao 3.3 Seja T : E E uma transforma c ao linear. Dene-se como N ucleo da transforma c ao T o subespa co Nuc (T ) E denido por: Nuc (T ) = {v E : T v = 0E } ,

80

Transforma c oes Lineares

ou seja, e o subespa co do espa co de partida cujos elementos se aplicam no vector nulo do espa co de chegada. Na deni c ao anterior est a impl cito que o n ucleo de uma transforma c ao linear e um subespa co do espa co de partida. A pr oxima proposi c ao estabelece este facto. A demonstra c ao ca como exerc cio. Proposi c ao 3.1 Dada uma transforma c ao linear T : E E , o n ucleo da transforma c ao e um subespa co de E , ou seja Nuc (T ) E . Demonstra c ao: Exerc cio. Pela deni c ao anterior, a rela c ao entre o n ucleo de uma matriz e o n ucleo de uma aplica c ao linear e imediato, pois pela deni c ao de representa c ao matricial de uma transforma c ao linear T , sendo AT a matriz que representa esta transforma c ao, o n ucleo de T ser a dado por todos os vectores v = (1 , . . . , n ) que veriquem a equa c ao matricial: 1 a11 . . . a1n 1 0 . . . . . . . . . . . AT . = . . . . = . . n ak1 . . . akn n 0 ou seja, s ao todos os vectores que s ao solu c ao do sistema linear homog eneo cuja matriz dos coecientes e precisamente a matriz AT . Logo os n ucleos da matriz e da transforma c ao coincidem. Esta rela c ao d a-nos um m etodo para podermos calcular computacionalmente o n ucleo de uma transforma c ao. O pr oximo exemplo implementa este processo. Exemplo 3.7 Considere-se a transforma c ao linear T : R3 R4 denida por: T (x, y, z ) = (x, y, z, x z ). Para obtermos a matriz desta transforma c ao, basta calcular a imagem dos vectores da base can onica de R3 . Conclu mos facilmente que esta matriz ser a dada por: 1 0 0 0 1 0 AT = 0 0 1 . 1 0 1 Assim, o n ucleo da transforma c ao linear ser ao todos os vectores (x, y, z ) R3 tais que: 1 0 0 0 0 1 0 x y = 0 . 0 0 1 z 0 1 0 1

3.2 Propriedades das Transforma c oes Lineares Resolvendo o sistema da forma habitual vericamos que: Nuc (T ) = (x, y, z ) R3 : x = y = z = 0 = {(0, 0, 0)} .

81

Uma aplica c ao linear deste tipo, ou seja, em que o n ucleo e apenas formado pelo vector nulo, tem uma caracter stica extremamente importante. Considerando a transforma c ao anterior, sejam v1 e v2 dois vectores n ao neces3 sariamente distintos de R e vamos supor que as suas imagens pela aplica c ao T e igual, ou seja, T v1 = T v2 . Usando o facto de T ser uma aplica c ao linear e o seu n ucleo ser formado apenas pelo vector nulo, obtemos: T (v1 v2 ) = (0, 0, 0, 0) v1 v2 = (0, 0, 0) v1 = v2 . Assim se dois objectos t em a mesma imagem pela transforma c ao T ent ao esses objectos s ao necessariamente iguais. Uma aplica c ao que possui esta propriedade diz-se uma aplica c ao injectiva. Podemos mostrar que de facto uma transforma c ao linear e injectiva se e apenas se o seu n ucleo f or apenas formado pelo vector nulo. Isto e estabelecido na proposi c ao seguinte. Proposi c ao 3.2 Seja T : E E uma transforma c ao linear. T e injectiva se e apenas se Nuc (T ) = {0E }. Demonstra c ao: Uma das implica c oes e trivial. De facto mostrar que se o n ucleo de uma transforma c ao e formado apenas pelo vector nulo do espa co de partida ent ao a aplica c ao e injectiva e perfeitamente an alogo ao que foi feito no exemplo anterior, pelo que o caso geral e apenas a generaliza c ao do racioc nio a descrito. No outro sentido, supondo que a transforma c ao T e injectiva temos de mostrar que o seu n ucleo e apenas formado pelo vector nulo. Para isso, vamos sup or que o vector v Nuc (T ). Ent ao: v E : T (v + v ) = T v + T v = T v . Como a aplica c ao e injectiva ent ao teremos necessaraimente v + v = v pelo que v = 0E . Logo qualquer vector que perten ca ao n ucleo e necessariamente nulo, terminando assim a demosntra c ao. De forma an aloga ao que acontecia nos sistemas, onde a solu c ao geral de um sistema linear n ao homog eneo e dado pela soma de uma solu c ao particular do sistema com o n ucleo da matriz dos coecientes, no caso das transforma c oes lineares existe um resultado an alogo. Antes de formalizarmos esta rela c ao, vamos considerar o seguinte exemplo. Exemplo 3.8 Considere-se a transforma c ao linear T : R3 R2 denida por T (x, y ) = (x y, x z ). Para determinarmos o n ucleo desta transforma c ao temos de resolver a seguinte equa c ao vectorial: T (x, y, z ) = (0, 0) (x y, x z ) = (0, 0),

82

Transforma c oes Lineares

o que equivale a encontrar as solu c oes do sistema linear: xy = 0 xz = 0 cujo conjunto solu c ao e Nuc (T ) = (x, y, z ) R3 : x = y x = z . Pela proposi c ao anterior, como o n ucleo desta transforma c ao n ao cont em apenas o vector nulo do espa co de partida, a transforma c ao n ao e injectiva. Isto signica que existem pelo menos dois objectos (dois vectores do conjunto de partida) com a mesma imagem (que s ao transformados no mesmo vector). Como poderemos encontrar dois vectores com a mesma imagem? Considere-se por exemplo o vector v = (1, 1, 0). Calculando, sabemos que a imagem deste vector e igual a T v = (0, 1). Para encontrarmos todos os vectores cuja imagem e igual ` a do vector referido, teremos de resolver o sistema: x 0 AT y = , (3.1) 1 z onde AT e a matriz que representa a aplica c ao T . Sem diculdades temos que a matriz can onica desta aplica c ao e: AT = 1 1 0 . 1 0 1

A solu c ao do sistema (3.1) ser a o conjunto, representado por T 1 (0, 1): T 1 = (x, y, z ) R3 : x = y x = z + 1 . Note-se que este conjunto n ao e um espa co vectorial1 . No entanto, analogamente ao que acontecia com as solu c oes dos sistemas lineares n ao homog eneos, qualquer elemento deste conjunto pode ser escrito como a soma de, por exemplo, (1, 1, 0) com um vector de Nuc (T ). De facto, sendo v um vector de Nuc (T ), pelo facto de T ser uma aplica c ao linear, obtemos: T ((1, 1, 0) + v ) = T (1, 1, 0) + T v = T (1, 1, 0) = (0, 1). Podemos por outro lado mostrar que no caso de termos um vector qualquer w R3 tal que T w = (0, 1), este pode ser escrito na forma w = (1, 1, 0) + v , com v Nuc (T ). Para isso basta notar que: T w = T (1, 1, 0) (1, 1, 0) w Nuc (T ). Deste modo mostr amos que qualquer vector cuja imagem seja igual ` a imagem de (1, 1, 0) pode ser escrito como a soma deste vector com um elemento do
1 Basta ver que um vector t pico deste conjunto e da forma (x, x, x 1), pelo que a soma n ao e uma opera c ao fechada.

3.2 Propriedades das Transforma c oes Lineares

83

Nuc (T ). Conv em notar que a escolha de (1, 1, 0) e perfeitamente arbitr aria, pois poder amos escolher qualquer elemento de T 1 (0, 1). Como podemos facilmente adivinhar, as propriedades exploradas no exemplo anterior n ao s ao um caso especial da transforma c ao estudada. De facto qualquer transforma c ao linear goza das mesmas propriedades. Tendo em mente aquilo que foi explorado no exemplo anterior, vamos formalizar detalhadamente estes conceitos. No cap tulo anterior apresent amos a deni c ao geral da soma de dois conjuntos. Vamos retomar o exemplo anterior e explorar este conceito um pouco mais. Exemplo 3.9 Retomando o exemplo anterior vamos procurar saber, por exemplo, se (1, 2, 1) pertence ou n ao a T 1 (1, 1). A forma mais imediata de o sabermos e calcular T (1, 2, 1). Assim: T (1, 2, 1) = (1, 0) = (1, 1) = (1, 1, 1) / T 1 (1, 1). Por outro lado, podemos constatar que (2, 1, 1) T 1 (1, 1). Seguindo as ideias apresentadas anteriormente, podemos concluir que n ao existe nenhum elemento v Nuc (T ) tal que: (2, 1, 1) + v = (1, 2, 1) (1, 2, 1) / Nuc (T ) + {(2, 1, 1)}. Podemos mostrar esta proposi c ao de v arias formas. A mais simples e notar que no caso de (1, 2, 1) Nuc (T ) + {(2, 1, 1)} ent ao necessariamente T (1, 2, 1) = T (2, 1, 1) o que e obviamente falso. Podemos agora denir a imagem inversa de um elemento em toda a generalidade. Proposi c ao 3.3 Considere-se T : E E uma transforma c ao linear e dois vectores v E e w E , tais que T v = w. Considere-se igualmente imagem inversa de w pela aplica c ao T , denida como habitualmente como o conjunto: T 1 w = {u E : T u = w} . Ent ao, T 1 w = Nuc (T ) + {v }. Demonstra c ao: Exerc cio. A demonstra c ao da proposi c ao anterior n ao e mais do que a generaliza c ao do racioc nio empregue nos exemplos anteriores. Uma u ltima deni c ao associa apenas um nome ` a dimens ao do n ucleo de uma transforma c ao linear. ` dimens Deni c ao 3.4 A ao do n ucleo de uma transforma c ao linear d a-se o nome de nulidade.

84

Transforma c oes Lineares

Imagem de uma Transforma c ao Linear. Estudamos agora o outro espa co fundamental relacionado com uma determinada transforma c ao linear, o espa co Imagem. A Imagem de uma transforma c ao linear n ao e mais do que o seu contradom nio. Enquanto que o n ucleo de uma transforma c ao e um subespa co vectorial do espa co de partida, a Imagem e um subespa co do espa co de chegada. Em primeiro lugar a deni c ao. Deni c ao 3.5 Dada uma transforma c ao linear T : E E denimos Img (T ) como o subconjunto de E denido por: Img (T ) = v E : v E Tv = v .

A pr oxima proposi c ao estabelece a estrutura vectorial para este subconjunto. A sua demonstra c ao e um bom exerc cio. Proposi c ao 3.4 Dada uma transforma c ao T : E E , o subconjunto de Img (T ) E e um subespa co vectorial, ou seja Img (T ) E . Demonstra c ao: Exerc cio. Como no caso do n ucleo de uma transforma c ao linear, vamos procurar um processo para podermos determinar a imagem da mesma. Mais uma vez, a forma mais sistem atica para determinar este conjunto usa a representa c ao matricial da transforma c ao. O seguinte exemplo explora este conceito. Exemplo 3.10 Considere-se a transforma c ao linear T : R4 R3 uma transforma c ao linear denida por: T (x, y, z, w) = (x, y, x y ). f E acil ver que a imagem desta transforma c ao linear n ao e igual ao espa co de chegada ou seja, existe v R3 para o qual u R4 temos que T u = v . 2 Assim a imagem desta transforma c ao linear e um subespa co pr oprio do espa co de chegada, neste caso do espa co R3 . Para determinarmos quais os vectores de R3 para os quais existe um vector em R4 que nele se aplica, vamos considerar um vector gen erico (, , ) R3 . No caso de este ser imagem de algum vector, existe (x, y, z, w) R4 tal que: T (x, y, z, w) = (, , ) (x, y, x y ) = (, , ). Esta equa c ao vectorial e equivalente x y z ao sistema: = = =

2 Basta considerar por exemplo (1, 2, 0) e mostrar que este n ao e imagem de nenhum vector pela transforma c ao T

3.2 Propriedades das Transforma c oes Lineares

85

Resolvendo este sistema em ordem a x e y podemos concluir que este sistema s o e poss vel no caso de: = . Assim, Img (T ) = (, , ) R3 : = . No caso de pretendermos indicar uma base para este espa co, a partir dos resultados j a obtidos, podemos faz e-lo facilmente, bastando para isso relembrarmo-nos de que um vector t pico de Img (T ) e da forma (, , ) pelo que podemos concluir sem diculadade que: Img (T ) = (1, 0, 1), (0, 1, 1) . Como referimos anteriormente o espa co Img (T ) e um subespa co pr oprio de R3 , signicando simplesmente que e subespa co mas que n ao e igual ao espa co todo, facto que se pode comprovar pelo facto da dimens ao da imagem da transforma c ao ser menor do que a dimens ao do espa co de chegada. Da mesma forma que a dimens ao do n ucleo de uma transforma c ao linear tem um nome especial, tamb em o mesmo acontece no caso da imagem, sendo o nome desta t ao sugestivo como da anterior. Deni c ao 3.6 A dimens ao da Imagem de uma transforma c ao linear tem o nome de caracter stica. Conforme o nome sugere, existe uma rela c ao entre a dimens ao da imagem de uma transforma c ao linear e a matriz que representa a transforma c ao. Proposi c ao 3.5 A dimens ao da Imagem de uma transforma c ao linear e igual ` a caracteristica da matriz que representa a mesma. A proxima proposi c ao estabelece uma poderosa rela c ao entre a nulidade e a caracter stica de uma transforma c ao. Teorema 6 Dada uma transforma c ao linear T : E E ent ao: dim E = dim(Nuc (T )) + dim(Img (T )). Demonstra c ao: Ver por exemplo [13], p agina 125. Note-se que aquilo que e dito neste teorema e algo n ao trivial, pois o n ucleo e a imagem de uma transforma c ao linear s ao subespa cos de espa cos diferentes. As implica c oes deste teorema s ao extremamente importantes, pois como veremos, facilita muito a classica c ao das trasforma c oes lineares quanto ` a injectividade e ` a sobrejectividade. A pr oxima deni c ao introduz um conceito mais geral do que aquele que envolve unicamente o caso das transforma c oes lineares, podendo portanto ser denido no ambito mais geral das aplica c oes.

86

Transforma c oes Lineares

Deni c ao 3.7 Dada uma aplica c ao f : A B esta diz-se sobrejectiva no caso de para cada elemento b B existir a B tal que f (a) = b. No caso de estarmos perante uma transforma c ao linear, existe uma forma bem denida para determinar se uma determinada transforma c ao linear e ou n ao sobrejectiva. Por deni c ao, uma transforma c ao ser a sobrejectiva no caso de a sua imagem coincidir com o espa co de chegada. No caso das transforma c oes lineares isto equivale a dizer que a dimens ao da imagem coincide com a dimens ao do espa co de chegada. Os pr oximos exemplos aproveitam as ideias aqui estabelecidas para classicar quanto ` a sobrejectividade v arias transforma c oes. Exemplo 3.11 Considere-se a transforma c ao linear T : R2 R3 denida por T (x, y ) = (x, y, x + y ). A matriz can onica desta transforma c ao ser a: 1 0 AT = 0 1 . 1 1 Podemos comprovar facilmente que a caracter stica de AT e igual a 2. Por 3 sua vez, a dimens ao do espa co de chegada R e igual a 3, pelo que tendo em conta as anteriores observa c oes, a transforma c ao n ao e sobrejectiva. Por outro lado, pelo teorema 6, sabemos que a dimens ao do n ucleo da transforma c ao e igual a 0, pelo que a transforma c ao e injectiva. O exemplo anterior mostrou que no caso das transforma c oes lineares, averiguar a injectividade e sobrejectividade reduz-se a uma an alise puramente computacional da matriz que representa a transforma c ao.

Exemplo 3.12 No caso da transforma c ao T cuja matriz que representa a transforma c ao e a matriz: AT = 1 0 1 . 1 1 0

Como neste caso a caracter stica da matriz e igual a 2, podemos concluir de imediato duas coisas. Em primeiro lugar a transforma c ao n ao e sobrejectiva pois a dimens ao do espa co de chegada e maior do que a dimens ao da imagem. Em segundo lugar, a transforma c ao n ao e injectiva visto que a dimens ao do espa co de partida e igual a 3 o que pelo teorema 6 podemos de imediato concluir que a dimens ao do n ucleo e igual a 1. Note-se que devido ` a natureza dos resultados por n os alcan cados, nem precisamos de saber a express ao anal tica da transforma c ao, bastando considerar a matriz que a representa. ` luz destes exemplos, podemos de uma forma contextualizada introduzir A

3.2 Propriedades das Transforma c oes Lineares

87

resultados de extrema import ancia, relacionando a dimens ao dos espa cos com as propriedades da aplica c ao que os transforma. Proposi c ao 3.6 Dada a transforma c ao T : E E ent ao: 1. Se T e sobrejectiva ent ao dim E dim E ; 2. Se T e injectica ent ao dim E dim E . Demonstra c ao: A demonstra c ao desta proposi c ao e consequ encia imediata do teorema 6. A partir da proposi c ao anterior podemos concluir que no caso de uma transforma c ao linear T : E E ser bijectiva, ou seja, injectiva e sobrejectiva, ent ao as dimens oes dos espa cos de partida e de chegada ser ao necessariamente iguais. As aplica c oes lineares bijectivas merecem um nome especial. Deni c ao 3.8 Uma transforma ca o linear bijectiva T : E E diz-se um isomorsmo. Neste caso os espa cos E e E dizem-se isomorfos. Existe um invariante que nos permite perceber se dados dois espa cos lineares s ao ou n ao isomorfos. Teorema 7 Dois espa cos lineares E e E s ao isomorfos se e apenas se t em a mesma dimens ao. A demonstra c ao deste teorema, para o caso de dimens ao nita, e consequ encia imediata das proposi c oes at e agora formuladas. A partir deste momento passamos a ter um invariante que nos indica se dois espa cos vectoriais s ao ou n ao iguais do ponto de vista linear. Assim, sem grande trabalho podemos garantir que n ao existe nenhum isomorsmo entre R2 e R3 pois a dimens ao destes espa cos e diferente. Vamos considerar agora alguns exemplos de isomorsmos. Come camos por analisar um isomorsmo de um espa co nele pr oprio. Um isomorsmo deste tipo diz-se um automorsmo. Exemplo 3.13 Seja T : R3 R3 cuja express ao anal tica e dada por: T (x, y, z ) = (x + y, x + z, y + z ). Para mostrar que esta transforma c ao e de facto uma transforma c ao linear, sendo v1 = (x1 , y1 , z1 ) e v2 = (x2 , y2 , v2 ), com e denidos da forma habitual, basta mostrar que: T ( v1 + v2 ) = T (x1 + x2 , y1 + y2 , z1 + z2 ) = = (x1 + x2 + y1 + y2 , x1 + x2 + z1 + z2 , y1 + y2 + y1 + y2 ) = (x1 + y1 , x1 + y1 , y1 + z1 ) + (x2 + y2 , x2 + y2 , y2 + z2 ) = T v1 + T v2 .

88

Transforma c oes Lineares

Agora que mostr amos que esta transforma c ao e uma transforma c ao linear, vamos procurar mostrar que se trata de uma transforma c ao injectiva. Para isso basta mostrar que o seu n ucleo e apenas formado pelo vector nulo do espa co de partida. A forma mais simples de o fazer e considerar representa c ao matricial da transforma c ao. A sua matriz can onica ser a obtida calculando a imagem dos vectores da base can onica. Assim: T (1, 0, 0) = (1, 1, 0); T (0, 1, 0) = (1, 0, 1); T (0, 0, 1) = (0, 1, 1). Como as colunas da matriz desta transforma c ao s ao as imagens destes vectores iremos obter: 1 1 0 AT = 1 0 1 . 0 1 1 Como r(AT ) = 3 temos que o n ucleo da matriz e composto apenas pelo vector nulo o que mostra que a transforma c ao e injectiva. Por outro lado, pela mesma raz ao, sabemos que a dimens ao da Img T e igual a 3, logo a transforma c ao e sobrejectiva. Assim, T e uma transforma c ao linear bijectiva pelo que se trata de facto de um isomorsmo.

3.3

Composi c ao de Transforma c oes Lineares

Composi c ao de aplica c oes. A composi c ao de aplica c oes, mais uma vez, e um conceito transversal a qualquer area da Matem atica. Como teremos oportunidade de ver, no contexto das transforma c oes lineares representam um papel central no estudo de determinadas aplica c oes. De um modo geral a composi c ao de transforma c oes pode ser denido como uma nova aplica c ao que resulta da concatena c ao de duas ou mais transforma c oes. A deni c ao formal pode ser escrita da seguinte forma: Deni c ao 3.9 Dada uma transforma c ao g : A B e f : B C ent ao ca denida a composi ca o f g , que se l e f ap os g , denida por: f g : A B C
g f

a f (g (a)). Nas condi c oes anteriores, g f apenas e denido no caso de f (B ) A. No caso das transforma c oes lineares, a composi c ao de transforma c oes e ainda uma transforma c ao linear. Isso e estabelecido na proposi c ao seguinte.

3.3 Composi c ao de Transforma c oes Lineares

89

Proposi c ao 3.7 Dadas duas transforma c oes lineares T : E E e G : E E ent ao a transforma c ao G F e ainda uma transforma c ao linear, sendo E , E e E espa cos vectoriais denidos sobre o mesmo corpo K. Demonstra c ao: Para mostrar que a composi c ao destas duas transforma c oes e ainda uma transforma c ao linear basta mostrar que, para quaisquer v, u E e para quaisquer , K, e v alida a igualdade: G F (u + v ) = G F (u) + G F (v ). Para demonstrar esta igualdade, vamos desenvolver o primeiro membro. Assim, pela deni c ao de composi c ao de transforma c oes e pelo facto de F ser uma transforma c ao linear: G F (u + v ) = G(F (u + v )) = G(F u + F v ). (3.2)

Agora pelo facto de G ser uma aplica c ao linear e como por deni c ao G(F u)) = G F u, em (3.2) iremos obter: G(F (u)) + G(F (v )) = G F u + G F v, o que conclui a nossa demonstra c ao. A proposi c ao anterior ao mostrar que a composi c ao de transforma c oes lineares e uma transforma c ao linear, podemos concluir que ent ao esta composi c ao admite igualmente uma representa c ao matricial. Analisando com um pouco mais de detalhe podemos descobrir de que forma e que podemos calcular a matriz que represente tal composi c ao. No seguinte exemplo retornamos ao exemplo das rota c oes, neste caso no espa co. Exemplo 3.14 Vamos sup or que pretendemos rodar todos os vectores de R3 em torno do eixo dos zz s no valor de theta e posteriormente rod a-los em torno do eixo dos xx s no valor de . Cada uma das rota c oes e, como vimos no in cio deste cap tulo, uma aplica c ao linear representadas respectivamente pelas matrizes: cos sin 0 1 0 0 Rz () = sin cos 0 Rx ( ) = 0 cos sin 0 0 1 0 sin cos Assim, dado um qualquer vector (x, y, z ) R3 , para o rodar em torno do eixo dos zz s bastar a proceder ao produto das matrizes: x x Rz () y = y . z z (3.3)

90

Transforma c oes Lineares

Se agora quisermos rodar o resultado da anterior rota c ao em torno do eixo do xxs, basta proceder ao produto: x x Rx ( ) y = y . z z Assim, as coordenadas do vector que resulta da rota c ao sucessiva de qualquer 3 vector (x, y, z ) R pode ser facilmente obtida atrav es do produto matricial: x Rx ( ) Rz () y . z Deste modo a composi c ao das duas rota c oes pode ser representada matricialmente pela matriz A = Rx ( ) Rz (). O exemplo anterior lan ca alguma luz sobre a representa c ao matricial da composi c ao de transforma c oes lineares. A pr oxima proposi c ao estabelece rigorosamente as ideias exploradas. Proposi c ao 3.8 Dadas duas transforma c oes lineares T : E E e G : E E representadas matricialmente pelas matrizes AT e AG respectivamente, ent ao a transforma c ao G F e representada matricialmente pela matriz: AGF = AG AF . Demonstra c ao: Ver por exemplo [13], p agina 122. Podemos agora encontrar facilmente a representa c ao matricial da transforma c ao que resulta da composi c ao de duas ou mais transforma c oes. Este ser a um resultado de extrema utilidade quando no pr oxima sec c ao estudarmos as mudan cas de base. Exemplo 3.15 Considerem-se duas transform c oes lineares T1 e T2 cujas representa c oes matriciais s ao respectivamente: 1 0 2 1 2 1 2 2 AT1 = 1 3 AT2 = 1 2 4 . 1 4 0 0 1 Deste modo, a representa c ao matricial de T2 T1 ser a dada pela matriz: 3 10 5 16 B = AT2 AT1 = 7 24 . 1 4

3.3 Composi c ao de Transforma c oes Lineares

91

Pela dimens ao das duas matrizes podemos ver que as transforma c oe est ao denidas por T1 : R2 R3 e por T1 : R3 R4 . Deste modo n ao poder amos denir a composi c ao pela ordem inversa ` a apresentada, i. e. , n ao est a denida a transforma c ao T2 T1 devido ` a imcompatibilidade das dimens oes dos v arios espa cos, facto que se repercute na incompatibilidade de multiplicar as matrizes pela ordem inversa. Inversa de uma Transforma c ao Linear. Vimos no par agrafo anterior que no caso de termos dois espa cos vectoriais com a mesma dimens ao, existe entre eles uma aplica c ao linear bijectiva a que damos o nome de isomorsmo. Neste caso podemos desfazer a transforma c ao linear. O sentido preciso desta express ao pode ser percebido ` a luz das rota c oes introduzidas anteriormente. Considere-se assim a rota c ao no espa co Rz , representada como habitualmente pela matriz: cos sin 0 Rz = sin cos 0 . 0 0 1 Do mesmo modo poderemos denir a rota c ao inversa em torno do mesmo eixo que representamos naturalmente por: cos() sin() 0 Rz = sin() cos() 0 . 0 0 1
R = I , ou seja o produto Sem diculdade podemos concluir que Rz z 3 das duas matrizes d a origem ` a matriz identidade. Esta conclus ao e natural visto que rodarmos um determinado vector em torno do eixo dos zz s um angulo e posteriormente rod a-lo no sentido inverso na mesma amplitude e obviamente equivalente a nada fazermos. Daqui podemos inferir uma rela c ao entre matrizes de tais representa c oes. Vamos em primeiro lugar descrever de uma forma rigorosa a rela c ao entre tais transforma c oes.

Deni c ao 3.10 Dadas duas transforma c oes T e T e a transforma c ao identidade que representaremos por id, as transforma c oes T e T dizem-se transforma co es inversas uma da outra se T T = id. Pelo exemplo anterior podemos de algum modo adivinhar qual a rela c ao entre a representa c ao gr aca de transforma c oes lineares inversas. Esta rela c ao e formulada na seguinte proposi c ao. Proposi c ao 3.9 Dados dois isomorsmos T e T , onde T e T s ao a transforma c ao inversa uma da outra, ent ao as matrizes AT e AT que representam respectivamente as transforma c oes indicadas s ao inversas uma da outra, i. e. :

92

Transforma c oes Lineares

AT AT = AT AT = In . A partir desta proposi c ao, para determinarmos a inversa de uma determinada transforma c ao bastar a encontrar a matriz inversa da primeira, pois para determinar uma transforma c ao linear, xadas as bases do espa co de partida e de chegada, basta indicar a matriz que a represente. O pr oximo exemplo explora esta ideia. Exemplo 3.16 Considere-se o isomorsmo introduzido no exemplo 3.13, denido por T (x, y, z ) = (x + y, x + z, y + z ). Vimos na altura que a matriz desta transforma c ao era dada por: 1 1 0 AT = 1 0 1 . 0 1 1 Assim, para calcular a transforma c ao inversa de T basta calcular a inversa da matriz AT , pois esta e a representa c ao matricial da inversa de T . Podemos facilmente concluir que a matriz inversa de AT e a matriz B denida por: 1 1 1 1 B = 1 1 1 . 2 1 1 1 Assim, podemos calcular a express ao anal tica da transforma c ao T usando esta matriz fazendo: x 1 1 1 x+yz 1 1 B y = 1 1 1 = x y + z . 2 2 z 1 1 1 x + y + z x + y z x y + z x + y + z , , . A comprova c ao 2 2 2 de que esta e de facto a inversa de T ca como exerc cio. Assim, T 1 (x, y, z ) =

3.4

Mudan cas de Base

Na sec c ao anterior estud amos as composi c oes de transforma c oes lineares. No entanto a nossa motiva c ao era apercebermo-nos de que forma um dos vectores era transformado sucessivamente pela concatena c ao de duas ou mais transforma c oes. Agora estamos sobretudo interessados em analisar n ao a transforma c ao de um vector individual mas caracterizar a mudan ca de referencial. Como ainda n ao introduzimos o conceito de ortogonalidade, o estudo detalhado car a para mais tarde. Vamos come car por denir as reex oes no plano para motivar a introdu c ao das mudan cas de base.

3.4 Mudan cas de Base

93

Reex oes no plano. Vamos come car por denir o caso das reex oes mais simples, as reex oes sobre os eixos coordenados. De um modo geral uma reex ao no plano de um vector em torno de uma recta pode ser denida como a passagem ao sim etrico na componente ortogonal ` a recta. O primeiro exemplo analisa as reex oes ao longo do eixo dos xxs. Exemplo 3.17 Vamos considerar um vector (x, y ) R2 . A reex ao em torno do eixo dos xxs e denida pela transforma c ao: R : R2 R2 (x, y ) (x, y ) A acc c ao desta transforma c ao pode ser ilustrada na gura 3.3. Podemos calcular a matriz can onica que representa esta transforma c ao calculando a imagem dos vectores da base de R2 . Assim a matriz pretendida ser a: AR = 1 0 . 0 1 (3.4)

Toda a transforma c ao linear que e uma reex ao no plano em torno de uma determinada recta admite uma representa c ao matricial igual ` a matriz (3.4) no caso de a base escolhida f or uma decomposi c ao do plano entre componentes ortogonais, sendo uma delas na direc c ao da recta sobre a qual estamos a proceder ` a reex ao..

(x, y )

(x, y )
Figura 3.3: Ac c ao da reex ao. No caso de a reex ao ser em torno do eixo dos yy s, ao considerarmos a base de (0, 1), (1, 0) = R2 , podemos mostrar que a matriz que representa esta reex ao e novamente igual ` a matriz (3.4). Note-se que para que a representa c ao matricial fosse a representa c ao standart, tivemos de trocar a ordem dos vectores da base de R2 , sendo o primeiro o vector direccional da recta sobre a qual procedemos ` a reex ao e o segundo o vector perpendicular

94

Transforma c oes Lineares

a este. Este racioc nio est a na base da representa c ao standart das reex oes no plano. O exemplo seguinte explora uma reex ao sobre a mediatriz dos quadrantes mpares. Exemplo 3.18 Considere-se a recta no plano x = y . Para procedermos a reex ` ao dos vectores no plano, vamos considerar considerar um vector gen erico (a, b) R2 que, sem perda de generalidade, vamos considerar que este tem norma 1. Assim, em rela c ao ` a base can onica, este vector pode ser decomposto em componentes: (a, b) = cos (1, 0) + sin (0, 1). Deste modo, a reex ao sobre a recta considerada pode ser tratada usando unicamente rela c oes trigonom etricas. A gura 3.4 ilustra tanto a decomposi c ao como a reex ao do vector gen erico indicado. Como a recta sobre a qual procedemos ` a reex ao e a bissectriz dos quadrantes mpares, o angulo que o vector v faz com o eixo dos xxs e igual ` aquele que o seu reexo far a com o eixo dos yy s.

sin

(a, b)

cos
Figura 3.4: Decomposi c ao e Reex ao de um vector unit ario. Deste modo as componentes do vector v reectido pela recta y = x ser ao: v = cos , sin 2 2 = (sin , cos ).

Como uma reex ao n ao altera a norma de um vector, podemos concluir que no caso de um qualquer vector no plano, digamos v = (x, y ), a respectiva reex ao pela recta indicada ser a o vector v = (y, x). Deste modo poderemos denir a reex ao pela recta y = x como sendo a transforma c ao linear: r : R2 R2 r(x, y ) = (y, x).

3.4 Mudan cas de Base

95

Podemos agora facilmente denir a matriz can onica desta aplica c ao linear obtendo a matriz: 0 1 Ar = . (3.5) 1 0 Note-se no entanto que esta matriz e diferente da matriz indicada em (3.4), tendo sido dito na altura que a representa c ao matricial de uma reex ao no plano e dada pela matriz (3.4). O que falhar a nesta (ou nessa) situa c ao. O que acontece e que a base can onica era ent ao a base que expressava as componentes ortogonais da reex ao. Neste caso a base can onica n ao expressa de forma alguma a ortogonalidade da reex ao pela recta y = x. O que poderemos fazer ent ao? A resposta a esta pergunta e dada no pr oximo par agrafo. Retomando a quest ao anterior, poderemos perguntar qual a base cujos vectores sejam a tal decomposi c ao ortogonal da reex ao sobre a recta y = x. Para isso vamos considerar o vector direccional da recta y = x v1 = (1, 1). um vector perpendicular a este e logo perpendicular ` a direc c ao da recta eo vector v2 = (1, 1), pois o produto interno destes dois e igual a 0. Podemos agora decomp or qualquer vector de R2 na direc c ao da base apresentada. Vamos considerar por exemplo o vector v = (1, 3). As componentes deste na base formada por v1 e v2 ser ao determinadas pela equa c ao vectorial: (1, 3) = (1, 1) + (1, 1), que e equivalente ` a equa c ao matricial: 1 1 1 1 1 1 1 = = 3 1 1
1

1 3

Como a inversa da matriz indicada e dada por: 1 1 1 1


1

1 2

1 2 1 2

= 1 2

obtemos nalmente = 2 e = 1, ou seja: (1, 3) = 2(1, 1) + 1(1, 1). Por deni c ao de reex ao, e visto que os vectores da base indicada procedem a decomposi ` c ao dos vectores nas direc c oes ortogonais da reex ao, a reex ao do vector v = (1, 3) ser a: v = 2(1, 1) 1(1, 1) = (3, 1).

96

Transforma c oes Lineares

Note-se que obviamente isto coincide com a transforma c ao do mesmo vector no caso da reex ao ser calculada atrav es da transforma c ao re. Note-se que no caso de ` a partida e ` a chegada tivermos n ao as bases can onicas mas a base v1 , v2 , a representa c ao matricial da transforma c ao ser a obtida procedendo da forma habitual. Para isso vamos calcular a imagem dos vectores da nova base: re(1, 1) = (1, 1) = 1(1, 1) + 0(1, 1); re(1, 1) = (1, 1) = 0(1, 1) 1(1, 1). Assim, sendo A a matriz da transforma c ao re nas bases indicadas, teremos: A= 1 0 , 0 1 (3.6)

coincidindo esta matriz com a matriz de uma reex ao. O que mudou entre a matriz dada em (3.5) e esta? Mudaram as bases ` a partida e ` a chegada. Note-se que dada as bases correctas, a matriz de uma reex ao e sempre dada pela matriz (3.4). O pr oximo exemplo emprega este racioc nio a uma situa c ao que de qualquer outra forma daria imenso trabalho determinar a reex ao estudada. Exemplo 3.19 Para determinarmos a reex ao no plano sobre a recta de equa c ao y = 3x, sabemos que a representa c ao matricial, encontrada a base que decomponha a reex ao nas suas componentes ortogonais, ser a dada pela matriz A denida por: A= 1 0 . 0 1

A base ser a por exemplo (1, 3), (3, 1) . Para determinar a reex ao, por exemplo, do vector v = (2, 1) expressamos este vector na base indicada, obtendo: 1 1 (2, 1) = (1, 3) (3, 1). 2 2 Usando a representa c ao matricial da reex ao nas bases indicadas, podemos nalmente calcular a reex ao fazendo: re(2, 1) = 1 0 0 1 1 2
1 2

1 2 1 2

Assim, na base (1, 3), (3, 1) , o vector que resulta da reex ao do vector v ser a o vector: 1 1 v = (1, 3) + (3, 1) = (1, 2). 2 2 Esta transforma ca o pode ser apreciada gracamente na gura 3.5.

3.4 Mudan cas de Base

97

sin

(a, b)

cos
Figura 3.5: Reex ao sobre a recta y = 3x. O exemplo anterior explorou um m etodo para dado um vector escrito na base can onica, o reectirmos sobre uma determinada recta. Para isso temos de expressar esse vector numa base indicada para a reex ao, aplicar a dita transforma c ao e de novo escrever o vector obtido na base can onica. A quest ao que se coloca ser a saber se existe um processo que nos permita denir todo este processo de uma s o vez. A resposta e armativa. Anteriormente tinhamos denido a reex ao atrav es da recta y = x e tinhamos esta transforma c ao linear com a matriz Are dada por: Are = 0 1 . 1 0

Por outro lado t nhamos visto igualmente que decompondo a reex ao nas suas componentes ortogonais, nessa base, esta reex ao podia ser identicada com a matriz com: 1 0 . Are = 0 1 Que vantagem tem a primeira abordagem em rela c ao ` a segunda? A grande vantagem e que no primeiro caso podemos calcular directamente a imagem de um vector dado na base can onica enquanto que no segundo temos de em primeiro lugar expressar o vector na base das componentes ortogonais da reex ao, calcular ent ao a imagem e de seguida passar desta base novamente para a base can onica. De facto a primeira hip otese e prefer vel. Poderemos automatizar o processo da mesma forma para o caso da reex ao sobre a recta y = 3x? Sim. Mas para isso precisamos de introduzir as matrizes de mudan ca de base. S ao estas que permitir ao automatizar este processo. Matrizes de mudan ca de base. Neste par agrafo vamos tentar automatizar as mudan cas de base. Para melhor percebermos este mecanismo

98

Transforma c oes Lineares

considere-se por exemplo as bases de R2 (1, 1), (0, 1) e (2, 1), (1, 0) . Dado um vector v que na primeira base se escreve como: v = a(1, 1) + b(0, 1), (3.7)

quais as componentes deste vector na segunda base? Escrevendo cada um dos vectores da primeira base como combina c ao linear dos da segunda, obtemos: (1, 1) = 1(2, 1) 1(1, 0); (0, 1) = 1(2, 1) 2(1, 0). Podemos agora retomar a equa c ao 3.7, obtendo de imediato a igualdade:

v = a(1, 1) + b(0, 1) = a (1(2, 1) 1(1, 0)) + b(1(2, 1) 2(1, 0)) = (a + b)(2, 1) + (a 2b)(1, 0). Automatizando este processo, podemos formular matricialmente o racioc nio anterior. Assim, qualquer cujas comoponentes na primeira base eram (a, b), na segunda base, as componentes podem ser obtidas atrav es do produto matricial: 1 1 1 2 a+b a . = a 2b b

A matriz que torna automatiza este processo e a matriz A denida por: A= 1 1 . 1 2

Esta matriz e chamada matriz de mudan ca de base da base (1, 1), (0, 1) para a base (2, 1), (1, 0) , cujas colunas s ao as componentes dos vectores da base inicial expressos na base nal. Desta forma podemos denir com toda a generalidade a matriz de mudan ca de base entre quaiquer bases do mesmo espa co vectorial E . Este conceito e introduzido em toda a generalidade na deni c ao seguinte. Deni c ao 3.11 Dadas duas bases do mesmo espa co vectorial E v1 , . . . , vn e u1 , . . . , un , a matriz n ao-singular S = [sij ] cujas colunas s ao as componentes dos vectores vj na base u1 , . . . , un , diz-se a matriz mudan ca de base da base v1 , . . . , vn para a base u1 , . . . , un . O pr oximo teorema indica uma rela c ao fundamental entre mudan cas de base em sentidos inversos.

3.4 Mudan cas de Base

99

Teorema 8 Dadas duas bases do mesmo espa co vectorial E v1 , . . . , vn e u1 , . . . , un e a matriz de mudan ca de base S = [sij ] da base u1 , . . . , un para a base u1 , . . . , un ent ao a matriz de mudan ca de base no sentido 1 inverso ser a dada pela matriz S . Vimos anteriormente que a cada aplica c ao linear pode ser associada uma matriz e obviamente a cada matriz pode ser associada uma transforma c ao linear. Que tipo de transforma c ao linear poder a ser associada a uma matriz que represente uma mudan ca de base? Por deni c ao esta transforma c ao ter a de ser um isomorsmo de um espa co nele pr oprio. Por outro lado a imagem de um vector e o pr oprio vector escrito numa nova base, logo a transforma c ao ter a de ser a identidade. Com estas caracter sticas poderemos dizer que uma matriz mudan ca de base pode ser identicada com uma mudan ca de referencial. De que forma e que isto nos vai ajudar a resolver o problema das reex oes no plano? O problema estava completamente resolvido embora de uma forma muito pouco c omoda, visto que, dado um vector na base can onica, n ao poder amos calcular directamente a sua imagem. Esquematicamente, o que temos pode ser expresso da seguinte forma: R2 (1, 3), (3, 1) Como pretendemos ter R2 (1, 0), (0, 1)
re


re

R2 (1, 3), (3, 1)

R2 (1, 0), (0, 1)

s o nos resta fazer as mudan cas de base: R2 id b.c. C R2 (1, 3), (3, 1)
re A

R2 (1, 3), (3, 1)

id

R2 b.c.

onde A, B e C s ao as matrizes que representam cada uma das transforma c oes. A primeira mudan ca de base consiste em passar da base can onica para a base das componentes ortogonais da reex ao. A segunda mudan ca de base consiste na mudan ca de base no sentido inverso da primeira. Contudo a segunda mudan ca de base e trivial, como ser a qualquer mudan ca de base de uma qualquer base para a base can onica. Por deni c ao as colunas da matriz desta mudan ca de base s ao compostas pelas coordenadas dos vectores da antiga base escritos como combina c ao linear dos vectores da nova base. Neste caso ser a expressar cada um dos vectores v1 = (1, 3) e v2 = (3, 1) como combina c ao dos vectores da base can onica, ou seja: v1 = (1, 3) = 1(1, 0) + 3(0, 1) v2 = (3, 1) = 3(1, 0) + 1(0, 1).

100

Transforma c oes Lineares

Assim a matriz desta mudan ca de base, que representaremos por B , ser a dada por: B= 1 3 . 3 1

Pelo teorema 8, pelo facto de as mudan cas de base tratadas serem em sentido inverso, sabemos que a matriz C e a inversa da matriz B . Assim, usando por exemplo o m etodo de Gauss-Jordan, podemos concluir que: 1 3
10 10 1 10

C= 3 10

Como a matriz A e uma matriz de uma reex ao denida na base das componentes ortogonais da reex ao, podemos comp or as 3 transforma c oes, pelo que a matriz de tal composi c ao ser a a matriz D denida por: 4 3 5 5 D=
3 5 4 5

Podemos nalmente encontrar a express ao anal tica da reex ao no plano pela recta de equa c ao y = 3x: re : R2 R2
3 (x, y ) 4 5x+ 5y , 3 5 4 x+ 5 y ,

automatizando assim de sobremaneira o todo o processo. Neste momento poderemos aplicar o racic nio expresso no caso das reex oes para qualquer outra aplica c ao linear. Exemplo 3.20 Considere-se T : R2 R3 denida por T (x, y ) = (x, 2y, x). A matriz can onica desta transforma c ao ser a: 1 0 AT = 0 1 1 0 No caso de alterarmos as bases dos espa cos de partida e de chegada para b1 = (1, 1), (1, 2) e b2 = (1, 1, 0), (1, 0, 1), (0, 1, 0) respectivamente, qual seria a nova matriz da transforma c ao T ? Para obtermos a nova matriz temos apenas de calcular as respectivas matrizes de mudan ca de base. Sendo B a matriz de mudan ca de base de b1 para a base can onica de R2 e C a matriz de 3 mudan ca de base da base can onica de R para a base b2 , todo este processo e ilustrado no seguinte diagrama: R2 b1
B id

R2 R3 R3 T id b.c b.c b2 AT C

3.4 Mudan cas de Base

101

a matriz da transforma c ao T nas novas bases AT ser a igual ao produto CAT B . Calculando cada uma das matrizes de mudan ca de base, podemos ver de imediato que a matriz B e dada por: B= 1 1 . 1 2

A matriz C d a um pouco mais de trabalho, pois as componentes dos vectores da base can onica de R3 na base b2 n ao s ao t ao imediatos. Podemos calcular a matriz C de duas formas distintas, ou por deni c ao, calculando as componentes dos vectores da base can onica na base b2 e dispondo-as nas colunas da matriz C , ou usando o teorema 8, onde C e a inversa da matriz de mudan ca de base da base b2 para a base can onica, ou seja: 1 1 0 C 1 = 1 0 1 , 0 1 0 pelo que podemos facilmente concluir 1 C= 0 1 que: 0 1 0 1 . 1 1

Assim sendo, a matriz que representa a transforma c ao T nas novas bases quer ` a partida, quer ` a chegada ser a: 0 0 1 0 1 1 0 1 1 = 1 1 . AT = CAT B = 0 0 1 0 1 1 2 1 2 1 1 1 1 0 Computacionalmente, este m etodo e mais f acil de implementar do que se calcul assemos a segunda matriz por deni c ao, da termos optado por esse caminho. No caso de os nossos espa cos de partida e de chegada de uma determinada transforma c ao linear T serem isomorfos, i. e. , terem a mesma dimens ao3 , sabemos que a matriz AT ser a uma matriz quadrada n ao necessariamente n ao-singular. Vamos explorar as v arias situa c oes poss veis neste caso. Exemplo 3.21 Vamos considerar em R3 , para al em da base can onica, as bases b1 = (1, 1, 0), (1, 0, 1), (0, 1, 0) e b2 = (1, 1, 1), (0, 0, 1), (1, 0, 0) . Considere-se a aplica c ao linear T : R3 R3 , onde ` a partida e usada a base can onica e ` a chegada se considera a base b1 , cuja matriz e: 1 0 2 AT = 3 1 0 1 1 1
3 Note-se que n ao estamos a dizer que T e um isomorsmo, mas apenas que existe um isomorsmo entre tais espa cos.

102

Transforma c oes Lineares

Esquem aticamente, a transforma c ao T poder a ser ilustrada por: R3 R3 T b.c b1 AT No caso de querermos colocar ` a partida e ` a chegada a base b2 , a matriz AT n ao poder a representar mais a transforma c ao nas bases referidas. Esquematicamente, a transforma c ao pode ser decomposta nas seguintes fases: R3 b2
B id

R3 R3 T b.c b1 AT

id

R3 b2

Novamente, a matriz B pode ser calculada trivialmente, bastando para isso disp or as componentes dos vectores da base b2 ao longo das colunas de B . Assim: 1 0 1 B = 1 0 0 . 1 1 0 Por outro lado, a matriz C como n ao representa a mudan ca de base entre bases das quais uma seja a base can onica, n ao existe nenhum processo que trivialize o seu c alculo. Usando a deni c ao, vamos decompor os vectores da base b1 na base b2 . Sem diculdades obtemos: (1, 1, 0) = 1(1, 1, 1) 1(0, 0, 1) + 0(1, 0, 0); (1, 0, 1) = 0(1, 1, 1) + 1(0, 0, 1) + 1(1, 0, 0); (0, 1, 0) = 1(1, 1, 1) 1(0, 0, 1) + 1(1, 0, 0), pelo que a matriz C ser a igual a:

1 0 1 C = 1 1 1 0 1 1 transforma c ao T estando ` a par 3 2 3 1 . 1 1

Deste modo, a matriz AT que representa a tida e ` a chegada a base b2 , ser a dada por: 6 AT = CAT B = 2 0

Por outro lado, as matrizes B e C n ao s ao as inversas uma da outra, pois inicialmente as bases do espa co de partida e de chegada eram diferentes. De facto: 2 1 1 CB = 1 1 1 , 0 1 0 condi c ao suciente para demonstrar que C 1 = B .

3.4 Mudan cas de Base

103

No caso de numa primeira fase tiv essemos feito uma mudan ca de base para a base b1 no espa co de partida e s o posteriormente tiv essemos procedido ` a substitui c ao ` a partida e ` a chegada, que rela c ao existiria entre as matrizes B e C neste caso? A resposta e dada no exemplo seguinte. Exemplo 3.22 Considere-se a transforma c ao linear do exemplo anterior 3 3 T : R R , onde ` a partida e usada a base can onica e ` a chegada se considera a base b1 = (1, 1, 0), (1, 0, 1), (0, 1, 0) , cuja matriz e: 1 0 2 AT = 3 1 0 1 1 1 Caso coloquemos a base b1 ` a partida, iremos ter a transforma c ao T denida em R3 , onde ` a partida e ` a chegada se encontra a base b1 . Para obtermos a nova representa c ao matricial da transforma c ao T basta proceder ao produto matricial: 1 0 1 1 0 2 2 1 3 AT = B AT = 1 0 0 3 1 0 = 1 0 2 1 1 0 1 1 1 4 1 2 Esquematicamente, a transforma c ao T e agora denida por: R3 b1
AT T

R3 b1

No caso de querermos agora colocar ao in cio e ` a chegada a base b2 = (1, 1, 1), (0, 0, 1), (1, 0, 0) , iremos obter um novo diagrama: R3 b2
B id

R3 b1


AT

R3 b1

id

R3 b2

Neste caso, ao contr ario do que acontecia no exemplo anterior, pelo teorema 8 podemos concluir que C = B 1 , visto que estas representam a mesma mudan ca de base mas em sentido inverso. No exemplo anterior vimos que: 1 0 1 C = 1 1 1 , 0 1 1 pelo que calculando a matriz inversa de C estamos em condi c oes de proceder a mudan ` ca de base pretendida. Conclu mos facilmente que: 0 1 1 0 . B = C 1 = 1 1 1 1 1

104

Transforma c oes Lineares

Deste modo, representando por AT a representa c ao matricial de T nas novas bases, esta matriz ser a dada pelo produto matricial: 7 1 1 AT = CAT B = B 1 AT B = 5 0 2 , 1 2 3 estando assim completo o processo de mudan ca de base. No exemplo anterior, estabeleceu-se uma curiosa rela c ao entre as matrizes AT e AT : AT = CAT B = B 1 AT B. Duas matrizes relacionadas desta forma dizem-se semelhantes. A pr oxima deni c ao estabelece este conceito. Deni c ao 3.12 Duas matrizes quadradas nn A e B dizem-se semelhantes se existir uma matriz n ao-singular S tal que: A = S 1 B S. Pelas propriedades dos determinantes, podemos garantir que no caso de duas matrizes serem semelhantes ent ao o seu determinante e igual. No entanto o rec proco n ao e necessaramente verdadeiro. O exemplo seguinte demonstra este facto. Exemplo 3.23 Considerem-se duas matrizes A e B denidas por: A= 2 0 0 1 B= 0 1 2 0

imediato que det A = det B = 2. No caso destas matrizes serem semelE hantes existir a uma matriz n ao singular S denida por: S= a b , c d

tal que B = S 1 A S . Esta equa c ao matricial e o mesmo que: 0 1 2 0 = = 1 ad bc 1 ad bc d b c a 2 0 0 1 a b c d

2ad bc bd . ac ad 2bc

Por sua vez, esta equa c ao matricial e equivalente a termos o seguinte sistema de equa c oes n ao lineares: 2ad bc = 0 bd = bc ad ac = 2bc 2ad ad 2bc = 0

3.5 Valores e Vectores Pr oprios cuja solu c ao ser a: a d c 0 = = = = b 0 0 0

105

o que implica que a matriz S seja uma matriz singular, o que e um absurdo. Logo as duas matrizes n ao podem ser semelhantes. O exemplo anterior mostrou que apesar de duas matrizes terem o mesmo determinante, elas n ao s ao necessariamente semelhantes.

3.5

Valores e Vectores Pr oprios

Introdu c ao. Na sec c ao anterior quando analis amos as reex oes tiv emos a oportunidade de ver que se estas fossem denidas numa determinada base ent ao a matriz que a representa teria um forma standard. Muitas outras transforma c oes lineares podem ser decompostas por forma a que a sua representa c ao matricial seja dada, como no caso das reex oes, por uma matriz diagonal. Esta representa c ao simplica sobretudo a percep c ao da ac c ao dessa mesma transforma c ao. De uma forma perfeitamente natural poderemos formular as reex oes por uma recta e por um plano em R3 . Como nas sec c oes anteriores vamos previlegiar uma abordagem geom etrica em vez de uma abordagem puramente algebrica. Transforma c oes em R2 . Vamos come car a explorar este assunto no caso das transforma c oes lineares de R2 nele pr oprio. A escolha justica-se pelo facto de os c alculos e a vizualiza c ao ser mais f acil neste caso do que no caso tridimensional, embora depois de percebido o comportamento das transforma c oes no plano e imediato transp or estas ideias para o espa co. Comecemos por denir o conceito de valor e de vector pr oprio de uma transforma c ao.

Deni c ao 3.13 Dada uma transforma c ao linear T de um espa co linear E nele pr oprio, d a-se o nome de valor pr oprio de T a um escalar tal que existe um vector n ao nulo v E tal que T v = v . Neste caso v diz-se um vector pr oprio associado a vectores pr oprios distintos. Designamos por espa co pr oprio de o conjunto de todos os vectores pr oprios associados ao valor pr oprio , i. e. : E () = {v E : T v = v } . Uma transforma c ao linear de um espa co nele pr oprio desigan-se por endomorsmo. Nest sec c ao todas as nossas transforma c oes ser ao endomorsmos. Uma conclus ao importante que poderemos tirar e que se um determinado

106

Transforma c oes Lineares

vector e vector pr oprio de uma transforma c ao ent ao qualquer combina c ao linear deste e ainda vector pr oprio dessa mesma transforma c ao. Isto e estbelecido na proposi c ao seguinte. Proposi c ao 3.10 Dada um endomorsmo T denido em E e um valor pr oprio de T. Se v E e um vector pr oprio associado ao valor pr oprio ent ao v E (). Demonstra c ao: A demonstra c ao desta demonstra c ao e directa. Considerese o endomorsmo T e e v nas condi c oes referidas. Dado um outro qualquer escalar, pelo facto de T ser uma transforma c ao linear podemos de imediato concluir: T (v ) = T v = (v ) = (v ) = v E (), o que prova aquilo que era pretendido. O conjunto de todos os valores pr oprios de uma transforma c ao tem uma import ancia relevante no estudo da estabilidade de sistemas, pelo que merece uma designa c ao especial. Deni c ao 3.14 O conjunto de todos os valores pr oprios de um endomorsmo T tem o nome de espectro de T . O raio espectral e o m aximo dos m odulos do espectro. Depois de introduzido o conceito vamos procurar uma forma de encontrar os valores pr oprios de um endomorsmo. Mais uma vez vamos socorrermo-nos da representa c ao matricial de uma transforma c ao linear. Considere-se o endomorsmo T denido em R2 . Sendo AT a matriz do endomorsmo T denida por: AT = a b . c d

No caso de ser um valor pr oprio do endomorsmo T ent ao existir a um vector n ao nulo v = (x, y ) R2 vericando a seguinte equa c ao matricial: AT x x a b = y y c d x 1 0 = y 0 1 x . y (3.8)

Da equa c ao (3.8) podemos obter: a b c d Isto signica que a matriz: a b c d x 0 = . y 0 (3.9)

3.5 Valores e Vectores Pr oprios

107

e uma matriz singular, pois por deni c ao de vector pr oprio, o vector v = (x, y ) e n ao nulo4 . Como o determinante de uma matriz singular e igual a 0, temos que e um valor pr oprio para a transforma c ao T se e apenas se: (a )(d ) bc = 0. Esta equa c ao tem o nome de equa c ao caracter stica e as suas ra zes s ao os valores pr oprios da transforma c ao T . Estamos agora na posse de uma ferramenta que nos permitir a calcular quais os valores pr oprios de uma transforma c ao. Os pr oximos exemplos aplicam este m etodo na determina c ao dos valores pr oprios de v arias transforma c oes. Exemplo 3.24 Considere-se o endomorsmo denido em R2 cuja matriz can onica e dada por: 1 0 AT = . 1 2 A equa c ao caracter stica ser a neste caso dada por: 1 0 = 0 (1 )(2 ) = 0. 1 2 Logo os valores pr oprios da transforma c ao T s ao 1 = 1 e 2 = 2. Para determinar o espa co pr oprio do valor pr oprio 1, teremos que resolver a seguinte equa c ao matricial: x 1 0 x =1 y 1 2 y sendo esta equa c ao ao sistema de equa c oes lineares: x = x x + 2y = y 0 = 0 x = y

Logo E (1) = (x, y ) R2 : x = y . Do mesmo modo, o espa co pr oprio do valor pr oprio 2 ser a dado por todos os vectores (x, y ) tais que x = 0. Podemos assim concluir que: E (1) = E (2) = (1, 1) ; (0, 1) .

Procedendo ` a mudan ca de base para uma base formada apenas por vectores pr oprios, por exemplo b1 = (1, 1), (0, 1) , vamos obter uma representa c ao diagonal da transforma c ao T concatenando as seguintes transforma c oes: R2 b1
B id

R2 R2 R2 T id b.c. b.c. b1 AT C

4 Relembre que se um sistema de equa c oes lineares homog eneo admite uma solu c ao para l a da solu c ao trivial ent o a matriz dos coecientes e singular.

108

Transforma c oes Lineares

A representa c ao matricial da transforma c ao T na nova base ser a assim dado pelo produto das matrizes: AT = CAT B = 1 0 1 1 1 0 1 2 1 0 1 1
1

1 0 . 0 2

Note-se no exemplo anterior que a transforma c ao pelo facto de admitir dois valores pr oprios distintos, e por ser uma transforma c ao de R2 em R2 , ent ao o espa co de partida e de chegada admitem uma base formada apenas por vectores pr oprios. A pr oxima proposi c ao sintetiza as raz oes para que isto aconte ca. Proposi c ao 3.11 Dados dois vectores pr oprios v1 e v2 , associados a dois valores pr oprios distintos 1 e 2 do endomorsmo T ent ao v1 e v2 s ao linearmente independentes. Demonstra c ao: Vamos sup or que existem constantes e tais que: v1 + v2 = 0 v1 = v2 . Pelo facto de os vectores anteriores se tratarem de dois vectores pr oprios do endomorsmo T iremos obter: T (v1 ) = T v2 = 2 v2 = 2 (v2 ) = 2 (v1 ), o que mostra que v1 e v2 s ao associados ao mesmo valor pr oprio, o que e um absurdo. Deste modo = = 0 o que mostra que os dois vectores s ao linearmente independentes. Da generalidade dos vectores tratados podemos deduzir o resultado pretendido. A partir desta proposi c ao podemos deduzir que se um endomorsmo T denido no espa co E cuja dimens ao e igual a n, admitir n valores pr oprios distintos ent ao podemos obter uma representa c ao matricial por uma matriz diagonal, cuja diagonal e ocupada por cada um dos valores pr oprios. O exemplo seguinte mostra que, por vezes, apesar de o endomorsmo n ao admitir n valores pr oprios distintos, podemos obter ` a mesma uma matriz diagonal representando a transforma c ao. Exemplo 3.25 Considere-se um endomorsmo denido em R2 cuja matriz can onica e dada por: 2 0 AT = . 0 2 f E acil de v er que esta matriz admite apenas um u nico valor pr oprio, = 2, cujo espa co pr oprio e formado por todo o R2 , visto que T (1, 0) = 2(1, 0) e T (0, 1) = 2(0, 1).

3.5 Valores e Vectores Pr oprios

109

Exemplo 3.26 Vamos mostrar que as rota c oes em mbbr2 n ao admitem valores pr oprios reais. De facto a equa c ao caracter stica de uma rota c ao e dada por: 2 2 cos + 1 = 0 = cos cos 2 1.

Deste modo, uma rota c ao s o admite valores pr oprios reais quando = k com k Z. Vectores Pr oprios de Matrizes Sim etricas. Devido ` a import ancia nas aplica c oes das matrizes de sim etricas, vamos dar uma especial aten c ao ao c alculo dos valores pr oprios de uma matriz sim etrica. A import ancia deste caso especial deve-se sobretudo ao seguinte teorema. Teorema 9 (Teorema Espectral) Dado um endomorsmo T representado por uma matriz sim etrica ent ao: 1. Todo o valor pr oprio de T e real; 2. Dois vectores pr oprios associados a valores pr oprios distintos s ao ortogonais. Este resultado ter a uma import ancia determinante no desenvolvimento da classica c ao das formas quadr aticas que iremos introduzir no pr oximo cap tulo. Neste cap tulo cam ainda a faltar v arias coisas. Das que faltam destaco: Transforma c ao em R3 Pot encias de Matrizes. Ver exerc cios das aulas.

(. . . ) o u nico ar comum a esses insensatos que se disfar cam sob a apar encia de sisudos, at e que o del rio os tome e os lance desesperadamente para um corpo feminino em que se refugiem sem desejo, temerosos da solid ao e da noite.
| Albert Camus, O Ex  lio e o Reino, (1951)

A Ariane estava no caminho certo. O pouco que sab amos fedia ` a dist ancia, mas e o que sempre acontece com os factos interessantes.
| Luis Sep ulveda, Mundo do Fim do Mundo, (1989)

Cap tulo 4

Geometria Anal tica


4.1 Estudo da Recta e do Plano no Espa co

Espa co Am. Vamos introduzir o estudo da recta e do plano no espa co. Para que as coisas sejam feitas de uma forma consistente e importante relembrar a identica c ao natural que existe entre um conjunto de pontos e um espa co vectorial. Esta identica c ao passa a ser necess aria neste momento por causa das equa c oes que iremos introduzir, que relacionam pontos e vec necess tores. E ario introduzir uma estrutura por forma a que a soma de um ponto com um vector, a soma de dois pontos, a soma entre dois vectores, etc, estejam denidas de uma forma consistente. Esta estrutura alg ebrica tem o nome de espa co am. De uma forma simples podemos come car por dizer que um espa co am e um conjunto A n ao vazio cujos elementos se chamam pontos. Al em disso, a A est a associado um espa co vectorial E , por forma a que a cada par ordenado de pontos de A podemos associar um vector AB E de tal modo que: 1. AB + BC + CA = 0 para quaiquer A, B, C A; 2. Fixado em O A a aplica c ao que a cada P A associa o vector OP e uma rela c ao biun voca de A sobre E . A ilustra c ao da primeira propriedade e apresentada na gura 4.1. As propriedades anteriores implicam as propriedades familiares: 1. AA = 0 ; 2. AB = BA. A partir de agora podemos de uma forma consistente operar numa mesma equa c ao pontos e vectores a partir da identica c ao anterior.

112

Geometria Anal tica

BC AB

C
CA

A
Figura 4.1: Rela c ao de Chasles. Estudo do Recta. Para denirmos uma recta no espa co R3 precisamos de um ponto e de um vector. Considere-se um ponto P e um vector v n ao-nulo. A equa c ao vectorial da recta e denida por: (x, y, z ) = P + v, R.

Considere-se por exemplo o ponto P = (1, 2, 1) e o vector v = (1, 1, 3). Existe apenas uma recta que passa por P com a direc c ao do vector v . A equa c ao vectorial desta recta e precisamente: (x, y, z ) = (1, 2, 1) + (1, 1, 3), R.

A igualdade anterior e equivalente a igualarmos as coordenadas dos pontos1 : (x, y, z ) = (1 + , 2 + , 1 + 3), R.

Por sua vez esta equa c ao pode ser transformada no sistema de equa c oes: x = 1+ y = 2+ z = 1 + 3 Estas equa c oes s ao as chamadas equa c oes param etricas da recta. Resolvendo o sistema anterior em rela c ao ao par ametro iremos obter: = x1 = y2 1 = z 3
1

A soma de um ponto com um vector num espa co am e um ponto.

4.1 Estudo da Recta e do Plano no Espa co Destas equa c oes poderemos obter as equa c oes cartesianas da recta: x1 = y2 . 1 y 2 = z 3

113

Vemos assim que uma recta em R3 e denida atrav es de um sistema de duas equa c oes a duas inc ognitas. Dada uma recta denida pelas suas equa c oes cartesianas, podemos fazer o processo inverso. Assim considere-se a recta: x1 = y 2 . y + 2 = z 2 (4.1)

Nestes casos a estrat egia consiste em ver qual das coordenadas aparece nas duas equa c oes, neste caso y , e resolver ambas as equa c oes em ordem a esta vari avel. Na equa c ao (4.1) iremos obter: y = x1 . 6 y = z 2 Igualando a vari avel y a um par ametro , iremos obter um novo sistema dado por: = y x1 = . z 6 = 2 Resolvendo este sistema em ordem ` as y = x = z = vari aveis x, y e z , iremos obter: 1+ , 3 + 2

pelo que a equa c ao vectorial desta recta ser a: (x, y, z ) = (0, 1, 3) + (1, 1, 2), R

Posi c ao relativa entre duas rectas. No plano sabemos que duas rectas ou s ao paralelas ou concorrentes. No caso de serem paralelas, os seus vectores direccionais seriam linearmente dependentes. No espa co, para al em destas duas situa c oes existe uma terceira, no caso em que as rectas s ao enviesadas. Neste caso, os vectores direccionais das rectas n ao s ao paralelos (logo as rectas n ao s ao paralelas), mas n ao existe nenhum ponto comum entre as duas (n ao sendo portanto concorrentes). No caso de duas rectas serem enviesadas, existem dois e s o dois planos paralelos que cont em cada uma delas. Os exemplos seguintes analisam os trs diferentes casos e s ao um optimo exemplo de manipula c ao das equa c oes anteriormente introduzidas. Por uma quest ao de m etodo conv em notar que a intersec c ao de duas e calculada a partir das equa c oes cartesianas das mesmas.

114

Geometria Anal tica

Exemplo 4.1 Considerem-se as duas rectas R1 e R2 denidas por: R1 x=z , y=1 R2 (x, y, z ) = (1, 1, 1) + (2, 1, 3), R.

Para procedermos ` a intersec c ao das duas rectas vamos ter que deduzir as equa c oes cartesianas da recta R2 . Sem diculdade, podemos mostrar que as referidas equa c oes s ao dadas por: R2 x 2y = 1 z 3y = 2

a intersec c ao das duas rectas e calculada pela conjun c ao das quatro condi c oes que denem as rectas R1 e R2 , ou seja, esta intersec c ao e a solu c ao do sistema: x=z x=1 y=1 y=1 x = 2y 1 z=1 z = 3y 2 0=0 Logo a intersec c ao das duas rectas verica-se no ponto (1, 1, 1). Deste modo, as rectas s ao concorrentes. O exemplo seguinte analisa a posi c ao relativa de duas rectas cujos vectores direccionais s ao linearmente dependentes. Exemplo 4.2 Considerem-se duas rectas R1 e R2 dadas pelas equa c oes: R1 (x, y, z ) = (1, 0, 1) + 1 (1, 1, 0), R2 (x, y, z ) = (1, 1, 1) + 2 (2, 2, 0), 1 R; 2 R.

Estas mesmas rectas podem ser denidas pelas equa c oes cartesianas: R1 xy =1 z=1 x=y z=1

R2

A intersec c ao ser a ent ao o conjunto solu c ao do sistema: xy =1 0=1 z=1 z=1 R1 R2 x=y x=y z=1 0=0 tratando-se portanto de um sistema imposs vel, pelo que o seu conjunto solu c ao e vazio. Deste modo R1 R2 = . Para ver se as rectas s ao ou n ao

4.1 Estudo da Recta e do Plano no Espa co

115

paralelas teremos de ver se os seus vectores direccionais s ao ou n ao paralelos. Os vectores direccionais das rectas R1 e R2 s ao respectivamente v1 = (1, 1, 0) e v2 = (2, 2, 0). Como s ao dois vectores linearmente dependentes ent ao as duas rectas s ao paralelas. Finalmente apresentamos um exemplo de duas rectas enviesadas. Note-se que o u nico ponto que difere da situa c ao anterior e o facto de os vectores direccionais das rectas n ao serem linearmente dependentes. Exemplo 4.3 Considerem-se duas rectas R1 e R2 denidas pelas suas equac oes cartesianas: R1 x=z+1 , y=0 R2 y=1 . z=0

Como no exemplo anterior, neste caso a intersec c ao das duas rectas e um conjunto vazio. Logo as rectas ou ser ao paralelas ou enviesadas. Para podermos discernir qual das situa c oes enfrentamos, vamos ter de calcular o vector direccional de cada uma das rectas. No caso da recta R1 , pelo facto de y ser contante, signica que a segunda componente do vector direccional desta recta ser a nulo. Uma forma mais f acil de ver isto, consiste em encontrar um ponto da recta e saber a partir da para onde e que a recta se dirige. Um ponto da recta ser a por exemplo P = (1, 0, 0). A partir daqui a recta dirige-se na direc c ao v1 = (1, 0, 1), pois esta e a u nica forma de continuarmos a ter as rela c oes entre as vari aveis verdadeiras. Logo o vector direccional da recta R1 e o vector v1 = (1, 0, 1). Da mesma forma podemos concluir que o vector direccional da segunda recta e o vector v2 = (1, 0, 0) visto que esta recta resulta da intersec c ao dos planos y = 1 e z = 0 como mais tarde teremos oportunidade de vericar. Como os dois vectores s ao linearmente independentes, as rectas s ao enviesadas. Estudo do Plano. Do mesmo modo que denimos as equa c oes vectoriais, param etricas e cartesianas da recta, vamos denir as equa c oes an alogas no caso do plano. Ao contr ario do que acontecia com as rectas, R3 visto como espa co am e o primeiro local onde o estudo do plano e n ao completamente trivial devido ` a dimens ao. Para denirmos a equa c ao vectorial de uma recta eram necess arios um ponto por onde a recta passasse e um vector que nos indicasse a direc c ao a tomar quando sa ssemos desse ponto. No caso do plano, esta direc c ao n ao eu nica. De facto existem duas direc c oes linearmente independentes que podemos tomar ` a sa da de um ponto (o que signica que na realidade podemos sair desse ponto por um n umero innito de direc c oes). Deste modo, para denirmos um plano atrav es da sua equa c ao vectorial apenas necessitamos de um

116

Geometria Anal tica

ponto por onde o plano passe e dois vectores seus n ao colineares (ou seja, linearmente independentes). Supondo que em rela c ao ao plano P isto e vericado pelo ponto P e pelos vectores v1 e v2 , a equa c ao vectorial do plano ser a: P (x, y, z ) = P + 1 v1 + 2 v2 , 1 , 2 R. No caso do plano, pelo que foi dito anteriormente, o plano e um espa co am de dimens ao 2. Ao estar imerso num espa co de dimens ao 3, este conjunto linear pode ser obtido apenas por uma u nica equa c ao, pois neste caso, sabemos desde o primeiro cap tulo, o grau de indetermina c ao deste sistema ser a 2, pelo que ir a gerar o plano. Como no caso da recta, a partir da equa c ao vectorial podemos deduzir sucessivamente as equa c oes param etricas e as equa c oes cartesianas. Para fazermos tal dedu c ao vamos tomar um exemplo de um plano e deduzir as restantes equa c oes. Exemplo 4.4 Considere-se o plano P que passa pelo ponto P = (1, 1, 0) e cujas direc c oes s ao dadas pelos vectores v1 = (1, 0, 0) e v2 = (1, 1, 1). As equa c oes param etricas do plano ser ao dadas pelo sistema de equa c oes lineares: x 1 = 1 + 2 y 1 = 2 . z = 2 Como apenas precisamos de uma rela c ao entre as vari aveis x, y e z , esta pode ser dada pela igualdades nas segunda e terceira equa c oes do sistema anterior, ou seja: (y 1 = 1 z = 2 ) sendo esta a equa c ao cartesiana do plano. Existe uma forma mais imediata de deduzir a equa c ao cartesiana de um plano atrav es do vector normal ao plano. Mas para isso vamos ter de introduzir o produto externo de dois vectores. y 1 = z,

4.2

Produto Interno, Externo e Misto

Vamos agora introduzir dois dos conceitos fundamentais de Geometria Anal tica: o Produto Interno e o Produto Externo, tamb em conhecidos respectivamente por produto escalar e produto vectorial, e o Produto Misto, denido a partir dos anteriores. Podemos denir produto interno de uma forma generalizada, o que corresponde matematicamente a uma forma bilinear denida positiva, sim etrica e n ao-degenerada, mas se isto lhe diz alguma coisa n ao deveria estar a ler este texto, a n ao ser por piedosa complac encia com o autor. Como e obvio, nesta sec c ao apenas pretendemos denir o produto interno

4.2 Produto Interno, Externo e Misto

117

euclideano e a partir deste lan car as bases para uma s erie de conceitos com ele relacionados. Com o Produto Externo vamos, por exemplo, poder escrever as equa c oes cartesianas de qualquer plano de uma forma simples e imediata. O Produto Misto surge naturalmente como a aplica c ao sucessiva dos anteriores produtos. Produto Interno. O produto interno ou escalar pode ser denido em qualquer espa co vectorial real ou imagin ario da seguinte forma: Deni c ao 4.1 Dados dois vectores v1 e v2 o produto interno deste dois vectores e denido como o escalar v1 v2 , tamb em representado por v1 |v2 , v1 v2 = v1 onde v2 cos(v1 v2 ),

representa como habitualmente a norma do vector.

O produto interno entre dois vectores permite calcular o angulo entre esses mesmos vectores, bastando para isso, pela deni c ao de produto interno, calcular o quociente: cos(v1 v2 ) = v1 v2 (v1 v2 ) = arccos v1 v2 v1 v2 v1 v2 .

Por outro lado podemos deduzir que no caso de termos dois vectores n ao nulos, estes ser ao perpendiculares se e apenas se o seu produto interno f or nulo, pois no caso de dois vectores serem perpendiculares, o coseno do angulo por eles formado e igual a 0. Note-se que at e` a introdu c ao do produto interno num determinado espa co vectorial, apenas poder amos dizer se dois vectores eram ou n ao colineares (se eram ou n ao linearmente independentes). Agora, com a introdu c ao do produto interno, poderemos deduzir qual a componente de um vector v1 na direc c ao de outro vector v2 . O escalar que resulta de tal opera c ao tem o nome de projec c ao ortogonal de v1 sobre v2 j a mencionada anteriormente. Deni c ao 4.2 A projec c ao ortogonal de v1 sobre v2 e o escalar projv2 v1 denido por: v1 v2 projv2 v1 = v2 . v2 v2 A demonstra c ao de que a projec c ao e realmente dada pela express ao anterior, ca como exerc cio. Uma ilustra c ao desta desta propriedade pode ser encontrada na gura 4.2. Como exemplo, podemos agora calcular o complemento ortogonal de um determinado subespa co vectorial.

118

Geometria Anal tica

v1

proj

v2 v 1

v2

Figura 4.2: Projec c ao Ortogonal. Deni c ao 4.3 O complemento ortogonal de um determinado subespa co vec torial S E e o conjunto S denido como o conjunto de todos os vectores tais ortogonais a qualquer vector de S , i. e. : v S u S : v u = 0. O seguinte exemplo mostra como calcular o complemento ortogonal de um determinado subespa co vectorial. Exemplo 4.5 Considere-se o subespa co vectorial S R3 cuja base e dada por: S = (1, 0, 1), (0, 1, 0) . f E acil mostrar que um vector e perpendicular ao subespa co S se e apenas se e perpendicular a cada um dos vectores da sua base. Ora um vector (x, y, z ) e perpendicular aos dois vectores da base simultaneamente se vericar o seguinte sistema: (x, y, z ) (1, 0, 1) = 0 (x, y, z ) (0, 1, 0) = 0 x = z y=0

Logo S = {(x, y, z ) R3 : x = z y = 0} = (1, 0, 1) . Como este conjunto e um solu c ao de sistema de equa c oes lineares homog eneo, e de facto um subespa co vectorial. O exemplo anterior mostra que existe uma rela c ao entre as dimens oes de um subespa co, do seu complemento ortogonal e do espa co vectorial onde ambos est ao imersos. Proposi c ao 4.1 Considere-se um espa co vectorial de dimens ao nita E e um seu subespa co vectorial S . Ent ao: dim E = dim S + dim S .

4.2 Produto Interno, Externo e Misto

119

O produto interno goza de certas propriedades que permitem uma deni c ao mais geral do que aquela que e dada aqui. Como as aplica c oes em que estamos interessados apenas usam a m etrica euclideana, vamos car pela deni c ao de produto interno avan cada anteriormente. No entanto qualquer produto interno verica as seguintes propriedades. Proposi c ao 4.2 Sendo E um espa co vectorial real, ent ao, para quaisquer 3 u, v, w E e para qualquer R , o produto interno euclideano verica as seguintes propriedades: 1. u v = v u; 2. (u + v ) w = u w + v w; 3. (u) v = (u v ); 4. u u 0 e u u = 0 u = 0. Produto Externo. Ao contr ario do produto interno, cujo resultado e um escalar, no caso do primeiro, o produto externo de dois vectores e ainda um vector. Deni c ao 4.4 Dados dois vectores u = (u1 , u2 , u3 ), v = (v1 , v2 , v3 ) R3 o produto destes dois vectores, representado por v u, e denido pelo vector: v u = (v2 u3 u2 v3 , v3 u1 u3 v1 , v1 u2 u1 v2 ). A pr oxima proposi c ao estabelece as propriedades mais importantes do produto externo de dois vectores de R3 . Proposi c ao 4.3 Dados dois vectores v, u R3 ent ao as seguintes proposi c oes s ao verdadeiras: 1. u v = v u; 2. Fixando v R3 a aplica c ao denida em R3 por u u v e uma transforma c ao linear; 3. O vector v u e ortogonal a u e a v ; 4. A norma u v e igual ` a area do paralelogramo cujos lados s ao formados pelos vectores u e v . Al em disso, teremos: u y = x y sin , onde eo angulo formado pelos dois vectores. Demonstra c ao: A demonstra c ao dos 3 primeiros pontos e imediata. A demonstra c ao do u ltimo ponto pode ser encontrada em [13].

120

Geometria Anal tica

Podemos agora deduzir a equa c ao de um plano em R3 sabendo apenas im ponto por onde este passe e o seu vector normal. Esta dedu c ao e muito mais directa do que no caso em que a dedu c ao e efectuada directamente a partir da equa c ao vectorial. O pr oximo exemplo implementa este m etodo. Exemplo 4.6 Considere-se o plano P em R3 que passa pelo ponto A = (1, 2, 3), cujos vectores direccionais s ao v1 = (1, 1, 1) e v2 = (1, 1, 0). Deste modo um vector ortogonal ao plano ser a qualquer vector linearmente dependente de v1 v2 . Por deni c ao este vector e igual a: n = v1 v2 = (1, 1, 0). Dado um qualquer ponto do plano P = (x, y, z ) sabemos que o vector P A e dado por P A = (x 1, y 2, z 3), sendo este vector, naturalmente, um vector do plano P . Deste modo o vector n e perpendicular ao vector P A pelo que teremos necessariamente: n P A = 0 x y = 1, sendo esta a equa c ao cartesiana do plano. A interac c ao entre o produto interno e o produto externo ser a dada atrav es do produto misto. Produto Misto. O Produto Misto, como o pr oprio nome indica resulta da aplica c ao conjunto dos dois produtos entre vectores anteriormente introduzidos. Deni c ao 4.5 Sendo u, v, w R3 o produto misto destes 3 vectores e um escalar dado por: u1 u2 u3 (u v ) w = v1 v2 v3 w1 w2 w3 A pr oxima proposi c ao estabelece uma importante propriedade do produto misto, baseada unicamente nas propriedades dos determinantes. Proposi c ao 4.4 O produto misto e invariante pelas permuta c oes circulares dos vectores, ou seja: (u v ) w = (v w) u.

4.3 Dist ancias entre Conjuntos Ans

121

4.3 4.4

Dist ancias entre Conjuntos Ans C onicas

Formas Quadr aticas em R2 . Uma forma quadr atica em R2 e uma apli2 2 ca c ao de R em R tal que cada (x, y ) R e transformado em: (x, y ) Ax2 + Bxy + Cy 2 + Dx + Ey + F. A partir da express ao anterior, podemos formular matricialmente uma forma 2 quadr atica em R atrav es da express ao seguinte: x y A B/2 B/2 C x + D E y x + F . y

Pelo facto da primeira matriz ser uma matriz sim etrica, teremos oportu2 nidade de ver que uma forma quadr atica em R pode ser reduzida a uma forma muito mais simples depois de feita a correcta mudan ca de coordenadas. Nos pr oximos par agrafos vamos analisar as linhas que resultam da intersec c ao de um cone com um plano. Elipse. Uma elipse pode ser denida como o conjunto de todos os pontos tais que, dados dois pontos xos chamados focos, a soma da dist ancia dos focos a cada um destes pontos e constante e maior do que a dist ancia entre os focos ou dist ancia focal.

Figura 4.3: Elipse. Para deduzir uma equa c ao para a elipse vamos usar a sua deni c ao e vamos sup or que os seus focos se encontram no eixo dos xxs, sendo estes equidistantes ` a origem, i. e. , os focos da elipse s ao os pontos de coordenadas F1 = (c, 0) e F2 = (c, 0). Deste modo, dado um ponto (x, y ) da elipse, vamos arbitrar uma constante positiva a > c de tal modo qua a soma das dist ancias de (x, y ) a cada um dos focos seja igual a 2a, i. e. : (x c)2 + y 2 + (x + c)2 + y 2 = 2a a2 + cx = a (x + c)2 + y 2 (a2 c2 )x2 + a2 y 2 = a2 (a2 c2 ).

122

Geometria Anal tica

Fazendo b2 = a2 c2 na equa c ao anterior, iremos obter a equa c ao can onica de uma elipse: x2 y 2 + 2 = 1. a2 b Para fazermos uma representa c ao gr aca de uma elipse dada na sua forma can onica basta indicar quais os pontos de intersec c ao com os eixos coordenados e quais os seus focos. Note-se que da forma como foi deduzida a equa c ao anterior, os focos de uma elipse encontram-se sempre no seu eixo maior(que aqui suposemos que era o eixo dos xxs). Exemplo 4.7 Vamos representar gracamente a elipse cuja equa c ao can onica e dada por: x2 y 2 + = 1. 8 4 Para determinarmos quais os pontos de intersec c ao da elipse com o eixo dos xxs, basta c ao (4.2) podemos obter que neste caso considerar y = 0 e da equa alogo, para obtermos os pontos da elipse x = 2 2. Procedendo de modo an que intersectam o eixo dos yy s basta fazer x = 0 e novamente da equa c ao (4.2) iremos obter y = 2. Como neste caso o eixo maior e o eixo dos yy s, as coordenadas dos focos ser ao da forma (0, c) sendo c2 = b2 a2 . Assim os focos desta elipse ser ao os pontos de coordenadas F1 = (0, 2) e F2 = (0, 2). A gura 4.4 d a-nos uma representa c ao gr aca da elipse.

Figura 4.4: Elipse.

Exemplo 4.8 Vamos representar gracamente a elipse cuja equa c ao can onica e dada por: x2 y 2 + = 1. (4.2) 4 8 Para determinarmos quais os pontos de intersec c ao da elipse com o eixo dos xxs, basta considerar y = 0 e da equa c ao (4.2) podemos obter que neste caso x = 2. Procedendo de modo an alogo, para obtermos os pontos da elipse que intersectam o eixo dos yy s basta fazer x = 0 e novamente da equa c ao (4.2) iremos obter y = 8. Como neste caso o eixo maior e o eixo dos yy s, as coordenadas dos focos ser ao da forma (0, c) sendo

4.4 C onicas

123

c2 = b2 a2 . Assim os focos desta elipse ser ao os pontos de coordenadas F1 = (0, 2) e F2 = (0, 2). A gura 4.5 d a-nos uma representa c ao gr aca da elipse.

Figura 4.5: Elipse.

Exemplo 4.9 Vamos representar gracamente a elipse cuja equa c ao can onica e dada por: x2 y 2 + = 1. 4 4 Neste caso, os comprimentos do eixo menor e do eixo maior da elipse s ao iguais pelo que a dist ancia focal e igual a 0. De facto, simplicando a equa c ao dada obtemos a familiar equa c ao de uma circunfer encia: x2 + y 2 = 4. A ilustra c ao desta circunfer encia e do respectivo foco e exposta na gura 4.6.

Figura 4.6: Circunfer encia.

Hip erbole. A deni c ao de uma hip erbole e semelhante ` a deni c ao de uma elipse. Dados dois pontos xos chamados focos, uma hip erbole pode ser denida como o conjunto de todos os pontos tais que a diferen ca das dist ancias entre cada um destes pontos e os focos e constante. Usando novamente a deni c ao de hip erbole, supondo que as coordenadas dos focos s ao F1 = (c, 0) e F2 = (c, 0), a deni c ao de hip erbole e equivalente a: (x + c)2 + y 2 (x c)2 + y 2 = 2a. (4.3)

124

Geometria Anal tica

A partir desta equa c ao podemos deduzir sucessivamente equa c oes mais simples: (cx a2 ) = a (x c)2 + y 2 c2 x2 + a4 = a2 x2 + a2 c2 + a2 y 2 (c2 a2 )x2 a2 y 2 = a2 (c2 a2 ). Fazendo b2 = c2 a2 podemos obter nalmente a equa c ao can onica de uma hip erbole: x2 y 2 2 = 1. a2 b Fica como exerc cio mostrar que no caso de os focos estarem no eixo dos yy s ent ao a equa c ao can onica da hip erbole seria: x2 y 2 + 2 = 1. a2 b

Os pr oximos exemplos permitem-nos ter uma maior intui c ao em rela c ao ao comportamento de uma hip erbole a partir da an alise da sua equa c ao can onica. Exemplo 4.10 Considere-se a hip erbole cuja equa c ao can onica e dada por: x2 y 2 = 1. 4 2 Para determinar quais os pontos que resultam da intersec c ao do eixo dos xxs com a hip erbole, basta fazer y = 0. A partir da equa c ao da hip erbole iremos obter x = 2. De modo an alogo, os pontos que resultam da intersec c ao do eixo dos yy s com a hip erbole s ao deduzidos fazendo x = 0 de onde obtemos: y 2 = 2. Assim a hip erbole n ao intersecta o eixo dos yy s. Os v ertices desta hip erbole ser ao deste modo os pontos (2, 0) e (2, 0). Os focos s ao calculados usando a igualdade c2 = a2 + b2 , pelo que sem diculdades podemos concluir que os focos ser ao os pontos de coordenadas F1 = ( 6, 0) e F2 = ( 6, 0). No caso de os sinais da equa c ao can onica da hip erbole sejam alterados, o posicionamento dos focos e alterado, conforme e analisado no exemplo seguinte. Exemplo 4.11 Considere-se a equa c ao de uma hip erbole dada por: x2 y 2 + = 1. 4 2

4.4 C onicas

125

Figura 4.7: Hip erbole Neste caso a hip erbole n ao intersecta o eixo dos xxs visto que quando y = 0 iremos obter uma equa c ao imposs vel x2 = 4. Para determinarmos os pontos de intersec c ao com o eixo dos yy s basta fazer x = 0 otendo ent ao y = 2 2 2 2. Usando novamente a rela c ao c = a + b iremos obter as coordenadas dos focos, neste caso no eixo dos yy s, F1 = (0, 6) e F2 = (0, 6). A representa c ao gr aca desta hip erbole e ilustrada na gura 4.8.

Figura 4.8: Hip erbole.

Exemplo 4.12 Considere-se a equa c ao de uma hip erbole dada por: x2 y 2 = 1. 4 4 Neste caso a hip erbole n ao intersecta o eixo dos yy s visto que quando x = 0 iremos obter uma equa c ao imposs vel y 2 = 4. Para determinarmos os pontos de intersec c ao com o eixo dos xxs basta fazer y = 0 otendo ent ao y = 2. Usando novamente a rela c ao c2 = a2 + b2 iremos obter as coordenadas

126

Geometria Anal tica

dos focos, neste caso no eixo dos xxs, F1 = ( 8, 0) e F2 = ( 8, 0). A representa c ao gr aca desta hip erbole e ilustrada na gura 4.9.

Figura 4.9: Hip erbole.

Par abola. Falta estudar o caso da par abola. Para denir uma par abola necessitamos de xar um ponto, a que damos o nome de foco, e uma recta a que damos o nome de directriz. A par abola ser a assim o conjunto de todos os pontos do plano equidistantes ` a directriz e ao foco. Podemos deduzir que caso o foco tenha coordenadas (0, d) e a directriz seja a recta y = d, a equa c ao can onica da par abola e dada por: 4dy = x2 . O pr oximo exemplo explora este conceito e ilustra gracamente o conjunto de pontos do plano que pertencem a uma determinada par abola. Exemplo 4.13 A familiar par abola cuja equa c ao e y = x2 , tem como foco o ponto (0, 1/4) visto que neste caso 4d = 1. A directriz ser a assim a recta de equa c ao y = 1/4. Por outro lado o v ertice e o ponto de coordenadas (0, 0). A gura 4.10 ilustra esta par abola.

Figura 4.10: Par abola. Os restantes exemplos devem ser estudados atrav es dos apontamentos das aulas.

4.5 Classica c ao das C onicas

127

4.5

Classica c ao das C onicas

Ver os apontamentos das aulas.

Bibliograa
[1] F. R. Dias Agudo. Introdu c ao ` a Algebra Linear e Geometria Anal tica. Escolar Editora, 1996. [2] Thomas Bancho and John Wermer. Linear Algebra Through Geometry. Springer-Verlag, 1991. [3] G. Birkho and S. MacLane. Algebra Moderna B asica. Guanabara Dois, 1980. [4] Fernando Pestana da Costa. Equa c oes Diferenciais Ordin arias. IST Press, 1998. [5] Jean-Luc Dorier. A general outline of thr genesis of vector space theory. Historia Mathematica, 22:227261, 1995. [6] Ant onio Monteiro e Gon calo Pinto. Algebra Linear e Geometria Anal tica, Problemas e Exerc cios. McGraw-Hill, 1997. [7] James Foley et al. Computer Graphics, Principles and Practice. Addison Wesley, 1997. [8] L. Chambadal et J.L. Ovaert. Alg` ebre Lin eaire et Alg` ebre Tensorielle. Dunod, 1968. [9] John B. Fraleigh. A First Course in Abstract Algebra. Addison Wesley, 1999. [10] A. Kostrikin and Yuri Manin. Linear Algebra and Geometry. Gordon and Breach Science Publishers, 1997. [11] Erwin Kreyszig. Advanced Engineering Mathematics. John Wiley & Sons, 1999. [12] Armando Machado. T opicos de An alise e Topologia em Variedades. DM, FC/UL, 1997. [13] Luis Magalh aes. Algebra Linear como introdu c ao ` a Matem atica Aplicada. Texto Editora, 1998.

[14] Jerrold E. Marsden and Anthony J. Tromba. Vector Calculus. W.H. Freeman and Company, 1999. [15] Philip J. Schneider and David Eberly. Geometric Tools For Computer Graphics. Morgan Kaufmann Publishers, 2003. [16] Gilbert Strang. Linear Algebra and its Applications. Harcourt Brace Jovanovich, Inc, 1988. [17] Donald Vossler. Exploring Analytic Geometry with Mathematica. Academic Press, 2000.

Indice
aplica c ao injectiva, 81 linear, 33, 74, 76, 77 automorsmo, 87 base, 53 can onica, 53, 54 caracter stica, 38 de uma transforma c ao, 85 cofactor de uma matriz, 36 combina c ao linear, 50 condensa c ao, 19, 20 conjunto combina c oes lineares, 49 linearmente maximal, 52, 53 contradom nio, 83 coordenadas, 57 determinante, 33 de uma matriz, 34 diagonal principal, 10 diagonaliza c ao, 20, 23 dimens ao, 40, 53 de uma matriz, 10 endomorsmo, 105 equa c ao vectorial da recta, 112 equa c ao caracter stica, 107 equa c ao dif. linear homog enea, 49 espa co am, 111 pr oprio, 85 espa co coluna, 57 espectro, 106 factoriza c ao triangular, 29 Gauss m etodo de Gauss-Jordan, 30 m etodo de elimina c ao, 1, 7, 11, 16, 19, 31, 36 grau de indetermina c ao, 40 imagem de uma transforma c ao, 83 injectividade, 81 intersec c ao trivial, 68 inverso de uma matriz, 28 isometria, 71 Laplace, 36 lei do paralelogramo, 3, 12 linear depend encia, 25, 50 magnica c ao, 75 matriz, 12 ampliada, 11 antisim etrica, 32 can onica, 77, 78 caracter stica, 26 caracter stica de, 39 coluna, 3, 10 de mudan ca de base, 15 de permuta c ao, 19, 20 de uma transforma c ao, 77 diagonaliza c ao, 23 elementar, 16, 19, 20

inversa, 28 inversa direita, 27 inversa esquerda, 27 multiplica c ao de, 12 produto por um escalar, 17 quadrada, 28 rectangular, 28 regular, 22 semelhante, 104 sim etrica, 32, 50, 109 singular, 22, 23 soma de, 17 transposta, 31 triangular, 10 maximal, 52 menor de uma matriz, 36 n ucleo, 58, 79 de uma matriz, 79 de uma transforma c ao, 79, 80 nulidade, 83, 85 pivots, 22, 23, 36 polin omios, 48 pr oprio espa co, 105 valor, 105 vector, 105 produto de matrizes, 16 escalar, 116 interno, 13 misto, 116 vectorial, 116 projec c ao ortogonal, 33 raio espectral, 106 reex ao, 77 representa c ao, 57 representa c ao matricial, 77 rota c ao, 71 SEL, 12 sistema

classica c ao, 38 grau de indetermina c ao, 40 homog eneo, 43, 45 imposs vel, 6 poss vel, 58 poss vel indeterminado, 6, 39 sobrejectividade, 86 solu c ao admiss vel, 4, 5 alg ebrica, 5 particular, 59 trivial, 44 subespa co pr oprio, 84 subespa co vectorial, 45 Teorema de Laplace, 36 Espectral, 32 trivial, 68 valores pr oprios, 32 vectores pr oprios, 32

Você também pode gostar