Você está na página 1de 124

o a ` Algebra Introduc a Linear com o gnu-Octave

Pedro Patr cio


Departamento de Matem atica Universidade do Minho pedro@math.uminho.pt

Notas de apoio para MiEB

c 2007, 2008

Conte udo
1 Introdu c ao 2 C alculo Matricial 2.1 Nota c ao matricial . . . . . . . . . . . . . . . . 2.2 Opera c oes matriciais . . . . . . . . . . . . . . 2.2.1 Soma e produto escalar . . . . . . . . 2.2.2 Produto . . . . . . . . . . . . . . . . . 2.2.3 Transposi c ao . . . . . . . . . . . . . . 2.2.4 Invertibilidade . . . . . . . . . . . . . 2.3 Um resultado de factoriza ca o de matrizes . . 2.3.1 Matrizes elementares . . . . . . . . . . 2.3.2 O Algoritmo de Elimina c ao de Gauss 2.4 Determinantes . . . . . . . . . . . . . . . . . 2.4.1 Deni c ao . . . . . . . . . . . . . . . . 2.4.2 Propriedades . . . . . . . . . . . . . . 2.4.3 Teorema de Laplace . . . . . . . . . . 3 Sistemas de equa c oes lineares 3.1 Formula c ao matricial . . . . . 3.2 Resolu c ao de Ax = b . . . . . 3.3 Algoritmo de Gauss-Jordan . 3.4 Regra de Cramer . . . . . . . 4 5 11 11 16 16 17 20 22 28 28 38 45 45 46 49 53 53 54 63 65 67 67 69 71 75 97 97 100 101

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

Espa cos vectoriais 4.1 Deni c ao e exemplos . . . . . . . . . . 4.2 Independ encia linear . . . . . . . . . . 4.3 Bases de espa cos vectoriais nitamente n 4.4 R e seus subespa cos (vectoriais) . . .

. . . . . . . . . . gerados . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

Valores e vectores pr oprios 5.1 Motiva c ao e deni c oes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Propriedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Matrizes diagonaliz aveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

4 6 Transforma c oes lineares 6.1 Deni c ao e exemplos . . . . . . . . . . . . . . 6.2 Propriedades das transforma c oes lineares . . . 6.3 Matriz associada a uma transforma c ao linear 6.4 Liga c ao com a geometria . . . . . . . . . . . . Bibliograa

CONTEUDO 109 109 110 114 119 123

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

Cap tulo 1

Introdu c ao
O ano lectivo 2006/07 presenciou a restrutura c ao da Licenciatura em Engenharia Biol ogica no Mestrado Integrado em Engenharia Biol ogica, em conson ancia com o Tratado de Bolonha. Como consequ encia, a disciplina Algebra Linear e Geometria Anal tica viu-se substitu da pela unidade curricular Algebra Linear C, onde o s mbolo C tem como u nico prop osito diferenci a-la das outras unidades curriculares semelhantes (mas que s ao distintas) existentes na Universidade do Minho. Na reestrutura c ao do curso, a unidade curricular a que estas notas se referem pressup oe o recurso a uma ferramenta computacional, tendo a direc c ao de curso apoiado a escolha do MatLab. No que se segue, tentar-se- a complementar o estudo te orico dos assuntos com exemplos recorrendo ` a ferramenta computacional. Embora existam recursos que possibilitem aos alunos o uso do MatLab, estes s ao escassos. Tal levou a que, com o acordo da direc c ao de curso, se optasse pelo gnu-Octave. A utiliza c ao de um software livre possibilita aos alunos a obten c ao legal de software para o seu estudo di ario, nos seus computadores pessoais. O Octave e referenciado como um 1 clone do MatLab, distribu do segundo a licen ca GPL (General Public License), existente para v arias plataformas, podendo encontrar na internet diversas fontes de informa c ao sobre (in)compatibilidades entre os dois. Outras considera c oes e preocupa c oes est ao descritas em http://iimyo.forja.rediris.es/matlab/, nomeadamente nos Ap endices C e D. A vers ao do Octave usada nos exemplos apresentados e a 3.0.2, compilada para 64 bits. Os exemplos foram essencialmente desenvolvidos em linux-Gentoo, em linux-Debian e em linux-Ubuntu. Visualmente, a grande diferen ca que nos e permitido identicar entre o Octave e o MatLab e o ambiente gr aco que usam. O Matlab funciona num ambiente gr aco, sendo portanto um GUI (graphics user interface ), enquanto que o Octave e um CLI (command line interface ). Ali as, s o a partir do Matlab 6.0 se adoptou um ambiente gr aco para o MatLab. Existem, acrescente-se, variantes do Octave que o transformam num GUI. Um exemplo para Windows, embora descontinuado no seu desenvolvimento, e o Octave Workshop, com s tio http://www.math.mcgill.ca/loisel/octave-workshop/.
1

Sugerimos a leitura atenta de http://www.macresearch.org/octave a free matlab clone and a bit more.

CAP ITULO 1. INTRODUC AO

Figura 1.1: MatLab e Octave lado a lado, em Linux (no caso, Fedora 5).

tal como o Recentemente surgiu uma alternativa ao Octave Workshop, o QT-octave. E, Octave Workshop um interface gr aco do Octave, que o torna mais atraente no uso. Existem outra implementa c oes gr acas do Octave para ambientes Linux. Um exemplo e o Koctave. Listam-se alguns endere cos u teis: Octave Wiki: http://wiki.octave.org/ Download da pagina ocial: http://www.gnu.org/software/octave/download.html Instalador do Octave para MS-Windows: http://sourceforge.net/project/showles.php?group id=2888&package id=40078 P agina ocial do Qt-Octave: http://qtoctave.wordpress.com/ Bin arios do Qt-Octave para Linux, MacOSX e MS-Windows: https://forja.rediris.es/projects/csl-qtoctave/

Figura 1.2: Octave 2.1.73 num ambiente Linux (LinuxMint, baseado no Ubuntu)

Independentemente da plataforma que usar, e (quase) sempre poss vel instalar o octave na sua m aquina. Sendo um software distribu do sob a licen ca GPL, o c odigo-fonte est a dispon vel a qualquer utilizador. Precisar a, apenas, de um compilador gcc para instalar o Octave. Se utilizar linux, o octave e instalado de uma forma ainda mais simples. Se usar a distribui c ao Ubuntu (http://www.ubuntu.com) ou uma sua derivada, ou ainda Debian ou sua derivada, ent ao num terminal fa ca a actualiza c ao da lista de pacotes dispon veis e instale o octave: sudo apt-get update && apt-get install octave. Em alternativa, use o synaptic para gerir, de uma forma gr aca, os pacotes instal aveis no seu sistema. Para tirar partido das capacidade gr acas do Octave tem que instalar o gnuplot. Outras distribui c oes de linux possuem formas mais ou mesno simples de se instalar o Octave (via APT, portage, yum e ans). poss E vel ter, numa mesma m aquina, dois sistemas operativos, usando aquele que nos realiza melhor certo tipo de tarefas. Mas se quiser manter intacto o seu sistema que n ao e *nix, ent ao uma boa op c ao e a explora c ao dos LiveCD/DVD. Coloque o LiveCD/DVD na sua m aquina e reinicialize-a. Ter a, de imediato, um sistema linux a funcionar, embora n ao possa fazer quaisquer tipo de actualiza c oes ou instala c ao de software. Mas a partir daqui pode, se tal for seu intento, instal a-lo na sua m aquina. Existem v arias distribui c oes que possuem

CAP ITULO 1. INTRODUC AO

Figura 1.3: Octave Workshop num MS-Windows XP

um LiveCD/LiveDVD, ou seja, que prescindem de instala c ao em disco r gido, e que cont em o Octave, bem como outras aplica c oes matem aticas como o R, o YaCaS ou o GAP. Apresenta-se uma lista n ao exaustiva de s tios onde pode conhecer mais sobre algumas dessas distribui c oes. http://dirk.eddelbuettel.com/quantian.html http://poseidon.furg.br/ https://www.scienticlinux.org/ http://taprobane.org/ E pronto: se tudo correu como planeado tem ` a sua disposi c ao o Octave, uma ferramenta computacional num erica que iremos, nos cap tulos que se seguem, usar no estudo elementar de Algebra Linear. Pode ir registando os comandos e respostas num cheiro de texto fazendo > diary on Para dar ordem de m de escrita no cheiro, fa ca > diary off O cheiro, por omiss ao, ca denominado de diary. Pode, em alternativa, solicitar que o cheiro tome um nome denido por si. Basta, para tal, escrever diary nomeficheiro.txt.

Figura 1.4: QT-octave no MS Vista

10

CAP ITULO 1. INTRODUC AO

Figura 1.5: Koctave num ambiente linux

Cap tulo 2

C alculo Matricial
Ao longo deste documento K designar a o conjunto C dos n umeros complexos ou R o dos n umeros reais.

2.1

Nota c ao matricial
tabela com mn elementos de K, elementos esses .

Uma matriz do tipo m n sobre K e uma dispostos em m linhas e n colunas: a11 a21 A= . . .

a12 a22 . . .

a1n a2n . . . amn

am1 am2

Os elementos aij dizem-se os elementos ou componentes da matriz. A matriz diz-se do tipo m n se tiver m linhas e n colunas. O conjunto de todas as matrizes (do tipo) m n sobre K representa-se por Mmn (K) ou por Kmn , e o conjunto de todas as matrizes (nitas) sobre K por M (K). Km denota Km1 . S ao exemplos de matrizes A= 1 2 2 3 ,B= 1 2 0 1 0 1 ,C= 2 1 0 6 ,D= 1 2 .

Quando conveniente, escrevemos a matriz A da deni c ao anterior como [aij ] , e referimos aij como o elemento (i, j ) de A, isto e, o elemento que est a na linha i e na coluna j de A. Iremos tamb em usar a nota c ao (A)ij para indicar o elemento na linha i e coluna j de A.

11

12

CAP ITULO 2. CALCULO MATRICIAL

Duas matrizes [aij ] , [bij ] Mmn (K) s ao iguais se aij = bij , para i = 1, . . . , m, j = 1, . . . , n. Ou seja, duas matrizes s ao iguais se t em o mesmo n umero de linhas e o mesmo n umero de colunas, e que os elementos na mesma linha e coluna s ao iguais. Uma matriz do tipo m por n diz-se quadrada de ordem n se m = n, ou seja, se o n umero de linhas iguala o de colunas; diz-se rectangular caso contr ario. Por exemplo, s ao quadradas as matrizes 1 2 3 1 0 , 2 3 4 0 2 3 4 5 e rectangulares as matrizes 1 2 3 0 5 3 1 , 4 . 0

1 1

Os elementos diagonais de [aij ]i,j =1,... n s ao a11 , a22 , . . . , ann . Por exemplo, os elementos diagonais de 1 0 0 2 s ao 1 e 2, e os da matriz 1 2 3 0 5 3

s ao 1 e 5. Nos exemplos atr as apresentados, apenas a matriz A e quadrada, sendo as restantes rectangulares. Os elementos diagonais de A s ao 1, 3.

Octave Suponha que se pretende denir a matriz A = > A=[1 2;2 3] A = 1 2 2 3 1 2 2 3 . Para tal, faz-se

A entrada (1, 2) e mostrada atrav es do comando > A(1,2) ans = 2 A primeira linha e a segunda coluna da matriz s ao mostradas com, respectivamente, > A(1,:) ans =

MATRICIAL 2.1. NOTAC AO 1 2

13

> A(:,2) ans = 2 3 Considere agora a matriz B = 1 2 i 3i 2 1 0 :

> B=[1 2-i 3i; 0 sqrt(2) -1] B = 1.00000 + 0.00000i 0.00000 + 0.00000i 2.00000 - 1.00000i 1.41421 + 0.00000i 0.00000 + 3.00000i -1.00000 + 0.00000i

No Octave, todas as constantes num ericas s ao representadas no formato de v rgula utuante com dupla precis ao (as constantes complexas s ao memorizadas como pares de valores de v rgula utuante de dupla precis ao). O Octave, por omiss ao, apenas mostra uma parte do valor que armazenou. > format long > B=[1, 2-i, 3i; 0, sqrt(2), -1] B = Column 1: 1.000000000000000 + 0.000000000000000i 0.000000000000000 + 0.000000000000000i Column 2: 2.000000000000000 - 1.000000000000000i 1.414213562373095 + 0.000000000000000i Column 3: 0.000000000000000 + 3.000000000000000i -1.000000000000000 + 0.000000000000000i > format > B B =

14 1.00000 + 0.00000i 0.00000 + 0.00000i

CAP ITULO 2. CALCULO MATRICIAL 2.00000 - 1.00000i 1.41421 + 0.00000i 0.00000 + 3.00000i -1.00000 + 0.00000i

Suponhamos agora que se pretende denir C como a matriz constitu da pelos elementos que est ao nas linhas de B e que est ao nas colunas 1 e 2 de B . Para tal, usa-se o comando B(:,1:2). Aqui, o primeiro : indica que se pretender usar todas as linhas de B . O argumento 1:2 indica que consideram da primeira ` a segunda colunas de B . > C=B(:,1:2) ans = 1.00000 + 0.00000i 0.00000 + 0.00000i 2.00000 - 1.00000i 1.41421 + 0.00000i

Se se pretender a coluna 1 e 3, ent ao usa-se a instru c ao B(:,[1,3]). Uma forma mais rebuscada seria usar o argumento 1:2:3. A sintaxe e simples: in cio:incremento:nal. Assim sendo, > B(:,1:2:3) ans = 1 + 0i 0 + 0i 0 + 3i -1 + 0i

Finalmente, podemos concatenar a matriz A denida atr as, por colunas e por linhas, respectivamente, > [B(:,1:2:3) A] ans = 1 + 0i 0 + 0i 0 + 3i -1 + 0i 1 + 0i 2 + 0i 2 + 0i 3 + 0i

> [B(:,1:2:3); A] ans = 1 0 1 2 + + + + 0i 0i 0i 0i 0 -1 2 3 + + + + 3i 0i 0i 0i

Preste aten c ao que nem sempre estas opera c oes s ao poss veis. Uma das causas de falha e o n umero de linhas ou colunas n ao compat vel. Finalmente, obt em-se a conjugada de uma matriz conjugando as componentes da matriz dada. , Ou seja, a matriz conjugada de A Mmn (C), denotada como A e a matriz m n denida por (A)ij = aij . Por exemplo,

MATRICIAL 2.1. NOTAC AO > conj (B) ans = 1.00000 - 0.00000i 0.00000 - 0.00000i 2.00000 + 1.00000i 1.41421 - 0.00000i 0.00000 - 3.00000i -1.00000 - 0.00000i

15

Apresentamos, de seguida, alguns tipos especiais de matrizes. 1. Uma matriz diz-se diagonal se for da d1 0 0 d2 . . . . . . 0 0 forma 0 0 = diag (d1 , d2 , . . . , dn ) , . . . dn

ou seja, o elemento (i, j ) e nulo, se i = j . Portanto, uma matriz quadrada e diagonal se os u nicos elementos possivelmente n ao nulos s ao os diagonais. 2. A matriz identidade de ordem n, In , e a matriz diagonal de ordem n, com os elementos diagonais iguais a 1; ou seja, 1 0 0 0 1 0 . In = . . . . . . . . . 0 0 1

3. Uma matriz A = [aij ] diz-se triangular superior se aij = 0 quando i > j , e triangular inferior se aij = 0 quando i < j . Ou seja, s ao respectivamente triangulares superiores e inferiores as matrizes a11 a12 a1n a11 0 0 0 0 a22 a2n a21 a22 . , . . . . . . . . . . . . . . . . . . 0 4. Matrizes circulantes 0 amn am1 am2 amn

a0

an1 . . . a1

a1 a0 . .. . . . a2

an1 an2 . . . a0

16 5. Matrizes companheiras, com v Kn1 , 0 In1 6. Matrizes de Hankel Hn = a0 a1 a2 an1 7. Matrizes de Toeplitz a0 a1 a1 a0 a1 a1 a2 an1 an

CAP ITULO 2. CALCULO MATRICIAL

a0 v

a2 an

an1 an a2(n1)

Tn = an+2 an+1 an+2

a2 an1 a1 a1 a0

2.2

Opera c oes matriciais

Vejamos agora algumas opera c oes denidas entre matrizes, e algumas propriedades que estas satisfazem.

2.2.1

Soma e produto escalar

Sejam A = [aij ] , B = [bij ] Mmn (K) e K. 1. A soma entre matrizes A + B e a matriz m n cujo elemento (i, j ) e aij + bij . Ou seja, (A + B )ij = (A)ij + (B )ij . 2. O produto de uma matriz com um escalar A e a matriz m n cujo elemento (i, j ) e aij . Ou seja, (A)ij = (A)ij . Repare que a soma de duas matrizes, da mesma ordem, e feita elemento a elemento, e o produto escalar de uma matriz por K e de novo uma matriz da mesma ordem da dada, onde cada entrada surge multiplicada por . Ou seja, a11 + b11 a12 + b12 . . . a1m + b1m a11 a12 . . . a1m b11 b12 . . . b1m a22 + b22 . . . a2m + b2m a a . . . a b b . . . b a +b 21 22 2m 22 2m 21 = 21 . 21 + . . . . . . . . . . . . . . . . . an1 an2 . . . anm bn1 bn2 . . . bnm an1 + bn1 an2 + bn2 . . . anm + bnm

2.2. OPERAC OES MATRICIAIS e Por exemplo, 1 2 3 4 e 5 1 2 3 4 = 51 52 53 54 . + 5 6 7 8 = 1+5 2+6 3+7 4+8 a11 a21 . . . a12 a22 ... ... a1m a2m . . . anm = a11 a21 . . . a12 a22 ... ... a1m a2m . . . anm .

17

an1 an2 . . .

an1 an2 . . .

Como e f acil de compreender, a soma e o produto escalar s ao comutativos. De ora em diante, 0 representa uma qualquer matriz cujos elementos s ao nulos, e se A = [aij ] ent ao A = [aij ]. Estas opera c oes satisfazem as propriedades que de seguida se descrevem, onde A, B, C Mmn (K) e , K: 1. A soma de matrizes e associativa: (A + B ) + C = A + (B + C ). 2. A soma de matrizes e comutativa: A + B = B + A 3. A matriz nula e o elemento neutro da adi c ao: A + 0 = 0 + A. 4. Existe o sim etrico de cada matriz A + (A) = (A) + A = 0. 5. (A + B ) = A + B . 6. ( + )A = A + A. 7. ( )A = (A). 8. 1 A = A.

2.2.2

Produto

Resta-nos denir o produto matricial. Seja A = [aij ] uma matriz m p e B = [bij ] uma matriz p n. O produto de A por B , denotado por AB , e a matriz m n cujo elemento (i, j ) e ai1 b1j + ai2 b2j + + ain bnj . Assim,
p p

AB =
k=1

aik bkj
mp

e portanto (AB )ij =


k=1

(A)ik (B )kj .

Atente-se nas dimens oes de A e B na deni c ao anterior.

18

CAP ITULO 2. CALCULO MATRICIAL 1 2 1 1 1 1 0 0 1 1

Como exemplo, fa camos o produto da matriz A = Ora AB =

pela matriz B =

11+20 11+21 1 0 + 2 (1) 1 1 + 1 0 1 1 + 1 1 1 0 + 1 (1)

Antes de fazermos refer encia a algumas propriedades, vejamos uma outra forma exprimir y1 y2 , o produto de duas matrizes. Para tal, suponha que X = x1 x2 . . . xn , Y = . . . yn sendo a primeira do tipo 1 n e a segunda do tipo n 1. Pelo que acab amos de referir, o produto de X por Y est a bem denido, sendo a matriz produto do tipo 1 1, e portanto, um elemento de K. Esse elemento e x1 y1 + x2 y2 + . . . xn yn . Voltemos agora ao produto de Amp por Bpn , e xemos a linha i de A e a coluna j de B . Ou seja, a matriz linha b1j b2j eo ai1 ai2 . . . aip e a matriz coluna . . O produto da primeira pela segunda . . bpj
p

elemento de K dado por ai1 b1j + ai2 b2j + + aip bpj =


k=1

aik bkj . Ora, este elemento n ao e

mais nem menos que a entrada (i, j ) da matriz produto AB . Ou seja, a entrada (i, j ) de AB e o produto da linha i de A pela coluna j de B . Vejamos algumas propriedades deste produto de matrizes, onde as dimens oes das matrizes A, B, C, I, 0 s ao tais que as opera c oes indicadas est ao denidas, e K: 1. O produto de matrizes e associativo (AB )C = A(BC ); 2. O produto de matrizes e distributivo em rela c ao ` a soma A(B + C ) = AB + AC, (A + B )C = AC + BC ; 3. A matriz identidade e o elemento neutro para o produto: AI = A, IA = A; 4. A matriz nula e o elemento absorvente para o produto: 0A = 0, A0 = 0; 5. (AB ) = (A)B = A(B ).

Fa camos a verica c ao da primeira igualdade de (1). A verica c ao de que as matrizes s ao do mesmo tipo ca ao cargo do leitor. Iremos apenas vericar que a entrada (i, j ) de A(B + C ) iguala a entrada (i, j ) de AB + AC . Ora, supondo que A tem p colunas, e portanto que B e

2.2. OPERAC OES MATRICIAIS C t em p linhas,


p

19

(A(B + C ))ij

=
k=1 p

(A)ik ((B )kj + (C )kj ) ((A)ik (B )kj + (A)ik (C )kj )


k=1 p p

=
k=1

(A)ik (B )kj +
k=1

(A)ik (C )kj

= (AB )ij + (AC )ij = (AB + AC )ij . Veriquemos tamb em a propriedade (3). Note-se que (I )i = 1 e (I )ij = 0 se i = j . Ora (AI )ij = p ( A ) ( I ) ik kj = (A)ij . k=1 E importante notar que o produto matricial n ao e, em geral, comutativo. Por exem1 0 0 1 0 1 1 0 plo, = . A lei do anulamento do produto tamb em 0 0 0 0 0 0 0 0 n ao e v alida, em geral, no produto matricial. Por exemplo, 1 0 0 0 = 0, sem 0 0 0 1 que um dos factores seja nulo. Ou seja, AB = 0 (A = 0 ou B = 0). De uma forma 1 0 2 2 mais geral, (AB = AC e A = 0) (B = C ), j a que, por exemplo, = 0 0 1 1 1 0 2 2 . 0 0 1 3 Como e f acil de observar, a soma de duas matrizes triangulares inferiores [resp. triangulares superiores] e de novo triangular inferior [resp. triangular superior]. O que se pode dizer em rela c ao ao produto? Teorema 2.2.1. O produto de matrizes triangulares inferiores [resp. triangulares superiores] e de novo uma matriz triangular inferior [resp. triangular superior]. Demonstra c ao. Sejam A, B duas matrizes triangulares inferiores de tipo apropriado. Ou seja, (A)ij , (B )ij = 0, para i < j . Pretende-se mostrar que, para i < j se tem (AB )ij = 0. Ora, para i i < j , e supondo que A tem p colunas, (AB )ij = p k=1 (A)ik (B )kj = 0. k=1 (A)ik (B )kj = Por vezes e conveniente considerar-se o produto matricial por blocos. Para tal, considere as matrizes A e B divididas em submatrizes A= A11 A12 A21 A22 ,B = B11 B12 B21 B22

de forma conforme as opera c oes descritas de seguida estejam denidas, ent ao AB = A11 B11 + A12 B21 A11 B12 + A12 B22 A21 B11 + A22 B21 A21 B12 + A22 B22 .

20 De uma forma mais geral, se A= A11 A21 . . . A12 A22 . . . .. . A1p A2p . . . Amp

CAP ITULO 2. CALCULO MATRICIAL

Am1 Am2

, B =

B11 B21 . . .

B12 B22 . . .

.. .

B1n B2n . . . Bpn

Bpn Bpn

em que as submatrizes s ao tais que as opera c oes seguintes est ao bem denidas, ent ao AB =
p k=1 A1k Bk1 p k=1 A2k Bk1 p k=1 A1k Bk2 p k=1 A2k Bk2

. . . p k=1 Amk Bk1

. . . p k=1 Amk Bk2

.. .

. . . p k=1 Amk Bkn

p k=1 A1k Bkn p k=1 A2k Bkn

2.2.3

Transposi c ao

A transposta de uma matriz A = [aij ] Mmn (K), e a matriz AT = [bij ] Mnm (K) cuja entrada (i, j ) e aji , para i = 1, . . . , n, j = 1, . . . , m. Ou seja, (AT )ij = (A)ji . A matriz e T sim etrica se A = A. 1 2 1 2 1 3 e a matriz , e a matriz Como exemplo, a transposta da matriz 3 4 2 4 2 3 e uma matriz sim etrica. Repare que a coluna i de AT e a linha i de A, e que uma matriz e sim etrica se e s o se for quadrada e forem iguais os elementos situados em posi c oes sim etricas relativamente ` a diagonal principal. A transposi c ao de matrizes goza das seguintes propriedades: 1. AT
T

= A;

2. (A + B )T = AT + B T ; 3. (A)T = AT , para K; 4. (AB )T = B T AT ; 5. Ak


T

= AT

, k N.

A arma c ao (1) e v alida j a que ((AT )T )ij = (AT )ji = (A)ij . Para (2), ((A + B )T )ij = (A + B )ji = (A)ji + (B )ji = (AT )ij + (B T )ij . Para (4), ((AB )T )ij = (AB )ji = k (A)jk (B )ki = k (B )ki (A)jk = k (B T )ik (AT )kj = (B T AT )ij . Para (5), a prova e feita por indu c ao no expoente. Para k = 1 a arma c ao e trivialmente v alida. Assumamos ent ao que e v alida para um certo k , e provemos que e v alida para k + 1. Ora (Ak+1 )T = (Ak A)T =(4) AT (Ak )T = AT (AT )k = (AT )k+1 .

2.2. OPERAC OES MATRICIAIS

21

Octave 1 2 0 1 ,B = . Note que s ao do mesmo tipo, pelo que 2 3 1 1 a soma est a bem denida. Verica-se a comutatividade destas matrizes para a soma. Considere as matrizes A = > A=[1 2; 2 3]; B=[0 1; -1 1]; > A+B ans = 1 1 3 4

> B+A ans = 1 1 3 4

Fa camos o produto de A pelo escalar 2: > 2*A ans = 2 4 4 6

Note ainda que o n umero de colunas de A iguala o n umero de linhas de B , pelo que o produto AB est a bem denido. > A*B ans = -2 -3 3 5

Verique que tamb em o produto BA est a bem denido. Mas > B*A ans = 2 1 3 1

22

CAP ITULO 2. CALCULO MATRICIAL

BA = AB , pelo que o produto de matrizes n ao e, em geral, comutativo. Considere agora a matriz C cujas colunas s ao as colunas de A e a terceira coluna e a segunda de B : > C=[A B(:,2)] C = 1 2 2 3 1 1

Como C e uma matriz 2 3, a sua transposta, C T , e do tipo 3 2: > C ans = 1 2 1 2 3 1

> size(C) ans = 3 2

2.2.4

Invertibilidade

Uma matriz A quadradada de ordem n diz-se invert vel se existir uma matriz B , quadrada de ordem n, para a qual AB = BA = In . Teorema 2.2.2. Seja A Mn (K). Se existe uma matriz B Mn (K) tal que AB = BA = In ent ao ela eu nica. Demonstra c ao. Se B e B s ao matrizes quadradas, n n, para as quais AB = BA = In = AB = B A ent ao B = B In = B (AB ) = (B A)B = In B = B.

2.2. OPERAC OES MATRICIAIS

23

A matriz B do teorema, caso exista, diz-se a inversa de A e representa-se por A1 . 1 0 Por exemplo, a matriz S = n ao e invert vel. Por absurdo, suponha que existe 1 0 T , de ordem 2, tal que ST = I2 = T S . A matriz T e ent ao da forma ST = x y z w . Ora

x y , que por sua vez iguala I2 , implicando por sua vez x = 1 e y = 0, juntamente x y com x = 0 e y = 1.

Octave Considere a matriz real de ordem 2 denida por A = 1 2 . Esta matriz e invert vel. Mais 2 3 adiante, forneceremos formas de averigua c ao da invertibilidade de uma matriz, bem como algoritmos para calcular a inversa. Por enquanto, deixemos o Octave fazer esses c alculos, sem quaisquer justica c oes: > A=[1,2;2,3]; > X=inv(A) X = -3 2 2 -1 3 2 2 1

Ou seja, A1 = > A*X ans = 1 0 0 1

. Fa camos a verica c ao de que AX = XA = I2 :

> X*A ans = 1 0 0 1

Uma forma um pouco mais rebuscada e a utiliza c ao de um operador boleano para se aferir da veracidade das igualdades. Antes de nos aventurarmos nesse campo, e sem pretender deviarmo-nos

24

CAP ITULO 2. CALCULO MATRICIAL

do contexto, atribua a a e a b os valores 2 e 3, respectivamente: > a=2;b=3; Suponha agora que se pretende saber se os quadrados de a e de b s ao iguais. Em linguagem matem atica, tal seria descrito por a2 = b2 . Como e obvio, no Octave tal seria sujeito de dupla signica c ao: o s mbolo = refere-se a uma atribui c ao ` a vari avel ou parte de uma proposi c ao? Como vimos anteriormente, = tem sido repetidamente usado como s mbolo de atribui c ao (como por exemplo em a=2); se se pretende considerar = enquanto s mbolo de uma proposi c ao, ent ao usa-se ==. O resultado ser a 1 se a proposi c ao e verdadeira e 0 caso contr ario. Por exemplo, > a^2==b^2 ans = 0 > a^2!=b^2 ans = 1 Usou-se1 != para indicar =. Voltemos ent ao ao nosso exemplo com as matrizes. Recorde que se pretende averiguar sobre a igualdade AX = I2 . O Octave tem uma fun c ao pr e-denida que constr oi a matriz identidade de ordem n: eye(n). Por exemplo, a matriz I3 e obtida com > eye(3) ans = 1 0 0 0 1 0 0 0 1

Portanto, a verica c ao de AX = I2 e feita com: > A*X==eye(2) ans = 1 1 1 1

A resposta veio em forma de tabela 2 2: cada entrada indica o valor boleano da igualdade componente a componente. Suponha que as matrizes t em ordem sucientemente grande por forma a tornar a detec c ao de um 0 morosa e sujeita a erros. Uma alternativa ser a fazer > all(all(A*X==eye(2))) ans = 1

De facto poder-se-ia ter usado tamb em =, estando esta palavra tamb em em conson ancia com a sintaxe do MatLab.

2.2. OPERAC OES MATRICIAIS Teorema 2.2.3. Dadas duas matrizes U e V de ordem n, ent ao U V e invert vel e (U V )1 = V 1 U 1 . Demonstra c ao. Como (U V ) V 1 U 1 = U V V 1 U 1 = U In U 1 = U U 1 = In e V 1 U 1 (U V ) = V 1 U 1 U V = V 1 In V = V 1 V = In , segue que U V e invert vel e a sua inversa e V 1 U 1 .

25

Ou seja, o produto de matrizes invert veis e de novo uma matriz invert vel, e iguala o produto das respectivas inversas por ordem inversa. Duas matrizes A e B , do mesmo tipo, dizem-se equivalentes, e denota-se por A B , se existirem matrizes U, V invert veis para as quais A = U BV . Repare que se A B ent ao 1 1 B A, j a que se A = U BV , com U, V invert veis, ent ao tamb em B = U AV . Pelo teorema anterior, se A B ent ao A e invert vel se e s o se B e invert vel. As matrizes A e B s ao equivalentes por linhas se existir U invert vel tal que A = U B . E obvio que se duas matrizes A e B s ao equivalentes por linhas, ent ao s ao equivalentes, ou seja, A B. Se uma matriz U for invert vel, ent ao a sua transposta U T tamb em e invert vel e U T A prova e imediata, bastando para tal vericar que inversa, seguindo o resultado pela unicidade. Segue tamb em pela unicidade da inversa que A1
1 T U 1 . T U 1 1

satisfaz as condi c oes de

= A,

isto e, que a inversa da inversa de uma matriz e a pr opria matriz.

Octave Fa camos a verica c ao desta propriedade com a matriz A = > B=A; > inv(A)==(inv(A)) ans = 1 1 1 1 1 2 4 3 :

26

CAP ITULO 2. CALCULO MATRICIAL

Vimos, atr as, que o produto de matrizes triangulares inferiores [resp. superiores] e de novo uma matriz triangular inferior [resp. superior]. O que podemos dizer em rela c ao ` a inversa, caso exista? Teorema 2.2.4. Uma matriz quadrada triangular inferior [resp. superior] e invert vel se e s o se tem elementos diagonais n ao nulos. Neste caso, a sua inversa e de novo triangular inferior [resp. superior]. Antes de efectuarmos a demonstra c ao, vejamos a que se reduz o resultado para matrizes a11 0 (quadradas) de ordem de 2, triangulares inferiores. Seja, ent ao, L = , que a21 a22 x y , donde z w segue, em particular, que a11 x = 1, e portanto a11 = 0 e x = a1 . Assim, como a11 y = 0 e 11 a11 = 0 tem-se que y = 0. Ou seja, a inversa e triangular inferior. Como y = 0, o produto da segunda linha de L com a segunda coluna da sua inversa e a22 w, que iguala (I )22 = 1. 1 Portanto, a22 = 0 e w = a11 . O produto da segunda linha de L com a primeira coluna da sua a21 inversa e a21 a1 + a22 z , que iguala (I )21 = 0. Ou seja, z = a11 a22 . 11 supusemos invert vel. Portanto, existem x, y, z, w K para os quais I2 = L Demonstra c ao. A prova e feita por indu c ao no n umero de linhas das matrizes quadradas. Para n = 1 o resultado e trivial. Assuma, agora, que as matrizes de ordem n triangulares inferiores invert veis s ao exactamente aquelas que t em elementos diagonais n ao nulos. Seja A = [aij ] uma matriz triangular inferior, quadrada de ordem n + 1. Particione-se a matriz por blocos da forma seguinte: a11 O , b A onde b e n 1, O e 1n e A e n n triangular inferior. x Y Por um lado, se A e invert vel ent ao existe inversa de A, com x11 , Y1n , Zn1 , Z W Wnn . Logo a11 x = 1 e portanto a11 = 0 e x = a1 . Assim, como a11 Y = 0 e a11 = 0 11 tem-se que Y = 0. O bloco (2, 2) do produto e ent ao AW , que iguala In . Sabendo que a11 O 1 0 x Y = , tem-se que tamb em W A = In , e portanto A e invert vel, Z W 0 In b A n n, com (A)1 = W . Usando a hip otese de indu c ao aplicada a A, os elementos diagonais de A, que s ao os elementos diagonais de A ` a excep c ao de a11 (que j a mostr amos ser n ao nulo) s ao n ao nulos. Reciprocamente, suponha que os elementos diagonais de A s ao n ao nulos, e portanto que os elementos diagonais de A s ao n ao nulos. A hip otese de indu c ao garante-nos a invertibilidade 1 0 a11 de A. Basta vericar que e a inversa de A. 1 1 a11 A b A1

2.2. OPERAC OES MATRICIAIS

27

0 1 . Esta 1 0 matriz e invert vel, e V 1 = V T (verique!). Este tipo de matrizes denominam-se por ortogonais. Mais claramente, uma matriz ortogonal e uma matriz (quadrada) invert vel, e cuja inversa iguala a sua transposta. De forma equivalente, uma matriz A invert vel diz-se ortogonal se AAT = AT A = I . Para nalizar esta sec c ao, e como motiva c ao, considere a matriz V = Teorema 2.2.5. 1. A inversa de uma matriz ortogonal e tamb em ela ortogonal.

2. O produto de matrizes ortogonais e de novo uma matriz ortogonal. Demonstra c ao. (1) Seja A uma matriz ortogononal, ou seja, para a qual a igualdade AT = A1 1 T e v alida. Pretende-se mostrar que A1 e ortogonal; ou seja, que A1 = A1 . Ora A1 = AT = A1 . (2) Sejam A, B matrizes ortogonais. Em particular s ao matrizes invert veis, e logo AB e invert vel. Mais, (AB )1 = B 1 A1 = B T AT = (AB )T .
T 1 1

Imp oe-se aqui uma breve refer encia aos erros de arredondamento quando se recorre a um sistema computacional num erico no c alculo matricial. Considere a matriz A = A matriz e ortogonal j a que AAT = AT A = I2 .
2 2

2 2

2 2 2 2

Octave Denamos a matriz A no Octave: > A=[sqrt(2)/2 sqrt(2)/2; -sqrt(2)/2 sqrt(2)] A = 0.70711 -0.70711 0.70711 1.41421

Verique-se se AAT = AT A: > all(all(A*A==A*A)) ans = 0 A proposi c ao e falsa! Calcule-se, ent ao, AAT AT A: > A*A-A*A ans = 0.0000e+00 -8.5327e-17 -8.5327e-17 0.0000e+00

28

CAP ITULO 2. CALCULO MATRICIAL

premente alertar para o facto de erros de arredondamento provocarem arma E c oes falsas. Teste algo t ao simples como > (sqrt(2))^2==2

T . Ou seja, (A )ij = (A)ji . Esta diz-se herm A transconjugada de A e a matriz A = A tica (ou hermitiana ) se A = A. Sejam A, B matrizes complexas de tipo apropriado e C. Ent ao 1. (A ) = A; 2. (A + B ) = A + B ; 3. (A) = A ; 4. (AB ) = B A ; 5. (An ) = (A )n , para n N; A prova destas arma c oes e an aloga ` a que apresent amos para a transposta, e ca ao cuidado do leitor. Uma matriz unit aria e uma matriz (quadrada) invert vel, e cuja inversa iguala a sua transconjugada. De forma equivalente, uma matriz A invert vel diz-se unit aria se AA = A A = I . Teorema 2.2.6. 1. A inversa de uma matriz unit aria e tamb em ela unit aria.

2. O produto de matrizes unit arias e de novo uma matriz unit aria. Remetemos o leitor ao que foi referido no que respeitou as matrizes ortogonais para poder elaborar uma prova destas arma c oes.

2.3
2.3.1

Um resultado de factoriza c ao de matrizes


Matrizes elementares

Nesta sec c ao, iremos apresentar um tipo de matrizes que ter ao um papel relevante em resultados vindouros: as matrizes elementares. Estas dividem-se em tr es tipos:

DE MATRIZES 2.3. UM RESULTADO DE FACTORIZAC AO

29

a = 0; Dk (a) =

1 .. . 1 1 a 0 k .. . 1 0

i = j ; Eij (a) =

1 .. . 1 .. . 0 j a . . . 1

i 1

..

Pij =

1 .. . 1 0 1 .. 1 . 1 0 1 .. i j . 1 1

Ou seja, as matrizes elementares de ordem n s ao obtidas da matriz identidade In fazendo: para Dk (a), substituindo a entrada (k, k ) por a; para Eij (a), substituindo a entrada (i, j ) por a; para Pij , trocando as linhas i e j (ou de outra forma, as colunas i e j ).

30

CAP ITULO 2. CALCULO MATRICIAL

E obvio que D (1) = Eij (0) = Pkk = In . A primeira propriedade que interessa referir sobre estas matrizes e que s ao invert veis. Mais, para a, b K, a = 0, 1 (Dk (a))1 = Dk a (Eij (b))1 = Eij (b), para i = j (Pij )1 = Pij A segunda, relevante para o que se segue, indica outro o modo de se obter as matrizes Dk (a) e Eij (a) da matriz identidade, cujas linhas s ao denotadas por l1 , l2 , . . . , ln : para Dk (a), substituindo a linha k por a lk ; para Eij (a), substituindo a linha i por li + a lj . Aplicando o mesmo racioc nio, mas considerando as colunas c1 , c2 , . . . , cn da matriz identidade: para Dk (a), substituindo a coluna k por a ck ; para Eij (a), substituindo a coluna j por cj + a ci .

Octave Considere as matrizes 3 3 elementares D = D2 (5); E = E23 (3); P = P13 . Recorde que a matriz I3 e dada por eye(3). > > > D D=eye(3); D(2,2)=5; D = 1 0 0 > > > E 0 5 0 0 0 1

E=eye(3); E(2,3)=3; E = 1 0 0 0 1 0 0 3 1

DE MATRIZES 2.3. UM RESULTADO DE FACTORIZAC AO

31

> > > > P

I3=eye(3); P=I3; P(1,:)=I3(3,:); P(3,:)=I3(1,:); P = 0 0 1 0 1 0 1 0 0

Nesta u ltima matriz, as instru c oes P(1,:)=I3(3,:); P(3,:)=I3(1,:); indicam que a primeira linha de P e a terceira de I3 e a terceira de P e a primeira de I3 .

O que sucede se, dada uma matriz A, a multiplicarmos ` a esquerda ou ` a direita2 por uma matriz elementar? Vejamos com alguns exemplos, tomando 4 2 0 1 A = 1 1 0 , P = P12 , E = E31 (2), D = D2 . 2 2 1 4 Vamos usar o Octave para determinar o produto DEP A. Para tal, faremos primeiro P A, a este produto fazemos a multiplica c ao, ` a esquerda, por E , e nalmente ao produto obtido a multiplica c ao por D, de novo ` a esquerda.

Octave Vamos ent ao denir as matrizes A,P,E,D no Octave: > > > > > A=[4 2 0; 1 1 0; 2 -1 4]; I3=eye(3); E=I3; E(3,1)=-2; P=I3; P(1,:)=I3(2,:); P(2,:)=I3(1,:); D=I3; D(2,2)=1/2;

Fa camos o produto P A: > P*A ans =


Recorde que o produto matricial n ao e, em geral, comutativo, pelo que e relevante a distin ca o dos dois casos.
2

32 1 4 2 1 2 -1 0 0 4

CAP ITULO 2. CALCULO MATRICIAL

Qual a rela c ao entre A e P A? Repare que ocorreu uma troca da primeira e da segunda linha de A. Que por sinal foram as mesmas trocas que se efectuaram a I3 de forma a obtermos P12 . ` matriz P A, multiplicamo-la, ` A a esquerda, por E : > E*P*A ans = 1 4 0 1 2 -3 0 0 4

> D*E*P*A ans = 1 2 0 1 1 -3 0 0 4

Uma matriz permuta c ao de ordem n e uma matriz obtida de In ` a custa de trocas de suas linhas (ou colunas). Aqui entra o conceito de permuta c ao. Uma permuta c ao no conjunto Nn = {1, 2, . . . , n} e uma bijec c ao (ou seja, uma aplica c ao simultaneamente injectiva e sobrejectiva) de Nn em Nn . Uma permuta c ao : Nn Nn pode ser representada pela tabela 1 2 n . Para simplicar a escrita, e habitual omitir-se a primeira linha, (1) (2) (n) j a que a posi c ao da imagem na segunda linha indica o ( unico) objecto que lhe deu origem. Deni c ao 2.3.1. O conjunto de todas as permuta c oes em Nn e denotado por Sn e denominado por grupo sim etrico. Como exemplo, considere a permuta c ao = (2, 1, 5, 3, 4) S5 . Tal signica que (1) = 2, (2) = 1, (3) = 5, (4) = 3, (5) = 4. Note que Sn tem n! = n(n 1)(n 2) . . . 2 1 elementos. De facto, para = (i1 , i2 , . . . , in ) Sn , i1 pode tomar n valores distintos. Mas i2 apenas pode tomar um dos n 1 restantes,

DE MATRIZES 2.3. UM RESULTADO DE FACTORIZAC AO

33

j a que n ao se podem repetir elementos. E assim por diante. Obtemos ent ao n! permuta c oes distintas. Dada a permuta c ao = (i1 , i2 , . . . , in ) Sn , se 1 j < k n e ij > ik ent ao ij > ik diz-se uma invers ao de . Na permuta c ao = (2, 1, 5, 3, 4) acima exemplicada existem tr es invers oes, j a que (1) > (2), (3) > (4), (3) > (5). O sinal de uma permuta c ao , denotado por sgn(), toma o valor +1 caso o n umero de invers oes seja par, e 1 caso contr ario. Portanto, sgn( ) = 1. As permuta c oes com sinal +1 chamam-se permuta c oes pares (e o conjunto por elas formado chama-se grupo alterno, An ), e as cujo sinal e 1 denominam-se por permuta c oes mpares. Uma transposi c ao e uma permuta c ao que xa todos os pontos ` a excep c ao de dois. Ou seja, Sn e uma transposi c ao se existirem i, j distintos para os quais (i) = j, (j ) = i e (k ) = k para todo o k diferente de i e j . Verica-se que toda a permuta c ao se pode escrever como composi c ao de transposi c oes 1 , 2 , . . . , r . Ou seja, = 1 2 r . Esta decomposi c ao n ao eu nica, mas quaisquer duas decomposi c oes t em a mesma paridade de transposi c oes. Ou seja, se existe uma decomposi c ao com um n umero par [resp. mpar] de intervenientes, ent ao qualquer outra decomposi c ao tem um n umero par [resp. mpar] de transposi c oes. Mais, esse n umero tem a mesma paridade da do n umero de invers oes. Por consequ encia, o sinal de qualquer transposi c ao e 1. A permuta c ao denida atr as pode-se decompor como (2, 1, 5, 3, 4) = (2, 1, 3, 4, 5) (1, 2, 5, 4, 3) (1, 2, 4, 3, 5). O conjunto das permuta c oes Sn pode ser identicado com o conjunto das matrizes permuta c ao de ordem n, em que a composi c ao de permuta c ao e de uma forma natural identicado com o produto de matrizes. A matriz permuta c ao P associada ` a permuta c ao e a matriz obtida de I5 realizando as trocas de linhas segundo . Para f acil compreens ao, vamos recorrer ao Octave.

Octave

> I5=eye(5); > P=I5([2 1 5 3 4], :) P = 0 1 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 0 1 0 0 1 0 0

Na primeira linha de P surge a segunda de I5 , na segunda a primeira, na terceira a quinta de I5 , e assim por diante. De facto, toda a matriz permuta c ao pode-se escrever como produto de matrizes da forma

34

CAP ITULO 2. CALCULO MATRICIAL

Pij , tal como denidas atr as. Tal e consequ encia da exist encia de uma decomposi c ao da permuta c ao em transposi c oes. Note que as transposi c oes se identicam com as matrizes Pij . Voltemos ao Octave e ao exemplo acima:

Octave Em primeiro lugar, denamos as matrizes associadas ` as transposi c oes, e fa camos o seu produto: > P1=I5([2 1 3 4 5], :); > P2=I5([1 2 5 4 3], :); > P3=I5([1 2 4 3 5], :); > P1*P2*P3 ans = 0 1 0 0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 0 1 0 0 1 0 0

O produto iguala a matriz P associada ` a permuta c ao escolhida: > all(all(P==P1*P2*P3)) ans = 1

Opera c oes elementares sobre as linhas de A s ao as que resultam pela sua multiplica c ao a esquerda por matrizes elementares. Ou seja, s ` ao opera c oes elementares por linhas de uma matriz a troca de duas linhas, a multiplica c ao de uma linha por um escalar n ao nulo, a substitui c ao de uma linha pela sua soma com um m ultiplo de outra linha. De forma an aloga se denem as opera c oes elementares sobre as colunas de uma matriz, sendo a multiplica c ao por matrizes elementares feita ` a direita da matriz. Na pr atica, tal resulta em substituir a palavralinha pela palavra coluna na descri c ao acima. 2 4 6 Considere a matriz A = 1 4 2 . Em primeiro lugar, e efectuando opera c oes 1 0 1 elementares nas linhas de A, tentaremos obter zeros por debaixo da entrada (A)11 . Ou seja,

DE MATRIZES 2.3. UM RESULTADO DE FACTORIZAC AO 2 4 6 pretendemos obter algo como 0 ? ? . Substitua-se a 0 ? ? com o sim etrico de metade da primeira. Ou seja, 2 2 4 6 1 1 4 2 l2 l2 l1 0 2 1 1 0 1

35

segunda linha, l2 , pela sua soma

4 6 2 1 0 1

1 0 0 1 Tal corresponde a multiplicar ` a esquerda a matriz A por E21 ( 1 camos 2 ) = 2 1 0 . Fa 0 0 1 o mesmo racioc nio para a terceira linha: 2 4 6 2 4 6 2 4 6 1 1 1 4 2 l2 l2 l1 0 2 1 l3 l3 + l1 0 2 1 2 2 1 0 1 1 0 1 0 2 4 Tal correspondeu a multiplicar o produto obtido no passo Ou seja, e at e ao momento, obteve-se 2 4 6 1 1 E31 ( )E21 ( )A = 0 2 1 2 2 0 2 4
1 ). anterior, ` a esquerda, por E31 ( 2

= B.

Todos os elementos na primeira coluna de B , ` a excep c ao de (B )11 , s ao nulos. Concentremonos agora na segunda coluna, e na segunda linha. Pretendem-se oes elemen efectuar opera c 2 4 6 tares nas linhas de B por forma a obter uma matriz da forma 0 2 1 . Para tal, 0 0 ? 2 4 6 2 4 6 0 2 1 l3 l3 l2 0 2 1 = U. 0 2 4 0 0 5 Ou seja, multiplicou-se B , ` a esquerda, pela matriz E32 (1). E32 (1)B = U podemos concluir que 2 1 1 E32 (1)E31 ( )E21 ( )A = U = 0 2 2 0
1 Como B = E31 ( 1 2 )E21 ( 2 )A e

4 6 2 1 0 5

Repare que U e uma matriz triangular superior, e que neste exemplo tem elementos diagonais n ao nulos, e portanto e uma matriz invert vel. Como as matrizes elementares s ao invert veis 1 1 e (E32 (1)E31 ( 1 ) E ( )) U = A , segue que a matriz A e tamb e m ela invert vel. Note 21 2 2 1 1 1 1 ainda que (E32 (1)E31 ( 2 )E21 ( 2 )) = E21 ( 1 egia descrita acima 2 )E31 ( 2 )E32 (1). A estrat

36

CAP ITULO 2. CALCULO MATRICIAL

aplicada ` a matriz A e denominada por algoritmo de elimina c ao de Gauss. O resultado nal foi a factoriza c ao A = LU , onde U e uma matriz triangular superior (veremos mais adiante que de facto pertence a uma subclasse desse tipo de matrizes) e L e uma matriz invert vel triangular inferior (por ser a inversa de produto de matrizes invert veis triangulares inferiores). Nem sempre e poss vel percorrer estes passos do algoritmo, para uma matriz dada arbitrariamente. Veremos, na pr oxima sec c ao, que modica c oes se realizam na estrat egia apresentada acima por forma a que se garanta algum tipo de factoriza c ao.

Octave Consideremos a matriz A dada por > A=[2 4 6;2 2 2;-1 0 1]; ` segunda linha de A soma-se o sim A etrico da primeira linha: > I3=eye(3); E21=I3; E21(2,1)=-1; > A2=E21*A A2 = 2 0 -1 4 -2 0 6 -4 1

` terceira, somamos a primeira multiplicada por 1 : A 2 > E31=I3; E31(3,1)=0.5; > A3=E31*A2 ans = 2 0 0 4 -2 2 6 -4 4

Finalmente, ` a terceira somamos a segunda linha: > E32=I3; E32(3,2)=1; > A4=E32*A3 A4 = 2 0 0 4 -2 0 6 -4 0

DE MATRIZES 2.3. UM RESULTADO DE FACTORIZAC AO

37

A matriz A4 obtida e triangular superior, com um elemento diagonal nulo. Logo, a matriz inicial A n ao e invert vel. O Octave cont em o algoritmo numa sua rotina: > [l,u,p]=lu(A) l = 1.00000 1.00000 -0.50000 u = 2 0 0 p = 1 0 0 0 1 0 0 0 1 4 -2 0 6 -4 0 0.00000 1.00000 -1.00000 0.00000 0.00000 1.00000

Aqui, u indica a matriz nal do algoritmo e l a inversa do produto das matrizes elementares da forma Eij () envolvidas: > (E32*E31*E21)^-1 A matriz p e neste caso a identidade, e n ao tem nenhum papel. Mais ` a frente veremos a import ancia desta matriz (quando n ao e a identidade). Obtivemos, ent ao, a factoriza c ao lu=A. O exemplo escolhido foi, de facto, simples na aplica c ao. Alguns passos podem n ao ser poss veis, nomeadamente o primeiro. Repare que o primeiro passo envolve uma divis ao (no nosso caso, dividimos a linha 1 por (A)11 ). A prop osito, os elementos-chave na divis ao, ou de forma mais clara, o primeiro elemento n ao nulo da linha a que vamos tomar um seu m ultiplo denomina-se por pivot. Ora esse pivot tem que ser n ao nulo. E se for nulo? Nesse caso, trocamos essa linha por outra mais abaixo que tenha, nessa coluna, um elemento n ao nulo. E se todos forem nulos? Ent ao o processo terminou para essa coluna e consideramos a coluna seguinte. Apresentamos dois exemplos, um para cada um dos casos descritos: 0 1 2 0 1 1 1 1 2 ; 0 6 7 . 3 2 9 0 1 2

38

CAP ITULO 2. CALCULO MATRICIAL

No primeiro caso, a troca da primeira linha pela linha dois ou tr es resolve o problema. No segundo caso, aplicamos a estrat egia a partir da segunda coluna. Recorde que a troca da linha i pela linha j e uma opera c ao elementar de linhas que corresponde ` a multiplica c ao, ` a esquerda, por Pij . Apresentamos, de seguida, o algoritmo de elimina c ao de Gauss de uma forma mais formal.

2.3.2

O Algoritmo de Elimina c ao de Gauss

O Algoritmo de Elimina c ao de Gauss, (abrev. AEG), segue os passos que em baixo se descrevem: Seja A uma matriz m n n ao nula. 1. Assuma que (A)11 = 0. Se tal n ao acontecer, ent ao troque-se a linha 1 com uma linha i para a qual (A)i1 = 0. Ou seja, multiplique A, ` a esquerda, por P1i . Para simplicar a nota c ao, A denotar a tanto a matriz original como a obtida por troca de duas das suas linhas. A (A)11 chamamos pivot do algoritmo. Se todos os elementos da primeira coluna s ao nulos, use 2. 2. Se a estrat egia indicada no passo 1 n ao for poss vel (ou seja, os elementos da primeira coluna s ao todos nulos), ent ao aplique de novo o passo 1 ` a submatriz obtida de A retirando a primeira coluna. 3. Para i = 2, . . . , m, e em A, substitua a linha i pela sua soma com um m ultiplo da linha 1 por forma a que o elemento obtido na entrada (i, 1) seja 0. Tal corresponde a (A)i1 multiplicar a matriz A, ` a esquerda, por Ei1 ( A)11 . 4. Repita os passos anteriores ` a submatriz da matriz obtida pelos passos descritos, a que se retirou a primeira linha e a primeira coluna. Ap os se aplicar o passo 3 em todas as linhas e na primeira coluna, e supondo que (A)11 = 0, a matriz que se obtem tem a forma seguinte: (A)11 (A)12 (A)13 (A)1n 0 ? ? ? 0 ? ? ? . . . . ? ? ? 0 ? ? ? Ou seja, e por opera c oes elementares de linhas, podemos obter de A uma matriz com a (A)11 forma . O algoritmo continua agora aplicado ` a matriz A segundo os pas0 A sos 1, 2 e 3. Note que as opera c oes elementares operadas nas linhas de A s ao tamb em (A)11 elas opera c oes elementares realizadas nas linhas de . As opera c oes elementa0 A res efectuadas em A d ao origem a uma matriz da forma (A)11 0 A , onde consideramos

DE MATRIZES 2.3. UM RESULTADO DE FACTORIZAC AO (A)11 A 0

39

(A)11 = 0. Essas opera c oes elementares aplicadas ` as linhas de

d ao lugar ` a ma-

(A)11 . . . (A)1m (A)11 triz 0 os que as entradas (i, i) s ao n ao nulas, ou que . Note que se sup 0 0 A existe uma troca conveniente de linhas por forma a se contornar essa quest ao. Como e obvio, tal pode n ao ser poss vel. Nesse caso aplica-se o passo 2. Ou seja, e quando tal acontece, tal corresponde ` a ao exist encia n de pivots em colunas consecutivas. Como exemplo, considere a 2 2 2 2 matriz M = 2 2 2 0 . Multiplicando esta matriz, ` a esquerda, por E31 ( 1 2 )E21 (1), 1 1 0 1 ou seja, substiuindo a linha 2 pela sua soma com o sim etrico da linha1, e a linha 3 pela 2 2 2 2 sua soma com metade do sim etrico da linha 1, obtemos a matriz M2 = 0 0 0 2 . 0 0 1 0 0 0 2 . Note que a esta submatriz 0 1 0 teremos que aplicar (2) por impossibilidade de se usar (1); de facto, n ao h a elementos n ao nulos na primeira coluna de M . Seja, ent ao, M2 a matriz obtida de M a que retirou a pri0 2 necess meira coluna; ou seja, M2 = . E ario fazer a troca das linhas por forma 1 0 a obtermos um elemento n ao nulo que ter a as fun c oes de pivot. Essa troca e uma de linhas 2 2 2 2 opera c ao elementar tamb em na matriz original M2 = 0 0 0 2 . Tal corresponde 0 0 1 0 a multiplic a-la, ` a esquerda, por P23 . Repare que, sendo os elementos nas linhas 2 e 3 e nas colunas 1 e 2 nulos, a troca das linhas de facto apenas altera as entradas que est ao simultaneamente e nas entradas ` a direita do novo pivot. Obtemos, assim, a nas linhas envolvidas 2 2 2 2 matriz 0 0 1 0 . A matriz obtida tem uma particularidade: debaixo de cada pivot 0 0 0 2 todos os elementos s ao nulos. Aplicamos agora o algoritmo ` a submatriz M =

Octave I3 indica a matriz identidade de ordem 3. > > > > > M=[2 2 2 2;2 2 2 0;1 1 0 1] P23=I3([1 3 2],:); E31=I3; E31(3,1)=-0.5; E21=I3; E21(2,1)=-1; P23*E31*E21*M

40 U = 2 0 0 2 0 0 2 -1 0 2 0 -2

CAP ITULO 2. CALCULO MATRICIAL

Como foi referido, a matriz obtida por aplica c ao dos passos descritos no Algoritmo de Elimina c ao de Gauss tem uma forma muito particular. De facto, debaixo de cada pivot todos os elementos s ao nulos. A esse tipo de matriz chamamos matriz escada (de linhas). Uma matriz A = [aij ] e matriz escada (de linhas) se (i) se aij = 0 com aik = 0, para k < j , ent ao alk = 0 se k j e l > i; (ii) as linhas nulas surgem depois de todas as outras. Sempre que o contexto o permita, diremos matriz escada para signicar matriz escada de linhas. 2 2 2 2 A matriz U = 0 0 1 0 e uma matriz escada (de linhas) que se obteve de M por 0 0 0 2 aplica c ao dos passos (1)(4). E obvio que uma matriz escada e triangular superior, mas o 0 1 . rec proco n ao e v alido em geral. Como exemplo, considere a matriz 0 1 Teorema 2.3.2 (Factoriza c ao P A = LU ). Dada uma matriz A, existem matrizes P permuta c ao, L triangular inferior com 1s na diagonal principal e U matriz escada para as quais P A = LU . Ou seja, a matriz A iguala P 1 LU . Portanto, toda a matriz e equivalente por linhas a uma matriz escada de linhas. Antes de procedermos ` a prova deste resultado, abrimos um par enteses para apresentarmos dois exemplos que servem de motiva c a o ao lema que se segue. 0 3 2 Considere a matriz A = 1 3 0 . A troca da primeira com a segunda linhas 1 3 5 1 3 0 d a origem ` a matriz A = 0 3 2 , a qual, e usando o AEG descrito atr as, satisfaz 1 3 5 1 3 0 E32 (2)E31 (1)A = 0 3 2 . Ou seja, existem matrizes P permuta c ao, L triangular 0 0 1

DE MATRIZES 2.3. UM RESULTADO DE FACTORIZAC AO

41

inferior com 1s na diagonal e U matriz escada para as quais P A = LU . Para tal, basta tomar 0 1 0 1 3 0 P = 1 0 0 , L = (E32 (2)E31 (1))1 = E31 (1)E32 (2), e U = 0 3 2 . 0 0 1 0 0 1 1 1 1 1 1 1 Considere agora a matriz M = 0 0 1 . Ora E31 (1)M = 0 0 1 , o que 1 0 1 0 1 0 1 1 1 for ca a troca da segunda pela terceira linha. Obtemos, assim, P23 E31 (1)M = 0 1 0 , 0 0 1 que e uma matriz escada. Neste caso, como se obt em as matrizes P, L, U do teorema? Ao contr ario do exemplo anterior, a realiza c ao matricial das opera c oes elementares por linhas do AEG n ao nos fornece, de forma imediata, essa factoriza c a o. No entanto, poder-se-ia escrever 1 1 1 1 1 1 1 E31 (1)M = P23 0 1 0 , j a que P23 = P23 , e portanto M = E31 (1)P23 0 1 0 , 0 0 1 0 0 1 1 pois E31 (1) = E31 (1). Note que E31 (1)P23 ao obstante, repare que = P23 E31 (1). N 1 1 1 E31 (1)P23 = P23 E21 (1), donde M = P23 E21 (1) 0 1 0 , e portanto P A = LU , com 0 0 1 1 1 1 P = P23 , L = E21 (1) e U = 0 1 0 . 0 0 1 Lema 2.3.3. Para i, k, l > j , e para todo o a K, e v alida a igualdade Eij (a)Pkl = Pkl Elj (a). Demonstra c ao. Se k = i, ent ao a igualdade e obvia. Suponha que k = i. Pretende-se mostrar que Eij (a)Pil = Pil Elj (a), com i, l > j . Sendo Pil Elj (a) a matriz obtida de Elj (A) trocando as linhas i e l, e visto a linha l de Elj (a) ser [0 0 a 0 j 0 1 0 l 0]

ent ao a linha i de Pil Elj (a) e [0 0 a 0 j 0 1 0 l 0] .

Eij (a)Pil e a matriz obtida de Pil a que ` a linha i se somou a linha j de Pil multiplicada por a. Sendo a linha i de Pil [0 0 0 1 0 l 0]

42 e a linha j de Pil , e j a que j < i, l, [0 0

CAP ITULO 2. CALCULO MATRICIAL

0 1 0 j

0]

segue que a linha i de Eij (a)Pil e a soma [0 0 0 1 0 l 0]+ a [0 0 0 1 0 j 0]

= [0

0 a 0 j

0 1 0 l

0]

Para k = i, a linha k de Eij (a)Pil e a linha k de Pil , sendo esta a linha k da matriz identidade se k = l, ou a linha i da identidade se k = l. Por sua vez, a linha k de Pil Elj (a) e a linha k da ientidade se k = l, ou e a linha i de In se k = l. Demonstra c ao do teorema 2.3.2. A prova segue da aplica c ao do algoritmo de elimina c ao de Gauss, fazendo-se uso do lema para se obter a factoriza c ao da forma U = P LA, onde os pivots do algoritmo s ao o primeiro elemento n ao nulo de cada linha (n ao nula) de U . A caracter stica de uma matriz A, denotada por car(A), por c(A) ou ainda por rank(A), e o n umero de linhas n ao nulas na matriz escada U obtida por aplica c ao do Algoritmo de Elimina c ao de Gauss. Ou seja, e sabendo que toda a linha n ao nula de U tem exactamente 1 pivot que corresponde ao primeiro elemento n ao nulo da linha, a caracter stica de A e o n umero de pivots no algoritmo (ainda que o u ltimo possa n ao ser usado, por exemplo, no caso de estar 2 2 2 2 na u ltima linha). Note ainda que car(A) = car(U ). Por exemplo, car 2 2 2 0 = 3, j a 1 1 0 1 que a matriz escada obtida desta tem 3 linhas n ao nulas. Uma matriz quadrada A de ordem n diz-se n ao-singular se car(A) = n. Ou seja, A e n ao-singular se forem usados n pivots no algoritmo de elimina c ao de Gauss. Uma matriz e singular se n ao for n ao-singular. Teorema 2.3.4. As matrizes n ao-singulares s ao exactamente as matrizes invert veis. Demonstra c ao. Seja A uma matriz quadrada, e U a matriz escada obtida de A por Gauss. Por um lado, se A e invert vel, e como A U , segue que U e invert vel, quadrada. Como U e triangular superior, n ao pode ter linhas nulas caso constr ario teria um elemento diagonal nulo, o que contraria a invertibilidade de U . Por outro lado, se A e n ao-singular ent ao U n ao tem linhas nulas. Como cada coluna de U tem no m aximo 1 pivot, e existem n linhas e n pivots, ent ao cada linha tem exactamente

DE MATRIZES 2.3. UM RESULTADO DE FACTORIZAC AO

43

1 pivot. Ou seja, os elementos diagonais de U s ao n ao nulos. Como U e triangular superior, segue que U e invert vel, e portanto A e invert vel visto A U . Teorema 2.3.5. Se A e uma matriz n ao-singular, ent ao existe uma matriz P permuta c ao tal que P A e factoriz avel, de forma u nica, como P A = LU , onde L e triangular inferior com 1s na diagonal e U e uma matriz triangular superior com elementos diagonais n ao nulos. Demonstra c ao. A exist encia de tal factoriza c ao e consequ encia do teorema 2.3.2. Repare que, sendo a matriz n ao singular, tal signica que os pivots est ao presentes em todas as colunas de U . Assim, os elementos diagonais de U s ao os pivots, sendo estes n ao nulos. Resta-nos provar a unicidade. Para tal, considere as matrizes L1 , L2 triangulares inferiores com 1s na diagonal, e as matrizes U1 , U2 triangulares superiores com elementos diagonais diferentes de zero, matrizes essas que satisfazem P A = L1 U1 = L2 U2 . Portanto, L1 U1 = L2 U2 , o que 1 1 implica, e porque L1 , U2 s ao invert veis (porqu e?), que U1 U2 = L ao, 1 L2 . Como L1 , U2 s 1 1 respectivamente, triangulares inferior e superior, ent ao L e U s a o tamb e m triangulares 1 2 inferior e superior, respectivamente. Recorde que sendo a diagonal de L1 constituida por 1s, 1 e triangular ent ao a diagonal da sua inversa tem tamb em apenas 1s. Daqui segue que L 1 L2 1 e triangular superior. Sendo estes dois produtos inferior, com 1s na diagonal, e que U1 U2 1 1 L e uma matriz diagonal, com 1s na diagonal; ou seja, L iguais, ent ao L 2 1 L2 = I , e 1 portanto L1 = L2 . Tal leva a que L1 U1 = L1 U2 , o que implica, por multiplica c ao ` a esquerda 1 por L1 , que U1 = U2 .

Octave Ao se usar uma ferramenta computacional num erica e necess ario algum cuidado nos erros de truncatura. Como exemplo, considere a matriz A=[1E-5 1E5; 1E5 1E-5]. Esta matriz e n ao-singular, e a u nica (porqu e?) matriz escada obtida, sem quaisquer trocas de linhas, e 5 5 10 10 . Usando o Octave, 0 105 1015 > format long > E=eye (2); E(2,1)=-A(2,1)/A(1,1) E = 1 -10000000000 > E*A ans = 1.00000000000000e-05 -1.45519152283669e-11 1.00000000000000e+05 -1.00000000000000e+15 0 1

44

CAP ITULO 2. CALCULO MATRICIAL

Repare que a matriz n ao e triangular inferior, e que o elemento (2, 2) dessa matriz deveria ser 5 15 15 10 10 e n ao 10 como indicado. > (E*A)(2,2)==-1E15 ans = 1 > -1E15==-1E15+1E-5 ans = 1 Para o Octave, n ao existe distin c ao entre os dois n umeros, por erro de arrondamento. Embora o AEG seja pouco eciente neste tipo de quest oes, existem algumas altera c oes que s ao efectuadas por forma a contornar este problema. Um exemplo e a pivotagem parcial. Este algoritmo ser a descrito com detalhe noutra unidade curricular de MiEB. A ideia e, quando se considera um pivot na entrada (i, j ), percorrer os outros elementos que est ao por baixo dele e trocar a linha i com a linha do elemento que seja maior, em m odulo. Tal corresponde a multiplicar, ` a esquerda, por uma matriz da forma Pij . Esse algorimto est a implementado no Octave, sendo chamado pela instru c ao lu(A). > [L,U,P]=lu (A) L = 1.000000000000000 0.000000000100000 U = 1.00000000000000e+05 0.00000000000000e+00 P = 0 1 1 0 1.00000000000000e-05 1.00000000000000e+05 0.000000000000000 1.000000000000000

A matriz L indica a inversa do produto das matrizes elementares, U e a matriz escada, e P ea matriz permuta c ao. Obtemos, deste forma, a factoriza c ao P A = LU . > all(all(P*A==L*U)) ans = 1

2.4. DETERMINANTES

45

2.4
2.4.1

Determinantes
Deni c ao
a b c d a b c d = e suponha que a = 0. Aplicando o AEG, obtemos a a b 0 bc a +d . Ou seja, a matriz A e equivalente por

Considere a matriz A = factoriza c ao 1 c a 0 1

linhas ` a matriz U =

a b bc 0 a +d

, que e uma matriz triangular superior. Recorde que A

e invert vel se e s o se U for invert vel. Ora, a matriz U e invert vel se e s o se bc a + d = 0, ou de forma equivalente, se ad bc = 0. Portanto, A e invert vel se e s o se ad bc = 0. Este caso simples serve de motiva c ao para introduzir a no c ao de determinante de uma matriz. Na deni c ao que se apresenta de seguida, Sn indica o grupo sim etrico (ver Deni c ao 2.3.1).

Deni c ao 2.4.1. Seja A uma matriz quadrada de ordem n. O determinante de A, denotado por det A ou |A|, e o escalar denido por sgn( ) a1(1) a2(2) an(n) .
Sn

Vejamos o que resulta da f ormula quando consideramos matrizes 2 2 e matrizes 3 3. a11 a12 . Neste caso, o grupo sim etrico S2 tem apenas as permuta c oes a21 a22 1 = (1 2) e 2 = (2 1), sendo que sgn(1 ) = 1 e que sgn(2 ) = 1. Recorde que 1 (1) = 1, 1 (2) = 2, 2 (1) = 2 e 2 (2) = 1. Obtemos, ent ao, |A| = a11 a22 a12 a21 . Seja A =
00 11 11 00 00 11 00 11 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 00000000000 11111111111 0000000000011 11111111111 00 00 11 00 11 00 11

Figura 2.1: Esquema do c alculo do determinante de matrizes de ordem 2 a11 a12 a13 Seja agora A = a21 a22 a23 . Recorde que S3 tem 6 elementos. No quadro seguinte, a31 a32 a33 indicamos, respectivamente, a permuta c ao S3 , o seu sinal, e o produto a1(1) a2(2) an(n) .

46 Permuta c ao S3 (1 2 3) (2 3 1) (3 1 2) (1 3 2) (2 1 3) (3 2 1) Obtemos, assim, sgn( ) +1 +1 +1 1 1 1

CAP ITULO 2. CALCULO MATRICIAL a1(1) a2(2) an(n) a11 a22 a33 a12 a23 a31 a13 a21 a32 a11 a23 a32 a12 a21 a33 a13 a22 a31

|A| = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a11 a23 a32 a12 a21 a33 a13 a22 a31 Para f acil memoriza c ao, pode-se recorrer ao esquema apresentado de seguida.
000000000000000000000 111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 11111111111111111111 00000000000000000000 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 000000000000000000000 111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000 11111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111111 00000000000000000000000 11111111111111111111111

11 00 00 11 11 00 00 11

11 00 00 11

11 00 00 11

11 00 00 11

11 00 00 11

Figura 2.2: Esquema do c alculo do determinante de matrizes de ordem 3, ou a Regra de Sarrus

2.4.2

Propriedades

S ao consequ encia da deni c ao os resultados que de seguida apresentamos, dos quais omitimos a demonstra c ao. Teorema 2.4.2. Seja A uma matriz quadrada. 1. Se A tem uma linha ou uma coluna nula ent ao |A| = 0. 2. |A| = |AT |. 3. Se A e triangular (inferior ou superior) ent ao |A| =
i=1,...,n

(A)ii .

4. |Pij | = 1, |Dk (a)| = a, |Eij (a)| = 1, com i = j . Daqui segue que |In | = 1. Segue tamb em que dada uma matriz tringular (inferior ou superior) que esta e invert vel se e s o se tiver determinante n ao nulo. Mais adiante, apresentaremos um resultado que generaliza esta equival encia para matrizes quadradas n ao necessariamente triangulares. Teorema 2.4.3. Dada uma matriz A quadrada, a K,

2.4. DETERMINANTES 1. |Di (a)A| = a|A| = |ADi (a)|; 2. |Pij A| = |APij | = |A|; 3. |Eij (a)A| = |A| = |AEij (a)|.

47

Como |Di (A)| = a, |Pij | = 1 e |Eij (a)| = 1, segue que |Di (a)A| = |Di (a)||A|, |Pij A| = |Pij ||A| e que |Eij (a)A| = |Eij (a)||A|. Repare ainda que, se A e n n, e v alida a igualdade n n |A| = |A|, j a que A = i=1 Di ()A. De forma an aloga, dada uma matriz diagonal D com elementos diagonais d1 , d2 , . . . , dn , tem-se |DA| = d1 d2 dn |A| = |D||A|. Corol ario 2.4.4. Uma matriz com duas linhas/colunas iguais tem determinante nulo. Demonstra c ao. Se a matriz tem duas linhas iguais, digamos i e j , basta subtrair uma ` a outra, que corresponde a multiplicar ` a esquerda pela matriz Eij (1). A matriz resultante tem uma linha nula, e portanto tem determinante zero. Para colunas iguais, basta aplicar o mesmo racioc nio a AT . O corol ario anterior e pass vel de ser generalizado considerando n ao linhas iguais, mas tal que uma linha se escreva como soma de m ultiplos de outras linhas. O mesmo se aplica a colunas. Corol ario 2.4.5. Tem determinante nulo uma matriz que tenha uma linha que se escreve como a soma de m ultiplos de outras das suas linhas. Demonstra c ao. Suponha que a linha i, i , de uma matriz A se escreve como a soma de m ultiplos de outras das suas linhas, ou seja, que i = j J j j = j 1 j1 + j2 j2 + + js js . A linha i de Eij1 (j1 )A e a matriz obtida de A substituindo a sua linha i por i j1 j1 = j2 j2 + + js js . Procedemos ao mesmo tipo de opera c oes elementares por forma a obtermos uma matriz cuja linha i e nula. Como o determinante de cada uma das matrizes obtidas por opera c ao elementar de linhas iguala o determinante de A, e como a u ltima matriz tem uma linha nula, e logo o seu determinante e zero, segue que |A| = 0. Corol ario 2.4.6. Seja U a matriz obtida da matriz quadrada A por Gauss. Ent ao |A| = r (1) |U |, onde r indica o n umero de trocas de linhas no algoritmo. Sabendo que uma matriz e invert vel se e s o se a matriz escada associada (por aplica c ao de Gauss) e invert vel, e que esta sendo triangular superior e invert vel se e s o se os seus elementos diagonais s ao todos n ao nulos, segue que, e fazendo uso de resultados enunciados e provados anteriormente, Corol ario 2.4.7. Sendo A uma matriz quadrada de ordem n, as arma c oes seguintes s ao equivalentes: 1. A e invert vel; 2. |A| = 0; 3. car(A) = n;

48 4. A e n ao-singular.

CAP ITULO 2. CALCULO MATRICIAL

Portanto, uma matriz com duas linhas/colunas iguais n ao e invert vel. Mais, uma matriz que tenha uma linha que se escreva como soma de m ultiplos de outras das suas linhas n ao e invert vel. Teorema 2.4.8. Seja A e B matrizes n n. |AB | = |A||B |. Demonstra c ao. Suponha que A e invert vel. Existem matrizes elementares E1 , . . . , Es e uma matriz escada (de linhas) U tal que A = E1 E2 . . . Es U . Ora existem tamb em Es+1 , . . . , Er matrizes elementares, e U1 matriz T escada de linhas para as quais U = Es+1 . . . Er U1 . Note que neste u ltimo caso se pode pressup or que n ao houve trocas de linhas, j a que os pivots do AEG s ao os elementos diagonais de U j a que U T e triangular inferior, que s ao n ao nulos por A ser invert vel. Ora U1 e ent ao uma matriz triangular superior que se pode escrever como produto de matrizes triangulares inferiores, e portanto U1 e uma matriz diagonal. Seja D = U1 . Resumindo, T E T . . . E T . Recorde que, dada uma A = E1 E2 . . . Es (Es+1 . . . Er D)T = E1 E2 . . . Es DEr r 1 s+1 matriz elementar E , e v alida |EB | = |E ||B |. Ent ao,
T T T |AB | = |E1 E2 . . . Es DEr Er1 . . . Es +1 B | T T T = |E1 ||E2 . . . Es DEr Er1 . . . Es +1 B | T T T = |E1 ||E2 ||E3 . . . Es DEr Er1 . . . Es +1 B |

=
T T T = |E1 ||E2 ||E3 | . . . |Es ||D||Er ||Er 1 | . . . |Es+1 ||B | T T T = |E1 E2 E3 . . . Es DEr Er1 . . . Es +1 ||B |

= |A||B |. Se A n ao e invert vel, e portanto |A| = 0, ent ao AB n ao pode ser invert vel, e portanto |AB | = 0. Como |In | = 1, segue do teorema anterior a rela c ao entre o determinante uma matriz invert vel com o da sua inversa. Corol ario 2.4.9. Se A e uma matriz invert vel ent ao |A1 | = 1 . |A|

Recorde que para que uma matriz A seja invert vel exige-se a exist encia de uma outra X para a qual AX = In = XA. O resultado seguinte mostra que se pode prescindir da verica c ao de uma das igualdades. Corol ario 2.4.10. Seja A uma matriz n n. S ao equivalentes: 1. A e invert vel

2.4. DETERMINANTES 2. existe uma matriz X para a qual AX = In 3. existe uma matriz Y para a qual Y A = In Nesse caso, A1 = X = Y .

49

Demonstra c ao. As equival encias s ao imediatas, j a que se AX = In ent ao 1 = |In | = |AX | = |A||X | e portanto |A| = 0. Para mostrar que A1 = X , repare que como AX = In ent ao A e invert vel, e portanto 1 A AX = A1 , donde X = A1 . a . O prob duto interno usual (u1 , u2 ) (v1 , v2 ) em R2 pode ser encarado como o produto matricial v1 . Ou seja, u v = uT v . Esta identica c ao e no c ao pode ser generaliu1 u2 v2 zada de forma trivial para Rn . Dois vectores u e v de Rn dizem-se ortogonais, u v , se u v = uT v = 0. A norma usual em Rn e denida por u = u u, com u Rn Fa ca a identica c ao dos vectores (a, b) R2 com as matrizes coluna Corol ario 2.4.11. Seja A uma matriz real n n com colunas c1 , c2 , . . . , cn . Ent ao A e ortogonal se e s o se ci cj = 0 se i = j , e ci = 1, para i, j = 1, . . . , n. Demonstra c ao. Condi c ao suciente: Escrevendo A = In = A A =
T

c1

cn , temos que

cT 1 cT 2 . . . cT n

c1 c2 cn .

Como o elemento (i, j ) de

cT 1 cT 2 . . .

c1 c2 cn e cT i cj , obtemos o resultado.

cT n T Condi c ao necess aria: Ora ci cj = 0 se i = j , e cT e o mesmo que AT A = In , e pelo i ci = 1 1 corol ario anterior implica que A e invert vel com A = AT , pelo que A e ortogonal. Ou seja, as colunas das matrizes ortogonais s ao ortogonais duas a duas. O mesmo se pode dizer acerca das linhas, j a que a transposta de uma matriz ortogonal e de novo uma matriz ortogonal.

2.4.3

Teorema de Laplace

Dada uma matriz A, quadrada de ordem n, denota-se por A(i|j ) a submatriz de A obtida por remo c ao da sua linha i e da sua coluna j . Deni c ao 2.4.12. Seja A = [aij ] uma matriz quadrada.

50

CAP ITULO 2. CALCULO MATRICIAL 1. O complemento alg ebrico de aij , ou cofactor de aij , denotado por Aij , est a denido por Aij = (1)i+j |A(i|j )| 2. A matriz adjunta e a transposta da matriz dos complementos alg ebricos Adj (A) = [Aij ]T .

Teorema 2.4.13 (Teorema de Laplace I). Para A = [aij ], n n, n > 1, ent ao, e para k = 1, . . . , n,
n

|A| =
j =1 n

akj Akj ajk Ajk


j =1

O teorema anterior e o caso especial de um outro que enunciaremos de seguida. Para tal, e necess ario introduzir mais nota c ao e algumas deni c oes (cf. [10]). Seja A uma matriz m n. Um menor de ordem p de A, com 1 p min{m, n}, eo determinante de uma submatriz p p de A, obtida de A eliminando m p linhas e n p colunas de A. Considere duas sequ encias crescentes de n umeros 1 i1 < i2 < < ip m, 1 j1 < j2 < < jp n, e o determinante da submatriz de A constituida pelas linhas i1 , i2 , . . . ip e pelas colunas i1 i2 . . . ip j1 , j2 , . . . , jp . Este determinate vai ser denotado por A . Ou seja, j1 j2 . . . jp A i1 i2 . . . j1 j2 . . . ip jp = | [aik jk ]k=1,...p |.

Paralelamente, podemos denir os menores complementares de A como os determinantes das submatrizes a que se retiraram linhas e colunas. Se A for n n, A i1 i2 . . . j1 j2 . . . ip jp
c

denota o determinante da submatriz de A ap os remo c ao das linhas i1 , i2 , . . . ip e das colunas j1 , j2 , . . . , jp de A. O cofactor complementar est a denido como A
c

i1 i2 . . . j1 j2 . . .

ip jp

= (1) A

i1 i2 . . . j1 j2 . . .

ip jp

onde s = (i1 + i2 + ip ) + (j1 + j2 + jp ). O caso em que p = 1 coincide com o exposto no in cio desta sec c ao.

2.4. DETERMINANTES

51

Teorema 2.4.14 (Teorema de Laplace II). Sejam A = [aij ], n n, 1 p n. Para qualquer escolha de p linhas i1 , i2 , . . . , ip de A, ou de p colunas j1 , j2 , . . . , jp de A, |A| =
j

i1 i2 . . . j1 j2 . . .

ip jp

Ac

i1 i2 . . . j1 j2 . . .

ip jp

onde a soma percorre todos os menores referentes ` a escolha das linhas [resp. colunas]. Para nalizar, apresentamos um m etodo de c alculo da inversa de uma matriz n ao singular. Teorema 2.4.15. Se A e invert vel ent ao A1 = Adj (A) . |A|

Octave Vamos agora apresentar uma pequena fun c ao que tem como entrada uma matriz quadrada e como sa da sua matriz adjunta. function ADJ=adjunta(A) % % % % sintaxe: adjunta(A) onde A e uma matriz quadrada use-a por sua propria conta e risco copyleft ;-) Pedro Patricio

n=size(A)(1,1); % n e o numero de linhas da matriz ADJ= zeros (n); % inicializacao da matriz ADJ for i=1:n % i denota a linha for j=1:n % j denota a coluna submatriz=A([1:i-1 i+1:n],[1:j-1 j+1:n]); % submatriz e a submatriz de A a que se lhe retirou a linha i e a coluna j cofactor=(-1)^(i+j)* det(submatriz); % calculo do cofactor ADJ(j,i)=cofactor; % ADJ e a transposta da matriz dos cofactores; repare que a entrada (j,i) e o cofactor (i,j) de A end; % fim do ciclo for em j end % fim do ciclo for em i

Grave a fun c ao, usando um editor de texto, na directoria de leitura do Octave. No Octave, vamos criar uma matriz 4 4:

52 > B=fix(10*rand(4,4)-5) B = 0 -2 3 -2 3 1 -3 0 4 -4 4 0 > adjunta(B) ans = 76.0000 48.0000 36.0000 28.0000 -2 -1 3 4

CAP ITULO 2. CALCULO MATRICIAL

-36.0000 -32.0000 -24.0000 -4.0000

-48.0000 -28.0000 -32.0000 -20.0000


Adj (B ) |B |

65.0000 37.0000 36.0000 17.0000

Pelo teorema, como B 1 = > B*adjunta(B) ans = -44.00000 0.00000 0.00000 0.00000 -0.00000 -44.00000 -0.00000 -0.00000

segue que B Adj (B ) = |B |I4 .

0.00000 -0.00000 -44.00000 0.00000

0.00000 0.00000 0.00000 -44.00000

Cap tulo 3

Sistemas de equa co es lineares


Ao longo deste documento, K denota R ou C.

3.1

Formula c ao matricial

Uma equa c ao linear em n vari aveis x1 , . . . , xn sobre K e uma equa c ao da forma a1 x1 + a2 x2 + + an xn = b, onde a1 , a2 , . . . , an , b K. Um sistema de equa c oes lineares e um conjunto nito de equa c oes lineares que e resolvido simultaneamente. Ou seja, que se pode escrever da forma a11 x1 + + a1n xn = b1 a x + + a x = b (1) 21 1 2n n 2 am1 x1 + + amn xn = bm Este tipo de sistema pode ser representado na forma matricial Ax = b, com A= a11 a21 . . . a12 a22 . . . .. . a1n a2n . . . amn x1 x2 . . . xn b1 b2 . . . bm .

am1 am2

,x =

,b =

A e a matriz do sistema, x e a coluna das inc ognitas e b e a coluna dos termos independentes, tamb em denominado por segundo membro do sistema. De ora em diante n ao faremos distin c ao entre o sistema de equa c oes lineares e a sua formula c ao matricial Ax = b. Neste cap tulo, vamo-nos debru car sobre a resolu c ao deste tipo de equa c ao. Dizemos que v e solu c ao de Ax = b se Av = b, ou seja, quando v e uma realiza c ao poss vel para a 53

54

CAP ITULO 3. SISTEMAS DE EQUAC OES LINEARES

coluna das inc ognitas. Iremos ver em que condi c oes a equa c ao tem solu c ao, e como se podem determinar. Entende-se por resolver o sistema Ax = b encontrar o conjunto (ainda que vazio) de todas as realiza c oes poss veis para a coluna das inc ognitas. O sistema diz-se imposs vel ou inconsistente se o conjunto e vazio e poss vel ou consistente caso contr ario. Neste u ltimo caso, diz-se que e poss vel determinado se existir apenas um e um s o elemento no conjunto das solu c oes, e poss vel indeterminado se for poss vel mas existirem pelo menos duas solu c oes 1 distintas . Entende-se por classicar o sistema a arma c ao em como ele e imposs vel, poss vel determinada ou poss vel indeterminado. Um caso particular da equa c ao Ax = b surge quando b = 0. Ou seja, quando a equa c ao e da forma Ax = 0. O sistema associado a esta equa c ao chama-se sistema homog eneo. Repare que este tipo de sistema e sempre poss vel. De facto, o vector nulo (ou seja, a coluna nula) e solu c ao. Ao conjunto das solu c oes de Ax = 0 chamamos n ucleo2 de A, e e denotado por N (A) ou ainda por ker(A). Ou seja, para A do tipo m n, N (A) = ker(A) = {x Kn : Ax = 0m1 } . Pelo que acab amos de referir, e independentemente da escolha de A, o conjunto ker(A) e sempre n ao vazio j a que 0n1 ker(A). Ou caso relevante no estudo da equa c ao Ax = b surge quando a matriz A e invert vel. 1 Neste caso, multpiplicando ambos os membros de Ax = b, ` a esquerda, por A , obtemos 1 1 1 A Ax = A b, e portanto x = A b. Ou seja, a equa c ao e poss vel determinada, sendo A1 b a sua u nica solu c ao.

3.2

Resolu c ao de Ax = b

Nesta sec c ao, vamos apresentar uma forma de resolu c ao da equa c ao Ax = b, fazendo uso da factoriza c ao P A = LU estudada atr as. Vejamos de que forma essa factoriza c ao eu til no estudo da equa c ao. 1 2 3 x1 7 Considere a equa c ao 0 4 5 x2 = 8 . O sistema associado escreve-se 0 0 6 x3 9 x1 + 2 x2 + 3 x3 = 7 como ltima equa c ao, este e subs4x2 + 5x3 = 8 . Calculando o valor de x3 pela u 6x3 = 9 tituido na segunda equa c ao para se calcular o valor de x2 , que por sua vez s ao usados na primeira equa c ao para se obter x1 . Procedeu-se ` a chamada substitui c ao inversa para se calcular a u nica (repare que a matriz dada e invert vel) solu c ao do sistema. Em que condi c oes se pode usar a substitui c ao inversa? Naturalmente quando a matriz dada e triangular superior com elementos diagonais ao nulos. Mas tamb em noutros casos. Considere n x1 1 2 3 5 . A matriz do sistema n ao e quadrada, a equa c ao matricial x2 = 0 0 4 6 x3
1 2

Veremos, mais adiante, que se existem duas solu co es distintas ent ao exite uma innidade delas. Iremos tamb em usar a denomina ca o espa co nulo de A.

DE AX = B 3.2. RESOLUC AO

55

mas o m etodo da susbstitui c ao inversa pode ainda ser aplicado. O sistema associado e x1 + 2 x2 + 3 x3 = 5 , donde x3 = 3 a do valor de x2 . A solu c ao geral 2 , e x1 depender 4x3 = 6 9 9 3 do sistema e (x1 , x2 , x3 ) = (5 2 2x2 , x2 , 3 a frente 2 ) = (5 2 , 0, 2 ) + x2 (2, 1, 0). Mais ` f veremos qual a import ancia de escrevermos a solu c ao na u ltima forma apresentada. E acil constatar que a substitui c ao inversa e aplic avel desde que a matriz do sistema seja uma matriz escada de linhas. A estat egia na resolu c ao da equa c ao ir a, portanto, passar pela matriz escada obtida por Gauss, para depois se aplicar a substitui c ao inversa. Desde que o sistema seja poss vel, claro. Considere o sistema Ax = b e a factoriza c ao P A = LU . Ou seja, U = L1 P A. Recorde que L1 P reecte as opera c oes elementares efectuadas nas linhas de A por forma a se obter a matriz escada, percorrendo os passos do AEG. Multiplique ambos os membros de Ax = b, ` a esquerda, por L1 P para obter L1 P A = L1 P b. Como U = L1 P A tem-se que U x = L1 P b, e daqui podemos aplicar a substitui c ao inversa... depois de se determinar o 1 1 termo independente L P b. Recorde que L P reecte as opera c oes elementares efectuadas 1 nas linhas de A, de modo que para se obter L P b basta efectuar essas mesmas opera c oes elementares, pela mesma ordem, nas linhas de b. Por forma a simplicar o racioc nio e evitar poss veis enganos, esse processo pode ser efectuado ao mesmo tempo que aplicamos o AEG nas linhas de A. Consideramos, para esse efeito, a matriz aumentada do sistema A b , aplicamos o AEG para se obter a matriz c= L1 P b. U e matriz escada de linhas e c , onde U

Se o sistema for poss vel, aplica-se a substitui c ao inversa a U x = c. As solu c oes de Ax = b s ao exactamente as mesmas de U x = c, e por este facto dizem-se equa c oes equivalentes, e os sistemas associados s ao equivalentes. De facto, se v e solu c ao de Ax = b ent ao Av = b, o que implica, por multiplica c ao ` a esquerda por L1 P que L1 P Av = L1 P b, ou seja, que U v = c. Por outro lado, se U v = c ent ao LU v = Lc e portanto P Av = Lc. 1 Ora c = L P b, e portanto Lc = P b. Obtemos ent ao P Av = P b. Como P e invert vel, segue que Av = b e v e solu c ao de Ax = b. Visto determinar as solu c oes de Ax = b e o mesmo que resolver U x = c, interessa-nos, ent ao classicar este u ltimo. x1 1 2 3 4 Como exemplo, considere a equa c ao . A segunda equa c ao x2 = 0 0 0 5 x3 do sistema associado reete a igualdade 0 = 5, o que e imposs vel. A equa c ao e imposs vel j a 1 2 3 4 que n ao tem solu c oes. A matriz aumentada associada ` a equa c ao e . Repare 0 0 0 5 que a caracter stica da matriz A e 1 enquanto que a caratacter stica da matriz aumentada [A|b] e 2. Como e f acil vericar, a caracter stica da matriz a que se acrescentou linhas ou colunas e n ao inferior ` a caracter stica da matriz inicial. Por consequ encia, car(A) car([A|b]). Teorema 3.2.1. A equa c ao matricial Ax = b e consistente se e s o car(A) = car A b .

Demonstra c ao. Considere P A = LU e c = L1 P b. A equa c ao Ax = b e equivalente ` a equa c ao

56

CAP ITULO 3. SISTEMAS DE EQUAC OES LINEARES

U x = c, e portanto Ax = b tem solu c ao se e s o se U x = c tem solu c ao. Tal equivale a dizer que o n umero de linhas nulas de U iguala o n umero de linhas nulas de [U |c]. De facto, o n umero sendo o mesmo, por substitui c ao inversa e poss vel obter uma solu c ao de U x = c, e caso o n umero seja distinto ent ao obtemos no sistema associado a igualdade 0 = ci , para algum ci = 0, o que torna U x = c imposs vel. Se o n umero de linhas nulas de U iguala o de [U |c] ent ao o n umero de linhas n ao nulas de U iguala o de [U |c].

Octave Considere a equa c ao matricial Ax = b onde A = consistente se e s o se car(A) = car([A|b]) 2 2 1 1 1 1 2 e b = 1 1 . A equa c ao e

> A=[2 2 1; 1 1 0.5]; b=[-1; 1]; > rank(A) ans = 1 > [L,U,P]=lu(A) L = 1.00000 0.50000 U = 2 0 P = 1 0 0 1 2 0 1 0 0.00000 1.00000

Portanto, car(A) = 1. > rank([A b]) ans = 2 > Aaum = 2.00000 2.00000 1.00000 1.00000 1.00000 0.50000 > [Laum,Uaum,Paum]=lu(Aaum) -1.00000 1.00000

DE AX = B 3.2. RESOLUC AO Laum = 1.00000 0.50000 Uaum = 2.00000 0.00000 Paum = 1 0 0 1 2.00000 0.00000 1.00000 0.00000 -1.00000 1.50000 0.00000 1.00000

57

Ora a carater stica da matriz aumentada e 2, pelo que Ax = b e inconsistente.

Dada a equa ca o A

x1 x2 . . .

= b, considere U

x1 x2 . . .

= c equivalente ` a primeira fazendo

xn xn uso da factoriza c ao P A = LU da forma habitual. A inc ognita xi diz-se inc ognita b asica se a coluna i de U tem pivot. Uma inc ognita diz-se livre se n ao for b asica. A nulidade de A, nul(A), e o n umero de inc ognitas livres na resolu c ao de Ax = 0.

Octave Na equa c ao Ax = b, com A = posi c ao > A=[2 2 1; 1 1 -1]; b=[-1; 1]; > [L,U,P]=lu(A) L = 1.00000 0.50000 U = 0.00000 1.00000 2 2 1 1 1 1

x1 , x = x2 , b = x3

1 1

, obtemos a decom-

58 2.00000 0.00000 P = 1 0 0 1 2.00000 0.00000

CAP ITULO 3. SISTEMAS DE EQUAC OES LINEARES 1.00000 -1.50000

Repare que car(A) = 2. Ora 2 = car(A) car([A|b]) 2, j a que a caracter stica de uma matriz e n ao superior ao seu n umero de linhas e ao seu n umero de colunas. Segue que car([A|b]) = 2. A equa c ao Ax = b e, portanto, consistente. Fa camos, ent ao, a classica c ao das inc ognitas x1 , x2 , x3 em livres e em b asicas. Atente-se ` a matriz escada de linhas U apresentada 3 atr as. As colunas 1 e 3 t em como pivots, respectivamente, 2 e 2 . As inc ognitas x1 e x3 s ao b asicas. J a x2 e livre pois a coluna 2 de U n ao tem pivot. Qual o interesse neste tipo de classica c ao das inc ognitas? A explica c ao e feita ` a custa do exemplo anterior. A equa c ao Ax = b e equivalente ` a equa c ao U x = c, com U = 2 2 1 1 ,c = . 3 3 0 0 2 2

Octave Com os dados fornecidos, > [Laum,Uaum,Paum]=lu([A b]) Laum = 1.00000 0.50000 Uaum = 2.00000 0.00000 Paum = 1 0 0 1 2.00000 0.00000 1.00000 -1.50000 -1.00000 1.50000 0.00000 1.00000

Podemos, agora, aplicar o m etodo da substitui c ao inversa para obter as solu c oes da

DE AX = B 3.2. RESOLUC AO equa c ao. Esse m etodo e aplicado da seguinte forma: 1. obtem-se o valor das inc ognitas b asicas xi no sentido sulnorte, 2. as inc ognitas livres comportam-se como se de termos independentes se tratassem.

59

Para conveni encia futura, a solu c ao e apresentada na x1 ? ? ? x2 ? ? ? . = . + xi . + xi . 1 2 . . . . . . . . xn ? ? ?

forma

+ . . . xi k

? ? . . . ?

ao as inc ognitas livres. onde xi s Voltando ao exemplo, recorde que se obteve a equa c ao equivalente ` a dada x1 1 2 2 1 . x2 = 3 3 0 0 2 2 x3 Resolvendo a u ltima equa c ao correspondente, obtemos o valor da inc ognita b asica x3 . De 3 3 facto, 2 x3 = 2 implica x3 = 1. Na equa c ao 2x1 + 2x2 + x3 = 1, o valor de x3 e conhecido (bastando-nos, portanto, fazer a substitui c ao) e a inc ognita x2 e livre, comportando-se ent ao como termo independente. J a x1 e b asica, e resolve-se a equa c ao em rela c ao a esta. Obtemos 2x2 x1 = 2 = x2 . Para cada escolha de x2 obtemos outo valor para x1 . A solu c ao geral e da forma (x1 , x2 , x3 ) = (x2 , x2 , 1) = (0, 0, 1) + x2 (1, 1, 0), onde x2 varia livremente em K. Num sistema poss vel, a exist encia de inc ognitas livres confere-lhe a exist encia de v arias solu c oes, e portanto o sistema e poss vel indeterminado. Ora, se o n umero de inc ognitas ene se k delas s ao b asicas, ent ao as restantes n k s ao livres. Recorde que o n umero de inc ognitas iguala o n umero de colunas da matriz do sistema, e que a caracter stica de uma matriz e igual ao n umero de pivots. Existindo, no m aximo, um pivot por coluna, e como o n umero das colunas com pivots e igual ao n umero de inc ognitas b asicas, segue que a caracter stica da matriz e igual ao n umero de inc ognitas b asicas. A exist encia de inc ognitas livres e equivalente ao facto de existirem colunas sem pivot, ou seja, do n umero de colunas ser estritamente maior que a caracter stica da matriz. De facto, as inc ognitas livres s ao, em n umero, igual ao n umero de colunas sem pivot. Teorema 3.2.2. A equa ca o consistente Ax = b, onde A e m n, tem uma u nica solu c ao se e s o se car(A) = n. Corol ario 3.2.3. Um sistema poss vel de equa c oes lineares com menos equa c oes que inc ognitas e indeterminado.

60

CAP ITULO 3. SISTEMAS DE EQUAC OES LINEARES

Recorde que o n umero de inc ognitas livres e o n umero de colunas sem pivot na resolu c ao de um sistema poss vel Ax = b. Por outro lado, a nulidade de A, nul(A), e o n umero de inc ognitas livres que surgem na resolu c ao de Ax = 0. Recorde ainda que a caracter stica de A, car(A), e o n umero de pivots na implementa c ao de Gauss, que por sua vez e o n umero de colunas com pivot, que iguala o n umero de inc ognitas b asicas na equa c ao Ax = 0. Como o n umero de colunas de uma matriz iguala o n umero de inc ognitas equa c ao Ax = 0, e estas se dividem em b asicas e em livres, correspondendo em n umero a, respectivamente, car(A) e nul(A), temos o resultado seguinte: Teorema 3.2.4. Para A matriz m n, n = car(A) + nul(A). O resultado seguinte descreve as solu c oes de uma equa c ao poss vel Ax = b ` a custa do sistema homog eneo associado (ou seja, Ax = 0) e de uma solu c ao particular v de Ax = b. Teorema 3.2.5. Sejam Ax = b uma equa c ao consistente e v uma solu c ao particular de Ax = b. Ent ao w e solu c ao de Ax = b se e s o se existir u N (A) tal que w = v + u. Demonstra c ao. Suponha v, w solu c oes de Ax = b. Pretende-se mostrar que w v N (A), ou seja, que A(w v ) = 0. Ora A(w v ) = Aw Av = b b = 0. Basta, portanto, tomar u = w v. Reciprocamente, assuma v solu c ao de Ax = b e u solu c ao de Ax = 0. Pretende-se mostrar que w = v + u e solu c ao de Ax = b. Para tal, Aw = A(v + u) = Av + Au = b + 0 = b. Ou seja, conhecendo o conjunto das solu c oes de Ax = 0 e uma solu c ao particular de Ax = b, conhece-se o conjunto das solu c oes de Ax = b.

9 2 4 3 Considere a equa c ao matricial Ax = b, com A = 6 5 0 e b = 5 . O sistema 12 1 8 1 e consistente, j a que car(A) = car([A|b]) = 2: > rank ([A b]) ans = 2 > rank (A) ans = 2 Sendo a caracter stica de A igual a 2 e tendo a matriz 3 colunas, ent ao existe uma, e uma s o, inc ognita livre na resolu c ao de Ax = b. Fa camos, ent ao, a divis ao das inc ognitas em livres e b asicas. Para tal, determina-se a matriz escada de linhas obtida da matriz aumentada [A|b]: > [Laum,Uaum,Paum]=lu([A b]) Laum =

Octave

DE AX = B 3.2. RESOLUC AO 1.00000 -0.50000 -0.75000 Uaum = -12.00000 0.00000 0.00000 Paum = 0 0 1 0 1 0 1 0 0 -1.00000 -5.50000 0.00000 -8.00000 -4.00000 0.00000 -1.00000 4.50000 0.00000 0.00000 1.00000 0.50000 0.00000 0.00000 1.00000

61

Se x = (x1 , x2 , x3 ), as inc ognitas b asicas s ao x1 e x2 , enquanto que x3 e inc ognita livre. Como vimos do resultado anterior, conhecendo uma solu c ao particular de Ax = b, digamos, v , e conhecendo N (A), ou seja, o conjunto das solu c oes de Ax = 0, ent ao as solu c oes de Ax = b s ao da forma v + u, onde u N (A). Uma solu c ao particular pode ser encontrada tomando a inc ognita livre como zero. Ou seja, considerando x3 = 0. A sunbstitui c ao inversa fornece o valor das inc ognitas b asicas x1 , x2 : > x2=Uaum(2,4)/Uaum(2,2) x2 = -0.81818 > x1=(Uaum(1,4)-Uaum(1,2)*x2)/Uaum(1,1) x1 = 0.15152 Este passo pode ser efectuado, de uma forma mais simples, como > A\b ans = 0.31235 -0.62518 -0.26538 Resta-nos determinar N (A): > null (A) ans = 0.44012 0.52814 -0.72620

62

CAP ITULO 3. SISTEMAS DE EQUAC OES LINEARES

O vector u que nos e indicado signica que N (A) e formado por todas a colunas da forma u. Se, por ventura, nos forem apresentados v arios vectores v1 v2 ... vn, ent ao os elementos de N (A) escrevem-se da forma 1 v1 + 2 v2 + + n vn . Considere, agora, a matriz > A=[2 2 2 0; 1 1 2 2]; Esta matriz tem caracter stica 2, como se pode vericar ` a custa da factoriza c ao P A = LU : > [L,U,P]=lu(A) L = 1.00000 0.50000 U = 2 0 P = 1 0 0 1
T

0.00000 1.00000

2 0

2 1

0 2

A nulidade e 2, pelo que existem 2 inc ognitas livres na resolu c ao de A x1 x2 x3 x4 = 021 . As inc ognitas livres s ao as correspondentes ` a colunas de U que n ao t em pivot; no caso, x2 2x1 + 2x2 + 2x3 = 0 e x4 . O sistema associado ` a equa c ao U x = 0 e . Resolvendo o sistema x3 + 2x4 = 0 em rela c ao ` a inc ognitas b asicas x1 , x3 , e por substitui c ao inversa, obtemos x3 = 2x4 , que por sua vez fornece, substituindo na primeira equa c ao, x1 = 1 2 (2x2 + 4x4 ) = x2 + 2x4 . Ou seja, a solu c ao geral de Ax = 0 e (x1 , x2 , x3 , x4 ) = (x2 + 2x4 , x2 , 2x4 , x4 ) = x2 (1, 1, 0, 0) + x4 (2, 0, 2, 1). Sem nos alongarmos em demasia neste assunto, o Octave, como j a foi referido, cont em uma instru c ao que calcula o n ucleo de uma matriz: > null(A) ans = -0.71804 0.10227 0.61577 -0.30788 -0.35677 0.79524 -0.43847 0.21924

3.3. ALGORITMO DE GAUSS-JORDAN

63

O resultado apresentado indica os vectores que decrevem o conjunto N (A): todo o elemento de N (A) se escreve como soma de m ultiplos dos dois vectores apresentados. Mais, os vectores fornecidos s ao ortogonais entre si e t em norma 1. > null(A)(:,1)*null(A)(:,2) ans = 6.2694e-17 > null(A)(:,1)*null(A)(:,1) ans = 1.0000 > null(A)(:,2)*null(A)(:,2) ans = 1

3.3

Algoritmo de Gauss-Jordan

A aplica c ao do Algoritmo de Elimina c ao de Gauss na resolu c ao de um sistema de equa c oes lineares reduz o problema inicial a um outro, equivalente ao dado (ou seja, com o mesmo conjunto de solu c oes) onde a matriz associada ao sistema e escada de linhas. Tal permite a utiliza c ao do algoritmo da susbstitui c ao inversa por forma a se encontrar (caso existam) as solu c oes para o problema. Nesse m etodo, o valor das inc ognitas b asicas era encontrado a custa das inc ` ognitas livres e dos termos independentes, bem como do valor das inc ognitas b asicas encontrado no passo anterior, no sentido sulnorte do vector das inc ognitas. Recorde que no AEG a estrat egia tinha como objectivo, por opera c oes elementares de linhas, obter zeros por debaixo de cada pivot, estrat egia essa implementada no sentido NWSE. Este racioc nio pode ser estendido a obterem-se zeros por cima dos pivots, no sentido SWNE, por opera c oes elementares de linhas. De facto, neste processo est ao ausentes trocas de linhas, j a que os pivots usados neste novo processo s ao que estiveram envolvidos na fase inicial correspondente ao AEG. O resultado nal ser a uma matriz constitu da pelos pivots, tendo estes zeros por debaixo e por cima. Ou seja, se se dividir cada linha n ao nula pelo pivot respectivo, obtemos uma matriz da forma, a menos de trocas de colunas, uma matriz da forma Ik M , podendo os blocos nulos n ao existir. A este m etodo (` a excep c ao da poss vel troca 0 0 de colunas) e denominado o algoritmo de Gauss-Jordan, e a matriz obtida diz-se que est a na forma can onica (reduzida) de linhas, ou na forma normal (ou can onica) de Hermite. Ou seja, a matriz H = [hij ], m n, obtida satisfaz: 1. H e triangular superior, 2. hii e ou 0 ou 1, 3. se hii = 0 ent ao hik = 0, para cada k tal que 1 k n, 4. se hii = 1 ent ao hki = 0 para cada k = i. Repare que s o s ao realizadas opera c oes elementares nas linhas da matriz. A aplica c ao deste m etodo na resolu c ao de uma sistema de equa c oes lineares permite obter, de forma

64

CAP ITULO 3. SISTEMAS DE EQUAC OES LINEARES

imediata, o valor das inc ognitas b asicas. Apesar deste m etodo parecer mais atractivo que o de Gauss (ou suas variantes), em geral e menos eciente do ponto de vista computacional.

Octave

1 2 3 3 Considere a matriz A = 2 0 1 1 . A forma normal de Hermite de A e 0 0 1 3 > rref (A) ans = 1 0 0 0 1 0 0 0 1 -2 -2 3

Ora se A for a matriz aumentada associada a um sistema de equa c oes lineares, a forma can onica apresentada atr as fornece-nos uma solu c ao para o sistema, no caso (2, 2, 3). No que se segue, mostramos como se aplica o algoritmo de Gauss-Jordan para inverter matrizes. Seja A uma matriz n n, n ao-singular. Ou seja, invert vel. De forma equivalente, existe uma u nica matriz X tal que AX = In . Denotemos a matriz X , que pretendemos obter, ` a custa das suas colunas: X = X1 X2 Xn . Pela forma como est a denido o produto matricial, e tomando ei como a i- esima coluna da matriz In , a igualdade AX = In podese escrever como AX1 AX2 AXn = e1 e2 en . Surgem-nos, ent ao, n equa c oes matriciais: AX1 = e1 , AX2 = e2 , . . . , AXn = en . Como A e invert vel, cada uma destas equa c oes e consistente e tem apenas uma solu c ao. A solu c ao de AXj = ej e a coluna j da matriz X inversa de A que pretendemos calcular. Poder-se-ia aplicar a estrat egia de Gauss a cada uma destas equa c oes, ou seja, ` a matriz aumentada A ej . Como a matriz do sistema e a mesma, as opera c oes elementares envolvidas seriam as mesmas para as n equa c oes. Essas opera c oes elementares podem ser efectuadas simultaneamente, considerando a matriz aumentada n 2n 1 0 0 . . . A 0 1 . 0 0 1 Sendo a matriz invert vel, a matriz escada de linhas U obtida de A por aplica c ao do AEG tem elementos diagonais n ao nulos, que s ao os pivots que surgem na implementa c ao do algoritmo.

3.4. REGRA DE CRAMER

65

Aplicando Gauss-Jordan (ou seja, no sentido SENW, criando zeros por cima dos pivots que d1 0 . . . 0 0 0 d2 se v ao considerando), obtemos uma matriz da forma Y1 Y2 Yn . . . . . . 0 0 Dividindo a linha i por di , para i = 1, ..., n, obt em-se a matriz In 1 X 2 X n X . dn

i Ora tal signica que X e a solu c ao de AX = ei . Ou seja, o segundo bloco da matriz aumentada indicada atr as n ao e mais que a inversa da matriz A. Isto e, Gauss-Jordan forneceu a matriz 1 . In A

3.4

Regra de Cramer

A regra de Cramer fornece-nos um processo de c alculo da solu c ao de uma equa c ao consistente Ax = b quando A e invert vel, e portanto a solu c ao eu nica. x1 x2 Dada a equa c ao Ax = b, onde A e n n n ao-singular, x = . e do tipo n 1, eb . . xn ( i ) denote-se por A a matriz obtida de A substituindo a coluna i de A pela coluna b. Teorema 3.4.1 (Regra de Cramer). Nas condi c oes do par agrafo anterior, a u nica solu c ao de Ax = b e dada por |A(i) | . xi = |A|

Octave Vamos aplicar a regra de Cramer: > A=[1 -2 1; 1 1 0; -2 1 -2]; > b=[1;1;-1]; A matriz A e invert vel, e portanto Ax = b e uma equa c ao consistente com uma u nica solu c ao: > det(A) ans = -3 Denamos as matrizes A1,A2,A3 como as matrizes A(1) , A(2) , A(3) , respectivamente. Aplicamos, de seguida, a regra de Cramer.

66

CAP ITULO 3. SISTEMAS DE EQUAC OES LINEARES

> A1=A; A1(:,1)=b; A2=A; A2(:,2)=b; A3=A; A3(:,3)=b; > x1=det(A1)/det(A) x1 = 1.3333 > x2=det(A2)/det(A) x2 = -0.33333 > x3=det(A3)/det(A) x3 = -1 Os valores obtidos formam, de facto, a solu c ao pretendida: > A*[x1;x2;x3] ans = 1 1 -1

Cap tulo 4

Espa cos vectoriais


Tal como nos resultados apresentados anteriormente, K denota R ou C.

4.1

Deni c ao e exemplos

Deni c ao 4.1.1. Um conjunto n ao vazio V e um espa co vectorial sobre K (ou espa co linear) se lhe est ao associadas duas opera c oes, uma adi ca o de elementos de V e uma multiplica ca o de elementos de K por elementos de V , com as seguintes propriedades: 1. Fecho da adi c ao: x,yV , x + y V ; 2. Fecho da multiplica c ao por escalares: xV , K, x V ; 3. Comutatividade da adi c ao: x + y = y + x, para x, y V ; 4. Associatividade da adi c ao: x + (y + z ) = (x + y ) + z , para x, y, z V ; 5. Exist encia de zero: existe um elemento de V , designado por 0, tal que x + 0 = x, para xV; 6. Exist encia de sim etricos: xV , x + (1) x = 0; 7. Associatividade da multiplica c ao por escalares: , K,xX , (x) = ( ) x; 8. Distributividade: (x + y ) = x + y e ( + ) x = x + x, para x, y V e , K; 9. Exist encia de identidade: 1x = x, para todo x V . Se V e um espa co vectorial sobre K, um subconjunto n ao vazio W V que e ele tamb em um espa co vectorial sobre K diz-se um subespa co vectorial de V . Por forma a aligeirar a escrita, sempre que nos referirmos a um subespa co de um espa co vectorial queremos dizer subespa co vectorial. Dependendo se o conjunto dos escalares K e R ou C, o espa co vectorial diz-se, respectivamente, real ou complexo. Apresentam-se, de seguida, alguns exemplos comuns de espa cos vectoriais. 67

68

CAP ITULO 4.

ESPAC OS VECTORIAIS

1. O conjunto Mmn (K) das matrizes m n sobre K, com a soma de matrizes e produto escalar denidos no in cio da disciplina, e um espa co vectorial sobre K. 2. Em particular, Kn e um espa co vectorial. 3. O conjunto {0} e um espa co vectorial. 4. O conjunto das sucess oes de elementos de K, com a adi c ao denida por {xn } + {yn } = {xn + yn } e o produto escalar por {xn } = { xn }, e um espa co vectorial sobre K. Este N espa co vectorial e usualmente denotado por K . 5. Seja V = K [x] o conjunto dos polin omios na indeterminada x com coecientes em K. Denindo a adi c ao de vectores como a adi c ao usual de polin omios e a multiplica c ao escalar como a multiplica c ao usual de um escalar por um polin omio, V e um espa co vectorial sobre K. 6. Dado n N, o conjunto Kn [x] dos polin omios de grau inferior a n, com as opera c oes denidas no exemplo anterior, e um espa co vectorial sobre K. 7. Seja V = KK o conjunto das aplica c oes de K em K (isto e, V = {f : K K}). Denindo, para f, g V, K, a soma e produto escalar como as aplica c oes de K em K tais que, para x K, (f + g ) (x) = f (x) + g (x) , (f ) (x) = (f (x)) , V e desta forma um espa co vectorial sobre K. 8. O conjunto C e um espa co vectorial sobre R. R [resp. C] e tamb em um espa co vectorial sobre ele pr oprio. 9. Seja V um espa co vectorial sobre K e S um conjunto qualquer. O conjunto V S de todas as fun c oes de S em V e um espa co vectorial sobre K, com as opera c oes (f + g ) (x) = f (x) + g (x) , (f ) (x) = (f (x)) , onde f, g V S , K. 10. Dado um intervalo real ]a, b[, o conjunto C ]a, b[ de todas as fun c oes reais cont nuas em ]a, b[, para as opera c oes habituais com as fun c oes descritas acima, e um espa co vectorial sobre R. O conjunto C k ]a, b[ das fun c oes reais com derivadas cont nuas at e` a ordem k no intervalo ]a, b[ e o conjunto C ]a, b[ das fun c oes reais innitamente diferenci aveis no intervalo ]a, b[ s ao espa cos vectoriais reais. Teorema 4.1.2. Seja V um espa co vectorial sobre K e W V . Ent ao W e um subespa co de V se e s o se as condi co es seguintes forem satisfeitas: 1. W = ; 2. u, v W u + v W ;

4.2. INDEPENDENCIA LINEAR 3. v W, K v W . Observe que se W e subespa co de V ent ao necessariamente 0v W . Alguns exemplos:

69

1. Para qualquer k N, C ]a, b[ e um subespa co de C k ]a, b[, que por sua vez e um subespa co de C ]a, b[. 2. O conjunto das sucess oes reais convergentes e um subespa co do espa co das sucess oes reais. 3. Kn [x] e um subespa co de K[x]. 4. o conjunto das matrizes n n triangulares inferiores (inferiores ou superiores) e um subespa co de Mn (K), onde Mn (K) denota o espa co vectorial das matrizes quadradas de ordem n sobre K.

4.2

Independ encia linear

Sejam V um espa co vectorial sobre K e {vi }iI V, {i }iI K. Se


n

v=
i=1

i vi ,

diz-se que v e uma combina c ao linear dos vectores v1 , . . . , vn . Neste caso, dizemos que v se pode escrever como combina c ao linear de v1 , . . . , vn . Deni c ao 4.2.1 (Conjunto linearmente independente). Um conjunto n ao vazio {vi }iI V diz-se linearmente independente se i vi = 0 = 1 = 2 = = n = 0.
i I

Um conjunto diz-se linearmente dependente se n ao for linearmente independente. Por abuso de linguagem, tomaremos, em algumas ocasi oes, vectores linearmente independentes para signicar que o conjunto formado por esses vectores e linearmente independente. O conceito de depend encia e independ encia linear e usualmente usado de duas formas. (i) Dado um conjunto n ao vazio {vi } de n vectores linearmente dependentes, ent ao e poss vel escrever o vector nulo como combina c ao linear n ao trivial de v1 , . . . , vn . Ou seja, existem escalares 1 , . . . , n , algum ou alguns dos quais n ao nulos, tais que
n

0=
i=n

i vi .

70

CAP ITULO 4.

ESPAC OS VECTORIAIS

Seja k um coeciente n ao nulo dessa combina c ao linear. Ent ao


n

vk =
i=1,i=k

1 k i vi .

Concluindo, dado um conjunto de vectores linearmente dependentes, ent ao pelo menos um desses vectores e uma combina c ao linear (n ao trivial) dos outros vectores. (ii) Dado um conjunto n ao vazio {vi } de n vectores linearmente independentes, da rela c ao
n

0=
i= n

i vi

podemos concluir de forma imediata e obvia que 1 = = n = 0. Esta implica c ao ser a muito u til ao longo desta disciplina.

Algumas observa c oes: 1. Considerando o espa co vectorial K [x], o conjunto dos mon omios {1, x, x2 , . . . } e cons2 2 titu do por elementos linearmente independentes. J a 1, x, x , x + x + 1 s ao linearmente dependentes, visto 1 + x + x2 x2 + x + 1 = 0. 2. Em Kn [x], quaisquer n + 1 polin omios s ao linearmente dependentes. 3. Em R3 , consideremos os vectores = (1, 1, 0), = (1, 0, 1), = (0, 1, 1), = (1, 1, 1). Estes quatro vectores s ao linearmente dependentes (pois + + 2 = 0), apesar de quaisquer tr es deles serem linearmente independentes. Teorema 4.2.2. Sejam v1 , . . . , vn elementos linearmente independentes de um espa co vectorial V . Sejam ainda 1 , . . . , n , 1 , . . . , n K tais que 1 v1 + + n vn = 1 v1 + + n vn . Ent ao i = i , para todo i = 1, . . . , n. Demonstra c ao. Se 1 v1 + + n vn = 1 v1 + + n vn ent ao (1 1 ) v1 + + (n n ) vn = 0, pelo que, usando o facto de v1 , . . . , vn serem linearmente independentes, se tem i i = 0, para todo i = 1, . . . , n. O resultado anterior mostra a unicidade da escrita de um vector como combina c ao linear de elementos de um conjunto linearmente independente, caso essa combina c ao linear exista. Teorema 4.2.3. Seja A um subconjunto n ao vazio de um espa co vectorial V sobre K. Ent ao o conjunto de todas as combina c oes lineares de elementos de A e um subespa co vectorial de V.

4.3. BASES DE ESPAC OS VECTORIAIS FINITAMENTE GERADOS

71

Demonstra c ao. Seja A o conjunto de todas as combina c oes lineares de elementos de A. A e obviamente n ao vazio visto A = . Sejam u, v A . Ou seja, u=
i I

i ai , v =
j J

j aj ,

para alguns i , j K, com ai A. Note-se que u+v =


iI

i ai +
j J

j aj

e portanto u + v e assim uma combina c ao linear de elementos de A logo, u + v A . Para n K, temos que u = iI i ai e portanto u A .

Tendo em conta o teorema anterior, podemos designar o conjunto das combina c oes lineares dos elementos de A como o espa co gerado por A. Este espa co vectorial (subespa co de V ) denota-se por A . Quando o conjunto A est a apresentado em extens ao, ent ao n ao escrevemos as chavetas ao denotarmos o espa co gerado por esse conjunto. Por exemplo, se A = {v1 , v2 , v3 }, ent ao A pode-se escrever como v1 , v2 , v3 . Por nota c ao, = {0}. importante referir os resultados que se seguem, onde V indica um espa E co vectorial. 1. Os vectores n ao nulos v1 , v2 , . . . , vn V s ao linearmente independentes se e s o se, para cada k , vk v1 , . . . , vk1 , vk+1 , . . . , vn . 2. Sejam A, B V . (a) Se A B ent ao A B . (b) A = A .

(c) A e o menor (para a rela c ao de ordem ) subespa co de V que cont em A.

4.3

Bases de espa cos vectoriais nitamente gerados

Deni c ao 4.3.1. Seja V um espa co vectorial. Um conjunto B linearmente independente tal que B = V e chamado de base de V . A demonstra c ao do resultado que se segue envolve, no caso geral, diversos conceitos matem aticos (nomeadamente o Lema de Zorn) que ultrapassam em muito os prop ositos desta disciplina. No entanto, o resultado garante, para qualquer espa co vectorial, a exist encia de um conjunto linearmente independente B que gere o espa co vectorial. Teorema 4.3.2. Todo o espa co vectorial tem uma base.

72

CAP ITULO 4.

ESPAC OS VECTORIAIS

Dizemos que V tem dimens ao nita, ou que e nitamente gerado, se tiver uma base com um n umero nito de elementos. Caso contr ario, diz-se que V tem dimens ao innita. V tem dimens ao nita nula se V = {0}. De ora em diante, apenas consideraremos espa cos vectoriais nitamente gerados. Por vezes faremos refer encia ` a base v1 , v2 , . . . , vn para indicar que estamos a considerar a base {v1 , v2 , . . . , vn }. Deni c ao 4.3.3. Uma base ordenada B = {v1 , . . . , vm } e uma base de V cujos elementos 1 est ao dispostos por uma ordem xa . Chamam-se componentes ou coordenadas de u V na base {v1 , . . . , vm } aos coecientes escalares 1 , . . . , m da combina c ao linear
m

u=
k=1

k vk .

As coordenadas de u na base B s ao denotadas2 por (u)B = 1 2 . . . n Recordemos que, se B = {v1 , . . . , vm } e uma base de V , em particular s ao linearmente independentes, e portanto dado v V , os coecientes de v na base B s ao u nicos. .

Teorema 4.3.4. Se um espa co vectorial tem uma base com um n umero nito n de elementos, ent ao todas as bases de V t em n elementos.

Demonstra c ao. Seja V um espa co vectorial e v1 , . . . , vn uma base de V . Seja w1 , . . . , wm outra base de V com m elementos. Como v1 , . . . , vn e base de V , existem ji K para os quais
n

wi =
j =1

ji vj .

De uma forma mais correcta, B n ao deveria ser apresentado como conjunto, mas sim como um n-uplo: (v1 , . . . , vm ). Mas esta nota ca o poder-se-ia confundir com a usada para denotar elementos de Rn , por exemplo. Comete-se assim um abuso de nota ca o, tendo em mente que a nota c ao escolhida indica a ordem dos elementos da base pelos quais foram apresentados. 2 A nota ca o adoptada n ao signica que u Rn .

4.3. BASES DE ESPAC OS VECTORIAIS FINITAMENTE GERADOS Note-se que


m m n

73

x i wi = 0
i=1 i=1 m

xi
j =1 n

ji vj = 0 xi ji vj = 0

i=1 j =1 n

j =1 m i=1

xi ji

vj = 0

i=1

xi ji = 0, para todo j x1 . . . =0 xm

e que

ji

xi wi = 0 x1 = x2 = = xm = 0.
i=1

Portanto, ji e um sistema determinado, pelo que m = car ji n. x1 . . . =0 xm

Trocando os pap eis de v1 , . . . , vn e de w1 , . . . , wm , obtemos n m. Logo, n = m. Deni c ao 4.3.5. Seja V um espa co vectorial. Se existir uma base de V com n elementos, ent ao diz-se que V tem dimens ao n, e escreve-se dim V = n. Corol ario 4.3.6. Seja V um espa co vectorial com dim V = n. Para m > n, qualquer conjunto de m elementos de V e linearmente dependente. Demonstra c ao. A demonstra c ao segue a do teorema anterior. Considerando o espa co vectorial Kn [x] dos polin omios com coecientes em K e grau n ao superior a n, uma base de Kn [x] e B = 1, x, x2 , . . . , xn . De facto, qualquer polin omio de Kn [x] tem uma representa c ao u nica na forma an xn + + a1 x + a0 e portanto B gera Kn [x], e B e linearmente independente. Logo, dim Kn [x] = n + 1. Como exerc cio, mostre que B = 1, x + k, (x + k )2 , . . . , (x + k )n ,

74

CAP ITULO 4.

ESPAC OS VECTORIAIS

para um k K xo, e outra base de Kn [x]. Considere agora o conjunto {ij : 1 i m, 1 j n}, onde ij e a matriz m n com as entradas todas nulas ` a excep c ao de (i, j ) que vale 1. Este conjunto e uma base do espa co vectorial Mmn (K) das matrizes m n sobre R, pelo que dim Mmn (R) = mn. Teorema 4.3.7. Seja V um espa co vectorial com dim V = n. 1. Se v1 , . . . , vn s ao linearmente independentes em V , ent ao v1 , . . . , vn formam uma base de V . 2. Se v1 , . . . , vn = V , ent ao v1 , . . . , vn formam uma base de V . Demonstra c ao. (1) Basta mostrar que v1 , . . . , vn = V . Suponhamos, por absurdo, que v1 , . . . , vn s ao linearmente independentes, e que v1 , . . . , vn V . Ou seja, existe 0 = w V para o qual w / v1 , . . . , vn = V . Logo, v1 , . . . , vn , w, s ao linearmente independentes, pelo que em V existem n + 1 elementos linearmente independentes, o que contradiz o corol ario anterior. (2) Basta mostrar que v1 , . . . , vn s ao linearmente independentes. Suponhamos que v1 , . . . , vn s ao linearmente dependentes e que A = {v1 , . . . , vn }. Ent ao pelo menos um deles e combina c ao linear dos outros. Ou seja, existe vk tal que vk v1 , . . . , vk1 , vk+1 , . . . , vn . Se v1 , . . . , vk1 , vk+1 , . . . , vn n ao forem linearmente independentes, ent ao repetimos o processo at e obtermos B A linearmente independente. Vamos mostrar que B = A , recordando que A = V . Seja C = A \ B ; isto e, C e o conjunto dos elementos que se retiraram a A de forma a obter o conjunto linearmente independente B . Portanto, vi C vi =
vj B

ij vj .

Seja ent ao v V = A . Ou seja, existem i s para os quais v =


vi A

i vi i vi +
vi B vi C

= =
vi B

i vi i
i vj B

i vi + i vi +
vi B i

ij vj i ij vj B .

vj B

Portanto, B e uma base de V com m < n elementos, o que e absurdo. Corol ario 4.3.8. Sejam V um espa co vectorial e W1 , W2 subespa cos vectoriais de V . Se W1 W2 e dim W1 = dim W2 ent ao W1 = W2 Demonstra c ao. Se W1 W2 e ambos s ao subespa cos de V ent ao W1 e subespa co de W2 . Seja B = {w1 , . . . , wr } uma base de W1 , com r = dim W1 . Segue que B e linearmente independente em W2 . Como r = dim W1 = dim W2 , temos um conjunto linearmente inpedente com r elementos. Por (1) do teorema, B e base de W2 , o portanto W1 = B = W2 .

4.4. RN E SEUS SUBESPAC OS (VECTORIAIS)

75

Corol ario 4.3.9. Seja V um espa co vectorial e A um conjunto tal que A = V . Ent ao existe B A tal que B e base de V . Demonstra c ao. A demonstra c ao segue o mesmo racioc nio da demonstra c ao de (2) do teorema anterior.

4.4

Rn e seus subespa cos (vectoriais)

Nesta sec c ao3 , debru camo-nos sobre Rn enquanto espa co vectorial real. Repare que as colunas n n de In formam uma base de R , pelo que dim R = n. Mostre-se que de facto geram Rn . Se se denotar por ei a coluna i de In , e imediato vericar que (x1 , x2 , . . . , xn ) = n i=1 xi ei . Por n outro lado, i=1 i ei = 0 implica (1 , 2 , . . . , n ) = (0, 0, . . . , 0), e portanto 1 = 2 = = n = 0. O conjunto {ei }i=1,...,n e chamado base can onica de Rn . Teorema 4.4.1. Se A e uma matriz m n sobre R, o n ucleo N (A) e um subespa co vectorial de Rn . Demonstra c ao. Basta mostrar que, dados elementos x, y de Rn tais que Ax = Ay = 0, tamb em se tem A (x + y ) = 0 e A (x) = 0, para qualquer R. Note-se que A (x + y ) = Ax + Ay = 0 + 0 = 0, e que A (x) = Ax = 0 = 0.

Considere, a t tulo de exemplo, o conjunto V = (x, y, z ) R3 : z = 2x 3y = {(x, y, 2x 3y ) : x, y R} . Este conjunto e um subespa co de R3 . De facto, escrevendo a condi c ao z = 2x 3y como 2x 3y z = 0, o conjunto V iguala o n ucleo da matriz A = 2 3 1 , pelo que V e um subespa co de R3

Octave Vamos agora usar o octave para esbo car o conjunto V denido acima. Vamos considerar x, y [2; 2] e tentar que o octave encontre os pontos (x, y, 2x 3y ) R3 . Como e obvio, x, y n ao poder ao percorrer todos os elementos do intervalo [2; 2]. Vamos, em primeiro lugar, denir os vectores x,y com os racionais de 2 a 2 com intervalo de 0.1 entre si. N ao se esque ca de colocar ; no m da instru c ao, caso contr ario ser a mostrado o conte udo desses vectores (algo desnecess ario). Com o comando meshgrid pretende-se construir uma matriz quadrada onde x,y surgem copiados. Finalmente, dene-se Z=2*X-3*Y e solicita-se a representa c ao gr aca. Para obter a representa c ao gr aca precisa de ter o gnuplot instalado.

> x=[-2,0.1,2];
3

De facto, o que e armado pode ser facilmente considerado em Cn .

76 > > > > y=[-2,0.1,2]; [X,Y]=meshgrid (x,y); Z=2*X-3*Y; surf(X,Y,Z)

CAP ITULO 4.

ESPAC OS VECTORIAIS

Verique se a sua vers ao do gnuplot permite que rode a gura. Clique no bot ao esquerdo do rato e arraste a gura. Para sair do gnuplot, digite q. Como e obvio, o uso das capacidades gr acas ultrapassa em muito a representa c ao de planos. O seguinte exemplo surge na documenta c ao do octave: tx = ty = linspace (-8, 8, 41); [xx, yy] = meshgrid (tx, ty); r = sqrt (xx .^ 2 + yy .^ 2) + eps; tz = sin (r) ./ r; mesh (tx, ty, tz);

O conjunto U = (x, y, z ) R3 : x 2y + 1 e um subespa co de R3 , 2 z = 0 = x + y + 2z j a que U = N 1 2 1 2 . O subespa co U e dado pela intersec c ao do plano dado 1 1 2 1 z = 0 com o plano dado pela equa c ao x + y + 2z = 0. pela equa ca o x 2y + 2

Octave Para obtermos a representa c ao gr aca dos dois planos, vamos fazer variar x, y de 3 a 3, com intervalos de 0.1. O comando hold on permite representar v arias superf cies no mesmo gr aco. > > > > > > > > x=[-3:0.1:3]; y=x; [X,Y]=meshgrid (x,y); Z1=-2*X+4*Y; Z2=1/2*X-1/2*Y; surf(X,Y,Z1) hold on surf(X,Y,Z2)

Em vez de x=[-3:0.1:3]; poder amos ter usado o comando linspace. No caso, x=linspace(-3,3,60). A sintaxe e linspace(ponto_inicial,ponto_final,numero_de_divisoes). Vejamos como poderemos representar a recta U que e a intersec c ao dos dois planos referidos 3 atr as. Repare que os pontos (x, y, z ) R da recta s ao exactamente aqueles que satisfazem

4.4. RN E SEUS SUBESPAC OS (VECTORIAIS)

77

as duas equa c oes, ou seja, aqueles que s ao solu c ao do sistema homog eneo A[x y z ]T = 0, onde 1 2 1 2 . A= 1 1 2

> A=[1 -2 1/2; -1 1 2] A = 1.00000 -1.00000 > rref (A) ans = 1.00000 0.00000 0.00000 1.00000 -4.50000 -2.50000 -2.00000 1.00000 0.50000 2.00000

> solucao=[-(rref (A)(:,3));1] solucao = 4.5000 2.5000 1.0000


5 De facto, o comando rref (A) diz-nos que y 2 z = 0 = x 9 c oes 2 z , ou seja, que as solu 9 5 9 5 do homog eneo s ao da forma ( 2 z, 2 z, z ) = z ( 2 , 2 , 1), com z R. Ou seja, as solu c oes de A[x y z ]T = 0 s ao todos os m ultiplos do vector solucao. Outra alternativa seria a utiliza c ao do comando null(A).

> t=[-3:0.1:3]; > plot3 (solucao(1,1)*t, solucao(2,1)*t,solucao(3,1)*t);

O gnuplot n ao permite a grava c ao de imagens ` a custa do teclado ou do rato. Podemos, no entanto, imprimir a gura para um cheiro.

> print(grafico.pdf,-deps) > print(grafico.png,-dpng)

No primeiro caso obtemos um cheiro em formato eps (encapsulated postscript), e no segundo em formato PNG. A representa c ao dos dois planos ser a algo como a gura seguinte:

78

CAP ITULO 4.

ESPAC OS VECTORIAIS

10 5 0 -5 -10 2 1.5 1 2

0.5

-0.5

-1

-1.5

-2 -2

-1.5

-1

-0.5

0.5

1.5

Como e obvio, n ao estamos condicionados a R3 . Por exemplo, o conjunto W = (x1 , x2 , x3 , x4 ) R4 : x1 2x3 = 0 = x1 x2 + 4x4 e um subespa co de R4 . De facto, repare que W = N 1 0 2 0 1 1 0 4 vn .

Teorema 4.4.2. Sejam v1 , , vn Rm e A =

v1 v2

os vectores vi Rm ). Ent ao {v1 , , vn } e linearmente independente se e s o se car(A) = n. Demonstra c ao. Consideremos a equa c ao Ax = 0, com x = [x1 x2 xn ]T . Ou seja, consideremos a equa c ao x1 x2 = 0. A . . . xn Equivalentemente, x1 v1 + x2 v2 + + xn vn = 0. Ou seja, a independ encia linear de v1 , . . . , vn e equivalente a N (A) = {0} (isto e, 0 ser a u nica solu c ao de Ax = 0). Recorde que Ax = 0 e poss vel determinado se e s o se car(A) = n.

mn

(as colunas de A s ao

4.4. RN E SEUS SUBESPAC OS (VECTORIAIS)

79

Octave Com base no teorema anterior, vamos mostrar que > u=[1; 2; 3; 3]; v=[2; 0; 1; -1]; w=[0; 0; -1; -3]; s ao linearmente independentes. Tal e equivalente a mostrar que car > rank([u v w]) ans = 3 Para y = (1, 6, 7, 11), os vectores u, v, y n ao s ao linearmente independentes: > rank([u v y]) ans = 2 u v w = 3:

Teorema 4.4.3. Dados v1 , . . . , vm Rn , seja A a matriz A = v1 v2 vm Mnm (R) cujas colunas s ao v1 , . . . , vm . Ent ao w v1 , . . . , vm se e s o se Ax = w tem solu c ao. Demonstra c ao. Escrevendo Ax = w como [v1 . . . vm ] x1 x2 . . . xm temos que Ax = w tem solu c ao se e s o se existirem x1 , x2 , . . . , xm R tais que x1 v1 + x2 v2 + + xm vm = w, isto e, w v1 , . . . , vm . Deni c ao 4.4.4. Ao subespa co CS (A) = {Ax : x Rn } de Rm chamamos imagem de A, ou espa co das colunas de A. Por vezes, CS (A) e denotado tamb em por R(A) e por Im(A). O T espa co das colunas da A designa-se por espa co das linhas de A e denota-se por RS (A). = w,

Octave Considerando u, v, w, y como no exemplo anterior, vamos vericar se y u, v, w . Para A = e equivalente a vericar se Ax = y tem solu c ao. u v w , tal

80

CAP ITULO 4.

ESPAC OS VECTORIAIS

> u=[1; 2; 3; 3]; v=[2; 0; 1; -1]; w=[0; 0; -1; -3]; octave:23> A=[u v w] A = 1 2 3 3 2 0 1 -1 0 0 -1 -3 A y .

Ou seja, se carA = car > rank(A) ans = 3 > rank([A y]) ans = 3

De uma forma mais simples, > rank(A)==rank([A y ]) ans = 1 J a o vector (0, 0, 0 , 1) ao e combina ao linear de u, v, w, ou seja, (0, 0, 0, 1) / u, v, w . De n c 0 0 facto, carA = car A : 0 1 > rank([A [0;0;0;1]]) ans = 4

Vejamos qual a raz ao de se denominar espa co das colunas de A a CS (A). Escrevendo A = v1 v2 vn atrav es das colunas de A, pela forma como o produto de matrizes foi denido, obtemos 1 2 A . = 1 v1 + 2 v2 + + n vn . . . n O teorema anterior arma que b CS (A) (i.e., Ax = b e poss vel) se e s o se b for um elemento do espa co gerado pelas colunas de A. A classica c ao de sistemas de equa c oes lineares como imposs vel, poss vel determinado ou poss vel indeterminado, ganha agora uma nova perspectiva geom etrica.

4.4. RN E SEUS SUBESPAC OS (VECTORIAIS)

81 2 4 8 = b, com A = 1 2 4 2 3 5

Por exemplo, consideremos a equa c ao matricial A[x y z ]T

14 e b = 7 . O sistema e poss vel, j a que car(A) = car([A b]), mas e indeterminado pois 10 car(A) < 3.

Octave Depois de denirmos A e b no octave, > rank(A) ans = 2 > rank([A b]) ans = 2

As colunas de A, que geram CS (A), n ao s ao linearmente independentes. Como Ax = b e poss vel temos que b CS (A), mas n ao sendo as colunas linearmente independentes, b n ao se escrever a de forma u nica como combina c ao linear das colunas de A. O sistema de equa c oes tem como solu c oes as realiza c oes simult aneas das equa c oes 2x + 4y 8z = 14, x + 2y 4z = 7 e 2x + 3y + 5z = 10. Cada uma destas equa c oes representa um plano de R3 , e portanto as solu c oes de Ax = b s ao exactamente os pontos de R3 que est ao na intersec c ao destes planos.

Octave Vamos representar gracamente cada um destes planos para obtermos uma imagem do que ser a a intersec c ao. > > > > > > > > > > x=-3:0.5:3; y=x; [X,Y]=meshgrid(x,y); Z1=(14-2*X-4*Y)/(-8); surf(X,Y,Z1) Z2=(7-X-2*Y)/(-4); Z3=(10-2*X-3*Y)/(5); hold on surf(X,Y,Z2) surf(X,Y,Z3)

82

CAP ITULO 4.

ESPAC OS VECTORIAIS

A intersec c ao e uma recta de R3 , e portanto temos uma innidade de solu c oes da equa c ao Ax = b.
T

No entanto, o sistema Ax = c = 0 1 0 e imposs vel, j a que car(A) = 2 = 3 = car([A c]). A intersec c ao dos planos dados pelas equa c oes do sistema e vazia. 1 1 0 Considere agora A = 1 0 e b = 1 . O facto de Ax = b ser imposs vel 1 1 0 (compare a caracter stica de A com a de [A b]) signica que b CS (A). Ora CS (A) = (1, 1, 1), (1, 0, 1) , ou seja, CS (A) e o conjunto dos pontos de R3 que se escrevem da forma (x, y, z ) = (1, 1, 1) + (1, 0, 1) = ( + , , + ), , R.

Octave

> aa=-3:0.5:3; bb=aa; > [ALFA,BETA]=meshgrid(aa,bb); > surf(ALFA+BETA,ALFA,-ALFA+BETA)

Com alguns c alculos, podemos encontrar a equa c ao que dene CS (A). Recorde que se
T

pretende encontrar os elementos

x y z

para os quais existem , R tais que x = y . z

1 1 1 0 1 1

Usando o m etodo que foi descrito na parte sobre resolu c ao de sistemas lineares, 1 1 x 1 1 x yx 1 0 y 0 1 . 1 1 z 0 0 z x + 2y Como o sistema tem que ter solu c oes , , somos for cados a ter z = x 2y .

Octave

4.4. RN E SEUS SUBESPAC OS (VECTORIAIS) > x=-3:0.5:3; y=x; > [X,Y]=meshgrid(x,y); > surf(X,Y,-2*Y+X); hold on;

83

plot3([0],[1],[0],x)

Ora Ax = b e imposs vel, pelo que b CS (A). Ou seja, b n ao e um ponto do plano gerado pelas colunas de A.

CS(A) b

8 6 4 2 0 z -2 -4 -6 0 -8 -3 -2 -1 y 0 1 2 2 3 3 1 -3 -2 -1 x

Se A for invert vel, ent ao CS (A) = Rn (neste caso, tem-se necessariamente m = n). De facto, para x Rn , podemos escrever x = A(A1 x), pelo que, tomando y = A1 x Rn , temos x = Ay CS (A). Portanto, Rn CS (A) Rn . Se A, B s ao matrizes reais para as quais AB existe, temos a inclus ao CS (AB ) CS (A). De facto, se b CS (AB ) ent ao ABx = b, para algum x. Ou seja, A(Bx) = b, pelo que b CS (A). Se B for invert vel, ent ao CS (AB ) = CS (A). Esta igualdade ca provada se se mostrar que CS (A) CS (AB ). Para b CS (A), existe x tal que b = Ax = A(BB 1 )x = (AB )B 1 x, e portanto b CS (AB ). Recordemos, ainda, que para A matriz real m n, existem matrizes P, L, U permuta c ao, triangular inferior com 1s na diagonal (e logo invert vel) e escada, respectivamente, tais que P A = LU.

84 Ou seja,

CAP ITULO 4.

ESPAC OS VECTORIAIS

A = P 1 LU. Finalmente, e a comprova c ao deste facto ca ao cargo do leitor, as linhas n ao nulas de U , matriz obtida de A por aplica ca o do m etodo de elimina c ao de Gauss, s ao linearmente independentes. Para A, P, L, U denidas atr as, RS (A) = CS (AT ) = CS (U T (P 1 L)T ) = CS (U T ) = RS (U ). Ou seja, o espa co das linhas de A e o das linhas de U s ao o mesmo, e uma base de RS (A) n s ao as linhas n ao nulas de U enquanto elementos de R . Temos, ent ao, RS (A) = RS (U ) e dim RS (A) = car(A) Seja QA a forma normal de Hermite de A. Portanto, existe uma matriz permuta c ao Perm Ir M tal que QAPerm = , onde r = car(A). Repare que CS (QA) = CS (QAPerm ), 0 0 j a que o conjunto gerador e o mesmo (ou ainda, porque Perm e invert vel). As primeiras r colunas de Im formam uma base de CS (QAPerm ) = CS (QA), e portanto dim CS (QA) = r. Pretendemos mostrar que dim CS (A) = car(A) = r. Para tal, considere o lema que se segue: Lema 4.4.5. Seja Q uma matriz n n invert vel e v1 , v2 , . . . , vr Rn . Ent ao {v1 , v2 , . . . , vr } e linearmente independente se e s o se {Qv1 , Qv2 , . . . , Qvr } e linearmente independente. Demonstra c ao. Repare que Usando o lema anterior, dim CS (A) = dim CS (QA) = r = car(A). Sendo U a matriz escada de linhas obtida por Gauss, U e equivalente por linhas a A, e portanto dim CS (U ) = dim CS (A) = car(A).
r i=1 i Qvi

= 0 Q(

r i=1 i vi )

=0

r i=1 i vi

= 0.

Octave Considere os vectores de R3 > u=[1; 0; -2]; v=[2; -2; 0]; w=[-1; 3; -1]; Estes formam uma base de R3 , j a que CS ( u v w ) = R3 . Esta igualdade e v alida j a que CS ( u v w ) R3 e car( u v w ) = dim CS ( u v w ) = 3: > A=[u v w] A = 1 2 -1

4.4. RN E SEUS SUBESPAC OS (VECTORIAIS) 0 -2 -2 0 3 -1

85

> rank(A) ans = 3 J a os vectores u, v, q , com q = (5, 6, 2) n ao s ao uma base de R3 . De facto, A=[u v q] A = 1 0 -2 2 -2 0 -5 6 -2

> rank(A) ans = 2 e portanto dim CS ( u v q ) = 2 = 3 = dim R3 . As colunas da matriz n ao s ao linearmente independentes, e portanto n ao s ao uma base do espa co das colunas da matriz u v q .

A quest ao que se coloca aqui e: como obter uma base para CS (A)?

Octave Suponha que V e a matriz escada de linhas obtida da matriz AT . Recorde que RS (AT ) = RS (V ), e portanto CS (A) = CS (V T ). Portanto, e considerando a matriz A=[u v q] do exemplo anterior, basta-nos calcular a matriz escada de linhas associada a AT : > [l,V,p]=lu(A); V ans = -5.00000 6.00000 -2.00000 0.00000 1.20000 -2.40000 0.00000 0.00000 0.00000

As duas primeiras colunas de V formam uma base de CS (A). Em primeiro lugar, verica-se que as r colunas de U com pivot, digamos ui1 , ui2 , . . . , uir s ao

86

CAP ITULO 4. x1 x2 . . .

ESPAC OS VECTORIAIS

linearmente independentes pois

ui1

ui2

...

u ir

=0 e poss vel determinado.

xr Em segundo lugar, vamos mostrar que as colunas de A correspondentes ` as colunas de U com pivot s ao tamb em elas linearmente independentes. Para tal, alertamos para a igualdade esima coluna de In . Tendo U ei1 . . . eir = ui1 ui2 . . . uir , onde eij indica a ij - x1 x2 1 e poss vel determinado, segue que, U = L P A, e como ui1 ui2 . . . uir . =0 . . xr x1 x2 1 = 0 admite apenas a pela invertibilidade de L P , a equa c ao A ei1 . . . eir . . . xr solu c ao nula. Mas A ei1 . . . eir e a matriz constitu da pelas colunas i1 , i2 , . . . , ir de A, pelo que estas s ao linearmente independentes, em n umero igual a r = car(A). Visto dim CS (A) = r, essas colunas constituem de facto uma base de CS (A).

Octave Seja A a matriz do exemplo anterior: > A A = 1 0 -2 2 -2 0 -5 6 -2

Vamos agora descrever esta segunda forma de encontrar uma base de CS (A). Como j a vimos, carA = 2, pelo que as colunas de A n ao formam uma base de CS (A) pois n ao s ao linearmente independentes, e dim CS (A) = 2. Fa camos a decomposi c ao P A = LU : > [l,u,p]=lu(A); u u = -2 0 0 0 -2 0 -2 6 0

4.4. RN E SEUS SUBESPAC OS (VECTORIAIS)

87

Uma base poss vel para CS (A) s ao as colunas de A correspondendo ` as colunas de u que t em pivot. No caso, a primeira e a segunda colunas de A formam uma base de CS (A).

Finalmente, como car(AT ) = dim CS (AT ) = dim RS (A) = car(A), temos a igualdade car(A) = car(AT ).

Repare que N (A) = N (U ) j a que Ax = 0 se e s o se U x = 0. Na resolu c ao de U x = 0, e feita a separa c ao das inc ognitas em b asicas e em livres. Recorde que o n umero destas u ltimas e denotado por nul(A). Na apresenta c ao da solu c ao de Ax = 0, obtemos, pelo algoritmo para a resolu c ao da equa c ao somas de vectores, cada um multiplicado por uma das inc ognitas livres. Esses vectores s ao geradores de N (A), e s ao em n umero igual a n r, onde r = car(A). Queremos mostrar que nul(A) = dim N (A). Seja QA a forma normal de Hermite de A; existe Ir M P permuta c ao tal que QAP = = HA , tendo em mente que r m, n. Como Q 0 0 e invert vel, segue que N (QA) = N (A). Sendo HA a matriz obtida de QA fazendo trocas convenientes de colunas, tem-se nul(HA ) = nul(QA) = nul(A). Denamos a matriz quadrada, Ir M de ordem n, GA = . Como HA GA = HA segue que HA (In G) = 0, e portanto 0 0 as colunas de In G pertencem a N (HA ). Mas In G = 0 M 0 Inr e as suas u ltimas

M Inr n r colunas s ao linearmente independentes (j a que car = car = Inr M T Inr = n r). Logo, dim N (A) = dim N (HA ) n r. Pelo que vimos atr car as, M dim N (A) = dim N (U ) n r. Segue das duas desigualdades que nul(A) = dim N (A). Como n = car(A) + nul(A), obtemos, nalmente, n = dim CS (A) + dim N (A).

Octave Vamos aplicar os resultados desta sec c ao num caso concreto. Considere o subespa co W de R3 gerado pelos vectores (1, 2, 1), (2, 3, 1), (3, 1, 2), (4, 1, 2), (5, 0, 4). Como temos 5 vectores de um espa co de dimens ao 3, eles s ao necessariamente linearmente dependentes. Qual a dimens ao de W ? W e o espa co das colunas da matriz A, cujas colunas s ao os vectores dados:

88 > A=[1 2 3 4 5; 2 -3 1 1 0; 1 -1 2 2 4]; Ora dim CS (A) = car(A). > [L,U,P]=lu(A); U U = 2.00000 0.00000 0.00000 -3.00000 3.50000 0.00000 1.00000 2.50000 1.14286 1.00000 3.50000 1.00000

CAP ITULO 4.

ESPAC OS VECTORIAIS

0.00000 5.00000 3.2857

Ou seja, dim W = 3. Como W R3 e t em a mesma dimens ao, ent ao W = R3 . Ou seja, as colunas de A geram R3 . As colunas de A que formam uma base para W s ao aquelas correspondentes ` as colunas de U que t em pivot; neste caso, as tr es primeiras de U . Uma base B para W e o conjunto formado pelos vectores v1 = (1, 2, 1), v2 = (2, 3, 1), v3 = (3, 1, 2). Vamos agora calcular as coordenadas de b=[0; -2; -2] nesta base. Tal corresponde a resolver a equa c ao v1 v2 v3 x = b: > b=[0; -2; -2] b = 0 -2 -2 > B=A(:,[1,2,3]) B = 1 2 1 2 -3 -1 3 1 2

> coord=inverse(B)*b coord = 1.00000 1.00000 -1.00000 1 Ou seja, (0, 2, 2)B = 1 . 1 Vamos, de seguida, apresentar alguns resultados importantes que se podem deduzir facilmente ` a custa de car(A) + nul(A) = n, onde A e uma matriz m n. Pressup oe-se que B e uma matriz tal que AB existe.

4.4. RN E SEUS SUBESPAC OS (VECTORIAIS)

89

1. car(AB ) car(A). Como vimos na sec c ao anterior, CS (AB ) CS (A), pelo que dim CS (AB ) dim CS (A). 2. Se B e invert vel ent ao car(A) = car(AB ). 3. N (B ) N (AB ). Se b N (B ) ent ao Bb = 0. Multiplicando ambos os lados, ` a esquerda, por A obtemos ABb = 0, pelo que b N (AB ). 4. nul(B ) nul(AB ). 5. N (AT A) = N (A). Resta mostrar que N (AT A) N (A). Se x N (AT A) ent ao AT Ax = 0. Multiplicando ambos os lados, ` a esquerda, por xT obtemos xT AT Ax = 0, pelo (Ax)T Ax = 0. Seja 2 + y 2 + . . . y 2 = 0. A soma de reais n (y1 , . . . , yn ) = y = Ax. De y T y = 0 obtemos y1 ao n 2 2 = 0, e portanto y = 0. negativos e zero se e s o se cada parcela e nula, pelo que cada yi i Ou seja, y = 0, donde segue que Ax = 0, ou seja, que x N (A). 6. nul(AT A) = nul(A). 7. car(AT A) = car(A) = car(AAT ). De car(A) + nul(A) = n = car(AT A) + nul(AT A) e nul(AT A) = nul(A) segue que car(AT A) = car(A). Da mesma forma, car(AT ) = car(AAT ). Como car(A) = car(AT ), obtemos car(A) = car(AAT ). 8. Se car(A) = n ent ao AT A e invert vel. T A A e uma matriz nn com caracter stica igual a n, pelo que e uma matriz n ao-singular, logo invert vel. Como motiva c ao para o que se segue, suponha que se quer encontrar (caso exista) a recta 2 r de R que incide nos pontos (2, 5), (0, 1), (1, 1). Sendo a recta n ao vertical, ter a uma equa c ao da forma y = mx + c, com m, c R. Como r incide nos pontos indicados, ent ao necessariamente 5 = m (2) + c, 1 = m 0 + c, 1 = m 1 + c. A formula c ao matricial deste sistema 2 0 1 de equa c oes lineares 1 5 m = 1 1 c 1 1 (nas inc ognitas m e c) e .

O sistema e poss vel determinado, pelo que a exist encia da recta e a sua unicidade est a garantida. A u nica solu c ao e (m, c) = (2, 1) e portanto a recta tem equa c ao y = 2x 1. No entanto, se considerarmos como dados os pontos (2, 5), (0, 0), (1, 1), facilmente chegar amos ` a conclus ao que n ao existe uma recta incidente nos tr es pontos. Para tal, basta mostrar que o sistema de equa c oes dado pelo problema (tal como zemos no caso anterior) e imposs vel. Obtemos a rela c ao b CS (A),

90

CAP ITULO 4.

ESPAC OS VECTORIAIS

2 1 5 onde A = 0 1 e b = 0 . Suponha que os pontos dados correspondem a leituras 1 1 1 de uma certa experi encia, pontos esses que, teoricamente, deveriam ser colineares. Ou seja, em algum momento houve um desvio da leitura em rela c ao ao que se esperaria. Desconhece-se qual ou quais os pontos que sofreram incorrec c oes. Uma solu c ao seria a de negligenciar um imediato concluir que este racioc dos pontos e considerar os outros dois como correctos. E nio pode levar a conclus oes err oneas. Por exemplo, vamos pressupor que e o primeiro dado que est a incorrecto (o ponto (2, 5)). A rectas que passa pelos pontos (0, 0), (1, 1) tem como equa c ao y = x. Ora se o erro esteve efectivamente na leitura do ponto (0, 0) (que deveria ser (0, 1)) ent ao o resultado correcto est a bastante distante do que obtiv emos. O utilizador desconhece qual (ou quais, podendo haver leituras incorrectas em todos os pontos) dos dados sofreu erros. Geometricamente, a primeira estrat egia corresponde a eliminar um dos pontos e tra car a recta que incide nos outros dois. Uma outra que, intuitivamente, parece a mais indicada, ser a a de, de alguma forma e com mais ou menos engenho, tra car uma recta que se tente aproximar o mais poss vel de todos os pontos, ainda que n ao incida em nenhum deles!

-1 y -2 -3 -4 -5 -6 -4 -3 -2 -1 0 x 1 2 3 4

Vamos, de seguida, usar todo o engenho que dispomos para encontrar a recta que se aproxima o mais poss vel dos pontos (2, 5), (0, 0), (1, 1). Sabendo que b CS (A), precisamos de encontrar b CS (A) por forma a que b seja o ponto de CS (A) mais pr oximo de b. Ou seja, pretendemos encontrar b CS (A) tal que

4.4. RN E SEUS SUBESPAC OS (VECTORIAIS)

91

d(b, b ) = mincCS (A) d(c, b), onde d(u, v ) = u v . O ponto b e o de CS (A) que minimiza a dist ancia a b. Este ponto b eu nico e e tal que b b e ortogonal a todos os elementos de CS (A). A b chamamos projec c ao ortogonal de b sobre (ou ao longo) de CS (A), e denota-se por projCS (A) b.

CS(A) b projeccao de b

6 4 2 0 z -2 -4 2 -6 6 0 4 2 y -2 0 -2 -4 -4 -6 -6 x 6 4

Apresentamos, de seguida, uma forma f acil de c alculo dessa projec c ao, quando as colunas de A s ao linearmente independentes. Neste caso, AT A e invert vel e a projec c ao de b sobre CS (A) e dada por b = A(AT A)1 AT b.

Octave Aconselhamos que experimente o c odigo seguinte no octave e que manipule o gr aco por forma a claricar que b CS (A): x=[-2;0;1]; y=[-5; 0; 1];b=y; A=[x [1;1;1]] alfa=-6:0.5:6;beta=alfa; [AL,BE]=meshgrid (alfa,beta); Z=0.5*(-AL+3*BE); mesh(AL,BE,Z) hold on plot3([-5],[0],[1],x) projb=A*inv(A*A)*A*b; plot3([projb(1,1)],[projb(2,1)],[projb(3,1)],o)

92 axis ([-6, 6,-6 , 6, -6,6], "square") legend(CS(A),b,projeccao de b ); xlabel (x);ylabel (y);zlabel (z); Calculou-se projb a projec c ao de b sobre CS (A).

CAP ITULO 4.

ESPAC OS VECTORIAIS

Pretendemos agora encontrar x por forma a que Ax = b , ou seja, x por forma a que a dist ancia de Ax a b seja a menor poss vel. Repare que se Ax = b e imposs vel, ent ao essa dist ancia ser a, seguramente, n ao nula. A equa c ao Ax = b e sempre poss vel, j a que b = A(AT A)1 AT b CS (A); ou seja, b escreve-se como Aw, para algum w (bastando tomar w = (AT A)1 AT b). No entanto, o sistema pode ser indeterminado, e nesse caso poder a interessar, de entre todas as solu c oes poss veis, a que tem norma m nima. O que acab amos por exp or, de uma forma leve e ing enua, denomina-se o m etodo dos m nimos quadrados, e a x solu c ao de Ax = b de norma minimal, denomina-se a solu c ao no sentido dos m nimos quadrados de norma minimal.

Octave Vamos agora mostrar como encontr amos a recta que melhor se ajustava aos 3 pontos apresentados no in cio desta sec c ao. x=[-2;0;1]; y=[-5; 0; 1];b=y; A=[x [1;1;1]] xx=-6:0.5:6; solminq=inv(A*A)*A*b yy=solminq(1,1)*xx+solminq(2,1); plot(x,y,x,xx,yy); xlabel (x);ylabel (y); Para mudar as escalas basta fazer set(gca,"XLim",[-4 4]); set(gca,"YLim",[-6 6]), ou em alternativa axis ([-4, 4,-6 , 3], "square");. Para facilitar a leitura dos pontos, digite grid on. Uma forma alternativa de encontrar x solu c ao de Ax = projCS (A) b seria solminq=A\b em vez de solminq=inv(A*A)*A*b. Ao inv es de procurarmos a recta que melhor se adequa aos dados dispon veis, podemos procurar o polin omio de segundo, terceiro, etc, graus. Se os dados apresentados forem pontos 3 de R , podemos procurar o plano que minimiza as somas das dist ancias dos pontos a esse plano. E assim por diante, desde que as fun c oes que denem a curva ou superf cie sejam lineares nos par ametros. Por exemplo, ax2 + bx + c = 0 n ao e uma equa c ao linear em x mas e-o em a e b. No endere co http://www.nd.edu/~powers/ame.332/leastsquare/leastsquare.pdf pode encontrar informa c oes adicionais sobre o m etodo dos m nimos quadrados e algumas aplica c oes. Em enacit1.epfl.ch/cours_matlab/graphiques.html pode encontrar alguma descri c ao das capacidades gr acas do Gnu-octave recorrendo ao GnuPlot.

4.4. RN E SEUS SUBESPAC OS (VECTORIAIS)

93

Exemplo 4.4.6. O exemplo que de seguida apresentamos baseia-se no descrito em [3, pag.58] Suponha que se est a a estudar a cin etica de uma reac c ao enzim atica que converte um substrato S num produto P, e que essa reac c ao segue a equa c ao de Michaelis-Menten, r= onde 1. [E ]0 indica concentra c ao enzim atica original adicionada para iniciar a reac c ao, em gramas de E por litro, 2. r e o n umero de gramas de S convertido por litro por minuto (ou seja, a velocidade da reac c ao), 3. k2 e o n umero de gramas de S convertido por minuto por grama de E . Depois de se efectuar uma s erie de experi encias, obtiveram-se os dados apresentados na tabela seguinte, referentes ` a taxa de convers ao de gramas de S por litro por minuto: [S ] g s/l 1.0 2.0 5.0 7.5 10.0 15.0 20.0 30.0 [E ]0 = 0.005 gE /l 0.055 0.099 0.193 0.244 0.280 0.333 0.365 0.407 [E ]0 = 0.01 gE /l 0.108 0.196 0.383 0.488 0.569 0.665 0.733 0.815 k2 [E ]0 [S ] , Km + [S ]

Re-escrevendo a equa c ao de Michaelis-Menten como [E ]0 Km 1 1 = + , r k2 [S ] k2 obtemos um modelo linear y = b1 x + b0 com y= [E ]0 1 1 Km ,x= , b0 = , b1 = . r [S ] k2 k2

Denotemos os dados x e y por xi e yi , com i = 1, . . . , 8. Este sistema de equa c oes lineares tem a representa c ao matricial y1 y2 b1 A =y= . b0 . . y8

94

CAP ITULO 4.

ESPAC OS VECTORIAIS

x1 1 x2 1 b1 . A u com A = nica solu c ao de AT A = y indica-nos a solu c ao no sentido dos . . . . b0 . . x8 1 m nimos quadrados da equa c ao matricial, e daqui obtemos os valores de k2 e de Km .

Octave Vamos denir S, r1 e r2 como os vectores correspondentes ` as colunas da tabela: > > > > > > S=[1;2;5;7.5;10;15;20;30]; r1=[0.055;0.099;0.193;0.244;0.280;0.333;0.365;0.407]; r2=[0.108;0.196;0.383;0.488;0.569;0.665;0.733;0.815]; x=1./S; y1=0.005./r1; y2=0.01./r2;

Denimos tamb em os quocientes respeitantes a y . A nota c ao a./b indica que se faz a divis ao elemento a elemento do vector b. Finalmente, denimos a matriz do sistema. Usou-se ones(8) para se obter a matriz 8 8 com 1s nas entradas, e depois seleccionou-se uma das colunas. > A=[x ones(8)(:,1)] A = 1.000000 0.500000 0.200000 0.133333 0.100000 0.066667 0.050000 0.033333 1.000000 1.000000 1.000000 1.000000 1.000000 1.000000 1.000000 1.000000

> solucao1=inv(A*A)*A*y1 solucao1 = 0.0813480 0.0096492 > solucao2=inv(A*A)*A*y2 solucao2 = 0.0831512

4.4. RN E SEUS SUBESPAC OS (VECTORIAIS) 0.0094384

95

Recorde que se poderia ter usado solucao1=A\y1. Daqui obtemos valores para k2 , Km para cada uma das experi encias. Vamos denot a-los, respectivamente, por k21 Km1 k22 Km2. > k21=1./solucao1(2,1) k21 = 103.64 > k22=1./solucao2(2,1) k22 = 105.95 > Km1=solucao1(1,1)*k21 Km1 = 8.4306 > Km2=solucao2(1,1)*k22 Km2 = 8.8098 > s=0:0.1:35; > R1=(k21.*0.005*s)./(Km1+s); > R2=(k22.*0.01*s)./(Km2+s); > plot(s,R1,S,r1,o,s,R2,S,r2,o) > grid on; legend(E0=0.005, ,E0=0.01, );

0.8

E0=0.005 E0=0.01

0.7

0.6

0.5

0.4

0.3

0.2

0.1

0 0 5 10 15 20 25 30 35

96

CAP ITULO 4.

ESPAC OS VECTORIAIS

Cap tulo 5

Valores e vectores pr oprios


5.1 Motiva c ao e deni c oes
1 2 2 2 . Para b = 1 0 , obtemos Ab = 1 2 . Mas se tomarmos

Considere a matriz A = c= 2 1

, temos que Ac = 2c. Ou seja, Ac e um m ultiplo de c.

Ac

Ac

Dada uma matriz complexa A quadrada, n n, um vector x Cn n ao nulo diz-se um vector pr oprio de A se Ax = x, para algum C. O complexo e denominado valor pr oprio, e dizemos que x e vector pr oprio associado a . O conjunto dos valores pr oprios de A e denotado por (A) e e chamado de espectro de A. 2 No exemplo apresentado atr as, temos que 2 (A) e que e vector pr oprio associado 1 ao valor pr oprio 2. Uma quest ao que colocamos desde j a e: Como encontrar (A)? Ora, sendo A uma matriz complexa n n e se e valor pr oprio de A ent ao existe x Cn \ {0} para o qual Ax = x. Ou seja, In x Ax = x Ax = 0, o que equivale a (In A)x = 0. Como x = 0, tal signica que a equa c ao (In A)x = 0 e consistente e que tem 97

98

CAP ITULO 5.

VALORES E VECTORES PROPRIOS

solu c ao n ao nula. Isto e, a matriz quadrada In A tem caracter stica estritamente inferior ao n umero de colunas, o que acontece se e s o se n ao e invert vel, ou de forma equivalente, o seu determinante e nulo. Os valores pr oprios de A s ao os escalares que tornam In A uma matriz singular, ou seja, que satisfazem |In A| = 0. Ora |In A| e um polin omio em , usando o teorema de Laplace, denominado polin omio caracter stico de A, e denotado por A . Os valores pr oprios de A s ao as raizes do polin omio caracter stico A , ou seja, as solu c oes da equa c ao A () = 0. Esta equa c ao e chamada a equa c ao caracter stica de A. Determinar os valores pr oprios de uma matriz equivalente a determinar as raizes do seu polin omio caracter stico. Usando o teorema de Laplace, este polin omio tem grau igual ` a n ordem da matriz A, que assumimos n n, e e m onico: o coeciente de de A () e 1. Pelo Teorema Fundamental da Algebra, sendo o grau de A igual a n este tem n raizes (contando as suas multiplicidades) sobre C. Ou seja, a matriz A do tipo n n tem ent ao n valores pr oprios (contando com as suas multiplicidades). Sabendo que se z C e raiz de A ent ao o conjugado z de z e raiz de A , segue que se (A) ent ao (A). Em particular, se A tem um n umero mpar de valores pr oprios (contado as suas multiplicidades) ent ao tem pelo menos um valor pr oprio real. Isto e, (A) R = . A multiplicidade alg ebrica de um valor pr oprio e a multiplicidade da raiz de A . Vimos no que se discutiu acima uma forma de determinar os valores pr oprios de uma matriz. Dado um valor pr oprio , Como determinar os vectores pr oprios associados a (A)? Recorde que os vectores pr oprios associados a (A) s ao as solu c oes n ao-nulas de Ax = x, ou seja, as solu c oes n ao nulas de (In A)x = 0. Isto e, os vectores pr oprios de A associados a s ao os elementos n ao nulos de N (In A). Recorde que o n ucleo de qualquer matriz e um espa co vectorial, e portanto N (In A) e o espa co vectorial dos vectores pr oprios de A associados a juntamente com o vector nulo, e denomina-se espa co pr oprio de A associado a . A multiplicidade geom etrica de e a dimens ao do espa co pr oprio associado a , isto e, dim N (In A). O resultado seguinte resume o que foi armado na discuss ao anterior. Teorema 5.1.1. Sejam A uma matriz n n e C. As arma c oes seguintes s ao equivalentes: 1. (A); 2. (In A)x = 0 e uma equa c ao poss vel indeterminada; 3. xCn \{0} Ax = x; n A| = 0. 4. e solu c ao de |I Para a matriz considerada acima, A = A () = 1 2 2 2 , o seu polin omio caracter stico e

1 2 = 2 + 6, cujas raizes s ao 3, 2. Portanto, (A) = {3, 2}, 2 + 2 e cada valor pr oprio de A tem multiplicidade alg ebrica igual a 1.

E DEFINIC 5.1. MOTIVAC AO OES

99

Teorema 5.1.2. Sejam A uma matriz quadrada e (A) com multiplicidade alg ebrica e multiplicidade geom etrica . Ent ao .

Octave Dena a matriz A no Octave: > A=[1 2; 2 -2] A = 1 2 2 -2

Os coecientes do polin omio caracter stico de A, por ordem decrescente do expoente de , s ao obtidos assim: > poly(A) ans = 1 1 -6

Ou seja, A () = 2 + 6. As raizes de A s ao os elementos de (A): > roots (poly(A)) ans = -3 2 A multiplicidade algb ebrica de cada um deles e 1. Os valores pr oprios de uma matriz dada s ao calculados de forma directa fazendo uso de > eig(A) ans = -3 2 Resta-nos determinar vectores pr oprios associados a cada um destes valores pr oprios. Recorde que os vectores pr oprios associados a 3 [resp. 2] s ao os elementos n ao nulos de N (3I2 A) [resp. N (2I2 A)], pelo que nos basta pedir uma base para cada espa co pr oprio:

100 > null(-3*eye(2)-A) ans = 0.44721 -0.89443 > null(2*eye(2)-A) ans = 0.89443 0.44721

CAP ITULO 5.

VALORES E VECTORES PROPRIOS

Ora a dimens ao de cada um desses espa cos vectoriais e 1, pelo que, neste caso, as multiplicidades alg ebrica e geom etrica de cada um dos valores pr oprios s ao iguais. Mais adiante mostraremos uma forma mais expedita de obtermos estas informa c oes.

5.2

Propriedades

Nos resultados que se seguem descrevemos algumas propriedades dos valores pr opios. Teorema 5.2.1. Dada uma matriz quadrada A, (A) = (AT ). Demonstra c ao. Recorde que |I A| = |(I A)T | = |I AT |. Teorema 5.2.2. Os valores pr oprios de uma matriz triangular (inferior ou superior) s ao os seus elementos diagonais. Demonstra c ao. Seja A = [aij ] triangular superior, n n. Ora (A) e o conjunto das solu c oes de |In A|. Mas In A e de novo uma matriz triangular superior j a que In e diagonal. Portanto |In A| e o produto dos seus elementos diagonais, ou seja, ( a11 )( a22 ) ( ann ), que tem como raizes a11 , a22 , . . . , ann . Teorema 5.2.3. Uma matriz A, quadrada, e invert vel se e s o se 0 (A). Demonstra c ao. Sejam A uma matriz quadrada de ordem n e A () = n + c1 n1 + + cn1 + cn o polin omio caracter stico de A. Ora 0 (A) se e s o se 0 e raiz de A , ou de forma equivalente, cn = 0. Por deni c ao, A () = |In A|. Tomando = 0 obtemos (1)n |A| = | A| = cn . tal implica que |A| = 0 se e s o se cn = 0. Portanto A n ao e invert vel se e s o se cn = 0 o que por sua vez vimos ser equivalente a 0 (A). Teorema 5.2.4. Sejam A uma matriz quadrada e k N. Se (A) e x e vector pr oprio associado a ent ao k (Ak ) e x e vector pr oprio de Ak associado a k .

5.3. MATRIZES DIAGONALIZAVEIS

101

Demonstra c ao. Se (A) e x e vector pr oprio associado a ent ao Ax = x. Desta igualdade segue que, para qualquer k N, se tem Ak x = Ak1 Ax = Ak1 x = Ak1 x = = k x e portanto (Ak ) e x e vector pr oprio de Ak associado a k . Recordamos que uma matriz N , n n, se diz nilpotente se existir um natural k para o qual N k = 0nn . Alertamos ainda para o facto de (0nn ) = {0}; isto e, a matriz nula s o tem um valor pr oprio: o zero. Corol ario 5.2.5. Se N e uma matriz nilpotente ent ao (N ) = {0}. Demonstra c ao. Suponha que k e tal que N k = 0nn . Seja (N ). Ent ao k e valor pr oprio k k de N = 0nn ; portanto, = 0, do que segue que = 0. Terminamos esta sec c ao com duas observa c oes, omitindo a sua prova: (i) O determinante de uma matriz iguala o produto dos seus valores pr oprios. (ii) O tra co de uma matriz (ou seja, a soma dos elementos diagonais de uma matriz) iguala a soma dos seus valores pr oprios.

5.3

Matrizes diagonaliz aveis

Nesta sec c ao, vamo-nos debru car sobre dois problemas, que ali as, e como veremos, est ao relacionados. Assume-se que A e uma matriz n n sobre C. Essas quest oes s ao: # 1. Existe uma base de Cn constitu da por vectores pr oprios de A? # 2. Existe uma matriz U invert vel para a qual U 1 AU e uma matriz diagonal? Recordamos a no c ao de semelhan ca entre matrizes. As matriz A e B dizem-se semelhantes, e denota-se por A B , se existir uma matriz invert vel U para a qual B = U 1 AU . Repare que as matrizes A, B s ao necessariamente quadradas. E obvio que se A B ent ao B A; de facto, se B = U 1 AU ent ao U BU 1 = A. Deni c ao 5.3.1. Uma matriz quadrada A diz-se diagonaliz avel se existir uma matriz dia 1 ` matriz U gonal D tal que A D. Isto e, A = U DU , para alguma matriz U invert vel. A chamamos matriz diagonalizante. E obvio que uma matriz diagonal e diagonaliz avel, bastando tomar a matriz identidade como matriz diagonalizante. O resultado seguinte n ao s o nos caracteriza as matrizes diagonaliz aveis, mas tamb em, ` a custa da sua prova, obtemos um algoritmo para encontrar a matriz diagonal e a a respectiva matriz diagonalizante.

102

CAP ITULO 5.

VALORES E VECTORES PROPRIOS

Teorema 5.3.2. Uma matriz n n e diagonaliz avel se e s o se tiver n vectores pr oprios linearmente independentes. Demonstra c ao. Em primeiro lugar, assumimos que A e diagonaliz avel; ou seja, existe uma 1 0 . 1 .. vel tal que U AU = D = matriz U = u1 u2 un invert . 0 n 1 Como e obvio, de U AU = D segue que AU = U D. Portanto, Au1 Au2 Aun = AU = u1 u2 un 0 = e portanto Au1 = 1 u1 Au2 = 2 u2 . . . . . . . Au = u n n n Como U e invert vel, ent ao n ao pode ter colunas nulas, pelo que ui = 0. Portanto, 1 , 2 , . . . , n s ao valores pr oprios de A e u1 , u2 , . . . , un s ao respectivos vectores pr oprios. Sendo U invert vel, as suas colunas s ao linearmente independentes, e portanto A tem n vectores pr oprios linearmente independentes. Reciprocamente, suponha que A tem n vectores pr oprios linearmente independentes. Sejam eles os vectores u1 , u2 , . . . , un , associados aos valores pr oprios (n ao necessariamente distintos) 1 , 2 , . . . , n . Seja U a matriz cujas colunas s ao os vectores pr oprios considerados acima. Ou seja, U = u1 u2 un . Ora esta matriz quadrada n n tem caracter stica igual a n, pelo que e invert vel. De Au1 = 1 u1 Au2 = 2 u2 . . . . . . Au = u n n n segue que Au1 Au2 Aun = 1 u1 2 u2 n un A u1 u2 un = u1 u2 un 0 1 .. . n e portanto 0 . 1 u1 2 u2 n un 1 .. . n 0

5.3. MATRIZES DIAGONALIZAVEIS Multiplicando ambas as equa c oes, ` a esquerda, por u1 u2 u1 u2


1 1

103 un 1 .. 0 . n , obtemos 0 .

un

u1 u2

un

Real camos o facto da demonstra c ao do teorema nos apresentar um algoritmo de diagonaliza c ao de uma matriz n n com n vectores linearmente independentes. De facto, de 1 0 1 .. A u1 u2 un = u1 u2 un obtemos . 0 A= u1 u2 un 0 1 .. . n 0 u1 u2
1

un

Uma matriz diagonalizante e a matriz cujas colunas s ao os vectores pr oprios linearmente independentes dados, e a matriz diagonal correspondente e a matriz cuja entrada (i, i) e o valor pr oprio i correspondente ` a coluna i (e portanto ao i esimo vector pr oprio) da matriz diagonalizante. 1 2 , vimos atr as que (A) = {3, 2}. Ser a A diagonaliz avel? 2 2 Um vector pr oprio associado ao valor pr oprio 3 e um elemento n ao nulo de N (3I2 A). Encontrar um vector pr oprio associado a 3 e equivalente a encontrar uma solu c ao n ao nula 1 e vector pr oprio associado ao de (3I2 A)x = 0. Fica ao cargo do leitor vericar que 2 Para a matriz A = valor pr oprio 3, e fazendo o mesmo racioc nio, que 2 1 e vector pr oprio associado ao valor 1 2 2 1 1 2 2 1 = 2. e a

pr oprio 2. Ora estes dois vectores s ao linearmente independentes, visto car Portanto, a matriz A e diagonaliz avel, sendo a matriz diagonalizante U = matriz diagonal 3 0 0 2 .

Octave A diagonaliza c ao, se poss vel, pode ser obtida de forma imediata como Octave:

104 > [q,e]=eig (A) q = -0.44721 0.89443 e = -3 0 0 2 -0.89443 -0.44721

CAP ITULO 5.

VALORES E VECTORES PROPRIOS

Aqui, a matriz q, ou seja, o primeiro argumento de sa da de eig, indica uma matriz diagonalizante, e o segundo argumento, i.e., e, indica a matriz diagonal cujas entradas diagonais s ao os valores pr oprios. Repare, ainda, que a coluna i de q e um vector pr oprio associado ao valor pr oprio que est a na entrada (i, i) de e. Fa camos, ent ao, a verica c ao: > q*e*inverse (q) ans = 1.0000 2.0000 2.0000 -2.0000

0 0 . Esta matriz e nilpotente, pelo que (B ) = {0}. 1 0 O espa co pr oprio associado a 0 e N (B ) = N (B ). Ora car(B ) = 1, pelo que nul(B ) = 1, e portanto a multiplicidade geom etrica do valor pr oprio 0 e 1 (repare que a multiplicidade alg ebrica do valor pr oprio 0 e 2). Ou seja, n ao e poss vel encontrar 2 vectores pr oprios linearmente independentes. Considere agora a matriz B =

Octave Considere a matriz C=[2 1; 0 2]. Sendo triangular superior, os seus valores pr oprios s ao os elementos diagonais da matriz. Isto e, (C ) = {2}. Repare que a multiplicidade alg ebrica do valor pr oprio 2 e 2. > eig (C) ans = 2 2

5.3. MATRIZES DIAGONALIZAVEIS

105

Repare que car(2 I2 C ) = car

0 1 = 1, pelo que nul(2 I2 C ) = 1. Logo, n ao e poss vel 0 0 encontrar 2 vectores pr oprios de C linearmente independentes, e portanto C n ao e diagonaliz avel.

> rank(2*eye(2)-C) ans = 1 > [q,e]=eig (C) q = 1 0 e = 2 0 0 2 NaN NaN

todavia, apresentada uma base do espa E, co pr oprio de C associado ao valor pr oprio 2, nomeadamente a primeira coluna da matriz q.

1 2 1 Considere agora a matriz A = 2 2 2 . 0 0 3

Octave Para A=[1 2 1;2 -2 2; 0 0 -3] tem-se (A) = {3, 2}, sendo as multiplicidades alg ebricas de 3 e 2, respectivamente, 2 e 1. > eig (A) ans = 2 -3 -3 Como car(3I3 A) = 2, temos que nul(3I3 A) = 1, e portanto a multiplicidade geom etrica do valor pr oprio 3 e 1. Portanto, a matriz n ao e diagonaliz avel pois n ao e poss vel encontrar 3 vectores pr oprios linearmente independentes. > [q,e]=eig (A) q = 0.89443 -0.44721 NaN

106 0.44721 0.00000 e = 2 0 0 0 -3 0 0 0 -3 0.89443 0.00000

CAP ITULO 5. NaN NaN

VALORES E VECTORES PROPRIOS

A primeira coluna de q e um vector pr oprio associado a 2 e a segunda coluna de q e um vector pr oprio associado a 3 O que se pode dizer em rela c ao ` a independ encia linear de um vector pr oprio associado a 3 e um vector pr oprio associado a 2?

Teorema 5.3.3. Sejam v1 , v2 , . . . , vk vectores pr oprios associados a valores pr oprios 1 , 2 , . . . , k distintos entre si. Ent ao {v1 , v2 , . . . , vk } e um conjunto linearmente independente. Demonstra c ao. Suponhamos que {v1 , v2 , . . . , vk } e um conjunto linearmente dependente, sendo v1 , v2 , . . . , vk vectores pr oprios associados a valores pr oprios 1 , 2 , . . . , k distintos entre si. Pretendemos, desta forma, concluir um absurdo. Seja r o menor inteiro para o qual o conjunto {v1 , v2 , . . . , vr } e linearmente independente. Ora r 1 j a que v1 = 0 (pois e v1 e vector pr oprio) e r < k j a que o conjunto dos vectores pr oprios e linearmente dependente. Sendo o conjunto {v1 , v2 , . . . , vr+1 } linearmente dependente, existem escalares 1 , 2 , . . . , r , r+1 n ao todos nulos para os quais
r+1

i vi = 0
i=1

o que implica que A

r+1 i=1 i vi

r+1 i=1 i Avi r+1

= 0, e portanto

i i vi = 0.
i=1

Por outro lado,

r+1 i=1 i vi

= 0 implica que r+1


r+1

r+1 i=1 i vi

= 0 e portanto

i r+1 vi = 0.
i=1 r+1 Fazendo a diferen ca das duas equa c oes, obtemos i=1 i (i r+1 )vi = 0, e portanto r ( ) v = 0. Como { v , v , . . . , v } e linearmente independente, segue que r+1 i 1 2 r i=1 i i i (i r+1 ) = 0, o que implica, e visto i r+1 = 0 j a que os valores pr oprios s ao distintos, r+1 que i = 0, com i = 1 . . . , r. Mas i=1 i vi = 0, o que juntamente com as igualdades i = 0, com i = 1 . . . , r, leva a que r+1 vr+1 = 0. Como vr+1 = 0 j a que e vector pr oprio, segue que r+1 = 0. Tal contradiz o facto de existirem escalares 1 , 2 , . . . , r , r+1 n ao todos nulos r+1 para os quais i=1 i vi = 0.

5.3. MATRIZES DIAGONALIZAVEIS

107

Alertamos para o facto do rec proco do teorema ser falso. Repare que a matriz identidade In tem 1 como u nico valor pr oprio, e a dimens ao de N (In In ) ser n, e portanto h a n vectores pr oprios linearmente independentes associados a 1. Se uma matriz n n tem os seus n valores pr oprios distintos ent ao, pelo teorema, tem n vectores pr oprios linearmente independentes, o que e equivalente a armar que a matriz e diagonaliz avel. Corol ario 5.3.4. Uma matriz com os seus valores pr oprios distintos e diagonaliz avel. Mais uma vez alertamos para o facto do rec proco do corol ario ser falso. Isto e, h a matrizes diagonaliz aveis que t em valores pr oprios com multiplicidade alg ebrica superior a 1.

Octave Considere a matriz A=[0 0 -2; 1 2 1; 1 0 3]. Esta matriz tem dois valores pr oprios distintos. > A=[0 0 -2; 1 2 1; 1 0 3]; > eig(A) ans = 2 1 2 Repare que o valor pr oprio 2 tem multiplicidade alg ebrica igual a 2, enquanto que a multiplicidade alg ebrica do valor pr oprio 1 e 1. Pelo teorema anterior, um vector pr oprio associado a 2 e um vector pr oprio associado a 1 s ao linearmente independentes. Repare que a multiplicidade geom etrica de 2 e tamb em 2, calculando rank(2*eye(3)-A). > rank(2*eye(3)-A) ans = 1 Como a caracter stica de 2I3 A e 1 ent ao nul(2I3 A) = 2, e portanto existem dois vectores pr oprios linearmente independentes associados a 2. Uma base do espa co pr oprio associado a 2 pode ser obtida assim: > null(2*eye(3)-A) ans = -0.70711 0.00000 0.70711 0.00000 1.00000 0.00000

108

CAP ITULO 5.

VALORES E VECTORES PROPRIOS

Estes juntamente com um vector pr oprio associado ao valor pr oprio 1 formam um conjunto linearmente independente, pois vectores pr oprios associados a valor pr oprios distintos s ao linearmente independentes. Ou seja, h a 3 vectores pr oprios linearmente independentes, donde segue que a matriz A e diagonaliz avel. > [v,e]=eig (A) v = 0.00000 1.00000 0.00000 e = 2 0 0 0 1 0 0 0 2 -0.81650 0.40825 0.40825 0.70656 0.03950 -0.70656

> v*e*inverse(v) ans = -0.00000 1.00000 1.00000 0.00000 2.00000 0.00000 -2.00000 1.00000 3.00000

Cap tulo 6

Transforma c oes lineares


6.1 Deni c ao e exemplos

Deni c ao 6.1.1. Sejam V, W espa cos vectoriais sobre K. Uma transforma c ao linear ou aplica c ao linear de V em W e uma fun c ao T : V W que satisfaz, para u, v V, K, 1. T (u + v ) = T (u) + T (v ); 2. T (u) = T (u). Para F, G : R2 R4 denidas por F (x, y ) = (x y, 2x + y, 0, y ) e G(x, y ) = (x2 + y 2 , 1, |x|, y ), tem-se que F e linear enquanto G n ao o e. De facto, para u1 = (x1 , y1 ), u2 = (x2 , y2 ) e K, temos F (u1 + u2 ) = F (x1 + x2 , y1 + y2 ) = (x1 + x2 y1 y2 , 2x1 + 2x2 + y1 + y2 , 0, y1 + y2 ) = (x1 y1 , 2x1 + y1 , 0, y1 )+(x2 y2 , 2x2 + y2 , 0, y2 ) = F (u1 )+ F (u2 ), e F (u1 ) = F (x1 , y1 ) = (x1 y1 , 2x1 + y1 , 0, y1 ) = (x1 y1 , 2x1 + y1 , 0, y1 ) = F (u1 ), enquanto que G((1, 1)) = G(1, 1) = ((1)2 + (1)2 , 1, | 1|, 1) = (2, 1, 1, 1) = (2, 1, 1, 1) = G(1, 1) Apresentamos alguns exemplos cl assicos de transforma c oes lineares: 1. Sejam A Mmn (K) e TA : Kn Km denida por TA (x) = Ax. A aplica c ao TA e uma transforma c ao linear. Ou seja, dada uma matriz, existe uma transforma c ao linear associada a ela. No entanto, formalmente s ao entidades distintas. Mais adiante, iremos ver que qualquer transforma c ao linear est a associada a uma matriz. 2. Seja V = C (R) o espa co vectorial sobre R constitu do pelas fun c oes reais de vari avel real innitamente (continuamente) diferenci aveis sobre R. Seja D : V V denida por D(f ) = f . Ent ao, usando no c oes elementares de an alise, e uma transforma c ao linear. 109

110

CAP ITULO 6. TRANSFORMAC OES LINEARES

3. A aplica c ao F : Kn [x] Kn1 [x] denida por F (p) = p , onde p Kn [x] e p denota a derivada de p em ordem a x, e uma transforma c ao linear. 4. Sejam A Mnp (K) e F : Mmn (K) Mmp (K) denida por F (X ) = XA. Usando as propriedades do produto matricial, F e uma transforma c ao linear. 5. A aplica c ao T rans : Mmn (K) Mnm (K) denida por T rans(A) = AT e uma transforma c ao linear. 6. Seja V um espa co vectorial arbitr ario sobre K. As aplica c oes I, O : V V denidas por I (v ) = v e O(v ) = 0 s ao transforma c oes lineares. Denominam-se, respectivamente, por transforma c ao identidade e transforma c ao nula. Deni c ao 6.1.2. Seja T uma transforma c ao linear do espa co vectorial V para o espa co vectorial W . 1. Se V = W , diz-se que T e um endomorsmo de V . 2. A um homomorsmo injectivo de V sobre W chama-se monomorsmo de V sobre W ; a um homomorsmo sobrejectivo de V sobre W chama-se epimorsmo de V sobre W ; a um homomorsmo bijectivo de V sobre W chama-se isomorsmo de V sobre W ; a um endomorsmo bijectivo de V chama-se automorsmo de V . 3. V e W s ao ditos isomorfos, e representa-se por V c ao = W , se existir uma transforma linear de V em W que seja um isomorsmo.

6.2

Propriedades das transforma co es lineares

Proposi c ao 6.2.1. Sejam V, W espa cos vectoriais sobre K e T : V W uma transforma c ao linear. Ent ao 1. T (0v ) = 0w para 0v V, 0w W ; 2. T (v ) = T (v ), v V ;
n n

3. T (
i=0

i vi ) =
i=1

i T (vi ), vi V, i K;

4. Se v1 , v2 , ..., vn s ao vectores de V linearmente dependentes, ent ao T (v1 ), T (v2 ), . . . , T (vn ) s ao vectores de W linearmente dependentes. Demonstra c ao. As arma c oes 13 seguem da deni c ao de transforma c ao linear. Mostremos (4). Se v1 , v2 , ..., vn s ao vectores de V linearmente dependentes ent ao um deles, digamos vk , escreve-se como combina c ao linear dos restantes:
n

vk =
i=0,i=k

i vi .

6.2. PROPRIEDADES DAS TRANSFORMAC OES LINEARES Aplicando T a ambos os membros da equa c ao, T (vk ) = T
i=0,i=k n

111

i vi =

i T (vi ),
i=1,i=k

e portanto T (vk ) escreve-se como combina c ao linear de T (v1 ), T (v2 ), T (vk1 ), . . . , T (vk+1 ), . . . , T (vn ). Segue que T (v1 ), T (v2 ), . . . , T (vn ) s ao vectores de W linearmente dependentes.

Em geral, uma transforma c ao n ao preserva a independ encia linear. Por exemplo, a transforma c ao linear R2 R2 T : (x, y ) (0, y ). As imagens da base can onica de R2 n ao s ao linearmente independentes. Recordamos que, apesar de indicarmos uma base como um conjunto de vectores, e importante a ordem pela qual estes s ao apresentados. Ou seja, uma base e um n-uplo de vectores. Por forma a n ao ser confundida por um n-uplo com entradas reais, opt amos por indicar uma preciso enfatizar esta incorrec base como um conjunto. E c ao (propositadamente) cometida.

Teorema 6.2.2. Sejam V, W espa cos vectoriais com dimens ao nita, dim V = n = dim W , {v1 , . . . , vn } uma base de V e w1 , . . . , wn W . Ent ao existe uma u nica transforma c ao linear T : V W tal que T (v1 ) = w1 , T (v2 ) = w2 , . . . , T (vn ) = wn .

Demonstra c ao. Se {v1 , . . . , vn } e uma base de V , ent ao todo o elemento de v escreve-se de forma u nica como combina c ao linear de v1 , . . . , vn . Isto e, para qualquer v V , existem i K tais que
n

v=
i=1

i vi .

Seja T : V W denida por

T
i

i vi

=
i

i wi .

Obviamente, T (vi ) = wi . Observe-se que T e de facto uma aplica c ao pela unicidade dos coecientes da combina c ao linear relativamente ` a base. Mostre-se que T assim denida e

112 linear. Para K, u =


i i vi

CAP ITULO 6. TRANSFORMAC OES LINEARES ew=


i i vi ,

T (u + w) = T
i

i vi +
i

i vi

= T
i

(i + i ) vi (i + i ) wi
i

= =
i

i wi +
i

i wi

= T (u) + T (w) e T (u) = T (


i

i vi ) i vi )

= T(
i

=
i

i wi i wi = T (u).
i

Portanto, T assim denida e linear. Mostre-se, agora, a unicidade. Suponhamos que T e uma aplica c ao linear que satisfaz ao T (vi ) = wi , para todo o i no conjunto dos ndices. Seja v V , com v = i i vi . Ent T (v ) = T
i

i vi T (vi )
i

= =
i

i wi i T (vi )
i

= T
i

i vi

= T (v ).

Portanto, T = T . Teorema 6.2.3. Todo o espa co vectorial de dimens ao n sobre o corpo K e isomorfo a Kn . Demonstra c ao. Seja {v1 , v2 , ..., vn } uma base de V e v um vector qualquer de V . Ent ao v = 1 v1 + 2 v2 + ... + n vn , i K. Vamos denir uma transforma c ao T ,

6.2. PROPRIEDADES DAS TRANSFORMAC OES LINEARES

113

V T : v

Kn . (1 , 2 , ..., n )

Pretendemos mostrar que esta aplica c ao e um isomorsmo de espa cos vectoriais. (a) A aplica c ao T e bijectiva. Primeiro, vericamos que T e injectiva, i.e., que T (u) = T (v ) = u = v, u, v V. Ora, T (u) = T (v ) T (
i=1 n n

i vi ) = T (
i=1

i vi )

(1 , 2 , ..., n ) = (1 , 2 , ..., n ) i = i
n n

i=1

i vi =
i=1

i vi

u = v. Mostramos, agora, que T e sobrejectiva, i.e., que x Kn , w V : f (w) = x. Temos sucessivamente, f e sobrejectiva x Kn , w V : f (w) = x (1 , 2 , ..., n ) Kn , w = 1 v1 + 2 v2 + ... + n vn V : T (1 v1 + 2 v2 + ... + n vn ) = (1 , 2 , ..., n ). (b) A aplica c ao T e linear. T (u + v ) = T (1 v1 + 2 v2 + ... + n vn + 1 v1 + 2 v2 + ... + n vn ) = T [(1 + 1 )v1 + (2 + 2 )v2 + ... + (n + n )vn ] = (1 + 1 , 2 + 2 , ..., n + n ) = (1 , 2 , ..., n ) + (1 , 2 , ..., n ) = T (1 v1 + 2 v2 + ... + n vn ) + T (1 v1 + 2 v2 + ... + n vn ) = T (u) + T (v ) e T (u) = T ((1 v1 + 2 v2 + ... + n vn )) = T ((1 )v1 + (2 )v2 + ... + (n )vn ) = (1 , 2 , ..., n ) = (1 , 2 , ..., n ) = T (1 v1 + 2 v2 + ... + n vn ) = T (u)

114

CAP ITULO 6. TRANSFORMAC OES LINEARES

Corol ario 6.2.4. Sejam U e V dois espa cos vectoriais sobre mesmo corpo K. Se U e V t em a mesma dimens ao, ent ao U e V s ao isomorfos. Por exemplo, o espa co vectorial M23 (R) e isomorfo a R6 . De facto, considerando a base de M23 (R) 1 0 0 0 0 0 as coordenadas de R6 denida por T R6 . Da mesma forma, o espa co vectorial R2 [x] dos polin omios de grau n ao superior a 2, 3 juntamente com o polin omio nulo, e isomorfo a R . Fixando a base de R2 [x] constitu da pelos polin omios p, q, r denidos por p(x) = 1, q (x) = x, r(x) = x2 e a base can onica de R3 a transforma c ao linear que aplica p em (1, 0, 0), q em (0, 1, 0) e r em (0, 0, 1) e um isomorsmo 3 de R2 [x] em R . Pelo exposto acima, e f acil agora aceitar que Mmn (R) = Rmn ou que Rn [x] = Rn+1 . Para nalizar esta sec c ao, note que C, enquanto espa co vectorial sobre R, e isomorfo a R2 . De facto, 1 e i formam uma base de C, enquanto espa co vectorial sobre R. S ao linearmente independentes (a + bi = 0 for ca a = b = 0) e todo o complexo z escreve-se como a + bi, com a, b R. O isomorsmo pode ser dado pela transforma c ao linear que aplica 1 em (1, 0) e i em (0, 1). Terminamos esta sec c ao com uma observa c ao que ser au til na forma como se dene uma transforma c ao linear. E bem conhecido que o conhecimento da imagem de um certo n umero de objectos por uma fun c ao arbitr aria n ao e suciente para se conhecer a imagem de todos os objectos. As transforma c oes lineares s ao fun c oes especiais que satisfazem a aditividade e homogeneidade. Estas duas condi c oes permitem-nos conhecer a imagem de todos os objectos conhecendo, ` a partida, apenas a de alguns. De facto, se V e W s ao espa cos vectoriais de dimens ao nita, e v1 , . . . , vn uma base de V , ent ao T : V W cam bem denida se se souber os valores de T (v1 ), T (v2 ), . . . , T (vn ). Se v V ent ao existem i K, u nicos, para os quais v = i vi . Sabendo que a imagem por T de uma soma e a soma das imagens, e que a imagem de um m ultiplo de um vector e o m ultiplo da imagem do vector, obtemos T (v ) = T ( i vi ) = T (i vi ) = i T (vi ). 0 1 0 0 0 0 a b c d e f a b c d e f , 0 0 1 0 0 0 , 0 0 0 1 0 0 , 0 0 0 0 1 0 , 0 0 0 0 0 1 ,

e o vector (a, b, c, d, e, f ). Denindo a aplica c ao T : M23 (R) = (a, b, c, d, e, f ), e linear e e bijectiva. Logo, M23 (R) =

6.3

Matriz associada a uma transforma c ao linear

Iremos concluir que todas as transforma c oes lineares de Kn Km podem ser representadas por matrizes do tipo m n. Como motiva c ao, consideramos alguns exemplos.

LINEAR 6.3. MATRIZ ASSOCIADA A UMA TRANSFORMAC AO

115

Sejam e1 , e2 , e3 elementos da base can onica B1 de R3 e e onica 1 , e2 os elementos da base can 2 3 2 B1 de R . Seja ainda T : R R denida por T (e1 ) = a11 e 1 + a21 e2 T (e2 ) = a12 e 1 + a22 e2 T (e3 ) = a13 e 1 + a23 e2 .

Recorde que a transforma c ao linear est a bem denida ` a custa das imagens dos vectores de uma base. Se x = (x1 , x2 , x3 ) R3 , ent ao T (x) = T (x1 e1 + x2 e2 + x3 e3 ) = x1 T (e1 ) + x2 T (e2 ) + x3 T (e3 ) = x1 a11 a21 + x2 a12 a22 x1 x2 x3 + x3 a13 a23

a11 a12 a13 a21 a22 a23

= Ax

Por outras palavras, a transforma c ao linear denida atr as pode ser representado ` a custa das de uma matriz A M23 (R), que tem como colunas as coordenadas em rela c ao a B1 imagens dos vectores ei R3 , i = 1, 2, 3 por T . Desta forma, dizemos que nas condi c oes do exemplo anterior, a matriz A e a representa c ao matricial de T relativamente ` as bases can onicas de R2 e R3 . Por exemplo, considere a aplica c ao linear T denida por T (1, 0, 0) = (4, 1) = 4(1, 0) 1(0, 1) T (0, 1, 0) = (2, 5) = 2(1, 0) + 5(0, 1) T (0, 0, 1) = (3, 2) = 3(1, 0) 2(0, 1) A matriz que representa T em rela c ao ` as bases can onicas de R3 e R2 eA= Para todo v R3 , T (v ) = Av . Repare que os c alculos envolvidos foram simples de efectuar j a que us amos as bases can onicas dos espa cos vectoriais. Tal n ao ser a, certamente, o caso se usarmos outras bases que n ao as can onicas. Neste caso, teremos que encontrar as coordenadas das imagens dos elementos da base do primeiro espa co vectorial em rela c ao ` a base xada previamente do segundo espa co vectorial. Vejamos o exemplo seguinte: de R2 . Se x R3 , ent Sejam {u1 , u2 , u3 } base B2 de R3 e {v1 , v2 } base B2 ao x = 1 u1 + 2 u2 + 3 u3 , e consequentemente T (x) = 1 T (u1 ) + 2 T (u2 ) + 3 T (u3 ). Por outro lado, T (ui ) R2 , i = 1, 2, 3, logo, podemos escrever estes vectores como combina c ao linear de v1 e v2 . Assim, T (u1 ) = b11 v1 + b21 v2 T (u2 ) = b12 v1 + b22 v2 T (u3 ) = b13 v1 + b23 v2 . 4 2 3 1 5 2 .

116 Vericamos, ent ao, que,

CAP ITULO 6. TRANSFORMAC OES LINEARES

T (x) = 1 (b11 v1 + b21 v2 ) + 2 (b12 v1 + b22 v2 ) + 3 (b13 v1 + b23 v2 ) = (1 b11 + 2 b12 + 3 b13 v1 ) + (1 b21 + 2 b22 + 3 b23 v2 ) = 1 v1 + 2 v2 onde b11 b12 b13 b21 b22 b23 b11 b12 b13 b21 b22 b23 3 2 de R e R , respectivamente. Dizemos, agora, que B = 1 2 = 3

1 2

e a matriz de T relativamente ` as bases B2 e B2

Passamos de seguida a exp or o caso geral. Sejam B1 = {u1 , u2 , ..., un } uma base de U , B2 = {v1 , v2 , ..., vm } uma base de V , e T : U V
n

x T (x) =
j =1

xj T (uj )

uma transforma c ao linear, sabendo que as coordenadas de x na base B1 e (x1 , x2 , . . . , xn ). O vector T (uj ) pode ser escrito de modo u nico como combina c ao linear dos vectores v1 , v2 , ..., vm . Assim
m

T (uj ) =
i=1

aij vi ,
n

j = 1, ..., n.

Logo T (x) =

xj T (uj ) =
j =1 n

[
j =1 i=1

aij vi ] =
j =1

[a1j xj ]v1 +
j =1

[a2j xj ]v2 + ... +


j =1

[amj xj ]vm =

i vi , com i =
i=1 j =1

aij xj , i = 1, 2, ..., m.

Vericamos, assim, que existe entre as coordenadas (x1 , x2 , ..., xn ) de x (relativa ` a base B1 ), em U , e as coordenadas (1 , 2 , ..., m ) de T (x) (relativa ` a base B2 ) em V . Tal liga c ao exprime-se pelas seguintes equa c oes
n

i =
j =1

aij xj , i = 1, 2, ..., m.

O que se pode ser escrito como a equa c ao matricial seguinte: x1 1 a11 a12 ... a1n a x 2 21 a22 ... b2n = .2 . ... ... ... ... . . . . am1 am2 ... bmn m xn

LINEAR 6.3. MATRIZ ASSOCIADA A UMA TRANSFORMAC AO Assim, conclu mos:

117

Teorema 6.3.1. Se xamos uma base de U e uma base de V , a aplica c ao linear T : U V ca perfeitamente denida por m n escalares. Ou seja, a aplica c ao linear T : U V ca perfeitamente denida por uma matriz do tipo m n MB1 ,B2 (T ) cujas colunas s ao as coordenadas dos transformados dos vectores da base de U , em rela c ao ` a base de V . Vimos, ent ao, que dada uma transforma c ao linear G : Kn Km , existe uma matriz A Mmn (K) tal que G = TA . Mais, se {e1 , . . . , en } e {f1 , . . . , fm } s ao as bases can onicas, respectivamente, de Kn e Km , ent ao a matriz A e tal que a coluna i de A s ao as coordenadas de G(ei ) em rela c ao ` a base {f1 , . . . , fm }. No entanto, se se considerarem bases que n ao as can onicas, ent ao e preciso ter um pouco mais de trabalho. Por exemplo, considere1 a base B1 de R3 constitu da pelos vectores (0, 1, 1), (1, 1, 0), (1, 0, 1), 2 e a base B2 de R constitu da pelos vectores (2, 1), (1, 2). Vamos calcular a matriz G que re3 2 presenta T : R R , com T (x, y, z ) = (x y, x + y + z ), nas bases apresentadas. Em primeiro lugar, calculamos as imagens dos elementos da base escolhida: T (0, 1, 1) = (1, 2) = v1 T (1, 1, 0) = (0, 2) = v2 T (1, 0, 1) = (1, 2) = v3 Agora, encontramos as coordenadas de v1 , v2 , v3 relativamente ` a base de R2 que x amos. Ou seja, encontramos as solu c oes dos sistemas poss veis determinados2 Ax = v1 , Ax = v2 , Ax = v3 , onde A = 2 1 1 2 . A matriz que representa T em rela c ao ` as bases apresentadas e G =

eau nica solu c ao de Ax = v1 , u2 eau nica solu c ao de Ax = v2 e u3 u1 u2 u3 , onde u1 eau nica solu c ao de Ax = v3 .

Octave

> v1=[-1;2]; v2=[0;2]; v3=[1; 2]; > A=[2 1; 1 2]; > x1=A\v1
1 2

Verique que de facto formam uma base! Consegue explicar por que raz ao os sistemas s ao poss veis determinados?

118 x1 = -1.3333 1.6667 > x2=A\v2 x2 = -0.66667 1.33333 > x3=A\v3 x3 = -1.8952e-16 1.0000e+00 > G=[x1 x2 x3] G = -1.3333e+00 1.6667e+00 -6.6667e-01 1.3333e+00

CAP ITULO 6. TRANSFORMAC OES LINEARES

-1.8952e-16 1.0000e+00

Fixadas as bases dos espa cos vectoriais envolvidos, a matriz associada ` a transforma c ao linear G ser a, doravante, denotada por [G]. Antes de passarmos ao resultado seguinte, consideremos as transforma c oes lineares H : R2 R3 G : R3 R , (x, y ) (x y, y, 0) (r, s, t) 2r s + t Obtemos, ent ao, G H (x, y ) = 2(x y ) 1 y + 1 0 xy = 2 1 1 y 0 1 1 = 2 1 1 0 1 0 0 = [G][H ] x y

x y

COM A GEOMETRIA 6.4. LIGAC AO Portanto, [G H ] = [G][H ]. Vejamos o que podemos armar em geral:

119

Teorema 6.3.2. Sejam U, V, W espa cos vectoriais sobre K e H : U V , G : V W duas transforma c oes lineares. Ent ao 1. G H e uma transforma c ao linear; 2. G H = T[G][H ] e [G H ] = [G] [H ]. Demonstra c ao. A demonstra c ao de (1) ca como exerc cio. Para mostrar (2), observe-se que, para qualquer u U , G H (u) = G(H (u)) = G([H ]u) = [G][H ]u = T[G][H ] u.

Terminamos, assim, como inici amos: a algebriza c ao do conjunto das matrizes. As matrizes n ao s ao mais do que representantes de um certo tipo de fun c oes (as transforma c oes lineares) entre conjuntos muitos especiais (espa cos vectoriais). Se a soma de matrizes corresponde a soma de transforma ` c oes lineares (em que a soma de fun c oes est a denida como a fun c ao denida pela soma das imagens), o produto de matrizes foi apresentado como uma opera c ao bem mais complicada de efectuar. No entanto, a forma como o produto matricial foi denido corresponde ` a composi c ao das transforma c oes lineares denidas pelas matrizes.

6.4

Liga c ao com a geometria

Recorde que a norma usual (tamb em chamada norma euclidiana) em Rn est a denida como u = uT u =
2 2 u2 1 + u2 + un

onde u = (u1 , u2 , . . . , un ) Rn . Dada uma transforma c ao linear T : Rn Rm , dene-se a norma de T como T = sup
u=0

T (u) = sup T (u) = max T (u) . u u =1 u =1

Se T for tal que T < 1 ent ao T diz-se uma contrac c ao ; T > 1 ent ao T diz-se uma dilata c ao ; T = 1 ent ao T diz-se uma isometria.

120

CAP ITULO 6. TRANSFORMAC OES LINEARES

(0,y) (x,y) (x,y)

Figura 6.1: A simetria no eixo OY Por exemplo, Tk : R2 R2 denida por Tk (u) = ku, com k R, e uma contrac c ao de |k | < 1 e uma dilata c ao se |k | > 1. De facto, T = = = = = = max T (u)
u =1

max ku
u =1

max
u =1

(ku)T ku k 2 (u)T u

max
u =1

max |k | (u)T u
u =1

max |k | u = |k |.
u =1

e uma contrac c ao em T2 e uma dilata c ao. Em particular, T 1


2

Considere-se, agora, a transforma c ao linear T : R2 R2 denida por T (x, y ) = (x, y ). A 1 0 matrix que T em rela c ao ` a base can onica de R2 e TA = . Ora T = max (x, y ) = 0 1 (x,y ) =1 1, j a que (x, y ) = (x, y ) , e portanto T e uma isometria. Geometricamente, T e uma simetria ao longo do eixo OY . 1 0 A transforma c ao denida pela matriz e uma simetria ao longo do eixo OX , e 0 1 a denida pela matriz J a a matriz R = 0 1 1 0 e uma simetria ao longo da recta de equa c ao y = x. representa uma rota c ao de angulo na origem. Isto

cos sin sin cos

COM A GEOMETRIA 6.4. LIGAC AO

121

/2

Figura 6.2: Rota c ao de e

2.

e, dado (x, y ) = (0, 0), a transforma c ao linear TR denida por TR (x, y ) = R

x y

roda o

vector um angulo . A transforma c ao linear TR e uma isometria. De facto, como R e uma matriz ortogonal, T 2 T T ent ao R v = v R Rv = v v , e portanto TR = 1.

122

CAP ITULO 6. TRANSFORMAC OES LINEARES

Bibliograa
[1] F. R. Dias Agudo, Introdu c ao ` a algebra linear e geometria anal tica, Escolar Editora, 1996. [2] Howard Anton, Chris Rorres, Elementary linear algebra : applications version, John Wiley & Sons, 1994. [3] Kenneth J. Beers, Numerical Methods for Chemical Engineering, Applications in Matlab R , Cambridge University Press, 2007. [4] I. S. Du, A. M. Erisman, J. K. Reid, Direct methods for sparse matrices, Oxford University Press, 1989. [5] Bruce A. Finlayson, Introduction to Chemical Engineering Computing, Wiley, 2006. [6] Stephen H. Friedberg, Arnold J. Insel, Lawrence E. Spence, Linear Algebra (2nd edition), Prentice-Hall International, Inc., 1989. [7] Em lia Giraldes, Vitor Hugo Fernandes, M. Paula Marques Smith, Curso de algebra linear e geometria anal tica, McGraw-Hill, 1995. [8] David R. Hill, David E. Zitarelli, Linear algebra labs with MATLAB, Prentice Hall, 1996 [9] Roger Horn, Charles Johnson, Matrix Analysis, Cambridge University Press, 1985. [10] Peter Lancaster, Miron Tismenetsky, The Theory of Matrices, second edition with applications, Academic Press, 1985. [11] Christopher Lawrence, Dirk Eddelbuettel, Quantian: A Comprehensive Statistical Computing Environment, http://dirk.eddelbuettel.com/papers/quantian-tpm.pdf. [12] P.J.G. Long, Introduction to Octave, Department of Engineering, University of Cambridge, 2005, www-mdp.eng.cam.ac.uk/CD/engapps/octave/octavetut.pdf [13] Lu s T. Magalh aes, Algebra Linear como introdu ca o ` a matem atica aplicada, IST, 1987. [14] Guillem Borrell i Nogueras, http://iimyo.forja.rediris.es/. Introducci on informal a Matlab y Octave,

[15] J. M. Powers, Method of least squares, University of Notre Dame, http://www.nd.edu/~powers/ame.332/leastsquare/leastsquare.pdf 123

2003,

124

BIBLIOGRAFIA

[16] Ana Paula Santana, Jo ao Filipe Queir o, Algebra Linear e Geometria Anal tica, Departamento de Matem atica, Universidade de Coimbra, 2003, http://www.mat.uc.pt/~jfqueiro/ALGA2003.pdf [17] Hubert Selhofer, Introduction to GNU Octave, http://math.iu-bremen.de/oliver/teaching/iub/resources/octave/octave-intro.pdf. [18] Gilbert Strang, Linear algebra and its applications, Academic Press, 1976. [19] Maria Raquel Valen ca, M etodos num ericos, INIC, 1990.