Você está na página 1de 159

!

!
!
Álgebra!Linear!
Computacional!
!
!

! !
Álgebra!Linear!Computacional!2014.2!

Professor!Nelson!Borges!

nborgesster@gmail.com!

9960759788!

Horário!e!Avaliações!

Terças!8:30h!às!11:30h!–!14!Semanas!(27/05!até!26/08)!

Avaliação:!Listas!de!Exercícios!e!Prova!

Sumário!

Capítulo!1!Espaço!Vetorial!Euclidiano!..........................................................................................1!

Capítulo!2!Matrizes!.....................................................................................................................17!

Capítulo!3!Resolução!de!Sistemas!Lineares!................................................................................36!

Capítulo!4!Espaços!Vetoriais!.......................................................................................................56!

Capítulo!5!Transformações!Lineares!..........................................................................................80!

Capítulo!6!Subespaços!Ortogonais,!Projeções!e!Aplicações!.....................................................106!

Capítulo!7!Determinantes!........................................................................................................127!

Capítulo!8!Autovalores!e!Autovetores!.....................................................................................136!

Capítulo!9!Decomposição!em!Valores!Singulares!(SVD)!...........................................................149!

Bibliografia!

Strang,!G.!5!Álgebra!Linear!e!suas!Aplicações,!Cengage!Learning!Ed.,!456!p.,!2010.!

Anton,!H.!e!Rorres,!C.!5!Álgebra!Linear!com!Aplicações,!Bookman!Ed.,!572!p.,!2008.!

Golub,G.!and!Van!Loan,!C.!5!Matrix!Computations,!Johns!Hopkins!Univ.!Press,!694!p.,!1996!

Leon,!S.J.!5!Álgebra!Linear!com!Aplicações,!LTC!Ed.,!390!p.,!2008.!!

Apostol,!T.!5!Cálculo!com!Funções!de!uma!Variável,!Reverté!Ed.,!771!p.,2006.!

Apostol,!T.!5!Cálculo!com!Funções!de!Várias!Variáveis!e!Álgebra!Linear,!Reverté!Ed.,!752!
p.,2008.!
Cap¶³tulo 1

Espa»co Vetorial Euclidiano

1.1 Vetores - Introdu»c~


ao
Inicialmente, introduzimos o conceito de vetores, as opera»c~oes alg¶ebricas, o
produto interno e a norma vetorial em Rn . Daremos tamb¶em, a de¯ni»c~ao do produto
interno entre vetores em Cn , fazendo a extens~ao do espa»co vetorial Euclidiano Real
para o espa»co vetorial Euclidiano Complexo.

Daremos aqui um enfoque te¶orico da Algebra Linear no espa»co Euclidiano, bem
como aplica»c~oes em algumas ¶areas, exempli¯cadas com c¶alculos computacionais.
Com o surgimento dos computadores, foram criadas diversas bibliotecas em

Algebra Linear. Usando estas bibliotecas, podemos resolver diversos problemas
pr¶aticos em Engenharia.

Entre as aplica»c~oes da Algebra Linear podemos citar:
- Tra»cado de curvas e superf¶³cies;
- Problemas de redes el¶etricas;
- Problemas em criptogra¯a;
- Problemas de ¯ltragem de sinais;
- Processamento digital de imagens;
- entre outros (ver Anton e Rores[4]).

Existem,essencialmente,tr^es diferentes maneiras de introduzir a Algebra Vetori-
al,(ver Apostol[2]):
- geometricamente: onde vetores s~ao representados por segmentos de retas ori-
entadados ou °exas e as opera»c~oes com estes s~ao dadas por m¶etodos geom¶etricos;
- analiticamente: onde vetores e opera»c~oes vetoriais s~ao descritos em termos de
n¶umeros, chamados componentes;
- axiomaticamente: onde vetores e opera»c~oes vetoriais t^em conceitos inde¯nidos.
Apenas, os vetores munidos das opera»c~oes de adi»c~ao e multiplica»c~ao de vetor por

1
escalar entre eles , satisfazem um certo conjunto de axiomas. Assim, tratamos os
vetores como elementos de um conjunto abstrato.

1.2 Espa»co Vetorial Euclidiano


De¯ni»c~ao 1
Uma n-upla de n¶ umeros reais (a1 ; a2 ; :::; an ), (n ¸ 1) ¶e chamada de um ponto
n-dimensional ou vetor n-dimensional. Os n¶ umeros a1 ; a2 ; :::; an s~ao as coo-
ordenadas ou componentes do vetor. Denotamos por Rn o conjunto de vetores
n-dimensionais, chamado de espa»co vetorial n-dimensional munido das opera»c~oes de
adi»c~ao de vetores e e produto escalar por vetor dadas a seguir.
Obs.: Podemos extender este espa»co vetorial aos n¶ umeros Complexos, onde
tomamos ai 2 Cn , i = 1; 2; :::; n.
Para transformar Rn num sistema alg¶ebrico, introduzimos a igualdade de vetores
e as duas opera»c~oes: adi»c~ao de vetores e multiplica»c~ao de escalar por vetor.
De¯ni» c~
ao 2
Dois vetores A e B em Rn s~ao iguais quando suas componentes s~ao iguais. Isto
¶e, se A = (a1 ; a2 ; :::; an ) e B = (b1 ; b2 ; :::; bn ), a equa»c~ao vetorial A = B signi¯ca:
a1 = b1 , a2 = b2 ,..., an = bn .
A soma A + B ¶e de¯nida pela soma das componentes dos vetores A e B:

A + B = (a1 + b1 ; a2 + b2 ; :::; an + bn ) (1.1)

Se ® 2 R, de¯nimos o produto escalar por vetor ®A como:

®A = (®a1 ; ®a2 ; :::; ®an ) (1.2)

Da de¯ni»c~ao 2, seguem as deguintes propriedades:


Propriedades
Sejam A, B e C vetores em Rn .
1. A + B = B + A (comutatividade);
2. A + (B + C) = (A + B) + C (associatividade de vetores);
3. ®(¯A) = (®¯)A, ®; ¯ 2 R (associatividade de escalares).
4. Al¶em disso, s~ao satisfeitas as leis distributivas:
®(A + B) = ®A + ®B e
(® + ¯)A = ®A + ¯A, ®, ¯ 2 R.
O vetor 0 ¶e chamado de vetor nulo, cujas componentes s~ao nulas.
5. A + 0 = A (elemento neutro da adi»c~ao).

2
O vetor (¡1)A, tamb¶em denotado por ¡A, chamado negativo de A. Da¶³, es-
crevemos:
A ¡ B = A + (¡B) (diferen»ca entre A e B).
Note que: 0A = 0 e 1A = A.

1.3 Interpreta»c~ etrica de Rn para (n · 3)


ao geom¶
Apesar das de¯ni»c~oes anteriores n~ao estar ligadas µa geometria, vetores e opera»c~oes
vetoriais tem uma interpreta»ca~o geom¶etrica em espa»cos de dimens~ao (n · 3). Por
exemplo, em R2 (plano), um par de pontos A e B ¶e chamado um vetor geom¶etrico
onde ¯xamos A como ponto inicial e B como ponto ¯nal ou extremidade ,e denota-
¡!
mos pelo s¶³mbolo AB e visualizamos atrav¶es da Figura 1.1:

Figura 1.1: Vetor geom¶etrico

Vamos introduzir um sistema de coordenadas com origem O. Identi¯cando o


¡!
vetor AB em termos de suas componentes B ¡ A = (b1 ¡ a1 ; b2 ¡ a2 ), podemos
facilmente interpretar a soma de dois vetores pela regra do paralelogramo. Assim,
dados quatro pontos A, B, C e D, v¶ertices de um paralelogramo,podemos escrever:
¡! ¡! ¡! ¡!
AB ´ CD (AB CD s~ao vetores equivalentes) com B ¡ A = D ¡ C () A + D =
B + C.
Supondo o ponto A na origem O, escrevemos:
¡! ¡! ¡! ¡! ¡! ¡!
D = B + C () OD = OB + OC onde os vetores OD, OB e OC s~ao localizados
na origem, conforme mostra Figura 1.2.
Para representar um ponto em Rn para (n · 3), usaremos a letra mai¶ uscula A,
¡!
que ir¶a representar o vetor geom¶etrico OA.
A Figura 1.3 a seguir, ilustra a interpreta»c~ao geom¶etrica da multiplica»c~ao de um
escalar por vetor.
¡!
Se B = ®A, o vetor geom¶etrico OB tem comprimento j®j vezes o comprimento
¡! ¡!
de OA. Este vetor tem mesma dire»c~ao de OA se ® ¶e positivo e dire»c~ao oposta se ®

3
Figura 1.2: Regra do Paralelogramo

Figura 1.3: Multiplica»c~ao de escalar por vetor

¶e negativo.
De¯ni»
c~
ao 3
¡! ¡! ¡! ¡!
Dois vetores OA e OB em Rn t^em a mesma dire»c~ao se OB = ®OA para algum
¡! ¡!
escalar ® positivo, e dire»c~ao oposta se OB = ®OA para algum escalar ® negativo.
^ ¡! ¡!
Eles s~ao chamados paralelos se OB = ®OA para algum escalar ® n~ao nulo.

Exemplo
Sejam os pontos A, B, C e D representado na

Figura 1.4, abaixo:


¡! ¡!
De acordo com a Figura 1.4, temos: jOAj = O ¡ A = (1; 2), jBCj = C ¡ B =
(2 ¡ 1; 2 ¡ 0) = (1; 2)
¡! ¡! ¡! ¡!
Observe que as componentes de OA e BC s~ao iguais e temos OA==BC.
¡!
Por outro lado, jBDj = D ¡ B = (3=2 ¡ 1; 1 ¡ 0) = 1=2(1; 2), ou seja,
¡! ¡!
BD = 1=2OA.

4
Figura 1.4: Vetores Paralelos e Proporcionais

1.4 Produto Interno


Introduzimos, agora, um tipo de multiplica»c~ao de vetores em Rn chamada de
produto interno(produto escalar) em Rn .
De¯ni» c~
ao 4
Sejam A = (a1 ; a2 ; :::; an) e B = (b1 ; b2 ; :::; bn ) dois vetores em Rn , o produto interno
de A e B, denotado por A:B, ¶e de¯nido por:
n
X
A:B = ak bk (1.3)
k=1

Exemplo
Sejam A = (1; 2; 3) e B = (¡1; 2; ¡1) Temos que: A:B = 1 £ (¡1) + 2 £ 2 + 3 £
(¡1) = 0
Propriedades
8A , B , C 2 Rn e 8® 2 R, valem as seguintes propriedades:
a) A:B = B:A (comutatividade)
b) A:(B + C) = (A:B) + (A:C) (distributividade)
c) ®(A:B) = (®A):B (homogeneidade)
d) A:A > 0 se A 6= 0 (positividade)
e) A:A = 0 se A = 0
Daremos agora, um teorema que estabelece a desigualdade no produto interno
de dois vetores:
Teorema 1.1 ( Desigualdade de Cauchy Schwarz)
Se A e B s~ao vetores em Rn , temos:

(A:B)2 · (A:A)(B:B) (1.4)

Al¶em do mais, a igualdade (1.4)¶e v¶alida () um vetor ¶e m¶


ultiplo escalar do
outro.

5
Prova
Daremos aqui uma prova baseada nas propriedades do produto interno. Se A ou
B ¶e um vetor nulo, a prova segue trivialmente. Assumamos que A e B s~ao vetores
n~ao nulos. Seja C o vetor:
C = xA ¡ yB, onde x = B:B e y = A:B
Pelas propriedades d) e e) temos que C:C ¸ 0. Vamos expressar C:C em termos
de x e y.
C:C = (xA ¡ yB):(xA ¡ yB) = xA:(xA ¡ yB) ¡ yB:(xA ¡ yB) = x2 (A:A) ¡
2xy(A:B) + y 2 (B:B),
onde foram usadas as propriedades a), b) e c).
Usando as de¯ni»c~oes de x e y e a desigualdade C:C ¸ 0, obtemos:
(B:B)2 (A:A) ¡ 2(A:B)2 (B:B) + (A:B)2 (B:B) ¸ 0
Por d), temos que B:B > 0, desde que B 6 = 0. Dividindo a equa»c~ao anterior por
(B:B), obtemos:
(B:B)(A:A) ¡ (A:B)2 ¸ 0 () (A:B)2 · (A:A)(B:B)
Al¶em do mais, a igualdade vale quando C = 0, ou seja,xA = yB, isto ¶e, quando
A ¶e m¶ultiplo de B.

1.5 Comprimento ou norma de um vetor


Representamos um vetor geom¶etrico A = (a1 ; a2 ) no plano e localizado na origem
conforme Figura 1.5.

Figura 1.5: Comprimento de A em R2

Do teorema de Pit¶agoras encontramos o comprimento de A pela f¶ormula:


p
comp(A) = a21 + a22
Do mesmo modo, para o vetor geom¶etrico A = (a1 ; a2 ; a3 ) no espa»co e localizado
na origem, conforme Figura 1.6,
onde obtemos:

6
Figura 1.6: Comprimento de A em R3
p
comp(A) = a21 + a22 + a23
Prosseguindo desta forma, introduzimos o conceito de comprimento de um vetor
em Rn .
De¯ni»c~
ao 5
Seja A um vetor em Rn , o seu comprimento ou norma, denotado por jjAjj, ¶e
de¯nido por:

jjAjj = (A:A)1=2 (1.5)

De acordo com as propriedades fundamentais do produto interno, temos as


seguintes propriedades para a norma:
Propriedades
Seja A 2 Rn e seja ® 2 R, valem as seguintes propriedades:
a) jjAjj > 0 se A 6
= 0 (positividade)
b) jjAjj = 0 se A = 0
c) jj®Ajj = j®jjjAjj (homogeneidade)
Obs.: Agora, podemos escrever a desigualdade de Cauchy-Schwarz na forma:

jA:Bj · jjAjjjjBjj (1.6)

Teorema 1.2 (Desigualdade Triangular)


Se A e B s~ao vetores em Rn , temos:

jjA + Bjj · jjAjj + jjBjj (1.7)

Al¶em do mais, a igualdade (1.7) ¶e v¶alida () A = 0 ou B = ®A para algum


® > 0.
Prova
Reescrevemos a desigualdade triangular na forma equivalente:
jjA + Bjj2 · (jjAjj + jjBjj)2

7
Desenvolvendo o lado esquerdo desta desigualdade, obtemos:

(jjA + Bjj)2 = (A + B):(A + B) = A:A + 2A:B + B:B = jjAjj2 + 2A:B + jjBjj2


(1.8)

Por outro lado, obtemos:

(jjAjj + jjBjj)2 = jjAjj2 + 2jjAjj:jjBjj + jjBjj2 (1.9)

Comparando (1.8) e (1.9), vemos que a desigualdade jjA + Bjj2 · (jjAjj + jjBjj)2
vale () A:B · jjAjjjjBjj
Ora, A:B · jA:Bj · jjAjjjjBjj
Reciprocamente, se jjA + Bjj2 · (jjAjj + jjBjj)2 , ent~ao A:B · jjAjjjjBjj vale para
A e ¡A e assim (A:B)2 · jjAjj2 jjBjj2
Quando jjA + Bjj = jjAjj + jjBjj, devemos ter: A:B = jjAjjjjBjj. Isto acontece
quando B = ®A para algum ®.
Portanto, A:B = ®jjAjj2 e jjAjjjjBjj = j®jjjAjj2 .
Se A 6
= 0 =) ® = j®j ¸ 0.
Se B 6
= 0 =) B = ®A com ® > 0.

1.6 Ortogonalidade de Vetores


Elevando ao quadrado ambos os lados da equa»c~ao (1.7), obtemos:

jjA + Bjj2 · (jjAjj + jjBjj)2 (1.10)

que vale para quaisquer vetores A e B em Rn . Vemos que a rela»c~ao de Pit¶agoras vale
somente quando A:B = 0. Assim, vamos de¯nir a ortogonalidade de dois vetores
em Rn . Veja Figura 1.7

Figura 1.7: Desigualdade Triangular

e Figura 1.8

8
Figura 1.8: Rela»c~ao de Pit¶agoras

De¯ni» c~
ao 6
Dois vetores n~ao nulos A e B em Rn s~ao perpendiculares ou ortogonais, quando
A:B = 0
Desta forma, quando a igualdade na equa»c~ao 1.10 ocorre para A:B = 0, temos a
rela»c~ao de Pit¶agoras em Rn .
Exemplo
Sejam A = (a1 ; a2 ; :::; an ) e B = (b1 ; b2 ; :::; bn ) 2 Rn tais que: aj 6
= 0 para
algum j = k e aj = 0 8j 6 = k; (j = 1; 2; :::; n) e bl = 0 para l = k e bj 6 = 0
8j 6
= l; (j = 1; 2; :::; n). Temos que: A:B = 0 £ b1 + 0 £ b2 + ::: + ak £ 0::: + 0 £ bn =
0 + 0 + ::: + 0::: + 0 = 0

1.7 Proje»c~ ^
oes. Angulo entre vetores em Rn
Vamos dar uma interpreta»c~ao geom¶etrica do produto interno de dois vetores n~ao
nulos em R2 . Para isto, consideramos o ^angulo µ formado pelos vetores dados na
Figura 1.9
Na Figura 1.9, temos dois vetores geom¶etricos n~ao nulos A e B fazendo um ^angulo
µ, 0 < µ · ¼=2. Na Figura1.10, temos o mesmo vetor A, os vetores C e tB (perpen-
diculares) cuja soma ¶e o vetor A. O vetor tB ¶e chamado proje»c~ao de A ao longo de B.
Na Figura 1.10, t ¶e positivo, desde que 0 < µ · ¼=2.
Vamos usar o produto interno para expressar t em termos de A e B. Para isto,
escrevemos tB + C = A e efetuamos o produto interno desta igualdade por B,
obtendo:
tB:B + C:B = A:B Mas, C:B = 0, uma vez que C ? B. Portanto, tB:B = A:B
e assim,

A:B A:B
t= = (1.11)
B:B jjBjj2

, onde B 6
=0

9
^
Figura 1.9: Angulo entre vetores

Figura 1.10: Proje»c~ao de A ao longo de B

Por outro lado, temos que:

jjtBjj tjjBjj
cos(µ) = = ;t > 0 (1.12)
jjAjj jjAjj

Levando (1.11) em (1.12), obtemos:

A:B jjBjj A:B


cos(µ) = =
jjBjj jjAjj
2 jjAjjjjBjj

ou ainda:

A:B = jjAjjjjBjjcos(µ) (1.13)

Esta rela»c~ao nos sugere uma maneira de de¯nir ^angulo em Rn .


A desigualdade de Cauchy-Schwarz jA:Bj · jjAjjjjBjj, agora pode ser escrita na
forma de quociente:

jA:Bj jjAjjjBj
· = 1; (1.14)
jjAjjjjBjj jjAjjjjBjj

10
ou seja:
A:B
¡1 · · 1; (1.15)
jjAjjjjBjj

para 0 · µ · ¼
De¯ni» c~
ao 7
Sejam A e B dois vetores em Rn , com B 6
= 0. O vetor tB, onde
A:B
t= (1.16)
jjBjj2

¶e chamdo a proje»c~ao de A ao longo de B. Se A e B s~ao n~ao nulos, o a^ngulo µ


entre A e B ¶e de¯nido por:
A:B
µ = arc cos( ) (1.17)
jjAjjjjBjj

1.8 Vetores de coordenadas unit¶


arias
Qualquer vetor (x1 ; x2 ) em R2 pode ser expresso na forma:
(x1 ; x2 ) = x1 (1; 0) + x2 (0; 1)
Os dois vetores (1; 0) e (0; 1) que multiplicam as componentes x1 e x2 s~ao chama-
dos de vetores coordenados unit¶arios.
Introduzimos o conceito correspondente em Rn .
De¯ni» c~
ao 8
Os n vetores e1 = (1; 0; 0; :::; 0), e2 = (0; 1; 0; :::; 0),...,en = (0; 0; 0; :::; 1) s~ao
chamados vetores coordenados unit¶arios, onde a k-¶esima componente de ek = 1 e
todas as outras s~ao iguais µa zero.
Obs.: Note que ek :ej = 0 se k 6 = j, ou seja, estes vetores s~ao mutuamente
ortogonais.
Ilustramos estes vetores em R2 e R3 , nas Figuras 1.5 e 1.6:
A seguir, damos o seguinte teorema:
Teorema 1.3 (Vetores coordenadas unit¶ arias)
n
Todo vetor X = (x1 ; x2 ; :::; xn ) em R pode ser escrito na forma:

X
n
X = x1 e1 + x2 e2 + ::: + xn en = xk ek (1.18)
k=1
Pn
Al¶em do mais, esta representa»c~ao ¶e u ¶nica. Isto ¶e, se X = k=1 xk ek e Y =
Pn
ao xk = yk 8k (k = 1; 2; :::; n).
k=1 yk ek , ent~
Prova

11
A primeira a¯rma»c~ao segue imediatamente da de¯ni»c~ao de adi»c~ao entre vetores
e multiplica»c~ao de vetor por escalar. A unicidade segue da de¯ni»c~ao de igualdade
de vetores.
P
Um somat¶orio do tipo ci Ai ¶e chamada uma combina»c~ao linear de vetores
A1 ; A2 ; :::; An . Assim, este teorema a¯rma que todo vetor pode ser escrito como
combina»c~ao de vetores coordenados unit¶arios. Descrevemos isto, dizendo que os
vetores e1 ; e2 ; :::; en geram o espa»co Rn . Tamb¶em, dizemos que estes vetores geram
Rn unicamente, porque cada representa»c~ao de um vetor como combina»c~ao linear de
e1 ; e2 ; :::; en ¶e u
¶ nica.
Frequentemente, em R2 os vetores e1 e e2 s~ao representados pelas letras i e j,
respectivamente, e em R3 os vetores e1 , e2 e e3 s~ao representados pelas letras i, j
e k, respectivamente.

1.9 Norma vetorial em Rn


Nesta se»c~ao, vamos generalizar o conceito de norma vetorial em Rn .
De¯ni» c~
ao 9
Uma norma vetorial em Rn ¶e uma fun»c~ao f de Rn em R que satisfaz as seguintes
propriedades:
i) f (x) ¸ 0; 8x 2 Rn e f (x) = 0 () x = 0;
ii) f (x + y) · f(x) + f (y); 8x; y 2 Rn ;
iii) f(®x) =j ® j f (x); 8® 2 R; 8x 2 Rn .
A nota»c~ao de barra dupla agora, indicar¶a qualquer fun»ca~o norma, ou seja:
f(x) =k x k, e quando necess¶ario, usaremos um ¶³ndice para especi¯car a mesma.
Uma classe importante de norma ¶e a p-norma de¯nida por:

k x kp = (j x1 jp + j x2 jp + : : : + j xn jp )1=p ; p ¸ 1 (1.19)

onde p caracteriza a norma para um dado p.


Entre elas, s~ao mais importantes as normas:

k x k1 = (j x1 j + j x2 j + : : : + j xn j) (1.20)

k x k2 = (j x1 j2 + j x2 j2 + : : : + j xn j2 )1=2 (1.21)

k x k1 = max1·i·n j xi j (1.22)

A norma 2, tamb¶em chamada norma Euclidiana, ¶e decorrente do produto interno de


vetores, sendo a mais usada. Quando nos referimos a mesma, usaremos a nota»c~ao

12
k : k para efeito de simpli¯ca»c~ao. Um vetor unit¶ario com respeito µa norma k : kp ¶e
um vetor x que satisfaz k x kp = 1.
Propriedades da Norma Vetorial
1 - Um resultado cl¶assico s^obre p-normas ¶e a desigualdade de Holder:
1 1
j xt y j·k x kp k y kq ; + =1 (1.23)
p q
Um caso mais importante disto ¶e a desigualdade de Cauchy-Schwarz na norma
Euclidiana:
j xt y j·k x k2 k y k2 (1.24)
2 - Todas as normas vetoriais em Rn s~ao equivalentes, isto ¶e, se k : k® e k : k¯ s~ao
normas vetoriais em Rn , ent~ao existem constantes positivas c1 e c2 tais que:
c1 k x k® · k x k¯ · c2 k x k® 8x 2 Rn (1.25)
Por exemplo, se x 2 Rn , ent~ao:
p
k x k2 · k x k1 · n k x k2 (1.26)
p
k x k1 · k x k2 · n k x k1 (1.27)

k x k1 · k x k1 · n k x k1 (1.28)
Exemplo
Seja o vetor
2 3
1
6 ¡2 7
6 7
x=6 7 2 R4
4 4 5
¡5
Temos:
k x k1 = 12
p
k x k2 = 46

k x k1 = 5
Observe que:
p p p
46 · 12 · 4 £ 46
p p
5· 46 · 4 £ 5

5 · 12 · 4 £ 5

13
1.10 Produto Interno Euclidiano em Cn
De¯ni»
c~ao 10
Se x; y 2 Cn , de¯nimos o Produto Interno Euclidiano Complexo por:
n
X
(x; y)C := xi y i (1.29)
i=1

Neste caso, as propriedades para o Produto Interno Euclidiano Complexo ¯cam:


Propriedades
Se x; y e z 2 Cn e ® ¶e um n¶umero complexo qualquer, ent~ao:
a) (x; y)C = (y; x)C ;
b) ((x + y); z)C = (x; z)C + (y; z)C ;
c) ®(x; y)C = (®x; y)C = (x; ®y)C ;
d) (x; x)C ¸ 0 e (x; x)C = 0 () x = 0.
A desigualdade de Cauchy-Schwarz, neste caso, ¯ca:

j (x; y)C j2 · (x; x)C (y; y)C (1.30)

Desde que o produto interno de um vetor por si mesmo ¶e n~ao negativo , podemos
introduzir a norma de um vetor em Cn pela f¶ormula:
1=2
k x k= (x; x)C (1.31)

Todas as outras propriedades relacionadas com norma s~ao tamb¶em v¶alidas em Cn e


a ortogonalide de vetores, no caso, ¶e de¯nida pela rela»c~ao (x; y)C = 0. Os conceitos
de espa»co gerado, depend^encia e independ^encia linear, base s~ao de¯nidos para Cn
exatamente como no caso real.

14
Exerc¶³cios Cap¶³tulo I
1 - Sejam A = (1; 1; 1), B = (0; 1; 1) e C = (1; 1; 0) tr^es vetores em lR3 e seja
D = xA + yB + zC, onde x, y e z s~ao escalares.
a) Determine as componentes de D;
b) Se D = (0; 0; 0), mostre que x = y = z = 0;
c) Encontre x; y; z tais que D = (1; 2; 3).
2 - Dados os vetores A = (2; ¡1; 1), B = (1; 2; ¡1) e C = (1; 1; ¡2) em lR3 .
Encontre o vetor D = xB + yC que ¶e ortogonal aµ A e tem comprimento 1.
3 - Sejam dados dois vetores A e B em lRn . Encontre dois vetores C e D em
lRn satisfazendo as tr^es condi»co~es seguintes: C ¶e paralelo µa A, D ¶e ortogonal µa A e
B = C + D. Encontre C e D em lR3 , sendo dados A = (1; 2; 3) e B = (1; 1=2; 1=3).
4 - Dados os vetores A = (cosµ; ¡senµ) e B = (senµ; cosµ) em lR2 .
a) Mostre que A e B s~ao vetores ortogonais e de comprimento 1. Fa»ca uma
¯gura ilustrando A e B quando µ = ¼=6 ;
b) Encontre todos os vetores (x; y) em lR2 tal que (x; y) = xA + yB. (Considere
todas as possibilidades para µ).
5 - Tr^es vetores A; B e C em lR3 satisfazem as seguintes propriedades: jjAjj =
jjCjj = 5, jjBjj = 1, jjA ¡ B + Cjj = jjA + B + Cjj.
Se o ^angulo entre A e B ¶e ¼=8, encontre o ^angulo entre B e C.
6 - Se µ ¶e o ^angulo entre dois vetores n~ao nulos A e B em lRn , prove que

jjA ¡ Bjj2 = jjAjj2 + jjBjj2 ¡ 2jjAjj jjBjjcosµ :

Quando interpretado geometricamente em lR2 , esta ¶e a lei dos cossenos em


trigonometria.
7 - Prove que para dois vetores A e B em lRn vale a identidade:

jjA + Bjj2 ¡ jjA ¡ Bjj2 = 4A ¢ B

e portanto, A¢B = 0, se somente se, jjA+Bjj = jjA¡Bjj. A interpreta»c~ao geom¶etrica


deste resultado em lR2 ¶e a seguinte: "as diagonais de um paralelogramo s~ao iguais,
se e somente se, o paralelogramo ¶e um ret^angulo".

15
8 - Suponha que, ao inv¶es de se de¯nir o produto interno de dois vetores A =
P
(a1 ; a2 ; :::; an ) e B = (b1 ; b2 ; :::; bn ) 2 Rn pela f¶ormula: A ¢ B = nk=1 ak bk , usou-se
a seguinte de¯ni»c~ao:
n
X
A¢B = jak bk j
k=1

a) Quais das propriedades s~ao v¶alidas para esta de¯ni»c~ao, 8A; B; C 2 Rn e c


escalar?
i) A ¢ B = B ¢ A;
ii) A ¢ (B + C) = A ¢ B + A ¢ C;
iii) c(A ¢ B) = (cA) ¢ B = A ¢ (cB);
iv) A ¢ A > 0 se A 6= 0;
v) A ¢ A = 0 se A = 0.
9 - Suponha que, ao inv¶es de se de¯nir a norma de um vetor A = (a1 ; a2 ; :::; an ) 2
R pela f¶ormula: (A ¢ A)1=2 , usou-se a seguinte de¯ni»c~ao:
n

n
X
jjAjj = jak j
k=1

a) Prove que esta de¯ni»c~ao satisfaz as seguintes propriedades:


i) jjAjj > 0 se A 6 = 0;
ii) jjAjj = 0 se A = 0 ;
iii) jjcAjj = jcj jjAjj ;
iv) jjA + Bjj · jjAjj + jjBjj .
b) Use esta de¯ni»c~ao em lR2 e descreva a ¯gura formada pelo conjunto de todos
os pontos (x; y) com norma igual a 1.
c) Veri¯que quais das quatro propriedades listadas no item a) s~ao v¶alidas ao se
utilizar a seguinte de¯ni»c~ao de norma:
¯ n ¯
¯X ¯
¯ ¯
jjAjj = ¯ ak ¯
¯ ¯
k=1

16
Cap¶³tulo 2

Matrizes

2.1 Introdu»c~
ao
No cap¶³tulo 3, iremos de¯nir aplica»c~oes lineares de um espa»co vetorial Rn em out-
ro espa»co vetorial Rm . Estas s~ao chamadas transforma»c~oes lineares. As matrizes
aparecem de forma natural na representa»c~ao destas transforma»c~oes lineares. Pode-
mos usar esta conex~ao com as transforma»c~oes lineares para de¯nir matrizes. Por
enquanto, vamos tratar matrizes como classe de objetos matem¶aticos, onde de¯ni-
mos opera»c~oes alg¶ebricas.
De¯ni» c~ao 1
Sejam m e n dois inteiros positivos, e seja Im;n o conjunto de todos os pares de
inteiros (i; j) tais que 1 · i · m ; 1 · j · n. Qualquer fun»c~ao A cujo dom¶³nio ¶e
Im;n ¶e chamada uma matriz m £ n. A fun»c~ao cujo valor ¶e A(i; j) ¶e chamada o valor
de entrada-ij ou elemento-ij ou coe¯ciente-ij da matriz A ( tamb¶em denotado por
aij ). Usualmente, representamos uma matriz retangular A com m linhas e n colunas
por:

2 3
a11 a12 ::: a1n
6 7
6 a21 a22 ::: a2n 7
A=6
6 .. .. ... .. 7
7
4 . . . 5
am1 am2 : : : amn
Os elementos aij podem pertencer a qualquer conjunto. Aqui, tomamos estes ele-
mentos pertencentes ao conjunto dos n¶umeros reais (R) ou ao conjunto dos n¶
umeros
complexos (C).
Muitas vezes, ser¶a conveniente representar as matrizes na forma compacta:

A = (aij )m;n
i;j=1 ou A = (aij ) (2.1)

17
Se m = n, a matriz A ¶e dita quadrada de ordem n.
Matriz coluna ¶e a matriz:
2 3
a1k
6 7
6 a2k 7
6 . 7
6 . 7
4 . 5
amk

para um dado inteiro positivo k. Tamb¶em chamado de vetor coluna.


Matriz linha ¶e a matriz:
h i
ak1 ak2 : : : akn

para um dado inteiro positivo k. Tamb¶em chamado de vetor linha.


Damos, a seguir, alguns tipos de matrizes encontradas em aplica»c~oes da engen-
haria.
De¯ni» c~
ao 2
A matriz transposta de A, denotada por At , ¶e a matriz cujos coe¯cientes aij s~ao
os coe¯cientes aji de A, ou seja, as colunas da matriz A s~ao as linhas da matriz At
e vic-versa. Notamos por:

At (i; j) = A(j; i) (2.2)

Quanto a forma, classi¯camos as seguintes matrizes quadradas A, n £ n:


-diagonal: se aij = 0 para i 6= j;
-triangular superior: se aij = 0 para i > j;
-triangular inferior: se aij = 0 para i < j;
-tridiagonal: se aij = 0 para j i ¡ j j> 1;
-pentadiagonal: se aij = 0 para j i ¡ j j> 2;
-identidade: ¶e uma matriz diagonal onde aii = 1, denotada por I;
-sim¶etrica: ¶e uma matriz quadrada com aij = aji , para i; j = (1; 2; : : : ; n), ou
seja, A = At .
De¯ni» c~
ao 3
Duas matrizes A e B s~ao iguais quando t^em o mesmo n¶ umero de linhas e o
mesmo n¶ umero de colunas e seus coe¯cientes s~ao iguais.

A = B () aij = bij 8i; j (2.3)

onde

A = (ai;j ) e B = (bi;j ) (2.4)

18
2.2 Opera»c~
oes com Matrizes
1 - Adi»
c~
ao e Subtra» c~
ao
Sejam as matrizes A; B e C, m £ n. Diz-se que A = B § C quando

cij = aij § bij 8i; j i = 1; 2; : : : ; m; j = 1; 2; : : : ; n (2.5)

2 - Multiplica»c~ao por escalar


Sejam as matrizes A e D, m £ n, e seja o escalar ®.De¯nimos o produto do
escalar ® pela matriz A como:

D = ®A (2.6)

onde, dij = ®aij ; 8i; j i = 1; 2; : : : ; m; j = 1; 2; : : : ; n


2 - Multiplica»c~ ao de matrizes
Sejam as matrizes A e B, l £ m e m £ n, respectivamente. De¯ne-se a matriz
produto C, l £ n, obtida pela multiplica»c~ao das matrizes A e B e nota-se C = AB,
cujos elementos s~ao dados por:
m
X
cij = aik bkj i = 1; 2; : : : ; l; j = 1; 2; : : : ; n (2.7)
k=1

Observe que cij ¶e o produto interno entre a i-¶esima linha da matriz A e a j-¶esima
coluna da matriz B.
Um caso especial de multiplica»c~ao de matriz ocorre quando a segunda matriz ¶e
um vetor coluna x, isto ¶e, o produto matriz vetor Ax. Este produto ¶e interpretado
como combina»c~ao linear das componentes do vetor x. Assim, suponhamos que:
h i
A = a1 a2 : : : an 2 Rm;n com ai 2 Rn

e
2 3
x1
6 7
6 x2 7
x=6
6 .. 7
7
4 . 5
xn

Ent~ao,

Ax = a1 x1 + a2 x2 + : : : + an xn 2 Rm

19
Exemplo
Sejam:
" #
9 8 7
A=
6 5 4
e
3 2
3
6 7
x=4 2 5
1
Calculando o produto Ax, obtemos:
" #
50
Ax =
32

Este mesmo produto pode ainda ser calculado por xt At , onde xt ¶e o transposto do
vetor coluna x e At ¶e a matriz A transposta. Assim:
2 3
" #
h i 9 6 50
6 7
xt At = 3 2 1 4 8 5 5 =
32
7 4
Para multiplica»c~ao matricial, suponhamos que A 2 Rm;n e
h i
B = b1 b2 : : : bp 2 Rn;p com bi 2 Rn :

Ent~ao, a matriz produto AB pode ser tratada como anteriormente, aplicada p vezes:
h i h i
AB = A b1 b2 : : : bp = Ab1 Ab2 : : : Abp 2 Rm;p

Segundo esta formula»c~ao para produto de matrizes, podemos enunciar o seguinte


teorema:
Teorema 2.1(Produto de matrizes)
Sejam
h i
U = u1 u2 : : : un 2 Rm;n com ui 2 Rm

e
h i
V= v1 v2 : : : vn 2 Rp;n com vi 2 Rp :

Ent~ao,
n
X
t
UV = ui vit 2 Rm;p (2.8)
i=1

20
Este teorema nos permite escrever o produto interno Euclidiano para vetores x; y 2
Rn na forma de produto matricial. Ou seja, considerando x e y como vetores coluna
em Rn , na forma matricial escrevemos:
2 3 2 3
x1 y1
6 7 6 7
6 x2 7 6 y2 7
x=6 . 7 ey=6 . 7
6 7 6
7
4 .. 5 4 .. 5
xn yn

e o produto interno Euclidiano de x e y pode ser escrito na forma:


n
X
t
< x; y >:= x y = xi yi (2.9)
i=1

2.3 Propriedades das Opera»c~


oes com Matrizes
Assumindo que A; B e C s~ao matrizes com dimens~oes compat¶³veis, onde o produto
por escalar pode ser de¯nido e que ¸; ¹ 2 R, ent~ao:
1) (¸¹)A = ¸(¹A);
2) (¸ + ¹)A = ¸A + ¹A;
3) ¸(A + B) = ¸A + ¸B;
4) A(BC) = (AB)C;
5) A(B + C) = AB + AC;
6) (A + B)C = AC + BC;
7) ¸(AB) = (¸A)B = A(¸B);
e, em geral,
8) AB 6= BA.

2.4 Matriz Transposta - Propriedades


No in¶³cio deste cap¶³tulo, de¯nimos a matriz transposta de A e a denotamos por
At . Para matrizes A, n £ n, de¯nimos a matriz sim¶etrica , onde os coe¯cientes
aij = aji 8i; j = (1; 2; : : : ; n). Ou seja, para matrizes sim¶etricas t^em-se A = At .
Propriedades
Assumindo que A e B s~ao matrizes com dimens~oes compat¶³veis e ¸ ¶e um escalar
em R, s~ao v¶alidos os seguintes resultados:
1) (At )t = A;
2) (A + B)t = At + B t ;
3) (¸A)t = ¸At ;

21
4) (AB)t = B t At .
Obs.: Para a propriedade 4), basta que a matriz A seja m £ p e que a matriz
B seja p £ n, sendo poss¶³vel de¯nir o produto C = AB, onde C ser¶a uma matriz
m £ n. Note que, o produto B t At dar¶a uma matriz C,m £ n.

2.5 Matriz Inversa


De¯nimos no in¶³cio deste cap¶³tulo a matriz identidade I, onde os coe¯cientes di-
agonais s~ao iguais a 1 e os coe¯cientes extradiagonais s~ao nulos. Geralmente, a
denotamos por I quando n~ao houver necessidade de especi¯car a dimens~ao da mes-
ma, mas caso necess¶ario, a denotamos por In .
De¯ni» c~
ao 4
Dada uma matriz A, n £ n, se pudermos encontrar uma matriz B de mesma
dimens~ao tal que AB = BA = I, ent~ao dizemos que a matriz A ¶e invert¶³vel e que a
matriz B ¶e a inversa da matriz A. Sen~ao puder ser encontrada uma tal matriz B,
ent~ao dizemos que a matriz A ¶e n~ao invert¶³vel ou singular.
Nota»c~ao: Notamos por A¡1 a inversa da matriz A.
Exemplos
1 - A matriz
" #
3 5
B=
1 2

¶e a inversa da matriz
" #
2 ¡5
A=
¡1 3

pois, AB = BA = I.
2 - A matriz
2 3
1 4 0
6 7
A=4 2 5 0 5
3 6 0

¶e singular.
De fato, seja
2 3
b11 b12 b13
6 7
B = 4 b21 b22 b23 5
b31 b32 b33

22
uma matriz qualquer.
3 2
0
6 7
O produto da terceira coluna da matriz B pela matriz A nos d¶a o vetor coluna 4 0 5 ;
0

2 3
0
6 7
que deveria ser igual aµ 4 0 5 caso a matriz A fosse invert¶³vel.
1

Propriedades
1 - Se B e C s~ao matrizes, n £ n, ambas inversas da matriz A, n £ n, ent~ao
B = C.
2 - Se A e B s~ao matrizes, n £ n, invert¶³veis, ent~ao a matriz produto AB ¶e
invert¶³vel e:

(AB)¡1 = B ¡1 A¡1 :

3 - Se A ¶e uma matriz, n £ n,invert¶³vel, ent~ao:


a) A¡1 ¶e invert¶³vel e (A¡1 )¡1 = A;
b) An ¶e invert¶³vel e (An )¡1 = (A¡1 )n , (n = 1; 2; : : : ) , onde de¯nimos a pot^encia
da matriz A por:
A0 = I e An = AA : : : A, (n fatores);
c) Para qualquer escalar k n~ao nulo, a matriz kA ¶e invert¶³vel e:
1 ¡1
(kA)¡1 = A ;
k
d) A matriz At ¶e tamb¶em uma matriz invert¶³vel e (At )¡1 = (A¡1 )t .
De fato:
At (A¡1 )t = (A¡1 A)t = I t = I
(A¡1 )t At = (AA¡1 )t = I t = I

2.6 C¶
alculo da Matriz Inversa por opera»c~
oes Ele-
mentares
De¯ni» c~
ao 5
Uma matriz elementar E ¶e uma matriz n £ n que pode ser obtida da matriz
identidade I, n £ n, executando uma u
¶ nica opera»c~ao elementar s^obre as linhas da
mesma.

23
S~ao opera»c~oes elementares em matrizes:
1 - Multiplicar uma linha da matriz por uma constante;
2 - Trocar duas linhas da matriz entre si;
3 - Somar um m¶ ultiplo de uma linha da matriz a uma outra linha da mesma.
Exemplo
As seguintes matrizes s~ao elementares:
2 3 2 3
" # 1 0 0 5 0 0
0 1 6 7 6 7
E1 = ; E2 = 4 0 1 0 5 ; E3 = 4 0 1 0 5
1 0
0 2 1 0 0 1

Proposi»c~ ao 2.1
Se a matriz elementar E, m £ m, resulta em efetuar uma certa opera»c~ao sobre
as linhas de I, m £ m, e se A ¶e uma matriz, m £ n, ent~ao o produto EA ¶e a matriz
que resulta quando esta mesma opera»ca~o sobre linhas ¶e efetuada na matriz A.
Exemplo
Seja a matriz:
2 3
1 0 2 3
6 7
A = 4 2 ¡1 3 6 5
1 4 4 0

e seja a seguinte matriz elementar:


2 3
1 0 0
6 7
E=4 0 1 0 5
3 0 1

Temos que,
2 3
1 0 2 3
6 7
EA = 4 2 ¡1 3 6 5
4 4 10 9

onde a terceira linha da matriz produto EA ¶e igual a tr^es vezes a primeira linha de
A mais a terceira linha de A.
Proposi»c~ ao 2.2
Qualquer matriz elementar E, n £ n, ¶e invert¶³vel e a sua inversa E ¡1 , ¶e tamb¶em
uma matriz elementar. Da¶³, se a matriz A, n £ n, ¶e invert¶³vel, ent~ao sua inversa
A¡1 , pode ser escrita como um produto de matrizes elementares.
Vamos utilizar este u ¶ ltimo resultado no c¶alculo da inversa de uma matriz A,
n £ n, invert¶³vel.

24

alculo da inversa de matriz
ao 2.2, caso exista A¡1 , escrevemos:
Assim, de acordo com a proposi»c~

A¡1 = Ek Ek¡1 : : : E2 E1 (2.10)

Escrevendo:

A¡1 A = I

obtemos:
¡1
Ek Ek¡1 : : : E2 E1 A = I =) A = E1¡1 E2¡1 : : : Ek¡1 Ek¡1 I =) A = E1¡1 E2¡1 : : : Ek¡1
¡1
Ek¡1

Desta forma, para se obter a inversa da matriz A, n £ n, basta multiplic¶a-la por


matrizes elementares convenientes reduzindo-a a uma matriz identidade.
Exemplo
Seja calcular a inversa da matriz:
2 3
1 2 3
6 7
A=4 2 5 3 5
1 0 8

Inicialmente, colocamos esta matriz acoplada com a matriz identide I:


2 3
1 2 3 1 0 0
6 7
4 2 5 3 0 1 0 5
1 0 8 0 0 1

Multiplicamos esta matriz aumentada, sucessivamente, pelas matrizes elementares:


2 3 2 3
1 0 0 1 0 0
6 7 6 7
E1 = 4 ¡2 1 0 5 ; E2 = 4 0 1 0 5
0 0 1 ¡1 0 1

obtendo:
2 3
1 2 3 1 0 0
6 7
4 0 1 ¡3 ¡2 1 0 5
0 ¡2 5 ¡1 0 1

Multiplicamos esta matriz aumentada, sucessivamente, pelas matrizes elementares:


2 3 2 3
1 ¡2 0 1 0 0
6 7 6 7
E3 = 4 0 1 0 5 ; E4 = 4 0 1 0 5
0 0 1 0 2 1

25
obtendo:
2 3
1 0 9 5 ¡2 0
6 7
4 0 1 ¡3 ¡2 1 0 5
0 0 ¡1 ¡5 2 1

Finalmente, multiplicamos esta matriz aumentada, sucessivamente, pelas matrizes


elementares:
2 3 2 3 2 3
1 0 0 1 0 ¡9 1 0 0
6 7 6 7 6 7
E5 = 4 0 1 0 5 ; E6 = 4 0 1 0 5 ; E7 = 4 0 1 3 5
0 0 ¡1 0 0 1 0 0 1

obtendo:
2 3
1 0 0 ¡40 16 9
6 7
4 0 1 0 13 ¡5 ¡3 5
0 0 1 5 ¡2 ¡1

Portanto, a matriz inversa ¶e:


2 3
¡40 16 9
6 7
A¡1 = 4 13 ¡5 ¡3 5
5 ¡2 ¡1

2.7 Particionamento de Matriz em blocos


Vamos considerar a seguinte matriz gen¶erica A, 3 £ 4,
2 3
a11 a12 a13 a14
6 7
A = 4 a21 a22 a23 a24 5
a31 a32 a33 a34

com aij 2 R; i = 1; 2; 3 e j = 1; 2; 3; 4.
De¯nindo-se
" # " #
a11 a12 a13 a14 h i h i
A11 = ; A12 = ; A21 = a31 a32 ; A22 = a33 a34
a21 a22 a23 a24

Obtemos a matriz A na forma de matriz bloco:


" #
A11 A12
A=
A21 A22

26
Regras
- O ¶³ndices das matrizes bloco indicam as suas posi»c~oes na matriz original.
- O particionamento pode ser empregado para contemplar matrizes de quaisquer
dimens~oes.
- Para uma mesma matriz existem v¶arias maneiras de particionamento. A re-
gra utilizada para particionamento ¶e fazer com que as submatrizes que possuem o
primeiro sub¶³ndice igual contenham a mesma quantidade de linhas e as que posuem
o segundo sub¶³ndice igual contenham a mesma quantidade de colunas.

2.8 Opera»c~
oes com matrizes particionadas
Assumindo que,
2 3 2 3
A11 : : : A1l B11 : : : B1l
6 .. 7 e B = 6 .. .. 7
A = 4 ... ...
. 5 4 . ...
. 5
Ak1 : : : Akl Bk1 : : : Bkl

sendo as submatrizes Aij de dimens~oes ¹i £¸j e Bij de dimens~oes ºi £¯j . De¯nimos:


Multiplica»c~
ao por Escalar

2 3 2 3
A11 : : : A1l ®A11 : : : ®A1l
6 . ... .. 7 6 . ... .. 7
®A = 4 .. . 5 = 4 .. . 5
Ak1 : : : Akl ®Ak1 : : : ®Akl

onde ® 2 R.
Adi»c~
ao de Matrizes
Assumindo k = m; ; l = n; ; ¹i = ºi , e ¸j = ¯j , temos que:

2 3
C11 : : : C1l
6 . . . .. 7
C = A + B = 4 ... . 5
Ck1 : : : Ckl

onde Cij = Aij + Bij .


Transposi»c~ao de Matriz
A transposta da matriz A ¶e dada por:
2 t 3
A11 : : : At1l
6 .. 7
At = 4 ... ...
. 5
Atk1 : : : Atkl

27
Multiplica»c~ao de Matrizes
Assumindo que as dimens~oes das matrizes A e B s~ao compat¶³veis para realizar o
produto AB, ou seja, A, r £ p, e B, p £ s, e que l = m e ¸i = ºi (ou seja, o produto
das subamtrizes possa ser obtido, temos:
2 3
C11 : : : C1l
6 .. 7
C = AB = 4 ... ...
. 5
Ck1 : : : Ckl
P
onde Cij = ls=1 Ais Bsj .
O particionamento de matrizes em bloco ¶e utilizado em alguns m¶etodos envolven-
do opera»c~oes com matrizes em bloco como Decomposi»c~ao em Valor Singular(SVD),
que veremos no ¯nal deste curso.

2.9 Norma de Matrizes


A an¶alise de algoritmos matriciais, frequentemente, requer o uso de normas matrici-
ais. Por exemplo, a norma ¶e utilizada em: estudo de sistemas lineares com matrizes
"quase singulares", na veri¯ca»c~ao de matrizes "matrizes mal condicionadas", e assim
por diante. Da¶³, a necessidade de se medir dist^ancias no espa»co das matrizes, sendo
que a norma matricial prov^e esta medida,ver Albrecht e Golub[1, 6]
De¯ni» c~
ao 6
Uma norma matricial para matrizes A 2 Rm£n ¶e uma fun»c~ao f de Rm£n em R
que satisfaz as seguintes propriedades:
i) f (A) ¸ 0; 8A 2 Rm£n e f (A) = 0 () A = 0;
ii) f (A + B) · f (A) + f (B); 8A; B 2 Rm£n ;
iii) f(®A) =j ® j f(A); 8® 2 R; 8A 2 Rm£n .
A nota»c~ao de barra dupla agora, indicar¶a qualquer fun»ca~o norma matricial, ou
seja: f (A) =k A k, e quando necess¶ario, usaremos um ¶³ndice para especi¯car a
mesma.
Para tratarmos as matrizes A 2 Rm£n como operadores lineares de Rm em
Rn (falaremos em operadores lineares no cap¶³tulo s^obre transforma»co~es lineares), aµ
de¯ni»c~ao de norma matricial acrescentamos as seguintes condi»c~oes relacionadas com
a norma vetorial:
iv) k Ax k·k A k k x k 8A 2 Rm£n ; 8x 2 Rn ;
v) 8A 2 Rm£n ; 9y 2 Rn tal que k Ay k=k A k k y k.
De¯ni» c~
ao 7
Uma norma matricial ¶e dita consistente com uma norma vetorial quando,

28
8A 2 Rm£n ; 8x 2 Rn

k Ax k·k A k k x k (2.11)

De¯ni»c~
ao 8
Uma norma matricial ¶e dita subordinada a uma norma vetorial quando,
8A 2 Rm£n ; 9y 2 Rn ; y 6
=0

k Ay k=k A k k y k (2.12)


As normas mais frequentes em Algebra Linear Num¶erica s~ao:
i) A norma de Frobenius

v
uX
u m X
n
k A kF = t j aij j2 =j tr(AAt )1=2 j (2.13)
i=1 j=1

e ii) as p-normas:
k Ax kp
k A kp = sup (2.14)
x6
=0 k x kp

Obs.: k A kp ¶e a p-norma do maior vetor obtido aplicando A µa um vetor de p-norma


unit¶aria:
x
k A kp = sup k A( ) kp = max k Ax kp (2.15)
x6
=0 k x kp kxkp =1

Propriedades
As normas de Frobenius e p-normas (especialmente p = 1; 2; 1)satisfazem certas
desigualdades que s~ao frequentemente usadas na an¶alise de c¶alculos matriciais. Para
A 2 Rm£n ,temos:
1)
p
k A k2 ·k A kF · n k A k2 (2.16)

onde
p
k A k2 = max j ¹i j; sendo ¹i os autovalores de At A
1·i·n
pPn
Esta norma ¶e subordinada µa norma vetorial Euclidiana k x k2 = i=1 x2i . Ela ¶e
tamb¶em conhecida como norma Espectral.

29
2)
p
max j aij j·k A k2 · mn max j aij j (2.17)
i;j i;j

De¯nimos, a norma do m¶aximo por coluna:


m
X
k A k1 = max j aij j (2.18)
1·j·n
i=1

subordinada aµ norma vetorial:


n
X
k x k1 = j xi j (2.19)
i=1

e, a norma do m¶aximo por linha:


X
n
k A k1 = max j aij j (2.20)
1·i·m
j=1

subordinada aµ norma vetorial:

k x k1= max j xi j (2.21)


1·i·m

3)
1 p
p k A k1 ·k A k2 · m k A k1 (2.22)
n
4)
1 p
p k A k1 ·k A k1· n k A k1 (2.23)
m
Obs.: A norma matricial de Frobenius ¶e consistente, mas n~ao subordinada µa norma
vetorial Euclidiana.

2.10 Erros nas opera»c~


oes com Matrizes
Inicialmente, consideramos a propaga»c~ao do ±x na solu»c~ao x do sistema linear Ax = b
devido ao erro ±b de b para b 6
= 0. Em seguida, vamos analisar como perturba»c~oes
em uma matriz A, n £ n, re°etem no c¶alculo da inversa A¡1 .
Admitindo que as normas usadas sejam consistentes, temos:

A(x + ±x) = b + ±b =) A(±x) = ±b (2.24)

30
Portanto,

k ±x k·k A¡1 k k ±b k; se det (A) 6


=0 (2.25)

De

k b k=k Ax k·k A k k x k; segue-se que k x k¸k b k k A k¡1 (2.26)

Da¶³, de (2:25) e (2:26) tiramos:

k ±x k k A¡1 k k ±b k
· (2.27)
kxk k b kk A k¡1

Acabamos de demonstrar o seguinte teorema:


Teorema 2.2
Seja o sistema linear Ax = b com det (a) 6
= 0; b 6
= 0. Se o vetor b tem o erro ±b,
ent~ao vale para o erro correspondente ±x:

k ±x k k ±b k
· K(A) ; com K(A) =k A k k A¡1 k (2.28)
kxk kbk

De¯ni»
c~
ao 9
O n¶
umero

K(A) =k A k k A¡1 k (2.29)

umero de condi»c~ao da matriz A. Em particular,


¶e chamado de n¶

KS (A) =k A k2 k A¡1 k2 (2.30)

¶e o n¶umero de condi»c~ao espectral.


Se K(A) >> 1, ent~ao o sistema linear Ax = b ¶e dito mal condicionado, isto ¶e,
pequenos erros de arredondamento na matriz A ou no vetor b, causam erros maiores
na solu»c~ao x deste sistema linear.
Exemplo
Vamos dar o seguinte exemplo apresentado em Albrecht [1]:

2 3 2 3 2 3
10 7 8 7 x1 32
6 7 5 6 5 7 6 x2 7 6 23 7
6 7 6 7 6 7
6 7 6 7 = 6 7
4 8 6 10 9 5 4 x3 5 4 33 5
7 5 9 10 x4 31

31
Consideremos as duas aproxima»c~oes abaixo para solu»c~ao deste sistema linear:
1) x1 = 9:2; x2 = ¡12:6; x3 = 4:5; x4 = ¡1:1;
2) x1 = 1:82; x2 = ¡0:36; x3 = 1:35; x4 = 0:79.
Substituindo estas aproxima»c~oes no lado direito do sistema linear, obtemos:
1) b1 = 32:1; b2 = 22:9; b3 = 33:1; b4 = 30:9;
2) b1 = 32:01; b2 = 22:99; b3 = 33:01; b4 = 30:99.
Acreditamos que estas duas aproxima»c~oes s~ao boas para a solu»c~ao deste sistema
linear, contudo est~ao longe da realidade, uma vez que a solu»c~ao correta do problema
¶e:
x1 = x2 = x3 = x4 = 1:0.
Calculando o n¶ umero de condi»c~ao da matriz A, obtemos:
K(A) =k A k2 k A¡1 k2 = 30:29 £ 98:52 = 2984:17
Donde concluimos que o sistema linear ¶e mal condicionado. Assim, pequenas
varia»co~es no termo independente acarreta grandes varia»c~oes na solu»c~ao do sistema
linear.
Seja, agora, E a matriz erro, n £ n, devido µa pequenas perturba»c~oes nos coe¯-
cientes da matriz A, n £ n. Seja calcular a matriz inversa A¡1 a partir da matriz
A + E. Damos o seguinte lema:
Lema 2.1
Se F 2 Rn£n e k F kp · 1, ent~ao I ¡ F ¶e n~ao singular e:
1
X
¡1
(I ¡ F ) = Fk (2.31)
k=0
com
1
k (I ¡ F )¡1 kp · (2.32)
1¡ k F kp
Prova
Suponhamos que (I ¡ F ) seja singular. Segue-se que (I ¡ F )x = 0 para algum
vetor x n~ao nulo. Ent~ao, k x kp = k F x kp =)k F kp ¸ 1, que ¶e uma contradi»c~ao.
Assim, (I ¡ F ) ¶e n~ao singular.
Consideremos, agora, a identidade:
N
X
F k (I ¡ F ) = I ¡ F N+1 (2.33)
k=0

Desde que k F kp · 1 segue-se que, limk!1 = 0, porque k F k kp ·k F kkp .


Assim,
N
X
lim F k (I ¡ F ) = I (2.34)
N!1
k=0

32
e segue-se que:
1
X
(I ¡ F )¡1 = lim Fk (2.35)
N !1
k=0

Portanto, facilmente mostra-se que:

1
X
¡1 1
k (I ¡ F ) kp · k F kkp = (2.36)
k=0
1¡ k F kp

Observe que

k F kp
k (I ¡ F )¡1 ¡ I kp · (2.37)
1¡ k F kp

¶e uma consequ^encia do lema 2.1. Assim, se " << 1; #(") perturba»c~oes em I induz
#(") perturba»c~oes na inversa. Passamos ao caso geral para qualquer matriz A; n£n.
Teorema 2.3
Se A ¶e uma matriz,n £ n, n~ao singualr e r = k A¡1 E kp < 1, ent~ao A + E ¶e n~ao
singular e

k E kp k A¡1 k2p
k (A + E)¡1 ¡ A¡1 kp · (2.38)
1¡r
Prova
Desde que a matriz A ¶e n~ao singular A + E = A(I ¡ F ) onde F = ¡A¡1 E e
sendo k F kp = r < 1,segue-se do lema 2.1 que I ¡ F ¶e n~ao singular e

1
k (I ¡ F )¡1 kp · : (2.39)
1¡r
Agora, (A + E)¡1 = (I ¡ F )¡1 A¡1 e ent~ao:

k A¡1 kp
k (A + E)¡1 kp · : (2.40)
1¡r
Da rela»c~ao:

(A + E)¡1 ¡ A¡1 = ¡A¡1 E(A + E)¡1 (2.41)

e tomando a norma p, obtemos:

¡1 ¡1 ¡1 ¡1
k E kp k A¡1 k2p
k (A + E) ¡A kp · k A kp k E kp k (A + E) kp · : (2.42)
1¡r

33
Exerc¶³cios Cap¶³tulo II
1 - Dada a matriz:
2 3
6 1 4
6 7
A = 4 ¡3 8 ¡5 5
2 ¡6 7

calcular e classi¯car a matriz A ¡ AT = P .


2 - Dada a matriz:

2 3
cosµ ¡senµ 0
6 7
M = 4 senµ cosµ 0 5
0 0 1

calcular MM T e classi¯car a matriz M .


3 - Seja a matriz A, invert¶³vel decomposta em matrizes blocos da forma:
" #
P Q
A=
R S

onde P e S s~ao matrizes invert¶³veis de ordem p e s, respectivamente; Q e R s~ao


matrizes p £ s e s £ p, respectivamente.
Escrevemos:
" #
K L
A¡1 =
M N

onde K e N s~ao matrizes invert¶³veis de ordem p e s, respectivamente; L e M s~ao


matrizes p £ s e s £ p, respectivamente.
Desde que, AA¡1 = I, onde I matriz identidade de ordem n, podemos escrever:
P K + QM = Ipp (1)
P L + QN = 0ps (2)
RK + SM = 0sp (3)
RL + SN = Iss (4)
onde Ipp e 0ps , s~ao as matrizes identidade de ordem p e nula (p £ s), respectiva-
mente. Idem para Iss e 0sp .
Mostre que:
a) K = (P ¡ QS ¡1 R)¡1 e M = ¡S ¡1 RK;
b) N = (S ¡ RP ¡1 Q)¡1 e L = ¡P ¡1 QN.

34
4 - Seja A uma matriz, n £ n.
a) Mostre que (I ¡ A)¡1 = I + A + A2 + A3 , onde I ¶e a matriz identidade, n £ n,
e sendo A4 = 0 (matriz nula);
b) Sejam as matrizes C,D,n £ n, e I ¶e a matriz identidade, n £ n. Supondo que
as matrizes inversas envolvidas existem, mostre que:
(C + DDt )¡1 D = C ¡1 D(I + Dt C ¡1 D)¡1 .

35
Cap¶³tulo 3

Resolu»
c~ao de Sistemas Lineares

3.1 Introdu»c~
ao
Existem diversos problemas de engenharia que envolvem ¶algebra linear. O prob-
lema central da ¶algebra linear consiste na resolu»c~ao de sistemas de equa»c~oes lineares
e m¶etodos de resolu»c~ao dos mesmos, quando estas solu»c~oes existem. Por exemplo,
seja calcular as tens~oes do circuito el¶etrico da ¯gura 3.1:

Figura 3.1: Circuito El¶etrico

Solu»c~
ao
Pela lei de Kircho®, a soma das correntes que chegam a cada n¶o do circuito ¶e
nula. Pela lei de Ohm, a corrente el¶etrica que °ui do n¶o j para o n¶o k de um circuito
¶e:

(Vj ¡ Vk )
Ijk = (3.1)
Rjk

sendo Vj e Vk as tens~oes nos n¶os j e k, respectivamente, e Rkj a resist^encia na linha


jk. A corrente Ijk ¶e expressa em amp¶eres e a resist^encia Rjk em ohms. As duas

36
leis combinadas permitem o c¶alculo da tens~ao em cada n¶o do circu¶³to. Por exemplo,
no n¶o 1, pela lei de Kircho®, IA1 + I21 + I31 + I41 = 0. Utilizando a lei de Ohm,
obtemos:

0 ¡ V1 V2 ¡ V1 V3 ¡ V1 V4 ¡ V1
+ + + =0
1 1 2 2

ou seja,
¡6V1 + 2V2 + V3 + V4 = 0
Fazendo o mesmo para os n¶os 2,3 e 4, obtemos um sistema de 4 equa»c~oes lineares,
a saber:
¡6V1 + 2V2 + V3 + V4 = 0
3V1 ¡ 4V2 + V3 = 0
3V1 + 2V2 ¡ 13V3 + 6V4 = ¡254
1V1 + 2V3 ¡ 3V4 = 0
As coordenadas do vetor solu»c~ao V = (25:80; 31:75; 49:61; 41:67) fornece a tens~ao
em cada n¶o do circuito el¶etrico.
Iniciamos o estudo com o problemas b¶asico de encontrar a solu»c~ao de um sistema
linear de n equa»c~oes com n inc¶ognitas. Um sistema linear com n equa»c~oes e n
inc¶ognitas ¶e escrito usualmente na forma:
a11 x1 + a12 x2 + : : : + a1n xn = b1
a21 x1 + a22 x2 + : : : + a2n xn = b2
.... . . ..
.. . .
an1 x1 + an2 x2 + : : : + ann xn = bn
onde
aij : coe¯cientes 1 · i; j · n
xj : inc¶ognitas j = 1; 2; : : : ; n
.
bj : constantes j = 1; 2; . . ; n
A resolu»c~ao de um sistema linear consiste em calcular os valores de xj ; j =
1; 2; :::; n, caso eles existam, que satisfa»cam as n equa»c~oes simult^aneas.
Usando nota»c~ao matricial, escrevemos este sistema linear como:

Ax = b; (3.2)

onde:

37
2 3
a11 a12 : : : a1n
6 7
6 a21 a22 : : : a2n 7
A=6
6 .. .. . . .. 7
7
4 . . . . 5
an1 an2 : : : ann

¶e a matriz, n £ n, dos coe¯cientes,

2 3
x1
6 7
6 x2 7
x=6
6 .. 7
7
4 . 5
xn

¶e o vetor das inc¶ognitas e

2 3
b1
6 7
6 b2 7
b=6
6 .. 7
7
4 . 5
bn

¶e o vetor constante.
Chamaremos de x¤ o vetor solu»c~ao do sistema linear Ax = b.
No caso geral em que o sistema linear envolve n equa»c~oes com n inc¶ognitas,
apenas uma entre as situa»c~oes abaixo ir¶a ocorrer:
i) o sistema linear tem u ¶nica solu»c~ao;
ii) o sistema linear admite in¯nitas solu»c~oes(indeterminado);
iii) o sistema linear n~ao admite solu»c~ao( imposs¶³vel ou inconsistente).
Estaremos interessados em sistemas lineares n £ n com uma u ¶nica solu»c~ao. A
solu»ca~o destes sistemas lineares ¶e dada por: x¤ = A¡1 b. No entanto, calcular a
matriz A¡1 e em seguida efetuar o produto A¡1 b ¶e desaconselh¶avel, uma vez que o

umero de opera»c~oes envolvidas ¶e muito grande. Usaremos aqui o M¶etodo de Elimina»ca~o de Gaus
para encontrar a solu»c~ao destes sistemas lineares.

3.2 M¶
etodo da Elimina»c~
ao de Gauss
O M¶etodo de Elimina»c~ao de Gauss consiste em transformar o sistema linear original
num sistema linear equivalente com matriz dos coe¯cientes triangular superior, pois

38
a resolu»c~ao torna-se imediata. Dizemos que dois sistemas lineares s~ao equivalentes
quando possuem a mesma solu»ca~o. Descreveremos, a seguir, o M¶etodo de Elimi-
na»c~ao de Gauss, aplicando uma sequ^encia de opera»c~oes elementares na matriz A no
processo de triangulariza»c~ao da mesma. Vamos supor que det(A) 6 = 0 (A invert¶³vel).
Triangulariza»c~ ao da matriz A
O processo de triangulariza»c~ao consiste em eliminar a inc¶ognita xk na k-¶esima
(k)
etapa nas equa»c~oes k + 1; k + 2; k + 3; ::::; n. Usaremos a nota»c~ao aij para denotar
(k)
o coe¯ciente da linha i e coluna j no ¯nal da k-¶esima etapa, e bi para denotar a i-
¶esima componente do vetor constante no ¯nal da mesma etapa. Sendo det(A) 6 = 0 ¶e
a
sempre poss¶³vel encontrar um elemento a11 6 = 0 na 1 coluna. Caso a11 = 0 fazemos
a troca de linhas. Escrevemos, inicialmente a matriz aumentada:

2 (0) (0) (0) (0)


3
a11 a12 : : : a1n j b1
6 (0) (0) (0) (0) 7
6 a21 a22 : : : a2n j b2 7
(0)
A jb (0)
=6
6 .. .. ... .. . 7
7
4 . . . j .. 5
(0) (0) (0) (0)
an1 an2 : : : ann j bn
(0) (0)
onde aij = aij , bi = bi .
1a etapa:
Para eliminar a inc¶ognita x1 das equa»c~oes i = 2; 3; :::; n fazemos a seguinte
opera»c~ao: da equa»c~ao i subtra¶³mos a 1a equa»c~ao multiplicada por mi1 , onde
(0)
ai1
mi1 = (0) , i = 2; 3; ::::; n.
a11
(0)
Os elementos mi1 ; i = 2; 3; ::::; n s~ao os multiplicadores e o elemento a11 ¶e chama-
do de piv^
o desta etapa. No ¯nal desta etapa, obtemos a seguinte matriz aumentada:

2 3
a(0)
11 a(0)
12 : : : a(0)
1n j b(0)
1
6 (1) (1) (1) 7
6 0 a22 : : : a2n j b2 7
(1)
A jb (1)
=6
6 .. .. ... .. . 7
7
4 . . . j .. 5
(1) (1) (1)
0 an2 : : : ann j bn
(1) (0) (0)
onde aij = aij ¡ mi1 a1j , i = 2; 3:::::n e j = 1; 2; :::; n
(1) (0) (0)
bi = bi ¡ mi1 b1 , i = 2; 3:::::n
2a etapa:
Como det(A) 6 = 0, devemos encontrar pelo menos um elemento ai2 6 = 0 na 2a
(1)
coluna para i = 2; 3:::::n. Desta forma, tomamos o piv^ o a22 6 = 0 e temos os seguintes
multiplicadores:
(1)
ai2
mi2 = (1) , i = 3; 4; ::::; n.
a22

39
Eliminamos a inc¶ognita x2 nas equa»c~oes i = 3; :::; n fazendo a seguinte opera»c~ao:
da equa»c~ao i subtra¶³mos a 2a equa»c~ao multiplicada por mi2 .
No ¯nal desta etapa obtemos a seguinte matriz aumentada:

2 (0) (0) (0) (0) 3


a11 a12 : : : : : : a1n j b1
6 (1) (1) (1) 7
6 0 a22 : : : : : : a2n j b2 7
6 (2) (2) (2) 7
A(1) jb(1) =6
6 0 0 a33 : : : a2n j b2 7
7
6 .. .. .. ... .. . 7
4 . . . . j .. 5
(2) (2) (2)
0 0 an3 : : : ann j bn
(2) (1) (2)
onde aij = aij ¡ mi2 a2j , i = 3; 4:::::n e j = 2; :::; n
(2) (1) (1)
bi = bi ¡ mi2 b2 , i = 3; 4; ::::n
(n ¡ 1)-¶
esima etapa:
No ¯nal desta u
¶ ltima etapa, obtemos uma matriz triangular superior aumentada:

2 (0) (0) (0) (0) 3


a11 a12 : : : ::: a1n j b1
6 7
6 0 a(1)
22 ::: ::: a(1)
2n j b(1)
2 7
6 (2) (2) (2) 7
A(n¡1) jb(n¡1) =6
6 0 0 a33 ::: a2n j b2 7
7
6 .. .. .. ... .. .. 7
4 . . . . j . 5
(n¡1) (n¡1)
0 0 0 ::: ann j bn

equivalente ao sistema linear inicial, onde A(n¡1) ¶e uma matriz triangular supe-
rior.
Resolu»c~ao do sistema triangular
O sistema triangular ¶e resolvido por resolu»c~ao regressiva como segue:
Da u
¶ltima equa»c~ao, obtemos:
(n¡1)
bn
xn = (n¡1)
ann
e da pen¶
ultima equa»c~ao, obtemos:
(n¡2) (n¡2)
(bn ¡ an¡1;n xn )
xn¡1 = (n¡2)
an¡1;n¡1

e assim sucessivamente obtemos xn¡2 ; :::::; x2 e ¯nalmente da 1a equa»c~ao, obtemos:


(0) (0) (0) (0)
(b1 ¡ a12 x2 ¡ a13 x3 ¡ :::: ¡ a1n xn )
x1 = (0)
a11

40
Exemplo
Seja resolver o sistema linear abaixo pelo m¶etodo de elimina»c~ao de Gauss.
2x1 + x2 + x3 = 7
4x1 + 4x2 + 3x3 = 21
6x1 + 7x2 + 4x3 = 32
Triangulariza»c~ ao da matriz A
a
1 etapa: Elimina»c~ao da inc¶ognita x1 .
Inicialmente, temos a seguinte matriz aumentada:

2 3
2 1 1 j 7
6 7
A(0) jb(0) = 4 4 4 3 j 21 5
6 7 4 j 32

Calculamos m21 = 4=2 e m31 = 6=2 e substitu¶³mos a linha2 pela linha2 menos
m21 vezes linha1 e tamb¶em, a linha3 pela linha3 menos m31 vezes linha1. Obtendo,
assim, a seguinte matriz aumentada:

2 3
2 1 1 j 7
6 7
A(1) jb(1) =4 0 2 1 j 7 5
0 4 1 j 11

2a etapa: Elimina»c~ao da inc¶ognita x2 .


Calculamos m32 = 4=2 e substitu¶³mos a linha3 pela linha3 menos m32 vezes
linha2, obtendo a seguinte matriz aumentada:

2 3
2 1 1 j 7
6 7
A(1) jb(1) =4 0 2 1 j 7 5
0 0 ¡1 j ¡3

Resolu»c~ao do sistema triangular


Agora, temos de resolver o seguinte sistema linear triangular:

2x1 +x2 +x3 = 7


2x2 +x3 = 7
¡x3 = ¡3
Obtemos, por resolu»c~ao regressiva:
x3 = (¡3)=(¡1) = 3
x2 = 7=2 ¡ 3=2 = 2
x1 = 7=2 ¡ 2=2 ¡ 3=2 = 1

41
3.3 Pivoteamento Parcial
No processo de escalonamento da matriz A pelo m¶etodo de elimina»c~ao de Gauss
devemos calcular os multiplicadores:

(k¡1) (k¡1)
mik = aik =akk ; i = k + 1; 3; ::::; n (3.3)

em cada k-¶esimo passo do processo.


Com o objetivo de eliminar poss¶³veis piv^
os nulos e diminuir os erros de arredonda-
mento durante o processo, utilizamos a estrat¶egia de pivoteamento parcial (ou total),
que consiste no seguinte:
"No in¶³cio do k-¶esimo passo, escolhemos para piv^ o o elemento de maior m¶odulo
(k¡1)
dentre os coe¯cientes aik ; i = k; k + 1; k + 2; :::; n e trocamos as linhas k e i, caso
necess¶ario."
Exemplo
Seja resolver o seguinte sistema linear pelo m¶etodo de elimina»c~ao de Gauss com
pivoteamento parcial:
3x1 ¡ 4x2 + x3 = 9
x1 + 2x2 + 2x3 = 3
4x1 ¡ 3x3 = ¡2
Temos a seguinte matriz aumentada do sistema linear inicial:

2 3
3 ¡4 1 j 9
6 7
A(0) jb(0) =4 1 2 2 j 3 5
4 0 ¡3 j ¡2

Triangulariza»c~ao da matriz A
a
1 etapa: Elimina»c~ao da inc¶ognita x1 .
Antes de eliminar a inc¶ognita x1 , fazemos a troca dos coe¯cientes da coluna1.
Assim, temos a seguinte matriz aumentada:

2 3
4 0 ¡3 j ¡2
6 7
A(0) jb(0) =4 1 2 2 j 3 5
3 ¡4 1 j 9

Calculamos m21 = 1=4 e m31 = 3=4 e substitu¶³mos a linha2 pela linha2 - m21 £
linha1 e tamb¶em, a linha3 pela linha3 - m31 £ linha1. Obtemos a seguinte matriz
aumentada:

42
2 3
4 0 ¡3 j ¡2
6 7
A(1) jb(1) = 4 0 2 2:75 j 3:5 5
0 ¡4 3:25 j 10:5

2a etapa: Elimina»c~ao da inc¶ognita x2 .


Antes de calcularmos m32 , fazemos a troca da linha2 com a linha3, pois j ¡ 4j >
j2j. Em seguida, calculamos m32 = 2=(¡4) e substitu¶³mos a linha3 pela linha3 -
m32 £ linha2, obtendo a seguinte matriz aumentada:

2 3
4 0 ¡3 j ¡2
6 7
A(2) jb(2) = 4 0 ¡4 3:25 j 10:5 5
0 0 4:375 j 8:75

Resolu»c~ao do sistema triangular


Agora, temos de resolver o seguinte sistema linear triangular:

4x1 +0x2 ¡3x3 = ¡2


¡4x2 +3:25x3 = 10:5
4:375x3 = 8:75

Obtemos, por resolu»c~ao regressiva:


x3 = 8:75=4:375 = 2
x2 = (10:5 ¡ 3:25 £ 2)=(¡4) = ¡1
x1 = (¡2 + 3 £ 2)=4 = 1

3.4 Decomposi»c~
ao LU
A decomposi»c~ao da matriz A, n £ n, no produto de duas matrizes triangulares L e
U ¶e assegurada pelo seguinte teorema:
Teorema 3.1
Dada uma matriz A, n £ n, seja Ak a matriz constitu¶³da das primeiras k linhas
e colunas da matriz A. Suponha que det(Ak ) 6 = 0 para k = 1; 2; :::; (n ¡ 1). Ent~ao,
existe uma u ¶ nica matriz triangular inferior L = (mij ), com mii = 1; i; j = 1; 2; :::; n
e uma u ¶ nica matriz triangular superior U = (uij ) tais que A = LU . Ainda mais,
det(A) = u11 u22 :::unn .
Prova
Seja o sistema linear Ax = b que resolvemos pelo M¶etodo de Elimina»ca~o de
Gauss. Na decomposi»c~ao da matriz A no produto LU , temos:

43
A = LU =) Ax = b =) LU x = b
onde, L ¶e uma matriz triangular inferior,n £ n, com coe¯cientes da diagonal
principal iguais a 1,
U ¶e uma matriz triangular superior,n£n, encontrada pelo M¶etodo de Elimina»c~ao
de Gauss.
C¶alculo de L
Sejam

2 3
1 0 0 0 ::: 0
6 7
6 ¡m21 1 0 0 ::: 0
7
6 7
M1 = 6
6 ¡m31 0 1 0 ::: 7
0
7
6 .. .. .. . . .. 7
4 . . . . . 0 5
¡mn1 0 0 0 ::: 1

2 3
1 0 0 0 ::: 0
6 7
6 0 1 0 0 ::: 0 7
6 7
M2 = 6
6 0 ¡m32 1 0 ::: 0 7
7
6 .. .. .. . . . 7
4 . . . . .. 0 5
0 ¡mn2 0 0 ::: 1

e
2 3
1 0 0 0 ::: 0
6 7
6 0 1 0 ::: 0 0 7
6 7
Mn¡1 =6
6 0 0 1 0 ::: 0 7
7
6 .. .. .. . . .. 7
4 . . . . . 5
0 0 0 ::: ¡mnn¡1 1

C¶ alculo de U
No M¶etodo de Elimina»c~ao de Gauss transformamos o sistema linear Ax = b no
sistema equivalente U x = d, onde U ¶e uma matriz triangular superior.
O sistema linear obtido na 1a etapa do M¶etodo de Elimina»c~ao de Gauss ¶e A(1) x =
b(1) ¶e equivalente a:
M1 Ax = M1 b =) A(1) = M1 A e b(1) = M1 b
O sistema linear obtido na 2a etapa do M¶etodo de Elimina»c~ao de Gauss ¶e A(2) x =
b(2) ¶e equivalente a:

M2 A(1) x = M2 b(1) =) M2 M1 Ax = M2 M1 b =) A(2) = M2 M1 A e b(2) = M2 M1 b

44
=) A = M1¡1 M2¡1 A(2) ; b = M1¡1 M2¡1 b(2)

onde
2 3
1 0 0 0 ::: 0
6 7
6 m21 1 0 0 : : : 0 7
6 7
M¡1
1 =6
6 m31 0 1 0 : : : 0 7
7
6 .. .. .. .. . . .. 7
4 . . . . . . 5
mn1 0 0 : : : 0 1
e
2 3
1 0 0 0::: 0
6 7
6 0 1 0 0::: 0 7
6 7
M¡1
2 =6
6 0 m32 1 0::: 0 7 7
6 .. .. .. . . . .. 7
..
4 . . . . . 5
0 mn2 0 ::: 0 1

O sistema linear obtido na (n ¡ 1)a etapa do M¶etodo de Elimina»c~ao de Gauss ¶e


A(n¡1) x = b(n¡1) ¶e equivalente a:
Mn¡1 :::M2 A(n¡2) x = Mn¡1 :::M2 b(n¡2) =) Mn¡1 :::M2 M1 Ax = Mn¡1 :::M2 M1 b =)
A(n¡1) = Mn¡1 :::M2 M1 A e b(n¡1) = Mn¡1 :::M2 M1 b =) A = M1¡1 M2¡1 :::Mn¡1
¡1
A(n¡1)
, onde
2 3
1 0 0 0 ::: 0
6 7
6 0 1 0 0 ::: 0 7
6 7
M¡1 6
n¡1 = 6 0 0 1 0 ::: 0 77
6 .. .. .. .. ... .. 7
4 . . . . . 5
0 0 0 : : : mnn¡1 1

Colocando M1¡1 M2¡1 :::Mn¡1


¡1
= L; A(n¡1) = U , obtemos A = LU.
Desta forma, ¯ca assegurada a exist^encia das matrizes L e U para a decomposi»c~ao
A = LU.
Para provar a unicidade, procedemos como segue:
Seja a matriz A, n £ n, decomposta nos seguintes produtos matriciais: A =
L1 U1 e A = L2 U2 , onde L1 ,L2 , U1 e U2 s~ao as matrizes triangulares invert¶³veis da
decomposi»c~ao A = LU .
Temos que, L1 U1 = L2 U2 e assim, L¡1 ¡1
2 L1 = U2 U1 .
Ent~ao, L¡1
2 L1 ¶e uma matriz triangular inferior com 1's na diagonal e, conse-
¡1
quentemente, U2 U1 ¶e uma matriz triangular superior com 1's na diagonal. A u ¶ nica
matriz que tem esta propriedade ¶e a matriz identidade. Portanto,

45
L¡1 ¡1
2 L1 = I e U2 U1 = I =) L1 = L2 e U1 = U2 .
Para o c¶alculo de det(A), temos:
det(A) = det(LU) = det(L)det(U ) = 1 £ det(U ) = u11 u22 u33 : : : unn .
Uma vez decomposta a matriz A,n £ n, no produto LU , temos de resolver os
seguintes sistemas lineares:
1) Ly = b;
2) U x = y, pois Ax = b =) LUx = b, onde U x = y
Exemplo
Seja resolver o sistema linear abaixo pela decomposi»c~ao LU .

2x1 +2x2 ¡x3 = 1


x1 +5x2 +3x3 = 4
2x1 +x2 ¡5x3 = ¡3

Obtemos as matrizes L e U , seguindo os c¶alculos propostos anteriormente:


2 3
1 0 0
6 7
L = 4 0:5 1 0 5
1 ¡0:25 1

e
2 3
2 2 ¡1
6 7
U=4 0 4 3:5 5
0 0 ¡3:125

Agora, podemos resolver o sistema linear acima s¶o operando com o vetor b:
1) Ly = b

y1 = 1
0:5y1 +y2 = 4
y1 ¡0:25y2 +y3 = ¡3

Dando y1 = 1; y2 = 3:5; y3 = ¡3:125.


2) U x = y

2x1 +2x2 ¡x3 = 1


4x2 +3:5x3 = 3:5
¡3:125x3 = ¡3:25

Dando x3 = 1; x2 = 0; x1 = 1.

46
3.5 C¶
alculo da Inversa da Matriz A
Da de¯ni»c~ao de inversa de uma matriz A, n £ n, sabe-se que:
AA¡1 = A¡1 A = I
Colocando X = A¡1 , ou AXp = ep , p = 1; 2; :::; n,
onde Xp ¶e a p-¶esima coluna da matriz X e ep ¶e a p-¶esima coluna da matriz I, ou
seja: o vetor da base can^onica de Rp .
Ent~ao, as colunas de A¡1 s~ao as solu»co~es dos sistemas de equa»co~es lineares:
AXp = ep , p = 1; 2; :::; n.
O M¶etodo de Elimin»c~ao de Gauss pode ser empregado para a resolu»c~ao destes
sistemas lineares, por¶em os mesmos c¶alculos ser~ao repetidos p vezes.
Uma outra maneira de calcular A¡1 ¶e usar a Decombposi»c~ao LU. Uma vez sendo
conhecida a Decomposi»c~ao LU da matriz A, calcula-se A¡1 como segue:

A¡1 = (LU )¡1 = U ¡1 L¡1 ; (3.4)

onde L¡1 ¶e facilmente calculada.


Colocando Y = L¡1 , as colunas Yj de Y satifazem:

LYj = ej ; j = 1; 2; :::; n (3.5)

assim, os elementos de L¡1 s~ao determinados resolvendo-se os n sistemas triangulares


que t^em como solu»ca~o:
P
±ij ¡ i¡1
k=j lij ykj
yij = ; i = j; j + 1; :::; n (3.6)
lii
onde
(
1 se i = j
±ij =
0 se i 6
=j

Analogamente, Z = U ¡1 ¶e uma matriz triangular superior com os elementos calcu-


lados por meio de:
P
±ij ¡ jk=i+1 uik zkj
zij = ; i = j; j ¡ 1; :::; 1 (3.7)
uii
Exemplo
Seja calcular a inversa da matriz
2 3
2 1 2
6 7
A=4 1 2 3 5
4 1 2

47
Usando a decomposi»c~ao LU obtemos:
2 3
1
6 7
L = 4 0:5 1 5
2 ¡0:67 1
e
2 3
2 1 2
6 7
U=4 1:5 2 5
¡0:67

Aplicando as f¶ormulas anteriores para os c¶alculos de L¡1 e U ¡1 , obtemos:


2 3
1
6 7
L¡1 = 4 ¡0:5 1 5
¡2 0:67 1
e
2 3
0:5 ¡0:34 0:5
6 7
U¡1 =4 0:67 2 5
¡1:5

Em seguida, calculamos:
2 3
¡0:5 0 0:5
6 7
A¡1 = L¡1 U¡1 = 4 ¡5:02 2:01 2 5
3:51 ¡1 ¡1:5

Muitos autores utilizam o M¶etodo de Gauss-Jordan para o c¶alculo de A¡1 , mas o


m¶etodo que acabamos de descrever ¶e equivalente a este, onde s~ao gastas n3 opera»c~oes
em ambos os casos. O M¶etodo de Gauss-Jordan consiste em zerar tamb¶em os co-
e¯cientes localizados acima da diagonal principal de U e em seguida, divide-se a
diagonal da matriz resultante por seus coe¯cientes diagonais, obtendo-se assim a
matriz identidade.

3.6 Decomposi»c~
ao para Tipos Especiais de Ma-
trizes
De¯nimos, inicialmente, as matrizes estritamente diagonais dominantes, onde o
M¶etodo de Elimina»c~ao de Gauss funciona e¯cazmente sem interc^ambio de linhas.
De¯ni»c~ao 3.1

48
A matriz A, n £ n, ¶e chamada estritamente diagonal dominante quando
n
X
jaii j > jaij j; i = 1; 2; :::; n (3.8)
j=1
j6
=i

Exemplo
A matriz
2 3
7 2 0
6 7
A = 4 3 5 ¡1 5
0 5 ¡6

¶e estritamente diagoanal dominante, uma vez que:


j7j > j2j + j0j; j5j > j3j + j ¡ 1j e j ¡ 6j > j0j + j5j
Damos, a seguir, o seguinte teorema:
Teorema 3.2
Uma matriz A, n £ n, estritamente diagonal dominante ¶e n~ao singular. Al¶em
do mais, a elimina»c~ao gaussiana pode ser executada em qualquer sistema linear da
forma Ax = b para obter sua u ¶ nica solu»c~ao sem troca de colunas ou linhas, e n~ao
h¶a propaga»c~ao de erros de arredondamento durante o processo de elimina»ca~o.
Prova
Vamos mostrar por contradi»c~ao que a matriz A ¶e n~ao singular.
Consideremos o sitema linear homog^eneo Ax = 0, e suponhamos que exista uma
solu»ca~o n~ao trivial x = (xi ) para esse sistema. Seja k um ¶³ndice para o qual

0 < j xk j = max j xj j
1·j·n
Pn
Como j=1 aij xj = 0 para cada i = 1; 2; : : : ; n, temos que para i = k,

X
n
akk xk = ¡ akj xj
j=1
j6
=k

Da¶³ temos,
n
X
j akk jj xk j· j akj jj xj j
j=1
j6
=k

49
ou
n
X n
X
j xj j
j akk j· j akj j · j akj j
j xk j
j=1 j=1
j6
=k j6
=k

Essa desigualdade contradiz a domin^ancia da matriz A. Consequentemente, a u ¶nica


solu»ca~o para o sistema homog^eneo Ax = 0 ¶e x = 0. Portanto, a matriz A ¶e n~ao
singular.
Para provar que a elimina»c~ao de Gauss pode ser executada sem mudan»cas de
linhas, basta mostrar que cada uma das matrizes A(2) ; A(3) ; : : : ; A(n) geradas pelo
processo de elimina»c~ao de Gauss ¶e estritamente diagonal dominante. (Veja Burden
e Faires Teorema 6.19 [5])
A ademostra»c~ao de estabilidade do m¶etodo pode ser encontrada em Wendro®
[9].
Uma outra classe de matrizes, onde existe uma decomposi»c~ao apropriada, ¶e a
matriz sim¶etrica de¯nida positiva.
De¯ni» c~
ao 3.2
A matriz A, n £ n, ¶e chamada sim¶etrica de¯nida positiva(sdp) quando

xt Ax > 0 8x 2 Rn ; x 6
=0 (3.9)

Exemplo
A matriz
2 3
2 ¡1 0
6 7
A = 4 ¡1 2 ¡1 5
0 ¡1 2

¶e sim¶etrica positiva de¯nida(sdp), uma vez que:

xt Ax = 2x21 ¡ 2x1 x2 + 2x22 ¡ 2x2 x3 + 2x23 = x21 + (x1 ¡ x2 )2 + (x2 ¡ x3 )2 + x23 > 0

a menos que x1 = x2 = x3 = 0.
Damos o seguinte teorema:
Teorema 3.3
Uma matriz A, n £ n, sim¶etrica positiva de¯nida(sdp) ¶e n~ao singular. Al¶em
do mais, a elimina»c~ao de Gauss pode ser executada em qualquer sistema linear da
forma Ax = b com todos os piv^ os positivos para obter sua u
¶ nica solu»c~ao sem troca
de linhas, e n~ao h¶a propaga»c~ao de erros de arredondamento durante o processo de
elimina»c~ao.

50
Prova
Para a demonstra»c~ao deste teorema veja os resultados encontrados em Burden e
Faires [5] e tamb¶em em Wendro® [9].
Agora, apresentamos dois corol¶arios que fornecem a decomposi»c~ao para as ma-
trizes sim¶etricas de¯nidas positivas(sdp) (Veja Burden e Faires [5]).
Corol¶ ario 3.1
A matriz A, n £ n, ¶e sim¶etrica positiva de¯nida(sdp) () A pode ser fatorada
na forma LDLt , onde L ¶e a matriz triangular inferior, n £ n, com coe¯cientes iguais
a 1 em sua diagonal e D ¶e uma matriz diagonal, n £ n, com coe¯cientes positivos.
Obs.1: Sendo a matriz A, n £ n, que pode ser fatorada de forma u ¶ nica como
A = LU, de acordo com o teorema 3.1. Tamb¶em, esta matriz pode ser fatorada
de forma u ¶nica com A = LDU, ¹ onde:
L, n £ n, matriz triangular inferior com diagonal unit¶aria;
D, n £ n, matriz diagonal;
U¹ , n £ n, matriz triangular superior com diagonal unit¶aria.
No caso, sendo A, n £ n, matriz sim¶etrica, temos que: U¹ = Lt . Portanto, a
matriz A, n £ n, pode ser fatorada na forma A = LDLt .
Temos que a matriz diagonal D ¶e constituida dos coe¯cientes uii da matriz U ,
n £ n, e os coe¯cientes da matriz U ¹ ser~ao u¹ij = uij =uii , i = 1; 2; :::; n; j = i; :::; n,
onde para A, n £ n, matriz sim¶etrica U¹ = Lt .
Corol¶ ario 3.2
A matriz A, n£n, ¶e sim¶etrica positiva de¯nida(sdp) () A pode ser fatorada na
forma LLt , onde L ¶e a matriz triangular inferior, n £ n, com coe¯cientes diagonais
diferentes de zero.
Obs.2: No caso da matriz A, n £ n, sim¶etrica positiva de¯nida, temos que os
coe¯cientes de D s~ao tais que: dii > 0; i = 1; 2; :::; n.
Fazendo D ¹ = D1=2 , obtemos:

¹ DL
A = LDLt = LD ¹ t = (LD)(
¹ DL¹ t) (3.10)

Esta fatora»c~ao ¶e conhecida como fatora»c~ao de Cholesky.


A decomposi»c~ao apresentada no corol¶ ario 3.1 pode ser aplicada µas matrizes
sim¶etricas, mas n~ao necessariamente positivas de¯nidas. O resultado pode ser apli-
cado extensamente µas matrizes sim¶etricas, uma vez que estas s~ao reconhecidas mais
facilmente.
O corol¶ ario 3.3, a seguir, nos permite reconhecer a decomposi»c~ao do corol¶
ario
3.1, relacionado-a com o M¶etodo de Elimina»c~ao de Gauss (Veja Burden e Faires
[5]).

51
Corol¶ario 3.3
Seja a matriz A, n £ n, sim¶etrica para a qual a elimina»c~ao de Gauss poder ser
aplicada sem a troca de linhas. Ent~ao, a matriz A pode ser fatorada na forma
LDLt , onde L ¶e a matriz triangular inferior, n £ n, com coe¯cientes iguais a 1 em
(0) (1) (n¡1)
sua diagonal e D ¶e uma matriz diagonal, n £ n, com coe¯cientes a11 ; a22 ; :::; ann
obtidos na elimina»c~ao de Gauss.
Exemplo
Vimos que a matriz
2 3
2 ¡1 0
6 7
A = 4 ¡1 2 ¡1 5
0 ¡1 2

¶e sim¶etrica positiva de¯nida(sdp). A fatora»c~ao LDLt de A dada pelo corol¶ario 3.1


¶e:
2 32 32 3
1 0 0 2 0 0 1 ¡0:5 0
6 76 76 7
A = LDLt = 4 ¡0:5 1 0 5 4 0 3=2 0 5 4 0 1 ¡0:6667 5
0 ¡0:6667 1 0 0 4=3 0 0 1

e a fatora»c~ao de Cholesky LLt de A dada pelo corol¶ario 3.2 ¶e:


2 32 3
1:4142 0 0 1:4142 ¡0:7071 0
6 76 7
A = LLt = 4 ¡0:7071 1:2247 0 54 0 1:2247 ¡0:8165 5
0 ¡0:8165 1:1547 0 0 1:1547

O resultado do teorema, a seguir, permite identi¯car quando uma matriz A, n £ n,


sim¶etrica com coe¯cientes reais ¶e positiva de¯nida.
Teorema 3.4
Seja a matriz A, n £ n, sim¶etrica com coe¯cientes reais. Ent~ao, a matriz A ¶e
positiva de¯nida () A pode ser fatorada na forma LLt , onde L ¶e a matriz triangular
inferior, n £ n, sendo os coe¯cientes de L n¶umeros reais e com coe¯cientes diagonais
diferentes de zero.
Prova
((=) Se L tem coe¯cientes n¶ umeros reais, ent~ao:

xt Ax = xt Lt Lx = y t :y > 0;

pois y = Lx ¶e real, 8x 2 Rn ; x 6
=0
(=)) Se A ¶e positiva de¯nida, ent~ao 8x 2 Rn ; x 6
=0

xt Ax = xt Lt Lx > 0;

52
donde Lx ¶e real e, consequentemente, L ¶e real.
Exemplo
A matriz
2 3
4 2 2
6 7
A = 4 2 0 ¡1 5
2 ¡1 3

pode ser fatorada pela fatora»c~ao de Cholesky com n¶


umeros complexos, dando o
seguinte resultado:
2 32 3
2 0 0 2 1 1
t 6 76 7
A = LL = 4 1 i 0 54 0 i 2i 5
1 2i 2:4495 0 0 2:4495

Como alguns coe¯cientes de L s~ao n¶


umeros complexos, podemos concluir que a
matriz A n~ao ¶e positiva de¯nida.

53
Exerc¶³cios Cap¶³tulo III
1 - a) Se a matriz A ¶e o produto:
2 32 32 3
¡1 0 0 d1 0 0 1 ¡1 0
6 76 76 7
A = 4 ¡1 1 0 5 4 0 d2 0 5 4 0 1 ¡1 5 ;
0 ¡1 1 0 0 d3 0 0 1
sob que condi»co~es A ¶e n~ao singular?
b) Resolva o sistema linear Ax = b iniciando com Lc = b, onde:
2 3 2 3 2 3
c1 0 1 0 0
6 7 6 7 6 7
c = 4 c2 5 ; b = 4 0 5 e L = 4 ¡1 1 0 5
c3 1 0 ¡1 1

2 - Para quais valores de a; b e c haver¶a mudan»ca de linhas para que a decom-


posi»c~ao de A em LU seja poss¶³vel e para quais valores a matriz A ¶e singular?
2 3
1 2 0 " #
6 7 c 2
A=4 a 8 3 5 eA=
6 4
0 b 5

3 - Considere um sistema linear da forma:


¡m1 x1 + x2 = b1
¡m2 x1 + x2 = b2
onde m1 ; m2 ; b1 e b2 s~ao constantes.
a) Mostre que o sistema linear tem uma solu»c~ao se m1 6= m2 ;
b) Se m1 = m2 , mostre que o sistema linear ¶e compat¶³vel se tamb¶em b1 = b2 ;
c) Interprete geometricamente os itens a) e b).
4 - Obtenha a fatora»c~ao da forma A = P t LU para as seguintes matrizes, onde
P ¶e uma matriz de permuta»c~ao:

2 3
2 3 1 ¡2 3 0
0 2 3 6 7
6 7 6 1 ¡2 3 1 7
a) A = 4 1 1 ¡1 5 b) A = 6 7
4 1 ¡2 2 ¡2 5
0 ¡1 1
2 1 3 ¡1
5 - Encontre o valor de ® de modo que a matriz:

2 3
® 1 ¡1
6 7
A=4 1 2 1 5
¡1 1 4

54
seja positiva de¯nida.
6 - Encontre a fatora»c~ao LDLt para as seguintes matrizes sim¶etricas:
2 3
2 3 2 ¡2 4 ¡4
3 ¡3 6 6 7
6 7 6 ¡2 3 ¡4 5 7
a) A = 4 ¡3 2 ¡7 5 b) A = 6 7
4 4 ¡4 10 ¡10 5
6 ¡7 13
¡4 5 ¡10 14

Quais s~ao sim¶etricas positivas de¯nidas?


7 - Dado o sistema linear Ax = b, onde:
" # " # " #
1=2 1=3 x1 1=63
A= ; x= ; b= :
1=3 1=4 x2 1=168

Considerando x a solu»c~ao exata do mesmo dada por x = (1=7 ; ¡1=6)t e x a solu»c~ao


aproximada do mesmo com 3 casas decimais, calcule:

k x ¡ x k1 e k Ax ¡ b k1 :

8 - Resolva os dois sistemas lineares a seguir e compare suas solu»c~oes. As matrizes


dos coe¯cientes s~ao bem condicionadas? Mal condicionadas? Explique.

" #" # " # " #" # " #


1:0 2:0 x1 1:12 1:0 2:011 x1 1:12
a) = b) =
2:0 3:9 x2 2:16 2:0 3:982 x2 2:16

9 - Seja
" #
1 1
An =
1 1 ¡ 1=n

para cada inteiro positivo n.


Calcule:
a) A¡1
n ; b) K(An ), (norma 1); c) limn¡!1 K(An ), (norma 1).
1
10 - As matrizes de Hilbert, Hn , onde: hij = i+j¡1 ; 1 · i; j; · n s~ao exemplos
de matrizes mal condicionadas.
a) Use pacotes computacionais para calcular K(A) e veri¯car que quanto maior
for n mais mal condicionada ¶e Hn ;
b) Use pacotes computacionais para calcular Hn¡1 e em seguida, o produto Hn¡1 £
Hn para poss¶³veis valores de n.

55
Cap¶³tulo 4

Espa»cos Vetoriais

4.1 Introdu»c~
ao
No Cap¶³tulo 1 introduzimos o espa»co vetorial das n-uplas em Rn , onde ve-
tores e opera»c~oes vetoriais foram introduzidos de forma anal¶³tica com interpreta»c~ao
geom¶etrica para n · 3. Daremos aqui a de¯ni»c~ao de espa»co vetorial de forma
axiom¶atica, onde trabalharemos com elementos de um conjunto que satisfazem de-
terminadas propriedades.
De¯ni» c~
ao 1
O conjunto V ¶e chamado um espa»co vetorial se satisfaz os dez axiomas a seguir,
classi¯cados em tr^es grupos:
Axiomas do fecho
Axioma 1. (Fechamento da adi»c~ao)
Para qualquer par de elementos x; y 2 V , existe um u ¶ nico elementos em V ,
chamado soma de x e y, denotado por x + y;
Axioma 2. (Fechamento da multiplica»c~ao por escalar)
Para qualquer elemento x 2 V e para qualquer escalar ® 2 R, existe um u ¶nico
elemento em V , chamado produto de ® por x, denotado ®x;
Axiomas da Adi»c~ ao
Axioma 3. (Comutatividade)
x + y = y + x, 8x; y 2 V ;
Axioma 4. (Associatividade)
(x + y) + z = x + (y + z), 8x; y; z 2 V ;
Axioma 5. (Exist^encia do zero)
9 0 2 V tal que x + 0 = x; 8x 2 V ;
Axioma 6. (Exist^encia do negativo)
8x 2 V; 9 (¡1)x 2 V tal que x + (¡1)x = 0;

56
Axiomas da Multiplica»c~
ao por Escalar
Axioma 7. (Associatividade)
®¯(x) = ®(¯x) 8®; ¯ 2 R; 8x 2 V ;
Axioma 8. (Distributividade para adi»c~ao em V )
®(x + y) = ®x + ®y 8x; y 2 V; 8® 2 R;
Axioma 9. (Distributividade para adi»c~ao em R)
(® + ¯)x = ®x + ¯x 8x 2 V; 8®; ¯ 2 R;
Axioma 10. (Exist^encia da identidade)
8x 2 V , temos 1x = x.
Obs.: Os escalares podem ser tomados no conjunto do n¶ umeros complexos (C)
e o conjunto V ser¶a constituido de n-uplas tamb¶em em C. Desta forma, podemos
de¯nir o espa»co vetorial complexo V
Exemplo 1 O conjunto V = Rn, munido das opera»c~oes da ¶algebra vetorial visto
no Cap¶³tulo 1 ¶e um espa»co vetorial.
Exemplo 2 O conjunto V = Cn , munido das opera»c~oes da ¶algebra vetorial nos
complexos, conforme a observa»c~ao anterior, ¶e um espa»co vetorial.
Exemplo 3 O conjunto das matrizes retangulares, m £ n, com coe¯cientes com-
plexos, denotado por M (m; n), munido das opera»c~oes de adi»c~ao de matrizes e mul-
tiplica»c~ao por escalar em C ¶e um espa»co vetorial.
Exemplo 4 O conjunto do polin^omios com coe¯cientes reais de grau · n, deno-
tado por Pn , munido das opera»c~oes de adi»c~ao de polin^omios em Pn e multiplica»c~ao
por escalar em R ¶e um espa»co vetorial.
O teorema a seguir,diz respeito sobre a unicidade dos elementos zero e sim¶etricos,
cuja prova baseia-se nos axiomas anteriores.
Teorema 4.1
a) Em qualquer espa»co vetorial V existe um e s¶o um elemento zero;
b) Em qualquer espa»co vetorial V todo elemento x admite um e s¶o um elemento
y, tal que x + y = 0.
Prova
Prova do item a):
O axioma 5 nos diz que existe pelo menos um elemento zero. Suponhamos
que existam dois, digamos 01 e 02 . Tomando x = 01 e 0 = 01 no axioma 5,
obtemos 01 + 02 = 01 . Do mesmo modo, tomando x = 02 e 0 = 02, encontramos
02 + 01 = 01 . Mas, pelo axioma 3, 01 + 02 = 02 + 01 . Logo, 01 = 02 .
Prova do item b);
O axioma 6 nos diz que existe pelo menos um elemento negativo, a saber (¡1)x.
Suponhamos que x tenham dois negativos, digamos y1 e y2 . Ent~ao x + y1 = 0 e

57
x + y2 = 0. Adicionando y2 a ambos membros da primeira equa»c~ao e usando os
axiomas 5,4,3, obtemos y2 +(x+y1 ) = y2 +0 = y2 e, por outro lado, y2 +(x+y1 ) =
(y2 + x) + y1 = 0 + y1 = y1 + 0 = y1 .Logo, y1 = y2 , de modo que x tem exatamente
um negativo.
As seguintes propriedades regem os c¶alculos alg¶ebricos elementares em um espa»co
vetorial.
Propriedades
Sejam x e y elementos quaisquer em um espa»co vetorial V e ® e ¯ escalares
quaisquer. Ent~ao veri¯cam-se as seguintes propriedades:
a) 0x = 0;
b) ®0 = 0;
c) (¡®)x = ¡(®x) = ®(¡x);
d) Se ®x = 0, ent~ao ou ® = 0 ou x = 0;
e) Se ®x = ®y e ® 6= 0 , ent~ao x = y;
f) Se ®x = ¯x e x 6= 0 , ent~ao ® = ¯;
g) ¡(x + y) = (¡x) + (¡y) = ¡x ¡ y;
P
h) x + x = 2x; x + x + x = 3x, em geral ni=1 x = nx.
Prova: (ver Apostol,Vol. II [3])

4.2 Subespa»co Vetorial


De¯ni» c~
ao 2
Um subespa»co vetorial de um espa»co vetorial V ¶e um subconjunto n~ao vazio
W µ V que satisfaz as seguintes propriedades:
i) A adi»c~ao de dois vetores quaisquer w1 ; w2 2 W tamb¶em est¶a em W , isto ¶e, se
w1 ; w2 2 W , ent~ao w1 + w2 2 W ;
ii) A multiplica»c~ao de qualquer vetor w 2 W por um escalar qualquer ® est¶a em
W , isto ¶e, se w 2 W e ® escalar, ent~ao ®w 2 W .
Em outras palavras, um subespa»co vetorial ¶e um subconjunto W de um espa»co
vetorial V que ¶e fechado em rela»ca~o aµs opera»co~es de adi»ca~o de vetores e multiplica»c~ao
de escalar por vetor. Note que, em particular o vetor nulo pertence a todo subespa»co
vetorial. Isto ¶e decorrente da propriedade ii) tomando ® = 0. O menor subespa»co
vetorial ¶e o subespa»co contendo somente o vetor nulo e o maior subespa»co vetorial ¶e o
espa»co vetorial V , chamados subespa»cos triviais. No caso do Rn , o menor subespa»co
¶e o f0g e o maior subespa»co ¶e o pr¶oprio Rn .
O seguinte teorema nos permite formular uma de¯ni»c~ao equivalente para
subespa»co vetorial.

58
Teorema 4.2
Seja um espa»co vetorial V e um subconjunto n~ao vazio W µ V . Ent~ao, W ¶e um
subespa»co vetorial de V () (®w1 + ¯w2 ) 2 W 8®; ¯ 2 R e 8w1 ; w2 2 W .
Prova
Seja o subconjunto n~ao vazio W µ V . Sejam w1 ; w2 2 W e ®; ¯ 2 R, como por
hip¶otese (®w1 + ¯w2 ) 2 W . Tomando ®; ¯ = 1, temos que w1 + w2 = 1w1 + w2 2 W .
Al¶em do mais, tomando ¯ = 0, temos que ®w1 = ®w1 + 0w1 2 W . Logo, conforme
a de¯ni»c~ao anterior, W ¶e um subespa»co vetorial de V .
Reciprocamente, se W ¶e um subespa»co vetorial de V , ent~ao obviamente
(®w1 + ¯w2 ) 2 W 8®; ¯ 2 R e 8w1 ; w2 2 W .
Exemplo 1 Seja W o conjunto de todos os vetores em R2 tais que a 2a. com-
ponente ¶e nula. W ¶e um subespa»co vetorial, constitu¶³do pelo Eixo ¡ x do plano
cartesiano, pois os axiomas i) e ii) s~ao satisfeitos para W .
Exemplo 2 Seja M (3; 3) o espa»co vetorial das matrizes, 3 £ 3. Tomando neste
espa»co o subconjunto W formado pelas matrizes, 3 £ 3, triangulares superiores.
Temos que s~ao v¶alidos os axiomas i) e ii) para W . Portanto, W ¶e um subespa»co
vetorial de M (3; 3). Note que a matriz nula, 3 £ 3, ¶e o vetor nulo deste subespa»co
vetorial.

4.3 Independ^
encia linear, subespa»co gerado, base
e dimens~
ao
O objetivo desta se»c~ao ¶e introduzir e usar os seguintes conceitos:
1 - Subespa»co vetorial gerado;
2 - Depend^encia e indeped^encia linear em um espa»co vetorial V ;
3 - Base para um subespa»co vetorial;
4 - Dimens~ao em um subespa»co vetorial.
De¯ni» c~
ao 3
Seja W um subconjunto n~ao vazio de um espa»co vetorial V . Um elemento x de
V da forma:
k
X
x= ¸i vi
i=1

onde v1 ; v2 ; ¢ ¢ ¢ ; vk 2 W e ¸1 ; ¸2 ; ¢ ¢ ¢ ; ¸k s~ao escalares, diz-se uma combina»ca~o linear ¯nita


de elementos de W . O conjunto de todas as combina»c~oes lineares ¯nitas de elemen-
tos de W veri¯cam os axiomas de fecho e por conseguinte, ¶e um subespa»co vetorial
de V . Chamamos este subespa»co de gerado por W e o representamos por L(W ).

59
Exemplo 1 Tomamos no espa»co vetorial R2 os seguintes conjuntos de vetores
fi; jg, f0; i ¡ j; i + jg. Todos estes conjuntos geram o espa»co vetorial R2 , apesar de
serem distintos.
Exemplo 2 O conjunto fw1 ; w2 ; w3 g onde w1 = (1; 0; 0); w2 = (0; 1; 0) e w3 =
(2; 0; 0) gera o plano xy em R3 .
Vamos tratar agora das combina»c~oes lineares nulas.
De¯ni»
c~
ao 4
Um conjunto W de elementos de um espa»co vetorial V ¶e chamado linearmente dependente
se existe um conjunto ¯nito de elementos distintos em W , digamos v1 ; v2 ; ¢ ¢ ¢ ; vk , e
escalares correspondentes ¸1 ; ¸2 ; ¢ ¢ ¢ ; ¸k , n~ao todos nulos, tais que:

k
X
¸i vi = 0
i=1

O conjunto W ¶e chamado linearmente independente quando para quaisquer elemen-


tos v1 ; v2 ; ¢ ¢ ¢ ; vk em W e escalares correspondentes ¸1 ; ¸2 ; ¢ ¢ ¢ ; ¸k , tais que:

k
X
¸i vi = 0
i=1

implica em ¸1 = ¸2 = ¢ ¢ ¢ = ¸k = 0. Neste caso, tamb¶em podemos dizer que os


vetores v1 ; v2 ; ¢ ¢ ¢ ; vk s~ao linearmente independentes.
Exemplo 1 Se em um conjunto W temos v1 = 0, ent~ao podemos tomar a
combina»c~ao linear ¸1 v1 + ¸2 v2 + ¢ ¢ ¢ + ¸k vk = 0, onde ¸2 = ¸3 = ¢ ¢ ¢ = ¸k = 0 e
temos ¸1 v1 = 0 =) ¸1 6 = 0. Portanto, v1 ; v2 ; ¢ ¢ ¢ ; vk s~ao linearmente dependentes.
Obs.: O vetor nulo em um subespa»co vetorial W ¶e obtido pela combina»c~ao linear
de vetores linearmente independentes em W .
Exemplo 2 Os vetores v1 = (2; 3); v2 = (4; 6) 2 R2 s~ao linearmente dependentes,
pois tomando a combina»c~ao linear ¸1 v1 +¸2 v2 = 0 ou seja ¸1 (2; 3)+¸2 (4; 6) = (0; 0),
obtemos: 2¸1 + 4¸2 = 0 e 3¸1 + 6¸2 = 0, ou seja: ¸1 = ¡2¸2 que podem ser n~ao
nulos.
De¯ni»
c~
ao 5
Uma base de um espa»co vetorial V ¶e um conjunto de vetores em V onde:
i) gera o espa»co vetorial V ;
ii) e ¶e linearmente independente.
Exemplo 1
O espa»co vetorial Rn tem como base o conjunto dos vetores e1 ; e2 ; ¢ ¢ ¢ ; en , chama-
da de base can^onica.

60
Exemplo 2 Seja M (2; 2) o espa»co vetorial das matrizes, 2 £ 2. Uma base para
este espa»co vetorial ¶e conjunto formado pelas matrizes:
" #
1 0
M1 =
0 0
" #
0 1
M2 =
0 0
" #
0 0
M3 =
1 0
" #
0 0
M4 =
0 1
uma vez que qualquer matriz M; 2 £ 2,onde
" #
a11 a12
M=
a21 a22
pode ser escrita como: M = a11 M1 + a12 M2 + a21 M3 + a22 M4 e
" #
0 0
M=
0 0
somente quando a11 = a12 = a21 = a22 = 0.
De¯ni» c~
ao 6
De¯nimos dimens~ao de um espa»co vetorial V o n¶ umero de vetores da base de V ,
visto que qualquer base de V contem o mesmo n¶ umero de vetores.
Exemplo 1
O espa»co vetorial Rn tem dimens~ao n.
Exemplo 2 O espa»co vetorial das matrizes M(2; 2) , 2 £ 2 tem dimens~ao 4.
Seja V um espa»co vetorial de dimens~ao n e consideremos uma base cujos elemen-
tos s~ao dados na ordem v1 ; v2 ; ¢ ¢ ¢ ; vn . Representamos esta base por um n sistema
linear em (v1 ; v2 ; ¢ ¢ ¢ ; vn ). Se x 2 V , podemos expressar x como uma combina»c~ao
linear destes elementos da base, de forma similar como ¯zemos no Cap¶³tulo 1 para
vetores em Rn :
Xn
x= ai vi
i=1

umeros (a1 ; a2 ; ¢ ¢ ¢ ; an )
Os coe¯cientes nesta igualdade formam um n sistema linear de n¶
que ¯cam univocamente determinados para x. Estes coe¯cientes s~ao chamados de
componentes ou coordenadas da base ordenada.

61
4.4 Soma e Interse»c~
ao de Subespa»cos
De¯ni» c~ao 7
Sejam W1 e W2 subespa»cos vetoriais de um espa»co veorial V . De¯nimos soma e
interse»c~ao de W1 e W2 , respectivamente, por:
1 - W1 + W2 = fw1 + w2 tal que w1 2 W1 ; w2 2 W2 g
T
2 - W1 W2 = fv tal que v 2 W1 e v 2 W2 g
De¯ni» c~
ao 8
Sejam W1 e W2 subespa»cos vetoriais de um espa»co vetorial V . De¯nimos soma direta
de W1 e W2 , notada por W = W1 © W2 , quando:
1 - W = W1 + W2 ;
T
2 - W1 W2 = 0.
Os subespa»cos W1 e W2 s~ao ditos complementares um do outro em W .
Teorema 4.3
Sejam W1 e W2 subespa»cos vetoriais de um espa»co vetorial V , onde V = W1 ©W2 .
Ent~ao,
a) Todo vetor v 2 V , pode ser escrito unicamente na forma v = r + s, onde
r 2 W1 e s 2 W2 ;
b) dim(V ) = dim(W1 ) + dim(W2 ).
Prova
a) Suponha que um vetor qualquer v 2 V pode ser escrito como:

v = r1 + s1 = r2 + s2 ;

onde r1 ; r2 2 W1 e s1 ; s2 2 W2 . Ent~ao, r1 ¡r2 = s2 ¡s1 . Mas, r1 ¡r2 2 W1 e s1 ¡s2 2


T
W2 . Desde que W1 W2 = 0, devemos ter r1 = r2 e s1 = s2 . O que prova a
unicidade de r e s na forma v = r + s.
b) Para provar a segunda parte, basta usar o seguinte resultado v¶alido para
quaisquer subespa»cos W1 e W2 de V .
\
dim(W1 + W2 ) = dim(W1 ) + dim(W2 ) ¡ dim(W1 W2 )
T
Como dim(W1 W2 ) = 0, segue-se que :

dim(V ) = dim(W1 ) + dim(W2 )

De¯ni» c~
ao 9
Seja fv1 ; v2 ; ¢ ¢ ¢ ; vk g um conjunto ortogonal de vetores em Rn , ou seja:

vit vj = 0 8i; j; i 6
= j:

62
Dizemos que este conjunto ¶e ortonormal quando:

vit vj = ±ij ;

onde
(
1 se i = j
±ij =
0 se i 6
=j

De¯ni»
c~
ao 10
Seja W um subespa»co vetorial de Rn . O complemento ortogonal de W ¶e de¯nido
por:

W ? = fv 2 Rn tal que v t s = 0; 8s 2 W g

Teorema 4.4
Seja W um subespa»co de Rn . Ent~ao,
a) W © W ? = Rn ;
b) (W ? )? = W .
Prova
Vamos provar a).
Seja fv1 ; v2 ; ¢ ¢ ¢ ; vk g uma base ortonormal de W e seja x 2 Rn um vetor qualquer.
Sejam:

k
X
x1 = (xt vi )vi
i=1

x2 = x ¡ x1

Ent~ao, x1 2 W e, desde que

xt2 vj = xt vj ¡ xt1 vj = xt vj ¡ xt vj = 0; j = 1; 2; : : : ; k

vemos que x2 ¶e ortogonal µa v1 ; v2 ; : : : ; vk e portanto µa qualquer combina»c~ao linear


destes vetores. Logo, x2 ¶e ortogonal a qualquer vetor de W . Assim, W + W ? = Rn .
T
Tamb¶em, temos que W W ? = 0, uma vez que o u ¶ nico vetor de s 2 W ortogonal
µa qualquer vetor de W ¶e o 0.
Logo, W © W ? = Rn .
A prova de b)deixamos com exerc¶³cio.

63
4.5 Espa»cos Linha e Coluna de A
Seja A uma matriz, m £ n, onde tomamos cada linha de A como uma n-upla de
n¶umeros reais, constituida de vetores em R1£n . De forma similar, tomamos cada
coluna de A como uma m-upla de n¶ umeros reais, constituida de vetores em Rm£1 .
Estes vetores formam subespa»cos vetoriais que nos d~ao informa»c~oes acerca do sistema
linear Ax = b. Damos a seguinte de¯ni»c~ao:
De¯ni» c~
ao 11
Seja A uma matriz, m £ n, o subespa»co de R1£n gerado pelos vetores linha de A
¶e chamado de espa»co linha de A. Denotaremos este subespa»co por R(A)t . O sube-
spa»co de Rm£1 gerado pelos vetores coluna de A ¶e chamado de espa»co coluna de A.
Denotaremos este subespa»co por R(A).
Exemplo 1 Seja o sistema linear Ax = b:
2 3 2 3
1 0 " # b1
6 7 x1 6 7
4 5 3 5 = 4 b2 5
x2
4 3 b3

O espa»co linha de A, R(A)t , ¶e o conjunto de todas combina»c~oes lineares da forma:

®(1; 0) + ¯(5; 3) + °(4; 3) = (® + 5¯ + 4°; 3¯ + 3°):

O espa»co coluna de A, R(A), ¶e o conjunto de todas combina»c~oes lineares da forma:


2 3 2 3 2 3
1 0 ®
6 7 6 7 6 7
® 4 5 5 + ¯ 4 3 5 = 4 5® + 3¯ 5
4 3 4® + 3¯

Observe que para este exemplo, m > n, temos mais equa»c~oes do que inc¶oginitas.
uvel para somente certos termos independentes b¶s que
Este sistema linear ser¶a sol¶
3
s~ao subconjuntos de R .
Antes de passarmos µa discuss~ao s^obre a solubilidade de um sistema linear, vamos
dar o seguinte teorema:
Teorema 4.5
Duas matrizes A e U , m £ n, equivalentes por linhas t^em o mesmo espa»co linha.
Prova
Se U ¶e equivalente por linhas a A, ent~ao U pode ser formada por uma sequ^encia
¯nita de opera»c~oes elementares sobre as linhas de A. Assim, as linhas de U s~ao
combina»c~oes lineares dos vetores linhas de A. Consequ^entemente, R(U )t tem que
ser um subespa»co de R(A)t . Como A ¶e equivalente por linhas a U , R(A)t tem que
ser um subespa»co de R(U )t pelo mesmo argumento.

64
De¯ni» c~
ao 12
De¯nimos o posto de uma matriz A, m £ n, a dimens~ao do seu espa»co linha
(R(A)t ).
Exemplo 2
Seja a matriz A, abaixo:
2 3
1 3 3
6 7
A=4 2 6 9 5
¡1 ¡3 3

Reduzindo esta matriz A a sua forma equivalente triangular superior, obtemos:


2 3
1 3 3
6 7
U=4 0 0 3 5
0 0 0
Temos que os vetores
h i h i
1 3 3 ; 0 0 3

formam uma base para R(U )t e para R(A)t , pois estas matrizes s~ao equivalentes por
linhas. Portanto, dim (R(A)t ) = dim (R(U )t ).
Por outro lado, temos que os vetores
2 3 2 3
1 3
6 7 6 7
4 0 5;4 3 5
0 0

formam uma base para R(U ). Contudo, estes vetores n~ao formam uma base para
R(A). Para encontrar os vetores da base de R(A), buscamos os vetores colunas que
correspondem µa posi»c~ao destes em U na matriz A, que s~ao dados por:
2 3 2 3
1 3
6 7 6 7
4 2 5;4 9 5
¡1 3

Seja A uma matriz, m £ n, e x = (x1 ; x2 ; ¢ ¢ ¢ ; xn ) e b = (b1 ; b2 ; ¢ ¢ ¢ ; bm ) vetores


em Rn e Rm , respectivamente. Vamos agora, escrever o sistema linear Ax = b, na
forma:
2 3 2 3 2 3 2 3
a11 a12 a1n b1
6 7 6 7 6 7 6 7
6 a21 7 6 a22 7 6 a2n 7 6 b2 7
x1 6 7 6 7 6
6 .. 7 + x2 6 .. 7 + ¢ ¢ ¢ + xn 6 .. 7 = 6 .. 7
7 6 7
4 . 5 4 . 5 4 . 5 4 . 5
am1 am2 amn bn

65
uvel () o
Segue-se desta representa»c~ao que: "O sistema linear Ax = b ¶e sol¶
vetor b est¶a no espa»co coluna de A (R(A))".
Substituindo o vetor b pelo vetor nulo 0,escrevemos:

x1 a1 + x2 a2 + ¢ ¢ ¢ + xn an = 0;

onde a1 ; a2 ; ¢ ¢ ¢ ; an s~ao os vetores coluna da matriz A.


Desta forma, podemos dizer que o sistema linear homog^eneo Ax = 0 tem apenas
solu»ca~o trivial () os vetores coluna de A s~ao linearmente independentes.
Vamos dar, agora, o seguinte teorema:
Teorema 4.6
Seja A uma matriz, m £ n. O sistema linear Ax = b ¶e sol¶ uvel para todo b 2
m m
R () os vetores coluna de A geram R . O sistema Ax = b tem no m¶aximo
uma solu»c~ao para qualquer que seja o vetor b 2 Rm () os vetores coluna de A s~ao
linearmente independentes.
Prova
Vimos que o sistema linear Ax = b ¶e sol¶ uvel () o vetor b 2 R(A). Desta forma,
o sistema linear Ax = b ¶e sol¶ uvel 8b 2 R () os vetores coluna de A geram Rm .
m

Para a segunda a¯rma»c~ao, observamos que se Ax = b tem no m¶aximo uma


solu»ca~o para qualquer vetor b 2 Rm , ent~ao, particularizando temos que Ax = 0 tem
apenas a solu»c~ao trivial e, portanto os vetores coluna de A s~ao linearmente indepen-
dentes. Por outro lado, se os vetores coluna de A s~ao linearmente independentes, o
sistema linear homog^eneo Ax = 0 tem apenas a solu»c~ao trivial. Vamos supor que
x1 e x2 sejam duas solu»co~es de Ax = b. Temos que x1 ¡ x2 ¶e tamb¶em uma solu»c~ao
do sistema linear homog^eneo Ax = 0, e assim:

A(x1 ¡ x2 ) = Ax1 ¡ Ax2 = b ¡ b = 0

Logo, x1 ¡ x2 = 0 =) x1 = x2 .
Seja A uma matriz, m £ n.Se os vetores coluna de A geram Rm , ent~ao n tem que
ser maior ou igual a m, j¶a que um conjunto com menos que m vetores n~ao pode gerar
Rm . Se as colunas de A s~ao linearmente dependentes, ent~ao n tem que ser menor
ou igual a m, j¶a que qualquer conjunto com mais de m vetores em Rm ¶e linearmente
dependente. Portanto, se os vetores coluna de A formam uma base para Rm , ent~ao
n = m. Isto ocorre quando a matriz A, n £ n, ¶e invert¶³vel.
Teorema 4.7
Seja A uma matriz, m £ n, de posto(A) = r. A dimens~ao do espa»co linha de A
( igual ao posto(A)) ¶e igual a dimens~ao do espa»co coluna.
Prova

66
Seja A uma matriz, m £ n, de posto(A). Reduzindo esta matriz µa sua forma
escada U, temos que as r primeiras linhas destas t^em primeiros coe¯cientes 6 = 0,
cujas colunas correspondentes s~ao linearmente independentes. Retiramos da matriz
U as colunas correspondentes µa vari¶aveis livres e fazemos o mesmo com as colunas
correspondentes da matriz A. Chamando estas matrizes de Ul e Al , respectivamente,
temos que estas s~ao equivalentes por linhas. Assim, x ¶e solu»c~ao de Al x = 0 () x
¶e solu»c~ao de Ul x = 0 . Ou seja, as colunas de Al tamb¶em devem ser linearmente
independentes. Assim, a dimens~ao do espa»co coluna de A deve ser pelo menos igual
µa r, ou seja: (¸ r). Aplicando este mesmo racioc¶³nio µa matriz At , concluimos que
dimens~ao do espa»co coluna de At ¸ dimens~ao do espa»co linha de At . Portanto,
dim(R(A)) = dim(R(At )) = r.

4.6 Espa»co Nulo de A e Espa»co nulo µ


a esquerda
de A
Uma segunda vis~ao para interpretar a solu»c~ao do sistema linear Ax = b ¶e a "dual"
da primeira. Ela se concentra n~ao em encontrar o vetor b 2 Rm , mas tamb¶em no
conjunto de solu»c~oes para obt^e-lo. O lado direito b = 0 nos leva sempre em uma
solu»ca~o particular trivial x = 0, mas podem existir in¯nitas solu»c~oes diferentes da
trivial (caso em que n > m).
De¯ni» c~
ao 13
Seja A uma matriz, m £ n, o subespa»co de R1£n gerado pelos vetores x tais que
Ax = 0 ¶e chamado de espa»co nulo de A. Denotaremos este subespa»co por N (A), e
chamaremos de nulidade de A a dim(N (A)).
Exemplo 1
Seja o sistema linear Ax = 0:
2 3 2 3
1 0 " # 0
6 7 x1 6 7
4 5 3 5 =4 0 5
x2
4 3 0

cuja solu»c~ao ser¶a somente a trivial x1 = x2 = 0.


Acrescentando uma coluna µa matriz A deste sistema linear, sendo esta combi-
na»c~ao linear das duas primeiras, obtemos, por exemplo, a matriz B, 3 £ 3:
2 3
1 0 1
6 7
B=4 5 3 8 5
4 3 7

67
Temos que, n~ao alteramos o espa»co coluna de A, uma vez que dim (R(A)) =
dim (R(B)) = 2, mas o espa»co nulo de B contem o vetor cujas componentes s~ao
1; ; 1; ¡1 e cont¶em o m¶
ultiplo deste vetor, ou seja:
2 32 3 2 3
1 0 1 c 0
6 76 7 6 7
4 5 3 8 54 c 5 = 4 0 5
4 3 7 ¡c 0

Assim,

N (B) = f(x; y; z) 2 R3 tal que x = c; y = c; z = ¡c onde c 2 Rg

que ser¶a uma reta em R3 .


Tamb¶em, podemos observar que os vetores de cada linha de B, ou seja, tomados
em R(B)t , s~ao ortogonais aos vetores de N(B). Al¶em do mais, dim (R(B)t ) = 2,
dim (N(B)) = 1 e dim (R(B)t ) + dim (N (B)) = 3.
Damos agora, o seguinte teorema:
Teorema 4.7
Seja A uma matriz, m £ n. A soma do posto(A) com nulidade de A ¶e igual a n.
Prova
Seja U a forma escada reduzida por linhas de A. O sistema linear homog^eneo
Ax = 0 ¶e equivalente ao sistema linear homog^eneo U x = 0. Se A tem posto r,
ent~ao U tem r linhas n~ao nulas e, portanto, o sistema linear homog^eneo Ux = 0
os n~ao nulos e n ¡ r vari¶aveis livres.
tem r vari¶aveis l¶³deres correspondentes aos piv^
A dimens~ao de N(A) ¶e igual ao n¶ umero de vari¶aveis livres.
De¯ni» c~
ao 14
Seja A uma matriz, m £ n. O subespa»co de Rm£1 gerado pelos vetores y tais que
At y = 0 ¶e chamado de espa»co nulo µa esquerda de A.Este subespa»co corresponde ao
espa»co nulo de At . Assim, denotaremos este subespa»co por N(At ).
Para uma matriz A, m £ n, podemos ver os quatro subespa»cos, ditos fundamen-
tais, em termos do n¶ umero de componentes de seus vetores.
- O espa»co nulo de A, (N(A)) e o espa»co linha de A, (R(At )) s~ao subespa»cos de
Rn ;
- O espa»co nulo µa esquerda de A, (N(At )) e o espa»co coluna de A, (R(A)) s~ao
subespa»cos de Rm .
Aplicando o resultado do teorema anterior µa matriz At , temos que:

r + dim(N (At )) = m

Logo, o espa»co nulo µa esquerda de A, (N(At )) tem dimens~ao m ¡ r.

68
Para encontrar y 2 N (At ), ou seja y 2 Rm , tal que y t A = 0, basta calcular
o espa»co nulo para a matriz At . Outra forma de calcul¶a-lo,consiste em encontrar
a decomposi»c~ao P A = LU , onde P ¶e uma matriz de permuta»c~ao. Em seguida,
calculamos L¡1 P A. As u¶ ltimas m ¡ r linhas de L¡1 P formar~ao a base do espa»co
nulo µa esquerda de A, porque estas multiplicadas por A d~ao as linhas nulas em U .
Contudo, o c¶alculo de L¡1 n~ao ¶e t~ao imediato como ¯zemos para a decomposi»c~ao
de LU da matriz A, n £ n.
Exemplo 2
Seja a matriz A:
2 3
1 0
6 7
A=4 5 3 5
4 3

temos que a matriz At ¶e dada por:


" #
1 5 4
At =
0 3 3

Como a matriz At j¶a est¶a na forma escalonada, basta resolver o sistema linear
homog^eneo At y = 0, ou seja:
2 3 2 3
" # y1 0
t 1 5 4 6 7 6 7
Ay= 4 y2 5 = y3 4 0 5
0 3 3
y3 0

Obtendo como solu»c~ao:


2 3 2 3
y1 1
6 7 6 7
4 y2 5 = y3 4 ¡1 5
y3 1

Temos assim, que o espa»co nulo µa esquerda de A ¶e gerado pelo vetor:


2 3
1
6 7
4 ¡1 5
1

Outra forma de obter este vetor y tal que y t A = 0 consiste em calcular L¡1 P . Ora,
temos que:
2 3
1 0 0
6 7
L¡1 = 4 ¡5 1 0 5
1 ¡1 1

69
Como n~ao houve permuta»c~ao de linhas no processo da decomposi»c~ao da matriz A,
tomamos a u¶ ltima linha de L¡1 na forma transposta.
Observe que este vetor ¶e perpendicular aos vetores do espa»co coluna de A, R(A):
2 3 2 3
1 0
6 7 6 7
4 5 5;4 3 5
4 3

e temos que dim (R(A)) = 2, dim (N(At )) = 1 e dim (R(A)) + dim (N (At )) = 3.

4.7 ao do sistema linear de m equa»c~


Resolu»c~ oes
com n inc¶
ognitas
Vamos retornar ao M¶etodo da Decomposi»c~ao da matriz A, n £ n, na forma produto
de matrizes LU . Durante o processo de escalonamento, consideramos o piv^ o sempre
6
= 0, a menos de uma permuta»c~ao nas linhas. Isto ¶e poss¶³vel, porque consideramos
det(A) 6 = 0. Vamos estender o processo de escalonamento a uma matriz A, m £ n,
usando o seguinte artif¶³cio:
i) Escolhemos as primeiras linhas de modo a ter os primeiros coe¯cientes n~ao
nulos nestas linhas (estes coe¯cientes ser~ao os piv^os) - caso necess¶ario, trocamos as
linhas;
ii) Zeramos os coe¯cientes da coluna abaixo destes piv^ os, por elimin»c~ao;
iii) Cada piv^
o situa-se na coluna aµ direita da coluna piv^ o da linha acima; isto
produz a forma escalonada.
Ilustrando, ap¶os o escalonamento, obtemos a seguinte matriz:
2 3
¤ ¤ ¤ ¤ ¢¢¢ ¤ ¤
6 7
6 0 ¤ ¤ ¤ ¢¢¢ ¤ ¤ 7
6 7
6 0 0 0 ¤ ¢¢¢ ¤ ¤ 7
6 7
U=6 . . . . . . . 7
. .
6 . . . .. . . . .
. . . 7
6 7
6 0 0 0 0 ¢¢¢ 0 ¤ 7
4 5
0 0 0 0 0 0 0

Exemplo 1
Seja a matriz A, 3 £ 4:
2 3
1 3 3 2
6 7
A=4 2 6 9 5 5
¡1 ¡3 3 0

70
Procedendo o escalonamento da matriz A, obtemos a seguinte matriz U , 3 £ 4:
2 3
1 3 3 2
6 7
U=4 0 0 3 1 5
0 0 0 0

e L, ser¶a uma matriz, 3 £ 3, obtida de forma similar µa decomposi»c~ao LU, e tamb¶em


invers¶³vel. Assim, obtemos:
2 3
1 0 0
6 7
L=4 2 1 0 5
¡1 2 1

Observe que nenhuma opera»c~ao de troca de linhas foi necess¶aria neste exemplo.
Mas, caso haja necessidade, usaremos uma matriz de permuta»c~ao P para a troca de
linhas. Damos o seguinte teorema:
Teorema 4.8
Para qualquer matriz A, m £ n, existem uma matriz de permuta»c~ao P , m £ m,
uma matriz triangular inferior L, m £ m, com diagonal unit¶aria e uma matriz na
forma escada U , m £ n, correspondentes, tais que P A = LU .
Prova
Aplicamos sucessivamente matrizes de permuta»c~oes P1 ; P2 ; P3 ; : : : ; Pk , m£m, no
sistema linear Ax = b de tal forma que assegure que nenhum interc^ambio de linhas
seja necess¶ario para resolver o sistema linear por meio da elimina»c~ao de Gauss. Desta
forma, colocando a matriz de permuta»c~ao P , m £ m, como:

P = Pk Pk¡1 Pk¡2 : : : ; P2 P1 ;

o sistema linear

P Ax = P b

pode ser resolvido sem interc^ambio de linhas. Mas, essa matriz P A pode ser fatorada
em

P A = LU;

onde L ¶e a matriz triangular inferior, m £ m, e U ¶e a matriz na forma escada, m £ n.


Como P ¡1 = P t , temos a fatora»c~ao

A = P ¡1 LU = (P t L)U:

Note que a matriz P t L n~ao ¶e triangular inferior, a menos que P = I.

71
Vamos agora analisar os dois casos de sistemas lineares: homog^eneo e n~ao ho-
mog^eneo.
Caso homog^ eneo
Vamos considerar agora, a solu»c~ao do sistema linear Ux = 0. Temos:

2 3
2 3 x1 2 3
1 3 3 2 6 7 0
6 76 x2 7 6 7
Ux = 4 0 0 3 1 5 6 7=4 0 5
4 x3 5
0 0 0 0 0
x4

Separamos as inc¶ognitas x1 ; x2 ; x3 e x4 em dois grupos:


1o. grupo: Vari¶ aveis b¶ os. No caso, x1
asicas Correspondentes µas colunas piv^
e x3 ;
2o. grupo: Vari¶ aveis livres Correspondentes µas colunas sem piv^os. No caso,
x2 e x4 ;
Em seguida, escrevemos a solu»c~ao geral como uma combina»c~ao das vari¶aveis
livres x2 e x4 ,ou seja:
2 3 2 3 2 3
¡3x2 ¡ x4 ¡3 ¡1
6 x2 7 6 1 7 6 0 7
6 7 6 7 6 7
x=6 7 = x 26 7 + x 46 7
4 ¡1=3x4 5 4 0 5 4 ¡1=3 5
x4 0 1

Observe que o vetor


2 3
¡3
6 1 7
6 7
6 7
4 0 5
0

d¶a a solu»c~ao do sistema linear homg^eneo Ax = 0 para as vari¶aveis livres x2 = 1 e


x4 = 0 e o vetor
2 3
¡1
6 0 7
6 7
6 7
4 ¡1=3 5
1

d¶a a solu»c~ao do sistema linear homg^eneo Ax = 0 para as vari¶aveis livres x2 = 0 e


x4 = 1. Todas as solu»c~oes do sistema linear homog^eneo s~ao combina»c~oes lineares
destas duas. Temos que o espa»co nulo de A (N (A)) ¶e gerado por estes dois vetores.

72
Enunciamos o seguinte teorema:
Teorema 4.9
Seja A uma matriz, m £ n. Se o sistema linear homog^eneo Ax = 0 tem mais
inc¶ognitas do que equa»c~oes (n > m), ele tem solu»c~ao diferente da solu»c~ao trivial.
Prova
Desde que a matriz A tem mais colunas do que linhas, n > m, existir¶a no
m¶aximo m piv^ os, da¶³ existir¶a pelo menos n ¡ m vari¶aveis livres. Existir¶a sempre
mais vari¶aveis livres se algumas linhas de U reduzem µa zero, n~ao mais do que isso,
pelo menos uma vari¶avel dever¶a ser livre. Atribuindo um valor a esta vari¶avel,
obtemos uma solu»c~ao n~ao trivial x. Na verdade, m¶ ultiplas solu»c~oes cx satisfazendo
A(cx) = 0.
Observe que o espa»co nulo ¶e um subespa»co de R4 , com a dimens~ao igual ao

umero de vari¶aveis livres. Trataremos a dimens~ao deste subespa»co posteriormente.
Caso n~
ao homog^
eneo
No caso n~ao homog^eneo, o sistema orginal ¯ca Ax = b, onde b 6
= 0. Voltando
ao exemplo anterior, obtemos ap¶os o escalonamento o sistema linear equivalente
U x = c:
2 3
2 3 x1 2 3
1 3 3 2 6 7 b1
6 76 x2 7 6 7
Ux = 4 0 0 3 1 5 6 7=4 b2 ¡ 2 b1 5
4 x3 5
0 0 0 0 b3 ¡ 2 b2 + 5 b1
x4

onde o vetor c do lado direito desta equa»c~ao ¶e obtido atrav¶es da opera»c~ao: L¡1 .
O sistema linear Ux = c ser¶a inconsistente a menos que b3 ¡ 2 b2 + 5 b1 = 0.
Outra forma de interpretar a solu»c~ao do sistema linear n~ao homog^eneo consiste
em tomar o espa»co coluna (R(A)). Este espa»co ¶e gerado pelos vetores coluna:
2 3 2 3
1 3
6 7 6 7
4 2 5;4 9 5
¡1 3

sendo que estes vetores coluna em A correspondem aos vetores coluna da matriz
U com piv^ os. Estes vetores geram um plano em R3 , que consite no conjunto dos
pontos (b1 ; b2 ; b3 ) 2 R3 tais que b3 ¡2 b2 +5 b1 = 0, condi»c~ao imposta para o sistema
linear ser sol¶uvel, for»cando o valor do vetor b 2 R3 . Geometricamente, dizemos que
o vetor (5; ¡2; 1) ¶e perpendicular a cada coluna de A.
Assim, tomando como termo independente o vetor (1; 5; 5) que ¶e perpendicular

73
ao vetor (5; ¡2; 1), obtemos o seguinte sistema linear sol¶
uvel:
2 3
2 3 x1 2 3
1 3 3 2 6 7 1
6 7 6 x2 7 6 7
Ax = 4 2 6 9 5 56 7=4 5 5
4 x3 5
¡1 ¡3 3 0 5
x4

Ap¶os o escalonamento, obtemos:


2 3
2 3 x1 2 3
1 3 3 2 6 7 1
6 76 x2 7 6 7
Ux = 4 0 0 3 1 5 6 7=4 3 5
4 x3 5
0 0 0 0 0
x4

Observe que obtemos a u¶ ltima linha nula e as outras duas equa»c~oes nos d~ao a solu»c~ao:
x3 = 1 ¡ 1=3 x4 e x1 = ¡2 ¡ 3 x2 ¡ x4 , onde x2 e x4 s~ao vari¶aveis livres.
Colocando a solu»c~ao geral xgeral na forma:
2 3 2 3 2 3
¡2 ¡3 ¡1
6 0 7 6 1 7 6 0 7
6 7 6 7 6 7
xgeral = 6 7 + x2 6 7 + x4 6 7
4 1 5 4 0 5 4 ¡1=3 5
0 0 1

onde temos: xgeral = xparticular + xhomgeneo , sendo que o primeiro vetor coluna corre-
sponde a solu»ca~o particular para o sistema linear n~ao homog^eneo e as duas u ¶ltimas
parcelas fornecem a solu»c~ao para o sistema linear homog^eneo Ax = 0, bastando
atribuir valores x2 = 1; x4 = 0 e x2 = 0; x4 = 1, respectivamente.
Geometricamente, a solu»c~ao geral est¶a em uma superf¶³cie bidimensional, mas
que n~ao ¶e um subespa»co vetorial por n~ao conter a origem. Esta superf¶³cie ¶e paralela
ao espa»co nulo anterior, mas deslocado pela solu»c~ao particular.
Assim, os c¶alculos para a solu»c~ao n~ao homog^enea incluem um novo passo:
1) Reduz-se Ax = b µa forma escalonada U x = c;
2) Tome todas as vari¶aveis livres iguais µa zero e encontre a solu»ca~o particular;
3) Fa»ca o lado direito da equa»c~ao Ux = c igual a zero e para cada vari¶avel livre
igual µa 1 e com as outras nulas, encontre as solu»c~oes homog^eneas.
A elimin»c~ao por escalonamento nos d¶a o n¶ umero de piv^ os e o n¶
umero de vari¶aveis
livres. Se existem r piv^ os, existem r vari¶aveis b¶asicas e n ¡ r vari¶aveis livres.

4.8 Inversa µ
a Direita e µ
a Esquerda de Matriz
De¯ni»
c~ao 15

74
Seja a matriz A, m £ n. Dizemos que a matriz B,n £ m, ¶e a inversa µa esquerda
da matriz A, quando esta existe e BA = In , onde In ¶e a matriz identidade de ordem
n. Dizemos que a matriz C,n £ m, ¶e a inversa µa direita da matriz A, quando esta
existe e AC = Im , onde Im ¶e a matriz identidade de ordem m.
Temos que para matrizes A, n£n, quando estas inversas existem, elas s~ao iguais.
De fato:

B = BIm = B(AC) = (BA)C = In C = C;

sendo que neste caso m = n.


Teorema 4.10(Exist^ encia e Unicidade de Solu»c~ ao para Ax = b)
Exist^encia O sistema linear Ax = b tem pelo menos uma solu»c~ao para qualquer
vetor b 2 Rm () as colunas de A geram Rm , (posto(A) = r = m). Neste caso,
existe uma inversa µa direita C,n£m, tal que AC = Im , onde Im ¶e a matriz identidade
de ordem m. Isto ¶e poss¶³vel somente quando m · n.
Unicidade O sistema linear Ax = b tem no m¶aximo uma solu»c~ao para qualquer
vetor b 2 Rm () as colunas de A s~ao linearmente independentes, (posto(A) =
r = n). Neste caso, existe uma inversa µa esquerda B,n £ m, tal que BA = In , onde
In ¶e a matriz identidade de ordem n. Isto ¶e poss¶³vel somente quando m ¸ n.
Prova
Este teorema ¶e similar ao teorema da se»c~ao 4.5, formulado agora com matrizes
inversa µa direita e µa esquerda.
No primeiro caso, uma solu»c~ao poss¶³vel ser¶a x = Cb, uma vez que:

Ax = ACb = Im b = b:

Mas, existem outras solu»c~oes se existem outras inversas aµ direita.


No segundo caso, se existe uma solu»c~ao para Ax = b, esta tem de ser:

x = In x = BAx = Bb:

Existem f¶ormulas simples para inversas µa esquerda e µa direita, se elas existem:

B = (At A)¡1 At e C = At (AAt )¡1

mas, para a exist^encia das mesmas, as matrizes At A,n £ n, e AAt ,m £ m, dever~ao


ser invert¶³veis e neste caso, BA = In e AC = Im .
Veremos no cap¶³tulo s^obre orogonalidade que:
- At A,n £ n, tem inversa quando (posto(At A) = r = n) , e
-AAt ,m £ m, tem inversa quando (posto(AAt ) = r = m) .
Assim, estas f¶ormulas t^em sentido quando o posto ¶e o maior poss¶³vel.

75
Exemplo 1
Vamos considerar a matriz A, 2 £ 3, de posto = 2, abaixo:

" #
4 0 0
A=
0 5 0

Desde que r = m = n, o teorema anterior garante a exist^encia de uma inversa µa


direita C:
2 3
" # 1=4 0 " #
4 0 0 6 7 1 0
AC = 4 0 1=5 5 =
0 5 0 0 1
c31 c32

Como c31 e c32 s~ao arbitr¶arios, existem diversas inversas aµ direita. Quando c31 =
c32 = 0, obtemos a matriz "pseudoinversa".
A matriz A n~ao tem inversa µa esquerda, uma vez que BA tem a terceira coluna
nula.
Neste exemplo, a f¶ormula C = At (AAt )¡1 nos d¶a a escolha espec¶³¯ca para a
inversa µa direita de A, a "pseudoinversa":

2 3 2 3
4 0 " # 1=4 0
6 7 1=16 0 6 7
C=4 0 5 5 = 4 0 1=5 5
0 1=25
0 0 0 0

A matriz At neste exemplo, em contrapartida, pode ter in¯nitas inversas aµ es-


querda:
2 3
" # 4 0 " #
1=4 0 b 13 6 7 1 0
BAt = 4 0 5 5=
0 1=5 b23 0 1
0 0

¶ltima coluna da inversa µa esquerda de At ¶e arbitr¶aria.


Agora, a u
Considerando o sistema linear:
2 3 2 3
4 0 " # b1
6 7 x1 6 7
4 0 5 5 = 4 b2 5
x2
0 0 b3

¶e sol¶uvel somente quando b3 = 0, tendo u¶nica solu»c~ao x1 = 1=4 e x2 = 1=5. Neste


caso, as colunas de A s~ao linearmente independentes (posto(At ) = 2), n~ao existindo
t

vari¶aveis livres.

76
Para uma matriz A, m £ n, n~ao ¶e poss¶³vel haver ambos, exist^encia e unicidade.
Se m 6= n, n~ao podemos ter (posto(A) = n) e (posto(A) = m). Em contrapartida,
uma matriz A, n £ n, tem inversa µa esquerda () ela tem inversa µa direita. Neste
¶nica: B = C = A¡1 .
caso, a inversa da matriz existe e ¶e u

77
Exerc¶³cios Cap¶³tulo IV
1 - Dados os vetores coluna abaixo:
2 3 2 3 2 3 2 3
1 1 1 2
6 7 6 7 6 7 6 7
v1 = 4 0 5 ; v2 = 4 1 5 ; v3 = 4 1 5 e v4 = 4 3 5 :
0 0 1 4
Mostre que:
a) os vetores v1 ; v2 e v3 s~ao linearmente independentes;
b) os vetores v1 ; v2 ; v3 e v4 s~ao linearmente dependentes.

2 - Dada a matriz:
2 3
1 2 2 3 1 4
6 7
A=4 2 4 5 5 4 9 5
3 6 7 8 5 9
a) Encontre uma base para o espa»co linha de A;
b) Encontre uma base para o espa»co coluna de A;
c) Encontre uma base para o espa»co nulo de A;
d) Qual o posto(A)?

3 - Em cada um dos sistemas lineares a seguir, encontre uma condi»c~ao para os


valores de b1 ,b2 e b3 , para que esses sistemas lineares sejam sol¶
uveis:
a)

2 32 3 2 3
1 4 2 x1 b1
6 76 7 6 7
4 2 8 4 5 4 x2 5 = 4 b2 5
¡1 ¡4 ¡2 x3 b3
b)

2 3 2 3
1 4 " # b1
6 7 x1 6 7
4 2 9 5 = 4 b2 5
x2
¡1 ¡4 b3
4 - Encontre, quando existirem, uma inversa µa esquerda e/ou uma inversa µa direita
para as matrizes a seguir:
a)

" #
1 2 0
A=
0 2 1

78
b)
2 3
1 0
6 7
B=4 2 2 5
0 1

5 - Para uma matriz A, m £ n, pode ser provado que existe uma u ¶nica matriz
] ] ] ] ] ] ]
A , m £ n, tal que AA A = A e A AA = A , com ambas AA e A A sim¶etricas. A
matriz A] ¶e chamada inversa de Moore-Penrose de A.
a) Se a matriz A ¶e quadrada e invers¶³vel, mostre que A] = A¡1 ;
b) Se (posto(A) = r = m), mostre que A] = At (AAt )¡1 ;
c) Se (posto(A) = r = n), mostre que A] = (At A)¡1 At .

79
Cap¶³tulo 5

Transforma»c~
oes Lineares

5.1 Introdu»c~
ao
Trataremos aqui das fun»c~oes cujos dom¶³nios e contradom¶³nios s~ao espa»cos vetori-
ais. Chamamos tais fun»c~oes de transforma»c~oes, aplica»c~oes ou operadores. Seguimos
as nota»c~oes de Apostol,Vol. II [3])
Sejam V e W , dois espa»cos arbitr¶arios. Usaremos a nota»c~ao:

T : V ¡! W

para indicar que T ¶e uma fun»c~ao cujo dom¶³nio ¶e V e contradom¶³nio W . Para


qualquer valor x em V , o elemento T (x) 2 W ¶e chamado de imagem de x por T , e
dizemos que T aplica x em T (x).
Vamos assumir que V e W s~ao espa»cos vetoriais no mesmo corpo de escalares e
de¯nimos uma transforma»c~ao linear como segue:
De¯ni» c~
ao 1
Se V e W s~ao espa»cos vetoriais, uma fun»ca~o T : V ¡! W ¶e chamada uma
transforma»c~ao (ou operador) linear de V em W se tem as seguintes propriedades:
a) T (x + y) = T (x) + T (y) 8x; y 2 V ;
b) T (® x) = ® T (x) 8x 2 V e todo escalar ®.
Neste caso, dizemos que uma transforma»c~ao linear T preserva a adi»c~ao e a mul-
tiplica»c~ao por escalar. Estas duas propriedades podem ser combinadas na f¶ormula:
T (® x + ¯ y) = ® T (x) + ¯ T (y) 8x; y 2 V e todo escalar ® e ¯.
De f¶ormula mais geral, escrevemos a rela»c~ao:
Xn X
n
T( ai xi ) = ai T (xi )
i=1 i=1

para quaisquer n elementos x1 ; x2 ; : : : ; xn 2 V e quaisquer n escalares a1 ; a2 ; : : : ; an 2


K.

80
Exemplo 1
A transforma»c~ao identidade T : V ¡! V , onde T (x) = x; 8x 2 V , que ¶e
representada por I.
Exemplo 2
A transforma»c~ao nula T : V ¡! V , onde T (x) = 0x = 0; 8x 2 V , que aplica
cada elemento x 2 V em 0.
Exemplo 3
A transforma»c~ao multiplica»c~ao por escalar ¯xo c tal que T : V ¡! V , onde
T (x) = c x; 8x 2 V .
Exemplo 4
A transforma»c~ao dada por equa»c~oes lineares onde de¯nimos T : Rn ¡! Rm , que
aplica cada vetor x = (x1 ; x2 ; : : : ; xn ) 2 Rn no vetor y = (y1 ; y2 ; : : : ; ym ) 2 Rm
pelas equa»c~oes:
n
X
yi = aik xk ; i = 1; 2; : : : ; m
k=1

Exemplo 5
Seja V um espa»co vetorial Euclidiano e seja z um vetor ¯xo em V . De¯nimos:

T : V ¡! R tal que T (x) =< x; z >; 8x 2 V:

Exemplo 6
Seja p = p(x) = c0 +c1 x+: : :+cn xn um polin^omio em Pn , conjunto de polin^omios
de grau · n, e de¯nimos a fun»c~ao:

T : Pn ¡! Pn+1 tal que T (p) = T (p(x)) = xp(x)

A fun»c~ao T ¶e uma transforma»c~ao linear, pois temos:


i) T (p1 + p2 ) = T (p1 (x) + p2 (x)) = x(p1 (x) + p2 (x)) = xp1 (x) + xp2 (x) =
T (p1 ) + T (p2 ); 8p1 ; p2 2 Pn ;
ii) T (kp1 ) = T (kp1 (x)) = x(kp1 (x)) = k(xp1 (x)) = kT (p1 ); 8p1 2 Pn ; 8k 2 R.
Exemplo 7
Seja C1 (a; b) o espa»co vetorial de todas as fun»c~oes reais deriv¶aveis em um in-
tervalo aberto (a; b). A transforma»c~ao que aplica cada fun»c~ao f de C1 (a; b) na sua
derivada f 0 chama-se operador de deriva»c~ao e ¶e representado por D. Temos que:

D : C1 (a; b) ¡! C1 (a; b) tal que D(f) = f 0 ; 8f 2 C1 (a; b):

Esta transforma»c~ao ¶e linear e chama-se operador de deriva»c~ao.

81
Exemplo 8
Seja Co [a; b] o espa»co vetorial de todas as fun»c~oes reais cont¶³nuas em um intervalo
fechado [a; b]. Se f 2 Co [a; b], de¯nimos g = T (f ) como sendo a fun»c~ao de f 2 Co
[a; b] de¯nida por:
Z x
g(x) = f (t)d(t); a · x · b:
a

Esta transforma»c~ao ¶e linear e chama-se operador de integra»c~ao.

5.2 Espa»co Nulo e Imagem


De¯ni» c~
ao 2
Seja a transforma»c~ao linear T : V ¡! W . O conjunto dos vetores w 2 W tais
que ¶e imagem de algum vetor v 2 V , chama-se imagem de T . Denotamos por:
Im(T ) µ W (imagem de T contida em W ).

Im(T ) = fw 2 W tal que 9v 2 V; T (v) = wg;

Exemplo 1
Seja T : R3 ¡! R3 dada por: T (x; y; z) = (0; y; z).

Im(T ) = f(x; y; z) 2 R3 tal que x = 0g

Vamos dar o seguinte teorema:


Teorema 5.1
O conjunto T (V ) (Imagem de V por T ) ¶e um subespa»co vetorial de W . Al¶em
do mais, T aplica o elemento zero de V no elemento zero de W .
Prova Para demonstrar que T (V ) ¶e um subespa»co vetorial de W , basta veri¯car
os axiomas do fecho.
i) Sejam T (x) e T (y) elementos de T (V ). Temos que T (x) + T (y) = T (x + y) e
assim, T (x) + T (y) 2 T (V );
ii) Para qualquer escalar ® temos que ®T (x) = T (®x) e assim, ®T (x) 2 T (V ).
Agora, tomando ® = 0 em ii), concluimos que T (0) = 0.
Portanto, T (V ) ¶e um subespa»co vetorial de W .
Teorema 5.2
Seja a transforma»c~ao linear T : V ¡! W . Se fv1 ; v2 ; : : : ; vn g gera V , ent~ao
fT (v1 ); T (v2 ); : : : ; T (vn )g gera Im(T ).
Prova
Seja w 2 Im(T ). Temos que, 9v 2 V tal que T (v) = w.

82
Por outro lado, v pode ser escrito como:

v = a1 v1 + a2 v2 + : : : + an vn ; com escalares ai ; i = 1; 2; : : : ; n:

Assim,

w = T (v) = T (a1 v1 + a2 v2 + : : : + an vn = T (a1 v1 ) + T (a2 v2 ) + : : : + T (an vn ) =

= a1 T (v1 ) + a2 T (v2 ) + : : : + an T (vn ):

Ou seja,

fT (v1 ); T (v2 ); : : : ; T (vn )g gera Im(T ):

De¯ni» c~
ao 3
O conjunto de todos os elementos de V tal que T aplica em 0 2 W chama-se o
espa»co nulo de T e representa-se por N (T ). Assim, escrevemos:

N(T ) = fx 2 V tal que T (x) = 0g;

tamb¶em chamado n¶ ucleo de T .


Teorema 5.3
O espa»co nulo de T ¶e um subespa»co vetorial de V .
Prova
Sejam x; y 2 N (T ) e ® escalar. Temos que x + y e ® x 2 N (T ), pois:
i) T (x + y) = T (x) + T (y) = 0 + 0 = 0;
ii) T (®x) = ®T (x) = ®0 = 0.
Al¶em do mais, T (0) = 0.
Portanto, N (T ) ¶e um subespa»co vetorial de V .
Exemplo 1
Para a transforma»c~ao identidade I em V , o espa»co nulo consiste apenas 0 em V .
Exemplo 2
Para a transforma»c~ao nula 0 de V em W , o espa»co nulo consiste de todos os
elementos de V .
Exemplo 3
Seja a transforma»c~ao linear:T : R3 ¡! R2 dada por:

T (x; y; z) = (x ¡ y + z; 2x + y + z)

Temos que:

N(T ) = f(x; y; z) 2 R3 tal que T (x; y; z) = (0; 0)g;

83
Para isto, basta resolver o sistema linear homog^eneo:
( (
x¡y+z = 0 y = ¡x
=)
2x + y + z = 0 z = ¡2x

Assim, temos:

N(T ) = f(x; ¡x; ¡2x) 2 R3 g;

que corresponde ao subespa»co vetorial gerado pelo vetor (1; ¡1; ¡2).
Exemplo 4
Seja a transforma»c~ao linear:T : R3 ¡! R3 dada por:

T (x; y; z) = (x + y + z; x + y ¡ z; x + y ¡ z)

Para encontrar o conjunto N(T ), resolvemos o sistema linear homog^eneo:


8
> (
< x+y+z = 0 x = ¡y
x + y ¡ z = 0 =)
>
: z=0
x+y¡z =0

Assim, temos:

N (T ) = f(¡y; y; 0) 2 R3 g;

que corresponde ao subespa»co vetorial gerado pelo vetor (¡1; 1; 0).


Para encontrar o conjunto Im(T ), resolvemos o sistema linear n~ao homog^eneo:
8
>
< x+y+z =a
x+y¡z =b
>
:
x+y¡z =c

Este sistema linear ¶e compat¶³vel para b ¡ c = 0 e sendo a qualquer, tomando a; b; c 2


R. Assim, obtemos:

Im(T ) = f(a; b; b) 2 R3 g:

Teorema 5.4
Uma transforma»c~ao linear T : V ¡! W ¶e injetiva () N(T ) = f0g.
Prova
Obs. T ¶e injetiva quando:
T (v1 ) = T (v2 ); v1 ; v2 2 V =) v1 = v2 ;

84
ou ainda: v1 6= v2 ; v1 ; v2 2 V =) T (v1 ) 6
= T (v2 ): (=)) Se v 2 N (T ), ent~ao
T (v) = 0. Como T (0) = 0 =) T (v) = 0. Por hip¶otese, T sendo injetora, v = 0.
Portanto, N(T ) = 0.
((=) Seja, v1 ; v2 2 V , tais que T (v1 ) = T (v2 ). Ou seja, T (v1 ) ¡ T (v2 ) = 0
e como T ¶e linear: T (v1 ¡ v2 ) = 0 =) v1 ¡ v2 2 N (T ). Como, por hip¶otese
N(T ) = f0g =) v1 ¡ v2 = 0 =) v1 = v2 . Portanto, T ¶e injetora.
Teorema 5: (Dimens~ ao: n¶
ucleo e imagem)
Seja V um espa»co vetorial de dimens~ao ¯nita, onde dim(V ) = n. Tem-se que
T (V ) tamb¶em ¶e de dimens~ao ¯nita e al¶em do mais,

dim N(T ) + dim T (V ) = dim(V ) (I)

Prova
Sejam n = dim (V ) e fv1 ; v2 ; : : : ; vk g uma base para N(T ), onde k = dim N (T ) ·
n. Pelo teorema da complementa»c~ao da base, este conjunto de vetores formam parte
de uma certa base de V , por exemplo, a base:

fv1 ; v2 ; : : : ; vk ; vk+1 ; : : : ; vk+r g (II)

com k + r · n. Vamos mostrar que o conjunto de r vetores,

fT (vk+1 ); : : : ; T (vk+r )g (III)

formam uma base para T (V ), o que prova dim T (V ) = r. Uma vez que, k + r = n,
isto tamb¶em prova (I).
Inicialmente, vamos provar que os r vetores em (III) geram T (V ).
Se y 2 T (V ), temos y = T (x) para algum x 2 V , e podemos escrever:

x = c1 v1 + c2 v2 + : : : + ck vk + ck+1 vk+1 + : : : + ck+r vk+r

Da¶³, temos:
k+r
X k
X k+r
X k+r
X
y = T (x) = ci T (vi ) = ci T (vi ) + ci T (vi ) = ci T (vi )
i=1 i=1 k+1 i=k+1

uma vez que T (v1 ) = T (v2 ) = : : : = T (vr ) = 0.


Portanto, fT (vk+1 ); T (vk+2 ); : : : ; T (vr )g gera T (V ).
Al¶em do mais, este conjunto ¶e linearmente independente.
De fato:
Vamos supor que existam escalares ck+1 ; ck+2 ; : : : ; ck+r tais que:
k+r
X
ci T (vi ) = 0
i=k+1

85
Ent~ao,
k+r
X
T( ci (vi )) = 0;
i=k+1

e assim,
k+r
X
ci (vi ) 2 N (T ); ou ainda: x ¡ x = c1 v1 + c2 v2 + : : : + ck vk :
i=k+1

Assim, escrevemos:
k
X k+r
X
x¡x= ci vi ¡ = 0:
i=1 i=k+1

Como os vetores em (II) s~ao linearmente independentes, temos que ci = 0 8i =


1; 2; : : : ; k + r.
Consequentemente, fT (vk+1 ); T (vk+2 ); : : : ; T (vr )g ¶e linearmente independente.

5.3 Opera»c~
oes Alg¶
ebricas em Transforma»c~
oes Lin-
eares
De¯ni» c~
ao 4
Sejam S : V ¡! W e T : V ¡! W duas transforma»c~oes lineares pertencentes
ao L(V; W ) (conjunto das aplica»c~oes lineares de V em W ). Se c ¶e qualquer escalar
em K, de¯nimos a soma S + T e o produto por escalar cT pelas igualdades:
i) (S + T )(x) = S(x) + T (x) e,
ii) (cT )(x) = cT (x); 8x 2 V .
Obs. L(V; W ) ¶e um espa»co vetorial com as opera»c~oes de¯nidas acima.
De¯ni»c~ ao 5:(Composi»c~ ao de aplica»c~
oes)
Sejam T : U ¡! V e S : V ¡! W duas aplica»c~oes, onde U; V e W s~ao conjuntos.
A composi»c~ao ST ¶e a aplica»c~ao ST : U ¡! W de¯nida por:

(ST )(x) = S(T (x)); 8x 2 U:

Exemplo 1
Sejam as aplica»c~oes S; T : R ¡! R de¯nidas por S(x) = x e T (x) = x + 1.
Temos:

(ST )(x) = S(T (x)) = S(x + 1) = x + 1

86
e

(T S)(x) = T (S(x)) = T (x) = x + 1

Exemplo 2
Sejam as aplica»c~oes S; T : R ¡! R de¯nidas por S(x) = 2x e T (x) = x + 1.
Temos:

(ST )(x) = S(T (x)) = S(x + 1) = 2x + 2

(T S)(x) = T (S(x)) = T (2x) = 2x + 1

Note que (ST ) 6 = (T S).


De¯ni» c~ao 6
Sejam T : V ¡! V uma transforma»c~ao linear (operador linear). De¯nimos as
pot^encias inteiras de T , por indu»c~ao, do seguinte modo:

T 0 = I; T n = T T n¡1 (para) ¸ 1

onde, I ¶e o operador identidade.


Teorema 5.6
Se U; V e W s~ao espa»cos vetoriais com os mesmos escalares e se T : U ¡! V
e S : V ¡! W s~ao transforma»co~es lineares, ent~ao a composi»ca~o ST : U ¡! W ¶e
linear.
Prova
De fato, sejam x; y 2 U e a; b escalares quaisquer. Temos:

(ST )(ax + by) = S(T (ax + by)) = S(aT (x) + bT (y)) = a(ST )(x) + b(ST )(x)

A partir deste teorema, enunciamos o seguinte teorema:


Teorema 5.7
Sejam U; V e W espa»cos vetoriais com os mesmos escalares e sejam as transfor-
ma»c~oes lineares S; T 2 L(V; W ) e seja c um escalar qualquer.
a) Para qualquer transforma»c~ao linear R : U ¡! V temos:

(S + T )R = SR + T R

(cS)R = c(SR);

87
b) Para qualquer transforma»c~ao linear R : W ¡! U temos:

R(S + T ) = RS + RT

R(cS) = c(RS):

Prova (ver Apostol,Vol. II [3])

5.4 Transforma»c~
oes Inversa µ
a Direita e Inversa µ
a
Esquerda
Dada uma transforma»c~ao linear T , queremos encontrar uma transforma»c~ao linear
S, cuja composi»c~ao com T seja a transforma»ca~o linear id^entica. Como ST 6= T S,
vamos introduzir dois tipos de transforma»co~es inversas.
De¯ni» c~ao 7
Uma transforma»c~ao linear R : T (V ) ¡! V chama-se uma inversa µa direita da
transforma»c~ao linear T : V ¡! W quando se tem T ± R = IT (V ) , ou seja,quando:

T (R(y)) = y; 8y 2 T (V )

Exemplo 1
Seja a transforma»c~ao linear:

T : R3 ¡! R2 ; tal que (x; y; z) ¡! (x; y)

A transforma»c~ao linear:

R : R2 ¡! R3 ; tal que (x; y) ¡! (x; y; ax + by); a; b 2 R

¶e uma inversa µa direita para T . Variando os valores de a e b 2 R, obtemos diversas


transforma»c~oes inversas µa direita para T .
De¯ni»c~ ao 8
Uma transforma»c~ao linear S : T (V ) ¡! V chama-se uma inversa µa esquerda da
transforma»c~ao linear T : V ¡! W quando se tem S ± T = IV , ou seja,quando:

S(T (x)) = x; 8x 2 V

Exemplo 2

88
Seja a transforma»c~ao linear:

T : R2 ¡! R3 ; tal que (x; y) ¡! (x + 2y; 2x + 3y; 3x + 4y)

A transforma»c~ao linear:

S : R3 ¡! R2 ; tal que (x; y; z) ¡! (¡3x + 2y; 2x ¡ y)

¶e uma inversa µa esquerda para T , uma vez que:

S(T (x; y)) = S(x + 2y; 2x + 3y; 3x + 4y) =

= (¡3(x + 2y) + 2(2x + 3y); 2(2x + 3y) ¡ (2x + 3y)) = (x; y); 8 (x; y) 2 R2

Portanto, S ¶e a inversa µa esquerda de T .


Teorema 5.8
Uma transforma»c~ao T : V ¡! W pode ter, quanto muito uma inversa µa es-
querda. Se a transforma»ca~o T tem uma inversa µa esquerda S, ent~ao S tamb¶em ¶e a
inversa µa direita.
Prova
Seja T : V ¡! W com duas inversas µa esquerda, S : T (V ) ¡! V e S 0 : T (V ) ¡!
V . Seja y 2 T (V ). Como y = T (x) para algum x 2 V , temos:

S(T (x)) = x e S 0 (T (x)) = x =) S(y) = S 0 (y); 8y 2 T (V )

Portanto, S = S 0 , ou seja,a inversa µa esquerda ¶e u


¶ nica.
Vamos mostrar, agora, que S ¶e tamb¶em inversa µa direita, caso ela exista.
Seja y 2 T (V ). Vamos mostrar que T (S(y)) = y.
Como y = T (V ), temos que y = T (x) para algum x 2 V . Como S ¶e a inversa µa
esquerda de T temos:

x = S(T (x)) = S(y)

Aplicando T a ambos os lados desta igualdade, obtemos:

T (x) = T (S(y)) ou ainda y = T (S(y)); pois y = T (x):

Portanto, S tamb¶em ¶e uma inversa µa direita.


Teorema 9:(Caracteriza»c~ ao das transforma»c~ oes inversas)
Uma transforma»c~ao T : V ¡! W tem uma inversa µa esquerda () T aplica
elementos distintos de V em elementos distintos de W , isto ¶e:

8x; y 2 V; x 6
= y =) T (x) 6
= T (y) (T ¶e injetiva)

89
ou, de forma equivalente:

8x; y 2 V; T (x) = T (y) =) x = y

Prova
" =) "Assumindo que T tenha uma inversa µa esquerda S, e assumindo que
T (x) = T (y), queremos provar que x = y.
Aplicando S, a igualdade anterior, obtemos: S(T (x)) = S(T (y)), ou seja, x = y,
uma vez que S(T (x)) = x e S(T (y)) = y.
" (= "Vamos assumir agora, que T ¶e injetiva em V . Temos de encontrar uma
transforma»c~ao S : T (V ) ¡! V , inversa µa esquerda de T .
Se y 2 T (V ), ent~ao y = T (x) para algum x 2 V . Mas, por hip¶otese, existe um
¶ nico x tal que y = T (x). Colocando S(y) = x, podemos de¯nir S em T (V ) como
u
segue:

S(y) = x signi¯ca que T (x) = y:

Portanto, temos S(T (x)) = x para x 2 V , de modo que ST = IV , ou seja, S ¶e a


inversa µa esquerda de T .
De¯ni» c~ao 5.9
Seja T : V ¡! W injetiva e sobrejetiva, ou seja, T ¶e bijetiva. A u ¶ nica inversa µa
esquerda de T (qu¶e tamb¶em inversa µa direita de T ) representa-se por T ¡1 . Neste
caso, diz-se que T ¶e invert¶³vel e chama-se T ¡1 a inversa de T .
Exemplo 1
Seja a transforma»c~ao linear: Seja T : R3 ¡! R2 tal que (x; y; z) ¡! (x; y).
Temos que, T n~ao ¶e injetiva. De fato, tomando, por exemplo, (1; 3; 3) 6
= (1; 3; ¡2),
temos que T (1; 3; 3) = (1; 3) = T (1; 3; ¡2).
Por outro lado, T ¶e sobrejetiva. De fato, tomando o vetor (y1 ; y2 ) 2 R2 , va-
mos procurar o vetor (x1 ; x2 ; x3 ) 2 R3 tal que T (x1 ; x2 ; x3 ) = (y1 ; y2 ). Como
T (x1 ; x2 ; x3 ) = (x1 ; x2 ), basta tomar x1 = y1 e x2 = y2 .

5.5 Transforma»c~
oes Lineares Inversas
Vamos generalisar o estudo de transforma»c~ao linear inversa para o caso T : V ¡! W
injetiva, onde V e W s~ao espa»cos vetoriais quaisquer. A linearidade de T nos permite
espressar a propriedade injetiva de diversas formas equivalentes.
Teorema 5.10
Seja a transforma»c~ao linear T : V ¡! W . Ent~ao, as a¯rma»c~oes seguintes s~ao
equivalentes:

90
a) T ¶e injetiva em V ;
b) T ¶e invert¶³vel e sua inversa T ¡1 : T (V ) ¡! V ¶e linear;
c) 8x 2 V; T (x) = 0 () x = 0. Isto ¶e, o espa»co nulo N(T ) contem somente o
vetor nulo em V .
Prova
Vamos provar que a) implica b), b) implica c) e c) implica a).
a) =) b) Se T ¶e injetiva em V , ent~ao T tem uma inversa, de acordo com o
Teorema 9. Vamos mostrar agora que T ¡1 ¶e linear. Para isto, tomamos dois vetores
u e v 2 T (V ). Ent~ao, u = T (x) e v = T (y) para algum x e algum y em V . Para
quaisquer escalares ® e ¯, temos:

® u + ¯ v = ®T (x) + ¯T (y) = T (® x + ¯ y);

uma vez que T ¶e linear. Portanto, aplicando T ¡1 a ambos os membros desta igual-
dade, obtemos:

T ¡1 (® u + ¯ v) = ® x + ¯ y = ® = ® T ¡1 (u) + ¯ T ¡1 (v);

ou seja, T ¡1 ¶e linear.
b) =) c) Vamos assumir que vale b). Vamos tomar um vetor x qualquer em V
tal que T (x) = 0. Aplicando T ¡1 , obtemos: x = T ¡1 0 = 0, uma vez que T ¡1 ¶e
linear. Logo, b) =) c).
c) =) a) Vamos assumir que vale c).Sejam u e v quaisquer em V tal que T (u) =
T (v). Como T ¶e linear, temos que:T (u ¡ v) = T (u) ¡ T (v) = 0, e usando a hip¶otese
em c) temos que u ¡ v = 0. Logo, T ¶e injetiva, e a prova do teorema ¶e completa.
Exemplo 1
Seja T : R2 ¡! R2 o operador de rota»c~ao do vetor (x1 ; y1 ) 2 R2 de um ^angulo
µ.
(Figura)
Temos que o operador T leva o vetor (x1 ; y1 ) = (rcos ®; rsin ®) no vetor (x2 ; y2 ) =
(rcos (® + µ); rsin (® + µ)).Da¶³, obtemos:

x2 = r(cos ®cos µ ¡ sin ®sin µ) = x1 cos µ ¡ y1 sin µ

y2 = r(sin ®cos µ + cos ®sin µ) = y1 cos µ + x1 sin µ

O operador de rota»c~ao inverso, gira o vetor imagem (x2 ; y2 ) de volta de um ^angulo


¡µ.
Daremos, na pr¶oxima se»c~ao, a representa»c~ao matricial deste operador.

91
Exemplo 2
Seja T : Pn ¡! Pn+1 a transforma»c~ao linear T (p) = T (p(x)) = xp(x). Temos
que, se

p = p(x) = c0 + c1 x + c2 x2 + : : : + cn xn e q = q(x) = d0 + d1 x + d2 x2 + : : : + dn xn

s~ao polin^omios distintos em Pn , ent~ao:

T (p) = T (p(x)) = c0 x + c1 x2 + : : : + cn xn+1 e T (q) = T (q(x)) = d0 x + d1 x2 + : : : + dn xn+1

diferem entre si em pelo menos um coe¯ciente.


Portanto, T (p) 6
= T (q). Logo, T ¶e injetiva e assim, T tem uma inversa.
Obs. Aqui a imagem de T n~ao ¶e todo o espa»co Pn+1 , pois Im(T ) consiste nos
polin^omios de grau · (n + 1) com o termo constante nulo.
Como, T (p) = T (p(x)) = c0 x + c1 x2 + : : : + cn xn+1 , segue-se que,

T ¡1 : Pn+1 ¡! Pn

¶e dada por:

T ¡1 (c0 x + c1 x2 + : : : + cn xn+1 ) = c0 + c1 x + c2 x2 + : : : + cn xn

Desta forma, dada uma transforma»c~ao linear T : V ¡! W que seja injetiva, pode-
mos de¯nir uma transforma»c~ao linear inversa T ¡1 , tal que T ¡1 : Im(T ) ¡! V , onde
cada T ¡1 (w) = v; 8w 2 Im(T ), sendo v 2 V .
Temos que:

T ¡1 (T (v)) = T ¡1 (w) = v e T (T ¡1 (w)) = T (v) = w

Obs. No caso em que T : V ¡! V ¶e um operador injetor, sendo V um espa»co


vetorial de dimens~ao ¯nita, temos que Im(T ) = V , ou seja, o dom¶³nio de T ¡1 ¶e todo
o espa»co V .
Quando o espa»co vetorial V tem dimens~ao ¯nita, a propriedade da transfor-
ma»c~ao linear ser injetiva pode ser formulada em termos de independ^encia linear e
dimensionalidade, conforme o teorema a seguir:
Teorema 5.11
Se T : V ¡! W ¶e uma transforma»c~ao linear e V tem dimens~ao ¯nita, dim(V ) =
n, s~ao equivalentes as a¯rma»c~oes:
a) T ¶e injetiva;
b) Se os vetores e1 ; e2 ; : : : ; ep s~ao linearmente independentes em V , ent~ao os
vetores T (e1 ); T (e2 ); : : : ; T (ep ) s~ao linearmente independentes em T (V );

92
c) dim(V ) = n;
d) Se fe1 ; e2 ; : : : ; ep g ¶e uma base em V , ent~ao fT (e1 ); T (e2 ); : : : ; T (ep )g ¶e uma
base em T (V ).
Prova
a) =) b) Asumamos que T ¶e injetiva. Sejam os vetores e1 ; e2 ; : : : ; ep lineramente
independentes em V e consideremos os vetores T (e1 ); T (e2 ); : : : ; T (ep ) em T (V ).
Suponhamos que:
p
X
ci T (ei ) = 0
i=1

para certos escalares c1 ; c2 ; : : : ; cp . Por linearidade, obtemos:


p p
X X
T( ci ei ) = 0; e portanto, ci ei = 0;
i=1 i=1

uma vez que T ¶e injetiva. Como e1 ; e2 ; : : : ; ep s~ao lineramente independentes em


V , ent~ao c1 = c2 = : : : = cp = 0. Logo,os vetores T (e1 ); T (e2 ); : : : ; T (ep ) s~ao
linearmente independentes em T (V ).
b) =) c) Asumamos b) v¶alido. Seja fe1 ; e2 ; : : : ; ep g base de V . Por b), os n
vetores T (e1 ); T (e2 ); : : : ; T (ep ) s~ao linearmente independentes em T (V ). Portan-
to, dimT (V ) ¸ n. Mas, pelo Teorema 3, temos que dimT (V ) · n. Portanto,
dimT (V ) = n.
c) =) d) Assumamos agora que c) vale e seja fe1 ; e2 ; : : : ; en g uma base de V .
Tomando qualquer vetor y em T (V ), temos que y = T (x) para algum x 2 V , e
assim temos:
n
X n
X
x= ci ei ; e portanto; y = T (x) = ci T (ei )
i=1 i=1

Logo, fT (e1 ); T (e2 ); : : : ; T (en )g gera T (V ). Como, por hip¶otese dimT (V ) = n,


ent~ao fT (e1 ); T (e2 ); : : : ; T (en )g ¶e uma base de T (V ).
d) =) a) Finalmente, assumamos que c) vale. Vamos provar que T (x) = 0
implica em x = 0.
Seja fe1 ; e2 ; : : : ; en g ¶e uma base de V . Se x 2 V , ent~ao temos:
n
X n
X
x= ci ei ; e portanto; T (x) = ci T (ei ):
i=1 i=1

Se T (x) = 0, ent~ao c1 = c2 = : : : = cn = 0, uma vez que os vetores T (e1 ); T (e2 ); : : : ; T (en )


s~ao linearmente independentes. Portanto, x = 0. Logo, T ¶e injetiva e desta forma,
a prova ¯ca completa.

93
Podemos sempre sonstruir uma transforma»c~ao linear T : V ¡! W com valores
determinados para vetores de uma base de V , conforme teorema:
Teorema 5.12
Se fe1 ; e2 ; : : : ; en g ¶e uma base em V , sendo dim(V ) = n, e u1 ; u2 ; : : : ; un s~ao
vetores arbitr¶arios de um espa»co vetorial W , ent~ao existe uma u ¶ nica transforma»c~ao
linear T : V ¡! W tal que:

T (ek ) = uk ; k = 1; 2; : : : ; n (¤)

Esta transforma»c~ao T aplica um vetor arbitr¶ario x 2 V do seguinte modo:

X
n X
n
x= xk ek =) T (x) = xk uk
k=1 k=1

Prova
Qualquer vetor x 2 V pode ser expresso unicamente como uma combina»c~ao
linear dos vetores e1 ; e2 ; : : : ; en , sendo x1 ; x2 ; : : : ; xn as componentes do vetor x em
rela»c~ao µa base ordenada fe1 ; e2 ; : : : ; eng. A transforma»c~ao T de¯nida acima ¶e linear.
Se x = ek para algum k, ent~ao todas as componentes de x s~ao nulas exceto a k-¶esima,
que ¶e igual a 1, de modo que T (ek ) = uk , como requerido em (¤).
Para provar que a transforma»c~ao linear ¶e u
¶nica,tomamos outra transforma»c~ao
0 0
linear T e calculamos T (x). Temos que:

Xn n
X n
X
0 0 0
T (x) = T ( xk ek ) = xk T (ek ) = xk uk = T (x)
k=1 k=1 k=1

0 0
Desde que, T (x) = T (x); 8x 2 V , temos que T = T .
Exemplo 1
Seja encontrar a transforma»c~ao linear T : R2 ¡! R2 tal que T (i) = i + j e
T (j) = 2i ¡ j, onde i; j s~ao os vetores da base can^onica de R2 .
Seja x = x1 i + x2 j um vetor qualquer de R2 . Temos que:

T (x) = x1 T (i) + x2 T (j) = x1 (i + j) + x2 (2i ¡ j) = (x1 + 2x2 )i + (x1 ¡ x2 )j

Desta forma, podemos escrever:


" # " # " #" #
u1 h i x1 1 2 x1
= T =
u2 x2 1 ¡1 x2

94
5.6 Representa»c~
ao Matricial das Transforma»c~
oes
Lineares
Seja a transforma»c~ao linear T : V ¡! W , onde dim(V ) = n e dim(W ) = m, e sendo
dadas bases de V e W , respectivamente, pretendemos encontrar uma representa»c~ao
matricial para a transforam»c~ao linear T em rela»c~ao a estas bases. Enunciamos o
seguinte teorema:
Teorema 5.13
Seja a transforma»c~ao linear T : V ¡! W , onde dim(V ) = n e dim(W ) = m,
sendo fe1 ; e2 ; : : : ; en g base ordenada de V e fw1 ; w2 ; : : : ; wm g base ordenada de W .
Seja uma matriz [tij ], m £ n, cujos coe¯cientes s~ao representados por:
n
X
T (ek ) = tik wi ; k = 1; 2; : : : ; n
i=1

Ent~ao, um vetor arbitr¶ario x 2 V , onde


n
X
x= xk ek (¤)
k=1

¶e aplicado por T 2 W , onde


X
n
T (x) = xk uk (¤¤)
k=1

As componentes y1 ; y2 ; : : : ; ym est~ao relacionadas µas componentes x1 ; x2 ; : : : ; xn por:


n
X
yi = tik xk ; i = 1; 2; : : : ; m (¤ ¤ ¤)
k=1

Prova
Desde que T tem valores em W , cada elemento T (ek ) pode ser expresso unica-
mente como combina»c~ao dos vetores w1 ; w2 ; : : : ; wm da base de W , a saber:
m
X
T (ek ) = tik wi
i=1

onde t1k ; t2k ; : : : ; tmk s~ao as componentes de T (ek ) em rela»c~ao µa base fw1 ; w2 ; : : : ; wm g.
Podemos colocar a m-upla (t1k ; t2k ; : : : ; tmk ) como o vetor coluna:
2 3
t1k
6 7
6 t2k 7
6 . 7
6 . 7
4 . 5
tmk

95
Em seguida, podemos dispor cada vetor coluna para os n vetores T (e1 ); T (e2 ); : : : ; T (en )
na matriz [T ] como segue:
2 3
t11 t12 : : : t1n
6 7
6 t21 t22 : : : t2n 7
[T] = 6
6 .. .. ... .. 7
7
4 . . . 5
tm1 tm2 : : : tmn
Aplicando a matriz [T ] em cada membro da equa»c~ao (¤¤) e usando a rela»c~ao (¤),
obtemos:
X
n X
n X
m X
m X n X
m
T (x) = xk T (ek ) = xk tik wi = ( tik xk )wi = yi wi ;
k=1 k=1 i=1 i=1 k=1 i=1

onde cada componente yi ¶e dada por (¤ ¤ ¤).


Exemplo 1
Seja a transforma»c~ao linear T : R3 ¡! R2 dada por T (x) = (x1 + x2 ; x2 + x3 )
para cada x = (x1 ; x2 ; x3 ) 2 R3 . Temos que:
" # " # " #
1 1 0
T(e1 ) = ; T(e1 ) = ; T(e3 ) =
0 1 1
Desta forma, obtemos a matriz [T ], 2 £ 3, seguinte:
" #
1 1 0
[T] =
0 1 1
Exemplo 2
Seja T : R2 ¡! R2 o operador de rota»c~ao do vetor (x1 ; y1 ) 2 R2 de um ^angulo
µ. Temos que a matriz [T ] deste operador ¶e dada por:
" #
cos µ ¡ sin µ
[T] =
sin µ cos µ

que ¶e invert¶³vel, pois det[T ] = cos2 µ + sin2 µ = 1 6


= 0.
Temos que:
" # " #
cos(¡µ) ¡ sin(¡µ) cos µ sin µ
[T¡1 ] = [T]¡1 = =
sin(¡µ) cos(¡µ) ¡ sin µ cos µ
De¯ni»c~ ao 10
Dada a transforma»c~ao linear T : Rn ¡! Rm , onde B = fu1 ; u2 ; : : : ; un g base
0
de Rn e B = fw1 ; w2 ; : : : ; wm g base de Rm . A matriz can^onica A = [T ] desta
0
transforma»c~ao ¶e chamada a matriz de T em rela»c~ao µas bases B e B . Notamos por:

A[x]B = [T (x)]B 0 (1)

96
onde [x]B e [T (x)]B0 s~ao os vetores colunas em Rn e Rm , respectivamente.
Temos que, em particular, para os vetores da base B, u1 ; u2 ; : : : ; un :

A[u1 ]B = [T (u1 )]B0 ; A[u2 ]B = [T (u2 )]B0 ; : : : ; A[un ]B = [T (un )]B 0 (2)

Como
2 3 2 3 2 3
1 0 0
6 7 6 7 6 7
6 0 7 6 1 7 6 0 7
[u1 ]B = 6
6 .. 7 ; [u2 ] = 6
7 B 6 .. 7 ; : : : ; [un ] = 6
7 B 6 .. 7
7
4 . 5 4 . 5 4 . 5
0 0 1

obtemos:
2 3 2 3 2 3
t11 t12 t1n
6 7 6 7 6 7
6 t12 7 6 t22 7 6 t2n 7
A[u1]B = 6
6 .. 7 ; A[u2 ] = 6
7 B 6 .. 7 ; : : : ; A[un ] = 6
7 B 6 .. 7
7
4 . 5 4 . 5 4 . 5
tm1 tm2 tmn

Susbtituindo estes resultados em (2), obtemos:


2 3 2 3 2 3
t11 t12 t1n
6 7 6 7 6 7
6 t12 7 6 t22 7 6 t2n 7
[T(u1 )]B0 = 6
6 .. 7
7 ; [T(u 2 )]B0 = 6
6 ..
7 ; : : : ; [T(un )] 0 = 6
7 B 6 .. 7
7
4 . 5 4 . 5 4 . 5
tm1 tm2 tmn

Assim, escrevemos:

A = [[T (u1 )]B 0 [T (u2 )]B 0 : : : [T (un )]B0 ] (3)

Denotamos esta matriz tamb¶em pelo s¶³mbolo:

[T ]B 0 ;B (4)

Voltando em (1), vemos que esta matriz tem a seguinte propriedade:

[T ]B0 ;B [x]B = [T (x)]B 0 (5)

Observe o cancelamento ocorrido na f¶ormula (5), pelo fato do subscrito B ocorrer


duas vezes no lado esquerdo da mesma.
No caso especial de operadores lineares em que V = W , a matriz resultante
0
¶e chamada a matriz de T em rela»c~ao µa base B. Neste caso,uma vez que B = B ,
simplesmente escrevemos:

[T ]B 0 ;B = [T ]B (6)

97
e

[T ]B [x]B = [T (x)]B (7)

ou seja, a matriz de coordenada de T (x) ¶e matriz de T vezes a matriz de coordenadas


de x.
Exemplo 1
Dada a transforma»c~ao linear T : R2 ¡! R2 , dada por
" # " #
x1 x1 + x2
T = :
x2 ¡2x1 + 4x2

Tomando a base B = fu1 ; u2 g de R2 onde,


" # " #
1 1
u1 = ; u2 = ;
1 2

obtemos:
" # " #
1+1 2
[T(u1 )] = = = 2u1
¡2 £ 1 + 4 £ 1 2
e
" # " #
1+2 3
[T(u2 )] = = = 3u2
¡2 £ 1 + 4 £ 2 6

Portanto,
" #
h i 2 0
[T]B = [T (u1 )]B [T (u2 )]B =
0 3

Exemplo 2
Seja o operador linear D : P2 ¡! P1 , onde Pk (k = 1; 2) ¶e o espa»co vetorial dos
0
polin^omios de grau · k, dada por D(p) = p para cada p 2 P2 . Tomando as bases
0
ordenadas B = fx2 ; x; 1g e B = fx; 1g em P2 e P1 , respectivamente, obtemos:

D(x2 ) = 2x + 0; D(x) = 0x + 1; D(1) = 0x + 0


0
onde dispomos as componentes de D(x2 ); D(x) e D(1) em rela»c~ao µa base B =
fx2 ; x; 1g na forma do vetores colunas, seguintes:
" # " # " #
2 0 0
[D(x2 )]B0 = ; [D(x)]B0 = ; [D(1)]B0 =
0 1 0

98
Obtendo, assim, a matriz DB0 ;B correspondente a esta transforma»c~ao:
" #
2 0 0
DB0 ;B =
0 1 0

Se p(x) = ax2 + bx + c, o vetor de coordenadas de p em rela»c~ao µa base ordenada de


P2 ¶e:
2 3
a
6 7
[p(x)]B = 4 b 5
c

Para encontrar o vetor de coordenadas de D(p) em rela»c~ao µa base ordenada de p1 ,


basta multiplicar:
2 3
" # a " #
2 0 0 6 7 2a
4 b 5=
0 1 0 b
c

5.7 Mudan»ca de Base em Transforma»c~


oes Linear-
es
At¶e o presente momento, ¯xamos uma base B no espa»co vetorial V , onde de¯nimos
a transforma»c~ao linear. Vamos tratar nesta se»c~ao da muda»ca de base no espa»co
0
vetorial V e como ¯ca de¯nida a transforma»c~ao linear usando esta nova base B .
De¯ni» c~
ao 11
0
Sejam B = fu1 ; u2 ; : : : ; un g uma base do espa»co vetorial V e B = fv1 ; v2 ; : : : ; vn g
uma nova base de V . Suponhamos que:

vi = ai1 + ai2 + : : : + ain ; i = 1; 2; : : : ; n;

onde aik ; k = 1; 2; : : : ; n s~ao os vetores coluna da k-¶esima coluna. Assim, na forma


matricial, escrevemos:
2 3 2 32 3
v1 a11 a12 : : : a1n u1
6 7 6 76 7
6 v2 7 6 a21 a22 : : : a2n 7 6 u2 7
6 . 7=6 . .. . . .. 7 6 7
6 . 7 6 . 76 . 7
4 . 5 4 . . . . 5 4 .. 5
vn an1 an2 : : : ann un

ou seja,

v = Au;

99
onde v = [v1 v2 : : : vn ]t e u = [u1 u2 : : : un ]t , e A, a matriz n £ n acima.
A matriz P = At ¶e chamada matriz de transi»c~ao da base "velha" B para a base
0
"nova" B .
Propriedade
1 - A matriz de transi»c~ao de base P ¶e invert¶³vel, e sua inversa P ¡1 ¶e a matriz
0
de transi»c~ao da base B para a base B;
2 - Seja P , a matriz de transi»c~ao da base can^onica E 2 Rn para outra base B.
Ent~ao, P ¶e a matriz cujas colunas s~ao precisamente os vetores colunas u1 ; u2 ; : : : ; un ;
0
2 - Seja P , a matriz de transi»c~ao de uma base B para outra base B em V .
Ent~ao, para qualquer v 2 V , temos:

P [v]B0 = [v]B

e da¶³, temos:

P ¡1 [v]B = [v]B0

Damos, o seguinte teorema:


Teorema 5.14
0
Seja P a matriz de transi»c~ao de uma base B para uma outra base B em um
espa»co vetorial V . Ent~ao, para qualquer transforma»c~ao linear T : V ¡! V ,

[T ]B 0 = P ¡1 [T ]P

Ou seja, se A ¶e matriz que representa a transforma»c~ao linear T na base B de V ,


0
ent~ao C = P ¡1 AP ¶e a matriz que representa T em uma nova base B , onde P ¶e a
0
matriz de transi»c~ao da base B para a base B .
Prova
Seja um vetor v 2 V qualquer. Ent~ao, pela propriedade 2) anterior temos:

P [v]B0 = [v]B

Portanto,

P ¡1 [T ]B P [v]B 0 = P ¡1 [T ]B [v]B = P ¡1 [T (v)]B = [T (v)]B 0 :

Mas, [T ]B0 [v]B0 = [T (v)]B0 .


Como na aplica»c~ao v ¡! [v]B ¶e sobre Rn , temos:

(P ¡1 [T ]B P )[x] = [T ]B0 [x]; 8x 2 Rn :

Assim,

(P ¡1 [T ]B P ) = [T ]B0 :

100
Exemplo 1
Consideremos as seguintes bases em R2 :

E = fe1 = (1; 0); e2 = (0; 1)g e B = fu1 = (1; ¡2); u2 = (2; ¡5)g:

Como os vetores E ¶e formado pela base can^onica, escrevemos P como os vetores


coluna de B, ou seja:
" #
1 2
P=
¡2 ¡5

Seja o operador linear T : R2 ¡! R2 , dado por:


" # " #
x1 2x1 ¡ 3x2
T = :
x2 4x1 + x2
Temos que:
" #
2
[T(e1 )] =
4
e
" #
¡3
[T(e2 )] =
1
e assim, a representa»c~ao usual de T na base can^onica E ¯ca:
" #
2 ¡3
A=
4 1
Desta forma, a representa»c~ao matricial de T em rela»c~ao µa base B, ¯ca:
" #" #" # " #
5 2 2 ¡3 1 2 44 101
C = P¡1 AP = =
¡2 ¡1 4 1 ¡2 ¡5 ¡18 ¡41
Exemplo 2
Seja o operador linear T : P2 ¡! P1 , onde Pk (k = 1; 2) ¶e o espa»co vetorial dos
polin^omios de grau · k, dada por T (p(x)) = x p(x) para cada p 2 P2 . Tomando as
0
bases ordenadas E = f1; xg e E = f1; x; x2 g em P1 e P2 , respectivamente, obtemos:

T (1) = x; T (x) = x2
0
onde dispomos as componentes de T (1) e T (x) em rela»c~ao µa base E = f1; x; x2 g na
forma do vetores colunas, seguintes:
2 3 2 3
0 0
6 7 6 7
[T(1)]E0 = 4 1 5 ; [T(x)]E0 = 4 0 5
0 1

101
Obtendo, assim, a matriz TE0 ;E correspondente a este operador:
2 3
0 0
6 7
TE0 ;E =4 1 0 5
0 1
0
Seja a base B = f1; 1 + x; x + x2 g de P2 . Vamos escrever [T ]B 0 ;E .
Temos que:
2 3
1 1 0
6 7
P=4 0 1 1 5
0 0 1
0 0
¶e a matriz de mudan»ca (transi»c~ao) da base B para a base can^onica E (P [v]E 0 =
[v]B 0 ).
Calculando P ¡1 , obtemos:
2 3
1 ¡1 1
¡1 6 7
P =4 0 1 ¡1 5 ;
0 0 1
0 0
que ¶e a matriz de mudan»ca da base E para a base B de P2 .
Da¶³, obtemos:
2 32 3 2 3
1 ¡1 1 0 0 ¡1 1
¡1 6 7 6 7 6 7
[T]B0 ;E = P [T]E0 ;E = 4 0 1 ¡1 5 4 1 0 5 = 4 1 ¡1 5
0 0 1 0 1 0 1

Observe, neste exemplo, que s¶o houve mudan»ca de base na imagem do operador
linear.

5.8 Isomor¯smo entre Transforma»c~


oes Lineares
Vimos na se»c~ao 5.5 para que a transforma»c~ao linear T ser invert¶³vel ¶e necess¶ario e
su¯ciente que ela seja injetiva e sobrejetiva, ou seja, bijetiva.
De¯ni» ao 13 Uma transforma»c~ao T : V ¡! W ¶e um isomor¯smo, ou ainda, os
c~
espa»cos V e W s~ao isomorfos quando a transforma»ca~o T ¶e uma bije»c~ao linear entre
V e W.
Al¶em do mais, se T : V ¡! W e S : W ¡! Z s~ao isomor¯smos, ent~ao T ¡1 :
W ¡! V e ST : V ¡! Z s~ao isomor¯smos. Assim, tem-se (ST )¡1 = T ¡1 S ¡1 e,
para ® 6= 0, (®T )¡1 = ®1 T ¡1 .

102
Um isomor¯smo T : V ¡! W transforma toda base de V numa base de W .
Reciprocamente, se uma transforma»c~ao linear T : V ¡! W leva alguma base de V
numa base de W , ent~ao a transforma»c~ao T ¶e um isomor¯smo.
Teorema 5.15
Sejam V e W dois espa»cos vetoriais de dimens~ao ¯nita. V e W t^em a mesma
dimens~ao () existe um isomor¯smo entre eles.
Prova
=) Seja V um espa»co vetorial de dimens~ao ¯nita n. Fixando uma base fv1 ; v2 ; : : : ; vn g ½
V , podemos de¯nir uma transforma»ca~o linear T : Rn ¡! V colocando para v =
(®1 ; ®2 ; : : : ; ®n ) 2 Rn ; T (v) = ®1 v1 + ®2 v2 + : : : + ®n vn . Temos que: T (e1 ) =
®1 v1 ; T (e2 ) = ®2 v2 ; : : : ; T (en ) = ®n vn . Assim, T transforma a base can^onica
fe1 ; e2 ; : : : ; en g ½ Rn na base fv1 ; v2 ; : : : ; vn g ½ V . Portanto, T ¶e um isomor-
¯smo entre Rn e V . Ou seja, todo espa»co vetorial de dimens~ao ¯nita n ¶e isomorfo
µa Rn .
(= Sejam os isomor¯smos T : Rn ¡! V e S : Rn ¡! W . Como o inverso
T ¡1 : V ¡! Rn e o produto ST ¡1 : V ¡! W s~ao isomor¯smos, temos que V e W
t^em a mesma dimens~ao n.
Exemplo 1
O espa»co Pn , dos polin^omios de grau · n tem dimens~ao n + 1. Portanto, Pn ¶e
isomorfo µa Rn+1 .
Exemplo 2
O espa»co M (m £ p), das matrizes retangulares m £ p, ¶e isomorfo µa Rmp . Por
exemplo, o espa»co das matrizes quadradas M (2 £ 2) ¶e isomorfo µa R4 . Mais precisa-
mente, podemos de¯nir uma transforma»c~ao linear bijetiva T : M(2 £ 2) ¡! R4 ,
levando a base ordenada de M (2 £ 2):
" # " # " # " #
1 0 0 1 0 0 0 0
f ; ; ; g
0 0 0 0 1 0 0 1

na base can^onica ordenada de R4 : fe1 ; e2 ; e3 ; e4 g.

103
Exerc¶³cios Cap¶³tulo V
1 - Em cada item a seguir, use a matriz can^onica da transforma»c~ao T para
encontrar T (x). Em seguida, con¯ra o resultado calculando T (x) diretamente.
a) T (x1 ; x2 ) = (¡x1 + x2 ; x2 ), onde x = (¡1; 4);
b) T (x1 ; x2 ; x3 ) = (2x1 ¡ x2 ; x2 + x3 ; 0), onde x = (2; 1; ¡3).
2 - Use multiplica»c~ao matricial para encontrar a re°ex~ao do vetor (¡1; 2),
a) no eixo ¡ x;
b) no eixo ¡ y;
c) na reta y = x.
3 - Use multiplica»c~ao matricial para encontrar a re°ex~ao do vetor (2; ¡5; 3),
a) no plano ¡ xy;
b) no plano ¡ xz;
c) no plano ¡ yz.
4 - Use multiplica»c~ao matricial para encontrar a proje»c~ao ortogonal do vetor
(2; ¡5),
a) sobre o eixo ¡ x;
b) sobre o eixo ¡ y.
5 - Use multiplica»c~ao matricial para encontrar a proje»c~ao ortogonal do vetor
(¡2; 1; 3),
a) sobre o plano ¡ xy;
b) sobre o plano ¡ xz;
c) sobre o plano ¡ yz.
6 - Use multiplica»c~ao matricial para encontrar a imagem do vetor (3; ¡4) quando
este for rotacionado de um ^angulo de:
a) µ = 30± ; b) µ = ¡60± ;
c) µ = 45± ; d) µ = 90± .
7 - Use multiplica»c~ao matricial para encontrar a imagem do vetor (¡2; 1; 2)
quando este for rotacionado de um a^ngulo de:
a) µ = 30± em torno do eixo ¡ x;
b) µ = 45± em torno do eixo ¡ y;
c) µ = 90± em torno do eixo ¡ z.
8 - Encontre a matriz can^onica do operador que efetua a rota»c~ao de um vetor
em R3 por um ^angulo de µ = ¡60±
a) em torno do eixo ¡ x;
b) em torno do eixo ¡ y;
c) em torno do eixo ¡ z.

104
9 - Use multiplica»c~ao matricial para encontrar a imagem do vetor (¡2; 1; 2)
quando este for rotacionado de um a^ngulo de:
a) µ = ¡30± em torno do eixo ¡ x;
b) µ = ¡45± em torno do eixo ¡ y;
c) µ = ¡90± em torno do eixo ¡ z;
d) sobre o plano ¡ xz;
10 - Sejam B = fu1 ; u2 ; u3 g uma base para o espa»co vetorial R3 e T : R3 ¡! R3
um operador linear tal que:
2 3
¡3 4 7
6 7
[T]B = 4 1 0 ¡2 5
0 1 0
0
Encontre [T ]B 0 , sendo B = fv1 ; v2 ; v3 g a base de R3 de¯nida por v1 = u1 ,v2 = u1 +u2
e v3 = u1 + u2 + u3 .

105
Cap¶³tulo 6

Subespa»cos Ortogonais. Proje»c~


oes
em subespa» cos ortogonais.
Aplica»
c~oes

6.1 Introdu»c~
ao
No Cap¶³tulo 3 de¯nimos ortogonalidade de vetores em Rn . Vamos utilizar este
conceito de ortogonalidade nos quatro subespa»cos fundamentais (R(A),R(At ),N (A)
e N(At ))( ver Strang [8]). Antes por¶em, vamos estabelecer a liga»c~ao da ortogonali-
dade com a independ^encia linear entre vetores ortogonais.
Teorema 6.1
Se os vetores v1 ; v2 ; : : : ; vk 2 Rn s~ao mutuamente ortogonais, ent~ao eles s~ao
linearmente independentes.
Prova
Vamos tomar a combina»c~ao linear nula c1 v1 + c2 v2 + : : : + ck vk = 0. Vamos
mostrar que ci = 0; 8i = 1; 2; : : : ; k, tomando como hip¶otese que v1 ; v2 ; : : : ; vk 2 Rn
s~ao mutuamente ortogonais.
Para mostrar que c1 = 0, fazemos o produto interno:

v1t ¢ (c1 v1 + c2 v2 + : : : ck vk ) = v1t 0 = 0

Desta forma, c1 v1t v1 = 0, pois v1t vi = 0 8i 6


= 1 e como v1t v1 6
= 0 , tem-se: c1 = 0.
Fazemos o mesmo para cada ci , i = 2; 3; : : : ; k, ou seja:

vit ¢ (c1 v1 + c2 v2 + : : : + ck vk ) = vit 0 = 0

Assim, ci vit vi = 0 8i 6
= k e como vit vi 6 = 0 , tem-se: ci = 0 8i = 2; 3; : : : ; k.
n
Logo, os vetores v1 ; v2 ; : : : ; vk 2 R s~ao linearmente independentes.

106
6.2 Subespa»cos Ortogonais
Vamos iniciar esta se»c~ao enunciando o teorema sobre a ortogonalide entre os sube-
spa»cos fundamentais para uma matriz A, m £ n.
Teorema 6.2
O espa»co linha de A; (R(At )) de uma matriz retangular A, m £ n, ¶e ortogonal ao
espa»co nulo de A; (N(A)) (em Rn ). O espa»co coluna de A; (R(A)) de uma matriz
retangular A, m£ n, ¶e ortogonal ao espa»co nulo µa esquerda de A; (N (At )) (em Rm ).
Prova
Suponha que x 2 N (A); x 2 Rn e v 2 R(At ). Ent~ao, Ax = 0 e v = At z
para lagum vetor z 2 Rm , onde v ¶e a combina»c~ao linear das linhas de A. Devemos
mostrar que v t x = 0.
De fato:

v t x = (At z)t x = z t Ax = z t 0 = 0:

De forma similar, suponha que y 2 N (At ); y 2 Rm e v 2 R(A). Ent~ao, At y = 0


ou y t A = 0 e v = Az para lagum vetor z 2 Rn , onde v ¶e a combina»c~ao linear das
colunas de A. Devemos mostrar que v t y = 0.
De fato:

v t y = (Az)t y = z t At y = z t 0 = 0:

Ilustra»c~
ao

2 32 3 2 3
linha 1 x1 0
6 76 7 6 7
6 linha 2 7 6 x2 7 6 0 7
Ax = 6
6 .. 7 6 7 6
7 6 .. 7 = 6 .. 7
7
4 . 54 . 5 4 . 5
linha m xn 0
2 3
0
h ih i 6 7
6 0 7
t
y A= y1 y2 ¢ ¢ ¢ ym coluna 1 coluna 2 ¢ ¢ ¢ coluna n =6
6 .. 7
7
4 . 5
0
Exemplo
Seja a matriz A, 3 x 2, cujo posto(A) = 1, abaixo:
2 3
1 3
6 7
A=4 2 6 5
3 9

107
ultiplas do vetor (1; 3) e s~ao ortogonais ao vetor (¡3; 1) 2
As linhas da matriz A s~ao m¶
N(A).
De fato:
" # " # " #
h i x h i x h i x
1 1 1
1 3 = 0; 2 6 = 0; 3 9 =0
x2 x2 x2
Observe que R(At ) e N(A) s~ao retas em R2 . Em contraste, R(A) ¶e uma reta
com vetor dire»c~ao
2 3
1
6 7
4 2 5
3
e N (At ) ¶e o plano de equa»c~ao 1y1 + 2y2 + 3y3 = 0, uma vez que y t A = 0.
Podemos estabelecer agora, o seguinte corol¶ario:
Corol¶ ario 1
O epa»co nulo de A; (N (A)) ¶e o complemento ortogonal do espa»co linha de
A; (R(At )) em Rn, ou seja, N (A)t = R(At ) . O espa»co nulo µa esquerda de A; (N(At ))
¶e o complemento ortogonal ao espa»co coluna de A; (R(A)) em Rm , ou seja, N (At )t =
R(A).
Prova A prova se baseia nos resultados do teorema anterior e na de¯ni»c~ao de
complemento ortogonal.
Queremos saber quando a equa»c~ao linear Ax = b ¶e sol¶ uvel sob a ¶otica dos
subespa»cos fundamentais. Assim, damos o seguinte teorema:
Teorema 6.3
A equa»c~ao linear Ax = b ¶e sol¶uvel () bt y = 0 sempre que At y = 0.
Prova A prova ¶e decorrente dos resultados anteriores.
Como resultado direto temos que: "o vetor b deve ser combina»c~ao linear das
colunas de A". E como resultado indireto temos que: "o vetor b deve ser ortogonal
a todo vetor que ¶e ortogonal µas colunas de A".
Exemplo
Seja o seguinte sistema linear:
x1 ¡ x2 = b1
x2 ¡ x3 = b2
x3 ¡ x1 = b3
que na forma matricial se escreve:
2 32 3 2 3
1 ¡1 0 x1 b1
6 76 7 6 7
4 0 1 ¡1 5 4 x2 5 = 4 b2 5
¡1 0 1 x3 b3

108
uvel para b1 +b2 +b3 = 0,
Somando todas as equa»c~oes, temos que o sistema linear ¶e sol¶
ou seja, quando o vetor
2 3 2 3
b1 1
6 7 6 7
b = 4 b2 5 ¶e ortogonal ao vetor y = 4 1 5
b3 1

Isto torna mais f¶acil que checar com todas as colunas.

6.3 A matriz A e Subespa»cos Fundamentais


Quando o espa»co vetorial Rn ¶e decomposto em dois subespa»cos ortogonais todo
vetor x 2 Rn se escrve como x = v © w v 2 V; w 2 W , onde V e W s~ao subespa»cos
ortogonais em Rn . O vetor v ¶e a proje»c~ao do vetor x em V e o vetor w ¶e a proje»c~ao
ortogonal do vetor x em W, onde W = V ? . (Figura 6.1 )

Figura 6.1: Proje»c~ao Ortogonal

Vamos de¯nir uma aplica»c~ao do espa»co linha de A, R(At ) no espa»co coluna de A,


R(A). Temos que os subespa»co R(At ) e N(A) s~ao complementos ortogonais em Rn
e os subespa»cos R(A) e N(At ) s~ao complementos ortogonais em Rm . O espa»co nulo
de A, N (A) ¶e levado no vetor nulo em Rm e por outro lado, nada ¶e levado no espa»co
nulo µa esquerda de A, N(At ). Para analisar a a»c~ao do espa»co linha de A,R(AT ) e o
espa»co nulo de A,N (A), tomamos um vetor x 2 Rn escrito nas componentes xlinha
e xnulo destes espa»cos, respectivamente, como x = xlinha + xnulo . Aplicando a matriz
A neste vetor x, obtemos:

Ax = Axlinha + Axnulo = Axlinha + 0 = Axlinha

109
Damos o seguinte teorema:
Teorema 6.4
A aplica»c~ao do espa»co linha no espa»co coluna ¶e invert¶³vel. Todo vetor b 2 Rm
no espa»co coluna ¶e imagem de um u ¶ nico vetor xlinha 2 Rn , no espa»co linha.
Prova Se o vetor b est¶a no espa»co coluna, ^ele ¶e uma combina»c~ao linear Ax das
colunas de A. Com efeito, ^ele ¶e Axlinha , com xlinha no espa»co linha, uma vez que as
componentes do espa»co nulo de A d~ao Axnulo = 0. Seja um outro vetor ylinha no
espa»co linha dando Aylinha = b, assim obtemos A(xlinha ¡ ylinha ) = b ¡ b = 0. Da¶³,
temos que xlinha ¡ ylinha pertence ao espa»co nulo de A e espa»co linha de A, e como
estes s~ao complementares temos que xlinha ¡ ylinha = 0, ou seja: xlinha = ylinha .
Logo, um u ¶ nico vetor do espa»co linha de A ¶e levado no vetor b 2 Rm .
Conclus~ ao
"Toda matriz A, m £ n, transforma seu espa»co linha no seu espa»co coluna."
Nestes espa»cos r- dimensionais, a matriz A ¶e invert¶³vel quando o seu espa»co nulo
¶e zero. Quando vamos na dire»c~ao oposta,ou seja, quando aplicamos At de R(A) para
R(At ), ela n~ao de¯ne a aplica»c~ao inversa. At move os espa»cos corretamente, mas
esta aplica»c~ao n~ao ¶e biun¶³voca. Temos que A¡1 existe () posto(A) = r = m = n.
Quando falha a exist^encia de A¡1 , procuramos sua substituta natural. Ela ¶e
chamada pseudoinversa, e a denotamos por A+ . Ela inverte a matriz A quando ¶e
poss¶³vel: A+ Ax = x para x 2 R(At ). No espa»co nulo µa esquerda nada pode ser
feito:A+ y = 0.

6.4 Proje»c~
ao em Subespa»cos
Suponhamos que dado um ponto b 2 Rn queremos encontrar sua dist^ancia a uma
reta com vetor dire»c~ao a 2 Rn . Queremos encontrar nesta reta um ponto p, o mais
pr¶oximo de b. Geometricamente, temos em R3 , a reta que liga o ponto b ao ponto
p ¶e perpendicular ao vetor a. (Veja Figura 6.2)
A situa»c~ao ¶e a mesma quando, ao inv¶es de uma reta na dire»c~ao do vetor a, temos
um plano em uma dada dire»c~ao - ou mais geralmente, qualquer subespa»co S de Rn .
Neste caso, o problema consiste em encontrar o ponto p no subespa»co S que ¶e mais
pr¶oximo de b. Este ponto p ¶e a proje»c~ao de b neste subepa»co S. Quando projetamos
b em S, p ¶e um ponto onde a perpendicular encontra o subespa»co S.
Uma das aplica»c~oes desta proje»c~ao consiste exatamente no problema da solu»c~ao
pelo m¶etodo dos m¶³nimos quadrados para um sistema sobredeterminado. Neste
problema, o vetor b representa os dados, por exemplo, coletados de um experimento,
e estes dados contem alguns erros neste subespa»co. Quando queremos escrever o

110
Figura 6.2: Proje»c~ao em Subespa»cos

vetor b como uma combina»c~ao linear dos vetores da base neste subespa»co, isto n~ao
pode ser feito, pois as equa»c~oes s~ao inconsistentes e n~ao t^em solu»c~ao."O m¶etodo dos
m¶³nimos quadrados seleciona o ponto p como uma melhor escolha poss¶³vel.
Retornando ao Cap¶³tulo 1, dados dois vetores a e b 2 Rn , com a 6 = 0 podemos
t t
de¯nir o vetor ta, onde t = a b=a a, como a proje»c~ao do vetor b ao longo do vetor
a. Assim, a proje»c~ao p deve ser um m¶ ultiplo do vetor a, que aqui escrevemos como:
p = xa, onde queremos encontrar x. Usando a interpreta»c~ao geom¶etrica em R3 ,
temos que o segmento de reta que vai de b µa p = xa ¶e perpendicular ao vetor a:

(b ¡ a)?a () at (b ¡ xa) = 0 () x = at b=at a

Assim, de¯nimos:
De¯ni»c~
ao 1
De¯nimos a proje»c~ao b na reta que passa pela origem 0 e dire»c~ao a como:

at b
p = xa = a
at a
Em R3 , temos a seguinte interpreta»c~ao correta para p. (Figura abaixo)
Temos que k b ¡ p k2 n~ao pode ser negativa, assim:

at b 2 t (at b)2 at b 2 t (bt b)(at a) ¡ (at b)2


k b¡ a k = b b ¡ 2 + ( ) a a = ¸0
at a at a at a at a
O numerador (bt b)(at a) ¡ (at b)2 nunca ¶e negativo, assim, podemos extrair a raiz
quadrada na espress~ao (bt b)(at a) ¸ (at b)2 , encontrando a desigualdade de Cauchy

111
Schwarz:

j at b j·k a k k b k

Vimos que esta igualdade ¶e v¶alida quando o vetor b ¶e m¶ ultiplo do vetor a. O


^angulo µ entre a e b ¶e +1 e ¡1. Neste caso, b ¶e identi¯cado com sua proje»c~ao p e a
dist^ancia entre b e a reta de dire»c~ao a ¶e zero.
Proje»c~oes de posto 1
A proje»c~ao do vetor b na reta que passa pela origem 0 e dire»c~ao do vetor a pode
ser escrita como:
at b
p=a :
at a
Nesta f¶ormula, colocamos propositalmente o n¶
umero

at b
x=
at a
ap¶os o vetor a. Procedendo desta forma, escrevemos:

p = Pb

onde
aat
P =
at a
P ¶e de¯nida como a matriz de proje»c~ao que multiplicada pelo vetor b produz a
proje»c~ao p.
Observe que o produto de um vetor coluna por um vetor linha d¶a uma matriz
quadrada, que em seguida, ¶e dividida pelo n¶umero at a.
Exemplo 1
A matriz P que projeta na reta de dire»ca~o de a = (1; 1; 1) ¶e:
2 3 2 3
1 1=3 1=3 1=3
aat 1 6 7h i
6 7
P = t = 4 1 5 1 1 1 = 4 1=3 1=3 1=3 5
aa 3
1 1=3 1=3 1=3

Esta matriz tem duas propriedades b¶asicas da matriz de proje»c~ao:


i) P ¶e uma matriz quadrada;
ii) e P 2 = P .
Tamb¶em, neste exemplo, conforme quatro subespa»cos fundamentais vemos que:
i)posto(P ) = 1;
ii)O espa»co coluna (R(P )) consiste da reta na dire»c~ao do vetor a = (1; 1; 1);

112
iii) O espa»co nulo N(P ) consiste do plano perpendicutar µa a.
Toda coluna ¶e um m¶ ultiplo do vetor a, de modo que P b est¶a na reta de dire»c~ao a.
Estes vetores que projetam em p = 0 s~ao especialmente importantes. Eles ^ satisfazem
a rela»c~ao at b = 0, isto ¶e, eles s~ao perpendiculares ao vetor a e suas componentes ao
longo da reta s~ao nulas. Eles^ pertencem ao plano perpendicular, que ¶e o espa»co nulo
de P .
Por outro, lado como a matriz P ¶e sim¶etrica, o espa»co linha ¶e igual ao espa»co
coluna.
Exemplo 2
Vamos tomar a proje»c~ao no plano-xy na dire»c~ao do ^angulo µ. A reta tem dire»c~ao
a = (cos µ; sen µ) e a matriz de proje»c~ao ¶e:
" #
c h i
c s " #
aat s c2 cs
P= t = " #=
aa h i c cs s2
c s
s
onde c = cos µ; s = sen µ e c2 + s2 = 1.
Vimos esta matriz de proje»c~ao em transforma»c~oes lineares.

6.5 Proje»c~
oes e Aproxima»c~
ao pelos M¶³nimos Quadra-
dos
Vimos que o sistema linear Ax = b tem ou n~ao solu»c~ao. Se o vetor b n~ao est¶a no
espa»co coluna, (R(A)),o sistema linear ¶e inconsistente e n~ao temos como resolver
o sistema linear. Contudo, existem situa»c~oes pr¶aticas em que erros em algumas
das equa»c~oes provocam inconsit^encia do sistema linear. Um exemplo cl¶assico disso ¶e
quando temos diversas medidas de valores (x; y) no plano e queremos encontrar a reta
que passa por estes pontos. Geralmente, procuramos o valor do vetor x 2 Rn que
minimiza a m¶edia do erro nas m equa»c~oes dadas. Como existem diversas maneiras
de calcular esta m¶edia, ¶e mais conveniente tomar a soma dos quadrados dos erros.
Caso 1: Regress~ ao linear simples
Vamos descrever o M¶etodo da Regress~ao Linear usando o seguinte exemplo:
Exemplo
Seja o sistema linear a uma vari¶avel:
2x = b1
3x = b2
4x = b3

113
A solu»c~ao x deste problema existe somente quando o vetor b = (b1 ; b2 ; b3 ) est¶a
na mesma dire»c~ao da reta de dire»c~ao a = (2; 3; 4). Apesar da insolubilidade do
sistema linear, equa»co~es inconsistentes aparecem na pr¶
atica e o problema deve ser
resolvido. Assim, apelamos pelo M¶etodo de Aproxima»c~ao pelo M¶³nimos Quadrados
que consiste em encontrar um valor de x que minimiza a m¶edia dos erros nas m
equa»c~oes (m = 3, no exemplo dado). Existem diversas maneiras de se de¯nir tal
m¶edia, mas a mais conveniente ¶e a soma dos quadrados.

E 2 = (2x ¡ b1 )2 + (3x ¡ b2 )2 + (4x ¡ b3 )2

Quando a solu»c~ao existe, o erro m¶³nimo ¶e E = 0. Caso n~ao exista, o m¶³nimo ser¶a
dado pelo valor de x quando a derivada primeira da fun»ca~o par¶abola E 2 ¶e igual a
zero, ou seja, quando:

dE 2
= 2((2x ¡ b1 )2 + (3x ¡ b2 )3 + (4x ¡ b3 )4) = 0
dx
Resolvendo esta equa»c~ao em x, obtemos a solu»c~ao pelos m¶³nimos quadrados do
sistema linear ax = b:
2b1 + 3b2 + 4b3
x=
22 + 32 + 42
Identi¯camos, nesta equa»c~ao, o valor at b no numerador e o valor at a no denominador.
No caso geral para m equa»c~oes, pretendemos resolver o sistema linear ax = b
minimizando a fun»c~ao:

E 2 = (a1 x ¡ b1 )2 + (a2 x ¡ b2 )2 + ¢ ¢ ¢ + (am x ¡ bm )2

Igualando a derivada de E 2 µa zero, obtemos:

dE 2
= 2((a1 x ¡ b1 )a1 + (a2 x ¡ b2 )a2 + ¢ ¢ ¢ + (am x ¡ bm )am ) = 0
dx
e assim, escrevemos:
"A solu»c~ao pelos M¶etodo dos M¶³nimos Quadrados ¶e dada por:

at b
x= :"
at a
A interpreta»c~ao geom¶etrica para o M¶etodo dos M¶³nimos Quadrados nos indica que
a reta que liga b ao ponto p na reta de dire»c~ao do vetor a deve ser perpendicular µa
a, ou seja:

at b t
at (b ¡ xa) = at b ¡ a a = 0:
at a
114
Caso 2: M¶ etodo dos M¶³nimos Quadrados Multivari¶ avel
Vamos considerar o problema similar ao anterior, onde agora x 2 Rn ; b 2 Rm .
Neste caso, temos de considerar o sistema linear

Ax = b

onde, A ¶e uma matriz, m £ n, e esperamos que o sistema linear seja inconsistente.


Vamos considerar o erro:

E =k Ax ¡ b k

que ¶e exatamente a dist^ancia do vetor b ao ponto Ax no espa»co coluna da matriz A.


Queremos encontrar a solu»c~ao x pelo M¶etodo dos M¶³nimos Quadrados que minimiza
a fun»c~ao E 2 . Esta solu»c~ao localiza-se no ponto p = Ax o mais pr¶oximo de b do que
qualquer ponto do espa»co coluna da matriz A.
Usando o apelo geom¶etrico em R3 para calcular x, temos que: "p deve ser
a proje»c~ao de b no espa»co coluna da matriz A". O vetor erro b ¡ Ax deve ser
perpendicular a este espa»co coluna de A, conforme ilustrado na ¯gura a seguir:
O c¶alculo de x e a proje»c~ao p = Ax ¶e feito em duas etapas:
1 - Os vetores ortogonais ao espa»co coluna est~ao no espa»co nulo µa esquerda de
A. Assim, o vetor erro b ¡ Ax deve estar no espa»co nulo de At :

At (b ¡ Ax) = 0 ou At Ax = At b;

2 - O vetor erro b ¡ Ax deve ser ortogonal a cada vetor coluna de A:


at1 (b ¡ Ax) = 0
at2 (b ¡ Ax) = 0
..
.
atn (b ¡ Ax) = 0
ou na forma matricial:
2 3
at1
6 7h i
6 at2 7
6 .. 7 b ¡ Ax = 0
6 7
4 . 5
atn
Esta ¶e a equa»c~ao At (b ¡ Ax) = 0 ou At Ax = At b, chamada de Equa»c~ao Normal.
Assim, escrevemos o seguinte resultado:
"A solu»c~ao pelo M¶etodo do M¶³nimos Quadrados de um sistema linear inconsis-
tente Ax = b, com m equa»c~oes e n inc¶ognitas satisfaz:

At Ax = At b

115
Se as colunas da matriz A s~ao linearmente independntes, ent~ao At A ¶e invert¶³vel e

x = (At A)¡1 At b:

A proje»c~ao do vetor b no espa»co coluna de A ¶e portanto:

p = Ax = A(At A)¡1 At b":

Exemplo
Seja encontrar a solu»c~ao pelo M¶etodo do M¶³nimos Quadrados do sistema linear:

x1 ¡ x2 = 4
3x1 + 2x2 = 1
¡2x1 + 4x2 = 3

e seja encontrar a proje»c~ao ortogonal do vetor b no espa»co coluna da matriz A.


Solu»c~
ao:
Temos que:
2 3 2 3
1 ¡1 4
6 7 6 7
A=4 3 2 5 eb = 4 1 5
¡2 4 3

Observe que as colunas da matriz A s~ao linearmente independentes, portanto existe


uma u
¶nica solu»c~ao pelo M¶etodo do M¶³nimos Quadrados. Temos que:
2 3
" # 1 ¡1 " #
1 3 ¡2 6 7 14 ¡3
At A = 4 3 2 5 =
¡1 2 4 ¡3 21
¡2 4
e
2 3
" # 4 " #
1 3 ¡2 6 7 1
At b = 4 1 5 =
¡1 2 4 10
3

e portanto, o Sistema Normal At Ax = At b, neste caso, ¯ca:


" #" # " #
14 ¡3 x1 1
=
¡3 21 x2 10

cuja solu»c~ao ¶e:


17 143
x1 = ; x2 = :
95 285
116
A proje»c~ao ortogonal do vetor b no espa»co coluna da matriz A ¶e:
2 3 2 3
1 ¡1 " 17 # ¡92
285
6 7 95 6 7
p = Ax = 4 3 2 5 143 = 4 439
285 5
285 94
¡2 4 57

ou seja:

x1 ¡ x2 = ¡0:3228
3x1 + 2x2 = 1:5404
¡2x1 + 4x2 = 1:6491

Observe que:
3 2
h i 4:3228
6 7
at1 (b ¡ Ax) = 1 3 ¡2 4 ¡0:5404 5 = 0
1:3509

2 3
h i 4:3228
6 7
at2 (b ¡ Ax) = ¡1 2 4 4 ¡0:5404 5 = 0
1:3509

onde o vetor erro E = (4:3228; ¡0:5404; 1:3509).

6.6 Matrizes Ortogonais e ortogonaliza»c~


ao de Gram-
Schmidt
Nesta se»c~ao trataremos dos seguinte t¶opicos:
1 - De¯ni»c~ao e propriedades de matrizes ortogonais (Q);
2 - A solu»c~ao de Qx = b, ordin¶aria e pelo M¶etodo dos M¶³nimos Quadrados;
3 - O processo de ortogonaliza»c~ao de Gram-Schmidt e sua interpreta»c~ao como
uma nova fatoriza»c~ao A = QR.
1 - Matrizes Ortogonais
De¯ni» c~
ao 2
Uma matriz ortogonal Q ¶e simplesmente uma matriz quadrada, n £ n, com
vetores colunas ortonormais, isto ¶e, as colunas da matriz Q ¶e constituida dos vetores
q1 ; q2 ; : : : ; qn tais que:

qit qj = ±ij ;

117
onde
(
1 se i = j
±ij =
0 se i 6
=j
Propriedades
1 - Se as colunas da matriz Q, n £ n, s~ao ortonormais ent~ao:
2 3 2 3
q1t 1 0 ::: 0
6 t 7h i 6 7
6 q2 7 6 0 1 ::: 0 7
Qt Q = 6 7 6
6 .. 7 q1 q2 : : : qn = 6 .. .. . . .
7
7
4 . 5 4 . . 0 5
t
qn 0 0 ::: 1

Portanto, Qt Q = I () Qt = Q¡1 .
Exemplo 1
Seja a matriz de rota»c~ao dada no cap¶³tulo anterior:
" #
cos µ ¡sen µ
Q=
sen µ cos µ
Temos que:
" #
cos µ sen µ
Qt = Q¡1 =
¡sen µ cos µ

Vimos que a transforma»c~ao dada por esta matriz Q gira todo vetor em R2 de um
^angulo µ e Qt gira este vetor de volta de um ^angulo ¡ µ.
Exemplo 2
Toda matriz de permuta»c~ao P ¶e uma matriz ortogonal.
De fato, a posi»c~ao do coe¯ciente 1 na k-¶esima coluna de P corresponder¶a µa
posi»c~ao deste mesmo coe¯ciente na k-¶esima linha de P t . Por exemplo, se
2 3
0 1 0
6 7
P = 4 0 0 1 5;
1 0 0
temos que:
2 3
0 0 1
6 7
Pt = P¡1 =4 1 0 0 5
0 1 0
2 - A multiplica»c~ao de uma matriz ortogonal Q, n £ n, por um vetor x 2 Rn
preserva seu comprimento, ou seja:

k Qx k=k x k 8x 2 Rn

118
A matriz ortogonal Q, tamb¶em preserva produtos internos e ^angulos, uma vez que:

(Qx)t (Qy) = xt Qt Qy = xt y

A preserva»c~ao do comprimento do vetor x decorre diretamente de Qt Q = I


De fato,

k Qx k2 =k x k2 8x 2 Rn

pois,

(Qx)t (Qx) = xt Qt Qx = xt x:

Assim, quando no espa»co um vetor ¶e rotacionado e re°etido, o produto interno e o


comprimento do vetor ¶e preservado. Isto corresponde uma interpreta»c~ao geom¶etrica
para a matriz ortogonal Q.
2.1 - C¶ alculo de Qx = b; Q matriz quadrada
Iniciamos os c¶alculos usando a propriedade 1 : Qt = Q¡1 .
Dada uma base, qualquer vetor b 2 Rn ¶e uma combina»c~ao linear de vetores nesta
base, e assim, o problema ser¶a encontrar os coe¯cientes nesta combina»c~ao linear:

b = x1 q1 + x2 q2 + : : : + xn qn (¤)

Multiplicando ambos os termos desta equa»c~ao por qit ; i = 1; 2; : : : ; n, obtemos:

qit b = xi qit qi ; i = 1; 2; : : : ; n

e como qit qi = 1, chegamos µa:

xi = qit b; i = 1; 2; : : : ; n

Portanto,

b = (q1t b)q1 + (q2t b)q2 + : : : + (qnt b)qn (¤¤):

Desta forma, podemos reescrever (*) na forma matricial,

Qx = b

cuja solu»c~ao ¶e dada por:

x = Q¡1 b

119
Como Q¡1 = Qt a solu»c~ao se escreve:
2 3 2 3
q1t q1t b
6 7h i 6 7
6 q2t 7 6 q2t b 7
x=Q b=6
6
t
.. 7 b =6
7 6 .. 7
7
4 . 5 4 . 5
qnt qnt b
Obs.1:
A interpreta»c~ao para o vetor b na f¶ormula (**) em termos de proje»c~oes ¶e a
seguinte: "Todo vetor b ¶e a soma de suas proje»c~oes unidimensionais nas retas de
dire»c~oes qi ; i = 1; 2; : : : ; n."
Uma vez que as proje»c~oes s~ao ortogonais, podemos usar a rela»c~ao de Pit¶agoras
em Rn :

k b k2 = (q1t b)2 + (q2t b)2 + : : : + (qnt b)2 :

ou seja:

k b k2 =k Qt b k2

como mostramos na propriedade 2.


Obs.2:
Desde que Qt = Q¡1 , temos que QQt = I (produto interno das linhas de Q).
Onde podemos dizer:"As linhas de uma matriz quadrada s~ao ortonormais sempre
que as colunas o forem".
Exemplo
A matriz Q, 3 £ 3, abaixo, tem esta propriedade.
2 ¡1 1 1
3
p p p
2 6 3
6 ¡2 p1
7
Q=4 0 p
6 3 5
p1 p1 p1
2 6 3

2.2 - C¶alculo de Qx = b; Q matriz retangular


Vamos considerar agora, Qx = b, onde a matriz Q, m£n, tem mais linhas do que
colunas (m > n). Neste caso, esperamos n~ao resolver Qx = b exatamente. Assim,
vamos usar o M¶etodo dos M¶³nimos Quadrados.
Mesmo Q sendo uma matriz retangular ainda temos Qt Q = I, onde I ¶e uma
matriz identidade, n £ n. Na forma matricial, temos:
2 3 2 3
q1t 1 0 ::: 0
6 t 7h i 6 7
6 q2 7 . 6 0 1 ::: 0 7
6 . 7 q q .. q =6 7
6 . 7 1 2 n 6 .. .. . . . 7
4 . 5 4 . . 0 5
t
qn 0 0 ::: 1

120
onde Qt ¶e a inversa µa esquerda de Q.
Se a colunas da matriz Q s~ao ortonormais, ent~ao o problema dos m¶³nimos quadra-
dos torna-se f¶acil. Assim fazemos:
Qx = b (sistema retangular insol¶ uvel);
Q Qx = Q b (equa»c~ao normal para x, na qual Qt Q = I)
t t

x = Qt b (xi = qit b)
p = Qx (proje»c~ao do vetor b nas colunas ¶e:(q1t b)q1 + (q2t b)q2 + : : : + (qnt b)qn )
p = QQt b (de modo que a matriz de proje»c~ao ¶e P = QQt ).
As f¶ormulas s~ao do tipo p = Ax e P = A(At A)¡1 At , para matriz A retangular.
No caso, como Q ¶e uma matriz ortogonal, Qt Q = I, e a parte pesada do M¶etodo
dos M¶³nimos Quadarados desaparece. As proje»c~oes nos eixos s~ao acopladas e p ¶e a
soma das proje»co~es unidimensionais. (Veja ¯gura 3.10)
Vale a pena ressaltar que Qt Q ¶e a matriz identidade I, n £ n, enquanto que QQt
¶e uma matriz de proje»c~ao P , m £ m.
Exemplo
Suponhamos que queremos projetar o ponto b = (x; y; z) do espa»co no plano-xy.
Sua proje»c~ao ¶e p = (x; y; 0) onde pode ser visto como a soma das proje»c~oes nos eixos
x e y, como segue:
2 3 2 3
1 x
6 7 t 6 7
q1 = 4 0 5 e (q1 b)q1 = 4 0 5
0 0

2 3 2 3
0 0
6 7 t 6 7
q2 = 4 1 5 e (q2 b)q2 = 4 1 5
0 0

A matriz de proje»c~ao ser¶a:


2 3
1 0 0
6 7
P = q1 qt1 + q2 qt2 = 4 0 1 0 5
0 0 0
e
2 3 2 3
x x
6 7 6 7
P4 y 5 = 4 y 5
z 0

121
3 - Processo de Ortogonaliza»c~ ao de Gram-Schmidt
O processo de Ortogonaliza»c~ao de Gram-Schmidt consiste em (no caso particular
de R3 ), dados tr^es vetores a; b; c 2 R3 , encontrar os vetores q1 ; q2 e q3 a partir destes
vetores iniciais de tal forma que os vetores q1 ; q2 e q3 sejam ortonormais.
Inicialmente, calculamos:
a
q1 =
kak

e, em seguida, calculamos:

~b = b ¡ (q t b)q1
1

que normalizado ¯ca:


~b
q2 =
k ~b k

Finalmente, calculamos:

c~ = c ¡ (q1t c)q1 ¡ (q2t c)q2

que normalizado ¯ca:


c~
q3 =
k c~ k

Exemplo
Dados os tr^es vetores linearmente independentes:
2 3 2 3 2 3
1 1 2
6 7 6 7 6 7
a = 4 0 5; b = 4 0 5; c = 4 1 5
1 0 0

Na 1a. etapa, obtemos:


2 p 3
2=2
a 6 7
q1 = =4 0 5
kak p
2=2

Na 2a. etapa, obtemos:


2 3 2 p 3 2 3
1 p 2=2 1=2
~b = b ¡ (q1t b)q1 = 6 7 26 7 6 7
4 0 5¡ 4 0 5=4 0 5
2 p
0 2=2 ¡1=2

122
2 p 3
~b 2=2
6 7
q2 = =4 0 5
~
kbk p
¡ 2=2

Na 3a. etapa, obtemos:


2 3 2 p 3 2 p 3 2 3
2 2=2 2=2 0
t t 6 7 p 6 7 p 6 7 6 7
c~ = c ¡ (q1 c)q1 ¡ (q2 c)q2 = 4 1 5 ¡ 2 4 0 5 ¡ 2 4 0 5=4 1 5
p p
0 2=2 ¡ 2=2 0

2 3
0
c~ 6 7
q3 = =4 1 5
k c~ k
0

Portanto, a matriz ortogonal ¯ca:


2 p p 3
2=2 2=2 0
6 7
Q=4 0 0 1 5
p p
2=2 ¡ 2=2 0

Generalizando, o processo de ortogonaliza»c~ao de Gram-Schmidt inicia com vetores


a1 ; a2 ; : : : ; an linearmente independentes e ¯naliza com vetores q1 ; q2 ; : : : ; qn , ortonor-
mais. No j-¶esimo passo, subtraimos de aj as componentes nas dire»c~oes que j¶a foram
previamentes calculadas pelo processo, a saber:

a~j = aj ¡ (q1t aj )q1 ¡ : : : ¡ (qj¡1 aj )qj¡1

Em seguida, normalizamos a~j , obtendo:


a~j
qj =
k a~j k

6.7 Fatora»c~
ao QR
Vamos considerar a matriz A, m£n, com vetores coluna linearmente independentes.
Pretendemos decompor a matriz A no produto das matrizes Q,m £ n, e R, n £ n,
onde Q ¶e uma matriz ortogonal e R ¶e uma matriz triangular superior. Assim, seja
a matriz A, com os vetores colunas a; b; c 2 Rm :
2 3
.. .. ..
. . .
6 7
A=6 4 a b c 7
5
.. .. ..
. . .

123
para iniciarmos o processo. Vamos ¯nalizar com a matriz Q seguinte:
2 3
.. .. ..
. . .
6 7
Q = 4 q1 q2 q3 7
6
5
.. .. ..
. . .

onde os vetores coluna q1 ; q2 ; q3 2 Rm s~ao vetores ortonormais obtidos pelo processo


de ortogonaliza»c~ao de Gram-Schmidt e com a matriz R, triangular superior, de modo
que A = QR
Usando o processo de ortogonaliza»c~ao de Gram-Schmidt escrevemos os vetores
a; b e c como combina»c~ao linear dos vetores q1 ; q2 e q3 . No caso, teremos:
a = (q1t a)q1
b = (q1t b)q2 + (q2t b)q2
c = (q1t c)q1 + (q2t c)q2 + (q3t c)q3
Expressando a matriz A, nesta forma, obtemos a fatora»c~ao A = QR:
2 3 2 32 3
.. .. .. .. .. ..
. . . . . . q1t a q1t b q1t c
6 7 6 7
6 a b c 7 = 6 q1 q2 q3 7 6 t t 7
4 5 4 5 4 0 q2 b q2 c 5
.. .. .. .. .. .. 0 0 q3t c
. . . . . .

Exemplo
Vamos tomar a matriz A, 3 £ 3, seguinte:
2 3
1 1 2
6 7
A=4 0 0 1 5
1 0 0

Usando o processo de ortogonaliza»c~ao de Gram-Schimidt obtemos a matriz Q seguinte:


2 1 3
p p1 0
2 2
6 7
Q=4 0 0 1 5
p1 ¡ p12 0
2

e de acordo com a f¶ormula para a matriz R, obtemos:


2 p p 3
2 p12 2
6 p 7
R = 4 0 p12 2 5
p
0 0 2

Observe que esta fatora»c~ao ¶e similar a fatora»c~ao A = LU , exceto que agora a


matriz Q tem colunas ortogonais. Os coe¯cientes diagonais na matriz R s~ao os
comprimentos de a~; ~b e c~, respectivamente. Os coe¯cientes extradiagonais superiores

124
na matriz R s~ao q1t b; q1t c e q2t c e os coe¯cientes extradiagonais inferiores s~ao nulos
decorrente da forma construtiva do m¶etodo de ortogonaliza»c~ao de Gram-Schimidt.
"Toda matriz A, n£n, com colunas linearmente independentes pode ser fatorada
em A = QR. As colunas da matriz Q, m £ n, s~ao ortonormais, e a matriz R, n £ n, ¶e
triangular superior e invert¶³vel. Quando m = n, todas as matrizes s~ao quadradas."
A import^ancia principal da ortogonaliza»c~ao reside no fato que ela simpli¯ca o
Problema dos M¶³nimos Quadrados Ax = b. No caso, temos:

At A = Rt Qt QR = Rt R

Portanto, a equa»c~ao fundamental At Ax = At b simpli¯ca em:

Rt Rx = Rt Qt b ou Rx = Qt b

onde a resolu»c~ao desta u ¶ltima equa»c~ao ¶e simples, uma vez que R ¶e uma matriz
triangular superior. O custo real do m¶etodo ¶e de mn2 opera»c~oes, decorrrente das
opera»c~oes na obten»c~ao da matriz Q e da matriz R usando o processo de ortogonal-
iza»c~ao de Gram-Schimidt.

125
Exerc¶³cios Cap¶³tulo VI
1 - Considerando que S ¶e um plano gerado pelos vetores (x1 ; x2 ; x3 ; x4 ) 2 R4
que satisfaz

x1 + x2 + x3 + x4 = 0;

escreva uma base para S ? . Crie uma matriz P que tenha S como seu espa»co
nulo.
2 - Encontre a matriz de proje»c~ao P no espa»co gerado pelos vetores coluna
2 3 2 3
1 1
6 7 6 7
a1 = 4 0 5 ; a2 = 4 1 5 :
1 ¡1

3 - O sistema linear baixo n~ao tem solu»c~ao:


2 3 2 3
1 ¡1 " # 4
6 7 C 6 7
Ax = 4 1 0 5 = 4 5 5 = b:
D
1 1 9

a) Esboce e encontre uma reta que leva µa minimiza»c~ao da soma dos quadrados
(C ¡ D ¡ 4)2 + (C ¡ 5)2 + (C + D ¡ 9)2 ;
b) Qual a proje»c~ao de b no espas»co coluna de A?
4 - Aplique o processo de Gram-Schimidt nos vetores
2 3 2 3 2 3
0 0 1
6 7 6 7 6 7
a = 4 0 5;b = 4 1 5;c = 4 1 5:
1 1 1

Escreva o resultado na forma A = QR.


5 - Suponha que o espa»co vetorial R3 tenha o produto interno < u; v >= u1 v1 +
2u2 v2 + 3u3 v3 , onde u = (u1 ; u2 ; u3 ), v = (v1 ; v2 ; v3 ) 2 R3 . Aplique o processo de
Gram-Schimidt para transformar u1 = (1; 1; 1); u2 = (1; 1; 0); u3 = (1; 0; 0) numa
base ortonormal.

126
Cap¶³tulo 7

Determinantes

7.1 Fun»c~
ao Determinante
Um determinante ¶e um certo tipo de fun»c~ao que associa um n¶
umero real a uma
matriz quadrada.
Antes de di¯nir a func~ao determinate, vamos dar as seguintes de¯ni»co~es:
De¯ni»
c~ao 1
Uma permuta»c~ao do conjunto de inteiros f1; 2; 3; : : : ; ng ¶e um rearranjo destes
inteiros em alguma ordem sem omiss~oes ou repeti»c~oes.
Nota»c~ ao:Permuta»c~ao arbitr¶aria no conjunto Sn = conjunto das permuta»c~oes em
1; 2; 3; : : : ; n ¶e dada por: ¾ = j1 j2 : : : jn ; onde ji = ¾(i).
De¯ni»
c~ao 2
Uma permuta»c~ao ¶e chamada par se o n¶
umero total de invers~
oes ¶e um inteiro par
e ¶e chamda ¶³mpar se o n¶umero total de invers~oes ¶e ¶³mpar.
Obs.: Ocorre uma invers~ao numa permuta»c~ao sempre que um inteiro maior
precede um menor.
Exemplo
S3 = f1; 2; 3g

Permuta»c~ao No. invers~oes Classi¯ca»c~ao


(1; 2; 3) 0 par
(1; 3; 2) 1 ¶³mpar
(2; 1; 3) 1 ¶³mpar
(2; 3; 1) 2 par
(3; 1; 2) 2 par
(3; 2; 1) 3 ¶³mpar

127
De¯ni»
c~
ao 3
De¯nimos o sinal da permuta»c~ao ¾ por:
(
1 se ¾ ¶e par
sn(¾) =
¡1 se ¾ ¶e ¶³mpar

De¯ni»
c~
ao 4
De¯nimos a fun»c~ao det para uma matriz A; n £ n,por:

det(A) = §¾ sn(¾)a1j1 a2j2 : : : anjn

ou ainda, como a soma de todos os produtos elementares de A com sinal, onde um


produto elementar da matriz A ¶e o produto de n entradas de A, tais que n~ao h¶a
duas de mesma linha ou coluna de A.
Exemplo 1
Seja a seguinte matriz A; 3 £ 3:
2 3
a11 a12 a13
6 7
A = 4 a21 a22 a23 5
a31 a32 a33

Temos que:
det(A) = a11 a22 a33 ¡ a11 a23 a32 ¡ a12 a21 a33 + a12 a23 a31 + a13 a21 a32 ¡ a13 a22 a31

7.2 C¶
alculo de Determinantes - Redu»c~
ao por Lin-
has
Propriedades B¶ asicas
Teorema 7.1
Seja A uma matriz quadrada n £ n. Se a matriz A tem uma linha ou uma coluna
de zeros, ent~ao det(A) = 0.
Prova
De fato, cada produto elementar ter¶a um zero como fator. Assim, o somat¶orio
dos produtos elementares ser¶a igual µa zero.
Teorema 7.2
Se a matriz A; n £ n ¶e triangular superior (inferior ou diagonal), ent~ao det(A)
¶e o produto das entradas na diagonal principal da matriz, ou seja, det(A) =
a11 a22 : : : ann .
Prova

128
De fato, cada produto elementar ter¶a um fator n~ao nulo da diagonal, sendo os
outros fatores nulos. Assim, o somat¶orio dos produtos elementares ser¶a igual µa zero.
Exemplo 2
Seja a matriz A; 4 £ 4, triangular inferior:
2 3
a11 0 0 0
6 a 0 7
6 21 a22 0 7
A=6 7
4 a31 a32 a33 0 5
a41 a42 a43 a44
Vamos considerar o produto elementar a1j1 a2j2 a3j3 a4j4 t¶³pico. Como a12 = a13 =
a14 = 0, precisamos de j1 = 1, ent~ao j2 6
= 1. Assim, j2 = 2; 3; 4. Como a23 = a24 = 0,
para ter um produto elementar n~ao nulo devemos ter j2 = 2. Continuando deste
modo, obtemos: det(A) = a11 a22 a33 a44 .
Teorema 7.3
Seja A uma matriz quadrada n £ n:T emosque : det(A) = det(At ).
Prova
Se A = (aij ); n £ n, ent~ao At = (bij ), onde bij = aji ; i = 1; 2; : : : ; n; j =
1; 2; : : : ; n.
Logo,

det(At ) = §¾ sn(¾)b1¾(1) b2¾(2) : : : bn¾(n) = §¾ sn(¾)a¾(1)1 a¾(2)2 : : : a¾(n)n

Seja ¿ = ¾ ¡1 , permuta»c~ao inversa (¾ ¡1 (j) = k , ¾(k) = j).


Temos que sn(¿ ) = sn(¾) e a¾(1)1 a¾(2)2 : : : a¾(n)n = a1¿ (1) a2¿ (2) : : : an¿ (n) .
Portanto,

det(At ) = §¿ sn(¾)a1¿ (1) a2¿ (2) : : : an¿ (n) :

De¯ni» c~ao 5
Uma matriz E; n £ n, que pode ser obtida da matriz identidade In ; n £ n, execu-
tando uma u ¶nica opera»c~ao elementar sobre linhas ¶e chamada uma matriz elementar.
Teorema 7.4
Seja A uma matriz quadrada n £ n.
a) Se B ¶e a matriz, n £ n, que resulta da multiplica»c~ao de uma u ¶ nica linha ou
uma u¶ nica coluna de A por um escalar k, ent~ao: det(B) = k det(A);
b) Se B ¶e a matriz, n £ n, que resulta da permuta»c~ao de duas linhas ou duas
colunas de A, ent~ao:det(B) = ¡ det(A);
c) Se B ¶e a matriz, n £ n, que resulta quando um m¶ ultiplo de uma linha de A ¶e
somado a outra linha de A ou quando um m¶ ultiplo de uma coluna de A ¶e somado
a outra coluna de A, ent~ao: det(B) = det(A).

129
Prova( ver Apostol,Vol II [3])
Corol¶ ario 1
Seja E uma matriz elementar n £ n.
a) Se E resulta da multiplica»c~ao de uma u ¶nica linha ou uma u¶ nica coluna de In
por um escalar k, ent~ao: det(E) = k;
b) Se E resulta da permuta»c~ao de duas linhas ou duas colunas de In , ent~ao:det(E) =
¡1;
c) Se E resulta quando um m¶ ultiplo de uma linha de In ¶e somado a outra linha
de In ou quando um m¶ ultiplo de uma coluna de In ¶e somado a outra coluna de In ,
ent~ao: det(E) = 1.
Prova
Consequ^encia imediata do teorema anterior.
Teorema 7.5
Se A uma matriz n £ n, com duas linhas proporcionais ou duas colunas propor-
cionais, ent~ao:det(A) = 0.
Prova
Basta fazer a redu»c~ao da matriz A introduzindo uma linha de zeros.
Exemplo 3
Seja calcular det(A), onde:
2 3
0 1 5
6 7
A = 4 3 ¡6 9 5
2 6 1

Vamos reduzir esta matriz µa forma escalonada e aplicar o teorema 2.

? ? ? ? ? ?
? 0 1 5 ? ? 3 ¡6 9 ? ? 1 ¡2 3 ?
? ? ? ? ? ?
? ? ? ? ? ?
det(A) = ? 3 ¡6 9 ? = ¡ ? 0 1 5 ? = ¡3 ? 0 1 5 ? =
? ? ? ? ? ?
? 2 6 1 ? ? 2 6 1 ? ? 2 6 1 ?

? ? ? ?
? 1 ¡2 3 ? ? 1 ¡2 3 ?
? ? ? ?
? ? ? ?
= ¡3 ? 0 1 5 ? = ¡3 ? 0 1 5 ? = ¡3 £ 1 £ (¡55) = 165
? ? ? ?
? 0 10 ¡5 ? ? 0 0 ¡55 ?

Teorema 7.6
Sejam A e B matrizes, n £ n, e seja k um escalar qualquer. Temos que:
a) det(k A) = kn det(A);
b) Na maioria dos casos, det(A + B) 6= det(A) + det(B);

130
c) det(AB) = det(A) det(B);
d) Uma matriz quadrada A; n £ n, ¶e invert¶³vel () det(A) 6
= 0;
¡1 1
e) det(A ) = det(A) .
Prova( ver Apostol,Vol II [3])

7.3 C¶
alculo de Determinantes - Expans~
ao em Cofa-
tores
De¯ni» c~ao 6
Seja a matriz A; n£n. O determinante menor da entrada aij , ou simplesmente, o
menor de aij ¶e denotado por Mij e ¶e de¯nido como o determinante da submatriz por
umero (¡1)(i+j) Mij
supress~ao da i-¶esima linha e da j-¶esima coluna da matriz A. O n¶
¶e denotado por Cij e ¶e chamado o cofator do coe¯ciente aij .
Exemplo 4
Dada a matriz A; 3 £ 3:
2 3
3 1 ¡4
6 7
A=4 2 5 6 5
1 4 8
O cofator de a11 = 3 ¶e:
? ?
? ?
1+1 ? 5 6 ?
C11 = (¡1) ? ? = 16
? 4 8 ?

O cofator de a12 = 1 ¶e:


? ?
? 2 6 ?
? ?
C12 = (¡1)1+2 ? ? = ¡10
? 1 8 ?

C¶alculo do determinante da matriz A usando Cofatores


Teorema 7.7
O determinante da matriz A = (aij ) ¶e igual a soma dos produtos obtidos pela
multiplica»c~ao dos elementos de qualquer linha( ou coluna) de A por seus respectivos
cofatores, ou seja:
X
n
det(A) = akj Ckj = ak1 Ck1 + ak2 Ck2 + : : : + akn Ckn
j=1

ou,
n
X
det(A) = aik Cik = a1k C1k + a2k C2k + : : : + ank Cnkn
i=1

131
Prova( ver Apostol,Vol II [3])
Exemplo 4
Dada a matriz A; 3 £ 3:
2 3
0 2 3
6 7
A=4 4 5 1 5
2 ¡1 3

Temos que:
? ? ? ? ? ?
? 5 1 ? ? ? ? ?
1+1 ? ? 1+2 ? 4 1 ? 1+3 ? 4 5 ?
det(A) = 0 £ (¡1) ? ? + 2 £ (¡1) ? ? + 3 £ (¡1) ? ?=
? ¡1 3 ? ? 2 3 ? ? 2 ¡1 ?

= 0 ¡ 2 £ 10 + 3 £ (¡14) = ¡62:

7.4 C¶
alculo da inversa da matriz A usando Ad-
junta Cl¶
assica
De¯ni»c~ao 7
Seja a matriz A; n £ n. De¯nimos a matriz dos cofatores de A, denotada por C,
a matriz n £ n, cujos coe¯cientes s~ao os cofatores da matriz A, ou seja:
2 3
C11 C12 : : : C1n
6 7
6 C21 C22 : : : C2n 7
C=6 .6 .. .. 7
. ... 7
4 . . . 5
Cn1 Cn2 : : : Cnn

De¯nimos, a adjunta cl¶assica de A, denotada por Adj(A), a transposta da matriz


dos cofatores de A,ou seja:
2 3
C11 C21 : : : Cn1
6 7
6 C12 C22 : : : Cn2 7
6
Adj(A) = 6 . .. .. 7
. ... 7
4 . . . 5
C1n C2n : : : Cnn

Teorema 7.8
Se A ¶e uma matriz, n £ n, invert¶³vel, ent~ao:
1
A¡1 = Adj(A)
det(A)

132
Prova( ver Apostol,Vol II [3])
Exemplo
Seja calcular a inversa da matriz A do exemplo anterior, onde det(A) = ¡62
(det(A) 6
= 0,A ¶e invert¶³vel).
2 3
0 2 3
6 7
A=4 4 5 1 5
2 ¡1 3
alculo de Adj(A)

Temos que:
? ? ? ? ? ?
? 5 1 ? ? 4 1 ? ? 4 5 ?
? ? ? ? ? ?
C11 = ? ? = 16; C12 = ? ? = 10; C13 = ? ? = ¡14;
? ¡1 3 ? ? 2 3 ? ? 2 ¡1 ?
? ? ? ? ? ?
? 2 3 ? ? 0 3 ? ? 0 2 ?
? ? ? ? ? ?
C21 =? ? = 9; C22 = ? ? = ¡6; C23 = ? ? = ¡4;
? ¡1 3 ? ? 2 3 ? ? 2 ¡1 ?
? ? ? ? ? ?
? 2 3 ? ? 0 3 ? ? 0 2 ?
? ? ? ? ? ?
C31 =? ? = ¡13; C32 = ? ? = ¡12; C33 = ? ? = ¡8;
? 5 1 ? ? 4 1 ? ? 4 5 ?

2 3
16 9 ¡13
6 7
Adj(A) = 4 10 ¡6 ¡12 5
¡14 ¡4 ¡8
alculo de A¡1 Usando a f¶ormula do teorema 8, obtemos:

2 3
16 9 ¡13
1 6 7
A¡1 = 4 10 ¡6 ¡12 5
(¡62)
¡14 ¡4 ¡8

7.5 Produto Vetorial de Vetores


Daremos aqui um m¶etodo para se obter um vetor perpendicular a cada dois vetores
A; B 2 R3 ; A; B linearmente independentes.
De¯ni» c~ao 8
Sejam A = (a1 ; a2 ; a3 ) e B = b1 ; b2 ; b3 ) dois vetores em R3 . O produto vetorial A £ B,
nesta ordem, ¶e de¯nido pelo vetor C, perpendicular aos vetores A e B, cujas com-
ponentes s~ao determinantes de ordem dois, dado por:
Ã? ? ? ? ? ?!
? a a ? ? a a ? ? a a ?
? 2 3 ? ? 3 1 ? ? 1 2 ?
C= A£B = ? ? ;? ? ;? ?
? b2 b3 ? ? b3 b1 ? ? b1 b2 ?

133
que pode tamb¶em ser expresso utilizando os vetores coordenados unit¶arios i; j e k:
? ? ? ? ? ?
? a a ? ? a a ? ? a a ?
? 2 3 ? ? 3 1 ? ? 1 2 ?
C= A£B =? ?i + ? ?j + ? ?k
? b2 b3 ? ? b3 b1 ? ? b1 b2 ?

ou melhor:
? ?
? i j k ?
? ?
? ?
C = A £ B = ? a1 a2 a3 ?
? ?
? b1 b2 b3 ?

Exemplo
Qual o produto vetorial dos vetores A = ¡i + 2k e B = 2i + j ¡ k?
Solu»c~
ao
? ?
? i j k ?
? ?
? ?
C = A £ B = ? ¡1 0 2 ? =
? ?
? 2 1 ¡1 ?

? ? ? ? ? ?
? 0 2 ? ? ¡1 2 ? ? ¡1 0 ?
? ? ? ? ? ?
=? ?i ¡ ? ?j + ? ? k = ¡2i + 3j ¡ k:
? 1 ¡1 ? ? 2 ¡1 ? ? 2 1 ?

Observe que:
C?AeC?B
De fato:
A ¢ C = (¡1; 0; 2) ¢ (¡2; 3; ¡1) = 2 ¡ 2 = 0 e B ¢ C = (2; 1; ¡1) ¢ (¡2; 3; ¡1) =
¡4 + 3 + 1 = 0.
Interpreta»c~ao geom¶ etrica do Produto Vetorial
Sejam A e B dois vetores n~ao nulos em R3 fazendo um ^angulo µ entre ^eles, onde
0 · µ · ¼. Podemos escrever:

A ¢ B =k A k k B k cos µ

Pela identidade de Lagrange, temos:

k A £ B k2 =k A k2 k B k2 ¡(A ¢ B)2 =

=k A k2 k B k2 ¡(k A k2 k B k2 cos2 µ) =

=k A k2 k B k2 (1 ¡ cos2 µ) =

134
=k A k2 k B k2 sin2 µ

Portanto,

k A £ B k=k A k k B k sin µ:

Desta forma, podemos concluir que k A £ B k ¶e igual a ¶area do paralelogramo de


lados k A k e k B k, conforme ¯gura....

135
Cap¶³tulo 8

Autovalores e Autovetores

8.1 Introdu»c~
ao
No Cap¶³tulo 2 vimos o M¶etodo de Elimina»c~ao de Gauss para obten»c~ao da solu»c~ao
do Sistema Linear Ax = b, onde A ¶e uma matriz n £ n e x e b s~ao vetores em Rn .
Agora, estamos interessados em resolver o problema Ax = ¸x, onde A ¶e uma matriz
n£n ,x ¶e um vetor em Rn e ¸ ¶e um n¶ umero em R (podemos extender o estudo ao caso
complexo). A resolu»c~ao de ambos os problemas pode ser obtida via determinante,
sendo que no primeiro problema usamos a regra de Cramer para a obten»c~ao da
solu»ca~o x = A¡1 b, quando esta ¶e u ¶nica e no segundo problema encontramos as
ra¶³zes do polin^omio det(A ¡ ¸I), que ser~ao os autovalores da matriz A.
O segundo problema aparece em muitas aplica»c~oes. Podemos introduz¶³-lo via
solu»ca~o de equa»co~es diferenciais.
Exemplo
Seja o par de equa»c~oes:

dv
= 4v ¡ 5w; v = 8 em t = 0
dt

dw
= 2v ¡ 3w; w = 5 em t = 0
dt
Na forma matricial, escrevemos:

du
= Au; u = u0 em t = 0
dt
onde
" # " # " #
v(t) 8 4 ¡5
u(t) = ; u0 = em t = 0 e A =
w(t) 5 2 ¡3

136
Procuramos por solu»c~oes da forma:

v(t) = e¸t y

w(t) = e¸t z

ou na forma vetorial:

u(t) = e¸t x
du
Calculando dt
e substituindo no problema na forma matricial, obtemos:

¸e¸t y = 4e¸t y ¡ 5e¸t z

¸e¸t z = 2e¸t y ¡ 3e¸t z

Cancelando o termo comum e¸t , obtemos:

4y ¡ 5z = ¸y

2y ¡ 3z = ¸z

O vetor x associado µa ¸, solu»c~oes da equa»c~ao Ax = ¸x, nos d¶a a solu»c~ao u(t) = e¸t x,
onde vemos que o n¶ umero e¸t cresce ou decresce vezes um vetor ¯xo x.

8.2 Autovalores e Autovetores


De¯ni» c~
ao 1
Um escalar ¸ ¶e um autovalor (valor pr¶oprio) da matriz A; n £ n, se existir um
= 0; x 2 Rn , tal que:
vetor x 6

Ax = ¸x

Este vetor x, associado ao autovalor ¸, diz-se autovetor (vetor pr¶oprio) de A.


ao de Ax = ¸x
Solu»c~
A solu»c~ao de Ax = ¸x ¶e dada por:

(A ¡ ¸I)x = 0;

ou seja, o vetor x pertence ao espa»co nulo da matriz A ¡ ¸I.Assim, o n¶


umero ¸ ¶e
escolhido de modo que A ¡ ¸I tenha um espa»co nulo. Como x 6 = 0, devemos ter
A ¡ ¸I singular. Da¶³, podemos enunciar o seguinte resultado:

137
Teorema 8.1
O n¶ umero ¸ e autovalor da matriz A; n £ n () det(A ¡ ¸I) = 0.
Prova( ver Apostol,Vol II [3])
De¯ni» c~
ao 2
A equa»c~ao det(A ¡ ¸I) = 0 pode ser escrita na forma f (¸) = ¸n + c1 ¸n¡1 + ¢ ¢ ¢ +
cn¡1 ¸ + cn , chamado de polin^omio caracter¶³stico.
Para cada raiz ¸ do polin^omio caracter¶³stico f(¸) corresponde um autovetor x,
solu»ca~o do sistema linear homog^eneo:

(A ¡ ¸I)x = 0:

Exemplo 1
Seja a matriz:
2 3
2 1 1
6 7
A=4 2 3 4 5;
¡1 ¡1 ¡2

cujo polin^omio caracter¶³stico ¶e:


2 3
¸ ¡ 2 ¡1 ¡1
6 7
det(A ¡ ¸I) = det 4 ¡2 ¸ ¡ 3 ¡4 5 = ¸3 ¡ 3¸2 ¡ ¸ + 3 = (¸ ¡ 1)(¸ + 1)(¸ ¡ 3)
1 1 ¸+2

Solu»c~ ao
Autovalores: ¸1 = 1; ¸2 = ¡1; ¸3 = 3.
Autovetores Associados: Basta resolver os sistemas lineares Ax = ¸i x; i =
1; 2; 3, obtendo:
Para ¸1 = 1; x = t(1; ¡1; 0); t 2 R; t 6
= 0;
Para ¸2 = ¡1; x = t(0; 1; ¡1); t 2 R; t 6
= 0;
Para ¸3 = 3; x = t(2; 3; ¡1); t 2 R; t 6
= 0.
De¯ni» ao 3 De¯nimos o subespa»co invariante o subespa»co gerado pelos autove-
c~
tores associados ao autovalor ¸ e o notamos por: E(¸).
Para o exemplo anterior temos:

E(1) = f(1; ¡1; 0)g; E(¡1) = f(0; 1; ¡1)g; E(3) = f(2; 3; ¡1)g

Observe que, correspondendo aos autovalores distintos, obtemos os autovetores lin-


earmente independentes.
Para autovalores m¶ ultiplos a dimens~ao do subespa»co invariante ser¶a importante
na veri¯ca»c~ao da diagonaliza»c~ao da matriz A.

138
Exemplo 2
Seja a seguinte matriz de proje»c~ao:
" #
1=2 1=2
P=
1=2 1=2

Esta matriz tem como autovalor ¸1 = 1 com correspondente autovetor:


" #
1
x1 =
1

e autovalor ¸2 = 0 com correspondente autovetor:


" #
1
x2 =
¡1

Os autovalores de uma proje»c~ao s~ao 1 ou 0. Quando ¸1 = 1 o vetor ¶e projetado em


si mesmo e quando ¸2 = 0 o vetor ¶e projetado no vetor nulo. O espa»co coluna de
P ¶e formado pelos autovetores correspondentes µa ¸1 = 1 e o espa»co nulo ¶e formado
pelos autovetores correspondentes µa ¸2 = 0. Nestes espa»cos, temos dim R(P ) = r,
onde ¸1 = 1 ¶e repetido r vezes e dim N (P ) = n ¡ r, onde ¸2 = 0 ¶e repetido n ¡ r
vezes.

8.3 Tra»co de uma matriz


Seja f (¸) o polin^omio caracter¶³stico da matriz A; n £ n. Sendo ¸1 ; ¸2 ; : : : ; ¸n dis-
tintos, escrevemos:

f (¸) = (¸ ¡ ¸1 )(¸ ¡ ¸2 ) : : : (¸ ¡ ¸n )

ou ainda:

f(¸) = ¸n + c1 ¸n¡1 + ¢ ¢ ¢ + cn¡1 ¸ + cn

onde o termo constante cn e o coe¯ciente c1 do termo ¸n¡1 s~ao dados pelas f¶ormulas:

cn = (¡1)n ¸1 ¸2 : : : ¸n

c1 = ¡(¸1 + ¸2 + : : : + ¸n )

e ainda:

cn = (¡1)n det(A) =) ¸1 ¸2 : : : ¸n = det(A):

139
De¯ni»c~
ao 4
Chama-se tra»co de A a soma das ra¶³zes do polin^omio caracter¶³stico f (¸) e ¶e
denotado por tr(A). Escrevemos:
n
X
tr(A) = ¸i = ¡c1
i=1

Desenvolvendo o determinante de A ¡ ¸I, tamb¶em encontramos:

c1 = ¡(a11 + a22 + : : : + ann )

Desta forma, tamb¶em de¯nimos:


X
n
tr(A) = aii
i=1

Propriedades de tr(A)
Sejam A e B matrizes, n £ n. Temos que:
i) tr(A + B) = tr(A) + tr(B);
ii) tr(cA) = c tr(A); c escalar;
iii) tr(AB) = tr(BA);
iv) tr(At ) = tr(A).
Prova
Basta usar as propriedades da fun»c~ao determinante.

8.4 Diagonaliza»c~
ao de uma Matriz
Vamos desenvolver o estudo de dois problemas diferentes, por¶em equivalentes:
- O problema de autovetores: Dada uma matriz A; n £ n, existe uma base de
n£n
R consistindo de autovetores de A?
- O problema de diagonaliza»c~ao: Dada uma matriz A; n £ n, existe uma matriz
invert¶³vel S; n £ n, tal que S ¡1 AS ¶e uma matriz diagonal?
Damos a seguinte de¯ni»c~ao:
De¯ni» c~
ao 5
Uma matriz A; n £ n, ¶e dita diagonaliz¶avel se existir uma matriz invert¶³vel S tal
que S ¡1 AS ¶e uma matriz diagonal, neste caso, dizemos que S diagonaliza a matriz
A.
Teorema 8.2
Se A ¶e uma matriz, n £ n, ent~ao s~ao equivalentes as seguintes a¯rma»c~oes:
i) A matriz A ¶e diagonaliz¶avel;

140
ii) A matriz A tem autovalores linearmente independentes.
Prova
i) =) ii)
Se a matriz A ¶e diagonaliz¶avel, ent~ao existe uma matriz S invert¶³vel, que nota-
mos:
2 3
s11 s12 : : : s1n
6 7
6 s21 s22 : : : s2n 7
6 .. 7
S=6 .
. .. . .
. 7;
4 . . . 5
sn1 sn2 : : : snn
tal que S ¡1 AS ¶e uma matriz diagonal. Escrevemos: S ¡1 AS = ¤, onde:
2 3
¸1 0 ::: 0
6 7
6 0 ¸2 : : : 0 7
¤=6 6 .. .. . . . 7;
4 . . . .. 7
5
0 0 : : : ¸n
Da¶³, segue-se que AS = S¤, ou seja:
2 32 3 2 3
s11 s12 : : : s1n ¸1 0 : : : 0 ¸1 s11 ¸2 s12 : : : ¸n s1n
6 76 7 6 7
6 s21 s22 : : : s2n 7 6 0 ¸2 : : : 0 7 6 ¸1 s21 ¸2 s22 : : : ¸n s2n 7
AS = 6 6 .. .. . . .. 7
7
6 .
6 .. . . .. 7=6
7 6 .. .. ... .. 7
7
4 . . . . 5 4 .. . . . 5 4 . . . 5
sn1 sn2 : : : snn 0 0 : : : ¸n ¸1 sn1 ¸2 sn2 : : : ¸n snn
Denotando os vetores coluna de S por s1 ; s2 ; : : : ; sn temos que os vetores coluna de
AS s~ao sucessivamente lambda1 s1 ; lambda2 s2 ; : : : ; ¸n sn .Por outro lado, temos que
as sucessivas colunas de AS s~ao:
As1 ; As2 ; : : : ; Asn
Assim, devemos ter:
As1 = ¸1 s1 ; As2 = ¸2 s2 ; : : : ; Asn = ¸n sn
Como S ¶e invert¶³vel, estes vetores coluna s~ao todos n~ao nulos. Desta forma, ¸1 ; ¸2 ; : : : ; ¸n
s~ao autovalores de A com s1 ; s2 ; : : : ; sn autovetores associados. Al¶em do mais, como
S ¶e invert¶³vel, concluimos que s1 ; s2 ; : : : ; sn s~ao linearmente independentes.
ii) =) i)
Vamos supor que a matriz A tem n autovetores s1 ; s2 ; : : : ; sn linearmente inde-
pendentes correspondentes aos autovalores ¸1 ; ¸2 ; : : : ; ¸n e seja:
2 3
s11 s12 : : : s1n
6 7
6 s21 s22 : : : s2n 7
S=6 6 .. .. . . .. 7
7
4 . . . . 5
sn1 sn2 : : : snn

141
onde s1 ; s2 ; : : : ; sn s~ao os vetores coluna de S.
Os vetores coluna de AS s~ao:

As1 ; As2 ; : : : ; Asn

onde

As1 = ¸1 s1 ; As2 = ¸2 s2 ; : : : ; Asn = ¸n sn

Assim,
2 3 2 32 3
¸1 s11 ¸2 s12 : : : ¸n s1n s11 s12 : : : s1n ¸1 0 : : : 0
6 7 6 76 7
6 ¸1 s21 ¸2 s22 : : : ¸n s2n 7 6 s21 s22 : : : s2n 76 0 ¸2 : : : 0 7
AS = 6
6 .. .. ... .. 7=6
7 6 .. .. . . .. 76
76 .. .. . . . 7 = S¤
7
4 . . . 5 4 . . . . 54 . . . .. 5
¸1 sn1 ¸2 sn2 : : : ¸n snn sn1 sn2 : : : snn 0 0 : : : ¸n
onde ¤ ¶e uma matriz diagonal com os autovalores ¸1 ; ¸2 ; : : : ; ¸n de A. Como,
por hip¶otese, os autovetores de A s~ao linearmente independentes, concluimos que
os vetores coluna de S s~ao linearmente independentes e da¶³ a matriz S invert¶³vel.
Desta forma, reescrevemos a igualdade anterior como S ¡1 AS = ¤, ou seja: a matriz
A ¶e diagonaliz¶avel.
Obs.: As matrizes A e ¤ t^em o mesmo polin^omio caracter¶³stico e portanto os
mesmos autovetores (A e ¤ s~ao semelhantes).
Exemplo 3
Seja a matriz A; n £ n:
2 3
5 ¡6 ¡6
6 7
A = 4 ¡1 4 2 5
3 ¡6 ¡4
Temos que a equa»c~ao caracter¶³stica de A ¶e:

(¸ ¡ 2)2 (¸ ¡ 1) = 0

Os autovalores associados µa ¸1 = 2 s~ao dados pela solu»c~ao de Ax = 2x, dada por:


x = (x1 ; x2 ; x3 ) tal que x1 = 2x2 + 2x3 . Assim, a base para o subespa»co invariante
gerado pelos autovetores associados µa ¸1 = 2 ¶e:

E(2) = f(2; 1; 0); (2; 0; 1)g

Os autovalores associados µa ¸2 = 1 s~ao dados pela solu»c~ao de Ax = x, dada por:


x = (x1 ; x2 ; x3 ) tal que x1 = x3 = ¡3x2 . Assim, a base para o subespa»co invariante
gerado pelos autovetores associados µa ¸2 = 1 ¶e:

E(1) = f(3; ¡1; 3)g

142
Como existem tr^es autovetores linearmente independentes, tomamos como colunas
da matriz S os vetores coluna:
2 3 2 3 2 3
2 2 3
6 7 6 7 6 7
s1 = 4 1 5 ; s2 = 4 0 5 ; s3 = 4 ¡1 5
0 1 3
Desta forma, podemos concluir que a matriz A ¶e diagonalis¶avel, pois ela tem tr^es
autovetores linearmente independentes. Assim, escrevemos:
2 3
2 2 3
6 7
S = 4 1 0 ¡1 5
0 1 3

Vamos dar um teorema importante sobre a diagonaliza»c~ao de uma matriz A; n £ n.


Por¶em, antes vamos dar a seguinte de¯ni»c~ao:
De¯ni» c~
ao 6
Seja ¸k ¶e um autovalor de uma matriz A; n £ n. A dimens~ao do subespa»co
invariante E(¸k ) ¶e chamado de multiplicidade geom¶etrica de ¸k e o n¶ umero de vezes
que ¸ ¡ ¸k aparece como fator do polin^omio caracter¶³stico de A ¶e chamado de
multiplicidade alg¶ebrica de ¸k .
Teorema 8.3
Se A ¶e uma matriz quadrada n £ n, ent~ao:
i) Para cada autovalor de A, a multiplicidade geom¶etrica ¶e menor ou igual a
multiplicidade alg¶ebrica;
ii) A ¶e diagonaliz¶avel () para cada autovalor, a multiplicidade geom¶etrica ¶e
igual µa multiplicidade alg¶ebrica.
Prova( ver Apostol,Vol II [3])
Obs.:
Quando a diagonaliza»c~ao da matriz A n~ao for poss¶³vel, recorremos µa forma
can^onica de Jordan, tornando S ¡1 AS "mais pr¶oximo da matriz diagonal".
Pelo teorema anterior, vemos que dada uma matriz A; n £ n, ¶e sempre poss¶³vel
encontrar uma matriz n~ao singular S, tal que a matriz D = S ¡1 AS ¶e diagonal, e esta
matriz S n~ao ¶e u¶ nica. Contudo, se a matriz S ¶e constituida de vetores ortonormais,
ou seja, quando S ¶e ortogonal,esta ser¶a u
¶nica para seus autovalores ordenados.
Temos que as matrizes D e A s~ao semelhantes e t^em o mesmo polin^omio carac-
ter¶³stico.
De fato:

det(D ¡ ¸) = det(S ¡1 AS ¡ ¸I) = det(S ¡1 (A ¡ ¸I)S) = det(S ¡1 )det(A ¡ ¸I)det(S) = det(A ¡ ¸I)

143
Teorema 8.4
Seja A ¶e uma matriz quadrada n£n. Sejam ¸1 ; ¸2 ; : : : ; ¸k os autovalores distintos
de A e seja Wi = E(¸i ). S~ao equivalentes as seguintes a¯rma»c~oes:
i) A matriz A ¶e diagonaliz¶avel;
ii) O polin^omio caracter¶³stico de A ¶e:

f(¸) = (¸ ¡ ¸1 )d1 (¸ ¡ ¸2 )d2 : : : (¸ ¡ ¸k )dk

dim(Wi ) = di ; i = 1; 2; : : : ; k:

ii)

dim(W1 ) + dim(W2 ) + : : : + dim(Wk ) = n

Prova( ver Apostol,Vol II [3])

8.5 Polin^
omios e Matrizes
Vamos considerar um polin^omio f (t) com escalares ai ; i = 0; 1; ldots; n em K (R ou
C):

f (t) = an tn + an¡1 tn¡1 + : : : + a1 t + ao

De¯ni»
c~
ao 7
Tomando uma matriz A; n £ ncom coe¯cientes em K, podemos de¯nir:

f (A) = an An + an¡1 An¡1 + : : : + a1 A + ao I;

onde I ¶e a matriz identidade , tamb¶em n £ n.


Dizemos que a matriz A ¶e uma raiz de f (t), quando f(A) = 0.
Exemplo 4
Sejam
" #
1 2
A=
3 4

f (t) = 2t2 ¡ 3t + 7; g(t) = t2 ¡ 5t ¡ 2:

144
Temos:
" #2 " # " # " #
1 2 1 2 1 0 18 14
f(A) = 2 ¡3 +7 =
3 4 3 4 0 1 21 39

e
" #2 " # " # " #
1 2 1 2 1 0 0 0
g(A) = ¡5 ¡2 =
3 4 3 4 0 1 0 0

Logo, a matriz A ¶e uma raiz de g(t).


Propriedades
Sejam f e g polin^omios com coe¯cientes em K (R ou C); A uma matriz, n £ n,
com coe¯cientes em K. Ent~ao:
i) (f + g)(A) = f (A) + g(A);
ii) (f g)(A) = f (A)g(A);
iii) (kf )(A) = kf (A); 8k 2 K.
Prova
(Basta usar as opera»c~oes com polin^omios)
Teorema 8.5(Cayley Hamilton)
Toda matriz A; n £ n, ¶e um zero de seu polin^omio caracter¶³stico.
Prova
Seja A uma matriz n £ n, onde

f (t) = det(A ¡ tI) = tn + an¡1 tn¡1 + : : : + a1 t + a0

Denotamos por B(t) a adjunta cl¶assica de A¡tI. Os elementos de B(t) s~ao cofatores
de matriz A ¡ tI, ou seja, s~ao polin^omios em t de grau · n ¡ 1. Assim:

B(t) = Bn¡1 tn¡1 + Bn¡2 tn¡2 + : : : + B1 t + B0

onde Bi s~ao matrizes k £ k, k · n ¡ 1,com coe¯cientes independentes de t.


Pela propriedade da adjunta cl¶assica, temos que:

(A ¡ tI)B(t) = det(A ¡ tI)I;

ou seja,

(A ¡ tI)Bn¡1 tn¡1 + Bn¡2 tn¡2 + : : : + B1 t + B0 = (tn + an¡1 tn¡1 + : : : + a1 t + a0 )I

145
Efetuando as opera»c~oes alg¶ebricas em ambos os lados desta equa»c~ao, obtemos para
k = n; n ¡ 1; : : : ; 0:

Bn¡1 = I
Bn¡2 ¡ ABn¡1 = an¡1 I
Bn¡3 ¡ ABn¡2 = an¡2 I
:::::::::::::::::::::::::
B0 ¡ AB1 = a1 I
¡AB0 = a0 I

Multiplicando estas equa»c~oes por An; An¡1 ; : : : ; A; I, respectivamente, obtemos:

An Bn¡1 = An
An¡1 Bn¡2 ¡ An Bn¡1 = an¡1 An¡1
An¡2 Bn¡3 ¡ An¡1 Bn¡2 = an¡2 An¡2
:::::::::::::::::::::::::
AB0 ¡ A2 B1 = a1 A
¡AB0 = a0 I

Somando membro a membro os lados destas igualdades, obtemos:

0 = An + an¡1 An¡1 + : : : + a1 A + a0

Logo, a matriz A ¶e um zero de seu polin^omio caracter¶³stico.

8.6 Pot^
encias de matrizes
De¯ni» c~
ao 8
Seja uma matriz A; n £ n, multiplicada por si mesmo um certo n¶ umero de vezes.
Neste caso, sendo k um n¶ umero inteiro positivo, de¯nimos a pot^encia k-¶esima de A
k
por: A = AA : : : A (k vezes).
Suponhamos que a matriz A; n£n, possa ser diagonalizada na forma S ¡1 AS = D,
onde D ¶e uma matriz diagonal.Ent~ao, a matriz A admite a fatora»c~ao diagonal,
extremamente u ¶ til:

A = SDS ¡1

Utilizando-se esta fatora»c~ao, a pot^encia de A ¶e facilmente calculada,como segue:


" Seja D = diag(k1 ; k2 ; : : : ; kn ). Ent~ao:

Am = (SDS ¡1 )m = SDm S ¡1 = S diag(k1m ; k2m ; : : : ; knm ) S ¡1

146
e, mais geralmente, para qualquer polin^omio f(t),

f(A) = f(SDS ¡1 ) = Sf (D)S ¡1 = S diag(f (k1 ); f (k2 ); : : : ; f(kn )) S ¡1 "

Exemplo
Seja a matriz:
" #
4 2
A=
3 ¡1

Temos que o polin^omio caracter¶³stico de A ¶e:

f (t) = t2 ¡ 3t ¡ 10

cujas ra¶³zes s~ao os autovalores: ¸1 = 5 e ¸2 = ¡2. Calculando os autovetores


correspondentes, obtemos: s1 = (2; 1) e s2 = (¡1; 3).
Desta forma, obtemos a matriz S cujas colunas s~ao os autovetores acima:
" #
2 ¡1
S=
1 3

e obtemos:
" #
3=7 1=7
S¡1 =
¡1=7 2=7

D = S ¡1 AS ¶e a matriz diagonal cujos coe¯cientes diagonais s~ao os respectivos


autovalores:
" #
5 0
D=
0 ¡2

Consequentemente, a matriz A admite a fatora»c~ao diagonal:


" #" #" #
2 ¡1 5 0 3=7 1=7
A = SDS¡1 =
1 3 0 ¡2 ¡1=7 2=7

Por exemplo, para o polin^omio f (t) = t4 ¡ 4t3 ¡ 3t2 + 5 podemos calcular:


" #" #" # " #
2 ¡1 55 0 3=7 1=7 53 4
f (A) = Sf(D)S¡1 = =
1 3 0 41 ¡1=7 2=7 6 43

147
Exerc¶³cios Cap¶³tulo VIII
1 - a) Seja a matriz sim¶etrica, 2 £ 2,
" #
p a
A=
a q

mostre que o polin^omio caracter¶³stico de A tem apenas ra¶³zes reais.


b) Sejam ¸1 e ¸2 autovalores distintos de uma matriz sim¶etrica A, n £ n,
correspondendo aos autovetores v1 e v2 , respectivamente. Sabendo-se que vale a
seguinte propriedade:

Av1 ¢ v2 = v1 ¢ Av2 ;

mostre que v1 ¶e ortogonal µa v2 .


2 - Seja a matriz
2 3
a1 b1 d1
6 7
A = 4 b1 a2 b2 5
d1 b2 a3

a) Expresse det(A ¡ ¸I) como um polin^omio f (¸) = ¸3 + c1 ¸2 + c2 ¸ + c3 ;


b) Expresse os coe¯cientes c1 e c3 em termos de determinantes e tra»cos.
3 - Dada a matriz
2 3
2 1 0
6 7
A = 4 0 1 ¡1 5
0 2 4

a) Encontre os autovalores de A;
b) Para a cada autovalor ¸k de A, encontre a dimens~ao do subespa»co invariante
E(¸k );
c) A matriz A ¶e diagonaliz¶avel? Justi¯que sua conclus~ao.
4 - Dada a matriz
2 3
¡1 4 ¡2
6 7
A = 4 ¡3 4 0 5
¡3 1 3

a) Encontre os autovalores de A;
b) Para a cada autovalor ¸k de A, encontre os autovetores correspondentes;
c) Caso a matriz A seja diagonaliz¶avel, encontre a matriz invert¶³vel P tal que
¡1
P AP ¶e uma matriz diagonal.

148
Cap¶³tulo 9

Decomposi» c~
ao em Valores
Singulares - SVD

9.1 Introdu»c~
ao
A Decomposi»c~ao em Valores Singulares(SVD) de uma matriz A, m £ n, ¶e uma
decomposi»c~ao que pode ser utilizada em muitas aplica»c~oes, a saber: processamento
digital de imagens, posto "efetivo", decomposi»c~ao polar, ¯ltragem de sinais, etc.
( ver Leon [7])
Vamos supor, em toda se»c~ao, que A ¶e uma matriz m £ n com m ¸ n. Vamos
apresentar um m¶etodo para determinar qu~ao pr¶oxima A est¶a de uma matriz de posto
P
menor. O m¶etodo envolve a fatora»c~ao da matriz A em um produto U V t , onde U
P
¶e uma matriz ortogonal m £ m, V ¶e uma matriz ortogonal n £ n e ¶e uma matriz
extritamente diagonal cujos coe¯cientes diagonais satisfazem ¾1 ¸ ¾2 ¸ : : : ¸ ¾r ¸
0, ou seja:
2 3
¾1 0 0 : : : 0 0
6 7
0 ¾2 0 : : : 0 0 7
X 6 6 . .. . . . .. 7
=6 6 .
. . . .. . 7
7
6 7
4 0 0 0 0 ¾r 0 5
0 0 0 0 0 0

Os ¾i determinados por essa fatora»c~ao s~ao u


¶nicos e s~ao chamados valores singulares
t
da matriz A. A fatora»c~ao U §V ¶e chamada de Decomposi»c~ao em Valores Singulares(SVD).
As colunas da matriz U , m £ m, s~ao os autovetores da matriz AAt e as colunas da
matriz V , n £ n, s~ao os autovetores da matriz At A. Os r valores singualares da
P
diagonal da matriz , m £ n, s~ao ra¶³zes quadradas dos autovalores n~ao nulos de
ambas as matrizes AAt e At A.

149
9.2 Desenvolvimento do c¶
alculo da SVD
Damos o seguinte teorema garantindo a SVD de uma matriz A, m £ n.

Teorema 9.1
Se A ¶e uma matriz m £ n, ent~ao a matriz A tem uma Decomposi»c~ao em Valores
Singulares(SVD).
Prova
Temos que At A ¶e uma matriz sim¶etrica. Da¶³, todos os seu autovalores s~ao reais
e n~ao negativos. Al¶em do mais, ela pode ser diagonalizada ortogonalmente pela
matriz V .
Seja ¸ um autovalor de At A e seja x o autovetor associado. Ent~ao,

k Ax k2
k Ax k2 = xt At Ax = ¸ xt x = ¸ k x k2 =) ¸ = ¸ 0:
k x k2

Vamos supor que as colunas da matriz V s~ao ordenadas de modo que os autovalores
correspondentes a estas colunas satisfazem:

¸1 ¸ ¸2 ¸ : : : ¸ ¸n ¸ 0

Os valores singulares da matriz A s~ao dados por:


p
¾j = ¸j ; j = 1; 2; : : : ; n

Vamos denotar por r o posto da matriz A. A matriz At A tamb¶em tem posto r.


Como At A ¶e sim¶etrica, temos que seu posto ¶e igual ao n¶
umero de autovalores n~ao
nulos. Logo,

¸1 ¸ ¸2 ¸ : : : ¸ ¸r ¸ 0 e ¸r+1 = ¸r+2 = : : : = ¸n = 0

e o mesmo vale para os valores singulares:

¾1 ¸ ¾2 ¸ : : : ¸ ¾r ¸ 0 e ¾r+1 = ¾r+2 = : : : = ¾n = 0

Sejam as matrizes:
2 3
¾1 0 : : : 0
h i h i 6 7
6 0 ¾2 : : : 0 7
V1 = v1 v2 : : : vn ; V2 = vr+1 vr+2 : : : vn e §1 = 6
6 .. .. . . . 7
7
4 . . . .. 5
0 0 0 ¾r

150
Assim, escrevemos:
" #
§1 0
§= (1)
0 0
e
h i
V= V1 V2 (2)

Os vetores coluna de V2 s~ao os autovetores de At A associados µa ¸ = 0. Logo,

At Avj = 0; j = r + 1; r + 2; : : : ; n

e portanto, as colunas de V2 formam uma base ortonormal para N(At A) = N (A).


Da¶³, escrevemos:

AV2 = 0

e como V ¶e uma matriz ortogonal temos:

I = V V t = V1 V1t + V2 V2t

Multiplicando esta igualdade pela matriz A, obtemos:

A = AI = V1 V1t + V2 V2t = AV1 V1t (3)

At¶e aqui, constru¶³mos as matrizes § e V dadas por (1) e (2). Vamos mostrar, agora,
como construir uma matriz ortogonal U; m £ m, tal que:

A = U§V t ; ou AV = U § (4)

Comparando as r primeiras colunas de cada lado de (4), vemos que:

Avj = ¾j uj ; j = 1; 2; : : : ; r

De¯nindo,
1
uj = Avj ; j = 1; 2; : : : ; r (5)
¾j
e
h i
U1 = u1 u2 : : : ur ;

segue-se que:

AV1 = U1 §1 (6)

151
As colunas de U1 formam um conjunto ortonormal, j¶a que:
1 t t 1
uti uj = ( v A )( Avj ); i; j = 1; 2; : : : ; r
¾i i ¾j

1 t t 1 t 2
= vi (A Avj ) = v (¾ vj )
¾i ¾j ¾i ¾j i j

¾j t
= v vj = ±ij :
¾i i
Segue de (5) que cada uj ; 1 · j · r, est¶a no espa»co coluna de A (dimR(A) =
r) =) u1 ; u2 ; : : : ; ur forma uma base ortonormal de R(A). Como m = dim R(A) +
dim N (At ), temos que o espa»co vetorial N(At ) tem dimens~ao m ¡ r.
Seja fur+1 ; ur+2 ; : : : ; um g uma base para N (At ) e de¯nimos:
h i h i
U2 = ur+1 ur+2 : : : um e U = U1 U2

Desta forma, os vetores u1 ; u2 ; : : : ; um formam uma base ortonormal para Rm . Logo,


U ¶e uma matriz ortogonal. Al¶em do mais, A = U §V t .
De fato:
De (6) e (3) temos:
" #" #
h i § 0 V t
1 1
U§Vt = U1 U2 = U1 §1V1t =AV1 V1t = A
0 0 V2t

Observa»c~ oes:
Obs.1: As colunas de U e V fornecem bases ortonormais para os quatro sube-
spa»cos fundamentais, a saber:
- r primeiras colunas de U : R(A);
- m¡r u ¶ltimas colunas de U : N (At );
- r primeiras colunas de V : R(At );
- n¡r u ¶ltimas colunas de V : N (A).
Obs.2: A SVD fornece estas bases de uma forma bem especial. Al¶em de ortonor-
mais, tem-se: " a matriz A multiplicada por uma coluna da matriz V produz um
m¶ultiplo de uma coluna da matriz U". Isto decorre diretamente de AV = U§,
olhando coluna por coluna.
Obs.3: As conex~oes com AAt e At A devem valer se a f¶ormula U §V t est¶a correta.
Isto pode ser visto facilmente de:

AAt = (U §V t )(V §t U t ) = U§§t U t

152
e

At A = (V §t U t )(U§V t ) = V §t §V t

Da primeira igualdade, U deve ser a matriz dos autovalores de AAt . A matriz


dos autovalores no meio do produto matricial ¶e §§t que ¶e uma matriz m £ m
com ¾12 ; ¾22 ; : : : ; ¾r2 na diagonal. Da segunda igualdade, V deve ser a matriz dos
autovalores de At A. A matriz dos autovalores no meio do produto matricial ¶e §t §
tem os mesmos coe¯cientes ¾12 ; ¾22 ; : : : ; ¾r2 na diagonal,mas ¶e uma matriz n £ n.
Exemplo 1
Seja a matriz:
" #
3 1 1
A= (1)
¡1 3 1

Procedemos como segue:


1) - Determina»c~
ao da matriz U
Temos que:
2 3
" # 3 ¡1 " #
3 1 1 6 7 11 1
AAt = 4 1 3 5 =
¡1 3 1 11 1
1 1

cujos autovalores s~ao dados por:

" #" # " #


11 1 x1 x1
= ¸
1 11 x2 x2

Onde obtemos, ¸1 = 10 e ¸2 = 12, cujos autovetores correspondentes s~ao:


" # " #
1 1
e
¡1 1

Segundo a ordena»c~ao dos autovalores, obtemos a matriz:


" #
1 1
1 ¡1

Nomeando por v1 e v2 os vetores coluna desta matriz e aplicando o processo de


ortogonaliza»c~ao de Gram-Schimidt, obtemos:
" p #
v1 1= 2
u1 = = p
k v1 k 1= 2

153
" #
1
w2 = v2 ¡ (u1 :v2 )u1 =
¡1

e normalizando, obtemos:
" p #
w2 1= 2
u2 = = p
k w2 k ¡1= 2

Dando, ¯nalmente, a matriz:


" p p #
1= 2 1= 2
U= p p
1= 2 ¡1= 2

2) - Determina» c~ao da matriz V


¶ feita de forma similar µa obten»c~ao da matriz U.
E
Neste caso, calculamos:
2 3 2 3
3 ¡1 " # 10 0 2
6 7 3 1 1 6 7
At A = 4 1 3 5 = 4 0 10 4 5
¡1 3 1
1 1 2 4 2

cujos autovalores s~ao dados por:

2 32 3 2 3
10 10 2 x1 x1
6 76 7 6 7
4 0 10 4 5 4 x2 5 = ¸ 4 x2 5
2 4 2 x3 x3

Onde obtemos, ¸1 = 0; ¸2 = 10 e ¸3 = 12 cujos autovetores correspondentes s~ao:


2 3 2 3 2 3
1 2 1
6 7 6 7 6 7
4 2 5 ; 4 ¡1 5 e 4 2 5
¡5 0 1

Segundo a ordena»c~ao dos autovalores, obtemos a matriz:


2 3
1 2 1
6 7
4 2 ¡1 2 5
1 0 ¡5

Nomeando por y1 ; y2 e y3 os vetores coluna desta matriz e aplicando o processo de


ortogonaliza»c~ao de Gram-Schimidt, obtemos:
2 p 3
1= 6
y1 6 p 7
v1 = = 4 2= 6 5
k y1 k p
1= 6

154
2 3
2
6 7
w2 = y2 ¡ (v1 :y2)v1 = 4 ¡1 5
0

e normalizando, obtemos:
2 p 3
2= 5
w2 6 p 7
v2 = = 4 ¡1= 5 5
k w2 k
0

2 3
¡2=3
6 7
w3 = y3 ¡ (v1 :y3 )v1 ¡ (v2 :y3 )v2 = 4 ¡4=3 5
10=3

e normalizando, obtemos:
2 p 3
1= 30
w3 6 p 7
v3 = = 4 2= 30 5
k w3 k p
¡5= 30

Dando, ¯nalmente, a matriz:


2 p p p 3
1= 6 2= 5 1= 30
6 p p p 7
V = 4 2= 6 ¡1= 5 2= 30 5
p p
1= 6 0 ¡5= 30

Para a matriz S, tomamos a raiz quadrada dos maiores autovalores ordenados na


diagonal, obtendo:
" p #
12 0 0
S= p
0 10 0

Observe que os maiores autovalores de U e V s~ao os mesmos e o autovetor nulo de


V ¶e descartado.

9.3 Aplica»c~
ao da SVD no M¶
etodo dos M¶³nimos
Quadrados
Vimos, anteriormente, que a solu»c~ao de um sistema linear inconsistente Ax = b com
m equa»c~oes e n inc¶ognitas satisfaz:

At Ax = At b

155
Se as colunas da matriz A s~ao linearmente independentes, ent~ao a matriz At A ¶e
invert¶³vel e

x = (At A)¡1 At b

Vamos analisar as seguintes di¯culdades encontradas no sistema linear Ax = b:


1) As linhas da matriz A podem ser linearmente dependentes;
2) As colunas da matriz A podem ser linearmente dependentes.
No primeiro caso, as equa»c~oes podem n~ao ter solu»c~ao, pois o vetor b n~ao est¶a
no espa»co coluna da matriz A. Para contornar o problema, projetamos o vetor b no
espa»co coluna da matriz A. Ao inv¶es de resolver o sistema linear Ax = b, resolvemos
o sistema linear Ax = p onde p = A(At A)¡1 At b que pertence ao espa»co coluna de b.
Para o segundo caso,escolhemos uma solu»c~ao particular Ax = p, dada pela seguinte
regra:
"A solu»c~ao ¶otima de Ax = p ¶e aquela que apresenta comprimento m¶³nimo."
A solu»c~ao ¶otima em ambos os casos ser¶a chamada de x+ , dada pela pseudoinversa.

156
Bibliogra¯a

[1] Albrecht, P. - An¶alise Num¶erica -um curso moderno, LTC Ed.,240 p.,1973.

[2] Apostol, T. - C¶alculo com Fun»c~oes de uma Vari¶avel, Revert¶e Ed., 771 p.,2006.


[3] Apostol, T. - C¶alculo com Fun»c~oes de V¶arias Vari¶aveis e Algebra Linear, Re-
vert¶e Ed., 752 p.,2008.


[4] Anton, H. e Rorres, C. - Algebra Linear com Aplica»c~oes, Bookman Ed., 572 p.,
2008.

[5] Burden, R. e Faires, D. - An¶alise Num¶erica, Thomson Ed., 740 p., 2003.

[6] Golub,G. and Van Loan, C. - Matrix Computations, Johns Hopkins Univ.
Press, 694 p., 1996.


[7] Leon, S.J. - Algebra Linear com Aplica»c~oes, LTC Ed., 390 p., 2008.


[8] Strang, G. - Algebra Linear e suas Aplica»c~oes, Cengage Learning Ed., 456 p.,
2010.

[9] Wendro®, B. - Theoretical numerical analysis, Academic Press Ed., New York,
1966.

157

Você também pode gostar