Você está na página 1de 222

lgebra linear algortmica

S. C. Coutinho
Prefcio

Agradeo a todos os alunos que cursaram lgebra linear algortmica em 2010 e 2011
e que serviram de cobaias para a disciplina e para as notas que a acompanharam, espe-
cialmente Fabio Ferman, Fillipe Barros da Silva, Joo Augusto Marrara Marzago, Raul
Barbosa, Mateus Gregrio, Rochanne de Miranda Corra, Filipe Qiang Zhou, Jlio Zyn-
ger, Edberg dos Santos Franco e Victor Lima Campos, que detectaram e ajudaram a corrigir
alguns dos inmeros erros do manuscrito original.

iii
Sumrio

Prefcio iii
Captulo 1. O plano 1
1. Vetores 1
2. Transformaes lineares 10
3. Matrizes 18
Exerccios 31
Captulo 2. Sistemas lineares 35
1. Eliminao gaussiana 35
2. Decomposio de matrizes 56
3. Aplicaes 73
Exerccios 81
Captulo 3. Modelos multidimensionais 85
1. Dinmica de populaes 85
2. O espao Rn e suas transformaes lineares 93
3. Subespaos 98
4. Projees e reflexes 105
5. Mtodos dos mnimos quadrados 108
6. Autovalores e autovetores 112
7. Rotaes no espao 120
Exerccios 126
Captulo 4. Conceitos bsicos 133
1. Espaos vetoriais e transformaes lineares 133
2. Bases 140
3. Bases ortonormais 154
4. Transformaes lineares e bases 164
Exerccios 177
Captulo 5. Diagonalizao 185
1. Operadores diagonalizveis 185
2. Operadores autoadjuntos 193
3. Algoritmos para autovalores e autovetores 200
4. Busca na rede 205
v
vi SUMRIO

Exerccios 210
Referncias Bibliogrficas 215
CAPTULO 1

O plano

Neste captulo estudamos os principais conceitos deste curso, vetores e transformaes


lineares, no contexo concreto do plano. Boa parte do que faremos aqui ser generalizado
para dimenses maiores em captulos posteriores. Nosso tratamento das matrizes, entre-
tanto, ser inteiramente geral. Afinal, trata-se basicamente de uma reviso de matria vista
no ensino mdio.

1. Vetores

Um vetor , essencialmente, um segmento de reta orientado e, como tal, tem:

um comprimento, geralmente chamado de mdulo ou norma;


uma direo, dada pela reta subjacente ao segmento;
um sentido, que nos diz para que lado da reta subjacente o segmento aponta.

Alm disso suporemos que vetores no podem flutuar por onde desejarem. Fixaremos
para todo o sempre um ponto do plano, que chamaremos de origem e denotaremos por O.
Todos os vetores tero uma de suas extremidades na origem e a orientao do segmento
ser sempre da origem para a outra extremidade, como mostra a figura.

G





O

Designaremos vetores por letras, sem a necessidade de adicionar a tradicional seta no alto
da letra. Se u for um vetor, seu mdulo ser denotado por kuk. Reservaremos as barras
simples para o mdulo de um nmero real; isto , se r R, ento
(
r se r 0;
|r| =
r se r < 0;

1
2 1. O PLANO

1.1. Operaes com vetores. Ao contrrios dos segmentos de retas, vetores no so


estticos: podemos operar com eles. A operao mais simples a soma de vetores, definida
pela regra do paralelogramo:

dados dois vetores u e v, formamos o paralelogramo, com vrtice na


origem e lados u e v; a soma u + v corresponde diagonal maior do
paralelogramo orientada da origem para o vrtice oposto; como mostra
a figura.

j jv;
j j jvvvv 
j vv 
j j vv
Gj j v v 
 u+v vvv
 vv
v 
vv 
u 
 vvvv hh hh4
hh
 vv hhhh
vvhvhhhhhhv
hvvhh

A ideia que levou a esta definio antiga e muito natural. Por exemplo, balsas eram
comumente puxadas ao longo de um canal por dois cavalos, um em cada margem; que
uma ilustrao perfeita da regra acima. Em seu famoso Principia, Newton prova a regra
do paralelogramo no corolrio I da Lei II, que corresponde nossa segunda lei de Newton.
Diga-se de passagem que a noo de vetor s foi introduzida 200 anos depois de Newton.
Por isso, o corolrio I foi formulado em termos de foras e movimento (ou deslocamento),
no em termos de vetores.
J para subtrair o vetor u do vetor v, somamos a v o vetor u, obtido invertendo-
se o sentido da seta de u. Como todos os vetores tm que ter seu ponto de partida na
origem, uma maneira mais precisa de descrever esta receita consiste em dizer que, sobre
a mesma reta ao longo da qual est u, desenhamos u como o segmento orientado de
mesmo comprimento que u, mas que aponta no sentido oposto a u, como ilustra a figura.

7
o o o u
o
o o o
ooo
ooooo O
ooo u
wooo
1. VETORES 3

Observe que, literalmente falando, no podemos aplicar a regra do paralelogramo a estes


dois vetores. Afinal, eles so colineares e, por isso, no constituem os lados de um parale-
logramo. Interpretaremos isto como significando que a soma destes vetores o vetor zero,
aquele que tem incio e fim na origem, e que denotaremos por 0. Sob estas convenes
fcil, mas muito montono, verificar geometricamente as seguintes propriedades da soma
e da subtrao de vetores. Se u, v e w so vetores do plano, ento

(u + v) + w = u + (v + w);
u + v = v + u;
u + 0 = u;
u + (u) = 0.

Segundo a primeira das propriedades acima, o posicionamento dos parntesis no afeta


o resultado final da adio de vetores. Com isso, se k N, podemos abreviar

| + {z
u + u}
k vezes

por ku, como de praxe. Como definimos u como sendo o vetor colinear e de sentido
oposto a u, convm dizer que (1) u = u. Portanto, se k um inteiro negativo, teremos
(1) k u = u
| {z
u} .
|k| vezes

Na verdade, vamos generalizar estas definies de modo a permitir o produto de qualquer


nmero real por um vetor u. Para isso, declaramos u como sendo o segmento orientado
colinear a u cujo comprimento igual a || vezes o comprimento de u. Para que esta
definio seja compatvel com (1), precisamos que u tenha a mesma direo que u se
> 0 e a direo oposta se < 0. E quando o escalar o zero? Pela regra anterior, o
vetor obtido multiplicando o escalar 0 por um vetor u tem norma 0 kuk = 0; de modo
que tem que ser o vetor nulo. O produto de um escalar por um vetor satisfaz as seguintes
propriedades:

1u=u
0u=0
(u + v) = u + v;
( + )u = u + u;
()u = (u);

em que u, v e w so vetores do plano e , R. Note que em 0 u = 0 o zero que


multiplica u um escalar, ao passo que o zero direita do sinal de igualdade o vetor
nulo.
Como aplicao do que fizemos at aqui descreveremos a equao vetorial de uma
reta r. O caso mais simples aquele em que r passa pela origem. Neste caso, podemos
4 1. O PLANO

escolher um vetor no nulo u ao longo da reta, que pode ento ser descrita como o conjunto
de mltiplos de u. Isto , a reta corresponde ao conjunto
r = { u | R}.
Talvez esta definio de uma reta pela origem lhe incomode. Afinal, aprendemos no ensino
fundamental que uma reta um conjunto de pontos, no de vetores. Na verdade, trata-se
de uma mera questo de ponto de vista, j que podemos identificar um ponto qualquer P
da reta com o segmento orientado que vai da origem a p, e vice-versa.
Se a reta r no passa pela origem, precisamos escolher primeiramente um vetor u0 cuja
extremidade est sobre r, e que consideraremos fixo de agora em diante. Neste caso
melhor evitar falar de um vetor da reta ou sobre a reta porque, como mostra a figura,
somente a ponta do vetor vai tocar a reta.

_ _ _ _r _ _ __ _ _ _G_ _ _ _ _ _ _ _ _ o_o_7 _ _ _ _ _
o


o oooo
oo
u0  v oooo
oo
 ooo
 ooooo
o
ooo vu0
/

Se v um outro vetor qualquer, cuja extremidade tambm est sobre r, ento a diferena
v u0 nos d um vetor na direo da reta. Na verdade, se pudssemos transpor o vetor da
origem para a extremidade de u0 , obteramos o segmento orientado que vai da extremidade
de u0 extremidade de v. Seja u um vetor qualquer nesta direo. O que dissemos acima
nos permite concluir que v u0 mltiplo escalar de u; em smbolos, v u0 = u, para
algum R. Portanto,

dados um vetor u0 com extremidade sobre a reta r e um vetor u na


direo de r, qualquer vetor v de r pode ser escrito na forma v = u0 +u,
para algum nmero real .

Na linguagem de conjuntos,
r = {u0 + u | R}.
Na terminologia usual, u o vetor diretor da reta r e u0 +u a equao vetorial de r. Uma
pergunta razovel : de que forma a equao vetorial se relaciona equao cartesiana
da reta, que aquela que aprendemos no ensino mdio? Para respond-la, precisamos
introduzir coordenadas nos nossos vetores.
1. VETORES 5

1.2. Projeo e coordenadas. Como ilustrado na figura abaixo, um exerccio simples


de trigonometria mostra que projetando o segmento correspondente a um vetor v sobre a
reta suporte do vetor u obtemos um segmento de comprimento kvk| cos |, em que o
menor ngulo entre os vetores u e v.

:
tt
ttt 
t
tt 
v ttt 
t
ttt 
ttt 
tt
ttt / _ _ _

_ _ _
u

Usando isto, definimos a projeo do vetor v sobre o vetor u, como sendo o vetor Proju (v),
que tem comprimento kvk| cos | e mesma reta suporte que u. O sentido da projeo o
mesmo de u se o ngulo for agudo, e oposto a u se for obtuso.
Naturalmente, podemos determinar se o ngulo agudo ou obtuso a partir do cosseno;
no primeiro caso, cos positivo; no segundo, negativo. Mas isto significa que se u for
um vetor de norma um, ento o vetor
(kvk cos ) u
colinear a u e tem o mesmo comprimento e sentido de Proju (v); de modo que estes
dois vetores so iguais. Quando u no for unitrio, podemos facilmente construir um vetor
unitrio de mesma direo e sentido que u dividindo-o por sua norma. Portanto, em geral,
kvk cos
(2) Proju (v) = u.
kuk

A noo de projeo nos permite introduzir coordenadas para vetores do plano. J


vimos que, para descrever vetores, precisamos fixar o ponto que lhes serve de origem.
Para introduzir coordenadas, fixamos dois vetores unitrio no colineares no plano, que
denotaremos por e1 e e2 . O conjunto {e1 , e2 } conhecido como uma base do plano. Para
simplificar os clculos, escolheremos e1 e e2 como sendo vetores perpendiculares. Seja
v um vetor qualquer do plano. Supondo que o ngulo entre v e e1 , um argumento
trigonomtrico simples mostra que
(3) v = (kvk cos ) e1 + (kvk sen) e2 .
Os nmeros kvk cos e kvk sen so as coordenadas de v relativamente base {e1 , e2 }.
Uma vez que a base esteja fixada, podemos abreviar (3) escrevendo
v = (kvk cos , kvk sen);
isto , identificamos o vetor com seu par de coordenadas. Note que se
(4) v = a e1 + b e2 ,
6 1. O PLANO

ento segue de (3) que


(a e1 + b e2 ) ((kvk cos ) e1 + (kvk sen) e2 ) = 0;
isto ,
(a kvk cos ) e1 + (b kvk sen) e2 = 0;
ou ainda
(a kvk cos ) e1 = (b kvk sen) e2 .
Como os vetores e1 e e2 no so colineares, esta ltima equao s possvel se
a kvk cos = 0 e b kvk sen = 0.
Conclumos, assim, que em qualquer expresso da forma (4), teremos sempre que
(5) a = kvk cos
b = kvk sen
Em outras palavras, as coordenadas de v relativamente base {e1 , e2 } ficam completa-
mente determinadas pela expresso (4).
Vejamos de que forma as coordenadas se comportam relativamente soma de vetores
e ao produto de um vetor por um escalar. Sejam v1 e v2 dois vetores do plano cujas
coordenadas so
v1 = (a1 , b1 ) e v2 = (a2 , b2 ).
Note que no explicitamos as coordenadas em termos do comprimento do vetor e do ngulo
que forma com e1 . S faremos isto quando for realmente necessrio. Em geral, as coorde-
nadas sero consideradas apenas como o par de nmeros que representam os comprimentos
das projees de v sobre e1 e e2 , respectivamente. Pela definio de coordenadas, temos
que
v1 = a1 e1 + b1 e2 e v2 = a2 e1 + b2 e2 .
Pela associatividades da adio de vetores
v1 + v2 = a1 e1 + a2 e1 + b1 e2 + b2 e2 ;
que pelas propriedades do produto por escalar, podemos reescrever como
v1 + v2 = (a1 + a2 )e1 + (b1 + b2 )e2 .
Logo, a v1 + v2 corresponde o par de coordenadas
(a1 + a2 , b1 + b2 ).
Um argumento semelhante mostra que se um nmero real, ento
v1 = (a1 , b1 ).
costumeiro resumir isto dizendo-se que a adio de vetores e a multiplicao de um vetor
por um escalar so feitas coordenada a coordenada.
1. VETORES 7

Agora que sabemos escrever vetores usando coordenadas, podemos responder per-
gunta formulada ao final do artigo anterior: qual a relao entre a equao vetorial e a
equao cartesiana y = ax + b da reta? Lembre-se que esta ltima equao estabelece
a relao entre abscissa e ordenada de um ponto qualquer da reta. Identificando o ponto
(x, y) com a extremidade de um vetor e usando a relao acima, temos que
(x, y) = (x, ax + b).
Apelando para as operaes com vetores, podemos reescrever esta igualdade na forma
(x, y) = x(1, a) + (0, b).
Como x pode assumir qualquer valor real, podemos interpret-lo como parmetro. Assim,
y = ax + b a reta que, passando pela extremidade do vetor u0 = (0, b), tem vetor diretor
igual a u = (1, a), de modo que sua equao vetorial u0 + u.
E se a equao vetorial de uma reta r for dada, como obtemos a e b, de modo que
y = ax + b represente a mesma reta? Suponhamos que u0 + u seja a equao vetorial de
r e que as coordenadas de u e u0 sejam
u0 = (0 , 0 ) e u = (, ).
Dado um vetor qualquer v = (x, y), com extremidade em r, temos que
(x, y) = v = u0 + u = (0 , 0 ) + (, );
donde podemos concluir que
(x, y) = (0 + , 0 + );
ou ainda, que
x = 0 + ;
y = 0 + ;
que so conhecidas como equaes paramtricas da reta r. Supondo que 6= 0, podemos
explicitar o valor de da primeira equao na forma
x 0
= .

Substituindo na segunda equao, obtemos
 
x 0
y = 0 + ;

que pode ser reescrita na forma
0 0
y= + x;

8 1. O PLANO

v .
...........
..
...
....
..
...
..........................
.... .........
.......
.. ......
... ......
...... ....
... ......
....
....
u ...........
.
.... .... ........... ...
.. .... ............
.... .... ............
... ...
...
... .
...
...
...
............
..
... ...
... ............
... ...........
... ......... ... .............
... ... ............ . ............. .....
... ... ..... ........................ ...
.... ........ ... ...
... ... ... ...................... ... ...
...
...... ............. ...
...
.... ............... ... ...
.......................................................................... ..

F IGURA 1. Produto interno

que a equao da reta na forma usual. Como, para chegar a esta resposta, supusemos que
6= 0, resta descobrir o que ocorre se = 0. Neste caso, as equaes paramtricas sero
x = 0 ;
y = 0 + .
Como a abscissa est fixa, esta a reta vertical que corta o eixo x no ponto (0 , 0). Acon-
tece que a equao de uma reta vertical no pode ser escrita na forma y = ax + b. De fato,
a equao da reta r acima simplesmente x = 0 .

1.3. Produto interno. Em fsica aprendemos que o produto interno ou produto esca-
lar entre dois vetores v1 e v2 do plano definido como sendo o nmero
hv1 | v2 i = kv1 kkv2 k cos ;
em que o menor ngulo entre os vetores v1 e v2 . Se {e1 , e2 } uma base do plano
formada por vetores unitrios perpendiculares entre si, de que maneira podemos expressar
hv1 | v2 i em funo das coordenadas de u e v relativas a esta base?
Para isto precisamos relacionar o ngulo aos ngulos que v1 e v2 formam com o vetor
e1 , e que so usados para determinar suas coordenadas. Chamando de e os ngulos
entre e1 e os vetores u e v, respectivamente, temos da figura que = . Portanto,
cos() = cos( ) = cos() cos() + sen() sen(),
1. VETORES 9

de modo que
hv1 | v2 i = kv1 k cos()kv2 k cos() + kv1 k sen()kv2 k sen().
Denotando por (a1 , b1 ) as coordenadas de v1 e por (a2 , b2 ) as coordenadas de v2 , temos de
(5) que
(6) hv1 | v2 i = a1 a2 + b1 b2 .
Esta expresso do produto interno muito conveniente. Por exemplo, a partir dela podemos
provar facilmente as seguintes propriedades:

(1) hu | v1 + v2 i = hu | v1 i + hu | v2 i;
(2) hv1 | v2 i = hv1 | v2 i;
(3) hv1 | v2 i = hv2 | v1 i;
(4) hu | ui 0;
(5) hu | ui = 0 se, e somente se, u = 0;

quaisquer que sejam os vetores u, v1 e v2 do plano e o escalar . Note que a propriedade


(3) implica que valem os anlogos de (1) e (2) com a operao sendo efetuada na primeira
coordenada e a segunda coordenada estando fixa.
Finalmente, a expresso (6) tambm nos permite interpretar geometricamente a equa-
o geral da reta, que tem a forma
x + y + = 0,
em que , e so constantes. Comearemos considerando o caso especial em que = 0.
Sejam n e v os vetores cujas coordenadas relativamente base {e1 , e2 } so
n = (, ) e v = (x, y).
Por (6) temos que
hn | vi = x + y.
Portanto,

v pertence reta de equao x + y = 0 se, e somente se hn | vi = 0.

Em outras palavras,

v pertence reta de equao x + y = 0 se, e somente se v perpendi-


cular ao vetor fixo n.

Note que esta reta contm a origem, que no est contida na reta de equao x+y + =
0, quando 6= 0. Neste caso, como mostra a figura 1.3, no o vetor v que perpendicular
ao vetor normal n, mas sim a diferena v p, em que p corresponde a um vetor fixo com
extremidade sobre a reta.
10 1. O PLANO

..... ....
..... .....
.....
..... .....
..... .....
..... ........
.
..... .....
..... .....
..... .....
..... .....
.....
..... ........
.
..... ..
..... .....
..... .....
..... .....
..... .....
.....
..... ...
......
..... ....
..... .....
..... ..........
..... ....
........
. .
.. .. ..
..... ..........
..... .....
..... .....
..... .....
.....
n ... ..
.. .....
.....

.......
................
...
...
... .
.......
p
................
......... . ..........
...
..... . .... . .. ........ .....
.....
.....
.. ...... .....
.......... .....
..... ........... .....
.
........................ .....
.....
...... ............................
. .....

..........
. ..
......O
. ................
.. .. . ..................
.. .. .. .
. .. ................
.....
.....
.....
.....
..
.. .. ... .
. .................. ...
..
....
. ... .........................
.
..
.....
. .............
..
....
. .....
..... .....
..... .....
.....
X .....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
..

Portanto, a equao de uma reta geral pode ser escrita na forma


hn | (v p)i = 0;
que, pelas propriedades do produto interno, pode ser reescrita na forma
hn | vi = hn | pi.
J vimos que o lado esquerdo desta expresso igual a x + y, logo
= hn | pi,
que mesmo um constante, uma vez que n e p esto fixos.

2. Transformaes lineares

At aqui podemos esticar ou encolher um vetor, multiplicando-o por um escalar, ou


somar dois vetores; mas h muitas outras coisas que podemos fazer a um vetor, como rod-
lo ou refleti-lo relativamente a uma reta. O que no podemos fazer entort-lo, porque
assim deixaria de ser um vetor. Alm disso, como todos os vetores partem da origem, este
ponto tem que ficar fixo por qualquer transformao de vetores. Vejamos alguns exemplos.

2.1. Projees. Comearemos pelas projees, porque j vimos como calcul-las.


Seja u um vetor unitrio e v um vetor qualquer do plano. Por (2), a projeo de v em
u dada por
Proju (v) = (kvk cos()) u,
2. TRANSFORMAES LINEARES 11

em que o ngulo entre u e v. Podemos usar o produto interno para reescrever esta
frmula como
Proju (v) = hu | vi u,
uma vez que u tem mdulo um. Disto obtemos, como muito pouco esforo, uma frmula
para a projeo em termos das coordenadas de u e de v. De fato, se
u = (a, b) e v = (x, y),
ento
Proju (v) = ((ax + by)a, (ax + by)b) = (a2 x + aby, abx + b2 y).

2.2. Reflexes. As reflexes podem ser tratadas de maneira semelhante s projees.


Chamaremos de espelho reta em torno do qual ser realizada a reflexo e cujo vetor
diretor unitrio denotaremos por u. J n ser um vetor, tambm unitrio, perpendicular a
u. No plano, uma vez fixado u, s h duas possibilidades para n. Afinal o mdulo de n
est fixo, pois igual a um, e sua direo tambm, j que est sobre a reta perpendicular ao
espelho. Resta escolher seu sentido, para o qual temos apenas duas possibilidades. Observe
que os vetores u e n formam uma base do plano, de acordo com a definio do artigo 1.2,
pois so unitrios e perpendiculares entre si. Portanto, se v for um vetor do plano e R(v)
seu reflexo relativamente ao espelho de vetor diretor u, temos que
R(v) = Proju (R(v)) + Projn (R(v)).
Resta-nos determinar as projees de R(v) sobre u e n em termos das coordenadas de v
nesta base. Para isto faremos uso da descrio geomtrica usual de uma reflexo.
Para comear, um vetor v e seu reflexo R(v) tm ambos o mesmo mdulo. Alm disso,
o ngulo que o vetor v forma com o espelho o mesmo entre o R(v) e o espelho. A
diferena que v est de um lado do espelho, ao passo que R(v) est do outro lado, como
ilustra a figura 2.2.
O ponto crucial para determinar uma frmula para o reflexo R(v) de um vetor v
observar que as projees de v e R(v) sobre a u satisfazem
Proju (R(v)) = Proju (v).
ao passo que as projees sobre a normal n satisfazem,
Projn (R(v)) = Projn (v).
Logo,
R(v) = Proju (v) Projn (v) = v 2 Projn (v).
Representando a projeo sobre n em termos do produto interno, como no artigo anterior,
temos que
Projn (v) = hn | vi n,
12 1. O PLANO

..
..
..
...
..
..
..
...
.
..
..
..........
...
v ..........
..
.
.
u
... .
... ...
... ...
... ...
...
...
...
...
...
...
...
.
espelho
..
... .
...
... .
... ... ...
...
... ... ...
... ... ..
.. .............
...
...
...
...
...
...
.
...
.
. R(v)
......... ..
.........
.........
...
... ... .... ...........
.
... ... .. ..
...
... .....
... ... .........
...
... ... ... .........
... . .........
... ..... ..... .................
... .. .. ........
..............
. ..
.. .....
. .. ...
...
. . ...
.. ...
. ...
. . ...
. ...
. . ...
. ...
.. ...
. ...
. . ...
. ...
. . ...
. ...
.. ...
. ...
.. ...
. ...
.. ...
. ...
.. ...
. ..
.
.
..
..
.
..

donde
(7) R(v) = v 2hn | vi n.

Encerraremos este artigo determinando uma frmula para R(v) em funo das coorde-
nadas de v. A maneira mais fcil de fazer isto consiste em usar a base {u, n} ao descrever
as coordenadas dos vetores. Afinal, relativamente a esta base, u tem coordenadas (1, 0) e
n tem coordenadas (0, 1), pois
u = 1 u + 0 n e n = 0 u + 1 n.
Supondo que v tem coordenadas (x, y) relativamente a esta mesma base, uma aplicao
direta da frmula (7) nos d
R(x, y) = (x, y) 2y(0, 1) = (x, y);
como seria de esperar da descrio geomtrica. O problema que ao usar {u, n} como
base estamos criando uma situao um pouco artificial. Na prtica, os vetores u e v so
dados em termos de suas coordenadas relativamente a uma base pr-fixada do plano, e no
vice-versa. Portanto, tendo em vista futuras aplicaes, convm determinar como seria
a frmula da reflexo em termos das coordenadas dos vetores relativamente a uma base
qualquer.
Para isto suporemos que uma base {e1 , e2 } foi fixada e que u tem coordenadas (a, b)
relativamente a esta base. Mas o produto interno de u com o vetor de coordenadas (b, a)
igual a zero e, alm disso

kuk = a2 + b2 = knk,
2. TRANSFORMAES LINEARES 13

de modo que se u for unitrio o mesmo ter que ser verdadeiro para n. Portanto, podemos
escolher
n = (b, a),
Escrevendo v = (x, y), a frmula da reflexo obtida acima nos diz que
R(v) = (x, y) 2(ay bx) (b, a);
isto ,
R(v) = ((1 2b2 )x + 2bay, 2abx + (1 2a2 )y).

2.3. Rotao. Passando rotao, digamos que seja a transformao que roda um
vetor v de um ngulo no sentido anti-horrio. Mais uma vez, nosso objetivo consiste em
escrever uma frmula para esta transformao em termos das coordenadas de um vetor v
relativamente a uma base {e1 , e2 } formada por vetores unitrios e perpendiculares entre si.
Como j se tornou usual, diremos que as coordenadas de v so (x, y). A frmula (5)
nos permite afirmar que
x = kvk cos
y = kvk sen
em que o ngulo entre v e o vetor e1 . Tendo expresso x e y desta maneira, fica fcil
determinar as coordenadas de (v). Afinal, ao rodar v de um ngulo no sentido anti-
horrio, o ngulo entre v e e1 aumenta de para + . Isto , as coordenadas de (v)
sero
(kvk cos( + ), kvk sen( + )).
Para explicitar a relao entre estas coordenadas e as coordenadas x e y de v, usamos duas
bem conhecidas frmulas de trigonometria
sen( + ) = sen() cos() + sen() cos()
cos( + ) = cos() cos() sen() sen().
Multiplicando estas expresses por kvk e substituindo kvk cos por x e kvk sen por y,
obtemos
(x, y) = (cos()x sen()y, cos()y + sen()x),
que a frmula desejada.

2.4. Definio e propriedades. Uma coisa que transparece das frmulas obtidas para
projees, reflexes e rotaes que as coordenadas so sempre expresses lineares sem
termo contante, nas coordenadas x e y do argumento v. As transformaes com esta pro-
priedade so to abundantes nas cincias naturais, e to importantes no estudo dos vetores,
que merecem uma designao parte.
14 1. O PLANO

Seja T uma transformao (ou aplicao) do plano nele mesmo e fixemos uma base do
plano. Diremos que T uma transformao linear do plano se existirem constantes a, b, c
e d de modo que a imagem de qualquer vetor v pode ser escrita na forma
T (v) = (ax + by, cx + dy) sempre que v = (x, y).
A origem do uso do adjetivo linear para designar tais transformaes claro: as coordena-
das do vetor imagem so, de fato, expresses lineares em x e y. Observe que exclumos a
possibilidade de termos constantes nesta expresso desde o comeo, porque decidimos de
partida que a imagem do vetor zero por T teria que ser o mesmo vetor zero, j que todos
os vetores partem de um mesmo ponto.
As transformaes lineares do plano tm trs propriedades importantes. Se v1 e v2 so
dois vetores quaisquer do plano e R, ento:

(1) T (0) = 0;
(2) T (v1 + v2 ) = T (v1 ) + T (v2 );
(3) T (v1 ) = T (v1 ).

A propriedade (1) bvia; provaremos a segunda e deixaremos a terceira aos seus cuida-
dos. Suponhamos que v1 e v2 tm coordenadas
v1 = (x1 , y1 ) e v2 = (x2 , y2 ),
relativamente base fixada. Neste caso,
v1 + v2 = (x1 + x2 , y1 + y2 );
de modo que
T (v1 + v2 ) = (a(x1 + x2 ) + b(y1 + y2 ), c(x1 + x2 ) + d(y1 + y2 )).
Mas o lado direito da equao acima igual a
((ax1 + by1 ) + (ax2 + by2 ), (cx1 + dy1 ) + (cx2 + dy2 ))
que igual soma de vetores,
(ax1 + by1 , cx1 + dy1 ) + (ax2 + by2 , cx2 + dy2 );
isto , a T (v1 ) + T (v2 ), provando assim a propriedade desejada.
Na verdade, qualquer aplicao do plano nele mesmo que satisfaz estas trs propri-
edades tem que ser uma transformao linear. A verificao simples e muito importante
para a caracterizao final que daremos a estas transformaes, por isso vamos faz-la
em detalhes. Para deixar bem claro o que queremos fazer, convm enunci-lo de maneira
bastante precisa:

se uma transformao T do plano satisfaz as propriedades (1), (2) e (3)


acima ento existem constantes a, b, c e d de modo que T (x, y) = (ax +
by, cx + dy);
2. TRANSFORMAES LINEARES 15

em que a escolha das coordenadas naturalmente pressupe que fixamos uma base do plano.
Comearemos supondo v um vetor do plano cujas coordenadas relativamente base
fixada so (x, y). Por definio, isto significa que, se a base for constituda pelos vetores
e1 e e2 , ento
v = xe1 + ye2 .
Portanto,
T (v) = T (xe1 + ye2 ).
Usando as propriedades (2) e (3) o lado direito desta ltima equao pode ser escrito na
forma
T (v) = xT (e1 ) + yT (e2 ).
Mas, tanto T (e1 ) como T (e2 ) so vetores do plano e, como tais, podem ser escritos em
termos de suas coordenadas na base {e1 , e2 }. Se
T (e1 ) = ae1 + ce2 e que T (e2 ) = be1 + de2 ,
ento
T (v) = x(ae1 + ce2 ) + y(be1 + de2 ) = (ax + by)e1 + (cx + dy)e2 .
Podemos reformular isto diretamente em termos das coordenadas como
T (x, y) = (ax + by, cx + dy),
que a frmula que desejvamos obter. Observe que, como os vetores e1 e e2 esto fixados,
os nmeros reais a, b, c e d dependem apenas de T e no das coordenadas de v. Na
verdade, descobrimos o que estes quatro nmeros representam: so as coordenadas de
T (e1 ) e T (e2 ). Voltaremos a usar isto no artigo 2.6. Convm resumir o que fizemos acima
para uso futuro.
P ROPOSIO 2.1. Seja T uma aplicao do plano no plano e fixemos uma base do
plano em relao qual tomaremos todas as coordenadas dos vetores. As seguintes con-
dies so equivalentes:

T satisfaz as propriedades (1), (2) e (3) acima;


T (x, y) = (ax + by, cx + dy) em que T (e1 ) = (a, c) e T (e2 ) = (b, d).

2.5. Combinando transformaes lineares. Duas transformaes lineares do plano


podem ser somadas ou compostas, disto resultando uma nova transformao linear do
plano. Se S e T so transformaes lineares do plano, ento definimos sua soma como
sendo a aplicao S + T definida em um vetor v por
(S + T )(v) = S(v) + T (v),
ao passo que sua composio S T definida por
(S T )(v) = S(T (v)).
16 1. O PLANO

Note que S T e T S representam transformaes que podem ser diferentes, ao passo


que S + T e T + S sempre designam a mesma transformao, porque a soma de vetores
no depende de quem vem primeiro.
Verificaremos com cuidado que tanto S+T quanto ST so transformaes lineares. A
maneira mais fcil seria provar que estas transformaes satisfazem as propriedades (1), (2)
e (3) do artigo anterior. Pela proposio 2.1 isto garantiria que se tratam de transformaes
lineares. Em vez disso, vamos deduzir uma frmula em termos de coordenadas para S + T
e S T , a partir das respectivas frmulas para S e T . Procederemos assim porque estas
frmulas sero necessrias no artigo seguinte.
Supondo fixada uma base do plano, digamos que

T (x, y) = (ax + by, cx + dy) e que S(x, y) = (x + y, x + y),

em que a, b, c, d, , , , so constantes. Por definio,

(S + T )(x, y) = S(x, y) + T (x, y),

que igual a
(ax + by, cx + dy) + (x + y, x + y);
somando os vetores, conclumos que

(S + T )(x, y) = ((a + )x + (b + )y, (c + )x + (d + )y).

A frmula resultante muito fcil de lembrar, porque apenas somamos os coeficientes de


x e y em cada coordenada do vetor imagem. A frmula da composta, infelizmente, est
longe de ser to simples. Partindo da definio temos que

(S T )(x, y) = S(T (x, y)) = S(ax + by, cx + dy);

a que aplicamos a frmula para S, obtendo

(S T )(x, y) = ((ax + by) + (cx + dy), (ax + by) + (cx + dy)).

Reagrupando os termos,

(S T )(x, y) = ((a + c)x + (b + d)y, (a + c)x + (b + d)y),

que bem menos fcil de lembrar que a anterior. Imagine se, ao invs de compor duas
funes, precisssemos compor trs ou quatro: uma rotao, seguida de uma reflexo, de
uma nova rotao e finalmente uma projeo. Problemas como este ocorrem frequente-
mente na prtica e levaram Arthur Cayley, no sculo XIX, a procurar uma maneira sucinta
de resolv-los. Para isto ele inventou as matrizes.
2. TRANSFORMAES LINEARES 17

2.6. Matriz de uma transformao linear. A ideia de Cayley que, uma vez fixada
uma base do plano, uma transformao linear fica completamente determinada por quatro
nmeros: os coeficientes de x e y nas expresses que definem as coordenadas de T (x, y).
Quando
T (x, y) = (ax + by, cx + dy),
os nmeros so a, b, c e d. Mas isto significa que, para fazer clculos com T basta conhecer
estes nmeros e descobrir como se transformam sob estes clculos. Para tornar tudo mais
transparente, Cayley resolveu dispor estes nmeros em um quadro,
" #
a b
c d
e assim foram inventadas as matrizes. Como sempre, este resumo histrico no representa
o que realmente aconteceu. A disposio em forma de quadro j era usada desde o sculo
XVIII para denotar determinantes, e o nome matriz foi usado por Sylvester antes mesmo
do primeiro artigo do Cayley sobre o assunto; para mais detalhes, consulte [3, p. 171].
Como a matriz de uma transformao depende completamente da base do plano que foi
escolhida e fixada, denotaremos a matriz de T escrita acima por (T ) , em que = {e1 , e2 }
a base na qual estamos escrevendo as coordenadas dos vetores do plano.
Usando esta notao e as expresses para a projeo, reflexo e rotao em termos das
coordenadas dos vetores, podemos facilmente determinar as matrizes correspondentes a
estas transformaes lineares; que so
" # " #
a2 ab 1 2a2 2ab
( Proju ) = e (R) =
ab b2 2ab 1 2b2
em que (a, b) so as coordenadas do vetor unitrio u e
" #
cos() sen()
( ) =
sen() cos()
para a rotao anti-horria de um ngulo . Na verdade, no caso da projeo e da refle-
xo, a matriz pode ser expressa de maneira ainda mais compacta usando operaes com
matrizes, como veremos no artigo 3.4. Enquanto isto, vamos nos contentar em descrever
explicitamente as matrizes correspondentes soma e composio de dois operadores.
Para isto, considere duas transformaes lineares T e S do plano, definidas em uma
base por
T (x, y) = (ax + by, cx + dy) e S(x, y) = (x + y, x + y).
Pela regra criada por Cayley as matrizes correspondentes na base sero
" # " #
a b
(T ) = e (S) = .
c d
18 1. O PLANO

Usando as frmulas para S + T e S T obtidas no artigo anterior, obtemos


" # " #
a+ b+ a + c b + d
(S + T ) = ao passo que (S T ) = .
c+ d+ a + c b + d
Cayley deu, ento, um passo frente, utilizando estas frmulas para definir a adio e a
multiplicao diretamente sobre as matrizes; mais precisamente
(S) + (T ) = (S + T )
(S) (T ) = (S T )
Abstraindo completamente das transformaes, obtemos as operaes usuais com matri-
zes: a soma, definida entrada a entrada, e a multiplicao, definida pela regra
" # " # " #
a b a + c b + d
= .
c d a + c b + d
Portanto, a regra para multiplicao de matrizes, primeira vista to artificial, obtida
coletando os coeficientes de x e y na frmula resultante da composio de duas transfor-
maes lineares.

3. Matrizes

Uma vez introduzido um novo conceito, improvvel que no venha a ser generalizado,
assim que surgir a oportunidade. No caso das matrizes, o prprio Cayley as apresentou em
um grau de generalidade muito maior que o adotado na seo anterior.

3.1. Definio geral. Considerando uma matriz como um quadro de nmeros, nada
nos impede de cri-las com qualquer nmero de linhas e colunas que desejemos. Nem
mesmo h a necessidade de que a quantidade de linhas e colunas seja a mesma. Tendo
isto em vista, Cayley definiu matrizes m n como quadros de nmeros com m linhas
e n colunas cujas posies podem ser preenchidas por nmeros reais, ou outros objetos
matemticos de natureza semelhante. Como seria de esperar, as matrizes para as quais
m = n so chamadas de quadradas; as demais so conhecidas como matrizes retangulares.
Os nmeros que ocupam as vrias posies de uma matriz so conhecidos como entra-
das ou coeficientes da matriz e dispostos em uma tabela, encapsulada por colchetes. Para
no ter que repetir todo o quadro numrico a cada vez que nos referimos a uma matriz,
vamos design-las por letras, geralmente maisculas. Por exemplo,

1 5 5/7
A = 1/8 9 8 /2

0 65 0 7/
uma matriz com 3 4 (isto , tem 3 linhas e 4 colunas) cujas entradas so nmeros reais.
3. MATRIZES 19

Para localizar uma entrada em uma matriz, definimos sua posio em termos da linha
e da coluna que ocupa. Por exemplo, na matriz A acima, /2 ocupa a posio 2, 4 e 65
a posio 3, 2. Como frases do tipo o nmero ocupa a posio que est na interseo
da linha i com a coluna j da matriz M so muito verbosas, vamos abrevi-las escrevendo
simplesmente
Mi,j = ou M [i, j] = .
conforme nossa convenincia. Assim, tomando como base a matriz A do exemplo acima
mais uma vez, temos
A1,4 = 5/7 e A(2, 2) = 9.
Usando esta nomeclatura, a diagonal de uma matriz M corresponde s posies Mi,i . Na
matriz do exemplo, a diagonal formada pelas entradas
A1,1 = 1, A2,2 = 9 e A3,3 = 0.
Naturalmente a diagonal de uma matriz s se parece com uma diagonal, no sentido ge-
omtrico do termo, quando a matriz quadrada. Chamaremos de diagonal as matrizes
quadradas cujas nicas entradas no nulas pertencem sua diagonal. Por exemplo, a ma-
triz
1 0 0 0 1 0 0 0

0 /2 0 0 0 /2 8 0
0 0 4 0 diagonal, j 0 0 4 0 no .


0 0 0 2 0 0 0 2
A mais importante de todas as matrizes diagonais a matriz identidade. Denotada por I,
ou In quando for necessrio deixar claro que se trata de uma matriz n n, ela tem 1s ao
longo da diagonal e zeros em todas as outras posies, como o caso de

1 0 0 0

0 1 0 0
I4 = 0 0 1 0


0 0 0 1

Nem sempre conveniente definir uma matriz apresentando-a como um quadro de


nmeros. Isto ocorre, por exemplo, se a matriz for esparsa; isto , se a maioria de suas
entradas forem nulas, como o caso da matriz identidade. Imagine desenhar uma matriz
identidade 100100: o quadro numrico enorme, mas est quase todo ocupado por zeros!
Uma maneira mais econmica de definir tais matrizes consiste em defini-las coeficiente a
coeficiente. Fazendo isto para a matriz A do incio deste artigo teramos as entradas listadas
na tabela
Que no parece ser nada alm de uma verso piorada do quadro introduzido pelo Cay-
ley. Mas no se esquea de que esta matriz no , de forma alguma, esparsa. Nos casos
20 1. O PLANO

A1,1 = 1 A1,2 = 5 A1,3 = A1,4 = 5/7


A2,1 = 1/8 A2,2 = 9 A2,3 = 8 A2,4 = /2
A3,1 = 0 A3,2 = 65 A3,3 = 0 A3,4 = 7/

mais vantajosos, ou a matriz esparsa ou os coeficientes podem ser facilmente descritos


por uma regra (ou ambos!). Por exemplo, a matriz identidade n n pode ser definida
facilmente por (
1 quando i = j
In (i, j) =
0 quando i 6= j
Note que escolhemos pr os ndices que identificam a posio da entrada entre colchetes,
em vez de usar subscritos, para evitar conflito com o n que identifica a dimenso da ma-
triz. As matrizes de Vandermonde, que desempenham papel essencial nos problemas de
interpolao que estudaremos adiante, tambm so mais facilmente definidas por uma des-
crio de seus coeficientes, ainda que no sejam matrizes esparsas. Dados n nmeros reais
1 , . . . , n , a matriz de Vandermonde V = V (1 , . . . , n ) determinada por este nmeros
definida pela regra
Vi,j = ij1 .
Quando n = 3 isto nos d
1 1 12
1 2 22

1 3 32
Esta maneira de definir matrizes ser muito til na formalizao das regras usadas nas
operaes com matrizes.

3.2. Operaes com matrizes. Nosso objetivo neste artigo adaptar as regras que
descobrimos para a adio e multiplicao de matrizes 2 2 para o caso geral em que as
matrizes no so nem mesmo quadradas. Antes, porm, de escrever estas regras, precisa-
mos saber comparar duas matrizes e determinar se so ou no iguais. Como matrizes so,
em ltima anlise, uma espcie de tabela, diremos que duas delas so iguais se isto valer
para as tabelas correspondentes. Mais precisamente, para que uma matriz A de tamanho
m n e uma matriz B de tamanho r s sejam iguais, suas dimenses precisam coincidir,
de modo que m = r e n = s e as entradas de uma mesma posio devem coincidir; isto ,
Ai,j = Bi,j
para todo 1 i m e 1 j n.
Em nosso estudo das operaes manteremos as convenes estabelecidas acima para
as matrizes A e B. Comearemos analisando a adio. Como vimos, para somar duas
matrizes 2 2, somamos os seus coeficientes entrada a entrada. Para podermos estender
isto s matrizes A e B necessrio que tenham as mesmas dimenses; isto , que m = r e
3. MATRIZES 21

que n = s. Admitindo que isto se verifica, podemos descrever a soma A + B a partir dos
seus coeficientes por
(A + B)i,j = Ai,j + Bi,j .
Em outras palavras, a entrada i, j da soma igual soma das entradas i, j das matrizes
A e B. Outra operao fcil de descrever desta maneira a multiplicao de uma matriz
por um escalar, que no apareceu antes e no deve ser confundida com a multiplicao de
matrizes. Se for um nmero real, definimos a matriz A por
( A)i,j = Ai,j .
Portanto, A a matriz obtida multiplicando-se cada coeficiente de A por . Por exemplo,

1 5 5/7 2 10 2 10/7
(2) 1/8 9 8 /2 = 1/4 18 16

0 65 0 7/ 0 130 0 14/
As operaes de adio de matrizes e multiplicao de uma matriz por um escalar satisfa-
zem algumas propriedades simples que listamos a seguir. Se A, B e C so matrizes m n
e e so nmeros reais, ento

(1) (A + B) + C = A + (B + C);
(2) A + B = B + A;
(3) A + 0 = A;
(4) (A + B) = A + B;
(5) ( + ) A = A + A;
(6) 1 A = A;
(7) 0 A = 0;

em que o smbolo 0, usado nas propriedades (3) e no lado direito da propriedade (7) denota
a matriz cujas entradas so todas nulas. Entretanto, o 0 que multiplica a matriz A do
lado esquerdo de (7) nosso velho conhecido, o nmero real zero. Observe que estas
propriedades so muito semelhantes s da adio de vetores e multiplicao de um vetor
por escalar, descritas no artigo 1.1. Prov-las fica por sua conta.
Passemos frmula para a multiplicao de matrizes. A maneira usual de descrev-la
recorre a uma frmula geral, cheia de coeficientes. Mas h uma maneira mais civilizada de
express-la. Comeamos com o caso em que
" #
h i c1
L = `1 `2 e C =
c2
A regra para multplicao de matrizes 2 2 deduzida no artigo 2.6 sugere que deveramos
definir o produto LC como sendo a matriz 11 cuja nica entrada `1 c1 +`2 c2 . Podemos
22 1. O PLANO

considerar isto como uma matriz 1 1 ou como um nmero real, isto , um escalar. Em
geral, se
c1
h i .
L = `1 `n e C = .
.
cn
ento copiamos a definio acima, escrevendo,
(8) L C = `1 c1 + + `n cn .
Por exemplo, quando
h i 4
L = 1 2 3 e C = 5

6
obtemos
L C = 1 4 + 2 5 + 3 6 = 32.
Note que escolhemos L como tendo n colunas e C como tendo n linhas, do contrrio
sobrariam coeficientes em L ou C quando vissemos a construir o somatrio que define
L C. Pondo de outra maneira,

s faz sentido multiplicar uma matriz 1 n por uma matriz r 1 quando


n = r.

A propsito, as matrizes 1n so conhecidas como matrizes linha e as r1 como matrizes


coluna.
Para estender isto s matrizes A e B do incio do artigo, consideraremos cada linha
de A como sendo uma matriz 1 n e cada coluna de B como sendo uma matriz r 1.
A primeira coisa a notar que, para que seja possvel multiplicar uma linha de A por
uma coluna de B devemos ter que n = r. Sob esta condio, definiremos a entrada i, j da
matriz produto AB como sendo o escalar que resulta do produto da i-sima linha de A pela
j-sima coluna de B. Para escrever uma frmula explcita conveniente ter uma notao
para linhas e colunas de uma matriz. Utilizando a terminologia do S CILAB escreveremos
A(i, :) para denotar a i-sima linha e A(:, j) para denotar a j-sima coluna da matriz A.
Com isto, a frmula que define a matriz produto AB
(AB)(i, j) = A(i, :) B(:, j).
Note que i percorre os ndices das linhas de A, ao passo que j percorre os ndices das
colunas de B. Como AB tem uma entrada para cada i e cada j, sua dimenso ser m s.
Temos, assim, que

o produto de uma matriz m n por uma matriz r s s existe se n = r;


neste caso o produto ser uma matriz m s.
3. MATRIZES 23

Usaremos esta frmula para provar que a matriz identidade merece o nome que tem;
isto , que se comporta como uma identidade relativamente multiplicao de matrizes,
de modo que
A In = In A = A,
para toda matriz quadrada A de tamanho n n. Pela frmula acima,
(A In )(i, j) = A(i, :) In (:, j).
Mas In (:, j) tem apenas uma entrada no nula, que fica na posio j, j. Portanto, pela
frmula (8),
A(i, :) In (:, j) = A(i, j).
Logo,
(A In )(i, j) = A(i, j),
de modo que a entrada i, j de A In coincide com a entrada de mesma posio de A,
provando a igualdade destas duas matrizes. A igualdade In A = A provada de maneira
semelhante, os detalhes ficam por sua conta. Argumentos parecidos permitem provar as
seguintes propriedades da multiplicao de matrizes:

(1) A(BC) = (AB)C;


(2) A 0 = 0;
(3) A(B + C) = AB + AC;

em que 0 representa a matriz nula e A, B e C representam matrizes quadradas de mesmo


tamanho. A propriedade AB = BA no foi listada acima por uma razo muito simples:
ela falsa. Por exemplo, " #" # " #
1 1 1 0 2 1
=
0 1 1 1 1 1
no igual a " #" # " #
1 0 1 1 1 1
=
1 1 0 1 1 2

Encerraremos o artigo definindo e considerando as propriedades de mais uma operao


com matrizes. Se A for a matriz do incio do artigo, definimos a transposta At de A como
sendo a matriz obtida trocando-se as linhas pelas colunas de A. Na notao acima,
(At )(i, :) = A(:, i);
ou, o que d no mesmo,
(At )(i, j) = A(j, i).
Naturalmente, se a matriz A tem tamanho mn, ento sua transposta tem tamanho, nm;
afinal, linhas viraram colunas e vice-versa. Naturalmente, a transposta da transposta a
matriz original:
(At )t = A.
24 1. O PLANO

O comportameto da adio e da multiplicao por escalar relativamente transposio


muito simples. Se A e B forem matrizes de mesmo tamanho, ento
(A + B)t = At + B t e ( A)t = At ;
qualquer que seja o escalar . J o comportamento da multiplicao relativamente trans-
posio um pouco mais sutil. Suponhamos que A uma matriz m n e B uma matriz
n s. Como o nmero de colunas de A coincide com o de linhas de B, o produto AB
existe e uma matriz m s. Portanto, a transposta (AB)t ser uma matriz s m. Ao
contrrio do que voc possa esperar, esta matriz no pode, em geral, ser igual a At B t . Na
verdade, como At tem tamanho n m e B t tamanho s n, o produto At B t sequer estar
definido quando m 6= s. Curiosamente, os tamanhos de At e B t nos permitem calcular
B t At . Mais impressionante ainda que este produto venha a coincidir com (AB)t ; mas
exatamente isto que acontece. Para provar isto, lembre-se que por definio
(At )(:, j) = A(j, :) e (B t )(i, :) = B(:, i)
ao passo que
((AB)t )(i, j) = (AB)(j, i);
que pela frmula do produto igual a
A(j, :)B(:, i) = (B t )(i, :)(At )(:, j);
que nada mais , seno
(B t )(At )(i, j);
provando, assim, a igualdade desejada.

3.3. Algumas matrizes especiais. Vrias matrizes especiais aparecero ao longo des-
te livro. Precisaremos introduzir algumas das mais bsicas nesta seo porque algumas de
suas propriedades sero necessrias j no prximo captulo.
Os primeiros tipos especiais de matrizes que introduziremos dizem respeito ao posicio-
namento dos zeros. Seja A uma matriz retangular de tamanho m n. Se todas as posies
abaixo da diagonal de A so nulas, ento A triangular superior; se so as posies acima
da diagonal que so nulas, dizemos que A triangular inferior. Na notao introduzida no
artigo 3.2 estas definies podem ser formuladas da seguinte maneira
( (
j>i triangular inferior
se Ai,j = 0 sempre que ento A
j<i triangular superior
Por exemplo,

1 1 1 1 3 0 0 0 0

0 1 0 3 8 3 0 0 0
0 0 4 17 triangular superior e
triangular inferior.
11 7 7 0 0

0 0 0 2 1 8 2 7 1
3. MATRIZES 25

Em seguida definimos uma famlia de matrizes a partir das quais qualquer matriz pode
ser representada. Digamos que m e n so inteiros positivos. Dados inteiros 1 i m e
1 j n, definimos Eij como sendo a matriz m n que tem 1 na posio i, j e zero
em todas as suas outras entradas. Usando, mais uma vez, a notao do artigo 3.2, podemos
definir as entradas desta matriz por
(
1 se i = k e j = `
Eij (k, `) =
0 em qualquer outro caso

Portanto, quando m = 2 e n = 3, temos as seguintes matrizes


" # " # " #
1 0 0 0 1 0 0 0 1
E1,1 = , E1,2 = , E1,3 =
0 0 0 0 0 0 0 0 0

e assim por diante, num total de 2 3 = 6 matrizes, uma para cada posio no nula no
quadro 2 por 3.
A importncia destas matrizes est no fato de que podemos escrever qualquer matriz A
de tamanho m n como uma soma da forma
m X
X n
(9) A= A(i, j) Ei,j ,
i=1 j=1

em que A(i, j) denota a entrada de A que ocupa a posio i, j. muito fcil somar duas
matrizes representadas desta maneira, e deixamos isto por sua conta. Mais interessante
que a distributividade da multiplicao de matrizes nos permite calcular o produto de duas
matrizes expressas em duplos somatrios desde que saibamos calcular Ei,j Ek,` , quaisquer
que sejam 1 i, k m e 1 j, ` n. Como Ei,j e Ek,` tm apenas uma posio no nula
cada, seu produto pode ter, no mximo, uma entrada no nula. Se existir, esta entrada tem
que aparecer quando multiplicamos a i-sima linha de Ei,j pela `-sima coluna de Ek,` ,
porque qualquer posio fora desta linha e coluna so nulas. Entretanto, para que haja de
fato uma entrada no nula preciso que o 1 ocupe na i-sima linha exatamente a mesma
posio que ocupa na `-sima coluna; que uma maneira prolixa de dizer que k tem que
ser igual a j. Resumindo,
(
Ei,` se j = k
(10) Ei,j Ek,` =
0 se j 6= k

Na decomposio que fizemos acima a matriz foi escrita diretamente a partir de suas
entradas, mas pode ser conveniente decompor uma matriz em termos de matrizes menores,
chamadas de blocos. Por exemplo, uma matriz 4 4 qualquer pode ser considerada como
26 1. O PLANO

uma matriz cujas entradas so, elas prprias, matrizes 2 2. Se a matriz 4 4 for

1 2 3 4

0 7 1 0
M =
1 2 9 4

1 2 30 11
os blocos sero as matrizes,
" # " # " # " #
1 2 3 4 1 2 4 4
A= , B= , C= , e D= ;
0 7 1 0 1 2 30 11
com o que podemos escrever
" #
A B
M=
C D
Em geral, se r fator de m e s fator de n, podemos representar uma matriz m n como
uma matriz formada por blocos de tamanho r s, que ter m/r blocos por linha e n/s
blocos por coluna.
Finalmente, dizemos que uma matriz quadrada A de tamanho n n inversvel se
existe uma matriz B, tambm de tamanho n n tal que
A B = B A = I.
Observe que esta equao s faz sentido quando A e B forem ambas matrizes quadradas
e de mesmo tamanho. A matriz B chamada de inversa de A e geralmente denotada por
A1 .
Ainda que toda matriz inversvel tenha que ser quadrada, nem toda matriz quadrada
inversvel. Por exemplo, a matriz Ei,j no inversvel, no importa que valores escolhamos
para i e j. Podemos provar isto facilmente usando as frmulas (9) e (10). Digamos, por
exemplo, que Ek,` seja uma matriz n n com 1 k, ` n. Se Ek,` tivesse como inverso
uma matriz A de tamanho n n, ento por (9) e pela distributividade da multiplicao de
matrizes
Xm X n
Ek,` A = A(i, j) Ek,` Ei,j ,
i=1 j=1

de modo que, por (10),


n
X
Ek,` A = A(`, j) Ek,j .
j=1

Em particular, todas as posies desta matriz localizadas fora da k-sima linha tm que
ser nulas. Contudo, a matriz identidade tem uma posio no nula, na diagonal, para cada
3. MATRIZES 27

linha e cada coluna. Portanto,

Ek,` A 6= I, quaisquer que sejam i e j.

No artigo 3.2 do captulo 2, estudaremos um algoritmo que determina se uma dada


matriz quadrada tem ou no inversa e que calcula tal inversa, caso exista. Por enquanto
vamos nos contentar em calcular a inversa de uma matriz triangular inferior. Comeamos
tratando do caso em que a matriz 3 3. Supondo que

a1 0 0 x1 x2 x3
M = b1 b2 0 tenha inversa X = y1 y2 y3

c1 c2 c3 z1 z2 z3

teremos

a1 x 1 a1 x 2 a1 x 3
M X = b2 y1 + b1 x1 b2 y2 + b1 x2 b2 y3 + b1 x3 .

c3 z1 + c2 y1 + c1 x1 c3 z2 + c2 y2 + c1 x2 c3 z3 + c2 y3 + c1 x3

Igualando esta matriz identidade 3 3, obtemos o sistema linear

a1 x 1 =1
a1 x 2 =0
a1 x 3 =0
b2 y 1 + b1 x 1 =0
b2 y 2 + b1 x 2 =1
b2 y 3 + b1 x 3 =0
c3 z1 + c2 y1 + c1 x1 =0
c3 z2 + c2 y2 + c1 x2 =0
c3 z3 + c2 y3 + c1 x3 =1

A primeira coisa que este sistema nos revela que se a1 for nulo ento M no tem inversa,
porque a primeira equao do sistema j seria impossvel. Por outro lado, se a1 6= 0 ento,
resolvendo as trs primeiras equaes, obtemos

x1 = 1/a1 e x2 = x3 = 0.
28 1. O PLANO

Substituindo isto no sistema, as seis ltimas equaes podem ser reescritas na forma
b2 y1 + b1 /a1 = 0
b2 y 2 = 1
b2 y 3 = 0
c3 z1 + c2 y1 + c1 /a1 = 0
c3 z2 + c2 y2 = 0
c3 z3 + c2 y3 = 1.
Argumentando como acima verificamos que o sistema s ter soluo se b2 6= 0; neste
caso,
y1 = b1 /b2 a1 , y2 = 1/b2 e y3 = 0.
Substituindo estes valores nas trs ltimas equaes, vemos que o sistema ter soluo
z1 = (b1 c2 b2 c1 )/c3 b2 a1 , z2 = c2 /c3 b2 e z3 = 1/c3 .
se c3 6= 0; caso contrrio no haver soluo. Portanto, se a1 6= 0, b2 6= 0 e c3 6= 0, a
matriz M ter inversa igual a

1/a1 0 0
b1 /a1 b2 1/b2 0


(b1 c2 b2 c1 )/a1 b2 c3 c2 /b2 c3 1/c3
Estes clculos simples mostram que, pelo menos no caso 3 3, determinar a inversa de
uma matriz triangular inferior se reduz a achar as solues de um sistema linear muito fcil
de resolver. Voltaremos a considerar estes sistemas, conhecidos apropriadamente como
triangulares inferiores, de maneira mais abrangente no artigo 1.2 do captulo 2. Podemos
concluir, do que fizemos, que

uma matriz triangular inferior inversvel se, e somente se, no tem entradas nulas
ao longo da diagonal;
quando a inversa de uma matriz triangular inferior existe ela tambm triangular
inferior.

Estritamente falando, s provamos estes dois resultados para matrizes 33, mas eles valem
em geral. Na verdade a demonstrao do caso geral mera continuao do caso 3 3, j
podemos imaginar M como representando o vrtice superior de uma matriz triangular
superior n n quando n 3.

3.4. Matrizes retangulares, para qu? Ainda que voc tenha se convencido de que
as matrizes quadradas 2 2 possam ser teis na representao de transformaes lineares
do plano, talvez voc se perguntando se matrizes retangulares no so fruto da obsesso
dos matemticos em generalizar tudo o que pode ser generalizado. Apesar de ter todo o
3. MATRIZES 29

resto deste livro para lhe convencer de que no este o caso, no custa dar alguns exemplos
relacionados aos vetores do plano e suas transformaes lineares.
Para comear, podemos considerar um vetor do plano como sendo uma matriz.
primeira vista o natural seria descrever um vetor como sendo uma matriz 1 2, mas a
verdade que melhor identificar um vetor (a, b) com a matriz coluna
" #
a
.
b
A razo para esta escolha um tanto bizarra logo ficar clara. O fato que, somando vetores,
ou as matrizes que lhes coorespondem, obtemos o mesmo resultado. Mais precisamente,

a matriz coluna correspondente soma dos vetores u com v igual


soma das matrizes coluna correspondentes a u e v, e o mesmo pode ser
dito sobre o produto de um vetor por um escalar.

Por isso, de agora em diante, consideraremos vetores do plano como sendo matrizes 2 1
sempre que isto for conveniente. Supondo isto para dois vetores u e v, podemos descrever
seu produto escalar, a partir do produto de matrizes, por
(11) hu |v i = ut v.
Note que convertemos o vetor coluna u em um vetor linha tomando a sua transposta, para
que fosse possvel efetuar a multiplicao desejada.
Passando s transformaes lineares do plano, vimos que se T definida, na base ,
por
T (x, y) = (ax + by, cx + dy)
ento a matriz a ela associada " #
a b
(T ) = .
c d
No entanto, um clculo simples mostra que se o vetor v tem coordenadas
" #
x
v= ,
y
na mesma base , ento as coordenadas de T v nesta mesma base sero
" #" #
a b x
Tv =
c d y
Com isto podemos explicar porque escolhemos representar vetores como matrizes colunas
e no linhas. Lembre-se que a uma transformao linear do plano fizemos corresponder
uma matriz 2 2. Vetores escritos como matrizes linha tm tamanho 1 2 o que nos obri-
garia a multiplic-los esquerda das matrizes que designam as transformaes. Mas isto
30 1. O PLANO

produz um conflito com a conveno de que o argumento de uma transformao sempre


aparece direita do smbolo que a denota; assim T v, e no vT . Para evitar a confuso
que resultaria da permutao dos lados entre duas frmulas que representam exatamente o
mesmo fato, preferimos escrever os vetores como colunas, em vez de linhas.
Mais interessante ainda so as expresses para as matrizes das projees e reflexes
que obtemos combinando a multiplicao e a transposio. Por exemplo, vimos no artigo
2.1 que a projeo de um vetor v qualquer sobre um vetor unitrio u dada por
Proju (v) = hu | vi u;
que (11) nos permite reescrever na forma
Proju (v) = (ut v) u.
Como ut v um escalar, esta frmula igual a
Proju (v) = u (ut v).
Donde, pelas propriedades do produto de matrizes, obtemos
Proju (v) = (u ut ) v.
Portanto, a matriz que descreve a projeo de v em u igual ao produto u ut . De fato,
supondo que u = [a, b]t e efetuando o produto, chegamos mesma matriz que havamos
obtido na equao (11).
Por outro lado, como vimos no artigo 2.2, a reflexo do vetor v relativamente reta
pela origem de vetor unitrio normal n igual a
R(v) = v 2 Projn (v).
Aplicando a frmula matricial obtida acima a Projn (v), obtemos
R(v) = v 2(nnt )v.
A presena do v em ambas as parcelas sugere p-lo em evidncia. No entanto, (1 2nnt )v
no faz sentido. De fato, duas matrizes s podem ser somadas se tm a mesma dimenso.
Contudo, mesmo considerando o escalar 1 como uma matriz 1 1, no podemos som-lo
matriz nnt , que tem tamanho 2 2. Felizmente h uma sada simples, basta considerar
v como sendo o produto I v, em que I a matriz identidade 2 2. Fazendo isto, obtemos
R(v) = (I 2(nnt ))v.
Mais uma vez, se n tem coordenadas (b, a) na base , um clculo elementar mostra que
I 2(nnt ) coincide com a matriz de reflexo encontrada no artigo 2.2. Obtivemos, assim,
frmulas muito compactas para a projeo e reflexo no plano usando a multiplicao de
matrizes no quadradas.
EXERCCIOS 31

Exerccios
1. Sejam u e v vetores do plano. Use as propriedades do produto interno para calcular
hu + v|u + vi, hu v|u vi e hu v|u + vi
em funo de hu|vi e das normas de u e v.

2. Prove que as diagonais de um losango so perpendiculares.


S UGESTO : suponha que o losango tem um dos vrtices na origem e que u e v so os
vetores que correspondem aos seus lados; calcule as diagonais em funo de u e v, e
use as frmulas do exerccio 1.

3. Seja uma base do plano formada por dois vetores unitrios, e1 e e2 , perpendiculares
entre si. Prove que todo vetor v do plano pode ser escrito na forma
v = hv | e1 ie1 + hv | e2 ie2 .

4. Sejam u e v vetores do plano. Prove que:


(a) |hu|vi| kuk kvk;
(b) ku + vk kuk + kvk;
(c) |kuk kvk| ku vk.
A desigualdade em (a) conhecida como desigualdade de Schwarz e aquela em (b)
como desigualdade triangular.
S UGESTO : para provar (b), calcule hu + v|u + vi e aplique a desigualdade (a).

5. Sejam u1 e u2 vetores do plano e U a matriz cuja primeira linha u1 e cuja segunda


linha u2 . Prove que as seguintes afirmaes so equivalentes:
(a) u1 e u2 so colineares;
(b) det(U ) = 0.

6. Calcule o ngulo entre as retas 2x + 3y = 0 e 5x + 2y = 0.

7. Sejam P e Q pontos do plano e u e v vetores cujas extremidades so P e Q, respecti-


vamente. Mostre que a distncia entre P e Q igual norma do vetor u v.

8. Prove que uma transformao linear que preserva norma de vetores tem que preservar
distncia entre pontos.

9. D exemplo de uma transformao que no linear e que preserva a norma de vetores


mas no preserva distncia.

10. Prove que um operador linear T do plano tem inverso se, e somente se, a matriz de T
relativamente a uma base do plano invertvel.
32 1. O PLANO

11. Dizemos que uma matriz n n C comuta com todas as matrizes n n se AC = CA,
qualquer que seja a matriz A, desde que tenha tamanho n n. Prove que se um
escalar, ento In comuta com todas as matrizes n n.

12. Mostre que a recproca do exerccio anterior verdadeira. Isto , prove que se C
uma matriz que comuta com todas as matrizes n n, ento existe um escalar tal que
C = In .

13. Seja Eij a matriz n n que tem zeros em todas as suas posies, exceto na posio ij,
cuja entrada igual a 1. Calcule A Eij e Eij A.

14. Mostre que se um escalar e i < j, ento (I + Eij )A igual matriz A com sua
j-sima linha substituda por ela prpria mais vezes a i-sima linha de A. O que
acontece quando calculamos A(I + Eij )?

15. Sejam A e B matrizes 2 2. Prove que:


(a) det(At ) = det(A);
(b) (At )t = A.

16. Uma matriz A simtrica se At = A. Mostre que as matrizes correspondentes a


projees e reflexes do plano tm que ser simtricas.

17. Uma matriz A antissimtrica se At = A. Prove que toda matriz n n pode ser
escrita como a soma de uma matriz simtrica com uma antissimtrica.

18. Prove que se a e b so nmeros reais tais que a2 + b2 = 1, ento


" #
a b
b a
uma matriz de rotao e calcule o ngulo de rotao em funo de a e b.

19. Seja = {e1 , e2 } uma base do plano formada por vetores unitrios, perpendiculares
entre si. Dado R, definimos uma transformao linear c do plano por
c (e1 ) = e1 e c (e2 ) = e2 + e1 .
Calcule a matriz de c relativamente a . Transformaes como esta so conhecidas
como cisalhamentos.

20. Determine as matrizes que correspondem s seguintes transformaes lineares:


(a) um cisalhamento que leva a reta x = 0 em y = 2x;
(b) uma rotao anti-horria de /6 radianos;
(c) uma reflexo cujo espelho a reta y = 2x;
(d) uma projeo sobre a reta y = 3x.
EXERCCIOS 33

21. Seja f uma aplicao de um conjunto C em outro conjunto C 0 . A imagem de f o


subconjunto de C 0 definido por
Im(f ) = {f (c) | c C}.
Calcule as imagens de cada uma das seguintes transformaes lineares do plano nele
prprio: cisalhamento, projeo, reflexo e rotao.

22. Uma aplicao f de um conjunto C em outro conjunto C 0 sobrejetiva se Im(f ) = C;


isto , todo elemento de C 0 imagem de um elemento de C por f . Quais das seguin-
tes transformaes lineares do plano nele prprio: dilatao, cisalhamento, projeo,
reflexo e rotao.

23. Uma aplicao f de um conjunto C em outro conjunto C 0 injetiva se elementos di-


ferentes de C so levados por f em elementos diferentes de C 0 > Quais das seguintes
transformaes lineares do plano nele prprio: dilatao, cisalhamento, projeo, re-
flexo e rotao.

24. Dada um transformao linear T do plano, prove que so equivalentes:


(a) T bijetiva;
(b) T tem inversa;
(c) T sobrejetiva;
(d) T injetiva;
(e) T v = 0 s pode acontecer se v = 0.

25. Prove que se P a matriz de uma projeo do plano em uma reta ento P simtrica
e P2 = P.

26. Seja P a matriz de um operador linear do plano. Prove que se P simtrica e P 2 = P ,


ento o operador que corresponde a P uma projeo do plano em uma reta.

27. Seja P a matriz de uma projeo do plano em uma reta. Explique como determinar
o vetor ao longo do qual feita a projeo e a reta sobre a qual se d esta projeo a
partir dos coeficientes de P .

28. Sejam A e B duas matrizes quadradas inversveis de mesmo tamanho. Prove que a
inversa de AB igual a B 1 A1 . Cuidado com a troca de posio das matrizes e
lembre-se que a multiplicao de matrizes no comutativa.

29. Prove que se A uma matriz n n, ento


Ak I = (A I)(Ak1 + Ak2 + + I).
34 1. O PLANO

30. Uma matriz quadrada Q chamada de ortogonal se Q Qt = I, em que I a matriz


identidade. Em outras palavras, Q inversvel e sua inversa igual sua transposta.
Mostre que as matrizes que definem a rotao e a reflexo no plano so ortogonais.
31. Prove que toda matriz ortogonal Q de tamanho 2 2 pode ser escrita na forma
" #
cos() sen()
sen() cos()
relativamente a uma base formada por dois vetores ortogonais unitrios. Mostre que
esta matriz tem determinante igual a 1.
32. Seja Q uma matriz ortogonal de tamanho 2 2. Use o exerccio anterior para mostrar
que
se det(Q) = 1 ento Q uma rotao;
se det(Q) = 1 ento Q uma reflexo.
Em particular, qualquer matriz ortogonal 2 2 uma rotao ou uma reflexo. Como
veremos no artigo 7.1, este resultado no se estende s matrizes ortogonais 3 3.
CAPTULO 2

Sistemas lineares

Neste captulo introduzimos um algoritmo, talvez o mais importante da lgebra linear,


usando como motivao sua aplicao soluo de sistemas lineares. Interpretado como
uma decomposio matricial, este mesmo algoritmo provar sua utilidade em inmeros
outras situaes, entre elas o clculo de determinantes e a inverso de matrizes.

1. Eliminao gaussiana

Comearemos a seo analisando em detalhes um mtodo bem conhecido para a solu-


o de sistemas lineares com apenas duas incgnitas, do qual o algoritmo geral pode ser
facilmente obtido.

1.1. Sistemas lineares com duas equaes. Nos ltimos anos do ensino fundamental
aprendemos vrios mtodos para resolver sistemas lineares de duas variveis. Um deles,
o mtodo de adio, consiste em multiplicar uma (ou ambas) as equaes por constantes
apropriadas de modo que, quando forem somadas, resta uma equao linear em apenas
uma das variveis, que pode ento ser facilmente resolvida. Vejamos um exemplo. Se o
sistema for
x + 3y = 1
2x + 5y = 4,
ento subtramos da segunda equao o dobro da primeira, o que nos d y = 2; isto ,
y = 2. Substituindo isto em qualquer das duas equaes originais, podemos determinar
o valor de x. De fato, da primeira equao
x = 1 3y = 1 3 (2) = 7.
Portanto o sistema tem soluo x = 7 e y = 2.
Como este mtodo o ponto de partida para boa parte do que faremos no curso, vamos
analis-lo em detalhe. Comearemos defindo com cuidado algumas noes bsicas. Um
sistema linear nas variveis x e y corresponde a um par de equaes
(12) a1 x + a01 y = b1
a2 x + a02 y = b2 ;
35
36 2. SISTEMAS LINEARES

em que a1 , a2 , a1 , a02 , b1 e b2 so nmeros reais. O mesmo sistema pode ser escrito na


forma
a1 x + a01 y b1 = 0
a2 x + a02 y b2 = 0;
ou, de maneira ainda mais compacta como
(13) E1 = 0
E2 = 0;
em que
E1 = a1 x + a01 y b1 e E2 = a2 x + a02 y b2
so polinmios lineares. Dados dois nmeros reais x0 e y0 , denotaremos por E1 (x0 , y0 )
o nmero real obtido substituindo-se x por x0 e y por y0 no polinmio E1 . No caso do
exemplo resolvido no incio deste artigo, estes polinmios sero
E1 = x + 3y 1 e E2 = 2x + 5y 4.
Usando esta notao, podemos definir uma soluo do sistema (13) como sendo um par de
nmeros (x0 , y0 ) para o qual
E1 (x0 , y0 ) = 0
E2 (x0 , y0 ) = 0

Levando em conta que a ordem das equaes no altera o sistema, escolheremos sem-
pre a primeira equao de maneira que nela o x aparea com coeficiente diferente de zero.
Observe que esta escolha sempre possvel, porque estamos supondo que se trata de um
sistema em duas incgnitas. No sistema (12) isto significa que podemos supor que a1 6= 0
na equao E1 . A estratgia que adotaremos consiste em substituir o sistema
( (
E1 = 0 E1 =0
por um sistema da forma
E2 = 0 cE1 + E2 = 0,
em que c um nmero real. Naturalmente c ser escolhido de maneira que o segundo
sistema seja mais fcil de resolver que o primeiro. De fato, se c = a2 /a1 , temos que
a2 a01
 
0 b 1 a2
(14) cE1 + E2 = a2 y (b2 );
a1 a1
de modo que cE1 + E2 = 0 uma equao linear em uma nica varivel (neste caso y). Se
a2 a01 b 1 a2
= a02 e = b2 ,
a1 a1
ento
(15) 0 = cE1 + E2 = y .
1. ELIMINAO GAUSSIANA 37

No caso em que 6= 0, obtemos



y= .

Para achar o valor de x correspondente, substitumos y por / em E1 , obtendo

a1 x + a2 = b1 .

Note que, como estamos supondo que a1 6= 0, esta ltima equao sempre tem uma nica
soluo. Como veremos, este pequeno detalhe de grande importncia para a soluo do
sistema. Neste caso, resolvendo a equao linear em x obtemos
b1
x = a2 + .
a1 a1

No podemos esquecer que, embora sempre possamos escolher a1 6= 0, o mesmo


no ocorre com , que pode muito bem ser nulo. Caso isto acontea, (15) reduz-se a
0 = . Portanto, quando = 0, a equao (15) s ter soluo se tambm for zero.
Naturalmente, se = = 0 ento qualquer nmero real serve de soluo equao,
pois o produto de zero por qualquer escalar o prprio zero. Mas, como fizemos questo
de salientar acima, a cada valor de y corresponde um (nico) valor de x, j que a1 6= 0.
Portanto, se (15) tiver infinitas solues isto implica que o mesmo ocorre com o sistema
E1 = 0
cE1 + E2 = 0,

Esta anlise do mtodo de adio nos permite formul-lo como consistindo das seguin-
tes etapas:

Primeira etapa: dado o sistema E1 = E2 = 0, ordenamos as equaes de maneira


que o coeficiente de x em E1 no seja nulo;
Segunda etapa: escolhemos c de modo que cE1 + E2 = 0 seja uma equao apenas
na varivel y;
Terceira etapa: resolvendo a equao linear em uma varivel cE1 + E2 = 0 obte-
mos os possveis valores de y;
Quarta etapa: substituindo cada valor de y obtido na etapa anterior na equao
E1 = 0, obtemos uma equao linear, cuja soluo nos d o valor correspondente
para x.

A ordenao das equaes feita na primeira etapa garante que as solues do sistema fi-
quem completamente determinadas pelo resultado da terceira etapa. De fato, como vimos
acima, se escrevermos cE1 + E2 = 0 na forma y = , ento

se 6= 0 o sistema tem uma nica soluo;


se = = 0 o sistema tem infinitas solues;
38 2. SISTEMAS LINEARES

se = 0 mas 6= 0 o sistema no tem soluo.

Antes de encerrar este artigo, h um detalhe muito importante que at agora ignoramos.
De fato, ainda que nosso objetivo fosse resolver o sistema E1 = E2 = 0, o que fizemos foi
encontrar as solues de E1 = cE1 + E2 = 0. Naturalmente estes sistemas terem equaes
diferentes no muito significativo, o que importa que tenham exatamente as mesmas
solues, e isto que provaremos agora. Lembre-se que, segundo a definio dada acima,
os nmeros reais x0 e y0 definem uma soluo do sistema E1 = E2 = 0 se, e somente se,
os nmeros E1 (x0 , y0 ) e E2 (x0 , y0 ) so ambos nulos. Contudo,
E1 (x0 , y0 ) = E2 (x0 , y0 ) = 0
implica que, qualquer que seja c R,
cE1 (x0 , y0 ) + E2 (x0 , y0 ) = 0.
Como E1 (x0 , y0 ) = 0 por hiptese, segue-se que x0 e y0 tambm so solues do sistema
E1 = cE1 + E2 = 0. Mostramos, assim, que

qualquer soluo de E1 = E2 = 0 tambm soluo de E1 = cE1 +


E2 = 0;

falta a recproca. Para prov-la, suponha que x1 e y1 so nmeros reais que definem uma
soluo de E1 = cE1 + E2 = 0. Isto significa que
E1 (x1 , y1 ) = 0
cE1 (x1 , y1 ) + E2 (x1 , y1 ) = 0.
Entretanto, qualquer que seja c R,
E2 (x1 , y1 ) = (cE1 (x1 , y1 ) + E2 (x1 , y1 )) cE1 (x1 , y1 )
igual a zero, j que uma soma de termos nulos, o que prova a recproca. Como voltare-
mos a usar este resultado adiante, vamos enunci-lo como uma proposio.
P ROPOSIO 1.1. Sejam E1 e E2 polinmios lineares e c um nmero real. O sistema
E1 = E2 = 0 tem exatamente as mesmas solues que E1 = cE1 + E2 = 0.

1.2. Sistemas triangulares. Neste artigo comeamos a considerar de que forma o m-


todo de adio pode ser generalizado para sistemas maiores, com mais equaes e mais
incgnitas. Comearemos considerando as etapas trs e quatro do mtodo, conforme enun-
ciado na pgina 37. Afinal, antes de qualquer coisa, precisamos decidir que forma deve
ter um sistema linear para que possa ser facilmente resolvido. S ento poderemos in-
vestigar como devemos proceder para, partindo de um sistema linear qualquer, chegar a
um outro, mais simples de resolver, e que tenha as mesmas solues do sistema inicial.
Para simplificar a anlise suporemos que todos os sistemas sob considerao tm a mesma
quantidade de incgnitas e equaes. Na verdade, isto no representa uma restrio sig-
nificativa, porque sempre podemos supor que o sistema tem mais equaes, todas nulas,
1. ELIMINAO GAUSSIANA 39

ou mais incgnitas, todas com coeficientes nulos, completando assim o que falta para que
tenha tantas incgnitas quantas equaes.
Lembre-se que, no caso do mtodo de adio, o sistema fcil de resolver a que chega-
mos tinha:

(1) uma equao linear nas variveis x e y;


(2) uma equao linear apenas na varivel y.

Suponhamos, para simplificar a anlise, que a equao linear (2) tenha uma nica soluo.
Para resolver o sistema, determinamos esta soluo, que chamaremos de y0 , a partir de (2)
e a substitumos no lugar de y em (1). O resultado uma equao linear na varivel x que,
sob as hipteses feitas na pgina 37, sempre pode ser resolvida, retornando como soluo,
um valor x0 . A soluo do sistema ser, ento, x = x0 e y = y0 .
Podemos generalizar isto para um sistema com n equaes e n incgnitas x1 , . . . , xn
supondo que

a primeira equao linear nas variveis x1 , . . . , xn ;


a segunda equao linear nas variveis x2 , . . . , xn ;
a terceira equao linear nas variveis x3 , . . . , xn ;
..
.
a (n 1)-sima equao linear nas variveis xn1 , xn ;
a n-sima equao linear apenas na varivel xn .

Note que a primeira equao pode depender de todas as variveis, a segunda no pode
depender da varivel x1 , a terceira no pode depender da varivel x2 , e assim por diante
at a n-sima equao, que depender apenas da varivel xn . Um sistema deste tipo
chamado de triangular superior por causa da forma que assume quando escrevemos uma
equao abaixo da outra. Por exemplo, denotando por Ai,j os coeficientes das variveis e
por b1 , . . . , bn os termos constantes, os sistemas triangulares superiores tm a forma

(16) A1,1 x1 + A1,2 x2 + A1,3 x3 + + A1,n xn = b1


A2,2 x2 + A2,3 x3 + + A2,n xn = b2
A3,3 x3 + + A3,n xn = b3
... .. ..
. .
An,n xn = bn

Sempre que tratarmos de sistemas triangulares superiores, suporemos que suas equaes
foram ordenadas de modo que os coeficientes das incgnitas x1 , . . . xi1 so todos nulos
na i-sima equao. Isto significa que o sistema tem a forma de 16.
40 2. SISTEMAS LINEARES

Antes de prosseguir, convm ilustrar como os sistemas triangulares superiores podem


ser resolvidos considerando um exemplo numrico. Seja
x + 3y + z + w =1
2y z + 5w =6
5z w =2
4w = 12
Como a quarta e ltima equao depende apenas de uma varivel (neste exemplo w), pode-
mos resolv-la obtendo w = 3. Substituindo este valor para w nas trs equaes anteriores,
x + 3y + z + 3 = 1
2y z + 15 = 6
5z 3 = 2,
que pode ser reescrito na forma
x + 3y + z = 2
2y z = 9
5z = 5.
Como este novo sistema linear tambm triangular superior, podemos resolver a ltima
equao, obtendo z = 1. Substituindo o valor de z nas duas primeiras equaes deste
sistema,
x + 3y + 1 = 2
2y 1 = 9,
que equivale a
x + 3y = 3
2y = 8.
Mais uma vez, trata-se de um sistema triangular superior que, uma vez resolvido, nos d
y = 4 e x = 9. Portanto, o sistema original tem soluo
x = 9, y = 4, z = 1 e w = 3.

Certamente voc percebeu que se trata de um procedimento recursivo. Voltando ao caso


geral, a soluo da ltima equao nos permite encontrar o valor da varivel xn . Substi-
tuindo este valor nas n 1 equaes anteriores, o sistema resultante ser necessariamente
triangular superior. Para provar isto no caso geral, considere novamente o sistema (16).
Supondo que Ann 6= 0, podemos resolver a ltima equao, obtendo
bn
xn = .
An,n
1. ELIMINAO GAUSSIANA 41

Denotando este nmero por r, vamos substitu-la no lugar de xn nas n 1 primeira es-
quaes do sistema. Com isto, as parcelas que envolvem xn nestas equaes tornam-se
constantes, ao passo que as parcelas que envolvem x1 , . . . , xn1 no so afetadas. Agru-
pando os termos constantes do lado direito de cada equao, o sistema resultante

A1,1 x1 + A1,2 x2 + A1,3 x3 + + A1,n1 xn1 = b1 rA1,n


A2,2 x2 + A2,3 x3 + + A2,n1 xn1 = b2 rA2,n
A3,3 x3 + + A3,n1 xn1 = b3 rA3,n
... .. ..
. .
An1,n1 xn1 = bn1 rAn1,n

Este sistema de n 1 equaes nas incgnitas x1 , . . . , xn1 claramente triangular supe-


rior, o que nos permite continuar o procedimento recursivamente. Note, entretanto, que
para que a recurso possa de fato ocorrer, necessrio que Ai,i 6= 0, para todo 1 i n.
Por analogia com as matrizes (analogia esta que exploraremos detalhadamente mais adi-
ante) dizemos que estes so os coeficientes diagonais do sistema (16). Este algoritmo
para a soluo de sistemas triangulares superiores conhecido como substituio reversa,
porque os valores das incgnitas so substitudos da ltima para a primeira equao.
Portanto, dado um sistema triangular superior de n equaes x1 , . . . , xn , podemos cal-
cular o valor de xn a partir da ltima equao e substitu-lo nas demais equaes ob-
tendo um novo sistema triangular superior, desta vez com n equaes nas incgnitas
x1 , . . . , xn1 . Isto nos d um algoritmo recursivo que podemos usar para resolver com-
pletamente o sistema. Portanto, sob a hiptese de que no h posies nulas na diagonal,
um sistema triangular superior sempre tem uma nica soluo. Quando isto ocorre dizemos
que o sistema determinado, porque s h um valor possvel para cada varivel.
Mas o que ocorre se o sistema tiver zeros ao longo das posies diagonais? Por exem-
plo, aplicando o passo recursivo duas vezes ao sistema

(17) x + 3y + z + w =1
z + 5w =6
4z w =2
2w = 12

descobrimos que w = 6 e que z = 2. Portanto, o sistema a ser resolvido na terceira


passagem da recurso ser

x + 3y = 7
0 = 22
42 2. SISTEMAS LINEARES

que evidentemente insolvel ou impossvel. Por outro lado, se o sistema fosse


x + 3y + z + w =1
z + 5w = 28
4z w =2
2w = 12
ento ao final das duas primeiras passagens pelo passo recursivo teramos
x + 3y = 7
0=0
Reescrevendo esta ltima equao na forma 0 y = 0, verificamos que qualquer valor de y
a satisfaz. Como podemos achar um valor de x para cada um destes valores de y, o sistema
tem infinitas solues. Com isto podemos descrever a soluo do sistema por
x = 7 3y0 , y = y0 , z = 2 e w = 6;
em que y0 foi a soluo escolhida para y. Para que no reste dvida quanto a este ponto,
convm insistir que para cada y0 escolhido temos uma soluo do sistema; por exemplo,
escolhendo y0 = 0, encontramos a soluo
x = 7, y = 0, z = 2 e w = 6;
ao passo que tomando y0 = 4, encontramos
x = 19, y = 4, z = 2 e w = 6;
e assim por diante. Os sistemas para os quais existe uma infinidade de solues so chama-
dos de indeterminados. Portanto, a existncia de coeficientes nulos ao longo da diagonal
faz com o sistema possa ser impossvel ou indeterminado.
Como os exemplos anteriores ilustram, a anlise do caso em que h coeficientes nu-
los ao longo da diagonal pode ser um tanto trabalhosa. Felizmente h uma maneira de
contornar este problema, que consiste em exigir que o sistema seja, no apenas triangular
superior, mas que esteja em forma escada; isto , que cada equao do sistema tenha sem-
pre uma varivel a menos do que a equao anterior. Assim, se na k-sima linha, a varivel
x` for a de menor ndice cujo coeficiente no nulo, ento as variveis com coeficientes
no nulos na k + 1-sima linha no podem ter ndices menores do que ` + 1. Apesar de tais
sistemas serem claramente triangulares superiores, nem todo sistema triangular superior
est na forma escada. Por exemplo,
x + 3y + z + w =1
z + 5w = 28
4z w =2
2w = 12,
1. ELIMINAO GAUSSIANA 43

triangular superior, mas no est na forma escada. Observe que um sistema na forma
escada pode pular um degrau, como o caso de
x + 3y + z + w = 1
z + 5w = 28
9w = 2.

Sistemas na forma escada no esto sujeitos a fenmenos como o do exemplo (17), cuja
impossibilidade s conseguimos detectar a meio caminho de sua resoluo. Isto ocorre
porque, um sistema em escada s pode ser impossvel se sua ltima equao no tiver
soluo. Digamos, por exemplo, que
E1 = 0, . . . , En = 0,
sejam as equaes de um sistema linear e suponhamos que, para um dado inteiro k entre
1 e n, a primeira incgnita com coeficiente no nulo na equao Ek x` . Se este sistema
est na forma escada, ento

` k;
as equaes Ek+1 = 0, . . . , En = 0 dependem apenas das variveis x`+1 , . . . , xn .

Isto significa que, se encontramos nmeros reais `+1 , . . . , n que constituam uma soluo
de Ek+1 = 0, . . . , En = 0, ento o valor de x` pode ser determinado a partir da equao
Ek = 0. Afinal, x` tem coeficiente no nulo nesta equao. Como este argumento se aplica
a todos os possveis valores de k para os quais 1 k < n, somente a ltima equao pode
ser impossvel.
E se o sistema for indeterminado? A nica maneira disto acontecer se a escada
que o sistema forma pular um degrau, caso contrrio teremos um sistema triangular sem
nenhuma posio nula ao longo da diagonal, que ser inevitavelmente determinado. Por
outro lado, dizer que o sistema pulou um degrau signfica que h uma equao a menos
intercalada, de modo que o sistema tem menos equaes (no nulas!) do que incgnitas.
As consideraes do pargrafo anterior mostram que, neste caso, se a ltima equao no
nula for possvel, ento o sistema ter soluo. Por outro lado, como h mais equaes que
incgnitas, teremos incgnitas sobre as quais no est sendo imposta nenhuma restrio,
de modo que o sistema ser mesmo indeterminado. Convm resumir tudo isto na forma de
uma proposio, para referncia futura.
P ROPOSIO 1.2. Seja S um sistema em forma escada com n equaes e n incgnitas.
Ento o sistema :

determinado: se no h posies nulas ao longo da diagonal;


indeterminado: se h menos equaes no nulas que incgnitas e a ltima equao
tem soluo;
impossvel: se a ltima equao no tiver soluo.
44 2. SISTEMAS LINEARES

1.3. Eliminao gaussiana. Tendo determinado que os sistemas fceis de resolver


so os triangulares superiores, resta-nos descobrir como proceder para reduzir um sistema
geral a esta forma. Comearemos experimentando converter
(18) x+y+z+w =1
2x + 3y + z + 5w =5
x + 7y z + 2w =3
5x y 3z + w = 7,
em um sistema triangular superior. Na medida do possvel, gostaramos de usar a mesma
estratgia do mtodo de adio: multiplicar uma equao por uma constante cuidadosa-
mente escolhida e som-la equao seguinte. Por exemplo, multiplicando a primeira
equao do sistema acima por 2 e somando o resultado segunda equao, obtemos
y z + 3w = 3.
Substituindo a segunda equao do sistema original por esta, o sistema resultante ser
x+y+z+w =1
y z + 3w =3
x + 7y z + 2w =3
5x y 3z + w = 7.
Para chegar a um sistema triangular superior ainda precisamos eliminar as variveis x e y
na terceira equao e x, y e z na ltima. Ao invs de tentar fazer isto diretamente, vamos
proceder de maneira recursiva. Assim, usando a primeira equao, vamos eliminar o termo
em x das duas ltimas equaes do sistema. Para isto, substitumos a terceira equao por
sua soma com o produto da primeira equao por 1 e a quarta equao por sua soma com
o produto da primeira equao por 5, do que resulta o sistema
x+y+z+w =1
y z + 3w =3
6y 2z + w =2
6y 8z 4w = 2.
Para transformar este ltimo sistema para a forma triangular superior, basta converter a
esta forma o sistema
y z + 3w = 3
6y 2z + w = 2
6y 8z 4w = 2.
que tem apenas trs equaes em trs incgnitas, uma equao e uma incgnita a menos
que o sistema original. Substituindo a segunda equao do sistema trs por trs por ela pr-
pria mais 6 vezes a primeira equao e procedendo de maneira anloga para sua ltima
1. ELIMINAO GAUSSIANA 45

equao, obtemos
y z + 3w = 3
4z 17w = 16
14z + 14w = 20,
e o problema mais uma vez se reduz a transformar em forma triangular um sistema menor,
desta vez
4z 17w = 16
14z + 14w = 20,
o que pode ser feito multiplicando por 3 a primeira linha deste sistema dois por dois e
somando o resultado ltima linha, do que resulta
4z 17w = 16
91
w = 36.
2
Reunindo as equaes simplificadas, obtemos o sistema triangular superior
(19) x+y+z+w =1
y z + 3w = 3
4z 17y = 16
91
w = 36.
2
que pode ser facilmente resolvido por substituio reversa, produzindo a soluo
6 1 58 72
x= , y= , z= e w == .
7 91 91 91

Uma anlise, ainda que superficial, dos clculos realizados acima mostra que se trata
de um procedimento recursivo baseado em uma operao inteiramente similar utilizada
no mtodo de adio. Mais precisamente, dadas duas equaes E e E 0 diremos que a
operao que consiste em

escolher uma constante c de modo que cE + E 0 tenha uma incgnita a


menos que E,

uma operao elementar entre as linhas E e E 0 . Supondo que o sistema tem n equaes
em n incgnitas, aplicamos esta operao n 1 vezes, de modo a eliminar uma das incg-
nitas de n 1 das equaes dadas. Estas n 1 equaes formam ento um sistema com
n 1 incgnitas ao qual o mesmo procedimento pode ser aplicado recursivamente. Este
algoritmo, conhecido como mtodo de eliminao de Gauss, pode ser aplicado a qualquer
46 2. SISTEMAS LINEARES

sistema linear. Como uma incgnita eliminada a cada passo da recurso, o sistema resul-
tante ao final ser triangular superior e, portanto, facilmente resolvido usando os mtodos
do artigo 1.2.
Naturalmente, para que os valores retornados por este algoritmo sejam solues do sis-
tema original preciso que ele e o sistema triangular superior tenham exatamente as mes-
mas solues. Mas isto segue da proposio 1.1, que foi deliberadamente formulada sem
que o nmero de incgnitas nas equaes fosse especificado, porque a mesma demonstra-
o funciona se h duas ou qualquer outra quantidade delas presentes nas equaes. Talvez
voc esteja pensando: tudo bem, mas que s tratamos do caso em que h duas equaes,
disto no h como escapar. Sem dvida, mas na verdade isto basta. Afinal de contas, este
algoritmo pode ser considerado como consistindo de uma sucesso de operaes elemen-
tares aplicadas a vrios pares de linhas. Naturalmente a palavra chave aqui par: a cada
operao realizada, somente uma linha alterada por outra, as demais ficam como esto.
Por isto basta saber que uma soluo comum a duas equaes E e E 0 se, e somente se,
uma soluo comum a E e cE + E 0 , que exatamente o que a proposio 1.1 nos diz.
No prximo artigo veremos uma maneira mais prtica de executar este algoritmo. En-
tretanto, convm desde j chamar a ateno para o fato de que a afirmao, feita acima, de
que podemos aplic-lo a qualquer sistema linear deve ser tomada com uma boa dose de
cautela. Considere, por exemplo, o sistema
x+y+z =1
x + y + 2z = 3
x + 2y z = 4.
Usando a primeira equao para elimar a varivel x das outras duas equaes, obtemos
x+y+z =1
z=2
y 2z = 3.
Note que y no pode ser eliminado da ltima equao por uma operao elementar, j
que seu coeficiente na segunda equao nulo. Mas por que desejaramos fazer isto?
Afinal, basta trocar as duas ltimas equaes entre si e o sistema j est na forma triangular
superior, o que basta para nossos propsitos. Voltaremos a este ponto no prximo artigo.

1.4. Eliminao em matrizes. Ao contrrio do que aconteceu no mtodo de soluo


de sistemas triangulares superiores por substituio reversa, as variveis desempenham um
papel totalmente secundrio no algoritmo de eliminao. De fato, nunca substitumos ne-
nhum valor nas variveis, elas servem apenas como marcadores de posio, para sabermos
quais coeficientes podem ser somados com quais outros coeficientes. Mas, sejamos realis-
tas, para isto no precisamos escrever as variveis, basta escrever os coeficientes de uma
1. ELIMINAO GAUSSIANA 47

mesma varivel sistematicamente uns sobre os outros numa tabela ou, usando a termino-
logia da lgebra linear, numa matriz, conhecida como matriz aumentada do sistema. Por
exemplo,
(20) x+y+z+w =1
2x + 3y + z + 5w =5
x + 7y z + 2w =3
5x y 3z + w = 7,
tem como matriz aumentada

1 1 1 1 1

2 3 1 5 5
A=
1 7 1 2
.
3

5 1 3 1 7
Agora, executando uma operao elementar entre as duas primeiras equaes de (20), ob-
temos o sistema
x+y+z+w =1
y z + 3w =3
x + 7y z + 2w =3
5x y 3z + w = 7,
cuja matriz aumentada
1 1 1 1 1

0 1 1 3 3

1 7 1 2 3

5 1 3 1 7
A operao elementar que efetuamos sobre as duas primeiras equaes de (20) pode ser
facilmente reformulada em termos das linhas da matriz. Considerando as linhas de A como
matrizes 1 5, a operao executada substituiu a segunda linha por ela prpria, somada a
2 vezes a primeira linha:
h i h i h i
2 3 1 5 5 2 1 1 1 1 1 = 0 1 1 3 3
Em geral, se L e L0 so duas linhas de uma matriz M e c um nmero real, diremos que

ao subsitituir L0 por L0 + cL em M efetuamos uma operao elementar


por linha.

A no ser que c ou L sejam nulos, a matriz que resulta da aplicao de uma operao
elementar por linha a M diferente de M . Naturalmente, quando aplicamos uma operao
48 2. SISTEMAS LINEARES

elementar por linha como parte do mtodo de eliminao, escolhemos a constante c de


modo a eliminar a posio no nula mais esquerda de L0 , desde que isto seja possvel. A
passagem de uma matriz a outra, efetuada a partir de uma operao elementar por linha,
ser denotada por uma seta . Por exemplo,

1 1 1 1 1 1 1 1 1 1

2 3 1 5 5 0 1 1 3 3
1 7 1 2 3 1 7 1 2 3


5 1 3 1 7 5 1 3 1 7
no caso da eliminao efetuada acima. Dando continuidade a aplicao da verso matricial
do processo de eliminao a este exemplo, temos

1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

0 1 1 3 3 0 1 1 3 3 0 1 1 3 3
1 7 1 2 3 0 6 2 1 2 0 6 2 1 2 ,


5 1 3 1 7 5 1 3 1 7 0 6 8 4 2
com o qu todas as posies abaixo de 1, 1 so agora nulas. A propsito, a entrada da
posio 1, 1 conhecida como o piv desta etapa da eliminao. Em geral, o piv de uma
linha a entrada no nula mais esquerda desta linha. Quando o piv da i-sima linha
est na posio i, j usamos operaes elementares por linha para anular todas as posies
da j-sima coluna de uma matriz que ficam abaixo de sua i-sima linha.
Passando segunda coluna, usamos a entrada da posio 2, 2 como piv para anular,
em dois passos, cada uma das posies desta coluna que ficam abaixo de 2, 2, como segue

1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

0 1 1 3 3 0 1 1 3 3 0 1 1 3 3

0 6 2 1 2 0 0 4 17 16 0 0 4 17 16

0 6 8 4 2 0 6 8 4 2 0 0 14 14 20.
Finalmente a entrada da posio 3, 3 usada como piv para eliminar 4, 3, e resta a matriz

1 1 1 1 1

0 1 1 3 3

0 0 4
17 16
0 0 0 91/2 36,
da qual o sistema triangular superior pode ser facilmente obtido, bastando para isto lembrar
que os coeficientes das variveis foram escritos nas colunas na ordem em que as variveis
aparecem no sistema. Portanto, a primeira coluna corresponde aos coeficientes de x, a
1. ELIMINAO GAUSSIANA 49

segunda aos de y, e assim por diante. Fazendo isto, obtemos o sistema (19) da pgina 45,
como voc pode facilmente verificar.
importante voc entender que no h nada a provar sobre a verso matricial do m-
todo de eliminao. Afinal, do ponto de vista matemtico, a nica coisa que fizemos foi
escrever os coeficientes do sistema em uma matriz, em vez de usar as variveis como mar-
cadores de posio, como vnhamos fazendo at aqui. A operao elementar por linha no
passa de uma transcrio direta para a linguagem das matrizes da operao elementar so-
bre as equaes introduzida no artigo 1.3. Porm, uma vez que o mtodo foi traduzido em
termos matriciais, nada nos impede de aplic-lo a qualquer matriz, mesmo uma que no
seja matriz aumentada de nenhum sistema.
Por isso, conveniente introduzir uma terminologia especial para designar a matriz
triangular superior que resulta da aplicao do mtodo de eliminao gaussiana a uma
matriz A, qualquer que seja ela. Vamos chamar esta matriz triangular de forma escada ou
escalonada por linha de A. Portanto, a forma escada de

1 1 1 1 1 1 1 1 1 1

2 3 1 5 5 0 1 1 3 3 .
1 7 1 2 3 a matriz 0 0 4

17 16

5 1 3 1 7 0 0 0 91/2 36,

Para um outro exemplo, um pouco menos ingnuo, considere o sistema

x + 4y + 6z + w = 11
2x + 8y + 5z w =9
3x + 5y + 2z 5w =5
4x + 2y z 3w =1

cuja matriz aumentada



1 4 6 1 | 11

2 8 5 1 | 9
A= .
3
5 2 5 | 5
4 2 1 3 | 1

Desta vez, usamos uma barra vertical para separar os coeficientes das variveis dos termos
constantes. Esta barra no parte da matriz, mas sim um recurso visual que nos ajuda a
distinguir dois grupos de nmeros com significados distintos e evitar confuses e erros.
Um computador, por exemplo, no requer tais artifcios.
50 2. SISTEMAS LINEARES

Usando operaes elementares por linha para anular as posies da primeira coluna de
A abaixo de 1, 1, obtemos a matriz

1 4 6 1 | 11

0 0
7 3 | 13
.
0 7 16 8 | 28

0 14 25 7 | 43

Estritamente falando, o processo de eliminao descrito anteriormente no pode continuar


a partir deste ponto. De fato, isto requereria usar como piv a entrada da posio 2, 2 que,
na matriz acima, igual a zero. Entretanto, estas linhas so apenas uma representao
abreviada das equaes do sistema original. Como trocar a ordem das equaes no afeta
o conjunto soluo de um sistema, estamos livres para permutar as linhas de qualquer
maneira que desejarmos. No caso da matriz acima, reposicionaremos a segunda linha, que
ser movida para o lugar da ltima, de modo que a matriz se torna

1 4 6 1 | 11

0 7 16 8 | 28
0 14 25 7 | 43 ,


0 0 7 3 | 13

com o qu o processo de eliminao pode continuar. Tomando a entrada 7 da posio


2, 2 como piv, anulamos a posio imediatamente abaixo dela, obtendo

1 4 6 1 | 11

0 7 16 8 | 28
.
0 0
7 9 | 13

0 0 7 3 | 13

Finalmente, usando a entrada 7 da posio 3, 3 como piv, obtemos



1 4 6 1 | 11

0 7 16 8 | 28
,
0 0
7 9 | 13

0 0 0 6 | 0
1. ELIMINAO GAUSSIANA 51

que triangular superior. O sistema triangular correspondente, cujas equaes so,

x + 4y + 6z + w = 11
7y 16z 8w = 28
7z + 9w = 13
6w =0

tem soluo
41 12 13
x= , y= , z= , e w = 0.
49 49 7
Para chamar a ateno para a necessidade de trocar linhas ao longo da aplicao do mtodo
de eliminao acrescentamos a expresso com pivoteamento. primeira vista, usar tal
preciso por conta de meras trocas de linha parece apontar excesso de zelo. Entretanto,
como veremos no artigo 2.3, a troca de linhas pode levar a resultados incorretos quando
aplicamos a eliminao gaussiana como parte de outros algoritmos.
Ainda h um detalhe importante sobre a eliminao que no apareceu nos exemplos
anteriores. Considere o sistema

x + 3y + z + w =1
x + 3y + 6w = 29
x + 3y + 4z + 5w = 31
x + 3y + 16z + 2w = 37

cuja matriz aumenta



1 3 1 1 | 1

1
3 0 6 | 29

1
3 4 5 | 31

1 3 16 2 | 37

aplicando eliminao gaussiana a esta matriz, obtemos



1 3 1 1 | 1 1 3 1 1 | 1 1 3 1 1 | 1

0 0 1 5 | 28 0 0 1 5 | 28 0 0 1 5 | 28
0 0 3 4 | 30 0 0 3 4 | 30 0

0 0 19 | 114

0 0 15 1 | 36 0 0 0 6 | 42 0 0 0 76 | 456
52 2. SISTEMAS LINEARES

Como a ltima linha igual a quatro vezes a anterior, obtemos, finalmente



1 3 1 1 | 1

0 0 1 5 | 28

0 0 0 19 | 114

0 0 0 0 | 0

que corresponde ao sistema triangular superior


x + 3y + z + w = 1
z + 5w = 28
19w = 114,
cujas solues so
x = 7 3y, z = 2, e w = 6;
de modo que o sistema indeterminado.
Observe que se trata, na verdade, de um sistema em forma escada, o que sugere a
seguinte definio. Uma matriz A de tamanho nn est em forma escada, ou escalonada
por linhas, quando a seguinte condio for satisfeita para todo 1 i n:

se a primeira entrada no nula da i-sima linha est na j-sima coluna,


ento a da i + 1-sima linha no pode aparecer antes da j + 1-sima
coluna.

Naturalmente, a primeira entrada no nula de uma dada linha aquela entrada no nula
que aparece mais esquerda naquela linha. Aplicada a uma matriz qualquer, a eliminao
gaussiana sempre retorna uma matriz em forma escada. De fato, se as linhas i e j de uma
matriz A tm primeira entrada no nula na coluna k, podemos usar Ai,k como piv para
anular Aj,k , encurtando assim uma das linhas.

1.5. Outros exemplos. A melhor maneira de descrever exemplos variados de sistemas


lineares tentar entender como um sistema se comporta quando variamos os valores dos
seus coeficientes. Para tornar isto vivel do ponto de vista prtico, permitiremos que variem
apenas alguns coeficientes, que so conhecidos como os parmetros do sistema.
Por exemplo, dado que o sistema

x ky + z
=0
kx + (1 k 2 )y + (1 + k)z =k

kx ky + z =1k
1. ELIMINAO GAUSSIANA 53

tem k como seu nico parmetro, podemos nos perguntar para que valores de k o sistema
determinado, indeterminado ou impossvel. A matriz aumentada deste sistema, que

1 k 10
k 1 k 2 1 + k k ,

k k 1 1k

tem forma escalonada igual a



1 k 10
0 1 1 k ,

0 0 1 k 2 k 3 + k 2 k + 1.

que corresponde ao sistema triangular superior

x ky + z = 0
y+z =k
(1 k 2 )z = k 3 + k 2 k + 1.

Note que se k = 1 todos os coeficientes da ltima equao se anulam, de modo que, neste
caso, o sistema ter infinitas solues; uma para cada valor que escolhermos para z. Por
outro lado, se k = 1, ento a ltima equao se torna 0 = 4, o que torna o sistema
impossvel neste caso. Finalmente, se k 6= 1 a ltima equao tem uma nica soluo, a
saber
k 3 + k 2 k + 1
z= ;
(1 k 2 )
da qual podemos deduzir valores para y e x usando o mtodo de substituio reversa.
Resumindo, o sistema :

determinado se k 6= 1;
indeterminado se k = 1;
impossvel se k = 1.

Note que, neste exemplo, o comportamento deste sistema ficou completamente deter-
minado por sua ltima equao. Isto porque, tendo escolhido k de modo que exista um
valor de z que seja soluo da ltima equao, valores correspondentes para x e y sempre
podem ser encontrados. Mais precisamente, embora os valores de x e y possam depender
de k; a possibilidade de encontr-los no afetada pelo valor de k escolhido. Como mostra
nosso prximo exemplo, nem sempre as coisas so to simples.
54 2. SISTEMAS LINEARES

Mais uma vez trata-se de um sistema a um parmetro, cujas equaes so

x + ky + 7z + 9w = k
3x + (4k + 1)y + 22z + 28w = 3k + 3
2x + (3k + 1)y + (2k + 15)y + 20w = 2k 5
x + (3k + 2)y + (2k + 9)z + (k + 10)w = k + 30.

Aplicando eliminao gaussiana matriz aumentada



1 k 7 9 | k

3 (4k + 1)
22 28 | 3k + 3
2 (3k + 1) (2k + 15)
20 | 2k 5
1 (3k + 2) (2k + 9) (k + 10) | k + 30

obtemos a matriz escalonada



1 k 7 9 | k

0 k + 1 1
1 | 3
0
0 2k 1 | 8
0 0 0 k2 | 16

que corresponde ao sistema triangular superior

x + ky + 7z + 9w = k
(k + 1)y + z + w = 3
2kz + w = 8
(k 2)w = 16

Para que a ltima equao tenha soluo preciso que k 6= 2. Portanto, se k = 2 j


temos que o sistema impossvel. Entretanto, como h k em outras posies da diagonal,
a anlise precisa continuar. Se k = 0, o sistema se torna

x + +7z + 9w =0
y+z+w =3
w = 8
2w = 16;
1. ELIMINAO GAUSSIANA 55

que indeterminado, pois as duas ltimas equaes coincidem e nenhuma restrio im-
posta a z. Finalmente, se k = 1, o sistema
x + ky + 7z + 9w =k
z+w =3
2z + w = 8
3w = 16

que nos d w = 16/3. Como


 
1 16 20
z= 8+ =
2 3 3
da penltima equao, ao passo que
16 7
z =3 =
3 3
da antepenltima equao, podemos concluir que o sistema impossvel neste caso. Por-
tanto, o sistema

determinado: se k 6= 1, 0, 2;
impossvel: se k = 2 ou k = 1;
indeterminado: se k = 0.

Finalmente, considere o sistema a trs parmetros



x + 8y 2z
=a
5x + 4y 2z =b

7x 16y + 2z = c.

Desta vez, queremos c em funo de a e b de modo que o sistema seja determinado, inde-
terminado ou impossvel. A matriz aumentada

1 8 2 a
5 4 2 b

7 16 2 c

tem forma escalonada igual a



1 8 2 a
0 36 8 b 5a

0 0 0 3a 2b + c
56 2. SISTEMAS LINEARES

qual corresponde o sistema triangular superior

x + 8y 2z = a
36y + 8z = b 5a
0 = 3a 2b + c

Para comear, o sistema nunca tem uma nica soluo, porque a nica maneira da ltima
equao fazer sentido se seu termo constante for igual a zero. Isto ocorre quando c =
3a + 2b, de modo que, sob esta condio o sistema tem soluo; na verdade, infinitas
solues. Resumindo, o sistema :

determinado: nunca;
impossvel: quando c 6= 3a + 2b;
indeterminado: quando c = 3a + 2b.

2. Decomposio de matrizes

Talvez devamos classificar a verso do mtodo de eliminao gaussiana estudada na


seo anterior como clssica, em oposio a verso moderna, que estudaremos nesta seo.
Ambas so verses matriciais do mtodo de adio, generalizado para sistemas com mais
de duas incgnitas. Entretanto, na verso tradicional, as matrizes so apenas uma maneira
conveniente de carregar o mnimo de informao possvel, mantendo os coeficientes na
posio correta mas eliminando as variveis e os smbolos para as operaes de soma
e multiplicao. A verso moderna, ao contrrio, intrinsecamente matricial e no faz
sentido se no adotarmos esta linguagem, porque seu resultado uma decomposio da
matriz dada como um produto de duas outras matrizes, uma das quais triangular superior,
ao passo que a outra triangular inferior. Para chegar a isto comeamos investigando como
as operaes elementares por linha podem ser descritas em termos de produtos de matrizes.

2.1. Matrizes elementares. Nosso ponto de partida exatamente o pressuposto de


que operaes elementares por linha podem ser descritas em termos de produtos de matri-
zes. Supondo que isto seja verdade, tentaremos descobrir que matriz deveria efetuar esta
operao. Uma vez identificada esta matriz, uma mera multiplicao de matrizes basta
para provar que o pressuposto est correto.
Considerando um contexto um pouco mais geral, digamos que O um orculo, um
algoritmo que pode ser aplicado a qualquer matriz n n, mas cujo funcionamento interno
desconhecemos. Imagine, agora, que descobrimos, ou fomos informados, de que O apenas
2. DECOMPOSIO DE MATRIZES 57

multiplica a matriz de entrada por uma matriz desconhecida .

A / O / A

Neste caso, decifrar o orculo resume-se a identificar . Mas isto muito fcil de fazer:
basta dar como entrada a O a matriz identidade n n. Como O atua multiplicando por
a matriz que lhe foi dada como entrada, a sada neste caso ser a prpria .
Passando ao caso que nos interessa, sejam 1 i < j n inteiros e suponhamos que
O o orculo que, ao receber uma matriz A, retorna a matriz obtida somando linha j de
A o produto de sua linha i por um escalar r. Levando em conta que a nica posio no
nula da linha i da matriz identidade I ocorre na diagonal e vale 1, podemos concluir que
ao receber I este orculo retornar a matriz

1 0 0 0 0 0

0 1 0 0 0 0
.. .. .. .. .. .. .. .. ..

. . . . . . . . .

Cji (r) =
0 0 r 1 0 0

.. .. .. .. .. .. .. .. ..
. . . . . . . . .

0 0 0 0 1 0

0 0 0 0 0 1
em que o r est localizado na posio ji. Portanto, podemos afirmar que:

se O for implementado como a multiplicao da matriz dada na entrada


por alguma matriz , ento = Cji (r).

Resta-nos verificar que Cji (r)A de fato igual matriz obtida a partir de A substituindo-se
sua j-sima linha por ela prpria somada a r vezes sua i-sima linha. Para isto, observe
que Cij (r) pode ser escrita na forma
I + rEji
em que I a matriz identidade n n e Eji a matriz que tem todas as suas entradas nulas,
exceto a da posio ji, que vale 1. Portanto, se A for uma matriz n m,
Cij (r) A = (I + rEji ) A
que igual a
I A + rEji A = A + rEji A
58 2. SISTEMAS LINEARES

pois a multiplicao de matrizes distributiva. Logo, tudo o que temos que fazer desco-
brir quanto vale Eji A.
Mas a k-sima linha de Eji A obtida multiplicando-se a k-sima linha de Eji por cada
uma das colunas de A. Portanto, a nica linha de Eji A que pode ser diferente de zero
a j-sima, porque contm a nica entrada no nula de Eji : o um que fica na posio ji.
Contudo,
[0, 0, , 1, , 0] A(:, k) = A(i, k);
de modo que a j-sima linha de Eji A ser igual i-sima linha de A. Logo,

Eji A uma matriz cujas linhas so todas nulas, exceto pela sua j-sima
linha, que igual i-sima linha de A.

Como,
Cij (r) A = A + r(Eji A),
podemos concluir que esta matriz difere de A apenas em sua j-sima linha, que aparece
somada a r vezes A(i, :), que a nica linha no nula de Eji A. Comprovamos, assim,
que Cji (r)A igual matriz obtida aplicando a A a operao elementar correspondente a
somar r vezes a i-sima linha de A sua j-sima linha. E por isso que as matrizes da
forma Cij (r) so chamadas de elementares.
Por exemplo, o sistema (20) da pgina 47 tem

1 1 1 1 1

2 3 1 5 5
A= 1 7 1

2 3

5 1 3 1 7

por matriz aumentada. Para por este sistema em forma triangular superior, utilizamos as
seguintes operaes elementares por linha, para cada uma das quais escrevemos a matriz
elementar correspondente, segundo a receita que acabamos de descobrir:

Operao por linha matriz elementar


segunda linha menos o dobro da primeira C21 (2)
terceira linha menos a primeira C31 (1)
quarta linha menos o quntuplo da primeira C41 (5)
terceira linha menos o sxtuplo segunda C32 (6)
quarta linha mais o sxtuplo segunda C42 (6)
quarta linha mais sete meios da terceira C43 (7/2)
2. DECOMPOSIO DE MATRIZES 59

Portanto,
(21) C43 (7/2) C42 (6) C32 (6) C41 (5) C31 (1) C21 (2) A
deve ser igual matriz triangular superior

1 1 1 1

0 1 1 3
,
0 0 4
17

0 0 0 91/2
como fcil de verificar efetuando as contas. Fcil, mas muito trabalhoso, a no ser que
voc use o S CI L AB ou algum sistema equivalente.
As matrizes elementares tm duas importantes propriedades que precisamos mencionar
porque sero utilizadas mais adiante. A primeira, e mais bvia, que qualquer matriz
elementar triangular superior ou triangular inferior. Afinal, uma matriz elementar tem
apenas uma posio fora da diagonal. Quando esta posio est acima da diagonal, temos
uma matriz triangular superior; quando abaixo, temos uma matriz triangular inferior. Mais
precisamente, se 1 i, j n inteiros e a R, ento a matriz elementar Cij (a) de tamanho
nn

triangular inferior: quando i > j;


triangular superior: quando i < j.

A segunda propriedade, muito mais interessante, afirma que Cij (a) uma matriz inversvel
quaisquer que sejam i 6= j e a R. Para provar isto basta exibir um inverso para Cij (a), o
que muito fcil, porque o inverso desta matriz Cij (a). Para provar isto, basta lembrar
que, ao multiplicar Cij (a) por Cij (a) estamos aplicando a operao elementar oposta a
que Cij (a) implementa; de modo que uma desfaz a outra. Mais precisamente, estamos
apenas afirmando que
Cij (a) Cij (a) I = I.
Esta propriedade importante suficiente para que devamos destac-la em um lema.
L EMA 2.1. Sejam i e j inteiros positivos distintos menores ou iguais a n e a um nmero
real. A matriz elementar Cij (a) inversvel e sua inversa igual a Cij (a).

2.2. Representao matricial de um sistema linear. Como j observamos na intro-


duo desta seo, nosso uso de matrizes para resolver sistemas lineares tem sido muito
ingnuo. As matrizes serviram somente para deixar mais claras as contas, porque nos per-
mitiram escrever apenas os coeficientes das equaes, sem incgnitas e sem os smbolos
para as operaes. Entretanto, h uma outra maneira de representar um sistema linear em
termos de matrizes; s que desta vez o sistema convertido em uma verdadeira equao
60 2. SISTEMAS LINEARES

matricial. Alm do mais, a traduo matricial do mtodo de eliminao, discutida no artigo


anterior, nos permite resolver esta equao matricial.
Vejamos como seria feita esta traduo no sistema

x+y+z+w =1
2x + 3y + z + 5w =5
x + 7y z + 2w =3
5x y 3z + w = 7,

que vimos considerando desde a pgina 47. Em primeiro lugar, ao contrrio do que fizemos
na matriz aumentada, trataremos os coeficientes das variveis e os termos independentes
separadamente. Numa primeira tentativa, podemos escrever o sistema como uma igualdade
entre matrizes coluna:

x+y+z+w 1

2x + 3y + z + 5w 5
x + 7y z + 2w = 3 .


5x y 3z + w 7

O lado direito j bastante simples, mas no o lado esquerdo. Para simplific-lo ainda
mais, podemos representar os coeficientes e as variveis em matrizes diferentes, usando a
multiplicao de matrizes para combin-los da maneira desejada:


x+y+z+w 1 1 1 1 x

2x + 3y + z + 5w 2 3 1 5 y

x + 7y z + 2w = 1 7 1 2 z .


5x y 3z + w 5 1 3 1 w

Desta forma, o sistema original se traduz na equao matricial


1 1 1 1 x 1

2 3 1 5 y 5

1 7 1 2 z = 3 .


5 1 3 1 w 7
2. DECOMPOSIO DE MATRIZES 61

Naturalmente, o que fizemos neste exemplo facilmente generalizado, dando origem


seguinte receita. Dado um sistema linear
(22) A1,1 x1 + A1,2 x2 + A1,3 x3 + + A1,n xn = b1
A2,1 x1 + A2,2 x2 + A2,3 x3 + + A2,n xn = b1
A3,1 x1 + A3,2 x2 + A3,3 x3 + + A3,n xn = b1
.. .. ..
. . .
An,1 x1 + An,2 x2 + An,3 x3 + + An,n xn = b1

escrevemos seu lado esquerdo como o produto da matriz do sistema



A1,1 A1,2 A1,3 A1,n
A2,1 A2,2 A2,3 A2,n


A= A3,1 A3,2 A3,3 A3,n

.. .. .. .. .
..
. . . .
An,1 An,2 An,3 An,n
pela matriz coluna X chamada de matriz das variveis,

x1
x2


X= x3 .

..
.
xn
J o lado direito de (22) corresponde a uma matriz coluna conhecida como matriz das
constantes, que representamos por

b1
b2


b= b3 .

..
.
bn
Com isto, o sistema (22) equivale equao matricial
AX = b.
No prximo artigo veremos como utilizar as matrizes elementares para adaptar o mtodo
de eliminao esta representao matricial de um sistema linear.
62 2. SISTEMAS LINEARES

2.3. Decomposio LU. Suponhamos que AX = b a representao matricial de um


sistema linear com n equaes em n incgnitas. Segundo a receita introduzida na seo
anterior, os coeficientes das variveis aparecem na matriz A de tamanho n n e os termos
constantes na matriz coluna b. Por isso, para entender como resolver AX = b, comeamos
por aplicar a eliminao gaussiana matriz A do sistema. Na verdade, estes clculos no
s j foram feitos, como sabemos represent-los em forma matricial.
Por exemplo, as matrizes do sistema (20), antes e depois de sua converso forma
triangular superior, so, respectivamente

1 1 1 1 1 1 1 1

2 3 1 5 e U = 0
1 1 3
A= 1 7 1 2
.

0
0 4 17

5 1 3 1 0 0 0 91/2
A letra U tradicionalmente usada para designar matrizes triangulares superiores porque,
em ingls, tais matrizes so conhecidas como Upper triangular. Mas claro que podemos
obter a matriz de um sistema a partir de sua matriz aumentada simplesmente apagando a
ltima coluna desta ltima, j que nela que ficam guardados os termos constantes. Por
isso, podemos reescrever a equao (21) na forma
(23) C43 (7/2) C42 (6) C32 (6) C41 (5) C31 (1) C21 (2) A = U.
Denotando o produto de matrizes elementares no lado esquerdo da equao por M , pode-
mos reescrever a equao acima na forma M A = U . Entretanto, como vimos no lema
(2.1) da pgina 59, as matrizes elementares cujo produto define M so, todas elas, invers-
veis. Portanto, combinando o lema (2.1) ao exerccio 28 da pgina 33, temos que a matriz
inversa M 1 existe e igual a
C21 (2) C31 (1) C41 (5) C32 (6) C42 (6) C43 (7/2).
Efetuando este produto, obtemos

1 0 0 0

2 1 0 0
M 1 =
1 6
,
1 0
5 6 7/2 1
que uma matriz triangular inferior. Como de costume, denotaremos esta matriz por L,
j que, em ingls, tais matrizes so chamadas de Lower triangular. Com isto, podemos
escrever A = L U . Isto , escrevemos a matriz A dada como produto de uma matriz
triangular inferior L por uma matriz triangular superior U . Os matemticos, no mais
intenso uso de sua capacidade imaginativa, chamam isto de decomposio LU da matriz
A.
2. DECOMPOSIO DE MATRIZES 63

Tudo isto pode ser facilmente generalizado. Seja A uma matriz n n qualquer e di-
gamos que depois de aplicar eliminao gaussiana sem pivoteamento, chegamos a uma
matriz triangular superior U . Como cada operao elementar por linha aplicada a A cor-
responde a multiplicar esta matriz esquerda por uma matriz elementar, conclumos que
existem matrizes elementares C1 , . . . , Cm tais que
C1 Cm A = U.
Como cada matriz elementar inversvel, temos que
1
A = Cm C11 U.
Contudo, pelo lema (2.1) as matrizes C11 , . . . , Cm
1
so triangulares inferiores, j que isto
vale para C1 , . . . , Cm . Como o produto de matrizes triangulares inferiores tambm trian-
gular inferior, temos que
1
L = Cm C11
uma matriz triangular inferior e que
A = L U,
o produto de uma matriz triangular inferior L pela matriz U , que triangular superior.
Logo, sempre que for possvel reduzir uma matriz A a uma matriz triangular superior
pelo mtodo de eliminao sem pivoteamento, teremos que A admite uma decomposio
LU. Tivemos que acrescentar sem pivoteamento porque, nas consideraes acima, nunca
tratamos do que acontece quando duas linhas da matriz mudam de posio. Voltaremos a
isto no artigo 2.5.
Dada a importncia da decomposio LU, no podemos prosseguir sem antes conside-
rar como implementar um algoritmo capaz de calcular as matrizes L e U a partir de uma
matriz quadrada n n dada. A maneira bvia de proceder consiste em aplicar o mtodo
de eliminao gaussiana matriz A, guardando as matrizes elementares utilizadas para
efetuar cada uma das operaes por linha. O problema que, para valores grandes de n,
este procedimento consome muita memria. Por exemplo, se n = 10k , precisaremos guar-
dar cerca de 103k nmeros reais; veja exerccio 8. Levando em conta que sistemas com
milhares de equaes so comuns em aplicaes prticas, isto pode facilmente exaurir a
memria de um computador.
H duas sadas plausveis. A primeira consiste em guardar, no as matrizes elementa-
res, mas sim o mnimo de informaes necessrias para que sejamos capazes de reconstru-
las. Na prtica isto significa saber quais so as linhas sobre as quais a operao incidiu e
que constante multiplicou qual linha, antes de som-la outra. A vantagem desta maneira
de proceder que precisamos guardar apenas dois inteiros e um nmero real para cada
operao elementar realizada, com bvia economia de memria. Nesta verso a matriz
triangular inferior s completamente construda quando se fizer necessria.
64 2. SISTEMAS LINEARES

A implementao que faremos mais perdulria no uso de memria, mas tem a van-
tagem de construir completamente a matriz L, o que a torna mais til para os propsitos
deste livro. A ideia que, cada vez que aplicamos uma operao por linha a matriz A
fazemos o mesmo a uma outra matriz que, ao final da execuo, conter o valor de L1 .
Para isto criamos uma nova matriz, digamos A, b com o dobro das colunas de A, formada
por dois blocos n n. O primeiro destes blocos a prpria matriz A, o segundo a matriz
identidade de mesmo tamanho que A. Assim, podemos representar A b na forma [A, I]. As
operaes por linha necessrias para calcular U so ento aplicadas a toda a matriz A,b e
no apenas s posies na suas n primeiras colunas, que correspondem matriz A. Para
entender aonde queremos chegar com isto, digamos que o esquema abaixo representa o
processo de eliminao gaussiana aplicado a A

m
(24) A = A0 0 A1 1 A2 2 Am+1 = U,
em que j denota a operao elementar por linha aplicada a matriz Aj e da qual resulta a
matriz Aj+1 . Denotando por Cj a matriz elementar correspondente a j , temos que
Cj Aj = Aj+1 .
Encadeando estas equaes umas s outras, obtemos
U = Am+1 = Cm Am = Cm Cm1 Am1 = = Cm C1 A1 = Cm C1 C0 A0 .
Como A0 = A, isto implica que
Cm C1 C0 = L1 .
Tendo isto em vista, vejamos o que ocorre se aplicarmos a A b = [A, I] exatamente as
mesmas operaes utilizadas em (24). A sequncia de operaes e matrizes a seguinte:
A
b



0
[A0 , I] [C0 A, C0 I]



1
[A1 , C0 I] [C1 A1 , C1 C0 I]



[A2 , C1 C0 I]
..
.



[Am+1 , Cm C0 I]
2. DECOMPOSIO DE MATRIZES 65

Mas I a matriz identidade, de modo que


[Am+1 , Cm C0 I] = [U, L1 ].
Resumindo, mostramos que
0 1 2 m
b = [A0 , I]
A [A1 , C1 ] [A2 , C2 ] [U, L1 ],
de modo que o algoritmo desejado pode ser descrito sucintamente da seguinte maneira.
A LGORITMO 2.2. Dada uma matriz A o algoritmo retorna uma matriz triangular in-
ferior L e uma matriz triangular superior U tais que A = LU , ou uma mensagem de
erro.

Inicializa: A
b = [A, I];
lao principal: calcule a forma escada S de A b atravs da eliminao gaussiana
sem pivoteamento. Se isto no for possvel, retorne uma mensagem de erro e
pare;
sada: retorne U = S[1 : n, 1 : n] e L = S[1 : n, n : 2n]1 .

No esquea que I a matriz identidade de mesmo tamanho que A. Como estamos su-
pondo que A uma matriz n n, este ser tambm o tamanho de I.

H duas observaes importantes que devemos fazer sobre esta descrio do algoritmo.
A primeira que o lao principal pode falhar, j que no estamos permitindo a troca de
linhas como parte do procedimento de eliminao. A segunda que j sabemos como
inverter matrizes triangulares inferiores desde o artigo 3.3, onde vimos que este problema
equivale a resolver um sistema triangular inferior por substituio direta.

2.4. Soluo de equaes matriciais. De posse da decomposio LU, estamos pron-


tos para resolver um sistema linear representado em forma matricial. Digamos que o sis-
tema tenha n equaes em n incgnitas e sejam A a matriz do sistema e b sua matriz de ter-
mos constantes. Denotando por X a matriz de variveis do sistema, podemos represent-lo
em forma matricial como
AX = b.
Se A = LU for a decomposio LU de A, ento
L(U X) = (LU )X = b.
Escrevendo Y = U X, a soluo deste sistema pode ser obtida atravs da resoluo de dois
sistemas triangulares. Em primeiro lugar, resolvemos o sistema triangular inferior
LY = b
obtendo como soluo uma matriz coluna Y0 , que ento usado como matriz de constantes
do sistema triangular superior
U X = Y0 .
66 2. SISTEMAS LINEARES

Estes dois sistemas so resolvidos por substituio: direta quando a matriz do sistema
triangular inferior e reversa quando triangular superior.
Voltando ao sistema (20) cuja matriz A tem decomposio LU dada por

1 0 0 0 1 1 1 1

2 1 0 0 0 1 1 3
L=
e U = 0 0 4
,
1 6 1 0 17

5 6 7/2 1 0 0 0 91/2

podemos resolv-lo a partir de dois sistemas triangulares. Escrevendo Y = [x0 , y 0 , z 0 , w0 ]t ,


o primeiro sistema que devemos resolver L Y = b, cujas equaes so

x0 = 1
y 0 + 2x0 = 5
z 0 + 6y 0 + x0 = 3
(7/2)z 0 6y 0 + 5x0 + w0 = 7.

Aplicando o mtodo de substituio direta, obtemos

x0 = 1, y 0 = 3, z 0 = 16 e w0 = 36.

Escrevendo estes valores das variveis nas entradas de uma matriz 4 1, temos

1

0
3
b = ,
16

36

de modo que o segundo sistema a resolver ser U X = b0 , cujas equaes so

x+y+z+w =1
y z + 3w = 3
4z 17w = 16
(91/2)w = 36.

Como se trata de um sistema triangular superior, podemos usar substituio reversa para
determinar
x = 6/7, y = 1/91, z = 58/91 e w = 72/91,
que j havamos obtido, por outro mtodo no artigo 1.3.
2. DECOMPOSIO DE MATRIZES 67

2.5. Decomposio LUP. Como observamos no artigo 2.3, o algoritmo que calcula a
decomposio LU de uma matriz quadrada A no funcionar corretamente se, ao aplicar o
mtodo de eliminao a A precisarmos efetuar trocas de linhas. Antes de entender o porqu
disto e tentar sanar o problema, precisamos descobrir qual a matriz que, multiplicada a
A, retorna uma matriz igual a A exceto pela troca de duas de suas linhas. Supondo que
as linhas em questo so i e j, podemos usar a mesma ideia do orculo, j empregada no
artigo 2.3, para descobrir que a matriz desejada pode ser obtida transpondo as linhas i e j
na matriz identidade. Mais precisamente, seja Ti,j a matriz n n definida por

I[k, :] se k 6= i, j

Ti,j [k, :] = I[j, :] se k = i

I[i, :] se k = j,

em que I a matriz identidade de tamanho n n. Se A for uma matriz n m qualquer,


ento Ti,j A igual matriz A, exceto pelas linhas i e j que foram trocadas uma pela
outra.
Para provar esta ltima afirmao basta lembrar que ao multiplicar a j-sima linha da
matriz identidade por uma matriz A qualquer, obtemos uma cpia da j-sima linha de A;
isto ,
I(j, :) A = A(j, :).
Como em Tij a i-sima linha da identidade foi trocada com sua j-sima temos que, no
produto Tij A, a j-sima linha de A copiada no lugar de sua i-sima linha e vice-versa.
Em particular, duas trocas consecutivas da linha i pela linha j nos fazem voltar matriz
original; de modo que,
Tij Tij = I

Na verdade, preciso um certo cuidado ao interpretar esta ltima igualdade, porque


um leitor incauto pode ter a impresso de que se multiplicarmos uma matriz A quadrada
por Tij as linhas i e j de A sero trocadas uma com a outra; mas no isto que acontece.
O problema que em A Tij so as linhas de A que so multiplicadas pelas colunas de Tij .
Assim, a posio k, ` em A(k, :) Tij igual a

A(k, `) se ` 6= i, j;

A(k, :) Tij (:, `) = A(k, j) se ` = i;

A(k, i) se ` = j;

Mas isto significa que ao multiplicarmos Tij esquerda da matriz A trocamos a i-sima
coluna A de lugar com sua j-sima coluna. Portanto, quando calculamos

(Ti,j A) Ti,j
68 2. SISTEMAS LINEARES

respeitando ordem indicada pelos parntesis, a posio ij da matriz A efetua a seguinte


dana
posio jj _ _ _/ posio ji
O


posio ij
ao passo que a dana correspondente para ii dada por
posio ji _ _ _/ posio jj
O


posio ii
Note que isto significa que a entrada Aii foi movida para a posio jj. Como a entrada Ajj
efetua a mesma dana, s que fazendo os passos ao contrrio, o resultado que Aii e Ajj
trocam de posio entre si.
Precisamos disto para obter uma frmula que relaciona as matrizes T e C entre si, e
que usaremos na anlise da eliminao gaussiana com pivoteamento que faremos abaixo.
Mais precisamente, queremos calcular
Tjk Cji (r)Tjk ,
quando i < j e k 6= j. Mas,
Cji (r) = I + rEji ,
em que I a matriz identidade e Eji a matriz cujas entradas so todas nulas, exceto pela
que est na posio ji, que vale um. Logo,
Tjk Cji (r)Tjk = Tjk (I + rEji )Tjk = I + rTjk Eji Tjk ,
de modo que precisamos apenas calcular
Tjk Eji Tjk .
Como Eji tem uma nica posio no nula, precisamos apenas descobrir onde esta posio
vai para ao final da dana que a multiplicao por Tjk proporciona s entradas da matriz,
que neste caso pode ser diagramada por
posio ji



posio ki
uma vez que o produto direita por Tjk troca entre si apenas as colunas j e k, que so
ambas nulas. Portanto,
Tjk Eji Tjk = Eki ;
2. DECOMPOSIO DE MATRIZES 69

donde conclumos que

(25) Tjk Cji (r)Tjk = Cki (r).

Note que se i e j forem ambos diferentes de k e `, ento

Tk` Cji (r)Tk` = Cji (r),

porque as linhas e colunas sobre as quais Tk` atua so todas nulas. Como isto equivale a
escrever
Tk` Cji (r) = Cji (r)Tk` ;

dizemos que, neste caso, as matrizes T e C comutam entre si.


Com isto estamos prontos para analisar a eliminao gaussiana com pivoteamento
como uma decomposio de matrizes. Procedendo como no caso da decomposio LU, o
processo de eliminao consiste em multiplicar a matriz A dada por matrizes elementares
at que seja necessrio transpor duas linhas, para o que usaremos as matrizes T . Portanto,
se a matriz A for de tamanho n n e A[1, 1] = 0, mas A[2, 1] 6= 0, ento aplicamos T1,2
para trocar a primeira linha de posio com a segunda, depois do que podemos anular todas
as posies da primeira coluna abaixo de 1, 1. Em outras palavras, existem nmeros reais
c2 , . . . , cn tais que

(26) C1,n (cn ) C1,3 (c2 ) C1,2 (c1 ) T1,2 A

tem a forma

A[2, 1] A[2, 2] A[2, 3] A[2, n]


0 ? ? ?

0
? ? ?
0 ? ? ?

. .. .. ..
. ..
. . . . .

0 ? ? ?

em que os asteriscos representam posies possivelmente no nulas da matriz (26). Tanto


as operaes elementares por linha quanto as transposies que aplicaremos deste ponto
em diante no afetaro a primeira linha. Como todas as posies da primeira coluna que
ficam abaixo da primeira linha so nulas, estas operaes e transposies tambm no
afetaro esta coluna. Em outras palavras, somente as posies da submatriz A[2 : n, 2 : n]
de A sero afetadas. Como esta submatriz tem tamanho (n 1) (n 1) podemos
considerar que o algoritmo continua aplicando recursivamente o mesmo procedimento a
matrizes progressivamente menores.
70 2. SISTEMAS LINEARES

Vejamos como o procedimento funciona quando aplicado matriz



1 4 6 1

2 8 5 1
A= 3 5 2 5 .


4 2 1 3

Como a entrada 1, 1 no nula, podemos us-la com piv. Fazendo isto, obtemos

1 4 6 1

0 0 7 3
C(4, 1, 4) C(3, 1, 3) C(2, 1, 2) A =
0 7 16 8 .


0 14 25 7

Neste ponto aparece um problema: o piv deveria ser a entrada 2, 2, que nula. Resolve-
mos este problema utilizando a matriz T2,3 , j que a posio 3, 2 no nula. Fazendo isto
e prosseguindo com a eliminao, obtemos
(27)
1 4 6 1

0 7 16 8
C4,3 (1) C4,2 (2) T2,3 C4,1 (4) C3,1 (3) C2,1 (2) A =
0 0 7 3 = U


0 0 0 6

que uma matriz triangular superior. O problema est na matriz



1 0 0 0

3 0 1 0
C4,3 (1) C4,2 (2) T2,3 C4,1 (4) C3,1 (3) C2,1 (2) =
2

1 0 0
0 1 1 1

que deveria ser triangular inferior, mas no . A matriz de transposio mudou a posio
de uma linha fazendo aparecer um 1 na posio 2, 3, que deveria ser nula. Felizmente, h
uma maneira de contornar este problema. A estratgia consiste em utilizar a frmula (25)
para deslocar a transposio para direita, at que esteja adjacente matriz A.
Para comear, note que, como T2,3 e C4,1 (4) comutam,
U = C4,3 (1) C4,2 (2) C4,1 (4) T2,3 C3,1 (3) C2,1 (2) A.
2
Por outro lado, como T2,3 = I, temos que
U = C4,3 (1) C4,2 (2) C4,1 (4) T2,3 C3,1 (3) T2,3 T2,3 C2,1 (2) A.
2. DECOMPOSIO DE MATRIZES 71

Mas,
T2,3 C3,1 (3) T2,3 = T2,3 (I 3E3,1 ) T2,3 = I 3(T2,3 E3,1 T2,3 )
que, pela frmula (25), igual a
I 3E2,1 = C2,1 (3),
de modo que
T2,3 C3,1 (3) T2,3 = C2,1 (3).
Isto nos permite escrever
U = C4,3 (1) C4,2 (2) C4,1 (4) C2,1 (3) T2,3 C2,1 (2) A,
com o qu T2,3 est uma casa mais prximo de A do que antes. Aplicando a mesma
estratgia mais uma vez, segue de
U = C4,3 (1) C4,2 (2) C4,1 (4) C2,1 (3) T2,3 C2,1 (2) T2,3 T2,3 A,
e de
T2,3 C2,1 (2) T2,3 = C3,1 (2)
que
U = C4,3 (1) C4,2 (2) C4,1 (4) C2,1 (3) C3,1 (2) T2,3 A.
A estratgia ter dado certo se
M = C4,3 (1) C4,2 (2) C4,1 (4) C2,1 (3) C3,1 (2)
for triangular inferior. Contudo Ci,j (a) triangular inferior sempre que i > j, o que ocorre
com todas as matrizes elementares no produto acima. Portanto, M mesmo triangular e o
mesmo ser verdadeiro para L = M 1 . Com isto, podemos escrever
T2,3 A = L U ;
que a forma que a decomposio LU toma quando h pivoteamento na eliminao gaus-
siana.
Em geral, tendo executado a eliminao gaussiana com pivoteamento sobre uma matriz
A de tamanho n n, obtemos uma matriz U triangular superior e um produto de matrizes
elementares, entremeadas aqui e ali por transposies. Usamos ento a regra
(
Ck,` (a) se j 6= k;
(28) Ti,j Ck,` (a) Ti,j =
Ci,` (a) se j = k;
para mover as transposies para a extremidade direita, de modo que seu produto P seja
imediatamente adjacente matriz A. Com isto obtemos uma equao da forma
M P A = U;
em que M um produto de matrizes elementares. O ltimo detalhe a verificar que M
, de fato, uma matriz triangular inferior. primeira vista isto parece bvio, porque as
matrizes elementares usadas na eliminao so triangulares inferiores. O problema so os
72 2. SISTEMAS LINEARES

T s. Tendo usado a frmula (28) para mudar um certo T de posio precisamos mostrar
que a matriz elementar resultante continua sendo triangular inferior. No caso em que i, j,
k e ` so distintos isto bvio, porque a matriz elementar no alterada. O outro caso
requer uma anlise mais cuidadosa. Em primeiro lugar, temos k > ` em Ck,` (a) porque
estamos anulando uma posio de uma linha usando um piv que pertence a uma linha
acima dela. Por outro lado, se uma transposio aparece em alguma posio esquerda
da matriz elementar Ck,` (a) ento as linhas que esto sendo trocadas esto ambas abaixo
da `-sima linha, onde se encontra o piv de Ck,` (a). Em particular, k < i, j. Portanto,
` < k < i, j e consequentemente a matriz Ci,` (a) tambm ser triangular inferior. Como
produtos e inversas de matrizes triangulares inferiores so tambm triangulares inferiores,
podemos concluir que L = M 1 triangular inferior. Assim,
P A = L U;
em que P uma matriz de permutao, L triangular inferior e U triangular superior.
Esta decomposio LU generalizada conhecida como decomposio LUP.
Para falar a verdade, a necessidade de escolher um piv adequado no se resume ao
caso em que a entrada que conteria o piv nula. Para entender qual o problema, basta
calcular a decomposio LU da matriz
" #
1020 1
A=
1 1
Ao eliminar a posio 2, 1, obtemos
" # " #
1020 1 1 0
U= e L= .
0 1 + 1020 1020 1
Entretanto, se estivermos utilizando uma implementao que representa os nmeros em
ponto flutuante, como ser o caso em quase qualquer aplicao deste algoritmo, a matriz
U ser escrita na forma " #
20
10 1
U0 =
0 1020
contudo, " #
0 1
LU 0 = .
1 0
Portanto, " #
20
10 0
A LU 0 =
0 1
e o erro cometido no clculo da posio 2, 2 totalmente inaceitvel. Para sanar o pro-
blema, devemos escolher no apenas um piv no nulo, mas sim o maior piv possvel.
Mais precisamente:
3. APLICAES 73

se o piv atual estiver na posio i, i, buscamos a linha j, com j > i,


cuja entrada i, j a maior possvel e trocamos de posio as linhas i e j.

Entretanto, como no estamos preocupados com a avaliao de erros, no levaremos isto


em conta ao aplicar o algoritmo de eliminao. Para mais detalhes consulte [2, Lecture 22,
p. 163].

3. Aplicaes

Comeamos esta seo aplicando o algoritmo de eliminao gaussiana com pivotea-


mento para calcular determinantes e inverter matrizes. Ao final, veremos como utilizar
sistemas lineares para resolver problemas de interpolao polinomial; isto , para determi-
nar uma funo polinomial que passe por um conjunto dado de pontos.

3.1. Determinantes. O determinante uma funo do conjunto das matrizes reais


n n no conjunto dos nmeros reais, que satisfaz as seguintes propriedades:

(1) o determinante de uma matriz triangular superior igual ao produto das entradas
da sua diagonal;
(2) o determinante de uma matriz no alterado se matriz for aplicada uma operao
elementar por linha;
(3) o determinante muda de sinal se duas linhas da matriz forem trocadas uma com a
outra.

Estas trs propriedades nos permitem calcular qualquer determinante. De fato, seja A
uma matriz quadrada real de tamanho n n e suponhamos, para comear, que aplicando
eliminao gaussiana sem pivoteamento chegamos forma escada U de A. Denotando o
determinante de A por det(A), podemos concluir de (2) que det(A) = det(U ). Mas U
triangular superior, de modo que seu determinante pode ser facilmente calculado apelando
para (1). Por exemplo, vimos no artigo 1.4 que

1 1 1 1 1 1 1 1

2 3 1 5 0 1 1 3
A= 1 7 1 2 tem forma escada U = 0 0 4
.
17
5 1 3 1 0 0 0 91/2

Portanto, segundo o argumento acima, devemos ter que


91
det(A) = det(U ) = 1 1 4 = 182.
2
74 2. SISTEMAS LINEARES

Naturalmente no procedimento que estabelecemos acima no estamos permitindo tro-


cas de linhas na obteno da forma escada da matriz a partir da qual calculamos o determi-
nante. Mas, mesmo descontando isto, o procedimento padece de um srio problema. Para
que eu e voc tenhamos certeza de que, atravs dele, obteremos ambos o mesmo valor para
o determinante necessrio provar que a forma escada de uma matriz nica. De fato, se,
para uma mesma matriz A, eu obtiver uma forma escada e voc outra, no poderemos ter
certeza de que estamos calculando o mesmo valor para o determinante de A. Felizmente
isto verdade, como passamos a provar.
Digamos que duas pessoas diferentes calculem formas escada para uma mesma ma-
triz A e encontrem matrizes U e U 0 . Provaremos, usando apenas as propriedades bsicas
da decomposio LU, que U = U 0 . Pelo artigo 2.3, devem existir matrizes triangulares
inferiores L e L0 , ambas produtos de matrizes elementares, tais que
A = L U = L0 U 0 .
Supondo que U 1 inversvel, podemos rearrumar a equao acima na forma
U (U 0 )1 = L1 L0 .
Entretanto, produtos e inversas de matrizes triangulares superiores so tambm triangulares
superiores e o mesmo vale para matrizes triangulares inferiores. Aplicando isto equao
acima temos uma igualdade entre, esquerda uma matriz triangular superior e direita
uma que triangular inferior. Mas uma matriz que simultaneamente triangular superior
e inferior tem que ser diagonal. Portanto, existe uma matriz diagonal tal que
U (U 0 )1 = = L1 L0 .
Como L e L0 so produtos de matrizes elementares, obrigatoriamente tero apenas 1s ao
longo da diagonal, e o mesmo ser verdade para o produto L1 L0 = . Contudo somente
a matriz identidade diagonal e tem 1s ao longo de toda a diagonal. Logo,
U (U 0 )1 = I = L1 L0 ,
donde podemos concluir que U = U 0 e que L = L0 , provando assim a unicidade da forma
escada, ao menos no caso particular em que A inversvel.
O argumento ficou um pouco insatisfatrio porque (i) estamos excluindo a possibili-
dade de haver pivoteamento e (ii) fomos obrigados a supor que U 0 inversvel. Como
contornar (i) levaria a uma argumento tcnico pouco esclarecedor, vamos nos contentar
em afirmar que o pivoteamento no afeta o valor do determinante. De qualquer forma, se-
gundo (3), a pior coisa que o pivoteamento poderia fazer alterar o sinal do determinante.
Vejamos como lidar com (ii).
Como na decomposio A = L0 U 0 a matriz L0 ser sempre inversvel, segue que U 0
inversvel se, e somente se, o mesmo vale para A. A demonstrao disto muito fcil e
ficar por sua conta. Logo, o argumento acima funciona perfeitamente desde que A seja
inversvel. Se isto no acontecer, ento U 0 ser uma matriz triangular no inversvel e ter
3. APLICAES 75

que ter uma posio nula ao longo da diagonal. Mas isto implica que det(U 0 ) = 0. Ainda
que exista uma forma escada diferente para A ela no poder ser inversvel, de modo que
o mesmo argumento se aplicar. Portanto, se A no for inversvel teremos det(A) = 0,
independentemente da forma escada ser nica ou no. Na verdade, esta parte do argumento
independe at mesmo de haver ou no troca de linhas durante a eliminao.

3.2. Inverso de matrizes. Calcular a inversa de uma matriz usando eliminao gaus-
siana bastante simples. Seja A a matriz quadrada n n que desejamos inverter. Comea-
mos por construir a matriz [A, I] de tamanho n2n que consiste de dois blocos adjacentes:
a prpria matriz A e a matriz identidade I de mesmo tamanho que A. Lembre-se que j
tivemos oportunidade de usar esta matriz no artigo 2.3, onde vimos que a forma escada
de [A, I] [U, M ], em que U a forma escada de A e M a matriz, produto de matrizes
elementares e transposies, tal que M A = U . Como M inversvel, basta calcular a
inversa U 1 de U (desde que ela exista!) e teremos a inversa de A na forma U 1 M . Mas
U triangular superior, de modo que sua inversa pode ser facilmente calculada resolvendo
um sistema por substituio reversa. Tomando mais uma vez

1 4 6 1

2 8 5 1
A= ,
3 25 2 5

4 2 1 3

como exemplo, construmos



1 4 6 1 | 1 0 0 0

2 8 5 1 | 0 1 0 0
[A, I] = ,
3
5 2 5 | 0 0 1 0

4 2 1 3 | 0 0 0 1

cuja forma escada



1 4 6 1 | 1 0 0 0

0 7 16 8 | 3 0 1 0
[U, M ] =
0 0 7 3 | 2 1 0
.
0
0 0 0 6 | 0 1 2 1

Para inverter U , resolvemos o sistema

X U = I,
76 2. SISTEMAS LINEARES

em que X uma matriz triangular superior cujas entradas no nulas so incgnitas. Se



x1 x2 x3 x4

0 x5 x6 x 7
0 0 x x ,

8 9
0 0 0 x10

ento as equaes do sistema X U = I sero

x1 =1 16x5 7x6 =0
4x1 7x2 =0 8x5 3x6 + 6x7 =0
6x1 16x2 7x3 =0 7x8 =1
x1 8x2 + 3x3 + 6x4 =0 3x8 + 6x9 =0
7x5 =1 6x10 = 1.

Utilizando o mtodo de substituio direta, descobrimos que este sistema tem soluo
4 22 109 1
x1 = 1, x2 = , x3 = , x4 = , x5 = ,
7 49 294 7
16 4 1 1 1
x6 = , x7 = , x8 = , x9 = x10 = ;
49 147 7 14 6
de modo que

1 74 49
22 109
294
0 1 16 4

U 1 = 7 49 147
0 0 1 1 .

7 14
1
0 0 0 6

Mas de M A = U , podemos concluir que U 1 M A = I, de modo que



9/49 23/294 25/147 109/294

1
11/49 44/147 13/147 4/147
U M =
2/7
3/14 1/7 1/14

0 1/6 1/3 1/6

a inversa desejada.
H uma outra maneira de obter a inversa de U que muito conveniente quando cal-
culamos com papel e lpis, ainda que padea de alguns problemas quando executado no
computador em ponto flutuante. A ideia simplesmente aplicar eliminao gaussiana nas
3. APLICAES 77

linhas de U , s que de baixo para cima. No exemplo anterior, havamos obtido a matriz

1 4 6 1 | 1 0 0 0

0 7 16 8 | 3 0 1 0
[U, M ] =
0 0 7 3 | 2 1 0 0 .


0 0 0 6 | 0 1 2 1

Aplicando a esta matriz a operao elementar em que a segunda linha substituda pelo
produto de 3/2 pela terceira linha, resulta

1 4 6 1 | 1 0 0 0

0 7 16 8 | 3 0 1 0
0 0 7 0 | 2 3 1 1 .

2 2
0 0 0 6 | 0 1 2 1

Mais duas operaes elementares com base na quarta linha e chegamos matriz

1 4 6 0 | 1 61 13 16
0 7 16 0 | 3 4 5 4

3 3 3
0 0 7 0 | 2 3 1 1 .

2 2
0 0 0 6 | 0 1 2 1

Tomando, agora, como piv a entrada 7 na posio 3, 3, eliminamos as posies acima


dela na mesma coluna, do que resta a matriz

1 4 0 0 | 57 47 42
11
21
11
42
0 7 0 0 | 11 44 13 4

7 21 21 21

0 0 7 0 | 2 3 1
.
2
1 2
0 0 0 6 | 0 1 2 1

Finalmente, usando a posio em 2, 2 como piv eliminamos a entrada imediatamente


acima dela, obtendo a matriz

9 23 25 109
1 0 0 0 | 49 294 147 294
| 11 44 13 4

0 7 0 0 7 21 21 21

3 1
.
0 0
7 0 | 2 2
1 2
0 0 0 6 | 0 1 2 1
78 2. SISTEMAS LINEARES

que denotaremos por [D, Q]. Argumentando como no artigo 2.3, podemos escrever

1 0 0 0

0 7 0 0
QA=D =
0 0 7 0

0 0 0 6

que uma matriz diagonal e, portanto, facilmente inversvel. De fato,



1 0 0 0

1
0 1/7 0 0
D = 0

0 1/7 0
0 0 0 1/6

Portanto, de Q A = D podemos concluir D1 Q A = I, de modo que a inversa de A


igual a

9 23 25 109

4911 294
44
147
13
294
4

1
77 721
721
721
D Q= 2 3 1 1
7 72 7
72
1
0 6
26 1
6

que a mesma matriz que j havamos obtido anteriormente pelo outro mtodo.
Resta-nos explicar porque deveramos dar preferncia ao primeiro mtodo em detri-
mento do segundo, quando se trata de inverter matrizes automaticamente em um compu-
tador. No se trata de uma questo de eficincia, a eliminao gaussiana extremamente
rpida, mas sim de estabilidade. Mais precisamente, se vamos calcular a eliminao de
maneira exata, no faz diferena se usamos um mtodo ou o outro. Mas no isto que
acontece na prtica. Se a matriz que precisamos inverter vier de uma medida feita em um
experimento, ento os valores de suas entradas sero conhecidos apenas aproximadamente,
dentro de uma certa margem de erro. Por isso, ao inverter a matriz, precisamos ser capazes
de controlar o erro cometido nos clculos efetuados pelo prprio algoritmo de inverso.
Caso contrrio os valores das entradas da inversa podem no ter nenhum significado real.
Infelizmente, mesmo se tomarmos todos os cuidados necessrios na escolha do piv (veja
artigo 2.5), ainda no se sabe exatamente como estimar o erro da sada em termos dos
limites de erro da entrada, para o mtodo de eliminao gaussiana. Por outro lado, tal es-
timativa fcil de obter no caso da substituio reversa. E por isso que, ao implementar
um algoritmo, desejvel minimizar o uso da eliminao, sempre que isto for possvel.
Para uma dicusso mais detalhada da propagao do erro na eliminao gaussiana veja
[Trefethen e Bau, Lecture 22, p. 163].
3. APLICAES 79

3.3. Interpolao polinomial. Seja P um conjunto finito de pontos do plano. Em uma


primeira aproximao, o problema da interpolao polinomial almeja obter uma funo
polinomial
f (x) = an xn + + a0 ,
de grau n e coeficientes reais, cujo grfico contm todos os pontos de P . primeira vista
a restrio a funes polinomiais pode parecer muito forte. Entretanto, estas so as nicas
funes que um computador consegue calcular diretamente, porque so definidas por uma
quantidade finita de operaes aritmticas elementares. Para as demais funes, teremos
que utilizar aproximaes que, frequentemente, so aproximaes polinomiais.
Comecemos com um exemplo simples. Digamos que queremos uma funo polinomial
de grau dois que passa pelos pontos (1, 0), (2, 1) e (3, 4) do plano. A funo pode ser escrita
na forma
f (x) = ax2 + bx + c,
em que a, b e c denotam nmeros reais. Nosso objetivo determinar quais devem ser os
coeficientes a, b e c para que y = f (x) passe pelos pontos dados. Mas para que isto ocorra,
devemos ter que
a + b + c = f (1) = 0
4a + 2b + c = f (2) = 1
9a + 3b + c = f (3) = 4
que podemos interpretar como um sistema linear, cuja matriz aumentada

1 1 1 | 0
4 2 1 | 1

9 3 1 | 4.
Aplicando eliminao gaussiana a esta matriz, obtemos a matriz escada

1 1 1 | 0
0 2 3 | 1

0 0 1 | 1,
que corresponde ao sistema triangular superior
a+b+c=0
2b 3c = 1
c=1
cuja soluo c = 1, b = 2 e a = 1. Portanto, o polinmio desejado
f (x) = x2 2x + 1,
cujo grfico, esboado na figura 1, realmente passa pelos pontos dados.
80 2. SISTEMAS LINEARES

.. ......
... ...
... ...
... ..
.. ..
..
.. .
..
.. ..
.. ..
.. ..
.. ..
.
.. ..
.. ..
..
... ..
..
... .
...
...
... ...
... ...
... ...
... .
....
.. ..
.. ..
.. ..
.. ..
..
... ...
...
... ...
..
.. ..
... ..
... ...
... .
.... ...
...... ....
.................... ........

F IGURA 1. Parbola

Esta maneira de executar a interpolao conhecida como mtodo dos coeficientes a


determinar, por razes bvias. O algoritmo geral para este mtodo pode ser descrito da
seguinte maneira.
A LGORITMO 3.1. Seja P um conjunto finito de pontos do plano e n um nmero posi-
tivo, o algoritmo retorna um polinmio de grau n cujo grfico passa por todos os pontos
de P ou uma mensagem de erro.

Inicialize S = ;
seja
f (x) = an xn + + a1 x + a0
um polinmio de grau n cujos coeficientes so valores a determinar (variveis);
Para cada ponto (x0 , y0 ) P construa a equao f (x0 ) = y0 e acrescente-a ao
sistema S;
resolva o sistema S;
se o sistema for determinado ou indeterminado, atribua os valores de uma solu-
o aos coeficientes de f e retorne o resultado;
se o sistema for impossvel, retorne uma mensagem de erro.

Problemas de interpolao surgem mesmo no caso em que a curva a ser determinada


no uma funo. Por exemplo, dados os mesmos trs pontos do exemplo acima, podemos
determinar um crculo que passe por todos os trs. Tal crculo ter equao
(x a)2 + (y b)2 = r2
EXERCCIOS 81

que, uma vez expandida, corresponde a


x2 2ax + a2 + y 2 2by + b2 = r2 ;
ou ainda a
x2 2ax + y 2 2by = r2 a2 b2 .
Escrevendo c = r2 a2 b2 , determinaremos os valores de a, b e c para os quais a curva
x2 2ax + y 2 2by c = 0
contm os pontos dados, no nosso exemplo (1, 0), (2, 1) e (3, 4). Fazendo as devidas
substituies, obtemos o sistema
2a + c = 1
4a + 2b + c = 5
6a + 8b + c = 25;
cuja soluo a = 2, b = 4 e c = 5. Como
r2 = c + a2 + b2 = 5 + 16 + 4 = 25
a soluo do problema uma circunferncia de raio 5 com centro no ponto (2, 4). Mais
uma vez, convm observar que se estivssemos tentando achar uma circunferncia que
passasse por quatro, em vez de trs, pontos dados, provavelmente teramos um sistema
impossvel. Afinal, como aprendemos em geometria elementar, trs pontos no alinhados
bastam para determinar uma circunferncia.
Como os comentrios que fizemos nos dois exemplos sugerem, nossa anlise do pro-
blema de interpolao deixa em aberto um problema bastante importante:

qual o menor grau que um polinmio deve ter para que defina uma curva
que passe por todos os pontos de um conjunto (finito) dado?

Naturalmente, o polinmio em questo poder ter uma ou duas variveis, dependendo do


problema que estamos considerando. Veremos como solucionar este problema no prximo
captulo.

Exerccios
1. Resolva cada um dos sistemas abaixo pelo mtodo de adio.
( ( (
x 2y = 24 7x + 6z = 1 x 7y = 12
(a) (b) (c)
2x + 3y = 2 2x + 3y = 2 4x + 16y = 16
( ( (
3x + y =0 x y 2z = 0 3x + 3y = 2
(d) (e) (f)
9x + 3y = 0 3x 3y = 20 5x + 2y =1
82 2. SISTEMAS LINEARES

2. Resolva cada um dos sistemas traingulares abaixo pelo mtodo substituio direta ou
reversa, conforme o sistema seja triangular inferior ou superior.


x 2y 7z = 24 x + 4y + 6z = 11

(a) 3y 2z =2 (b) 9y + 7z =9

4z
=5 z =7

14z
= 20 3x + y + 2z = 0

(c) y + 12z = 24 (d) z =0

4x + 16y + 26z = 46
3z =0

x + 2y w = 0
x y 2z w = 0



y + 2z w = 0
(e) 5y + 3z + w = 0 (f)

z w 2z w =0
=0

3w =6

3. Resolva cada um dos sistemas abaixo pelo mtodo de eliminao gaussiana.




x 2y 7z = 24 x + 4y + 6z
= 11
(a) 2x + 3y 2z = 2 (b) 2x + 3y + 4z = 9

3x 5y + 4z = 5
3x + 2y + 2z = 7

x + 7y + 14z
= 20 3x + y + 2z
=0
(c) 3x + 9y + 12z = 24 (d) 9x + 3y z =0

4x + 16y + 26z = 46
3x + 2y 3z = 0

x y 2z w = 0
3x + 3y + 2z + w = 2

(e) 3x + y + 3z + w = 0 (f) 5x + 2y + z 2w =1

x y z 5w = 0
2x + 5y + 3z w = 1


x + 2y w =0

x + 2z w =0
(g)

x + 2y + 2z w =0

3x + 4y + 4z 3w = 0

4. Escreva as equaes matriciais correspondentes a cada um dos sistemas do exerccios


1, 2 e 3.

5. Seja A uma matriz triangular inferior n n, X = [x1 , . . . , xn ]t a matriz coluna das


incgnitas e b = [b1 , . . . , bn ]t a matriz coluna das constantes.
(a) Mostre que a matriz A0 , de tamanho (n 1) (n 1), obtida removendo-se a
primeira linha e a primeira coluna de A triangular inferior.
EXERCCIOS 83

(b) Mostre que se A(1, 1) 6= 0, ento x1 = b1 /A(1, 1).


(c) Mostre que se Y0 soluo do sistema
A0 Y = b0 A(2 : n, 1)x1 ;
em que b0 = [b2 , . . . , bn ]t , ento a matriz [x1 , Y0 ]t soluo de AX = b.
(d) Descreva um algoritmo recursivo, baseado nos itens acima, capaz de resolver um
sistema triangular inferior.

6. Resolva cada um dos sistemas abaixo pelo mtodo de eliminao, indicando se so


determinados, indeterminados ou impossveis.


x y z + w = 1
x 3y 2z + w =1

2x + 2y 3z + 6w u = 1 x + 2y 3z + 6w u =1
(a) (b)

x 2y z + 2w u =0
5x 2y z + 2w 8u = 0

3x + y 4z + 7w u = 0 3x + 2y 4z + 7w u = 0

7. Suponhamos que estamos para aplicar eliminao gaussiana a partir da k-sima linha
de uma matriz A de tamanho n n:
(a) mostre que o piv tem que estar na linha k, ` em que ` k;
(b) construa um exemplo em que ` > k.

8. Mostre que a quantidade mxima de operaes por linha necessrias para transformar
uma matriz n n dada em sua forma escada por eliminao gaussiana igual a n(n
1)/2.

9. Determine os valores de k para os quais os sistemas abaixo so determinados, indeter-


minados ou impossveis.

x + y + z =0
(
x+y =k
(a) x y + kz = 2 (b) 2

kx + 2y + z = 0 k x+y =k


x + y + kz = 2 x + 2y + 3z
=1
(c) 3x + 4y + 2z = k (d) x + (2k + 4)y + 5z =5
2x + (3k + 7)y + (k + 7)z = k 2 + 4

2x + 3y + z
=1

10. Calcule a decomposio LU de cada uma das matrizes dadas abaixo:



" # 1 2 1 2 2 1 2 2 1
4 3
(a) (b) 4 3 1 (c) 2 3 2 (d) 2 2 2

6 3
2 2 3 4 1 2 4 3 2
84 2. SISTEMAS LINEARES

11. Use mtodo de eliminao para calcular o determinante de cada uma das matrizes 33
abaixo.

2 5 1 1 1 1 4 1 3
(a) 4 1 2 (b) 3 1 1 (c) 3 2 5

6 4 0 3 1 1 2 3 4

3 1 2 1 2 4 2 1 2
(d) 2 0 1 (e) 1 3 9 (f) 3 1 4

4 3 4 1 1 1 1 1 1

12. Use mtodo de eliminao para calcular o determinante de cada uma das matrizes 44
abaixo.

1 3 0 1 0 0 1 0 1 2 3 5

1 2 1 1 0 1 0 0 0 1 4 3
(a) 2 4 2 1
(b)
0 0 0 1
(c)
0 0 1 1


1 0 2 0 1 0 0 0 0 0 0 1

13. Usando eliminao gaussiana, determine quais das matrizes dos exerccios 11 e 12 tm
inversa e calcule a inversa, quando existir.
14. Calcule a inversa da matriz resultante do seguinte produto de matrizes elementares:

1 1 0 1 0 0 1 0 6 1 0 0 1 0 0 1 0 0
0 1 0 0 1 0 0 1 0 0 1 9 8 1 0 0 1 0

0 0 1 3 0 1 0 0 1 0 0 1 0 0 1 0 5 1

15. Determine uma funo polinomial que passa pelos pontos (1, 1), (2, 3), (3, 5) e (4, 4)
para cada um dos seguintes graus: 2, 3 e 4.
16. Determine uma circunferncia que passa por cada um dos seguintes conjuntos de pon-
tos do plano:
(a) (1, 1), (2, 3), (3, 5) e (4 + 2, 4);
(b) (2, 5), (3, 4), (4, 5) e (5/2, (10 + 3)/2).
CAPTULO 3

Modelos multidimensionais

Neste captulo veremos como usar matrizes para modelar alguns problemas concretos,
entre eles a evoluo de uma populao de animais ao longo do tempo e a determinao
da curva que melhor se adapta a um conjunto de pontos dados. A partir destes modelos
introduziremos as noes de espao multidimensional e suas transformaes lineares.

1. Dinmica de populaes

1.1. Introduo. Tradicionalmente a populao de uma espcie viva modelada atra-


vs de equaes diferenciais que descrevem o crescimento ou decrescimento da populao
como uma funo contnua do tempo. Este modelo certamente apropriado quando se trata
de bactrias ou seres humanos, cujos indivduos podem reproduzir-se a qualquer momento.
Contudo, h espcies cuja reproduo ocorre em momentos determinados do tempo, entre
elas aves, insetos e rpteis. Neste caso ocorre um pulso reprodutivo em momentos isolados
do tempo e um modelo em que o tempo discreto corresponde ao comportamento de tais
populaes de maneira mais adequada do que aquele em que o tempo contnuo.
Destes modelos de tempo discreto o mais simples aquele em que o nmero p(k + 1)
de indivduos em um dado momento k + 1 (que pode ser dia, ms ou ano) um mltiplo
constante da quantidade de indivduos no momento anterior t. Temos, assim, a equao
(29) p(k + 1) = p(k),
em que representa a taxa de crescimento populacional. Neste modelo, originalmente
proposto por Thomas Malthus em seu An Essay on the Principle of Population, publicado
em 1798, a populao cresce exponencialmente sempre que > 1. De fato, se p(0)
representa o nmero de indivduos inicialmente contados em uma dada populao, ento,
depois de decorrido um tempo k, temos que
p(k) = k p(0).
Segundo Malthus os recursos disponveis a uma populao cresceriam de maneira arit-
mtica. Com a populao crescendo a uma taxa exponencial, isto inevitavelmente levaria
ao colapso futuro desta populao. A sexta edio da obra de Malthus foi lida tanto por
Charles Darwin, como por Alfred Russel Wallace, e inspirou ambos a proporem verses
virtualmente idnticas do princpio de evoluo por seleo natural.
85
86 3. MODELOS MULTIDIMENSIONAIS

Contudo, o modelo malthusiano demasiadamente primitivo porque no reflete prin-


cpios elementares do comportamento de muitas populaes, como o fato de que um indi-
vduo muito jovem no se reproduz e de que um indivduo velho tem menores chances de
sobrevivncia. Para contornar este problema, o bilogo ingls P. H. Leslie introduziu em
1945 o modelo matricial que descreveremos a seguir.
Leslie separou cada populao em faixas etrias com comportamento reprodutivo co-
mum. Considere, por exemplo, uma populao de salmo na qual se identificam trs clas-
ses etrias, que denotaremos por p1 (k), p2 (k) e p3 (k). A taxa de sobrevivncia destas trs
classes etrias a seguinte: 53 % dos salmes da classe 1 e 22 % dos salmes da classe 2
sobrevivem de um ano para o outro, mas nenhum salmo sobrevive classe 3. Traduzindo
isto em termos de equaes, temos que
p2 (k + 1) = 0, 53 p1 (k);
p3 (k + 1) = 0, 22 p2 (k).
Por outro lado, embora os salmes da primeira classe etria no se reproduzam, os que
pertencem s outras duas classes geram novos indivduos, em mdia 4 alevinos para cada
membro da segunda classe etria e 5 para cada membro da terceira. Portanto,
p1 (k + 1) = 4p2 (k) + 5p3 (k).

Leslie teve a ideia de representar estas trs equaes na forma de uma nica equao
matricial. Para isto, consideramos o vetor
h it
p(k) = p1 (k) p2 (k) p3 (k)

Das equaes acima, obtemos


h it
p(k + 1) = 4p2 (k) + 5p3 (k) 0, 53p1 (k) 0, 22p2 (k)

que podemos escrever na forma


p(k + 1) = L p(k);
em que L a matriz 3 3 cujas entradas so

0 4 5
L = 0, 53 0 0 ;

0 0, 22 0
e conhecida como a matriz de Leslie do modelo.
De posse desta matriz podemos facilmente determinar como a populao de salmes
evolui ao longo do tempo. Por exemplo, uma populao que comea com 100 indivduos
1. DINMICA DE POPULAES 87

jovens lanados em um rio corresponde a tomar


h it
p(0) = 100 0 0 .
Ao cabo de um ano, teramos
h it
p(1) = L p(0) = 0 53 0 ;
ao cabo de dois anos
h it
p(2) = L p(1) = L2 p(0) = 212 0 11, 66 ;
e ao cabo de dez anos
h it
10
p(10) = L p(0) = 5198, 88 1188, 14 260, 73 .

1.2. O modelo de Leslie. O modelo de Leslie uma generalizao do exemplo do


artigo anterior. Suponhamos que temos uma populao de uma espcie viva que podemos
subdividir em k faixas etrias. Designaremos por pj (k) a quantidade mdia de indivduos
que pertencem faixa etria j depois de ter sido decorrido um tempo k, a partir da primeira
contagem feita nesta populao.
O modelo de Leslie descreve o comportamento de uma populao que no se reproduz
continuamente ao longo do tempo, mas sim a intervalos fixos e peridicos como dias,
meses ou anos. Para descrev-lo precisamos conhecer

a taxa de sobrevivncia dos indivduos entre uma faixa etria e a seguinte;


a taxa de fecundidade da espcie, dada pela quantidade de descendentes de um
indivduo que nascem, em mdia, por unidade de tempo enquanto este indivduo
faz parte de uma dada classe etria.

Denotaremos por si,i+1 a porcentagem de indivduos da faixa etria i que atingem a faixa
etria i + 1 e por f1,i a taxa de fertilidade da faixa etria i. Note que 0 < si,i+1 1 j que
se trata de uma percentagem, ao passo que f1,i 0, uma vez que um indivduo pode dar
origem a muitos outros de cada vez. De posse destas taxas, podemos escrever
(
si1,i pi1 (k) para 2 i k
pi (k) =
f1,1 p1 (k) + + f1,k pk (k) para i = 1.

Seguindo a ideia original de Leslie, as mesmas equaes podem ser descritas compac-
tamente em notao matricial por
p(k + 1) = L p(k),
em que
p(k) = p1 (k) . . . pk (k)t
88 3. MODELOS MULTIDIMENSIONAIS

e L a matriz n n definida por



f1,1 f1,2 f1,3 f1,4 ... f1,n1 f1,n
s1,2 0 0 0 ... 0 0


L = 0 s2,3 0
0 ... 0 0
..
.

0 0 0 ... sn1,n 0
Tendo determinado o nmero de indivduos em cada faixa etria de uma populao em
um dado momento, podemos usar o modelo para prever sua evoluo ao longo do tempo,
calculando
(30) p(k) = Lk p(0)
para vrios valores de k, que so inteiros maiores que zero.
H muitas perguntas sobre o comportamento de uma dada populao depois de decor-
rido um certo tempo (medido em mltiplos inteiros do perodo adotado) que podemos usar
o modelo para prever. Entre elas:

(1) qual a quantidade total de indivduos em um dado momento?


(2) a populao oscilar ciclicamente?
(3) a populao atingir uma distribuio de idades estvel?

A primeira pergunta bastante bvia, mas as outras duas precisam ser melhor elaboradas
para que possam ser entendidadas corretamente. Ainda que ambas tratem do que pode
acontecer com a populao ao longo do tempo, elas apontam para comportamentos es-
sencialmente opostos. No caso da segunda pergunta queremos saber se o comportamento
cclico; isto , se h uma recorrncia infinita das mesmas distribuies de populao a
intervalos regulares. Diremos, neste caso, que a populao tem comportamento oscilat-
rio. J no caso da terceira pergunta, a questo se a populao tende a uma distribuio
que mantm, ao longo do tempo, a mesma proporo entre a quantidade de indduos nas
vrias faixas etrias. Note que, neste ltimo caso, a proporo entre faixas etrias pode
ser mantida, ainda que a populao total no permanea constante. Vamos nos referir s
populaes que satisfazem a esta propriedade como estveis.
Vejamos como formular cada uma destas perguntas em termos da matriz de Leslie. No
caso da primeira pergunta basta calcular p(k) usando a equao (30) e somar suas entradas.
Isto , a populao total depois de decorridos k unidades de tempo
P (k) = p1 (k) + + pk (k),
que a soma da quantidade de indivduos em cada faixa etria. Denotando por u0 a matriz
coluna 1 n cujas entradas so todas iguais a 1, a igualdade anterior pode ser reescrita na
1. DINMICA DE POPULAES 89

forma
P (k) = ut0 p(k).

Quanto segunda pergunta, uma populao tem comportamento cclico a partir de uma
distribuio inicial p(0) quando existe um inteiro positivo k0 tal que
p(k + k0 ) = p(0) para todo k 0.
Isto , a populao volta ao estgio inicial a cada vez que passa um perodo k0 de tempo.
Combinando esta ltima equao com (30), obtemos
(31) Lk+k0 p(0) = p(0) para todo k 0.
Em particular,
(32) Lk0 p(0) = p(0),
donde podemos concluir que
Le+k0 p(0) = Le Lk0 p(0) = Le p(0).
Portanto, (31) consequncia de (32), que pode ser reescrita na forma
(33) (Lk0 I)p(0) = 0,
em que I a matriz identidade de mesmo tamanho que L. Observe que reduzimos o
problema a encontrar a soluo de um sistema homogneo, desde que k0 seja conhecido. E
mais, este sistema tem que ser indeterminado, porque um sistema homogneo determinado
tem como nica soluo
p(0) = [0, . . . , 0]t ,
caso que, evidentemente, no nos interessa. Infelizmente teremos que abandonar este pro-
blema temporariamente neste ponto, porque para chegar a uma concluso definitiva, pre-
cisaramos determinar se existe um inteiro positivo k0 de modo que o sistema (33) seja
indeterminado. Mas voltaremos a esta questo na seo 6.
Por sorte h uma verso mais poderosa da segunda pergunta que estamos em condies
de responder: como determinar se a populao oscilar ciclicamente qualquer que seja a
populao inicial? Em termos matriciais, estamos perguntando se possvel que
(34) (Lk0 I)p(0) = 0 para todo vetor p(0) cujas entradas so no negativas.
Caso isto seja verdade, teremos que, para todo 1 j n,
(Lk0 I)ej = 0
em que ej a matriz coluna definida por
(
1 se i=j
ej (i, 1) =
0 se i 6= j.
90 3. MODELOS MULTIDIMENSIONAIS

Contudo, o produto (Lk0 I)ej igual j-sima coluna de Lk0 I. Portanto, (34) s pode
ocorrer se Lk0 I = 0, que equivale a dizer que existe uma potncia de L que igual
matriz identidade.
Um exemplo de populao que se comporta de maneira oscilatria qualquer que seja a
distribuio inicial foi introduzido por Harro Bernardelli em seu artigo Population waves
de 1941. Bernardelli imaginou uma populao de besouros cujo comportamento seria
descrito pela matriz
0 0 6
B = 1/2 0 0

0 1/3 0
Mas, como fcil verificar, B 3 = I, de modo que a populao de besouros de Bernardelli
oscila entre, no mximo, trs distribuio distintas. Este artigo de Bernardelli influenciou
Leslie a sistematizar o modelo matricial que estamos estudando.
Passando terceira pergunta, devemos determinar se existe algum inteiro k0 0 tal
que, para todo k k0 , o vetor p(k) mltiplo constante de p(k0 ). Mas, para que isto
acontea basta que p(k0 + 1) seja mltiplo constante de p(k0 ). De fato, se existem k0 e
tais que
p(k0 + 1) = p(k0 ),
ento
(35) Lp(k0 ) = p(k0 ).
Disto podemos deduzir que
Lr p(k0 ) = Lr1 (Lp(k0 )) = Lr1 p(k0 ),
donde o resultado desejado segue por induo em r. A igualdade (35) pode ser reescrita
na forma
(L I)p(k0 ) = 0;
em que, I representa a matriz identidade de tamanho n n. Portanto, mais uma vez,
a pergunta reduz-se, de certa forma, a resolver um sistema homogneo e encontrar suas
solues positivas. Entretanto, tambm desta vez h um complicador: a matriz do sistema
depende de , o fator de proporcionalidade entre p(k0 + 1) e p(k0 ), que desconhecido.
Voltaremos a abordar esta questo na seo 6, assim que tivermos introduzidos os conceitos
necessrios para trat-la de maneira satisfatria. Contudo, mesmo quando aprendermos a
achar , e assim resolver completamente o sistema (L I)X = 0, tudo o que teremos
feito dar soluo ao que podemos chamar de verso esttica do problema original:

a populao cuja matriz de Leslie L admite alguma distribuio est-


vel?

O problema que a pergunta original dinmica:


1. DINMICA DE POPULAES 91

a populao cuja matriz de Leslie L tende a alguma distribuio est-


vel?

Mesmo sabendo que o modelo admite distribuies estveis, como podemos ter certeza
de que a populao se aproxima delas medida que o tempo passa? Seremos capazes de
resolver a verso esttica do problema ao final deste captulo, mas a verso dinmica ter
que esperar at o final do prximo captulo.

1.3. Dimenses acima de trs. O modelo de Leslie padece de vrios problemas, o


mais importante dos quais que uma classificao por idade no descreve de maneira ade-
quada a evoluo temporal da populao de certas espcies. Para contornar este problema
L. P. Lefkovitch introduziu em 1965 uma variao do modelo de Leslie em que as fai-
xas etrias so substitudas por etapas pelas quais cada indivduo passa ao longo de seu
desenvolvimento.
Por exemplo, em um trabalho publicado em 2003 o comportamento de uma popula-
o de palmiteiros (Euterpe edulis, a palmeira da qual se extrai o palmito) foi estudada
subdividindo-se seu ciclo de vida em sete etapas,da seguinte maneira:

etapa 1: 0 a 3 folhas;
etapa 2: 4 folhas at a planta atingir 10 mm de dimetro;
etapa 3: plantas de dimetro entre 10.1 e 20mm;
etapa 4: plantas de dimetro entre 20.1 e 30mm;
etapa 5: plantas de dimetro entre 30.1 e 60mm;
etapa 6: plantas de dimetro entre 60.1 e 120mm;
etapa 7: mais de 120 mm.

Somente as plantas da etapa 7 se reproduzem e a taxa de fecundidade f1,7 = 98. A


palmeira que sobrevive a um dado ano de vida, pode-se comportar de duas maneiras di-
ferentes: pode crescer e ingressar na prxima etapa ou entrar em estase e permanecer na
mesma etapa em que estava. A probabilidade de cada um destes acontecimentos a se-
guinte:

Etapa Probabilidade de crescer Probabilidade de estase


1 0.50 0.51
2 0.11 0.76
3 0.20 0.74
4 0.39 0.61
5 0.18 0.80
6 0.19 0.78
7 0.00 0.99
92 3. MODELOS MULTIDIMENSIONAIS

Observe que, tendo atingido a etapa 7, mesmo crescendo a planta no passar a nenhuma
outra etapa. Neste caso ela pode apenas reproduzir-se e morrer ou permanecer nesta etapa.
Portanto, g7 representa a probabilidade da planta sobreviver, tendo atingido a idade adulta.
Denotando por pi,i+1 a probabilidade da planta passar etapa seguinte e por gi a proba-
bilidade de entrar em estase na etapa i, podemos escrever as equaes que descrevem o
comportamento desta populao por
(
pi,i+1 pi1 (k) + gi pi (k) para 2 i 7
pi (k + 1) =
f1,7 p7 para i = 1
Portanto, escrevendo
p(k) = [p1 (k), . . . , p7 (k)]t
e denotando por L a matriz

g1 0 0 0 0 0 f1,7

p1,2 g2 0 0 0 0 0

0 p2,3 g3 0 0 0 0

0 0 p3,4 g4 0 0 0 .


0 0 0 p 4,5 g 5 0 0

0 0 0 0 p g 0

5,6 6
0 0 0 0 0 p6,7 g7
Os autores usam este modelo para estudar o efeito da colheita sobre o comportamento de
uma populao de palmiteiros.
Tendo representado a distribuio de idades de uma populao como um nico objeto
uma matriz coluna com sete entradasnosso prximo passo consiste em pensar estas ma-
trizes como vetores em um espao cujos elementos representam as vrias distribuies de
populao possveis para os palmiteiros. Observe que a palavra espao est sendo usada
aqui em um sentido abstrato. Os vetores deste espao no designam posies de palmitei-
ros no planeta Terra, mas sim a distribuio em etapas de desenvolvimento das quantidades
mdias de indivduos em uma dada populao de palmiteiros.
O uso da palavra espao neste sentido generalizado deu-se no sculo XIX sob a in-
fluncia de vrios matemticos, entre eles A. Cayley, o inventor das matrizes. Entretanto,
esta passagem vinha sendo preparada desde o sculo anterior. No verbete dimension da
Encyclopdie que publicou com Diderot a partir de 1751, DAlembert escreve,

Um homem astuto que conheo cr que podemos considerar a durao


como uma quarta dimenso.

Isto, claro, no passa de uma opinio. Lagrange, contudo, muito mais explcito. Em sua
Teoria das funes analticas, publicada em 1797, ele escreve
2. O ESPAO Rn E SUAS TRANSFORMAES LINEARES 93

Pode-se aplicar a teoria das funes na mecnica. At agora as fun-


es se referem basicamente ao tempo, que sempre designaremos por t;
e como a posio de um ponto no espao depende de trs coordenadas
retangulares x, y e z, suporemos, nos problemas de mecnica, que estas
coordenadas dependem do tempo. Assim, podemos considerar a mec-
nica como uma geometria em quatro dimenses e a anlise mecnica
como uma extenso da anlise geomtrica.

Na verdade, o uso generalizado de mais de quatro coordenadas teve seu prenncio em outra
obra de Lagrange, a Mecnica Analtica, que antecede a obra citada anteriormente em nove
anos.
No sculo XX a ideia do tempo como quarta dimenso foi introduzido por H. Min-
kowski em 1907 como uma maneira de geometrizar a teoria da relatividade que Einstein
havia publicado dois anos antes. Apesar de ter inicialmente reagido de maneira negativa
proposta de Minkowski, que havia sido seu professor em Zurique, Einstein veio a entender
a importncia desta formulao geomtrica e fez dela a base sobre a qual construiu sua
teoria da gravitao em 1915.
A discusso sobre o significado da quarta dimenso deu origem a inmeros livros po-
pulares, o mais famoso dos quais provavelmente Flatland: A Romance of Many Dimen-
sions, publicado em 1884 por Edwin Abbott. Nele, figuras planas tentam entender o que
significa a terceira dimenso a partir daquilo que podem ver, dada sua limitao de s en-
xergar o que est no plano que habitam. Da mesma forma ns, habitantes de um espao
tridimensional podemos tentar imaginar como seria um objeto que s existe em um espao
de quatro dimenses a partir de suas projeo em trs dimenses. Teremos oportunidade
de fazer este exerccio no prximo captulo.
Hoje em dia toda esta conversa sobre quatro dimenses impalidece diante do que pro-
pem os adeptos da teoria de cordas, cujo modelo do universo requer que habitemos um
espao de 11 dimenses, 7 das quais so to curvadas que no conseguimos identific-las.
Espaos de dimenses grandes tambm aparecem quando tentamos descrever a configura-
o dos planetas no sistema solar. Como trs coordenadas so necessrias para determinar
a posio de cada um dos sete planetas, a configurao de todo o sistema de planetas, sem
contar asterides e satlites, s pode ser feita em um espao de 3 7 = 21 dimenses, em
que cada grupo de 3 coordenadas representa a posio de um planeta.

2. O espao Rn e suas transformaes lineares

Nesta seo introduzimos formalmente os espaos n-dimensionais e as transformaes


destes espaos induzidas por matrizes, o que nos permitir formalizar com preciso os
problemas propostos no artigo 1.2 sobre a estabilidade de uma populao.
94 3. MODELOS MULTIDIMENSIONAIS

2.1. O espao Rn . Generalizando arbitrariamente a noo de coordenadas que intro-


duzimos para o plano, diremos que o produto cartesiano
Rn = R
| {z
R}
n vezes
um espao de n dimenses (ou n-dimensional) cujos elementos chamaremos de vetores.
Portanto, um vetor v num tal espao uma n-upla de nmeros reais que escreveremos sob
a forma de uma matriz coluna; assim

a1 ,
. t
v= .
. = [a1 , . . . , an ] .
an
Tais vetores podem ser somados e multiplicados por escalares, exatamente como j fizemos
nos casos em que a dimenso era dois ou trs. Mais precisamente, se
(36) v = [1 , . . . , n ]t e u = [1 , . . . , n ]t
ento
v + u = [1 + 1 , . . . , n + n ]t ;
ao passo que
v = [1 , . . . , n ]t ,
qualquer que seja o escalar R. Naturalmente no h nenhuma novidade nisto, uma vez
que estamos considerando estes vetores como matrizes. Pela mesma razo, estas operaes
satisfazem as seguintes propriedades:

(u + v) + w = u + (v + w);
u + v = v + u;
u + 0 = u;
1u=ue0u=0
u + (1)u = 0;
(u + v) = u + v;
( + )u = u + u;
()u = (u);

em que u, v, w Rn , , R e 0 o vetor (0, . . . , 0).


Quanto ao produto interno, como nada temos seno as coordenadas dos vetores, s nos
resta defini-lo a partir destas coordenadas. Descrevendo as coordenadas de u e v como em
(36), definimos X
hu|vi = ni i ,
j=1
que a notao matricial nos permite escrever de forma compacta como
hu|vi = ut v;
2. O ESPAO Rn E SUAS TRANSFORMAES LINEARES 95

em que, como sempre, fazemos os vetores u e v corresponderem a matrizes coluna. Usando


as propriedades das operaes com matrizes, podemos facilmente provar que o produto
interno assim definido satisfaz as mesmas propriedades que o produto escalar usual do
plano; a saber,

(1) hu | v1 + v2 i = hu | v1 i + hu | v2 i;
(2) hv1 | v2 i = hv1 | v2 i;
(3) hv1 | v2 i = hv2 | v1 i;
(4) hu | ui 0;
(5) hu | ui = 0 se, e somente se, u = 0;

quaisquer que sejam os vetores u, v1 e v2 do Rn e o escalar . Como nos casos do plano


e do espao, diremos que dois vetores so ortogonais se o produto interno deles nulo.
Tambm a norma euclidiana, ou comprimento de um vetor, pode ser definida a partir do
produto interno por
p q
kuk = hu|ui = 12 + + n2 .

Apesar de ter sido introduzido de maneira abstrata como um produto cartesiano, o


espao Rn vem munido de uma base, formada pelos vetores e1 , . . . , en , com ej sendo
definido como o vetor que tem todas as suas entradas nulas, exceto a que fica na j-sima
posio, que vale um. Como
(
1 se i = j
hei |ej i =
0 se i 6= j,

podemos concluir a partir da definies para norma e ortogonalidade de vetores do Rn


que os vetores e1 , . . . , en so unitrios e dois a dois ortogonais. Portanto, o conjunto
= {e1 , . . . , en } satisfaz as propriedades que estabelecemos para bases do plano. Como
naqueles casos particulares, tambm aqui temos que
n
X
v = [a1 , . . . , an ]t = ai e i .
j=1

Diremos que a base cannica do espao Rn . Voc deve ficar de sobre-aviso para o fato
de que esta no nem de longe a nica base de Rn com que trabalharemos: em caso de
curiosidade extrema, d uma olhada na seo 2.
Finalmente, podemos usar a terminologia aqui introduzida para definir uma distribui-
o de populao p descrita pelo modelo de Leslie com n faixas etrias como um vetor
do Rn cujas coordenadas so positivas. Alm disso, a quantidade total de indivduos da
distribuio p dada por P = hp | u0 i.
96 3. MODELOS MULTIDIMENSIONAIS

2.2. Transformaes lineares e matrizes. Embora tenhamos representado as poss-


veis distribuies de uma populao em faixas etrias por vetores de um espao de muitas
dimenses, o verdadeiro interesse do modelo de Leslie est na dinmica do problema. Isto
, em determinar como a distribuio de populao evolui ao longo do tempo. Para isto
precisamos introduzir uma transformao L : Rn Rn que, ao ser aplicada distribuio
de populao representada por um vetor v descreve como mudaria esta populao depois
da passagem de um perodo de tempo. Se L for a matriz que descreve este modelo, ento
teremos que L(v) = Lv.
Em geral, dada uma matriz A de tamanho m n e uma matriz v de tamanho n 1,
o produto Av uma matriz m 1. Como estamos considerando os elementos de Rn
como matrizes coluna n 1, o comentrio acima nos permite definir uma transformao
TA : Rn Rm a partir da matriz A, pela frmula TA (v) = Av. Diremos que TA a
transformao linear induzida por A.
Contudo, das propriedades das operaes com matrizes, temos que se v, w Rn , ento
A(v + w) = Av + Aw e que A(v) = Av,
que nos remetem a uma definio da seo 2 do captulo 1, que podemos facilmente ge-
neralizar para nosso contexto atual. Uma aplicao T : Rn Rm uma transformao
linear se

T (v + w) = T v + T w
T (v) = T v,

quaisquer que sejam os vetores v, w Rn . As propriedades das operaes com matrizes


enunciadas acima mostram que, dada uma matriz A de tamanho nm, a aplicao induzida
TA uma transformao linear. Isto nos leva imediatamente a perguntar:

ser que toda transformao linear T : Rn Rm induzida a partir de


alguma matriz A de tamanho m n?

No captulo 1 vimos que a resposta sim, ao menos no caso em que n = m = 2. Ten-


taremos copiar aqui o argumento j usado naquele caso especial, para ver onde chegamos.
Seja v = [x1 , . . . , xn ]t um vetor do Rn . Usando a base definida no artigo 2.1, podemos
escrever
v = x1 e 1 + + xn e n .
Mas, supondo que T : Rn Rm seja uma transformao linear,
T (v) = x1 T (e1 ) + + xn T (en ).
Como cada T (ej ) uma matriz m 1, temos que
T (v) = Av
2. O ESPAO Rn E SUAS TRANSFORMAES LINEARES 97

em que A a matriz cujas colunas so os vrios T (ej ); isto ,



| | |
A=
..
T (e1 ) T (e2 ) . T (en )
| | |

Note que esta matriz tem n colunas, cada uma das quais um vetor de Rm , de modo que
se trata de uma matriz de tamanho m n, como seria de esperar. Conclumos, assim que
a resposta questo posta anteriormente sim. Mais precisamente,

se T : Rn Rm uma transformao linear e (T ) a matriz cujas


colunas so os vetores T (e1 ), . . . , T (en ) (nesta ordem!) ento T (v) =
(T ) v para todo vetor v Rn .

A matriz (T ) , que tem tamanho m n, conhecida como matriz de T relativamente


base cannica ou, para simplificar, a matriz de T .
O que vimos at aqui, ainda que pouco, nos permite determinar a matriz de algumas
transformaes lineares. Por exemplo, a projeo do espao tridimensional sobre o plano
XY uma transformao linear P : R3 R3 que leva qualquer vetor ortogonal ao plano
XY no vetor nulo e deixa intactos os vetores sobre o plano. Em outras palavras, P (e3 ) = 0,
ao passo que P (e1 ) = e1 e P (e2 ) = e2 . Usando a receita prescrita acima,

1 0 0
(P ) = 0 1 0 .

0 0 0

A reflexo R cujo espelho o plano XY tambm uma transformao linear de R3 nele


prprio que deixa intocados os vetores do plano. Mas desta vez, qualquer vetor ortogonal
ao plano invertido para o outro lado do plano. Assim, R(e1 ) = e1 e R(e2 ) = e2 , mas
R(e3 ) = e3 . Portanto,

1 0 0
(R) = 0 1 0 .

0 0 1
Finalmente, seja a rotao de ngulo do R3 em torno do eixo Z. Desta vez, so os
vetores ao longo do eixo Z que ficam intocados, ao passo que qualquer vetor do plano
XY rodado de um ngulo . Embora isto garanta que (e3 ) = e3 , o efeito de sobre os
outros vetores ainda no est completamente determinado porque h dois sentidos em que
podemos rodar estes vetores sobre o plano. Para fixar as ideias, escolheremos a rotao no
sentido que definido pela regra da mo direita,
98 3. MODELOS MULTIDIMENSIONAIS

se o polegar aponta na direo e sentido do vetor diretor escolhido para


o eixo, ento a rotao acompanha o movimento da rotao da concha
formada pelos outros dedos.

Portanto, em nosso exemplo, devemos apontar o polegar na direo e sentido de e3 , de


modo que a rotao sobre o plano XY deve ocorrer no sentido anti-horrio. Seguindo um
argumento semelhante ao usado no artigo 2.3, descobrimos que
(e1 ) = (cos(), sen(), 0)
(e1 ) = ( sen(), cos(), 0)
que, combinado a (e3 ) = e3 , nos permite escrever a matriz de na forma

cos() sen() 0
sen() cos() 0 .

0 0 1
As transformaes lineares de um espao Rn em si mesmo so chamadas de operadores
lineares. As rotaes, as reflexes e das transformaes induzidas pela matriz de Leslie
so exemplos de operadores lineares.
Um aspecto insatisfatrio de nossos exemplos que todos eles tm como elementos
bsicos (o plano de projeo, o espelho da reflexo, o eixo da rotao) planos ou retas
coordenados e, portanto, muito especiais. Alm disto, fica difcil imaginar como seria
possvel generalizar estes exemplos quando estes elementos estiverem em posies menos
especiais. Comearemos a contornar este problema na seo 4, mas uma soluo comple-
tamente satisfatria ter que esperar pelo captulo 4.

3. Subespaos

Nesta seo introduzimos a noo de subespao, que nos permitir sistematizar muito
do que deixamos pendente nas sees anteriores.

3.1. Sistemas homogneos. Como j transpareceu das sees anteriores, os sistemas


homogneos desempenharo um papel muito importante na soluo de vrios problemas
que nos interessam. Seja A uma matriz m n com coeficientes reais e X a matriz das
incgnitas [x1 , . . . , xn ]t . A uma soluo
x1 = 1 , x2 = 2 , . . . , xn = n ,
do sistema homogneo AX = 0 podemos associar uma matriz v = [1 , . . . , n ]t que,
fazendo uso do que aprendemos anteriormente, queremos considerar como sendo um vetor
do espao Rn .
3. SUBESPAOS 99

Como estamos supondo que todas as equaes tm termo constante nulo, o sistema
sempre ter
x1 = x 2 = = xn = 0
como soluo. No caso do sistema ser determinado, est ser sua nica soluo. O caso
que nos interessa nas aplicaes justamente aquele em que o sistema homogneo e
indeterminado. Neste caso, se X1 e X2 so solues de AX = 0 e um nmero real
qualquer, ento
A(X1 + X2 ) = A(X1 ) + A(X2 ) = 0 + 0 = 0 e A(X1 ) = A(X1 ) = 0 = 0;
donde conclumos que, no caso de um sistema homogneo, a soma de duas solues e
o produto de uma soluo por um escalar tambm so solues do mesmo sistema. Isto
equivale a dizer que o conjunto soluo
SA = {v Rn | Av = 0}
satisfaz s seguintes propriedades:

a soma de dois elementos de SA pertence a SA ;


o produto de um elemento qualquer de SA por um escalar tambm um elemento
de SA .

Vejamos alguns exemplo. Considere o sistema homogneo dado por


x+y+z =0
2x + 3y + 5z = 0
3x + 4y + 6z = 0.
A matriz dos coeficientes deste sistema

1 1 1
A = 2 3 5

3 4 6
de modo que o sistema se expressa matricialmente na forma AX = 0. Aplicando elimina-
o gaussiana, obtemos a matriz escada

1 1 1
0 1 3

0 0 0
que corresponde ao sistema
x+y+z =0
y + 3z = 0;
cujas solues so
y = 3z e x = 2z.
100 3. MODELOS MULTIDIMENSIONAIS

Portanto, se o vetor [x, y, z]t pertence ao conjunto soluo SA , temos que


[x, y, z]t = [2z, 3z, z] = z[2, 3, 1]t .
Mostramos, assim, que todo vetor de SA mltiplo de [2, 3, 1]t .
Nosso segundo exemplo ser o sistema cuja nica equao
x + 2y + z w = 0.
Neste caso,
w = x + 2y + z,
t
de modo que todo vetor [x, y, z] do conjunto soluo poder ser escrito na forma
[x, y, z, w]t = [x, y, z, x + 2y + z]t ;
que equivale a
[x, y, z, w]t = x[1, 0, 0, 1]t + y[0, 1, 0, 2]t + z[0, 0, 1, 1]t .
No prximo artigo introduzimos a terminologia necessria para formalizar todas as propri-
edades dos sistemas homogneos discutidas acima.

3.2. Subespaos do Rn . Comeamos reunindo as propriedades dos conjuntos solu-


es de sistemas homogneos sob uma definio. Diremos que um subconjunto no vazio
U Rn um subespao se, dados u, u0 U e um escalar R, ento u + u0 e u
tambm pertencem a U . Note que, multiplicando qualquer vetor de U pelo escalar zero
obtemos o vetor nulo. Portanto este vetor tem que pertencer a qualquer subespao, ainda
que esta afirmao no faa parte da definio.
Assim, a primeira propriedade dos conjuntos soluo de sistemas homogneos que
estudamos no artigo anterior pode ser expressa na forma: o conjunto soluo de um sistema
homogneo um subespao de Rn . J a segunda propriedade emergiu diretamente de
nossos dois exemplos como a possibilidade de escrever os vetores do conjunto soluo a
partir de uma quantidade finita deles. Isto muito importante, porque qualquer subespao
que tenha algum vetor no nulo ter uma quantidade infinita de elementos, uma vez que
conter todos os mltiplos escalares deste vetor. Contudo, um computador no consegue
lidar com uma infinidade de elementos. Por isso, para poder determinar as propriedades de
um dado subespao, teremos que recorrer a um conjunto finito de vetores capaz de defini-lo
completamente.
Para formalizar esta ltima propriedade, comeamos com um conjunto de vetores
S = {u1 , . . . , uk }
do Rn . Diremos que um vetor v Rn combinao linear dos elementos de S se existem
escalares 1 , . . . , k R tais que
(37) v = 1 u1 + + k uk .
3. SUBESPAOS 101

O conjunto dos os vetores que podem ser escritos como combinao linear de u1 , . . . , uk
ser denotado por
hSi ou hu1 , . . . , uk i.
Por exemplo, a afirmao feita ao final do artigo anterior pode ser reformulada como o fato
de que qualquer vetor do conjunto soluo da equao x + 2y + z w = 0 pode ser escrito
como combinao linear dos vetores
[1, 0, 0, 1]t , [0, 1, 1, 2]t e [0, 0, 1, 1]t .
Em outras palavras, este conjunto soluo igual a
h[1, 0, 0, 1]t , [0, 1, 1, 2]t , [0, 0, 1, 1]t i.

Na verdade, dado qualquer subconjunto finito no vazio S = {u1 , . . . , uk } do Rn , o


conjunto hSi necessariamente um subespao do Rn . Para provar isto, escolhemos dois
vetores v, w hSi e um escalar R. Pela definio de hSi existem nmeros reais
1 , . . . , k e 1 , . . . , k tais que v como em (37) e
w = 1 u1 + + k uk .
Usando as propriedades da adio e da multiplicao por escalar em Rn , deduzimos que
v + w = (1 + 1 )u1 + + (k + k )uk
e tambm que
v = (1 )u1 + + (k )uk .
Portanto, ao somar combinaes de elementos de S obtemos novas combinaes lineares
de elementos de S, o que prova que hSi mesmo um subespao de Rn . Diremos que hSi
o subespao gerado por S e que os elementos de S so os geradores de hSi. Note que
estes elementos pertencem a hSi, porque podemos escrever
uj = 1 u1 + + k uk ,
bastando para isto tomar (
1 se i = j
i =
0 6 j.
se i =
Como consequncia das propriedades que definem um subespao podemos afirmar que se
W um subespao qualquer de Rn que contm um conjunto finito no vazio de vetores
S, ento hSi W . Portanto, o subespao gerado por S o menor subespao de Rn ,
relativamente incluso, que contm S.
Antes de encerrar o artigo, um aviso: cuidado para no confundir
hu | vi
que denota o produto interno entre os vetores u e v e, como tal, um nmero real, com
hu, vi
102 3. MODELOS MULTIDIMENSIONAIS

que o subconjunto do Rn formado por todos os vetores que podem ser escritos na forma
au + bv em que a e b so dois escalares. Por exemplo, se u = [1, 1]t e v = [2, 3]t so dois
vetores do R2 , ento
hu | vi = ut v = 5;
ao passo que
hu, vi = {au + bv | a, b R}.
Como,
au + bv = [a + 2b, a + 3b]t
este ltimo conjunto pode ser reescrito na forma
hu, vi = {[a + 2b, a + 3b]t | a, b R}.

3.3. Subespaos ortogonais. H uma outra maneira de definir o conjunto soluo


de um sistema homogneo que ser bastante importante em captulos posteriores. Para
introduzi-la, recorreremos ao produto interno do Rn . O produto de uma matriz A, de
tamanho n n, pela matriz v de tamanho n 1 pode ser escrito na forma

A(1, :) v
..
Av = . ,

A(n, :) v
com cada posio de Av representada como o produto de uma matriz linha pela matriz
coluna v. A transposta uj da j-sima linha de A pode ser considerada como um vetor de
Rn . Fazendo isto, temos que
A(j, :) v = utj v = huj | vi;
de modo que Av = 0 equivale a dizer que
huj | vi = 0 para todo 1 j n.
Logo,
(38) SA = {v Rn | huj | vi = 0 para todo 1 j n}.
Por exemplo, no caso do sistema homogneo
x+y+z =0
2x + 3y + 5z = 0
3x + 4y + 6z = 0,
que j apareceu no artigo 3.1, a matriz dos coeficientes

1 1 1
A = 2 3 5

3 4 6
3. SUBESPAOS 103

de modo que o sistema se expressa matricialmente na forma AX = 0. Neste exemplo, os


vetores u1 , u2 e u3 definidos no pargrafo acima so

1 2 1
u1 = 1 , u2 = 3 e u2 = 5 ,

1 5 1
de modo que
SA = {v Rn | hu1 | vi = hu2 | vi = hu3 | vi = 0}.

Voltando ao caso geral, considere a definio de SA dada em (38). Se 1 , . . . n R,


ento
h1 u1 + + n un | vi = 1 hu1 | vi + + n hun | vi
de modo que se v SA , ento
huj | vi = 0
para todo 1 j n, donde
(39) h1 u1 + + n un | vi = 0,
no importanto quais sejam os escalares 1 , . . . n que escolhemos. Portanto, podemos
redefinir o conjunto soluo de AX = 0 por
SA = {v Rn | hu | vi = 0 para todo u hu1 , . . . , un i};
que o conjunto dos vetores perpendiculares a cada um dos vetores de hu1 , . . . , un i. Em
geral, se U um subespao de Rn , ento, como fcil de verificar, o conjunto
U = {w Rn | hw | ui para todo u U }
tambm um subespao de Rn , conhecido como o complemento ortogonal de U . Para
entender em que sentido U complementa U teremos que esperar at o prximo captulo.
Um exemplo importante de complemento ortogonal com o qual j nos deparamos so
os hiperplanos do Rn ; isto , os complementos ortogonais de uma reta. Se a reta tiver vetor
diretor u 6= 0 em Rn , ento o hiperplano correspondente ser
H = hui = {v Rn | hu | vi = 0}.
Portanto, se
u = [a1 , . . . , an ]t e v = [x1 , . . . , xn ]t H
ento a equao que define os vetores de H
0 = hu | vi = a1 x1 + + an xn
Em outras palavras, H o conjunto soluo do sistema homogneo
a1 x 1 + + an x n = 0
104 3. MODELOS MULTIDIMENSIONAIS

que tem uma nica equao. Alm das retas do plano e dos planos no R3 , hiperplanos mais
gerais desempenham importante papel na lgebra linear, como veremos na prxima seo.

3.4. Combinaes lineares. Dada a importncia do conceito de combinao linear,


nos defrontamos imediatamente com o seguinte problema:

dados vetores v, u1 , . . . , uk do Rn , como determinar se v combinao


linear de u1 , . . . , uk e, caso seja, determinar os respectivos coeficientes?

A soluo mais simples e imediata consiste em utilizar o mtodo dos coeficientes indeter-
minados. Em outras palavras, escrevemos uma equao da forma
v = x1 u1 + + ck uk
em que os xs so variveis. Como cada um destes vetores so n-uplas em Rn , esta equao
nos d um sistema de n equaes nas k variveis x1 , . . . , xk . O vetor v ser combinao
linear dos vetores u1 , . . . , uk se, e somente se, o sistema tiver soluo. Note que o sistema
pode ser indeterminado, caso em que haver muitas maneiras diferentes de escolher os
coeficientes de modo a escrever v como combinao linear dos us.
Vejamos um exemplo. Ser que (6, 11, 4, 21, 9) R5 combinao linear dos vetores
u1 = (1, 2, 0, 4, 1), u2 = (0, 1, 0, 3, 1), u3 = (1, 1, 1, 1, 1) e u4 = (2, 4, 1, 8, 3)?
Para isto escrevemos
(6, 11, 4, 21, 9) = x1 (1, 2, 0, 4, 1) + x2 (0, 1, 0, 3, 1) + x3 (1, 1, 1, 1, 1) + x4 (2, 4, 1, 8, 3);
que, igualando os coeficientes em cada entrada do vetor nos d o sistema
x1 + x3 + 2x4 =6
2x1 + x2 + x3 + 4x4 = 11
x3 + x4 =4
4x1 + 3x2 + x3 + 8x4 = 21
x1 + x2 + x3 + 3x4 =9
cuja forma triangular superior, obtido por eliminao gaussiana,
x1 + x3 + 2x4 = 6
x2 + x4 = 3
x3 + x4 = 4

que indeterminado. Portanto, no apenas (6, 11, 4, 21, 9) combinao dos vetores dados,
como h uma infinidade de possibilidades para os coeficientes. Para ver isto basta escrever
4. PROJEES E REFLEXES 105

as solues parametricamente na forma


x 1 = 2 x4
x 2 = 3 x4
x 3 = 4 x4 ,
da qual obtemos
(40) (6, 11, 4, 21, 9) = (2 x4 )(1, 2, 0, 4, 1) + (3 x4 )(0, 1, 0, 3, 1)+
(2 x4 )(1, 1, 1, 1, 1) + x4 (2, 4, 1, 8, 3);
qualquer que seja a escolha de x4 .
Convm desde j observar que, como veremos no artigo 2.1 do prximo captulo,
possvel utilizar o mtodo de eliminao gaussiana diretamente para determinar se um
vetor combinao linear de outros.

4. Projees e reflexes

Nesta seo veremos como usar a linguagem desenvolvida anteriormente para encon-
trar as matrizes das projees e reflexes em espaos de dimenso n.

4.1. Projees. Para projetar um vetor qualquer v R3 sobre o plano V cujo vetor
normal unitrio u, precisamos apenas subtrair de v um mltiplo de u de modo que a dife-
rena seja perpendicular a u. Como u unitrio, a projeo de v sobre u tem comprimento
hu, vi = ut v;
de modo que
v (ut v)u = v u(ut v) = (I ut u)v
pertence a V . Portanto, a matriz desejada deve ser I ut u. Por exemplo, o plano de
equao x + y + z = 0 tem
1
u = (1, 1, 1);
3
por vetor normal unitrio. Logo, a matriz que realiza a projeo de R3 neste plano

1
t 1 h i
I u u = I 1 1 1 1
3
1
que igual a
2 1 1
1
1 2 1 .

3
1 1 2
106 3. MODELOS MULTIDIMENSIONAIS

Passando ao caso geral, seja H o hiperplano de Rn formado pelos vetores perpendicu-


lares ao vetor unitrio u. A projeo P de Rn em H o operador linear de Rn para o qual
valem as seguintes propriedades
(
w se w H;
P (w) =
0 se w hui.
Copiando discaradamente o que fizemos acima, esperamos que a matriz desta projeo seja
I uut . Para verificar isto basta que a matriz satisfaa as duas propriedades acima. Como
(
0 se w H;
ut w = hu |wi =
u se w = u hui.
ento (
w se w H;
(I uut )w = w uut w =
0 se w hui;
que o resultado esperado confirmando que I uut a matriz da projeo ortogonal P
sobre o hiperplano H.

4.2. Reflexes. Agora que sabemos projetar, podemos facilmente refletir um vetor do
espao. Digamos que o espelho, tambm conhecido como hiperplano de reflexo, seja o
hiperplano E que o complemento ortogonal de um vetor unitrio u. Vimos no incio do
artigo anterior que se v Rn ento sua projeo sobre E pode ser escrita na forma
v uut v.
Geometricamente isto significa que subtramos de v sua componente ortogonal a E, fazen-
do com que a diferena esteja sobre E. Para obter a reflexo precisamos apenas repor esta
componente, s que do outro lado de E. Mas, para isto basta subtrair a projeo de v sobre
u da projeo de v sobre E, o que nos d
v 2uut v = (I 2uut )v
como reflexo de v relativamente a W . Logo, a matriz de reflexo
(41) I 2uut
que, de resto, tem exatamente a mesma forma da matriz da reflexo relativamente a uma
reta em R2 .
Por exemplo, para determinar a matriz da reflexo cujo espelho o hiperplano x + y +
z + w = 0, calculamos um vetor unitrio perpendicular a este plano, digamos
1
u = (1, 1, 1, 1).
2
4. PROJEES E REFLEXES 107

Substituindo o vetor na frmula (41), obtemos



1 0 0 0 1 1 1 1 1
i 1
0 1 0 0 1 1 h 1 1 1 1
0 0 1 0 2 1 1 1 1 1 = 2 1 1 1 1


0 0 0 1 1 1 1 1 1

Observe que, para achar a matriz de uma reflexo precisamos apenas conhecer um vetor
unitrio ortogonal ao espelho. Isto implica que uma reflexo R do Rn fica completamente
determinada se conhecemos um vetor v, fora do hiperplano de reflexo e sua imagem por
v, porque v R(v) tem que ser um vetor ortogonal ao espelho. Para se convencer de que
isto verdade no plano, basta fazer um desenho; para o Rn , precisamos de uma conta.
Suponha, ento, que R = I 2uut uma reflexo do Rn cujo espelho o hiperplano
E normal ao vetor unitrio u. Se v
/ E, ento
v R(v) = v (v uut v) = u(ut v).
Como
ut v = hu |vi
um escalar, mostramos que v R(v) um mltiplo de u. Portanto, para achar u e
calcular a matriz da reflexo basta normalizar o vetor v R(v).
Um exemplo muito importante desta ltima construo ocorre quando a reflexo R
leva um dado vetor v de Rn em um vetor colinear ao vetor e1 da base cannica. Como o
comprimento de um vetor no pode ser alterado por reflexo, deveremos ter que
R(v) = kvke1 .
Portanto, o vetor unitrio u normal ao espelho ser obtido dividindo
v kvke1
por seu comprimento. Diremos, neste caso, que R a reflexo de Householder determinada
por v. O nome uma homenagem a A. Householder que mostrou em 1958 [1] como estas
matrizes poderiam ser usadas em um algoritmo de decomposio matricial.
Por exemplo, quando v = (1, 1, 1, 1) R4 , o vetor u obtido normalizando-se
(1, 1, 1, 1) 2(1, 0, 0, 0) = (1, 1, 1, 1),
de modo que a reflexo de Householder correspondente tem matriz

1 1 1 1

11 1 1 1

2 1 1 1 1


1 1 1 1
108 3. MODELOS MULTIDIMENSIONAIS

As reflexes de Householder sero usadas futuramente em um importante algoritmo de


decomposio de matrizes.

5. Mtodos dos mnimos quadrados

Nesta seo veremos como aplicar lgebra linear para resolver o problema de encontrar
a funo que melhor se adapta a um conjunto de pontos dados. Note que no se trata de
interpolao, uma vez que no exigiremos que a curve passe por todos os pontos dados. O
que queremos a curva que melhor aproxima os pontos dados, e as duas geralmente no
coincidem. Comeamos estudando a imagem de uma transformao linear, que desempe-
nhar papel significativo em nossa soluo do problema.

5.1. Imagem de uma transformao linear. Seja T : Rm Rn uma transformao


linear. Como qualquer outra aplicao, esta transformao tem uma imagem, definida por
Im(T ) = {T v | v Rm }.
O que torna a imagem de uma transformao linear particularmente interessante que a
linearidade de T faz de Im(T ) um subespao vetorial. Na verdade isto consequncia
do seguinte fato, mais geral, que provaremos a seguir: se U um subespao de Rm e
T : Rm Rn uma transformao linear, ento T (U ) = {T u | u U }. um subespao
de Rn .
Para comear, 0 T (U ) uma vez que 0 U e T (0) = 0. Suponha, agora que u, u0 U
e que R. Ento, pela linearidade de T ,
(42) T (u) + T (u0 ) = T (u + u0 ) e T (u) = T (u).
Como U um subespao de Rm , ento
u + u0 U e u U
donde
T (u + u0 ) T (U ) e T (u) T (U ).
Combinando isto com (42), conclumos que
T (u) + T (u0 ) T (U ) e T (u) T (U ),
o que prova que T (U ) mesmo um subespao do Rn .
A linearidade de T tambm nos permite calcular, facilmente, geradores para T (U )
a partir de geradores para U . Digamos, por exemplo, que o subespao U de Rm tem
geradores u1 , . . . , uk . Portanto, dado u U , podemos escrev-lo na forma
u = 1 u1 + + k uk
5. MTODOS DOS MNIMOS QUADRADOS 109

para alguma escolha de escalares 1 , . . . , k R. Como T : Rm Rn uma transfor-


mao linear, temos
T (u) = 1 T (u1 ) + + k T (uk );
donde conclumos que todo elemento de T (U ) pode ser escrito como combinao linear
de T (u1 ), . . . , T (uk ). Resumiremos tudo isto em uma proposio para referncia futura.
P ROPOSIO 5.1. Se U = hu1 , . . . , uk i um subespao de Rm e T : Rm Rn uma
transformao linear, ento
T (U ) = hT (u1 ), . . . , T (uk )i
um subespao de Rn .

Antes de prosseguir, vejamos um exemplo. Seja T a transformao do R3 no R4 defi-


nida pela frmula
T (x, y, z) = [x, x + y, x + z, z + y]t .
Como R3 gerado pelos vetores e1 , e2 e e3 , a proposio 5.1 nos permite concluir que
Im(T ) = T (R3 )
gerado pelas imagens destes vetores por T , que so, respectivamente,
[1, 1, 1, 0]t , [0, 1, 0, 1]t e [0, 0, 1, 1]t .
Por outro lado, a reta r de vetor diretor [1, 1, 1]t tem por imagem
T (r) = h[1, 2, 2, 2]t i.
J calcular a imagem do plano U ortogonal reta r d mais trabalho. A equao deste
plano dada por
0 = h[x, y, z]t | [1, 1, 1]t i = x + y + z;
de modo que qualquer vetor [x, y, z]t de U tem que satisfazer
[x, y, z]t = [y z, y, z]t = y[1, 1, 0]t + z[1, 0, 1]t .
Portanto,
U = h[1, 1, 0]t , [1, 0, 1]t i.
Calculando a imagem destes vetores por T , conclumos que
T (U ) = h[1, 0, 1, 1]t , [1, 1, 0, 1]t i.
Observe que, apesar de r ser perpendicular a U , no verdade que T (r) perpendicular a
T (U ). Para ver isto basta calcular o produto interno entre o gerador de T (r) e o primeiro
dos geradores de T (U ), que d
h[1, 2, 2, 2]t | [1, 0, 1, 1]t i = 1,
e no zero como seria o caso se T (r) e T (U ) fossem ortogonais. Na seo 6 veremos
que h transformaes lineares que preservam perpendicularidade e que, por isso, tm
propriedades extremamente especiais.
110 3. MODELOS MULTIDIMENSIONAIS

5.2. Motivao. O problema dos mnimos quadrados foi originalmente estudado por
Legendre e Gauss como uma maneira de determinar a funo polinomial que melhor se
adapta a um dado conjunto de pontos obtidos como resultados de uma srie de medies
de alguma magnitude fsica. A primeira impresso que a melhor maneira de resolver o
problema por interpolao. Entretanto, os resultados de uma medio nunca so exatos,
de modo que a funo que representa a soluo correta do problema passar prxima, mas
no exatamente nos pontos dados. Isto significa que o mtodo de interpolao no produz
necessariamente a melhor soluo do problema, que consistiria na curva que melhor se
adapta aos pontos dados, ainda que no passe exatamente sobre estes pontos.
Gauss e Legendre propuseram, independentemente, que a curva polinomial y = f (x)
que melhor se adapta aos pontos
{(x1 , y1 ), . . . , (xn , yn )}
do R2 aquela que corresponde ao polinmio f que minimiza o nmero
(43) |f (x1 ) y1 |2 + + |f (xn ) yn |2 .
Uma vantagem adicional deste mtodo que o polinmio escolhido ter grau m = n 1,
ao passo que o polinmio usado na interpolao tem que ter grau maior que n 1. A
soma (43) pode ser escrita de maneira compacta usando-se a matriz de Vandermonde V
construda a partir das abscissas dos n pontos dados por
V (i, j) = xji1 .
Como o polinmio f ter grau n 1, seu vetor de coeficientes ser
a = [a0 , . . . , an1 ]t .
Denotando por Y o vetor das ordenadas dos n pontos dados, a soma (43) equivale a tomar
a norma euclidiana do vetor V a Y . Isto signfica que o problema que queremos resolver
um caso especial do seguinte

dados um vetor b e uma transformao linear T : Rm Rn , com m n,


determine um vetor u tal que a norma kb T uk a menor possvel.

De fato, em nosso caso, b = Y , u = a e T a transformao de Rn1 em Rn definida por


T (w) = V w.
Observe que este problema s faz sentido se T no for inversvel, do contrrio b
Im(T ) e u = T 1 (b), de modo que a distncia mnima seria zero. De agora em diante
suporemos sempre que T no inversvel e que b / Im(T ). Por outro lado, como T u
Im(T ), o nmero kb T uk corresponde menor distncia possvel entre b e a imagem de
T . Isto nos permite resolver o problema em duas etapas:

Primeira etapa: determine o vetor y Im(T ) para o qual kb yk mnima;


Segunda etapa: determine um vetor u Rm tal que y = T (u).
5. MTODOS DOS MNIMOS QUADRADOS 111

5.3. Anlise da primeira etapa. Seja T um operador de R2 cuja imagem uma reta.
Uma figura simples mostra que a distncia mnima entre b R2 \ Im(T ) e a imagem de
T realizada pela projeo ortogonal de b em Im(T ). Na verdade, o mesmo vale para
qualquer transformao T de Rm em Rn e qualquer ponto b Rn que no pertence
imagem de T . Para entender provar isto basta mostrar o seguinte resultado.
P ROPOSIO 5.2. O menor valor de kb T (v)k atingido quando b T v perpen-
dicular imagem de T .

D EMONSTRAO . Suponha que v foi escolhido de maneira que b T v ortogonal a


Im(T ) e seja w um vetor qualquer do Rn . Se e = v w, temos que
kb T wk = hb T w | b T wi = h(b T v) + T e | (b T v) + T ei
que, pelas propriedades do produto interno igual a
hb T v | (b T vi + 2hb T v | T ei + hT e | T ei.
Portanto, mostramos que
kb T wk = kb T vk + 2hb T v | T ei + kT ek.
Como b T v perpendicular aos vetores da imagem de T , segue-se que
hb T v | T ei = 0,
donde
kb T wk = kb T vk + kT ek.
Como kT ek 0, podemos concluir que
kb T wk kb T vk,
como queramos mostrar. 

Resta-nos descobrir como calcular v de modo que r = b T v seja ortogonal imagem


de T . Mas, denotando por A a matriz de T , temos que
rt (Av) = hr | T (v)i = 0 para todo v Rm .
Contudo,
rt (Av) = (At r)t v;
o que nos permite reformular a perpendicularidade desejada como
(At r)t v = 0 para todo v Rm .
Entretanto, as propriedades do produto interno nos garantem que isto s pode acontecer se
At r for, ele prprio, nulo. Portanto,

r = b T v ortogonal a todos os vetores de Im(T ) se, e somente se,


At r = 0.
112 3. MODELOS MULTIDIMENSIONAIS

Mas isto significa que podemos calcular r resolvendo o sistema homogneo At r = 0. Uma
vez calculado r, v obtido resolvendo-se o sistema linear r = b Av.

5.4. A segunda etapa e a concluso. Tendo mostrado como a projeo ortogonal w


de b sobre Im(T ) pode ser calculada, resta-nos explicar como determinar um vetor u tal
que w = T (u), resolvendo assim o problema posto no incio da seo. Para comear,
combinando Au = w com At (w b) = 0, temos que
At (Au b) = 0;
donde
(44) At Au = At b;
que conhecida como equao normal do problema. Para resolv-la, podemos usar qual-
quer mtodo de soluo de sistemas lineares. Na verdade, Gauss introduziu sua verso do
mtodo de eliminao em grande parte para resolver sistemas decorrentes da aplicao do
mtodo dos mnimos quadrados.
Reunindo todas as peas do quebra-cabeas anteriormente montado, temos o seguinte
algoritmo capaz de resolver o problema posto no incio da seo.
M TODO DOS MNIMOS QUADRADOS . Sejam m n nmeros inteiros positivos, A
uma matriz n m e b um vetor do Rn que no pertence imagem de A. O vetor u que
minimiza a norma euclidiana kAu bk o vetor soluo do sistema At Au = At b.

A eliminao gaussiana apenas uma das maneiras pelas quais podemos resolver um
problema de mnimos quadrados. Afinal, para resolver a equao normal (44) basta termos
uma decomposio bem comportada da matriz At A. Contudo, como
(At A)t = At (At )t = At A,
trata-se um sistema cuja matriz simtrica e, para estas matrizes, h mtodos de resoluo
mais rpidos e eficientes do que a eliminao gaussiana; por exemplo, aqueles que usam a
decomposio de Cholesky de uma matriz.

5.5. Um exemplo. Escrevo quando tiver tempo e pacincia...

6. Autovalores e autovetores

Nesta seo voltamos aos dois problemas que deixamos pendentes sobre o modelo de
Leslie. Em primeiro lugar, se o modelo admite solues oscilatrias, como determinar seu
perodo; em segundo, se a populao admite distribuies estveis, como achar seu fator
de proporcionalidade. Em ambos os casos, a pergunta originalmente formulada sobre o
modelo, seria resolvida pela soluo de um sistema homogneo que dependia de um destes
nmeros.
6. AUTOVALORES E AUTOVETORES 113

6.1. Definies. Como vimos ao final do artigo 1.2 a verso esttica da terceira per-
gunta que fizemos sobre o modelo de Leslie pode ser formulada como

dada a matriz de Leslie L determine um vetor u 6= 0 de coordenadas no


negativas tal que Lu seja um mltiplo constante de u.

Denotando por o fator de proporcionalidade entre u e Lu, queremos que


(45) Lu = u.
Esta mesma equao j apareceu inmeras vezes neste captulo, ainda que no tenhamos
chamado sua ateno para ela. Seja, por exemplo, u um vetor no nulo perpendicular a um
hiperplano H do Rn . Se P for a projeo ortogonal sobre H ento P u = 0, de modo que o
fator de proporcionalidade zero. Por outro lado, se R for uma reflexo cujo espelho H,
ento Ru = u que tem 1 como fator de proporcionalidade. E tem mais: em ambos os
casos, os vetores de H so invariantes pela transformao, o que significa que a equao
(45) satisfeita com fator de proporcionalidade igual a 1.
A frequncia com que esta equao aparece justifica que seus elementos recebam no-
mes especiais. Em geral, se T um operador linear do Rn e u Rn um vetor no nulo
que satisfaz
T u = u
para algum escalar ento dizemos que um autovalor de T e u um autovetor de
T associado ao autovalor . Observe que um autovetor no pode ser nulo. Fixando um
autovalor do operador T , podemos considerar o conjunto de todos os autovetores asso-
ciados a . Este conjunto no pode ser um subespao de V porque no contm o vetor
zero que, por definio, no um autovetor. Entretanto, basta acrescent-lo para termos
um subespao. De maneira geral, se um escalar qualquer, definimos
V = {v V | T v = v}.
Note que, se A a matriz de T ento V o conjunto soluo do sistema homogneo
(A I)X = 0 e, como tal um subespao de Rn . Este espao ser diferente de zero
exatamente quando for um autovalor de T . Neste caso diremos que V o autoespao
de T associado ao autovalor .
Voltando aos exemplos considerados anteriormente, verificamos que os autoespaos da
projeo P do Rn sobre o hiperplano H perpendicular a u 6= 0, so
V0 = hui e V1 = H;
ao passo que a reflexo cujo espelho H tem autoespaos
V1 = hui e V1 = H.
3
Finalmente, para uma rotao de R , de ngulo 6= 0, cujo eixo a reta de vetor diretor u
temos
V1 = hui.
114 3. MODELOS MULTIDIMENSIONAIS

Este ser o nico autoespao desta rotao, a no ser que = radianos, quando teremos
tambm
V1 = H.

6.2. Calculando autovalores e autovetores. Nos exemplos descritos acima a inter-


pretao geomtrica dos operadores nos ajudou a encontrar seus autovalores e autovetores.
Mas como proceder no caso geral? Para tratar este problema da maneira mais realista pos-
svel, suporemos que a matriz A de um operador T relativa base cannica conhecida e
tentaremos descobrir como calcular seus autovalores e autovetores. Se v for um autovetor
de T associado ao autovalor , ento

Av = v,

que podemos reescrever na forma

(A I)v = 0,

em que I a matriz identidade de mesmo tamanho que A. Como a definio de autovetor


requer que v 6= 0, a equao anterior implica que o sistema definido pela matriz A I
tem que ser indeterminado. Portanto, esta matriz ter, necessariamente, determinante zero
quando for um dos seus autovalores. Contudo, det(A I) uma expresso polinomial
em . Em outras palavras, se t for uma varivel, ento os autovalores de A sero razes do
polinmio
pA (k) = det(A tI);
conhecido como polinmio caracterstico de A.
Por exemplo, uma rotao de ngulo no plano, tem por matriz
" #
cos() sen()
( ) = ;
sen() cos()

de modo que, para calcular seus autovalores basta determinar o polinmio caracterstico
" #
cos() t sen()
p(k) = = t2 2 cos()k + 1
sen() cos() t

Como este polinmio quadrtico tem discriminante igual a

4(cos()2 1) 0;

s existem autovalores (reais) quando cos() = 1; que corresponde a dizer que = k,


como fcil determinar a partir da geometria do problema.
6. AUTOVALORES E AUTOVETORES 115

6.3. Mais exemplos. Nosso prximo exemplo diz respeito ao operador T de R3 cuja
matriz na base cannica

1 0 2
A = 1 0 1 .

1 1 2
O polinmio caracterstico ser

1t 0 2
pA (k) = det(A tI) = 1 t 1 = t3 + 3t2 + t 3

1 1 2t

cujas razes so 1, 1 e 3. Portanto, T admite trs autovalores distintos. Para descobrir os


autovetores associados a 1, devemos resolver o sistema homogneo (A (1)I)X = 0
cuja matriz

2 0 2
1 1 1

1 1 3
Aplicando eliminao gaussiana a esta matriz, e simplificando o resultado, obtemos

1 0 1
0 1 2

0 0 0

que corresponde ao sistema linear

x+z =0
y + 2z = 0

cujas solues so dadas por

[x, y, z]t = [z, 2z, z]t = z[1, 2, 1]t .

Logo, os autovetores de A associados ao autovalor 1 so os mltiplos no nulos de


[1, 2, 1]t . Portanto, o autoespao associado a 1

V(1) = h(1, 2, 1)i.

Clculos semelhantes mostram que

V1 = h[1, 1, 0]t i e V3 = h[1, 0, 1]t i.


116 3. MODELOS MULTIDIMENSIONAIS

Finalmente, voltamos questo de dinmica de populaes com a qual tudo isto come-
ou. Por exemplo, a matriz de Leslie

0 4 5
L = 0, 53 0 0

0 0, 22 0
da populao de salmes tem polinmio caracterstico

4 5
p() = det 0, 53 0 = 3 + (2, 12) + 0, 583

0 0, 22
cujas razes so
0, 285, 1, 292 e 1, 574.
Note que destes trs autovalores somente o ltimo nos interessa neste problema, porque
nem a matriz L nem um vetor que representa uma populao podem ter entradas negativas.
Calculando o autoespao deste autovalor descobrimos que gerado pelo autovetor
h i
2, 33 0, 78 0, 10

cujas entradas so todas positivas, de modo que este autovetor realmente pode representar
uma distribuio da populao de salmes.

6.4. Distribuies oscilatrias. Tendo aprendido a calcular o fator de proporcionali-


dade que nos permitiu determinar as distribuies estveis de uma populao, usaremos
isto para determinar seus possveis perodos. Para entender a relao entre os dois con-
ceitos, digamos que L uma dada matriz de Leslie que tem como autovalor e u como
autovetor associado. Ento,
Lu = u,
donde deduzimos facilmente que
Lk u = k u.
Por outro lado, se a populao modelada por esta matriz tem uma distribuio oscilatria,
ento existe um inteiro k0 e um vetor de entradas no negativas v 6= 0 tal que
Lk0 v = v.
Comparando estas duas equaes, verificamos que o autovetor u de L corresponder a
uma distribuio oscilatria se no tiver coordenadas negativas e o autovalor ao qual est
associado satisfizer k0 = 1 para algum inteiro positivo k0 . Os nmeros que satisfazem a
esta propriedade so chamados de razes da unidade. Conclumos que,
6. AUTOVALORES E AUTOVETORES 117

para que um autovetor no negativo de L corresponda a uma distribuio


oscilatria da populao modelada por L preciso que o autovalor a ele
associado seja uma raiz da unidade.

Por exemplo, vimos que a matriz de Leslie da populao de salmes descrita no artigo
1.1 tem autovalores
0, 285, 1, 292 e 1, 574,
nenhum dos quais raiz da unidade. Afinal, o mdulo de qualquer potncia de 0, 285
d um nmero menor que um, ao passo que as potncias dos dois outros autovalores so
ambas nmeros maiores que um. Se voc est seguindo o argumento de perto, concluir
que o que dissemos implica algo muito mais forte:

para que um autovetor de L corresponda a uma distribuio oscilatria


preciso que esteja associado aos autovalores 1 ou 1 de L.

Se todos os autovalores da matriz de Leslie forem reais, este resultado verdadeiro. Mas, e
se houver autovalores complexos, que so razes da unidade? Em princpio, poderamos ter
um nmero complexo / R que seja autovalor de uma matriz de Leslie L e que satisfaa
k
= 1, para algum inteiro positivo k. Se v for um autovetor de L associado a , ento

Lv = v, donde Lk v = k v = v.

O problema que, para que isto produza a desejada distribuio oscilatria todas as entra-
das de v tm que ser reais. Contudo, se as entradas de v forem reais ento todas as entradas
no nulas de v estaro em C\R. Acontece que Lv um vetor cujas coordenadas so todas
reais, porque L uma matriz real. Portanto, a igualdade Lv = v no pode ser verificada
para nenhum vetor no nulo cujas coordenadas so reais.
Depois que o impacto inicial do argumento tenha passado e voc tenha tido tempo de
pensar sobre o assunto, talvez lhe ocorra que isto no pode estar certo porque, aparente-
mente, j conhecemos um contraexemplo: os besouros de Bernardelli. A matriz B (veja
pgina 90) que descreve o comportamento da populao de besouros tem polinmio carac-
terstico igual a t3 + 1. Portanto, o um nico autovalor real de B 1, cujo autoespao

V1 = h[6, 3, 1]t i.
Contudo, B 3 = I implica que qualquer vetor de R3 d lugar a uma distribuio oscilat-
ria. No seriam os autovalores complexos no reais que estariam contribuindo estes outros
vetores? A resposta um enftico no. Ainda que possamos usar os autovalores comple-
xos para prever a existncia de outras distribuies oscilatrias, elas no correspondem a
nenhum autovetor de L. Infelizmente a justificativa para esta ltima afirmao vai ter que
esperar at discutirmos diagonalizabilidade no captulo 4.
118 3. MODELOS MULTIDIMENSIONAIS

6.5. O teorema de Perron. Ao discutirmos a soluo da terceira questo proposta no


artigo 1.2 como um problema de autovalores e autovetores nos deparamos com o fato de
que nada do que fizemos garante que uma matriz tenha que ter um autovetor com entradas
no negativas. Entretanto, se isto no ocorrer, no poderemos interpretar este o autovetor
como descrevendo uma distribuio de populao. Por sorte um teorema provado por
Oskar Perron em 1907 garante que uma matriz cujas entradas so todas positivas tem que
satisfazer esta propriedade.
A isto voc pode replicar que uma matriz de Leslie sempre tem coeficientes nulos.
Ainda que isto seja verdade, somos salvos pelo fato de que no estamos interessados nos
autovalores de L mas sim das potncias de L, potncias estas que, na verso dinmica
do problema, podem ser to grandes quando for necessrio. A razo pela qual isto vem
em nosso auxlio que se, em uma matriz de Leslie de tamanho n n, a maior parte
das fecundidas no nula, ento potncias altas o suficiente desta matriz tero todos os
seus coeficientes positivos; veja, por exemplo, o exerccio 30. Sem mais delongas, vamos
enunciar e provar o teorema.
T EOREMA DE P ERRON . Se A for uma matriz cujas entradas so todas positivas, en-
to:

(a) A tem um autovalor positivo 0 ;


(b) A tem um autovetor u0 , de entradas positivas, associado a 0 ;
(c) se outro autovalor de A, ento 0 > ||.

Sejam A e B matrizes reais n m. Usaremos a notao A B como abreviao


para a expresso A B no tem entradas negativas e A > B para todas as entradas de
A B so positivas. Como os vetores do Rn so matrizes, isto se aplica tambm a eles. O
segundo ingrediente necessrio nesta demonstrao uma espcie de norma para matrizes,
definida por
|A|1 = max{|A(i, j)| | 1 i n e 1 j m}.
Precisaremos usar as duas seguintes propriedades desta norma:

|Av|1 |A|1 |v|1 ;


|A|1 = |||A|1 ;

em que v Rm , R e || denota o mdulo de |. Para mais detalhes sobre a 1-norma,


como esta maneira de medir matrizes chamada, veja o exerccio 31.

D EMONSTRAO . Comearemos esboando o argumento geral desta demonstrao.


Em seguida identificaremos os principais problemas tcnicos para faz-la funcionar e resol-
veremos cada um individualmente. Se tudo o que voc deseja uma verso impressionista
do argumento, sinta-se vontade para no ler a segunda parte.
6. AUTOVALORES E AUTOVETORES 119

E SBOO DA DEMONSTRAO : Considere o subconjunto de nmeros reais definido por


S = {` R | Au `u para algum vetor u > 0 do Rn }.
Este conjunto tem um maior elemento, que chamaremos de 0 , ao qual est associado um
vetor w que satisfaz Aw 0 w. Provaremos que esta desigualdade no pode ser estrita.
Suponhamos, por contradio, que Aw > 0 w. Mas isto significa que todos os coeficientes
de Aw 0 w so positivos. Portanto, para um nmero real positivo , suficientemente
pequeno, teremos
(46) Aw > (0 + )w.
Mas isto implica que 0 +  S, o que no possvel porque 0 foi escolhido como
sendo o maior nmero em S. Isto mostra que A tem um autovetor positivo u0 , associado
ao autovalor 0 . Alm disso, como A > 0 e u0 > 0, devemos ter que 0 > 0, o que prova
(a) e (b). Suponhamos que u seja outro autovetor de A associado a 0 . Finalmente, se
for um outro autovalor de A, ento Av = v para algum vetor no nulo v. Portanto, das
propriedades da 1-norma introduzida acima,
|A|1 |v|1 |Av|1 = |v|1 = |||v|1 .
Como todas as entradas de A so positivas, isto implica que
A|v|1 |||v|1 ,
donde podemos concluir que || S. Mas 0 o maior elemento de S, de modo que
0 ||, o que prova (c).

O S DETALHES SRDIDOS , so dois:

(1) por que o conjunto S tem um maior elemento?


(2) por que vale a desigualdade (46)?

Observe que h realmente algo muito srio a provar em (1), porque nem todo subconjunto
de R tem um elemento mximo. Se o prprio R lhe parecer um exemplo muito sem graa,
considere o conjunto formado pelas potncias de 2. A razo pela qual estes conjuntos no
tm um maior elemento que eles so ilimitados. Isto , no existe nenhum nmero real
que maior do que todos os elementos do conjunto. De fato, uma importante propriedade
dos nmeros reais nos diz que

todo conjunto limitado de nmeros reais admite um elemento mximo;


isto , h um elemento do conjunto que maior que todos os demais.

Note que esta propriedade no verdadeira para o conjunto dos nmeros racionais. Por
os racionais cujo quadrado menor ou igual a 2 no tem
exemplo, o conjunto de todos
um elemento mximo, porque 2 no racional. Resumindo, dada esta propriedade dos
120 3. MODELOS MULTIDIMENSIONAIS

nmeros reais, basta provarmos que todo elemento de S menor que um dado nmero real.
Contudo, pelas propriedades da 1-norma
Au u implica que |A|1 |u|1 |||u|1 .
Como u > 0 segue-se que |u|1 > 0 pode ser cancelado da desigualdade acima, o que nos
d
|A|1 ||.
Mas isto significa que todo elemento de S (mesmo em mdulo) menor que |A|1 . Logo,
S um conjunto limitado e (1) est provado.
Passando a (2), devemos provar que se Aw > 0 w, ento
Aw > (0 + )w,
quando  > 0 um nmero real suficientemente pequeno. Naturalmente, a primeira coisa a
descobrir quo pequeno suficientemente pequeno. Para isto vamos calcular cada entrada
de Aw e compar-la s respectivas entradas de (0 + )w. Pela definio do produto de
matrizes,
(Aw)(i) = A(i, :)w.
Como Aw > 0 w, segue-se que
A(i, :)w 0 wi > 0.
Seja
= min{A(j, :)w 0 wj | 1 j n}.
Escolhendo

< ,
|w|1
temos que
wi < < A(i, :)w 0 wi
para todo 1 i n. Portanto,
wi < A(i, :)w 0 wi ;
donde
( + 0 )wi < A(i, :)w = (Aw)(i).
Como isto vale para todo 1 i n, conclumos que Aw > ( + 0 )w como desejvamos
mostrar. 

7. Rotaes no espao

Nesta seo estudaremos as rotaes e provaremos que toda rotao do espao tridi-
mensional tem um eixo.
7. ROTAES NO ESPAO 121

7.1. Transformaes ortogonais. Seja uma rotao de R3 . Comeamos lembrando


que toda rotao tem que ser uma transformao linear que preserva a norma de vetores.
Portanto, podemos descrever a partir de sua matriz (na base cannica), que chamaremos
de Q. Como tem que preservar a norma de um vetor, devemos ter tambm que
h(v), (v)i = hv, vi;
para todo vetor v R3 , cuja expresso matricial
(Qv)t (Qv) = v t v;
donde
v t Qt Qv = v t v,
que s pode valer para todo v R3 se Qt Q = I. Se, inspirados no caso do plano, dissermos
que uma matriz quadrada cuja inversa a sua transposta ortogonal, podemos enunciar o
resultado de nosso clculo anterior na forma

toda rotao uma transformao linear ortogonal.

Contudo, a recproca falsa pois se R a matriz de uma reflexo, ento R = I 2uut ,


para algum vetor unitrio u, donde
Rt = I 2(uut )t = I 2(ut )t u = I 2uut = R,
de modo que as matrizes das reflexes tambm so ortogonais. Isto nos leva pergunta:

que propriedades nos permitem identificar as rotaes dentre as transfor-


maes ortogonais?

A resposta para isto est relacionada noo de orientao. Dizemos que trs vetores
no nulos u, v, w R3 tm orientao positiva se w est do mesmo lado do plano hu, vi
que o produto vetorial u v; do contrrio estes vetores tm orientao negativa. Em outras
palavras, vetores orientados positivamente tm a mesma posio relativa que os vetores
e1 , e2 , e3 da base cannica, que satisfazem e1 e2 = e3 . Como as rotaes no alteram a
posio relativa entre os vetores, podemos afirmar que

as rotaes preservam a orientao de qualquer tripla de vetores qual


forem aplicadas.

Podemos traduzir o fato de u, v, w terem orientao positiva em termos do produto


interno. Afinal, se dois vetores esto do mesmo lado de um plano que no os contm, ento
o ngulo entre eles tem que ser agudo. Isto, por sua vez, implica que o produto interno entre
estes vetores ser necessariamente positivo. Como a recproca desta afirmao tambm
verdadeira, obtemos o seguinte resultado.
L EMA 7.1. Trs vetores u, v, w R3 esto positivamente orientados se, e somente se,
h(u v) | wi > 0.
122 3. MODELOS MULTIDIMENSIONAIS

O nmero h(uv), wi conhecido como o produto misto dos vetores u, v, w e denotado


por [u, v, w]. Combinando o que vimos at aqui, podemos afirmar que

se uma rotao do R3 , ento [(u), (v), (w)] = [u, v, w].

Antes de poder aplicar esta propriedade, precisamos de uma maneira de calcular o


produto misto a partir das coordenadas dos vetores. Mas, se
u = (u1 , u2 , u3 ) e v = (v1 , v2 , v3 ),
ento, utilizando o determinante formal usual para calcular o produto vetorial, obtemos
u v = (u2 v3 u3 v2 , u1 v3 + u3 v1 , u2 v1 u1 v2 )
de modo que se w = (w1 , w2 , w3 ), ento
[u, v, w] = w1 (u2 v3 u3 v2 ) w2 (u1 v3 u3 v1 ) + w3 (u2 v1 u1 v2 );
que igual ao determinante da matriz

u1 v1 w1 | | |
A = u2 v2 w2 = u v w .

u3 v3 w3 | | |
Portanto, se Q for a matriz de , ento

| | |
[(u), (v), (w)] = det Qu Qv Qw .

| | |
Contudo, a matriz cujo determinante esta sendo calculado na frmula acima igual a QA.
Portanto,
[(u), (v), (w)] = det(QA) = det(Q) det(A).
Como
[u, v, w] = det(QA) = det(A),
a transformao ortogonal cuja matriz Q s pode preservar a orientao dos vetores
u, v, w se det(Q) = 1. Podemos resumir tudo o que aprendemos neste artigo no seguinte
teorema.
T EOREMA 7.2. Se Q a matriz de uma rotao de R3 , ento Q uma matriz ortogonal
de determinante um.

Infelizmente isto ainda no responde nossa pergunta original, porque no sabemos


se toda matriz ortogonal de determinante um uma rotao. Para poder responder a esta
questo precisamos investigar estas transformaes em mais detalhe. Faremos isto, em
parte, no prximo artigo, mas a caracterizao final s ser obtida no captulo 4. Por
enquanto, observamos que, ao contrrio do que ocorre no R2 , uma matriz ortogonal 3 3
7. ROTAES NO ESPAO 123

de determinante 1 no descreve necessariamente uma reflexo. Considere, por exemplo,


o operador do R3 cuja matriz relativamente base cannica

1 0 0
A = 0 1 0 .

0 0 1
Como At = A, temos que
AAt = A2 = I;
de modo que A uma matriz ortogonal. Por outro lado,
det(A) = (1)3 = 1.
Contudo esta matriz no pode representar uma reflexo, porque, qualquer que seja o vetor
v R3 , temos Av = v, o que impede que haja um espelho, que seria o plano correspon-
dente ao autoespao de 1.

7.2. Eixo. Pea a algum para descrever o que uma rotao no R3 e no demora
muito aparece a noo de eixo, ainda que seja na expresso rodando em torno de. De fato,
Leonard Euler mostrou em um artigo publicado em 1776 que toda rotao do espao tridi-
mensional tem um eixo, mas isto est longe de ser bvio e a demonstrao de Euler envolve
longos clculos. Mesmo hoje, quando temos ferramentas mais avanadas, esta demonstra-
o no bvia. Naturalmente o mnimo que devemos exigir de uma transformao linear
para podermos dizer que tem um eixo que exista uma reta cujos vetores no so alterados
quando aplicamos a eles esta transformao. Note que, embora a transformao identidade
satisfaa esta condio, a maioria de ns no diria que ela tem eixo. Isto se d porque esta
noo parece demandar, implicitamente, que s os elementos ao longo daquela reta ficam
invariantes, o que no ocorre no caso da identidade. Como um vetor no nulo invariante
por uma transformao linear um autovetor associado ao autovalor um, podemos refor-
mular a noo de eixo com mais preciso dizendo que um operador linear do R3 tem um
eixo se 1 autovalor de deste operador e o autoespao correspondente uma reta; isto ,
gerado por um nico vetor no nulo.
Comearemos provando um resultado bem mais modesto:

se T um operador linear cuja matriz Q ortogonal e tem determinante,


ento 1 um dos autovalores de T .

Isto significa que 1 raiz do polinmio caracterstico de Q, que equivale a dizer que
det(Q I) = 0.
Portanto, basta mostrar que det(Q I) e teremos o resultado desejado. Entretanto, como
o determinante de uma matriz e de sua transposta coincidem, temos que
det(Qt I) = det((Q I)t ) = det(Q I).
124 3. MODELOS MULTIDIMENSIONAIS

Multiplicando esta equao pelo determinante de Q


(47) det(Q) det(Qt I) = det(Q) det(Q I) = det(Q I),
pois det(Q) = 1 por hiptese. Contudo,
det(Q) det(Qt I) = det(QQt Q) = det(Q I)
pois Q ortogonal. Combinando esta ltima equao a (47), obtemos
det(I Q) = det(Q I).
Contudo, como estas matrizes tm tamanho 3 3,
det(I Q) = (1)3 det(Q I)
de modo que
det(Q I) = det(Q I),
o que fora det(Q I) a ser nulo e prova o resultado desejado.
Os operadores lineares do R3 cuja matriz ortogonal de determinante igual a um tm
uma outra propriedade que nos ajudar a caracterizar o eixo de uma rotao. Seja T um tal
operador e u um autovetor de T associado ao autovalor um. Se v for um vetor ortogonal a
u, ento
hT u | T vi = hu | vi = 0,
pois, como j vimos, as transformaes ortogonais preservam o produto escalar. Isto mos-
tra que qualquer vetor do plano ortogonal a u levado em outro vetor do mesmo plano.
Como, pelo teorema 7.2 a matriz de uma rotao do R3 sempre ortogonal de determi-
nante igual a um, podemos concluir que

toda rotao tem um como um de seus autovalores;


se u autovetor de associado a um, e v ortogonal a u, ento (v) ortogonal
a u.

Mas isto significa que leva vetores do plano H perpendicular a u em vetores do mesmo
plano. Mas isto significa que induz uma transformar em H, que no pode ser outra
coisa seno uma uma rotao do plano. Mas, exceo da identidade, uma rotao move
todos os vetores do plano. Provamos, assim, que se uma rotao do R3 diferente da
identidade, ento

todo vetor do R3 que no mltiplo de u movido por rotao ;

afinal, tais vetores tm uma projeo no nula sobre o plano H e esta componente no pode
ficar fixa sob . Podemos resumir o que fizemos no seguinte resultado.
T EOREMA 7.3. Se uma rotao do R3 diferente da identidade, ento tem um eixo
e os vetores do plano ortogonal ao eixo so levados por em vetores do mesmo plano.
7. ROTAES NO ESPAO 125

A parte final do enunciado do teorema traz um bnus, porque uma maneira conveniente
de definir o ngulo de rotao de como sendo o ngulo entre um vetor no nulo v,
ortogonal ao eixo de rotao, e sua imagem por . Usando o produto interno, temos, ento,
que
hv | (v)i
cos() = .
kvk2
Encerraremos nosso estudo das rotaes com um exemplo. A partir do vetor unitrio
1
1
u = 1 R3
3
1
podemos construir a reflexo R cujo espelho ortogonal a u, cuja matriz relativamente
base dada por
1 2 2
t 1
R = I 2uu = 2 1 2.
3
2 2 1
Esta matriz ortogonal, mas no descreve uma rotao, porque det(R) = 1. Contudo,
mudando o sinal de uma das linhas de R, seuo determinante troca de sinal, de modo que

1 2 2
1
Q = 2 1 2

3
2 2 1
tem que ser uma matriz ortogonal de determinante igual a um. Logo Q descreve uma
rotao: quais so o eixo e o ngulo desta rotao? Para determinar o eixo, calculamos o
autovetor do autovalor 1 resolvendo o sistema

4 2 2 x 0
1
2 2 2 y = 0 ,

3
2 2 2 z 0
cujas solues satisfazem
x=y+z =0
de modo que u = [0, 1, 1]t determina o eixo de Q. Para calcular o ngulo de rotao, es-
colhemos um vetor w qualquer do plano W ortogonal a u, calculamos Qw e determinamos
o ngulo entre estes dois vetores. Escolhendo w = [1, 0, 0]t , temos que

1
1
Qw = 2 ,
3
2
126 3. MODELOS MULTIDIMENSIONAIS

donde
1
hw, Qwi = wt Qw = .
3
Logo o ngulo de rotao satisfaz
1
cos() =
3
pois w um vetor unitrio. O ngulo correspondente ser de, aproximadamente, 1, 9106
radianos.

Exerccios
1. Mostre que a populao de salmes descrita no artigo 1.1 no pode ter comportamento
oscilatrio para toda populao inicial.
S UGESTO : mostre que todas as entradas de L5 so positivas e conclua a partir disto.

2. Determine todos os valores reais de , e para que a populao descrita pela matriz
de Leslie
0 0
B = 0 0

0 0
tenha o mesmo comportamento peridico apresentado pelos besouros de Bernardelli.

3. Considere uma populao cujo comportamento demogrfico ao longo do tempo con-


trolado pela matriz de Leslie

0 4 3
L = 1/2 0 0

0 1/4 0
Se a populao inicial medida de 10 indivduos para cada faixa etria
(a) Qual ser a populao total em 10 anos?
(b) Qual ser a distribuio de populao por faixa etria em 10 anos?
(c) Esta populao admite uma distribuio estvel por faixa etria para a qual a po-
pulao total permanece constante?
(d) Esta populao admite uma distribuio cuja populao total constante?

4. Considere a matriz de Leslie dada por



1 0 0
L = 1 0 0

0 1/4 0
EXERCCIOS 127

(a) Considerando apenas as taxas de fecundidade e probabilidades de sobrevivncia


que aparecem na matriz, determine distribuies de populao que inevitavelmente
levaro extino.
(b) Em quantas geraes esta populao atinge uma distribuio estvel?
(c) Em quantas geraes a populao total desta espcie torna-se constante?

5. Quais dos seguintes subconjuntos de Rn so subespaos? Justifique a sua resposta


detalhadamente.
(a) {(x, y) R2 | 2x y = 0};
(b) {(x, y, z) R3 | x y + 9z + 4 = 0};
(c) {(x, y) R2 | 2x y 2 = 0};
(d) {(x, y, z, w) R4 | 2x y = 4x 3y + 7z + w = 0}.

6. Quais so os sistemas do exerccio 3 da pgina 82 cujos conjuntos solues so subes-


paos? Justifique detalhadamente a sua resposta.

7. Escreva o vetor v como combinao linear dos vetores do conjunto G, para cada um
dos exenmplos abaixo.
(a) v = (2, 8) e G = {(1, 1), (3, 2)};
(b) v = (0, 1) e G = {(3, 2), (2, 2)};
(c) v = (2, 1, 3) e G = {(1, 1, 1), (1, 1, 1), (1, 4, 5)};
(d) v = (1, 1, 4) e G = {(1, 1, 2), (1, 3, 4), (1, 3, 2)};
(e) v = (2, 1, 3, 2) e G = {(1, 0, 0, 1), (0, 1, 2, 0), (0, 1, 1, 0)};
(f) v = (1, 1, 1, 1) e G = {(2, 3, 1, 1), (5, 6, 1, 1), (1, 2, 1, 1)}.

8. Determine um conjunto finito de geradores para cada um dos seguintes subespaos:


(a) {(x, y, z) R3 | x + y 2z = 0} em R3 ;
(b) {(x, y, z) R3 | x y + z = y z = 0} em R3 ;
(c) {(x, y, z, w) R4 | x + z = y w = 0} em R3 ;
(d) {(x, y, z, w) R4 | x + y z = x y + z w = x z + w = 0} em R3 ;
(e) {(x, y, z, w) R4 | x + y + z + w = 0} em R3 .

9. Determine um conjunto finito de geradores para o conjunto soluo do sistema homo-


gneo associado a cada um dos sistemas do exerccio 3 da pgina 82.

10. Sejam U e U 0 subespaos vetoriais de Rn . Quais dos seguintes conjuntos so subespa-


os vetoriais de Rn ? Justifique cuidadosamente sua resposta.
(a) U U 0 ;
(b) U U 0 ;
(c) U \ U 0 = {u U | u / U 0 };
(d) U + U = {u + u | u U e u0 U 0 }.
0 0

11. Escreva a matriz correspondente a cada uma das transformaes lineares dadas abaixo:
128 3. MODELOS MULTIDIMENSIONAIS

(a) T : R4 R3 definida por T (x, y, z, w) = (x y + z w, x + y, 3z 3w);


(b) T : R3 R4 definida por T (x, y, z) = (x + y z, x y 3z, x 2z, y + z);
(c) T : R4 R4 definida por T (x, y, z, w) = (x + y, x, x + y, x + y);
(d) T : R2 R3 definida por T (x, y) = (x y, x + y, x + y);
(e) T : R4 R4 definida por T (x, y, z, w) = (x y, z w, x y, z + w).
12. Escreva a matriz correspondente a cada uma das transformaes lineares descritas
abaixo:
(a) a projeo do R5 no hiperplano definido por x y z + 2w + 5t = 0;
(b) a reflexo do R3 cujo espelho o plano de equao x 3y 2z = 0;
(c) a rotao do R3 de eixo (1, 0, 0) por um ngulo de /3 radianos, no sentido definido
pela regra da mo direita tomando-se v no sentido do polegar.
13. Escreva o vetor v como combinao linear dos vetores do conjunto G, para cada um
dos exenmplos abaixo.
(a) v = (2, 8) e G = {(1, 1), (3, 2)};
(b) v = (0, 1) e G = {(3, 2), (2, 2)};
(c) v = (2, 1, 3) e G = {(1, 1, 1), (1, 1, 1), (1, 4, 5)};
(d) v = (1, 1, 4) e G = {(1, 1, 2), (1, 3, 4), (1, 3, 2)};
(e) v = (2, 1, 3, 2) e G = {(1, 0, 0, 1), (0, 1, 2, 0), (0, 1, 1, 0)};
(f) v = (1, 1, 1, 1) e G = {(2, 3, 1, 1), (5, 6, 1, 1), (1, 2, 1, 1)}.
14. O ncleo N (T ) de uma transformao linear T : Rm Rn o conjunto dos vetores
de Rm que so levados no vetor zero por T . Isto ,
N (T ) = {u Rm | T (u) = 0}.
Prove que N (T ) um subespao de Rm .

15. Determine geradores para a imagem e o ncleo de cada uma das transformaes line-
ares dadas abaixo:
(a) T : R4 R3 definida por T (x, y, z, w) = (x y + z w, x + y, 3z 3w);
(b) T : R3 R4 definida por T (x, y, z) = (x + y z, x y 3z, x 2z, y + z);
(c) T : R4 R4 definida por T (x, y, z, w) = (x + y, x, x + y, x + y);
(d) T : R2 R3 definida por T (x, y) = (x y, x + y, x + y);
(e) T : R4 R4 definida por T (x, y, z, w) = (x y, z w, x y, z + w).
16. Determine o ncleo e a imagem de uma rotao e de uma reflexo no plano.
17. D exemplo de um sistema linear homogneo cujo conjunto soluo coincida com cada
um dos subespaos vetoriais abaixo:
(a) h(1, 1, 1), (2, 3, 1), (3, 1, 5)i em R3 ;
(b) h(1, 1, 0, 0), (1, 0, 1, 1), (0, 1, 1, 0)i em R4 ;
(c) h(1, 1, 0, 1, 0), (1, 1, 0, 0, 1)i em R5 ;
(d) h(1, 1, 1, 0), (1, 0, 2, 1), (5, 2, 8, 3)i em R4 ;
EXERCCIOS 129

(e) h(1, 2, 0, 1, 1), (1, 4, 1, 2, 0), (1, 0, 1, 1, 1)i em R5 .


18. Ache geradores para U W sabendo-se que U e W so os seguintes subespaos de
R4 :
U = h(4, 3, 2, 0), (7, 0, 5, 3)i;
W = h(2, 5, 3, 1), (5, 2, 6, 4), (7, 7, 9, 5)i;

19. O operador linear T de R3 definido por


T (x, y, z) = (3x, x y, 2x + y z)
inversvel? Em caso afirmativo, determine T 1 (x, y, z).
20. Seja S um subespao vetorial de Rn e considere o conjunto S dos vetores que so
ortogonais a todos os vetores de S; isto ,
S = {v Rn | v t u = 0 para todo u S};
(a) Prove que S um subespao de V .
(b) Prove que S S = {0}.
O subespao S conhecido como o complemento ortogonal de S em Rn . De que
forma ele complementa S ficar claro no prximo captulo.
21. Determine os complementos ortogonais de cada um dos espaos do exerccio anterior.
22. Determine o complemento ortogonal do subespao de R3 definido por
{(x, y, z) R3 | x + 2y + z = 0}.

23. Determine o complemento ortogonal do subsespao do R3 gerado por (1, 0, 0), (0, 1, 1)
e (1, 1, 1).
24. Ache os autovalores e autovetores das matrizes:
" # " #
1 2 1 1
A= , e B= .
0 1 1 1

25. Ache os autovalores e autovetores das matrizes:



1 2 3 3 3 4 1 0 2
A = 0 1 2 , B = 0 3 5 , C = 1 0 1 ,

0 0 1 0 0 1 1 1 2

1 1 2 1 3 2 1 2 3
D = 1 2 1 , E = 2 2 1 , F = 0 4 0 .

2 1 1 0 0 1 3 3 1
130 3. MODELOS MULTIDIMENSIONAIS

26. Determine geradores para os autoespaos de cada uma das matrizes do exerccio ante-
rior.

27. Seja A Calcule os autovalores e autovetores de A100 , quando A for a matriz



1 2 2
2 1 2 .

2 2 1

28. Prove, sem recorrer ao teorema de Perron, que toda matriz real de tamanho 2 2 tem
que ter um autovalor positivo.

29. Calcule os autovalores e autovetores reais da matriz de Leslie do exerccio 3. O que


isto nos diz sobre o comportamento das distribuies estveis desta populao? Se
uma distribuio estvel for alcanada, a populao aumentar ou diminuir?

30. Seja L uma matriz de Leslie, de tamanho n n, cujas taxas de fecundidade so todas
positivas, com possvel exceo da primeira. Mostre que:
(a) a primeira linha de L3 s tem entradas positivas;
(b) as j-simas primeiras linhas de Lj+3 s tm entradas positivas;
(c) todas as entradas de L3+n so positivas.

31. Dada uma matriz n m, definimos sua 1-norma pela regra


|A|1 = max{|A(i, j)| | 1 i n e 1 j m}.
Prove que se B uma matriz n m, C uma matriz m k e um nmero real, ento
|A + B|1 |A|1 + |B|1 ;
|AC|1 |A|1 |C|1 ;
|A|1 = |||A|1 ;
em que || denota o valor absoluto de |.

32. Verifique se as matrizes



0 0 1 1/3 2/3 2/3 2/2 1/2 1/2

1 0 0 , 2/3 1/3 2/3 e 0 2/2 2/2


0 1 0 2/3 2/3 1/3 2/2 1/2 1/2
representam rotaes. Em caso afirmativo calcule o eixo e o ngulo de rotao.
EXERCCIOS 131

33. Considere a matriz


1/3 2/3 2/3
Q = a 2/3 1/3 .

b 1/3 c
Determine valores para a, b e c de forma que Q seja ortogonal de determine igual a um.
34. Seja uma rotao de eixo ` em R3 e v = [1, 1, 1]t um vetor ortogonal a `. Sabendo-se
que (v) = [1, 1, 1]t , determine:
(a) o cosseno do ngulo de rotao de ;
(b) o eixo da rotao .
CAPTULO 4

Conceitos bsicos

Neste captulo introduzimos espaos vetoriais e as transformaes lineares em com-


pleta generalidade e mostramos como se relacionam aos vetores e matrizes do captulo
anterior.

1. Espaos vetoriais e transformaes lineares

Comeamos pelas definies de espaos vetoriais reais, seus subespaos e suas trans-
formaes lineares.

1.1. Definies bsicas. Seja V um conjunto no vazio no qual esto definidas duas
operaes, que chamaremos de adio e multiplicao por escalar. Em outras palavras,
dados u, v V e R, obtemos, de maneira nica, dois novos vetores de V : a soma
u + v e o produto por escalar v. Diremos que V , munido destas duas operaes, um
espao vetorial real, se as seguintes propriedades so satisfeitas:

1. u + (v + w) = (u + v) + w;
2. u + v = v + u;
3. existe um elemento 0 V tal que u + 0 = u;
4. dado v V , existe um elemento v V tal que v + v = 0;
5. (u + v) = u + v;
6. ( + )u = ( + )u;
7. ()u = ()(u);
8. 0 u = 0 e 1 u = u;

quaisquer que sejam u, v, w V e , R.


O adjetivo real refere-se ao fato dos escalares relativamente aos quais V est definido
serem nmeros reais, e no nmeros complexos ou algo mais bizarro como uma classe de
inteiros mdulo um nmero primo. Os elementos de V sero chamados genericamente de
vetores. Em particular, o elemento 0 definido pela propriedade 3 o vetor nulo. Assim,
na equao 0 u = 0 da propriedade 8, o zero que multiplica o vetor u um escalar, ao
passo que o zero do lado direito da igualdade o vetor nulo. J o vetor v definido pela
133
134 4. CONCEITOS BSICOS

propriedade 4 pode ser descrito em termos do produto por escalar por v = (1) v. De
fato,
(1 1) v = 0 v = 0
pela propriedade 8, ao passo que, pelas propriedades 6 e 8,
(1 1) v = 1 v + (1) v = v + (1) v.
Portanto,
v + (1) v = 0.
A igualdade desejada obtida somando-se v de ambos os lados da equao acima.
Observe que a definio de espao vetorial nada diz sobre o produto interno. A razo
que h muitos objetos em matemtica que satisfazem as condies acima, e que, portanto,
so espaos vetoriais, mas que no admitem nada semelhante a um produto interno definido
de maneira natural. Por isso, pareceu aos matemticos prefervel definir a noo de espao
vetorial sem requerer a existncia de um produto interno. Nunca demais lembrar que
estas estruturas no so dadas pela natureza, mas sim nomes que pessoas inventaram para
descrever objetos matemticos que ocorrem com frequncia.
Como um espao vetorial vem munido de operaes, queremos que uma aplicao de
um espao vetorial em outro preserve, de alguma maneira, estas aplicaes. O que sabemos
do caso do R2 , sugere que a definio correta deva ser a seguinte. Sejam V e W espaos
vetoriais reais. Uma aplicao T : V W que satisfaz
T (u + v) = T (u) + T (v) e T (u) = T (u);
quaiquer que sejam u, v V e R uma transformao linear entre estes espaos.
Quando V = W costuma-se dizer que T um operador linear de V . Portanto, ao usar a
palavra operador estamos implicitamente supondo que os conjuntos de partida e de chegada
da transformao linear so os mesmos. Da definio de transformao linear seguem
algumas propriedades simples. Por exemplo, uma transformao linear tem que preservar
o vetor zero. De fato, se u um vetor qualquer de V , ento
T (0) = T (0 u) = 0 T (u) = 0,
pois o escalar zero multiplicado por qualquer vetor d zero.

1.2. Subespaos e combinaes lineares. Diremos que um subconjunto no vazio S


de V um subespao se

u + v S para todo u, v S;
u S para todo u S e R.

Isto significa que, somando dois elementos de S, considerados como vetores em V , obte-
mos um elemento de S, e que o produto de um elemento de S por um escalar tambm
um elemento de S. Como as propriedades 1, 2, 5, 6, 7 e 8 valem para todos os elementos
1. ESPAOS VETORIAIS E TRANSFORMAES LINEARES 135

de V , ento tambm valem para quaisquer elementos de S. Que a propriedade 3 vale em


S parte da definio de S. Finalmente, se v V , ento v = (1) v, tem que estar em S
porque o produto de um escalar por um elemento de S. Portanto, S tambm um espao
vetorial real. Em outras palavras: subespaos de espaos vetoriais tambm so espaos
vetoriais.
A importncia desta ltima afirmao no deve ser subestimada, at porque a princi-
pal justificativa para introduzir a noo geral de subespao em um curso que trata unica-
mente de exemplos bastante concretos: o espao Rn e seus subespaos. Como subespaos
tambm so espaos vetoriais, tudo o que provarmos para um espao vetorial geral valer
tanto para Rn quanto para seus subespaos, independentemente da maneira como forem
definidos. Isto representa uma enorme economia de tempo e esforo, que no deve ser
subestimada.
No captulo anterior vimos vrios procedimentos que podem ser usados para definir
subsespaos em Rn entre eles, o conjunto soluo de um sistema linear homogneo, o
complemento ortogonal de um subespao e o conjunto das combinaes lineares de um
conjunto finito de vetores. Este ltimo se generaliza facilmente para qualquer espao ve-
torial. Para isto, lembre-se que, segundo as propriedades das operaes em um espao
vetorial V , temos que se u1 , . . . , uk so vetores de V e 1 , . . . , k so nmeros reais, ento
(48) 1 u1 + + k uk
tem que ser um vetor de V . Como no caso do Rn , diremos que uma expresso deste
tipo uma combinao linear dos vetores u1 , . . . , uk e que os escalares 1 , . . . , k so os
coeficientes desta combinao linear. Para simplificar a exposio, escreveremos, algumas
vezes, a combinao linear acima como um produto formal de matrizes

1
.
[u1 , . . . , uk ] .
. ;
k

ou, de forma ainda mais compacta, como U r, em que


U = [u1 , . . . , uk ] e r = [1 , . . . , k ]t .
O adjetivo formal foi usado para nos lembrar de que esta apenas uma maneira econmica
de escrever a combinao linear (48), inspirada pela maneira como o produto de duas ma-
trizes calculado. Isto, porque U no realmente uma matriz, uma vez que suas entradas
no so nmeros, mas sim vetores. Por isso, precisaremos de muito cuidado ao usar esta
notao. Por outro lado, se voc se sentir incomodado e inseguro do que esta notao real-
mente significa, suponha que o espao vetorial V Rk e que [u1 , . . . , uk ] a matriz cujas
colunas so as coordenadas dos us. Neste caso o produto formal definido acima coincide
com o produto matricial usual.
136 4. CONCEITOS BSICOS

Quando todos os vetores de um espao vetorial V podem ser escritos como combina-
o linear dos vetores de um dado subconjunto finito de vetores de V , dizemos que V
finitamente gerado. Este o caso de todos os subespaos com que nos deparamos at aqui.
No artigo 2.4 mostraremos que qualquer subespao de um espao vetorial finitamente ge-
rado tambm um subespao finitamente gerado. Na verdade, ao longo de todo este livro
trataremos apenas de espaos vetoriais finitamente gerados. Isto no quer dizer que espa-
os vetoriais que no so finitamente gerados no existam, ou que no sejam importantes.
Pelo contrrio, grande parte do mpeto em estudar espaos que no so finitamente gerados
deveu-se exatamente ao papel crucial que desempenham em mecnica quntica. Contudo
o estudo destes espaos envolve tcnicas analticas muito mais sofisticadas do que as que
temos acesso em um livro elementar como este.
De maneira mais geral, dado um espao vetorial V e um subconjunto finito C =
{u1 , . . . , uk } V, o conjunto hCi cujos elementos so todas as combinaes lineares
dos vetores de C um subespao de V . De fato, se c1 , . . . , ck , c01 , . . . , c0k so escalares,
ento
(c1 u1 + + ck uk ) + (c01 u1 + + c0k uk ) = (c1 + c01 )u1 + + (ck + c0k )uk ,
e
(c1 u1 + + ck uk ) = (c1 )u1 + + (ck )uk
que so todos combinaes lineares dos elementos de C e, como tal, tm que pertencer
a hCi. Diremos que este o subespao gerado por C e que os elementos de C so os
geradores de hCi.

1.3. Exemplos de subespaos. A maneira mais imediata de produzir novos exemplos


de subespaos de um dado espao vetorial V combinando subespaos que j conhece-
mos. Para comear, como os subespaos de um espao vetorial V so subconjuntos de
V , podemos aplicar neles quaisquer operaes de conjuntos que desejarmos. Por outro
lado, um subespao um subconjunto que satisfaz algumas propriedades muito especiais,
e nada garante que ao uni-los, intersect-los ou calcular seus complementos teremos ne-
cessariamente novos subespaos de V . A bem da verdade, como todo subespao tem que
conter o vetor zero, no possvel que o complementar de um subespao tambm seja um
subespao.
Menos bvio o que acontece com a unio. Neste caso podemos ter um subespao que
uma unio de subespaos, mas isto s acontece em casos especiais e pouco interessantes,
como um subespao que est contido em outro. Para um exemplo simples de unio que
no subespao, tome duas retas do plano passando pela origem. Cada uma delas um
subespao. Mas, se somarmos vetores no nulos, um em cada reta, teremos um vetor que
no est em uma nem em outra. Portanto, a unio de duas retas distintas nunca ser um
subespao do plano. A sada deste dilema consiste em tomar o subespao gerado pela
unio.
1. ESPAOS VETORIAIS E TRANSFORMAES LINEARES 137

Mais precisamente, digamos que V um espao vetorial e que U1 e U2 so subespaos


de V gerados por conjuntos finitos G1 e G2 , respectivamente. Definimos a soma de U1
com U2 , denotada por U1 + U2 como sendo o subespao gerado pela unio G1 G2 . A
definio garante imediatamente que U1 +U2 um subespao de V . Observe, contudo, que
ele tende a ser muito maior do que U1 U2 . Seja como for, no difcil mostrar que se W
um subespao de V que contm U1 U2 ento W contm a soma U1 + U2 ; veja exerccio
2. Em outras palavras, U1 + U2 o menor subespao que contm a unio U1 U2 .
E quanto interseo? Diante do que vimos at aqui, talvez voc se surpreenda de que
a interseo de dois subespaos quaisquer sempre um subespao. Para provar isto, supo-
nhamos que U1 e U2 sejam subespaos de um espao vetorial V . Portanto, por hiptese,
0 U1 e 0 U2 , de modo que 0 U1 U2 6= . Por outro lado, v e v 0 pertencem U1 U2 ,
ento
v + v 0 U1 e v + v 0 U2 ,
j que ambos so subespaos. Logo, v + v 0 U1 U2 . Finalmente, se R, ento
v U1 e v U2 ,
donde v U1 U2 .
Outra maneira de produzir novos espaos vetoriais consiste em recorrer a uma trans-
formao linear T : V W entre dois espaos vetoriais V e W . Se U for um subespao
de V ento
T (U ) = {T u | u U }
tambm subespao, s que de W . Para comear,
T (0) = 0 T (U ),
implica que este conjunto no pode ser vazio. Tomemos, ento, dois elementos de T (U )
que, por definio, podemos escrever como T (u) e T (u0 ), para alguma escolha de u, u0
U . Porm, como T linear,
T (u) + T (u0 ) = T (u + u0 )
que pertence a T (U ) porque u + u0 U , j que U um subespao de V . Pela mesma
razo, u U implica que
T (u) = T (u) T (U );
e provamos que T (U ) mesmo um subespao de W . Observe tambm que, se U for gerado
pelos elementos u1 , . . . , uk , ento T (U ) ser gerado por suas imagens, uma vez que
T (1 u1 + + k uk ) = 1 T (u1 ) + + k T (uk ).
Em particular, a imagem de T um subespao de W , pois Im(T ) = T (V ). Nada disto
novidade, porque os mesmos resultados foram provados, com essencialmente as mesmas
demonstraes, no captulo 3.
138 4. CONCEITOS BSICOS

Outro subespao associado a uma transformao linear T : V W seu ncleo,


definido por
N (T ) = {v V | T v = 0}.
Note que N (T ) um subespao do domnio de T , ao passo que a imagem um subespao
do seu contradomnio. Para provar que o ncleo um subespao de V , tomamos v, v 0
N (T ) e lembramos que isto significa que a imagem de ambos igual a zero. Mas isto
implica que
T (v + v 0 ) = T (v) + T (v 0 ) = 0 + 0 = 0 e que T (v) = T (v) = 0 = 0,
mostrando que v + v 0 e v tambm so elementos de N (T ).
primeira vista pode parecer que o ncleo apresenta um novo tipo de subespao ve-
torial sem contrapartida bvia no captulo anterior, mas isto no verdade. Lembre-se que
se T : Rn Rm for uma transformao linear e A for sua matriz relativamente base
cannica, ento T (v) = Av. Portanto, T v = 0 equivale a dizer que Av = 0, de modo que
o ncleo de T corresponde ao conjunto soluo do sistema linear homogneo AX = 0.
O ncleo de uma transformao linear desempenha um papel bastante importante, j
que mede a fidelidade da imagem de uma transformao linear. Mais precisamente, uma
transformao cujo ncleo nulo copia o domnio fielmente dentro de seu contra-domnio.
Tais aplicaes so chamadas de injetivas. Formalmente, uma transformao linear T :
V W do espao vetorial V no espao vetorial W injetivas se dois vetores distintos de
V sempre tm imagens distintas sob T . A relao entre ncleo e injetividade expressa
pela seguinte afirmao:

T injetiva se, e somente se, N (T ) = 0.

A demonstrao extremamente simples. Sejam v, v 0 V . Ento, pela definio do


ncleo,
T (v) T (v 0 ) = T (v v 0 ) = 0,
se, e somente se, v v 0 N (T ); donde o resultado desejado segue imediatamente.
Finalmente, fixados um escalar e um operador linear T : V V , podemos definir o
subespao
V = {v V | T v = v}.
Note que o ncleo de T o caso especial desta construo para o qual = 0. A bem
da verdade, para quase qualquer escolha de teremos V = {0} que um subespao
sem nenhum interesse. Como no caso dos operadores lineares do Rn diremos que um
autovalor de T sempre que V 6= {0}. Naturalmente, isto equivale a dizer que um
autovalor de T quando existe um vetor no nulo v V que satisfaz
T (v) = v.
1. ESPAOS VETORIAIS E TRANSFORMAES LINEARES 139

Neste caso dizemos que v um autovetor de T associado ao autovalor . Observe que,


como no caso do Rn um autovetor no pode ser nulo. Quando um autovalor de T o
subespao V conhecido como o autoespao de T associado ao autovalor .
Voltaremos a estudar vrias propriedades destes subespaos no captulo 5, dando sem-
pre nfase ao caso em que o espao vetorial em questo Rn ou um de seus subespaos.

1.4. Outros exemplos de espaos vetoriais. Ao longo deste livro tratamos, quase
que exclusivamente, dos espaos Rn e de seus subespaos. Entretanto, a ubiquidade dos
espaos vetoriais entre os objetos utilizados por matemticos, fsicos e engenheiros no-
tria. Para que voc tenha conhecimento disto, listamos neste artigo vrios conjuntos seus
conhecidos que tm uma estrutura natural de espao vetorial.
O primeiro deles , muito apropriadamente, o conjunto Rmn das matrizes m n com
a soma usual de matrizes e a multiplicao de uma matriz por escalar um espao vetorial.
Outro exemplo bem conhecido o conjunto F das funes de R nele mesmo, com a soma
e o produto por escalar definidos por

(f + g)(x) = f (x) + g(x) e ( f )(x) = f (x)

quaiquer que sejam f, g F e R. Em ambos os exemplos a verificao das 8 proprie-


dades totalmente elementar, apesar de muito montona.
Tambm fcil dar exemplos de subespaos nestes espaos vetoriais. De fato, os
seguintes subconjuntos de Rnn so subespaos vetoriais:

o conjunto das matrizes simtricas;

o conjunto das matrizes cuja diagonal nula;

o conjunto das matrizes que tm a soma dos elementos da diagonal igual a zero.

Os subconjuntos de F relacionados a seguir tambm so subespaos:

o conjunto das funes contnuas;

o conjunto das funes diferenciveis;

o conjunto das funes que levam zero nele mesmo.

Finalmente, o espao F um exemplo de espao vetorial que no finitamente gerado.


Contudo, adiaremos a demonstrao deste fato at o artigo 2.6, quando teremos instrumen-
tos suficientemente delicados para prov-lo com muito pouco esforo.
140 4. CONCEITOS BSICOS

2. Bases

Nesta seo veremos como escolher um conjunto finito de geradores de um espao


vetorial a partir dos quais cada vetor se expressa, de maneira nica, como combinao
linear. Comearemos a seo com algumas definies muito gerais.

2.1. Dependncia e independncia linear. Seja V um espao vetorial real e


G = {v1 , . . . , vk } V
um subconjunto finito de V . Como vimos no artigo 1.1, se cada vetor de V combinao
linear dos elementos de G, ento G um conjunto de geradores para V e este espao
vetorial finitamente gerado. A pergunta que queremos fazer :

sob que condies cada vetor de V se escreve, de uma nica maneira,


como combinao linear dos elementos de G?

Que isto no acontece sempre, bastante bvio, basta considerar o conjunto


{(1, 0), (0, 1), (1, 1)}
do R2 , em relao ao qual podemos escrever
(1, 1) = 1 (1, 0) + 1 (0, 1) + 0 (1, 1)
ou, alternativamente,
(1, 1) = 0 (1, 0) + 0 (0, 1) + 1 (1, 1).
Possivelmente voc vai protestar dizendo

este exemplo no vale, voc acrescentou um vetor desnecessrio ao con-


junto gerador, porque ele j era combinao linear dos outros dois!

Isto verdade, mas no tive escolha, porque nada pior que isto pode acontecer.
Queremos provar isto, mas antes introduziremos um pouco de terminologia para fa-
cilitar as coisas. Seja, ento, V um espao vetorial real e S um subconjunto finito de
V . Diremos que S um conjunto linearmente dependente se algum vetor de S pode ser
escrito como combinao linear dos demais. Caso contrrio, o conjunto linearmente in-
dependente. Tambm usual dizer que os vetores, em vez do conjunto formado por eles,
linearmente dependente ou independente. Note que um conjunto que contm o zero tem
que ser linearmente dependente, porque sempre podemos escrever este vetor como com-
binao de quaisquer outros vetores: basta tomar todos os coeficientes como sendo nulos.
No exemplo acima, temos que o conjunto
{[1, 0]t , [0, 1]t , [1, 1]t },
2. BASES 141

linearmente dependente, ao passo que


{[1, 0]t , [0, 1]t },
linearmente independente.
A noo de dependncia linear uma generalizao da noo de colinearidade, que j
usamos muitas vezes, porque dois vetores so linearmente dependentes se, e somente se,
so colineares. Em geral, se
S = {u1 , . . . , un }
linearmente dependente ento um de seus vetores, digamos un pode ser escrito como
combinao linear dos demais. Supondo que un 6= 0, deve ser possvel encontrar escalares
a1 , . . . , an tais que
un = a1 u1 + + an1 un1 .
Rearrumando esta soma, temos que
a1 u1 + + an1 un1 un = 0.
Lembre-se que o vetor zero sempre pode ser escrito como combinao de quaisquer outros
vetores. O que o clculo acima mostra que se S linearmente dependente ento

o vetor nulo pode ser escrito como combinao linear dos vetores de S,
com pelo menos um dos coeficientes da combinao diferente de zero.

A recproca desta afirmao tambm verdadeira. Para provar isto suponha que
a1 u1 + + an un = 0,
com pelo menos um dos as no nulo. Supondo que a1 6= 0 para simplificar a notao,
podemos escrever
a2 an
u1 = u1 + + un ;
a1 a1
donde conclumos que u1 pode ser escrito como combinao linear dos demais vetores de
S. Resumindo, mostramos que as seguintes afirmaes a respeito de um subconjunto finito
S do espao vetorial V so equivalentes:

(1) um dos vetores de S pode ser escrito como combinao linear dos demais;
(2) o vetor zero pode ser escrito como combinao linear dos vetores de S na qual
pelo menos um dos coeficientes no nulo.

Observe que o argumento anterior mostra que se F V um conjunto finito e v F tem


coeficiente no nulo em alguma combinao linear dos elementos de F que d zero, ento
v hF \ {v}i.
142 4. CONCEITOS BSICOS

Note, tambm, que (2) pode ser escrito de maneira muito compacta se usarmos a notao
para combinaes lineares introduzida no artigo 1.2. De fato, se

a1
.
U = [u1 , . . . , un ] e r = .
.
an
ento, de acordo com aquela notao,
U r = a1 u1 + + an un .
Portanto, os vetores u1 , . . . , un so linearmente dependentes quando existe um vetor no
nulo r0 Rn para o qual o produto U r0 = 0.
Encerramos o artigo com a seguinte propriedade dos conjuntos linearmente indepen-
dentes:

todo subconjunto no vazio de um conjuntos linearmente independente


tambm linearmente independente.

A demonstrao imediata, basta lembrar que uma combinao linear de alguns vetores de
um conjunto finito pode ser encarada como uma combinao de todos os vetores na qual
alguns tm coeficiente nulo. Por via das dvidas, vale pena lembrar que nada semelhante
vale para conjuntos linearmente dependentes. Por exemplo, se v um vetor no nulo
de um espao vetorial qualquer, o conjunto {v, 2v} linearmente dependente, mas {v}
linearmente independente.

2.2. Dependncia linear e eliminao gaussiana. Neste artigo veremos como utili-
zar a eliminao gaussiana para descobrir se um dado conjunto de vetores de Rn , ou no,
linearmente independente. O ponto crucial pode ser resumido no seguinte lema.
L EMA 2.1. Se u1 , . . . , uk so vetores de um espao vetorial V e um nmero real,
ento
hu1 , u2 . . . , uk i = hu1 , u2 + u1 . . . , uk i.

D EMONSTRAO . Para provar isto oberve que se



1 0 0
0 1 0 0

L= .. .. .. . . . .. ,

. . . .
0 0 0 1
uma matriz k k, ento
[u1 , u2 , . . . , uk ]L = [u1 , u2 + , u1 . . . , uk ].
2. BASES 143

Por outro lado, se a = [a1 , . . . , ak ]t um vetor de entradas reais, temos que


v = [u1 , u2 , . . . , uk ]a = a1 u1 + a2 u2 + + ak uk .
Contudo,
[u1 , u2 , . . . , uk ]a = [u1 , u2 , . . . , uk ]L L1 a.
Como L1 a tambm um vetor coluna de entradas reais, podemos concluir que
v = [u1 , u2 + u1 , . . . , uk ] L1 a
combinao linear dos vetores u1 , u2 + u1 . . . , uk . Portanto,
hu1 , u2 , . . . , uk i hu1 , u2 + u1 , . . . , uk i.
A recproca demonstrada de forma semelhante e fica aos seus cuidados. 

Pelo resto do artigo suporemos que o espao vetorial em questo o Rn . Dados vetores
u1 , . . . , uk Rn
vamos disp-los em linhas, em vez de colunas, obtendo assim uma matriz k n, qual
podemos aplicar a eliminao gaussiana. Supondo que o piv da primeira linha no nulo,
o primeiro passo da eliminao nos d

u1 u1
u2 u2 u1

(49) ..

.. .. ..

.. ..
. . . . . .

uk uk
para algum R. Portanto, de acordo com o lema 2.1
hu1 , u2 , . . . , uk i = hu1 , u2 u1 , . . . , uk i.
Mas, continuando com o processo de eliminao, temos uma sucesso de passos anlogos
a este, a cada um dos quais o lema pode ser aplicado. Portanto, se w1 , . . . , wk so as linhas
da matriz triangular obtida ao final da eliminao, podemos afirmar que
hu1 , u2 . . . , uk i = hw1 , w2 , . . . , wk i.

Por exemplo, se
u1 = (1, 2, 0, 4, 1), u2 = (0, 1, 0, 3, 1), u3 = (1, 1, 1, 1, 1) e u4 = (2, 4, 1, 8, 3),
ento, aplicando eliminao gaussiana matriz

1 2 0 4 1

0 1 0 3 1

1 1 1 1 1

2 4 1 8 3
144 4. CONCEITOS BSICOS

cujas linhas so os vetores u1 , . . . , u4 , obtemos



1 2 0 4 1

0 1 0 3 1
.
0 0 1 0 1

0 0 0 0 0
Mas, segundo nossa discusso anterior,
hu1 , u2 , u3 , u4 i = hw1 , w2 , w3 i,
em que
w1 = u1 = (1, 2, 0, 4, 1), w2 = u2 = (0, 1, 0, 3, 1) e w3 = (0, 0, 1, 0, 1).
Como a ltima linha da matriz escada corresponde ao vetor nulo, no h necessidade de
escrev-la no conjunto final de geradores.
Mas, pensando bem, o que significa dizer que uma linha da matriz se anulou ao final
da eliminao? Para comear, lembre-se que cada ui pode ser escrito como combinao
linear de u1 , . . . , uk , bastando, para isto, tomar os coeficientes de cada uj como sendo zero
se j 6= i e um quando j = i. Isto significa que
ui hu1 , u2 . . . , uk i
para todo 1 i k. Em particular, no caso do exemplo numrico que estamos conside-
rando,
(50) u4 hu1 , u2 , u3 , u4 i = hw1 , w2 , w3 i.
O que, a bem da verdade, ainda no responde nossa pergunta, embora estamos mais perto
disto do que possa parecer.
Para o prximo passo precisamos observar o comportamento da eliminao gaussiana
mais de perto. Supondo que se trata de eliminao sem pivoteamento, vemos de (49) que,
para obter w2 basta somar a u2 mltiplos de u1 . Assim, pelo lema 2.1,
hu1 , u2 i = hw1 , w2 i.
Passando etapa seguinte, vemos que w3 obtido somando-se a u3 mltiplos de u1 (para
eliminar a primeira entrada) e de w2 (para eliminar a segunda entrada). Levando em conta
que w1 e w2 no so modificados nesta etapa, podemos concluir que
hu1 , u2 , u3 i = hw1 , w2 , w3 i.
Combinando isto a (50),
u4 hw1 , w2 , w3 i = hu1 , u2 , u3 i;
o que mostra que u4 combinao linear de u1 , u2 , u3 .
2. BASES 145

Este argumento se generaliza facilmente a quantos sejam os vetores que escolhermos


em Rn , desde que sua quantidade seja finita. Mais precisamente, suponhamos que
C = {u1 , . . . , uk } Rn .
Dispomos os vetores como linhas em uma matriz e aplicamos eliminao gaussiana, ob-
tendo uma matriz cujas linhas no nulas correspondem aos vetores
w1 , . . . , wm Rn ,
em que m k. Supondo que no houve pivoteamento durante a eliminao, podemos
concluir que
hu1 , . . . , uj i = hw1 , . . . , wj i,
para cada 1 j k, desde que wj = 0 se m + 1 j k. Mas wm+1 = 0 implica que
um+1 hw1 , . . . , wm i = hu1 , . . . , um i,
de modo que este vetor e todos os demais, cujas linhas na matriz escada so nulas, so
linearmente dependentes dos m primeiros vetores de C.
No h nenhuma razo para esperar que sempre seja possvel aplicar eliminao gaus-
siana sem pivoteamento em problemas como este. Entretanto, se houver troca de linhas
teremos que descobrir quais vetores foram trocados de lugar para podermos enunciar uma
concluso semelhante anterior. Por sorte, raramente necessrio aplicar o mtodo des-
crito acima para identificar se um dado vetor depende de outros, porque ele tem outra
aplicao muito mais importante, que se sobrepe a esta.

2.3. Bases. Observe que os subconjuntos finitos de V em relao aos quais definimos
as noes de dependncia e independncia linear no precisam ser conjuntos de gerado-
res. Quando um conjunto linearmente independente tambm um conjunto de geradores,
dizemos que uma base de V .
Considere, por exemplo, o subespao do R5 definido por
S = {(x, y, z, w, u) R5 | x + y z u = 0}.
Como u = x + y z, os vetores de S so da forma
(x, y, z, w, u) = (x, y, z, w, x + y z);
que podemos reescrever como
(51) (x, y, z, w, u) = x(1, 0, 0, 01) + y(0, 1, 0, 0, 1) + z(0, 0, 1, 0, 1) + w(0, 0, 0, 1, 0).
Esta equao mostra duas coisas. A primeira, e mais bvia, que todo vetor de S pode ser
escrito como combinao linear dos vetores
[1, 0, 0, 0, 1]t , [0, 1, 0, 0, 1]t , [0, 0, 1, 0, 1]t , [0, 0, 0, 1, 0]t ;
146 4. CONCEITOS BSICOS

de modo que o conjunto F formado por estes quatro vetores gera todo o subespao S. A
outra coisa que F linearmente independente, porque
x[1, 0, 0, 01]t + y[0, 1, 0, 0, 1]t + z[0, 0, 1, 0, 1]t + w[0, 0, 0, 1, 0]t = [0, 0, 0, 0, 0]t ,
equivale a dizer que
[x, y, z, w, x + y z]t = [0, 0, 0, 0, 0]t ;
de modo que x = y = z = w = 0. Isto , a nica combinao linear dos vetores de F que
d zero aquela cujos coeficientes so todos nulos. Provamos, assim, que F uma base
de S.
Para um outro exemplo, com um sabor diferente, considere o subespao W de R4
gerado pelos vetores
u1 = (1, 2, 0, 4, 1), u2 = (0, 1, 0, 3, 1), u3 = (1, 1, 1, 1, 1) e u4 = (2, 4, 1, 8, 3).
Vimos no artigo 1.2 que
hu1 , u2 , u3 , u4 i = hw1 , w2 , w3 i,
em que
w1 = (1, 2, 0, 4, 1), w2 = (0, 1, 0, 3, 1) e w3 = (0, 0, 1, 0, 1),
foram obtidos aplicando eliminao gaussiana matriz cujas linhas so os geradores do
subespao W . Se estes vetores forem linearmente independentes, teremos obtido uma
base de W , como queramos. Mas a matriz da qual os ws so linhas triangular superior.
Por isso, tomando uma combinao linear da forma
aw1 + bw2 + cw3 = 0,
teremos necessariamente que a primeira entrada da combinao linear um mltiplo de a,
a segunda uma combinao linear de a e b, e a terceira uma combinao de a, b e c. Neste
caso especfico,
a=0
2a + b = 0
c=0
donde podemos concluir que a = b = c = 0; isto , os vetores w1 , w2 , w3 formam mesmo
uma base de W . Isto facilmente generalizado:

se os vetores w1 , . . . , wk Rn so as linhas de uma matriz triangular


superior, ento tm que ser linearmente independentes.

A importncia de ter um conjunto gerador que uma base esclarecida pelo seguinte
teorema.
T EOREMA 2.2. Todo vetor de V pode ser escrito, de uma nica maneira, como com-
binao linear dos vetores de uma base de V .
2. BASES 147

Antes de fazer a demonstrao, convm esclarecer o que significa de uma nica ma-
neira neste contexto. Seja, ento,
B = {u1 , . . . , un }
uma base de V ; uma e no a porque, como veremos, h infinitas bases possveis para
qualquer espao vetorial real. Imagine que dado um vetor v V . Como B uma base,
ser possvel escrever v como combinao linear dos vetores de B. Digamos que
v = a1 u1 + + an un
para alguma escolha de escalares a1 , . . . , an Rn . Segundo o teorema, sendo B uma
base, a1 , . . . , an a nica escolha de coeficientes para a qual uma combinao linear dos
vetores u1 , . . . , un igual v; qualquer outra escolha produzir um vetor diferente de v. Tendo
esclarecido este detalhe, podemos provar o teorema.

D EMONSTRAO . Suponhamos que duas pessoas diferentes escrevem um dado vetor


v V como combinao linear dos vetores de uma base
B = {u1 , . . . , un }
de V . Teremos assim que
v = a1 u1 + + an un
mas tambm que
v = b1 u1 + + bn un .
Subtraindo a segunda equao da primeira,
(a1 u1 + + an un ) (b1 u1 + + bn un ) = v v = 0;
que, pelas propriedades da soma e multiplicao por escalar em um espao vetorial nos d,
(a1 b1 )u1 + + (an bn )un = 0.
Contudo, como base, B tem que ser linearmente independente, de modo que todos os
coeficientes acima tm que ser nulos. Assim,
a1 b1 = = an bn = 0;
isto ,
aj = bj para todo 1 j n,
como queramos provar. 

Como, pelo teorema, cada vetor de V s pode ser escrito de uma nica maneira como
combinao linear dos elementos de uma base B, temos uma correspondncia bijetiva entre
os vetores de V e as n-uplas dos coeficientes de v, quando escrito na base B. Para tornar
esta afirmao mais clara, digamos que
B = {u1 , . . . , un }
148 4. CONCEITOS BSICOS

e que
v = a1 v1 + + an vn .
Denotando por (v)B a n-upla [a1 , . . . , an ]t , a correspondncia bijetiva a que nos referimos
se d entre v e (v)B . Note que (v)B , ele prprio, um vetor do espao Rn , conhecido como
o vetor de coordenadas de v relativamente base B. Um detalhe importante: a ordem
das entradas em (v)B = [a1 , . . . , an ]t depende da ordem dos vetores na base. Portanto,
deveramos descrever uma base como sendo uma lista (em que a ordem dos elementos
relevenate) e no um conjunto (em que a ordem dos elementos no relevante). No
faremos isto porque, apesar do que acabamos de dizer, voc dificilmente encontrar um
livro de lgebra linear em que bases so consideradas listas e no bases. Apesar disto,
nunca esquea que ao mudar a ordem dos elementos de uma base as coordenadas de um
dado vetor nesta base trocaro de posio.
Vejamos o que isto significa no exemplo anterior, em que o espao vetorial S e a base
F . De acordo com (51), as coordenadas do vetor v = [x, y, z, w, u]t relativamente base
F = {[1, 0, 0, 0, 1]t , [0, 1, 0, 0, 1]t , [0, 0, 1, 0, 1]t , [0, 0, 0, 1, 0]t };
so
(v)F = [x, y, z, w]t .
ao passo que as coordenadas do mesmo vetor relativamente a
F 0 = {[0, 0, 0, 1, 0]t , [0, 0, 1, 0, 1]t , [0, 1, 0, 0, 1]t , [1, 0, 0, 0, 1]t };
so
(v)F 0 = [w, z, y, x]t .
Uma segunda fonte potencial de confuso decorre de que v um vetor de R5 ao passo que
(v)F um vetor de R4 . A razo para esta discrepncia ficar mais clara quando tratarmos
da dimenso no artigo 2.4.

2.4. Dimenso. Como consequncia da definio, temos que uma base no pode estar
contida dentro de outra. A razo simples. Se B for uma base de um espao vetorial V ,
que est propriamente contida em um conjunto finito qualquer F V , ento existe um
vetor v F que no pertence a B. Mas todo vetor de V combinao linear dos elementos
de B, de modo que isto vale tambm para v. Como B F , conclumos que um elemento
de F combinao linear dos demais. Logo F linearmente dependente. Polindo um
pouco este argumento, provaremos que,

se F um subconjunto finito de V e w F combinao linear dos


demais elementos de F , ento
hF i = hF \ {w}i.
2. BASES 149

Isto , w redundante na gerao de hF i. Como


F \ {w} F ;
toda combinao linear dos elementos de F \ {w} tambm combinao dos elementos
de F ; de modo que
hF \ {w}i hF i.
Para provar a incluso oposta, observe que se v hF i, ento
v = v 0 + aw,
para algum v 0 hF \ {w}i e alguma constante a R. Como w combinao linear
dos elementos de F \ {w}, ento w pertence ao subespao hF \ {w}i, ao qual v 0 tambm
pertence. Portanto, v igual a soma de dois elementos de hF \ {w}i e, como tal, tem
que pertencer a este mesmo subespao. O prximo passo consiste em comparar duas bases
quaisquer, e d lugar a um dos resultados mais importantes deste curso.
T EOREMA DA DIMENSO . Duas bases quaisquer de um mesmo espao vetorial fini-
tamente gerado tm a mesma quantidade de elementos.

D EMONSTRAO . Sejam
B = {u1 , . . . , um }
uma base de V e
C = {w1 , . . . , wn }
um subconjunto qualquer de V que contm n > m elementos. Para provar o teorema basta
verificar que os vetores de C tm que ser linearmente dependentes. Entretanto, como B
base, cada elemento de C tem coordenadas
(wj )B = [a1,j , . . . , am,j ]t para 1 j n,
relativamente base B. Usando a notao introduzida no artigo 1.2, podemos escrever
(52) W = U A,
em que
U = [u1 , . . . , um ], W = [w1 , . . . , wn ]
e A a matriz cujas colunas so as coordenadas dos vetores w1 , . . . , wn relativamente
base B; isto ,
a1,1 a1,n
. .. ..
A= ..
. . .
am,1 a1,n
Como n > m, o sistema homogneo AX = 0 tem mais incgnitas do que equaes e tem
que ser indeterminado. Portanto, existe um vetor no nulo X0 Rn tal que AX0 = 0.
Segue, ento, de (52) que
W X0 = U AX0 = U (AX0 ) = 0,
150 4. CONCEITOS BSICOS

que equivale a dizer que os vetores de C so linearmente dependentes; veja pgina 142. 

Note que, a despeito do que diz o enunciado do teorema, o que provamos realmente foi
uma verso mais forte da afirmao feita bem no incio deste artigo:

se B uma base de V e F um conjunto que tem mais elementos que B


ento F tem que ser linearmente dependente.

A consequncia mais importante deste teorema que o nmero de elementos de uma base
um nmero inteiro que caracterstico do espao vetorial propriamento dito, uma vez que
independe da base escolhida. Este nmero conhecido como a dimenso do espao veto-
rial. Deste ponto at o final do artigo suporemos que V um espao vetorial finitamente
gerado e que B uma base de V . A dimenso de V ser denotada por dim(V ). Observe
que, como a base cannica do Rn tem n elementos, ento dim(Rn ) = n como, afinal, seria
de esperar. Algumas consequncias adicionais do teorema da dimenso so relacionamos
a seguir.
C OROLRIO 2.3. Se {0} =6 F V um conjunto finito e no vazio de vetores linear-
mente independentes de V ento

(a) |F | |B|;
(b) a dimenso de um subespao prprio de V sempre menor do que a dimenso
de V ;
(c) possvel acrescentar vetores a F de modo que o conjunto resultante seja uma
base de V .

D EMONSTRAO . (a) consequncia imediata da observao feita logo depois da


demonstrao do teorema da dimenso e (b) consequncia de (a). Para provar (c) suponha
que F um conjunto linearmente independente. Se todo elemento de V pode ser escrito
como combinao linear dos elementos de F ento F base e nada h a fazer. Caso
contrrio, existe um elemento u V que independente dos elementos de F . Mas isto
equivale a dizer que F {u} um conjunto linearmente independente de V . Renomeando
F como F {u}, repetimos o procedimento acima at que no que isto no seja mais
possvel; caso em que F uma base. A letra (a) garante que este procedimento tem que
parar em, no mximo, |B| 1 etapas. 

Para nosso ltimo corolrio, precisamos de uma definio. Seja S um subespao de V .


Diremos que um subespao S 0 de V um complementar de S em V se
V = S + S 0 e S S 0 = {0}.
Neste caso, escreveremos V = S S 0 e diremos que V a soma direta de S e S 0 .
C OROLRIO 2.4. Todo subespao vetorial de V admite um complementar.
2. BASES 151

D EMONSTRAO . Seja S um subespao de V e B uma base para S. Pelo corolrio 2.3


existe um conjunto finito B 0 de vetores tais que B B 0 uma base de V . Ento, S 0 = hB 0 i
um complementar de V . De fato, como S + S 0 gerado por B B 0 , que uma base de
V , temos que V = S + S 0 . Por outro lado, se
u S = hBi e w S 0 = hB 0 i,
forem iguais, ento 0 = u v uma combinao linear de vetores de B B 0 . Como esta
unio nos d uma base de V , todos os coeficientes desta combinao linear tm que ser
nulos, de modo que u = v = 0, como queramos mostrar. 

2.5. Teorema do ncleo e da imagem. Neste artigo provaremos um importante resul-


tado sobre tranformaes lineares que consequncia das propriedades da dimenso apre-
sentadas no artigo 2.4. Sejam V e W espaos vetoriais de dimenso finita e T : V W
uma transformao linear. Como vimos no artigo 1.3, podemos associar a T dois subes-
paos vetoriais: o ncleo, que um subespao de V , e a imagem, que um subespao de
W.
Como W tem dimenso finita e Im(T ) W , ento Im(T ) tem que ter dimenso finita.
Na verdade, dim( Im(T )) < dim(W ). Podemos, ento, nos perguntar como determinar
uma base de Im(T ). Contudo, j sabemos que se
B = {v1 , . . . , vn },
for uma base de V , ento,
T (B) = {T (v1 ), . . . , T (vn )}
um conjunto de geradores de Im(T ). O problema que T (B) no necessariamente
uma base de Im(T ). Por exemplo, se o contradomnio W de T tiver dimenso menor
que seu domnio V , ento a imagem de qualquer base de V ter mais elementos do que a
dimenso de W . Portanto, neste caso, a imagem de uma base no ser uma base. Contudo,
possvel, com o devido cuidado, escolher B de tal maneira que uma base de Im(T ) pode
ser facilmente lida a partir de T (B).
A construo que desejamos fazer tem por ponto de partida uma base do ncleo de
T . Segundo o corolrio 2.3, podemos acrescentar vetores linearmente independentes a
at obter uma base B de V , que podemos escrever como a unio de com um conjunto 0 ,
que contm os vetores que precisamos acrescentar a at que gere V . Em outras palavras,
0 gera um espao complementar do ncleo de T . Mas,
T (B) = T () T ( 0 ),
um conjunto de geradores para Im(T ). Contudo, T () = {0} porque os vetores de
pertencem ao ncleo de T , de modo que
T (B) = T ( 0 ) {0}.
152 4. CONCEITOS BSICOS

Isto , T ( 0 ) um conjunto de geradores para Im(T ). Provaremos que os vetores de T ( 0 )


so linearmente independentes, de modo que formam uma base para Im(T ). Se
0 = {w1 , . . . , wm },
ento
T ( 0 ) = {T (w1 ), . . . , T (wm )}.
Seja
a1 T (w1 ) + + am T (wm ) = 0.
Se T (w1 ), . . . , T (wm ) forem realmente linearmente independentes, ento devemos ser ca-
pazes de mostrar que os as tm que ser todos nulos. Contudo, da ltima equao segue,
pela linearidade de T , que
T (a1 w1 + + am wm ) = 0,
o que significa que a1 w1 + + am wm N (T ). Portanto,
a1 w1 + + am wm N (T ) h 0 i = {0},
j que h 0 i um espao complementar de N (T ). Mas isto implica que
a1 w 1 + + am w m = 0
e como os ws so linearmente independentes, podemos concluir que os as so todos
nulos, como queramos mostrar. Portanto,

se 0 for o conjunto de vetores acrescentados a uma base do ncleo de


T de modo a obter uma base de V , ento T ( 0 ) uma base da imagem
de T .

Por exemplo, o ncleo da transformao T : R4 R4 definida por T (x, y, z, w) =


(x + y, 0, 0, z) o conjunto dos vetores (x, y, z, w) para os quais
T (x, y, z, w) = (x + y, 0, 0, z) = (0, 0, 0, 0);
que corresponde a ter y = x e z = 0. Isto ,
N (T ) = {(x, x, 0, w) | x, w R}.
Como
(x, x, 0, w) = x(1, 1, 0, 0) + w(0, 0, 0, 1),
e os vetores (1, 1, 0, 0) e (0, 0, 0, 1) so linearmente independentes, ento
= {(1, 1, 0, 0), (0, 0, 0, 1)}
uma base de N (T ). Para complet-la, basta acrescentar dois vetores linearmente inde-
pendentes a estes dois. Digamos que escolhemos os vetores (0, 0, 1, 0) e (1, 0, 0, 0). Neste
caso,
0 = {(0, 0, 1, 0), (1, 0, 0, 0)}.
2. BASES 153

Portanto, o que provamos acima nos garante que


T ( 0 ) = {(0, 0, 0, 1), (1, 0, 0, 0)}
uma base de Im(T ), como fcil de verificar diretamente.
Resumindo, mostramos que se T : V V 0 uma transformao linear e se

uma base de N (T );
0 uma base de um complementar de N (T );

ento T ( 0 ) uma base de Im(T ). Em particular,


dim(N (T )) + dim( Im(T )) = || + | 0 | = | 0 |,
em que a ltima igualdade vem do fato de e 0 no terem elementos em comum, uma vez
que B formada por vetores linearmente independentes. Como B = 0 uma base de
V,
| 0 | = dim(V ).
Combinando tudo isto, provamos o seguinte resultado.
T EOREMA DO NCLEO E DA IMAGEM . Se T : V W uma transformao linear
entre espaos vetoriais reais de dimenso finita V e W , ento
dim(V ) = dim(N (T )) + dim( Im(T )).

Uma aplicao simples deste teorema est relacionada descrio de quando um ope-
rador linear T : Rn Rm injetivo, sobrejetivo ou bijetivo. Digamos que m < n. Neste
caso, o teorema nos diz que
n = dim(N (T )) + dim( Im(T )) dim(N (T )) + m;
donde
0 < n m dim(N (T ));
que implica que N (T ) 6= {0}. Lembrando que uma transformao linear injetiva se, e
somente se, seu ncleo zero, podemos concluir que, se m < n ento T no pode ser
injetiva. Por outro lado, se m > n ento
dim( Im(T )) = n dim(N (T )) n < m;
de modo que Im(T ) ( Rm . Mas isto significa que T no pode ser sobrejetiva. Reformu-
lando tudo isto de maneira mais positiva, podemos dizer que:

se T injetiva ento n m;
se T sobrejetiva ento n m;
se T bijetiva ento n = m.
154 4. CONCEITOS BSICOS

Note que a recproca de cada uma destas afirmaes falsa. Quando m = n o teorema do
ncleo e da imagem nos diz ainda que N (T ) = {0} se, e somente se, dim( Im(T )) = n.
Em outras palavras, se n = m ento as seguintes afirmaes so equivalentes:

T bijetiva;

T sobrejetiva;

T injetiva;

que tambm equivalente a dizer que T tem inversa.

2.6. Um espao de dimenso infinita. Encerramos esta seo provando, conforme


prometido na pgina 139, que o espao F das funes de R em R no finitamente gerado.
Para isto consideraremos o conjunto C cujos elementos so as funes fj : R R defini-
das por fj (x) = xj para cada j 0. Note que se trata de um conjunto infinito. Portanto,
se F fosse finitamente gerado, haveria um inteiro k > 0 para o qual

(53) fk = c0 f0 + + ck1 fk1 ,

em que c1 , . . . , ck R. Como fk no a funo constante, tem que existir algum j > 0


com cj 6= 0. Digamos que escolhemos o menor k > 0 para o qual esta propriedade vale.
Como
dfk
fk0 = = kxk1 = kfk1 ,
dx
ento, derivando (53), obtemos

kfk1 = c1 f0 + + (k 1)ck1 fk2 ,

donde
c1 (k 1)ck1
fk1 =f0 + + fk2 ,
k k
que contradiz a escolha de k como o menor valor para o qual uma tal relao satisfeita.
Em outras palavras, F no pode ser finitamente gerado.

3. Bases ortonormais

Nesta seo voltamos a discutir especificamente o espao Rn , no qual a existncia do


produto interno nos permite construir bases especiais, cujas propriedades facilitam muitos
dos clculos que precisaremos fazer no prximo captulo.
3. BASES ORTONORMAIS 155

3.1. Definio e exemplos. Nosso ponto de partida o fato, fcil de estabelecer, de


que qualquer conjunto de vetores no nulos, que sejam dois a dois ortogonais, tem que ser
linearmente independente. Mais precisamente, seja
C = {v1 , . . . , vn }
um conjunto de vetores no nulos de Rm , que satisfazem propriedade
hvi | vj i = vit vj = 0 toda vez que 1 i < j n.
Para provar que este conjunto linearmente independente, suporemos que
a1 v1 + + an vn = 0
e calcularemos o produto interno desta expresso com vi , para algum 1 i n. Isto nos
d,
0 = vit (a1 v1 + + an vn ) = a1 vit v1 + + an vit vn .
Mas, da ortogonalidade entre os vetores de C, obtemos
0 = ai vit vi ;
que, como vi 6= 0, implica que ai = 0. Como este argumento pode ser aplicado para
qualquer 1 i n, temos que todos os as so nulos; isto , C linearmente indepen-
dente. Portanto, se um subespao vetorial S de Rm admite um conjunto de geradores dois
a dois ortogonais, ento este conjunto tem que ser uma base de S, porque os vetores sero
automaticamente linearmente independentes.
Comearemos com uma definio que torna precisas as condies que desejamos que
estas bases satisfaam. Um base B de um subespao S do Rm ortonormal se seus vetores
so unitrios e dois a dois ortogonais. Note que exigir que os vetores sejam unitrios no
introduz nenhuma dificuldade adicional. Afinal, dada uma base cujos vetores so dois a
dois ortogonais, basta dividir cada vetor por sua norma para obter uma base ortonormal.
Chamamos isto de normalizar a base.
Se S tem dimenso dois, ento fcil construir uma base ortonormal. Digamos, por
exemplo, que S o plano do R4 definido pelas equaes x y + z = z w = 0. Ento
os vetores de S so da forma (y z, y, z, z). Logo, (1, 0, 1, 1) S. Para determinar um
vetor em S perpendicular a (1, 0, 1, 1) calculamos o produto interno

yz

y
z = 3z y
[1, 0, 1, 1]

z
e o igualamos a zero. Portanto, qualquer vetor da forma [2z, 3z, z, z]t ortogonal ao ve-
tor [1, 0, 1, 1]t . Tomando z = 1, temos que [2, 3, 1, 1]t e [1, 0, 1, 1]t so ortogonais.
156 4. CONCEITOS BSICOS

Dividindo estes vetores por suas respectivas normas, conclumos que


 
1 t 1 t
[1, 0, 1, 1] , [2, 3, 1, 1]
3 15
uma base ortonormal de S. Nossa meta nesta seo mostrar que qualquer subespao
de Rn admite uma base cujos vetores so dois a dois ortogonais. Antes, porm, vamos
apresentar uma caracterizao matricial das bases ortonormais.
Seja B = {v1 , . . . , vn } uma base de Rn e seja M a matriz cujas colunas so os vetores
de B; isto ,

| | |
M = v1 v2 vn .

| | |
Mas isto significa que

| | |
v1t . . .. ..
.. .. . .
v2t

t
M M = v1 v2 vn .

.. .. .. ..
. . . . ... ... .. ..
. .
vnt
| | |

cujo produto igual a



v1t v1 v1t v2 v1t vn
v2t v1 v2t v2 v2t vn


.. .. .. ..
.

. . . .
t t t
v2

vn1 v1 vn1 vn1 vn
t t
vn v1 vn v2 vnt vn
Contudo, se a base B for ortonormal,
(
0 se i 6= j
vit vj =
1 se i = j;

de modo que M t M igual matriz identidade, e vice-versa. Podemos enunciar o que


acabamos de fazer da seguinte maneira.

P ROPOSIO 3.1. Se M for a matriz cujas colunas so os elementos de uma base B


de Rn , ento B ortonormal se, e somente se, M uma matriz ortogonal.
3. BASES ORTONORMAIS 157

3.2. Projees. Com isto podemos voltar questo de como determinar uma base
ortonormal de um subespao S de Rn . Embora nosso objetivo seja descrever um algoritmo
capaz de construir uma tal base a partir de uma base B qualquer de S, comearemos
discutindo um problema mais simples.
Suponhamos que S seja um subespao de Rn e que v 6= 0 seja um vetor de Rn que
no pertence a S. Queremos construir, a partir de v, um vetor normal a S, que uma
maneira sucinta de dizer que este vetor deve ser normal a todos os elementos de S. Uma
figura simples sugere, que subtraindo de v sua projeo sobre S, deveramos obter um
vetor perpendicular a S. Mas como calcular esta projeo? primeira vista, os mtodos
utilizados para achar a matriz da projeo de um vetor sobre um hiperplano ajudam pouco,
porque requerem que conheamos o vetor normal ao hiperplano, que exatamente o que
queremos descobrir neste caso!
Contornamos o problema, partindo de uma base ortonormal
B = {u1 , . . . , uk }
do subespao S. Como P v S, podemos escrev-lo como combinao dos elementos de
B, na forma
P v = a1 u 1 + + ak u k .
Mas queremos que v P v e ui sejam perpendiculares, para todo 1 i k. Para isto,
devemos ter que
0 = uti (v P v) = uti (v (a1 u1 + + ak uk )) = uti v ai ;
pois os us so dois a dois ortogonais e tm comprimento um. Logo,
i i
!
X X
Pv = (uti v)ui = (ui uti ) v
i=1 i=1
o que torna fcil calcular o vetor v P v. Resumindo:

se u1 , . . . , uk so vetores unitrios dois a dois ortogonais e v no pertence


ao subespao hu1 , . . . , uk i, ento definindo
k
X
P = ui uti
i=1

temos que v P v perpendicular a hu1 , . . . , uk i.

Como ui uti a matriz de projeo sobre o vetor ui , podemos concluir que a matriz de P
dada acima a soma das projees sobre cada um dos vetores de ui . Mas isto, convenha-
mos, bastante razovel.
No prximo artigo usaremos esta ideia para construir, recursivamente, uma base orto-
normal de um subespao de Rn a partir de qualquer base dada para este subespao. Antes
158 4. CONCEITOS BSICOS

de encerrar, convm fazer um exemplo numrico de projeo. Digamos que queremos


projetar todo o R4 sobre o plano perpendicular s direes (1, 1, 0, 0) e (0, 1, 1, 0). Neste
caso,
S = h(1, 1, 0, 0), (0, 0, 1, 1)i
de modo que
S = h(1, 1, 0, 0), (0, 0, 1, 1)i
que tem base ortonormal
 
1 1
B = (1, 1, 0, 0), (0, 0, 1, 1) .
2 2
Um clculo simples mostra que a projeo

1 0
h i i
1 1 0 h
1 1 0 0 + 0 0 1 1
2 0
1



0 1
tem matriz
1 1 0 0

1
1 1 0 0
.
2
0 0 1 1

0 0 1 1

3.3. O algoritmo de Gram-Schimdt. Seja S um subespao de Rn do qual conhece-


mos a base
B = {v1 , . . . , vk }.
A base ortonormal B de S ser construda um vetor de cada vez. Denotaremos por Bi a

parte da base construda at a i-sima iterao do algoritmo. A base da construo recursiva

v1
B1 = {u1 } em que u1 = .
kv1 k
Para a passagem de Bi a Bi+1
usamos a construo do artigo anterior. Como
Bi = {u1 , . . . , ui }
conhecida, definimos ui+1 como sendo a normalizao do vetor
i
X
(utj vi+1 )uj .
j=1

Portanto, a base ortonormal de S ser Bk . Observe que esta construo implica que Bi
uma base ortonormal de
hv1 , . . . , vi i = Si .
3. BASES ORTONORMAIS 159

para todo 1 i k. Este procedimento conhecido como algoritmo de Gram-Schimdt.


Considere, por exemplo, o subespao de dimenso trs de R4 definido por
S = {(x, y, z, w) R4 | x y 2z w = 0}.
Os vetores de S so da forma
(x, y, z, w) = (y + 2z + w, y, z, w) = y(1, 1, 0, 0) + (2, 0, 1, 0) + w(1, 0, 0, 1)
Portanto,
B = {(1, 1, 0, 0), (2, 0, 1, 0), (1, 0, 0, 1)}
base de S. Usaremos B como ponto de partida para encontrar uma base ortonormal de
S, atravs do algoritmo de Gram-Schimdt. A inicializao requer que faamos
 
1
B1 = (1, 1, 0, 0) ,
2
que a normalizao do primeiro vetor de B. Para achar B2 , calculamos o produto interno

 
1 2
(2, 0, 1, 0), (1, 1, 0, 0) = = 2;
2 2

de modo que o segundo vetor de B2 ser a normalizao de

2
(2, 0, 1, 0) (1, 1, 0, 0) = (1, 1, 1, 0);
2
que igual a
1
(1, 1, 1, 0).
3
Portanto,  
1 1
B2 = (1, 1, 0, 0), (1, 1, 1, 0) ,
2 3
De modo semelhante, o ltimo vetor da base ortonormal obtido normalizando-se
1 1
(1, 0, 0, 1) (1, 1, 0, 0) (1, 1, 1, 0),
2 3
que nos d o vetor
1
(1, 1, 2, 6).
6
Portanto, a base ortonormal de S calculada a partir de B pelo algoritmo de Gram-Schimdt
ser  
1 1 1
B3 = (1, 1, 0, 0), (1, 1, 1, 0), (1, 1, 2, 6) .
2 3 42

3.4. O hipercubo de quatro dimenses. Nesta seo teremos uma descrio do hi-
percubo de quatro dimenses e de suas projees no plano.
160 4. CONCEITOS BSICOS

3.5. Gram-Schimdt em verso matricial. O algoritmo de Gram-Schimdt tem uma


importante interpretao matricial. Suponhamos que, aplicando este algoritmo a um con-
junto linearmente independente qualquer
B = {v1 , . . . , vm }
de Rn , obtemos uma base ortonormal
B = {u1 , . . . , um }.
Isto implica, por construo, que uj a normalizao do vetor wj definido recursivamente
por
j
X
w1 = v1 e wj = vj hvj , ui iui .
i=1
Escrevendo (
hvj , ui i se i 6= j;
Rij =
kwi k se i = j,
temos que
j
X
v1 = w1 e vj = wj + Rij ui ;
i=1
donde
j
X
v1 = R11 u1 e vj = Rjj uj + Rij ui ;
i=1
Portanto, se Q for a matriz cujas colunas so os vetores uj e R a matriz cujas entradas
so os Rij , ento podemos concluir das equaes acima que A = QR. Alm disso, as
colunas de Q formam uma base ortonormal de hBi e R uma matriz triangular superior,
pois Rij = 0 sempre que i > j.
Interpretando o exemplo acima de maneira matricial, podemos concluir que a matriz

1 2 1

1 0 0
A=
0 1 0

0 0 1
pode ser decomposta como produto de

1/ 2 1/ 3 1/ 42
2 2 1/ 2


1/ 2 1/ 3 1/ 42
(54) Q= por R = 0

3 1/ 3
0 1/ 3 2/ 42
0 0 42/6
0 0 6/ 42
3. BASES ORTONORMAIS 161

A decomposio QR nos d uma nova maneira de resolver um sistema AX = b, em que


A uma matriz quadrada. Calculando a decomposio QR de A, escrevemos QRX = b.
Como Q ortogonal, sua inversa igual a Qt . Multiplicando ambos os membros do sistema
por Qt , obtemos RX = Qt b. Como R triangular superior, este ltimo sistema pode ser
resolvido por substituio reversa.

3.6. O algoritmo de Householder. Neste artigo veremos como as reflexes de Hou-


seholder podem ser usadas para calcular a decomposio QR de uma matriz de maneira
mais eficiente que o algoritmo de Gram-Schimdt estudado no captulo anterior.
Como no caso do algoritmo de Gram-Schimdt, o algoritmo de Householder recursivo
e tem como ponto de partida os vetores que constituem as colunas da uma matriz A dada.
Se v1 a primeira coluna de A, ento, supondo que v1 6= 0, o algoritmo calcula uma
reflexo de Householder H1 associada a v1 ; de modo que
H(v1 ) = kv1 ke1 ,
em que e1 o primeiro vetor da base cannica de Rn . Portanto, multiplicando H1 por A
obteremos uma matriz cuja primeira coluna kv1 ke1 ; isto , H1 A ser igual a

kv1 k
0


(55) 0 .
.. .. .. .. ..

. . . . .
0
Por exemplo, seja

1 2 1

1 0 0
A=
0

1 0

0 0 1
a matriz cuja decomposio QR determinamos na pgina 160. Neste caso, a reflexo de
Householder H1 correspondente primeira coluna de A aquela que calculamos ao final
do artigo anterior. Efetuando o produto H1 A, obtemos

2
2 2
22
0 2 2

0 1 0

0 0 1
162 4. CONCEITOS BSICOS

O algoritmo continua recursivamente, aplicando a estratgia descrita acima matriz


A2:n,2:n . Note, porm, que a matriz da reflexo de Householder H2 , que reduz A2:n,2:n a
uma matriz da forma (55), tem tamanho (n 1) (n 1), de modo que no podemos
multiplicar H1 A por esta matriz. Resolvemos o problema construindo
" #
t
1 0
H
c2 = ,
0 H2
em que 0 denota o vetor nulo de n 1 entradas. Ao final da execuo desta segunda etapa,
temos que H
c2 H1 A igual a

kv1 k
0 kv2 k


0 0 .
.. .. .. .. ..

. . . . .
0 0

No exemplo, H2 determinado a partir da normalizao do vetor


 
3 + 2, 1, 0
e igual a
3

3

2 0
3
3
3 3
2 0 .

3 3
0 0 1
Portanto,
1 0 0 0
3
3

b 2 = 0 2 3 0

H
3
3
0
3
2 33 0
0 0 0 1
Efetuando o produto, obtemos

2
2 2
2
3

0 3
H
b 2 H1 A =
0 3
3
0 2 6
0 0 1

Naturalmente o algoritmo continua, multiplicando-se uma matriz H cj para cada coluna de


A, at que Hm H2 H1 = R, seja uma matriz triangular superior. No exemplo acima h
d c
3. BASES ORTONORMAIS 163

somente mais uma reflexo de Householder a aplicar, aquela determinada pelo vetor obtido
pela normalizao de
q
2 3 6 76
, 1 ,
6

a matriz H3
7 7
6
2 3 6 6

7
7
7 7 ,
6 2 3
7
6
6
7

de modo que H
b 3 d

1 0 0 0

0 1 0 0
7 7


.

2 3 6
0 0 6 6
7 7
7

7

6 2 3
0 0 7
6
6
7

Finalmente, o produto H b3Hb 2 H1 A tem como resultado a mesma matriz R obtida em (54),
exceto por uma linha extra de zeros ao final da matriz. De maneira semelhante, a transposta
de H
b3H b 2 H1 igual matriz Q de (54), exceto por uma coluna extra ao final. Na verdade,
como fcil de verificar, esta coluna extra foi construda de tal maneira que as colunas de
(H
b3Hb 2 H1 )t formam uma base ortonormal de R4 e no do espao gerado pelas colunas de
A. Em geral, se
Q0 = (H b 2 H1 )t e R0 = Q0 A,
bn . . . H
obtemos as matrizes Q e R tais que A = QR eliminando, respectivamente, as ltimas
n m colunas de Q0 e as ltimas n m linhas de R0 . Estas ltimas sero necessariamente
linhas nulas, pois o espao gerado pelas colunas de A tem dimenso m.

primeira vista, pode parecer que devamos guardar as matrizes H cj , uma a uma, para
poder multiplic-las. Mas isto no necessrio, porque no estamos interessados nestas
matrizes, mas sim no produto de todas elas, da mesma forma como, no mtodo LU, no
estvamos interessados nas matrizes elementares que foram utilizadas, mas sim na matriz
inversvel que resulta do produto de todas elas. Isto sugere que podemos copiar a estratgia
utilizada no clculo da matriz L no algoritmo de eliminao gaussiana. Isto , em vez de
multiplicar cada matriz de Householder apenas por A, multiplicamos estas matrizes por A
e pela matriz identidade de tamanho n n, e os resultados pelas matrizes de Householder
seguintes. Outra estratgia possvel, que tem a vantagem de ser muito econmica do ponto
de vista do uso de memria, guardar apenas os vetores unitrios utilizados para calcu-
lar as reflexes, e escrever uma funo capaz de construir Q a partir destes vetores pela
multiplicao das reflexes de Householder correspondentes a cada um deles.
164 4. CONCEITOS BSICOS

4. Transformaes lineares e bases

Chegou a hora de estender a uma base qualquer a construo da matriz de uma trans-
formao linear.

4.1. A matriz de uma transformao linear. Seja B = {u1 , . . . , un } uma base do


Rn e T um operador linear do Rn . Se v Rn , podemos escrev-lo na forma
(56) v = 1 u1 + + n un ,
em que os s so nmeros reais. Aplicando T a esta expresso, obtemos
(57) T (v) = 1 T (u1 ) + + n T (un ),
uma vez que T linear. Mas T (u1 ), . . . , T (un ) so vetores de Rn , de modo que tambm
podemos escrev-los como combinao linear dos elementos de B, digamos
T (uj ) = a1j u1 + + anj un para 1 j n.

Em vez de substituir estas expresses em (57), vamos introduzir uma definio que nos
permitir tornar mais clara a relao entre o que estamos fazendo e a matriz de uma trans-
formao relativamente base cannica. Como os coeficientes que definem um vetor de
Rn como combinao linear dos elementos de uma base so nicos, diremos que os esca-
lares 1 , . . . , n em (56) so as coordenadas de v relativamente base B e escreveremos
(v)B = [1 , . . . , n ]t .
Analogamente, os a1j , . . . , anj so as coordenadas de T (v) relativamente base B, de
modo que
(T uj )B = [a1j , . . . , anj ]t .
Esta notao nos permite reescrever (57) na forma
(58) (T v)B = 1 (T (u1 ))B + + n (T (un ))B ,
donde
a11 a1n a11 a1n 1
. . . .. .. .
. . . .
. 1 + + . n = .
(T v)B = . . ,
.
an1 ann an1 ann n
que a mesma expresso obtida no artigo 2.2, exceto que todas as coordenadas referem-se
agora base B e no base cannica. Escrevendo

a11 a1n
. ... ..
(T )B = ..
.

an1 ann
4. TRANSFORMAES LINEARES E BASES 165

podemos dizer que


(59) (T v)B = (T )B (v)B
que usaremos frequentemente neste captulo e no prximo.
Antes de passar adiante, h duas propriedades das coordenadas de um vetor relativa-
mente a uma base para a qual precisamos chamar sua ateno. Para isto fixaremos uma
base B de Rn . Dados dois vetores v, v 0 Rn e um escalar , temos que

(v)B + (v 0 )B = (v + v 0 )B ;
(v)B = (v)B .

Note que estas propriedades j foram usadas, implicitamente, quando escrevemos a equa-
o (58). As demonstraes seguem diretamente das definies. Por exemplo, se
(v)B = (a1 , . . . , an ) e (v 0 )B = (a01 , . . . , a0n )
ento, supondo que
B = {u1 , . . . , un },
temos, por definio que
v = a1 u1 + + an un e v 0 = a01 u1 + + a0n un ;
donde
v + v 0 = (a1 + a01 )u1 + + (an + a0n )un ,
que equivale a dizer que
(v + v 0 )B = (a1 + a01 , . . . , an + a0n ).
A outra igualdade provada de maneira anloga. Usaremos estas duas propriedades, de
agora em diante, sem nenhuma cerimnia.

4.2. Mudana de bases. Sejam B e B 0 duas bases de Rn . Nosso objetivo neste artigo
relacionar as coordenadas de um vetor v relativas a B s suas coordenadas relativas a B 0 .
Digamos que
B = {u1 , . . . , un }
Contudo, como
B 0 = {w1 , . . . , wn }
outra base de Rn , podemos escrever cada vetor de B como combinao linear dos vetores
de B 0 ; isto ,
uj = m1j w1 + + mnj wn
166 4. CONCEITOS BSICOS

para 1 j n. Em outras palavras,



m1j
.
(uj )B 0 = .
.
mnj

Considere, agora, um vetor qualquer v em Rn . Se


(v)B = (a1 , . . . , an ).
ento, por definio
v = a1 u1 + + an un ;
donde
(v)B 0 = a1 (u1 )B 0 + + an (un )B 0 .
Substituindo as expresses para as coordenadas dos vetores u relativamente base B 0 na
expresso acima, obemos

m11 m1n
.
.. + + an ... ;

(v)B 0 = a1

mn1 mnn
que pode ser reescrita como um produto de matrizes na forma

m11 m1n a1
. . .
(v)B 0 = . .. .. .
.
mn1 mnn an
Como
a1
.
(v)B = .
. ,
an
esta equao matricial equivale a
(60) (v)B 0 = M (v)B
em que
m11 m1n
. ... ..
M = .
. .

mn1 mnn
conhecida, por razes bvias, como a matriz de mudana de base de B para B 0 . Note
que
4. TRANSFORMAES LINEARES E BASES 167

as colunas de M so as coordenadas de cada um dos vetores de B relati-


vamente base B 0 .

Em particular, as colunas (e linhas) da matriz M so linearmente independentes, o que


significa que M inversvel. Assim, podemos deduzir da frmula (60) que
M 1 (v)B 0 = (v)B
de modo que a matriz que converte as coordenadas de um vetor escritas na base B 0 para
suas coordenadas na base B M 1 .
Voltando ao exemplo do final do artigo 4.3, as bases em questo so, a base cannica
e a base ortonormal
 
1 1
B = (1, 1, 0), (1, 1, 0), (0, 0, 1)
2 2
Portanto, a matriz que transforma coordenadas da base B para coordenadas na base
1
1 0
2 2
M = 12 12 0

0 0 1
cuja inversa corresponde matriz que muda coordenadas na base cannica para coordena-
das na base B. Por sorte, B uma base ortonormal, de modo que, como vimos no artigo
3.1, a inversa de M igual sua transposta, o que facilita enormemente os clculos.
Ainda que possa no parecer, o que fizemos basta para determinarmos a matriz de um
operador linear relativamente base cannica, quando conhecemos sua matriz relativa-
mente a qualquer outra base. Para isto, suponhamos que T um operador linear do Rn e
que B uma base deste espao. Se M for a matriz que muda coordenadas na base B em
coordenadas na base , ento
(v) = M (v)B que equivalente a M 1 (v) = (v)B .
Por outro lado, por (59),
(T v)B = (T )B (v)B .
Combinando estas frmulas, obtemos
(T v)B = (T )B M 1 (v) .
Analogamente,
(T v) = M (T v)B
de modo que
(T v) = M (T v)B = M (T )B M 1 (v) .
Mas, aplicando (59) quando a base ,
(T v) = (T ) (v) ;
168 4. CONCEITOS BSICOS

de modo que
(T ) (v) = M (T )B M 1 (v) .
Mas, multiplicando uma matriz A pelo vetor coluna ej obtemos a j-sima coluna de A, o
que nos permite concluir que
(T ) = M (T )B M 1 .
Obtivemos assim, uma frmula que nos permite transformar a matriz de uma transformao
escrita em qualquer base para a matriz da mesma transformao relativa base cannica.
Teremos muitas oportunidades de usar estas frmulas durante o curso, por isso convm
reescrev-las todas juntas. Para isto, sejam, B = {u1 , . . . , un } uma base, T um operador do
Rn e M a matriz que transforma coordenadas relativas base B em coordenadas relativas
base cannica. Em primeiro lugar, se v Rn , ento

as entradas de (v)B so os coeficientes da combinao linear que expressa v rela-


tivamente base B;
as colunas da matriz (T )B so os vetores (T (ui ))B ;
as colunas da matriz M so os vetores (ui ) .

Temos, assim, as seguintes frmulas

(T v)B = (T )B (v)B ;
(v) = M (v)B ;
(T ) = M (T )B M 1 .

As outras frmulas podem ser determinados a partir destas levando-se em conta que M 1
muda as coordenadas da base cannica para a base B.

4.3. Rotaes no espao. J sabemos que toda rotao do R3 admite um eixo e que
um vetor do plano normal ao eixo ser rodado em um outro vetor do mesmo plano. Mais
precisamente, se u for um vetor unitrio ao longo do eixo e for o ngulo de rotao,
teremos

(u) = u;
(w) e w formam um ngulo para todo vetor w perpendicular a u.

Para poder escrever a matriz de , determinaremos uma base ortonormal {w1 , w2 } do plano
W = hui . Como o ngulo entre dois vetores no muda quando ambos so rodados por
, podemos concluir que (w1 ) perpendicular a u, de modo que, ao escrev-lo como
combinao linear da base
 
u
B= , w1 , w2 ,
kuk
4. TRANSFORMAES LINEARES E BASES 169

obtemos
(w1 ) = h(w1 ), w1 iw1 + h(w1 ), w2 iw2 .
Para poder explicitar esta frmula basta calcular
h(w1 ), w1 i e h(w1 ), w2 i.
Como as rotaes tambm no alteram o comprimento dos vetores, temos que (w1 )
unitrio, de modo que os produtos internos acima so iguais aos cossenos dos ngulos
entre os vetores. Mas o ngulo entre w1 e (w1 ) pela definio da rotao, o que nos
permite concluir que
h(w1 ), w1 i = cos().
Por outro lado, como w2 ortogonal a w1 , o ngulo que forma com (w1 ) o que falta em
para complementar /2, donde
h(w1 ), w2 i = cos(/2 ) = sen().
Assim, as coordenadas de (w1 ) relativamente a B so
[0, cos(), sen()]t
Como w2 perpendicular a w1 , um argumento semelhante mostra que
[0, cos(/2 ), sen(/2 )]t = [0, sen(), cos()]t .
Portanto, a matriz de relativamente base B

1 0 0
()B = 0 cos() sen()

0 sen() cos()

Por exemplo, digamos que o eixo a reta de vetor diretor (1, 1, 0) e o ngulo de rotao
/3. Normalizando o vetor diretor do eixo, obtemos
1
u = (1, 1, 0)
2
de modo que podemos escolher
1
w1 = (1, 1, 0) e w2 = (0, 0, 1),
2
como uma base ortonormal do plano perpendicular ao eixo. Portanto, segundo o que aca-
bamos de ver, a matriz da rotao desejada relativamente base
 
1 1
B = (1, 1, 0), (1, 1, 0), (0, 0, 1)
2 2
170 4. CONCEITOS BSICOS

ser
1 0 0

0 1/2 3/2


0 3/2 1/2
em que o sentido da rotao
dado pela regra da mo direita. Isto , se o polegar aponta
na direo de (1, 1, 0)/ 2 ento a rotao acompanha o movimento da rotao da concha
formada pelos outros dedos.
O problema que o que gostaramos mesmo de ter a matriz desta rotao relativa-
mente base cannica, e no relativamente base B. Para resolver este problema, usare-
mos a frmula de mudana de base que aprendemos no artigo anterior, segundo a qual a
matriz desta rotao na base cannica
1 1
1 0 1 0 0 1 0
2
1 1
2 12 2
2 0 0 1/2 3/2 1 0


2 2 2

0 0 1 0 3/2 1/2 0 0 1
que igual a
3
4
14 24 3

24 3
1 3
4

4
2 3 2 3 1
4 4 2

4.4. Construindo transformaes lineares. Neste artigo veremos como construir al-
guns exemplos de transformaes lineares com propriedades especificadas. Suponha que
foram dados dois espaos vetoriais V e W e dois subespaos V 0 V e W 0 W . Come-
aremos desenvolvendo um mtodo para construir uma transformao linear T : V W
cujo ncleo V 0 e cuja imagem W 0 . Para comear, isto s possvel se
(61) dim(V ) = dim(V 0 ) + dim(W 0 ),
para que os dados sejam compatveis com o teorema do ncleo e da imagem. Supondo que
esta condio satisfeita, podemos escolher uma base B 0 de V 0 e, usando o corolrio 2.3,
acrescentar-lhe vetores de modo a obter uma base B de V . Neste caso
B = B 0 C,
em que C o conjunto que contm os vetores acrescentados a B 0 para completar a base.
Note que, combinando (61) a
|B| = dim(V ) = |B 0 | + |C| = dim(V 0 ) + |C|
podemos concluir que |C| = dim(W 0 ). Isto nos permite definir T enviando

todos os vetores de B 0 em zero;


cada vetor de C em um vetor de uma base de W 0 .
4. TRANSFORMAES LINEARES E BASES 171

Por exemplo, digamos que queremos construir um operador linear T do R4 cujo n-


cleo o plano S gerado pelos vetores [1, 1, 0, 0]t e [1, 0, 1, 1]t e cuja imagem o comple-
mento ortogonal deste plano. Para obter o complemento ortogonal, completamos a base
{(1, 1, 0, 0), (1, 0, 1, 1)} de S para a base
{[1, 1, 0, 0]t , [1, 0, 1, 1]t , [0, 0, 1, 0]t , [0, 0, 0, 1]t }
de R4 e aplicamos Gram-Schimdt, obtendo a base ortonormal formada pelos vetores
1 1 1
u1 = [1, 1, 0, 0]t , u2 = [1, 1, 2, 2]t , u3 = [1, 1, 3, 2]t
2 10 15
1
e u4 = [1, 1, 0, 1]t .
3
Como
hu1 , u2 i = h[1, 1, 0, 0]t , [1, 0, 1, 1]t i
temos que {u1 , u2 } base ortonormal de S e S gerado por hu3 , u4 i. Para definir a
transformao T pedida, basta tomar
T (u1 ) = 0 T (u3 ) = u3
T (u2 ) = 0 T (u4 ) = u4
que nos d a matriz
0 0 0 0

0 0 0 0
(T ) =
0
.
0 1 0

0 0 0 1
Como a matriz de mudana de base que transforma coordenadas na base em coordenadas
na base cannica
1 1 1 1
12 10 15 3
1 1 1

2 10 15 3
Q= 0 2 3 0
10 15
0 2 2 1
10 15 3
ortogonal, temos que
(T ) = Q(T ) Q1 = Q(T ) Qt
de modo que
2 2 1 1

1 2 2 1 1
(T ) =
5 1 1
3 2
1 1 2 3
172 4. CONCEITOS BSICOS

Outro problema que aparece frequentemente em questes prticas o seguinte:

dados dois subespaos U e W de um espao vetorial V , determinar um


isomorfismo de V nele prprio que leva U em W .

Note que este problema s tem soluo se U e W tiverem a mesma dimenso, porque um
isomorfismo preserva todas propriedades algbricas, como o caso da dimenso. Para
resolver o problema, escolhemos bases B 0 para U e B 00 para V e completamos ambas de
modo a obter bases B 0 C 0 e B 00 C 00 para V , em que
B 0 C 0 = B 00 C 00 = .
O isomorfismo desejado pode ser construdo levando-se os vetores de B 0 um a um nos
vetores de B 00 e fazendo o mesmo entre os vetores de C 0 e C 00 .
Considere, por exemplo, as retas
U = h1, 1, 1, i e W = h0, 1, 1i
de R3 . Como qualquer vetor na direo de (1, 1, 1) gera U , preferimos troc-lo por
1
(1, 1, 1)
3
na construo da base, porque isto nos permite acrescentar vetores de modo a obter uma
base ortonormal de R3 ; por exemplo,
 
0 1 1 1
B = (1, 1, 1), (0, 1, 1), (2, 1, 1) .
3 3 6
Procedendo de maneira semelhante para W , podemos escolher a base
 
00 1 1
B = (0, 1, 1), (1, 0, 0), (0, 1, 1) .
2 2
O isomorfismo fica ento definido por

(1, 1, 1)/ 3 = (0, 1, 1) 2

(0, 1, 1)/ 2 = (1, 0, 0)

(2, 1, 1)/ 6 = (0, 1, 1)/ 2
donde obtemos a matriz

0 1 0
1
()(B 0 C 0 ), = 1 0 1

2
1 0 1
Note que pusemos nas colunas as coordendas dos vetores de B 00 relativamente base can-
nica, razo pela qual obtivemos
()B 0 ,
4. TRANSFORMAES LINEARES E BASES 173

e no
()B 0 ,B 00
como talvez voc estivesse esperando. Para obter a matriz (), precisamos ainda inverter
a matriz
2 0 0
1
M= 2 3 1

6
2 3 1
para obter a mudana de coordenadas de para B 0 . Como a base ortonormal, a matriz M
ortogonal e sua inversa igual sua transposta, assim

0 6 6
1
(), = ()B 0 , M t = 2 6 6(2 + 2) 6(2 2)
12
2 6 6(2 2) 6(2 + 2)

Apesar de termos descrito a soluo geral do problema em termos de uma reta, nada
nos impede de considerar duas retas, em vez de uma, como origem e alvo da transformao.
Adaptando um pouco o problema acima, podemos perguntar qual o operador linear de
R3 que leva as retas
U1 = h[1, 1, 1]t i e U2 = h[0, 1, 0]t i,
respectivamente nas retas
W1 = h[0, 1, 1]t i e W2 = h[1, 0, 0]t i.
A primeira coisa a observar que os vetores que definem as retas no so perpendiculares.
Em particular, no podemos nos dar ao dierito de escolher bases ortonormais ao resolver
este problema. Mas a nica razo para escolher estas bases que simplificam as contas,
nada mais. Como os vetores diretores das retas na partida e na chegada no so colineares,
os conjuntos
{[1, 1, 1]t , [0, 1, 0]t } e {[0, 1, 1]t , [1, 0, 0]t }
so linearmente independentes e podemos complet-los a bases de R3 acrescentando um
vetor a cada um. Como [0, 0, 1]t independente de ambos os conjuntos, podemos acres-
cent-lo a ambos, obtendo as bases
B 0 = {[0, 1, 1]t , [1, 0, 0]t , [0, 0, 1]t } e B 00 = {[0, 1, 1]t , [1, 0, 0]t , [0, 0, 1]t }.
O isomorfismo fica ento definido por
(1, 1, 1) = [0, 1, 1]t
(0, 1, 0) = [1, 0, 1]t
(0, 0, 1) = [0, 0, 1]t
174 4. CONCEITOS BSICOS

donde obtemos a matriz


0 1 0
()B 0 , = 1 0 0

1 1 1
Para obter (), precisamos ainda inverter a matriz

1 0 0
M = 1 1 0 ,

1 0 1
que muda coordenadas de para B 0 j que, neste exemplo, ela no ortogonal. Um clculo
fcil mostra que
1 0 0
M = 1 1 0

1 0 1
donde
1 1 0
(), = 1 0 0

1 1 1
que a matriz da transformao desejada.

4.5. Isomorfismos. J sabemos do artigo 1.3 que uma transformao linear injetiva
se, e somente se, seu ncleo zero. Combinando isto ao que aprendemos no artigo anterior,
podemos concluir que as seguintes afirmaes sobre uma transformao linear T : V W
so equivalentes:

T injetiva;
o ncleo de T contm apenas o vetor nulo;
a imagem de uma base de V por T uma base da imagem de T .

Por outro lado, uma transformao cuja imagem igual ao seu contradomnio conhecida
como sobrejetiva. isto , a transformao linear T descrita acima sobrejetiva se, e so-
mente se, Im(T ) = W . Quando uma aplicao simultaneamente injetiva e sobrejetiva
dizemos que bijetiva. Segue do teorema do ncleo e da imagem que se uma transforma-
o linear for bijetiva ento seu domnio e seu contradomnio tm a mesma dimenso. Mas
podemos ir mais longe: uma transformao linear bijetiva tem que ter inversa, que tambm
, necessariamente, uma transformao linear.
Para provar isto, suponha que V e W so espaos vetoriais e que T : V W uma
transformao linear bijetiva. Dado um vetor w W , a sobrejetividade nos garante que
4. TRANSFORMAES LINEARES E BASES 175

existe v V tal que T v = w. Alm disso, pela injetividade de T , no pode existir um


segundo vetor em V com esta mesma propriedade. Podemos, assim, definir a aplicao
T 1 : W V
pela regra
T 1 w = v sempre que T v = w.
Resta-nos verificar que T 1 linear. Para isto, digamos que w, w0 W e vamos calcular
T 1 (w + w0 ). Mas, sabemos, pela sobrejetividade de T , que existem vetores v, v 0 V tais
que
(62) Tv = w e T v 0 = w0 .
Alm disso, pela linearidade de T ,
T (v + v 0 ) = T v + T v 0 = w + w0 .
Portanto, pela definio da inversa,
T 1 (w + w0 ) = v + v 0 .
Mas, apelando novamente para a definio de T 1 , podemos reescrever (62) na forma
T 1 (w) = v e T 1 (w0 ) = v 0 ;
de modo que
T 1 (w + w0 ) = v + v 0 = T 1 (w) + T 1 (w0 ).
Provando, assim, que T 1 preserva somas; a demonstrao de que tambm preserva o
produto por escalar fica por sua conta.
Como estamos usando matrizes para definir transformaes lineares em Rn , precisare-
mos relacionar a matriz de T 1 matriz de T . Para isto, suponhamos que A seja a matriz
n n que define o operador T de Rn . Se T for inversvel, ento T 1 tambm ser um
operador de Rn e, como tal, poder ser ser descrito por uma matriz n n, que chamaremos
de B. Escrevendo as gualdades
(T T 1 )(v) = v e (T 1 T )(v) = v;
em termos dessas matrizes, obtemos
(AB)v = A(Bv) = v e (BA)v = B(Av) = v
qualquer que seja o vetor v Rn . Como multiplicar uma matriz pelo vetor ei captura sua
i-sima coluna, estas equaes nos dizem que as i-simas colunas de AB e de BA so
ambas iguais a ei . Mas isto significa que AB = BA = I, a matriz identidade n n.
Portanto,

uma transformao T : Rn Rn inversvel se, e somente se, sua


matriz inversvel. Alm disso, a inversa da matriz de T define T 1 .
176 4. CONCEITOS BSICOS

A importncia da invertibilidade de uma transformao linear no deve ser subesti-


mada. Para explicar porque, definimos a seguinte terminologia: uma propriedade de um
dado espao vetorial algbrica se consequncia apenas da adio e da multiplicao
por escalar definidas neste espao. Uma transformao linear injetiva T : V W trans-
fere fielmente propriedades algbricas de V para Im(T ), porque a ausncia de ncleo
garante que nada destrudo na passagem de um espao para o outro. Se, alm disso,
T for sobrejetiva, podemos afirmar que tudo que vale em V tambm vale em W . Como
tais transformaes so inversveis, a recproca tambm verdadeira. Portanto, se existe
uma transformao linear bijetiva entre dois espaos vetoriais ento eles tm as mesmas
propriedades algbricas, ainda que seus elementos sejam construdos a partir de materiais
diferentes.
Com isto estamos prontos para enunciar e provar um resultado extremamente impor-
tante, que justifica formalmente porque perdemos muito pouco aos nos ater aos espaos
Rn ao longo de todo este livro. Antes, porm, introduziremos uma definio. Uma trans-
formao linear bijetiva entre dois espaos vetoriais conhecida como um isomorfismo
entre estes espaos. Quando existe um isomorfismo entre dois espaos vetoriais dizemos
que so isomorfos. Este termo tem origem no grego, em que pode ser decomposto como
iso + morfo, que significam, respectivamente, igual e forma. Esta terminologia justifi-
cada pela discusso acima, segundo a qual espaos isomorfos tm as mesmas propriedades
algbricas.

T EOREMA 4.1. Todo espao vetorial real de dimenso n isomorfo ao Rn .

D EMONSTRAO . Seja V um espao vetorial real de dimenso n. Isto significa, por


definio, que V admite uma base formada por n vetores, digamos

B = {v1 , . . . , vn }.

Defina, ento, a aplicao


: Rn V

pela regra
(a1 , . . . , an ) = a1 v1 + + an vn .

A verificao de que esta transformao linear imediata. Alm disso, ela tem que
ser injetora, uma vez que leva os elementos da base cannica de Rn nos vetores de B,
pois (ei ) = vi . Por outro lado, como B uma base de V , todos os vetores de V so
combinao linear dos vetores de B e, portanto, so imagem de algum vetor de Rn , o que
prova a sobrejetividade de . Logo, um isomorfismo entre V e Rn , pois bijetiva e
linear. 
EXERCCIOS 177

Exerccios
1. Seja V um espao vetorial e U e U 0 subespaos vetoriais de V . Prove que U U 0 s
pode ser um subespao de V se U U 0 ou U 0 U .

2. Seja V um espao vetorial e U e U 0 subespaos vetoriais de V . Prove que U + U 0 o


menor subespao que contm a unio U U 0 .

3. Quais dos subconjuntos abaixo so linearmente dependentes e quais so linearmente


independentes? Justifique a sua resposta.
(a) {[1, 0, 1]t , [1, 3, 2]t , [1, 1, 1]t } em R3 ;
(b) {[1, 0, 1, 1]t , [1, 1, 0, 1]t , [0, 1, 1, 2]t , [0, 2, 2, 4]t } em R4 ;
(c) {[1, 1, 1]t , [2, 3, 1]t , [3, 1, 5]t } em R3 ;
(d) {[3, 1, 2, 3]t , [2, 1, 3, 2]t , [1, 3, 2, 1]t } em R4 ;
(e) {[1, 2, 3]t , [5, 6, 7]t , [8, 1, 2]t , [1, 0, 1]t } em R3 ;
(f) {[1, 0, 0, 0]t , [1, 1, 0, 0]t , [1, 1, 1, 0]t , [1, 1, 1, 1]t } em R4 ;
(g) {[1, 0, 0, 0]t , [1, 1, 1, 1]t , [1, 3, 4, 1]t , [6, 4, 5, 2]t } em R3 .

4. Quais dos subconjuntos abaixo so linearmente dependentes e quais so linearmente


independentes? No caso daqueles que so linearmente dependentes, escreva cada um
dos vetores do conjunto quando possvel, como combinao linear dos demais.
(a) {[1, 2, 3, 1]t , [2, 0, 4, 1]t , [5, 4, 14, 3]t } em R4 ;
(b) {[2, 1, 2, 1]t , [6, 3, 6, 3]t , [5, 1, 4, 3]t } em R4 ;
(c) {[1, 1, 0]t , [1, 0, 1]t , [0, 1, 1]t } em R3 ;
(d) {[1, 0, 0, 1]t , [1, 1, 0, 1]t , [1, 1, 1, 1]t , [1, 0, 1, 1]t , [1, 0, 1, 0]t } em R4 .

5. Seja V um espao vetorial real e u, v, w V . Sabendo-se que estes vetores so linear-


mente independentes, determine se o mesmo ocorre com os seguintes vetores:
(a) u + v, v + w e u + w;
(b) u v, v w e w u.

6. Calcule a base e a dimenso de cada um dos seguintes subespaos:


(a) h[1, 2, 3]t , [1, 1, 1]t , [1, 0, 1]t , [1, 4, , 7]t i em R3 ;
(b) h[1, 1, 0, 2]t , [3, 5, 2, 4]t , [5, 3, 2, 0]t i em R4 ;
(c) h[1, 1, 2, 3, 6]t , [1, 2, 3, 1, 6]t , [1, 0, 1, 0, 9]t i em R3 ;
(d) {[x, y, z]t R3 | x + y 2z = 0} em R3 ;
(e) {[x, y, z]t R3 | x y + z = y z = 0} em R3 ;
(f) {[x, y, z, w]t R4 | x + z = y w = 0} em R3 ;
(g) {[x, y, z, w]t R4 | x + y z = x y + z w = x z + w = 0} em R3 ;
(h) {[x, y, z, w]t R4 | x + y + z + w = 0} em R3 .

7. Determine uma base e a dimenso da imagem e do ncleo de cada uma das transfor-
maes lineares dadas abaixo:
(a) T : R4 R3 definida por T (x, y, z, w) = [x y + z w, x + y, 3z 3w]t ;
178 4. CONCEITOS BSICOS

(b) T : R3 R4 definida por T (x, y, z) = [x + y z, x y 3z, x 2z, y + z]t ;


(c) T : R4 R4 definida por T (x, y, z, w) = [x + y, x, x + y, x + y]t ;
(d) T : R2 R3 definida por T (x, y) = [x y, x + y, x + y]t ;
(e) T : R4 R4 definida por T (x, y, z, w) = [x y, z w, x y, z + w]t .

8. Determine o ncleo e a imagem de uma rotao e de uma reflexo no plano.

9. Seja V um espao vetorial e {v1 , . . . , vn } V . Considere o conjunto


S = {v1 v2 , v1 v3 , . . . , v1 vn }.
Quais das seguintes afirmaes so verdadeiras:
(a) o conjunto S linearmente independente;
(b) S um conjunto de geradores de V ;
(c) S uma base de V .

10. Mostre que os subespaos de R4 definidos abaixo so iguais:


U = h[1, 1, 3]t , [3, 2, 8]t , [2, 1, 3]t i;
U 0 = h[1, 1, 1]t , [2, 3, 1]t , [3, 1, 5]t i.

11. Calcule uma base e a dimenso do conjunto soluo sistema linear




x + 2y z + w t =0
x 2z w + t


=0
y+z+wt =0




2x 6y 7z 8w + 8t = 0
3x + 7y 2z + 4w 4t = 0.

12. Complete cada um dos seguintes conjuntos para uma base de R4 :


(a) {[2, 1, 4, 3]t , [2, 1, 2, 0]t };
(b) {[0, 1, 2, 3]t , [1, 2, 3, 4]t , [0, 0, 0, 1]t };
(c) {[0, 2, 1, 0]t , [0, 1, 2, 0]t };
(d) {[1, 2, 3, 4]t , [4, 3, 2, 1]t };

13. Considere os seguintes subespaos de R4 :


U = {[x, y, z, w]t R4 | x + z = y w = 0};
W = {[x, y, z, w]t R4 | x w = 0}.
Determine:
(a) bases para U e W ;
(b) as dimenses de U e W ;
(c) uma base de R4 que contenha uma base de U ;
(d) uma base de U + W e sua dimenso;
EXERCCIOS 179

(e) uma base de U W e sua dimenso;


(f) um subespao U 0 tal que U + U 0 = R4 .

14. Considere os seguintes subespaos de R4 :


U = h[1, 0, 1, 1]t , [1, 1, 1, 1]t , [0, 1, 0, 0]t i;
W = {[x, y, z, w]t R4 | x y + z w = 0}.
Determine:
(a) bases para U e W ;
(b) as dimenses de U e W ;
(c) um sistema homogneo cujo conjunto soluo U ;
(d) uma base de U + W e sua dimenso;
(e) uma base de U W e sua dimenso;
15. Considere os seguintes subespaos de R4 :
U = {[x, y, z, w]t R4 | x y + z = x + y z + w = 0};
W = {[x, y, z, w]t R4 | y + z w = x + ky w = 0}.
(a) Determine os valores reais de k para os quais dim[U W ]t = 1.
(b) Determine os valores reais de k para os quais dim[U + W ]t = 3.

16. Ache uma base para U W sabendo-se que U e W so os seguintes subespaos de R4 :


U = h[4, 3, 2, 0]t , [7, 0, 5, 3]t i;
W = h[2, 5, 3, 1]t , [5, 2, 6, 4]t , [7, 7, 9, 5]t i;

17. Sejam U e W subespaos vetoriais de um espao vetorial de dimenso 10 de dimenses


8 e 9, respectivamente. S h dois valores possveis para a dimenso de U W . Quais
so estes valores?

18. Sejam U e W subespaos de um espao vetorial V . Sabendo-se que U no est contido


em W , nem W est contido em U , prove que existe um vetor de U + W que no est
em U nem em W .

19. O operador linear T de R3 definido por


T (x, y, z) = [3x, x y, 2x + y z]t
inversvel? Em caso afirmativo, determine T 1 (x, y, z).

20. Use o mtodo de Gram-Schimdt para achar bases ortonormais para os subespaos da-
dos abaixo:
(a) h[1, 2, 1]t , [2, 1, 1]t i R3 ;
(b) h[1, 1, 0, 1]t , [1, 0, 1, 1]t i R4 ;
(c) h[1, 1, 0, 1]t , [1, 0, 1, 1]t , [1, 1, 1, 0]t i R4 .
180 4. CONCEITOS BSICOS

21. Seja S um subespao vetorial de Rn e considere o conjunto S dos vetores que so


ortogonais a todos os vetores de S; isto ,
S = {v Rn | v t u = 0 para todo u S};
(a) Prove que S um subespao de V .
(b) Prove que S S = {0}.
(c) Prove que S um subespao complementar de S.
(d) Calcule dim[S ]t em funo de dim[S]t .

22. Determine os complementos ortogonais de cada um dos espaos do exerccio 20.

23. Determine o complemento ortogonal do subespao de R3 definido por


{[x, y, z]t R3 | x + 2y + z = 0}.

24. Determine o complemento ortogonal do subsespao do R3 gerado por [1, 0, 0]t , [0, 1, 1]t
e [1, 1, 1]t .

25. Seja V um espao vetorial real e B = {u, v, w} uma base de V . Determine a matriz
de mudana de base entre B e as bases dadas abaixo:
(a) {u + v, v + w, u + w};
(b) {u v, v w, w u}.

26. Sejam B1 e B2 bases do Rn e denote, respectivamente, por M1 e M2 as matrizes que


mudam coordenadas nas bases B1 e B2 em coordenadas na base cannica. Mostre
que: a matriz que muda coordenadas na base B1 em coordenadas na base B2 igual a
M2 M11 ;

27. Sejam B1 e B2 bases, respectivamente, do Rm e do Rn . Mostre que se T uma


transformao linear de Rm em Rn , ento a j-sima coluna da matriz (T )B1 B2 definida
por
(T )B1 B2 (v)B1 = (T v)B2
igual (T vj )B2 , em que vj o j-simo vetor da base B1 .

28. Sejam B1 e B2 bases, respectivamente, do Rm e do Rn e denote por M1 e M2 as


matrizes que mudam coordenadas nas bases B1 e B2 em coordenadas na base cannica.
Mostre que se T uma transformao linear de Rm em Rn , ento matriz (T )B1 B2
definida no exerccio anterior satisfaz
M2 (T )B1 B2 M11 = (T ) .

29. Considere as seguintes bases de R2 :


B1 = {[1, 1]t , [1, 1]t } e B2 = {[2, 1]t , [1, 2]t },
alm da base cannica . Determine:
EXERCCIOS 181

(a) as coordenadas de (2, 3) em relao base B1 ;


(b) as matrizes de mudana de base (I)B1 , (I)B1 , (I)B2 e (I)B2 B1 ;
(c) as coordenadas do vetor (v)B2 = (0, 2) relativamente s bases e B1 .

30. Seja B1 = {[1, 3]t , [2, 4]t }. Determine B2 , sabendo-se que uma base de R2 e que a
matriz de mudana de base
" #
7 6
(I)B1 B2 =
11 8
.

31. Calcule a inversa de cada um dos seguintes operadores lineares (quando existirem):
(a) T1 (x, y, z) = [2x + 5y z, 4x y + 2z, 6x + 4y]t ;
(b) T2 (x, y, z) = [x + y z, 3x + y + z, 3x y + z]t ;
(c) T3 (x, y, z) = [4x y + 3z, 3x 2y + 5z, 2x + 3y + 4z]t ;
(d) T4 (x, y, z) = [2x + y + 2z, 3x + y + 4z, x + y + z]t ;
(e) T5 (x, y, z, w) = [x + 3y + w, x + 2y + z + w, 2x + 4y + 2z + w, x + 2z]t ;
(f) T6 (x, y, z, w) = [x + 2y 3z + 5w, y + 4z + 3w, z w, z]t ;

32. Seja    
1 1 1 1
B= , , ,
2 2 2 2
uma base de R2 e x0 e y 0 os eixos correspondentes aos vetores de B.
(a) Mostre que a matriz de mudana de base (I)B ortogonal.
(b) Determine o ngulo entre o primeiro vetor da base B e o vetor e1 = (1, 0).
(c) Esboce a posio dos eixos x0 e y 0 relativamente a x e y.
(d) Determine as equaes da reta x + y = 2 e da hiprbole xy = 2 na base B
(e) Determine a equao da parbola y 0 = (x0 )2 relativamente base cannica e esboce
seu grfico.

33. Seja B = {[1, 0, 1]t , [0, 1, 1]t , [1, 1, 1]t } uma base de R3 . Determine:
(a) as matrizes de mudana de base (I)B e (I)B ;
(b) a equao cartesiana, em relao s coordenadas na base B, do plano gerado pelos
vetores (1, 0, 1) e (0, 1, 1).

34. Seja B = {v1 , . . . , vn } uma base de Rn e considere o conjunto


B 0 = {v1 v2 , v1 v3 , . . . , v1 vn , v1 + v2 + + vn }.
(a) Mostre que B 0 tambm uma base de Rn .
(b) Calcule a matriz de mudana de base de B para B 0 .

35. Determine a matriz de cada um dos operadores lineares de R2 relacionados abaixo na


base cannica e na base B = {(1, 1), (1, 2)}:
(a) T (x, y) = [3x + 4y, 8x y]t ;
182 4. CONCEITOS BSICOS

(b) T (v1 ) = 3v1 + 8v2 e T (v2 ) = 9v1 6v2 ;


(c) T (v1 ) = v2 e T (v2 ) = v1 .

36. Considere a seguinte base de R3 :


B = {(1, 1, 1), (1, 1, 0), (1, 0, 1)}.
Para cada uma das transformaes lineares T dadas abaixo determine as matrizes
(T )B , (T )B , (T ) e (T )BB :
(a) T (x, y, z) = [2x + 3y, z, 7x z]t ;
(b) T (x, y, z) = [4x + 2y + 6z, y + z, 3x z]t ;
(c) T (v1 ) = v1 + 4v2 v3 , T (v2 ) = 2v1 v3 e T (v3 ) = 8v2 + 5v3 ;
(d) T (v1 v2 v3 ) = v1 + v2 , T (v2 + v3 ) = v3 e T (v3 ) = 8v2 + 5v3 ;
(e) T (v1 ) = (1, 2, 0), T (v2 ) = (1, 0, 1) e T (v3 ) = (1, 1, 1);
(f) T (1, 1, 1) = v1 + v2 , T (1, 1, 1) = v2 v3 e T (1, 0, 1) = v1 v3 ;
(g) T (v1 ) = 2v1 , T (v2 ) = 5v2 e T (v3 ) = 8v3 .

37. Seja T uma transformao linear de R3 em R2 que satisfaz


T (1, 0, 0) = [2, 0]t , T (0, 1, 0) = [1, 1]t e T (0, 0, 1) = [1, 1]t .
(a) Determine T (x, y, z).
(b) Encontre um vetor v R3 tal que T (v) = (3, 2).
(c) O vetor v encontrado em (b) nico? Justifique sua resposta.

38. Determine uma transformao linear T : R3 R2 que satisfaa


T (1, 2, 1) = [1, 0]t e T (2, 1, 4) = [0, 1]t .
Mostre que existem muitas transformaes lineares que satisfazem estas restries,
mas que para todas elas a imagem de [1, 1, 1]t a mesma. Justifique sua resposta.

39. Seja T : R3 R2 uma transformao linear para a qual


T (1, 1, 2) = [1, 1]t , T (0, 1, 0) = [0, 2]t e T (0, 1, 1) = [0, 0]t .
Determine:
(a) T (x, y, z);
(b) uma transformao linear S de R2 em R3 tal que S(1, 1) = [1, 1, 2]t e S(0, 2) =
[0, 1, 0]t ;
(c) a transformao composta S T .

40. O operador linear T de R3 definido por


T (x, y, z) = [3x, x y, 2x + y z]t
inversvel? Em caso afirmativo, calcule a matriz na base cannica de T 1 e determine
T 1 (x, y, z).
EXERCCIOS 183

41. Considere os operadores D(, ) e S() de R2 cujas matrizes relativas base cannica
so " # " #
0 1
D(, ) = e S() =
0 0 1
Prove que, dado um operador linear T de R2 , podemos determinar nmeros reais
, , e de modo que a matriz de T na base cannica pode ser escrita como um
produto D(, )S(), em que denota a rotao anti-horria de ngulo .

42. D exemplo de um operador linear T de R3 cuja imagem seja gerada por [1, 0, 1]t e
[1, 2, 2]t .

43. D exemplo de um operador linear T de R3 cujo ncleo seja a reta h[1, 1, 1]t i.

44. D exemplo de um operador linear T de R3 cujo ncleo seja gerado por [1, 1, 1]t e
cuja imagem seja gerada por [1, 0, 1]t e [1, 2, 2]t .

45. D exemplo de uma transformao linear T de R3 em R4 cuja imagem seja gerada por
[1, 2, 0, 4]t e [2, 0, 1, 3]t . Qual o ncleo do seu exemplo?

46. D exemplo uma transformao linear T de R3 em R4 cuja imagem seja gerada seja
o plano de equaes x y + z = y w = 0 e cujo ncleo seja a reta de equaes
x y + z = y z = 0.

47. D exemplo uma transformao linear T de R4 em R3 cuja imagem seja gerada seja
o plano de equao x y + z = 0 e cujo ncleo seja o plano gerador pelos vetores
[1, 0, 1, 1]t e [0, 1, 1, 1]t .

48. Para cada um dos itens abaixo, determine um operador linear injetivo de R3 que faz o
que se pede:
(a) leva a reta y 3x = z = 0 na reta y x = z = 0;
(b) leva o plano x + y z = 0 no plano z = 0;
(c) leva o plano x z = 0 no plano y = 0;
(d) leva o plano x + y + z = 0 na reta x y = z = 0;
(e) leva a reta y 3x = z = 0 no plano y x = 0.

49. D exemplo de uma transformao linear de R3 em R4 que aplica o plano x+y z = 0


no plano x y = z w = 0.

50. D exemplo de um operador linear injetivo de R3 que aplica o plano x y z = 0 no


plano 2x + y z = 0.
184 4. CONCEITOS BSICOS

51. Seja T um operador de R2 cuja imagem est contida em seu ncleo. Mostre que existe
uma base B de R2 relativamente qual a matriz de T da forma
" #
0
para algum nmero real .
0 0

52. Seja S o subsespao do R3 gerado pelos vetores [1, 0, 0]t , [0, 1, 1]t e [1, 1, 1]t .
(a) Determine o complemento ortogonal S de S.
(b) D exemplo de uma transformao linear T : R3 R3 que tem S como imagem
e S como ncleo.
53. Seja T a reflexo do R3 atravs do plano x + y = 0.
(a) Encontre uma base ortonormal B relativa qual T diagonal.
(b) Calcule a matriz de T na base cannica.
54. Seja P a projeo ortogonal do R3 sobre o plano 3x + y z = 0.
(a) Determine o ncleo e a imagem de P .
(b) Determine uma base ortonormal B relativa qual a matriz de P diag(1, 1, 0)t .
(c) Determine (P v)B para os vetores cujas coordenadas relativamente base cannica
so [1, 0, 0]t , [0, 1, 0]t e [1, 1, 0]t .
(d) Esboce o desenho, no plano 3x + y z = 0 da projeo do quadrado cujos vrtices
so A = [0, 0, 0]t , B = [1, 0, 0]t , C = [0, 1, 0]t e D = [1, 1, 0]t .
55. Seja P a projeo ortogonal do R3 ao longo do vetor v = [1, 1, 1]t .
(a) Determine o ncleo e a imagem de P .
(b) Determine uma base ortonormal B relativa qual a matriz de P diag(1, 1, 0).
(c) Determine (P v)B para os vetores cujas coordenadas relativamente base cannica
so (1, 0, 0]t , [0, 0, 1]t , [0, 1, 0]t , [0, 1, 1]t , [1, 0, 1]t , [1, 1, 0]t e [1, 1, 1]t .
(d) Esboce o desenho, no plano de projeo de P , do cubo cujos vrtices so os pontos
acima e a origem.
56. Seja P a projeo do R4 ao longo do vetor [1, 1, 1, 1]t . Determine as coordenadas de
[x, y, z, w]t numa base B relativamente qual a matriz de P diag(1, 1, 1, 0).
CAPTULO 5

Diagonalizao

chegada a hora de voltar a considerar autovalores e autovetores e mostrar porque so


to importantes. Com isto tambm poderemos resolver completamente a verso dinmica
do problema que consiste em achar uma distribuio estvel para uma populao sujeita
ao modelo de Leslie.

1. Operadores diagonalizveis

Nesta seo introduzimos as noes de autovalores e autovetores para operadores li-


neares de um espao vetorial de dimenso finita qualquer. Contudo, nossa motivao ser
muito diferente. No de uma distribuio estvel de populao que estamos atrs, mas
sim de uma base na qual a matriz de um operador seja diagonal.

1.1. Definies e primeiros exemplos. Seja T um operador linear definido em um


espao vetorial de dimenso finita V . Diremos que T diagonalizvel se existir uma base
B de V para a qual

1 0 0
0 2 0

(63) (T )B = .
.. . . .
..
. . . . .
0 0 n
uma matriz diagonal. Mas, pela definio da matriz de T na base B, isto equivale a dizer
que se
B = {v1 , . . . , vn },
ento
T (vj ) = j vj para todo 1 j n;
isto , j um autovalor de T associado ao autovetor vj . Em outras palavras:

um operador T de um espao vetorial V de dimenso finita diagonaliz-


vel se, e somente se, V admite uma base formada apenas por autovetores
de T .
185
186 5. DIAGONALIZAO

Observe que em (63) no estamos supondo que os s sejam todos distintos. Na verdade,
nada impede que sejam todos iguais, embora este caso seja de muito pouco interesse; veja
exerccio 1
Como no caso do Rn , calcularemos os autovalores e autovetores, recorrendo matriz
de T relativamente a alguma base de V . Que base escolhida no importa, porque, como
veremos, os autovalores e autovetores obtidos so independentes da base. Para tratar disto
de maneira mais precisa, seja T um operador de um espao vetorial V e seja uma base
qualquer de V . Ento, a equao T v = v, para algum 0 6= v V se traduz matricialmente
na forma
(T ) (v) = (v) ;
que equivalente a
(64) ((T ) I)(v) = 0,
em que I a matriz identidade de mesmo tamanho que (T ) . Naturalmente, estas matrizes
tero tamanho n n se n = dim(V ). Para que o sistema (64) tenha solues no nulas
preciso que
det((T ) I) = 0.
Assim, estamos de volta mesma situao com que j nos deparamos no caso do Rn :
deve ser raiz do polinmio caracterstico, que neste caso
p() = det((T ) I).
Uma vez que tenhamos encontrado uma raiz 0 de p(), podemos determinar os autoveto-
res a ela associados resolvendo o sistema
((T ) 0 I)X = 0.
O conjunto soluo deste sistema, isto , o conjunto dos autovetores associados a 0 aos
quais acrescentamos o zero, um subespao de V , o autoespao de T associado a 0 , que
denotaremos por V0 . Isto ,
V0 = {v V | T v = 0 v}.

Considere, por exemplo, o operador linear definido a partir da base = {u1 , u2 , u3 }


de um espao vetorial V por
T (u1 ) = 2u1 2u2 + u3
T (u2 ) = u1 + 3u2 u3
T (u3 ) = 2u2 4u2 + 3u3 .
A matriz desta transformao na base ser

2 2 1
(T ) = 1 3 1 .

2 4 3
1. OPERADORES DIAGONALIZVEIS 187

Calculando o polinmio caracterstico, obtemos



2 2 1
p() = det((T ) I) = det 1 3 1 = 3 + 82 13 + 6,

2 4 3
cujas razes so 1 e 6. Para determinar os autovetores associados ao autovalor 1, resolvemos
o sistema homogneo

1 2 1 x x 2y + z
0 = ((T ) I)X = 1 2 1 y = x 2y + z

2 4 2 z 2x 4y + 2z
cujas solues so dadas parametricamente por
z = x + 2y.
Contudo, neste exemplo, X = [x, y, z]t representa as coordenadas de um vetor na base .
Portanto, segundo a equao acima, os autovetores de T associados ao autovalor 1 podem
ser escritos na forma
xu1 + yu2 + (2y x)u3 = x(u1 u3 ) + y(u2 + 2u3 ).
Logo, o autoespao de T associado a 1
V1 = hu1 u3 , u2 + 2u3 i,
como estes dois vetores so independentes, eles formam uma base de V1 ; em particular, ve-
rificamos que dim(V1 ) = 2. Procedendo de maneira semelhante com respeito ao autovalor
6, obtemos
V6 = hu1 u2 + 2u3 i,
de modo que dim(V6 ) = 1. Entretanto, como fcil de mostrar,
u1 u3 , u2 + 2u3 e u1 u2 + 2u3
so linearmente independentes, de modo que formam uma base B de V . Como os trs
vetores de B so autovetores de T , podemos concluir que a matriz de T diagonal relati-
vamente a esta base; de fato,

1 0 0
(T )B = 0 1 0

0 0 6
Note que a ordem em que os autovalores so escritos na diagonal depende da ordem dos au-
tovetores na base B. Em nosso caso, os dois primeiros vetores so autovetores associados
a 1 e os outros dois so associados a 6.
188 5. DIAGONALIZAO

Antes que voc tire concluses apressadas sobre a diagonalizabilidade dos operadores
lineares, aqui vai um aviso: nem todo operador linear diagonalizvel. Por exemplo,
considere o operador do R2 cuja matriz na relativamente base cannica
" #
1 1
(T ) = .
0 1
Como o polinmio caracterstico desta matriz igual a
" #
1 1
det = (1 )2 ,
0 1
ento T tem 1 como seu nico autovalor. Os autovetores associados a este autovalor so
facilmente calculados resolvendo o sistema
" #" # " #
0 1 x 0
=
0 0 y 0
cujas solues so todas mltiplos de [1, 0]t . Portanto, T no admite dois autovetores
independentes, o que significa que no pode ser diagonalizado.

1.2. Independncia da base. Deparados com estas definies, e tendo em vista os


exemplos que acabamos de fazer, no podemos fugir pergunta: os autovalores e auto-
vetores dependem da escolha da base a partir da qual os clculos foram realizados? A
resposta no: os autovalores e autovetores dependem apenas de T e no da base. A de-
monstrao fcil e depende apenas da frmula de mudana de base. Se B e B 0 forem
bases de um espao vetorial V e T for um operador linear em V , ento
(T )B = M (T )B 0 M 1 ,
em que M a matriz que transforma as coordenadas de um vetor na base B 0 nas coorde-
nadas do mesmo vetor na base B. Mas,
(T )B I = M ((T )B 0 I)M 1
qualquer que seja o escalar . Portanto,
det((T )B I) = det(M ((T )B 0 I)M 1 ).
Como o determinante de um produto de matrizes igual ao produto dos determinantes
destas matrizes, temos que
det(M ((T )B 0 I)M 1 ) = det(M ) det((T )B 0 I) det(M 1 ).
A mesma propriedade implica que
det(M 1 ) = det(M )1 .
1. OPERADORES DIAGONALIZVEIS 189

Como os determinantes so nmeros, podemos cancelar det(M ) com det(M 1 ) na equa-


o anterior, obtendo
det(M ) det((T )B 0 I) det(M 1 ) = det((T )B 0 I).
Reunindo tudo isto, conclumos que
det((T )B I) = det(((T )B 0 I).
Mas isto significa que, quer calculemos a partir da base B, quer calculemos a partir da base
B 0 , obteremos o mesmo polinmio caracterstico para T . Portanto, os autovalores de T so
exatamente os mesmos no importa a base usada para calcul-los.
O comportamento dos autovetores mais sutil porque, ao contrrio dos autovalores,
que so escalares, eles so vetores e suas coordenadas necessariamente dependero da
base escolhida. Mas note a nfase: so as coordenadas destes vetores que dependem da
base e no os prprios vetores. Mais precisamente, usando a notao do pargrafo acima,
e supondo que 0 autovalor de T , temos que o conjunto soluo do sistema
((T )B 0 0 I)X = 0
o autoespao associado a 0 . Mais precisamente, digamos que
((T )B 0 0 I)(u)B 0 = 0
para alguma matriz coluna X0 . Como M a matriz que converte as coordenadas de um
vetor na base B 0 em suas coordenadas na base B, temos que
M ((T )B 0 0 I) M 1 M (u)B 0 = 0.
Observe que M 1 M = I pode ser introduzida sem alterar o valor final da frmula. Efetu-
ando a multiplicao de matrizes na equao acima
(65) (M (T )B 0 M 1 0 I) M (u)B 0 = 0.
Da formula de mudana de base,
M X0 = M (u)B 0 = (u)B ,
da qual tambm decorre que
M (T )B 0 M 1 = (T )B .
Substituindo estas duas ltimas frmulas em (65), conclumos que
((T )B 0 I)(u)B = 0
sempre que
((T )B 0 0 I)(u)B 0 = 0.
Portanto, ainda que as coordenadas possam ser diferentes em diferentes bases (o que seria
de esperar) o autovetor que estas coordenadas representam sempre o mesmo.
Finalmente, devemos considerar como definir de maneira puramente matricial o que
significa dizer que um operador diagonalizvel. Para isto, e mantendo ainda a notao
190 5. DIAGONALIZAO

acima, digamos que B uma base para a qual a matriz (T )B diagonal e B 0 uma base
qualquer de V . Ento,
M (T )B 0 M 1 = (T )B diagonal;
por isso, diremos que

uma matriz quadrada A diagonalizvel se existe uma matriz inversvel


M tal que M AM 1 uma matriz diagonal.

1.3. Uma proposio til. Para poder afirmar que o operador do ltimo exemplo do
artigo acima era diagonalizvel precisamos verificar (ainda que no tenhamos efetuado
os clculos) que os autovetores que determinamos eram linearmente independentes, do
contrrio no teramos uma base. A proposio que provaremos neste artigo significa que
nunca mais teremos que fazer isto.
P ROPOSIO 1.1. Autovetores associados a autovalores distintos tm que ser linear-
mente independentes.

Para provar isto, consideremos um operador linear T de um espao vetorial de di-


menso finita V . Sejam 1 , . . . , m autovalores distintos de T e v1 , . . . , vm autovetores
associados a cada um destes autovalores. Provaremos por induo em j que o conjunto
Cj = {v1 , . . . , vj }
linearmente independente. Como autovetores tm que ser no nulos, C1 = {v1 } tem que
ser linearmente independente, o que prova a base da induo. Suponha, agora, que Cj
linearmente independente. Usaremos isto para provar que Cj+1 tambm . Digamos que
(66) a1 v1 + + aj+1 vj+1 = 0.
Calculando a imagem deste vetor por T temos que
a1 T (v1 ) + + aj+1 T (wj+1 ) = 0.
Por outro lado, como vi autovetor associado a i ,
0 = a1 T (v1 ) + + aj+1 T (vj+1 ) = a1 1 v1 + + aj+1 j+1 vj+1 .
Logo,
0 = j+1 (a1 v1 + + aj+1 vj+1 ) (a1 1 v1 + + aj+1 j+1 wj+1 );
isto ,
a1 (j+1 1 )v1 + + aj (j+1 j )vj = 0.
Aplicando a hiptese de induo, podemos concluir que os coeficientes desta combinao
linear tm que ser nulos; donde
a1 (j+1 1 ) = = aj (j+1 j ) = 0.
1. OPERADORES DIAGONALIZVEIS 191

Como os s so todos distintos,


j+1 i 6= 0 para todo 1 i j.
Logo,
a1 = = aj = 0.
Substituindo isto em (66), resta apenas aj+1 vj+1 = 0. Como vj+1 6= 0, podemos concluir
que aj+1 = 0. Logo, v1 , v2 , . . . , vj+1 so linearmente independentes. O resultado desejado
segue pelo princpio de induo finita.
O seguinte corolrio a principal aplicao que faremos desta proposio.
C OROLRIO 1.2. Seja V um espao de dimenso n. Um operador de V que tem n
autovalores distintos tem que ser diagonalizvel.

Cada autovalor admite um autovetor associado, que a proposio garante serem line-
armente independentes. Temos, assim, n autovetores linearmente independentes em V , de
modo que T tem que ser diagonalizvel.

1.4. Um teorema sobre operadores diagonalizveis. H uma outra maneira de in-


terpretar a noo de operador diagonalizvel que convm mencionarmos.
P ROPOSIO 1.3. Um operador de um espao de dimenso finita V diagonalizvel
se, e somente se, a soma das dimenses dos seus autoespaos igual dimenso de V .

Para provar esta proposio, suponhamos que 1 , . . . , m sejam os autovalores de T .


Por definio T diagonalizvel se, e somente se, existe uma base B de V formada por
autovetores de T . Uma tal base pode ser decomposta como uma unio
B = B1 Bm
em que Bi est contida no autoespao Vi correspondente ao autovalor i . Logo,
(67) hBi i Vi .
Como
|B1 | + + |Bm | = dim(V ),
basta provar que
(68) hBi i = Vi ;
porque isto nos permite concluir que
|Bi | = dim(Vi ).
Mas, levando em conta (67), a igualdade (68) segue desde que possamos provar que todo
autovetor associado a i pode ser gerado por Bi . Seja v um autovetor associado a i .
Como ocorre com qualquer vetor de V , podemos escrever v como combinao linear dos
192 5. DIAGONALIZAO

vetores de B. Agrupando os termos correspondentes a autovetores de um mesmo autovalor,


obtemos
v = v1 + + vm
com vi hBi i. Pela Proposio 1.1, os vetores v1 , . . . , vm so linearmente independentes.
Como estamos supondo que vi autovetor associado a i ,
T v = i v.
Portanto,
T (v1 + + vm ) = i (v1 + + vm );
ao passo que, pela linearidade de T ,
T (v1 + + vm ) = T (v1 ) + + T (vm ) = 1 v1 + + m vm .
Logo,
(1 i )v1 + + (m i )vm = 0;
Mas, pela proposio 1.1, os vetores v1 , . . . , vm que forem no nulos sero linearmente
independentes. Portanto, para cada 1 j m, devemos ter que
i = j ou vj = 0.
Em outras palavras, v = vi hBi i como precisvamos mostrar.
At aqui provamos que se T diagonalizvel, ento a soma das dimenses dos seus
autoespaos igual dimenso de V . Reciprocamente, se
dim(V ) = dim(V1 ) + dim(Vm ),
precisamos mostrar que qualquer unio
B = B1 Bm
em que Bi base do autoespao Vi tem que ser uma base de V . Mas uma combinao
linear qualquer de elementos de B pode ser escrita na forma
a1 v1 + + am vm ,
em que cada vi combinao linear dos elementos de Bi . Porm, pela proposio 1.1, se
a1 v1 + + am vm = 0,
ento
aj = 0 ou vj = 0 para cada 1 j n.
Rearrumando os vetores de modo que aqueles cujos coeficientes so iguais a zero sejam
vk+1 , . . . , vm , podemos concluir que
v1 = = vk = 0.
Como cada Bi uma base, os coeficientes dos vetores de Bi na combinao linear que vi
tm que ser nulos. Portanto, B linearmente independente. Como |B| = dim(V ), segue
que B base de V como pretendamos provar.
2. OPERADORES AUTOADJUNTOS 193

2. Operadores autoadjuntos

Como vimos no artigo 6.1, nem todo operador de Rn diagonalizvel. Contudo, h


uma classe muito importante de operadores lineares do Rn que sempre so diagonalizveis:
os operadores autoadjuntos. Nesta seo discutiremos estes operadores e algumas de suas
aplicaes.

2.1. Definies e exemplos. Um operador T de Rn autoadjunto se


hT u, vi = hu, T vi , quaisquer que sejam os vetores u, v Rn .
Dito desta maneira, fica difcil identificar quais dos operadores que j conhecemos so
autoadjuntos. O que precisamos de uma traduo matricial da propriedade que define
esta classe de operadores. Digamos que A a matriz do operador T na base cannica.
Ento,
hT u, vi = (Au)t v = ut At v
ao passo que
hu, T vi = ut (Av).
Como T autoadjunto, teremos que
ut At v = ut (Av);
que s pode valer para toda escolha de u, v Rn se At = A. Portanto,

os operadores autoadjuntos so aqueles cuja matriz na base cannica


simtrica.

Uma afirmao anloga pode ser feita para a matriz do operador em qualquer base orto-
normal, como pode ser facilmente verificado por mudana de base.
De posse deste critrio, podemos afirmar que muitos dos operadores que j estuda-
mos so autoadjuntos, entre eles as projees e as reflexes. Outra classe importante de
operadores autoadjuntos est relacionada ao estudo das formas quadrticas, que o nome
pelo qual so conhecidos os polinmios homogneos de grau 2 em qualquer nmero de
variveis. Lembre-se que um polinmio homogneo de grau dois se todos os seus mon-
mios tm grau exatamente igual a dois. Por exemplo, a forma quadrtica geral em duas
variveis escreve-se como
a1 x2 + a2 xy + a3 y 2 ;
j em trs variveis, a forma quadrtica geral
a1 x2 + a2 xy + a3 y 2 + a4 xz + a5 yz + a6 z 2 ;
em que os as representam nmeros reais. A relao com lgebra linear ocorre porque qual-
quer forma quadrtica pode ser escrita como um produto de trs matrizes. Por exemplo,
194 5. DIAGONALIZAO

em duas variveis
" #" #
a 1 a 2 /2 x
a1 x2 + a2 xy + a3 y 2 = [x, y] ;
a2 /2 a3 y
ao passo que em trs variveis

a1 a2 /2 a4 /2 x
a1 x2 + a2 xy + a3 y 2 + a4 xz + a5 yz + a6 z 2 = [x, y, z] a2 /2 a3 a5 /2 y .

a4 /2 a5 /2 a6 z
Em geral, se q for uma forma quadrtica nas n variveis x1 , . . . , xn , ento
q = X t AX
em que X o vetor coluna cujas entradas so as variveis x1 , . . . , xn , e A a matriz cujas
entradas so
(
coeficiente de x2i em q se i = j
A(i, j) =
metade do coeficiente de xi xj em q se i 6= j.
Observe que, por construo, A sempre uma matriz simtrica, uma vez que xi xj = xj xi .

2.2. Uma propriedade dos operadores autoadjuntos. Neste artigo consideraremos


uma propriedade dos operadores autoadjuntos que ser utilizada para provar que estes ope-
radores sempre so diagonalizveis. A propriedade a seguinte:

as razes do polinmio caracterstico de um operador autoadjunto so


todas reais.

Para provar esta propriedade precisaremos aplicar a matrizes complexas um fato que
aprendemos no contexto de matrizes reais. Como a demonstrao exatamente a mesma
nos dois casos, tudo o que voc precisa fazer rel-la pensando que agora os coeficientes
so complexos. Seja A uma matriz n n real. O fato de que precisamos o seguinte:

se uma raiz complexa do polinmio caracterstico de A, ento existe


um vetor no nulo v, com coeficientes complexos, que satisfaz Av = v.

Em outras palavras, toda raiz do polinmio caracterstico de A um autovalor complexo de


A ao qual associamos um autovetor complexo. Antes de passar s contas convm lembrar
algumas propriedades do conjugado complexo. Sejam e nmeros complexos, ento

(1) = se, e somente se, for um nmero real;


(2) um nmero real no negativo;
(3) = 0 se e s se = 0;
(4) + = + ;
2. OPERADORES AUTOADJUNTOS 195

(5) = .

Suponhamos, ento, que uma raiz do polinmio caracterstico de A e que v 6= 0


um vetor complexo tal que Av = v. Provaremos que se A for simtrica, ento = ,
de modo que tem que ser um nmero real. Mas, tomando o conjugado de Av = v,
obtemos das propriedades acima que
Av = v;
em que v o vetor obtido tomando o conjugado de cada uma das entradas de v. Note que
A no foi alterada por conjugao porque seus coeficientes so reais. Desta equao segue
que
(69) v t Av = v t v.
Por outro lado, transpondo Av = v e lembrando que A simtrica, temos que
v t A = v t ;
donde
(70) v t Av = v t v.
Comparando (69) com (70), obtemos
(71) v t v = v t v.
A igualdade desejada segue se mostrarmos que v t v 6= 0. Contudo, se v = (a1 , . . . , an ),
ento
v t v = a1 a1 + + an an .
Mas, pelas propriedades (2) e (3) do conjugado complexo, este nmero s pode ser zero se
v = 0. Portanto, como v 6= 0, podemos cancelar v t v de (71) e concluir que igual a seu
conjugado, de modo que tem que ser um nmero real.

2.3. Diagonalizao de operadores autoadjuntos. Neste artigo provamos o seguinte


teorema.
T EOREMA 2.1. Todo operador autoadjunto diagonalizvel. Alm disso, a base de
autovetores sempre pode ser escolhida ortonormal.

A demonstrao fornece um algoritmo recursivo que poderia, em princpio, ser usado


para diagonalizar um operador autoadjunto. Para descrever este algoritmo partiremos da
matriz A que representa um dado operador autoadjunto T do Rn relativamente base can-
nica. Como mostramos no artigo anterior, T admite um autovalor real, que chamaremos
de , ao qual corresponde um autovetor u, que podemos supor ser unitrio. Completando
196 5. DIAGONALIZAO

u para obter uma base de Rn e aplicando Gram-Schimdt, obtemos uma base ortonormal B
de Rn cujo primeiro elemento u. Como T u = u, temos que

2 . . . n
0

1

QAQ = (T )B = ..
. C


0
em que os s so nmeros reais, C uma matriz real (n 1) (n 1) e Q a matriz
que muda coordenadas na base B em coordenadas na base . Contudo, como B uma
base ortonormal de Rn , a matriz Q ortogonal. Transpondo a equao acima e levando em
conta que Q ortogonal, obtemos

0 ... 0


t t 2

QA Q . .
.
. C t

n
Mas A simtrica, de modo que
QAt Qt = QAQt .
Igualando as matrizes correspondentes conclumos que os s so todos nulos e que C t =
C; donde
0 ... 0
0

t

QAQ = .. .
. C


0
Como C simtrica, podemos continuar recursivamente at diagonalizar T .

2.4. Identificao de cnicas. As curvas descritas por equaes de grau dois em duas
variveis so conhecidas como cnicas porque foram originalmente definidas a partir de
sees de um cone por um plano. Estas curvas tm quatro formas bsicas, cujas equaes
padro so dadas abaixo:

Parbola:
y 2 = ax2 ;
Elipse:
x2 y 2
+ 2 = 1;
a2 b
2. OPERADORES AUTOADJUNTOS 197

Hiprbole:
x2 y 2
2 = 1;
a2 b
em que a, b R. Desde Fermat e Descartes no sculo XVII, sabemos que o conjunto dos
pontos do plano que satisfazem uma equao qualquer de grau dois tem que ser uma das
curvas acima. Observe, contudo, que nenhuma destas equaes acima tem termo cruzado
(isto , em xy) e s a parbola tem termos lineares. Os termos lineares esto ausentes nas
equaes da elipse e da hiprbole por causa da escolha que fizemos da origem dos eixos,
que coincide com o centro da cnica. J a ausncia dos termos cruzados tem a ver com
a posio dos vetores da base relativamente aos eixos de simetria das curvas. Em outras
palavras, sempre possvel posicionar os eixos de modo que a equao de uma cnica
de uma das formas acima. Nosso objetivo neste artigo o de explicar como os mtodos
de lgebra linear podem ser aplicados para identificar as mudanas de variveis que devem
ser executadas para que uma equao geral do segundo grau se transforme em uma das
formas acima.
Comearemos com a equao do segundo grau em duas variveis expressa em sua
forma mais geral
(72) a1 x2 + a2 xy + a3 y 2 + a4 x + a5 y + a6 = 0.
O componente quadrtico a1 x2 + a2 xy + a3 y 2 desta equao pode ser escrito em forma
matricial como o produto " #" #
h i a a /2 x
1 2
x y
a2 /2 a3 y
e seu componente de grau um como o produto
" #
h i x
a4 a5
y
Se " # " # " #
a1 a2 /2 a4 x
A= , u0 = e X=
a2 /2 a3 a5 y
ento a equao (72) pode ser reescrita na forma
(73) X t AX + ut0 X + a6 = 0.
Como A simtrica, podemos diagonaliz-la usando uma matriz de mudana de base
ortogonal Q. Digamos que
diag(1 , 2 ) = Qt AQ.
Escrevendo " #
x1
X1 =
y1
198 5. DIAGONALIZAO

e fazendo X = QX1 obtemos


X t AX = (QX1 )t AQX1 = X1t (Qt AQ)X1
que igual a
1 x21 + 2 y 2 ;
ao passo que
ut0 X = (Qt u0 )t X1 .
Denotando por a matriz diag(1 , 2 ) e por u1 o vetor (Qt u0 ), a equao (73) se torna
(74) X1t X1 + ut1 X1 + a6 = 0.
Como
X1t X1 = 1 x21 + 2 y12 ,
a equao (74) no tem termo cruzado. Portanto, para obtermos uma equao de uma
das trs formas padro descritas no incio do artigo precisamos apenas eliminar os termos
linearesquando isto for possvel, naturalmente.
Para simplificar a notao, escreveremos a equao (74) na forma
b1 x2 + b2 y 2 + b3 x + b4 y + b5 = 0,
em que o termo cruzado foi omitido porque j foi eliminado. Digamos, para comear, que
b1 e b3 so no nulos. Neste caso podemos eliminar o termo linear em x usando o mtodo
de completamento dos quadrados. Como b1 6= 0, a equao pode ser reescrita na forma
 
b3
2
b1 x + x + b2 y 2 + b4 y + b5 = 0.
b1
Rearrumando a parte entre parntesis para que seja um quadrado perfeito, obtemos
 2 !  2
2 b 3 b 3 2 b3
b1 x + 2 x+ + b2 y + b4 y + b5 = 0;
2b1 2b1 2b1
isto ,  2  2
b3 2 b3
b1 x+ + b2 y + b4 y + b5 = 0.
2b1 2b1
Tomando
b3
x1 = x +
2b1
y1 = y
a equao original pode ser reescrita na forma
2 
b3
b1 x21
+ b2 y12
+ b4 y1 + b5 = 0;
2b1
da qual o termo linear em x1 est ausente. Um procedimento anlogo nos permite remover
o termo linear em y caso b2 e b4 sejam diferentes de zero. Conclumos deste argumento que,
2. OPERADORES AUTOADJUNTOS 199

aplicando uma mudana ortogonal de coordenadas e uma, ou duas, translaes, qualquer


equao do segundo grau pode ser reescrita em uma das seguintes formas
c1 x2 + c2 y + c3 = 0 ou c1 x2 + c2 y 2 + c3 = 0.
A primeira desta equaes descreve uma parbola; a segunda descreve uma elipse ou uma
hiprbole, dependendo se c1 e c2 so ambos positivos ou se um deles positivo e o outro
negativo.
Como exemplo, determinaremos qual a cnica descrita pela equao

13y 2 6 3xy + 7x2 + 14x 9 = 0.
Comeamos analisando o componente de grau dois da equao, que pode ser escrito em
forma matricial como

13y 2 6 3xy + 7x2 = X t AX
em que
" # " #
x 13 3 3
X= e A= .
y 3 3 7
Como se trata de uma matriz simtrica, podemos diagonaliz-la. O polinmio caracters-
tico de A
pA (t) = t2 20t + 64,
cujas razes so 4 e 16. Calculando os autoespaos para estes autovalores, descobrimos
que

V4 = h(1, 3)i e V16 = h( 3, 1)i
Portanto, a matriz ortogonal que efetua a mudana de base desejada
" # " #
1/2 3/2 4 0
Q= e Qt AQ = .
3/2 1/2 0 16
Chamando de x1 e y1 as coordenadas dos novos eixos, temos que
" #
x1
QX = X1 em que X1 = .
y1
Portanto, a parte linear da equao
" # " #" #
x 1/2 3/2 x1
14x = (14, 0) = (14, 0) = 7(x1 3y1 )
y 3/2 1/2 y1
Logo, a equao da cnica dada nas coordenadas x1 , y1

4x21 + 16y12 + 7(x1 3y1 ) 9 = 0.
200 5. DIAGONALIZAO

Resta-nos efetuar as necessrias translaes; duas, neste caso. Para isto escrevemos
  !
7 3
4 x21 + x1 + 16 y12 y1 9 = 0;
4 16
donde
!2 !2

 2 !  2
2 7 7 2 3 3 7 3
4 x1 + 2 x1 + + 16 y1 2 y1 + 9 = 0;
8 8 32 32 8 32

que igual a
 2 !2
7 3 8429
4 x1 + + 16 y1 = 0.
8 32 1024
Tomando
7
x2 = x1 +
8

3
y2 = y1
32
a equao resultante
8429
4x22 + 16y22 = 0;
1024
que facilmente identificada como sendo uma elipe por comparao com as equaes
padro do incio do artigo.

3. Algoritmos para autovalores e autovetores

Nesta seo estudaremos um algoritmo capaz de calcular autovalores e autovetores. Ao


contrrio de todos os anteriores, no se trata de uma algoritmo algbrico, mas sim de um
mtodo iterativo capaz de produzir uma aproximao com um erro especificado.

3.1. O algoritmo. muito fcil descrever o procedimento do algoritmo. Sejam A


uma matriz real n n e e o erro mximo permitido no clculo dos autovalores:

Inicialize: escolha um vetor u(0) Rn de norma um e faa erro = e + 1 e k = 0.


Lao principal: Enquanto erro > e repita:
calcule a normalizao u de v (k) ;
calcule v (k+1) = Au;
determine o mnimo da funo f (t) = kv (k+1) tuk;
faa erro = f () e k = k + 1.
3. ALGORITMOS PARA AUTOVALORES E AUTOVETORES 201

Para tornar isto uma algoritmo vivel, precisamos de uma maneira eficiente de encon-
trar o mnimo da funo f (t). Mais precisamente, fixado um vetor u Rn , precisamos
determinar um escalar que minimiza a funo
f (t) = kAu uk.
Mas este um problema de mnimos quadrados:

dados o vetor b = Au e a transformao linear


T : R Rn
definida por T (s) = su, queremos achar o ponto da imagem de T mais
prximo de b.

Como a matriz de T relativa base cannica u, este problema tem equao normal
ut Au
sut u = ut Au, donde s = = ut Au,
ut u
pois u unitrio. O nmero S, que denotaremos por
ut Au
r(u) = ,
ut u
chamado de quociente de Rayleigh e nos d, diretamente, o mnimo desejado. Levando
isto em conta o algoritmo pode ser reformulado da seguinte maneira. Dada uma matriz real
A de tamanho n n e e o erro mximo permitido no clculo dos autovalores:

Inicialize: escolha um vetor u(0) Rn de norma um e faa erro = e + 1 e k = 0.


Lao principal: Enquanto erro > e repita:
calcule a normalizao u de v (k) ;
calcule v (k+1) = Au;
calcule r(u) = ut v (k+1)
faa erro = kv (k+1) r(u)uk e k = k + 1.

3.2. Um exemplo. Vejamos o que acontece se aplicamos o algoritmo das potncias


matriz
10, 041 66, 607 11, 068
A = 14, 408 91, 056 14, 68

20, 591 102, 27 19, 986


com
2
(0)
v = 3

1
202 5. DIAGONALIZAO

e tolerncia igual a 103 . Ao final da primeira iterao, teremos



61, 73
v (1) = 84, 632 com erro igual a 130.03;

98, 349
depois da segunda iterao

42, 495
v (2) = 57, 49 com erro igual a 1.558;

65, 073
depois da terceira

42, 648
v (3) = 57, 698 com erro igual a 0, 0629;

65, 224
depois da quarta
42, 664
v (4) = 57, 72 com erro igual a 0, 0022;

65, 245
e, finalmente, na quinta iterao chegamos a

42, 664
v (4) = 57, 721 cujo erro 0, 00024;

65, 246
que est abaixo do limite de tolerncia escolhido.

3.3. Convergncia. Resta-nos provar que o algoritmo converge para um par formado
por um autovalor e seu autovetor associado. Faremos isto apenas no caso em que os auto-
valores 1 , . . . , n da matriz A satisfazem
|1 | > > |n |.
Sejam v (k) os vetores gerados a cada lao da execuo do algoritmo e u(k) suas respectivas
normalizaes. Assim, por definio,

u(k) a normalizao de v (k) , e


v (k+1) = Au(k) .

Como os autovalores de A so todos distintos, existe uma base


B = {w1 , . . . , wn }
3. ALGORITMOS PARA AUTOVALORES E AUTOVETORES 203

de Rn formada por autovetores. Escrevendo u(0) como combinao linear desta base, temos
n
X
(0)
u = aj w j .
j=1

Contudo, v (k) mltiplo de Ak u(1) , de modo que


n
(k) 1 X
u = aj Ak wj ;
ck j=1
em que
n
X
ck = k aj Ak wj k
j=1

pois u(k) unitrio. Mas, de Awi = i wi , conclumos por induo que


Ak wi = ki wi ,
e, assim,
n
(k) 1 X
u = aj kj wj ;
ck j=1
donde
n
1 X
Au (k)
= aj k+1
j wj ;
ck j=1
Mas, da minimalidade do quociente de Rayleigh r(u),
kAu(k) r(u)u(k) k kAu(k) 1 u(k) k,
e como
n
1 X
Au (k)
1 u (k)
= aj (k+1
j 1 kj )wj ;
ck j=2
podemos concluir que
n
1 X
kAu(k) r(u)u(k) k k aj (k+1
j 1 kj )wj k.
ck j=2

Pondo k1 em evidncia,
1 k
kAu(k) r(u)u(k) k | |(k)
ck 1
em que
n  k
X j
(k) = k aj (j 1 ) wj k.
j=2
1
204 5. DIAGONALIZAO

Como
|n | |2 |
(75) < < < 1,
|1 | |1 |
esta funo de k satisfaz
lim (k) = 0.
k
Por outro lado,
n
X
ck = k aj kj wj k = |k1 |(k);
j=1
em que
n  k
X j
(k) = ka1 w1 + aj wj k.
j=2
1
Note que as desigualdades em (75) implicam que
lim (k) = ka1 w1 k.
k
Mas
|k1 |(k) (k)
kAu(k) r(u)u(k) k k
= ;
|1 |(k) (k)
de modo que se a1 w1 6= 0, teremos
lim kAu(k) r(u)u(k) k = 0.
k

Em outras palavras, no importa quo pequeno seja e,


kAu(k) r(u)u(k) k < e
desde que o k seja suficientemente grande.

3.4. Problemas do mtodo da potncia. A demonstrao acima nos permite identi-


ficar dois problemas que podem levar o mtodo a no funcionar corretamente. O primeiro,
e mais bvio, que os autovalores de uma matriz podem no satisfazer a desigualdade
|1 | > > |n |,
o que faria com que o mtodo no convergisse. Contudo, basta que um dos autovalores seja
maior (em mdulo) que todos os outros para que possamos determin-lo por este mtodo.
Sob esta hiptese mais fraca a matriz A talvez no seja diagonalizvel, o que tornaria
invivel o argumento. Isto, contudo, pode ser contornado com um pouco mais de cuidado;
veja [2, Lecture 27] por exemplo. Uma segunda dificuldade surge porque precisamos que
a1 6= 0 para que o algoritmo convirja para um vetor no nulo. Lembre-se que a base B no
conhecida, por isso no podemos escolher v (0) de modo que sua coordenada relativa a w1
no seja nula. Contudo, se v (0) for escolhido aleatoriamente, h uma boa chance de que a1
seja mesmo no nulo.
4. BUSCA NA REDE 205

Outro ponto a ser considerado que, na forma como est, este algoritmo s capaz
de encontrar um autovalor e um autovetor de A. Na verdade, porm, o principal problema
deste algoritmo que sua convergncia pode ser muito lenta, bastando para isto que o
quociente
|2 |
|1 |
fique prximo de 1. Por exemplo, a matriz

0.7993 1.3844 0.2143
A = 0.0068 2.8436 0.14286

2.1599 2.323 2.3571


tem autovalores 1 = 3, 2 = 2 e 3 = 1, de modo que
|2 | 2
= = 0, 667.
|1 | 3
Para calcular um autovalor e um autovetor de A com um erro abaixo de 0, 001 precisamos
iterar 19 vezes o lao principal do algoritmo. Na prtica h vrias maneiras de contornar
este problema, mas no vamos discuti-las neste curso.

4. Busca na rede

Como uma ltima aplicao da lgebra linear, veremos como o Google usa um pro-
blema de autovalores e autovetores para escolher quais so as pginas mais importantes
em uma dada busca.

4.1. Grafos na web. H muitas maneiras de interpretar a web como um grafo.


..
.
A ser escrito!
..
.

Apesar de ser estocstica, a matriz A pode ter coeficientes nulos, o que permite que
o autoespao associado ao autovalor 1 tenha dimenso maior que um. Para contornar
este problema, substitumos A por uma outra matriz, que chamaremos de G, a matriz do
Google. Se S for a matriz n n cujas entradas so todas iguais a 1/n, definimos
G = (1 m)A + mS,
em que m um nmero real entre 0 e 1. A verso original do Google utilizava m = 0, 15.
O ponto crucial que esta matriz deve ser estocstica por coluna e ter todas as suas entradas
206 5. DIAGONALIZAO

positivas. Mas A e S so estocsticas por coluna, o que equivale a dizer que


ut0 A = ut0 S = ut0 , em que ut0 = (1, 1, . . . , 1);
donde
ut0 G = (1 m)ut0 A + mut0 S = ((1 m) + m)ut0 = ut0 ,
comprovando que G tambm estocstica por coluna. Por outro lado, como a soma de
matrizes feita entrada a entrada, suficiente discutir o que acontece com cada entrada de
G para entender porque esta matriz positiva. Mas
1
G(i, j) = (1 m)A(i, j) + m .
n
H dois casos a considerar. Se A(i, j) = 0, ento
1
G(i, j) = m
n
claramente positivo; mas se A(i, j) > 0 e
= min{A(i, j), 1/n},
ento
1
G(i, j) = (1 m)A(i, j) + m (1 m) + m =
n
que tem que ser um nmero positivo. Portanto, em qualquer dos casos, G(i, j) > 0 e
G uma matriz positiva, como havamos afirmado. A razo pela qual dispendemos este
esforo adicional para obter uma matriz positiva vai se tornar clara nos prximos artigos.

4.2. Matrizes estocsticas por colunas. No artigo anterior vimos como representar
o grafo dirigido resultante de uma busca na forma de uma matriz estocstica por coluna
positiva G. J vimos que matrizes estocsticas por colunas sempre tm 1 como um de seus
autovalores. Nesta seo provaremos que se uma matriz estocstica por coluna tambm
positiva, ento o autoespao de 1:

(1) contm um autovetor cujas coordenadas so todas positivas; e


(2) tem dimenso igual a um.

As entradas deste gerador especial do autoespao V1 de G correspondem aos pesos de cada


uma das pginas pesquisadas. As pginas de maior peso sero exibidas no incio da lista
resultante da busca que foi efetuada. A demonstrao de (1) e (2) ser feita em etapas.
Comeamos introduzindo uma maneira de medir o comprimento de um vetor que mais
adequada s matrizes estocsticas por colunas do que a norma euclidiana usual.
Se v = (v1 , . . . , vn ). Definimos sua 1-norma como sendo o nmero
|v|1 = |v1 | + + |vn |.
fcil mostrar que a 1-norma satisfaz s propriedades esperadas de uma norma; isto :
4. BUSCA NA REDE 207

|v + w|1 |v|1 + |w|1 ;


|v|1 |||w|1 ;
|v|1 0;
|v|1 = 0 se, e somente se, v = 0.

Note que, embora possa ocorrer que a 1-norma de um vetor seja igual sua norma euclidi-
ana, em geral as duas so muito diferentes; por exemplo, as normas do vetor
n
X
w = (1, 2, 3, . . . , n) = iei
i=1
so r
2n3 + 3n2 + n n(n + 1)
kwk = e |w|1 = .
6 2
razovel esperar que esta norma seja mais adequada ao estudo das matrizes estocsticas
por colunas do que a norma euclidiana, uma vez que uma matriz estocstica por coluna A
tem que satisfazer
|A(:, i)| = 1 para todo 1 i n.
Na verdade, a 1-norma admite uma traduo matricial muito conveniente para o que fare-
mos adiante. Denotando por |v| o vetor
(|v1 |, . . . , |vn |)
cujas coordenadas so os mdulos das entradas de v e por u0 o vetor
n
X
(1, . . . , 1) = ei
i=1
podemos escrever
|v|1 = ut0 |v|.
Com isto podemos voltar discusso das questes (1) e (2) enunciadas acima.
Por todo o resto deste artigo suporemos que G uma matriz estocstica por coluna
positiva n n. Comearemos provando uma propriedade referente a vetores que tm
coordenadas positivas e negativas, e que, para os propsitos deste curso, chamaremos de
mistos.

Propriedade 1: V1 no contm vetores mistos.

Suponha, por contradio, que v seja um vetor misto em V1 . Se v = (v1 , . . . , vn ), ento


a igualdade Gv = v pode ser reescrita na forma
vi = Gi v;
em que G1 , . . . , Gn so as linhas de G. Como G positiva e v misto, temos que
|vi | = |Gi v| < Gi |v|.
208 5. DIAGONALIZAO

Como
n
X
Gi |v| = G|v|
i=1
podemos concluir de ut0 G = ut0 , que
|v|1 = ut0 |v| < ut0 G|v| = |v|1
que nos d a esperada contradio. Note que o que provamos , na verdade, mais forte que
o enunciado original de (1).
Passando a (2), devemos provar

Propriedade 2: dim(V1 ) = 1.

Mais uma vez o argumento ser por contradio. Digamos que v e v 0 sejam vetores linear-
mente independentes em V1 . Se
Xn Xn
0 t 0
t
d = u0 v = vi e d = u0 v = vi0
i=1 i=1
ento o vetor
w = d0 v dv 0 = (ut0 v 0 )v (ut0 v)v 0 6= 0,
satisfaz
ut0 w = (ut0 v 0 )(ut0 v) (ut0 v)(ut0 v 0 ) = 0;
de forma que w tem que ser misto, o que viola a propriedade 1, provando o que desejva-
mos.
Combinando as propriedades 1 e 2, mostramos a seguinte proposio.
P ROPOSIO 4.1. Se G estocstica por coluna positiva ento existe um vetor unit-
rio de coordenadas positivas que gera o autoespao associado a 1.

Com j mencionamos, este vetor especial, ser considerado como um vetor de pesos.
As pginas de maior peso sero listadas no incio, quando a busca for apresentada ao
usurio.

4.3. Calculando o vetor peso. Para que esta maneira de ponderar as pginas lista-
das em uma busca seja vivel, devemos ser capazes de determinar o vetor peso de forma
altamente eficiente. Afinal uma busca tpica relaciona milhes de resultados e no toma
mais que uma frao de segundos. O seguinte resultado ser necessrio justificativa do
funcionamento do algoritmo. Denotaremos por u0 o vetor (1, . . . , 1), e por W o subespao
W = {v Rn | ut0 v = 0}.
Portanto, na terminologia do artigo anterior, todos os vetores no nulos de W so mistos.
4. BUSCA NA REDE 209

P ROPOSIO 4.2. Seja G uma matriz estocstica por coluna positiva. Se w W


ento

(a) Gw W ;
(b) |Gw|1 c|w|1 ;

para alguma constante 0 < c < 1.

Como ut0 G = ut0 , temos que


ut0 Gw = ut0 w = 0,
para todo w W , o que prova (a). Antes de passar demonstrao de (b), vamos ex-
pressar a 1-norma de w como um produto de matrizes. Como w misto, no podemos
usar u0 , como fizemos no artigo anterior. A soluo definir o vetor de sinais s(w) cujas
coordenadas (s1 , . . . , sn ) satisfazem

1
se wi > 0
si = 1 se wi < 0

0 se wi = 0.
Usando este vetor, podemos escrever
|w|1 = s(w)t w.
Em particular,
|Gw|1 = s(Gw)t Gw.
Contudo, se Gj for a j-sima coluna de G, temos que
ut0 Gj < s(Gw)t Gj < ut0 Gj
pois as entradas de Gj so todas positivas. Como G estocstica por coluna ,
1 < s(Gw)t Gj < 1.
o que nos permite concluir que
c = max{|s(Gw)t Gj | | 1 j n} < 1.
Logo, de
n
X
t
|Gw|1 = s(Gw) Gw = (s(Gw)t Gj )wj
j=1
segue que
n
X
t
|Gw|1 = s(Gw) Gw c wj c|w|1 ;
j=1
que nos d a desigualdade desejada.
210 5. DIAGONALIZAO

Com isto podemos enunciar e provar um algoritmo que, tendo como entrada uma matriz
estocstica por coluna positiva G e uma tolerncia e > 0, calcula um autovetor de G
associado ao autovalor 1:

Inicializa: escolha um vetor unitrio positivo v (0) qualquer;


Iterao: enquanto |v k+1 v (k) |1 > e repita v k+1 = Gv (k) .

Para provar que o algoritmo funciona, devemos mostrar


lim v (k)
k
um autovetor de G associado a 1. Seja q o autovalor positivo de 1-norma igual a um
associado a 1. Digamos que = q v (0) . Se todas as entradas de fossem positivas,
teramos que cada uma das coordenadas de q seria maior que sua correspondente em v (0) .
Como v (0) e q so ambos vetores positivos, isto s pode ocorrer se |q|1 > |v (0) |1 , o que
no possvel, j que ambos tm 1-norma igual a 1. Como o mesmo argumento funciona
se todas as coordenadas de forem negativas, tem que ser um vetor misto. Aplicando a
proposio,
|G|1 < c||1 ;
donde segue por induo em k que
|Gk |1 < ck ||1 .
Como est fixo, temos que
lim Gk = 0,
k
pois o nico vetor cuja 1-norma zero o vetor nulo. Contudo,
lim Gk = q lim v (k) ;
k k

de modo que q = limk v (k) , um autovetor positivo de G associado a 1. FALTA UM


EXEMPLO AQUI!!!!

Exerccios

1. Mostre que se todos os autovalores de um operador linear so iguais ento sua matriz
relativamente a qualquer base diagonal.

2. Determine a base dos autoespaos de cada uma das matrizes do exerccio anterior.

3. Seja " #
1 4
A= .
2 3
(a) Determine os autovalores e autovetores de A.
EXERCCIOS 211

(b) Esta matriz diagonalizvel? Por qu?

4. Sejam v1 = [1, 0, 1]t , v2 = [1, 1, 0]t e v3 = [0, 0, 1]t .


(a) Mostre que estes vetores formam uma base B do R3 .
(b) Determine a matriz na base B do operador linear definido por
T (v1 ) = 2v1 , T (v2 ) = v2 e T (v3 ) = v2 .
(c) Determine a matriz na base cannica deste mesmo operador.

5. Determine a matriz na base cannica de um operador linear do R3 que tenha autovalo-


res 1, 2 e 0 associados aos autovetores [1, 0, 1]t , [1, 0, 0]t e [0, 1, 1]t .

6. Seja T o operador linear do R3 definido por T (x, y, z) = [x + y + z, 2y + z, 2y + 3z]t .


(a) Ache os autovalores e autovetores de T .
(b) Ache uma base para cada autoespao de T .
(c) Este operador diagonalizvel? Se a resposta for sim, determine uma base B de
autovetores para T e calcule a matriz (T )B .

7. Seja T o operador linear do R3 definido por T (x, y, z) = [2x + y, y z, 2y + 4z]t .


(a) Ache os autovalores e autovetores de T .
(b) Ache uma base para cada autoespao de T .
(c) Este operador diagonalizvel? Se a resposta for sim, determine uma base B de
autovetores para T e calcule a matriz (T )B .

8. Quais das matrizes A abaixo so diagonalizveis? Para aquelas que forem diagonali-
zveis determine uma matriz M inversvel M tal que M 1 AM diagonal.

" # 1 2 3 1 0 3
1 2
A= , B = 0 1 2 , C = 0 4 0 .

0 1
0 0 1 3 0 1

9. Calcule A100 , quando A for a matriz



1 2 2
2 1 2 .

2 2 1

10. Seja T o operador de R3 definido por T (x, y, z) = [2x + y, x + y + z, y 3z]t . Mostre


que T autoadjunto e determine uma base de R3 formada por autovetores de T .
212 5. DIAGONALIZAO

11. Verifique se as matrizes



0 0 1 1/3 2/3 2/3 2/2 1/2 1/2

1 0 0 , 2/3 1/3 2/3 e 0 2/2 2/2


0 1 0 2/3 2/3 1/3 2/2 1/2 1/2
representam rotaes. Em caso afirmativo calcule o eixo e o ngulo de rotao.

12. Determine a transformao linear que descreve o movimento rgido que leva o seg-
mento de extremos A = [6, 2]t e B = [1, 2]t no segmento de extremos C = [2, 6]t
e D = [1, 2]t , respectivamente. Prove que esta transformao uma rotao e calcule
seu ngulo.

13. Seja T o operador de R3 definido por T (x, y, z) = [x + 4y + 2z, 4x 5y 4z, 2x


4y + z]t .
(a) Ache uma base ortonormal B do R3 constituda por autovetores de T .
(b) Determine uma matriz M tal que M t (T ) M = (T )B .

14. Considere o operador linear T de R2 dado por T (x, y) = [5x y, x + 5y]t .


(a) Encontre os vrtices de um retngulo que tenha a origem como um dos seus vrti-
ces e que seja levado por T num quadrado de lado 12.
(b) Encontre a imagem por T do tringulo de vrtices A = [0, 0]t , B = [2, 2]t e
C = [1, 1]t .

15. Considere o operador do R3 cuja matriz na base cannica



2 0 0
0 6 1 .

0 1 6
Encontre os vrtices de um paraleleppedo que tenha a origem como um de seus vrti-
cese e que seja levado por T em um cubo de aresta igual a 70 unidades.

16. Sejam T um operador autoadjunto, u um autovetor de T e w um vetor perpendicular a


u. Prove que T w tambm perpendicular a u.

17. Seja T um operador autoadjunto de R2 . Sabe-se que:


(a) os autovalores de T so 2 e 3;
(b) o autoespao de 2 gerado por (1, 1).
Determine a matriz de T na base cannica.

18. Considere o operador linear T de R3 definido por


T (x, y, z) = [y + z, x + z, x + y]t .
Determine:
EXERCCIOS 213

(a) os autovalores de T ;
(b) os autoespaos de T ;
(c) uma base de autovetores de T ;
(d) a matriz de mudana de base de para a base cannica do R3 .

19. Seja S o plano do R4 gerado pelos vetores [1, 1, 0, 0]t e [1, 0, 1, 1]t . Determine
(a) o complemento ortogonal S de S;
(b) um operador linear T de R4 cujo ncleo S e cuja imagem S em S.

20. Seja U o plano de equao x y + 2z = 0 e ` a reta gerada por [1, 1, 2]t .


(a) Determine um operador linear de R3 cujo ncleo U e cuja imagem `.
(b) Prove que um operador que satisfaz as propriedades de (a) no pode ser autoad-
junto.

21. Determine todos os valores possveis de a, b e c para os quais a matriz



1 b 0
0 2 c

0 0 a
corresponda a um operador diagonalizvel.

22. Ache um paraleleppedo que seja levado em um cubo de lado 8 pelo operador linear T
de R3 definido por
T (x, y, z) = [2x + y + z, x + 2y + z, x + y + 2z]t .

23. Seja R uma rotao de eixo ` em R3 e v = [1, 1, 1]t um vetor ortogonal a `. Sabendo-se
que Rv = [1, 1, 1]t , determine:
(a) o cosseno do ngulo de rotao de R;
(b) o eixo da rotao R;
(c) a matriz de R na base cannica.

24. Identifique as
cnicas cujas equaes so dadas abaixo:
2 2
(a) 3x + 22xy + 4y = 1;
(b) 3x2 + 2 3xy + 5y 2 = 1;
(c) x2 + 4xy 2y 2 = 6;
(d) 4x2 + 12xy + 9y 2 + 8 13x + 12 13y = 65;
(e) 8x2 + 5xy
4y 2 = 4;
(f) x2 + 2 3xy + 3y 2 + 8 3x 8y = 0.

25. Determine todos os vetores de R2 cuja 1-norma coincide com a norma euclidiana.
214 5. DIAGONALIZAO

26. Sabe-se que S uma matriz estocstica por linha de tamanho n n. Dada uma matriz
ortogonal nn, determine autovetores associados ao autovalor um das matrizes Qt SQ
e SQ.
27. Determine todas as matrizes 2 2 que so ortogonais e estocsticas por colunas.
28. Sejam A e B matrizes estocsticas por colunas. Quais das seguintes matrizes tambm
so estocsticas por colunas:
A + B, (A + B)/2, A1 , AB, At .
Referncias Bibliogrficas

[1] A. S. Householder, Unitary triangularization of a nonsymmetric matrix, J. Assoc. Comput. Mach. 5


(1958) 339342.
[2] L. N. Trefethen e D. Bau, Numerical linear algebra, SIAM (1997).
[3] A. J. Crilly, Arthur Cayley: mathematician laureate of the Victorian Age, Johns Hopkins University Press
(2006).

215

Você também pode gostar