Escolar Documentos
Profissional Documentos
Cultura Documentos
S. C. Coutinho
Prefcio
Agradeo a todos os alunos que cursaram lgebra linear algortmica em 2010 e 2011
e que serviram de cobaias para a disciplina e para as notas que a acompanharam, espe-
cialmente Fabio Ferman, Fillipe Barros da Silva, Joo Augusto Marrara Marzago, Raul
Barbosa, Mateus Gregrio, Rochanne de Miranda Corra, Filipe Qiang Zhou, Jlio Zyn-
ger, Edberg dos Santos Franco e Victor Lima Campos, que detectaram e ajudaram a corrigir
alguns dos inmeros erros do manuscrito original.
iii
Sumrio
Prefcio iii
Captulo 1. O plano 1
1. Vetores 1
2. Transformaes lineares 10
3. Matrizes 18
Exerccios 31
Captulo 2. Sistemas lineares 35
1. Eliminao gaussiana 35
2. Decomposio de matrizes 56
3. Aplicaes 73
Exerccios 81
Captulo 3. Modelos multidimensionais 85
1. Dinmica de populaes 85
2. O espao Rn e suas transformaes lineares 93
3. Subespaos 98
4. Projees e reflexes 105
5. Mtodos dos mnimos quadrados 108
6. Autovalores e autovetores 112
7. Rotaes no espao 120
Exerccios 126
Captulo 4. Conceitos bsicos 133
1. Espaos vetoriais e transformaes lineares 133
2. Bases 140
3. Bases ortonormais 154
4. Transformaes lineares e bases 164
Exerccios 177
Captulo 5. Diagonalizao 185
1. Operadores diagonalizveis 185
2. Operadores autoadjuntos 193
3. Algoritmos para autovalores e autovetores 200
4. Busca na rede 205
v
vi SUMRIO
Exerccios 210
Referncias Bibliogrficas 215
CAPTULO 1
O plano
1. Vetores
Alm disso suporemos que vetores no podem flutuar por onde desejarem. Fixaremos
para todo o sempre um ponto do plano, que chamaremos de origem e denotaremos por O.
Todos os vetores tero uma de suas extremidades na origem e a orientao do segmento
ser sempre da origem para a outra extremidade, como mostra a figura.
G
O
Designaremos vetores por letras, sem a necessidade de adicionar a tradicional seta no alto
da letra. Se u for um vetor, seu mdulo ser denotado por kuk. Reservaremos as barras
simples para o mdulo de um nmero real; isto , se r R, ento
(
r se r 0;
|r| =
r se r < 0;
1
2 1. O PLANO
j jv;
j j jvvvv
j vv
j j vv
Gj j v v
u+v vvv
vv
v
vv
u
vvvv hh hh4
hh
vv hhhh
vvhvhhhhhhv
hvvhh
A ideia que levou a esta definio antiga e muito natural. Por exemplo, balsas eram
comumente puxadas ao longo de um canal por dois cavalos, um em cada margem; que
uma ilustrao perfeita da regra acima. Em seu famoso Principia, Newton prova a regra
do paralelogramo no corolrio I da Lei II, que corresponde nossa segunda lei de Newton.
Diga-se de passagem que a noo de vetor s foi introduzida 200 anos depois de Newton.
Por isso, o corolrio I foi formulado em termos de foras e movimento (ou deslocamento),
no em termos de vetores.
J para subtrair o vetor u do vetor v, somamos a v o vetor u, obtido invertendo-
se o sentido da seta de u. Como todos os vetores tm que ter seu ponto de partida na
origem, uma maneira mais precisa de descrever esta receita consiste em dizer que, sobre
a mesma reta ao longo da qual est u, desenhamos u como o segmento orientado de
mesmo comprimento que u, mas que aponta no sentido oposto a u, como ilustra a figura.
7
o o o u
o
o o o
ooo
ooooo O
ooo u
wooo
1. VETORES 3
(u + v) + w = u + (v + w);
u + v = v + u;
u + 0 = u;
u + (u) = 0.
| + {z
u + u}
k vezes
por ku, como de praxe. Como definimos u como sendo o vetor colinear e de sentido
oposto a u, convm dizer que (1) u = u. Portanto, se k um inteiro negativo, teremos
(1) k u = u
| {z
u} .
|k| vezes
1u=u
0u=0
(u + v) = u + v;
( + )u = u + u;
()u = (u);
escolher um vetor no nulo u ao longo da reta, que pode ento ser descrita como o conjunto
de mltiplos de u. Isto , a reta corresponde ao conjunto
r = { u | R}.
Talvez esta definio de uma reta pela origem lhe incomode. Afinal, aprendemos no ensino
fundamental que uma reta um conjunto de pontos, no de vetores. Na verdade, trata-se
de uma mera questo de ponto de vista, j que podemos identificar um ponto qualquer P
da reta com o segmento orientado que vai da origem a p, e vice-versa.
Se a reta r no passa pela origem, precisamos escolher primeiramente um vetor u0 cuja
extremidade est sobre r, e que consideraremos fixo de agora em diante. Neste caso
melhor evitar falar de um vetor da reta ou sobre a reta porque, como mostra a figura,
somente a ponta do vetor vai tocar a reta.
_ _ _ _r _ _ __ _ _ _G_ _ _ _ _ _ _ _ _ o_o_7 _ _ _ _ _
o
o oooo
oo
u0 v oooo
oo
ooo
ooooo
o
ooo vu0
/
Se v um outro vetor qualquer, cuja extremidade tambm est sobre r, ento a diferena
v u0 nos d um vetor na direo da reta. Na verdade, se pudssemos transpor o vetor da
origem para a extremidade de u0 , obteramos o segmento orientado que vai da extremidade
de u0 extremidade de v. Seja u um vetor qualquer nesta direo. O que dissemos acima
nos permite concluir que v u0 mltiplo escalar de u; em smbolos, v u0 = u, para
algum R. Portanto,
Na linguagem de conjuntos,
r = {u0 + u | R}.
Na terminologia usual, u o vetor diretor da reta r e u0 +u a equao vetorial de r. Uma
pergunta razovel : de que forma a equao vetorial se relaciona equao cartesiana
da reta, que aquela que aprendemos no ensino mdio? Para respond-la, precisamos
introduzir coordenadas nos nossos vetores.
1. VETORES 5
:
tt
ttt
t
tt
v ttt
t
ttt
ttt
tt
ttt / _ _ _
_ _ _
u
Usando isto, definimos a projeo do vetor v sobre o vetor u, como sendo o vetor Proju (v),
que tem comprimento kvk| cos | e mesma reta suporte que u. O sentido da projeo o
mesmo de u se o ngulo for agudo, e oposto a u se for obtuso.
Naturalmente, podemos determinar se o ngulo agudo ou obtuso a partir do cosseno;
no primeiro caso, cos positivo; no segundo, negativo. Mas isto significa que se u for
um vetor de norma um, ento o vetor
(kvk cos ) u
colinear a u e tem o mesmo comprimento e sentido de Proju (v); de modo que estes
dois vetores so iguais. Quando u no for unitrio, podemos facilmente construir um vetor
unitrio de mesma direo e sentido que u dividindo-o por sua norma. Portanto, em geral,
kvk cos
(2) Proju (v) = u.
kuk
Agora que sabemos escrever vetores usando coordenadas, podemos responder per-
gunta formulada ao final do artigo anterior: qual a relao entre a equao vetorial e a
equao cartesiana y = ax + b da reta? Lembre-se que esta ltima equao estabelece
a relao entre abscissa e ordenada de um ponto qualquer da reta. Identificando o ponto
(x, y) com a extremidade de um vetor e usando a relao acima, temos que
(x, y) = (x, ax + b).
Apelando para as operaes com vetores, podemos reescrever esta igualdade na forma
(x, y) = x(1, a) + (0, b).
Como x pode assumir qualquer valor real, podemos interpret-lo como parmetro. Assim,
y = ax + b a reta que, passando pela extremidade do vetor u0 = (0, b), tem vetor diretor
igual a u = (1, a), de modo que sua equao vetorial u0 + u.
E se a equao vetorial de uma reta r for dada, como obtemos a e b, de modo que
y = ax + b represente a mesma reta? Suponhamos que u0 + u seja a equao vetorial de
r e que as coordenadas de u e u0 sejam
u0 = (0 , 0 ) e u = (, ).
Dado um vetor qualquer v = (x, y), com extremidade em r, temos que
(x, y) = v = u0 + u = (0 , 0 ) + (, );
donde podemos concluir que
(x, y) = (0 + , 0 + );
ou ainda, que
x = 0 + ;
y = 0 + ;
que so conhecidas como equaes paramtricas da reta r. Supondo que 6= 0, podemos
explicitar o valor de da primeira equao na forma
x 0
= .
Substituindo na segunda equao, obtemos
x 0
y = 0 + ;
que pode ser reescrita na forma
0 0
y= + x;
8 1. O PLANO
v .
...........
..
...
....
..
...
..........................
.... .........
.......
.. ......
... ......
...... ....
... ......
....
....
u ...........
.
.... .... ........... ...
.. .... ............
.... .... ............
... ...
...
... .
...
...
...
............
..
... ...
... ............
... ...........
... ......... ... .............
... ... ............ . ............. .....
... ... ..... ........................ ...
.... ........ ... ...
... ... ... ...................... ... ...
...
...... ............. ...
...
.... ............... ... ...
.......................................................................... ..
que a equao da reta na forma usual. Como, para chegar a esta resposta, supusemos que
6= 0, resta descobrir o que ocorre se = 0. Neste caso, as equaes paramtricas sero
x = 0 ;
y = 0 + .
Como a abscissa est fixa, esta a reta vertical que corta o eixo x no ponto (0 , 0). Acon-
tece que a equao de uma reta vertical no pode ser escrita na forma y = ax + b. De fato,
a equao da reta r acima simplesmente x = 0 .
1.3. Produto interno. Em fsica aprendemos que o produto interno ou produto esca-
lar entre dois vetores v1 e v2 do plano definido como sendo o nmero
hv1 | v2 i = kv1 kkv2 k cos ;
em que o menor ngulo entre os vetores v1 e v2 . Se {e1 , e2 } uma base do plano
formada por vetores unitrios perpendiculares entre si, de que maneira podemos expressar
hv1 | v2 i em funo das coordenadas de u e v relativas a esta base?
Para isto precisamos relacionar o ngulo aos ngulos que v1 e v2 formam com o vetor
e1 , e que so usados para determinar suas coordenadas. Chamando de e os ngulos
entre e1 e os vetores u e v, respectivamente, temos da figura que = . Portanto,
cos() = cos( ) = cos() cos() + sen() sen(),
1. VETORES 9
de modo que
hv1 | v2 i = kv1 k cos()kv2 k cos() + kv1 k sen()kv2 k sen().
Denotando por (a1 , b1 ) as coordenadas de v1 e por (a2 , b2 ) as coordenadas de v2 , temos de
(5) que
(6) hv1 | v2 i = a1 a2 + b1 b2 .
Esta expresso do produto interno muito conveniente. Por exemplo, a partir dela podemos
provar facilmente as seguintes propriedades:
(1) hu | v1 + v2 i = hu | v1 i + hu | v2 i;
(2) hv1 | v2 i = hv1 | v2 i;
(3) hv1 | v2 i = hv2 | v1 i;
(4) hu | ui 0;
(5) hu | ui = 0 se, e somente se, u = 0;
Em outras palavras,
Note que esta reta contm a origem, que no est contida na reta de equao x+y + =
0, quando 6= 0. Neste caso, como mostra a figura 1.3, no o vetor v que perpendicular
ao vetor normal n, mas sim a diferena v p, em que p corresponde a um vetor fixo com
extremidade sobre a reta.
10 1. O PLANO
..... ....
..... .....
.....
..... .....
..... .....
..... ........
.
..... .....
..... .....
..... .....
..... .....
.....
..... ........
.
..... ..
..... .....
..... .....
..... .....
..... .....
.....
..... ...
......
..... ....
..... .....
..... ..........
..... ....
........
. .
.. .. ..
..... ..........
..... .....
..... .....
..... .....
.....
n ... ..
.. .....
.....
.......
................
...
...
... .
.......
p
................
......... . ..........
...
..... . .... . .. ........ .....
.....
.....
.. ...... .....
.......... .....
..... ........... .....
.
........................ .....
.....
...... ............................
. .....
..........
. ..
......O
. ................
.. .. . ..................
.. .. .. .
. .. ................
.....
.....
.....
.....
..
.. .. ... .
. .................. ...
..
....
. ... .........................
.
..
.....
. .............
..
....
. .....
..... .....
..... .....
.....
X .....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
.....
..
2. Transformaes lineares
em que o ngulo entre u e v. Podemos usar o produto interno para reescrever esta
frmula como
Proju (v) = hu | vi u,
uma vez que u tem mdulo um. Disto obtemos, como muito pouco esforo, uma frmula
para a projeo em termos das coordenadas de u e de v. De fato, se
u = (a, b) e v = (x, y),
ento
Proju (v) = ((ax + by)a, (ax + by)b) = (a2 x + aby, abx + b2 y).
..
..
..
...
..
..
..
...
.
..
..
..........
...
v ..........
..
.
.
u
... .
... ...
... ...
... ...
...
...
...
...
...
...
...
.
espelho
..
... .
...
... .
... ... ...
...
... ... ...
... ... ..
.. .............
...
...
...
...
...
...
.
...
.
. R(v)
......... ..
.........
.........
...
... ... .... ...........
.
... ... .. ..
...
... .....
... ... .........
...
... ... ... .........
... . .........
... ..... ..... .................
... .. .. ........
..............
. ..
.. .....
. .. ...
...
. . ...
.. ...
. ...
. . ...
. ...
. . ...
. ...
.. ...
. ...
. . ...
. ...
. . ...
. ...
.. ...
. ...
.. ...
. ...
.. ...
. ...
.. ...
. ..
.
.
..
..
.
..
donde
(7) R(v) = v 2hn | vi n.
Encerraremos este artigo determinando uma frmula para R(v) em funo das coorde-
nadas de v. A maneira mais fcil de fazer isto consiste em usar a base {u, n} ao descrever
as coordenadas dos vetores. Afinal, relativamente a esta base, u tem coordenadas (1, 0) e
n tem coordenadas (0, 1), pois
u = 1 u + 0 n e n = 0 u + 1 n.
Supondo que v tem coordenadas (x, y) relativamente a esta mesma base, uma aplicao
direta da frmula (7) nos d
R(x, y) = (x, y) 2y(0, 1) = (x, y);
como seria de esperar da descrio geomtrica. O problema que ao usar {u, n} como
base estamos criando uma situao um pouco artificial. Na prtica, os vetores u e v so
dados em termos de suas coordenadas relativamente a uma base pr-fixada do plano, e no
vice-versa. Portanto, tendo em vista futuras aplicaes, convm determinar como seria
a frmula da reflexo em termos das coordenadas dos vetores relativamente a uma base
qualquer.
Para isto suporemos que uma base {e1 , e2 } foi fixada e que u tem coordenadas (a, b)
relativamente a esta base. Mas o produto interno de u com o vetor de coordenadas (b, a)
igual a zero e, alm disso
kuk = a2 + b2 = knk,
2. TRANSFORMAES LINEARES 13
de modo que se u for unitrio o mesmo ter que ser verdadeiro para n. Portanto, podemos
escolher
n = (b, a),
Escrevendo v = (x, y), a frmula da reflexo obtida acima nos diz que
R(v) = (x, y) 2(ay bx) (b, a);
isto ,
R(v) = ((1 2b2 )x + 2bay, 2abx + (1 2a2 )y).
2.3. Rotao. Passando rotao, digamos que seja a transformao que roda um
vetor v de um ngulo no sentido anti-horrio. Mais uma vez, nosso objetivo consiste em
escrever uma frmula para esta transformao em termos das coordenadas de um vetor v
relativamente a uma base {e1 , e2 } formada por vetores unitrios e perpendiculares entre si.
Como j se tornou usual, diremos que as coordenadas de v so (x, y). A frmula (5)
nos permite afirmar que
x = kvk cos
y = kvk sen
em que o ngulo entre v e o vetor e1 . Tendo expresso x e y desta maneira, fica fcil
determinar as coordenadas de (v). Afinal, ao rodar v de um ngulo no sentido anti-
horrio, o ngulo entre v e e1 aumenta de para + . Isto , as coordenadas de (v)
sero
(kvk cos( + ), kvk sen( + )).
Para explicitar a relao entre estas coordenadas e as coordenadas x e y de v, usamos duas
bem conhecidas frmulas de trigonometria
sen( + ) = sen() cos() + sen() cos()
cos( + ) = cos() cos() sen() sen().
Multiplicando estas expresses por kvk e substituindo kvk cos por x e kvk sen por y,
obtemos
(x, y) = (cos()x sen()y, cos()y + sen()x),
que a frmula desejada.
2.4. Definio e propriedades. Uma coisa que transparece das frmulas obtidas para
projees, reflexes e rotaes que as coordenadas so sempre expresses lineares sem
termo contante, nas coordenadas x e y do argumento v. As transformaes com esta pro-
priedade so to abundantes nas cincias naturais, e to importantes no estudo dos vetores,
que merecem uma designao parte.
14 1. O PLANO
Seja T uma transformao (ou aplicao) do plano nele mesmo e fixemos uma base do
plano. Diremos que T uma transformao linear do plano se existirem constantes a, b, c
e d de modo que a imagem de qualquer vetor v pode ser escrita na forma
T (v) = (ax + by, cx + dy) sempre que v = (x, y).
A origem do uso do adjetivo linear para designar tais transformaes claro: as coordena-
das do vetor imagem so, de fato, expresses lineares em x e y. Observe que exclumos a
possibilidade de termos constantes nesta expresso desde o comeo, porque decidimos de
partida que a imagem do vetor zero por T teria que ser o mesmo vetor zero, j que todos
os vetores partem de um mesmo ponto.
As transformaes lineares do plano tm trs propriedades importantes. Se v1 e v2 so
dois vetores quaisquer do plano e R, ento:
(1) T (0) = 0;
(2) T (v1 + v2 ) = T (v1 ) + T (v2 );
(3) T (v1 ) = T (v1 ).
A propriedade (1) bvia; provaremos a segunda e deixaremos a terceira aos seus cuida-
dos. Suponhamos que v1 e v2 tm coordenadas
v1 = (x1 , y1 ) e v2 = (x2 , y2 ),
relativamente base fixada. Neste caso,
v1 + v2 = (x1 + x2 , y1 + y2 );
de modo que
T (v1 + v2 ) = (a(x1 + x2 ) + b(y1 + y2 ), c(x1 + x2 ) + d(y1 + y2 )).
Mas o lado direito da equao acima igual a
((ax1 + by1 ) + (ax2 + by2 ), (cx1 + dy1 ) + (cx2 + dy2 ))
que igual soma de vetores,
(ax1 + by1 , cx1 + dy1 ) + (ax2 + by2 , cx2 + dy2 );
isto , a T (v1 ) + T (v2 ), provando assim a propriedade desejada.
Na verdade, qualquer aplicao do plano nele mesmo que satisfaz estas trs propri-
edades tem que ser uma transformao linear. A verificao simples e muito importante
para a caracterizao final que daremos a estas transformaes, por isso vamos faz-la
em detalhes. Para deixar bem claro o que queremos fazer, convm enunci-lo de maneira
bastante precisa:
em que a escolha das coordenadas naturalmente pressupe que fixamos uma base do plano.
Comearemos supondo v um vetor do plano cujas coordenadas relativamente base
fixada so (x, y). Por definio, isto significa que, se a base for constituda pelos vetores
e1 e e2 , ento
v = xe1 + ye2 .
Portanto,
T (v) = T (xe1 + ye2 ).
Usando as propriedades (2) e (3) o lado direito desta ltima equao pode ser escrito na
forma
T (v) = xT (e1 ) + yT (e2 ).
Mas, tanto T (e1 ) como T (e2 ) so vetores do plano e, como tais, podem ser escritos em
termos de suas coordenadas na base {e1 , e2 }. Se
T (e1 ) = ae1 + ce2 e que T (e2 ) = be1 + de2 ,
ento
T (v) = x(ae1 + ce2 ) + y(be1 + de2 ) = (ax + by)e1 + (cx + dy)e2 .
Podemos reformular isto diretamente em termos das coordenadas como
T (x, y) = (ax + by, cx + dy),
que a frmula que desejvamos obter. Observe que, como os vetores e1 e e2 esto fixados,
os nmeros reais a, b, c e d dependem apenas de T e no das coordenadas de v. Na
verdade, descobrimos o que estes quatro nmeros representam: so as coordenadas de
T (e1 ) e T (e2 ). Voltaremos a usar isto no artigo 2.6. Convm resumir o que fizemos acima
para uso futuro.
P ROPOSIO 2.1. Seja T uma aplicao do plano no plano e fixemos uma base do
plano em relao qual tomaremos todas as coordenadas dos vetores. As seguintes con-
dies so equivalentes:
que igual a
(ax + by, cx + dy) + (x + y, x + y);
somando os vetores, conclumos que
Reagrupando os termos,
que bem menos fcil de lembrar que a anterior. Imagine se, ao invs de compor duas
funes, precisssemos compor trs ou quatro: uma rotao, seguida de uma reflexo, de
uma nova rotao e finalmente uma projeo. Problemas como este ocorrem frequente-
mente na prtica e levaram Arthur Cayley, no sculo XIX, a procurar uma maneira sucinta
de resolv-los. Para isto ele inventou as matrizes.
2. TRANSFORMAES LINEARES 17
2.6. Matriz de uma transformao linear. A ideia de Cayley que, uma vez fixada
uma base do plano, uma transformao linear fica completamente determinada por quatro
nmeros: os coeficientes de x e y nas expresses que definem as coordenadas de T (x, y).
Quando
T (x, y) = (ax + by, cx + dy),
os nmeros so a, b, c e d. Mas isto significa que, para fazer clculos com T basta conhecer
estes nmeros e descobrir como se transformam sob estes clculos. Para tornar tudo mais
transparente, Cayley resolveu dispor estes nmeros em um quadro,
" #
a b
c d
e assim foram inventadas as matrizes. Como sempre, este resumo histrico no representa
o que realmente aconteceu. A disposio em forma de quadro j era usada desde o sculo
XVIII para denotar determinantes, e o nome matriz foi usado por Sylvester antes mesmo
do primeiro artigo do Cayley sobre o assunto; para mais detalhes, consulte [3, p. 171].
Como a matriz de uma transformao depende completamente da base do plano que foi
escolhida e fixada, denotaremos a matriz de T escrita acima por (T ) , em que = {e1 , e2 }
a base na qual estamos escrevendo as coordenadas dos vetores do plano.
Usando esta notao e as expresses para a projeo, reflexo e rotao em termos das
coordenadas dos vetores, podemos facilmente determinar as matrizes correspondentes a
estas transformaes lineares; que so
" # " #
a2 ab 1 2a2 2ab
( Proju ) = e (R) =
ab b2 2ab 1 2b2
em que (a, b) so as coordenadas do vetor unitrio u e
" #
cos() sen()
( ) =
sen() cos()
para a rotao anti-horria de um ngulo . Na verdade, no caso da projeo e da refle-
xo, a matriz pode ser expressa de maneira ainda mais compacta usando operaes com
matrizes, como veremos no artigo 3.4. Enquanto isto, vamos nos contentar em descrever
explicitamente as matrizes correspondentes soma e composio de dois operadores.
Para isto, considere duas transformaes lineares T e S do plano, definidas em uma
base por
T (x, y) = (ax + by, cx + dy) e S(x, y) = (x + y, x + y).
Pela regra criada por Cayley as matrizes correspondentes na base sero
" # " #
a b
(T ) = e (S) = .
c d
18 1. O PLANO
3. Matrizes
Uma vez introduzido um novo conceito, improvvel que no venha a ser generalizado,
assim que surgir a oportunidade. No caso das matrizes, o prprio Cayley as apresentou em
um grau de generalidade muito maior que o adotado na seo anterior.
3.1. Definio geral. Considerando uma matriz como um quadro de nmeros, nada
nos impede de cri-las com qualquer nmero de linhas e colunas que desejemos. Nem
mesmo h a necessidade de que a quantidade de linhas e colunas seja a mesma. Tendo
isto em vista, Cayley definiu matrizes m n como quadros de nmeros com m linhas
e n colunas cujas posies podem ser preenchidas por nmeros reais, ou outros objetos
matemticos de natureza semelhante. Como seria de esperar, as matrizes para as quais
m = n so chamadas de quadradas; as demais so conhecidas como matrizes retangulares.
Os nmeros que ocupam as vrias posies de uma matriz so conhecidos como entra-
das ou coeficientes da matriz e dispostos em uma tabela, encapsulada por colchetes. Para
no ter que repetir todo o quadro numrico a cada vez que nos referimos a uma matriz,
vamos design-las por letras, geralmente maisculas. Por exemplo,
1 5 5/7
A = 1/8 9 8 /2
0 65 0 7/
uma matriz com 3 4 (isto , tem 3 linhas e 4 colunas) cujas entradas so nmeros reais.
3. MATRIZES 19
Para localizar uma entrada em uma matriz, definimos sua posio em termos da linha
e da coluna que ocupa. Por exemplo, na matriz A acima, /2 ocupa a posio 2, 4 e 65
a posio 3, 2. Como frases do tipo o nmero ocupa a posio que est na interseo
da linha i com a coluna j da matriz M so muito verbosas, vamos abrevi-las escrevendo
simplesmente
Mi,j = ou M [i, j] = .
conforme nossa convenincia. Assim, tomando como base a matriz A do exemplo acima
mais uma vez, temos
A1,4 = 5/7 e A(2, 2) = 9.
Usando esta nomeclatura, a diagonal de uma matriz M corresponde s posies Mi,i . Na
matriz do exemplo, a diagonal formada pelas entradas
A1,1 = 1, A2,2 = 9 e A3,3 = 0.
Naturalmente a diagonal de uma matriz s se parece com uma diagonal, no sentido ge-
omtrico do termo, quando a matriz quadrada. Chamaremos de diagonal as matrizes
quadradas cujas nicas entradas no nulas pertencem sua diagonal. Por exemplo, a ma-
triz
1 0 0 0 1 0 0 0
0 /2 0 0 0 /2 8 0
0 0 4 0 diagonal, j 0 0 4 0 no .
0 0 0 2 0 0 0 2
A mais importante de todas as matrizes diagonais a matriz identidade. Denotada por I,
ou In quando for necessrio deixar claro que se trata de uma matriz n n, ela tem 1s ao
longo da diagonal e zeros em todas as outras posies, como o caso de
1 0 0 0
0 1 0 0
I4 = 0 0 1 0
0 0 0 1
1 3 32
Esta maneira de definir matrizes ser muito til na formalizao das regras usadas nas
operaes com matrizes.
3.2. Operaes com matrizes. Nosso objetivo neste artigo adaptar as regras que
descobrimos para a adio e multiplicao de matrizes 2 2 para o caso geral em que as
matrizes no so nem mesmo quadradas. Antes, porm, de escrever estas regras, precisa-
mos saber comparar duas matrizes e determinar se so ou no iguais. Como matrizes so,
em ltima anlise, uma espcie de tabela, diremos que duas delas so iguais se isto valer
para as tabelas correspondentes. Mais precisamente, para que uma matriz A de tamanho
m n e uma matriz B de tamanho r s sejam iguais, suas dimenses precisam coincidir,
de modo que m = r e n = s e as entradas de uma mesma posio devem coincidir; isto ,
Ai,j = Bi,j
para todo 1 i m e 1 j n.
Em nosso estudo das operaes manteremos as convenes estabelecidas acima para
as matrizes A e B. Comearemos analisando a adio. Como vimos, para somar duas
matrizes 2 2, somamos os seus coeficientes entrada a entrada. Para podermos estender
isto s matrizes A e B necessrio que tenham as mesmas dimenses; isto , que m = r e
3. MATRIZES 21
que n = s. Admitindo que isto se verifica, podemos descrever a soma A + B a partir dos
seus coeficientes por
(A + B)i,j = Ai,j + Bi,j .
Em outras palavras, a entrada i, j da soma igual soma das entradas i, j das matrizes
A e B. Outra operao fcil de descrever desta maneira a multiplicao de uma matriz
por um escalar, que no apareceu antes e no deve ser confundida com a multiplicao de
matrizes. Se for um nmero real, definimos a matriz A por
( A)i,j = Ai,j .
Portanto, A a matriz obtida multiplicando-se cada coeficiente de A por . Por exemplo,
1 5 5/7 2 10 2 10/7
(2) 1/8 9 8 /2 = 1/4 18 16
0 65 0 7/ 0 130 0 14/
As operaes de adio de matrizes e multiplicao de uma matriz por um escalar satisfa-
zem algumas propriedades simples que listamos a seguir. Se A, B e C so matrizes m n
e e so nmeros reais, ento
(1) (A + B) + C = A + (B + C);
(2) A + B = B + A;
(3) A + 0 = A;
(4) (A + B) = A + B;
(5) ( + ) A = A + A;
(6) 1 A = A;
(7) 0 A = 0;
em que o smbolo 0, usado nas propriedades (3) e no lado direito da propriedade (7) denota
a matriz cujas entradas so todas nulas. Entretanto, o 0 que multiplica a matriz A do
lado esquerdo de (7) nosso velho conhecido, o nmero real zero. Observe que estas
propriedades so muito semelhantes s da adio de vetores e multiplicao de um vetor
por escalar, descritas no artigo 1.1. Prov-las fica por sua conta.
Passemos frmula para a multiplicao de matrizes. A maneira usual de descrev-la
recorre a uma frmula geral, cheia de coeficientes. Mas h uma maneira mais civilizada de
express-la. Comeamos com o caso em que
" #
h i c1
L = `1 `2 e C =
c2
A regra para multplicao de matrizes 2 2 deduzida no artigo 2.6 sugere que deveramos
definir o produto LC como sendo a matriz 11 cuja nica entrada `1 c1 +`2 c2 . Podemos
22 1. O PLANO
considerar isto como uma matriz 1 1 ou como um nmero real, isto , um escalar. Em
geral, se
c1
h i .
L = `1 `n e C = .
.
cn
ento copiamos a definio acima, escrevendo,
(8) L C = `1 c1 + + `n cn .
Por exemplo, quando
h i 4
L = 1 2 3 e C = 5
6
obtemos
L C = 1 4 + 2 5 + 3 6 = 32.
Note que escolhemos L como tendo n colunas e C como tendo n linhas, do contrrio
sobrariam coeficientes em L ou C quando vissemos a construir o somatrio que define
L C. Pondo de outra maneira,
Usaremos esta frmula para provar que a matriz identidade merece o nome que tem;
isto , que se comporta como uma identidade relativamente multiplicao de matrizes,
de modo que
A In = In A = A,
para toda matriz quadrada A de tamanho n n. Pela frmula acima,
(A In )(i, j) = A(i, :) In (:, j).
Mas In (:, j) tem apenas uma entrada no nula, que fica na posio j, j. Portanto, pela
frmula (8),
A(i, :) In (:, j) = A(i, j).
Logo,
(A In )(i, j) = A(i, j),
de modo que a entrada i, j de A In coincide com a entrada de mesma posio de A,
provando a igualdade destas duas matrizes. A igualdade In A = A provada de maneira
semelhante, os detalhes ficam por sua conta. Argumentos parecidos permitem provar as
seguintes propriedades da multiplicao de matrizes:
3.3. Algumas matrizes especiais. Vrias matrizes especiais aparecero ao longo des-
te livro. Precisaremos introduzir algumas das mais bsicas nesta seo porque algumas de
suas propriedades sero necessrias j no prximo captulo.
Os primeiros tipos especiais de matrizes que introduziremos dizem respeito ao posicio-
namento dos zeros. Seja A uma matriz retangular de tamanho m n. Se todas as posies
abaixo da diagonal de A so nulas, ento A triangular superior; se so as posies acima
da diagonal que so nulas, dizemos que A triangular inferior. Na notao introduzida no
artigo 3.2 estas definies podem ser formuladas da seguinte maneira
( (
j>i triangular inferior
se Ai,j = 0 sempre que ento A
j<i triangular superior
Por exemplo,
1 1 1 1 3 0 0 0 0
0 1 0 3 8 3 0 0 0
0 0 4 17 triangular superior e
triangular inferior.
11 7 7 0 0
0 0 0 2 1 8 2 7 1
3. MATRIZES 25
Em seguida definimos uma famlia de matrizes a partir das quais qualquer matriz pode
ser representada. Digamos que m e n so inteiros positivos. Dados inteiros 1 i m e
1 j n, definimos Eij como sendo a matriz m n que tem 1 na posio i, j e zero
em todas as suas outras entradas. Usando, mais uma vez, a notao do artigo 3.2, podemos
definir as entradas desta matriz por
(
1 se i = k e j = `
Eij (k, `) =
0 em qualquer outro caso
e assim por diante, num total de 2 3 = 6 matrizes, uma para cada posio no nula no
quadro 2 por 3.
A importncia destas matrizes est no fato de que podemos escrever qualquer matriz A
de tamanho m n como uma soma da forma
m X
X n
(9) A= A(i, j) Ei,j ,
i=1 j=1
em que A(i, j) denota a entrada de A que ocupa a posio i, j. muito fcil somar duas
matrizes representadas desta maneira, e deixamos isto por sua conta. Mais interessante
que a distributividade da multiplicao de matrizes nos permite calcular o produto de duas
matrizes expressas em duplos somatrios desde que saibamos calcular Ei,j Ek,` , quaisquer
que sejam 1 i, k m e 1 j, ` n. Como Ei,j e Ek,` tm apenas uma posio no nula
cada, seu produto pode ter, no mximo, uma entrada no nula. Se existir, esta entrada tem
que aparecer quando multiplicamos a i-sima linha de Ei,j pela `-sima coluna de Ek,` ,
porque qualquer posio fora desta linha e coluna so nulas. Entretanto, para que haja de
fato uma entrada no nula preciso que o 1 ocupe na i-sima linha exatamente a mesma
posio que ocupa na `-sima coluna; que uma maneira prolixa de dizer que k tem que
ser igual a j. Resumindo,
(
Ei,` se j = k
(10) Ei,j Ek,` =
0 se j 6= k
Na decomposio que fizemos acima a matriz foi escrita diretamente a partir de suas
entradas, mas pode ser conveniente decompor uma matriz em termos de matrizes menores,
chamadas de blocos. Por exemplo, uma matriz 4 4 qualquer pode ser considerada como
26 1. O PLANO
uma matriz cujas entradas so, elas prprias, matrizes 2 2. Se a matriz 4 4 for
1 2 3 4
0 7 1 0
M =
1 2 9 4
1 2 30 11
os blocos sero as matrizes,
" # " # " # " #
1 2 3 4 1 2 4 4
A= , B= , C= , e D= ;
0 7 1 0 1 2 30 11
com o que podemos escrever
" #
A B
M=
C D
Em geral, se r fator de m e s fator de n, podemos representar uma matriz m n como
uma matriz formada por blocos de tamanho r s, que ter m/r blocos por linha e n/s
blocos por coluna.
Finalmente, dizemos que uma matriz quadrada A de tamanho n n inversvel se
existe uma matriz B, tambm de tamanho n n tal que
A B = B A = I.
Observe que esta equao s faz sentido quando A e B forem ambas matrizes quadradas
e de mesmo tamanho. A matriz B chamada de inversa de A e geralmente denotada por
A1 .
Ainda que toda matriz inversvel tenha que ser quadrada, nem toda matriz quadrada
inversvel. Por exemplo, a matriz Ei,j no inversvel, no importa que valores escolhamos
para i e j. Podemos provar isto facilmente usando as frmulas (9) e (10). Digamos, por
exemplo, que Ek,` seja uma matriz n n com 1 k, ` n. Se Ek,` tivesse como inverso
uma matriz A de tamanho n n, ento por (9) e pela distributividade da multiplicao de
matrizes
Xm X n
Ek,` A = A(i, j) Ek,` Ei,j ,
i=1 j=1
Em particular, todas as posies desta matriz localizadas fora da k-sima linha tm que
ser nulas. Contudo, a matriz identidade tem uma posio no nula, na diagonal, para cada
3. MATRIZES 27
c1 c2 c3 z1 z2 z3
teremos
a1 x 1 a1 x 2 a1 x 3
M X = b2 y1 + b1 x1 b2 y2 + b1 x2 b2 y3 + b1 x3 .
c3 z1 + c2 y1 + c1 x1 c3 z2 + c2 y2 + c1 x2 c3 z3 + c2 y3 + c1 x3
a1 x 1 =1
a1 x 2 =0
a1 x 3 =0
b2 y 1 + b1 x 1 =0
b2 y 2 + b1 x 2 =1
b2 y 3 + b1 x 3 =0
c3 z1 + c2 y1 + c1 x1 =0
c3 z2 + c2 y2 + c1 x2 =0
c3 z3 + c2 y3 + c1 x3 =1
A primeira coisa que este sistema nos revela que se a1 for nulo ento M no tem inversa,
porque a primeira equao do sistema j seria impossvel. Por outro lado, se a1 6= 0 ento,
resolvendo as trs primeiras equaes, obtemos
x1 = 1/a1 e x2 = x3 = 0.
28 1. O PLANO
Substituindo isto no sistema, as seis ltimas equaes podem ser reescritas na forma
b2 y1 + b1 /a1 = 0
b2 y 2 = 1
b2 y 3 = 0
c3 z1 + c2 y1 + c1 /a1 = 0
c3 z2 + c2 y2 = 0
c3 z3 + c2 y3 = 1.
Argumentando como acima verificamos que o sistema s ter soluo se b2 6= 0; neste
caso,
y1 = b1 /b2 a1 , y2 = 1/b2 e y3 = 0.
Substituindo estes valores nas trs ltimas equaes, vemos que o sistema ter soluo
z1 = (b1 c2 b2 c1 )/c3 b2 a1 , z2 = c2 /c3 b2 e z3 = 1/c3 .
se c3 6= 0; caso contrrio no haver soluo. Portanto, se a1 6= 0, b2 6= 0 e c3 6= 0, a
matriz M ter inversa igual a
1/a1 0 0
b1 /a1 b2 1/b2 0
(b1 c2 b2 c1 )/a1 b2 c3 c2 /b2 c3 1/c3
Estes clculos simples mostram que, pelo menos no caso 3 3, determinar a inversa de
uma matriz triangular inferior se reduz a achar as solues de um sistema linear muito fcil
de resolver. Voltaremos a considerar estes sistemas, conhecidos apropriadamente como
triangulares inferiores, de maneira mais abrangente no artigo 1.2 do captulo 2. Podemos
concluir, do que fizemos, que
uma matriz triangular inferior inversvel se, e somente se, no tem entradas nulas
ao longo da diagonal;
quando a inversa de uma matriz triangular inferior existe ela tambm triangular
inferior.
Estritamente falando, s provamos estes dois resultados para matrizes 33, mas eles valem
em geral. Na verdade a demonstrao do caso geral mera continuao do caso 3 3, j
podemos imaginar M como representando o vrtice superior de uma matriz triangular
superior n n quando n 3.
3.4. Matrizes retangulares, para qu? Ainda que voc tenha se convencido de que
as matrizes quadradas 2 2 possam ser teis na representao de transformaes lineares
do plano, talvez voc se perguntando se matrizes retangulares no so fruto da obsesso
dos matemticos em generalizar tudo o que pode ser generalizado. Apesar de ter todo o
3. MATRIZES 29
resto deste livro para lhe convencer de que no este o caso, no custa dar alguns exemplos
relacionados aos vetores do plano e suas transformaes lineares.
Para comear, podemos considerar um vetor do plano como sendo uma matriz.
primeira vista o natural seria descrever um vetor como sendo uma matriz 1 2, mas a
verdade que melhor identificar um vetor (a, b) com a matriz coluna
" #
a
.
b
A razo para esta escolha um tanto bizarra logo ficar clara. O fato que, somando vetores,
ou as matrizes que lhes coorespondem, obtemos o mesmo resultado. Mais precisamente,
Por isso, de agora em diante, consideraremos vetores do plano como sendo matrizes 2 1
sempre que isto for conveniente. Supondo isto para dois vetores u e v, podemos descrever
seu produto escalar, a partir do produto de matrizes, por
(11) hu |v i = ut v.
Note que convertemos o vetor coluna u em um vetor linha tomando a sua transposta, para
que fosse possvel efetuar a multiplicao desejada.
Passando s transformaes lineares do plano, vimos que se T definida, na base ,
por
T (x, y) = (ax + by, cx + dy)
ento a matriz a ela associada " #
a b
(T ) = .
c d
No entanto, um clculo simples mostra que se o vetor v tem coordenadas
" #
x
v= ,
y
na mesma base , ento as coordenadas de T v nesta mesma base sero
" #" #
a b x
Tv =
c d y
Com isto podemos explicar porque escolhemos representar vetores como matrizes colunas
e no linhas. Lembre-se que a uma transformao linear do plano fizemos corresponder
uma matriz 2 2. Vetores escritos como matrizes linha tm tamanho 1 2 o que nos obri-
garia a multiplic-los esquerda das matrizes que designam as transformaes. Mas isto
30 1. O PLANO
Exerccios
1. Sejam u e v vetores do plano. Use as propriedades do produto interno para calcular
hu + v|u + vi, hu v|u vi e hu v|u + vi
em funo de hu|vi e das normas de u e v.
3. Seja uma base do plano formada por dois vetores unitrios, e1 e e2 , perpendiculares
entre si. Prove que todo vetor v do plano pode ser escrito na forma
v = hv | e1 ie1 + hv | e2 ie2 .
8. Prove que uma transformao linear que preserva norma de vetores tem que preservar
distncia entre pontos.
10. Prove que um operador linear T do plano tem inverso se, e somente se, a matriz de T
relativamente a uma base do plano invertvel.
32 1. O PLANO
11. Dizemos que uma matriz n n C comuta com todas as matrizes n n se AC = CA,
qualquer que seja a matriz A, desde que tenha tamanho n n. Prove que se um
escalar, ento In comuta com todas as matrizes n n.
12. Mostre que a recproca do exerccio anterior verdadeira. Isto , prove que se C
uma matriz que comuta com todas as matrizes n n, ento existe um escalar tal que
C = In .
13. Seja Eij a matriz n n que tem zeros em todas as suas posies, exceto na posio ij,
cuja entrada igual a 1. Calcule A Eij e Eij A.
14. Mostre que se um escalar e i < j, ento (I + Eij )A igual matriz A com sua
j-sima linha substituda por ela prpria mais vezes a i-sima linha de A. O que
acontece quando calculamos A(I + Eij )?
17. Uma matriz A antissimtrica se At = A. Prove que toda matriz n n pode ser
escrita como a soma de uma matriz simtrica com uma antissimtrica.
19. Seja = {e1 , e2 } uma base do plano formada por vetores unitrios, perpendiculares
entre si. Dado R, definimos uma transformao linear c do plano por
c (e1 ) = e1 e c (e2 ) = e2 + e1 .
Calcule a matriz de c relativamente a . Transformaes como esta so conhecidas
como cisalhamentos.
25. Prove que se P a matriz de uma projeo do plano em uma reta ento P simtrica
e P2 = P.
27. Seja P a matriz de uma projeo do plano em uma reta. Explique como determinar
o vetor ao longo do qual feita a projeo e a reta sobre a qual se d esta projeo a
partir dos coeficientes de P .
28. Sejam A e B duas matrizes quadradas inversveis de mesmo tamanho. Prove que a
inversa de AB igual a B 1 A1 . Cuidado com a troca de posio das matrizes e
lembre-se que a multiplicao de matrizes no comutativa.
Sistemas lineares
1. Eliminao gaussiana
1.1. Sistemas lineares com duas equaes. Nos ltimos anos do ensino fundamental
aprendemos vrios mtodos para resolver sistemas lineares de duas variveis. Um deles,
o mtodo de adio, consiste em multiplicar uma (ou ambas) as equaes por constantes
apropriadas de modo que, quando forem somadas, resta uma equao linear em apenas
uma das variveis, que pode ento ser facilmente resolvida. Vejamos um exemplo. Se o
sistema for
x + 3y = 1
2x + 5y = 4,
ento subtramos da segunda equao o dobro da primeira, o que nos d y = 2; isto ,
y = 2. Substituindo isto em qualquer das duas equaes originais, podemos determinar
o valor de x. De fato, da primeira equao
x = 1 3y = 1 3 (2) = 7.
Portanto o sistema tem soluo x = 7 e y = 2.
Como este mtodo o ponto de partida para boa parte do que faremos no curso, vamos
analis-lo em detalhe. Comearemos defindo com cuidado algumas noes bsicas. Um
sistema linear nas variveis x e y corresponde a um par de equaes
(12) a1 x + a01 y = b1
a2 x + a02 y = b2 ;
35
36 2. SISTEMAS LINEARES
Levando em conta que a ordem das equaes no altera o sistema, escolheremos sem-
pre a primeira equao de maneira que nela o x aparea com coeficiente diferente de zero.
Observe que esta escolha sempre possvel, porque estamos supondo que se trata de um
sistema em duas incgnitas. No sistema (12) isto significa que podemos supor que a1 6= 0
na equao E1 . A estratgia que adotaremos consiste em substituir o sistema
( (
E1 = 0 E1 =0
por um sistema da forma
E2 = 0 cE1 + E2 = 0,
em que c um nmero real. Naturalmente c ser escolhido de maneira que o segundo
sistema seja mais fcil de resolver que o primeiro. De fato, se c = a2 /a1 , temos que
a2 a01
0 b 1 a2
(14) cE1 + E2 = a2 y (b2 );
a1 a1
de modo que cE1 + E2 = 0 uma equao linear em uma nica varivel (neste caso y). Se
a2 a01 b 1 a2
= a02 e = b2 ,
a1 a1
ento
(15) 0 = cE1 + E2 = y .
1. ELIMINAO GAUSSIANA 37
Esta anlise do mtodo de adio nos permite formul-lo como consistindo das seguin-
tes etapas:
A ordenao das equaes feita na primeira etapa garante que as solues do sistema fi-
quem completamente determinadas pelo resultado da terceira etapa. De fato, como vimos
acima, se escrevermos cE1 + E2 = 0 na forma y = , ento
Antes de encerrar este artigo, h um detalhe muito importante que at agora ignoramos.
De fato, ainda que nosso objetivo fosse resolver o sistema E1 = E2 = 0, o que fizemos foi
encontrar as solues de E1 = cE1 + E2 = 0. Naturalmente estes sistemas terem equaes
diferentes no muito significativo, o que importa que tenham exatamente as mesmas
solues, e isto que provaremos agora. Lembre-se que, segundo a definio dada acima,
os nmeros reais x0 e y0 definem uma soluo do sistema E1 = E2 = 0 se, e somente se,
os nmeros E1 (x0 , y0 ) e E2 (x0 , y0 ) so ambos nulos. Contudo,
E1 (x0 , y0 ) = E2 (x0 , y0 ) = 0
implica que, qualquer que seja c R,
cE1 (x0 , y0 ) + E2 (x0 , y0 ) = 0.
Como E1 (x0 , y0 ) = 0 por hiptese, segue-se que x0 e y0 tambm so solues do sistema
E1 = cE1 + E2 = 0. Mostramos, assim, que
falta a recproca. Para prov-la, suponha que x1 e y1 so nmeros reais que definem uma
soluo de E1 = cE1 + E2 = 0. Isto significa que
E1 (x1 , y1 ) = 0
cE1 (x1 , y1 ) + E2 (x1 , y1 ) = 0.
Entretanto, qualquer que seja c R,
E2 (x1 , y1 ) = (cE1 (x1 , y1 ) + E2 (x1 , y1 )) cE1 (x1 , y1 )
igual a zero, j que uma soma de termos nulos, o que prova a recproca. Como voltare-
mos a usar este resultado adiante, vamos enunci-lo como uma proposio.
P ROPOSIO 1.1. Sejam E1 e E2 polinmios lineares e c um nmero real. O sistema
E1 = E2 = 0 tem exatamente as mesmas solues que E1 = cE1 + E2 = 0.
ou mais incgnitas, todas com coeficientes nulos, completando assim o que falta para que
tenha tantas incgnitas quantas equaes.
Lembre-se que, no caso do mtodo de adio, o sistema fcil de resolver a que chega-
mos tinha:
Suponhamos, para simplificar a anlise, que a equao linear (2) tenha uma nica soluo.
Para resolver o sistema, determinamos esta soluo, que chamaremos de y0 , a partir de (2)
e a substitumos no lugar de y em (1). O resultado uma equao linear na varivel x que,
sob as hipteses feitas na pgina 37, sempre pode ser resolvida, retornando como soluo,
um valor x0 . A soluo do sistema ser, ento, x = x0 e y = y0 .
Podemos generalizar isto para um sistema com n equaes e n incgnitas x1 , . . . , xn
supondo que
Note que a primeira equao pode depender de todas as variveis, a segunda no pode
depender da varivel x1 , a terceira no pode depender da varivel x2 , e assim por diante
at a n-sima equao, que depender apenas da varivel xn . Um sistema deste tipo
chamado de triangular superior por causa da forma que assume quando escrevemos uma
equao abaixo da outra. Por exemplo, denotando por Ai,j os coeficientes das variveis e
por b1 , . . . , bn os termos constantes, os sistemas triangulares superiores tm a forma
Sempre que tratarmos de sistemas triangulares superiores, suporemos que suas equaes
foram ordenadas de modo que os coeficientes das incgnitas x1 , . . . xi1 so todos nulos
na i-sima equao. Isto significa que o sistema tem a forma de 16.
40 2. SISTEMAS LINEARES
Denotando este nmero por r, vamos substitu-la no lugar de xn nas n 1 primeira es-
quaes do sistema. Com isto, as parcelas que envolvem xn nestas equaes tornam-se
constantes, ao passo que as parcelas que envolvem x1 , . . . , xn1 no so afetadas. Agru-
pando os termos constantes do lado direito de cada equao, o sistema resultante
(17) x + 3y + z + w =1
z + 5w =6
4z w =2
2w = 12
x + 3y = 7
0 = 22
42 2. SISTEMAS LINEARES
triangular superior, mas no est na forma escada. Observe que um sistema na forma
escada pode pular um degrau, como o caso de
x + 3y + z + w = 1
z + 5w = 28
9w = 2.
Sistemas na forma escada no esto sujeitos a fenmenos como o do exemplo (17), cuja
impossibilidade s conseguimos detectar a meio caminho de sua resoluo. Isto ocorre
porque, um sistema em escada s pode ser impossvel se sua ltima equao no tiver
soluo. Digamos, por exemplo, que
E1 = 0, . . . , En = 0,
sejam as equaes de um sistema linear e suponhamos que, para um dado inteiro k entre
1 e n, a primeira incgnita com coeficiente no nulo na equao Ek x` . Se este sistema
est na forma escada, ento
` k;
as equaes Ek+1 = 0, . . . , En = 0 dependem apenas das variveis x`+1 , . . . , xn .
Isto significa que, se encontramos nmeros reais `+1 , . . . , n que constituam uma soluo
de Ek+1 = 0, . . . , En = 0, ento o valor de x` pode ser determinado a partir da equao
Ek = 0. Afinal, x` tem coeficiente no nulo nesta equao. Como este argumento se aplica
a todos os possveis valores de k para os quais 1 k < n, somente a ltima equao pode
ser impossvel.
E se o sistema for indeterminado? A nica maneira disto acontecer se a escada
que o sistema forma pular um degrau, caso contrrio teremos um sistema triangular sem
nenhuma posio nula ao longo da diagonal, que ser inevitavelmente determinado. Por
outro lado, dizer que o sistema pulou um degrau signfica que h uma equao a menos
intercalada, de modo que o sistema tem menos equaes (no nulas!) do que incgnitas.
As consideraes do pargrafo anterior mostram que, neste caso, se a ltima equao no
nula for possvel, ento o sistema ter soluo. Por outro lado, como h mais equaes que
incgnitas, teremos incgnitas sobre as quais no est sendo imposta nenhuma restrio,
de modo que o sistema ser mesmo indeterminado. Convm resumir tudo isto na forma de
uma proposio, para referncia futura.
P ROPOSIO 1.2. Seja S um sistema em forma escada com n equaes e n incgnitas.
Ento o sistema :
equao, obtemos
y z + 3w = 3
4z 17w = 16
14z + 14w = 20,
e o problema mais uma vez se reduz a transformar em forma triangular um sistema menor,
desta vez
4z 17w = 16
14z + 14w = 20,
o que pode ser feito multiplicando por 3 a primeira linha deste sistema dois por dois e
somando o resultado ltima linha, do que resulta
4z 17w = 16
91
w = 36.
2
Reunindo as equaes simplificadas, obtemos o sistema triangular superior
(19) x+y+z+w =1
y z + 3w = 3
4z 17y = 16
91
w = 36.
2
que pode ser facilmente resolvido por substituio reversa, produzindo a soluo
6 1 58 72
x= , y= , z= e w == .
7 91 91 91
Uma anlise, ainda que superficial, dos clculos realizados acima mostra que se trata
de um procedimento recursivo baseado em uma operao inteiramente similar utilizada
no mtodo de adio. Mais precisamente, dadas duas equaes E e E 0 diremos que a
operao que consiste em
uma operao elementar entre as linhas E e E 0 . Supondo que o sistema tem n equaes
em n incgnitas, aplicamos esta operao n 1 vezes, de modo a eliminar uma das incg-
nitas de n 1 das equaes dadas. Estas n 1 equaes formam ento um sistema com
n 1 incgnitas ao qual o mesmo procedimento pode ser aplicado recursivamente. Este
algoritmo, conhecido como mtodo de eliminao de Gauss, pode ser aplicado a qualquer
46 2. SISTEMAS LINEARES
sistema linear. Como uma incgnita eliminada a cada passo da recurso, o sistema resul-
tante ao final ser triangular superior e, portanto, facilmente resolvido usando os mtodos
do artigo 1.2.
Naturalmente, para que os valores retornados por este algoritmo sejam solues do sis-
tema original preciso que ele e o sistema triangular superior tenham exatamente as mes-
mas solues. Mas isto segue da proposio 1.1, que foi deliberadamente formulada sem
que o nmero de incgnitas nas equaes fosse especificado, porque a mesma demonstra-
o funciona se h duas ou qualquer outra quantidade delas presentes nas equaes. Talvez
voc esteja pensando: tudo bem, mas que s tratamos do caso em que h duas equaes,
disto no h como escapar. Sem dvida, mas na verdade isto basta. Afinal de contas, este
algoritmo pode ser considerado como consistindo de uma sucesso de operaes elemen-
tares aplicadas a vrios pares de linhas. Naturalmente a palavra chave aqui par: a cada
operao realizada, somente uma linha alterada por outra, as demais ficam como esto.
Por isto basta saber que uma soluo comum a duas equaes E e E 0 se, e somente se,
uma soluo comum a E e cE + E 0 , que exatamente o que a proposio 1.1 nos diz.
No prximo artigo veremos uma maneira mais prtica de executar este algoritmo. En-
tretanto, convm desde j chamar a ateno para o fato de que a afirmao, feita acima, de
que podemos aplic-lo a qualquer sistema linear deve ser tomada com uma boa dose de
cautela. Considere, por exemplo, o sistema
x+y+z =1
x + y + 2z = 3
x + 2y z = 4.
Usando a primeira equao para elimar a varivel x das outras duas equaes, obtemos
x+y+z =1
z=2
y 2z = 3.
Note que y no pode ser eliminado da ltima equao por uma operao elementar, j
que seu coeficiente na segunda equao nulo. Mas por que desejaramos fazer isto?
Afinal, basta trocar as duas ltimas equaes entre si e o sistema j est na forma triangular
superior, o que basta para nossos propsitos. Voltaremos a este ponto no prximo artigo.
mesma varivel sistematicamente uns sobre os outros numa tabela ou, usando a termino-
logia da lgebra linear, numa matriz, conhecida como matriz aumentada do sistema. Por
exemplo,
(20) x+y+z+w =1
2x + 3y + z + 5w =5
x + 7y z + 2w =3
5x y 3z + w = 7,
tem como matriz aumentada
1 1 1 1 1
2 3 1 5 5
A=
1 7 1 2
.
3
5 1 3 1 7
Agora, executando uma operao elementar entre as duas primeiras equaes de (20), ob-
temos o sistema
x+y+z+w =1
y z + 3w =3
x + 7y z + 2w =3
5x y 3z + w = 7,
cuja matriz aumentada
1 1 1 1 1
0 1 1 3 3
1 7 1 2 3
5 1 3 1 7
A operao elementar que efetuamos sobre as duas primeiras equaes de (20) pode ser
facilmente reformulada em termos das linhas da matriz. Considerando as linhas de A como
matrizes 1 5, a operao executada substituiu a segunda linha por ela prpria, somada a
2 vezes a primeira linha:
h i h i h i
2 3 1 5 5 2 1 1 1 1 1 = 0 1 1 3 3
Em geral, se L e L0 so duas linhas de uma matriz M e c um nmero real, diremos que
A no ser que c ou L sejam nulos, a matriz que resulta da aplicao de uma operao
elementar por linha a M diferente de M . Naturalmente, quando aplicamos uma operao
48 2. SISTEMAS LINEARES
segunda aos de y, e assim por diante. Fazendo isto, obtemos o sistema (19) da pgina 45,
como voc pode facilmente verificar.
importante voc entender que no h nada a provar sobre a verso matricial do m-
todo de eliminao. Afinal, do ponto de vista matemtico, a nica coisa que fizemos foi
escrever os coeficientes do sistema em uma matriz, em vez de usar as variveis como mar-
cadores de posio, como vnhamos fazendo at aqui. A operao elementar por linha no
passa de uma transcrio direta para a linguagem das matrizes da operao elementar so-
bre as equaes introduzida no artigo 1.3. Porm, uma vez que o mtodo foi traduzido em
termos matriciais, nada nos impede de aplic-lo a qualquer matriz, mesmo uma que no
seja matriz aumentada de nenhum sistema.
Por isso, conveniente introduzir uma terminologia especial para designar a matriz
triangular superior que resulta da aplicao do mtodo de eliminao gaussiana a uma
matriz A, qualquer que seja ela. Vamos chamar esta matriz triangular de forma escada ou
escalonada por linha de A. Portanto, a forma escada de
1 1 1 1 1 1 1 1 1 1
2 3 1 5 5 0 1 1 3 3 .
1 7 1 2 3 a matriz 0 0 4
17 16
5 1 3 1 7 0 0 0 91/2 36,
x + 4y + 6z + w = 11
2x + 8y + 5z w =9
3x + 5y + 2z 5w =5
4x + 2y z 3w =1
Desta vez, usamos uma barra vertical para separar os coeficientes das variveis dos termos
constantes. Esta barra no parte da matriz, mas sim um recurso visual que nos ajuda a
distinguir dois grupos de nmeros com significados distintos e evitar confuses e erros.
Um computador, por exemplo, no requer tais artifcios.
50 2. SISTEMAS LINEARES
Usando operaes elementares por linha para anular as posies da primeira coluna de
A abaixo de 1, 1, obtemos a matriz
1 4 6 1 | 11
0 0
7 3 | 13
.
0 7 16 8 | 28
0 14 25 7 | 43
x + 4y + 6z + w = 11
7y 16z 8w = 28
7z + 9w = 13
6w =0
tem soluo
41 12 13
x= , y= , z= , e w = 0.
49 49 7
Para chamar a ateno para a necessidade de trocar linhas ao longo da aplicao do mtodo
de eliminao acrescentamos a expresso com pivoteamento. primeira vista, usar tal
preciso por conta de meras trocas de linha parece apontar excesso de zelo. Entretanto,
como veremos no artigo 2.3, a troca de linhas pode levar a resultados incorretos quando
aplicamos a eliminao gaussiana como parte de outros algoritmos.
Ainda h um detalhe importante sobre a eliminao que no apareceu nos exemplos
anteriores. Considere o sistema
x + 3y + z + w =1
x + 3y + 6w = 29
x + 3y + 4z + 5w = 31
x + 3y + 16z + 2w = 37
Naturalmente, a primeira entrada no nula de uma dada linha aquela entrada no nula
que aparece mais esquerda naquela linha. Aplicada a uma matriz qualquer, a eliminao
gaussiana sempre retorna uma matriz em forma escada. De fato, se as linhas i e j de uma
matriz A tm primeira entrada no nula na coluna k, podemos usar Ai,k como piv para
anular Aj,k , encurtando assim uma das linhas.
tem k como seu nico parmetro, podemos nos perguntar para que valores de k o sistema
determinado, indeterminado ou impossvel. A matriz aumentada deste sistema, que
1 k 10
k 1 k 2 1 + k k ,
k k 1 1k
0 0 1 k 2 k 3 + k 2 k + 1.
x ky + z = 0
y+z =k
(1 k 2 )z = k 3 + k 2 k + 1.
Note que se k = 1 todos os coeficientes da ltima equao se anulam, de modo que, neste
caso, o sistema ter infinitas solues; uma para cada valor que escolhermos para z. Por
outro lado, se k = 1, ento a ltima equao se torna 0 = 4, o que torna o sistema
impossvel neste caso. Finalmente, se k 6= 1 a ltima equao tem uma nica soluo, a
saber
k 3 + k 2 k + 1
z= ;
(1 k 2 )
da qual podemos deduzir valores para y e x usando o mtodo de substituio reversa.
Resumindo, o sistema :
determinado se k 6= 1;
indeterminado se k = 1;
impossvel se k = 1.
Note que, neste exemplo, o comportamento deste sistema ficou completamente deter-
minado por sua ltima equao. Isto porque, tendo escolhido k de modo que exista um
valor de z que seja soluo da ltima equao, valores correspondentes para x e y sempre
podem ser encontrados. Mais precisamente, embora os valores de x e y possam depender
de k; a possibilidade de encontr-los no afetada pelo valor de k escolhido. Como mostra
nosso prximo exemplo, nem sempre as coisas so to simples.
54 2. SISTEMAS LINEARES
x + ky + 7z + 9w = k
3x + (4k + 1)y + 22z + 28w = 3k + 3
2x + (3k + 1)y + (2k + 15)y + 20w = 2k 5
x + (3k + 2)y + (2k + 9)z + (k + 10)w = k + 30.
x + ky + 7z + 9w = k
(k + 1)y + z + w = 3
2kz + w = 8
(k 2)w = 16
x + +7z + 9w =0
y+z+w =3
w = 8
2w = 16;
1. ELIMINAO GAUSSIANA 55
que indeterminado, pois as duas ltimas equaes coincidem e nenhuma restrio im-
posta a z. Finalmente, se k = 1, o sistema
x + ky + 7z + 9w =k
z+w =3
2z + w = 8
3w = 16
determinado: se k 6= 1, 0, 2;
impossvel: se k = 2 ou k = 1;
indeterminado: se k = 0.
Desta vez, queremos c em funo de a e b de modo que o sistema seja determinado, inde-
terminado ou impossvel. A matriz aumentada
1 8 2 a
5 4 2 b
7 16 2 c
0 0 0 3a 2b + c
56 2. SISTEMAS LINEARES
x + 8y 2z = a
36y + 8z = b 5a
0 = 3a 2b + c
Para comear, o sistema nunca tem uma nica soluo, porque a nica maneira da ltima
equao fazer sentido se seu termo constante for igual a zero. Isto ocorre quando c =
3a + 2b, de modo que, sob esta condio o sistema tem soluo; na verdade, infinitas
solues. Resumindo, o sistema :
determinado: nunca;
impossvel: quando c 6= 3a + 2b;
indeterminado: quando c = 3a + 2b.
2. Decomposio de matrizes
A / O / A
Neste caso, decifrar o orculo resume-se a identificar . Mas isto muito fcil de fazer:
basta dar como entrada a O a matriz identidade n n. Como O atua multiplicando por
a matriz que lhe foi dada como entrada, a sada neste caso ser a prpria .
Passando ao caso que nos interessa, sejam 1 i < j n inteiros e suponhamos que
O o orculo que, ao receber uma matriz A, retorna a matriz obtida somando linha j de
A o produto de sua linha i por um escalar r. Levando em conta que a nica posio no
nula da linha i da matriz identidade I ocorre na diagonal e vale 1, podemos concluir que
ao receber I este orculo retornar a matriz
1 0 0 0 0 0
0 1 0 0 0 0
.. .. .. .. .. .. .. .. ..
. . . . . . . . .
Cji (r) =
0 0 r 1 0 0
.. .. .. .. .. .. .. .. ..
. . . . . . . . .
0 0 0 0 1 0
0 0 0 0 0 1
em que o r est localizado na posio ji. Portanto, podemos afirmar que:
Resta-nos verificar que Cji (r)A de fato igual matriz obtida a partir de A substituindo-se
sua j-sima linha por ela prpria somada a r vezes sua i-sima linha. Para isto, observe
que Cij (r) pode ser escrita na forma
I + rEji
em que I a matriz identidade n n e Eji a matriz que tem todas as suas entradas nulas,
exceto a da posio ji, que vale 1. Portanto, se A for uma matriz n m,
Cij (r) A = (I + rEji ) A
que igual a
I A + rEji A = A + rEji A
58 2. SISTEMAS LINEARES
pois a multiplicao de matrizes distributiva. Logo, tudo o que temos que fazer desco-
brir quanto vale Eji A.
Mas a k-sima linha de Eji A obtida multiplicando-se a k-sima linha de Eji por cada
uma das colunas de A. Portanto, a nica linha de Eji A que pode ser diferente de zero
a j-sima, porque contm a nica entrada no nula de Eji : o um que fica na posio ji.
Contudo,
[0, 0, , 1, , 0] A(:, k) = A(i, k);
de modo que a j-sima linha de Eji A ser igual i-sima linha de A. Logo,
Eji A uma matriz cujas linhas so todas nulas, exceto pela sua j-sima
linha, que igual i-sima linha de A.
Como,
Cij (r) A = A + r(Eji A),
podemos concluir que esta matriz difere de A apenas em sua j-sima linha, que aparece
somada a r vezes A(i, :), que a nica linha no nula de Eji A. Comprovamos, assim,
que Cji (r)A igual matriz obtida aplicando a A a operao elementar correspondente a
somar r vezes a i-sima linha de A sua j-sima linha. E por isso que as matrizes da
forma Cij (r) so chamadas de elementares.
Por exemplo, o sistema (20) da pgina 47 tem
1 1 1 1 1
2 3 1 5 5
A= 1 7 1
2 3
5 1 3 1 7
por matriz aumentada. Para por este sistema em forma triangular superior, utilizamos as
seguintes operaes elementares por linha, para cada uma das quais escrevemos a matriz
elementar correspondente, segundo a receita que acabamos de descobrir:
Portanto,
(21) C43 (7/2) C42 (6) C32 (6) C41 (5) C31 (1) C21 (2) A
deve ser igual matriz triangular superior
1 1 1 1
0 1 1 3
,
0 0 4
17
0 0 0 91/2
como fcil de verificar efetuando as contas. Fcil, mas muito trabalhoso, a no ser que
voc use o S CI L AB ou algum sistema equivalente.
As matrizes elementares tm duas importantes propriedades que precisamos mencionar
porque sero utilizadas mais adiante. A primeira, e mais bvia, que qualquer matriz
elementar triangular superior ou triangular inferior. Afinal, uma matriz elementar tem
apenas uma posio fora da diagonal. Quando esta posio est acima da diagonal, temos
uma matriz triangular superior; quando abaixo, temos uma matriz triangular inferior. Mais
precisamente, se 1 i, j n inteiros e a R, ento a matriz elementar Cij (a) de tamanho
nn
A segunda propriedade, muito mais interessante, afirma que Cij (a) uma matriz inversvel
quaisquer que sejam i 6= j e a R. Para provar isto basta exibir um inverso para Cij (a), o
que muito fcil, porque o inverso desta matriz Cij (a). Para provar isto, basta lembrar
que, ao multiplicar Cij (a) por Cij (a) estamos aplicando a operao elementar oposta a
que Cij (a) implementa; de modo que uma desfaz a outra. Mais precisamente, estamos
apenas afirmando que
Cij (a) Cij (a) I = I.
Esta propriedade importante suficiente para que devamos destac-la em um lema.
L EMA 2.1. Sejam i e j inteiros positivos distintos menores ou iguais a n e a um nmero
real. A matriz elementar Cij (a) inversvel e sua inversa igual a Cij (a).
x+y+z+w =1
2x + 3y + z + 5w =5
x + 7y z + 2w =3
5x y 3z + w = 7,
que vimos considerando desde a pgina 47. Em primeiro lugar, ao contrrio do que fizemos
na matriz aumentada, trataremos os coeficientes das variveis e os termos independentes
separadamente. Numa primeira tentativa, podemos escrever o sistema como uma igualdade
entre matrizes coluna:
x+y+z+w 1
2x + 3y + z + 5w 5
x + 7y z + 2w = 3 .
5x y 3z + w 7
O lado direito j bastante simples, mas no o lado esquerdo. Para simplific-lo ainda
mais, podemos representar os coeficientes e as variveis em matrizes diferentes, usando a
multiplicao de matrizes para combin-los da maneira desejada:
x+y+z+w 1 1 1 1 x
2x + 3y + z + 5w 2 3 1 5 y
x + 7y z + 2w = 1 7 1 2 z .
5x y 3z + w 5 1 3 1 w
1 1 1 1 x 1
2 3 1 5 y 5
1 7 1 2 z = 3 .
5 1 3 1 w 7
2. DECOMPOSIO DE MATRIZES 61
Tudo isto pode ser facilmente generalizado. Seja A uma matriz n n qualquer e di-
gamos que depois de aplicar eliminao gaussiana sem pivoteamento, chegamos a uma
matriz triangular superior U . Como cada operao elementar por linha aplicada a A cor-
responde a multiplicar esta matriz esquerda por uma matriz elementar, conclumos que
existem matrizes elementares C1 , . . . , Cm tais que
C1 Cm A = U.
Como cada matriz elementar inversvel, temos que
1
A = Cm C11 U.
Contudo, pelo lema (2.1) as matrizes C11 , . . . , Cm
1
so triangulares inferiores, j que isto
vale para C1 , . . . , Cm . Como o produto de matrizes triangulares inferiores tambm trian-
gular inferior, temos que
1
L = Cm C11
uma matriz triangular inferior e que
A = L U,
o produto de uma matriz triangular inferior L pela matriz U , que triangular superior.
Logo, sempre que for possvel reduzir uma matriz A a uma matriz triangular superior
pelo mtodo de eliminao sem pivoteamento, teremos que A admite uma decomposio
LU. Tivemos que acrescentar sem pivoteamento porque, nas consideraes acima, nunca
tratamos do que acontece quando duas linhas da matriz mudam de posio. Voltaremos a
isto no artigo 2.5.
Dada a importncia da decomposio LU, no podemos prosseguir sem antes conside-
rar como implementar um algoritmo capaz de calcular as matrizes L e U a partir de uma
matriz quadrada n n dada. A maneira bvia de proceder consiste em aplicar o mtodo
de eliminao gaussiana matriz A, guardando as matrizes elementares utilizadas para
efetuar cada uma das operaes por linha. O problema que, para valores grandes de n,
este procedimento consome muita memria. Por exemplo, se n = 10k , precisaremos guar-
dar cerca de 103k nmeros reais; veja exerccio 8. Levando em conta que sistemas com
milhares de equaes so comuns em aplicaes prticas, isto pode facilmente exaurir a
memria de um computador.
H duas sadas plausveis. A primeira consiste em guardar, no as matrizes elementa-
res, mas sim o mnimo de informaes necessrias para que sejamos capazes de reconstru-
las. Na prtica isto significa saber quais so as linhas sobre as quais a operao incidiu e
que constante multiplicou qual linha, antes de som-la outra. A vantagem desta maneira
de proceder que precisamos guardar apenas dois inteiros e um nmero real para cada
operao elementar realizada, com bvia economia de memria. Nesta verso a matriz
triangular inferior s completamente construda quando se fizer necessria.
64 2. SISTEMAS LINEARES
A implementao que faremos mais perdulria no uso de memria, mas tem a van-
tagem de construir completamente a matriz L, o que a torna mais til para os propsitos
deste livro. A ideia que, cada vez que aplicamos uma operao por linha a matriz A
fazemos o mesmo a uma outra matriz que, ao final da execuo, conter o valor de L1 .
Para isto criamos uma nova matriz, digamos A, b com o dobro das colunas de A, formada
por dois blocos n n. O primeiro destes blocos a prpria matriz A, o segundo a matriz
identidade de mesmo tamanho que A. Assim, podemos representar A b na forma [A, I]. As
operaes por linha necessrias para calcular U so ento aplicadas a toda a matriz A,b e
no apenas s posies na suas n primeiras colunas, que correspondem matriz A. Para
entender aonde queremos chegar com isto, digamos que o esquema abaixo representa o
processo de eliminao gaussiana aplicado a A
m
(24) A = A0 0 A1 1 A2 2 Am+1 = U,
em que j denota a operao elementar por linha aplicada a matriz Aj e da qual resulta a
matriz Aj+1 . Denotando por Cj a matriz elementar correspondente a j , temos que
Cj Aj = Aj+1 .
Encadeando estas equaes umas s outras, obtemos
U = Am+1 = Cm Am = Cm Cm1 Am1 = = Cm C1 A1 = Cm C1 C0 A0 .
Como A0 = A, isto implica que
Cm C1 C0 = L1 .
Tendo isto em vista, vejamos o que ocorre se aplicarmos a A b = [A, I] exatamente as
mesmas operaes utilizadas em (24). A sequncia de operaes e matrizes a seguinte:
A
b
0
[A0 , I] [C0 A, C0 I]
1
[A1 , C0 I] [C1 A1 , C1 C0 I]
[A2 , C1 C0 I]
..
.
[Am+1 , Cm C0 I]
2. DECOMPOSIO DE MATRIZES 65
Inicializa: A
b = [A, I];
lao principal: calcule a forma escada S de A b atravs da eliminao gaussiana
sem pivoteamento. Se isto no for possvel, retorne uma mensagem de erro e
pare;
sada: retorne U = S[1 : n, 1 : n] e L = S[1 : n, n : 2n]1 .
No esquea que I a matriz identidade de mesmo tamanho que A. Como estamos su-
pondo que A uma matriz n n, este ser tambm o tamanho de I.
H duas observaes importantes que devemos fazer sobre esta descrio do algoritmo.
A primeira que o lao principal pode falhar, j que no estamos permitindo a troca de
linhas como parte do procedimento de eliminao. A segunda que j sabemos como
inverter matrizes triangulares inferiores desde o artigo 3.3, onde vimos que este problema
equivale a resolver um sistema triangular inferior por substituio direta.
Estes dois sistemas so resolvidos por substituio: direta quando a matriz do sistema
triangular inferior e reversa quando triangular superior.
Voltando ao sistema (20) cuja matriz A tem decomposio LU dada por
1 0 0 0 1 1 1 1
2 1 0 0 0 1 1 3
L=
e U = 0 0 4
,
1 6 1 0 17
5 6 7/2 1 0 0 0 91/2
x0 = 1
y 0 + 2x0 = 5
z 0 + 6y 0 + x0 = 3
(7/2)z 0 6y 0 + 5x0 + w0 = 7.
x0 = 1, y 0 = 3, z 0 = 16 e w0 = 36.
Escrevendo estes valores das variveis nas entradas de uma matriz 4 1, temos
1
0
3
b = ,
16
36
x+y+z+w =1
y z + 3w = 3
4z 17w = 16
(91/2)w = 36.
Como se trata de um sistema triangular superior, podemos usar substituio reversa para
determinar
x = 6/7, y = 1/91, z = 58/91 e w = 72/91,
que j havamos obtido, por outro mtodo no artigo 1.3.
2. DECOMPOSIO DE MATRIZES 67
2.5. Decomposio LUP. Como observamos no artigo 2.3, o algoritmo que calcula a
decomposio LU de uma matriz quadrada A no funcionar corretamente se, ao aplicar o
mtodo de eliminao a A precisarmos efetuar trocas de linhas. Antes de entender o porqu
disto e tentar sanar o problema, precisamos descobrir qual a matriz que, multiplicada a
A, retorna uma matriz igual a A exceto pela troca de duas de suas linhas. Supondo que
as linhas em questo so i e j, podemos usar a mesma ideia do orculo, j empregada no
artigo 2.3, para descobrir que a matriz desejada pode ser obtida transpondo as linhas i e j
na matriz identidade. Mais precisamente, seja Ti,j a matriz n n definida por
I[k, :] se k 6= i, j
Ti,j [k, :] = I[j, :] se k = i
I[i, :] se k = j,
Mas isto significa que ao multiplicarmos Tij esquerda da matriz A trocamos a i-sima
coluna A de lugar com sua j-sima coluna. Portanto, quando calculamos
(Ti,j A) Ti,j
68 2. SISTEMAS LINEARES
porque as linhas e colunas sobre as quais Tk` atua so todas nulas. Como isto equivale a
escrever
Tk` Cji (r) = Cji (r)Tk` ;
tem a forma
A[2, 1] A[2, 2] A[2, 3] A[2, n]
0 ? ? ?
0
? ? ?
0 ? ? ?
. .. .. ..
. ..
. . . . .
0 ? ? ?
Como a entrada 1, 1 no nula, podemos us-la com piv. Fazendo isto, obtemos
1 4 6 1
0 0 7 3
C(4, 1, 4) C(3, 1, 3) C(2, 1, 2) A =
0 7 16 8 .
0 14 25 7
Neste ponto aparece um problema: o piv deveria ser a entrada 2, 2, que nula. Resolve-
mos este problema utilizando a matriz T2,3 , j que a posio 3, 2 no nula. Fazendo isto
e prosseguindo com a eliminao, obtemos
(27)
1 4 6 1
0 7 16 8
C4,3 (1) C4,2 (2) T2,3 C4,1 (4) C3,1 (3) C2,1 (2) A =
0 0 7 3 = U
0 0 0 6
que deveria ser triangular inferior, mas no . A matriz de transposio mudou a posio
de uma linha fazendo aparecer um 1 na posio 2, 3, que deveria ser nula. Felizmente, h
uma maneira de contornar este problema. A estratgia consiste em utilizar a frmula (25)
para deslocar a transposio para direita, at que esteja adjacente matriz A.
Para comear, note que, como T2,3 e C4,1 (4) comutam,
U = C4,3 (1) C4,2 (2) C4,1 (4) T2,3 C3,1 (3) C2,1 (2) A.
2
Por outro lado, como T2,3 = I, temos que
U = C4,3 (1) C4,2 (2) C4,1 (4) T2,3 C3,1 (3) T2,3 T2,3 C2,1 (2) A.
2. DECOMPOSIO DE MATRIZES 71
Mas,
T2,3 C3,1 (3) T2,3 = T2,3 (I 3E3,1 ) T2,3 = I 3(T2,3 E3,1 T2,3 )
que, pela frmula (25), igual a
I 3E2,1 = C2,1 (3),
de modo que
T2,3 C3,1 (3) T2,3 = C2,1 (3).
Isto nos permite escrever
U = C4,3 (1) C4,2 (2) C4,1 (4) C2,1 (3) T2,3 C2,1 (2) A,
com o qu T2,3 est uma casa mais prximo de A do que antes. Aplicando a mesma
estratgia mais uma vez, segue de
U = C4,3 (1) C4,2 (2) C4,1 (4) C2,1 (3) T2,3 C2,1 (2) T2,3 T2,3 A,
e de
T2,3 C2,1 (2) T2,3 = C3,1 (2)
que
U = C4,3 (1) C4,2 (2) C4,1 (4) C2,1 (3) C3,1 (2) T2,3 A.
A estratgia ter dado certo se
M = C4,3 (1) C4,2 (2) C4,1 (4) C2,1 (3) C3,1 (2)
for triangular inferior. Contudo Ci,j (a) triangular inferior sempre que i > j, o que ocorre
com todas as matrizes elementares no produto acima. Portanto, M mesmo triangular e o
mesmo ser verdadeiro para L = M 1 . Com isto, podemos escrever
T2,3 A = L U ;
que a forma que a decomposio LU toma quando h pivoteamento na eliminao gaus-
siana.
Em geral, tendo executado a eliminao gaussiana com pivoteamento sobre uma matriz
A de tamanho n n, obtemos uma matriz U triangular superior e um produto de matrizes
elementares, entremeadas aqui e ali por transposies. Usamos ento a regra
(
Ck,` (a) se j 6= k;
(28) Ti,j Ck,` (a) Ti,j =
Ci,` (a) se j = k;
para mover as transposies para a extremidade direita, de modo que seu produto P seja
imediatamente adjacente matriz A. Com isto obtemos uma equao da forma
M P A = U;
em que M um produto de matrizes elementares. O ltimo detalhe a verificar que M
, de fato, uma matriz triangular inferior. primeira vista isto parece bvio, porque as
matrizes elementares usadas na eliminao so triangulares inferiores. O problema so os
72 2. SISTEMAS LINEARES
T s. Tendo usado a frmula (28) para mudar um certo T de posio precisamos mostrar
que a matriz elementar resultante continua sendo triangular inferior. No caso em que i, j,
k e ` so distintos isto bvio, porque a matriz elementar no alterada. O outro caso
requer uma anlise mais cuidadosa. Em primeiro lugar, temos k > ` em Ck,` (a) porque
estamos anulando uma posio de uma linha usando um piv que pertence a uma linha
acima dela. Por outro lado, se uma transposio aparece em alguma posio esquerda
da matriz elementar Ck,` (a) ento as linhas que esto sendo trocadas esto ambas abaixo
da `-sima linha, onde se encontra o piv de Ck,` (a). Em particular, k < i, j. Portanto,
` < k < i, j e consequentemente a matriz Ci,` (a) tambm ser triangular inferior. Como
produtos e inversas de matrizes triangulares inferiores so tambm triangulares inferiores,
podemos concluir que L = M 1 triangular inferior. Assim,
P A = L U;
em que P uma matriz de permutao, L triangular inferior e U triangular superior.
Esta decomposio LU generalizada conhecida como decomposio LUP.
Para falar a verdade, a necessidade de escolher um piv adequado no se resume ao
caso em que a entrada que conteria o piv nula. Para entender qual o problema, basta
calcular a decomposio LU da matriz
" #
1020 1
A=
1 1
Ao eliminar a posio 2, 1, obtemos
" # " #
1020 1 1 0
U= e L= .
0 1 + 1020 1020 1
Entretanto, se estivermos utilizando uma implementao que representa os nmeros em
ponto flutuante, como ser o caso em quase qualquer aplicao deste algoritmo, a matriz
U ser escrita na forma " #
20
10 1
U0 =
0 1020
contudo, " #
0 1
LU 0 = .
1 0
Portanto, " #
20
10 0
A LU 0 =
0 1
e o erro cometido no clculo da posio 2, 2 totalmente inaceitvel. Para sanar o pro-
blema, devemos escolher no apenas um piv no nulo, mas sim o maior piv possvel.
Mais precisamente:
3. APLICAES 73
3. Aplicaes
(1) o determinante de uma matriz triangular superior igual ao produto das entradas
da sua diagonal;
(2) o determinante de uma matriz no alterado se matriz for aplicada uma operao
elementar por linha;
(3) o determinante muda de sinal se duas linhas da matriz forem trocadas uma com a
outra.
Estas trs propriedades nos permitem calcular qualquer determinante. De fato, seja A
uma matriz quadrada real de tamanho n n e suponhamos, para comear, que aplicando
eliminao gaussiana sem pivoteamento chegamos forma escada U de A. Denotando o
determinante de A por det(A), podemos concluir de (2) que det(A) = det(U ). Mas U
triangular superior, de modo que seu determinante pode ser facilmente calculado apelando
para (1). Por exemplo, vimos no artigo 1.4 que
1 1 1 1 1 1 1 1
2 3 1 5 0 1 1 3
A= 1 7 1 2 tem forma escada U = 0 0 4
.
17
5 1 3 1 0 0 0 91/2
que ter uma posio nula ao longo da diagonal. Mas isto implica que det(U 0 ) = 0. Ainda
que exista uma forma escada diferente para A ela no poder ser inversvel, de modo que
o mesmo argumento se aplicar. Portanto, se A no for inversvel teremos det(A) = 0,
independentemente da forma escada ser nica ou no. Na verdade, esta parte do argumento
independe at mesmo de haver ou no troca de linhas durante a eliminao.
3.2. Inverso de matrizes. Calcular a inversa de uma matriz usando eliminao gaus-
siana bastante simples. Seja A a matriz quadrada n n que desejamos inverter. Comea-
mos por construir a matriz [A, I] de tamanho n2n que consiste de dois blocos adjacentes:
a prpria matriz A e a matriz identidade I de mesmo tamanho que A. Lembre-se que j
tivemos oportunidade de usar esta matriz no artigo 2.3, onde vimos que a forma escada
de [A, I] [U, M ], em que U a forma escada de A e M a matriz, produto de matrizes
elementares e transposies, tal que M A = U . Como M inversvel, basta calcular a
inversa U 1 de U (desde que ela exista!) e teremos a inversa de A na forma U 1 M . Mas
U triangular superior, de modo que sua inversa pode ser facilmente calculada resolvendo
um sistema por substituio reversa. Tomando mais uma vez
1 4 6 1
2 8 5 1
A= ,
3 25 2 5
4 2 1 3
X U = I,
76 2. SISTEMAS LINEARES
x1 =1 16x5 7x6 =0
4x1 7x2 =0 8x5 3x6 + 6x7 =0
6x1 16x2 7x3 =0 7x8 =1
x1 8x2 + 3x3 + 6x4 =0 3x8 + 6x9 =0
7x5 =1 6x10 = 1.
Utilizando o mtodo de substituio direta, descobrimos que este sistema tem soluo
4 22 109 1
x1 = 1, x2 = , x3 = , x4 = , x5 = ,
7 49 294 7
16 4 1 1 1
x6 = , x7 = , x8 = , x9 = x10 = ;
49 147 7 14 6
de modo que
1 74 49
22 109
294
0 1 16 4
U 1 = 7 49 147
0 0 1 1 .
7 14
1
0 0 0 6
a inversa desejada.
H uma outra maneira de obter a inversa de U que muito conveniente quando cal-
culamos com papel e lpis, ainda que padea de alguns problemas quando executado no
computador em ponto flutuante. A ideia simplesmente aplicar eliminao gaussiana nas
3. APLICAES 77
linhas de U , s que de baixo para cima. No exemplo anterior, havamos obtido a matriz
1 4 6 1 | 1 0 0 0
0 7 16 8 | 3 0 1 0
[U, M ] =
0 0 7 3 | 2 1 0 0 .
0 0 0 6 | 0 1 2 1
Aplicando a esta matriz a operao elementar em que a segunda linha substituda pelo
produto de 3/2 pela terceira linha, resulta
1 4 6 1 | 1 0 0 0
0 7 16 8 | 3 0 1 0
0 0 7 0 | 2 3 1 1 .
2 2
0 0 0 6 | 0 1 2 1
Mais duas operaes elementares com base na quarta linha e chegamos matriz
1 4 6 0 | 1 61 13 16
0 7 16 0 | 3 4 5 4
3 3 3
0 0 7 0 | 2 3 1 1 .
2 2
0 0 0 6 | 0 1 2 1
que denotaremos por [D, Q]. Argumentando como no artigo 2.3, podemos escrever
1 0 0 0
0 7 0 0
QA=D =
0 0 7 0
0 0 0 6
que a mesma matriz que j havamos obtido anteriormente pelo outro mtodo.
Resta-nos explicar porque deveramos dar preferncia ao primeiro mtodo em detri-
mento do segundo, quando se trata de inverter matrizes automaticamente em um compu-
tador. No se trata de uma questo de eficincia, a eliminao gaussiana extremamente
rpida, mas sim de estabilidade. Mais precisamente, se vamos calcular a eliminao de
maneira exata, no faz diferena se usamos um mtodo ou o outro. Mas no isto que
acontece na prtica. Se a matriz que precisamos inverter vier de uma medida feita em um
experimento, ento os valores de suas entradas sero conhecidos apenas aproximadamente,
dentro de uma certa margem de erro. Por isso, ao inverter a matriz, precisamos ser capazes
de controlar o erro cometido nos clculos efetuados pelo prprio algoritmo de inverso.
Caso contrrio os valores das entradas da inversa podem no ter nenhum significado real.
Infelizmente, mesmo se tomarmos todos os cuidados necessrios na escolha do piv (veja
artigo 2.5), ainda no se sabe exatamente como estimar o erro da sada em termos dos
limites de erro da entrada, para o mtodo de eliminao gaussiana. Por outro lado, tal es-
timativa fcil de obter no caso da substituio reversa. E por isso que, ao implementar
um algoritmo, desejvel minimizar o uso da eliminao, sempre que isto for possvel.
Para uma dicusso mais detalhada da propagao do erro na eliminao gaussiana veja
[Trefethen e Bau, Lecture 22, p. 163].
3. APLICAES 79
9 3 1 | 4.
Aplicando eliminao gaussiana a esta matriz, obtemos a matriz escada
1 1 1 | 0
0 2 3 | 1
0 0 1 | 1,
que corresponde ao sistema triangular superior
a+b+c=0
2b 3c = 1
c=1
cuja soluo c = 1, b = 2 e a = 1. Portanto, o polinmio desejado
f (x) = x2 2x + 1,
cujo grfico, esboado na figura 1, realmente passa pelos pontos dados.
80 2. SISTEMAS LINEARES
.. ......
... ...
... ...
... ..
.. ..
..
.. .
..
.. ..
.. ..
.. ..
.. ..
.
.. ..
.. ..
..
... ..
..
... .
...
...
... ...
... ...
... ...
... .
....
.. ..
.. ..
.. ..
.. ..
..
... ...
...
... ...
..
.. ..
... ..
... ...
... .
.... ...
...... ....
.................... ........
F IGURA 1. Parbola
Inicialize S = ;
seja
f (x) = an xn + + a1 x + a0
um polinmio de grau n cujos coeficientes so valores a determinar (variveis);
Para cada ponto (x0 , y0 ) P construa a equao f (x0 ) = y0 e acrescente-a ao
sistema S;
resolva o sistema S;
se o sistema for determinado ou indeterminado, atribua os valores de uma solu-
o aos coeficientes de f e retorne o resultado;
se o sistema for impossvel, retorne uma mensagem de erro.
qual o menor grau que um polinmio deve ter para que defina uma curva
que passe por todos os pontos de um conjunto (finito) dado?
Exerccios
1. Resolva cada um dos sistemas abaixo pelo mtodo de adio.
( ( (
x 2y = 24 7x + 6z = 1 x 7y = 12
(a) (b) (c)
2x + 3y = 2 2x + 3y = 2 4x + 16y = 16
( ( (
3x + y =0 x y 2z = 0 3x + 3y = 2
(d) (e) (f)
9x + 3y = 0 3x 3y = 20 5x + 2y =1
82 2. SISTEMAS LINEARES
2. Resolva cada um dos sistemas traingulares abaixo pelo mtodo substituio direta ou
reversa, conforme o sistema seja triangular inferior ou superior.
x 2y 7z = 24 x + 4y + 6z = 11
(a) 3y 2z =2 (b) 9y + 7z =9
4z
=5 z =7
14z
= 20 3x + y + 2z = 0
(c) y + 12z = 24 (d) z =0
4x + 16y + 26z = 46
3z =0
x + 2y w = 0
x y 2z w = 0
y + 2z w = 0
(e) 5y + 3z + w = 0 (f)
z w 2z w =0
=0
3w =6
7. Suponhamos que estamos para aplicar eliminao gaussiana a partir da k-sima linha
de uma matriz A de tamanho n n:
(a) mostre que o piv tem que estar na linha k, ` em que ` k;
(b) construa um exemplo em que ` > k.
8. Mostre que a quantidade mxima de operaes por linha necessrias para transformar
uma matriz n n dada em sua forma escada por eliminao gaussiana igual a n(n
1)/2.
11. Use mtodo de eliminao para calcular o determinante de cada uma das matrizes 33
abaixo.
2 5 1 1 1 1 4 1 3
(a) 4 1 2 (b) 3 1 1 (c) 3 2 5
6 4 0 3 1 1 2 3 4
3 1 2 1 2 4 2 1 2
(d) 2 0 1 (e) 1 3 9 (f) 3 1 4
4 3 4 1 1 1 1 1 1
12. Use mtodo de eliminao para calcular o determinante de cada uma das matrizes 44
abaixo.
1 3 0 1 0 0 1 0 1 2 3 5
1 2 1 1 0 1 0 0 0 1 4 3
(a) 2 4 2 1
(b)
0 0 0 1
(c)
0 0 1 1
1 0 2 0 1 0 0 0 0 0 0 1
13. Usando eliminao gaussiana, determine quais das matrizes dos exerccios 11 e 12 tm
inversa e calcule a inversa, quando existir.
14. Calcule a inversa da matriz resultante do seguinte produto de matrizes elementares:
1 1 0 1 0 0 1 0 6 1 0 0 1 0 0 1 0 0
0 1 0 0 1 0 0 1 0 0 1 9 8 1 0 0 1 0
0 0 1 3 0 1 0 0 1 0 0 1 0 0 1 0 5 1
15. Determine uma funo polinomial que passa pelos pontos (1, 1), (2, 3), (3, 5) e (4, 4)
para cada um dos seguintes graus: 2, 3 e 4.
16. Determine uma circunferncia que passa por cada um dos seguintes conjuntos de pon-
tos do plano:
(a) (1, 1), (2, 3), (3, 5) e (4 + 2, 4);
(b) (2, 5), (3, 4), (4, 5) e (5/2, (10 + 3)/2).
CAPTULO 3
Modelos multidimensionais
Neste captulo veremos como usar matrizes para modelar alguns problemas concretos,
entre eles a evoluo de uma populao de animais ao longo do tempo e a determinao
da curva que melhor se adapta a um conjunto de pontos dados. A partir destes modelos
introduziremos as noes de espao multidimensional e suas transformaes lineares.
1. Dinmica de populaes
Leslie teve a ideia de representar estas trs equaes na forma de uma nica equao
matricial. Para isto, consideramos o vetor
h it
p(k) = p1 (k) p2 (k) p3 (k)
0 0, 22 0
e conhecida como a matriz de Leslie do modelo.
De posse desta matriz podemos facilmente determinar como a populao de salmes
evolui ao longo do tempo. Por exemplo, uma populao que comea com 100 indivduos
1. DINMICA DE POPULAES 87
Denotaremos por si,i+1 a porcentagem de indivduos da faixa etria i que atingem a faixa
etria i + 1 e por f1,i a taxa de fertilidade da faixa etria i. Note que 0 < si,i+1 1 j que
se trata de uma percentagem, ao passo que f1,i 0, uma vez que um indivduo pode dar
origem a muitos outros de cada vez. De posse destas taxas, podemos escrever
(
si1,i pi1 (k) para 2 i k
pi (k) =
f1,1 p1 (k) + + f1,k pk (k) para i = 1.
Seguindo a ideia original de Leslie, as mesmas equaes podem ser descritas compac-
tamente em notao matricial por
p(k + 1) = L p(k),
em que
p(k) = p1 (k) . . . pk (k)t
88 3. MODELOS MULTIDIMENSIONAIS
0 0 0 ... sn1,n 0
Tendo determinado o nmero de indivduos em cada faixa etria de uma populao em
um dado momento, podemos usar o modelo para prever sua evoluo ao longo do tempo,
calculando
(30) p(k) = Lk p(0)
para vrios valores de k, que so inteiros maiores que zero.
H muitas perguntas sobre o comportamento de uma dada populao depois de decor-
rido um certo tempo (medido em mltiplos inteiros do perodo adotado) que podemos usar
o modelo para prever. Entre elas:
A primeira pergunta bastante bvia, mas as outras duas precisam ser melhor elaboradas
para que possam ser entendidadas corretamente. Ainda que ambas tratem do que pode
acontecer com a populao ao longo do tempo, elas apontam para comportamentos es-
sencialmente opostos. No caso da segunda pergunta queremos saber se o comportamento
cclico; isto , se h uma recorrncia infinita das mesmas distribuies de populao a
intervalos regulares. Diremos, neste caso, que a populao tem comportamento oscilat-
rio. J no caso da terceira pergunta, a questo se a populao tende a uma distribuio
que mantm, ao longo do tempo, a mesma proporo entre a quantidade de indduos nas
vrias faixas etrias. Note que, neste ltimo caso, a proporo entre faixas etrias pode
ser mantida, ainda que a populao total no permanea constante. Vamos nos referir s
populaes que satisfazem a esta propriedade como estveis.
Vejamos como formular cada uma destas perguntas em termos da matriz de Leslie. No
caso da primeira pergunta basta calcular p(k) usando a equao (30) e somar suas entradas.
Isto , a populao total depois de decorridos k unidades de tempo
P (k) = p1 (k) + + pk (k),
que a soma da quantidade de indivduos em cada faixa etria. Denotando por u0 a matriz
coluna 1 n cujas entradas so todas iguais a 1, a igualdade anterior pode ser reescrita na
1. DINMICA DE POPULAES 89
forma
P (k) = ut0 p(k).
Quanto segunda pergunta, uma populao tem comportamento cclico a partir de uma
distribuio inicial p(0) quando existe um inteiro positivo k0 tal que
p(k + k0 ) = p(0) para todo k 0.
Isto , a populao volta ao estgio inicial a cada vez que passa um perodo k0 de tempo.
Combinando esta ltima equao com (30), obtemos
(31) Lk+k0 p(0) = p(0) para todo k 0.
Em particular,
(32) Lk0 p(0) = p(0),
donde podemos concluir que
Le+k0 p(0) = Le Lk0 p(0) = Le p(0).
Portanto, (31) consequncia de (32), que pode ser reescrita na forma
(33) (Lk0 I)p(0) = 0,
em que I a matriz identidade de mesmo tamanho que L. Observe que reduzimos o
problema a encontrar a soluo de um sistema homogneo, desde que k0 seja conhecido. E
mais, este sistema tem que ser indeterminado, porque um sistema homogneo determinado
tem como nica soluo
p(0) = [0, . . . , 0]t ,
caso que, evidentemente, no nos interessa. Infelizmente teremos que abandonar este pro-
blema temporariamente neste ponto, porque para chegar a uma concluso definitiva, pre-
cisaramos determinar se existe um inteiro positivo k0 de modo que o sistema (33) seja
indeterminado. Mas voltaremos a esta questo na seo 6.
Por sorte h uma verso mais poderosa da segunda pergunta que estamos em condies
de responder: como determinar se a populao oscilar ciclicamente qualquer que seja a
populao inicial? Em termos matriciais, estamos perguntando se possvel que
(34) (Lk0 I)p(0) = 0 para todo vetor p(0) cujas entradas so no negativas.
Caso isto seja verdade, teremos que, para todo 1 j n,
(Lk0 I)ej = 0
em que ej a matriz coluna definida por
(
1 se i=j
ej (i, 1) =
0 se i 6= j.
90 3. MODELOS MULTIDIMENSIONAIS
Contudo, o produto (Lk0 I)ej igual j-sima coluna de Lk0 I. Portanto, (34) s pode
ocorrer se Lk0 I = 0, que equivale a dizer que existe uma potncia de L que igual
matriz identidade.
Um exemplo de populao que se comporta de maneira oscilatria qualquer que seja a
distribuio inicial foi introduzido por Harro Bernardelli em seu artigo Population waves
de 1941. Bernardelli imaginou uma populao de besouros cujo comportamento seria
descrito pela matriz
0 0 6
B = 1/2 0 0
0 1/3 0
Mas, como fcil verificar, B 3 = I, de modo que a populao de besouros de Bernardelli
oscila entre, no mximo, trs distribuio distintas. Este artigo de Bernardelli influenciou
Leslie a sistematizar o modelo matricial que estamos estudando.
Passando terceira pergunta, devemos determinar se existe algum inteiro k0 0 tal
que, para todo k k0 , o vetor p(k) mltiplo constante de p(k0 ). Mas, para que isto
acontea basta que p(k0 + 1) seja mltiplo constante de p(k0 ). De fato, se existem k0 e
tais que
p(k0 + 1) = p(k0 ),
ento
(35) Lp(k0 ) = p(k0 ).
Disto podemos deduzir que
Lr p(k0 ) = Lr1 (Lp(k0 )) = Lr1 p(k0 ),
donde o resultado desejado segue por induo em r. A igualdade (35) pode ser reescrita
na forma
(L I)p(k0 ) = 0;
em que, I representa a matriz identidade de tamanho n n. Portanto, mais uma vez,
a pergunta reduz-se, de certa forma, a resolver um sistema homogneo e encontrar suas
solues positivas. Entretanto, tambm desta vez h um complicador: a matriz do sistema
depende de , o fator de proporcionalidade entre p(k0 + 1) e p(k0 ), que desconhecido.
Voltaremos a abordar esta questo na seo 6, assim que tivermos introduzidos os conceitos
necessrios para trat-la de maneira satisfatria. Contudo, mesmo quando aprendermos a
achar , e assim resolver completamente o sistema (L I)X = 0, tudo o que teremos
feito dar soluo ao que podemos chamar de verso esttica do problema original:
Mesmo sabendo que o modelo admite distribuies estveis, como podemos ter certeza
de que a populao se aproxima delas medida que o tempo passa? Seremos capazes de
resolver a verso esttica do problema ao final deste captulo, mas a verso dinmica ter
que esperar at o final do prximo captulo.
etapa 1: 0 a 3 folhas;
etapa 2: 4 folhas at a planta atingir 10 mm de dimetro;
etapa 3: plantas de dimetro entre 10.1 e 20mm;
etapa 4: plantas de dimetro entre 20.1 e 30mm;
etapa 5: plantas de dimetro entre 30.1 e 60mm;
etapa 6: plantas de dimetro entre 60.1 e 120mm;
etapa 7: mais de 120 mm.
Observe que, tendo atingido a etapa 7, mesmo crescendo a planta no passar a nenhuma
outra etapa. Neste caso ela pode apenas reproduzir-se e morrer ou permanecer nesta etapa.
Portanto, g7 representa a probabilidade da planta sobreviver, tendo atingido a idade adulta.
Denotando por pi,i+1 a probabilidade da planta passar etapa seguinte e por gi a proba-
bilidade de entrar em estase na etapa i, podemos escrever as equaes que descrevem o
comportamento desta populao por
(
pi,i+1 pi1 (k) + gi pi (k) para 2 i 7
pi (k + 1) =
f1,7 p7 para i = 1
Portanto, escrevendo
p(k) = [p1 (k), . . . , p7 (k)]t
e denotando por L a matriz
g1 0 0 0 0 0 f1,7
p1,2 g2 0 0 0 0 0
0 p2,3 g3 0 0 0 0
0 0 p3,4 g4 0 0 0 .
0 0 0 p 4,5 g 5 0 0
0 0 0 0 p g 0
5,6 6
0 0 0 0 0 p6,7 g7
Os autores usam este modelo para estudar o efeito da colheita sobre o comportamento de
uma populao de palmiteiros.
Tendo representado a distribuio de idades de uma populao como um nico objeto
uma matriz coluna com sete entradasnosso prximo passo consiste em pensar estas ma-
trizes como vetores em um espao cujos elementos representam as vrias distribuies de
populao possveis para os palmiteiros. Observe que a palavra espao est sendo usada
aqui em um sentido abstrato. Os vetores deste espao no designam posies de palmitei-
ros no planeta Terra, mas sim a distribuio em etapas de desenvolvimento das quantidades
mdias de indivduos em uma dada populao de palmiteiros.
O uso da palavra espao neste sentido generalizado deu-se no sculo XIX sob a in-
fluncia de vrios matemticos, entre eles A. Cayley, o inventor das matrizes. Entretanto,
esta passagem vinha sendo preparada desde o sculo anterior. No verbete dimension da
Encyclopdie que publicou com Diderot a partir de 1751, DAlembert escreve,
Isto, claro, no passa de uma opinio. Lagrange, contudo, muito mais explcito. Em sua
Teoria das funes analticas, publicada em 1797, ele escreve
2. O ESPAO Rn E SUAS TRANSFORMAES LINEARES 93
Na verdade, o uso generalizado de mais de quatro coordenadas teve seu prenncio em outra
obra de Lagrange, a Mecnica Analtica, que antecede a obra citada anteriormente em nove
anos.
No sculo XX a ideia do tempo como quarta dimenso foi introduzido por H. Min-
kowski em 1907 como uma maneira de geometrizar a teoria da relatividade que Einstein
havia publicado dois anos antes. Apesar de ter inicialmente reagido de maneira negativa
proposta de Minkowski, que havia sido seu professor em Zurique, Einstein veio a entender
a importncia desta formulao geomtrica e fez dela a base sobre a qual construiu sua
teoria da gravitao em 1915.
A discusso sobre o significado da quarta dimenso deu origem a inmeros livros po-
pulares, o mais famoso dos quais provavelmente Flatland: A Romance of Many Dimen-
sions, publicado em 1884 por Edwin Abbott. Nele, figuras planas tentam entender o que
significa a terceira dimenso a partir daquilo que podem ver, dada sua limitao de s en-
xergar o que est no plano que habitam. Da mesma forma ns, habitantes de um espao
tridimensional podemos tentar imaginar como seria um objeto que s existe em um espao
de quatro dimenses a partir de suas projeo em trs dimenses. Teremos oportunidade
de fazer este exerccio no prximo captulo.
Hoje em dia toda esta conversa sobre quatro dimenses impalidece diante do que pro-
pem os adeptos da teoria de cordas, cujo modelo do universo requer que habitemos um
espao de 11 dimenses, 7 das quais so to curvadas que no conseguimos identific-las.
Espaos de dimenses grandes tambm aparecem quando tentamos descrever a configura-
o dos planetas no sistema solar. Como trs coordenadas so necessrias para determinar
a posio de cada um dos sete planetas, a configurao de todo o sistema de planetas, sem
contar asterides e satlites, s pode ser feita em um espao de 3 7 = 21 dimenses, em
que cada grupo de 3 coordenadas representa a posio de um planeta.
(u + v) + w = u + (v + w);
u + v = v + u;
u + 0 = u;
1u=ue0u=0
u + (1)u = 0;
(u + v) = u + v;
( + )u = u + u;
()u = (u);
(1) hu | v1 + v2 i = hu | v1 i + hu | v2 i;
(2) hv1 | v2 i = hv1 | v2 i;
(3) hv1 | v2 i = hv2 | v1 i;
(4) hu | ui 0;
(5) hu | ui = 0 se, e somente se, u = 0;
Diremos que a base cannica do espao Rn . Voc deve ficar de sobre-aviso para o fato
de que esta no nem de longe a nica base de Rn com que trabalharemos: em caso de
curiosidade extrema, d uma olhada na seo 2.
Finalmente, podemos usar a terminologia aqui introduzida para definir uma distribui-
o de populao p descrita pelo modelo de Leslie com n faixas etrias como um vetor
do Rn cujas coordenadas so positivas. Alm disso, a quantidade total de indivduos da
distribuio p dada por P = hp | u0 i.
96 3. MODELOS MULTIDIMENSIONAIS
T (v + w) = T v + T w
T (v) = T v,
Note que esta matriz tem n colunas, cada uma das quais um vetor de Rm , de modo que
se trata de uma matriz de tamanho m n, como seria de esperar. Conclumos, assim que
a resposta questo posta anteriormente sim. Mais precisamente,
0 0 0
0 0 1
Finalmente, seja a rotao de ngulo do R3 em torno do eixo Z. Desta vez, so os
vetores ao longo do eixo Z que ficam intocados, ao passo que qualquer vetor do plano
XY rodado de um ngulo . Embora isto garanta que (e3 ) = e3 , o efeito de sobre os
outros vetores ainda no est completamente determinado porque h dois sentidos em que
podemos rodar estes vetores sobre o plano. Para fixar as ideias, escolheremos a rotao no
sentido que definido pela regra da mo direita,
98 3. MODELOS MULTIDIMENSIONAIS
0 0 1
As transformaes lineares de um espao Rn em si mesmo so chamadas de operadores
lineares. As rotaes, as reflexes e das transformaes induzidas pela matriz de Leslie
so exemplos de operadores lineares.
Um aspecto insatisfatrio de nossos exemplos que todos eles tm como elementos
bsicos (o plano de projeo, o espelho da reflexo, o eixo da rotao) planos ou retas
coordenados e, portanto, muito especiais. Alm disto, fica difcil imaginar como seria
possvel generalizar estes exemplos quando estes elementos estiverem em posies menos
especiais. Comearemos a contornar este problema na seo 4, mas uma soluo comple-
tamente satisfatria ter que esperar pelo captulo 4.
3. Subespaos
Nesta seo introduzimos a noo de subespao, que nos permitir sistematizar muito
do que deixamos pendente nas sees anteriores.
Como estamos supondo que todas as equaes tm termo constante nulo, o sistema
sempre ter
x1 = x 2 = = xn = 0
como soluo. No caso do sistema ser determinado, est ser sua nica soluo. O caso
que nos interessa nas aplicaes justamente aquele em que o sistema homogneo e
indeterminado. Neste caso, se X1 e X2 so solues de AX = 0 e um nmero real
qualquer, ento
A(X1 + X2 ) = A(X1 ) + A(X2 ) = 0 + 0 = 0 e A(X1 ) = A(X1 ) = 0 = 0;
donde conclumos que, no caso de um sistema homogneo, a soma de duas solues e
o produto de uma soluo por um escalar tambm so solues do mesmo sistema. Isto
equivale a dizer que o conjunto soluo
SA = {v Rn | Av = 0}
satisfaz s seguintes propriedades:
3 4 6
de modo que o sistema se expressa matricialmente na forma AX = 0. Aplicando elimina-
o gaussiana, obtemos a matriz escada
1 1 1
0 1 3
0 0 0
que corresponde ao sistema
x+y+z =0
y + 3z = 0;
cujas solues so
y = 3z e x = 2z.
100 3. MODELOS MULTIDIMENSIONAIS
O conjunto dos os vetores que podem ser escritos como combinao linear de u1 , . . . , uk
ser denotado por
hSi ou hu1 , . . . , uk i.
Por exemplo, a afirmao feita ao final do artigo anterior pode ser reformulada como o fato
de que qualquer vetor do conjunto soluo da equao x + 2y + z w = 0 pode ser escrito
como combinao linear dos vetores
[1, 0, 0, 1]t , [0, 1, 1, 2]t e [0, 0, 1, 1]t .
Em outras palavras, este conjunto soluo igual a
h[1, 0, 0, 1]t , [0, 1, 1, 2]t , [0, 0, 1, 1]t i.
que o subconjunto do Rn formado por todos os vetores que podem ser escritos na forma
au + bv em que a e b so dois escalares. Por exemplo, se u = [1, 1]t e v = [2, 3]t so dois
vetores do R2 , ento
hu | vi = ut v = 5;
ao passo que
hu, vi = {au + bv | a, b R}.
Como,
au + bv = [a + 2b, a + 3b]t
este ltimo conjunto pode ser reescrito na forma
hu, vi = {[a + 2b, a + 3b]t | a, b R}.
3 4 6
3. SUBESPAOS 103
1 5 1
de modo que
SA = {v Rn | hu1 | vi = hu2 | vi = hu3 | vi = 0}.
que tem uma nica equao. Alm das retas do plano e dos planos no R3 , hiperplanos mais
gerais desempenham importante papel na lgebra linear, como veremos na prxima seo.
A soluo mais simples e imediata consiste em utilizar o mtodo dos coeficientes indeter-
minados. Em outras palavras, escrevemos uma equao da forma
v = x1 u1 + + ck uk
em que os xs so variveis. Como cada um destes vetores so n-uplas em Rn , esta equao
nos d um sistema de n equaes nas k variveis x1 , . . . , xk . O vetor v ser combinao
linear dos vetores u1 , . . . , uk se, e somente se, o sistema tiver soluo. Note que o sistema
pode ser indeterminado, caso em que haver muitas maneiras diferentes de escolher os
coeficientes de modo a escrever v como combinao linear dos us.
Vejamos um exemplo. Ser que (6, 11, 4, 21, 9) R5 combinao linear dos vetores
u1 = (1, 2, 0, 4, 1), u2 = (0, 1, 0, 3, 1), u3 = (1, 1, 1, 1, 1) e u4 = (2, 4, 1, 8, 3)?
Para isto escrevemos
(6, 11, 4, 21, 9) = x1 (1, 2, 0, 4, 1) + x2 (0, 1, 0, 3, 1) + x3 (1, 1, 1, 1, 1) + x4 (2, 4, 1, 8, 3);
que, igualando os coeficientes em cada entrada do vetor nos d o sistema
x1 + x3 + 2x4 =6
2x1 + x2 + x3 + 4x4 = 11
x3 + x4 =4
4x1 + 3x2 + x3 + 8x4 = 21
x1 + x2 + x3 + 3x4 =9
cuja forma triangular superior, obtido por eliminao gaussiana,
x1 + x3 + 2x4 = 6
x2 + x4 = 3
x3 + x4 = 4
que indeterminado. Portanto, no apenas (6, 11, 4, 21, 9) combinao dos vetores dados,
como h uma infinidade de possibilidades para os coeficientes. Para ver isto basta escrever
4. PROJEES E REFLEXES 105
4. Projees e reflexes
Nesta seo veremos como usar a linguagem desenvolvida anteriormente para encon-
trar as matrizes das projees e reflexes em espaos de dimenso n.
4.1. Projees. Para projetar um vetor qualquer v R3 sobre o plano V cujo vetor
normal unitrio u, precisamos apenas subtrair de v um mltiplo de u de modo que a dife-
rena seja perpendicular a u. Como u unitrio, a projeo de v sobre u tem comprimento
hu, vi = ut v;
de modo que
v (ut v)u = v u(ut v) = (I ut u)v
pertence a V . Portanto, a matriz desejada deve ser I ut u. Por exemplo, o plano de
equao x + y + z = 0 tem
1
u = (1, 1, 1);
3
por vetor normal unitrio. Logo, a matriz que realiza a projeo de R3 neste plano
1
t 1 h i
I u u = I 1 1 1 1
3
1
que igual a
2 1 1
1
1 2 1 .
3
1 1 2
106 3. MODELOS MULTIDIMENSIONAIS
4.2. Reflexes. Agora que sabemos projetar, podemos facilmente refletir um vetor do
espao. Digamos que o espelho, tambm conhecido como hiperplano de reflexo, seja o
hiperplano E que o complemento ortogonal de um vetor unitrio u. Vimos no incio do
artigo anterior que se v Rn ento sua projeo sobre E pode ser escrita na forma
v uut v.
Geometricamente isto significa que subtramos de v sua componente ortogonal a E, fazen-
do com que a diferena esteja sobre E. Para obter a reflexo precisamos apenas repor esta
componente, s que do outro lado de E. Mas, para isto basta subtrair a projeo de v sobre
u da projeo de v sobre E, o que nos d
v 2uut v = (I 2uut )v
como reflexo de v relativamente a W . Logo, a matriz de reflexo
(41) I 2uut
que, de resto, tem exatamente a mesma forma da matriz da reflexo relativamente a uma
reta em R2 .
Por exemplo, para determinar a matriz da reflexo cujo espelho o hiperplano x + y +
z + w = 0, calculamos um vetor unitrio perpendicular a este plano, digamos
1
u = (1, 1, 1, 1).
2
4. PROJEES E REFLEXES 107
Observe que, para achar a matriz de uma reflexo precisamos apenas conhecer um vetor
unitrio ortogonal ao espelho. Isto implica que uma reflexo R do Rn fica completamente
determinada se conhecemos um vetor v, fora do hiperplano de reflexo e sua imagem por
v, porque v R(v) tem que ser um vetor ortogonal ao espelho. Para se convencer de que
isto verdade no plano, basta fazer um desenho; para o Rn , precisamos de uma conta.
Suponha, ento, que R = I 2uut uma reflexo do Rn cujo espelho o hiperplano
E normal ao vetor unitrio u. Se v
/ E, ento
v R(v) = v (v uut v) = u(ut v).
Como
ut v = hu |vi
um escalar, mostramos que v R(v) um mltiplo de u. Portanto, para achar u e
calcular a matriz da reflexo basta normalizar o vetor v R(v).
Um exemplo muito importante desta ltima construo ocorre quando a reflexo R
leva um dado vetor v de Rn em um vetor colinear ao vetor e1 da base cannica. Como o
comprimento de um vetor no pode ser alterado por reflexo, deveremos ter que
R(v) = kvke1 .
Portanto, o vetor unitrio u normal ao espelho ser obtido dividindo
v kvke1
por seu comprimento. Diremos, neste caso, que R a reflexo de Householder determinada
por v. O nome uma homenagem a A. Householder que mostrou em 1958 [1] como estas
matrizes poderiam ser usadas em um algoritmo de decomposio matricial.
Por exemplo, quando v = (1, 1, 1, 1) R4 , o vetor u obtido normalizando-se
(1, 1, 1, 1) 2(1, 0, 0, 0) = (1, 1, 1, 1),
de modo que a reflexo de Householder correspondente tem matriz
1 1 1 1
11 1 1 1
2 1 1 1 1
1 1 1 1
108 3. MODELOS MULTIDIMENSIONAIS
Nesta seo veremos como aplicar lgebra linear para resolver o problema de encontrar
a funo que melhor se adapta a um conjunto de pontos dados. Note que no se trata de
interpolao, uma vez que no exigiremos que a curve passe por todos os pontos dados. O
que queremos a curva que melhor aproxima os pontos dados, e as duas geralmente no
coincidem. Comeamos estudando a imagem de uma transformao linear, que desempe-
nhar papel significativo em nossa soluo do problema.
5.2. Motivao. O problema dos mnimos quadrados foi originalmente estudado por
Legendre e Gauss como uma maneira de determinar a funo polinomial que melhor se
adapta a um dado conjunto de pontos obtidos como resultados de uma srie de medies
de alguma magnitude fsica. A primeira impresso que a melhor maneira de resolver o
problema por interpolao. Entretanto, os resultados de uma medio nunca so exatos,
de modo que a funo que representa a soluo correta do problema passar prxima, mas
no exatamente nos pontos dados. Isto significa que o mtodo de interpolao no produz
necessariamente a melhor soluo do problema, que consistiria na curva que melhor se
adapta aos pontos dados, ainda que no passe exatamente sobre estes pontos.
Gauss e Legendre propuseram, independentemente, que a curva polinomial y = f (x)
que melhor se adapta aos pontos
{(x1 , y1 ), . . . , (xn , yn )}
do R2 aquela que corresponde ao polinmio f que minimiza o nmero
(43) |f (x1 ) y1 |2 + + |f (xn ) yn |2 .
Uma vantagem adicional deste mtodo que o polinmio escolhido ter grau m = n 1,
ao passo que o polinmio usado na interpolao tem que ter grau maior que n 1. A
soma (43) pode ser escrita de maneira compacta usando-se a matriz de Vandermonde V
construda a partir das abscissas dos n pontos dados por
V (i, j) = xji1 .
Como o polinmio f ter grau n 1, seu vetor de coeficientes ser
a = [a0 , . . . , an1 ]t .
Denotando por Y o vetor das ordenadas dos n pontos dados, a soma (43) equivale a tomar
a norma euclidiana do vetor V a Y . Isto signfica que o problema que queremos resolver
um caso especial do seguinte
5.3. Anlise da primeira etapa. Seja T um operador de R2 cuja imagem uma reta.
Uma figura simples mostra que a distncia mnima entre b R2 \ Im(T ) e a imagem de
T realizada pela projeo ortogonal de b em Im(T ). Na verdade, o mesmo vale para
qualquer transformao T de Rm em Rn e qualquer ponto b Rn que no pertence
imagem de T . Para entender provar isto basta mostrar o seguinte resultado.
P ROPOSIO 5.2. O menor valor de kb T (v)k atingido quando b T v perpen-
dicular imagem de T .
Mas isto significa que podemos calcular r resolvendo o sistema homogneo At r = 0. Uma
vez calculado r, v obtido resolvendo-se o sistema linear r = b Av.
A eliminao gaussiana apenas uma das maneiras pelas quais podemos resolver um
problema de mnimos quadrados. Afinal, para resolver a equao normal (44) basta termos
uma decomposio bem comportada da matriz At A. Contudo, como
(At A)t = At (At )t = At A,
trata-se um sistema cuja matriz simtrica e, para estas matrizes, h mtodos de resoluo
mais rpidos e eficientes do que a eliminao gaussiana; por exemplo, aqueles que usam a
decomposio de Cholesky de uma matriz.
6. Autovalores e autovetores
Nesta seo voltamos aos dois problemas que deixamos pendentes sobre o modelo de
Leslie. Em primeiro lugar, se o modelo admite solues oscilatrias, como determinar seu
perodo; em segundo, se a populao admite distribuies estveis, como achar seu fator
de proporcionalidade. Em ambos os casos, a pergunta originalmente formulada sobre o
modelo, seria resolvida pela soluo de um sistema homogneo que dependia de um destes
nmeros.
6. AUTOVALORES E AUTOVETORES 113
6.1. Definies. Como vimos ao final do artigo 1.2 a verso esttica da terceira per-
gunta que fizemos sobre o modelo de Leslie pode ser formulada como
Este ser o nico autoespao desta rotao, a no ser que = radianos, quando teremos
tambm
V1 = H.
Av = v,
(A I)v = 0,
de modo que, para calcular seus autovalores basta determinar o polinmio caracterstico
" #
cos() t sen()
p(k) = = t2 2 cos()k + 1
sen() cos() t
4(cos()2 1) 0;
6.3. Mais exemplos. Nosso prximo exemplo diz respeito ao operador T de R3 cuja
matriz na base cannica
1 0 2
A = 1 0 1 .
1 1 2
O polinmio caracterstico ser
1t 0 2
pA (k) = det(A tI) = 1 t 1 = t3 + 3t2 + t 3
1 1 2t
1 1 3
Aplicando eliminao gaussiana a esta matriz, e simplificando o resultado, obtemos
1 0 1
0 1 2
0 0 0
x+z =0
y + 2z = 0
Finalmente, voltamos questo de dinmica de populaes com a qual tudo isto come-
ou. Por exemplo, a matriz de Leslie
0 4 5
L = 0, 53 0 0
0 0, 22 0
da populao de salmes tem polinmio caracterstico
4 5
p() = det 0, 53 0 = 3 + (2, 12) + 0, 583
0 0, 22
cujas razes so
0, 285, 1, 292 e 1, 574.
Note que destes trs autovalores somente o ltimo nos interessa neste problema, porque
nem a matriz L nem um vetor que representa uma populao podem ter entradas negativas.
Calculando o autoespao deste autovalor descobrimos que gerado pelo autovetor
h i
2, 33 0, 78 0, 10
cujas entradas so todas positivas, de modo que este autovetor realmente pode representar
uma distribuio da populao de salmes.
Por exemplo, vimos que a matriz de Leslie da populao de salmes descrita no artigo
1.1 tem autovalores
0, 285, 1, 292 e 1, 574,
nenhum dos quais raiz da unidade. Afinal, o mdulo de qualquer potncia de 0, 285
d um nmero menor que um, ao passo que as potncias dos dois outros autovalores so
ambas nmeros maiores que um. Se voc est seguindo o argumento de perto, concluir
que o que dissemos implica algo muito mais forte:
Se todos os autovalores da matriz de Leslie forem reais, este resultado verdadeiro. Mas, e
se houver autovalores complexos, que so razes da unidade? Em princpio, poderamos ter
um nmero complexo / R que seja autovalor de uma matriz de Leslie L e que satisfaa
k
= 1, para algum inteiro positivo k. Se v for um autovetor de L associado a , ento
Lv = v, donde Lk v = k v = v.
O problema que, para que isto produza a desejada distribuio oscilatria todas as entra-
das de v tm que ser reais. Contudo, se as entradas de v forem reais ento todas as entradas
no nulas de v estaro em C\R. Acontece que Lv um vetor cujas coordenadas so todas
reais, porque L uma matriz real. Portanto, a igualdade Lv = v no pode ser verificada
para nenhum vetor no nulo cujas coordenadas so reais.
Depois que o impacto inicial do argumento tenha passado e voc tenha tido tempo de
pensar sobre o assunto, talvez lhe ocorra que isto no pode estar certo porque, aparente-
mente, j conhecemos um contraexemplo: os besouros de Bernardelli. A matriz B (veja
pgina 90) que descreve o comportamento da populao de besouros tem polinmio carac-
terstico igual a t3 + 1. Portanto, o um nico autovalor real de B 1, cujo autoespao
V1 = h[6, 3, 1]t i.
Contudo, B 3 = I implica que qualquer vetor de R3 d lugar a uma distribuio oscilat-
ria. No seriam os autovalores complexos no reais que estariam contribuindo estes outros
vetores? A resposta um enftico no. Ainda que possamos usar os autovalores comple-
xos para prever a existncia de outras distribuies oscilatrias, elas no correspondem a
nenhum autovetor de L. Infelizmente a justificativa para esta ltima afirmao vai ter que
esperar at discutirmos diagonalizabilidade no captulo 4.
118 3. MODELOS MULTIDIMENSIONAIS
Observe que h realmente algo muito srio a provar em (1), porque nem todo subconjunto
de R tem um elemento mximo. Se o prprio R lhe parecer um exemplo muito sem graa,
considere o conjunto formado pelas potncias de 2. A razo pela qual estes conjuntos no
tm um maior elemento que eles so ilimitados. Isto , no existe nenhum nmero real
que maior do que todos os elementos do conjunto. De fato, uma importante propriedade
dos nmeros reais nos diz que
Note que esta propriedade no verdadeira para o conjunto dos nmeros racionais. Por
os racionais cujo quadrado menor ou igual a 2 no tem
exemplo, o conjunto de todos
um elemento mximo, porque 2 no racional. Resumindo, dada esta propriedade dos
120 3. MODELOS MULTIDIMENSIONAIS
nmeros reais, basta provarmos que todo elemento de S menor que um dado nmero real.
Contudo, pelas propriedades da 1-norma
Au u implica que |A|1 |u|1 |||u|1 .
Como u > 0 segue-se que |u|1 > 0 pode ser cancelado da desigualdade acima, o que nos
d
|A|1 ||.
Mas isto significa que todo elemento de S (mesmo em mdulo) menor que |A|1 . Logo,
S um conjunto limitado e (1) est provado.
Passando a (2), devemos provar que se Aw > 0 w, ento
Aw > (0 + )w,
quando > 0 um nmero real suficientemente pequeno. Naturalmente, a primeira coisa a
descobrir quo pequeno suficientemente pequeno. Para isto vamos calcular cada entrada
de Aw e compar-la s respectivas entradas de (0 + )w. Pela definio do produto de
matrizes,
(Aw)(i) = A(i, :)w.
Como Aw > 0 w, segue-se que
A(i, :)w 0 wi > 0.
Seja
= min{A(j, :)w 0 wj | 1 j n}.
Escolhendo
< ,
|w|1
temos que
wi < < A(i, :)w 0 wi
para todo 1 i n. Portanto,
wi < A(i, :)w 0 wi ;
donde
( + 0 )wi < A(i, :)w = (Aw)(i).
Como isto vale para todo 1 i n, conclumos que Aw > ( + 0 )w como desejvamos
mostrar.
7. Rotaes no espao
Nesta seo estudaremos as rotaes e provaremos que toda rotao do espao tridi-
mensional tem um eixo.
7. ROTAES NO ESPAO 121
A resposta para isto est relacionada noo de orientao. Dizemos que trs vetores
no nulos u, v, w R3 tm orientao positiva se w est do mesmo lado do plano hu, vi
que o produto vetorial u v; do contrrio estes vetores tm orientao negativa. Em outras
palavras, vetores orientados positivamente tm a mesma posio relativa que os vetores
e1 , e2 , e3 da base cannica, que satisfazem e1 e2 = e3 . Como as rotaes no alteram a
posio relativa entre os vetores, podemos afirmar que
u3 v3 w3 | | |
Portanto, se Q for a matriz de , ento
| | |
[(u), (v), (w)] = det Qu Qv Qw .
| | |
Contudo, a matriz cujo determinante esta sendo calculado na frmula acima igual a QA.
Portanto,
[(u), (v), (w)] = det(QA) = det(Q) det(A).
Como
[u, v, w] = det(QA) = det(A),
a transformao ortogonal cuja matriz Q s pode preservar a orientao dos vetores
u, v, w se det(Q) = 1. Podemos resumir tudo o que aprendemos neste artigo no seguinte
teorema.
T EOREMA 7.2. Se Q a matriz de uma rotao de R3 , ento Q uma matriz ortogonal
de determinante um.
0 0 1
Como At = A, temos que
AAt = A2 = I;
de modo que A uma matriz ortogonal. Por outro lado,
det(A) = (1)3 = 1.
Contudo esta matriz no pode representar uma reflexo, porque, qualquer que seja o vetor
v R3 , temos Av = v, o que impede que haja um espelho, que seria o plano correspon-
dente ao autoespao de 1.
7.2. Eixo. Pea a algum para descrever o que uma rotao no R3 e no demora
muito aparece a noo de eixo, ainda que seja na expresso rodando em torno de. De fato,
Leonard Euler mostrou em um artigo publicado em 1776 que toda rotao do espao tridi-
mensional tem um eixo, mas isto est longe de ser bvio e a demonstrao de Euler envolve
longos clculos. Mesmo hoje, quando temos ferramentas mais avanadas, esta demonstra-
o no bvia. Naturalmente o mnimo que devemos exigir de uma transformao linear
para podermos dizer que tem um eixo que exista uma reta cujos vetores no so alterados
quando aplicamos a eles esta transformao. Note que, embora a transformao identidade
satisfaa esta condio, a maioria de ns no diria que ela tem eixo. Isto se d porque esta
noo parece demandar, implicitamente, que s os elementos ao longo daquela reta ficam
invariantes, o que no ocorre no caso da identidade. Como um vetor no nulo invariante
por uma transformao linear um autovetor associado ao autovalor um, podemos refor-
mular a noo de eixo com mais preciso dizendo que um operador linear do R3 tem um
eixo se 1 autovalor de deste operador e o autoespao correspondente uma reta; isto ,
gerado por um nico vetor no nulo.
Comearemos provando um resultado bem mais modesto:
Isto significa que 1 raiz do polinmio caracterstico de Q, que equivale a dizer que
det(Q I) = 0.
Portanto, basta mostrar que det(Q I) e teremos o resultado desejado. Entretanto, como
o determinante de uma matriz e de sua transposta coincidem, temos que
det(Qt I) = det((Q I)t ) = det(Q I).
124 3. MODELOS MULTIDIMENSIONAIS
Mas isto significa que leva vetores do plano H perpendicular a u em vetores do mesmo
plano. Mas isto significa que induz uma transformar em H, que no pode ser outra
coisa seno uma uma rotao do plano. Mas, exceo da identidade, uma rotao move
todos os vetores do plano. Provamos, assim, que se uma rotao do R3 diferente da
identidade, ento
afinal, tais vetores tm uma projeo no nula sobre o plano H e esta componente no pode
ficar fixa sob . Podemos resumir o que fizemos no seguinte resultado.
T EOREMA 7.3. Se uma rotao do R3 diferente da identidade, ento tem um eixo
e os vetores do plano ortogonal ao eixo so levados por em vetores do mesmo plano.
7. ROTAES NO ESPAO 125
A parte final do enunciado do teorema traz um bnus, porque uma maneira conveniente
de definir o ngulo de rotao de como sendo o ngulo entre um vetor no nulo v,
ortogonal ao eixo de rotao, e sua imagem por . Usando o produto interno, temos, ento,
que
hv | (v)i
cos() = .
kvk2
Encerraremos nosso estudo das rotaes com um exemplo. A partir do vetor unitrio
1
1
u = 1 R3
3
1
podemos construir a reflexo R cujo espelho ortogonal a u, cuja matriz relativamente
base dada por
1 2 2
t 1
R = I 2uu = 2 1 2.
3
2 2 1
Esta matriz ortogonal, mas no descreve uma rotao, porque det(R) = 1. Contudo,
mudando o sinal de uma das linhas de R, seuo determinante troca de sinal, de modo que
1 2 2
1
Q = 2 1 2
3
2 2 1
tem que ser uma matriz ortogonal de determinante igual a um. Logo Q descreve uma
rotao: quais so o eixo e o ngulo desta rotao? Para determinar o eixo, calculamos o
autovetor do autovalor 1 resolvendo o sistema
4 2 2 x 0
1
2 2 2 y = 0 ,
3
2 2 2 z 0
cujas solues satisfazem
x=y+z =0
de modo que u = [0, 1, 1]t determina o eixo de Q. Para calcular o ngulo de rotao, es-
colhemos um vetor w qualquer do plano W ortogonal a u, calculamos Qw e determinamos
o ngulo entre estes dois vetores. Escolhendo w = [1, 0, 0]t , temos que
1
1
Qw = 2 ,
3
2
126 3. MODELOS MULTIDIMENSIONAIS
donde
1
hw, Qwi = wt Qw = .
3
Logo o ngulo de rotao satisfaz
1
cos() =
3
pois w um vetor unitrio. O ngulo correspondente ser de, aproximadamente, 1, 9106
radianos.
Exerccios
1. Mostre que a populao de salmes descrita no artigo 1.1 no pode ter comportamento
oscilatrio para toda populao inicial.
S UGESTO : mostre que todas as entradas de L5 so positivas e conclua a partir disto.
2. Determine todos os valores reais de , e para que a populao descrita pela matriz
de Leslie
0 0
B = 0 0
0 0
tenha o mesmo comportamento peridico apresentado pelos besouros de Bernardelli.
0 1/4 0
Se a populao inicial medida de 10 indivduos para cada faixa etria
(a) Qual ser a populao total em 10 anos?
(b) Qual ser a distribuio de populao por faixa etria em 10 anos?
(c) Esta populao admite uma distribuio estvel por faixa etria para a qual a po-
pulao total permanece constante?
(d) Esta populao admite uma distribuio cuja populao total constante?
0 1/4 0
EXERCCIOS 127
7. Escreva o vetor v como combinao linear dos vetores do conjunto G, para cada um
dos exenmplos abaixo.
(a) v = (2, 8) e G = {(1, 1), (3, 2)};
(b) v = (0, 1) e G = {(3, 2), (2, 2)};
(c) v = (2, 1, 3) e G = {(1, 1, 1), (1, 1, 1), (1, 4, 5)};
(d) v = (1, 1, 4) e G = {(1, 1, 2), (1, 3, 4), (1, 3, 2)};
(e) v = (2, 1, 3, 2) e G = {(1, 0, 0, 1), (0, 1, 2, 0), (0, 1, 1, 0)};
(f) v = (1, 1, 1, 1) e G = {(2, 3, 1, 1), (5, 6, 1, 1), (1, 2, 1, 1)}.
11. Escreva a matriz correspondente a cada uma das transformaes lineares dadas abaixo:
128 3. MODELOS MULTIDIMENSIONAIS
15. Determine geradores para a imagem e o ncleo de cada uma das transformaes line-
ares dadas abaixo:
(a) T : R4 R3 definida por T (x, y, z, w) = (x y + z w, x + y, 3z 3w);
(b) T : R3 R4 definida por T (x, y, z) = (x + y z, x y 3z, x 2z, y + z);
(c) T : R4 R4 definida por T (x, y, z, w) = (x + y, x, x + y, x + y);
(d) T : R2 R3 definida por T (x, y) = (x y, x + y, x + y);
(e) T : R4 R4 definida por T (x, y, z, w) = (x y, z w, x y, z + w).
16. Determine o ncleo e a imagem de uma rotao e de uma reflexo no plano.
17. D exemplo de um sistema linear homogneo cujo conjunto soluo coincida com cada
um dos subespaos vetoriais abaixo:
(a) h(1, 1, 1), (2, 3, 1), (3, 1, 5)i em R3 ;
(b) h(1, 1, 0, 0), (1, 0, 1, 1), (0, 1, 1, 0)i em R4 ;
(c) h(1, 1, 0, 1, 0), (1, 1, 0, 0, 1)i em R5 ;
(d) h(1, 1, 1, 0), (1, 0, 2, 1), (5, 2, 8, 3)i em R4 ;
EXERCCIOS 129
23. Determine o complemento ortogonal do subsespao do R3 gerado por (1, 0, 0), (0, 1, 1)
e (1, 1, 1).
24. Ache os autovalores e autovetores das matrizes:
" # " #
1 2 1 1
A= , e B= .
0 1 1 1
0 0 1 0 0 1 1 1 2
1 1 2 1 3 2 1 2 3
D = 1 2 1 , E = 2 2 1 , F = 0 4 0 .
2 1 1 0 0 1 3 3 1
130 3. MODELOS MULTIDIMENSIONAIS
26. Determine geradores para os autoespaos de cada uma das matrizes do exerccio ante-
rior.
2 2 1
28. Prove, sem recorrer ao teorema de Perron, que toda matriz real de tamanho 2 2 tem
que ter um autovalor positivo.
30. Seja L uma matriz de Leslie, de tamanho n n, cujas taxas de fecundidade so todas
positivas, com possvel exceo da primeira. Mostre que:
(a) a primeira linha de L3 s tem entradas positivas;
(b) as j-simas primeiras linhas de Lj+3 s tm entradas positivas;
(c) todas as entradas de L3+n so positivas.
b 1/3 c
Determine valores para a, b e c de forma que Q seja ortogonal de determine igual a um.
34. Seja uma rotao de eixo ` em R3 e v = [1, 1, 1]t um vetor ortogonal a `. Sabendo-se
que (v) = [1, 1, 1]t , determine:
(a) o cosseno do ngulo de rotao de ;
(b) o eixo da rotao .
CAPTULO 4
Conceitos bsicos
Comeamos pelas definies de espaos vetoriais reais, seus subespaos e suas trans-
formaes lineares.
1.1. Definies bsicas. Seja V um conjunto no vazio no qual esto definidas duas
operaes, que chamaremos de adio e multiplicao por escalar. Em outras palavras,
dados u, v V e R, obtemos, de maneira nica, dois novos vetores de V : a soma
u + v e o produto por escalar v. Diremos que V , munido destas duas operaes, um
espao vetorial real, se as seguintes propriedades so satisfeitas:
1. u + (v + w) = (u + v) + w;
2. u + v = v + u;
3. existe um elemento 0 V tal que u + 0 = u;
4. dado v V , existe um elemento v V tal que v + v = 0;
5. (u + v) = u + v;
6. ( + )u = ( + )u;
7. ()u = ()(u);
8. 0 u = 0 e 1 u = u;
propriedade 4 pode ser descrito em termos do produto por escalar por v = (1) v. De
fato,
(1 1) v = 0 v = 0
pela propriedade 8, ao passo que, pelas propriedades 6 e 8,
(1 1) v = 1 v + (1) v = v + (1) v.
Portanto,
v + (1) v = 0.
A igualdade desejada obtida somando-se v de ambos os lados da equao acima.
Observe que a definio de espao vetorial nada diz sobre o produto interno. A razo
que h muitos objetos em matemtica que satisfazem as condies acima, e que, portanto,
so espaos vetoriais, mas que no admitem nada semelhante a um produto interno definido
de maneira natural. Por isso, pareceu aos matemticos prefervel definir a noo de espao
vetorial sem requerer a existncia de um produto interno. Nunca demais lembrar que
estas estruturas no so dadas pela natureza, mas sim nomes que pessoas inventaram para
descrever objetos matemticos que ocorrem com frequncia.
Como um espao vetorial vem munido de operaes, queremos que uma aplicao de
um espao vetorial em outro preserve, de alguma maneira, estas aplicaes. O que sabemos
do caso do R2 , sugere que a definio correta deva ser a seguinte. Sejam V e W espaos
vetoriais reais. Uma aplicao T : V W que satisfaz
T (u + v) = T (u) + T (v) e T (u) = T (u);
quaiquer que sejam u, v V e R uma transformao linear entre estes espaos.
Quando V = W costuma-se dizer que T um operador linear de V . Portanto, ao usar a
palavra operador estamos implicitamente supondo que os conjuntos de partida e de chegada
da transformao linear so os mesmos. Da definio de transformao linear seguem
algumas propriedades simples. Por exemplo, uma transformao linear tem que preservar
o vetor zero. De fato, se u um vetor qualquer de V , ento
T (0) = T (0 u) = 0 T (u) = 0,
pois o escalar zero multiplicado por qualquer vetor d zero.
u + v S para todo u, v S;
u S para todo u S e R.
Isto significa que, somando dois elementos de S, considerados como vetores em V , obte-
mos um elemento de S, e que o produto de um elemento de S por um escalar tambm
um elemento de S. Como as propriedades 1, 2, 5, 6, 7 e 8 valem para todos os elementos
1. ESPAOS VETORIAIS E TRANSFORMAES LINEARES 135
Quando todos os vetores de um espao vetorial V podem ser escritos como combina-
o linear dos vetores de um dado subconjunto finito de vetores de V , dizemos que V
finitamente gerado. Este o caso de todos os subespaos com que nos deparamos at aqui.
No artigo 2.4 mostraremos que qualquer subespao de um espao vetorial finitamente ge-
rado tambm um subespao finitamente gerado. Na verdade, ao longo de todo este livro
trataremos apenas de espaos vetoriais finitamente gerados. Isto no quer dizer que espa-
os vetoriais que no so finitamente gerados no existam, ou que no sejam importantes.
Pelo contrrio, grande parte do mpeto em estudar espaos que no so finitamente gerados
deveu-se exatamente ao papel crucial que desempenham em mecnica quntica. Contudo
o estudo destes espaos envolve tcnicas analticas muito mais sofisticadas do que as que
temos acesso em um livro elementar como este.
De maneira mais geral, dado um espao vetorial V e um subconjunto finito C =
{u1 , . . . , uk } V, o conjunto hCi cujos elementos so todas as combinaes lineares
dos vetores de C um subespao de V . De fato, se c1 , . . . , ck , c01 , . . . , c0k so escalares,
ento
(c1 u1 + + ck uk ) + (c01 u1 + + c0k uk ) = (c1 + c01 )u1 + + (ck + c0k )uk ,
e
(c1 u1 + + ck uk ) = (c1 )u1 + + (ck )uk
que so todos combinaes lineares dos elementos de C e, como tal, tm que pertencer
a hCi. Diremos que este o subespao gerado por C e que os elementos de C so os
geradores de hCi.
1.4. Outros exemplos de espaos vetoriais. Ao longo deste livro tratamos, quase
que exclusivamente, dos espaos Rn e de seus subespaos. Entretanto, a ubiquidade dos
espaos vetoriais entre os objetos utilizados por matemticos, fsicos e engenheiros no-
tria. Para que voc tenha conhecimento disto, listamos neste artigo vrios conjuntos seus
conhecidos que tm uma estrutura natural de espao vetorial.
O primeiro deles , muito apropriadamente, o conjunto Rmn das matrizes m n com
a soma usual de matrizes e a multiplicao de uma matriz por escalar um espao vetorial.
Outro exemplo bem conhecido o conjunto F das funes de R nele mesmo, com a soma
e o produto por escalar definidos por
o conjunto das matrizes que tm a soma dos elementos da diagonal igual a zero.
2. Bases
Isto verdade, mas no tive escolha, porque nada pior que isto pode acontecer.
Queremos provar isto, mas antes introduziremos um pouco de terminologia para fa-
cilitar as coisas. Seja, ento, V um espao vetorial real e S um subconjunto finito de
V . Diremos que S um conjunto linearmente dependente se algum vetor de S pode ser
escrito como combinao linear dos demais. Caso contrrio, o conjunto linearmente in-
dependente. Tambm usual dizer que os vetores, em vez do conjunto formado por eles,
linearmente dependente ou independente. Note que um conjunto que contm o zero tem
que ser linearmente dependente, porque sempre podemos escrever este vetor como com-
binao de quaisquer outros vetores: basta tomar todos os coeficientes como sendo nulos.
No exemplo acima, temos que o conjunto
{[1, 0]t , [0, 1]t , [1, 1]t },
2. BASES 141
o vetor nulo pode ser escrito como combinao linear dos vetores de S,
com pelo menos um dos coeficientes da combinao diferente de zero.
A recproca desta afirmao tambm verdadeira. Para provar isto suponha que
a1 u1 + + an un = 0,
com pelo menos um dos as no nulo. Supondo que a1 6= 0 para simplificar a notao,
podemos escrever
a2 an
u1 = u1 + + un ;
a1 a1
donde conclumos que u1 pode ser escrito como combinao linear dos demais vetores de
S. Resumindo, mostramos que as seguintes afirmaes a respeito de um subconjunto finito
S do espao vetorial V so equivalentes:
(1) um dos vetores de S pode ser escrito como combinao linear dos demais;
(2) o vetor zero pode ser escrito como combinao linear dos vetores de S na qual
pelo menos um dos coeficientes no nulo.
Note, tambm, que (2) pode ser escrito de maneira muito compacta se usarmos a notao
para combinaes lineares introduzida no artigo 1.2. De fato, se
a1
.
U = [u1 , . . . , un ] e r = .
.
an
ento, de acordo com aquela notao,
U r = a1 u1 + + an un .
Portanto, os vetores u1 , . . . , un so linearmente dependentes quando existe um vetor no
nulo r0 Rn para o qual o produto U r0 = 0.
Encerramos o artigo com a seguinte propriedade dos conjuntos linearmente indepen-
dentes:
A demonstrao imediata, basta lembrar que uma combinao linear de alguns vetores de
um conjunto finito pode ser encarada como uma combinao de todos os vetores na qual
alguns tm coeficiente nulo. Por via das dvidas, vale pena lembrar que nada semelhante
vale para conjuntos linearmente dependentes. Por exemplo, se v um vetor no nulo
de um espao vetorial qualquer, o conjunto {v, 2v} linearmente dependente, mas {v}
linearmente independente.
2.2. Dependncia linear e eliminao gaussiana. Neste artigo veremos como utili-
zar a eliminao gaussiana para descobrir se um dado conjunto de vetores de Rn , ou no,
linearmente independente. O ponto crucial pode ser resumido no seguinte lema.
L EMA 2.1. Se u1 , . . . , uk so vetores de um espao vetorial V e um nmero real,
ento
hu1 , u2 . . . , uk i = hu1 , u2 + u1 . . . , uk i.
Pelo resto do artigo suporemos que o espao vetorial em questo o Rn . Dados vetores
u1 , . . . , uk Rn
vamos disp-los em linhas, em vez de colunas, obtendo assim uma matriz k n, qual
podemos aplicar a eliminao gaussiana. Supondo que o piv da primeira linha no nulo,
o primeiro passo da eliminao nos d
u1 u1
u2 u2 u1
(49) ..
.. .. ..
.. ..
. . . . . .
uk uk
para algum R. Portanto, de acordo com o lema 2.1
hu1 , u2 , . . . , uk i = hu1 , u2 u1 , . . . , uk i.
Mas, continuando com o processo de eliminao, temos uma sucesso de passos anlogos
a este, a cada um dos quais o lema pode ser aplicado. Portanto, se w1 , . . . , wk so as linhas
da matriz triangular obtida ao final da eliminao, podemos afirmar que
hu1 , u2 . . . , uk i = hw1 , w2 , . . . , wk i.
Por exemplo, se
u1 = (1, 2, 0, 4, 1), u2 = (0, 1, 0, 3, 1), u3 = (1, 1, 1, 1, 1) e u4 = (2, 4, 1, 8, 3),
ento, aplicando eliminao gaussiana matriz
1 2 0 4 1
0 1 0 3 1
1 1 1 1 1
2 4 1 8 3
144 4. CONCEITOS BSICOS
2.3. Bases. Observe que os subconjuntos finitos de V em relao aos quais definimos
as noes de dependncia e independncia linear no precisam ser conjuntos de gerado-
res. Quando um conjunto linearmente independente tambm um conjunto de geradores,
dizemos que uma base de V .
Considere, por exemplo, o subespao do R5 definido por
S = {(x, y, z, w, u) R5 | x + y z u = 0}.
Como u = x + y z, os vetores de S so da forma
(x, y, z, w, u) = (x, y, z, w, x + y z);
que podemos reescrever como
(51) (x, y, z, w, u) = x(1, 0, 0, 01) + y(0, 1, 0, 0, 1) + z(0, 0, 1, 0, 1) + w(0, 0, 0, 1, 0).
Esta equao mostra duas coisas. A primeira, e mais bvia, que todo vetor de S pode ser
escrito como combinao linear dos vetores
[1, 0, 0, 0, 1]t , [0, 1, 0, 0, 1]t , [0, 0, 1, 0, 1]t , [0, 0, 0, 1, 0]t ;
146 4. CONCEITOS BSICOS
de modo que o conjunto F formado por estes quatro vetores gera todo o subespao S. A
outra coisa que F linearmente independente, porque
x[1, 0, 0, 01]t + y[0, 1, 0, 0, 1]t + z[0, 0, 1, 0, 1]t + w[0, 0, 0, 1, 0]t = [0, 0, 0, 0, 0]t ,
equivale a dizer que
[x, y, z, w, x + y z]t = [0, 0, 0, 0, 0]t ;
de modo que x = y = z = w = 0. Isto , a nica combinao linear dos vetores de F que
d zero aquela cujos coeficientes so todos nulos. Provamos, assim, que F uma base
de S.
Para um outro exemplo, com um sabor diferente, considere o subespao W de R4
gerado pelos vetores
u1 = (1, 2, 0, 4, 1), u2 = (0, 1, 0, 3, 1), u3 = (1, 1, 1, 1, 1) e u4 = (2, 4, 1, 8, 3).
Vimos no artigo 1.2 que
hu1 , u2 , u3 , u4 i = hw1 , w2 , w3 i,
em que
w1 = (1, 2, 0, 4, 1), w2 = (0, 1, 0, 3, 1) e w3 = (0, 0, 1, 0, 1),
foram obtidos aplicando eliminao gaussiana matriz cujas linhas so os geradores do
subespao W . Se estes vetores forem linearmente independentes, teremos obtido uma
base de W , como queramos. Mas a matriz da qual os ws so linhas triangular superior.
Por isso, tomando uma combinao linear da forma
aw1 + bw2 + cw3 = 0,
teremos necessariamente que a primeira entrada da combinao linear um mltiplo de a,
a segunda uma combinao linear de a e b, e a terceira uma combinao de a, b e c. Neste
caso especfico,
a=0
2a + b = 0
c=0
donde podemos concluir que a = b = c = 0; isto , os vetores w1 , w2 , w3 formam mesmo
uma base de W . Isto facilmente generalizado:
A importncia de ter um conjunto gerador que uma base esclarecida pelo seguinte
teorema.
T EOREMA 2.2. Todo vetor de V pode ser escrito, de uma nica maneira, como com-
binao linear dos vetores de uma base de V .
2. BASES 147
Antes de fazer a demonstrao, convm esclarecer o que significa de uma nica ma-
neira neste contexto. Seja, ento,
B = {u1 , . . . , un }
uma base de V ; uma e no a porque, como veremos, h infinitas bases possveis para
qualquer espao vetorial real. Imagine que dado um vetor v V . Como B uma base,
ser possvel escrever v como combinao linear dos vetores de B. Digamos que
v = a1 u1 + + an un
para alguma escolha de escalares a1 , . . . , an Rn . Segundo o teorema, sendo B uma
base, a1 , . . . , an a nica escolha de coeficientes para a qual uma combinao linear dos
vetores u1 , . . . , un igual v; qualquer outra escolha produzir um vetor diferente de v. Tendo
esclarecido este detalhe, podemos provar o teorema.
Como, pelo teorema, cada vetor de V s pode ser escrito de uma nica maneira como
combinao linear dos elementos de uma base B, temos uma correspondncia bijetiva entre
os vetores de V e as n-uplas dos coeficientes de v, quando escrito na base B. Para tornar
esta afirmao mais clara, digamos que
B = {u1 , . . . , un }
148 4. CONCEITOS BSICOS
e que
v = a1 v1 + + an vn .
Denotando por (v)B a n-upla [a1 , . . . , an ]t , a correspondncia bijetiva a que nos referimos
se d entre v e (v)B . Note que (v)B , ele prprio, um vetor do espao Rn , conhecido como
o vetor de coordenadas de v relativamente base B. Um detalhe importante: a ordem
das entradas em (v)B = [a1 , . . . , an ]t depende da ordem dos vetores na base. Portanto,
deveramos descrever uma base como sendo uma lista (em que a ordem dos elementos
relevenate) e no um conjunto (em que a ordem dos elementos no relevante). No
faremos isto porque, apesar do que acabamos de dizer, voc dificilmente encontrar um
livro de lgebra linear em que bases so consideradas listas e no bases. Apesar disto,
nunca esquea que ao mudar a ordem dos elementos de uma base as coordenadas de um
dado vetor nesta base trocaro de posio.
Vejamos o que isto significa no exemplo anterior, em que o espao vetorial S e a base
F . De acordo com (51), as coordenadas do vetor v = [x, y, z, w, u]t relativamente base
F = {[1, 0, 0, 0, 1]t , [0, 1, 0, 0, 1]t , [0, 0, 1, 0, 1]t , [0, 0, 0, 1, 0]t };
so
(v)F = [x, y, z, w]t .
ao passo que as coordenadas do mesmo vetor relativamente a
F 0 = {[0, 0, 0, 1, 0]t , [0, 0, 1, 0, 1]t , [0, 1, 0, 0, 1]t , [1, 0, 0, 0, 1]t };
so
(v)F 0 = [w, z, y, x]t .
Uma segunda fonte potencial de confuso decorre de que v um vetor de R5 ao passo que
(v)F um vetor de R4 . A razo para esta discrepncia ficar mais clara quando tratarmos
da dimenso no artigo 2.4.
2.4. Dimenso. Como consequncia da definio, temos que uma base no pode estar
contida dentro de outra. A razo simples. Se B for uma base de um espao vetorial V ,
que est propriamente contida em um conjunto finito qualquer F V , ento existe um
vetor v F que no pertence a B. Mas todo vetor de V combinao linear dos elementos
de B, de modo que isto vale tambm para v. Como B F , conclumos que um elemento
de F combinao linear dos demais. Logo F linearmente dependente. Polindo um
pouco este argumento, provaremos que,
D EMONSTRAO . Sejam
B = {u1 , . . . , um }
uma base de V e
C = {w1 , . . . , wn }
um subconjunto qualquer de V que contm n > m elementos. Para provar o teorema basta
verificar que os vetores de C tm que ser linearmente dependentes. Entretanto, como B
base, cada elemento de C tem coordenadas
(wj )B = [a1,j , . . . , am,j ]t para 1 j n,
relativamente base B. Usando a notao introduzida no artigo 1.2, podemos escrever
(52) W = U A,
em que
U = [u1 , . . . , um ], W = [w1 , . . . , wn ]
e A a matriz cujas colunas so as coordenadas dos vetores w1 , . . . , wn relativamente
base B; isto ,
a1,1 a1,n
. .. ..
A= ..
. . .
am,1 a1,n
Como n > m, o sistema homogneo AX = 0 tem mais incgnitas do que equaes e tem
que ser indeterminado. Portanto, existe um vetor no nulo X0 Rn tal que AX0 = 0.
Segue, ento, de (52) que
W X0 = U AX0 = U (AX0 ) = 0,
150 4. CONCEITOS BSICOS
que equivale a dizer que os vetores de C so linearmente dependentes; veja pgina 142.
Note que, a despeito do que diz o enunciado do teorema, o que provamos realmente foi
uma verso mais forte da afirmao feita bem no incio deste artigo:
A consequncia mais importante deste teorema que o nmero de elementos de uma base
um nmero inteiro que caracterstico do espao vetorial propriamento dito, uma vez que
independe da base escolhida. Este nmero conhecido como a dimenso do espao veto-
rial. Deste ponto at o final do artigo suporemos que V um espao vetorial finitamente
gerado e que B uma base de V . A dimenso de V ser denotada por dim(V ). Observe
que, como a base cannica do Rn tem n elementos, ento dim(Rn ) = n como, afinal, seria
de esperar. Algumas consequncias adicionais do teorema da dimenso so relacionamos
a seguir.
C OROLRIO 2.3. Se {0} =6 F V um conjunto finito e no vazio de vetores linear-
mente independentes de V ento
(a) |F | |B|;
(b) a dimenso de um subespao prprio de V sempre menor do que a dimenso
de V ;
(c) possvel acrescentar vetores a F de modo que o conjunto resultante seja uma
base de V .
uma base de N (T );
0 uma base de um complementar de N (T );
Uma aplicao simples deste teorema est relacionada descrio de quando um ope-
rador linear T : Rn Rm injetivo, sobrejetivo ou bijetivo. Digamos que m < n. Neste
caso, o teorema nos diz que
n = dim(N (T )) + dim( Im(T )) dim(N (T )) + m;
donde
0 < n m dim(N (T ));
que implica que N (T ) 6= {0}. Lembrando que uma transformao linear injetiva se, e
somente se, seu ncleo zero, podemos concluir que, se m < n ento T no pode ser
injetiva. Por outro lado, se m > n ento
dim( Im(T )) = n dim(N (T )) n < m;
de modo que Im(T ) ( Rm . Mas isto significa que T no pode ser sobrejetiva. Reformu-
lando tudo isto de maneira mais positiva, podemos dizer que:
se T injetiva ento n m;
se T sobrejetiva ento n m;
se T bijetiva ento n = m.
154 4. CONCEITOS BSICOS
Note que a recproca de cada uma destas afirmaes falsa. Quando m = n o teorema do
ncleo e da imagem nos diz ainda que N (T ) = {0} se, e somente se, dim( Im(T )) = n.
Em outras palavras, se n = m ento as seguintes afirmaes so equivalentes:
T bijetiva;
T sobrejetiva;
T injetiva;
donde
c1 (k 1)ck1
fk1 =f0 + + fk2 ,
k k
que contradiz a escolha de k como o menor valor para o qual uma tal relao satisfeita.
Em outras palavras, F no pode ser finitamente gerado.
3. Bases ortonormais
| | |
Mas isto significa que
| | |
v1t . . .. ..
.. .. . .
v2t
t
M M = v1 v2 vn .
.. .. .. ..
. . . . ... ... .. ..
. .
vnt
| | |
3.2. Projees. Com isto podemos voltar questo de como determinar uma base
ortonormal de um subespao S de Rn . Embora nosso objetivo seja descrever um algoritmo
capaz de construir uma tal base a partir de uma base B qualquer de S, comearemos
discutindo um problema mais simples.
Suponhamos que S seja um subespao de Rn e que v 6= 0 seja um vetor de Rn que
no pertence a S. Queremos construir, a partir de v, um vetor normal a S, que uma
maneira sucinta de dizer que este vetor deve ser normal a todos os elementos de S. Uma
figura simples sugere, que subtraindo de v sua projeo sobre S, deveramos obter um
vetor perpendicular a S. Mas como calcular esta projeo? primeira vista, os mtodos
utilizados para achar a matriz da projeo de um vetor sobre um hiperplano ajudam pouco,
porque requerem que conheamos o vetor normal ao hiperplano, que exatamente o que
queremos descobrir neste caso!
Contornamos o problema, partindo de uma base ortonormal
B = {u1 , . . . , uk }
do subespao S. Como P v S, podemos escrev-lo como combinao dos elementos de
B, na forma
P v = a1 u 1 + + ak u k .
Mas queremos que v P v e ui sejam perpendiculares, para todo 1 i k. Para isto,
devemos ter que
0 = uti (v P v) = uti (v (a1 u1 + + ak uk )) = uti v ai ;
pois os us so dois a dois ortogonais e tm comprimento um. Logo,
i i
!
X X
Pv = (uti v)ui = (ui uti ) v
i=1 i=1
o que torna fcil calcular o vetor v P v. Resumindo:
Como ui uti a matriz de projeo sobre o vetor ui , podemos concluir que a matriz de P
dada acima a soma das projees sobre cada um dos vetores de ui . Mas isto, convenha-
mos, bastante razovel.
No prximo artigo usaremos esta ideia para construir, recursivamente, uma base orto-
normal de um subespao de Rn a partir de qualquer base dada para este subespao. Antes
158 4. CONCEITOS BSICOS
v1
B1 = {u1 } em que u1 = .
kv1 k
Para a passagem de Bi a Bi+1
usamos a construo do artigo anterior. Como
Bi = {u1 , . . . , ui }
conhecida, definimos ui+1 como sendo a normalizao do vetor
i
X
(utj vi+1 )uj .
j=1
Portanto, a base ortonormal de S ser Bk . Observe que esta construo implica que Bi
uma base ortonormal de
hv1 , . . . , vi i = Si .
3. BASES ORTONORMAIS 159
3.4. O hipercubo de quatro dimenses. Nesta seo teremos uma descrio do hi-
percubo de quatro dimenses e de suas projees no plano.
160 4. CONCEITOS BSICOS
somente mais uma reflexo de Householder a aplicar, aquela determinada pelo vetor obtido
pela normalizao de
q
2 3 6 76
, 1 ,
6
a matriz H3
7 7
6
2 3 6 6
7
7
7 7 ,
6 2 3
7
6
6
7
de modo que H
b 3 d
1 0 0 0
0 1 0 0
7 7
.
2 3 6
0 0 6 6
7 7
7
7
6 2 3
0 0 7
6
6
7
Finalmente, o produto H b3Hb 2 H1 A tem como resultado a mesma matriz R obtida em (54),
exceto por uma linha extra de zeros ao final da matriz. De maneira semelhante, a transposta
de H
b3H b 2 H1 igual matriz Q de (54), exceto por uma coluna extra ao final. Na verdade,
como fcil de verificar, esta coluna extra foi construda de tal maneira que as colunas de
(H
b3Hb 2 H1 )t formam uma base ortonormal de R4 e no do espao gerado pelas colunas de
A. Em geral, se
Q0 = (H b 2 H1 )t e R0 = Q0 A,
bn . . . H
obtemos as matrizes Q e R tais que A = QR eliminando, respectivamente, as ltimas
n m colunas de Q0 e as ltimas n m linhas de R0 . Estas ltimas sero necessariamente
linhas nulas, pois o espao gerado pelas colunas de A tem dimenso m.
primeira vista, pode parecer que devamos guardar as matrizes H cj , uma a uma, para
poder multiplic-las. Mas isto no necessrio, porque no estamos interessados nestas
matrizes, mas sim no produto de todas elas, da mesma forma como, no mtodo LU, no
estvamos interessados nas matrizes elementares que foram utilizadas, mas sim na matriz
inversvel que resulta do produto de todas elas. Isto sugere que podemos copiar a estratgia
utilizada no clculo da matriz L no algoritmo de eliminao gaussiana. Isto , em vez de
multiplicar cada matriz de Householder apenas por A, multiplicamos estas matrizes por A
e pela matriz identidade de tamanho n n, e os resultados pelas matrizes de Householder
seguintes. Outra estratgia possvel, que tem a vantagem de ser muito econmica do ponto
de vista do uso de memria, guardar apenas os vetores unitrios utilizados para calcu-
lar as reflexes, e escrever uma funo capaz de construir Q a partir destes vetores pela
multiplicao das reflexes de Householder correspondentes a cada um deles.
164 4. CONCEITOS BSICOS
Chegou a hora de estender a uma base qualquer a construo da matriz de uma trans-
formao linear.
Em vez de substituir estas expresses em (57), vamos introduzir uma definio que nos
permitir tornar mais clara a relao entre o que estamos fazendo e a matriz de uma trans-
formao relativamente base cannica. Como os coeficientes que definem um vetor de
Rn como combinao linear dos elementos de uma base so nicos, diremos que os esca-
lares 1 , . . . , n em (56) so as coordenadas de v relativamente base B e escreveremos
(v)B = [1 , . . . , n ]t .
Analogamente, os a1j , . . . , anj so as coordenadas de T (v) relativamente base B, de
modo que
(T uj )B = [a1j , . . . , anj ]t .
Esta notao nos permite reescrever (57) na forma
(58) (T v)B = 1 (T (u1 ))B + + n (T (un ))B ,
donde
a11 a1n a11 a1n 1
. . . .. .. .
. . . .
. 1 + + . n = .
(T v)B = . . ,
.
an1 ann an1 ann n
que a mesma expresso obtida no artigo 2.2, exceto que todas as coordenadas referem-se
agora base B e no base cannica. Escrevendo
a11 a1n
. ... ..
(T )B = ..
.
an1 ann
4. TRANSFORMAES LINEARES E BASES 165
(v)B + (v 0 )B = (v + v 0 )B ;
(v)B = (v)B .
Note que estas propriedades j foram usadas, implicitamente, quando escrevemos a equa-
o (58). As demonstraes seguem diretamente das definies. Por exemplo, se
(v)B = (a1 , . . . , an ) e (v 0 )B = (a01 , . . . , a0n )
ento, supondo que
B = {u1 , . . . , un },
temos, por definio que
v = a1 u1 + + an un e v 0 = a01 u1 + + a0n un ;
donde
v + v 0 = (a1 + a01 )u1 + + (an + a0n )un ,
que equivale a dizer que
(v + v 0 )B = (a1 + a01 , . . . , an + a0n ).
A outra igualdade provada de maneira anloga. Usaremos estas duas propriedades, de
agora em diante, sem nenhuma cerimnia.
4.2. Mudana de bases. Sejam B e B 0 duas bases de Rn . Nosso objetivo neste artigo
relacionar as coordenadas de um vetor v relativas a B s suas coordenadas relativas a B 0 .
Digamos que
B = {u1 , . . . , un }
Contudo, como
B 0 = {w1 , . . . , wn }
outra base de Rn , podemos escrever cada vetor de B como combinao linear dos vetores
de B 0 ; isto ,
uj = m1j w1 + + mnj wn
166 4. CONCEITOS BSICOS
0 0 1
cuja inversa corresponde matriz que muda coordenadas na base cannica para coordena-
das na base B. Por sorte, B uma base ortonormal, de modo que, como vimos no artigo
3.1, a inversa de M igual sua transposta, o que facilita enormemente os clculos.
Ainda que possa no parecer, o que fizemos basta para determinarmos a matriz de um
operador linear relativamente base cannica, quando conhecemos sua matriz relativa-
mente a qualquer outra base. Para isto, suponhamos que T um operador linear do Rn e
que B uma base deste espao. Se M for a matriz que muda coordenadas na base B em
coordenadas na base , ento
(v) = M (v)B que equivalente a M 1 (v) = (v)B .
Por outro lado, por (59),
(T v)B = (T )B (v)B .
Combinando estas frmulas, obtemos
(T v)B = (T )B M 1 (v) .
Analogamente,
(T v) = M (T v)B
de modo que
(T v) = M (T v)B = M (T )B M 1 (v) .
Mas, aplicando (59) quando a base ,
(T v) = (T ) (v) ;
168 4. CONCEITOS BSICOS
de modo que
(T ) (v) = M (T )B M 1 (v) .
Mas, multiplicando uma matriz A pelo vetor coluna ej obtemos a j-sima coluna de A, o
que nos permite concluir que
(T ) = M (T )B M 1 .
Obtivemos assim, uma frmula que nos permite transformar a matriz de uma transformao
escrita em qualquer base para a matriz da mesma transformao relativa base cannica.
Teremos muitas oportunidades de usar estas frmulas durante o curso, por isso convm
reescrev-las todas juntas. Para isto, sejam, B = {u1 , . . . , un } uma base, T um operador do
Rn e M a matriz que transforma coordenadas relativas base B em coordenadas relativas
base cannica. Em primeiro lugar, se v Rn , ento
(T v)B = (T )B (v)B ;
(v) = M (v)B ;
(T ) = M (T )B M 1 .
As outras frmulas podem ser determinados a partir destas levando-se em conta que M 1
muda as coordenadas da base cannica para a base B.
4.3. Rotaes no espao. J sabemos que toda rotao do R3 admite um eixo e que
um vetor do plano normal ao eixo ser rodado em um outro vetor do mesmo plano. Mais
precisamente, se u for um vetor unitrio ao longo do eixo e for o ngulo de rotao,
teremos
(u) = u;
(w) e w formam um ngulo para todo vetor w perpendicular a u.
Para poder escrever a matriz de , determinaremos uma base ortonormal {w1 , w2 } do plano
W = hui . Como o ngulo entre dois vetores no muda quando ambos so rodados por
, podemos concluir que (w1 ) perpendicular a u, de modo que, ao escrev-lo como
combinao linear da base
u
B= , w1 , w2 ,
kuk
4. TRANSFORMAES LINEARES E BASES 169
obtemos
(w1 ) = h(w1 ), w1 iw1 + h(w1 ), w2 iw2 .
Para poder explicitar esta frmula basta calcular
h(w1 ), w1 i e h(w1 ), w2 i.
Como as rotaes tambm no alteram o comprimento dos vetores, temos que (w1 )
unitrio, de modo que os produtos internos acima so iguais aos cossenos dos ngulos
entre os vetores. Mas o ngulo entre w1 e (w1 ) pela definio da rotao, o que nos
permite concluir que
h(w1 ), w1 i = cos().
Por outro lado, como w2 ortogonal a w1 , o ngulo que forma com (w1 ) o que falta em
para complementar /2, donde
h(w1 ), w2 i = cos(/2 ) = sen().
Assim, as coordenadas de (w1 ) relativamente a B so
[0, cos(), sen()]t
Como w2 perpendicular a w1 , um argumento semelhante mostra que
[0, cos(/2 ), sen(/2 )]t = [0, sen(), cos()]t .
Portanto, a matriz de relativamente base B
1 0 0
()B = 0 cos() sen()
0 sen() cos()
Por exemplo, digamos que o eixo a reta de vetor diretor (1, 1, 0) e o ngulo de rotao
/3. Normalizando o vetor diretor do eixo, obtemos
1
u = (1, 1, 0)
2
de modo que podemos escolher
1
w1 = (1, 1, 0) e w2 = (0, 0, 1),
2
como uma base ortonormal do plano perpendicular ao eixo. Portanto, segundo o que aca-
bamos de ver, a matriz da rotao desejada relativamente base
1 1
B = (1, 1, 0), (1, 1, 0), (0, 0, 1)
2 2
170 4. CONCEITOS BSICOS
ser
1 0 0
0 1/2 3/2
0 3/2 1/2
em que o sentido da rotao
dado pela regra da mo direita. Isto , se o polegar aponta
na direo de (1, 1, 0)/ 2 ento a rotao acompanha o movimento da rotao da concha
formada pelos outros dedos.
O problema que o que gostaramos mesmo de ter a matriz desta rotao relativa-
mente base cannica, e no relativamente base B. Para resolver este problema, usare-
mos a frmula de mudana de base que aprendemos no artigo anterior, segundo a qual a
matriz desta rotao na base cannica
1 1
1 0 1 0 0 1 0
2
1 1
2 12 2
2 0 0 1/2 3/2 1 0
2 2 2
0 0 1 0 3/2 1/2 0 0 1
que igual a
3
4
14 24 3
24 3
1 3
4
4
2 3 2 3 1
4 4 2
4.4. Construindo transformaes lineares. Neste artigo veremos como construir al-
guns exemplos de transformaes lineares com propriedades especificadas. Suponha que
foram dados dois espaos vetoriais V e W e dois subespaos V 0 V e W 0 W . Come-
aremos desenvolvendo um mtodo para construir uma transformao linear T : V W
cujo ncleo V 0 e cuja imagem W 0 . Para comear, isto s possvel se
(61) dim(V ) = dim(V 0 ) + dim(W 0 ),
para que os dados sejam compatveis com o teorema do ncleo e da imagem. Supondo que
esta condio satisfeita, podemos escolher uma base B 0 de V 0 e, usando o corolrio 2.3,
acrescentar-lhe vetores de modo a obter uma base B de V . Neste caso
B = B 0 C,
em que C o conjunto que contm os vetores acrescentados a B 0 para completar a base.
Note que, combinando (61) a
|B| = dim(V ) = |B 0 | + |C| = dim(V 0 ) + |C|
podemos concluir que |C| = dim(W 0 ). Isto nos permite definir T enviando
Note que este problema s tem soluo se U e W tiverem a mesma dimenso, porque um
isomorfismo preserva todas propriedades algbricas, como o caso da dimenso. Para
resolver o problema, escolhemos bases B 0 para U e B 00 para V e completamos ambas de
modo a obter bases B 0 C 0 e B 00 C 00 para V , em que
B 0 C 0 = B 00 C 00 = .
O isomorfismo desejado pode ser construdo levando-se os vetores de B 0 um a um nos
vetores de B 00 e fazendo o mesmo entre os vetores de C 0 e C 00 .
Considere, por exemplo, as retas
U = h1, 1, 1, i e W = h0, 1, 1i
de R3 . Como qualquer vetor na direo de (1, 1, 1) gera U , preferimos troc-lo por
1
(1, 1, 1)
3
na construo da base, porque isto nos permite acrescentar vetores de modo a obter uma
base ortonormal de R3 ; por exemplo,
0 1 1 1
B = (1, 1, 1), (0, 1, 1), (2, 1, 1) .
3 3 6
Procedendo de maneira semelhante para W , podemos escolher a base
00 1 1
B = (0, 1, 1), (1, 0, 0), (0, 1, 1) .
2 2
O isomorfismo fica ento definido por
(1, 1, 1)/ 3 = (0, 1, 1) 2
(0, 1, 1)/ 2 = (1, 0, 0)
(2, 1, 1)/ 6 = (0, 1, 1)/ 2
donde obtemos a matriz
0 1 0
1
()(B 0 C 0 ), = 1 0 1
2
1 0 1
Note que pusemos nas colunas as coordendas dos vetores de B 00 relativamente base can-
nica, razo pela qual obtivemos
()B 0 ,
4. TRANSFORMAES LINEARES E BASES 173
e no
()B 0 ,B 00
como talvez voc estivesse esperando. Para obter a matriz (), precisamos ainda inverter
a matriz
2 0 0
1
M= 2 3 1
6
2 3 1
para obter a mudana de coordenadas de para B 0 . Como a base ortonormal, a matriz M
ortogonal e sua inversa igual sua transposta, assim
0 6 6
1
(), = ()B 0 , M t = 2 6 6(2 + 2) 6(2 2)
12
2 6 6(2 2) 6(2 + 2)
Apesar de termos descrito a soluo geral do problema em termos de uma reta, nada
nos impede de considerar duas retas, em vez de uma, como origem e alvo da transformao.
Adaptando um pouco o problema acima, podemos perguntar qual o operador linear de
R3 que leva as retas
U1 = h[1, 1, 1]t i e U2 = h[0, 1, 0]t i,
respectivamente nas retas
W1 = h[0, 1, 1]t i e W2 = h[1, 0, 0]t i.
A primeira coisa a observar que os vetores que definem as retas no so perpendiculares.
Em particular, no podemos nos dar ao dierito de escolher bases ortonormais ao resolver
este problema. Mas a nica razo para escolher estas bases que simplificam as contas,
nada mais. Como os vetores diretores das retas na partida e na chegada no so colineares,
os conjuntos
{[1, 1, 1]t , [0, 1, 0]t } e {[0, 1, 1]t , [1, 0, 0]t }
so linearmente independentes e podemos complet-los a bases de R3 acrescentando um
vetor a cada um. Como [0, 0, 1]t independente de ambos os conjuntos, podemos acres-
cent-lo a ambos, obtendo as bases
B 0 = {[0, 1, 1]t , [1, 0, 0]t , [0, 0, 1]t } e B 00 = {[0, 1, 1]t , [1, 0, 0]t , [0, 0, 1]t }.
O isomorfismo fica ento definido por
(1, 1, 1) = [0, 1, 1]t
(0, 1, 0) = [1, 0, 1]t
(0, 0, 1) = [0, 0, 1]t
174 4. CONCEITOS BSICOS
1 1 1
Para obter (), precisamos ainda inverter a matriz
1 0 0
M = 1 1 0 ,
1 0 1
que muda coordenadas de para B 0 j que, neste exemplo, ela no ortogonal. Um clculo
fcil mostra que
1 0 0
M = 1 1 0
1 0 1
donde
1 1 0
(), = 1 0 0
1 1 1
que a matriz da transformao desejada.
4.5. Isomorfismos. J sabemos do artigo 1.3 que uma transformao linear injetiva
se, e somente se, seu ncleo zero. Combinando isto ao que aprendemos no artigo anterior,
podemos concluir que as seguintes afirmaes sobre uma transformao linear T : V W
so equivalentes:
T injetiva;
o ncleo de T contm apenas o vetor nulo;
a imagem de uma base de V por T uma base da imagem de T .
Por outro lado, uma transformao cuja imagem igual ao seu contradomnio conhecida
como sobrejetiva. isto , a transformao linear T descrita acima sobrejetiva se, e so-
mente se, Im(T ) = W . Quando uma aplicao simultaneamente injetiva e sobrejetiva
dizemos que bijetiva. Segue do teorema do ncleo e da imagem que se uma transforma-
o linear for bijetiva ento seu domnio e seu contradomnio tm a mesma dimenso. Mas
podemos ir mais longe: uma transformao linear bijetiva tem que ter inversa, que tambm
, necessariamente, uma transformao linear.
Para provar isto, suponha que V e W so espaos vetoriais e que T : V W uma
transformao linear bijetiva. Dado um vetor w W , a sobrejetividade nos garante que
4. TRANSFORMAES LINEARES E BASES 175
B = {v1 , . . . , vn }.
pela regra
(a1 , . . . , an ) = a1 v1 + + an vn .
A verificao de que esta transformao linear imediata. Alm disso, ela tem que
ser injetora, uma vez que leva os elementos da base cannica de Rn nos vetores de B,
pois (ei ) = vi . Por outro lado, como B uma base de V , todos os vetores de V so
combinao linear dos vetores de B e, portanto, so imagem de algum vetor de Rn , o que
prova a sobrejetividade de . Logo, um isomorfismo entre V e Rn , pois bijetiva e
linear.
EXERCCIOS 177
Exerccios
1. Seja V um espao vetorial e U e U 0 subespaos vetoriais de V . Prove que U U 0 s
pode ser um subespao de V se U U 0 ou U 0 U .
7. Determine uma base e a dimenso da imagem e do ncleo de cada uma das transfor-
maes lineares dadas abaixo:
(a) T : R4 R3 definida por T (x, y, z, w) = [x y + z w, x + y, 3z 3w]t ;
178 4. CONCEITOS BSICOS
20. Use o mtodo de Gram-Schimdt para achar bases ortonormais para os subespaos da-
dos abaixo:
(a) h[1, 2, 1]t , [2, 1, 1]t i R3 ;
(b) h[1, 1, 0, 1]t , [1, 0, 1, 1]t i R4 ;
(c) h[1, 1, 0, 1]t , [1, 0, 1, 1]t , [1, 1, 1, 0]t i R4 .
180 4. CONCEITOS BSICOS
24. Determine o complemento ortogonal do subsespao do R3 gerado por [1, 0, 0]t , [0, 1, 1]t
e [1, 1, 1]t .
25. Seja V um espao vetorial real e B = {u, v, w} uma base de V . Determine a matriz
de mudana de base entre B e as bases dadas abaixo:
(a) {u + v, v + w, u + w};
(b) {u v, v w, w u}.
30. Seja B1 = {[1, 3]t , [2, 4]t }. Determine B2 , sabendo-se que uma base de R2 e que a
matriz de mudana de base
" #
7 6
(I)B1 B2 =
11 8
.
31. Calcule a inversa de cada um dos seguintes operadores lineares (quando existirem):
(a) T1 (x, y, z) = [2x + 5y z, 4x y + 2z, 6x + 4y]t ;
(b) T2 (x, y, z) = [x + y z, 3x + y + z, 3x y + z]t ;
(c) T3 (x, y, z) = [4x y + 3z, 3x 2y + 5z, 2x + 3y + 4z]t ;
(d) T4 (x, y, z) = [2x + y + 2z, 3x + y + 4z, x + y + z]t ;
(e) T5 (x, y, z, w) = [x + 3y + w, x + 2y + z + w, 2x + 4y + 2z + w, x + 2z]t ;
(f) T6 (x, y, z, w) = [x + 2y 3z + 5w, y + 4z + 3w, z w, z]t ;
32. Seja
1 1 1 1
B= , , ,
2 2 2 2
uma base de R2 e x0 e y 0 os eixos correspondentes aos vetores de B.
(a) Mostre que a matriz de mudana de base (I)B ortogonal.
(b) Determine o ngulo entre o primeiro vetor da base B e o vetor e1 = (1, 0).
(c) Esboce a posio dos eixos x0 e y 0 relativamente a x e y.
(d) Determine as equaes da reta x + y = 2 e da hiprbole xy = 2 na base B
(e) Determine a equao da parbola y 0 = (x0 )2 relativamente base cannica e esboce
seu grfico.
33. Seja B = {[1, 0, 1]t , [0, 1, 1]t , [1, 1, 1]t } uma base de R3 . Determine:
(a) as matrizes de mudana de base (I)B e (I)B ;
(b) a equao cartesiana, em relao s coordenadas na base B, do plano gerado pelos
vetores (1, 0, 1) e (0, 1, 1).
41. Considere os operadores D(, ) e S() de R2 cujas matrizes relativas base cannica
so " # " #
0 1
D(, ) = e S() =
0 0 1
Prove que, dado um operador linear T de R2 , podemos determinar nmeros reais
, , e de modo que a matriz de T na base cannica pode ser escrita como um
produto D(, )S(), em que denota a rotao anti-horria de ngulo .
42. D exemplo de um operador linear T de R3 cuja imagem seja gerada por [1, 0, 1]t e
[1, 2, 2]t .
43. D exemplo de um operador linear T de R3 cujo ncleo seja a reta h[1, 1, 1]t i.
44. D exemplo de um operador linear T de R3 cujo ncleo seja gerado por [1, 1, 1]t e
cuja imagem seja gerada por [1, 0, 1]t e [1, 2, 2]t .
45. D exemplo de uma transformao linear T de R3 em R4 cuja imagem seja gerada por
[1, 2, 0, 4]t e [2, 0, 1, 3]t . Qual o ncleo do seu exemplo?
46. D exemplo uma transformao linear T de R3 em R4 cuja imagem seja gerada seja
o plano de equaes x y + z = y w = 0 e cujo ncleo seja a reta de equaes
x y + z = y z = 0.
47. D exemplo uma transformao linear T de R4 em R3 cuja imagem seja gerada seja
o plano de equao x y + z = 0 e cujo ncleo seja o plano gerador pelos vetores
[1, 0, 1, 1]t e [0, 1, 1, 1]t .
48. Para cada um dos itens abaixo, determine um operador linear injetivo de R3 que faz o
que se pede:
(a) leva a reta y 3x = z = 0 na reta y x = z = 0;
(b) leva o plano x + y z = 0 no plano z = 0;
(c) leva o plano x z = 0 no plano y = 0;
(d) leva o plano x + y + z = 0 na reta x y = z = 0;
(e) leva a reta y 3x = z = 0 no plano y x = 0.
51. Seja T um operador de R2 cuja imagem est contida em seu ncleo. Mostre que existe
uma base B de R2 relativamente qual a matriz de T da forma
" #
0
para algum nmero real .
0 0
52. Seja S o subsespao do R3 gerado pelos vetores [1, 0, 0]t , [0, 1, 1]t e [1, 1, 1]t .
(a) Determine o complemento ortogonal S de S.
(b) D exemplo de uma transformao linear T : R3 R3 que tem S como imagem
e S como ncleo.
53. Seja T a reflexo do R3 atravs do plano x + y = 0.
(a) Encontre uma base ortonormal B relativa qual T diagonal.
(b) Calcule a matriz de T na base cannica.
54. Seja P a projeo ortogonal do R3 sobre o plano 3x + y z = 0.
(a) Determine o ncleo e a imagem de P .
(b) Determine uma base ortonormal B relativa qual a matriz de P diag(1, 1, 0)t .
(c) Determine (P v)B para os vetores cujas coordenadas relativamente base cannica
so [1, 0, 0]t , [0, 1, 0]t e [1, 1, 0]t .
(d) Esboce o desenho, no plano 3x + y z = 0 da projeo do quadrado cujos vrtices
so A = [0, 0, 0]t , B = [1, 0, 0]t , C = [0, 1, 0]t e D = [1, 1, 0]t .
55. Seja P a projeo ortogonal do R3 ao longo do vetor v = [1, 1, 1]t .
(a) Determine o ncleo e a imagem de P .
(b) Determine uma base ortonormal B relativa qual a matriz de P diag(1, 1, 0).
(c) Determine (P v)B para os vetores cujas coordenadas relativamente base cannica
so (1, 0, 0]t , [0, 0, 1]t , [0, 1, 0]t , [0, 1, 1]t , [1, 0, 1]t , [1, 1, 0]t e [1, 1, 1]t .
(d) Esboce o desenho, no plano de projeo de P , do cubo cujos vrtices so os pontos
acima e a origem.
56. Seja P a projeo do R4 ao longo do vetor [1, 1, 1, 1]t . Determine as coordenadas de
[x, y, z, w]t numa base B relativamente qual a matriz de P diag(1, 1, 1, 0).
CAPTULO 5
Diagonalizao
1. Operadores diagonalizveis
Observe que em (63) no estamos supondo que os s sejam todos distintos. Na verdade,
nada impede que sejam todos iguais, embora este caso seja de muito pouco interesse; veja
exerccio 1
Como no caso do Rn , calcularemos os autovalores e autovetores, recorrendo matriz
de T relativamente a alguma base de V . Que base escolhida no importa, porque, como
veremos, os autovalores e autovetores obtidos so independentes da base. Para tratar disto
de maneira mais precisa, seja T um operador de um espao vetorial V e seja uma base
qualquer de V . Ento, a equao T v = v, para algum 0 6= v V se traduz matricialmente
na forma
(T ) (v) = (v) ;
que equivalente a
(64) ((T ) I)(v) = 0,
em que I a matriz identidade de mesmo tamanho que (T ) . Naturalmente, estas matrizes
tero tamanho n n se n = dim(V ). Para que o sistema (64) tenha solues no nulas
preciso que
det((T ) I) = 0.
Assim, estamos de volta mesma situao com que j nos deparamos no caso do Rn :
deve ser raiz do polinmio caracterstico, que neste caso
p() = det((T ) I).
Uma vez que tenhamos encontrado uma raiz 0 de p(), podemos determinar os autoveto-
res a ela associados resolvendo o sistema
((T ) 0 I)X = 0.
O conjunto soluo deste sistema, isto , o conjunto dos autovetores associados a 0 aos
quais acrescentamos o zero, um subespao de V , o autoespao de T associado a 0 , que
denotaremos por V0 . Isto ,
V0 = {v V | T v = 0 v}.
2 4 3
1. OPERADORES DIAGONALIZVEIS 187
2 4 3
cujas razes so 1 e 6. Para determinar os autovetores associados ao autovalor 1, resolvemos
o sistema homogneo
1 2 1 x x 2y + z
0 = ((T ) I)X = 1 2 1 y = x 2y + z
2 4 2 z 2x 4y + 2z
cujas solues so dadas parametricamente por
z = x + 2y.
Contudo, neste exemplo, X = [x, y, z]t representa as coordenadas de um vetor na base .
Portanto, segundo a equao acima, os autovetores de T associados ao autovalor 1 podem
ser escritos na forma
xu1 + yu2 + (2y x)u3 = x(u1 u3 ) + y(u2 + 2u3 ).
Logo, o autoespao de T associado a 1
V1 = hu1 u3 , u2 + 2u3 i,
como estes dois vetores so independentes, eles formam uma base de V1 ; em particular, ve-
rificamos que dim(V1 ) = 2. Procedendo de maneira semelhante com respeito ao autovalor
6, obtemos
V6 = hu1 u2 + 2u3 i,
de modo que dim(V6 ) = 1. Entretanto, como fcil de mostrar,
u1 u3 , u2 + 2u3 e u1 u2 + 2u3
so linearmente independentes, de modo que formam uma base B de V . Como os trs
vetores de B so autovetores de T , podemos concluir que a matriz de T diagonal relati-
vamente a esta base; de fato,
1 0 0
(T )B = 0 1 0
0 0 6
Note que a ordem em que os autovalores so escritos na diagonal depende da ordem dos au-
tovetores na base B. Em nosso caso, os dois primeiros vetores so autovetores associados
a 1 e os outros dois so associados a 6.
188 5. DIAGONALIZAO
Antes que voc tire concluses apressadas sobre a diagonalizabilidade dos operadores
lineares, aqui vai um aviso: nem todo operador linear diagonalizvel. Por exemplo,
considere o operador do R2 cuja matriz na relativamente base cannica
" #
1 1
(T ) = .
0 1
Como o polinmio caracterstico desta matriz igual a
" #
1 1
det = (1 )2 ,
0 1
ento T tem 1 como seu nico autovalor. Os autovetores associados a este autovalor so
facilmente calculados resolvendo o sistema
" #" # " #
0 1 x 0
=
0 0 y 0
cujas solues so todas mltiplos de [1, 0]t . Portanto, T no admite dois autovetores
independentes, o que significa que no pode ser diagonalizado.
acima, digamos que B uma base para a qual a matriz (T )B diagonal e B 0 uma base
qualquer de V . Ento,
M (T )B 0 M 1 = (T )B diagonal;
por isso, diremos que
1.3. Uma proposio til. Para poder afirmar que o operador do ltimo exemplo do
artigo acima era diagonalizvel precisamos verificar (ainda que no tenhamos efetuado
os clculos) que os autovetores que determinamos eram linearmente independentes, do
contrrio no teramos uma base. A proposio que provaremos neste artigo significa que
nunca mais teremos que fazer isto.
P ROPOSIO 1.1. Autovetores associados a autovalores distintos tm que ser linear-
mente independentes.
Cada autovalor admite um autovetor associado, que a proposio garante serem line-
armente independentes. Temos, assim, n autovetores linearmente independentes em V , de
modo que T tem que ser diagonalizvel.
2. Operadores autoadjuntos
Uma afirmao anloga pode ser feita para a matriz do operador em qualquer base orto-
normal, como pode ser facilmente verificado por mudana de base.
De posse deste critrio, podemos afirmar que muitos dos operadores que j estuda-
mos so autoadjuntos, entre eles as projees e as reflexes. Outra classe importante de
operadores autoadjuntos est relacionada ao estudo das formas quadrticas, que o nome
pelo qual so conhecidos os polinmios homogneos de grau 2 em qualquer nmero de
variveis. Lembre-se que um polinmio homogneo de grau dois se todos os seus mon-
mios tm grau exatamente igual a dois. Por exemplo, a forma quadrtica geral em duas
variveis escreve-se como
a1 x2 + a2 xy + a3 y 2 ;
j em trs variveis, a forma quadrtica geral
a1 x2 + a2 xy + a3 y 2 + a4 xz + a5 yz + a6 z 2 ;
em que os as representam nmeros reais. A relao com lgebra linear ocorre porque qual-
quer forma quadrtica pode ser escrita como um produto de trs matrizes. Por exemplo,
194 5. DIAGONALIZAO
em duas variveis
" #" #
a 1 a 2 /2 x
a1 x2 + a2 xy + a3 y 2 = [x, y] ;
a2 /2 a3 y
ao passo que em trs variveis
a1 a2 /2 a4 /2 x
a1 x2 + a2 xy + a3 y 2 + a4 xz + a5 yz + a6 z 2 = [x, y, z] a2 /2 a3 a5 /2 y .
a4 /2 a5 /2 a6 z
Em geral, se q for uma forma quadrtica nas n variveis x1 , . . . , xn , ento
q = X t AX
em que X o vetor coluna cujas entradas so as variveis x1 , . . . , xn , e A a matriz cujas
entradas so
(
coeficiente de x2i em q se i = j
A(i, j) =
metade do coeficiente de xi xj em q se i 6= j.
Observe que, por construo, A sempre uma matriz simtrica, uma vez que xi xj = xj xi .
Para provar esta propriedade precisaremos aplicar a matrizes complexas um fato que
aprendemos no contexto de matrizes reais. Como a demonstrao exatamente a mesma
nos dois casos, tudo o que voc precisa fazer rel-la pensando que agora os coeficientes
so complexos. Seja A uma matriz n n real. O fato de que precisamos o seguinte:
(5) = .
u para obter uma base de Rn e aplicando Gram-Schimdt, obtemos uma base ortonormal B
de Rn cujo primeiro elemento u. Como T u = u, temos que
2 . . . n
0
1
QAQ = (T )B = ..
. C
0
em que os s so nmeros reais, C uma matriz real (n 1) (n 1) e Q a matriz
que muda coordenadas na base B em coordenadas na base . Contudo, como B uma
base ortonormal de Rn , a matriz Q ortogonal. Transpondo a equao acima e levando em
conta que Q ortogonal, obtemos
0 ... 0
t t 2
QA Q . .
.
. C t
n
Mas A simtrica, de modo que
QAt Qt = QAQt .
Igualando as matrizes correspondentes conclumos que os s so todos nulos e que C t =
C; donde
0 ... 0
0
t
QAQ = .. .
. C
0
Como C simtrica, podemos continuar recursivamente at diagonalizar T .
2.4. Identificao de cnicas. As curvas descritas por equaes de grau dois em duas
variveis so conhecidas como cnicas porque foram originalmente definidas a partir de
sees de um cone por um plano. Estas curvas tm quatro formas bsicas, cujas equaes
padro so dadas abaixo:
Parbola:
y 2 = ax2 ;
Elipse:
x2 y 2
+ 2 = 1;
a2 b
2. OPERADORES AUTOADJUNTOS 197
Hiprbole:
x2 y 2
2 = 1;
a2 b
em que a, b R. Desde Fermat e Descartes no sculo XVII, sabemos que o conjunto dos
pontos do plano que satisfazem uma equao qualquer de grau dois tem que ser uma das
curvas acima. Observe, contudo, que nenhuma destas equaes acima tem termo cruzado
(isto , em xy) e s a parbola tem termos lineares. Os termos lineares esto ausentes nas
equaes da elipse e da hiprbole por causa da escolha que fizemos da origem dos eixos,
que coincide com o centro da cnica. J a ausncia dos termos cruzados tem a ver com
a posio dos vetores da base relativamente aos eixos de simetria das curvas. Em outras
palavras, sempre possvel posicionar os eixos de modo que a equao de uma cnica
de uma das formas acima. Nosso objetivo neste artigo o de explicar como os mtodos
de lgebra linear podem ser aplicados para identificar as mudanas de variveis que devem
ser executadas para que uma equao geral do segundo grau se transforme em uma das
formas acima.
Comearemos com a equao do segundo grau em duas variveis expressa em sua
forma mais geral
(72) a1 x2 + a2 xy + a3 y 2 + a4 x + a5 y + a6 = 0.
O componente quadrtico a1 x2 + a2 xy + a3 y 2 desta equao pode ser escrito em forma
matricial como o produto " #" #
h i a a /2 x
1 2
x y
a2 /2 a3 y
e seu componente de grau um como o produto
" #
h i x
a4 a5
y
Se " # " # " #
a1 a2 /2 a4 x
A= , u0 = e X=
a2 /2 a3 a5 y
ento a equao (72) pode ser reescrita na forma
(73) X t AX + ut0 X + a6 = 0.
Como A simtrica, podemos diagonaliz-la usando uma matriz de mudana de base
ortogonal Q. Digamos que
diag(1 , 2 ) = Qt AQ.
Escrevendo " #
x1
X1 =
y1
198 5. DIAGONALIZAO
Resta-nos efetuar as necessrias translaes; duas, neste caso. Para isto escrevemos
!
7 3
4 x21 + x1 + 16 y12 y1 9 = 0;
4 16
donde
!2 !2
2 ! 2
2 7 7 2 3 3 7 3
4 x1 + 2 x1 + + 16 y1 2 y1 + 9 = 0;
8 8 32 32 8 32
que igual a
2 !2
7 3 8429
4 x1 + + 16 y1 = 0.
8 32 1024
Tomando
7
x2 = x1 +
8
3
y2 = y1
32
a equao resultante
8429
4x22 + 16y22 = 0;
1024
que facilmente identificada como sendo uma elipe por comparao com as equaes
padro do incio do artigo.
Para tornar isto uma algoritmo vivel, precisamos de uma maneira eficiente de encon-
trar o mnimo da funo f (t). Mais precisamente, fixado um vetor u Rn , precisamos
determinar um escalar que minimiza a funo
f (t) = kAu uk.
Mas este um problema de mnimos quadrados:
Como a matriz de T relativa base cannica u, este problema tem equao normal
ut Au
sut u = ut Au, donde s = = ut Au,
ut u
pois u unitrio. O nmero S, que denotaremos por
ut Au
r(u) = ,
ut u
chamado de quociente de Rayleigh e nos d, diretamente, o mnimo desejado. Levando
isto em conta o algoritmo pode ser reformulado da seguinte maneira. Dada uma matriz real
A de tamanho n n e e o erro mximo permitido no clculo dos autovalores:
1
202 5. DIAGONALIZAO
98, 349
depois da segunda iterao
42, 495
v (2) = 57, 49 com erro igual a 1.558;
65, 073
depois da terceira
42, 648
v (3) = 57, 698 com erro igual a 0, 0629;
65, 224
depois da quarta
42, 664
v (4) = 57, 72 com erro igual a 0, 0022;
65, 245
e, finalmente, na quinta iterao chegamos a
42, 664
v (4) = 57, 721 cujo erro 0, 00024;
65, 246
que est abaixo do limite de tolerncia escolhido.
3.3. Convergncia. Resta-nos provar que o algoritmo converge para um par formado
por um autovalor e seu autovetor associado. Faremos isto apenas no caso em que os auto-
valores 1 , . . . , n da matriz A satisfazem
|1 | > > |n |.
Sejam v (k) os vetores gerados a cada lao da execuo do algoritmo e u(k) suas respectivas
normalizaes. Assim, por definio,
de Rn formada por autovetores. Escrevendo u(0) como combinao linear desta base, temos
n
X
(0)
u = aj w j .
j=1
Pondo k1 em evidncia,
1 k
kAu(k) r(u)u(k) k | |(k)
ck 1
em que
n k
X j
(k) = k aj (j 1 ) wj k.
j=2
1
204 5. DIAGONALIZAO
Como
|n | |2 |
(75) < < < 1,
|1 | |1 |
esta funo de k satisfaz
lim (k) = 0.
k
Por outro lado,
n
X
ck = k aj kj wj k = |k1 |(k);
j=1
em que
n k
X j
(k) = ka1 w1 + aj wj k.
j=2
1
Note que as desigualdades em (75) implicam que
lim (k) = ka1 w1 k.
k
Mas
|k1 |(k) (k)
kAu(k) r(u)u(k) k k
= ;
|1 |(k) (k)
de modo que se a1 w1 6= 0, teremos
lim kAu(k) r(u)u(k) k = 0.
k
Outro ponto a ser considerado que, na forma como est, este algoritmo s capaz
de encontrar um autovalor e um autovetor de A. Na verdade, porm, o principal problema
deste algoritmo que sua convergncia pode ser muito lenta, bastando para isto que o
quociente
|2 |
|1 |
fique prximo de 1. Por exemplo, a matriz
0.7993 1.3844 0.2143
A = 0.0068 2.8436 0.14286
4. Busca na rede
Como uma ltima aplicao da lgebra linear, veremos como o Google usa um pro-
blema de autovalores e autovetores para escolher quais so as pginas mais importantes
em uma dada busca.
Apesar de ser estocstica, a matriz A pode ter coeficientes nulos, o que permite que
o autoespao associado ao autovalor 1 tenha dimenso maior que um. Para contornar
este problema, substitumos A por uma outra matriz, que chamaremos de G, a matriz do
Google. Se S for a matriz n n cujas entradas so todas iguais a 1/n, definimos
G = (1 m)A + mS,
em que m um nmero real entre 0 e 1. A verso original do Google utilizava m = 0, 15.
O ponto crucial que esta matriz deve ser estocstica por coluna e ter todas as suas entradas
206 5. DIAGONALIZAO
4.2. Matrizes estocsticas por colunas. No artigo anterior vimos como representar
o grafo dirigido resultante de uma busca na forma de uma matriz estocstica por coluna
positiva G. J vimos que matrizes estocsticas por colunas sempre tm 1 como um de seus
autovalores. Nesta seo provaremos que se uma matriz estocstica por coluna tambm
positiva, ento o autoespao de 1:
Note que, embora possa ocorrer que a 1-norma de um vetor seja igual sua norma euclidi-
ana, em geral as duas so muito diferentes; por exemplo, as normas do vetor
n
X
w = (1, 2, 3, . . . , n) = iei
i=1
so r
2n3 + 3n2 + n n(n + 1)
kwk = e |w|1 = .
6 2
razovel esperar que esta norma seja mais adequada ao estudo das matrizes estocsticas
por colunas do que a norma euclidiana, uma vez que uma matriz estocstica por coluna A
tem que satisfazer
|A(:, i)| = 1 para todo 1 i n.
Na verdade, a 1-norma admite uma traduo matricial muito conveniente para o que fare-
mos adiante. Denotando por |v| o vetor
(|v1 |, . . . , |vn |)
cujas coordenadas so os mdulos das entradas de v e por u0 o vetor
n
X
(1, . . . , 1) = ei
i=1
podemos escrever
|v|1 = ut0 |v|.
Com isto podemos voltar discusso das questes (1) e (2) enunciadas acima.
Por todo o resto deste artigo suporemos que G uma matriz estocstica por coluna
positiva n n. Comearemos provando uma propriedade referente a vetores que tm
coordenadas positivas e negativas, e que, para os propsitos deste curso, chamaremos de
mistos.
Como
n
X
Gi |v| = G|v|
i=1
podemos concluir de ut0 G = ut0 , que
|v|1 = ut0 |v| < ut0 G|v| = |v|1
que nos d a esperada contradio. Note que o que provamos , na verdade, mais forte que
o enunciado original de (1).
Passando a (2), devemos provar
Propriedade 2: dim(V1 ) = 1.
Mais uma vez o argumento ser por contradio. Digamos que v e v 0 sejam vetores linear-
mente independentes em V1 . Se
Xn Xn
0 t 0
t
d = u0 v = vi e d = u0 v = vi0
i=1 i=1
ento o vetor
w = d0 v dv 0 = (ut0 v 0 )v (ut0 v)v 0 6= 0,
satisfaz
ut0 w = (ut0 v 0 )(ut0 v) (ut0 v)(ut0 v 0 ) = 0;
de forma que w tem que ser misto, o que viola a propriedade 1, provando o que desejva-
mos.
Combinando as propriedades 1 e 2, mostramos a seguinte proposio.
P ROPOSIO 4.1. Se G estocstica por coluna positiva ento existe um vetor unit-
rio de coordenadas positivas que gera o autoespao associado a 1.
Com j mencionamos, este vetor especial, ser considerado como um vetor de pesos.
As pginas de maior peso sero listadas no incio, quando a busca for apresentada ao
usurio.
4.3. Calculando o vetor peso. Para que esta maneira de ponderar as pginas lista-
das em uma busca seja vivel, devemos ser capazes de determinar o vetor peso de forma
altamente eficiente. Afinal uma busca tpica relaciona milhes de resultados e no toma
mais que uma frao de segundos. O seguinte resultado ser necessrio justificativa do
funcionamento do algoritmo. Denotaremos por u0 o vetor (1, . . . , 1), e por W o subespao
W = {v Rn | ut0 v = 0}.
Portanto, na terminologia do artigo anterior, todos os vetores no nulos de W so mistos.
4. BUSCA NA REDE 209
(a) Gw W ;
(b) |Gw|1 c|w|1 ;
Com isto podemos enunciar e provar um algoritmo que, tendo como entrada uma matriz
estocstica por coluna positiva G e uma tolerncia e > 0, calcula um autovetor de G
associado ao autovalor 1:
Exerccios
1. Mostre que se todos os autovalores de um operador linear so iguais ento sua matriz
relativamente a qualquer base diagonal.
2. Determine a base dos autoespaos de cada uma das matrizes do exerccio anterior.
3. Seja " #
1 4
A= .
2 3
(a) Determine os autovalores e autovetores de A.
EXERCCIOS 211
8. Quais das matrizes A abaixo so diagonalizveis? Para aquelas que forem diagonali-
zveis determine uma matriz M inversvel M tal que M 1 AM diagonal.
" # 1 2 3 1 0 3
1 2
A= , B = 0 1 2 , C = 0 4 0 .
0 1
0 0 1 3 0 1
2 2 1
12. Determine a transformao linear que descreve o movimento rgido que leva o seg-
mento de extremos A = [6, 2]t e B = [1, 2]t no segmento de extremos C = [2, 6]t
e D = [1, 2]t , respectivamente. Prove que esta transformao uma rotao e calcule
seu ngulo.
0 1 6
Encontre os vrtices de um paraleleppedo que tenha a origem como um de seus vrti-
cese e que seja levado por T em um cubo de aresta igual a 70 unidades.
(a) os autovalores de T ;
(b) os autoespaos de T ;
(c) uma base de autovetores de T ;
(d) a matriz de mudana de base de para a base cannica do R3 .
19. Seja S o plano do R4 gerado pelos vetores [1, 1, 0, 0]t e [1, 0, 1, 1]t . Determine
(a) o complemento ortogonal S de S;
(b) um operador linear T de R4 cujo ncleo S e cuja imagem S em S.
0 0 a
corresponda a um operador diagonalizvel.
22. Ache um paraleleppedo que seja levado em um cubo de lado 8 pelo operador linear T
de R3 definido por
T (x, y, z) = [2x + y + z, x + 2y + z, x + y + 2z]t .
23. Seja R uma rotao de eixo ` em R3 e v = [1, 1, 1]t um vetor ortogonal a `. Sabendo-se
que Rv = [1, 1, 1]t , determine:
(a) o cosseno do ngulo de rotao de R;
(b) o eixo da rotao R;
(c) a matriz de R na base cannica.
24. Identifique as
cnicas cujas equaes so dadas abaixo:
2 2
(a) 3x + 22xy + 4y = 1;
(b) 3x2 + 2 3xy + 5y 2 = 1;
(c) x2 + 4xy 2y 2 = 6;
(d) 4x2 + 12xy + 9y 2 + 8 13x + 12 13y = 65;
(e) 8x2 + 5xy
4y 2 = 4;
(f) x2 + 2 3xy + 3y 2 + 8 3x 8y = 0.
25. Determine todos os vetores de R2 cuja 1-norma coincide com a norma euclidiana.
214 5. DIAGONALIZAO
26. Sabe-se que S uma matriz estocstica por linha de tamanho n n. Dada uma matriz
ortogonal nn, determine autovetores associados ao autovalor um das matrizes Qt SQ
e SQ.
27. Determine todas as matrizes 2 2 que so ortogonais e estocsticas por colunas.
28. Sejam A e B matrizes estocsticas por colunas. Quais das seguintes matrizes tambm
so estocsticas por colunas:
A + B, (A + B)/2, A1 , AB, At .
Referncias Bibliogrficas
215