Jos Koiller
Departamento de Anlise
Instituto de Matemtica e Estatstica
Universidade Federal Fluminense
ii
Contedo
1 Sistemas Lineares e Escalonamento de Matrizes
1.0 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1 Sistemas de equaes lineares . . . . . . . . . . . . . . . . . . . .
1.2 Notao matricial e o mtodo de escalonamento: primeiro exemplo
1.3 Operaes-linha e equivalncia de sistemas . . . . . . . . . . . . .
1.4 Formas escalonadas . . . . . . . . . . . . . . . . . . . . . . . . . .
1.5 O algoritmo de escalonamento . . . . . . . . . . . . . . . . . . . .
1.6 Posies e colunas-piv . . . . . . . . . . . . . . . . . . . . . . . .
1.7 Resoluo de sistemas lineares . . . . . . . . . . . . . . . . . . . .
1.8 Existncia e unicidade de soluo . . . . . . . . . . . . . . . . . .
Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1
3
4
7
9
13
18
19
25
29
33
33
33
40
42
45
49
52
53
58
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
e Independncia
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
65
65
65
68
70
76
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
83
83
83
86
91
iii
CONTEDO
4.4
4.5
4.6
4.7
5 Transformaes Lineares
5.1 Introduo . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Propriedades de uma Transformao Linear e sua Matriz
5.3 lgebra Matricial . . . . . . . . . . . . . . . . . . . . . .
5.4 Matrizes Elementares . . . . . . . . . . . . . . . . . . . .
5.5 Ncleo e Imagem . . . . . . . . . . . . . . . . . . . . . .
Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
117
117
120
125
130
132
134
.
.
.
.
.
.
.
.
141
141
142
146
147
149
150
151
153
7 Mudana de Base
7.1 Matriz Mudana de Coordenadas . . . . . . . . . . . . . . . . . .
7.2 Aplicaes lineares e Matrizes . . . . . . . . . . . . . . . . . . . .
Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
163
163
166
171
.
.
.
.
.
.
.
.
175
175
177
180
183
188
195
195
195
.
.
.
.
.
197
197
197
200
201
204
6 Determinantes
6.1 Determinantes de ordens 1, 2 e 3 . . . . . . . . . . . . .
6.2 Determinante em Geral . . . . . . . . . . . . . . . . . .
6.3 Matriz de Permutao e o Determinante da Transposta
6.4 Regra de Cramer . . . . . . . . . . . . . . . . . . . . .
6.5 Determinante do Produto . . . . . . . . . . . . . . . .
6.6 Matrizes em Blocos . . . . . . . . . . . . . . . . . . . .
6.7 rea e Volume atravs do Determinante . . . . . . . .
Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
217
218
221
223
226
229
233
241
Contedo
vi
Captulo 1
Sistemas Lineares e
Escalonamento de Matrizes
1.0
Introduo
Sistema (b)
Sistema (c)
x2
x2
(a)
x1
x1
x1
(b)
(c)
Essa discusso ser retomada nas sees 1.7 e 1.8. Veremos que o cenrio
exibido pelos sistemas (a), (b) e (c) permanece vlido em um contexto mais abrangente: um sistema linear qualquer, e de qualquer tamanho, ou tem exatamente
uma soluo, ou nenhuma, ou uma infinidade delas.
1.1
e
3x1 + x1 x2 x2 = 2
x21 + 3x2 = 5,
x1 + x2 = 7
no so lineares.
A primeira equao tem o termo no-linear x21 , a segunda tem
1.2
Vamos introduzir uma notao, usando matrizes, que nos permita escrever
sistemas lineares de forma mais econmica. Lembre-se, do ensino mdio, que uma
matriz simplesmente um arranjo retangular de nmeros. Estes so chamados
de entradas ou elementos da matriz. Considere, por exemplo, o sistema
x1 4x2 + x3 = 0
3x2 6x3 = 3
(1.3)
1 4
1
0
3 6
3 14 6
a matriz de coeficientes associada ao sistema (1.3), e que
1 4
1
0
0
3 6 3
3 14 6
2
(1.30 )
1 4
1
0
0
3 6 3 .
3 14 6
2
Na introduo do captulo, mencionamos o procedimento de escalonamento,
tambm chamado de eliminao Gaussiana. O objetivo desse procedimento
fornecer, para um dado sistema linear, um sistema equivalente que seja muito
fcil de resolver.2 Grosso modo, isso realizado da seguinte forma: Usamos o
termo em x1 da primeira equao do sistema para eliminar os termos em x1 das
outras equaes. Em seguida, usamos o termo em x2 da segunda equao do
sistema para eliminar os termos em x2 das outras equaes, e assim por diante,
at a ltima varivel do sistema. Veremos que o processo nem sempre funcionar
exatamente desta forma, mas podemos ao menos encarar um primeiro exemplo
usando esta ideia. O procedimento ser descrito, em sua forma geral, na seo 1.5.
Vamos, ento, achar o conjunto-soluo do sistema (1.3) usando escalonamento. Para nos habituarmos com a notao matricial, vamos us-la lado a lado
com a notao usual neste primeiro exemplo:
0
1 4
1
x1 4x2 + x3 = 0
0
3 6 3
3x2 6x3 = 3
(1.300 )
3 14 6
2
3x1 + 14x2 6x3 = 2
Vamos usar o termo em x1 da primeira equao para elimin-lo das outras. Como
x1 no aparece na segunda equao (o seu coeficiente j zero), basta zerar
seu coeficiente na terceira. Para isso, substituimos a terceira equao pela soma
dela prpria com trs vezes a primeira equao:
equao 3 :
+3 (equao 1) :
nova equao 3 :
+3
(Esta conta costuma ser feita de cabea, usando diretamente a forma matricial.)
O novo sistema, portanto, :
1 4
1
0
x1 4x2 + x3 = 0
0
3x2 6x3 = 3
3 6 3
(1.4)
2x2 3x3 = 2
0
2 3
2
Em seguida, usamos o termo em x2 da segunda equao para elimin-lo das
outras. Mas, antes de faz-lo, multiplicamos a segunda equao por 1/3 para
simplificar as contas:
1 4
1
0
x1 4x2 + x3 = 0
0
x2 2x3 = 1
1 2 1
(1.5)
2x2 3x3 = 2
0
2 3
2
2
O novo sistema :
x1 4x2 + x3 = 0
x2 2x3 = 1
x3 = 4
2x2 3x3 = 2
x2 2x3 = 1
x3 = 4
1 4
1
0
0
1 2 1
4
0
0
1
(1.6)
= 4
1 4 0 4
x1 4x2
0
7
x2
= 7
1 0
0
0 1
4
x3 = 4
Agora sim, vamos eliminar o termo em x2 da primeira equao, usando a segunda.
Observe que, graas ao trabalho feito previamente com o x3 , no ser necessrio
fazer mais conta alguma envolvendo os seus coeficientes:
equao 1 :
+4 (equao 2) :
nova equao 1 :
O novo sistema, finalmente, :
x 1
x2
= 24
= 7
x3 = 4
x1 4x2 = 4
+4
x2 = 7
x1
= 24
1 0 0 24
0 1 0 7
0 0 1 4
(1.7)
Este sistema to simples, que podemos imediatamente ler seu conjuntosoluo: o conjunto que contm, como nico elemento, a lista (x1 , x2 , x3 ) =
(24, 7, 4). Substitua esses valores no sistema original (1.3) para verificar que, de
fato, encontramos uma soluo. importante conferir as suas contas sempre!
6
1.3
Observe que, no exemplo da seo anterior, usamos apenas dois truques para
progressivamente simplificar o sistema (1.300 ). Na passagem de (1.300 ) para (1.4),
substitumos uma linha da matriz completa (a terceira) pela soma dela mesma a
um mltiplo de outra linha (a primeira). Na passagem de (1.4) a (1.5), multiplicamos uma linha da matriz completa (a segunda) por uma constante. Usamos o
primeiro truque, nova e repetidamente, no trajeto de (1.5) at (1.7).
Os truques bsicos que usaremos no processo de escalonamento, de fato, so
trs, conforme a definio a seguir.
Definio 1.1
As operaes abaixo so chamadas de operaes elementares sobre as linhas
de uma matriz, ou, simplesmente, de operaes-linha.
1. Substituio: substituir uma linha pela soma dela prpria com um mltiplo
de outra linha.
2. Reescalonamento ou reescalamento: multiplicar todos os elementos de uma
linha por uma constante diferente de zero.
3. Permutao: permutar (ou seja, trocar, intercambiar) duas linhas entre si.
Cuidado!
As operaes-linha so, como diz o nome, operaes sobre as linhas de uma
matriz. Quando estamos procurando o conjunto-soluo de um sistema, no faz
sentido operar sobre as colunas da matriz completa associada. Se o fizermos,
chegaremos a um resultado incorreto. (A no ser que tenhamos muita sorte. . . )
conveniente usar a seguinte notao para indicar operaes-linha:
`i `i + `j
`i `i
`i `j
1 4
1
0
1 4
1
0
1 4
1
0 ` 1`
2
`3 `3 2`2
3 2
0
1 2 1
1 2 1
3 6 3
0
0
0
2 3
2
0
0
1
4
0
2 3
2
(1.8)
Jones Colombo e Jos Koiller (texto em preparao)
Proposio 1.2
As operaes elementares sobre as linhas so reversveis, isto , para cada operao-linha, existe uma operao-linha reversa que a desfaz.
Demonstrao: A operao `i `i + `j desfeita pela operao `i `i `j
(verifique!). A operao `i `i revertida por `i 1 `i . (Foi por isso,
a propsito, que exigimos a condio 6= 0 na operao de reescalonamento.
Do contrrio, no seria possvel revert-la!) Finalmente, a operao `i `j
revertida aplicando-se, novamente, ela prpria. Note que trocar `i por `j e, em
seguida, `j por `i o mesmo que no fazer coisa alguma.
Uma sequncia de operaes-linha tambm pode ser revertida, operao por
operao. A sequncia das duas operaes em (1.8), por exemplo, revertida por
meio da operao `3 `3 + 2`2 seguida de `2 3`2 . Verifique isto, observando
que necessrio atentar para a ordem em que as operaes so realizadas.
Definio 1.3
Dizemos que duas matrizes so equivalentes por operaes sobre as linhas,
ou simplesmente linha-equivalentes, se existe uma sequncia de operaes-linha
que leva uma matriz outra.
Em vista da proposio 1.2, dizer que uma matriz A linha-equivalente a uma
matriz B o mesmo que dizer que B linha-equivalente a A. As trs matrizes
que aparecem em (1.8), por exemplo, so todas linha-equivalentes.
O teorema a seguir importante porque d embasamento estratgia de
simplificar um sistema aplicando operaes-linha em sua matriz completa. Temos
a garantia de que a verso simplificada do sistema ter o mesmo conjunto-soluo
que o sistema original.
Teorema 1.4
Se dois sistemas lineares tm matrizes completas que so linha-equivalentes, ento
os dois sistemas so equivalentes, isto , tm o mesmo conjunto-soluo.
A prova do teorema dada abaixo. O aluno sem interesse em argumentos
matemticos pode passar diretamente seo 1.4.
Demonstrao: Suponha que A e B sejam matrizes associadas a sistemas lineares vamos cham-los de sistema (A) e sistema (B) e que a matriz B seja
obtida de A via uma operao-linha qualquer. Afirmamos que os sistemas (A)
e (B) tm o mesmo conjunto-soluo, isto , qualquer soluo do sistema (A)
tambm uma soluo do sistema (B), e vice-versa.
`i `i +`j
De fato, suponha que A B. Se a lista s = (s1 , s2 , . . . , sn ) uma soluo do sistema (A), ento s satisfaz a todas as equaes deste sistema, em particular a i-sima e a j-sima. Estas equaes esto associadas, respectivamente,
s linhas `i e `j da matriz A. Portanto, s tambm satisfaz a equao associada a
`i + `j , isto , a lista s satisfaz a i-sima equao do sistema (B). (Verifique esse
passo do argumento! Considere exemplos, se preferir.) Todas as outras equaes
8
do sistema (B) so idnticas s equaes correspondentes de (A), pois s mexemos na i-sima equao. Portanto, s tambm satisfaz essas outras equaes.
Logo, a lista s uma soluo do sistema (B). A parte do vice-versa agora
`i `i +`j
1.4
Formas escalonadas
2x4 = 6
1 5
2 4 0
0
0 3
1 9
0
0
0
2 6
(1.9)
ou a
3x3 = 6
ou, ainda, a
x3 = 2.
ou
x1 = 16 + 5x2 .
x1
x
2
x3
x4
= 16 + 5x2 ,
uma varivel livre (veja o comentrio abaixo),
= 2,
= 3.
(1.10)
1 5
2 4 0
1 5
2 4 0 ` 1 `
3
`1 `1 +4`3
2 3
0
0 3
1 9
0 3
1 9
0
`2 `2 `3
0
0
0
2 6
0
0
0
1 3
1 5
2 0 12 ` 1 `
1 5 2 0 12
2
`1 `1 2`2
3 2
0 3 0 6
0 1 0 2
0
0
0
0
0 1 3
0
0 0 1
3
1 5 0 0 16
0 1 0 2 (1.11)
0
3
0
0 0 1
A ltima matriz obtida acima representa um sistema to simples que, assim
como no caso do sistema (1.7), podemos ler a descrio (1.10) de seu conjuntosoluo.3
Podemos formular, agora, a pergunta-chave desta seo. Os sistemas associados s matrizes que aparecem em (1.7), (1.9) e (1.11) so muito simples de
resolver. Nesse sentido, qual a particularidade dessas matrizes?
A resposta est na definio abaixo. Antes de apresent-la, precisamos de
alguns termos auxiliares. Dizemos que uma linha, ou uma coluna, de uma matriz
no-nula se ela contm, ao menos, um elemento diferente de zero. O elemento
lder de uma linha o primeiro elemento diferente de zero desta linha, olhando
da esquerda para a direita. Uma linha s de zeros no tem elemento lder.
Definio 1.5
Dizemos que uma matriz est em forma escalonada, ou, simplesmente, que
uma matriz escalonada, se ela tem as duas propriedades abaixo:
1. As linhas no-nulas esto todas acima de qualquer linha s de zeros. Ou
seja, se h linhas s de zeros, elas esto todas agrupadas na parte de baixo
da matriz.
2. O elemento lder de cada linha no-nula est numa coluna direita do
elemento lder da linha acima.
Dizemos que uma matriz est na forma escalonada reduzida, ou que uma
matriz escalonada reduzida, se ela tem as propriedades seguintes, alm das
anteriores:
3. O elemento lder de cada linha no-nula igual a 1.
4. Cada elemento lder o nico elemento diferente de zero da sua coluna.
3
Mas essa leitura requer um pouco de prtica! Recomendamos que o leitor invista um ou
dois minutos de ateno, agora, para perceber como se pode obter (1.10) a partir de (1.11).
10
A propriedade 2 diz que os elementos lderes formam uma escada que desce da
esquerda para a direita na matriz por isso que usamos o adjetivo escalonado,
que significa ter forma de escada. Uma consequncia simples dessa propriedade
que, em uma matriz escalonada, todos os elementos que esto abaixo de um
elemento lder so zeros.
A matriz completa do sistema (1.9), por exemplo, est em forma escalonada,
mas no est na forma escalonada reduzida:
1 5
2 4 0
0 3
1 9
0
0
0
0
2 6
1 5 0 0 16
0 1 0 2
0
0
0 0 1
3
1 3
1 5 0
0
0
0 0
0
0
9 8
1 4
0
0
0
3 6
1 3
1 5 0
5 2
0 7
0
0
9 8
1 4
0
0
0
3 6
A primeira matriz acima no uma matriz escalonada, j que viola a propriedade 1: h uma linha s de zeros no meio da matriz, ou seja, h uma linha
no-nula abaixo de uma linha de zeros. A segunda matriz no est em forma
escalonada, j que viola a propriedade 2: o elemento lder 9 da terceira linha
no est em uma coluna direita do elemento lder 5 da linha acima. Esta
segunda matriz, apesar de aparentar uma forma de escada, tem um degrau
grande demais na segunda coluna.
Jones Colombo e Jos Koiller (texto em preparao)
11
0 0
0
0
0
0 0
0 0 0 0 0
0 0
0
0
0
0 0 0
0 0
0 0 0 0 0 0
0 0
0 0 0 0 0 0
de matrizes escalona
0 0
0 0 0
0 1 0 0 0
1 0
0 0 1 0 0
0 0 1
(1.12)
0 0 0 0 0 0 1 0
0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 1
0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
Verifique que estas matrizes tm as quatro propriedades da definio 1.5.
Se B for uma matriz escalonada linha-equivalente a A, diremos que B uma
forma escalonada da matriz A. Se B estiver na forma escalonada reduzida,
diremos que B a forma escalonada reduzida da matriz A. O processo
que leva uma matriz, por operaes-linha, at uma de suas formas escalonadas
chamado de escalonamento, como j mencionamos.
Em geral, uma matriz tem muitas formas escalonadas. Todas as matrizes que
aparecem em (1.11) so formas escalonadas distintas de uma mesma matriz, por
exemplo. No entanto, cada matriz tem apenas uma forma escalonada reduzida,
isto , cada matriz linha-equivalente a uma nica matriz escalonada reduzida.
por isso que usamos as expresses uma forma escalonada e a forma escalonada
reduzida de uma matriz.
Um sistema representado por uma matriz escalonada simples de analisar e
de resolver, especialmente se a matriz for escalonada reduzida, como voc poder
observar em vrios exemplos e exerccios a comear pelos sistemas (1.7) e (1.9).
A definio 1.5 responde, portanto, pergunta-chave da seo. Os conceitos e
a terminologia que introduzimos aqui, no entanto, aplicam-se a qualquer matriz,
e no apenas a matrizes completas associadas a sistemas lineares.
Observao
comum dizermos coisas como a matriz est em forma escalonada e B uma
forma escalonada de A. Apesar de consagrada, esta terminologia pode induzir
a um erro conceitual, que queremos prevenir aqui. Parece-nos mais correto dizer
a matriz escalonada ou a matriz tem forma de escada que dizer a matriz
est escalonada, visto que o verbo estar sugere uma transitoriedade que
falsa. O fato que uma matriz A ou escalonada ou no . Se A no for uma
12
1.5
O algoritmo de escalonamento
Comeamos a seo com uma breve anedota (no muito boa, admitimos).
Uma turista carioca chega estao das barcas em Niteri e pergunta a um
transeunte como se chega ao Teatro Municipal. Infelizmente, esse transeunte
professor do Instituto de Matemtica da uff, e sua resposta absolutamente
correta, porm absolutamente intil: Ah, fcil! Voc chega l movendo, alternadamente, suas pernas direita e esquerda.
A desventurada turista sabe aonde quer chegar (ao Teatro Municipal de Niteri), sabe quais so os passos admissveis para chegar l (so, literalmente, passos,
ou, nas palavras do matemtico, movimentos alternados das pernas), mas no
faz ideia da direo dos passos a tomar.
Encontramo-nos em uma situao curiosa, anloga da turista. Dada uma
matriz qualquer, sabemos aonde queremos chegar (a uma forma escalonada linhaequivalente) e sabemos quais so os passos admissveis a tomar (so as operaes
elementares sobre as linhas). Mas ainda no discutimos o trajeto para se chegar
l. Quais so, exatamente, as operaes-linha que devemos aplicar, e em que
ordem devemos aplic-las?
Nesta seo, abordaremos o algoritmo de escalonamento, que responde questo acima. Um algoritmo um procedimento (ou uma receita) para resolver
um determinado problema matemtico ou computacional, e que, usualmente,
descrito passo a passo. Frequentemente, o mesmo passo tem que ser aplicado
diversas vezes em diferentes etapas do processo, e o algoritmo de escalonamento
no exceo.
Antes de comearmos, precisamos explicar o significado de dois termos que
sero empregados. Quando usamos um elemento de uma matriz para zerar as
entradas que esto abaixo ou acima, dizemos que esse elemento o piv das
operaes-linha envolvidas. Uma coluna que contm um piv chamada de
coluna-piv. Este ltimo conceito ser definido mais precisamente na seo 1.6.
1.5.1
0 3 6
4
9
1 2 1
3
1
.
A=
(1.13)
2 3
0
3 1
1
4
5 9 7
Passo 1: Olhando a matriz da esquerda para a direita, procure a primeira coluna
no-nula. Esta ser a coluna-piv do prximo passo.
Jones Colombo e Jos Koiller (texto em preparao)
13
0 3 6
4
9
1 2 1
3
1
2 3
0
3 1
1
4
5 9 7
A escolha deste piv conveniente. Se tivssemos escolhido o 2 na terceira
linha, por exemplo, os clculos adiante envolveriam fraes.
Passo 3: Se for necessrio, passe o piv para a primeira linha disponvel, usando
uma operao de permutao (`i `j ).
Nosso piv est na quarta linha da matriz,
linhas 1 e 4:
1
0 3 6
4
9
`1 `4 1
1 2 1
3
1
2
2 3
0
3 1
4
5 9 7
0
1
4
5 9 7
2 1
3
1
3
0
3 1
3 6
4
9
1
1
2
0
4
5 9 7
2 1
3
1
2 `2 +`1
`
3
0
3 1 `3 `3 +2`1
3 6
4
9
1
4
5 9 7
0
2
4 6 6
0
5 10 15 15
0 3 6
4
9
Passo 6: Ignore (cubra com a mo, se quiser) a linha que contm o piv, e
todas as linhas acima dela (se houver alguma). Aplique os passos de 1 a 5 sobre
a submatriz restante. Continue repetindo este procedimento todo at chegar a
uma forma escalonada, ou seja, at que no haja linhas restantes, ou que estas
sejam todas linhas de zeros.
Em nosso exemplo, temos que cobrir, por enquanto, apenas a linha 1, que
contm o piv (no h outras linhas acima dela). Abaixo, as linhas cobertas
(ou ignoradas) sero impressas em tom mais claro:
4
5 9 7
1
0
2
4 6 6
0
5 10 15 15
0 3 6
4
9
Agora, voltamos ao passo 1: procurar a primeira coluna no-nula na submatriz
indicada acima (esta ser a prxima coluna-piv). Cuidado: A primeira coluna
no-nula a coluna 2! O nico elemento no-nulo da coluna 1 o 1 , o piv
anterior. Mas esse elemento est em uma linha ignorada. Ento, a coluna-piv
da vez a coluna 2:
4
5 9 7
1
0
2
4 6 6
0
5 10 15 15
4
9
0 3 6
Passo 2: Escolher um elemento no-nulo na coluna-piv. Podemos escolher
qualquer entrada na segunda coluna, exceto o 4 da primeira linha, pois esta
uma linha ignorada. Escolhemos o 2, que destacamos abaixo, para ser piv:
1
4
5 9 7
0
2
4 6 6
0
5 10 15 15
0 3 6
4
9
Passo 3: Se necessrio, passar o piv (por troca de linhas) para a primeira
linha disponvel. Neste caso, isso no ser necessrio, pois o piv j est na
primeira linha disponvel. Como a linha 1 ignorada, ela no est disponvel.
Passo 4: Usar operaes de reescalonamento, opcionalmente, para facilitar
as contas posteriores. Em nosso exemplo, conveniente dividir a segunda linha
por 2 e a terceira linha por 5:
4
5 9 7
1
0
`2 21 `2
2
4 6 6
0
5 10 15 15 `3 15 `3
0 3 6
4
9
Jones Colombo e Jos Koiller (texto em preparao)
1
4
5 9 7
0
1
2 3 3
0
1
2 3 3
0 3 6
4
9
15
1
1
4
5 9 7
0
`3 `3 `2 0
2
3
3
1
0
1
2 3 3 `4 `4 +3`2 0
0 3 6
4
9
0
4
1
0
0
5 9 7
2 3 3
0
0
0
0 5
0
1 4 5 9 7
0 1 2 3 3
0 0 0
0
0
0 0 0 5
0
Agora, retornamos novamente ao passo 1! As trs primeiras colunas so s de
zeros, ento a nova coluna-piv ser a quarta:
1 4 5 9 7
0 1 2 3 3
0 0 0
0
0
0 0 0 5
0
Passos 2 e 3: O novo piv , necessariamente, o 5 na coluna destacada acima
(um elemento zero nunca pode ser piv). Temos, ento, que passar o piv para a
primeira linha disponvel, que a linha 3 (as linhas 1 e 2 esto indisponveis):
1
0
0
0
4
1
0
0
5 9 7
2 3 3
`3 `4
0
0
0
0 5
0
1
0
0
0
4
1
0
0
5 9 7
2 3 3
0 5
0
0
0
0
1 4 5 9 7
0 1 2 3 3
, cuja forma geral 0
.
C=
(1.14)
0 0 0 5
0 0 0
0
0 0 0
0
0
0 0 0 0 0
Perceba que os pivs tornam-se os elementos lderes na forma escalonada. Deixamos os pivs em destaque, pois eles sero usados, novamente, abaixo.
16
1.5.2
1 4 5 9 7
1 4 5 9 7
0 1 2 3 3 `3 15 `3 0 1 2 3 3
0 0 0 5
0 0 0
0
1
0
0 0 0
0
0
0 0 0
0
0
Agora, vamos zerar as entradas acima do piv da vez. Indicamos o piv da
vez pela caixa preta. Os outros pivs tem caixa mais clara.
1 4 5 0 7
1 4 5 9 7
0 1 2 3 3 `1 `1 +9`3 0 1 2 0 3
0 0 0
1
0 `2 `2 +3`3 0 0 0 1
0
0 0 0
0
0
0 0 0 0
0
O prximo piv, indo da direita para a esquerda, o 1 na segunda coluna.
Zeramos a entrada acima dele:
1 4 5 0 7
1 0 3 0
5
0 1 2 0 3 `1 `1 4`2 0 1
2 0 3
0 0 0 1
0
0 0
0 1
0
0 0 0 0
0
0 0
0 0
0
Jones Colombo e Jos Koiller (texto em preparao)
17
Se tivssemos comeado com este piv, neste passo teramos que fazer contas na
quarta coluna. por isso que melhor seguir da direita para a esquerda.
O prximo piv, esquerda, o 1 da primeira coluna. Mas no h elementos
acima dele para zerar! Como todos os pivs j so iguais a 1, j obtivemos a forma
escalonada reduzida da matriz A de (1.13):
1 0 3 0
5
0 1
2 0 3
B=
(1.15)
0 0
0 1
0
0 0
0 0
0
1.6
Posies e colunas-piv
1 4 5 9 7
0 1 2 3 3
, cuja forma geral 0
.
C=
0 0 0 5
0
0 0 0
0 0 0
0
0
0 0 0 0 0
Os elementos lderes de C esto destacados, e suas posies so aquelas assinaladas por na forma geral. Estas so as posies-piv de A, destacadas
novamente abaixo, na prpria matriz A. As colunas-piv de A so, portanto, a
primeira, a segunda, e a quarta (hachuradas abaixo); a terceira e a quinta so
colunas no-piv.
0 3 6
4
9
1 2 1
3
1
A=
2 3
0
3 1
1
4
5 9 7
18
1.7
Nesta seo, vamos voltar ao tema que motivou todo este captulo: a resoluo
de sistemas lineares. Resolver um sistema significa obter uma descrio de seu
conjunto-soluo, ou determinar que o sistema no tem soluo alguma. Vamos
comear com dois exemplos que vo nos auxiliar na abordagem de novos conceitos
e que servem, tambm, para recapitular os j estudados.
Exemplo 1.7
Vamos resolver o seguinte sistema:
x1 + 2x2 + 2x3 x4 = 17
x1 2x2 + x3 8x4 = 4
(1.16)
1
2 2 1 17
G = 1 2 1 8 4 .
2
4 1
7 13
Vamos, agora, escalonar a matriz completa G:
1
2 2 1 17
1 2
2 1
17
2 `2 +`1
1 2 1 8 4 `
3 9
21
0 0
`3 `3 2`1
2
4 1
7 13
0 0 3
9 21
1 2 2 1 17
` `3 +`2
3
0 0 3 9 21
0 0 0
0 0
19
1 2 2 1 17 ` 1 `
1 2 2 1 17
2
3 2
0 0 3 9 21
0 0 1 3 7
0 0 0
0 0
0 0 0
0 0
5 3
1 2 0
`1 `1 2`2
H = 0 0 1 3 7
0 0 0
0 0
+ 5x4 = 3
x1 + 2x2
x3 3x4 = 7
0 = 0.
(1.17)
x1
x
2
x3
x4
= 3 2x2 5x4 ,
uma varivel livre,
= 7 + 3x4 ,
uma varivel livre.
(1.18)
Com um pouco de prtica, fica fcil ler (1.18) diretamente da matriz H, sem a
necessidade de escrever o sistema (1.17).
Conclumos que (1.18) descreve o conjunto-soluo do sistema (1.16). Esse
sistema tem uma infinidade de solues: uma para cada par de valores arbitrado
para as variveis livres x2 e x3 . J havamos nos deparado com um caso semelhante: reveja o sistema (1.9), na pgina 9, e seu conjunto-soluo descrito
em (1.10).
4
20
Exemplo 1.8
Consideramos o sistema:
x2 2x3 = 3
2x1 + 3x2 x3 = 1
6x1 + 7x2 + x3 = 11
(1.19)
2 3 1
1
0 1 2 3
`1 `2
2 3 1
1
0 1 2 3
6 7
1 11
6 7
1 11
2
3 1
1
5
2 3 1
`3 `3 3`1
`3 `3 +2`2
1 2 3
0
0 1 2 3
8
2
0 2
4
0 0
0
1.7.1
21
x1 2x2 x3 + 3x4 = 1
(1.20)
2x
+ 3x4 = 1
1 3x2
1 0 3 0
0 3 6
4
9
5
1 2 1
0 1
2 0 3
3
1
escalonamento
B =
A=
2 3
0 0
0 1
0
0
3 1
(ver seo 1.5)
0 0
0 0
0
1
4
5 9 7
Assim, o sistema (1.20) equivalente ao sistema associado a B:
3x3
= 5
x1
x2 + 2x3
= 3
x4 = 0
(1.21)
As variveis x1 , x2 e x4 correspondem s colunas-piv da matriz A (ver seo 1.6, em particular o exemplo 1.6), portanto, estabelecemos que estas so as
variveis bsicas. A varivel x3 corresponde a uma coluna no-piv de A, portanto, x3 livre.
Escrevendo as variveis bsicas x1 , x2 e x4 em termos da varivel livre x3 ,
obtemos uma descrio paramtrica do conjunto-soluo de (1.20):
x1 = 5 + 3x3 ,
x = 3 2x ,
2
3
(1.22)
x4 = 0.
O sistema (1.20), mais uma vez, tem uma infinidade de solues: uma para cada
valor arbitrado (chute) para varivel livre x3 .
Nem todo sistema linear, ainda que possvel, tem variveis livres.
Exemplo 1.10
Vamos revisitar, brevemente, o primeiro
x1 4x2
3x2
3x1 + 14x2
(1.23)
Vimos que a matriz completa deste sistema e sua forma escalonada reduzida so
dadas por
1 0 0 24
0
1 4
1
escalonamento
0
3 6 3 0 1 0
7 .
(1.24)
(ver seo 1.2)
2
4
3 14 6
0 0 1
Todas as colunas da matriz de coeficientes do sistema so colunas-piv, isto ,
as colunas associadas a x1 , x2 e x3 so colunas-piv (a ltima coluna da matriz
completa no faz parte da matriz de coeficientes). Por esta razo, no h variveis
livres neste exemplo, e o sistema (1.23) possui uma nica soluo, dada por
x1 = 24,
x2 = 7,
(1.25)
x3 = 4.
Podemos chamar (1.25) de descrio paramtrica do conjunto-soluo do sistema (1.23), apesar de a terminologia ser um tanto artificiosa neste caso. Como
o sistema (1.23) no tem variveis livres, no h parmetro algum em (1.25).
1.7.2
Nossa estratgia para resolver o sistema (1.16) do exemplo 1.7 foi a seguinte:
Jones Colombo e Jos Koiller (texto em preparao)
23
1.7.3
Lembre que resolver um sistema linear significa obter uma descrio de seu
conjunto-soluo (uma descrio paramtrica, por exemplo), ou, ento, concluir
que o sistema impossvel. Abaixo, apresentamos um procedimento sistemtico
(um algoritmo) para resolver um dado sistema. Para estud-lo, use os exemplos
anteriores desta seo como guias.
Passo 1: Escreva a matriz completa do sistema.
24
1.8
1.8.1
Existncia
Na proposio 1.11 da seo anterior, estabelecemos um critrio para determinar se um sistema possui soluo. Tal critrio baseia-se na (no) ocorrncia
de uma linha problemtica do tipo (1.26), em uma forma escalonada da matriz
completa do sistema.
Este j um critrio satisfatrio para determinar a existncia, ou no, de
uma soluo para um sistema linear. Mas desejamos reformul-lo em termos das
colunas-piv da matriz completa do sistema.
Jones Colombo e Jos Koiller (texto em preparao)
25
0 0
0
, 0 0
e
0 0
0 0
0 0
0 0 0
0 0
0 0
0 0
0 0
,
0 0
0 0
0
0
0
(1.27)
e interprete cada uma como a matriz completa de um sistema linear (ou linhaequivalente a tal matriz). As matrizes acima representam sistemas possveis, j
que nenhuma tem uma linha do tipo (1.26). J as matrizes
0
0
, 0 0
e
0
0
0 0
0 0 0 0
0
0
0
0
0
0 0
0 0
0 0
0
0
0
0
0 0
(1.28)
1.8.2
Unicidade
Vimos que o sistema do exemplo 1.9 tem uma infinidade de solues: cada
valor que for escolhido (ou chutado) para a varivel livre x3 leva a uma soluo
diferente. O exemplo 1.7 semelhante, mas, neste caso, h duas variveis livres:
obtm-se uma soluo diferente do sistema (1.16) para cada escolha de valores
das variveis x2 e x4 .
26
, 0
e 0
, (1.29)
0
,
0 0 0
0 0
0 0
0 0
0 0 0 0
0 0 0
0 0 0
e, mais uma vez, interprete cada uma como a matriz completa de um sistema
linear. As matrizes acima representam sistemas possveis que no tm variveis
livres: Em cada caso, todas as colunas da matriz de coeficientes contm uma
posio-piv, portanto, todas as variveis so bsicas (veja a subseo 1.7.1).
Acima, a ltima coluna de cada matriz completa no-piv, mas no faz parte
da matriz de coeficientes. Lembre-se de que a linha vertical destaca a matriz de
coeficientes da coluna dos termos independentes.
Em contrapartida, as matrizes
0 0
, 0 0 0 e 0 0
0
,
0 0 0
0 0 0 0 0 (1.30)
0 0 0 0
0 0 0 0
0 0 0
0 0 0 0 0
0 0 0 0
representam sistemas possveis que tm variveis livres. As colunas associadas s
variveis livres esto hachuradas. Elas so as colunas no-piv em cada matriz de
coeficientes (ver subseo 1.7.1). No sistema representado pela primeira matriz
acima, por exemplo, a varivel x3 livre. No caso do sistema representado pela
ltima matriz, as variveis livres so x1 e x4 . Note que, em cada uma dessas
matrizes, a ltima coluna no est hachurada. Apesar de serem no-piv, essas
colunas no correspondem a variveis livres! Elas no correspondem a varivel
alguma, j que, repetimos, no fazem parte da matriz de coeficientes.
Para determinar se um sistema possvel tem variveis livres, portanto, basta
determinar se h colunas no-piv em sua matriz de coeficientes.
Por fim, as matrizes
0
, 0 0
e
(1.31)
0 0 0 0
0 0
0 0 0 0
0 0 0 0 0
Jones Colombo e Jos Koiller (texto em preparao)
27
representam sistemas impossveis: as linhas hachuradas so problemticas. Observe, tambm, que, em cada matriz, a ltima coluna piv. A classificao das
variveis em bsicas ou livres irrelevante nestes casos.
Em resumo:
As matrizes em (1.29) representam sistemas com soluo nica (sistemas
possveis, sem variveis livres). Em outras palavras, o conjunto-soluo de
cada um desses sistemas tem um nico elemento.
As matrizes em (1.30) representam sistemas com uma infinidade de solues
(sistemas possveis, com variveis livres). O conjunto-soluo de cada um
desses sistemas tem uma infinidade de elementos.
As matrizes em (1.31) representam sistemas sem soluo alguma (sistemas
impossveis). O conjunto-soluo de cada um deles vazio, ou seja, no
tem elemento algum.
1.8.3
Exerccios
Exerccios propostos
P1.1.
P1.2.
P1.3.
P1.4.
P1.5.
P1.6.
1 0 0
1 0 0
1 0 0 0
(a) 0 2 0
(b) 0 1 0
(c) 0 1 0 0
0 0 3
0 0 1
0 0 0 1
1 0 0 0
0 0 0
1 0 2 0
1 1 0 0
(d) 0 1 0
(e) 0 1 3 0
(f)
0 1 1 0
0 0 1
0 0 0 1
0 0 1 1
0 1 0 0
1 2 3 4
1 0 1 1
(g) 0 0 1 0
(h) 0 0 0 0
(i) 0 0 2 2
0 0 0 0
0 0 0 0
0 0 0 3
1 0 0
0 0 0 0
1 2 3 4
(j) 0 0 1
(k) 0 0 0 0
(l) 0 5 6 7
0 1 0
0 0 0 0
0 0 0 8
P1.7.
1 2 3
1 2 3
(c) 4 5 6
(d) 4 5 6
7 8 9
9 12 15
2
1 4
4 17
1 2 3 7 19
2 3 12 1 2
0
0
2
4
16
(f)
(e)
2 3 0
1 4
4
8 2
0 36
1
0 3 2 4
1
2
0
1 5
29
P1.8.
P1.9.
Em cada matriz abaixo, a posio destacada uma posio-piv? Justifique cada resposta.
3 9 3 9
3
5 11
17
(a) 4 12 0 20
(b) 3 5
1
3 5 15
6 10 2
Determine quais dos sistemas abaixo so possveis. Para cada sistema
possvel, classifique as variveis em bsicas ou livres, e fornea uma descrio
paramtrica do conjunto-soluo. Use o procedimento da subseo 1.7.3.
x2 2x3 = 7
(a) x1 + x2 + 3x3 = 11
x1 + 3x2 x3 = 25
2x2 4x3 = 10
2x1 2x2
+ 8x4 =
6
P1.10.
P1.11.
P1.12.
P1.13.
P1.14.
Exerccios
(c) Um sistema linear ter uma infinidade de solues se no houver posio-piv na ltima coluna de sua matriz completa e, alm disso, no
houver posio-piv em alguma outra coluna.
P1.15.
(a)
(b)
(c)
(d)
(e)
P1.16.
P1.17.
P1.18.
Justifique a seguinte afirmativa: O nmero de posies-piv de uma matriz no pode exceder o seu nmero de linhas, nem o de colunas.
P1.19.
Dicas: Reveja a definio de posio-piv na seo 1.6, e tambm a definio 1.5, na pgina 10. Agora, reflita: Uma linha de uma matriz qualquer
pode ter mais do que um elemento lder? Uma matriz escalonada pode ter
dois elementos lderes na mesma coluna?
Convena-se de que as nicas quatro formas escalonadas genricas de
tamanho 2 2 so
0 0
e
,
.
,
0 0
0 0
0 0
0
P1.20.
P1.21.
P1.22.
31
32
Captulo 2
Vetores e Combinaes Lineares
2.0
Introduo
2.1
Vetores de Rn
3
v = 1/5 ,
17
2.1.1
Notao
2.1.2
Dimenso de Rn
Mas cuidado, porque, em alguns pontos da teoria, a generalizao ao caso complexo requer
ateno a certos detalhes. Alertaremos os leitores quando chegarmos a esses pontos.
2
Mas cuidado para no fazer confuso, pois o vetor 0 de Rn no a mesma coisa que o vetor
0 de Rm , se n 6= m! O primeiro uma lista de n zeros; o segundo, de m zeros.
34
2.1. Vetores de Rn
2.1.3
Representao geomtrica
35
x3
x2
v
y
u
x1
0
w
x1
(a)
x2
(b)
2.1.4
Dizemos que dois vetores so iguais quando suas componentes correspondentes so todas iguais. Assim, se u e v so dois vetores de Rn , ento
u1 = v1
u2 = v2
u = v uma forma sucinta de escrever
(2.1)
..
un = vn ,
onde u1 , u2 , . . . , un e v1 , v2 , . . . , vn so as componentes dos vetores u e v, respectivamente. Os vetores 23 e 32 de R2 no so iguais (como dissemos, um
vetor uma lista ordenada).
Para que dois vetores u e v sejam diferentes, basta que uma das componentes
de u seja diferente da componente correspondente de v. Em outras palavras,
36
2.1. Vetores de Rn
u 6= v uma forma resumida de dizer que pelo menos uma das igualdades
direita em (2.1) no vale. Mas isso no significa dizer que todas as componentes
de u e v sejam diferentes.
Observe que a igualdade esquerda, em (2.1), uma igualdade vetorial (entre
vetores), ao passo que as igualdades direita so igualdades entre escalares (a
que j estamos habituados).
2.1.5
u1 + v1
u2 + v2
u + v = .. Rn ,
.
un + vn
onde u1 , u2 , . . . , un e v1 , v2 , . . . , vn so, mais uma vez, as componentes dos
vetores u e v, respectivamente. Enfatizamos que a soma u + v um elemento de
Rn , ou seja, do mesmo conjunto onde residem u e v. No faz sentido somar um
vetor de Rn com um vetor de Rm quando n 6= m (esta operao no definida).
Por exemplo, se
2
1
2+1
3
3 , ento u + v = (3) + 3
0 .
u = 3
e v=
=
0
5
0 + (5)
5
v1
v2
v = .. Rn .
.
vn
Jones Colombo e Jos Koiller (texto em preparao)
37
Assim, se
1
= 4 e v = 3 ,
5
1
4
ento v = (4) 3 = 12 .
5
20
1
2v
3v
v
Dados dois vetores u e v, o vetor u + (1)v obtido, como indicado, multiplicando v pelo escalar 1 e somando o resultado a u. Chamamos esse vetor de
diferena entre os vetores u e v, e escrevemos u v ao invs de u + (1)v para
simplificar a notao.
As operaes que definimos acima tm boas propriedades algbricas. Traduzindo do matematiqus: fcil fazer e simplificar contas envolvendo as operaoes que definimos acima, pois valem diversas propriedades naturais (ou intuitivas).
Proposio 2.1 (Propriedades algbricas das operaes vetoriais)
Para quaisquer vetores u, v e w de Rn e quaisquer escalares e , valem as
propriedades abaixo.
(a)
(b)
(c)
(d)
(e)
u+v =v+u
(u + v) + w = u + (v + w)
u + 0n = u
u u = u + (1)u = 0
(u + v) = u + v
(f)
(g)
(h)
(i)
(j)
( + )u = u + u
(u) = ()u
1u = u
0u = 0n
0n = 0n
2.1. Vetores de Rn
u1 + v1
u2 + v2
(u + v) = ..
.
un + vn
(u1 + v1 )
(u2 + v2 )
..
(un + vn )
u1 + v1
u2 + v2
..
.
un + vn
v1
u1
u2 v2
= .. + ..
. .
vn
un
= u + v
Observao
Por dispor das operaes de soma, de produto por escalar, e das propriedades algbricas listadas acima, o conjunto Rn um exemplo de espao vetorial. No definiremos
esse conceito em toda sua generalidade, pois o nvel de abstrao exigido excederia os
limites propostos por este texto. Recomendamos o livro de Paul Halmos [1] aos leitores
interessados em um tratamento mais geral (e bem mais avanado!).
Jones Colombo e Jos Koiller (texto em preparao)
39
2.2
Combinaes lineares
7
so combinaes lineares de a1 , a2 e a3 (lembre que
14 07 o vetor zero do R ). A
equao (2.2) da seo anterior diz que o vetor 8 a combinao linear dos
vetores x, y e z com pesos 6, 2 e 4, respectivamente (verifique).
Dizer que um vetor b de Rn uma combinao linear de a1 , . . . , am o
mesmo que dizer que b gerado pelos vetores a1 , . . . , am . Subentende-se que
seja gerado por uma combinao linear desses vetores. Na seo 2.5, veremos
ainda outras maneiras de dizer isso,4 e abordaremos o importante problema de
determinar quando que um vetor uma combinao linear de outros vetores
dados.
Exemplo 2.3
Em uma sesso de gravao musical profissional, os elementos de uma msica so
gravados em faixas separadas (vocal, baixo, percusso e piano, por exemplo).
A faixa musical completa obtida pelo processo de mixagem (combinao) das
faixas individuais. Essa mixagem, em sua modalidade mais simples, nada mais
do que uma combinao linear.
Vejamos um exemplo concreto. Na figura 2.4, exibimos quatro faixas de uma
gravao da msica Rock and Roll, do conjunto Led Zeppelin: baixo eltrico,
bateria, guitarra e vocal.5 Representamos em cada grfico, na realidade, um
segmento de apenas 40 milissegundos extrado da faixa correspondente.
Estes sinais de udio6 podem ser representados por vetores de Rn . De fato,
cada faixa da figura 2.4 foi gravada digitalmente a uma taxa de 44.100 amostras
por segundo (44,1 kHz). Cada trecho de 40 milissegundos contm, ento, 44.100
0,040 = 1.764 amostras. Os sinais ilustrados na figura, portanto, podem ser
representados por vetores de R1764 , que vamos denotar por b (baixo), p (bateria,
ou percusso), g (guitarra) e v (vocal).
4
Essa, talvez, seja uma das principais causas de dificuldade na aprendizagem de lgebra
linear: em vrias instncias, existem muitas formas diferentes de dizer a mesma coisa!
5
Infelizmente, no conseguimos as faixas da gravao original. As gravaes apresentadas
aqui foram feitas pela banda-cover Boot Led Zeppelin. (Um trocadilho com bootleg, que
descreve um artigo pirateado. . . )
6
O significado de sinal, nesse contexto, ser dado logo a seguir.
40
0.3
0.3
0.2
0.2
0.1
0.1
0.0
0.0
0.1
0.1
0.2
0.2
0.3
10
20
30
40
0.3
10
0.2
0.2
0.1
0.1
0.0
0.0
0.1
0.1
0.2
10
20
20
30
40
30
40
(b) bateria
(a) baixo
30
40
0.2
(c) guitarra
10
20
(d) vocal
Figura 2.4: Faixas de uma gravao musical. Em cada grfico, o eixo horizontal
representa o tempo em milissegundos.
41
0.5
0.0
0.0
0.5
10
20
30
40
0.5
10
20
30
40
2.3
Combinaes lineares so to importantes, e sero usadas com tanta frequncia, que merecem uma notao mais sucinta do que aquela empregada em (2.3).
O produto de uma matriz por um vetor, que definiremos abaixo, pode ser usado
para esse fim. Mais adiante, veremos outras interpretaes importantes para o
produto matriz-vetor, e ficar claro que ele mais do que uma mera convenincia de notao. Por ora, no entanto, esta ser sua utilidade principal. Dessa
42
maneira, a frase uma notao compacta para combinaes lineares pode ser
pensada como o subttulo desta seo.
conveniente introduzir primeiro uma notao para matrizes que destaque
suas colunas. Uma matriz n m
A = ..
(2.4)
..
..
.
.
.
an1 an2 anm
pode ser escrita por colunas como
A = a1 a2 am ,
onde a1 , . . . , am so os vetores de Rn dados por
a11
a12
a21
a22
a1 = .. , a2 = .. , . . . ,
.
.
an1
an2
(2.5)
a1m
a2m
am = .. .
.
(2.6)
anm
x2
Ax = a1 a2 am .. = x1 a1 + x2 a2 + + xm am .
(2.9)
.
xm
Note que o produto Ax um vetor de Rn (onde n o nmero de linhas de A),
e que s est definido quando o nmero m de componentes de x igual ao nmero
de colunas de A. Verifique, tambm, que o produto Ax nada mais do que uma
combinao linear dos vetores-coluna de A (compare (2.3) com (2.9)).
Jones Colombo e Jos Koiller (texto em preparao)
43
Exemplo 2.5
2
1 2 1
3.
Vamos calcular o produto da matriz
de (2.7) pelo vetor
3 0
5
1
Usando a definio acima, temos
2
1 2 1
1
2
1
3 =2
+3
+ (1)
=
3 0
5
3
0
5
1
2
6
1
9
=
+
+
=
.
6
0
5
11
a11
a12
a1m
a11 a12 a1m
x1
a21 a22 a2m x2
a21
a22
a2m
=
x
+
x
+
+
x
Ax = ..
..
.. ..
1 ..
2 ..
m ..
.
.
.
.
.
. .
an1 an2 anm
xm
an1
an2
anm
=
.
..
(2.10)
(b) A(u) = Au
2.4
Os conceitos que vimos acima podem ser usados para escrever sistemas lineares
de forma mais simples e sucinta do que fizemos no captulo 1. Desejamos chamar
a ateno da leitora, ou do leitor, para este fato. Pense nesta seo como um
aparte que, de certa maneira, no pertence a este captulo, pois no traz nenhum
conceito novo sobre vetores. A notao que veremos aqui, no entanto, ser til
para as prximas sees, por isso vamos introduzi-la agora.
Vamos comear com um exemplo. O sistema de equaes lineares
x1 + 2x2 x3 =
9
(2.12)
3x1
+ 5x3 = 11
pode ser escrito, de acordo com (2.1) (pgina 36), na forma vetorial
x1 + 2x2 x3
9
=
.
3x1
+ 5x3
11
(2.13)
Usando as operaes definidas na seo 2.1.5, podemos reescrever (2.13) novamente como
1
2
1
9
x1
+ x2
+ x3
=
.
(2.14)
3
0
5
11
Representando a lista das variveis x1 , x2 e x3 como um vetor x de R3 , e usando
a definio do produto matriz-vetor, esta equao pode ser reescrita ainda como
1 2 1
9
x=
.
(2.15)
3 0
5
11
A equao acima nada mais do que um sistema linear. Enfatizamos que (2.13),
(2.14) e (2.15) so, de fato, formas diferentes de escrever o sistema (2.12). Observe
Jones Colombo e Jos Koiller (texto em preparao)
45
que fcil ler, diretamente de (2.15), a matriz completa desse sistema, que
1 2 1
9
.
3 0
5 11
Agora tratemos do caso geral. Um sistema qualquer de n equaes lineares
envolvendo m variveis
a11
a12
a1m
b1
a21
a22
a2m b2
x1 .. + x2 .. + + xm .. = .. .
.
.
. .
an1
an2
anm
bn
(2.17)
a1m
a12
a11
a2m
a22
a21
a1 = .. , a2 = .. , . . . , am = ..
.
.
.
anm
an2
an1
(2.18)
b1
b2
e b = .. .
.
bn
(2.20)
Repare que A precisamente a matriz de coeficientes do sistema (2.16) (compare (2.16) com (2.4) da pgina 43). O vetor b o vetor dos termos independentes do sistema. A matriz completa do sistema escrita, usando a notao por
colunas, como
a1 a2 am b .
Podemos escrever essa matriz de forma ainda mais compacta como A b .
46
x1 = 5 + 3x3 ,
x = 3 2x ,
2
3
x4 = 0.
Usando a notao vetorial, podemos reescrever essa descrio como
x1
5 + 3x3
x2 3 2x3
x=
x3 = x3
(2.21)
47
Dizemos que (2.22) uma descrio vetorial paramtrica do conjuntosoluo do sistema (1.20). Vejamos mais um exemplo.
Exemplo 2.8
Considere, agora, o sistema (1.16) do exemplo 1.7, na pgina 19. Obtivemos uma
descrio paramtrica (no-vetorial) de seu conjunto-soluo em (1.18):
x1 = 3 2x2 5x4 ,
x
3 = 7 + 3x4 ,
x2
=
= 0 + x2 1 + x4 0 .
x=
x3 7 + 3x4 7
0
3
x4
x4
0
0
1
Perceba, novamente, que, com relao s variveis livres, a descrio acima diz
apenas x2 = x2 e x4 = x4 .
Exemplo 2.9
Por fim, consideramos o sistema (1.23) do exemplo 1.10, na pgina 23. A descrio
paramtrica de seu conjunto-soluo (1.25):
x1 = 24,
x2 = 7,
x3 = 4.
A descrio vetorial paramtrica, ento,
x1
24
x = x2 = 7 .
x3
4
Como observamos no exemplo 1.10, a terminologia, nesse caso, artificiosa, pois
no h parmetro algum nas descries acima. Isso porque o sistema (1.23)
no possui variveis livres.
Daqui para diante, resolver um sistema linear significar obter uma descrio
vetorial de seu conjunto-soluo, ou determinar que ele impossvel. Reveja o
procedimento descrito na subseo 1.7.3 e acrescente um stimo passo: obtenha
uma descrio vetorial paramtrica do conjunto-soluo. Com prtica, voc
ser capaz de ir diretamente do passo 4 a esse stimo passo, pulando o 5 e o 6.
Recomendamos os exerccios p2.9 e p2.10.
48
2.5
49
x3
x3
v
u
u
v
x1
x1
x2
x2
(b)
(a)
2 , a2 = 3
a1 =
1
2
2
e b = 3 .
5
(2.23)
x1 + x2 = 2
2x1 + 3x2 = 3
x1 + 2x2 = 5.
7
Esta afirmativa trivial, pois Span{a1 , . . . , am } definido como o conjunto das combinaes lineares de a1 , . . . , am (definio 2.10). Seria como dizer: Determinar se o ornitorrinco
pertence ao conjunto dos mamferos o mesmo que determinar se o ornitorrinco um mamfero.
O ornitorrinco, a propsito, um mamfero.
50
2
2
2
1 1
1 1
1 1
`2 `2 2`1
`3 `3 3`2
2 3
3
0 1 1
0 1 1 .
(2.25)
`3 `3 +`1
1 2 5
0 3 3
0 0
0
Como no h linhas do tipo (1.26) na matriz escalonada obtida (no h equaes
do tipo 0 = no sistema associado), o sistema (2.24) possvel. Portanto, b
uma combinao linear dos vetores a1 e a2 . Com isso, chegamos ao fim do
exerccio e seguinte concluso: o vetor b pertence a Span{a1 , a2 }.
Observe que no foi necessrio resolver o sistema (2.24) completamente para
responder questo proposta. Em particular, no foi necessrio obter a forma
escalonada reduzida em (2.25). No entanto, se quisermos escrever b explicitamente como combinao linear de a1 e a2 , ento, a sim, ser necessrio resolver
o sistema (2.24). Verifique que a (nica) soluo do sistema (2.24) x1 = 3,
x2 = 1, e, portanto, vale b = 3a1 a2 .
Exemplo 2.13
h 2i
Determine se o vetor d = 52 pertence a Span{a1 , a2 }, onde a1 e a2 so os
vetores de R3 do exemplo anterior.
2
2
2
1 1
1 1
1 1
`2 `2 2`1
`3 `3 3`2
2 3
2
0 1 2
0 1 2
`3 `3 +`1
1 2 5
0 3 3
0 0
3
O sistema x1 a1 + x2 a2 = d impossvel, pois equivalente a um sistema que tem
a equao 0 = 3, como se pode ver acima. Portanto, d no uma combinao
linear de a1 e a2 , isto , d no pertence a Span{a1 , a2 }.
Observao 2.14
O vetor zero de Rn sempre pertence a Span{a1 , . . . , am }, quaisquer que sejam os
vetores a1 , . . . , am de Rn , pois
0n = 0a1 + 0a2 + + 0am .
Ou seja, o vetor zero sempre uma combinao linear de a1 , . . . , am .
Observao 2.15
Cada um dos vetores a1 , . . . , am tambm sempre pertence a Span{a1 , . . . , am }.
Para verificar que a1 Span{a1 , . . . , am }, por exemplo, basta observar que a1 =
1a1 + 0a2 + + 0am . A verificao para os outros vetores anloga.
Jones Colombo e Jos Koiller (texto em preparao)
51
Existem diversas maneiras de se dizer que um vetor b de Rn pertence ao subespao gerado por a1 , . . . , am . Para a sua convenincia, reunimos as mais usuais
na proposio a seguir.8
Proposio 2.16
As seguintes afirmativas so equivalentes (isto , ou so todas verdadeiras, ou
ento so todas falsas):
(a) b Span{a1 , a2 , . . . , am }.9
(b) b gerado por a1 , . . . , am .10
(c) b uma combinao linear dos vetores a1 , a2 , . . . , am .
(d) Existe ao menos uma lista de pesos x1 , . . . , xm tal que b = x1 a1 + +xm am .
(e) O sistema linear x1 a1 + x2 a2 + + xm am = b possvel.
Esperamos que a equivalncia entre as afirmativas esteja clara, luz das definies e dos exemplos acima. Geralmente, a afirmativa (e) usada na prtica
para determinar se as outras valem ou no (como foi feito nos exemplos 2.12
e 2.13).
2.6
1 1
A = 2 3 ,
1 2
2
b = 3
5
2
e d = 2 .
5
52
Soluo: Isso uma mera repetio dos exemplos 2.12 e 2.13. De fato, por definio Col A = Span{a1 , a2 }, onde a1 e a2 so os vetores-coluna de A, dados
em (2.23), na pgina 50. J sabemos que b Span{a1 , a2 } (exemplo 2.12) e que
d 6 Span{a1 , a2 } (exemplo 2.13), portanto, b Col A e d 6 Col A.
A questo est solucionada, mas vamos explorar esse exemplo um pouco mais.
Vimos, no exemplo 2.12, que b Span{a1 , a2 }, j que o sistema x1 a1 +x2 a2 = b
possvel. Esse sistema pode ser escrito na forma compacta Ax = b (ver seo 2.4).
Similarmente, o sistema x1 a1 + x2 a2 = d pode ser escrito como Ax = d. No
exemplo 2.13, vimos que esse sistema impossvel, logo d 6 Span{a1 , a2 }.
Em sntese, b Col A = Span{a1 , a2 }, pois o sistema Ax = b possvel.
J d 6 Col A, pois o sistema Ax = d impossvel.
Generalizando o exemplo acima, temos o resultado a seguir.
Proposio 2.19
Seja A uma matriz n m qualquer. Um vetor b de Rn pertence a Col A se e
somente se o sistema linear Ax = b possvel.
De fato, se A = a1 am , ento Col A = Span{a1 , . . . , am }. Dizer que
b Span{a1 , . . . , am } equivale a dizer que o sistema x1 a1 + + xm am = b
possvel (ver afirmativas (a) e (e) na proposio 2.16). Esse sistema, por sua vez,
exatamente o sistema Ax = b.
Podemos, assim, estender a proposio
2.16, acrescentando
mais algumas afir
mativas equivalentes. Quando A = a1 a2 am , estas so formas compactas de escrever as afirmativas (a), (b), (c) e (e), respectivamente:
(a0 ) b Col A.
(b0 ) b gerado pelas colunas de A.
(c0 ) b uma combinao linear das colunas de A.
(e0 ) O sistema linear Ax = b possvel.
2.7
(2.26)
53
1
a1 = 2 ,
1
a2 = 3
2
1 .
e a3 =
10
(2.27)
1 1 1
y1
1 1 1 y1
`2 `2 2`1
2 3
1 y2
3 y2 2y1
0 1
`3 `3 +`1
1 2 10 y3
0 3
9 y3 + y1
1 1 1
y1
`3 `3 3`2
3
2y1 + y2 (2.28)
0 1
0 0
0 7y1 3y2 + y3
3y
+
y
=
7
=
6
0.
Por
outro lado, o
1
2
3
i
0
00
vetor y = 1 gerado por a1 , a2 e a3 (verifique!). A descrio do conjunto dos
3
vetores que so gerados por a1 , a2 e a3 o objetivo do exerccio p2.21.
Cuidado!
Frisamos que a chave na discusso acima o valor de 7y1 3y2 + y3 , que ocupa a
posio talvez piv, talvez no na matriz escalonada em (2.28). O valor de y3 ,
que ocupa esta posio na matriz completa original, tem pouca relevncia nesta
54
1
a1 = 2 ,
1
a2 = 3 ,
2
1
a3 =
10
e a4 = 0 .
0
1
2
1
1 1 1
1 1 1 y1
1
y1
`2 `2 2`1
3
1 0 y2
3 2 y2 2y1
0 1
`3 `3 +`1
2 10 0 y3
0 3
9
1 y3 + y1
1 1 1
1
y1
`3 `3 3`2
3 2
2y1 + y2 (2.30)
0 1
0 0
0
7 7y1 3y2 + y3
55
Teorema 2.23
n
Sejam a1 , a2 , . . . , am vetores
{a1 , a2 , . . . , am } gera o Rn se
de R . O conjunto
e somente se a matriz A = a1 a2 am possui uma posio-piv em cada
uma de suas n linhas.
Demonstrao: Por definio, o conjunto {a1 , a2 , . . . , am } gera Rn se e somente se
o sistema Ax = y sempre possvel, qualquer que seja o vetor y de Rn (lembre-se
de que esse sistema o mesmo que (2.26)). Vamos mostrar que o sistema Ax = y
sempre possvel se e s se A possui uma posio-piv em cada linha.
Seja F uma forma escalonada da matriz A. Dado um y Rn qualquer,
podemos escalonar a matriz completa do sistema Ax = y:
escalonamento
A y F z .
(2.31)
(operaes-linha)
56
(a) Span{a1 , . . . , am } = Rn .
(b) O conjunto {a1 , a2 , . . . , am } gera o Rn .
(c) Os vetores a1 , a2 , . . . , am geram o Rn .
(d) Qualquer y Rn uma combinao linear dos vetores a1 , a2 , . . . , am .
(e) Para qualquer y Rn , existe ao menos uma lista de pesos x1 , . . . , xm tal
que y = x1 a1 + + xm am .
(f) Para qualquer y Rn , o sistema linear x1 a1 + + xm am = y possvel.
(g) Para qualquer y Rn , o sistema linear Ax = y possvel.
(h) Col A = Rn .
(i) A matriz A possui uma posio-piv em cada uma de suas n linhas.
A equivalncia entre (b) e (i) precisamente o teorema 2.23, e a equivalncia
entre as afirmativas (a) a (h) decorre, diretamente, das definies deste captulo.
Encorajamos que voc faa a verificao de tais fatos. Essa tarefa ser um bom
exerccio de fixao dos conceitos. As seguintes consideraes podem ajudar.
A equivalncia entre (a) e (d) uma mera questo de linguagem: escrever
Span{a1 , . . . , am } = Rn se traduz, em palavras, para o conjunto das combinaes
lineares (o span) de a1 , . . . , am igual ao Rn todo, ou seja, qualquer
vetorde Rn
uma combinao linear de a1 , . . . , am . Sob a hiptese A = a1 am , vale
Col A = Span{a1 , . . . , am }, portanto, a equivalncia entre (a) e (h) imediata.
Em geral, a afirmativa (i) que usada na prtica para testar se todas as
outras valem ou no. Ela tambm a chave para demonstrar o seguinte resultado.
Proposio 2.25
Se os vetores a1 , a2 , . . . , am geram o Rn , ento, necessariamente, vale m > n.
Demonstrao: A matriz nm dada por A = a1 a2 am tem uma posiopiv em cada uma de suas n linhas, uma vez que a afirmativa (i) do teorema 2.24
equivalente hiptese desta proposio. Isto implica que A tem exatamente
n posies-piv, pois uma matriz (qualquer que seja) no pode ter mais do que
uma posio-piv por linha.
O nmero m de colunas de A, portanto, no pode ser menor do que n. Do
contrrio, a matriz A no poderia ter n posies-piv. Ela permitiria, no mximo,
m posies-piv, pois uma matriz qualquer tambm no pode ter mais do que
uma posio-piv por coluna. Veja o exerccio p1.19 do captulo 1.
A proposio 2.25 simples, mas importante. Uma outra forma de enuncila (a contrapositiva) dizer que se m < n, ento os vetores a1 , a2 , . . . , am no
podem gerar Rn (e, portanto, no podem satisfazer nenhuma das afirmativas do
teorema 2.24).
Isso bastante intuitivo. Dois vetores de R3 , por exemplo, nunca podero
gerar o R3 todo. Eles podero gerar, no mximo, um plano dentro de R3 , como
Jones Colombo e Jos Koiller (texto em preparao)
57
no caso dos vetores u e v do exemplo 2.11 (ver tambm o exerccio p2.22). Analogamente, dezesseis vetores, ou menos, em R17 jamais podero gerar o R17 todo.
Cuidado!
As recproca da proposio 2.25 no verdadeira, ou seja, a condio m > n
no garante que valham as afirmativas do teorema 2.24. Em particular, trs ou
mais vetores de R3 no geram, necessariamente, o R3 (ver o exemplo 2.21). Similarmente, dezessete (ou mais) vetores em R17 no geram, necessariamente, o
R17 todo. Para determinar se um dado conjunto de vetores gera Rn , necessrio verificar diretamente uma das afirmativas do teorema 2.24 (geralmente a
afirmativa (i), como mencionamos).
Exerccios propostos
P2.1.
P2.2.
Sejam x =
3
2
,y=
1
2
ez=
0
4
2
2
5 3
1
1
1
4 2
P2.3. Calcule o produto 0
1 de duas maneiras distintas:
3 4
0
2
3
(a) usando a definio 2.4, como no exemplo 2.5;
(b) usando o mtodo usual empregado no ensino mdio.
Perceba que os resultados so idnticos.
P2.4.
58
Exerccios
2 1
3
(a)
1 1 1
4 1
2
2 0
4
(c)
1 2
1
1 0 0 a
(e) 0 1 0 b
0 0 1
c
x
(g) 3 5 7 y
z
1
3 1 6
3
2 0
3
2
1 6
3
0
9
0
4
1
x
3 5 7
y
1 2 3 0
4 5 6 0
7 8 9 0
(b)
(d)
(f)
(h)
P2.5.
P2.6.
P2.7.
P2.8.
P2.9.
Use o mtodo de escalonamento para resolver o sistema linear (2.15) (pgina 45). Obtenha uma descrio vetorial paramtrica do conjunto-soluo,
como nos exemplos 2.7, 2.8 e 2.9.
P2.12.
59
(a) a1 = 1 , a2 = 2 e b = 14.
5
2
2
3
1
1
(b) a1 = 1, a2 = 2 e b = 2.
5
2
3
3
1
0
1
(c) a1 = 1, a2 = 2, a3 = 14 e b = 2.
5
2
2
3
1
2
7
3
0
3
6
6
(d) a1 =
1, a2 = 1, a3 = 1 e b = 3.
2
0
6
2
P2.13.
P2.14.
P2.18.
60
Exerccios
P2.19.
P2.20.
P2.21.
(2.32)
A caixa pontilhada est na figura para realar sua tridimensionalidade, mas note que os
eixos x1 e x2 no atravessam as faces laterais perpendicularmente (isto , a caixa torta com
relao aos eixos).
61
x3
a3
a2
a1
x2
x1
P2.22.
3
2
P2.23. Seja A = 2 1. Em cada item, determine se o vetor dado pertence
7
4
a Col A. Inspire-se no exemplo 2.18 e na proposio 2.19.
62
Exerccios
3
(a) u = 5.
5
(b) v = 2.
5
P2.24.
P2.25.
P2.26.
5 e a4 = 2. Determine quais
P2.28. Sejam a1 = 2 , a2 = 1 , a3 =
7
4
5
5
dos conjuntos abaixo geram R3 . Dica: Tente reaproveitar o trabalho j
realizado no exerccio p2.23.
(a)
(b)
(c)
(d)
(a) {a1 , a2 , a3 },
(b) {a1 , a2 , a4 },
(c) {a1 , a3 , a4 }.
5
4 3
5
4 3 1
6 e B = 0 3
6 1 .
P2.29. Sejam A = 0 3
2
1
0
2
1
0 1
(a) Determine se vale Col A = R3 . O que isso diz a respeito dos vetorescoluna de A?
(b) Determine se vale Col B = R3 . Vale Col B = R4 ?
h i
h i
1
2
3
P2.30. Sejam x =
e y = 4 . Nos itens abaixo, justifique suas respostas
2
1
sem fazer conta alguma.
(a) O conjunto {x, y} gera o R3 ?
(b) O conjunto {x, y} gera o R2 ?
Jones Colombo e Jos Koiller (texto em preparao)
63
2
6 1
9 1.
P2.31. Considere a matriz A = 3
1 3 4
P2.32.
P2.33.
(a)
(b)
(c)
(d)
(e)
(f)
64
Captulo 3
Sistemas Homogneos, o Ncleo
de uma Matriz e Independncia
Linear
3.0
Introduo
Neste captulo, introduziremos trs conceitos importantes, que esto intimamente relacionados.
Na primeira seo, estudaremos sistemas lineares cujos termos independentes
so todos iguais a zero. Tais sistemas, ditos homogneos, tm certo papel especial
em lgebra linear. Na segunda seo, estudaremos mais a fundo os conjuntossoluo desses sistemas, abordando, tambm, seus aspectos geomtricos.
Finalmente, abordaremos o conceito fundamental de independncia linear, na
ltima seo. Essencialmente, um conjunto de vetores linearmente independente
quando nenhum de seus elementos pode ser escrito como uma combinao linear
dos demais. O conceito ser oficialmente definido de uma outra maneira, mais
conveniente. Veremos, no entanto, que a definio formal ser equivalente a essa
caracterizao intuitiva (conforme a proposio 3.18).
3.1
66
Exemplo 3.4
Vamos determinar se o sistema homogneo Bx = 0 possui solues no-triviais,
onde
1
0
1
4 5 .
B = 3
(3.3)
0 1
2
0
1
1
`2 `2 3`1
4 5
B= 3
0 1
2
0
1 ` ` + 1 `
1 0
1
1
3
3 4 2
0
4 8
0 4 8 .
0 1
2
0 0
0
1 0
1 0
0 1 2 0 ,
(3.4)
0 0
0 0
Observe que x3 uma varivel livre do sistema Bx = 0, e que uma descrio
vetorial paramtrica de seu conjunto-soluo (ver seo 2.4) dada por
x1
x3
1
2 .
x = x2 = 2x3 = x3
(3.5)
x3
x3
1
Agora evidente que
h 1 oi sistema possui uma infinidade de solues: todos os
2 . Para cada escolha de x3 6= 0 em (3.5), obtemos uma
mltiplos do vetor
1
soluo no-trivial distinta. Fazendo x3 = 0, obtemos a soluo trivial x = 0.
Exemplo 3.5
Agora vamos determinar se o sistema homogneo Cx = 0 possui solues notriviais, onde
1 2
C=
.
3 4
Basta uma operao-linha para escalonar a matriz C:
1 2 `2 `2 3`1
1
2
.
C=
3 4
0 2
Pela proposio 3.3, o sistema Cx = 0 possui somente a soluo trivial x = 0, j
que ambas as colunas de C so colunas-piv. Como exerccio, sugerimos que voc
resolva o sistema Cx = 0 usando o mtodo
de escalonamento, e, assim, obtenha
0
uma verificao direta de que x = 0 a nica soluo. Ao fazer esse exerccio,
repare, em particular, que o sistema no tem variveis livres.
Jones Colombo e Jos Koiller (texto em preparao)
67
Um sistema linear homogneo com mais variveis do que equaes tem, necessariamente, variveis livres, e, portanto, uma infinidade de solues. Enunciamos
esse resultado, formalmente, a seguir. Lembre que se A uma matriz nm, ento
m o nmero de variveis do sistema Ax = 0 e n o de equaes.
Proposio 3.6
Seja A uma matriz n m. Se m > n, ento o sistema homogneo Ax = 0 possui
uma infinidade de solues (em particular, de solues no-triviais).
Demonstrao: Como A tem n linhas, essa matriz tem no mximo n posiespiv. J que A tem m colunas, e m > n, ento, necessariamente, h colunas
sem posio-piv. Assim sendo, pela proposio 3.3, o sistema Ax = 0 tem uma
infinidade de solues.
Exemplo 3.7
Consideremos o seguinte sistema homogneo de uma s equao:
2x1 + 5x2 6x3 = 0.
(3.6)
Usando
a notao
vetorial, 2 essa equao se escreve na forma Dx = 0, onde
D = 2 5 6 (verifique). Pela proposio 3.6, o sistema (3.6) possui uma
infinidade de solues, j que D uma matriz 1 3 e 3 > 1 (ou, em termos
mais simples, j que (3.6) um sistema homogneo com mais variveis do que
equaes). Neste exemplo, fcil verificar isso diretamente, pois as solues
de (3.6) so dadas por
5
5
x1
2 x2 + 3x3
2
3
x2 =
= x2 1 + x3 0 .
x2
(3.7)
x3
x3
0
1
Obtemos uma soluo distinta para cada escolha das variveis livres x2 e x3 .
3.2
68
Dizemos isso porque a condio Ax = 0 no fornece uma lista ou descrio explcita dos
elementos de Nuc A.
69
+ x3 = 0
x1
3x1 + 4x2 5x3 = 0
(3.8)
x2 + 2x3 = 0.
Cada uma das trs equaes acima representa (implicitamente) um plano passando pela origem em R3 . A interseo desses trs planos justamente o conjuntosoluo do sistema (3.8), ou seja, Nuc B. Como acabamos de discutir, essa interseo Nuc B uma reta. Tente visualizar esta situao: trs planos no espao
cuja interseo seja uma reta.
Enfatizamos que Span{u} uma descrio explcita da reta Nuc B, enquanto (3.8) (ou, equivalentemente, Bx = 0) uma descrio implcita da mesma.
Exemplo 3.13
Obtenha uma descrio explcita do ncleo da matriz D = 2 5 6 .
Soluo: J fizemos isso no exemplo 3.7. Obtivemos, em (3.7), uma descrio
explcita do conjunto-soluo de Dx = 0, isto , de Nuc D.
Novamente, desejamos escrever o resultado de maneira mais formal. A descrioh (3.7)imostra que
h iNuc D o conjunto das combinaes lineares dos vetores
5/2
3
v1 =
e v2 = 0 . Em smbolos, temos Nuc D = Span{v1 , v2 }.
1
0
3.3
Considere os vetores u = 21 e v = 63 de R2 . Note que u e v so colineares:
v um mltiplo de u, a saber, v = 3u. O vetor u tambm um mltiplo de
4
Isso ir valer mesmo quando Nuc A = {0}, pois {0} = Span{0} (veja o exerccio p2.18).
Nesse caso, no entanto, escrever Nuc A dessa maneira uma bobagem.
70
(3.9)
(3.10)
71
Exemplo 3.15
Sejam
1
a1 = 2 ,
1
1
a2 = 3
2
1
e a3 = 1 .
10
1 1 1
1 1 1
1 1 1
`2 `2 2`1
`3 `3 3`2
2 3
1
3
3 .
0 1
0 1
`3 `3 +`1
1 2 10
0 3
9
0 0
0
Agora, basta aplicar a proposio 3.3: como a matriz a1 a2 a3 tem uma
coluna no-piv, o sistema x1 a1 + x2 a2 + x3 a3 = 0 possui solues no-triviais, e,
portanto, os vetores a1 , a2 e a3 so linearmente dependentes.
Exemplo 3.16
Sejam agora
1
a1 = 2 ,
1
a2 = 3
2
e a4 = 0 .
0
1
1 1
1
1 1
1 1 1
`3 `3 3`2
`2 `2 2`1
2 3 0
0 1 2 .
0 1 2
`3 `3 +`1
0 3
1
0 0
7
1 2 0
Como todas as colunas da matriz a1 a2 a4 so colunas-piv,
o sistema x1 a1 +
h x1 i
x2 a2 + x3 a4 = 0 possui apenas a soluo trivial xx23 = 0, logo o conjunto
{a1 , a2 , a4 } , de fato, linearmente independente.
Esses exemplos motivam e ilustram o resultado a seguir.
Teorema 3.17
Seja {a1 , a2 , . . . , am } um conjunto de vetores de Rn . Este conjunto
linearmente
independente se e somente se todas as colunas da matriz A = a1 a2 am
so colunas-piv.
O teorema uma consequncia imediata da proposio 3.3 e da definio 3.14.
De fato, ele uma mera reformulao das proposies 3.3 e 3.11 em termos do
conceito de independncia linear.
A seguinte proposio fornece uma caracterizao de conjuntos linearmente
dependentes e, tambm, uma boa justificativa para o uso dessa terminologia.
72
Proposio 3.18
Um conjunto {a1 , a2 , . . . , am } de dois ou mais vetores de Rn linearmente dependente se e somente se (pelo menos) um dos ak uma combinao linear dos
demais vetores do conjunto.
Demonstrao: Suponha que o conjunto {a1 , . . . , am } seja linearmente dependente. Ento existe alguma relao de dependncia linear c1 a1 + + cm am = 0n ,
em que os escalares cj no so todos nulos. Assim, podemos escolher algum ck 6= 0
(pode haver vrias escolhas admissveis) e reescrever essa relao como
ck ak = c1 a1 c2 a2 ck1 ak1 ck+1 ak+1 cm am ,
ou ainda como
ak =
c2
ck1
ck+1
cm
c1
a1 a2
ak1
ak+1
am .
ck
ck
ck
ck
ck
73
Proposio 3.20
Seja {a1 , a2 , . . . , am } um conjunto de vetores de Rn . Esse conjunto linearmente
independente se e somente se cada vetor b Span{a1 , . . . , am } pode ser escrito
de uma nica maneira como combinao linear de a1 , . . . , am .
Demonstrao: Suponha, primeiro, que o conjunto {a1 , . . . , am } seja linearmente
independente, e seja b um vetor qualquer de Span{a1 , . . . , am }. Ora, se b pertence
a Span{a1 , . . . , am }, ento existem escalares c1 , . . . , cm tais que
b = c1 a1 + c2 a2 + + cm am .
(3.11)
(3.12)
Vamos mostrar que d1 = c1 , d2 = c2 , . . . , dm = cm . Dessa forma, a representao (3.11) , na realidade, nica. Subtraindo a equao (3.12) da (3.11),
obtemos
0n = (c1 d1 )a1 + (c2 d2 )a2 + + (cm dm )am .
Como o conjunto {a1 , . . . , am } linearmente independente, a equao acima implica que c1 d1 = 0, c2 d2 = 0, . . . , cm dm = 0, pois no h relaes de
dependncia entre a1 , . . . , am . Portanto, vale dj = cj para j = 1, 2, . . . , m.
Agora, provaremos a recproca. Suponha que cada vetor de Span{a1 , . . . , am }
tenha uma nica representao como combinao linear dos vetores a1 , . . . , am .
O vetor zero 0n , em particular, pertence ao span de a1 , . . . , am (conforme a
observao 2.14, na pgina 51). Dessa maneira,
0n = 0a1 + 0a2 + + 0am
a nica forma de representar 0n como combinao dos vetores aj . Em outras
palavras, o sistema homogneo (3.9) possui apenas a soluo trivial, e, portanto,
o conjunto {a1 , . . . , am } linearmente independente.
A proposio 3.20 ser crucial na seo 4.4.
Reunimos, no teorema abaixo, diversas formas de se dizer que um conjunto
linearmente independente. Esta lista pode auxiliar o leitor, ou a leitora, em seus
estudos e na resoluo de exerccios.
Teorema 3.21
n
Sejam
a1 , a2 , . . . , am vetores de R , e seja A a matriz de tamanho n m dada
por a1 a2 am . As seguintes afirmativas so equivalentes:
(a) O conjunto {a1 , a2 , . . . , am } linearmente independente.
(b) Os vetores a1 , a2 , . . . , am so linearmente independentes.
(c) O sistema homogneo x1 a1 + + xm am = 0n tem unicamente a soluo
trivial x1 = 0, x2 = 0, . . . , xm = 0.
74
75
Exerccios resolvidos
Mostre que se um conjunto {a1 , a2 , . . . , am } contm o vetor zero, ento
esse conjunto , automaticamente, linearmente dependente.
R3.1.
R3.2.
Soluo: A hiptese v Span{a1 , a2 } equivale a dizer que v uma combinao linear de a1 e a2 (veja a proposio 2.16 da seo 2.5). Ento, pela
proposio 3.18, o conjunto {a1 , a2 , v} linearmente dependente.
instrutivo obter esse resultado diretamente, sem usar a proposio 3.18
(repetindo, essencialmente, a sua prova, para esse caso mais simples). Se
v Span{a1 , a2 }, existem escalares c1 e c2 tais que v = c1 a1 + c2 a2 . Isso
equivale a c1 a1 + c2 a2 v = 0. Observe que esta uma relao de dependncia linear entre a1 , a2 e v (justifique!), portanto esses vetores so
linearmente dependentes.
76
Exerccios
R3.3.
(3.13)
e mostrar que todos os escalares xj tm que ser iguais a zero (veja a afirmativa (d) do teorema 3.21). Primeiro, argumentamos que xm+1 necessariamente igual a zero. De fato, se xm+1 6= 0, poderamos reescrever (3.13)
como
x2
xm
x1
a1
a2
am .
v=
xm+1
xm+1
xm+1
Mas isto contradiz a hiptese de que v 6 Span{a1 , . . . , am }, portanto tem
que valer xm+1 = 0. Assim, podemos simplificar a relao (3.13) para
x1 a1 + x2 a2 + + xm am = 0.
Como, por hiptese, os vetores a1 , . . . , am so linearmente independentes,
os escalares x1 , . . . , xm tambm so necessariamente iguais a zero.
Exerccios propostos
P3.1.
P3.2.
(b) x1 2 + x2 2 + x3 1 = 0
1
3
1
1 2 4
(c) 1 3 9 x = 0
1 4 16
3 1
2
(d)
x=0
6
2 4
P3.3.
Considere o sistema Bx = 0 do
3.4. Faa o processo de esca exemplo
lonamento da matriz completa B 0 . Verifique, assim, que a sua forma
escalonada reduzida aquela dada em (3.4). Observe que cada matriz obtida durante o processo tem apenas zeros na ltima coluna.
77
P3.4.
Mostre que se a matriz A 0 linha-equivalente a G b , ento b = 0.
P3.5.
(a) Mostre
que se B uma matriz escalonada (ou escalonada reduzida),
ento B 0 tambm (verifique os critrios da definio 1.5).
(b) Convena-se
de que se A e B so linha-equivalentes, ento A 0 e
B 0 tambm so.
(c) Explique a seguinte afirmativa luz do itens anteriores: Para resolver
o sistema Ax = 0, basta escalonar a matriz de coeficientes A.
P3.6.
P3.7.
P3.8.
1 4 2
7
6
9 .
P3.9. Seja G = 3 0
1 2 4 1
Determine os vetores abaixo que pertencem a Nuc G:
1
2
,
1
1
1
2
,
0
1
1
3
,
2
1
2
1
,
1
0
2
1 ,
1
0
0
,
0
0
0
0 .
0
(3.14)
P3.10.
78
Exerccios
(a)
(b)
(c)
(d)
(e)
(f)
(g)
2
0
4
1
3 1.
1 2
0
1
2 1 1
2 4 0
4.
3
6 4 2
A matriz A de (1.13), pgina 13. Dica: Sua forma escalonada reduzida
j foi obtida em (1.15).
A matriz G do exerccio anterior.
0 0 0 .
0 1 0 .
0 1 0 0
.
0 0 0 1
P3.11.
P3.12.
(a) 2 , 2 , 2.
1
7
11
0
1
3
(b) 2 , 2 , 2.
1
0
11
0
1
3
2
(c) 2, 2, 2, 0. Dica: Use a proposio 3.22.
1
0
11
1
1
0
3
2 1 4
(d)
0, 1, 1.
1
0
1
P3.13.
79
3
0
(e)
,
. Dica: Veja o exerccio resolvido r3.1.
2
0
0
(f)
.
0
Verifique, por inspeo, que os seguintes vetores so linearmente dependentes. Dica: Use o corolrio 3.19.
2
6
1 e 3 .
1
3
P3.14.
P3.15.
P3.16.
P3.17.
P3.18.
P3.19.
3 , v2 = 2 , u = 1.
(a) v1 =
1
4
h
1
2
2
3 , v2 = 6 , u = 1.
(b) v1 =
1
2
h
1
2
3
(c) v1 = 3, v2 = 6, u = 9.
1
2
h
P3.20.
80
Exerccios
P3.21.
P3.22.
Dica: Na realidade, o trabalho todo j foi feito nos exerccios r3.3 e p3.21.
Basta juntar as peas. Note que o exerccio resolvido r3.3 diz que, sob a
hiptese adicional da independncia linear dos vetores a1 , . . . , am , vale a
recproca do exerccio p3.21.
h 1i
h 2 i
h i
2
3 , a2 =
6
1 . Mostre que
P3.23. Considere os vetores a1 =
e
v
=
1
0
2
o conjunto {a1 , a2 , v} linearmente dependente, mas que v no pertence
a Span{a1 , a2 }. Explique por que isso no contradiz o exerccio p3.22.
Conclua que, em geral, no vale a recproca do exerccio p3.21.
P3.24.
P3.25.
P3.26.
81
Sejam a1 , a2 , . . . , am e u vetores de Rn .
82
Captulo 4
Subespaos, Bases e Dimenso
4.0
Introduo
Em diversos exemplos e exerccios dos captulos anteriores, buscamos representaes geomtricas de certos subconjuntos de R2 e de R3 . O exemplo 2.11 e os
exerccios p2.16, p2.17, p2.21 e p2.22 tratam da interpretao geomtrica do span
de determinados conjuntos de vetores. Nos exemplos 3.12 e 3.13, interpretamos
o ncleo de certas matrizes.
Talvez voc tenha reparado que alguns tipos de subconjuntos so recorrentes
nesses exemplos. Referimo-nos, em particular, a retas passando pela origem em
R2 e R3 e a planos passando pela origem em R3 . A recorrncia desses tipos de
subconjuntos no um acaso: eles so exemplos de subespaos. Um subespao
um tipo especial de subconjunto de Rn , que tem papel central em lgebra linear.
Veremos que o span, o espao-coluna e o ncleo de uma matriz so subespaos.
O conceito ser definido precisamente na seo a seguir, e o restante do captulo
ser dedicado a estudar suas propriedades.
Boa parte do material deste captulo ser de natureza mais abstrata do que o
dos captulos anteriores. Um pouco de abstrao inevitvel nesta etapa, pois o
objetivo, essencialmente, descrever as propriedades de certos subconjuntos de
Rn , onde n pode ser qualquer inteiro positivo. Como podemos descrever um subconjunto de R5 , de R17 ou de R821 sem usar conceitos abstratos? Uma visualizao
geomtrica, direta e concreta desses espaos evidentemente impossvel.
4.1
Subespaos de Rn
Quando x um elemento do conjunto X, geralmente dizemos que x pertence a X, e denotamos x X. Mas podemos tambm dizer que x est contido em X. Cuidado com essa
ambiguidade da terminologia.
83
4.1. Subespaos de Rn
Assim,
u = c1 a1 + + cm am
v = d1 a1 + + dm am .
(4.1)
85
4.2
0
0
en = ... .
0
1
(4.2)
Qualquer vetor de Rn pode ser escrito como uma combinao linear desses vetores,
ou seja, eles geram Rn (recorde a definio 2.20 e o teorema 2.24). De fato, se v
um vetor de coordenadas v1 , v2 , . . . , vn , ento
0
1
0
v1
0
1
0
v2
v = .. = v1 0 + v2 0 + + vn ... = v1 e1 + v2 e2 + + vn en . (4.3)
..
..
.
.
.
0
vn
0
0
1
Ademais, esta a nica forma de representar v como combinao linear de
e1 , . . . , en . Esse fato est associado independncia linear dos vetores e1 , . . . ,
en (conforme a proposio 3.20), mas o exerccio p4.6 pede que voc verifique-o
diretamente.
Em sntese, o conjunto {e1 , . . . , en } tem a seguinte propriedade interessante:
qualquer vetor de Rn pode ser escrito de uma nica maneira como combinao
86
linear de seus elementos. Dizemos que este conjunto uma base de Rn . Nesta
seo vamos definir esse conceito precisamente. De fato, introduziremos o conceito
de base de um subespao, que no precisa ser o Rn inteiro.
Primeiro, precisamos generalizar a definio 2.20.
Definio 4.8
Seja G = {a1 , a2 , . . . , am } um conjunto de vetores de Rn e seja V um subespao
de Rn . Se o subespao gerado por a1 , . . . , am coincide com V , isto , se
V = Span{a1 , a2 , . . . , am },
(4.4)
dizemos que G = {a1 , . . . , am } um conjunto gerador do subespao V . Podemos dizer tambm, mais informalmente, que os vetores a1 , a2 , . . . , am geram V ,
ou ainda que o conjunto G gera V .
claro que a condio (4.4) ser vlida se e somente se forem vlidas as seguintes duas condies:3 (i) Span{a1 , . . . , am } V , e (ii) V Span{a1 , . . . , am }.
Em vista da proposio 4.3, a condio (i) equivale a dizer que cada vetor aj pertence a V . A condio (ii), por sua vez, equivale a dizer que qualquer vetor de V
pode ser gerado pelos vetores a1 , . . . , am . s vezes, mais conveniente considerar separadamente estas duas sub-condies (como no exemplo 4.16, adiante).
Sintetizamos essas consideraes na seguinte observao.
Observao 4.9
O conjunto G = {a1 , . . . , am } gera V se e somente se valem as seguintes condies:
(i) cada aj est em V ; e (ii) qualquer vetor de V gerado por a1 , . . . , am .
Agora estamos prontos para enunciar a principal definio desta seo.
Definio 4.10
Seja V um subespao de Rn . Um conjunto B = {a1 , a2 , . . . , ap } de vetores de Rn
dito uma base do subespao V se as seguintes condies estiverem satisfeitas:
1. B um conjunto gerador para V , isto , Span{a1 , . . . , ap } = V . Conforme
a observao 4.9, esta condio se desdobra em duas:
(i) Cada vetor aj pertence a V .
(ii) Qualquer vetor v de V pode ser gerado por a1 , . . . , ap .
2. O conjunto B = {a1 , . . . , ap } linearmente independente.
Repetindo, uma base de V um conjunto gerador de V que tambm linearmente
independente.
Enfatizamos a sub-condio 1(i): Se {a1 , . . . , ap } uma base de V , ento
cada um dos vetores aj tem que pertencer a V . Na observao abaixo, destacamos
outra condio necessria (mas no suficiente) para que um conjunto seja uma
base de um subespao de Rn .
3
87
Observao 4.11
Se B = {a1 , . . . , ap } uma base de um subespao V de Rn , ento B tem, no
mximo, n elementos. Ou seja, a condio p 6 n necessria. Isso segue da
proposio 3.22, j que os elementos da base B so, afinal, vetores linearmente
independentes de Rn . Neste ponto, a hiptese V Rn importante.
Observao 4.12
Dizemos, por conveno, que a base do subespao trivial {0} de Rn o conjunto vazio = {}. Coerentemente, dizemos tambm que o conjunto vazio
linearmente independente, e que um conjunto gerador para o subespao trivial.
Exemplo 4.13
O conjunto {e1 , . . . , en }, onde os ej so dados em (4.2), uma base de Rn . Como
vimos, esse conjunto gera Rn e, conforme o exerccio p4.7, tambm linearmente
n
independente. Esse conjunto chamado de base cannica
nh i hdei Rh . ioA base
1
0
0
0 , 1 , 0
cannica do R2 , por exemplo, 10 , 01 , e a do R3
.
0
Cuidado!
Estamos usando os mesmos smbolos (ej ) para escrever vetores da base cannica
de R2 , de R3 ou de Rn , para n qualquer! Denotamos, por exemplo, a base cannica
de R2 por {e1 , e2 }, e a de R3 por {e1 , e2 , e3 }. Mas os ej do primeiro conjunto so
vetores de R2 , e os ej do segundo so vetores de R3 . J os ej de (4.2) so vetores
de Rn . Cabe a voc atentar ao contexto para sanar essa ambiguidade.
Observao
Base cannica significa base padro ou standard. Problemas e aplicaes so muitas
vezes formulados em termos da base cannica, mas s vezes esta no a base mais
conveniente para se usar no desenvolvimento e resoluo de tais problemas. Veremos
exemplos disso no captulo 8.
Exemplo 4.14
Sejam u = 13 e v = 25 . Verifique que {u, v} uma base de R2 .
Soluo: Esse exerccio muito simples.
Para verificar as condies da defini
o 4.10, escalonamos a matriz u v :
1 2
1 2 `2 `2 +3`1
u v =
.
3 5
0 11
Pelo teorema 2.23, como a matriz u v tem uma posio-piv em cada linha, o
conjunto {u, v} gera R2 ( evidente que u e v pertencem a R2 , logo a condio 1(i)
satisfeita). E, pelo teorema 3.17, como a matriz tem uma posio-piv em cada
coluna tambm, esse conjunto linearmente independente.
Exemplo 4.15
Sejam u = 13 , v = 25 e w = 89 . Determine se {u, v, w} uma base de R2 .
Soluo: O conjunto {u, v, w} gera R2 (verifique!), mas no linearmente independente (um conjunto de trs vetores em R2 nunca o , conforme a proposio 3.22). Assim, esse conjunto no uma base de R2 .
88
Exemplo 4.16
h 1i
h i
h 1 i
1
1
Sejam a1 = 12 , a2 = 3 e a3 =
os vetores do exemplo 4.6, e seja
2
10
novamente W = Span{a1 , a2 , a3 }. Como vimos, W um plano passando pela
origem de R3 . Evidentemente, {a1 , a2 , a3 } um conjunto gerador de W , pela
prpria definio de W . No entanto, esse conjunto no uma base de W , pois
no linearmente independente (conforme o exemplo 3.15). Vamos verificar, em
contrapartida, que B = {a1 , a2 } uma base de W .
A condio 1(i) da definio 4.10 claramente satisfeita: a1 e a2 pertencem
a W , em vista da observao 2.15. Para abordar a condio 1(ii), observamos
primeiro que o vetor a3 gerado por a1 e a2 . De fato, a3 = 4a1 +3a2 (verifique!).
Agora, seja w = c1 a1 + c2 a2 + c3 a3 um vetor de W , isto , um vetor qualquer
gerado por a1 , a2 e a3 . Ora, w pode ser escrito como combinao linear de a1 e a2
apenas, j que
w = c1 a1 + c2 a2 + c3 a3 =
= c1 a1 + c2 a2 + c3 (4a1 + 3a2 ) = (c1 4c3 )a1 + (c2 + 3c3 )a2 .
Assim, qualquer vetor de W gerado por a1 e a2 . Finalmente, temos que verificar
que {a1 , a2 } um conjunto linearmente independente (condio 2). Deixamos isso
como um exerccio para o leitor.
Na seo 4.5, veremos um mtodo para encontrar, no caso geral, uma base
para o subespao gerado por um dado conjunto de vetores. Abordaremos tambm
a construo, na prtica, de bases para o ncleo e o espao-coluna de uma dada
matriz.
No momento, vamos discutir alguns resultados tericos, considerando um subespao qualquer de Rn . Veremos, em particular, que todo subespao de Rn , de
fato, possui uma base (veja o teorema 4.20, abaixo). As demonstraes so
relegadas seo 4.7, cuja leitura opcional. No entanto, recomendamos que
voc leia os enunciados dos resultados com ateno, e procure entend-los de
uma maneira geomtrica e intuitiva. Para que a discusso no fique demasiado
abstrata, a construo de imagens mentais til. Para isso, voc pode pensar em
um subespao V abstrato como sendo R2 , R3 , ou, digamos, um plano passando
pela origem de R3 .
Dito esse prembulo, passemos aos resultados. Vimos no exemplo 4.16, acima,
que o vetor a3 , em certo sentido, um elemento redundante do conjunto gerador
{a1 , a2 , a3 } de W . Quando retiramos esse vetor, o conjunto {a1 , a2 } resultante
permanece, ainda, um conjunto gerador de W . Isso se deve ao fato de que a3 ,
ele prprio, gerado por a1 e a2 . O lema a seguir generaliza esse resultado.
Lema 4.17
Seja V um subespao de Rn , e seja G = {a1 , a2 , . . . , am } um conjunto gerador
de V . Se um dos vetores de G digamos, ak uma combinao linear dos
demais, ento o conjunto G 0 = {a1 , . . . , ak1 , ak+1 , . . . , am }, obtido pela remoo
do vetor ak de G, ainda um conjunto gerador de V .
Jones Colombo e Jos Koiller (texto em preparao)
89
Observao
J poderamos ter enunciado e provado a essncia desse lema no captulo 2 (veja o
exerccio p4.8). Postergamo-lo at aqui para que pudssemos usar a linguagem da
definio 4.8 e para que estivssemos mais habituados aos conceitos envolvidos.
Teorema 4.18
Se G = {a1 , a2 , . . . , am } um conjunto gerador do subespao V, ento algum subconjunto de G (possivelmente o prprio G) uma base de V. Em outras palavras,
ou G uma base de V, ou ento podemos obter uma base de V pelo processo de
remover de G um ou mais elementos.
O teorema 4.18 diz que qualquer conjunto gerador de V pode ser reduzido
a uma base, mediante a remoo de vetores redundantes. Um caso particular
simples foi ilustrado no exemplo 4.16. Veja tambm o exerccio p4.9.
O teorema a seguir , em certo sentido, complementar ao anterior. Ele diz
que qualquer conjunto linearmente independente de vetores de V pode ser expandido para constituir uma base. O ingrediente principal da demonstrao o
exerccio resolvido r3.3 (pgina 77).
Teorema 4.19
Seja V um subespao de Rn . Se I um conjunto linearmente independente de
vetores de V, ento existe uma base de V que contm o conjunto I. Em outras
palavras, ou I uma base de V, ou ento podemos obter uma base pelo processo
de acrescentar a I, apropriadamente, um ou mais vetores de V.
O teorema acima tem a importante consequncia a seguir.
Teorema 4.20
Todo subespao de Rn possui uma base finita.
Demonstrao: Seja V um subespao qualquer de Rn . O conjunto vazio
linearmente independente (pela observao 4.12) e est contido em V .4 Assim,
podemos aplicar o teorema 4.19 e acrescentar vetores ao conjunto vazio de
maneira a obter uma base de V .5
Perceba que a definio 4.10 requer, tacitamente, que uma base de um subespao de Rn seja composta por um nmero finito de vetores.6 Assim, no contexto
de subespaos de Rn , a expresso base finita um pleonasmo. s vezes, no
entanto, importante enfatizar a finitude, como fizemos no enunciado do teorema 4.20.
4
Ou seja, todo elemento de um elemento de V . Por estranha que parea, essa afirmativa
vale por vacuidade. Afinal, no existem elementos de que no pertenam a V (pois, simplesmente, no existem elementos de !). De fato, o conjunto vazio um subconjunto de qualquer
conjunto, como voc talvez j saiba.
5
Se voc no estiver convencido de que esse argumento seja vlido, verifique que a prova
do teorema 4.19, na seo 4.7, funciona mesmo no caso em que o conjunto I vazio. Basta
substituir as referncias a {a1 , . . . , am } por referncias a = {}, o que corresponde ao caso
m = 0. Voc ter que adaptar tambm o exerccio r3.3.
6
Mesmo que a finitude no fosse imposta por definio, ela ainda estaria garantida pela
observao 4.11.
90
4.3
Dimenso de um subespao
Discutimos o conceito de dimenso, informalmente, no captulo 2 (subseo 2.1.2). Nesta seo, finalmente, estudaremos o conceito precisamente. Uma
boa internalizao da ideia de dimenso, em nvel intuitivo, valiosa. Ela auxilia muito na compreenso da natureza dos subespaos. Assim, recomendamos
uma leitura cuidadosa desta seo, ainda que voc decida omitir as demonstraes.
O lema a seguir a pea fundamental desta seo, da qual decorrem naturalmente os demais resultados. Sua demonstrao, no entanto, relegada
seo 4.7.
Lema 4.21
Seja V um subespao de Rn , e suponha que V tenha um conjunto gerador com
m elementos. Ento qualquer conjunto contendo mais do que m vetores de V ,
necessariamente, linearmente dependente.
A parte (a) da proposio abaixo generaliza a proposio 3.22 (pgina 75). A
parte (b) generaliza a proposio 2.25 (pgina 57).
Proposio 4.22
Seja V um subespao de Rn , e suponha que V tenha uma base contendo p elementos. Ento valem as seguintes afirmativas.
(a) Um conjunto contendo mais do que p vetores de V linearmente dependente.
(b) Um conjunto contendo menos do que p vetores de V no gera V .
Jones Colombo e Jos Koiller (texto em preparao)
91
Demonstrao: Seja B uma base de V contendo p vetores. Por ser uma base, B
um conjunto gerador de V . Assim, a afirmativa (a) segue da aplicao direta
do lema 4.21 (com p no papel de m). Agora, se existisse um conjunto gerador
de V com menos do que p elementos, o conjunto B teria que ser linearmente
dependente, em razo, novamente, do lema. Mas B linearmente independente,
por ser uma base. Ou seja, a negao da afirmativa (b) leva a uma contradio
com as hipteses da proposio. Conclui-se que (b) tem que ser verdadeira.
O teorema 4.20 garante a existncia de uma base para qualquer subespao de
R , mas, alm da finitude, nada diz a respeito da quantidade de elementos em
uma base. O teorema a seguir, que crucial, aborda essa questo.
n
Teorema 4.23
Seja V um subespao de Rn . Se V possuir uma base composta por p vetores,
ento qualquer base de V conter exatamente p vetores. Em outras palavras,
dado um subespao de Rn , qualquer uma de suas bases contm o mesmo nmero
de elementos.
Demonstrao: Suponha que V tenha uma base contendo p elementos. Se um
conjunto S de vetores de V contiver mais do que p vetores, ento ele ser linearmente dependente, pela afirmativa (a) da proposio 4.22. Se S contiver menos
do que p vetores, ele no poder gerar V , pela afirmativa (b). Em qualquer um
dos casos, S no ser uma base de V . Portanto, para ser uma base de V , um
conjunto dever conter exatamente p elementos.
Agora, estamos prontos para definir o conceito de dimenso.
Definio 4.24
Seja V um subespao de Rn . A dimenso de V, denotada por dim V, o nmero
de vetores contidos em qualquer base de V.
Essa definio tem sentido graas aos teoremas 4.20 e 4.23. Se um subespao
de Rn no tivesse nenhuma base, qual seria sua dimenso? E se um subespao
tivesse uma base com quatro vetores, digamos, e outra base com cinco vetores?
Sua dimenso seria quatro ou cinco? Ou seria algum outro nmero? Os teoremas
citados garantem que estes dilemas nunca ocorrem. Dado um subespao, bases
existem e todas elas tm igual nmero de vetores. Este nmero, que chamamos
de dimenso, est portanto bem definido.
Exemplo 4.25 (A dimenso de Rn )
A base cannica de Rn tem n vetores (veja o exemplo 4.13). De acordo com o
teorema 4.23, qualquer base de Rn ter precisamente n vetores. Assim, a dimenso
de Rn igual a n, conforme a definio 4.24. Observe que essa concluso condiz
com a conveno que adotamos na subseo 2.1.2.
A dimenso do subespao trivial {0} igual a zero. Isso decorre da conveno
de que o conjunto vazio , que contm zero vetores, uma base de {0}.
Lembre que um conjunto S de vetores ser uma base de V se for linearmente independente e gerar V . O teorema abaixo diz que, caso saibamos que S
92
93
4.4
No incio da seo 4.2, vimos que qualquer vetor de Rn pode ser representado de uma nica maneira como combinao linear dos vetores da base cannica {e1 , . . . , en }. O teorema a seguir mostra que essa uma propriedade de
qualquer base, em qualquer subespao.
Teorema 4.30
Seja B = {a1 , a2 , . . . , ap } uma base para um subespao V de Rn . Para cada vetor
v de V , existe uma nica lista de escalares c1 , . . . , cp tal que
v = c1 a1 + c2 a2 + + cp ap .
(4.5)
h 3i
uma base de W = Span{a1 , a2 , a3 }. Considere agora o vetor v = 94 . Observe
que v uma combinao linear de a1 , a2 e a3 (isto , v W ), pois
h 1 i h i h 1 i h 3 i
1
a1 + a2 a3 = 12 + 3 1 = 94 = v.
2
10
10
(4.6)
95
3 5 9
0 11 33
1 0 2
1 2 8 `1 `1 +2`2
`1 `1
0
1
3
0 1
3
`2 `2 /11
A nica soluo do sistema x1 = 2, x2 = 3 e temos, portanto, w = 2u + 3v.
Isso significa que as coordenadas de w com respeito base {u, v} so 2 e 3, e
o vetor de coordenadas de w com respeito a essa base [w]{u,v} = 23 .
Exemplo 4.35
Sejam agora y = 23 , z = 20 . Verifique
que {y, z} uma base de R2 , e calcule
as coordenadas do vetor w = 89 com relao a essa base.
Soluo: Deixamos a verificao de que {y, z} uma base como um exerccio para
o leitor. Para calcular as coordenadas de w com respeito a essa base, procedemos
como no exemplo anterior, resolvendo o sistema x1 y + x2 z = w:
2 2 8 `1 `1 /2 1 1 4
y z w =
3 0 9 `2 `2 /3 1 0 3
1 0 3 `2 `2 `1
1 0 3
`1 `2
.
1 1 4
0 1 1
Assim, temos w = 3y + z e, portanto,
o vetor de coordenadas de w com respeito
base {y, z} [w]{y,z} = 31 .
96
Observe
que o vetor w o mesmo nos dois exemplos anteriores (a saber,
o vetor 89 R2 ). No entanto, seus vetores de coordenadas [w]{u,v} e [w]{y,z}
com relao a bases distintas so tambm distintos. comum dizermos que uma
base de um subespao fornece um sistema de coordenadas nesse subespao. Bases
distintas fornecem sistemas de coordenadas distintos. Isso ilustrado, usando os
exemplos acima, pela figura 4.1.
x2
x2
v
y
u
x1
(a)
x1
(b)
97
a3
a2
x2
a1
x1
v
4.5
4.5.1
Recorde os exemplos 3.12 e 3.13 da seo 3.2, bem como o exerccio p3.10.
Vimos que, dada uma matriz A, podemos escrever Nuc A explicitamente como o
span de certos vetores. Esses vetores formaro, portanto, um conjunto gerador
de Nuc A. O mtodo proposto nesses exemplos sempre produzir, de fato, uma
base do ncleo, como argumentaremos nesta subseo.
Exemplo 4.38
Vamos obter um conjunto gerador
0
1
A=
2
1
3 6
4
9
2 1
3
1
.
3
0
3 1
4
5 9 7
99
1 0 3 0
5 0
0 1
2 0 3 0
.
B 0 =
0 0
0 1
0 0
0 0
0 0
0 0
As variveis bsicas so x1 , x2 e x4 , e as livres so x3 e x5 . A descrio vetorial
paramtrica do conjunto-soluo de Ax = 0 , ento, dada por
5
x1
3x3 5x5
3
x2 2x3 + 3x5
2
3
= x3 1 +x5 0 = x3 u1 + x5 u2 .
x3
(4.7)
x=
x3 =
x4
0
0
0
1
x5
x5
0
| {z }
| {z }
u1
u2
Isso mostra que {u1 , u2 } um conjunto gerador de Nuc A, onde u1 e u2 so os
vetores de R5 indicados acima. Em smbolos, Nuc A = Span{u1 , u2 }.
Observao 4.39
Os vetores u1 e u2 obtidos no exemplo acima so linearmente independentes, pois
teremos x3 u1 + x5 u2 = 0 somente se os pesos x3 e x5 forem ambos iguais a zero.
A forma mais fcil de perceber isso examinar as componentes 3 e 5 do vetor
x = x3 u1 + x5 u2 , que so x3 e x5 , respectivamente. Evidentemente, para que x
seja o vetor zero, necessrio que essas componentes sejam nulas.
Assim, o conjunto gerador {u1 , u2 } linearmente independente e , portanto,
uma base de Nuc A.
O mtodo utilizado no exemplo acima para determinar um conjunto gerador
do ncleo de uma matriz sempre produzir uma base, pois um argumento anlogo
ao da observao 4.39 ser vlido em todos os exemplos dessa natureza.
Exemplo 4.40
Determine uma base para o ncleo da matriz
2
6
2 4
4
3 3 14 10 .
C= 1
1 3
0 2
1
Soluo: Mais uma vez, temos que resolver o sistema homogneo Cx = 0. Verifique que a forma escalonada reduzida da matriz completa [C 0] dada por
1 3 0
2 1 0
0 0 1 4
3 0 .
0 0 0
0
0 0
9
100
x1
2
1
3x2 2x4 + x5
3
x2
x2
0
0
1
= x2 0 +x4 4 +x5 3
x=
x3 = 4x4 3x5
x4
1
0
0
x4
0
1
x5
x5
0
| {z }
| {z }
| {z }
v1
v2
v3
= x2 v1 + x4 v2 + x5 v3 . (4.8)
Sejam v1 , v2 e v3 os vetores de R5 indicados acima. O conjunto {v1 , v2 , v3 }
uma base de Nuc C: esse conjunto no apenas gera Nuc C, como tambm
linearmente independente. Como mencionamos, um argumento anlogo ao da
observao 4.39 justifica a independncia linear. Os detalhes so deixados para o
exerccio p4.21.
Vamos, agora, discutir a dimenso do ncleo de uma matriz. Primeiro, consideramos os dois exemplos anteriores. A dimenso do ncleo da matriz A do
exemplo 4.38 igual a 2, pois a base {u1 , u2 } de Nuc A tem dois elementos
(assim, pelo teorema 4.23, qualquer base ter dois elementos). Observe que o
sistema Ax = 0 tem duas variveis livres, x3 e x5 , que so os coeficientes dos
vetores u1 e u2 na descrio paramtrica (4.7).
O ncleo da matriz C do exemplo 4.40, por sua vez, tem dimenso igual a 3,
pois a base {v1 , v2 , v3 } tem trs elementos. Observe, mais uma vez, que o sistema
Cx = 0 tem trs variveis livres, x2 , x4 e x5 , que so os coeficientes dos vetores
v1 , v2 e v3 na descrio (4.8).
Perceba que, para qualquer matriz A, sempre haver uma correspondncia
biunvoca entre as variveis livres do sistema Ax = 0 e os vetores da base de Nuc A
construda pelo mtodo dos exemplos acima. Com efeito, cada varivel livre ser
o coeficiente de um dos vetores da base, na descrio vetorial paramtrica do
conjunto-soluo de Ax = 0. Assim, a dimenso de Nuc A ser igual ao nmero
de variveis livres do sistema Ax = 0.
Lembre-se de que as variveis livres do sistema Ax = 0 so aquelas que
correspondem s colunas no-piv da matriz de coeficientes A. Assim, vale o
seguinte resultado.
Proposio 4.41
Seja A uma matriz qualquer. A dimenso do ncleo de A igual ao nmero de
colunas no-piv de A.
A dimenso do ncleo de A, que denotamos por dim Nuc A, s vezes chamada
de nulidade da matriz A.
4.5.2
Veremos, nesta subseo, como obter uma base para o espao das colunas de
uma matriz. Comecemos com um exemplo simples.
Jones Colombo e Jos Koiller (texto em preparao)
101
Exemplo 4.42
Vamos encontrar uma base para Col B, onde B a matriz de (1.15) (pgina 18):
1 0 3 0
5
0 1
2 0 3
.
B=
0 0
0 1
0
0 0
0 0
0
Denotamos as colunas de B por b1 , b2 , . . . , b5 . A matriz B est na forma
escalonada reduzida, ento fcil ver que as colunas no-piv b3 e b5 so combinaes lineares das demais. De fato, podemos ler, diretamente da matriz B,
as relaes b3 = 3b1 + 2b2 e b5 = 5b1 3b2 .
Por definio, {b1 , . . . , b5 } um conjunto gerador do espao-coluna de B,
isto , Col B = Span{b1 , . . . , b5 }. Em vista do lema 4.17, podemos remover os
vetores redundantes b3 e b5 , e o conjunto resultante {b1 , b2 , b4 } ainda ir gerar
Col B. Se quiser, verifique esse fato diretamente, usando um argumento similar
ao do exemplo 4.16. Verifique, tambm, que o conjunto {b1 , b2 , b4 } linearmente
independente (veja o exerccio p4.23). Isso mostra que esse conjunto uma base
de Col B.
O exemplo acima particularmente simples porque a matriz B est na forma
escalonada reduzida. Antes de passar a um exemplo mais interessante, precisamos
do resultado a seguir.
Proposio 4.43
Sejam A e B matrizes linha-equivalentes. Ento os vetores-coluna de A e os
vetores-coluna de B possuem as mesmas relaes de dependncia linear.
Demonstrao: Se A e B so linha-equivalentes, ento as matrizes [A 0] e [B 0]
tambm so linha-equivalentes (veja o exerccio p3.5(b)). Assim, os sistemas
Ax = 0 e Bx = 0 tm o mesmo conjunto-soluo. Para terminar a demonstrao,
basta lembrar que as solues no-triviais de um sistema Ax = 0 correspondem
precisamente s relaes de dependncia linear entre as colunas de A (veja o
exerccio p3.18).
O significado dessa proposio ficar mais claro no exemplo abaixo.
Exemplo 4.44
Vamos achar uma base para Col A, onde A a matriz de (1.13) (pgina 13):
0 3 6
4
9
1 2 1
3
1
.
A=
2 3
0
3 1
1
4
5 9 7
Denotamos as colunas de A por a1 , a2 , . . . , a5 . Observe que a matriz A
linha-equivalente matriz B do exemplo anterior (de fato, B foi obtida de A por
operaes-linha, na seo 1.5). Pela proposio 4.43, as colunas a1 , . . . , a5 da
102
1 2
8
2 4 .
C = 0
3
2
8
Soluo: Vamos escalonar a matriz C:
8
1 2
8
1 2
8
1 2
`3 `3 3`1
`3 `3 4`2
0
2 4
2 4
2 4 .
0
0
3
2
8
0
8 16
0
0
0
(4.9)
3
2
Verifique que, de fato, a terceira coluna de C gerada pelas duas primeiras.
Cuidado!
Na busca de uma base para o espao-coluna de uma dada matriz, o escalonamento
serve apenas para determinar quais so as suas colunas-piv. Ao escrever a base,
tenha o cuidado de usar as colunas da prpria matriz dada, e no as da forma
Jones Colombo e Jos Koiller (texto em preparao)
103
4.5.3
v1 =
2 , v2 = 3 , v3 = 9 e v4 = 2 .
4
3
15
1
104
1 2
1
1
1
1
3 4
5
2
0 1
A=
0
2
3
9
2
5
4
3 15 1
0
7
1 2
1
0 1 1
0
0
0
0
0
0
2
1
5
7
1
5
4
3
1
1
1 2 1
5
0 1 1 5
29
0
0
0 29
38
0
0
0 0
4.6
O teorema do posto
(4.11)
Enfatizamos que (4.11) nada mais do que uma reformulao do fato trivial
nmero de
nmero de colunas
nmero total de
+
=
.
colunas-piv de A
no-piv de A
colunas de A
105
4.7
(4.12)
(4.13)
Demonstrao do teorema 4.19: Vamos fazer algumas consideraes preliminares. O conjunto I linearmente independente, e seus elementos so vetores de
Rn , j que I V Rn . Pela proposio 3.22, I contm no mximo n vetores.
Assim, I pode ser escrito como {a1 , . . . , am }, com m 6 n, ou ento como {}, no
caso em que I o conjunto vazio. Por hiptese, os vetores de I pertencem a V ,
como j indicamos. Pela observao 4.2, portanto, vale
Span I V,
(4.14)
onde Span I representa o conjunto gerado pelos vetores de I. Agora vamos passar
ao cerne da prova do teorema.
Se I um conjunto gerador de V , ento ele j uma base de V (pois tambm linearmente independente). Neste caso, a relao (4.14) vale com igualdade
(Span I = V ), e no h mais trabalho algum a fazer.
Vamos considerar, ento, o caso em que I = {a1 , . . . , am } no um conjunto
gerador de V , ou seja, o caso em que a incluso (4.14) estrita (Span I V ).10
Nesse caso, podemos escolher um vetor v de V que no pertena a Span I. Pelo
exerccio resolvido r3.3, o conjunto I 0 = {a1 , . . . , am , v}, obtido pela incluso
do vetor v em I, ainda ser linearmente independente. Observe que Span I 0
V , pois todos os vetores de I 0 pertencem a V . Se o conjunto I 0 gerar V , isto
, se tivermos a igualdade Span I 0 = V , esse conjunto ser uma base de V , e
processo terminar. Caso contrrio, poderemos acrescentar a I 0 mais um vetor
de V , de forma que o conjunto resultante ainda seja linearmente independente.
O processo continuar at que obtenhamos um conjunto gerador de V . Como
temos conjuntos linearmente independentes em cada etapa, o conjunto gerador
obtido ser uma base de V .
Mais uma vez, preciso justificar por que o processo necessariamente termina.
Como que podemos garantir que, em alguma etapa, um conjunto gerador para
V ser obtido? Ora, se um conjunto gerador nunca fosse obtido, poderamos
continuar acrescentando a I um nmero arbitrrio de vetores, um por um, sempre
mantendo a propriedade de independncia linear dos conjuntos resultantes. Mas
isso impossvel, em razo da proposio 3.22.
Demonstrao do lema 4.21: Suponha que G = {a1 , . . . , am } seja um conjunto
gerador de V . Seja S = {v1 , . . . , vq } qualquer conjunto de vetores de V , com
q > m. Vamos provar que S tem que ser linearmente dependente.
Como G gera V , cada vetor vi de S pode ser escrito como uma combinao
linear dos vetores aj de G.11 Sendo assim, existem escalares uij tais que
v1 = u11 a1 + u12 a2 + + u1m am ,
v2 = u21 a1 + u22 a2 + + u2m am ,
.................................
vq = uq1 a1 + uq2 a2 + + uqm am .
10
11
(4.15)
107
u11
u21
u12
u22
u1 = .. , u2 = .. , . . . ,
.
.
u1m
u2m
uq1
uq2
uq = .. .
.
uqm
v2 = Au2 ,
... ,
vq = Auq .
(4.16)
Para verificar a equivalncia entre (4.15) e (4.16), basta usar a definio 2.4 do
produto matriz-vetor (pgina 43).
Observe que {u1 , u2 , . . . , uq } um conjunto de q vetores de Rm e que, por
hiptese, q > m. Pela proposio 3.22, esse conjunto linearmente dependente.
Dessa forma, existem escalares c1 , . . . , cq , no todos iguais a zero, tais que c1 u1 +
+ cq uq = 0m . Essa relao de dependncia linear se traduz para os vetores vi ,
por meio das equaes (4.16). Com efeito, temos
c1 v1 + c2 v2 + + cq vq = c1 Au1 + c2 Au2 + + cq Auq =
= A(c1 u1 + c2 u2 + + cq uq ) = A0m = 0n .
Isso mostra que o conjunto S = {v1 , . . . , vq } linearmente dependente.
Demonstrao do teorema 4.26: Suponha que S seja linearmente independente.
Se S no gerasse V, ento, pelo teorema 4.19, poderamos acrescentar vetores de
V a S de forma a obter uma base. Essa base, no entanto, conteria mais do que
p vetores, pois seria obtida acrescentando vetores a S, que j tem p elementos.
Isso contradiria a hiptese de que p seja a dimenso de V. Assim, S tem que ser
um conjunto gerador de V. Isso termina a prova de (a).
Agora, suponha que S gere V. Se S no fosse linearmente independente,
ento, pelo teorema 4.18, poderamos remover elementos de S de forma a obter
uma base de V. Essa base, no entanto, conteria menos do que p vetores. Mais uma
vez, isso contradiria a hiptese dim V = p. Portanto, S tem que ser linearmente
independente. Isso prova (b).
Exerccios resolvidos
Sejam b1 = 12 e b2 = 32 , e considere
a base B = {b1 , b2 } de R2 .
Determine o vetor x R2 tal que [x]B = 42 .
Soluo: Basta aplicar a definio 4.32.
que[x]B = 42 o mesmo
Dizer
que dizer x = 4b1 + 2b2 , ou seja, x = 4 12 + 2 32 = 20 . Note que 2 e 0
so as coordenadas de x com respeito base cannica de R2 .
R4.1.
108
Exerccios
R4.2.
R4.3.
Soluo: Este exerccio uma mera reformulao da proposio 4.22. Verifique, lembrando que, se V tem uma base contendo p elementos, ento, por
definio, dim V = p.
Observao: Na proposio 4.22, no usamos explicitamente o termo dimenso. De fato, essa proposio foi essencial para definir o termo, de
modo que empreg-lo seria logicamente incorreto. No entanto, uma vez que
o conceito de dimenso esteja adequadamente definido, temos a liberdade
de reformular a proposio. O objetivo deste exerccio foi exatamente esse.
Exerccios propostos
P4.1.
109
P4.2.
P4.3.
P4.4.
P4.5.
110
Exerccios
1
4
3
3 ,
1 , 3.
(a)
2
4
1
P4.6.
2
1
0
2 , 3 , 8.
(b)
1
2
5
2
1
2 , 3.
(c)
1
2
P4.7.
P4.8.
Verifique que o lema 4.17 pode ser reformulado da seguinte maneira compacta: Se ak Span{a1 , . . . , ak1 , ak+1 , . . . , am }, ento vale a igualdade
Span{a1 , . . . , ak1 , ak+1 , . . . , am } = Span{a1 , . . . , am }. (Repare que essa
formulao no faz referncia alguma a subespaos abstratos.)
P4.9.
O teorema 4.18 diz que uma base de um subespao pode ser obtida mediante a remoo de elementos redundantes de um conjunto gerador (releia
o enunciado preciso, na pgina 90). Este exerccio mostra que, em geral,
h uma certa liberdade na escolha do(s) elemento(s) a ser(em) removido(s),
mas isso
em todos
Considere, primeiro, os vetores
1 no verdade
1
1 os casos.
2
a1 = 2 , a2 = 1 e a3 = 0 de R e o conjunto G = {a1 , a2 , a3 }.
(a) Verifique que G um conjunto gerador de R2 , mas no uma base.
(b) Mostre que uma base de R2 pode ser obtida de G mediante a remoo
de qualquer um dos vetores aj . Em outras palavras, verifique que os
conjuntos {a1 , a2 }, {a1 , a3 } e {a2 , a3 } so bases de R2 .
(c) Conclua que nenhum dos vetores aj intrinsecamente redundante
no conjunto gerador G, ou seja, nenhum dos aj mais redundante
do que os outros.
Agora, considere o vetor a4 = 24 e o conjunto G 0 = {a1 , a2 , a4 }.
(d) Verifique que G 0 gera R2 , mas no uma base.
(e) Mostre que uma base de R2 pode ser obtida de G 0 mediante a remoo
de a1 ou de a4 , mas no de a2 .
111
P4.10.
Sejam u =
h i
1
0
4
ev=
h i
2
0 . Verifique que o conjunto {u, v} linearmente
1
P4.12.
P4.13.
(b) 8
(c) 1
(d) 0
(a) 12
7
5
1
0
Seja W o plano
Rh3 considerado
no exemplo 4.37. J sabemos que
nh em
i
io
1
1
2 , 3
B = {a1 , a2 } =
uma base de W . Seja u o vetor de W tal
2
4 1
que [u]B =
1 . Esboce o vetor u diretamente sobre a figura 4.2. Em
seguida, determine as coordenadas de u com relao base cannica de R3 .
P4.16.
P4.17.
P4.18.
112
Exerccios
2 6
8
4
1 3 4
2
1 3 5
(a) A = 3 10 9 11 0
0
2
6 10
0
0 0
0
0
0 3
6
1 2 1 4
3 6
(b) A = 1 2 1 4 0 0
3
6 6 30
0 0
0 0
1 4 8 3 7
1 4 8 0
5
1 2 7
3
4
0 2 5 0 1
(c) A =
2 2 9
5
5 0 0 0 1
4
3 6 9 5 2
0 0 0 0
0
1
8 3 3 1
1 6 1 0 3
0
4 8 4
0
2 4 2 0
0
(d) A =
1 2 9 3
1 0
0 0 1 2
2 6 14 7
8
0
0 0 0 0
Em cada item a seguir, determine uma base para o subespao gerado
pelos vetores dados.
2
0
6
1
1 2 7 3
(a)
0, 0, 0, 2.
0
3
6
1
1
1
6
7
2 2 8 2
(b)
1, 1, 6, 7.
2
3
7
6
P4.19.
P4.20.
(a) Verifique que B = {a1 , a2 , a4 } uma base de Col A. (Essa , provavelmente, a base que voc encontrou no exerccio p4.18(c).)
(b) Determine as coordenadas do vetor a5 com relao base B.
Dica: Aproveite o trabalho j realizado no exerccio p4.18(c), e utilize
a proposio 4.43.
Reveja o exemplo 4.40 (pgina 100). Mostre que o vetor x = x2 v1 +
x4 v2 + x5 v3 de (4.8) ser igual ao vetor zero somente se os pesos x2 , x4
e x5 forem todos iguais a zero. (Dica: Examine as componentes 2, 4 e 5
dos vetores envolvidos em (4.8).) Conclua que o conjunto {v1 , v2 , v3 }
linearmente independente.
P4.21.
P4.22.
113
P4.23.
(a) Seja R uma matriz nm, na forma escalonada reduzida. Convenase de que as colunas-piv de R so iguais a certos elementos da base
cannica de Rn . De fato, se R tem p colunas-piv, ento essas colunas
so iguais aos vetores e1 , . . . , ep de Rn .
(b) Conclua, do item anterior, que as colunas-piv de uma matriz escalonada reduzida so sempre linearmente independentes.
(c) Mostre que as colunas-piv de uma matriz qualquer so linearmente
independentes.
Dica: Use novamente a proposio 4.43.
P4.24.
Verifique que o vetor v3 do exemplo 4.50 pode ser escrito como uma
combinao linear de v1 e v2 . Conclua que {v1 , v2 , v4 } um conjunto gerador para Span{v1 , . . . , v4 }. (Dica: Use o lema 4.17 ou o exerccio p4.8.)
Verifique tambm que o conjunto {v1 , v2 , v4 } linearmente independente.
Conclua que esse conjunto uma base de Span{v1 , . . . , v4 }, conforme afirmamos no exemplo 4.50.
P4.25.
P4.26.
P4.27.
P4.28.
P4.29.
P4.30.
Exerccios
115
116
Captulo 5
Transformaes Lineares
5.1
Introduo
1
3
1
2
4 , u =
A = 3
ev=
2
1
1 2
Ento,
6
1
3
5
1
3
21 = 3
4
= A(u + v) = A(u) + A(v) = 11 + 10
3
9
1 2
5
4
e
10
1
3
5
2
22 = 3
4
= A(2u) = 2A(u) = 2 11 ,
4
10
1 2
10
T
v
Tv
Representa o Rn
Representa o Rm
Assim, T : Rn Rm linear se ela preserva a soma de vetores e a multiplicao de vetores por escalares, as duas operaes bsicas do Rn .
Quando tratamos de funes, os termos domnio, contradomnio e imagem
aparecem naturalmente. No caso de transformaes lineares T : Rn Rm o
domnio Rn , o contradomnio Rm e a imagem :
IM(T ) = {w Rm : se existe v Rn tal que T (v) = w} = {T (v) : v Rn } .
Exemplo 5.2
Da motivao inicial claro que se A uma matriz m n. Ento, A determina
uma transformao linear T : Rn Rm , definida por u 7 T (u) = Au. Sendo
mais especficos, digamos que
x
1 4 3
A=
e u = y ,
2 3 0
z
ento,
x
1 4 3
x 4y + 3z
y =
.
T (u) =
2x 3y
2 3 0
z
x
x
4y
+
3z
3
2
Assim, dizemos que T : R R , definida por y 7
provem da
2x 3y
z
matriz A.
Antes de continuarmos veja a seguinte definio.
Definio 5.3
Seja T : Rn Rm uma transformao linear, no caso em que m = n chamamos
a transformao linear (ou aplicao linear) de operador linear.
118
5.1. Introduo
y
1
y
1
3 x
3 x
(5.1)
119
1
1
1
1
3
T
+T
=
+
=
.
2
0
4
0
4
5.2
(5.2)
x2
Exemplo 5.7
Vamos retornar ao exemplo 5.5, em que T : R2 R2 , que toma u R2 7 3u
R2 , que tal como havamos comentado uma dilatao e um operador linear.
Vamos determinar qual
desse operador linear com respeito base
1 seria a matriz
0
cannica. Seja
e
=
,
e
=
a
base
cannica de R2 , logo, T (e1 ) = 30 e
1
2
0
1
T (e2 ) = 03 e, portanto, a matriz fica:
3 0
A=
.
0 3
Exemplo 5.8
Considere a transformao linear R : R2 7 R2 , que para cada vetor v retorna um
vetor R(v), obtido por fazer uma rotao de radianos em torno da origem no
sentido anti-horrio. A prxima figura nos fornece uma demonstrao geomtrica
de que R(u + v) = R(u) + R(v).
(u
)+
u
(v
)
R(u)
R(v
)
u
0
Figura 5.2: Rotao de vetores
Com um desenho similar se prova que R(v) = R(v). Portanto, esta aplicao linear. Vamos determinar a sua matriz na base cannica. Para isto, vamos
1
0
investigar onde os vetores
e1 = [ 0 ] ,e2 = [ 1] so levados. Na figura abaixo vecos
sen
mos que: R(e1 ) =
, R(e2 ) =
e a matriz na base cannica desta
sen
cos
transformao :
cos sen
A=
.
sen
cos
121
( sen , cos )
(cos , sen )
1
2
sen
cos
12
=
.
y
y
y
0
y
y
5.2.1
Considere duas funes (ou aplicaes) f : A B e g : B C. A composio, denotada por f g, a aplicao f g : A C, definida por:
(f g)(a) = f (g(a)),
isto , primeiro aplicamos f em a A e depois aplicamos g em f (a) para obter
g(f (a)) C.
122
2P u = u + Su
Pu
Su
Figura 5.4: Reflexo em torno do eixo x
Exemplo 5.11
Considere f : R R definida por f (x) = 2x2 3x e g : R R definida por
g(x) = x2 ento
(f g)(x) = f (g(x)) = f (x2 ) = 2(x2 )2 3(x2 ) = 2x4 3x2 .
Se A um conjunto no-vazio, a aplicao f : A A definida por f (a) =
a para todo a A chamada de aplicao identidade sendo, geralmente,
denotada por IA ou simplesmente por I. Assim, I(a) = a para todo a A.
Seja f : A B uma aplicao. Dizemos que g : B A a aplicao
inversa de f , denotada por g = f 1 , se
f g = IB
g f = IA .
Exemplo 5.12
x
2x + 5y
Considere o operador linear T : R R definida por
7
. Verifiy
3x + 7y
x
7x + 5y
que se S definida por
7
a inversa de T .
y
3x 2y
Observe que
x
2x + 5y
7(2x + 5y) + 5(3x + 7y)
x
S T
=S
=
=
.
y
3x + 7y
3(2x + 5y) 2(3x + 7y)
y
2
x
7x + 5y
2(7x + 5y) + 5(3x 2y)
x
T S
=T
=
=
.
y
3x 2y
3(7x + 5y) + 7(3x 2y)
y
Portanto, S = T 1 .
123
5.2.2
R
definida
por
y 7 x y. Ao calcularmos N (T ) obtemos
x
2
N (T ) =
y R
: x y = 0 , que coincide com a reta y = x, ou ainda,
N (T ) = Span 11 .
Dizemos que f : A B sobrejetora se, para todo b B, existe a A tal
que f (a) = b.
Reescrevendo esse critrio, para aplicaes lineares, obtemos: uma aplicao
linear T : Rn Rm , sobrejetora se para cada vetor v Rm imagem de
algum vetor u Rn . Isso equivalente a pedir que IM(T ) = Rm .
Exemplo 5.14
124
h y i
3x . Ento, a imagem de T
0
1
y
0
IM(T ) = 3x : x, y R = x 3 + y 0 : x, y R
0
0
0
1
0
= Span 3 , 0 .
0
0
hxi
O ncleo de T dado pelos vetores u = yz , tais que:
x
y
0
y
T
= 3x = 0 .
z
0
0
Portanto, x = y = 0 e da
0
N (T ) = Span 0 .
5.3
lgebra Matricial
Vamos introduzir operaes sobre as matrizes e depois mostrar que essas operaes provm das operaes sobre as transformaes lineares. Para comear, vamos definir o que significa dizer que a matriz A = [aij ] igual matriz B = [bij ],
isso significa que ambas as matrizes so m n e que as entradas correspondentes
so iguais aij = bij . Quando isso acontece denotamos por A = B.
Dado um escalar r R e a matriz A = [aij ], definimos o produto de r por
A, por ser a matriz r A = [raij ], isto , cada uma das entradas da matriz
multiplicada pelo escalar r. E dado as matrizes A = [aij ] e B = [bij ] de ordem
m n, definimos a soma das matrizes por ser uma outra matriz, tambm de
ordem m n, dada por
A + B = [aij + bij ],
isto , entrada da matriz A + B a soma das entradas correspondentes de A e B.
Essas operaes tm as seguintes propriedades:
a. A + B = B + A
b. (A + B) + C = A + (B + C)
c. (A + 0) = A
5.3.1
d. r(A + B) = rA + rB
e. (r + s)A = rA + sB
f. r(sA) = (rs)A
125
Exemplo 5.15
5 4 2
A=
0 2 1
a b
B=
.
c d
Ento,
5 0
At = 4 2
2 1
a c
B =
.
b d
t
5.3.2
Multiplicao de Matrizes
n
X
ail blj .
l=1
b11 a11 + b21 a12 + b31 a13 b12 a11 + b22 a12 + b32 a13
AB = b11 a21 + b21 a22 + b31 a23 b12 a21 + b22 a22 + b32 a23
b11 a31 + b21 a32 + b31 a33 b12 a31 + b22 a32 + b32 a33
= b11 v1 + b21 v2 + b31 v3 b12 v1 + b22 v2 + b32 v3
= Aw1 Aw2 .
Como podemos ver o resultado do produto AB pode ser visto como vetores
colunas, onde cada coluna uma combinao linear dos vetores colunas da matriz
A, com os coeficientes da coluna correspondente da matriz B, e tambm, os
vetores colunas de AB podem ser visto como o produto de A pelos vetores colunas
correspondentes de B. Claramente isso se generaliza para matrizes de qualquer
ordem em que o produto faa sentido.
A matriz 0 = [0] M (m n) chamada de matriz nula. A matriz nula
possui a seguinte propriedade: para quaisquer outras matrizes A M (k m) e
B M (n k) temos
A0 = 0 M (k n) e 0B = 0 M (m k).
Outra matriz que desempenha um papel importante a matriz quadrada
I = [ij ] onde
1 se i = j,
ij =
0 se i 6= j.
Esta matriz tem a seguinte propriedade: qualquer que seja a matriz A =
[aij ] Mn temos
A I = A e I A = A,
chamaremos tal matriz de matriz identidade.
Com respeito a operao de multiplicao de matrizes ela possui as seguintes
propriedades: suponha que A M(m n), e sejam B e C matrizes do tipo
adequado para que as operaes de soma e produto sejam possveis
a.
b.
b.
c.
d.
e.
A(BC) = (AB)C
A(B + C) = AB + AC
(B + C)A = BA + CA
r(AB) = (rA)B = A(rB)
Im A = A = AIm
(AB)t = B t At .
Associatividade da multiplicao;
propriedade distributiva esquerda;
propriedade distributiva direita;
r um escalar;
onde Im a matriz identidade;
Exemplo 5.18
Em geral a propriedade comutativa no verdadeira para as matrizes. Para
perceber isso considere:
0 2
1 0
A=
eB=
,
3 1
2 1
Jones Colombo e Jos Koiller (texto em preparao)
127
logo,
4 2
0
2
AB =
e BA =
e, claramente, AB 6= BA.
5 1
3 3
Diremos que uma matriz B M(n m) o inverso direita de A
M(m n) se AB = Im e diremos que a matriz C M(n m) o inverso
esquerda de A se CA = In .
No caso em que a matriz A M(m n) possua inverso direita B e
esquerda C ento:
B = In B = (CA)B = C(AB) = CIm = C,
e isso significa que B = C, em particular m = n e a matriz A quadrada. Logo,
se A possui inverso esquerda e direita ao mesmo tempo, eles so os mesmos,
alm disso, pelo mesmo argumento usado anteriormente, se A possui inversa
direita e esquerda ao mesmo tempo, ento esta inversa nica e chamamos esta
matriz de matriz inversa de A e a denotamos por A1 e, nesse caso, diremos
simplesmente que A invertvel.
Exemplo 5.19
Vamos comear por considerar a matriz
2 1
A=
.
3 1
x y
Queremos determinar uma matriz B =
, tal que AB = I2 , mas isso implica
z w
no seguinte:
2 1 x y
2x + z 2y + w
1 0
AB =
=
=
3 1 z w
3x + z 3y + w
0 1
e da, precisamos resolver o seguinte sistema:
2x
+z
2y
+w
3x
+z
3y
+w
=
=
=
=
1
0
.
0
1
128
1 0 0
A=
0 1 0
Jones Colombo e Jos Koiller (texto em preparao)
1 0
B = 0 1 ,
a b
da,
1 0
1 0 0
1 0 0
0 1 = 0 1 0 .
AB =
0 1 0
a b
0 0 1
Por outro lado, uma matriz A M(m n) pode admitir mais de uma inversa
esquerda.
Exemplo 5.21
Considere a matriz:
A= 3
0
1 0
e considere quaisquer a, b R e C =
0 1
2
1 0 a
3
CA =
0 1 b
0
1
1
0
a
, logo,
b
1
1 0
1 =
0 1
0
(5.3)
129
5.4
Matrizes Elementares
O objetivo dessa seo introduzir as matrizes elementares e com elas descrever um processo que permite obter a matriz inversa, isso claro, nos casos em
que a matriz admite uma inversa. Gostaria de chamar a ateno que as matrizes
elementares tambm podem ser usadas na criao de algoritmos que permitem
manipular matrizes, dito isso, vamos ao que nos interessa. Iniciamos lembrando
que existem apenas trs operaes elementares que podemos usar no processo de
escalonamento, que so:
(a) `i `i + `j ;
(b) `i `i ;
(c) `i `j .
Diremos que E uma matriz elementar se E pode ser obtido da matriz
identidade I por aplicar apenas umas das trs operaes elementares.
Exemplo 5.23
1 0
Veja que a matriz E =
uma matriz elementar pois pode ser obtida por
2 1
aplicar `2 `2 2`1 na matriz identidade.
As matrizes elementares tm inmeras aplicaes, em particular, ns podemos
substituir as operaes elementares sobre as linhas (as colunas), por multiplicar
a matrizes elementares esquerda ( direita) da matriz que queremos que sofra
a operao elementar. Veja o prximo exemplo.
Exemplo 5.24
Digamos
de aplicar a operao elementar `2 `2 2`1 na matriz
que gostaramos
1 3 2
A=
, mas ao invs de fazer isso faa:
2 4 1
1 0
EA =
2 1
1 3 2
1
3
2
=
.
2 4 1
0 2 3
fcil de ver que o resultado o mesmo. Isso nos diz que podemos substituir o
procedimento de aplicar uma operao elementar em uma matriz por multiplicar
a mesma, esquerda, pela matriz elementar obtida da matriz identidade por
aplicar mesma operao elementar.
Olhando o resultado, vemos que o prximo passo, para escalonar a matriz
seria
aplicar `2 21 `2 na matriz obtida acima. Ento vamos multiplicar por
1
0
E0 =
e teremos
0 21
1
0 1
3
2
1 3 2
E EA = E (EA) =
=
.
0 12 0 2 3
0 1 23
0
130
1 1 2
1 0 .
A = 1
2 3 1
Jones Colombo e Jos Koiller (texto em preparao)
131
1 1 2 | 1 0 0
1 0 | 0 1 0 .
[A|I] = 1
2 3 1 | 0 0 1
1 1
2 |
1 0 0
1 1
2 |
1 0 0
`2 `3
` `1 `2
0
0
2 |
1 1 0
0 1 3 | 2 0 1 1
0 1 3 | 2 0 1
0
0
2 |
1 1 0
1
0 0 |
1/2 5/2 1
1
0
5 |
3 0 1 ` ` 5 `
1
1 2 3
0 1 3 | 2 0
3/2
1
1
0 1 0 | 1/2
`2 `2 + 23 `3
0
0 2 |
1
1
0
0
0
2 |
1 1
0
1 0 0 | 1/2 5/2 1
`2 `2
0 1 0 | 1/2 3/2 1
`3 12 `3
0 0 1 | 1/2
1/2
0
1/2 5/2 1
1
5.5
Ncleo e Imagem
a11 x + a12 y + a13 z
z
(5.4)
Exemplo 5.31
Seja T : R4 R3 a transformao linear definida por
z
xy+z+t
y
7 2x 2y + 3z + 4t .
z
3x 3y + 4z + 5t
t
(a) Encontre uma base e a dimenso do N (T ).
t
Queremos encontrar os vetores u = z y z t , tais que T (u) = 0. Mas
isso equivalente a resolver ao sistema:
xy+z+t=0
2x 2y + 3z + 4t = 0 .
3x 3y + 4z + 5t = 0
Escalonando a matriz:
1
2
3
1
0
0
1 1 1 0
1 1 1 1 0
2 3 4 0 0
0 1 2 0
3 4 5 0
0
0 1 2 0
1 1 1 0
1 1 0 1 0
0 1 2 0 0
0 1
2 0 .
0 0 0 0
0
0 0
0 0
1
, 0 .
N (T ) = Span
0 2
0
1
Jones Colombo e Jos Koiller (texto em preparao)
133
2 , 3 .
IM(T ) = Span
3
4
Vamos exibir outra maneira de obter uma base para a IM(T ). Inicialmente,
calcule a imagem dos vetores da base cannica do R4 :
1
1
0
T = 2 ,
0
3
0
0
1
1
T = 2 ,
0
3
0
0
1
0
T = 3 ,
1
4
0
0
1
0
T = 4 .
0
5
1
1
2
3
1
1 2 3
0
1
0
3
4
1
4
5
0
2
0
1
2
3
1
0
0
0
1
2
0
2
1
0
0
3
1
.
0
0
t
t
Os vetores 1 2 3 , 0 1 1 so claramente LI e, tambm, geram a imagem.
Portanto, formam uma base da IM(T ) e novamente temos que a dim IM(T ) =
2.
Assim, podemos confirmar o teorema 5.30 pois temos que
dim N (T ) + dim IM(T ) = 2 + 2 = 4 = dim R4 .
Exerccios resolvidos
x
x+y
R5.1. Seja T : R R a aplicao definida por
7
. Mostre que T
y
y
linear.
2
Soluo: Precisamos mostrar que T uma aplicao linear, isto , que T (u+
v) = T (u) + T (v) para todo u, v R2 e T (u) = T (u) para todo R2
134
Exerccios
0
e u R2 . Suponha que u = xy e v = xy0 , ento:
0
x
x
x + x0
T (u + v) = T
+ 0
=T
y
y
y + y0
0
x + y0
x+y
x + x0 + y + y 0
= T (u) + T (v),
+
=
=
y0
y0
y + y0
x
(x + y)
x+y
T (u) = T
=
=
= T (u).
y
y
y
E isso demonstra que T uma aplicao linear.
x
x
+
y
+
z
R5.2. Seja T : R3 R2 a aplicao definida por y 7
. Mostre
2x 3y + 4z
z
que T linear.
Soluo: Considere a matriz:
A=
1
1 1
2 3 4
x
x
1
1 1
y .
e veja que T y =
2 3 4
z
z
R5.3.
x+3
x
(b) T : R2 R3 a aplicao definida por
7 2x .
y
x+y
Soluo: Observe que
3
0
0
T (0) = T
= 0 6= 0 .
0
0
0
Portanto, T no pode ser linear.
Jones Colombo e Jos Koiller (texto em preparao)
135
x
|x|
3
2
xy+z+t
t
R5.5. Seja F : R2 R2 definida por x y z t 7 x + 2z t . Enx + y + 3z 3t
contre uma base e a dimenso de: (a) da imagem de F , (b) do ncleo de
F.
Soluo: Vamos comear obtendo o N (F ). Seja A matriz na base cannica
de F . Calcular o N (F ) equivalente a calcular os vetores que satisfazem
Ax = 0. Escalonando a matriz deste sistema homogneo obtemos:
1 1 1
1 0
0 2 1 0
[A 0] 1
1
1 3 3 0
1 1 1
1 0
1 0 2 1 0
0
1 1 2 0 0 1 1 2 0 ,
0
2 2 4 0
0 0 0
0 0
136
Exerccios
as solues
do
sistema
so x = 2z + t e y = z + 2t, portanto, N (F ) =
2
1
1 2
0
1
2a coluna so colunas piv da matriz escalonada, entoa1a e a2a colunas
de
1
1
A geram a imagem de A. Segue que IM(F ) = Span 1 , 0 .
1
1
R5.6.
2
2
2(x
y)
x
x
2 .
=
R
=
y
2 2
2 2 y
2(x + y) 2
R5.7.
Sejam:
1
0 2
3
1 1
1 .
A = 2 1 1 e B = 0 1
0 1
1
0 2
0
x
x 2z
x
3x + y z
T y = 2x y z e S y = y + z .
z
y + z
z
2y
e da
x
x
3x + 5y z
R1 y = T S y = 6x + 5y 3z
z
z
y z
x
x
x + 4z
R2 y = S T y = 2x + 2z .
z
z
4x + 2y + 2z
137
Exerccios propostos
P5.1.
P5.2.
3
2
Mostre que so lineares
as seguintes aplicaes: (a) T : R R , a apli
x
x
+
2y
3z
cao definida por y 7
; (b) T : R2 R2 , a aplicao
4x 3y + 6z
z
x
ax + by
definida por
7
, com a, b, c, e d escalares.
y
cx + dy
P5.3.
x
2x
3
2
2
2
P5.4. Sejam F : R R e G : R R definidas por F y =
e
y+z
z
x
y
G
=
. Calcule (se possvel):
y
x
a) F + 2G,
b) G F e, por fim,
c) F G.
P5.5.
.
7
e (b)
(a)
2x + 3y
y
x 4y
y
P5.6.
Para cada uma das matrizes abaixo, determine a aplicao linear associada.
Depois encontre uma base e a dimenso do ncleo e da imagem de cada uma
delas.
1
2 0
2
1
0 2 2
3 2 1
(a) 2 1 2 1 ,
(b) 2
1 3 2 2
2 3 0 3
P5.7.
138
2
4
2
direita da matriz:
3
5 .
1
Exerccios
0 1
P5.8. Suponha que T : R R definido pela matriz A =
. Encontre (se
1 0
existirem) vetores u, v, tais que:
2
a) T (u) = u e b) T (v) = v.
P5.9.
P5.10.
x
x 2y
y 7 z .
z
x+y
Mostre que T uma aplicao linear, injetora e sobrejetora, portanto, invertvel. Encontre T 1 .
Sejam T : Rn Rm uma aplicao linear injetora e se {u1 , u2 , . . . , uk }
um conjunto LI. Mostre que:
P5.11.
P5.12.
139
140
Captulo 6
Determinantes
J em 1683, o japons Seki Takakazu inventou o conceito de determinante,
provavelmente reinventado em 1693 pelo alemo Gottfried Liebniz, pois no havia comunicao entre eles. Na poca, o determinante estava relacionado com
as frmulas para exprimir a soluo de um sistema linear de n equaes e n
variveis, uma vez que a teoria de matrizes s seria desenvolvida muito mais
tarde. Posteriormente, em 1812, Augustin-Louis Cauchy identificou que o determinante poderia ser usado para calcular a rea do paralelogramo ou o volume
do paraleleppedo. Somente depois o determinante seria associado com as formas
multilineares alternadas.
O determinante associa um nmero para cada matriz quadrada.
O principal uso do determinante est no fato de que o determinante de um
operador linear no-nulo se, e somente se, o operador invertvel.
Neste captulo iremos deduzir frmulas e procedimentos para calcular o determinante de uma matriz, alm de apresentar dois mtodos para obter a inversa
de uma matriz e um critrio para decidir se um sistema admite soluo nica.
6.1
Determinantes de ordens 1, 2 e 3
Captulo 6. Determinantes
Exemplo 6.1
2
1
1
3
2
0
5 2 e B = 4
0 1. Encontre det(A) e det(B).
Sejam A = 0
2 3
4
1 3
2
det(A) = 2(5)4 + 1(2)2 + 1(0)(3) 2(5)1 (3)(2)2 4(0)1
= 40 4 10 12 = 14,
det(B) = 0 + (2) + 0 0 9 (16)
= 5.
6.2
Determinante em Geral
Exemplo 6.3
1 1 2
1 0 . Ento,
Considere A = 1
2 3 1
1 0
1 1
1 2
A11 =
, A23 =
e A21 =
.
3 1
2 3
3 1
E os cofatores correspondentes so:
11 = (1)1+1 det(A11 ) = 1, 23 = (1)2+3 det(A23 ) = (3 + 2) = 1 e
21 = (1)2+1 det(A21 ) = (1 + 6) = 5.
Com essa notao podemos reescrever o determinante no caso de A ser de
ordem 2
det(A) = a11 22 + a12 21 .
e no caso de A ser uma matriz de ordem 3, o determinante fica:
det(A) = a11 11 + a12 12 + a13 13 .
Recursivamente definimos para a matriz 4 4 o seu determinante, por ser
det(A) = a11 11 + a12 12 + a13 13 + a14 14 .
E assim, sucessivamente, isto ,
Definio 6.4
Seja n > 1 e A uma matriz quadrada de ordem n, definimos o determinante de
A como sendo:
det(A) = a11 11 + a12 12 + + a1n 1n .
Exemplo 6.5
0
1
1 1
3
0
1
0
, calcule det(A).
Considere a matriz A =
1 1
0 2
2 1 1
1
det(A) = 011 + 112 + 113 + (1)14
= 0(3) + 1(11) + 1(9) + (1)(4) = 6.
Apesar de termos definido o determinante para qualquer matriz quadrada de
ordem n, sempre que precisamos calcular o determinante de uma matriz de ordem
n precisamos calcular n determinantes de matrizes de ordem n 1. Quando
n cresce, a quantidade de operaes necessrias para calcular o determinante
cresce muito depressa, o que inviabiliza a operao, para perceber isso tente ver
quantas operaes voc necessitaria se tivesse que calcular o determinante de
uma matriz de ordem n = 7. Mesmo empregando um computador para fazer esta
tarefa, se utilizarmos essa frmula, mesmo para matrizes relativamente pequenas,
Jones Colombo e Jos Koiller (texto em preparao)
143
Captulo 6. Determinantes
145
Captulo 6. Determinantes
6.3
Definio 6.12
Uma matriz de permutao uma matriz obtida da matriz identidade pela
permutao de suas colunas.
Exemplo 6.13
A matriz
0 1 0
P = 1 0 0
0 0 1
`2
A = [aij ] = c1 c2 cn = ..
.
`n
escrita como n colunas ou n linhas.
Observao 6.15
Dada uma matriz A = [aij ] de ordem n podemos considerar B = At , logo o
det(B) = det(A) e D n-linear e alternada sobre as colunas de B, mas isso quer
dizer que, com respeito a matriz A, D(A) n-linear e alternada com respeito s
linhas de A.
146
Observao 6.16
Sejam A e B = At . Calculando o determinante por fazer a expanso em termos
da primeira linha de B, temos
det A = det B = b11 11 + b12 12 + + b1n 1n
= a11 (1)1+1 det At11 + a21 (1)2+1 det At21 + + an1 (1)n+1 det Atn1
= a11 (1)1+1 det A11 + a21 (1)2+1 det A21 + + an1 (1)n+1 det An1 ,
6.4
Regra de Cramer
det(A2 )
det(An )
det(A1 )
, x2 =
, . . . , xn =
.
det(A)
det(A)
det(A)
x+y+z =5
x 2y 3z = 1
2x + y z = 3
Para usarmos o teorema anterior, precisamos calcular o seguinte determinante:
1
1
1
det(A) = det 1 2 3 = 2 6 + 1 + 4 + 3 + 1 = 5.
2
1 1
Como det(A) 6= 0, o sistema tem apenas uma soluo, que dada por
5
1
1
1
5
1
20
1
10
1
x = det 1 2 3 = , y = det 1 1 3 =
5
5
5
5
3
1 1
2
3 1
1
1
5
1
15
z = det 1 2 1 = .
5
5
2
1
3
Jones Colombo e Jos Koiller (texto em preparao)
147
Captulo 6. Determinantes
11 21 n1
12 22 n2
adj(A) = ..
..
.. .
.
.
.
.
.
.
1n 2n nn
Chamamos de Adjunta Clssica, em vez de simplesmente Adjunta, porque, hoje em dia, o termo adjunta reservado para outro conceito totalmente
diferente.
Teorema 6.19
Seja A uma matriz quadrada de ordem n qualquer. Ento,
adj(A)A = det(A)I
sendo I a matriz identidade. Assim, se det(A) 6= 0,
A1 =
1
adj(A).
det(A)
Exemplo 6.20
Por utilizar a tcnica sugerida no teorema acima vamos obter a inversa de
1 1 2
1 0 .
A = 1
2 3 1
Para isso, precisamos determinar os cofatores ij da matriz A. Vamos construir
uma matriz intermediria D e, por fim, obter a adj(A) que Dt .
11 12 13
1
1 1
D = 21 22 23 = 5 3 1 .
31 32 33
2 2 0
Portanto,
1 5 2
adj(A) = Dt = 1 3 2 .
1
1
0
Sabendo que det(A) = 2 segue que
A1
148
1/2
1
adj(A) = 1/2
=
det A
1/2
5/2 1
3/2 1 .
1/2
0
6.5
Determinante do Produto
149
Captulo 6. Determinantes
6.6
Matrizes em Blocos
3
2
7 9 4
5 1
1 1 9
0
3
2
0
Calcule o determinante de B =
0
. Observe que B uma
0
0 4
0 1
0
0
1 3
2
matriz triangular superior em blocos. Pelo teorema basta calcularmos o determinante de cada bloco diagonal:
3
2
det
= 10 3 = 13,
5 1
3
2
0
0 1 = 5.
det 4
1 3
2
6.7
Nesta seo mostraremos que os determinantes podem ser usados para calcular
a rea e o volume, tal como foi mencionado na introduo do captulo. Faremos
apenas para o R2 e R3 . E generalizamos o conceito de volume, usando estes
mtodos para espaos de dimenso n maior que 3.
Teorema 6.27
Se A uma matriz de ordem 2, a rea do paralelogramo determinado pelas colunas de A igual ao | det(A)|. Se A de ordem 3, o volume do paraleleppedo
determinado pelas colunas de A igual ao | det(A)|.
Demonstrao: No caso de A ser de ordem 2, o resultado verdadeiro se A for
diagonal, pois
a
0
det
= |ad| = {rea do retngulo de lados a e d} .
0 d
y
0
d
a
0
151
Captulo 6. Determinantes
c2 + L
y
c2
c2 + tc1
c1
x
Figura 6.2: rea= |ad bc|
y
0
b
0
a
0
0
0
0
c
152
Exerccios
y
c2
c1
x
c3
z
c2
P
c2 + rc1
c1
x
P
c3
z
Exerccios resolvidos
R6.1.
153
Captulo 6. Determinantes
b) det(B) = 14 + 12 = 26,
c) det(C) = (t 5)(t + 2) 18 = t2 3t 10 18 = t2 10t 28.
R6.2.
Calcule o determinante
2
a) A = 1
4
3 4
2 1 5
2 3 ,
2 .
b) B = 2 3
0 3
2 1
1
b) fazendo `2
`2 + `1 e `3 `3 + `1 obtemos que
2 1 5
2
6
5
1
0
1
2 3 2
1
1
3
2 2
2 3
2
5
,
1
.
2
1
1
2
a) A =
b)
B
=
1
2 3
2
1 1
2 3
4
1 6 4
3
0
3 1
2
3
1 2 3 2
0 1 4 9
det
0 0 23 35 = (1)(1)(1)(23)(4) = 92.
0 0
0
4
Em b), se fizermos `1 `1 2`2 , `3 `3 `2 e `4 `4 + `2 e na matriz
resultante expandirmos com respeito primeira coluna, teremos:
0 4 1 3
4
4 1 3 4
1 1
3
2 2
1 2 1 0
.
0
det 0 1 2 1
=
(1)
det
5
1
2
0 0
5 1
2
3 1
2 3
0 3 1
2
3
0
7
1 4
7
1
4
1 2 1 0
= (1)(1) det 5 1 2
det(B) = (1) det
0
5 1 2
5
5 3
0
5
5 3
7
1 4
= det 5 1 2 = 24.
0
6 5
154
Exerccios
Transposta e Determinante
R6.4.
X
i1 ,...,in
(6.1)
sendo Pi1 ...in uma matriz de permutao e (Pi1 ...in ) = 1 o sinal desta
matriz de permutao.
Soluo: Seja A = c1 c2 cn = [aij ] uma matriz n n. E podemos
escrever:
c1 = a11 e1 + a21 e2 + + an1 en
c2 = a12 e1 + a22 e2 + + an2 en
..
..
.
.
cn = a1n e1 + a2n e2 + + ann en
sendo e1 , e2 , . . . , en a base cannica do Rn . E, assim,
det(A) = D(a11 e1 + + an1 en , c2 , . . . , cn )
= a11 D(e1 , c2 , . . . , cn ) + + a1n D(en , c2 , . . . , cn )
Se substiturmos c2 por a12 e1 + + an2 en obteremos uma expresso semelhante, s que com mais termos. Feitas todas as substituies de c2 , . . . , cn ,
e considerando que nos termos cujos ndices tm repeties D igual a zero,
chegamos a expresso:
det(A) = D(c1 , c2 , . . . , cn ) =
X
i1 ,...,in
X
i1 ,...,in
X
i1 ,...,in
R6.5.
155
Captulo 6. Determinantes
X
i1 ,...,in
X
i1 ,...,in
X
j1 ,...,jn
X
j1 ,...,jn
X
j1 ,...,jn
Para entender melhor o que aconteceu na terceira igualdade veja a observao a seguir.
Dado um termo ai1 1 ai2 2 ain n do somatrio do determinante que aparece
no exerccio r6.4. Observe que cada fator aij k tem dois ndices ij e k, por
exemplo: ai2 2 tem o ndice i2 e o ndice 2. Todos os valores do {1, 2, . . . , n}
aparecem no primeiro ndice i2 . Ento podemos reordenar os termos, de tal
forma que o primeiro ndice aparea com valores crescentes, desta forma podemos determinar j1 , . . . , jn , tais que ai1 1 ai2 2 ain n = a1j1 a2j2 anjn . Por
exemplo, na expresso do determinante de ordem 3 3 aparece o seguinte
termo: a31 a12 a23 , que podemos reescrever da seguinte forma: a12 a23 a31 .
Alm disso, a matriz Pj1 ...jn obtida quando tomamos (Pi1 ...in )t , em que
possvel verificar que (Pi1 ...in ) = (Pj1 ...jn ). Por exemplo, associado
ao termo a31 a12 a23 temos a matriz de permutao P312 , como a31 a12 a23 =
a12 a23 a31 , e obtemos a matriz P231 associado ao lado direito da igualdade.
t
t
Agora verifique que P231 = P312
e que det(P231 ) = det(P312
).
Mostre que o determinante de qualquer matriz quadrada A = [aij ] pode ser
calculando fazendo a expanso em qualquer de suas linhas ou colunas. Chamamos esta expanso de Expanso de Laplace do determinante. Assim, a
expanso na i-sima linha e na j-sima coluna pode ser assim representada:
R6.6.
n
X
aik ik e
k=1
n
X
alj lj , respectivamente.
l=1
Exerccios
n
X
k=1
n
X
k+j
akj (1)
det(Akj ) =
k=1
n
X
akj kj .
k=1
R6.7.
det(A2 )
det(An )
det(A1 )
, x2 =
, . . . , xn =
.
det(A)
det(A)
det(A)
Pn
da equao e ej
Soluo: Suponha que x =
j=1 xj ej seja uma soluo
c
c
c
seja os vetores
da
base
cannica.
Alm
disso,
se
A
=
,
1
2
n
P
P
logo Ax = nj=1 xj Aej = nj=1 xj cj = b, isso se traduz por:
x1
b1
x 2 b2
Pn
Pn
c1 c2 cn .. = ..
j=1 xj cj = b e bi =
j=1 xj aij .
. .
xn
bn
x1 =
157
Captulo 6. Determinantes
e da
det(Ak ) = D(c1 , . . . , ck1 ,
n
X
xj cj , ck+1 , . . . , cn )
j=1
n
X
j=1
det(Ak )
.
det(A)
R6.8.
1
adj(A).
det(A)
t
n
Soluo: Se x = x1 xk xn R
e seja
um vetor qualquer,
A = [aij ] vista como n colunas, isto , A = c1 ck cn , digamos
t
que u = u1 uk un = Ax. Por fazer a expanso na k-sima
coluna (veja o exerccio r6.6) de Ak , onde Ak a matriz obtida por substituir
ck por u, obtemos:
det(Ak ) =
n
X
i=1
n
X
i=1
Lembrando que ik = (1)i+k det(Aik ), podemos expressar estas n igualdades, usando a multiplicao de matriz por vetor, como a igualdade entre
os vetores
x1
11 21 n1
u1
x2 12 22 n2 u2
det(A) .. = ..
..
.. .. = adj(A)u.
...
. .
.
. .
xn
1n 2n nn
un
158
Exerccios
x Rn ,
ou seja,
adj(A)A = det(A)I.
E, no caso de det(A) 6= 0, temos que
1
det(A)
adj(A) = A1 .
R6.9.
e
f
g
B=
0 0
.
0 0
h
i
j
0 0
k
l m
Observe que A1 a matriz 2 2 e A2 a matriz 3 3. Vamos calcular o
determinante de B por fazer, duas vezes, a expanso de Laplace na primeira
linha, a seguir:
0
e
f
g
e
f
g
c det 0
det(B) = a det
0
h
i
j
0
h
i
j
0
k
l m
0
k
l m
e f g
e f g
= ad det h i j cb det h i j
k l m
k l m
e f g
1
1
0
1 1. Encontre (a) adj(B), (b) det(B) e (c) B 1 ,
R6.10. Seja B = 1
0 2
1
usando a adj(B).
Jones Colombo e Jos Koiller (texto em preparao)
159
Captulo 6. Determinantes
1 1 2
1
2 .
= 1
1
1
0
1 1 1 1
1
0
2
t B = 1
.
1
1 1
1 1 =
adj(B)B = B
2
2
0
0 2
1
Portanto, det(B) = 2 e
B 1
1/2
1/2
1/2
= 1/2 1/2 1/2 .
1
1
0
Exerccios propostos
P6.1.
5x + 7y = 7
5x + 7y = 3
3x + z = 8 c)
a)
b)
2x + 4y = 1
y + 2z = 3
dos sistemas:
2x + y + z = 4
x + 2z = 2
3x + y + 3z = 2
P6.2. Use
P6.3.
160
2
3
1 2
5
3
1
4
(a) A =
0
1
2 4
3 1 2
4
3
0
0
0
19 18
0
0
5
0
(c) A =
4
6 3 1/6
7
5
8
4
(b)
3 1
5 0
0
2
0 1
A=
2
0 1 3
1
1
2 0
0
0
0
.
0
4
Exerccios
P6.4.
Encontre A1 , sendo
4 1 2 2
1
0
x
2
1
4
3 1 0
0
(b) A = 1 1 x2 (c) A = 6 3 2
(a) A =
2
3 1
0
2 2 x2
4
1
2
0
7 1
1
P6.5.
P6.6.
Mostre que
1 a a2
det 1 b b2 = (b a)(c a)(c b).
1 c c2
a b
P6.7. Seja V o espao vetorial das matrizes M =
de ordem 2. Decida se
c d
a aplicao D : V R dada bilinear (em relao as linhas)
(a) D(M ) = a + d, (b) D(M ) = ac bd
(c) D(M ) = ad, (d) D(M ) = ab + cd.
P6.8.
P6.9.
P6.10.
x
y
1
1
1
1
P6.11.
P6.12.
1 3
2 4
(a)
5 2
P6.13.
2
3
1
(b)
1 1 1
1 3 4 .
1 2 5
161
Captulo 6. Determinantes
162
Captulo 7
Mudana de Base
Este captulo mais tcnico, nele pretendemos explicar como as coordenadas
de um vetor mudam, ao mudarmos de uma base para outra. Antes de comear
preciso fazer uma distino sem a qual no possvel entender os conceitos
discutidos neste captulo. A distino a de que quando escrevemos w estamos
imaginando um vetor (como ente geomtrico) e quando escrevemos [w], estamos
pensando nas coordenadas deste vetor com respeito uma base.
7.1
t
e as coordenadas desse vetor com respeito base so [w] = y1 y2 yn .
Nesta seo vamos entender como relacionar as coordenadas de w, na base ,
com as coordenadas de w, com respeito base .
7.1.1
Dimenso 2
[I] =
.
1 1
Vamos determinar tambm [I] . Para isso precisamos escrever os vetores da base
, em termos da base . Depois de fazermos as contas chegamos que:
1
1
1
0
1
1
= 1/2
+ 1/2
e
= 1/2
+ 1/2
.
0
1
1
1
1
1
164
Portanto,
[I]
1/2
=
1/2
1/2
.
1/2
Vamos fazer duas observao: a primeira a de que [I] [I] = I, portanto, uma
inversa da outra( este resultado geral!) A segunda a de que a matriz [I] tem
como colunas os vetores da base , esse fato sempre ocorre se a base de chegada
a base cannica.
7.1.2
Caso Geral
[I] = [v1 ] [v2 ]
a11 a12
a21 a22
[vn ] = ..
..
.
.
a1n a2n
a1n
a2n
.. .
..
. .
ann
165
7.2
a11
a21
[T ] = ..
.
a12
a22
..
.
am1 am2
a1n
a2n
..
...
.
amn
Exemplo 7.3
Considere T : R3 R2 definida por
x
y 7 2x + y z e as bases
3x 3y 4z
z
1
1
1
1
1
= 1 , 1 , 0 e =
,
.
1
1
1
0
0
Encontre a matriz de T com respeito estas bases. Precisamos encontrar as
166
1
T
=
= (3/2)
+ (3/2)
;
0
1
1
0
1
2
1
1
0
T
=
= (1/2)
+ (5/2)
.
3
1
1
0
Portanto, a matriz de T , com respeito s bases e
3
3/2 1/2
[T ] =
.
1 3/2 5/2
Teorema 7.4
Sejam T : Rn Rm uma aplicao linear, uma base de Rn , uma base de
Rm , ento
[T (w)] = [T ] [w] .
Demonstrao: Esse teorema nos diz que se tomarmos o vetor w e calcularmos
as coordenadas de T (w), com respeito base , ser o mesmo que calcularmos
[w] vezes a matriz da aplicao T , com respeito s bases e .
Faremos a demonstrao somente para o caso n = 2 e m = 3, por acreditar
que isso bem mais instrutivo que a demonstrao no caso geral. Para comear,
sejam = {u1 , u2 } uma base do R2 e = {v1 , v2 , v3 } uma base do R3 . Sabemos
que existem nicos coeficientes aij R, tais que:
T (u1 ) = a11 v1 + a21 v2 + a31 v3
T (u2 ) = a12 v1 + a22 v2 + a32 v3 ,
e obtemos a matriz
a11 a12
[T ] = a21 a22 .
a31 a32
h y1 i
Seja w um vetor de R2 e sejam [w] = xx12 e [T (w)] = yy23 as suas coordenadas.
Logo, w = x1 u1 + x2 u2 e por fazer uso da linearidade da aplicao T temos:
T (w) = T (x1 u1 + x2 u2 )
= x1 T (u1 ) + x2 T (u2 )
= x1 (a11 v1 + a21 v2 + a31 v3 ) + x2 (a12 v1 + a22 v2 + a32 v3 )
= (a11 x1 + a12 x2 )v1 + (a21 x1 + a22 x2 )v2 + (a31 x1 + a32 x2 )v3 .
Jones Colombo e Jos Koiller (texto em preparao)
167
y1
a11 a12
y1 = a11 x1 + a12 x2
x
y2 = a21 x1 + a22 x2 , que equivalente a, y2 = a21 a22 1 .
x2
y3
a31 a32
y3 = a31 x1 + a32 x2
Isto , [T (w)] = [T ] [w] .
Exemplo 7.5
Considere o caso especial I : Rn Rn o operador identidade, isto , I(v) = v
para todo v Rn . Considere = {v1 , v2 , . . . , vn } uma base do domnio de I
e uma base = {u1 , u2 , . . . , un } do contradomnio de I. Vamos determinar a
matriz deste operador com respeito estas bases. Para isso calcule:
I(v1 ) = v1 = a11 u1 + a21 u2 + + an1 un ;
I(v2 ) = v2 = a12 u1 + a22 u2 + + an2 un ;
[I] = ..
.. . .
.. .
.
. .
.
an1 an2 ann
E por isso denotar a matriz de mudana de coordenadas da base para a base
por [I] no nada de especial, apenas a matriz do operador I com respeito
s bases e .
Teorema 7.6
Sejam T : Rn Rm e S : Rm Rk duas aplicaes lineares e , e bases de
Rn , Rm e Rk , respectivamente. Ento, a composta de S T : Rn Rk , linear e
[S T ] = [S] [T ] .
A demonstrao desse resultado fcil, mas muito trabalhosa, veja o exerccio
r7.2.
Observao 7.7
Voc h de convir que seria muito mais natural definir a multiplicao entre matrizes como a simples multiplicao entre as entradas correspondentes e somente
168
[T (w)] 0 = [T ] 0 [w]0
e por outro,
0
169
Exemplo 7.9
Considere a mesma aplicao T : R3 R2 definida no exemplo 7.3 e 0 a base
cannica do R3 e 0 a base cannica do R2 , ento
2
1 1
0
[T ] 0 =
.
3 3 4
Vamos conectar com a matriz
[T ]
3
3/2
=
1 3/2
1/2
,
5/2
0
calculada no exemplo 7.3 com essa matriz, para isso precisamos das matrizes [I] ,
0
que foi calculada no exemplo 7.1, e tambm [I] . Executando as contas obtemos:
0
0 1
0
0
1/2 1/2
e [I] = 0 1 1 .
[I] =
1/2 1/2
1 1 0
Vale a seguinte igualdade (verifique):
0
0
1/2 1/2 2
1 1
= [I] [T ] 0
1/2 1/2 3 3 4
0
1/2 2 3/2
=
= [T ] [I]
5/2 1 5/2
0
0 1
3
3/2 1/2
0 1 1 .
=
1 3/2 5/2
1 1 0
0
[T ]0 = [I]0 [T ] [I] .
Observao 7.10
0
Continuando com a notao anterior, observe que ao fazemos [T ] [I] obteremos
0
0
[T ] . Portanto, a matriz [I] toma a matriz de T , na base , e retorna a matriz
0
de T com respeito s bases 0 , , podemos dizer que a matriz [I] a matriz de
mudana da base para a base 0 . Isso justifica o nome dado anteriormente na
observao 7.2.
Definio 7.11
Sejam A e B duas matrizes quadradas. Dizemos que A e B so matrizes semelhantes e denotamos por A
= B se existe uma matriz P invertvel, tal que
B = P 1 AP.
Disso temos que todas as matrizes associadas a um operador so semelhantes.
170
Exerccios
Exerccios resolvidos
Sejam = {u1 , u2 } e = {v1 , v2 } as bases de um espao vetorial V , e
suponha que v1 = 6u1 2u2 e v2 = 9u1 4u2 .
R7.1.
[I] =
.
1/3 1
b) Como sabemos que as coordenadas de w, com respeito base , para
encontrarmos as coordenadas de w, com respeito base , basta calcularmos:
2/3 3/2
3
4
R7.2.
[S T ] = [S] [T ] .
Soluo: Suponha que = {u1 , . . . , un } Rn , = {v1 , . . . , vm } Rm
e = {w1 , . . . , wk } Rk sejam bases de Rn , Rm e Rk , respectivamente.
Podemos determinar escalares aij e bjl , satisfazendo:
T (ui ) =
m
X
aij vj e S(vj ) =
j=1
k
X
bjl wl , com i = 1, . . . , n e j = 1, . . . , m.
l=1
m
X
aij S(vj )
j=1
m
X
j=1
aij
k
X
bjl wl =
l=1
k
m
X
X
l=1
!
aij bjl
wl .
j=1
171
P
O escalar m
j=1 aij bjl a entrada il da matriz da transformao linear S T
com respeito s bases e . Por outro lado, a entrada na posio
Pm il da
matriz obtida por multiplicar [bjl ]km por [aij ]mn o escalar j=1 aij bjl .
De onde obtemos a igualdade desejada.
Considere o operador linear F de R2 definido por F
bases de R2 a seguir:
= 10 , 01
e = 14 , 27 .
R7.3.
x
y
5xy
2x+y
e as
A = [T ] =
.
2
1
5xy
2x+y
7
2 5 1 1 2
7
2 1 3
5 1
=
=
=
.
4 1 2
1 4 7
4 1 6 11
2 1
R7.4.
h i
1
0
1
nh i h 0 i h io
1
1
1 , 1
0 ,
uma base do R3 .
2
1
1
h 2i
b) Determine [v] se v = 1 .
0
h 2 i
1
c) Determine T
.
a) Mostre que =
172
Exerccios
1
0 1
1
0
1 1 = det 0
1
det(A) = det 0
1 2 1
0 2
1
1 0 1
1 = det 0 2 0 = 2 6= 0,
0
0 1 1
3/2 1 1/2
0 1/2 .
B = [I] = 1/2
1/2
1
1/2
3/2 1 1/2
2
4
0 1/2 1 = 1 .
Portanto, calcular [v] = [I] [v] = 1/2
1/2
1
1/2
0
2
c) Observe que
2
1
0
1
T 1 = T 4 0 + 1 2 1
0
1
2
1
1
0
0
4
= 4 0 + 1 2 0 = 1 .
0
0
1
2
Exerccios propostos
P7.1.
Considere as bases = 10 , 01 , = 13 , 14
e = 12 , 23
do
2
R . Encontre as matrizes de mudana de coordenadas nos seguintes casos:
a) [I] ; b) [I] ; c) [I] e d) [I] .
P7.2.
173
P7.3.
P7.4.
h i
1
a) Ache a expresso da transformao linear T : R3 R2 tal que T ( 0 ) =
0
h i
h i
2
1
2
0
0
) = 1 e T ( 0 ) = 0 ;
1 , T( 1
0
1
b) Encontre v R3 tal que T (v) = 32 .
Seja G um operador do R2 e a base a seguir:
2x7y
G xy = 4x3y
e = 13 , 25
a) Encontre a matriz [G] de G, com respeito .
b) Verifique que [G] [w] = [G(w)] para o vetor w =
P7.5.
4
2
.
P7.6.
174
Mostre que a relao de semelhana entre matrizes uma relao de equivalncia, isto , a relao a seguinte: Dizemos que as matrizes A e B
so matrizes semelhantes (e escrevemos A
= B) se existe uma matriz P
invertvel, tal que B = P 1 AP . Mostre ento que: a) A
= A; b) Se A
=B
ento B = A e c) Se A = B e B = C ento A = C.
Captulo 8
Autovalores, Autovetores e
Diagonalizao de Operadores
8.0
Introduo
3
0
Calcule a k-sima potncia D da matriz D =
.
0 2
k
2
3 0 + 0 (2)
3
0
=
.
0 0 + (2) (2)
0 (2)2
Em seguida, calculamos D3 :
2
2
3
3
0
3
0
3 3
0
3
0
3
2
D =D D =
=
=
.
0 (2)2 0 2
0
(2)2 (2)
0 (2)3
No difcil convencer-se de que, para qualquer k natural, vale a frmula
k
3
0
k
D =
.
(8.1)
0 (2)k
Os leitores e leitoras cticos podem referir-se ao exerccio resolvido ??.
A simplicidade do exemplo anterior deve-se ao fato de que D uma matriz
diagonal, isto , as entradas fora de sua diagonal principal so todas iguais a zero.
Em geral, as potncias de uma matriz no so dadas por uma frmula to simples
como (8.1). Em particular, as potncias de uma matriz no podem ser calculadas
entrada por entrada, isto , se A = [aij ], ento, em geral, no vale Ak = [akij ].
175
Exemplo 8.2
8
5
Calcule a k-sima potncia A da matriz A =
.
10 7
k
P (P 1 AP )P 1 = P DP 1
IAI = P DP 1
A = P DP 1 (8.4)
P 1 AP = P 1 (P DP 1 )P
P 1 AP = IDI
P 1 AP = D. (8.5)
e, analogamente,
A = P DP 1
1
1
1
PD
P
P D
P
P D D
P
P DP 1
| {z }
I
| {z }
I
| {z }
I
= P |DD{z
D} P 1 = P Dk P 1 . (8.6)
k vezes
176
8.1
Autovalores e autovetores
177
isto , a equao
1
1
= 32 no satisfeita para valor algum de .
USAR O EXEMPLO ANTERIOR PARA MOTIVAR A DISCUSSAO GEOMETRICA DE AUTOVALORES E AUTOVETORES DE OPERADORES. !!!
ALGO ASSIM: Pensando em A como um operador linear em R2 , o efeito de A
sobre v1 simplesmente uma dilatao pelo fator 3. O efeito sobre v2 de
dilatao pelo fator 2, seguida de uma reflexo com respeito origem (ou seja,
uma reverso no sentido do vetor, mas preservando sua direo). Por outro
lado, o operador A no preserva a direo do vetor u, isto , o vetor Au no
colinear a u.
COLOCAR UMA FIGURA mostrando as aes de A sobre v1 , v2 e u.
Exemplo 8.5
Seja A a matriz 2 2 do exemplo 8.2. Encontre todos os autovetores de A
associados ao autovalor 1 = 3.
Soluo: Queremos achar todas as solues de Ax = 3x, com x 6= 0. A equao
vetorial Ax = 3x simplesmente um sistema linear. De fato, temos
Ax = 3x Ax 3x = 0 Ax 3I2 x = 0 (A 3I2 )x = 0,
(8.11)
10 10 0
0 0 0
0 0 0
Assim, o sistema (A 3I2 )x = 0 equivalente a x1 + x2 = 0. A descrio vetorial
paramtrica de seu conjunto-soluo
x1
x2
1
x=
=
= x2
.
(8.12)
x2
x2
1
Isso mostra que os autovetores
de A associados a 1 = 3 so os mltiplos no
nulos do vetor u1 = 11 , ou seja, so os vetores da forma (8.12), com x2 6= 0.
Observe que o autovetor v1 = 11 do exemplo 8.4 corresponde a x2 = 1.
Observao 8.6
A equao Av = v da definio 8.3 equivalente a (A In )v = 0n , onde In
a matriz identidade n n e 0n o vetor zero de Rn . Para provar a equivalncia,
basta generalizar o argumento em (8.11):
Av = v Av v = 0n Av In v = 0n (A In )v = 0n .
178
Esse fato, apesar de simples, ser utilssimo. Note que, se fixarmos um escalar ,
e pensarmos no vetor v como uma incgnita, ento (A I)v = 0 torna-se
nada mais do que um sistema linear homogneo. Em particular, se for um
autovalor de A, ento os autovetores de A associados a sero precisamente as
solues no-triviais desse sistema.
Na definio 8.3, introduzimos simultaneamente os conceitos de autovetor e
de autovalor. Essa abordagem bastante clara (ou assim esperamos!), mas
importante compreender a seguinte reformulao, que um pouco mais sutil.
Definio 8.7 (Definio 8.3 reformulada)
Seja A uma matriz nn. Diremos que um vetor no-nulo v Rn um autovetor
de A se existir um escalar tal que Av = v. Similarmente, diremos que um
escalar um autovalor de A se existir um vetor v 6= 0 tal que Av = v.
Exemplo 8.8
Determine se = 2 um autovalor da matriz A do exemplo 8.2.
Soluo: Conforme a definio 8.7, = 2 ser um autovalor de A se existir um
vetor no-nulo v tal que Av = 2v. Pela observao 8.6, essa equao equivalente
a (A 2I)v = 0. Assim, 2 ser um autovalor de A se e somente se esse sistema
tiver solues no-triviais. Sua matriz de coeficientes dada por
8
5
1 0
82
5
6
5
A 2I =
2
=
=
.
10 7
0 1
10 7 2
10 9
Voc deve verificar que ambas as colunas dessa matriz so colunas-piv. Pela
proposio 3.3, o sistema (A 2I)v = 0 possui unicamente a soluo trivial
v = 0. Dessa maneira, = 2 no um autovalor de A.
A proposio a seguir generaliza esse exemplo e ser crucial na prxima seo.
Proposio 8.9
Seja A uma matriz n n. Um escalar ser um autovalor de A se e somente se
a matriz A I for no-invertvel.
Demonstrao: Por definio, o escalar ser um autovalor de A se existir um
vetor no-nulo v tal que Av = v. Pela observao 8.6, essa equao equivalente
a (A I)v = 0. Assim, ser um autovalor de A se o sistema homogneo
(A I)v = 0 tiver solues no-triviais. De acordo com a teoria do captulo 5,
isso ocorrer se e somente se a matriz A I no for invertvel.
O corolrio abaixo obtido ao considerar-se o caso = 0 na proposio.
Corolrio 8.10
Seja A uma matriz n n. O escalar zero ser um autovalor de A se e somente
se a matriz A for no-invertvel.
Enfatizamos que, por definio, um autovetor de A necessariamente um
vetor no-nulo. O escalar zero, por outro lado, pode ser autovalor de uma matriz,
conforme o corolrio acima.
Jones Colombo e Jos Koiller (texto em preparao)
179
Observao 8.11
Note que s faz sentido definir autovalores e autovetores de matrizes quadradas.
De fato, suponha que A seja uma matriz n m, e considere a equao Av = v.
Para que o produto Av esteja definido, necessrio que o vetor v pertena a Rm .
Sendo assim, a equao Av = v representa a igualdade entre o vetor Av de Rn
e o vetor v de Rm , o que s faz sentido se n for igual a m.
8.2
O polinmio caracterstico
8
5
Encontre todos os autovalores da matriz A =
do exemplo 8.2.
10 7
Soluo: Vamos calcular det(A xI):
det(A xI) = det
8
5
1 0
8x
5
x
= det
=
10 7
0 1
10 7 x
= (8 x) (7 x) 5 (10) = x2 x 6.
180
7
1 4
0 1
2
B=
0
0
0
0
0
0
0
3
.
1
7
7
1 4 0
x 0
0 1
2 3 0 x
0
0
0 1 0 0
0
0
0 7
0 0
por
0
0
x
0
0
7x
1
4
0
0
1 x
2
3
= 0
.
0 0
0
x
1
x
0
0
0 7x
181
6 16
6 4 1
6 62 4 13
=
=
= 3 2 1.
=
2
2
2
Assim, as razes de pC (x) so os nmeros complexos conjugados 1 = 3 + 2i e
2 = 3 2i, onde i representa a unidade imaginria. Na seo ??, estudaremos
mais a fundo matrizes com autovalores complexos. Por ora, basta constatar que
a matriz C no tem autovalores reais. A matriz C tampouco possui autovetores
em R2 . De fato, se C possusse um autovetor v R2 , ento teria que existir
algum autovalor (real) associado a v.
Recorde que o polinmio caracterstico de uma matriz n n um polinmio
de grau n, e que suas razes so os autovalores da matriz em questo. Assim,
uma matriz de tamanho n n ter exatamente n autovalores, se contarmos os
autovalores complexos e as multiplicidades. Isso decorre do teorema fundamental
da lgebra, que diz que todo polinmio de grau n tem exatamente n razes (se
contarmos as multiplicidades e as razes complexas).
Achar as razes de um polinmio de grau n no uma tarefa fcil, em geral.
O caso n = 1 muito simples, e temos a frmula de Bskara para o caso n = 2.
Existem ainda frmulas para os casos n = 3 e n = 4, mas elas no so to
simples. Em contrapartida, no existem frmulas gerais para determinar as razes
de polinmios de grau maior que ou igual a cinco.3
Na prtica, os autovalores de matrizes grandes so determinados aproximadamente, por meio de mtodos computacionais.4 Em certos casos especiais, no
entanto, possvel determinar com exatido os autovalores de uma matriz de
tamanho arbitrrio. Um exemplo o caso das matrizes triangulares, conforme a
proposio 8.15.
O teorema a seguir ser importante na seo 8.4, e d mais uma pista a
respeito do truque empregado na introduo deste captulo. Recorde a definio 7.11: duas matrizes quadradas A e B so ditas semelhantes se existe uma
matriz invertvel P tal que B = P 1 AP .
3
182
8.3. Autoespaos
Teorema 8.17
Se A e B forem matrizes n n semelhantes, ento elas tero o mesmo polinmio
caracterstico. Consequentemente, as matrizes A e B tero os mesmos autovalores, com as mesmas multiplicidades.
Demonstrao: Seja P uma matriz invertvel tal que B = P 1 AP . Ento
1
1
B xI = |P 1
{zAP} x |P {zP} = P (A xI)P.
B
8.3
Autoespaos
5
7
do exemplo 8.2.
183
5
0
10
5
=
7 + 2 0
10 5
10 5
`2 `2 +`1
0 0
0
0
0 `1 101 `1 1 1/2 0
.
0
0 0 0
(8.13)
1/2
Isso mostra que o conjunto {u2 } =
uma base de E(A, 2 ). Observe
1
1
que o autovetor v2 = 2 do exemplo 8.4 igual a 2u2 , ou seja, v2 corresponde
escolha x2 = 2 na equao (8.13).
Resta apenas determinar a dimenso de E(A, 1 ) e de E(A, 2 ). Ora, cada
um desses subespaos possui uma base contendo apenas um vetor, portanto cada
um deles tem dimenso igual a 1.
Exemplo 8.20
Seja
4 1 2
0 .
A= 0 5
1 1
3
Sabendo que = 5 um autovalor de A, encontre uma base do autoespao
E(A, ) e determine a sua dimenso.
Soluo: Vamos resolver o sistema homogneo (A I)x = 0, onde = 5. Para
5
184
8.3. Autoespaos
5
1
2
1
1
2
0
0
A I 0 = 0
0 = 0 0
55
0
0 0
1
1
35 0
1 1 2 0
1 1
2 0
1 1 2 0
`1 `1
` `3 `1
0
0 0 3
0 0 0 .
0
0
1
1 2 0
0
0 0 0
O sistema proposto equivale, portanto, equao x1 x2 + 2x3 = 0 (as variveis
livres so x2 e x3 ). O conjunto-soluo descrito por
x1
2
x2 2x3
1
x = x2 = x2 = x2 1 + x3 0 .
(8.14)
x3
1
x3
0
| {z }
|{z}
v1
v2
Pela teoria da subseo 4.5.1, os vetores v1 e v2 indicados acima compem uma
base de E(A, ) = Nuc(A 5I). Como a base {v1 , v2 } possui dois elementos, a
dimenso de E(A, ) igual a 2 (em smbolos, dim E(A, ) = 2).
Botar aqui algum BLAH BLAH BLAH !!! TALVEZ DIZER INCLUSIVE
QUE UM OPERADOR AGE DE FORMA MUITO SIMPLES SOBRE OS
AUTOESPAOS E COLOCAR UMA FIGURA.
Os resultados a seguir sero teis na seo 8.4. Recomendamos a leitura
cuidadosa dos enunciados. As demonstraes podem parecer um pouco abstratas,
portanto so relegadas ao final do captulo, como leitura opcional.
Teorema 8.21
Seja A uma matriz quadrada. Para cada autovalor de A, a dimenso do autoespao E(A, ) menor que ou igual multiplicidade algbrica de .
Lembre-se de que a multiplicidade algbrica de um autovalor de A a sua
multiplicidade enquanto raiz do polinmio caracterstico de A. A dimenso do
autoespao associado a chamada de multiplicidade geomtrica de . O
teorema acima diz que a multiplicidade geomtrica de um autovalor sempre
menor que ou igual sua multiplicidade algbrica. Em smbolos, isso se expressa
como dim E(A, ) 6 n , onde n representa a multiplicidade algbrica de .
BOTAR UM EXEMPLO EM QUE VALE A DESIGUALDADE ESTRITA???
MENCIONAR TB QUE 1 6 dim E(A, ). SINTETIZAR A DISCUSSO NUMA
OBSERVAO QUE DIZ 1 6 dim E(A, ) 6 n .
DIZER ALGO TO THE EFFECT QUE AGORA ESTUDAREMOS UM
POUCO A RELAO ENTRE AUTOESPAOS DISTINTOS. ELES SO, EM
CERTO SENTIDO, INDEPENDENTES. ???
Teorema 8.22
Sejam 1 , 2 , . . . , m autovalores distintos de uma matriz quadrada A e sejam
v1 , v2 , . . . , vm autovetores a eles associados, respectivamente. Nessas condies,
o conjunto {v1 , v2 , . . . , vm } linearmente independente.
Jones Colombo e Jos Koiller (texto em preparao)
185
{z
vetores de B1
} |
{z
vetores de B2
... ,
{z
vetores de Bm
o
,
(8.15)
, ainda, linearmente independente, desde que os autovalores k sejam distintos.
Exemplos de aplicao do corolrio 8.23 surgiro naturalmente na seo 8.4
(veja, em particular, os exemplos ?? e ???).
REFERENCIA SEO 8.4 EST REPETITIVA.
- Em um aparte, dizer que autoespaos distintos esto em soma direta/so
independentes (terminologia do Elon/do Halmos ??? (conferir)).
PASSAR ESSAS PROVAS PARA O FINAL: !!! ???
Demonstrao do corolrio 8.23: Vamos usar a notao introduzida logo aps o
enunciado do corolrio, isto , vamos denotar os vetores da base Bk de E(A, k )
por v1k , . . . , vpkk , de forma que
B1 B2 Bm = {v11 , v21 , . . . , vp11 , v12 , v22 , . . . , vp22 , . . . , v1m , v2m , . . . , vpmm },
conforme a equao (8.15). Considere a relao
u1
u2
z
}|
{ z
}|
{
1 1
1 1
1
1
2 2
2 2
2
2
x1 v 1 + x2 v 2 + + xp 1 v p 1 + x1 v 1 + x2 v 2 + + xp 2 v p 2 + +
m m
m m
m
+ xm
1 v1 + x2 v2 + + xpm vpm = 0. (8.16)
|
{z
}
um
Repare, ento, que o nmero pk de vetores em Bk denota a dimenso do autoespao E(A, k ), ou seja, pk a multiplicidade geomtrica de k .
7
Recorde a definio 3.14 e o teorema 3.21. Veja, em particular, a afirmativa (d) do teorema.
186
8.3. Autoespaos
Para cada k = 1, . . . , m, vamos denotar o vetor xk1 v1k + + xkpk vpkk por uk ,
como indicado na relao (8.16). Assim, podemos reescrever essa relao como
u1 + u2 + + um = 0.
(8.17)
(8.18)
(8.20)
Sob as hipteses do teorema, chegaremos a uma contradio, isto , a uma impossibilidade lgica. Isso provar o resultado desejado. Este tipo de argumento chama-se prova por
contradio ou reduo ao absurdo e pode parecer, primeira vista, um pouco anti-intuitivo.
9
Isso significa, em outras palavras, que podemos reordenar os vetores do conjunto G =
{v1 , . . . , vm } de maneira que os primeiros p vetores componham uma base para o subespao V
gerado por todos os m vetores. Note que p representa a dimenso de V .
187
(8.21)
8.4
Diagonalizao de operadores
(8.22)
10
188
1 0
0 2
D = ..
..
.
.
0 0
..
.
0
0
.. ,
.
(8.23)
1 0 0
0 2 0
P D = v1 v2 vn ..
.. . .
.. = 1 v1 2 v2 n vn .
.
. .
.
0 0 n
(8.25)
Vamos, agora, provar que a afirmativa (a) implica (b). Por hiptese, vale
A = P DP 1 . Multiplicando ambos os lados desta igualdade, direita, por P ,
obtemos AP = P D. Usando (8.24) e (8.25), esta relao se escreve na forma
Av1 Av2 Avn = 1 v1 2 v2 n vn .
(8.26)
Jones Colombo e Jos Koiller (texto em preparao)
189
Av2 = 2 v2 ,
...
Avn = n vn .
(8.27)
4 1 2
0
A= 0 5
1 1
3
(8.28)
do exemplo 8.20. O roteiro dado abaixo, no entanto, geral, isto , pode ser
aplicado a uma matriz n n qualquer.
Passo 1: Determine os autovalores da matriz A.
O teorema 8.12 diz que os autovalores de A so as razes de seu polinmio
caracterstico (reveja os exemplos 8.13 e 8.14). Como observamos na seo 8.2,
no fcil, em geral, achar as razes de um polinmio de grau maior que 2. Nos
exerccios deste texto, as matrizes de tamanho maior do que 22 sero especiais
(triangulares, por exemplo) ou, ento, seus autovalores sero dados.
190
4x
1
2
5x
0 =
pA (x) = det(A xI) = det 0
1
1
3x
= (5 x) (4 x)(3 x) (2)(1) = (x 5)(x2 7x + 10).
Utilizamos, acima, a expanso de Laplace do determinante11 com respeito segunda linha de A xI. Verifique que x2 7x + 10 = (x 5)(x 2), de modo que
o polinmio caracterstico de A pode ser escrito na forma
pA (x) = (x 5)2 (x 2).
Os autovalores da matriz A so as razes desse polinmio, ou seja, so:
1 = 5
2 = 2.
42
1
2
0
2 1 2 0
0 = 0 3
52
0
0 0 .
A 2I 0 = 0
1
1
32 0
1 1
1 0
Verifique, via escalonamento, que o conjunto-soluo do sistema (A 2I)x = 0
descrito por
x1
x3
1
x = x2 = 0 = x3 0 .
x3
x3
1
|{z}
v3
Assim, obtemos uma base de E(A, 2 ) dada por B2 = {v3 }, onde v3 o vetor
indicado acima.
11
191
1 2 1
0 0 .
P = v1 v2 v3 = 1
0
1 1
A ordem em que escrevemos os autovetores , neste momento, irrelevante. Note
que P uma matriz invertvel, pois P quadrada e suas colunas so linearmente
independentes, como observamos no passo 3.
Em seguida, escrevemos a matriz diagonal D, conforme a equao (8.23).
fundamental, agora, que a ordem (e a multiplicidade) dos autovalores na diagonal
de D seja condizente com a ordem adotada para as colunas de P , como estabelece
o teorema 8.25. Lembre, do passo 2, que as duas primeiras colunas de P so
autovetores associados ao autovalor 1 = 5. A terceira coluna de P um autovetor
associado a 2 = 2. Assim, temos
1 0 0
5 0 0
D = 0 1 0 = 0 5 0 .
0 0 2
0 0 2
192
17 30
Diagonalize a matriz B =
, se possvel.
9 16
Soluo: Vamos seguir o roteiro dado acima.
Passo 1 : achar os autovalores de B. O polinmio caracterstico de B
17 x
30
pB (x) = det(B xI) = det
=
9
16 x
= (17 x) (16 x) (30) (9) = x2 x 2 = (x 2)(x + 1).
Os autovalores de B so as razes de pB (x), ou seja, so:
1 = 2
2 = 1.
.
9
16 2 0
9 18 0
0
0 0
Dessa maneira, o conjunto-soluo do sistema (B 2I)x = 0 descrito por
x1
2x2
2
x=
=
= x2
,
x2
x2
1
Jones Colombo e Jos Koiller (texto em preparao)
193
e, portanto, {v1 } = 21 uma base de E(B, 1 ).
Para obter uma base de E(B, 2 ) = Nuc(B 2 I) = Nuc(B + I), resolvemos
o sistema (B + I)x = 0. Verifique, via escalonamento, que seu conjunto-soluo
descrito por
5
x2
5/3
x1
3
= x2
.
x=
=
x2
1
x2
Considerando x2
= 3, para evitar fraes, encontramos uma base de E(B, 2 )
dada por {v2 } = 53 .
Passo 3 : determinar se a matriz B diagonalizvel. O conjunto {v1 , v2 }
linearmente independente e, evidentemente, possui dois elementos. Dessa forma,
esse conjunto uma base de R2 composta por autovetores de B. Pela observao 8.26, a matriz B diagonalizvel.
A independncia linear do conjunto {v1 , v2 }, a propsito, uma consequncia
imediata do teorema 8.22, j que v1 e v2 so autovetores de A associados a
autovalores distintos.
Passo 4 : escrever matrizes P e D tais que B = P DP 1 . Mais uma vez, basta
usar as equaes (8.22) e (8.23). Escrevemos, primeiro, a matriz P , usando os
autovetores v1 e v2 obtidos no passo 2:
2 5
P = v 1 v2 =
.
1 3
Em seguida, escrevemos a matriz diagonal D, usando os autovalores correspondentes s colunas de P :
1 0
2
0
D=
=
.
0 2
0 1
Isso termina o processo de diagonalizao: o teorema 8.25 garante que vale a
relao de semelhana B = P DP 1 .
COLOCAR AQUI UM OU DOIS EXEMPLOS DE MATRIZES NO DIAGONALIZVEIS. !!!
O teorema 8.25 forneceu uma caracterizao de matrizes diagonalizveis, que
foi sintetizada na observao 8.26. O teorema a seguir , essencialmente, uma
reformulao dessa caracterizao. Esta reformulao pode parecer um pouco
abstrata, mas til em determinadas circunstncias, e aprofunda o nosso conhecimento sobre a estrutura de operadores diagonalizveis.
Teorema 8.30
Uma matriz n n ser diagonalizvel se, e somente se, a soma das dimenses de
seus autoespaos distintos for igual a n.
Recorde que, para cada autovalor de uma matriz A, vale 1 6 dim E(A, ) 6
n , onde n representa a multiplicidade algbrica de . Desta observao e do
teorema acima, segue o seguinte resultado.
194
Corolrio 8.31
Se uma matriz n n tiver n autovalores reais e distintos, ento ela ser diagonalizvel.
ELABORAR OS ENUNCIADOS ACIMA UM POUCO??? E PROV-LOS!!!
DAR EXEMPLOS!!!
8.5
Classificaao de matrizes 2 2
8.6
Exerccios resolvidos
R8.1.
teste
Exerccios propostos
P8.1.
P8.2.
P8.3.
195
196
Captulo 9
Produto Interno, Projees e
Operadores Ortogonais
9.1
Introduo
At o momento tratamos de diversos conceitos do Rn , sem abordar os conceitos de norma de vetor e de ngulo entre vetores e suas consequncias diretas, as
quais so a distncia entre pontos e a ideia de perpendicularidade. Para abordar
esses conceitos, precisamos definir o conceito de produto escalar. Aproveitando o
momento, vamos introduzir um conceito mais geral, que o de produto interno.
O produto interno nos permitir estender as noes de distncia e perpendicularidade a outros espaos vetoriais diferentes do Rn .
Introduzindo o conceito de produto interno, podemos mostrar que o produto
escalar do Rn um exemplo de produto interno. Por simplicidade, bom imaginar
que, pelo menos no princpio, quando falamos de produto interno, nos referimos
ao produto escalar do Rn .
9.2
Produto Interno
Exemplo 9.3
Considere os vetores u, v Rn . Digamos que
y1
x1
x2
y2
u = .. , v = .. defina hu, vi = x1 y1 + x2 y2 + + xn yn .
.
.
xn
yn
Verifique que a funo assim definida satisfaz s propriedades exigidas de um
produto interno, como fizemos para o caso do produto escalar no plano.
Gostaria de frisar que, para o melhor entendimento, no primeiro momento
interessante quando ler que Rn um espao vetorial munido de um produto
interno, imaginar que o produto interno o produto escalar.
Vamos deduzir algumas propriedades que devem valer para qualquer produto
interno. Para fazer isto s usaremos propriedades que constam na definio. Em
particular, devem valer para o produto escalar.
O produto interno pode ser generalizado para vetores de Cn , mas para fazer isso, precisamos
substituir a propriedade I2 por hu, vi = hv, ui, onde a barra denota a conjugao complexa.
Nesse texto faremos apenas a teoria para espaos vetoriais reais.
1
198
z1
1
hu + v, wi = xx12 +y
+y2 , [ z2 ]
= 2(x1 + y1 )z1 (x1 + y1 )z2 (x2 + y2 )z1 + (x2 + y2 )z2
= 2x1 z1 x1 z2 x2 z1 + x2 z2 + (2y1 z1 y1 z2 y2 z1 + y2 z2 )
= h[ xx12 ] , [ zz12 ]i + h[ yy12 ] , [ zz12 ]i = hu, wi + hv, wi ,
e, portanto, a funo linear na primeira entrada. Vamos verificar ainda a
simetria
hu, vi = 2x1 y1 x1 y2 x2 y1 + x2 y2 = 2y1 x1 y1 x2 y2 x1 + y2 x2 = hv, ui .
E, por fim,
hu, ui = 2x21 x1 x2 x2 x1 + x22 = x21 + x21 x1 x2 x2 x1 + x22 = x21 + (x1 x2 )2 0.
A expresso x21 + (x1 x2 )2 = 0 se, e somente se, x1 = x2 = 0. Portanto,
essa funo satisfaz a todas as propriedades requeridas para que seja um produto
interno.
Jones Colombo e Jos Koiller (texto em preparao)
199
9.3
Normas
Lembramos que, no plano, para calcular o comprimento de um vetor u = xx12 ,
p
basta calcular x21 + x22 . Isso se d pela aplicao do teorema de Pitgoras.
Para certificar-se de que entendeu isso, veja a figura 9.3. Falar no comprimento
(ou norma) de um vetor equivalente a calcular a distncia da origem at as
coordenadas que definem o vetor.
u=
x1
x2
x2
x1
1
u.
kuk
Observe que o versor u0 tem norma igual a 1 e a mesma direo que o vetor u.
Esse processo tambm conhecido por normalizao do vetor u.
200
9.4. Ortogonalidade
Observao 9.6
Esta observao nos ser muito til no futuro. Sejam u e v dois vetores, ento:
ku + vk2 = hu + v, u + vi = hu, ui + hu, vi + hv, ui + hv, vi
= kuk2 + 2 hu, vi + kvk2 .
Exemplo 9.7 h i
1
Considere u = 32 R3 e o produto interno, o produto escalar. Logo a norma
u+
v
v
u
Figura 9.2: Desigualdade Triangular
Definio 9.9
Seja Rn com um produto interno h , i. A distncia entre u e v definida por
dist(u, v) = ku vk .
Exemplo 9.10
1
2
Considerando
R
e
o
produto
interno
o
usual,
calcule
a
distncia
entre
u
=
2
e v = 31 .
q
2 2
dist(u, v) =
21 31
=
= 13 unidades.
3 , 3
9.4
Ortogonalidade
201
9.4. Ortogonalidade
Dh i h 1 iE
1
1 ,
1
= 1 + 1 = 0,
1
Dh i h 1 iE
1
1 , 1
= 1 1 + 2 = 0
1
Dh 1 i h 1 iE
1 , 1
= 1 1 = 0. Portanto, esse conjunto ortogonal.
0
Observao 9.14
Teorema de Pitgoras: Sejam Rn com um produto interno e u e v dois vetores.
Ento, sabemos que
ku + vk2 = kuk2 + 2 hu, vi + kvk2 .
Se u v, temos que hu, vi = 0 e da
ku + vk2 = kuk2 + kvk2 ,
que o Teorema de Pitgoras para o caso vetorial.
9.4.1
Complemento Ortogonal
203
Exemplo 9.15n
h 1i
h 2 io
Considere F = u = 12 , v = 0
um subconjunto de R3 . Encontre F .
h x i1
Queremos determinar w = yz , tais que hw, ui = 0 e, tambm, hw, vi = 0.
Fazendo as contas, obtemos
(
(
y = 3/2 x
x + 2y z = 0
z = 2x.
2x + z = 0
nh x i
o
nh 1 io
3/2 x : x R = Span
3/2
Portanto, F =
.
2x
Teorema 9.16
Seja F um subconjunto do Rn , o qual est munido de um produto interno, ento
F um subespao vetorial de Rn .
Demonstrao: Veja o exerccio r9.4.
9.5
Projees Ortogonais
O objetivo discutir como definir operadores lineares que projetam ortogonalmente um vetor sobre um subespao vetorial W do Rn .
Inicialmente, considere o vetor unitrio v e outro vetor u qualquer do Rn .
Chamamos o vetor hu, vi v de projeo ortogonal de u sobre v. Veja a figura 9.4.
iv
,v
hu
v
hu,
iv
v.
Denotamos a projeo ortogonal de u sobre v por projv (u) = hu,vi
hv,vi
Observe ainda que a norma do vetor v indiferente para o resultado. Por
isso, mais interessante considerarmos o subespao vetorial gerado por v, isto ,
W = Span {v}, e definirmos
projW (u) =
hu, vi
v, onde 0 6= v W.
hv, vi
1 x
, y
x + ay
hv, ui
=
a1 1 =
.
=
hv, vi
1 + a2
a , a
Portanto, se definirmos P : R2 R2 por u 7 projv (u) = v, este operador
ter a seguinte expresso:
#
" 1
a
x
+
2
2
x
1+a
1+a2 y .
7
a
a
y
y
x + 1+a
2
1+a2
y
u
v
pro
jvu
a
y=
205
2 projv u = u + Su
Su
ax
9.5.1
a
1
x + 1+a
2
1+a2
y
a2
a
x + 1+a2 y
1+a2
#
2
2a
1a
x + 1+a2 y
x
1+a2
2 .
=
a 1
2a
y
x
+
y
2
2
1+a
1+a
Desigualdade de Cauchy-Schwarz
9.5.2
O processo de Gram-Schmidt um procedimento que inicia com um conjunto LI {v1 , v2 , . . . , vs } de vetores de Rn e retorna um conjunto ortonormal
{u1 , u2 , . . . , us }, com a seguinte propriedade: para cada k, com 1 k s, os
vetores u1 ,u2 ,. . . , uk pertencem ao subespao vetorial Span {v1 , v2 , . . . , vk }.
Para entender o processo de ortogonalizao de Gram-Schmidt, vamos voltar
a nossa discusso de como obter a projeo ortogonal de um vetor u sobre um
subespao vetorial W , de dimenso dois, do Rn . Como estamos interessados
em encontrar uma frmula para a projeo ortogonal de um vetor u sobre W ,
considere v, w W , tal que W = Span {v, w}. Lembrando que j sabemos
calcular projv u e projw u. Ento, certamente existem e R, tais que o
b = projv u + projw u a projeo ortogonal de u sobre W . Precisamos
vetor u
b ) v deve acontecer, temos:
determinar e . Como sabemos que (u u
b ) , vi = hu ( projv u + projw u) , vi
h(u u
= hu, vi hprojv u, vi hprojw u, vi
hu, wi
hu, vi
hv, vi
hw, vi
= hu, vi
hv, vi
hw, wi
hu, wi hw, vi
= hu, vi hu, vi
= 0.
hw, wi
b ) w deve acontecer, obtemos que:
E, como tambm (u u
b ) , wi = hu ( projv u + projw u) , wi
h(u u
hu, vi hv, wi
= hu, wi
hu, wi = 0.
hv, vi
pro jv (u) v
(u)
j
w
ro
p
w
b
u
207
pro jv (u)
pr
w
)
(u
b
j
w
o
b = projv u + projwb u
u
b
w
!
k
0
X
v
,
v
k
j
vs0 = vs
!
s
X
vs , vj0 0
1
1 0
v1 , . . . , us = 0 vs0 .
0
kv1 k
kvs k
Exemplo 9.19
n
h i
h i
1
0
Seja o R3 com o produto escalar, considere a seguinte base v1 = 1 , v2 = 2 ,
1
1
h io
0
3
v3 = 0
do R e aplique o processo de ortonormalizao de Gram-Schmidt,
3
208
Dh
i
h
iE
1 = 2
1 =
1
v2 = v2 0 0 v1 = 2
1
1
hv1 , v1 i
3
1 , 1
1
1
1
1
0
1
1
hv3 , v10 i 0 hv3 , v20 i 0
v +
v
v30 = v3
hv10 , v10 i 1 hv20 , v20 i 2
Dh i h 1 iE
Dh 0 i h 1 iE
0
0
1
1
0 , 1
0 ,
1
3
1
3
0
iE 1
= 0 Dh 1 i h 1 iE 1 + Dh 1 i h 1
1 , 1
1 ,
1
3
1
0
1
1
0
0
1
0
1
1
3
1
0
1
=
0
= 1 .
3
1
3
0
2
Normalizando, temos:
1
1
1
1
1
1
1 0
1 e u3 = 1 ,
u1 = 0 v1 = 1 ; u2 =
kv1 k
3 1
2
6
0
2
a qual uma base ortonormal do R3 .
Observao 9.20
Como consequncia do processo de ortonormalizao de Gram-Schmidt, temos
que todo espao vetorial de dimenso finita, munido de um produto interno,
admite uma base ortonormal. De fato, seja {v1 , v2 , . . . , vn } uma base qualquer de
Rn , aplicando o processo de Gram-Schmidt, obtemos {u1 , u2 , . . . , un } ortonormal,
que gera Rn . Pelo teorema 9.12, sabemos que {u1 , u2 , . . . , un } LI e, portanto,
ele uma base de Rn .
Observao 9.21
Uma outra consequncia do conceito de projeo ortogonal que o mesmo minimiza a distncia de um vetor u Rn a um subespao vetorial W Rn . Para
b = projW (u), isto , u
b a
compreender bem esta propriedade, suponha que u
projeo ortogonal de u sobre o subespao vetorial W . Vamos mostrar que
b k ku vk , para todo v W.
ku u
b v W e (b
b ), mas pelo
Seja v um vetor qualquer de W , ento u
u v) (u u
teorema de Pitgoras, para espaos vetoriais,
b+u
b vk2 = ku u
b k2 + kb
ku vk2 = ku u
u vk2 .
b k, para todo v W .
Portanto, ku vk ku u
Essa propriedade possui numerosas aplicaes, tais como o Mtodo dos Mnimos Quadrados ou Regresso linear, quadrtica ou Regresso exponencial, como conhecido na Estatstica.
Jones Colombo e Jos Koiller (texto em preparao)
209
9.6
x1 x2 x3
x1 y1 z1
hu1 , u1 i hu1 , u2 i hu1 , u3 i
At A = y1 y2 y3 x2 y2 z2 = hu2 , u1 i hu2 , u2 i hu2 , u3 i .
z1 z2 z3
x3 y3 z3
hu3 , u1 i hu3 , u2 i hu3 , u3 i
E, usando que {u1 , u2 , u3 } uma base ortonormal, teremos que At A = I (veja
definio 9.11).
Definio 9.22
Dizemos que uma matriz quadrada A uma matriz ortogonal se At A = I.
Exemplo 9.23
De acordo com o exemplo 9.19, o conjunto
1
1
1
1
1
1
1 , u3 = 1
u1 = 1 , u2 =
3 1
2
6
0
2
uma base ortonormal e, portanto, a matriz
13 1 2
A = 13 1 2
1 3
0
16
1 6
2 6
ortogonal.
Teorema 9.24
Seja h , i um produto interno em Rn , considere e , duas bases ortonormais em
Rn . Ento a matriz de mudana de coordenadas [I] uma matriz ortogonal.
Demonstrao: Vamos fazer a demonstrao para o caso em que n = 3. Acreditamos que voc ser capaz de dar uma prova para o caso geral. Sejam =
{u1 , u2 , u3 } e = {v1 , v2 , v3 } duas bases ortonormais de R3 . Para achar a matriz [I] , precisamos encontrar as coordenadas dos vetores da base com respeito
base . Digamos que
u1 = a11 v1 + a21 v2 + a31 v3
u2 = a12 v1 + a22 v2 + a32 v3
u3 = a13 v1 + a23 v2 + a33 v3 .
210
A matriz fica:
Queremos ver que essa matriz ortogonal. Para isso, observe que, como e
so ortonormais, obtemos:
1 = hui , ui i = ha1i v1 + a2i v2 + a3i v3 , a1i v1 + a2i v2 + a3i v3 i
= a21i + a22i + a23i ,
e, tambm, se i 6= j, temos:
0 = hui , uj i = ha1i v1 + a2i v2 + a3i v3 , a1j v1 + a2j v2 + a3j v3 i
= a1i a1j + a2i a2j + a3i a3j .
Isso mostra que [I] ortogonal.
Vamos definir agora os operadores ortogonais que esto conectados com as
matrizes ortogonais
Definio 9.25
Sejam h , i um produto interno de Rn e T : Rn Rn um operador linear, se a
matriz [T ] , com respeito a alguma base ortonormal , for ortogonal, dizemos
que T um operador ortogonal.
Exemplo 9.26
Quando tratamos de rotaes de um ngulo em torno da origem, ao calcular a
matriz deste operador linear em termos da base cannica, obtivemos, no exemplo
5.8, a matriz
cos sen
A=
.
sen
cos
cos
sen
Agora, se temos os vetores u =
,v=
, obtidos por tomar as
cos
sen
colunas da matriz A, veremos que hu, ui = cos2 + sen2 = 1 = hv, vi. Alm
disso, hu, vi = 0, e {u, v} uma base ortonormal. Portanto, A uma matriz
ortogonal.
Teorema 9.27
Sejam h , i um produto interno em Rn e T : Rn Rn um operador linear, ento
as seguintes condies so equivalentes:
(1) T um operador ortogonal;
(2) A matriz de T com respeito a qualquer base ortonormal ortogonal;
(3) hT (u), T (v)i = hu, vi ,
u e v V.
211
Exerccios resolvidos
Prove o teorema 9.12: Seja h, i um produto interno em Rn . Se X um
conjunto ortogonal formado por vetores no nulos, ento X LI.
R9.1.
R9.2.
u e v V.
n
X
i=1
212
aij vi e T (vk ) =
n
X
ark vr , com j, k = 1, . . . , n.
r=1
Exerccios
E temos
hT (vj ), T (vk )i =
=
* n
X
aij vi ,
n X
n
X
n
X
+
ark vr
r=1
i=1
i=1 r=1
n
X
i=1
= jk
= hvj , vk i
E hT (vj ), T (vk )i = hvj , vk i e a propriedade vlida para os vetores da base
inicial. Mas P
ento, se u e v so
P vetores quaisquer de V , ento podemos
escrever u = nj=1 xj vj e v = nk=1 xk vk , logo,
* n
+
n
X
X
hT (u), T (v)i =
yk T (vk )
xj T (vj ),
=
=
j=1
n
n
XX
j=1 k=1
n X
n
X
j=1 k=1
* n
X
k=1
xj yk hT (vj ), T (vk )i
xj yk hvj , vk i
xj v j ,
j=1
n
X
+
yk vk
k=1
= hu, vi .
n
X
aij vi e T (vk ) =
n
X
ark vr , com j, k = 1, . . . , n.
r=1
i=1
n
X
r=1
aij aik .
i=1
213
R9.3.
1+a
Como a hiptese do exerccio a = 1, segue que S xy = xy , e a matriz,
em relao base cannica,
1
0
0 1
A= S
S
=
.
0
1
1 0
R9.4.
Exerccios propostos
P9.1.
1
3
2
k
u=
k e v = 7
3
6
de R4 sejam ortogonais.
P9.2.
214
Exerccios
P9.3.
P9.4.
P9.5.
P9.6.
P9.7.
P9.8.
P9.9.
P9.10.
P9.11.
P9.12.
215
0 5
uma matriz ortogonal, onde A =
.
5 0
P9.13.
P9.14.
1
0
2
2
0 0 1 .
x y z
Considere em R3 a funo
h x2 ihu, vi = 8x1 x2 3x2 y1 3x1 y2 +
h x1 i dada por
2y1 y2 + 2z1 z2 , onde u = yz11 e v = yz22 .
P9.15.
P9.16.
3
(a) Determine m, de tal forma que os vetores [ 1+m
2 ] e [ m1 ] sejam ortogonais.
Mostre que uma transformao ortogonal do plano no plano deixa invariante a distncia entre dois pontos, isto , dados u e v, dois vetores
quaisquer,
kT u T vk = ku vk .
P9.17.
P9.18.
ou da forma
216
cos
sen
B=
( Reflexes ).
sen cos
Captulo 10
Cnicas, Matrizes Simtricas e
Formas Quadrticas
Nesse captulo vamos exibir dois mtodos de mudana de coordenadas. No
primeiro mtodo mostraremos um resultado mais forte, o qual nos fala que: para
toda equao do 2o grau, existe um sistema de coordenadas ortonormal no qual a
equao se escreve como uma das equaes padres das cnicas. Para demonstrar
esse resultado, introduziremos um tipo especial de operador linear, conhecido
como operador autoadjunto, e mostraremos que todo operador desse tipo possui
uma base ortonormal de autovetores.
O segundo mtodo dar-nos- um algoritmo que permite reduzir qualquer
forma quadrtica a uma forma diagonal, consistindo em uma tcnica til para
clculos em espaos de dimenso superior. Alm disso, essa tcnica usada para
classificar as formas bilineares simtricas. Ela tem o inconveniente, porm, de
gerar um sistema de coordenadas final que no ortogonal.
Ao final do captulo aplicaremos tais tcnicas para classificar as quadrticas
em duas variveis. Deve ficar claro que esse processo pode ser estendido para
equaes de segundo grau em mais de duas variveis.
Alm disso, neste captulo, ns iremos introduzir trs conceitos que esto relacionados: matrizes simtricas, formas bilineares simtricas e formas quadrticas.
No texto, apresentaremos as conexes entre eles, mas no nos aprofundaremos no
estudo das formas quadrticas e na classificao das formas bilineares. Gostaramos apenas de chamar a ateno para o fato de que esses dois conceitos oferecem
inmeras aplicaes em questes de otimizao e de tratamento de dados.
217
10.1
Cnicas
As cnicas, ou seces
cnicas, foram estudadas pelos gregos e desenvolvidas a partir de
suas propriedades geomtricas. Pouco se sabe
a respeito dos precursores do estudo das cnicas. Restaram apenas
os trabalhos de Apollonius de Perga (260-170
A. C.). Nesses trabalhos, no s foram compilados os resultados conhecidos na poca como
tambm apresentada de
forma sistemtica a deduo das propriedades
das cnicas.
y
P
F1
218
10.1. Cnicas
P0
F1
x
F2
ou
dist(P, F1 ) dist(P, F2 ) = 2a. (10.3)
10.1.1
Equao da Parbola
10.1.2
Equao da Elipse
219
10.1.3
Equao da Hiprbole
10.1.4
a
a
e x = , respectivamente. A circunferncia no tem diretriz.
e
e
Observao 10.2
Se tivermos
na elipse ou nahiprbole b > a > 0, a distncia focal ser, respectivamente, c = b2 a2 , c = a2 + b2 . Devemos escolher o sistema de coordenadas
de maneira que os focos tenham coordenadas F1 = [ c0 ] e F2 = [ 0c ] e, nesse caso,
as diretrizes sero y = eb .
As cnicas possuem um invariante que nos permite defini-las mais sinteticamente e nos oferece uma outra viso sobre a natureza delas. Para esclarecer
melhor isso, introduziremos a noo de excentricidade e, que , por definio,
e = ac .
Segue da definio de excentricidade que, se a cnica for uma elipse, ento,
0 e < 1 (na circunferncia, e = 0); e se for uma hiprbole, ento e > 1, e se for
uma parbola, ento, e = 1.
Proposio 10.3
Fixe um ponto F (Foco), uma linha ` (a diretriz), que no contenha F , e escolha um nmero Real positivo e (a excentricidade). Considere que os pontos P
satisfaam
dist(P, F ) = e dist(P, `).
Mostre que: a) se 0 < e < 1, obtemos uma elipse; b) se e = 1, obtemos uma
parbola; c) se e > 1, obtemos uma hiprbole.
Demonstrao: veja o exerccio r10.1 e figura 10.1.4 que ilustra a propriedade.
220
y
e=2
e=2
e=1
F
e=
1
2
10.2
Operadores Autoadjuntos
[T ] =
4 7
simtrica e, portanto, esse operador um operador autoadjunto.
Teorema 10.4
Sejam h , i um produto interno em Rn e T : Rn Rn um operador linear. Ento,
T um operador autoadjunto se, e somente se,
hT u, vi = hu, T vi , para todo u, v Rn .
Demonstrao: veja o exerccio r10.2
Vamos verificar tal propriedade com a transformao T : R2 R2 definida
acima e com o produto interno usual do R2 . Considere u = [ xx12 ] e v = [ yy12 ] ento,
1 +4x2 y1
hT u, vi = 3x
4x1 7x2 , [ y2 ]
= 3x1 y1 + 4x2 y1 + 4x1 y2 7x2 y2
= 3x1 y1 + 4x1 y2 + 4x2 y1 7x2 y2
= x1 (3y1 + 4y2 ) + x2 (4y1 7y2 )
1 +4y2
= [ xx12 ] , 3y
= hu, T vi .
4y1 7y2
Jones Colombo e Jos Koiller (texto em preparao)
221
Corolrio 10.5
Suponha que T : Rn Rn seja um operador autoadjunto; ento a matriz de T
ser simtrica com respeito a qualquer base ortonormal.
Proposio 10.6
Seja h , i um produto interno em Rn . Se T : Rn Rn um operador autoadjunto
ento:
a) autovetores correspondentes a autovalores distintos so ortogonais;
b) T sempre possui pelo menos um autovalor.
Demonstrao: veja o exerccio r10.3
Lema 10.7
Seja T : Rn Rn um operador autoadjunto. Se o subespao W Rn T invariante, ento seu complemento ortogonal W tambm o .
Demonstrao: considere u W e v W , ento T u W e
hu, T vi = hT u, vi = 0.
Mas isso implica que T v W , logo W tambm T -invariante.
Teorema 10.8 (Teorema Espectral)
Seja h , i um produto interno em Rn . Se T : Rn Rn um operador autoadjunto,
ento existe uma base ortogonal de Rn composta por autovetores de T .
Demonstrao: veja o exerccio r10.5.
Exemplo 10.9
x+3y
. Seja C a base
Considere R2 com o produto interno usual e T ([ xy ]) = 3x7y
cannica do R2 , chame
1
3
C
. Segue que A (x) = x2 + 6x 16 = (x 2)(x + 8).
A = [T ]C =
3 7
Como a matriz A simtrica, segue que T autoadjunto e, portanto, pelo
teorema 10.8 (Teorema Espectral) este operador admite uma base de autovetores
ortonormal. Vamos determin-la.
(i) Por subtrair = 2 da diagonal da matriz A, obtemos
1
3 x
[ ] = [ 00 ] x + 3y = 0.
3 9 y
E, portanto, um autovalor associado a = 2 3y
= y [ 31 ].
y
(ii) Ao invs de seguir o procedimento padro, vamos usar a informao que o
Teorema Espectral nos fornece. Sabemos que os autovetores associado ao autovalor = 2 so ortogonais [ 31 ], e, como estamos em R2 , um autovetor associado
a = 8 deve ser [ 13 ]. De fato, veja que
1
3 1
[ 3 ] = [ 248 ] = 8 [ 13 ] .
3 7
222
3
10
1
10
10
3
10
3/ 10
1/ 10
,
10.3
=
=
n
X
xi f
i=1
n X
n
X
j=1
vi ,
n
X
!
y j vj
j=1
xi yj f (vi , vj ).
i=1 j=1
223
2 4 8
7 .
[f ]C = 4 1
8 7
5
Definio 10.11
Dizemos que uma aplicao Q : Rn R ser uma forma quadrtica, se Q(u) =
f (u, u) para alguma forma bilinear simtrica f de Rn .
H uma maneira de, considerando uma forma quadrtica Q, obtermos a forma
bilinear f necessria para a definio 10.11. Considere a aplicao f : Rn Rn
Rn dada por
f (u, v) =
1
[Q(u + v) Q(u) Q(v)] (Frmula de Polarizao).
2
u=
..
.
xn
a11 a12 a1n
x1
a21 a22 a2n x2
Q(u) = f (u, u) = x1 x2 xn ..
.. . .
.. ..
.
.
.
.
.
an1 an2 ann
xn
X
X
X
=
aij xi xj =
aii x2i +
aij xi xj .
i,j
i<j
Segue que Q ser uma forma quadrtica se, e somente se, Q(u) for um polinmio homogneo de grau 2 nas entradas do vetor u.
224
2
4
8
x
h x i
1
7
y .
Q yz
= x y z 4
8
7
5
z
A matriz acima matriz de Q com respeito base cannica do R3 (veja
exemplo 10.10).
10.3.1
225
Observao 10.15
No confunda o conceito de congruncia (definio 10.14) entre matrizes com o
de semelhana (definio 7.11) entre matrizes. Apesar disso, se a matriz P for
ortogonal, os dois conceitos iro coincidir.
De acordo com a definio acima, podemos dizer que matrizes associadas
a uma mesma forma quadrtica, em relao a bases diferentes, sero sempre
congruentes, e, reciprocamente, matrizes congruentes estaro associadas a uma
mesma forma quadrtica, s que relacionadas a outro sistema de coordenadas.
Exemplo 10.16
Considere u = [ xx12 ] R2 e a forma quadrtica q : R2 R, definida por q(u) =
x21 + 6x1 x2 7x22 . Esta pode ser reescrita, em termos da matriz associada, da
seguinte forma:
1
3 x1
x1
q([ x2 ]) = x1 x2
.
3 7 x2
1/ 10
3/ 10
,
(veja o exemplo
Se escolhemos outra base, digamos =
1/ 10
3/ 10
10.9). Sabemos que a base inicial era a cannica, portanto a matriz de mudana
de coordenadas
"
#
P =
[I]
3
10
1
10
10
3
10
3
1
y
x1
1
10
10
.
e x1 x2 = y1 y2 1
= 110 310
3
y
x2
2
10
10
10
10
Dessa forma, temos que
q(u) =
q([ xx12
= y1
= y1
1
3 x1
]) = x1 x2
3 7 x2
"
#t
#
" 3
1
310 1
1
3
y1
10
10
10
y2 1
3
1
3
3
7
y2
10
10
10
10
2
0 y1
y2
= 2y12 8y22 = q([ yy12 ]).
0 8 y2
10.4
Algoritmo de Diagonalizao
Apesar de j conhecermos um procedimento para diagonalizar matrizes simtricas, vamos apresentar um algoritmo que nos permite diagonalizar uma matriz
226
simtrica sem precisar passar pelo processo de calcular o polinmio caracterstico, os autovalores e autovetores. Esse algoritmo exige apenas o conhecimento
de operaes elementares. Contra esse procedimento, pesa o fato de que a base
na qual a matriz simtrica se torna diagonal nem sempre ortonormal.
Vamos exibir um algoritmo que permite obter uma matriz invertvel P que
diagonaliza a matriz A. Existe uma sequncia de operaes elementares aplicado
s linhas e uma forma de aplicar, essas operaes, s colunas, que transforma a
matriz A na matriz diagonal D, alm disso, D = P t AP .
Antes de iniciar a leitura do procedimento, veja o exemplo ilustrativo a seguir.
Observao 10.17
Considere a matriz simtrica
1 2
A=
.
2 5
Recordemos que se quisermos fazer uma operao elementar entre as linhas, por
exemplo, `2 `2 2`1 , basta realizarmos a mesma operao na matriz identidade,
obtendo uma matriz que chamamos de matriz elementar E. Ento, se fizermos
EA, obteremos a mesma matriz que havamos obtido quando fizemos a operao
elementar em A. Alm disso, se tomarmos E t e fizermos AE t , obteremos a mesma
matriz A que sofreu a operao c2 c2 2c1 nas colunas.
Veja o exemplo:
1 0
EA =
2 1
t
1 0
1 2
1 2
1 2
1 0
t
=
.
=
e AE =
2 1
2 5
0 1
2 5 2 1
Caso II - Se a11 = 0, mas akk 6= 0, para algum k > 1. Nesse caso, faa `1 `k
e, tambm, c1 ck .
Essas operaes reduzem a matriz ao Caso I.
Caso III - Todas as entradas diagonais aii = 0, mas algum aij 6= 0. Nesse caso,
faa `i `j + `i e o mesmo na coluna ci cj + ci (Essas operaes levam 2aij
para a i-sima entrada diagonal). Assim M volta situao do Caso II.
Jones Colombo e Jos Koiller (texto em preparao)
227
1
2 3
5 4. Utilizando, nas operaes, o algoritmo anterior, vamos
Seja A = 2
3 4
8
determinar uma matriz no singular P tal que D = P t AP seja diagonal.
Iniciamos contruindo a matriz M = [A : I]
1
2 3 1 0 0
5 4 0 1 0 .
M = [A : I] = 2
3 4
8 0 0 1
Aplicando as operaes `2 `2 2`1 e `3 `3 + 3`1 nas linhas de M , e depois,
aplicando as operaes correspondentes c2 c2 2c1 e c3 c3 +3c1 nas colunas,
obtemos
1 0
0
1 0 0
1 2 3
1 0 0
0 1
2 2 1 0 .
2 2 1 0 e depois, 0 1
0 2 1
3 0 1
0 2 1
3 0 1
Em seguida, faremos `3 `3 2`2 e a operao correspondente c3 c3 2c2
obtendo, assim,
1 0
0
1
0 0
1 0
0
1
0 0
0 1
2 2
1 0 e depois, 0 1
0 2
1 0 .
0 0 5
7 2 1
0 0 5
7 2 1
Dessa forma, A foi diagonalizada. Escrevemos
1 2
7
1 0
0
1 2 e, portanto, D = P t AP = 0 1
0 .
P = 0
0
0
1
0 0 5
Observe que P a transposta da metade direita da matriz final.
Por fim, vamos justificar o algoritmo. Considere a matriz em blocos M =
[A : I]. O algoritmo aplica uma sequncia de operaes elementares nas linhas,
seguida de uma sequncia de operaes nas colunas do lado esquerdo de M , que
a matriz A. Isso equivale a pr-multiplicar A por uma sequncia de matrizes
elementares, digamos E1 , E2 , . . . , Ek e, depois, a multiplicar A pelas transpostas
228
10.5
b12
2
x
x
+ a1 a2
+a
y
b22 y
= xt Ax + A1 x + a = 0.
Como A uma matriz simtrica, pelo teorema 10.8, existe uma matriz invertvel e ortogonal P tal que
0
1 0
x
t
= P AP e seja y = 0 tal que x = P y.
0 2
y
E a equao inicial tomar a forma
g(x0 , y 0 ) = yt P t AP y + A1 P y + a
0 0 1 0 x0
x0
= x y
+ d1 d2
+a
0 2 y 0
y0
= 1 x02 + 2 y 02 + d1 x0 + d2 y 0 + a = 0,
onde d1 e d2 sero os coeficientes obtidos ao fazer A1 P . Voltando equao,
temos duas situaes:
Jones Colombo e Jos Koiller (texto em preparao)
229
x00 = x0 +
d1
,
21
y 00 = y 0 +
d2
,
22
d1
,
21
y 00 = y 0 ,
a equao se torna
q(x00 , y 00 ) = 1 x002 + d2 y 002 + b0 = 0.
Em ambos os casos, fcil classificar a equao. Alm disso, podemos determinar
quais mudanas de coordenadas foram necessrias para lev-la a essa configurao.
Percebemos, tambm, que esse procedimento se generaliza para qualquer nmero de variveis 2.
Observao 10.20
Observe que no procedimento anterior, passamos da matriz
b11 b212
1 0
A = b12
para a matriz
0 2
b22
2
por uma mudana de coordenadas. Utilizamos a matriz P , que ortogonal, e
obtemos
1
1 0
det
= det(A) =
4b11 b22 b212 .
0 2
4
Com exceo dos casos nos quais a equao representa figuras degeneradas, a
classificao dessa equao em elipse, parbola ou hiprbole depende, apenas, do
sinal das constantes 1 e 2 , e podemos determinar esses sinais se conhecemos o
produto 1 2 = det(A). Esse sinal pode ser obtido calculando 4b11 b22 b212 . Por
isso, chamamos esse nmero de discriminante da equao do 2o grau.
230
Exemplo 10.21
Vamos aplicar o procedimento descrito acima para classificar a equao dada por
4x2 24yx + 56x + 11y 2 58y + 95 = 0.
Inicialmente, podemos escrever
g(x, y) = 4x2 24yx + 11y 2 + 56x 58y + 95
4 12 x
x
= x y
+ 56 58
+ 95
12 11
y
y
= xt Ax + A1 x + 95 = 0.
4 12
A=
A (x) = x2 15x 100 = (x + 5)(x 20).
12 11
i) Calculando o autovetor associado a 1 = 5, obtemos [ 43 ].
ii) O autovetor associado a 2 = 20 [ 34 ].
nh
i h
io
4/5
3/5
Portanto, em relao base =
, as coordenadas dos veto3/5 ,
4/5
x0
res sero escritas por ser u = y0 e considerando a matriz
0
4/5 3/5
x
x
P =
, ento
=P 0 .
y
3/5
4/5
y
y 00 = y 0 2,
obtemos
g(x00 , y 00 ) = 5x002 + 20y 002 + 20 = 0
x002
y 002 = 1.
4
231
00
00
5 y
x
1
3
3x
2
4
Vamos utilizar o segundo mtodo (o algoritmo) para eliminar o fator xy na
equao
4x2 24yx + 56x + 11y 2 58y + 95 = 0
x
4 12 x
x y
+ 56 58
+ 95 = 0.
12
11 y
y
Considere a matriz
4 12 1 0
M=
.
12
11 0 1
Para escalon-la, faa `2 `2 + 3`1 e c2 c2 + 3c1 e obtemos
4
0 1 0
.
0 25 3 1
Tomando
1 3
4
0
P =
, temos que
= P t AP.
0 1
0 25
0
Portanto, se as coordenadas de u so xy0 , com respeito base = {[ 10 ] , [ 31 ]},
ento
0
1 3
x
x
, e sabemos que
=P 0 .
P =
0 1
y
y
Ento,
0
0 0 4 0
x0
x
0 0
q(x , y ) = x y
+ 56 110
+ 95
0 25 y 0
y0
= 4x02 25y 02 + 56x0 + 110y 0 + 95
22
= 4(x02 + 14x0 + 49) 25 y 02 y 0 +
5
= 4(x0 + 7)2 25(y 02
232
22
5
2 !2
4 49 + 25
22
5
2
11 2
) + 20.
5
Jones Colombo e Jos Koiller (texto em preparao)
+ 95
Exerccios
Fazendo x00 = x0 + 7 e y 00 = y 0
11
,
5
temos
x002 y 002
+ 4 = 1.
5
5
y 00
y
5
0
1,
x00
1, 35
y0
x0
5
1
1
x2 y 2
x2 y 2
+
=
1,
2 = 1.
a2
b2
a2
b
Exerccios resolvidos
Demonstre a proposio 10.3. Fixe um ponto F (Foco), uma linha ` (a
diretriz) que no contm F , escolha, um nmero Real no-negativo e (a
excentricidade). Considere os pontos P , satisfazendo
R10.1.
233
y2
p2 e2
1e2
= 1.
p2 e 2
p2 e 2
2
e
b
=
.
(1 e2 )2
1 e2
R10.2.
T (uj ) =
n
X
i=1
Por calcular
hT (uj ), uk i =
* n
X
+
aij ui , uk
i=1
= akj = ajk
*
+
n
X
= uj ,
aik ui = huj , T (uk )i .
i=1
Exerccios
T(
n
X
j=1
+
k
X
T (ui ), T (
yj uj )
xi
j=1
n X
k
X
i=1 j=1
n X
k
X
i=1 j=1
n
X
xi yj hT (ui ), T (uj )i
xi yj hui , uj i
*
xi
ui ,
i=1
xi ui
i=1
i=1
+
k
X
xi ui ), T (
yj uj )
i=1
n
X
Pn
* n
X
k
X
+
yj uj
j=1
xi ui ,
i=1
k
X
+
yj uj
j=1
= hu, vi .
n
X
bij vi .
i=1
R10.3.
235
y0 y = 2p(x + x0 ).
Soluo: Queremos determinar a equao da reta tangente
y y0 = m(x x0 )
parbola passando por P = [ xy00 ]. Precisamos determinar m. Para isto,
faa a substituio y = mx mx0 + y0 na equao da parbola e teremos
(mxmx0 +y0 )2 = 4px m2 x2 + 2my0 2m2 x0 4p x+m2 x20 2mx0 y0 +y02 .
236
Exerccios
Essa equao do 2o grau s pode ter uma soluo e, portanto, o seu discriminante precisa ser igual a zero, isto ,
2
2my0 2m2 x0 4p 4m2 m2 x20 2mx0 y0 + y02 = 0.
Fazendo as contas obtemos
16p(x0 m2 y0 m + p) = 0 x0 m2 y0 m + p = 0.
Resolvendo para m, obtemos
m=
y0 +
p
y02 4x0 p
.
2x0
y0
Isso nos d m = 2x
visto que P pertence parbola. Substituindo m na
0
equao da reta inicial, obtemos a equao enunciada.
R10.5.
R10.6.
1
[Q(u + v) Q(u) Q(v)] ,
2
conhecida como frmula de polarizao.
f (u, v) =
237
Exerccios propostos
P10.1.
a) 2xy + 3x y + 1 = 0;
b) x2 + y 2 + xy x + 1 = 0;
e) xy + x + y = 0;
g) 4xy + 3y 2 + 2 5x + 4 5y = 0;
P10.2.
t
Mostre que as equaes paramtricas x = t e y = 4p
, com t R, definem
uma parbola cuja equao em coordenadas cartesianas y 2 = 4px.
P10.3.
Seja cosh t = e +e
e senh = e e
. Mostre que as equaes paramtri2
2
cas x = a cosh t e y = b senh t, a > 0, b > 0 e t R definem uma hiprbole
2
2
cuja equao em coordenadas cartesianas xa2 yb2 = 1.
P10.4.
1 3
2
4 5
7
7 5 e A = 5 6
8 .
A = 3
2 5
8
7
8 9
P10.5.
P10.6.
x2
a2
y2
b2
= 1 em P = [ xy00 ]
b 2 x 0 x + a2 y 0 y = a2 b 2 .
Suponha que sejam dadas as retas y = m1 x + k1 e y = m2 x + k2 , as quais
se interceptam em um ponto P . Seja o ngulo entre elas. Ento,
P10.8.
tg =
m2 m1
, m1 m2 6= 1,
1 + m1 m2
Exerccios
P10.9.
`1
P = [ xy ]
`2
P10.10.
`1
`2
F1
F2
239
240
Bibliografia
[1] Paul R. Halmos, Finite-Dimensional Vector Spaces. Springer-Verlag, 1974.
[2] BIBLIOGRAFIA AINDA EST POR FAZER. . .
241