Explorar E-books
Categorias
Explorar Audiolivros
Categorias
Explorar Revistas
Categorias
Explorar Documentos
Categorias
Inclui bibliografia.
e-ISBN 978-85-244-0390-3
CDD-512
COLEÇÃO MATEMÁTICA UNIVERSITÁRIA
Álgebra Linear
Títulos Publicados:
• Análise Real, vol. 1: Funções de uma Variável – Elon Lages Lima
• EDP. Um Curso de Graduação – Valéria Iório
• Curso de Álgebra, Volume 1 – Abramo Hefez
• Álgebra Linear – Elon Lages Lima
• Introdução às Curvas Algébricas Planas – Israel Vainsencher
• Equações Diferenciais Aplicadas – Djairo G. de Figueiredo e Aloisio Freiria Neves
• Geometria Diferencial – Paulo Ventura Araújo
• Introdução à Teoria dos Números – José Plínio de Oliveira Santos
• Cálculo em uma Variável Complexa – Marcio G. Soares
• Geometria Analítica e Álgebra Linear – Elon Lages Lima
• Números Primos: Mistérios e Recordes – Paulo Ribenboim
• Análise no Espaço Rn – Elon Lages Lima
• Análise Real, vol. 2: Funções de n Variáveis – Elon Lages Lima
• Álgebra Exterior – Elon Lages Lima
• Equações Diferenciais Ordinárias – Claus Ivo Doering e Artur Oscar Lopes
• Análise Real, vol. 3: Análise Vetorial – Elon Lages Lima
• Álgebra Linear. Exercícios e Soluções – Ralph Costa Teixeira
• Números Primos. Velhos Mistérios e Novos Recordes – Paulo Ribenboim
Distribuição:
IMPA
Estrada Dona Castorina, 110
22460-320 Rio de Janeiro, RJ
e-mail: ddic@impa.br
http://www.impa.br
Prefácio
1 Espaços Vetoriais 1
2 Subespaços 9
3 Bases 24
4 Transformações Lineares 38
6 Núcleo e Imagem 58
9 Eliminação 101
11 A Adjunta 133
16 Pseudo-inversa 195
5
17 Tópicos Matriciais 204
19 Determinantes 245
Espaços Vetoriais
u + v = (α1 + β1 , . . . , αn + βn ),
α · u = (αα1 , . . . , ααn ).
O vetor zero é, por definição, aquele cujas coordenadas são todas
iguais a zero: 0 = (0, 0, . . . , 0).
O inverso aditivo de u = (α1 , . . . , αn ) é −u = (−α1 , . . . , −αn ).
Verifica-se, sem dificuldade, que estas definições fazem de Rn um
espaço vetorial. Para n = 1, tem-se R1 = R = reta numérica. R2 é o
plano euclidiano e R3 é o espaço euclidiano tridimensional da nossa
experiência cotidiana.
Para ajudar a compreensão, os vetores de R2 e R3 podem ser re-
presentados por flechas com origem no mesmo ponto O. A soma u+v
é a flecha que liga a origem O ao vértice que lhe é oposto no parale-
logramo que tem u e v como lados. (Veja Figura 1.1.)
u+ v
v
u
u + v = (α1 + β1 , . . . , αn + βn , . . . ),
α · u = (αα1 , . . . , ααn , . . . ).
Exercı́cios
1.1. Dadas as matrizes
1 −1 2 2 3 0
a= , b=
3 2 −1 −2 −3 1
e
−4 −8 4
c= :
12 13 1
(a) Calcule a matriz 3a − 2b + c.
(b) Ache números α e β, ambos diferentes de zero, tais que αa+βb+c
tenha a primeira coluna nula.
1.2. Mostre que as operações definidas no texto fazem realmente dos
conjuntos Rn , M(m × n) e F(X; R) espaços vetoriais.
1.3. Ache o valor de t que torna a matriz abaixo igual à matriz nula:
2
t2 − t
t −1
.
t3 − 1 t2 − 3t + 2
Subespaços
a1 x1 + · · · + an xn = 0
yv yv
+
u
=x
v w
xu
u
0
Figura 2.1.
e1 = (1, 0, 0, . . . , 0),
e2 = (0, 1, 0, . . . , 0),
..
.
en = (0, 0, . . . , 0, 1)
b = x1 v 1 + x2 v 2 + · · · + xn v n .
(1) F = F1 ⊕ F2 ;
14 Subespaços Seção 2
a1 x1 + · · · + an xn = b
x+ F
v + v′ = y + y′ − 2x = 2(z − x)
pertence a F.
Em seguida, mostremos que V = x + F. Com efeito, y ∈ V ⇒ y =
x + (y − x) com y − x ∈ F, logo y ∈ x + F. Assim, V ⊂ x + F. Por outro
lado, um elemento qualquer de x + F tem a forma x + (y − x), com
y ∈ V, logo é igual a y e daı́ x + F ⊂ V.
Finalmente, se F e F′ são subespaços vetoriais de E, tais que x +
F = x + F′ para algum x ∈ E, provemos que se tem F = F′ . Com efeito,
v ∈ F ⇒ x + v ∈ x + F ⇒ x + v ∈ x + F′ ⇒ x + v = x + v′ (v′ ∈ F′ ) ⇒
v = v′ ⇒ v ∈ F′ . Portanto F ⊂ F′ . Da mesma forma, vê-se que F′ ⊂ F,
o que conclui a demonstração.
Exemplo 2.12. Vimos no exemplo 2.8 que o conjunto V das soluções
de um sistema linear de m equações com n incógnitas é uma va-
riedade afim. Supondo V 6= ∅, tomemos x0 ∈ V e chamemos de F
o subespaço vetorial de Rn formado pelas soluções do sistema ho-
mogêneo correspondente (descrito no Exemplo 2.4; veja também a
página 27). Tem-se V = x0 + F. Diz-se então que “todas as soluções
do sistema se obtêm somando uma solução particular com a solução
geral do sistema homogêneo associado”.
Exercı́cios
2.1. Seja R(∞) o subconjunto de R∞ formado pelas seqüências v =
(x1 , x2 , . . . , xn , . . .) que têm apenas um número finito de termos xn
diferentes de zero. Mostre que R(∞) é um subespaço vetorial de R∞
e que as seqüências que têm um único termo não-nulo constituem
um conjunto de geradores para R(∞) .
2.2. Use o ı́ndice deste livro para localizar a definição de matriz
triangular. Mostre que o conjunto F1 das matrizes triangulares in-
feriores e o conjunto F2 das matrizes triangulares superiores são
Seção 2 Subespaços 17
F1 = {(x, y, z) ∈ R3 ; a1 x + b1 y + c1 z = 0}
F2 = {(x, y, z) ∈ R3 ; a2 x + b2 y + c2 z = 0}.
/ F1 e que F1 + F2 = R3 .
2.8. No exercı́cio anterior, mostre que u2 ∈
Exiba um vetor não nulo w ∈ F1 ∩ F2 e conclua que não se tem R3 =
F1 ⊕ F 2 .
18 Subespaços Seção 2
(g) O conjunto dos vetores de R3 que têm pelo menos uma coorde-
nada ≥ 0.
Bases
v = α1 v 1 + · · · + αm v m , logo 1 · v − α1 v1 − · · · − αm vm = 0,
Corolário. Se v = α1 v1 + · · · + αm vm = β1 v1 + · · · + βm vm e os vetores
v1 , . . . , vm são L.I. então α1 = β1 , . . . , αm = βm .
Com efeito, tem-se neste caso (α1 − β1 )v1 + · · · + (αm − βm )vm = 0
logo α1 − β1 = · · · = αm − βm = 0.
Evidentemente, todo subconjunto de um conjunto L.I. é
ainda L.I. .
{1, x, . . . , xn , . . .}
Uma tal solução existe, pelo Lema 3.1, pois n > m. Logo w1 , . . . , wn
são L.D. e o teorema está demonstrado.
H = {(x1 , . . . , xn ) ∈ Rn ; a1 x1 + · · · + an xn = 0}
Exercı́cios
p(x) = x3 − 3x2 + 5x + 1,
q(x) = x3 − x2 + 6x + 2,
r(x) = x3 − 7x2 + 4x.
F = {(x1 , x2 , x3 , x4 ); x1 = x2 = x3 = x4 }
G = {(x1 , x2 , x3 , x4 ); x1 = x2 e x3 = x4 }
H = {(x1 , x2 , x3 , x4 ); x1 = x2 = x3 }
K = {(x1 , x2 , x3 , x4 ); x1 + x2 + x3 + x4 = 0}.
Transformações Lineares
A Álgebra Linear pode ser apresentada sob três pontos de vista equi-
valentes: transformações lineares, matrizes ou formas quadráticas.
A ênfase (ou até mesmo a exclusividade) que se dá a uma dessas
abordagens é muitas vezes uma questão de hábito, gosto pessoal ou
convicção. Neste livro, os três aspectos serão devidamente tratados
porém a primazia será concedida às transformações lineares, pelos
três motivos apontados, principalmente o último.
Sejam E, F espaços vetoriais. Uma transformação linear A : E → F
é uma correspondência que associa a cada vetor v ∈ E um vetor
A(v) = A · v = Av ∈ F de modo que valham, para quaisquer u, v ∈ E
e α ∈ R, as relações:
A(u + v) = Au + Av,
A(α · v) = α · Av.
A · v = α1 u′1 + · · · + αm u′m .
40 Transformações Lineares Seção 4
Dados v, w ∈ E temos
v = α1 u 1 + · · · + αm u m
e
w = β1 u 1 + · · · + βm u m .
(Mesmo que a base B seja infinita, podemos exprimir v e w como
combinações lineares dos mesmos elementos de B, completando com
coeficientes zero os múltiplos dos ui que aparecem apenas numa das
duas expressões.) Então
m
X
v+w= (αi + βi )ui
i=1
logo
A(v + w) = Σ(αi + βi )u′i = Σαi u′i + Σβi u′i = A · v + A · w.
De maneira análoga se vê que A(αv) = α · Av, portanto A : E → F,
assim definida, é uma transformação linear, tal que A · u = u′ , para
todo u ∈ B. Quanto à unicidade, seja B : E → F outra transformação
linear tal que B · u = u′ para todo u ∈ B. Então, para cada v =
Σαi ui ∈ E tem-se
B · v = B(Σαi ui ) = Σαi · Bui = Σαi · u′i = A · v
portanto B = A. Isto completa a demonstração.
Em virtude do Teorema 4.1, se quisermos definir uma transfor-
mação linear A : Rn → Rm basta escolher, para cada j = 1, . . . , n,
um vetor vj = (a1j , a2j , . . . , amj ) ∈ Rm e dizer que vj = A · ej é a
imagem do j-ésimo vetor da base canônica, ej = (0, . . . , 1, . . . , 0), pela
transformação linear A. A partir daı́, fica determinada a imagem
A · v de qualquer vetor v = (x1 , . . . , xn ) ∈ Rn . Com efeito, tem-se
v = x1 e1 + · · · + xn en , logo
Xn Xn n
X
A·v=A xj e j =
xj A · e j = (a1j xj , a2j xj , . . . , amj xj )
j=1 j=1 j=1
n
X n
X n
X
= a1j xj , a2j xj , . . . , amj xj ,
j=1 j=1 j=1
Seção 4 Transformações Lineares 41
ou seja,
A(x1 , x2 , . . . , xn ) = (y1 , y2 , . . . , ym ),
onde
onde os ej estão em Rn e os ei em Rm .
Em particular, a matriz de um funcional linear ϕ : Rn → R é do
tipo 1 × n, logo pode ser escrita simplesmente como [a1 , a2 , . . . , an ],
onde aj = ϕ(ej ). Para todo vetor x = (x1 , . . . , xn ) ∈ Rn tem-se ϕ(x) =
a1 x1 + · · · + an xn .
Na situação dual, uma transformação linear A : R → Rn é dada
por uma matriz n × 1, cuja única coluna é o vetor v = A · 1 =
(a1 , . . . , an ). (A base canônica de R1 = R tem um único elemento
e1 = 1.) Assim, a transformação linear A : R → Rn fica inteira-
mente determinada por um único vetor v ∈ Rn . Tem-se A · t = t · v
para todo t ∈ R. Evidentemente, o mesmo se pode dizer de toda
transformação linear A : R → F, seja qual for o espaço vetorial F:
conhecendo v = A · 1 ∈ F tem-se A · t = tv para todo t ∈ R.
Exemplo 4.1. Se dim E = 1, todo operador A : E → E é do tipo
A = αI, isto é, existe uma constante α ∈ R tal que Av = αv para
42 Transformações Lineares Seção 4
Ru
R
(u
+
v
v
u+
)
Rv u
O
a b
,
c d
onde Re1 = (a, c) e Re2 = (b, d), com e1 = (1, 0) e e2 = (0, 1).
Ora, pelas definições de seno e cosseno, o vetor unitário Re1 ,
que forma com e1 um ângulo θ, tem coordenadas cos θ e sen θ, ou
seja, Re1 = (cos θ, sen θ). Além disso, como e2 forma com e1 um
ângulo reto, Re2 também forma com Re1 um ângulo reto. Logo Re2 =
(− sen θ, cos θ). (Veja Fig. 4.2.)
Seção 4 Transformações Lineares 43
e2
Re2
cos
sen Re1
e1
-sen cos
x′ = x cos θ − y sen θ;
y′ = x sen θ + y cos θ.
cos θ − sen θ
.
sen θ cos θ
y = ax
Pv
ou seja,
1 − a2 2a 2a 1 − a2
x′ = x+ y, y′ = x− y.
1 + a2 1 + a2 1+a 2 1 + a2
2Pv= v +Sv
v
Pv
Sv
Exercı́cios
E22 (x, y) = (0, y), constituem uma base do espaço vetorial L(R2 ).
Prove ainda que outra base deste espaço pode ser formada com os
operadores A, B, C, I, onde A(x, y) = (x + 3y, y), B(x, y) = (x, 0),
C(x, y) = (x + y, x − y) e I(x, y) = (x, y).
4.14. Verifique que as funções definidas nos Exercı́cios 3.32 e 3.33
são funcionais lineares.
4.15. Seja A : E → F uma transformação linear
(a) Se os vetores Av1 , . . . , Avm ∈ F são L.I., prove que v1 , . . . , vm ∈ E
também são L.I. .
(b) Se F = E e os vetores Av1 , . . . , Avm geram E, prove que v1 , . . . , vm
geram E.
(c) Valem as recı́procas de (a) e (b)? Seria (b) verdadeira com F 6= E ?
4.16. Quais das transformações abaixo são lineares?
(a) A : R3 → R3 , A(x, y, z) = (x, 2y , 2z ).
(b) A : R3 → R3 , A(x, y, z) = (3x, a, 5z), onde a ∈ R.
(c) A : R4 → R3 , A(x, y, z, w) = (x − w, y − w, x + z).
(d) A : M(n × n) → Rn , A([aij ]) = (a11 , a22 , . . . , ann ).
(e) A : C∞ (R) → C∞ (R), Af = 3f′′ − 2f′ + 1.
a b
(f) A : M(2 × 2) → R, A = ad − bc.
c d
4.17. Sejam A : E → F uma transformação linear e E′ ⊂ E, F′ ⊂ F
subespaços vetoriais. Prove que A(E′ ) = {Av; v ∈ E′ } é um subespaço
de F e A−1 (F′ ) = {v ∈ E; Av ∈ F′ } é um subespaço de E. Se V ⊂ E
e W ⊂ F são variedades afins, prove que os conjuntos A(V) ⊂ F e
A−1 (W) ⊂ E, definidos analogamente, são também variedades afins.
4.18. No exercı́cio anterior, prove que se E′ tem dimensão finita
então dim A(E′ ) é finita e dim A(E′ ) ≤ dim E′ . Dê um exemplo de
um operador não identicamente nulo A : R2 → R2 e um subespaço
E′ ⊂ R2 tal que dim A(E′ ) < dim E′ . Prove também que se E e F′ têm
dimensão finita e A é sobrejetiva então dim A−1 (F′ ) ≥ dim F′ . Dê um
exemplo em que A 6= 0 e dim A−1 (F′ ) > dim F′ . Dê também um exem-
plo (com dim E = ∞), onde dim F′ é finita mas dim A−1 (F′ ) = ∞.
4.19. Dados os espaços vetoriais E, F, prove que L(E; F) é um subes-
paço vetorial de F(E; F). (Vide Exercı́cio 1.15.)
Seção 4 Transformações Lineares 49
Produto de
Transformações Lineares
BA
1
RPv = (−x − y, x + y)
2
e
1
PRv = (x − y, x − y).
2
Portanto RPv 6= PRv para todo v, exceto para v = (0, 0). Observe que
bastaria que RPv 6= PRv para um único v a fim de termos RP 6= PR.
Seção 5 Produto de Transformações Lineares 53
Qv
Pv
Figura 5.1.
Ra Rb v = R a + b v Rb v
a v
b
Exercı́cios
Núcleo e Imagem
x ∈ V ⇒ x = x0 + (x − x0 ) = x0 + v
⇒ b = Ax = A(x0 + v) = Ax0 + Av = b + Av
⇒ b = b + Av
⇒ Av = 0
⇒ x = x0 + v ∈ x0 + N (A).
Logo V ⊂ x0 + N (A).
Observação. Geometricamente, o Teorema 6.4 significa que o espa-
ço vetorial E se exprime como uma reunião de lâminas paralelas
V = x0 + N (A), cada uma das quais é uma variedade afim que
se transforma por A num único ponto b∈Im(A). Este ponto, na-
turalmente, varia quando se passa de uma lâmina para outra. (Veja
Fig. 6.1.)
E
x0 F
)
(A
Ax0
N
)
(A
A
+N
O O
x
0
Im(A)
Figura 6.1.
cumpre a relação
{Av1 , . . . , Avn , w1 , . . . , wk } ⊂ F
seja uma base. (Teorema 3.4.) Pelo Teorema 4.1, a fim de definir
a transformação linear B : F → E, basta especificar seus valores nos
64 Núcleo e Imagem Seção 6
β1 v1 + · · · + βq vq = 0.
Aw = α1 Au1 + · · · + αp Aup ,
A[w − (α1 u1 + · · · + αp up )] = 0.
w − (α1 u1 + · · · + αp up ) = β1 v1 + · · · + βq vq ,
H = {(x1 , . . . , xn ) ∈ Rn ; a1 x1 + · · · + an xn = 0}
f(x1 , . . . , xn ) = a1 x1 + · · · + an xn .
Exercı́cios
6.20. Determine uma base para a imagem de cada uma das trans-
formações lineares abaixo e indique quais são sobrejetivas.
(c) C : R3 → R3 , C(x, y, z) = x + y2 , y + 2z , z + x2 .
1 1
(d) D : M(2 × 2) → M(2 × 2), D · X = AX, onde A = .
0 1
6.22. Para cada uma das nove transformações lineares dos exercı́-
cios anteriores, determine o núcleo e obtenha uma base do mesmo,
caso não se reduza a {0}.
6.23. Seja T : Pn → Pn o operador linear definido por T.p(x) =
5p(x) − 4p′ (x) + p′′ (x). Mostre que seu núcleo é {0} e conclua que,
para todo polinômio b(x) existe um polinômio p(x) tal que 5p(x) −
4p′ (x) + p′′ (x) = b(x).
6.24. Seja X ⊂ F um subconjunto com a seguinte propriedade: toda
transformação linear A : E → F cuja imagem contém X é sobrejetiva.
Prove que X é um conjunto de geradores de F.
(Sugestão: é muito mais fácil do que parece.)
6.25. Seja A : E → F uma transformação linear sobrejetiva entre
espaços vetoriais de dimensão finita. Prove que existe um subespaço
vetorial E′ ⊂ E tal que a restrição de A a E′ é um isomorfismo
sobre F.
6.26. Seja A : E → F um isomorfismo. Se T : F → E é tal que AT = IF
(ou TA = IE ), prove que T é linear.
6.27. Sejam E, F espaços vetoriais de dimensão finita. Se dim E <
dim F, prove que existem transformações lineares A : E → F e
B : F → E tais que A é injetiva e B é sobrejetiva.
6.28. Dadas as transformações lineares A : E → F, B : F → G, assi-
nale V(erdadeiro) ou F(also) nas seguintes implicações:
( ) BA sobrejetiva ⇒ B sobrejetiva.
( ) BA sobrejetiva ⇒ A sobrejetiva.
( ) BA injetiva ⇒ B injetiva.
( ) BA injetiva ⇒ A injetiva.
Prove ainda que se E = F = G então as quatro implicações são
verdadeiras.
6.29. Prove que toda transformação linear A pode escrever-se como o
produto A = TS, onde S é uma transformação linear sobrejetiva e T é
uma transformação linear injetiva. Vale também uma decomposição
do tipo A = S′ T ′ , com S′ sobrejetiva e T ′ injetiva?
6.30. Dado o conjunto finito X com n elementos, prove que o espaço
vetorial F(X; R) é isomorfo a Rn . Mais geralmente, dado qualquer
72 Núcleo e Imagem Seção 6
A : F1 × F2 → F1 ⊕ F 2 ,
A : F1 × F2 −→ F1 + F2 ,
F2
w
v
F1
O u
Figura 7.1.
O operador linear P : E → E assim definido tem imagem F1 e
núcleo F2 . Além disso, como se vê facilmente, P é idempotente, isto
é, P2 = P. O teorema seguinte mostra que, reciprocamente, todo
operador linear idempotente é uma projeção.
Preliminarmente, observemos que se P2 = P então, para todo
w ∈ Im(P), tem-se Pw = w pois w ∈ Im(P) ⇒ w = Pv ⇒ Pw =
PPv = Pv = w.
Teorema 7.2. Seja P : E → E um operador linear. Se P2 = P então
E é a soma direta do núcleo com a imagem de P. Além disso, P é a
projeção sobre Im(P) paralelamente a N (P).
F2
w
v
F1
0 u
Sw
-v
Figura 7.2.
Seção 7 Soma Direta e Projeção 79
Exercı́cios
A(x, y, z) = (40x + 18y − 6z, 18x + 13y + 12z, −6x + 12y + 45z).
1
Mostre que P = 49 · A é uma projeção, que Im(P) é um plano e
determine a equação desse plano.
7.9. Sejam F1 , F2 subespaços vetoriais de E, com dim F1 + dim F2 =
dim E (dimensões finitas). Prove que E = F1 ⊕ F2 se, e somente se,
F1 ∩ F2 = {0}.
Seção 7 Soma Direta e Projeção 81
(b) PQ + QP = 0;
(c) PQ = QP = 0.
(b) ^ f(x)
U : F(R+ ; R) → F(R+ ; R), Uf = f, ^ = f(1/x).
A Matriz de uma
Transformação Linear
m
X
Avj = a1j w1 + a2j w2 + · · · + amj wm = aij wi .
i=1
na base V.
Quando considerarmos uma transformação linear A : Rn → Rm
e dissermos apenas a matriz de A, estaremos significando a matriz
de A relativamente às bases canônicas de Rn e Rm . Caso utilizemos
outras bases, isto será dito explicitamente.
e
m
X
Bvk = bik wi (k = 1, . . . , n).
i=1
logo c = ba.
Resulta imediatamente do teorema acima e do isomorfismo
ϕ : L(E; F) → M(m × n) que as regras operacionais do produto de
transformações lineares se transferem diretamente para o produto
de matrizes. No que se segue, indicaremos com o sı́mbolo In a matriz
88 A Matriz de uma Transformação Linear Seção 8
m
X
Avj = aij wi (j = 1, . . . , n).
i=1
definida por:
m
X
Av′j = a′rj w′r (j = 1, . . . , n). (*)
r=1
m
X m
X m
X
a′rj w′r = a′rj qir wi
r=1 r=1 i=1
Xm X m
= a′rj qir wi
r=1 i=1
m m
!
X X
′
= qir arj wi .
i=1 r=1
logo Av1 = v1 e Av2 = −v2 . (De resto, estas igualdades são geometri-
camente óbvias.) Portanto a matriz de A na base V é
′ 1 0
a = .
0 −1
Exercı́cios
{ex cos x, ex sen x, e2x cos x, e2x sen x, e3x cos x, e3x sen x}.
então
b a + b12 a21 b11 a12 + b12 a22
ba = 11 11
b21 a11 + b22 a21 b21 a12 + b22 a22
(Multiplicação por blocos de matrizes.)
8.11. Seja a uma matriz 5 × 5 cujos elementos sobre a diagonal e
abaixo dela são iguais a zero. Sem fazer nenhum cálculo, conclua
que a5 = 0.
8.12. Sejam a uma matriz m × n, com m < n, e b uma matriz n × m.
Podem ab e ba ser ambas invertı́veis? Uma delas? Qual? Quando?
8.13. Assinale verdadeiro (V) ou falso (F):
A : Rn+1 → Pn , A(αo , α1 , . . . , αn ) = αo + α1 x + · · · + αn xn
8.29. Prove que uma matriz m × n tem posto r se, e somente se, é
possı́vel selecionar r linhas e r colunas (porém não mais) de modo
que os elementos comuns a elas formem uma matriz invertı́vel r × r.
[Sugestão: reduza ao caso r = min{m, n} e aplique o Teorema 8.2.]
8.30. Sejam f1 , . . . , fm : E → R funcionais lineares no espaço vetorial
E de dimensão n. Suponha que estes funcionais gerem em E∗ =
L(E; R) uma variedade afim de dimensão r. Prove que o conjunto F,
formado pelos vetores v ∈ E tais que
f1 (v) = f2 (v) = · · · = fm (v),
é um subespaço vetorial de dimensão n − r + 1.
8.31. Uma matriz n × n chama-se um quadrado mágico quando a
soma dos elementos de cada uma de suas linhas, de cada coluna,
da diagonal principal e da outra diagonal (ao todo 2n + 2 somas)
são iguais. Prove que, se n≥3, o conjunto Qn dos quadrados mágicos
n×n é um subespaço vetorial de dimensão n2 −2n do espaço M(n×n).
[Sugestão: use os Exercı́cios 8.30, 3.32 e 3.33.]
8.32. Em conformidade com o exercı́cio anterior, determine os 8 ele-
mentos restantes da matriz 4 × 4 abaixo, de modo a obter um qua-
drado mágico
1 2 3 ∗
4 5 6 ∗
7 8 ∗ ∗
∗ ∗ ∗ ∗
Seção 8 A Matriz de uma Transformação Linear 99
8.36. Seja a uma matriz triangular (isto é, aij = 0 se i < j) n×n cujos
elementos da diagonal são todos iguais a zero. Mostre que an = 0.
[Sugestão: considere o operador A : Rn → Rn cuja matriz na base
canônica é a.]
Eliminação
(v1 , . . . , vi , . . . , vj , . . . , vm ) 7→ (v1 , . . . , vj , . . . , vi , . . . , vm ).
como antes, de modo a obter uma matriz cuja primeira coluna não-
nula começa com elemento 6= 0 mas todos os demais são iguais a
zero. A partir daı́ não se mexe mais na primeira linha. Recomeça-se
o processo, trabalhando com as linhas a partir da segunda, até obter
uma matriz escalonada.
v1 = (1, 2, 3, 4),
v2 = (5, 6, 7, 8) e
v3 = (9, 10, 11, 12)
1 2 3 4
L3 −2L2
−→ 0 −4 −8 −12 .
0 0 0 0
tem esses vetores como linhas a fim de obter uma matriz escalonada
0 1 2 3 2 1 3 0 2 1 3 0
2 1 3 0 L2 ↔L1 0 1 2 3 L3 − 23 L1 0 1 2 3
3 4 2 0 −→ 3 4 2 0 L4−→
5 5
−2L1 0 2 − 2 0
4 2 0 1 4 2 0 1 0 0 −6 1
2 1 3 0 2 1 3 0
L3 − 25 L2 0 1 2 3 L4 − 54 L3 0 1 2 3
−→ 0 0 − 15 − 15 −→ 0 0 − 15 − 15 .
2 2 2 2
0 0 −6 1 0 0 0 7
Concluı́mos que os quatro vetores dados são L.I., portanto consti-
tuem uma base de R4 . Além disso, vemos que os vetores w1 =
(2, 1, 3, 0), w2 = (0, 1, 2, 3), w3 = (0, 0, − 15 15
2 , − 2 ) e w4 = (0, 0, 0, 7)
também formam uma base de R . 4
y + 2z + 3t = 1
2x + y + 3z = 1
3x + 4y + 2z = 1
4x + 2y + t = 1
4 2 0 1 1 4 2 0 1 1
2 1 3 0 1 2 1 3 0 1
0 1 2 3 1 0 1 2 3 1
−→ −→ .
0 5 − 5
2 2 0 − 21 0 0 − 15
2 − 15
2 −3
7
0 0 −6 1 −1 0 0 0 7 5
2x + y + 3z = 1
y + 2z + 3t = 1
15 15
− 2z − 2 t = −3
7t = 75 .
x + 2y − 3z = 4
2x + 3y + 4z = 5
4x + 7y − 2z = 12.
x + 2y − 3z = 4
− y + 10z = −3
0x + 0y + 0z = −1,
x + 2y + 3z + 4t = 1
5x + 6y + 7z + 8t = 2
9x + 10y + 11z + 12t = 3
1 2 3 1 2
−→ 0 −2 −4 0 −2 .
0 0 0 0 0
ou seja
x1 + 2x2 = −3x3 − x4 − 2x5
− 2x2 = 4x3 + 2x5 .
Exercı́cios
13 14 15 17
9.6. A matriz a ∈ M(m×n) tem apenas uma linha e uma coluna não-
nulas. Dada b ∈ M(m × 1), quais são as dimensões possı́veis para
a variedade afim formada pelas soluções x ∈ M(n × 1) do sistema
ax = b ?
9.8. Obtenha uma base para o subespaço vetorial gerado por cada
um dos seguintes conjuntos e, conseqüentemente, determine a di-
mensão daquele subespaço:
9.10. Exiba uma base para a imagem de cada uma das transforma-
ções lineares abaixo e determine seu posto.
res:
x + 3y + z = 1
2x + 6y + 9z = 7
2x + 8y + 8z = 6
x + y + t = 0
x + 2y + z + t = 1
3x + 3y + z + 2t = −1
y + 3z − t = 3
x +y − z + 2t = 0
3y − z + 3t = 0
2x − y − z + t = 0
9.13. Ache uma base para o núcleo de cada uma das transformações
lineares a seguir:
x + 2y + 3z − 3t = a
2x − 5y − 3z + 12t = b
7x + y + 8z + 5t = c
admite solução se, e somente se, 37a+13b = 9c. Ache a solução geral
do sistema quando a = 2 e b = 4.
9.16. Prove que toda matriz anti-simétrica 3 × 3 não-nula tem posto
igual a dois. Dê exemplo de uma matriz anti-simétrica invertı́vel
4 × 4.
9.17. Considere o sistema de n equações lineares a n incógnitas:
xi + xi+1 = ai (i = 1, . . . , n − 1), x1 + xn = an .
(a) Se n é ı́mpar, prove que ele possui solução única, sejam quais
forem os ai . Explicite esta solução.
Produto Interno
Figura 10.1.
Figura 10.2.
Zb
hf, gi = f(x)g(x) dx.
a
Zb
s
|f| = f(x)2 dx.
a
α1 hv1 , vi i + · · · + αn hvn , vi i = 0,
√ √ ! √ √ !
′ 2 2 ′ 2 2
u = , e v = − , ,
2 2 2 2
Figura 10.3.
|u + v|2 = hu + v, u + vi
= |u|2 + |v|2 + 2 hu, vi
≤ |u|2 + |v|2 + 2|u||v|
= (|u| + |v|)2 ,
Em particular, | − u| = |u|.
Observação. Em todo este livro, |α| significa o valor absoluto do
número α e |u| representa também a norma do vetor u.
Num espaço vetorial E munido de produto interno, a distância
entre os vetores u, v é, por definição, d(u, v) = |u − v|. Tem-se
d(u, u) = 0, d(u, v) > 0 se u 6= v, d(u, v) = d(v, u) e d(u, w) ≤
d(u, v) + d(v, w).
Mostraremos agora que existem bases ortonormais em todo es-
paço vetorial de dimensão finita provido de um produto interno.
Mais precisamente, exporemos o processo de ortonormalização
de Gram-Schmidt, um algoritmo que ensina a passar de uma base
qualquer {v1 , . . . , vn } ⊂ E para uma base ortonormal {u1 , . . . , un } ⊂ E,
com a importante propriedade de que, para m = 1, . . . , n, os vetores
u1 , . . . , um pertencem ao subespaço Fm , gerado por v1 , . . . , vm .
Dada a base {v1 , . . . , vn } ⊂ E, obteremos primeiro uma base or-
togonal {w1 , . . . , wn } ⊂ E e depois poremos u1 = w1 /|w1 |, . . . , un =
wn /|wn | para chegar à base ortonormalizada {u1 , . . . , un } ⊂ E.
Começamos o processo tomando w1 = v1 e prosseguimos por
indução. Suponhamos já obtidos os vetores não-nulos w1 , . . . , wm ,
Seção 10 Produto Interno 125
Figura 10.5.
v − z′ = (v − z) + (z − z′ ).
se exprime como
n
X
hu, vi = gij αi βj . (*)
i,j=1
A matriz g = [gij ] ∈ M(n × n) é simétrica, isto é, gij = gji pois
hvi , vj i = hvj , vi i. Mais ainda: a matriz g é positiva. Isto significa
que, além de g ser simétrica, para qualquer lista (x1 , . . . , xn ) de n
números reais não todos nulos, tem-se
n
X
gij xi xj > 0.
i,j=1
128 Produto Interno Seção 10
Exercı́cios
hw, v1 i = α1 , . . . , hw, vn i = αn .
u × v = (x2 y3 − x3 y2 , x3 y1 − x1 y3 , x1 y2 − x2 y1 ).
(a) u × v = −v × u;
(b) u × (v + v′ ) = u × v + u × v′ ;
(e) u × v é ortogonal a u e a v;
(f) e1 × e2 = e3 , e2 × e3 = e1 , e3 × e1 = e2 .
A Adjunta
= hv, A∗ wi + v, A∗ w′ = v, A∗ w + A∗ w′ .
portanto, b = aT , transposta de a.
Corolário. Uma transformação linear A e sua adjunta A∗ têm o
mesmo posto. (Vide Teorema 8.2.)
É apresentada a seguir uma lista de propriedades operacionais
da adjunta de uma transformação linear, as quais se traduzem em
propriedades da transposta de uma matriz, via Teorema 11.2. A va-
lidez dessas propriedades decorre da observação de que duas trans-
formações lineares A, B : E → F são iguais quando se tem hAu, vi =
hBu, vi para quaisquer u ∈ E, v ∈ F.
I∗ = I (In )T = In
(A + B)∗ = A∗ + B∗ (a + b)T = aT + bT
(αA)∗ = αA∗ (αa)T = αaT
(BA)∗ = A∗ B∗ (ba)T = aT bT
A∗∗ = A (aT )T = a
Se A : E → F é uma transformação linear injetiva então existe
B : F → E tal que BA = IE (vide Teorema 6.5). Tomando a adjunta
de ambos os membros desta igualdade, temos A∗ B∗ = IE . Assim
A∗ : F → E possui uma inversa à direita B∗ , logo é sobrejetiva. (Te-
orema 6.1.) Do mesmo modo se vê que A sobrejetiva implica A∗
injetiva. Portanto a adjunta de um isomorfismo A : E → F é um iso-
morfismo A∗ : F → E. Além disso, de A−1 A = IE resulta A∗ (A−1 )∗ = IE
logo (A∗ )−1 = (A−1 )∗ .
Seção 11 A Adjunta 137
Logo F = (F⊥ )⊥ .
N (A∗ ) = Im(A)⊥ ,
Im(A∗ ) = N (A)⊥ ,
N (A) = Im(A∗ )⊥ e
Im(A) = N (A∗ )⊥ .
Figura 11.1.
Exercı́cios
Subespaços Invariantes
Av = λv.
p(A) = a0 I + a1 A + · · · + an An .
α1 v1 + · · · + αm vm = 0, (*)
λ1 α1 v1 + · · · + λm αm vm = 0. (**)
Exercı́cios
Operadores Auto-Adjuntos
Pv, v′ = z, v′ = z, z′ = v, z′ = v, Pv′ .
logo F2 = F⊥
1 . Assim, a projeção P : E → E é um operador auto-adjunto
se, e somente se, é uma projeção ortogonal.
Uma matriz quadrada a = [aij ] diz-se simétrica quando é igual à
sua transposta aT , isto é, quando aij = aji para todo i e todo j.
No teorema 13.1 é dado um operador linear A : E → E, num
espaço vetorial de dimensão finita, dotado de produto interno.
Teorema 13.1. A : E → E é auto-adjunto se, e somente se, sua matriz
a = [aij ] relativamente a uma (e portanto a qualquer) base ortonor-
mal U = {u1 , . . . , un } ⊂ E é uma matriz simétrica.
Demonstração: hui , Auj i = [i-ésima coordenada do vetor Auj na
base U ] = [i-ésimo elemento da j-ésima coluna de a] = aij . Portanto
a matriz a é simétrica se, e somente se, hui , Auj i = hAui , uj i para
quaisquer i, j = 1, . . . , n. Devido à linearidade de A e à bilinearidade
do produto interno, isto equivale a dizer que hu, Avi = hAu, vi para
quaisquer u, v ∈ E, ou seja, que A é auto-adjunto.
Exemplo 13.3. As matrizes dos operadores A e B do Exemplo 13.1
na base canônica de R2 são respectivamente
1 0 0 1
a= e b= ,
0 2 1 0
158 Operadores Auto-Adjuntos Seção 13
onde os termos fora da diagonal, não indicados acima, são todos ze-
ros. Essas matrizes são simétricas, refletindo o fato de que represen-
tam operadores auto-adjuntos em bases ortonormais. Já o operador
A no Exemplo 2
12.6 não é auto-adjunto pois na base canônica de R
4 3
sua matriz é .
1 2
Teorema 13.2 Seja A : E → E um operador auto-adjunto. Se o su-
bespaço F ⊂ E é invariante por A, seu complemento ortogonal F⊥
também é.
O Teorema 13.2 decorre imediatamente do
Eλ = {v ∈ E; Av = λv}
para i 6= j, portanto
r p
X r p
X
hBv, wi = λi hvi , wi i = hv, Bwi e hBv, vi = λi |vi |2 .
i=1 i=1
logo Cv ∈ Eλi .
Mais uma observação: se C é uma raiz quadrada não-negativa
de A então,
√ para cada i = 1, . . . , r, o único autovalor da restrição de
C a Eλi é λi . Com efeito, se w ∈ Eλi é autovetor de C, digamos √ com
Cw = γ · w, então λi w = Aw = C2 w = γ2 · w, logo λi = γ2 e γ = λi .
Agora o argumento final: seja C uma raiz quadrada não-negativa de
A. Cada auto-subespaço Eλi é invariante √ pelo operador auto-adjunto
√
C e o único autovalor de C em Eλi é λi . Logo Cw = λi · w para
todo w ∈ Eλi . Então, dado v = v1 + · · · + vr , com v1 ∈ Eλ1 , . . . , vr ∈ Eλr ,
tem-se p p
Cv = λ1 · v1 + · · · + λr · vr
portanto C coincide com o operador B acima definido. A afirmação
sobre a positividade da raiz quadrada é óbvia.
Observação 1: Um dos argumentos acima usados permite mostrar
que se dois operadores auto-adjuntos A, B comutam então eles têm
um autovetor comum. Com efeito, seja λ1 um autovalor de A. Como
vimos acima, a hipótese AB = BA implica que o subespaço Eλ1 =
{v ∈ E; Av = λ1 v} é invariante por B. Pelo corolário do Teorema
13.5, o operador auto-adjunto B possui um autovetor w ∈ Eλ1 . Mas
todo vetor não-nulo em Eλ1 é autovetor de A. Logo w é autovetor
comum de A e B. Usando repetidamente o Teorema 13.2 conclui-se
então que se dois operadores auto-adjuntos comutam então existe
uma base ortonormal formada por autovetores de ambos.
Seção 13 Operadores Auto-Adjuntos 165
v ∈ N (A∗ A) ⇒ A∗ Av = 0
⇒ Av ∈ N (A∗ ) = Im(A)⊥
⇒ Av ∈ Im(A) ∩ Im(A)⊥ ,
Exercı́cios
( ) operadores auto-adjuntos
( ) operadores não-negativos
( ) homotetias.
Σ = {v ∈ E; hAv, vi = 1}.
p
espectral da transformação linear A. Seja |A| = tr(A∗ A) a norma
induzida pelo produto interno hA, Bi = tr(A∗ B), definido no Exercı́cio
11.17. Se σ21 , . . . , σ2n são os autovalores de A∗ A, tem-se
q
|A| = σ21 + · · · + σ2n e ||A|| = max σi .
√
Conclua que ||A|| ≤ |A| ≤ n.||A||.
13.29. Prove que todo operador auto-adjunto A : E → E pode ser
escrito como A = λ1 P1 + · · · + λm Pm onde:
(3) Pi Pj = 0 se i 6= j.
(4) P1 + · · · + Pm = I.
Operadores Ortogonais
m
X
aki akj = δij . (*)
k=1
(Estamos usando aqui, mais uma vez, o sı́mbolo δij , conhecido como
“delta de Kronecker”, que vale 0 se i 6= j e 1 se i = j.) A igualdade (*)
significa precisamente que o produto uT · u da transposta uT por u é
igual à matriz identidade n × n.
Portanto a matriz u ∈ M(m × n) é ortogonal se, e somente se,
uT · u = In .
Se u ∈ M(m × n) é ortogonal então seu posto é n (logo m ≥ n),
pois suas n colunas são vetores L.I. no espaço Rm . Quando m = n e
u ∈ M(n × n) é uma matriz quadrada ortogonal então a igualdade
uT · u = In implica u · uT = In logo uT = u−1 . (Vide Corolário do
Teorema 6.7 ou a propriedade 7) do produto de matrizes na Seção 8.)
Assim, matrizes quadradas ortogonais são aquelas cuja transposta
é igual à inversa.
A igualdade u · uT = In significa que as linhas de u formam um
conjunto de n vetores ortonormais em Rm . Portanto, para matrizes
quadradas, colunas ortonormais equivale a linhas ortonormais.
Se u ∈ M(n × p), v ∈ M(m × n) são ortogonais então (vu)T vu
= uT vT vu = uT In u = uT u = Ip logo o produto vu é ortogonal. Se
u ∈ M(n × n) é ortogonal então (uT )T · uT = u · uT = In logo uT = u−1
também é ortogonal.
Evidentemente, se m > n, as m linhas de uma matriz ortogonal
u ∈ M(m × n) não podem formar um conjunto ortonormal pois são
vetores em Rn , logo uT não é ortogonal quando u não é quadrada.
176 Operadores Ortogonais Seção 14
é ortogonal.
Exemplo 14.2. (Matrizes ortogonais 2 × 2.) Seja
a b
u=
c d
logo
n
X
δij = u′i , u′j =
pki pkj ,
k=1
portanto pT
· p = In . As últimas 2 igualdades da linha acima mos-
tram que, reciprocamente, se a matriz de passagem p é ortogonal,
então U ortonormal ⇒ U ′ ortonormal.
Teorema 14.1. As seguintes afirmações a respeito de uma trans-
formação linear A : E → F, entre espaços vetoriais de dimensão finita
providos de produto interno, são equivalentes:
(4) A∗ A = IE ;
resulta
m
X
hAui , Auj i = aki akj = δij ,
k=1
logo X = {x1 , . . . , xn } ⊂ F, com xi = Aui , é um conjunto ortonormal e
(6) ⇒ (7). Se vale (7), seja W = {w1 , . . . , wn } ⊂ E uma base ortonor-
mal qualquer. Para i, j = 1, . . . , n, temos
X X
wi = pki uk e wj = pkj uk ,
k k
ou
′ cos θ sen θ cos(−θ) − sen(−θ)
a = =
− sen θ cos θ sen(−θ) cos(−θ)
Demonstração: Os conjuntos F1 = {v ∈ E; Av = v} e F2 = {v ∈
E; Av = −v} são subespaços vetoriais invariantes por A, com F1 ∩
F2 = {0}. Logo F = F1 ⊕ F2 também é um subespaço invariante por
A, o mesmo acontecendo com o complemento ortogonal F⊥ . Seja
{u1 , . . . , ur } ⊂ F uma base ortonormal cujos primeiros vetores for-
mam uma base de F1 e os restantes uma base de F2 . Nenhum su-
bespaço de dimensão 1 em F⊥ é invariante por A, logo existe um
subespaço invariante G ⊂ F⊥ de dimensão 2. Seja {v1 , w1 } ⊂ G uma
base ortonormal. Como vimos acima, tem-se Av1 = cos α1 · v1 +
sen α1 · w1 , Aw1 = − sen α1 · v1 + cos α1 · w1 . Novamente, o com-
plemento ortogonal de G em F⊥ é um subespaço invariante por A,
que não possui autovetores, logo contém um subespaço invariante
de dimensão 2. Prosseguindo analogamente, chegaremos a uma
base ortonormal {v1 , w1 , . . . , vk , wk } ⊂ F⊥ tal que Avi = cos αi vi +
sen αi vi e Awi = − sen αi vi + cos αi wi para i = 1, . . . , k. Então
{u1 , . . . , ur , v1 , w1 , . . . , vk , wk } ⊂ E é uma base ortonormal, relativa-
mente à qual a matriz de A tem a forma desejada.
Exercı́cios
14.1. Prove que as linhas de uma matriz a são duas a duas orto-
gonais se, e somente se, aaT = d, onde d é uma matriz diagonal.
Enuncie e prove um resultado análogo sobre a ortogonalidade das
colunas de a.
14.2. Se as linhas de uma matriz quadrada forem duas a duas orto-
gonais e tiverem a mesma norma, prove que as colunas dessa matriz
também são duas a duas ortogonais.
14.3. Dê os seguintes exemplos:
(a) Uma matriz invertı́vel cujas linhas são duas a duas ortogonais
mas as colunas não são.
(b) Uma matriz (não-quadrada) cujas linhas são ortogonais e têm
a mesma norma mas as colunas não são ortogonais.
(c) Uma matriz cujas linhas (e colunas) são duas a duas ortogonais
mas as normas das linhas são diferentes.
Operadores Normais
(Caso Real)
e
a2 + b2 ac + bd
T
a a= .
ac + bd c2 + d2
Isto nos permite concluir que uma matriz normal 2×2 ou é simétrica
ou é a matriz de uma semelhança no plano.
Um operador linear A : E → E chama-se anti-simétrico quando
∗
A = −A, ou seja, hAu, vi = −hu, Avi para u, v ∈ E quaisquer. Para
que A seja anti-simétrico é necessário e suficiente que sua matriz
[aij ] em relação a uma base ortornormal de E seja anti-simétrica, isto
é, aij = −aji para quaisquer i, j = 1, 2, . . . , n. Em particular, aii = 0.
Num espaço de dimensão 1, todo operador anti-simétrico é igual a
zero; logo o único autovalor possı́vel de um operador anti-simétrico
é 0.
Evidentemente, todo operador anti-simétrico é normal.
Seção 15 Operadores Normais (Caso Real) 191
Observações:
1. Os números λ1 , . . . , λr são os autovalores de A. Dentre eles, os
não-nulos têm a forma λi = ±σj , onde σj é um q valor singular de A.
Os demais valores singulares de A são σj = α2j + β2j (j = 1, . . . , s).
2. Se A não possui autovetores, a matriz do Teorema 15.1 não apre-
senta a parte superior (diagonal). Por outro lado, se A é auto-adjunto
não existem os blocos 2 × 2 da parte inferior.
192 Operadores Normais (Caso Real) Seção 15
Exercı́cios
Pseudo-inversa
Figura 16.1.
são s, t. Encontramos
(2x − y) (2y − x)
s= e t= .
3 3
Portanto
1
(A∗ A)−1 (x, y) = (2x − y, 2y − x).
3
3
Assim, para qualquer (x, y, z) ∈ R temos
A+ (x, y, z) = [(A∗ A)−1 A∗ ](x, y, z)
= (A∗ A)−1 (x + z, y + z)
1
= (2x − y + z, 2y − x + z).
3
1
BB∗ (x, y) = B(2x − y, −x + 2y, x + y)
3
1
= (6x − 3y, −3x + 6y)
9
1
= (2x − y, −x + 2y).
3
Para determinar (BB∗ )−1 (x, y) = (s, t), resolvemos o sistema
BB∗ (s, t) = (x, y), isto é, 2s − t = 3x, −s + 2t = 3y, nas incógnitas
s, t, e encontramos s = 2x + y, t = x + 2y, portanto
(BB∗ )−1 (x, y) = (2x + y, x + 2y).
200 Pseudo-inversa Seção 16
Exercı́cios
(a) AA+ A = A
(b) A+ AA+ = A+
1 ha, bi
(BA)+ · 1 = e (A+ B+ ) · 1 = .
ha, bi |a|2 · |b|2
hw, bi
A+ w = ·a
|a|2 |b|2
para todo w ∈ F.
16.21. Sejam A : Rm → Rn sobrejetiva e B : Rn → Rm injetiva. Prove
que (BA)+ = A+ B+ . (Generalização do Exercı́cio 16.19.)
16.22. Prove que a projeção P : E → E é ortogonal se, e somente se,
P+ = P.
16.23. Use o Exercı́cio 16.20 para calcular a pseudo-inversa da
transformação linear A : R2 → R3 que tem a matriz
1 3
a = 4 12 .
1 3
Tópicos Matriciais
portanto g = aT ha.
Em particular, se tomarmos uma base ortonormal {u1 , . . . , un } ⊂
E, teremos h = In , portanto a matriz de Gram g se escreve como
g = g(v1 , . . . , vk ) = aT · a,
vemos que pjj = |wj |−1 é positivo, para cada j = 1, . . . , n. Como vimos
acima, esses números pjj são os autovalores da matriz p.
17.D A Decomposição qr
n
X n
X
qij = pkj aik = aik pkj = (ap)ij ,
k=1 k=1
210 Tópicos Matriciais Seção 17
2) uj é ortogonal a v1 , . . . , vj−1 ;
3) |uj | = 1;
4) pjj > 0.
σ21 , . . . , σ2r
são autovalores de aT a.
Se a ∈ M(4 × 5) e tem posto 3 então a matriz d tem a seguinte
forma, com λ1 > 0, λ2 > 0 e λ3 > 0:
λ1 0 0 0 0
0 λ2 0 0 0
d= 0 0
.
λ3 0 0
0 0 0 0 0
212 Tópicos Matriciais Seção 17
17.F A Decomposição lu
0 0 1 0 1 0 0 0 1 0 0 0
0 1 0 0 0 1 0 0 0 α 0 0
1
, , .
0 0 0 0 0 1 0 0 0 1 0
0 0 0 1 α 0 0 1 0 0 0 1
−α4 0 0 1
214 Tópicos Matriciais Seção 17
mm . . . m2 m1 a = u,
a = m−1 −1 −1
1 m2 . . . mm u = lu
(j) (j)
onde αij = aij /ajj . Nesta notação, indicamos com a(j) = mj . . . m1 a
matriz que se obtém depois da eliminação dos elementos abaixo da
diagonal na j-ésima coluna. (Portanto j = 0, 1, . . . , m − 1, e a(0) = a.)
Estamos admitindo que não houve necessidade de efetuar trans-
posição de linhas, ou seja, que em todas as etapas se tem o pivô
(a(j) )jj 6= 0.
Concluı́mos então que, mediante essa hipótese, a matriz a se es-
creve como um produto
a = lu,
onde l ∈ M(m × m) é uma matriz triangular inferior (lower triangu-
lar) com elementos diagonais todos iguais a 1 e u é uma matriz esca-
lonada. Se a for uma matriz quadrada m × m então u ∈ M(m × m)
será uma matriz triangular superior. Esta é a chamada decom-
posição lu da matriz a.
É importante observar os seguintes fatos a respeito da decompo-
sição a = lu.
1o¯ ) O método gaussiano de eliminação fornece diretamente os ele-
mentos das matrizes l e u.
2o¯ ) Quando se dispõe da decomposição a = lu, a solução do sistema
ax = b, com b ∈ M(m × 1), se reduz a resolver o sistema ly = b
e, depois de obtida y, o sistema ux = y. O primeiro se resolve de
cima para baixo e o segundo de baixo para cima, pois l é triangular
inferior e u é escalonada.
3o¯ ) A maior vantagem computacional da decomposição a=lu ocorre
quando se tem de resolver um grande número de equações ax = b,
com a mesma matriz a e muitos vetores b. Dispondo da decom-
posição a = lu não é preciso repetir muitas vezes o processo de
eliminação gaussiana.
4o¯ ) A priori, não se sabe quais são (nem mesmo se vão ser ne-
cessárias) as transposições de linhas durante o processo de escalona-
mento de uma matriz a. Entretanto, depois de efetuado o processo,
dispomos da relação de todas as transposições feitas. Efetuando, na
mesma ordem em que foram feitas, todas essas transposições nas li-
nhas da matriz identidade, obtemos uma matriz p ∈ M(m × m), que
se chama uma matriz de permutação. O produto pa corresponde a
efetuar sobre a matriz a, antecipadamente, todas as transposições
de linhas que seriam necessárias durante o escalonamento. Por-
216 Tópicos Matriciais Seção 17
A matriz
a11 a12
0 b22
resulta da matriz principal
a a12
a2 = 11
a21 a22
obtemos a decomposição
1 2 3 4 1 0 0 1 2 3 4
5 6 7 8 = 5 1 0 0 −4 −8 −12 ,
9 10 12 12 9 2 1 0 0 1 0
a = l1 u1 = l2 u2 ⇒ l−1 −1
2 l1 = u2 u1 .
e calculamos
√ √
6 √0 0 6 0 0
1 0 0
√6 √ 3
tT = ld = 1 1 0 0 3 0 = 0
√ .
√
5 2 2 √5 √2 2
6 3 1 0 0 2 6 3 2
Exercı́cios
determine
x y
t=
0 z
de modo que se tenha a decomposição de Cholesky a = tT .t.
222 Tópicos Matriciais Seção 17
2 2 1 3
Formas Quadráticas
m n
!
X X X
b′ij = b(u′i , v′j ) =b pri ur , qsj vs = pri qsj b(ur , vs )
r=1 s=1 r,s
X X
T
= pri qsj brs = pri brs qsj = (p bq)ij ,
r,s r,s
logo b′ = pT bq.
226 Formas Quadráticas Seção 18
e
(f ∧ g)(u, v) = f(u)g(v) − f(v)g(u),
definem formas bilineares f•g, f∧g : E×E → R, a primeira simétrica
e a segunda anti-simétrica.
Teorema 18.2. Seja E um espaço vetorial de dimensão finita provido
de produto interno. Para cada forma bilinear b : E × E → R existe um
único operador linear B : E → E tal que
= b(u, v) + b(u, v′ )
= hu, Bvi + u, Bv′
= u, Bv + Bv′
m
X
ϕ(v) = bij xi xj .
i,j=1
pertencer a F então
logo
x21 + · · · + x2i > 0
e daı́ (x1 , . . . , xi ) 6= 0. Isto mostra que a transformação linear A : F →
Ri , definida por
m
X
Av = A xj vj = (x1 , . . . , xi ),
j=1
ou, equivalentemente,
X
x1 = z 1 − cj z j , x2 = z 2 , . . . , xm = z m ,
j≥2
portanto
2
X
ϕ(v) = b11 z21 − b11 cj zj + ψ(v′ )
j≥2
Seção 18 Formas Quadráticas 235
ou seja, ϕ(v) = b11 z21 + ξ(v′ ) onde, outra vez, ξ é uma forma quadrá-
tica no subespaço F, de dimensão m − 1. Efetuando a nova mudança
de variáveis
y1
z1 = p , zj = yj (j ≥ 2),
|b11 |
obtemos ϕ(v) = ±y21 + ξ(v′ ). Aplicando o mesmo método a ξ e pros-
seguindo analogamente, chegaremos no final a
X
ϕ(v) = ±y2i
ou, mais explicitamente:
ϕ(v) = −y21 − · · · − y2i + y2i+1 + · · · + y2r ,
onde i é o ı́ndice e r o posto da forma quadrática ϕ. Os números
yj são as coordenadas do vetor v na base de E obtida após a última
mudança de coordenadas.
Exemplo 18.2. Seja ϕ : R3 → R a forma quadrática dada por
ϕ(x, y, z) = 2x2 + 2y2 − 2z2 + 4xy − 4xz + 8yz.
Completando o quadrado, vemos que a soma das parcelas que con-
têm o fator x se escreve como
2x2 + 4xy − 4xz = 2[x2 + 2x(y − z)]
= 2[x2 + 2x(y − z) + (y − z)2 ] − 2(y − z)2
= 2(x + y − z)2 − 2(y − z)2 .
A mudança de variáveis s = x + y − z nos dá então
ϕ(x, y, z) = 2s2 − 2(y − z)2 + 2y2 − 2z2 + 8yz
= 2s2 − 4z2 + 12yz.
Novamente completamos o quadrado, agora na soma das parcelas
que contêm z, e obtemos
2 2 3
−4z + 12yz = −4 z − 2z · y
2
3 9 2
2
= −4 z − 2z · y + y + 9y2
2 4
2
3
= −4 z − y + 9y2 .
2
236 Formas Quadráticas Seção 18
Isto já nos diz que a forma quadrática ϕ tem posto 3 e ı́ndice 1, logo
é indefinida.
Se quisermos, podemos fazer a mudança de variáveis
y1 y2 y3
s= √ , t= , y=
2 2 3
e teremos
ϕ(x, y, z) = y21 − y22 + y23 .
Evidentemente, não há dificuldade em obter a expressão das va-
riáveis y1 , y2 e y3 em função de x, y, z e vice-versa. Mas, para efeito
de conhecer o ı́ndice e o posto de ϕ, isto é desnecessário.
Quádricas
O estudo das formas quadráticas tem uma aplicação interessante
à Geometria Analı́tica n-dimensional, que apresentaremos breve-
mente aqui.
Um subconjunto Σ ⊂ Rn chama-se uma quádrica central quando
existe uma forma quadrática ϕ : Rn → R tal que Σ é definido pela
equação ϕ(v) = 1.
Se X
ϕ(v) = aij xi xj
i,j
λ1 y21 + · · · + λn y2n = 1,
Seção 18 Formas Quadráticas 237
2o¯ ) Se λ > 0 e µ > 0 (isto é, a > 0 e ac > b2 ) tem-se uma elipse.
λ1 y21 + λ2 y22 = 1.
e escrevemos
onde d = |b|.
Observemos que todas as mudanças de coordenadas foram fei-
tas mediante translações e transformações lineares ortogonais (ou,
o que é o mesmo, escolhas de bases ortonormais). Podemos então
concluir que, dada uma quádrica:
n
X n
X
Σ: aij xi xj + bi x i = c (*)
i,j=1 i=1
ou
λ1 t21 + · · · + λr t2r = c′ ,
Seção 18 Formas Quadráticas 241
Exercı́cios
(a) f ⊗ g = 0 ⇒ f = 0 ou g = 0.
ache uma matriz ortogonal p tal que pT bp seja uma matriz diagonal.
A partir daı́ obtenha uma base ortonormal {u, v} ⊂ R2 tal que a forma
quadrática ϕ : R2 → R, com ϕ(x, y) = 4x2 + 2xy + 2y2 se escreva como
ϕ(w) = λs2 + µt2 para todo vetor w = su + tv.
18.13. Dadas as formas quadráticas abaixo, use o método de La-
grange para exprimi-las como somas e diferenças de quadrados e, a
partir daı́, determine o ı́ndice e o posto de cada uma delas:
Determinantes
se X X X
u= xi u i , v= y j uj e w= z k uk .
Verifica-se facilmente que f, assim definida, é trilinear e que
f(ui , uj , uk ) = aijk . Além disso, se g : E × E × E → R é trilinear e
g(ui , uj , uk ) = aijk para i, j, k = 1, . . . , n quaisquer, então para
X X X
u= xi u i , v = y j uj e w = z k uk .
Seção 19 Determinantes 247
arbitrários, tem-se
X X X
g(u, v, w) = g( xi u i , y j uj , z k uk )
X
= xi yj zk g(ui , uj , uk )
X
= aijk xi yj zk = f(u, v, w),
logo g = f.
Corolário. O espaço vetorial Lr (E; R) das formas r-lineares
f : E × · · · × E → R tem dimensão nr .
Com efeito, uma vez fixada a base U ⊂ E, o Teorema 19.1 faz
corresponder, biunivocamente, a cada f ∈ Lr (E; R) os nr números aJ .
r
Isto determina um isomorfismo entre Lr (E; R) e Rn .
Uma forma r-linear f : E×· · ·×E → R chama-se alternada quando
f(v1 , . . . , vr ) = 0 sempre que a lista (v1 , . . . , vr ) tiver repetições, ou
seja, quando
para quaisquer v, v1 , . . . , vr ∈ E.
Teorema 19.2. Uma forma r-linear f : E × · · · × E → R é alternada
se, e somente se, é anti-simétrica, isto é,
f(v1 , . . . , vi , . . . , vj , . . . , vr ) = −f(v1 , . . . , vj , . . . , vi , . . . , vr )
para quaisquer v1 , . . . , vr ∈ E.
Demonstração: Por simplicidade, escrevamos
Então
X
f(v1 , . . . , vr ) = f(v1 , . . . , αj v j , . . . , v r )
j<i
X
= αj f(v1 , . . . , vj , . . . , vj , . . . , vr ) = 0
j<i
pois f é alternada.
Corolário 1. Se existe uma forma r-linear alternada f : E × · · · ×
E → R tal que f(v1 , . . . , vr ) 6= 0 então os vetores v1 , . . . , vr ∈ E são
linearmente independentes.
Corolário 2. Se r > dim E então Ar (E) = {0}.
Com efeito, sendo r > dim E, quaisquer r vetores v1 , . . . , vr são
linearmente dependentes, logo f(v1 , . . . , vr ) = 0 para todo f ∈ Ar e
todos v1 , . . . , vr ∈ E.
A partir de agora, concentraremos nosso interesse nas formas
n-lineares alternadas, f ∈ An (E), onde n = dim E. O resultado fun-
damental é o teorema seguinte e, principalmente, seu Corolário 1.
Teorema 19.4. Seja U = {u1 , . . . , un } uma base de E. Dado arbitra-
riamente um número real a, existe uma única forma n-linear alter-
nada f : E × · · · × E → R tal que f(u1 , . . . , un ) = a.
Demonstração: Suponhamos inicialmente que exista f ∈ An (E) tal
que f(u1 , . . . , un ) = a. Se g ∈ An (E) for tal que g(u1 , . . . , un ) também
é igual a a, então para toda lista de vetores ui1 , . . . , uin ∈ U tem-se:
ou seja:
det a = fo (v1 , . . . , vn ).
Portanto det : M(n × n) → R é a única função n-linear alternada
das colunas da matriz a = [v1 , . . . , vn ] que assume o valor 1 na matriz
identidade In .
Para uma qualquer função n-linear alternada f(a) = f(v1 , . . . ,
vn ) das colunas da matriz a = [v1 , . . . , vn ], tem-se evidentemente
f(a) = f(v1 , . . . , vn ) = c · det a, onde c = f(In ) = f(e1 , . . . , en ).
Escrevemos det[v1 , . . . , vn ] para indicar o determinante da ma-
triz cujas colunas são os vetores v1 , . . . , vn ∈ Rn . A afirmação acima
destacada é a caracterização axiomática dos determinantes feita por
Weierstrass. Segundo ela, todas as propriedades dos determinantes
podem, em princı́pio, ser deduzidas das seguintes:
4) det[e1 , . . . , en ] = 1.
Por exemplo, vale:
Seja X
w= αj v j .
j6=i
254 Determinantes Seção 19
det[v1 , . . . , vi + w, . . . , vn ] = det[v1 , . . . , vi , . . . , vn ],
v1 = t11 e1 ,
v2 = t12 e1 + t22 e2 ,
v3 = t13 e1 + t23 e2 + t33 e3 , etc.
Portanto
det t = det[t11 e1 , v2 , . . . , vn ]
= t11 det[e1 , t12 e1 + t22 e2 , v3 , . . .]
= t11 t22 det[e1 , e2 , t13 e1 + t23 e2 + t33 e3 , v4 , . . .]
= t11 t22 t33 det[e1 , e2 , e3 , v4 , . . .].
det a[i; b]
xi = , i = 1, . . . , n.
det a
Seção 19 Determinantes 255
logo
det a = fo (v1 , . . . , vn )
X n n
X n
X
= fo ai1 1 ei1 , ai2 2 ei2 , . . . , ain n ein
i1 =1 i2 =1 in =1
n
X
= ai1 1 ai2 2 · . . . · ain n · fo (ei1 , ei2 , . . . , ein ).
i1 ,...,in =1
Seção 19 Determinantes 257
pois
Ir c
f(Ir , In−r ) = det = 1,
0 In−r
já que o determinante de uma matriz triangular é o produto dos
elementos da sua diagonal.
O Teorema 19.8 implica imediatamente uma sua versão mais ge-
ral, onde se tem uma matriz triangular por blocos, por exemplo, do
tipo
b c d
a= e f .
g
Aı́, b, e, g são matrizes quadradas (de ordens possivelmente diferen-
tes) e b, c, d têm o mesmo número de linhas, assim como e, f. Além
disso, d, f, g têm o mesmo número de colunas, assim como c, e. Os
lugares em branco são ocupados por zeros.
Seção 19 Determinantes 259
tem-se X
det a = ai1 det[ei , v2 , . . . , vn ],
i
logo X
det a = (−1)i+1 ai1 det Mi1 .
i
A fórmula acima, chamada o desenvolvimento de det a segundo
a primeira coluna, reduz o cálculo do determinante de sua matriz
n × n ao de n determinantes de matrizes (n − 1) × (n − 1).
Mais geralmente, podemos fixar um inteiro arbitrário j, com
1 ≤ j ≤ n, e efetuar o desenvolvimento do determinante de a se-
gundo a j-ésima coluna. Para isso, observamos que se
a = [v1 , . . . , vj−1 , ei , vj+1 , . . . , vn ]
é uma matriz cuja j-ésima coluna é ei então det a = (−1)i+j det Mij ,
pois a pode ser transformada numa matriz cuja primeira coluna é e1
mediante i − 1 transposições de linha e j − 1 transposições de coluna,
o que provoca i + j − 2 mudanças de sinal em seu determinante, e
isto é o mesmo que multiplicá-lo por (−1)i+j .
Assim, dada a = [v1 , . . . , vn ], com
X
vj = aij ei ,
i
260 Determinantes Seção 19
temos
X
det a = aij det[v1 , . . . , vj−1 , ei , vj+1 , . . . , vn ],
i
o que fornece:
n
X
det a = (−1)i+j aij det Mij .
i=1
e
S = {j1 < · · · < js } ⊂ {1, 2, . . . , n}
determinam a submatriz aRS = [aiα jβ ] ∈ M(r × s) da matriz a, obtida
pela omissão das linhas de a cujos ı́ndices não pertencem a R e das
colunas cujos ı́ndices não estão em S.
Teorema 19.9. O posto de uma matriz a ∈ M(m × n) é o maior
número r tal que a possui uma submatriz aRS ∈ M(r × r), com
det aRS 6= 0.
Demonstração: Seja r o posto de a = [v1 , . . . , vn ]. Existe S = {j1 <
· · · < jr } ⊂ {1, 2, . . . , n} tal que {vj1 , . . . , vjr } é L.I., portanto a matriz
[vj1 , . . . , vjr ] ∈ M(m × r) tem posto r. Como o posto segundo linhas é
igual ao posto segundo colunas (Teorema 8.2), existe um subconjunto
R = {i1 < · · · < ir } ⊂ {1, 2, . . . , m} tal que as linhas de [vj1 , . . . , vjr ] cujos
ı́ndices pertencem a R são L.I. . Isto significa que a matriz quadrada
aRS ∈ M(r × r) é invertı́vel, logo det aRS 6= 0. Mas é claro que o
posto de uma submatriz de a é menor do que ou igual ao posto de
a. Portanto, nenhuma submatriz k × k de a, com k > r, pode ter
determinante 6= 0.
262 Determinantes Seção 19
Apêndice
Uma permutação dos inteiros 1, 2, . . . , n é uma bijeção σ : Jn → Jn ,
onde Jn = {1, 2, . . . , n}. Um exemplo particular de permutação, quan-
do n > 1, é dado pelas transposições. Uma transposição τ : Jn → Jn
é definida fixando-se dois elementos i 6= j em Jn , pondo τ(i) = j,
τ(j) = i e τ(k) = k se k ∈ / {i, j}.
Se σ, σ′ : Jn → Jn são permutações então a função composta σ ◦
σ′ : Jn → Jn também é uma permutação, chamada o produto das
permutações σ e σ′ e indicada pela notação σσ′ . A inversa σ−1 : Jn →
Jn de uma permutação é ainda uma permutação, caracterizada pelo
fato de que σσ−1 = σ−1 σ = ιn = permutação identidade Jn → Jn . Se
Seção 19 Determinantes 263
Exercı́cios
Π (xi − xj ),
i>j
O Polinômio Caracterı́stico
pA (λ) = (−1)n (λ − λ1 ) · · · (λ − λn ).
n
Y
pA (λ) = (−1)n (λ − λi )
i=1
onde
q(λ) = det(c − λIn−r ).
Portanto pA (λ) é um múltiplo de pA′ (λ).
Teorema 20.1. Se as raı́zes do polinômio caracterı́stico pA são todas
reais então o operador A : E → E é triangularizável.
Demonstração: O teorema é óbvio se dim E = 1. Para prová-lo
por indução, suponhamo-lo válido em dimensão n − 1 e seja dim E =
n. Introduzamos (caso não exista ainda) um produto interno em
E. Como A e A∗ têm o mesmo polinômio caracterı́stico, o operador
A∗ : E → E tem autovalor logo existe um subespaço F ⊂ E, de di-
mensão 1, invariante por A∗ . O complemento ortogonal F⊥ = Fn−1
é um subespaço vetorial de dimensão n − 1 em E, invariante por A,
pois A = (A∗ )∗ . (Vide Teorema 13.3.) Pelo Lema, se A′ : Fn−1 → Fn−1
é a restrição de A ao subespaço Fn−1 , as raı́zes do polinômio carac-
terı́stico pA′ são também raı́zes de pA , logo são todas reais. Pela
hipótese de indução, existem subespaços Fo ⊂ F1 ⊂ · · · ⊂ Fn−1 , com
dim Fi = i, invariantes por A′ , logo invariantes por A, o que prova o
teorema.
Exemplo 20.3. Um operador num espaço vetorial de dimensão
2 é triangularizável se, e somente se, possui ao menos um auto-
valor real. Por exemplo, uma rotação de ângulo θ, com θ 6= 0 e
θ 6= 180◦ , não é triangularizável pois suas raı́zes caracterı́sticas são
cos θ±i sen θ, ambas complexas. (Vide Exemplo 14.2.) Já o operador
A : R2 → R2 , A(x, y) = (7x−12y, 3x−5y), tem polinômio caracterı́stico
Seção 20 O Polinômio Caracterı́stico 273
O polinômio caracterı́stico de A é
é igual a zero. Para isto, basta verificar que Be1 = Be2 = 0. Ora,
temos Ae1 = (a, c), A2 e1 = (a2 + bc, ac + cd), e1 = (1, 0), logo
Exercı́cios
Espaços Vetoriais
Complexos
α1 u1 + · · · + αn un + β1 iu1 + · · · + βn iun = 0
Seção 21 Espaços Vetoriais Complexos 283
implica
(α1 + iβ1 )u1 + · · · + (αn + iβn )un = 0,
logo α1 + iβ1 = · · · = αn + iβn = 0 pois U é L.I. sobre os complexos.
Daı́ resulta que α1 = · · · = αn = β1 = · · · = βn = 0, portanto U ′ é L.I.
sobre os reais. Além disso, dado qualquer v ∈ E, existem números
complexos α1 + iβ1 , . . . , αn + iβn tais que
n
X n
X n
X
v= (αj + iβj )uj = αj u j + βj (iuj ).
j=1 j=1 j=1
e
V ′ = {v1 , . . . , vm , iv1 , . . . , ivm } ⊂ F,
vejamos qual é a matriz de Ar . Temos, para j = 1, . . . , n:
m
X m
X m
X
Ar uj = Auj = (akj + ibkj )vk = akj vk + bkj (ivk ),
k=1 k=1 k=1
m
X m
X
Ar (iuj ) = A(iuj ) = i · Auj = (−bkj )vk + akj (ivk ),
k=1 k=1
4. hu, ui > 0, se u 6= 0.
= hu, vi + u, v′ .
hu, vi = ξ1 ζ1 + · · · + ξn ζn .
para f, g ∈ E quaisquer.
Exemplo 21.5. Em todo espaço vetorial complexo E, de dimensão
finita, pode-se introduzir um produto interno hermitiano. (Na reali-
dade, uma infinidade deles.) Basta tomar uma base {u1 , . . . , un } ⊂ E
e, para dois vetores
X X
u= ξk uk , v = ζk u k
286 Espaços Vetoriais Complexos Seção 21
quaisquer em E, pôr X
hu, vi = ξk ζk .
Isto mostra que, como no caso real, a existência de um produto in-
terno hermitiano num espaço vetorial complexo de dimensão finita
não é uma propriedade adicional desse espaço mas apenas uma es-
colha que se fez dentre infinitas possibilidades.
A partir da definição de produto interno hermitiano há poucas
adaptações a fazer a fim de que as restantes seções, de 10 a 20,
tenham seus resultados validados (e alguns fortalecidos, como ve-
remos logo mais).
Uma das modificações a fazer como conseqüência da sesqui-line-
aridade do produto interno hermitiano diz respeito ao Teorema 11.1,
que passa a ter o seguinte enunciado:
Teorema 21.1. Seja E um espaço vetorial complexo de dimensão
finita, munido de um produto interno hermitiano. A correspondência
que associa a cada vetor v ∈ E o funcional linear φ(v) = v∗ : E → C,
tal que v∗ (w) = hw, vi para todo w ∈ E, é uma bijeção φ : E → E∗ tal
que (u + v)∗ = u∗ + v∗ e (ζv)∗ = ζ · v∗ para quaisquer u, v ∈ E e ζ ∈ C.
Acima, E∗ é, como antes, o dual de E, ou seja, o espaço vetorial
complexo cujos elementos são os funcionais C-lineares f : E → C.
A diferença entre os Teoremas 11.1 e 21.1 é que, neste último, a
correspondência v 7→ v∗ não é um isomorfismo entre E e E∗ , pois falha
a condição (ζv)∗ = ζv∗ , em vez da qual se tem apenas (ζv)∗ = ζv∗ .
Com efeito, para todo w ∈ E, tem-se
(ζv)∗ (w) = hw, ζvi = ζ hw, vi = ζv∗ (w), portanto (ζv)∗ = ζv∗ .
Por isso, ela se chama um anti-isomorfismo.
O Teorema 21.1 pode então ser refraseado dizendo-se que a bije-
ção φ : E → E∗ nele definida é um anti-isomorfismo.
Isto não impede de maneira nenhuma que se defina a adjunta
∗
A : F → E de uma transformação C-linear A : E → F, entre espaços
vetoriais complexos munidos de produto interno hermitiano, como a
única transformação C-linear A∗ : F → E tal que
hAv, wi = hv, A∗ wi
para v ∈ E, w ∈ F quaisquer. Valem as propriedades (A + B)∗ =
A∗ + B∗ , (BA)∗ = A∗ B∗ , I∗ = I, (A∗ )∗ = A e (A∗ )−1 = (A−1 )∗ , nesta
Seção 21 Espaços Vetoriais Complexos 287
é simétrico.
Uma matriz u ∈ M(n×n; C) chama-se unitária quando u∗ = u−1 .
Para que isto aconteça basta que u∗ u = In , ou que uu∗ = In . A pri-
meira destas igualdades significa que as colunas de u formam uma
base ortonormal de Cn (relativamente ao produto interno hermiti-
ano). A segunda assegura a mesma propriedade para as linhas de
u. As matrizes unitárias reais são as ortogonais.
Feitas essas observações de caráter geral, passemos a tirar pro-
veito da estrutura complexa.
O determinante e o polinômio caracterı́stico, como não têm nada
a ver com produto interno, se definem de modo análogo ao caso real.
Segundo o Teorema Fundamental da Álgebra, todo polinômio
p(λ) = ao + a1 λ + · · · + an λn
n
Y
p(λ) = (λk − λ)
k=1
Daı́ resulta que a matriz c tem uma forma “triangular por blocos”.
Mostramos abaixo esta matriz no caso n = 3:
a11 −b11 a12 −b12 a13 −b13
b11 a11 b12 a12 b13 a13
0 0 a22 −b22 a23 −b23
c= .
0 0 b22 a22 b23 a23
0 0 0 0 a33 −b33
0 0 0 0 b33 a33
Exercı́cios
21.5. Seja p(λ) um polinômio tal que p(A) = 0. Prove que todo
autovalor λ1 do operador A é raiz do polinômio p(λ). Conclua daı́
que toda raiz do polinômio caracterı́stico pA (λ) é também raiz do
polinômio mı́nimo mA . (A recı́proca é evidente porque mA divide pA .)
21.12. Sem fazer cálculo algum, conclua que o produto de duas ma-
trizes 2n × 2n do tipo
a −b
b a
é ainda deste mesmo tipo.
21.13. Assinale V(erdadeiro) ou F(also):
( ) Se
cos θ − sen θ
a= ,
sen θ cos θ
(b) Os polinômios p1 (λ), . . . , pk (λ) são primos entre si, logo existem
q1 (λ), . . . , qk (λ) tais que
k
X
qi (λ)pi (λ) = 1.
i=1
(c) Seja Ci = qi (A). Para todo v ∈ E tem-se v = ΣBi (Ci v), logo os
autovetores de A geram E.
(d) k ≤ n.
22
Equações a
Diferenças Finitas
x1 = axo + b,
x2 = ax1 + b = a2 xo + (1 + a)b,
x3 = ax2 + b = a3 xo + (1 + a + a2 )b,
..
.
xk = axk−1 + b = ak .xo + (1 + a + · · · + ak−1 )b
1 − ak
xk = ak .xo + · b, se a 6= 1
1−a
xk = xo + k · b, se a = 1.
2α + 2β = 3α
2α − β = 3β
2γ + 2δ = −2γ
2γ − δ = −2δ
Ak .u = 3k .u = (3k .2, 3k )
e
Ak .v = (−2)k .v = (−2)k , (−2)k+1 .
Para obter, digamos, a solução do sistema vk+1 = Avk cujo vetor
inicial é vo = (xo , yo ), com xo = 1, yo = 1, exprimimos o vetor
vo = (1, 1) como combinação linear dos vetores básicos u = (2, 1)
e v = (1, −2), obtendo
3 1
vo = u − v.
5 5
A solução procurada é, portanto:
3 1 3k+1 (−2)k
vk = Ak .vo = Ak u − Ak v = u− v.
5 5 5 5
Seção 22 Equações a Diferenças Finitas 303
2 1
xk = [3k+1 + (−2)k−1 ] e yk = [3k+1 − (−2)k+1 ].
5 5
No caso em que dim E = 2, o problema de calcular efetivamente a
solução do sistema vk+1 = Avk pode ser resolvido em todos os casos,
como mostraremos agora.
Tendo visto o caso em que o espaço E possui uma base de autove-
tores do operador A : E→E, vamos agora (supondo sempre dim E=2)
examinar os casos em que tal base não existe. Há duas possibilida-
des, que são as seguintes:
Primeira. O polinômio caracterı́stico de A possui uma raiz real
dupla λ, mas A 6= λI. (Evidentemente, quando A = λI todo vetor
não-nulo em E é autovetor de A, logo este caso já foi visto.)
Segunda. O polinômio √ caracterı́stico de A possui raı́zes complexas
λ + iµ e λ − iµ (com i = −1 e µ 6= 0).
Consideremos o primeiro destes dois casos.
Existe um vetor não-nulo u ∈ E tal que Au = λu. Além disso,
somente os múltiplos de u podem ser autovetores de A. (Com efeito,
sendo λ o único autovalor de A, se existisse um autovetor v não
múltiplo de u, terı́amos uma base {u, v} ⊂ E com Au = λu, Av = λv,
donde A = λI.)
Tomemos um vetor v tal que {u, v} ⊂ E seja uma base. Então
Av = αu + βv com α 6= 0 pois v não é autovetor. Se fôr α 6= 1,
substituı́mos v por w = α−1 v e obtemos uma nova base {u, w} ⊂ E
tal que Au = λu, Aw = u + γw. Na base {u, w}, A tem a matriz
triangular
λ 1
,
0 γ
cujos autovalores são λ, γ. Segue-se que γ = λ. Assim, temos
Au = λu
(*)
Aw = u + λw
λ 1
e a matriz de A na base {u, w} é m = .
0 λ
304 Equações a Diferenças Finitas Seção 22
logo
λk kλk−1
k
m = .
0 λk
p(λ) = λ2 − 4λ + 4,
Pelo que foi dito acima, para obter a solução vk = (xk , yk ) = Ak .vo do
sistema
xk+1 = 3xk − yk ,
yk+1 = xk + yk ,
vk = 3.Ak u − 2.Ak w.
xk = 2k (3 − k) e yk = 2k (5 − k).
Seção 22 Equações a Diferenças Finitas 305
e
(α + iβ)(u + iv) = (αu − βv) + i(αv + βµ).
Tem-se E⊂Ec de modo natural, pois u=u+i.0. O operador A : E→E
estende-se a um operador Ac : Ec → Ec , chamado o complexificado de
A, pondo-se, por definição, Ac (u + iv) = Au + iAv. Toda base de E
é também uma base de Ec , relativamente à qual a matriz de Ac é a
mesma matriz de A. Em particular, os polinômios caracterı́sticos de
A e Ac coincidem, logo λ + iµ e λ − iµ são autovalores distintos do
operador C-linear Ac : Ec → Ec . Para nossos efeitos, basta considerar
o autovalor λ + iµ.
Seja u + iv ∈ Ec um autovetor de Ac correspondente ao autovalor
λ + iµ. Então u, v ∈ E são vetores não simultaneamente nulos, com
Ac (u + iv) = (λ + iµ)(u + iv), ou seja:
logo
Au = λu − µv e Av = µu + λv. (*)
Afirmamos que os vetores u, v ∈ E são linearmente independen-
tes. Em primeiro lugar, u e v são ambos 6= 0 pois se um deles fosse
nulo o outro seria 6= 0 e, pelas equações (*), este seria um autovetor
do operador A : E → E. Em seguida, se u e v fossem L.D. terı́amos
v = αu, logo Au = λu − µv = (λ − αµ)u e u seria um autovetor de A.
Portanto, {u, v} ⊂ E é uma base, relativamente à qual a matriz do
operador A : E → E tem a forma
λ µ
a= .
−µ λ
306 Equações a Diferenças Finitas Seção 22
onde p
ρ= λ2 + µ2 , cos θ = λ/ρ, sen θ = µ/ρ.
ax + by = λx − µs
cx + dy = λy − µt
as + bt = µx + λs
cs + dt = µy + λt
ou
(a − λ)x +by +µs =0
cx +(d − λ)y +µt =0
−µx +(a − λ)s +bt =0
−µy +cs +(d − λ)t = 0.
Exemplo 22.7. Consideremos o sistema xk+1 = 3xk − yk , yk+1 =
2xk + yk , com vetor inicial vo = (1, 1). Ele nos fornece o operador
A : R2 → R2 , A(x, y) = (3x − y, 2x + y), cuja matriz na base canônica
é
3 −1
,
2 1
3x − y = 2x − s
2x + y = 2y − t
3s − t = x + 2s
2s + t = y + 2t
ou seja
x − y +s =0
2x − y +t = 0
−x +s −t = 0
−y +2s −t = 0.
308 Equações a Diferenças Finitas Seção 22
λk = pA (λ) · q(λ) + αλ + β,
donde
Ak = pA (A) · q(A) + αA + βI.
Como pA (A) = 0, segue-se que Ak = αA + βI.
Para encontrar α e β, suponhamos inicialmente que as raı́zes
caracterı́sticas λ1 e λ2 sejam distintas. Por definição, temos pA (λ1 ) =
pA (λ2 ) = 0 logo da identidade λk = pA (λ) · q(λ) + αλ + β resultam as
igualdades:
αλ1 + β = λk1
αλ2 + β = λk2 .
λk = pA (λ) · q(λ) + αλ + β
Além disso, como os vetores (1, r) e (0, r) são L.I. em R2 , segue-se que
r∗ e r∗∗ são soluções linearmente independentes, logo a solução geral
da equação dada tem a forma
k kπ kπ
xk = 2 α cos + β sen .
3 3
Se quisermos, por exemplo, obter a solução tal que xo = 5,
√ x1 = 7, os
números α, β devem satisfazer as condições α = 5, β = 2 3/3.
Como se vê, a discussão direta das equações de segunda ordem
(lineares homogêneas, com coeficientes constantes) é bem mais sim-
ples do que o estudo dos sistemas dos quais elas são casos particula-
res.
ou
(1 + a + b)kd + (a + 2)d = c.
Como 1+a+b = 0, obtemos (a+2)d = c. Portanto, quando 1+a+b = 0
e a 6= −2, a seqüência xk = kc.(a + 2)−1 é uma solução particular.
Finalmente, se 1+a+b = 0 e a = −2 então b = 1 e a equação dada
se torna xk+2 − 2xk+1 + xk = c, a qual não possui solução constante
nem do tipo xk = k.d. Tentemos uma solução da forma xk = k2 .d.
Substituindo xk por este valor na equação, obtemos
xk+1 = yk
yk+1 = −bxk − ayk .
logo,
xk+2 − (a + d)xk+1 + (ad − bc)xk = 0. (**)
Para resolver o sistema (∗) com vetor inicial v0 = (x0 , y0 ), toma-
mos a solução (xk ) da equação (∗∗) com os valores iniciais x0 (dado)
e x1 = ax0 + by0 (com y0 também dado). Em seguida, definimos a
seqüência (yk ) pondo yk = (xk+1 − axk )/b. Isto dá imediatamente
xk+1 = axk + byk . Além disso, o valor y0 obtido nesta fórmula coin-
cide com o valor inicial y0 anteriormente estipulado. Tem-se ainda
1
yk+1 = [xk+2 − axk+1 ]
b
1
= [(a + d)xk+1 + (bc − ad)xk − axk+1 ]
b
1
= [(a + d)(axk + byk ) + (bc − ad)xk − axk+1 ].
b
Simplificando, vem yk+1 = cxk + dyk , logo as seqüências (xk ) e (yk )
formam a solução procurada do sistema (∗).
Exercı́cios
22.1. Para cada uma das equações abaixo, determine a solução que
tem o valor inicial indicado
(a) xk+1 = xk − 7, xo = 0.
(d) xk+1 = xk + k, xo = 2.
k+1
(e) xk+1 = k+2 · xk , xo = xo .
xk+1 = ak xk + bk yk + pk
yk+1 = ck xk + dk yk + qk
s = (xo , . . . , xk , . . .),
t = (yo , . . . , yk , . . .),
xk+1 = 2xk − yk
yk+1 = 4xk − 2yk .
v=(xk , xk+1 , xk+2 ), v′ =(yk , yk+1 , yk+2 ) e v′′ =(zk , zk+1 , zk+2 )
são L.I. .
para todo k ≥ 0 ?
xk+1 = xk − α(xk − yk )
yk+1 = yk + β(xk − yk ),
com vetor inicial vo = (xo , yo ), com yo < xo , 0 < α < 1 e 0 < β < 1.
Mostre que lim xk = lim yk = (βxo + αyo )/(α + β), logo este limite
está mais próximo de xo do que de yo se, e somente se, α < β. Mostre
que se tem xk < yk para todo k se, e somente se, α + β < 1, em cujo
caso a seqüência (xk ) é decrescente e (yk ) é crescente.
22.17. Seja xk+2 + axk+1 + bxk = 0 uma equação cujas raı́zes carac-
terı́sticas são os complexos conjugados r e r. Escreva r = ρ(cos θ +
i sen θ) como xk = αρk cos(β + kθ), onde as constantes α e β podem
ser determinadas de modo a fazer com que xo e x1 assumam os va-
lores iniciais pré-estabelecidos. [Sugestão: a equação dada admite a
solução geral complexa xk = ζrk + ηrk , onde ζ, η ∈ C são arbitrários.
Tomando η = ζ, obtém-se a solução real xk = 2 Re (ζrk ). Escreva
ζ = α2 (cos β + i sen β) e use a fórmula cos(x + y) = cos x · cos y −
sen x · sen y.]
320 Equações a Diferenças Finitas Seção 22
0 0 1 0
A matriz deste exemplo provém do operador A : Rk → Rk , definido
por Ae1 = e2 , . . . , Aek−1 = ek , Aek = 0. Evidentemente, tem-se Ak =
0 e Ak−1 6= 0. Logo o ı́ndice do operador A (e da matriz a) é igual a k.
Teorema A1.1. Dado o operador A : E → E, seja u ∈ E um vetor
tal que Ak−1 u 6= 0 e Ak u = 0. Então os vetores u, Au, . . . , Ak−1 u são
linearmente independentes.
Demonstração: Seja
α1 u + α2 Au + · · · + αk Ak−1 u = 0.
α2 Au + · · · + αk Ak−1 u = 0.
Apêndice A Forma Canônica de Jordan 323
é uma base de E.
Em relação a esta base V, a matriz do operador nilpotente
A : E → E, de ı́ndice 2, é formada por p blocos de matrizes 2 × 2
do tipo
0 0
1 0
ao longo da diagonal (onde p é o posto de A), seguidos de q colunas
nulas, onde 2p + q = dim E.
Por exemplo, se A : R5 → R5 é nilpotente de ı́ndice 2, sua matriz
na base V tem uma das formas abaixo, conforme seu posto seja 2
ou 1:
0 0 0 0 0 0 0 0 0 0
1 0 0 0 0 1 0 0 0 0
0 0 0 0 0 0 0 0 0 0
0 0 1 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0
Em seguida, consideremos um operador nilpotente A : E → E de
ı́ndice 3.
A restrição de A ao subespaço invariante Im(A) é um operador
nilpotente de ı́ndice 2. Lembrando que os elementos de Im(A) são
todos da forma Au, resulta do que vimos acima que existe uma base
de Im(A) do tipo
V = {u1 , Au1 , A2 u1 , . . . ,
up , Aup , A2 up , v1 , Av1 , . . . , vq , Avq , w1 , . . . , wr }
Apêndice A Forma Canônica de Jordan 325
é uma base de E.
Em relação a esta base V, a matriz do operador nilpotente
A : E → E, de ı́ndice 3, é formada por p blocos de matrizes 3 × 3
da forma
0 0 0
1 0 0
0 1 0
ao longo da diagonal, seguidos por q blocos de matrizes 2×2 da forma
0 0
,
1 0
E ⊃ Im(A) ⊃ Im(A2 ) ⊃ . . .
v = (v − Ak x) + Ak x,
r
Y
pA (λ) = (λ − λj )nj .
j=1
Apêndice A Forma Canônica de Jordan 329
Se pusermos Y
qi (λ) = (λ − λj )nj ,
j6=i
0 0 f g
q r s t
x2
0 0 0
y(x + z) z2 0 0
x2 =
.
m(x + p) + ny n(z + p) p 2 0
q(x + t) + ry + ms r(z + t) + ns s(p + t) t2
(1) x2 = a, z2 = c, p2 = e, t2 = g,
(4) q(x + t) + ry + ms = 0.
p+q
X
p+q p+q
(M + N) = Mi Np+q−i .
i
i=0
(Ai − λi I) − Ni = Di − λi I. (*)
“It is desirable to have at hand not merely the formal operations with matrices,
but also the (often neglected) interpretation of the matrices by linear transforma-
tions”.
G. Birkhoff e S. MacLane
“That Hilbert space theory and elementary matrix theory are intimately asso-
ciated came as a surprise to me and to many colleagues of my generation only after
studying the two subjects separately. This is deplorable... I present this little book
in an attempt to remedy the situation.”
Paul R. Halmos
“Dealing with vector spaces in the abstract also saves effort. The general the-
ory of vector spaces includes not only the vectors and matrices discussed in Chap-
ters 1 and 2 but also sets of real- and complex-valued functions of a real variable
and other more exotic mathematical objects. A fact which has been proved once
and for all in the general theory applies to a wide range of particular cases. That is
why it is worth investing some intellectual effort in understanding abstract linear
algebra”.
D. H. Griffel
“As a very simple example the reader should think of the principal axis theo-
rem (spectral theorem) for Rn which says that given a self-adjoint transformation,
one can choose an orthonormal basis in Rn so that the matrix of that transforma-
tion in that basis is diagonal. That is, if one chooses the right isomorphic copy of
Rn (change of basis) then the operator becomes especially simple. As the reader
will see, this example is the first note of a rather long simphony”.
M. Reed e B. Simon
344
Índice Remissivo 345