Escolar Documentos
Profissional Documentos
Cultura Documentos
Álgebra Linear - Mendes
Álgebra Linear - Mendes
ÁLGEBRA LINEAR
ISBN 978-85-915683-0-7
Belo Horizonte
Edição do Autor
2013
Sumário
Prefácio 1
1 Espaços Vetoriais 2
1.1 Definições e Exemplos . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Subespaços . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Independência Linear. Bases. Dimensão . . . . . . . . . . . . 7
1.4 Espaços Produto e Quociente . . . . . . . . . . . . . . . . . . 11
1.5 Somas e Somas Diretas . . . . . . . . . . . . . . . . . . . . . . 13
1.6 Exercícios do Capítulo 1 . . . . . . . . . . . . . . . . . . . . . 16
2 Aplicações Lineares 18
2.1 Definições e Exemplos . . . . . . . . . . . . . . . . . . . . . . 18
2.2 Composição e Inversão de Aplicações Lineares . . . . . . . . . 23
2.3 Álgebra das Aplicações Lineares . . . . . . . . . . . . . . . . . 28
2.4 Exercícios do Capítulo 2 . . . . . . . . . . . . . . . . . . . . . 30
3 Matrizes 32
3.1 Definições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2 Produto de Matrizes . . . . . . . . . . . . . . . . . . . . . . . 34
3.3 Aplicação Linear × Matriz . . . . . . . . . . . . . . . . . . . . 35
3.4 Mudança de Bases . . . . . . . . . . . . . . . . . . . . . . . . 42
3.5 Exercícios do Capítulo 3 . . . . . . . . . . . . . . . . . . . . . 47
5 Determinantes 58
5.1 Aplicações r-lineares alternadas . . . . . . . . . . . . . . . . . 58
i
SUMÁRIO ii
6 Autovalores e Autovetores 84
6.1 Definições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
6.2 Diagonalização . . . . . . . . . . . . . . . . . . . . . . . . . . 90
6.3 Polinômios de Operadores e Matrizes . . . . . . . . . . . . . . 95
6.4 Exercícios do Capítulo 6 . . . . . . . . . . . . . . . . . . . . . 98
7 Produto Interno 99
7.1 Definições e Exemplos . . . . . . . . . . . . . . . . . . . . . . 99
7.2 Bases Ortonormais . . . . . . . . . . . . . . . . . . . . . . . . 105
7.3 Relações entre V e V ∗ . . . . . . . . . . . . . . . . . . . . . . 108
7.4 Adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
7.5 Exercícios do Capítulo 7 . . . . . . . . . . . . . . . . . . . . . 113
10 Miscelânea 137
10.1 Orientação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
10.2 Volume de Paralelepípedo . . . . . . . . . . . . . . . . . . . . 138
10.3 Matriz de Gram . . . . . . . . . . . . . . . . . . . . . . . . . . 139
10.4 Produto Vetorial . . . . . . . . . . . . . . . . . . . . . . . . . 140
Bibliografia 144
Prefácio
1
Capítulo 1
Espaços Vetoriais
V × V −→ V e K × V −→ V
(u, v) 7−→ u + v (a, v) 7−→ av
tais que, para quaisquer u, v, w ∈ V e a, b ∈ K, se tenha:
(1) u + v = v + u
(2) (u + v) + w = u + (v + w)
(3) existe 0 ∈ V , chamado o vetor zero, tal que v + 0 = v
(4) dado v ∈ V , existe (−v) ∈ V , chamado o oposto de v, tal que v+(−v) = 0
(5) 1 · v = v
(6) a(bv) = (ab)v
(7) a(u + v) = au + av
(8) (a + b)v = av + bv.
2
CAPÍTULO 1. ESPAÇOS VETORIAIS 3
(a) Se u, v ∈ V definimos:
u − v = u + (−v)
Se a ∈ K, então
a(u − v) + av − av = au − av,
CAPÍTULO 1. ESPAÇOS VETORIAIS 4
donde:
a(u − v) = au − av.
Fazendo u = v, obtemos
a·0=0
e também
a(−v) = a(0 − v) = a · 0 − av = −av.
(b) Se a, b ∈ K e v ∈ V , então:
donde:
(a − b)v = av − bv
Fazendo a = b, vem
0·v =0
e também
(−a)v = (0 − a)v = 0 · v − av = −av.
0·v =a·0=0
Portanto, av = 0 implica ou a = 0 ou v = 0.
Exercícios
1. O conjunto de todos os polinômios de grau 3, com coeficientes reais e
munido das leis usuais, juntamente com o polinômio zero, forma um
espaço vetorial real?
zn+2 = zn+1 + zn , n ≥ 1,
1.2 Subespaços
Seja V um espaço vetorial sobre o corpo K.
\
Dem. Seja (Wα )α∈A uma família de subespaços de V , e seja W = Wα .
α∈A
Então:
CAPÍTULO 1. ESPAÇOS VETORIAIS 6
e1 = (1, 0, ..., 0)
e2 = (0, 1, ..., 0)
..
.
en = (0, ..., 0, 1)
Esses vetores são LI, pois a1 e1 + ... + an en = (a1 , ..., an ) = 0 = (0, ..., 0) ⇔
a1 = 0, ..., an = 0.
a1 v1 + ... + an vn = b1 v1 + ... + bn vn ,
Exemplo 1.3.5 Em K n os vetores e1 = (1, 0, ..., 0), ..., en = (0, ..., 0, 1) for-
mam um conjunto de geradores mínimo.
Exemplo 1.3.6 Os vetores e1 = (1, 0, ..., 0), ..., en = (0, ..., 0, 1) de K n for-
mam um conjunto LI máximo.
av + a1 x1 + ... + an xn = 0.
Proposição 1.6 Sejam {v1 , ..., vn } e {w1 , ..., wp } bases do espaço vetorial V
sobre K. Então:
n=p
CAPÍTULO 1. ESPAÇOS VETORIAIS 10
Definição 1.8 Sejam V um espaço vetorial sobre K e {v1 , ..., vn } uma base
de V . Dizemos que n é a dimensão de V sobre K. Por definição a dimensão
de V = {0} é zero.
Notação: n = dimK V ou n = dim V
Corolários:
(1) Se dim V = n e v1 , ..., vn são LI, então {v1 , ..., vn } é base de V (pois é
um conjunto LI máximo).
(2) Se W é subespaço de V e dim W = dim V , então W = V (pois toda
base de W é também base de V ).
(3) Se dim V = n e m > n então os vetores v1 , ..., vm são LD (pois o número
máximo de vetores LI é n).
Dem. Como r < n, {v1 , ..., vr } não é um conjunto LI máximo; logo, existe
vr+1 ∈ V tal que {v1 , ..., vr , vr+1 } seja LI. Se r + 1 < n podemos repetir o
argumento. Após um número finito de repetições obteremos n vetores LI,
v1 , ..., vn , ou seja {v1 , ..., vn } é base de V .
Exercícios
1. Mostre que t3 − t2 + 1, q = t2 − 1 e r = 2t3 + t − 1 são LI em P4 .
CAPÍTULO 1. ESPAÇOS VETORIAIS 11
v + W = {v + w; w ∈ W }
Observemos que v + W = u + W ⇔ v − u ∈ W .
V
Seja = {v + W ; v ∈ V }. Para introduzir uma estrutura vetorial sobre
W
V
definamos:
W
(v + W ) + (u + W ) = (v + u) + W
a(v + W ) = av + W , a ∈ K.
Essas leis estão bem definidas pois se u + W = u1 + W e v + W = v1 + W ,
então
= (v + W ) + (u + W ), já que (u1 + v1 ) − (u + v) =
= (u1 − u) + (v1 − v) ∈ W.
Analogamente, se a ∈ K e v1 + W = v + W , temos:
V
É pura rotina verificar que, com estas leis, se torna um espaço vetorial
W
V V
sobre K. O elemento neutro da adição em é a classe W = 0 + W . é
W W
chamado de espaço vetorial quociente de V por W .
6 (u + v) + W
u+W
v+W
Ou + v
W
]
u
¸v
Exercícios
V
1. Prove que se v1 + W, ..., vn + W são LI em , então v1 , ..., vn são LI
W
em V .
2. Sejam V um espaço vetorial e W um subespaço. Para u, v ∈ V defi-
namos u ≈ v se u − v ∈ W . Prove que ≈ é uma relação de equivalência
em V e que o conjunto das classes de equivalência é o espaço quociente
V
.
W
U + W = {u + w, u ∈ U, w ∈ W }.
CAPÍTULO 1. ESPAÇOS VETORIAIS 14
Dem. Seja {w1 , ..., wr } base de W . Sabemos que existem vetores u1 , ..., us ∈
V tais que {w1 , ..., wr , u1 , ..., us } seja base de V . Seja U o subespaço gerado
por u1 , ..., us . É claro que V = U ⊕ W .
Obs.: Em geral existem muitos subespaços U de V tais que V = U ⊕ W .
Dizemos que um tal U é um subespaço suplementar de W.
v = a1 u1 + ... + ar ur + b1 w1 + ... + bs ws
e os vetores u1 , ..., ur , w1 , ..., ws geram V .
CAPÍTULO 1. ESPAÇOS VETORIAIS 15
Logo:
ni
r X
X
v= aki vik e B gera V.
i=1 k=1
ni
r X
X ni
X
Suponhamos que aki vik = 0. Pondo vi = aki vik , temos que
i=1 k=1 k=1
vi ∈ Vi , i = 1, ..., r. Então: v1 + ... + vr = 0 e, como a soma é direta, temos
X ni
vi = 0, isto é, aki vik = 0, donde aki = 0 pois vi1 , ..., vini são LI. Logo, B
k=1
é LI e, portanto, B é base de V .
X ni
r X r
X
Reciprocamente, se B é base de V , então v = aki vik = vi , onde
i=1 k=1 i=1
ni
X
vi = aki vik pertence a Vi , i ≤ i ≤ r. Logo: V = V1 + ... + Vr . A soma
k=1
CAPÍTULO 1. ESPAÇOS VETORIAIS 16
ni
r X
X
é direta pois se v1 + ... + vr = 0, vi ∈ Vi , então aki vik = 0, donde
i=1 k=1
aki = 0 e, portanto, vi = 0, 1 ≤ i ≤ r.
Exercícios
1. Sejam U, V, W os seguintes subespaços de R3 :
U = {(x, y, z) ∈ R3 ; x + y + z = 0}; V = {(x, y, z) ∈ R3 ; x = z} e
W = {(0, 0, z) ∈ R3 ; z ∈ R}. Mostre que R3 = U + V , R3 = U + W ,
R3 = V + W . Quando é que a soma é direta?
3. Sejam U e W subespaços de V. Se
prove que V = U ⊕ W .
A = x + W = {x + w; w ∈ W }.
8. Dado o conjunto finito X = {a1 , ..., an }, ache uma base para o espaço
vetorial real F(X, R) = {f : X → R}.
Capítulo 2
Aplicações Lineares
18
CAPÍTULO 2. APLICAÇÕES LINEARES 19
Z 1
é linear. É também linear a função f ∈ V 7−→ f (t)dt ∈ R.
0
1. 0 = T (0) ∈ T (U )
1. 0 ∈ T −1 (U 0 ) já que T (0) = 0 ∈ U 0
Im T = {T (v) ∈ W ; v ∈ V }
N (T ) = {v ∈ V ; T (v) = 0}
Obs.: Por definição T é sobrejetora se Im T = W e T é injetora se
u 6= v implica T (u) 6= T (v).
Dem. Seja {v1 , ..., vs } base de N (T ) e sejam vs+1 , ..., vn ∈ V tais que
{v1 , ..., vs , vs+1 , ..., vn } seja base de V. Se w = T (v) ∈ Im T e v = a1 v1 + ... +
an vn , então w = as+1 T (vs+1 ) + ... + an T (vn ) já que T (v1 ) = ... = T (vs ) = 0;
logo T (vs+1 ), ..., T (vn ) geram Im T .
Além disso, esses vetores são LI; de fato, se bs+1 T (vs+1 ) + .... + bn T (vn ) =
0, então T (bs+1 vs+1 + ... + bn vn ) = 0, ou seja, bs+1 vs+1 + ... + bn vn ∈ N (T ).
Portanto, podemos escrever bs+1 vs+1 + ... + bn vn = b1 v1 + ... + bs vs .
Como v1 , ..., vs , vs+1 , ..., vn são LI, resulta bs+1 = ... = bn = 0 (e também
b1 = ... = bs = 0). Resulta que {T (vs+1 ), ..., T (vn )} é base de Im T e
dim Im T = n − s = dim V − dim N (T ), donde a tese.
Corolário 2.5.1 Sejam T : V → W linear, dim V = n, dim W = p.
Então:
(a) T é injetora ⇔ r = posto(T ) = n. Neste caso, dim V ≤ dim W .
(b) T é sobrejetora ⇔ r = posto(T ) = p. Neste caso, dim V ≥ dim W .
Corolário 2.5.2 Seja T : V → W linear, com dim V = dim W < ∞. São
equivalentes:
(a) T é bijetora;
(b) T é injetora;
(c) T é sobrejetora;
(d) se {v1 , ..., vn } é base de V, então {T v1 , ..., T vn } é base de W;
(e) existe base {v1 , ..., vn } de V tal que {T v1 , ..., T vn } seja base de W.
Exercícios
1. Seja T : V → W linear. Prove que são equivalentes:
(a) T é injetora;
(b) para toda decomposição V = V1 ⊕ V2 tem-se T (V ) = T (V1 ) ⊕ T (V2 )
3. Seja T : V → W linear. Prove que se T (v1 ), ..., T (vn ) são LI, então
v1 , ..., vn são LI.
Dem. Se u, v ∈ U , então
Se a ∈ K e u ∈ U , então
(T ◦ L) ◦ (L−1 ◦ T −1 ) = (L−1 ◦ T −1 ) ◦ (T ◦ L) = I,
V
Dem. Seja π : V → a aplicação quociente, isto é, π(v) = v +
N (T )
N (T ), v ∈ V . É imediato que π é linear.
V
Seja L : → W definida por L(v +N (T )) = T (v), ou seja, L◦π = T
N (T )
(dizemos então que o diagrama abaixo comuta). Mostremos que L está bem
definida e é injetora:
⇔ u − v ∈ N (T ) ⇔ u + N (T ) = v + N (T ).
Além disso, L é sobrejetora pois, dado w ∈ W , existe v ∈ V tal que
T (v) = w (já que T é sobrejetora) e, portanto, L(v + N (T )) = w. Logo,
L é bijetora. Resta provar que L é linear. Sejam u, v ∈ V , então: L(u +
N (T ) + v + N (T )) = L(u + v + N (T )) = T (u + v) = T (u) + T (v) =
L(u + N (T )) + L(v + N (T )). Se a ∈ K e v ∈ V , então: L(a(v + N (T ))) =
V
(av +N (T )) = T (av) = aT (v) = aL(v +N (T )). Resulta que L : →W
N (T )
é um isomorfismo.
T - W
V
µ
π > L
?
V
N (T )
N (p) = {v ∈ V ; p(v) = 0} = U.
V
Portanto, pela proposição 2.9, temos que é isomorfo a W.
U
Corolário 2.9.2 Sejam T : V → W linear e U ⊂ V subespaço tal que
V = N (T ) ⊕ U . Então U é isomorfo a Im T .
V
Dem. Decorre da proposiçã 2.9 que é isomorfo a Im T . Pelo corolário
N (T )
V
2.9.1 temos que é isomorfo a U. Resulta que U e Im T são isomorfos.
N (T )
Proposição 2.10 Sejam U e W subespaços do espaço vetorial V de dimen-
são finita sobre o corpo K. Então:
Im T = {v = u − w; u ∈ U, w ∈ W } = U + W
N (T ) = {(u, w) ∈ U × W ; u = w} = {(u, u) ∈ U × W, u ∈ U ∩ W }.
É fácil ver que a aplicação u ∈ U ∩ W 7−→ (u, u) ∈ N (T ) é um isomor-
fismo. Portanto, dim N (T ) = dim (U ∩ W ). Pela proposição 2.5, temos:
dim (U × W ) = dim (U + W ) + dim (U ∩ W ), ou seja,
(I − T )(I + T + T 2 ) = I + T + T 2 − T − T 2 − T 3 = I
(I + T + T 2 )(I − T ) = I − T + T − T 2 + T 2 − T 3 = I
Portanto, I − T é um automorfismo de V e (I − T )−1 = I + T + T 2 .
Exercícios
1. Sejam T, L ∈ L(V ) tais que L ◦ T = T ◦ L. Prove:
(a) L(N (T ) ⊂ N (T );
(b) L(Im T ) ⊂ Im T .
CAPÍTULO 2. APLICAÇÕES LINEARES 28
1. L + T = T + L;
2. (L + T ) + S = L + (T + S);
1. (L ◦ T ) ◦ S = L ◦ (T ◦ S);
3. (L + T ) ◦ S = L ◦ S + T ◦ S e L ◦ (T + S) = L ◦ T + L ◦ S, quaisquer
que sejam L, T, S ∈ L(V ).
Exemplo 2.3.2 F(R, R) munido das leis f +g, f ·g, af é uma álgebra sobre
R.
i j E
0→F −
→E→
− →0
F
i f j F
0 → Nf −
→E→
− F −
→ →0
Im f
(f aplicação linear, i injeção canônica, j sobrejeção canônica).
Capítulo 3
Matrizes
3.1 Definições
Definição 3.1 Sejam K um corpo, m e n inteiros positivos e In = {1, 2, ..., n}.
Uma matriz m × n sobre K é uma função (i, j) ∈ Im × In 7−→ aij ∈ K. Em
geral os escalares aij são dispostos em m linhas e n colunas, o primeiro índice
indicando a linha e o segundo a coluna ocupadas por aij :
a11 a12 ... a1n
a21 a22 ... a2n
A=
...
= (aij ), 1 ≤ i ≤ m, 1 ≤ j ≤ n
... ... ...
am1 am2 ... amn
32
CAPÍTULO 3. MATRIZES 33
Proposição 3.1 O conjunto {E11 , ..., E1n , ..., Em1 , ..., Emn } é uma base de
Mm×n (K).
m X
X n
Dem. Se A = (aij ) é m × n é claro que A = aij Eij , ou seja, as ma-
i=1 j=1
m X
X n
trizes Eij geram Mm×n (K). Além disso, elas são LI, pois se aij Eij =
i=1 j=1
0, então A = (aij ) = 0, donde aij = 0 para todo par (i, j).
Exemplo 3.2.1 µ ¶µ ¶ µ ¶
1 0 1 2 1 2
=
0 2 3 4 6 8
µ ¶µ ¶ µ ¶
1 2 1 0 1 4
=
3 4 0 2 3 8
o que mostra que o produto não é comutativo.
(c) In A = AIn = A,
onde se supõem definidos os produtos e somas (das matrizes) indicados, e em
(c) A é m × n.
p p n
X X X
Temos: eij = dik ckj = ckj air brk
k=1 k=1 r=1
n n p
X X X
gij = air frj = air brk ckj ,
r=1 r=1 k=1
o que mostra que eij = gij para todo i e todo j. As demonstrações de (b)
e (c) são deixadas a cargo do leitor.
n
X n X
X m
T (v) = xj T (vj ) = aij xj wi .
j=1 j=1 i=1
CAPÍTULO 3. MATRIZES 36
Portanto: n
X
yi = aij xj (i = 1, 2, ..., m)
j=1
Pondo:
x1 y1
£ ¤ x2 y2 £ ¤E
v E = .. , [T v]F = .. e T F = (aij ) ,
. . 1≤i≤m
xn ym 1≤j≤n
Então:
0 1 0 ... 0
0 0 2 ... 0
£ ¤B
D B=
... ... ... ... ...
0 0 0 ... n − 1
0 0 0 ... 0
Exemplo 3.3.3 Sejam I : R3 −→ R3 a identidade, E = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}
£ ¤E
e F = {(1, 0, 0), (1, 1, 0), (1, 1, 1)} bases de R3 . Vamos achar I F .
Temos:
I(1, 0, 0) = (1, 0, 0); I(0, 1, 0) = (1, 1, 0)−(1, 0, 0); I(0, 0, 1) = (1, 1, 1)−(1, 1, 0).
Portanto:
£ ¤E 1 −1 0
I F = 0 1 −1
0 0 1
e
62
f2 α f
I µ 1
ª
I
α
-
e1
Dem. Sejam:
£ ¤F
T G = (aij ) – p × n
£ ¤E
S F = (bij ) – n × m
£ ¤E
T ◦S G
= (cij ) – p × m
Então:
p
X
T (vk ) = aik wi
i=1
n
X
S(uj ) = bkj vk
k=1
p
X
(T ◦ S)(uj ) = cij wi
i=1
CAPÍTULO 3. MATRIZES 40
Portanto:
n p
n X
¡ ¢ X X
T S(uj ) = bkj T (vk ) = aik bkj wi ,
k=1 k=1 i=1
donde: n
X
cij = aik bkj ,
k=1
que é a tese.
O conjunto Mn (K) das matrizes de ordem n, munido das leis de adição
e multiplicação por escalar, é um espaço vetorial sobre K de dimensão n2 .
Mn (K), munido das operações de adição e multiplicação matriciais, é um
anel (com unidade). Além disso, é fácil verificar que
Exemplo 3.3.7 Vamos achar o centro do anel Mn (K), isto é, vamos de-
terminar as matrizes A = (aij ) de Mn (K) que comutam com toda ma-
triz P = (pij ) de Mn (K), ou seja, tais que AP = P A. Devemos ter
Xn n
X
aik pkj = pik akj para todo par (i, j). Se P = Eii , isto é, pii = 1 e
k=1 k=1
prs = 0 para r 6= i ou s 6= i, então i 6= j implica aij = 0. Se P = Eij com
i 6= j, isto é, pij = 1 e prs = 0 para r 6= i ou s 6= j, então aii = ajj . Logo, se
CAPÍTULO 3. MATRIZES 41
Exercícios
1. Dê uma base para M3 (K).
£ ¤F
Definição 3.6 P = I E é a matriz de passagem da base E para a base F.
Exemplo
¡ 3.4.1 Sejam V ¢ = R3 , E = (e1 , e2 , e3 ) – base canônica, F =
(1, −1, 1), (1, 0, 0), (1, 1, 1) = (f1 , f2 , f3 ). Então:
£ ¤F 1 1 1
P = I E = −1 0 1 .
1 0 1
CAPÍTULO 3. MATRIZES 43
£ ¤ 1 1 1 2 6
Se v = 2f1 + f2 + 3f3 , então v E = −1 0 1 1 = 1, isto é,
1 0 1 3 5
v = 6e1 + e2 + 5e3 .
bases ordenadas de V,
0
F = (w1 , ..., wm ), F 0 = (w10 , ..., wm )
bases ordenadas de W,
£ ¤E 0
P = idv E
£ ¤F 0
a matriz de passagem de E para E 0 , Q = idW F a matriz de passagem de F
para F 0 .
Se T : V −→ W é linear, então:
£ ¤E 0 £ ¤E
T F 0 = Q−1 · T F · P.
Mas: £ ¤F 0 £ ¤F £ ¤F 0
In = idW F 0 = idW F 0 · idW F
e £ ¤F £ ¤F 0 £ ¤F
In = idW F = idW F · idW F 0 ,
£ ¤F
o que mostra que idW F 0 = Q−1 . Resulta:
£ ¤E 0 £ ¤E
T F 0 = Q−1 · T F · P
T (1, 0, 0) = (1, 3, 0)
T (0, 1, 0) = (0, 2, 1)
T (0, 0, 1) = (2, 1, 4)
CAPÍTULO 3. MATRIZES 45
Portanto:
£ ¤E 1 0 2
T E = 3 2 1 = A.
0 1 4
£ ¤E
Dem. Seja A = (aij ). Dizer que A = T F significa dizer que T (vj ) =
m
X £ ¤
aij wi , ou seja, Aj = T (vj ) F (j = 1, ..., n), e o isomorfismo de K m
i=1
sobre W que leva a base canônica de K m na base F de W, transforma o
espaço gerado pelos vetores-coluna A1 , ..., An de A sobre o espaço gerado pelos
vetores T (v1 ), ..., T (vn ) de W, ou seja, estes espaços têm a mesma dimensão
e, portanto, posto(A) = posto(T ).
Ir 0 r
0 0 m−r
r n−r
£ ¤E
Dem. Seja T : K n −→ K m linear tal que A = T F , onde E e F são as
bases canônicas de K n e K m , respectivamente.
Como n = dim N (T ) + dim Im T temos que dim N (T ) = n − r ≥ 0.
Podemos, então, escolher uma base E 0 = (v1 , ..., vn ) de K n de modo que
(vr+1 , ..., vn ) seja base de N (T ). É claro que os vetores T (v1 ), ..., T (vr ) são
LI em K m (verifique!), donde r ≤ m e podemos considerar uma base de K m
da forma F 0 = (T v1 , ..., T vr , wr+1 , ..., wm ). Obtemos:
£ ¤E 0
T F 0 = matriz da figura 3.8.
£ ¤E
Resulta que A = T F é equivalente a B = matriz da figura 3.8 :
£ ¤F £ ¤E 0
B = QAP, Q = id F 0 , P = id E .
CAPÍTULO 3. MATRIZES 47
4.1 Definição
Seja V um espaço vetorial sobre o corpo K. Considerando K um espaço
vetorial sobre si mesmo, L(V, K) é um espaço vetorial sobre K, designado
por V ∗ e chamado de dual de V; seus elementos são chamados de formas (ou
funcionais) lineares em V. O dual de V ∗ é o bidual de V, anotado V ∗∗ . Os
elementos de V ∗ serão designados por letras gregas tais como α, β, ω, etc.
Assim, uma forma linear ω ∈ V ∗ é uma aplicação linear ω : V −→ K.
Se E = {v1 , ..., vn } é uma base de V e se v = x1 v1 +...+xn vn , então ω(v) =
x1 ω(v1 ) + ... + xn ω(vn ). Pondo ω(vi ) = ai , temos: ω(v) = a1 x1 + ... + an xn ,
que é a representação de ω na base E.
Proposição 4.1 Sejam V um espaço vetorial sobre K e (v1 , ..., vn ) uma base
ordenada de V. Para cada ½ i, 1 ≤ i ≤ n, seja ωi : V −→ K a forma linear
1 se i = j
definida por ωi (vj ) = δij = (1 ≤ i ≤ n).
0 se i ≤ j
Então, (ω1 , ..., ωn ) é uma base de V ∗ e as coordenadas de ω ∈ V ∗ nesta
base, são ω(v1 ), ..., ω(vn ).
49
CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 50
J : V −→ V ∗∗
v 7−→ Jv : V ∗ −→ K
ω 7−→ ω(v)
é um isomorfismo entre V e V ∗∗ .
Exercícios
1. Sejam B1 = (v1 , ..., vn ), B2 = (u1 , ..., un ) bases do espaço vetorial V,
B1∗ = (α1 , ..., αn ) e B2∗ = (β1 , ..., βn ) as bases duais correspondentes.
Xn Xn
Se vj = aij ui e αj = bij βi , i ≤ j ≤ n, qual a relação entre as
i=1 i=1
matrizes A = (aij )eB = (bij )?
Dem. Como o caso U = {0} é trivial, vamos supor U 6= {0}. Seja (v1 , ..., vn )
base de V tal que (v1 , ..., vp ) seja base de U. Se (ω1 , .., ωn ) é a base dual, então
< vj , ωi >= ωi (vj ) = 0 para i = 1, ..., p e i = p + 1, ..., n, ou seja, as formas
ωp+1 , ..., ωn pertencem a U 0 . Vamos provar que elas formam uma base de U 0 .
Como elas são LI, basta provar que elas geram U 0 . Para isto, seja ω ∈ U 0 .
Se ω = a1 ω1 + ... + an ωn , então, para j = 1, ..., p temos:
n
X n
X
0 = ω(vj ) = ai ωi (vj ) = ai δij = aj ,
i=1 i=1
donde U=(U 0 )0 .
Obs. Se ω ∈ V ∗ , ω 6= 0, o subespaço de V, H = {v ∈ V ; < ω, v >= 0}, tem
dimensão igual a (dim V − 1) e chama-se um hiperplano de V.
Exercícios
1. Seja W ⊂ R5 o subespaço gerado pelos vetores ω1 = (2, −2, 3, 4, −1), ω2 =
(−1, 1, 2, 5, 2) ω3 = (0, 0, −1, −2, 3) e ω4 = (1, −1, 2, 3, 0). Ache uma
base para o anulador W 0 de W.
4.3 Transposição
Sejam V, W espaços vetoriais sobre K e T : V −→ W linear. Se β ∈ W ∗
então β ◦ T : V −→ K é linear, isto é, β ◦ T ∈ V ∗ .
T -
V W
β ◦ T = T t (β) ª β
R ª
K
Dem.
T t (α + β) = (α + β) ◦ T = α ◦ T + β ◦ T = T t (α) + T t (β)
¡ ¢
(b) (S◦T )t (ω) = ω◦(S◦T ) = (ω◦S)◦T = T t (ω◦S) = T t S t (ω) = (T t ◦S t )(ω)
para todo ω ∈ W ∗ . Logo: (S ◦ T )t = T t ◦ S t .
Se T é um isomorfismo temos T ◦ T −1 = idV , T −1 ◦ T = idV e, como
(idV )t = idV ∗ , vem:
T t ◦ (T −1 )t = idU ∗ e (T −1 )t ◦ T t = idV ∗ ,
posto(T ) = posto(T t ).
Dem. Temos:
m
X n
X
t
T (vj ) = aij wi e βj ◦ T = T (βj ) = bij αi .
i=1 i=1
Então: m m
¡ ¢ X X
βj T (vk ) = aik βj (wi ) = aik δji = ajk .
i=1 i=1
E: n n
¡ ¢ X X
βj T (vk ) = bij α(vk ) = bij δik = bkj .
i=1 i=1
Portanto:
ajk = bkj (j = 1, ..., m; k = 1, ..., n).
Definição 4.4 Seja A = (aij ) m × n sobre K. A matriz B = (bij ) n × m
sobre K, tal que bij = aji para todo par (i, j), chama-se a transposta de A,
anotada B = At . µ ¶
£ t ¤F ∗ £ ¤E t
A proposição 4.8 nos diz que T E ∗ = T F .
Dem. Imediata.
CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 57
(1, 1, 1, 1); (−1, 1, −2, 2); (−1, 5, −4, 8) e (−3, 1, −5, 3).
3. Sejam E = (e1 , ..., en ) base do espaço vetorial V sobre K, E ∗ = (e∗1 , ..., e∗n )
a base dual de E e ϕ : V −→ V ∗ o isomorfismo definido por ϕ(ei ) =
e∗i , 1 ≤ i ≤ n. Ache todos os automorfismos u : V −→ V tais que
< x, ϕ(y) >=< u(x), (ϕ ◦ u)(y) > para x, y ∈ V quaisquer.
Capítulo 5
Determinantes
Obs. Neste capítulo, por motivos técnicos, vamos supor que a característica
do corpo K é diferente de 2; por exemplo podemos tomar K = R ou K = C.
58
CAPÍTULO 5. DETERMINANTES 59
donde
2f (v1 , ..., v, ..., v, ..., vr ) = 0 e, como 2 6= 0 em K, resulta f (v1 , ..., v, ..., v, ..., vr ) =
0, isto é, f é alternada.
Y £ ¤
e σ(πn ) = σ(j) − σ(i) .
1≤i<j≤n
Como σ é bijetora, cada fator de πn , a menos do sinal, aparece em σ(πn )
uma e uma só vez, e vemos que σ(πn ) = ±πn . Se τ ∈ Sn é uma transposição,
é claro que (τ σ)(πn ) = −σ(πn ).
Logo, se σ = τ1 ...τk é um produto de transposições, temos σ(πn ) = (−1)k πn ,
σ(πn )
donde (−1)k = , o que mostra que a paridade do inteiro k só depende
πn
de σ e não da sua expressão como produto de transposições. Definimos o
sinal de σ por ε(σ) = (−1)k . Logo: σ(πn ) = ε(σ)πn . Para uma transposição
τ , τ (πn ) = −πn , donde ε(τ ) = −1, o que prova (1).
Se ρ ∈ Sn , temos (σρ)(πn ) = (τ1 ...τk ρ)(πn ) = (−1)k ρ(πn ) = ε(σ)ρ(πn ) =
ε(σ)ε(ρ)πn .
Por outro lado, (σρ)(πn ) = ε(σρ) · πn . Resulta: ε(σρ) = ε(σ) · ε(ρ), o que
prova (2).
f (vσ(1) , ..., vσ(r) ) = f (vτ1 ...τk (1) , ..., vτ1 ...τk (r) ) =
Dem. Existem escalares a1 , ..., ar , não todos nulos, tais que a1 v1 +...+ar vr =
0. Se, por exemplo, ai 6= 0, temos:
Dem. Para maior clareza, comecemos com o caso n = 2. Sejam (e1 , e2 ) base
de V, v1 = a11 e1 + a21 e2 , v2 = a12 e1 + a22 e2 . Se f ∈ A2 (V, K), então:
= a11 a12 f (e1 , e1 ) + a11 a22 f (e1 , e2 ) + a21 a12 f (e2 , e1 ) + a21 a22 f (e2 , e2 ) =
= (a11 a22 − a12 a21 )f (e1 , e2 ).
Se D : V × V −→ K é definida por D(v1 , v2 ) = a11 a22 − a12 a21 , é fácil ver
que D ∈ A2 (V, K). Além disso, D(e1 , e2 ) = 1. O cálculo acima nos mostra
que f = aD (a = f (e1 , e2 )), ou seja, que D é uma base de A2 (V, K).
CAPÍTULO 5. DETERMINANTES 62
n
X
= ai1 1 ...ain n · f (ei1 , ..., ein ).
i1 ,...,in =1
n
X
Como ej = δij ei , temos:
i=1
X
D(e1 , ..., en ) = ε(σ)δσ(1)1 ...δσ(n)n = ε(id)δ11 ...δnn = 1.
σ∈Sn
Dem. Já vimos, na proposição 5.5, que se v1 , ..., vn são LD então f (v1 , ..., vn ) =
0. Reciprocamente, suponhamos que v1 , ..., vn sejam LI, ou seja, uma base de
V. Seja D ∈ An (V, K) tal que D(v1 , ..., vn ) = 1. Então:
f = f (v1 , ..., vn ) · D
donde f (v1 , ..., vn ) 6= 0 (pois f 6= 0).
Mas, a1σ(1) ...anσ(n) = aσ−1 (1)1 ...aσ−1 (n)n e ε(σ −1 ) = ε(σ). Portanto,
X
det At = ε(σ −1 )aσ−1 (1)1 ...aσ−1 (n)n = det A
σ −1 ∈Sn
função X 7−→ det(A1 , ..., X, ..., An ) onde X substitui Aj , é uma forma linear
βj : K n −→ K. Logo,
n
X
det A = βj (Aj ) = βj (a1j e1 + ... + anj en ) = aij βij ,
i=1
onde (e1 , ..., en ) é a base canônica de K n e βij = βj (ei ). Os escalares βij não
dependem de Aj , isto é, de a1j , ..., anj .
¯ ¯
¯ ¯
¯ ¯
¯ ¯
¯ ¯
¯ a11 ... 0 ... a1n ¯¯
¯ . ..
¯ . ... . .. ¯
¯ . . .. . ¯
¯ ¯
Temos: βij = βj (ei ) = ¯ ai1 ... 1 ... ain ¯ ← linha i
¯ . .. .. ¯¯
¯ .. . . . .
..
. . ¯
¯
¯ a ... ann ¯¯
¯ n1 ... 0
¯ ↑ ¯
¯ ¯
¯ coluna j ¯
e βij = det Ã. ¯ ¯ ¯ ¯
¯ ai1 ... 1 ... ain ¯ ¯1 ai1 ... ain ¯
¯ ¯ ¯ ¯
¯ a11 ... 0 ... a1n ¯ ¯0 a11 ... a1n ¯
¯ ¯ ¯ ¯
Portanto: βij = (−1)i−1 ¯ .. . . .. . . i−1 j−1
.. ¯ = (−1) (−1) ¯ .. .. . . .. ¯ =
¯ . . . . . ¯ ¯. . . . ¯
¯ ¯ ¯ ¯
¯an1 ... 0 ... ann ¯ ¯0 an1 ... ann ¯
= (−1)i+j det B, onde a matriz B = (bij ) foi obtida de à trocando-se suces-
sivamente a linha i com as (i-1) linhas que a precedem em à e, a seguir, a
coluna j sucessivamente com as (j-1) colunas que a antecedem. Observemos
que o menor det B11 , de b11 = 1 em B coincide X com o menor det Aij de aij
em A. Além disso, sabemos que det B = ε(σ)bσ(1)1 ...bσ(n)n .
σ∈Sn
Se σ(1) 6= 1, o termo correspondente é nulo, pois, neste caso, bσ(1)1 = 0, e
det B reduz-se à soma
X
det B = ε(σ)bσ(2)2 ...bσ(n)n .
σ ∈ Sn
σ(1) = 1
Logo,
βij = (−1)i+j det B = (−1)i+j det B11 = (−1)i+j det Aij = Cij
e, portanto,
n
X
det A = aij Cij .
i=1
Dem. De fato,
¯ ¯
¯a11 a12 ... a1(n−1) a1n ¯¯
¯ ¯ ¯
¯ 0 a22 ... a a ¯ ¯a22 ... a2(n−1) a2n ¯
¯ 2(n−1) 2n ¯ ¯ ¯
¯0 0 ... ¯ ¯ 0 ... a3(n−1) a3n ¯
¯ ¯ ¯ ¯
det A = ¯ .. .. . . ¯ = a11 ¯ .. . . .. .. ¯
¯ . . . ¯ ¯ . . . . ¯¯
¯ ¯ ¯
¯0 0 ... a(n−1)(n−1) a(n−1)n ¯¯ ¯ 0 ... 0 ann ¯
¯
¯0 0 ... 0 ann ¯
e, por indução:
det A = a11 a22 ...ann .
¯ ¯
¯a11 a12 a13 ¯ ¯ ¯ ¯ ¯ ¯ ¯
¯ ¯ ¯a22 a23 ¯ ¯a21 a23 ¯ ¯a21 a22 ¯
¯
Exemplo 5.3.1 ¯a21 a22 a23 ¯ = a11 ¯¯ ¯ ¯ ¯ ¯ ¯ ¯
a a ¯−a12 ¯a31 a33 ¯+a13 ¯a31 a32 ¯ =
¯a31 a32 a33 ¯ 32 33
= a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 , como
antes.
¯ ¯ ¯ ¯
¯1 + x 1 ... 1 1 ¯ ¯1 1 ... 1 1 ¯
¯ ¯ ¯ ¯
¯ 1 1 + x ... 1 ¯ ¯
1 ¯ ¯1 1 + x ... 1 1 ¯¯
¯
¯ .. ¯ = ¯ .. .. ¯ +
Exemplo 5.3.2 Dn = ¯ ... ..
.
..
.
..
. . ¯ ¯.
..
.
..
.
..
. . ¯¯
¯ ¯ ¯
¯ 1 1 ... 1 + x ¯
1 ¯ ¯1 ¯ 1 ... 1 + x 1 ¯¯
¯
¯ 1 1 ... 1 1 + x¯ ¯1 1 ... 1 1 + x¯
¯ ¯ ¯ ¯
¯x 1 ... 1 ¯¯ ¯¯1 1 ... 1 1 ¯¯
¯
¯ 0 1 + x ... 1 ¯¯ ¯¯0 x ... 0 0 ¯¯
¯
+ ¯ .. .. .. .. ¯ = ¯ .. .. . . .. .. ¯ + xDn−1 .
¯. . . . ¯¯ ¯¯ . . . . .¯
¯ ¯
¯0 1 ... 1 + x ¯ ¯0 0 ... 0 x¯
CAPÍTULO 5. DETERMINANTES 69
Logo:
Dn = xn−1 + xDn−1
Donde:
xDn−1 = x2 Dn−2 + xn−1
x2 Dn−2 = x3 Dn−3 + xn−1
..
.
xn−2 D2 = xn−1 D1 + xn−1
xn−1 D1 = xn−1 (1 + x) = xn−1 + xn .
Somando estas n igualdades, obtemos:
Dn = xn + nxn−1 .
Dem. A tem posto r se, e só se, existem r, e não mais que r, linhas de A
que são LI. Podemos supor que sejam as r primeiras
(já que a troca de linhas
L1
..
não altera o posto), L1 , ..., Lr . Seja B = . – r ×n – cujo posto é r, donde
Lr
existem r, e não mais que r, colunas de B que são LI. Sejam Bj1 , ..., Bjr essas
colunas e C = [Bj1 , ..., Bjr ] – r × r; C tem posto r, donde det C 6= 0 e é a
“maior” submatriz quadrada
deA com essa propriedade.
1 1 t
Exercício Seja A = 1 t 1. Estude o posto de A conforme os valores
t 1 1
de t ∈ R.
Exercícios
1. Sejam a1 , ..., an números dados. Prove que
¯ ¯
¯ 1 1 ... 1 ¯
¯ ¯
¯ a1 a ... a ¯
¯ 2 n ¯ Y
¯ a2 a2 2 2 ¯
... an ¯ =
¯ 1 (ai − aj ).
¯ .. .. . . .. ¯ i>j
¯ . . . . ¯¯
¯ n−1 n−1
¯a1 a2 ... ann−1 ¯
CAPÍTULO 5. DETERMINANTES 71
É o determinante de Vandermonde.
5. Se a, b, c ∈ R, prove que
¯ ¯
¯1 sen a cos a¯
¯ ¯
¯1 sen b cos b ¯ = sen(b − c) + sen(c − a) + sen(a − b).
¯ ¯
¯1 sen c cos c ¯
· ¸
B C
6. Seja A = , onde B é r × r, C é r × (n − r) e D é (n − r) × (n − r).
0 D
Prove que det A = det B · det D.
Definição 5.13 Uma matriz obtida da identidade por meio de uma única
operação elementar, chama-se uma matriz elementar.
µ ¶ 1 0 0
0 1
Exemplo 5.4.1 As matrizes e 0 1 0 são elementares.
1 0
2 0 1
CAPÍTULO 5. DETERMINANTES 72
L1
Dem. Seja Li = (ai1 ...ain ) a i-ésima linha de A. Então: A = ... . Se
Lm
L1 B
..
B ∈ Mn×p (K), é fácil ver que AB = . . Se e1 = (1, 0, ..., 0), ..., em =
Lm B
e1
..
(0, ..., 0, 1) são 1 × m, é claro que e1 A = Li e Im = . .
e
m
e1 L1
.. ..
. .
ej Lj
. .
(1) e = Tij . Então: E = e(Im ) = .. , e(A) =
.. .
e L
i i
. .
.
. ..
em Lm
Logo:
e1 A L1
.. ..
. .
ej A Lj
. .
EA =
.. = .. = e(A).
e A L
i i
. .
.. ..
em A Lm
e1 L1
.. ..
. .
(2) e = Ti (k). Então: E = e(Im ) = kei , e(A) = kLi .
.
k6=0
... ..
em Lm
Logo:
CAPÍTULO 5. DETERMINANTES 73
e1 A L1
.. ..
. .
EA = kei A = kLi = e(A).
. .
.. ..
em A Lm
e1 L1
.. ..
. .
ei + λej Li + λLj
.. ..
(3) e = Tij (λ). Então: E = e(Im ) =
. , e(A) =
. .
i<j e L
j j
. .
.
. .
.
em Lm
Logo:
e1 A L1
.. ..
. .
(ei + λej )A Li + λLj
.. ..
EA = . =
. = e(A), e a proposição está demon-
ej A
Lj
.. ..
. .
em A Lm
strada em todos os casos.
(b) A é linha-equivalente a In
(c) A é um produto de matrizes elementares
Dem.
(a) ⇒ (b): Como A é invertível temos det A 6= 0, donde existe algum
ai1 6= 0. Usando, se necessário,
µ ¶ a operação T1i , podemos supor a11 6= 0.
1
Neste caso, a operação T1 muda A na matriz B linha-equivalente a A:
a11
1 b12 ... b1n
a21 a22 ... a2n
B=
... ... ... ... ,
an1 an2 ... ann
a1i
onde b1i = (i = 2, 3, ..., n).
a11
Aplicando a B, sucessivamente, as operações T21 (−a21 ), ..., Tn1 (−an1 ), cheg-
amos à matriz C linha-equivalente a A:
1 c12 ... c1n
0 c22 ... c2n
C = .. .. . . . .
. . . ..
0 cn2 ... cnn
Como C = P A, onde P é um produto de matrizes elementares ¯ e, portanto,
¯
¯ c22 ... c2n ¯
invertível, resulta que C é invertível. Logo, det C = ¯¯ ¯ 6= 0 e
cn2 ... cnn ¯
podemos,
µ ¶ como acima, supor c22 6= 0. Usando, sucessivamente, as operações
1
T2 , T12 (−c12 ), ..., Tn2 (−cn2 ), a matriz C transforma-se em D, linha-
c22
equivalente a A:
1 0 d13 ... d1n
0 1 d23 ... d2n
0 0 d33 ... d3n
D= .
.. .. .. . . .
. . . . ..
0 0 dn3 ... dnn
Prosseguindo desta maneira chegaremos, após um número finito de oper-
ações elementares, à matriz In .
(b) ⇒ (c): Se A é linha-equivalente a In então existem matrizes elementares
E1 , ..., Er tais que Er ...E1 A = In , donde A = E1−1 ...Er−1 . Como a inversa de
uma matriz elementar é também elementar, resulta que A é um produto de
matrizes elementares.
CAPÍTULO 5. DETERMINANTES 75
2 6 0 0 0 1 0 6 2 −2 0 1
1 0 −1 1 0 0 1 0 −1 1 0 0
T32 (−6) T3 (−1)
−→ 0 1 1/2 0 1/4 0 −−−−→ 0 1 1/2 0 1/4 0 −−−−→
0 6 2 −2 0 1 0 0 −1 −2 −3/2 1
1 0 −1 1 0 0 1 0 0 3 3/2 −1 T23 ( 1 )
T13 (1)
−→ 0 1 1/2 0 1/4 0 −−−→ 0 1 1/2 0 1/4 0 −−−−→
2
0 0 1 2 3/2 −1 0 0 1 2 3/2 −1
1 0 0 3 3/2 −1
−→ 0 1 0 −1 −1/2 1/2
0 0 1 2 3/2 −1
Portanto:
3 3/2 −1
A−1 = −1 −1/2 1/2
2 3/2 −1
Da mesma maneira que operamos sobre as linhas de A – m×n – podemos
operar sobre as colunas. Obtemos assim as operações elementares sobre as
CAPÍTULO 5. DETERMINANTES 76
colunas:
(a) Tij0 – trocar de posição as colunas i e j, i 6= j.
(b) Ti0 (k) – multiplicar a coluna i por k 6= 0.
(c) Tij0 (λ) – somar à coluna i a coluna j multiplicada por λ ∈ K.
Se e0 é uma operação elementar sobre as colunas, então E 0 = e0 (In ) é
uma matriz (coluna-) elementar de ordem n. Valem propriedades análogas
as obtidas anteriormente, a saber:
1 0 −a 0 1 0 −a 0
0 1 0 −1/a T31 (−1) 0 1 0 −1/a T42 (−1)
A=
1
−−−−→ − −−−→
0 0 −b 0 0 a −b
0 1 0 −1/b 0 1 0 −1/b
1 0 −a 0 1 0 0 −b
0 1 0 −1/a
T13 (1) 0 1 0 −1/a
−→ 0 0 a −b −−− → 0 0 a −b = B.
b−a b−a
0 0 0 0 0 0
ab ab
Vemos que se a 6= b 6= 0 as quatro formas são LI. Se a = b 6= 0 elas geram
um subespaço de (R4 )∗ de dimensão 3, do qual (f1 , f2 , f3 ) é uma base.
Dem. Imediata.
xn bm
e A = (aij ) a matriz m × n associada a T. A equação T (x) = b escreve-se
CAPÍTULO 5. DETERMINANTES 80
col.i
↓
Dem. A equação x1 A1 +...+xn An = b nos permite escrever det(A1 , ..., b , ..., An ) =
det Bi
xi det(A1 , ..., Ai , ..., An ) = xi ·det A, donde xi ·det A = det Bi e xi = =
¯ ¯ det A
¯ a11 ... b1 ... a1n ¯
¯ ¯
¯an1 ... bn ... ann ¯
¯ ¯
¯ a11 ... a1i ... a1n ¯ (i = 1, ..., n).
¯ ¯
¯an1 ... ani ... ann ¯
Exemplo 5.5.1
2x1 + 3x2 = 8
7x1 − 9x2 = −11
¯ ¯
¯2 3 ¯
Como det A = ¯¯ ¯ = −39 6= 0, o sistema é de Cramer e:
7 −9¯
¯ ¯ ¯ ¯
¯ 8 3 ¯ ¯2 8 ¯
¯ ¯ ¯ ¯
¯−11 −9¯ ¯7 −11¯
x1 = = 1; x2 = = 2.
−39 −39
CAPÍTULO 5. DETERMINANTES 81
x1
..
Dem. Pondo y = . , a equação Ax = a se escreve Cy = 0. Se C e D
xn
−1
são linha-equivalentes, existe P ∈ Mm (K), invertível, tal que P · C = D. Se
Dy = 0 vem P (Cy) = 0, donde Cy = 0. Reciprocamente, se Cy = 0 então
P (Cy) = 0, isto é, Dy = 0. Logo as equações Cy = 0 e Dy = 0 têm as
mesmas soluções, ou seja, Ax = a e Bx = b têm as mesmas soluções.
2x1 + x2 + x3 = 1
x1 + 3x2 − 2x3 = 0
4x1 − 3x2 + x3 = 2
1
x3 =
6
1
x2 − x3 = −
5
x1 + 3x2 − 2x3 = 0
13/30
e a solução (única) é x = −1/30.
1/6
CAPÍTULO 5. DETERMINANTES 82
1 0 −1 −3 1 −2 1 0 0 −2 1 1
2 1 3 −2 −1 11 0 1 0 −1 −3 0
−→ ... −→
0 1 0 −1 −3 0 0 0 1 1 0 3
0 4 −5 −9 −12 −15 0 0 0 0 0 0
e obtemos o sistema
x1 −2x4 +x5 = 1
x2 −x4 −3x5 = 0
x3 +x4 =3
ou:
x1 = 2x4 − x5 + 1
x2 = x4 + 3x5 .
x3 = −x4 + 3
Trata-se de um sistema indeterminado; existem infinitas soluções
2x4 − x5 + 1 1 2 −1
x4 + 3x5 0 1 3
x=
−x4 + 3 = 3 + x4 −1 + x5 0 ,
x4 0 1 0
x5 0 0 1
1 2 −1
0 ( 1 3 )
onde xp = 3
é a solução particular e −1 , 0 é base do espaço-
0 1 0
0 0 1
solução da equação homogênea associada.
Exemplo 5.5.4
x1 + x2 − x3 = 1
2x1 − x2 + x3 = 2
4x1 + x2 − x3 = 0
CAPÍTULO 5. DETERMINANTES 83
1 1 −1 1 1 1 −1 1
A matriz completa é 2 −1 1 2 −→ ... −→ 0 1 −1 0 , e o
4 1 −1 0 0 0 0 −4
sistema é impossível já que a última equação 0 · x1 + 0 · x2 + 0 · x3 = −4 é
impossível.
Obs. (decomposição LU) Seja A – n × n uma matriz que pode ser reduzida
à forma triangular apenas pelo uso da operação Tij (λ); por exemplo, seja
2 4 2 2 4 2
T21 (−1/2) T31 (−2)
A = A(1) = 1 5 2 −−−−−−→ A(2) −−−−→ A(3) = 0 3 1 −→
4 −1 9 0 −9 5
2 4 2
T32 (3)
−−−→ 0 3 1 = U.
0 0 8
1
Sejam: l21 = ; l31 = 2 opostos dos multiplicadores usados na primeira linha
2
1 0 0
e l32 = −3 o oposto do usado na segunda linha. Se L = 1/2 1 0 é
2 −3 1
a matriz triangular inferior cujos elementos lij , para i < j, são os números
acima e lii = 1, então é fácil verificar que A = LU . Os detalhes da decom-
posição LU podem ser encontrados na referência [6].
Exercícios
1. Resolva:
x+y+z =1 x − 2y + z + t = 1
(a) 2x + y + 3z = 1 (b) −2x + y + 2z + 2t = 0 .
−x + 2y − 4z = 3 6y + z = −2
2. Sejam a 6= b 6= c 6= d números reais distintos. Prove que existe um
único polinômio p(x) = α0 + α1 x + α2 x2 + α3 x3 tal que p(a) = a0 ;
p(b) = b0 ; p(c) = c0 ; p(d) = d0 , onde a0 , b0 , c0 , d0 são reais dados.
2 3 1
3. Ache a decomposição LU da matriz A = 4 1 4.
3 4 6
Capítulo 6
Autovalores e Autovetores
6.1 Definições
Definição 6.1 Sejam V um espaço vetorial sobre o corpo K e T : V −→ V
linear. Dizemos que v ∈ V é um autovetor de T se existe a ∈ K tal que
T (v) = av.
84
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 85
Dem. Já vimos anteriormente que (b) e (c) são equivalentes. Basta, então,
provar que (a) e (b) são equivalentes.
(a) ⇒ (b): Se a é autovalor de T, existe v 6= 0 tal que T (v) = av, isto é,
(T − aI)v = 0, donde T − aI não é invertível.
(b) ⇒ (a): Se T − aI não é invertível, existe v 6= 0 tal que (T − aI)v = 0,
donde T (v) = av, ou seja, a é autovalor de T.
a1 b1 v1 + a2 b2 v2 + ... + am bm vm = 0. (6.2)
By = P −1 AP y = P −1 Ax = P −1 (ax) = ay.
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 87
Dem. Seja E = (u1 , ..., ur , v1 , .., vs ) base de V tal que (u1 , ..., ur ) seja base de
V (a). Temos:
T (u1 ) = au1
T (u2 ) = au2
..
.
T (ur ) = aur
T (v1 ) = a11 u1 +...+ ar1 ur + b11 v1 + ... + bs1 vs
T (vs ) = a1s u1 +...+ ars ur + b1s v1 + ... + bss vs
Logo:
h iE aIr A
T =
E
0 B
Então:
¯ ¯
¯a − t 0 ... 0 a11 ... a1s ¯
¯ ¯
¯ 0 a−t ... 0 a21 ... a2s ¯
¯ . .. .. .. .. .. ¯
¯ . ... ¯
¯ . . . . . . ¯
¯ ¯
PT (t) = ¯ 0 0 ... a − t ar1 ... ars ¯ = (a−t)r det(B −tIs ).
¯ ¯
¯ 0 0 ... 0 b11 − t ... b1s ¯
¯ . .. .. .. .. ... .. ¯¯
¯ .. . . . . . ¯
¯
¯ 0 0 ... 0 bs1 ... bss − t¯
Como a é raiz de multiplicidade m, temos r ≤ m, donde 1 ≤ dim V (a) ≤ m.
6.2 Diagonalização
Definição 6.6 Sejam V um espaço vetorial de dimensão n sobre K e T :
V −→ V linear. Dizemos que T é diagonalizável se existe base de V for-
mada por autovetores de T, ou seja, se, e só se, T tem n autovetores lin-
earmente
independentes.
Em relação a essa base, a matriz de T é da forma
λ1 0 ... 0
0 λ2 ... 0
.. .. . . .. , λj ∈ K, ou seja, todos os elementos fora da diagonal
. . . .
0 0 ... λn
principal são iguais a zero. Uma tal matriz é dita diagonal; os elementos da
diagonal principal são os autovalores de T.
£ ¤E
Dem. Se T é diagonalizável e E é base de V na qual T E é diagonal, então
E é formada de autovetores de T. Podemos supor que os elementos de E es-
tão ordenados de maneira a termos primeiro os autovetores associados a λ1 ,
depois aqueles associados a λ2 , e assim por diante, de modo que
λ1 ... 0 0 ... 0 ... 0 ... 0
.. . . . .. . . . .. . .. .
. . .. . . .. . .. . ..
0 ... λ1 0 ... 0 ... 0 ... 0
0 ... 0 λ2 ... 0 ... 0 ... 0
. .. .. . . .. . . .. . . ..
£ ¤E . ..
. . . . . . . . . .
T E = ∈ Mn (K).
0 ... 0 0 ... λ2 ... 0 ... 0
. . ..
.. . . ... .. . .
. .
.. . .
. .
.. . .
. . .
0 ... 0 0 ... 0 ... λ ... 0
k
.. . . .
. .
. . . .
. . . .
. . . .
.
. . . . . . . . . .
0 ... 0 0 ... 0 ... 0 ... λk
Então:
V = V (λ1 ) ⊕ V (λ2 ) ⊕ ... ⊕ V (λk ),
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 92
donde dim V = dim V (λ1 ) + ... + dim V (λk ) = n. Como dim V (λi ) ≤ mi e
m1 + ... + mk = n, resulta dim V (λi ) = mi (1 ≤ i ≤ k).
Reciprocamente, as n raízes de PT estando em K, suponhamos que dim V (λi ) =
mi , 1 ≤ i ≤ k. A relação m1 + ... + mk = n nos dá
£ ¤
dim V (λ1 ) ⊕ ... ⊕ V (λk ) = n ∴ V = V (λ1 ) ⊕ ... ⊕ V (λk ).
µ ¶ x2
1
x = x1 . Assim, dim V (1) = 1 < 2, e A não é diagonalizável.
0
−1 1 0
Exemplo 6.2.3 A = 0 −1 1 é diagonalizável em M3 (C) mas não o
1 0 −1
√
3 3
é em M3 (R). De fato, os autovalores de A são a1 = 0, a2 = − + i , a3 =
√ 2 2
3 3
− −i .
2 2
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 93
−1 1 1
Exemplo 6.2.4 A = 1 −1 1 ∈ M3 (R) é diagonalizável. De fato,
1 1 −1
temos:
PA (t) = −(t − 1)(t + 2)2 .
( 1 1 )
1
É fácil comprovar que 1 é base de V (1) e que −1 , 0 é base
1 0 −1
de V (−2), ou seja, dim V(1) = 1 e dim
V (−2) = 2. Resulta
que A ∈ M3 (R)
1 1 1 1 0 0
é diagonalizável. Se P = 1 −1 0 , então P AP = 0 −2 0 .
−1
1 0 −1 0 0 −2
Dem. (indução)
Para dim V = 1 nada há a provar. Suponhamos o teorema verdadeiro para
dim V = n − 1. Seja a1 ∈ K um dos autovalores de T e v1 6= 0 um autovetor
associado a a1 , isto é, T v1 = a1 v1 . Sejam V1 = Kv1 o subespaço gerado por
v1 , W um suplementar qualquer de V1 e F = (w2 , ..., wn ) uma base de W.
Como v1 6= W , E 0 = (v1 , w2 , ..., wn ) é base de V e
a1 b12 ... b1n
£ ¤E 0 0 b22 ... b2n
T E 0 = .. .. . . . .
. . . ..
0 bn2 ... bnn
donde:
b22 ... b2n
£ ¤F
p2 T F = ... . . . ... .
bn2 ... bnn
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 94
Resulta: PT (t) = (a1 −t) det(p2 T −tI), e podemos concluir que os autovalores
de p2 T : W −→ W estão em K, já que eles são também autovalores de T.
£ ¤G
Pela hipótese de indução, existe base G = (u2 , ..., un ) de W tal que p2 T G =
c22 c23 ...c2n
0 c33 ... c3n
.. .. . . .. é matriz triangular. Se E = (v1 , u2 , ..., un ) é a base de
. . . .
0 0 ... cnn
V obtida acrescentando-se v1 6= W a G, temos:
a1 c12 ... c1n
0 c22 ... c2n
£ ¤E
T E = 0 0 ... c3n , matriz triangular.
.. .. . . .
. . . ..
0 0 ... cnn
Exercícios
2 0 4
1. Ache os autovalores e autovetores e A = 3 −4 12 ∈ M3 (R).
1 −2 5
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 95
−4 0 −2
2. Verifique se A = 0 1 0 é diagonalizável.
5 1 3
= a0 In + a1 A + ... + am Am = p(A),
£ ¤E
ou seja, p(T ) E = p(A).
= p(T ) + q(T )
.
m+n
X
n+m
(b) (pq)(t) = c0 + c1 t + ... + cn+m t = ck tk , onde
k=0
k
X
ck = a0 bk + a1 bk−1 + ... + ak b0 = ai bk−i .
i=0
m+n
à n !à m
!
X X X
Então: (pq)(T ) = ck T k e p(T ) · q(T ) = ai T i bj T j =
k=0 i=0 j=0
n X
X m m+n
X
= ai bj T i+j = ck T k = (pq)(T ) = (qp)(T ) = q(T ) · p(T ).
i=0 j=0 k=0
(c) (cp)(T ) = ca0 I + ca1 T + ... + can T n = c · p(T ).
Obs. É claro que a proposição 6.13 continua válida se trocarmos o operador
linear T : V −→ V por uma matriz quadrada A.
e i = n prova o teorema.
Obs. É claro que a proposição 6.14 continua válida se substituirmos T :
V −→ V por uma matriz A ∈ Mn (K).
1 1 1
Exemplo 6.3.3 Seja A = 0 0 −3. Temos: PA (t) = (1 − t)(t − 3)2 .
0 3 6
1
Para t = 1, (A − I3 )x = 0 nos dá x = x1 0 , x1 ∈ R.
0
0
Para t = 3, (A − 3I3 )x = 0 nos dá x = x3 −1 , x3 ∈ R.
1
1
Como dim V (3) = 1 < 2, A não é diagonalizável. Os vetores 0 e
0
0
−1 geram V (1) e V (3), respectivamente. Para obter uma base de R3
1
devemos tomar
um terceiro vetor que seja
independente
desses
dois. Por
0 1 0 0
exemplo, 1. Obtemos a base F = 0 , −1 , 1 de R3 . Se
0 0 1 0
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 98
1 0 0 1 0 0 1 0 1
P = 0 −1 1, então P −1 = 0 0 1 e B = P −1 AP = 0 3 3, ma-
0 1 0 0 1 1 0 0 3
triz triangular na qual os elementos da diagonal principal são os autovalores
de A. Como PA (t) = PB (t) = (1 − t)(3 − t)2 , temos PA (A) = PB (B) = 0, ou
seja, (I3 − A)(3I3 − A)2 = 0, que se pode verificar diretamente pelo cálculo.
Produto Interno
Exemplo 7.1.2 Seja V = C 0 ([0, 1], K) o espaço vetorial das funções con-
tínuas f Z: [0, 1] −→ K. Se f, g ∈ V , definimos um produto interno em V por
1
hf, gi = f (t)g(t)dt.
0
Exemplo 7.1.3 Seja V = C 1 ([0, 1], R) o espaço vetorial das funções con-
tínuas f : [0, 1] −→ R que têm derivada primeira
Z 1 contínua. Se f, g ∈ V ,
£ ¤
definimos um produto interno em V por hf, gi = f (t)g(t) + f 0 (t)g 0 (t) dt.
0
99
CAPÍTULO 7. PRODUTO INTERNO 100
p p p
Dem. (a) kavk = hav, avi = aahv, vi = |a|2 · hv, vi = |a| · kvk.
(b) Se v 6= 0 temos hv, vi > 0, donde kvk > 0.
(c) A desigualdade é verdadeira para v = 0. Suponhamos v 6= 0 e deter-
minemos c ∈ K de modo que cv seja a projeção ortogonal de u ao longo de
hu, vi
v, isto é, tal que hu − cv, vi = 0, donde c = . Pelo corolário 7.1.1 da
hv, vi
CAPÍTULO 7. PRODUTO INTERNO 101
|hu, vi|
proposição 7.1 temos kuk ≥ kcvk = · kvk, donde, |hu, vi| ≤ kuk · kvk,
kvk2
com igualdade ⇔ u = cv.
u
36
u − cv
- -
cv v
u − cv
- -
cv v
Proposição 7.4 Seja {v1 , ..., vn , ...} um conjunto ortogonal de vetores não-
nulos num espaço vetorial com produto interno h, i. Sejam v ∈ V e ci =
hv, vi i
(i = 1, 2, ...).
kvi k2 ° ° ° °
° X n ° ° Xn °
° ° ° °
(a) Se a1 , ..., an ∈ K, então °v − c i v i ° ≤ °v − ai vi °, com igualdade
° ° ° °
i=1 i=1
se, e só se, ai = ci (i = 1, ..., n)
v
µ
n
X
ci vi
- i=1
n
X n
X
ai vi
i=1
(ci − ai )vi
R
S i=1
∞
X
(b) |ci |2 · kvi k2 ≤ kvk2 (desigualdade de Bessel)
i=1
n
X n
X
Dem. hv − ci vi , vj i = hv, vj i − ci hvi , vj i = cj kvj k2 − cj kvj k2 = 0 (j =
i=1 i=1
n
X
1, .., n), ou seja, o vetor v− ci vi é perpendicular ao subespaço S gerado por
i=1
X n
v1 , ..., vn ; em particular ao vetor (ci −ai )vi . Do corolário 7.1.1 do teorema
° i=1 ° ° °
° X n ° ° Xn °
° ° ° °
de Pitágoras, resulta que °v − ci vi ° ≤ °v − ai vi °, com igualdade se,
° ° ° °
i=1 i=1
X n
e só se, (ci − ai )vi = 0, o que equivale a ai = ci (i = 1, ..., n).
i=1
° °2
°Xn °
° °
Ainda pelo corolário 7.1.1 do teorema de Pitágoras, temos kvk2 ≥ ° ci vi ° =
° °
i=1
CAPÍTULO 7. PRODUTO INTERNO 104
n
X n
X
hci vi , cj vj i = |ci |2 kvi k2 , válida para todo n ∈ N. Portanto,
i,j=1 i=1
∞
X
|ci |2 · kvi k2 ≤ kvk2 .
i=1
∞ Z
a20 X 2 2 1 2π
ou seja, + (an + bn ) ≤ |f (t)|2 dt,
2 n=1
π 0
que é a desigualdade clássica de Bessel.
Dem. Seja (u1 , ..., un ) base de V. A partir desta base vamos obter uma base
ortogonal, pelo chamado processo de ortogonalização de Gram-Schmidt.
v2 u2
6 µ
-
v1 = u1
v3 6
3 u3
- v2
R
u2
ª
v1 = u1
Como u1 e u2 são LI, é claro que v2 6= 0; além disso, o espaço gerado por
v1 e v2 é o mesmo gerado por u1 e u2 . A seguir, para achar v3 , ponhamos
v3 = u3 − b2 v2 − b1 v1 , onde b1 e b2 são escolhidos de modo que hv3 , v1 i =
hu3 , v1 i hu3 , v2 i
hv3 , v2 i = 0, donde b1 = 2
e b2 = .
kv1 k kv2 k2
Como u3 não está no espaço gerado por v1 e v2 , temos v3 6= 0; além disso,
o espaço gerado por v1 , v2 , v3 é o mesmo gerado por u1 , u2 , u3 . Por indução,
suponhamos construídos v1 , ..., vk−1 que formam um conjunto ortogonal de
vetores não-nulos e são tais que o espaço por eles gerado é o mesmo gerado
por u1 , ..., uk−1 . Para achar vk , ponhamos vk = uk − ck−1 vk−1 − ... − c1 v1 ,
onde c1 , ..., ck−1 são escolhidos de modo que hvk , v1 i = ... = hvk , vk−1 i = 0,
huk , v1 i huk , vk−1 i
donde c1 = 2
, ..., ck−1 = . Como uk não pertence ao espaço
kv1 k kvk−1 k2
gerado por v1 , ..., vk−1 temos vk 6= 0; além disso, o espaço gerado por v1 , ..., vk
é o mesmo gerado por u1 , ..., uk . Obteremos assim, por esse processo, uma
sequência (v1 , ..., vn ) de vetores não-nulos, dois a dois ortogonais, donde LI,
ou seja, uma base ortogonal de V. Para obter uma base ortonormal basta
vi
substituir cada vi por .
kvi k
ht, f1 i
Seja f1 (t) = 1 e tomemos f2 (t) = t − af1 (t) = t − a onde a = =
Z kf1 k2
1
1 1
t · dt = . Logo: f2 (t) = t − .
0 2 2
2
Ponhamos f3 (t) = t − bf2 (t) − cf1 (t), onde b, c ∈ R são dados por:
ht2 , f2 i ht2 , f1 i
b= e c = .
kf2 k2 kf1 k2
Temos:
Z 1 µ ¶2 Z 1
2 2 1 1 1
kf1 k = 1; kf2 k = t−dt = ; ht2 , f1 i = t2 dt = ;
0 2 12 0 3
Z 1 µ ¶
2 2 1 1
ht , f2 i = t t− dt = .
0 2 12
Logo:
1 1
f3 (t) = t2 − f2 (t) − f1 (t) = t2 − t + .
3 6
µ ¶
1 1
Portanto, 1, t − , t2 − t + é uma base ortogonal de W.
2 6
V = W ⊕ W⊥
Temos:
r
X r
X
hu, vj i = hv − hv, vi ivi , vj i = hv, vj i − hv, vi iδij =
i=1 i=1
Exercícios
1. Seja E = (u1 , u2 , u3 ) a base de R3 formada pelos vetores u1 = (1, 1, 1), u2 =
(1, −1, 1) e u3 = (1, −1, −1), e seja F = (v1 , v2 , v3 ) a base ortogonal
obtida de E pelo processo de Gram-Schmidt. Ache a matriz P de pas-
sagem de E para F. Observe que P é triangular superior.
Dem. Tv1 +v2 (u) = hu, v1 + v2 i = hu, v1 i + hu, v2 i = Tv1 (u) + Tv2 (u).
Tav (u) = hu, avi = ahu, vi = aTv (u), de modo que T não é linear se
K = C. Dizemos que ela é semi-linear.
T : V −→ V ∗ é injetora: Tv1 = Tv2 se, e só se, hu, v1 i = hu, v2 i para todo
u ∈ V ⇔ hu, v1 − v2 i = 0 para todo u ∈ V ⇔ v1 = v2 .
T : V −→ V ∗ é sobrejetora: dado w ∈ V ∗ , seja (v1 , ..., vn ) uma base
ortonormal de V e seja v = a1 v1 + ... + an vn com ai = w(vi ). Então, Tv (vi ) =
hvi , vi = ai = w(vi ), 1 ≤ i ≤ n, e, portanto, Tv = w.
Obs. No caso K = R a aplicação T é linear bijetora, isto é, um isomorfismo
entre V e V ∗ .
No caso K = C a aplicação T é semi-linear bijetora; ela é um anti-isomorfismo
entre V e V ∗ .
Se W ⊂ V é um subespaço, vimos que W ⊥ é subespaço de V e W 0 é
subespaço de V ∗ , onde
W ⊥ = {v ∈ V ; hu, vi = 0 ∀u ∈ W } e
W 0 = {α ∈ V ∗ ; α(u) = 0 ∀u ∈ W }.
Se v ∈ W ⊥ então Tv ∈ W 0 pois Tv (u) = hu, vi = 0 para todo u ∈ W .
Assim, T : V −→ V ∗ leva W ⊥ em W 0 .
Um argumento análogo ao usado na proposição 7.7 mostra que T : W ⊥ −→
W 0 é um isomorfismo no caso K = R e um anti-isomorfismo no caso K = C.
Observemos também que se dim V = n e dim W = r então dim W ⊥ = n−r,
como já vimos anteriormente.
A proposição 7.7 nos diz que, dado um funcional linear w ∈ V ∗ , existe
um e um único vetor v ∈ V tal que w = Tv , isto é, w(u) = hu, vi para todo
u ∈ V , ou seja, v ∈ V representa a forma linear w ∈ V ∗ .
Exemplo 7.3.1 Sejam U ⊂ Rn aberto e f : U −→ R uma aplicação difer-
enciável. A diferencial de f em p ∈ U é o funcional linear df (p) ∈ (Rn )∗ tal
∂f
que, para todo v ∈ Rn , df (p) · (v) = (p) = derivada de f no ponto p na
∂v
direção de v.
Considerando em Rn o produto interno usual, o vetor que representa df (p)
é o gradiente de f em p, Of (p) = grad f (p). Assim, Of (p) é o vetor de Rn
∂f
tal que df (p) · v = hOf (p), vi = (p). Se (e1 , ..., en ) é a base canônica de Rn
∂v
∂f
e Of (p) = a1 e1 + ... + an en , então ai = hOf (p), ei i = (p), (1 ≤ i ≤ n),
∂xi
CAPÍTULO 7. PRODUTO INTERNO 110
µ ¶
∂f ∂f
ou seja, Of (p) = (p), ..., (p) .
∂x1 ∂xn
7.4 Adjunta
Sejam V e W espaços vetoriais de dimensão finita, ambos com produto in-
terno, e T : V −→ W linear.
Dem.
(a) h(L+T )(u), vi = hLu+T u, vi = hLu, vi+hT u, vi = hu, L∗ vi+hu, T ∗ vi =
= hu, L∗ v + T ∗ vi = hu, (L∗ + T ∗ )(v)i quaisquer que sejam u, v ∈ V .
Portanto: (L + T )∗ = L∗ + T ∗ .
(b) h(aT )(u), vi = haT (u), vi = ahu, T ∗ vi = hu, aT ∗ (v)i =
= hu, (aT ∗ )(v)i, donde (aT )∗ = aT ∗ .
(c) h(L ◦ T )(u), vi = hL(T u), vi = hT u, L∗ vi = hu, T ∗ L∗ vi = hu, T ∗ ◦ L∗ (v)i,
donde (L ◦ T )∗ = T ∗ ◦ L∗ .
(d) hT ∗ u, vi = hv, T ∗ ui = hT v, ui = hu, T vi, donde (T ∗ )∗ = T .
Obs. Se L = L∗ e T = T ∗ são operadores auto-adjuntos em V, então
(L ◦ T )∗ = T ∗ ◦ L∗ = T ◦ L e L ◦ T é auto-adjunto se, e só se, T ◦ L = L ◦ T .
hT (u + v), u + vi − hT u, ui − hT v, vi = hT u, vi + hT v, ui.
hT u, vi + hT v, ui = 0 ¤
N (T ) N (T ∗ )
T -
Im(T ∗ ) Im(T )
¾
T∗
8.1 Definições
Definição 8.1 Sejam V, W espaços vetoriais sobre K, munidos de produto
interno. Dizemos que T : V −→ W é uma isometria se T é linear bijetora e
hT u, T vi = hu, vi quaisquer que sejam u, v ∈ V .
Assim, uma isometria é um isomorfismo que preserva o produto interno.
115
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 116
hT vi , T vj i = hvi , vj i = δij .
Exemplo 8.1.1 Seja V1 = C 0 ([0, 1], R) o espaço vetorialZ real das funções
1
2
contínuas f : [0, 1] −→ R com o produto interno hf, gi1 = f (t)g(t)e−t dt,
Z0 1
0
e seja V2 = C ([0, 1], R) com o produto interno hf, gi2 = f (t)g(t)dt. A
0
2
− t2
aplicação T : V1 −→ V2 definida por (T f )(t) = e f (t),Z t ∈ [0, 1], é linear
1
2
bijetora e preserva o produto interno pois hT f, T gi2 = e−t f (t)g(t)dt =
0
hf, gi1 . Portanto, T : V1 −→ V2 é uma isometria.
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 117
kT (u+v)−T (u)−T (v)k2 = kT (u+v)k2 +kT uk2 +kT vk2 −2hT (u+v), T (u)i−
kT (av)−aT (v)k2 = kT (av)k2 +a2 kT vk2 −2ahT (av), T (v)i = kavk2 +a2 kvk2 −
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 118
−2ahav, vi = 0.
Logo: T (av) = aT (v), a ∈ R.
Portanto, T é uma aplicação linear ortogonal.
(b) Sejam T : Rn −→ Rn movimento rígido, T (0) = v0 e T−v0 (v) = v −v0 .
A composta de movimentos rígidos é um movimento rígido, como é fácil de
se verificar, de modo que L = T−v0 ◦ T é um movimento rígido e L(0) =
T−v0 (T (0)) = T−v0 (v0 ) = 0. Pela parte (a) vem que L : Rn −→ Rn é um
operador ortogonal. Como (T−v0 )−1 = Tv0 e L = T−v0 ◦ T , vem L = T−v
−1
0
◦T,
donde T = Tv0 ◦ L, ou seja, todo movimento rígido é a composta de uma
translação com um operador ortogonal:
E:
(T1 +T2 )∗ ·(T1 +T2 ) = (T1∗ +T2∗ )(T1 +T2 ) = T1∗ ◦T1 +T1∗ ◦T2 +T2∗ ◦T1 +T2∗ ◦T2 .
Como T1 ◦T1∗ = T1∗ ◦T1 , T2 ◦T2∗ = T2∗ ◦T2 , T1 ◦T2∗ = T2∗ ◦T1 e T2 ◦T1∗ = T1∗ ◦T2 ,
vem que T1 + T2 é normal.
Temos também:
T1 T2 (T1 T2 )∗ = T1 T2 T2∗ T1∗ = T1 T2∗ T2 T1∗ = T2∗ T1 T1∗ T2 = T2∗ T1∗ T1 T2 = (T1 T2 )∗ T1 T2 ,
donde T1 T2 é normal.
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 119
n
X n
X n
X
v ∈ V então v = ai vi e hT v, vi = hai λi vi , aj vj i = λi |ai |2 > 0,
i=1 i,j=1 i=1
donde T > 0. O caso T ≥ 0 é análogo.
Temos:
[T ]F E E F
F = [I]F · [T ]E · [I]E ,
(a) λ = −3:
4x1 − 2x2 − 2x3 = 0
−2x1 − 4x2 − 2x3 = 0 ,
−2x1 − 2x2 − 4x3 = 0
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 122
√
1 1/√3
f
donde X1 = 1 é autovetor, donde X1 = 1/√3 é autovetor unitário.
1 1/ 3
−1
f
(b) λ = 3: −2x1 − 2x2 − 2x3 = 0, donde x1 = −x2 − x3 e X2 = 1
0
−1
f
e X3 = f2 e X
0 são autovetores. Como X f3 não são ortogonais, usamos
1
√
−1/√ 2
Gram-Schmidt para ortogonalizá-los. Obtemos: X2 = 1/ 2 e X3 =
0
√
−1/√6
−1/ 6.
√
2/ 6
3
Os vetores
√ X1 , X√2 , X3 formam
√ uma base ortonormal de R de modo que
1/√3 −1/√ 2 −1/√6
H = 1/√3 1/ 2 −1/√ 6 é matriz ortogonal (H −1 = H t ) tal que
1/ 3 0 2/ 6
−3 0
−1
H AH = D = 3 .
0 3
Definição 8.7 Seja A = (aij ) ∈ Mn (K). Dizemos que A é positiva (resp.
não-negativa) se o operador TA : Kn −→ Kn TA (x) = Ax, é positivo (resp.
t
não-negativo). Assim, A > 0 se, e só se, A = A (A é hermitiana) e
Xn
hTA (x), xi = hAx, xi = aij xi xj > 0 para todo x = (x1 , ..., xn ) 6= 0.
i,j=1
Da proposição 8.7 resulta que uma matriz hermitiana é positiva se, e só se,
seus autovalores são todos positivos.
Definição 8.8 Uma matriz B = (bij ) – n × n – chama-se raiz quadrada de
A = (aij ) – n × n – se A = B 2 .
Proposição 8.8 Toda matriz positiva (resp. não-negativa) A = (aij ) – n×n
– tem raiz quadrada positiva (resp. não negativa).
Dem. Sejam λ1 , ..., λn os autovalores de A, todos positivos. Pelo
teorema es-
λ1 0
−1 . ..
pectral existe matriz unitária P – n×n – tal que P AP = D = .
0 λn
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 123
p
λ1 0
.. 2
Seja B = . ; então B = D.
p
0 λn
Seja C = P BP , donde C 2 = P B 2 P −1 = P DP −1 = A, ou seja, a
−1
Dem.
(a) ⇒ (b): Seja 1 ≤ s ≤ n; vamos provar que As > 0. Seja Xs =
(x1 , ..., xs )t 6= 0 em Rs e X = (x1 , ..., xs , 0, ..., 0)t ∈ Rn .
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 124
(3) (3)
com det A4 = det A3 · a44 > 0, donde a44 > 0 e U triangular superior com
elementos diagonais positivos.
(c) ⇒ (d): Se A pode ser reduzida à forma triangular superior U =
(uij ), ukk > 0, usando-se apenas operações elementares do tipo Tij (λ), então
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 125
N (T ) N (T ∗ )
(ur+1 , . . . , un ) (vr+1 , . . . , vm )
T -
Im(T ∗ ) Im(T )
(u1 , . . . , ur ) (v1 , . . . , vr )
¾
U = N (T ) ⊥ Im(T ∗
)
T∗ V = N (T ∗ ) ⊥ Im(T )
σ1
..
X h iE
. 0
σr
= T = = [I]F E1 E
F [T ]F1 [I]E1 = QAP ,
1
F
0 0
9.1 Generalidades
Definição 9.1 Seja K um corpo de característica 6= 2; por exemplo K = R
ou K = C. Sejam U, V, W espaços vetoriais sobre K. Uma aplicação T :
U × V −→ W é bilinear se T é linear em cada variável separadamente, isto
é, se
T (u1 + u2 , v) = T (u1 , v) + T (u2 , v); T (λu, v) = λT (u, v)
T (u, v1 + v2 ) = T (u, v1 ) + T (u, v2 ); T (u, λv) = λT (u, v)
quaisquer que sejam u, u1 , u2 ∈ U , v, v1 , v2 ∈ V e λ ∈ K.
Com as leis usuais de adição e produto por escalar, o conjunto das apli-
cações bilineares T : U × V −→ W é um espaço vetorial sobre K, ano-
tado L(U, V ; W ). Quando U = V e W = K, representamos L(V, V ; K) por
L2 (V ; K) e dizemos que f ∈ L2 (V ; K) é uma forma bilinear.
n
X
n n
Exemplo 9.1.1 (x, y) ∈ R × R 7−→ hx, yi = xi yi é uma forma bilinear
i=1
em Rn .
130
CAPÍTULO 9. FORMAS BILINEARES E QUADRÁTICAS 131
Exemplo 9.1.4
φ : L(U, V ) × L(V, W ) −→ L(U, W )
(S, T ) −→ φ(S, T ) = T ◦ S
é uma aplicação bilinear.
Proposição 9.1 Seja
φ : L(U, V ; W ) −→ L(U, L(V, W ))
T −→ φT : U −→ L(V, W )
u 7−→ φT (u) : V −→ W
v 7−→ φT (u)(v) = T (u, v)
onde U, V, W são espaços vetoriais sobre K.
Então, φ é um isomorfismo canônico.
Dem. Seja
ψ : L(U ; L(V, W )) −→ L(U, V ; W )
S 7−→ ψS : U × V −→ W
(u, v) 7−→ ψS(u, v) = S(u)(v)
É fácil verificar que φ e ψ estão bem definidas, são lineares, φ ◦ ψ =
id, ψ ◦ φ = id, ou seja, φ e ψ são isomorfismos e ψ = φ−1 .
Corolário 9.1.1
φ : L2 (V ; K) −→ L(V, V ∗ )
f −→ φf : V −→ V∗
u 7−→ φf (u) : V −→ K
v 7−→ f (u, v)
é um isomorfismo canônico que nos permite identificar L2 (V ; K) com L(V, V ∗ ).
Definição 9.2 f ∈ L2 (V ; K) é simétrica se f (u, v) = f (v, u) quaisquer que
sejam u, v ∈ V .
f ∈ L2 (V ; K) é antissimétrica se f (u, v) = −f (v, u) quaisquer que sejam
u, v ∈ V ; neste caso, f (v, v) = −f (v, v) donde f (v, v) = 0 para todo v ∈ V ,
isto é, f é alternada.
Obs. O conjunto das formas bilineares simétricas (resp. antissimétricas)
em V é um subespaço vetorial S2 (V ; K) (resp. A2 (V ; K)) de L2 (V ; K) e
temos L2 (V ; K) = S2 (V ; K) ⊕ A2 (V ; K). De fato, S2 (V ; K) e A2 (V ; K) têm
1
interseção igual a {0} e se f ∈ L2 (V ; K) então g(u, v) = [f (u, v)+
2
1
+f (v, u)] e h(u, v) = [f (u, v) − f (v, u)] são tais que g ∈ S2 (V ; K), h ∈
2
A2 (V ; K) e f = g + h.
CAPÍTULO 9. FORMAS BILINEARES E QUADRÁTICAS 132
Temos:
m X
n n
à m !
X X X
f (u0i , vj0 ) = a0ij = pri qsj ars = ptir · arj qsj ,
r=1 s=1 s=1 r=1
uma e uma única aplicação linear F : V −→ V tal que f (u, v) = hu, F (v)i
para u, v ∈ V quaisquer.
Dem. Seja v ∈ V arbitrário. A função u ∈ V 7−→ f (u, v) é uma forma
linear em V, isto é, um elemento de V ∗ . Portanto, existe um e um único
ζ = F (v) ∈ V tal que f (u, v) = hu, ζi = hu, F (v)i, e obtemos F : V −→ V .
Se u, v1 , v2 ∈ V e λ ∈ R, temos:
n
X X n
X
q(v) = f (v, v) = f (ui , uj )xi xj = λj δij xi xj = λi (xi )2 = λ1 x21 +...+λn x2n ,
i,j=1 i,j i=1
combinação de quadrados.
n
X
para todo v = xi w i ∈ V .
i=1
CAPÍTULO 9. FORMAS BILINEARES E QUADRÁTICAS 135
Corolário 9.3.2 Se E = (v1 , ..., vn ) e E 0 = (v10 , ..., vn0 ) são bases ortonormais
Xs s+t
X X s0 0 +t0
sX
2 2 2
de V nas quais q(v) = (xi ) − (xj ) = (xi ) − (xj )2 para
i=1 j=s+1 i=1 j=s0 +1
X X
v= xi v i = xj vj0 qualquer, então s = s0 e t = t0 .
Dem. Sejam:
U = subespaço de V gerado por v1 , ..., vs
W 0 = subespaço de V gerado por vs0 0 +1 , ..., vn0 .
donde: s + n − s0 ≤ n, ou seja, s ≤ s0 .
Por simetria, obtemos: s0 ≤ s. Logo, s = s0 .
Como s + t = s0 + t0 = r = posto de F (=posto de f=posto de q), resulta
t = t0 .
Obs. O par (s, t) é univocamente determinado por q; t é a maior dimen-
são de um subespaço de V restrita ao qual q é negativa: t é a dimensão do
CAPÍTULO 9. FORMAS BILINEARES E QUADRÁTICAS 136
subespaço de V gerado por vs+1 , ..., vs+t . Por definição, t é o índice da forma
quadrática q. Quando q(v) ≥ 0 para v ∈ V qualquer, dizemos que o índice
de q é zero.
Exemplo: q : R4 −→ R, q(x, y, z, t) = −x2 + y 2 + z 2 + t2 tem posto r = 4
e índice t = 1.
Vamos apresentar, por meio de exemplos, o método de Lagrange para a
diagonalização de uma forma quadrática.
Exemplo 9.5.1 q(x, y, z) = x2 + z 2 − 4xy + 4xz.
Como existe o termo quadrado “puro” x2 vamos completar o quadrado:
q(x, y, z) = x2 −4x(y−z)+z 2 = [x−2(y−z)]2 −4(y−z)2 +z 2 = (x−2y+2z)2 −4y 2 −3z 2 +8yz
e a existência de y 2 nos permite completar o quadrado:
q(x, y, z) = (x − 2y + 2z)2 − 4(y − z)2 + z 2
Pondo:
u = x − 2y + 2z
v = y − z,
obtemos
q(u, v, z) = u2 − 4v 2 + z 2 ,
forma de posto r = 3 e índice t = 1.
Exemplo 9.5.2 q(x, y, z) = 4xy − 2xz + yx
Como não existe nenhum quadrado puro, fazemos
x=u+v
y = u − v,
donde xy = u2 − v 2 e
q(u, v, z) = 4u2 − 4v 2 − 2z(u + v) + z(u − v) = 4u2 − 4v 2 − uz − 3vz =
³ µ ¶ ·³ ¸ µ ¶2
2 z ´ 2 3z z ´2 z2 3z 9z 2
= 4 u − u −4 v + v = 4 u − − −4 v + + =
4 4 8 164 8 16
³ µ ¶2
z ´2 3z z2
4 u− −4 v+ v + .
8 4 2
z 3z
Fazendo: α = u − ; β = v + , vem:
8 8
z2
q(α, β, z) = 4α2 − 4β 2 + ,
2
forma de posto r = 3 e índice t = 1.
Capítulo 10
Miscelânea
10.1 Orientação
Seja V um espaço vetorial real, de dimensão finita n ≥ 1, e seja B o conjunto
das bases ordenadas de V.
Definição 10.1 Duas bases ordenadas E = (u1 , ..., un ) e F = (v1 , ..., vn ) de
V são equivalentes, anotado E ∼ F, se o determinante da matriz de passagem
de E para F é positivo.
X n
Se vj = pij ui , então a matriz de passagem de E para F é a matriz
i=1
invertível P = (pij ) e E ∼ F se, e só se, det P > 0. Observemos que
P = [I]FE , onde I : V −→ V é a identidade.
137
CAPÍTULO 10. MISCELÂNEA 138
R = [I]F E F
E = [I]E · [I]E = P Q,
n
X n
X n
X n X
X n n
X
|det P | = 1 e vj = a0ij e0i = a0ij pki ek = akj ek , pki a0ij ek =
i=1 i=1 k=1 k=1 i=1 ¡ k=1 ¢
donde A = P A0 e |det A| = |det A0 |, o que mostra que v P (v1 , ..., vn ) não
depende da base ortonormal usada na sua definição.
n n n
à n !
X X X X
T vj = aij T (ei ) = aij bki ek = bki aij ek ,
i=1 i,k=1 k=1 i=1
f : V −→ R
x 7−→ f (x) = detE (v1 , ..., vn , x),
onde E = (e1 , ..., en+1 ) é base positiva de V, ortonormal, é linear, donde existe
um e um único u ∈ V , u = v1 × ... × vn , tal que f (x) = hu, xi para todo
x ∈ V . Este vetor u = v1 × ... × vn chama-se o produto vetorial de v1 , ..., vn .
Obs. (a) u = v1 × ... × vn é forma n-linear dos vetores v1 , ..., vn .
(b) Seja A = [v1 , ..., vn ] a matriz (n+1)×n cujas colunas são os vetores vj
escritos na base E. Seja A(i) – n × n – a submatriz obtida de A pela omissão
da linha i. Temos:
Então:
n+1
X
u= (−1)n+1+i det A(i) · ei ,
i=1
n+1
X
donde |u|2 = (det A(i) )2 ≥ 0 e |u| = 0 ⇔ det A(i) = 0 para todo i,
i=1
1 ≤ i ≤ n + 1 ⇔ posto A < n ⇔ v1 , ..., vn são LD.
(c) u⊥vj (1 ≤ j ≤ n) pois hu, vj i = ¡ det(v1 , ..., vn , ¢vj ) = 0. ¡ ¢
2
(d) |u| =¡ detE [v1 , ..., v¢n , u] = v P (u, v1 , ..., vn ) = |u|v P (v1 , ..., vn ) ,
donde |u| = v P (v1 , ..., vn )¡ . ¢
(e) v1 , ..., vn são LI ⇔ v P (v1 , ..., vn ) = |u| > 0. Neste caso, det(u, v1 , ..., vn ) =
|u|2 > 0 e (v1 , ..., vn , v1 × ... × vn ) tem a mesma orientação que (e1 , ..., en+1 ).
É fácil ver que o produto vetorial u = v1 × ... × vn é o único vetor de V
satisfazendo (c), (d) e (e).
CAPÍTULO 10. MISCELÂNEA 141
2. Prove que não existe T : R5 −→ R2 linear cujo núcleo seja {(x1 , ..., x5 ) ∈
R5 |x1 = x2 e x3 = x4 = x5 }.
5. Sejam V = U ⊕ W , P : V −→ W , P (u + w) = w, onde u ∈ U e w ∈ W .
Mostre que 0 e 1 são os únicos autovalores de P e ache os autovetores
correspondentes.
142
EXERCÍCIOS DE REVISÃO 143
[1] Axler, S. – Linear Algebra Done Right – Springer, New York, 1996.
144