Escolar Documentos
Profissional Documentos
Cultura Documentos
4. Exemplos:
a) O espaço K n .
b) O espaço Mm×n (K). O caso particular Mn (K).
c) O espaço S(K) de sequências.
d) O espaço P(A) sobre o corpo de 2 elementos.
e) Os espaços de funções F(X, K) e F(K) (caso X = K).
f) Produto direto de espaços vetoriais.
g) Complexificação de espaços vetoriais reais. Seja V um espaço vetorial real e considere o
conjunto VC dos elementos da forma u + iv, com u, v ∈ V . Diremos que u1 + iv1 = u2 + iv2
em VC se u1 = u2 e v1 = v2 . Para cada u ∈ V , identificamos u com o elemento u + i0V de
VC . Podemos então olhar V como um subconjunto de VC . Definimos em VC as operações
de soma:
(u1 + iv1 ) + (u2 + iv2 ) = (u1 + u2 ) + i(v1 + v2 )
e produto por escalar complexo:
6. Exemplos de subespaços:
a) {0V } e V .
b) Interseção de subespaços.
c) Soma de subespaços (finita e infinita). Subespaços independentes e somas diretas.
d) Subespaço gerado.
1
7. Observações sobre subespaços gerados:
a) h∅i = {0V }.
b) S ⊆ hSi.
c) Se W é um ubespaço de V e S ⊆ W , então hSi ⊆ W . Claramente, hW i = W .
d) S1 ⊆ S2 ⊆ V =⇒ hS1 i ⊆ hS2 i.
e) Definição de comjunto gerador e de espaço finitamente gerado.
f) Caracterização de subespaço gerado: hSi é o conjunto de todas as combinações lineares
de elementos de S, ou seja,
11. Teorema. Sejam V um espaço vetorial (não nulo) e S um subconjunto não vazio de S.
Então:
a) Se S é LI, então S está contido em alguma base de V .
b) Se S gera V , então S contêm alguma base de V .
Dem. a) O conjunto ordenado IS = {A ⊆ V | S ⊆ A, A é LI} possui elemento maximal,
o qual deve ser uma base de V . b) O conjunto ordenado AS = {B ⊆ V | B ⊆ S, B é LI}
possui elemento maximal, o qual deve ser uma base de V .
2
12. Corolário. Todo espaço vetorial não nulo possui base.
13. Observações:
a) Uma base é um conjunto gerador minimal e é um conjunto LI maximal.
b) Duas bases quaisquer de um mesmo espaço vetorial têm a mesma cardinalidade. O
número de elementos de uma base de V é chamado de dimensão de V . Notação: dim V .
17. Propriedades.
a) V /V é um espaço nulo. Se W é um subespaço próprio de V , então V /W é não nulo.
b) Se S gera V , então S = {v | v ∈ S} gera V /W .
c) Seja S um subconjunto não vazio e V . Suponha que u 6= v, para u e v distintos em S.
Se S = {v | v ∈ S} é LI em V /W , entao S é LI em V .
d) Se dim V é finita, então dim(V /W ) é finita e dim(V /W ) = dim V − dim W .
e) Teorema da correspondência.
3
23. Teorema Fundamental dos Homomorfismos e o Teorema do Núcleo e da Imagem.
25. Sejam V e W espaços vetoriais sobre o mesmo corpo K, ambos de dimensão finita.
Considere β = {v1 , v2 , . . . , vn } e γ = {w1 , w2 , . . . , wm } bases de V e W , respectivamente.
Para i ∈ {1, 2, . . . , n} e j ∈ {1, 2, . . . , m}, considere a transformação linear Tij : V −→ W
tal que (
wj , se l = i
Tij (vl ) = δil wj =
0W , se l 6= i
O conjunto {Tij | i = 1, . . . , n, j = 1, . . . , m} é uma base do K-espaço vetorial L(V, W ).
Logo, dim L(V, W ) = nm.
4
OS ESPAÇOS DUAL E BIDUAL
Exemplo 2 Sejam a, b ∈ IR, com a < b, e C[a, b] o espaço vetorial real de todas as funções
contı́nuas de [a, b] em IR. A aplicação
L : C[a, b] −→ IR
Z b
f 7−→ L(f ) = f (x)dx
a
5
Exemplo 4 Considere a base β = {v1 , v2 , v3 } de IR3 , onde v1 = (1, 0, 0), v2 = (0, 1, 2) e
v3 = (1, 0, 1). Temos β ∗ = {f1 , f2 , f3 }, onde f1 , f2 , f3 : IR3 −→ IR são definidos por f1 (x, y, z) =
x + 2y − z, f2 (x, y, z) = y e f3 (x, y, z) = z − 2y.
6
Não é difı́cil ver que S 0 é um subespaço de V ∗ . Observe que se f ∈ V ∗ , então vale:
f ∈ S 0 ⇐⇒ S ⊆ ker f .Como consequência disto segue que {0V }0 = V ∗ e V 0 = {0V ∗ }.
7
Observação 16 O corolário anterior é válido mesmo sem a hipótese de dimensão finita.
Seja V um K-espaço vetorial e considere o seu espaço dual V ∗ . Podemos definir o espaço
dual de V ∗ , o qual chamamos de espaço bidual de V e denotamos por V ∗∗ .
Fixado v ∈ V , considere a aplicação Lv : V ∗ −→ K, definida por Lv (f ) = f (v). Temos que
Lv ∈ V ∗∗ , pois Lv (f + g) = (f + g)(v) = f (v) + g(v) = Lv (f ) + Lv (g) e Lv (λf ) = (λf )(v) =
λf (v) = λLv (f ) para quaiquer f , g ∈ V ∗ .
Considerando agora aplicação
ψ: V −→ V ∗∗
v 7−→ ψ(v) = Lv
temos que ψ é uma transformação linear injetora. De fato, dados v1 , v2 ∈ V e λ ∈ K, temos
Lv1 +v2 (f ) = f (v1 + v2 ) = f (v1 ) + f (v2 ) = Lv1 (f ) + Lv2 (f ) = (Lv1 + Lv2 )(f )
e
Lλv1 (f ) = f (λv1 ) = λf (v1 ) = λLv1 (f ) = (λLv1 )(f )
para todo f ∈ V ∗ , donde Lv1 +v2 = Lv1 + Lv2 e Lλv1 = λLv1 .
Tomando agora v ∈ ker ψ, temos Lv = 0V ∗∗ e assim f (v) = Lv (f ) = 0 para todo f ∈ V ∗ .
Logo, devemos ter v = 0V .
Supondo agora dim V finita, temos dim V = dim V ∗ = dim V ∗∗ e assim ψ é sobrejetora.
Logo, existe uma identificação entre os elementos de V e os de V ∗∗ , quando dim V é finita.
Teorema 17 Se V é um espaço vetorial de dimensão finita, então toda base de V ∗ é dual de
algum base de V .
Demonstração. Como dim V é finita, a aplicação
ψ: V −→ V ∗∗
v 7−→ ψ(v) = Lv
é um isomorfismo. Sendo β = {f1 , f2 , . . . , fn } uma base de V ∗ , considere a sua base dual
β ∗ = {L1 , L2 , . . . , Ln } em V ∗∗ . Tomando v1 = ψ −1 (L1 ), . . . , vn = ψ −1 (Ln ), temos que γ =
{v1 , v2 , . . . , vn } é uma base de V e Li = Lvi para i = 1, 2, . . . , n. Ademais, fi (vj ) = Lvj (fi ) =
Lj (fi ) = δij , donde concluı́mos que β = γ ∗ . ¤
Teorema 18 Sejam V um espaço vetorial de dimensão finita e W um subespaço de V . Então
dim W = dim W 00 e W 00 = ψ(W ) = {Lv | v ∈ W }.
Demonstração. Temos dim W + dim W 00 = dim V e também dim W 0 + dim W 00 = dim V ∗ .
Como dim V ∗ = dim V , devemos ter dim W = dim W 00 .
Dados v ∈ W e f ∈ W 0 , temos que Lv (f ) = f (v) = 0 e assim Lv ∈ W 00 . Logo, ψ(W ) ⊆
W 00 . Além disso, como ψ é um isomorfismo, dim ψ(W ) = dim W e daı́ dim ψ(W ) = dim W 00 .
Segue então que ψ(W ) = W 00 . ¤
8
POLINÔMIO CARACTERÍSTICO E POLINÔMIO MINIMAL
Seja K um corpo.
T : IR2 −→ IR2
.
(x, y) 7−→ T (x, y) = (x, x + y)
Temos g(T )(x, y) = (0, 0) para todo (x, y) ∈ IR2 , ou seja, g(T ) = 0. Logo, g(x) anula T .
9
Definição 24 Sejam A uma matriz quadrada sobre K e T um operador linear sobre um K-
espaço vetorial V de dimensão finita. Definimos:
a) O polinômio minimal de A, denotado por mA (x), como sendo o polinômio mônico de K[x]
de menor grau possı́vel que anula A;
b) O polinômio minimal de T , denotado por mT (x), como sendo o polinômio mônico de K[x]
de menor grau possı́vel que anula T .
Sendo A ∈ Mn (K), observa-se que o polinômio minimal de A é bem definido, ou seja, ele é
único nas condições da definição. Também não é difı́cil ver que
10
Definição 30 Sejam T : V −→ V um operador linear, com dim V finita. Definimos o
polinômio caracterı́stico de T , denotado por pT (x), como sendo
Exemplo 31 Seja T : IR3 −→ IR3 , definido por T (x, y, z) = (x + z, y − 2z, y). Sendo β a base
canônica de IR3 , temos
1 0 1
[T ]β = 0 1 −2
0 1 0
e daı́ ¯ ¯
¯ x−1 0 −1 ¯
¯ ¯
¯ ¯
pT (x) = det(xI3 − [T ]β ) = ¯ 0 x − 1 2 ¯ = x3 − 2x2 + 3x − 2.
¯ ¯
¯ 0 −1 x ¯
Sendo β a base canônica Mn×1 (K), observa-se que [TA ]β = A, e consequentemente mTA (x) =
mA (x) e pTA (x) = pA (x).
Demonstração. Considere A = (aij )n×n e pA (x) = det(xIn −A) = xn +λn−1 xn−1 +. . .+λ1 x+λ0 .
Temos
x − a11 −a12 · · · −a1n
−a21 x − a22 · · · −a2n
xIn − A = .. .. .. .
...
. . .
−an1 −an2 · · · x − ann
Sendo B(x) a adjunta clássica de xIn − A, temos B(x) = Bn−1 xn−1 + Bn−2 xn−2 + . . . + B1 x + B0
e (xIn − A)B(x) = pA (x)In , onde Bi ∈ Mn (K). Como
11
segue que Bk − ABk+1 = λk+1 In , para 0 ≤ k ≤ n − 2, Bn−1 = In e −AB0 = λ0 In . Logo,
An Bn−1 = An , An−1 Bn−2 − An Bn−1 = λn−1 An−1 , An−2 Bn−3 − An−1 Bn−2 = λn−2 An−2 , . . . ,
AB0 − A2 B1 = λ1 A e −AB0 = λ0 In . Somando-se estas últimas igualdades, chegamos a
12
SOMAS DIRETAS E SUBESPAÇOS INVARIANTES
Exemplo 37 Sendo F(IR) o espaço vetorial real das funções de IR em IR, temos que W1 =
{f ∈ F(IR) | f é par} e W2 = {f ∈ F (IR) | f é ı́mpar} são subespaços independentes de F(IR).
Exemplo 39 Os subespaços
*Ã !+ *Ã !+
0 1 0 0
W1 = {A ∈ M2 (K) | A é diagonal} , W2 = e W3 =
0 0 1 0
13
ii) =⇒ iii) É imediato.
iii) =⇒ iv) Como W1 ∩ W2 = {0V }, temos que S1 ∪ S2 é LI. Observando agora que S1 ∪ S2 ⊂
W1 + W2 e que (W1 + W2 ) ∩ W3 = {0V }, concluı́mos que S1 ∪ S2 ∪ S3 é LI. Seguindo com esta
idéia, concluı́mos que S1 ∪ S2 ∪ . . . ∪ Sn é LI.
Exemplo 43 Sejam
T : IR3 −→ IR3
(x, y, z) 7−→ T (x, y, z) = (x + z, y + z, 3x − z)
Exemplo 45 Sendo
S: IR2 −→ IR2
(x, y) 7−→ S(x, y) = (−y, x)
os únicos subespaços S-invariantes de IR2 são {(0, 0)} e IR2 .
TW = T |W : W −→ W
w 7−→ TW (w) = T (w)
14
onde A ∈ Mr×(n−r) (K) e B ∈ Mn−r (K). Usando propriedades de determinantes, concluı́mos
que pT (x) = pTW (x)pB (x). Quanto aos polinômios minimais de T e TW , observe que para todo
w ∈ W temos TW (w) = T (w) e assim MT (TW )(w) = mT (T )(w) = 0V . Logo, mT (x) anula TW
e assim mTW (x) divide mT (x).
Supondo agora que V = W1 ⊕ W2 ⊕ . . . ⊕ Wm , onde cada Wi é T -invariante, consideremos
Ti = T |Wi para cada i = 1, 2, . . . , m. Sendo β1 , β2 , . . . , βm bases ordenadas dos subespaços
W1 , W2 , . . . , Wm , respectivamente, e β = β1 ∪ β2 ∪ . . . βm , temos
[T1 ]β1 0 ··· 0
0 [T2 ]β2 · · · 0
[T ]β =
.. .. ... ..
. . .
0 0 · · · [Tm ]βm
Observe que W1 e W2 são independentes e T -invariantes. Tomando β1 = {(1, 0, 0, 1), (1, 1, 0, 0)}
e β2 = {(0, 1, 0, 0), (0, 0, 1, 0)}, que são bases de W1 e W2 , respectivamente, e β = β1 ∪ β2 , temos
1 1 0 0
1 −1 0 0
[T ]β = .
0 0 2 −1
0 0 4 −2
15
AUTOVALORES E AUTOVETORES
Exemplo 50 O operador linear T : IR2 −→ IR2 , definido por T (x, y) = (x + y, 3x − y), possui
extamente dois autovalores: λ1 = 2 e λ2 = −2. Temos também os seguintes auto-espaços:
V2 = {v ∈ IR2 | T (v) = 2v} = h(1, 1)i e V−2 = {v ∈ IR2 | T (v) = −2v} = h(1, −3)i.
concluı́mos que λ é autovalor de T se, e somente se, pT (λ) = 0. Temos então o seguinte
resultado.
16
Proposição 52 Sejam V um K-espaço vetorial de dimensão finita n e T : V −→ V um
operador linear. Se λ ∈ k, são equivalentes:
i) λ é autovalor de T .
ii) λ é raiz de pT (x).
iii) O operador linear λIV − T é não injetivo.
Vejamos agora os conceitos de autovalores e autovetores para matrizes. Sendo A uma matriz
quadrada sobre um corpo K, definimos os autovalores de A como sendo as raı́zes de pA (x) (o
17
polinômio caracterı́stico de A). É importante observar que nemÃtodos os !autovalores de A
0 1
precisam pertencer a K. Por exemplo, os autovalores da matriz são os números
−1 0
complexos i e −i, que não são reais.
Considerando o operador linear TA (sobre o K-espaço vetorial Mn×1 (K)) definido no Exem-
plo 32, observamos que um elemento λ ∈ K é um autvalor de A se, e somente se, é um autovalor
de TA . Logo, λ é autovalor de A se, e somente se, existe alguma matriz X ∈ Mn×1 (K) não
nula tal que AX = λX. Uma tal matriz X é dita ser um autovetor da matriz A associado a λ.
Assim, os autovetores de A são exatamente os autovetores do operador TA .
Usando o operador linear TA , não é difı́cil ver que os resultados acima valem também para
autovalores e autovetores de matrizes.
18
DIAGONALIZAÇÃO E TRIANGULAÇÃO
Observe que se β é base de V , então todo elemento de β é autovetor de T se, e somente se,
[T ]β é uma matriz diagonal.
Exemplo 57 Se V em dimensão finita, então todo operador da forma λIV , com λ escalar,
é diagonalizável. Como toda matriz diagonal é também triangular, temos que todo operador
diagonalizável é também triangulável.
Exemplo 59 O operador linear T : IR2 −→ IR2 , definido por T (x, y) = (x + y, y), é trian-
gulável, mas não é diagonalizável.
S: IR2 −→ IR2
(x, y) 7−→ S(x, y) = (−y, x)
não é triangulável.
Demonstração. sejam u ∈ V − W e f (x) ∈ K[x] um polinômio não nulo de menor grau possı́vel
tal que f (T )(u) ∈ W . Como u ∈ / W , temos que f (x) não pode ser constante. Tomando agora
q(x), r(x) ∈ K[x], com r(x) = 0 ou ∂r(x) < ∂f (x), tais que mT (x) = q(x)f (x) + r(x), temos
r(T ) = −q(T )f (T ) e assim r(T )(u) ∈ W . Segue da minimalidade do grau de f (x) que r(x)
deve ser o polinômio nulo. Logo, f (x) divide mT (x) e portanto f (x) = (x − λi )h(x) para algum
h(x) ∈ K[x] e algum λi . Tomando então v = h(T )(u), temos v ∈ / W (pois ∂h(x) < ∂f (x)) e
T (v) − λi v = (T − λi IV )h(T )(u) = f (T )u ∈ W . ¤
19
Outra demonstração. Tomemos u0 ∈ V − W e
f (T )(v) = f (T )(v1 ) + f (T )(v2 ) + . . . + f (T )(vm ) = f (λ1 )(v1 ) + f (λ2 )(v2 ) . . . + f (λm )(vm ) = 0V .
Logo, f (T ) = 0 e daı́ mT (x) divide f (x). Por outro lado, f (x) divide mT (x), uma vez que λ1 , λ2 ,
. . . , λm são as raı́zes de mT (x) em K. Assim, como f (x) e mT (x) são mônicos, devem ser iguais.
20
Tomando agora q(x) ∈ K[x] tal que mT (x) = (x − λ)q(x), temos T (q(T )(v)) = λq(T )(v)
e daı́ q(T )(v) ∈ W . Pelo algorı́tmo da divisão, existem h(x) ∈ K[x] e a ∈ K tais que
q(x) = h(x)(x − λ) + a. Daı́, q(T )(v) = h(T )(w) + av e assim av ∈ W . Mas, como v ∈ / W,
devemos ter a = 0 e portanto mT (x) = (x − λ)2 h(x), o que é uma contradição. Concluı́mos
então que T deve ser diagonalizável. ¤
ii) =⇒ i) Tomemos v1 ∈ V não nulo tal que T (v1 ) = λi1 v1 e W1 = hv1 i. Temos que W1 é
T -invariante. Pelo Lema 61, se W1 6= V , então existe v2 ∈ V − W1 tal que T (v2 ) − λi2 v2 ∈ W1
para algum autovalor λi2 de T . Assim, T (v2 ) = a12 v1 + λi2 v2 , com a12 ∈ K, e daı́ W2 = hv1 , v2 i
é T -invariante. Novamente pelo Lema 61, se W2 6= V , então existe v3 ∈ V − W2 tal que
T (v3 ) − λi3 v3 ∈ W2 para algum autovalor λi3 de T . Assim, T (v3 ) = a13 v1 + a23 v2 + λi3 v3 , com
a13 , a23 ∈ K, e daı́ W3 = hv1 , v2 , v3 i é T -invariante. Seguindo com esta idéia, chegamos a uma
base β = {v1 , v2 , v3 , . . . , vn } de V tal que
a11 a12 a13 · · · a1n
0 a22 a23 · · · a2n
[T ]β =
0 0 a33 · · · a3n
.. .. .. . . . ..
. . . .
0 0 0 · · · ann
T : IR4 −→ IR4
.
(x, y, z, t) 7−→ T (x, y, z, t) = (−t, x, y + 2t, z)
21
e
(T + I)(x, y, z, t) = (x − t, x + y, y + z + 2t, z + t).
Tomemos v1 = (1, 1, −1, −1), o qual satisfaz T (v1 ) = v1 , e W1 = hv1 i. Tomemos também
/ W1 , (T + I)2 (v1 ) =
u1 = (1, 0, 0, 0), o qual não pertence a W1 . Temos (T + I)(v1 ) = (1, 1, 0, 0) ∈
/ W1 e (T − I)(T + I)2 (v1 ) = (−1, −1, 1, 1) ∈ W1 . Logo, tomamos v2 = (1, 2, 1, 0).
(1, 2, 1, 0) ∈
Sendo W2 = hv1 , v2 i, tomemos u2 = (0, 1, 0, 0) ∈ / W2 . Daı́, temos (T + I)(u2 ) = (0, 1, 1, 0) ∈
/ W2
2
e (T + I) (u2 ) = (0, 1, 2, 1) ∈ W2 . Logo, tomamos v3 = (0, 1, 1, 0). Para encerrar o processo,
basta tomarmos um vetor que não pertence a W3 = hv1 , v2 , v3 i. Um exemplo de tal vetor é
v4 = (0, 1, 0, 0).
Tomando a base β = {v1 , v2 , v3 , v4 } de IR4 e observando que T (v1 ) = v1 , T (v2 ) = −v1 + v2 ,
T (v3 ) = −v1 + v2 − v3 e T (v4 ) = 0v1 + 0v2 + v3 − v4 , temos
1 −1 −1 0
0 1 1 0
[T ]β = .
0 0 −1 1
0 0 0 −1
22
DECOMPOSIÇÃO PRIMÁRIA
onde p1 (x), p2 (x), . . . , pr (x) são polinômios mônicos irredutı́veis e distintos de K[x], então:
a) V = W1 ⊕ W2 ⊕ . . . ⊕ Wr , onde Wi = ker pi (T )ni para i = 1, 2, . . . , r.
b) Cada Wi é T -invariante.
c) Wi * ker pi (T )ni −1 , e consequentemente o polinômio minimal de Ti = T |Wi é exatamente
pi (x)ni , para i = 1, 2, . . . , r.
a) Como pi (x)ni hi (x) = mT (x)gi (x), temos pi (T )ni Ei = 0 e daı́ Im Ei ⊆ Wi . Por outro
lado, se i 6= j, então pj (x)nj divide fi (x) e daı́ pj (x)nj divide hi (x). Logo, Wj ⊆ ker Ei . Assim,
para j = 1, 2, . . . , r e v ∈ Wj , temos v = E1 (v) + E2 (v) + . . . + Er (v) = Ej (v) ∈ Im Ej . Temos
então Wi = ImEi para i = 1, 2, . . . , r.
b) Como pi (T )ni e T comutam, temos que Wi = ker pi (T )ni é T -invariante.
c) Suponha que para algum i ∈ {1, 2, . . . , r} tenhamos Wi ⊆ ker pi (T )ni −1 . Consideremos então
o polinômio
mT (x)
h(x) = fi (x)pi (x)ni −1 = p1 (x)n1 . . . pi−1 (x)ni−1 pi (x)ni −1 pi+1 (x)ni+1 . . . pr (x)nr = .
pi (x)
Segue do lema anterior que V = W1 ⊕ W2 ⊕ . . . ⊕ Wr ⊆ ker h(T ), ou seja, h(T ) = 0, o que
é um absurdo, pois ∂h(x) < ∂mT (x). Assim, temos a primeira afirmação. Para demonstrar
23
a segunda, observemos primeiramente que pi (T )ni (Wi ) = {0V }, donde pi (Ti )ni = 0 e assim
mTi (x) divide pi (x)ni . Logo, mTi (x) = pi (x)m , com 1 ≤ m ≤ ni . Segue da primeira afirmação
que não podemos ter m < ni e assim temos a segunda afirmação. ¤
e
g(T )(x, y, z, t, w) = (x + 2t + w, y + w, z − t, 0, 0).
Daı́, tomando W1 = ker f (T ) = h(1, 0, 0, 0, 0), (0, 1, 0, 0, 0), (0, 0, 1, 0, 0)i e W2 = ker g(T ) =
h(−2, 0, 1, 1, 0), (−1, −1, 0, 0, 1)i, temos IR5 = W1 ⊕ W2 , sendo W1 e W2 T -invariantes.
24
A FORMA RACIONAL
Não é difı́cil ver que Z(v, T ) é T -invariante e que Z(v, T ) é a interseção de todos os sube-
spaços T -invariantes de v que contêm v. Assim, Z(v, T ) é o menor subespaço T -invariante de
V que contém v. Observe que Z(v, T ) = {f (T )(v) | f (x) ∈ K[x]}.
Exemplo 70 Temos que Z(0V , T ) = {0V }. Se v ∈ V −{0V }, então Z(v, T ) = hvi se, e somente
se, v é autovetor de T . Particularmente, Z(v, IV ) = hvi.
Exemplo 71 Considere o operador linear S : IR2 −→ IR2 , definido por S(x, y) = (−y, x).
Temos que todo vetor não nulo de IR2 é um vetor S-cı́clico. Observe que S não possui autove-
tores.
Exemplo 72 Considere o operador linear F : IR3 −→ IR3 , definido por F (x, y, z) = (x, x−z, y).
Temos que v1 = (0, 1, 0) não é um vetor F -cı́clico e que v2 = (1, 0, 0) é um vetor F -cı́clico.
Se v ∈ V , observa-se que o T -anulador de v é bem definido, ou seja, ele é único nas condições
da definição. Não é difı́cil ver que
Observa-se também que não existe polinômio não nulo h(x) ∈ K[x] de grau menor que o grau
de pv (x) tal que h(T )(v) = 0V .
Exemplo 74 Claramente, p0V (x) = 1. Sendo v ∈ V um vetor não nulo, tem-se ∂pv (x) ≥ 1.
Sendo v um autovetor de T associado a um autovalor λ ∈ k, tem-se pv (x) = x − λ.
25
Exemplo 75 Considere o operador linear F do Exemplo 72 e os vetores v1 = (0, 1, 0) e
v2 (1, 0, 0) de IR3 . Temos F (v1 ) = (0, 0, 1) e F 2 (v1 ) = (0, −1, 0). Tomando então f (x) = x2 + 1,
temos f (F )(v1 ) = (0, 0, 0). Ademais, como {v1 , F (v1 )} é LI, segue que pv1 ,F (x) = f (x) = x2 +1.
Quanto a v2 , temos F (v2 ) = (1, 1, 0), F 2 (v2 ) = (1, 1, 1) e F 3 (v2 ) = (1, 0, 1), e assim F 3 (v2 ) =
F 2 (v2 ) − F (v2 ) + v2 . Daı́, tomando g(x) = x3 − x2 + x − 1, temos g(F )(v2 ) = (0, 0, 0). Além
disso, como {v2 , F (v2 ), F 2 (v2 )} é LI, devemos ter pv2 ,F (x) = g(x).
Demonstração. a) Sejam q(x), r(x) ∈ K[x], com r(x) = 0 ou ∂r(x) < ∂pv (x), tais que
h(x) = q(x)pv (x) + r(x). Então, h(T )(v) = q(T )(pv (T )(v)) = r(T )(v) e assim r(T )(v) = 0V .
Logo, devemos ter r(x) = 0.
b) Seja u = f (T )(v). Como g(T )(u) = g(T )f (T )(v) = pv (T )(v) = 0V , temos que pu (x) divide
g(x). Por outro lado, 0V = pu (T )(u) = pu (T )f (T )(v) e assim pv (x) divide pu (x)f (x). Logo,
g(x) divide pu (x). Concluı́mos então que pu (x) = g(x).
c) Como ST = T S, temos Sf (T ) = f (T )S para qualquer f (x) ∈ K[x]. Logo, S(Z(v, T )) =
{S(f (T )(v)) | f (x) ∈ K[x]} = {f (T )(S(v)) | f (x) ∈ K[x]} = Z(S(v), T ).
d) Se w ∈ Z(v, T ), então existe g(x) ∈ K[x] tal que w = g(T )(v). Tomemos agora q(x),
r(x) ∈ K[x], com r(x) = 0 ∂r(x) < ∂pv (x), tais que g(x) = q(x)pv (x) + r(x). Logo, r(x) =
a0 + a1 x + . . . + an−1 xn−1 e
w = g(T )(v) = q(T )(pv (T )(v)) + r(T )(v) = a0 v + a1 T (v) + . . . + an−1 T n−1 (v)
Logo, pv (T 0 ) = 0 e portanto mT 0 (x) divide pv (x). Por outro lado, se tivéssemos mT 0 (x) de grau
menor que n, então terı́amos uma contradição com o fato de que mT 0 (T )(v) = mT 0 (T 0 )(v) = 0V .
Logo, ∂mT 0 (x) = ∂pv (x) e portanto mT 0 (x) = pv (x). ¤
26
Lema 77 Sejam v1 , v2 ∈ V e p1 (x) e p2 (x) os T -anuladores de v1 e v2 , respectivamente. Se
v = v1 + v2 e p1 (x) e p2 (x) são relativamente primos, então pv (x) = p1 (x)p2 (x) e Z(v, T ) =
Z(v1 , T ) ⊕ Z(v2 , T ).
Demonstração. como p1 (x) e p2 (x) são relativamente primos, devem existir f1 (x), f2 (x) ∈
K[x] tais que f1 (x)p1 (x) + f2 (x)p2 (x) = 1 e assim f1 (T )p1 (T ) + f2 (T )p2 (T ) = IV . Se u ∈
Z(v1 , T ) ∩ Z(v2 , T ), então p1 (T )(u) = p2 (T )(u) = 0V e daı́ u = IV (u) = f1 (T )(p1 (T )(u)) +
f2 (T )(p2 (T )(u)) = 0V .
Tomando agora q(x) = p1 (x)p2 (x), temos
q(T )(v) = q(T )(v1 ) + q(T )(v2 ) = p2 (T )(p1 (T )(v1 )) + p1 (T )(p2 (T )(v2 )) = 0V
e assim pv (x) divide q(x). Por outro lado, 0V = pv (T )(v) = pv (T )(v1 ) + pv (T )(v2 ) e daı́
pv (T )(v1 ) = pv (T )(v2 ) = 0V , pois Z(v1 , T ) ∩ Z(v2 , T ) = {0V }. Segue então que p1 (x) e p2 (x)
dividem pv (x). Como p1 (x) e p2 (x) são relativamente primos, temos que q(x) deve dividir pv (x).
Logo, pv (x) = q(x) = p1 (x)p2 (x). Segue agora que
dim Z(v, T ) = ∂pv (x) = ∂p1 (x) + ∂p2 (x) = dim(Z(v1 , T ) ⊕ Z(v2 , T ))
donde segue a segunda afirmação, uma vez que dim Z(v, T ) ⊆ Z(v1 , T ) ⊕ Z(v2 , T ). ¤
Demonstração. Seja mT (x) = p1 (x)n1 p2 (x)n2 . . . pr (x)nr , onde p1 (x), p2 (x), . . . , pr (x) são
polinômios mônicos irredutı́veis e distintos de K[x]. Para cada i = 1, 2, . . . , r, considere
Wi = ker pi (T )ni . Segue do Teorema da Decomposição Primária que existe vi ∈ Wi tal que
pi (T )ni −1 (vi ) 6= 0V . Como pi (T )ni (vi ) = 0V , devemos ter pvi (x) = pi (x)ni . Tomando agora
v = v1 + v2 + . . . + vr , temos que pv (x) = pv1 (x)pv2 (x) . . . pvr (x) = mT (x) pelo lema anterior.¤
27
Exemplo 80 As matrizes associadas aos polinômios f (x) = x + 1, g(x) = x2 + 2x − 1 e
h(x) = x4 + 3x3 − 2x2 + 5 são
à ! 0 0 0 −5
³ ´ 0 1 1 0 0 0
−1 , e
1 −2 0 1 0 2
0 0 1 −3
respectivamente.
28
Considere agora as matrizes
1 0 0 0
.. ..
0 1 . .
X1 = 0 , X2 =
0
, ... , Xn−1 =
0
, Xn =
0 .
.. ..
. . 1 0
0 0 0 1
e daı́ g(x) = 0, uma vez que X1 , X2 , . . . , Xn são vetores LI de Mn×1 (K). Segue então que
∂mA (x) ≥ n e assim, pelo Teorema de Cayley-Hamilton, mA (x) = pA (x) = f (x). ¤
e assim f (TA )(X1 ) = 0n×1 . Logo, sendo p(x) o TA -anulador de X1 , concluı́mos que p(x)
divide f (x). Por outro lado, como o conjunto {X1 , TA (X1 ), . . . , TAn−1 (X1 )} é LI, concluı́mos
que ∂p(x) ≥ n e assim devemos ter p(x) = f (x). Logo, f (x) divide mA (x), uma vez que
mA (x) = mTA (x). Assim, f (x) divide mA (x) que por sua vez divide pA (x). Como os três são
mônicos e ∂f (x) = ∂pA (x) = n, devemos ter pA (x) = mA (x) = f (x). ¤
dem i) =⇒ ii) Seja n = dim V e seja v ∈ V um vetor T -cı́clico. Então, Z(v, T ) = V e assim
β = {v, T (v), . . . , T n−1 (v)} é uma base de V . Como ∂pv (x) = n, devemos ter pv (x) = pT (x).
29
Sendo pv (x) = xn + an−1 xn−1 + . . . + ax + a0 , temos
T (v) = 0v + 1T (v) + 0T 2 (v) + . . . + 0T n−1 (v)
T (T (v)) = 0v + 0T (v) + 1T 2 (v) + . . . + 0T n−1 (v)
.. ..
. .
T (T n−2 (v)) = 0v + 0T (v) + 0T 2 (v) + . . . + 1T n−1 (v)
T (T n−1 (v)) = −a0 v − a1 T (v) − a2 T 2 (v) − . . . − an−1 T n−1 (v)
e portanto
0 0 ··· 0 −a0
1 0 ··· 0 −a1
[T ]β =
0 1 ··· 0 −a2 .
.. .. ... .. ..
. . . .
0 0 · · · 1 −an−1
ii) =⇒ iii) Pela proposição anterior temos m[T ]β (x) = p[T ]β (x). Como m[T ]β (x) = mT (x) e e
p[T ]β (x) = pT (x), temos (iii).
iii) =⇒ i) Seja v ∈ V um vetor tal que pv (x) = mT (x). Como mT (x) = pT (x), temos
dim Z(v, T ) = ∂pv (x) = dim V , donde Z(v, T ) = V . Logo, v é um vetor T -cı́clico. ¤
30
e esta representação matricial de T é chamada de forma canônica racional. Assim, como
consequência do Teorema da Decomposição Cı́clica, temos o seguinte resultado.
como matriz em relação à base canônica. Temos pT (x) = (x−1)(x−2)2 e mT (x) = (x−1)(x−2).
Tomando w1 e w2 não nulos tais que T (w1 ) = w1 e T (w2 ) = 2w2 , então v1 = w1 + w2 é um vetor
cujo T -anulador é exatamente f1 (x) = pT (x) = (x−1)(x−2). Tomando agora v2 ∈ V −Z(v1 , T )
tal que T (v2 ) = 2v2 , temos que β = {v1 , T (v1 ), v2 } é uma base de V tal que
0 −2 0
[T ]β = 1 3 0 (forma racional).
0 0 2
31
Lema 91 Sejam U e W subespaços de V , sendo T -invariante, tais que V = U ⊕ W . Para
cada v ∈ V , considere T1 (v) ∈ U e T2 (v) ∈ W tais que T (v) = T1 (v) + T2 (v). Definindo
T2 : W −→ W
w 7−→ T2 (w)
valem:
a) Para w ∈ W e f (x) ∈ K[x], tem-se f (T )(w) − f (T2 )(w) ∈ U . Consequentemente:
f (T )(w) ∈ U ⇐⇒ f (T2 )(w) = 0V .
b) mT2 (x) divide mT (x).
c) Supondo U = Z(v1 , T ), onde v1 ∈ V tem T -anulador igual a mT (x), então dado w ∈ W ,
existe u ∈ U tal que o T -anulador de w − u coincide com o T2 -anulador de w.
Demonstração. a) Claramente, T (w) − T2 (w) ∈ U . Supondo agora que T k (w) − T2k (w) ∈ U
para algum k ∈ N, temos T (T k (w) − T2k (w)) ∈ U , uma vez que U é T -invariante. Assim,
T k+1 (w) − T1 (T2k (w)) − T2k+1 (w) ∈ U e daı́ T k+1 (w) − T2k+1 (w) ∈ U . Logo, para todo n ∈ N
temos T n (w) − T2n (w) ∈ U , donde segue o resultado.
b) Como mT (T ) = 0, temos mT (T2 )(w) = 0V para todo w ∈ W . Logo, mT (x) anula T2 e daı́
segue o resultado.
c) Seja p(x) ∈ K[x] o T2 -anulador de w. Então, p(T2 )(w) = 0V e assim p(T )(w) ∈ U . Logo,
p(T )(w) = g(T )(v1 ) para algum g(x) ∈ K[x]. Segue do ı́tem (b) que existe q(x) ∈ K[x] tal que
mT (x) = q(x)p(x) e assim
Logo, mT (x) divide q(x)g(x). Temos então g(x) = h(x)p(x) para algum h(x) ∈ K[x]. Tomando
agora u = h(T )(v1 ), temos u ∈ U e
p(T )(w − u) = p(T )(w) − p(T )(u) = g(T )(v1 ) − g(T )(v1 ) = 0V .
Por outro lado, se f (x) ∈ K[x] satisfaz f (T )(w − u) = 0V , temos f (T )(w) = f (T )(u) ∈ U e daı́
f (T2 )(w) = 0V . Logo, p(x) divide f (x). Segue então que p(x) é o T -anulador de w − u. ¤
32
W = Z(w2 , T2 ) ⊕ . . . ⊕ Z(wr , T2 ) e fj+1 (x) divide fj (x) para 2 ≤ j ≤ r − 1. Claramente,
mT2 (x) = f2 (x). Tomemos agora u2 , . . . , ur ∈ U tais que vj = wj − uj tem T -anulador igual a
fj (x), para 2 ≤ j ≤ r.
Temos então
e assim, como dim Z(f2 (T )(v1 ), T ) = dim Z(f2 (T )(x1 ), T ), devemos ter f2 (T )(x2 ) = . . . =
f2 (T )(xs ) = 0V . Daı́, g2 (x) deve dividir f2 (x). Analogamente se mostra que f2 (x) deve dividir
g2 (x), donde g2 (x) = f2 (x). Seguindo com esta idéia, concluı́mos que r = s e gj (x) = fj (x)
para 1 ≤ j ≤ r. ¤
33
A FORMA DE JORDAN
34
onde λ1 , λ2 , . . . , λm são elementos distntos de K e dj ≥ 1. Temos que o polinômio minimal de
T é
mT (x) = (x − λ1 )r1 (x − λ2 )r2 . . . (x − λm )rm
onde 1 ≤ rj ≤ dj . Temos pelo Teorema da Decomposição Primária que V = W1 ⊕W2 ⊕. . .⊕Wm ,
onde Wj = ker(T − λj )rj . Ademais, cada subespaço Wj é T -invariante e, sendo Tj = T |Wj , o
polinômio minimal de Tj é mTj (x) = (x − λj )rj . Para cada j ∈ {1, 2, . . . , m}, tomemos uma
base βj de Wj tal que [Tj ]βj tem a forma
Jn1 (λj ) 0 ··· 0
0 Jn2 (λj ) · · · 0
.. .. ..
..
. . . .
0 0 · · · Jnl (λj )
Exemplo 93 As matrizes
2 0 0 0 0 0 0
1 2 0 0 0 0 0 1 0 0 0 0
0 0 3 0 0 0 0 1 1 0 0 0
A= 0 0 0 3 0 0 0 e B=
0 1 1 0 0
0 0 0 0 4 0 0 0 0 0 0 0
0 0 0 0 1 4 0 0 0 0 1 0
0 0 0 0 0 0 4
são matrizes na forma de Jordan. Observe que pA (x) = (x − 2)2 (x − 3)2 (x − 4)3 e mA (x) =
(x − 2)2 (x − 3)(x − 4)2 . Quanto a B, temos pB (x) = mB (x) = x2 (x − 1)3 .
35
Observação 95 Observe-se claramente que um bloco de Jordan é a soma de uma matriz
nilpotente com uma matriz escalar (múltiplo escalar da identidade). Como estas matrizes
comutam, observa-se facilmente que uma matriz na forma de Jordan é a soma de duas matrizes
que comutam, sendo uma matriz nilpotente e a outra diagonal. Assim, através da forma de
Jordan é possı́vel obter a decomposição descrita no Teorema 68.
Teorema 96 Seja A uma matriz quadrada sobre um corpo K cujo polinômio minimal é um
produto de fatores mônicos de grau 1 em K[x]. Então, A é semelhante sobre K a uma matriz
na forma de Jordan, única a menos da posição dos blocos de Jordan.
Exemplo 97 Se A é uma matriz 2 × 2 sobre um corpo K tal que seu polinômio caracterı́stico
possui raiz em K, então a forma de Jordan de A tem uma das formas:
à ! à ! à !
a 0 a 0 a 0
, ou .
0 a 0 b 1 a
Vamos determinar a forma de Jordan de A, uma matriz inversı́vel P ∈ M3 (IR) tal que P −1 AP
está na forma de Jordan e duas matrizes com entradas reais, uma nilpotente e outra diago-
nalizável, cuja soma seja igual a A.
36
Sendo γ a base canônica de IR3 e T : IR3 −→ IR3 o operador linear tal que [T ]β = A, temos
que T (x, y, z) = (x + y + z, y + z, −y + 3z). Observe que pT (x) = pA (x) = mT (x) = mA (x) =
(x − 1)(x − 2)2 . Ademais,
e daı́
Logo,
1 0 0 0 0 0 1 0 0
P −1 AP = 0 2 0 = 0 0 0 + 0 2 0
0 1 2 0 1 0 0 0 2
e portanto
0 0 0 1 0 0 0 −2 2 1 3 −1
A = P 0 0 0 P −1 + P 0 2 0 P −1 = 0 −1 1 + 0 2 0 .
0 1 0 0 0 2 0 −1 1 0 0 2
37
ESPAÇOS COM PRODUTO INTERNO
<, > : V × V −→ K
(u, v) 7−→ < u, v >
que satisfaz:
a) < u + v, w > = < u, w > + < v, w > para quaisquer u, v, w ∈ V ;
b) < λu, v > = λ < u, v > para quaisquer u, v ∈ V e λ ∈ K;
c) < u, v > = < v, u > para quaisquer u, v ∈ V ;
d) < u, u > ∈ IR e < u, u > > 0 para todo u 6= 0V .
Vamos definir um espaço vetorial com produto interno como sendo um par (V, <, >), onde
V é um espaço vetorial e <, > é um produto interno em V .
Exemplo 102 Considere o espaço vetorial real C[0, 1] das funções reais contı́nuas no intervalo
[0, 1]. A aplicação <, > : C[0, 1] × C[0, 1] −→ IR, definida por
Z 1
< f, g > = f (x)g(x)dx ,
0
<, > : P2 × P2 −→ C
.
(p(x), q(x)) 7−→ < p(x), q(x) > = p(0)q(0) + p(1)q(1) + p(2)q(2)
38
Exemplo 104 Sejam V e W espaços vetoriais sobre o mesmo corpo K e seja <, > um produto
interno em W . Supondo que existe uma transformação linear injetora T : V −→ W , definamos
<, >T : V × V −→ K
.
(u, v) 7−→ < u, v >T = < T (u), T (v) >
Exemplo 105 A aplicação <, > : IR3 × IR3 −→ IR, definida por
¯ ¯
¯ x 1 x1 ¯
¯ ¯
¯ ¯
< (x, y, z), (x1 , y1 , z1 ) > = ¯ y 1 y1 ¯
¯ ¯
¯ z 1 z1 ¯
Proposição 107 Se <, > : V × V −→ K é um produto interno num espaço vetorial V , então
para quaisquer u, v, w ∈ V e λ, λ1 , λ2 ∈ K valem:
a) < 0V , v > = < u, 0V > = 0.
b) < u, v + w > = < u, v > + < u, w >.
c) < u, λv > = λ < u, v >.
d) < λ1 u, λ2 v > = λ1 λ2 < u, v >.
e) | < u, v > |2 ≤ < u, u >< v, v > (Desigualdade de Cauchy-Schwarz).
0 ≤ < αu − βv, αu − βv > = |α|2 < u, u > −αβ < u, v > −βα < v, u > +|β|2 < v, v > .
Como < v, u > = β e α ∈ IR, concluı́mos desta desigualdade que 2α|β|2 ≤ α2 < u, u > +α|β|2 e
daı́ α|β|2 ≤ α2 < u, u >. Se α = 0, temos v = 0V e o resultado segue imediatamente. Se α 6= 0,
temos α > 0 e daı́ |β|2 ≤ α < u, u >, ou seja, | < u, v > |2 ≤ < u, u >< v, v >. ¤
39
Definição 108 Seja V um espaço vetorial. Uma norma em V é uma aplicação
kk: V −→ IR+
v 7−→ kvk
que satisfaz:
a) Se v 6= 0V , então kvk 6= 0.
b) kλvk = |λ|kvk para quaisquer v ∈ V e λ ∈ K.
c) ku + vk ≤ kuk + kvk para quaisquer u, v ∈ V (desigualdade triangular).
Definimos um espaço vetorial normado como sendo um par (V ,k k), onde V é um espaço
vetorial e k k é uma norma em V . Segue imediatamente da definição de norma que kvk = k−vk,
para todo v ∈ V , e k0V k = 0.
f : IR −→ IR+
x 7−→ f (x) = |v|
Exemplo 111 Fixados a, b ∈ IR, com a < b, consideremos o espaço vetorial real das funções
contı́nuas no intervalo [a, b]. A aplicação
| |0 : C[a, b] −→ IR+
f 7−→ |f |0 = max |f (x)|
a≤x≤b
é uma norma.
Observação 113 De agora em diante, quando falarmos na norma de um espaço vetorial com
produto interno, estaremos nos referindo à norma proveniente do produto interno considerado.
40
Teorema 114 (Desigualdade de Cauchy-Schwarz) Seja V um espaço vetorial com pro-
duto interno. Então:
a) Para quaisquer u, v ∈ V vale | < u, v > | ≤ kukkvk.
b) A igualdade vale se, e somente se, o conjunto {u, v} é LD.
√ √
Demonstração. a) Como kuk = < u, u > e kvk = < v, v >, o resultado segue imediatamente
de 107.e.
b) Se {u, v} é LD, é imediato que vale a igualdade. Suponhamos agora que | < u, v > | = kukkvk
< u, v >
e que v 6= 0V . Tomando λ = , temos
kvk2
< u − λv, u − λv > = kuk2 − λ < v, u > −λ < u, v > +|λ|2 kvk2 .
kuk
Como < v, u > = < u, v > e |λ| = , temos
kvk
| < u, v > |2
< u − λv, u − λv > = kuk2 − 2 + kuk2 = 0
kvk2
e assim u − λv = 0V , o que conclui a demonstração. ¤
Teorema 115 Sejam V um espaço vetorial e k k : V −→ IR+ uma norma em V . Então são
equivalentes:
i) k k é proveniente de um produto interno.
ii) ku + vk2 + ku − vk2 = 2kuk2 + 2kvk2 para quaisquer u, v ∈ V (Lei do Paralelogramo).
Demonstração. i) =⇒ ii) Supondo (i), temos que existe um produto <, >: V × V −→ K tal
√
que kuk = < u, u > para todo u ∈ V . Assim temos
e
ku − vk2 = < u + v, u + v > = kuk2 − < u, v > − < v, u > +kvk2 .
Somando-se estas duas igualdades, temos (ii).
41
Observação 116 Se V é um espaço vetorial com produto interno, então
1 1
< u, v > = ku + vk2 − ku − vk2
4 4
para quaisquer u, v ∈ V , se K = IR. No caso K = C, temos
1 1 i i
< u, v > = ku + vk2 − ku − vk2 + ku + ivk2 − ku − ivk2
4 4 4 4
para quaisquer u, v ∈ V . Estas igualdades são chamadas de identidades de polarização.
Exemplo 118 Seja V = IR2 , munido do produto interno canônico: < (x, y), (x1 , y1 ) > =
xx1 + yy1 . Se u = (2, 1) e v = (−1, 2), temos u ⊥ v. Tomando agora o produto interno
<, >1 : V × V −→ IR, definido por < (x, y), (x1 , y1 ) >1 = (x − y)(x1 − y1 ) + 2xx1 , temos que
u e v não são ortogonais em relação a este produto interno. Considerando agora os vetores
w1 = (0, 3) e w2 = (1, 1), observamos que < w1 , w2 >1 = 0 e assim w1 ⊥ w2 em relação ao
produto interno <, >1 , ou seja, w1 ⊥ w2 no espaço (IR2 , <, >1 ).
Exemplo 119 Considerando o espaço vetorial real IR3 , munido do produto interno canônico,
temos que
β1 = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} e β2 = {(1, 1, 1), (1, −2, 1), (1, 0, −1)}
Exemplo 120 Considere o espaço vetorial real C[−1, 1] das funções reais contı́nuas no intervalo
[−1, 1], munido do produto interno
Temos que {Sen, Cos} é um conjunto ortogonal em relação a este produto interno.
Exemplo 121 Considere o espaço vetorial complexo S0 (C) de todas as sequências complexas
P
quase nulas, munido do produto interno definido por < (xn ), (yn ) > = ∞n=1 xn yn , e o conjunto
S = {en | n ∈ N}, onde
42
Teorema 122 Se V é um espaço vetorial com produto interno e S é um conjunto ortogonal
de vetores não nulos de V , então S é LI.
< λ1 v1 + λ2 v2 + . . . + λn vn , vi > = λ1 < v1 , vi > +λ2 < v2 , vi > + . . . + λn < vn , vi > = λi < vi , vi >
e assim λi < vi , vi > = < 0V , vi > = 0. Como vi 6= 0V , devemos ter λi = 0. Logo, S é LI. ¤
Definição 123 Sejam V um espaço vetorial com produto interno e S um subconjunto não
vazio de V . Definimos o conjunto ortogonal a S, denotado por S ⊥ , como sendo
Exemplo 124 Se V é um espaço vetorial com produto interno, temos claramente {0V }⊥ = V
e V ⊥ = {0V }. Se S é um subconjunto gerador de V , então S ⊥ = {0V }.
Exemplo 125 Considere o espaço vetorial real S0 (IR) das sequências quase nulas de números
P
reais, munido do produto interno < (xn ), (yn ) > = ∞n=1 xn yn . Se S = {e1 , e2 }, então S
⊥
=
{(xn ) ∈ S0 (IR) | x1 = x2 = 0}.
Exemplo
Z 1 126 Considere o espaço vetorial real C[−1, 1], munido do produto interno < f, g >
= f (x)g(x)dx. Se I = {f ∈ C[−1, 1] | f é ı́mpar} e P = {f ∈ C[−1, 1] | g é par}, então
−1
temos P ⊆ I ⊥ . Por outro lado, se g ∈ I ⊥ , tomemos g = g1 + g2 , com g1 ∈ I e g2 ∈ P. Assim,
< g, g1 > = < g2 , g1 > = 0 e portanto < g1 , g1 > = 0. Logo, g1 = 0 e daı́ g ∈ P.
Demonstração. a) É imediato.
b) Se w ∈ W ∩ W ⊥ , então < w, w > = 0 e assim w = 0V .
c) Como W e W1 estão contidos em W + W1 , temos (W + W1 )⊥ ⊆ W ⊥ e (W + W1 )⊥ ⊆ W1⊥ .
43
Logo, (W + W1 )⊥ ⊆ W ⊥ ∩ W1⊥ . Suonah agora v ∈ W ⊥ ∩ W1⊥ e u ∈ W + W1 , arbitrários. Temos
u = w + w1 , com w ∈ W e w1 ∈ W1 , e assim
Logo, v ∈ (W + W1 )⊥ .
d) Como W ∩ W1 está contido em W e em W1 , temos W ⊥ ⊆ (W ∩ W1 )⊥ e W1⊥ ⊆ (W ∩ W1 )⊥ ,
donde segue o rsultado.
e) Basta mostrarmos que (W ⊥ )⊥ ⊆ W . De fato, se v ∈ (W ⊥ )⊥ , então existem v1 ∈ W e
v2 ∈ W ⊥ tais que v = v1 + v2 . Logo,
0 = < v, v2 > = < v1 + v2 , v2 > = < v1 , v2 > + < v2 , v2 > = < v2 , v2 >
Observação 128 É importante observar que as inclusões contrárias das apresentadas nos
itens (a) e (d) da proposição anterior em geral não valem. Tomemos o espaço vetorial real
P
`2 = {(an ) ∈ S | ∞ 2 2
n=1 an < ∞}. Consideremos ` munido do produto interno definido por
P∞ 2
< (xn ), (yn ) > = n=1 xn yn . Sendo S0 o subespaço de ` constituı́do das sequências quase
nulas, temos S0⊥ = {(0, 0, 0, . . .)} e daı́ (S0⊥ )⊥ = `2 . Logo, S0 6= (S0⊥ )⊥ .
Tomando agora W = hui, com u = (1/n)n∈N , temos S0 ∩ W = {(0, 0, 0, . . .)} e daı́
(S0 ∩ W )⊥ = `2 . Mas, S0⊥ = {(0, 0, 0, . . .)} e W ⊥ 6= `2 , donde (S0 ∩ W )⊥ 6= S0⊥ + W ⊥ .
Vejamos agora que sob a hipótese de V ter dimensão finita temos as igualdades V = W +W ⊥
e (W ∩ W1 )⊥ = W ⊥ + W1⊥ .
44
temos
< v3 , w 1 > < v3 , w 2 >
< w 3 , w 1 > = < v3 , w 1 > − 2
< w1 , w1 > − < w2 , w1 > = 0
kw1 k kw2 k2
e
< v 3 , w1 > < v 3 , w2 >
< w 3 , w 2 > = < v 3 , w2 > − 2
< w1 , w2 > − < w2 , w2 > = 0 .
kw1 k kw2 k2
Além disso, como w1 , w2 ∈ hv1 , v2 i, temos que w3 6= 0V e que {w1 , w2 , w3 } é ortogonal. Supondo
agora que já foram definidos w1 , w2 , . . . , wk ortogonais que geram o mesmo subespaço que v1 ,
v2 , . . . , vk , tomemos
X k
< vk+1 , wj >
wk+1 = vk+1 − 2
wj .
j=1
kw j k
Temos que < wk+1 , wi > = 0 para 1 ≤ i ≤ k, e assim o conjunto {w1 , . . . , wk , wk+1 } é orotgonal.
Ademais, como {v1 , . . . , vk+1 } é LI, temos que wk+1 6= 0V . Por fim, é fácil ver que o subespaço
gerado por {w1 , . . . , wk , wk+1 } é igual ao subespaço gerado por {v1 , . . . , vk , vk+1 }. Este processo
para na construção do vetor wn , quando temos finalmente uma base ortogonal de W . ¤
Corolário 130 Se V é um espaço vetorial com produto interno, então todo subespaços (não
nulo) de V de dimensão finita possui base ortonormal.
Exemplo 132 Considere o espaço vetorial real IR4 munido do produto interno canônico e os
subespaço W = {(x, y, z, t) ∈ IR4 | x − 2y + z + t = 0}. A partir da base {v1 , v2 , v3 } de W , onde
45
v1 = (1, 0, 0, −1), v2 = (0, 1, 0, 2) e v3 = (0, 0, 1, −1), vamos determinar uma base ortogonal de
W . De acordo com oprocesso de ortogonalização de Gram-Schmidt, tomamos
< v2 , w 1 >
w1 = v1 = (1, 0, 0, −1) , w 2 = v2 − w1 = (1, 1, 0, 1) e
kw1 k2
µ ¶
< v 3 , w1 > < v3 , w 2 > 1 1 1
w3 = v3 − w1 − w2 = − , , 1, − .
kw1 k2 kw2 k2 6 3 6
Temos que {w1 , w2 , w3 } é uma base ortogonal de W .
Exemplo 135 Considere no espaço vetorial real IR2 os produtos internos <, > e <, >1 ,
definidos por
< (x1 , y1 ), (x2 , y2 ) > = x1 x2 + y1 y2 e < (x1 , y1 ), (x2 , y2 ) >1 = (x1 − y1 )(x2 − y2 ) + 2x1 x2 .
A aplicação
F : (IR2 , <, >) −→ (IR2 , <, >1³) ´
√ √
2 2
(x, y) 7−→ F (x, y) = 2
y , −x + 2
y
é um isomorfismo de espaços vetoriais com produto interno.
46
e assim temos (ii).
Teorema 139 Sejam V e W espaços vetoriais com produto interno, sendo dim V finita, e
T : V −→ W uma transformação linear. São equivalentes:
i) T preserva produto interno.
ii) T leva toda base ortonormal de V num subconjunto ortonormal de W .
iii) T leva alguma base ortonormal de V num subconjunto orotnormal de W .
Demonstração. i) =⇒ ii) Supondo (i), tomemos β = {u1 , u2 , . . . , un } uma base ortonormal ar-
bitrária de V . Então, T (β) = {T (u1 ), T (u2 ), . . . , T (un )} e < T (ui ), T (uj ) > = < ui , uj > = δij .
Logo, T (β) é um subconjunto orotnormal de W .
47
e n X
n
X
< v1 , v 2 > = λi αi < ui , uj > = λ1 α1 + . . . + λn αn ,
i=1 j=1
donde concluı́mos que T preserva produto interno. ¤
Definição 140 Sejam V um espaço vetorial com produto interno e T : V −→ V . Dizemos que
T é um operador unitário se é um isomorfismo e preserva produto interno.
Pela definição acima, um operador unitário é um isomorfismo de um espaço com produto
interno nele próprio, ou seja, é um automorfismo de um espaço com produto interno. Se T é
um operador unitário, observe que T −1 também é unitário.
Exemplo 141 Se V é um espaço vetorial com produto interno, então o operador identidade
de V é unitário.
Exemplo 142 Considere o espaço vetorial real IR2 , munido do produto interno canônico, e o
operador linear T : IR2 −→ IR2 , definido por T (x, y) = (xCos θ − ySen θ, xSen θ + yCos θ).
Temos que T é um operador unitário.
Sejam V um espaço vetorial de dimensão finita com produto interno e β = {u1 , u2 , . . . , un }
uma base ortonormal de V . Consideremos T : V −→ V um operador unitário. Se v ∈ V , então
v = λ1 u1 + λ2 u2 + . . . + λn un , com λi ∈ K, e daı́ < v, ui > = λi < ui , ui > = λi . Para cada
j ∈ {1, . . . , n}, temos
T (uj ) = < T (uj ), u1 > u1 + . . . + < T (uj ), un > un e
T −1 (uj ) = < T −1 (uj ), u1 > u1 + . . . + < T −1 (uj ), un > un .
Assim, [T ]β = (aij )n×n e [T −1 ]β = (bij )n×n , onde aij = < T (uj ), ui > e bij = < T −1 (uj ), ui >.
Observe que
aij = < T (uj ), ui > = < uj , T −1 (ui ) > = < T −1 (ui ), uj > = bji .
t
Logo, [T −1 ]β = [T ]β , ou seja, [T −1 ]β é a transposta conjugada de [T ]β . Mas, [T −1 ]β = [T ]−1
β e
t t
assim [T ]β [T ]β = [T ]β [T ]β = In .
Definição 143 Seja A ∈ mn (K). Dizemos que A é uma matriz:
a) Ortogonal se AAt = At A = In , ou seja, se A é inversı́vel e A−1 = At .
t t t
b) Unitária se AA = A A = In , ou seja, se A é inversı́vel e A−1 = A .
Observe que se K = IR, então A é ortogonal se, e somente se, é unitária. Mostramos acima
que se T é unitário e β é uma base ortonormal de V , então [T ]β é uma matriz unitária.
Observe que A = (aij )n×n é uma matriz ortogonal se, e soemnte se,
n
X n
X
aij alj = δil e aij ail = δjl .
j=1 i=1
48
OPERADORES ADJUNTOS
Em toda esta seção, o corpo K será sempre IR ou C. Todos os espaços vetoriais considerados
serão sobre K e de dimensão finita.
Teorema 144 (Representação de Riesz) Seja V um espaço vetorial com produto interno.
Se f ∈ V ∗ , então existe um único w ∈ V tal que f (v) = < v, w > para todo v ∈ V .
fw (uj ) = < uj , w > = < uj , f (u1 )u1 + f (u2 )u2 + . . . + f (un )un > = f (uj ) < uj , uj > = f (uj )
Observação 145 O teorema anterior não é válido sem a hipótese de dimensão finita. Con-
sidere
Z o espaço vetorial real IR[x], munido do produto interno definido por < p(x), q(x) > =
1
p(x)q(x)dx. Tomemos o funcional linear
0
T : IR[x] −→ IR
p(x) 7−→ T (p(x)) = p(0)
e suponhamos que existe q0 (x) ∈ IR[x] tal que T (p(x)) = < p(x), q0 (x) > para todo p(x) ∈ IR[x].
Temos então Z 1
xq0 (x)2 dx = T (xq0 (x)) = 0.
0
2
Como xq0 (x) ≥ 0 para todo x ∈ [0, 1], e toda função polinomial é contı́nua, devemos ter
xq0 (x)2 = 0 para todo x ∈ [0, 1]. Logo, xq0 (x)2 , e consequentemente q0 (x), deve ser o polinômio
nulo. Segue então que T é o funcional nulo, o que é um absurdo. Assim, T não possui
representação no sentido do teorema anterior com respeito a este produto interno.
f: V −→ K
v 7−→ f (v) = < T (v), w >
49
sobre V ∗ . Como dim V é finita, temos, pelo Teorema da Representação de Riesz, que existe
um único uw ∈ V tal que f (v) = < v, uw > para todo v ∈ V . Denotando uw por T ∗ (w), temos
a aplicação
T ∗ : W −→ V
w 7−→ T ∗ (w)
que é chamada de adjunta de T . Observe agora que se w1 , w2 ∈ W e λ ∈ k, então
< v, T ∗ (w1 + w2 ) > = < T (v), w1 + w2 > = < T (v), w1 > + < T (v), w2 >
= < v, T ∗ (w1 ) > + < v, T ∗ (w2 ) > = < v, T ∗ (w1 ) + T ∗ (w2 ) >
e
< v, T ∗ (λw1 ) > = < T (v), λw1 > = λ < T (v), w1 > = λ < v, T ∗ (w1 ) > = < v, λT ∗ (w1 ) >
Exemplo 147 Considere o espaço vetorial real IR2 munido do produto interno canônico.
Considerando T : IR2 −→ IR2 o operador linear definido por T (x, y) = (2x + y, 3x − y),
vamos calcular T ∗ . Como T ∗ é linear, basta calcular T ( 1, 0) e T ∗ (0, 1). Observando que
< T (x, y), (1, 0) > = < (x, y), T ∗ (1, 0) > e < T (x, y), (0, 1) > = < (x, y), T ∗ (0, 1) >, e tomando
T ∗ (1, 0) = (a1 , b1 ) e T ∗ (0, 1) = (a2 , b2 ), temos 2x + y = a1 x + b1 y e 3x − y = a2 x + b2 y
para todo (x, y) ∈ IR2 . Devemos ter então a1 = 2, b1 = 1, a2 = 3 e b2 = −1. Logo,
T ∗ (x, y) = (2x + 3y, x − y).
Exemplo 148 Considere o espaço vetorial complexo M3×1 (C), munido do produto interno
definido por
* x1 x2 +
y1 , y2 = x1 x2 + y1 y2 + z1 z2 .
z1 z2
50
Sendo
a α1 α2
A = α1 b α3 ,
α2 α3 c
onde a, b, c ∈ IR e αi ∈ C, temos que o operador linear TA : M3×1 (C) −→ M3×1 (C), definido
por TA (X) = AX, satisfaz TA∗ = TA .
< (T +S)(u), v > = < T (u), v > + < S(u), v > = < u, T ∗ (v) > + < u, S ∗ (v) > = < u, (T ∗ +S ∗ )(v) > .
< (T S)(u), v > = < T (S(u), v > = < S(u), T ∗ (v) > + < u, S ∗ (T ∗ (v)) > .
< (λT )(u), v > = λ < T (u), v > = λ < u, T ∗ (v) > = < u, (λT ∗ )(v) > .
51
donde segue que [T ]β = (aij )n×n e [T ∗ ]β = (bij )n×n , onde aij = < T (uj ), ui > e bij =
< T ∗ (uj ), ui >. Logo,
aij = < T (uj ), ui > = < uj , T ∗ (ui ) > = < T ∗ (ui ), uj > = bji
ii) =⇒ i) Supondo (ii), devemos mostrar que T preserva produto interno. De fato, para u,
v ∈ V quaisquer temos
< u, v > = < u, (T −1 T )(v) > = < u, T ∗ (T (v)) > = < T (u), T (v) > .
É imediato da definição acima que todo operador auto-adjunto é normal. Observe também
que todo operador unitário é normal.
Quando K = C, os operadores auto-adjuntos também são chamados de hermitianos; quando
K = IR, também são chamados de simétricos.
Exemplo 152 Se V é um espaço vetorial com produto interno, os operadores nulo e identidade
são claramente auto-adjuntos. Observa-se que o conjunto dos operadores auto-adjuntos de V
é fechado em relação à soma. Quando K = IR, este conjunto é também fechado em relação ao
produto por escalar.
52
Exemplo 153 Considere o espaço vetorial real IR2 , munido do produto interno canônico, e o
operador linear S : IR2 −→ IR2 , definido por S(x, y) = (−y, x). Observando que S ∗ = −S,
concluı́mos que S é normal, mas não é auto-adjunto.
Exemplo 154 Considerando o espaço vetorial complexo C3 , munido do produto interno canônico,
e o operador linear F : C3 −→ C3 , cuja matriz em relação à base canônica é
1 i 1+i
−i 0 1 ,
1−i 1 2
Demonstração. a) Seja v ∈ V não nulo tal que T (v) = λv. Como T é unitário, temos
< T (v), T (v) > = < v, v >. Logo,
< v, v > = < λv, λv > = λλ < v, v > = |λ|2 < v, v > .
Mas, como < v, v > 6= 0, concluı́mos que |λ|2 = 1 e assim temos o resultado.
b) Seja v ∈ V não nulo tal que T (v) = λv. Como T ∗ = T , temos < T (v), v > = < v, T (v) > e
assim λ < v, v > = λ < v, v >. Observando agora que < v, v > 6= 0, concluı́mos que λ = λ e
portanto λ ∈ IR.
c) Temos kT (v)k2 = < T (v), T (v) > = < v, (T ∗ T )(v) > = < v, (T T ∗ )(v)) > pois T é normal.
Como T ∗∗ = T , temos kT (v)k2 = < T ∗ (v), T ∗ (v) > = kT ∗ (v)k2 e daı́ segue o resultado.
d) Temos
kT ∗ (v) − λvk2 = kT ∗ (v)k2 − λ < T ∗ (v), v > −λ < v, T ∗ (v) > +kλk2
= kT (v)k2 − λ < v, T (v) > −λ < T (v), v > +|λ|2 kvk2
= |λ|2 kvk2 − |λ|2 kvk2 − |λ|2 kvk2 + |λ|2 kvk2 = 0
53
e daı́ T ∗ (v) = λv.
e) Temos λ < u, v > = < T (u), v > = < u, T ∗ (v) > = < u, λ1 v > = λ1 < u, v >. Como λ1 6= λ,
devemos ter < u, v > = 0. ¤
Vamos agora mostrar que os operadores normais sobre espaços vetoriais complexos e os
operadores auto-adjuntos (sobre espaços reais ou complexos) são diagonalizáveis. Mais ainda,
vamos mostrar que se T é um tal operador, então existe no espaço vetorial em questão uma
base ortonormal de autovetores de T . Este resultado é chamado de Teorema Espectral.
54
auto-adjunto. Como dim W = dim V −1, por hipótese de indução temos que existe alguma base
β ortonormal de W cujos elementos são autovetores de TW , e portanto de T . Como β ⊆ hv1 i⊥ ,
concluı́mos que β ∪ {v1 } é uma base ortonormal de V cujos elementos são autovetores de T .
b) Como K = C, temos que T possui algum autovalor λ. Tomemos então v1 ∈ V , com
kv1 k = 1, tal que T (v1 ) = λv1 e W = hv1 i⊥ . Como T é normal, temos T ∗ (v1 ) = λv1 e assim
hv1 i é T -invariante e T ∗ -invariante. Logo, W também é T -invariante e T ∗ -invariante.
Tomando agora TW = T |W , observamos que para quaisquer w1 , w2 ∈ W vale < TW (w1 ), w2 >
= < w1 , (T ∗ )W (w2 ) >, donde segue a igualdade (TW )∗ = (T ∗ )W e daı́ a normalidade do operador
TW . Como dim W = dim V − 1, por hipótese de indução temos que existe alguma base β
ortonormal de W cujos elementos são autovetores de TW , e portanto de T . O resultado segue
então como no ı́tem (a). ¤
Corolário 160 Se A ∈ Mn (IR) é uma matriz simétrica, então existe alguma matriz ortogonal
P ∈ Mn (IR) tal que P −1 AP é diagonal.
Exemplo 161 Considere o espaço vetorial real IR2 , munido do produto interno canônico, e o
operador linear
T : IR2 −→ IR2
.
(x, y) 7−→ T (x, y) = (−y, x)
Este operador é normal, mas não é diagonalizável.
Exemplo 162 Considere o espaço vetorial complexo C3 , munido do produto interno canônico,
e o operador linear F : C3 −→ C3 , definido por F (z1 , z2 , z3 ) = (z1 , 2z2 +(1+i)z3 , (1−i)z2 +3z3 ).
Sendo β a base canônica de C3 , temos
1 0 0
[F ]β = 0 2 1+i ,
0 1−i 3
t
que satisfaz [F ]β = [F ]β . Logo, F é auto-adjunto e portanto é diagonalizável. Os autovalores
de F são λ1 = 1 e λ2 = 4. A base ortonormal γ = {(1, 0, 0), (0, 1 + i, −1), (0, 1 + i, 2)} de C3 é
uma base de autovetores de F .
55
FORMAS BILINEARES
Definição 163 Sejam V , W e U espaços vetoriais sobre o mesmo corpo K. Dizemos que uma
aplicação F : V × W −→ U é bilinear se valem:
a) f (λv1 = v2 , w) = λf (v1 , w) + f (v2 , w) para quaisquer λ ∈ K, v1 , v2 ∈ V e w ∈ W .
b) f (v, λw1 + w2 ) = λf (v, w1 ) + f (v, w2 ) para quaisquer λ ∈ K, v ∈ V e w1 , w2 ∈ W .
fD v0 : W −→ U
,
w 7−→ (fD v0 )(w) = f (v0 , w)
e para w0 ∈ V a aplicação
fE w 0 : V −→ U
.
v 7−→ (fE w0 )(v) = f (v, w0 )
Temos que f é bilinear se, e somente se, fE w0 e fD v0 são lineares para quaisquer v0 ∈ V e
w0 ∈ W .
Denotemos por B(V, W ; U ) o conjunto de todas as aplicações bilineares de V × W em U .
Observemos que para cada f ∈ B(V, W ; U ) temos
fD : V −→ L(W, U ) fE : W −→ L(V, U )
e
v 7−→ fD v w 7−→ fE w
que são aplicações lineares. Reciprocamente, cada aplicação linear de uma dessas duas formas
induz uma aplicação bilinear de V × W em U .
Sendo f : V × W −→ U uma aplicação bilinear, não é difı́cil ver que f (v, 0W ) = f (0V , w) =
0U e f (−v, w) = f (v, −w) = −f (v, w) para quaisquer v ∈ V e w ∈ W .
Exemplo 164 Dados V , W e U espaços vetoriais quasiquer sobre o mesmo corpo, a aplicação
nula
f0 : V × W −→ U
(v, w) 7−→ f0 (v, w) = 0U
é bilinear.
56
Exemplo 166 Sendo V um K-espaço vetorial, o seu produto por escalar
g : K ×V −→ V
(λ, v) 7−→ g(λ, v) = λv
f + g : V × W −→ U
(v, w) 7−→ (f + g)(v, w) = f (v, w) + g(v, w)
e
λf : V × W −→ U
(v, w) 7−→ (λf )(v, w) = λf (v, w)
temos que f + g, λf ∈ B(V, W ; U ). Ademais, B(V, W ; U ), munido destas operações de soma
e produto por escalar, é um K-espaço vetorial. Costumamos denotar B(V, V ; U ) simplesmente
por B(V ; U ).
((f + g)D v)(w) = (f + g)(v, w) = f (v, w) + g(v, w) = (fD v)(w) + (gD v)(w) = (fD v + gD v)(w)
e
((λf )D v)(w) = (λf )(v, w) = λf (v, w) = λ(fD v)(w) = (λfD v)(w) ,
57
e assim (f + g)D v = fD v + gD v e (λf )D v = λfD v.Logo, (f + g)D = fD + gD e (λf )D = λfD
para quaisquer f , g ∈ B(V, W ; U ), ou seja, F é linear.
Supondo agora f ∈ ker F, temos fD = 0 e assim fD v = 0 para todo v ∈ V . Assim,
f (v, w) = (fD v)(w) = 0 para quaisquer v ∈ V e w ∈ W . Logo, f é nula e assim concluı́mos
que F é injetora.
Dada h ∈ L(V, L(W, U )), tomemos fh : V × W −→ U , definida por fh (v, w) = h(v)(w).
Observemos que fh é bilinear e que F(fh ) = (fh )D = h. De fato, dados v ∈ V e w ∈ W , temos
((fh )D v)(w) = fh (v, w) = h(v)(w) e assim (fh )D v = h(v). Segue então que (fh )D = h.
Como F é um isomorfismo temos
dim B(V, W ; U ) = dim L(V, L(W, U )) = (dim V )(dim L(W, U )) = (dim V )(dim W )(dim U ).
Definição 169 Seja V um K-espaço vetorial. Definimos uma forma bilinear sobre V como
sendo uma aplicação bilinear f : V × V −→ K.
Sendo V um K-espaço vetorial, temos que B(V ; K) é o K-espaço vetorial das formas bilin-
eares sobre V . Observe que se V tem dimensão finita, então B(V ; K) também tem dimensão
finita e dim B(V ; K) = (dim V )2 .
Exemplo 170 Todo produto interno num espaço vetorial real é uma forma bilinear.
Exemplo 172 Considere o espaço vetorial real SC = {(an )n∈N | an ∈ IR, (an ) é convergente}.
A aplicação f : SC × SC −→ IR, definida por f ((an ), (bn )) = lim an bn , é uma forma bilinear.
Exemplo 173 Se A = (aij )n×n é uma matriz com entradas num corpo K, considere a aplicação
fA : Mn×1 (K) × Mn×1 (K) −→ K, definida por fA (X, Y ) = X t AY . Não é difı́cil ver que fA é
uma forma bilinear sobre Mn×1 (K) e que
n n x1 y1
XX . .
fA (X, Y ) = aij xi yj , para X = .. e Y = .. .
i=1 j=1
xn yn
Sejam V um K-espaço vetorial de dimensão finita e β = {v1 , v2 , . . . , vn } uma base ordenada
de V . Sendo f : V × V −→ K uma forma bilinear, considere a matriz
a11 a12 . . . a1n
a21 a22 . . . a2n
[f ]β = . ..
. .. . .
. , onde aij = f (vi , vj ).
. . .
an1 an2 . . . ann
58
Esta matriz é chamada de matriz de f em relação à base β e satisfaz f (u, v) = [u]tβ [f ]β [v]β para
quaisquer u, v ∈ V .
Fixada uma base β de V , definamos:
Mβ : B(V ; K) −→ Mn (K)
.
f 7−→ Mβ (f ) = [f ]β
Temos que esta aplicação é uma transformação linear injetora. Ademais, como dim B(V ; K) =
(dim V )2 = dim Mn (K), concluı́mos que Mβ é um isomorfismo.
f (u, v) = [u]tγ [f ]γ [v]γ = [u]tβ [f ]β [v]β , [v]β = [I]γβ [v]γ e [u]β = [I]γβ [u]γ .
Logo, [u]tγ [f ]γ [v]γ = [u]tγ ([I]γβ )t [f ]β [I]γβ [v]γ . Como u e v são arbitrários, devemos ter [f ]γ =
([I]γβ )t [f ]β [I]γβ . ¤
Exemplo 176 Todo produto interno num espaço vetorial real é uma forma bilinear não-
degenerada.
Exemplo 177 Sendo SC o espaço vetorial real de todas as sequências convergentes de números
reais, considere a forma bilinear f : SC × SC −→ IR, definida por f ((an ), (bn )) = lim an bn , é
uma forma bilinear. Se (an ) ∈ SC é uma sequência não nula que converge para 0, então
f ((an ), (bn )) = f ((bn ), (an )) = 0 para toda (bn ) ∈ SC. Logo, f é degenerada.
Observe que f (u, v1 ) = 0 para todo u ∈ U . Observe também que para cada v ∈ V não nulo
existe v 0 ∈ V tal que f (v, v 0 ) 6= 0.
59
Sendo g : V × V −→ K uma form abilinear, temos que g é não-degeneada se, e somente
se, gD e gE são transformações lineares injetoras. Observe que no Exemplo 178 acima, a forma
bilinear f é tal que fD é injetora, mas fE não é. Veremos mais adiante que no caso de dimensão
finita vale a equivalência: gD é injetora ⇐⇒ gE é injetora.
Sejam V um K-espaço vetorial de dimensão finita e f : V × V −→ K uma forma bilinear.
Sendo β = {v1 , v2 , . . . , vn } uma base de V e β ∗ = {g1 , g2 , . . . , gn } a base dual de β em V ∗ , temos
e assim [fD ]ββ ∗ = [f ]tβ e [fE ]ββ ∗ = [f ]β (lembre que fD , fE ∈ L(V, V ∗ )). Segue então que as
aplicações lineares fD e fE têm o mesmo posto. Vamos então definir o posto de f como sendo
o posto de fD .
Observemos agora que o posto de f é igual a n (dim V ) se, e somente se, fD e fE são
inversı́veis, o que acontece se, e somente se, a matriz [f ]β é inversı́vel. Temos então o seguinte
resultado.
Exemplo 181 Todo produto interno definido num espaço vetorial real é uma forma bilinear
simétrica.
60
Exemplo 182 A forma bilinear
g : Mn (K) × Mn (K) −→ K
(A, B) 7−→ g(A, B) = tr AB
é simétrica não-degenerada.
é anti-simétrica .
Exemplo 184 Sendo T um funcional linear de IR3 , a forma bilinear hT : IR3 × IR3 −→ IR,
definida por hT (u, v) = T (u × v), onde “ × ” é o produto vetorial, é anti-simétrica .
Considere o K-espaço vetorial B(V ; K) das formas bilineares sobre V . Denotando por
Bs (V ; K) o conjunto das formas bilineares simétricas e por Ba (V ; K) o conjunto das formas
bilineares anti-simétricas, temos que Bs (V ; K) e Ba (V ; K) são subespaços de B(V ; K) Ademais,
se char K 6= 2, então B(V ; K) = Bs (V ; K) ⊕ Ba (V ; K).
S ⊥ = {v ∈ V | f (v, s) = 0, ∀ s ∈ S}
61
Teorema 186 Sejam K um corpo de caracterı́stica diferente de 2, V um K-espaço vetorial de
dimensão finita e f : V × V −→ K uma forma bilinear simétrica. Então existe alguma base
β = {v1 , . . . , vn } de V tal que [f ]β é uma matriz diagonal, ou seja, f (vi , vj ) = 0 para i 6= j.
Observação 188 O Teorema 186 não vale sem a hipótese de char K 6= 2. Considerando
K um corpo de caracterı́stica 2, tomemos a aplicação f : K 2 × K 2 −→ K definida por
f ((x1 , y1 ), (x2 , y2 )) = x1 y2 + x2 y1 . Não é difı́cil ver que f é uma forma bilinear simétrica e
que f (v, v) = 0 para todo v ∈ K 2 . Supondo que existe alguma base β de K 2 tal que [f ]β é
diagonal, segue da última afirmação que [f ]β deve ser nula e portanto f deve ser nula, o que é
um absurdo.
62
e f (v, v1 ) = f (v, v2 ) = 0. Segue daı́ que λ1 = λ2 = 0 e portanto W ∩ W ⊥ = {0V }. Tomando
agora v ∈ V , arbitrário, e considerando o vetor
u = v + f (v, v1 )v2 − f (v, v2 )v1 ,
temos que f (u, v1 ) = f (u, v2 ) = 0 e assim u ∈ W ⊥ . Logo, v ∈ W ⊕ W ⊥ .
Segue de V = W ⊕ W ⊥ que dim W ⊥ = dim V − 2. Considerando agora a restrição de
f a W ⊥ e tomando v ∈ W ⊥ − {0V }, temos que existe v 0 ∈ V tal que f (v, v 0 ) 6= 0. Sendo
v 0 = w1 + w2 , com w1 ∈ W e w2 ∈ W ⊥ , temos que f (v, v 0 ) = f (v, w1 ) + f (v, w2 ) = f (v, w2 ),
e daı́ segue que a restrição de f a W ⊥ é não-degenerada. Por indução, dim W ⊥ é par e existe
uma base β 0 = {v3 , v4 , . . . , v2n−1 , v2n } de W ⊥ tal que f (v2j−1 , v2j ) = 1 e f (v2j , v2j−1 ) = −1,
para j = 2, . . . , n, e vl ∈ hv2j−1 , v2j i⊥ se l ∈ / {2j − 1, 2j}. Segue então que β = {v1 , v2 } ∪ β 0 =
{v1 , v2 , v3 , v4 . . . , v2n−1 , v2n } é uma base de V nas condições indicadas. ¤
Observação 190 Conforme vimos na Proposição 185, sob a hipótese de char K 6= 2 a anti-
simetria de f é equivalente à condição f (u, u) = 0 para todo u ∈ V . Assim, em caracterı́stica
diferente de 2, o teorema anterior pode ser reescrito colocando-se a hipótese de anti-simetria
de f no lugar da condição f (u, u) = 0 para todo u ∈ V .
Observação 192 O corolário anterior não vale sem a hipótese de char K 6= 2. Considere um
corpo K de caracterı́stica 2 e f : K 3 × K 3 −→ K a forma bilinear tal que [f ]β = I3 , onde β é a
base canônica de K 3 . Observe que f é simétrica, e portanto anti-simétrica, já que char K = 2.
Ademais, f é não-degenerada e daı́ posto(f ) = dim K 3 = 3.
63
Corolário 193 Se char K 6= 2, V é um K-espaço vetorial de dimensão finita e f : V ×V −→ K
é uma forma bilinear anti-simétrica e não-degenerada, então existe alguma base β de V tal que
0 0 ··· 0 1
à !
0 0 ··· 1 0
0 J .. .. .. ..
[f ]β = , onde J = . . . .
−J 0
0 1 ··· 0 0
1 0 · · · 0 0 m×m
dim V
com m = .
2
Demonstração. Sendo γ = {v1 , v2 , . . . , v2m−1 , v2m } uma base de V nas condições do teorema,
basta tomar β = {v1 , v3 , . . . , v2n−1 , v2n , . . . , v4 , v2 }. ¤
Demonstração. Supondo det A 6= 0, temos que existe P ∈ Mn (K) inversı́vel tal que
C 0 ··· 0
à !
0 C ··· 0 0 1
P t AP =
.. .. .. . , onde C = ,
. . . ..
−1 0
0 0 ··· C
e assim det(P t AP ) = 1. Logo, det A = (det P )−2 , o que nos dá o resultado. ¤
64
FORMAS QUADRÁTICAS
q: V −→ K
.
v 7−→ q(v) = f (v, v)
Exemplo 196 Considere o espaço vetorial real SC = {(an )n∈N | an ∈ IR, (an ) é convergente} e
a forma bilinear g : SC × SC −→ IR definida por f ((an ), (bn )) = lim an bn . A forma quadrática
associada a g é a aplicação q : SC −→ IR definida por q((an )) = lim a2n .
Exemplo 197 Seja A ∈ Mn (K) uma matriz simétrica e considere a forma bilinear
65
temos que a aplicação f : K n × K n −→ K, definida por
1 1
f ((a1 , . . . , an ), (y1 , . . . , yn )) = q(a1 + y1 , . . . , an + yn ) − q(a1 − y1 , . . . , an − yn ),
4 4
é uma forma bilinear simétrica, cuja forma quadrática associada é exatamente q.
Sendo q : V −→ K uma forma quadrática e f : V × V −→ K a forma bilinear tal
que q(v) = f (v, v) para todo v ∈ V , tomemos β = {v1 , v2 , . . . , vn } uma base de V tal que
[f ]β = diag(d1 , d2 , . . . , dn ). Assim, dado v ∈ V , temos v = x1 v1 + x2 v2 + . . . xn vn e daı́
q(v) = d1 x21 + d2 x22 + . . . + dn x2n . Dizemos então que β diagonaliza q.
Observe que uma forma bilinear simétrica positiva definida ou negativa definida é necessari-
amente não-degenerada.
66
Exemplo 200 A forma bilinear f sobre IR3 apresentada no exemplo anterior é indefinida.
Exemplo 201 Se V é um espaço vetorial real, então as formas bilineares simétricas positivas
definidas sobre V são exatamente os produtos internos.
Teorema 203 (Lei da Inércia de Sylvester) Sejam V um espaço vetorial real de dimensão
finita, f : V × V −→ IR uma forma bilinear simétrica e β1 e β2 bases de V tais que [f ]β1 e [f ]β2
são diagonais. Então as matrizes [f ]β1 e [f ]β2 têm a mesma quantidade de entradas positivas e
têm a mesma quantidade de entradas negativas.
67
GRUPOS QUE PRESERVAM FORMAS BILINEARES
Exemplo 205 Considere a forma bilinear f : IR2 ×IR2 −→ IR definida por f ((x1 , y1 ), (x2 , y2 )) =
x1 y2 − x2 y1 . O operador linear T : IR2 −→ IR2 , definido por T (x, y) = (x + y, y), preserva T .
De fato, f (T (x1 , y1 ), T (x2 , y2 )) = f ((x1 + y1 , y1 ), (x2 + y2 , y2 )) = (x1 + y1 )y2 − (x2 + y2 )y1 =
f ((x1 , y1 ), (x2 , y2 )).
prservam g.
[u]tβ [f ]β [v]β = f (u, v) = f (T (u), T (v)) = [T (u)]tβ [f ]β [T (v)]β = [u]tβ [T ]tβ [f ]β [T ]β [v]β
à !
a b
donde [T ]tβ [f ]β [T ]β = [f ]β . Sendo [T ]β = , devemos ter
c d
a(a + c) = a(b + d) = 1 e b(a + c) = b(b + d) = 0
à !
a 0
donde b = 0, d = a−1 e c = a−1 − a, ou seja, [T ]β = .
a−1 − a a−1
68
Exemplo 208 Se V é um K-espaço vetorial e T ∈ L(V ), então o conjunto
WT = {f ∈ B(V ; K) | T preserva f }
f (u, v) = [u]tβ [f ]β [v]β e f (T (u), T (v)) = [T (u)]tβ [f ]β [T (v)]β = [u]tβ [T ]tβ [f ]β [T ]β [v]β .
F : Gf −→ GA
T 7−→ F (T ) = [T ]β
é um isomorfismo de grupos.
f ((x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn )) = x1 y1 + x2 y2 + . . . + xn yn .
69