Você está na página 1de 69

ESPAÇOS VETORIAIS

1. Corpos e subcorpos. Sistemas lineares. Matrizes e determinantes. Caracterı́stica de um


corpo. Polinômios sobre um corpo (propriedades básicas e algorı́tmo da divisão).

2. Definição de espaço vetorial

3. Observações: unicidade do vetor nulo e dos opostos aditivos.

4. Exemplos:
a) O espaço K n .
b) O espaço Mm×n (K). O caso particular Mn (K).
c) O espaço S(K) de sequências.
d) O espaço P(A) sobre o corpo de 2 elementos.
e) Os espaços de funções F(X, K) e F(K) (caso X = K).
f) Produto direto de espaços vetoriais.
g) Complexificação de espaços vetoriais reais. Seja V um espaço vetorial real e considere o
conjunto VC dos elementos da forma u + iv, com u, v ∈ V . Diremos que u1 + iv1 = u2 + iv2
em VC se u1 = u2 e v1 = v2 . Para cada u ∈ V , identificamos u com o elemento u + i0V de
VC . Podemos então olhar V como um subconjunto de VC . Definimos em VC as operações
de soma:
(u1 + iv1 ) + (u2 + iv2 ) = (u1 + u2 ) + i(v1 + v2 )
e produto por escalar complexo:

(λ1 + iλ2 )(u + iv) = (λ1 u − λ2 v) + i(λ1 v + λ2 u) .

VC , munido destas operações, é um espaço vetorial complexo.


h) Espaço K[x] de polinômios.
i) Subcorpos e restrição de escalares.

5. Subespaços: definição e propriedades básicas.

6. Exemplos de subespaços:
a) {0V } e V .
b) Interseção de subespaços.
c) Soma de subespaços (finita e infinita). Subespaços independentes e somas diretas.
d) Subespaço gerado.

1
7. Observações sobre subespaços gerados:
a) h∅i = {0V }.
b) S ⊆ hSi.
c) Se W é um ubespaço de V e S ⊆ W , então hSi ⊆ W . Claramente, hW i = W .
d) S1 ⊆ S2 ⊆ V =⇒ hS1 i ⊆ hS2 i.
e) Definição de comjunto gerador e de espaço finitamente gerado.
f) Caracterização de subespaço gerado: hSi é o conjunto de todas as combinações lineares
de elementos de S, ou seja,

hSi = {λ1 s1 + . . . + λn sn | n ∈ N, λ1 ∈ K, si ∈ S}.

8. Definição de conjunto LI e LD.

9. Propriedades. Sejam V um K-espaço vetorial e S um subconjunto não vazio de V . Então


valem:
a) S é LD se, e somente se, existe algum vetor v ∈ S tal que v ∈ hS − {v}i.
b) Se v ∈ V , então {v} é LI se, e somente se, v 6= 0V .
c) Se S é LI e v ∈ V − hSi, então S ∪ {v} é um conjunto LI. Particularmente, se S é um
subconjunto LI maximal de V , então S gera V .
d) Se S gera V e existe v ∈ S tal que v ∈ V − hS − {v}i, então hS − {v}i gera V .
Particularmente, se S é um conjunto gerador minimal de V , então S é LI.
e) Se V possui um conjunto gerador com n elementos, então todo subconjunto de V com
mais de n elementos é LD.
f) Se S1 e S2 são subconjuntos LI de V e hS1 i ∩ hS2 i = {0V } (ou seja, hS1 i e hS2 i, são
independentes), então S1 ∪ S2 é um subconjunto LI de V .

10. Definição de base.

11. Teorema. Sejam V um espaço vetorial (não nulo) e S um subconjunto não vazio de S.
Então:
a) Se S é LI, então S está contido em alguma base de V .
b) Se S gera V , então S contêm alguma base de V .
Dem. a) O conjunto ordenado IS = {A ⊆ V | S ⊆ A, A é LI} possui elemento maximal,
o qual deve ser uma base de V . b) O conjunto ordenado AS = {B ⊆ V | B ⊆ S, B é LI}
possui elemento maximal, o qual deve ser uma base de V .

2
12. Corolário. Todo espaço vetorial não nulo possui base.

13. Observações:
a) Uma base é um conjunto gerador minimal e é um conjunto LI maximal.
b) Duas bases quaisquer de um mesmo espaço vetorial têm a mesma cardinalidade. O
número de elementos de uma base de V é chamado de dimensão de V . Notação: dim V .

14. Propriedades. Sejam V um K-espaço vetorial de dimensão finita n e W um subespaço de


V . Então:
a) dim W é finita e dim W ≤ dim V .
b) Se dim W = dim V , então W = V .
c) Um subconjunto gerador de V com exatamente n elementos é uma base de V .
d) Um subconjunto LI de V com exatamente n elementos é uma base de V .

15. Bases ordenadas e coordenadas de vetores.

16. Espaço vetorial quociente. W subespaço de V . u ≡ v (mod W ) se u − v ∈ W .


u = u + W = {u + x | x ∈ W }. V /W = {v | v ∈ V }. u + v = u + v e λv = λv.

17. Propriedades.
a) V /V é um espaço nulo. Se W é um subespaço próprio de V , então V /W é não nulo.
b) Se S gera V , então S = {v | v ∈ S} gera V /W .
c) Seja S um subconjunto não vazio e V . Suponha que u 6= v, para u e v distintos em S.
Se S = {v | v ∈ S} é LI em V /W , entao S é LI em V .
d) Se dim V é finita, então dim(V /W ) é finita e dim(V /W ) = dim V − dim W .
e) Teorema da correspondência.

18. Transformações lineares.

19. Núcleo e imagem. Posto e nulidade.

20. Exemplos: transformação nula, projeção canônica, composição de transformações li-


neares, operadores lineares, operador nulo, operador identidade, potência e operadores
nilpotentes.

21. Isomorfismos, automorfismos, propriedades e grupo linear.

22. Teorema Fundamental.

3
23. Teorema Fundamental dos Homomorfismos e o Teorema do Núcleo e da Imagem.

24. Espaços de transformações lineares (L(V, W ) e L(V )).

25. Sejam V e W espaços vetoriais sobre o mesmo corpo K, ambos de dimensão finita.
Considere β = {v1 , v2 , . . . , vn } e γ = {w1 , w2 , . . . , wm } bases de V e W , respectivamente.
Para i ∈ {1, 2, . . . , n} e j ∈ {1, 2, . . . , m}, considere a transformação linear Tij : V −→ W
tal que (
wj , se l = i
Tij (vl ) = δil wj =
0W , se l 6= i
O conjunto {Tij | i = 1, . . . , n, j = 1, . . . , m} é uma base do K-espaço vetorial L(V, W ).
Logo, dim L(V, W ) = nm.

26. Matrizes de transformações lineares. Caso particular [T ]α , sendo T um operador linear.

27. Sendo T : V −→ W uma transformação linear, α uma base de V , β uma base de W , e


v ∈ V , então [T (v)]β = [T ]αβ [v]α . Particularmente, se I : V −→ V é o operador identidade
e α e γ são bases de V , então [v]β = [I]αβ [v]α . [I]αβ é chamada de matriz de mudança de
base de α para β.

28. Sejam V , W e U K-espaços vetoriais de dimensão finita, T , T1 : V −→ W e S : W −→ U


transformações lineares. Sejam n = dim V e m = dim W . Então:
a) T = 0 ⇐⇒ [T ]αβ = 0m×n para quaisquer bases α de V e β de W .
b) Se I : V −→ V é o operador identidade e α é base de V , então [I]α = In .
c) Fixadas bases α de V e β de W , temos: [T ]αβ = [T1 ]αβ ⇐⇒ T = T1 .
d) [T + T1 ]αβ = [T ]αβ + [T1 ]αβ e [λT ]αβ = λ[T ]αβ para quaisquer bases α de V e β de W , e
λ ∈ K.
e) [ST ]αγ = [S]βγ [T ]αβ para quaisquer bases α de V , β de W e γ de U .
f) Se dim V = dim W , então T é um isomorfismo se, e somente se, [T ]αβ é uma ma-
triz inversı́vel para quaisquer bases α de V e β de W . Neste caso, [T −1 ]βα = ([T ]αβ )−1 .
Particularmente, ([I]αβ )−1 = [I]βα para quaisquer bases α e β de V .
g) [T ]αβ11 = [I]ββ1 [T ]αβ [I]αα1 para quaisquer bases α, α1 de V e β, β1 de W .

29. Isomorfismo entre espaços de matrizes e de transformações lineares.

30. Semelhança de matrizes. Sendo V um K-espaço vetorial de dimensão finita, T : V −→ V


um operador linear e α e β bases de V , então [T ]α = [I]βα [T ]β [I]αβ . Tomando P = [I]αβ ,
temos que [I]βα = P −1 . Logo, [T ]α = P −1 [T ]β P e assim [T ]α e [T ]β são semelhantes sobre
K. Vale a recı́proca.

4
OS ESPAÇOS DUAL E BIDUAL

Seja K um corpo e V um K-espaço vetorial. Definimos um funcional linear em V como


sendo uma transformação linear f : V −→ K. O K-espaço vetorial L(V, K) de todos os
funcionais lineares em V é chamado de espaço dual de V e é denotado por V ∗ . No caso de
termos dim V finita, temos dim V ∗ também é finita e dim V ∗ = dim V .

Exemplo 1 Se K é um corpo e a1 , . . . , an ∈ K, então a aplicação f : K n −→ K, definida por


f (x1 , . . . , xn ) = a1 x1 + . . . + an xn é um fucional linear em K n . Não é difı́cil ver que todos os
funcionais lineares de K n são desta forma.

Exemplo 2 Sejam a, b ∈ IR, com a < b, e C[a, b] o espaço vetorial real de todas as funções
contı́nuas de [a, b] em IR. A aplicação
L : C[a, b] −→ IR
Z b
f 7−→ L(f ) = f (x)dx
a

é um funcional linear em C[a, b].

Exemplo 3 Considere o K-espaço vetorial Mn (K) de todas as matrizes n × n com entradas


em K. A função traço
tr : Mn (K) −→ K
A = (aij )n×n 7−→ tr A = a11 + a22 + . . . + ann
é um fucional linear em Mn (K).

Consideremos V um K-espaço vetorial de dimensão finita e β = {v1 , v2 , . . . , vn } uma base


de V . Para cada i = 1, 2, . . . , n, considere o funcional linear fi : V −→ K tal que
(
1 , se i = j
fi (vj ) = δij =
0 , se i 6= j
Temos que o conjunto β ∗ = {f1 , f2 , . . . , fn } é um subconjunto LI de V ∗ . De fato, supondo
a1 , . . . , an ∈ K tais que a1 f1 + . . . + an fn = 0V ∗ temos que a1 f1 (v) + . . . + an fn (v) = 0 para
todo v ∈ V . Particularmente, a1 f1 (vj ) + . . . + an fn (vj ) = 0. Como fi (vj ) = δij , temos que
aj = 0 para todo j = 1, 2, . . . , n.
Como β ∗ é LI e possui exatamente n elementos, temos que β ∗ é uma base de V ∗ (observe
que dim V ∗ = n), chamada de base dual de β.
Tomando agora g ∈ V ∗ , temos que existem a1 , . . . , an ∈ K tais que g = a1 f1 + . . . + an fn .
Pn
Daı́, g(vj ) = a1 f1 (vj ) + . . . + an fn (vj ) = aj para j = 1, . . . , n, e assim g = j=1 g(vj )fj .
Se w ∈ v, temos qie existem λ1 , . . . , λn ∈ K tais que w = λ1 v1 + . . . + λn vn e daı́ fi (w) =
P
λ1 fi (v1 ) + . . . + λn fi (vn ) = λi para i = 1, . . . , n. Logo, w = ni=1 fi (w)vi .

5
Exemplo 4 Considere a base β = {v1 , v2 , v3 } de IR3 , onde v1 = (1, 0, 0), v2 = (0, 1, 2) e
v3 = (1, 0, 1). Temos β ∗ = {f1 , f2 , f3 }, onde f1 , f2 , f3 : IR3 −→ IR são definidos por f1 (x, y, z) =
x + 2y − z, f2 (x, y, z) = y e f3 (x, y, z) = z − 2y.

Exemplo 5 Considere a base γ = {A1 , A2 , A3 , A4 } de M2 (IR), onde


à ! à ! à ! à !
1 0 1 1 1 0 1 0
A1 = , A2 = , A3 = , A4 = .
0 0 0 0 0 1 1 0

Tomando o funcional linear tr : M2 (IR) −→ IR, temos tr = λ1 g1 + λ2 g2 + λ3 g3 + λ4 g4 , onde


{g1 , g2 , g3 , g4 } é a base dual de γ. Então, λj = tr Aj , para j = 1, 2, 3, 4, e assim tr =
g1 + g2 + 2g3 + g4 .

Definição 6 Sejam V um espaço vetorial não nulo e W um subespaço de V . Dizemos que W


é um hiperplano de V se W é um subespaço próprio maximal de V , ou seja, se W 6= V e se
não existe nenhum subespaço W1 de V tal que W ( W1 6= V .

Exemplo 7 Se V é um espaço vetorial de dimensão finita n, então os hiperplanos de V são


exatamente os subespaços de V de dimensão n − 1.

Exemplo 8 V = {f ∈ F(IR) | f (0) = 0} é um hiperplano de F(IR). De fato, se V1 é um


subespaço de V tal que V ( V1 , então existe f0 ∈ V1 tal que f0 (0) = a 6= 0. Tomando agora
g ∈ F(IR), arbitrária, e b = g(0), temos que g − ba−1 f0 ∈ V e daı́ g − ba−1 f0 ∈ V1 . Como
f0 ∈ V1 , devemos ter g ∈ V1 e assim V1 = F(IR).

Teorema 9 Sejam V um espaço vetorial (não nulo) e W um subespaço de V . Então, W é um


hiperplano de V se, e somente se, W é o núcleo de algum funcional linear não nulo em V .

Demonstração. Suponhamos que W = ker f para algum f ∈ V ∗ não nulo e tomemos W1


subespaço de V tal que W ( W1 . Tomando agora u ∈ W1 − W , temos f (u) 6= 0. Dado v ∈ V ,
tomemos λ = f (v)f (u)−1 ∈ K e v1 = v − λu. Assim, f (v1 ) = f (v) − λf (u) = f (v) − f (v) = 0,
ou seja, v1 ∈ W . Logo, v1 ∈ W1 e portanto v ∈ W1 . Segue então que W1 = V .
Suponhamos agora que W é um hiperplano de V . Tomando v0 ∈ V − W , temos V =
W ⊕ hv0 i. Logo, dado v ∈ V , existem únicos wv ∈ W e λv ∈ K tais que v = wv + λv v0 .
Definamos então
f : V −→ K
.
v 7−→ f (v) = λv
Temos que f é um funcional linear não nulo em V e ker f = W . ¤

Definição 10 Sejam V um espaço vetorial e S ⊆ V . Definimos o anulador de S, denotado


por S 0 , como sendo
S 0 = {f ∈ V ∗ | f (s) = 0, ∀ s ∈ S}.

6
Não é difı́cil ver que S 0 é um subespaço de V ∗ . Observe que se f ∈ V ∗ , então vale:
f ∈ S 0 ⇐⇒ S ⊆ ker f .Como consequência disto segue que {0V }0 = V ∗ e V 0 = {0V ∗ }.

Observação 11 Sendo V um espaço vetorial e S, S1 e S2 subconjuntos não vazios de V , com


S1 ⊆ S2 , temos S20 ⊆ S10 e hSi0 = S 0 .

Exemplo 12 Considere o subconjunto S = {v1 , v2 } de IR3 , onde v1 = (1, 1, 0) e v2 = (0, 1, 1).


Para calcular S 0 , tomemos v ∈ IR3 tal que {v1 , v2 , v} seja uma base de IR3 (um exemplo de
tal vetor é v = (0, 1, 0)). Sendo β = {v1 , v2 , v}, tomemos β ∗ = {f1 , f2 , f } a base de β. Temos
f (x, y, z) = y − x − z. Dado g ∈ S 0 , g = λ1 f1 + λ2 f2 + λf , com λ1 , λ2 , λ ∈ IR, e assim
0 = g(v1 ) = λ1 e 0 = g(v2 ) = λ2 . Por outro lado, como f (v1 ) = f (v2 ) = 0, temos f ∈ S 0 .
Assim, S 0 = hf h.

Teorema 13 Sejam V um espaço vetorial (não nulo) de dimensão finita e W um subespaço


de V . Então, dim W + dim W 0 = dim V .

Demonstração. Se W = {0V } ou W = V , é imediato. Suponhamos então dim W = l, com


0 < l < n = dim V . Sendo {v1 , . . . , vl } uma base de W , tomemos vl+1 , . . . , vn ∈ V tais que
β = {v1 , . . . , vl , vl+1 , . . . , vn } seja uma base de V . Tomando β ∗ = {f1 , . . . , fl , fl+1 , . . . , fn } a
base dual de β, mostremos que {fl+1 , . . . , fn } é uma base de W 0 . De fato, como fi (vj ) = 0
para j = 1, . . . , l e i = l + 1, . . . , n, temos γ ⊂ W 0 . Ademais, γ é LI, uma vez que γ ⊂ β ∗ .
Tomemos agora g ∈ W 0 , arbitrário. Então,
n
X l
X n
X
g= g(vi )fi = g(vi )fi + g(vi )fi = g(vl+1 )fl+1 + . . . + g(vn )fn ∈ hγi
i=1 i=1 i=l+1

o que conclui a demonstração. ¤

Corolário 14 Se W é um subespaço de dimensão l de um espaço vetorial de dimensão n, então


W é a interseção de n − l hiperplanos de V .

Demonstração. Temos dim W 0 = n − l. Sendo {g1 , . . . , gn−l } uma base de W 0 , tomemos


T
U = n−l 0 0 0
j=1 ker gj . Claramente, W ⊆ U e daı́ U ⊆ W . Como {g1 , . . . , gn−l } ⊂ U , devemos ter
T n−l
U 0 = W 0 e assim dim W = dim U . Segue então que W = U = j=1 ker gj . ¤

Corolário 15 Se W1 e W2 são subespaços de um espaço vetorial de dimensão finita, então


vale: W1 = W2 ⇐⇒ W10 = W20 .

Demonstração. W1 = W2 =⇒ W10 = W20 é imediato. Para mostrar a recı́proca, suponhamos


W10 = W20 . Segue então que W10 ⊆ (W1 + W2 )0 . Como a inclusão contrária é válida, temos
W10 = (W1 + W2 )0 e daı́ dim W1 = dim(W1 + W2 ). Logo, W1 = W1 + W2 e assim W2 ⊆ W1 .
Analogamente, temos W1 ⊆ W2 . ¤

7
Observação 16 O corolário anterior é válido mesmo sem a hipótese de dimensão finita.
Seja V um K-espaço vetorial e considere o seu espaço dual V ∗ . Podemos definir o espaço
dual de V ∗ , o qual chamamos de espaço bidual de V e denotamos por V ∗∗ .
Fixado v ∈ V , considere a aplicação Lv : V ∗ −→ K, definida por Lv (f ) = f (v). Temos que
Lv ∈ V ∗∗ , pois Lv (f + g) = (f + g)(v) = f (v) + g(v) = Lv (f ) + Lv (g) e Lv (λf ) = (λf )(v) =
λf (v) = λLv (f ) para quaiquer f , g ∈ V ∗ .
Considerando agora aplicação
ψ: V −→ V ∗∗
v 7−→ ψ(v) = Lv
temos que ψ é uma transformação linear injetora. De fato, dados v1 , v2 ∈ V e λ ∈ K, temos
Lv1 +v2 (f ) = f (v1 + v2 ) = f (v1 ) + f (v2 ) = Lv1 (f ) + Lv2 (f ) = (Lv1 + Lv2 )(f )
e
Lλv1 (f ) = f (λv1 ) = λf (v1 ) = λLv1 (f ) = (λLv1 )(f )
para todo f ∈ V ∗ , donde Lv1 +v2 = Lv1 + Lv2 e Lλv1 = λLv1 .
Tomando agora v ∈ ker ψ, temos Lv = 0V ∗∗ e assim f (v) = Lv (f ) = 0 para todo f ∈ V ∗ .
Logo, devemos ter v = 0V .
Supondo agora dim V finita, temos dim V = dim V ∗ = dim V ∗∗ e assim ψ é sobrejetora.
Logo, existe uma identificação entre os elementos de V e os de V ∗∗ , quando dim V é finita.
Teorema 17 Se V é um espaço vetorial de dimensão finita, então toda base de V ∗ é dual de
algum base de V .
Demonstração. Como dim V é finita, a aplicação
ψ: V −→ V ∗∗
v 7−→ ψ(v) = Lv
é um isomorfismo. Sendo β = {f1 , f2 , . . . , fn } uma base de V ∗ , considere a sua base dual
β ∗ = {L1 , L2 , . . . , Ln } em V ∗∗ . Tomando v1 = ψ −1 (L1 ), . . . , vn = ψ −1 (Ln ), temos que γ =
{v1 , v2 , . . . , vn } é uma base de V e Li = Lvi para i = 1, 2, . . . , n. Ademais, fi (vj ) = Lvj (fi ) =
Lj (fi ) = δij , donde concluı́mos que β = γ ∗ . ¤
Teorema 18 Sejam V um espaço vetorial de dimensão finita e W um subespaço de V . Então
dim W = dim W 00 e W 00 = ψ(W ) = {Lv | v ∈ W }.
Demonstração. Temos dim W + dim W 00 = dim V e também dim W 0 + dim W 00 = dim V ∗ .
Como dim V ∗ = dim V , devemos ter dim W = dim W 00 .
Dados v ∈ W e f ∈ W 0 , temos que Lv (f ) = f (v) = 0 e assim Lv ∈ W 00 . Logo, ψ(W ) ⊆
W 00 . Além disso, como ψ é um isomorfismo, dim ψ(W ) = dim W e daı́ dim ψ(W ) = dim W 00 .
Segue então que ψ(W ) = W 00 . ¤

8
POLINÔMIO CARACTERÍSTICO E POLINÔMIO MINIMAL

Seja K um corpo.

Definição 19 Seja f (x) = an xn + . . . + a1 x + a0 ∈ K[x]. Se A é uma matriz quadrada sobre


K e T é um operador linear sobre um K-espaço vetorial V , definimos:
a) f (A) = an An + . . . + a1 A + a0 I;
b) f (T ) : V −→ V por f (T ) = an T n + . . . + a1 T + a0 IV .

Se f (A) = 0, dizemos que o polinômio f (x) anula a matriz A. Se f (T ) = 0, dizemos que o


polinômio f (x) anula o operador linear T .

Exemplo 20 Sejam K um corpo, V um K-espaço vetorial e f (x) = c um polinômio constante


em K[x]. Então, se T : V −→ V é um operador linear qualquer, então f (T ) = cIV . A é uma
matriz quadrada qualquer sobre K, então f (A) = cI.
" #
1 2
Exemplo 21 Sejam f (x) = x3 + x + 2 ∈ IR[x] e A = . Temos f (A) = A3 + A + 2I2 .
0 1

Exemplo 22 Sejam g(x) = x2 − 2x + 1 ∈ IR[x] e

T : IR2 −→ IR2
.
(x, y) 7−→ T (x, y) = (x, x + y)

Temos g(T )(x, y) = (0, 0) para todo (x, y) ∈ IR2 , ou seja, g(T ) = 0. Logo, g(x) anula T .

Proposição 23 Sejam f (x), g(x) ∈ K[x], A uma matriz quadrada sobre K e T : V −→ V um


operador linear. Então valem:
a) Se h(x) = f (x) + g(x), então h(A) = f (A) + g(A) e h(T ) = f (T ) + g(T ).
b) Se λ ∈ K e h1 (x) = λf (x), então h1 (A) = λf (A) e h1 (T ) = λf (T ).
c) Se h2 (x) = f (x)g(x), então h2 (A) = f (A)g(A) = g(A)f (A) e h2 (T ) = f (T )g(T ) =
g(T )f (T ).
d) Se P é uma matriz (de mesma ordem que A) sobre K inversı́vel, então f (P −1 AP ) =
P −1 f (A)P . Particularmente, se A e B são matrizes semelhantes, então f (A) = 0 se, e so-
mente se, f (B) = 0.
e) Se dim V é finita e β é uma base de V , então [f (T )]β = f ([T ]β ). Particularmente, f (x)
anula T se, e somente se, f ([T ]β ) = 0 para alguma base β de V .
f ) Existe n ∈ N tal que An é combinação linear de I, A, . . . , An−1 . Consequentemente, existe
algum polinômio mônico que anula A. Se dim V é finita, então existe algum polinômio mônico
que anula T .

9
Definição 24 Sejam A uma matriz quadrada sobre K e T um operador linear sobre um K-
espaço vetorial V de dimensão finita. Definimos:
a) O polinômio minimal de A, denotado por mA (x), como sendo o polinômio mônico de K[x]
de menor grau possı́vel que anula A;
b) O polinômio minimal de T , denotado por mT (x), como sendo o polinômio mônico de K[x]
de menor grau possı́vel que anula T .

Sendo A ∈ Mn (K), observa-se que o polinômio minimal de A é bem definido, ou seja, ele é
único nas condições da definição. Também não é difı́cil ver que

∂mA (x) = min{k ∈ N | Ak ∈ hI, A, . . . , Ak−1 i em Mn (K)}.

Exemplo 25 Se In ∈ Mn (K) é a matriz identidade, então mIn (x) = x − 1. Se dim V é finita


e I : V −→ V é o operador ideantidade, então mI (x) = x − 1 .

Exemplo 26 O polinômio minimal do operador T : IR2 −→ IR2 , definido por T (x, y) =


(−y, x), é mT (x) = x2 + 1.

Sejam V um K-espaço vetorial de dimensão finita e β uma base qualquer de V . Se f (x) ∈


K[x] e T : V −→ V é um operador linear, sabemos que [f (T )]β = f ([T ]β ). Assim, os polinômios
de K[x] que anulam T são exatamete os que anulam [T ]β . Logo, mT (x) = m[T ]β (x).
Se A, B ∈ Mn (K) são matrizes semelhantes e P ∈ Mn (K) é uma matriz inversı́vel tal que
A = P −1 BP , então f (A) = P −1 f (B)P para todo f (x) ∈ K[x]. Assim, os polinômios de K[x]
que anulam A são exatamete os que anulam B. Logo, mA (x) = mB (x).

Proposição 27 Sejam A uma matriz quadrada sobre K e T um operador linear sobre um K-


espaço vetorial V de dimensão finita. Se f (x) ∈ K[x], então:
a) f (A) = 0 se, e somente se, mA (x) divide f (x) em K[x];
b) f (T ) = 0 se, e somente se, mT (x) divide f (x) em K[x].

Definição 28 Seja A uma matriz n × n sobre K. Definimos o polinômio caracterı́stico de A,


denotado por pA (x), como sendo pA (x) = det(xIn − A).

Lema 29 Matrizes semelhantes têm o mesmo polinômio caracterı́stico.

Demonstração. Supondo A e B matrizes quadradas de mesma ordem sobre um corpo K e


P uma matriz (sobre K e de mesma ordem) inversı́vel tais que A = P −1 BP , temos pA (x) =
det(xI − A) = det(xP −1 P − P −1 BP ) = det(P −1 (xI − B)P ) = det(xI − B) = pB (x). ¤

Seja T : V −→ V um operador linear, com dim V = n. Se β e γ são duas bases ordenadas


de V , temos que [T ]β e [T ]γ são matrizes n × n sobre K semelhantes, donde têm o mesmo
polinômio caracterı́stico. Daı́, podemos dar a seguinte definição.

10
Definição 30 Sejam T : V −→ V um operador linear, com dim V finita. Definimos o
polinômio caracterı́stico de T , denotado por pT (x), como sendo

pT (x) = p[T ]β (x) = det(xIn − [T ]β )

onde n = dim V e β é uma base de V .

Observe que ∂pT (x) = n = dim V .

Exemplo 31 Seja T : IR3 −→ IR3 , definido por T (x, y, z) = (x + z, y − 2z, y). Sendo β a base
canônica de IR3 , temos  
1 0 1
 
[T ]β =  0 1 −2 
0 1 0
e daı́ ¯ ¯
¯ x−1 0 −1 ¯
¯ ¯
¯ ¯
pT (x) = det(xI3 − [T ]β ) = ¯ 0 x − 1 2 ¯ = x3 − 2x2 + 3x − 2.
¯ ¯
¯ 0 −1 x ¯

Exemplo 32 Se A ∈ Mn (K), considere o K-espaço vetorial Mn×1 (K) e o operador linear

TA : Mn×1 (K) −→ Mn×1 (K)


.
X 7−→ TA (X) = AX

Sendo β a base canônica Mn×1 (K), observa-se que [TA ]β = A, e consequentemente mTA (x) =
mA (x) e pTA (x) = pA (x).

Teorema 33 (Cayley-Hamilton) Se K é um corpo e A ∈ Mn (K), então pA (A) = 0, ou


seja, o polinômio caracterı́stico de A anula A.

Demonstração. Considere A = (aij )n×n e pA (x) = det(xIn −A) = xn +λn−1 xn−1 +. . .+λ1 x+λ0 .
Temos  
x − a11 −a12 · · · −a1n
 
 −a21 x − a22 · · · −a2n 
xIn − A =  .. .. ..  .
... 
 . . . 
−an1 −an2 · · · x − ann
Sendo B(x) a adjunta clássica de xIn − A, temos B(x) = Bn−1 xn−1 + Bn−2 xn−2 + . . . + B1 x + B0
e (xIn − A)B(x) = pA (x)In , onde Bi ∈ Mn (K). Como

(xIn − A)B(x) = Bn−1 xn + (Bn−2 − ABn−1 )xn−1 + . . . + (B0 − AB1 )x − AB0

11
segue que Bk − ABk+1 = λk+1 In , para 0 ≤ k ≤ n − 2, Bn−1 = In e −AB0 = λ0 In . Logo,
An Bn−1 = An , An−1 Bn−2 − An Bn−1 = λn−1 An−1 , An−2 Bn−3 − An−1 Bn−2 = λn−2 An−2 , . . . ,
AB0 − A2 B1 = λ1 A e −AB0 = λ0 In . Somando-se estas últimas igualdades, chegamos a

pA (A) = An + λn−1 An−1 + . . . + λ1 A + λ0 In = 0.

Corolário 34 Se K é um corpo e A ∈ Mn (K), então mA (x) divide pA (x) em K[x]. Conse-


quentemente, ∂mA (x) ≤ n.

Corolário 35 Se V é um K-espaço vetorial de dimensão n e T : V −→ V é um operador


linear, então pT (T ) = 0. Consequentemente, mT (x) divide pT (x) e ∂mT (x) ≤ n.

12
SOMAS DIRETAS E SUBESPAÇOS INVARIANTES

Definição 36 Sejam V um espaço vetorial e W1 , W2 , . . . , Wn subespaços de V . Dizemos que


W1 , W2 , . . . , Wn são subespaços independentes se para w1 ∈ W1 , w2 ∈ W2 , . . . , wn ∈ Wn a
igualdade w1 + w2 + . . . + wn = 0V vale somente se w1 = w2 = . . . = wn = 0V .

Exemplo 37 Sendo F(IR) o espaço vetorial real das funções de IR em IR, temos que W1 =
{f ∈ F(IR) | f é par} e W2 = {f ∈ F (IR) | f é ı́mpar} são subespaços independentes de F(IR).

Exemplo 38 Se {v1 , v2 , . . . , vn } é um subconjunto LI de um espaço vetorial V , então W1 =


hv1 i, W2 = hv2 i,. . . , Wn = hvn i são subespaços independentes de V .

Exemplo 39 Os subespaços
*Ã !+ *Ã !+
0 1 0 0
W1 = {A ∈ M2 (K) | A é diagonal} , W2 = e W3 =
0 0 1 0

de M2 (K) são independentes.

Exemplo 40 Os subespaços W1 = h(1, 1, 0, 0), (1, 0, −1, 0)i, W2 = h(1, 0, 0, 1)i e


W3 = h(0, 1, −1, −1)i de IR4 não são independentes, pois sendo v1 = (2, 1, −1, 0), v2 =
(−2, 0, 0, −2) e v3 = (0, −1, 1, 2), temos v1 ∈ W1 , v2 ∈ W2 , v3 ∈ W3 e v1 + v2 + v3 = (0, 0, 0, 0).

Se W1 , W2 , . . . , Wn subespaços independentes de um spaço vetorial V , dizemos que a soma


W1 +W2 +. . .+Wn é direta e a denotamos por W1 ⊕W2 ⊕. . .⊕Wn . Sendo W = W1 ⊕W2 ⊕. . .⊕Wn ,
temos que cada elemento w ∈ W possui um única expressão na forma w = v1 + v2 + . . . + vn ,
com vi ∈ Wi .

Proposição 41 Sejam V um espaço vetorial e W1 , W2 , . . . , Wn subespaços não nulos de V .


Então são equivalentes:
i) W1 , W2 , . . . , Wn subespaços são independentes.
ii) (W1 + . . . + Wj−1 + Wj+1 + . . . + Wn ) ∩ Wj = {0V } para todo j = 1, . . . , n.
iii) (W1 + . . . + Wj−1 ) ∩ Wj = {0V } para todo j = 2, . . . , n.
iv) Se S1 , S2 , . . . , Sn são subconjuntos LI de W1 , W2 , . . . , Wn , respectivamente, então
S1 ∪ S2 ∪ . . . ∪ Sn é LI.

Demonstração. i) =⇒ ii) Se v ∈ (W1 + . . . + Wj−1 + Wj+1 + . . . + Wn ) ∩ Wj , então v =


w1 + . . . + wj−1 + wj+1 + . . . + wn , onde wi ∈ Wi para i ∈ {1, . . . , j − 1, j + 1, . . . , n}. Logo,
w1 + . . . + wj−1 + (−v) + wj+1 + . . . + wn = 0V e daı́, pela independência dos Wi ’s, devemos ter
w1 = . . . = wj−1 = wj+1 = . . . = wn = v = 0V . Logo, temos (ii).

13
ii) =⇒ iii) É imediato.

iii) =⇒ iv) Como W1 ∩ W2 = {0V }, temos que S1 ∪ S2 é LI. Observando agora que S1 ∪ S2 ⊂
W1 + W2 e que (W1 + W2 ) ∩ W3 = {0V }, concluı́mos que S1 ∪ S2 ∪ S3 é LI. Seguindo com esta
idéia, concluı́mos que S1 ∪ S2 ∪ . . . ∪ Sn é LI.

iv) =⇒ i) Suponhamos w1 ∈ W1 , w2 ∈ W2 , . . . , wn ∈ Wn tais que w1 + w2 + . . . + wn = 0V .


Para cada i = 1, 2, . . . , n, tomemos λ1 ∈ k e vi ∈ Vi − {0V } tal que wi = λi vi , Por hipótese, o
conjunto {v1 , v2 , . . . , vn } é LI. Daı́, como λ1 v1 + λ2 v2 + . . . + λn vn = 0V , devemos ter λi = 0 e
assim wi = 0V para todo i = 1, 2, . . . , n. ¤

Definição 42 Sejam V um espaço vetorial e T : V −→ V um operador linear. Dizemos que


um subespaço W de V é T -invariante se T (W ) ⊆ W , ou seja, se T (w) ∈ W para todo w ∈ W .

Exemplo 43 Sejam

T : IR3 −→ IR3
(x, y, z) 7−→ T (x, y, z) = (x + z, y + z, 3x − z)

e W = {(x, y, z) ∈ IR3 | x = y}. Então W é T -invariante.

Exemplo 44 Sendo T : V −→ V um operador linear, temos que {0V }, V , ker T e Im T são


todos subespaços T -invariantes. Se W é um subespaço T -invariante de V e f (x) ∈ K[x], então
W é também f (T )-invariante.

Exemplo 45 Sendo
S: IR2 −→ IR2
(x, y) 7−→ S(x, y) = (−y, x)
os únicos subespaços S-invariantes de IR2 são {(0, 0)} e IR2 .

Sejam V um espaço vetorial de dimensão finita e T : V −→ V um operador linear. Sendo


W um subespaço T -invariante de V , temos que

TW = T |W : W −→ W
w 7−→ TW (w) = T (w)

é um operador linear de W , chamado de restrição de T a W . Consideremos β = {w1 , . . . , wr }


uma base de W e β1 = {w1 , . . . , wr , wr+1 , . . . , wn } uma base de V contendo β. Temos que
à !
[T ]β A
[T ]β1 =
0 B

14
onde A ∈ Mr×(n−r) (K) e B ∈ Mn−r (K). Usando propriedades de determinantes, concluı́mos
que pT (x) = pTW (x)pB (x). Quanto aos polinômios minimais de T e TW , observe que para todo
w ∈ W temos TW (w) = T (w) e assim MT (TW )(w) = mT (T )(w) = 0V . Logo, mT (x) anula TW
e assim mTW (x) divide mT (x).
Supondo agora que V = W1 ⊕ W2 ⊕ . . . ⊕ Wm , onde cada Wi é T -invariante, consideremos
Ti = T |Wi para cada i = 1, 2, . . . , m. Sendo β1 , β2 , . . . , βm bases ordenadas dos subespaços
W1 , W2 , . . . , Wm , respectivamente, e β = β1 ∪ β2 ∪ . . . βm , temos
 
[T1 ]β1 0 ··· 0
 
 0 [T2 ]β2 · · · 0 
[T ]β = 
 .. .. ... .. 

 . . . 
0 0 · · · [Tm ]βm

e daı́ segue que pT (x) = pT1 (x)pT2 (x) . . . pTm (x).

Exemplo 46 Considere os subespaços

W1 = h(1, 0, 0, 1), (1, 1, 0, 0)i e W2 = {(x, y, z, t) ∈ IR4 | x = t = 0}

de IR4 e o operador linear T : IR4 −→ IR4 definido por

T (x, y, z, t) = (2t, 2y + 4t − 3x − z, 4y + 4t − 4x − 2z, x)

Observe que W1 e W2 são independentes e T -invariantes. Tomando β1 = {(1, 0, 0, 1), (1, 1, 0, 0)}
e β2 = {(0, 1, 0, 0), (0, 0, 1, 0)}, que são bases de W1 e W2 , respectivamente, e β = β1 ∪ β2 , temos
 
1 1 0 0
 1 −1 0 0 
 
[T ]β =   .
 0 0 2 −1 
0 0 4 −2

Tomando agora T1 = T| W1 e T2 = T |W2 , temos


à ! à !
1 1 2 −1
[T1 ]β1 = e [T2 ]β2 = .
1 −1 4 −2

15
AUTOVALORES E AUTOVETORES

Definição 47 Sejam V um K-espaço vetorial e T : V −→ V um operador linear. Dizemos


que λ ∈ K é um autovalor (ou valor caracterı́stico) de T se existe v ∈ V , com v 6= 0V , tal que
T (v) = λv. Neste caso, v é chamado de autovetor (ou vetor caracterı́stico) de T .

Sendo λ ∈ k um autovalor de T , o conjunto VT,λ = {v ∈ V | T (v) = λv} é um subespaço de


V chamado de auto-espaço (ou espaço caracterı́stico) de associado ao autovalor λ.

Exemplo 48 Se V é um espaço vetorial não nulo, então λ = 1 é o único autovalor do operador


identidade IV . Observe que um operador linear é não injetivo se, e somente se, possui 0 como
autovalor.

Exemplo 49 Todos os números reais são autovalores do operador linear


D : C ∞ (IR) −→ C ∞ (IR)
f 7−→ D(f ) = f 0
onde C ∞ (IR) é o espaço vetorial real de todas as funções de IR em IR infinitamente diferenciáveis.

Exemplo 50 O operador linear T : IR2 −→ IR2 , definido por T (x, y) = (x + y, 3x − y), possui
extamente dois autovalores: λ1 = 2 e λ2 = −2. Temos também os seguintes auto-espaços:
V2 = {v ∈ IR2 | T (v) = 2v} = h(1, 1)i e V−2 = {v ∈ IR2 | T (v) = −2v} = h(1, −3)i.

Exemplo 51 O operador linear


S: IR2 −→ IR2
(x, y) 7−→ S(x, y) = (−y, x)
não possui autovalores. Já o operador linear
F : C2 −→ C2
(x, y) 7−→ S(x, y) = (−y, x)
possui autovalores dois autovalores, a saber, λ1 = i e λ2 = −i.

Sejam V um K-espaço vetorial de dimensão finita n e T : V −→ V um operador linear.


Sendo λ ∈ K, considere o operador linear λIV − T . Não é difı́cil ver que um elemento v ∈ V
satisfaz a igualdade T (v) = λv se, e somente se, v ∈ ker(IV − T ). Logo, λ é autovalor de T se,
e somente se, o operador linear IV − T não é injetivo. Como V tem dimensão finita, temos que
IV − T é inversı́vel se, e somente se, é injetivo. Logo, para qualquer base β de V , temos que
det[λIV − T ]β = 0 se, e somente se, λ é autovalor de T . Mas, como

pT (λ) = det(λIn − [T ]β ) = det(λ[IV ]β − [T ]β ) = det[λIV − T ]β

concluı́mos que λ é autovalor de T se, e somente se, pT (λ) = 0. Temos então o seguinte
resultado.

16
Proposição 52 Sejam V um K-espaço vetorial de dimensão finita n e T : V −→ V um
operador linear. Se λ ∈ k, são equivalentes:
i) λ é autovalor de T .
ii) λ é raiz de pT (x).
iii) O operador linear λIV − T é não injetivo.

O próximos resultados mostram uma importante relação entre os autovalores e e os polinômios


anuladores de um operador linear.

Lema 53 Sejam V um K-espaço, T : V −→ V um operador linear, f (x) ∈ K[x] e λ ∈ K.


Então valem:
a) Se T (V ) = λv para algum v ∈ v, então f (T )(v) = f (λ)v.
b) Se λ é autovalor de T , então f (λ) é autovalor de f (T ).
c) Se f (x) anula T e λ é autovalor de T , então f (λ) = 0.

Demonstração. a) Sendo f (x) = an xn + . . . + a1 x + a0 , temos f (T )(v) = an T n (v) + . . . +


a1 T (V ) + a0 v. Usando indução em m, mostra-se facilmente que T m (v) = λm v, o que conclui a
demonstração do ı́tem (a).
b) Segue imediatamente de (a).
c) Segue imediatamente de (b). ¤

Corolário 54 Se V é um K-espaço vetorial de dimensão finita e T : V −→ V é um operador


linear, então os polinômios caracterı́stico e minimal de T possuem as mesmas raı́zes, a menos
de multiplicidade.

Corolário 55 Sejam V um K-espaço vetorial e T : V −→ V um operador linear. Sendo λ1 ,


λ2 , . . . , λm ∈ K os distintos autovalores de T , então os respectivos auto-espaços W1 , W2 , . . . ,
Wn são independentes.

Demonstração. Fixe i ∈ {1, 2, . . . , m} e considere o polinômio


Y
fi (x) = (x − λj ) ∈ K[x] .
1≤j≤m
j6=i

Supondo agora v1 ∈ W1 , . . . , vm ∈ Wm tais que v1 + . . . + vm = 0V , temos

0V = fi (T )(v1 + . . . + vm ) = fi (T )(v1 ) + . . . + fi (T )(vm ) = fi (λ1 )(v1 ) + . . . + fi (λm )(vm )

e daı́ concluı́mos que vi = 0V , pois fi (λi ) 6= 0 e fi (vj ) = 0 para j 6= i. ¤

Vejamos agora os conceitos de autovalores e autovetores para matrizes. Sendo A uma matriz
quadrada sobre um corpo K, definimos os autovalores de A como sendo as raı́zes de pA (x) (o

17
polinômio caracterı́stico de A). É importante observar que nemÃtodos os !autovalores de A
0 1
precisam pertencer a K. Por exemplo, os autovalores da matriz são os números
−1 0
complexos i e −i, que não são reais.
Considerando o operador linear TA (sobre o K-espaço vetorial Mn×1 (K)) definido no Exem-
plo 32, observamos que um elemento λ ∈ K é um autvalor de A se, e somente se, é um autovalor
de TA . Logo, λ é autovalor de A se, e somente se, existe alguma matriz X ∈ Mn×1 (K) não
nula tal que AX = λX. Uma tal matriz X é dita ser um autovetor da matriz A associado a λ.
Assim, os autovetores de A são exatamente os autovetores do operador TA .
Usando o operador linear TA , não é difı́cil ver que os resultados acima valem também para
autovalores e autovetores de matrizes.

18
DIAGONALIZAÇÃO E TRIANGULAÇÃO

Definição 56 Sejam V um espaço vetorial de dimensão finita e T : V −→ V um operador


linear. Dizemos que T é diagonalizável se existe alguma base de V formada por autovetores
de T . Dizemos que T é triangulável se existe alguma base β de V tal que [T ]β é uma matriz
triangular.

Observe que se β é base de V , então todo elemento de β é autovetor de T se, e somente se,
[T ]β é uma matriz diagonal.

Exemplo 57 Se V em dimensão finita, então todo operador da forma λIV , com λ escalar,
é diagonalizável. Como toda matriz diagonal é também triangular, temos que todo operador
diagonalizável é também triangulável.

Exemplo 58 O operador linear T : IR2 −→ IR2 , definido por T (x, y) = (x + y, 3x − y), é


diagonalizável.

Exemplo 59 O operador linear T : IR2 −→ IR2 , definido por T (x, y) = (x + y, y), é trian-
gulável, mas não é diagonalizável.

Exemplo 60 O operador linear

S: IR2 −→ IR2
(x, y) 7−→ S(x, y) = (−y, x)

não é triangulável.

Lema 61 Sejam V um K-espaço vetorial de dimensão finita e T : V −→ V um operador linear


cujo polinômio minimal tem a forma mT (x) = (x − λ1 )(x − λ2 ) . . . (x − λn ), com λ1 , λ2 , . . . ,
λn ∈ K (não necessariamente distintos). Se W é um subespaço próprio T -invariante de V ,
então existe v ∈ V − W tal que tal que T (v) − λi v ∈ W para algum λi .

Demonstração. sejam u ∈ V − W e f (x) ∈ K[x] um polinômio não nulo de menor grau possı́vel
tal que f (T )(u) ∈ W . Como u ∈ / W , temos que f (x) não pode ser constante. Tomando agora
q(x), r(x) ∈ K[x], com r(x) = 0 ou ∂r(x) < ∂f (x), tais que mT (x) = q(x)f (x) + r(x), temos
r(T ) = −q(T )f (T ) e assim r(T )(u) ∈ W . Segue da minimalidade do grau de f (x) que r(x)
deve ser o polinômio nulo. Logo, f (x) divide mT (x) e portanto f (x) = (x − λi )h(x) para algum
h(x) ∈ K[x] e algum λi . Tomando então v = h(T )(u), temos v ∈ / W (pois ∂h(x) < ∂f (x)) e
T (v) − λi v = (T − λi IV )h(T )(u) = f (T )u ∈ W . ¤

19
Outra demonstração. Tomemos u0 ∈ V − W e

u1 = (T − λ1 I)(u0 ) , u2 = (T − λ2 I)(u1 ) , ... un = (T − λn I)(un−1 ).

Observe que un = mT (T )(u0 ) = 0V e assim un ∈ W . Tomando então i = min{j ∈ {1, 2, . . . , n} |


uj ∈ W } e v = ui−1 , temos que v ∈
/ W , mas (T − λi I)(v) = ui ∈ W . ¤

Teorema 62 Sejam V um K-espaço vetorial de dimensão finita e T : V −→ V um operador


linear. Considere λ1 , λ2 , . . . , λm ∈ K os distintos autovalores de T e W1 , W2 , . . . , Wm
respectivos auto-espaços, com di = dim Wi . Então são equivalentes:
i) T é diagonalizável.
ii) Existe β base de V tal que [T ]β é uma matriz diagonal na qual cada λi aparece exatamente
di vezes.
iii) O polinômio caracterı́stico de T é pT (x) = (x − λ1 )d1 (x − λ2 )d2 . . . (x − λm )dm .
iv) dim V = d1 + d2 + . . . + dm .
v) V = W1 ⊕ W2 ⊕ . . . ⊕ Wm .
vi) O polinômio minimal de T é mT (x) = (x − λ1 )(x − λ2 ) . . . (x − λm ).

Demonstração. i) =⇒ ii) Se T é diagonalizável, então existe algum base de V formada por


autovetores de T , donde concluı́mos que V = W1 ⊕ W2 ⊕ . . . ⊕ Wm . Sendo então βi uma base
do auto-espaço Wi , para 1 ≤ i ≤ m, temos que β = β1 ∪ β2 ∪ . . . ∪ βm é uma base de V que
satisfaz as condições de (ii).

ii) =⇒ iii) e iii) =⇒ iv) Imediatos.

iv) =⇒ v) Basta observar que dim(W1 ⊕ W2 ⊕ . . . ⊕ Wm ) = d1 + d2 + . . . + dm .

v) =⇒ vi) Supondo (iv), dado v ∈ V , existem v1 ∈ W1 , v2 ∈ W2 , . . . , vm ∈ Wm tais que


v = v1 + v2 + . . . + vm . Considere agora o polinômio f (x) = (x − λ1 )(x − λ2 ) . . . (x − λm ). Temos
então

f (T )(v) = f (T )(v1 ) + f (T )(v2 ) + . . . + f (T )(vm ) = f (λ1 )(v1 ) + f (λ2 )(v2 ) . . . + f (λm )(vm ) = 0V .

Logo, f (T ) = 0 e daı́ mT (x) divide f (x). Por outro lado, f (x) divide mT (x), uma vez que λ1 , λ2 ,
. . . , λm são as raı́zes de mT (x) em K. Assim, como f (x) e mT (x) são mônicos, devem ser iguais.

vi) =⇒ i) Suponhamos, por contradição, que T não seja diagonalizável. Daı́, W =


W1 ⊕ W2 ⊕ . . . ⊕ Wm deve ser um subespaço próprio de V . Como W é T -invariante, de-
vem existir, pelo lema anterior, v ∈ V − W e λ autovalor de T tais que w = (T − λIV )(v) ∈ W .

20
Tomando agora q(x) ∈ K[x] tal que mT (x) = (x − λ)q(x), temos T (q(T )(v)) = λq(T )(v)
e daı́ q(T )(v) ∈ W . Pelo algorı́tmo da divisão, existem h(x) ∈ K[x] e a ∈ K tais que
q(x) = h(x)(x − λ) + a. Daı́, q(T )(v) = h(T )(w) + av e assim av ∈ W . Mas, como v ∈ / W,
devemos ter a = 0 e portanto mT (x) = (x − λ)2 h(x), o que é uma contradição. Concluı́mos
então que T deve ser diagonalizável. ¤

Teorema 63 Sejam V um K-espaço vetorial de dimensão finita e T : V −→ V um operador


linear. Então são equivalentes:
i) T é triangulável.
ii) O polinômio minimal de T tem a forma mT (x) = (x − λ1 )(x − λ2 ) . . . (x − λm ), com
λ1 , λ2 , . . . , λm ∈ K não necessariamente distintos.

Demonstração. i) =⇒ ii) É imediato.

ii) =⇒ i) Tomemos v1 ∈ V não nulo tal que T (v1 ) = λi1 v1 e W1 = hv1 i. Temos que W1 é
T -invariante. Pelo Lema 61, se W1 6= V , então existe v2 ∈ V − W1 tal que T (v2 ) − λi2 v2 ∈ W1
para algum autovalor λi2 de T . Assim, T (v2 ) = a12 v1 + λi2 v2 , com a12 ∈ K, e daı́ W2 = hv1 , v2 i
é T -invariante. Novamente pelo Lema 61, se W2 6= V , então existe v3 ∈ V − W2 tal que
T (v3 ) − λi3 v3 ∈ W2 para algum autovalor λi3 de T . Assim, T (v3 ) = a13 v1 + a23 v2 + λi3 v3 , com
a13 , a23 ∈ K, e daı́ W3 = hv1 , v2 , v3 i é T -invariante. Seguindo com esta idéia, chegamos a uma
base β = {v1 , v2 , v3 , . . . , vn } de V tal que
 
a11 a12 a13 · · · a1n
 
 0 a22 a23 · · · a2n 
 
[T ]β = 
 0 0 a33 · · · a3n 

 .. .. .. . . . .. 
 . . . . 
0 0 0 · · · ann

com ajj = λij .

Exemplo 64 Considere o operador linear

T : IR4 −→ IR4
.
(x, y, z, t) 7−→ T (x, y, z, t) = (−t, x, y + 2t, z)

Temos pT (x) = mT (x) = x4 − 2x2 + 1 = (x − 1)2 (x + 1)2 . Logo, T é um operador linear


triangulável, mas não diagonalizável. Observe que os autovalores de T são λ1 = 1 e λ2 = −1,
e que (T − I)2 (T + I)2 = 0. Temos

(T − I)(x, y, z, t) = (−x − t, x − y, y − z + 2t, z − t)

21
e
(T + I)(x, y, z, t) = (x − t, x + y, y + z + 2t, z + t).
Tomemos v1 = (1, 1, −1, −1), o qual satisfaz T (v1 ) = v1 , e W1 = hv1 i. Tomemos também
/ W1 , (T + I)2 (v1 ) =
u1 = (1, 0, 0, 0), o qual não pertence a W1 . Temos (T + I)(v1 ) = (1, 1, 0, 0) ∈
/ W1 e (T − I)(T + I)2 (v1 ) = (−1, −1, 1, 1) ∈ W1 . Logo, tomamos v2 = (1, 2, 1, 0).
(1, 2, 1, 0) ∈
Sendo W2 = hv1 , v2 i, tomemos u2 = (0, 1, 0, 0) ∈ / W2 . Daı́, temos (T + I)(u2 ) = (0, 1, 1, 0) ∈
/ W2
2
e (T + I) (u2 ) = (0, 1, 2, 1) ∈ W2 . Logo, tomamos v3 = (0, 1, 1, 0). Para encerrar o processo,
basta tomarmos um vetor que não pertence a W3 = hv1 , v2 , v3 i. Um exemplo de tal vetor é
v4 = (0, 1, 0, 0).
Tomando a base β = {v1 , v2 , v3 , v4 } de IR4 e observando que T (v1 ) = v1 , T (v2 ) = −v1 + v2 ,
T (v3 ) = −v1 + v2 − v3 e T (v4 ) = 0v1 + 0v2 + v3 − v4 , temos
 
1 −1 −1 0
 0 1 1 0 
 
[T ]β =   .
 0 0 −1 1 
0 0 0 −1

Vejamos agora os conceitos de diagonalização e triangulação para matrizes. Sendo A uma


matriz quadrada sobre um corpo K, dizemos que A é diagonalizável (resp. triangulável) sobre
K se A é semelhante sobre K a uma matriz diagonal (resp. triangular). Claramente, toda
matriz diagonalizável sobre um corpo K é também triangulável sobre K. Observe que se T é
um operador linear sobre um K-espaço vetorial V de dimensão finita, então T é diagonalizável
(resp. triangulável) se, e somente se, [T ]β é uma matriz diagonalizável (resp. triangulável)
sobre K, para toda base β de V .
É importante observar que a diagonabilidade e a triangulabilidade
à !de uma matriz depende
0 1
do corpo que está sendo considerado. Por exemplo, a matriz é diagonalizável sobre
−1 0
o corpo C dos complexos, mas não é diagonalizável nem trianhulável sobre o corpo IR dos reais.
Considerando agora o operador linear TA (sobre o K-espaço vetorial Mn×1 (K)) definido
no Exemplo 32, observa-se que TA é diagonalizável (resp. triangulável) se, e somente se, A é
diagonalizável (resp. triangulável) sobre K. Do ponto de vista prático, sendo A uma matriz
diagonalizável (resp. triangulável) sobre K, podemos usar o operador TA para encontrar uma
matriz inversı́vel P sobre K tal que P −1 AP seja diagonal (resp. triangular).
Através da relação entre operadores lineares e matrizes, vê-se facilmente que os Teoremas
62 e 63 também valem para matrizes.

22
DECOMPOSIÇÃO PRIMÁRIA

Lema 65 Sejam V um espaço vetorial e T1 , T2 , . . . , Tn : V −→ V operadores linares tais


que Ti Tj = Tj Ti para quaisquer i, j ∈ {1, 2, . . . , n}. Considerando T = T1 T2 . . . Tn , tem-se
ker T1 + ker T2 + . . . + ker Tn ⊆ ker T .

Teorema 66 (Teorema da Decomposiçao Primária) Sejam V um K-espaço vetorial de


dimensão finita e T : V −→ V um operador linear. Se

mT (x) = p1 (x)n1 p2 (x)n2 . . . pr (x)nr

onde p1 (x), p2 (x), . . . , pr (x) são polinômios mônicos irredutı́veis e distintos de K[x], então:
a) V = W1 ⊕ W2 ⊕ . . . ⊕ Wr , onde Wi = ker pi (T )ni para i = 1, 2, . . . , r.
b) Cada Wi é T -invariante.
c) Wi * ker pi (T )ni −1 , e consequentemente o polinômio minimal de Ti = T |Wi é exatamente
pi (x)ni , para i = 1, 2, . . . , r.

Demonstração. Para cada i = 1, 2, . . . , r, tomemos fi (x) = mT (x)/pi (x)ni . Como f1 (x),


f2 (x), . . . , fr (x) são relativamente primos, devem existir g1 (x), g2 (x), . . . , gr (x) ∈ K[x] tais
que f1 (x)g1 (x) + f2 (x)g2 (x) + . . . + fr (x)gr (x) = 1. Tomando hi (x) = fi (x)gi (x) e Ei = hi (T ),
temos
• E1 + E2 + . . . + Er = I,
• Ei Ej = 0 para i 6= j,
• Ei2 = Ei para todo i = 1, 2, . . . , r.
Observe que (Im E1 ) + (Im E2 ) + . . . + (Im Er ) = V . Ademais, se vi ∈ Im Ei , para i = 1,
2, . . . , r, e v1 + v2 + . . . + vr = 0V , então 0V = Ei (v1 ) + Ei (v2 ) + . . . + Ei (vr ) = Ei (vi ) = vi ,
para i = 1, 2, . . . , r. Logo, V = (Im E1 ) ⊕ (Im E2 ) ⊕ . . . ⊕ (Im Er ).

a) Como pi (x)ni hi (x) = mT (x)gi (x), temos pi (T )ni Ei = 0 e daı́ Im Ei ⊆ Wi . Por outro
lado, se i 6= j, então pj (x)nj divide fi (x) e daı́ pj (x)nj divide hi (x). Logo, Wj ⊆ ker Ei . Assim,
para j = 1, 2, . . . , r e v ∈ Wj , temos v = E1 (v) + E2 (v) + . . . + Er (v) = Ej (v) ∈ Im Ej . Temos
então Wi = ImEi para i = 1, 2, . . . , r.
b) Como pi (T )ni e T comutam, temos que Wi = ker pi (T )ni é T -invariante.
c) Suponha que para algum i ∈ {1, 2, . . . , r} tenhamos Wi ⊆ ker pi (T )ni −1 . Consideremos então
o polinômio
mT (x)
h(x) = fi (x)pi (x)ni −1 = p1 (x)n1 . . . pi−1 (x)ni−1 pi (x)ni −1 pi+1 (x)ni+1 . . . pr (x)nr = .
pi (x)
Segue do lema anterior que V = W1 ⊕ W2 ⊕ . . . ⊕ Wr ⊆ ker h(T ), ou seja, h(T ) = 0, o que
é um absurdo, pois ∂h(x) < ∂mT (x). Assim, temos a primeira afirmação. Para demonstrar

23
a segunda, observemos primeiramente que pi (T )ni (Wi ) = {0V }, donde pi (Ti )ni = 0 e assim
mTi (x) divide pi (x)ni . Logo, mTi (x) = pi (x)m , com 1 ≤ m ≤ ni . Segue da primeira afirmação
que não podemos ter m < ni e assim temos a segunda afirmação. ¤

Exemplo 67 Considere o operador linear T : IR5 −→ IR5 , definido por

T (x, y, z, t, w) = (2x + y + t − w, 2y + t, 2z + w, 2t + w, −t − 2w).

Temos pT (x) = (x − 2)3 (x2 − 4x + 5) e mT (x) = (x − 2)2 (x2 − 4x + 5). Tomando


f (x) = (x − 2)2 e g(x) = x2 − 4x + 5, temos

f (T )(x, y, z, t, w) = (2t + w, w, −t, −t, −w)

e
g(T )(x, y, z, t, w) = (x + 2t + w, y + w, z − t, 0, 0).
Daı́, tomando W1 = ker f (T ) = h(1, 0, 0, 0, 0), (0, 1, 0, 0, 0), (0, 0, 1, 0, 0)i e W2 = ker g(T ) =
h(−2, 0, 1, 1, 0), (−1, −1, 0, 0, 1)i, temos IR5 = W1 ⊕ W2 , sendo W1 e W2 T -invariantes.

Teorema 68 Sejam V um K-espaço vetorial de dimensão finita e T : V −→ V um operador


linear tal que
mT (x) = (x − λ1 )n1 (x − λ2 )n2 . . . (x − λr )nr
onde λ1 , λ2 , . . . , λr ∈ K são distintos. Então existem operadores lineares D, N : V −→ V ,
sendo D diagonalizável e N nilpotente, tais que DN = N D e T = D + N . Ademais, os
operadores N e D são únicos nestas condições e são polinômios em T .

Demonstração. Para cada i = 1, 2, . . . , r tomemos Wi = ker(T − λi I)ri . Segue do Teorema


da Decomposição Primária que V = W1 ⊕ W2 ⊕ . . . ⊕ Wr . Tomando D : V −→ V o operador
linear tal que D(v) = λi v para todo v ∈ Wi e todo i ∈ {1, 2, . . . , r}, e N = T − D temos
claramente que D é diagonalizável e N é nilpotente. Como os polinômios (x − λ1 )n1 , (x − λ2 )n2 ,
. . . , (x − λr )nr são 2 a 2 relativamente primos, segue do Teorema Chinês dos Restos que existe
g(x) ∈ K[x] tal que g(x) ≡ λi (mod (x − λi )ni ), ou seja, g(x) = qi (x)(x − λi )ni + λi , com
qi (x) ∈ K[x], para todo i = 1, 2, . . . , r. Segue então que g(T ) = D e daı́ N = h(T ), onde
h(x) = x − g(x). Consequentemente, N D = DN .
Quanto à unicidade, suponhamos D1 , N1 : V −→ V operadores lineares, sendo D1 diago-
nalizável e N1 nilpotente, tais que D1 N1 = N1 D1 e T = D1 + N1 . Temos que D1 e N1 comutam
com T e consequentemente comutam com D e N . Logo, D − D1 é diagonalizável e N1 − N é
nilpotente. Como D − D1 = N − N1 , concluı́mos que devem ser ambos nulos e daı́ D1 = D e
N1 = N . ¤

24
A FORMA RACIONAL

Em toda esta seção, V será sempre um K-espaço vetorial de dimensão finita e T : V −→ V


um operador linear.

Definição 69 Se v ∈ V , definimos o subespaço T -cı́clico de V gerado por v, denotado por


Z(v, T ), como sendo

Z(v, T ) = hT n (v) | n ≥ 0i = hv, T (v), T 2 (v), . . . , T n (v), . . .i.

Se Z(v, T ) = V , dizemos que v é um vetor T -cı́clico de V .

Não é difı́cil ver que Z(v, T ) é T -invariante e que Z(v, T ) é a interseção de todos os sube-
spaços T -invariantes de v que contêm v. Assim, Z(v, T ) é o menor subespaço T -invariante de
V que contém v. Observe que Z(v, T ) = {f (T )(v) | f (x) ∈ K[x]}.

Exemplo 70 Temos que Z(0V , T ) = {0V }. Se v ∈ V −{0V }, então Z(v, T ) = hvi se, e somente
se, v é autovetor de T . Particularmente, Z(v, IV ) = hvi.

Exemplo 71 Considere o operador linear S : IR2 −→ IR2 , definido por S(x, y) = (−y, x).
Temos que todo vetor não nulo de IR2 é um vetor S-cı́clico. Observe que S não possui autove-
tores.

Exemplo 72 Considere o operador linear F : IR3 −→ IR3 , definido por F (x, y, z) = (x, x−z, y).
Temos que v1 = (0, 1, 0) não é um vetor F -cı́clico e que v2 = (1, 0, 0) é um vetor F -cı́clico.

Definição 73 Se v ∈ V , definimos o T -anulador de v, denotado por pv,T (x) (ou simplesmente


pv (x)), como sendo o polinômio de menor grau no conjunto

{f (x) ∈ K[x] | f (x) é mônico e f (T )(v) = 0V }.

Se v ∈ V , observa-se que o T -anulador de v é bem definido, ou seja, ele é único nas condições
da definição. Não é difı́cil ver que

∂pv (x) = min{k ∈ N | T k (v) ∈ hv, T (v), . . . , T k−1 (v)i}.

Observa-se também que não existe polinômio não nulo h(x) ∈ K[x] de grau menor que o grau
de pv (x) tal que h(T )(v) = 0V .

Exemplo 74 Claramente, p0V (x) = 1. Sendo v ∈ V um vetor não nulo, tem-se ∂pv (x) ≥ 1.
Sendo v um autovetor de T associado a um autovalor λ ∈ k, tem-se pv (x) = x − λ.

25
Exemplo 75 Considere o operador linear F do Exemplo 72 e os vetores v1 = (0, 1, 0) e
v2 (1, 0, 0) de IR3 . Temos F (v1 ) = (0, 0, 1) e F 2 (v1 ) = (0, −1, 0). Tomando então f (x) = x2 + 1,
temos f (F )(v1 ) = (0, 0, 0). Ademais, como {v1 , F (v1 )} é LI, segue que pv1 ,F (x) = f (x) = x2 +1.
Quanto a v2 , temos F (v2 ) = (1, 1, 0), F 2 (v2 ) = (1, 1, 1) e F 3 (v2 ) = (1, 0, 1), e assim F 3 (v2 ) =
F 2 (v2 ) − F (v2 ) + v2 . Daı́, tomando g(x) = x3 − x2 + x − 1, temos g(F )(v2 ) = (0, 0, 0). Além
disso, como {v2 , F (v2 ), F 2 (v2 )} é LI, devemos ter pv2 ,F (x) = g(x).

Proposição 76 Sejam v um vetor não nulo de V e pv (x) o T -anulador de V . Então valem:


a) Se h(x) ∈ K[x] satisfaz h(T )(v) = 0V , então pv (x) divide h(x). Particularmente, pv (x)
divide o polinômio minimal de T .
b) Se f (x), g(x) ∈ K[x] são tais que pv (x) = f (x)g(x), então g(x) é o T -anulador de f (T )(v).
c) Se S : V −→ V é um operador linear tal que ST = T S, então S(Z(v, T )) = Z(S(v), T ).
d) Sendo n = ∂pv (x), então {v, T (v), . . . , T n−1 (v)} é uma base de Z(v, T ) e assim dim Z(v, T ) =
n.
e) Se T 0 = T |Z(v,T ) , então o polinômio minimal de T 0 é pv (x).

Demonstração. a) Sejam q(x), r(x) ∈ K[x], com r(x) = 0 ou ∂r(x) < ∂pv (x), tais que
h(x) = q(x)pv (x) + r(x). Então, h(T )(v) = q(T )(pv (T )(v)) = r(T )(v) e assim r(T )(v) = 0V .
Logo, devemos ter r(x) = 0.
b) Seja u = f (T )(v). Como g(T )(u) = g(T )f (T )(v) = pv (T )(v) = 0V , temos que pu (x) divide
g(x). Por outro lado, 0V = pu (T )(u) = pu (T )f (T )(v) e assim pv (x) divide pu (x)f (x). Logo,
g(x) divide pu (x). Concluı́mos então que pu (x) = g(x).
c) Como ST = T S, temos Sf (T ) = f (T )S para qualquer f (x) ∈ K[x]. Logo, S(Z(v, T )) =
{S(f (T )(v)) | f (x) ∈ K[x]} = {f (T )(S(v)) | f (x) ∈ K[x]} = Z(S(v), T ).
d) Se w ∈ Z(v, T ), então existe g(x) ∈ K[x] tal que w = g(T )(v). Tomemos agora q(x),
r(x) ∈ K[x], com r(x) = 0 ∂r(x) < ∂pv (x), tais que g(x) = q(x)pv (x) + r(x). Logo, r(x) =
a0 + a1 x + . . . + an−1 xn−1 e

w = g(T )(v) = q(T )(pv (T )(v)) + r(T )(v) = a0 v + a1 T (v) + . . . + an−1 T n−1 (v)

e portanto {v, T (v), . . . , T n−1 (v)} gera Z(v, T ).


Suponhamos agora λ0 , λ1 , . . . , λn−1 ∈ K tais que λ0 v + λ1 T (v) + . . . + λn−1 T n−1 (v) = 0V .
Então, f (T )(v) = 0V , onde f (x) = λ0 + λ1 x + . . . + λn−1 xn−1 . Daı́, segue que f (x) = 0, ou seja,
λ0 = λ1 = . . . = λn−1 = 0 e assim {v, T (v), . . . , T n−1 (v)} é LI.
e) Se w ∈ Z(v, T ), existe g(x) ∈ K[x] tal que w = g(T )(v) e assim

pv (T 0 )(w) = pv (T )(w) = pv (T )g(T )(v) = g(T )pv (T )(v) = 0V .

Logo, pv (T 0 ) = 0 e portanto mT 0 (x) divide pv (x). Por outro lado, se tivéssemos mT 0 (x) de grau
menor que n, então terı́amos uma contradição com o fato de que mT 0 (T )(v) = mT 0 (T 0 )(v) = 0V .
Logo, ∂mT 0 (x) = ∂pv (x) e portanto mT 0 (x) = pv (x). ¤

26
Lema 77 Sejam v1 , v2 ∈ V e p1 (x) e p2 (x) os T -anuladores de v1 e v2 , respectivamente. Se
v = v1 + v2 e p1 (x) e p2 (x) são relativamente primos, então pv (x) = p1 (x)p2 (x) e Z(v, T ) =
Z(v1 , T ) ⊕ Z(v2 , T ).

Demonstração. como p1 (x) e p2 (x) são relativamente primos, devem existir f1 (x), f2 (x) ∈
K[x] tais que f1 (x)p1 (x) + f2 (x)p2 (x) = 1 e assim f1 (T )p1 (T ) + f2 (T )p2 (T ) = IV . Se u ∈
Z(v1 , T ) ∩ Z(v2 , T ), então p1 (T )(u) = p2 (T )(u) = 0V e daı́ u = IV (u) = f1 (T )(p1 (T )(u)) +
f2 (T )(p2 (T )(u)) = 0V .
Tomando agora q(x) = p1 (x)p2 (x), temos

q(T )(v) = q(T )(v1 ) + q(T )(v2 ) = p2 (T )(p1 (T )(v1 )) + p1 (T )(p2 (T )(v2 )) = 0V

e assim pv (x) divide q(x). Por outro lado, 0V = pv (T )(v) = pv (T )(v1 ) + pv (T )(v2 ) e daı́
pv (T )(v1 ) = pv (T )(v2 ) = 0V , pois Z(v1 , T ) ∩ Z(v2 , T ) = {0V }. Segue então que p1 (x) e p2 (x)
dividem pv (x). Como p1 (x) e p2 (x) são relativamente primos, temos que q(x) deve dividir pv (x).
Logo, pv (x) = q(x) = p1 (x)p2 (x). Segue agora que

dim Z(v, T ) = ∂pv (x) = ∂p1 (x) + ∂p2 (x) = dim(Z(v1 , T ) ⊕ Z(v2 , T ))

donde segue a segunda afirmação, uma vez que dim Z(v, T ) ⊆ Z(v1 , T ) ⊕ Z(v2 , T ). ¤

Teorema 78 Existe v ∈ V tal que pv (x) = mT (x).

Demonstração. Seja mT (x) = p1 (x)n1 p2 (x)n2 . . . pr (x)nr , onde p1 (x), p2 (x), . . . , pr (x) são
polinômios mônicos irredutı́veis e distintos de K[x]. Para cada i = 1, 2, . . . , r, considere
Wi = ker pi (T )ni . Segue do Teorema da Decomposição Primária que existe vi ∈ Wi tal que
pi (T )ni −1 (vi ) 6= 0V . Como pi (T )ni (vi ) = 0V , devemos ter pvi (x) = pi (x)ni . Tomando agora
v = v1 + v2 + . . . + vr , temos que pv (x) = pv1 (x)pv2 (x) . . . pvr (x) = mT (x) pelo lema anterior.¤

Definição 79 Se n ∈ N e f (x) = xn + an−1 xn−1 + . . . + a1 x + a0 ∈ K[x], definimos a matriz


associada ao polinômio f (x) (ou matriz companheira do polinômio f (x)) como sendo a matriz
 
0 0 0 · · · 0 −a0
 
 1 0 0 · · · 0 −a1 
 
 0 1 0 · · · 0 −a2 
 
 . . . . .  ∈ Mn (K)
 .. .. .. .. .. 
 
 0 0 0 · · · 0 −a 
 n−2 
0 0 0 · · · 1 −an−1

27
Exemplo 80 As matrizes associadas aos polinômios f (x) = x + 1, g(x) = x2 + 2x − 1 e
h(x) = x4 + 3x3 − 2x2 + 5 são
 
à ! 0 0 0 −5
³ ´ 0 1  1 0 0 0 
 
−1 , e  
1 −2  0 1 0 2 
0 0 1 −3

respectivamente.

Proposição 81 Se f (x) ∈ K[x] é um polinômio mônico não constante e A é a matriz associada


a f (x), então os polinômios minimal e caracterı́stico de A coincidem e são iguais a f (x).

Demonstração. Sendo f (x) = xn + an−1 xn−1 + . . . + a1 x + a0 , temos


 
0 0 0 · · · 0 −a0
 
 1 0 0 · · · 0 −a1 
 
 0 1 0 · · · 0 −a2 
 
A= . . . .. ..  ∈ Mn (K) .
 .. .. .. . . 
 
 0 0 0 · · · 0 −a 
 n−2 
0 0 0 · · · 1 −an−1

O resultado é imediato para n = 1. Suponhamos agora n > 1 e suponhamos que o resultado é


válido para n − 1. Temos
¯ ¯
¯ x 0 0 ··· 0 a0 ¯
¯ ¯
¯ ¯
¯ −1 x 0 ··· 0 a1 ¯
¯ ¯
¯ 0 −1 x ··· 0 a2 ¯
¯ ¯
pA (x) = det(xIn − A) = ¯ . .. .. .. .. ¯
¯ .. . . . . ¯
¯ ¯
¯ 0 0 0 ··· x an−2 ¯
¯ ¯
¯ ¯
¯ 0 0 0 · · · −1 x + an−1 ¯
¯ ¯ ¯ ¯
¯ x 0 ··· 0 a1 ¯ ¯ −1 x 0 ··· 0¯ 0
¯ ¯ ¯ ¯
¯ ¯ ¯ ¯
¯ −1 x ··· 0 a2 ¯ ¯ 0 −1 x ··· 0¯ 0
¯ .. .. .. .. ¯ ¯ .. .. .. ¯
.. ..
= x · ¯¯ . . . . ¯ + a0 (−1)
¯
n+1
· ¯
¯ . . . ¯
.
¯ .
¯ ¯ ¯ ¯
¯ 0 0 ··· x an−2 ¯ ¯ 0 0 0 · · · −1 x ¯
¯ ¯ ¯ ¯
¯ 0 0 · · · −1 x + an−1 ¯ ¯ 0 0 0 · · · 0 −1 ¯

= x(xn−1 + an−1 xn−2 + . . . + a2 x + a1 ) + a0 (−1)n+1 (−1)n−1 = f (x).

28
Considere agora as matrizes
       
1 0 0 0
     ..   .. 
 0   1   .   . 
       
X1 =  0  , X2 = 
 0 
 , ... , Xn−1 =
 0 
 , Xn =  
 0  .
 ..   ..     
 .   .   1   0 
0 0 0 1

É fácil ver que AXj = Xj+1 para 1 ≤ j ≤ n − 1. Logo, Aj X1 = Xj+1 para 1 ≤ j ≤ n − 1.


Suponhamos então um polinômio g(x) = λ0 + λ1 x + . . . + λn−1 xn−1 ∈ K[x] tal que g(A) = 0.
Então,

0n×1 = g(A)X1 = λ0 X1 + λ1 AX1 + . . . + λn−1 An−1 X1 = λ0 X1 + λ1 X2 + . . . + λn−1 Xn

e daı́ g(x) = 0, uma vez que X1 , X2 , . . . , Xn são vetores LI de Mn×1 (K). Segue então que
∂mA (x) ≥ n e assim, pelo Teorema de Cayley-Hamilton, mA (x) = pA (x) = f (x). ¤

Outra demonstração. Considere o operador linear (veja o Exemplo 32)

TA : Mn×1 (K) −→ Mn×1 (K)


.
X 7−→ TA (X) = AX

Tomando Xj ∈ Mn×1 (K) como acima (1 ≤ j ≤ n), Temos

TAn (X1 ) = −(an−1 TAn−1 (X1 ) + . . . + a1 TA (X1 ) + a0 X1 )

e assim f (TA )(X1 ) = 0n×1 . Logo, sendo p(x) o TA -anulador de X1 , concluı́mos que p(x)
divide f (x). Por outro lado, como o conjunto {X1 , TA (X1 ), . . . , TAn−1 (X1 )} é LI, concluı́mos
que ∂p(x) ≥ n e assim devemos ter p(x) = f (x). Logo, f (x) divide mA (x), uma vez que
mA (x) = mTA (x). Assim, f (x) divide mA (x) que por sua vez divide pA (x). Como os três são
mônicos e ∂f (x) = ∂pA (x) = n, devemos ter pA (x) = mA (x) = f (x). ¤

Teorema 82 São equivalentes:


i) Existe em V algum vetor T -cı́clico.
ii) Existe alguma base β de V tal que [T ]β coincide com a matriz associada ao polinômio
caracterı́stico de T .
iii) Os polinômios caracterı́stico e minimal de T são iguais.

dem i) =⇒ ii) Seja n = dim V e seja v ∈ V um vetor T -cı́clico. Então, Z(v, T ) = V e assim
β = {v, T (v), . . . , T n−1 (v)} é uma base de V . Como ∂pv (x) = n, devemos ter pv (x) = pT (x).

29
Sendo pv (x) = xn + an−1 xn−1 + . . . + ax + a0 , temos
T (v) = 0v + 1T (v) + 0T 2 (v) + . . . + 0T n−1 (v)
T (T (v)) = 0v + 0T (v) + 1T 2 (v) + . . . + 0T n−1 (v)
.. ..
. .
T (T n−2 (v)) = 0v + 0T (v) + 0T 2 (v) + . . . + 1T n−1 (v)
T (T n−1 (v)) = −a0 v − a1 T (v) − a2 T 2 (v) − . . . − an−1 T n−1 (v)
e portanto  
0 0 ··· 0 −a0
 
 1 0 ··· 0 −a1 
 
[T ]β = 
 0 1 ··· 0 −a2  .

 .. .. ... .. .. 
 . . . . 
0 0 · · · 1 −an−1

ii) =⇒ iii) Pela proposição anterior temos m[T ]β (x) = p[T ]β (x). Como m[T ]β (x) = mT (x) e e
p[T ]β (x) = pT (x), temos (iii).

iii) =⇒ i) Seja v ∈ V um vetor tal que pv (x) = mT (x). Como mT (x) = pT (x), temos
dim Z(v, T ) = ∂pv (x) = dim V , donde Z(v, T ) = V . Logo, v é um vetor T -cı́clico. ¤

Teorema 83 (Decomposição Cı́clica) Existe vetores v1 , v2 , . . . , vr ∈ V , com respectivos


T -anuladores f1 (x), f2 (x), . . . , fr (x), tais que:
i) V = Z(v1 , T ) ⊕ Z(v2 , T ) ⊕ . . . ⊕ Z(vr , T ).
ii) fi+1 (x) divide fi (x) para i = 1, 2, . . . , r − 1.
Além disso, o número r e os polinômios f1 (x), f2 (x), . . . , fr (x) são unicamente determi-
nados pelas condições acima.

Observação 84 1) Os polinômios f1 (x), f2 (x), . . . , fr (x) são chamados de fatores invariantes


de T , sendo f1 (x) o polinômio minimal de T .
2) O polinômio caracterı́stico de T é pT (x) = f1 (x)f2 (x) . . . fr (x). Segue daı́ que mT (x) e pT (x)
possuem exatamente os mesmos fatores irredutı́veis, a menos de multiplicidade.

Considerando as notações do enunciado do Teorema da Decomposição Cı́clica, tomemos


ni = dim Z(vi , T ) = ∂fi (x), para 1 ≤ i ≤ r. Temos que βi = {vi , T (vi ), . . . , T ni −1 (vi )} é uma
base de Z(vi , T ). Tomando Ti = T |Z(vi ,T ) , temos que [Ti ]βi é a matriz asociada ao polinômio
fi (x). Considerando agora a base β = β1 ∪ β ∪ . . . ∪ βn de V , temos
 
[T1 ]β1 0 ··· 0
 
 0 [T2 ]β2 · · · 0 

[T ]β =  . .. .. 
. .. 
 . . . . 
0 0 · · · [Tr ]βr

30
e esta representação matricial de T é chamada de forma canônica racional. Assim, como
consequência do Teorema da Decomposição Cı́clica, temos o seguinte resultado.

Teorema 85 Se A é uma matriz n × n sobre K, então A é semelhante sobre K a uma única


matriz na forma racional.

Exemplo 86 Sejam V um K-espaço vetorial de dimensão 2 e T : V −→ V um operador linear.


A matriz na forma racional que representa T tem uma das seguinte formas:
à ! à !
0 a λ 0
ou .
1 b 0 λ

Exemplo 87 Considere o operador linear T : IR3 −→ IR3 que possui


 
5 −6 −6
 
A =  −1 4 2 
3 −6 −4

como matriz em relação à base canônica. Temos pT (x) = (x−1)(x−2)2 e mT (x) = (x−1)(x−2).
Tomando w1 e w2 não nulos tais que T (w1 ) = w1 e T (w2 ) = 2w2 , então v1 = w1 + w2 é um vetor
cujo T -anulador é exatamente f1 (x) = pT (x) = (x−1)(x−2). Tomando agora v2 ∈ V −Z(v1 , T )
tal que T (v2 ) = 2v2 , temos que β = {v1 , T (v1 ), v2 } é uma base de V tal que
 
0 −2 0
 
[T ]β =  1 3 0  (forma racional).
0 0 2

Exemplo 88 Determinar as possı́veis formas racionais sobre IR com polinômio caracterı́stico


f (x) = (x2 + x + 1)(x − 2)3 .

Exemplo 89 Sejam V um espaço vetorial de dimensão finita e N : V −→ V um operador


linear nilpotente. Como o polinômio minimal de N é mN (x) = xn para algum n ∈ N, os fatores
invariantes de N são p1 (x) = xm1 , p2 (x) = xm2 , . . . , pr (x) = xmr , com n = m1 ≥ m2 ≥ . . . ≥
mr ≥ 1 e m1 + m2 + . . . + mr = dim V . A forma racional de N é então
 
  0 0 ··· 0 0
A1 0 · · · 0  
   1 0 ··· 0 0 
 0 A2 · · · 0   
[T ]β = 
 .. . . .  , onde Ai =  0 1 · · · 0 0  .
 . .. . . .. 

 
 .. .. . . .. .. 
 . . . . . 
0 0 · · · Ar
0 0 · · · 1 0 m ×m
i i

Exemplo 90 Classificar, a menos de semelhança, todas as matrizes nilpotentes 4 × 4 com


entradas reais.

31
Lema 91 Sejam U e W subespaços de V , sendo T -invariante, tais que V = U ⊕ W . Para
cada v ∈ V , considere T1 (v) ∈ U e T2 (v) ∈ W tais que T (v) = T1 (v) + T2 (v). Definindo

T2 : W −→ W
w 7−→ T2 (w)

valem:
a) Para w ∈ W e f (x) ∈ K[x], tem-se f (T )(w) − f (T2 )(w) ∈ U . Consequentemente:
f (T )(w) ∈ U ⇐⇒ f (T2 )(w) = 0V .
b) mT2 (x) divide mT (x).
c) Supondo U = Z(v1 , T ), onde v1 ∈ V tem T -anulador igual a mT (x), então dado w ∈ W ,
existe u ∈ U tal que o T -anulador de w − u coincide com o T2 -anulador de w.

Demonstração. a) Claramente, T (w) − T2 (w) ∈ U . Supondo agora que T k (w) − T2k (w) ∈ U
para algum k ∈ N, temos T (T k (w) − T2k (w)) ∈ U , uma vez que U é T -invariante. Assim,
T k+1 (w) − T1 (T2k (w)) − T2k+1 (w) ∈ U e daı́ T k+1 (w) − T2k+1 (w) ∈ U . Logo, para todo n ∈ N
temos T n (w) − T2n (w) ∈ U , donde segue o resultado.
b) Como mT (T ) = 0, temos mT (T2 )(w) = 0V para todo w ∈ W . Logo, mT (x) anula T2 e daı́
segue o resultado.
c) Seja p(x) ∈ K[x] o T2 -anulador de w. Então, p(T2 )(w) = 0V e assim p(T )(w) ∈ U . Logo,
p(T )(w) = g(T )(v1 ) para algum g(x) ∈ K[x]. Segue do ı́tem (b) que existe q(x) ∈ K[x] tal que
mT (x) = q(x)p(x) e assim

0V = mT (T )(w) = q(T )p(T )(w) = q(T )g(T )(v1 ).

Logo, mT (x) divide q(x)g(x). Temos então g(x) = h(x)p(x) para algum h(x) ∈ K[x]. Tomando
agora u = h(T )(v1 ), temos u ∈ U e

p(T )(w − u) = p(T )(w) − p(T )(u) = g(T )(v1 ) − g(T )(v1 ) = 0V .

Por outro lado, se f (x) ∈ K[x] satisfaz f (T )(w − u) = 0V , temos f (T )(w) = f (T )(u) ∈ U e daı́
f (T2 )(w) = 0V . Logo, p(x) divide f (x). Segue então que p(x) é o T -anulador de w − u. ¤

Demonstração do Teorema da Decomposição Cı́clica. Vamos usar indução em dim V . Clara-


mente o resultado é válido para dim V = 1. Supondo agora dim > 1 e supondo que o re-
sultado vale para todos os operadores lineares sobre espaços vetoriais de dimensão menor que
dim V , tomemos v1 ∈ V um vetor cujo T -anulador seja f1 (x) = mT (x). Se V = Z(v1 , T ),
está feito. Se não, tomemos W subespaço de V tal que V = Z(v1 , T ) ⊕ W . Fazendo
U = Z(v1 , T ) e adotando as mesmas notações do lema anterior, temos por hipótese de indução
que existem w2 , . . . , wr ∈ W , com respectivos T2 -anuladores f2 (x), . . . , fr (x), tais que

32
W = Z(w2 , T2 ) ⊕ . . . ⊕ Z(wr , T2 ) e fj+1 (x) divide fj (x) para 2 ≤ j ≤ r − 1. Claramente,
mT2 (x) = f2 (x). Tomemos agora u2 , . . . , ur ∈ U tais que vj = wj − uj tem T -anulador igual a
fj (x), para 2 ≤ j ≤ r.

Afirmação: V = Z(v1 , T ) ⊕ Z(v2 , T ) ⊕ . . . ⊕ Z(vr , T ).


De fato, dim V = dim Z(v1 , T ) + dim W = ∂f1 (x) + ∂f2 (x) + . . . + ∂fr (x). Resta então
mostrar a independência. Sejam q1 (x), q2 (x), . . . , qr (x) ∈ K[x] tais que

q1 (T )(v1 ) + q2 (T )(v2 ) + . . . + qr (T )(vr ) = 0V .

Temos então

(q1 (T )(v1 ) − q2 (T )(u2 ) − . . . − qr (T )(ur ) + u) + q2 (T2 )(w2 ) + . . . + qr (T2 )(wr ) = 0V


r
X
onde u = (qj (T )(wj ) − qj (T2 )(wj )) ∈ U . Como Z(v1 , T ) ∩ W = {0V } e Z(w2 , T2 ), . . . ,
j=2
Z(wr , T2 ) são independentes, devemos ter q2 (T2 )(w2 ) = . . . = qr (T2 )(wr ) = 0V . Logo, fj (x)
deve dividir qj (x), para 2 ≤ j ≤ r, e portanto q2 (T )(v2 ) = . . . = qr (T )(vr ) = 0V . Temos então
a afirmação.
Quanto à unicidade, suponha x1 , x2 , . . . , xs ∈ V , com respectivos T -anuladores g1 (x), g2 (x),
. . . , gs (x), tais que V = Z(x1 , T ) ⊕ Z(x2 , T ) ⊕ . . . ⊕ Z(xs , T ) e gj+1 (x) divide gj (x), para
1 ≤ j ≤ s − 1. Claramente, g1 (x) = mT (x) = f1 (x). temos que

Im f2 (T ) = Z(f2 (T )(v1 ), T ) = Z(f2 (T )(x1 ), T ) ⊕ Z(f2 (T )(x2 ), T ) ⊕ . . . ⊕ Z(f2 (T )(xs ), T )

e assim, como dim Z(f2 (T )(v1 ), T ) = dim Z(f2 (T )(x1 ), T ), devemos ter f2 (T )(x2 ) = . . . =
f2 (T )(xs ) = 0V . Daı́, g2 (x) deve dividir f2 (x). Analogamente se mostra que f2 (x) deve dividir
g2 (x), donde g2 (x) = f2 (x). Seguindo com esta idéia, concluı́mos que r = s e gj (x) = fj (x)
para 1 ≤ j ≤ r. ¤

33
A FORMA DE JORDAN

Seja V um K-espaço vetorial de dimensão finita. Considere T : V −→ V um operador linear


com polinômio caracterı́stico pT (x) = (x−λ)n , com λ ∈ K. Temos então mT (x) = (x−λ)m , com
1 ≤ m ≤ n. Tomando agora o operador linear N = T − λIV , temos que N m = (T − λIV )m = 0V
e assim N é nilpotente. Observe que o polinômio minimal de N é exatamente mN (x) = xm .
Sendo p1 (x) = mN (x) = xm , p2 (x) = xm2 , . . . , pr (x) = xmr os fatores invariantes de N (de
acordo com o Teorema da Decomposição Cı́clica), temos m = m1 ≥ m2 ≥ . . . ≥ mr ≥ 1 e
m1 + m2 + . . . + mr = n. Tomando β uma base de V tal que [N ]β é a forma racional de N ,
temos
 
  0 0 ··· 0 0
A1 0 · · · 0  
   1 0 ··· 0 0 
 0 A2 · · · 0   
[N ]β = 
 .. .. . . .. 
 , onde Ai =   0 1 ··· 0 0   .
 . . . .   .. .. . . .. .. 
 . . . . . 
0 0 · · · Ar
0 0 · · · 1 0 m ×m
i i

Observando agora que T = N + λIV , temos que [T ]β = [N ]β + [λIV ] = [N ]β + λIn e assim


 
  λ 0 0 · · · 0 0
 
B1 0 · · · 0  1 λ 0 ··· 0 0 
   
 0 B2 · · · 0   0 1 λ ··· 0 0 
 
[N ]β = 
 .. .. . . .. 
 , onde Bi =  . . . . . .  .
 . . . .   .. .. .. . . .. .. 
 
0 0 · · · Br  0 0 0 ··· λ 0 
 
0 0 0 ··· 1 λ
mi ×mi

Definição 92 Se K é um corpo e λ ∈ K, definimos o bloco de Jordan n × n em λ como sendo


a matriz n × n  
λ 0 0 ··· 0 0
 
 1 λ 0 ··· 0 0 
 
 0 1 λ ··· 0 0 
 
Jn (λ) =  . . . . .. ..  .
 .. .. .. . . . . 
 
 0 0 0 ··· λ 0 
 
0 0 0 ··· 1 λ

Observe que sendo A = Jn (λ), temos pA (x) = mA (x) = (x − λ)n .


Consideremos agora um operador linear T : V −→ V com polinômio caracterı́stico da forma

pT (x) = (x − λ1 )d1 (x − λ2 )d2 . . . (x − λm )dm

34
onde λ1 , λ2 , . . . , λm são elementos distntos de K e dj ≥ 1. Temos que o polinômio minimal de
T é
mT (x) = (x − λ1 )r1 (x − λ2 )r2 . . . (x − λm )rm
onde 1 ≤ rj ≤ dj . Temos pelo Teorema da Decomposição Primária que V = W1 ⊕W2 ⊕. . .⊕Wm ,
onde Wj = ker(T − λj )rj . Ademais, cada subespaço Wj é T -invariante e, sendo Tj = T |Wj , o
polinômio minimal de Tj é mTj (x) = (x − λj )rj . Para cada j ∈ {1, 2, . . . , m}, tomemos uma
base βj de Wj tal que [Tj ]βj tem a forma
 
Jn1 (λj ) 0 ··· 0
 
 0 Jn2 (λj ) · · · 0 
 .. .. .. 
 .. 
 . . . . 
0 0 · · · Jnl (λj )

com n1 ≥ n2 ≥ . . . ≥ nl . Tomando agora β = β1 ∪ β2 ∪ . . . ∪ βm , temos que β é uma base de V


e  
[T1 ]β1 0 ··· 0
 
 0 [T2 ]β2 · · · 0 
[T ]β = 
 .. .. .. ..  .

 . . . . 
0 0 · · · [Tm ]βm
Esta matriz é chamada de forma de Jordan associada a T .

Exemplo 93 As matrizes
 
2 0 0 0 0 0 0  
 
 1 2 0 0 0 0 0  1 0 0 0 0
   
 0 0 3 0 0 0 0   1 1 0 0 0 
   
 
A= 0 0 0 3 0 0 0  e B=
 0 1 1 0 0 

   
 0 0 0 0 4 0 0   0 0 0 0 0 
 
 0 0 0 0 1 4 0  0 0 0 1 0
 
0 0 0 0 0 0 4

são matrizes na forma de Jordan. Observe que pA (x) = (x − 2)2 (x − 3)2 (x − 4)3 e mA (x) =
(x − 2)2 (x − 3)(x − 4)2 . Quanto a B, temos pB (x) = mB (x) = x2 (x − 1)3 .

Observação 94 Considere uma matriz A na forma de Jordan e λ um dado autovalor de A.


O número de vezes que λ aparece em A é igual à sua multiplicidade como raiz do polinômio
caracterı́stico de A. O tamanho do maior bloco de Jordan em λ que aparece em A é igual à
multiplicidade de λ como raiz do polinômio minimal de A.

35
Observação 95 Observe-se claramente que um bloco de Jordan é a soma de uma matriz
nilpotente com uma matriz escalar (múltiplo escalar da identidade). Como estas matrizes
comutam, observa-se facilmente que uma matriz na forma de Jordan é a soma de duas matrizes
que comutam, sendo uma matriz nilpotente e a outra diagonal. Assim, através da forma de
Jordan é possı́vel obter a decomposição descrita no Teorema 68.

Teorema 96 Seja A uma matriz quadrada sobre um corpo K cujo polinômio minimal é um
produto de fatores mônicos de grau 1 em K[x]. Então, A é semelhante sobre K a uma matriz
na forma de Jordan, única a menos da posição dos blocos de Jordan.

Exemplo 97 Se A é uma matriz 2 × 2 sobre um corpo K tal que seu polinômio caracterı́stico
possui raiz em K, então a forma de Jordan de A tem uma das formas:
à ! à ! à !
a 0 a 0 a 0
, ou .
0 a 0 b 1 a

Exemplo 98 As possı́veis formas de Jordan com polinômio caracterı́stico igual a f (x) =


(x − 3)2 (x + 2)3 são, a menos de semelhança,
     
3 0 0 0 0 3 0 0 0 0 3 0 0 0 0
     
 1 3 0 0 0   1 3 0 0 0   1 3 0 0 0 
     
 0 0 −2 0 0  ,  0 0 −2 0 0  ,  0 0 −2 0 0  ,
     
     
 0 0 1 −2 0   0 0 1 −2 0   0 0 0 −2 0 
0 0 0 1 −2 0 0 0 0 −2 0 0 0 0 −2
     
3 0 0 0 0 3 0 0 0 0 3 0 0 0 0
     
 0 3 0 0 0   0 3 0 0 0   0 3 0 0 0 
     
 0 0 −2 0 0  ,  0 0 −2 0 0  ,  0 0 −2 0 0  .
     
     
 0 0 1 −2 0   0 0 1 −2 0   0 0 0 −2 0 
0 0 0 1 −2 0 0 0 0 −2 0 0 0 0 −2

Exemplo 99 Considere a matriz


 
1 1 1
 
A= 0 1 1  .
0 −1 3

Vamos determinar a forma de Jordan de A, uma matriz inversı́vel P ∈ M3 (IR) tal que P −1 AP
está na forma de Jordan e duas matrizes com entradas reais, uma nilpotente e outra diago-
nalizável, cuja soma seja igual a A.

36
Sendo γ a base canônica de IR3 e T : IR3 −→ IR3 o operador linear tal que [T ]β = A, temos
que T (x, y, z) = (x + y + z, y + z, −y + 3z). Observe que pT (x) = pA (x) = mT (x) = mA (x) =
(x − 1)(x − 2)2 . Ademais,

(T − I)(x, y, z) = (y + z, z, −y + 2z) e (T − 2I 2 )(x, y, z) = (x − 3y + z, 0, 0)

e daı́

W1 = ker(T − I) = h(1, 0, 0)i e W2 = ker(T − 2I)2 = h(1, 0, −1), (0, 1, 3)i.

Sendo T1 = T |W1 , T2 = T |W2 , N1 = T1 − IW1 e N2 = T2 − IW2 , temos que N1 = 0 e que


p2 (x) = x2 é o polinõmio minimal de T2 . Sendo v = (1, 0, −1), observe que o N2 -anulador
de v é o polinômio p2 (x) = x2 e que N2 (v) = (−2, −1, −1). Daı́, tomando β1 = {(1,
à 0, 0)}!e
³ ´ 0 0
β2 = {(1, 0, −1), (−2, −1, −1)}, temos que [N1 ] + β1 = 0 é nula e [N2 ]β2 = ,
1 0
à !
³ ´ 2 0
donde [T1 ] + β1 = 1 é nula e [T2 ]β2 = . Tomando agora β = β1 ∪ β2 =
1 2
{(1, 0, 0), (1, 0, −1), (−2, −1, −1)}, temos
 
1 0 0
 
[T ]β =  0 2 0  .
0 1 2

Como [T ]β = [I]γβ [T ]γ [I]βγ , tomamos


 
1 1 −1
 
P = [I]βγ =  0 0 −1  .
0 −1 −1

Logo,      
1 0 0 0 0 0 1 0 0
     
P −1 AP =  0 2 0  =  0 0 0  +  0 2 0 
0 1 2 0 1 0 0 0 2
e portanto
       
0 0 0 1 0 0 0 −2 2 1 3 −1
       
A = P  0 0 0  P −1 + P  0 2 0  P −1 =  0 −1 1  +  0 2 0  .
0 1 0 0 0 2 0 −1 1 0 0 2

37
ESPAÇOS COM PRODUTO INTERNO

De agora em diante o corpo K será sempre igual a IR ou a C. Todos os espaços vetoriais


considerados serão sobre K.

Definição 100 Seja V um espaço vetorial. Um produto interno em V é uma aplicação

<, > : V × V −→ K
(u, v) 7−→ < u, v >

que satisfaz:
a) < u + v, w > = < u, w > + < v, w > para quaisquer u, v, w ∈ V ;
b) < λu, v > = λ < u, v > para quaisquer u, v ∈ V e λ ∈ K;
c) < u, v > = < v, u > para quaisquer u, v ∈ V ;
d) < u, u > ∈ IR e < u, u > > 0 para todo u 6= 0V .

Vamos definir um espaço vetorial com produto interno como sendo um par (V, <, >), onde
V é um espaço vetorial e <, > é um produto interno em V .

Exemplo 101 A aplicação <, > : K n × K n −→ K, definida por

< (x1 , . . . , xn ), (y1 , . . . , yn ) > = x1 y1 + . . . + xn yn ,

é um produto interno em K n , chamado de produto interno canônico de K n .

Exemplo 102 Considere o espaço vetorial real C[0, 1] das funções reais contı́nuas no intervalo
[0, 1]. A aplicação <, > : C[0, 1] × C[0, 1] −→ IR, definida por
Z 1
< f, g > = f (x)g(x)dx ,
0

é um produto interno em C[0, 1].

Exemplo 103 Considere o subespaço P2 = {p(x) ∈ C[x] | p(x) = 0 ou ∂p(x) ≤ 2} do espaço


vetorial complexo C[x] e a aplicação

<, > : P2 × P2 −→ C
.
(p(x), q(x)) 7−→ < p(x), q(x) > = p(0)q(0) + p(1)q(1) + p(2)q(2)

Temos que <, > é um produto interno em P2 .

38
Exemplo 104 Sejam V e W espaços vetoriais sobre o mesmo corpo K e seja <, > um produto
interno em W . Supondo que existe uma transformação linear injetora T : V −→ W , definamos

<, >T : V × V −→ K
.
(u, v) 7−→ < u, v >T = < T (u), T (v) >

Temos que <, >T é um produto interno em V .

Exemplo 105 A aplicação <, > : IR3 × IR3 −→ IR, definida por
¯ ¯
¯ x 1 x1 ¯
¯ ¯
¯ ¯
< (x, y, z), (x1 , y1 , z1 ) > = ¯ y 1 y1 ¯
¯ ¯
¯ z 1 z1 ¯

não é um produto interno.

Exemplo 106 Consideremos V um espaço vetorial e fixemos uma base β = {vi | i ∈ i} de V .


Tomemos agora a aplicação <, > : V × V −→ K, definida por
* +
X X X
λi vi , αi vi = λi αi .
i∈I i∈I i∈I

Esta aplicação é um produto interno.

Proposição 107 Se <, > : V × V −→ K é um produto interno num espaço vetorial V , então
para quaisquer u, v, w ∈ V e λ, λ1 , λ2 ∈ K valem:
a) < 0V , v > = < u, 0V > = 0.
b) < u, v + w > = < u, v > + < u, w >.
c) < u, λv > = λ < u, v >.
d) < λ1 u, λ2 v > = λ1 λ2 < u, v >.
e) | < u, v > |2 ≤ < u, u >< v, v > (Desigualdade de Cauchy-Schwarz).

Demonstração. (a), (b), (c) e (d) são imediatos.


e) Sejam α = < v, v > e β = < u, v >. Temos

0 ≤ < αu − βv, αu − βv > = |α|2 < u, u > −αβ < u, v > −βα < v, u > +|β|2 < v, v > .

Como < v, u > = β e α ∈ IR, concluı́mos desta desigualdade que 2α|β|2 ≤ α2 < u, u > +α|β|2 e
daı́ α|β|2 ≤ α2 < u, u >. Se α = 0, temos v = 0V e o resultado segue imediatamente. Se α 6= 0,
temos α > 0 e daı́ |β|2 ≤ α < u, u >, ou seja, | < u, v > |2 ≤ < u, u >< v, v >. ¤

39
Definição 108 Seja V um espaço vetorial. Uma norma em V é uma aplicação

kk: V −→ IR+
v 7−→ kvk

que satisfaz:
a) Se v 6= 0V , então kvk 6= 0.
b) kλvk = |λ|kvk para quaisquer v ∈ V e λ ∈ K.
c) ku + vk ≤ kuk + kvk para quaisquer u, v ∈ V (desigualdade triangular).

Definimos um espaço vetorial normado como sendo um par (V ,k k), onde V é um espaço
vetorial e k k é uma norma em V . Segue imediatamente da definição de norma que kvk = k−vk,
para todo v ∈ V , e k0V k = 0.

Exemplo 109 A função módulo

f : IR −→ IR+
x 7−→ f (x) = |v|

é uma norma no espaço vetorial real IR.



Exemplo 110 A aplicação ρ : K n −→ IR+ , definida por ρ(x1 , . . . , xn ) = x 1 x1 + . . . + xn xn ,
é uma norma em K n .

Exemplo 111 Fixados a, b ∈ IR, com a < b, consideremos o espaço vetorial real das funções
contı́nuas no intervalo [a, b]. A aplicação

| |0 : C[a, b] −→ IR+
f 7−→ |f |0 = max |f (x)|
a≤x≤b

é uma norma.

Exemplo 112 Se V é um espaço vetorial e <, > : V × V −→ K é um produto interno em V ,


então a aplicação
k k : V −→ IR+

v 7−→ kvk = < v, v >
é uma norma em V , chamada de norma proveniente do produto interno <, >.

Observação 113 De agora em diante, quando falarmos na norma de um espaço vetorial com
produto interno, estaremos nos referindo à norma proveniente do produto interno considerado.

40
Teorema 114 (Desigualdade de Cauchy-Schwarz) Seja V um espaço vetorial com pro-
duto interno. Então:
a) Para quaisquer u, v ∈ V vale | < u, v > | ≤ kukkvk.
b) A igualdade vale se, e somente se, o conjunto {u, v} é LD.
√ √
Demonstração. a) Como kuk = < u, u > e kvk = < v, v >, o resultado segue imediatamente
de 107.e.
b) Se {u, v} é LD, é imediato que vale a igualdade. Suponhamos agora que | < u, v > | = kukkvk
< u, v >
e que v 6= 0V . Tomando λ = , temos
kvk2

< u − λv, u − λv > = kuk2 − λ < v, u > −λ < u, v > +|λ|2 kvk2 .

kuk
Como < v, u > = < u, v > e |λ| = , temos
kvk

| < u, v > |2
< u − λv, u − λv > = kuk2 − 2 + kuk2 = 0
kvk2
e assim u − λv = 0V , o que conclui a demonstração. ¤

Teorema 115 Sejam V um espaço vetorial e k k : V −→ IR+ uma norma em V . Então são
equivalentes:
i) k k é proveniente de um produto interno.
ii) ku + vk2 + ku − vk2 = 2kuk2 + 2kvk2 para quaisquer u, v ∈ V (Lei do Paralelogramo).

Demonstração. i) =⇒ ii) Supondo (i), temos que existe um produto <, >: V × V −→ K tal

que kuk = < u, u > para todo u ∈ V . Assim temos

ku + vk2 = < u + v, u + v > = kuk2 + < u, v > + < v, u > +kvk2

e
ku − vk2 = < u + v, u + v > = kuk2 − < u, v > − < v, u > +kvk2 .
Somando-se estas duas igualdades, temos (ii).

ii) =⇒ i) Defina a aplicação <, >: V × V −→ K da seguinte forma:


• < u, v > := 14 ku + vk2 − 14 ku − vk2 , se K = IR.
• < u, v > := 14 ku + vk2 − 14 ku − vk2 + 4i ku + ivk2 − 4i ku − ivk2 , se K = C.

Em qualquer caso, a aplicação <, > é um produto interno em V . Ademais, se u ∈ V , então:


• < u, u > = 41 k2uk2 = kuk2 , se K = IR.
• < u, u > = 14 k2uk2 + 4i k(1 + i)uk2 − 4i k(1 − i)uk2 = kuk2 , se K = C. ¤

41
Observação 116 Se V é um espaço vetorial com produto interno, então
1 1
< u, v > = ku + vk2 − ku − vk2
4 4
para quaisquer u, v ∈ V , se K = IR. No caso K = C, temos
1 1 i i
< u, v > = ku + vk2 − ku − vk2 + ku + ivk2 − ku − ivk2
4 4 4 4
para quaisquer u, v ∈ V . Estas igualdades são chamadas de identidades de polarização.

Definição 117 Sejam V um espaço vetorial com produto interno, u, v ∈ V e S um subconjunto


não vazio de V . Dizemos que:
a) u e v são vetores ortogonais (ou perpendiculares), e denotamos por u ⊥ v, se < u, v > = 0.
b) S é um conjunto ortogonal se < u, v > = 0 para quaisquer u, v ∈ S distintos.
c) S é um conjunto ortonormal se S é ortogonal e kvk = 1 para todo v ∈ S.

Exemplo 118 Seja V = IR2 , munido do produto interno canônico: < (x, y), (x1 , y1 ) > =
xx1 + yy1 . Se u = (2, 1) e v = (−1, 2), temos u ⊥ v. Tomando agora o produto interno
<, >1 : V × V −→ IR, definido por < (x, y), (x1 , y1 ) >1 = (x − y)(x1 − y1 ) + 2xx1 , temos que
u e v não são ortogonais em relação a este produto interno. Considerando agora os vetores
w1 = (0, 3) e w2 = (1, 1), observamos que < w1 , w2 >1 = 0 e assim w1 ⊥ w2 em relação ao
produto interno <, >1 , ou seja, w1 ⊥ w2 no espaço (IR2 , <, >1 ).

Exemplo 119 Considerando o espaço vetorial real IR3 , munido do produto interno canônico,
temos que

β1 = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} e β2 = {(1, 1, 1), (1, −2, 1), (1, 0, −1)}

são bases ortogonais de IR3 , sendo β1 ortonormal.

Exemplo 120 Considere o espaço vetorial real C[−1, 1] das funções reais contı́nuas no intervalo
[−1, 1], munido do produto interno

<, > : C[−1, 1] × C[−1, 1] −→ IR


Z 1
(f , g) 7−→ < f, g > = f (x)g(x)dx
−1

Temos que {Sen, Cos} é um conjunto ortogonal em relação a este produto interno.

Exemplo 121 Considere o espaço vetorial complexo S0 (C) de todas as sequências complexas
P
quase nulas, munido do produto interno definido por < (xn ), (yn ) > = ∞n=1 xn yn , e o conjunto
S = {en | n ∈ N}, onde

e1 = (1, 0, 0, 0 . . .) , e2 = (0, 1, 0, 0 . . .) , ... , en = (0, . . . , 0, 1, 0, 0 . . .) , ...

Temos que S é um subconjunto ortogonal do espaço S0 (C).

42
Teorema 122 Se V é um espaço vetorial com produto interno e S é um conjunto ortogonal
de vetores não nulos de V , então S é LI.

Demonstração. Sejam v1 , v2 , . . . , vn ∈ S e λ1 , λ2 , . . . , λn ∈ K tais λ1 v1 +λ2 v2 +. . .+λn vn = 0V .


Para cada i = 1, 2, . . . , n, temos

< λ1 v1 + λ2 v2 + . . . + λn vn , vi > = λ1 < v1 , vi > +λ2 < v2 , vi > + . . . + λn < vn , vi > = λi < vi , vi >

e assim λi < vi , vi > = < 0V , vi > = 0. Como vi 6= 0V , devemos ter λi = 0. Logo, S é LI. ¤

Definição 123 Sejam V um espaço vetorial com produto interno e S um subconjunto não
vazio de V . Definimos o conjunto ortogonal a S, denotado por S ⊥ , como sendo

S ⊥ = {v ∈ V | < v, s > = 0, ∀ s ∈ S}.

Observe que S ⊥ é um subespaço de V e que S ⊥ = hSi⊥ . Observe também que S1 e S2 são


subconjuntos não vazios de V , com S1 ⊆ S2 , então S2⊥ ⊆ S1⊥ .

Exemplo 124 Se V é um espaço vetorial com produto interno, temos claramente {0V }⊥ = V
e V ⊥ = {0V }. Se S é um subconjunto gerador de V , então S ⊥ = {0V }.

Exemplo 125 Considere o espaço vetorial real S0 (IR) das sequências quase nulas de números
P
reais, munido do produto interno < (xn ), (yn ) > = ∞n=1 xn yn . Se S = {e1 , e2 }, então S

=
{(xn ) ∈ S0 (IR) | x1 = x2 = 0}.

Exemplo
Z 1 126 Considere o espaço vetorial real C[−1, 1], munido do produto interno < f, g >
= f (x)g(x)dx. Se I = {f ∈ C[−1, 1] | f é ı́mpar} e P = {f ∈ C[−1, 1] | g é par}, então
−1
temos P ⊆ I ⊥ . Por outro lado, se g ∈ I ⊥ , tomemos g = g1 + g2 , com g1 ∈ I e g2 ∈ P. Assim,
< g, g1 > = < g2 , g1 > = 0 e portanto < g1 , g1 > = 0. Logo, g1 = 0 e daı́ g ∈ P.

Proposição 127 Seja V um espaço vetorial com produto interno, W e W1 subespaços de V e


S um subconjunto não vazio de V . Então valem:
a) W ⊆ (W ⊥ )⊥ e hSi ⊆ hS ⊥ i⊥ .
b) W ∩ W ⊥ = {0V }.
c) W + W1 )⊥ = W ⊥ ∩ W1⊥ .
d) W ⊥ + W1⊥ ⊆ (W ∩ W1 )⊥ .
e) Se W + W ⊥ = V , então (W ⊥ )⊥ = W .

Demonstração. a) É imediato.
b) Se w ∈ W ∩ W ⊥ , então < w, w > = 0 e assim w = 0V .
c) Como W e W1 estão contidos em W + W1 , temos (W + W1 )⊥ ⊆ W ⊥ e (W + W1 )⊥ ⊆ W1⊥ .

43
Logo, (W + W1 )⊥ ⊆ W ⊥ ∩ W1⊥ . Suonah agora v ∈ W ⊥ ∩ W1⊥ e u ∈ W + W1 , arbitrários. Temos
u = w + w1 , com w ∈ W e w1 ∈ W1 , e assim

< v, u > = < v, w + w1 > = < v, w > + < v, w1 > = 0.

Logo, v ∈ (W + W1 )⊥ .
d) Como W ∩ W1 está contido em W e em W1 , temos W ⊥ ⊆ (W ∩ W1 )⊥ e W1⊥ ⊆ (W ∩ W1 )⊥ ,
donde segue o rsultado.
e) Basta mostrarmos que (W ⊥ )⊥ ⊆ W . De fato, se v ∈ (W ⊥ )⊥ , então existem v1 ∈ W e
v2 ∈ W ⊥ tais que v = v1 + v2 . Logo,

0 = < v, v2 > = < v1 + v2 , v2 > = < v1 , v2 > + < v2 , v2 > = < v2 , v2 >

e daı́ v2 = 0V . Segue então que v = v1 ∈ W . ¤

Observação 128 É importante observar que as inclusões contrárias das apresentadas nos
itens (a) e (d) da proposição anterior em geral não valem. Tomemos o espaço vetorial real
P
`2 = {(an ) ∈ S | ∞ 2 2
n=1 an < ∞}. Consideremos ` munido do produto interno definido por
P∞ 2
< (xn ), (yn ) > = n=1 xn yn . Sendo S0 o subespaço de ` constituı́do das sequências quase
nulas, temos S0⊥ = {(0, 0, 0, . . .)} e daı́ (S0⊥ )⊥ = `2 . Logo, S0 6= (S0⊥ )⊥ .
Tomando agora W = hui, com u = (1/n)n∈N , temos S0 ∩ W = {(0, 0, 0, . . .)} e daı́
(S0 ∩ W )⊥ = `2 . Mas, S0⊥ = {(0, 0, 0, . . .)} e W ⊥ 6= `2 , donde (S0 ∩ W )⊥ 6= S0⊥ + W ⊥ .

Vejamos agora que sob a hipótese de V ter dimensão finita temos as igualdades V = W +W ⊥
e (W ∩ W1 )⊥ = W ⊥ + W1⊥ .

Teorema 129 (Processo de Ortogonalização de Gram-Schmidt) Seja V um espaço ve-


torial com produto interno. Então todo subespaço (não nulo) de dimensão finita de V possui
base ortogonal.

Demonstração. Sejam W um subespaço de V de dimensão finita e {v1 , v2 , . . . , vn } uma base de


W . Tomando
< v 2 , w1 >
w1 = v1 e w2 = v2 − w1
kw1 k2
temos
< v2 , w 1 >
< w 2 , w 1 > = < v2 , w 1 > − < w1 , w1 > = 0.
kw1 k2
Ademais, como {w1 , v2 } é LI, temos w2 6= 0V e {w1 , w2 } é LI. Tomando agora
< v 3 , w1 > < v3 , w 2 >
w3 = v3 − 2
w1 − w2
kw1 k kw2 k2

44
temos
< v3 , w 1 > < v3 , w 2 >
< w 3 , w 1 > = < v3 , w 1 > − 2
< w1 , w1 > − < w2 , w1 > = 0
kw1 k kw2 k2
e
< v 3 , w1 > < v 3 , w2 >
< w 3 , w 2 > = < v 3 , w2 > − 2
< w1 , w2 > − < w2 , w2 > = 0 .
kw1 k kw2 k2
Além disso, como w1 , w2 ∈ hv1 , v2 i, temos que w3 6= 0V e que {w1 , w2 , w3 } é ortogonal. Supondo
agora que já foram definidos w1 , w2 , . . . , wk ortogonais que geram o mesmo subespaço que v1 ,
v2 , . . . , vk , tomemos
X k
< vk+1 , wj >
wk+1 = vk+1 − 2
wj .
j=1
kw j k

Temos que < wk+1 , wi > = 0 para 1 ≤ i ≤ k, e assim o conjunto {w1 , . . . , wk , wk+1 } é orotgonal.
Ademais, como {v1 , . . . , vk+1 } é LI, temos que wk+1 6= 0V . Por fim, é fácil ver que o subespaço
gerado por {w1 , . . . , wk , wk+1 } é igual ao subespaço gerado por {v1 , . . . , vk , vk+1 }. Este processo
para na construção do vetor wn , quando temos finalmente uma base ortogonal de W . ¤

Corolário 130 Se V é um espaço vetorial com produto interno, então todo subespaços (não
nulo) de V de dimensão finita possui base ortonormal.

Corolário 131 Se V é um espaço vetorial de dimensão finita com produto interno e W é um


subespaço de V , então:
a) dim W + dim W ⊥ = dim V .
b) W ⊕ W ⊥ = V .
c) (W ⊥ )⊥ = W .

Demonstração. a) Se W = {0V } ou W = V , o resultado é imediato. Supondo W 6= V ,


{0V }, tomemos uma base ortogonal γ = {w1 , . . . , wk } de W . Pelo processo de ortogonal-
ização de Gram-Schmidt, podemos construir uma base orotognal de V contendo γ, digamos
β = {w1 , . . . , wk , wk+1 , . . . , wn }. Claramente, wk+1 , . . . , wn ∈ W ⊥ e assim dim V − dim W ≤
dim W ⊥ , ou seja, dim V ≤ dim W + dim W ⊥ . Mas, W ∩ W ⊥ = {0V } e daı́ dim W + dim W ⊥ =
dim(W ⊕ W ⊥ ) ≤ dim V , o que nos dá o resultado.
b) Segue imediatamente de (a).
c) Temos dim W + dim W ⊥ = dim V e dim W ⊥ + dim(W ⊥ )⊥ = dim V , donde dim(W ⊥ )⊥ =
dim W . como vale a inclusão W ⊆ (W ⊥ )⊥ , temos o resultado. ¤

Exemplo 132 Considere o espaço vetorial real IR4 munido do produto interno canônico e os
subespaço W = {(x, y, z, t) ∈ IR4 | x − 2y + z + t = 0}. A partir da base {v1 , v2 , v3 } de W , onde

45
v1 = (1, 0, 0, −1), v2 = (0, 1, 0, 2) e v3 = (0, 0, 1, −1), vamos determinar uma base ortogonal de
W . De acordo com oprocesso de ortogonalização de Gram-Schmidt, tomamos
< v2 , w 1 >
w1 = v1 = (1, 0, 0, −1) , w 2 = v2 − w1 = (1, 1, 0, 1) e
kw1 k2
µ ¶
< v 3 , w1 > < v3 , w 2 > 1 1 1
w3 = v3 − w1 − w2 = − , , 1, − .
kw1 k2 kw2 k2 6 3 6
Temos que {w1 , w2 , w3 } é uma base ortogonal de W .

Definição 133 Sejam V e W espaços vetoriais com produto interno e T : V −→ W uma


transformação linear. Dizemos que T preserva produto interno se < T (v1 ), T (v2 ) > = < v1 , v2 >
para quaisquer v1 , v2 ∈ V . Dizemos que T é um isomorfismo de espaços com produto interno
se T é um isomorfismo e preserva produto interno.

Exemplo 134 Considere os espaços vetoriais complexos C2 e C3 , munidos dos seusprodutos


internos canônicos, e a transformação T : C2 −→ C3 , definida por T (z1 , z2 ) = (z1 i, z2 , 0). Temos
que T preserva produto interno.

Exemplo 135 Considere no espaço vetorial real IR2 os produtos internos <, > e <, >1 ,
definidos por

< (x1 , y1 ), (x2 , y2 ) > = x1 x2 + y1 y2 e < (x1 , y1 ), (x2 , y2 ) >1 = (x1 − y1 )(x2 − y2 ) + 2x1 x2 .

A aplicação
F : (IR2 , <, >) −→ (IR2 , <, >1³) ´
√ √
2 2
(x, y) 7−→ F (x, y) = 2
y , −x + 2
y
é um isomorfismo de espaços vetoriais com produto interno.

Exemplo 136 Sejam V e W espaços vetoriais com produto interno isomorfos. Se T : V −→ W


é um isomorfismo de espaços com produto interno, então T −1 : W −→ V também é um
isomorfismo de espaços com produto interno.

Proposição 137 Sejam V e W espaços vetoriais com produto interno e T : V −→ W uma


transformação linear. São equivalentes:
i) T preserva produto interno.
ii) kT (v)k = kvk para todo v ∈ V .

Demonstração. i) =⇒ ii) Supondo (i), tomemos v ∈ V . Então,

kT (v)k2 = < T (v), T (v) > = < v, v > = kvk2

46
e assim temos (ii).

ii) =⇒ i) Supondo (ii), tomemos v1 , v2 ∈ V , arbitrários. Então, kT (v1 + v2 )k = kv1 + v2 k.


Como
kT (v1 + v2 )k2 = kT (v1 ) + T (v2 )k2 = < T (v1 ) + T (v2 ), T (v1 ) + T (v2 ) >
= kT (v1 )k2 + < T (v1 ), T (v2 ) > + < T (v2 ), T (v1 ) > +kT (v2 )k2
e
kv1 + v2 k2 = < v1 + v2 , v1 + v2 > = kv1 k2 + < v1 , v2 > + < v2 , v1 > +kv2 k2 ,
temos
< T (v1 ), T (v2 ) > − < v1 , v2 > = < v2 , v1 > − < T (v2 ), T (v1 ) > .
Tomando agora α = < T (v1 ), T (v2 ) > − < v1 , v2 > e β = < v2 , v1 > − < T (v2 ), T (v1 ) >, e
fazendo os mesmos cálculos acima com iv1 no lugar de v1 , temos α = β e iα = −iβ. Segue
então que α = β = 0 e assim concluı́mos que T preserva produto interno. ¤

Corolário 138 Se V e W são espaços vetoriais com produto interno e T : V −→ W é uma


transformação linear que preserva produto interno, então T é injetora.

Teorema 139 Sejam V e W espaços vetoriais com produto interno, sendo dim V finita, e
T : V −→ W uma transformação linear. São equivalentes:
i) T preserva produto interno.
ii) T leva toda base ortonormal de V num subconjunto ortonormal de W .
iii) T leva alguma base ortonormal de V num subconjunto orotnormal de W .

Demonstração. i) =⇒ ii) Supondo (i), tomemos β = {u1 , u2 , . . . , un } uma base ortonormal ar-
bitrária de V . Então, T (β) = {T (u1 ), T (u2 ), . . . , T (un )} e < T (ui ), T (uj ) > = < ui , uj > = δij .
Logo, T (β) é um subconjunto orotnormal de W .

ii) =⇒ iii) Imediato.

iii) =⇒ i) Supondo (iii), consideremos β = {u1 , u2 , . . . , un } uma base ortonormal de V tal


que T (β) = {T (u1 ), T (u2 ), . . . , T (un )} seja um subconjunto orotnormal de W . Tomemos v1 ,
v2 ∈ V , arbitrários. Então v1 = λ1 u1 + . . . + λn un e v2 = α1 u1 + . . . + αn un , com λi , αi ∈ K,
e assim T (v1 ) = λ1 T (u1 ) + . . . + λn T (un ) e T (v2 ) = α1 T (u1 ) + . . . + αn T (un ). Logo,
n X
X n
< T (v1 ), T (v2 ) > = λi αi < T (ui ), T (uj ) > = λ1 α1 + . . . + λn αn
i=1 j=1

47
e n X
n
X
< v1 , v 2 > = λi αi < ui , uj > = λ1 α1 + . . . + λn αn ,
i=1 j=1
donde concluı́mos que T preserva produto interno. ¤
Definição 140 Sejam V um espaço vetorial com produto interno e T : V −→ V . Dizemos que
T é um operador unitário se é um isomorfismo e preserva produto interno.
Pela definição acima, um operador unitário é um isomorfismo de um espaço com produto
interno nele próprio, ou seja, é um automorfismo de um espaço com produto interno. Se T é
um operador unitário, observe que T −1 também é unitário.
Exemplo 141 Se V é um espaço vetorial com produto interno, então o operador identidade
de V é unitário.
Exemplo 142 Considere o espaço vetorial real IR2 , munido do produto interno canônico, e o
operador linear T : IR2 −→ IR2 , definido por T (x, y) = (xCos θ − ySen θ, xSen θ + yCos θ).
Temos que T é um operador unitário.
Sejam V um espaço vetorial de dimensão finita com produto interno e β = {u1 , u2 , . . . , un }
uma base ortonormal de V . Consideremos T : V −→ V um operador unitário. Se v ∈ V , então
v = λ1 u1 + λ2 u2 + . . . + λn un , com λi ∈ K, e daı́ < v, ui > = λi < ui , ui > = λi . Para cada
j ∈ {1, . . . , n}, temos
T (uj ) = < T (uj ), u1 > u1 + . . . + < T (uj ), un > un e
T −1 (uj ) = < T −1 (uj ), u1 > u1 + . . . + < T −1 (uj ), un > un .
Assim, [T ]β = (aij )n×n e [T −1 ]β = (bij )n×n , onde aij = < T (uj ), ui > e bij = < T −1 (uj ), ui >.
Observe que
aij = < T (uj ), ui > = < uj , T −1 (ui ) > = < T −1 (ui ), uj > = bji .
t
Logo, [T −1 ]β = [T ]β , ou seja, [T −1 ]β é a transposta conjugada de [T ]β . Mas, [T −1 ]β = [T ]−1
β e
t t
assim [T ]β [T ]β = [T ]β [T ]β = In .
Definição 143 Seja A ∈ mn (K). Dizemos que A é uma matriz:
a) Ortogonal se AAt = At A = In , ou seja, se A é inversı́vel e A−1 = At .
t t t
b) Unitária se AA = A A = In , ou seja, se A é inversı́vel e A−1 = A .
Observe que se K = IR, então A é ortogonal se, e somente se, é unitária. Mostramos acima
que se T é unitário e β é uma base ortonormal de V , então [T ]β é uma matriz unitária.
Observe que A = (aij )n×n é uma matriz ortogonal se, e soemnte se,
n
X n
X
aij alj = δil e aij ail = δjl .
j=1 i=1

48
OPERADORES ADJUNTOS

Em toda esta seção, o corpo K será sempre IR ou C. Todos os espaços vetoriais considerados
serão sobre K e de dimensão finita.

Teorema 144 (Representação de Riesz) Seja V um espaço vetorial com produto interno.
Se f ∈ V ∗ , então existe um único w ∈ V tal que f (v) = < v, w > para todo v ∈ V .

Demonstração. Fixada uma base β = {u1 , u2 , . . . , un } ortonormal de V , definamos

w = f (u1 )u1 + f (u2 )u2 + . . . + f (un )un .

Claramente, a aplicação fw : V −→ K, definida por fw (v) = < v, w > é um funcional linear.


Ademais,

fw (uj ) = < uj , w > = < uj , f (u1 )u1 + f (u2 )u2 + . . . + f (un )un > = f (uj ) < uj , uj > = f (uj )

para todo j = 1, 2, . . . , n. Logo, devemos ter f = fw .


Para demonstrar a unicidade, suponhamos w1 ∈ V também satisfazendo a condição dese-
jada, ou seja, < v, w1 > = f (v) para todo v ∈ V . Temos então < v, w > = < v, w1 > e daı́
< v, w − w1 > = 0 para todo v ∈ V . Logo, w − w1 ∈ V ⊥ = {0V } e assim w1 = w. ¤

Observação 145 O teorema anterior não é válido sem a hipótese de dimensão finita. Con-
sidere
Z o espaço vetorial real IR[x], munido do produto interno definido por < p(x), q(x) > =
1
p(x)q(x)dx. Tomemos o funcional linear
0

T : IR[x] −→ IR
p(x) 7−→ T (p(x)) = p(0)
e suponhamos que existe q0 (x) ∈ IR[x] tal que T (p(x)) = < p(x), q0 (x) > para todo p(x) ∈ IR[x].
Temos então Z 1
xq0 (x)2 dx = T (xq0 (x)) = 0.
0
2
Como xq0 (x) ≥ 0 para todo x ∈ [0, 1], e toda função polinomial é contı́nua, devemos ter
xq0 (x)2 = 0 para todo x ∈ [0, 1]. Logo, xq0 (x)2 , e consequentemente q0 (x), deve ser o polinômio
nulo. Segue então que T é o funcional nulo, o que é um absurdo. Assim, T não possui
representação no sentido do teorema anterior com respeito a este produto interno.

Sejam V e W espaços vetoriais com produto interno e T : V −→ W uma transformação


linear. Fixado w ∈ W , consideremos o funcional linear

f: V −→ K
v 7−→ f (v) = < T (v), w >

49
sobre V ∗ . Como dim V é finita, temos, pelo Teorema da Representação de Riesz, que existe
um único uw ∈ V tal que f (v) = < v, uw > para todo v ∈ V . Denotando uw por T ∗ (w), temos
a aplicação
T ∗ : W −→ V
w 7−→ T ∗ (w)
que é chamada de adjunta de T . Observe agora que se w1 , w2 ∈ W e λ ∈ k, então

< v, T ∗ (w1 + w2 ) > = < T (v), w1 + w2 > = < T (v), w1 > + < T (v), w2 >

= < v, T ∗ (w1 ) > + < v, T ∗ (w2 ) > = < v, T ∗ (w1 ) + T ∗ (w2 ) >
e

< v, T ∗ (λw1 ) > = < T (v), λw1 > = λ < T (v), w1 > = λ < v, T ∗ (w1 ) > = < v, λT ∗ (w1 ) >

para todo v ∈ V . Logo, T ∗ (w1 + w2 ) = T ∗ (w1 ) + T ∗ (w2 ) e T ∗ (λw1 ) = λT ∗ (w1 ). Portanto, T ∗


é linear. Assim, a adjunta de T : V −→ W é a única aplicação linear T ∗ : W −→ V tal que

< T (v), w > = < v, T ∗ (w) > , ∀ v ∈ V e ∀ w ∈ W.

Sendo V um espaço vetorial com produto interno e T : V −→ V um operador linear,


dizemos que T ∗ : V −→ V é o operador adjunto de T . Observe que < T (v), u > = < v, T ∗ (u) >
para quaisquer u, v ∈ V .

Exemplo 146 Se V é um espaço vetorial com produto interno, então 0∗ = 0 e I ∗ = I, ou seja,


os operadores nulo e identidade de V coincidem com seus respectivos adjuntos.

Exemplo 147 Considere o espaço vetorial real IR2 munido do produto interno canônico.
Considerando T : IR2 −→ IR2 o operador linear definido por T (x, y) = (2x + y, 3x − y),
vamos calcular T ∗ . Como T ∗ é linear, basta calcular T ( 1, 0) e T ∗ (0, 1). Observando que
< T (x, y), (1, 0) > = < (x, y), T ∗ (1, 0) > e < T (x, y), (0, 1) > = < (x, y), T ∗ (0, 1) >, e tomando
T ∗ (1, 0) = (a1 , b1 ) e T ∗ (0, 1) = (a2 , b2 ), temos 2x + y = a1 x + b1 y e 3x − y = a2 x + b2 y
para todo (x, y) ∈ IR2 . Devemos ter então a1 = 2, b1 = 1, a2 = 3 e b2 = −1. Logo,
T ∗ (x, y) = (2x + 3y, x − y).

Exemplo 148 Considere o espaço vetorial complexo M3×1 (C), munido do produto interno
definido por    
* x1 x2 +
   
 y1  ,  y2  = x1 x2 + y1 y2 + z1 z2 .
z1 z2

50
Sendo  
a α1 α2
 
A =  α1 b α3  ,
α2 α3 c
onde a, b, c ∈ IR e αi ∈ C, temos que o operador linear TA : M3×1 (C) −→ M3×1 (C), definido
por TA (X) = AX, satisfaz TA∗ = TA .

Proposição 149 Sejam V um espaço vetorial com produto interno e T , S : V −→ V opera-


dores lineares. Então valem:
a) (T + S)∗ = T ∗ + S ∗ .
b) (ST )∗ = S ∗ T ∗ .
c) (λT )∗ = λT ∗ para todo λ ∈ K.
d) (T ∗ )∗ = T .
t
e) Se β é uma base ortonormal de V , então [T ∗ ]β = [T ]β .

Demonstração. a) Dados u, v ∈ V , temos

< (T +S)(u), v > = < T (u), v > + < S(u), v > = < u, T ∗ (v) > + < u, S ∗ (v) > = < u, (T ∗ +S ∗ )(v) > .

Pela unicidade do adjunto de T + S devemos ter (T + S)∗ = T ∗ + S ∗ .


b) Dados u, v ∈ V , temos

< (T S)(u), v > = < T (S(u), v > = < S(u), T ∗ (v) > + < u, S ∗ (T ∗ (v)) > .

Pela unicidade do adjunto de T S devemos ter (T S)∗ = S ∗ T ∗ .


c) Dados u, v ∈ V , temos

< (λT )(u), v > = λ < T (u), v > = λ < u, T ∗ (v) > = < u, (λT ∗ )(v) > .

Pela unicidade do adjunto de λT devemos ter (λT )∗ = λT ∗ S.


d) Dados u, v ∈ V , temos < T (u), v > = < u, T ∗ (v) > e < T ∗ (v), u > = < v, T (u) >. Pela
unicidade do adjunto de T ∗ devemos ter (T ∗ )∗ = T .
e) Seja β = {u1 , u2 , . . . , un } uma base ortonormal de V . Primeiramente, observemos que se
v ∈ V , então
v = < v, u1 > u1 + < v, u2 > u2 + . . . + < v, un > un .
Assim, para j = 1, . . . , n, temos

T (uj ) = < T (uj ), u1 > u1 + . . . + < T (uj ), un > un e

T ∗ (uj ) = < T ∗ (uj ), u1 > u1 + . . . + < T ∗ (uj ), un > un ,

51
donde segue que [T ]β = (aij )n×n e [T ∗ ]β = (bij )n×n , onde aij = < T (uj ), ui > e bij =
< T ∗ (uj ), ui >. Logo,

aij = < T (uj ), ui > = < uj , T ∗ (ui ) > = < T ∗ (ui ), uj > = bji

e portanto temos resultado. ¤

No resultado seguinte vamos ver a relação entre os conceitos de adjunto de um operador e


operador unitário.

Proposição 150 Sejam V um espaço vetorial com produto interno e T : V −→ V um operador


linear. São equivalentes:
i) T é unitário.
ii) T é inversı́vel e T −1 = T ∗ .

Demonstração. i) =⇒ ii) Supondo (i) temos imediatamante que T é inversı́vel T é inversı́vel.


Dados u, v ∈ V temos que < u, v > = < T (u), T (v) > = < u, T ∗ (T (v)) >. Segue então que
(T ∗ T )(v) = v para todo v ∈ V , donde T ∗ T = I e assim T −1 = T ∗ .

ii) =⇒ i) Supondo (ii), devemos mostrar que T preserva produto interno. De fato, para u,
v ∈ V quaisquer temos

< u, v > = < u, (T −1 T )(v) > = < u, T ∗ (T (v)) > = < T (u), T (v) > .

Definição 151 Sejam V um espaço vetorial com produto interno e T : V −→ V um operador


linear. Dizemos que T é:
a) Auto-adjunto se T ∗ = T .
b) Normal se T T ∗ = T ∗ T .

É imediato da definição acima que todo operador auto-adjunto é normal. Observe também
que todo operador unitário é normal.
Quando K = C, os operadores auto-adjuntos também são chamados de hermitianos; quando
K = IR, também são chamados de simétricos.

Exemplo 152 Se V é um espaço vetorial com produto interno, os operadores nulo e identidade
são claramente auto-adjuntos. Observa-se que o conjunto dos operadores auto-adjuntos de V
é fechado em relação à soma. Quando K = IR, este conjunto é também fechado em relação ao
produto por escalar.

52
Exemplo 153 Considere o espaço vetorial real IR2 , munido do produto interno canônico, e o
operador linear S : IR2 −→ IR2 , definido por S(x, y) = (−y, x). Observando que S ∗ = −S,
concluı́mos que S é normal, mas não é auto-adjunto.

Exemplo 154 Considerando o espaço vetorial complexo C3 , munido do produto interno canônico,
e o operador linear F : C3 −→ C3 , cuja matriz em relação à base canônica é
 
1 i 1+i
 
 −i 0 1  ,
1−i 1 2

temos que F é auto-adjunto.

Observação 155 Sendo β uma base ortonormal de V e T : V −→ V um operador linear,


t t
lembremos que [T ∗ ]β = [T ]β . Assim, T é auto-adjunto se, e somente se, [T ]β = [T ]β . No caso
K = IR, temos que T é auto-adjunto se, e somente se, [T ]β = [T ]tβ (isto é, [T ]β é simétrica).

Proposição 156 Sejam V um K-espaço vetorial com produto interno, T : V −→ V um opera-


dor linear e λ, λ1 ∈ K. Então valem:
a) Se T é unitário e λ é autovalor de T , então |λ| = 1.
b) Se T é auto-adjunto e λ é autovalor de T , então λ ∈ IR.
c) Se T é normal, então kT ∗ (v)k = kT (v)k para todo v ∈ V .
d) Se T é normal e v ∈ V é tal que T (v) = λv, então T ∗ (v) = λv.
e) Se T é normal, λ 6= λ1 e u, v ∈ V são tais que T (u) = λu e T (v) = λ1 v, então < u, v > = 0.

Demonstração. a) Seja v ∈ V não nulo tal que T (v) = λv. Como T é unitário, temos
< T (v), T (v) > = < v, v >. Logo,

< v, v > = < λv, λv > = λλ < v, v > = |λ|2 < v, v > .

Mas, como < v, v > 6= 0, concluı́mos que |λ|2 = 1 e assim temos o resultado.
b) Seja v ∈ V não nulo tal que T (v) = λv. Como T ∗ = T , temos < T (v), v > = < v, T (v) > e
assim λ < v, v > = λ < v, v >. Observando agora que < v, v > 6= 0, concluı́mos que λ = λ e
portanto λ ∈ IR.
c) Temos kT (v)k2 = < T (v), T (v) > = < v, (T ∗ T )(v) > = < v, (T T ∗ )(v)) > pois T é normal.
Como T ∗∗ = T , temos kT (v)k2 = < T ∗ (v), T ∗ (v) > = kT ∗ (v)k2 e daı́ segue o resultado.
d) Temos
kT ∗ (v) − λvk2 = kT ∗ (v)k2 − λ < T ∗ (v), v > −λ < v, T ∗ (v) > +kλk2
= kT (v)k2 − λ < v, T (v) > −λ < T (v), v > +|λ|2 kvk2
= |λ|2 kvk2 − |λ|2 kvk2 − |λ|2 kvk2 + |λ|2 kvk2 = 0

53
e daı́ T ∗ (v) = λv.
e) Temos λ < u, v > = < T (u), v > = < u, T ∗ (v) > = < u, λ1 v > = λ1 < u, v >. Como λ1 6= λ,
devemos ter < u, v > = 0. ¤

Vamos agora mostrar que os operadores normais sobre espaços vetoriais complexos e os
operadores auto-adjuntos (sobre espaços reais ou complexos) são diagonalizáveis. Mais ainda,
vamos mostrar que se T é um tal operador, então existe no espaço vetorial em questão uma
base ortonormal de autovetores de T . Este resultado é chamado de Teorema Espectral.

Lema 157 Sejam V um espaço vetorial com produto interno e T : V −→ V um operador


linear. Se W é um subespaço T -invariante de V , então W ⊥ é T ∗ -invariante.

Demonstração. Seja v ∈ W ⊥ . Dado um elemento w ∈ W arbitrário, temos que T (w) ∈ W


e assim 0 = < T (w), v > = < w, T ∗ (v) >. Segue então que T ∗ (v) ∈ W ⊥ e assim W ⊥ é
T ∗ -invariante. ¤

Lema 158 Se V é um espaço vetorial com produto interno e T : V −→ V é um operador linear


auto-adjunto, então T possui autovalor.

Demonstração. Se K = C, o resultado é imediato, uma vez que C é um corpo algebricamente


fechado. Suponhamos então K = IR. Sendo β uma base ortonormal de V e A = [T ]β , temos
At = A e pA (x) = pT (x).
Consideremos agora o espaço vetorial complexo Mn×1 (C) (onde n = dim V ), munido do seu
produto interno canônico, e o operador linear S : Mn×1 (C) −→ Mn×1 (C), definido por S(X) =
t
AX. Sendo γ a base canônica de Mn×1 (C), temos que [S]γ = A e assim [S ∗ ]γ = A = A = [S]γ .
Logo, S ∗ = S e portanto os autovalores de S são todos reais. Como pS (x) = pA (x) = pT (x),
temos que pT (x) possui raiz real e daı́ segue que T possui autovalor. ¤

Teorema 159 Sejam V um espaço vetorial com produto interno e T : V −→ V um operador


linear. Então:
a) Se T é auto-adjunto, então existe alguma base ortonormal de V cujos elementos são autove-
tores de T .
b) Se V é um espaço complexo e T é normal, então existe alguma base ortonormal de V cujos
elementos são autovetores de T .

Demonstração. a) Pelo lema anterior, T possui algum autovalor λ. Tomemos então v1 ∈ V ,


com kv1 k = 1, tal que T (v1 ) = λv1 e W = hv1 i⊥ . Como hv1 i é T -invariante e T ∗ = T , temos
que W é também T -invariante. Tomando TW = T |W e w1 , w2 ∈ W arbitrários, observamos
que < T (w1 ), w2 > = < w1 , T (w2 ) > e daı́ < TW (w1 ), w2 > = < w1 , TW (w2 ) >. Logo, TW é

54
auto-adjunto. Como dim W = dim V −1, por hipótese de indução temos que existe alguma base
β ortonormal de W cujos elementos são autovetores de TW , e portanto de T . Como β ⊆ hv1 i⊥ ,
concluı́mos que β ∪ {v1 } é uma base ortonormal de V cujos elementos são autovetores de T .
b) Como K = C, temos que T possui algum autovalor λ. Tomemos então v1 ∈ V , com
kv1 k = 1, tal que T (v1 ) = λv1 e W = hv1 i⊥ . Como T é normal, temos T ∗ (v1 ) = λv1 e assim
hv1 i é T -invariante e T ∗ -invariante. Logo, W também é T -invariante e T ∗ -invariante.
Tomando agora TW = T |W , observamos que para quaisquer w1 , w2 ∈ W vale < TW (w1 ), w2 >
= < w1 , (T ∗ )W (w2 ) >, donde segue a igualdade (TW )∗ = (T ∗ )W e daı́ a normalidade do operador
TW . Como dim W = dim V − 1, por hipótese de indução temos que existe alguma base β
ortonormal de W cujos elementos são autovetores de TW , e portanto de T . O resultado segue
então como no ı́tem (a). ¤

Corolário 160 Se A ∈ Mn (IR) é uma matriz simétrica, então existe alguma matriz ortogonal
P ∈ Mn (IR) tal que P −1 AP é diagonal.

Exemplo 161 Considere o espaço vetorial real IR2 , munido do produto interno canônico, e o
operador linear
T : IR2 −→ IR2
.
(x, y) 7−→ T (x, y) = (−y, x)
Este operador é normal, mas não é diagonalizável.

Exemplo 162 Considere o espaço vetorial complexo C3 , munido do produto interno canônico,
e o operador linear F : C3 −→ C3 , definido por F (z1 , z2 , z3 ) = (z1 , 2z2 +(1+i)z3 , (1−i)z2 +3z3 ).
Sendo β a base canônica de C3 , temos
 
1 0 0
 
[F ]β =  0 2 1+i  ,
0 1−i 3
t
que satisfaz [F ]β = [F ]β . Logo, F é auto-adjunto e portanto é diagonalizável. Os autovalores
de F são λ1 = 1 e λ2 = 4. A base ortonormal γ = {(1, 0, 0), (0, 1 + i, −1), (0, 1 + i, 2)} de C3 é
uma base de autovetores de F .

55
FORMAS BILINEARES

Definição 163 Sejam V , W e U espaços vetoriais sobre o mesmo corpo K. Dizemos que uma
aplicação F : V × W −→ U é bilinear se valem:
a) f (λv1 = v2 , w) = λf (v1 , w) + f (v2 , w) para quaisquer λ ∈ K, v1 , v2 ∈ V e w ∈ W .
b) f (v, λw1 + w2 ) = λf (v, w1 ) + f (v, w2 ) para quaisquer λ ∈ K, v ∈ V e w1 , w2 ∈ W .

Sendo V , W e U espaços vetoriais sobre K e f : V × W −→ U uma aplicação, podemos


definir para v0 ∈ V a aplicação

fD v0 : W −→ U
,
w 7−→ (fD v0 )(w) = f (v0 , w)

e para w0 ∈ V a aplicação

fE w 0 : V −→ U
.
v 7−→ (fE w0 )(v) = f (v, w0 )

Temos que f é bilinear se, e somente se, fE w0 e fD v0 são lineares para quaisquer v0 ∈ V e
w0 ∈ W .
Denotemos por B(V, W ; U ) o conjunto de todas as aplicações bilineares de V × W em U .
Observemos que para cada f ∈ B(V, W ; U ) temos

fD : V −→ L(W, U ) fE : W −→ L(V, U )
e
v 7−→ fD v w 7−→ fE w

que são aplicações lineares. Reciprocamente, cada aplicação linear de uma dessas duas formas
induz uma aplicação bilinear de V × W em U .
Sendo f : V × W −→ U uma aplicação bilinear, não é difı́cil ver que f (v, 0W ) = f (0V , w) =
0U e f (−v, w) = f (v, −w) = −f (v, w) para quaisquer v ∈ V e w ∈ W .

Exemplo 164 Dados V , W e U espaços vetoriais quasiquer sobre o mesmo corpo, a aplicação
nula
f0 : V × W −→ U
(v, w) 7−→ f0 (v, w) = 0U
é bilinear.

Exemplo 165 O produto de matrizes

· : Mn×m (K) × Mm×p (K) −→ Mn×p (K)


(A, B) 7−→ AB

é uma aplicação bilinear.

56
Exemplo 166 Sendo V um K-espaço vetorial, o seu produto por escalar

g : K ×V −→ V
(λ, v) 7−→ g(λ, v) = λv

é uma aplicação bilinear.

Proposição 167 Sejam V , W , e U espaços vetoriais sobre K, β1 uma base de V e β2 uma


base de W . Então, toda aplicação f : β1 × β2 −→ U se estende a uma única aplicação bilinear
F : V × W −→ U

Demonstração. Sejam β1 = {vi | i ∈ I} e β2 = {wj | j ∈ J}. Definamos F : V × W −→ U


P P
da seguinte forma: para v ∈ i∈I λ i v i ∈ V e w = j∈J γj wj ∈ W , tomamos F (u, v) =
P P
i∈I j∈J λi γj f (vi , wj ). Não é difı́cil ver que F é bilinear, que estende f e que é única nestas
condições. ¤

Sejam V , W , e U espaços vetoriais sobre K, f , g ∈ B(V, W ; U ) e λ ∈ K. Definindo

f + g : V × W −→ U
(v, w) 7−→ (f + g)(v, w) = f (v, w) + g(v, w)
e
λf : V × W −→ U
(v, w) 7−→ (λf )(v, w) = λf (v, w)
temos que f + g, λf ∈ B(V, W ; U ). Ademais, B(V, W ; U ), munido destas operações de soma
e produto por escalar, é um K-espaço vetorial. Costumamos denotar B(V, V ; U ) simplesmente
por B(V ; U ).

Proposição 168 Se V , W , e U são K-espaços vetoriais de dimensões finitas, então B(V, W ; U )


tem dimensão finita e dim B(V, W ; U ) = (dim V )(dim W )(dim U ).

Demonstração. Considere a seguinte aplicação

F : B(V, W ; U ) −→ L(V, L(W, U ))


.
f 7−→ F (f ) = fD

Dados v ∈ V , w ∈ W e λ ∈ K, arbitrários, temos

((f + g)D v)(w) = (f + g)(v, w) = f (v, w) + g(v, w) = (fD v)(w) + (gD v)(w) = (fD v + gD v)(w)

e
((λf )D v)(w) = (λf )(v, w) = λf (v, w) = λ(fD v)(w) = (λfD v)(w) ,

57
e assim (f + g)D v = fD v + gD v e (λf )D v = λfD v.Logo, (f + g)D = fD + gD e (λf )D = λfD
para quaisquer f , g ∈ B(V, W ; U ), ou seja, F é linear.
Supondo agora f ∈ ker F, temos fD = 0 e assim fD v = 0 para todo v ∈ V . Assim,
f (v, w) = (fD v)(w) = 0 para quaisquer v ∈ V e w ∈ W . Logo, f é nula e assim concluı́mos
que F é injetora.
Dada h ∈ L(V, L(W, U )), tomemos fh : V × W −→ U , definida por fh (v, w) = h(v)(w).
Observemos que fh é bilinear e que F(fh ) = (fh )D = h. De fato, dados v ∈ V e w ∈ W , temos
((fh )D v)(w) = fh (v, w) = h(v)(w) e assim (fh )D v = h(v). Segue então que (fh )D = h.
Como F é um isomorfismo temos

dim B(V, W ; U ) = dim L(V, L(W, U )) = (dim V )(dim L(W, U )) = (dim V )(dim W )(dim U ).

Definição 169 Seja V um K-espaço vetorial. Definimos uma forma bilinear sobre V como
sendo uma aplicação bilinear f : V × V −→ K.

Sendo V um K-espaço vetorial, temos que B(V ; K) é o K-espaço vetorial das formas bilin-
eares sobre V . Observe que se V tem dimensão finita, então B(V ; K) também tem dimensão
finita e dim B(V ; K) = (dim V )2 .

Exemplo 170 Todo produto interno num espaço vetorial real é uma forma bilinear.

Exemplo 171 Se V é um K-espaço vetorial e f , g ∈ V ∗ , então a aplicação b : V × V −→ K,


definida por b(u, v) = f (u)g(v), é uma forma bilinear.

Exemplo 172 Considere o espaço vetorial real SC = {(an )n∈N | an ∈ IR, (an ) é convergente}.
A aplicação f : SC × SC −→ IR, definida por f ((an ), (bn )) = lim an bn , é uma forma bilinear.

Exemplo 173 Se A = (aij )n×n é uma matriz com entradas num corpo K, considere a aplicação
fA : Mn×1 (K) × Mn×1 (K) −→ K, definida por fA (X, Y ) = X t AY . Não é difı́cil ver que fA é
uma forma bilinear sobre Mn×1 (K) e que
   
n n x1 y1
XX  .   . 
fA (X, Y ) = aij xi yj , para X =  ..  e Y =  ..  .
i=1 j=1
xn yn
Sejam V um K-espaço vetorial de dimensão finita e β = {v1 , v2 , . . . , vn } uma base ordenada
de V . Sendo f : V × V −→ K uma forma bilinear, considere a matriz
 
a11 a12 . . . a1n
 
 a21 a22 . . . a2n 

[f ]β =  . .. 
. .. . .
.  , onde aij = f (vi , vj ).
 . . . 
an1 an2 . . . ann

58
Esta matriz é chamada de matriz de f em relação à base β e satisfaz f (u, v) = [u]tβ [f ]β [v]β para
quaisquer u, v ∈ V .
Fixada uma base β de V , definamos:

Mβ : B(V ; K) −→ Mn (K)
.
f 7−→ Mβ (f ) = [f ]β

Temos que esta aplicação é uma transformação linear injetora. Ademais, como dim B(V ; K) =
(dim V )2 = dim Mn (K), concluı́mos que Mβ é um isomorfismo.

Proposição 174 Se dim V é finita, f ∈ B(V ; K) e β e γ são bases de V , então [f ]γ =


([I]γβ )t [f ]β [I]γβ .

Demonstração. Dados u, v ∈ V , temos que

f (u, v) = [u]tγ [f ]γ [v]γ = [u]tβ [f ]β [v]β , [v]β = [I]γβ [v]γ e [u]β = [I]γβ [u]γ .

Logo, [u]tγ [f ]γ [v]γ = [u]tγ ([I]γβ )t [f ]β [I]γβ [v]γ . Como u e v são arbitrários, devemos ter [f ]γ =
([I]γβ )t [f ]β [I]γβ . ¤

Definição 175 Seja f : V × V −→ K uma forma bilinear. Dizemos que f é não-degenerada


se para cada v ∈ V , não nulo, existem v1 , v2 ∈ V tais que f (v, v1 ) 6= 0 e f (v2 , v) 6= 0.

Exemplo 176 Todo produto interno num espaço vetorial real é uma forma bilinear não-
degenerada.

Exemplo 177 Sendo SC o espaço vetorial real de todas as sequências convergentes de números
reais, considere a forma bilinear f : SC × SC −→ IR, definida por f ((an ), (bn )) = lim an bn , é
uma forma bilinear. Se (an ) ∈ SC é uma sequência não nula que converge para 0, então
f ((an ), (bn )) = f ((bn ), (an )) = 0 para toda (bn ) ∈ SC. Logo, f é degenerada.

Exemplo 178 Consideremos V um K-espaço vetorial com base β = {v1 , v2 , v3 , . . .} e tomemos


f : V × V −→ K a aplicação bilinear que satisfaz
(
1 , se j = i + 1
f (vi , vj ) = .
0 , se j 6= i + 1

Observe que f (u, v1 ) = 0 para todo u ∈ U . Observe também que para cada v ∈ V não nulo
existe v 0 ∈ V tal que f (v, v 0 ) 6= 0.

59
Sendo g : V × V −→ K uma form abilinear, temos que g é não-degeneada se, e somente
se, gD e gE são transformações lineares injetoras. Observe que no Exemplo 178 acima, a forma
bilinear f é tal que fD é injetora, mas fE não é. Veremos mais adiante que no caso de dimensão
finita vale a equivalência: gD é injetora ⇐⇒ gE é injetora.
Sejam V um K-espaço vetorial de dimensão finita e f : V × V −→ K uma forma bilinear.
Sendo β = {v1 , v2 , . . . , vn } uma base de V e β ∗ = {g1 , g2 , . . . , gn } a base dual de β em V ∗ , temos

fD v1 = f (v1 , v1 )g1 + . . . + f (v1 , vn )gn fE v1 = f (v1 , v1 )g1 + . . . + f (vn , v1 )gn


fD v2 = f (v2 , v1 )g1 + . . . + f (v2 , vn )gn fE v2 = f (v1 , v2 )g1 + . . . + f (vn , v2 )gn
.. .. e .. ..
. . . .
fD vn = f (vn , v1 )g1 + . . . + f (vn , vn )gn fE vn = f (v1 , vn )g1 + . . . + f (vn , vn )gn

e assim [fD ]ββ ∗ = [f ]tβ e [fE ]ββ ∗ = [f ]β (lembre que fD , fE ∈ L(V, V ∗ )). Segue então que as
aplicações lineares fD e fE têm o mesmo posto. Vamos então definir o posto de f como sendo
o posto de fD .
Observemos agora que o posto de f é igual a n (dim V ) se, e somente se, fD e fE são
inversı́veis, o que acontece se, e somente se, a matriz [f ]β é inversı́vel. Temos então o seguinte
resultado.

Teorema 179 Sejam V um K-espaço vetorial de dimensão finita e f : V × V −→ K uma


forma bilinear simétrica. São equivalentes:
i) f é não-degenerada.
ii) Para cada v ∈ V não nulo existe u1 ∈ V tal que f (v, u1 ) 6= 0 (fD é injetora).
iii) Para cada v ∈ V não nulo existe u2 ∈ V tal que f (u2 , v) 6= 0 (fE é injetora).
iv) A matriz [f ]β é inversı́vel (det[f ]β 6= 0) para toda base β de V .

Definição 180 Sejam V um K-espaço vetorial e f : V × V −→ K uma forma bilinear.


Dizemos que f é:
a) Simétrica se f (u, v) = f (v, u) para quaisquer u, v ∈ V .
b) Anti-simétrica se f (u, v) = −f (v, u) para quaisquer u, v ∈ V .

Sendo f simétrica ou anti-simétrica, dizemos que dois vetores u e v de V são ortogonais em


relaçao a f se f (u, v) = 0.
Se char K = 2, então f é simétrica se, e somente se, é anti-simétrica. Se char K 6= 2, então a
única forma bilinear sobre V que é simétrica e anti-simétrica ao mesmo tempo é a forma nula.

Exemplo 181 Todo produto interno definido num espaço vetorial real é uma forma bilinear
simétrica.

60
Exemplo 182 A forma bilinear

g : Mn (K) × Mn (K) −→ K
(A, B) 7−→ g(A, B) = tr AB

é simétrica não-degenerada.

Exemplo 183 A forma bilinear f : IR2 × IR2 −→ IR, definida por


¯ ¯
¯ x y ¯
¯ 1 1 ¯
f ((x1 , y1 ), (x2 , y2 )) = ¯ ¯ ,
¯ x2 y 2 ¯

é anti-simétrica .

Exemplo 184 Sendo T um funcional linear de IR3 , a forma bilinear hT : IR3 × IR3 −→ IR,
definida por hT (u, v) = T (u × v), onde “ × ” é o produto vetorial, é anti-simétrica .

Considere o K-espaço vetorial B(V ; K) das formas bilineares sobre V . Denotando por
Bs (V ; K) o conjunto das formas bilineares simétricas e por Ba (V ; K) o conjunto das formas
bilineares anti-simétricas, temos que Bs (V ; K) e Ba (V ; K) são subespaços de B(V ; K) Ademais,
se char K 6= 2, então B(V ; K) = Bs (V ; K) ⊕ Ba (V ; K).

Proposição 185 Sejam V um K-espaço vetorial, β uma base qualquer de V e f : V ×V −→ K


uma forma bilinear. Então valem:
a) f é simétrica se, e somente se, f (u, v) = f (v, u) para quaisquer u, v ∈ β.
b) f é anti-simétrica se, e somente se, f (u, v) = −f (v, u) para quaisquer u, v ∈ β.
c) Se f (u, u) = 0 para todo u ∈ V , então f é anti-simétrica. Se char K 6= 2 e f é anti-simétrica,
então f (u, u) = 0 para todo u ∈ V .
d) Se char K 6= 2, f é simétrica e f (u, u) = 0 para todo u ∈ V , então f é nula.
Supondo dim V finita:
e) f é simétrica se, e somente se, [f ]β é uma matriz simétrica.
f ) f é anti-simétrica se, e somente se, [f ]β é uma matriz anti-simétrica.

Seja f : V ×V −→ K uma forma bilinear simétrica ou anti-simétrica. Se S é um subconjunto


não vazio de V é fácil ver que o conjunto

S ⊥ = {v ∈ V | f (v, s) = 0, ∀ s ∈ S}

é um subespaço de V , chamado de subespaço ortogonal a S em relação a f (é importante


ressaltar que S ⊥ depende da forma bilinear considerada). Observe que ker fD = ker fE = V ⊥
e que, se dim V é finita, posto(f ) = dim V − dim V ⊥ . Observamos também que se W é um
subespaço de V , então a restrição de f a W é não-degenerada se, e somente se, W ∩W ⊥ = {0V }.

61
Teorema 186 Sejam K um corpo de caracterı́stica diferente de 2, V um K-espaço vetorial de
dimensão finita e f : V × V −→ K uma forma bilinear simétrica. Então existe alguma base
β = {v1 , . . . , vn } de V tal que [f ]β é uma matriz diagonal, ou seja, f (vi , vj ) = 0 para i 6= j.

Demonstração. Sendo f nula, o resultado é imediato. Suponhamos então que existe v1 ∈ V


tal que f (v1 , v1 ) 6= 0. Tomando W = {v1 }⊥ = {v ∈ V | f (v, v1 ) = 0}, mostremos que
V = hv1 i ⊕ W . De fato, se v ∈ W ∩ hv1 i, então v = λv1 , para algum λ ∈ K, e f (v, v1 ) = 0.
Daı́, λf (v1 , v1 ) = 0 e assim λ = 0. Tomemos agora v ∈ V , arbitrário. Considerenado o vetor
u = v − (f (v1 , v1 )−1 f (v, v1 ))v1 , temos que f (u, v1 ) = 0 e assim u ∈ W . Logo, v ∈ hv1 i ⊕ W .
Temos então dim W = dim V − 1. Tomando agora a restrição de f a W e usando indução,
temos que existe β 0 = {v2 , . . . , vn } base de W tal que f (vi , vj ) = 0, para i 6= j. Assim,
β = {v1 } ∪ β 0 = {v1 , v2 , . . . , vn } é uma base de V tal que [f ]β é diagonal. ¤

Corolário 187 Se K é um corpo de caracterı́stica diferente de 2 e A ∈ Mn (K) é uma matriz


simétrica, então existe P ∈ Mn (K) inversı́vel tal que P t AP é uma matriz diagonal.

Demonstração. Considere A = (aij )n×n . Sejam V um K-espaço vetorial de dimensão n e


f : V ×V −→ K uma forma bilinear tal que f (vi , vj ) = aij para alguma base β = {v1 , v2 . . . , vn }
de V . Claramente, [f ]β = A e f é simétrica. Sendo γ uma base de V tal que [f ]γ é diagonal e
P = [I]γβ , temos que P é inversı́vel e P −1 AP = ([I]γβ )t [f ]β [I]γβ = [f ]γ . ¤

Observação 188 O Teorema 186 não vale sem a hipótese de char K 6= 2. Considerando
K um corpo de caracterı́stica 2, tomemos a aplicação f : K 2 × K 2 −→ K definida por
f ((x1 , y1 ), (x2 , y2 )) = x1 y2 + x2 y1 . Não é difı́cil ver que f é uma forma bilinear simétrica e
que f (v, v) = 0 para todo v ∈ K 2 . Supondo que existe alguma base β de K 2 tal que [f ]β é
diagonal, segue da última afirmação que [f ]β deve ser nula e portanto f deve ser nula, o que é
um absurdo.

Teorema 189 Sejam V um K-espaço vetorial de dimensão finita e f : V × V −→ K uma


forma bilinear não-degenerada tal que f (u, u) = 0 para todo u ∈ V . Então dim V é par e existe
alguma base β = {v1 , v2 , . . . , v2n−1 , v2n } de V tal que f (v2j−1 , v2j ) = 1 e f (v2j , v2j−1 ) = −1,
para j = 1, . . . , n, e vl ∈ hv2j−1 , v2j i⊥ se l ∈
/ {2j − 1, 2j}.

Demonstração. Primeiramente, observemos que f é anti-simétrica. Tomemos u1 ∈ V não nulo.


Como f é não-degenerada, deve existir u2 ∈ V tal que f (u1 , u2 ) 6= 0. Por hipótese, devemos
ter u1 e u2 linearmente independentes. Sendo λ = f (u1 , u2 ), tomemos v1 = u1 e v2 = λ−1 u2 .
Claramente, f (v1 , v2 ) = 1, f (v2 , v1 ) = −1 e dimhv1 , v2 i = 2. Considerando agora W = hv1 , v2 i,
mostremos que V = W ⊕ W ⊥ . De fato, se v ∈ W ∩ W ⊥ , então v = λ1 v1 + λ2 v2 , com λ1 , λ2 ∈ K,

62
e f (v, v1 ) = f (v, v2 ) = 0. Segue daı́ que λ1 = λ2 = 0 e portanto W ∩ W ⊥ = {0V }. Tomando
agora v ∈ V , arbitrário, e considerando o vetor
u = v + f (v, v1 )v2 − f (v, v2 )v1 ,
temos que f (u, v1 ) = f (u, v2 ) = 0 e assim u ∈ W ⊥ . Logo, v ∈ W ⊕ W ⊥ .
Segue de V = W ⊕ W ⊥ que dim W ⊥ = dim V − 2. Considerando agora a restrição de
f a W ⊥ e tomando v ∈ W ⊥ − {0V }, temos que existe v 0 ∈ V tal que f (v, v 0 ) 6= 0. Sendo
v 0 = w1 + w2 , com w1 ∈ W e w2 ∈ W ⊥ , temos que f (v, v 0 ) = f (v, w1 ) + f (v, w2 ) = f (v, w2 ),
e daı́ segue que a restrição de f a W ⊥ é não-degenerada. Por indução, dim W ⊥ é par e existe
uma base β 0 = {v3 , v4 , . . . , v2n−1 , v2n } de W ⊥ tal que f (v2j−1 , v2j ) = 1 e f (v2j , v2j−1 ) = −1,
para j = 2, . . . , n, e vl ∈ hv2j−1 , v2j i⊥ se l ∈ / {2j − 1, 2j}. Segue então que β = {v1 , v2 } ∪ β 0 =
{v1 , v2 , v3 , v4 . . . , v2n−1 , v2n } é uma base de V nas condições indicadas. ¤

Observação 190 Conforme vimos na Proposição 185, sob a hipótese de char K 6= 2 a anti-
simetria de f é equivalente à condição f (u, u) = 0 para todo u ∈ V . Assim, em caracterı́stica
diferente de 2, o teorema anterior pode ser reescrito colocando-se a hipótese de anti-simetria
de f no lugar da condição f (u, u) = 0 para todo u ∈ V .

Corolário 191 Sejam K um corpo de caracterı́stica diferente de 2 e V um K-espaço vetorial


de dimensão finita. Se f : V × V −→ K é uma forma bilinear anti-simétrica, então o posto de
f é um número par e existe alguma base β de V tal que
 
C 0 ··· 0 0
  Ã !
 0 C ··· 0 0 
 . . .  0 1
[f ]β =  . . . . ... ...  , com C = ,
 . .  −1 0
 
 0 0 ··· C 0 
0 0 ··· 0 0
sendo o número de blocos C igual à metade do posto de f .

Demonstração. Seja W um subespaço de V tal que V = W ⊕ V ⊥ . Dado w ∈ V − {0V },


deve existir v ∈ V tal que f (w, v) 6= 0, uma vez que W ∩ V ⊥ = {0V }. Sendo v = v1 + v2 ,
com v1 ∈ W e v2 ∈ V ⊥ , temos f (w, v) = f (w, v1 ) + f (w, v2 ) = f (w, v1 ), donde segue que a
restrição de f a W é não degenerada. Por outro lado, se v ∈ V ⊥ , então f (v, u) = 0 para
todo u ∈ V . Tomando β1 uma base de W nas condições do teorema anterior e β2 uma base
qualquer de V ⊥ , temos que β = β1 ∪ β2 é base de V e [f ]β tem a forma indicada. Observe que
dim W = dim V − dim V ⊥ = posto(f ). ¤

Observação 192 O corolário anterior não vale sem a hipótese de char K 6= 2. Considere um
corpo K de caracterı́stica 2 e f : K 3 × K 3 −→ K a forma bilinear tal que [f ]β = I3 , onde β é a
base canônica de K 3 . Observe que f é simétrica, e portanto anti-simétrica, já que char K = 2.
Ademais, f é não-degenerada e daı́ posto(f ) = dim K 3 = 3.

63
Corolário 193 Se char K 6= 2, V é um K-espaço vetorial de dimensão finita e f : V ×V −→ K
é uma forma bilinear anti-simétrica e não-degenerada, então existe alguma base β de V tal que
 
0 0 ··· 0 1
à !  
 0 0 ··· 1 0 
0 J  .. .. .. .. 
[f ]β = , onde J =   . . . . 
−J 0  
 0 1 ··· 0 0 
1 0 · · · 0 0 m×m

dim V
com m = .
2
Demonstração. Sendo γ = {v1 , v2 , . . . , v2m−1 , v2m } uma base de V nas condições do teorema,
basta tomar β = {v1 , v3 , . . . , v2n−1 , v2n , . . . , v4 , v2 }. ¤

Corolário 194 Se char K 6= 2 e A ∈ Mn (K) é uma matriz anti-simétrica, então det A é um


quadrado em K.

Demonstração. Supondo det A 6= 0, temos que existe P ∈ Mn (K) inversı́vel tal que
 
C 0 ··· 0
  Ã !
 0 C ··· 0  0 1
P t AP = 
 .. .. .. .  , onde C = ,
 . . . .. 
 −1 0
0 0 ··· C

e assim det(P t AP ) = 1. Logo, det A = (det P )−2 , o que nos dá o resultado. ¤

64
FORMAS QUADRÁTICAS

Definição 195 Sejam V um K-espaço vetorial f : V ×V −→ K uma forma bilinear simétrica.


Definimos a forma quadrática associada a f como sendo a aplicação

q: V −→ K
.
v 7−→ q(v) = f (v, v)

Exemplo 196 Considere o espaço vetorial real SC = {(an )n∈N | an ∈ IR, (an ) é convergente} e
a forma bilinear g : SC × SC −→ IR definida por f ((an ), (bn )) = lim an bn . A forma quadrática
associada a g é a aplicação q : SC −→ IR definida por q((an )) = lim a2n .

Exemplo 197 Seja A ∈ Mn (K) uma matriz simétrica e considere a forma bilinear

f : Mn×1 (K) × Mn×1 (K) −→ K


.
(X, Y ) 7−→ f (X, Y ) = X t AY
Sendo A = (aij )n×n , a forma quadrática associada a f é dada por
 
n x1
X X  . 
q(X) = X t AX = ajj x2j + 2 aij xi xj , para X =  ..  .
j=1 1≤i<j≤n
xn
Sejam f : V × V −→ K uma forma bilinear simétrica e q : V −→ K a forma quadrática
associada a f . Observe que se char K 6= 2, então
1 1
f (u, v) = q(u + v) − q(u − v)
4 4
para quaisquer u, v ∈ V . Esta igualdade é chamada de identidade de polarização e através dela
é possivel se obter a forma bilinear que induz uma dada forma quadrática. Observamos então
que existe uma correspondência biunı́voca entre as formas bilineares simétricas e as formas
quadráticas sobre um K-espaço vetorial V , quando char K 6= 2.
Considerenos agora um K-espaço vetorial V de dimensão finita n (char K 6= 2). Sejam
f : V × V −→ K uma forma bilinear simétrica e q : V −→ K a forma quadrática associada a f .
Sendo β = {v1 , v2 , . . . , vn } uma base de V , A = [f ]β = (aij )n×n e v = x1 v1 +x2 v2 +. . . xn vn ∈ V ,
temos n
X X
t
q(v) = [v]β A[v]β = ajj x2j + 2 aij xi xj .
j=1 1≤i<j≤n

Assim, as formas quadráticas em V podem ser representadas por polinômios homogêneos do 2o


grau em n variáveis com coeficientes em K. Por outro lado, dado
n
X X
q(x1 , . . . , xn ) = bjj x2j + 2 bij xi xj ∈ K[x1 , . . . , xn ],
j=1 1≤i<j≤n

65
temos que a aplicação f : K n × K n −→ K, definida por
1 1
f ((a1 , . . . , an ), (y1 , . . . , yn )) = q(a1 + y1 , . . . , an + yn ) − q(a1 − y1 , . . . , an − yn ),
4 4
é uma forma bilinear simétrica, cuja forma quadrática associada é exatamente q.
Sendo q : V −→ K uma forma quadrática e f : V × V −→ K a forma bilinear tal
que q(v) = f (v, v) para todo v ∈ V , tomemos β = {v1 , v2 , . . . , vn } uma base de V tal que
[f ]β = diag(d1 , d2 , . . . , dn ). Assim, dado v ∈ V , temos v = x1 v1 + x2 v2 + . . . xn vn e daı́
q(v) = d1 x21 + d2 x22 + . . . + dn x2n . Dizemos então que β diagonaliza q.

Exemplo 198 Considere a forma quadrática q : IR3 −→ IR definida por

q(x, y, z) = 2x2 + 3y 2 − z 2 − 6xy + 2yz + 4xz .

Observe que a forma bilinear simétrica f : R3 × IR3 −→ IR correspondente a q tem a matriz


 
2 −3 2
 
A =  −3 3 1 
2 1 −1

em relação à base canônica de IR3 . Como q(1, 0, 0) 6= 0, tomemos v1 = (1, 0, 0) e observemos


que hv1 i⊥ = {v ∈ IR3 | f (v, v1 ) = 0} = h(1, 0, −1), (0, 2, 3)i. Como q(1, 0, −1) 6= 0, tomemos
v2 = (1, 0, −1) e observemos que hv1 , v2 i⊥ = {v ∈ IR3 | f (v, v1 ) = f (v, v2 ) = 0} = h(1, 6, 8)i.
Tomeos então v3 = (1, 6, 8). Temos que β = {v1 , v2 , v3 } é base de IR3 e
 
2 0 0
 
[f ]β =  0 −3 0  .
0 0 138

Sendo então v = x1 v1 + x2 v2 + x3 v3 , temos q(v) = 2x21 − 3x32 + 138x23 .

Definição 199 Sejam V um espaço vetorial real f : V × V −→ IR uma forma bilinear


simétrica. Dizemos que f é:
a) Positiva definida (resp. positiva semidefinida) se f (v, v) > 0 (resp. f (v, v) ≥ 0) para todo
v ∈ V − {0V }.
b) Negativa definida (resp. negativa semidefinida) se f (v, v) < 0 (resp. f (v, v) ≤ 0) para todo
v ∈ V − {0V }.
c) Indefinida se existem v1 , v2 ∈ V tais que f (v1 , v1 ) > 0 e f (v2 , v2 ) < 0.

Observe que uma forma bilinear simétrica positiva definida ou negativa definida é necessari-
amente não-degenerada.

66
Exemplo 200 A forma bilinear f sobre IR3 apresentada no exemplo anterior é indefinida.

Exemplo 201 Se V é um espaço vetorial real, então as formas bilineares simétricas positivas
definidas sobre V são exatamente os produtos internos.

Lema 202 Sejam V um K-espaço vetorial real de dimensão finita e f : V × V −→ K uma


forma bilinear simétrica. Se β é uma base de V e [f ]β = diag(c1 , . . . , cl , 0 . . . , 0), com c1 , . . . ,
cl não nulos, então posto(f ) = l.

Demonstração. Seja β = {v1 , v2 , . . . , vn }. Claramente, hvl+1 , . . . , vn i ⊆ V ⊥ . Por outro lado, se


v = λ1 v1 + . . . + λl vl + λl+1 vl+1 + . . . + λn vn ∈ V ⊥ , então 0 = f (vj , v) = λj f (vj , vj ) = λj cj para
todo j = 1, . . . , l, e daı́ λj = 0. Logo, v ∈ hvl+1 , . . . , vn i e assim posto(f ) = dim V − dim V ⊥ =
n − (n − l) = l.

Teorema 203 (Lei da Inércia de Sylvester) Sejam V um espaço vetorial real de dimensão
finita, f : V × V −→ IR uma forma bilinear simétrica e β1 e β2 bases de V tais que [f ]β1 e [f ]β2
são diagonais. Então as matrizes [f ]β1 e [f ]β2 têm a mesma quantidade de entradas positivas e
têm a mesma quantidade de entradas negativas.

Demonstração. Consideremos β1 = {v1 , . . . , vn }, β2 = {u1 , . . . , vn } e

[f ]β1 = diag(c1 , . . . , cm1 , 0, . . . , 0) e [f ]β2 = diag(d1 , . . . , dm2 , 0, . . . , 0) ,

com c1 , . . . , cl , d1 , . . . , dk positivos e cl+1 , . . . , cm1 , dk+1 , . . . , dm2 negativos. Segue do


lema anterior que m1 = posto(f ) = m2 . Suponhamos l > k. Tomando W1 = hv1 , . . . , vl i e
W2 = huk+1 , . . . , un i, temos que f (v, v) > 0 para todo v ∈ W1 − {0V }, e f (u, u) ≤ 0 para todo
u ∈ W2 − {0V }. Logo, W1 ∩ W2 = {0V }. Mas, dim W1 = l e dim W2 = n − k > n − l, donde
dim(W1 + W2 ) = dim W1 + dim W2 > n, o que é um absurdo. Desta forma, devemos ter l ≤ k
e, analogamente, l ≥ k. Assim, temos o resultado. ¤

Sendo V um espaço vetorial real de dimensão finita, f : V × V −→ IR uma forma bilinear


simétrica e n1 e n2 os números de entradas positivas e negativas, respectivamente, de alguma
mariz diagonal que representa f , definimos a assinatura de f como sendo o número n1 − n2 .
Observe que:
• f é positiva definida se, e somente se, a assinatura de f é igual a dim V ;
• f é negativa definida se, e somente se, a assinatura de f é igual a − dim V .

67
GRUPOS QUE PRESERVAM FORMAS BILINEARES

Sejam K um corpo e V um K-espaço vetorial.

Definição 204 Sejam f : V ×V −→ K uma forma bilinear e T : V −→ V um operador linear.


Consideremos a forma bilinear fT : V × V −→ K definida por fT (u, v) = f (T (u), T (v)) para
quaisquer u, v ∈ V . Dizemos que T preserva f se fT = f .

Observe que o operador identidade de V preserva todas as formas bilineares sobre V . Se T ,


S ∈ L(V ) preservam uma forma bilinear f sobre V , então

fST (u, v) = f ((S(T (u)), (S(T (v))) = f (T (u), T (v)) = f (u, v)

para quaisquer u, v ∈ V . Logo, ST preserva V . Ademais, se T é inversı́vel, então

f (T −1 (u), T −1 (v)) = f (T (T −1 (u)), T (T −1 (v))) = f (u, v)

para quaisquer u, v ∈ V . Logo, T −1 preserva f .

Exemplo 205 Considere a forma bilinear f : IR2 ×IR2 −→ IR definida por f ((x1 , y1 ), (x2 , y2 )) =
x1 y2 − x2 y1 . O operador linear T : IR2 −→ IR2 , definido por T (x, y) = (x + y, y), preserva T .
De fato, f (T (x1 , y1 ), T (x2 , y2 )) = f ((x1 + y1 , y1 ), (x2 + y2 , y2 )) = (x1 + y1 )y2 − (x2 + y2 )y1 =
f ((x1 , y1 ), (x2 , y2 )).

Exemplo 206 Considere o espaço vetorial real SC de todas as sequências convergentes de


números reais e a forma bilinear g sobre SC definida por g((an ), (bn )) = lim an bn . Os operadores
lineares T , S : SC −→ SC, definidos por

T (a1 , a2 , a3 , a4 , . . .) = (a3 , a4 , a5 , . . .) e S(a1 , a2 , a3 , a4 , . . .) = T (a2 , a1 , a4 , a3 , a6 , a5 . . .)

prservam g.

Exemplo 207 Considere V um K-espaço vetorialà de !dimensão 2 e β uma base de V . Sendo


1 1
f uma forma bilinear sobre V tal que [f ]β = , considere T ∈ L(V ) que preserva T .
0 0
Para quaisquer u, v ∈ V temos

[u]tβ [f ]β [v]β = f (u, v) = f (T (u), T (v)) = [T (u)]tβ [f ]β [T (v)]β = [u]tβ [T ]tβ [f ]β [T ]β [v]β
à !
a b
donde [T ]tβ [f ]β [T ]β = [f ]β . Sendo [T ]β = , devemos ter
c d
a(a + c) = a(b + d) = 1 e b(a + c) = b(b + d) = 0
à !
a 0
donde b = 0, d = a−1 e c = a−1 − a, ou seja, [T ]β = .
a−1 − a a−1

68
Exemplo 208 Se V é um K-espaço vetorial e T ∈ L(V ), então o conjunto

WT = {f ∈ B(V ; K) | T preserva f }

é um subespaço de B(V ; K).

Proposição 209 Se f : V × V −→ K é uma forma bilinear não-degenerada e T ∈ L(V )


preserva f , então T é injetora. Ademais, se dim V é finita, então T é inversı́vel.

Demonstração. Supondo u ∈ ker T . Dado v ∈ V arbitrário, temos f (u, v) = f (T (u), T (v)) = 0


e assim u deve ser nulo. Logo, T é injetora. ¤

Seja V um K-espaço vetorial e considere o grupo linear sobre V , GL(V ) = {T ∈ L(V ) | T é


inversı́vel} (a operação é a composição de funções). Considerando agora f uma forma bilinear
sobre V e o conjunto Gf = {T ∈ GL(V ) | T preserva f }, temos que Gg é fechado em relação
à composição e em relação a inversos. Logo, Gf é um subgrupo de GL(V ), chamado de grupo
que preserva f .
Sendo dim V = n, temso que GL(V ) é isomorfo a GLn (K), o grupo de todas as matrizes n×n
inversı́veis com entradas em K. Consideremos β uma base arbitrária de V . Para T ∈ GL(V )
e u, v ∈ V , temos que

f (u, v) = [u]tβ [f ]β [v]β e f (T (u), T (v)) = [T (u)]tβ [f ]β [T (v)]β = [u]tβ [T ]tβ [f ]β [T ]β [v]β .

Logo, T preserva f se, e somente se, [T ]tβ [f ]β [T ]β = [f ]β .


Considerando agora a matriz A = [f ]β e o conjunto GA = {X ∈ GLn (K) | X t AX = A},
temos que GA é um subgrupo de GLn (K). Ademais, a aplicação

F : Gf −→ GA
T 7−→ F (T ) = [T ]β
é um isomorfismo de grupos.

Exemplo 210 Seja K um corpo e considere a forma bilinear f : K n × K n −→ K, definida por

f ((x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn )) = x1 y1 + x2 y2 + . . . + xn yn .

Sendo β a base canônica de K n , temos [f ]β = In . Assim, Gf é um grupo isomorfo a GIn =


{X ∈ GLn (K) | X t In X = In } = {X ∈ GLn (K) | X −1 = X t } = On (K) (grupo ortogonal).
à !
0 1
Exemplo 211 Sejam K um corpo e A = ∈ M2 (K). Se X ∈ m2 (K), então
−1 0
X t AX = (det X)A e assim X ∈ GA se, e somente se, det X = 1. Temos então GA = SLn (K) =
{X ∈ GLn (K) | det X = 1} (grupo especial linear).

69

Você também pode gostar