Você está na página 1de 103

Notas de Aula de Álgebra Linear

Prof.: Alonso Sepúlveda Castellanos

1 Espaços Vetoriais
Nesta seção, K representa um corpo qualquer, e na maioria dos casos nos escolheremos Q, R,
C ou Fq , onde q = pr com r ≥ 1 e p um número primo.

Definição 1.1. Um conjunto não vazio V é um Espaço Vetorial sobre K (um corpo) se em
seus elementos, denominados vetores, estiverem definidas as seguintes duas operações:

(A) A cada par u, v ∈ V corresponde um vetor u + v ∈ V , chamado de soma de u e v, de


modo que:

(A1) u + v = v + u, para todo u, v ∈ V (Comutativa)

(A2) (u + v) + w = u + (v + w), para todo u, v, w ∈ V (Propriedade associativa)

(A3) Existe um vetor ~0 ∈ V , chamado vetor nulo, tal que ~0 + v = v + ~0 = v para todo v ∈ V .
(Vetor nulo)

(A4) Para cada vetor v ∈ V , existe um vetor −v ∈ V , tal que v + (−v) = ~0. −v é chamado
o oposto de v. (V, +) é um grupo abeliano.

(M) A cada par α ∈ K e v ∈ V , corresponde um vetor α · v ∈ V , denominado o produto por


escalar de α por v de modo que:

(M1) (αβ) · v = α(βv) = β(αv), para todo α, β ∈ K e para todo v ∈ V .

(M2) 1 · v = v, para todo v ∈ V (onde 1 é o elemento identidade de K).

(D1) α · (u + v) = αu + αv, para todo α ∈ K e para todo u, v ∈ V .

(D2) (α + β) · v = αv + βv, para todo α, β ∈ K e todo v ∈ V .

Exemplo 1.2. Q, R e C são espaços vetoriais sobre eles mesmos. C é também espaço vetorial
sobre R e R sobre Q.

Exemplo 1.3. De forma mais geral, para n ≥ 1, o conjunto

Kn = K · · × K} = {(a1 , · · · , an ) : ai ∈ K, para todo i = 1, . . . , n}


| × ·{z
n

tem uma estrutura de espaço vetorial sobre K bastante natural com as operações:

• (a1 , . . . , an ) + (b1 , . . . , bn ) = (a1 + b1 , . . . , an + bn )


• α · (a1 , . . . , an ) = (αa1 , . . . , αan )

Exemplo 1.4 (Exercı́cio). Seja S = {(x, y, z) ∈ R3 : x+y +z = 0} um plano do R3 passando


pela origem. Mostre que S é um espaço vetorial sobre R, com as operações induzidas de R3 .

Exemplo 1.5. O conjunto Mm×n (K), das matrizes de tamanho m × n com entradas em K,
é um espaço vetorial sobre K, onde as operações são definidas por: (A + B)ij = Aij + Bij e
a multiplicação por escalar é (cA)ij = cAij .

Exemplo 1.6. O espaço Pn (K) = {p(x) ∈ K[x] : deg(p(x)) ≤ n}, que é o conjunto dos
polinômios com coeficientes em K de grau menor ou igual a n. Observe que:

• Dados p(x), q(x) ∈ Pn (K), então p(x) + q(x) ∈ Pn (K).

• Sejam α ∈ K, e p(x) ∈ Pn (K), então αp(x) ∈ Pn (K).

Exemplo 1.7. Seja X um conjunto não vazio. O conjunto de todas as funções f, g : X → K,


é denotado por F(X, R). Se torna um espaço vetorial quando definimos as operações:

(f + g)(x) = f (x) + g(x), (αf )(x) = α · f (x) .

Variando o conjunto X, obtêm-se diversos exemplos de espaços vetoriais. Por exemplo, se


X = {1, . . . , n} então F(X, R) = Rn ; se X = N então F(X, R) = R∞ chamado o espaço
das sequências; se X é o produto cartesiano dos conjuntos {1, . . . , m} e {1, . . . , n}, então
F(X, R) = Mm×n (R).

Vejamos um exemplo um pouco diferente.

Exemplo 1.8. Seja V = {u ∈ R : u > 0}. Definamos a seguinte soma:

u ⊕ v = uv, para todo u, v ∈ V ,

e a multiplicação por escalar como

α v = vα, para todo α ∈ R .

Exercı́cio 1.9. Em R2 , mantenha a definição do produto αv de um número por um vetor


mas modifiquemos, de 3 maneiras diferentes, a definição de soma dos vetores u = (u1 , u2 ) e
v = (v1 , v2 ). Em cada uma, dizer quais axiomas de espaço vetorial continuam válidos e quais
não:

1. u ⊕ v = (u1 + v2 , u2 + v1 );

2. u ⊕ v = (u1 v1 , u2 v2 );

3. u ⊕ v = (3u1 + 3v1 , 5u1 + 5v1 ).

Algumas vezes, chamaremos um espaço vetorial V sobre K como K-espaço vetorial.

2
Proposição 1.10 (Propriedades). Seja V um espaço vetorial sobre K. Então,

1. Existe um único vetor nulo em V (elemento neutro da adição).

2. Cada vetor u ∈ V admite apenas um único oposto −u ∈ V .

3. Para quaisquer u, v, w ∈ V , se u + w = v + w, então u = v.

4. Para todo α ∈ K, α~0 = ~0.

5. Para todo u ∈ V , 0u = ~0.

6. Uma igualdade αu = ~0, com α ∈ K e u ∈ V , só é possı́vel se α = 0 ou u = ~0.

7. Para todo α ∈ K e todo u ∈ V , temos que (−α)u = α(−u) = −(αu).


Definimos a diferença entre dois vetores u e v do espaço V assim:

u − v = u + (−v) .

8. Para quaisquer α, β ∈ K e u ∈ V , (α − β)u = αu − βu.

9. Para quaisquer que sejam α ∈ K, u, v ∈ V , temos que α(u − v) = αu − αv.

10. Dados β, α1 , . . . , αn ∈ K e u1 , . . . , un ∈ V , então


n
! n
X X
β αj uj = (βαj )uj .
j=1 j=1

Exercı́cio 1.11. Mostre cada uma das propriedades da proposição anterior.

Exercı́cio 1.12. Seja V um espaço vetorial sobre R, e u, v ∈ V . O segmento de reta de


extremidades u e v é, por definição, o conjunto

[u, v] = {(1 − t)u + tv; 0 ≤ t ≤ 1} .

Um conjunto X ⊆ V chama-se convexo quando dados u, v ∈ X ⇒ [u, v] ⊆ X. (Ou seja, o


segmento de reta que liga dois pontos quaisquer de X está contido em X.) Mostre:

a) A interseção X1 ∩ · · · ∩ Xn de conjuntos convexos X1 , . . . , Xn ⊆ V é um conjunto


convexo.

b) Dados a, b, c ∈ R, o conjunto X = {(x, y) ∈ R2 : ax + by ≤ c} é convexo em R2 .

c) O conjunto Y = {(x, y, z) ∈ R3 : a ≤ x ≤ b, c < y < d} é convexo em R3 .

3
1.1 Subespaços Vetoriais

Seja V um espaço vetorial sobre K. Um subespaço de V é um subconjunto W ⊆ V com as


seguintes propriedades:

1. 0 ∈ W ;

2. Se u, v ∈ W então u + v ∈ W ;

3. Se v ∈ W então, para todo α ∈ K, αv ∈ W .

Podemos simplificar essas propriedades assumindo que W 6= ∅ e para todo α ∈ K e para todo
u, v ∈ W temos que αu + v ∈ W .
Por exemplo {0} e V são subespaços vetoriais triviais de V .
Exemplo 1.13. Seja W = {(x, y, z) ∈ R3 : x + y = 0} é subespaço de R3 .
Exemplo 1.14. Seja u ∈ V um vetor não nulo. O conjunto W = {αu : α ∈ K} de todos os
múltiplos de u é um subespaço de V , chamado a reta que passa pela origem e contém u.
Proposição 1.15. A interseção de qualquer coleção de subespaços do mesmo espaço vetorial
V é também um subespaço de V .
     
a b a 0
Exemplo 1.16. Seja V = M2 (R). Sejam S1 = a, b ∈ R e S2 = a, c ∈ R .
0 0    c 0
a 0
A interseção S = S1 ∩ S2 é um subespaço de V , onde S = a∈R .
0 0
Exemplo 1.17. O conjunto de matrizes simétricas é um subespaço vetorial de Mn (K).
Exemplo 1.18. Seja V = {A ∈ Mn (C) : Ajk = Akj } o conjunto de matrizes Hermitianas.
V não é espaço vetorial sobre C porque?, mas é espaço vetorial sobre R. Observe que uma
matriz A de tamanho 2 × 2 é Hermitiana se e somente se a matriz é da forma
 
a x + iy
A=
x − iy b

onde a, b, x, y ∈ R. Com isso, podemos ver que em geral, o conjunto de matrizes Hermitianas
não é um subespaço de Mn (C), pois, se A é uma matriz Hermitiana, então os elementos da
sua diagonal principal são todos números reais, mas os elementos da diagonal da matriz iA
não necessáriamente são.
Exemplo 1.19. Mostre que o espaço solução do sistema linear homogêneo AX = 0m×1 ,
onde A ∈ Mm×n (K) e X ∈ Mn×1 é um K-espaço vetorial. Para mostrar isto, note que
A(αX + Y ) = αAX + AY = 0 quando AX = 0 e AY = 0 e α ∈ K.
Exemplo 1.20. 1. O conjunto das funções polinomiais é um subespaço de F(C, C).

2. O conjunto C([a, b], C) = {f : [a, b] → C : f é uma função contı́nua} é subespaço de


F([a, b], C).

4
3. O subconjunto de K∞ :

c0 = {x = (xn )n∈N ∈ K∞ : (xn ) converge a zero} ,

é um subespaço de K∞ .

4. O subconjunto de K∞ :

l∞ = {x = (xn )n∈N ∈ K∞ : (xn ) é limitada} ,

é um subespaço de K∞ .

1.2 Soma de Subespaços

Sejam W1 , W2 , . . . , Wk subespaços do K-espaço vetorial V .

Definição 1.21. A soma de W1 , W2 , . . . , Wk é o subconjunto de V , definido por

Xk
W1 + W2 + · · · + Wk = { wi : wi ∈ Wi } .
i=1

Observação 1.22. É claro que U +W = W +U e que U +{0} = U para todos os subespaços


U e W de V . Também é verdade que

Wi ⊆ W1 + W2 + · · · + Wk , para todo i = 1, . . . , k .

Proposição 1.23. Se W1 , W2 , . . . , Wk são subespaços de V , então W1 +W2 +· · ·+Wk também


é subespaço de V .

Definição 1.24. Sejam W1 , W2 , . . . , Wk subespaços de V e escrevemos V = ki=1 Wi se para


L
todo vetor v ∈ V existem vetores únicos wi ∈ Wi para 1 ≤ i ≤ k tais que v = w1 +w2 +· · ·+wk .
Neste caso, dizemos que V é soma direta de W1 , W2 , . . . , Wk .

Proposição 1.25. O espaço vetorial V é soma direta dos subespaços W1 , . . . , Wk se, e so-
mente se, V = W1 + · · · + Wk e Wi ∩ (W1 + · · · + Wi−1 + Wi+1 + · · · + Wk ) = {0} para todo
i = 1, . . . , k.

Demonstração. Exercı́cio

Observação 1.26. É suficiente que Wi ∩ Wj = {0} com i 6= j para que V seja soma direta
de W1 , . . . , Wk ?

Exemplo 1.27. Dado o corpo K, o espaço K3 é soma direta dos subespaços:

U = {(x, 0, 0) : x ∈ K} e W = {(0, y, z) : y, z ∈ K}

5
1.3 Combinações Lineares

Uma das caracterı́sticas mais importantes de espaços vetoriais é a obtenção de novos vetores
a partir de vetores dados.
Sejam os vetores v1 , v2 , . . . , vn do espaço vetorial V e os escalares α1 , α2 , . . . , αn ∈ K. Se o
vetor v ∈ V é da forma:
n
X
v = α1 v1 + α2 v2 + · · · + αn vn = αi vi ,
i=1

dizemos que é uma combinação linear dos vetores v1 , v2 , . . . , vn .

Exemplo 1.28. Se V = P2 (R), temos que o polinômio v = 7x2 + 11x − 26 é combinação


linear dos polinômios v1 = 5x2 − 3x + 2 e v2 = −2x2 + 5x − 8. De fato, v = 3v1 + 4v2 .

Exercı́cio 1.29. 1. Escreva o vetor v = (−4, −18, 7) como combinação linear dos vetores
v1 = (1, −3, 2) e v2 = (2, 4, −1).

2. Determine o valor de k para que o vetor u = (−1, k, −7) seja combinação linear de
v1 = (1, −3, 2) e v2 = (2, 4, −1).

3. Determinar a condição sobre x, y e z de modo que (x, y, z) seja combinação linear dos
vetores v1 = (1, −3, 2) e v2 = (2, 4, −1).

Definição 1.30. Seja S um conjunto de vetores do espaço vetorial V . O subespaço gerado por
S, denotado por hSi, é definido como a interseção W de todos os subespaços de V que contém
S. Quando S é um conjunto finito de V , S = {v1 , v2 , . . . , vn }, chamamos simplesmente W
como o subespaço gerado por v1 , v2 , . . . , vn , denotado por hv1 , v2 , . . . , vn i.

Teorema 1.31. O subespaço gerado por um conjunto S 6= ∅ de vetores de V , é o conjunto


de todas as combinações lineares dos vetores em S.

Demonstração. Seja W o subespaço gerado por S, e L o conjunto de todas as combinações


lineares dos elementos de S. Dado v ∈ L tal que v = α1 v1 + · · · + αn vn , e como v1 , . . . , vn ∈ S,
é claro que v ∈ W . Logo, L ⊆ W . É claro que S ⊂ L e além disso, vejamos que L é um
subespaço vetorial de V . Dados v, w ∈ L e k ∈ K temos que

v = α1 v1 + α2 v2 + · · · + αn vn e w = β1 w1 + β2 w2 + · · · + βr wr ,

então n r n r
X X X X
kv + w = k αi vi + βi w i = (kαi )vi + βi wi ∈ L ,
i=1 j=1 i=1 j=1

portanto L é subespaço vetorial de V . Nós mostramos que L é um subespaço que contém S


e que todo subespaço que contém S também contém L, portanto L = W .

Com a notação acima, a partir daqui denotaremos o espaço gerado por um conjunto S de
vetores, por hSi.

6
Exemplo 1.32. Seja F um subcorpo dos números complexos. Seja W o subespaço de F 5
gerado por v1 = (1, 2, 0, 3, 0), v2 = (0, 0, 1, 4, 0), v3 = (0, 0, 0, 0, 1). Então, o subespaço W
gerado pelos vetores u, v, w é dado pelos vetores da forma
v = c1 v1 + c2 v2 + c3 v3 = (c1 , 2c1 , c2 , 3c1 + 4c2 , c3 ) .
De forma diferente, podemos expressar todo elemento v = (x1 , x2 , x3 , x4 , x5 ) ∈ W com xi ∈ F
tal que
x2 = 2x1 , e x4 = 3x1 + 4x3 .
Exemplo 1.33. Os vetores i = (1, 0) e j = (0, 1) geram o R2 , pois qualquer (x, y) ∈ R2 é
combinação linear de i, j, ou R2 é o espaço gerado pelos vetores i, j.
Exercı́cio 1.34. 1. Seja V = R3 . Determinar o subespaço gerado pelo vetor u = (3, 2, 1).
Este subespaço representa uma reta que passa pela origem.
2. Seja V = R3 . Determinar o subespaço gerado pelos vetores u1 = (1, −1, 1) e u2 =
(2, 3, 0). O subespaço gerado pelos vetores u1 , u2 ∈ R3 , não-colineares, é um plano π
que passa pela origem.
   
−1 2 3 −1
3. Seja V = M2 (R) e o subconjunto S = , Determinar o espaço
−2 3 1 1
gerado por S.

1.4 Espaços Vetoriais Finitamente Gerados

Definição 1.35. Dizemos que um espaço vetorial V é finitamente gerado se existe S ⊆ V ,


S finito, de maneira que hSi = V .

A maioria dos exemplos que estudaremos de espaços vetoriais podem ser gerados por um
número finito de vetores.
Exemplo 1.36. Observe no R3 o conjunto
S = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} .
Como para todo (a, b, c) ∈ R3 , vale a igualdade
(a, b, c) = a(1, 0, 0) + b(0, 1, 0) + c(0, 0, 1) ,
então podemos dizer que S gera o R3 .
Exemplo 1.37. M2 (K) é finitamente gerado pelo conjunto
       
1 0 0 1 0 0 0 0
S= , , , ,
0 0 0 0 1 0 0 1
pois, para todo a, b, c, d ∈ K temos que
         
a b 1 0 0 1 0 0 0 0
=a +b +c +d
c d 0 0 0 0 1 0 0 1
.

7
Exemplo 1.38. Kn é finitamente gerado pelo conjunto

S = {(1, 0, . . . , 0), (0, 1, 0, . . . , 0), . . . , (0, . . . , 0, 1)} .

Note que o conjunto S é formado por n elementos.


Exemplo 1.39. Pn (K) é finitamente gerado pelo conjunto de polinômios

S = {f0 (x) = 1, f1 (x) = x, . . . , fn (x) = xn } ,

pois, dado f (x) = a0 + a1 x + a2 x2 + · · · + an xn ∈ Pn (K) temos que

f = a0 f 0 + a1 f 1 + · · · + an f n .

Observe que S possui n + 1 polinômios.


Exemplo 1.40 (Não Finitamente Gerado). Seja K um corpo e P (K) o conjunto de todos os
polinômios com coeficientes em K. Com a adição de polinômios e a multiplicação por escalar
de polinômio, pode-se concluir que P (K) é um espaço vetorial sobre K.
Mas P (K) não é finitamente gerado. De fato, suponhamos que existe um conjunto gerador
finito S = {f1 , f2 , . . . , fn } ⊆ P (K). Supondo que cada fi seja não nulo e que fn seja o
polinômio de maior grau de S, então qualquer combinação linear dos elementos de S

α1 f1 + α2 f2 + · · · + αn fn

não ultrapassa o grau de fn . Assim, S não gera os polinômios de grau maior ao de fn o que
implica que hSi =6 P (R), para todo conjunto finito S ⊆ P (K). Portanto o conjunto gerador
é infinito.

1.5 Base e Dimensão

O objetivo principal é mostrar que todo espaço vetorial finitamente gerado V existe um
subconjunto finito B tal que todo elemento de V é combinação linear, de forma única a
menos de ordem, desse subconjunto. Qualquer outro subconjunto de V com esta propriedade,
possuem o mesmo número de elementos que B. Daqui sairá o conceito de Dimensão.
Seja V um espaço vetorial sobre K.
Definição 1.41. Dizemos que um conjunto L = {u1 , u2 , . . . , un } ⊆ V é linearmente inde-
pendente (L.I) se, e somente se, dada qualquer combinação linear tal que

a1 u1 + a2 u2 + · · · + an un = 0 ,

com ai ∈ K, implica que a1 = a2 = · · · = an = 0.

Defina o que seria então um conjunto linearmente dependente (L.D.). Se B1 ⊆ B2 , e B1 é


L.D. então B2 é L.D. Se 0 ∈ B, então B é L.D.
Todo subconjunto de um conjunto L.I. é L.I. também.

8
Exemplo 1.42. Verifique quais dos seguintes conjuntos são L.I. em R3 .

1. {(1, 1, 0), (1, 4, 5), (3, 6, 5)}

2. (1, 2, 3), (1, 4, 9), (1, 8, 27)

3. (1, 2, 1), (1, 3, 5), (2, 4, 2)

4. (1, 2, 3), (4, 5, 6), (7, 8, 9)


     
−1 2 4 −6 3 −4
5. S = , ,
−3 1 6 0 3 1

6. {1 + 2x − x2 , 2 − x + 3x2 , 3 − 4x + 7x2 }

Exemplo 1.43. {sen(x), cos(x)} é L.I. no R-espaço vetorial C([0, 2π], R).

Exercı́cio 1.44. Determine o valor de k para que o conjunto {(1, 0, −1), (1, 1, 0), (k, 1, −1)}
seja L.I.

Exemplo 1.45. Sejam u, v, w ∈ V , tal que u ∈ hwi e v ∈ hwi. Mostre que {u, v} é L.D.

Exemplo 1.46. Mostre que o conjunto {(1, 0, α), (1, 1, α), (1, 1, α2 )} ⊆ R3 é L.I., desde que
α 6= 0 e α 6= 1.

Exercı́cio 1.47. Mostre que o se o conjunto {u, v, w} ⊆ V sobre o corpo K com car(K) 6= 2
for L.I., então o conjunto {u + v, u + w, v + w} é também L.I.

Exemplo 1.48. Mostre que o conjunto de vetores {(1 − i, i), (2, −1 + i)} ⊆ C2 é L.D. sobre
C, mas L.I. sobre R.

Note que, dado S = {u1 , . . . , uj , . . . , un } e uj ∈ hS − {uj }i (isto é, uj é combinação linear


dos demais vetores de S), então
hSi = hS − {uj }i .

Exemplo 1.49. Observe no R4 o seguinte subespaço


S = h(1, 1, 0, 0), (0, 1, 0, 2), (0, 0, 1, 0), (0, 2, −1, 4)i. Podemos ver que 2(0, 1, 0, 2)−(0, 0, 1, 0) =
(0, 2, −1, 4). Pela propriedade acima temos que S = h(1, 1, 0, 0), (0, 1, 0, 2), (0, 0, 1, 0)i.

Definição 1.50. Um conjunto B = {v1 , . . . , vn } ⊆ V é uma base do espaço vetorial V se:

1. B é L.I.;

2. B gera V .

Isto significa que todo vetor v ∈ V , se escreve, de forma única, como combinação linear
v = a1 v1 + · · · + an vn dos elementos da base B.

Exemplo 1.51. 1. B = {(1, 0), (0, 1)} é base de K2 . Chamada de base canônica de K2 .
(Falar de Kn )

9
2. B = {(1, 1), (0, −1)} é base de R2 .
       
1 0 0 1 0 0 0 0
3. B = , , , é a base canônica de M2 (K).
0 0 0 0 1 0 0 1

4. O conjunto B = {1, x, x2 , . . . , xn } é a base canónica do espaço vetorial Pn (K).

5. B = {(1, 0), (0, 1), (3, 4)} não é base de R2 , pois B é L.D.

6. B = {(1, 0, 2), (0, 1, 0)} não é base de R3 , pois é L.I. mas não gera R3 .

7. Seja K um corpo e A ∈ Mn (K) uma matriz invertı́vel. Então, A1 , . . . , An as colunas de


A formam uma base para o espaço de matrizes colunas Kn×1 . De fato, se X ∈ Kn×1
é tal que AX = x1 A1 + x2 A2 + · · · + xn An = 0, e como A é invertı́vel segue que
X = 0 , logo o conjunto {A1 , . . . , An } é L.I. Para mostrar que é gerador, então dado
Y ∈ Kn×1 , devemos achar X ∈ Kn×1 tal que AX = Y , e daı́ que X = A−1 Y e portanto
{A1 , . . . , An } é base.
√ √
8. O conjunto {1, 2} é uma base para Q( 2) sobre Q.

9. O conjunto B = {(1, 0), (0, 1), (i, 0), (0, i)} é uma base de C2 sobre R.

Exemplo 1.52. Seja K um subcorpo dos números complexos. Então o subespaço V de


polinômios sobre K tem como base infinita {1, x, x2 , x3 , . . . , } sobre K. (Tarefa)

Teorema 1.53. Seja V um espaço vetorial e B = {v1 , v2 , . . . , vm } uma base de V . Então


qualquer conjunto linearmente independente de vetores em V é finito e contém no máximo
m vetores.

Demonstração. Aqui é suficiente mostrar que todo subconjunto S de V com mais de m


vetores é L.D. Suponhamos que S possui n elementos distintos w1 , w2 , . . . , wn , com n > m.
Como V = hv1 , v2 , . . . , vm i, então existem escalares αij ∈ K tal que
m
X
wj = αij vi para j = 1, . . . , n.
i=1

Queremos achar escalares c1 , . . . , cn , não todos nulos, tais que


n
X
0 = c1 w 1 + · · · + cn w n = cj w j
j=1
n
X m
X
= cj aij vi
j=1 i=1
Xn Xm
= (cj aij )vi
j=1 i=1 !
Xm X n
= aij cj vi .
i=1 j=1

10
Como os vi com i = 1, . . . , m formam uma base de V , então para cada i = 1, . . . , m temos
n
X
que aij cj = 0, logo terı́amos um sistema homogêneo de m equações com n variáveis com
j=1
n > m, então existe uma solução não nula e portanto temos que o conjunto S é L.D.

Corolário 1.54 (de Invariança). Seja V um espaço vetorial finitamente gerado. Então, duas
bases quaisquer de V têm o mesmo número de vetores.

Demonstração. Como V é finitamente gerado então tem uma base finita {v1 , v2 , . . . , vm }.
Pelo teorema anterior, temos que todo conjunto L.I. tem no máximo m elementos, assim se
{w1 , w2 , . . . , wn } é uma outra base de V então temos que n ≤ m. Pelo mesmo argumento,
chegamos que m ≤ n, e portanto m = n.

Corolário 1.55. Seja V um espaço vetorial de dimensão n. Então,

1. Qualquer conjunto de vetores com mais de n elementos é L.D.

2. Nenhum subconjunto de V com menos de n elementos pode gerar todo o espaço vetorial
V.

Definição 1.56. Seja V espaço vetorial finitamente gerado sobre K. Denomina-se dimensão
de V , denotamos por dimK V , o número de vetores de qualquer uma de suas bases. Dizemos
também que V é um espaço de dimensão finita sobre K.

Exemplo 1.57. dimK {0} = 0, dimK {Kn } = n, dimK Pn (K) = n + 1, dimR Mm×n (R) =
mn, dimC Mm×n (C) = mn, dimR Mm×n (C) = 2mn.

Lema 1.58. Seja V um espaço vetorial e S ⊂ V um conjunto L.I. Suponhamos que v ∈ V


tal que v 6∈ hSi, então o conjunto obtido por ajuntar v a S é L.I.

Demonstração. Sejam v1 , v2 , . . . , vm , m vetores distintos de S tal que

a1 v1 + a2 v2 + · · · + am vm + av = 0 .

Logo a = 0, pois caso contrário terı́amos que


     
−a1 −a2 −am
v= v1 + v2 + · · · + vm ,
a a a

o que é contraditório, pois implicaria que v estaria no gerado por S. Assim, se a = 0, então
segue que a1 v1 +a2 v2 +· · ·+am vm = 0 e como S é L.I. segue que ai = 0 para i = 1, . . . , m.

Teorema 1.59. Seja V um espaço vetorial finitamente gerado e W um subespaço de V .


Então, todo subconjunto L.I de W é finito e faz parte de uma base para W .

Demonstração. Seja S0 ⊂ W um conjunto L.I. Então S0 é também L.I. em V e tem no


máximo dim V elementos.

11
Agora, estendemos S0 para uma base de W . Se hS0 i = W nada a fazer. Caso contrário,
pelo lema acima, encontramos um vetor β1 ∈ W tal que S1 = S0 ∪ {β1 } seja L.I. Se S1 gera
W então acabamos, mas caso contrário aplicamos de novo o lema para encontrar um vetor
β2 ∈ W tal que S2 = S1 ∪ {β2 } seja L.I. Continuando desta forma, em no máximo dim V
passos, obtemos um conjunto

Sm = S0 ∪ {β1 , β2 , . . . , βm } ,

tal que Sm é uma base para W .


Corolário 1.60. Todo subespaço vetorial próprio W de um espaço vetorial V finitamente
gerado é também finitamente gerado, e dim W < dim V .

Demonstração. Suponhamos que existe α ∈ W e α 6= 0. Pelo Teorema anterior existe uma


base W contendo α com no máximo dim V elementos. Daı́ que W é finitamente gerado e
dim W ≤ dim V . Como W é subespaço próprio existe um elemento β ∈ V tal que β 6∈
W . Ajuntando β com a base de W , obtemos um subconjunto L.I. de V. Assim, segue que
dim W < dim V .
Corolário 1.61. Seja V um espaço vetorial finitamente gerado. Todo subconjunto não vazio
e L.I. de vetores em V faz parte de uma base.
Corolário 1.62. Seja A ∈ Mn (K), e suponha que as linhas da matriz formam um conjunto
L.I. de vetores em Kn . Então A é invertı́vel.

Demonstração. Sejam a1 , a2 , . . . , an as linhas da matriz A, e suponha que W é o subespaço


de Kn gerado por a1 , a2 , . . . , an . Como a1 , a2 , . . . , an são L.I., então a dimensão de W é n.
Logo, temos que W = Kn , e daı́ que a1 , a2 , . . . , an formam uma base de Kn , logo temos que
existem escalares bij ∈ K tal que
n
X
ei = bij aj , para 1 ≤ i ≤ n,
j=1

onde {e1 , e2 , . . . , en } é a base canônica de Kn . Assim, temos que a matriz B = (bij ) satisfaz
que I = BA.
Teorema 1.63. Sejam W1 e W2 subespaços finitamente gerados de um espaço vetorial V .
Então, W1 + W2 é finitamente gerado e

dim(W1 + W2 ) = dim W1 + dim W2 − dim W1 ∩ W2 .

Demonstração. Pelo Teorema anterior e seus corolários segue que W1 ∩ W2 tem uma base
finita {w1 , . . . , wk } que faz parte de uma base

{w1 , w2 , . . . , wk , α1 , α2 , . . . , αm } para W1 ,

e parte de uma base

{w1 , w2 . . . , wk , β1 , β2 , . . . , βn } para W2 .

12
Assim, o subespaço W1 + W2 é gerado pelos vetores

w1 , w2 , . . . , wk , α1 , α2 , . . . , αm , β1 , β2 , . . . , βn ,

e além disso esse conjunto é L.I. De fato, suponhamos que existem escalares xi , yj , zk ∈ K tal
que X X X
xi wi + yj αj + zk βk = 0 .
Então, X X X
− zk βk = x i wi + y j αj ,
P P P
ePdaı́ que − zk βk ∈ W1 e comoP tambémP − zk βk ∈ W2 então podemos escrever − zk βk =
ci wi com ci ∈ K. Assim, 0 = zk βk + ci wi e como o conjunto {w1 , w2 , . . . , wk , β1 , . . . , βm }
é L.I. então todos os escalares zk = 0 e ci = 0. Logo,
X X
xi w i + y j αj = 0 ,

e como o conjunto {w1 , w2 , . . . , wk , α1 , . . . , αm } também é L.I., então os escalares xi = 0 e


yj = 0. Assim, temos que o conjunto {w1 , w2 , . . . , wk , α1 , α2 , . . . , αm , β1 , β2 , . . . , βn } é uma
base para o subespaço W1 + W2 . Finalmente,

dim W1 + dim W2 = (k + m) + (k + n) = k + (k + m + n) = dim(W1 ∩ W2 ) + dim(W1 + W2 ) .

A seguir mostramos como obter uma base de um subespaço de Rn .

Exemplo 1.64. Seja V = {(2, 1, 1, 0), (1, 0, 1, 2), (0, −1, 1, 4)} ⊆ R4 . Escalonamos a matriz
até obter uma matriz escalonada reduzida.

Exemplo 1.65. Consideremos os seguintes subespaços de R4 :

U = h(1, 0, 1, 0), (0, 1, 0, 0)i e V = {(x1 , x2 , x3 , x4 ) : x1 + x2 = 0} .

Determine dim(U ∩ V ) e dim(U + V ).

Exercı́cio 1.66. Seja F = {(x, y, z) : x − 2y + 4z = 0} subespaço de R3 . Obtenha uma base


{u1 , u2 , u3 } de R3 tal que u1 , u2 ∈ F .

Exemplo 1.67. Mostre que os polinômios 1, x − 1 e x2 − 3x + 1 formam uma base de P2 (R).


Escreva o polinômio 2x2 − 5x + 6 como combinação linear dos elementos da base.

Uma forma prática para determinar a dimensão de um espaço vetorial é verificar o número
de variáveis livres do seu vetor genérico. Esse número é a dimensão do espaço.

Exemplo 1.68. Determinar a dimensão e uma base do espaço vetorial

S = {(x, y, z) ∈ R3 : x + 2y + z = 0}

13
1.5.1 Coordenadas de um vetor

Um dos principais objetivos de uma base B em um espaço V de dimensão n é que essencial-


mente permite introduzir coordenadas em V de forma análoga as “coordenadas naturais” xi
de um vetor α = (x1 , x2 , . . . , xn ) do espaço Kn .
Seja B = {v1 , v2 , . . . , vn } uma base ordenada (isto é, uma base onde fixamos uma ordem para
seus elementos) de V . Tomemos v ∈ V sendo v = a1 v1 + a2 v2 + · · · + an vn . Os números
a1 , a2 , . . . , an são chamados as coordenadas de v em relação à base B e se representa por
vB = (a1 , a2 , . . . , an )B ,
ou na notação matricial:  
a1
 a2 
vB = 
 
.. 
 . 
an

A n-upla (a1 , a2 , . . . , an ) é chamada vetor-coordenadas de v em relação à base B.


Exemplo 1.69. No R2 consideremos as bases A = {(1, 0), (0, 1)}, B = {(2, 0), (1, 3)} e
C = {(1, −3), (2, 4)} Dado o vetor u = (4, 6), escreve-lo em relação a cada uma das bases.
Observação 1.70. É importante notar que a ordem dos elementos de uma base também
influi no vetor de coordenadas de um vetor em relação à base.
Em virtude disto, ao considerarmos uma base B = {v1 , . . . , vn }, estaremos sempre suben-
tendendo que a base seja ordenada, isto é, que os vetores estão ordenados na ordem que
aparecem.

1.6 Mudança de Base

Sejam B = {u1 , . . . , un } e B 0 = {w1 , . . . , wn } duas bases ordenadas de um espaço vetorial V .


Dado um vetor v ∈ V , podemos escrevê-lo como:
v = b1 u1 + · · · + bn un , e v = c1 w 1 + · · · + cn w n .
Como podemos relacionar as coordenadas de v em relação à base B, vB = (a1 , . . . , an ) com
as coordenadas do mesmo vetor v em relação à base B 0 , vB 0 = (b1 , . . . , bn ). Já que B é base
de V , podemos escrever os vetores wi como combinação linear dos vetores de B, isto é,
w1 = a11 u1 + a21 u2 + · · · + an1 un
w2 = a12 u1 + a22 u2 + · · · + an2 un
.. .. ..
. . .
wn = a1n u1 + a2n u2 + · · · + ann un

Substituindo em v = c1 w1 + · · · + cn wn temos que


v = c1 (a11 u1 + a21 u2 + · · · + an1 un ) + · · · + cn (a1n u1 + a2n u2 + · · · + ann un ) ,

14
v = (a11 c1 + a12 c2 + · · · + a1n cn )u1 + · · · + (an1 c1 + an2 c2 + · · · + ann cn )un .

Mas v = b1 u1 + · · · + bn un , e como as coordenadas em relação à uma base são únicas, temos


que:

b1 = a11 c1 + a12 c2 + · · · + a1n cn


b2 = a21 c1 + a22 c2 + · · · + a2n cn
.. .. .. .
. . .
bn = an1 c1 + an2 c2 + · · · + ann cn

Em forma matricial,     
b1 a11 · · · a1n c1
 ..   .. .. ..   .. 
 . = . . .  . 
bn an1 · · · ann cn

Isto é, denotando  


a11 a12 · · · a1n
0
 a21 a22 · · · a2n 
[I]B =
 
B  .. .. .. .. 
 . . . . 
an1 an2 · · · ann
0 0 0
temos que [v]B = [I]B B
B [v]B 0 . A matriz [I]B é chamada matriz de mudança da base B para a
base B.
Exemplo 1.71. Sejam B = {(2, −1), (3, 4)} e B 0 = {(1, 0), (0, 1)} bases de R2 . Ache a
0
matriz [I]B
B e o as coordenadas de [v]B sabendo que [v]B 0 = (5, −4).

1.7 Inversa da Matriz Mudança de Base

Se nós começarmos escrevendo os ui em função dos wj , chegaremos à relação


[v]B 0 = [I]B
B 0 [v]B .
0
Um fato importante é que as matrizes [I]B B
B e [I]B 0 são inversı́veis e
0 −1
([I]B
B ) = [I]B
B0 .
0
Exemplo 1.72. No exemplo anterior podemos obter [I]B B B
B a partir de [I]B 0 . Note que [I]B 0 é
fácil de ser calculada, pois B 0 é a base canônica. Logo,
 
B 2 3
[I]B 0 =
−1 4
Exemplo 1.73. Se  
1 1 0
0
[I]αα =  0 −1 1 
1 0 −1
ache

15
1. [v]α onde [v]α0 = (−1, 2, 3)
2. [v]α0 onde [v]α = (−1, 2, 3)
Exemplo 1.74. Sejam B1 = {(1, 0), (0, 2)}, B2 = {(−1, 0), (1, 1)}, B3 = {(−1, −1), (0, −1)}
três bases ordenadas de R2 .

1. Ache
(a) [I]B2
B1

(b) [I]B3
B2

(c) [I]B3
B1

(d) [I]B B3
B1 · [I]B2
2

2. Se for possı́vel, dê uma relação entre as matrizes de mudança de base.


Exemplo 1.75. Seja V o espaço vetorial das matrizes 2 × 2 triangulares superiores. Sejam
           
1 0 0 1 0 0 0 1 0 1 1 1 1
B= , , e B = , ,
0 0 0 0 0 1 0 0 0 0 0 1
0
duas bases de V . Ache [I]B
B .

Teorema 1.76. Seja V um espaço vetorial sobre o corpo K de dimensão n, e sejam B e B 0


duas bases ordenadas de V . Então, existe uma única matriz P de tamanho n × n, invertı́vel,
com entradas em K tal que
[v]B = P [v]B 0
e
[v]B 0 = P −1 [v]B ,
para todo v ∈ V . As colunas de P são dadas por

Pj = [a0j ]B , para j = 1, . . . , n .

Teorema 1.77. Seja P ∈ Mn (K) uma matriz invertı́vel. Seja V um espaço vetorial de
dimensão n sobre K, e B uma base ordenada de V . Então existe uma única base ordenada
B 0 de V tal que
[v]B = P [v]B 0
e
[v]B 0 = P −1 [v]B ,
para todo v ∈ V .

Demonstração. Seja B = {u1 , . . . , un } e B 0 = {w1 , . . .P


, wn } uma base ordenada de V para a
qual é válido que [v]B = P [v]B 0 , então temos que wj = ni=1 Pij ui . Assim, precisamos mostrar
que os vetores wj formados por essas equações, formam uma base de V . Seja Q = P −1 . Então,
!
X X X XX X X
Qjk wj = Qjk Pij ui = Pij Qik ui = Pij Qjk ui = uk .
j j i j i i j

16
Assim, o subespaço gerado pelo conjunto

B 0 = {w1 , . . . , wn } ,

contendo B e portanto é igual a V . Logo, B 0 é uma base e pelo Teorema anterior seguem as
igualdades.

1.8 Espaços Quocientes

Sejam V um espaço vetorial sobre K e W um subespaço de V . Vamos construir um espaço


vetorial chamado de espaço quociente de V por W e que será denotado por V /W . Para isso,
vamos definir uma relação de equivalência ∼ nos elementos de V . Dados v1 , v2 ∈ V , dizemos
que v1 ∼ v2 se v1 − v2 ∈ W . Não é difı́cil ver que ∼ é uma relação de equivalência (isto é,
reflexiva, simétrica e transitiva). Para um vetor v ∈ V , indicamos sua classe de equivalência
por
v = {u ∈ V : u ∼ v} .

Verifique que v = v + W = {v + w : w ∈ W } .
Seja V /W = {v : v ∈ V }. Vamos mostrar que V /W tem uma estrutura natural de espaço
vetorial sobre K. Vamos definir as seguintes operações:

v 1 + v 2 = v1 + v2 , para v 1 , v 2 ∈ V /W ,

e
λv = λv , para v ∈ V /W, e λ ∈ K .

Verifique que as operações estão bem definidas, isto é, que não dependem dos representantes
da classe e veja que são satisfeitas as propriedades de espaço vetorial.

Observação 1.78. 1. O vetor nulo de V /W é 0 = W , isto é, v = 0 ⇔ v ∈ W .

2. Se W = V , então V /W = {0}.

Exemplo 1.79. Sejam V = R2 e W = h(1, 1)i ( R2 . Queremos achar uma base do espaço
V /W = {v + W : v ∈ V }. Vamos considerar uma base de R2 que contenha o vetor (1, 1),
por exemplo B = {(1, 1), (1, 0)}. Vejamos que {(1, 0)} é uma base para V /W . Assim, seja
v ∈ V /W e fixemos v ∈ v. Como B é uma base de V , temos que existem escalares a1 , a2 ∈ R
tais que v = a1 (1, 1) + a2 (1, 0). Daı́, que v = a1 (1, 1) + a2 (1, 0) = a2 (1, 0). Assim, {(1, 0)}
gera V /W .

A construção feita no exemplo anterior, pode ser generalizada como nos mostra o seguinte
resultado.

Proposição 1.80. Sejam V um espaço vetorial de dimensão finita n ≥ 1 sobre K e W um


subespaço de V . Então
dimK V = dimK W + dimK V /W .

17
Demonstração. Sejam B 0 = {v1 , . . . , vm } uma base de W e B = {v1 , . . . , vm , vm+1 , . . . , vn }
uma base de V contendo a base B 0 . Vamos mostrar que C = {v m+1 , . . . , v n } forma uma base
de V /W . Vejamos que os vetores de C são L.I. Suponhamos que existem escalares λj ∈ K
com j = m + 1, . . . , n tais que λm+1 v m+1 + · · · + λn v n = 0. Logo, λvm+1 + · · · + λn vn ∈ W .
Então, existem α1 , . . . , αn ∈ K tais que

λvm+1 + · · · + λn vn = α1 v1 + · · · + αn vn .

Como B é L.I., então temos que os λj = 0 e αi = 0 com m + 1 ≤ j ≤ n e 1 ≤ i ≤ m P e assim C


é L.I. Seja agora v ∈ V /W . Como v ∈ V , existem αi ∈ K, 1 ≤ i ≤ n, tais que v = ni=1 αi vi .
Logo,
v = α1 v1 + · · · + αn vn = α1 v 1 + · · · + αn v n = αm+1 v m+1 + · · · + αn v n .
Portanto C é base e daı́ segue o resultado.

18
2 Transformações Lineares
Nesta seção vamos estudar funções entre espaços vetoriais. Veremos que a noção de base será
bastante útil para descrever tais transformações.
Sejam U e V espaços vetoriais sobre K. Dizemos que uma aplicação T : U → V é uma
transformação linear se

i) T (u1 + u2 ) = T (u1 ) + T (u2 ) para todo u1 , u2 ∈ U , e

ii) T (αu) = αT (u) para todo α ∈ R e todo u ∈ U .

Observação 2.1. Uma transformação linear de U em U é chamada de operador linear sobre


U.

Exemplo 2.2. Sejam U, V espaços vetoriais. Então, I(u) = u a identidade, é uma trans-
formação linear de U em U . A transformação nula de U em V , 0(u) = 0V é também uma
transformação linear de U em V .

Exemplo 2.3. Seja V o espaço das funções polinomiais sobre o corpo K dadas por f (x) =
c0 + c1 x + · · · + ck xk . Então o operador diferencial D(f ) = c1 + 2c2 x + · · · + kck xk−1 é uma
transformação linear de V em V .

Exemplo 2.4. SejaR x V o R-espaço vetorial das funções de R em R continuas. O operador


integral T (f ) = 0 f (t) dt é um operador linear sobre V .

Exemplo 2.5. Seja T : R2 → R3 definida por T (x, y) = (3x, −2y, x − y). Verifique que
T é uma transformação linear. Calcule T (1, −1). Calcule todos os (x, y) ∈ R2 tal que
T (x, y) = (0, 0, 0).

Exemplo 2.6. Mostre que T : R → R definida por T (x) = 4x + 3 não é uma transformação
linear.

Os seguintes resultados são consequência direta da definição.

Lema 2.7. Sejam U e V espaços vetoriais sobre K. Então uma aplicação T : U → V é uma
transformação linear se, e somente se,

T (αu1 + u2 ) = αT (u1 ) + T (u2 ) .

Exemplo 2.8. A simetria em relação à origem no R3 .

T : R3 → R3
é linear.
v 7→ −v

19
Exemplo 2.9. A projeção ortogonal do R3 sobre o plano xy.
T : R3 → R3
é linear.
(x, y, z) 7→ (x, y, 0)

Exemplo 2.10. Expansão ou Contração uniforme. Seja α ∈ R


T : R2 → R2
é linear. Tome por exemplo α = 2, 1/2.
(x, y) 7→ α · (x, y)

20
Exemplo 2.11. Rotação de um ângulo θ no sentido anti-horário.

Assim, Rθ (x, y) = (x cos θ − ysenθ, y cos θ + xsenθ), ou na forma de coluna,


    
x cos θ −senθ x
7→
y senθ cos θ y

Considere o caso particular onde θ = π/2.

Exemplo 2.12. Seja

T : R3 → M
2 (R) 
x+y 0 é linear.
(x, y, z) 7→ T (x, y, z) =
0 z−y

Exemplo 2.13. Um operador linear T : R2 → R2 é tal que T (1, 0) = (3, −1) e T (0, 1) =
(1, 4). Determine T (x, y).
 
1 2
Exemplo 2.14. Seja a matriz A =  −2 3  . Essa matriz determina a transformação:
0 4

TA : R2 → R3
é linear.
v = (x, y) 7→ Av = A(x, y)

Exemplo 2.15. Seja T : R3 → R2 uma transformação linear e B = {v1 , v2 , v3 } uma base do


R3 , sendo v1 = (0, 1, 0), v2 = (1, 0, 1) e v3 = (1, 1, 0). Determinar T (5, 6, −1), sabendo que
T (v1 ) = (1, −2), T (v2 ) = (3, 1) e T (v3 ) = (0, 2).

Proposição 2.16 (Propriedades). Sejam U e V espaços vetoriais sobre K e T : U → V uma


transformação linear. Então,

1. T (0U ) = 0V

2. T (−u) = −T (u) para todo u ∈ U

21
m
! m
X X
3. T αi ui = αi T (ui )
i=1 i=1

A propriedade 3 acima é bastante útil para se saber o valor que T assume num vetor u ∈ U ,
sendo suficiente conhecer o valor de T nos vetores da base e as coordenadas do vetor nesta
base.
Teorema 2.17. Dados dois espaços vetoriais reais U e V , e uma base B = {u1 , . . . , un } de
U , sejam v1 , . . . , vn elementos arbitrários de V . Então existe uma única transformação linear
T : U → V tal que T (u1 ) = v1 , . . . , T (un ) = vn .

Demonstração: Dado u ∈ U sabemos que existem escalares tal que u = α1 u1 + · · · + αn un ,


então definimos a seguinte aplicação: T : U → V por T (u) = α1 v1 + · · · + αn vn . T está
bem definida pois os αi são determinados de forma única. Temos claramente que T (ui ) = vi .
Agora mostre que T é linear (simples). Também mostramos a unicidade. Suponhamos que
existe T 0 : U → V tal que T 0 (ui ) = vi . Dado u ∈ U temos que u = α1 u1 + · · · + αn un e
T (u) = α1 v1 + · · · + αn vn = α1 T 0 (u1 ) + · · · + αn T 0 (un ) = T 0 (u), para todo u ∈ U , logo T = T 0 .

O Teorema anterior parece simples, mas tem um resultado bastante importante, pois implica
que para definir uma transformação linear, basta (é suficiente) definir está numa base do
espaço de saı́da.

2.1 Núcleo e Imagem de uma Transformação Linear

Definição 2.18. Sejam U e V dois espaços vetoriais sobre K e T : U → V uma transformação


linear.

i) O conjunto {u ∈ U : T (u) = 0} é chamado de núcleo de T , e será denotado por N uc(T ).

ii) O conjunto {v ∈ V : existe u ∈ U com T (u) = v} é chamado de Imagem de T e será


denotado por Im(T ).

iii) Dizemos que uma transformação linear é sobrejetora se Im(T ) = V .

Proposição 2.19. Sejam U e V dois espaços vetoriais sobre K e T : U → V uma trans-


formação linear. Então,

1. N uc(T ) é um subespaço vetorial de U e Im(T ) é um subespaço vetorial de V .

2. T é injetora se, e somente se, N uc(T ) = {0}.

3. T é sobrejetora se, e somente se, a dimensão da Im(T ) for igual a dimensão de V .


Definição 2.20. Dada uma transformação linear T : U → V , a dimensão do subespaço
Im(T ) é também chamada de posto de T e a dimensão do subespaço N uc(T ) é também
chamada de nulidade de T .

22
Exemplo 2.21. Calcule o núcleo e a imagem das seguintes transformações lineares.

1. T : R2 → R2 , T (x, y) = (x + y, 2x − y)
2. T : R3 → R2 , T (x, y, z) = (x − y + 4z, 3x + y + 8z).
3. T : R2 → R, T (x, y) = x + y.
4. T : R3 → R3 , T (x, y, z) = (x, 2y, 0).
Exemplo 2.22. Considere a seguinte transformação linear
R3 → M2 (R)
T :  
a+b 0
(a, b, c) 7→
o c−b
Calcular o posto e a nulidade de T e observar que a soma é justamente a dimensão de R3 .
Proposição 2.23. Sejam U e V espaços vetoriais sobre K e T : U → V uma transformação
linear. Se B = {u1 , . . . , un } é uma base de U , então o conjunto {T (u1 ), . . . , T (un )} gera a
Im(T ).

Demonstração: Seja v ∈ Im(T ). Então existe u ∈ U tal que T (u) = v, e além disso temos
que u = a1 u1 + · · · + an un . Assim, segue que T (u) = T (a1 u1 + · · · + an un ) = a1 T (u1 ) + · · · +
an T (un ) = v, logo Im(T ) = hT (u1 ), . . . , T (un )i. 
A proposição acima nos dá uma forma de conseguir uma base de Im(T ).
Teorema 2.24 (Teorema do Núcleo e da Imagem). Sejam V e W espaços vetoriais sobre K,
a dimensão de V finita, e T : V → W uma transformação linear. Então:
dimK (V ) = dimK (N uc(T )) + dimK (Im(T )) .

Demonstração. Suponhamos que dimK (V ) = n. Seja {α1 , . . . , αk } uma base de N uc(T ), o


núcleo de T . Então, existem vetores αk+1 , . . . , αn tal que {α1 , . . . , αn } são uma base de V .
Pela proposição anterior, temos que {T (α1 ), . . . , T (αn )} = {T (αk+1 ), . . . , T (αn )} gera Im(T ).
Para ver que esses vetores são independentes, suponhamos que existem escalares ci tais que
n
X
ci T (αi ) = 0 .
i=k+1

Como T é uma transformação linear, então segue que


n
!
X
T ci α i = 0 ,
i=k+1
Pn
e daı́ que α = i=k+1 ci αi ∈ N uc(T ), então existem escalares bj com j = 1, . . . , k tal que
k
X
α= bj αj .
j=1

23
Assim, temos que
k
X n
X
bj αj + ci α i = 0 ,
j=1 i=k+1

e como α1 , . . . , αn é um conjunto L.I., segue que

b1 = · · · = bk = ck+1 = · · · = cn = 0 .

Se r é o posto de T , então o fato que T (αk+1 ), . . . , T (αn ) formam uma base para a Im(T ),
segue que r = n − k, onde k é a nulidade de T e n é a dimensão de V .

Exemplo 2.25. Determine o núcleo e a imagem do operador

T : R3 → R3 T (x, y, z) = (x + 2y − z, y + 2z, x + 3y + z) .

Observação 2.26. O vetor imagem T (x, y, z) pode ser escrito da seguinte forma:

T (x, y, z) = (x + 2y − z, y + 2z, x + 3y + z) = x(1, 0, 1) + y(2, 1, 3) + z(−1, 2, 1) ,

onde T (1, 0, 0) = (1, 0, 1), T (0, 1, 0) = (2, 1, 3) e T (0, 0, 1) = (−1, 2, 1), logo Im(T ) =
hT (1, 0, 0), T (0, 1, 0), T (0, 0, 1)i.

Exemplo 2.27. Verifique se o vetor (5, 3) ∈ Im(T ) onde T : R2 → R2 é definida por


T (x, y) = (x − 2y, 2x + 3y).

Exemplo 2.28. Determine uma transformação linear T : R3 → R4 tal que N uc(T ) =


{(x, y, z) : z = x − y}.

Corolário 2.29. Seja T : V → W uma transformação linear.

1. Se dim V = dim W = n < ∞, então T é injetora se, e somente se, T é sobrejetora.

2. Se dim V = dim W = n < ∞ e T é injetora, então T transforma base em base, isto é,
se B = {v1 , . . . , vn } é base de V , então T (B) = {T (v1 ), . . . , T (vn )} é base de W .

24
2.2 Isomorfismos

Vimos que as transformações lineares são funções que preservam as operações de espaço
vetorial. Nesta seção iremos estudar as transformações lineares bijetoras e ver que nessas
condições os espaços vetoriais envolvidos podem de alguma forma ser identificados.

Definição 2.30. Sejam U e V espaços vetoriais sobre K.

(i) Seja T : U → V uma transformação linear. Se T for bijetora, então dizemos que T é
um isomorfismo.

(ii) Se existir um isomorfismo T : U → V , então dizemos que U e V são espaços vetoriais


isomorfos, e denotamos por U ∼= V.

Proposição 2.31. A inversa de uma transformação linear bijetora também é linear.

Demonstração. Exercı́cio.

Observe que V é trivialmente isomorfo a V , através do operador identidade. Também, se V


e W são isomorfos via o isomorfismo T , então W é isomorfo a V via T −1 que é isomorfismo.
Pode ser verificado facilmente também que se V ∼ =W eW ∼ = Z então V ∼ = Z. Isto implica
que, isomorfismo é uma relação de equivalência na classe de espaços vetoriais.

Teorema 2.32. Todo espaço vetorial de dimensão n sobre K é isomorfo a Kn .

Demonstração. Seja V um espaço vetorial de dimensão n sobre K, e β = {v1 , . . . , vn } uma


base ordenada de V . Nós definimos a função T de V em Kn como segue: Dado v ∈ V temos
que v = c1 v1 + · · · + cn vn onde os ci são as coordenadas de v na base β. Então, T (v) =
(c1 , . . . , cn ) ∈ Kn . Está aplicação é linear e bijetora e portanto será um isomorfismo.

Pelo teorema anterior podemos ver que espaços vetoriais isomorfos tem a mesma dimensão,
e vice-versa se dois espaços vetoriais tem a mesma dimensão então eles são isomorfos.

Exemplo 2.33. Considere o espaço vetorial KN formado por todas sequencias de elementos
de K (K = R ou K = C). Quais das seguintes transformações são isomorfismo:

1. T ((xi )i∈N ) = (xi+1 )i∈N

2. T (x1 , x2 , x3 , . . .) = (0, x1 , x2 , . . .)

3. T ((xi )i∈N ) = (2xi )i∈N

Lembremos que se T : U → V é uma transformação linear, e U, V espaços vetoriais da mesma


dimensão n finita, então T é injetora se, e somente se, é sobrejetora. Vejamos um exemplo
em dimensão infinita onde isto não ocorre.

25
Exemplo 2.34. D : P(R) → P(R) o operador derivada. Observemos que D não é injetora,
pois todo polinômio constante está no N uc(T ). Porém, T é sobrejetora, pois todo polinômio
é uma função integrável.
Proposição 2.35. Sejam U e V K-espaços vetoriais, B = {ui ; i ∈ I} uma base de U e
{vi ; i ∈ I} um subconjunto de V . Então,

i) Existe uma única transformação linear T : U → V tal que T (ui ) = vi para todo i ∈ I.
ii) T é injetora se, e somente se, {vi ; i ∈ I} é L.I.
iii) T é sobrejetora se, e somente se, h{vi ; i ∈ I}i = V .

Demonstração. Como B é base de U , então cada elemento de U é escrito de forma única


P como
uma combinação linear de elementosPde B, isto é, existem αi0 s ∈ K tais que u = ni=1 αi ui .
Para cada u ∈ U , definimos T (u) = ni=1 αi vi . T está bem definida porque os αi0 s são únicos
e não é difı́cil mostrar que T é linear. Em particular, temos que T (ui ) = vi para todo i ∈ I.
Mostre que é única.
Teorema 2.36. (Teorema de Isomorfismo) Dados U e V dois K-espaços vetoriais e
T : U → V uma transformação linear. Então
U/N uc(T ) ' Im(T )

Demonstração. Seja ψ : U/N uc(T ) → Im(T ) definida por ψ(ū) = T (u). Mostre que ψ está
bem definida e que é um isomorfismo. Mostre que ψ é linear.
Exemplo 2.37. Sejam W1 , W2 subespaços de V tais que V = W1 ⊕ W2 . Mostre que V /W1 '
W2 .

2.3 Matriz de uma Transformação Linear

Nesta parte veremos que o estudo de transformações lineares pode ser reduzido ao estudo de
matrizes.
Seja T : V → W uma transformação linear, Bv uma base de V e BW uma base de W . Sem
perda de generalização, consideramos o caso em que dim V = 2 e dim W = 3. Assim, sejam
Bv = {v1 , v2 } e BW = {w1 , w2 , w3 }, bases de V e W respetivamente. Um vetor v ∈ V pode
ser escrito como v = x1 v1 +x2 v2 e a imagem T (v) = y1 w1 +y2 w2 +y3 w3 . Por outro lado temos
que T (v) = x1 T (v1 ) + x2 T (v2 ). Sendo T (v1 ) e T (v2 ) vetores de W temos que eles podem ser
escritos por
T (v1 ) = a11 w1 + a21 w2 + a31 w3 ,
e
T (v2 ) = a12 w1 + a22 w2 + a32 w3 .

Substituindo esses valores temos que


T (v) = x1 (a11 w1 + a21 w2 + a31 w3 ) + x2 (a12 w1 + a22 w2 + a32 w3 ) ,

26
ou
T (v) = (a11 x1 + a12 x2 )w1 + (a21 x1 + a22 x2 )w2 + (a31 x1 + a32 x2 )w3 .
Daı́ que

y1 = a11 x1 + a12 x2 , y2 = a21 x1 + a22 x2 y3 = a31 x1 + a32 x2 ,


ou na forma matricial    
y1 a11 a12  
 y2  =  a21 a22  x 1
,
x2
y3 a31 a32

ou também podemos escrever como coordenadas: [T (v)]BW = [T ]B BV


BW [v]BV onde [T ]BW é
V

denominada a matriz de T em relação às bases BV e BW .


De forma geral, para uma transformação linear T : V → W , se dim V = n e dim W = m,
BV = {v1 , . . . , vn }, BW = {w1 , . . . , wm } são bases de V e W respetivamente. Sabemos que
uma transformação linear fica definida completamente se definirmos ela nos vetores de uma
base do domı́nio, então temos que:
m
X
T (vj ) = aij wi , para j = 1, . . . , n .
i=1
Pn
Assim, dado v ∈ V temos que v = j=1 αj vj e daı́ que
n
! n n m
X X X X
T (v) = T aij vj = αj T (vi ) = αj aij wi
j=1 j=1 j=1
! i=1
n X
X m m
X n
X m
X
= (αj aij )wi = aij αj wi = βi wi .
j=1 i=1 i=1 j=1 i=1

Então, temos que [T (v)]BW = (β1 , . . . , βm )BW . Reescrevendo em termos de multiplicação de


matrizes, temos que
    
a11 a12 ··· a1n α1 β1
 a21 a22 ··· a2n  α2   β2 
=
    
 .. .. ..  ..  .. 
 . . .  .   . 
am1 am2 · · · amn αn BV
βn BW

A matriz A = (aij ) definida acima é chamada de matriz da transformação linear T em


relação as bases ordenadas BV e BW e é denotada por [T ]B BW . No caso em que V = W
V

B
e as bases sejam iguais então denotamos [T ]B , simplesmente por [T ]B .
Exemplo 2.38. Seja V = P3 (R) e considere D como sendo o operador linear derivação.
Ache a matriz de D na base canônica.
Exemplo 2.39. Seja T : R3 → R2 dada por T (x, y, z) = (2x − y + z, 3x + y − 2z), linear.
Considere as bases BV = {v1 , v2 , v3 } onde v1 = (1, 1, 1), v2 = (0, 1, 1), v3 = (0, 0, 1) e BW =
{w1 , w2 } onde w1 = (2, 1) e w2 = (5, 3).

27
1. Determinar [T ]B
BW .
V

2. Se v = (3, −4, 2) (coordenadas em relação à base canônica de R3 ), calcular T (v)BW


utilizando a matriz encontrada.
Exemplo 2.40. Seja ainda a mesma transformação linear do exemplo anterior e sejam as
bases canônicas de R3 e R2 .

1. Determinar [T ]B
BW . Esta é chamada à matriz canônica.
V

2. Se v = (3, −4, 2) calcular T (v)BW utilizando a matriz encontrada.

Nós vimos que dados dois espaços vetoriais V e W sobre K e considerando as bases β =
{v1 , . . . , vn } e β 0 = {w1 , . . . , wm } respetivamente e uma transformação linear T : V → W ,
que existia uma única matriz M ∈ Mm×n (K) tal que [T ]ββ 0 = M . O próximo resultado nos
mostra que a recı́proca também é verdadeira.
Proposição 2.41. Sejam V e W dois espaços vetoriais sobre K com dimensões n e m
respetivamente. Dadas bases β de V , β 0 de W e uma matriz M ∈ Mm×n (K), então existe
uma única transformação linear T : V → W tal que [T ]ββ 0 = M .

Demonstração. Exercı́cio.

Um caso especial é quando V = W e T = Id. Neste caso, temos que

[Id]B
B 0 [v]B = [Id(v)]B 0 = [v]B 0 .

0
Observe que a matriz [Id]B
B 0 é justamente a matriz mudança de base de B para B .

Nosso estudo será centrado em olhar transformações lineares entre espaços vetoriais de di-
mensão finita por meio de suas matrizes associadas. Isto traz inúmeras vantagens computa-
cionais, como por exemplo, que a matriz da composta de duas transformações lineares é a
multiplicação das duas matrizes das transformações, nas suas bases correspondentes.
Teorema 2.42. Sejam F : U → V e G : V → W duas transformações lineares onde U, V e
W são espaços vetoriais de dimensões n, m e r, respetivamente. Fixe bases β, β 0 e β 00 para
U, V e W , respetivamente. Então,
0
[G ◦ F ]ββ 00 = [G]ββ 00 [F ]ββ 0 .

Demonstração. Sejam β = {u1 , . . . , un }, β 0 = {v1 , . . . , vm } e β 00 = {w1 , . . . , wr } bases de U, V


e W respectivamente, e considere as matrizes:

m
X
1. [F ]β,β 0 = (aij ), isto é, F (uj ) = aij vi para j = 1, . . . , n.
i=1

r
X
2. [G]β 0 mβ 00 = (bki ), isto é, G(vi ) = bki wk para i = 1, . . . , m.
k=1

28
r
X
3. [G ◦ F ]β,β 00 = (ckj ), isto é, (G ◦ F )(uj ) = ckj wk , para j = 1, . . . , n.
k=1

Vamos calcular (G ◦ F )(uj ) usando as relações 1 e 2 acima.

m
! m
X X
(G ◦ F )(uj ) = G(F (uj )) = G aij vi = aij G(vi )
i=1
! i=1 !
m
X r
X r
X m
X
= aij bki wk = bki aij wk .
i=1 k=1 k=1 i=1

Comparando-se está ultima relação com (3), e pela unicidade nas coordenadas de um vetor
numa base ordenada segue que
m
X
ckj = bki aij , para todo j = 1, . . . , n, e para todo k = 1, . . . , r ,
i=1

isto é, que o elemento ckj da matriz [G◦F ]ββ 0 é o elemento na posição (k, j) da matriz resultante
0 0
da multiplicação de [G]ββ 00 por [F ]ββ 0 . Portanto, [G ◦ F ]ββ 00 = [G]ββ 00 [F ]ββ 0 .

Corolário 2.43. Sejam U e V dois espaços vetoriais de dimensão n ≥ 1 sobre K e considere


bases β e β 0 de U e V respectivamente. Uma transformação linear T : U → V é um
isomorfismo se, e somente se, a matriz [T ]ββ 0 for invertı́vel. Além disso, neste caso temos que
0
[T −1 ]ββ = ([T ]ββ 0 )−1 .

Demonstração. Suponhamos que T é um isomorfismo e que T −1 é a sua inversa. Como


T ◦ T −1 = IdV e T −1 ◦ T = IdU , teremos que
0 0 0
[IdV ]ββ 0 = [T ◦ T −1 ]ββ 0 = [T ]ββ 0 [T −1 ]ββ ,

e 0
[IdU ]ββ = [T −1 ◦ T ]ββ = [T −1 ]ββ [T ]ββ 0 .
Observando que as matrizes do lado esquerdo das igualdades acima0 são as matrizes identidade
de tamanho n × n, segue que [T ]ββ 0 é invertı́vel com inversa [T −1 ]ββ = ([T ]ββ 0 )−1 .

2.4 O espaço L(V, W )

Sejam V e W espaços vetoriais sobre o corpo K, e sejam T e S transformações lineares de V


em W , e c ∈ K. Então podemos definir:

Soma (T + S)(v) = T (v) + S(v)

Multiplicação por Escalar (cT )(v) = cT (v)

29
Composição Se T1 é uma transformação linear entre os espaços vetoriais W e U sobre K,
então podemos definir (T ◦ T1 )(v) = T (T1 (v)) uma transformação linear de V em U .

Denotamos por L(V, W ) o conjunto de todas as transformações lineares de V em W .

Proposição 2.44. Com a soma e multiplicação por escalar definida acima, temos que
L(V, W ) é um espaço vetorial sobre K.

Teorema 2.45. Seja V é um espaço vetorial de dimensão n sobre K, e seja W um espaço


vetorial de dimensão m sobre K. Então o espaço L(V, W ) tem dimensão mn.

Demonstração. Sejam
β = {v1 , . . . , vn } e β 0 = {w1 , . . . , wm } ,
duas bases ordenadas de V e W respetivamente. Defina a aplicação

ψββ0 : L(V, W ) → Mm×n (K)


T 7→ [T ]ββ 0

Mostremos que ψββ0 é linear, injetora e sobrejetora.

De fato, ψββ0 (αS + T ) = [αS + T ]ββ 0 . Se [S]ββ 0 = (aij )m×n e [T ]ββ 0 = (bij )m×n então temos que

(αS + T )(vj ) = αS(vj ) + T (vj ) = α(a1j w1 + · · · + amj wm ) + (b1j w1 + · · · + bmj wm )

= (αa1j + b1j )w1 + · · · + (αamj + bmj )wm ,


e daı́ segue que

[αS + T ]ββ 0 = (αaij + bij )i=1,...,m, e j=1,...,n = α[S]ββ 0 + [T ]ββ 0 = αψββ0 (S) + ψββ0 (T ) .

Claramente N uc(ψββ0 ) = {0}, logo a aplicação é injetora. Pela proposição 3.42 acima, temos
que a aplicação é sobrejetora e portanto um isomorfismo.

A operação de composição de transformações (operadores) lineares define uma operação de


multiplicação no espaço vetorial L(V, V ), e em geral temos que se T, S ∈ L(V, V ) então
T ◦ S 6= S ◦ T . Também usaremos a notação de T 2 = T ◦ T e em geral T n = T ◦ · · · ◦ T (n
vezes) para n = 1, 2, 3, . . .. Nós, definimos T 0 = I (identidade) se T 6= 0.

Lema 2.46. Sejam V um espaço vetorial sobre K, e S, T1 , T2 ∈ L(V, V ), e c ∈ K. Então,

1. I ◦ S = S ◦ I = S;

2. S ◦ (T1 + T2 ) = S ◦ T1 + S ◦ T2 e (T1 + T2 ) ◦ S = T1 ◦ S + T2 ◦ S;

3. c(S ◦ T1 ) = (cS) ◦ T1 = S ◦ (cT1 ).

30
Pelo Lema anterior podemos dizer que o espaço vetorial L(V, V ) junto com a operação de
composição é uma Álgebra Linear com Identidade.
Exemplo 2.47. Seja K um corpo e V o espaço vetorial dos polinomios de K em K. Seja D
o operador diferenciação e o operador T como sendo a multiplicação por x, isto é, T (f )(x) =
xf (x). Então, claramente temos que D ◦ T 6= T ◦ D. Observe que D ◦ T − T ◦ D = I. Isto
nos mostra que a composta não é comutativa.

2.5 Funcionais Lineares

Nesta parte vamos estudar transformações lineares cujos contradomı́nios sejam o corpo base
K.
Definição 2.48. Seja V um espaço vetorial sobre K. Um funcional linear em V é uma
transformação linear f : V → K.

O conceito de funcional linear é importante no estudo de espaços vetoriais de dimensão finita


porque ajuda a esclarecer as ideias de subespaços, equações lineares e coordenadas. Observe
que um funcional linear f não nulo é sempre sobrejetor e vai ser injetor somente no caso em
que a dimensão do domı́nio seja também 1, e neste caso vai ser um isomorfismo.
O espaço vetorial dos funcionais lineares L(V, K) denotaremos como V ∗ e o chamaremos de
espaço dual de V . Também sabemos que dimK V = dimK V ∗ .
Exemplo 2.49.P Seja V = Kn e sejam a1 , . . . , an ∈ K. Então a função f : Kn → K dada por
f (x1 , . . . , xn ) = ni=1 ai xi é um funcional linear. Todo funcional linear de Kn é desta forma,
de fato, dado f ∈ V ∗ e {e1 , . . . , en } a base canônica de Kn e seja ai = f (ei ) para i = 1, . . . , n.
Então, observe que por linearidade temos que
n
X n
X n
X
f (x1 , . . . , xn ) = f ( xi e i ) = xi f (ei ) = ai x i .
i=1 i=1 i=1

Exemplo 2.50. Considere o espaço vetorial V = P(K) sobre K e α ∈ K. A função,


fα : V → K
p 7→ p(α)
é um funcional linear.
Exemplo 2.51. A função
f : C([a, b], C) → C
Rb
x 7→ f (x) = a x(t) dt
está em (C([a, b], C))∗ .
Exemplo 2.52. Seja V = Mn (K) e considere a função traço, isto é, a função
tr : Mn (K) → K
A = (aij ) 7→ tr(A) = ni=1 aii ,
P

que também é um funcional linear.

31
2.5.1 Base Dual

Seja V um espaço vetorial de dimensão finita sobre K e seja β = {v1 , . . . , vn } uma base
ordenada de V . Queremos construir uma base β ∗ de V ∗ que esteja relacionada com β.
Então, para cada i = 1, . . . , n definimos os funcionais lineares fi : V → K por

0 se i 6= j
fi (vj ) = δij =
1 se i = j .

Pn
Com isso, teremos n funcionais lineares f1 , . . . , fn ∈ V ∗ . Observe que se v = j=1 αj vj ∈ V ,
com α1 , . . . , αn ∈ K, então teremos para cada i = 1, . . . , n que
n
! n n
X X X
fi (v) = fi αj vj = αj fi (αj ) = αj δij = αi .
j=1 j=1 j=1

Assim, teremos a seguinte igualdade


n
X
v= fj (v)vj .
j=1

Vamos mostrar que β ∗ = {f1 , . . . , fn } é base de V ∗ . Como dimK V = dimK V ∗ , basta mostrar
Xn
que β ∗ é um conjunto L.I. De fato, sejam λ1 , . . . , λn ∈ K tais que f = λi fi = 0, isto é,
i=1
o funcional linear f é o funcional linear nulo. Com isso, f (v) = 0 para todo v ∈ V . Em
particular, f (vj ) = 0 para j = 1, . . . , n. Logo,
n
X
0 = f (vj ) = (λ1 f1 + · · · + λn fn )(vj ) = λ1 f (vj ) + · · · + λn fn (vj ) = λi δij = λj .
i=1

Portanto, λj = 0 para j = 1, . . . , n e daı́ que β ∗ é base de V ∗ .


Teorema 2.53. Seja V um espaço vetorial de dimensão finita sobre K e seja β = {v1 , . . . , vn }
uma base ordenada de V . Então, existe uma única base β ∗ = {f1 , . . . , fn } de V ∗ tal que
fi (vj ) = δij , para i, j = 1, . . . , n. Além disto, para cada v ∈ V , temos que
n
X
v= fi (v)vi ,
i=1

e para todo f ∈ V ∗ , temos que


n
X
f= f (vi )fi .
i=1

Demonstração. Mostramos acima que existem únicos funcionais lineares f1 , . . . , fn tais que

fP
i (vj ) = δij para i, j = 1, . . . , n, que β = {f1 , . . . , fn } é uma base de V ∗ e que v =
n
i=1 fi (v)vi , para cada v ∈ V . Falta mostrar a última igualdade do enunciado. Assim,

32
considere f ∈ V ∗ e observe que existem γ1 , . . . , γn ∈ K tais que f = ni=1 γi fi . Observe que
P
calculando f no vetor vj , temos que
n
! n n
X X X
f (vj ) = γi fi (vj ) = γi (fi (vj )) = γi δij = γj ,
i=1 i=1 i=1

daı́ segue a igualdade desejada.

A base β ∗ definida acima é chamada de base dual a β. A relação entre as bases β e β ∗ nos
diz que se v ∈ V , então as coordenadas de este vetor na base β são f1 (v), . . . , fn (v), isto é,
[v]β = (f1 (v), . . . , fn (v))β . Além disso, as coordenadas de f ∈ V ∗ com relação à base β ∗ são
f (v1 ), . . . , f (vn ), isto é, [f ]β 0 = (f (v1 ), . . . , f (vn ))β 0 . Dizemos que existe uma dualidade entre
estas duas bases.

Exemplo 2.54. Seja β = {v1 , v2 , v3 } uma base de R3 , com v1 = (1, 1, 1), v2 = (1, 1, −1) e
v3 = (0, 1, 1). Vamos calcular a base dual β ∗ = {f1 , f2 , f3 } de (R3 )∗ . Dado v = (x, y, z) ∈ R3
precisamos achar α1 , α2 , α3 ∈ R tais que v = α1 v1 +α2 v2 +α3 v3 , e daı́ que fi (v) = fi (x, y, z) =
2x − y + z y−z
αi . Então, f1 (x, y, z) = , f2 (x, y, z) = e f3 (x, y, z) = y − x.
2 2
Exemplo 2.55. Seja V = P2 (R) e considere a base β = {1, t + 1, t2 + t}. Um elemento
p(t) = a2 t2 + a1 t + a0 ∈ V pode ser escrito em função da base β como

p(t) = (a0 − a1 + a2 )1 + (a1 − a2 )(t + 1) + a2 (t2 + t) ,

e daı́ que a base β ∗ = {f1 , f2 , f3 } onde f1 (a2 t2 + a1 t + a0 ) = a0 − a1 + a2 , f2 (a2 t2 + a1 t + a0 ) =


a1 − a2 e f3 (a2 t2 + a1 t + a0 ) = a2 .

Exemplo 2.56. Agora vamos considerar o problema inverso, isto é, dado um espaço vetorial
V e uma base β ∗ de V ∗ e tentar encontrar uma base β de V tal que β ∗ seja a base dual de
β. Seja V = P2 (R) e considere os seguintes funcionais em (P2 (R))∗ para i = 1, 2, 3:

fi : P(R) to R
p(t) 7→ p(i) .

Não é difı́cil mostrar que β ∗ = {f1 , f2 , f3 } é uma base de V ∗ . Queremos encontrar uma base
β = {p1 (t), p2 (t), p3 (t)} de espaço V tal que fi (pj (t)) = δij , para i, j = 1, 2, 3 (propriedade
da base dual). Em outras palavras, temos que fi (pj (t)) = pj (i) = δij , então como p1 (2) =
p1 (3) = 0 segue que (t − 2)(t − 3) são fatores de p1 e dado que p1 (1) = 1 temos que p1 (t) =
(t − 2)(t − 3)
, fazendo o mesmo analise temos que p2 (t) = −(t − 1)(t − 3) e que p3 (t) =
2
(t − 1)(t − 2)
.
2

Agora veremos o que acontece em espaços de dimensão infinita. Seja V um espaço de di-
mensão infinita e β = {vi }i∈I uma base ordenada de V . Então, podemos construir o conjunto
β ∗ = {fi }i∈I em V ∗ tal que fi (vj ) = δij para i, j ∈ I. Este conjunto será L.I. mas não será
uma base de V ∗ . Vamos exemplificar isto com o espaço V = P(R). Seja β a base canônica de

33
V . Observe que o conjunto β ∗ construı́do neste caso será enumerável, pois β é enumerável.
Vamos ver que β ∗ não gera todo o (P(R))∗ . De fato, para cada α ∈ R − {0}, considere o
funcional linear fα : P(R) → R dado por fα (p(t)) = p(α). Pm Se fα pertencesse ao subespaço ge-

rado por β , existiriam λ1 , . . . , λm ∈ R tais que fα = i=1 λi fi . Calculando-se este funcional
no polinômio p(t) = tm+1 , terı́amos:
m
! m
X X
m+1 m+1 m+1
α = fα (t )= λi fi (t )= λi fi (tm+1 ) = 0 .
i=1 i=1

Logo, α = 0, em contradição com a hipótese sobre α.

2.6 O espaço Bidual

Nesta seção o que queremos é que dado um espaço vetorial V de dimensão finita e dada uma
base C = {f1 , . . . , fn } de V ∗ , existe uma base β = {v1 , . . . , vn } de V tais que fi (vj ) = δij ? E
se existir, como poderemos construı́-la? Para tanto, introduziremos a noção de espaço bidual
a V e analisaremos as relações entre estes.

Definição 2.57. Seja V um espaço vetorial sobre K. Chamamos o espaço (V ∗ )∗ de espaço


bidual a V e usamos a notação V ∗∗ .

Por definição, um elemento do espaço vetorial V ∗∗ , é um funcional linear φ : V ∗ → K.


Observe que para cada v ∈ V , podemos associar um elemento φv ∈ V ∗∗ da seguinte forma:

φv : V ∗ → K
f 7→ φv (f ) = f (v) .

Vejamos que φv é linear. Sejam f1 , f2 ∈ V ∗ e λ ∈ K, então temos que

φv (λf1 + f2 ) = (λf1 + f2 )(v) = λf1 (v) + f2 (v) = λφv (f1 ) + φv (f2 ) .

Logo, φv ∈ V ∗∗ .

Lema 2.58. A função φ : V → V ∗∗ dada por φ(v) = φv é linear é injetora.

Demonstração. Sejam v1 , v2 ∈ V e λ ∈ K. Precisamos mostrar que φ(λv1 + v2 ) = λφ(v1 ) +


φ(v2 ), isto é, φλv1 +v2 = λφv1 + φv2 . Para tanto, vamos mostrar que para cada f ∈ V ∗ , vale a
igualdade φλv1 +v2 (f ) = (λφv1 + φv2 )(f ).
Assim,

φλv1 +v2 (f ) = f (λv1 + v2 ) = λf (v1 ) + f (v2 ) = λφv1 (f ) + φv2 (f ) = (λφv1 + φv2 )(f ) .

Vamos agora a mostrar que φ é injetora. Seja v ∈ V , tal que φ(v) = 0, isto é, tal que φv seja
o funcional nulo. Então, 0 = φ(v)(f ) = φv (f ) = f (v) = 0 para todo f ∈ V ∗ , logo segue que
v = 0 (Exercı́cio). Portanto, φ é injetora.

34
Em geral, φ não é sobrejetora, mas o resultado a seguir mostrará em que casos isso acontece.

Teorema 2.59. Seja V um espaço vetorial de dimensão finita sobre K. Então

φ: V → V ∗∗
v 7 → φv

é um isomorfismo.

Demonstração. Nós temos que dimK V ∗∗ = dimK V ∗ = dimK V e que φ é injetora pelo lema
acima. Segue então que φ é um isomorfismo.

Corolário 2.60. Seja V um espaço vetorial de dimensão finita sobre K. Então, toda base
de V ∗ é dual de uma base de V .

Demonstração. Seja C = {f1 , . . . , fn } uma base de V ∗ . Queremos construir uma base β de


V tal que β ∗ = C. Então, consideremos a base dual a C, isto é, C ∗ = {φ1 , . . . , φn } de V ∗∗ tal
que φi (fj ) = δij , para i, j = 1, . . . , n. Pelo Teorema acima temos que φ é um isomorfismo e
daı́ que o conjunto {φ−1 (φ1 ), . . . , φ−1 (φn )} é uma base de V . Denotando vi = φ−1 (φi ) temos
que φ(vi ) = φi e da definição de φ segue que φi = φvi , para i = 1, . . . , n. Usando agora o fato
que φi (fj ) = δij temos que

δij = φi (fj ) = φvi (fj ) = fj (vi ) , para i, j = 1, . . . , n ,

e portanto, as bases β e C são duais.

Observação 2.61. Dizemos que um espaço vetorial V é reflexivo se a aplicação φ é um


isomorfismo. Vamos exibir um espaço vetorial que não é reflexivo, e é claro que este deve
ter dimensão infinita. Seja V = P(R) sobre R e C uma base de V ∗ . Sabemos que C não é
enumerável e portanto C ∗ será um conjunto L.I. não enumerável. Logo, V ∗∗ terá uma base
não enumerável, e assim V ∗∗ não pode ser isomorfo com V , pois V tem uma base enumerável.
Já o espaço
X∞
`2 = {x = (xj )j∈N ∈ K :N
|xj |2 < ∞}
j=1

é um espaço vetorial reflexivo com dimensão infinita.

2.7 Hiperplanos

Agora veremos a relação de funcionais lineares com subespaços.


Seja V um espaço vetorial de dimensão n ≥ 1 sobre K, e seja W ⊆ V um subespaço com
dimensão n − 1. Observe que W é um subespaço próprio de V e é maximal (mostrar). O
subespaço W é chamado de hiperplano ou subespaço de codimensão 1. Por exemplo,
em R2 os hiperplanos serão as retas passando pela origem, e em R3 os hiperplanos são os
planos que passam pela origem. Agora, generalizamos esta definição para espaço de dimensão
infinita.

35
Definição 2.62. Seja V um espaço vetorial não nulo. Um hiperplano de V é um subespaço
próprio W tal que se W 0 for um subespaço de V satisfazendo W ⊆ W 0 ⊆ V então W = W 0
ou W 0 = V .

Dado V um espaço vetorial de dimensão n, vimos que todo subespaço de V de dimensão


n − 1 é um hiperplano. A seguir, veremos que a recı́proca também é verdadeira.

Proposição 2.63. Seja V um espaço vetorial de dimensão n ≥ 1 sobre K e W um subespaço


próprio de V . Então, W é um hiperplano de V se, e somente se, dimK W = n − 1.

Demonstração. Seja W um hiperplano de V e queremos mostrar que dimK W = n − 1. Como


V 6= W , então dimK W < dimK V . Se n = 1, nada a mostrar, logo vamos supor que n ≥ 2
e que dimK W ≤ n − 2. Então, existe uma base β 0 de W com menos de n − 1 vetores. Seja
v ∈ V , tal que v 6∈ W . Como v não é combinação linear dos elementos de β 0 , segue que
β = β 0 ∪ {v} é L.I. Seja W 0 o subespaço gerado por β. Como v ∈ W 0 mas v 6∈ W então
temos que W 0 6= W e como dimK W 0 ≤ n − 1 < dimK V , concluı́mos que W 0 6= V . Logo,
W ( W 0 ( V o que contradiz a hipótese de W ser hiperplano. A outra parte foi deixada
como exercı́cio.

Observe que se V é um espaço vetorial de dimensão n ≥ 1 sobre K, e f ∈ V ∗ um funcional


não nulo, então a dimK N uc(f ) = n − 1 e daı́ que o núcleo de um funcional linear é um
hiperplano. A recı́proca será verdade?

Teorema 2.64. Seja V um espaço vetorial não nulo sobre K. Se f ∈ V ∗ é um funcional


linear não nulo, então N uc(f ) é um hiperplano. Inversamente, se H é um hiperplano de V ,
então existe um funcional linear não nulo f ∈ V ∗ tal que N uc(f ) = H.

Demonstração. Seja 0 6= f ∈ V ∗ e denote H = N uc(f ). Como f 6= 0 então temos que H 6= V .


Seja H 0 um subespaço de V tal que H ⊆ H 0 ⊆ V e vamos supor que H 6= H 0 e mostraremos
que H 0 = V , com isso mostraremos que H é um hiperplano. Como H 0 6= H, então existe
f (v)
v0 ∈ H 0 tal que f (v0 ) 6= 0. Seja agora v ∈ V e considere o elemento u = v − · v0 .
f (v0 )
Observe que u ∈ N uc(f ), de fato
 
f (v) f (v)
f (u) = f v − · v0 = f (v) − f (v0 ) = 0 .
f (v0 ) f (v0 )

Logo u ∈ N uc(f ) = H ⊆ H 0 , e como v0 ∈ H 0 então v ∈ H 0 e portanto V = H 0 e daı́ que H é


um hiperplano.
Seja agora H um hiperplano de V . Queremos definir f ∈ V ∗ tal que H = N uc(f ). Considere
um vetor v0 ∈ V e v0 6∈ H. Seja H 0 o subespaço gerado por H e v0 . Como H 0 6= H, e H é um
hiperplano então H 0 = V . Portanto, cada elemento v ∈ V se escreve (de forma única) como
v = u + λv0 , onde λ ∈ K e u ∈ H. De fato, se v = u + λv0 = u0 + λ0 v0 , logo u − u0 = (λ0 − λ)v0 .
Se λ0 − λ 6= 0 então v0 ∈ H absurdo, portanto λ0 = λ e u0 = u. Defina agora, f : V → K
dada por f (u + λv0 ) = λ. Como a escrita é única então f está bem definida e além disso
f (v0 ) = 1 e portanto f 6= 0. Não é difı́cil ver que f ∈ V ∗ e que N uc(f ) = H.

36
Exemplo 2.65. Os seguintes conjuntos são hiperplanos de R3 :

i) H1 = {(z1 , z2 , z3 ) ∈ R3 : z2 = 0}

ii) H2 = {(z1 , z2 , z3 ) ∈ R3 : z1 + z2 − z3 = 0}

iii) H3 = {(z1 , z2 , z3 ) ∈ R3 : 3i=1 ai zi = 0 , com ai ∈ R, (a1 )2 + (a2 )2 + (a3 )2 6= 0}


P


Os funcionais lineares fi ∈ VP tal que N uc(fi ) = Hi são: f1 (z1 , z2 , z3 ) = z2 , f2 (z1 , z2 , z3 ) =
z1 + z2 − z3 e f3 (z1 , z2 , z3 ) = 3i=1 ai zi .
Rb
Exemplo 2.66. O subespaço H = {g ∈ C([a, b], R) : a g(t) dt = 0} é um hiperplano de
C([a, b], R). Para ver isto basta observar que H = N uc(φ), onde φ é o seguinte funcional
linear
φ : C([a, b], R) → R
Rb
g 7→ a g(t) dt

Mais geral, veremos que todo subespaço d−dimensional de um espaço n−dimensional é a


interseção dos espaços nulos de (n − d) funcionais lineares de V .

2.8 Anuladores

Nesta parte introduzimos o conceito de anulador, essencial para descrever a imagem e o


núcleo da transposta de uma transformação linear.

Definição 2.67. Seja V um espaço vetorial sobre K e seja S ⊆ V um subconjunto de V .


Chamamos de anulador de S ao subconjunto S 0 dos funcionais lineares de V ∗ que se anulam
nos vetores de S, isto é,

S 0 = {f ∈ V ∗ : f (u) = 0, para todo u ∈ S} .

Observação 2.68. 1. Vejamos que S 0 é um subespaço de V ∗ . É claro que o funcional


nulo esta em S . Sejam f1 , f2 ∈ S 0 e λ ∈ K, então para u ∈ S temos que (λf1 +f2 )(u) =
0

λf1 (u) + f2 (u) = 0, pois fi (u) = 0 para todo u ∈ S.

2. Se S = {0} então S 0 = V ∗ .

3. Se S = V então S 0 = {0}.

4. Se S 6= ∅ então S 0 = hSi0 . (exercı́cio)

Teorema 2.69. Seja V um espaço vetorial de dimensão finita sobre K e W ⊆ V um su-


bespaço de V . Então
dimK V = dimK W + dimK W 0 .

37
Demonstração. Considere a dimK V = n e dimK W = m. Seja β 0 = {v1 , . . . , vm } uma base de
W e complete esta a uma base β = {v1 , . . . , vm , vm+1 , . . . , vn } de V . Seja β ∗ = {f1 , . . . , fn }
a base dual de β, isto é, a base de V ∗ tal que fi (vj ) = δij para todo i, j = 1, . . . , n. Vamos
0
mostrar que C = {fm+1 , . . . , fn } é uma base de W P . Como C ⊆ W 0 e é L.I., então só falta
mostrar que gera W 0 . Se f ∈ V ∗ , sabemos que f = Pni=1 f (vi )fi . Agora, se dado um f ∈ W 0 ,
temos que f (vi ) = 0 para 1 ≤ i ≤ m e daı́ que f = ni=m+1 f (vi )fi e daı́ que C gera W 0 .
Exemplo 2.70. Seja V = R4 e W o subespaço gerado pelos vetores v1 = (1, 0, −1, 3) e
v2 = (−2, 0, 1, −3). Vamos encontrar uma base de W 0 . Como β 0 = {v1 , v2 } é L.I. então
segue que de fato é uma base de W . Completemos para uma base de V . Um possı́vel com-
pletamento é β = {v1 , v2 , v3 = (0, 1, 0, 0), v4 = (0, 0, 0, 1)}. Vamos agora a calcular a base
β ∗ = {f1 , f2 , f3 , f4 } dual da base β. Como vimos anteriormente, se v = (α1 , α2 , α3 , α4 )β
então fi é definida por fi (v) = αi . Uma conta simples mostra que
(x, y, z, t) = (−x − 2z, −x − z, y, t + 3z)β .

Logo, f3 e f4 é uma base de W 0 , onde


f3 : R4 → R f : R4 → R
e 4
(x, y, z, t) 7→ y (x, y, z, t) 7→ t + 3z .

O próximo resultado mostra-nos como uma decomposição de um espaço vetorial em soma


direta induz naturalmente uma decomposição do seu espaço dual.
Teorema 2.71. Seja U um espaço vetorial sobre K. Se U = V ⊕ W , então U ∗ = V 0 ⊕ W 0 ,
onde V ∗ é isomorfo a W 0 e W ∗ é isomorfo a V 0 .

Demonstração. Como U = V ⊕W , temos que cada u ∈ U pode ser escrito da forma u = v +w


com v ∈ V e w ∈ W e V ∩ W = {0}. Seja f ∈ U ∗ , e vamos definir g, h ∈ U ∗ como segue
g : V ⊕W → K h: V ⊕W → K
e
v + w 7→ f (w) v + w 7→ f (v)

Pela definição das funções, podemos ver claramente que g ∈ V 0 e que h ∈ W 0 e além disso,
f (v + w) = f (v) + f (w) = h(v + w) + g(v + w) = (h + g)(v + w) ,
para todo v + w ∈ V ⊕ W = U . Agora, vamos mostrar que V 0 ∩ W 0 = {0}. De fato, seja
f ∈ V 0 ∩ W 0 , então f (v + w) = f (v) + f (w) = 0 para cada elemento v + w ∈ V ⊕ W = U ,
logo f = 0. Com isso, provamos que U ∗ = V 0 ⊕ W 0 .
Para mostrarmos que V ∗ é isomorfo a W 0 , consideramos a seguinte função
T : W0 → V∗
V → K
f 7→ T (f ) :
v 7 → T (f )(v) = f (v) .

Como f é linear, então T (f ) é linear e portanto T (f ) ∈ V ∗ . Por outro lado, temos que
T (λf1 + f2 )(v) = (λf1 + f2 )(v) = λf1 (v) + f2 (v) = (λT (f1 ) + T (f2 ))(v) ,

38
para todo λ ∈ K e para todo f1 , f2 ∈ W 0 e todo v ∈ V , então segue que T é uma trans-
formação linear. Falta mostrar que T é bijetora. Assim, seja f ∈ W 0 tal que T (f ) = 0, isto
é, T (f )(v) = f (v) = 0 para todo v ∈ V . Como f ∈ W 0 então temos que f (v + w) = f (v) = 0
para todo v + w ∈ V ⊕ W . Logo, f = 0 e portanto T é injetora. Por outro lado, seja g ∈ V ∗ ,
definimos f : U → K dada por f (v + w) = g(v). É claro que f ∈ W 0 e que T (f ) = g e
portanto T é sobrejetora. Logo, W 0 e V ∗ são isomorfos. De forma análoga se mostra que V 0
e W ∗ são isomorfos.

2.9 Transposta de Transformações

Sejam U e V espaços vetoriais sobre K e seja T : U → V uma transformação linear. Lem-


brando que a composta de transformações lineares é linear, então temos que T induz uma
transformação entre V ∗ e U ∗ da seguinte forma:
Tt : V ∗ → U∗
t
f 7→ T (f ) : U → K
u 7→ T t (f )(u) = (f ◦ T )(u)

Agora vamos mostrar que T t é linear, isto é,


T t (λf1 + f2 ) = λT t (f1 ) + T t (f2 ) .
Para mostrar a igualdade de funcionais lineares, precisamos mostrar que eles coincidem em
cada vetor u ∈ U , logo
T t (λf1 + f2 )(u) = ((λf1 + f2 ) ◦ T )(u) = (λf1 + f2 )(T (u)) = λf1 (T (u)) + f2 (T (u)) ,
logo,
T t (λf1 + f2 )(u) = (λT t (f1 ) + T t (f2 ))(u) ,
com isso mostramos o seguinte resultado.
Teorema 2.72. Sejam U e V espaços vetoriais sobre K e seja T : U → V uma transformação
linear. Então existe uma única transformação linear T t : V ∗ → U ∗ dada por T t (g)(u) =
g(T (u)) para todo g ∈ V ∗ e para todo u ∈ U . A transformação linear T t é chamada de
transposta de T .
Exemplo 2.73. Seja
T : R2 → R3
.
(x, y) 7→ (2x − y, x − y, 3y)
Então, T t : (R3 )∗ → (R2 )∗ é dada por
T t (f )(x, y) = f (2x − y, x − y, 3y) .
Por exemplo, se o funcional linear f1 : R3 → R é dado por f (z1 , z2 , z3 ) = z1 + 2z2 − 3z3 então
temos que
T t (f1 )(x, y) = f1 (2x − y, x − y, 3y)
= 2x − y + 2(x − y) − 3(3y)
= 4x − 12y .

39
Vamos agora a descrever o núcleo e a imagem da transposta de uma transformação.
Teorema 2.74. Sejam U e V espaços vetoriais sobre K e T ∈ L(U, V ). Então,

i) N uc(T t ) = (ImT )0

Se as dimensões de U e V forem finitas, então

ii) posto(T t ) = posto T

iii) ImT t = (N ucT )0 .

Demonstração. i) Observe que

N uc T t = {f ∈V∗ : T t (f ) = 0}
= {f ∈V∗ : T t (f )(u) = 0, ∀u ∈ U }
= {f ∈V∗ : f (T (u)) = 0, ∀u ∈ U }
(Im T )0 = {f ∈V∗ : f (v) = 0, ∀v ∈ ImT }

ii) Vamos supor que dimK U = n e dimK V = m. Sabemos que

dimK V = dimK V ∗
dimK V = dimK Im T + dimK (Im T )0
dimK V ∗ = dimK N uc T t + dimK Im T t .

segue então que


dimK (Im T t ) = dimK V ∗ − dimK N uc T t
= dimK V − dimK (Im T )0 = dimK Im T ,

e portanto, posto T = posto T t .


iii) Seja ϕ ∈ Im T t . Então existe g ∈ V ∗ tal que T t (g) = ϕ. Observe que ϕ(u) = T t (g)(u) =
(g ◦ T )(u), ∀u ∈ U . Agora, se u ∈ N uc T então ϕ(u) = g(T (u)) = g(0) = 0. Logo, ϕ(u) = 0
para todo u ∈ N uc T , logo ϕ ∈ (N uc T )0 . Nós sabemos que

dimK U = dimK N uc T + dimK (N uc T )0


dimK U = dimK N uc T + dimK Im T .

Daı́ temos que dimK Im T = dimK (N uc T )0 e pelo item ii) segue que dimK Im T t =
dimK (N uc T )0 e o resultado está provado.

O próximo resultado relaciona a matriz de uma transformação T e o da sua transposta T t .


Teorema 2.75. Sejam V e W espaços vetoriais sobre K, ambos de dimensão infinita. Sejam
β uma base de V , β ∗ a base dual a β, C uma base de W e C ∗ a base dual a C. Se T ∈ L(V, W ),
então
[T ]tβ,C = [T t ]β ∗ ,C ∗ .

40
Demonstração. Sejam β = {v1 , . . . , vn } e C = {w1 , . . . , wm } bases de V e W respectivamente,
e sejam β ∗ = {f1 , . . . , fn } e C ∗ = {g1 , . . . , gm } as bases duais de β e C, respetivamente. Por
definição temos que fi (vj ) = δij para i, j = 1, . . . , n, e gk (wl ) = δkl para k, l = 1, . . . , m.
Sejam [T ]β,C = (aki ) com 1 ≤ k ≤ m e 1 ≤ i ≤ n, e [T t ]β ∗ ,C ∗ = (bik ) com 1 ≤ i ≤ n e
1 ≤ k ≤ m as matrizes de T e T t nas bases indicadas. por definição, valem as relações
m
X
T (vi ) = ali wl , i = 1, . . . , n , e
l=1

n
X
t
(∗) T (gk ) = bik fi , k = 1, . . . , m .
i=1

Pelo fato que fi (vj ) = δij , segue que


n
!
X
T t (gk )(vi ) = bi0 k fi0 (vi ) = bik , para i = 1 . . . , n, e k = 1, . . . , m .
i0 =1

Logo, temos que


m
!
X
bik = T t (gk )(vi ) = gk (T (vi )) = gk ali wl = aki ,
l=1

que é o que querı́amos mostrar.

Exemplo 2.76. Seja T a seguinte transformação linear:

T : C2 → C3
(x, y) 7→ (2x + x, y − x, iy)

e considere as bases β = {(1, i), (0, 1)} e C = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} de C2 e C3 respeti-
vamente. Teremos então que  
2+i 1
[T ]β,C =  i − 1 1  .
−1 i
Logo,  t
2+i 1  
2 + i i − 1 −1
[T t ]β ∗ ,C ∗ = i−1 1  = .
1 1 i
−1 i

41
3 Formas Canônicas
Nesta seção trabalharemos com V um espaço vetorial sobre o corpo K de dimensão n ≥ 1 e
T : V → V um operador linear sobre V . Dada uma base β de V , vimos que a matriz [T ]β nos
dá várias informações sobre a transformação linear T , então o que queremos nesta parte é
procurar uma base de V de forma que a matriz de T nessa base seja o mais simples possı́vel.

3.1 Autovalores e Autovetores

Seja T : V → V um operador linear. Um vetor v ∈ V , v 6= 0, é um autovetor de T se existe


λ ∈ K tal que
T (v) = λv .
O número real λ tal que T (v) = λv é chamado de autovalor de T associado ao autovetor v.

Exemplo 3.1. Se T : R2 → R2 é dada por T (x, y) = (αx, βy) então (a, 0) para todo a ∈ R
é autovetor de T associado ao autovalor α e (0, b) com b ∈ R é autovetor de T associado ao
autovalor β.

Definição 3.2. Sejam V um K espaço vetorial, T ∈ L(V ) e W ≤ V . Dizemos que W é


T -invariante se T (W ) ⊆ W .

Proposição 3.3. Se λ é um autovalor de T ∈ L(V ), então o conjunto

V (λ, T ) = {v ∈ V : T (v) = λv} = {Todos os autovalores de T associados a λ} ∪ {0} ,

é igual ao conjunto N uc(T − λI). Em particular, V (λ, T ) é um subespaço de V que é T -


invariante. V (λ, T ) é chamado de autoespaço associado a λ.

Demonstração.

Teorema 3.4. Sejam V um K-espaço vetorial, dim V = n < ∞ e T ∈ L(V ). São equivalen-
tes:

1. λ ∈ K é um autovalor de T .

2. T − λI não é um isomorfismo.

42
3. det ([T ]B
B − λI) = 0, para toda base B de V .

Demonstração.

43
Definição 3.5. Sejam V um espaço vetorial de dimensão n sobre K, T ∈ L(V ) e B uma
base de V . O polinômio mônico

pT (λ) = (−1)n det ([T ]B


B − λI) ,

é chamado polinômio caracterı́stico de T .

Exemplo 3.6. Seja T ∈ L(R3 ) dado por T (x, y, z) = (3x − y + z, −x + 5y − z, x − y + 3z).

Exemplo 3.7. Seja S ∈ L(R3 ) dada por S(x, y, z) = (−3x−7y −6z, x+5y +6z, −x−y −2z).

44
Proposição 3.8. Sejam V um espaço vetorial de dimensão n sobre K e T ∈ L(V ). O
polinômio caracterı́stico pT (λ) de T independe da escolha da base de V .

Demonstração.

Dados um operador T ∈ L(V ) e um polinômio q(x) = am xm + · · · + a1 x + a0 ∈ K[x], podemos


associá-lo a um operador q(T ) = am T m + · · · + a1 T + a0 I : V → V definido por v 7→ q(T )(v),
onde q(T )(v) = am T m (v) + · · · + a1 T (v) + a0 I(v).
Se λ é um autovalor de T : V → V associado a v ∈ V , v 6= 0, então temos que:

T (v) = λv
T 2 (v) = T (T (v)) = T (λv) = λT (v) = λ2 v
T 3 (v) = λ3 v
.. .. ..
. . .
T m (v) = λm v

Assim, se aplicarmos q(T ) em v um autovetor associado a λ teremos que:

q(T )(v) = am T m (v) + · · · + a1 T (v) + a0 I(v)


= am λm (v) + · · · + a1 λ(v) + a0 v
= (am λm + · · · + a1 λ + a0 )v
= q(λ)(v) .

Isto mostra que dado T ∈ L(V ) e q(x) ∈ K[x] e v um autovetor de T associado a λ, então v
é um autovetor de q(T ) associado a q(λ).

Teorema 3.9. Seja T ∈ L(V ) onde V é um espaço vetorial de dimensão finita sobre K.
Sejam λ1 , . . . , λs com s ≥ 1, autovalores distintos de T .

45
1. Se v1 + · · · + vs = 0 com vi ∈ V (λi , T ), i = 1, . . . , s, então vi = 0 para todo i = 1, . . . , s.

2. Se Bi ⊂ V (λi , T ) é L.I. para todo i = 1, . . . , s então B = B1 ∪ · · · ∪ Bs é L.I.


s
M
3. Se cada Bi no item anterior for base de V (λi , T ) então B é um base de W = V (λi , T )
i=1
s
X
e dim W = dim V (λi , T ).
i=1

Demonstração.

46
Definição 3.10. Dizemos que T ∈ L(V ) é diagonalizável se existe uma base de V formada
por autovetores de V .

Se T ∈ L(V ) é diagonalizável e seja B = {v1 , . . . , vn } uma base de V formada por autovalores


de T e λ1 , . . . , λn seus respectivos autovalores associados (não necessariamente distintos),
então  
λ1 0 · · · 0
 0 λ2 · · · 0 
[T ]B =  ..
 
.. . . .. 
 . . . . 
0 0 · · · λn
Qn
e pT (λ) = i=1 (λ − λi ).
Corolário 3.11. Seja V um espaço vetorial de dimensão n sobre K e T ∈ L(V ). Se T possui
n autovalores distintos, então T é diagonalizável.

A condição acima é suficiente mas não necessária.


Por exemplo, T : R3 → R3 dada por T (x, y, z) = (x − 3y + 3z, 3x − 5y + 3z, 6x − 6y + 4z)
possui somente dois autovalores distintos −2 e 4 e é diagonalizável. Mas, a transformação
S : R3 → R3 dada por S(x, y, z) = (−3x − 7y − 6z, x + 5y + 6y, −x − y − 2z) tem PT (λ) =
(λ + 2)2 (λ − 4) e V (−2, S) = h(1, −1, 1)i e V (4, S) = h(−1, 1, 0)i, não é diagonalizável.
Definição 3.12. Sejam V um espaço vetorial de dimensão finita, T ∈ L(V ) e λ um autovalor
de T . A multiplicidade algébrica de λ, denotada por m.a.(λ, T ) é a multiplicidade de λ
como raiz do polinômio caracterı́stico pT (λ) de T . A multiplicidade geométrica de λ,
denotada por m.g.(λ, T ), é a dimensão do auto-espaço associado V (λ, T ).
Teorema 3.13. Seja V um espaço vetorial de dimensão n sobre K, e seja T ∈ L(V ). Se λ
é autovalor de T , então m.g.(λ, T ) ≤ m.a.(λ, T ).

Demonstração.

47
Dos resultados anteriores temos que:

Teorema 3.14. Sejam V um espaço vetorial de dimensão n sobre K, T ∈ L(V ) e λ1 , . . . , λs


os distintos autovalores de T . São equivalentes:

i) T é diagonalizável;

ii) V = si=1 V (λi , T );


L

iii) dim V = m.g.(λ1 , T ) + · · · + m.g.(λs , T );

iv) pT (λ) = (λ − λ1 )d1 · · · (λ − λs )ds , onde di = m.g.(λi , T ) para todo i = 1, . . . , s.

Corolário 3.15. Sejam V um espaço vetorial de dimensão finita e T ∈ L(V ). O operador


T é diagonalizável se, e somente se, valem as duas condições:

i) Todas as raı́zes de pT (λ) pertencem a K.

ii) Se λ é autovalor de T , então m.g.(λ, T ) = m.a.(λ, T ).

Note que se K é algebricamente fechado, então pelo corolário acima, para T ser diagonalizável
basta que seja satisfeita a condição (ii).
Note que é fácil ver que existe um polinômio não nulo q ∈ P(K) de grau no máximo n2 tal
2
que q(T ) = 0. De fato, sendo dim L(V ) = n2 temos que I, T, T 2 , . . . , T n é L.D. e portanto
existem a0 , . . . , an2 ∈ K não todos nulos tais que
2
a0 I + a1 T + · · · + an 2 T n = 0 ,
2
ou seja, basta tomar q(x) = a0 + a1 x + · · · + an2 xn .

Teorema 3.16. (Teorema de Cayley-Hamilton) Seja V um espaço vetorial de dimensão n


sobre K e T ∈ L(V ). Se pT (λ) é o polinômio caracterı́stico de T então pT (T ) = 0.

Demonstração.

48
49
Definição 3.17. Sejam V um espaço vetorial de dimensão n sobre K e T ∈ L(V ). O
polinômio minimal de T , denotado por mT ∈ P(K), é um polinômio mônico de grau
mı́nimo tal que mT (T ) = 0.
Proposição 3.18. Sejam V um espaço vetorial de dimensão n sobre K e T ∈ L(V ).

i) O polinômio minimal de T existe e é único;


ii) Se p ∈ P(K) é tal que p(T ) = 0, então p é múltiplo de mT .
iii) As raı́zes do polinômio caracterı́stico pT de T coincidem com as raı́zes de mT .

Demonstração.

50
Exemplo 3.19. Seja T : V → V um operador linear e β uma base de V . Suponhamos que
o polinômio caracterı́stico de T seja p(x) = (x − 3)2 (x − 1)3 (x + 5), então seu polinômio
minimal será um dos seguintes polinomios:

p1 (x) = (x − 3)(x − 1)(x + 5)

p2 (x) = (x − 3)2 (x − 1)(x + 5)


p3 (x) = (x − 3)1 (x − 1)2 (x + 5)
p4 (x) = (x − 3)1 (x − 1)3 (x + 5)
p5 (x) = (x − 3)2 (x − 1)2 (x + 5)
p6 (x) = (x − 3)2 (x − 1)3 (x + 5)
O operador só será diagonalizável se o seu polinômio minimal for p1 (x).

Exemplo 3.20. Calcule o mT dos seguintes operadores:

1. T : R3 → R3 dado por T (x, y, z) = (x, x + y, z)

2. T : R3 → R3 dado por T (x, y, z) = (x − 3y + 3z, 3x − 5y + 3z, 6x − 6y + 4z)

3. T : R3 → R3 dado por T (x, y, z) = (−3x − 7y − 6z, x + 5y + 6z, −x − y − 2z)

51
Nosso próximo objetivo vai ser mostrar o seguinte teorema.
Teorema 3.21. Sejam V um espaço vetorial de dimensão n sobre K e T ∈ L(V ). São
equivalentes:

i) T é diagonalizável;

ii) mT (λ) = (λ − λ1 ) · · · (λ − λs ), onde λ1 , . . . , λs ∈ K são dois a dois distintos.

Para isso, vamos precisar de alguns resultados previamente.


Teorema 3.22. Sejam V um espaço vetorial de dimensão n sobre K e T ∈ L(V ). Se W ≤ V
é T -invariante de dimensão m, então existe uma base B de V tal que:
 
Mm×m Qm×(n−m)
[T ]B =  − − − − − − −− − − − − − − −− 
0(n−m)×m N(m−n)×(m−n)

Demonstração. Basta tomar uma base B 0 de W e estende-la a uma base B de V . Neste caso,
M = [T |W ]B 0 .
Corolário 3.23. Sejam V um espaço vetorial de dimensão n sobre K e T ∈ L(V ). Se
W1 , . . . , Ws são subespaços T -invariantes e V = W1 ⊕ · · · ⊕ Ws , então existe uma base B de
V tais que  
A1 0 · · · 0
 0 A2 · · · 0 
[T ]B =  ..
 
.. . . .. 
 . . . . 
0 0 · · · As

Demonstração.

52
Lema 3.24. Sejam V um espaço vetorial de dimensão n sobre K, T ∈ L(V ) e W ≤ V
T -invariante. Então,
pT |W (x)|pT (x) e mT |W |mT .

Demonstração. Tomando uma base B 0 de W e completando-a a uma base B de V , vimos


que  
Mm×m Qm×(n−m)
[T ]B =  − − − − − − −− − − − − − − −−  ,
0(n−m)×m N(m−n)×(m−n)
onde M = [T |W ]B 0 . Assim, pT (x) = det(xIn − [T ]B ) = det(xIm − [T |W ]B 0 )det(xIn−m − N ) =
pT |W (x)det(xIn−m − N ), donde pT |W (x) divide pT (x). Como dimW ≤ dimV , temos que
deg(mT |W ) ≤ deg(mT ). Além disso, dado w ∈ W , temos que mT (T )(w) = 0, logo mT é
múltiplo de mT |W .

Definição 3.25. Sejam V um espaço vetorial de dimensão n sobre K, T ∈ L(V ) e W ≤ V


T -invariante. Dado v ∈ V definimos o conjunto T -condutor de v em W por

ST (v, W ) = {q(x) ∈ P(K) : q(T )(v) ∈ W } .

Observe que para todo v ∈ V temos que ST (v, W ) 6= ∅, pois pT ∈ ST (v, W ) já que pT (T )(v) =
0 ∈ W.

Lema 3.26. ST (v, W ) é um ideal do anel P(K).

Demonstração. Sejam q1 (x), q2 (x) ∈ ST (v, W ). Então (q1 +q2 )(T )(v) = q1 (T )(v)+q2 (T )(v) ∈
W. Sejam q(x) ∈ ST (v, W ) e p(x) ∈ P(K). Então, (q · p)(T )(v) = (p · q) = (p(T ) ◦ q(T ))(v) =
p(q(T )(v)) ∈ W , pois q(T )(v) ∈ W e W é T -invariante. Portanto, ST (v, W ) é um ideal de
P(K).

Definição 3.27. Como P(K) é um D.I.P. então chamamos o único gerador mônico de
ST (v, W ) de polinômio T -condutor de v em W .

Observe que v ∈ W ⇔ ST (v, W ) = P(K). De fato, tomando p(x) = 1 temos que p(T )(v) =
Iv = v ∈ W ⇔ 1 é gerador de ST (v, W ) ⇔ ST (v, W ) = P(K).

Proposição
Qs 3.28. Sejam V um espaço vetorial de dimensão n sobre K e T ∈ L(V ) tal que
ri
mT (λ) = i=1 (λ − λi ) , onde λ1 , . . . , λs são elementos distintos de K. Seja W ⊂ V um
subespaço T -invariante. Então, existe v ∈ V tal que

i) v 6∈ W

ii) (T − λI)(v) ∈ W para algum autovalor λ de T (ou seja, para algum j = 1, . . . , s,


p(x) = x − λj é o T -condutor de v em W ).

Demonstração. Como W ⊂ V , então existe v1 ∈ V \ W , e seja q(x) o T -condutor de v1


em W . Como v1 6∈ W , então deg(q(x)) > 0. Por outro lado, como mT (x) ∈ ST (v1 , W ),

53
pois mT (T )(v1 ) = 0 ∈ W , temos que q(x) = si=1 (x − αi )si , comQ0 ≤ si ≤ ri para todo
Q
i = 1, . . . , s com pelo menos um sj > 0. Defina h(x) = (x − αj )sj −1 si=1,i6=j (x − αi )si . Como
q(x) = (x − αj )h(x), temos que deg(h(x)) = deg(q(x)) − 1, e portanto, h(x) 6∈ ST (v1 , W ).
Assim, tomando v = h(T )(v1 ), temos que v 6∈ W . Além disso, como q(T )(v1 ) ∈ W temos
que q(T )(v1 ) = (T − αj I) ◦ h(T )(v1 ) = (T − αj I)v ∈ W .

Agora sim, vamos mostrar o teorema

Teorema 3.29. Sejam V um espaço vetorial de dimensão n sobre K e T ∈ L(V ). São


equivalentes:

i) T é diagonalizável;

ii) mT (λ) = (λ − λ1 ) · · · (λ − λs ), onde λ1 , . . . , λs ∈ K são dois a dois distintos.

Demonstração. (i) ⇒ (ii). Como T é diagonalizável, temos que pT (x) = si=1 (x − αi )di
Q
. . . , αs ∈ K distintos. Como mT (x) possui as mesmas raı́zes de pT (x), temos que
com α1 ,Q
h(x) = si=1 (x − αi ) é um candidato a mT . Para concluir que h(x) = mT (x), basta mostrar
que h(T ) = 0. Como T é diagonalizável, V possui uma base de autovetores de T . Logo,
basta mostrar que h(T )(v) = 0 para todo autovetor de T . Então, dado v autovetor de T
associado ao autovalor αj , temos que:
s
!
Y
h(T )(v) = (T − αi ) ◦ (T − αj I)(v) = 0 .
i=1,i6=j

(ii) ⇒ (i). Como mT e pT possuem as mesmas raı́zes, temos que α1 , . . . , αs são todos os
autovalores distintos de T . Denotando W = V (α1 , T ) ⊕ · · · ⊕ V (αs , T ) basta mostrar que
V = W . Suponhamos, que W ( V . Sabemos que W é T -invariante e pela proposição
anterior, existe v ∈ V \ W tal que (T − αj I)v = w ∈ W para algum j ∈ {1, . . . , s}. Definindo
q(x) tal que mT (x) = (x − αj )q(x) e note que q(x) − q(αj ) = g(x)(x − αj ), para algum
g(x) ∈ P(K). Assim,

(q(T ) − q(αj )I)v = g(T ) ◦ (T − αj I) = g(T )w ∈ W ,

pois W é T -invariante, e daı́ temos que q(αj )v = q(T )v − g(T )w (∗).


Por outro lado, 0 = mT (T )v = (T −αj I)◦q(T )(v), logo q(T )(v) ∈ N uc(T −αj I) = V (αj , T ) ⊆
W , e de (∗) concluı́mos que q(αj )v ∈ W , e como v ∈ V \ W , segue que q(αj ) = 0. Assim,
sendo mT (x) = (x − αj )q(x) temos que αj é uma raiz de mT de multiplicidade maior que 1,
contradizendo a hipóteses.

Projeções
Definição 3.30. Seja V um K-espaço vetorial e P ∈ L(V ). Dizemos que P é uma projeção
de V quando P 2 = P .

Exemplo 3.31. P : R3 → R3 dada por P (x, y, z) = (x, 0, z) é uma projeção.

54
Proposição 3.32. Sejam V um K-espaço vetorial e P uma projeção de V . Então,

i) Im(P ) = {v ∈ V : P (v) = v} = V (1, P );


ii) V = Im(P ) ⊕ N uc(P );
iii) Dado v ∈ V se v = v1 + v2 com v1 ∈ Im(P ) e v2 ∈ N uc(P ), então v1 = P (v) e
v2 = v − P (v).

Demonstração. (i) Sabemos que Im(P ) = {v ∈ V : ∃w ∈ V, P (w) = v}, mas como P é uma
projeção então segue que v = P (w) = P 2 (w) = P (v), logo Im(P ) = {v ∈ V : P (v) = v} =
V (1, P ).
(ii) Note que, dado v ∈ V temos que v = P (v) + (v − P (v)), onde P (v) ∈ Im(P ) e como
P (v −P (v)) = P (v)−P 2 (v) = P (v)−P (v) = 0, então v −P (v) ∈ N uc(P ). Também, observe
que se v ∈ Im(P ) ∩ N uc(P ), então P (v) = 0 e P (v) = v, logo v = 0 é o único elemento na
interseção, portanto a soma é direta.
(iii) Seja v ∈ V tal que v = v1 + v2 com v1 ∈ Im(P ) e v2 ∈ N uc(P ). Então, temos que
P (v) = P (v1 ) = v1 e daı́ que v2 = v − v1 = v − P (v),
Teorema 3.33. Sejam V um espaço vetorial de dimensão n sobre K e P ∈ L(V ) uma
projeção de V . Então P é diagonalizável e pP (λ) = (λ − 1)d λn−d .

Demonstração. Como V = Im(P )⊕N uc(P ), seja {v1 , . . . , vd } uma base de Im(P ) e {vd+1 , . . . , vn }
uma base de N uc(P ), então B = {v1 , . . . , vn } é uma base de V . Como P (vi ) = vi para todo
i = 1, . . . , d e P (vj ) = 0 para todo j = d + 1, . . . , n, temos que

 
Id 0
[P ]B =  − − − − − −  ,
0 0n−d
logo pT (x) = (x − 1)d xn−d .

As projeções podem ser usadas para decompor V em somas diretas de subespaço.


Teorema 3.34. Sejam V um K-espaço vetorial e W1 , . . . , Ws ≤ V tais que V = W1 ⊕· · ·⊕Ws .
Então existem P1 , . . . , Ps ∈ L(V ) satisfazendo:

i) Pi é projeção de V para todo i = 1, . . . , s.


ii) Pi ◦ Pj = 0 para todo i, j = 1, . . . , s e i 6= j.
iii) P1 + · · · + Ps = IV .
iv) Im(Pi ) = Wi para todo i = 1, . . . , s.
Reciprocamente, se P1 , . . . , Ps ∈ L(V ) satisfazem i), ii) e iii) acima, então
V = Im(P1 ) ⊕ · · · ⊕ Im(Ps ) .
Nesse caso, dizemos que as projeções P1 , . . . , Ps estão associadas à decomposição de V
como soma direta de W1 , . . . , Ws .

55
Demonstração. Dado v ∈ V , sabemos que exitem únicos wi ∈ Wi de i = 1, . . . , s tal que
v = w1 + · · · + ws . Definimos, Pi (v) = wi . Claramente são projeções para i = 1, . . . , s. Além
disso, para i 6= j, temos que (Pi ◦ Pj )(v) = Pi (Pj (v)) = Pi (wj ) = 0 para todo v ∈ V , logo
Pi ◦Pj = 0. Também, para todo v ∈ V observamos que (P1 +· · ·+Ps )(v) = P1 (v)+· · ·+Ps (v) =
w1 + · · · + ws = v, logo P1 + · · · + Ps = IV . Pela definição de Pi temos que Im(Pi ) = Wi .
Reciprocamente, dado v ∈ V , de (iii) segue que v = P1 (v) + · · · + Ps (v) ∈ Im(P1 ) + · · · +
Im(Ps ). Agora, seja v ∈ Im(Pi ) ∩ Im(P1 ) + · · · + Im(Pi−1 ) + Im(Pi+1 ) + · · · + Im(Ps ). Como
v ∈ Im(Pi ), então v = Pi (v), e como v ∈ Im(P1 ) + · · · + Im(Pi−1 ) + Im(Pi+1 ) + · · · + Im(Ps ),
então temos que v = v1 + · · · + vi−1 + vi+1 + · · · + vs , com vj ∈ Im(Pj ). Pelo item (ii) segue
que Pi (v) = 0 = v, para todo i = 1, . . . , s, portanto segue que a soma é direta.

Agora daremos uma caracterização da decomposição por subespaços T -invariantes por projeções.
Teorema 3.35. Sejam V um K-espaço vetorial, W1 , . . . , Ws ≤ V tal que V = W1 ⊕ · · · ⊕ Ws
e suponha que P1 , . . . , Ps são as projeções associadas. Dado T ∈ L(V ),

i) Se T ◦ Pi = Pi ◦ T então Wi é T -invariante.
ii) Se Wi é T -invariante para todo i = 1, . . . , s então T ◦ Pi = Pi ◦ T para todo i = 1, . . . , s.

Demonstração. (i) Seja w ∈ Wi = Im(Pi ). Logo, w = Pi (w), e daı́ que T (w) = T (Pi (w)) =
Pi (T (w)) ∈ Im(Pi ) = Wi , portanto Wi é T -invariante para todo i = 1, . . . , s.
(ii) Agora, suponhamos que Wi = Im(Pi ) seja T -invariante. Logo, dado w ∈ Wi então
T (w) = w0 ∈ Wi = Im(Pi ). Assim, (P ◦ T )(w) = Pi (w0 ) = w0 = T (w) = T (Pi (w)) =
(T ◦ Pi )(w) para todo w ∈ Wi . Seja v ∈ V tal que v = w1 + · · · + ws . Então, T (v) =
T (w1 ) + · · · + T (ws ) e daı́ que (Pi ◦ T )(v) = Pi (T (v)) = Pi (T (w1 )) + · · · + Pi (T (ws )) =
Pi (T (wi )) = T (wi ) = T (Pi (wi )) = T (Pi (v)) = (T ◦ Pi )(v).
Teorema 3.36. (Decomposição Espectral)
Sejam V um K espaço vetorial e T ∈ L(V ). São equivalentes:

i) T é diagonalizável;
ii) T = λ1 P1 + · · · + λs Ps , onde λ1 , . . . , λs são os autovalores distintos de T e P1 , . . . , Ps
são projeções de V satisfazendo Pi ◦ Pj = 0 para i 6= j e I = P1 + · · · + Ps .

Demonstração. (i) ⇒ (ii). Sendo T diagonalizável, temos que todas as raı́zes distintas
λ1 , . . . , λs de pT estão em K, e que V = V (λ1 , T ) ⊕ · · · ⊕ V (λs , T ). Assim, sejam P1 , . . . , Ps
as projeções associadas a está decomposição de V em som direta, ou seja, são válidas as
propriedades Pi ◦ Pj = 0 se i 6= j, I = P − 1 + · · · + Ps e Im(Pi ) = V (λi , T ) para i = 1, . . . , s.
Só falta verificar que T = λ1 P1 · · · + λs Ps . Dado v ∈ V , podemos escrever v = v1 + · · · + vs
com vi ∈ V (λi , T ) para i = 1, . . . , s. Assim,
T (v) = T (v1 )+· · ·+T (vs ) = λ1 v1 +· · ·+λs vs = λ1 P1 (v1 )+· · ·+λs Ps (vs ) = (λ1 P1 +· · ·+λs Ps )v .

(ii) ⇒ (i). Suponha que T = λ1 P1 + · · · + λs Ps , onde P − 1, . . . , Ps são as projeções de V


satisfazendo as condições. Daı́, pelo Teorema 3.34 temos que
V = Im(P1 ) ⊕ · · · ⊕ Im(Ps ) .

56
Para cada i, seja Bi uma base de Im(Pi ). Como a som é direta, temos que B = ∪si=1 Bi é
uma base de V . Vamos mostrar que V é formada por autovetores de T . De fato, note que
T ◦ Pj = (λ1 P1 + · · · + λs Ps ) ◦ Pj = λj Pj ◦ Pj = λj Pj ,
para todo j = 1, . . . , s. Se vj ∈ Bj , então T (vj ) = T (Pj (vj )) = (T ◦Pj )(vj ) = λj Pj (vj ) = λj vj ,
para todo j = 1, . . . , s. Logo, vj é autovetor de T associado a λj .
Teorema 3.37. (da Decomposição primária)
Sejam V um K-espaço vetorial de dimensão n e T ∈ L(V ). Seja
mT = q1r1 · · · qsrs ,
o polinômio minimal de T , onde os qi são polinômios distintos, irredutı́veis e mônicos em
P(K) e r1 , . . . , rs são inteiros positivos. Seja Wi = N uc(qiri (T )) para todo i = 1, . . . , s.
Então,

i) V = W1 ⊕ · · · ⊕ Ws .
ii) Wi é T -invariante, para todo i = 1, . . . , s.
iii) Se Ti = T |Wi então o polinômio minimal de Ti é qiri para todo i = 1, . . . , s.

Demonstração. (i). Para cada i, defina


s
mT Y r
fi = ri = qj j .
qi j=1,j6=i

Como q1 , . . . , qs são polinômios irredutı́veis distintos, temos que mdc(q1 , . . . , qs ) = 1. Logo,


pelo Teorema de Euclides, existem g1 , . . . , gs ∈ P(K) tais que f1 g1 +· · ·+fs gs = 1. Definamos
hi = fi gi e Pi = hi (T ), para todo i = 1, . . . , s. Assim, P1 + · · · + Ps = I. Também, note que
fi fj com i 6= j, é um múltiplo de mT . Logo, fi (T ) ◦ fj (T ) = 0. Então, se i 6= j, temos que
Pi ◦Pj = hi (T )◦hj (T ) = fi (T )◦gi (T )◦fj (T )◦gj (T ) = gi (T )◦gj (T )◦fi (T )◦fj (T ) = gi (T )◦gj (T )◦0 = 0 .
Como I = P1 +· · ·+Ps e Pi ◦Pj = 0 para i 6= j, temos que Pi = Pi ◦I = Pi (P1 +· · ·+Ps ) = Pi2
para todo i = 1, . . . , s. Do Teorema 3.34, denotando Im(Pi ) = W fi para i = 1, . . . , s temos
que V = Wf1 ⊕ · · · ⊕ W fi = N uc(q ri (T )) para todo i = 1, . . . , s.
fs . Basta mostrar que W
i
Seja v ∈ W
fi , temos que Pi (v) = v e daı́ que

qiri (T )v = qiri (T )(Pi (v)) = (qiri (T ) ◦ Pi )v = (qiri (T ) ◦ hi (T ))v = (qiri (T ) ◦ fi (T ) ◦ gi (T ))v = 0 ,

pois, qiri fi = mT e mT (T ) = 0. Portanto, W fi ⊆ N uc(q ri (T )) para todo i = 1, . . . , s.


i
ri
Dado i ∈ {1, . . . , s} e v ∈ N uc(qi (T )), se i 6= j vale que
Pj (v) = hj (T )(v) = (gj (T )fj (T ))v = gj (T )(fj (T )v) = 0 ,
s
Y
pois fj (x) = q`r` (x) ⊆ pri i , implicando que fj (T )v = 0. Assim, de I = P1 + · · · + Ps ,
`=1,`6=j
temos que para v ∈ N uc(qiri (T )), v = P1 v + · · · + Ps v e daı́ que Pi v = v, logo v ∈ Im(Pi ), ou

57
fi = N uc(q ri (T )).
seja, W i
(ii). Como Pi = hi (T ) para todo i = 1, . . . , s, temos que T ◦ Pi = Pi ◦ T e portanto Wi é
T -invariante pelo Teorema 3.35, para todo i = 1, . . . , s.
(iii). Se Ti = T |Wi , dado v ∈ Wi = N uc(qiri (T )), temos que qiri (Ti )v = qiri (T )v = 0, logo
mTi |qiri , para todo i = 1, . . . , s. Por outro lado, dado
M g ∈ P(K) tal que g(Ti ) = 0 ∈ L(Wi ).
Note que, g(T )◦fi (T ) = 0, pois fi (T ) se anula em Wj e g(T ) se anula em Wj . Portanto,
j=1,j6=i
mT |g·fi , logo existe t(x) ∈ P(K) tal que g(x)fi (x) = mT (x)t(x) e da definição de fi temos que
g(x) = qiri (x)t(x) e daı́ que qiri |g. Em particular, qiri |mTi , pois qiri divide qualquer polinômio
que se anula em Ti , e portanto mTi = qiri , para todo i = 1, . . . , s.

Exemplo 3.38. Seja T : R4 → R4 definido por T (x, y, z, t) = (2x−y+t, 3y−z, y+z, −y+3t).

i) Mostre que PT (λ) = (λ − 3)(λ − 2)3 e mT (λ) = (λ − 3)(λ − 2)2 .

ii) T é diagonalizável?

iii) Calcule V (3, T ) e V (2, T ).

iv) Sejam T1 = (T − 3I) e T2 = (T − 2I)2 . Encontre W1 = N uc(T1 ) e W2 = N uc(T2 ).

v) Verifique que W1 e W2 são T −invariantes e que R4 = W1 ⊕ W2 .

vi) Sejam T1 = T |W1 e T2 = T |W2 . Calcule mT1 e mT2 .

58
Exemplo 3.39. Faça um estudo análogo para T : R3 → R3 dada por T (x, y, z) = (−2x, 2z, −2y).

59
Operadores Nilpotentes
Definição 3.40. Dado V um espaço vetorial sobre K, dizemos que T ∈ L(V ) é nilpotente
se exite um inteiro k ≥ 1 tal que T k = 0. Dizemos que m é o ı́ndice de nilpotência de um
tal operador se T m = 0 e T m−1 6= 0.
 
2 2 0 1
Exemplo 3.41. 1. T : R → R tal que [T ] = . Como [T ]2 = 0 então T é
0 0
nilpotente de ı́ndice 2.

2. O operador derivada D : Pm (R) → Pm (R) é nilpotente de ı́ndice m + 1.

3. No teorema de decomposição primária, para i = 1, . . . , s o operador qi (Ti ) : Wi → Wi é


nilpotente, pois qiri (Ti ) = 0 em Wi , com ı́ndice ri já que qiri é o minimal de Ti .

Note que se T ∈ L(V ) é nilpotente, então N uc(T ) 6= {0}. De fato, se seu ı́ndice for m ≥ 1
então existe v ∈ V tal que T m (v) = 0 mas T m−1 (v) 6= 0. assim, T m−1 (v) ∈ N uc(T ).

Teorema 3.42. Seja V um espaço vetorial de dimensão n sobre K e T ∈ L(V ) nilpotente


de ı́ndice m ≥ 1. Se v ∈ V é tal que T m−1 (v) 6= 0, então

i) B = {v, T v, . . . , T m−1 v} é L.I.

ii) Existe W ≤ V T −invariante tal que V = U ⊕ W onde U = hBi.

Demonstração. (i). Sejam α1 , . . . , αm ∈ K tais que

α1 v + α2 T v + · · · + αm T m−1 v = 0 .(∗)

Aplicando T m−1 em (∗) obtemos

α1 T m−1 v + α2 T m v + · · · + αm T 2m−2 v ,

logo, α1 T m−1 v = 0 e daı́ que α1 = 0.


Aplicando T m−2 em α2 T v + · · · + αm T m−1 v = 0, analogamente, obtemos que α2 T m−1 v = 0
implica que α2 = 0. Continuando este processo, concluı́mos que α1 = · · · = αn = 0, ou seja,
B é L.I.

(ii). Por construção, U = hv, T v, . . . , T m−1 vi é T -invariante. Mostremos a existência de


W por indução no ı́ndice de nilpotencia m de T . Se m = 1, não o que fazer, pois T = 0.
Suponha que m > 1 e que (ii) vale para todo operador nilpotente de ı́ndices menores que m.
Note que Im(T ) ≤ V é T -invariante e que T |Im(T ) é nilpotente de ı́ndice m − 1. Seja U 0 =
U ∩ ImT e note que U 0 = hT v, . . . , T m−1 vi. Pela hipótese de indução, existe W 0 ≤ ImT ≤ V
subespaço T -invariante tal que ImT = U 0 ⊕ W 0 . Antes de obter W , vamos considerar
W 00 = {w ∈ V : T w ∈ W 0 }.

60
Afirmação 1. V = U + W 00 .
Dado u ∈ V temos que T u ∈ ImT = U 0 ⊕ W 0 , logo T u = u0 + w0 com u0 ∈ U 0 e w0 ∈ W 0 .
Assim, existem α1 , . . . , αm ∈ K tal que
m−1 m−1
!
X X
u0 = αi T i v = T αi T i−1 v .
i=1 i=1

Note que u00 = m−1 i−1


v ∈ U e u = u00 + (u − u00 ). Mas, T u = T (u00 ) + w0 o que implica
P
i=1 αi T
que T (u − u00 ) = w0 ∈ W 0 . Da definição de W 00 temos que u − u00 ∈ W 00 . Logo, V = U + W 00 .
Afirmação 2. U ∩ W 0 = {0}.
Seja u ∈ U ∩ W 0 . Temos que T u ∈ U 0 ∩ W 0 , pois U 0 = U ∩ ImT , U e W 0 são T -invariantes.
Como ImT = U 0 ⊕ W 0 , temos que T u = 0.
Dado u ∈ U , existem β0 , . . . , βm−1 ∈ K tais que u = m−1 i
P
i=1 βi T v, logo

m−1
! m−2
X X
0 = Tu = T βi T i v = βi T i+1 v .
i=0 i=0

Como {T v, . . . , T m−1 v} é L.I. temos que β0 = · · · = βm−2 = 0, e portanto, segue que


u = βm−1 T m−1 v ∈ U 0 . Logo, u ∈ U 0 ∩ W 0 = {0}, isto é, u = 0.
Da afirmação 2, segue que (U ∩ W 00 ) ∩ W 0 = {0} e como U ∩ W 00 ⊂ W 00 e W 0 ⊂ W 00 , existe
W eqV tal que W 00 = W ⊕ W 0 ⊕ (U ∩ W 0 ) (∗)
Vejamos que W = W ⊕W 0 é o subespaço procurado. De fato, como W ⊆ W 00 e W ∩(U ∩W 00 ) =
{0}, segue que W ∩ U = {0}. Além disso, da afirmação 1, temos que

dimV = dim U + dim W 00 − dim(U ∩ W 00 ) .

De (∗), temos que dim W 00 − dim(U ∩ W 00 ) = dim W + dim W 0 = dim W . Logo, dim V =
dim U + dim W e portanto V = U ⊕ W . Além disso, como W ⊂ W 00 , temos que T (W ) ⊂
W 0 ⊂ W , ou seja, W é T -invariante.

Observação 3.43. i) Seja T ∈ L(V ) nilpotente de ı́ndice m. Se dim V = n então m ≤ n.


Quando m = n, pelo teorema anterior temos que B = {v, T v, . . . , T n−1 v} é uma base
de V . Neste caso, temos que
 
0 ··· 0 0
0

 1 ··· 0 0 
0 
[T ]B = 
 0 ··· 0 0 
1 
 .. ..
. . .. .. 
 . .. . . 
0 0 ··· 1 0

ii) Note que se pT (λ) = (λ − α)n então pelo Teorema de Cayley-Hamilton temos que Tα I é
nilpotente, de fato, o grau de nilpotência coincide com o grau m de mT (λ) = (λ − α)m
com m ≤ n. Se m = n, de (i) temos que existe uma base B tal que

61
 
0 ··· 0 0
0

 1 ··· 0 0 
0 
[T − αI]B = [T ]B − αI = 
 0 ··· 0 0 
1  ,
 .. ..
. . .. .. 
 . .. . . 
0 0 ··· 1 0
o que implica que
 
α 0 ··· 0 0

 1 α ··· 0 0 

[T ]B = 
 0 1 ··· 0 0 

 .. .. . . .. .. 
 . . . . . 
0 0 ··· 1 α

Definição 3.44. Uma matriz de tamanho r × r com o formato da matriz acima é chamado
bloco de Jordan r × r associado ao autovalor α e é denotado por Jr (α).

Se T é nilpotente, utilizamos o Teorema anterior para obter B tal que [T ]B é formada por
blocos de Jordan.

Teorema 3.45. Sejam V um espaço vetorial de dimensão n sobre K e T ∈ L(V ) nilpotente


de ı́ndice m ≥ 1. Então, existem números positivos t, m1 , . . . , mt e vetores v1 , . . . , vt ∈ V tais
que:

i) m = m1 ≥ m2 ≥ · · · ≥ mt .

ii) O conjunto B = {v1 , T v1 , . . . , T m1 −1 v1 , . . . , vt , T vt , . . . , T mt −1 vt } é uma base de V .

iii) T mi vi = 0, para todo i = 1, . . . , t.

iv) Se W é um espaço vetorial de dimensão n sobre K e S ∈ L(W ) nilpotente, então


os inteiros t, m1 , . . . , mt associados a S e a T são iguais se, somente se, existir um
isomorfismo φ : W → V com S = φ ◦ T ◦ φ−1 .

Demonstração. (i). Como T m−1 6= 0, existe v1 ∈ V tal que T m−1 v1 6= 0. Pelo Teorema 3.42,
temos que o conjunto B1 = {v1 , T v1 , . . . , T m−1 v1 } é L.I. e V = W1 ⊕ W20 , onde W1 = hB1 i
e W2 é T -invariante. Faça m1 = m. Note que T restrito a W2 também é nilpotente com
ı́ndice m2 ≤ m1 . Repetindo o argumento acima nesta restrição, existe v2 ∈ W20 tal que
B2 = {v2 , T v2 , . . . , T m2 −1 v2 } é L.I. e W20 = W2 ⊕ W30 , onde W2 = hB2 i e W30 é T -invariante.
Repetindo-se o argumento acima, como dim V < ∞, chega-se aos valores t, m1 , . . . , mt satis-
fazendo i), ii) e iii). E neste caso,

62
 
Jm1 (0) 0 ··· 0

 −−− −−− −−− −−− 


 0 Jm2 (0) ··· 0 

[T ]B = 
 −−− −−− −−− −−−  ,

 .. .. 
 . . 
 
 −−− −−− −−− −−− 
0 0 Jmt (0)

(iv). Exercı́cio

3.2 Formas de Jordan

Seja V um espaço vetorial de dimensão n sobre K e T ∈ L(V ) tal que pT (λ) = (λ −


λ1 )d1 · · · (λ − λs )ds , s ≥ 1, di ≥ 1, λi 6= λj se i 6= j e mT (λ) = (λ − λ1 )r1 · · · (λ − λs )rs . Pelo
Teorema de decomposição primária, temos que

V = W1 ⊕ · · · ⊕ Ws ,

onde cada Wi é T −invariante, Wi = N uc(T − λi I)ri e denotando Ti = T |Wi : Wi → Wi temos


que mTi (λ) = (λ−λi )ri . Logo, (Ti −λi I)ri = 0 porém (Ti −λi I)ri −1 6= 0, ou seja, T̄i = Ti −λi I
é nilpotente de ı́ndice ri .
assim, usando o Teorema anterior em Wi , temos que existe uma base Bi de Wi e números
ti , mi1 , . . . , miti tais que
 
Jmi1 (λi ) 0 ··· 0
 0 Jmi2 (λi ) · · · 0 
[Ti ]Bi = 
 
.. .. .. ..
.

 . . . 
0 0 · · · Jmiti (λi )

onde para cada i = 1, . . . , s e j = 1, . . . , ti temos que


 
λi 0 ··· 0 0

 1 λi ··· 0 0 


 0 1 ··· 0 0 

 .. .. . . .. .. 
 . . . . . 
0 0 · · · 1 λi mij ×mij

é o bloco de Jordan de tamanho mij associado ao autovalor λi .

Exemplo 3.46. Dado T : C5 → C5 tal que pT (λ) = (λ + 2)3 (λ − 5)2 . Encontre as possı́veis
formas de Jordan.

63
Exemplo 3.47. T : R4 → R4 dada por T (x, y, z, t) = (2x − y + t, 3y − z, y + z, −y + 3t) com
PT (λ) = (λ − 3)(λ − 2)3 e mT (λ) = (λ − 3)(λ − 2)2 . Encontre a base de Jordan.

 
2 −1 0 1
 0 3 −1 0 
A = [T ] = 
 0 1

1 0 
0 −1 0 3

2 − x −1 0 1
3 − x −1 0
4 0 3 − x −1 0
pT (x) = (−1) det(A−xI) = = (2−x) 1 1−x 0
0 1 1−x 0
−1 0 3−x
0 −1 0 3−x
3 − x −1
pT (x) = (2 − x)(3 − x) = (x − 3)(x − 2)3 .
1 1−x
Candidatos à polinômio minimal são: (x − 3)(x − 2), (x − 3)(x − 2)2 , PT . Assim,

    
−1 −1 0 1 0 −1 0 1 0 −1 1 0
 0 0 −1 0   0
  1 −1 0   0 −1 1 0 
(A − 3I)(A − 2I) =  = 
 0 1 −2 0   0 1 −1 0   0 −1 1 0 
0 −1 0 0 0 −1 0 1 0 −1 1 0

    
0 −1 1 0 0 −1 0 1 0 0 0 0
 0 −1 1 0  0
  1 −1 0   0 0 0 0 
(A − 3I)(A − 2I)2 =  =  ,
 0 −1 1 0  0 1 −1 0   0 0 0 0 
0 −1 1 0 0 −1 0 1 0 0 0 0
então mT (x) = (x − 3)(x − 2)2 .
Forma de Jordan

 
3 0 0 0

 − −− −− − 

 0 2 0 0 
JT =  

 0 1 2 0 

 − −− −− − 
0 0 0 2

Autoespaços
 
−1 −1 0 1 0
 0 0 −1 0 0 
V (3, T ) = N uc(A−3I), para v = (x, y, z, t) devemos ter que (A−3I)v = 0 ⇔  
 0 1 −2 0 0 
0 −1 0 0 0
Assim, y = 0 = z e x = t, e daı́ que V (3, T ) = h(1, 0, 0, 1)i.

64
 
0 −1 0 1 0
 0 1 −1 0 0 
V (2, T ) = N uc(A−2I), para v = (x, y, z, t) devemos ter que (A−2I)v = 0, logo  
 0 1 −1 0 0 
0 −1 0 1 0
e daı́ segue que y = z = t e x é livre. Então, V (2, T ) = h(1, 0, 0, 0), (0, 1, 1, 1)i.
Sabemos que V = W1 ⊕ W2 , onde W1 = N uc(T − 3I) = V (3, T ) = h(1, 0, 0, 1)i e W2 =
N uc(T −2I)2 . B1 = {(1, 0, 0, 1)} e B2 = {v, (T −2I)v, u} onde (T −2I)v e u são autovetores.
 
0 −1 0 1 1
 0 1 −1 0 1 
(T − 2I)v = w onde w é autovetor. Logo,  
 0 1 −1 0 1 
0 −1 0 1 1
onde a última coluna é um autovetor. Daı́ que t = z + 2, y = z + 1 e x e z são variáveis
livres. Logo, tomando x = 0 e z = −1 temos que v = (0, 0, −1, 1).
Assim, BJ = B1 ∪ B2 = {(1, 0, 0, 1), (0, 0, −1, 1), (1, 1, 1, 1), (1, 0, 0, 0)}, logo [T ]B = JT .

Observações práticas

i) Se mT (λ) = si=1 (λ − λi )di , então pelo Teorema da decomposição primária temos que
Q
V = W1 ⊕ · · · ⊕ Ws onde dim Wi = di é o tamanho da matriz [T |W i ]Bi para todo
i − 1, . . . , s.

ii) Se mT (λ) = si=1 (λ − λi )ri , então o tamanho do primeiro (maior) bloco de Jordan
Q
associado a λi (em [T |W i ]Bi ) é ri × ri .

iii) A quantidade de blocos de Jordan em [T |W i ]Bi é igual a dim N uc(T −λi I) = dim V (λi , T ) =
m.g.(λi ) para todo i = 1, . . . , s.
Exemplo 3.48. Calcule a forma de Jordan do operador T : R4 → R4 tal que pT (λ) = (λ+5)4
e mT (λ) = (λ + 5)2 . Só tem duas possibilidades:

   
5 0 0 0 5 0 0 0

 1 5 0 0 


 1 5 0 0 


 − − − − 


 − − − − 

 0 0 5 0   0 0 5 0 
0 0 1 5 0 0 0 5
Exemplo 3.49. Obter a forma de Jordan e a base de Jordan dos operadores:

1. T (x, y, z) = (6y − 5z, x + 2z, 3x + 2y + 4z);


 
1 0 −2 0 4
 0 1
 0 −1 1  
2. A =  0 0
 1 0 0  
 0 0 0 1 3 
0 0 0 0 1

65
 
2 0 0 0 0 0

 1 2 0 0 0 0 

 −1 0 2 0 0 0 
3. A =  

 0 1 0 2 0 0 

 1 1 1 1 2 0 
0 0 0 0 1 −1

4. T (x1 , x2 , x3 , x4 , x5 , x6 ) = (3x1 − x2 + x3 + x4 , x1 + x2 − x3 − x4 , 2x3 + x5 + x6 , 2x4 − x5 −


x6 , x5 + x6 , x5 + x6 );

66
Exemplo 3.50. Seja T : R2 → R2 dada por T (x, y) = (−x − y, 2x − 3y)
 
−1 −1
A = [T ] = então pT (x) = x2 + 4x + 5, logo x = −2 ± i, autovalores complexos.
2 −3
Logo, os autovetores também são complexos. Para λ1 = −2 + i, temos que

    
1−i −1 x 0
(A − λI)w = = ,
2 −1 − i y 0

logo, y = (1 − i)x e daı́ que w = (1, 1 − i) é autovetor de T : C → C associado a λ1 = −2 + i.


Note que w = (1, 1 + i) satisfaz que:

  
−1 −1 1
Aw = = (−2 − i, −1 − 3i) = (−2 − i)(1, 1 + i) .
2 −3 1+i
 
2 −2 + i 0
Então, C = {w, w} é base de C e temos que [T ]C = .
0 −2 − i
Existe uma base para T na qual sua matriz seja real?
Note que w = (1, 1) + i(0, −1) = u + iv com u, v ∈ R2 e B = {u, v} é L.I. e portanto uma
base de R2 e também de C por vetores reais.
Aw = A(u + iv) = Au + iAv e Aw = λ1 w = (−2 + i)(u + iv) = −2u − v + i(u − 2v), logo
Au = −2u − v e Av = u − 2v, então
 
−2 1
[T ]B = .
−1 −2

 
a b
Em geral, se λ = a+ib então terı́amos que [T ]B = , é chamada a forma de Jordan
−b a
real de T .

−1 1 1
Exemplo 3.51. Seja T : R3 → R3 dada por [T ] =  0 4 −13 
0 1 0

Exemplo 3.52. Obter a forma Real de Jordan do operador T tal que: pT (x) = p31 (x)p32 (x)p33 (x)
e mT (x) = p1 (x)p22 (x)p33 (x), onde p1 (x) = x2 − 4x + 13, p2 (x) = x2 + 2x + 5 e p3 (x) = x2 + 5.
 
10 0 0 −7 1
 0 0 −1 0 0 
 
Exemplo 3.53. A =   0 1 0 0 0 

 13 0 0 −9 1 
4 0 0 −3 1

67
3.3 Complexificação de um R-espaço vetorial

Definição 3.54. A complexificação de um R espaço vetorial é dada por:

VC = {u + iv : u, v ∈ V } = V + iV ,

onde defini-se as operações:

+ : VC × VC → VC
(u1 + iv1 , u2 + iv2 ) 7→ (u1 + u2 ) + i(v1 + v2 )

· : C × VC → VC
(α, u + iv) 7→ αu + iαv ,
com as quais temos que VC é um C-espaço vetorial.

Definição 3.55. Sejam V um R-espaço vetorial e T ∈ L(V ). A complexificação de T é o


operador TC ∈ L(VC ) dado por TC (u + iv) = T (u) + iT (v).

Teorema 3.56. Dados V um R-espaço vetorial de dimensão n e T ∈ L(V ). Então,

i) Toda base de V sobre R é uma base de VC sobre C;

ii) pT = pTC ;

iii) Se λ ∈ C é autovalor de TC então seu conjugado λ̄ também é autovalor de TC e suas


multiplicidades algébricas coincidem.

iv) Seja W̃ ≤ VC tal que w = u + iv ∈ W̃ implica que w̄ = u − iv ∈ W̃ , então W̃ possui


uma base de autovetores reais.

68
Demonstração.

69
Teorema 3.57. Sejam V um R-espaço vetorial n dimensional, T ∈ L(V ) e TC ∈ L(VC ) a
complexificação de T . Então,

i) Se W̃ ≤ VC possui uma base de vetores reais, então W̃ é a complexificação de um


W ≤ V , isto é, W̃ = WC .
ii) Se WC for TC -invariante, então mTC|W = mT|W .
C

Demonstração. Se

3.4 Forma de Jordan Real

Seja V um R-espaço vetorial de dimensão n e T ∈ L(V ). Então, existe uma base B de V


na qual a matriz [T ]B é diagonal “em blocos”, cujos blocos associados a autovalores reais (já
são conhecidos) e os blocos associados a autovalores complexos α + iβ de TC são da forma:

 
α β 1 0 0 0 ··· 0 0

 −β α 0 1 0 0 ··· 0 0

  

 0 0 α β 1 0 ··· 0 0

 Dα,β I2 0 ··· 0 0

 0 0 −β α 0 1 ··· 0   0
0
  Dα,β I2 ··· 0 0 

J2d (α, β) =  .. .. .. .. . . .. ..
  .. .. .. .. .. ..
= .
 
. . . . . . . . . . . . 
   
 0
 0 0 0 ··· α β 1 0 

 0 0 0 ··· Dα,β I2 
 0
 0 0 0 · · · −β α 0 1 
 0 0 0 ··· 0 Dα,β
 0 0 0 0 ··· 0 0 α β 
0 0 0 0 ··· 0 0 −β α

Esta é um bloco de Jordan real associado a λ = α + iβ.

70
Demonstração.

71
Exemplo 3.58. a) T : R2 → R2 dado por T (x, y) = (−y, x).

b) Obter a forma de Jordan, inclusive a base, de T : R5 → R5 cuja matriz na base canônica


é:  
10 0 0 −7 1
 0 0 −1 0 0 
 
A = [T ] =  0 1 0 0 0 

 13 0 0 −9 1 
4 0 0 −3 1

c) Calcular a forma de Jordan dos operadores do Rn relacionados as seguintes matrizes:


 
  −10 6 −4 4 0
 0 0  0 −8
1 0 −2  −17 10 −4 6 −1 
 −5 6
 1 0 0 −16   
11  ,  , −4 2 −3 2 1 
 0 1 0 −14   
5 −5 −10  −11 6 −11 6 3 
0 0 1 6
−4 2 −4 2 2

d) Obter a forma de Jordan de T ∈ L(R16 ) sabendo que pT (λ) = p31 P23 (λ − 4)4 e mT (λ) =
p21 p32 (λ − 4)3 , onde p1 (λ) = λ2 − 2λ + 5 e p2 (λ) = λ2 + 4.

e) Obter a forma de Jordan de T ∈ L(R18 ) sabendo que pT (λ) = p31 P23 p33 e mT (λ) = p1 p22 p33 ,
onde p1 (λ) = λ2 − 4λ + 13, p2 (λ) = λ2 + 2λ + 5 e p3 (λ) = λ2 + 5.

72
4 Produto Interno
Neste capı́tulo queremos estender os conceitos de comprimento de um vetor e de ângulo
entre dois vetores num espaço vetorial real quaisquer. Com isto, poderemos ver a noção de
“medida” num espaço vetorial, análoga ao que é feito no plano e no espaço. E é a noção de
medida que nos leva aos conceitos de área e volume, entre outros. A partir de agora K = R
ou C.
Definição 4.1. Seja V um espaço vetorial sobre K. Um produto interno sobre V é
uma função que a cada par de vetores v1 e v2 , associa um escalar, denotado por hv1 , v2 i,
satisfazendo as seguintes propriedades:

i) hv1 + v2 , v3 i = hv1 , v3 i + hv2 , v3 i, para todo v1 , v2 , v3 ∈ V .

ii) hαv1 , v2 i = αhv1 , v2 i, para todo v1 , v2 ∈ V e α ∈ K.

iii) hv1 , v2 i = hv2 , v1 i, para todo v1 , v2 ∈ V .

iv) hv, vi > 0 sempre que v 6= 0.


Observação 4.2. Para v1 , v2 , v3 ∈ V e α ∈ K, note que i), ii) e iii) implicam que

hv1 , αv2 + v3 i = hαv2 + v3 , v1 i = αhv2 , v1 i + hv3 , v1 i = αhv1 , v2 i + hv1 , v3 i

Além disso, para v ∈ V temos que h0, vi = h0 + 0, vi = ho, vi + h0, vi, implica que h0, vi = 0.

Note que o produto interno sobre um espaço vetorial real é uma função bilinear, isto é, linear
em cada uma de suas variáveis.
Exemplo 4.3. Em V = Kn temos o chamado produto interno usual:
n
X
h(x1 , . . . , xn ), (y1 , . . . , yn )i = xi yi .
i=1

Exemplo 4.4. Dados W, V dois K espaços vetoriais, h , iW um produto interno interno em


W e T ∈ L(V, W ) injetora: Então, para v1 , v2 ∈ V temos que hv1 , v2 iV := hT v1 , T v2 i é um
produto interno sobre V .

Dos exemplos anteriores, concluı́mos que qualquer K espaço vetorial de dimensão finita admite
um produto interno.
Definição 4.5. Seja V um espaço vetorial com produto interno h , i sobre K. Definimos
p a
norma (ou comprimento) de um vetor v em relação a este produto interno por ||v|| = hv, vi.
Se ||v|| = 1, então v é chamado de vetor unitário.
Observação 4.6. Das propriedades de produto interno
p p ||u|| ≥ 0 para
segue que p todo u ∈ V
e que ||u|| = 0 ⇔ u = 0. Além disso, ||αu|| = hαu, αui = ααhu, ui = |α|2 hu, ui =
|α|||u||, para todo α ∈ K e u ∈ V .

73
Definição 4.7. Se u, v ∈ V e V é um K espaço vetorial com produto interno, então dizemos
que u e v são ortogonais se hu, vi = 0. Denotamos u⊥v.

Exemplo 4.8. Seja V = C([a, b], K). Dados f, g ∈ V , então definimos o produto interno
Z b
hf, gi = f (t)g(t) dt .
a

Exemplo 4.9. O produto interno canônico em V = Mn (K) é dado por


n
X
hA, Bi = aij bij ,
i,j

onde A = (aij ) e B = (bij ) pertencem a Mn (K).

Proposição 4.10. (Propriedades) Dados u, v ∈ V temos que:

i) ||u ± v||2 = ||u||2 ± 2Re(hu, vi) + ||v||2 .

ii) (Teorema de Pitágoras) Se u⊥v então ||u + v||2 = ||u||2 + ||v||2 .

iii) hu + v, u − vi = ||u||2 − 2iImhu, vi − ||v||2 .

iv) Identidades de Polarização:


1 1
Se K = R então hu, vi = ||u + v||2 − ||u − v||2 .
4 4
1
Se K = C então hu, vi = (||u + v|| − ||u − v||2 + i||u + iv||2 − i||u − iv||2 ).
2
4
v) Desigualdade de Cauchy-Schwartz

|hu, vi| ≤ ||u||||v|| .

vi) Desigualdade Triangular

||u + v|| ≤ ||u|| + ||v|| .

74
Demonstração.

75
Definição 4.11. Seja V um K espaço vetorial com produto interno h , i. Dizemos que
um subconjunto S ⊂ V , S 6= ∅ é ortogonal se para todo u, v ∈ S com u 6= v temos que
hu, vi = 0. Dizemos que S é ortonormal se for ortogonal e ||v|| = 1 para todo v ∈ S.
Exemplo 4.12. As bases canônicas de Rn e Cn com os produtos internos usuais, são con-
juntos ortonormais.
Observação 4.13. Como h0, vi = 0, para todo v ∈ V o vetor nulo é ortogonal a todo v ∈ V .
Este é o único vetor com tal propriedade.
Proposição 4.14. Seja V um K espaço vetorial com produto interno h , i e S = {v1 , . . . , vn }
um conjunto ortogonal de vetores não nulos de V . Então,

i) S = {v1 , . . . , vn } é linearmente independente.


ii) Se v ∈ hSi, então
n
X hv, vi i
v= vi .
i=1
||vi ||2

Demonstração. i) Suponhamos que existem a1 , . . . , an escalares tais que a1 v1 +· · ·+an vn =


0. Então, fazendo o produto interno dos dois membros da igualdade acima por vi , temos
que
ha1 v1 + · · · + an vn , vi i = h0, vi i = 0 ,
logo,
a1 hv1 , vi i + a2 hv2 , vi i + · · · + an hvn , vi i = 0 ,
e como hvj , vi i = 0 para i 6= j e hvi , vi i =
6 0, temos que ai hvi , vi i = 0 e daı́ que ai = 0.
Como isto vale para todo i = 1, . . . , n segue que a1 = · · · = an = 0 e portanto,
{v1 , . . . , vn } é L.I.
ii) Sejam

Corolário 4.15. Seja V um K espaço vetorial com produto interno h , i {v1 , . . . , vn } é uma
base ortonormal de V , então
n
X
v= hv, vi ivi , para todo v ∈ V .
i=1

76
Teorema 4.16. (Processo de Ortonormalização de Gram-Schmidt)
Todo K espaço vetorial V de dimensão n com produto interno, possui uma base ortonormal.

Demonstração.

77
A seguir, algumas consequências de se trabalhar com bases ortonormais.

Proposição 4.17. Seja V um K espaço vetorial com produto interno h , i e B = {v1 , . . . , vn }


uma base ortonormal de V . Se u = (α1 , . . . , αn )B e v = (β1 , . . . , βn )B ∈ V , então
n
X
hu, vi = αi βi .
i=1

Demonstração. hu, vi =

Proposição 4.18. Sejam V um K espaço vetorial com produto interno h , i, B = {u1 , . . . , un }


e B 0 = {v1 , . . . , vn } bases ortonormais de V . Se M é a matriz mudança de base de B para
B 0 , então
M · M t = M t · M = In .

Demonstração. Se

78
Definição 4.19. Dados V um K espaço vetorial com produto interno h , i e S ⊂ V , S 6= ∅.
O conjunto ortogonal a S, denotado por S ⊥ , é o conjunto de todos os vetores de V que são
ortogonais a todos os vetores de S, ou seja,

S ⊥ = {v ∈ V : hv, wi = 0, ∀w ∈ S} .

Observação 4.20. a) S ⊥ ≤ V (mesmo que S não seja)

b) Se S = {0}, então S ⊥ = V , e se S = V então S ⊥ = {0}.

c) É claro que S ⊥ = {v ∈ V : hw, vi = 0, ∀w ∈ S}

Proposição 4.21. Se S ⊂ V e S 6= ∅, então S ⊥ = hSi⊥ . Em particular, dado W ≤ V e


B = {w1 , . . . , wm } gerador de W , então v ∈ W ⊥ = hBi⊥ se, e somente se, hv, wi i = 0, para
todo i = 1, . . . , m.

Demonstração. Dado

Teorema 4.22. Sejam V um K espaço vetorial de dimensão n com produto interno h , i e


W ≤ V . Então
V = W ⊕ W⊥ .

Demonstração.

79
Corolário 4.23. (W ⊥ )⊥ = W ⊥⊥ = W .

Demonstração. Temos que W ⊥⊥ = {v ∈ V : hv, ui = 0, ∀u ∈ W ⊥ }.

Definição 4.24. A aplicação P : V = W ⊕ W ⊥ → W definida por P (v) = P (w + w⊥ ) = w


é chamada de projeção ortogonal sobre W .
Proposição 4.25. As aplicações P e I − P = P ⊥ são projeções associadas à decomposição
V = W ⊕ W ⊥.

Demonstração. Sabemos que

Agora vamos estudar Transformações que preservam o produto interno.


Definição 4.26. Sejam V e W K espaços vetoriais com produto interno. Dizemos que
T ∈ L(V, W ) preserva o produto interno se

hT u, T viW = hu, vi , ∀u, v ∈ V .

Dizemos que T ∈ L(V, W ) é um isomorfismos entre espaços com produto interno se T é um


isomorfismo e preserva produto interno.

80
Observação 4.27. Se T ∈ L(V, W ) preserva produto interno, então temos que

1. Dados v1 , v2 ∈ V tal que v1 ⊥v2 então T v1 ⊥T v2 .

2. ||T v|| = ||v|| para todo v ∈ V . T preserva a norma induzida pelo produto interno, T é
uma isometria.

3. T é injetora.

Teorema 4.28. Sejam V e W K espaços vetoriais com produto interno tais que dim V =
dim W < ∞ e T ∈ L(V, W ). São equivalentes

i) T preserva produto interno;

ii) T é um isomorfismo de espaços com produto interno;

iii) T leva base ortonormal de V em base ortonormal de W .

Demonstração. (i) ⇒ (ii). Como T preserva o produto interno então T é injetora e como
dimV = dimW < ∞ temos que T é um isomorfismo que preserva o produto interno.
(ii) ⇒ (iii). Seja hv1 , . . . , vn i uma base ortonormal de V . Como todo isomorfismo leva base
em base, então hT v1 , . . . , T vn i é uma base de W . Como T preserva o produto interno, segue
que
hT vi , T vj i = hvi , vj i = δij , ∀i, j ∈ {1, . . . , n}
. Ou seja, {T v1 , . . . , T vn } é uma base ortonormal.
(iii) ⇒ (i). Dada {v1 , . . . , vn } uma base ortonormal de V e u, v ∈ V , existem αi , βj ∈ K tais
que
Xn Xn
u= αi vi e v= βj vj .
i=1 j=1

Como consequência do processo de Gram-Schmith temos que


n
X
hu, vi = αi βi .
i=1

Como {T v1 , . . . , T vn } é base ortonormal de W temos que:

n
! n
! n n n
X X X X X
hT u, T vi = hT αi vi ,T βj vj i = αi βj hT vi , T vj i = αi βj δij = αi βi = hu, vi .
i=1 j=1 i,j=1 i,j=1 i=1

Logo, T preserva produto interno.

Nem sempre que T preserva o produto interno implica que T é um isomorfismo.

81
Exemplo 4.29. Considere os R espaços vetoriais V = C([0, 1], R) com
Z 1
hf, giV = x2 f (x)g(x) dx ,
0

e W = C([0, 1], R) com Z 1


hf, giW = f (x)g(x) dx .
0

1. Mostre que h , iV e h , iW são produtos internos. (execı́cio)

2. Mostre que T : V → W dado por T (f )(x) = xf (x) ∈ V é transformação linear.


(exercı́cio)

3. Note que
Z 1 Z 1
hT f, T giW = T (f )(x)T (g)(x) dx = x2 f (x)g(x) = hf, giV , ∀f, g ∈ V .
0 0

Em particular, T é injetora, porém T não é sobrejetora, pois g ≡ 1 6∈ ImT . De fato,


1
T (f )(x) = 1 ⇔ xf (x) = 1 ⇔ f (x) = que não é contı́nua em [0, 1]. Portanto, T não
x
é isomorfismo.

Observação 4.30. No caso de V e W terem dimensão infinita e T ∈ L(V, W ) preservar


produto interno e B for uma base ortonormal de V temos que B 0 = {T v : v ∈ B} é um
conjunto ortonormal de W e T será isomorfismo que preserva produto interno se, e somente
se, B 0 é base de W .

Teorema 4.31. Sejam V e W espaços com produto interno e T ∈ L(V, W ). Então T


preserva produto interno ⇔ T preserva norma.

Demonstração. (⇒) já vimos. (⇐) Se K = R temos a identidade de polarização:


1 1
hu, vi = ||u + v||2 − ||u − v||2 , ∀u, v ∈ V.
4 4

Assim,
1 1 1 1
hT u, T vi = ||T u + T v||2 − ||T u − T v||2 = ||T (u + v)||2 − ||T (u − v)||2 ||
4 4 4 4
1
isometria 1
= ||u + v||2 − ||u − v||2 = hu, vi, ∀u, v ∈ V .
4 4

Observe que dado V um K espaço vetorial com produto interno e w ∈ V , então a aplicação
f : V → K dada por f (v) = hv, wi é linear, ou seja, f ∈ V ∗ .

82
Teorema 4.32. (da Representação de Riesz)
Sejam V um K espaço vetorial n dimensional com produto interno. Dado f ∈ V ∗ , existe um
único wf ∈ V tal que f (v) = hv, wf i para todo v ∈ V .

Demonstração. Seja W = N uc(f ). Temos dois casos:


(1) Se W = N ucf = V então f = 0 e basta tomar wf = 0.
(2) Se W ( V então dim W = n − 1 e por V = W ⊕ W ⊥ temos que dim W ⊥ = 1. Tome
w ∈ W ⊥ , com w 6= 0. Todo v ∈ V se escreve de maneira única como v = u + αw, com u ∈ W
e α ∈ K. Note que,

f (v) = f (u) + αf (w) = 0 + αf (w) = αf (w) ,


f (v)
logo α = . Além disso, sendo u ⊥ w temos que
f (w)

f (v)
0 = hu, wi = hv − αw, wi = hv, wi − αhw, wi = hv, wi − hw, wi
f (w)

então,
f (w) f (w)
f (v) = 2
hv, wi = hv, wi .
||w|| ||w||2
f (w)
Portanto, basta tomar wf = . (Existência)
||w||2
(Unicidade) Sejam w1 , w2 ∈ V tais que hv, w1 i = hv, w2 i, para todo v ∈ V . Então, hv, w1 −
w2 i = 0 para todo v ∈ V e portanto w1 − w2 = 0, logo w1 = w2 .
Definição 4.33. Sejam V um K espaço vetorial com produto interno h , i e T ∈ L(V ). Se
dado S ∈ L(V ) tal que satisfaz

hT u, vi = hu, Svi , ∀u, v ∈ V ,

então dizemos que S é um operador adjunto de T .


Teorema 4.34. Sejam V um K espaço vetorial de dimensão n com produto interno e T ∈
L(V ). Então, existe um único operador T ∗ ∈ L(V ) tal que hT u, vi = hu, T ∗ vi, para todo
u, v ∈ V .

Demonstração. (Existência) Seja v ∈ V . Queremos definir T ∗ (v) ∈ V . Para isto, considere a


aplicação f : V → K dada por f (u) = hT u, vi, ∀u ∈ V . (Mostre que f ∈ V ∗ ). Pelo Teorema
de Representação de Riesz, existe um único w ∈ V tal que

f (u) = hT u, vi = hu, wi, ∀u ∈ V .

Defina T ∗ : V → V por T ∗ v = w. Por construção, terı́amos hT u, vi = hu, T ∗ vi. Dados


v1 , v2 ∈ V e α ∈ K temos que

83
hu, T ∗ (αv1 +v2 )i = hT u, αv1 +v2 iαhT u, v1 i+hT u, v2 i = αhu, T ∗ v1 i+hu, T ∗ v2 i = hu, αT ∗ v1 +T ∗ v2 i ,

logo,
hu, T ∗ (αv1 + v2 ) − αT ∗ v1 − T ∗ v2 i = 0, ∀u ∈ V .
Portanto, T ∗ ∈ L(V ).
(Unicidade) Suponha que T1∗ , T2∗ ∈ L(V ) satisfaçam

hT u, vi = hu, T1∗ vi = hu, T2∗ vi, ∀u, v ∈ V .

Neste caso, hu, T1∗ v−T2∗ vi = 0 para todo u, v ∈ V . Portanto, T1∗ v = T2∗ v para todo v ∈ V .
Proposição 4.35. (Propriedades) Dados T, S ∈ L(V ) operadores que admitem adjuntos T ∗
e S ∗ respectivamente, e α ∈ K, então

i) (T + S)∗ = T ∗ + S ∗

ii) (αT )∗ = αT ∗

iii) (T ◦ S)∗ = S ∗ ◦ T ∗

iv) (T ∗ )∗ = T

v) Se T é isomorfismo, então T ∗ é isomorfismo.

Segue de i) e ii) que o subconjunto de L(V ) dos operadores que admitem adjunto, é um
subespaço de L(V ).

Demonstração. Dados u, v ∈ V temos que


(i) h(T + S)u, vi = hT u + Su, vi = hT u, vi + hSu, vi = hu, T ∗ vi + hu, S ∗ vi = hu, (T ∗ + S ∗ )vi,
logo T + S possui adjunto e pela unicidade do adjunto (T + S)∗ = T ∗ + S ∗ .
(ii) Exercı́cio.
(iii) h(T ◦ S)u, vi = hT (Su), vi = hSu, T ∗ vi = hu, S ∗ (T ∗ v)i = hu, (S ∗ ◦ T ∗ )vi. Logo, T ◦ S
possui adjunto e por unicidade S ∗ ◦ T ∗ = (T ◦ S)∗ .
(iv) hT ∗ u, vi = hv, T ∗ ui = hT v, ui = hu, T vi então (T ∗ )∗ = T .
(v) Exercı́cio.
Exemplo 4.36. Dado T ∈ L(R2 ) definido por T (x, y) = (x + y, x − 2y) obter T ∗ .

hT (x, y), (x1 , y1 )i = h(x + y, x − 2y), (x1 , y1 )i


= (x + y)x1 + (x − 2y)y1
= x(x1 + y1 ) + y(x1 − 2y1 )
= h(x, y), (x1 + y1 , x1 − 2y1 )i .

84
Exemplo 4.37. Dado T ∈ L(C3 ) definido por T (x, y, z) = (x + 2y, iz, y − iz) obter T ∗ .

hT (x, y, z), (x1 , y1 , z1 )i = h(x + 2y, iz, y − iz), (x1 , y1 , z1 )i


= x(x + 2y) + izy 1 + (y − iz)z 1
= xx1 + y(2x1 − z 1 ) + z(iy 1 − iz 1 )
= h(x, y, z), (x1 , 2x1 − z1 , i(z1 − y1 ))i

Logo, T ∗ (x1 , y1 , z1 ) = (x1 , 2x1 + z1 , i(z1 − y1 )).

Teorema 4.38. Sejam V um K espaço vetorial de dimensão n com produto interno, B =


{v1 , . . . , vn } uma base ortonormal de V e T ∈ L(V ).

i) Se [T ]B = (aij ) então aij = hT vj , vi i para todo i, j = 1, . . . , n.


t
ii) Se [T ∗ ]B = (bij ) então bij = aji , ou seja, [T ∗ ]B = [T ]B .
Pn
Demonstração. (i) Por definição de [T ]B temos que T vj = `=1 a`j v` para cada j = 1, . . . , n.
Assim, obtemos que

Xn n
X
hT vj , vi i = h a`j ve ll, vi i = a`j hv` , vi i = aij ,
`=1 `=1

para todo i, j ∈ {1, . . . , n}.


(ii) De (i) temos que

bij = hT ∗ vj , vi i = hvj , T vi i = hT vi , vj i = aji .

Definição 4.39. Sejam V um K espaço vetorial com produto interno e T ∈ L(V ). Dize-
mos que T é auto-adjunto se T = T ∗ . No caso em que K = C usa-se também o termo
Hermitiano e quando K = R usa-se simétrico.

Corolário 4.40. Sejam V um K espaço vetorial com produto interno e T ∈ L(V ). São
equivalentes:

i) T é auto-adjunto;
t
ii) [T ]B = [T ]B para toda base B ortonormal de V ;
t
iii) [T ]B = [T ]B para alguma base ortonormal B de V .

Demonstração. i) ⇒ ii) Como T = T ∗ então para toda base B ortonormal temos que
t
[T ]B = [T ∗ ]B = [T ]B .

85
(ii) ⇒ (iii) Óbvio.
t t
(iii) ⇒ (i) Se [T ]B = [T ]B , para alguma base ortonormal B de V , então como [T ∗ ]B = [T ]B =
[T ]B temos que T ∗ = T , ou seja, T é autoadjunto.

t
Observação 4.41. Se T é auto-adjunto e [T ]B = (aij ) temos que [T ]B = [T ]B então aij = aji .
Em particular, aii = aii , logo os elementos da diagonal principal de [T ]B são reais.
Exemplo 4.42. V = C com produto interno usual e T ∈ L(C2 ) dada por
T (x, y) = (2x + (1 + i)y, (1 − i)x + 3y) .
   
2 1+i t 2 1+i
[T ] = ⇒ [T ] = = [T ]
1−i 3 1−i 3
Então, T é autoadjunto.
Exemplo 4.43. S(x, y) = (ix + (−1 + 2i)y, (−1 − 2i)x + 5y)

   
i −1 + 2i t −i −1 + 2i
[S] = ⇒ [S] = 6= [S]
−1 − 2i 5 −1 − 2i 5
Logo, S 6= S ∗ .

Operadores Unitários
Definição 4.44. Sejam V um K espaço vetorial com produto interno e T ∈ L(V ). Dizemos
que T é unitário se for um isomorfismo de espaços vetoriais com produto interno.
Teorema 4.45. Sejam V um K espaço vetorial com produto interno e T ∈ L(V ). Então, T
é unitário ⇔ T ∗ = T −1 .

Demonstração. ⇒) Por definição T é invertı́vel e preserva o produto interno. Assim,


hT u, vi = hT u, (T ◦ T −1 )vi = hT u, T (T −1 v)i = hu, T −1 vi ,
para todo u, v ∈ V . Portanto, T ∗ existe e T ∗ = T −1 , pela unicidade de T ∗ , logo T ◦ T ∗ =
T ∗ ◦ T = Id.
⇐) Como T ∗ existe e T ∗ ◦ T = T ◦ T ∗ = Id temos que T é inversı́vel e T −1 = T ∗ . Além disso,
hT u, T vi = hu, (T ∗ ◦ T )vi = hu, Idvi = hu, vi ,
para todo u, v ∈ V , logo, T preserva o produto interno.
t
Exemplo 4.46. V = Mn×1 (C), mostre que hX, Y i = Y X é um produto interno em V
(exercı́cio).
Dada A ∈ Mn (C) defina T : V → V por T (X) = AX. Note que
t t
hT (X), T (Y )i = hAX, AY i = (AY )t AX = Y A AX ,
t
para todo X, Y ∈ V . Portanto, T é unitário se, e somente se, A A = Id.

86
Exemplo 4.47. Vimos que o adjunto de T : C3 → C3 dado por T (x, y, z) = (x+2y, iz, y−iz)
é T ∗ (x, y, z) = (x, 2x − z, iz − iy). Se B é a base canônica, que é ortonormal, então temos
que
    
1 2 0 1 0 0 5 0 −2
t
[T ◦ T ∗ ]B = [T ]B [T ∗ ]B = [T ]B [T ]B =  0 0 i   2 0 1  =   6= Id
0 1 −i 0 −i i
t t
Definição 4.48. Seja A ∈ Mn (K). Dizemos que A é unitária se AA = A A = Idn . Quando
K = R, também dizemos que A é ortogonal, e denotamos por O(n). Se K = C, o grupo
unitário é denotado por U (n).
 
a b
Exemplo 4.49. Vamos descrever A ∈ O(2). Seja A = ∈ O(2). Como At A = Id
c d
temos que det(A) = ±1. Sabemos que
   
−1 1 d −b t a c
A = =A = .
detA −c a b d
 
a b
Se detA = 1 então temos que a = d e c = −b, logo A = e a2 + b2 = 1.
−b a
 
a b
Se detA = −1 então d = −a e b = c, logo A = com a2 + b2 = 1. Como dados
b −a
a, b ∈ R tais que a2 + b2 = 1 existe θ ∈ [0, 2π] tal que a = cos θ e b = sin θ temos que

   
cos θ − sin θ cos θ sin θ
A ∈ O(2) ⇔ A = ou
sin θ cos θ sin θ − cos θ
No primeiro caso, são rotações e no segundo são reflexões. O subgrupo SO(2) = {A ∈ O(2) :
det(A) = 1} é o grupo otogonal especial ou grupo de rotações.
Exercı́cio 4.50. Descreva as matrizes unitárias 2 × 2, isto é, U (2).

Operadores Normais
Definição 4.51. Sejam V um K espaço vetorial com produto interno e T ∈ L(V ). Dizemos
que T é normal se existe T ∗ tais que T ◦ T ∗ = T ∗ ◦ T .
Observação 4.52. a) Operadores auto-adjuntos e unitários são exemplos de operadores
normais.

b) Se T é normal, então αT é normal para todo α ∈ K.

c) A soma de operadores normais nem sempre é normal. Exercı́cio: Exiba um exemplo.


Proposição 4.53. Sejam V um K espaço vetorial com produto interno e T ∈ L(V ) um
operador normal. Então,

i) ||T v|| = ||T ∗ v|| para todo v ∈ V .

87
ii) Se tv = αT v para v ∈ V e α ∈ K, então T ∗ v = αv.
iii) Se v1 e v2 são autovetores de T associados a α1 6= α2 então v1 ⊥v2 .

Demonstração. (i) dado v ∈ V temos:

hT v, T vi = hv, T ∗ (T v)i = hT (T ∗ v), vi = hT ∗ v, T ∗ vi = hT ∗ v, T ∗ vi.

Logo, ||T v|| = ||T ∗ v||.


(ii) Note que T − αI é normal. De fato,

(T − αI) ◦ (T − αI)∗ = (T − αI) ◦ (T ∗ − αI) = T ◦ (T ∗ − αT ) − αI(T ∗ − αI)


= T ◦ T ∗ − αT ◦ I − αT ◦ T ∗ + ααI ◦ I
= T ∗ ◦ T − αI ◦ T − αT ∗ ◦ I + ααI ◦ I
= (T ∗ − (αI)∗ ) ◦ T + (T ∗ − (αI)∗ ) ◦ (−αI)
= (T ∗ − (αI)∗ ) ◦ (T − αI)
= (T − αI)∗ ◦ (T − αI)

Assim, por (i) temos que

T v = αv ⇔ (T − αI)v = 0 ⇔ ||(T − αI)v|| = 0


⇔ ||(T − αI)∗ v|| = 0 ⇔ (T ∗ − αI)v = 0
⇔ T ∗ v = αv .

(iii) Por um lado, temos

hT v1 , v2 i = hv1 , T ∗ v2 i = hv1 , α2 v2 i = α2 hv1 , v2 i .

Por outro lado, temos


hT v1 , v2 i = hα1 v1 , v2 i = α1 hv1 , v2 i ,
assim, segue que α1 hv1 , v2 i = α2 hv1 , v2 i ⇔ (α1 − α2 )hv1 , v2 i = 0, e como α1 6= α2 segue que
hv1 , v2 i = 0.

Nosso próximo objetivo e mostrar que dado um operador auto-adjunto, então existe uma
base ortonormal de autovetores.
Teorema 4.54. Sejam V um K espaço vetorial de dimensão n com produto interno. Se
T ∈ L(V ) é auto-adjunto, então T possui um autovetor.

Demonstração. Se K = C então pT (λ) possuı́ raı́zes que são autovalores de T e daı́ segue o
resultado. Considere K = R e tome B uma base ortonormal de V , e seja A = [T ]B . Sendo
t
T = T ∗ temos que A = A . Considerando A agindo em Cn da seguinte forma:
t
Seja W = Mn×1 (C) com produto interno hX, Y i = Y X e S ∈ L(W ) dado por S(X) = AX.
Note que
t t t
hAX, Y iY AX = (At Y )t X = (A Y )t X = hX, A Y i ,

88
t
ou seja, S ∗ Y = A Y = AY = SY para todo Y ∈ W , logo S é autoadjunto. Além disso,
observe que pT (λ) = pS (λ). Como W é C-espaço vetorial, então pS (λ) possui raiz α, autovalor
de S. Observe que se v 6= 0 é autovetor de S associado a α, temos

αhv, vi = hαv, vi = hSv, vi = hv, Svi = hv, αvi = αhv, vi .

Como hv, vi =
6 0 temos que α = α logo α é real. Logo, α sendo raiz real de pT (λ) é autovalor
de T e o resultado segue.

Lema 4.55. Sejam V um K espaço vetorial de dimensão n com produto interno e T ∈ L(V ).
Se W ≤ V é T invariante, então W ⊥ é T ∗ invariante.

Demonstração. Dados v ∈ W e w ∈ W ⊥ , como W é T -invariante, segue que hT v, wi = 0.


Mas, 0 = htv, wi = hv, T ∗ wi e daı́ segue que T ∗ w ∈ W ⊥ . Como v ∈ W e w ∈ W ⊥ foram
tomados arbitrariamente temos que W ⊥ é T ∗ -invariante.

Teorema 4.56. Sejam V um K espaço vetorial n dimensional com produto interno. Se


T ∈ L(V ) é auto-adjunto, então V possui uma base ortonormal, formada por autovetores de
T.

Demonstração. Vamos aplicar indução sobre n = dim V .  


v1
Se n = 1, pelo Teorema 4.54, T possui um autovetor v1 . Basta tomar como base
||v1 ||
ortonormal de V .
Se n > 1, suponha que o resultado vale para todo espaço vetorial de dimensão n − 1. Seja
W = hv1 i, onde v1 é o autovetor acima. É claro que W é T -invariante, acima pelo Lema acima,
W ⊥ é T ∗ -invariante. Como T = T ∗ , W ⊥ é T -invariante. Como a dim W ⊥ = n − 1, então

 que W possui uma base ortonormal {v2 , . . . , vn } formada
por hipótese de indução, segue
v1
por autovetores de T . Logo, , v2 , . . . , vn é um conjunto ortonormal com n = dim V
||v1 ||
elementos, e portanto, é a base requerida.

Corolário 4.57. Seja A ∈ Mn (R) uma matriz simétrica. Então, existe uma matriz invertı́vel
P ∈ Mn (R) tal que P t AP é diagonal.

Demonstração. Seja Rn com o produto interno usual, e T ∈ L(Rn ) tal que [T ]C = A, onde C
é a base canônica de Rn . Como A = At segue que T é autoadjunto. Pelo Teorema 4.56, Rn
possui uma base ortonormal B = {v1 , . . . , vn } formada por autovetores de T . Seja P = [I]B
C
a matriz mudança de base de B para C. Temos que
B −1
D = [T ]B = [I]C B B
B [T ]C [I]C = ([I]C ) [T ]C IC ,

onde D é diagonal e seja A = [T ]C e P = [I]B C = [v1 · · · vn ], sendo B base ortonormal, segue


que P P t = P t P = Id, ou seja, P −1 = P t . Portanto, [T ]B = P t AP satisfaz a afirmação.

Teorema 4.58. Sejam V um C espaço vetorial de dimensão n com produto interno e T ∈


L(V ). Então, T é normal se, e somente se, V possui uma base ortonormal formada por
autovetores de T .

89
Demonstração. ⇒) Como V é C espaço vetorial e C é algebricamente fechado, podemos
assumir que T possui um autovetor v1 . Seja W = hv1 i. Por Proposição acima, v1 também é
autovetor de T ∗ . Logo, W é T ∗ invariante e, pelo Lema acima, W ⊥ é invariante por T ∗∗ = T .
É claro que a restrição T|W ⊥ é normal. Usando o argumento de indução do Teorema 4.56
obtêm-se uma base ortonormal de V formada por autovetores de T .
⇐) Seja B = {v1 , . . . , vn } uma base ortonormal de V formada por autovetores de T e seja
αi ∈ C tal que T vi = αi vi para todo i = 1, . . . , n. Então,

t
[T ]B = diag(α1 , . . . , αn ) e [T ∗ ]B = [T ]B = diag(α1 , . . . , αn ) .
Assim, [T ]B [T ∗ ]B = [T ∗ ]B [T ]B = diag(|α1 |2 , . . . , |αn |2 ), e portanto T é normal.

90
4.1 Formas Bilineares

Aplica-se ao reconhecimento de cônicas (curvas) de R2 e quádricas (superfı́cies) do R3 .

Definição 4.59. Sejam U e V K espaços vetoriais. Dizemos que uma função f : U × V → K


é uma forma bilinear se for linear em cada uma das variáveis quando fixamos a outra. Ou
seja, se f satisfazer:

i) f (αu1 + u2 , v) = αf (u1 , v) + f (u2 , v) para todo α ∈ K, para todo u1 , u2 ∈ U e todo


v ∈V.

ii) f (u, αv1 + v2 ) = αf (u, v1 ) + f (u, v2 ) para todo α ∈ K e para todo u ∈ U e todos
v1 , v2 ∈ V .

Denotamos por B(U, V ) = {f : U × V → K; f é forma bilinear}. Além disso, note que


(B(U, V ), +, ·) é um espaço vetorial. (Exercı́cio)

Exemplo 4.60. 1. Um produto interno h , i : V × V → R sobre um R espaço vetorial é


uma forma bilinear. O mesmo não ocorre no C espaço vetorial.

2. Mostre que f : R2 × R2 → R dada por f ((x1 , y1 ), (x2 , y2 )) = πx1 x2 − 2y1 y2 é uma
forma bilinear, mas não é um produto interno. (Exercı́cio)

3. Dados U e V K espaços vetoriais e funcionais g ∈ U ∗ e h ∈ V ∗ , mostre que f : U ×V →


K dada por f (u, v) = g(u)h(v) é uma forma bilinear.

Matrizes de formas bilineares


Dados U e V K espaços vetoriais com bases B = {u1 , . . . , um } P
e C = {v1 , . . . , vnP
}, respec-
tivamente, e f ∈ B(U, V ). Para calcular f (u, v), considere u = i=1 αi ui e v = nj=1 βj vj ,
m

com αi , βj ∈ K para todo i, j. Assim,

91
Definimos a matriz de f ∈ B(U, V ) em relação as bases B = {u1 , . . . , um } e C = {v1 , . . . , vn }
como sendo A = (aij ) ∈ Mm×n (K) tal que aij = f (ui , vj ) para todo i, j. Denotamos por
[f ]B,C .

Teorema 4.61. Sejam U e V K espaços vetoriais com dim U = m e dim V = n. Então


B(U, V ) é isomorfo a Mm×n (K).

Demonstração.

92
Corolário 4.62. Sejam B = {u1 , . . . , um } base de U , C = {v1 , . . . , vn } base de V , B ∗ =
{h1 , . . . , hm } e C ∗ = {g1 , . . . , gn } bases de U ∗ e V ∗ duais a B e C, respectivamente. Então,
D = {fij (u, v) = hi (u)gj (v); u ∈ U, v ∈ V, i = 1, . . . , m e j = 1, . . . , n} forma uma base de
B(U, V ).

Demonstração. Do exemplo anterior temos que fij ∈ B(U, V ).

Corolário 4.63. L(U, V ) ∼ B(U, V ), sempre que U e V tem dimensão finitas.

Mudança de Base
Seja V um K espaço vetorial n dimensional. No caso em que f ∈ B(V ), a cada base
B = {u1 , . . . , un } de V , associamos uma matriz [f ]B = (aij ) = (f (ui , uj )) ∈ Mn (K). Vamos
analisar o que ocorre com tal matriz quando se efetua uma mudança de base B para outra
base C = {v1 , . . . , vn }.

93
Exemplo 4.64. Sejam V = R2 , C a base canônica e f ∈ B(R2 ) dado por f ((x1 , y1 ), (x2 , y2 )) =
x1 x2 − 2x1 y2 + 3y1 x2 − 4y1 y2 .

4.1.1 Formas Simétricas

Definição 4.65. Seja V um K espaço vetorial. Dizemos que f ∈ B(V ) é simétrica se


f (u, v) = f (v, u) para todo u, v ∈ V . Denotamos por BS (V ) o conjunto de todas as formas
bilineares simétricas sobre V .

Exercı́cio 4.66. Mostre que BS (V ) ≤ B(V ).

Exemplo 4.67. 1. Se V é um R espaço vetorial com produto interno, então

f : V ×V → R
(u, v) 7→ hu, vi

é uma forma bilinear simétrica.

2. A forma do exemplo (4.64) não é simétrica pois f ((1, 0), (0, 1)) = −2 e f ((0, 1), (1, 0)) =
3.

Teorema 4.68. Seja V um K espaço vetorial de dimensão n. Dada f ∈ B(V ), são equiva-
lentes:

i) f é simétrica;

ii) [f ]B é uma matriz simétrica para toda base B de V ;

iii) [f ]C é uma matriz simétrica para alguma base C de V .

94
Demonstração. i) ⇒ ii)

95
Definição 4.69. Sejam V um K espaço vetorial e f ∈ B(V ). A função q : V → K dada por
q(v) = f (v, v) é denominada forma quadrática associada a f .

Exemplo 4.70. 1. Considere Rn com produto interno canônico h , i e f ∈ BS (V ) dada


por f (u, v) = hu, vi para todo u, v ∈ V . A forma quadrática associada a f é dada por

q(u) = f (u, u) = hu, ui = x21 + · · · + x2n ,

para todo u = (x1 , . . . , xn ) ∈ Rn . Neste caso, temos que q(u) = ||u||2 .

2. A forma quadrática f ∈ B(R2 ) dada por f ((x1 , y1 ), (x2 , y2 )) = x1 x2 − 2x1 y2 + 3y1 x2 −


4y1 y2 é
q(x, y) = x2 + xy − 4y 2 .

Identidade de Polarização
Dados V um K espaço vetorial, f ∈ BS (V ) e q a forma quadrática associada a f , então para
todo u, v ∈ V temos que
1 1
f (u, v) = q(u + v) − q(u − v) .
4 4

Teorema 4.71. Seja V um K espaço vetorial de dimensão n ≥ 1. Se f ∈ BS (V ), então


existe uma base B de V tal que [f ]B é uma matriz diagonal.

Demonstração.

96
Corolário 4.72. Sejam V um K espaço vetorial de dimensão n, f ∈ BS (V ) e q : V → K a
form quadrática associada a f . Então existem λ1 , . . . , λn ∈ K e uma base B = {v1 , . . . , vn }
de V tais que
f (vi , vj ) = δij λi , ∀i, j = 1, . . . , n
e n n
X X
q(v) = λi αi2 , ∀v = αi vi ∈ V .
i=1 i=1

97
Teorema 4.73. Seja V um R espaço vetorial de dimensão n com produto interno. Então
BS (V ) é isomorfo ao subespaço A(V ) de L(V ) dos operadores auto-adjuntos.

Demonstração.

98
4.2 Quádricas Reduzidas

Definição 4.74. Uma quádrica em R3 é uma superfı́cie do R3 cujos pontos (x, y, z) num
certo sistema, satisfazem uma equação da forma
ax2 + by 2 + cz 2 + dxy + exz + f yz + gx + hy + iz + j = 0 ,
onde a − j ∈ R e a2 + b2 + c2 6= 0.

Quando nada mencionado, tomamos o sistema de coordenadas canônico {~i, ~j, ~k}.
Em notação matricial temos que (exercı́cio):
X t AX + KX + j = 0 ,
   
a d/2 e/2 x
onde A =  d/2 b f /2 , K = (g h i) e X =
  y .
e/2 f /2 c z
Note que a parte de grau 2 é representada por uma forma quadrática Q : R3 → R dada por
Q(X) = X t AX = f (X, X) ,
onde f : R3 × R3 → R é uma forma bilinear simétrica cuja matriz na base canônica C
de R3 e [f ]C = A. De uma observação feita anteriormente, existe uma base ortonormal
B = {v1 , v2 , v3 } de R3 tal que [f ]B é diagonal. Se B
 P 0=[I]C , a matriz de mudança da base B
x
0
para a base C, temos que X = P X , onde X = 0  y 0  são as coordenadas de X na base B.
z0
Assim, a equação (∗∗) pode ser escrita no novo sistema de coordenadas {0, v1 , v2 , v3 } como
(P X 0 )t AP X 0 + KP X 0 + j = 0 ou X 0t P t AP X 0 + K 0 X 0 + j = 0 ,
ou
X 0t DX 0 + K 0 X 0 + j = 0 ,
 
λ1 0 0
onde D =  0 λ2 0  e K 0 = KP = (g 0 h0 i0 ).
0 0 λ3
Assim, a quádrica fica λ1 x02 + λ2 y 02 + λ3 z 02 + g 0 x0 + h0 y 0 + i0 z 0 + j = 0 sem termos mistos.
Completando quadrados e realizando uma translação, temos que
 00
 x = x0 − α
y 00 = y 0 − β
 00
z = z0 − γ

Obtemos uma quádrica na forma reduzida no sistema de coordenadas {000 , v10 , v20 , v30 }, onde é
possı́vel identificá-la.

99
Revisão de quádricas
Sejam a, b, c reais positivos, então

 d > 0 Elipsóide
ax2 + by 2 + cz 2 = d d = 0 Ponto
d < 0 Vazio


 d > 0 Hiperbolóide de uma folha
ax2 + by 2 − cz 2 = d d = 0 Cone
d < 0 Hiperbolóide de duas folhas

ax2 = by + cz {d = 0 Cilindro Parabólico


2 2 c 6= 0 Parabolóide Elı́ptico
ax + by = cz
c=0 Reta z livre

2 2 c 6= 0 Parabolóide Hiperbólico
ax − by = cz
c=0 Planos concorrentes

ax2 = by {c = 0 Cilindro Parabólico


 d > 0 Cilindro Elı́ptico
ax2 + by 2 = d d=0 Reta
d<0 Vazio


2 2 d 6= 0 Cilindro Hiperbólico
ax − by = d
d = 0 Par de planos concorrentes

Exemplo 4.75. Identifique e esboce a quádrica 7x2 + 17y 2 + 7z 2 − 4xy + 6xz − 4yz − 6x −
12y − 6z + 1 = 0.

100
Reconhecimento de Cônicas

Definição 4.76. Uma cônica em R2 é uma curva do plano cujos pontos (x, y) num certo
sistema de coordenadas satisfazem uma equação da forma

ax2 + bxy + cy 2 + dx + ey + f = 0 ,

onde a, b, c, d, e, f ∈ R e abc 6= 0.

Na notação matricial, temos que

X t AX + KX + f = 0 ,
   
x a b/2
onde X = , A = e K = (d e). Note que os termos de grau 2 são
y b/2 a
representados por uma forma quadrática q : R2 → R dada por

q(X) = X t AX = f (X, X) ,

onde f : R2 × R2 → R é uma forma bilinear simétrica cuja matriz na base canônica C do R2


é [f ]C = A. Logo, existe uma base ortonormal B = {v1 , v2 } de R2 tal que [f ]B é diagonal.
 0 Se

0 0 x
P = [I]B C é a matriz de mudança de base de B para C temos que X = P X , onde X =
y0
são as coordenadas de X na base B. Assim, a equação (∗∗) pode ser escrita no novo sistema
de coordenadas {0, v1 , v2 } como

(P X 0 )t AP X 0 + KP X 0 + f = 0 , ou X 0t P t AP X 0 + K 0 X 0 + f = 0 ,

ou
X 0t DX 0 + K 0 X 0 + f = 0 ,
 
λ 0
onde D = e K 0 = (d0 e0 ) = KP . Neste novo sistema a quádrica fica
0 µ

λx02 + µy 02 + d0 x0 + e0 y 0 + f = 0 .

Completando quadrados e realizando uma translação, temos que


 00
x = x0 − α
y 00 = y 0 − β

obtemos uma cônica na forma reduzida no sistema de coordenadas {000 , v10 , v20 } onde é possı́vel
identificá-la.

101
20 80
Exemplo 4.77. Identifique e esboce a cônica 5x2 − 4xy + 8y 2 + √ x − √ y + 4 = 0.
5 5

102
“O segredo de viver contente é adorar a Deus”

103

Você também pode gostar