Você está na página 1de 82

Notas de Algebra Linear

Eduardo Hernandez, Michelle Pierri


Sumário

1 Espaços Vetoriais 4
1.1 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 Exercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.1 Interseção e Soma de Subespaços vetoriais . . . . . . . . . . . 10
1.3 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.1 Subespaços gerados . . . . . . . . . . . . . . . . . . . . . . . 14
1.4 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

2 Dependência Linear, base e dimensão 21


2.1 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.1.1 Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.2.1 Prova teste 1 de 2011 . . . . . . . . . . . . . . . . . . . . . . 35
2.2.2 Prova Teste 2 de 2012 . . . . . . . . . . . . . . . . . . . . . . 35
2.2.3 Prova 1 do ano 2011 . . . . . . . . . . . . . . . . . . . . . . . 35
2.2.4 Prova 1 de 2012 . . . . . . . . . . . . . . . . . . . . . . . . . 36

3 Transformações Lineares 37
3.0.5 Imagem e Núcleo de uma transformação . . . . . . . . . . . . 38
3.1 Isomorsmo e Automorsmo . . . . . . . . . . . . . . . . . . . . . . . 44
3.1.1 O Espaço Vetorial L(U, V ) . . . . . . . . . . . . . . . . . . . . 45
3.1.2 A matriz associada a uma Transformação Linear . . . . . . . 47
3.2 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

4 Autovalores e Autovetores 55
4.1 Polinômio Característico . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.2 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.2.1 Transformações lineares diagonalizaveis . . . . . . . . . . . . 61
4.3 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.3.1 Prova teste 2 de 2011 . . . . . . . . . . . . . . . . . . . . . . 65
4.3.2 Prova 2 de 2011 . . . . . . . . . . . . . . . . . . . . . . . . . . 66

5 Espaços Euclidianos 67
5.1 Produto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.1.1 Ortogonalidade . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.1.2 Processo de Gram-Schmidt . . . . . . . . . . . . . . . . . . . 72
5.1.3 O metodo dos mínimos quadrados . . . . . . . . . . . . . . . 76
5.1.4 Complemento Ortogonal . . . . . . . . . . . . . . . . . . . . . 77

2
5.1.5 Isometrias . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.2 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
5.2.1 Prova teste 3 de 2011 . . . . . . . . . . . . . . . . . . . . . . 81
5.2.2 Prova 3 de 2011 . . . . . . . . . . . . . . . . . . . . . . . . . . 82
5.2.3 Prova de recuperação de 2011 . . . . . . . . . . . . . . . . . 82

3
Capítulo 1

Espaços Vetoriais

Neste capítulo introduziremos o conceito mais importante da teoria de algebra linear,


o conceito de espaço vetorial. No que segue desta apostilha, R denota o conjunto
dos números reais.

Denição 1.1. Seja V é um conjunto não vazio e suponha que existem duas opera-
ções denidas em V, uma operação somma (denotada +) que a cada par de elementos
u, v ∈ V associa un único elemento de V denotado por u + v, e uma operação cha-
mada de multiplicação por escalar que a cada u ∈ V e todo λ ∈ R associa un único
elemento de V denotado por λ · u. Dizemos que o triple (V, +, ·) é um espaço vetorial
se as seguintes condições são satisfeitas:
P1 u + v = v + u para todo u, v ∈ V, (propriedade comutativa)

P2 u + (v + w) = (u + v) + w para todo u, v, w ∈ V, (propriedade associativa)

P3 existe um elemento 0 ∈ V tal que 0 + u = u para todo u ∈ V,

P4 para cada u ∈ V existe v ∈ V tal que u + v = 0,

P5 λ · (µ · u) = (λµ) · u para todo u ∈ V e λ, µ ∈ R,

P6 (λ + µ) · u = λ · u + µ · u para todo u ∈ V, λ, µ ∈ R,

P7 λ(u + v) = λ · u + λ · v para todo u, v ∈ V e λ ∈ R,

P8 1 · u = u para todo u ∈ V.

Observação 1.2. Os elementos de um espaço vetorial (independentemente da na-


tureza do conjunto V) são chamados de vetores e os números reais que aparecem na
multiplicação λ·u são chamados escalares.

A seguir apresentamos alguns exemplos de espaçõs vetorias.

Exemplo 1.3. Um exemplo obvio de espaço vetorial é o conjunto R munido com as


operações + e · usuais.

Exemplo 1.4. O espaço Rn


Seja Rn o conjunto formado por todas as n-uplas ordenadas de números reais.
Lembre que uma n-upla de números reais é uma ordenação de números reais da forma

4
(x1 , . . . , xn ). No conjunto Rn denimos a soma de n-uplas e a multiplicação escalar
por

(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn ),


λ · (x1 , . . . , xn ) = (λx1 , . . . , λxn ).

Deixamos como exercicio mostrar que Rn munido com as operações anterioresi é um


espaço vetorial.

Exemplo 1.5. O espaço de polinomios de grau menor o igual a n.


Seja n ∈ N e Pn (R) o conjunto formado por todos os polinômios com coecientes
reais de grau menor ou igual a n. Lembre que um polinômio ∑n com coecientes reais
função f da forma f (x) = a0 + a1 x + · · · + an x =
n i
é uma i=0 ai x onde cada ai é
um número real.
Em Pn (R) denimos as operações soma e multiplicação por escalar na forma
∑n
• Soma: ∑
Se p(x) = a0 + a1 x + · · · + an x =
n q(x) = b0 + b1 x + · · · +
i
i=0 ai x e
b∑
n xn = ni=0 bi xi denimos (p+q)(x) = (a0 +b0 )+(a1 +b1 )x+· · ·+(an +bn )xn =
n i
i=0 (ai + bi )x

• Multiplicação por escalar: p(x) = a0 + a1 x + · · · + an xn∑= ni=0 ai xi e
λ∈R denimos λ · p(x) = (λa0 ) + (λa1 )x + · · · + (λan )xn = ni=0 λai xi
Exercício 1.6. Mostrar que Pn (R) munido com as operações anteriores é um espaço
vetorial.

Exemplo 1.7. Espaços de funções


Seja A⊂R e denotemos por F(A; R) o conjunto formado por todas as funções f
denidas de A em R. No conjunto F(A; R) consideramos as seguintes operações:
• Soma: f, g ∈ F (A; R) á função soma f + g : A → R é dada por (f + g)(x) =
Se
f (x) + g(x).

• Multiplicação por escalar: Se λ∈R e f ∈ F (A; R) a função λ·f é dada


por (λ · f )(x) = λf (x).
Exercício 1.8. Mostrar que F (A; R) munido com as operações anteriores é um
espaço vetorial.

Exemplo 1.9. O espaço das matrizes de ordem n × m.


Sejam n, m ∈ N. Lembremos que uma matriz de ordem n×m é uma ordenação de
numeros reais ai,j da forma
 
a1,1 a1,2 · · · a1,m
 a2,1 a2,2 · · · a2,m 
 
 .. . . . 
 . .
.
.
.
.
. 
 
 ai,1 ai,2 · · · ai,m 
 
 .. . . . 
 . .
.
.
.
.
. 
an,1 an,2 · · · an,m
formada por n-las e m-colunas. Para simplicar, no que segue uma matriz como a
anterior será representada na forma A = (ai,j )n,m .

5
Denimos M (n, m) como sendo o conjunto formado por todas a matrizes de
ordem n × m. Nesta apostilha sempre assumiremos que M (n, m) é munido das
seguintes operações:

• Soma: Se A = (ai,j )n,m e B = (bi,j )n,m a A+B é dada por A+B =


(ai,j + bi,j )n,m ,

• Multiplicação por escalar: Se λ∈R e A = (ai,j )n,m , a matriz λA é dada


por λA = λ · (ai,j )n,m = (λai,j )n,m .

Exercício 1.10. Mostrar que com as operações anteriores M (n, m) é um espaço


vetorial.

Exemplo 1.11. Um exemplo abstrato


Os exemplos anteriores envolvem conjuntos e operações que ja conhecemos. O
seguinte exemplo é mais abstrato e por isso o estudaremos com maior atenção.
No conjunto V = (0, ∞) denimos a soma entre dois números x e y de V por
x  y = xy (aqui xy é o produto usual entre x e y ) e o produto escalar de x e λ ∈ R
por λ x = xλ . Com essas operações temos que V é um espaço vetorial. De fato,
note que

P1 se x, y ∈ V temos que x  y = xy = yx = y  x para todo x, y ∈ V,

P2 x  (y  z) = x  (yz) = x(yz) = (xy)z = (x  y)z = (x  y)  z para todo


x, y, z ∈ V,

P3 se x∈V temos que 1  x = 1x = x. Logo, o vetor 0 em P3 é o número 1,

P4 se x∈V então
1
x ∈V, de onde segue que P4 é satisfeita com −x = 1
x,

P5 λ (µ x) = λ xµ = (xµ )λ = xµλ = xλµ = (λµ) x para todo x∈V e


λ, µ ∈ R,

P6 (λ + µ) x = xλ+µ = xλ xµ = xλ  xµ = (λ x)  (µ x) para todo x∈V e


λ, µ ∈ R,

P7 λ (x  y) = λ (xy) = (xy)λ = xλ y λ = (λ x)  (λ y) para todo x, y ∈ V


e λ ∈ R,

P8 1 x = x1 = x para todo x ∈ V.

Exemplo 1.12. Seja V = {(x, y, z, w) ∈ R4 : y = x, z = w2 } com as operações


usuais de R4 . Como (0, 0, 1, 1) ∈ V e −1(0, 0, 1, 1) = (0, 0, −1, −1) ̸∈ V, segue que V
não é um espaço vetorial.

Um dos aspectos mais interessantes de qualquer teoria matemática é que ela é de-
senvolvida a partir de um conjunto de propriedades básicas. Em particular, notamos
que todos os resultados e aplicações da algebra linear são obtidos a partir dos axio-
mas P1 -P8 . No próximo resultado vemos como é possivel obter novas propriedades
a partir desses axiomas.

Proposição 1.13. Se (V, +, ·) é um espaço vetorial, então as seguintes propriedades


são vericadas.

6
1. O elemento 0 da propriedade P3 é único,
2. para cada u ∈ V o vetor −u da propriedade P4 é único,
3. se 0 é o vetor em P3 e λ ∈ R então λ0 = 0,
4. se 0 é o número real zero e u ∈ V então 0u = 0,
5. se λu = 0 então λ = 0 ou u = 0,
6. se u então −1 · u = −u,
7. se λ ∈ R e u ∈ V então (−λ)u = λ(−u) = −(λu),
8. se u ∈ V então −(−u) = u,
9. se u + w = v + w então u = v,
10. se u, v ∈ V então existe um único w ∈ V tal que u + w = v.
Prova: Mostramos somente as seis primeiras propriedades, a prova das outras é
deixada como exercicio.

1. Suponha que 0′ ∈ V tambem satisfaz a propriedade P3 . Então, por P3 e P1


temos que 0
′ = 0 + 0′ = 0 ′ + 0 = 0.

2. Suponha que v ∈ V é tal que u + v = 0. Usando P1 , P2 e P3 vemos que


v = v + 0 = v + (u + −u) = (v + u) + −u = (u + v) + −u = 0 + −u = −u. Isto
prova que existe un único vetor que verica a propriedade P4 .

3. Por P3 e P7 temos que λ0 = λ(0 + 0) = λ0 + λ0. Usando isto, vemos que

λ0 = λ0 + λ0, / + −(λ0)
λ0 + −(λ0) = (λ0 + λ0) + −(λ0)
0 = (λ0 + λ0) + −(λ0) por P3
0 = λ0 + (λ0 + −(λ0)) por P2
0 = λ0 + 0 por P4
0 = λ0, por P3 ,

o que prova a propriedade.

4. Note que 0u = (0 + 0)u = 0u + 0u. Logo, somando −(0u) ao ambos lados desta
igualdade vemos que

0u = (0u + 0u) + −(0u)


0 = 0u + (0u + −(0u)) por P2
0 = 0u + 0 por P4
0 = 0u por P3 .

5. Suponha que λu = 0 e que λ ̸= 0. Por P8 , P5 e propriedade em (3), vemos que


u = 1u = (λ−1 λ)u = λ−1 (λu) = λ−1 0 = 0.

6. Como 0 = 0 · u = (−1 · u + 1 · u) = −1u + u, de (2) segue que −u = −1 · u.

7
1.1 Exercícios
1. Verique que o conjunto V com as operações indicadas é um espaço vetorial.
{( ) }
a −b
(a) O conjunto V = : a, b ∈ R com as operações usuais de
b a
M (2, 2).
{( ) }
a −b
(b) O conjunto V = : a, b ∈ R com as operações usuais de
b 3a
M (2, 2).
{ }
(c) O conjunto V = (x, y) ∈ R2 : 3x − 2y = 0 com as operações usuais de
R2 .
(d) O conjunto V = {f : R → R : f (−x) = f (x), ∀x ∈ R} com as operações
do espaço F(R; R).

(e) O conjunto V = n∈N Pn (R) com as operações do espaço F(R; R).
(f ) O conjunto V = R2 munido das operações (x1 , y1 ) ⊕ (x2 , y2 ) = (2x1 −
2y1 , y1 − x1 ) e α · (x, y) = (3αx, −αx.)
(g) O conjunto V = R2 com as operações (x1 , y1 )⊕(x2 , y2 ) = (x1 +x2 , y1 +y2 )
e α(x, y) = (αx, 0).
{ }
O conjunto V = (x, y, z, w) ∈ R : y = x, z = w
(h)
4 2 com as operações de

R4 .
(i) V = R × (R \ {0}) com as operações (x1 , y1 ) ⊕ (x2 , y2 ) = (x1 + x2 , y1 y2 ),
α · (x, y) = (αx, y α ).
(j) Seja ω ∈ R e Fω = {f ∈ F (R, R) : f é ω periodica} (lembre que uma
função f ∈ R é ω periodica f (s + ω) = f (s) para todo s ∈ R.) Com as
operações do espaço F(R; R), o conjunto Fω é um espaço vetorial .?

2. Suponha que (U, ⋄, ◦) e (W, ⊕, ⊙) são espaços vetoriais. No espaço produto


U × W = {(x, y) : x ∈ U, y ∈ W } denimos as operações (u, v) + (w, z) =
(u ⋄ w, v ⊕ z) e λ(u, v) = (λ ◦ u, λ ⊙ v). Com as operações anteriores U × W é
um espaço vetorial?

Observação 1.14. Para simplicar as notações, no que segue desta apostilha V será
um espaço vetorial e as operações soma e multiplicação por escalar serão denotadas
por u+v e αu respectivamente.

Introduzimos agora o conceito de subespaço vetorial.

Denição 1.15. Seja W ⊂ V . Dizemos que W é um subespaço vetorial de V , se


W munido das operações soma e multiplicação escalar de V é um espaço vetorial.

Observação 1.16. É conveniente lembrar a seguinte frase da denição de espaço


vetorial:  Uma operação somma (denotada +) que a cada par de elementos u, v ∈ V
associa um único elemento de V denotado por u + v, e uma multiplicação por
escalar que a cada u ∈ V e todo λ ∈ R associa un único elemento de V denotado
por λu. " Logo, para que W ⊂ V seja um subespaço vetorial de V é necessario que
u + v ∈ W e λu ∈ W para todo u, v ∈ V e todo λ ∈ R. Como veremos no próximo
resultado, estas propriedades caracterizam o conceito de subespaço vetorial.

8
Proposição 1.17. Um conjunto W ⊂ V é um subespaço vetorial de V ⇔ u+λv ∈ W
para todo u, v ∈ W e todo λ ∈ W .
Prova: Se W é um subespaço vetorial de V , da denição de subespaço vetorial (veja
também a observação 1.16) segue diretamente que u + λv ∈ W para todo u, v ∈ W
e todo λ ∈ W.
Suponha agora que u + λv ∈ W para todo u, v ∈ W e todo λ ∈ W. Para
provar que W é um espaço vetorial temos que mostrar que as propriedades P1 -P8
são vericadas. P1 , P2 , P5 , P6 , P7 e P8 são trivialmente satisfeitas
As propriedades
V . Assim, resta mostrar que P3 e P4 são satisfeitas.
pois elas são válidas em relação a
Seja u ∈ W e λ ∈ R. Da Proposição 1.13 sabemos que −u = −1u. Logo,
0 = u + −u = u + −1u ∈ W o que implica que a condição P3 é satisfeita. Usando
agora que 0 ∈ W e que −u = −1u temos que −u = 0 + −1u ∈ W o que prova que
P4 é tambem válida. Segue do anterior que W é um subespaço vetorial de V . Isto
completa a prova.
Vejamos alguns examplos de sub-espacos vetoriais.

Exemplo 1.18. Obviamente os conjuntos {0} e V são subespaços de V. Estes


subespaços são chamados de subespaços vetoriais triviais de V.
Exemplo 1.19. O conjunto S = {(x, y, z) ∈ R3 : x + y + z = 0} é um subsepaço
vetorial de R .
3

Sejam u = (x, y, z), v = (x1 , y1 , z1 ) vetores em S e λ ∈ R. Para mostrar que W é


um subespaço vetorial de R3 temos que provar que u+λv = (x+λx1 , y +λy1 , z +λz1 )
pertence a S . Da denição de S segue que x + y + z = 0 e que x1 + y1 + z1 = 0.
Logo, x + λx1 + y + λy1 + z + λz1 = x + y + z + λ(x1 + y1 + z1 ) = 0, o que mostra
que u + λv ∈ S . Por tanto, S é um subespaço de R .
3

Exemplo 1.20. Seja Pn∗ (R) Pn (R) denido por Pn∗ = {p ∈ Pn :


o subconjunto de
p(0) = 0}. ∗
Para mostrar que Pn (R) é um subespaço vetorial de Pn (R) usaremos a
Proposição 1.17.
Sejam f, g ∈ Pn∗ (R) e λ ∈ R. Provar f + αg ∈ Pn∗ (R) é equivalente a mostrar
que (f + λg)(0) = 0. Note agora que (f + λg)(0) = f (0) + (λg)(0) = f (0) + λg(0) =
0 + λ0 = 0.
Exemplo 1.21. Seja A ∈ M (n, n) uma matriz quadrada de ordem n e W = {X ∈
M (n, 1) : AX = 0}. O conjunto W com as operações de M (n, 1) é um subespaço
vetorial de M (n, 1).
Sejam X, Y ∈ W e λ ∈ R. Para mostrar que X + λY ∈ W temos que provar que
A(X + λY ) = 0. Note agora que da denição de W , temos que AX = 0 e AY = 0,
de onde segue que

A(X + λY ) = AX + A(λY ) = AX + λAY = O + λO = O.

Isto prova que W é um subespaço vetorial de M (n, 1).


Exemplo 1.22. Seja Sn∗ (R) o subconjunto de Pn (R) dado por


n
Sn∗ (R) = {f = aj xj ∈ Pn (R) : aj = 0 se j é par}.
i=0

Deixamos como exercicio mostrar que Sn∗ (R) é um subespaço vetorial de Pn (R).

9
1.2 Exercicios

1. Sejam a1 , . . . , an ∈ R e W = {(x1 , . . . , xn ) ∈ Rn : ni=1 aj xj = a1 x1 + · · · +
an xn = 0}. O conjunto S é um subespaço vetorial de Rn . ?

2. Resolver o exercicio anterior usando o Exemplo 1.21.

3. O conjunto das matrizes simétricas de ordem n × n é um subespaço vetorial de


M (n, n). Lembre que uma matriz A = (ai,j )n,n é simétrica se ai,j = aj,i para
todo i, j .

4. Sejam m, n ∈ N com m ≤ n. O conjunto Pm (R) é um subespaço de Pn (R) ?

1.2.1 Interseção e Soma de Subespaços vetoriais

Nesta seção veremos que a interseção e a soma de subespaços vetorias é um subespaço


vetorial. Para começar, estudemos o caso da interseção.

Proposição 1.23. Se U e W são sub-espaços vetoriais de V então o conjunto U ∩


W = {x ∈ V : x ∈ U, x ∈ W } é sub-espaço vetorial de V.

Prova: Para mostrar o resultado usamos a Proposição 1.17. Sejam u, v ∈ U ∩ W e


λ ∈ R. Como u, v ∈ U e U u + λv ∈ U . Mais ainda,
é um espaço vetorial temos que
como u, v ∈ W e W é um espaço vetorial também temos que u + λv ∈ W . Agora,
pela Proposição 1.17 segue que U ∩ W é sub-espaço vetorial de V.

Denição 1.24. Sejam U e W subconjuntos de V. O conjunto U + W denido por


U + W = {u + w : u ∈ U, w ∈ W } é chamado soma de U e W . A soma U + W é
chamada direta se U ∩ W = {0}. Se a soma U + W é direta, usaremos a notação
U ⊕ W em lugar de U + W.

Proposição 1.25. Suponha que U, W são sub-espaçõs vetoriais de V . Então,


1. U + W é um subespaço vetorial de V ,
2. U + W é o menor subespaço vetorial de V que contém U ∪ W , ou seja, se Q é
um subespaço vetorial de V que contém U ∪ W então U + W ⊂ Q.
3. A soma U + W é direta ⇔ para cada v ∈ U + W existe um único u ∈ U e um
único w ∈ W tais que v = u + w.
Prova: Para começar, mostremos que U + W V . Sejam
é um subespaço vetorial de
u, v ∈ U + W e λ ∈ R. Como u ∈ U + W , existem vetores u1 ∈ U e w1 ∈ W tais que
u = u1 + w1 . Similarmente, como v ∈ U + W existem vetores u2 ∈ U e w2 ∈ W tais
que v = u2 + w2 . Como U e W são subespaços vetoriais de V segue que u1 + u2 ∈ U
e que λ(w1 + w2 ) ∈ W . Usando isto, vemos que

u + λv = u1 + λw1 + u2 + λw2 = u1 + u2 + λ(w1 + w2 ) ∈ U + W,

de onde concluimos que U +W é um subespaço vetorial de V.


Provaremos agora a segunda propriedade. Se u∈U então u = u+0 ∈ U +W
de onde segue que U ⊂ U + W . Da mesma forma podemos provar que W ⊂ U +W.
Assim, obtemos que U ∪ W ⊂ U + W .

10
Suponha agora que Q é um subespaço vetorial de V tal que U ∪ W ⊂ Q. Se
u ∈ U e w ∈ W então u ∈ Q e w ∈ Q, o que implica que u + w ∈ Q pois Q é
subespaço vetorial de V . Agora da denição de U + W segue que U + W = {u + w :
u ∈ U, w ∈ W } ⊂ Q.
Para nalizar, mostremos a propriedade (3). Suponha que a soma U +W é direta.
Se z ∈ U + W existem vetores u1 ∈ U e w1 ∈ W tais que z = u1 + w1 . Suponha
agora que z = u2 + w2 com u2 ∈ U e w2 ∈ W . Nessas condições

u1 + w1 = u2 + w2 o que implica que u1 − u2 = w2 − w1 . (1.26)

Como u1 − u2 ∈ U e u1 − u2 = w2 − w1 ∈ W , segue que u1 − u2 ∈ U ∩ W = {0} o


que implica que u1 − u2 = 0 e u1 = u2 . Mais ainda, como 0 = u1 − u2 = w2 − w1
obtemos que w1 = w2 . Isto prova que a representação de z como soma de vetores de
U e W é única.
Suponha agora que para cada v ∈ U + W existe um único u ∈ U e um único

w ∈ W tais que v = u + w. Se z ∈ U W então z = 0 + z e z = z + 0 de onde
inferimos que z = 0 (pela hipotese, z pode ser escrito em uma única maneira). Como

z é arbitrario do anterior temos que U W = {0} e que a soma U + W é direta. A
prova está completa.

Exemplo 1.27. U = {(x, y, z) ∈ R3 : x + y + z = 0} e W = {(x, y, z) ∈ R3 :


Sejam
x = y = 0}. Vejamos que R3 = U ⊕ W .
É simple mostrar que U, W são subespaços vetoriais de R (deixamos isto como
3

exercicio!). Para mostrar que R = U ⊕ W , temos que provar que R = U + W e


3 3

que U W = {0}.
Suponha que z = (z1 , z2 , z3 ) ∈ U ∩ W . Da denição de W segue que z1 = z2 = 0
e da denição de U vemos que z3 = z1 + z2 + z3 = 0, o que prova que z = 0 e que
U ∩ W = {0}.
Para completar a prova, emos que provar que todo vetor de R pode ser escrito na
3

forma u+w com u ∈ U e w ∈ W . Seja z = (z1 , z2 , z3 ) ∈ R . Como (x, y, −x−y) ∈ U ,


3

(0, 0, z + x + y) ∈ W e z = (x, y, −x − y) + (0, 0, z + x + y) segue que z ∈ U + W .


Portanto, R = U ⊕ W .
3

O conceito de soma direta pode ser generalizado.

Denição 1.28. Sejam U1 , . . . , Un subconjuntos do espaço V. A soma dos conjuntos


U1 , . . . , Un é o conjunto denido por


n
Ui = U1 + · · · + Un = {u1 + · · · + un : uj ∈ Uj , j = 1, . . . , n}.
i=1

Denição 1.29. Sejam U1 , . . . , Un subespaços vetoriais de de V. Dizemos que a


soma U1 + · · · + Un é direta se Uj ∩ (U1 + · · · + Uj−1 + Uj+1 · · · + Un ) = {0} para
todo j ∈ {1, . . . n}. No que segue, usaremos a notação U1 ⊕ · · · ⊕ Un = ⊕ni=1 Ui para
indicar que a soma U1 + · · · + Un é direta.
Procedendo como na prova da Proposição 1.25, podemos mostrar o seguinte re-
sultado.

Proposição 1.30. Se U1 , . . . , Un são subespaços vetoriais de V então

11
1. U1 + · · · + Un é um subespaço vetorial de V ,
∪n
2. U1 +· · ·+Un é o menor subespaço vetorial de V que contém o conjunto i=1 Ui ,

3. V = U1 ⊕ · · · ⊕ Un ⇔ para cada v ∈ U1 + · · · + Un e todo j ∈ {1, . . . , n} existe


um único vetor uj ∈ Uj tal que v = u1 + · · · + un .
Prova: Exercicio.
Exemplo 1.31. Vejamos que Pn (R) é soma direta dos subespaços vetoriais Ui =
{axi : a ∈ R}.
Se f ∈ Pn (R) então f é da forma f (x) = a0 + a1 x + . . . an xn de onde segue que
f ∈ U1 + · · · + Un pois ai xi ∈ Ui para cada i. Isto prova que Pn (R) ⊂ U1 + · · · + Un
e que Pn (R) = U1 + · · · + Un pois U1 + · · · + Un ⊂ Pn (R).
Para completar a prova usamos o item (3) da Proposição 1.30. Suponha que
f ∈ Pn (R) é tal que f (x) = a0 + a1 x + . . . an xn e f (x) = b0 + b1 x + . . . bn xn . Do
anterior, temos que H(x) = (a0 − b0 ) + (a1 − b1 )x + . . . + (an − bn )x = 0 para todo
n

x ∈ R.
Como a0 − b0 = H(0) = 0 segue que a0 = b0 , de onde temos que H(x) =
(a1 − b1 )x + (a2 − b2 )x2 + . . . + (an − bn )xn = 0 para todo x ∈ R. Assim, x[(a1 −
b1 ) + . . . + (an − bn )xn−1 ] = 0 para todo x ∈ R o que implica que (a1 − b1 ) + (a2 −
b2 )x + . . . + (an − bn )xn−1 = 0 para todo x ̸= 0.
Se (a1 − b1 ) > 0 (resp. (a1 − b1 ) < 0) então podemos escolher x sucientemente
pequeno de modo que (a1 − b1 ) > [(a2 − b2 )x + . . . + (an − bn )x
n−1 ] (resp. (a − b ) <
1 1
[(a2 − b2 )x + . . . + (an − bn )x n−1 ]) o que é absurdo pois neste caso (a1 − b1 ) − [(a2 −
b2 )x + . . . + (an − bn )xn−1 ] ̸= 0. Assim, única possibilidade é ter que a1 − b1 = 0.
Segundo o anterior, H(x) = (a2 − b2 )x + . . . + (an − bn )x
2 n = 0 para todo

x ∈ R de onde segue que x2 [(a2 − b2 ) + . . . + (an − bn )xn−2 ] = 0 para todo x ∈ R e


(a2 − b2 ) + (a3 − b3 )x + . . . + (an − bn )xn−2 = 0 para cada x ̸= 0. Argumentando
mostramos que a2 − b2 = 0.
Para completar a prova, temos que mostrar a representação f (x) = a0 + a1 x +
. . . an xn é única. Suponha que f (x) = b0 + b1 x + . . . bn xn . Do anterior, temos que
H(x) = (a0 − b0 ) + (a1 − b1 )x + . . . + (an − bn )xn = 0 para todo x ∈ R.
Continuando o processo anterior, podemos mostrar que ai = bi para todo i ∈
{1, . . . , n} o que prova que a representação de f é única. Isto completa a prova que
Pn (R) = U1 + · · · + Un .

1.3 Exercícios
Ex. 1.32. Nos seguintes casos estude se W é um subespaço vetorial de V.
{( ) }
a b
1. V = M (2, 2) e W = : a, b, c, ∈ R .
−a c

2. V = R4 e W = {(x, x, y, y) : x, y ∈ R} .

3. V = Pn (R) e W = {p ∈ Pn (R) : p(0) = p(1)} .

4. Sejam V = M (n, n), B ∈ M (n, n) e W o subconjunto de V dado por W =


{A ∈ Mn : BA = 0} .

12
5. Sejam V = M (n, 1), A ∈ M (n, n) uma matriz dada e W o subconjunto de V
denido por W = {X ∈ V : AX = 0} .
{ }
6. V = M (n, n) e W = A ∈ M (n, n) : AT = A onde AT denota a matriz trans-
T
posta de T . Note que A = (aj,i )n,m quando A = (ai,j )n,n . )

7. V = R3 e W = {(x, y, z) ∈ R3 : x = 0},

8. V = R3 e W = {(x, y, z) ∈ R3 : x = 1},

9. V = R3 e W = {(x, y, z) ∈ R3 : x2 + y + z = 0},

10. V = R3 e W = {(x, y, z) ∈ R3 : x ≤ y ≤ z},

11. V = R3 e W = {(x, y, z) ∈ R3 : x + y ∈ Q}, (Q é o conjunto dos números


racionais)

12. V = R3 e W = {(x, y, z) ∈ R3 : x ∈ Z}, (Z é o conjunto dos números enteiros)

13. V = R3 e W = {(x, y, z) ∈ R3 : y é irracional},

14. V = R3 e W = {(x, y, z) ∈ R3 : x − 3z = 0},

15. V = P3 (R) e W = {f ∈ P3 (R) : f tem grau maior que 2},

16. V = P3 (R) e W = {f ∈ P3 (R) : f (0) = 2f (1)},

17. V = P3 (R) e W = {f ∈ P3 (R) : f (t) > 0, ∀ t ∈ R},

18. V = P3 (R) e W = {f ∈ P3 (R) : f (1) > 0}.

Ex. 1.33. Achar 100001 subespaços vetoriais de R2 . Quantos subespaços vetoriais


de R existem ?

Ex. 1.34. Estudar as seguintes armações (se você considera que a armação é
verdadeira prove ela e se acha que é falsa invente um contraexemplo):

1. Se W1 e W2 são susbespaços vetoriais de V então W1 ∪ W2 é subespaço vetorial


de V.

2. Suponha que W1 eW2 são subespaços de V. Então W1 ∪ W2 é subespaço de


V ⇔ W1 ⊆ W2 ou W2 ⊆ W1 .

3. Se W1 e W2 são susbespaços vetoriais de V então o conjunto {w1 − αw2 : wi ∈


Wi , α ∈ R} é um subespaço vetorial de V.

4. Se W1 e W2 são susbespaços vetoriais de V então o conjunto W1 × W2 =


{(w1 , w2 ) : w1 ∈ W1 , w1 ∈ W1 } é um subespaço vetorial de V × V . (Note que
V × V é um espaço vetorial quando munido das operações (v1 , v2 ) + (v3 , v4 ) =
(v1 + v3 , v2 + v4 ) e λ(v1 , v2 ) = (λv1 , λv2 )).

5. Se U = {(x, y, z) ∈ R3 : x = 0} e W = {(x, y, z) ∈ R3 : y = 0} então


R3 = U ⊕ W .

Ex. 1.35. Nos seguintes casos, achar os subespaços U +W e U ∩W de V.

13
{ } { }
1. V = R2 , U = (x, y) ∈ R2 : y = 0 e W = (x, y) ∈ R2 : x = αy onde α é
um número real não nulo.
{( ) } {( ) }
a 0 0 c
2. V = M ((2, 2), U = : a, b ∈ R e W = : c, d ∈ R .
0 b 0 d
{ } { }
3. Se V = R2 , U = (x, y) ∈ R2 : 2x + 3y = 0 e W = (x, y) ∈ R2 : x − y = 0
então V = U ⊕ W .
  
 a b 0 
4. Se V é o espaço V = M (3, 3), U =  0 0 c  : a, b, c, d ∈ R e
 
0 0 d
  
 0 0 e 
W =  f g 0  ; e, f, g, h, i ∈ R então V = U ⊕ W .
 
h i 0

Ex. 1.36. Nos seguintes casos, achar um subespaço W de V de modo que V = U ⊕W.

1. V = R3 U = {(x, y, 0) : x, y ∈ R} .
e

{ }
2. V = M (3, 3) e U = A ∈ M (3, 3) : AT = A .
( )
1 1
3. V = M (2, 1) e U = {X ∈ M (2, 1) : AX = 0} sendo A= .
0 1

Ex. 1.37. Suponha que U e W são subespaços vetoriais do espaço V. Provar que:

1. U ⊂W ⇒U +W =W

2. U ⊂W ⇒U ∩W =U

3. U +W =U ⇒U ⊃W

4. U ∩W =U ⇒U ⊂W

1.3.1 Subespaços gerados

Nesta seção veremos como obter um subespaço vetorial de V a partir de un subcon-


junto de V. Para começar introduzimos o conceito de combinação linear de vetores.

Denição
∑ 1.38. Seja A = {u1 , . . . , un } ⊂ V . Uma expressao da forma u =
i=1 αi ui , com α1 , . . . , αn números reais, é chamada combinação linear dos veto-
n

res u1 , . . . , un , ou combinação linear dos vetores em A.

Exemplo 1.39. A ⊂ Pn (R) o conjunto denido por A = {1, x, x2 , . . . , xn }.


Seja
2 2
Os vetores 1 + x, 1 + x , 1 + 2x + 3x são combinações lineares dos vetores em A.
Mais ainda, todo vetor de Pn (R) (equivalentemente, todo polinômio de grau n) é
combinação linear dos vetores em A.

Exemplo 1.40. A o subconjunto de P3 (R) dado por A = {1, 1 + x, 1 + x + x2 }.


Seja
Mostre que o
2
polinômio p(x) = 1 + x é combinação linear dos vetores em A.

14
Exemplo 1.41. Seja n ∈ N. Nesta apostilha, para i ∈ {1, . . . , n} usaremos a notação
ei para o vetor deRn dado por ei = (x1 , . . . , xi , . . . , xn ) onde xj = 0 se j ̸= i e xi = 1
(ou seja, ei = (0, . . . , 1, . . . , 0)).
∑n
É fazil ver que y = (y1 , . . . , yi , . . . , yn ) = i=1 yi ei , de modo que todo vetor de
R é combinação linear dos vetores e1 , . . . , en . Observamos que os vetores e1 , . . . , en
n

são chamados de vetores canónicos de R .


n

Exemplo 1.42. Sejam n, m ∈ N, k ∈ {1, . . . , n} e p ∈ {1, . . . , m}. Nesta apostilha,


Ap,k = (ai,j )n,m é a matriz de M (n, m) tal que ai,j = 0 quando (i, j) ̸= (k, p) e
ak,p = 1, ou seja,  
0 0 ...0... 0
 0 0 ...0... 0 
 
 .. .. . . 
 . . .
.
. 
.
Ak,p 
= 
 0 0 ...1... 0 

 .. .. . . 
 . . .
.
. 
.
0 0 ...0... 0
onde o número 1 aparece no lugar(k, p). É fazil ver que toda matriz de M (n, m) é
combinação linear das matrizes em
∑ ∑ {Ai,j : i = 1, ∑ . . . , n, j = 1, . . . , m}. Mais ainda,
se A = (ai,j )n,m então A = ni=1 m a A
j=1 i,j i,j = i,j ai,j Ai,j .

Denição 1.43. Seja S ⊂ V não vazio. Denimos o conjunto [S] como sendo o
subconjunto de V formado
∑ por todas as combinações lineares dos elementos de S ,
ou seja, [S] = {v = ni=1 αi si : αi ∈ R, si ∈ S, n ∈ N}.

Denição 1.44. Seja S = {u1 , . . . , un } ⊂ V . Denimos o conjunto [S] como sendo


o subconjunto de V∑formado por todas as combinações lineares dos elementos de S ,
ou seja, [S] = {v = ni=1 αi ui : αi ∈ R}.
Exemplo 1.45. Seja n ∈ N e S = {e1 , . . . , en } = {ei : i = 1, . . . , n}. Como todo
vetor de R é combinação linear dos vetores canonicos e1 , . . . , en segue que R = [S].
n n

Se S = {Ai,j : i = 1, . . . , n, j = 1, . . . , m} onde Ai,j são as matrizes denidas no


Exemplo 1.42, então M (n, m) = [S]. Similarmente, se S é o subconjunto de Pn (R)
2 n
formado pelos polinomios 1, x, x , . . . , x temos que Pn (R) = [S].

Nos exemplos anteriores, o subespaço gerado por S é sempre o espaço completo.


Em geral isto não é assim. Considere a modo de exemplo, o subconjunto de R3 dado
por S = {e1 , e2 }. É fazil ver que neste caso, [S] = {(x, y, 0) : x, y ∈ R} ̸= R3 .
Exemplo 1.46. Se S ⊂ P3 (R) S = {1, t, t2 , 1 + t3 } então P3 (R) = [S].
é o conjunto
2 3
De fato, note que um polinomio da forma p(t) = a0 + a1 t + a2 t + a3 t pode ser
representado na forma p(t) = (a0 − a3 ) + a1 t + a2 t + a3 (t + 1) ∈ [S], de onde segue
2 3

que P3 (R) = [S].


{( ) ( )}
0 1 0 0
Exemplo 1.47. Se S = 0 0
,
−1 0
, os vetores em [S] são da forma

( ) ( ) ( )
0 1 0 0 0 α
A=α +β = ,
0 0 −1 0 −β 0
com α, β ∈ R. Como α, β são arbitrarios, vemos que [S] está formado por todas as
matrizes con diagonal principal nula.

15
Na próxima proposição consideramos algumas importantes propriedades dos con-
juntos gerados.

Proposição 1.48. Seja S um subconjunto não vazio de V. As seguintes condições


são válidas.
1. [S] é um subespaço vetorial de V , S ⊂ [S] e [S] é o menor subespaço vetorial
de V contendo S ,
2. se S um subespaço vetorial de V então S = [S] e [[S]] = [S],
3. se T ⊂ S então [T ] ⊂ [S],
4. [S ∪ T ] = [S] + [T ].
Prova: Provemos a primeira propriedade. Para mostrar que [S] subespaço vetorial
de V , xemos u, v ∈ [S] e α ∈ R. Pela denição de [S] podemos supor que u =
α1 u1 + · · · + αn un e v = β1 v1 + · · · + βm vm onde α1 , . . . , αn , β1 , . . . , βm ∈ R são
números números reais e u1 , . . . , un , v1 , . . . , vm são vetores em S . De esta forma,
temos que
u + αv = α1 u1 + · · · + αn un + αβ1 v1 + · · · + αβm vm ,
que mostra que u+αv ∈ [S] pois u+αv se escreve como combinação linear de vetores
em S . Agora, pela Proposição 1.17 segue que [S] subespaço vetorial de V . O fato
que S ⊂ [S] é obvio.
Para completar a prova de (1), mostremos agora que [S] é o menor subespaço
vetorial de V que contem o conjunto S . Suponha que M é um subespaço vetorial
de V tal que S ⊂ M . Se u ∈ [S] então existem números reais α1 , . . . , αn e vetores
u1 , . . . , un em S tais que u = α1 u1 + · · · + αn un . Como cada vetor ui é um elemento
de M e M é subespaço vetorial temos que u = α1 u1 + · · · + αn un ∈ M , o que implica
que [S] ⊂ M . Isto prova que [S] é o menor subespaço vetorial de V que contem S .
Mostremos agora a segunda propriedade. Como S é um subespaço vetorial e [S]
é o menor subespaço vetorial de V temos que [S] ⊂ S o que implica que [S] = S pois
S ⊂ [S]. Mais ainda, usando o anterior é claro que [[S]] = [S].
Para mostrar (3) suponha que T ⊂ S . Se u ∈ [T ] então existem números reais

α1 , . . . , αn e vetores u1 , . . . , un em T tais que u = ni=1 αi ui . Como cada vetor ui
é també um elemento de S segue da denição de [S] que u ∈ [S]. Isto prova que
[T ] ⊂ [S].
Para nalizar, provemos que [S ∪ T ] = [S] + [T ]. É fazil ver que S ⊂ [S] + [T ] e
T ⊂ [S]+[T ] de onde segue que S ∪T ⊂ [S]+[T ]. Observando agora que [S]+[T ] é um
subespaço vetorial de V e que [S ∪T ] é o menor subespaço vetorial que contem S ∪T ,
obtemos que [S ∪T ] ⊂ [S]+[T ]. Mais ainda, como [S]+[T ] ⊂ [S ∪T ]+[S ∪T ] ⊂ [S ∪T ]
vemos que [S] + [T ] ⊂ [S ∪ T ]. Do anterior, tem-se que [S] + [T ] = [S ∪ T ].

Proposição 1.49. Se S = {u1 , . . . , un } ⊂ V , etão as seguintes propriedades são


válidas.
1. [S] é um subespaço vetorial de V , S ⊂ [S] e [S] é o menor subespaço vetorial
de V contendo S .
2. se T ⊂ S então [T ] ⊂ [S],
3. [S ∪ T ] = [S] + [T ].

16
Prova: Provemos a primeira propriedade. Para mostrar que [S] subespaço vetorial
de V , xemos u, v ∈ [S] e α ∈ R. Pela denição de [S] podemos supor que u =
α1 u1 + · · · + αn un e v = β1 v1 + · · · + βn vn onde α1 , . . . , αn , β1 , . . . , βn são números
reais. Assim, temos que


n
u + αv = α1 u1 + · · · + αn un + αβ1 v1 + · · · + αβn vn = (αi + βi )ui ,
i=1

que mostra que u + αv ∈ [S] pois u + αv é uma combinação linear de vetores em


S . Agora, pela Proposição 1.17 segue que [S] subespaço vetorial de ∑ V . O fato que
S ⊂ [S] é obvio pois cada vetor ui pode ser escrito na forma ui = j̸=i 0uj + 1ui
Mostremos agora que [S] é o menor subespaço vetorial de V que contem o con-
junto S . Suponha que M é um subespaço vetorial de V tal que S ⊂ M . Se u ∈ [S]
então existem números reais α1 , . . . , αn tais que u = α1 u1 + · · · + αn un . Como
cada vetor ui é também um elemento de M e M é subespaço vetorial temos que
u = α1 u1 + · · · + αn un ∈ M , o que implica que [S] ⊂ M . Isto prova que [S] é o
menor subespaço vetorial de V que contem S .
Mostremos agora (2). Como T ⊂ S , podemos supor que T = {ui1 , . . . , uip } sendo
1 ≤ i∑j ≤ in para cada j . Se u ∈ [T ∑] nentão existem números reais α1 , . . . , αp tais que
p
u = j=1 αj uij . Mas, como u = j=1 βj uj com βj = αj se j = ij e βj = 0 quando
j∈ / {i1 , . . . , ip } temos que u ∈ [S], o que prova que [T ] ⊂ [S].
Para nalizar, provemos que [S ∪ T ] = [S] + [T ]. É fazil ver que S ⊂ [S] + [T ] e
T ⊂ [S]+[T ] de onde segue que S ∪T ⊂ [S]+[T ]. Observando agora que [S]+[T ] é um
subespaço vetorial de V e que [S ∪T ] é o menor subespaço vetorial que contem S ∪T ,
obtemos que [S ∪T ] ⊂ [S]+[T ]. Mais ainda, como [S]+[T ] ⊂ [S ∪T ]+[S ∪T ] ⊂ [S ∪T ]
vemos que [S] + [T ] ⊂ [S ∪ T ]. Do anterior, tem-se que [S] + [T ] = [S ∪ T ].

Denição 1.50. Seja S ⊂ V . O conjunto [S] é chamado o subespaço vetorial gerado


por S e os elementos de S são chamados de geradores de [S]. Se S = {u1 , . . . , un },
usaremos a notação [S] = [u1 , . . . , un ].

Denição 1.51. Seja S = {u1 , . . . , un } ⊂ V . O conjunto [S] é chamado o subespaço


vetorial gerado por S e os elementos de S são chamados de geradores de [S]. No que
segue, também usamos a notação [S] = [u1 , . . . , un ].
Denição 1.52. Dizemos que V é um espaço nitamente gerado se existe un con-
junto S = {u1 , . . . , un } ⊂ V tal que V = [S].
Do Exemplo 1.45 segue que os espaços Pn (R), Rn e M (n, m) são espaços vetoriais
nitamente gerados.

Exemplo
 1.53.O espaço W denido por W = {X ∈ M (3, 1) : AX = 0} onde
0 1 0
A=  2 1 0  é nitamente gerado.
1 1 4
       W . Se
Para rovar nossa armação, é conveniente caracterizar os elementos de
α 0 1 0 α 0
X = β ∈ W
 então 2 1 0 β  = 0 de onde segue que α = β = γ = 0.
γ 1 1 4 γ 0
Logo, o único elemento em W é o vetor zero. Assim, W = [{0}].

17
Exemplo 1.54. O espaço W denido por W = {X ∈ M (4, 1) : AX = 0} sendo
 
1 1 −1 0
 2 0 1 1 
A=
 3

1 0 1 
0 −2 3 1
é nitamente gerado.

 Para começar, caracterizemos de uma forma mais explicita o espaço W. Se


α
β 
X= 
γ  ∈ W então

δ
    
1 1 −1 0 α 0
2 0 1 1  β  0
   =  
3 1 0 1  γ  0
0 −2 3 1 δ 0
de onde segue que {
α = −γ/2 − δ/2
β = 3γ/2 + δ/2
e      
−γ/2 − δ/2 −1/2 −1/2
 3γ/2 + δ/2     
X=  = γ  3/2  + δ  1/2  .
 γ   1   0 
δ 0 1
   
−1/2 −1/2
 3/2   1/2 
concluimos que W =    
Do anterior
 1  ,  0  .
0 1
No seguinte exemplo, vemos o caso de um espaço vetorial que não é nitamente
gerado.

Exemplo 1.55. P (R) conjunto formado por todos os polinomios de grau nito
Seja
munido das operações soma e multiplicação por escalar usuais. Como veremos, P (R)
não é nitamente gerado. Para mostrar esta armação, suponha que existem poli-
nomios p1 , . . . , pn P (R) = [p1 , . . . , pn ]. Seja N o grau mais alto dentre os
tais que
graus dos polinômios p1 , . . . , pn . Como o x
N +1 pertence P (R) e P (R) = [p , . . . , p ],
N +1 =
∑n 1 n
segue que existem numeros reais α1 , . . . , αn tais que x α p . Logo, temos
∑n pi
i=1 i i
que 1 = i=1 αi xN +1 para todo x ̸= 0. Porém isto é abusrdo, pois para valores
∑n pi
grandes de x temos que i=1 αi xN +1 < 1. Como este absurdo surge de supor que
P (R) = [p1 , . . . , pn ], segue que P (R) não pode ser nitamente gerado.
Exemplo 1.56. U = {(x, y, z, t) ∈ R4 : x − y + t + z = 0} e V = {(x, y, z, t) ∈
Sejam
R4: x + y − t + z = 0}. No que segue, acharemos um conjunto gerador para cada
um dos espaços U, V, U ∩ V e U + V.
Para começar, estudemos o espaço U . Se (x, y, z, t) ∈ U então y = x + z + t e

(x, y, z, t) = (x, x + z + t, z, t) = x(1, 1, 0, 0) + z(0, 1, 1, 0) + t(0, 1, 0, 1),

18
de onde segue que U = [(1, 1, 0, 0), (0, 1, 1, 0), (0, 1, 0, 1)].
Vejamos agora o espaço V . Se (x, y, z, t) ∈ V então t = x + y + z e

(x, y, z, t) = (x, y, z, x + y + z) = x(1, 0, 0, 1) + y(0, 1, 0, 1) + z(0, 0, 1, 1),

de onde podemos concluir que V = [(1, 0, 0, 1), (0, 1, 0, 1), (0, 0, 1, 1)].
Se (x, y, z, t) ∈ U ∩ V então

{
x−y+t+z =0
x + y − t + z = 0,

o que implica em x = −z e y = t. Deste modo, temos que (x, y, z, t) = (x, y, −x, y) =


x(1, 0, −1, 0) + y(0, 1, 0, 1) de onde concluimos que U ∩ V = [(1, 0, −1, 0), (0, 1, 0, 1)].
Finalmente, estudemos o espaço U + V . Como U + V = [U ] + [V ] = [U ∪ V ],
temos que

U + V = [(1, 1, 0, 0), (0, 1, 1, 0), (0, 1, 0, 1), (1, 0, 0, 1), (0, 0, 1, 1)].

Mais ainda, como (1, 1, 0, 0) = (1, 0, 0, 1) + (0, 1, 1, 0) − (0, 0, 1, 1) temos que

U + V = [(0, 1, 1, 0), (0, 1, 0, 1), (1, 0, 0, 1), (0, 0, 1, 1)].

1.4 Exercícios
Ex. 1.57. Em cada caso, achar [S] como subespaço de V.

1. S = {(1, 0), (2, −1)} , V = R2 .

2. S = {(1, 1, 1), (2, 2, 0)} , V = R3 .


{ }
3. S = 1, t, t2 , 1 + t3 , V = P3 (R).
{( ) ( )}
0 1 0 0
4. S= , , V = M (2, 2).
0 0 −1 0
Ex. 1.58. Em cada um dos itens abaixo achar um conjunto nito que gere o espaço
W.
{ }
1. W = (x, y, z) ∈ R3 : x − 2y = 0 .

2. W = {p ∈ P3 (R) : p′ (t) = 0, ∀t ∈ R} .
{ }
3. W = A ∈ M (2, 2) : At = A .
 
0 1 0
4. W = {X ∈ M (3, 1) : AX = 0} onde A =  2 1 0 .
1 1 4

Ex. 1.59. Em cada um dos itens abaixo achar un conjunto (o menor possivel)
gerador de U, W, U ∩ W e U + W.

1. U = [(1, 0, 0), (1, 1, 1)] e W = [(0, 1, 0), (0, 0, 1)],

19
{ }
2. U = (x, y, z) ∈ R3 : x + y = 0 W = [(1, 3, 0), (0, 4, 6)],
e

[( )]
{ } 1 1
3. U = A ∈ M (2, 2) : At = A e W = ,
0 1

4. U = [t3 + 4t2 − t + 3, t3 + 5t2 + 5, 3t3 ] e W = [t3 + 4t2 , t − 1, 1] como subespaços


de P3 (R).

Ex. 1.60. Achar un subconjunto nito de P3 (R) que seja gerador de

1. U = {p ∈ P3 (R) : p(1) = p(0) = 0} ,

2. W = {p ∈ P3 (R) : p′′ = 0} ,

3. U ∩ W.

Ex. 1.61. Mostre que as funções 1 e cos 2x pertencem a [ sen 2 x, cos2 x].

Ex. 1.62. Verique se P2 (R) = [1 + x, x + 2x2 , 1 − x2 ].

Ex. 1.63. Achar um conjunto nito que seja gerador de

1. U = {(x, y, z) ∈ R3 : x − 2y = 0},

2. V = {(x, y, z) ∈ R3 : x + z = 0 e x − 2y = 0},

3. W = {(x, y, z) ∈ R3 : x + 2y − 3z = 0},

4. U ∩V e V + W.

Ex. 1.64. Achar un conjunto de geradores para o conjunto dos numeros complexos
C munido das operações usuais (a+ib)+(c+id) = a+c+i(c+d) e α(a+ib) = αa+iαb.
Mostre que {2 + 3i, 1 − 2i} é um conjunto gerador de C.

Ex. 1.65. {(1, −1, 2), (3, 0, 1)} e {(−1, −2, 3), (3, 3, −4)} geram o
Os conjuntos
mesmo subespaço vetorial de R3 . ?
{( ) ( ) ( ) ( )}
1 0 1 1 0 0 0 1
Ex. 1.66. O conjuto de matrizes 0 1
,
0 0
,
1 1
,
1 2
é

un conjunto gerador de M (2, 2) ?

20
Capítulo 2

Dependência Linear, base e

dimensão

Nos Exemplo 1.45 foi observado que os conjuntos S = {e1 , . . . , en } e T = {Ai,j :


i = 1, . . . , n, j = 1, . . . , m} Rn
M (n, m) respectivamente. É
são geradores de e
interessante notar para qualquer vetor ei temos que S \ {ei } não é gerador de R .
n

Similarmente, para cada matriz Ai,j temos que T \ {Ai,j } não é gerador de M (n, m).
A propriedade descrita anteriormente não é restrita a esses conjuntos e a essses
espaços. Mais ainda, como veremos neste capitulo nenhum subconjunto de Rn com
vetores pode ser gerador de R
menos de n n e nenhum subconjunto de M (n, m)
com menos de mn elementos pode ser gerador de M (n, m). Do anterior vemos que
os conjuntos geradores de um espaço vetorial com o menor número de elementos
possiveis são muito especiais. Este tipo de conjunto serão chamados de bases. Para
formalizar as ideias anteriores, temos que introduzir algumas denições.

Denição 2.1. Sejam u1 , . . . , un vetores não nulos de V . Dizemos que os veto-


res u1 , . . . , un são linearmente independentes ou que o conjunto {u1 , . . . , un } é li-
nearmente independente, se nenhum dos vetores ui é combinação linear dos outros
vetores.
No próximo Lema reformulamos o conceito anterior.

Lema 2.2. Un conjunto {u1 , . . . , un } ⊂ V∑de vetores não nulos é linearmente inde-
pendente ⇔ a única solução da equação n
i=1 αi ui = 0 é a solução nula, ou seja, a
solução com α1 = . . . , αn = 0.
Prova: Suponha que {u1 , . . . , un } é linearmente independente e que a equação
∑ n
i=1 αi ui = 0 possui uma∑ solução não nula. Então existem escalares α1 , α2 , . . . , αn
∑n
n αj
não todos zero, tais que i=1 αi ui = 0. Se αi ̸= 0, então ui = − j=1,j̸=i αi uj
o que implica que {u1 , . . . , un } não é linearmente independente, o que é absurdo.
∑n
Isto prova que a equação i=1 αi ui = 0 tem uma única solução, a solução nula
α1 = α2 = . . . = αn = 0. ∑n
Suponha que a equação i=1 αi ui = 0 possui uma única solução. Se o con-
junto {u1 , . . . , un } não é l.i, então um desses vetores, digamos ui , é combinação
linear dos outros. Neste caso, existem números reais β1 , β2 , . . . , βi−1 , βi , . . . , βn tais
∑n
que ui = j=1,j̸=i βj uj . Nessas condições,
∑ temos que os números β1 , β2 , . . . , βi−1 ,
−1, βi , . . . , βn são uma solução nula de ni=1 αi ui = 0, o que é aburdo. Portanto,
{u1 , . . . , un } é linearmente independente.

21
Observação 2.3. Do Lemma anterior vemos que para mostrar que um conjunto de
vetores
∑n {u1 , . . . , un } é linearmente independente, é suciente provar que a equação

i=1 αi ui = 0 possui uma única solução.

Denição 2.4. Dizemos que um conjunto de vetores não nulos {u1 , . . . , un } ⊂ V é


linearmente dependente (o que os vetores u1 , . . . , un são linearmente dependentes) se
{u1 , . . . , un } ⊂ V não é linearmente independente.
Observação 2.5. {u1 , . . . , un } ⊂ V
Un conjunto de vetores não nulos é linearmente
dependente se é possível encontrar números reais α1 , . . . , αn não todos zeros tais que
α1 u1 + · · · + αn un = 0.
Exemplo 2.6. Os vetores (1, 1, 1), (1, 1, 0), (1, 0, 0) são linearmente independente
em R . De fato, note que a equação
3 α(1, 1, 1) + β(1, 1, 0) + γ(1, 0, 0) = (0, 0, 0) é
equivalente ao sistema de equações

α+β+γ = 0
α+β = 0
γ = 0.

Como este sistema possui uma única solução, a soluçaõ nula, segue que {(1, 1, 1),
(1, 1, 0), (1, 0, 0)} e linearmente independente.

Exemplo 2.7. Sejam u1 = (x1,1 , x2,1 , . . . , xn,1 ), u2 = (x1,2 , x2,2 , . . . , xn,2 ), . . ., un =


(x1,n , x2,n , . . . , xn,n ) vetores de Rn . Como foi observado nateriormente, para ver se
os vetores u1 , . . . , un são lineramente independentes, temos que estudar a equação
∑n
i=1 αi ui = 0. Esta equação é equivalente ao sistema de equações

α1 x1,1 + . . . +αi x1,i . . . + αn x1,n = 0,


α1 x2,1 + . . . +αi x2,i . . . + αn x2,n = 0,
. . . . .
. . . . .
. . . . .
α1 xj,1 + . . . +αi xj,i . . . + αn xj,n = 0, (2.8)

. . . . .
. . . . .
. . . . .
α1 xn,1 + . . . +αi xn,i . . . + αn xn,n = 0,

o qual pode ser re-escrito na forma


 
x1,1 x1,2 ··· x1,n  
 x2,1 x2,2  α1
 ··· x2,n   . 
 .. . . .   .. 
 . .
.
.
.
.
.  
   αi  = Aα = 0. (2.9)
 xj,1 xj,2 ··· xj,n   . 
 
 
 .. . . .   .. 
 . .
.
.
.
.
. 
αn
xn,1 xn,2 ··· xn,n

Se a matriz A é inversivel (o que é equivalente a ter que det A ̸= 0) segue que


α = A−1 0 = 0 é a única solução de (2.9), o que os vetores u1 , . . . , un são lineramente
independentes. Se A não é inversivel (o que é equivalente a ter que det A = 0), o
problema Aα = 0 tem innitas soluções, de onde segue que os vetores u1 , . . . , un são
linearmente dependentes.

22
Resumimos as observações do Exemplo 2.7 na seguinte proposição.

Proposição 2.10. Sejam u1 = (x1,1 , x1,2 , . . . , x1,n ), u2 = (x2,1 , x2,2 , . . . , x2,n ), . . .,


un = (xn,1 , xn,2 , . . . , xn,n ) vetores de Rn e A a matriz denida em (2.9). Os vetores
u1 , . . . , un são linearmente independentes ⇔ det(A) ̸= 0.
( ) ( ) ( )
1 0 1 1 0 1
Exemplo 2.11. As matrizes 0 1 , 0 1 , 0 0 são linearmente indepen-
dentes. ?
Para resolver o problema temos que estudar a equação

( ) ( ) ( ) ( )
1 0 1 1 0 1 0 0
α +β +γ = . (2.12)
0 1 0 1 0 0 0 0

Deste equação segue que

( ) ( )
α+β β+γ 0 0
= ,
0 α+β 0 0

de onde inferimos que β = −α e γ = α. Logo, temos que para α ∈ R, os números α,


β = −α e γ = α são soluções de (2.12), o que implica que as matrizes são linearmente
dependentes.

Exemplo 2.13. As funções cos(·) e sen (·) são linearmente independentes. ?


Como antes, temos que estudar a equação α cos(·) + β sen (·) = 0. Se α, β ∈ R
são soluções desta equação, então teremos que α cos(x) + β sin(x) = 0 para todo
x ∈ R. Se avaliamos em x = 0 obtemos que α = 0, de onde segue que β sin(x) = 0
para todo x ∈ R. Se avaliarmos agora em x = π/2 obtemos que β = 0. Portanto, a
única solução da equação α cos(·) + β sen (·) = 0 e α = β = 0, o que implica que as
funções cos(·) e sen (·) são linearmente independentes.

O próximo resultado resume algumas propriedades associadas ao conceito de


conjunto linearmente independente.

Teorema 2.14. Seja A = {u1 , . . . , un } ⊂ V.


1. Se {u1 , . . . , un } é linearmente dependente então pelo um dos vetores é combi-
nação linear dos outros.
2. Se {u1 , . . . , un } é linearmente dependente e B é un conjunto nito tal que
{u1 , . . . , un } ⊂ B então B é l.d.

3. Se {u1 , . . . , un } é linearmente independente e B ⊂ {u1 , . . . , un } então B tam-


bém é l.i.
4. Se {u1 , . . . , un } é linearmente independente e {u1 , . . . , un , v} é linearmente de-
pendente então o vetor v é combinação linear dos vetores u1 , . . . , un .
5. Se {u1 , . . . , un } é linearmente independente, então todo vetor v ∈ [u1 , . . . , un ] se
escreve de uma única maneira como combinação linear dos vetores u1 , . . . , un ,
ou seja, se v = α1 u1 + · · · + αn un e v = β1 u1 + · · · + βn un então αi = βi para
cada i = 1, . . . , n.

23
Prova: A propriedade em (1) segue diretamente da deniçaõ de conjunto linearmente
independente. Para mostrar (2), suponha que B = {u1 , . . . , un , v1 , . . . , vp }. Como A
é linearmente dependente existem números reias β1 , . . . , βn não todos zero tais que
∑ n
i=1 βi ui = 0. Em particular, temos que

β1 u1 + · · · + βn un + 0v1 + · · · + 0vp = 0,

o que implica que os vetores u1 , . . . , un , v1 , . . . , vp são linearmente dependente.


Provemos agora (3). Sem perda de generalidade, podemos supor ∑kque B =
{u1 , . . . , uk } para algum k ≤ n. Se α1 , . . . , αk é uma soluçao da equação i=1 βi ui =
0 então
α1 u1 + · · · + αk uk + 0uk+1 + · · · + 0uk = 0,
de onde segue que α1 = α2 = . . . α k = 0 pois os vetores
∑k u1 , . . . , un são linearmente
independentes. Assim, a única solução da equação i=1 βi ui = 0 é α1 = α2 =
. . . αk = 0 o que prova que B é linearmente independente.
Mostremos agora (4). Suponha que u1 , . . . , un são linearmente independentes
e que u1 , . . . , un , v são linearmente dependentes. Como os vetores u1 , . . . , un , v são
linearmente dependentes, existem números reias
∑n ∑n β1 , . . . , β n , γ não todos zero tais que

i=1 βi ui + γv = 0. Se γ = 0 então i=1 βi ui = 0 o que implica que α1 = . . . =


αn = 0 pois os vetores u1 , . . . , un são linearmente independentes.
∑n β i Assim, temos que
necesariamente γ ̸= 0 de onde obtemos que v = − u
i=1 γ i = 0 . Isto mostra que v
é combinação linear dos vetores u1 , . . . , un .
Para nalizar, mostremos agora (5). Se v = α1 u1 + · · · + αn un e v = β1 u1 + · · · +

βn un então 0 = v − v = ni=1 (αi − βi )ui = 0 de onde segue que αi − βi = 0 para
todo i pois {u1 , . . . , un } é linearmente independente. Portanto, αi = βi para cada
i = 1, . . . , n.

2.1 Exercícios
1. Estude se o conjunto S⊂V é linearmente independente.

(a) S = {(1, 2), (−3, 1)} , V = R2 .


{ }
(b) S = 1 + t − t2 , 2 + 5t − 9t2 , V = P2 (R).
{( ) ( )}
−1 1 2 0
(c) S= , , V = M (2, 2).
0 0 −1 0
(d) S = {(1, 2, 2, −3), (−1, 4, −2, 0)} , V = R4 .
     
 1 2 0 1 1 −1 0 0 0 
(e) S =  3 0 1 , 0 0 0 , 1 5 7  e V = M (3, 3).
 
0 0 2 1 1 1 −1 0 1
(f ) S = {xex , x} , V = F(R; R) .

2. Suponha que o conjunto S = {u, v, w} é linearmente independente. Os conjun-


tos S1 = {u, u+v, u+v+w}, S2 = {u−v, v−w, w−u} e S3 = {u+v, u+v+w, w}
são linearmente independentes. ?

3. Quais os subconjuntos abaixo são linearmente independentes ?

(a) {(1, 0, 0), (0, 1, 0), (0, 0, 1), (2, 3, 5)},

24
(b) {(1, 1, 1), (0, 1, 0), (1, 0, −2)},
(c) {(0, 0, 0), (1, 2, 3), (4, 1, −2)},
(d) {(1, 1, 1), (1, 2, 1), (3, 2, −1)},

4. Quais dos subconjuntos de P4 (R) são linearmente independentes. ?

(a) {1, x − 1, x2 + 2x + 1, x2 },
(b) {2, x2 + 1, x + 1, x2 − 1},
(c) {x(x − 1), x3 , 2x3 − x2 , x},

5. O subconjunto de F(R; R) dado por {1, ex , e2x } é linearmente independente. ?

Introduzimos agora o conceito de base de um espaço vetorial.

Denição 2.15. Dizemos que um conjunto de vetores não nulos {u1 , . . . , un } ⊂ V


é uma base de V se {u1 , . . . , un } é linearmente independente e [S] = V .
Exemplo 2.16. O conjunto {e1 , . . . , en } é uma base de Rn e o conjunto de matrizes
{Ai,j : i = 1, . . . , n, j = 1, . . . , m}, veja Exemplo 1.42, é uma base de M (n, m).
Exemplo 2.17. O conceito de base é especial, e por isso é um conceito restritivo.
Porém, um espaço vetorial (diferente de {0}) sempre possui innitas bases. Considere
como exemplo, o espaço V = R2 .
Seja (a, b) ∈ R diferente de (0, 0). Vejamos como podemos achar vetores (c, d) de
2

modo que {(a, b), (c, d)} seja uma base de R . Sejam c, d ∈ R de modo que ad−bc ̸= 0
2

(note que isto é sempre possivel de fazer). Vejamos agora que {(a, b), (c, d)} é base
de R .
2

Para mostrar que {(a, b), (c, d)} é um conjuto gerador de V temos que provar
que todo vetor (x, y) ∈ R é combinação linear dos vetores (a, b), (c, d). Considere
2

a equação α(a, b) + β(c, d) = (x, y) donde as incognitas são α e β . Esta equação é


equivalente a equação
( )( ) ( )
a c α x
= . (2.18)
b d β y
( ) ( )
a c a c
Como det = ad − bc ̸= 0, segue que a matriz é inversivel de
b d b d
onde obtemos que

( ) ( )−1 ( )
α a c x
= . (2.19)
β b d y

Portanto, a equação α(a, b) + β(c, d) = (x, y) tem uma única solução o que mostra
que R2 = [(a, b), (c, d)].
Vejamos agora que {(a, b), (c, d)} é linearmente independente. Para isto, temos
que estudar a equação α(a, b) + β(c, d) = (0, 0). De (2.19) sabemos que a única
solução desta equação é (α, β) = (0, 0), o que prova que {(a, b), (c, d)} é linearmente
independente.
( )
a c
Do anterior, vemos que {(a, b), (c, d)} é uma base se det = ad − bc ̸= 0,
b d
o que nos permite armar que existe uma quantidade não nita de bases de R2 .

25
Exercício 2.20. Achar bases de R2 da forma {(1, 1), (c, d)}.
Do Exemplo anterior, segue {(1, 1), (c, d)} é base se d ̸= c. Logo, {(1, 1), (1, 2)},

{(1, 1), (1, π)}, {(1, 1), (π, 2)}.... são bases de R2 .

Exemplo 2.21. Achar uma base do subespaço vetorial U de R3 gerado pelo conjunto
{(1, 0, 1), (1, 2, 0), (0, 2, −1)}.
É fazil ver que o vetor (0, 2, −1) é combinação linear dos vetores (1, 0, 1) e
(1, 2, 0) e que {(1, 0, 1), (1, 2, 0)} é linearmente independente. Assim, obtemos que
{(1, 0, 1), (1, 2, 0)} é uma base de U .

Exemplo 2.22. Os vetores u1 = (x1,1 , x1,2 , . . . , x1,n ), u2 = (x2,1 , x2,2 , . . . , x2,n ), . . .,


un = (xn,1 , xn,2 , . . . , xn,n ) forman uma base de Rn ⇔ o determinate da matriz A em
(2.9) é diferente de zero.
Do exemplo 2.7 sabemos que os vetores {u1 , . . . , un } são linearmente indepen-
dentes ⇔ det(A) ̸= 0. Assim, para mostrar que {u1 , . . . , un } é uma base resta provar
que {u1 , . . . , un } é un conjunto gerador de R .
n
∑n
Seja y = (y1 , . . . , yn ) ∈ R e considere a equação
n
i=1 αi ui = y . Procedendo
como no Exemplo 2.7, vemos que esta equação é equivalente a Aα = y
T onde y T

é o vetor y escrito na forma de coluna. Como a matriz A é inversivel, segue que


o problema tem uma única solução a qual é dada por A
−1 y T . Isto mostra que o

conjunto {u1 , . . . , un } é uma base de R .


n

Exemplo 2.23. Existem innitas bases do espaço Rn .


Sabemos que os vetores canonicos u2 = e1 , u2 = e2 , . . . , un−1 = en−1 são li-
nearmente independentes. Seja agora un = (xn,1 , xn,2 , . . . , xn,n ) de modo que o
determinate da matriz A em (2.9) seja diferente de zero (note que este vetor existe
pois neste caso det(A) = xn,n ). Nessas condições, sabemos que o conjunto de vetores
{u1 , . . . , un } é uma base de Rn e como existem innitos vetores un que vericam as
condições acima, temos que existem innitas bases de R .
n

No seguinte resultado veremos que todo espaço vetorial nitamente gerado possui
uma base.

Teorema 2.24. Se V é nitamente gerado, então V possui uma base.


Prova: Suponha que V = [u1 , . . . , un ]. Se {u1 , . . . , un } é linearmente independente
então o resultado está provado. Se os vetores u1 , . . . , un não são linearmente in-
dependentes, então existe um vetor uj que é combinação linear dos outros vetores.
∑n
Para simplicar a escrita, podemos reordenar os vetores e supor que u1 = k=2 αk uk
sendo αk números reais.
Armamos que o conjunto {u2 , . . . , un } é un conjunto gerador de V . Para mostrar
isto, xemos u ∈ V. ∑Como V = [u1 , . . . , un ] temos que existem números reais
γ1 , . . . , γn tais que u = nk=1 γk uk . Logo


n ∑
n ∑
n ∑
n ∑
n
u= γk u k = γ1 u 1 + γk u k = γ1 αk uk + γk uk = (γ1 αk + γk )uk ,
k=1 k=2 k=2 k=2 k=2

o que prova que u ∈ [u2 , . . . , un ]. Como u é arbitrario, obtemos que V = [u2 , . . . , un ].


Se os vetores u2 , . . . , un são linearmente independente então {u2 , . . . , un } é uma
base de V e o resultado está provado. De modo contrario, um dos vetores u2 , . . . , un

26
é combinaçõa linear dos outros. Renumerando os vetores, sem necessario, podemos
∑n
supor u2 = k=3 βk uk sendo βk escalares.
Com antes, armamos que {u3 , . . . , un } é um conjunto gerador de V. De fato, se
∑n
u∈V e u= k=2 θk uk então


n ∑
n ∑
n ∑
n ∑
n
u= θk uk = θ2 u2 + θk uk = θ2 βk uk + θk uk = (θ2 βk + θk )uk ,
k=2 k=3 k=3 k=3 k=3

o que implica que u ∈ [u3 , . . . , un ] e que {u3 , . . . , un } é um conjunto gerador de V .


Como o conjunto {u1 , . . . , un } é nito, o processo anterior não pode continuar
indenidamente (o processo naliza em {un } ou antes). Assim, existe k ∈ {1, . . . , n}
tal que os vetores uk , . . . , un são linearmente independentes e [{uk , . . . , un }] = V .
Neste caso, o conjunto {uk , . . . , un } é uma base de V .
O próximo resultado nos permitirá introduzir o conceito de dimensão de um
espaço vetorial nitamente gerado.

Proposição 2.25. Suponha que V é nitamente gerado e que {v1 , . . . , vm } é uma


base de V . Se n > m e {u1 , . . . , un } ⊂ V então {u1 , . . . , un } é linearmente depen-
dente.
Prova: Para provar o resultado temos que estudar a equação em variaveis xi dada
por

x1 u1 + · · · + xn un = 0. (2.26)

Como V = [{v1 , . . . , vm }], temos que cada vetor uj é combinação linear dos vetores
v1 , . . . , vm . Logo, para cada 1∑ ≤ j ≤ n existen números reais α1,j , . . . , αm,j tais que
uj = α1,j v1 + · · · + αm,j vm = m i=1 αi,j vi . Usando isto em (2.26) obtemos que
(m ) (m )
∑ ∑
x1 αi,1 vi + · · · + xn αi,n vi = 0. (2.27)
i=1 i=1

Notamos agora que a somma anterior pode ser re-escrita na forma


   
∑n ∑
n
 xj α1,j  v1 + · · · +  xj αm,j  vm = 0.
j=1 j=1

Como os vetores v1 , . . . , vm são linearmente independentes, vemos que cada uma das
somas que aparecem na última expressao são zero. Assim, obtemos o sistema de
equações

x1 α1,1 + . . . + xn α1,n = 0,
x1 α2,1 + . . . + xn α2,n = 0,
.
.
. (2.28)

x1 αm,1 + . . . + xn αm,n = 0,
O sistema (2.28) é um sistema linear homogêneo de m equações e n incógnitas e
como n > m, segue-se que este sistema possui uma solução não trivial que denotamos
x1 , . . . , xn . É claro do anterior que x1 , . . . , xn é uma solução não trivial de (2.26) o
que mostra que {u1 , . . . , un } é un conjunto linearmente dependente. A prova está
completa.
Como consequência do resultado anterior temos o seguinte Teorema.

27
Teorema 2.29. Se V é nitamente gerado então todas as bases de V possuem o
mesmo número de elementos.
Prova: Suponha que {v1 , . . . , vm } e {u1 , . . . , un } são duas bases do espaço V . Como
{u1 , . . . , un } é base e {v1 , . . . , vm } é linearmente independente, da Proposição 2.25
segue que m ≤ n. De maneira similar, como {v1 , . . . , vm } é base e {u1 , . . . , un } é
linearmente independente, obtemos que n ≤ m. Como m ≤ n e n ≤ m segue-se que
n = m.
O resultado anterior nos permite introduzir o conceito de dimensão de um espaço
vetorial.

Denição 2.30. Suponha que V é nitamente gerado. Se V ̸= {0}, denimos


a dimensão de V como o número de elementos de uma base de V . Se V = {0}
dizemos que a dimensão de V é zero. A dimensão de V será denotada por dim(V ).
Observação 2.31. Do exemplo (1.55) sabemos que existem espaços vetorias de
dimensão não nita. Quando um espaço não tem dimensão nita, diremos simples-
mente que possui dimensão innita.

Para facilitar a prova de nossos proximos resultados estabelecemos o próximo


Lemma.

Lema 2.32. Se {u1 , . . . , un } ⊂ V é linearmente independente e v ∈ / [{u1 , . . . , un }]


então o conjunto {u1 , . . . , un , v} ⊂ V é linearmente independente.

Prova: Suponha que α1 u1 + . . . + αn un + αv = 0. Se α ̸= 0, então v = − nj=1 ααj uj
o que é absurdo pois v ∈ / [{u1 , . . . , un }]. Assim, α = 0. Como α = 0, segue-se que
α1 u1 + . . . + αn un = 0 de onde obtemos que α1 = . . . = αn = 0 pois {u1 , . . . , un } é
linearmente independente. Portanto, a única solução de α1 u1 +. . .+αn un +αv = 0 é a
solução com α1 = . . . = αn = α = 0, o que implica que {u1 , . . . , un , v} é linearmente
independente.
O próximo resultado considera algumas propriedades dos espaços de dimensão
nita.

Proposição 2.33. Suponha que V é um espaço de dimensão nita.


1. Se W é um subespaço vetorial de V então W é um espaço de dimensão nita
e dim(W ) ≤ dim(V ),
2. Se n = dim(V ) e {u1 , . . . , un } é linearmente independente então {u1 , . . . , un }
é uma base de V .
Prova: Suponha que W ̸= {0} é um subespaço vetorial de W . Como W ̸= {0}, existe
um vetor (não zero) w1 ∈ W . Se {w1 } é uma base de W então a propriedade está
provada. De modo contrario, {w1 } não é base e existe w2 ∈ W tal que w2 ∈ / [{w1 }].
Agora, do Lemma 2.32 vemos que {w1 , w2 } é un conjunto linearmente independente.
Se {w1 , w2 } é uma base de W , o resultado está provado. De modo contrario,
existe w3 ∈ W tal que w3 ∈ / [{w1 , w2 }]. Como antes, do Lemma 2.32 obtemos que
{w1 , w2 , w3 } é linearmente independente.
Se o processo anterior continua indenidamente, teremos que existe k > n e un
conjunto {w1 , . . . , wk } que é linearmente independente, o que é absurdo segundo a
Proposição 2.25. Assim, deve existir k ≤ n tal que o processo para. Note agora

28
que neste caso, o conjunto {w1 , . . . , wk } é uma base de W. Isto prova que W é
nitamente gerado e que dim(W ) ≤ n.
Mostremos agora (2). Suponha por absurdo que {u1 , . . . , un } não é una base.
Como este conjunto é linearmente independente, temos que {u1 , . . . , un } não é um
conjunto gerador. Logo, existe un+1 ∈ V tal que un+1 ∈ / [{u1 , . . . , un }].
Mais
ainda, do Lemma 2.32 segue-se que {u1 , . . . , un+1 } é linearmente independente. Isto
é absurdo, pois todo conjunto com mais de n = dim(V ) elementos é linearmente
dependente (veja a Proposição 2.25). Como o absurdo é consequencia de supor que
{u1 , . . . , un } não é base, podemos concluir que {u1 , . . . , un } é base de V.
Exemplo 2.34. dim Rn = n e dim Pn (R) = n + 1. Mais ainda, deixamos
É fazil ver
como exercicio mostrar que o conjunto de matrizes {Ak,l : k = 1, . . . , n, l = 1, . . . , m}
(veja Exemplo 1.42) é uma base de M (n, m) e que dim M (n, m) = nm.

Teorema 2.35. [Completamento] Suponha {u1 , . . . , ur } ⊂ V é linearmente inde-


pendente e que dim V = n > r > 0. Então existem vetores ur+1 , . . . , un tais que
{u1 , . . . , ur , ur+1 , . . . , un } é uma base de V.
Prova: Pelo Teorema 2.29 vemos que {u1 , . . . , ur } não pode ser base de V e como
este conjunto é linearmente independente concluimos que {u1 , . . . , ur } não é un con-
junto gerador de V. Logo, existe um vetor ur+1 ∈ V tal que ur+1 ∈ / [{u1 , . . . , ur }].
Mais ainda, do Lema 2.32 obtemos que {u1 , . . . , ur , ur+1 } é un conjunto linearmente
independente.
Agora temos duas possibilidades, r + 1 = n ou r + 1 < 1n. Se r + 1 = n, do item
(3) da Proposição 2.33 obtemos que {u1 , . . . , ur , ur+1 } é uma base de V , e a prova
estaria completa. Se r + 1 < n podemos fazer como antes e obter um vetor ur+2 tal
que {u1 , . . . , ur , ur+1 , ur+2 } é linearmente independente.
Continuando com a ideia anteriorm em n − r − 2 passos teremos um conjunto da
forma {u1 , . . . , ur , ur+1 , ur+2 , ur+3 . . . , un } que é linearmente independente. Como
este conjunto possui n elementos e é linearmente independente, do item (2) da Pro-
posição 2.33 podemos concluir que {u1 , . . . , ur , ur+1 , ur+2 , . . . , un } é uma base de V .
A prova está completa.

Exemplo 2.36. Achar uma base do espaço R3 contendo o vetor (1, 1, −1).
3
Como dim(R ) = 3, precisamos achar vetores (a, b, c), (x, y, z) de modo
que o
conjunto {(a, b, c), (x, y, z), (1, 1, −1) seja linearmente independente. Do Exemplo
2.22 sabemos que {(a, b, c), (x, y, z), (1, 1, −1) é linearmente independente se
 
1 a x
det  1 b y  = x(b + c) − y(a + c) + z(b − a) ̸= 0.
−1 c z

Em particular, usando (a, b, c) = (0, 1, 1) e (x, y, z) = (0, 0, 1) temos que o deter-


minante anterior é um, de onde segue que o conjunto {(0, 1, 1), (0, 0, 1), (1, 1, −1)} é
uma base de R3 .
No próximo resultado estudamos a dimensão do espaço soma.

Teorema 2.37. Suponha que V é nitamente gerado e que U , W são subespaços


vetoriais de V . Então
dim(U + W ) = dim U + dim W − dim U ∩ W. (2.38)

29

Prova: Da Proposição 2.33 e do Teorema 2.24 segue-se
∩ que U, W, U W e U +W
possuim bases. Seja {v1 , . . . , vm } é uma base de U W. Como {v1 , . . . , vm } ⊂ U
é un conjunto linearmente independente, do Teorema 2.35 sabemos que existe un
conjunto de vetores {u1 , . . . , up } ⊂ U {u1 , . . . , up , v1 , . . . , vm } é base de U.
tal que
De maneira similar, vemos que existe un conjunto de vetores {w1 , . . . , wm } ⊂ W tal
que {w1 , . . . , wq , v1 , . . . , vm } é uma base W.
A seguir mostraremos que {u1 , . . . , up , w1 , . . . , wq , v1 , . . . , vm } é uma base de U +
W . Para começar, vejamos que {u1 , . . . , up , w1 , . . . , wq , v1 , . . . , vm } é linearmente
independente.
Suponha que αi , βj , δk são números reais tais que

α1 u1 + · · · + αp up + β1 w1 + · · · + βq wq + δ1 v1 + · · · + δm vm = 0. (2.39)

De (2.39) vemos que



q ∑
p ∑
m
βi wi = − αi u i − δi vi . (2.40)
i=1 i=1 i=1
Como os vetores o lado direito pertencem a
∑q U e os vetores
∩ que aparecem do lado
esquerda pertecem a W , segue-se que β w
i=1 i i ∈ U W . Usando agora que
{v1 , . . . , vm } é base de U ∩ W , temos que existem números reais γi , i = 1, . . . , m
tais que

q
βi wi = γ1 v1 + · · · + γm vm ,
i=1
∑q ∑m
de onde obtemos que i=1 βi wi = 0. Como {w1 , . . . , wq , v1 , . . . , vm } é
− i−1 γi vi
linearmente independente, segue-se queγ1 =∑. . . = γm = ∑
β1 = . . . = βq = 0.
p p
Voltando agora a (2.40), obtemos que α
i=1 i iu + i=1 δi vi = 0, de onde se
deduz que α1 = . . . = αp = δ1 = . . . = δm = 0 pois {u1 , . . . , up , v1 , . . . , vm } é
linearmente independente.
Do anterior temos que todos os coecientee em (2.39) são zero, o que implica que
{u1 , . . . , up , w1 , . . . , wq , v1 , . . . , vm } é linearmente independente.
Vejamos agora que {u1 , . . . , up , w1 , . . . , wq , v1 , . . . , vm } é um conjunto gerador de
U + W . Seja v ∈ U + W e suponha que v = u + w com u ∈ U e w ∈ W .
Como {u1 , . . . , up , v1 , . . . , vm } é uma base de U , podemos escrever u na forma
∑ ∑
u = pi=1 αi ui + m i=1 βi vi onde αi , . . . , αp , β1 , . . . , βm são números reais. Similar-

mente, como {w1 , . . . , wq , v1 , . . . , vm } é base de W , existem números reais αi , . . . , αq ,

′ ′
∑q ′
∑m ′
β1 , . . . , βm tais que v = i=1 αi wi + i=1 βi vi . Do anterior vemos que

p ∑
m ∑
m

v =u+w = αi ui + (βi + βi )vi + αi′ wi ,
i=1 i=1 i=1

o que prova que {u1 , . . . , up , w1 , . . . , wq , v1 , . . . , vm } é um conjunto gerador de U +W .


Como {u1 , . . . , up , w1 , . . . , wq , v1 , . . . , vm } é linearmente independente e gerador
de U + W , concluimos que este conjunto é uma base de U + W . Para nalizar note
que

dim(U + W ) = p + q + m
= (p + m) + (q + m) − m

= dim U + dim W − dim U W,
o que completa a prova.

30
Exemplo 2.41. Achar uma base para os espaçõs U, W, U ∩ W e U + W sendo
U = {p ∈ P3 (R) : p(0) = p(1) = 0} W = {p ∈ P3 (R) : p(−1) = 0}.
e
Para comecar estudemos o espaço U . Seja p ∈ U e suponha que p(x) = a0 +
a1 x + a2 x2 + a3 x3 . Como p(0) = 0 segue que a0 = 0 e p(x) = a1 x + a2 x2 + a3 x3 .
Usando agora que p(1) = 0 obtemos que a1 = −a2 − a3 e que p pode ser representado
na forma

p(x) = −(a2 + a3 )x + a2 x2 + a3 x3 = a2 (x2 − x) + a3 (x3 − x),


o que implica que U = [x2 − x, x3 − x].
Mostraremos agora que {x − x, x − x} é linearmente independente. Se α, β são
2 3

números reais tais que α(x − x) + β(x − x) = 0 então −(α + β)x + αx + βx = 0,


2 3 2 3

de onde obtemos que −(α + β) = α = β = 0 pois os vetores x, x , x são linearmente


2 3

independentes. Isto prova que {x − x, x − x} é linearmente independente o que


2 3

implica que {(x − x), (x − x)} é uma base de U e dim(U ) = 2.


2 3

Estudemos agora o conjunto W . Suponha que p ∈ W e p(x) = a0 + a1 x + a2 x +


2

a3 x . Como p(−1) = 0, temos que a0 − a1 + a2 − a3 = 0 e que a1 = a0 + a2 − a3 .


3

Assim,

p(x) = a0 + (a0 + a2 − a3 )x + a2 x2 + a3 x3
= a0 (1 + x) + a2 (x2 + x) + a3 (x3 − x),
de onde vemos que {1 + x, x2 + x, x3 − x} é um conjunto gerador de W .
Por outro lado, se α(1+x)+β(x +x)+γ(x −x) = 0 temos que α+(α+β −γ)x+
2 3

βx + γx = 0, de onde segue-se que α = (α + β − γ) = γ = β = 0 pois os vetores


2 3

1, x, x2 , x3 são linearmente independentes. Isto prova que {1 + x, x2 + x, x3 − x} é


um conjunto linearmente independente de W .
Do anterior podemos concluir que {1 + x, x + x, x − x} é uma base de W e que
2 3

dim(W ) = 3.
Achemos agora uma base de U ∩ W . Se p = a0 + a1 x + a2 x + a3 x ∈ U ∩ W
2 3

então p(0) = p(1) = p(−1) = 0, de onde obtemos




a0 = 0
a0 + a1 + a2 + a3 = 0


a0 − a1 + a2 − a3 = 0
e que a0 = a2 = 0 e a1 = −a3 . Portanto, p pode ser escrito na forma p(x) =
−a1 (x3 − x) o que permitr deduzir que {x3 − x} é uma base de U ∩ W e que
dim(U ∩ W ) = 1.
Para nalizar, note que do Teorema 2.37 temos que dim(U + W ) = dim(U ) +
dim(W ) − dim(U ∩ W ) = 2 + 3 − 1 = 4 o que implica que W + U = P3 (R) pois
dim(P3 (R)) = 4.
[( )]
1 1
Exemplo 2.42. Sejam U = {A ∈ M (2, 2) : AT = A} e W =
0 1
. Calcule-

mos a dimensão dos espaços U, W, U ∩ W U + W(


e .
)
a b
Para começar, estudemos o espaço U . Se A = ∈U então A = AT , de
c d
onde vemos que c = b. A é da forma
Assim,
( ) ( ) ( )
1 0 0 1 0 0
A=a +b +d ,
0 0 1 0 0 1

31
( ) ( ) ( )
1 0 0 1 0 0
e U A={
é gerado por , , }. Mais ainda, como A é linear-
0 0 1 0 0 1
mente independente obtemos que A é uma base de U e que dim(U ) = 3.
( )
1 1
É obvio que é uma base de W e que dim W = 1.
0 1
Estudemos agora o espaço U ∩ W . Se A ∈ U ∩ W então A ∈ W e A é da forma
( )
α α
A= . Usando agora que A ∈ U , obtemos que α = 0 e que A é a matriz
0 α
nula. Portanto, U ∩ W = {0} e dim U ∩ W = 0.

Pelo Teorema 2.37 temos que dim(U + W ) = dim U + dim W − dim U ∩ W = 4,


de onde concluimos que U + W = M (2, 2) pois U + W é um subespaço vetorial de
M (2, 2) e dim M (2, 2) = 4.

Exemplo 2.43. Sejam U = {p ∈ P2 (R) : p′ = 0}, W = {p ∈ P2 (R) : p(0) = p(1) =


0} subespaços vetoriais de W = P2 (R). Estudemos as dimensão dos espaços U, W,
U ∩ W e U + W.
Para começar vejamos o espaço p = a0 + a1 t + a2 t2 ∈ U então p′ (t) =
U. Se
a1 + 2a2 t = 0 para todo t ∈ R, de onde segue que a1 = a2 = 0. Portanto, p é o
polinomio constante p(t) = a0 , {1} é uma base de U e dim U = 1.

Vejamos agora o espaço W . Se p = a0 + a1 t + a2 t ∈ U então p(0) = a0 = 0 e


2

p(1) = a0 + a1 + a2 = a1 + a2 = 0 de onde vemos que a1 = −a2 e p = a1 t − a1 t2 =


a1 (t−t2 ) para todo t ∈ R. Segue disto que {t−t2 } é uma base de W e que dim W = 1.

Para estudar U W , suponha que p ∈ U ∩ W = [1] ∩ [t − t2 ]. Pelo feito anteri-
ormente, temos que existen constantes λ, µ ∈ R tais que p(t) = λ e p(t) = µ(t − t )
2

para todo t ∈ R. Em particular, para t = 1 vemos que p(1) = µ(1 − 1 ) = 0 de


2

onde obtemos que λ = 0 e que p(t) = 0 para todo t ∈ R. Portanto, U ∩ W = {0} e


dim U ∩ W = 0.
Finalmente, como dim(U + W ) = dim U + dim W − dim U ∩ W = 1 + 1 − 0 = 2
e {1, t − t } ⊂ U + W temos que {1, t − t } é uma base de U + W .
2 2

2.1.1 Coordenadas

Pelo Teorema 2.14 sabemos que cada vetor v∈V pode ser representado como com-
binação linear dos vetores da base e que esta representação é única. Usando este
fato, podemos introduzir a seguinte denição.

Denição 2.44. Suponha que B = {u1 , . . . , un } é uma base de V , que u ∈ V e que


u = α1 u1 + · · · + αn un . Os coecientes α1 , . . . , αn são chamados de coordenas
  de u
α1
 .. 
em relação à a base B . No que segue uB será o vetor dado por uB =  .  .
αn

Exemplo 2.45. O conjunto B = {(1, 1, 1), (0, 1, 1), (0, 0, 1)} é uma base de R3 . Para
determinar as coordenadas do vetor u = (1, 2, 0) em relação a base B , temos que
achar números reais α, β, γ tais que

(1, 2, 0) = α(1, 1, 1) + β(0, 1, 1) + γ(0, 0, 1) = (α, α + β, α + β + γ),

32
o que é equivalente a resolver o sistema de equações



α = 1
α+β =2


α + β + γ = 0.
 
1
A solução deste sistema é α = β = 1 e γ = −2, de modo que uB =  1  .
−2
Além do anterior, podemos achar vB para um vetor generico v = (x, y, z). Para
fazer isto temos que resolver o sistema



α = x
α+β =y


α + β + γ = z,
 
x
que tem como solução α = x, β = y − x e γ = z − y + x. Assim, uB =  y − x  .
z−y+x

Exemplo 2.46. Mostrar que o conjunto de polinômios B = {1, x, x2 − x} é uma


2
base de P2 (R) e achar as coordenadas do polinômio u = 1 + x + x em relação a B.
Encontre também as coordenadas de um polinômio generico (p(x) = a0 +a1 x+a2 x )
2

em relação a B.

Como dim(P2 (R)) = 3, para mostrar que {1, x, x2 − x} é uma base de P2 (R) é
suciente provar que {1, x, x − x} é linearmente independente. Se α, β, γ são tais
2

que α + βx + γ(x − x) = 0 para todo x ∈ R então α + (β − γ)x + γx = 0 para todo


2 2

x ∈ R, de onde obtemos que α = (β − γ) = γ = 0 pois os polinomios 1, x, x2 são


linearmente independentes. Do anterior é obvio que e α = β = γ = 0 o que mostra
que {1, x, x − x} é uma base de P2 (R).
2

Para achar uB , temos que escrever u como combinação linear dos polinomios
em {1, x, x − x}, o que é equivalente a encontrar números reais α, β, γ tais que
2

u = 1 + x + x2 = α1 + βx + γ(x2−  x). A partir desta equação obtemos que α = 1,


1
β = 2 e que γ = 1. Assim, uB = 2 .
1
2
Suponha agora que p(x) = a0 + a1 x + a2 x . Para achar as coordenadas de
p en relação a B temos que achar α, β, γ de modo que p = a0 + a1 x + a2 x2 =
α1 + βx + γ(x2 − x). A partir disto, obtemos o sistema


α = a0
β − γ = a1


γ = a2 ,

que tem por solução


  α = a0 , β = a1 + a2 e γ = a2 . Do anterior vemos que pB =
a0
a1 + a2  .
a2

33
2.2 Exercícios
Ex. 2.47. Estude se o conjunto B é uma base do espaço V.
{ }
1. B = 1, 1 + t, 1 − t2 , 1 − t − t2 − t3 , V = P3 (R).
{( ) ( ) ( ) ( )}
1 1 2 1 0 1 0 0
2. B= , , , , V = M (2, 2).
0 0 0 0 1 0 0 2

3. B = {(1, 1, 1, 1), (1, 1, 1, 0), (1, 1, 0, 0), (1, 0, 0, 0)} , V = R4 .

Ex. 2.48. Achar uma base e a dimensão do subespaço W de V.


{ }
1. W = (x, y, z, t) ∈ R4 : x − y = 0
x + 2y + t = 0 , V = R4 .
e

( )
1 2
2. W = {X ∈ M (2, 2) : AX = X} onde A = , V = M (2, 2).
0 1
( )
1 0
3. W = {X ∈ M (2, 2); AX = XA} onde A= e V = M (2, 2).
1 1

Ex. 2.49. Nos seguintes casos, achar uma base e a dimensão de U, W, U + W e


U ∩ W.
{ }
1. U = (x, y, z) ∈ R3 : x + y + z = 0 , W = {(x, y, 0) : x, y ∈ R} , V = R3 .
{ }
2. U = {A ∈ M (2, 2) : tr (A) = 0} ,W = A ∈ M (2, 2) : AT = −A e V é o es-
paço M (2, 2). Lembre que a traça de A, denotada por tr (A), é a soma dos
elementos da diagonal principal de A.

Ex. 2.50. Achar as coordenadas do vetor u = (−1, 8, 5) ∈ R3 em relação as ba-


ses de R A = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} B = {(0, 0, 1), (0, 1, 1), (1, 1, 1)} e C =
3

{(1, 2, 1), (0, 3, 2), (1, 1, 4)}. Achar as coordenadas do vetor u = (x, y, z) ∈ R3 em
relação as bases anteriores.

Ex. 2.51. Achar as coordenadas do polinômio p ∈ P3 (R) dado por p(t) = 10+t2 +2t3
em relação as bases de P3 (R), A = {1, t, t2 , t3 }, B = {1, 1 + t, 1 + t + t2 , 1 + t + t2 + t3 }
e C = {4 + t, 2, 2 − t , t + t }. Achar representação do polinômio generico p =
2 3
2 3
a0 + a1 x + a2 x + a3 x em relação as bases anteriores.
( )
2 5
Ex. 2.52. Achar as coordenadas do vetor −8 7
em relação a base canonica
{( ) ( ) ( ) ( )}
1 0 1 1 1 1 1 1
de M (2, 2) e em relação a base , , , .
0 0 0 0 1 0 1 1
( ) ( )
1 0 1 1
Ex. 2.53. Achar uma base M (2, 2) que contenha os vetores
1 0
e
0 0
.

Ex. 2.54. Suponha que {u1 , . . . , un } é uma base de V . Mostre que {u1 , u1 +u2 , u1 +
u2 + u3 , . . . , u1 + · · · , un } é um base de V. Prove que {α1 u1 , . . . , αn un } é uma base
de V quando todos os números αj são diferentes de zero.

34
2.2.1 Prova teste 1 de 2011

1. Seja T : R3 → M (2, 2) a função denida por T : R3 → M (2, 2) dada por

( )
−z z − y
T (x, y, z) =
x 0

(a) Mostre que T é uma transformação linear.

(b) Achar Ker(T ), a dimensão e uma base.

(c) Achar Img(T ), a dimensão e uma base.

2. Suponha que U eW são subespaços vetorias de um espaço vetorial X .



(a) Mostre que U W e U + W são subespaços vetorias de X .
(b) Suponha que dim(X) = n, dim(U ) > n/2 e que dim(W ) > n/2. Mostre
que U ∩ W ̸= {0}.

3. SejaX = M (n, n) munido das operações usuais e S o conjunto denido por


S = {A ∈ X : A = −AT } (lembre que AT = (aj,i ) se A = (ai,j )). Mostre que
S é um espaço vetorial com as operações de X . Achar a dimensão e uma base
para S.

2.2.2 Prova Teste 2 de 2012

1. Mostre que o conjunto U = { (x, y, z) ∈ R3 | 2x − 2y = z } é um subespaço


vetorial de R . Achar un conjunto gerador de
3 U.

2. Mostre que o conjunto W = { (x, y, z) ∈ R3 | 2x = y − z } é um subespaço


vetorial de R . Achar un conjunto gerador de
3 W.

3. Achar un conjunto gerador para U + W. É verdade que R3 = U ⊕ W ?


(justique)

4. Dena o conceito de combinação linear e represente o polinomio p(x) = x2


como combinação linear dos vetores { 1, 2 − x, 2 + x + x2 } de P (2).

5. Sejam P3 (R) os espaço de polinomios de grau menor o igual a 3 e

U = {p ∈ P3 (R) : p(1) = p(0) = 0} .

O conjunto é um espaço vetorial com as operações de P3 (R)? Em caso arma-


tivo, achar un conjunto gerador de U.

2.2.3 Prova 1 do ano 2011


([ ]) [ ]
a b 0 a
1. Seja T : M (2, 2) → M (2, 2) a função dada por T =
c d 2b c

(a) Mostre que T é uma transformação linear.

(b) Achar o núcleo de T, a dimensão do núcleo e uma base.

(c) Achar Img(T ), a dimensão de Img(T ), e uma base.

35
2. Seja U = {(1, 2, 3), (1, 1, 1), (2, 8, 14)} e W o conjunto denido por

W = {α(1, 2, 3) + β(1, 1, 1) + γ(2, 8, 14) : α, β, γ ∈ R}.

(a) Mostre que W é subespaço vetorial de R3 .


(b) Achar uma base para W e a dimensão de W.

3. SejamX = M (3, 3) com as operações usuais e S = {A ∈ X : A = −AT } (Note


T
que A = (aj,i ) se A = (ai,j )). Mostre que S é um subespaço vetorial de X .
Achar a dimensão e uma de S.

2.2.4 Prova 1 de 2012

1. Seja V um espaço vetorial e {u1 , . . . , un } ⊂ X .

(a) Dena os conceitos de combinação linear, conjunto l.i. e espaço gerado


por {u1 , . . . , un },
(b) mostre que [{u1 , . . . , un }] é um espaço vetorial de V,
(c) [{(1, 2, 3), (4, 5, 6), (1, 0, 0)}] = R3 ? (justique ! )

2. Mostre que o conjunto U = { (x, y, z) ∈ R3 : x − 2y = 3z } é um subespaço


vetorial de R . Achar un conjunto gerador de
3 U.

3. Mostre que o conjunto W = { (x, y, z) ∈ R3 : 4x = 5y − 6z } é um subespaço


vetorial de R . Achar un conjunto gerador de
3 W.

4. Achar um conjunto gerador de U + W. É verdade que R3 = U ⊕ W ? (justi-


que!)

36
Capítulo 3

Transformações Lineares

Neste capitulo estudaremos um tipo especial de funções que são denidas entre es-
paços vetorias. Este tipo de funções, chamadas de transformações lineares, nos
permitiram comparar os espaços vetorials desde diferentes pontos de vista. Em par-
ticular, veremos que dois espaços vetoriais de igual dimensão são (do ponto de vista
da algebra linear) iguais.
No que segue, U, V são espaços vetoriais e para simplicar a escrita, usaremos
a mesma notação para as operações em U e em V (mas lembre que essas operações
podem ser diferentes,.. muito diferentes!!). Começamos com a seguinte denição.

Denição 3.1. Uma função T : U → V é chamada transformação linear se T (λu) =


λT (u) e T (u + v) = T (u) + T (v) para todo u, v ∈ U e todo λ ∈ R.
Observação 3.2. No que segue, L(U, V ) denotará o conjunto formado por todas as
transformações lineares denidas de U em V .

Deixamos como exercicio a prova do seguinte Lema.

Lema 3.3. Uma função T : U → V é uma transformação linear ⇔ T (u + µv) =


T (u) + µT (v) para todo u, v ∈ U e cada µ ∈ R.
Vejamos alguns exemplos de transformações lineares.

1. A função T :U →V dada por T (u) = 0 para todo u ∈ U , é uma transformação


linear.

2. A função T :U →U dada por T (u) = u é uma transformação linear. Esta


função é chamada de transformação identidade e no que segue será notada
simplesmente por I.
3. Seja T : Pn (R) → Rn+1 a função dada por T (a0 + a1 x + · · · + an xn ) =
(a0 , . . . , an ).
Para provar que T é uma transformação linear, usaremos o Lemma 3.3. Sejam
u, v ∈ Pn (R), α ∈ R e suponha que u = a0 + a1 x + a2 x2 + a3 x3 + an xn e
v = b0 + b1 x + b2 x2 + b3 x3 + bn xn . Da denição de T vemos que
T (u + λv) = T ((a0 + αb0 ) + (a1 + αb1 )x . . . + (an + αbn )xn )
= ((a0 + αb0 ), (a1 + αb1 ), . . . + (an + αbn ))
= (a0 , a1 , . . . , an ) + α(b0 , b1 , . . . , bn )
= T (u) + αT (v),

37
o que prova que T é uma transformação linear.

4. Seja A ∈ M (m, n). Denimos a função T : M (n, 1) → M (m, 1) por T (X) =


AX . A função T é uma transformação linear.
   
u1 v1
 .   . 
Suponha que A = (ai,j )i,j e sejam u =  ..  e v =  ..  vetores de

un vn
M (n, 1). Para mostrar que T (u) + αT (v) = T (u + αv) é suciente mostrar
que as coordenadas de T (u + αv) são iguais as coordenadas de T (u) + αT (v).
Da denição do produto A(u + αv) vemos que a coordenada i de A(u + αv)
∑n
é dada por j=1 ai,j (uj + αvj ). Similarmente, vemos que a coordenada
∑n i de
T (u) = Au e a coordenada i de T (v) = Av são dadas por
∑ j=1 ai,j uj e
n
∑ a v
j=1 i,j j respectivamente,
∑n de onde segue que a coordenada i de Au + αAv
n
é j=1 ai,j uj + α j=1 ai,j vj .
Do anterior é claro que para todo i = 1, . . . , n, a coordenada i de T (u + αv) é
igual a coordenada i de T (u) + αT (v). Assim, T (u) + αT (v) = T (u + αv) o
que implica que T é uma transformação linear.

3.0.5 Imagem e Núcleo de uma transformação

Antes de introduzir a imagem e Núcleo de uma transformação linear, lembremos


alguns conceitos da teoria de funções.

Denição 3.4. Sejam X, Y conjuntos, A ⊂ X , B ⊂ Y e f : X → Y função. A


imagem de A por f é o subconjunto de Y dado por f (A) = {f (a) : a ∈ A} e a
imagem inversa de B ⊂ Y por T é o subconjunto de X denido por f −1 (B) = {x ∈
X : T (x) ∈ B}.
Denição 3.5. Sejam X, Y conjuntos e f : X → Y uma função. Dizemos que
1. f é injetora se f (x) = f (z) ⇔ x = z,
2. f é sobrejetora se f (X) = {f (x) : x ∈ X} = Y (equivalentemente, para todo
y ∈ Y existe x ∈ X tal que f (x) = y ),
3. f é bijetora se f é injetora e sobrejetora,
4. f é inversivel, se existe uma função g : Y → X tal que g ◦ f (x) = x para todo
x ∈ X e f ◦ g(y) = y para todo y ∈ Y . Neste caso, a função g será denotada
por f −1 .
Lema 3.6. Se T ∈ L(U, V ) é inversivel então a inversa de T é única e T −1 é uma
transformação linear.
Prova: Suponha que R, S ∈ L(V, U ) são inversas de T . Para v∈V temos que

Sv = S ◦ IV v = S ◦ (T ◦ R)v = (S ◦ T ) ◦ Rv = IU ◦ Rv = Rv
o que implica que S = R.
Para mostrar que T −1 x, y ∈ U e α ∈ R.
é uma transformação linear, xemos
Como T é sobrejetora, existem vetores v, w ∈ U tais que T (u) = x e T (w) = y . Mais
ainda, notando que T (u + αw) = T (u) + αT (w) = u + αy segue que T
−1 (x + αy) =
−1 −1
u + αw = T (x) + αT (y), o que prova que T −1 é linear.

38
Proposição 3.7. Suponha que T : U → V uma transformação linear.

1. Se W é um subespaço vetorial de U então T (W ) é um subespaço vetorial de


V. Mais ainda, se {w1 , . . . , wn } é um conjunto gerador de W então o conjunto
{T (w1 ), . . . , T (wn )} é gerador de T (W ) ( T (W ) = [{T (w1 ), . . . , T (wn )}]).

2. Sejam 0U e 0V o zero de U e o zero de V respectivamente. Então T (0U ) = 0V .

3. Se W é um subespaço vetorial de V, então T −1 (W ) ̸= ∅ e T −1 (W ) é um


subespaço vetorial de U.

Prova: Mostremos (1). Para provar que T (W ) é subespaço vetorial de U temos que
mostrar que x + αy ∈ T (W ) para todo x, y ∈ T (W ) e todo α ∈ R. Se x, y ∈ T (W ),
então existem u, w ∈ W tais que x = T (u) e y = T (w). Usando que T é uma
transformação linear, vemos que

x + αy = T (u) + λT (w) = T (u) + T (αw) = T (u + αw),

o que implica que x + αy ∈ T (W ) pois u + αw ∈ W .


Suponha agora que {w1 , . . . , wn } é um conjunto
∑ngerador de W . Se w ∈ W , então
existem números reais α1 , . . . , αn tais que w = αi wi . Usando
∑i=1
n ∑n agora que T é
uma transformação linear vemos que T (w) = T ( i=1 α i w i ) = i=1 αi T (wi ) o que
implica que T (w) ∈ [{T (w1 ), . . . , T (wn )}]. Como w é arbitrário, do anterior vemos
que T (W ) ⊂ [{T (w1 ), . . . , T (wn )}].
Notando que T (W ) é um espaço vetorial e que {T (w1 ), . . . , T (wn )} ⊂ T (W ) é
claro que [{T (w1 ), . . . , T (wn )}] ⊂ T (W ). Do anterior, T (W ) ⊂ [{T (w1 ), . . . , T (wn )}]
e [{T (w1 ), . . . , T (wn )}] ⊂ T (W ) o que mostra que T (U ) = [{T (w1 ), . . . , T (wn )}].
A prova de prova (2) é obvia pois T (00U ) = 0T (0U ) = 0V .
Para nalizar provemos (3). Como T (0U ) = 0V segue-se que 0U ∈ T
−1 (W ),

de modo que T
−1 (W ) = −1
̸ ∅. Para mostrar que T (W ) é subsepaço vetorial de U ,
xemos x, y ∈ T
−1 (W ) e α ∈ R. Pela denição de T −1 (W ) temos que T (x), T (y) ∈
W o que implica que T (x) + αT (y) ∈ W pois W é um espaço vetorial. Usando isto
segue que T (x + αy) = T (x) + λT (y) ∈ W o que mostra que x + λy ∈ T
−1 (W ). Isto

prova que T
−1 (W ) é um subespaço vetorial de U. A prova está completa.

Pelo item (1) da proposição anterior, temos que uma transformação linear T :
U → V é completamente determinada pelos valores que ela assume numa base de U .
De fato, se {w1 , . . . , wn } é uma base de U e u ∈ U , então u pode ser escrito na forma
∑ ∑
u = ni=1 αi wi de onde obtemos que T (u) = ni=1 αi T (wi ). Logo, se conhecemos
os valores T (wi ) conhecemos T (u) para qualquer u. Mais ainda, como veremos no
próximo Lemma, se {u1 , . . . , un } e {v1 , . . . , vn } são vetores de U e V respectivamente,
e {u1 , . . . , un } é uma base de U então existe uma transformação linear T : U → V
tal que T (ui ) = vi para cada i.

Lema 3.8. Suponha que {u1 , . . . , un } é uma base e U e que {v1 , . . . , vn } ⊂ V . Então
existe uma única transformação linear T : U → V tal que T (ui ) = vi para cada i.
Prova: Como {u1 , . . . , un∑
} é uma base e U , para u ∈ U existem números reais
n
α1 , . . . , u∑
n tais que u = αi ui . Usando este fato, denimos T : U → V por
i=1 ∑
T (u) = ni=1 αi vi quando u = ni=1 αi ui . Armamos que T é função e que T é uma
transformação linear.

39
Da denição de T e do fato que os coecientes na representação deu ∈ U são
unicos, segue queT é uma
∑n função. Para ∑ ver que T
n ∑n u, x ∈ U
é linear, suponha que
e que α ∈ R. Se u = i=1 αi ui e x = i=1 βi ui então αu + x = α i=1 αi ui +
∑ n ∑n
β u
i=1 i i = i=1 (αα i + β )u
i i de onde segue que


n ∑
n ∑
n
T (αu + x) = (ααi + βi )vi = α αi vi + βi vi = αT (u) + T (x),
i=1 i=1 i=1

o que prova que T é linear. Mais ainda, como ui = 0u1 + . . . , 1ui + . . . 0un temos que
T (ui ) = vi para cada i, o que prova que T é uma transformação como a requerida.
Para mostrar que é unica, suponha que S : U → V∑é uma outra transformação
linear tal que S(ui ) = T (ui ) = vi para cada i. Se u = ni=1 αi ui ∈ U então

∑n ∑
n ∑
n
S(u) = S( αi u i ) = αi S(ui ) = αi vi = T (u),
i=1 i=1 i=1

o que implica que S(u) = T (u) para todo u ∈ U. Isto prova que T = S.
Observação 3.9. Note que na prova do Lema 3.8 aparece como denir a transfor-
∑n
mação T∑: U → V tal que T (ui ) = vi para cada i. De fato, se u= i=1 αi ui então
T (u) = ni=1 αi vi .
Deixamos como exercicio provar o seguinte Lemma.

Lema 3.10. Suponha que {u1 , . . . , un } é um conjunto linearmente independente de


U e que {v1 , . . . , vn } ⊂ V . Então existe uma transformação linear T : U → V tal que
T (ui ) = vi para cada i. Mais ainda, se {u1 , . . . , un } não é uma base então existem
innitas transformações que vericam as condições requeridas.
Exemplo 3.11. Achar uma transformação linear T : R3 → R3 tal que T (R3 ) seja
gerada por {(1, 2, 0), (1, 1, 1)}.
Deniremos uma transformação T tal que T (1, 0, 0) = (1, 2, 0), T (0, 1, 0) =
(1, 1, 1) e T (0, 0, 1) = (0, 0, 0). Se (x, y, z) ∈ R3 , temos que

T (x, y, z) = xT (e1 ) + yT (e2 ) + zT (e3 )


= x(1, 2, 0) + y(1, 1, 1)
= (x + y, 2x + y, y).

Assim, a transformação linear dada por T (x, y, z)(x+y, 2x+y, y) é como a requerida.
Exemplo 3.12. Achar uma transformação linear T : R2 → R2
tal que T (1, 2) =
(3, −1) T (0, 1) = (1, 2).
e
Como {(1, 2), (0, 1)} é uma base de R , para (x, y) ∈ R existem números reais
2 2

α, β tais que (x, y) = α(1, 2) + β(0, 1) = (α, 2α + β). Mais ainda, é fazil ver que neste
caso α = x e β = (y − 2x).
Da Observação 3.9 temos que a transformação requerida é dada por

T (x, y) = T (x(1, 2) + (y − 2x)(0, 1))


= xT (1, 2) + (y − 2x)T (0, 1)
= x(3, −1) + (y − 2x)(1, 2)
= (x + y, 2y − 5x).

40
Introduzimos agora o conceito de núcleo de uma transformação linear. No que
segue desta apostilha, usaremos a mesma notação “0” para o zero de algum espaço
vetorial.

Denição 3.13. Seja T ∈ L(U, V ). O núcleo de T é o subconjunto de U denido


por T −1 ({0}) = {u ∈ U : T (u) = 0}. No que segue usaremos a notação N (T ) para o
núcleo de T .
Lema 3.14. Suponha que T ∈ L(U, V ). Então o núcleo de T é um subespaço vetorial
de U . Mais ainda, T é injetora ⇔ N (T ) = {0}.
Prova: A Primeira propriedade segue diretamente de Proposição 3.7 pois {0} é um
subespaço vetorial de V e N (T ) = T −1 ({0}).
Mostremos agora a segunda propriedade. Suponha agora que T é injetora e seja
x ∈ N (T ). Como T (x) = 0V , T (0) = 0 (veja o item (2) da Proposição 3.7) e T é
injetora, segue que x = 0U . Isto prova que N (T ) = {0}.
Suponha agora que N (T ) = {0} e que x, y ∈ U são tais que T (x) = T (y). Como T
é linear, vemos que T (x−y) = T (x)−T (y) = 0 o que implica que x−y ∈ N (T ) = {0}
e que x = y . Isto mostra que T é injetora. A prova está completa.

Exemplo 3.15. Sejam θ∈R e T : R2 → R2 a transformação linear denida por

T (x, y) = (x cos θ − y sen θ, x sen θ + y cos θ).

Se (x, y) ∈ N (T ) então T (x, y) = (x cos θ − y sen θ, x sen θ + y cos θ) = (0, 0), de


onde segue que

( )( ) ( )
cos(θ) − sen (θ) x 0
= .
sen (θ) cos(θ) y 0
Como A matriz anterior é inversivel (o determinante da matriz anterior é 1),
obtemos que (x, y) = (0, 0). Assim, N (T ) = {0} o que implica que T é injetora.

Estabelecemos agora um dos mais importantes resultados da teoria de transfor-


mações lineares.

Teorema 3.16 (Teorema do Núcleo e da Imagem). Suponha que T ∈ L(U, V ) e que


U tem dimensão nita. Então dim(U ) = dim N (T ) + dim T (U ).

Prova: No que segue supomos que N (T ) ̸= {0}. Como U é um espaço de dimensão


nita, temos que N (T ) também é nitamente gerado. Suponha que {u1 , . . . , up } é
uma base de N (T ). Pelo Teorema 2.35 sabemos que existem vetores v1 , . . . , vq de U
tais que {u1 , . . . , up , v1 , . . . , vq } é uma base de U.
No que segue, mostraremos que {T (v1 ), . . . , T (vq )} é uma base de T (U ). Para
começar vejamos que {T (v1 ), . . . , T (vq )} é linearmente independente.
Suponha que α1 T (v1 ) + · · · + αq T (vq ) = 0. Como T é linear, é fazil ver que
∑q
T (α1 v1 + · · · + αq vq ) = 0, de onde segue que αi vi ∈ N (T )∑
j=1 ∑ . Usando que
{u1 , . . . , up } é uma base de N (T ), podemos supor que j=1 αi vi = pj=1 βi ui onde
q

βi são números reais. Assim,

β1 u1 + · · · + βp up − α1 v1 − · · · − αq vq = 0,

41
de onde obtemos que α1 = · · · = αq = β1 = · · · = βp = 0 pois {u1 , . . . , up , v1 , . . . , vq }
é uma base de U. Isto prova que {T (v1 ), . . . , T (vq )} é linearmente independente.
Por outro lado, como {u1 , . . . , up , v1 , . . . , vq } é uma base de U , do item (1) da
Proposição 3.7 segue que {T (u1 ), . . . , T (up ), T (v1 ), . . . , T (vq )} é um conjunto gerador
de T (U ), o que implica que {T (v1 ), . . . , T (vq )} é um conjunto gerador de T (U ). Isto
completa a prova que {T (v1 ), . . . , T (vq )} é uma base de T (U ).
Notando que {u1 , . . . , up } é base de N (T ), que {u1 , . . . , up , v1 , . . . , vq } é base
de U e que {T (v1 ), . . . , T (vq )} é uma base do espaço T (U ), vemos que dim U =
dim N (T ) + dim T (U ). A prova do caso N (T ) = {0} segue da prova anterior. Isto
completa a demostração.

Observação 3.17. Na prova do Teorema 3.16 aparece uma maneira de achar uma
base para o espaço T (U ). De fato, na prova supomos que {u1 , . . . , up } é uma base de
N (T ) e logo completamos este conjunto a uma base do espaço U que foi denotada
por {u1 , . . . , up , v1 , . . . , vq }. O conjunto {T (v1 ), . . . , T (vq )} é uma base de T (U ).

Como consequência do resultado anterior temos as seguintes propriedades.

Corolário 3.18. Suponha que T ∈ L(U, V ). Se dim U = dim V , então as seguintes


condições são equivalentes.
1. T é sobrejetora,
2. T é injetora,
3. T é bijetora,
4. T leva bases de U em bases de V, isto é, se {u1 , . . . , un } é uma base de U então
{T (u1 ), . . . , T (un )} é uma base de V.

Prova: Suponha que T é sobrejetora. Pelo teorema anterior temos que dim(U ) =
dim(N (T )) + dim(V ) dim(N (T )) = 0 e que
de onde segue que N (T ) = {0}. Agora,
do Lemma 3.14 podemos concluir que T é injetora.
Se T é injetora então dim N (T ) = 0 e do Teorema 3.16 segue dim U = dim T (U ).
Portanto, T (U ) é um subespaço de V com a mesma dimensão de V o que implica
via o item (2) da Proposição 2.33 que T (U ) = V . Isto prova que T é sobrejetora, e
como consequencia bijetora.
Suponha que T u1 , . . . , un é uma base de U. Do item (1) da
é bijetora e que
Proposição 3.7 sabemos que {T (u1 ), . . . , T (un )} é um conjunto gerador de T (U ) = V .
∑n ∑n
Por outro lado, se
∑n i=1 αi T (ui ) = 0 então T ( i=1 αi ui ) = 0 de onde obtemos que
i=1 αi ui = 0 uma vez que T é injetora. Como u1 , . . . , un é base obtemos que
α1 = . . . un = 0 o que implica que {T (u1 ), . . . , T (un )} é linearmente independente.
Assim, temos provado que {T (u1 ), . . . , T (un )} é uma base de V . Portanto, T leva
bases em bases.
Finalmente, suponha que T leva bases em bases. Seja u1 , . . . , un uma base de U.
Pela hipótese, o conjunto {T (u1 ), . . . , T (un )} é ∑
uma base de V. Assim, dado v ∈ V
n
existem números reais α1 , . . . , αn tais que v = i=1 αi T (ui ) de onde obtemos que
∑n
v = T ( i=1 αi ui ). Isto mostra que T é sobrejetora. A prova está completa.

Exemplo 3.19. Estudemos a transformação T : P2 (R) → P2 (R) denida por T (p) =


p′ + p′′ .

42
Sep(x) = a0 + a1 x + a2 x2 ∈ N (T ) então (a1 + 2a2 x) + 2a2 = 0 para todo x ∈ R.
Fazendo x = 0, seque que a1 = −2a2 e com x = −1 segue que a1 = 0. Assim, p
é o polinomio constante p = a0 . Logo, N (T ) = {a : a ∈ R} que tem por base o
polinômio {1}.
Da observação 3.17 segue que o conjunto {T x, T x } = {1, 2x + 2} é uma base da
2

imagem de T . Assim, T (P2 (R)) é um espaço de dimensão 2.

Exemplo 3.20. Achar uma transformação T ∈ L(P3 (R), P2 (R)) tal que N (T ) =
[{1 + x3 , 1 − x2 }].
Para denir a transformação T precissamos de uma base de P3 (R). Por conveni-
encia, consideramos a base {1 + x , 1 − x , 1, x}. Como queremos que o núcleo de T
3 2

seja {1 + x , 1 − x }, denimos T (1 + x ) = T (1 − x ) = 0. Mais ainda, para que o


3 2 3 2

núcleo de T seja exatamente [{1 + x , 1 − x }], denimos T (1) = 1 e T (x) = x.


3 2

Para achar uma formula explicita de T , xemos p(x) = a0 + a1 x + a2 x + a3 x ∈


2 3

P3 (R). Note agora que

T (p) = T (a0 + a2 − a3 + a1 x + a3 (1 + x3 ) − a2 (1 − x2 ))
= T (a0 + a2 − a3 ) + a1 T x + a3 T (1 + x3 ) − a2 T (1 − x2 )
= (a0 + a2 − a3 )1 + a1 x
= a0 + a2 − a3 + a1 x.

Exercício 3.21. Usando as ideias no exemplo anterior, achar uma segunda trans-
formação S ∈ L(P3 (R), P2 (R)) tal que N (S) = [{1 + x3 , 1 − x2 }].

Corolário 3.22. Se T ∈ L(U, V ), dim(V ) = 1 e T é não nula, então T é sobrejetora.

Prova: Como T é não nula, 1 = dim U = dim N (T ) + dim T (U ) ≥ dim T (U ) ≥ 1,


de onde segue que dim T (U ) = 1. Isto prova que T é sobrejetora pois dim V = 1.

Corolário 3.23. Suponha que T ∈ L(Rn , R) é não nula. Então T é sobrejetora e


existem números reais a1 , . . . , an tais que T ((x1 , . . . , xn )) = a1 x1 + . . . + an xn para
todo x = (x1 , . . . , xn ) ∈ Rn . Mais ainda, N (T ) = {(x1 , . . . , xn ) ∈ Rn : a1 x1 + . . . +
an xn = 0} e dim(N (T )) = n − 1.

Prova: Como T é não nula segue do Corolario anterior que T é sobrejetora. Um


∑n
vetor x = (x1 , . . . , xn ) ∈ Rn pode ser ∑
escrito na forma x = (x1 , . . . , xn ) = i=1 xi ei
n
de onde vemos que T ((x1 , . . . , xn )) = i=1 xi T (ei ). Assim, T ((x1 , . . . , xn )) = a1 x1 +
. . . + an xn com ai = T (ei ) e é obvio que N (T ) = {(x1 , . . . , xn ) ∈ Rn : a1 x1 + . . . +
an xn = 0}.
n
Finalmente, do Teorema 3.16 segue que n = dim(R ) = dim(N (T ))+dim T (U ) =
dim(N (T )) + 1 de onde obtemos que n − 1 = dim(N (T )). Isto completa a prova.

Exemplo 3.24. Estudemos o núcleo e a imagem da transformação


( )T : M (2, 2) →
1 2
M (2, 2) T (X) = AX − XA, onde A é a
dada por matriz A= .
0 1
( )
a b
Se X= ∈ N (T ), então AX = XA e
c d
( )( ) ( )( )
1 2 a b a b 1 2
= ,
0 1 c d c d 0 1

43
de onde obtemos o sistema de equações


a + 2c = a


b + 2d = 2a + b

c = c.


d = 2c + d

Deste sistema obtemos que c = 0, a = d. Logo, X é da forma


( ) ( ) ( )
a b 1 0 0 1
X= =a +b .
0 a 0 1 0 0
( ) ( )
1 0 0 1
Portanto, o espaço N (T ) é gerado pelas matrizes , . Mais ainda,
0 1 0 0
como estas matrizes são linearmente independentes segue que N (T ) é um espaço de
{( ) ( )}
1 0 0 1
dimensão dois e que , é uma base de N (T ).
0 1 0 0
( )
x y
Estudemos agora a imagem de T . Uma matriz Y = petence a imagen
z t
( )
a b
de T se existe uma matriz X = tal que Y = AX − XA. Equivalentemente,
c d
( ) ( ) ( )
x y a + 2c b + 2d a 2a + b
= −
z t c d c 2c + d
( )
2c 2d − 2a
=
0 −2c
( ) ( )
1 0 0 1
= 2c + 2(d − a) , (3.25)
0 −1 0 0
( ) ( )
1 0 0 1
de onde deduzimos que a imagem de T é gerada por A = { , } Como
0 −1 0 0
A é linearmente independente, obtemos que a imagem de T é um espaço vetorial de
dimensão dois e que A é uma base da imagem de T .

3.1 Isomorsmo e Automorsmo


Nesta seção estudamos o conceito de espaços vetoriais isomorfos. A isomora é um
dos conceitos mais importantes da algebra lineat, e basicamente diz que espaços
vetoriais isomorfos são iguais" do ponto de vista da algebra linear. Para comecar,
introduzimos o conceito de isomorsmo.

Denição 3.26. Uma transformação linear T : U → V é chamada isomorsmo se


T é bijetora. Se U = V dizemos que T é um automorsmo.
Denição 3.27. Os espaços U e V são isomorfos se existe um isomorsmo linear
denido de U em V .
Exemplo 3.28. As seguintes funções são isomorsmos.

1. T :U →U dada por T (u) = u,

44
2. T : Rn → Pn−1 (R) dada por T (x1 , . . . , xn ) = x1 + x2 t + · · · + xn tn−1 ,

3. T : M (m, n) → Rmn que associa a cada matriz A = (aij ) de M (m, n) o vetor


de R dado por (a1,1 , . . . , a1,n , . . . , am,1 , . . . , am,n ),
n

Teorema 3.29. Sejam U, V espaços vetoriais de dimensão nita. Os espacos U, V


são isomorfos ⇔ dim(U ) = dim(V ).
Prova: Suponha que ⇔ dim(U ) = dim(V ) e sejam {u1 , . . . , un } e {v1 , . . . , vn } bases
de U e V respectivamente. Para mostrar que os espaços são isomorfos, temos que
mostrar que existe um isomorsmo T de U V . Pelo Lemma 3.8 existe uma única
em
T ∈∑ L(U, V ) tal que T (ui ) = vi para∑cada i = 1, . ∑ . . n. Mais ainda, para x ∈ U com
x = ni=1 xi ui temos que T (x) = T ( ni=1 xi ui ) = ni=1 xi vi .
No que segue mostraremos que T é um isomorsmo entre U e V. Para mostrar
∑n
que T é injetora provaremos que N (T ) = {0}. Suponha que x = i=1 xi ui ∈ N (T ).
∑n
Como T (x) = x v
i=1 i i = 0 e {v 1 , . . . , v n } é uma base de V , segue que xi = 0 para
todo i e que x = 0. Isto prova que N (T ) = {0}.
Vejamos agora que T é sobrejetora. Se y ∈ Y então y pode ser representado
∑n ∑n
na forma y =
∑n i=1 yi vi . ∑Seja x ∈ U denido por x = i=1 yi ui . É obvio que
n
T (x) = T ( i=1 yi ui ) = y v
i=1 i i = y o que implica que y ∈ T (U ). Como y é
arbitario, podemos concluir que T (U ) = V . Portanto, T é sobrejetora.
Dos passos anteriores segue que T é um isomorsmo e que os espaços U e V são
isomorfos.
Suponha agora que os U, V são isomorfos. Sejam T :U →V um isomorsmo
e {u1 , . . . , un } uma base de U. Pelo Corolario 3.18 sabemos que T leva bases de
U em bases de V , de onde obtemos que {T u1 , . . . , T un } é uma base de V e que
dim(U ) = dim(V ). A prova está completa.

Exemplo 3.30. T : R3 → R3 a transformação linear dada por T (x, y, z) =


Seja
(x − y, x − z, z − y). Se T (x, y, z) = (0, 0, 0) então x − y = 0, x − z = 0 e z − y = 0
de onde obtemos que x = y = z . Logo, N (T ) = [(1, 1, 1)] e T não é injetora. Em
particular, notamos que T não é um isomorsmo.

3.1.1 O Espaço Vetorial L(U, V )


Sejam T, S ∈ L(U, V ) e α ∈ R. Como V é um espaço vetorial, podemos denir as
funções T + S : U → V e (αT ) : U → V por (T + S)(u) = T (u) + S(u) e (αT )(u) =
αT (u). Mais ainda, é fazil mostrar as funções S +T e αT são transfromações lineraes
de U em V . Deixamos como exercicio a prova do seguinte Lemma.

Lema 3.31. Sejam T, S ∈ L(U, V ) e α ∈ R. Então as funções T + S : U → V e


(αT ) : U → V são transformações lineares de U em V .

Teorema 3.32. O conjunto L(U, V ) munido das operações S + T e αT denidas


anteriormente é um espaço vetorial e dim L(U, V ) = dim(U ) dim(V ).
Prova: A prova que L(U, V ) é um espaço vetorial é deixada como exercicio. Para
calcular a dimensão de L(U, V ), temos que achar uma base deste espaço.
Sejam {u1 , . . . , un } e {v1 , . . . , vm } bases de U e V respectivamente. Para 1 ≤ i ≤
n e 1 ≤ j ≤ m denotamos por Ti,j a única transformação linear Ti,j : U → V tal que

45

Ti,j (ui ) = vj . Note que Tij (x) = xi vj quando x = ni=1 xi ui . Mostraremos a seguir,
que {Tij : 1 ≤ i ≤ n, 1 ≤ j ≤ m } é uma base de L(U, V ).
Provemos para começar que {Tij : 1 ≤ i ≤ n, 1 ≤ j ≤ m } é linearmente
∑n ∑m
independente. Se i=1 j=1 aij Tij = 0, da denição das funções Ti,j segue que


n ∑
m ∑
m ∑
n ∑
m ∑
m
0= aij Tij (uk ) = aij Tij (uk ) = akj Tkj (uk ) = akj vj .
i=1 j=1 j=1 i=1 j=1 j=1

Usando agora que os vetores v1 , . . . , vm são linearmente independentes, obtemos que


ak1 = . . . = akm = 0. Notando agora que k é arbitrario, deduzimos que todos os
coecientes ai,j são zeros, o que mostra que {Tij : 1 ≤ i ≤ n, 1 ≤ j ≤ m } é
linearmente independente.
Mostremos agora que {Tij : 1 ≤ i ≤ n, 1 ≤ j ≤ m } é un conjunto gerador de
L(U, V ). Para começãr, escrevemos cada vetor T (ui ) na forma

T (ui ) = α1i v1 + · · · + αmi vm .



Usando agora que Tij (u) = xi vj , para u = ni=1 xi ui vemos que

T (u) = x1 T (u1 ) + . . . + xn T (un )


= x1 (α11 v1 + · · · + αm1 vm ) + · · · + xn (α1n v1 + · · · + αmn vm )
= α11 x1 v1 + · · · + αm1 x1 vm + · · · + α1n xn v1 + · · · + αmn xn vm
= α11 T11 (u) + · · · + αm1 T1m (u) + · · · + α1n T1n (u) + · · · + αmn Tnm (u),

de onde obtemos que

T = α11 T11 + · · · + αm1 T1m + · · · + α1n T1n + · · · + αmn Tnm ,

o que prova que {Tij : 1 ≤ i ≤ n, 1 ≤ j ≤ m } é um conjunto gerador de L(U, V ).


Do anterior, vemos que {Tij : 1 ≤ i ≤ n, 1 ≤ j ≤ m } é uma base de L(U, V ) e
que dim L(U, V ) = dim(U ) dim(V ).

Denição 3.33. O espaço vetorial L(U, R) é chamado espaço dual de U .


Corolário 3.34. O espaco dual de U é um espaço vetorial de dimensão n.
Observação 3.35. A prova do Teorema 3.32 nos fornece de uma base do espaço
L(U, V ). Em particular, se B = {u1 , . . . , un } é uma base de U , a familia de transfor-
mações lineares f1 , . . . , fn : U → R dadas por fj (u) = fj (x1 u1 + · · · + xn un ) = xj ,
j = 1, . . . , n, é base do espaço dual de U . Esta base é chamada base dual de B .

Exemplo 3.36. Achar a base dual deB = {(1, 1, 1), (1, 1, 0), (1, 0, 0)}.
Se (x, y, z) ∈ R3 , então
(x, y, z) = z(1, 1, 1) + (y − z)(1, 1, 0) + (x − y)(1, 0, 0) de
onde segue que f1 (x, y, z) = z, f2 (x, y, z) = y − z e f3 (x, y, z) = x − y.

Proposição 3.37. Sejam Z, W espaços vetoriais.


1. Se T ∈ L(U, V ) e S ∈ L(V, W ) então S ◦ T ∈ L(U, W ).
2. Se T ∈ L(U, V ), S ∈ L(V, W ) e R ∈ L(W, X) então (R ◦ S) ◦ T = R ◦ (S ◦ T ).
3. Se S, T ∈ L(U, V ), R ∈ L(V, W ) então R ◦ (S + T ) = R ◦ S + R ◦ T.

46
4. Se T ∈ L(U, V ), IV é a identidade em V e IU ∈ L(U ) é a identidade em U .
então IV ◦ T = T e T ◦ IU = T.
Prova: Somente provaremos (1). Para u, v ∈ U e α ∈ R, vemos que

S ◦ T (λu + v) = S(T (λu + v))


= S(λT (u) + T (v))
= S(λT (u)) + S(T (v))
= λS(T (u)) + S(T (v))
= λ(S ◦ T )(u) + (S ◦ T )(v), (3.38)

o que mostra que S◦T é uma transformação linear.

3.1.2 A matriz associada a uma Transformação Linear

Como consequencia do Teorema 3.29, temos que um espaço de dimensão nita n é


do ponto de vista da algebra linear igual ao espaço Rn . De esta forma é possivel
simplicar de maneira importante o estudo de espaços vetoriais. Da mesma forma,
podemos simplicar a teoria de transformações lineares associando a cada transfor-
mação linear T :U →V uma transformação linear T : Rn → Rm . Mais ainda, como
veremos nesta seção, podemos estudar o espaço L(Rn , Rm ) via o espaço de matrizes
M (n, m).
Para iniciar nosso estudo, precissamos introduzir algumas notações. Sejam T ∈
L(U, V ), B = {u1 , . . . , un } uma base
∑mde U e C = {v1 , . . . , vm } é uma base de V . No
que segue, supomos que T (uj ) = i=1 ai,j vi onde ai são números reais.

Denição 3.39. A matriz de representação da transformação T em relação às bases


B e C é a matriz [T ]B
C ∈ M (m, n) dada por
 
a1,1 a1,2 . . . a1,n
 a2,1 a2,2 . . . a1,n 
 
[T ]B =  .. . . . .
C
 . .
. . . .
. 
am,1 am,2 . . . am,n

Exemplo 3.40. Sejam T : R3 → R2 dada por T (x, y, z) = (x + y, x − z), B =


{(1, 0, 0), (0, 1, 0), (0, 0, 1)} e C = {(1, 1), (0, 1)}.
B
Para achar [T ]C , temos que representar os vetores T (ei ) como combinação linear
dos vetores C = {(1, 1), (0, 1)}. Note que

T (1, 0, 0) = (1, 1) = 1(1, 1) + 0(0, 1),


T (0, 1, 0) = (1, 0) = 1(1, 1) − 1(0, 1),
T (0, 0, 1) = (0, −1) = 0(1, 1) − 1(0, 1),
( )
B 1 1 0
de onde obtemos que [T ]C = .
0 −1 −1

Exemplo 3.41. Sejam T : R3 → R2 dada por T (x, y, z) = (x + y, x − z), B a base


canónica de R e R2 .
3 C a base canónica de

47
Como antes, para achar [T ]B
C temos que achar as coordenada de cada vetor T (ei )
em relação a base C. Como

T (1, 0, 0) = (1, 1) = 1(1, 0) + 1(0, 1),


T (0, 1, 0) = (1, 0) = 1(1, 0) + 0(0, 1),
T (0, 0, 1) = (0, −1) = 0(1, 0) − 1(0, 1), (3.42)
( )
B 1 1 0
obtemos que [T ]C = . Note que neste caso (o caso onde usamos as bases
1 0 −1
canonicas) temos que
 
x
T (x, y, z) = (x + y, x − z) = [T ]B
C
 y ,
z
para todo (x, y, z) ∈ R3 . Como veremos a seguir, este fato é bem mais geral.

Proposição 3.43. Sejam T ∈ L(U, V ), B base de U e C base de V . Se u ∈ U


então, T (u)C = [T ]B
C uB .
Prova: Suponha que  {u1 , . . . , un }, C = {v1 , . . . , vm } e [T ]B
B = C = (αij ). Seja u∈U
a1
 . 
e suponha que uB =  .
. . Com essas notações temos que

an
T (u) = T (a1 u1 + · · · + an un )
= a1 T (u1 ) + · · · + an T (un )
= a1 (α11 v1 + · · · + αm1 vm ) + · · · + an (α1,n v1 + · · · + αm,n vm )
= (a1 α1,1 + · · · + an α1,n )v1 + · · · + (a1 αm,1 + · · · + an αm,n )vm ,
de onde segue que
    
a1 α1,1 + · · · + an α1,n α1,1 ··· α1,n a1
 .   .. .. .  ..  B
T (u)C =  .
. = . . .
.  .  = [T ]C uB ,
a1 αm,1 + · · · + an αm,n αm,1 · · · αm,n an
o que completa a prova.
Estabelecemos agora algumas propriedades relativas a matrizes de representação.

Proposição 3.44. Sejam B e C bases de U e V respectivamente. Se T, S ∈ L(U, V )


e λ, µ ∈ R então [λT + µS]B B B
C = λ[T ]C + µ[S]C .
Prova: Suponha que B = {u1 , . . . , un }, C = {v1 , . . . , vm }, [T ]B
C = (αij ) e que
[S]B
C = (βij ). Nessas condições temos que

(λT + µS)(uj ) = λT (uj ) + µS(uj )


= λ(α1,j v1 + · · · + αm,j vm ) + µ(β1,j v1 + · · · + βm,j vm )
= (λα1,j + µβ1,j )v1 + · · · + (λαm,j + µβm,j )vm ,
de onde deduzimos que
 
λα1,1 + µβ1,1 ··· λα1,n + µβ1,n
 . .. . 
[λT + µS]B
C = .
. . .
.
B B
 = λ[T ]C + µ[S]C .
λαm,1 + µβm,1 · · · λαm,n + µβm,n

48
Proposição 3.45. Seja W espaços vetorial, T ∈ L(U, V ) e S ∈ L(V, W ). Se B, C e
D são bases de U, V e W respectivamente, então [S ◦ T ]B C B
D = [S]D [T ]C .

Prova: Suponha que B = {u1 , . . . , un }, C = {v1 , . . . , vm } e D = {w1 , . . . , wp }. Se


[T ]B
C = (αi,j ), [S]C,D = (βk,l ) e [S ◦ T ]B
D = (γs,r ) temos que
(m )

S ◦ T (uj ) = S αij vi
i=1

m
= αij S(vi )
i=1
( )
∑m ∑
p
= αij βki wk
i=1 k=1
(m )
∑p ∑
= βki αij wk ,
k=1 i=1

de onde obtemos que o coeciente que aparece na posição


∑m (k, j) da matriz [S ◦ T ]B
D
é dado por i=1 βk,i αi,j .
Por outro lado, o coeciente [S]C
γk,j de ∑ B C
D [T ]C é obtido a partir da la k de [S]D e
B m
da coluna j de [T ]C via a regra γk,j = i=1 βk,i αi,j . Assim temos que o coeciente
que aparece na posição (k, j) de [S ◦T ]D é igual ao coeciente que aparece na posição
B

D [T ]C , o que prova que [S ◦ T ]D == [S]D [T ]C .


(k, j) de [S]C B B C B

Corolário 3.46. Sejam B e C bases de U e V respectivamente.


1. Se T ∈ L(U, V ) é inversivel, então [T −1 ]CB = ([T ]B −1
C) .

2. Se U = V , B = C e T ∈ L(V ) então [T ]CC = [I]B C


C [T ]B,B [I]B .

Prova: Note que


−1 C
[T ]B
C [T ]B = [T ◦ T −1 ]C = [I]C = I,
[T −1 ]C B
B [T ]C = [T
−1
◦ T ]B,B = [I]B,B = I, (3.47)

onde I é a matriz identidade de ordem n. Isto implica que [T ]B


C é uma matriz inversivel
e que [T
−1 C B −1
]B = ([T ]C ) .
A propriedade em (2) segue diretamente de (1), e é deixada como exercicio.

Exemplo (3.48.)Seja B = {(1, 1), (1, −1)} e suponha que T ∈ L(R2 ) é tal que
1 0
[T ]B,B = . Achar [T ]C,C onde C é a base canônica de R2 e uma formula
0 5
explícita para T (x, y).
B B C B
Para achar [T ]C,C , usamos a formula [T ]C,C = [I]C [T ]B [I]B =. Para calcular [I]C
note que

1 1
(1, 0) = (1, 1) + (1, −1),
2 2
1 1
(0, 1) = (1, 1) − (1, −1),
2 2

49
(1 1
) ( )
1 1
de onde segue que [I]C
B =
2 2 . Similermente, obtemos que [I]B
C = .
1
2 − 12 1 −1
Assim,
( )( ) (1 ) ( )
1 1 1 0 2
1
2 3 −2
[T ]C,C = = .
1 −1 0 5 1
2 − 12 −2 3
Finalmente, da Proposição 3.43 segue que
( )
x
T (x, y) = [T ]C,C = (3x − 2y, 3y − 2x).
y
∫1
Exemplo 3.49. Seja T : P2 (R) → R 0 p(s)ds.
a transformação dada por T (p) =
Achar a matriz de T em relação às bases canônicas deR. P2 (R) e
Sejam C = {1} e B = {1, x, x }. Da denição de T temos que T (1) = 1, T (x) =
2 1
2 1 B
( 1 1) 2
e T (x ) = 3 , de onde segue que [T ]C = 1 2 3 .
Exemplo 3.50. T : P3 (R) → P2 (R) dada por T (p) = p′ . Achar a matriz de T
Seja
em relação às bases canônicas de P3 (R) e P2 (R).
Primeiro que nada, lembre que a base canonica de Pn (R) é Cn = {1, x, . . . , x }.
n

Note agora que

T (1) = 0 = 0 + 0x + 0x2 , T (x) = 1 = 1 + 0x + 0x2 ,

T (x2 ) = 2x = 0 + 2x + 0x2 , T (x3 ) = 3x2 = 0 + 0x + 3x2 ,


de onde segue que
 
0 1 0 0
[T ]C3
C2 = 0 0 2 0 .
0 0 0 3
Exemplo 3.51. SejaT : R3 → R3 dada por T (x, y, z) = (x + z, y + z, x + y + 2z).
B
Achar [T ]B sendo B = {(1, 1, 2), (−1, 1, 0), (−1, −1, 1)}.
Note que

T (1, 1, 2) = (3, 3, 6) = 3(1, 1, 2) + 0(−1, 1, 0) + 0(−1, −1, 1),


T (−1, 1, 0) = (−1, 1, 0) = 0(1, 1, 2) + (−1, 1, 0) + 0(−1, −1, 1),
T (−1, −1, 1) = (0, 0, 0) = 0(1, 1, 2) + 0(−1, 1, 0) + 0(−1, −1, 1),

de modo que
 
3 0 0
[T ]B = 0 1 0
0 0 0
Como veremos no seguinte resultado, é possivel deduzir propriedades de uma
transformação T a partir da propriedades de [T ]B
C.

Proposição 3.52. Sejam T ∈ L(U, V ), B uma base de U e C uma base V . A


transformação T é um isomorsmo ⇔ [T ]BC é inversivel.

Prova: Se T é um isomorsmo, pelo Corolario 3.46 temos que [T ]B


C é inversivel e
B −1
que ([T ]C ) = [T −1 ]C,B .
Suponha agora que [T ]B
C é inversivel. Da Proposição 3.43 sabemos que T (u)C =
[T ]B
C uB para todo u ∈ U , de onde vemos que T (u) = 0 ⇔ u = 0. Assim, N (T ) = {0}
o que implica que T é um isomorsmo pois dim(U ) = dim(V ).

50
Exemplo 3.53. Vejamos se a transformação linear T : R2 → P1 (R) dada por
T (a, b) = a + (a + b)x é um isomorsmo.
( )
1 0
Se B é a base canonica de R2 e C = {1, x, x2 }, então [T ]B
C = . Como esta
1 1
matriz é inversivel, seque da Proposição 3.52 que T é um isomorsmo.

3.2 Exercícios
Ex. 3.54. Seja T ∈ L(U ). Mostre que T2 = 0 se e somente se T (U ) ⊂ N (T ).

Ex. 3.55. Verique se as funções abaixo são transformações lineares.

1. T : R3 → R dada por T (x, y, z) = x + 5y − z,

2. T : R3 → R dada por T (x, y, z) = x + 5y − z + 1,

3. T : R3 → R dada por T (x, y, z) = x2 + 5y − z,

4. T : M (n, 1) → M (n, 1) dada por T (X) = AX + X, sendo A ∈ M (n, n) uma


matriz xa.

5. T : Pn (R) → Pn (R) dada por T (p) = p′ + p′′ ,

6. T : M (2, 2) → M (2, 2) dada por T (X) = AX onde A ∈ M (2, 2) é uma matriz


xa.

7. T : P2 (R) → P2 (R) dada por T (p) = p + q onde q(t) = t2 + 1 é um polinômio


dado.

Ex. 3.56. Achar o núcleo, uma base do núcleo, a imagen e uma base da imagem
para as seguintes transformações.

1. T : R2 → R dada por T (x, y) = y + 2x,

2. T : R3 → R dada por T (x, y, z) = z − 2x,

3. T : R2 → R2 dada por T (x, y) = (2x + 2y, x + y),

4. T : R2 → R2 dada por T (x, y) = (x + y, x − y),

5. T : R3 → R3 dada por T (x, y, z) = (z − x, z − 2x, z − 3x),

6. T : R3 → R3 dada por T (x, y, z) = (x + y, 2x + y, 3x + y),

7. T : R2 → R dada por T (x, y) = y + 2x,


( )
1 2
8. T : M (2, 2) → M (2, 2) dada por T (X) = AX, onde A= ,
2 4

9. T : P2 (R) → P2 (R) dada por T (p) = p′ , p ∈ P2 (R),

10. T : P2 (R) → P2 (R) dada por T (p) = p′ + p′′ , p ∈ P2 (R),


( )
1 4
11. T : M (2, 2) → M (2, 2) dada por T (X) = AX + X, sendo A= .
2 3

51
Ex. 3.57. Achar uma transformação linear T : R3 → R3 tal que T ((1, 0, 0)) =
(2, 3, 1), T ((1, 1, 0)) = (5, 2, 7) e T ((1, 1, 1)) = (−2, 0, 7). T é sobrejetora?, injetora?
bijetora? justique sua resposta.

Ex. 3.58. Achar uma transformação linear T : P2 (R) → P2 (R) tal que T (1) = 1 + t,
T (t) = t + t2 e T (t2 ) = 1+t− 2t2 . T é sobrejetora?, injetora? bijetora? justique
sua resposta.

Ex. 3.59. Achar uma transformação linear T : M (2, 2) → M (2, 2) tal que
(( )) ( ) (( )) ( )
1 0 1 4 1 1 −1 0
T = , T = ,
0 0 2 3 0 0 0 3
(( )) ( ) (( )) ( )
0 0 0 0 0 0 1 0
T = , T = .
1 0 2 1 0 1 2 0
T é sobrejetora?, injetora? bijetora? justique sua resposta.

Ex. 3.60. Achar uma transformação linear T : R4 → R4 tal que o conjunto


{(1, 1, 0, 0), (0, 0, 1, 0)} seja base do núcleo de T.

Ex. 3.61. Achar uma transformação linear T : R4 → R4 tal que o conjunto


{(1, 1, 0, 0), (0, 0, 1, 0)} seja base do núcleo e da imagem de T .

Ex. 3.62. Achar uma transformação linear T : R3 → R3 tal que dim N (T ) = 1.

Ex. 3.63. Achar uma transformação linear T : R3 → R3 tal que {(1, 1, 0), (0, 0, 1)}
seja base do nucleo e {(1, −1, 1)} seja base da imagem.

Ex. 3.64. Achar T ∈ L(R3 , R4 ) tal que T (R3 ) = [(2, 2, 3, 2), (3, 2, 0, 2)].

Ex. 3.65. Achar uma transformação linear T : R5 → R3 tal que

T (R5 ) = [(1, 0, 0), (0, 1, 0), (1, 1, 1)] e N (T ) = [(1, 1, 1, 1, 1), (1, 1, 1, 1, 0)].

Ex. 3.66. Achar uma transformação linear T : R3 → R2 tal que T (1, 0, 0) = (1, 2),
T (0, 1, 0) = (3, 4) e T (0, 0, 1) = (0, 0).

Ex. 3.67. Achar uma transformação linear T : R5 → R3 tal que dim N (T ) = 2 e


dim T (R5 ) = 3.

Ex. 3.68. Achar L(R3 , R4 ) tal que N (T ) = [(1, 0, 1)].

Ex. 3.69. Achar uma transformação linear T : R4 → R4 tal que N (T ) = T (R4 ) =


[(1, 0, 1, 0), (0, 1, 0, 1)].

Ex. 3.70. Achar T : R2 → R3 linear tal que T (R2 ) = [(1, 1, 1), (1, 2, 0)].

Ex. 3.71. Achar uma transformação linear T : R2 → R3 tal que T (R2 ) = [(1, 1, 1)]
e N (T ) = [(1, 1)].

Ex. 3.72. Estudar se as transformações lineares abaixo são isomorsmos. Em caso


armativo, achar a inversa de T.

1. T : R3 → R3 dada por T (x, y, z) = (x − 3y − 2z, y − 4z, z),

52
2. T : R3 → R3 dada por T (x, y, z) = (x, x − y, 2x + y − z),

3. T : R3 → R3 tal que T (1, 0, 0) = (1, 1, 1), T (0, 0, 1) = (1, 0, 1) e T (0, 1, 2) =


(0, 0, 4).

Ex. 3.73. Estudar se os espaços U e V são isomorfos.


{ }
1. U = R2 e V = (x, y, z) ∈ R3 : z = 0 .

2. U = M (2, 3)V = {p ∈ P4 (R) : p′ = 0} .


e
{ }
3. U = R3 e V = A ∈ M (2, 2) : At = A .
{( ) }
a 0
4. U= : a ∈ R e V = {p ∈ P3 (R) : p′ = 0} .
0 0

Ex. 3.74. Mostre que as funções T, R, S ∈ L(R2 , R2 ) dadas por T (x, y) = (x, 2y),
R(x, y) = (x, x + y) e S(x, y) = (0, x) formam um subconjunto linearmente indepen-
dente de L(R , R ).
2 2

Ex. 3.75. Suponha que U, V, W são espaços vetoriais. Se T ∈ L(U, V ) e S ∈


L(V, W ) são tais que N (T ) = {0} e N (S) = {0} , mostre que N (S ◦ T ) = {0} .

Ex. 3.76. Achar matrizes de representação nas bases canónicas de

1. T : R3 → R2 dada por T (x, y, z) = (x + y, z),

2. T : R4 → R dada por T (x, y, z, t) = 2x + y − z + 3t,

3. T : R → R3 T (x) = (x, 2x, 3x).


dada por
( )
1 2
Ex. 3.77. Seja M = 0 −1 e T : M (2, 2) → M (2, 2) dado por T (X) =
M X − XM . Achar a representação de T em relação a base canónica de M (2, 2)
( )
1 1
Ex. 3.78. Suponha que T ∈ L(R , R ) é tal que [T ]B = 5 1 sendo B =
2 2 B

{(1, 0), (1, 4)}. Achar [T ]C


C sendo C a base canônica de R . Achar uma formula
2

explicita para T (x, y).

Ex.
∫ 3.79. Seja T : P2 (R) → R a transformação linear denida por T (p) =
1
−1 p(s)ds. Achar [T ]B
C nos casos
{ } { }
B = 1, t, t2 , C = {1} e B = 1, 1 + t, 1 + t + t2 , C = {−2} .

Ex. 3.80. Seja C a base canonica de R3 e suponha T ∈ L(R3 , R3 ) é tal que

 
1 1 0
[T ]C
C =
 0 1 0 .
0 1 −1

Seja S : R3 → R3 dada por S = I + T + 2T 2 . Achar uma formula explicita para


S(x, y, z) e [S]C
C.

53
Ex. 3.81. Seja T : P2 (R) → P2 (R) a transformação
{ linear dada por T (p(t)) =
} { }
p(t) − p(1). Achar [T ]B
C , [T ]B e [T ]C sendo B = 1, t − 1, (t − 1)2 e C = 1, t, t2 .
B C

Ex. 3.82. Suponha que B = {u1 , u2 , u3 } uma base de um espaço vetorial V e que
T, S : V → V são transformações lineares em V tais que

T (u1 ) = 2u1 − 3u2 + u3 , S(u1 ) = 3u1 + 2u2 ,


T (u2 ) = u1 + u2 , S(u2 ) = u1 − u2 − u3 ,
T (u3 ) = u2 + u3 , S(u3 ) = u1 + u2 − 2u3 .

B , [S]B , [S ◦ T ]B , [S + I]B
[T ]B [T 3 − S 2 ]B
B B 2 B
Achar e B.

Ex. 3.83. Sejam U = R3 , V = R2 , B = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} e C =


{(1, 0), (0, 1)}. Achar T ∈ L(U, V ) tal que [T ]B
C é dada por
( ) ( ) ( )
1 2 3 0 0 1 10 5 −3
a) b) c)
4 5 1 0 1 0 2 −1 4

54
Capítulo 4

Autovalores e Autovetores

Neste capítulo introduziremos alguns conceitos que nos auxiliaram na compreensão


do comportamento de uma transformação linear T : V → V. A idea básica é achar
sub-espacos U de V de modo que T seja uma transformação de U em U. Começamos
com algumas denições.
Neste Capitulo, V será um espaço vetorial.

Denição 4.1. Seja T ∈ L(V ) e U um subespaço vetorial de V . Dizemos que U é


invariante por T se T (U ) ⊂ U.
Denição 4.2. Seja T ∈ L(V ). Dizemos que um vetor não nulo u ∈ V é um
autovetor de T se existe λ ∈ R tal que T (u) = λu. Neste caso, λ é chamado de
autovalor de T associado ao autovetor u.
A partir dos autovalores de uma transformação linear, podemos achar espaços
invariantes.

Lema 4.3. Suponha que T ∈ L(V ) e que λ é um autovalor de T . Então o conjunto


V (λ) = {u ∈ V : T (u) = λu} = N (T − λI) é um subespaço vetorial de V e V (λ) é
invariante por T .
Prova: Sejam u, v ∈ V (λ) e α ∈ R. Da denição de V (λ) vemos que

T (u + αv) = T (u) + αT (v) = λu + αλv = λ(u + αv),

o que implica que u + αv ∈ V (λ). Mais ainda, como T T (u) = T (λu) = λT (u) segue
que T (u) ∈ V (λ) o que implica que T (V (λ)) ⊂ V (λ). Isto mostra que V (λ) é um
espaço invariante por T.
Denição 4.4. Suponha que T ∈ L(V ) e que λ é um autovalor de T. O subespaço
vetorial V (λ) é chamado subespaço próprio associado ao autovalor λ e a dimensão
de V (λ) é a chamada de multiplicidade geométrica de λ.
Exemplo 4.5. Estudemos os autovalores e os subespaços próprios da transformação
T : R2 → R2 dada por T (x, y) = (y, 4x).
Se λ ∈ R é um autovalor de T então existe (x, y) ̸= (0, 0) tal que (y, 4x) =
T (x, y) = λ(x, y). Assim, para achar um autovalor, temos que estudar o sistema
{
y − λx = 0
4x − λy = 0,

55
que pode ser re-escrito na forma

( )( ) ( )
−λ 1 x 0
= . (4.6)
4 −λ y 0
Note que este problema tem uma solução não nula (x, y), somente quando
( )
−λ 1
det = λ2 − 4 = 0.
4 −λ
Assim, os unicos candidatos a autovetores de T são ±2.
Estudemos o caso λ = −2. Veja que

V (−2) = {(x, y) ∈ R2 : T (x, y) = −2(x, y)}


= {(x, y) ∈ R2 : (y, 4x) = −2(x, y)}
= {(x, y) ∈ R2 : −2x = y}
= {(x, −2x) ∈ R2 : x ∈ R}
= [(1, −2)], (4.7)

de onde obtemos que (1, −2) é um autovetor associado a λ = −2 e que a multiplici-


dade geométrica de −2 é um. Similarmente, para λ = 2 temos que

V (2) = {(x, y) ∈ R2 : T (x, y) = 2(x, y)}


= {(x, y) ∈ R2 : (y, 4x) = 2(x, y)}
= {(x, y) ∈ R2 : 2x = y}
= {(x, 2x) ∈ R2 : x ∈ R}
= [(1, 2)],

de onde segue que (1, 2) é um autovetor associado a 2 e que a multiplicidade geomé-


trica de 2 é um.
Além do anterior, notamos que
( B = ){(1, 2), (1, −2)} é uma base de R2 , que
−2 0
R2 = V (2) ⊕ V (−2) e que [T ]B
B = .
0 2
Exemplo 4.8. Estudemos agora os autovalores e os subespaços próprios da trans-
formação T : R2 → R2 dada por T (x, y) = (−y, x).
Para achar os autovalores de T temos que estudar a equação em variavel λ, x, y
dada por T (x, y) = λ(x, y), que pode ser re-escrita na forma
{
λx + y = 0
x − λy = 0

Este problema é equivalente a estudar


( )( ) ( )
λ 1 x 0
= , (4.9)
1 −λ y 0
Note que este problema tem uma solução não nula somente quando
( )
λ 1
det = −λ2 − 1 = 0.
1 −λ

56
Como não existe uma solução real de −λ2 − 1 = 0, deduzimos que T não possui
autovalores.
Vejamos um exemplo mais abstrato.

Exemplo 4.10. Estudemos a transformação T : Pn (R) → Pn (R) dada por T (p) =


p′ .
λ é um autovalor, então existe
Se
∑n um i polinômio não zero f ∈ Pn (R) tal que

T (f ) − λf = f − λf = 0. Se f = i=0 ai t , então

a1 − λa0 + (2a2 − λa1 )t + . . . + (nan − λan−1 )tn−1 + λan tn = 0,

para todo t ∈ R, de onde segue que a1 = λa0 , 2a2 = λa1 , . . ., nan = λan−1 e λan = 0.
λ ̸= 0 então an = 0, de onde segue que ai = 0 para todo i e que f é o polinômio
Se
zero. Portanto, T não possui autovalores que sejam diferentes de zero.
Por outro lado, se λ = 0 segue que ai = 0 para i = 1, 2, . . . n e que f = a0 . Assim,
λ = 0 é um autovalor de T , V (0) = {a : a ∈ R} e dim V (0) = 1.

Exemplo 4.11. Seja T : R3 → R3 dada por T (x, y, z) = (x, y, x). Achar todos os
autovalores de T, os respectivos subespaços próprios e a multiplicidade geométrica
de cada autovalor.
Para achar os autovalores de T, estudamos a equação T (x, y, z) − λ(x, y, z) = 0,
que é equivalente a estudar o problema

    
1−λ 0 0 x 0
 0 1 − λ 0  y  =  0  . (4.12)
−1 0 λ z 0

Este problema tem uma solução não nula (x, y, z) somente quando o determinate da
matriz é zero. Assim, para achar os autovalores de T podemos estudar a equação
em λ,  
1−λ 0 0
det  0 1 − λ 0  = λ(1 − λ)2 = 0.
−1 0 λ
As soluções desta equação são λ1 = 0 , λ2 = 1 , de modo que os unicos possiveis
autovalores de T sãoλ1 = 0 e λ2 = 1.
Note que para λ = 0,

V (0) = {(x, y, z) ∈ R3 : T (x, y, z) = (x, y, x) = 0(x, y, z)}


= {(0, 0, z) ∈ R3 : z ∈ R}
= [(0, 0, 1)], (4.13)

o que implica que λ=0 é um autovalor de T e que dim V (0) = 1. Similarmente,


para λ=1 vemos que

V (1) = {(x, y, z) ∈ R3 : T (x, y, x) = (x, y, x) = 1(x, y, z)}


= {(x, y, z) ∈ R3 : x = z}
= {(x, y, x) ∈ R3 : x ∈ R, y ∈ R}
= {x(1, 0, 1) + y(0, 1, 0) : x ∈ R, y ∈ R}
= [(0, 1, 0), (1, 0, 1)], (4.14)

57
de onde segue que λ=1 é um autovalor de T e que a multiplicidade geométrica de
1 é dois.
Além do anterior, notamos que B
= {(0, 0, 1),
 (0, 1, 0), (1, 0, 1)} é uma base de
0 0 0
R3 , R3 = V (0) ⊕ V (1) e que
B
[T ]B =  0 1 0 .
0 0 1
Em cada um dos exemplos anteriores podemos observar que os autovetores as-
sociados a autovalores diferentes são linearmente independentes. Como veremos no
próximo resultado, isto corresponde a uma propriedade geral.

Teorema 4.15. Seja T ∈ L(V ) e suponha que λ1 , . . . , λn são autovalores diferentes


de T . Se ui ∈ V (λi ) para cada i, então o conjunto {u1 , . . . , un } é linearmente
independente.
Prova: Vejamos para começar que {u1 , u2 } é linearmente independente. Se os vetores
u1 , u2 não são linearmente independente, então existe α ̸= 0 em R tal que αu1 = u2 .
Neste caso temos que T (αu1 ) = T (u2 ) de onde segue que λ1 u2 = λ2 u2 e que λ1 = λ2 ,
o que é aburdo. Isto mostra que {u1 , u2 } é linearmente independente.
No que segue mostramos que {u1 , . . . , uk } é l.i. se {u1 , . . . , uk−1 } é linearmente
independente. Suponha, por absurdo que, o conjunto {u1 , . . . , uk−1 } não é linear-
mente independente. Neste caso, o vetor uk pode ser representado como combinação
linear dos vetores {u1 , . . . , uk−1 }, de modo que existem números reais α1 , . . . , αk−1
(não todos zeros"!) tais que

uk = α1 u1 + . . . + αk−1 uk−1 . (4.16)

de onde obtemos que

λk uk = T uk = α1 λ1 u1 + . . . + αk−1 λk−1 uk−1 . (4.17)

Se multiplicarmos (4.16) por −λk e sumarmos o resultado a (4.17) obtemos

0 = α1 (λ1 − λk )u1 + α2 (λ2 − λk )u2 + · · · + αk−1 (λk−1 − λk )uk−1 .


Com estamos supondo que os vetores u1 , . . . , uk−1 saõ é linearmente independentes,
segue que
α1 (λ1 − λk ) = . . . = αk−1 (λk−1 − λk ) = 0.
Se j ∈ {1, . . . , k − 1} é tal que αj ̸= 0, da equação αj (λj − λk ) = 0 obtemos que
λj = λk , o que é absurdo pois os autovalores λ1 , . . . , λn são diferentes. Isto mostra
que {u1 , . . . , uk } é realmente linearmente independente.
Finalmente, como foi provado que o conjunto {u1 , u2 } é linearmente indepen-
dente, do processo anterior deduzimos que {u1 , . . . , un } é linearmente independente.
A prova está completa.

Corolário 4.18. Suponha que as hipoteses do Teorema 4.15⊕são satisfeitas e que


dim(V ) = n. Então B = {u1 , . . . , un } é uma base de V , V = n
i=1 V (λi ) e
 
λ1 0 · · · 0
 0 λ2 · · · 0 
 
 .. .. .. .. 
 . . . .  (4.19)
 
 .. .. .. .. 
 . . . . 
0 0 · · · λn

58
Prova: Do Teorema 4.15 sabemos que {u1 , . . . , un } é linearmente independente e
como dim(V ) = n obtemos que dim V (λi ) = 1 para ⊕ntodo i. Como consequencia,
temos que {u1 , . . . , un } é uma base de V e V = i=1 V (λi ). Finalmente, como
T (ui ) = 0u1 + · · · + λi ui + · · · + 0un para cada i, segue que [T ]BB é dada por (4.19).
Como veremos no proximo Teorema, o resultado anterior tem uma versão bem
mais geral.

Teorema 4.20. Seja T ∈ L(V ). Suponha que λ1 , . . . , λm são ∑ autovalores


∑ diferen-
tes de T , dim V (λi ) = ki , {ui1 , . . . , uiki } é uma base de Vλi e ki = V (λi ) =
∪m ⊕n
dim(V ) = n. Então i=1 {u1 , . . . , uki } é uma base de V , V = i=1 V (λi ) e [T ]B
i i
B é
uma matriz diagonal da forma
   
A1 0 · · · 0 λi1 0 · · · 0
 0 A2 · · · 0   0 λi · · · 0 
   2 
 .. .. .. ..   .. .. .. .. 
[T ]B = 
B
 . . . . 

onde Ai =  . . . . 
 (4.21)
 .. .. .. ..   .. .. .. .. 
 . . . .   . . . . 
0 0 ··· Am 0 0 ··· λiki
.

4.1 Polinômio Característico


Nesta seção introduzimos o polinômio caracteristico de uma transformação, que entre
outras coisas, nos auxiliará na procura dos autovalores e autovetores de uma trans-
formação linear. Nos exemplos 4.5, 4.8 e 4.11 podemos observar que o problema
de achar os autovalores foi transformado em achar os valores λ para os quais uma
determinda matriz tem determinante zero. O determinante desta matriz é chamado
polinomio caracteristico de T.
Denição 4.22. Seja A ∈ M (n, n). O polinômio característico de A é denido por
PA (λ) = det (A − λI), onde I é a matriz identidade de ordem n.
Denição 4.23. Seja T ∈ L(V ) e B uma base de V . O polinômio característico de
T é o polinômio denido por PT (λ) = det([T ]B
B − λ[I]B ) = det([T − I]B ) onde I é a
B B

transformação identidade em V
Observação 4.24. Note que a matriz em (4.6), (4.9) e (4.12) é exatamente a a
matriz [T − λI]B
B sendo B a base canónica.

A denição 4.23 é ambigua pois o polinomio depende da base B. Como veremos


no próximo resultado, não existe tal ambiguedade.

Proposição 4.25. Se T ∈ L(V ) e B, C são bases de V , então det([T − I]B


B) =
det([T − C ).
I]C
Prova: Do Corolario 3.46 sabemos que [T − I]C C −1
C = ([I]B ) [T − I]B [I]B .
B C Usando
esta fórmula e o fato que det(A−1 ) = det(A), vemos que
C −1
det([T − I]C
C ) = det(([I]B ) [T − I]B [I]B )
B C

−1
B ) ) det([T − I]B ) det([I]B )
= det([I]C B C

−1
= det([I]C B ) det([T − I]B )
det([I]C B
B)
= det([T − I]B
B ),

59
o que mostra o resultado.
No próximo resultado é estabelecida a relação entre as raizes do polinomio ca-
racteristico de uma transformação linear T e os autovalores de T.
Proposição 4.26. Seja T ∈ L(V ). Un número real λ é autovalor de T ⇔ λ é uma
raiz do polinomio caracteristico de T.
Prova: Seja B = {u1 , . . . , un } uma base de V. Suponha que λ é um autovalor de T e
que u∈V é um autovetor associado a λ. Da denição de autovetor e da Proposição
3.43 temos que [T − λI]B B uB = 0 de onde deduzimos que det[T − λI]B = 0 pois
B

uB ̸= 0. Isto prova que λ é uma raiz de PT .


Reciprocamente, se PT (λ) = 0 então a matriz [T − λI]B não é inversivel, de
modo que, existe um vetor não nulo x = (x1 , . . . , xn ) tal que [T − λI]B x = 0. Se
T
∑n
denirmos u = i=1 xi ui , da Proposição 3.43 obtemos que (T − λI)u = 0 o que
prova que λ é um autovalor de T . A prova está completa.

Denição 4.27. Seja T ∈ V e suponha que λ é um autovalor de T . A multiplicidade


algébrica de λ é a multiplicidade de λ como raiz do polinômio característico de T.
Na proxima proposição estudamos a relaçaõ entre a multiplicidade geométrica e
a multiplicidade algébrica.

Proposição 4.28. Seja T ∈ V e suponha que λ é um autovalor de T . Então a


multiplicidade geométrica de α é menor o igual a sua multiplicidade algébrica.
Prova: Suponha que dim V (α) = r. Sejam B = {u1 , . . . , ur } uma base de V (α) e
C = {u1 , . . . , ur , v1 , . . . , vp } uma base de V . A representação de T − λI em relação
a base C é da forma
  
α − λ ··· 0
 .. .. . 
Mr×(n−r) 
 . . .
.  
 
 0 · · · α − λ r×r 
0(n−r)×r N(n−r)×(n−r) n×n
onde 0(n−r)×r ∈ M ((n − r), r) é a matriz nula e a notação Sp×q indica que S é uma
matriz de ordem p × q . Da representação anterior, segue que PT (λ) = (λ − α)r Q(λ).
Como α ainda pode ser raiz de Q(·), segue que r é menor o igual a multiplicidade
algébrica de α.

Exemplo 4.29. Seja T : R2 → R2 dada por T (x, y) = (ax + by, cx + dy). Pelos
resultados anteriores, para achar os autovalores de T é suciente calcular as raizes
do polinômio caracteristico de T. Se usarmos a base canonica para calcular PT ,
vemos que

PT (λ) = det([T ]C − [I]C )


((C ) C ( ))
a b 1 0
= det −λ
c d 0 1
( )
a−λ b
= det = λ2 − (a + d)λ + ad − bc.
c d−λ
O polinômio PT possui raizes reais somente quando (a + d)2 − 4(ad − bc) ≥ 0. Se
√ é o único autovalor de T . Se (a+d) −4(ad−bc) >
(a+d)2 = 4(ad−bc), então (a+d)/2 2

a+d± (a+d)2 −4(ad−bc)


0, os autovalores de T são
2 .

60
4.2 Exercícios
Ex. 4.30. Achar os autovalores e autovetores da transformação T :V →V onde

1. V = R2 e T (x, y) = (x + y, x − y),
2. V = R3 e T (1, 0, 0) = (2, 0, 0), T (0, 1, 0) = (2, 1, 2), T (0, 0, 1) = (3, 2, 1),
 
3 1 0 0
 0 3 0 0 
V = R4  
B =  0 0 4 0  onde B é base canônica de R .
[T ]B
3. e
4

0 0 0 3
Ex. 4.31. Uma matriz A = (ai,j ) ∈ M (n, n) é chamada triangular superior (resp.
inferior) se onde ai,j = 0
quando i < j (resp. se onde ai,j = 0 quando i>j ). Qual
o polinômio característico de A?

Ex. 4.32. Suponha que A, B ∈ Mn são matrizes triangulares (superior o inferior)


com a mesma diagonal principal. Existe alguma relação entre seus polinômios ca-
racterísticos? Qual?

Ex. 4.33. Se λ é autovalor de T ∈ L(V ) então λn é autovalor de T n. ?

4.2.1 Transformações lineares diagonalizaveis

Denição 4.34. Dizemos que uma transformação T ∈ L(V ) é diagonalizável se


existe uma base de V formada por autovetores de T .
O conceito diagonalizavel é motivado pelo seguinte resultado. Antes de continuar,
lembre que uma matriz A = (ai,j ) ∈ M (n, n) é chamada diagonal se ai,j = 0 quando
i ̸= j .
Teorema 4.35. Uma transformação T ∈ L(V ) é diagonalizavel ⇔ existe uma base
B de V tal que [T ]B
B é uma matriz diagonal.
Prova: Suponha que T é diagonalizavel e seja B = {u1 , . . . , un } uma base de V
formada por autovetores de T. Como T (ui ) = λi ui para cada i, é fazil ver que
 
λ1 0 · · · 0
 0 λ2 · · · 0 
 
[T ]B
B =  .. . .. . .
. .
. . . 
.

0 0 · · · λn
Suponha agora que C = {v1 , . . . , vn } é uma base de V tal que
 
µ1 0 · · · 0
 0 µ2 · · · 0
 
[T ]C
C =  .. . .. . .
. .
. . . 
.
0 0 ··· µn

Como [T ]C
C (ui )C = µi (ui )C segue que T ui = µi ui e que ui é um autovetor de T
associado ao autovalor µi .
Nos próximos resultados conctinuamos estudando condições baixo as quais uma
transformação linear é diagonalizavel.

61
Proposição 4.36. Suponha que n = dim(V ) e que C = {u1 , . . . , un } é uma base de
V . Uma transformação T ∈ L(V ) é diagonalizavel ⇔ existe uma matriz inversivel
M ∈ M (n, n) tal que M −1 [T ]C
C M é diagonal.

Prova: Se T é diagonalizavel então existe uma base B formada por autovetores de


T e [T ]B
B é uma matriz diagonal. A existência da matriz M segue agora da relação
[T ]B = [I]C C B C B −1
B B [T ]C [I]C e do fato que [I]B = ([I]C ) .
Suponha agora que existe uma matriz invertível M = (mi,j ) ∈ M (n, n) tal que
M −1 [T ]C
C M é uma matriz diagonal. Para provar o resultado, é suciente achar
B
uma base B de modo que [ic ]C = M (note que neste caso teremos que [ic ]B =
C
−1
∑n ). Considerando o anterior, denamos o conjunto B = {v1 , . . . , vn } onde vi =
M
j=1 mj,i uj . ∑n
Armamos que B = {v1 , . . . , vn } é uma base de V . Suponha que j=1 θj vj = 0.
∑n ∑n ∑n
Usando que vi = j=1 mj,i u j teremos que j=1 θj k=1 m k,j u k = 0 . Manipulando

esta soma podemos mostrar que M (θ1 , · · · , θn ) = 0 de onde segue que θi = 0 para
T

cada i pois M é inversivel. Isto prova que B = {v1 , . . . , vn } é l.i, o que implica que
B = {v1 , . . . , vn } é uma base de V pois dim(V ) = n.
B C C B
Do anterior segue que [T ]B = [Id ]B [T ]C [Id ]C = M
−1 [T ]C M é uma matriz diago-
C
nal o que implica que T é diagonalizavel.

Lema 4.37. Suponha que T ∈ L(V ), que λ1 , . . . , λn são


∪nautovalores diferentes de T
e que {ui1 , ∑
. . . , uini } é uma base
∑ de V (λi ). Então
∑ B = i=1 {u i , . . . , ui } é uma base
1 ni
do espaço ni=1 V (λi ) e dim( ni=1 V (λi )) = ni=1 dim(V (λi )).
Prova: Para começar, observamos
∑ ∑ que i é obvio que B é um conjunto ∑ ni gerador de

∑n V (λ i ) . Suponha agora que i,j θi,j uj = 0 e denamos z i = j=1 θi,j uij . Como
j=1 zj = 0 e zj ∈ V (λj ) para ∑ni
cada j , do Teorema 4.15 segue-se que zj = 0 para

j=1 θi,j uj = 0 para cada i. Como {u1 , . . . , uni } é


cada j , de onde obtemos que
i i i

uma base de V (λi ), podemos concluir que θi,j = 0 para todo i ∈ {1, . . . , ii } e todo
i ∈ {1, . . . , n}. Isto prova que {uij : i = 1, . . . , n,∑j = 1, . . . , ni } é um conjunto l.i.
o que completa a prova que B é uma base de V (λi ). Usando este fato, segue
∑n ∑n
fazilmente que dim( i=1 V (λi )) = i=1 dim(V (λi )).

Teorema 4.38. Seja T ∈ L(V ) e suponha que λ1 ,∑


. . . , λn são todos os autovalores
de T . A transformação T é∑diagonalizável ⇔V = ni=1 V (λi ). (Similarmente, T é
diagonalizável ⇔dim(V ) = ni=1 dim(V (λi )). )
Prova: Suponha que T é diagonalizável e seja {u1 , . . . , un } uma base de V for-
mada por autovetores de T. Como cada um dos vetores
∑ uj pertence a algum
dos espacos
∑n V (λi ), segue que V = [{u1 , . . . , un }] ⊂ ni=1 V (λi ) o que implica que
V = i=1 V (λi ). ∑n
Suponha agora que V = i=1 V (λi ) i∪denotemos por {ui1 , . . . , uini }
para cada
n
i=1 {u1 , . . . , uni } é uma base
uma base de V (λi ). Do Lemma 4.37 segue que B =
i i
∑ ∑n
de V (λi ) o que implica que B = i=1 {u1 , . . . , uni } é uma base de V . Portanto,
i i

T é diagonalizavel.

Exemplo 4.39. A transformação do Exemplo 4.11 é diagonalizável pois o conjunto


de autovetores B = {(0, 0, 1), (0, 1, 0), (1, 0, 1)} é uma base de R3 . A transformação
do Exemplo 4.5 também é diagonalizável pois os autovetores (1, 2) e (1, −2) formam
uma base de R2 .

62
Note agora que a transformação do Exemplo 4.10 não é diagonalizável pois 0 é
o único autovalor e V (0) ̸= V = Pn (R). Similarmente a transformação do Exemplo
4.8 não é diagonalizável pois não possui autovalores.

Finalizamos esta seção com o seguintes resultados.

Corolário 4.40. Uma transformação T ∈ L(V ) é diagonalizável ⇔ as multiplicidade


algébrica e geométrica de cada autovalor são iguais.
Prova: Suponha que λ1 , . . . , λn são os autovalores de T e notemos por e mi a mul-
λi .
ticiplicidade algébrica de
∑n
T é diagonalizavel,
Se
∑ do Teorema 4.38 segue que dim(V ) = i=1 dim(V )(λi ).
Como dim(V ) = mi e dim(V (λi )) ≤ mi para cada i, temos que mi = dim(V (λi ))
para cada i.

∑nSuponha agora que mi = dim(V (λi )) para cada i. Neste∑caso,
n
dim( V (λi )) =
i=1 mi = dim V , de onde podemos concluir que V = i=1 V (λi ). Agora do
Teorema 4.38 vemos que T é diagonalizavel. Isto completa a prova.

Corolário 4.41. Se T ∈ L(V ) é tal que a soma das multiplicidades geométricas de


todos os autovalores de T é igual a dimensão de V, então T é diagonalizável.
Prova: Sejam λ1 , . . . , λn os autovalores
∑ de T e denotemos por
∑nmi a multiciplicidade
n
algebrica de
∑n λi . Como dim V = i=1 dim V (λi ) = dim( i=1 V (λi )) temos que
V = i=1 V (λi ), o que pelo Teorema 4.38 implica que T é diagonalizável.
Corolário 4.42. Se T ∈ L(V ) é tal que PT (λ) = (λ1 − λ) · · · (λm − λ) onde os
números λi são reais e diferentes, então T é diagonalizável.
Prova: Neste caso temos que dim V (λi ) = 1 para cada i. Agora o resultado é uma
consequencia do Corolario 4.40.

Exemplo 4.43. Como aplicação dos resultados anteriores, estudemos se a trans-


formação linear T : R3 → R3 denida por T (x, y, z) = (x + z, y + z, x + y + 2z) é
diagonalizável.
Se calculamos o polinomio caracteristico usando a base canônica temos que
 
1−λ 0 1
PT (λ) = det  0 1−λ 1 
1 1 2−λ
= (1 − λ)((1 − λ)(2 − λ) − 1) + 1(−(1 − λ))
= (1 − λ)(λ2 − 3λ) = λ(1 − λ)(λ − 3), (4.44)

de modo que PT (λ) possui três raizes simples. Agora, do Corolario 4.42 segue-se que
T é diagonalizável.
Também podemos provar que T é diagonalizavel usando a denição de transfor-
mação diagonalizavel, mas este caminho é mais longo. Neste temos que achar os
autovetores associados aos autovalores λ = 0, 1, 3.
Para começar, estudemos os autovetores associados a λ = 0. Se T (x, y, z) =
0(x, y, z), temos que os números x, y, z são soluções do sistema de equações


x + z = 0
y+z =0 ,


x + y + 2z = 0

63
de onde obtemos que x = y = −z. Assim, qualquer autovetor (x, y, z) associado a
λ = 0 é da forma x(1, 1, −1) de onde segue-se que V (0) = [(1, 1, −1)] e dim V (0) = 1.
Para achar os autovalores associados a α = 1, suponha que T (x, y, z) = (x, y, z).
Neste caso, obtemos o sistema



x + z = x
y+z =y


x + y + 2z = z

de onde obtemos que x = −y e que z = 0. Assim, os autovetores associados a λ = 1


são da forma x(1, −1, 0), V = [(1, −1, 0)] e dim V (1) = 1.
Estudemos agora os autovetores associados a λ = 3. Se T (x, y, z) = (3x, 3y, 3z)
temos que


x + z = 3x
y + z = 3y


x + y + 2z = 3z

de onde segue-se que z = 2x = 2y . Do anteirior se deduz que os autovetores associ-


ados a λ = 3 são da forma x(1, 1, 2), V (3) = [(1, 1, 2)] e dim V (3) = 1.

Para nalizar, note que o conjunto B = {(1, 1, −1), (1, −1, 0), (1, 1, 2)} é uma
base de R de onde segue-se que T é diagonalizavel.
3

Exemplo
( 4.45.
) Suponha que T : R2 → R2 é uma transformação linear tal que
a b
[T ]B de R . A seguir, mostraremos que
= para alguma base B 2 T diagonali-
B b c
zável.

Usando a matriz [T ]B
B obtemos que PT (λ) = λ2 − (a + c)λ + ac − b2 . O polinomio
PT (λ) tem raizes reais se (a − c)2 + 4b2 ≥ 0. Se (a − c)2 + 4b2 = 0, então b = 0 e
a = c de onde vemos que T é diagonalizavel.
Por outro lado, se (a − c) + 4b > 0 temos duas possibilidade, a ̸= c ou b ̸= 0.
2 2

Em qualquer um desses casos, teremos que T tem dois autovalores diferentes de onde
se deduz (via Corolario 4.18) que T é diagonalizável.

Do anterior podemos concluir que T é diagonalizável.

Exemplo 4.46. Estudemos agora se a transformação T : P2 (R) → P2 (R) dado por


T (p(t)) = p′′ (t) − 2p′ (t) + p(t) é diagonalizável.
 
1 −2 2
Se C é a base canonica de P2 (R) então [T ]C = 0 1 −4 e PT (λ) = (1−λ)3 .
C

0 0 1
Assim, para ver que T é diagonalizável temos que achar dim V (1).

Se p(t) = x+yt+zt é um autovetor de T então T p = 2z −2y−4zt+x+yt+zt =


2 2

x + yt + zt para todo t ∈ R, de onde obtemos que y = z = 0. Assim, todo autovetor


2

de T é necessariamente da forma p(t) = x, o que implica que dim V (1) = 1 e que T


não é diagonalizável.

Exemplo 4.47. Estudemos em detalhe se a transformação linear T : R4 → R4 dada


por T (x, y, z, t) = (x + y, y, 2z + t, 2z + t) é diagonalizável.

64
Se usarmos a base canonica de R3 para calcular o polinomio caracteristico de T
obtemos que

 
1−λ 1 0 0
 0 1−λ 0 0 
PT (λ) = det 
 0

0 2−λ 1 
0 0 2 1−λ
= (1 − λ)2 ((2 − λ)(1 − λ) − 2)
= (1 − λ)2 (λ2 − 3λ) = λ(λ − 3)(1 − λ)2 .

Note que para decidir se T é diagonalizável é suciente achar dimensão de V (1).


De fato, se dim V (1) = 2 então T será diagonalizável e se dim V (1) = 1 esta trans-
formação linear não será diagonalizável (veja Corolario 4.18).
Se (x, y, z, t) ∈ V (1) então (x + y, y, 2z + t, 2z + t) = (x, y, z, t), de onde obtemos
que y = z = t = 0. Assim, vemos que os autovetores associados a λ = 1 são da forma
x(1, 0, 0, 0), V (1) = [(1, 0, 0, 0)] e dim V (1) = 1. Portanto, T não é diagonalizavel
pois a multiciplicidades geometrica e algebrica de λ = 1 são diferentes.

4.3 Exercícios
Ex. 4.48. ) M ∈(
Estude se existe
( M (2, 2) tal)que M −1 AM seja uma matriz diagonal
2 4 3 −2
nos casos A= e A =
3 13 2 1

Ex. 4.49. Seja C a base canonica de R3 . Estude se os operadores T, S ∈ L(R3 )


com matrizes de representação

   
1 2 −2 1 0 0
[T ]C
C =
 2 1 −2  e [S]C
C =
 m 2 0 
2 2 −3 n 0 2

são diagonalizaveis.

Ex. 4.50. Seja C a base canonica de R4 . Estude se os operadores T, S ∈ L(R4 )


com matrizes de representação

   
−1 −4 −2 −2 1 1 1 1
 −4 −1 −2 −2   1 1 −1 −1 
[T ]C 
C =
 e [S]C 
C =

2 2 1 4  1 −1 1 −1 
2 2 4 1 1 −1 −1 1

são diagonalizaveis.

4.3.1 Prova teste 2 de 2011

1. Sejam X, Y espaço vetoriais e T :X→Y é uma transformação linear. Mostre


que T transforma bases de X em bases de Y ⇔T é um isomorsmo.

2. Achar 3 transformação lineares T : R4 → R3 tais que T (1, 1, 1, 1) = (2, 3, 4),


T (1, 1, 1, 0) = (4, 5, 6) e T (1, 1, 0, 0) = (7, 8, 9).

65
3. Sejam X = M (2, 2), Y = P2 (R) e T : X → Y a função dada por

( )
a b
T = ax2 + (a + c)x + a + b + c.
c d
( ) ( ) ( ) ( )
C 1 1 1 1 1 1 1 0
Achar [T ]B sendo B = { , , , } e C =
1 1 1 0 0 0 0 0
{1 + 2x + 3x2 , 1 + 2x, 2}

4. Seja T : R4 → R4 tal que


 
0 0 0 0
 a 0 0 0 
[T ]CC =  
 0 b 0 0 , sendo C a base canónica. Achar condições para a, b
0 0 c 0
e c, de modo que T seja diagonalizável.

4.3.2 Prova 2 de 2011

1. Seja T : R3 → R3 dada por T (x, y, z) = (5x−6y−6z, −x+4y+2z, 3x−6y−4z).

(a) Achar os autovalores de T.


(b) Achar uma base e a dimensão de cada um dos espaços V (λ).
(c) Mostre que T é diagonalizável.
B
(d) Achar [T ]B , [Id ]B C B R3 C
C , [Id ]B sendo uma base de vetores proprios de e
canónica de R .
a base
3

(e) Achar ([T ]CC )31 sendo C a base canónica de R3 .


(f ) Dena Isomorsmo. A função T é um isomorsmo ?

2. Achar uma transformação linear T : R3 → R3 tal que T (1, 1, 1) = (2, 3, 4),


T (1, 1, 0) = (4, 5, 6) e T (1, 0, 0) = (7, 8, 9). A transformação T é um isomor-
smo ?

66
Capítulo 5

Espaços Euclidianos

5.1 Produto Interno


Neste capítulo estudaremos uma classe de espaços vetoriais que possuem uma es-
trutura que combina elementos de elementos de algebra linear, análise e geometria.
Para começar introduzimos a seguinte denição.

Denição 5.1. Seja V um espaço vetorial. Um produto interno em V é uma função


⟨·, ·⟩ : V × V → R tal que

1. ⟨u + v, w⟩ = ⟨u, w⟩ + ⟨v, w⟩ para todo u, v, w ∈ V,


2. ⟨αu, v⟩ = α⟨u, v⟩ para todo u, v ∈ V e α ∈ R,
3. ⟨u, v⟩ = ⟨v, u⟩ para todo u, v ∈ V,
4. ⟨u, u⟩ > 0 se u ̸= 0.
Denição 5.2. Um espaço vetorial munido de um produto interno é chamado espaço
euclidiano.
Exemplo 5.3. O espaço Rn é um espaço euclideano provisto do produto interno
⟨x, y⟩ = x1 y1 + · · · + xn yn . Note que neste caso, o produto interno entre os vetores
(1, −1, 1), (0, 2, 4) ∈ R3 é ⟨(1, −1, 1), (0, 2, 4)⟩ = 1 · 0 + (−1) · 2 + 1 · 4 = 2.
Similarmente, o produto interno entre os vetores u = (cos(θ), sin(θ)) e v =
(cos(α), sen (α)) é ⟨u, v⟩ = cos θ cos α + sen θ sen α = cos(θ − α).

Exemplo 5.4. Um mesmo espaço vetorial pode ter diferentes produto internos. Em

xx′ ′
R3 , por exemplo, a função dada por ⟨(x, y, z), (x′ , y ′ , z ′ )⟩ = 2 + yy3 + zz4 também é
um produto interno em R . Veja que neste caso, o produto entre os vetores (1, −1, 1)
3
−1·2
e (0, 2, 4) é ⟨(1, −1, 1), (0, 2, 4)⟩ =
1·0 1·4 1
2 + 3 + 4 = 3.

Exemplo 5.5. C([a, b]; R) o espaço das funções continuas denidas de [a, b] em
Seja
∫b
R. Para f, g ∈ C([a, b]; R) denimos ⟨f, g⟩ = a f (x)g(x)dx. A função ⟨·, ·⟩ é um
produto interno em C([a, b]; R).
∫ 2π
Note que produto interno entre sin e cos é ⟨sin, cos ⟩ =
2π 0 sin x cos x dx =
sin2 x
2 0
= 0.

67
Exemplo
∑ ∑ 5.6. Para matrizes A = (ai,j ), B = (bi,j ) em M (m, n) denimos ⟨A, B⟩ =
m n
i=1 j=1 ai,j bi,j . A função ⟨·, ·⟩ : M (m, n) × M (m, n) → R é um produto interno
em M (m, n). ( ) ( )
1 1 −2 0
Veja que o produto interno das matrizes A = eB = é ⟨A, B⟩ =
0 2 1 1
1 · (−2) + 1 · 0 + 0 · 1 + 2 · 1 = 0.

Exemplo 5.7. O traço de uma matriz quadrada A é a soma dos elementos da


diagonal da matriz e é denotado por tr A. Deixamos como exercicio mostrar que a
função ⟨A, B⟩ = tr (B t A) é um produto interno em M (n, n).

A prova do seguinte lemma segue diretamente da denição de produto interno.

Lema 5.8. Suponha que ⟨·, ·⟩ é um produto interno em V . Então as seguintes pro-
priedades são vericadas.

1. ⟨0, 0⟩ = 0,
∑n ∑n
2. ⟨ i=1 ai ui , v⟩ = i=1 ai ⟨ui , v⟩,
∑n ∑n
3. ⟨v, i=1 ai ui ⟩ = i=1 ai ⟨v, ui ⟩,
∑m ∑n ∑m ∑n
4. ⟨ j=1 bj vj , i=1 ai ui ⟩ = j=1 i=1 bj ai ⟨vj , ui ⟩.

Como foi mencionado na introdução, o produto interno permite introducir noções


geometricas no espaço V. Em particular, a partir de um produto interno podemos
introduzir a noção de distância. No que segue, para simplicar, sempre supomos que
V é um espaço euclidiano munido de um produto interno denotado por ⟨·, ·⟩.

Denição 5.9. A norma de um vetor u ∈ V é denida por ||u|| = ⟨u, u⟩.

Exemplo 5.10. Seja Rn munido do produto interno denido no Exemplo 5.3. Neste

caso, a norma de um vetor x = (x1 , . . . , xn ) é dada por ||x|| = x21 + · · · + x2n . Note
que nos casos n = 2 e n = 3, a norma de x representa a distância de x ao ponto zero.

Exemplo 5.11. Se em C([a, b]; R) consideramos o produto interno


√ denido no Exem- ∫b
plo 5.4, então a norma de f ∈ C([a, b]; R) é dada por ||f || = 2
a [f (x)] dx.

Consideramos agora algumas propriedades da norma.

Proposição 5.12. As seguintes propriedades são válidas.


1. ||αu|| = |α|||u|| para todo u ∈ V e todo α ∈ R,

2. ||u|| ≥ 0 para todo u ∈ V,

3. ||u|| = 0 ⇔ u = 0,

4. |⟨u, v⟩| ≤ ∥u∥ ∥v∥ para todo u, v ∈ V (desigualdade de Cauchy-Schwarz),

5. ∥u + v∥ ≤ ∥u∥ + ∥v∥ para todo u, v ∈ V (desigualdade triangular).

68
√ √ √
Prova: É fazil ver que ||αu|| = ⟨αu, αu⟩ = α2 ⟨u, u⟩ = |α| ⟨u, u⟩ = |α| ||u||, o
que prova (1). Como as propriedades (2)-(3) são obvias, são deixadas como exercicio.
Para mostrar (4), xemos u, v ∈ V . Se v = 0 a propriedade é obvia, de modo no
que segue sempre supomos que v ̸= 0 e u ̸= 0. Note que para t ∈ R, temos
0 ≤ ⟨u + tv, u + tv⟩
= ⟨u, u⟩ + 2⟨u, v⟩t + ⟨v, v⟩t2
= ||u||2 + 2t⟨u, v⟩ + ||v||2 t2 ,
o que implica que o descriminate do polinomio t → ||u||2 + 2t⟨u, v⟩ + ||v||2 t2 é menor
2
o igual a zero. Ou seja, ⟨u, v⟩ −4||u|| ||v|| ≤ 0 de onde segue que |⟨u, v⟩| ≤ ∥u∥ ∥v∥.
2 2

Mostremos agora (4). Fazendo uso da desigualdade de Cauchy-Schwarz, para


u, v ∈ V vemos que
||u + v||2 = ⟨u + v, u + v⟩
= ||u||2 + ||v||2 + 2⟨u, v⟩
≤ ||u||2 + ||u||2 + 2||u||||v||
= [||u|| + ||v||]2 ,
de onde obtemos que ∥u + v∥ ≤ ∥u∥ + ∥v∥. Isto completa a prova.

Exemplo 5.13. No caso do exemplo 5.3, a desigualdade de Cauchy-Schwarz é dada


por
| (x1 y1 + · · · + xn yn ) |≤ (x21 + · · · + x2n )(y12 + · · · + yn2 ).
Similarmente, no caso do exemplo 5.4 temos que
∫ b ∫ b ∫ b
| f (x)g(x) dx |≤ 2
f (x) dx g 2 (x) dx.
a a a
Proposição 5.14 (Identidade do Paralelogramo) . Se u, v são vetores em V então
∥u + v∥2 + ∥u − v∥2 = 2(∥u∥2 + ∥v∥2 ).
Prova: Da denição de norma temos que
∥u + v∥2 + ∥u − v∥2 = ⟨u + v, u + v⟩ + ⟨u − v, u − v⟩
= ⟨u, u⟩ + ⟨v, v⟩ + 2⟨u, v⟩ + ⟨u, u⟩ + ⟨v, v⟩ − 2⟨u, v⟩
= 2⟨u, u⟩ + 2⟨v, v⟩
= 2(∥u∥2 + ∥v∥2 ).
Antes de enunciar o próximo resultado, notamos que na teoria de análise, o
conceito de norma é mais geral que o descrito neste capitulo. O próximo resultado
nos permite saber se uma norma é denida a partir de algum produto interno.

Proposição 5.15. Se u, v são vetores em V, então ∥u + v∥2 − ∥u − v∥2 = 4⟨u, v⟩.


Prova: É fazil ver que
∥u + v∥2 − ∥u − v∥2 = ⟨u + v, u + v⟩ − ⟨u − v, u − v⟩
= ⟨u, u⟩ + ⟨v, v⟩ + 2⟨u, v⟩ − ⟨u, u⟩ − ⟨v, v⟩ + 2⟨u, v⟩
= 4⟨u, v⟩.
A partir do produto interno podemos denir uma distância no espaço V. Para
fazer isto, consideremos as seguinte denição.

69
Denição 5.16. Seja U um conjunto e D : U × U → [0, ∞) uma função. Dizemos
que D(·) é uma distância em U se
1. D(u, v) = 0 ⇔ u = v,
2. D(u, v) = D(v, u) para todo u, v ∈ V,
3. D(u, v) ≤ D(u, w) + D(w, v) para todo u, v, w ∈ V (desigualdade triangular).
No que segue deste capítulo, usaremos a notação d(·) para a função d : V ×V →
[0, ∞) denda por d(u, v) = ∥u − v∥ sendo ∥·∥ a norma em V.
Proposição 5.17. As seguintes propriedades são satisfeitas.
1. d(u, v) ≥ 0 para todo u, v ∈ V,
2. d(u, v) = 0 se e somente se u = v,
3. d(u, v) = d(v, u) para todo u, v ∈ V,
4. d(u, v) ≤ d(u, w) + d(w, v) para todo u, v, w ∈ V.
Prova: As primeiras três propriedades são obvias e a desiguladade 5 segue direta-
mente da desigualdade triangular estabelecida na Proposiçao 5.12.

Corolário 5.18. A funçaõ d(·) é uma distância em V .


Exemplo 5.19. Veja que no Exemplo √ 5.13 (com n = 3) a distãncia entre os vetores

u = (1, 1, 3) e v = (2, 2, 1) é d(u, v) = (1 − 2)2 + (1 − 2)2 + (3 − 1)2 = 6. Note
que d(u, v) é realmente a distância entre os vetores u e v . Similarmente, nas condições
do Exemplo 5.11, temos que a distãncia entre as funções sin(·) e cos(·) é
∫ 2π
1
d(sin, cos) = ( [sin x − cos x]2 dx) 2
0
∫ 2π
1
= ( [1 − 2 sin x cos x] dx) 2
√0
= 2π.
Consideramos agora algumas questões relacionadas ao conceito de angulo entre
vetores. Da geometria analitica sabemos que o angulo θ entre dois vetores u = (x, y)
e v = (w, z) de R2 , é tal que

xw + yz ⟨u, v⟩
cos(θ) = √ √ = .
x2 2
+y w +z2 2 ∥u∥ ∥v∥
A partir deste fato, deniremos o angulo entre dois vetores de um espaço vetorial
qualquer. Note que se u, v ∈ V são vetores não nulos, da desigualdade de Cauchy-
⟨u,v⟩
Schwarz temos que −∥u∥ ∥v∥ ≤ ⟨u, v⟩ ≤ ∥u∥ ∥v∥ de onde segue que −1 ≤ ∥u∥ ∥v∥ ≤ 1.
⟨u,v⟩
Como existe um único número real θ ∈ [0, π) tal que cos(θ) = ∥u∥ ∥v∥ , podemos
introduzir a seguinte denição.

Denição 5.20. O angulo θ entre dois vetores não nulos u, v ∈ V é o número real
⟨u,v⟩
θ ∈ [0, π) tal que cos(θ) = ∥u∥ ∥v∥ ,
Exemplo 5.21. Considere o produto interno do Exemplo 5.11.
∫ 2πPara calcular o
angulo entre as as funções seno e cosseno, note que ⟨sin, cos ⟩ = 0 sin x cos x dx =

1
2 sin2 x 0 = 0. Assim, o ângulo entre estas funções é
π
2.

70
5.1.1 Ortogonalidade

A ortogonalidade entre vetores de R2 é um conceito relevante pois tem implicações


geometricas importantes. Note por exemplo que dada uma linha L no plano e um
ponto fora de ela, a reta de menor comprimento que parte em A é intercepta L
é caracterizada pelo fato que o angulo entre as duas retas é 90◦ . Como veremos,
este tipo de propriedades podem ser generalizadas, estendidas no ámbito de espaços
vetorias. Considerando o anterior, introduzimos o seguinte conceito.

Denição 5.22. Sejam u, v ∈ V . Dizemos que u, v são ortogonais se ⟨u, v⟩ = 0. No


que segue, usaremos a notação u⊥v para indicar que dois vetores são ortogonais.
Denição 5.23. Dizemos que un counjunto S ⊂ V é ortogonal se u⊥v para todo
u, v ∈ S com u ̸= v . Se S é ortogonal e ∥u∥ = 1 para todo u ∈ S , dizemos que S é
ortonormal.
Denição 5.24. Dizemos que u ∈ V é ortogonal a un conjunto S ⊂ V se u⊥v para
todo v ∈ S .
Exemplo 5.25. No Exemplo 5.3, o cojunto de vetores S = {ei : i = 1, . . . , n} é um
conjunto ortonormal de Rn .
Observação 5.26. Note que se u=0 ou v=0 então u⊥v. Tambem notamos que
u ̸= 0 e v ̸= 0, então u⊥v se e somente se o ângulo entre u e v é π/2.
Estabelecemos sem prova o seguinte Lema.

Lema 5.27. Se S ⊂ V é um conjunto ortogonal então { ∥u∥


u
: u ∈ S, u ̸= 0} é
ortonormal.
Proposição 5.28. Suponha que S = {u1 , . . . , un } ⊂ V é un conjunto ortogonal
formado por vetores não nulos. Então S é linearmente independentes.
∑n
Prova: Suponha que i=1 αi ui = 0. Usando que S é ortogonal e as propriedades
do produto interno, para j = 1, . . . n temos que

n ∑
n
0=⟨ αi u i , u j ⟩ = αi ⟨ui , uj ⟩ = αj ⟨uj , uj ⟩
i=1 i=1

de onde obtemos que αj = 0 ou ⟨uj , uj ⟩ = 0. Como os vetores em S são não nulos,


obtemos que αj = 0 de onde segue que S é linearmente independente.
Denição 5.29. Dizemos que S = {u1 , . . . , un } ⊂ V é uma base ortonormal de V
se S é um conjunto ortonormal e S é uma base de V .
Lema
∑ 5.30. Se {u1 , . . . , un } é uma base ortonormal de V e u ∈ V , então u =
n
i=1 ⟨u, ui ⟩ui .
∑n
Prova: Seja u ∈ V e suponha que u= i=1 αi ui . Usando que S é ortogonal e as
propriedades do produto interno vemos que

⟨u, uj ⟩ = α1 ⟨u1 , uj ⟩ + . . . + αi ⟨ui , uj ⟩ + . . . + αn ⟨un , uj ⟩


= αj ⟨uj , uj ⟩
= αj ,

de onde segue que u = ni=1 ⟨u, ui ⟩ui .

71
Exemplo 5.31. Usando o lemma anterior podemos achar as coordenadas do vetor
√ √ √ √
u = (1, 1) ∈ R2 em relação a base B = {( 2
2
, 2
2
), ( 2
2
, − 2
2 )} de R2 . De fato, do
Lemma 5.30 temos que
√ √ √ √ √ √ √ √
2 2 2 2 2 2 2 2
(1, 1) = ⟨(1, 1), ( , )⟩( , ) + ⟨(1, 1), ( ,− )⟩( ,− )
√ √ 2 2 √ 2 2
√ 2 2 2 2
√ 2 2 2 2
= 2( , ) + 0( ,− ),
2 2 2 2
(√ )
2
de modo que uB = .
0

5.1.2 Processo de Gram-Schmidt

Por diferentes razoes, algumas das quais serão evidentes no que segue, é conveniente
trabalhar com bases ortonormais. Nesta seção apresentaremos o processo de orto-
gonalização de Gram-Schmidt, que permite obter uma base ortonormal a partir de
uma base qualquer. O processo de Gram-Schmidt está descrito na demostração do
Teorema 5.35. Para provar este teorema é conveniente considerar alguns resultados
preliminares.

Denição 5.32. Suponha que U ] sendo {u1 , . . . , un } ⊂ U un conjunto


= [u1 , . . . , un∑
ortonormal e seja u ∈ V. O vetor PU (u) = i=1 ⟨u, ui ⟩ui é chamado de projeção
n

ortogonal de u em U .
O conceito de projeção ortogonal de u é motivado pelo seguinte resultado.

Lema 5.33. Suponha que U = [u1 , . . . , un ] sendo∑


{u1 , . . . , un } ⊂ U un conjunto
ortonormal.
∑n Se u ∈ V então o vetor dado por u − ni=1 ⟨u, ui ⟩ui é ortogonal a U e
u = i=1 ⟨u, ui ⟩ui ⇔ u ∈ U .

Prova: Seja w = nj=1 αj uj ∈ U. Usando que {u1 , . . . , un } é um conjunto ortonor-
mal, vemos que

∑n ∑n
⟨ αj uj , PU (u)⟩ = ⟨ αj uj , u − ⟨u, u1 ⟩u1 − · · · − ⟨u, un ⟩un ⟩
j=1 j=1
∑n ∑
n
= ⟨ αj uj , u⟩ + ⟨ αj uj , −⟨u, u1 ⟩u1 − · · · − ⟨u, un ⟩un ⟩
j=1 j=1

n ∑
n ∑
n
= αj ⟨uj , u⟩ − αj ⟨u, ui ⟩⟨uj , ui ⟩
j=1 j=1 i=1
∑n ∑n
= αj ⟨uj , u⟩ − αj ⟨u, uj ⟩
j=1 j=1
= 0,

o que mostra que


∑n ⟨w, PU (u)⟩ = 0 para todo w ∈ U . Por utro lado, se u ∈ U então
u− i=1 ⟨u, u ⟩u
i i ∈ U de onde∑vemos que ⟨u − PU (u), u − PU (u)⟩ = 0, o que implica
n
que u − PU (u) = 0 e que u = i=1 ⟨u, ui ⟩ui .
Note que na denição do vetor PU (u), existe uma dependencia sobre a base.
Como veremos no próximo resultado, não existe esta dependencia.

72
Proposição 5.34. Suponha que U ⊂ V é um subespaço vetorial e que conjuntos
S
∑n= {u 1 , . . . , u }
n ∑e R = {v 1 , . . . , v n } são bases ortonormais de U . Se u ∈ V , então
i=1 ⟨u, vi ⟩vi e PU (u) é independente de S e R.
n
i=1 ⟨u, ui ⟩ui =

∑n ∑n
Prova: Sejam w = u− i=1 ⟨u, ui ⟩ui e z = u−
i=1 ⟨u, vi ⟩vi ∈ U . Do Lemma
5.33 sabemos que os vetores w, z são ortogonais a U e como w − z ∈ U obtemos
que ⟨w − z, w − z⟩ = ⟨w − z, w⟩ + ⟨w − z, z⟩ = 0. Assim, z = w o que implica que
∑n ∑n
i=1 ⟨u, ui ⟩ui = i=1 ⟨u, vi ⟩vi e que PU (u) é independente de S e R.
Como foi observado anteriormente, a prova do próximo resultado nos fornece de
um método para obter uma base ortonormal a partir de uma base qualquer. Este
método é chamado de processo de ortogonalização de Gram-Schmidt.

Teorema 5.35. Se U é um subespaço vetorial de V então existe uma base ortonormal


para U .

Prova: Suponha que {v1 , . . . , vn } U e seja u1 = ∥vv11 ∥ e U1 = [u1 ].


é uma base de

Pelo Lema 5.33 sabemos que o vetor v2 − PU1 (v2 ) = v2 − ⟨v2 , u1 ⟩u1 é ortogonal a
v −P (v )
U1 . Se denirmos agora u2 = ∥v22 −PUU1 (v22 )∥ obtemos que {u1 , u2 } é ortonormal o que
1
implica via Proposição 5.28 que é {u1 , u2 } é linearmente independente. Mais ainda,
é claro que [{u1 , u2 }] = [{v1 , v2 }].

Seja U2 = [u1 , u2 ]. Pelo Lemma 5.33 sabemos que v3 −PU2 (v3 ) = v3 −⟨v2 , u2 ⟩u2 −
v −P (v )
⟨v2 , u1 ⟩u1 é ortogonal ao espaço U2 o que implica que u3 = ∥v33 −PUU2 (v33 )∥ é tam-
2
bem ortogonal a U2 . Agora, pela Proposição 5.28 obtemos que {u1 , u2 , u3 } é linear-
mente independente. Mais ainda, como u3 ∈ [{v1 , v2 , v3 }] temos que [{u1 , u2 , u3 }] ⊂
[{v1 , v2 , v3 }] o que implica que [{u1 , u2 , u3 }] = [{v1 , v2 , v3 }] pois {u1 , u2 , u3 } é line-
armente independente.

Suponha agora que usando o processo anterior obtemos que {u1 , . . . , uk } com

vj − j−1
i=1 ⟨vj ,ui ⟩ui
k < n e uj = ∑ é ortonormal, linearmente independente e que
∥vj − j−1
i=1 ⟨vj ,ui ⟩ui ∥
[{v1 , . . . , vk }] = [{u1 , . . . , uk }].
∑k
Pelo Lemma 5.33 temos que o vetor vk+1 − PUk (vj ) = vk+1 − i=1 ⟨vj , ui ⟩ui e

vk+1 − ki=1 ⟨vj ,ui ⟩ui
ortogonal ao espaço Uk = [{v1 , . . . , vk }] de onde segue que uk+1 = ∑
∥vk+1 − ki=1 ⟨vj ,ui ⟩ui ∥
também é ortogonal a Uk , que {u1 , . . . , uk+1 } é linearmente independente e que
uk+1 ∈ [{uk+1 , u1 , . . . , uk }] ⊂ [{vk+1 , u1 , . . . , uk }] ⊂ [{vk+1 , v1 , . . . , vk }]. Mais ainda,
como as dimensões de [{uk+1 , u1 , . . . , uk }] e [{vk+1 , v1 , . . . , vk }] são iguais podemos
concluir que [{u1 , . . . , uk , uk+1 }] = [{v1 , . . . , vk , vk+1 }].

Continuando como antes, obtemos que um conjunto ortonormal {u1 , . . . , un } tal


que que [{u1 , . . . , uk , un }] = [{v1 , . . . , vk , vn }], o que implica que {u1 , . . . , un } é uma
base ortonormal de U. .

Observação 5.36. Como pode-se observar, a prova do Teorema anterior nos fornece
de um método para obter uma base ortonormal a partir de uma base qualquer de V.

73
De fato, se {v1 , . . . , vn } é uma base de V e {u1 , . . . , un } são os vetores denidos por

v1
u1 = ,
∥v1 ∥
v2 − ⟨v2 , u1 ⟩u1
u2 =
∥v2 − ⟨v2 , u1 ⟩u1 ∥
v3 − ⟨v3 , u1 ⟩u1 − ⟨v3 , u2 ⟩u2
u3 =
∥v3 − ⟨v3 , u1 ⟩u1 − ⟨v3 , u2 ⟩u2 ∥
.
.
.
∑k
vk+1 − ⟨vk+1 , ui ⟩ui
uk+1 = ∑ki=1 ,
∥vk+1 − i=1 ⟨vk+1 , ui ⟩ui ∥
.
.
.
∑n−1
vn − ⟨vn , ui ⟩ui
un = ∑i=1
n−1 ,
∥vn − i=1 ⟨vn , ui ⟩ui ∥
então {u1 , . . . , un } é uma base ortonormal de V.
Exemplo 5.37. Neste exemplo, usaremos o processo de Gram-Schmidt para achar
uma base ortonormal de P2 (R) a partir da base {1, x, x2 }. No que segue usaremos o
produto interno do Exemplo 5.11,
Se usamos as notações do Teorema 5.35 teremos que v1 = 1, v2 = t e v2 = t2 . O
v1 (t)
primer vetor da base ortonormal é dado por u1 (t) = ∥v1 ∥ = ∥v11 ∥ = 1. Assim temos
que u1 = 1.
x−⟨x,1⟩1
O polinomio u2 é calculado via a formula u2 (x) = ∥x−⟨x,1⟩1∥ . Como
∫ 1 ∫ 1
1 1 1
⟨x, 1⟩ = x dx = e ∥x − ⟨x, 1⟩1∥2 = (x − )2 dx = ,
0 2 0 2 12
√√
obtemos que u2 (x) = 12(x − 12 ) = 3(2x − 1).
v3 −⟨v3 ,u1 ⟩u1 −⟨v3 ,u2 ⟩u2
O polinomio u3 é calculado via a fórmula u3 =
∥v3 −⟨v3 ,u1 ⟩u1 −⟨v3 ,u2 ⟩u2 ∥ . Assim,
para x ∈ R temos que
√ √
x2 − ⟨x2 , 1⟩1 − ⟨x2 , 3(2x − 1)⟩ 3(2x − 1)
p3 (x) = √ √ .
∥x2 − ⟨x2 , 1⟩1 − ⟨x2 , 3(2x − 1)⟩ 3(2x − 1)∥
Como
∫ √
1
1 √ √ ∫ 1
3
⟨x , 1⟩ =
2 2
x dx = , ⟨x , 3(2x − 1)⟩ = 3
2
x (2x − 1) dx =
2
0 3 0 6
e
√ √
∥x2 − ⟨x2 , 1⟩1 − ⟨x2 , 3(2x − 1)⟩ 3(2x − 1)∥2
1
= ∥x2 − x + ∥2
6
∫ 1
1 1
= (x2 − x + )2 dx = ,
0 6 180
obtemos que
√ 1 √
p3 (x) = 180(x2 − x + ) = 5(6x2 − 6x + 1).
6

74
√ √
Do anterior, o conjunto {1, 3(2x − 1), 5(6x2 − 6x + 1)} é uma base ortonormal de
P2 (R).
Exemplo 5.38. Usemos agora o método de Gram-Schmidt para achar uma base
ortonormal de W = {(x, y, z) ∈ R3 : x − 2y = 0}. Para obter uma base ortonormal
de W , temos que achar primeiro uma base de W .
Se (x, y, z) ∈ W , entçao (x, y, z) = (2y, y, z) = y(2, 1, 0) + z(0, 0, 1) de onde é
fazil concluir que {(2, 1, 0), (0, 0, 1)} = {v1 , v2 } é uma base de W.
Se usamos esta base, temos que u1 = (0, 0, 1) pois ∥(0, 0, 1)∥ = 1. Além disso, o
vetor u2 é dado por

(2, 1, 0) − ⟨(2, 1, 0), (0, 0, 1)⟩(0, 0, 1) (2, 1, 0) 2 1


u2 = = = ( √ , √ , 0).
∥(2, 1, 0) − ⟨(2, 1, 0), (0, 0, 1)⟩(0, 0, 1)∥ ∥(2, 1, 0)∥ 5 5
Do anterior segue que {(0, 0, 1), ( √25 , √15 , 0)} é uma base ortonormal de W.
Exemplo 5.39. Neste exemplo procuraremos uma base ortonormal para o espaço
W = {(x, y, z, t) ∈ R4 : x + y + z + t = 0}.
Para comezar, note que (x, y, z, t) ∈ W se e somente se (x, y, z, t) = (−y − z −
t, y, z, t), de onde obtemos que
(x, y, z, t) = y(−1, 1, 0, 0) + z(−1, 0, 1, 0) + t(−1, 0, 0, 1).
Como {(−1, 1, 0, 0), (−1, 0, 1, 0), (−1, 0, 0, 1)} = {v1 , v2 , v3 } é linearmente indepen-
dente seque-se que este conjunto é uma base de W.
Calculemos agora os vetores ui denidos via Gram-Schmidt. É fazil ver que
(−1,1,0,0)
u1 = ∥(−1,1,0,0)∥ = (− √12 , √12 , 0, 0). Em relação a u2 vemos que

(−1, 0, 1, 0) − ⟨(−1, 0, 1, 0), (− √12 , √12 , 0, 0)⟩(− √12 , √12 , 0, 0)


u2 =
∥(−1, 0, 1, 0) − ⟨(−1, 0, 1, 0), (− √12 , √12 , 0, 0)⟩(− √12 , √12 , 0, 0)∥
(− 21 , − 12 , 1, 0)
=
∥(− 12 , − 12 , 1, 0)∥
1
= √ (−1, −1, 2, 0),
6
de modo que u2 = √1 (−1, −1, 2, 0). Da denição de u3 vemos que
6

(−1, 0, 0, 1) − ⟨(−1, 0, 0, 1), u1 ⟩u1 − ⟨(−1, 0, 0, 1), u2 ⟩u2


u3 =
∥(−1, 0, 0, 1) − ⟨(−1, 0, 0, 1), u1 ⟩u1 − ⟨(−1, 0, 0, 1), u2 ⟩u2 ∥
e como
1 1 1
⟨(−1, 0, 0, 1), u1 ⟩ = ⟨(−1, 0, 0, 1), (− √ , √ , 0, 0)⟩ = √ ,
2 2 2
1 1
⟨(−1, 0, 0, 1), u2 ⟩ = ⟨(−1, 0, 0, 1), √ (−1, −1, 2, 0)⟩ = √ ,
6 6
1 1 1
(−1, 0, 0, 1) − ⟨(−1, 0, 0, 1), u1 ⟩u1 − ⟨(−1, 0, 0, 1), u2 ⟩u2 = (− , − , − , 1),
3 3 3
(− 31 ,− 13 ,− 31 ,1) √
obtemos que u3 =
∥(− 31 ,− 13 ,− 31 ,1)∥
= 12 3(− 13 , − 13 , − 31 , 1).

Assim, vemos que {(− √ , √ , 0, 0), √ (−1, −1, 2, 0),
2 3(− 3 , − 3 , − 3 , 1)} é uma
1 1 1 1 1 1 1
2 2 6
base ortonormal de W .

75
Nos próximos exemplos calcularemos a projeção ortogonal de um vetor sobre um
determinado espaço vetorial.

Exemplo 5.40. U = [( √13 , − √13 , √13 ), ( √12 , √12 , 0)]. Usando o produto interno
Seja

usual de R , calculemos a projeção ortogonal do vetor u = (2, 3, 1) sobre o espaço U .


3

Lembre que se {u1 , u2 } é uma base ortonormal de U , então a projeção de u em


U é dada por PU (u) = ⟨u, u1 ⟩u1 + ⟨u, u2 ⟩u2 e que este vetor é independente da base
ortonormal considerada.
Como neste caso {u1 , u2 } = {( √13 , − √13 , √13 ), ( √12 , √12 , 0)} é uma base ortonormal,
podemos calcular PU (u) diretamente. Assim,

1 1 1 1 1 1
PU ((2, 3, 1)) = ⟨(2, 3, 1), ( √ , − √ , √ )⟩( √ , − √ , √ )
3 3 3 3 3 3
1 1 1 1
+⟨(2, 3, 1), ( √ , √ , 0)⟩( √ , √ , 0)
2 2 2 2
5 5
= ( , , 0).
2 2
Exemplo 5.41. Considere P3 (R) com o produto interno do Exemplo por 5.11.
Calculemos a projeção ortogonal do vetor p(x) = 1 + x + x2 + x3 sobre o espaço
U= [x3 − x].
{ ∥xx3 −x
3
Como o conjunto
−x∥
} = {u1 } é uma base ortonormal de U , temos que a
vetor u sobre o espaço U é dada por PU (u) = ⟨u,
∥u1 ∥ ⟩ ∥u1 ∥ . Note
u1 u1
projeção de um
agora que

∫ ∫ 1
1 1
x7 x3 2x5
∥x − x∥ =
3 2
(x − x) dx =
3 2
(x + x − 2x ) dx =
6 2 4
+ −
0 0 7 3 5 0

1 1 2 8
= + − =
7 3 5 105
e

105
⟨p, u1 ⟩ = ⟨1 + x + x2 + x3 , x3 − x⟩
8

105 1
= (1 + x + x2 + x3 )(x3 − x) dx
8 0
∫ 1
8 −11 105
= (−x − x2 + x5 + x6 ) dx = .
105 0 21 8

Do anterior obtemos que


8 (x − x).
PU (p)(x) = − 55 3

5.1.3 O metodo dos mínimos quadrados

Nesta seção introduziremos um método que pode ser usado na teoria de optimização.
Este método, chamado dos mínimos quadrados, nace a partir da seguinte pergunta

Suponha que U é um subespaço vetorial de V e que u ∈ V. Qual é a menor


distancia entre u e o espaço U . ?

A resposta a esta pergunta é dada no seguinte Teorema.

76
Teorema 5.42. Se U é um subespaço vetorial de V e u ∈ V \U , então ∥u−PU (u)∥ ≤
∥u − v∥ para todo v ∈ U .

Prova: Seja v ∈ U . Usando que u−PU (u) é ortogonal a U e que PU (u), v são vetores
de U, segue que

∥u − v∥2 = ∥u − PU (u) + PU (u) − v∥2


= ∥u − PU (u)∥2 + 2⟨u − PU (u), PU (u) − v⟩ + ⟨PU (u) − v, PU (u) − v⟩
= ∥u − PU (u)∥2 + ⟨PU (u) − v, PU (u) − v⟩
= ∥u − PU (u)∥2 + ∥PU (u) − v∥2

∥u−PU (u)∥2 ≤ ∥u−v∥2 pois ∥PU (u)−v∥2 é un número positivo.


de onde obtemos que
Como a função x → x é crescente, do anterior se deduz que ∥u − PU (u)∥ ≤ ∥u − v∥
2

para todo v ∈ U .

Observação 5.43. Note que o Teorema anterior no somente responde a pergunta


anterior, tambem mostra que a menor distancia entre u e o espaço U é atingida no
ponto PU (u) ∈ U . Mais ainda, a menor distância é dada pelo comprimento do vetor
u − PU (u) que é ortogonal (perpendicular) a U .

Exemplo 5.44. Seja W = {(x, y, z) ∈ R3 : x − 2y = 0} e u = (1, 2, 3). Desejamos


achar um ponto w ∈ W tal que ∥u − w∥ seja a menor distância de u a algum ponto
de U.
Pelo Teorema 5.42, sabemos que este ponto é PW (u) e do Exemplo 5.38 sabemos
que {(0, 0, 1), ( √25 , √15 , 0)} é uma base ortonormal de W . Se usamos esta base para
calcular PW (u), temos que

2 1 2 1
PW (u) = ⟨(1, 2, 3), (0, 0, 1)⟩(0, 0, 1) + ⟨(1, 2, 3), ( √ , √ , 0)⟩( √ , √ , 0)
5 5 5 5
2 1
= (0, 0, 3) + 3( , , 0)
5 5
2 1
= 3( , , 1).
5 5
Mais ainda, podemos determinar uma formula geral para PW (u). De fato, se u=
(x, y, z) vemos que

2 1 2 1
PW ((x, y, x)) = ⟨(x, y, z), (0, 0, 1)⟩(0, 0, 1) + ⟨(x, y, z), ( √ , √ , 0)⟩( √ , √ , 0)
5 5 5 5
2x + y 2 1
= (0, 0, z) + ( √ )( √ , √ , 0)
5 5 5
1
= (4x + 2y, 2x + y, 5z).
5

5.1.4 Complemento Ortogonal

Denição 5.45. Seja U um subespaço de V . O complemento ortogonal de U (de-


notado U ⊥ ) é o conjunto denido por U ⊥ = {v ∈ V : ⟨u, v⟩ = 0, ∀ u ∈ U }.
Lema 5.46. Se U ⊂ V então U ⊥ é um subespaço vetorial de V.

77
Prova: Se v, w ∈ V ⊥ , α ∈ R e u ∈ U temos que⟨v + αw, u⟩ = ⟨v, u⟩ + α⟨w, u⟩ = 0,
o que da denição de V⊥ implica que v + αw ∈ V ⊥ .
Teorema 5.47. Se U é um subespaço de V então V = U ⊕ U ⊥.
Prova: Seja v ∈ V . Para comezar observamos que v − PU (v) ∈ U ⊥ e quePU (v) ∈ U ,
de onde temos que v = PU (v) + v − PU (v)
∩∈ U + U ⊥ o que implica que V ⊂ U + U⊥
eV = U + U ⊥ . Por∩otro lado, se w ∈ U U ⊥ segue-se que ⟨w, w⟩ = 0 o que implica
que w = 0 e que U U ⊥ = {0}. Isto completa a prova.
Exemplo 5.48. U = {(x, y, z) ∈ R3 : x − y − z = 0}. Para achar o espaço
Seja
U ⊥ , temos que caraterizar todos os vetores w ∈ R3 tais que ⟨w, u⟩ = 0 para todo
u ∈ U . Para fazer isto é suciente encotrar alguma base {u1 , u2 } de U e achar todos
os vetores w ∈ R tais que ⟨w, u1 ⟩ = 0 e ⟨w, u2 ⟩ = 0.
3

É fazil ver que U = [(1, 1, 0), (1, 0, 1)]. Logo, se (x, y, z) ∈ U


⊥ teremos que

⟨(x, y, z), (1, 1, 0)⟩ = 0 e ⟨(x, y, z), (1, 0, 1)⟩ = 0, de onde obtemos que x + y = 0 e
x + z = 0. Assim, (x, y, z) = x(1, −1, −1) e V ⊥ = [(1, −1, −1)].
Nas seguintes seções estudaremos brevemente alguns tipos especiais de transfor-
mações lineares. No que segue, U e V são espaços euclidianos e denotaremos por
⟨·, ·⟩U e ⟨·, ·⟩V os respectivos produtos internos.

5.1.5 Isometrias

Denição 5.49. Dizemos que T ∈ L(U, V ) é uma isometria se ⟨T (u1 ), T (u2 )⟩U =
⟨u1 , u2 ⟩V para todo u1 , u2 ∈ U.
O conceito isometria" é motivado pelo seguinte resultado.

Teorema 5.50. Suponha que T ∈ L(U, V ). As seguintes condições são equivalentes.


1. T é uma isometria,
2. ∥T (u)∥ = ∥u∥ para todo u ∈ V,
3. ∥T (u) − T (v)∥ = ∥u − v∥ para todo u, v ∈ V,
4. Se {u1 , . . . , un } ⊂ V é ortonormal então {T (u1 ), . . . , T (un )} é ortonormal em
V.
Prova: Se T u ∈ U , então ∥T (u)∥2V = ⟨T (u), T (u)⟩V = ⟨u, u⟩U =
é uma isometria e
∥u∥2U , o que prova que (1) implica (2).
A prova que (2) e (3) são equivalentes é obvia, pois T é linear.
Mostremos agora que (3) implica (4). Para comecar, notamos que de (3) e a
Proposição 5.15, para u, v ∈ U tem-se que

1
⟨T (u), T (v)⟩ = (∥T (u) + T (v)∥2 − ∥T (u) − T (v)∥2 )
4
1
= (∥u + v∥2 − ∥u − v∥2 )
4
= ⟨u, v⟩.

Logo, se {u1 , . . . , un } ⊂ V é um conjunto ortonormal, da relação ⟨T (ui ), T (uj )⟩ =


⟨ui , uj ⟩ para todo i, j , segue que {T (u1 ), . . . , T (un )} é ortonormal.

78
Para nalizar, provemos que (4) implica (1). Pela teoria desenvolvida neste
capitulo sabemos que existe uma base ortonormal
∑n {u
∑1 , . . . , un } de U . Se u, v ∈ U ,
do Lemma 5.30 temos que u= i=1 ⟨u, ui ⟩ui e v = ni=1 ⟨v, ui ⟩ui de onde obtemos
que


n ∑
n
⟨u, v⟩ = ⟨ ⟨u, ui ⟩ui , ⟨v, uj ⟩uj ⟩
i=1 j=1

n ∑ n
= ⟨u, ui ⟩⟨v, uj ⟩⟨ui , uj ⟩
i=1 j=1

n
= ⟨u, ui ⟩⟨v, ui ⟩,
i=1

Por outro lado, usando agora que {T (u1 ), . . . , T (un )} é ortonormal vemos que


n ∑
n
⟨T (u), T (v)⟩ = ⟨ ⟨u, ui ⟩T (ui ), ⟨v, uj ⟩T (uj )⟩
i=1 j=1
n ∑
∑ n
= ⟨u, ui ⟩⟨v, uj ⟩⟨T (ui ), T (uj )⟩
i=1 j=1
∑n
= ⟨u, ui ⟩⟨v, ui ⟩.
i=1

Finalmente, comparando as igualdadea anteriores é claro que ⟨T (u), T (v)⟩U = ⟨u, v⟩V
o que prova que T é isometria. A prova do Teorema está completa.

Exemplo 5.51. Seja θ∈R e T : R2 → R2 a transformação linear dada por

T (x, y) = (x cos θ − y sin θ, x sin θ + y cos θ).

Depois de alguns calculos, para (x1 , y1 ), (x2 , y2 ) ∈ R2 obtemos que

⟨T (x1 , y1 ), T (x2 , y2 )⟩ = x1 x2 (cos2 θ + sin2 θ) − y1 x2 (− cos θ sin θ + cos θ sin θ)


−x1 y2 (cos θ sin θ − cos θ sin θ) + y1 y2 (cos2 θ + sin2 θ)
= x1 x2 + y1 y2
= ⟨(x1 , y1 ), (x2 , y2 )⟩,

de onde vemos que T é uma isometria.

Lema 5.52. Se T ∈ L(U, V ) é uma isometria e dim U = dim V então T é um


isomorsmo.
Prova: Como ∥T u∥ = ∥u∥ para todo u ∈ U é claro que T é injetora de onde segue
que T é isomorsmo pois e dim U = dim V .

5.2 Exercícios
Ex. 5.53. Seja V espaço vetorial. Mostre que sempre é possivel denir um produto
interno em V.

79
Ex. 5.54. Estude se a função ⟨,⟩ é um produto interno em V.

1. V = R2 e ⟨u, w⟩ = 2x1 x2 + 4y1 y2 sendo u = (x1 , y1 ), w = (x2 , y2 ).

2. V = P3 (R) e ⟨p, q⟩ = a0 b0 +a1 b1 +a2 b2 +a3 b3 sendo p(t) = a0 +a1 t+a2 t2 +a3 t3 ,
q(t) = b0 + b1 t + b2 t2 + b3 t3 .

3. V = M (2, 2) e ⟨A, B⟩ = tr(At B) onde tr é a função traço.

4. V = R3 e ⟨u, w⟩ = x1 x2 + y1 y2 sendo u = (x1 , y1 , z1 ), w = (x2 , y2 , z2 ).

5. V = R4 e ⟨u, w⟩ = x1 x2 + y1 y2 + z1 z2 − t1 t2 sendo u = (x1 , y1 , z1 , t1 ), w =


(x2 , y2 , z2 , t2 ).

Ex. 5.55. Nos seguintes casos, achar ⟨u, v⟩, ∥u∥, ∥v∥ e o ângulo entre os vetores u
e v.

1. V = R3 com o produto interno usual e u = (1, 2, 1), v = (3, 4, 2).


∫1
interno ⟨p, q⟩ =
V = P2 (R) com produto 2
2.
0 p(t)q(t) dt e u = p(t) = 1 + t + 4t ,
v = q(t) = 2 + 5t2 .
( )
1 2
3. V = M (2, 2) com produto interno ⟨A, B⟩ = tr(At B) e A= , B=
4 12
( )
8 −1
.
4 3

Ex. 5.56. Em cada um dos itens abaixo achar d(u, v).

1. V = R4 com o produto interno usual,u = (1, 1, 1, 1), v = (1, 0, 2, 3).


∫1
2. V = P2 (R) com produto interno ⟨p, q⟩ = 0 p(t)q(t) dt, u = 1 + t e v = 34 t + 3t2 .

3. V = M (3, 3) com produto interno⟨A, B⟩ = tr(At B),


   
1 2 3 1 2 1
u =  4 5 6  e v =  0 0 1 .
1 1 1 2 2 2

Ex. 5.57. Estude se o conjunto S é ortonormal em V.

1. V = R3 com o produto interno usual e S = {(0, 1, 1), (1, 1, 0)}.

2. V é o espaço
∫ 1 dos polinomios de
{ grau} 2 denidos sobre [0, 1] com produto interno
⟨p, q⟩ = 0 p(t)q(t) dt e S = t, t2 .

3. V = M (3, 3) ⟨A, B⟩ = tr(At B) e


com produto interno

{( ) ( ) ( )}
1 0 0 1 0 0
S= , , .
0 0 0 1 1 0

Ex. 5.58. Achar uma base ortonormal para W usando o processo de Gram-Schmidt.

1. W = [(1, 1, 0, 0), (0, 1, 2, 0), (0, 0, 3, 4)] com o produto usual de V = R4 ,

80
∫1
2. W = [1, 1 + t, t2 ] com o produto ⟨p, q⟩ = 0 p(t)q(t)dt (os polinomios são
considerados denidos sobre [0, 1]).
3. W é o subespaço de M (2, 2) dado por
[( ) ( ) ( )]
1 0 0 1 0 0
W = , ,
0 0 0 1 1 1
e ⟨·, ·⟩ é o produto interno ⟨A, B⟩ = tr(At B).
Ex. 5.59. Achar m∈R de modo que a transformação T : R3 → R3 dada por

1 1 1 2 1 1 1
T (x, y, z) = ( √ x + √ y + mz, − √ x + √ y − √ z, − √ x + √ z)
3 3 6 6 6 2 2
seja uma isometria.

Ex. 5.60. Achar uma isometria em



P2 (R) cuja matriz em relação à base canônica
√1 √1 0
2 2
seja  0 0 1 .
x y z
Ex. 5.61. A função T : M (2, 2) → M (2, 2) dada por T (A) = At é uma isometria?.

Ex. 5.62. Mostre que o conjunto

{1, cos x, cos 2x, cos 3x, . . . , sin x, sin 2x, sin 3x, . . .}
é ortogonal no espaço das funções contínuas
∫ 2π C([0, 2π], R) com relação ao produto
interno ⟨f, g⟩ = 0 f (x)g(x)dx.

5.2.1 Prova teste 3 de 2011

1. Produto interno:

(a) Sejam α, β números reais. Para u = (u1 , u2 ) e v = (v1 , v2 ) vetores de R2


denimos

< u, v >= 5u1 v1 + 6u2 v2 . A função < ·, · > é um produto interno em R2 .


?

(b) Seja P(R) o espaço vetorial formado por todos os polinomios denidos de
R em R. Estude se a função < p, q >= p(1)q(1) é um produto interno em
P(R). Achar 10 produtos internos diferentes para o espaço dos polinomios
de grau n.

2. Considere em R3 o produto interno < u, v >= u1 v1 + 2u2 v2 + 3u3 v3 . Achar


uma base ortonormal para R3 a partir da base {(1, 1, 1), (1, 1, 0), (1, 0, 0)}.

3. Seja W o subespaço de R2 {(x, 2x) : x ∈ R}. Achar


formado pelos vetores

o espaço W . Achar a distancia do vetor (1, −1) aos espaços W e W ⊥ . (A
distancia de um vetor x a um espaço vetorial V , é a menor das distâncias entre
x e algum vetor de V .)

81
5.2.2 Prova 3 de 2011

1. Estude se as seguintes funções são produto interno em R3 .

(a) < (u1 , u2 , u3 ), (v1 , v2 , v3 ) >1 = u1 v1 + 2u2 v2 + 3u3 v3 .


(b) < (u1 , u2 , u3 ), (v1 , v2 , v3 ) >2 = u1 v1 − u2 v2 + u3 v3 .
(c) Se alguma das funções é produto interno, achar uma base ortonormal a
partir da base {(1, 1, 1), (1, 1, 0), (1, 0, 0)}.

2. Considere R3 com o produto interno usual e seja Z o subespaço de R3 denido


por Z = {(x, 2x, x + y) : x, y ∈ R}.

(a) Achar uma base ortonormal para Z,


(b) Achar a projeção PZ : R3 → Z,
(c) Achar um vetor v∈Z tal que ∥ v − (1, −1, 1) ∥≤∥ z − (1, −1, 1) ∥ para
todo z ∈ Z.

5.2.3 Prova de recuperação de 2011

1. Seja T : R3 → R3 dada por T (x, y, z) = (3x − y + z, −x + 5y − z, x − y + 3z).

(a) A função T é transformação linear ?

(b) Achar os autovalores de T.


(c) Achar uma base e a dimensão de cada um dos espaços V (λ).
(d) A funçaõ T é diagonalizável.?

(e) Se T é diagonalizável, achar [T ]B C


B , [Id ]B sendo B uma base de vetores
proprios de R e C canónica de R .
3 a base
3

2. Considere R3 com o produto interno usual e seja Z o subespaço de R3 denido


por Z = {(x, 2x + y, x + y) : x, y ∈ R}.

(a) Mostre que Z é espaço vetorial.

(b) Achar uma base ortonormal para Z,


(c) Achar a projeção PZ : R3 → Z,
(d) Achar um vetor v∈Z tal que ∥ v − (1, 0, 1) ∥≤∥ z − (1, 0, 1) ∥ para todo
z ∈ Z.

82

Você também pode gostar