Você está na página 1de 12

Espaços Euclidianos

Espaços Rn
O conjunto Rn é definido como o conjunto de todas as n-uplas ordenadas de números reais:

Rn = {(x1 , ..., xn ) : x1 , ..., xn ∈ R}.

R1 é simplesmente o conjunto R dos números reais, que é visualizada como uma reta; R2 é o conjunto de
pares de números reais, que pode ser visualizado como um plano e R3 é o conjunto de triplas de números
reais, comumente visualizado como o espaço. Como vimos anteriormente uma tripla (x1 , x2 , x3 ) pode ser
visualizada geometricamente tanto como representando as coordenadas de um ponto ou as coordenadas de
um vetor com ponto inicial na origem. Do mesmo modo, n-uplas (x1 , ..., xn ) podem ser visualizadas como
pontos ou vetores.
Segue portanto que dois vetores V = (v1 , ..., vn ) e W = (w1 , ..., wn ) são iguais se e somente se v1 =
w1 , ..., vn = wn .
Apesar da nossa intuição geométrica ser limitada para espaços de dimensão 4 em diante, procedemos por
analogia definindo operações e conceitos similares aos que vimos no plano e no espaço.

Definição. A soma de dois vetores V = (v1 , ..., vn ) e W = (w1 , ..., wn ) de Rn é definida por

V + W = (v1 + w1 , ..., vn + wn ).

A multiplicação de um vetor V = (v1 , ..., vn ) de Rn por um escalar α ∈ R é definida por

αV = (αv1 , ..., αvn ).

Definimos 0 = (0, ..., 0), −V = (−v1 , ..., −vn ) e V − W = V + (−W ).

Proposição. Sejam U, V e W vetores de Rn e α, β ∈ R escalares. Então

1. U + V = V + U ;
2. U + (V + W ) = (U + V ) + W ;
3. U + 0 = 0 + U ;
4. U + (−U ) = 0;
5. α(βU ) = (αβ)U ;
6. α(U + V ) = αU + αV ;
7. (α + β)U = αU + βU ;
8. 1U = U .

Os espaços Rn são exemplos tı́picos do que chamamos espaços vetoriais. Um espaço vetorial é qualquer
conjunto V onde podemos definir operações de soma e multiplicação por escalar que satisfazem todas as
propriedades acima.

1
Exemplo 0. O conjunto das funções reais é um espaço vetorial, pois podemos definir a soma de duas funções
f + g e o produto de uma função por um escalar αf , e estas são funções reais:

(f + g)(x) = f (x) + g(x),


(αf )(x) = αf (x).

Similarmente, o conjunto das funções reais contı́nuas também é um espaço vetorial, porque a soma
de funções contı́nuas e o produto de uma função contı́nua por um escalar são funções contı́nuas. Da
mesma maneira, o conjunto das funções reais diferenciáveis é um espaço vetorial.

1. Combinações Lineares
Se V e W são vetores de Rn tais que W = αV para algum escalar α, dizemos que W é um múltiplo escalar
de V .

Definição. Dizemos que V é uma combinação linear dos vetores V1 , ..., Vk se existem escalares x1 , ..., xk
tais que
V = x1 V1 + ... + xk Vk .

Ou seja, uma combinação linear de vetores é simplesmente uma soma de múltiplos escalares destes vetores.

Exemplo 1. Sejam V1 = (4, −1, 3, 5) e V2 = (1, 0, −2, 3) vetores de R4 . O vetor V = (1, 0, −1, 6) não é
combinação linear de V1 e V2 porque não podemos encontrar x1 , x2 tais que

(1, 0, −1, 6) = x1 (4, −1, 3, 5) + x2 (1, 0, −2, 3),

ou seja, o sistema 

 4x1 + x2 = 1
−x1 = 0

 3x1 − 2x2
 = −1
5x1 + 3x2 = 6

não possui solução. Por outro lado, V = (5, −2, 12, 1) é combinação linear de V1 e V2 porque V =
2V1 − 3V2 , isto é,
(5, −2, 12, 1) = 2(4, −1, 3, 5) − 3(1, 0, −2, 3).

Exemplo 2. Todo vetor V = (v1 , v2 , v3 ) de R3 é combinação linear dos vetores i, j, k, pois

V = v1 i + v2 j + v3 k.

Exemplo 3. 0 é sempre combinação linear de quaisquer vetores V1 , ..., Vk , pois

0 = 0V1 + ... + 0Vk .

2. Independência Linear
Definição. Dizemos que um conjunto S = {V1 , ..., Vk } de vetores é linearmente independente (L. I.) se
os únicos escalares x1 , ..., xk que satisfazem

x1 V1 + ... + xk Vk = 0

são
x1 = ... = xk = 0.
Caso contrário, dizemos que S é linearmente dependente (L. D.).

2
Ou seja, V1 , ..., Vk são linearmente independentes se e somente se a única solução de x1 V1 + ... + xk Vk = 0
for a solução trivial.

Exemplo 4. Os vetores V1 = (1, 2, 3, 4), V2 = (5, 6, 7, 8) e V3 = (6, 8, 10, 12) são L.D., pois x1 V1 + x2 V2 +
x3 V3 = 0 tem a solução não trivial x1 = 1, x2 = 1, x3 = −1 (note que V1 + V2 = V3 ).

Os vetores V1 = (1, 2, 3, 4), V2 = (5, 6, 7, 8), V3 = (6, 8, 10, 12) e V4 = ( 2, eπ , π 2 , −109 ) são L.D., pois
x1 V1 + x2 V2 + x3 V3 + x4 V4 = 0 tem solução não trivial x1 = 1, x2 = 1, x3 = −1, x4 = 0. Se um conjunto
de vetores já é L. D., acrescentar mais vetores ao conjunto não alterará a situação, pois podemos
sempre obter uma solução não trivial para o novo conjunto acrescentando escalares nulos à solução não
trivial para o conjunto original.

Observe que na primeira parte do Exemplo 4, outra solução não trivial seria x1 = 2, x2 = 2, x3 = −2; na
verdade qualquer solução na forma x1 = α, x2 = α, x3 = −α para algum escalar α serviria. Quando existe
uma solução não trivial (x1 , ..., xk ), sempre existem infinitas soluções.

Exemplo 5. Os vetores i, j, k são linearmente independentes. Mais geralmente, os vetores de Rn E1 =


(1, 0, ..., 0), E2 = (0, 1, 0, ..., 0), ..., En = (0, ..., 0, 1) são linearmente independentes. De fato, x1 E1 + ... +
xn En = 0 implica (x1 , ..., xn ) = 0, isto é, x1 = ... = xn = 0.
Exemplo 6. Um conjunto S = {V1 } formado por um único vetor não-nulo é sempre L. I., pois neste caso
x1 V1 = 0 implica necessariamente que x1 = 0. Por outro lado, qualquer conjunto S que contenha o
vetor nulo é L. D., pois x1 0 + 0V2 + ... + 0Vk = 0 para qualquer valor de x1 .

Exemplo 7. Um conjunto S = {V1 , V2 } formado por dois vetores é L. D. se somente se um é múltiplo


escalar do outro.
Prova: De fato, se V1 = αV2 , por exemplo, então

V1 − αV2 = 0,

ou seja, x1 = 1, x2 = −α é uma solução não-trivial para x1 V1 + x2 V2 = 0.


Reciprocamente, se existir uma solução não-trivial {x1 , x2 } para x1 V1 + x2 V2 = 0, então pelo menos
ou x1 6= 0 ou x2 6= 0 (e é claro que podemos ter ambos os escalares diferentes de zero); no primeiro
caso podemos escrever
x2
V1 = − V2 ,
x1
enquanto que no segundo caso podemos escrever
x1
V2 = − V1 .
x2

Assim, dois vetores não-nulos são linearmente dependentes, se e somente se eles são colineares, isto é,
são paralelos.
Exemplo 8. Generalizando, um conjunto S = {V1 , V2 , V3 } formado por três vetores é L. D. se somente se um
é combinação linear dos outros dois. De fato, se x1 V1 +x2 V2 +x3 V3 = 0 possui uma solução {x1 , x2 , x3 }
não identicamente nula, então pelo menos algum destes escalares é diferente de zero, digamos x1 6= 0.
Então podemos escrever
x2 x3
V1 = − V2 − V3 .
x1 x1
Logo, três vetores não-nulos são linearmente dependentes se e somente se eles forem colineares (se todos
os três forem paralelos) ou se eles forem coplanares, isto é, se eles forem paralelos a um mesmo plano.

3
De modo geral, um conjunto S = {V1 , ..., Vk } de vetores é L. D. se e somente se um destes vetores pode
ser escrito como combinação linear dos outros, pois se x1 V1 + ... + xk Vk = 0 possui uma solução {x1 , ..., xk }
não identicamente nula, então pelo menos algum destes escalares é diferente de zero, digamos xi 6= 0. Então
podemos escrever
x1 xi−1 xi+1 xk
Vi = − V1 − ... − Vi−1 ... − Vi+1 − ... − Vk .
xi xi xi xi
Reciprocamente, se Vi = −α1 V1 − ... − αi−1 Vi−1 ... − αi+1 Vi+1 − ... − αk Vk , podemos escrever
α1 V1 + ... + αi−1 Vi−1 − 1Vi + αi+1 Vi+1 + ... + αk Vk = 0
e {α1 , ..., αi−1 , −1, αi+1 , ..., αk } evidentemente não é a solução trivial. Este resultado explica o nome “vetores
linearmente dependentes”.

Subespaços Vetoriais de Rn
Definição. Um subconjunto não vazio W ⊂ Rn é um subespaço vetorial de Rn se satisfaz as duas
condições seguintes:
(i) Se v, w ∈ W, então v + w ∈ W também.
(ii)Se v ∈ W e α é um escalar, então αv ∈ W também.
Em outras palavras, um subespaço vetorial de Rn é um conjunto fechado em relação às operações de
soma de vetores e multiplicação por escalar, isto é, fazendo qualquer uma destas operações com elementos do
conjunto não saı́mos dele. Note que um subespaço vetorial sempre contém o vetor nulo 0, pois por definição
um subespaço é não vazio, logo deve conter algum vetor v; mas daı́, de acordo com (ii), o vetor 0v também
deve pertencer ao subespaço.
Note também que se um subespaço contém o vetor v, então ele contém o conjunto {αv : α ∈ R}, que é
exatamente a reta que passa pela origem com direção v. [Uma reta que não passa pela origem não pode ser
nunca um subespaço vetorial de Rn , pois não contém o vetor nulo, entre outros motivos.] Mais geralmente, se
v, w ∈ W, então W contém todas as combinações lineares de v e w; ainda mais geralmente, se v1 , ..., vk ∈ W,
então W contém todas as combinações lineares de v1 , ..., vk .
Exemplo 8. A esfera S 2 não é um subespaço vetorial de R3 , pois se v ∈ S 2 , αv ∈
/ S 2 se α 6= ±1.
Exemplo 9. O subconjunto formado por duas retas que se encontram na origem não é um subespaço vetorial
de Rn , pois embora a propriedade (ii) seja satisfeita, a propriedade (i) não é satisfeita se v está em
uma reta e w na outra.
Exemplo 10. O conjunto W = {(x, y, 0) : x, y ∈ R} é um subespaço de R3 . Com efeito, se v, w ∈ W então
v e w se escrevem na forma v = (x1 , y1 , 0), w = (x2 , y2 , 0). Portanto, v + w = (x1 + x2 , y1 + y2 , 0)
e αv = (αx1 , αy1 , 0), que são vetores de W , por definição de W. Note que W é exatamente o plano
z = 0, um plano que contém a origem. Na verdade, todas as retas que passam pela origem e todos os
planos que passam pela origem são exemplos de subespaços de R3 .
De fato, um plano que passa pela origem é definido por
W = {(x, y, z) : ax + by + cz = 0},
onde a, b, c são números reais especı́ficos. Se v = (x1 , y1 , z1 ), w = (x2 , y2 , z2 ) ∈ W então ax1 +by1 +cz1 =
0 e ax2 + by2 + cz2 = 0, donde
a(x1 + x2 ) + b(y1 + y2 ) + c(z1 + z2 ) = 0
e
a(αx1 ) + b(αy1 ) + c(αz1 ) = 0,
isto é, v + w ∈ W e αv ∈ W.

4
Exemplo 11. Por outro lado, planos que não passam pela origem não são subespaços vetoriais de Rn . De
fato, tais planos são definidos por

S = {(x, y, z) : ax + by + cz + d = 0},

onde a, b, c, d são números reais especı́ficos e d 6= 0. Claramente, se v = (x1 , y1 , z1 ), w = (x2 , y2 , z2 ) ∈ S


temos que v + w ∈ / S, pois ax1 + by1 + cz1 + d = 0 e ax2 + by2 + cz2 + d = 0, donde

a(x1 + x2 ) + b(y1 + y2 ) + c(z1 + z2 ) + 2d = 0,

isto é, as coordenadas de v + w não satisfazem a equação do plano S, logo este ponto não está neste
plano.

O exemplo anterior pode ser generalizado para Rn da seguinte forma:

Proposição. O conjunto solução de um sistema linear homogêneo AX = 0 em n variáveis é um subespaço


vetorial de Rn .
O conjunto solução de um sistema linear não homogêneo AX = B, B 6= 0 não é um subespaço vetorial
de Rn .
Exemplo 0a. Dentro do espaço vetorial das funções reais, o subconjunto das funções contı́nuas é um sube-
spaço vetorial. Dentro do espaço vetorial das funções contı́nuas, o subconjunto das funções difer-
enciáveis é um subespaço vetorial. Dentro do espaço vetorial das funções diferenciáveis, o subconjunto
das funções duas vezes diferenciáveis (funções que possuem uma derivada segunda em todo ponto) é
um subespaço vetorial. Outro subespaço vetorial importante é o subespaço das funções polinomiais,
isto é, funções da forma

f (x) = an xn + an−1 xn−1 + ... + a1 x + a0 , para algum n ∈ N.

Dentro deste espaço, o conjunto das funções polinomiais de grau menor ou igual a n, para cada n
fixado, é um subespaço vetorial.

3. Vetores Geradores
Definição. Dizemos que um conjunto S = {V1 , ..., Vk } de vetores de um subespaço W gera W se todo vetor
de W é uma combinação linear dos vetores de S.

Quando isso ocorre, dizemos que W é o subespaço gerado por V1 , ..., Vk .

Exemplo 12. O subespaço


W = {(a, b, a + b) : a, b ∈ R}
é gerado pelos vetores V1 = (1, 0, 1) e V2 = (0, 1, 1), pois todo vetor de W é dado por

(a, b, a + b) = a(1, 0, 1) + b(0, 1, 1).

Exemplo 13. Sabemos que os vetores i, j, k geram o espaço R3 . Os vetores V1 = (1, 1, 0), V2 = (0, 1, 1), V3 =
(1, 0, 1) e V4 = (1, 1, 2) também geram R3 . De fato,

x1 V1 + x2 V2 + x3 V3 + x4 V4 = (a, b, c)

é equivalente ao sistema linear 


 x1 + x3 + x4 = a
x1 + x2 + x4 = b
x2 + x3 + 2x4 = c

5
cuja matriz aumentada é  
1 0 1 1 a
 1 1 0 1 b 
0 1 1 2 c
que por sua vez tem forma escalonada reduzida
a+b−c
 
1 0 0 0
 2 

 0 1 0 1 −a + b + c 
,
 2 
 a−b+c 
0 0 1 1
2
ou seja, existe uma solução (x1 , x2 , x3 , x4 ). Note que na verdade existem infinitas soluções, diferente
de
x1 i + x2 j + x3 k = (a, b, c)
que possui uma solução única. Note que na verdade os vetores V1 , V2 e V3 por si só já são suficientes
para gerar R3 . Neste caso também o sistema equivalente possui solução única. Isso sugere que em R3
tomar mais que três vetores para gerar o espaço é um desperdı́cio.
Exemplo 14. Por outro lado, os vetores V1 = (1, 1, 2), V2 = (0, 1, 1) e V3 = (1, 0, 1) não geram R3 . De fato
o sistema equivalente a
x1 V1 + x2 V2 + x3 V3 = (a, b, c)
é 
 x1 + x3 = a
x1 + x2 = b
2x1 + x2 + x3 = c

que tem como matriz aumentada  


1 0 1 a
 1 1 0 b 
2 1 1 c
cuja forma escalonada reduzida é
1 0 1 a
0 1 −1 b−a ,
0 0 0 c−a−b
logo o sistema só possui solução se c − a − b 6= 0, o que implica que vetores (a, b, c) de R3 tais que
c − a − b = 0 não podem ser escritos como combinação linear de V1 , V2 e V3 .
Exemplo 0b. O conjunto infinito S = {1, x, x2 , x3 , ...} gera o subespaço P das funções polinomiais. Não é
possı́vel encontrar um subconjunto finito de funções polinomiais capaz de gerar todo o subespaço das
funções polinomiais, pois qualquer combinação linear de funções polinomiais de um subconjunto finito
vai ter grau no máximo igual ao maior grau entre todas as funções polinomiais neste conjunto, enquanto
que o subespaço das funções polinomiais sempre possui funções polinomiais com grau arbitrariamente
grande. Já o subespaço de funções polinomiais de grau menor ou igual a n possui um conjunto finito
de geradores, por exemplo {1, x, x2 , ..., xn }.
Exemplo 15. (Geradores de um Subespaço definido por um Sistema Linear Homogêneo) Já vimos que o
conjunto solução de um sistema linear homogêneo AX = 0 é um subespaço vetorial. Vamos encontrar
um conjunto de geradores para este subespaço. Por exemplo, considere o sistema homogêneo

 x1 − 2x2 + 3x3 − 4x4 = 0
−3x1 + 6x2 + 9x3 − 6x4 = 0
−2x1 + 4x2 − 6x3 + 8x4 = 0

6
representado pela matriz aumentada
 
1 −2 3 −4 0
 −3 6 9 −6 0  .
−2 4 −6 8 0

Ele tem como matriz escalonada reduzida


 
1 −2 0 −1 0
 0 0 1 −1 0  ,
0 0 0 0 0

de modo que sua solução geral é da forma


           
x1 2α + β 2α β 2 1
 x2   α α   0
 = α 1  + β 0 
     
 x3  = 
   = + ,
β   0   β   0   1 
x4 β 0 β 0 1

logo (2, 1, 0, 0) e (1, 0, 1, 1) são geradores para este subespaço de R4 .

4. Bases e Dimensão
Dado um conjunto de geradores S = {V1 , ..., Vk } para um subespaço vetorial W, alguns deste geradores
podem ser redundantes. De fato, se o conjunto S for linearmente dependente, já vimos que um dos vetores
pode ser escrito como combinação linear dos outros. Este vetor é portanto desnecessário para gerar W: os
outros vetores de S já são suficientes. Podemos então retirar este vetor do conjunto e o conjunto resultante
S1 ainda será um conjunto de geradores para W. Se o conjunto resultante S1 também for linearmente
dependente, podemos repetir este processo. Fazendo isso tantas vezes quanto necessário obteremos no final
um conjunto de geradores para W que é linearmente independente.

Definição. Dizemos que um subconjunto B = {V1 , ..., Vk } é uma base para o subespaço W se
(i) B gera W, e
(ii) B é L.I.
Exemplo 16. Os vetores i, j, k formam uma base para R3 . Os vetores E1 , ..., En formam uma base para
Rn .
Exemplo 17. Os vetores (2, 1, 0, 0) e (1, 0, 1, 1), geradores do subespaço de R4 considerado no Exemplo 15
são L. I., logo eles formam uma base para este subespaço.

Uma base para um subespaço contém o número mı́nimo de vetores necessários para gerar este subespaço.
Este número mı́nimo é uma propriedade intrı́nseca do subespaço: como provamos a seguir, duas bases para
um subespaço sempre contém o mesmo número de elementos.

Teorema 1. Se {V1 , ..., Vk } e {W1 , ..., Wl } são duas bases de um subespaço W, então k = l.

Prova: Para provar este resultado, basta provar o seguinte:

Lema. Se {U1 , ..., Um } é uma base de um subespaço W, então qualquer subconjunto de W com mais de m
vetores é linearmente dependente.

7
Prova: Seja {Z1 , ..., Zp } um subconjunto de W com p > m. Mostraremos que {Z1 , ..., Zp } é L. D., isto é,
que o sistema
x1 Z1 + ... + xp Zp = 0 (1)
possui uma solução não trivial.
Como {U1 , ..., Um } é uma base para W, cada vetor Zj pode ser escrito como combinação linear dos
vetores U1 , ..., Um . Podemos então escrever, para cada j,

Zj = a1j U1 + ... + amj Um

para alguns escalares a1j , ..., amj .


Substituindo estas expressões para Zj na equação (1), obtemos

(a11 x1 + ... + a1p xp )U1 + ... + (am1 x1 + ... + amp xp )Um = 0.

Mas como {U1 , ..., Um } é uma base para W, os vetores U1 , ..., Um são linearmente independentes, portanto

a11 x1 + ... + a1p xp = 0,


.. .. ..
. . .
am1 x1 + ... + amp xp = 0.

Ou seja, obtemos um sistema homogêneo de m equações a p incógnitas. Como o número de incógnitas é


maior que o número de equações, o sistema possui solução não trivial.
Voltando à demonstração do Teorema, suponha por contradição que l > k. Então {W1 , ..., Wl } é um
conjunto com mais de k vetores, e pelo lema {W1 , ..., Wl } é L.D., contrariando a hipótese de que {W1 , ..., Wl }
é uma base de W. Analogamente obtemos uma contradição se supormos que k > l.

Definição. A dimensão de um subespaço W é o número de vetores de qualquer uma de suas bases,


denotada dimW.

Definimos também dim{0} = 0. Segue do Exemplo 16 que dim Rn = n.

Exemplo 18. Uma reta que passa pela origem tem dimensão 1, pois ela é gerada pelo seu vetor direção
e já vimos que um conjunto que contém um único vetor não nulo é L. I. Um plano que passa pela
origem tem dimensão 2. De fato, se ax + by + cz = 0 é uma equação geral para um tal plano, fazendo
1
x = t, y = s obtemos z = − (at + bs), ou seja, uma equação paramétrica para este plano é
c

 x = t

y = s
 z = −at − bs

c c
a b
donde (1, 0, − ) e (0, 1, − ) são vetores geradores para este plano. Como estes vetores são L. I., eles
c c
formam uma base para este subespaço.
Exemplo 0c. Como não podemos encontrar um subconjunto finito de geradores para o subespaço vetorial
P das funções polinomiais, decorre que sua dimensão é infinita. Para sermos mais precisos, o conjunto
infinito S = {1, x, x2 , x3 , ...}, além de gerar P, é também L. I., logo é uma base para P. Daı́ concluı́mos
que dim P = ℵ0 . É possı́vel provar que para o espaço vetorial F das funções reais (ou mesmo o das
funções contı́nuas, ou o das funções diferenciáveis) temos dim F > ℵ0 .
Teorema 2. Seja W um subespaço de dimensão m. Se {V1 , ..., Vm } é L.I., então {V1 , ..., Vm } é uma base
para W.

8
Prova: Basta provar que {V1 , ..., Vm } gera W. Dado V ∈ W, precisamos provar que V é uma combinação
linear de V1 , ..., Vm . E, de fato, como dim W = m, o conjunto {V1 , ..., Vm , V } é L.D., pelo lema anterior.
Logo
x1 V1 + ... + xm Vm + xm+1 V = 0
possui uma solução não trivial (x1 , ..., xm , xm+1 ). Por outro lado, não podemos ter xm+1 = 0, pois isso
implicaria que (x1 , ..., xm ) é uma solução não trivial para x1 V1 + ... + xm Vm = 0, contrariando o fato de que
estes vetores são L. I. Concluı́mos, pois, que xm+1 6= 0 e portanto podemos dividir por xm+1 , obtendo
x1 xm
V =− V1 − ... − Vm ,
xm+1 xm+1
como querı́amos.

Exemplo 19. Os vetores (1, 0, 1), (2, 1, 3) e (0, 1, −2) são L. I., porque
 
1 0 1
det  2 1 3  = −3 6= 0,
0 1 −2

logo eles formam uma base para R3 .

Produto Escalar em Rn
Definição. O produto escalar de dois vetores V = (v1 , ..., vn ), W = (w1 , ..., wn ) de Rn é definido por

V · W = v1 w1 + ... + vn wn .

A norma de um vetor V = (v1 , ..., vn ) de Rn é definida por


√ q
kV k = V · V = v12 + ... + vn2 .

Assim, dizemos que V é um vetor unitário de Rn se kV k = 1.

Proposição. (Propriedades do Produto Escalar) Se U, V, W são vetores de Rn , e α é um escalar, então

1. V · W = W · V
2. U · (V + W ) = U · V + U · W
3. α(V · W ) = (αV ) · W = V · (αW )
2
4. V · V = kV k ≥ 0 e kV k = 0 se e somente se V = 0.
5. Desigualdade de Cauchy-Shwartz:
|V · W | ≤ kV k kW k
6. Desigualdade Triangular:
kV + W k ≤ kV k + kW k
2
Prova: Para provar (4), note que kxV + W k ≥ 0 para qualquer número real x. Como
2 2 2
kxV + W k = (xV + W ) · (xV + W ) = x2 kV k + 2(V · W )x + kW k ,

segue que temos um polinômio do segundo grau em x que satisfaz


2 2
kV k x2 + 2(V · W )x + kW k ≥ 0,

9
2
isto é, a parábola com concavidade para cima que ele representa (pois o coeficiente de x2 é kV k ≥ 0) nunca
assume valores negativos, logo seu discriminante não pode ser positivo (se fosse, terı́amos duas raı́zes reais
distintas e portanto o vértice da parábola teria valor negativo):
2 2
4|V · W |2 − 4 kV k kW k ≤ 0

donde segue o resultado desejado.


Para provar (5), use (4) e escreva
2 2 2
kV + W k = (V + W ) · (V + W ) = kV k + 2(V · W ) + kW k
2 2
≤ kV k + 2|V · W | + kW k
2 2
≤ kV k + 2 kV k kW k + kW k
2
= (kV k + kW k) .

Tomando a raiz quadrada de ambos os lados, segue o resultado.

Definição. O ângulo entre dois vetores não nulos V, W de Rn é definido como o valor de θ entre 0 e 180◦
tal que
V ·W
cos θ = .
kV k kW k

Observação: Esta definição faz sentido porque pela desigualdade de Cauchy-Schwartz temos que
V ·W
−1 ≤ ≤ 1.
kV k kW k

5. Bases Ortonormais
O próximo resultado prova o fato intuitivamente sugerido que vetores mutuamente ortogonais em Rn definem
direções independentes em Rn .

Proposição. Sejam V1 , ..., Vk vetores não nulos de Rn ortogonais dois a dois, isto é, Vi · Vj = 0 para i 6= j.
Então V1 , ..., Vk são L. I.

Prova: Temos que provar que se


x1 V1 + ... + xk Vk = 0,
então x1 = ... = xk = 0. Fazendo o produto escalar de ambos os lados desta equação com Vi , para cada i,
obtemos (usando o fato de que Vi · Vj = 0 se i 6= j)
2
xi kVi k = 0.

Como por hipótese os vetores são não nulos, isso necessariamente implica xi = 0.

Definição. Dado um subespaço vetorial W de Rn , dizemos que {V1 , ..., Vk } é uma base ortogonal para
W se este conjunto de vetores for uma base para W e eles forem ortogonais dois a dois. Se além disso
eles forem unitários, dizemos que {V1 , ..., Vk } é uma base ortonormal para W.

Exemplo 21. {i, j, k} é uma base ortonormal para R3 . Mais geralmente, os vetores E1 , ..., En definidos
anteriormente, formam uma base ortonormal para Rn .

Podemos encontrar uma base ortonormal para qualquer subespaço vetorial de Rn através de um algoritmo
chamado processo de ortogonalização de Gram-Schmidt. Ele é baseado no seguinte resultado:

10
Lema. Seja W um vetor não nulo de Rn . Então, para qualquer vetor V de Rn , o vetor

V − projW V

é ortogonal a W .
Em geral, sejam W1 , ..., Wk vetores não nulos de Rn , ortogonais dois a dois. Então, para qualquer
vetor V de Rn , o vetor
V − projW1 V − ... − projWk V
é ortogonal a cada um dos vetores Wi .

Prova: Temos
!
V ·W V ·W
(V − projW V ) · W = V − 2W ·W =V ·W − 2W · W = 0.
kW k kW k

Analogamente, temos
!
V · W1 V · Wn
(V − projW1 V − ... − projWk V ) · W = V − 2 W1 − ... − 2 Wn · Wi
kW1 k kWn k
V · Wi
= V · Wi − 2 Wi · Wi = 0.
kWi k

Processo de Ortogonalização de Gram-Schmidt. Se {V1 , ..., Vk } é uma base qualquer de um subespaço


W de Rn , podemos a partir desta base construir uma base para W que também é ortonormal. Primeiro
construı́mos uma base ortogonal usando o lema anterior, tomando

W 1 = V1
W2 = V2 − projW1 V2
W3 = V3 − projW1 V3 − projW2 V3
..
.
Wk = Vk − projW1 Vk − ... − projWk−1 Vk .

De fato, usando o lema, vemos que W2 é ortogonal a W1 ; além disso, W2 é também não nulo (W1 claramente
é não nulo, pois W1 = V1 ) porque se tivéssemos V2 = projW1 V2 , então em particular V2 seria um múltiplo
escalar de W1 = V1 , violando a hipótese de que {V1 , V2 } são L. I. Note que W2 é uma combinação linear de
V1 , V 2 .
Em seguida, vemos que segue do lema que W3 é ortogonal a W1 , W2 . Igualmente não podemos ter W3 = 0,
pois V3 = projW1 V3 + projW2 V3 implicaria que V3 é uma combinação linear de V1 , V2 (pois projW1 V3 é um
múltiplo escalar de W1 = V1 e projW2 V3 é um múltiplo escalar de W2 que, como vimos acima, é uma
combinação linear de V1 , V2 . Mas, por hipótese, {V1 , V2 , V3 } são L. I. Note que W3 é uma combinação linear
de V1 , V2 , V3 .
E assim por diante, até o vetor Wk , que pelo lema é ortogonal a W1 , ..., Wk e é não nulo porque Vk =
projW1 Vk + ... + projWk−1 Vk implicaria que Vk é uma combinação linear de V1 , ..., Vk−1 , contradizendo a
hipótese de que {V1 , ..., Vk } é L. I.
A partir da base ortogonal {W1 , ..., Wk } é fácil obter uma base ortonormal {U1 , ..., Uk }. Basta tomar

W1 Wk
U1 = , .., Uk =
kW1 k kWk k

11
Exemplo 21. Aplique o processo de ortogonalização de Gram-Schmidt à base {(1, 1, 0), (1, 0, 1), (0, 1, 1)}
de R3 para encontrar uma base ortonormal para R3 cujo primeiro vetor seja um múltiplo escalar de
(1, 1, 0).
Resposta: Faça
W1 = (1, 1, 0).
Em seguida, faça

(1, 0, 1) · (1, 1, 0) 1 1 1 1
W2 = V2 − projW1 V2 = (1, 0, 1) − 2 (1, 1, 0) = (1, 0, 1) − ( , , 0) = ( , − , 1),
k(1, 1, 0)k 2 2 2 2
e

(0, 1, 1) · (1, 1, 0) (0, 1, 1) · ( 12 , − 12 , 1) 1 1


W3 = V3 − projW1 V3 − projW2 V3 = (0, 1, 1) − 2 (1, 1, 0) − 1 1 2 ( , − , 1)
k(1, 1, 0)k ( , − , 1) 2 2
2 2
 
1 1 1 1 1 2 2 2
= (0, 1, 1) − ( , , 0) − ( , − , ) = − , , .
2 2 6 6 3 3 3 3
√ q
Daı́, como kW1 k = 2, kW2 k = 32 , kW3 k = √2 ,
3
segue que
√ √ ! √ √ √ ! √ √ √ !
2 2 6 6 6 3 3 3
U1 = , , 0 , U2 = ,− , , U3 = − , , .
2 2 6 6 6 3 3 3

12