Você está na página 1de 81

Capítulo 2

Produto interno

O conceito de produto interno é dos mais importantes em Álgebra Linear. Na ver-


dade, as noções de comprimento e ortogonalidade não aparecem nos espaços vetoriais
arbitrários, para isso é necessário introduzirmos uma estrutura adicional no espaço,
isto é, munir o espaço de uma métrica. Isso permitir-nos-á calcular distâncias e
ângulos e, também, traduzir a noção de perpendicularidade. Este conceito será
introduzido em espaços vetoriais reais ou complexos, com especial relevo para os
espaços Rn .

2.1 Espaços vetoriais euclideanos e unitários


2.1.1 Espaços vetoriais euclideanos
Nesta subsecção vamos introduzir o conceito de produto interno para espaços veto-
riais reais e apresentar alguns exemplos clássicos.

Definição 2.1. Seja E um espaço vetorial real de dimensão arbitrária. Chama-


remos produto interno ou produto escalar em E a qualquer aplicação E × E → R
que a cada par (x, y) ∈ E × E associa um número real denotado por x | y e
satisfazendo os axiomas seguintes:

A1. (x + y) | z = x | z + y | z para quaisquer x, y, z ∈ E (axioma da adi-


tividade).

A2. (αx) | y = α (x | y) para quaisquer x, y ∈ E e qualquer número real α ∈ R


(axioma da homogeneidade).

A3. x | y = y | x para quaisquer x, y ∈ E (axioma da simetria).



x | x ≥ 0 para qualquer x ∈ E,
A4. (axioma da positividade).
Se x | x = 0 então x = 0E
Nestas condições, diremos que o espaço E está munido do produto interno
· | · : E × E → R. Se E tem dimensão finita também diremos que o par (E, · | ·)
é um espaço vetorial euclideano.
O exemplo anterior pode ser generalizado a qualquer espaço vetorial real de
dimensão finita.
Exemplo 2.5. Seja E um espaço vetorial real de dimensão finita n e seja B =
(e1 , . . . , en ) uma base de E. Então, a aplicação · | · : E × E → R definida, para
quaisquer vetores x = x1 e1 + · · · + xn en e v = y1 e1 + · · · + yn en de E, por
x | y = x1 y1 + x2 y2 + · · · + xn yn
é um produto interno em E. No caso em que E = Rn e em que B é a base canónica
de Rn , · | · será obviamente o produto interno canónico em Rn .
Exemplo 2.6. Seja · | · : R2 × R2 → R a aplicação definida, para quaisquer vetores
x = (x1 , x2 ) e y = (y1 , y2) de R2 , por
x | y = x1 y1 − x1 y2 − x2 y1 + 3x2 y2 .
Vamos provar que valem os axiomas A1 - A4:
A1. Sejam x = (x1 , x2 ), y = (y1 , y2), z = (z1 , z2 ) ∈ R2 . Temos
(x + y) | z = (x1 + y1 , x2 + y2 ) | (z1 , z2 )
= (x1 + y1 )z1 − (x1 + y1 )z2 − (x2 + y2 )z1 + 3(x2 + y2 )z2
= (x1 z1 − x1 z2 − x2 z1 + 3x2 z2 ) + (y1 z1 − y1 z2 − y2 z1 + 3y2z2 )
= x | z + y | z.

A2. Sejam x = (x1 , x2 ), v = (y1 , y2 ) ∈ R2 e seja α ∈ R. Temos


(αx) | y = (αx1 , αx2 ) | (y1 , y2) = (αx1 )y1 − (αx1 )y2 − (αx2 )y1 + 3(αx2 )y2
= α(x1 y1 − x1 y2 − x2 y1 + 3x2 y2 ) = α(x | y).

A3. Sejam u = (x1 , x2 ), v = (y1 , y2 ) ∈ R2 . Temos


x | y = x1 y1 − x1 y2 − x2 y1 + 3x2 y2 = y1 x1 − y2 x1 − y1 x2 + 3y2 x2 = y | x.

A4. Temos, para qualquer vetor x = (x1 , x2 ) de R2 ,


x | x = x21 − 2x1 x2 + 3x22 = (x1 − x2 )2 + 2x22 ≥ 0.
Além disso,
x | x = 0 ⇐⇒ x1 − x2 = 0 ∧ x2 = 0 ⇐⇒ x1 = 0 ∧ x2 = 0 ⇐⇒ x = (0, 0).

São satisfeitos todos os axiomas e, portanto, · | · é um produto interno em R2 .


Observação. Dos exemplos apresentados podemos concluir que, num dado espaço
vetorial real, pode estar definido mais do que um produto interno e, por isso, de-
veremos ter presente qual a definição de · | · que estamos a usar. E se usados
em simultâneo é conveniente usarmos notações diferentes para que não haja ambi-
guidade. Assim, nesse caso, a notação · | · será sempre reservada para o produto
interno do exemplo 2.5 e para outro distinto podemos escrever u |′ v ou u |2 v, para
distinguir. Por exemplo, denotando por · |′ · o produto interno do exemplo 2.6 temos

21003 - Álgebra Linear II 71


(1, −1) | (2, 4) = 1 · 2 + (−1)4 = 2 − 4 = −2 (produto interno canónico)
(1, −1) |′ (2, 4) = 1 · 2 − 1 · 4 − (−1) · 2 + 3(−1)4 = 2 − 4 + 2 − 12 = −12.
Nem todas as expressões do tipo acima definem um produto interno.
Exemplo 2.7. Seja · | · : R2 × R2 → R a forma definida, para quaisquer vetores
x = (x1 , x2 ) e y = (y1 , y2 ) de R2 , por
x | y = x1 y1 − 3x1 y2 − 3x2 y1 + 5x2 y2 .
Tal como no exemplo 2.6, prova-se que os axiomas A1, A2 e A3 são satisfeitos.
Vejamos agora o que se passa com A4. Seja x = (x1 , x2 ) ∈ R2 . Temos
x | x = x21 − 6x1 x2 + 5x22 = (x1 − 3x2 )2 − 4x22 .
Como não temos uma soma de quadrados nem sempre temos a garantia de x | x ≥ 0.
Basta encontrar
um vetor x tal De facto, para x = (2, 1) temos
que x | x < 0 pa-
ra que · | · não
(2, 1) | (2, 1) = (2 − 3 · 1)2 − 4 · 12 = −3 < 0
seja um produto e, portanto, A4 é falso. Assim, · | · é uma forma bilinear simétrica mas não é
interno.
definida positiva, logo não é um produto interno em R2 .

Vejamos, agora, dois exemplos clássicos noutros espaços vetoriais reais.

Exemplo 2.8. O conjunto C[a, b] = {f : [a, b] → R : f é contínua} das funções reais


de variável real contínuas no intervalo [a, b], munido com as operações usuais, é um
espaço vetorial real. Podemos definir em C[a, b] um produto interno por
Z b
f |g= f (x)g(x)dx.
a

A verificação é feita usando propriedades conhecidas dos integrais.


Relativamente a este produto interno, supondo a = 0 e b = 2π, podemos calcular
o produto interno entre as funções sen e cos definidas no intervalo [0, 2π]:
Z 2π 2π
sen2 x
sen | cos = sen x cos xdx = = 0.
0 2 0
Exemplo 2.9. No conjunto das matrizes quadradas com entradas reais Mn×n (R)
podemos definir um produto interno, para todas A, B ∈ Mn×n (R), por
A | B = tr(AB T ).
Exercício. A verificação é feita usando propriedades conhecidas da multiplicação de matrizes
e da transposta.

2.1.2 Espaços vetoriais unitários


Nesta subsecção, iremos considerar espaços vetoriais sobre o corpo C dos números
complexos, a que nos referiremos simplesmente por espaços vetoriais complexos.

72 Ana L. Correia
Para recordar, um número complexo z ∈ C tem a forma
z = a + bi
onde a e b são números reais e i é o número imaginário

i = −1
e, portanto, i2 = −1. Como é usual, referir-nos-emos ao número real a como sendo
a parte real de z (e denotá-la-emos por Re z) e ao número real b como sendo a
parte imaginária de z (que denotaremos por Im z. Qualquer número real a pode
ser identificado com o número complexo a + 0i e, portanto, podemos considerar
(como faremos) que R é um subconjunto de C. Além disso, dado qualquer número
complexo z = a + bi, a, b ∈ R, o conjugado de z , que denotamos por z, é (por
definição) o número complexo
z = a − b i.
É fácil verificar que, dado um número complexo z ∈ C, temos
z ∈ R ⇐⇒ z = z; (2.1)
por outras palavras, os números reais são exatamente os número complexos que
coincidem com o seu conjugado. Além disso, para quaisquer z, w ∈ C, temos
z+w =z+w , z·w =z·w , z =z (2.2)
z + z = 2 Re z , z − z = 2(Im z)i. (2.3)
Finalmente, se z = a + b i, a, b ∈ R, for qualquer número complexo, o módulo de z,
que denotaremos por |z|, é o número real (positivo ou nulo) definido por

|z| = a2 + b2 .
Para qualquer número complexo z, temos
|z| = |z| , zz = |z|2 e |z| = 0 ⇐⇒ z = 0. (2.4)

Definição 2.10. Dado um espaço vetorial complexo E (de dimensão arbitrária),


chamaremos produto interno em E a qualquer aplicação · | · : E × E → C que
satisfaça os axiomas seguintes:

A1. (x + y) | z = x | z + y | z para quaisquer x, y, z ∈ E (axioma da adi-


tividade).

A2. (αx) | y = α(x | y) para quaisquer x, y ∈ E e qualquer número complexo


α ∈ C (axioma da homogeneidade).

A3. x | y = y | x para quaisquer x, y ∈ E (axioma da hermiticidade). Na proposição


 2.12 provamos
x | x ≥ 0 para qualquer x ∈ E que x | x ∈ R,
A4. (axioma da positividade).
Se x | x = 0 então x = 0E , para todo x ∈ E
e, portanto, o
Nestas condições, diremos que o espaço E está munido do produto interno axioma A4 tam-
· | · : E × E → C. Se E tem dimensão finita também diremos que o par (E, · | ·) bém faz sentido
é um espaço vetorial unitário. no caso de espa-
ços complexos.

21003 - Álgebra Linear II 73


Definição 2.11. Qualquer aplicação de E × E → C é designada por forma e:

• dir-se-á uma forma sesquilinear se satisfizer os axiomas A1 e A2;

• dir-se-á uma forma hermítica se satisfizer o axioma A3;

• dir-se-á uma forma definida positiva se satisfizer o axioma A4.

Desta forma, um produto interno num espaço vetorial complexo é uma forma
sesquilinear hermítica definida positiva.

O conceito sesquilinear (e não bilinear) no caso complexo é justificado na alínea


(c) da proposição seguinte.

Proposição 2.12. Suponhamos que E está munido de um produto interno


· | · : E × E → C. Então:

(a) x | x é um número real para qualquer vetor x ∈ E.

(b) x | (y + z) = x | y + x | z para quaisquer vetores x, y, z ∈ E.

(c) x | (αy) = α (x | y) para quaisquer vetores x, y ∈ E e qualquer número


complexo α ∈ C.

(d) x | 0E = 0E | x = 0 para qualquer vetor x ∈ E.

(e) x | x > 0 se e só se x 6= 0E .

Demonstração. (a) Temos, por A3 para o produto interno sobre C, que x | x = x | x,


para todo x ∈ E. Logo, por (2.1), x | x ∈ R.
(b) Sejam x, y, z ∈ E quaisquer. Temos

x | (y + z) = (y + z) | x = y | x + z | x = y | x + z | x = x | y + x | z
A3 A1 (2.2) A3

= x|y+x|z
(2.2)

(c) Sejam x, y ∈ E e α ∈ C quaisquer. Temos

x | (αy) = (αy) | x = α(y | x) = α y | x = α x | y = = α (x | y).


A3 A2 (2.2) A3 (2.2)

(d) Seja x ∈ E. Temos, por um lado,


x | 0E = x | (0 · x) = 0 (x | x) = 0.
(c) | {z }
∈R

Por outro lado,


x | 0E = 0E | x = 0 = 0.
(e) Usa um argumento idêntico ao da proposição 2.3.

74 Ana L. Correia
O leitor deve reparar na analogia com a “situação real” que tratámos na secção
anterior. Esta analogia continua nos exemplos seguintes.
Exemplo 2.13. Para qualquer n ∈ N, seja · | · : Cn × Cn → C a aplicação definida,
para quaisquer vetores x = (x1 , . . . , xn ) e y = (y1 , . . . , yn ) de Cn , por

x | y = x1 y1 + x2 y2 + · · · + xn yn .

Também neste caso, é fácil verificar que · | · é um produto interno em Cn . A título de


exemplo verificamos os axiomas A3 e A4. Para A3, consideremos quaisquer vetores
x = (x1 , . . . , xn ) e y = (y1 , . . . , yn ) de Cn . Temos, por (2.2),

x | y = x1 y1 + x2 y2 + · · · + xn yn = x1 y1 + x2 y2 + · · · + xn yn
= x1 y1 + x2 y2 + · · · + xn yn = y1 x1 + y2 x2 + · · · + yn xn = y | x.

Por outro lado, para A4, seja x = (x1 , . . . , xn ) um vetor qualquer de Cn

x | x = x1 x1 + x2 x2 + · · · + xn xn = |x1 |2 + |x2 |2 + · · · + |xn |2 ≥ 0.

Além disso,

x | x = 0 ⇐⇒ |x1 |2 + |x2 |2 + · · · + |xn |2 = 0 ⇐⇒ |xi |2 = 0, i = 1, . . . , n


⇐⇒ xi = 0, i = 1, . . . , n ⇐⇒ x = 0.
(2.4)

Ao produto interno · | ·, definido neste exemplo, chamaremos o produto interno


canónico em Cn .
O exemplo anterior pode ser generalizado a qualquer espaço vetorial complexo
de dimensão finita (à semelhança do que fizémos no exemplo 2.5).
Exemplo 2.14. Seja E um espaço vetorial complexo de dimensão finita e seja
B = (e1 , . . . , en ), n = dim E, uma base de E. Então, a aplicação · | · : E × E → C
definida por
x | y = x1 y1 + x2 y2 + · · · + xn yn
para quaisquer vetores u = x1 e1 + · · · + xn en e v = y1 e1 + · · · + yn en de E, é um
produto interno em E. No caso em que E = Cn e em que B é a base canónica de
Cn , · | · será obviamente o produto interno canónico em Cn .
Exemplo 2.15. Seja · | · : C2 × C2 → C a aplicação definida por

x | y = x1 y1 − ix2 y1 + ix1 y2 + 2x2 y2

para quaisquer x, y ∈ C2 , x = (x1 , x2 ) e y = (y1 , y2 ). Os axiomas A1 e A2 de


produto interno são fáceis de verificar. Quanto a A3, consideremos quaisquer vetores Exercício.
x = (x1 , x2 ) e y = (y1 , y2) em C2 . Então, por (2.2),

x | y = x1 y1 − ix2 y1 + ix1 y2 + 2x2 y2 = x1 y1 − ix2 y1 + ix1 y2 + 2x2 y2 Note que


i = −i.
= x1 y1 + ix2 y1 − ix1 y2 + 2x2 y2 = y1 x1 − iy2 x1 + iy1 x2 + 2y2x2 = y | x.

21003 - Álgebra Linear II 75


Para A4, seja x = (x1 , x2 ) ∈ C2 qualquer. Temos, por (2.3) e (2.4),

x | x = x1 x1 − ix2 x1 + ix1 x2 + 2x2 x2 = |x1 |2 + (ix1 )x2 + ix1 x2 +2|x2 |2


| {z }
2 2
= |x1 | + 2 Re((ix1 )x2 ) + 2|x2 | .

Pondo x1 = a1 + b1 i e x2 = a2 + b2 i com a1 , a2 , b1 , b2 ∈ R, temos

Confirme! |x1 |2 = a21 + b21 , Re((ix1 )x2 ) = a1 b2 − b1 a2 e |x2 |2 = a22 + b22 .

Logo, a expressão acima tem a forma,

x | x = (a21 + b21 ) + 2(a1 b2 − b1 a2 ) + 2(a22 + b22 )


= (a1 + b2 )2 + b22 + (a2 − b1 )2 + a22 ≥ 0.

Além disso, teremos

(a1 + b2 )2 +b22 +(a2 − b1 )2 +a22 = 0 ⇐⇒ a1 + b2 = 0 ∧ b2 = 0 ∧ a2 − b1 = 0 ∧ a2 = 0


⇐⇒ a1 = 0 ∧ b2 = 0 ∧ b1 = 0 ∧ a2 = 0
⇐⇒ x1 = 0 ∧ x2 = 0 ⇐⇒ x = (0, 0).

Por conseguinte, · | · é um produto interno em C2 .

Provar a positividade pode ser um processo trabalhoso, mesmo no caso de n = 2.


Mais adiante, quando introduzirmos o conceito de matriz de uma forma bilinear,
estudaremos critérios que nos ajudarão nesta tarefa.

2.2 Conceitos geométricos


À custa do produto interno definem-se vários conceitos geométricos. Em particular,
podemos definir os conceitos de norma, ângulo e ortogonalidade entre vetores.

2.2.1 Norma
No que se segue K = R ou K = C. Seja E um espaço vetorial real ou complexo
munido de um produto interno · | · : E × E → K. Sabemos que, para qualquer vetor
x ∈ E temos
x | x é um número real não-negativo
independentemente de K = R ou K = C. Este facto, dá sentido ao conceito de
norma de um vetor.

Definição 2.16. Seja (E, · | ·) um espaço vetorial real ou complexo munido de


um produto interno e seja x ∈ E um vetor arbitrário. Chamaremos norma de x,
que denotaremos por kxk, ao número real (positivo ou nulo)
p
kxk = x | x.

76 Ana L. Correia
Exemplo 2.17. Seja n ∈ N. Considerando em Rn o produto interno canónico
· | · : Rn × Rn → R temos, para qualquer vetor x = (x1 , . . . , xn ) ∈ Rn ,
q
kxk = x21 + · · · + x2n .

Em particular, √ √
k(1, 2)k = 12 + 22 = 5.

Exemplo 2.18. Seja n ∈ N. Considerando em Cn o produto interno canónico


· | · : Cn × Cn → C temos, para qualquer vetor x = (x1 , . . . , xn ) ∈ Cn ,
√ p
kxk = x1 x1 + · · · + xn xn = |x1 |2 + · · · + |xn |2 .

Em particular, p √ √
k(1, i)k = |1|2 + |i|2 = 1+1= 2.

É claro que a norma de um vetor depende do produto interno que estamos a


considerar.

Exemplo 2.19. Consideremos, no espaço vetorial real R2 , o produto interno defi-


nido no exemplo 2.6 e seja x = (1, 2) ∈ R2 . Então,
p √ √
kxk = (1, 2) | (1, 2) = 1 · 1 − 1 · 2 − 2 · 1 + 3 · 2 · 2 = 1 − 2 − 2 + 12 = 3.

Por outro lado, considerando em C2 o produto interno definido no exemplo 2.15 e o


vetor x = (1, i) ∈ C2 , temos
p p √ √
kxk = (1, i) | (1, i) = 1 · 1 − i · i · 1 + i · 1 · i + 2 · i · i = 1 − i2 − i2 − 2i2 = 5.

Como consequência simples dos axiomas de produto interno podemos estabelecer


as seguintes propriedades.

Proposição 2.20. Seja (E, · | ·) um espaço vetorial real ou complexo munido de


um produto interno. Sejam x ∈ E e α ∈ K quaisquer. Então:

(a) kxk = 0 se e só se x = 0E .

(b) kαxk = |α|kxk.

Demonstração. (a) É consequência imediata dos axiomas A4 de produto interno.


(b) Temos
p p p p
kαxk = (αx) | (αx) = (αα)(x | x) = |α|2 x | x = |α|kxk

- usando o axioma A2 e a identidade αα = |α|2 (se α ∈ R então αα = α2 = |α|2 ).

21003 - Álgebra Linear II 77


A propriedade seguinte é conhecida por desigualdade de Cauchy-Schwartz e é
muito importante porque permitirá definir o conceito de ângulo entre dois vetores.

Teorema 2.21. (Desigualdade de Cauchy-Schwartz) Seja (E, · | ·) um


espaço vetorial real ou complexo munido de um produto interno. Sejam x e y
vetores arbitrários de E. Então,

|x | y| ≤ kxkkyk.

Além disso, teremos |x | y| = kxkkyk se e só se x e y forem linearmente


dependentes.

Demonstração. Em primeiro lugar, suponhamos que x e y são linearmente depen-


dentes. Então, ou x = αy para algum escalar α, ou y = βx para algum escalar β.
No primeiro caso, temos
x | y = (αy) | y = α(y | y) = αkyk2,
enquanto que
kxkkyk = kαykkyk = |α|kyk2.
Por conseguinte,
|x | y| = |α|kyk2 = kxkkyk,
como queríamos. O segundo caso é tratado de maneira inteiramente análoga.
Agora, suponhamos que x e y são linearmente independentes. Façamos
y|x
w=y− x.
x|x
Observemos primeiro que w 6= 0E . De facto, se fosse w = 0E teríamos
y|x y|x
w = 0E ⇐⇒ 1y − x = 0 =⇒ 1| {z = 0} ∧ = 0 − contradição.
x|x x,y l. ind. x|x
Assim w 6= 0E e, portanto, kwk > 0 (pela proposição 2.20-(a)). Ora,
y|x y|x y|x y|x
kwk2 = w | w = y | y − (y | x) − (x | y) + (x | x).
x|x x|x x|x x|x
Como y | x = x | y (pelo axioma A3), concluímos que
(x | y)(x | y) |x | y|2 kyk2kxk2 − |x | y|2
kwk2 = y | y − = kyk2 − = .
x|x kxk2 kxk2
Deste modo, como kwk > 0, deduzimos que
kyk2kxk2 − |x | y|2 > 0
e, portanto,
|x | y|2 < kxk2 kyk2 = (kxkkyk)2.
Como |x | y| e kxkkyk são números reais positivos, concluímos que
|x | y| < kxkkyk,
como queríamos.

78 Ana L. Correia
A demonstração está completa (porque os vetores x e y ou são linearmente
dependente ou são linearmente independentes).

Uma consequência da desigualdade de Cauchy-Schwartz é a seguinte, conhecida


por desigualdade triangular. A razão para este nome ficará clara quando introdu-
zirmos o conceito de distância.

Teorema 2.22. (Desigualdade triangular) Seja (E, · | ·) um espaço veto-


rial real ou complexo munido de um produto interno. Sejam x, y ∈ E vetores
quaisquer. Então,
kx + yk ≤ kxk + kyk.

Demonstração. Temos
kx + yk2 = (x + y) | (x + y) = kxk2 + x | y + y | x + kyk2
= kxk2 + kyk2 + x | y + x | y = kxk2 + kyk2 + 2 Re(x | y).
Como, para qualquer número complexo z = a + b i,

Re(z) = a ≤ a2 + b2 = |z|,
concluímos que
kx + yk2 ≤ kxk2 + kyk2 + 2|x | y|.
Usando, agora, a desigualdade de Cauchy-Schwartz, deduzimos que
kx + yk2 ≤ kxk2 + kyk2 + 2kxkkyk = (kxk + kyk)2
e, portanto, como kx + yk, kxk + kyk ≥ 0, obtemos
kx + yk ≤ kxk + kyk,
como queríamos.

A próxima igualdade é conhecida por lei do paralelogramo, porque expressa o


facto de que a soma dos quadrados das diagonais de um paralelogramo é duas vezes
a soma dos quadrados dos seus lados.

Proposição 2.23. (Lei do paralelogramo) Seja (E, · | ·) um espaço veto-


rial real ou complexo munido de um produto interno. Sejam x, y ∈ E vetores
quaisquer. Então,

kx + yk2 + kx − yk2 = 2 kxk2 + kyk2 .

kx
−y yk
k x+
k
k
kx

ky k

21003 - Álgebra Linear II 79


Demonstração. De modo análogo aos cálculos efetuados na demonstração anterior,
temos
 
kx + yk2 + kx − yk2 = kxk2 + kyk2 + 2 Re(x | y) + kxk2 + kyk2 − 2 Re(x | y)

= 2 kxk2 + kyk2 ,

como queríamos.

2.2.2 Ângulo
Até final desta secção, (E, · | ·) é um espaço vetorial real munido de um produto
interno. O conceito que introduziremos agora é uma consequência da desigualdade
de Cauchy-Schwartz e permite (de certo modo) estabelecer a posição relativa de dois
vetores.
Sejam x e y vetores arbitrários de E. Pela desigualdade de Cauchy-Schwartz,
temos |x | y| ≤ kxkkyk, logo

−kxkkyk ≤ x | y ≤ kxkkyk

e, portanto, se x e y forem ambos não nulos, podemos concluir que


x|y
−1 ≤ ≤ 1.
kxkkyk
Nestas condições e atendendo ao comportamento da função cosseno, podemos afir-
mar que existe um único número real 0 ≤ θ ≤ π tal que
x|y
cos θ = .
kxkkyk
De facto, a função cosseno é estritamente decrescente no intervalo [0, π] e, portanto,
a sua restrição a este intervalo é uma função bijetiva. A função inversa é denotada
por arccos e é uma função bijetiva de [−1,1] em [0, π] e temos

arccos α = θ ⇐⇒ cos θ = α e 0 ≤ θ ≤ π.

Deste modo, faz sentido a definição seguinte.

Definição 2.24. Seja (E, · | ·) é um espaço vetorial real munido de um produto


interno e sejam x e y vetores não nulos de E. Chamaremos ângulo entre x e y,
que denotaremos por ∠(x, y), ao (único) número real θ ∈ [0, π] tal que

x|y
cos θ = .
kxkkyk

Quer dizer que


x|y
∠(x, y) = arccos ∈ [0, π].
kxkkyk

80 Ana L. Correia
Observação.

• É importante ter em atenção que o conceito de ângulo só está definido para


espaços vetoriais reais, porque o cosseno é uma função real de variável real.

• O conceito de ângulo só está definido para vetores não-nulos. O vetor nulo


não forma ângulo com qualquer outro vetor, nem com ele próprio.

• A definição anterior permite-nos obter o valor do produto interno entre dois


vetores não nulos de E à custa das normas desses vetores e do ângulo entre
eles. De facto, para quaisquer vetores não nulos x e y de E, temos

x | y = kxkkyk cos ∠(x, y) .

O conceito de ângulo satisfaz propriedades seguintes.

Proposição 2.25. Seja (E, · | ·) é um espaço vetorial real munido de um produto


interno. Sejam x e y vetores não nulos de E e sejam α, β ∈ R. Temos

(a) ∠(x, x) = 0.

(b) ∠(x, y) = ∠(y, x).

(c) ∠(x, y) = ∠(αx, βy) se α e β têm o mesmo sinal.

(d) ∠(x, y) = π − ∠(αx, βy) se α e β têm sinal oposto.

(e) x, y são linearmente dependentes se e só se ∠(x, y) = 0 ou ∠(x, y) = π.

Demonstração. (a) Temos, para qualquer x ∈ E, x 6= 0E ,

x|x kxk2
∠(x, x) = arccos = arccos = arccos 1 = 0.
kxkkxk kxk2

(b) Temos, para quaisquer x, y ∈ E, x, y 6= 0E ,

x|y y|x
∠(x, y) = = = ∠(y, x).
kxkkyk kykkxk

(c) Temos, para quaisquer x, y ∈ E, x, y 6= 0E e quaisquer α, β ∈ R ambos


positivos ou ambos negativos,

(αx) | (βy) αβ(x | y) αβ(x | y)


∠(αx, βy) = arccos = arccos = arccos = ∠(x, y).
kαxkkβyk |α|kxk|β|kyk αβkxkkyk

(d) Sejam x, y ∈ E, x, y 6= 0E e sejam α, β ∈ R com sinais opostos. Então


|α||β| = −αβ. Logo, como em (c),
  Relembre que
αβ(x | y) x|y cos(π − θ) =
∠(αx, βy) = arccos − = π − arccos = π − ∠(x, y).
αβkxkkyk kxkkyk − cos θ.

21003 - Álgebra Linear II 81


(e) Vamos usar a desigualdade de Cauchy-Schwartz (teorema 2.21):

x, y são linearmente dependentes ⇐⇒ |x | y| = kxkkyk


⇐⇒ x | y = kxkkyk ∨ x | y = −kxkkyk
⇐⇒ cos ∠(x, y) = 1 ∨ cos ∠(x, y) = −1
⇐⇒ ∠(x, y) = 0 ∨ ∠(x, y) = π.

Exemplo 2.26. Consideremos R2 munido do produto interno canónico. Sejam


x = (1, 2) e y = (−1, 3). Temos
3

√ √ 2
k(1, 2)k = 12 + 22 = 5 y
p √
k(−1, 3)k = (−1)2 + 32 = 10 1 x
(1, 2) | (−1, 3) = 1 · (−1) + 2 · 3 = 5 π/4
−1 1

Desta forma,

(1, 2) | (−1, 3) 5 2 π
∠(x, y) = arccos = arccos √ = arccos = .
k(1, 2)kk(−1, 3)k 5 2 2 4

2.2.3 Ortogonalidade
Seja (E, · | ·) um espaço vetorial real munido de um produto interno. Dados dois
vetores não nulos x, y ∈ E resulta da definição de ângulo que

π x|y
∠(x, y) = ⇐⇒ cos ∠(x, y) = 0 ⇐⇒ = 0 ⇐⇒ x | y = 0 .
2 kxkkyk

Este facto motiva a definição seguinte que é extensiva também a espaços vetoriais
complexos e a vetores nulos.

Definição 2.27. Seja (E, · | ·) um espaço vetorial real ou complexo munido de


Nalguns livros,
é também usado um produto interno e sejam x e y vetores de E. Diremos que x e y são vetores
o termo “per- ortogonais (com respeito ao produto interno · | · definido em E) se x | y = 0, e
pendicular” co- escreve-se
mo sinónimo de x ⊥ y.
“ortogonal”.

As propriedade seguintes são fáceis de deduzir e ficam como exercício.

82 Ana L. Correia
Proposição 2.28. Seja (E, · | ·) um espaço vetorial real ou complexo munido de
um produto interno e sejam x e y vetores de E. Temos

(a) Se x ⊥ y então y ⊥ x.

(b) 0E ⊥ x.

(c) x ⊥ x se e só se x = 0E .

(d) Se x ⊥ y então x ⊥ αy, para qualquer α ∈ K.

Demonstração. Exercício.

Para vetores ortogonais, podemos também estabelecer a propriedade seguinte


que é, pelo menos de nome, bem conhecida de todos.

Teorema 2.29. (Teorema de Pitágoras) Seja (E, · | ·) um espaço vetorial real


ou complexo munido de um produto interno e sejam x e y vetores ortogonais
de E. Então,
kx + yk2 = kxk2 + kyk2.

Demonstração. Por definição, temos x | y = 0 (e, portanto, y | x = 0), logo

kx + yk2 = (x + y)|(x + y) = kxk2 + x | y + y | x + kyk2 = kxk2 + kyk2,

como queríamos.

O conceito de ortogonalidade pode ser extensivo a um número finito de vetores


e reveste-se de grande importância na representação matricial do produto interno,
como veremos mais adiante.

Definição 2.30. Seja (E, · | ·) um espaço vetorial real ou complexo munido de


um produto interno (de dimensão arbitrária).

• Diremos que um sistema de vetores v1 , . . . , vm em E é um sistema orto-
gonal se m = 1 ou, sendo m > 1, os vetores v1 , . . . , vm forem ortogonais
dois a dois, i.e. se
vi | vj = 0
sempre que 1 ≤ i, j ≤ n forem distintos.

• Se E tiver dimensão finita n, diremos que uma base e1 , . . . , en de E é
uma base ortogonal se e1 , . . . , en for um sistema ortogonal de vetores.

Exemplo 2.31. Consideremos, em R2 , o produto interno canónico.



1) A base canónica B = (1, 0), (0, 1) é uma base ortogonal, pois (1, 0)|(0, 1) = 0.

21003 - Álgebra Linear II 83


√ √ 
2) A base B′ = (1, 1 − 2), (1 − 2, −1) também é uma base ortogonal de R2 ,
pois √ √ √ √
(1, 1 − 2) | (1 − 2, −1) = (1 − 2) − (1 − 2) = 0.

3) A base B′′ = (1, 2), (−1, 3) de R2 não é uma base ortogonal, para o produto
interno canónico, porque (1, 2) | (−1, 3) = 5 6= 0.
Os conceitos de independência linear e ortogonalidade estão relacionados como
mostraremos de seguida.

Proposição 2.32. Seja (E, · | ·) um espaço vetorial real ou complexo munido de


um produto interno (de dimensão arbitrária). Então:

(a) Qualquer sistema ortogonal de vetores não nulos é linearmente inde-


pendente.

(b) Se E tiver dimensão finita n, qualquer sistema ortogonal constituído por n


vetores é uma base de E.

(c) Se E tiver dimensão finita n e se e1 , . . . , en for uma base ortogonal de
E, teremos
x | e1 x | en
x= e1 + · · · + en
e1 | e1 en | en
para qualquer vetor x ∈ E.

Demonstração. (a) Temos de provar que, se v1 , . . . , vm for um sistema ortogonal
de vetores não nulos então 0E = 0 · v1 + · · · + 0 · vm é a única combinação linear nula
dos vetores v1 , . . . , vm . Para isso, sejam α1 , . . . , αm ∈ K tais que
α1 v1 + · · · + αm vm = 0E
e seja 1 ≤ i ≤ m arbitrário. Então (usando os axiomas de produto interno), dedu-
zimos que
0 = 0E | vi = (α1 v1 + · · · + αi vi + · · · + αm vm ) | vi
= α1 (v1 | vi ) + · · · + αi (vi | vi ) + · · · + αm (vm | vi ).
Como (por definição de sistema ortogonal) vj | vi = 0 sempre que 1 ≤ j ≤ m é
distinto de i, concluímos que
0 = αi (vi | vi ).
Finalmente, como vi é um vetor não nulo, o axioma A4 de produto interno garante-
nos que vi | vi é um número real estritamente positivo, logo αi = 0. Como i é
arbitrário, obtemos
α1 = · · · = αm = 0,
o que prova que os vetores v1 , . . . , vm são linearmente independentes.
(b) Esta asserção resulta do facto de que qualquer sistema constituído por n
vetores linearmente independentes ser uma base de E.
(c) Seja x um vetor arbitrário de E e sejam α1 , . . . , αn ∈ K tais que
x = α1 e1 + · · · + αn en .

84 Ana L. Correia
Então, para qualquer 1 ≤ i ≤ n,

x | ei = (α1 e1 + · · · + αn en ) | ei = α1 (e1 | ei ) + · · · + αn (en | ei ) = αi (ei | ei )

porque ej | ei = 0 para j 6= i e, portanto,

x | ei
αi = ,
ei | ei

como queríamos — notemos que ei | ei 6= 0 pelo axioma A4 de produto interno.

2.2.4 Vectores unitários. Bases ortonormadas.


Embora sejam relativamente boas, as bases ortogonais (de um espaço vetorial eu-
clideano ou unitário) não são ainda as melhores, nem as mais convenientes, para a
resolução de alguns problemas de Álgebra Linear. Vejamos com estas bases podem
ser “melhoradas”.

Definição 2.33. Seja (E, · | ·) um espaço vetorial real ou complexo munido de


um produto interno.

• Diremos que um vetor x ∈ E é unitário ou normado se x tem norma 1, i.e.


se kxk = 1.

• Diremos que um sistema de vetores (v1 , . . . , vm ) de E é um sistema orto-


normado se for:

– um sistema ortogonal de (E, · | ·)


– constítuido por vetores unitários

ou seja se tivermos, para quaisquer i, j = 1, 2, . . . , m,


(
0 se i 6= j
vi | vj = .
1 se i = j

• Se E tiver dimensão finita n, diremos que um sistema de vetores (v1 , . . . , vn )


de E é uma base ortonormada se for um sistema ortonormado e uma base
de E.

Exemplo 2.34. A base canónica de Rn é uma base ortonormada com respeito ao


produto interno canónico. A afirmação correspondente é válida para Cn .
√ √ 
Exemplo 2.35. Vimos no exemplo 2.31 que a base B′ = (1, 1− 2), (1− 2, −1) é
uma base ortogonal de R2 , para o produto interno canónico, mas não é ortonormada
pois q
√ q √ √
k(1, 1 − 2)k = 12 + (1 − 2)2 = 4 − 2 2 6= 1.

21003 - Álgebra Linear II 85



Suponhamos que E tem dimensão finita n e que B = e1 , . . . , en é uma base de
E. Então qualquer vetor x ∈ E escreve-se de modo único como combinação linear
dos vetores da base B, i.e, existem escalares únicos α1 , . . . , αn ∈ K tais que
x = α1 e1 + · · · + αn en .
Se B for uma base ortogonal de (E, · | ·) então, pela proposição 2.32, podemos
determinar os escalares αi recorrendo ao produto interno · | · definido em E,
x | e1 x | en
α1 = , . . . , αn = .
e1 | e1 en | en
No caso da base B ser ortonormada, temos ei | ei = 1 e, portanto, os escalares αi
são mais fáceis de determinar
α1 = x | e1 , . . . , αn = x | en .
Temos, então, o resultado seguinte que evidencia o bom comportamento das bases
ortonormadas.

Proposição 2.36. Seja (E, · | ·) um espaço euclideano ou unitário com dimensão


n e seja e1 , . . . , en uma sua base ortonormada. Então:

(a) Para qualquer vetor x ∈ E,

x = (x | e1 ) e1 + · · · + (x | en ) en .

(b) Para quaisquer vetores x = x1 e1 + · · · + xn en e y = y1 e1 + · · · + yn en em E,

x | y = x1 y1 + · · · + xn yn .

Demonstração. (a) Resulta de aplicarmos a proposição 2.32-(c) e do facto de termos


ei | ei = kei k2 = 1, para todos os vetores da base dada, como justificámos acima.
(b) Sejam x = x1 e1 + · · · + xn en e y = y1 e1 + · · · + yn en vetores de E. Usando
os axiomas A1 e A2, temos
x | y = (x1 e1 + · · · + xn en ) | (y1 e1 + · · · + yn en )
= (x1 e1 ) | (y1 e1 ) + (x1 e1 ) | (y2 e2 ) + · · · + (x1 e1 ) | (yn en )
+ (x2 e2 ) | (y1 e1 ) + (x2 e2 ) | (y2 e2 ) + · · · + (x2 e2 ) | (yn en )
+···
+ (xn en ) | (y1 e1 ) + (xn en ) | (y2 e2 ) + · · · + (xn en ) | (yn en )
= x1 y1 (e1 | e1 ) + x1 y2 (e1 | e2 ) + · · · + x1 yn (e1 | en )
+ x2 y1 (e2 | e1 ) + x2 y2 (e2 | e2 ) + · · · + x2 yn (e2 | en )
+···
+ xn y1 (en | e1 ) + xn y2 (en | e2 ) + · · · + xn yn (en | en )
= x1 y1 + · · · + xn yn ,
porque ei | ei = 1 e ei | ej = 0 se i 6= j.

86 Ana L. Correia
Na demonstração da alínea (b) da proposição 2.36, transparece que o cálculo de
x | y será trabalhoso se a base do espaço não for ortonormada. O principal objetivo
da secção seguinte é introduzir a representação matricial, para um produto interno,
para que este tipo de cálculos sejam simplificados.

2.3 Matriz da métrica e ortogonalidade


2.3.1 Matriz da métrica de um produto interno
Nesta secção, consideraremos sempre espaços vetoriais (reais ou complexos) de di-
mensão finita munidos de produto interno, ou seja trabalharemos com espaços eu-
clideanos ou unitários. 
Seja então (E, · | ·) um espaço euclideano ou unitário e seja B = e1 , . . . , en
uma base fixa em E. Como vimos na demonstração da proposição 2.36, no cálculo
de x | y intervêm todos os produtos internos da forma

ei | ej com i, j = 1, 2, . . . , n.

Quer dizer que se formarmos a matriz cujas entradas são os escalares ei | ej ∈ K,


de alguma maneira vamos poder usá-la para calcular o produto interno x | y com
x, y ∈ E.

Definição 2.37. Seja (E, · | ·) um espaço vetorial euclideano ou unitário de


dimensão n e seja B = e1 , . . . , en uma base de E. Chamaremos matriz da
métrica do produto interno ·|· : E × E → K com respeito à base B à matriz
G ∈ Mn×n (K) cuja (i, j)-ésima entrada (para 1 ≤ i, j ≤ n) é Gij = ei | ej . Ou
seja,  
e1 | e1 e1 | e2 · · · e1 | en
 e2 | e1 e2 | e2 · · · e2 | en 
 
G =  .. .. ..  ∈ Mn×n (K).
 . . . 
en | e1 en | e2 · · · en | en
Abreviadamente podemos escrever

G = [ei | ej ] ∈ Mn×n (K).

Quando existe mais do que uma base em uso escreveremos GB , para indicar a
base em relação à qual consideramos a matriz da métrica.

Exemplo 2.38. Consideremos em R2 o produto interno definido no exemplo 2.6:

x | y = x1 y1 − x1 y2 − x2 y1 + 3x2 y2 .

1) Seja B = e1 , e2 a base canónica de R2 . Temos

e1 | e1 = (1, 0) | (1, 0) = 1
e2 | e1 = e1 | e2 = (1, 0) | (0, 1) = −1 (por simetria)
e2 | e2 = (0, 1) | (0, 1) = 3.

21003 - Álgebra Linear II 87


 
1 −1
Portanto GB = ∈ M2×2 (R).
−1 3

2) Consideremos, agora, a base B′ = (1, 0), (1, 1) de R2 . Temos

(1, 0) | (1, 0) = 1
(1, 0) | (1, 1) = (1, 1) | (1, 0) = 0 (por simetria)
(1, 1) | (1, 1) = 2.
 
1 0
Portanto, GB′ = ∈ M2×2 (R). Repare-se que esta base é ortogonal para
0 2
este produto interno.

Exemplo 2.39. Consideremos em C3 o produto interno canónico (ver exemplo


2.13).

1) Seja B = e1 , e2 , e3 a base de C3 onde e1 = (1, 0, i), e2 = (1, i, 0) e e3 =
(1, 0, 0). Temos

e1 | e1 = (1, 0, i) | (1, 0, i) = 1 + ii = 2
e1 | e2 = (1, 0, i) | (1, i, 0) = 1 , e2 | e1 = e1 | e2 = 1 (por A3)
e1 | e3 = (1, 0, i) | (1, 0, 0) = 1 , e3 | e1 = e1 | e3 = 1 (por A3)
e2 | e2 = (1, i, 0) | (1, i, 0) = 1 + ii = 2
e2 | e3 = (1, i, 0) | (1, 0, 0) = 1 , e3 | e2 = e2 | e3 = 1 (por A3)
e3 | e3 = (1, 0, 0) | (1, 0, 0) = 1
 
2 1 1
Portanto GB = 1 2 1 ∈ M3×3 (C).
1 1 1

2) Seja B′ = v1 , v2 , v3 a base de C3 onde v1 = (1, 1, 1), v2 = (1, 1, i) e v3 =
(1, i, i). Temos, novamente por A3,

v1 | v1 = (1, 1, 1) | (1, 1, 1) = 1 + 1 + 1 = 3
v1 | v2 = (1, 1, 1) | (1, 1, i) = 1 + 1 − i = 2 − i , v2 | v1 = v1 | v2 = 2 + i
v1 | v3 = (1, 1, 1) | (1, i, i) = 1 − i − i = 1 − 2i , v3 | v1 = v1 | v3 = 1 + 2i
v2 | v2 = (1, 1, i) | (1, 1, i) = 1 + 1 + ii = 3
v2 | v3 = (1, 1, i) | (1, i, i) = 1 − i + ii = 2 − i , v3 | v2 = v2 | v3 = 2 + i
v3 | v3 = (1, 1, i) | (1, 1, i) = 1 + 1 + ii = 3
 
3 2 − i 1 − 2i
Portanto GB′ =2+i 3 2 − i  ∈ M3×3 (C).
1 + 2i 2 + i 3

Se a base for ortogonal ou ortonormada a matriz da métrica é fácil de determinar,


daí a importância destas bases.

88 Ana L. Correia
Proposição  2.40. Seja (E, · | ·) um espaço euclideano ou unitário e seja B =
e1 , . . . , en uma base fixa em E. Temos

(a) B é uma base ortogonal se e só se a matriz da métrica em relação a B é


uma matriz diagonal, i.e.
 
e1 | e1 · · · 0
G =  ... ..  = diag(e | e , . . . , e | e ) ∈ M (R).

.  1 1 n n n×n
0 · · · en | en

Neste caso, os elementos da diagonal principal são todos reais positivos.

(b) B é uma base ortonormada se e só se a matriz da métrica em relação a


B é a matriz identidade de ordem n, i.e.

G = In ∈ Mn×n (R).

Demonstração. (a) A base B é ortogonal se e só se ei | ej = 0 para i 6= j. Isto é


equivalente a que todos os elementos fora da diagonal principal sejam nulos. Além
disso, como cada ei é um vetor não nulo (porque pertence a uma base) então ei | ei
é um número real positivo (ver proposições 2.3 e 2.12).
(b) A base B é ortonormada se e só se B é ortogonal e os vetores da base são
unitários, i.e. ei | ei = 1, para i = 1, . . . , n. Por (a), isto é equivalente a termos
G = diag(1, . . . , 1) = In .
Reparemos que, nos exemplos anteriores, qualquer uma das matrizes da métrica
coincide com a sua transposta (no caso euclideano), ou com a sua transconjugada
(no caso unitário). Recordemos este último conceito.

Definição 2.41. Sejam m, n ∈ N quaisquer e seja A = [aij ] ∈ Mm×n (C) uma


matriz arbitrária. Chamaremos:

(a) matriz conjugada de A à matriz A = [aij ] ∈ Mm×n (C) cuja (i, j)-ésima
entrada é o conjugado aij da (i, j)-ésima entrada aij de A (para 1 ≤ i ≤ m
e 1 ≤ j ≤ n);

(b) matriz transconjugada de A , e denotá-la-emos por A∗ , à transposta da


matriz conjugada A de A, i.e.
T Note que
A∗ = A ∈ Mn×m (C). T
A = AT .

Diremos que A é uma matriz hermítica ou hermitiana se A = A∗ .

Observação. Notemos que, se todos os coeficientes de uma matriz A ∈ Mm×n (C)


forem números reais, temos A = A e, portanto, A∗ = AT . Se A = AT a matriz A
diz-se uma matriz simétrica .

21003 - Álgebra Linear II 89


 
1 2 + i 3i
Exemplo 2.42. Seja A = ∈ M2×3 (C). Temos
−i 2 3−i
 
    1 i
1 2 + i 3i 1 2 − i −3i T
A= = , A∗ = A = 2 − i 2  ∈ M3×2 (C).
−i 2 3−i i 2 3+i
−3i 3 + i
O resultado seguinte garante-nos que para determinarmos a matriz da métrica,
num espaço de dimensão n, necessitamos de calcular as n entradas da diagonal
principal e as entradas acima (ou abaixo) da diagonal principal.

Proposição 2.43. Seja (E, · | ·) um espaço vetorial euclideano ou unitário de


dimensão n. Seja B = e1 , . . . , en uma base de E e seja G ∈ Mn×n (K) a matriz
da métrica do produto interno ·|· : E × E → K com respeito à base B. Temos:

(a) Se K = R então G = GT (G é simétrica).

(b) Se K = C então G = G∗ (G é hermítica).

Em qualquer dos casos, as entradas da diagonal principal de G são números


reais positivos.

Demonstração. Consideremos apenas o caso unitário (o caso euclideano é similar).


Sejam 1 ≤ i, j ≤ n quaisquer. Como a (i, j)-ésima entrada de G é ei | ej (por
definição), a (i, j)-ésima entrada de G∗ será ej | ei = ei | ej (usando, aqui, o axioma
A3). Logo G∗ = G, como queríamos. A última afirmação resulta imediatamente da
definição de matriz da métrica e das proposições 2.3 e 2.12, uma vez que qualquer
um dos vetores da base B é não nulo.
Vejamos, agora, como usar a matriz da métrica no cálculo de um produto interno
genérico x | y.

Proposição 2.44. Seja (E, · | ·) um espaço vetorial euclideano ou unitário de


dimensão n. Seja B = e1 , . . . , en uma base de E e seja G ∈ Mn×n (K) a matriz
da métrica do produto interno · | · : E × E → K com respeito à base B. Sejam
x = x1 e1 + · · · + xn en , y = y1 e1 + · · · + yn en vetores arbitrários de E. Então
Ao escrevermos
x | y = X T GY
(x | y = X T GY ) x | y = X T GY ,
estamos a iden-    
tificar matrizes x1 y1
do tipo 1 × 1  .
onde X = . , Y = ...  são as matrizes (de tipo n × 1) das coordenadas de
.  
com a sua única
entrada (que é xn yn
um elemento do x e de y, respetivamente, na base B. No caso euclideano, Y = Y , logo
corpo considera-
do). x | y = X T GY .

Além disso, se a base B for ortonormada então

x | y = XT Y (no caso complexo) e x | y = XT Y (no caso real).

90 Ana L. Correia
Demonstração. Vamos proceder como na demonstração da proposição 2.36 e usar
os axiomas A1 e A2 de produto interno.
x | y = (x1 e1 + · · · + xn en ) | (y1 e1 + · · · + yn en )
= x1 y1 (e1 | e1 ) + x1 y2 (e1 | e2 ) + · · · + x1 yn (e1 | en )
+ x2 y1 (e2 | e1 ) + x2 y2 (e2 | e2 ) + · · · + x2 yn (e2 | en )
+···
+ xn y1 (en | e1 ) + xn y2 (en | e2 ) + · · · + xn yn (en | en )
Xn X n
= xi yj (ei | ej ).
j=1 i=1

Por outro lado, efetuando os produtos de matrizes obtemos


  
e1 | e1 · · · e1 | en y1
  . .   .. 
T
X GY = x1 · · · xn  . . .
.  . 
en | e1 · · · en | en yn
 
" n n
# y1
.
X X
= xi (ei | e1 ) · · · xi (ei | en )   .. 
i=1 i=1 yn
X n X n n X
X n
= xi (ei | e1 )y1 + · · · + xi (ei | en )yn = xi yj (ei | ej ).
i=1 i=1 j=1 i=1

Portanto obtemos
n X
X n
x|y= xi yj (ei | ej ) = X T GY ∈ M1×1 (K).
j=1 i=1

Se a base é ortonormada então G = In (proposição 2.40) e a última afirmação é


consequência das anteriores.
Exemplo 2.45. Em R2 , consideremos o produto interno definido no exemplo 2.6.
Como vimos no exemplo 2.38, a matriz  da métrica deste produto interno, com
respeito à base canónica, é G = −1 3 . Assim, pela proposição anterior,
1 −1

  
  1 −1 2
(1, 2) | (2, 1) = 1 2 = 3.
−1 3 1

Exercício 2.46. Considere em C3 a base B = e1 , e2 , e3 , onde
e1 = (1, 1, 1) , e2 = (1, 1, i) , e3 = (1, i, i).
Suponhamos que (C3 , · | ·) está munido de um produto interno cuja matriz da
métrica, com respeito à base B, é
 
7 5 − 2i 5 − 4i
G = 5 + 2i 5 5 − 2i ∈ M3×3 (C).
5 + 4i 5 + 2i 7
Determine x | y com x = (1, 0, 0) e y = (0, 0, 1).

21003 - Álgebra Linear II 91


Resolução. Vamos usar a proposição 2.44. Primeiro temos de escrever os vetores
x, y como combinação linear dos vetores da base B. Ora, para x temos

α + β + γ = 1

x = (1, 0, 0) = α(1, 1, 1)+β(1, 1, i)+γ(1, i, i) com α, β, γ ∈ C ⇔ α + β + γi = 0


α + βi + γi = 0
       
1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 1−i 2
Note que  1 1 i 0  −→  0 0 −1+i −1  −→  0 1 1 1+i  −→  0 1 0 0 
−1 1+i 2
−1+i = 2 . L2 +L1 1+i
1 i i 0 L3 +L1 0 −1+i −1+i −1 0 0 1 2 0 0 1 1+i 2
1−i 1+i
Portanto α = 2
, β=0eγ= 2
e temos
1−i 1+i 1−i 1+i
x = (1, 0, 0) = 2
(1, 1, 1) + 2
(1, i, i) = 2
e1 + 0 e2 + 2
e3 .
Com cálculos análogos obtemos
1+i 1+i 1+i −1−i
y = (0, 0, 1) = 2
(1, 1, 1) − 2
(1, 1, i) = 2
e1 + 2
e2 + 0 e3 .
Deste modo, as matrizes X e Y , das coordenadas
  dos 
vetores
 x e y, respetivamente,
 
1−i 1+i 1−i
2 2 2
em relação à base B dada, são X =  0  e Y =  −1−i
2
. Como Y =  −1+i
2

1+i
2
0 0
concluímos que
   1−i 
 1−i  7 5 − 2i 5 − 4i 2
x | y = X T GY = 2
0 1+i
2
5 + 2i 5 5 − 2i  −1+i
2
 = 1.
5 + 4i 5 + 2i 7 0
Exercício 2.47. Seja  (E, · | ·) um espaço euclideano ou unitário de dimensão nπe
seja B = e1 , . . . , en uma base ortonormada de E. Mostre que ∠(ei , ei + ej ) = 4 ,
para todos 1 ≤ i, j ≤ n com i 6= j.
Resolução. Como B é ortonormada então a matriz da métrica relativa a esta base
é G = In . Portanto temos, para 1 ≤ i, j ≤ n distintos,

Estes cálculos ei | (ei + ej ) = 1 e kei + ej k = 2,
são justificados
pelas proposi- logo √
ções 2.36 ou ei | (ei + ej ) 1 2
2.44. cos ∠(ei , ei + ej ) = = √ = .
kei kkei + ej k 1· 2 2
Segue-se que ∠(ei , ei + ej ) = π4 , para todos 1 ≤ i, j ≤ n com i 6= j.
Interpretação geométrica: O resultado obtido é o esperado. Com efeito, como a base
B é o.n. então ∠(ei , ej ) = π2 para i 6= j. Portanto o vetor soma ei + ej é o vetor que
determina a diagonal do quadrado definido pelos vetores ei e ej .
ej

ej
+
ei

π/4
ei

92 Ana L. Correia
Já observámos que a matriz da métrica é simétrica (no caso real) ou hermítica (no
caso complexo). O resultado seguinte diz-nos que G é sempre uma matriz invertível.

Proposição 2.48. Seja (E, · | ·) um espaço vetorial euclideano ou unitário de


dimensão n. Seja B uma base de E e seja G ∈ Mn×n (K) a matriz da métrica
do produto interno ·|· : E × E → K com respeito à base B. Então

(a) X T GX ≥ 0, para toda a matriz coluna X ∈ Mn×1 (K).

(b) G é uma matriz invertível.

 T 
Demonstração. (a) Suponhamos que X = x1 x2 · · · xn e que B = e1 , . . . , en .
Então, pela proposição 2.44 e axioma A4,

X T GX = x | x ≥ 0 com x = x1 e1 + · · · + xn en ,

o que prova (a).


(b) Suponhamos que GY = 0 para alguma matriz Y ∈ Mn×1 (K). Isto quer dizer
que a matriz coluna Y é solução do sistema homogéneo de equação lineares cuja
matriz simples é G (que é sempre um sistema possível e, portanto, a matriz Y existe
sempre). Façamos X = Y . Então, como GY = 0 , temos

X T GX = X T GY = X T |{z}
GY = X T 0 = 0.
0

Por outro lado, X T GX = x | x e, portanto, temos

X T GX = 0 ⇐⇒ x | x = 0 ⇐⇒ x = 0E ⇐⇒ X = 0 ⇐⇒ Y = X = 0.

Provámos, assim, que o sistema homogéneo de matriz simples G tem uma única
solução, a solução nula, o que implica que G tem característica n e, portanto, que
G é invertível.

As Proposições 2.43 e 2.48 são dois critérios que nos podem ajudar a decidir se
uma dada matriz pode ser matriz de um produto interno nalgum espaço euclideano
ou unitário. Mas as condições destes resultados são necessárias, não são suficientes.
Isto quer dizer que se alguma delas não for satisfeita por uma matriz G então G não
poderá ser matriz da métrica de algum produto interno, mas se forem satisfeitas não
poderemos concluir nada. Vejamos os casos seguintes.
 
1 a 1/2
Exercício 2.49. Seja a ∈ R e seja Ga =  a 1 1/2 ∈ M3×3 (R).
1/2 1/2 1

a) G−1/2 poderá ser matriz da métrica em R3 ?

b) G−1 poderá ser matriz da métrica em R3 ?

21003 - Álgebra Linear II 93


Resolução. Independentemente do valor de a ∈ R temos Ga = GTa , i.e. a matriz
Ga é simétrica, para todo a ∈ R. Portanto o critério 2.43 é sempre satisfeito e não
podemos concluir nada.
a) Temos |G−1/2 | = 0 e, portanto, G−1/2 não é invertível. Logo, pela proposição
2.48-(b), G−1/2 não é matriz da métrica.
b) Temos |G−1 | = −1 6= 0 e, portanto, G−1 é invertível - não podemos concluir
 T
nada. Seja X = x1 x2 x3 ∈ M3×1 (R) qualquer. Temos
  
  1 −1 1/2 x1
X T G−1 X = x1 x2 x3  −1 1 1/2 x2 
1/2 1/2 1 x3
= x21 − x1 x2 + 21 x1 x3 − x1 x2 + x22 + 12 x2 x3 + 21 x1 x3 + 21 x2 x3 + x23
= (x1 − x2 )2 + x1 x3 + x2 x3 + x23 = (x1 − x2 )2 + (x1 + x2 + x3 )x3
Não conseguimos escrever esta expressão como soma de quadrados, pelo que
não temos a garantia de X T G−1 X ≥ 0, para toda a matriz X ∈ M3×1 (R). De
facto, para x1 = 1, x2 = 1 e x3 = −1 temos X T G−1 X = −1 < 0. Logo, pela
proposição 2.48-(a), G−1 não é matriz da métrica.
No Capítulo 3 estudaremos condições necessárias e suficientes para uma matriz
ser matriz da métrica.

2.3.2 Mudança de base


Nesta secção, consideramos o problema de relacionar matrizes da métrica de um
produto interno (definido num espaço euclideano ou unitário) com respeito a bases
distintas.
Comecemos por recordar que, se E for um espaço vetorial  sobre um corpo (ar-
bitrário) K de dimensão finita n ∈ N e se B = e1 , . . . , en e B = e′ 1 , . . . , e′ n

forem bases (não necessariamente distintas) de E, a matriz de mudança de base de


B para B′ é (por definição) a matriz P ∈ Mn×n (K), cuja (i, j)-ésima entrada αij
(para 1 ≤ i, j ≤ n) é a i-ésima componente componente do vetor e′j na base B. Quer
dizer que
e′j = α1j e1 + α2j e2 + · · · + αnj en , (para 1 ≤ j ≤ n)
e, portanto, temos
   
α11 α12 · · · α1n   α1j
 α21 α22 · · · α2n 

 α2j 
 
com

P =  .. .. .. =  C C · · · C  C = .  ∈ Mn×1 (K).
 .. 
 1 2 n j 
 . . . 
αn1 αn2 · · · αnn αnj
Equivalentemente, a matriz P é a matriz M(idE ; B′ , B) que representa a aplicação
identidade idE : E → E com respeito à base B′ , na partida, e à base B, na chegada.
Esta abordagem permite-nos concluir que qualquer matriz de mudança de base é
invertível, uma vez que a identidade é uma aplicação linear bijetiva.
Posto isto, o resultado seguinte dá-nos a resposta ao nosso problema.

94 Ana L. Correia
Teorema 2.50. Seja (E, · | ·) um espaço vetorial euclideano ou  unitário de
dimensão finita n e sejam B = e1 , . . . , en e B′ = e′1 , . . . , e′n bases de E.
Sejam GB e GB′ as matrizes da métrica do produto interno · | · com respeito às
bases B e B′ , respetivamente. Além disso, seja P = M(idE ; B′ , B) a matriz de
mudança de base de B para B′ . Então,

GB ′ = P T GB P .

Demonstração. Tratando-se de matrizes do mesmo tipo, basta justificar que, para


quaisquer 1 ≤ i, j ≤ n, a (i, j)-ésima entrada de GB′ é igual à (i, j)-ésima entrada
de P T GB P , ou seja que
(GB′ )ij = (P T GB P )ij ⇐⇒ e′i | e′j = (P T GB P )ij .
Para que estes produtos sejam entendíveis consideramos a matriz P escrita por
colunas
 
" # αij
P = C1 C2 · · · Cn ∈ Mn×n (K) com Cj = ..  ∈ M (K), j = 1, .., n.
 . n×1
αnj
Ora as linhas de P T são as transpostas das colunas de P , quer dizer que
 
C1T
 CT 
2
P T =  ..  ∈ Mn×n (K).
 
 . 
CnT
Portanto quando efetuamos o produto P T GB P obtemos
   
C1T " # C1T GB " #
 C2T   C2T GB 
 .  GB C 1 C 2 · · · C n =  ..  C1 C2 · · · Cn
 ..   . 
CnT CnT GB
   
C1T GB C1 C1T GB C2 · · · C1T GB Cn e′1 | e′1 e′1 | e′2 · · · e′1 | e′n
C T GB C1 C T GB C2 · · · C T GB Cn   e′ | e′ e′ | e′ · · · e′ | e′ 
 2 2 2   2 1 2 2 2 n
= .. .. ..  =  .. .. .. 
 . . .   . . . 
T T T
C n GB C 1 C n GB C 2 · · · C n GB C n en | e1 en | e2 · · · en | e′n
′ ′ ′ ′ ′

— a última igualdade é justificada pela proposição 2.44 e porque as colunas da


matriz P dão-nos as coordenadas dos vetores e′i na base B.

Exemplo 2.51. Consideremos, em R2 , o produto interno · | · definido no exemplo


2.6. Já vimos, no exemplo 2.38, que a matriz da métrica deste produto interno, com
respeito à base canónica B, é GB = −1 3 . Como
1 −1
 a matriz de mudança de base,
da base canónica para a base B = (1, 0), (1, 1) , é

 
′ 1 1
P = M(id; B , B) = ∈ M2×2 (R),
0 1

21003 - Álgebra Linear II 95


concluímos (pelo teorema 2.50) que a matriz da métrica de · | ·, com respeito a esta
nova base B′ , é
     
T T 1 0 1 −1 1 1 1 0
GB ′ = P GB P = P GB P = = ,
1 1 −1 3 0 1 0 2
o que está de acordo com o que vimos no exemplo 2.38.
Exemplo 2.52. Em C3 , consideremos o produto interno canónico. Então a ma-
triz da métrica deste produto interno, com respeito à base canónica, é a matriz
identidade I3 ∈ M3×3 (C) - pela  proposição 2.40. Assim, se considerarmos a base
B = (1, 0, i), (1, i, 0), (1, 0, 0) e se aplicarmos o teorema 2.50, concluiremos que a
matriz da métrica do produto interno canónico, com respeito a esta nova base B, é
    
1 0 i 1 1 1 2 1 1
GB = P T I3 P = P T P = 1 i 0  0 −i 0 = 1 2 1 ,
1 0 0 −i 0 0 1 1 1
h1 1 1i
onde P = 0 i 0 = M(id; B, b.c.C3 ) - ver exemplo 2.39-(1). Faça cálculos se-
i 0 0 
melhantes supondo, agora, que a base é B′ = (1, 1, 1), (1, 1, i), (1, i, i) e reveja o
exemplo 2.39-(2).

2.3.3 Processo de ortogonalização de Gram-Schmidt


Como já várias vezes observámos, as bases ortogonais e as bases ortonormadas são
as bases em relação às quais a matriz da métrica tem uma forma mais simples.
Nesta secção provaremos a existência destas bases para qualquer produto interno
definido num espaço euclideano ou unitário. Em particular, provaremos um algo-
ritmo, conhecido por processo de ortogonalização de Gram-Schmidt, que permitirá
a construção de uma base ortogonal a partir de qualquer base do espaço.
A existência de bases ortonormadas, em espaços vetoriais euclideanos ou uni-
tários de dimensão finita, é consequência quase imediata da existência de bases
ortogonais, basta normalizar os vetores de uma base ortogonal. Comecemos, pois,
com uma observação simples.

Proposição 2.53. Seja (E, · | ·) um espaço vetorial real ou complexo munido de


x
um produto interno. Então para qualquer vetor x ∈ E não nulo, o vetor kxk é
unitário, i.e.
x
kxk = 1.

Demonstração. A justificação deste resultado resulta de aplicação de propriedades


já provadas acerca de normas. Com efeito, se x 6= 0E então kxk =6 0 e temos
1
Note que kxk é x 1 1 1
kxk = kxk x = kxk kxk = kxk kxk = 1,
um escalar.

como queríamos.

96 Ana L. Correia

Exemplo 2.54. Vimos no exemplo 2.38-(2) que a base B′ = (1, 0), (1, 1) é orto-
gonal para o produto interno definido por

x | y = x1 y1 − x1 y2 − x2 y1 + 3x2 y2 ,

e que
(1, 0) | (1, 0) = 1 e (1, 1) | (1, 1) = 2.
Pela proposição 2.53,
  √ √ !
(1, 1) (1, 1) 1 1 2 2
= √ = √ ,√ = ,
k(1, 1)k 2 2 2 2 2
 √ √  
tem norma 1 e, portanto, para este produto interno, B = (1, 0), 22 , 22
′′
é uma
base ortonormada.

Teorema 2.55. (Processo de ortogonalização de Gram-Schmidt) Seja


(E, · | ·) um espaço euclidiano ou unitário de dimensão n e seja B = e1 , . . . , en
uma base de E fixa. Consideremos os vetores u1 , . . . , un ∈ E definidos por:

• u1 = e1 ;
e2 | u1
• u2 = e2 − u1 ;
u1 | u1
e3 | u1 e3 | u2
• u3 = e3 − u1 − u2 ;
u1 | u1 u2 | u2
• ···
en | u1 en | u2 en | un−1
• un = en − u1 − u2 − · · · − un−1 .
u1 | u1 u2 | u2 un−1 | un−1

Então:

(a) B′ = u1 , . . . , un é uma base ortogonal de (E, · | ·).
 
′′ u1 u2 un
(b) B = , ,..., é uma base ortonormada de (E, · | ·).
ku1k ku2 k kun k

Demonstração. Uma demonstração rigorosa usa indução em n. Para n = 1 não há


nada a provar. Para n = 2:
 
e2 | e1 e2 | e1
u2 | u1 = e2 − e1 | e1 = e2 | e1 − (e1 | e1 ) = 0.
e1 | e1 e1 | e1

Admitamos, agora, por hipótese de indução que o resultado é verdadeiro para n − 1.


Quer dizer que ui | uj = 0 para i, j ∈ {1, . . . , n − 1}, i 6= j. Seja j ∈ {1, . . . , n − 1}

21003 - Álgebra Linear II 97


com vista a provar que un | uj = 0. Temos
 
en | u1 en | u2 en | un−1
un | u1 = en − u1 − u2 − · · · − un−1 | u1
u1 | u1 u2 | u2 un−1 | un−1
en | u1 en | u2 en | un−1
= en | u1 − (u1 | u1 ) − (u2 | u1 ) − · · · − (un−1 | u1 )
u1 | u1 u2 | u2 | {z } un−1 | un−1 | {z }
| {z } 0 - hip. ind. 0 - hip. ind.
0
 
en | u1 en | u2 en | un−1
un | u2 = en − u1 − u2 − · · · − un−1 | u2
u1 | u1 u2 | u2 un−1 | un−1
en | u1 en | u2 en | un−1
= en | u2 − (u1 | u2 ) − (u2 | u2 ) − · · · − (un−1 | u2 )
u1 | u1 | {z } u2 | u2 un−1 | un−1 | {z }
0 - hip. ind. 0 - hip. ind.
| {z }
0

Prosseguindo de modo análogo prova-se que un | uj = 0 para todo j ∈ {1, . . . , n−1}.


Pelo processo de indução matemática fica provado que {u  1 , . . . , un } é um sistema
ortogonal de vetores de E. Segue-se que B = u1 , . . . , un é uma base ortogonal.

(b) Pela Proposição 2.53, cada vetor da forma vi = kuuii k tem norma 1. Além
disso, para quaisquer 1 ≤ i, j ≤ n, i 6= j, temos
   
1 1 1
vi | vj = ui uj = (ui | uj ) = 0,
kui k kuj k kui kkuj k
 
uma vez que u1 , . . . , un é uma base ortogonal. Assim, B′′ = v1 , . . . , vn é uma
base ortonormada de (E, · | ·), o que prova b).

Como consequência imediata do teorema 2.55 podemos afirmar que:

Corolário 2.56.

(a) Qualquer espaço euclideano ou unitário possui uma base ortogonal.

(b) Qualquer espaço euclideano ou unitário possui uma base ortonormada.

E como consequência imediata do corolário 2.56-(b) e do teorema 2.50 podemos


afirmar que:

Corolário 2.57. Se (E, · | ·) um espaço euclideano ou unitário, B é uma base


de E e G a matriz da métrica do produto interno · | ·, com respeito à base B,
então existe uma base B′ de E tal que,

P T GP = In ,

onde P = M(idE ; B′ , B) é a matriz de mudança de base de B para B′ .

98 Ana L. Correia
Terminamos esta secção com um exemplo de aplicação do processo de ortogona-
lização de Gram-Schmidt.

Exemplo 2.58. Suponhamos que em R3 está definido um produto interno  · | · tal


que a matriz da métrica relativamente à base canónica B = e1 , e2 , e3 de R3 é
 
4 −1 1
G = [ei | ej ] = −1 3 2 ∈ M3×3 (R).
1 2 6

Vamos ortogonalizar a base canónica e1 , e2 , e3 de R3 para este produto interno.
De acordo com o processo de ortogonalização de Gram-Schmidt, temos:

• u1 = e1 = (1, 0, 0) e u1 | u1 = e1 | e1 = 4
e2 | u1 e2 | e1 
• u2 = e2 − u1 = e2 − e1 = e2 − −1 e = 41 , 1, 0
4 1
u1 | u1 4
 
1 1
u2 | u2 = e2 + 4 e1 | e2 + 4 e1 = e2 | e2 + 12 (e1 | e2 ) + 16
1
(e1 | e1 ) = 11
4
e3 | u1 e3 | u2 1
e3 | (e2 + 41 e1 )
• u3 = e3 − u1 − u2 = e3 − 4 e1 − 11 u2
u1 | u1 u2 | u2 4
= e3 − 41 e1 − 11
9
(e2 + 41 e1 ) = e3 − 11
9 5
e2 − 11 e1
pois e3 | u2 = e3 | (e2 + 4 e1 ) = e3 | e2 + 4 (e3 | e1 ) =
1 1 9
4

Portanto B′ = (1, 0, 0), ( 14 , 1, 0), ( −5 , −9 , 1) é uma base ortogonal de R3 para o
11 11
produto interno dado. Agora
   −5   −5 
  4 −1 1 11   11
u3 | u3 = −511
−9
11
1 −1 3 2  −9  = 0 0 43  −9  = 43 .
11 11 11 11
1 2 6 1 1

Assim
√ q
11

11
q
43
ku1 k = 4 = 2 , ku2k = 4
= 2
, ku3 k = 11
,

pelo que
 
′′ u1 u2 u3
B = , ,
ku1 k ku2 k ku3 k
 
1
  1 2
 
5 9 11
= 2
, 0, 0 , 2√11 , √11 , 0 , − √473 , − √473 , √473

é uma base ortonormada de R3 para o produto interno definido pela matriz G.

Nota: Para determinar o produto interno de dois vetores podemos recorrer à matriz
da métrica ou às propriedades de bilinearidade [resp. sesquilinearidade] do produto
interno, conforme dê menos cálculos.

21003 - Álgebra Linear II 99


2.4 Projeções e distâncias
Nesta secção exploraremos os aspetos geométricos do conceito de ortogonalidade.
Em particular, introduziremos o conceito de projeção ortogonal e evidenciaremos a
sua importância no cálculo de distâncias, em qualquer espaço euclideano ou unitário.

2.4.1 Complemento ortogonal


Um vetor, de um espaço E, pode ser ortogonal a vários vetores de E. Desta forma
podemos considerar o conjunto de todos os vetores ortogonais a um dado vetor ou a
um conjunto de vetores X ⊆ E. Este conjunto revela-se especialmente interessante
se X for um subespaço de E. E neste caso, deduziremos uma outra consequência
importante da existência de bases ortogonais em espaços vetoriais euclideanos ou
unitários (cf. Teorema 2.63).

Definição 2.59. Seja (E, · | ·) um espaço euclidiano ou unitário. Seja X um


subconjunto não-vazio de E.

• Diremos que um vetor v ∈ E é ortogonal a X, e escreve-se v ⊥ X, se v for


ortogonal a todo o vetor x ∈ X, isto é se

v | x = 0 para todo x ∈ X.

• O conjunto de todos os vetores de E ortogonais a X será designado por


complemento ortogonal de X e será denotado por X ⊥ . Quer dizer que

X ⊥ = {v ∈ E : v | x = 0, para todo x ∈ X} = {v ∈ E : v ⊥ X} .

• Em particular, dado um vetor x ∈ E, o conjunto

x⊥ = {v ∈ E : v | x = 0} = {v ∈ E : v ⊥ x} = {x}⊥

será designado pelo complemento ortogonal de x .

Exemplo 2.60. Consideremos em R3 o produto interno canónico. Seja x = (1, 2, 3)


e seja v = (α1 , α2 , α3 ) ∈ R3 um vetor genérico. Temos

v | (3, −4, 1) = 0 ⇐⇒ (α1 , α2 , α3 ) | (3, −4, 1) = 0 ⇐⇒ α1 ·3 + α2 ·(−4) + α3 ·1 = 0


⇐⇒ 3α1 − 4α2 + α3 = 0 ⇐⇒ α3 = −3α1 + 4α2 .

Portanto

(1, 2, 3)⊥ = v = (α1 , α2 , α3 ) ∈ R3 : α3 = −3α1 + 4α2
= {(α1 , α2 , −3α1 +4α2) : α1 , α2 ∈ R}
= {α1 (1, 0, −1)+α2(0, 1, 4) : α1 , α2 ∈ R} = h(1, 0, −1), (0, 1, 4)i .

100 Ana L. Correia


Como vimos neste exemplo, (1, 2, 3)⊥ é um subespaço de R3 e este facto é geral
para qualquer conjunto X, como provaremos de seguida.

Proposição 2.61. Seja (E, · | ·) um espaço euclidiano ou unitário e seja X ⊆ E


não vazio. Então X ⊥ é um subespaço vetorial de E.

Demonstração. Sabemos que o vetor nulo 0E é ortogonal a qualquer vetor do espaço.


Em particular,
0E ⊥ x para todo x ∈ X
e, portanto, 0E ∈ X ⊥ . Logo X ⊥ 6= ∅.
Por outro lado, sejam u, v ∈ X ⊥ e sejam α, β ∈ K quaisquer. Queremos mostrar
que αu + βv ∈ X ⊥ , ou seja que (αu + βv) | x = 0 para todo x ∈ X. Seja, pois,
x ∈ X qualquer. Temos, pelos axiomas A1 e A2,

(αu + βv) | x = α(u | x) + β(v | x) = α · 0 + β · 0 = 0,


u,v∈X ⊥

o que prova que αu+βv ∈ X ⊥ , como queríamos. Segue-se, que X ⊥ é um subconjunto


de E (por definição) não vazio que é fechado para as soma e multiplicações por escalar
e, portanto, é um subespaço de E.

Estes subespaços, assim construídos, satisfazem as seguintes propriedades:

Proposição 2.62. Seja (E, · | ·) um espaço euclidiano ou unitário e seja X ⊆ E


não-vazio. Tem-se:

(a) Se X ⊆ Y então Y ⊥ ⊆ X ⊥ .

(b) X ⊆ (X ⊥ )⊥ .

(c) hXi⊥ = X ⊥ .

(d) Se X ∩ X ⊥ 6= ∅ então X ∩ X ⊥ = {0E }.

(e) 0E ⊥ = {0E }⊥ = E.

Demonstração. (a) Suponhamos que X ⊆ Y . Seja v ∈ Y ⊥ qualquer. Temos, por


definição, v | y = 0 para todo y ∈ Y . Como X é subconjunto de Y então, em
particular, v | x = 0 para todo x ∈ X. Logo v ∈ X ⊥ . Como v é arbitrário, segue-se
que Y ⊥ ⊆ X ⊥ .
(b) Seja v ∈ E qualquer. Temos

v ∈ X =⇒ v | y = 0 para todo y ∈ X ⊥ ⇐⇒ v ∈ (X ⊥ )⊥ .

Pela arbitrariedade de v, segue-se que X ⊆ (X ⊥ )⊥ .


(c) “⊆”: Por definição de subespaço gerado, hXi contém o conjunto gerador X.
Portanto temos X ⊆ hXi e, por (a), deduzimos que hXi⊥ ⊆ X ⊥ .

21003 - Álgebra Linear II 101


“⊇”: Seja v ∈ X ⊥ qualquer. Queremos mostrar que v ∈ hXi⊥ , ou seja que v ⊥ x
para todo x ∈ hXi. Por definição de subespaço gerado, x ∈ hXi se x for combinação
linear de alguns vetores do conjunto X, i.e. se existem x1 , . . . , xk ∈ X e escalares
α1 , . . . , αk ∈ K tais que
x = α1 x1 + · · · + αk xk .
Temos, para i = 1, . . . , k, v | xi = 0 porque v ∈ X ⊥ e xi ∈ X. Logo

v | x = v | (α1 x1 + · · · + αk xk ) = α1 (v | x1 ) + · · · + αk (v | xk ) = 0,
| {z } | {z }
0 0

o que prova que v ∈ hXi⊥ , como queríamos. Da dupla inclusão segue-se a igualdade.
(d) Suponhamos que X ∩ X ⊥ 6= ∅. Seja v ∈ X ∩ X ⊥ . Então, por definição de
intersecção, v ∈ X e v ∈ X ⊥ . Como v ∈ X ⊥ , então v é ortogonal a qualquer vetor
de X. Mas v ∈ X. Logo v ⊥ v. Ora, pelo axioma A4,

v ⊥ v ⇐⇒ v | v = 0 ⇐⇒ v = 0E .

Portanto o único vetor na intersecção X ∩ X ⊥ é o vetor v = 0E , o que prova que


X ∩ X ⊥ = {0E }.
(e) Como temos x | 0E = 0, para todo x ∈ E, então 0E ⊥ = {0E }⊥ = E.
O conceito de complemento ortogonal tem especial interesse quando aplicado a
um subespaço vetorial de E.

Teorema 2.63. Seja (E, · | ·) um espaço vetorial euclideano ou unitário e seja


F um subespaço vetorial de E. Então

(a) E = F ⊕ F ⊥ , i.e. F ⊥ é um suplementar de F .


(a) Significa que
todo o v ∈ E (b) dim E = dim F + dim F ⊥ .
escreve-se de
⊥
modo único na (c) F ⊥ = F .
forma v = x + y
com x ∈ F e (d) E ⊥ = {0E }.
y ∈ F ⊥.
(e) Se além disso, G também for um subespaço de E então

(i) (F + G)⊥ = F ⊥ ∩ G⊥ .
(ii) (F ∩ G)⊥ = F ⊥ + G⊥ .

Demonstração. (a) O resultado é imediato se F = {0E }, uma vez que {0E }⊥ = E


e E = {0E} ⊕ E. Assim, suponhamos que F 6= {0E } e consideremos uma base
e1 , . . . , em de F , onde m = dim F . Podemos completar esta base a uma base
B = e1 , . . . , em , em+1 , . . . , en de E, onde n = dim E. Aplicando o processo de
ortogonalização de Gram-Schmidt, podemos  obter, a partir desta base B, uma base
ortogonal B′ = u1 , . . . , um , um+1 , . . . , un de (E, · | ·). Além disso, a construção dos
vetores u1 , . . . , un garante-nos que u1 , . . . , um são vetores de F (uma vez que cada ui

102 Ana L. Correia


é definido como combinação linear dos vetorese1 , . . . , ei−1 definidos em passos ante-
riores - ver teorema 2.55). Assim, u1, . . . , um é uma base de F , pois é constituída
por m = dim F vetores linearmente independentes (porque são ortogonais 2 a 2).
Além disso, por definição de base ortogonal, os vetores um+1 , . . . , un são ortogonais
a todos os vetores u1 , . . . , um .
Consideremos, agora, um vetor arbitrário u de F . Então, existem escalares
α1 , . . . , αn tais que
u = α1 u 1 + · · · + αm u m .
Deste modo, para qualquer m + 1 ≤ i ≤ n,

ui | u = ui | (α1 u1 + · · · + αm um ) = α1 (ui | u1 ) + · · · + αm (ui | um ) = 0.


| {z } | {z }
0 0

Dada a arbitrariedade de u, podemos concluir que ui ∈ F ⊥ e, portanto, o subespaço


vetorial G = hum+1 , . . . , un i de E, gerado por todos os vetores  um+1 , . . . , un , está
contido em F ⊥ . Além disso, como u1 , . . . , um , um+1 , . . . , un é uma base de E,
temos E = F + G. Por conseguinte,

E = F + G ⊆ F + F⊥ ⊆ E

e, portanto,
E = F + F ⊥.
Para concluir que a soma E = F + F ⊥ é direta, resta justificar que F ∩ F ⊥ = {0E }.
Ora 0E ∈ F ∩ F ⊥ , donde F ∩ F ⊥ = {0E }, pela proposição 2.62-(d).
(b) Sabemos que

dim(F + F ⊥ ) = dim F + dim F ⊥ − dim(F ∩ F ⊥ ).

Como E = F + F ⊥ e F ∩ F ⊥ = {0E }, concluímos que

dim E = dim F + dim F ⊥ ,

como queríamos.
⊥
(c) Temos, pela proposição 2.62-(b), F ⊆ F ⊥ . Por outro lado, por (b)
⊥
dim E = dim F + dim F ⊥ e dim E = dim F ⊥ + dim F ⊥

e, portanto,
⊥
dim F = dim F ⊥ .
Dada a inclusão entre estes dois subespaços, e como têm igual dimensão, são iguais,
⊥
i.e. F = F ⊥ , como queríamos.
⊥
(d) Usando a proposição 2.62-(e), temos E ⊥ = {0E }⊥ = {0E }, como desejado.
(e)-(i) “⊆”: Como F ⊆ F + G e G ⊆ F + G então, por 2.62-(a), temos

(F + G)⊥ ⊆ F ⊥ , (F + G)⊥ ⊆ G⊥ .

21003 - Álgebra Linear II 103


Logo
(F + G)⊥ ⊆ F ⊥ ∩ G⊥ .
“⊇”: Seja x ∈ F ⊥ ∩ G⊥ arbitrário. Queremos provar que x | w para todo
w ∈ F + G. Ora w ∈ F + G se e só se w = u + v para alguns u ∈ F e v ∈ G. Assim
x | w = x | (u + v) = x | u + x | v = 0 + 0
– porque x ∈ F ⊥ e x ∈ G⊥ . Logo x ∈ (F + G)⊥ e, portanto, F ⊥ ∩ G⊥ ⊆ (F + G)⊥ .
Da dupla inclusão segue-se a igualdade.
(e)-(ii) Temos
F ∩ G = (F ⊥ )⊥ ∩ (G⊥ )⊥ = (F ⊥ + G⊥ )⊥ .
(c) (e)−(i)

Logo
⊥
(F ∩ G)⊥ = (F ⊥ + G⊥ )⊥ = F ⊥ + G⊥ .
(c)

O resultado seguinte afirma que para determinar o complemento ortogonal de


um subespaço F de E basta determinar os vetores que são ortogonais aos vetores
de um sistema gerador de F .

Proposição 2.64. Seja (E, · | ·) um espaço vetorial euclideano ou unitário e


seja F um subespaço vetorial de E. Suponhamos que F = hu1, . . . , uk i. Então

F ⊥ = {v ∈ E : v | ui = 0, i = 1, . . . , k.} .

Demonstração. “⊆”: Seja v ∈ E qualquer. Temos


v ∈ F ⊥ ⇐⇒ v | x = 0 para todo x ∈ F =⇒ v | ui = 0 para todo i = 1, . . . , k.
ui ∈F

“⊇”: Seja que v ∈ E tal que v | ui = 0, para i = 1, . . . , k. Seja x ∈ F qualquer.


Como F = hu1 , . . . , uk i então x = x1 u1 + · · · + xk uk para alguns xi ∈ K, i = 1, . . . , k.
Portanto temos, por A1 e A2,
v | x = v | (x1 u1 + · · · + xk uk ) = x1 (v | u1 ) + · · · + xk (v | uk ) = 0
| {z } | {z }
0 0

o que prova que v ∈ F . ⊥

Exercício 2.65. Consideremos em R3 um produto  interno que,


 em relação à base
2 −1 0
canónica B de R3 , seja definido pela matriz G = −1 1 0 e seja F = h(1, 0, 2),
0 0 3
(0, −1, 1)i. Determine F .

Resolução. Por hipótese F é gerado pelos vetores u1 = (1, 0, 2) e u2 = (0, −1, 1).
Como a base B é a base canónica temos, para x = (x1 , x2 , x3 ) ∈ R3 ,
     
  2 −1 0 1   2 −1 0 0

x ∈ F ⇐⇒ x1 x2 x3 −1 1 0 0 = 0 , x1 x2 x3 −1 1 0 −1= 0.
    
0 0 3 2 0 0 3 1
Para simplificar podemos juntar as duas matrizes coluna, com as coordenadas dos

104 Ana L. Correia


geradores de F , numa só matriz e, então, temos
  
  2 −1 0 1 0  
x ∈ F ⊥ ⇐⇒ x1 x2 x3 −1 1 0 0 −1 = 0 0
0 0 3 2 1
 
  2 1  
⇐⇒ x1 x2 x3 −1 −1 = 0 0
6 3
   
⇐⇒ 2x1 − x2 + 6x3 x1 − x2 + 3x3 = 0 0
( (
2x1 − x2 + 6x3 = 0 x2 = 0
⇐⇒ ⇐⇒ .
x1 − x2 + 3x3 = 0 x1 = −3x3
Segue-se que

F ⊥ = (x1 , x2 , x3 ) ∈ R3 : x2 = 0, x1 = −3x3 = {(−3x3 , 0, x3 ) : x3 ∈ R} = h(−3, 0, 1)i .
Se considerarmos a matriz da métrica do produto interno · | · : E × E → K
com respeito a uma base fixa B de E, a determinação do complemento ortogonal
F ⊥ de F depende, simplesmente, da resolução de um sistema homogéneo com k
equações lineares em n incógnitas, onde k = dim F e n = dim E, correspondendo a
i-ésima equação à igualdade x | ui = 0, para 1 ≤ i ≤ n, como vimos neste exemplo.
Este sistema poderá ser resolvido por qualquer método conhecido. Assim, será útil
re-escrevermos em termos matriciais a proposição 2.64.

Corolário 2.66. Seja (E, · | ·) um espaço vetorial euclideano ou unitário de


dimensão n e suponhamos  que a matriz da métrica relativamente a uma dada
base B = e1 , . . . , en de E é G = [ei | ej ]. Seja F um subespaço vetorial de E e
suponhamos que F = hu1 , . . . , uk i. Então
   
x1 0
⊥ T  ..  .
x = x1 e1 + · · · + xn en ∈ F ⇐⇒ (GA) . = ..  ∈ Mk×1 (K),

xn 0

onde A ∈ Mn×k (K) é a matriz formada pelas colunas dos vetores geradores
u1 , . . . , uk de F , escritos na base B. Quer dizer que

F ⊥ = N ((GA)T ).

Em particular, se B é uma base ortonormada então

F ⊥ = N (AT ).

Demonstração. Suponhamos que F = hu1 , . . . , uk i e seja A ∈ Mn×k (K) a matriz


cujas colunas são os vetores geradores de F escritos na base B de E, i.e. identificamos
cada vetor uj com a matriz coluna das suas coordenadas na base B, j = 1, . . . , k,
 
" # a1j
A = [aij ] = u1 · · · uj · · · uk , com uj = a1j e1 + · · · + anj ej ≡ ...  .

anj

21003 - Álgebra Linear II 105


Seja v ∈ E qualquer. Então v = α1 e1 + · · · + αn en para alguns escalares αi ∈ K,
com i = 1, . . . , n. Então, pela proposição 2.64, temos

v ∈ F ⊥ ⇐⇒ v | u1 = 0 , . . . , v | uk = 0
   
a11 a1k
  .
.
⇐⇒ α1 · · · αn G . = 0 , . . . , [ 1 α · · · α ..  = 0
  n] G  .
an1 ank
 
a11 · · · a1k
⇐⇒ α1 · · · αn G  ... ..  = 0 · · · 0
  
. 
an1 · · · ank
   
⇐⇒ α1 · · · αn GA = 0 · · · 0
  T  T
⇐⇒ α1 · · · αn GA = 0 · · · 0
   
α1 0
T  ..  .
⇐⇒ (GA) . = .. 
αn 0

⇐⇒ α1 , . . . , αn é solução do sistema (GA)T X = 0
⇐⇒ v = α1 e1 + · · · + αn en ∈ N ((GA)T ).

Se B é ortonormada, então G = I3 então, pela primeira parte, v ∈ F ⊥ se e só se


v ∈ N (AT ).

Exemplo 2.67. Consideremos a situação do exercício 2.65. Vamos determinar


h(1, 0, 2), (0, −1, 1)i⊥ recorrendo ao corolário 2.66.
 
1 0
Temos, relativamente à base canónica, A = 0 −1 ∈ M3×2 (R). Assim
2 1
    
2 −1 0 1 0 x1  

    T 0
x = (x1 , x2 , x3 ) ∈ F ⇔ x1 x2 x3 −1 1 00 −1= 0 0 ⇔ (GA) x2 = .
0
0 0 3 2 1 x3
| {z }| {z }
G A

Ora      
T 2 −1 6 1 −1 3 1 −1 3
(GA) = −→ −→ .
1 −1 3 L1 ↔L2 2 −1 6 L2 −2L1 0 1 0
Logo

F ⊥ = (x1 , x2 , x3 ) ∈ R3 : x2 = 0, x1 = −3x3 = {(−3x3 , 0, x3 ) : x3 ∈ R} = h(−3, 0, 1)i .

 Seja · | · : C × C → C o produto interno que, com respeito à base


3 3
Exemplo 2.68.
B = e1 , e2 , e3 , onde e1 = (i, 1, 1), e2 = (1, i, 1), e3 = (1, 1, i), tem matriz da métrica
 
1 0 1+i
G= 0 1 0 .
1−i 0 3

106 Ana L. Correia


Pretende-se determinar o complemento ortogonal do subespaço vetorial F de C3
dado por
F = {(α1 , α2 , α3 ) ∈ C3 : α1 + α2 − (1 + i)α3 = 0}.
É fácil verificar que dim F = 2 e que os vetores u1 = (i, 1, 1) e u2 = (1, i, 1)
constituem uma base de F . Deste modo, pelos resultados anteriores, dado qualquer Exercício!
vetor v ∈ C3 , temos
x ∈ F ⊥ ⇐⇒ x | u1 = x | u2 = 0 ⇐⇒ x ∈ N ((GA)T ),
onde A ∈ M3×2 (C) é a matriz cujas colunas são as coordenadas de u1 , u2 na base
B. Ora temos
= 1e1 + 0e2 + 0e3 e u2 = (1, i, 1) = e2 = 0e1 + 1e2 + 0e3
u1 = (i, 1, 1) = e1

0 1
e, portanto, A = 0 1 ∈ M3×2 (C). Temos
0 0
    
1 0 1+i 1 0 1 0
GA =  0 1 0  0 1 =  0 1 ∈ M3×2 (C).
1−i 0 3 0 0 1−i 0
Agora seja x = x1 e1 + x2 e2 + x3 e3 ∈ C3 um vetor qualquer. Então temos
   
x1     x1  
⊥ T  0 1 0 1−i   0
x = x1 e1 + x2 e2 + x3 e3 ∈ F ⇐⇒ (GA) x2 = ⇐⇒ x2 =
0 0 1 0 0
x3 x3
( (
x1 + (1 − i)x3 = 0 x1 = (−1 + i)x3
⇐⇒ ⇐⇒ .
x2 = 0 x2 = 0

Por conseguinte,
 
F ⊥ = {(−1 + i)x3 e1 + 0e2 + x3 e3 : x3 ∈ C} = x3 (−1 + i)e1 + e3 : x3 ∈ C
= h(−1 + i)e1 + e3 i = h(−1 + i)(i, 1, 1) + (1, 1, i)i = h(i, −i, 1 − 2i)i .

Terminamos esta subsecção com um resultado que é um clássico de Álgebra Li-


near com aplicações importantes em Análise Funcional, pois estabelece uma identifi-
cação entre um espaço de Hilbert e o seu dual. Este resultado também é fundamental
para o estudo da diagonalização unitária - ver subsecção 2.6.3.
Seja (E, · | ·) um espaço munido de um produto interno sobre K. Cada vetor
u ∈ E determina uma aplicação fu : E → K definida por
fu (x) = x | u
para todo x ∈ E. A aplicação fu é linear: para quaisquer α, β ∈ K e quaisquer
v, w ∈ E, temos
fu (αv + βw) = (αv + βw) | u = α(v | u) + β(w | u) = αfu (v) + βfu (w).
A recíproca é, também, verdadeira para espaços de dimensão finita.

21003 - Álgebra Linear II 107


Teorema 2.69. (Teorema de Riesz) Seja (E, · | ·) um espaço euclidiano ou
unitário e seja h : E → K uma aplicação linear qualquer. Então, existe um único
vetor u ∈ E tal que
h(x) = x | u
para todo x ∈ E.

Demonstração. Seja B = e1 , . . . , en uma base ortonormada de E que sabemos
existir pelo Corolário 2.56. Como h é uma aplicação de E em K então h(ei ) ∈ K
para i = 1, . . . , n. Seja, então,
u = h(e1 )e1 + h(e2 )e2 + · · · + h(en )en ∈ E.
Consideremos a aplicação linear fu : E → K definida por
fu (x) = x | u
para todo x ∈ E. Então, para i = 1, . . . , n,
   
fu (ei ) = ei | u = ei | h(e1 )e1 + h(e2 )e2 + · · · + h(en )en = ei | h(ei )ei = h(ei )

pois ei | ej = 0 se i 6= j e ei | ei = 1. Como fu e h coincidem em todos os vetores de


uma base B do espaço de partida E, então fu = h.
Para mostrar a unicidade, sejam u, u′ ∈ E tais que h(x) = x | u e h(x) = x | u′ ,
para qualquer x ∈ E. Logo, temos
x | (u − u′ ) = x | u − x | u′ = h(x) − h(x) = 0.
Portanto
u − u′ ∈ E ⊥ = {0E },
Teor. 2.63-(d)

o que prova que u = u′ .

Observação. O Teorema de Riesz não é verdadeiro se E tiver dimensão infinita.


Vejamos um contra-exemplo. Para isso tomemos o conjunto dos polinómios reais
R[x] = {p(x) = a0 + a1 x + · · · + an xn : a0 , a1 , . . . , an ∈ R, n ∈ N},
munido com as operações usuais, que é um exemplo clássico de um espaço vetorial
real de dimensão infinita. Podemos definir em R[x] um produto interno por
Z 1
Ver o exemplo p|q= p(x)q(x)dx.
2.8. 0

Agora seja h : R[x] → R definida por


h(p) = p(0)
para todo p ∈ R[x] - i.e. h calcula p(x) no ponto 0 e, portanto, transforma p(x) =
a0 +a1 x+· · ·+an xn no seu termo constante a0 . Suponhamos que existe um polinómio
u(x) ∈ R[x] tal que
Z 1
h(p) = p | u = p(x)u(x)dx
0

108 Ana L. Correia


para todo p(x) ∈ R[x]. Seja p(x) = x2 u(x) ∈ R[x]. Por um lado, temos
Z 1 Z 1 Z 1
2
h(p) = p(x)u(x)dx = x u(x)u(x)dx = x2 u(x)2 dx e x2 u(x)2 ≥ 0.
0 0 0
Por outro lado,
h(p) = p(0) = 0u(0) = 0.
Portanto, necessariamente u(x) = 0, o polinómio nulo. Quer dizer que
h(p) = p | u = p | 0 = 0
u=0

para todo p(x) ∈ R[x], o que implica que todos os polinómios de R(x] têm o seu
termo constante igual a zero - contradição. Portanto tal polinómio u(x) não existe.

2.4.2 Projeção ortogonal


O conceito de norma permite definir, de maneira natural, o conceito de distância
entre dois vetores, como veremos na subsecção 2.4.3. Este conceito pode ser genera-
lizado ao conceito de distância de um vetor a um subespaço, que será fundamental
para definirmos distância entre pontos e retas, entre planos, etc. Para isso necessi-
tamos de introduzir a noção de projeção ortogonal.
Consideremos dois vetores u, b não nulos num espaço euclidiano (E, · | ·). Su-
pondo θ = ∠(b, u) ∈ [0, π], com θ 6= π/2, temos as duas situações possíveis:

b b
θ
θ
λu u λu u
θ ∈ [0, π/2[ θ ∈]π/2, π]

Então, para θ ∈ [0, π/2[


cateto adjacente kλuk λkuk
cos ∠(b, u) = = = .
hipotenusa kbk kbk
Para θ ∈]π/2, π], cos ∠(b, u) = − cos ∠(b, −u) e este caso reduz-se ao anterior (com
λ < 0). Para θ = π/2, temos que λ = 0. Assim, em qualquer dos casos:
kbk kbk b | u b|u Reveja o con-
λ= cos ∠(b, u) = = . ceito de ângulo
kuk kuk kbkkuk kuk2
na secção 2.2.2.
Definição 2.70. Seja (E, · | ·) um espaço euclideano e sejam u, b ∈ E vetores
kbk
não-nulos. O vetor λu, com λ = kuk cos ∠(b, u), diz-se a projeção ortogonal de b
sobre u , e denota-se por proju b, i.e.

kbk b|u
proju b = cos ∠(b, u) u = u ∈ hui .
kuk kuk2

21003 - Álgebra Linear II 109


Exemplo 2.71. Consideremos em R4 o produto interno canónico. Consideremos os
vetores b = (2, 1, 6, 3) e u = (1, 1, 1, 1). Então

b|u (2, 1, 6, 3) | (1, 1, 1, 1)


proju b = 2
u= √ (1, 1, 1, 1) = (3, 3, 3, 3) ∈ h(1, 1, 1, 1)i .
kuk ( 1 2 + 1 2 + 1 2 + 1 2 )2

As propriedades seguintes são as, naturalmente, esperadas.

Proposição 2.72. Seja (E, · | ·) um espaço euclideano e sejam u, b ∈ E vetores


não-nulos. Então:

(a) b − proju b ∈ u⊥ .

(b) b ⊥ u ⇐⇒ proju b = 0E .

Demonstração. (a) Temos


 
b|u b|u
(b − proju b) | u = b − 2
u |u =b| u− (u | u) = 0
kuk kuk2

e, portanto, b − proju b ∈ u⊥ .
(b) Temos

b|u
b ⊥ u ⇐⇒ b | u = 0 ⇐⇒ proju b = u = 0 · u = 0E ,
kuk2
como queríamos.
O conceito de projeção ortogonal, de um vetor em relação a outro vetor, generali-
za-se a subespaços reais ou complexos. O resultado seguinte, conhecido por teorema
da projeção, fundamenta a generalização.

Teorema 2.73. (Teorema da projeção) Seja F um subespaço vetorial de um


espaço euclidiano ou unitário (E, · | ·).

(a) Para todo o vetor b ∈ E, existe um e um só vetor p ∈ F , tal que b−p ∈ F ⊥ .

(b) Como b = p + (b − p), os vetores p e b − p dão uma decomposição única de


b como soma de um vetor em F com outro em F ⊥ .

Demonstração. As afirmações (a) e (b) resultam da igualdade E = F ⊕F ⊥ (provada


no teorema 2.63-(a)). Portanto qualquer vetor b ∈ E escreve-se, de modo único,
como soma de um vetor de F com um vetor de F ⊥ .

O primeiro caso estudado é, simplesmente, a situação particular de um subespaço


F de dimensão 1, isto é F = hui, com u 6= 0.

110 Ana L. Correia


Definição 2.74. Seja F um subespaço vetorial de um espaço euclidiano ou
unitário (E, · | ·). Seja b ∈ E. O único vetor p ∈ F tal que b − p ∈ F ⊥ será
designado por projeção ortogonal de b sobre F e é denotado por projF b, tendo-se

b = projF b + (b − projF b) ∈ F + F ⊥ .

A figura seguinte diz respeito a um subespaço F de R3 com dimensão 2.

F⊥

b − projF b b = projF b + (b − projF b)


b

projF b F

A proposição 2.72 tem a seguinte generalização.

Proposição 2.75. Seja F um subespaço vetorial de um espaço euclidiano ou


unitário (E, · | ·). Seja b ∈ E.

(a) O vetor b − projF b é o vetor projeção ortogonal de b sobre F ⊥ , i.e.

projF ⊥ b = b − projF b.

(b) b ∈ F ⇐⇒ projF b = b e b ∈ F ⊥ ⇐⇒ projF b = 0E .

(c) b = projF b + projF ⊥ b é a única decomposição de b como soma de um vetor


em F com um vetor em F ⊥ .

Demonstração. (a) Temos, pelo Teorema 2.73,


⊥
b − p = b − projF b ∈ F ⊥ e b − (b − projF b) = projF b ∈ F = F ⊥

e, portanto, por unicidade b − projF b = projF ⊥ b.


(b) Se b ∈ F então b admite a decomposição

b = b + 0E com b ∈ F e 0E ∈ F ⊥ .

Mas b = b − (b − projF b) ∈ F + F ⊥ é única. Logo b − projF b = 0E e, portanto,


projF b = b. A outra equivalência tem argumento idêntico.
(c) É imediato do Teorema 2.73 e de (a).

21003 - Álgebra Linear II 111


O resultado seguinte afirma que a projeção ortogonal de b ∈ E sobre F é a soma
das projeções ortogonais de b sobre cada um dos vetores de uma base ortogonal B
fixa em F .

Teorema 2.76. (Teorema da Decomposição) Seja F um subespaço vetorial


de um espaço euclidiano  ou unitário (E, · | ·). Suponhamos que dim F = k e
seja B = v1 , . . . , vk uma base ortogonal de F . Então a projeção ortogonal de
b sobre F é a soma das projeções ortogonais de b sobre cada um dos vetores da
base B, i.e.

k k
X X b | vi
projF b = projv1 b + projv2 b + · · · + projvk b = projvi b = vi .
i=1 i=1
kvi k2

Em particular, se B é ortonormada, então

k
X k
X
projF b = projvi b = (b | vi )vi .
i=1 i=1

Demonstração. Temos b − projF b ∈ F ⊥ . Logo, como F = hv1 , . . . , vk i,

(b − projF b) | vi = 0, para todo i = 1, . . . , k.

Por outro lado, projF b ∈ F , donde

projF b = α1 v1 + · · · + αk vk , para alguns α1 , . . . , αk ∈ K.

Como vi | vj = 0 para i 6= j, temos

projF b | vi = αi (vi | vi ) = αi kvi k2 , para i = 1, . . . , k.

Segue-se que

0 = (b − projF b) | vi = b | vi − projF b | vi = b | vi − αi kvi k2 , para i = 1, . . . , k.


b|vi
Portanto, αi = kvi k2
, e temos

k k
X X b | vi
projF b = αi vi = v,
2 i
i=1 i=1
kv i k

como queríamos. Se B é ortonormada, então kvi k = 1, para todo i = 1, . . . , k e o


resultado segue-se.

Observação. Nesta terminologia o processo de ortogonalização de Gram-Schmidt 


(teorema 2.55) pode ser reescrito na forma seguinte. Seja B = e1 , . . . , en uma base
fixa em (E, · | ·). Dado j = 1, . . . , n, temos

112 Ana L. Correia


ej | u1 ej | u2 ej | uj−1
uj = ej − u1 − u2 − · · · − uj−1
u1 | u1 u2 | u2 uj−1 | uj−1
= ej − proju1 ej − proju2 ej − · · · − projuj−1 ej
= ej − projhu1 ,...,uj−1 i ej .

Desta forma, os vetores da base ortogonal descrita no processo de Gram-Schmidt


são:
u1 = e1
u2 = e2 − projhu1 i e2 ∈ hu1 i⊥
...
un = en − projhu1 ,...,un−1 i en ∈ hu1 , . . . , un−1i⊥

Exercício 2.77. Considere em R3 umproduto interno  que, em relação à base canó-


2 −1 0
nica, tenha a matriz da métrica G = −1 1 0. Seja F = h(1, 0, 2), (0, −1, 1)i
0 0 3
e seja b = (7, −1, 5) ∈ R . Determine projF b.
3


Resolução. Ora (1, 0, 2), (0, −1, 1) é um sistema linearmente independente, logo
é uma base de F , mas não é ortogonal para a métrica dada pois,
    
  2 −1 0 1   2
(0, −1, 1) | (1, 0, 2) = 0 −1 1 −1 1 00 = 0 −1 1 −1 = 7 6= 0.
0 0 3 2 6
Comecemos por determinar uma base ortogonal para F , usando Gram-Schmidt:
(0, −1, 1) | (1, 0, 2)
v1 = (1, 0, 2) , v2 = (0, −1, 1) − (1, 0, 2) = (−1/2, −1, 0). confirme!
(1, 0, 2) | (1, 0, 2)
Agora, pelo Teorema da Decomposição 2.76, temos
b | v1 b | v2
projF b = projv1 b + projv2 b = 2
v1 + v2 .
kv1 k kv2 k2
Como
   
 1
   −1/2
b | v1 = 7 −1 5 G 0 = 45 , b | v2 = 7 −1 5 G  −1  = 1/2
2 0

kv1 k2 = 14 , kv2 k2 = 21 ,
então  
45
projF b = 14
(1, 0, 2) + − 21 , −1, 0 = 19
7
, −1, 45
7
.

De seguida daremos um processo efectivo para decompor um vetor como soma


de projeções.

21003 - Álgebra Linear II 113


Algoritmo para decompor b ∈ E como soma de projeções sobre F e F ⊥ :
Seja (E,  · | ·) um espaço euclidiano ou unitário de dimensão n e seja B =
e1 , . . . , en uma base de E fixa. Dado um subespaço F de E, a decomposição

E = F ⊕F⊥

garante-nos que existe uma base de E da forma

B′ = (v1 , . . . , vk , w1 , . . . , wn−k ),
| {z } | {z }
BF - base de F B ⊥ - base de F ⊥
F

supondo k = dim F , n = dim E. Assim, um vetor b = b1 e1 + · · · + bn en ∈ E


escreve-se, de modo único, como combinação linear dos vetores da base B′ . Isto é
equivalente a resolver o sistema possível e determinado

P X = b, onde P = M(idE ; B′ , B).

Como P X = b é possível e determinado, fazendo transformações elementares na


matriz ampliada obteremos
" #
b1 h i
.. −→ In c
P .
bn
 T
onde c = α1 · · · αk β1 · · · βn−k ∈ Mn×1 (K) é a matriz coluna solução
única deste sistema. Desta forma,

b = α1 v1 + · · · + αk vk + β1 w1 + · · · + βn−k wn−k .
| {z } | {z }
∈F ∈F ⊥

Pela unicidade do Teorema da projeção 2.73, necessariamente

projF b = α1 v1 + · · · + αk vk e projF ⊥ b = β1 w1 + · · · + βn−k wn−k .

Podemos sintetizar este algoritmo nos passos seguintes:



Passo 1 Determinar uma base BF = v1 , . . . , vk para F .

Passo 2 Determinar uma base BF ⊥ = w1 , . . . , wn−k para F ⊥ .

Passo 3 Considerar a base B′ = v1 , . . . , vk , w1, . . . , wn−k de E.

Passo 4 Resolver o sistema P X = b, onde P = M(idE ; B′ , B).

Passo 5 Seja (α1 , . . . , αk , β1 , . . . , βn−k ) a solução (única) deste sistema. Logo temos

b = α1 v1 + · · · + αk vk + β1 w1 + · · · + βn−k wn−k = projF b + projF ⊥ b.


| {z } | {z }
projF b projF ⊥ b

114 Ana L. Correia


Exercício 2.78. Seja em R3 um produto
 interno que,
 em relação à base canónica de
2 −1 0
R3 , tenha a matriz da métrica G = −1 1 0 e seja F = h(1, 0, 2), (0, −1, 1)i.
0 0 3
Seja b = (7, −1, 5) ∈ R . Determine a decomposição
3

b = projF b + projF ⊥ b.

Resolução. Já observámos, no exercício 2.77 que


45
 
projF b = 14
(1, 0, 2) + − 21 , −1, 0 = 19
7
, −1, 45
7
.

Vamos, agora, recorrer ao algoritmo acima para determinar


 em simultâneo projF b
e projF ⊥ b. Sabemos que BF = (1, 0, 2), (0, −1, 1) é uma base de F e que BF ⊥ =
(−3, 0, 1) é uma base de F ⊥ - determinada no exemplo 2.67. Consideremos a base
de R3

B = (1, 0, 2), (0, −1, 1), (−3, 0, 1) .
| {z } | {z }
BF BF ⊥

Como a base inicial é a canónica temos


 
1 0 −3
P = M(id; B, b.c R3 ) = 0 −1 0  .
2 1 1

Para resolver
 o sistema P X = b, fazemos transformações elementares na matriz
ampliada P | b :
     
  1 0 −3 7
1 0 −3 7 1 0 −3 7
P | b = 0 −1 0 −1 −→ 0 −1
   0 −1 −→ 0 −1 0 −1 
L3 −2L2 L +L
2 1 1 5 0 1 7 −9 3 2 0 0 7 −10
   
1 0 −3 7 1 0 0 19/7  
−→ 0 1 0 1
  −→ 0
 1 0 1  = I3 | c
−L2 −10/7 L1 +3L3 0
1/7L3 0 0 1 0 1 −10/7

Segue-se que c = 19
7
, 1, − 10
7
é a solução única do sistema tendo-se
19
 
(7, −1, 5) = 7
(1, 0, 2) + 1(0, −1, 1) + − 10
7
(−3, 0, 1)
19
 
= 7
, −1, 45
7
+ 307
, 0, − 10
7
 
e, portanto, projF = 19
7
, −1, 45
7
, projF ⊥ = 30
7
, 0, − 10
7
.

Observação. Se não é conhecida inicialmente uma base ortogonal para F , poderá


ser mais rápido recorrer a este algoritmo mesmo que se pretenda apenas determinar
projF b.

21003 - Álgebra Linear II 115


2.4.3 Distância
Na recta real o conceito de distância é introduzido recorrendo à função módulo.
Dados x, y ∈ R,
d(x, y) = |x − y|.
A noção de norma permite definir o conceito de distância em qualquer espaço vetorial
munido de um produto interno.

No caso de Definição 2.79. Seja (E, · | ·) um espaço vetorial, real ou complexo, munido de
E = R temos um produto interno. Dados dois vetores x, y ∈ E, chamaremos distância entre x
kx − yk =
p e y à norma da diferença destes vetores:
(x − y)2 =
|x − y|, para
d(x, y) = kx − yk .
todos x, y ∈ R.

Exemplo 2.80. Seja R2 munido do produto interno canónico e consideremos os


vetores x = (3, 0) e y = (0, 2). Então
p √
d(x, y) = kx − yk = k(3, 0) − (0, 2)k = k(3, −2)k = 32 + (−2)2 = 13.
Notemos que, para o produto interno canónico, x | y = 0 e, portanto x ⊥ y. Desta
forma, pelo Teorema de Pitágoras 2.29, obteríamos igual resultado
p √ √
kx − yk = kxk2 + k − yk2 = 9 + 4 = 13.
y = (0, 2)

x−
kyk = 2 y

kxk = 3 x = (3, 0)

Consideremos, agora, os vetores x′ = (4, 1) e y ′ = (1, 3). Temos, também,



d(x′ , y ′) = kx′ − y ′k = k(4, 1) − (1, 3)k = k(3, −2)k = 13.
No entanto estes vetores não são ortogonais para o produto interno canónico, pelo
que neste caso não podemos recorrer ao Teorema de Pitágoras. Geometricamente
temos
y ′ = (1, 3)

x′

y′

x′ = (4, 1)

Usando as propriedades já provadas para a norma podemos estabelecer as se-


guintes para a distância.

116 Ana L. Correia


Proposição 2.81. Seja (E, · | ·) um espaço vetorial, real ou complexo, munido
de um produto interno e sejam x, y, z ∈ E vetores arbitrários. Então

(a) d(x, 0E ) = kxk.

(b) d(x, y) = 0 se e só se x = y.

(c) d(x, y) = d(y, x).

(d) d(x, y) ≤ d(x, z) + d(z, y) - desigualdade triangular.

Demonstração. (a) É imediato da definição.


(b) e (c) São consequência da proposição 2.20. Com efeito temos,

d(x, y) = 0 ⇐⇒ kx − yk = 0 ⇐⇒ x − y = 0E ⇐⇒ x = y;
d(x, y) = kx − yk = k − (y − x)k = | − 1|ky − xk = ky − xk = d(y, x).

(d) É consequência da desigualdade triangular para normas - teorema 2.22,

d(x, y) = kx − yk = kx − z + z − yk ≤ kx − zk + kz − yk = d(x, z) + d(z, y).

E o resultado está provado.

Dados F um subespaço de E e b ∈ E, o Teorema da projeção 2.73 e suas


consequências 2.75 permitem provar que o vetor projeção ortogonal projF b é o vetor
de F que está “mais próximo” de b, i.e. à distância mínima de b.

Este critério
Teorema 2.82. (Teorema da aproximação) Seja F um subespaço vetorial de serve de base ao
um espaço euclidiano ou unitário (E, · | ·). Seja b ∈ E. Então Método dos Mí-
nimos Quadra-
d(b, projF b) = kb − projF bk = k projF ⊥ bk ≤ kb − xk = d(b, x), dos, que procura
encontrar a me-
para qualquer x ∈ F . Se x 6= projF b, então lhor aproxima-
ção para um
conjunto de da-
d(b, projF b) < d(b, x). dos tentando
minimizar a
Portanto soma dos qua-
d(b, projF b) = kb − projF bk = min{d(b, x) : x ∈ F }. drados das di-
ferenças entre o
valor estima-
F⊥ do e os dados
observados,
b − projF b muito importan-
b b−x te em econome-
tria.

projF b x
F

21003 - Álgebra Linear II 117


Demonstração. Seja b ∈ E. Sabemos, pela proposição 2.75, que b = p + p′ com
p = projF b ∈ F e p′ = projF ⊥ b ∈ F ⊥ . Seja x ∈ F qualquer. Logo temos p′ | p =
0 = p′ | x e, portanto,

0 = p′ | p − p′ | x = p′ | (p − x) = (b − p) | (p − x).

Desta forma, podemos aplicar o Teorema de Pitágoras aos vetores b − p e p − x,


obtendo

d(b, x)2 = kb − xk2 = k(b − p) + (p − x)k2 = kb − pk2 + kp − xk2


≥ kb − pk2 = d(b, p)2 (pq. kp − xk2 ≥ 0).

Como as distâncias são não negativas temos

d(b, x) ≥ d(b, p) = d(b, projF b) = kb − projF bk = k projF ⊥ bk.

Por fim, se x 6= projF b = p temos d(p, x) > 0, pela proposição 2.81-(b), donde

d(b, x)2 = d(b, p)2 + d(p, x)2 > d(b, p)2

e, portanto, d(b, x) > d(b, p) = d(b, projF b), como queríamos.

Exercício 2.83. Consideremos R3 munido do produto interno canónico. Sejam


b = (3, −1, 2) ∈ R3 e

F = {(x, y, z) ∈ R3 : 2x + 3y − z = 0}.

Determine o vetor u ∈ F à menor distância de b.

Resolução. Pelo Teorema da aproximação, o vetor pedido é u = projF (3, −1, 2).
Agora recorremos ao algoritmo acima para calcular a projeção ortogonal:

Confirme! Passo 1: Determinar uma base para F : por exemplo BF = (1, 0, 2), (0, 1, 3) .

Confirme! Passo 2: Determinar uma base para F ⊥ : por exemplo BF ⊥ = (2, 3, −1) .

Passo 3: Consideremos a base B = (1, 0, 2), (0, 1, 3), (2, 3, −1) de R3 .
Passo 4, 5: Vamos resolver o sistema P X = b, com P = M(id; B, b.c R3 ):
       40 
1 0 2 3 1 0 2 3 1 0 2 3 1 0 0 14
0 1 3 −1 −→ 0 1
3 −1 −→ 0
  1 3 −1  −→ 0 1 0 − 17 14 .

1
2 3 −1 2 0 3 −5 −4 0 0 −14 −1 0 0 1 14

Portanto projF (3, −1, 2) = 40
14
(1, 0, 2) − 17
14
(0, 1, 3) = 40
14
, − 17 , 29
14 14
é o vetor de F à
menor distância de b = (3, −1, 2).

O Teorema da aproximação permite definir o conceito de distância de um vetor


a um subespaço.

118 Ana L. Correia


Definição 2.84. Seja F um subespaço vetorial de um espaço euclidiano ou
unitário (E, · | ·). Seja b ∈ E. Definiremos distância de b a F como sendo a
distância de b ao vetor projeção de b em F , i.e.

d(b, F ) = d(b, projF b) = k projF ⊥ bk ≤ d(b, x) para todo x ∈ F .

Exemplo 2.85. Consideremos R3 munido do produto interno canónico. Sejam


b = (3, −1, 2) ∈ R3 e F = {(x, y, z) ∈ R3 : 2x + 3y − z = 0}, como no exercício 2.83.
Temos, de acordo com os cálculos já efetuados,

40

d(b, F ) = d(b, projF b) = d 3, −1, 2), ( 14 , − 17 ,
14 14
29
)
q    √
2 2 29 2 14
= 3 − 40
14
+ − 1 + 17
14
+ 2 − 14
= 14
.

Alternativamente,
1  √
1 3 1 14
d(b, F ) = k projF ⊥ bk = 14 (2, 3, −1) = , , − 14
7 14
=
14
.

2.5 Produto externo e produto misto


Um sistema de eixos de R3 é formado por 3 rectas perpendiculares num ponto O R3 designa o
a origem, designadas por eixo Ox, eixo Oy e eixo Oz. A escolha de um sistema conjunto dos
de eixos é feita do modo seguinte: primeiro escolhe-se um ponto O como origem e, pontos (x, y, z)
com x, y, z ∈ R.
depois, duas rectas perpendiculares no ponto O - o eixo Ox e o eixo Oy. Em seguida
escolhe-se um sentido positivo para cada um dos eixos. Então o eixo Oz é a (única)
recta que passa por O e é perpendicular a cada
um dos eixos Ox e Oy. Resta escolher um lado
positivo para o eixo Oz. Há duas possibilidades
e é convenção dizer que um sistema de eixos tem
orientação positiva se a orientação dos seus eixos
satisfaz a regra da mão direita. Isto significa que
a parte positiva do eixo dos Ox é escolhida de
modo que, se o eixo Oz pudesse ser agarrado
com a mão direita, com o polegar apontando no
sentido positivo, os outros dedos iriam curvar-se
indo do semi-eixo dos Ox positivos para o semi-
eixo dos Oy positivos (segundo um ângulo recto).
Um sistema de eixos permite representar pontos e vetores e estes conceitos serão
introduzidos e desenvolvidos no capítulo 4. Num sentido mais abstrato podemos
definir uma orientação num espaço vetorial real à custa de uma base fixa no espaço.
Este conceito permitirá definir, num espaço euclideano de dimensão 3, o produto
externo de dois vetores, como sendo um novo vetor com propriedades geométricas
interessantes.

21003 - Álgebra Linear II 119


2.5.1 Orientação de espaços vetoriais reais

Seja E um espaço vetorial real de dimensão finita n e B0 = e1 , . . . , en uma base
fixa de E. Dada qualquer base B de E, a matriz mudança de base M(idE ; B, B0 ) é
uma matriz invertível pelo que o seu determinante é não nulo e, portanto,
|M(idE ; B, B0 )| > 0 ou |M(idE ; B, B0 )| < 0.
Designemos por B o conjunto de todas as bases de E. Assim, relativamente à base
B0 , os dois conjuntos disjuntos
BdB0 = {B ∈ B: |M(idE ; B, B0 )| > 0} , BiB0 = {B ∈ B: |M(idE ; B, B0 )| < 0}
determinam uma partição de B, isto é,
B = BdB0 ∪ BiB0 .

Definição 2.86. Seja E um espaço vetorial real de dimensão finita n e B0 uma


base fixa de E. Chamaremos orientação de E determinada por B0 à partição

B = BdB0 ∪ BiB0 .

Relativamente a esta orientação, as bases do conjunto BdB0 dizem-se bases diretas


e as bases do conjunto BiB0 dizem-se bases inversas .
O espaço E diz-se orientado quando se fixa uma orientação determinada por
uma sua base.
Se E = Rn , chamaremos orientação canónica em Rn à orientação determinada
pela base canónica.

É claro da definição que a base B0 é direta para a orientação definida por si, pois
M(idE ; B0 , B0 ) = In e |In | = 1 > 0.
Dada outra base B1 de E, então apenas uma das duas situações seguintes ocorre
M(idE ; B1 , B0 ) > 0 e B1 ∈ BdB0 (2.5)
ou
M(idE ; B1 , B0 ) < 0 e B1 ∈ BiB0 . (2.6)
Podemos então provar que E admite exatamente duas orientações distintas - as de-
terminadas pelas bases diretas e as determinadas pelas bases inversas. Para o efeito
relembremos como é construída a matriz duma composição de aplicações lineares.
Suponhamos que temos as aplicações lineares f e g entre os subespaços vetoriais E,
E ′ e E ′′ relativamente às bases B, B′ , B′′ como indicado
f g
E −→ E′′ −→ E′′′′ e A = M(f ; B, B′ ) , B = M(g; B′, B′′ ).
B A B B B

Então
M(g ◦ f ; B, B′′ ) = M(g; B′ , B′′ )M(f ; B, B′ ) = BA.

120 Ana L. Correia


No caso particular de E = E ′ = E ′′ e f = g = idE temos idE = idE ◦ idE e, portanto,

M(idE ; B, B′′ ) = M(idE ; B′ , B′′ )M(idE ; B, B′ ). (2.7)

Proposição 2.87. Seja E um espaço vetorial real de dimensão finita n e B0


uma base fixa de E. Seja B1 outra base de E. Então

(a) BdB0 = BdB1 e BiB0 = BiB1

ou

(b) BdB0 = BiB1 e BiB0 = BdB1

e são as duas situações possíveis.

Demonstração. A base B1 satisfaz (2.5) ou (2.6) e, portanto, só temos duas possi-


bilidades. Suponhamos que B1 satisfaz (2.5), i.e. M(idE ; B1 , B0 ) > 0. Seja B uma
base qualquer de E. Usando a igualdade (2.7), temos

B ∈ BdB0 ⇐⇒ M(idE ; B, B0 ) > 0 ⇐⇒ M(idE ; B1 , B0 ) M(idE ; B, B1 ) > 0


(2.5.1) | {z }
>0

⇐⇒ M(idE ; B, B1 ) > 0 ⇐⇒ B ∈ BdB1

Portanto BdB0 = BdB1 . Do mesmo modo, temos

B ∈ BiB0 ⇐⇒ M(idE ; B, B0 ) < 0 ⇐⇒ M(idE ; B, B1 ) < 0 ⇐⇒ B ∈ BiB1


(2.5),(2.5.1)

e, portanto, BiB0 = BiB1 . Portanto (a) vale.


No caso de B1 satisfazer (2.6) prova-se, de modo análogo, as outras igualdades
indicadas em (b).

De acordo com este resultado temos, então, as definições seguintes.

Definição 2.88. Seja E um espaço vetorial real de dimensão finita. Sejam B0 e


B1 duas bases de E.

• Diremos que B0 e B1 determinam igual orientação em E se BdB0 = BdB1 (ou


equivalentemente se BiB0 = BiB1 ).

• Diremos que B0 e B1 determinam orientação oposta em E se BdB0 = BiB1


(ou equivalentemente se BiB0 = BdB1 ).

Note-se que em R3 , as bases ortogonais que determinam a orientação canónica


são as formadas por eixos orientados de acordo com a regra da mão direita.

21003 - Álgebra Linear II 121


Atendendo às propriedades dos determinantes é fácil de classificar uma base
que seja obtida de B0 por troca de vetores ou substituição de um vetor por uma
combinação linear de outros dois.

Proposição  2.89. Seja E um espaço vetorial real de dimensão finita n e B0 =


e1 , . . . , en uma base fixa em E. Para a orientação determinada por B0 temos:
(
 direta se α > 0
(a) B1 = e1 , . . . , αei , . . . , en é base .
inversa se α < 0

(b) B1 = e1 , . . . , ei + αej , . . . , en é base direta, para qualquer α ∈ R, i 6= j.

(c) B1 = e1 , . . . , ej , . . . , ei , . . . , en com i < j é base inversa – troca de vetores
altera a orientação do espaço.

Demonstração. A demonstração recorre às propriedades dos determinantes e fica


como exercício.


Exemplo 2.90. Se B0 = e1 , e2 , e3 fixa uma orientação em R3 então, para esta
orientação:

(a) são diretas as bases: B1 = (e1 , e2 , 2e3 ), B2 = (e1 + e2 , e2 , e3 )

(b) são inversas as bases: B3 = (e1 , −e2 , e3 ), B4 = (e2 , e1 + e3 , 2e3 ).

Podemos recorrer à proposição 2.89. Para B1 usamos a alínea (a) e para B2 usamos
(b) e as bases são diretas. Para B3 usamos a alínea (a) e para B4 usamos (b) e (c)
e as bases são inversas.
Alternativamente podemos efetuar os cálculos dos respetivos determinantes:

1 0 0 1 0 0

(a) |M(idR3 ; B1 , B0 )| = 0 1 0 = 2 > 0 , |M(idR3 ; B2 , B0 )| = 1 1 0 = 1 > 0,
0 0 2 0 0 1

1 0 0 0 1 0

(b) |M(idR3 ; B3 , B0 )| = 0 −1 0 = −1 < 0 , |M(idR3 ; B4 , B0 )| = 1 0 0 = −2 < 0.
0 0 1 0 1 2

2.5.2 Produto externo


Seja (E, · | ·) um espaço euclidiano de dimensão 3. Sejam u, v ∈ E dois vetores
linearmente independentes. Logo dim hu, vi = 2 e, portanto, dim hu, vi⊥ = 3−2 = 1.
Quer dizer que existe um vetor z ∈ E não nulo tal que

hu, vi⊥ = hzi = {αz : α ∈ R} .

Como R é um conjunto infinito, existem infinitas possibilidades para α ∈ R e,


portanto, infinitos vetores αz ∈ E tais que αz ⊥ u e αz ⊥ v. Podemos restringir as

122 Ana L. Correia


possibilidades para α se exigirmos que αz tenha um comprimento fixo. Assim, seja
k ∈ R+ fixo e suponhamos que kαzk = k. Temos
k k k
kαzk = k ⇐⇒ |α|kzk = k ⇐⇒ |α| ⇐⇒ α = ∨ α=− .
kzk kzk kzk

Desta forma, existem apenas dois vetores em hu, vi⊥ com norma k, a saber
k k
z1 = z e z2 = − z.
kzk kzk

A fixação de uma orientação em (E, · | ·) vai permitir selecionar um destes vetores.


Seja, pois, B0 = e1 , e2 , e3 uma
 base fixa em E. Como z1 , z2 ∈ hu, vi⊥ então
B1 = u, v, z1 e B2 = u, v, z2 são bases de E. Mas, z2 = −z1 e, portanto,

|M(idE ; B2 , B0 )| = −|M(idE ; B1 , B0 )|.

Desta forma, somente uma destas bases define igual orientação que B0 .
Acabámos de justificar que num espaço euclideano de dimensão 3, dados dois
vetores linearmente independentes, existe um único vetor satisfazendo as três restri-
ções que impusémos. Em resumo:

Teorema 2.91. Seja  (E, · | ·) um espaço euclidiano de dimensão 3 com uma base
fixa B0 = e1 , e2 , e3 . Sejam u, v ∈ E dois vetores linearmente independentes.
Seja k ∈ R+ . Então, existe um único vetor z ∈ E tal que

(a) z ⊥ u, z ⊥ v (equivalentemente z ∈ hu, vi⊥ )

(b) kzk = k

(c) B = u, v, z é uma base direta de E.

Este resultado permite-nos formalizar a definição seguinte.

Definição 2.92. Seja (E, · |·) um espaço euclidiano de dimensão 3 orientado


por uma base B0 = e1 , e2 , e3 . Dados os vetores u, v ∈ E, chamaremos produto
externo (ou produto vetorial ) de u por v, e representa-se por u×v, ao vetor de E
definido por

(a) Se u e v são linearmente dependentes, então u×v = 0.

(b) Se u e v são linearmente independentes, então u×v é o único vetor que


satisfaz as três condições:

(i) (u×v) ⊥ u, (u×v) ⊥ v, A escolha de k =


kukkvksen ∠(u, v)
(ii) ku×vk = kukkvk sen ∠(u, v), será justificada

(iii) u, v, u×v é uma base direta de E. mais à frente.

21003 - Álgebra Linear II 123


Significado geométrico do produto externo
u×v
Sejam u, v ∈ R3 vetores linearmente inde-
pendentes e suponhamos que θ = ∠(u, v).
u
Se o vetor u×v for “agarrado” com a mão
direita e os dedos se curvarem indo de u
θ
para v através do ângulo θ, o polegar apon-
tará na direcção de u×v - de acordo com a
regra da mão direita. v

Proposição 2.93. Seja (E, · | ·) um espaço euclidiano de dimensão 3 orientado.


Se u, v ∈ E são linearmente independentes, então

(a) u×v 6= 0E .

(b) hu, vi⊥ = hu×vi.

Demonstração. Se u, v ∈ E são linearmente independentes então, pela proposição


2.25-(e), ∠(u, v) ∈]0, π[ e, portanto, sen ∠(u, v) 6= 0. Logo ku×vk 6= 0, donde
u×v 6= 0E . Segue-se que
dim hu×vi = 1 = dimhu, vi⊥ .
Como u×v ∈ hu, vi⊥, então hu, vi⊥ = hu×vi.

Exercício 2.94. Consideremos em R3 o produto  interno · | · : R3 × R3 → R, que


com respeito à base canónica B = e1 , e2 , e3 , tem matriz da métrica
 
1 0 −1
G = [ei | ej ] =  0 1 1  ∈ M3×3 (R).
−1 1 5
Suponhamos, também, que R3 está orientado de modo que a base canónica B seja
inversa. Sejam u = (1, 1, 0), v = (1, 0, −1) ∈ R3 . Determine u×v.
Resolução. Como os vetores u e v são linearmente independentes então u×v 6= 0.
De acordo com a definição, temos de determinar o único vetor z ∈ R3 tal que
(i) z ∈ hu, vi⊥ (ii) kzk = kukkvk sen ∠(u, v) (iii) B′ = u, v, z) é base direta.
(i) Temos
  
  1 0 −1 1 1  
z = (a, b, c) ∈ hu, vi⊥ ⇐⇒ a b c  0 1 1  1 0  = 0 0
−1 1 5 0 −1
   
 1 2   a  
   1 1 0 b = 0
⇐⇒ a b c 1 −1 = 0 0 ⇐⇒
2 −1 −6 0
0 −6 c

124 Ana L. Correia


e      
1 1 0 1 1 0 1 1 0
−→ −→
2 −1 −6 L2 −2L1 0 −3 −6 −1/3L2 0 1 2
Portanto

hu, vi⊥ = z = (a, b, c) ∈ R3 : a + b = 0, b + 2c = 0

= z = (a, b, c) ∈ R3 : a = −b, c = −1/2b
= {(−b, b, −1/2b) : b ∈ R} = h(1, −1, 1/2)i .

(ii) Por (i), sabemos que z = α(1, −1, 1/2) para algum α ∈ R. Vamos agora
conhecer as duas possibilidades para α sabendo que kzk = kukkvk sen ∠(u, v).
Temos
v    v  
u u
u  1 0 −1 1 u  1 √
u u
kuk = t 1 1 0  0 1 1   1 = t 1 1 0  1 = 2

−1 1 5 0 0
v    u v  
u
u  1 0 −1 1 u  2 √ √
u u
kvk = t 1 0 −1 0 1 1   0 = t 1 0 −1 −1 = 8 = 2 2
 
−1 1 5 −1 −6
v    u v  
u
u  1 0 −1 1 u  2
u u
u | v = t 1 1 0  0 1 1   0  = t 1 1 0 −1 = 1
−1 1 5 −1 −6
Portanto
r  2 r  2
p u|v
sen < (u, v) = 1 − cos2 ∠(u, v) = 1− = 1− √ 1√
kukkvk 22 2
q 2 q √
= 1 − 14 = 15 16
= 15
4
.
Logo √ √ √ √
kukkvk sen < (u, v) = 2 2 2 415 = 15.
Por outro lado,
v    v  1 
u u
 u  1 0 −1 1 u  2 √
1, −1, 1 = u
t 1 −1 1 
0 1 1   u
1 = t 1 −1 1  1
− = 5
.
2 2 2 2 2
1 1
−1 1 5 2 2

Por fim
  √
α 1, −1, 1 = kukkvk sen < (u, v) ⇐⇒ |α| 1, −1, 1 = 15
2 2

√ √ 15 √ √ √
⇐⇒ |α| 25 = 15 ⇐⇒ |α| = √ = 2 3 ⇐⇒ α = 2 3 ∨ α = −2 3.
5/2

(iii) Para decidirmos qual dos dois α possíveis é o certo temos de determinar a
orientação dada pelas bases B1 = u, v, z1 e B2 = u, v, z2 , onde z1 =
√  √ 
2 3 1, −1, 12 e z2 = −2 3 1, −1, 12 . Temos

21003 - Álgebra Linear II 125



1 1 2 √3

|M(idR3 ; B1 , B)| = 1 0 −2 3 = −5 3 < 0.
0 −1 √3

Portanto as bases B1 e B determinam orientações opostas em R3 e como, por


hipótese, a base B é inversa então a base B1 é direta e, portanto, z1 é o vetor
produto externo dos vetores u e v.
Assim, concluímos que
√  √ √ √
u×v = 2 3 1, −1, 12 = (2 3, −2 3, 3).

2.5.3 Áreas e volumes


O produto externo de dois vetores é um vetor, de modo que se calcularmos o produto
interno dele com outro vetor de E obteremos um número real. Esse número real é
importante geometricamente, como veremos seguidamente.

Definição 2.95. Seja (E, · | ·) um espaço euclideano de dimensão 3 orientado.


Dados os vetores u, v, w ∈ E, chama-se produto misto de u, v, w ao número real

(u×v) | w.

Exemplo 2.96. Na situação do exercício 2.94, o produto misto entre os vetores


u = (1, 1, 0), v = (1, 0, −1) e w = (1, 1, 1) é
    
 √ √ √  1 0 −1 1  √ √ √  0 √
(u×v) | w = 2 3 −2 3 3  0 1 1 1 = 2 3 −2 3 3 2 = 3.
−1 1 5 1 5

A propriedade seguinte é uma consequência simples da proposição 2.93.

Proposição 2.97. Seja (E, · | ·) um espaço euclideano de dimensão 3 orientado


e sejam u, v, w ∈ E. Suponhamos que u, v são linearmente independentes. Então

(u×v) | w = 0 ⇐⇒ w ∈ hu, vi.

Demonstração. Temos
⊥
(u×v) | w = 0 ⇐⇒ w ∈ hu×vi⊥ ⇐⇒ w ∈ hu, vi⊥ ⇐⇒ w ∈ hu, vi ,
Prop. 2.93 Teor. 2.63

como queríamos.

No que se segue vamos perceber a importância da escolha


k = kukkvk sen ∠(u, v)
na definição de produto externo.

126 Ana L. Correia


Sejam u, v ∈ R3 vetores linearmente independentes. Então u, v determinam um
paralelogramo. Sendo h a medida da altura do paralelogramo, temos
cateto oposto h
sen ∠(u, v) = = .
hipotenusa kvk

u×v

v
h ku×vk
u
Assim, temos
área do paralelogramo de-
ku×vk = kukkvk sen ∠(u, v) = kukh = finido pelos vetores u e v .

Em particular,
1
ku×vk = área do triângulo definido pelos vetores u e v .
2
Por outro lado,

|(u×v) | w| = ku×vkkwk| cos ∠(u×v, w)| = ku×vkk proju×v wk Reveja, se ne-


. cessário, a de-
= volume do paralelepípedo definido pelos vetores u, v, w finição 2.70.

2.5.4 Cálculo do produto externo e misto


A determinação do produto externo u×v de dois vetores u, v (de um espaço vetorial
euclideano de dimensão 3) linearmente independentes é, por recurso à definição, um
processo que envolve muitos cálculos, como aconteceu no exercício 2.94. Quando tra-
balhamos com bases ortonormadas os cálculos são simplificados, como mostraremos
seguidamente.

Teorema 2.98. Seja (E, · | ·) um espaço euclideano de dimensão 3 orientado.


Seja B = e1 , e2 , e3 uma base ortonormada e direta para o produto interno
· | · e orientação consideradas em E. Sejam u, v ∈ E e suponhamos que u =
u1 e1 + u2 e2 + u3 e3 ≡ (u1 , u2 , u3 ), v = v1 e1 + v2 e2 + v3 e3 ≡ (v1 , v2 , v3 ). Então: Identificamos os
vetores com as
e1 e2 e3 suas coordena-
u2 u3 u1 u3 u1 u2
u×v = e1 − e2 + e3 = u1 u2 u3 . das na base B.
v2 v3 v1 v3 v1 v2 mnemónica
v1 v2 v3

simbólica

21003 - Álgebra Linear II 127


Demonstração. Para demonstrarmos este resultado teremos de verificar que o vetor

u2 u3 u1 u3 u1 u2
z= e − e + e
v2 v3 1 v1 v3 2 v1 v2 3
= (u2v3 − u3 v2 )e1 − (u1 v3 − u3 v1 )e2 + (u1 v2 − u2 v1 )e3
≡ (u2 v3 − u3 v2 , −u1 v3 + u3 v1 , u1 v2 − u2 v1 )
satisfaz as três condições de definição de produto externo.

(i) Como a base B = e1 , e2 , e3 é ortonormada temos
z | u = (u2 v3 − u3 v2 , −u1 v3 + u3 v1 , u1 v2 − u2 v1 ) | (u1 , u2, u3 )
= (u2 v3 − u3 v2 )u1 + (u3 v1 − u1 v3 )u2 + (u1v2 − u2 v1 )u3
= u2 v3 u1 − u3 v2 u1 + u3 v1 u2 − u1 v3 u2 + u1 v2 u3 − u2 v1 u3 = 0.
Deste modo z ⊥ u. Analogamente provaríamos que z | v.
(ii) Temos
q q
kuk = u1 + u2 + u3 , kvk = v12 + v22 + v32
2 2 2
s  2 p
p u | v kuk2kvk2 − (u | v)2
sen ∠(u, v) = 1 − cos2 (u, v) = 1 − =
kukkvk kukkvk
e, portanto,
p
kukkvk sen ∠(u, v) = kuk2 kvk2 − (u | v)2
q
= (u21 + u22 + u23 )(v12 + v22 + v32 ) − (u1 v1 + u2 v2 + u3 v3 )2 (2.8)
Por outro lado,
p
kzk = (u2 v3 − u3 v2 )2 + (−u1 v3 + u3 v1 )2 + (u1v2 − u2 v1 )2 . (2.9)
efetuando os cálculos em (2.8) e (2.9) obteremos
Confirme! kzk = kukkvk sen ∠(u, v).

(iii) Temos

u1 v1 u2 v3 − u3 v2

|M(idE ; (u, v, z), B)| = u2 v2 −u1 v3 + u3 v1
u3 v3 u1 v2 − u2 v1
= u1 v2 (u1v2 − u2 v1 ) + u2 v3 (u2 v3 − u3 v2 ) + u3 v1 (−u1 v3 + u3 v1 )
− u3 v2 (u2v3 − u3 v2 ) − u2 v1 (u1 v2 − u2 v1 ) − u1 v3 (−u1 v3 + u3 v1 )
= u21 v22 − u1 u2 v1 v2 + u22 v32 − u2 u3 v2 v3 + u23 v12 − u1 u3 v1 v3
− u2 u3 v2 v3 + u23 v22 − u1 u2 v1 v2 + u22 v12 − u1 u3 v1 v3 + u21 v32
= u21 v22 −2u1u2 v1 v2 +u22v32 −2u2 u3 v2 v3 +u23v12 +u23v22 +u22v12 −2u1 u3 v1 v3 +u21 v32
Pelo menos = (u1 v2 − u2 v1 )2 + (u2 v3 − u3 v2 )2 + (u1 v3 − u3 v1 )2 > 0.
uma parcela é 
não-nula! Portanto a base u, v, z é direta.
Porquê?
O teorema está provado.

128 Ana L. Correia


Vejamos que os cálculos trabalhosos desta demonstração valeram apena.

Exemplo 2.99. Seja e1 , e2 , e3 uma base ortonormada direta de E. Tem-se

e1 e2 e3
0 1 2 1 2 0
(2e1 + e3 )×(e1 − e2 + 2e3 ) = 2 0 1 =

e1 − 1 2 e2 + 1 −1 e3

mnemónica
1 −1 2 −1 2

= e1 − 3e2 − 2e3 .
Vamos considerar novamente a situação do exercício 2.94 e re-calcular u×v re-
correndo ao Teorema 2.98.
 
1 0 −1
Exemplo 2.100. Na situação do exercício 2.94, G = [ei | ej ] =  0 1 1  é a
 −1 1 5
matriz da métrica em relação à base canónica B = e1 , e2 , e3 de R . Para usarmos o
3

teorema 2.98 necessitamos de expressar os vetores u = (1, 1, 0), v = (1, 0, −1) como
combinação linear dos vetores de uma base ortonormada e direta para o produto
interno definido por G. Por observação da matriz G = [ei | ej ] sabemos que
e1 | e1 = 1 = e2 | e2 e e1 | e2 = 0.
Assim, de acordo com o processo de ortogonalização de Gram-Schmidt, podemos
tomar u1 = e1 , u2 = e2 e
e3 | u1 e3 | u2
u3 = e3 − u1 − u2 = e3 − −1 e − 11 u2 = e1 − e2 + e3 = (1, −1, 1).
1 1
u1 | u1 u2 | u2
    
  1 0 −1 1   0
Como u3 | u3 = 1 −1 1  0 1 1  −1 = 1 −1 1 0 = 3 então
−1 1 5 1 3
  √ √ √ 
B′ = u1 , u2 , kuu33 k = (1, 0, 0), (0, 1, 0), 33 , − 33 , 33 é uma base ortonormada
para o produto interno dado. Como temos

1 0 3/3
√ √
0 1 − 3/3 = 3/3 > 0
0 0 √3/3

a base B′ e a base B definem a mesma orientação em R3 . Por hipótese a base B é


inversa e, portanto, também é inversa a base B′ . Agora, a proposição 2.89 assegura-
nos que B′′ = u1 , u2 , − kuu33 k = (u1 , u2 , u′3) é uma base direta. Para aplicarmos
o teorema 2.98, falta conhecermos as coordenadas dos vetores u = (1, 1, 0) e v =
(1, 0, −1) na base B′′ . Ora temos,
√ √ √ 
u = (1, 1, 0) = 1(1, 0, 0) + 1(0, 1, 0) + 0 − 33 , 33 , − 33
√ √ √ 
v = (1, 0, −1) = α(1, 0, 0) + β(0, 1, 0) + γ − 33 , 33 , − 33
 √ 
3
 α − γ = 1 α = −2

 √3
3
⇐⇒ β + γ 3 = 0 ⇐⇒ β = 1 .
 √3
 
 √
−γ 3 = −1 γ= 3

21003 - Álgebra Linear II 129


Desta forma já estamos em condições de aplicar o teorema 2.98 e temos

u1 u2 u′3
1 0 1 0 1 1 ′
u×v = 1 1 0 = √ u1 − √ u2 +
−2 1 u3

mnemónica √ 1 3 −2 3
−2 1 3
Como seria √ √ √ √ √
esperado! = 3u1 − 3u2 + 3u′3 = (2 3, −2 3, 3).

Corolário 2.101. Seja  (E, · | ·) um espaço euclideano de dimensão 3 orientado.


Seja B = e1 , e2 , e3 uma base ortonormada e direta para o produto interno
· | · e orientação consideradas em E. Sejam u, v, w ∈ E e suponhamos que
u = u1 e1 + u2 e2 + u3 e3 , v = v1 e1 + v2 e2 + v3 e3 e w = w1 e1 + w2 e2 + w3 e3 . Então

u1 u2 u3

(u×v) | w = v1 v2 v3 ∈ R.
w1 w2 w3

Demonstração. Vamos recorrer ao teorema 2.98. Temos


 
u2 u3
e1 − u1 u3
u1 u2
(u×v) | w = e + e | (w1 e1 + w2 e2 + w3 e3 )
v2 v3 v1 v3 2 v1 v2 3

u1 u2 u3
u2 u3
w1 − u1 u3
u u
= w2 + 1 2 w3 = v1 v2 v3
v2 v3 v1 v3 v1 v2 (∗)
w1 w2 w3
(*) usando o desenvolvimento de Laplace em relação à última linha.

Os dois últimos resultados serão de grande utilidade para o cálculo do produto


externo e produto misto quando trabalhamos com bases ortonormadas e diretas.
Em particular, permitem estabelecer algumas propriedades básicas sobre o compor-
tamento destes produtos relativamente à soma e multiplicação por escalar de vetores.
Relembremos, primeiro, a propriedade seguinte sobre os determinantes:

a11 · · · a 1n a11 · · · a1n a11 · · · a1n
.. .. .
. .. .. ..
. . . . . .


(2.10)

bi1 + ci1 · · · bin + cin = bi1 · · · bin + ci1 · · · cin .
.. .. .
. .
..
.
. .
..


. . .

.


a
n1 ··· ann
a n1··· a nn
an1 ··· a nn

Proposição 2.102. Para quaisquer vetores u, v, w ∈ E, k ∈ R valem as seguin-


tes igualdades:

(a) (u + v)×w = (u×w) + (v×w) (b) u×v = −(v×u)

(c) u×(v + w) = (u×v) + (u×w) (d) k(u×v) = (ku)×v = u×(kv)

(e) (u×v) | w = u | (v×w)

130 Ana L. Correia



Demonstração. Seja B = e1 , e2 , e3 uma base ortonormada direta de E e suponha-
mos que u = u1 e1 + u2 e2 + u3 e3 , v = v1 e1 + v2 e2 + v3 e3 e w = w1 e1 + w2 e2 + w3 e3 .
Vamos provar as igualdades (a), (c) e (e).
(a) Temos u + v = (u1 + v1 )e1 + (u2 + v2 )e2 + (u3 + v3 )e3 . Assim, usando o
Teorema 2.98 e a igualdade (2.10), temos

u2 + v2 u3 + v3 u1 + v1 u3 + v3 u1 + v1 u2 + v2
(u + v)×w = e − e + e
w2 w3 1 w1 w3 2 w1 w2 3
     
u2 u3 v2 v3 u1 u3 v1 v3 u1 u2 v1 v2
= + e − + e + + e
w2 w3 w2 w3 1 w1 w3 w1 w3 2 w1 w2 w1 w2 3

u2 u3 u1 u3 u1 u2 v2 v3 v1 v3 v1 v2
= e − e + e + e − e + e
w2 w3 1 w1 w3 2 w1 w2 3 w2 w3 1 w1 w3 2 w1 w2 3
= (u×w) + (v×w).

(c) Temos

u×(v + w) = −(v + w)×u = − (v×u) + (w×u) = (u×v) + (u×w).
b) a) b)

(e) Temos
 
u1 u2 u3 v1 v2 v3 v1 v2 v3

(u×v) | w = v1 v2 v3 = − u1 u2 u3 = − − w1 w2 w3 
cor. 2.101
w1 w2 w3 L1 ↔L2 w1 w2 w3 L2 ↔L3 u1 u2 u3
= (v×w) | u = u | (v×w).
cor. 2.101 A3

As restantes alíneas têm demonstrações idênticas, usam propriedades simples dos


determinantes e ficam como exercício.

2.6 Diagonalização em espaços euclidianos ou uni-


tários
As matrizes simétricas desempenham um papel fundamental em geometria analítica,
por exemplo, na classificação das cónicas e das quádricas. As matrizes simétricas, no
caso real, e as matrizes hermíticas, no caso complexo, são matrizes diagonalizáveis e
satisfazem outras propriedades especiais que evidenciaremos nesta secção. Notemos
que, em particular, a matriz da métrica é sempre simétrica ou hermítica, consoante
o espaço seja euclidiano ou unitário, respectivamente.
Por outro lado, vimos que nos espaços vetoriais euclidianos ou unitários as bases
ortonormadas desempenham um papel central, pois a matriz da métrica é a matriz
identidade. Uma questão  natural a colocar será: como escolher uma base ortonor-
mada B = v1 , . . . , vn para um espaço euclidiano ou unitário E, de dimensão n, de
modo a que v1 , . . . , vn sejam vetores próprios de algum endomorfismo f de E?

21003 - Álgebra Linear II 131


2.6.1 Endomorfismos auto-adjuntos
Nesta subsecção caracterizaremos os endomorfismos que são representados, em re-
lação a uma base ortonormada, por matrizes simétricas, no caso real, e hermíticas,
no caso complexo.
Suponhamos que A = [aij ] ∈ Mn×n (C) é hermítica. Consideremos em Cn uma
base ortonormada B = e1 , . . . , en . Então, relativamente à base B, a matriz A
define um endomorfismo f de E tendo-se M(f ; B, B) = A. Assim para j = 1, . . . , n
    
a11 · · · a1j · · · a1n 0 a1j
 .. .. ..   ..   .. 
 . . .  .  . 
    
f (ej ) =  ai1 · · · aij · · · ain  1 =  aij  .
 . .. ..  .  . 
 .. . .   ..   .. 
an1 · · · anj · · · ann 0 anj

Portanto, como B = e1 , . . . , en é ortonormada,
   
0 a1i
 ..   .. 
   .    . 
f (ej ) | ei = a1j · · · aij · · · anj In1= aij , ej | f (ei ) = 0 · · · 1 · · · 0 Inaji = aji
   
. . 
 ..   .. 
0 ani
(2.11)
Como A é hermítica então aij = aji , donde f (ej ) | ei = ej | f (ei ). Aplicando as
propriedades de sesquilinearidade do produto interno deduz-se facilmente que

f (x) | y = x | f (y), (2.12)

para quaisquer x = x1 e1 + · · · + xn en , y = y1 e1 + · · · + yn en ∈ Cn .
No caso de A ser real, usando um argumento idêntico prova-se também que
f (x) | y = x | f (y), para quaisquer x, y ∈ Rn . Um endomorfismo f : E → E que
satisfaça uma igualdade do tipo 2.12 tem um nome especial, que será justificado na
subsecção 2.6.3.

Definição 2.103. (E, · | ·) é um espaço vectorial euclidiano ou unitário. Um


endomorfismo f : E → E diz-se auto-adjunto se

f (x) | y = x | f (y) , para todos x, y ∈ E.

De acordo com esta definição, as matrizes simétricas ou hermíticas definem, re-


lativamente a bases ortonormadas, endomorfismos auto-adjuntos. Reciprocamente,
provaremos em seguida que os endomorfismos auto-adjuntos são representados, re-
lativamente a uma base ortonormada, por uma matriz simétrica no caso real e por
uma matriz hermítica no caso complexo.

132 Ana L. Correia


Proposição 2.104.

(a) Seja B = e1 , . . . , en uma base ortonormada de um espaço euclideano
ou unitário E e f : E → E um endomorfismo auto-adjunto de E. Então
M(f ; B, B), a matriz que representa f relativamente à base B, é simétrica
se K = R ou hermítica se K = C.

(b) Suponhamos que A ∈ Mn×n (R) é uma matriz simétrica ou que A ∈


Mn×n (C) é uma matriz hermítica. Então, relativamente a uma base or-
tonormada de Kn (K = R ou K = C), A define um endomorfismo auto-
adjunto em Rn ou em Cn , respectivamente.

Demonstração. Vamos considerar o caso complexo, pois o caso real é análogo. Seja
A = [aij ] = M(f ; B, B) ∈ Mn×n (C). Quer dizer que f (ej ) = a1j e1 + · · · + aij ei +
· · · + anj ej , para j = 1, . . . , n. Como a base B é ortonormada, já observámos que

f (ej ) | ei = aij e ej | f (ei ) = aji .

(a) Como f é auto-adjunto, temos então

aij = f (ej ) | ei = ej | f (ei ) = aji ,

para quaiquer i, j = 1, . . . , n, o que prova que A é hermítica.


(b) Observado acima.

Exemplo 2.105. Suponhamos que R2 está munido do produto interno canónico.


Seja f : R2 → R2 definido por f (x, y) = (x+2y, 2x−y) para todos x, y ∈ R. Vejamos,
primeiro por definição, que f é auto-adjunto. Sejam u = (u1 , u2 ), v = (v1 , v2 ) ∈ R2
vetores arbitrários. Então

f (u) | v = (u1 + 2u2 , 2u1 − u2 ) | (v1 , v2 ) = (u1 + 2u2 )v1 + (2u1 − u2 )v2
= u1 v1 + 2u2 v1 + 2u1 v2 − u2 v2 = u1 (v1 + 2v2 ) + u2 (2v1 − v2 )
= (u1 , u2 ) | (v1 + 2v2 , 2v1 − v2 ) = u | f (v)

o que prova que f é auto-adjunto. Mais, simplesmente, podemos concluir o mesmo


recorrendo ao Teorema 2.104. De facto, a base canónica B = (1, 0), (0, 1) é orto-
normada para o produto interno canónico e temos
 
2 2 1 2
A = M(f ; b.c R , b.c R ) = pois f (1, 0) = (1, 2), f (0, 1) = (2, −1).
2 −1

Como A é simétrica então pelo Teorema 2.104-(a), o endomorfismo f é auto-adjunto.

Os endomorfismos auto-adjuntos satisfazem boas propriedades, como evidencia-


remos no resultado seguinte. Em particular, são diagonalizáveis. A sua demonstra-
ção é elaborada, em especial a das alíneas (b) e (e).

21003 - Álgebra Linear II 133


Teorema 2.106. Sejam (E, · | ·) um espaço euclidiano ou unitário e f : E → E
um endomorfismo de E auto-adjunto. Então:

(a) Todos os valores próprios de f são reais.

(b) f tem pelo menos um vetor próprio (e, portanto, um valor próprio); mais
precisamente, existe v ∈ E, v 6= 0E , tal que f (v) = λv para algum λ ∈ R.

(c) Se u e v são vetores próprios de f associados a valores próprios distintos,


então u e v são ortogonais, i.e, u | v = 0.
De acordo com (d) Se F for um subespaço vetorial de E e f (F ) ⊆ F , então f (F ⊥ ) ⊆ F ⊥ .
a definição
1.26, a alínea (e) Existe uma base ortonormada de E formada por vetores próprios de f .
(d) é equiva-
lente a: “se F é (f) f é diagonalizável.
f -invariante
então F ⊥ é
f -invariante”. Demonstração. (a) Seja λ um valor próprio de f e seja v ∈ E um vetor próprio
associado a λ; assim, v 6= 0E e f (v) = λv. Como f é auto-adjunto, temos, em
particular, f (v) | v = v | f (v), logo
λ(v | v) = (λv) | v = f (v) | v = v | f (v) = v | (λv) = λ(v | v).
Como v 6= 0E , temos v | v 6= 0 e, portanto, λ = λ, o que significa que λ ∈ R.

(b) Seja A a matriz que representa f com respeito a uma base e1 , . . . , en de E e
consideremos o endomorfismo fA : Mn×1 (C) → Mn×1 (C) definido por fA (X) = AX
para todo X ∈ Mn×1 (C). Considerando A ∈ Mn×n (C), pelo Corolário 1.22, A
tem pelo menos um valor próprio λ ∈ C e, portanto, existe uma matriz não-nula
X ∈ Mn×1 (C) tal que
AX = fA (X) = λX.
Como A é uma matriz hermítica (porque f é auto-adjunto), o endomorfismo fA
também é auto-adjunto, logo λ ∈ R (pela alínea anterior).
Se E for um espaço unitário, pondo
 T
X = x1 · · · xn ,
temos
v = x1 e1 + · · · + xn en ∈ E, v 6= 0E e f (v) = λv.
Se E for um espaço euclideano, a matriz A tem todos os coeficientes reais, logo
A = A; no entanto, X pode ter coeficientes não-reais e, por isso, não definir um vetor
de E. Nesta situação, consideramos a matriz conjugada X ∈ Mn×1 (C). Temos
AX = A X = AX = λX = λ X = λX
A=A λ=λ

e, portanto, a matriz
   
x1 + x1 2 Re x1

Y =X +X = ..  =  ..  ∈ M (R)
.   .  n×1
xn + xn 2 Re xn

134 Ana L. Correia


verifica

AY = A(X + X) = AX + AX = λX + λX = λ(X + X) = λY.

Por conseguinte, como Y tem todos os coeficientes reais, Y define o vetor

v = (x1 + x1 )e1 + · · · + (xn + xn )en ∈ E.

Como X 6= 0, também Y 6= 0 e consequentemente v 6= 0E . Finalmente, como


AY = λY , também f (v) = λv.
(c) Sejam u, v ∈ E vetores próprios de f associados aos valores próprios λ, µ,
com λ 6= µ. Portanto temos f (u) = λu e f (v) = µv. Por (a) sabemos que λ, µ ∈ R.
Logo, como f é auto-adjunto,

λ(u | v) = (λu) | v = f (u) | v = u | f (v) = u | (µv) = µ(u | v) = µ(u | v).

Como λ 6= µ então u | v = 0, isto é, u e v são ortogonais.


(d) Seja u ∈ F ⊥ , com vista a provar que f (u) ∈ F ⊥ . Seja v ∈ F qualquer.
Por hipótese f (F ) ⊆ F , ou seja f (v) ∈ F para todo v ∈ F . Assim, como f é
auto-adjunto, temos
f (u) | v = u | f (v) = 0
- a segunda igualdade porque u ∈ F ⊥ e f (v) ∈ F . Como v ∈ F é qualquer temos Ver, se neces-
f (u) ∈ F ⊥ . Atendendo à arbitrariedade de u ∈ F ⊥ , concluímos que f (F ⊥ ) ⊆ F ⊥ , sário, a defini-
como queríamos. ção 2.59 de F ⊥ .

(e) Sejam λ1 , . . . , λt os valores próprios distintos de f , sejam Eλ1 , . . . , Eλt os


respectivos subespaços próprios e seja

F = Eλ1 ⊕ · · · ⊕Eλt .

Pelo Teorema 2.63-(a), temos E = F ⊕F ⊥ . Vamos provar que F ⊥ = {0E }, de modo


que terá de ser E = F . Com vista a absurdo, suponhamos que F ⊥ 6= {0E }.
Pelo Exemplo 1.27 temos

f (Eλ1 ) ⊆ Eλ1 , . . . , f (Eλt ) ⊆ Eλt .

Como f é linear, f transforma uma soma de vetores na soma de imagens e, portanto,


temos

f (F ) = f (Eλ1 + · · · + Eλt ) ⊆ f (Eλ1 ) + · · · + f (Eλt ) ⊆ Eλ1 + · · · + Eλt = F.

Segue-se, pela alínea anterior, que f (F ⊥ ) ⊆ F ⊥ . Deste modo, podemos considerar a


restrição f|F ⊥ : F ⊥ → F ⊥ de f a F ⊥ que é um endomorfismo de F ⊥ . Como f é auto- Ver definição
adjunto, também f|F ⊥ é trivialmente auto-adjunto, logo tem pelo menos um vetor 1.26 e obser-
vação a seguir.
próprio v ∈ F ⊥ (pela alínea (b)). Como f|F ⊥ é a restrição de f a F ⊥ , v também é
vetor próprio de f e, portanto, v ∈ Eλi para algum 1 ≤ i ≤ t. Em particular, v ∈ F
o que não pode acontecer porque F ∩ F ⊥ = {0E } e v 6= 0E .
Em conclusão, F ⊥ = {0E } e, portanto,

E = F = Eλ1 ⊕ · · · ⊕Eλt .

21003 - Álgebra Linear II 135


Para terminar, para cada 1 ≤ i ≤ t, escolhemos uma base ortonormada Bi de
Eλi e consideramos a união
B = B1 ∪ . . . ∪ Bt .
Como E = Eλ1 ⊕ · · · ⊕Eλt , B é uma base de E. Por outro lado, para i 6= j, os vetores
de Bi são ortogonais aos vetores de Bj (pela alínea (c) porque λi 6= λj ) e, portanto,
B é ortonormada (e constituída por vetores próprios de f ).
(f) é consequência da alínea anterior e do Teorema 1.38.

Consideremos em Kn o produto interno canónico


 
x1 , . . . , xn | y1 , . . . , yn = x1 y1 + · · · + xn yn .
Identificando, como usualmente, n-uplos de Kn com matrizes coluna de Mn×1 (K),
podemos escrever
 
y
    .1 
X | Y = x1 , . . . , xn | y1 , . . . , yn = x1 y1 + · · · + xn yn = x1 · · · xn  ..  = X T Y
yn
e, portanto,
X | Y = XT Y
define, de modo natural, um produto interno em Mn×1 (K).
Usando a Proposição 2.104 podemos traduzir as propriedades do Teorema 2.106
para as matrizes simétricas e hermíticas.

Corolário 2.107. Seja A ∈ Mn×n (K) uma matriz simétrica ou hermítica.


Então:

(a) Todos os valores próprios de A são reais.

(b) A tem pelo menos um vetor próprio (e, portanto, um valor próprio); mais
precisamente, existe X ∈ Mn×1 (K), X =
6 0, tal que AX = λX para algum
λ ∈ R.

(c) Se X, Y ∈ Mn×1 (K) são vetores próprios de A associados a valores próprios


distintos então X e Y são ortogonais, i.e X | Y = 0, para o produto
interno X | Y = X T Y .

(d) Existe uma base ortonormada de Kn formada por n vetores próprios de A.

(e) A é diagonalizável e existe uma matriz invertível S, cujas colunas formam


uma base ortonormada de Kn , tal que S −1 AS é uma matriz diagonal.

Demonstração. Consideremos em Kn a base canónica que é ortonormada para o


produto interno canónico. Seja f : Kn → Kn o endormorfismo definido por A relati-
vamente à base canónica, i.e. A = M(f ; b.c Kn , b.c Kn ). Pela Proposição 2.104, f
é auto-adjunto. Agora basta aplicar o Teorema 2.106 para concluirmos a veracidade
das afirmações das alíneas (a) - (d).

136 Ana L. Correia


(e) O Teorema 2.106 também nos garante que A é diagonalizável. Além disso,
pelo Teorema 1.42 sabemos que as matrizes cujas colunas formem uma base de
vetores próprios de A são matrizes diagonalizantes. Como, pela alínea (d), podemos
escolher uma base ortonormada de Kn formada por vetores próprios de A, tal matriz
S existe.
As matrizes S têm um nome especial e satisfazem propriedades interessantes,
como veremos seguidamente.

Definição 2.108. Seja S ∈ Mn×n (K) uma matriz quadrada com K = R ou


K = C.

• Seja K = R. Diremos que S é ortogonal se S T S = In .

• Seja K = C. Diremos que S é unitária se S ∗ S = In . Relembre que


T
S∗ = ST = S .

Notemos que se BA = In com A, B matrizes quadradas, então |A| = 6 0, o que


prova que A é invertível. Logo B = BAA = In A = A . Portanto as matrizes
−1 −1 −1

ortogonais e as matrizes unitárias são invertíveis. Além disso, temos A−1 = AT no


caso ortogonal e A−1 = A∗ no caso unitário. Estas matrizes admitem as seguintes
caracterizações.

Teorema 2.109. Seja P ∈ Mn×n (R) uma matriz quadrada real. São equivalen-
tes as afirmações seguintes:

(a) P é ortogonal.

(b) P é invertível e P −1 = P T .

(c) As colunas de P formam uma base ortonormada de Rn para o produto


interno canónico.

(d) As linhas de P formam uma base ortonormada de Rn para o produto interno


canónico.

Demonstração. “(a) ⇔ (b)”: A implicação “⇒” já foi observada e a recíproca é


imediata. " #
“(a) ⇔ (c)”: Suponhamos que P = C1 · · · Cn onde C1 , . . . , Cn designam

as colunas de P . Como a linha i de P T é Ci T , então a entrada (i, j) de P T P é


Ci T Cj = Ci | Cj . Portanto
(
Ci | Cj = 0 se i 6= j
P T P = In ⇐⇒ ⇐⇒ {C1 , . . . , Cn } sistema de vetores o.n.
Ci | Cj = 1 se i = j
Deste forma, os n-uplos correspondentes a C1 , . . . , Cn são vetores ortonormados
(para o produto interno canónico) e linearmente independentes de Rn e, portanto,
constituem uma base ortonormada de Rn .

21003 - Álgebra Linear II 137


“(a) ⇔ (d)”: Se P é ortogonal então P T P = In = P P T (por (b)). Assim, temos

(P T )T P T = (P P T )T = InT = In

e, portanto, P T também é ortogonal. Como as linhas de P são as colunas de P T


a afirmação (d) é consequência da anterior. Reciprocamente supondo que vale (d)
então as colunas de P T são ortonormadas. Logo como (a) ⇒ (c) então P T também
é ortogonal. Segue-se, pela primeira parte, que P = (P T )T também é ortogonal.

Analogamente para as matrizes unitárias temos:

Teorema 2.110. Seja U ∈ Mn×n (C) uma matriz quadrada complexa. São equi-
valentes as afirmações seguintes:

(a) U é unitária.

(b) U é invertível e U −1 = U ∗ .

(c) As colunas de U formam uma base ortonormada de Cn para o produto


interno canónico.

(d) As linhas de U formam uma base ortonormada de Cn para o produto interno


canónico.

Segue facilmente da definição e dos resultados anteriores que o determinante


de uma matriz ortogonal é ±1 e que o de uma matriz unitária tem módulo 1.
Para não haver Estas afirmações são consequência de 1 = det In = (det P T )(det P ) = (det P )2 e de
confusão nota- 1 = det In = (det U ∗ )(det U) = det U det U = | det U|2 , respetivamente.
cional reservá-
mos “|...|” para
o módulo.
Relembre que Corolário 2.111. Sejam P ∈ Mn×n (R) uma matriz ortogonal e U ∈ Mn×n (C)
zz = |z|2 , com uma matriz unitária. Então:
|z| ≥ 0.
(a) det P = 1 ou det P = −1.

(b) P −1 é uma matriz ortogonal.

(c) | det U| = 1.

(d) U −1 é uma matriz unitária.

Demonstração. (a), (c) estão justificada acima.


(b), (d): Exercício.

As matrizes ortogonais são também importantes geometricamente.

138 Ana L. Correia


Exemplo 2.112.
   
cos θ − sen θ cos θ sen θ
(a) As matrizes Rotθ = , Ref θ = são matrizes
sen θ cos θ sen θ − cos θ
ortogonais para qualquer ângulo θ porque sen2 θ + cos2 θ = 1 - logo as suas
colunas são vetores ortonormados de R2
[Nota: A matriz Rotθ representa uma rotação em torno da origem por um
ângulo de θ e Ref θ é a reflexão na recta que passa pela origem e faz um ângulo
de θ/2 com a parte positiva do eixo X.]
"√ √ #
2 2
i
(b) C = 2√2 2
√ é unitária, pois CC ∗ = I2 . Confirme!
− 2 − 22 i

(c) Toda a matriz ortogonal de M2×2 (R) é do


 tipo
 Rotθ ou Ref θ , para algum
a b
0 ≤ θ ≤ 2π. [Sugestão: Considerar A = ∈ M2×2 (R) e usar AT A =
c d
I2 = AAT e |A| = ±1].

2.6.2 Diagonalização ortogonal


Seja A ∈ Mn×n (R) uma matriz simétrica. O Corolário 2.107 garante-nos que
todas as raízes do polinómio característico de A são números reais. Além disso, A é
diagonalizável e existe uma matriz diagonalizante cujas colunas formam uma base
ortonormada de Rn e, portanto, essa matriz é ortogonal (Teorema 2.109).

Definição 2.113. Diremos que A ∈ Mn×n (R) que é diagonalizável ortogonal-


mente se existir uma matriz ortogonal P ∈ Mn×n (R) tal que

P −1 AP = P T AP é uma matriz diagonal.

O Teorema dos Eixos Principais garante que toda a matriz real simétrica é diago-
nalizável ortogonalmente e que vale o recíproco. Este resultado permitirá determinar
um sistema de eixos, chamados eixos principais, relativamente ao qual uma forma
quadrática admite uma equação simplificada, daí o seu nome. Ver secção 4.3.

Teorema 2.114. (Teorema dos Eixos Principais) São equivalentes as afir-


mações seguintes para uma matriz quadrada A ∈ Mn×n (R):

(a) A é simétrica.

(b) A é diagonalizável ortogonalmente.

(c) Rn possui uma base ortonormada formada por n vetores próprios de A.

Demonstração. “(a) ⇒ (c)”: Pelo Corolário 2.107-(d).

21003 - Álgebra Linear II 139


“(b) ⇒ (a)”: Suponhamos que P −1AP = D, onde P é uma matriz ortogonal e
D é uma matriz diagonal. Então A = P DP −1 = P DP T e, como qualquer matriz
diagonal é simétrica, temos

AT = (P DP T )T = (P T )T D T P T = P DP T = A,

o que prova que A é simétrica.



“(c) ⇒ (b)”: Seja u1, . . . , un uma base ortonormada de Rn formada por n
vetores próprios de A. Seja P ∈ Mn×n (R) a matriz cujas colunas são os vetores
u1 , . . . , un . Então, pelo Teorema 2.109, P é uma matriz ortogonal e, pelo Teorema
1.42, A é diagonalizável. Logo A é diagonalizável ortogonalmente.

Os resultados que provámos justificam o seguinte procedimento para diagonali-


zarmos ortogonalmente uma matriz real simétrica.

Algoritmo para a diagonalização ortogonal


Seja A ∈ Mn×n (R) uma matriz simétrica.

Passo 1 Determinar os valores próprios distintos λ de A.

Passo 2 Determinar uma base para cada espaço próprio Mλ , resolvendo o sistema
(A − λIn )X = 0.

Passo 3 Obter uma base ortonormada para cada Mλ , utilizando o algoritmo de


Gram-Schmidt, se necessário.

Passo 4 O conjunto formado pelos vetores próprios que constituem as bases para
os espaços próprios obtidas no passo 3 é uma base ortonormada de Rn .

Passo 5 Se P é a matriz cujas colunas são formadas pelos vetores da base obtida
no passo 4, então P é uma matriz ortogonal e P T AP é uma matriz diagonal.
 
2 2 1
Exemplo 2.115. Dada a matriz simétrica A = 2 5 2 ∈ M3×3 (R) vamos de-
1 2 2
terminar uma matriz ortogonal P tal que P AP seja diagonal.
T

Resolução. Sempre que necessário identificamos triplos com matrizes coluna de


tipo 3 × 1.
Passo 1: O polinómio característico de A é |A − λI3 | = (7 − λ)(1 − λ)2 . Logo λ1 = 7
e λ2 = λ3 = 1 são os valores próprios de A (todos reais como seria de esperar pelo
corolário 2.107).
Passo 2: Os subespaços próprios são:
*" #+ *" # " #+
1 1 2
M7 = 2 , M1 = 0 , −1 (confirme!).
1 −1 0

140 Ana L. Correia



Passo 3: Vamos ortogonalizar a base (1, 0, −1), (2, −1, 0) de M1 . Aplicando o
processo de ortogonalização de Gram-Schmidt relativamente ao produto interno ca-
nónico, obtemos

u1 = (1, 0, −1) , (1, 0, −1) | (1, 0, −1) = 2


(2, −1, 0) | (1, 0, −1)
u2 = (2, −1, 0) − (1, 0, −1) = (1, −1, 1)
(1, 0, −1) | (1, 0, −1)
" # " #!
1 1
Portanto, 0 , −1 é uma base ortogonal de M1 . Agora normalizamos os
−1 1
vetores obtidos:

v1 = √1 (1, 2, 1) , v2 = √1 (1, 0, −1) , v3 = √1 (1, −1, 1).


6 2 3

     
Passo 4: Logo √1 , √2 , √1 , √12 , 0, − √12 , √13 , − √13 , √13 é uma base ortonor-
6 6 6
mada de R3 formada por vetores próprios de A.
1 1 1

√ √ √
 6 2 3
Passo 5: Seja P =  √26 0 − √13 
. Temos P ortogonal e P T AP = diag(7, 1, 1).
√1 − √12 √13
6

2.6.3 Diagonalização unitária


No caso complexo trabalhamos com matrizes unitárias e temos a definição seguinte.

Definição 2.116. Diremos que A ∈ Mn×n (C) é diagonalizável unitariamente se


existir uma matriz unitária U ∈ Mn×n (C) tal que

U −1 AU = U ∗ AU é uma matriz diagonal.

Vimos no caso real que uma matriz é simétrica se e só se é diagonalizável orto-


gonalmente. Mas no caso das matrizes hermíticas, não temos uma equivalência. De
facto, podemos apenas afirmar que:

toda a matriz hermítica é diagonalizável unitariamente

- Corolário 2.107-(e) e Teorema 2.110-(d). A recíproca é em geral falsa, i.e. existem


matrizes diagonalizáveis unitariamante que não são hermíticas, as que têm valores
próprios complexos não-reais. Efetivamente, se A for diagonalizável unitariamente e
tivermos D = U −1 AU com U unitária e D diagonal formada pelos valores próprios
de A não todos reais teremos D 6= D ∗ . Logo, como U é invertível e U −1 = U ∗ ,

A∗ = (UAU −1 )∗ = (U ∗ )∗ D ∗ U ∗ = UD ∗ U ∗ 6= UDU ∗ = A.

Vejamos um exemplo concreto.

21003 - Álgebra Linear II 141


 
0 −1
A matriz A é Exemplo 2.117. A matriz A = não é hermítica (porque é uma matriz
unitária, 1 0
 pois
−1 0 1 real que não é simétrica) mas é diagonalizável unitariamente.
A =
−1 0 De facto, o polinómio característico de A é |A − λI2 | = λ2 + 1. Logo λ1 = i e
= AT = A∗ . λ2 = −i são os valores próprios de A (que não são números reais). Os respetivos
subespaços próprios são:
   
Confirme! −1 i
Mi = , M−i = .
i −1
Normalizando, obtemos
 √   √ 
−1/
√ 2 i/ √2
Mi = , M−i = .
i 2 −1/ 2
" #
−1
√ √i
Assim U = √i
2
−1

2
, e temos
2 2
" #  " −1 #  
−1


2
− √i2 0 −1 √
2
√i
2 i 0
U AU = = .
− √i 2
−1

2
1 0 √i
2
−1

2
0 −i

Portanto A é diagonalizável unitariamente, mas não é hermítica.

Para caracterizarmos completamente as matrizes diagonalizáveis unitariamente


necessitamos de trabalhar com matrizes um pouco mais gerais, que englobem as
hermíticas e as unitárias. Vamos começar por ver que condição é que estas matrizes
têm de satisfazer.
Seja A ∈ Mn×n (C). Suponhamos que U −1 AU = D, onde U é uma matriz
unitária e D é uma matriz diagonal. Então A = UDU −1 = UDU ∗ e temos

AA∗ = (UDU ∗ )(UDU ∗ )∗ = UDU ∗ (U ∗ )∗ D ∗ U ∗ = UD U ∗


|{z}U D ∗ U ∗ = UDD ∗ U ∗ ,
In
z}|{
A∗ A = (UDU ∗ )∗ (UDU ∗ ) = (U ∗ )∗ D ∗ U ∗ UDU ∗ = UD ∗ U ∗ U DU ∗ = UD ∗ DU ∗ .

Como D é diagonal temos DD ∗ = D ∗ D. Logo AA∗ = A∗ A. Portanto provámos o


resultado seguinte:

Proposição 2.118. Seja A ∈ Mn×n (C). Se A é diagonalizável unitariamente


então
AA∗ = A∗ A.

As matrizes quadradas que comutam com a sua transconjugada, mas cujo pro-
duto não seja necessariamente a matriz identidade, têm um nome especial.

Definição 2.119. Diremos que A ∈ Mn×n (C) é normal se AA∗ = A∗ A.

142 Ana L. Correia


Exemplo 2.120.

(a) Seja A ∈ Mn×n (C). Segue-se, trivialmente, das definições que:

(i) Se A é hermítica então A é normal.


(ii) Se A é unitária então A é normal.

(b) Existem matrizes normais


 que não
 são nem hermíticas nem unitárias. Por
1 1
exemplo a matriz A = ∈ M2×2 (C) é normal e não é nem hermítica
i 3 + 2i
nem unitária. Efetivamente temos
    
∗ 1 1 1 −i 2 3 − 3i
AA = = ,
i 3 + 2i 1 3 − 2i 3 + 3i 14
    
∗ 1 −i 1 1 2 3 − 3i
A A= = .
1 3 − 2i i 3 + 2i 3 + 3i 14

Portanto AA∗ = A∗ A e A é normal. Como A 6= A∗ a matriz A não é hermítica.


Como AA∗ 6= I2 a matriz A não é unitária.

O conceito de matriz normal pode ser traduzido de modo natural para um endo-
morfismo. Para isso, necessitamos de garantir a existência de um endomorfismo f ∗
que se comporte relativamente a f como a matriz A∗ se comporta relativamente à
matriz A. A sua existência (e unicidade) é garantida pelo Teorema de Riesz 2.69. E
o recurso a f ∗ facilitará a caracterização das matrizes diagonalizáveis unitariamente,
como veremos adiante.

Teorema 2.121. Sejam (E, · | ·) um espaço euclidiano ou unitário e f : E → E


um endomorfismo de E. Então existe um único endomorfismo f ∗ : E → E tal
que
f (x) | y = x | f ∗ (y)
para quaisquer x, y ∈ E. Além disso, seja B uma base ortonormada de (E, · | ·)
e A = M(f ; B, B′ ). Temos:

(a) A∗ = M(f ∗ ; B, B). A relação sim-


ples entre as
(b) Se A for uma matriz normal então qualquer outra matriz B que represente representações
f relativamente a uma base ortonormada de (E, · | ·) também é normal. matriciais de f
e f ∗ não existi-
rá se a base B
não for ortonor-
Demonstração. Comecemos por definir f ∗ . Seja y ∈ E um vetor arbitrário mas fixo mada. Ver exem-
de E. A aplicação hy : E → K definida por plo 2.122.

hy (x) = f (x) | y

para todo x ∈ E é uma aplicação linear, visto f ser linear. Portanto, pelo Teorema

21003 - Álgebra Linear II 143


Ver motivação e de Riesz 2.69, existe um único vetor u ∈ E tal que
Teorema de
Riesz. f (x) | y = hy (x) = x | u.

A unicidade do vetor u permite definir, sem ambiguidade, uma aplicação f ∗ : E → E


por f ∗ (y) = u. Então, para quaisquer x, y ∈ E,

f (x) | y = x | u = x | f ∗ (y).

Seguidamente mostraremos que f ∗ é linear. Sejam v, w ∈ E vetores arbitrários e


α, β ∈ K escalares arbitrários. Temos, para todo x ∈ E,
Se x | u = x | v
para todo x ∈ E, x | f ∗ (αv + βw) = f (x) | (αv + βw) = α(f (x) | v) + β(f (x) | w)
então em parti-
cular ei| u = ei| v = α(x | f ∗ (v)) + β(x | f ∗ (w) = x | (αf ∗ (v) + βf ∗ (w)).
para todos os
vetores de uma Como x ∈ E é qualquer, temos
base o.n. B =
e1 , . . . , en .
Logo a Prop. f ∗ (αv + βw) = αf ∗(v) + βf ∗ (w)
2.36 garante-
-nos que u = v. o que prova que f ∗ é linear. 
Por fim, seja B = e1 , . . . , en uma base ortonormada de E (onde n = dim E).
(a) Seja A = M(f ; B, B) = [aij ] e B = M(f ∗ ; B, B) = [bij ]. Temos, por (2.11)

f (ej ) | ei = aij e f ∗ (ej ) | ei = bij ,

para i, j = 1, . . . , n. Portanto

bij = f ∗ (ej ) | ei = ei | f ∗ (ej ) = f (ei ) | ej = aji = (AT )ij = (A∗ )ij ,

o que prova que B = A∗ .


(b) Seja B′ outra base ortonormada de (E, · | ·). Como B e B′ são bases ortonor-
madas temos, pelo Teorema 2.50 e Proposição 2.40,

In = G B ′ = P T G B P = P T In P = P T P ,

onde P = M(idE ; B′ , B). Logo


T
P ∗ P = P T P = P P T T = (P T P )T = InT = In

o que prova que P é unitária e temos P −1 = P ∗ . Seja B = M(f ; B′ , B′ ). Como P é


a matriz mudança de base, temos B = P −1 AP . Assim,

BB ∗ = (P −1 AP )(P −1AP )∗ = P −1 AP P ∗ A∗ P −1 = P ∗ AA∗ P = P ∗ A∗ AP
P −1 =P ∗ A normal

= P ∗ A∗ P P −1AP = P ∗ A∗ P −1 P −1 AP = (P −1
AP ) (P −1AP ) = B ∗ B,

o que prova que B é uma matriz normal.

144 Ana L. Correia


Exemplo 2.122. Seja f : C3 → C3 o endomorfismo definido, para todos (x, y, z) ∈
C3 , por
f (x, y, z) = (2x + iy, y − 5iz, x + (1 − i)y + 3z).
Vamos determinar a expressão geral de f ∗ e evidenciar a necessidade da base ser
ortonormada no Teorema 2.121.

A base canónica (1, 0, 0), (0, 1, 0), (0, 0, 1) de C3 é ortonormada para o produto
interno canónico e temos
 
2 i 0
M(f ; b.c C3 , b.c C3 ) = 0 1 −5i = A.
1 1−i 3
Assim, pelo Teorema 2.121, temos
 
2 0 1
M(f ∗; b.c C3 , b.c C3 ) = A∗ = −i 1 1 + i .
0 5i 3
Logo
  
2 0 1 x

f (x, y, z) = −i 1 1 + i
   y  = (2x + z, −ix + y + (1 + i)z, 5iy + 3z).
0 5i 3 z

Notemos que a base B = (1, 0, i), (1, i, 0), (1, 0, 0) não é ortonormada para o pro-
duto interna canónico de C3 - ver Exemplo 2.39. Para esta base temos
   
2 1 2 2+i 2 2
M(f ; B, B) =  5 i 0 = B e M(f ∗ ; B, B) =  −1 0 −i 6= B ∗
1 + 3i 2 + i 1 3i −5 0
e, portanto, a hipótese da base ser ortonormada é necessária no Teorema 2.121.

O endomorfismo f ∗ tem um nome especial. Este nome justifica o conceito de


endomorfismo auto-adjunto já introduzido.

Definição 2.123. Sejam (E, · | ·) um espaço euclidiano ou unitário e f : E → E


um endomorfismo de E.

(a) O endomorfismo f ∗ diz-se o endomorfismo adjunto de f .

(b) Diremos que f é normal se ele comutar com o seu adjunto, i.e. se

f ◦ f ∗ = f ∗ ◦ f.

De acordo com estas definições as afirmações seguintes são as naturalmente espe-


radas e evidenciam o bom relacionamento entre um endomorfismo e o seu adjunto.
Embora o papel de f ∗ seja essencial nos espaços unitários, também podem consi-
derados em espaços euclidianos, com as simplificações naturais de a = a para todo
a ∈ R.

21003 - Álgebra Linear II 145


Corolário 2.124. Sejam E um espaço euclidiano ou unitário e f : E → E um
endomorfismo de E. Então:

(a) f é auto-adjunto se e só se f = f ∗ .

(b) f é normal se e só se é representado relativamente a uma base ortonor-


mada de E por uma matriz normal.

(c) f ∗∗ = f .

(d) f ◦ f ∗ e f ∗ ◦ f são auto-adjuntos.

(e) Se F for um subespaço vetorial de E e f (F ) ⊆ F então f ∗ (F ⊥ ) ⊆ F ⊥ .

Demonstração. (a) É imediato das definições de auto-adjunto 2.103 e de f ∗ .


(b) É consequência das definições de endomorfismo normal e de matriz normal
e do Teorema 2.121-(a).
(c) É consequência imediata de A∗∗ = A, válida para qualquer matriz quadrada,
e da definição de f ∗ .
(d) É consequência de termos para qualquer matriz quadrada

(AA∗ )∗ = A∗∗ A∗ = AA∗ e (A∗ A)∗ = A∗ A∗∗ = A∗ A

e da definição de f ∗ .
(e) Seja y ∈ F ⊥ . Queremos mostrar que f ∗ (y) ∈ F ⊥ , ou seja que x | f ∗ (y) = 0
para todo x ∈ (F ⊥ )⊥ = F . Seja, pois, x ∈ F qualquer. Temos f (x) ∈ f (F ) ⊆ F e
y ∈ F ⊥ , logo f (x) | y = 0. Segue-se que

x | f ∗ (y) = f (x) | y = 0,
T 2.121

o que prova que f ∗ (F ⊥ ) ⊆ F ⊥ .

Os endomorfismos normais satisfazem as propriedades desejadas.

Proposição 2.125. Sejam (E, · | ·) um espaço euclidiano ou unitário, f : E → E


um endomorfismo de E e f ∗ o seu adjunto. Suponhamos que f é normal.
Temos:
Valem proprie-
dades corres- (a) f (u) = 0 se e só se f ∗ (u) = 0.
pondentes para
matrizes nor- (b) f − λ idE é um endomorfismo normal, para qualquer λ ∈ C.
mais.
(c) Se u é vetor próprio f associado vetor próprio λ então u é vetor próprio
de f ∗ associado ao valor próprio λ.

(d) Vetores próprios de f associados a valores próprios distintos são ortogonais.

(e) Se Eλ for um subespaço próprio de f então f (Eλ⊥ ) ⊆ Eλ⊥ .

146 Ana L. Correia


Demonstração. (a) Mostraremos primeiro que f (u) | f (u) = f ∗ (u) | f ∗ (u) para todo
u ∈ E. Temos

f (u) | f (u) = u | f ∗ (f (u)) = u | (f ∗ ◦ f )(u) = u | (f ◦ f ∗ )(u) = u | f (f ∗(u))


f normal

= f (f ∗ (u)) | u = f ∗ (u) | f ∗ (u) = f ∗ (u) | f ∗ (u).


A3 A4

Por fim, pelas propriedades do produto interno,

f (u) = 0 ⇐⇒ f (u) | f (u) = 0 ⇐⇒ f ∗ (u) | f ∗ (u) = 0 ⇐⇒ f ∗ (u) = 0

como queríamos.
(b) Vamos mostrar que f − λ idE comuta com (f − λ idE )∗ :

(f − λ idE )(f − λ idE )∗ = (f − λ idE )(f ∗ − λ idE ) = f ◦f ∗ − λf − λf ∗ + λλ idE


= f ∗ ◦f − λf ∗ − λf + λλ idE = (f ∗ − λ idE )(f − λ idE )
f normal

= (f − λ idE )∗ (f − λ idE ).

Portanto f − λ idE é normal.


(c) Vamos recorrer às alíneas anteriores. Como f − λ idE é normal, podemos
usar a alínea (b) relativamente a este endomorfismo. Assim, dados u ∈ E e λ ∈ C,
temos

f (u) = λu ⇐⇒ (f − λ idE )(u) = 0 ⇐⇒ (f − λ idE )∗ (u) = 0


(b),(c)

⇐⇒ (f − λ idE )(u) = 0 ⇐⇒ f ∗ (u) = λu,


o que prova (c).


(d) Suponhamos f (u) = λu e f (v) = µv com λ 6= µ. Vamos mostrar que
λ(u | v) = µ(u | v) com vista a concluirmos que u | v = 0. Temos

λ(u | v) = (λu) | v = f (u) | v = u | f ∗ (v) = u | (µv) = µ(u | v) = µ(u | v).


(d)

Logo (λ − µ)(u | v) = 0 (um produto de números complexos) e como λ 6= µ,


necessariamente u | v = 0, como queríamos.
(e) Seja Eλ um subespaço próprio de f associado ao valor próprio λ ∈ C. Então,
pelo exemplo 1.27, f (Eλ ) ⊆ Eλ e também temos f ∗ (Eλ ) ⊆ Eλ pela alínea (c). Então,
aplicando o Corolário 2.124-(e) a f ∗ , obtemos

f ∗∗ (Eλ⊥ ) ⊆ Eλ⊥ .

Por fim, como f ∗∗ = f , temos f (Eλ⊥ ) ⊆ Eλ⊥ , como queríamos.

21003 - Álgebra Linear II 147


Já estamos em condições de estabelecer e provar o resultado correspondente ao
Teorema dos Eixos Principais, para o caso complexo.

Teorema 2.126. (Teorema Espectral) São equivalentes as afirmações seguin-


tes para uma matriz quadrada A ∈ Mn×n (C):

(a) A é normal.

(b) A é diagonalizável unitariamente.

(c) Cn possui uma base ortonormada formada por n vetores próprios de A.

Demonstração. Comecemos por provar as implicações mais simples.


“(b) ⇒ (a)”: É a proposição 2.118.

“(c) ⇒ (b)”: Seja u1, . . . , un uma base ortonormada de Cn formada por n
vetores próprios de A. Seja U ∈ Mn×n (C) a matriz cujas colunas são os vetores
u1 , . . . , un . Então, pelo Teorema 2.110, U é uma matriz unitária e, pelo Teorema
1.42, A é diagonalizável. Logo A é diagonalizável unitariamente.
“(a) ⇒ (c)”: A demonstração é semelhante à do teorema 2.106-(e) com E = Cn e
f : Cn → Cn tal que A = M(f ; b.c Cn , b.c Cn ). De facto, sejam λ1 , . . . , λt os valores
próprios distintos de f (que existem porque A é uma matriz complexa - Corolário
1.22), sejam Eλ1 , . . . , Eλt os respectivos subespaços próprios e seja

F = Eλ1 ⊕ · · · ⊕Eλt .

Pela Proposição 2.125-(e) temos

f (Eλ⊥i ) ⊆ Eλ⊥i , 1 ≤ i ≤ t.

Por outro lado, pelo Teorema 2.63,

F ⊥ = (Eλ1 + · · · + Eλt )⊥ = Eλ⊥1 ∩ · · · ∩ Eλ⊥t .

Assim temos
  
Em geral, dada f (F ⊥ ) = f Eλ⊥1 ∩ · · · ∩ Eλ⊥t ⊆ f Eλ⊥1 ∩ · · · ∩ f Eλ⊥t ⊆ Eλ⊥1 ∩ · · · ∩ Eλ⊥t = F ⊥ .
uma função
f: A→B e Usando esta inclusão, com um argumento idêntico ao da demonstração do teorema
A1 , A2 ⊆ A
2.106-(e), podemos provar que E = F , com E = Cn . Por outro lado, seguindo esse
temos
f (A1 ∩ A2 ) ⊆ argumento, para cada 1 ≤ i ≤ t, escolhemos uma base ortonormada Bi de Eλi e
f (A1 ) ∩ f (A2 ). consideramos a união
B = B1 ∪ . . . ∪ Bt .
Como Cn = Eλ1 ⊕ · · · ⊕Eλt , B é uma base de Cn . Além disso, para i 6= j, os vetores
de Bi são ortogonais aos vetores de Bj (pela Proposição 2.125-(d) porque λi 6= λj ) e,
portanto, B é ortonormada (e constituída por vetores próprios de f ). Segue-se que
existe uma matriz diagonalizante U cujas colunas formam uma base ortonormada
de Cn . Pelo Teorema 2.110, a matriz U é unitária, e portanto, A é diagonalizável
unitariamente.

148 Ana L. Correia


Observação. (a) O Teorema 2.126 pode ser reescrito para endomorfismos nor-
mais com as substituições óbvias.
(b) Notemos que no caso de endomorfismos auto-adjuntos (ou matrizes simétricas
ou hermíticas) foi fundamental na prova do Teorema 2.106 que:
Se F for um subespaço vetorial de E e f (F ) ⊆ F então f (F ⊥ ) ⊆ F ⊥ .
No caso do Teorema 2.126 para matrizes normais (ou endomorfismos normais)
o resultado chave é:
Se Eλ for um subespaço próprio de f então f (Eλ⊥ ) ⊆ Eλ⊥ .
No exemplo 2.117 seguimos os passos do algoritmo para a diagonalização ortogo-
nal. Este algoritmo funciona para qualquer matriz normal (em particular hermítica
ou unitária) com diferença no passo 5, pelo facto da matriz U que encontramos agora
ser unitária.
Algoritmo para a diagonalização unitária:
Seja A ∈ Mn×n (C) uma matriz normal.
Passo 1 Determinar os valores próprios distintos λ de A.
Passo 2 Determinar uma base para cada espaço próprio Mλ , resolvendo o sistema
(A − λIn )X = 0.
Passo 3 Obter uma base ortonormada para cada Mλ , utilizando o algoritmo de
Gram-Schmidt, se necessário.
Passo 4 O conjunto formado pelos vetores próprios que constituem as bases para
os espaços próprios obtidas no passo 3 é uma base ortonormada de Cn .
Passo 5 Se U é a matriz cujas colunas são formadas pelos vetores da base obtida
no passo 4. então U é uma matriz unitária e U ∗ AU é uma matriz diagonal.
 
3 2−i
Exemplo 2.127. Dada a matriz hermítica A = ∈ M2×2 (C) vamos
2+i 7
determinar uma matriz unitária U tal que U ∗ AU seja diagonal.
Resolução. O polinómio característico de A é |A − λI2 | = (2 − λ)(8 − λ). Logo
λ1 = 2 e λ2 = 8 são os valores próprios de A (todos reais como seria de esperar pelo
corolário 2.107). Os subespaços próprios são:
   
2−i 1 Confirme!
M2 = , M8 =
−1 2+i
e temos (2 − i, −1) | (1, 2 + i) = 0 (efetuando cálculos ou simplesmente usando de
novo o corolário 2.107). Normalizando, obtemos
 √   √ 
(2 − i)/
√ 6 1/ 6√
M2 = , M8 = .
−1 6 (2 + i)/ 6
" #  
2−i
√ √1 2 0
Logo U = √ −1
6
2+i
6 , e temos U AU =

.
6

6
0 8

21003 - Álgebra Linear II 149

Você também pode gostar