Você está na página 1de 149

Dep. Matematica Pura.

FCUP

ALGEBRA LINEAR e
GEOMETRIA ANALITICA

Resumo das aulas teoricas e praticas

1.o ano da licenciatura em Matematica, Fsica

Astronomia

Ano lectivo de 2009/10

Joao Nuno Tavares


INDICE:

1 ALGA I. Um curso rapido de ALGA apenas em R2 2


2
1.1 Algebra Linear em R . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Aplicacoes a geometria . . . . . . . . . . . . . . . . . . . . . . . . 18

2 ALGA I. Algebra Linear e Geometria Analtica em R3 21


2.1 Algebra Linear em R3 . . . . . . . . . . . . . . . . . . . . . . . . . 22

3 ALGA I. Espacos vectoriais 46


3.1 Espacos vectoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.2 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.3 Subespacos vectoriais . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.4 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

4 ALGA I. Aplicacoes lineares. Isomorfismos lineares 57


4.1 Aplicacoes lineares. Isomorfismos lineares. Operadores lineares.
Funcionais lineares. O espaco dual V . . . . . . . . . . . . . . . . 57
4.2 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

5 ALGA I. Bases, coordenadas e dimensao 61


5.1 Bases, coordenadas e dimensao . . . . . . . . . . . . . . . . . . . . 61
5.2 Calculos com coordenadas. Problemas . . . . . . . . . . . . . . . . 68
5.3 Mudancas de base e de coordenadas . . . . . . . . . . . . . . . . . 71
5.4 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

6 ALGA I. Representacao matricial das aplicacoes lineares 79


6.1 Matriz de uma aplicacao linear . . . . . . . . . . . . . . . . . . . . 79
6.2 Calculo do nucleo e imagem . . . . . . . . . . . . . . . . . . . . . . 80
6.3 Matriz da composta . . . . . . . . . . . . . . . . . . . . . . . . . . 81
6.4 GL(n). Pontos de vista passivo e activo. . . . . . . . . . . . . . . . 82
6.5 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
6.5.1 Definicao e propriedades . . . . . . . . . . . . . . . . . . . . 82

1
2

6.5.2 Determinante de um produto . . . . . . . . . . . . . . . . . 85


6.5.3 Calculo da matriz inversa. Matriz adjunta . . . . . . . . . . 86
6.6 Regra de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
6.7 Determinante de um operador linear . . . . . . . . . . . . . . . . . 88
6.8 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

7 ALGA I. Espacos vectoriais com produto interno 92


7.1 Espacos Euclideanos reais . . . . . . . . . . . . . . . . . . . . . . . 92
7.2 Espacos Hermitianos (ou Unitarios) complexos . . . . . . . . . . . 95
7.3 Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
7.4 Ortogonalidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
7.5 Bases ortonormadas num espaco vectorial com produto interno . . 99
7.6 Metodo de ortogonalizacao de Gram-Schmidt . . . . . . . . . . . . 100
7.7 Decomposicao ortogonal.
Teorema da aproximacao optima . . . . . . . . . . . . . . . . . . . 103
7.8 Aplicacoes. Mnimos quadrados . . . . . . . . . . . . . . . . . . . 108
7.9 Metodo dos mnimos quadrados. Aproximacao de dados por uma
recta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
7.10 Transformacoes ortogonais e unitarias. Exemplos . . . . . . . . . . 112
7.11 Transformacoes unitarias em C2 . Os grupos U(2) e SU (2) . . . . . 114
7.12 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114

8 ALGA I. Subespacos invariantes. Subespacos proprios. Valores


proprios 119
8.1 Conjugacao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
8.2 Subespacos invariantes . . . . . . . . . . . . . . . . . . . . . . . . . 122
8.3 Valores e vectores proprios de um operador linear. Operadores di-
agonalizaveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
8.4 Calculo de valores e vectores proprios . . . . . . . . . . . . . . . . 124
8.5 Sistemas dinamicos lineares discretos . . . . . . . . . . . . . . . . . 127
8.6 Numeros de Fibonacci. Numero de ouro . . . . . . . . . . . . . . . 128
8.7 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133

9 ALGA I. Operadores auto-adjuntos (simetricos e hermitianos).


Teorema espectral 136
9.1 Operadores auto-adjuntos (simetricos e hermitianos) . . . . . . . . 136
9.2 Teorema espectral
para operadores auto-adjuntos . . . . . . . . . . . . . . . . . . . . 139
9.3 Diagonalizacao de formas quadraticas reais . . . . . . . . . . . . . 141
9.4 Propriedades extremais dos valores proprios . . . . . . . . . . . . . 143
9.5 Operadores comutativos . . . . . . . . . . . . . . . . . . . . . . . . 145
1

9.6 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146

Referencias

1. T.M. Apostol: Calculus, vol.1 e vol.2. Xerox College Publishing Inter-


national Textbook series, 1969.

2. Postnikov M.: Lecons de Geometrie, vol.1 e 2. Editions MIR,


Moscou,1981.

3. Banchoff T., Wermer J.. Linear Algebra through Geometry. UTM,


Springer-Verlag, New York, 1983.

4. Smith L.: Linear Algebra. UTM, Springer-Verlag, New York, 1978.

5. Curtis C.W.: Linear Algebra, An Introductory Approach. UTM,


Springer-Verlag, New York, 1974.

6. Lipschutz S.: Linear Algebra. Schaums Outline Series. McGraw-Hill


Book Company,1968.

7. Hernandez E.: Algebra y Geometra(2.a edicion). Addison-Wesley/Universidad


Autonoma de Madrid, 1994.
Modulo 1

ALGA I. Um curso rapido


de ALGA apenas em R2

Neste primeiro modulo vamos retomar alguns conceitos aprendidos no ensino se-
cundario, e fazer uma ponte para os assuntos mais sofisticados que precisamos de
aprender na disciplina de ALGA. Tentamos por agora usar as notacoes que sao
mais familiares ao leitor.
Contents
1.1 Algebra Linear em R2 . . . . . . . . . . . . . . . . . . . 3
1.2 Aplicacoes a geometria . . . . . . . . . . . . . . . . . . 18

I Palavras chave
Vectores. R2 como espaco vectorial real. Subespacos . Dependencia e in-
dependencia linear. Base canonica. Bases, coordenadas e dimensao. Aplicacoes
Lineares. Matriz de uma aplicacao linear. Determinantes. Valores e vectores
proprios.
Geometria Euclideana em R2 . Produto interno (euclideano). Norma (eu-
clideana). Angulo. Ortogonalidade. Rectas vectoriais e afins. Projeccao ortogo-
nal. Interpretacao geometrica de det e de det A. Reflexoes numa recta. Trans-
formacoes ortogonais em R2 . Os grupos O(2) e SO(2).

I Notacoes
x, y, u, v, w... vectores, em vez de ~x, ~y, ~u, ~v, ...
a, b, c, ..., , , , , ... escalares, isto e, numeros reais (para ja).

I Numero de aulas
2 teoricas e 2 teorico-praticas.

I Objectivos
Um forte intuicao geometrica sobre os principais conceitos da ALGA. Resolver
os sistenmas que aparecem obrigatoriamente pelo metodo de eliminacao de
Gauss.

2
1.1. Algebra Linear em R2 3

1.1 Algebra Linear em R2

Vectores

I 1.1 Um vector x em R2 e por definicao um par ordenado de numeros reais,


representado, ou na forma x = (x1 , x2 ), ou dispostos segundo uma matriz-coluna
de duas linhas:
x1
x=
x2

Os numeros reais x 1, 2, dizem-se as componentes do vector x R2 .


i, i =
x1
Geometricamente x = sera representado como na figura seguinte:
x2

R2 como espaco vectorial real


x1 y1
I 1.2 Dados dois vectores x = ey= , em R2 , define-se a respec-
x2 y2
tiva soma vectorial, como sendo o vector x + y, dado por:

x1 y1 x1 + y1
x+y = + =
x2 y2 x2 + y2

Geometricamente x + y e obtido atraves da seguinte regra do paralelogramo:



x1
I 1.3 Dado um vector x = em R2 , e um escalar (i.e., um numero real)
x2
R, define-se a multiplicacao do escalar pelo vector x, como sendo o
vector x dado por:
x1
x =
x2

I 1.4 E facil provar que as duas operacoes definidas anteriormente, satisfazem as


propriedades seguintes:

[EV1]. x+y =y+x (1.1.1)


[EV2]. (x + y) + z = x + (y + z) (1.1.2)
[EV3]. 0+x=x+0=x x R2 (1.1.3)
[EV4]. x, (x) : x + (x) = 0 (1.1.4)
[EV5]. (x + y) = x + y (1.1.5)
[EV6]. ( + )x = x + x (1.1.6)
[EV7]. (x) = ()x (1.1.7)
[EV8]. 1x = x (1.1.8)

0
onde x, y, z R2 , , R, 0 = e o vector nulo de R2 , e x = (1)x.
0
Por isso, diz-se que R2 e um espaco vectorial real .
1.1. Algebra Linear em R2 4

I Exerccio 1.1 ... Demonstre as 8 propriedades (2.1.1) a (1.1.8).

Subespacos

I 1.5 Um subconjunto S R2 diz-se um subespaco vectorial de R2 , se S e


fechado relativamente as operacoes de soma de vectores e de multiplicacao de
escalares por vectores, i.e.:

Se x, y S tambem x + y S (1.1.9)
Se R, e x S tambem x S (1.1.10)

Em R2 os subespacos sao de dois tipos:

triviais: S = {0} e S = R2

nao triviais: S = {v : R}, onde v 6= 0, que representa uma recta que


passa na origem, gerada por v 6= 0.

I Exerccio 1.2 ... Diga quais dos seguintes conjuntos sao subespacos vectoriais de
R2 :

a) A = (x, y) R2 : x = y ; e) E = (x, y) R2 : 3x y = 1 ;
b) B = (a, a) R2 : a R ; f) F = (x, y) R2 : |x + 2y| = 3 ;
c) C = (x, y) R2 : x + y 6= 2 ; g) G = {(b, 2a + b) : a, b R} .
d) D = (x, y) R2 : x + 5y = 0 ; g) H = {(b, 2a + 1) : a, b R} .

Combinacao linear

I 1.6 Um vector x R2 diz-se uma combinacao linear dos vectores a e b de


R2 se existirem escalares , R tais que:

x = a + b (1.1.11)

O conjunto de todas as combinacoes lineares dos vectores a e b, isto e, de todos


os vectores da forma a + b, onde os escalares , R sao arbitrarios, chama-se
o espaco gerado por a e b e representa-se por span{a, b}:

span{a, b} = { a + b : , R} (1.1.12)

I Exerccio 1.3 ... Em cada uma das alneas que se seguem, verifique se x
span {a, b}:

a) x = (1, 0), a = (1, 1), e b = (0, 1); b) x = (2, 1), a = (1, 1), e b = (1, 1);
c) x = (1, 0), a = (1, 1), e b = (2, 2); d) x = (1, 1), a = (2, 1), e b = (1, 0);
e) x = (4, 3), a = (1, 1), e b = (2, 2). f) x = (0, 0), a = (2, 1), e b = (4, 2);

I Exerccio 1.4 ... Em cada um dos casos, calcule o subespaco gerado por a e b,
onde

a) a = (1, 1), b = (2, 2), em R2 ; b) a = ((1, 0), b = (5, 0), em R2 ;


c) a = (2, 1), b = (1, 0), em R2 ; d) a = (2, 1), b = (0, 0), em R2 ;
1.1. Algebra Linear em R2 5

Dependencia e independencia linear

I 1.7 Dois vectores x e y em R2 , dizem-se linearmente dependentes, se um


deles e multiplo escalar do outro. Se x = 0 (ou y = 0) entao x e y sao linearmente
dependentes. Geometricamente x e y sao linearmente dependentes, sse eles sao
colineares.

I 1.8 Dois vectores x e y em R2 , dizem-se linearmente independentes, se nao


sao linearmente dependentes (o que implica que x 6= 0 e y 6= 0). Geometricamente
x e y sao linearmente independentes, sse eles sao nao colineares.
Simbolicamente:

(x e y sao linearmente independentes) (x + y = 0 = = = 0)

I Exerccio 1.5 ... Verifique se os vectores que se seguem sao linearmente depen-
dentes ou independentes:

a) (1, 0), (2, 1) em R2 ; b) (1, 1), (2, 2) em R2 ;


c) (, 0), (0, 1) em R2 ; d) (1, 2), (2, 3), (1, 1) em R2 ;

Base canonica

I 1.9 Os vectores de R2 :

1 0
e1 = i = e e2 = j =
0 1

sao
linearmente
independentes, e tem a propriedade de que qualquer vector x =
x1
, se pode escrever como combinacao linear de e1 e e2 . De facto:
x2

x1 1 0
x = = x1 + x2
x2 0 1
= x1 e1 + x2 e2 (1.1.13)

Diz-se entao que C = {e1 , e2 } e uma base (ordenada) - a base canonica de


R2 .

Bases, coordenadas, dimensao

I 1.10 Qualquer conjunto B = {u1 , u2 } constitudo por dois vectores linear-


mente independentes, e que tem a propriedade de que qualquer vector x R, se
pode escrever como combinacao linear de u1 e u2 :

x = x1 u1 + x2 u2 (1.1.14)

para certos escalares (unicos) x1 , x2 R, diz-se uma base de R2 .


1.1. Algebra Linear em R2 6

I 1.11 Todas as bases de R2 tem sempre dois elementos, e, por isso, diz-se que a
dimensao (real) de R2 e 2:
Os escalares x1 , x2 R, que surgem em (1.1.14), dizem-se as componentes
(ou as coordenadas) do vector x, na base B = {u1 , u2 }. Neste caso escreve-
mos:
x1
x = (x)B (1.1.15)
x2 B

I Exerccio 1.6 ... Verifique se os conjuntos que se seguem, sao ou nao bases de
cada um dos espacos vectoriais indicados em cada alnea. Calcule as coordenadas de
x = (1, 1) relativamente aos que sao bases:

a) {(1, 1), (3, 1)} em R2 ; b) {(0, 1), (0, 3)} em R2 ;


c) {(2, 1), (1, 1), (0, 2)} em R2 ; d) {(2, 1), (0, 0), (0, 1)} em R2 ;

I Exerccio 1.7 ... Calcule uma base de cada um dos subespacos que se seguem, e
depois as coordenadas do vector u em cada uma das bases:

a) S = (x, y) R2 : x + y = 0 , u = (3, 3);
b) S = (x, y) R2 : 2x = y , u = (4, 8);

Aplicacoes Lineares

I 1.12 Uma aplicacao A : R2 R2 diz-se uma aplicacao linear, se A preserva


as operacoes que definem a estrutura vectorial de R2 , i.e.:

A(x + y) = A(x) + A(y) (1.1.16)


A( x) = A(x) (1.1.17)

x, y R2 , e R.

I 1.13 Dada uma aplicacao linear A : R2 R2 define-se:

o nucleo de A:
ker A = {x R2 : A(x) = 0} (1.1.18)

a imagem de A:

im A = {y : A(x) = y R2 , para algum x R2 } (1.1.19)

I Exerccio 1.8 ... Mostre que ker A e im A sao subespacos de R2 .

I Exerccio 1.9 ... Das aplicacoes A : R2 R2 que se seguem, indique aquelas


que sao lineares. Relativamente a essas, calcule o respectivo nucleo e diga quais as que
sao injectivas.

a) A : (x, y) 7 (x + y, x y) b) A : (x, y) 7 (|x| , |y|)


c) A : (x, y) 7 (x + 1, x y) d) A : (x, y) 7 (0, x + y)

I Exerccio 1.10 ... Mostre que uma aplicacao linear A : R2 R2 fica completa-
mente determinada pelos valores que assume numa base. Mais concretamente, se {e1 , e2 }
e uma base e se A(e1 ) = f1 , A(e2 ) = f2 , onde f1 , f2 sao fixos de forma arbitraria, entao
estes dados determinam de forma unica a imagem A(x) de um vector arbitrario.
1.1. Algebra Linear em R2 7

I Exerccio 1.11 ... Sabendo que A e uma aplicacao linear, calcule em cada caso a
imagem de um vector generico:

a) Sendo A : R2 R2 e A(1, 0) = (1, 1) e A(0, 1) = (1, 2);


b) Sendo A : R2 R2 e A(1, 1) = (1, 2) e A(0, 3) = (2, 2);
c) Sendo A : R2 R2 e A(2, 1) = (1, 0) e A(1, 1) = (3, 2);

Matriz de uma aplicacao linear

I 1.14 Se B = {u1 , u2 } e uma base fixa de R2 , podemos escrever que:


A(u1 ) = a u1 + b u2 (1.1.20)
A(u2 ) = c u1 + d u2 (1.1.21)

A matriz:

a c
A = (1.1.22)
b d
diz-se a matriz de A na base B, e nota-se por:
A = (A)B

as coordenadas de um vector x R2 , na base B = {u1 , u2 }, sao x =


Se
x1
, i.e., se:
x2 B
x = x1 u1 + x2 u2
entao as coordenadas de A(x) na base B obtem-se da seguinte forma:
A(x) = A(x1 u1 + x2 u2 )
= x1 A(u1 ) + x2 A(u2 )
= x1 (a u1 + b u2 ) + x2 (c u1 + d u2 )
= (ax1 + cx2 ) u1 + (bx1 + dx2 ) u2
(1.1.23)
o que significa que as coordenadas de A(x) na base B:

y1
(A(x))B =
y2 B
obtem-se matricialmente atraves de:

y1 a c x1
= (1.1.24)
y2 B b d x2 B
ou mais sucintamente:
(A(x))B = (A)B (x)B (1.1.25)

I Exerccio 1.12 ... Em cada um dos seguintes casos determine a matriz da aplicacao
linear A na base indicada e calcule ker A e im A :

A: R2 R2
a). , na base C = {(1, 0), (0, 1)}
(x, y) 7 (3x y, x + 5y)
A: R2 R 2
b). , na base B = {(1, 1), (1, 1)}
(x, y) 7 (3x y, x + 5y)
A: R2 R 2
c). , na base B = {(2, 1), (1, 1)}
(x, y) 7 (3x, x + y)
1.1. Algebra Linear em R2 8

Determinantes

a c
I 1.15 Dada uma matriz A = , definimos o seu determinante det A,
b d
como sendo o numero real:

a c
det A = det = ad bc (1.1.26)
b d

a c
Representemos por c1 = e c2 = as colunas da matriz A, de tal
b d
forma que:
det A = det [c1 c2 ] = ad bc (1.1.27)

Um calculo directo mostra que:

det [c1 c2 ] 6= 0sse c1 , c2 sao linearmente independentes


(1.1.28)
det [c1 c2 ] = det [c2 c1 ] (1.1.29)
det [c1 + c01 c2 ] = det [c1 c2 ] + det [c01 c2 ] (1.1.30)
det [c1 c2 + c02 ] = det [c1 c2 ] + det [c1 c02 ] (1.1.31)
det [ c1 c2 ] = det [c1 c2 ]
= det [c1 c2 ] R (1.1.32)

e ainda que:

det I = 1 (1.1.33)
det (AB) =
det A det B (1.1.34)
det (A1 ) (det A)1
= A inversvel (1.1.35)
det (P 1 A P ) det A = P inversvel (1.1.36)
t
det (A) =
det (A ) (1.1.37)

1 0
onde At e a transposta de A e I = e a matriz identidade.
0 1
Alem disso e possvel provar que para uma matriz A:

A e inversvel se e so se det A 6= 0 (1.1.38)

I Exerccio 1.13 ... Demonstre todas as propriedades acima referidas.

I 1.16 Se A : R2 R2 e uma aplicacao linear, define-se o respectivo determi-


nante det A, como sendo o determinante da matriz de A, relativamente a uma
qualquer base de R2 . Por (1.1.36) e (1.1.35), esta definicao nao depende da base
escolhida.

I Exerccio 1.14 ... Calcule o determinante das aplicacoes lineares descritas no


exerccio 1.12.

Em breve veremos uma interpretacao geometrica da nocao de determinante.

Produto interno (euclideano)


1.1. Algebra Linear em R2 9


x1 y1
I 1.17 Dados dois vectores x = e y = , em R2 , define-se o
x2 y2
respectivo produto interno (Euclideano), como sendo o escalar x y R, dado
por:

xy = x1 y1 + x2 y2

y1
= (x1 x2 )
y2
= xt y (1.1.39)

I 1.18 O produto interno (euclideano), que acabamos de definir, verifica as pro-


priedades seguintes:

e bilinear:

(x + y) z = xz+yz
x (y + z) = xy+xz
x y = x y = (x y) (1.1.40)

e simetrica:
xy =yx (1.1.41)

e nao degenerada:

x y = 0 y R2 x = 0 (1.1.42)

e definida positiva:
xx0 (1.1.43)
2
x, y, z R , R.

I Exerccio 1.15 ... Verifique que o produto interno (1.1.39) satisfaz as propriedades
acima referidas.

Norma (euclideana)


x1
I 1.19 Define-se a norma euclideana kxk, de um vector x = R2 ,
x2
atraves da formula:

kxk xx

= xt x
p
= (x1 )2 + (x2 )2 (1.1.44)

I 1.20 A norma euclideana verifica as propriedades seguintes:

e positiva e nao degenerada:

kxk 0 e kxk = 0 sse x = 0 (1.1.45)

e homogenea (positiva):

k xk = || kxk (1.1.46)
1.1. Algebra Linear em R2 10

verifica a desigualdade triangular:

kx + yk kxk + kyk (1.1.47)

x, y R2 , R.

I 1.21 Todas as propriedades sao de demonstracao imediata com excepcao da


desigualdade triangular, que resulta imediatamente de uma outra importante de-
sigualdade que passamos a enunciar:
Desigualdade de Cauchy-Schwarz:

|x y| kxkkyk (1.1.48)

x, y R2 .
Demonstracao...
Se y = 0 a desigualdade e trivial. Se y 6= 0 consideremos o vector:
xy
u=x y
kyk2
de tal forma que u y = 0. temos entao que:
xy xy
0 kuk2 = x y x y
kyk2 kyk2
(x y)(y x)
= xx
kyk2
(x y)2
= kxk2 (1.1.49)
kyk2
o que portanto demonstra a desigualdade, CQD.
Demonstremos agora a desigualdade triangular (7.3.4):

kx + yk2 = (x + y) (x + y)
= xx+xy+yx+yy
= kxk2 + 2(x y) + kyk2
kxk2 + 2|x y| + kyk2
kxk2 + 2kxkkyk + kyk2 , pela desigualdade de Cauchy-Schwarz (2.1.48)
= (kxk + kyk)2

e portanto kx + yk kxk + kyk, como se pretendia.

Angulo, ortogonalidade

I 1.22 Dados dois vectores nao nulos x, y R2 , deduzimos da desigualdade de


Cauchy-Schwarz que:
xy
1 1 (1.1.50)
kxkkyk
o que permite definir o angulo (nao orientado) [0, ], entre os referidos
vectores nao nulos x, y R2 , como sendo o unico [0, ], tal que:
xy
cos = kxkkyk [1, 1] (1.1.51)
1.1. Algebra Linear em R2 11

Portanto:
x y = kxkkyk cos (1.1.52)

Dois vectores x, y R2 dizem-se ortogonais se x y = 0.

Rectas vectoriais e afins

I 1.23 Dado um vector nao nulo a 6= 0, o conjunto dos vectores x que sao da
forma:
x = t a, tR (1.1.53)

a1
diz-se a recta (vectorial) gerada por a. Se a = , entao (1.1.53) e equiva-
a2
lente ao sistema de equacoes:

x1 = t a1
, tR
x2 = t a2

que se dizem as equacoes parametricas da referida recta. Eliminando t nestas


equacoes, obtemos a chamada equacao cartesiana dessa mesma recta:

a2 x1 a1 x2 = 0 (1.1.54)

x1
o que exibe a recta como o conjunto dos vectores x = que sao ortogonais
x2
a2
ao vector n = , isto e, tais que:
a1

xn=0

I 1.24 Dado um ponto A R2 e um vector nao nulo v 6= 0, o conjunto dos


pontos P que sao da forma:

P = A + t v, tR (1.1.55)

diz-se a recta afim que passa em A e e gerada por v 6= 0.



x1 a1 v1
Se P = ,A = ,ev= , entao (1.1.55) e equivalente ao
x2 a2 v2
sistema de equacoes:
x1 = a1 + t v1
, tR
x2 = a2 + t v2
que se dizem as equacoes parametricas da referida recta. Eliminando t nestas
equacoes, obtemos a chamada equacao cartesiana dessa mesma recta:

v2 (x1 a1 ) v1 (x2 a2 ) = 0 (1.1.56)



x1
o que exibe a recta como o conjunto dos pontos P = que sao ortogonais
x2

v2
ao vector n = , e que passa em A, i.e., tais que:
v1

(P A) n = 0
1.1. Algebra Linear em R2 12

I Exerccio 1.16 ... Calcule a imagem do reticulado formado pelas rectas x = n e


y = m, m, n Z, sob:
(i). a aplicacao linear A(x, y) = (2x, x + y).
(ii). a aplicacao linear B(x, y) = (x y, x + y).

Valores e vectores proprios

I 1.25 Seja A : R2 R2 uma aplicacao linear. Um escalar R diz-se um


valor proprio de A se existir um vector nao nulo v R2 {0} tal que:

A(v) = v (1.1.57)

Neste caso, o vector nao nulo v, diz-se um vector proprio associado (ou perten-
cente) ao valor proprio .

I 1.26 O conjunto constitudo pelo vector nulo 0 e por todos os vectores proprios
pertencentes a um certo valor proprio , de A, e um subespaco de R2 , chamado o
subespaco proprio de A, pertencente ao valor proprio , e nota-se por:

E() = EA () = {v : A(v) = v} (1.1.58)

A restricao de A a EA () e pois uma homotetia de razao (eventualmente


pode ser 0), i.e.:
A(u) = u u EA ()
Em particular, a recta gerada pelo vector proprio v 6= 0 fica invariante por A, isto
e, a sua imagem por A e ela propria.

I 1.27 Em particular, se = 0 e valor proprio de A, isto significa que o nucleo


de A;
ker A = EA (0)
nao se reduz ao vector nulo 0, e portanto A e nao inversvel (ou singular), ou de
forma equivalente, det A = 0.
Quando 6= 0, dizer que e valor proprio de A, e equivalente a dizer que 0 e
valor proprio de A Id, o que, pelo paragrafo anterior, e equivalente a dizer que
A Id e nao inversvel (ou singular), ou ainda que:

det (A Id) = 0 (1.1.59)

O polinomio p() = det (A Id) diz-se o polinomio caracterstico de A.


Portanto as razes reais da chamada equacao caracterstica de A:

p() = det (A Id) = 0 (1.1.60)

(se existirem), sao exactamente os valores proprios (reais) de A.

Exemplo...

Calcule os valores e vectores proprios (reais) da aplicacao linear A : R2 R2 , cuja


matriz na base canonica de R2 e:

3 4
A=
4 3
1.1. Algebra Linear em R2 13

A equacao caracterstica de A e:

p() = det (A Id)



3 4
= det
4 3
= 2 25 = 0 (1.1.61)

cujas razes reais (os valores proprios de A) sao 1 = 5 e 2 = 5.



x1
Para calcular os vectores poprios v = , pertencentes ao valor proprio = 5,
x2
devemos resolver o sistema:

35 4 x1 0
=
4 3 5 x2 0

isto e:
2x1 + 4x2 = 0
4x1 8x2 = 0
cuja solucao geral e:

x1 = 2t
tR
x2 = t
Portanto os vectores poprios de A, pertencentes ao valor proprio 1 = 5, sao da forma:

2
t t R {0}
1

Procedendo da mesma forma relativamente ao outro valor proprio 2 = 5, podemos


calcular que os vectores poprios de A, pertencentes ao valor proprio 2 = 5, sao da
forma:
1
s s R {0}
2

2 1
Note que neste exemplo os vectores proprios u1 = e u2 = formam uma
1 2
2
base B = {u1 , u2 } de R relativamente a qual a matriz de A e diagonal:

5 0
(A)B =
0 5

I Exerccio 1.17 ... Em cada um dos seguintes casos, determine, se existirem, os


valores proprios de A, os subespacos proprios associados e as respectivas dimensoes e diga
se A e diagonalizavel; no caso de o ser, indique uma base do domnio de A composta por
vectores proprios e indique a matriz de A relativamente a essa base.

A: R2 R2 A: R2 R2
a). b).
(x, y) 7 (2x y, y) (x, y) 7 (x, y)
A: R2 R2 A: R2 R2
c). d).
(x, y) 7 (3x + y, 12x + 2y) (x, y) 7 (x y, x + y)

Projeccao ortogonal
1.1. Algebra Linear em R2 14

Sejam a 6= 0 e x dois vectores em


R2 . Entao existe um unico vector u, na
recta gerada por a, e um unico vector v,
ortogonal a a, tais que x = u+v. O vec-
tor u, notado por Pa (x), diz-se a pro-
jeccao ortogonal de x sobre a recta
gerada por a, e e calculado da seguinte
forma.

Uma vez que u = Pa (x) pertence a recta gerada por a, u e da forma u = a para
um certo R, caracterizado pela condicao de que:
(x a) a = 0
xa
Obtemos entao que t = kak2 e portanto:
xa
Pa (x) = kak2 a (1.1.62)

I 1.28 A aplicacao Pa : R2 R2 definida por (1.1.62), e linear e satisfaz a


condicao P2a = Pa .
E claro que Pa (a) = a. Vemos pois que a e vector proprio de Pa , pertencente
ao valor proprio 1. Por outro lado, se considerarmos um qualquer vector b 6= 0
ortogonal a a (i.e.: a b = 0), vemos que Pa (b) = 0 e portanto:
ker Pa = {t b : t R}
A matriz de Pa na base {a, b} e pois:

1 0
0 0

Interpretacao geometrica de det e de det A



I 1.29 A distancia d de um ponto B R2 , com vector de posicao b = OP , a
recta vectorial gerada por a 6= 0, e igual a norma do vector b Pa (b):
xa
Pelo teorema de Pitagoras, e uma vez que Pa (x) = kak2 a, tem-se que:

(b a)2
d2 = kbk2
kak2
e atendendo a (1.1.52):
d = kbk sin
onde [0, ] e o angulo entre a e b. A area do paralelogramo P(a, b), gerado
por a e b e portanto igual a:

area(P(a, b)) = kak.d = kakkbk sin (1.1.63)

Por outro lado um calculo simples mostra que o quadrado desta area (que e
sempre 0, ja que sin 0) e igual ao quadrado do determinante det (a b),
donde se deduz que:

|det (a b)| = area(P(a, b)) (1.1.64)


1.1. Algebra Linear em R2 15

I 1.30 Quando a e b sao linearmente independentes, de tal forma que det [a b] 6=


0, dizemos que a base ordenada {a, b} e:

positiva se det (a b) > 0
negativa se det (a b) < 0

I 1.31 Consideremos agora uma aplicacao linear A : R2 R2 . A imagem do


quadrado Q, gerado pelos vectores da base canonica (que e positiva) {e1 , e2 }:

Q = { e1 + e2 : 0 , 1}

e o paralelogramo A(Q), de lados adjacentes A(e1 ) e A(e2 ).



a c
Pondo A(e1 ) = a e1 + b e2 = e A(e2 ) = c e1 + d e2 = , sabemos
b d
que a area deste paralelogramo e igual a:

area A(Q) = |det (A(e1 ) A(e2 )|



a c
= |det |
b d
= |det A| (1.1.65)

Portanto:

area(A(Q)) = |det A| (1.1.66)

Mais geralmente, se R e o paralelogramo gerado pelos vectores linearmente


independentes u e v, entao a imagem A(R) e o paralelogramo gerado por A(u) e
A(v), e e facil provar que a area desta imagem e igual a:

area(A(R)) = |det [A(u) A(v)]|


= |det A| area(R) (1.1.67)

isto e:

|det A| = area(A(R)) (1.1.68)


area(R)

I 1.32 Diz-se que a aplicacao linear A : R2 R2 :



preserva a orientacao (ou e positiva) se det A > 0
inverte a orientacao (ou e negativa) se det A < 0

I Exerccio 1.18 ... Calcule o determinante das aplicacoes lineares descritas no


exerccio 1.12, usando a formula (1.1.68).

Reflexao numa recta


1.1. Algebra Linear em R2 16

Seja a um vector nao nulo em R2 . A


simetria relativamente a recta gerada
por a, ou reflexao nessa recta, e a
aplicacao linear Sa : R2 R2 , definida
pela condicao:
1
Sa (x) + x = Pa (x) x R2
2
(1.1.69)
isto e, o ponto medio do segmento que
une x a Sa (x) deve ser igual a projeccao
de x sobre a recta gerada por a.

I 1.33 Atendendo a (1.1.62), vemos que:

Sa (x) = 2Pa (x) x


xa
= 2 ax x R2 (1.1.70)
kak2

Note que S2a = Id. Uma vez que Pa (a) = a vemos que Sa = a, e portanto
a e vector proprio de Sa , pertencente ao valor proprio 1. Se considerarmos um
qualquer vector b 6= 0 ortogonal a a (i.e.: a b = 0), vemos que Pa (b) = 0 e
portanto Sa (b) = b.
A matriz de Sa na base {a, b} e portanto:

1 0
0 1

o que mostra que det Sa = 1 < 0, i.e., Sa inverte orientacao (embora preserve o
modulo da area de paralelogramos)

Transformacoes ortogonais em R2

I 1.34 Uma aplicacao linear A : R2 R2 diz-se uma transformacao ortogo-


nal ou uma isometria de R2 , se A preserva o produto interno (Euclideano) usual
de R2 , i.e.:
A(x) A(y) = x y x, y R2 (1.1.71)
Esta condicao e equivalente a:

kA(x)k = kxk x R2 (1.1.72)

i.e., A preserva os comprimentos dos vectores. Se A e a matriz de uma tal trans-


formacao ortogonal, relativamente a uma qualquer base ortonormada {e1 , e2 } de
R2 (por exemplo, a base canonica), A e uma matriz ortogonal, isto e, At A = I.
Portanto A O(2). Vejamos como e a forma geral de uma tal matriz.

I 1.35 Se c1 = A(e1 ), c2 = A(e2 ) sao as colunas de A, entao:

ci cj = ij

o que significa que c1 e c2 sao ortonormais. Portanto A transforma bases ortonor-


madas em bases ortonormadas, preservando ou invertendo orientacao, conforme
det A = +1 ou det A = 1, respectivamente. Por exemplo, a simetria Sa , descrita
em (??), e uma transformacao ortogonal com det igual a 1.
1.1. Algebra Linear em R2 17


a
Como c1 = A(e1 ) e um vec-
b
tor de norma 1, sabemos que a2 +b2 = 1
e portanto existe um unico [0, 2[
tal que a = cos e b = sin ( [0, 2[
e o angulo polar de c1 , i.e., o angulo ori-
entado que c1 faz com a parte positiva
do eixo dos xx):


cos
Portanto c1 = , e como c2 = A(e2 ) e tambem um vector unitario e
sin
ortogonal a c1 , dois casos podem ocorrer:

sin sin
(i). c2 = , ou (ii). c2 =
cos cos
No primeiro caso, a matriz A tem a forma:

cos sin
A= (1.1.73)
sin cos
cujo determinante e 1. Neste caso A diz-se uma rotacao de angulo (no sentido
positivo), em torno da origem, e nota-se por R :

No segundo caso, a matriz A tem a


forma:

cos sin
A =
sin cos

cos sin 1 0
=
sin cos 0 1
= R Se1 (1.1.74)

cujo determinante e 1. Neste caso


A pode ser interpretada como uma re-
flexao relativamente ao eixo dos xx
seguida de uma rotacao R .

Essa reflexao fixa e1 e transforma e2 em e2 . Se entao rodamos de angulo ,


temos que:
e1 e1 cos e1 + sin e2
e2 e2 ( sin e1 + cos e2 ) (1.1.75)
De facto, neste caso A representa uma simetria relativamenta a recta que faz um
angulo 2 com a parte positiva do eixo dos xx.

I Exerccio 1.19 ... Classifique as seguintes isometrias de R2 :



a) A(x, y) = ( 21 x + 23 y, 23 x 12 y).

b) A(x, y) = ( 12 x + 23 y, 23 x + 21 y).
c) A(x, y) = ( 54 x + 35 y, 53 x 45 y).
d) A(x, y) = (x, y).
e) A(x, y) = (y, x).
1.2. Aplicacoes a geometria 18

I Exerccio 1.20 ... Em cada um dos casos que se seguem, determine a simetria S
2
relativamente a recta indicada, a matriz de S relativamente a base
canonica
de R e uma
1 0
base B de R2 relativamente a qual a matriz de S seja do tipo .
0 1
a) r e a recta de equacao y = 2x;
b) r e a recta de equacao 3x y = 0;
c) r e a recta de equacao y = (tg 5 )x;

I Exerccio 1.21 ... Em cada um dos seguintes casos, mostre que a transformacao
linear A de R2 e uma isometria linear e descreva A geometricamente (isto e, diga se A
e uma simetria ou uma rotacao; no caso de ser uma simetria, diga relativamente a que
recta, no caso de ser uma rotacao determine o angulo).

a) A(x, y) = (y, x);


b) A(x, y) = (y,

x);

c) A(x, y) = ( 2x2
2y
, 2x+
2
2y
);
d) A(x, y) = (( cos 8 )x + (sin 8 )y, (sin 8 )x + (cos 8 )y);

Os grupos O(2) e SO(2)

I 1.36 O conjunto de todas as transformacoes ortogonais de R2 , constituem um


grupo que se diz o grupo ortogonal O(2). Este grupo e isomorfo ao grupo das
matrizes ortogonais, tambem notado por O(2).
O subgrupo de O(2) constitudo por todas as transformacoes ortogonais de R2 ,
que tem determinante 1 (isto e, constitudo por todas as rotacoes R , [0, 2[,
em R2 ) diz-se o grupo ortogonal especial e nota-se por SO(2). Este grupo e
isomorfo ao grupo das matrizes ortogonais de determinante 1, tambem notado por
SO(2).

1.2 Aplicacoes a geometria


I 1.37 Exemplo ... As diagonais de um losango intersectam-se perpendicular-
mente.


Dem.: Como OQRP e um losango, kuk = kvk. Pretende-se provar que QP

OR, isto e que, (u v) (u + v) = 0. Mas:


(u v) (u + v) = kuk2 kvk2 = 0
1.2. Aplicacoes a geometria 19

I 1.38 Exemplo [Lei dos cossenos] ... Num triangulo plano 4(ABC), onde
a = BC, etc. tem-se que:

c2 = a2 + b2 2ab cos C


Dem.: Escolhamos um referencial com origem em C, e ponhamos u = CA e

v = CB. Entao AB = v u, e da que:

kABk2 = kv uk2 = kvk2 2u v + kuk2

ou, com as notacoes referidas:

c2 = a2 + b2 2ab cos C

I 1.39 Exemplo ... Se R e um ponto sobre um crculo de diametro P OQ, mostre


que P R QR.


Dem.: Seja u = OQ, v = OR. Entao

P R = OR OP = u + v

QR = OR OQ = v u
Sabe-se que kuk = kvk e portanto:

P R QR = (u + v) (v u) = kvk2 kuk2 = 0
1.2. Aplicacoes a geometria 20

I 1.40 Exemplo ... As alturas de um triangulo intersectam-se num unico ponto


(chamado o ortocentro do triangulo).

Dem.: Pretende-se encontrar um ponto X tal que:



AX BC = 0, BX CA = 0, CX AB = 0

Identificando um ponto P com o seu vector de posicao OP , relativamente a uma
origem fixa O no plano, e facil verificar a identidade seguinte:

(X A) (C B) + (X B) (A C) + (X C) (B A) = 0 (1.2.1)

Seja X o ponto de interseccao de duas das alturas, digamos, das alturas



partindo de A e de B. Temos entao que, lembrando que AX = X A, etc:

(X A) (C B) = 0 (1.2.2)
(X B) (A C) = 0 (1.2.3)

Subtraindo (1.2.2) e (1.2.3) de (1.2.1), obtemos:

(X C) (B A) = 0

como se pretendia.

I 1.41 Exemplo ... Dados dois pontos distintos A 6= B no plano, mostrar que
o lugar geometrico dos pontos P cuja distancia a A e o dobro da distancia a B e
um crculo.
Modulo 2

ALGA I. Algebra Linear e


Geometria Analtica em R3

Neste segundo modulo vamos retomar alguns conceitos aprendidos no ensino se-
cundario, e fazer uma ponte para os assuntos mais sofisticados que precisamos de
aprender na disciplina de ALGA. Tentamos por agora usar as notacoes que sao
mais familiares ao leitor.
Contents
2.1 Algebra Linear em R3 . . . . . . . . . . . . . . . . . . . 22

Palavras chave
Vectores. R3 como espaco vectorial real. Subespacos . Dependencia e in-
dependencia linear. Base canonica. Bases, coordenadas e dimensao. Mudanca
de base e de coordenadas. Aplicacoes Lineares. Matriz de uma aplicacao linear.
GL(2). Pontos de vista passivo e activo. Conjugacao. Determinantes. Valores e
vectores proprios.
Geometria Euclideana em R3 . Produto interno (euclideano). Norma (eu-
clideana). Angulo. Ortogonalidade. Rectas vectoriais e afins. Planos vectoriais
e afins. Produto vectorial em R3 . Produto misto em R3 . Projeccao ortogonal.
Interpretacao geometrica de det e de det A. Simetrias relativamente a uma recta
e a um plano. Transformacoes ortogonais em R3 . Os grupos O(3) e SO(3).

Notacoes
x, y, u, v, w... vectores, em vez de ~x, ~y, ~u, ~v, ...
a, b, c, ..., , , , , ... escalares, isto e, numeros reais (para ja).

21
2.1. Algebra Linear em R3 22

2.1 Algebra Linear em R3

Vectores

I 2.1 Um vector em R3 e por definicao um terno ordenado de numeros reais,


representado na forma x = (x1 , x2 , x3 ), ou dispostos segundo uma matriz-coluna
de tres linhas:
x1
x = x2
x3

Os numeros reais xi , i = 1, 2, 3, dizem-se as componentes do vector x R3 .

R3 como espaco vectorial real



x1 y1
I 2.2 Dados dois vectores x = x2 e y = y2 , em R3 , define-se a
x3 y3
respectiva soma vectorial, como sendo o vector x + y, dado por:

x1 y1 x1 + y1
x + y = x2 + y2 = x2 + y2
x3 y3 x3 + y3
Geometricamente x + y e novamente obtido atraves da regra do paralelogramo.

x1
I 2.3 Dado um vector x = x2 em R3 , e um escalar (i.e., um numero real)
x3
R, define-se a multiplicacao do escalar pelo vector x, como sendo o
vector x dado por:
x1
x = x2
x3

I 2.4 E facil provar que as duas operacoes definidas anteriormente, satisfazem


mais uma vez as propriedades seguintes:
[EV1]. x+y =y+x (2.1.1)
[EV2]. (x + y) + z = x + (y + z) (2.1.2)
[EV3]. 0+x=x+0=x x R3 (2.1.3)
[EV4]. x, (x) : x + (x) = 0 (2.1.4)
[EV5]. (x + y) = x + y (2.1.5)
[EV6]. ( + )x = x + x (2.1.6)
[EV7]. (x) = ()x (2.1.7)
[EV8]. 1x = x (2.1.8)

0
onde x, y, z R3 , , R, 0 = 0 e o vector nulo de R3 , e x = (1)x.
0
Por isso, diz-se que R3 e um espaco vectorial real.
2.1. Algebra Linear em R3 23

Subespacos

I 2.5 Um subconjunto S R3 diz-se um subespaco vectorial de R3 , se S e


fechado relativamente as operacoes de soma de vectores e de multiplicacao de
escalares por vectores, i.e.:
Se x, y S tambem x + y S (2.1.9)
Se R, e x S tambem x S (2.1.10)

I 2.6 Em R3 os subespacos sao de tres tipos:

triviais: S = {0} e S = R3
rectas vectoriais: S = { v : R}, onde v 6= 0, que representa uma
recta que passa na origem, gerada por v 6= 0.
planos vectoriais: S = { u + v : , R}, onde u e v sao dois vectores
nao colineares em R3 , que representa um plano que passa na origem, gerado
por u e v.

I Exerccio 2.1 ... Diga quais dos seguintes conjuntos sao subespacos vectoriais de
R3 :

a) A = (x, y, z) R3 : x + y + z = 0 ; e) E = (a, a, 5a) R3 : a R .
3 3
b) B = (x, y, z) R : x + y = 3z ; f) F = (a, a + 1, 5a) R : a R .
c) S = (x, y, z) R3 : x y = 3z e z = 2y ; g) G = {(b,
2a + b, 1) : a, b R}
.
d) D = (x, y, z) R3 : 0 x2 + y 2 z ; h) H = (a2 , b, 2a + b) : a, b R .

Combinacao linear

I 2.7 Dados n vectores em R3 , digamos {a1 , a2 , , ak }, um vector x R3 diz-


se uma combinacao linear dos vectores {a1 , a2 , , ak } se existirem escalares
1 , 2 , , n R tais que:
x = 1 a1 + 2 a2 + + k ak (2.1.11)

I 2.8 O conjunto de todas as combinacoes lineares dos vectores a1 , a2 , , ak ,


isto e, de todos os vectores da forma 1 a1 + 2 a2 + + k ak , onde os escalares
i R sao arbitrarios, chama-se o espaco gerado pelos vectores a1 , a2 , , ak
e representa-se por span{a1 , a2 , , ak }:

span{a1 , a2 , , ak } = {1 a1 + 2 a2 + + k ak : 1 , , n R}
(2.1.12)

I Exerccio 2.2 ... Mostre que S = span{a1 , a2 , , ak } e um subespaco de R3 .

I Exerccio 2.3 ... Em cada uma das alneas que se seguem, verifique se x
span {a, b, c}:

a) x = (1, 0, 0), a = (1, 1, 1), b = (1, 1, 0) e c = (1, 0, 1);


b) x = (1, 0, 0), a = (1, 1, 2), b = (1, 1, 0) e c = (1, 0, 1);
c) x = (1, 1, 1), a = (0, 1, 1), b = (1, 1, 0) e c = (1, 0, 2);
d) x = (0, 0, 1), a = (1, 1, 1), b = (1, 1, 0) e c = (1, 0, 1);
e) x = (1, 2, 3), a = (1, 1, 1), b = (2, 2, 0) e c = (0, 0, 1).
f) x = (1, 0, 0), a = (1, 1, 1), b = (2, 2, 0) e c = (1, 0, 1).
2.1. Algebra Linear em R3 24

I Exerccio 2.4 ... Em cada um dos casos, calcule o subespaco gerado por a, b e c,
onde

a) a = (1, 1, 1), b = (2, 2, 2), c = (0, 0, 0), em R3 ;


b) a = ((1, 0, 1), b = (5, 0, 1), c = (0, 1, 0), em R3 ;
c) a = (2, 1, 1), b = (1, 0, 1)c = (1, 0, 1), em R3 ;
d) a = (2, 1, 2), b = (0, 0, 0), em R3 ;

Dependencia e independencia linear

I 2.9 Dois vectores x e y em R3 , dizem-se linearmente dependentes, se um


deles e multiplo escalar do outro. Se x = 0 (ou y = 0) entao x e y sao linearmente
dependentes. Geometricamente x e y sao linearmente dependentes, sse eles sao
colineares.

I 2.10 Tres vectores x, y e z em R3 , dizem-se linearmente dependentes, se


um deles e multiplo escalar dos restantes. Se x = 0 (ou y = 0, ou z = 0) entao
x, y e z sao linearmente dependentes. Geometricamente x, y e z sao linearmente
dependentes, sse eles sao coplanares.

I 2.11 Dois vectores x e y em R2 , dizem-se linearmente independentes, sse


nao sao linearmente dependentes (o que implica que x 6= 0 e y 6= 0). Geometricamente
x e y sao linearmente independentes, sse eles sao nao colineares. Simbolicamente:
(x e y sao lin. indep.) (x + y = 0 = = = 0)

I 2.12 Tres vectores x, y e z em R3 ,, dizem-se linearmente independentes,


sse nao sao linearmente dependentes (o que implica que x 6= 0, y 6= 0 e z 6=
0). Geometricamente x, y e z sao linearmente independentes, sse eles sao nao
coplanares. Simbolicamente:
(x, y e z sao lin. indep.) ( x + y + z = 0 = = = = 0)

I Exerccio 2.5 ... Verifique se os vectores que se seguem sao linearmente depen-
dentes ou independentes:

a) (1, 0, 1), (2, 1, 1) em R3 ; b) (1, 0, 1), (2, 2, 0) em R3 ;


c) (0, 0, 0), (0, 1, 1), (0, 1, 2) em R3 ; d) (1, 1, 2), (2, 3, 0), (1, 1, 1) em R3 ;

Base canonica

I 2.13 Os vectores de R3 :

1 0 0
e1 = i = 0 e2 = = 1 e e3 = k = 0
0 0 1
sao
linearmente
independentes, e tem a propriedade de que qualquer vector x =
x1
x2 , se pode escrever como combinacao linear de e1 , e2 e e3 . De facto:
x3

x1 1 0 0
x = x2 = x1 0 + x2 1 + x3 0
x3 0 0 1
= x1 e1 + x2 e2 + x3 e3 (2.1.13)
2.1. Algebra Linear em R3 25

Diz-se entao que C = {e1 , e2 , e3 } e uma base (ordenada): a base canonica


de R3 .

Bases, coordenadas, dimensao

I 2.14 Qualquer conjunto B = {u1 , u2 , u3 } constitudo por tres vectores linear-


mente independentes, e que tem a propriedade de que qualquer vector x R3 , se
pode escrever como combinacao linear de u1 , u2 e u3 :

x = a1 u1 + a2 u2 + a3 u3 (2.1.14)

para certos escalares (unicos) a1 , a2 , a3 R, diz-se uma base de R3 . Os escalares


a1 , a2 , a3 dizem-se as coordenadas do vector x na base B escreve-se:

a1
x = a2 (2.1.15)
a3 B

Todas as bases de R3 tem sempre tres elementos, e por isso, diz-se que a
dimensao (real) de R3 e 3.

I Exerccio 2.6 ... Verifique se os conjuntos que se seguem, sao ou nao bases de
cada um dos espacos vectoriais indicados em cada alnea. Calcule as coordenadas de
x = (1, 1) relativamente aos que sao bases:

a) {(1, 1, 1), (1, 1, 5)} em R3 ;


b) {(1, 1, 1), (1, 2, 3), (2, 1, 1)} em R3 ;
c) {(1, 2, 3), (1, 0, 1), (3, 1, 0), (2, 1, 2)} em R3 ;
d) {(1, 1, 2), (1, 2, 5), (5, 3, 4)} em R3 ;

I Exerccio 2.7 ... Calcule uma base de cada um dos subespacos que se seguem, e
depois as coordenadas do vector u em cada uma das bases:

a) S = (x, y, z) R3 : x + y + z = 0 , u = (1, 1, 2);
3
b) S = (x, y, z) R : 2x y = z , u = (3, 2,4);
b) S = (x, y, z) R3 : 2x y = 0 = x + y z , u = (1, 2, 3);

Aplicacoes Lineares

I 2.15 Uma aplicacao A : R3 R3 diz-se uma transformacao linear, se A


preserva as operacoes que definem a estrutura vectorial de R3 , i.e.,:

A(x + y) = A(x) + A(y) (2.1.16)


A( x) = A(x) (2.1.17)

x, y R3 , e R.

I 2.16 Dada uma aplicacao linear A : R3 R3 define-se:

o nucleo de A:
ker A = {x R3 : A(x) = 0} (2.1.18)
2.1. Algebra Linear em R3 26

a imagem de A:

im A = {y : A(x) = y R3 , para algum x R3 } (2.1.19)

I Exerccio 2.8 ... (i). Mostrar que ker A e Im A sao subespacos de R3 .


(ii). Mostrar que A e injectiva se e so se ker A = {0}.

I Exerccio 2.9 ... Das aplicacoes que se seguem, indique aquelas que sao lineares.
Relativamente a essas, calcule o respectivo nucleo e diga quais as que sao injectivas.

a) A : R3 R3 ; (x, y, z) 7 (x + y, x y, x + z)
b) A : R3 R3 ; (x, y) 7 (|x| , |y| , x z 2 )
c) A : R3 R3 ; (x, y, z) 7 (x + 1, x y, 3)
d) A : R3 R3 ; (x, y, z) 7 (0, x + y, 0)

I Exerccio 2.10 ... Sabendo que A : R3 R3 e uma aplicacao linear, calcule em


cada caso a imagem de um vector generico:

a) sendo que A(1, 0, 0) = (1, 1, 1), A(0, 1, 0) = (1, 2, 0); e A(0, 0, 1) = (1, 1, 1)
b) sendo A(1, 1, 1) = (1, 2, 0) e A(0, 3, 1) = (2, 2, 0); e A(1, 0, 0) = (1, 1, 1)

Matriz de uma aplicacao linear

I 2.17 Vamos nesta seccao introduzir pela primeira vez as notacoes que serao usa-
das na parte mais avancada do curso. A primeira vista, estas notacoes parecem
muito complicadas mas, apos algum treino, veremos que elas facilitam substan-
cialmente os calculos e as deducoes teoricas que vamos estudar. E nao fossem elas
usadas intensivamente por Einstein ... As principais diferencas sao:

para as coordenadas dos vectores usamos ndices superiores x1 , x2 , x3 , ... em


vez de ndices inferiores x1 , x2 , x3 , .... O risco aqui e a possvel confusao entre
ndices superiores x1 , x2 , x3 , ... e expoentes. Neste contexto, por exemplo, x2
nao representa x ao quadradomas sim a segunda componente do vector x.
Nao faca pois essa confusao e esteja atento ao contexto.

o uso de ndices superiores e inferiores A11 , A32 , A33 , ... para as entradas de
uma matriz, de tal forma que na matriz A = (Aij ), o ndice superior i e o
ndice-linha - o que numera as linhas - enquanto que o ndice inferior j e o
ndice-coluna - o que numera as colunas:

Ai ndice linha: numera as linhas de A


j ndice coluna: numera as colunas de A

I 2.18 Se B = {u1 , u2 u3 } e uma base fixa de R3 , podemos escrever que:


A(u1 ) = A11 u1 + A21 u2 + A31 u3 (2.1.20)
A(u2 ) = A12 u1 + A22 u2 + A32 u3 (2.1.21)
A(u3 ) = A13 u1 + A23 u2 + A33 u3 (2.1.22)

A matriz:

A11 A12 A13
A = A21 A22 A23 (2.1.23)
A31 A32 A33
2.1. Algebra Linear em R3 27

diz-se a matriz de A na base B, e nota-se por:


A = (A)B

x1
I 2.19 Se as coordenadas de um vector x R2 , na base B, sao x = x2 ,
x3 B
i.e., se:
x = x1 u1 + x2 u2 + x3 u3
entao as coordenadas de A(x) na base B obtem-se da seguinte forma:
A(x) = A(x1 u1 + x2 u2 + x3 u3 )
= x1 A(u1 ) + x2 A(u2 ) + x3 A(u3 )
= x1 (A11 u1 + A21 u2 + A31 u3 ) + x2 (A12 u1 + A22 u2 + A32 u3 )
+x3 (A13 u1 + A23 u2 + A33 u3 )
= (A11 x1 + A12 x2 + A13 x3 ) u1 + (A21 x1 + A22 x2 + A23 x3 ) u2
+(A31 x1 + A32 x2 + A33 x3 ) u3 (2.1.24)
o que significa que as coordenadas de A(x) na base B:
1
y
(A(x))B = y 2
y3 B
se obtem matricialmente atraves de:
1 1 1
y A1 A12 A13 x
y 2 = A21 A22 A23 x2 (2.1.25)
y3 B A31 A32 A33 x3 B
ou mais sucintamente:

(A(x))B = (A)B (x)B (2.1.26)


ou ainda, em notacao tensorial , pondo (A)B = (Aij ) e y i = (Ax)i :
P3
yi = i=1 Aij xj = Aij xj (2.1.27)

onde, na segunda igualdade adoptamos a chamada convencao de Einstein


que consiste em omitir o sinal de somatorio, ficando subentendido que o facto de
surgir o ndice j repetido, uma vez em cima e outra em baixo, implica que se faca
esse somatorio no ndice j.

Determinantes

A11 A12 A13
I 2.20 Dada uma matriz A = A21 A22 A23 , definimos o seu determi-
A31 A32 A33
nante det A, como sendo o numero real:
1
A1 A12 A13
2
det A = A1 A22 A23
A31 A32 A33
2 2 2

1 A2 A23 2
1 A1 A3
A1 A22
= A1 3 A2 3 1
+ A3 det 3
A2 A33 A1 A33 A1 A32
(2.1.28)
2.1. Algebra Linear em R3 28

Veremos en breve uma interpretacao geometrica para det A.

I 2.21 Representemos por:


1 1
A1 A12 A3
c1 = A21 , c2 = A22 e c3 = A23
A31 A32 A33

as colunas da matriz A, de tal forma que:

det A = det (c1 c2 c3 ) (2.1.29)

E possvel mostrar as seguintes propriedades do det :


(i). det (c1 c2 c3 ) 6= 0 sse c1 , c2 , c3 sao linearmente independentes.
(ii). det [c1 c2 c3 ] muda de sinal, sempre que se permuta um par de colunas.
(iii).

det (c1 + c01 c2 c3 ) = det (c1 c2 c3 ) + det (c01 c2 c3 ) (2.1.30)


det (c1 c2 + c02 c3 ) = det (c1 c2 c3 ) + det (c1 c02 c3 ) (2.1.31)
det (c1 c2 c3 + c03 ) = det (c1 c2 c3 ) + det (c1 c2 c03 ) (2.1.32)
det ( c1 c2 c3 ) = det (c1 c2 c3 )
= det (c1 c2 c3 )
= det (c1 c2 c3 ) R (2.1.33)

e ainda que:
(iv).

det I = 1 (2.1.34)
det (AB) = det A det B (2.1.35)
det (A1 ) = (det A)1 A GL(3) (2.1.36)
det (P 1 A P ) = det A P GL(3) (2.1.37)
t
det (A) = det (A ) (2.1.38)

onde At e a transposta de A.
(v). Alem disso e possvel provar que para uma matriz A:

A e inversvel se e so se det A 6= 0

I 2.22 Finalmente, se A : R3 R3 e uma aplicacao linear, define-se o respectivo


determinante det A, como sendo o determinante da matriz de A, relativamente
a uma qualquer base de R3 . Veremos, num proximo captulo, que esta definicao
nao depende da base escolhida.
Veremos en breve uma interpretacao geometrica para det A.

I Exerccio 2.11 ... Calcule o determinante das aplicacoes lineares descritas no


exerccio ??.
2.1. Algebra Linear em R3 29

Produto interno (euclideano)


x1 y1
I 2.23 Dados dois vectores x = x2 e y = y2 , em R3 , define-se o
x3 y3
respectivo produto interno (euclideano), como sendo o escalar x y R, dado
por:

xy = x1 y1 + x2 y2 + x3 y3

y1
= (x1 x2 x3 ) y2
y3
= xt y (2.1.39)

I 2.24 O produto interno (euclideano), que acabamos de definir, verifica as pro-


priedades seguintes:

e bilinear:

(x + y) z = xz+yz
x (y + z) = xy+xz
x y = x y = (x y) (2.1.40)

e simetrica:
xy =yx (2.1.41)

e nao degenerada:

x y = 0 y R2 x = 0 (2.1.42)

e definida positiva:
xx0 (2.1.43)
x, y, z R3 , R.

I Exerccio 2.12 ... Verifique que o produto interno (2.1.39) satisfaz as propriedades
acima referidas.

Norma (euclideana)


x1
I 2.25 Define-se a norma euclideana kxk, de um vector x = x2 R3 ,
x3
atraves da formula:

kxk xx

= xt x
p
= (x1 )2 + (x2 )2 + (x3 )2 (2.1.44)
2.1. Algebra Linear em R3 30

I 2.26 A norma euclideana verifica as propriedades seguintes:

e positiva e nao degenerada:

kxk 0 e kxk = 0 sse x = 0 (2.1.45)

e homogenea (positiva):

k xk = || kxk (2.1.46)

verifica a desigualdade triangular:

kx + yk kxk + kyk (2.1.47)

x, y R2 , R.

Todas as propriedades sao de demonstracao imediata com excepcao da desigual-


dade triangular, que resulta imediatamente de uma outra importante desigualdade
que passamos a enunciar, e cuja prova e em tudo analoga a que foi feita no captulo
anterior:

Desigualdade de Cauchy-Schwarz:

|x y| kxkkyk (2.1.48)
x, y R2 .

Angulo, ortogonalidade

I 2.27 Dados dois vectores nao nulos x, y R3 , deduzimos da desigualdade de


Cauchy-Schwarz que:
xy
1 1 (2.1.49)
kxkkyk
o que permite definir o angulo (nao orientado) [0, ], entre os referidos
vectores nao nulos x, y R3 , como sendo o unico [0, ], tal que:

xy
cos = [1, 1] (2.1.50)
kxkkyk

Portanto:
x y = kxkkyk cos (2.1.51)

Dois vectores x, y R3 dizem-se ortogonais se x y = 0.

Rectas vectoriais e afins

I 2.28 Dado um vector nao nulo v 6= 0, o conjunto dos vectores x que sao da
forma:
x = tv tR (2.1.52)
2.1. Algebra Linear em R3 31


v1
diz-se a recta (vectorial) gerada por v. Se v = v2 , entao (3.3.4) e equiva-
v3
lente ao sistema de equacoes:

x1 = t v1
x2 = t v2 tR

x3 = t v3
que se dizem as equacoes parametricas da referida recta.

I 2.29 Dado um ponto A R3 e um vector nao nulo v 6= 0, o conjunto dos


pontos P que sao da forma:

P = A + tv tR (2.1.53)

isto e, tais que AP = t v, diz-se a recta (afim) que passa em A e e gerada
por v.

x1 a1 v1
Se P = x2 , A = a2 , e v = v2 , entao (2.1.53) e equivalente
x3 a3 v3
ao sistema de equacoes:

x1 = a1 + t v1
x2 = a2 + t v2 tR

x3 = a3 + t v3
que se dizem as equacoes parametricas da referida recta.
Resolvendo em ordem a t podemos escrever as chamadas equacoes homogeneas
da referida recta, na forma:

x1 a1 x2 a2 x3 a3
= = (2.1.54)
v1 v2 v3

Planos vectoriais e afins

I 2.30 Dados dois vectores u, v R3 {0}, linearmente independentes, ao sube-


spaco gerado por esses dois vectores, i.e., ao conjunto constitudo por todas as
combinacoes lineares de u e v:

span{u, v} {x R3 : x = u + v , R} (2.1.55)

chama-se o plano (vectorial) gerado por u e


v. Se P e um
ponto
generico
desse

x1 u1 v1

plano, com vector de posicao OP = x = x2 , e se u = u2 , v = v2 ,
x3 u3 v3
a equacao vectorial:

x = u + v , R

que define o referido plano, e equivalente as seguintes equacoes parametricas:



x1 = u1 + v1
x2 = u2 + v2 , R (2.1.56)

x3 = u3 + v3
2.1. Algebra Linear em R3 32

I 2.31 Dado um ponto A R3 e dois vectores u, v R3 {0}, linearmente


independentes, ao conjunto dos pontos P que sao da forma:

P = A + u + v , R (2.1.57)

chama-se o plano (afim) que passa em p e e gerada por u e v.


As equacoes parametricas de um tal plano, sao do tipo:

x1 = a1 + u1 + v1
x2 = a2 + u2 + v2 , R (2.1.58)

x3 = a3 + u3 + v3

I 2.32 Dado um vector nao nulo n R3 {0}, o conjunto dos pontos P cujos

vectores de posicao OP = x R3 sao ortogonais a n:

{x Rn : x n = 0} (2.1.59)
3
formam um subespaco de dimensao
2 em R ,que sediz o plano (vectorial)
x1 n1
ortogonal a n. Se x = x2 e se n = n2 , a equacao x n = 0, e
x3 n3
equivalente a seguinte equacao cartesiana:

n1 x1 + n2 x2 + n3 x3 = 0 (2.1.60)

I 2.33 Dado um ponto arbitrario A R3 e um vector nao nulo n R3 {0}, o


conjunto dos pontos P que verificam a equacao:

AP n = 0 (2.1.61)

x1

diz-se o plano afim que passa em A e e ortogonal a n. Se OP = x = x2 ,
x3
a1 n1
A = a2 e n = n2 , a equacao cartesiana de um tal plano e do tipo:
a3 n3

n1 (x1 a1 ) + n2 (x2 a2 ) + n3 (x3 a3 ) = 0 (2.1.62)

I 2.34 Exemplo ... Calcular a distancia entre um ponto P e um hiperplano afim


em IEn .
2.1. Algebra Linear em R3 33

Res... Suponhamos que esse hiperplano e perpendicular ao vector u 6= 0 e passa


num ponto a e, portanto, tem equacao:
(x a) u = 0
ou
x u + c = 0, c = a u

A recta que passa em P ' OP = p e tem a direccao do vector u, tem equacao:
x(t) = p + tu
O ponto desta recta que pertence ao plano referido, corresponde ao valor do
parametro t que verifica:
pu+c
0 = x(t) u + c = (p + tu) u + c = p u + tkuk2 + c t=
kuk2

A distancia entre um ponto P ' p e o hiperplano afim e pois dada por:



pu+c |p u + c|

d = kp x(t)k = p p + u
kuk2 = kuk

Assim por exemplo:

No plano, a distancia entre um ponto P = (, ) e a recta afim ax+by+c = 0


e:
|p u + c| |(, ) (a, b) + c| |a + b + c|
d= = =
kuk k(a, b)k (a2 + b2 )1/2
No espaco, a distancia entre um ponto P = (, , ) e o plano afim ex +
f y + gz + h = 0 e:
|p u + c| |(, , ) (e, f, g) + h| |e + f + g + h|
d= = =
kuk k(e, f, g)k (e2 + f 2 + g 2 )1/2

I 2.35 Exemplo ... Calcular a distancia entre um ponto P e uma recta afim em
IE3 , quando:

1. essa recta e definida parametricamente.


2. essa recta e definida como interseccao de dois planos afins.

Produto vectorial em R3

I 2.36 Definamos agora o chamado produto vectorial de dois vectores em


R3 :

x1 y1
Dados dois vectores x = x2 , y = y2 , em R3 , define-se o produto
x3 y3
vectorial, x y, de x por y, como sendo o seguinte vector de R3 :
x y (x2 y3 x3 y2 )i + (x3 y1 x1 y3 )j + (x1 y2 x2 y1 )k (2.1.63)
O produto vectorial xy, pode ser obtido desenvolvendo segundo a primeira linha,
o determinante formal:
i j k

x y = x1 x2 x3
y1 y2 y3
2.1. Algebra Linear em R3 34

I 2.37 O produto vectorial verifica as propriedades seguintes:

e bilinear:

(x + y) z = x z + y z
x (y + z) = x y + x z
x y = x y = (x y) (2.1.64)

e antissimetrico:
x y = y x (2.1.65)

verifica a identidade de Jacobi:

(x y) z + (y z) x + (z x) y = 0 (2.1.66)

Alem disso, se x R3 e y R3 , sao ambos nao nulos, entao:

x y e perpendicular a x e a y, i.e.:

(x y) x = 0 = (x y) y (2.1.67)

Se x e y sao linearmente independentes, x y e perpendicular ao plano


gerado por x e y.

kx yk = kxkkyk sin (2.1.68)
onde e o angulo entre x e y. Portanto, kx yk e igual a area do paralelo-
gramo cujos lados adjacentes sao x e y.
x y = 0 x e y sao linearmente dependentes.
O produto vectorial nao e associativo. De facto, sao validas as seguintes
identidades de Lagrange:

(x y) z = (x z)y (y z)x (2.1.69)

enquanto que:
x (y z) = (x z)y (x y)z (2.1.70)

I 2.38Em particular,
se consideramos o paralelogramo de lados adjacentes x =
x1 y1
x2 e y = y2 , contido no plano x3 = 0, vemos que a respectiva area e
0 0
dada por:

i j k

kx yk = det x1 x2 0
y1 y2 0

x1 x2

= det (2.1.71)
y1 y2

I 2.39 Uma equacao (cartesiana) para o plano vectorial span{u, v}, gerado por
dois vectores u, v R3 {0}, linearmente independentes, e:

x (u v) = 0 (2.1.72)
2.1. Algebra Linear em R3 35

Produto misto (ou triplo) em R3 . Interpretacao geometrica do det

I 2.40 Definamos agora, ainda em R3 , o chamado produto misto (ou triplo).


Dados tres vectores x, y, z em R3 , define-se o produto misto (ou triplo)
[x, y, z], de x, y e z (por esta ordem), atraves de:

[x, y, z] x (y z) (2.1.73)

E facil ver que [x, y, z] e dado por:

[x, y, z] = det [x y z]

x1 y1 z1
= det x2 y2 z2 (2.1.74)
x3 y3 z3

I 2.41 O produto misto verifica as propriedades seguintes:

[x, y, z] = [y, z, x] = [z, x, y] = [y, x, z]


= [x, z, y] = [z, y, x] (2.1.75)

O volume vol (x, y, z), do paralelippedo de lados adjacentes x, y, z R3 , e


igual ao modulo do produto misto:

vol (x, y, z) = |[x, y, z]| (2.1.76)

De facto, o volume de um paralelippedo e igual ao produto da area da base


pela sua altura. A base e o paralelogramo de lados adjacentes x e y, e por
isso, a sua area e kx yk. A altura e igual a norma da projeccao de z
sobre um vector perpendicular a base. Mas x y e perpendicular a base, e
atendendo a (7.7.7), a projeccao de z sobre x y, e igual a:

z (x y)
(x y) (2.1.77)
kx yk2

donde se deduz facilmente o resultado .

Quando x1 , x2 e x3 sao linearmente independentes, de tal forma que:

det [x1 x2 x3 ] 6= 0

dizemos que a base ordenada {x1 , x2 , x3 } e

positiva se det [x1 x2 x3 ] > 0, e

negativa se det [x1 x2 x3 ] < 0.

Interpretacao geometrica de det A


2.1. Algebra Linear em R3 36

I 2.42 Consideremos agora uma aplicacao linear A : R3 R3 . A imagem do


cubo Q R3 , gerado pelos vectores da base canonica (que e positiva) {e1 , e2 , e3 }:

Q = {ae1 + be2 + ce3 : 0 a, b, c 1}

e o paralelippedo A(Q), de lados adjacentes A(e1 ), A(e2 ) e A(e3 ).


1
a1
Pondo A(e1 ) = a11 e1 + a21 e2 + a3 e3 = a21 , A(e2 ) = a12 e1 + a22 e2 + a32 =
3
1 a11
a2 a3
a22 , e A(e3 ) = a13 e1 + a23 e2 + a33 = a23 sabemos que o volume deste
a32 a33
paralelippedo e igual a:

vol A(Q) = |[A(e1 ), A(e2 ), A(e3 )]|


= |det [A(e1 ) A(e2 ) A(e3 )]|
1
a1 a12 a13
= |det a21 a22 a23 |
a31 a32 a33
= |det A| (2.1.78)

Portanto:
vol A(Q) = |det A| (2.1.79)

I 2.43 Mais geralmente, se P e um paralelippedo gerado pelos vectores x, y e z,


entao a imagem A(P) e o paralelippedo gerado por A(x), A(y) e A(z), e e facil
provar que o volume dessa imagem e igual a:

vol A(P) = |[A(x), A(y), A(z)]|


= |det [A(x) A(y) A(z)]|
= |det A| vol (P)) (2.1.80)

Em particular, se os vectores x, y e z sao linearmente independentes, de tal forma


que vol P 6= 0, entao:
vol A(P)
|det A| = (2.1.81)
vol P

I 2.44 Diz-se que uma aplicacao linear inversvel A : R3 R3

preserva a orientacao (ou e positiva) se det A > 0, e que


inverte a orientacao (ou e negativa) se det A < 0

Valores e vectores proprios

I 2.45 Seja A : R3 R3 uma aplicacao linear. Um escalar R diz-se um


valor proprio de A se existir um vector nao nulo v R3 {0} tal que:

A(v) = v (2.1.82)

Neste caso, o vector nao nulo v, diz-se um vector proprio pertencente ao valor
proprio .
2.1. Algebra Linear em R3 37

I 2.46 O conjunto constitudo pelo vector nulo 0 e por todos os vectores proprios
pertencentes a um certo valor proprio , de A, e um subespaco de R3 , chamado o
subespaco proprio de A, pertencente ao valor proprio , e nota-se por:

EA () = E() = {x : A(x) = x} (2.1.83)

A restricao de A a E() e pois uma homotetia de razao (eventualmente pode


ser 0), i.e.:
A(x) = x x E()

I 2.47 Em particular, se = 0 e valor proprio de A, isto significa que o nucleo


de A;
ker A = EA (0)

nao se reduz ao vector nulo 0, e portanto A e nao inversvel (ou singular), ou de


forma equivalente, det A = 0.
Quando 6= 0, dizer que e valor proprio de A, e equivalente a dizer que 0 e
valor proprio de A Id, o que, pelo paragrafo anterior, e equivalente a dizer que
A Id e nao inversvel (ou singular), ou ainda que:

det (A Id) = 0 (2.1.84)

I 2.48 O polinomio p() = det (A Id) diz-se o polinomio caracterstico de


A. Portanto as razes reais da chamada equacao caracterstica de A:

p() = det (A Id) = 0 (2.1.85)

(se existirem), sao exactamente os valores proprios (reais) de A.


Num captulo posterior demonstrar-se-a que o polinomio caracterstico de uma
aplicacao linear A : R3 R3 , nao depende da representacao matricial de A.

I 2.49 Note ainda que o polinomio caracterstico p() = det (A Id), de uma
aplicacao linear A : R3 R3 , e sempre um polinomio do 3.o grau, do tipo:

p() = 3 + b2 + c + d b, c, d R

e por isso admite sempre uma raiz real R (eventualmente nula). Se 6= 0, con-
clumos portanto que, neste caso, existe sempre um subespaco proprio invariante
E() R3 , de dimensao superior ou igual a 1, tal que:

A(E()) E()
A(x) = x x E()

Exemplo...

Calcule os valores e vectores proprios (reais) da aplicacao linear A : R3 R3 , cuja


matriz na base canonica de R3 e:

1 0 0
A = 5 2 0
2 3 7
2.1. Algebra Linear em R3 38

A equacao caracterstica de A e:

p() = det (A Id)



1t 0 0

= 5 2 t 0

2 3 7t
= (1)(2 t)(7 t) = 0 (2.1.86)

cujas razes reais (os valores proprios de A) sao 1 = 1, 2 = 2 e 3 = 7.



x1
Para calcular os vectores poprios x = x2 , pertencentes ao valor proprio 2 = 2,
x3
devemos resolver o sistema:

12 0 0 x1 0
5 22 0 x2 = 0
2 3 72 x3 0

isto e:
x1 = 0
5x1 = 0

2x1 + 3x2 + 5x3 = 0
cuja solucao geral e:
x1 = 0
x2 = 53 s sR

x3 = s
Portanto os vectores poprios de A, pertencentes ao valor proprio 2 = 2, sao da forma:

0
s 35 s R {0}
1

Procedendo da mesma forma relativamente aos outros valores proprios 1 = 1 e


3 = 7, podemos calcular os correspondentes vectores poprios.

Projeccao ortogonal sobre uma recta gerada por a 6= 0


Sejam a 6= 0 e x dois vectores em R3 ,
com a nao nulo. Entao existe um unico
vector u, na recta gerada por a, e um
unico vector v, ortogonal a a, tais que
x = u + v. O vector u, notado por
Pa (x), diz-se a projeccao ortogonal
de x sobre a recta gerada por a, e e
dado por:
xa
Pa (x) = kak2 a (2.1.87)

I 2.50 A aplicacao Pa : R3 R3 definida por (7.7.7), e linear. Note que P2a =


Pa . Uma vez que Pa (a) = a vemos que a e vector proprio de Pa , pertencente
ao valor proprio 1. Por outro lado, se considerarmos um qualquer vector b 6= 0
ortogonal a a (i.e.: a b = 0), vemos que Pa (b) = 0 e portanto:

ker Pa = span{b} = {b R3 : b a = 0} = a

e o plano vectorial ortogonal a a.


2.1. Algebra Linear em R3 39

A matriz de Pa numa base {a, b1 , b2 }, onde b1 , b2 geram o ker Pa , e portanto:



1 0 0
0 0 0
0 0 0

Projeccao ortogonal sobre um plano vectorial, em IE3

Consideremos um plano vectorial ortog-


onal a um vector n R3 {0} (se
esse plano e gerado por dois vectores
u, v linearmente independentes, pode-
mos tomar n = u v). Notemos esse
plano por = n . Dado um vector
x R3 , ao vector:

P (x) x Pn (x)

chamamos a projeccao ortogonal de


x sobre o plano vectorial = n , or-
togonal a n.

I 2.51 De acordo com (7.7.7), temos que:

P (x) x Pn (x)
xn
= x n (2.1.88)
knk2

A aplicacao P : R3 R3 definida por (7.7.8), e linear. Note que P2 = P .


Se x n = 0, i.e., se x e ortogonal a n, entao P (x) = x, enquanto que, por outro
lado, P (n) = 0. Portanto vemos que:

ker P = span{n}

e:
P (x) = x x = n

Portanto a matriz de P numa base {n, b1 , b2 }, onde b1 , b2 geram o plano , e:



0 0 0
0 1 0
0 0 1

Reflexao num plano vectorial


2.1. Algebra Linear em R3 40

Consideremos novamente um plano vec-


torial n , ortogonal a um vector n
R3 {0} (se esse plano e gerado por
dois vectores u, v linearmente indepen-
dentes, podemos tomar n = u v).
A simetria relativamente ao plano vec-
torial = n , ou reflexao em , e a
aplicacao linear S : R3 R3 , definida
pela condicao:
1
S (x) + x = P (x) x R3
2
(2.1.89)
isto e, o ponto medio do segmento que
une x a S (x) deve ser igual a projeccao
de x sobre o plano vectorial = n .

I 2.52 Atendendo a (7.7.8), vemos que:

S (x) = 2P (x) x
xn
= 2 x n x
knk2
xn
= x2 n x R3 (2.1.90)
knk2

Note que S2 = Id. Alem disso, e facil ver que :

S (n) = n

o que significa que n e vector proprio de S , pertencente ao valor proprio 1, e


ainda que:
S (x) = x x
Portanto a matriz de S numa base {n, b1 , b2 }, onde b1 , b2 geram o plano , e:

1 0 0
0 1 0
0 0 1
o que mostra que det S = 1 < 0, i.e., S inverte orientacao.

Isometrias em R3 . Rotacoes. Os grupos O(3) e SO(3)

I 2.53 Uma aplicacao linear A : R3 R3 diz-se uma transformacao ortogo-


nal ou uma isometria de R3 , se A preserva o produto interno (Euclideano) usual
de R3 , i.e.:
A(x) A(y) = x y x, y R3 (2.1.91)
Esta condicao e equivalente a:

kA(x)k = kxk x R3 (2.1.92)

i.e., A preserva os comprimentos dos vectores. Se A e a matriz de uma tal trans-


formacao ortogonal, relativamente a uma qualquer base ortonormada {e1 , e2 , e3 }
de R2 (por exemplo, a base canonica), A e uma matriz ortogonal, isto e, At A = I.
Portanto A O(3). Vejamos como e a forma geral de uma tal matriz.
2.1. Algebra Linear em R3 41

I 2.54 Se c1 = A(e1 ), c2 = A(e2 ), c3 = A(e3 ) sao as colunas de A, entao:

ci cj = ij

o que significa que c1 , c2 e c3 sao ortonormais. Portanto A transforma bases


ortonormadas em bases ortonormadas, preservando ou invertendo orientacao, con-
forme det A = +1 ou det A = 1, respectivamente. Por exemplo, a reflexao S ,
descrita em (2.1.89), e uma transformacao ortogonal com det igual a 1.

I 2.55 Como ja vimos A admite sempre um valor proprio real. De facto, se


A : R3 R3 e uma isometria entao esse valor proprio (real) ou e 1 ou 1. Com
efeito, se R e valor proprio de A, e v e um vector proprio pertencente a ,
temos que:
kvk = kA(v)k = k vk = || kvk
o que implica que || = 1 (uma vez que v 6= 0), i.e., = 1.
Analisemos agora a estrutura das isometrias de R3 com determinante igual a 1,
isto e, a estrutura das matrizes A SO(3). Seja A : R3 R3 uma tal isometria,
com:
det A = 1
Pelo paragrafo anterior, A admite o valor proprio 1 ou 1. Vamos analisar cada
um destes casos:

(i). = 1 e valor proprio de A (e det A = 1) ... Seja u 6= 0 um vector


proprio de A, pertencente ao valor proprio 1:

A(u) = u

Podemos supor tambem que kuk = 1. Se = u e o plano ortogonal a u, e facil


ver que A deixa invariante:
A()
e que a restricao de A a e uma isometria de . Portanto existe uma base
ortonormada {e, f } de , relativamente a qual a matriz da restricao de A a , e
de um dos seguintes dois tipos:

cos sin
(i 1). (2.1.93)
sin cos
ou:
cos sin
(i 2). (2.1.94)
sin cos

A matriz de A, relativamente a base


ortonormada {u, e, f } de R3 e portanto
no caso (i 1):

1 0 0
A = 0 cos sin (2.1.95)
0 sin cos

que tem de facto determinante 1, e rep-


resenta uma rotacao em torno da recta
gerada por u (que se diz o eixo da
rotacao), de angulo .
2.1. Algebra Linear em R3 42

Por outro lado, no caso (i 2), a matriz de A, relativamente a base ortonormada


{u, e, f } de R3 , e:
1 0 0
A = 0 cos sin (2.1.96)
0 sin cos
que tem determinante 1 e por isso nao pode ser a matriz de A.

(i). = 1 e valor proprio de A (e det A = 1) ... Seja u 6= 0 um vector


proprio de A, pertencente ao valor proprio 1:

A(u) = u

Podemos supor tambem que kuk = 1.


Mais uma vez, se = u e o plano ortogonal a u, A deixa invariante:

A()

e a restricao de A a e uma isometria de . Portanto existe uma base ortonor-


mada {e, f } de , relativamente a qual a matriz da restricao de A a , e de um
dos seguintes dois tipos:

cos sin
(ii 1). (2.1.97)
sin cos
ou:
cos sin
(ii 2). (2.1.98)
sin cos
Como vimos anteriormente, esta e uma matriz de uma simetria relativamente a
uma recta no plano , e portanto podemos escolher uma base ortonormada {e0 , f 0 }
para , relativamente a qual a matriz dessa simetria e:

1 0
0 1

A matriz de A, relativamente a base ortonormada {u, e, f } de R3 e portanto no


caso (ii 1):
1 0 0
A = 0 cos sin (2.1.99)
0 sin cos
que tem determinante 1, e por isso nao pode ser a matriz de A.
Finalmente no caso (ii 2), a matriz de A, relativamente a base ortonormada
{u, e0 , f 0 } de R3 , e:
1 0 0
A= 0 1 0 (2.1.100)
0 0 1
que tem determinante 1, e representa uma rotacao em torna da recta gerada por
e0 , de angulo .

I 2.56 Resumindo ... Uma isometria A em R3 , com det A = 1, e sempre uma


rotacao em torno de uma certa recta R{u} (o eixo de rotacao), e de angulo
no sentido directo. Representamos uma tal rotacao por R(u;) . As matrizes das
2.1. Algebra Linear em R3 43

rotacoes em torno dos eixos coordenados de R3 , e de angulo no sentido directo,


sao respectivamente:

1 0 0
R1 () = R(e1 ;) = 0 cos sin (2.1.101)
0 sin cos

cos 0 sin
R2 () = R(e2 ;) = 0 1 0 (2.1.102)
sin 0 cos

cos sin 0
R3 () = R(e3 ;) = sin cos 0 (2.1.103)
0 0 1

~ Angulos de Euler

I 2.57 Angulos de Euler ... Qualquer rotacao pode ser escrita como um pro-
duto de rotacoes dos tipos acima indicados.
Com efeito consideremos uma qualquer rotacao R SO(3) e duas bases
ortonormadas de R3 :

B = {e1 , e2 , e3 }
b = BR =
B e1 , b
{b e2 , b
e3 } (2.1.104)

b = B R pode ser obtida atraves das seguintes


com a mesma orientacao. A base B
tres fases sucessivas:

1. Obter uma base ortonormada B 0 = {e01 , e02 , e03 = e3 }, atraves de uma rotacao
R3 (), em torno de e3 e de angulo , onde e o angulo entre e1 e a chamada
linha dos nodos (a recta de interseccao dos planos gerados respectivamente por
e1 , b
{e1 , e2 } e {b e2 }):
B 0 = B R3 () (2.1.105)
2.1. Algebra Linear em R3 44

2. Obter uma base ortonormada B 00 = {e01 , e002 , b


e3 }, atraves de uma rotacao R2 (),
em torno da linha dos nodos, gerada por e01 , e de angulo , onde e o angulo entre
e3 e b
e3 :
B 00 = B 0 R2 () (2.1.106)

3. Finalmente, obter a base ortonormada B b = B R = {b e1 , b


e2 , b
e3 }, atraves de
uma rotacao R2 (), em torno de b
e3 , e de angulo , onde e o angulo entre a
linha dos nodos e b
e1 :
Bb = B 00 R3 () (2.1.107)

I 2.58 Portanto:
b
B = BR
= BR3 ()R2 ()R3 () (2.1.108)
e:

R = R3 ()R2 ()R3 ()

cos sin 0 cos 0 sin cos sin 0
= sin cos 0 0 1 0 sin 0
cos (2.1.109)
0 0 1 sin 0 cos 0 0 1
Os angulos , , chamam-se angulos de Euler.
2.1. Algebra Linear em R3 45

Os grupos O(3) e SO(3)


O conjunto de todas as transformacoes ortogonais de R3 , constituem um grupo
que se diz o grupo ortogonal O(3). Este grupo e isomorfo ao grupo das matrizes
ortogonais, tambem notado por O(3).

O subgrupo de O(3) constitudo por todas as transformacoes ortogonais de R3 ,


que tem determinante 1 (isto e, constitudo por todas as rotacoes em R3 ) diz-se o
grupo ortogonal especial e nota-se por SO(3). Este grupo e isomorfo ao grupo
das matrizes ortogonais de determinante 1, tambem notado por SO(3).
Modulo 3

ALGA I. Espacos vectoriais

Contents
3.1 Espacos vectoriais . . . . . . . . . . . . . . . . . . . . . 46
3.2 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.3 Subespacos vectoriais . . . . . . . . . . . . . . . . . . 50
3.4 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . 54

3.1 Espacos vectoriais


Em tudo o que se segue Ik designa o corpo R dos numeros reais ou o corpo C dos
numeros complexos. Aos elementos de Ik chamam-se escalares.

I Definicao 3.1 ... Um conjunto V, cujos elementos se chamam vectores,


diz-se um espaco vectorial, ou um espaco linear, sobre o corpo Ik, se estao
definidas duas operacoes:
V V V
(3.1.1)
(v, w) 7 v + w
chamada soma de vectores e:
Ik V V
(3.1.2)
(, v) 7 v
chamada multiplicacao por escalares, que satisfazem as propriedades seguintes:
[EV 1]. v+w =w+v
[EV 2]. (u + v) + w = u + (v + w)
[EV 3]. 0 V : 0 + v = v + 0 = v
[EV 4]. v, (v) : v + (v) = 0
[EV 5]. (v + w) = v + w (3.1.3)
[EV 6]. ( + )v = v + v
[EV 7]. (v) = ()v
[EV 8]. 1v = v
para todos os vectores u, v, w V, e escalares , Ik. 0 diz-se o vector nulo
de V, e v = (1)v o simetrico de v. Quando Ik = R, V diz-se um espaco
vectorial real e quando Ik = C, V diz-se um espaco vectorial complexo.

46
3.2. Exemplos 47

3.2 Exemplos
Vamos de imediato apresentar diversos exemplos desta importante definicao. Para
fixar ideias, nos exemplos que se seguem, vamos supor que Ik = R (se Ik = C, a
discussao e completamente analoga). A verificacao detalhada de que, em cada
exemplo, se verificam as oito propriedades (3.1.3) fica a cargo do leitor. E um
exerccio facil mas instrutivo.

I Exemplo 3.1 [Os espacos coordenados Rn ] ... Para cada inteiro n


0, definamos V = Rn como o conjunto de todas as sequencias ordenadas de n
numeros reais. Estas sequencias ordenadas podem ser apresentadas sob a forma:

x = (x1 , x2 , , xn ) = (xi ) (3.2.1)

ou sob a forma de vectores-coluna:



x1
def
x2 def

x = .. = [xi ] (3.2.2)
.
xn

As operacoes de soma de vectores e multiplicacao por escalares definem-se respec-


tivamente por:

Rn Rn Rn
def (3.2.3)
(x = [xi ], y = [y i ]) 7 x + y = [xi + y i ]
e:
R Rn Rn
def (3.2.4)
(, x = [xi ]) 7 x = [xi ]
Quando n = 0, poe-se R0 = {0} e quando n = 1, R1 = R. O espaco Rn chama-se
o espaco coordenado real de dimensao1 n.
.

I Exemplo 3.2 [Espacos de funcoes] ... Seja S um conjunto qualquer


nao vazio e definamos V = F(S; R) como o conjunto de todas as funcoes reais
f : S R, definidas em S:
def
V = F(S; R) = {f : S R} (3.2.5)

As operacoes de soma de vectores e multiplicacao por escalares definem-se respec-


tivamente por:
def
(f + g)(s) = f (s) + g(s)
def
(f )(s) = f (s), s S (3.2.6)

onde f, g F(S; R).


.

1A definicao formal de dimensaosera em breve tratada.


3.2. Exemplos 48

I Exemplo 3.3 [Espacos de polinomios numa indeterminada X] ...


Seja V = R[X] o conjunto de todos os polinomios (de qualquer grau) numa inde-
terminada X, com coeficientes reais:
def
V = R[X] = {p(X) = a0 + a1 X + a2 X 2 + + an X n ; ai R, n IN0 }
Xn
= {p(X) = ak X k ; ai R, n IN0 } (3.2.7)
k=0

O inteiro n 0 diz-se o grau do polinomio p(X) (depende de p) e os escalares ai


dizem-se os coeficientes de p. As operacoes de soma de vectores e multiplicacao
por escalares definem-se respectivamente por:
X X def X
p(X) + q(X) = ak X k + bk X k = (ak + bk ) X k
X def X
p(X) = ak X k = (ak ) X k (3.2.8)

onde p, q R[X].
.

I Exemplo 3.4 [Espacos de polinomios numa indeterminada X, de


grau N ]. Fixemos um inteiro N 0 e seja V = RN [X] o conjunto de todos
os polinomios com coeficientes reais, numa indeterminada X, mas agora de grau
inferior ou igual a N :
def
V = RN [X] = {p(X) = a0 + a1 X + a2 X 2 + + aN X N ; ai R}
N
X
= {p(X) = ak X k ; ai R} (3.2.9)
k=0

As operacoes de soma de vectores e multiplicacao por escalares definem-se como


no exemplo anterior, respectivamente por:
N
X N
X N
X
def
ak X k + bk X k = (ak + bk ) X k
k=0 k=0 k=0
N
X N
X
def
ak X k = (ak ) X k (3.2.10)
k=0 k=0

onde p, q RN [X].
.

I Exemplo 3.5 [Espacos de matrizes m n] ... Fixemos dois inteiros


m 1 e n 1 e seja V = Mm,n (R) o conjunto de todas as matrizes com entradas
reais com m linhas e n colunas:
1

A1 A12 A13 A1n


2 2 2 2

def

A13 A23 A33 An3

A1 A2 A3 An
V = Mm,n (R) = A= = [Aij ]; i
Aj R

.. .. .. ..


. . . .




Am
1 A m
2 A m
3 A m
n
(3.2.11)
3.2. Exemplos 49

Portanto na matriz A = [Aij ], o ndice superior i, com i = 1, 2, , m, e o ndice-

linha - o que numera as linhas - enquanto que o ndice inferior j, com j =

1, 2, , n, e o ndice-coluna - o que numera as colunas:

Aindice linha: numera as linhas de A


jndice coluna: numera as colunas de A

As operacoes de soma de vectores e multiplicacao por escalares definem-se re-


spectivamente por:

def
[Aij ] + [Bji ] = [Aij + Bji ]
def
[Aji ] = [Aij ] (3.2.12)

Em particular Mm,1 (R) = Rm e o espaco dos vectores-coluna com m compo-


nentes.
.

I Exemplo 3.6 [Espaco de sucessoes] ... Consideremos agora o conjunto


de todas as sucessoes reais:

def
V = RIN = {s = (s1 , s2 , , si , ) = (si )i1 ; si R, i 1} (3.2.13)

As operacoes de soma de vectores e multiplicacao por escalares definem-se respec-


tivamente por:

def
(si ) + (ti ) = (si + ti )
def
(si ) = (si ) (3.2.14)

E claro que RIN coincide com o espaco de todas as funcoes reais s : IN R,


isto e, RIN F(IN, R).
.

Os exemplos apresentados sao de espacos vectoriais reais. Se em cada um


desses exemplos substituirmos o corpo de escalares R pelo corpo C dos numeros
complexos, obtemos os espacos vectoriais analogos complexos. Nomeadamente, Cn
- o espaco coordenado complexo de dimensao n; F(S; C) - o espaco das funcoes
complexas f : S C; C[X] - o espaco dos polinomios numa indeterminada e com
coeficientes complexos; CN [X] - o espaco dos polinomios numa indeterminada, com
coeficientes complexos e de grau N ; Mm,n (C) - o espaco das matrizes m n
de entradas complexas; e finalmente, CIN = F(IN; C) - o espaco das sucessoes
complexas.
3.3. Subespacos vectoriais 50

3.3 Subespacos vectoriais


I Definicao 3.2 ... Seja V um espaco vectorial sobre um corpo Ik. Um sub-
conjunto nao vazio S V diz-se um subespaco vectorial de V, se S e fechado
relativamente as operacoes de soma de vectores e de multiplicacao por escalares,
i.e.:
[S1]. v, w S v+w S
(3.3.1)
[S2]. Ik, v S v S
v, w V e Ik. Portanto, com as operacoes induzidas, S e ele proprio um
espaco vectorial sobre Ik. Os subespacos S = {0} e S = V dizem-se triviais.
.

Como S 6= existe um vector v 6= 0 em S. Portanto, por (3.3.1) [S1] e [S2],


v + (1)v = 0 S, isto e, se S e um subespaco o vector nulo tem que pertencer
a S.

I Definicao 3.3 ... Seja V um espaco vectorial sobre um corpo Ik.


Se {v1 , v2 , , vm } e um conjunto de m vectores em V, a uma soma (finita) do
tipo:
Xm
i vi = 1 v1 + 2 v2 + + m vm (3.3.2)
i=1
i
onde Ik, chama-se uma combinacao linear dos vectores v1 , v2 , , vm
(com coeficientes em Ik).
.

I Definicao 3.4 ... Seja S V um conjunto qualquer (nao vazio) em V. O


subespaco gerado por S e, por definicao, o conjunto spanIk {S} constitudo por
todas as combinacoes lineares de vectores de S:
(m )
def X
i i
spanIk {S} = vi ; Ik, vi S, m IN (3.3.3)
i=1

E imediato verificar que spanIk {S} e de facto um subespaco vectorial de V. Quando


nao ha risco de confusao escreve-se simplesmente span{S}.

I Exemplo 3.7 ... Os subespacos vectoriais em R2 sao de dois tipos:

(i). triviais: S = {0} e S = R2 .

(ii). nao triviais: S = spanR {a} = {a : R}, onde a 6= 0, que representa


uma recta que passa na origem, gerada por a = 6 0. Se x representa um vector
generico dessa recta, entao:

x = a, R (3.3.4)
3.3. Subespacos vectoriais 51


a1
Esta equacao diz-se a equacao vectorial da recta span{a} = Ra. Se a = ,
a2
entao (3.3.4) e equivalente ao sistema de equacoes:
1
x = a1
(3.3.5)
x 2 = a2
que se dizem as equacoes parametricas da referida recta. Eliminando nestas
equacoes, obtemos a chamada equacao cartesiana dessa mesma recta:
a2 x1 a1 x2 = 0 (3.3.6)

I Exemplo 3.8 ... Os subespacos vectoriais em R3 sao de tres tipos:

(i). triviais: S = {0} e S = R3

(ii). nao triviais de dimensao 1: S = spanR {a} = {a : R}, onde a 6= 0,


que representa uma recta que passa na origem, gerada por a 6= 0. Se x representa
um vector generico dessa recta, entao:
x = a, R (3.3.7)
Esta
1 equacao
diz-se a equacao vectorial da recta span{a} = Ra. Se a =
a
a2 , entao (3.3.7) e equivalente ao sistema de equacoes:
a3
1
x = a1
x2 = a2 (3.3.8)
3
x = a3
que se dizem as equacoes parametricas da referida recta.

(iii). nao triviais de dimensao 2: S = spanR {a, b} = {a + b : , R},


3
onde a e b sao dois vectores nao colinearesem R , que representa um plano que
x1
passa na origem, gerado por a e b. Se x = x2 e um ponto generico do plano
1 1 x3
a b
span{a, b}, e se a = a2 , b = b2 , a equacao vectorial:
a3 b3
x = a + b , R (3.3.9)
que define o referido plano, e equivalente as seguintes equacoes parametricas:
1
x = a1 + b1
x2 = a2 + b2 , R (3.3.10)
3
x = a3 + b3
Eliminando e nestas equacoes obtemos a equacao cartesiana do plano:
(a2 b3 a3 b2 ) x1 + (a3 b1 a1 b3 ) x2 + (a1 b2 a2 b1 ) x3 = 0 (3.3.11)

.
3.3. Subespacos vectoriais 52

I Exemplo 3.9 ... Para cada inteiro fixo N 0, RN [X] e um subespaco de


R[X] (ver os exemplos 3.3 e 3.4).
.

I Exemplo 3.10 ... Consideremos um intervalo I R. O conjunto C 0 (I; R),


constitudo por todas as funcoes contnuas f : I R, e um subespaco de F(I; R)
(ver o exemplo 3.2). Mais geralmente, se k = 0, 1, , e um inteiro fixo ou
, o conjunto C k (I; R), constitudo por todas as funcoes f : I R que admitem
derivadas contnuas de ordem k, e um subespaco de F(I; R)
.

E facil ver que a interseccao de uma famlia qualquer de subespacos, num


espaco vectorial V, e ainda um subespaco de V.

I Definicao 3.5 ... Seja V um espaco vectorial sobre um corpo Ik, e S e T


dois subespacos de V. Diz-se que V e soma directa de S e T , e nota-se por:

V =S T

se cada vector v V se escreve como combinacao linear unica de um vector de S


com um vector de T :

v = s + t, para vectores unicos s S e t T

I Proposicao 3.1 ... Seja V um espaco vectorial sobre um corpo Ik, e S e


T dois subespacos de V. Entao V = S T sse se verificam as duas condicoes
seguintes:
def
[SD1]. V =S +T = spanIk {S T } (3.3.12)
[SD2]. S T = {0}

Dem.: Suponhamos que se verificam as duas condicoes (3.3.12). Entao, dado


um qualquer vector v V, por [SD1] podemos escrever v = s + t, com s S e
t T (nao necessariamente unicos). Mas se houvesse outra representacao do tipo
v = s0 + t0 , com s0 S e t0 T , entao s s0 = t t0 S T . Como, por [SD2],
S T = {0}, conclumos que s = s0 e t = t0 e a representacao e unica, isto e, V e
soma directa de S e T .
Recprocamente, se V e soma directa de S e T , entao [SD1] e imediato. Por
outro lado, 0 = s + (s), onde s S e s T . Mas como esta representacao e
unica, devemos ter s = 0 e portanto S T = {0}.
.

Generalizando, temos a seguinte definicao:


3.3. Subespacos vectoriais 53

I Definicao 3.6 ... Seja V um espaco vectorial sobre um corpo Ik, e S1 , , Sk


subespacos de V. Diz-se que V e soma directa de S1 , , Sk , e nota-se por:

V = S1 Sk = kj=1 Sj

se cada vector v V se escreve como combinacao linear unica:

v = s1 + + sk , para vectores unicos s1 S1 , sk Sk

I Proposicao 3.2 ... Seja V um espaco vectorial sobre um corpo Ik, e S1 , , Sk


subespacos de V. Entao V = kj=1 Sj sse se verificam as duas condicoes seguintes:

Pk def
[SD10 ]. V = S1 + +Sk = j=1 Si = spanIk {kj=1 Sj }
P (3.3.13)
[SD20 ]. Sj i6=j Si = {0} j = 1, . . . , k

I Exemplo 3.11 ... (i). O plano R2 e soma directa de duas quaisquer


rectas vectoriais distintas.
(ii). O espaco R3 e soma directa de tres quaisquer rectas vectoriais distintas
nao coplanares. E tambem soma directa de um plano vectorial e de uma recta nao
pertencente a esse plano.
.

I Exemplo 3.12 ... No espaco vectorial F(R; C) das funcoes complexas


definidas em R, consideremos os subespacos:

P = {funcoes pares} = {f : R C : f (t) = f (t)}


I = {funcoes mpares} = {f : R C : f (t) = f (t)}

E facil ver que, de facto, P e I sao ambos subespacos de F(R; C) e que, alem
disso:
F(R; C) = P I
De facto, se f F (R; C), entao t R:

1 1
f (t) = [f (t) + f (t)] + [f (t) f (t)]
|2 {z } |2 {z }
P I

e, se f P I, entao:

f (t) = f (t) = f (t) 2f (t) = 0, t R f =0

.
3.4. Exerccios 54

3.4 Exerccios
I Exerccio 3.1 ... Diga quais dos seguintes conjuntos sao subespacos vec-
toriais de R2 :

a) A = (x, y) R2 : x = y ;

b) B = (a, a) R2 : a R ;

c) C = (x, y) R2 : x + y 6= 2 ;

d) D = (x, y) R2 : x + 5y = 0 ;

e) E = (x, y) R2 : 3x y = 1 ;

f ) F = (x, y) R2 : |x + 2y| = 3 ;
g) G = {(b, 2a + b) : a, b R} .

I Exerccio 3.2 ... Diga quais dos seguintes conjuntos sao subespacos vec-
toriais de R3 :

a) A = (x, y, z) R3 : x + y + z = 0 ;

b) B = (x, y, z) R3 : x + y = 3z ;

c) C = (x, y, z) R3 : x y = 3z e z = 2y ;

d) D = (x, y, z) R3 : 0 x2 + y 2 z ;

e) E = (a, a, 5a) R3 : a R .

I Exerccio 3.3 ... Diga quais dos seguintes conjuntos sao subespacos vec-
toriais de C2 ou C3 , espacos vectoriais munidos da estrutura usual de espacos
vectoriais complexos:

a) A = (z, w) C2 : z w = 1 ;

b) B = (z, w) C2 : z + 2w = 0 ;

c) C = (u, z, w) C3 : z w = 2u ;

d) D = (u, z, w) C3 : u + z + w > 0 ;
e) E = {(a + b, a b, a + 1) : a, b C} .

I Exerccio 3.4 ... Diga quais dos seguintes conjuntos, sao subespacos vec-
toriais de M2,2 (R):

a b
a) M2,2 (R) : a + 2b = 0 ;
c d

a b
b) M2,2 (R) : c 0 ;
c d

a 0
c) M2,2 (R) : a, c R .
c a

I Exerccio 3.5 ... Diga quais dos seguintes conjuntos sao subespacos vec-
toriais de R (X) :
a) {P R2 (X) : P (3) = 0} ;
b) {P R2 (X) : P (0) = 1} ;
3.4. Exerccios 55

c) {P R3 (X) : P 0 (X) = 0} ;
d) {P R3 (X) : P (1) = 0 e P (2) = 0} ;

e) P (X) = aX + bX 2 : a, b R .

I Exerccio 3.6 ... Sendo V = C o (R, R) o espaco vectorial das funcoes


reais de variavel real contnuas, indique dos conjuntos que se seguem, quais os que
sao subespacos vectoriais de V:
a) {f V :f e par} ; b) {f V : f (2) = f (3)} ;
c) {f V :f (2) = f (3) = 0} ;
d) {f V :f (2) = f (3) = 1} ;
e) {f V :f (x) 0, x R} ; f ) {f V : f e injectiva} .

I Exerccio 3.7 ... Considere os seguintes subespacos vectoriais de R3 :


S = {(x, y, z) : x + y + z = 0} , T = {(x, y, 0) : x, y R} , U = {(, , ) : R} .
a) Mostre que R3 = S + U = S + T .
b) Calcule S U e S T .

I Exerccio 3.8 ... a) De exemplos de subespacos E1 e E2 de R2 tais que


E1 E2 nao seja um subespaco de R2 .
b) De exemplos de E1 , E2 R2 tais que E1 6= R2 e subespaco de R2 , E1 6 E2 ,
E2 nao e subespaco de R2 e E1 E2 e subespaco de R2 .
c) De exemplos de E1 , E2 R2 tais que E1 nao e subespaco de R2 , E2 nao e
subespaco de R2 e E1 E2 e subespaco de R2 .

I Exerccio 3.9 ... Em cada uma das alneas que se seguem, verifique se
x span {a, b}:
a) x = (1, 0), a = (1, 1), e b = (0, 1);
b) x = (2, 1), a = (1, 1), e b = (1, 1);
c) x = (1, 0), a = (1, 1), e b = (2, 2);
d) x = (1, 1), a = (2, 1), e b = (1, 0);
e) x = (4, 3), a = (1, 1), e b = (2, 2).
f ) x = (4i, 3), a = (1, 0), e b = (1, 1), em C2 como espaco vectorial complexo;
g) x = (4i, 3), a = (1, 0), e b = (1, 1), em C2 como espaco vectorial real.

I Exerccio 3.10 ... Em cada uma das alneas que se seguem, verifique se
verifique se x span {a, b, c}:
a) x = (1, 0, 0), a = (1, 1, 1), b = (1, 1, 0) e c = (1, 0, 1);
b) x = (1, 0, 0), a = (1, 1, 2), b = (1, 1, 0) e c = (1, 0, 1);
c) x = (1, 1, 1), a = (0, 1, 1), b = (1, 1, 0) e c = (1, 0, 2);
d) x = (0, 0, 1), a = (1, 1, 1), b = (1, 1, 0) e c = (1, 0, 1);
e) x = (1, 2, 3), a = (1, 1, 1), b = (2, 2, 0) e c = (0, 0, 1).

I Exerccio 3.11 ... Diga quais dos elementos de R (X) sao combinacao
linear de X, X + X 2 e 2X X 2 :
3.4. Exerccios 56

a) 1 + X + X 2 + X 3 ;
b) X 2 ;
c) 3X + X 2 ;
d) 0.

I Exerccio 3.12 ... Diga quais dos seguintes elementos de M3,2 (R) per-
tencem a:
1 1 0 1
span 0 1 , 0 0 :

0 0 1 0

1 3 1 2
a) 0 1 , b) 1 1 .
2 0 3 2
Modulo 4

ALGA I. Aplicacoes lineares.


Isomorfismos lineares

Contents
4.1 Aplicacoes lineares. Isomorfismos lineares. Oper-
adores lineares. Funcionais lineares. O espaco dual
V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . 59

4.1 Aplicacoes lineares. Isomorfismos lineares. Op-


eradores lineares. Funcionais lineares. O espaco
dual V
I Definicao 4.1 ... 1. Sejam V e W dois espacos vectoriais sobre um corpo
Ik. Uma aplicacao L : V W diz-se uma aplicacao linear ou um homomor-
fismo linear de V em W, se L satisfaz as seguintes propriedades:
[L1]. L(v + w) = L(v) + L(w)
(4.1.1)
[L2]. L(v) = L(v)
v, w V e Ik. O conjunto constitudo por todas as aplicacoes lineares de V
em W representa-se por HomIk (V, W) ou simplesmente por Hom(V, W), quando
nao ha risco de confusao.
2. Uma aplicacao linear : V W diz-se um isomorfismo linear, se existe
uma aplicacao : W V tal que = IdW e = IdV . Neste caso = 1
e necessariamente linear (prova ?).
O conjunto constitudo por todos os isomorfismos lineares entre os espacos
vectoriais V e W representa-se por IsomIk (V, W).
3. Uma aplicacao linear L : V V chama-se um operador linear em V. O
conjunto de todos os operadores lineares em V representa-se por OpIk (V) ou apenas
por Op(V).
4. Um isomorfismo linear : V V diz-se um automorfismo linear de V.
O conjunto de todos os automorfismos lineares de V representa-se por AutIk (V) ou
simplesmente por Aut(V).

57
4.1. Aplicacoes lineares. Isomorfismos lineares. Operadores lineares.
Funcionais lineares. O espaco dual V 58

5. Uma aplicacao linear : V Ik, diz-se um funcional linear ou uma


forma linear em V. O conjunto constitudo por todos os funcionais lineares em
V diz-se o espaco dual de V e nota-se por V .
.

HomIk (V, W) tem uma estrutura natural de espaco vectorial sobre Ik, definindo
a soma de aplicacoes lineares e a multiplicacao por escalares, respectivamente por:
def
(L + M)(v) = L(v) + M(v)
def
(L)(v) = L(v) (4.1.2)

Em particular o espaco dual V tem uma estrutura natural de espaco vectorial


sobre Ik. Alias V e um subespaco de F(V; Ik) (ver o exemplo 3.2).
Op(V) tem uma estrutura natural de Ik-algebra, que se diz a algebra de
operadores (lineares) de V.
Aut(V) tem uma estrutura natural de grupo que se diz o grupo linear geral
de V, e que se nota por G`(V).

I Definicao 4.2 ... Dado uma aplicacao linear L : V W define-se o re-


spectivo nucleo, ker L V, atraves de:
def
ker L = {v V; L(v) = 0} (4.1.3)

e a imagem, im L W, atraves de:


def
im L = {w W; w = L(v), v V} (4.1.4)

I Proposicao 4.1 ... O nucleo ker L e um subespaco de V. A imagem im L


e um subespaco de W.

Dem.: [S1]. se v, w ker L, entao L(v + w) = L(v) + L(w) = 0 + 0 = 0 e


portanto v+w ker L. [S2]. Se v ker L e Ik, entao L(v) = L(v) = 0 = 0
e portanto v ker L.
Demostracao analoga para im L.
.

Uma aplicacao linear L : V W envia sempre o vector nulo de V no vector


nulo de W. Por outro lado, L : V W e injectiva se e so se ker L = {0}. Com
efeito, se ker L = {0} entao L(u) = L(v) 0 = L(u) L(v) = L(u v)
u v ker L = {0} u = v. Se L e injectiva, entao, se v ker L tem-se
L(v) = 0 = L(0) v = 0.

I Exemplo 4.1 ... Seja V = C 0 (R; R) = {f : R R; f contnua}. Entao:

0 : C 0 (R; R) R
def (4.1.5)
f 7 0 [f ] = f (0)
4.2. Exerccios 59

e um funcional linear que se diz o funcional de Dirac. O seu nucleo ker 0 e


constitudo por todas as funcoes f : R R que se anulam no ponto 0.
.

I Exemplo 4.2 ... Seja V = C 0 ([a, b]; R) = {f : [a, b] R; f contnua}.


Entao:
: C 0 ([a, b]; R) R
def R b (4.1.6)
f 7 [f ] = a
f (t)dt
e um funcional linear. O nucleo ker e trivial, isto e, e constitudo pelas funcoes
Rb
contnuas de area (algebrica) nula, i.e., tais que [f ] = a f (t)dt = 0.
.

I Exemplo 4.3 ... Seja V = Rn o espaco coordenado real de dimensao


n do exemplo 3.1. Fixemos uma sequencia ordenada de n numeros reais a =
(a1 , a2 , , an ), representada por um vector-linha [a1 a2 an ] = [ai ], isto
e, por uma matriz com uma so linha e n colunas. Definimos entao um funcional
linear a em Rn , associado a a, atraves de:
1
x
x2 def X n

a (x) = [a1 a2 an ] . = ai xi (4.1.7)
.. i=1
xn

Num captulo futuro demonstrar-se-a que todo o funcional linear em Rn e do


tipo a , para algum a = [ai ]. Portanto o espaco dual (Rn ) identifica-se com
o espaco dos vectores-linha a = [ai ]. Quando a 6= 0 o nucleo ker a define um
hiperplano em Rn .
Consideracoes completamente analogas permitem concluir que (Cn ) se iden-
tifica com o espaco dos vectores-linha a = [ai ], mas agora com ai C.
.

4.2 Exerccios
I Exerccio 4.1 ... Das aplicacoes que se seguem, indique aquelas que sao
lineares. Relativamente a essas, calcule o respectivo nucleo e diga quais as que sao
injectivas.
a) f : R2 R2 ; (x, y) 7 (x + y, x y)
b) f : R3 R2 ; (x, y, z) 7 (2x + y, z 3y)
c) f : R2 R2 ; (x, y) 7 (|x| , |y|)
d) f : R2 R3 ; (x, y) 7 (x2 , y 2 , 0)
e) f : R4 R2 ; (x, y, z, t) 7 (x + y + 1, z + t + 2)
f) f : R2 R1 (X) ; (a, b) 7 a + bX
g) f : R3 (X) R1 (X) ; a + bX + cX 2 + dX 3 7 (a + b) + (c 2d)X
4.2. Exerccios 60

h) f : R2 (X) R2 (X) ; a + bX + cX 2 7 (a + 1) + (b + c)X + 2cX 2

i) f : R3 (X) R; P 7 P (1)
j) f : R (X) R (X) ; P 7 P 0
l) f : C2 C2 ; (z, w) 7 (iz + w, z + iw) considere K = R
2 2
m) f : C C ; (z, w) 7 (iz, w) considere K = R
2 2
n) f : C C ; (z, w) 7 (iz, w) considere K = C
Modulo 5

ALGA I. Bases, coordenadas


e dimensao

Contents
5.1 Bases, coordenadas e dimensao . . . . . . . . . . . . . 61
5.2 Calculos com coordenadas. Problemas . . . . . . . . . 68
5.3 Mudancas de base e de coordenadas . . . . . . . . . . 71
5.4 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . 73

5.1 Bases, coordenadas e dimensao


I Definicao 5.1 ... Seja V um espaco vectorial sobre um corpo Ik. Diz-se que
os vectores v1 , v2 , , vm V sao linearmente independentes se verificam a
condicao seguinte:

[LI]. 1 v1 +2 v2 + +m vm = 0 1 = 2 = = m = 0 (5.1.1)

Caso contrario esses mesmos vectores dizem-se linearmente dependentes. Por-


tanto v1 , v2 , , vm V sao linearmente dependentes quando existem escalares
1 , , m Ik nao todos nulos tais que:

1 v1 + 2 v2 + + m vm = 0

I Definicao 5.2 [Base finita] ... Seja V um espaco vectorial sobre um corpo
Ik. Um conjunto ordenado de vectores B = {e1 , e2 , , en } em V diz-se uma base
finita (ordenada) de V se:

[B1]. e1 , e2 , , en sao linearmente independentes


(5.1.2)
[B2]. spanIk {e1 , e2 , , en } = V

O espaco vectorial V diz-se de dimensao finita se admite uma base finita. Caso
contrario diz-se de dimensao infinita.
.

61
5.1. Bases, coordenadas e dimensao 62

Suponhamos que B = {e1 , e2 , , en } e uma base (finita) de V. Entao por


(5.1.2) [B2]., todo o vector v V pode escrever-se como combinacao linear dos
vectores de B, isto e, existem escalares v i Ik, i = 1, , n, tais que:
n
X
v= v i ei = v 1 e1 + + v n en (5.1.3)
i=1

Alem disso, por (5.1.2) [B1]. esses escalares sao unicos (dependem apenas de
i
v).
Pn De ifacto, se existissem outros escalares Ik, i = 1, , n, tais que v =
i=1 ei entao viria que:

n
X
0= (v i i )ei i = v i , i = 1, , n
i=1

uma vez que por [B1]. os vectores de B sao linearmente independentes.

I Proposicao 5.1 ... Sejam V e W dois espacos vectoriais sobre um mesmo


corpo Ik, em que V tem dimensao finita. Seja {e1 , . . . , en } uma base de V e
w1 , . . . , wn , n vectores quaisquer de W. Entao existe uma e uma so aplicacao
linear L : V W tal que:

L(ei ) = wi , i = 1, . . . , n

P i
Dem.: Todo o vector v V exprime-se na formaunica
P i v = P i v ei . Se se
i
pretende
P i que L seja linear, devemos ter que L(v) = L i v e i = i v L(ei ) =
i v wi . Basta entao definir:
X
L(v) = v i wi
i

que e linear. Se existisse outra aplicacao M tal que M(ei ) = wi = L(ei ), entao
(L M)(ei ) = 0 e, como {ei } e uma base, L = M.
.

Desta forma, se V tem dimensao finita, cada base finita B estabelece um iso-
morfismo B : V
= Ikn , entre V e Ikn , definido por:
1
v
v2 Xn

B : v 7 . , onde v = v i ei V (5.1.4)
.. i=1
vn

Os escalares v i , i = 1, , n dizem-se as coordenadas de v, relativas a base B.


Escrevemos, neste caso, v = [v i ]B , ou apenas v = [v i ] (ou ate v = v i ), se nao
houver risco de confusao.

I Lema 5.1 ... Seja {v1 , , vn } uma sucessao de n vectores num espaco
vectorial V. Seja w1 , , wn+1 uma sucessao de n + 1 combinacoes lineares dos
vectores v1 , , vn . Entao os vectores w1 , , wn+1 sao linearmente dependentes.
5.1. Bases, coordenadas e dimensao 63

Portanto, dois vectores w1 e w2 , que sejam colineares com um vector v1 , sao


linearmente dependentes; tres vectores w1 , w2 e w3 , que sejam coplanares com
dois vectores v1 e v2 , sao linearmente dependentes; etc...
Dem.: (facultativa) (prova por inducao sobre n).

Se n = 1, entao w1 = 1 v1 e w2 = 2 v1 sao linearmente dependentes.

Suponhamos agora que o teorema e verdadeiro para n e demonstremos que


continua verdadeiro para n + 1. Sejam w1 , , wn+2 combinacoes lineares
dos vectores v1 , , vn+1 . Podemos entao escrever:

w1 = 1 v1 + u1
w2 = 2 v1 + u2
..
.
wn+1 = n+1 v1 + un+1
wn+2 = n+2 v1 + un+2

onde u1 , , un+2 sao combinacoes lineares dos vectores v2 , , vn+1 .


Se 1 = = n+1 = 0 entao teramos que w1 , , wn+1 sao combinacoes
lineares dos vectores v2 , , vn+1 . Pela hipotese de inducao, os w1 , , wn+1
sao linearmente dependentes e portanto os w1 , , wn+2 sao tambem lin-
earmente dependentes.
Suponhamos agora que algum dos j 6= 0, para j = 1, , n + 1. Mudando
se necessario a ordem dos vectores, podemos supor que j = 1, isto e, que
1 6= 0. Temos entao que:
1 1
v1 = w1 1 u1
1
w2 = 2 v1 + u2
2 2
= 1
w1 1 u1 + u2

2
w2 1 w1 = u02 , onde u02 e combinacao linear de u1 e u2

Analogamente se obtem que:

3
w3 w1 = u03
1
..
.
n+2
wn+2 w1 = u0n+2
1
onde os u02 , , u0n+2 sao n + 1 combinacoes lineares de u1 , , un+2 e
portanto tambem dos vectores v2 , , vn+1 . Pela hipotese de inducao, os
u02 , , u0n+2 sao linearmente dependentes:

02 u02 + + 0n+2 u0n+2 = 0

donde:

2 n+2
02 w2 1 w1 + + 0n+2 wn+2 1 w1 = 0

5.1. Bases, coordenadas e dimensao 64

isto e:
01 w1 + 02 w2 + + 0n+2 wn+2 = 0
onde pelo menos um dos 20 , , 0n+2 e nao nulo, o que significa que
w1 , , wn+2 sao linearmente dependentes.

I Teorema 5.1 (Dimensao) ... Seja V um espaco vectorial de dimensao


finita sobre Ik. Entao:
[1.] todas as bases tem o mesmo numero de vectores linearmente independentes.
A este numero, comum a todas as bases, chama-se a dimensao de V (sobre
Ik), e nota-se por dim Ik V, ou simplesmente por dim V, quando nao ha risco de
confusao.
[2.] Se dim Ik V = n, n vectores linearmente independentes formam uma base.

Dem.: [1.] Sejam {e1 , , en } e {f1 , , fp } duas bases de V. Se p > n,


entao, uma vez que os f1 , , fp sao combinacoes lineares dos ei , pelo lema 5.1,
conclumos que os f1 , , fp sao linearmente dependentes, o que e absurdo por
definicao de base. Analogamente, nao podemos ter n > p.
[2.] Seja {e1 , , en } uma base de V e v1 , , vn uma sucessao de vectores lin-
earmente independentes em V. Para mostrar que formam uma base basta mostrar
que geram V. Seja v V. Pelo lema 5.1, a sucessao {v1 , , vn , v} e uma
sucessao de vectores linearmente dependentes, uma vez que esses n + 1 vectores
sao combinacoes lineares dos {e1 , , en }. Portanto:

1 v1 + + n vn + v = 0

onde os 1 , , n , nao sao todos nulos. Mas 6= 0, caso contrario os v1 , , vn


seriam linearmente dependentes. Logo:

1 n
v= v1 vn

o que mostra que os v1 , , vn geram V.
.

I Teorema 5.2 (da base incompleta) ... Seja V um espaco vectorial de


dimensao finita sobre um corpo Ik: dim Ik V = n. Entao, dada uma qualquer
sucessao {f1 , , fp }, com p n, de vectores linearmente independentes, podemos
encontrar q = np vectores fp+1 , , fn tais que {f1 , , fp , fp+1 , , fn } formam
uma base para V.

Dem.: (facultativa) (inducao sobre q = 0, 1, , n). Se q = 0 nada ha a


provar. Seja

Aq : para todo o V, todo o n = dim V, e todo o p tal que n = p + q,


toda a sucessao {f1 , , fp }, de vectores linearmente indepen-
dentes, pode ser completada a uma base de V.
5.1. Bases, coordenadas e dimensao 65

Demonstremos que Aq Aq+1 , se 0 q < q + 1 n. Seja {f1 , , fp1 }


uma sucessao de vectores linearmente independentes. Como p n, temos que
p 1 n 1 e o subespaco gerado por f1 , , fp1 e distinto de V. Se fp e
um vector de V, que nao pertence a esse subespaco, entao {f1 , , fp1 , fp } e
ainda uma sucessao de vectores linearmente independentes, que, de acordo com
Aq , podemos completar numa base de V Resulta entao que {f1 , , fp1 } pode
igualmente ser completada numa base de V, o que demonstra Aq+1 .
.

V um espaco vectorial de dimensao finita,


I Teorema 5.3 ... Seja W um espaco vectorial qualquer
L : V W uma aplicacao linear
Entao ker L e im L sao ambos de dimensao finita e:

dim ker L + dim im L = dim V (5.1.5)

Dem.: ker L tem dimensao finita por ser subespaco de um espaco vectorial
de dimensao finita. Seja {e1 , . . . , em } uma base de ker L e completemos esta base
a uma base {e1 , . . . , em , em+1 , . . . , en } de V, onde n = dim V. Vamos mostrar que
{L(em+1 ), . . . , L(en )} formam uma base para im L, o que demonstrara o teorema.
Qualquer vector em im L tem a forma:
n ! n
X X
i
L v ei = v i L(ei )
i=1 i=m+1

o que mostra que L(em+1 ), . . . , L(en ) geram im L.


Pn Pn
Suponhamos agora que i=m+1 v i L(ei ) = 0. Entao L i=m+1 v i ei = 0, o
Pn
que significa que i=m+1 v i ei ker L, isto e:
n
X m
X
v i ei = j ej
i=m+1 j=1

Mas isto so e possvel se todos os coeficientes v i e j se anularem, ja que {e1 , . . . , en }


e uma base de V. Portanto os vectores L(em+1 ), . . . , L(en ) sao linearmente inde-
pendentes.
.

V um espaco vectorial de dimensao finita


I Corolario 5.1 ... Seja W um espaco vectorial qualquer
L : V W uma aplicacao linear
Entao as propriedades seguintes sao equivalentes:

(i). L e injectiva
(ii). dim V = dim (im L) (5.1.6)
(iii). ker L = {0}

.
5.1. Bases, coordenadas e dimensao 66

V um espaco vectorial qualquer


I Teorema 5.4 ... Seja
S, T dois subespacos de dimensao finita de V
Entao S T e S + T tem dimensao finita e, alem disso:

dim (S + T ) = dim S + dim T dim (S T ) (5.1.7)

Dem.: (facultativa) Recorde que S + T = spanIk {S T }. Como S + T


e gerado pela reuniao de bases para S e T , respectivamente, entao S + T tem
dimensao finita. Por outro lado, S T tem dimensao finita por estar contido em
subespacos de dimensao finita.
Suponhamos agora m = dim S T , s = dim S e t = dim T . Escolhamos uma
base {e1 , . . . , em } para S T . Pelo teorema da base incompleta, esta base pode
ser completada a bases de S e T , digamos {e1 , . . . , em , e0m+1 , . . . , e0s }, para S, e
{e1 , . . . , em , e00m+1 , . . . , e00t } para T , respectivamente.
Vamos mostrar que {e1 , . . . , em , e0m+1 , . . . , e0s , e00m+1 , . . . , e00t } e uma base para
S + T , o que provara (5.1.7).
Como qualquer vector em S + T e uma soma de vectores em S e T , isto e, uma
soma de combinacoes lineares de

{e1 , . . . , em , e0m+1 , . . . , e0s } e {e1 , . . . , em , e00m+1 , . . . , e00t }

a reuniao destes conjuntos de vectores geram S + T . Resta portanto provar a


independencia linear. Suponhamos entao que:

n
X s
X t
X
xi ei + y j e0j + z k e00k
i=1 j=m+1 k=m+1

e uma combinacao linear nao trivial.


Entao deverao existir ndices j e k, tais que y j 6= 0 e z k 6= 0 pois, caso contrario,
obteramos uma dependencia linear nao trivial entre os elementos das bases de S
e T , acima escolhidas.
Pt
Portanto, o vector nao nulo k=m+1 z k e00k T deve pertencer tambem a S
P Ps
n i j 0
porque e igual a i=1 x e i + j=m+1 y e j . Mas entao esse vector tem que
estar em ST e pode pois ser representado por uma combinacao linear dos vectores
{e1 , . . . , em }. Mas esta representacao da uma dependencia linear nao trivial entre
os {e1 , . . . , em , e00m+1 , . . . , e00t } o que e absurdo, ja que eles formam uma base de T .
.

I Exemplo 5.1 ... Os vectores de R3 :




1 0 0
= 0
e1 = b e2 = b = 1 e b= 0
e3 = k
0 0 1

sao linearmente independentes, e tem a propriedade de que qualquer vector x =


5.1. Bases, coordenadas e dimensao 67


x1
x2 , se pode escrever como combinacao linear de e1 , e2 e e3 . De facto:
x3

x1 1 0 0
x = x2 = x1 0 + x2 1 + x3 0
x3 0 0 1
= x1 e1 + x2 e2 + x3 e3
= x1b b
+ x2 b + x3 k (5.1.8)

b = {e1 , e2 , e3 } e uma base (ordenada): a base


, b, k}
Diz-se entao que {b
canonica de R . Portanto dim R R3 = 3.
3

I Exemplo 5.2 ... Mais geralmente os n vectores {ei }i=1, ,n definidos por:

0
..
.

ei =
1 , com 1 na linha i e zeros nas outras entradas (5.1.9)
.
..
0
constituem a base canonica de Ikn . Portanto dim Ik Ikn = n.

I Exemplo 5.3 ... Os monomios {1, X, X 2 , , X N } constituem uma base


para o espaco IkN [X] dos polinomios em X, com coeficientes em Ik, de grau N .
Portanto dim Ik IkN [X] = N + 1.

I Exemplo 5.4 ... No exemplo 3.3, onde V = F(S; R) suponhamos que S


e um conjunto finito, com n elementos, digamos S = {1, 2, , n}. Definamos as
funcoes de Dirac i F(S; R), para i = 1, , n, atraves de:

1 se i = j
i (j) = (5.1.10)
0 se i 6= j
Entao B = {i }i=1, ,n constituem uma base para F({1, 2, , n}; R). De facto:
[B1]. Se 1 1 + +n n = 0 1 1 (j)+ +n n (j) = 0(j) = 0, j S.
Fazendo sucessivamente j = 1, 2, , n obtemos que 1 = 2 = = n = 0, isto
e os i 0 s sao linearmente independentes.
[B2]. Seja f uma funcao em F({1, 2, , n}; R). E obvio que:
n
X
f= f (i)i
i=1

e portanto spanR {i } = F(S; R), quando S = {1, 2, , n}. As coordenadas de f


relativas a base B = {i } sao os escalares f (i) R, 1, , n.
Portanto dim R F(S; R) = n, quando S tem n elementos.

I Exemplo 5.5 ... No espaco Mm,n (Ik) das matrizes m n com entradas
em Ik, o conjunto das mn matrizes elementares Eij que tem um 1 na entrada
(i, j), isto e, na interseccao da linha i com a coluna j, e 0s em todas as outras
entradas, formam uma base de Mm,n (Ik). Portanto dim Ik Mm,n (Ik) = mn.
.
5.2. Calculos com coordenadas. Problemas 68

5.2 Calculos com coordenadas. Problemas


Nesta seccao

V representa um espaco vectorial sobre um corpo Ik, de


dimensao finita, dim Ik V = n, e B = {e1 , , en } uma base fixa
para V.

Usamos frequentemente a convencao de Einstein.

I Problema 5.1 ... Dados m vectores v1 , , vm , em V, verificar se


eles sao ou nao linearmente independentes.

Resolucao ... Por definicao de independencia linear, a questao e saber se:


X
j vj = 1 v1 + + m vm = 0 1 = = m = 0 (5.2.1)
j

Representemos cada vector dado, na base B:

vj = vji ei j = 1, , m (5.2.2)

Entao (5.2.1) escreve-se na forma:


X
j vj = (j vji ) ei = 0 vji j = 0, i = 1, , n
j
P
As equacoes j vji j = 0, i = 1, , n, constituem um sistema homogeneo de
n equacoes lineares a m incognitas 1 , , m .

Se este sistema admite uma unica solucao - a trivial, em que todos os j sao
nulos - os vectores v1 , , vm , sao linearmente independentes
Se este sistema admite outras solucoes nao triviais, os vectores v1 , , vm
sao linearmente dependentes.

I Problema 5.2 ... Dados m vectores v1 , , vm , em V, e um vector


v V, verificar se:
v spanIk {v1 , , vm }

Resolucao ... Por definicao de spanIk {v1 , , vm }, a questao e saber se exis-


tem escalares 1 , , m Ik, tais que:
X
v = 1 v1 + + m vm = j vj (5.2.3)
j

Representemos cada vector dado, na base B:

v = v i ei
vj = vji ei , j = 1, , m (5.2.4)
5.2. Calculos com coordenadas. Problemas 69

Entao (5.2.3) escreve-se na forma:


X
v i ei = j vj = (j vji ) ei = 0 vi = vji j , i = 1, , n
j
P
As equacoes j vji j = v i , i = 1, , n, constituem um sistema nao homogeneo
de n equacoes lineares a m incognitas 1 , , m . A questao resume-se agora em
saber se este sistema admite solucao.
.

I Problema 5.3 ... Sabendo que dim V = n, e dados n vectores f1 , , fn ,


em V, verificar se eles formam uma base para V.

Resolucao ... Basta mostrar que f1 , , fn sao linearmente independentes, o


que se reduz ao problema 5.1.
.

I Problema 5.4 ... Dados m vectores a1 , , am , em V, calcular uma


base para:
S = spanIk {a1 , , am }
e calcular a dimensao dim Ik S.

Resolucao ... Por definicao, spanIk {a1 , , am } consiste de todos os vectores


v que sao combinacao linear dos vectores a1 , , am :

S = spanIk {a1 , , am }
X
= {v = j aj : j Ik, j = 1, , m} (5.2.5)
j

O problema consiste em encontrar vectores em S que sejam linearmente indepen-


dentes e que gerem S. A resolucao baseia-se no lema seguinte, cuja demonstracao
e simples (exerccio):

I Lema 5.2 ... Com as notacoes anteriores, tem-se que, 6= 0 e j 6= k:

[OpEl1]. spanIk {a1 , , aj , , ak , , am }


= spanIk {a1 , , ak , , aj , , am }
[OpEl2]. spanIk {a1 , , aj , , am } = spanIk {a1 , , aj , , am }
[OpEl3]. spanIk {a1 , , aj , , ak , , am }
= spanIk {a1 , , aj , , aj + ak , , am }
(5.2.6)
.

Representemos agora cada vector dado aj , j = 1, , m, na base B:


X
aj = aij ei j = 1, , m (5.2.7)
i

e consideremos a matriz A = [aij ], que e uma matriz n m, cujas colunas sao as


componentes de cada aj na base B. E mais tradicional (e natural, como veremos
5.2. Calculos com coordenadas. Problemas 70

adiante) tomar a matriz transposta At = [aji ], que e agora uma matriz m n,


cujas linhas sao as componentes de cada aj na base B:

a11 a21 an1
a12 a22 an2

At = .. .. ..
. . .
a1m a2m anm

As operacoes referidas no lema 5.2, traduzem-se nas seguintes operacoes ele-


mentares sobre as linhas de At :

[OpEl1]. permutar as linhas j e k


[OpEl2]. substituir a linha j pela linha que se obtem multiplicando-a
por um escalar nao nulo
[OpEl3]. substituir a linha k pela linha que se obtem adicionando-lhe
a linha j multiplicada por um escalar nao nulo
(5.2.8)
O lema afirma que spanIk {a1 , , am } se mantem inalterado por estas operacoes
elementares. Resta entao reduzir a matriz At a forma escalonada, usando as
operacoes elementares referidas, para da deduzir uma base para spanIk {a1 , , am }.
Vejamos um exemplo concreto:

I Exemplo 5.6 ... Em R3 [X] calcular uma base para:

spanR {1 + X X 3 , X X 2 , 1 + X 2 X 3 }

Os calculos vao efectuar-se usando a base B = {1, X, X 2 , X 3 } para R3 [X]. A


matriz At e portanto:

1 1 0 1
At = 0 1 1 0
1 0 1 1
que se reduz a forma escalonada, atraves das operacoes elementares seguintes:

1 1 0 1 1 1 0 1
0 1 1 0 [OpEl1] 1 0 1 1
1 0 1 1 0 1 1 0

1 1 0 1
[OpEl2] 1 0 1 1
0 1 1 0

1 1 0 1
[OpEl3] 0 1 1 0
0 1 1 0

1 1 0 1
[OpEl3] 0 1 1 0
0 0 0 0

Portanto {1 + X X 3 , X X 2 } e uma base para S que tem por isso dimensao 2.

.
5.3. Mudancas de base e de coordenadas 71

5.3 Mudancas de base e de coordenadas


Suponhamos que V e um espaco vectorial e que:

C = e1 e2 en

e uma base qualquer, escrita como um vector-linha com entradas vectoriais ei . Se


v V e um vector qualquer em V, designemos por v i as suas componentes na base
C , isto e:
X
v = v i ei
i

v1

v2

= e1 e2 en ..
.
vn
= C [v]C (5.3.1)

Suponhamos agora que mudamos para uma outra base:



C Cb = be1 b e2 b
en (5.3.2)

Dado um vector arbitrario v V, como se relacionam as


coordenadas de v na base Cb com as coordenadas de v na
base C ?

Mais detalhadamente, dado v V, podemos escrever v como combinacao linear


dos elementos da base C e tambem como combinacao linear dos elementos da base
Cb:
n
X
v = v i ei
i=1
n
X
= vbj b
ej (5.3.3)
j=1

Isto significa que o vector-coluna das coordenadas de v, relativamente a base


C , e: 1
v
v2

.. = (v i )C
.
vn C

enquanto que o vector-coluna das coordenadas de v, relativamente a base Cb, e:


1
vb
vb2

.. = (b v i )Cb
.
vbn Cb
5.3. Mudancas de base e de coordenadas 72

A questao e pois: como se relacionam as coordenadas vbi com as coor-


denadas v i ?
Para responder a esta questao, comecemos por escrever cada elemento da base
Cb, como combinacao linear dos vectores da base C , isto e, para cada
j = 1, 2, , n fixo pomos:
n
X
b
ej = Pji ei = ei Pji (5.3.4)
i=1

que escrevemos na forma matricial seguinte:



P11 P21 Pn1

P12 P22 Pn2

b
e1 b
e2 b
en = e1 e2 en .. .. .. (5.3.5)
. . .
P1n P2n Pnn

ou muito simplesmente:
Cb = C P

Recordando que vbi sao as componentes do vector v na base Cb, e que v j sao as
componentes do mesmo vector v na base C isto e:
X
v = vbi b
ei
i

= Cb[v]Cb (5.3.6)

vem entao que:


C [v]C = v = Cb[v]Cb = C P [v]C P
o que implica que, uma vez que v e arbitrario:

[v]C = P [v]C P

Multiplicando a esquerda por P 1 , conclui-se entao que:

C C P [v]C P = P 1 [v]C (5.3.7)

Podemos tambem fazer os calculos com a notacao de Einstein:

v = vbj b
ej
= vbj (Pji ei ) por (5.3.4)
= (Pji v j ) ei (5.3.8)

Como, por outro lado:


v = v i ei
comparando com (5.3.8), conclumos que:

vbi = (P 1 )ij v j (5.3.9)

o que confirma o que tnhamos obtido.


A matriz P = [Pji ], calculada atraves de (5.3.4), diz-se a matriz de passagem
da base C para a base Cb. Esta mesma matriz permite passar das coordenadas
v i para as coordenadas vbi :
5.4. Exerccios 73

Nota... A afirmacao (5.3.7) diz-nos que um vector v e um objecto contravariante.


Por outras palavras, um vector v V, pode ser definido como sendo uma classe de
equivalencia de pares C , (v i ) , onde dois desses pares sao considerados equivalentes:

C , (v i ) Cb, (b
vi )
se e so se existe uma matriz P = (Pji ) inversvel tal que:
i
Cb = C P e vbi = P 1 k v k

5.4 Exerccios
I Exerccio 5.1 ... Verifique se os vectores que se seguem sao linearmente
dependentes ou independentes:
a) (1, 1, 1), (0, 1, 2) em R3 ;
b) (1, 1, 0), (0, 1, 1) e (1, 3, 2) em R3 ;
c) (1, 0), (2, 1) em R2 ;
d) (1, 1), (2, 2) em R2 ;
e) (1, 1, 0), (0, 1, 2) em R3 ;
f ) (, 0), (0, 1) em R2 ;
g) (1, 2), (2, 3), (1, 1) em R2 ;
h) (0, 1, 1), (0, 2, 1), (1, 5, 3) em R3 ;
i) {(1, i), (i, 1)} em C2 ;
j) {(1, i, 0), (i + 1, 1 + i, 0), (0, 0, 1)} em C3 ;

I Exerccio 5.2 ... Considere o espaco vectorial real E das funcoes de R em


R representadas por f (x).
Verifique se as seguintes funcoes sao linearmente independentes em E :
a) f (x) = 1, f (x) = x b) f (x) = x, f (x) = x2 c) f (x) = 2, f (x) = x,
f (x) = 1 + 3x d) f (x) = xex , f (x) = e2x e) f (x) = sin x, f (x) = cos x
j) f (x) = sin2 x, f (x) = cos2 x, f (x) = 3 l) f (x) = sin2 x, f (x) = cos2 x,
f (x) = cos 2x.

I Exerccio 5.3 ... Diga se os seguintes subconjuntos de R (X) sao livres ou


ligados:

a) 1 + X + X 2 , 1 + X, 2 X ;

b) 1 X X 2 , 1 + 2X + X 2 , 4 ;

c) 1 + X + X 2 , 1 + X, 2 + 2X + X 2 .

I Exerccio 5.4 ... No espaco dos polinomios V = R2 [X], considere B =


{1, X, X 2 } e Bb = {1 X 2 , 1 X, 1 + X + 3X 2 }.
(i). Mostre que B e Bb sao ambas bases de V.
(ii). Calcule a matriz de passagem da base Bb para a base B.
(iii). Calcule as coordenadas de p(X) = 2 X relativamente a cada uma das
bases referidas.
5.4. Exerccios 74

I Exerccio 5.5 ... Sejam u, v, w tres vectores linearmente independentes


de um espaco vectorial V. Mostre que u + v, u v e u 2v + w tambem sao
linearmente independentes.

I Exerccio 5.6 ... Seja E um espaco vectorial real.


a) Mostre que se u, v, w sao tais que w = 2u + v entao, u, v e w sao linear-
mente dependentes.
b) Mostre que se u1 , u2 , . . . , un1 , un E sao tais que un e combinacao linear
de u1 , u2 , . . . , un1 , entao u1 , u2 , . . . , un1 , un sao linearmente dependentes.
c) De um exemplo para E=R2 de dois vectores u, v linearmente dependentes,
tais que v nao seja multiplo de u.

I Exerccio 5.7 ... Em cada um dos casos, calcule o subespaco gerado por
A:
a) A = {(1, 1), (2, 2)} em R2 ;
b) A = {(1, 0), (5, 0)} em R2 ;
c) A = {(2, 1), (1, 0)} em R2 ;
d) A = {(1, 0, 1), (0, 1, 0)} em R3 ;
e) A = {(1, 0, 1), (0, 1, 0), (0, 0, 1)} em R3 ;
f ) A = {(3, 0, 0), (0, 2, 0)} em R3 ;

g) A = 1 + X, X 2 em R (X) ;

h) A = 1 X, X 2 , 1 X + X 2 em R (X) ;

i) A = 1, 1 + X, 2X + X 2 em R (X) ;

1 0 0 2
j) A = , em M2,2 (R);
0 1 0 0
l) A = {(1, 0, i), (0, i, i)} em C2 .

I Exerccio 5.8 ... Verifique se os conjuntos que se seguem, sao ou nao


bases de cada um dos espacos vectoriais indicados em cada alnea:
a) {(1, 1), (3, 1)} em R2 ;
b) {(0, 1), (0, 3)} em R2 ;
c) {(2, 1), (1, 1), (0, 2)} em R2 ;
d) {(1, 1, 1), (1, 1, 5)} em R3 ;
e) {(1, 1, 1), (1, 2, 3), (2, 1, 1)} em R3 ;
f ) {(1, 2, 3), (1, 0, 1), (3, 1, 0), (2, 1, 2)} em R3 ;
g) {(1, 1, 2), (1, 2, 5), (5, 3, 4)} em R3 ;

h) 1 + X, X 2 , 2 + 2X + 3X 2 em R2 (X) ;

i) 1 + X, X 2 , 3 em R2 (X) ;

j) 1 + X, X 2 , 2 + 2X + 3X 2 , X 3 em R2 (X) ;

1 1 1 0 1 2
l) , , em M2,2 (R) .
1 1 0 0 1 3
5.4. Exerccios 75

I Exerccio 5.9 ... Seja W o subespaco de R (X) gerado por X 3 2X 2 +


4X + 1, 2X 3 3X 2 + 9X 1, X 3 + 6X 5, 2X 3 5X 2 + 7X + 5. Determine uma
base e a dimensao de W.

I Exerccio 5.10 ... Determine a dimensao do subespaco gerado por:


a) (1, 2, 3, 1), (1, 1, 2, 3);
b) (3, 6, 3, 9), (2, 4, 2, 6);
c) X 3 + 2X 2 + 3X + 1, 2X 3 + 4X 2 + 6X + 2;
d) X 3 2X 2 + 5, X 2 + 3X 4;

1 2 1 1
e) , ;
1 2 2 2

1 1 3 3
f) , .
1 1 3 3

I Exerccio 5.11 ... Calcule uma base de cada um dos subespacos que se
seguem, e depois as coordenadas do vector u em cada uma das bases:

a) S = (x, y) R2 : x + y = 0 , u = (3, 3);

b) S = (x, y) R2 : 2x = y , u = (4, 8);

c) S = (x, y, z) R3 : x + y + z = 0 , u = (1, 1, 2);

d) S = (x, y, z) R3 : 2x y = z , u = (3, 2, 4);

e) S = (x, y, z, t) R4 : x y = 0, z + t = 0 , u = (1, 1, 2, 2);

f ) S = a + bX + cX 2 + dX 3 R3 (X) : a + 2c = 0 , u = 2 +2X X 2 +3X 3 ;

g) S = a + bX + cX 2 + dX 3 R3 (X) : a + 2c = 0, a + c + d = 0 , u = 2 +
2X X 2 X 3 ;

a b c
h) S = M2,3 (R) : a + b + c = 0, a + d = e, f = e = c , u =
de f
1 1 2
;
3 2 2

i) S = (z, w, t) C3 : z = w = t , u = (1 + i, 1 + i, 1 + i).

I Exerccio 5.12 ... Sejam V e W os seguintes subespacos de R4 :



V = (x, y, z, t) R4 : y 2z + t = 0 e W = (x, y, z, t) R4 : x = t, y = 2z
Determine uma base e a dimensao de: a) V b) W c) V W.

I Exerccio 5.13 ... Sabendo que f e uma aplicacao linear, calcule em cada
caso a imagem de um vector generico:
a) Sendo f : R2 R2 e f (1, 0) = (1, 1) e f (0, 1) = (1, 2);
b) Sendo f : R2 R2 e f (1, 1) = (1, 2) e f (0, 3) = (2, 2);
c) Sendo f : R2 R2 e f (2, 1) = (1, 0) e f (1, 1) = (3, 2);
d) Sendo f : R3 R2 e f (1, 0, 1) = (1, 1) e f (0, 1, 0) = (1, 2) e f (0, 0, 2) =
(4, 5);
e) Sendo f : R3 R3 e f (1, 0, 1) = (1, 1, 0) e f (0, 1, 0) = (0, 2, 3) e
f (0, 0, 2) = (1, 4, 5);
5.4. Exerccios 76

f ) Sendo f : R3 R1 (X) e f (1, 0, 1) = 1 e f (0, 1, 0) = 1+X e f (0, 0, 2) = X;


g) Sendo f : R2 (X) R2 (X) e f (1 + 2X) = X 2 e f (2) = 1 + X e f (3X 2 ) =
X;

1 1
h) Sendo f : R2 (X) M2,2 (R) e f (2 + X) = e f (1 X) =
1 2
1 0 0 3
e f (3X 2 ) = ;
1 0 1 4

I Exerccio 5.14 ... Mostre que nao e possivel definir nenhuma das seguintes
aplicacoes lineares:

a) f : R2 R2 tal que, ker(f ) = (x, y) R2 : x = 3y e f e sobrejectiva;
b) f : R3 R3 sendo f injectiva e na o sobrejectiva;

c) f : R4 (X) R3 tal que ker(f ) = span 2 + X, 3 + X 4 e im (f ) =
span {(1, 1, 1), (1, 1, 0)} ;
d) f : C2 C3 tal que f e injectiva e sobrejectiva.

I Exerccio 5.15 ... Calcule as seguintes matrizes de passagem:


a) De B = {(1, 2), (0, 1)} para Bb = {(2, 1), (1, 1)};
b) De B = {(1, 1), (0, 1)} para Bb = {(2, 1), (1, 1)};
d) De B = {(1 + X, 1 + X 2 , 1 + X + X 2 } para Bb = {1, X, X 2 };
e) De B = {(1, 1 + X 2 , 1 + X + X 2 } para Bb = {1, 1 X, 3X 2 };
f ) De B = {(1, 0, 0), (0, i, 1), (0, 0, i)} para Bb = {(i, 0, 0), (1, 1, 1), (0, 0, 1)};

I Exerccio 5.16 ... Em cada um dos casos, determine uma base ortonor-
mada do subespaco de R3 gerado pelos seguintes vectores:
a) x1 = (1, 1, 1), x2 = (1, 0, 1), x3 = (3, 2, 3).
b) x1 = (1, 1, 1), x2 = (1, 1, 1), x3 = (1, 0, 1).

I Exerccio 5.17 ... Em cada um dos casos, determine uma base ortonor-
mada do subespaco de R4 gerado pelos seguintes vectores:
a) x1 = (1, 1, 0, 0), x2 = (0, 1, 1, 0), x3 = (0, 0, 1, 1), x4 =
(1, 0, 0, 1).
b) x1 = (1, 1, 0, 1), x2 = (1, 0, 2, 1), x3 = (1, 2, 2, 1) .

I Exerccio 5.18 ... No espaco vectorial real R (t), com o produto interno
R1
hx, yi = 0 x(t)y(t) dt, mostre que as funcoes que se seguem formam uma base
ortonormada do subespaco por elas gerado:

y1 (t) = 1, y2 (t) = 3(2t 1), y3 (t) = 5(6t2 6t + 1).

I Exerccio 5.19 ... Seja S um subespaco de um espaco vectorial V. Mostre


que o S e o conjunto dos vectores ortogonais a todos os vectores de uma base de
S.
5.4. Exerccios 77

I Exerccio 5.20 ... Seja W o subespaco de R5 gerado pelos vectores u =


(1, 2, 3, 1, 2) e v = (2, 4, 7, 2, 1). Determine uma base do complemento ortogonal
W de W .

I Exerccio 5.21 ... Determine uma base do subespaco W de R4 ortogonal


a u1 = (1, 2, 3, 4) e u2 = (3, 5, 7, 8).

I Exerccio 5.22 ... Considere o espaco vectorial real R2 (t) no qual esta
R1
definido o produto interno hf, gi = 0 f (t)g(t) dt.
a) Determine uma base do subespaco W ortogonal a h(t) = 2t + 1.
b) Aplique o metodo de ortogonalizacao de Gram-Schmidt a base (1, t, t2 )
para obter uma base ortonormada (u1 (t), u2 (t), u3 (t)) de R2 (X) .

I Exerccio 5.23 ... Seja V o espaco linear das matrizes 2 2 de compo-


nentes reais, com as operacoes usuais. Prove que fica definido um produto interno
em V por:

hA, Bi = a11 b11 + a12 b12 + a21 b21 + a22 b22 onde A = (aij ) e B = (bij ) .

a b
Calcule a matriz da forma , com a, b R, mais proxima da matriz
b a
1 2
A= .
1 3

I Exerccio 5.24 ... Considere o subespaco S de R3 gerado pelos vectores


(1, 0, 0) e (0, 1, 0).
a) Verifique que fica definido em R3 um produto interno por:
hx, yi = 2x1 y1 + x1 y2 + x2 y1 + x2 y2 + x3 y3 , onde x = (x1 , x2 , x3 ) e
y = (y1 , y2 , y3 ).
b) Determine uma base ortonormal para o subespaco S, com este produto in-
terno.
c) Determine o elemento de S mais proximo do ponto (0, 0, 1),usando o produto
interno de a).
d) Calcule um vector diferente de zero e ortogonal a S usando o produto interno
de a).

I Exerccio 5.25 ... No espaco vectorialR real das funcoes contnuas definidas
2
em (0, 2) , com o produto interno hf, gi = 0 f (x)g(x) dx, seja f (x) = exp(x).
Mostre que, o polinomio constante g, mais proximo de f e g = 12 (exp(2) 1).
2
Calcule kg f k .

I Exerccio 5.26 ... Usando os produtos internos usuais em R2 e R3 ,


calcule em cada caso a projeccao ortogonal Pu (v), de v sobre a recta gerada pr u:
a) u=(1,1), v=(2,3);
b) u=(4,3), v=(0,1);
c) u=(1,1,1) , v=(1,-1,0);
d) u=(1,0,0), v=(0,1,2).
5.4. Exerccios 78

I Exerccio 5.27 ... Determine as projeccoes ortogonais seguintes:


b) v = 2t 1, w = t2 sobre R1 (t) usando o produto interno L2 .
Modulo 6

ALGA I. Representacao
matricial das aplicacoes
lineares

Contents
6.1 Matriz de uma aplicacao linear . . . . . . . . . . . . . 79
6.2 Calculo do nucleo e imagem . . . . . . . . . . . . . . . 80
6.3 Matriz da composta . . . . . . . . . . . . . . . . . . . . 81
6.4 GL(n). Pontos de vista passivo e activo. . . . . . . . 82
6.5 Determinantes . . . . . . . . . . . . . . . . . . . . . . . 82
6.5.1 Definicao e propriedades . . . . . . . . . . . . . . . . . 82
6.5.2 Determinante de um produto . . . . . . . . . . . . . . 85
6.5.3 Calculo da matriz inversa. Matriz adjunta . . . . . . . 86
6.6 Regra de Cramer . . . . . . . . . . . . . . . . . . . . . 88
6.7 Determinante de um operador linear . . . . . . . . . . 88
6.8 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . 89

6.1 Matriz de uma aplicacao linear


Sejam V e W dois espacos vectoriais sobre o mesmo corpo Ik (= R ou C, como
habitualmente), e de dimensoes finitas, respectivamente iguais a n = dim Ik V e
m = dim Ik W.
Consideremos uma aplicacao linear L : V W. Vamos aprender nesta seccao
a representar L atraves de uma matriz m n com entradas em Ik.
Para isso comecemos por fixar bases B = {e1 , , en } para V, e C = {f1 , , fm }
para W. Temos entao isomorfismos B : V Ikn e C : W Ikm , definidos re-
spectivamente por:
Pn
B : v = i=1 v i ei 7 [v i ] Ikn
Pm (6.1.1)
C : w = j=1 wj fj 7 [wj ] Ikm

Consideremos agora o diagrama seguinte:

79
6.2. Calculo do nucleo e imagem 80

L /W
V
B C

Ikn / Ikm

ou mais detalhadamente, usando a convencao de Einstein:

v i ei / L(v i e ) =
a i b c
v L(ei ) = v i Lji fj = (Lji v i )fj
i


[v i ] / [wj ] = [Lj v i ]
i

A igualdade (a) resulta do facto de L ser linear. A igualdade (b) obtem-se


exprimindo, para cada i = 1, , n, a imagem L(ei ), de ei por L, como combinacao
linear dos elementos da base fj para W:
m
X
L(ei ) = Lji fj , i = 1, , n
j=1

Este e o passo essencial do calculo. Os elementos Lji , que assim se obtem, formam
uma matriz L = [Lji ], que e uma matriz mn, e que se diz a matriz da aplicacao
linear L, relativamente as bases {ei } e {fj }, respectivamente para V e W. Esta
matriz L nota-se as vezes por M (L)BC ou por B M (L)C .

6.2 Calculo do nucleo e imagem


Sejam V e W dois espacos vectoriais sobre o mesmo corpo Ik, e de dimensoes
finitas, respectivamente iguais a n = dim Ik V e m = dim Ik W, e consideremos uma
aplicacao linear L : V W. Seja L = [Lji ] a matriz da aplicacao linear L,
relativamente as bases {ei } e {fj }, obtida atraves de (6.1).

Como calcular ker L ? ...


Por definicao, ker L e o subespaco de V constitudo por todos os vectores
v V que sao enviados por L no vector nulo de W.
Se v = v i ei , entao L(v) = (Lji v i ) fj = 0 sse:
n
X
Lji v i = 0, j = 1, , m
i=1

Este e um sistema homogeneo de m equacoes lineares com n incognitas v i ,


cuja resolucao permite calcular os v i tais que v = v i ei ker L.
Como calcular im L ? ...
Por definicao, im L e o subespaco de W gerado por L(ei ), i = 1, , n =
dim V:
im L = spanIk {L(e1 ), , L(en )}
Podemos pois aplicar o metodo explicado no problema 5.4 para calcular uma
base para im L.
6.3. Matriz da composta 81

A caracterstica ou rank da aplicacao linear L, nota-se por rank L e define-


se por:

rank L = dim (im L) (6.2.1)

6.3 Matriz da composta

Suponhamos que temos aplicacoes lineares M : U V e L : V W, onde


U, V e W sao espacos vectoriais de dimensao finita, com bases B = {ei }i=1,...,n ,
C = {fj }j=1,...,m e D = {gk }k=1,...,p , respectivamente para U, V e W.
Suponhamos que M (M)BC = M e que M (L)CD = L. O nosso objectivo e
calcular a matriz da composta L M : U W, relativamente as bases B e D,
respectivamnte para U e W, em termos das matrizes M e L.
O diagrama seguinte esclarece a situacao:

M /V L /W
U
B C D

Ikn / Ikm / Ikp
M L

=
=

Ikn / Ikp
LM

Calculos...

(L M)(ei ) = Aki gk (6.3.1)

por outro lado:

(L M)(ei ) = L(M(ei ))
= L(Mij fj )
= Mij L(fj )
= Mij Lkj gk
= (Lkj Mij ) gk
= (LM )ki gk (6.3.2)

donde se deduz que A = LM , isto e, a representacao matricial de L M e dada


pelo produto LM das matrizes L por M , que se define da seguinte forma - a
entrada (k, i) da matriz LM (linha k e coluna i), e dada por:

m
X
(LM )ki = Lkj Mij (6.3.3)
j=1
6.4. GL(n). Pontos de vista passivo e activo. 82

Esquematicamente:

Mi1

Mi2

(LM )ki = Lk1 Lk2 Lkm .. coluna i
| {z } .



linha k Mim
= Lk1 Mi1 + Lk2 Mi2 + + Lkm Mim
Xm
= Lkj Mij (6.3.4)
j=1

6.4 GL(n). Pontos de vista passivo e activo.


Seja V um espaco vectorial de dimensao n = dim V. O conjunto de todas as
aplicacoes lineares L : V V que sao inversveis, isto e, o conjunto de todos os
automorfismos de V, constitui um grupo que se diz o grupo linear geral de V.
Este grupo e isomorfo ao grupo de todas as matrizes (n n) inversveis, e nota-se
por:
GL(n)

Em Fsica, e usual encarar um automorfismo linear L : V V sob dois pontos


de vista diferentes: o ponto de vista passivo e o ponto de vista activo.

No ponto de vista passivo, um mesmo estado de um sistema, isto e, um


vector v V, e descrito por dois observadores diferentes, i.e., relativa-
mente a duas bases (ou referencais) C e Cb. Neste caso, P GL(n) e a
matriz de passagem da base C para a base Cb:
C P = Cb
e, como vimos atras, P 1 permite passar das coordenadas v i para as coor-
denadas vbi :
[v]Cb = [v]C P = P 1 [v]C
como vimos atras.
Por outro lado, no ponto de vista activo, existe um unico observador
C , enquanto que o estado do sistema, v V, e submetido a uma trans-
formacao, como por exemplo uma simetria do espaco de estados do
sistema. Neste caso P GL(n), e a matriz dessa transformacao relativa-
mente a base C .

6.5 Determinantes
Comece por recordar a definicao e as propriedades do determinante de matrizes
2 2 e matrizes 3 3 que vimos nos modulos 1 e 2, respectivamente.

6.5.1 Definicao e propriedades


I Teorema 6.1 Existe uma unica aplicacao:
det : Mn (Ik) Ik
(6.5.1)
A 7 detA = det(A1 , , An )
6.5. Determinantes 83

onde A1 , , An representam as colunas de A, com as seguintes propriedades:

1. e linear como funcao de cada uma das colunas Ai da matriz A.

2. se A0 se obtem a partir de A permutando duas colunas, entao detA0 = detA

3. det In = 1

Antes de demonstrar este teorema, vejamos um corolario que tem uma im-
portancia pratica muito grande no calculo de determinantes:

I Corolario 6.1 Seja det : Mn (Ik) Ik uma aplicacao que verifica as


propriedades 1. e 2. do teorema anterior. Entao:

4. se A tem duas colunas linearmente dependentes, detA = 0

5. se A0 se obtem a partir de A multiplicando uma coluna por Ik, detA0 =


detA

6. se A0 se obtem a partir de A substituindo uma coluna pela que se obtem


somando-lhe um multiplo escalar de uma outra, entao detA0 = detA

I Exerccio 6.1 demonstre este corolario.

Demonstracao do teorema ...


Unicidade:
Suponhamos que tnhamos duas funcoes, det : Mn (Ik) Ik e det 0 : Mn (Ik)
Ik, ambas verificando as tres propriedades referidas no teorema, e seja

= det det 0

Entao (In ) = 0 e verifica as duas primeiras propriedades - linearidade em


cada coluna e alternancia de sinal quando se permutam duas colunas.
Consideremos agora uma matriz arbitraria A = (A1 , , An ). Se e1 , , en e
a base canonica de Ikn , podemos escrever cada Ai como combinacao linear:

Ai = Aji ej , i = 1, , n

usando como sempre a convencao de Einstein. Usando a linearidade em cada


coluna e o facto de que (In ) = (e1 , , en ) = 0, e agora facil ver que:

(A1 , , An ) = 0

e portanto det = det 0 .


Existencia:
Inducao sobre n:

para n = 1 poe-se det (a) = a


6.5. Determinantes 84

supondo que existe um det definido para matrizes A Mn1 (Ik), e que
verifica as tres propriedades referidas no teorema, vamos mostrar como se
define para matrizes A Mn (Ik) mantendo, e claro, ainda as referidas tres
propriedades.
Dada uma matriz A Mn (Ik), representemos por Aij Mn1 (Ik) a matriz
que se obtem de A eliminando a linha i e a coluna j.
Definamos entao:

n
X
det A = (1)i+1 A1i det A1i (6.5.2)
i=1

o que corresponde ao chamado desenvolvimento do determinante segundo a


primeira linha.

Pretende-se mostrar agora que esta funcao satisfaz as tres propriedades referidas
no teorema.
[1]. Vejamos um exemplo que esclarece o que esta a acontecer:

a + a0 d g
det b + b0 e h
c + c0 f k

0 e h b + b0 h b + b0 e
= (a + a ) det d det 0 +g
f k c+c k c + c0 f
A primeira parcela e obviamente linear, enquanto que as duas ultimas o sao, por
hipotese de inducao.
Em geral, o argumento e o mesmo - a linearidade em cada coluna de A resulta
do facto de que cada parcela da soma em (6.5.2), (1)i+1 A1i det A1i , tem essa
propriedade. De facto, a linearidade na coluna k, resulta do facto de que as parcelas
(1)i+1 A1i det A1i , com i 6= k, sao lineares por hipotese de inducao, enquanto
que a parcela (1)k+1 A1k det A1k o e obviamente.
[2]. Basta mostrar que o det de uma matriz que tenha duas colunas iguais
se anula (porque?). Mais uma vez os exemplos seguintes esclarecem o argumento
geral:

a a g
det b b h
c c k

b h b h b b
= a det a det +g =0
c k c k c c


a d a
det b e b
c f c

e b b b b e
= a det d det +a =0
f c c c c f
Suponhamos entao que as colunas r e s de A sao iguais. Entao, pela hipotese de
inducao:
n
X
(1)i+1 A1i det A1i = (1)r+1 A1r det A1r + (1)s+1 A1s det A1s
i=1
6.5. Determinantes 85

uma vez que todas as outras parcelas se anulam, atendendo a que as matrizes
envolvidas tem duas colunas iguais (hipotese de inducao).
Como podem diferir A1r e A1s ?
Se r e s sao adjacentes, entao A1r = A1s ja que quando duas colunas sao
adjacentes e indiferente qual delas se omite.
Se existe apenas uma coluna a separar as linhas r e s, podemos mudar A1r
em A1s por uma simples permutacao de duas linhas. Mais geralmente se r =
s + t (podemos sempre supor que r > s), podemos mudar A1r em A1s por t 1
dessas permutacoes de duas colunas. Como pela hipotese de inducao para matrizes
(n 1) (n 1) permutacao de 2 colunas muda o sinal de det , e como A1r = A1s
pela igualdade das colunas r e s, vem que

det A = (1)r+1 A1r det A1r + (1)s+1 A1s det A1s


= (1)r+1 A1r det A1r + (1)s+1 A1r (1)t+1 det A1r
= (1)r+1 A1r det A1r + (1)s+1 A1r (1)rs+1 det A1r
= [(1)r+1 + (1)r+1+1 ] A1r det A1r
= 0

[3.] det In = 0 facil.


.

6.5.2 Determinante de um produto


I Lema 6.1 Seja f : Mn (Ik) Ik uma funcao que satisfaz as duas primeiras
propriedades referidas no teorema 6.1, isto e, e linear em cada coluna e muda o
sinal se se permutam duas colunas. Entao:

f (A1 , , An ) = f (e1 , , en ) det (A1 , , An ) (6.5.3)

Dem.: Se f (e1 , , en ) = 1 entao f = det , pela unicidade do teorema 6.1, e


o lema esta demonstrado. Se f (e1 , , en ) 6= 1, considere-se:

det (A1 , , An ) f (A1 , , An )


(A1 , , An ) = (6.5.4)
1 f (e1 , , en )

E facil ver que satisfaz as 3 propriedades referidas no teorema 6.1 e portanto, por
unicidade, (A1 , , An ) = det (A1 , , An ). Resolvendo a igualdade (6.5.4) em
ordem a f (A1 , , An ), obtem-se o que se pretende.

I Teorema 6.2 A, B Mn (Ik):

det (AB) = det A det B (6.5.5)

Dem.: Defina-se f : Mn (Ik) Ik por:

f (A1 , , An ) = det (BA1 , , BAn ) (6.5.6)


6.5. Determinantes 86

f satisfaz as condicoes do lema anterior, pelo que:


f (A1 , , An ) = f (e1 , , en ) det (A1 , , An )
| {z } | {z }
det (Be1 , ,Ben ) det A
isto e:
det (BA1 , , BAn ) = det (Be1 , , Ben ) det A
Mas e facil ver que (verifique):
det (BA1 , , BAn ) = det (BA)
e que:
det (Be1 , , Ben ) = det B
o que demonstra o teorema.

I Corolario 6.2 Se A Mn (Ik) e inversvel entao det A 6= 0 e det A1 =


(det A)1 .

Dem.: 1 = det In = det (AA1 ) = det (A) det (A1 ).

6.5.3 Calculo da matriz inversa. Matriz adjunta


Se A e uma matriz quadrada n n, o seu determinante pode ser calculado desen-
volvendo segundo a linha i, de acordo com a formula:
n
X
det A = (1)i+j Aij det Aij i fixo (6.5.7)
j=1

onde, como vimos, Aij e a matriz que se obtem de A retirando-lhe a linha i e a


coluna j.
A formula anterior sugere a formula da multiplicacao de duas matrizes. De
facto:

n
X
det A = (1)i+j Aij det Aij
j=1
X
= Aij (1)i+j det Aij
j
| {z }
def bj
= A i
X
= bj
Aij A i
j

= b
elemento i da diagonal do produto AA (6.5.8)

b definida por:
Isto conduz portanto a uma nova matriz A
bj = (1)i+j det Aij
A i

Porque ha aqui uma troca de indces incomoda, consideramos a transposta de A


e formulamos a seguinte definicao:
6.5. Determinantes 87

I Definicao 6.1 ... se A e uma matriz quadrada n n, define-se uma nova


b chamada a adjunta de A, atraves de:
matriz quadrada n n, A,

bij def
A = (1)i+j det (At )ij (6.5.9)

Nao esqueca que (At )ij e a matriz que se obtem de At retirando-lhe a linha i e a
coluna j. Portanto:

det (At )11 det (At )12 det (At )13
det (At )21 det (At )22 det (At )23

t t t
b = det (A )31 det (A )32 det (A )33
A
.. .. .. ..
. . . .

O calculo (6.5.8) mostra pois que todos os elementos da diagonal do produto


b sao iguais a det A, donde se deduz o seguinte teorema:
AA

b e a matriz deduzida de A atraves de (6.5.9), entao:


I Teorema 6.3 Se A

det A
AAb= ..
.

= det A In
det A
Portanto, se det A 6= 0, A e inversvel e:

1 b
A1 = A (6.5.10)
det A

Dem.: Falta mostrar que os elementos fora da diagonal do produto AA b sao


todos nulos. Para isso, consideremos a matriz B que se obtem de A substituindo a
linha k pela linha h, com h 6= h. Atencao que isto nao e uma operacao elementar!
B fica entao com duas linhas iguais (ambas iguais a linha h de A) e por isso o seu
determinante e nulo. Por outro lado, calculando det B desenvolvendo segundo a
linha k, obtemos:

0 = det B
X
= (1)k+j Bjk det Bkj , k fixo
j
X
= (1)k+j Bjk det Akj , porque B e A coincidem fora da linha k
j
X
= (1)k+j Ahj det Akj , porque B e A coincidem na linha h
j
X
= Ahj (1)k+j det Akj
j
X
= bj
Ahj A (6.5.11)
k
j


6.6. Regra de Cramer 88

6.6 Regra de Cramer


Dado um sistema do tipo:
Ax = b
podemos escreve-lo na forma:

x1 A1 + x2 A2 + + xn An = b

onde, como antes, A1 , A2 , , An representam as colunas da matriz A. Para cada


i fixo, substitua-se a coluna Ai pelo vector-coluna b, e calcule-se o determinante
dos n vectores assim obtidos. Vem entao que (justificar):

det (A1 , A2 , , |{z}


b , , An ) = det (A1 , A2 , , xk Ak , , An )
| {z }
posicao i posicao i
i
= x det (A1 , A2 , , Ai , , An )
= xi det A (6.6.1)

Portanto, se det A 6== 0, deduzimos a chamada regra de Cramer para as


solucoes do sistema Ax = b:

1
xi = det (A1 , , |{z}
b , , An ) (6.6.2)
det A
posicao i

6.7 Determinante de um operador linear


Suponhamos que V e um espaco vectorial de dimensao finita n, e que:

C = e1 e2 en

e uma base qualquer, escrita como um vector-linha com entradas vectoriais ei .


Mudemos para uma outra base:

C C P = Cb = b
e1 b
e2 b
en (6.7.1)

que escrevemos na forma matricial seguinte:



P11 P21 Pn1

P12 P22 Pn2

b
e1 b
e2 b
en = e1 e2 en .. .. .. (6.7.2)
. . .
P1n P2n Pnn
ou muito simplesmente:
Cb = C P

Suponhamos agora que L : V V e um operador linear, cuja matriz relativa-


mente a base C = {e1 , e2 , , en }, para V, e:

[L]C = [Lij ] (6.7.3)

Recorde que isto significa que:


X
L(ej ) = Lij ei
j
6.8. Exerccios 89

Como muda a representacao matricial de L? Isto e, se a


b i , como e que esta matriz se
matriz de L nesta nova base e L j
i
relaciona com a matriz Lj ?

Os calculos sao faceis de fazer (serao feitos em detalhe no modulo 8) e o resul-


tado e o seguinte:

Se L : V V e um operador linear num espaco vectorial de


dimensao finita, entao a representacao matricial de L varia,
com a escolha da base, da seguinte forma:

C CP [L]C P = P 1 [L]C P (6.7.4)

Isto permite dar um sentido invariante ao conceito de determinante de um


operador L - e, por definicao, o determinante de uma qualquer matriz que o
representa, relativamente a uma qualquer base C de V:

det L = det ([L]C ) (6.7.5)

A formula (6.7.4) mostra que:



det ([L]C P ) = det P 1 [L]C P = det P 1 det ([L]C ) det P = det ([L]C )

e portanto a definicao (6.7.5) nao depende da base escolhida.

6.8 Exerccios
I Exerccio 6.2 ... Seja V o espaco vectorial das funcoes polinomiais p :
R R de grau 4:

V = {p(x) = ao + a1 x + a2 x2 + a3 x3 + a4 x4 : ai R}

e W o espaco vectorial das funcoes polinomiais q : R R de grau 3. Considere


a aplicacao L : V W definida por:
2
d d
L[p(x)] = [p(x)] = p00 (x) p0 (x)
dx2 dx

Mostrar que L e linear. Calcular a matriz de L relativamente as bases {1, x, x2 , x3 , x4 }


para V e {1, x, x2 , x3 } para W. Calcular ker L e im L.

I Exerccio 6.3 ... Em cada um dos seguintes casos determine MBBb(f ),


calcule ker(f ) e im (f ) :
a) f : R2 R2 , B = Bb = ((1, 0), (0, 1)
(x, y) 7 (3x y, x + 5y)

(x, y) 7 (x + y, 5x + 2y)
c) f : R3 R1 (X) , B = ((1, 0, 0), (0, 1, 0), (0, 0, 1)), Bb =
(1, X)
(a, b, c) 7 a + b + c + (a + 2b)X
6.8. Exerccios 90

d) f : R2 (X) R2 , B = (1 + X, 1 + 2X, X 2 ), Bb =
((3, 1), (5, 2));
a0 + a1 X + a2 X 2 7 (a0 + a1 + a2 , a0 + 2a1 )

e) f : (x, y, z) R3 : x = 2y (x, y, z) R3 : x = y = z
(x, y, z) 7 (2y + z, x + z, x z)
,
B = ((2, 1, 0), (0, 0, 1)), Bb = ((1, 1, 1));

f ) D : R4 (X) R4 (X) , B = Bb = (1, X, X 2 , X 3 , X 4 );


P 7 P 0
g) f : R4 (X) R4 (X) , B = (1, X, X 2 , X 3 , X 4 ), Bb = (1, X, X 2 , X 3 , X 4 );
P 7 X 2 P 0
(x, y, z) 7 (x + y, y + 2z)
i) f : C3 C2 , B = ((i, 0, 0), (1, 1, 0), (0, 0, 1)), Bb =
((1, i), (0, 1)).
(z, v, w) 7 (z + v + w, z w)

I Exerccio 6.4 ... Em cada um dos seguintes casos, determine MBBb(g f ).



0 2
1 2
a) MBB (f ) = 0 1 , MBBb(g) = 12 3 ;
2 15

1 0
2 1 1 0 0 2
b) MBB (f ) =
3 5 , MBBb(g) =
2 1 1 3 ;
5 1 2 1
0 0

1 1 2 2
c) MBB (f ) = 0 2 , MBBb(g) = 1 1 ;

1 1 2 2
d) MBB (f ) = 0 2 , MBBb(g) = 1 1 ;

2
e) MBB (f ) = 3 5 , MBBb(g) = 4 ;
6

1 i 2 2
f ) MBB (f ) = 0 2 + i , MBBb(g) = i 1 + i .

I Exerccio 6.5 ... Calcule os seguintes determinantes usando diferentes


metodos em cada uma das alneas:

1 0 2 1 1 1 2 1 3
2 5 6 1
a) ; b)

; c) 1 0 3 ;
d) 2 0 2 ; e) 3 2 7

;

4 1 3 2 0 2 4 0 1 1 0 1 2

3 1 0 1 2 1 3 1 0 0 0 2

5 3 7 10 0 3 1 0 0 0 1 2

f) ;
; g) 0 0 1 2 ; h)
1 0 1 2 0 3 1 0
1 3 0 2 0 0 0 2 2 1 3 1
6.8. Exerccios 91


1 1 1 1

1 1 1 1
i) .

1 1 1 1
1 1 1 1

I Exerccio 6.6 ... De exemplos de matrizes A, B M2,2 (R), nao nulas,


tais que :
a) det (A + B) 6= det (A) + det (B);
b) det (A + B) = det (A) + det (B).;
c) det (3A) 6= 3 det (A);
d) det (3A) = 3 det (A)

I Exerccio 6.7 ... Usando determinantes, calcule o volume do paralelippedo


gerado pelos vectores u, v, w :
a) u = (1, 1, 2), v = (1 2, 3) e w = (0, 1, 1);
b) u = (1, 1, 0), v = (1, 0, 3) e w = (0, 1, 1);
c) u = (1, 0, 0), v = (1 2, 3) e w = (0, 2, 3);

I Exerccio 6.8 ... Calcule o volume do paralelippedo P em R3 gerado


por S. Considere depois a aplicacao linear L : R3 R3 e calcule vol (L(P)).
Verifique que:
vol (L(P))
|det L| =
vol P

a) S = {(1, 0, 0), (0, 0, 1), (0, 1, 0)} , L(x, y, z) = (x, x + y, x + y + z);


b) S = {(1, 1, 0), (0, 1, 1), (0, 0, 2)} , L(x, y, z) = (x y, x + y, 2x y + 3z);
c) S = {(1, 2, 0), (0, 0, 1), (0, 3, 0)} , L(x, y, z) = (2x y, x + y, y + 5z).
Modulo 7

ALGA I. Espacos vectoriais


com produto interno

Contents
7.1 Espacos Euclideanos reais . . . . . . . . . . . . . . . . 92
7.2 Espacos Hermitianos (ou Unitarios) complexos . . . 95
7.3 Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
7.4 Ortogonalidade . . . . . . . . . . . . . . . . . . . . . . . 98
7.5 Bases ortonormadas num espaco vectorial com pro-
duto interno . . . . . . . . . . . . . . . . . . . . . . . . . 99
7.6 Metodo de ortogonalizacao de Gram-Schmidt . . . . 100
7.7 Decomposicao ortogonal.
Teorema da aproximacao optima . . . . . . . . . . 103
7.8 Aplicacoes. Mnimos quadrados . . . . . . . . . . . . 108
7.9 Metodo dos mnimos quadrados. Aproximacao de
dados por uma recta . . . . . . . . . . . . . . . . . . . 111
7.10 Transformacoes ortogonais e unitarias. Exemplos . . 112
7.11 Transformacoes unitarias em C2 . Os grupos U(2) e
SU (2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
7.12 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . 114

7.1 Espacos Euclideanos reais


I 7.1 Definicao ... Seja V um espaco vectorial real. Um produto interno em
V e, por definicao, uma aplicacao:

h|i : V V R
(7.1.1)
(u, v) 7 hu|vi

que satisfaz as tres propriedades seguintes:


[PI1]. e uma forma bilinear:

h(u + v)|wi = hu|wi + hv|wi


hu|(v + w)i = hu|wi + hu|wi
hu|vi = hu|vi = hu|vi (7.1.2)

92
7.1. Espacos Euclideanos reais 93

[PI2]. e uma forma simetrica:

hu|vi = hv|ui (7.1.3)

[PI3]. e nao degenerada:

hu|vi = 0 v V u=0 (7.1.4)

u, v, w V, R. Um produto interno diz-se um produto interno Eu-


clideano, se satisfaz alem disso a seguinte propriedade:

[PI4]. e uma forma definida positiva:

hu|ui 0, u V (7.1.5)

Um espaco vectorial real, munido de um produto interno Euclideano chama-se um


espaco Euclideano. Outras notacoes muito comuns para hu|vi sao por exemplo
hu, vi, (u, v), g(u, v), u v ou ainda u|v.

I 7.2 Exemplo [Produto interno Euclideano usual em Rn ] ... Dados dois


vectores x = [xi ] e y = [yi ], em Rn , define-se o respectivo produto interno
(Euclideano), como sendo o escalar x y R, dado por:
n
X
def
xy = xi yi = x1 y1 + x2 y2 + + xn yn
i=1
t
= x y em notacao matricial (7.1.6)

O espaco vectorial Rn , munido deste produto interno Euclideano, diz-se o espaco


Euclideano usual e nota-se por IEn .

I 7.3 Exemplo [Produto interno L2 em C o ([a, b], R)] ... Consideremos o


espaco vectorial real constitudo pelas funcoes contnuas reais, definidas no inter-
valo [a, b] R. Dadas duas funcoes f, g C o ([a, b], R), define-se o respectivo
produto interno L2 , como sendo o escalar hf |gi R, dado por:
Z b
def
hf |gi = f (t)g(t) dt (7.1.7)
a

I 7.4 Exemplo [Produto interno de Minkowski em R4 ] ... Dados dois



x0 y0
x1
vectores x = e y = y1 , em R4 , define-se o respectivo produto
x2 y2
x3 y3
interno de Minkowski, como sendo o escalar x y R, dado por:

xy = x0 y0 + x1 y1 + x2 y2 + x3 y3

y0
y1
= [x0 x1 x2 x3 ] y2

y3
= xt y (7.1.8)
7.1. Espacos Euclideanos reais 94

onde representa a matriz simetrica:



1 0 0 0
0 1 0 0
(7.1.9)
0 0 1 0
0 0 0 1

O produto interno de Minkowski nao e definido positivo, isto e, nao e verdade


que x x 0, x R4 . Com efeito, por exemplo o vector e0 = (1, 0, 0, 0), satisfaz
e0 e0 = 1. Note no entanto que a restricao do produto escalar de Minkowski
ao hiperplano {0} R3 = {x = (x ) R4 : x0 = 0} = R3 , e um produto interno
euclideano, portanto em particular definido positivo.

I 7.5 Expressoes matriciais ... Seja (V, h | i) um espaco vectorial real, de


dimensao n, com um produto interno Euclideano.

Seja C = e1 e2 en uma base qualquer para V, escrita como um
vector-linha com entradas vectoriais ei . Se u, v V podemos escrever:
X
v = v i ei
i

v1

v2

= e1 e2 en ..
.
vn
= C [v]C (7.1.10)

v1

onde [v]C = ... e o vector-coluna das componentes do vector v na base C .
vn
Analogamente: X
u= ui ei = C [u]C
i

Calculemos agora o produto interno hu|vi:


X X
hu|vi = ui ei | v j ej
i j
X
i j
= u v hei |ej i
i,j
X
= gij ui v j
i,j

= [u]tC GC [v]C (7.1.11)

onde definimos a chamada matriz de Gram, GC = [gij ], do produto interno h | i,


na base C atraves de:
def
gij = hei |ej i (7.1.12)

Como hu|vi = hv|ui, deduzimos que a matriz de Gram GC e simetrica, isto e:

GTC = GC
7.2. Espacos Hermitianos (ou Unitarios) complexos 95

Como hv|vi > 0, v 6= 0 V deduzimos que a matriz de Gram GC e definida


positiva, isto e:
X
[v]TC GC [v]C = gij v i v j > 0, v i nao simultaneamente nulos
i,j

E possvel provar os criterios seguintes (necessarios e suficientes) para decidir


quando uma matriz simetrica G = [gij ] e definida positiva:

n=2
g11 g12
gij > 0, >0
g21 g22

n=3
g11 g12 g13
g11 g12
gij > 0, > 0, g21 g22 g23 >0
g21 g22
g31 g32 g33

7.2 Espacos Hermitianos (ou Unitarios) complexos


I 7.6 Definicao ... Seja V um espaco vectorial complexo. Um produto interno
Hermitiano em V e, por definicao, uma aplicacao:

h|i : V V C
(7.2.1)
(u, v) 7 hu|vi

que satisfaz as propriedades seguintes:


[PH1]. e uma forma sesquilinear, isto e, e linear na primeira variavel
e semi-linear na segunda variavel 1 :

h(u + v)|wi = hu|wi + hv|wi


hu|(v + w)i = hu|wi + hu|wi (7.2.2)
hu|vi = hu|vi
hu|vi = hu|vi (7.2.3)

[PH2]. e uma forma Hermitiana:

hu|vi = hv|ui (7.2.4)

[PH3]. e nao degenerada:

hu|vi = 0 v V u=0 (7.2.5)

[PH4]. e definida positiva:

hu|ui 0 (7.2.6)

u, v, w V, C.
Um espaco vectorial complexo, munido de um produto interno Hermitiano
chama-se um espaco Hermitiano ou um espaco unitario.
1 em Fsica, nomeadamente em Mecanica Quantica, e usual considerar outra convencao -

linearidade na segunda variavel e semi-linearidade na primeira variavel!


7.3. Norma 96

I 7.7 Exemplo [Produto interno Hermitiano usual em Cn ] ... Dados dois


vectores z = [zi ] e w = [wi ], em Cn , define-se o respectivo produto interno
(Hermitiano), como sendo o escalar hx|yi C, dado por:
n
X
def
hz|wi = zi wi = z1 w1 + z2 w2 + + zn wn
i=1

w1
w2

= [z1 z2 zn ] ..
.
wn
t
= z w em notacao matricial (7.2.7)

O espaco vectorial Cn , munido deste produto interno Euclideano, diz-se o espaco


unitario usual e nota-se por Un .

I 7.8 Exemplo [Produto interno L2 em C o ([a, b], C)] ... Consideremos o


espaco vectorial real constitudo pelas funcoes contnuas complexas, definidas no
intervalo [a, b] R. Dadas duas funcoes f, g C o ([a, b], C), define-se o respectivo
produto interno L2 , como sendo o escalar hf |gi C, dado por:
Z b
def
hf |gi = f (t)g(t) dt (7.2.8)
a

7.3 Norma
I 7.9 Definicao [Norma] ... Seja (V, h | i) um espaco com um produto interno
(Euclideano se V e real ou Hermitiano se V e complexo). Define-se a norma kvk,
de um vector v V, atraves da formula:
def p
kvk = hv|vi (7.3.1)

I 7.10 A norma verifica as propriedades seguintes:


[N1]. e positiva e nao degenerada:

kvk 0 e kvk = 0 sse v=0 (7.3.2)

[N2]. e homogenea (positiva):

kvk = || kvk (7.3.3)

[N3]. satisfaz a desigualdade triangular seguinte:

kv + wk kvk + kwk (7.3.4)

v, w V, Ik = R ou C.
Todas as propriedades sao de demonstracao imediata com excepcao da de-
sigualdade triangular, que resulta da seguinte proposicao:

I 7.11 Proposicao [Desigualdade de Cauchy-Schwarz] ...

|hv|wi| kvkkwk, v, w V (7.3.5)


7.3. Norma 97

Dem.: Se w = 0 a desigualdade e trivial. Se w 6= 0 consideremos o vector:


hv|wi
u=v w
kwk2
de tal forma que hu|wi = 0. Temos entao que:

2 hv|wi hv|wi
0 kuk = v w | v w
kwk2 kwk2
hv|wihw|vi
= hv|vi
kwk2
|hv|wi|2
= kvk2 (7.3.6)
kwk2
o que demonstra a desigualdade.

I 7.12 Demonstremos agora a desigualdade triangular (7.3.4):


ku + vk2 = hu + v|u + vi
= hu|ui + hu|vi + hv|ui + hv|vi
= kuk2 + hu|vi + hu|vi + kvk2
= kuk2 + 2Re hu|vi + kvk2
kuk2 + 2|hu|vi| + kvk2
kuk2 + 2kukkvk + kvk2 , por Cauchy-Schwarz (7.3.5)
= (kuk + kvk)2
e portanto ku + vk kuk + kvk, como se pretendia.

I 7.13 Exemplos ... (i) . No espaco Euclideano IEn , a norma de um vector


x = (xi ) Rn e dada pelo teorema de Pitagoras:
n !1/2
X
kxk = xt x = (xi )2 (7.3.7)
i=1

(ii). No espaco Unitario Un , a norma de um vector z = (zi ) Cn e dada por:


n !1/2
X
t 2
kzk = z z = |zi | (7.3.8)
i=1

(iii). No espaco Unitario C o ([a, b], C), munido do produto interno L2 , dado por
def R b
(7.2.8): hf |gi = a
f (t)g(t) dt, a norma de uma funcao f C o ([a, b], C) e dada
por:
Z !1/2
p b
2
kf k = hf |f i = |f (t)| dt (7.3.9)
a

Neste exemplo, a desigualdade de Cauchy-Schwarz toma o aspecto:


Z Z !1/2 Z !1/2
b b b
2 2
f (t)g(t) dt |f (t)| dt |g(t)| dt (7.3.10)
a a a

enquanto que a desigualdade triangular tem o aspecto seguinte:


Z !1/2 Z !1/2 Z !1/2
b b b
2 2 2
|f (t) + g(t)| dt |f (t)| dt + |g(t)| dt (7.3.11)
a a a
7.4. Ortogonalidade 98

7.4 Ortogonalidade
I 7.14 Definicao ... Seja (V, h | i) um espaco com um produto interno (Eu-
clideano se V e real ou Hermitiano se V e complexo). Dois vectores u, v V
dizem-se ortogonais se:
hu|vi = 0 (7.4.1)

I 7.15 Angulo nao orientado ... Suponhamos agora que (V, h | i) e um espaco
real Euclideano. Dados dois vectores nao nulos u, v V, deduzimos da desigual-
dade de Cauchy-Schwarz que:

hu|vi
1 1 (7.4.2)
kukkvk

o que permite definir o angulo (nao orientado) = (u, v) [0, ], entre os


referidos vectores nao nulos u, v V, como sendo o unico [0, ], tal que:

hu|vi
cos = [1, 1] (7.4.3)
kukkvk

Portanto:
hu|vi = kukkvk cos (u, v) (7.4.4)

Como vimos antes, dois vectores u, v V dizem-se ortogonais se hu|vi = 0.


Se ambos sao nao nulos isto significa que o angulo (u, v) e igual a /2.

I 7.16 Definicao [Ortogonal de um subconjunto] ... Seja (V, h | i) um espaco


com um produto interno (Euclideano se V e real ou Hermitiano se V e complexo).
Se S e um subconjunto nao vazio de V, define-se o ortogonal de S como sendo o
subconjunto S de V constitudo por todos os vectores que sao ortogonais a todos
os vectores de S:
def
S = {u V : hu|si = 0, s S} (7.4.5)

Vamos verificar que S e um subespaco de V. De facto, se u, v S , entao


hu|si = 0 e hv|si = 0, s S e portanto hu + v|si = hu|si + hv|si = 0, s S,
i.e., u + v S . Analogamente u S , Ik, se u S .

I 7.17 Hiperplanos vectoriais ... No espaco Euclideano IEn , dado um vector


nao nulo u Rn {0}, o conjunto dos vectores x IEn que sao ortogonais a u:

{x IEn : x u = 0} (7.4.6)

formam um subespaco em IEn , que se diz o hiperplano (vectorial) ortogonal


a u. Se x = (xi ) e um ponto generico desse hiperplano, e se u = (ui ), a equacao
x u = 0, e equivalente a seguinte equacao cartesiana:
X
ui xi = u1 x1 + u2 x2 + + un xn = 0 (7.4.7)
i

I 7.18 Hiperplanos afins em IEn ...


7.5. Bases ortonormadas num espaco vectorial com produto interno
99

No espaco Euclideano IEn , com a estrutura afim canonica, dado um ponto A e um



vector nao nulo u Rn {0}, o conjunto dos pontos P IEn tais que AP = P A
e ortogonal a u:

{P IEn : AP u = 0} (7.4.8)

diz o hiperplano (afim) ortogonal a u, que passa em A. Se OA = (ai ), u = (ui )

e se OP = (xi ) e um ponto generico desse hiperplano, a equacao AP u = 0, e
equivalente a:

X X
0 = (OP OA) u = OP u OA u = ui xi ai ui
i i
e portanto a seguinte equacao cartesiana:
X
ui xi = u1 x1 + u2 x2 + + un xn = c (7.4.9)
i
P
onde c = OA) u = i ai ui .

I 7.19 Teorema [Pitagoras] ... Seja (V, h | i) um espaco com um produto in-
terno (Euclideano se V e real ou Hermitiano se V e complexo), e u, v V dois
vectores ortogonais. Entao:

ku + vk2 = kuk2 + kvk2 (7.4.10)

Dem.:

ku + vk2 = hu + v|u + vi
= kuk2 + kvk2 + hu|vi + hv|ui
= kuk2 + kvk2 (7.4.11)

7.5 Bases ortonormadas num espaco vectorial com


produto interno
I 7.20 Definicao [Base ortonormada] ... Seja (V, h | i) um espaco vectorial de
dimensao n com um produto interno (Euclideano se V e real ou Hermitiano se V
e complexo).
7.6. Metodo de ortogonalizacao de Gram-Schmidt 100

Uma base {e1 , , en } diz-se uma base ortonormada para V se:



def 1 se i = j
hei |ej i = ij = (7.5.1)
0 se i 6= j

I 7.21 Proposicao ... Seja (V, h | i) um espaco vectorial de dimensao n com


um produto interno (Euclideano se V e real ou Hermitiano se V e complexo) e
{e1 , , en } uma base ortonormada para V. Entao v V:
n
X
v= hv|ei i ei (7.5.2)
i=1
e:
n
X 2
kvk2 = |hv|ei i| (7.5.3)
i=1

Dem.: Calculo directo.

7.6 Metodo de ortogonalizacao de Gram-Schmidt


I 7.22 Ortogonalizacao de Gram-Schmidt ...
Dada uma base qualquer {f1 , , fn }, para V, e possvel construir, a partir
dela, uma base ortogonal {e1 , , en }, para V:
hei |ej i = 0, i 6= j
atraves do chamado processo de ortogonalizacao de Gram-Schmidt, que
passamos a descrever:
[1.] Em primeiro lugar pomos:
e 1 = f1 (7.6.1)

[2.]

Em segundo lugar, comecamos por calcular a chamada projeccao ortogonal de


f2 sobre a recta gerada por f1 = e1 . Esta projeccao ortogonal, por estar na recta
gerada por f1 = e1 , vai ser um vector do tipo e1 , onde Ik e calculado pela
condicao de que hf2 e1 |e1 i = 0. Obtemos entao:
hf2 |e1 i
=
ke1 k2
7.6. Metodo de ortogonalizacao de Gram-Schmidt 101

Pomos agora e2 igual a:


hf2 |e1 i
e 2 = f2 e1 (7.6.2)
ke1 k2
[3.]

Em terceiro lugar, comecamos por calcular a chamada projeccao ortogonal de


f3 sobre o plano gerado por {f1 , f2 }, que e tambem o plano gerado por {e1 , e2 }.
Esta projeccao ortogonal, por estar no plano gerado por {e1 , e2 }, vai ser um vector
do tipo e1 + e2 , onde , Ik sao calculados pela condicao de que hf3 (e1 +
e2 )|e1 i = 0 e hf3 (e1 + e2 )|e2 i = 0. Fazendo os calculos, atendendo a que
e1 e2 , obtemos:
hf3 |e1 i hf3 |e2 i
= 2
, =
ke1 k ke2 k2
Portanto a projeccao ortogonal de f3 sobre o plano gerado por {e1 , e2 } e dada por:
hf3 |e1 i hf3 |e2 i
e1 + e2
ke1 k2 ke2 k2
Pomos agora e3 igual a:
hf3 |e1 i hf3 |e2 i
e 3 = f3 2
e1 e2 (7.6.3)
ke1 k ke2 k2

[k.] o processo decorre agora indutivamente: se supomos ja construdos os


vectores ortogonais {e1 , . . . , ek }, de tal forma que:
span{e1 , . . . , ek } = span{f1 , . . . , fk }
o vector ek+1 sera construdo da seguinte forma - comecamos por calcular a
chamada projeccao ortogonal de fk+1 sobre o subespaco gerado por {e1 , . . . , ek }.
Esta projeccao ortogonal e dada por:
Xk
hfk+1 |ei i
ei
i=1
kei k2

Pomos agora ek+1 igual a:


Xk
hfk+1 |ei i
ek+1 = fk+1 ei (7.6.4)
i=1
kei k2

E claro que a base ortogonal assim obtida, pode ser transformada numa base
ortonormada, normalizando os vectores ei , isto e, dividindo cada um deles pela
respectiva norma.
7.6. Metodo de ortogonalizacao de Gram-Schmidt 102

I 7.23 Polinomios de Legendre ... Consideremos o espaco vectorial V con-


stitudo por todas as funcoes polinomiais de grau n, definidas no intervalo
[1, 1], munido do produto interno L2 :
Z 1
hp|qi = p(t)q(t) dt
1

Uma base para V e {1, t, t2 , , tn }. Quando aplicamos o processo de ortogo-


nalizacao de Gram-Schmidt a esta base obtemos os chamados polinomios de
Legendre {0 , 1 , 2 , , n }. Vejamos como. Em primeiro lugar pomos:

0 (t) = 1

Depois pomos:

ht|1i
1 = t
k1k2
R1
1
t dt
= t R1 1
k 1
12 dtk2
= t (7.6.5)

Em seguida:

ht2 |1i ht2 |ti


2 = t2 1 t
k1k2 ktk2
R1 2 R1 3
1
t dt t dt
= t R1 1 R 1 1 t
k 1 12 dtk2 k 1 t2 dtk2
1
= t2 (7.6.6)
3
e procedendo da mesma forma:
3
3 = t3 t
5
6 3
4 = t t2 +
4
7 35
..
. (7.6.7)

Quando normalizamos estes polinomios obtemos os chamados polinomios de


Legendre normalizados {0 , 1 , 2 , , n }:
r
1
0 =
2
r
3
1 = t
2
r
1 5 2
2 = (3t 1)
2 2
r
1 7 3
3 = (5t 3t)
2 2
..
. (7.6.8)
7.7. Decomposicao ortogonal.
Teorema da aproximacao optima 103

7.7 Decomposicao ortogonal.


Teorema da aproximacao optima
I 7.24 Teorema [Decomposicao ortogonal] ... Consideremos um espaco vec-
torial com um produto interno (V, h | i) (Euclideano se V e real ou Hermitiano se
V e complexo), e seja S um subespaco de dimensao finita. Entao:

V = S S (7.7.1)

isto e, qualquer vector v V pode ser representado de maneira unica como uma
soma de dois vectores:

v = s + (v s), onde s S e v s S (7.7.2)

Alem disso:
kvk2 = ksk2 + kv sk2 (7.7.3)

Dem.: Como S tem dimensao finita, existe uma base ortonormada {e1 , . . . , em }
para S, onde m = dim S. Dado um vector qualquer v V, definamos:
m
X
def
s = hv|ei i ei (7.7.4)
i=1

E claro que s S. Por outro lado, como:

hv s|ej i = hv|ej i hs|ej i = hv|ej i hv|ej i = 0, j = 1, . . . , m

o que significa que v s esta em S . Obtemos portanto a decomposicao (7.7.2).


Mostremos agora que esta decomposicao e unica. Isto e equivalente a provar,
como ja sabemos, que S S = {0}. Suponhamos entao que 0 6= u S S .
Entao, por definicao de S , e como u S , u e ortogonal a todo o vector de S.
Em particular e ortogonal a si proprio, isto e, 0 = hu|ui = kuk2 , o que implica
que u = 0.
Finalmente (7.7.3) deduz-se do Teorema de Pitagoras (ver o teorema 7.19).

I 7.25 Projectores ... Consideremos de novo um espaco vectorial com um pro-


duto interno (V, h | i) (Euclideano se V e real ou Hermitiano se V e complexo),
e suponhamos que S e um subespaco de dimensao finita em V. Entao, como
V = S S , podemos ainda definir uma aplicacao linear:

PS : V V (7.7.5)

chamada a projeccao ortogonal sobre S da seguinte forma. Por definicao de


soma directa, todo o vector v V admite uma decomposicao unica da forma:
v = s + (v s), onde s S e v s S . Pomos entao PS (v) = s. E facil ver
que PS verifica as propriedades seguintes:

im PS = S

ker PS = S

P2S = PS
7.7. Decomposicao ortogonal.
Teorema da aproximacao optima 104

kPS (v)k kvk, v V


Se {e1 , , em } e uma base ortonormada para S, entao:
m
X
PS (v) = hv|ei i ei (7.7.6)
i=1

I 7.26 Exemplo [Projeccao ortogonal sobre uma recta, em IE3 ] ...

Sejam a 6= 0 e x dois vectores em R3 , com a nao nulo. Entao existe um unico


vector u, na recta gerada por a, e um unico vector v, ortogonal a a, tais que
x = u + v. O vector u, notado por Pa (x), diz-se a projeccao ortogonal de x
sobre a recta gerada por a, e e dado por:
xa
Pa (x) = a (7.7.7)
kak2

A aplicacao Pa : R3 R3 definida por (7.7.7), e linear. Note que P2a = Pa .


Por outro lado, se considerarmos um qualquer vector b 6= 0 ortogonal a a (i.e.:
a b = 0), vemos que Pa (b) = 0 e portanto:

ker Pa = span{b} = {b R3 : b a = 0} = a

e o plano vectorial ortogonal a a.

I 7.27 Exemplo [Projeccao ortogonal sobre um plano vectorial, em IE3 ]


7.7. Decomposicao ortogonal.
Teorema da aproximacao optima 105

Consideremos um plano vectorial ortogonal a um vector n R3 {0} (se esse


plano e gerado por dois vectores u, v linearmente independentes, podemos tomar
n = u v). Notemos esse plano por = n . Dado um vector x R3 , ao vector:
Pn x Pn (x)
chamamos a projeccao ortogonal de x sobre o plano vectorial ortogonal a n.
De acordo com (7.7.7), temos que:

def xn
Pn = x Pn (x) = x n (7.7.8)
knk2

A aplicacao Pn : R3 R3 definida por (7.7.8), e linear. Note que P2n =


Pn . Se x n = 0, i.e., se x e ortogonal a n, entao Pn (x) = x, enquanto que,
por outro lado, Pn (n) = 0. Portanto vemos que:
ker Pn = span{n}
e:
Pn (x) = x x n

I 7.28 Teorema [da aproximacao optima] ... Consideremos um espaco vec-


torial com um produto interno (V, h | i) (Euclideano se V e real ou Hermitiano se
V e complexo), e seja S um subespaco de dimensao finita. Dado um vector v V,
a projeccao ortogonal de v sobre S:
s = PS (v) S
e o vector de S que esta mais perto de v, isto e:
kv PS (v)k kv uk, u S (7.7.9)
e kv PS (v)k = kv uk, com u S se e so se u = PS (v).

Dem.: Por (7.7.2), temos que v = s + (v s), onde s = PS (v) S e v s S .


Como u S se tem:
v u = (s u) + (v s)
| {z } | {z }
S S

esta e a decomposicao ortogonal de v u. Pelo teorema de Pitagoras:


kv uk2 = ks uk2 + kv sk2 kv sk2
sendo a igualdade valida sse ks uk2 = 0, isto e, sse s = u.
7.7. Decomposicao ortogonal.
Teorema da aproximacao optima 106

I 7.29 Exemplo (Aproximacao de funcoes contnuas em [0, 2] por poli-


nomios trigonometricos) ... Seja V = C o ([0, 2]; R) o espaco das funcoes reais
contnuas definidas em [0, 2], munido do produto L2 :
Z 2
hf |gi = f (t)g(t) dt
0

e Sn o subespaco de dimensao 2n + 1 seguinte:



1 cos kt sin kt
Sn = spanR 0 (t) = , 2k1 (t) = , 2k (t) = : k = 1, , n
2
(7.7.10)
As 2n + 1 funcoes {0 , 1 , , 2n1 , 2n }, chamadas polinomios trigono-
metricos, formam uma base ortonormada para S (mostrar isto2 ).
Se f C o ([0, 2]; R), representemos por Fn (f ) a projeccao ortogonal de f
sobre Sn . De acordo com a formula da projeccao ortogonal (7.7.6), temos que:
2n
X
Fn (f ) = hf |k i k (7.7.11)
k=0

onde: Z 2
hf |k i = f (t)k (t) dt (7.7.12)
0
sao os chamados coeficientes de Fourier de f . Usando a definicao das funcoes
k , podemos escrever as formulas anteriores na forma:
X n
1
Fn (f ) = a0 + (ak cos kt + bk sin kt) (7.7.13)
2
k=1

onde os coeficientes de Fourier sao dados por:


Z
1 2
ak = f (t) cos kt dt
0
Z 2
1
bk = f (t) sin kt dt (7.7.14)
0
para k = 0, 1, 2, . . . , n. O teorema da aproximacao optima diz-nos que o polinomio
trigonometrico Fn (f ) Sn , dado por (7.7.13), aproxima f melhor que qualquer
outro polinomio trigonometrico em Sn , no sentido em que kf Fn (f )k e o menor
possvel.

I 7.30 Exemplo Seja V = C o ([1, 1]; R) o espaco das funcoes reais contnuas
definidas em [1, 1], munido do produto L2 :
Z 1
hf |gi = f (t)g(t) dt
1
2 Usar as relacoes trigonometricas seguintes:
1
cos A cos B = {cos(A B) + cos(A + B)}
2
1
sin A sin B = {cos(A B) cos(A + B)}
2
1
sin A cos B = {sin(A B) + sin(A + B)}
2
7.7. Decomposicao ortogonal.
Teorema da aproximacao optima 107

e Sn o subespaco de dimensao n + 1 gerado pelos polinomios de Legendre normal-


izados, introduzidos no exemplo 7.23:

Sn = spanR {o , 1 , , n } (7.7.15)

E claro que S e o subespaco constitudo por todas as funcoes polinomiais de grau


n, definidas no intervalo [1, 1]. f C o ([1, 1]; R), representemos por Pn (f )
a projeccao ortogonal de f sobre Sn . De acordo com a formula da projeccao
ortogonal (7.7.6), temos que:
Xn Z 1
Pn (f ) = hf |k i k , onde hf |k i = f (t)k (t) dt (7.7.16)
k=0 1

que e o polinomio de grau n, para o qual kf Pn (f )k e o menor possvel. Por


exemplo, se f (t) = sin t, os coeficientes hf |k i sao dados por:
Z 1
hf |k i = sin tk (t) dt
1

Em particular, hf |0 i = 0 E.
Z 1
r r
3 32
hf |1 i = t sin t dt =
1 2 2

I 7.31 Exemplo ... Considere o espaco vectorial R3 [t] das funcoes polinomiais
p(t), de grau 3, de coeficientes reais, munido do produto interno:
Z +1
hp(t)|q(t)i = p(t)q(t) dt
0

a.) Mostre que:

S = {p(t) R3 [t] : p(t) = p(t) }

e um subespaco vectorial. Calcule dim S e determine uma base ortonormada para


S.
b.) Calcule o polinomio de S que esta mais proximo do polinomio p(t) = t.
c.) Calcule o ortogonal de T = span{1} em R3 [t].
d.) Calcule o nucleo e a imagem da aplicacao linear:

T: R3 [t] R3 [t]
p(t) 7 T[p(t)] = p00 (t) 2tp0 (t)

Resolucao ...
a.) Se p, q S entao (p + q)(t) = p(t) + q(t) = p(t) + q(t) = (p + q)(t) e
portanto p + q S. Se p S e R entao (p)(t) = p(t) = p(t) = p(t) e
portanto p S.
Se p(t) = a + bt + ct2 + dt3 S entao a + bt + ct2 + dt3 = p(t) = p(t) =
a bt + ct2 dt3 , isto e, 2bt + 2dt3 = 0 e portanto b = d = 0. Logo:

S = {p(t) = a + bt + ct2 + dt3 R3 [t] : b = d = 0 }


= {p(t) = a + ct2 R3 [t] : a, c R }
= span{1, t2 }
7.8. Aplicacoes. Mnimos quadrados 108

e dim S = 2. Os polinomios p(t) 1 e q(t) = t2 constituem uma base para S.


Uma base ortonormada obtem-se pelo processo de Gram-Schmidt. k1k2 =
R1 2 R1 2 2
1 dt = 1 e t2 htk1k|1i 2 2
2 1 = t 0 t dt = t 1/3. Alem disso
t 1/32 =
0
R1 2
0
(t 1/3)2 dt = 4/45. Logo os polinomios 1 e (3 5/2)(t2 1/3) constituem
uma base ortonormada para S.
b.) Pelo teorema da aproximacao optima esse polinomio e dado pela projeccao
ortogonal de t sobre S:

PS (t) = ht|1i 1 + ht|(3 5/2)(t2 1/3)i (3 5/2)(t2 1/3)
Z 1 Z 1
= t dt + (45/4) t(t2 1/3) dt (t2 1/3)
0 0
2
= 1/2 + (45/48)(t 1/3)

c.) Um polinomio p(t) = a + bt + ct2 + dt3 R3 [t] estara em T sse h(a + bt +


ct + dt3 )|1i = 0 isto e, sse a + b/2 + c/3 + d/4 = 0. Portanto:
2

T = {p(t) = a + bt + ct2 + dt3 R3 [t] : a + b/2 + c/3 + d/4 = 0 }


que e um hiperplano em R3 [t].
d.) Um polinomio p(t) = a + bt + ct2 + dt3 R3 [t] estara em ker T sse:
0 = T[p(t)] = p00 (t) 2tp0 (t)
= (a + bt + ct2 + dt3 )00 2t(a + bt + ct2 + dt3 )0
= (2c + 6dt) 2t(b + 2ct + 3dt2 )
= 2c + (6d 2b)t 4ct2 6dt3
donde 2c = 0, 6d 2b = 0, 4c = 0, 6d = 0, isto e, b = c = d = 0. Portanto o
ker T e constitudio pelos polinomios p(t) = a + bt + ct2 + dt3 R3 [t] tais que
b = c = d = 0, isto e, ker T = {a : a R} = span{1}.
im T e constitudia pelos polinomios P (t) = A + Bt + Ct2 + Dt3 R3 [t] tais
que:
T(a + bt + ct2 + dt3 ) = A + Bt + Ct2 + Dt2 3
para algum polinomio p(t) = a + bt + ct2 + dt3 R3 [t]. Como T[p(t)] = 2c + (6d
2b)t 4ct2 6dt3 , vem que:
2c + (6d 2b)t 4ct2 6dt3 = A + Bt + Ct2 + Dt3
isto e:

2c = A
2b + 6d = B

2b + 6d = B 2c = A

4c = C
6d = D

6d = D 0 = 2A + C
e portanto im T = {P (t) = A + Bt + Ct2 + Dt3 R3 [t] : 2A + C = 0}.

7.8 Aplicacoes. Mnimos quadrados


I 7.32 Solucao dos mnimos quadrados ... Seja:
Ax = b (7.8.1)
um sistema de equacoes lineares, nao homogeneo, escrito em forma matricial. A
e uma matriz m n, x Rn e b Rm e um vector fixo.
7.8. Aplicacoes. Mnimos quadrados 109

Uma solucao dos mnimos quadrados do sistema (7.8.1) e, por definicao,


b, que satisfaz:
um vector x

kAb
x bk e mnimo (7.8.2)

Interpretando A como a matriz de uma aplicacao linear A : Rn Rm , relativa-


mente as bases canonicas de cada um destes espacos, vemos que o significado de
uma solucao dos mnimos quadrados e o seguinte:

b Rn cuja imagem Ab
e um vector x x esta mais proxima de b.

I 7.33 Quando ker A = {0} a solucao x b e unica. Quando b im A, x b e uma


solucao exacta do sistema. Quando b b e dada
/ im A, e ker A = {0} a solucao x
por:
b = A1 Pim A (b)
x (7.8.3)

Isto e, para calcular a solucaodos mnimos quadrados do sistema (7.8.1) procede-


se da seguinte forma:

b = Pim A (b) im A, de b sobre a imagem


1. Calcula-se a projeccao ortogonal y
de A. Pelo teorema da aproximacao optima, este sera o vector da imagem
de A, que melhor aproxima b.
b tal que:
2. Calcula-se x
Ab b = Pim A (b)
x=y (7.8.4)

I 7.34 Exemplo ... Considere a aplicacao linear A : R2 R3 definida por:

A(x, y) = (x + y, x y, x)

a.) Calcule o ortogonal da imagem de A em R3 , com a estrutura Euclideana


usual.

b.) Calcule a solucaodos mnimos quadrados do sistema:



x+y = 1
xy = 1

x = 0

Calcule o erro associado a essa solucao e explique qual o seu significado geometrico
(da solucao e do seu erro).
7.8. Aplicacoes. Mnimos quadrados 110

Resolucao ...
a.) A imagem de A e constituda por todos os vectores (X, Y, Z) R3 tais
que:
(X, Y, Z) = A(x, y) = (x + y, x y, x)
para algum vector (x, y) R2 . A questao e pois: quais os vectores (X, Y, Z) R3
para os quais existe (x, y) tal que:

x+y = X
xy = Y ?

x = Z

Resolvendo o sistema em ordem a x, y (com X, Y, Z como parametros), vem que:



x = Z
y = X Z

0 = X + Y 2Z

Portanto a imagem de A e o plano X + Y 2Z = 0 em R3 . O seu ortogonal e a


recta gerada pelo vector n = (1, 1, 2).

b.) Por definicao (e pelo teorema da aproximacao optima), a solucaodos


mnimos quadrados e a solucao do sistema:

Ax = Pim A (b)

onde Pim A (b) e a projeccao ortogonal do vector b = (1, 1, 0) sobre o plano imagem
de A: X + Y 2Z = 0.
Essa projeccao pode ser calculada pela seguinte formula:
(1, 1, 0) (1, 1, 2) 2
Pim A (1, 1, 0) = (1, 1, 0) (1, 1, 2) = (1, 1, 1)
k(1, 1, 2)k2 3

Logo a solucao procurada e a solucao do sistema:



x+y = 2/3
xy = 2/3

x = 2/3
que e:
x = 2/3, y=0

O erro associado e, por definicao, igual a distancia entre o ponto (1, 1, 0) e a


Pim A (b):
2
e = k(1, 1, 0) (1, 1, 1)k = 6/3
3

I 7.35 Exemplo ... Calcular a solucao dos mnimos quadrados do sistema:




x + 2y = 1


3x y + z = 0
x + 2y + z = 1 (7.8.5)


x
y 2z = 2

2x + y z = 2

e o erro correspondente.
7.9. Metodo dos mnimos quadrados. Aproximacao de dados por uma
recta 111

7.9 Metodo dos mnimos quadrados. Aproximacao de


dados por uma recta
I 7.36 Aproximacao de dados por uma recta pelo metodo dos mnimos
quadrados

Suponhamos que se fazem n medicoes de uma certa grandeza y, em n instantes


ti , i = 1, ..., n, obtendo os resultados:

t1 t2 t3 tn
(7.9.1)
y1 y2 y3 yn

Representemos os n pontos (ti , yi ) no plano em R2t,y ,e suponhamos que se pre-


tende calcular uma recta do tipo:

y = t + (7.9.2)

que melhor ajuste esses dados.


Em que sentido deve ser entendido este melhorajustamento?
Para cada ti , o erro ei entre o valor medido yi e o valor estimado a partir da
recta referida (supondo que ela esta ja calculada) e igual a:

i = yi (ti + ), i = 1, 2, , n

Podemos reunir estas equacoes numa unica em forma matricial:

= y Ax (7.9.3)

onde:

1 y1 t1 1
2 y2 t2 1

= .. , y= .. , A= .. , x=
. . .
n yn tn 1

e o chamado vector de erro e y o vector de dados. Os coeficientes e , as


incognitas do problema, sao as componentes do vector x.
Se os dados se ajustassem exactamente, yi = ti + , os erros seriam todos
nulos i = 0, e poderamos resolver o sistema Ax = y. Por outras palavras, os
7.10. Transformacoes ortogonais e unitarias. Exemplos 112

dados estarao todos numa linha recta sse y im A. Se eles nao forem colineares
entao devemos procurar a recta para a qual o erro total:
1/2
kk = 21 + + 2n

seja mnimo.


Em linguagem vectorial, procuramos pois o vector x = que minimiza

a norma Euclideana do vector erro:

kk = kAx yk

que e exactamente a situacao que caracteriza a procura da solucao dos mnimos


quadrados para o sistema Ax = y, que foi explicada no ponto anterior.

I 7.37 Exemplo ... Calcular a recta de aproximacao dos mnimos quadrados


para os dados seguintes:
ti 0 1 3 6
(7.9.4)
yi 2 3 7 12

Solucao: y = 12/7(1 + t).

7.10 Transformacoes ortogonais e unitarias. Ex-


emplos
I 7.38 Definicao ... [Transformacoes ortogonais] ... Seja (V, h | i) um espaco
Euclideano de dimensao n, isto e, um espaco vectorial real com um produto
interno Euclideano. Um operador linear A : V V diz-se uma transformacao
ortogonal de V, se A preserva o produto interno h | i, i.e.:

hA(v)|A(w)i = hv|wi v, w V (7.10.1)

Se A e a matriz de uma tal transformacao ortogonal, relativamente a uma


base ortonormada de V, entao (7.10.1) escreve-se na seguinte forma matricial:

(Av)t Aw = vt w v, w V

ou ainda:
vt At Aw = vt w = vt I w v, w V
o que significa que a matriz A e uma matriz ortogonal, isto e:

At A = I (7.10.2)

Note ainda que se A e uma matriz ortogonal entao, uma vez que:

1 = det I = det (AAt ) = det A det (At ) = (det A)2 , e det A R

conclumos que det A = 1 e, em particular A e inversvel com:

A1 = At

O conjunto de todas as matrizes ortogonais n n reais formam um subgrupo


de G`(n) = G`(n; R), que se diz o grupo ortogonal em dimensao n e nota-se por
7.10. Transformacoes ortogonais e unitarias. Exemplos 113

O(n). O conjunto de todas as matrizes ortogonais n n reais, de determinante


1, formam um subgrupo de O(n), que se diz o grupo ortogonal especial em
dimensao n e nota-se por SO(n):

O(n) = A Mn (R) : At A = I

SO(n) = A Mn (R) : At A = I, e det A = 1 (7.10.3)

I 7.39 Definicao ... [Transformacoes unitarias] ... Seja (V, h | i) um espaco


unitario de dimensao n, isto e, um espaco vectorial complexo com um produto
interno Hermitiano. Um operador linear A : V V diz-se uma transformacao
unitaria de V, se A preserva o produto interno hermitiano h | i, i.e.:

hA(v)|A(w)i = hv|wi v, w V (7.10.4)

Se A e a matriz de uma tal transformacao unitaria, relativamente a uma


base ortonormada de V, entao (7.11.1) escreve-se na seguinte forma matricial:

(Av)t Aw = vt w v, w V

ou ainda:
vt At Aw = vt w = vt I w v, w V

o que significa que a matriz A e uma matriz unitaria, isto e:

At A = I (7.10.5)

Dada uma matriz A, define-se a respectiva matriz adjunta A , como sendo


a conjugada transposta de A:
t
A = A (7.10.6)

Portanto A e unitaria sse:


AA = I (7.10.7)

Note ainda que, uma vez que:


t t
det (AA ) = det (AA ) = det A det (A ) = det A det A = |det A|

conclumos que, se A e unitaria, entao |det A| = 1 e, em particular A e inversvel


com:
A1 = A

Note que agora det A C.

O conjunto de todas as matrizes unitarias nn complexas formam um subgrupo


de G`(n; C), que se diz o grupo unitario em dimensao n e nota-se por U(n).
O conjunto de todas as matrizes unitarias n n complexas, de determinante 1,
formam um subgrupo de U (n), que se diz o grupo unitario especial em dimensao
n e nota-se por SU (n):

U (n) = A Mn (C) : A A = I

SU (n) = A Mn (C) : A A = I, e det A = 1 (7.10.8)
7.11. Transformacoes unitarias em C2 . Os grupos U(2) e SU(2) 114

7.11 Transformacoes unitarias em C2 . Os grupos


U(2) e SU(2)
I 7.40 Uma aplicacao linear A : C2 C2 diz-se uma transformacao unitaria
de C2 , se A preserva o produto interno hermitiano usual de C2 , i.e.:

hA(z)|A(w)i = hz|wi z, w C2 (7.11.1)

Se A e a matriz de uma tal transformacao unitaria, relativamente a base canonica


de C2 , entao (7.11.1) escreve-se na seguinte forma matricial:

(Az)t Aw = zt w z, w C2

ou ainda:
zt At Aw = zt w = zt I w z, w C2
o que significa que a matriz A e uma matriz unitaria, i.e.:

At A = I (7.11.2)

Recordemos que, dada uma matriz A, define-se a respectiva matriz adjunta A ,


como sendo a conjugada transposta de A:
t
A = A

Portanto A e unitaria sse:


AA = I (7.11.3)
t t
Note ainda que, uma vez que det (AA ) = det (AA ) = det A det (A ) = det A det A =
|det A|, conclumos que, se A e unitaria, entao |det A| = 1 e, em particular A e
inversvel com A1 = A .

I 7.41 O subgrupo de U(2) constitudo por todas as transformacoes unitarias


de C2 , que tem determinante 1 diz-se o grupo unitario especial e nota-se por
SU(2). Este grupo e isomorfo ao grupo das matrizes unitarias de determinante 1,
tambem notado por SU (2).


Suponhamos que A = e uma matriz em SU(2), de tal forma que

A1 = A e det A = = 1. Temos entao que:

1
A = =A =

isto e: = e = . Portanto SU (2) e o grupo das matrizes que sao da forma:




A= e det A = ||2 + ||2 = 1 (7.11.4)

7.12 Exerccios
I Exerccio 7.1 ... Verifique quais das seguintes funcoes sao produtos inter-
nos Euclidianos em R2 ou R3 :
a) hu, vi = x1 y 1 x1 y 2 x2 y 1 +3x2 y 2 , sabendo que u = (x1 , x2 ), e v = (y 1 , y 2 ).
7.12. Exerccios 115

b) hu, vi = x1 y 1 + x1 y 2 2x2 y 1 + 3x2 y 2 , sabendo que u = (x1 , x2 ), e v =


(y , y 2 ).
1

c) hu, vi = 6x1 y 1 + 2x2 y 2 , sabendo que u = (x1 , x2 ), e v = (y 1 , y 2 ).


d) hu, vi = x1 y 1 + 3x2 y 2 + 4x3 y 3 , sabendo que u = (x1 , x2 , x3 ), e v =
(y , y 2 , y 3 ).
1

e) hu, vi = x1 y 1 + 3x2 y 2 + 4x3 y 3 x1 y 2 y 1 x2 , sabendo que u = (x1 , x2 , x3 ),


e v = (y 1 , y 2 , y 3 ).

I Exerccio 7.2 ... Calcule em cada caso hu, vi usando o produto interno
Euclidiano usual e o produto interno definido em 7.1-a). Depois, calcule kuk e
kvk recorrendo tambem a cada um desses dois produtos internos.
a) u = (1, 1), v = (1, 1);
b) u = (1, 0), v = (1, 2);
c) u = (2, 1), v = (4, 1);

I Exerccio 7.3 ... Calcule em cada caso hu, vi usando o produto interno
euclidiano usual e o produto interno definido em 7.1-d). Depois, calcule kuk e kvk
recorrendo tambem a cada um destes dois produtos internos.
a) u = (1, 1, 1), v = (1, 1, 2);
b) u = (1, 0, 1), v = (3, 1, 2);
c) u = (0, 0, 1), v = (1, 4, 6);

I Exerccio 7.4 ... Determine todos os valores reais de k para os quais hu, vi
e um produto interno Euclidiano em R2 :

hu, vi = x1 y 1 3x1 y 2 3x2 y 1 + kx2 y 2

I Exerccio 7.5 ... Determine todos os valores reais de a, b, c, d para os quais


hu, vi e um produto interno Euclidiano em R2 :

hu, vi = ax1 y 1 + bx1 y 2 + cx2 y 1 + dx2 y 2

I Exerccio 7.6 ... Sejam, u = (z 1 , z 2 ) e v = (w1 , w2 ) elementos de C2 .


Verifique que a funcao que se segue e um produto interno Hermitiano em C2 :

f (u, v) = z 1 w1 + (1 + i)z 1 w2 + (1 i)z 2 w1 + 3z 2 w2


Calcule a norma de v = (1 2i, 2 + 3i) usando o produto interno Hermitiano usual
e depois o produto interno definido neste exerccio.

I Exerccio 7.7 ... Em cada caso, determine o cos do angulo entre os vec-
tores u e v :
a) u = (1, 3, 2), v = (2, 1, 5) em R3 , usando o produto interno euclidiano
usual e o produto interno definido em 7.1-d).
b) u = 2t 1, v = t2 em R (t), usando o produto interno Euclidiano definido
no exerccio 7.14.
7.12. Exerccios 116

I Exerccio 7.8 ... No espaco linear R (t) verifique se hf, gi e um produto


interno.
a) hf, gi = f (1)g(1)
R
1
b) hf, gi = 0 f (t)g(t) dt
R1
c) hf, gi = 0 f 0 (t)g 0 (t) dt
R R
1 1
d) hf, gi = 0 f (t) dt 0
g(t) dt

I Exerccio 7.9 ... No espaco vectorial real das funcoes contnuas em (1, 1),
R1
seja hf, gi = 1 f (t)g(t) dt. Considere as tres funcoes u1 , u2 , u3 dadas por:
u1 (t) = 1, u2 (t) = t, u3 (t) = 1 + t.

Mostre que duas delas sao ortogonais, duas fazem um angulo de 3 entre si e
as outras duas fazem um angulo de 6 entre si.

I Exerccio 7.10 ... Prove cada uma das afirmacoes das alneas seguintes e
interprete-as geometricamente no caso do produto interno usual em R2 ou R3 .
2 2 2
a) hx, yi = 0 kx + yk = kxk + kyk .
2 2
b) hx, yi = 0 kx + yk = kx yk .
c) hx, yi = 0 kx + cyk kxk para todo o real c.
d) hx + y, x yi = 0 kxk = kyk .

I Exerccio 7.11 ... Calcule o angulo que o vector (1, 1, , 1) de Rn faz com
os vectores coordenados unitarios de Rn .

I Exerccio 7.12 ... Como se sabe, num espaco Euclidiano real com produto
1
interno hx, yi fica definida ume norma por kxk = hx, xi 2 . De uma formula para
obter o produto interno hx, yi a partir de normas de vectores apropriados.

I Exerccio 7.13 ... Seja V um espaco linear real normado e designe-se a


norma de x V por kxk . Prove que se a norma se pode obter de um produto
1
interno na forma kxk = hx, yi 2 entao:

2 2 2 2
kx yk + kx + yk = 2 kxk + 2 kyk

Esta identidade e conhecida por lei do paralelogramo. Verifique que corre-


sponde a afirmar que para um paralelogramo a soma dos quadrados dos compri-
mentos dos lados e igual a soma dos quadrados dos comprimentos das diagonais.

I Exerccio 7.14 ... Considere o espaco vectorial real R (t) no qual esta
R1
definido o seguinte produto interno: hf, gi = 0 f (t)g(t) dt. Seja f (t) = t + 2
e g(t) = t2 2t 3. Determine :
a) hf, gi b) kf k c) Um vector unitario com a direccao de g.
7.12. Exerccios 117

I Exerccio 7.15 ... Seja E um espaco vectorial no qual esta definido um


produto escalar. Mostre que :
2 2 2 2 1 2
a) ku + vk + ku vk = 2 kuk + 2 kvk b) hu, vi = 4 ku + vk
1 2
4 ku vk

I Exerccio 7.16 ... Em cada um dos casos, determine uma base ortonor-
mada do subespaco de R3 gerado pelos seguintes vectores:
a) x1 = (1, 1, 1), x2 = (1, 0, 1), x3 = (3, 2, 3).
b) x1 = (1, 1, 1), x2 = (1, 1, 1), x3 = (1, 0, 1).

I Exerccio 7.17 ... Em cada um dos casos, determine uma base ortonor-
mada do subespaco de R4 gerado pelos seguintes vectores:
a) x1 = (1, 1, 0, 0), x2 = (0, 1, 1, 0), x3 = (0, 0, 1, 1), x4 =
(1, 0, 0, 1).
b) x1 = (1, 1, 0, 1), x2 = (1, 0, 2, 1), x3 = (1, 2, 2, 1) .

I Exerccio 7.18 ... No espaco vectorial real R (t), com o produto interno
R1
hx, yi = 0 x(t)y(t) dt, mostre que as funcoes que se seguem formam uma base
ortonormada do subespaco por elas gerado:

y1 (t) = 1, y2 (t) = 3(2t 1), y3 (t) = 5(6t2 6t + 1).

I Exerccio 7.19 ... Seja S um subespaco de um espaco vectorial V. Mostre


que o S e o conjunto dos vectores ortogonais a todos os vectores de uma base de
S.

I Exerccio 7.20 ... Seja W o subespaco de R5 gerado pelos vectores u =


(1, 2, 3, 1, 2) e v = (2, 4, 7, 2, 1). Determine uma base do complemento ortogonal
W de W .

I Exerccio 7.21 ...

I Exerccio 7.22 ... Considere o espaco vectorial real R2 (t) no qual esta
R1
definido o produto interno hf, gi = 0 f (t)g(t) dt.
a) Determine uma base do subespaco W ortogonal a h(t) = 2t + 1.
b) Aplique o metodo de ortogonalizacao de Gram-Schmidt a base (1, t, t2 )
para obter uma base ortonormada (u1 (t), u2 (t), u3 (t)) de R2 (X) .

I Exerccio 7.23 ... Seja V o espaco linear das matrizes 22 de componentes


reais, com as operacoes usuais. Prove que fica definido um produto interno em V

por:
hA, Bi = a11 b11 + a12 b12 + a21 b21 + a22 b22 onde A = (aij ) e B = (bij ) .

a b
Calcule a matriz da forma , com a, b R, mais proxima da matriz
b a

1 2
A= .
1 3
7.12. Exerccios 118

I Exerccio 7.24 ... Considere o subespaco S de R3 gerado pelos vectores


(1, 0, 0) e (0, 1, 0).
a) Verifique que fica definido em R3 um produto interno por:
hx, yi = 2x1 y1 + x1 y2 + x2 y1 + x2 y2 + x3 y3 , onde x = (x1 , x2 , x3 ) e
y = (y1 , y2 , y3 ).
b) Determine uma base ortonormal para o subespaco S, com este produto
interno.
c) Determine o elemento de S mais proximo do ponto (0, 0, 1),usando o produto
interno de a).
d) Calcule um vector diferente de zero e ortogonal a S usando o produto interno
de a).

I Exerccio 7.25 ... No espaco vectorialR real das funcoes contnuas definidas
2
em (0, 2) , com o produto interno hf, gi = 0 f (x)g(x) dx, seja f (x) = exp(x).
Mostre que, o polinomio constante g, mais proximo de f e g = 21 (exp(2) 1).
2
Calcule kg f k .

I Exerccio 7.26 ... Usando os produtos internos usuais em R2 e R3 , calcule


em cada caso a projeccao ortogonal Pu (v), de v sobre a recta gerada pr u:
a) u=(1,1), v=(2,3);
b) u=(4,3), v=(0,1);
c) u=(1,1,1) , v=(1,-1,0);
d) u=(1,0,0), v=(0,1,2).

I Exerccio 7.27 ... Determine as projeccoes ortogonais seguintes:


b) v = 2t 1, w = t2 sobre R1 (t) usando o produto interno L2 .
Modulo 8

ALGA I. Subespacos
invariantes. Subespacos
proprios. Valores proprios

Contents
8.1 Conjugacao . . . . . . . . . . . . . . . . . . . . . . . . . 119
8.2 Subespacos invariantes . . . . . . . . . . . . . . . . . . 122
8.3 Valores e vectores proprios de um operador linear.
Operadores diagonalizaveis . . . . . . . . . . . . . . . . 123
8.4 Calculo de valores e vectores proprios . . . . . . . . . 124
8.5 Sistemas dinamicos lineares discretos . . . . . . . . . 127
8.6 Numeros de Fibonacci. Numero de ouro . . . . . . . 128
8.7 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . 133

8.1 Conjugacao
I 8.1 Mudanca de base ... Suponhamos que V e um espaco vectorial e que:

C = e1 e2 en
e uma base qualquer, escrita como um vector-linha com entradas vectoriais ei . Se
v V e um vector qualquer em V, designemos por v i as suas componentes na base
C , isto e:
X
v = v i ei
i

v1

v2

= e1 e2 en ..
.
vn
= C [v]C (8.1.1)

Suponhamos agora que mudamos de base:



C C P = Cb = b e1 b e2 b
en (8.1.2)

119
8.1. Conjugacao 120

que escrevemos na forma matricial seguinte:



P11 P21 Pn1

P12 P22 Pn2

b
e1 b
e2 b
en = e1 e2 en .. .. .. (8.1.3)
. . .
P1n P2n Pnn

ou muito simplesmente:
Cb = C P

Se vbi sao as componentes do mesmo vector v na base Cb, isto e, se:


X
v = vbi b
ei
i

= Cb[v]Cb (8.1.4)

entao vem que:


C [v]C = v = Cb[v]Cb = C P [v]C P
donde se conclui que:

C C P [v]C P = P 1 [v]C (8.1.5)

I 8.2 Suponhamos agora que L : V V e um operador linear, cuja matriz


relativamente a base C = {e1 , e2 , , en }, para V, e:

[L]C = [Lij ] (8.1.6)

Recorde que isto significa que:


X
L(ej ) = Lij ei
j

Portanto, se v = C [v]C V, isto e, se o vector das coordenadas de v, relati-


vamente a base C e: 1
v
v2

[v]C = .
..
vn
entao:
L(v) = L(v j ej ) = v j L(ej ) = v j (Lij ei ) = (Lij v j )ei
isto e, o vector das coordenadas de L(v), relativamente a base C , e obtido multi-
plicando a matriz [L]C pelo vector-coluna [v]C :

[Lv]C = [L]C [v]C (8.1.7)

I 8.3 Conjugacao ... Suponhamos agora que escolhemos uma nova base para
V:
Cb = C P

Como muda a representacao matricial de L? Isto e, se a


b i , como e que esta matriz se
matriz de L nesta nova base e L j
relaciona com a matriz Lij ?
8.1. Conjugacao 121

Para responder a esta questao, consideremos um vector arbitrario v V. Pode-


mos entao escrever:

v = C [v]C = (C P )[v]C P [v]C P = P 1 [v]C

Portanto:

por um lado:
L(v) = C [L(v)]C = C [L]C [v]C (8.1.8)

e, por outro lado:

L(v) = (C P )[L(v)]C P
= (C P )[L]C P [v]C P
= (C P )[L]C P P 1 [v]C (8.1.9)

Comparando (8.1.8) com (8.1.9), vem que:

C [L]C [v]C = (C P )[L]C P P 1 [v]C [L]C [v]C = P [L]C P P 1 [v]C

e como esta igualdade e valida v, temos que:

[L]C P = P 1 [L]C P (8.1.10)

Concluindo:

Se L : V V e um operador linear num espaco vectori-


al de dimensao finita, entao a representacao matricial de L
varia, com a escolha da base, numa classe de conjugacao de
matrizes:

C CP [L]C P = P 1 [L]C P (8.1.11)

I 8.4 Esta possibilidade de variar a representacao matricial de L, variando a


base, conduz-nos naturalmente ao seguinte problema:

Como escolher a base de V de tal forma que a representacao


matricial de L seja o mais simples possvel? Mais formal-
mente - se L = [L]C e a representacao matricial de L numa
certa base C, como seleccionar na classe de conjugacao de L:

{ P 1 L P : P G`(n)}

o representante mais simples possvel?

I 8.5 Uma solucao intuitiva para este problema consiste, grosso modo, em de-
compor o espaco vectorial V em blocos simples onde a accao de L seja facil de
descrever. Os conceitos que intervem nesta discussao sao os seguintes:

subespacos invariantes, em particular, subespacos proprios (e valores proprios


associados)
8.2. Subespacos invariantes 122

decomposicao de V como soma directa de subespacos invariantes


estrutura da restricao de L a cada subespaco invariante

Vamos de seguida discutir estes conceitos e posteriormente, no captulo 8, va-


mos dar uma solucao do problema anterior para uma classe muito importante de
operadores - a classe de operadores hermticos em espacos unitarios (em particular,
os operadores simetricos em espacos Euclideanos).

8.2 Subespacos invariantes


I 8.6 Definicao ... Seja V um espaco vectorial e L : V V um operador linear.
Um subespaco S V diz-se um subespaco invariante do operador L se:

L(S) S (8.2.1)

Um subespaco invariante de dimensao um diz-se um subespaco proprio do op-


erador L.

I 8.7 Teorema ... Seja V um espaco vectorial e L : V V um operador linear.


Entao V, {0}, ker L e im L sao subespacos invariantes do operador L.
Dem.: Basta aplicar directamente as definicoes.

I 8.8 Teorema ... Seja V um espaco vectorial de dimensao finita n, e L : V V


um operador linear.

1. Suponhamos que S e um subespaco invariante de dimensao k n. Entao


existe uma representacao matricial de L da forma:

A B
L= (8.2.2)
0 D

onde A e uma matriz k k, B uma matriz k (n k) e D uma matriz


(n k) (n k).
2. Suponhamos que S e T sao subespacos invariantes de dimensao k e n k,
respectivamente, tais que:
V =S T
Entao existe uma representacao matricial de L da forma:

A 0
L= (8.2.3)
0 D

onde A e uma matriz k k e D uma matriz (n k) (n k).

Dem.: 1. Seja {e1 , . . . , ek } uma base para S, e completemos essa base a


uma base {e1 , . . . , ek , ek+1 , . . . , en } de V (isto e possvel, pelo teorema da base
incompleta). E claro que o subespaco T = span{ek+1 , . . . , en } nao e, em geral,
um subespaco invariante de L, embora V = S T . De qualquer forma, podemos
sempre por:
Pk Pn
L(ei ) = Aj ej + =k+1 Ci e , i = 1, . . . , k
Pkj=1 ij Pn
L(e ) = j=1 B ej + =k+1 D e , = k + 1, . . . , n
8.3. Valores e vectores proprios de um operador linear. Operadores
diagonalizaveis 123

Mas como, por hipotese, L(S) S, temos que Ci = 0, i, , e portanto a repre-


sentacao matricial de L, na base indicada, e:
j
Ai Bj
L=
0 D

2. Analogo.
.

8.3 Valores e vectores proprios de um operador


linear. Operadores diagonalizaveis
I 8.9 Suponhamos que S V e um subespaco proprio do operador L, isto e, S
e um subespaco invariante de dimensao um. Como dim S = 1, S e gerado por um
qualquer dos seus vectores nao nulos. Suponhamos que v S {0}. Entao, como
dim S = 1, tem-se que:
L(v) = v (8.3.1)
para algum escalar Ik.

I 8.10 Definicoes ... Ik diz-se um valor proprio de L se existir um vector


nao nulo v 6= 0, em V, tal que:
L(v) = v (8.3.2)
Neste caso, v diz-se um vector proprio pertencente ao valor proprio . Ao
subespaco gerado por todos os vectores proprios, associados ao valor proprio ,
chama-se o espaco proprio de L, associado ao valor proprio e nota-se
usualmente por EL (), ou simplesmente por E(). Portanto:

def
E() = EL () = {v V : L(v) = v} (8.3.3)

A dimensao dim E() chama-se a multiplicidade geometrica do valor proprio


. O valor proprio diz-se degenerado quando dim E() 2.

I 8.11 Teorema ... Suponhamos que u, v V {0} sao vectores proprios per-
tencentes respectivamente aos valores proprios distintos , Ik, de um operador
linear L : V V. Entao u e v sao linearmente independentes.
Dem.: De facto, se por exemplo v = ru, para algum r Ik {0}, entao viria
que:
ru = v = L(v) = L(ru) = r L(u) = r u
e portanto:
r ( )u = 0
o que implica, uma vez que 6= e r 6= 0, que u = 0, o que e absurdo.

I 8.12 Definicao [Operador diagonalizavel] ... Um operador linear L : V


V diz-se diagonalizavel se qualquer das seguintes condicoes equivalentes se veri-
fica:
8.4. Calculo de valores e vectores proprios 124

Existe uma base de V, relativamente a qual a matriz de L e uma matriz


diagonal.

V decompoe-se numa soma directa de subespacos proprios (subespacos in-


variantes de dimensao um) de L.

8.4 Calculo de valores e vectores proprios


I 8.13 Suponhamos que Ik e um valor proprio do operador L : V V e que
E() e espaco proprio associado. Como ja vimos, a restricao de L a E() e uma
homotetia de razao (eventualmente pode ser 0), isto e:

L(v) = v v E()

Em particular, se = 0 e valor proprio de L, isto significa que o nucleo de L:

ker L = E(0)

nao se reduz ao vector nulo 0, e portanto L e nao inversvel (por outras palavras,
L e singular), ou de forma equivalente, det L = 0.
Quando 6= 0, dizer que e valor proprio de L, e equivalente a dizer que 0 e
valor proprio de L Id, o que, pelo paragrafo anterior, e equivalente a dizer que
L Id e singular, ou ainda que:

det (L Id) = 0 (8.4.1)

I 8.14 Definicao ... O polinomio:

p(t) = det (L t Id) (8.4.2)

diz-se o polinomio caracterstico de L.


Portanto as razes em Ik da chamada equacao caracterstica de L:

p(t) = det (L t Id) = 0 (8.4.3)

(se existirem), sao exactamente os valores proprios de L em Ik.

I 8.15 Para calcular o polinomio caracterstico de L, usamos uma representacao


matricial qualquer L do operador L, e pomos p(t) = det (L t Id). Note que o
polinomio caracterstico nao depende da representacao matricial de L. De facto,
qualquer outra representacao matricial de L, e do tipo P LP 1 , onde P e uma
matriz inversvel, e tem-se que:

det (P LP 1 t Id) = det (P LP 1 tP P 1 ) = det P (L t Id)P 1
= det (L t Id) = p(t)

I 8.16 Exemplo [Calculo de valores proprios] ... Calcule os valores e vec-


tores proprios (reais) do operador linear A : R2 R2 , cuja matriz na base canonica
de R2 :
3 4
A=
4 3
8.4. Calculo de valores e vectores proprios 125

A equacao caracterstica de A e:

p(t) = det (A t Id)



3t 4
= det
4 3 t
= t2 25 = 0 (8.4.4)

cujas razes reais (os valores proprios reais de A) sao 1 = 5 e 2 = 5.



x1
Para calcular os vectores poprios x = , pertencentes ao valor proprio
x2
= 5, devemos resolver o sistema:

35 4 x1 0
=
4 3 5 x2 0

isto e:
2x1 + 4x2 = 0
4x1 8x2 = 0
cuja solucao geral e:
x1 = 2s
sR
x2 = s
Portanto os vectores poprios de A, pertencentes ao valor proprio 1 = 5, sao da
forma:
2
s s R {0}
1
Por outras palavras, o espaco proprio E(5) e:

2
E(5) = span
1

Procedendo da mesma forma relativamente ao outro valor proprio 2 = 5,


podemos calcular que os vectores poprios de A, pertencentes ao valor proprio
2 = 5, sao da forma:

1
s s R {0}
2


2 1
Note que neste exemplo os vectores proprios u1 = e u2 =
1 2
2
formam uma base B = {u1 , u2 } de R relativamente a qual a matriz de A e
diagonal:
5 0
[A]B =
0 5
portanto A e um operador diagonalizavel.

I 8.17 Exemplo [Calculo de valores proprios] ... Calcule os valores e vec-


tores proprios (reais) do operador linear A : R3 R3 , cuja matriz na base canonica
de R3 e:
1 0 0
A = 5 2 0
2 3 7
8.4. Calculo de valores e vectores proprios 126

A equacao caracterstica de A e:

p(t) = det (A t Id)



1t 0 0
= det 5 2 t 0
2 3 7t
= (1)(2 t)(7 t) = 0 (8.4.5)

cujas razes reais (os valores proprios


reaisde A) sao 1 = 1, 2 = 2 e 3 = 7. Para
x1
calcular os vectores poprios x = x2 , pertencentes ao valor proprio 2 = 2,
x3
devemos resolver o sistema:

12 0 0 x1 0
5 2 2 0 x2 = 0
2 3 72 x3 0

isto e:
x1 = 0
5x1 = 0

2x1 + 3x2 + 5x3 = 0
cuja solucao geral e:
1
x = 0
x2 = 53 s sR
3
x = s

Portanto os vectores poprios de A, pertencentes ao valor proprio 2 = 2, sao da


forma:
0
s 53 s R {0}
1
Procedendo da mesma forma relativamente aos outros valores proprios a1 = 1 e
a3 = 7, podemos calcular os correspondentes vectores poprios.

Notas ...

1. Note que o polinomio caracterstico p(t) = det (L t Id), de um operador


linear L : R3 R3 , e sempre um polinomio do 3.o grau, do tipo:

p(t) = t3 + bt2 + ct + d b, c, d R

e por isso admite sempre uma raiz real R (eventualmente nula). Se


6= 0, conclumos portanto que, neste caso, existe sempre um subespaco
proprio invariante E() R3 , de dimensao superior ou igual a 1.

2. Todo o operador linear L : R3 R3 tem quando muito 3 valores proprios


distintos. Se L tem exactamente 3 valores proprios distintos, entao os corre-
spondentes vectores proprios formam uma base de R3 , e a matriz de L nessa
base, e uma matriz diagonal cujas entradas da diagonal principal, sao esses
valores proprios.
8.5. Sistemas dinamicos lineares discretos 127

8.5 Sistemas dinamicos lineares discretos


I 8.18 Um sistema dinamico linear discreto e um sistema recursivo do tipo:

x(k + 1) = Ax(k) (8.5.1)

onde A e uma matriz n n, e

x : INo Rn

e uma funcao que a cada instante de tempo discreto k = 0, 1, 2, ..., associa um


vector (ou um ponto) x(k) em Rn .
A equacao (8.5.1) indica pois a lei de evolucao do sistema: conhecido o valor
inicial do sistema:
x(0) = xo (8.5.2)
os valores nos instantes seguintes sao calculados sucessivamente atraves de:

x(1)= Axo
x(2)= Ax(1) = A2 xo
x(3)= Ax(2) = A3 xo
..
.
x(k) = Ax(k 1) = Ak xo
..
. (8.5.3)

I 8.19 Quando a matriz A de evolucao e diagonalizavel, o calculo explcito da


evolucao atraves da equacao (8.5.3):

x(k) = Ak x(0) (8.5.4)

torna-se particularmente simples.


De facto, suponhamos que B = [v1 v2 vn ] e uma base de Rn constituda
por vectores proprios (nao necessariamente distintos) da matriz A:

Avj = j vj , j = 1, 2, ..., n (8.5.5)

Se C = [e1 e2 en ] e a base canonica de Rn , pomos, como habitualmente:

B = CP xB = xC P = P 1 xC (8.5.6)

Portanto, pondo xC (k) = x(k) em (8.5.4), vem que:

xB (k) = P 1 xC (k)
= P 1 Ak xC (0)
= P 1 Ak P xB (0)
= (P 1 AP )k xB (0)
= (diag(1 , 2 , ..., n ))k xB (0)
= diag(k1 , k2 , ..., kn ) xB (0) (8.5.7)
8.6. Numeros de Fibonacci. Numero de ouro 128

Isto e, a i-componente de x(k) na base B, que diagonaliza A, e obtida muito


simplesmente multiplicando a potencia de expoente k, do valor proprio i , pela i
-componente do vector inicial x(0) na base B:

xiB (k) = (i )k xiB (0) (8.5.8)

Note que no membro direito da equacao anterior nao ha soma no ndice i!


Na pratica procedemos como segue:

[1]. Escrevemos o vector inicial x(0) na base B, calculando assim as componentes


ci = xiB (0): X
x(0) = BxB (0) = ci vi
i

[2]. Pomos: X
x(k) = C xC (k) = BxB (k) = (ci ki )vi
i

Concluindo :
X X
x(k) = (ci ki )vi , onde x(0) = ci vi (8.5.9)
i i

8.6 Numeros de Fibonacci. Numero de ouro


I 8.20 Numeros de Fibonacci ... sao definidos pela lei recursiva (de segunda
ordem) seguinte:
x(k + 2) = x(k + 1) + x(k) (8.6.1)
isto e, cada numero de Fibonacci e obtido somando os dois anteriores. As condicoes
iniciais sao:
x(0) = a, x(1) = b (8.6.2)

Por exemplo, para:


x(0) = a = 0, x(1) = b = 1 (8.6.3)
obtem-se:
0 1 1 2 3 5 8 13 21 34 (8.6.4)
8.6. Numeros de Fibonacci. Numero de ouro 129

Foram criados pelo matematico italiano Fibonacci como um modelo simplificado


do crescimento de uma populacao de coelhos. Neste modelo:
x(n) = numero total de pares de coelhos no ano n (8.6.5)
O processo inicia-se no ano n = 0 com um unico par de coelhos jovens. Ao fim de
cada ano, cada par da origem a um novo par de descendentes. No entanto, cada
par necessita de um ano para procriar o seu par de descendentes.

I 8.21 Numeros de Fibonacci. Escrita matricial ... Definamos, para cada


k IN, um vector x(k) R2 atraves de:

x(k)
x(k) = R2 (8.6.6)
x(k + 1)
Entao (8.6.1) pode ser escrita na forma matricial:

x(k + 1) 0 1 x(k)
= (8.6.7)
x(k + 2) 1 1 x(k + 1)
isto e:
0 1
x(k + 1) = Ax(k), onde A = (8.6.8)
1 1

I 8.22 Calculo explcito dos numeros de Fibonacci ... Para calcular a forma
explcita dos numeros de Fibonacci, usamos o metodo descrito no numero 8.19.

0 1
Para isso, determinamos os valores e vectores proprios da matriz A = .
1 1
Um calculo simples mostra que eles sao:

1+ 5 1+ 5
1 = = 1.618034..., v1 = 2
2 1

1 5 1 5
2 = = 0.618034..., v2 = 2 (8.6.9)
2 1

Escrevemos agora o vector inicial na base B:


xB (0) = P 1 xC (0)
1
1+ 5 1 5 a
= 2 2
1 1 b

2a+(1+ 5)b

= 2 5 (8.6.10)
2a+(1

2 5
5)b
B
isto e:
2a + (1 + 5)b 2a + (1 5)b
x(0) = v1 v2 (8.6.11)
2 5 2 5
Usando a formula (8.5.9) vem entao que:

2a + (1 + 5)b k 2a + (1 5)b k
x(k) = 1 v1 2 v2
2 5 2 5
!k
2a + (1 + 5)b 1 + 5 1+ 5
= 2
2 5 2 1
!k
2a + (1 5)b 1 5 1 5
2
2 5 2 1
8.6. Numeros de Fibonacci. Numero de ouro 130

donde se deduz que:


!k !k
(1 + 5)a + 2b 1 + 5 (1 + 5)a 2b 1 5
x(k) = + (8.6.12)
2 5 2 2 5 2

I 8.23 Formula de Binet ... Para os valores iniciais a = 0 e b = 1, obtemos a


chamada formula de Binet:

!k !k
1 1+ 5 1 5
x(k) = (8.6.13)
5 2 2

I 8.24 Numero de ouro ... Os valores proprios da matriz A, verificam as


desigualdades seguintes:

51 1+ 5
0 < |2 | = < 1 < 1 = (8.6.14)
2 2

Portanto os termos que envolvem k1 divergem para , enquanto que os que


envolvem k2 convergem para 0.

O valor proprio dominante 1 = 1+2 5 = 1.618034... e o chamado numero
de ouro (ou razao de ouro). Desempenha um papel muito importante em
crescimento em espiral em varios fenomenos naturais bem como em certas criacoes
artsticas em arquitectura e pintura.

I 8.25 Exerccio ... Considere a aplicacao linear:

T: R3 R3
(x, y, z) 7 T(x, y, z) = (4z, x + 2y + z, 2x + 4y 2z)

a.) Calcular a matriz de T relativamente a base canonica de R3 . Calcular o


nucleo e a imagem de T.
b.) Calcular os valores proprios de T e, se possvel, uma base de R3 constituda
por vectores proprios de T. Calcule a matriz de T relativamente a esta nova base.
c.) Usando os resultados das alneas anteriores, calcule T3 (0, 0, 4), onde
3
T = T T T.

Resolucao ...

0 0 4
a.) A matriz e T = 1 2 1 . ker T = {(x, y, z) R3 : T(x, y, z) =
2 4 2
(4z, x + 2y + z, 2x + 4y 2z) = (0, 0, 0)} o que implica que:

4z = 0 z = 0
x + 2y + z = 0 x + 2y = 0

2x + 4y 2z = 0 2x + 4y = 0

x = 2t
z = 0
y = t tR
x + 2y = 0
z = 0
8.6. Numeros de Fibonacci. Numero de ouro 131

isto e ker T = {t(2, 1, 0) : t R3 } = span{(2, 1, 0)} que e a recta de R3 gerada


por (2, 1, 0) e de equacoes cartesianas x + 2y = 0 e z = 0.
A imagem de T e gerada por T(e1 ) = (0, 1, 2), T(e2 ) = (0, 2, 4) e T(e3 ) =
(4, 1, 2), isto e:

imT = span{(0, 1, 2), (0, 2, 4), (4, 1, 2)}


= {(x, y, z) R3 : (x, y, z) = a(0, 1, 2) + b(0, 2, 4) + c(4, 1, 2), a, b, c R}

Portanto:

4c = x a + 2b + c = y
a + 2b + c = y ........ 4c = 2y z

2a + 4b 2c = z 0 = x 2y + z

isto e, imT e o plano x 2y + z = 0 em R3 .

E(T; 4) = span{(1, 0, 1)}


E(T; 0) = span{(2, 1, 0)}
E(T; 4) = span{(1, 1, 1)}

e os vectores {e1 = (1, 0, 1), e2 = (2, 1, 0), e3 = (1, 1, 1)} constituem uma base
de vectores proprios de T que e, por isso, diagonalizavel. Nesta base a matriz de
T e diag(4, 0, 4).
c.) Calculando as componentes do vector (0, 0, 4) na base de vectores proprios
de T, calculada anteriormente, vem que:

(0, 0, 4) = a(1, 0, 1) + b(2, 1, 0) + c(1, 1, 1) = (a 2b + c, b + c, a + c)

donde se deduz que a = 1, b = 1, c = 1. Portanto:

T3 (0, 0, 4) = T3 (1, 0, 1) + T3 (2, 1, 0) T3 (1, 1, 1)


= (4)3 (1, 0, 1) + 03 (2, 1, 0) 43 (1, 1, 1)
= (0, 64, 128)

I 8.26 Exerccio ... Considere a aplicacao linear A : R2 R2 definida por:

A(x, y) = (6x 2y, 2x + 9y)

a.) Mostrar que A e diagonalizavel e calcular uma base ortonormada para R2


(com a estrutura Euclideana usual) constituda por vectores proprios de A.

b.) Considere as sucessoes (xn ) e (yn ), definidas pelas formulas de recorrencia


seguintes:

xn+1 = 6xn 2yn x0 = 1
, n0 e
yn+1 = 2xn + 9yn y0 = 1

Calcule xn e yn como funcoes de n.

Resolucao ...
8.6. Numeros de Fibonacci. Numero de ouro 132

a.) A matriz de A relativamente a base canonica de R3 e a matriz simetrica:



6 2
A=
2 9

Os valores proprios calculam-se por:



6 2
det (A Id) = det = (6 )(9 ) 4 = 0
2 9

Como existem dois (= dim R2 ) valores proprios distintos, A e diagonalizavel.


Os espacos proprios calculam-se da forma habitual e sao:

2 1
E (5) = R e E (10) = R
1 2

Estes espacos sao ortogonais (tinham que o ser, pelo teorema espectral!). Um base
ortonormada para R2 constituda por vectores proprios de A e:

(2, 1) (1, 2)
B = u1 = , u2 =
5 5

xn
a.) Pondo xn = , as formulas de recorrencia dadas escrevem-se na
yn
forma vectorial:
xn+1 = Axn , x0 = (1, 1)

6 2
onde A = . Os calculos devem ser feitos na base B que diagonaliza
2 9
o operador A. Escrevendo o vector xn na base B, vem que:

xn = (xn u1 )u1 + (xn u2 )u2


1 1
= (2xn + yn ) u1 + (xn 2yn ) u2 (8.6.15)
5 5
2xn
+yn , y xn
2yn
isto e, as componentes de xn na base B sao x
en = 5
en = 5
.
Na base B as formulas de recorrencia escrevem-se na forma:

x
en+1 5 0 x
en 5e
xn
= =
yen+1 0 10 yen 10eyn
Portanto:
2
x
e1 5e
x0 x
e2 5e
x1 5 x
e0
= , = =
ye1 10e
y0 ye2 10e
y1 102 ye0
n
x
en 5 x e0
=
yen 10n ye0

2x
0 +y0 3 , y x0
2y0 1
Mas x
e0 = 5
= 5
e0 = 5
=
5
. Portanto:
( 2xn
x
en = +yn = 5n 35
5
xn
2yn 1
yen = 5
= 10n 5

e resolvendo em ordem a xn e yn obtemos:

xn = 2 5n1 (3 2n1 ), yn = 5n1 (3 + 4 2n1 )


8.7. Exerccios 133

8.7 Exerccios
I Exerccio 8.1 ... Seja f um endomorfismo de R2 (X) tal que X + X 2 e
um vector proprio associado ao valor proprio 2, 1 + X e um vector proprio
associado ao valor propprio 5 e X 2 e um vector proprio associado ao valor proprio
-3. Determine f (a0 + a1 X + a2 X 2 ).

I Exerccio 8.2 ... Seja f um endomorfismo de C2 (X) munido da estrutura


usual de espaco vectorial complexo. Suponha que :
1 + iX e um vector proprio de valor proprio i,
1 X e um vector proprio de valor proprio 1 e
X 2 e um vector proprio de valor proprio 1.
Calcule f (a + bX + cX 2 ).

I Exerccio 8.3 ... Seja f um automorfismo de um espaco vectorial E. Qual


a relacao entre os valores proprios de f e os valores proprios de f 1 ?

I Exerccio 8.4 ... Sejam f e g endomorfismos de E.


a) Mostre que, se u e um vector proprio de f , com valor proprio associado
entao u e um vector proprio de f f com valor proprio associado 2 .
b) Mostre que, se u e um vector proprio de f e de g, entao u e um vector
proprio de g f e de qualquer combinacao linear de f e de g, af + bg.
c) Mostre que, se todos os elementos nao nulos de E sao vectores proprios
de f , entao f tem um unico valor proprio (e, portanto, existe R tal que, para
qualquer u E, f (u) = u).

I Exerccio 8.5 ... Seja f : R3 R3 um endomorfismo tal que:



(x, y, z) R3 : x = y = z e (x, y, z) R3 : x y + z = 0
sao subespacos proprios associados respectivamente aos valores proprios 1 e 2.
Determine f ((x, y, z)).

I Exerccio 8.6 ... Em cada um dos seguintes casos, determine, se existirem,


os valores proprios de f , os subespacos proprios associados e as respectivas di-
mensoes e diga se f e diagonalizavel; no caso de f ser diagonalizavel, indique uma
base do domnio de f composta por vectores proprios de f e indique a matriz de
f relativamente a essa base.
a) f : R2 R2 , f (x, y) = (2x y, y); b) f : R2 R2 , f (x, y) =
(x, y);
c) f : R2 R2 , f (x, y) = (3x + y, 12x + 2y);
d) f : R3 R3 , f (x, y, z) = (3x + y + z, 3y + z, 3z);
e) f : R3 R3 , f (x, y, z) = (3x + y + z, 3y, 3z);
f) f : R2 (X) R2 (X) , f (P ) = P (0) + XP (1) + X 2 P (1);
g) f : R3 (X) R3 (X), f (P ) = P + (X + 1)P 0;
h) f : M2,2 (R) M2,2 (R),

a b 3a + 2b + c + d 2a + 3b + c d
f = .
c d 2c c
8.7. Exerccios 134

i) f : C2 C2 , f (u, v) = (iu, u + v);

I Exerccio 8.7 ... Calcular formulas explcitas para as solucoes das seguintes
formulas recursivas:

x(k + 1) = x(k) 2y(k) x(0) = 1
a). ,
y(k + 1) = 2x(k) + y(k) y(0) = 0
1

x(k + 1) = 2 x(k)+ y(k) x(0) = 1
b). y(k + 1) = y(k) 2z(k) , y(0) = 1
1
z(k + 1) = 3 z(k) z(0) = 1

c). x(k + 2) = x(k + 1) + 2x(k), x(0) = 1, x(1) = 2

d). x(k + 3) = 2x(k + 2) + x(k + 1) 2x(k), x(0) = 0, x(1) = 2, x(2) = 3

I Exerccio 8.8 ... Classifique as seguintes isometrias em R2 :



3 3
a) f (x, y) = ( 12 x + 1
2 y, 2 x 2 y).

b) f (x, y) = ( 12 x + 23 y, 23 x + 12 y).
c) f (x, y) = ( 45 x + 35 y, 35 x 45 y).
d) f (x, y) = (x, y).
e) f (x, y) = (y, x).

I Exerccio 8.9 ... Em cada um dos casos quese seguem,


determine Sr (x, y),
2 1 0
bc Mbc (Sr ) e uma base b de R tal que b Mb (Sr ) = .
0 1
a) r e a recta de equacao y = 2x;
b) r e a recta de equacao 3x y = 0;
c) r e a recta de equacao y = (tg 5 )x;

I Exerccio 8.10 ... Em cada um dos seguintes casos, mostre que o endomor-
fismo f de R2 ou R3 e uma isometria linear e descreva f geometricamente (isto
e, diga se f e uma simetria ou uma rotacao; no caso de ser uma simetria, diga
relativamente a que recta, no caso de ser uma rotacao determine o angulo).
a) f (x, y) = (y, x);
b) f (x, y) = (y, x);

2x 2y
c) f (x, y) = ( 2 , 2x+
2
2y
);
d) f (x, y) = (( cos 8 )x + (sin 8 )y, (sin 8 )x

+ (cos 8 )y);

I Exerccio 8.11 ... Dado:


a) a = (1, 4, 3), calcule Pa (x) sendo x = (x, y, z) R3 . Calcule ker Pa . Defina
Sa (x).
b) a = (0, 1, 2), calcule Pa (x) sendo x = (x, y, z) R3 . Calcule ker Pa . Defina
Sa (x).
c) a = (1, 1, 1), calcule Pa (x) sendo x = (x, y, z) R3 . Calcule ker Pa . Defina
Sa (x).
8.7. Exerccios 135

d) a = (1, 1), calcule Pa (x) sendo x = (x, y) R2 . Calcule ker Pa . Defina


Sa (x).
e) a = (1, 0), calcule Pa (x) sendo x = (x, y) R2 . Calcule ker Pa . Defina
Sa (x).

I Exerccio 8.12 ... Defina a simetria relativamente a recta 2x y = 0 em


R2 .

I Exerccio 8.13 ... Em cada uma das alneas que se seguem, calcule P (x)
e ker P , em R3 sendo cada um dos planos que se seguem. Calcule tambem em
cada caso, os valores proprios e os vectores proprios de P . Finalmente, defina
Defina S (x).
a) 2x y + 3z = 0;
b) x + y + z = 0;
c) 3x + y + 2z = 0.

I Exerccio 8.14 ... As matrizes que se seguem, representam rotacoes em R3


relativamente a base canonica. Mostre que sao matrizes ortogonais de determi-
nante igual a 1. Calcule o eixo e o angulo de rotacao:

0 1 0 0 2 2

2 2 2
a) A = 22 0 2 ; b) A = 1 0 0 ; c) A =
2
0 22 0 22 22
2
0 1 0
0 0 1 .
1 0 0
Modulo 9

ALGA I. Operadores
auto-adjuntos (simetricos e
hermitianos). Teorema
espectral

Contents
9.1 Operadores auto-adjuntos (simetricos e hermitianos) 136
9.2 Teorema espectral
para operadores auto-adjuntos . . . . . . . . . . . 139
9.3 Diagonalizacao de formas quadraticas reais . . . . . . 141
9.4 Propriedades extremais dos valores proprios . . . . . 143
9.5 Operadores comutativos . . . . . . . . . . . . . . . . . 145
9.6 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . 146

9.1 Operadores auto-adjuntos (simetricos e her-


mitianos)

I 9.1 Como ja vimos numa seccao anterior, se L : V V e um operador linear


num espaco vectorial de dimensao finita, entao a representacao matricial de L
varia com a escolha da base numa classe de conjugacao de matrizes:

C CP [L]C [L]C P = P 1 [L]C P (9.1.1)

Esta possibilidade de variar a representacao matricial de L, variando a base,


conduz-nos naturalmente ao seguinte problema:

136
9.1. Operadores auto-adjuntos (simetricos e hermitianos) 137

Como escolher a base de V de tal forma que a representacao


matricial de L seja o mais simples possvel? Mais formal-
mente - se [L]C e a representacao matricial de L numa certa
base C , como seleccionar na classe de conjugacao de L:

{[L]C P = P 1 [L]C P : P G`(n)}

o representante mais simples possvel ?

I 9.2 Suponhamos agora que V e um espaco vectorial com um produto interno


h | i (como sempre, Euclideano se V e real, ou Hermitiano, se V for complexo). E
claro que nestes espacos, a classe de todas as bases ortonormadas desempenha um
papel central.

I 9.3 Suponhamos que C e Cb = C P sao duas bases ortonormadas em V. Entao


a matriz P e:

uma matriz ortogonal, P O(n), se V e Euclideano.

uma matriz unitaria, P U (n), se V e Hermitiano.

De facto, se C = {ei } e Cb = {b
ej }, com hei |ej i = ij e analogamente hb
e` |b
ek i =
`k , entao, como:
ei = e` Pi`
b
vem que (supondo que V e Hermitiano):

ij = hb
ei |b
ej i
= he` Pi` |ek Pjk i
= Pi` Pjk he` |ek i
= Pi` Pjk `k
X
= Pik Pjk
k

= (P t )ik Pjk P t P = Id (9.1.2)

o que mostra que P e unitaria: P P = Id. No caso Euclideano, a demonstracao e


analoga e, neste caso, P e ortogonal: P t P = Id.

I 9.4 Portanto, quando V e um espaco vectorial com um produto interno, a


pergunta anterior deve ser reformulada da seguinte forma:

Como escolher a base ortonormada de V de tal forma que a


representacao matricial de L seja o mais simples possvel?
Mais formalmente - se [L]C e a representacao matricial de L
numa certa base ortonormada C , como seleccionar na classe
de conjugacao de [L]C :

{[L]C P = P 1 [L]C P : P U (n)}

o representante mais simples possvel? (no caso Eu-


clideano, U (n) sera substitudo por O(n), e claro!)
9.1. Operadores auto-adjuntos (simetricos e hermitianos) 138

I 9.5 Definicao ... Seja (V, h | i) um espaco com um produto interno (Euclideano
se V e real, ou Hermitiano, se V for complexo). Um operador linear S : V V,
diz-se auto-adjunto se S satisfaz a condicao:

hS(v)|wi = hv|S(w)i v, w V (9.1.3)

No caso Euclideano S diz-se um operador simetrico, enquanto que no caso


Hermitiano, S diz-se um operador Hermitiano.

I 9.6 Teorema ... A matriz S = [Sji ] de um operador auto-adjunto S : V


V, num espaco com um produto interno (V, h | i), relativamente a uma base
ortonormada B = {e1 , e2 , , en } de V, e:

uma matriz simetrica, S = S t , no caso Euclideano.


uma matriz Hermitiana, S = S , no caso Hermitiano1 .

Dem.: De facto (no caso Hermitiano), se S(ej ) = Sjk ek , entao:

hei |S(ej )i = hei |Sjk ek i = Sjk hei |ek i = Sjk ik = Sji

enquanto que, por outro lado, atendendo a (9.1.3):

hei |S(ej )i = hS(ei )|ej i = Sik hek |ej i = Sik kj = Sij = (S t )ij

Portanto S t = S, ou ainda S = S. O caso Euclideano e analogo.


I 9.7 Teorema ... Seja S : V V, um operador auto-adjunto num espaco com


um produto interno (V, h | i). Entao:

Se S tem um valor proprio, esse valor proprio e real.


Suponhamos que v e w sao vectores proprios, pertencentes respectivamente
aos valores proprios distintos e , de S. Entao v e w sao ortogonais:
hv|wi = 0.

Dem.:
1. Seja v V {0}, um vector proprio pertencente ao valor proprio :

S(v) = v (9.1.4)

Usando o produto interno h | i, podemos exprimir o valor proprio , na forma:

hSv|vi
= (9.1.5)
kvk2
1 Se U () e uma curva de matrizes unitarias, tais que:
U (0) = Id, e U 0 (0) = iH
entao:
U ()t U () = Id U 0 (0)t + U 0 (0) = 0 iH t iH = 0 Ht = H
isto e, H e Hermitiana
9.2. Teorema espectral
para operadores auto-adjuntos 139

onde v e um vector proprio pertencente ao valor proprio . De facto:

S(v) = v hSv|vi = hv|vi = kvk2

o que implica (9.1.5), ja que v 6= 0. Portanto se S e auto-adjunto temos que:


hS(v)|vi hv|S(v)i
= 2
= =
kvk kvk2
isto e R.
2. Por hipotese, S(v) = v e S(w) = w. Por 1. sabemos ja que , R.
Temos entao sucessivamente que (no caso Hermitiano):

hv|wi = hv|wi = hSv|wi = hv|Swi = hv| wi = hv|wi = hv|wi

o que implica que ( ) hv|wi = 0, e portanto hv|wi = 0, ja que 6= . O caso


Euclideano e analogo.

9.2 Teorema espectral


para operadores auto-adjuntos
I 9.8 Notemos que um operador linear real pode nao ter valores proprios reais
(por exemplo, uma rotacao em R2 ). No entanto, e possvel provar que todo o
operador auto-adjunto tem pelo menos um valor proprio que, pela proposicao
anterior, e real.
O facto de maior interesse sobre operadores auto-adjuntos em espacos com
produto interno de dimensao finita, e que eles podem ser diagonalizados por con-
jugacao pelo grupo ortogonal O(n) (no caso Euclideano, isto e, quando S e oper-
ador simetrico) ou pelo grupo unitario U (n) (no caso Hermitiano, isto e, quando
S e operador Hermitiano). Mais precisamente, e valido o seguinte teorema funda-
mental.

I 9.9 Teorema ... [Teorema espectral para operadores auto-adjuntos em


espacos com produto interno de dimensao finita] ...
Seja S : V V, um operador auto-adjunto num espaco com produto interno
(V, h | i), de dimensao finita n.
Entao existe uma base ortonormada {u1 , u2 , , un }, para V, consti-
tuda por vectores proprios de S.
A matriz de S nessa base e portanto a matriz diagonal diag(1 , 2 , , n ),
onde k e o valor proprio correspondente ao vector proprio uk , para (k = 1, , n).

Dem.: A demonstracao far-se-a por inducao sobre a dimensao n. Se n = 1,


o resultado e trivial. Suponhamos que ele e valido, para todo o espaco vectorial
com produto interno, com dim n 1.
Como se referiu acima, S admite sempre um valor proprio (real) 1 . Seja u1 6= 0
um vector proprio pertencente ao valor proprio 1 : S(u1 ) = 1 u1 . Podemos supor
que ku1 k = 1. Seja S o subespaco ortogonal a u1 , de tal forma que:

V = R u1 S (9.2.1)
9.2. Teorema espectral
para operadores auto-adjuntos 140

Entao S deixa S invariante: S(S) S (porque?). Alem disso, S e um espaco


vectorial com um produto interno, de dimensao n 1, e S|S e auto-adjunto. Resta
aplicar a hipotese de inducao para concluir a prova.

I 9.10 Exemplo ... Seja S o operador simetrico em R3 , cuja matriz na base


canonica de R3 e (a matriz simetrica):

1 0 0
S= 0 1 2
0 2 1
A equacao caracterstica e:

1t 0 0
p(t) = det (S t Id) = 0 1t 2 =0
0 2 1t
isto e:
(1 t)[(1 t)2 4] = 0
Os valores proprios de S, sao portanto t = 1, 1, 3. Calculemos uma base ortonor-
mada de vectores proprios. Para isso substitumos sucessivamente t por 1, 1 e 3,
na equacao matricial seguinte:
1
1t 0 0 x 0
0 1t 2 x2 = 0
0 2 1t x3 0
Resolvendo os correspondentes sistemas de equacoes, e tendo o cuidado de nor-
malizar os vectores proprios para que eles tenham norma 1, obtemos a base
seguinte:

1
u1 = 0 pertencente ao valor proprio = 1
0

0
1
u2 = 1 pertencente ao valor proprio = 1
2 1

0
1
u3 = 1 pertencente ao valor proprio = 3
2 1

Designando por C = [i k] a base canonica de R3 e por B = [u1 u2 u3 ], a


base constituda pelos vectores proprios de S, atras calculados, e pondo:
B = CP
vemos que a matriz P (que e ortogonal - (P 1 = P tr - como vimos), e dada por:

1 0 0
P = 0 1 1
2 2
0 2 12
1

Podemos verificar directamente que:



1 0 0
P t SP = 0 1 0
0 0 3
9.3. Diagonalizacao de formas quadraticas reais 141

9.3 Diagonalizacao de formas quadraticas reais


I 9.11 Suponhamos agora que V e um espaco vectorial real de dimensao n, com
um produto interno Euclideano h | i, e que:

: V V R (9.3.1)

e uma forma bilinear simetrica em V. A forma quadratica associada a e, por


definicao, a funcao Q = Q : V R dada por:

Q(v) = (v, v), vV (9.3.2)

I 9.12 Seja C = {e1 , , en } uma base para V. Por definicao, a matriz de


Gram de na base C , e a matriz simetrica []C = [ij ], dada por:

def
ij = (ei , ej ), i, j = 1, . . . , n (9.3.3)

Se v = xi ei , entao:

Q(v) = Q(xi ei )
def
= Q(x1 , , xn )
= (xi ei , xj ej )
X
= ij xi xj
ij

= [v]tC []C [v]C , em notacao matricial (9.3.4)

I 9.13 Se mudarmos a base C , para uma nova base C P :

C C P

sabemos ja que as coordenadas de um vector v mudam de acordo com a formula:

C C P = [v]C P = P 1 [v]C

Qual e a matriz de Gram de na base C P ?


Por um lado:

Q(v) = [v]tC []C [v]C


t
= (P [v]C P ) []C P [v]C P
= [v]tC P P t []C P [v]C P (9.3.5)

e, por outro lado:


Q(v) = [v]tC P []C P [v]C P
Comparando as duas expressoes, conclumos que:

C C P = []C P = P t []C P (9.3.6)

I 9.14 A forma bilinear simetrica , podemos associar um operador simetrico


S = S : V V, tal que:

(u, v) = hS(u)|vi, u, v V (9.3.7)


9.3. Diagonalizacao de formas quadraticas reais 142

De facto, se u V, a formula (9.3.7) define S(u) como sendo o unico vector de V


tal que hS(u)|vi = (u, v), v V. Nao ha ambiguidade nesta definicao uma vez
que o produto interno h | i e nao degenerado. Alem disso:
hS(u)|vi = (u, v) = (v, u) = hS(v)|ui = hu|S(v)i
e portanto S e um operador simetrico.
E facil ver que a matriz de S, relativamente a base C , e a matriz de Gram
[]C . Pelo teorema espectral da seccao anterior, podemos encontrar uma base
ortonormada B = C P = {u1 , , un }, de V, constituda por vectores proprios de
S, e relativamente a qual a matriz de S e a matriz diagonal:
[]C P = D = diag[1 2 n ]
onde k e o valor proprio correspondente ao vector proprio uk , para (k = 1, . . . , n).

I 9.15 Atendendo a (9.3.6), vemos que:


Q(v) = [v]tC P []C P [v]C P
= [v]tC P diag[1 2 n ][v]C P (9.3.8)

Pondo v = xi ei = y j uj , isto e:
[v]C = [xi ], [v]C P = [y j ]
conclumos que:
Q(v) = Q(xi ei )
def
= Q(x1 , . . . , xn )
= [v]tC []C [v]C
= Q(y j uj )
def
= Q(y 1 , . . . , y n )
= [v]tC P []C P [v]C P
= [v]tC P diag[1 2 n ][v]C P
X
= i (y i )2 (9.3.9)
i

Portanto, a forma quadratica associada a , que nas x-coordenadas (relativa-


mente a base C ) foi escrita na forma (ver (9.3.4)):
X
Q(x1 , . . . , xn ) = bij xi xj
ij

escreve-se agora, nas y-coordenadas (relativamente a base B = C P , que diagonal-


iza S), na forma: X
Q(y 1 , . . . , y n ) = i (y i )2
i

I 9.16 Exemplo ... Continuando o exemplo da seccao anterior, consideremos a


forma quadratica associada ao endomorfismo simetrico a referido:
1
1 0 0 x
q(x1 , x2 , x3 ) = [x1 x2 x3 ] 0 1 2 x2
0 2 1 x3
= (x1 )2 + (x2 )2 + (x3 )2 + 4x2 x3
9.4. Propriedades extremais dos valores proprios 143


y1
Se designamos por y 2 as coordenadas de um vector v, na base B, entao, se
y3
x1
as coordenadas desse mesmo vector, na base C , sao x2 , vem que:
x3

x1 y1 1 0 0
x2 = P y2 , onde P = 0 1 1
2 2
x3 y3 0 12 1
2

isto e:

x1 = y1
1 1
x2 = y2 + y3
2 2
1 2 1
x3 = y + y3
2 2
e nas novas coordenadas (y i ), q escreve-se na forma:

q(y 1 , y 2 , y 3 ) = (y 1 )2 (y 2 )2 + 3(y 3 )2

como alias pode ser verificado directamente.

I 9.17 Definicao ... Uma forma quadratica em R3 , Q(x) = Sx x, diz-se:

definida positiva, se Q(x) > 0, x 6= 0.


definida negativa, se Q(x) < 0, x 6= 0.
indefinida, se Q toma valores positivos e negativos.

A proposicao seguinte e consequencia imediata da possibilidade de reduzir uma


forma quadratica a forma diagonal.

I 9.18 Teorema ... Uma forma quadratica em R3 , Q(x) = Sx x, e:

definida positiva, se todos os valores proprios de S sao estritamente posi-


tivos.
definida negativa, se todos os valores proprios de S sao estritamente neg-
ativos.
indefinida, se os valores proprios de S sao alguns positivos e alguns nega-
tivos (eventualmente nulos).

9.4 Propriedades extremais dos valores proprios


Vamos ver que os valores proprios de um operador simetrico em IRn , podem ser
obtidos considerando um certo problema de mnimo acerca da forma quadratica
associada.
Para ja um lema preparatorio:
9.4. Propriedades extremais dos valores proprios 144

I 9.19 Lema ... Seja S : Rn Rn um operador simetrico em Rn , para o qual a


forma quadratica associada Q(x) = Sx x e nao negativa:
Q(x) = Sx x 0, x
Se para um certo vector u:
Q(u) = Su u = 0
entao Su = 0.
Dem.: Seja x = u + th, onde t IR e h IRn sao arbitrarios. Entao:
Q(u + th) = S(u + th) (u + th)
= Su u + t(Su h + Sh u) + t2 Sh h
= t(Su h + h Su) + t2 Sh h (porque?)
= t(Su h + h Su) + t2 Sh h (porque?)
= 2t Su h + t2 Sh h (porque?)
Portanto:
2t Su h + t2 Sh h 0, t
o que implica que Su h, h e portanto Su = 0.

No teorema que se segue, representamos por S a esfera unitaria em IRn :


def
S = {x IRn : , kxk = 1}

I 9.20 Teorema ... Seja S : Rn Rn um operador simetrico em Rn , e Q :


Rn R a forma quadratica associada a S, definida por Q(x) = Sx x.

Entao a restricao de Q a esfera unitaria S, assume o seu valor mnimo 1 num


certo ponto u1 dessa esfera. Alem disso:

1 e valor proprio de S e u1 e um vector proprio associado.

Dem.: Como a esfera unitaria S e limitada e fechada, existe um ponto u1 S


onde a restricao de Q a S assume o seu valor mnimo, digamos 1 :
Q(u1 ) = 1 , e Q(x) 1 , x S
Como x x = 1 podemos escrever a desigualdade na forma:
Sx x 1 x x, onde x x = 1
Mas esta desigualdade e valida qualquer que seja x (porque?). Portanto:
(Sx 1 x) x 0, x IRn (9.4.1)
e, em particular, para x = u1 :
(Su1 1 u1 ) u1 = 0 (9.4.2)
Isto significa que o operador S 1 Id satisfaz as condicoes do lema anterior e, por
isso:
Su1 1 u1 = 0
isto e:
Su1 = 1 u1


9.5. Operadores comutativos 145

Para calcular o proximo vector proprio 2 consideramos a restricao de S ao


hiperplano ortogonal a u1 . Esta restricao e um operador simetrico ao qual podemos
aplicar o mesmo argumento - o valor proprio 2 e o valor mnimo de S|u restrito
1
a esfera unitaria de u
1 . Um vector proprio associado e um ponto desta esfera
onde S toma o valor mnimo 2 . E claro que 2 1 e que u2 u1 . Procedendo
sucessivamente desta forma obtemos o seguinte teorema.

I 9.21 Teorema ... A base ortonormada {u1 u2 ... un }, de Rn , constituda por


vectores proprios de S (S(uk ) = k uk , k = 1, ..., n), e relativamente a qual a
matriz de S e a matriz diagonal:
D = diag(1 , 2 , ..., n )
pode ser escolhida de tal forma que, para cada k = 1, ..., n, k = Q(uk ) e o valor
mnimo de Q, restrita a esfera unitaria no subespaco de Rn , perpendicular aos
vectores u1 , u2 , ..., uk1 .

9.5 Operadores comutativos


I 9.22 Lema ... Suponhamos que S e T sao dois operadores num ev V de di-
mensao finita, que comutam, isto e:
ST = TS
Seja um valor proprio de S e E() o correspondente espaco proprio. Entao o
operador T deixa invariante E(), isto e:
T(E()) E() (9.5.1)

Dem.:
Seja v E(), de tal forma que Sv = v. Pretende-se mostrar que Tv E().
De facto:
STv = TSv = T(v) = Tv = Tv E()

I 9.23 Corolario ... Se S e T sao dois operadores comutativos (ST = TS) num
ev complexo de dimensao finita, entao S e T tem um vector proprio comum.

I 9.24 Teorema ... Suponhamos que S e T sao dois operadores auto-adjuntos


num ev Hermitiano V de dimensao finita.
Entao existe uma base ortogonal que diagonaliza simultaneamente os dois oper-
adores S e T se e so se eles sao comutativos, isto e, ST = TS.
Dem.: Se ST = TS entao, pelo corolario anterior, S e T tem um vector
proprio u1 comum:
Su1 = u1 e Tu1 = u1

Considere agora o ortogonal u


1 , as restricoes de S e T a esse ortogonal e repita
o argumento.
O recproco e obvio.
.
9.6. Exerccios 146

9.6 Exerccios
I Exerccio 9.1 ... Em cada uma das alneas que se seguem, determine:
I) Uma matriz simetrica A que represente a forma quadratica que se segue;
II) Os valores proprios de A;
III) Uma base ortonormal de vectores proprios;
IV) Uma matriz ortogonal diagonalizante C;
V) Diagonalize a forma quadratica.

a) q(x1 , x2 ) = 4x21 + 4x1 x2 + x22 ;


b) q(x1 , x2 ) = x1 x2 ;
c) q(x1 , x2 ) = x21 + 2x1 x2 x22 ;
d) q(x1 , x2 ) = 34x21 24x1 x2 + 41x22 ;
e) q(x1 , x2 , x3 ) = x21 + x1 x2 + x2 x3 + x1 x3 ;
f) q(x1 , x2 , x3 ) = 2x21 + x22 x23 + 4x1 x3 ;
g) q(x1 , x2 , x3 ) = 3x21 + 4x1 x2 + 4x2 x3 + 8x1 x3 + 3x23 .