Você está na página 1de 27

Resumo das aulas tericas de lgebra Linear

Pedro Matias
2

Semestre 2007/08
I. Mtodo de eliminao de Gauss
1. Uma equao linear nas n variveis x
1
, . . . , x
n
uma equao da forma
a
1
x
1
+. . . +a
n
x
n
= b,
onde a
1
, . . . , a
n
, b R. As variveis x
1
, . . . , x
n
tambm se designam por
incgnitas.
2. Uma soluo particular da equao linear a
1
x
1
+ . . . + a
n
x
n
= b um
conjunto de nmeros reais (s
1
, . . . , s
n
) que satisfazem a equao, ou seja,
a
1
s
1
+. . . +a
n
s
n
= b. O conjunto de todas as solues da equao linear
diz-se o conjunto soluo ou a soluo geral da equao.
3. Um sistema de equaes lineares (SEL) um conjunto nito de equa-
es lineares nas n variveis x
1
, . . . , x
n
. Um SEL de m equaes a n
incgnitas (SEL m n) escreve-se na forma
_

_
a
11
x
1
+ a
12
x
2
+ . . . + a
1n
x
n
= b
1
a
21
x
1
+ a
22
x
2
+ . . . + a
2n
x
n
= b
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+ . . . + a
mn
x
n
= b
m
(1)
Se b
1
= b
2
= . . . = b
m
= 0, o SEL diz-se homogneo.
4. Uma soluo particular de um SEL m n um conjunto de n nme-
ros reais (s
1
, . . . , s
n
) que soluo particular das m equaes do SEL. O
conjunto de todas as solues de um SEL diz-se o conjunto soluo ou a
soluo geral do SEL.
5. Qualquer SEL mn satisfaz uma das trs hipteses seguintes:
(i) no tem solues: SEL impossvel;
(ii) tem soluo nica: SEL possvel e determinado;
(iii) tem innitas solues: SEL possvel e indeterminado.
6. Para resolver SELs de uma forma ecaz e sistemtica usamos o Mtodo
de Eliminao de Gauss.
1
7. A implementao do MEG baseia-se em dois princpios:
(i) Substituio do SEL inicial por outro SEL mais simples;
(ii) Soluo do SEL inicial = soluo do SEL mais simples.
8. As operaes elementares do MEG so as seguintes:
(i) Multiplicao de uma equao do SEL por c R {0};
(ii) Troca da ordem de duas equaes do SEL;
(iii) cl
i
+l
j
.
9. Podemos codicar toda a informao de um SEL m n num quadro de
nmeros formado pelos coecientes constantes do SEL a que se d o nome
de matriz aumentada:
_

_
a
11
a
12
. . . a
1n
b
1
a
21
a
22
. . . a
2n
b
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
b
m
_

_
10. Os passos do MEG aplicados a um SEL so os seguintes:
(1) Escrever a matriz aumentada do SEL;
(2) Localizar a coluna mais esquerda que no tenha todas as entradas
nulas;
(3) Se necessrio, trocar linhas de forma a que a entrada da primeira linha
correspondente coluna mencionada na alnea anterior seja diferente
de zero.
(4) Somar mltiplos apropriados da primeira linha s restantes linhas de
forma a que todas as entradas debaixo da entrada no nula se anulem.
(5) Fixar a primeira linha e repetir o procedimento para a submatriz que
resta. O MEG termina quando a matriz nal uma matriz em escada
de linhas, ou seja, uma matriz que satisfaz as seguintes propriedades:
- Todas as linhas nulas esto agrupadas na base da matriz;
- Para quaisquer duas linhas consecutivas no nulas, a primeira en-
trada no nula da linha inferior est mais direita que a primeira
entrada no nula da linha superior.
II. Matrizes
1. Uma matriz mn um conjunto rectngular de nmeros constituido por
m linhas e n colunas. O nmero na linha i e coluna j diz-se a entrada ij
da matriz. O produto m n chama-se a dimenso da matriz.
2. Usamos letras maisculas A, B, C, . . . para designar matrizes e letras mi-
nsculas a
ij
, b
ij
, c
ij
, . . . para designar as respectivas entradas ij. Tambm
usamos a notao [A]
ij
para designar a entrada ij da matriz A, ou seja
[A]
ij
= a
ij
.
2
3. As matrizes m1 chamam-se vectores coluna. As matrizes 1n chamam-
se vectores linha. As matrizes n n chamam-se matrizes quadradas.
Se A uma matriz quadrada n n, ento as entradas a
11
, a
22
, . . . , a
nn
formam a diagonal principal de A.
4. Duas matrizes A, B so iguais se tm a mesma dimenso e todas as suas
entradas so iguais, i.e., a
ij
= b
ij
, i, j.
5. Sejam A, B duas matrizes m n. A soma A + B uma matriz m n
com entradas dadas por
[A+ B]
ij
= a
ij
+b
ij
.
A diferena A B uma matriz mn com entradas dadas por
[A B]
ij
= a
ij
b
ij
.
6. Seja A uma matriz m n e k R. O produto kA uma matriz m n
com entradas dadas por
[kA]
ij
= ka
ij
.
7. Sejam A uma matriz mr e B uma matriz r n. O produto AB uma
matriz mn com entradas dadas por
[AB]
ij
=
r

k=1
a
ik
b
kj
= a
i1
b
1j
+a
i2
b
2j
+. . . +a
ir
b
rj
.
8. Seja A uma matriz mn. A transposta de A, denotada por A
T
, uma
matriz n m que resulta da troca das linhas com as colunas de A, i.e.
[A
T
]
ij
= a
ji
.
9. Seja A uma matriz quadrada n n. O trao de A, denotado por tr(A),
a soma das entradas da diagonal principal, i.e.
tr(A) =
n

k=1
a
kk
= a
11
+a
22
+. . . +a
nn
.
10. Qualquer SEL m n da forma (1) pode escrever-se como um produto
matricial
Ax = b,
onde A uma matriz mn dada por
A =
_

_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
_

_
3
e x, b so os vectores coluna dados por
x =
_

_
x
1
x
2
.
.
.
x
n
_

_
, b =
_

_
b
1
b
2
.
.
.
b
m
_

_
.
III. Aritmtica matricial
1. Uma matriz zero uma matriz de dimenso arbitrria cujas entradas so
todas nulas. Representamos qualquer matriz zero pelo smbolo 0.
2. Uma matriz identidade uma matriz quadrada com 1s na diagonal prin-
cipal e 0s nas restantes entradas. Representamos a matriz identidade nn
por I
n
ou simplesmente I.
3. Assumindo dimenses tais que as operaes esto bem denidas, temos as
seguintes propriedades:
(a) A +B = B +A (Comutatividade da soma);
(b) A + (B + C) = (A +B) +C (Associatividade da soma);
(c) A(BC) = (AB)C (Associatividade do produto);
(d) A(B +C) = AB +AC (Distributividade esquerda);
(e) (B +C)A = BA +CA (Distributividade direita);
(f) A + 0 = 0 +A = A (Elemento neutro da adio);
(g) A0 = 0A = 0 (Elemento absorvente do produto);
(h) AI = IA = A (Elemento neutro do produto).
4. O produto de matrizes no comutativo. Existem trs razes para tal
propriedade no ser verdadeira:
(i) AB est denido mas BA no. Por exemplo se A tem dimenso 23
e B tem dimenso 3 1.
(ii) AB e BA esto denidos mas tm dimenses diferentes. Por exemplo
se A tem dimenso 2 3 e B tem dimenso 3 2.
(iii) AB e BA esto denidos, tm a mesma dimenso mas AB = BA.
5. Seja A uma matriz quadrada n n. A matriz A diz-se invertvel se existe
uma matriz B de dimenso n n tal que
AB = BA = I
n
.
Chamamos matriz B uma inversa de A. Se no existir nenhuma matriz
B nestas condies dizemos que A singular.
6. Propriedades da matriz inversa:
(a) Se B e C so ambas inversas de A, ento B = C (unicidade da
inversa). Escrevemos ento B = C = A
1
.
4
(b) Se A e B so matrizes invertveis, ento AB invertvel e (AB)
1
=
B
1
A
1
.
7. Dada uma matriz quadrada A podemos colocar duas questes no que con-
cerne sua invertibilidade:
- Ser que A invertvel?
- Em caso armativo, como calcular A
1
?
Brevemente responderemos a estas questes quando A tiver dimenso nn.
Para matrizes quadradas 2 2 podemos, no entanto, enunciar o seguinte
resultado cuja vericao deixamos ao cuidado do leitor.
8. Teorema: Seja A uma matriz 2 2 dada por
A =
_
a b
c d
_
.
Ento
(a) A invertvel sse ad bc = 0;
(b) Em caso armativo temos
A
1
=
1
ad bc
_
d b
c a
_
.
9. Potncias de uma matriz: Sejam A uma matriz quadrada n n e m
{0, 1, 2, . . .}. Dene-se
A
0
= I
n
,
A
m
= AA. . . A
. .
m vezes
.
Se A invertvel denimos ainda
A
m
= (A
1
)
m
= A
1
A
1
. . . A
1
. .
m vezes
.
10. Propriedades das potncias de uma matriz: Sejam A uma matriz quadrada
n n e r, s Z. Ento
(a) A
r
A
s
= A
r+s
;
(b) (A
r
)
s
= A
rs
;
Se A invertvel, ento
(c) A
1
invertvel e (A
1
)
1
= A;
(d) A
m
invertvel e (A
m
)
1
= (A
1
)
m
;
(d) Se k R\{0}, ento kA invertvel e (kA)
1
=
1
k
A
1
.
5
11. Propriedades da matriz transposta: Assumindo dimenses tais que as ope-
raes esto bem denidas, temos as seguintes propriedades:
(a) (A
T
)
T
= A;
(b) (A B)
T
= A
T
B
T
;
(c) (kA)
T
= kA
T
, onde k R;
(d) (AB)
T
= B
T
A
T
;
Se A uma matriz quadrada invertvel, ento
(e) A
T
invertvel e (A
T
)
1
= (A
1
)
T
.
IV. Matrizes elementares e inverso de matrizes
1. Uma matriz quadrada n n diz-se elementar se pode ser obtida a partir
da matriz identidade I
n
com uma nica operao elementar do MEG.
2. Teorema 1: Sejam A uma matriz mn e E uma matriz elementar mm
associada a uma operao elementar . Ento EA a matriz m n que
resulta da aplicao de sobre as linhas de A.
3. Se aplicrmos uma operao elementar a I
n
para obter uma matriz ele-
mentar E, ento existe uma nica operao elementar inversa
1
que
quando aplicada a E produz I
n
novamente.
4. Teorema 2: Toda a matriz elementar invertvel e a sua inversa ainda
uma matriz elementar.
5. Teorema 3: Seja A uma matriz quadrada n n. Ento as seguintes ar-
maes so equivalentes:
(a) A invertvel;
(b) Ax = 0 s tem a soluo trivial;
(c) A matriz A pode ser transformada na matriz identidade I
n
atravs da
aplicao de um nmero nito de operaes elementares;
(d) A matriz A pode escrever-se como um produto de matrizes elementares.
6. O Teorema 3 fornece-nos um algoritmo para calcular inversas de matrizes
quadradas invertveis. De facto, como (a) (c) temos que qualquer matriz
A invertvel pode ser reduzida a I
n
a partir de uma sequncia de operaes
elementares. Logo, existem matrizes elementares E
k
, . . . , E
2
, E
1
tal que
E
k
. . . E
2
E
1
A = I
n
.
Multiplicando esta equao direita por A
1
obtemos
A
1
= E
k
. . . E
2
E
1
I
n
.
Concluimos ento que a sequncia de operaes elementares que reduz A
a I
n
precisamente a mesma que reduz I
n
a A
1
. Para calcular a inversa
de A basta ento efectuar o seguinte procedimento:
6
(i) Formar a matriz aumentada [A|I
n
];
(ii) Aplicar o mesmo conjunto de operaes elementares a A e a I
n
;
(iii) No nal temos a matriz aumentada [I
n
|A
1
].
7. Observao: Dada uma matriz quadrada A no sabemos partida se esta
invertvel ou no. Pelo Teorema 3, se A singular ento A no pode
ser reduzida a I
n
a partir de uma sequncia de operaes elementares.
Ento, se aplicrmos o mtodo descrito no ponto anterior a uma matriz no
invertvel, vai aparecer uma linha de zeros num dos passos do procedimento,
o que nos permite concluir que a matriz singular e no necessrio
continuar o algoritmo.
8. Teorema 4: Qualquer SEL satisfaz uma das trs hipteses seguintes:
(i) no tem solues;
(ii) tem soluo nica;
(iii) tem innitas solues.
9. Teorema 5: Se A uma matriz n n invertvel e b um vector coluna
n 1, ento o SEL Ax = b tem soluo nica dada por x = A
1
b.
V. Determinantes
1. Para matrizes 2 2 da forma
A =
_
a b
c d
_
denimos o determinante de A como o nmero real det(A) = ad bc.
2. Seja A = [a
ij
] uma matriz n n. Chama-se menor da entrada a
ij
ao
determinante da submatriz que se obtem de A removendo a linha i e a
coluna j e denot-mo-lo por M
ij
. Denimos o cofactor da entrada a
ij
por C
ij
= (1)
i+j
M
ij
.
3. Se A = [a
ij
] uma matriz n n, denimos o determinante de A por
det(A) = a
11
C
11
+a
12
C
12
+. . . +a
1n
C
1n
, (2)
onde C
ij
o cofactor da entrada a
ij
. A equao (2) chama-se frmula de
Laplace com expanso na primeira linha.
4. Mostra-se que o determinante de uma matriz A com dimenso nn pode
ser calculado multiplicando as entradas de qualquer linha ou coluna pelos
respectivos cofactores e adicionando os produtos resultantes. Temos ento
a frmula de Laplace com expanso na linha i
det(A) = a
i1
C
i1
+a
i2
C
i2
+. . . +a
in
C
in
7
e a frmula de Laplace com expanso na coluna j
det(A) = a
1j
C
1j
+a
2j
C
2j
+. . . +a
nj
C
nj
.
Concluso: para efeitos de clculo de determinantes extremamente vanta-
joso usar a frmula de Laplace com expanso na linha ou coluna da matriz
com o maior nmero de entradas nulas.
5. Seja A = [a
ij
] uma matriz nn e C
ij
o cofactor da entrada a
ij
. A matriz
cof(A) =
_

_
C
11
C
12
. . . C
1n
C
21
C
22
. . . C
2n
.
.
.
.
.
.
.
.
.
.
.
.
C
n1
C
n2
. . . C
nn
_

_
diz-se a matriz dos cofactores de A. A transposta de cof(A) chama-se
a matriz adjunta de A e denota-se por adj(A).
6. Teorema 0: Se A uma matriz invertvel, ento
A
1
=
1
det(A)
adj(A).
7. Teorema 1: Se A uma matriz n n com uma linha ou coluna de zeros,
ento
det(A) = 0.
8. Teorema 2: Se A uma matriz n n, ento
det(A
T
) = det(A).
9. Teorema 3: Seja A uma matriz n n.
(a) Se uma linha de A multiplicada por c = 0 para produzir B, ento
det(B) = c det(A);
(b) Se duas linha de A so trocadas para produzir B, ento det(B) =
det(A);
(c) Se um mltiplo de uma linha de A somado a outra linha de A para
produzir B, ento det(B) = det(A).
10. Teorema 4: Seja E uma matriz elementar n n.
(a) Se E resulta da multiplicao de uma linha de I por c = 0, ento
det(E) = c;
(b) Se E resulta da troca de duas linhas de I, ento det(E) = 1;
(c) Se E resulta da soma de um mltiplo de uma linha de I com outra
linha de I, ento det(E) = 1.
8
11. Note-se que o Teorema 4 um caso particular do Teorema 3 quando A = I e
B = E. Alm disso podemos ainda conlcuir que qualquer matriz elementar
tem determinante diferente de zero.
12. Teorema 5: Se A uma matriz n n e k R, ento
det(kA) = k
n
det(A).
13. Teorema 6: Se B uma matriz n n e E uma matriz elementar n n,
ento
det(EB) = det(E) det(B).
14. Por aplicao sucessiva do Teorema 6, pode mostrar-se por induo mate-
mtica que
det(E
1
E
2
. . . E
r
B) = det(E
1
) det(E
2
) . . . det(E
r
) det(B).
15. Teorema 7: Uma matriz quadrada A invertvel se e s se det(A) = 0.
16. Teorema 8: Se A e B so matrizes n n, ento
det(AB) = det(A) det(B).
17. Teorema 9: Se A uma matriz invertvel, ento
det(A
1
) =
1
det(A)
.
18. Regra de Cramer: Seja A uma matriz n n invertvel. Para um dado b, a
soluo nica do SEL Ax = b tem as entradas dadas por
x
i
=
det(A
i
)
det(A)
, i = 1, . . . , n,
onde A
i
a matriz n n que se obtm da matriz A substituindo a coluna
i pelo vector coluna b.
VI. Vectores em R
2
e R
3
1. Do ponto de vista geomtrico, podemos denir um vector em R
2
ou R
3
como uma entidade matemtica caracterizada por trs propriedades:
- uma direco;
- um sentido;
- um comprimento.
Esta denio permite-nos visualizar um vector no plano ou no espao como
uma seta com um ponto inicial e um ponto nal.
9
2. Do ponto de vista analtico, podemos identicar vectores em R
2
e R
3
com
pontos no plano e no espao, respectivamente. Denotaremos estes vectores
por letras minsculas do alfabeto latino evidenciadas a bold. Assim, um
vector u em R
2
com ponto inicial (0, 0) e ponto nal (u
1
, u
2
) escreve-se
u = (u
1
, u
2
).
Analogamente, um vector u em R
3
com ponto inicial (0, 0, 0) e ponto nal
(u
1
, u
2
, u
3
) escreve-se
u = (u
1
, u
2
, u
3
).
Neste resumo iremos adoptar o ponto de vista analtico. No entanto, con-
vm realar que a perspectiva geomtrica , em muitos casos, um auxiliar
precioso na compreenso da maioria dos problemas que envolvem clculo
vectorial. Um esboo dos vectores d-nos uma intuio visual de toda a
geometria inerente ao problema.
3. At ao nal desta seco iremos trabalhar com vectores em R
3
. Com
excepo da operao de produto externo (prxima semana), todos os re-
sultados desta seco so vlidos para vectores em R
2
e mais geralmente
para vectores em R
n
, com as generalizaes apropriadas.
4. Se u = (u
1
, u
2
, u
3
) e v = (v
1
, v
2
, v
3
) so vectores em R
3
, ento
u = v
_

_
u
1
= v
1
u
2
= v
2
u
3
= v
3
5. Denimos as seguintes operaes entre vectores de R
3
:
(a) Soma e diferena de vectores:
u v = (u
1
v
1
, u
2
v
2
, u
3
v
3
)
(b) Multiplicao de um vector por um escalar k R:
ku = (ku
1
, ku
2
, ku
3
)
6. A norma do vector u dada por
||u|| =
_
u
2
1
+u
2
2
+u
2
3
.
7. Sejam A = (a
1
, a
2
, a
3
) e B = (b
1
, b
2
, b
3
) dois pontos em R
3
. Ento
denimos o vector

AB por

AB = (b
1
a
1
, b
2
a
2
, b
3
a
3
).
8. Se u e v so vectores em R
3
, chamamos ngulo entre u e v ao ngulo
[0, ] denido pelos vectores u e v quando estes tm o mesmo ponto
de aplicao.
10
9. Denimos o produto interno entre u e v atravs da frmula
u v = ||u|| ||v|| cos . (3)
Se u = (u
1
, u
2
, u
3
) e v = (v
1
, v
2
, v
3
), ento possvel mostrar que
u v = u
1
v
1
+u
2
v
2
+u
3
v
3
. (4)
As equaes (3) e (4) so duas maneiras alternativas de denir o produto
interno entre dois vectores.
10. O produto interno satisfaz as seguintes propriedades:
(a) u u = ||u||
2
;
(b) u v > 0 sse 0 < /2;
(c) u v < 0 sse /2 < ;
(d) u v = 0 sse = /2;
11. A projeco ortogonal de um vector u sobre um vector a o vector
proj
a
u =
u a
||a||
2
a.
A norma de proj
a
u dada por
||proj
a
u|| =
|u a|
||a||
= ||u|| |cos |,
onde o ngulo entre os vectores u e a.
12. Dois vectores u e v dizem-se colineares se tm a mesma direco. Do
ponto de vista analtico quer dizer que existe um nmero k R tal que
u = k v.
13. As equaes paramtricas de uma recta que passa num ponto P
0
=
(x
0
, y
0
, z
0
) e tem direco denida por um vector v = (a, b, c) so dadas
por
_

_
x = x
0
+at
y = y
0
+bt (t R)
z = z
0
+ct,
Se todas as componentes de v so diferentes de zero, ento podemos
eliminar o parmetro t e chegar s equaes cartesianas da recta:
_

_
x x
0
a
=
y y
0
b
y y
0
b
=
z z
0
c
Caso a = 0 e b, c = 0 camos com as equaes cartesianas
_
_
_
x = x
0
y y
0
b
=
z z
0
c
,
11
ou seja temos uma recta contida no plano x = x
0
. Caso a = b = 0 e
c = 0, a recta paralela ao eixo dos zz e coincide com a interseco dos
planos x = x
0
e y = y
0
. Se permutrmos as componentes a, b, c obtemos
resultados anlogos. Concluimos ento que uma recta em R
3
descrita
por duas equaes lineares nas variveis x, y, z.
14. A equao cartesiana de um plano que passa num ponto P
0
= (x
0
, y
0
, z
0
)
e tem n = (a, b, c) como um vector perpendicular dada por
a(x x
0
) +b(y y
0
) +c(z z
0
) = 0.
Se denirmos d = ax
0
by
0
cz
0
podemos ainda escrever a equao
geral da recta como
ax +by +cz +d = 0.
Concluimos ento que um plano em R
3
descrito por uma equao linear
nas variveis x, y, z.
15. Sejam i, j, k os versores dos eixos coordenados em R
3
, ou seja
_

_
i = (1, 0, 0),
j = (0, 1, 0),
k = (0, 0, 1).
Se u = (u
1
, u
2
, u
3
) e v = (v
1
, v
2
, v
3
) so dois vectores em R
3
, ento
denimos o produto externo de u com v por
u v = det
_

_
i j k
u
1
u
2
u
3
v
1
v
2
v
3
_

_
Calculando explicitamente o determinante podemos mostrar que
u v = (u
2
v
3
u
3
v
2
, u
3
v
1
u
1
v
3
, u
1
v
2
u
2
v
1
).
16. O produto externo satisfaz as seguintes propriedades:
(a) u (u v) = 0;
(b) v (u v) = 0;
(c) ||u v||
2
= ||u||
2
||v||
2
(u v)
2
(identidade de Lagrange).
17. Usando a identidade de Lagrange mostra-se que
||u v|| = ||u|| ||v|| sin
= rea do paralelogramo denido por u e v.
12
18. Concluimos ento que o vector u v:
- perpendicular ao plano denido pelos vectores u e v;
- tem o sentido dado pela regra da mo direita;
- tem comprimento ||u v|| = ||u|| ||v|| sin.
VII. Espaos lineares
1. Nesta seco iremos estudar a estrutura algbrica de espao linear real, a
qual generaliza os espaos R
2
e R
3
introduzidos na seco VI.
2. Um espao linear real um conjunto no vazio V (cujos elementos se
designam por vectores) onde esto denidas duas operaes algbricas:
(i) Soma de vectores;
(ii) Produto de vectores por nmeros reais;
satisfazendo os seguintes axiomas:
(1) (Fecho da soma): para quaisquer u, v V tem-se u +v V ;
(2) (Fecho do produto por nmeros reais): para quaisquer k R e u V
tem-se ku V ;
(3) (Comutatividade da soma): para quaisquer u, v V tem-se u + v =
v +u;
(4) (Associatividade da soma): para quaisquer u, v, w V tem-se (u +
v) +w = u + (v +w);
(5) (Existncia de zero): Existe um elemento de V , designado por 0 (vector
zero), tal que para qualquer u V se tem u +0 = u;
(6) (Existncia de simtricos): qualquer que seja u V , existe v V tal
que u +v = 0. A v chama-se simtrico de u e denota-se por u;
(7) (Distributividade em relao soma de vectores): para quaisquer k R
e u, v V tem-se k(u +v) = ku +kv;
(8) (Distributividade em relao soma de escalares): para quaisquer k, l
R e u V tem-se (k +l)u = ku +lu;
(9) (Associatividade do produto por escalares): para quaisquer k, l R e
u V tem-se k(lu) = (kl)u;
(10) (Existncia de identidade): para quaisquer u V tem-se 1u = u.
3. Se substituirmos R por C na denio anterior, temos a noo de espao
linear complexo.
4. Teorema: Se u V e k R, ento
(a) 0u = 0
(b) k0 = 0
(c) (1)u = u
(d) se ku = 0 ento k = 0 ou u = 0
13
5. Eis alguns exemplos de espaos lineares reais:
(a) R
n
com as operaes usuais de soma de vectores e produto de vectores
por nmeros reais;
(b) M
mn
= {matrizes mn} com as operaes usuais de soma de
matrizes e produto de matrizes por nmeros reais;
(c) F(R) = {funes reais de varivel real} com as operaes usuais de
soma de funes e produto de funes por nmeros reais;
6. Um conjunto W V diz-se um subespao linear de V se W um espao
linear com as mesmas operaes de soma de vectores e produto de vectores
por nmeros reais.
7. Em geral, para mostrar que W um subespao linear de V temos de
vericar que todos os elementos de W satisfazem os axiomas (1)-(10).
Na verdade, como W V , os axiomas (3), (4), (7), (8), (9) e (10) so
automaticamente satisfeitos. Precisamos apenas de vericar os axiomas de
fecho (1) e (2), a existncia de zero em W (axioma (5)) e a existncia de
simtricos em W (axioma (6)). O seguinte resultado facilita ainda mais a
nossa tarefa.
8. Teorema: W V um subespao linear de V se e s se as operaes de
soma de vectores e produto de vectores por nmeros reais so fechadas em
W.
9. Eis alguns exemplos de subespaos lineares:
(a) Se V = M
nn
, ento os espaos
S
nn
= {matrizes n n simtricas},
T
nn
= {matrizes n n tringulares superiores},
D
nn
= {matrizes n n diagonais},
so subespaos lineares de V ;
(b) O espao dos polinmios de grau menor ou igual a n, designado por
P
n
, um subespao linear de F(R);
(c) Se Ax = 0 um SEL mn homogneo, ento o espao das solues
do SEL um subespao linear de R
n
.
10. Seja V um espao linear real. Um vector w V diz-se uma combinao
linear dos vectores v
1
, . . . , v
m
V se existem m nmeros reais k
1
, . . . , k
m
tais que w = k
1
v
1
+. . . +k
m
v
m
.
11. Se S = {v
1
, . . . , v
m
} V , ento denimos a expanso linear de S por
Span(S) = {k
1
v
1
+. . . +k
m
v
m
| k
1
, . . . , k
m
R}.
14
12. Teorema: Span(S) um subespao linear de V . Dizemos ento que o
conjunto S gera o subespao linear Span(S).
13. O conjunto S = {v
1
, . . . , v
m
} V diz-se linearmente independente
(l.i.) se a equao
k
1
v
1
+. . . +k
m
v
m
= 0
tem soluo nica trivial, i.e., k
1
= . . . = k
m
= 0. Caso contrrio dizemos
que S um conjunto linearmente dependente (l.d.).
14. Teorema: Seja S V um conjunto com dois ou mais vectores num espao
linear V . Ento
(a) S l.d. pelo menos um dos vectores de S uma combinao linear
dos restantes vectores de S.
(b) S l.i. nenhum dos vectores de S combinao linear dos restantes
vectores de S.
15. Teorema: Seja S = {v
1
, . . . , v
m
} R
n
. Se m > n ento S l.d..
16. Um conjunto S = {v
1
, . . . , v
m
} V diz-se uma base de um espao linear
V se
(i) S um conjunto linearmente independente;
(ii) V = Span(S).
17. Teorema: Se S = {v
1
, . . . , v
m
} uma base de um espao linear V , ento
qualquer v V pode escrever-se de forma nica como
v = k
1
v
1
+. . . +k
m
v
m
.
Os escalares k
1
, . . . , k
m
R dizem-se as coordenadas de v em relao
base S e escrevemos
(v)
S
= (k
1
, . . . , k
m
) R
m
.
18. Teorema: Seja S = {v
1
, . . . , v
m
} uma base de um espao linear V . Ento
(i) qualquer subconjunto de V com mais de m elementos linearmente
dependente.
(ii) qualquer subconjunto de V com menos de m elementos no gera V .
19. O teorema anterior mostra que qualquer subconjunto de V linearmente
independente que gera V tem exactamente m elementos. A este nmero
chamamos dimenso de V e escrevemos dim(V ) = m.
20. Seja A uma matriz mn:
A =
_

_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
_

_
15
Os vectores linha de A so vectores em R
n
:
r
1
=
_
a
11
a
12
. . . a
1n
_
r
2
=
_
a
21
a
22
. . . a
2n
_
.
.
.
r
m
=
_
a
m1
a
m2
. . . a
mn
_
Os vectores coluna de A so vectores em R
m
:
c
1
=
_

_
a
11
a
21
.
.
.
a
m1
_

_
, c
2
=
_

_
a
12
a
22
.
.
.
a
m2
_

_
, . . . , c
1
=
_

_
a
1n
a
2n
.
.
.
a
mn
_

_
Denimos os seguintes subespaos lineares de R
m
e R
n
:
(a) Espao das linhas de A:
Lin(A) = Span{r
1
, . . . , r
m
} R
n
;
(b) Espao das colunas de A:
Col(A) = Span{c
1
, . . . , c
n
} R
m
;
(c) Espao nulo ou ncleo de A:
Nul(A) = {x R
n
| Ax = 0} R
n
.
21. Vamos estar interessados em responder s seguintes questes:
(1) Qual a relao entre o espao das solues do SEL Ax = b e os espaos
lineares Lin(A), Col(A) e Nul(A)?
(2) Como se relacionam entre si os espaos lineares Lin(A), Col(A) e
Nul(A)?
(3) Como determinar bases para os espaos lineares Lin(A), Col(A) e
Nul(A)?
22. Antes de nos debrurmos sobre as questes (1) e (2) vamos abordar a
questo (3). Quando aplicamos o MEG resoluo de um SEL Ax = b
estamos simplesmente a aplicar operaes elementares matriz aumentada
[A | b] de forma a transform-la numa matriz em escada de linhas [R | c].
Sabemos que este procedimento no altera a soluo geral do SEL em
causa. Em particular se b = c = 0, temos o seguinte resultado:
23. Teorema 1: Nul(A) = Nul(R).
16
24. Gostariamos de estender este resultado aos espaos Lin(A) e Col(A). In-
felizmente o resultado s vlido para o espao das linhas.
25. Teorema 2: Lin(A) = Lin(R).
26. Em geral temos que Col(A) = Col(R). No entanto possvel mostrar os
seguintes resultados:
27. Teorema 3: Seja A uma matriz m n e R a matriz em escada de linhas
que se obtem no nal do MEG. Ento
(i) Um subconjunto das colunas de A linearmente independente se e s
se o correspondente subconjunto de R linearmente independente.
(ii) Um subconjunto das colunas de A uma base para Col(A) se e s se
o correspondente subconjunto de R uma base para Col(R).
28. O seguinte teorema d-nos um mtodo para encontrar bases para o espao
das linhas e das colunas de uma matriz A a partir da matriz em escada de
linhas R.
29. Teorema 4: Se R a matriz em escada de linhas que se obtem a partir da
matriz A por aplicao do MEG, ento
(i) os vectores linha no nulos de R formam uma base de Lin(R) =
Lin(A);
(ii) os vectores coluna de R com os pivots formam uma base de Col(R) e,
pelo Teorema 3 (ii), os correspondente vectores coluna de A formam
uma base de Col(A).
30. Os teoremas que se seguem estabelecem algumas relaes entre o espao
das linhas, o espao dsa colunas e o ncleo de uma matriz A.
31. Teorema 5: dimLin(A) = dimCol(A).
32. dimenso dos espaos Lin(A) e Col(A) chamamos caracterstica de A
e escrevemos
car(A) = dimLin(A) = dimCol(A).
dimenso do espao Nul(A) chamamos nulidade de A e escrevemos
nul(A) = dimNul(A).
33. Teorema 6: car(A) = car(A
T
).
34. Teorema da dimenso: Se A uma matriz mn, ento
car(A) + nul(A) = n.
35. Se A uma matriz mn, ento
car(A) min(m, n).
17
36. Teorema 6: Qualquer soluo do SEL Ax = b da forma x = x
0
+ n,
onde x
0
uma soluo particular de Ax = b e n Nul(A).
37. Teorema 7: As seguintes armaes so equivalentes:
(a) o SEL Ax = b possvel para b R
m
xo;
(b) b Col(A);
(c) car(A) = car([A | b]).
38. Teorema 8: As seguintes armaes so equivalentes:
(a) o SEL Ax = b possvel para todo o b R
m
;
(b) Col(A) = R
m
;
(c) car(A) = m.
39. Teorema 9: As seguintes armaes so equivalentes:
(a) o SEL Ax = 0 tem soluo nica trivial;
(b) {c
1
, . . . , c
n
} l.i. em R
m
;
(c) o SEL Ax = 0 tem no mximo uma soluo para todo o b R
m
.
40. Se m > n, dizemos que o SEL Ax = b sobredeterminado (mais equa-
es do que incgnitas). Nesse caso Col(A) = R
m
e portanto, pelo Teo-
rema 8, existem valores de b que tornam o SEL impossvel.
41. Se m < n, dizemos que o SEL Ax = b subdeterminado (menos equa-
es do que incgnitas). Se o SEL possvel, a sua soluo geral depende
de nul(A) 1 variveis livres e portanto existem innitas solues.
VIII. Transformaes lineares
1. Na cadeira de Anlise Matemtica I estudamos funes reais de varivel
real:
f : A D
f
R B R
x f(x),
onde A um subconjunto do domnio de f e B um certo conjunto de
chegada que contm o contradomnio de f.
2. Na cadeira de Anlise Matemtica II generalizaremos este conceito e estu-
daremos funes vectoriais de varivel vectorial:
f : A D
f
R
p
B R
q
(x
1
, . . . , x
p
) f(x
1
, . . . , x
p
) = (f
1
(x
1
, . . . , x
p
), . . . , f
q
(x
1
, . . . , x
p
)).
3. Na cadeira de lgebra Linear vamos estudar funes da forma T : V W,
onde V e W so espaos lineares e T satisfaz as seguintes propriedades:
(i) T(u +v) = T(u) + T(v),
(ii) T(ku) = kT(u),
18
onde u, v V e k R. A este tipo de funes damos o nome de trans-
formaes lineares de V em W.
4. Das propriedades (i) e (ii) conclumos que
T(ku +lv) = kT(u) +lT(v),
onde u, v V e k, l R. Mais geralmente temos que
T(k
1
v
1
+. . . +k
n
v
n
) = k
1
T(v
1
) +. . . +k
n
T(v
n
),
onde v
1
, . . . , v
n
V e k
1
, . . . , k
n
R.
5. Teorema: Se T : V W uma transformao linear, ento
(a) T(0) = 0
(b) T(u) = T(u)
(c) T(u v) = T(u) T(v)
6. Seja B = {v
1
, . . . , v
n
} uma base de V e T : V W uma transformao
linear. Sabemos que qualquer v V pode escrever-se como
v = k
1
v
1
+. . . +k
n
v
n
,
onde k
1
, . . . , k
n
R so nicos. Ento
T(v) = k
1
T(v
1
) +. . . +k
n
T(v
n
).
Conclumos que, se quisrmos calcular T(v) (onde v um vector arbitrrio
de V ) precisamos apenas de conhecer T(v
1
), . . . , T(v
n
), ou seja, qualquer
transformao linear T : V W ca completamente determinada pelas
imagens dos vectores da base B sob a aplicao T.
7. Para explicitar uma transformao linear T : V W precisamos de esco-
lher uma base B = {v
1
, . . . , v
n
} para o espao de partida V e uma base
C = {w
1
, . . . , w
m
} para o espao de chegada W. Ento, todo o v V
pode ser escrito de forma nica como
v =
n

i=1
x
i
v
i
,
onde x
1
, . . . , x
n
so as componentes do vector v na base B, i.e.
(v)
B
=
_

_
x
1
.
.
.
x
n
_

_
.
Analogamente podemos escrever o vector T(v) W de forma nica como
T(v) =
m

j=1
y
j
w
j
,
19
onde y
1
, . . . , y
m
so as componentes do vector T(v) na base C, i.e.
(T(v))
C
=
_

_
y
1
.
.
.
y
m
_

_
.
Usando a linearidade de T mostra-se que
(T(v))
C
= T
CB
(v)
B
, (5)
onde T
CB
uma matriz mn cujas colunas so formadas pelos n vectores
(T(v
1
))
C
, . . . , (T(v
n
))
C
R
m
. A matriz T
CB
diz-se a representao
matricial de T em relao s bases ordenadas B e C.
8. Seja T : V W uma transformao linear. Se T
CB
a representao
matricial de T em relao s bases B e C mencionadas no ponto 7, ento
a representao matricial de T em relao s bases B

= {v

1
, . . . , v

n
} e
C

= {w

1
, . . . , w

m
} dada pelo seguinte produto de matrizes
T
C

B
= P
C

C
T
CB
P
BB
,
onde P
BB
e P
CC
so matrizes de mudana de base. Mais explicita-
mente, P
BB
a matriz nn cujas colunas so formadas pelos n vectores
(v

1
)
B
, . . . , (v

n
)
B
R
n
e P
CC
a matriz mm cujas colunas so forma-
das pelos m vectores (w

1
)
C
, . . . , (w

m
)
C
R
m
. Note que P
BB
= P
1
B

B
e P
CC
= P
1
C

C
.
9. Dadas duas transformaes lineares S, T : V W, denimos a soma de
S com T por
S +T : V W
v (S +T)(v) = S(v) +T(v).
10. Teorema:
(a) S +T uma transformao linear de V em W;
(b) Se B uma base em V e C uma base em W, ento
(S +T)
CB
= S
CB
+T
CB
(soma de matrizes)
11. Dada uma transformao linear T : V W e um escalar k R, denimos
o produto de k por T como
kT : V W
v (kT)(v) = kT(v).
20
12. Teorema:
(a) kT uma transformao linear de V em W;
(b) Se B uma base em V e C uma base em W, ento
(kT)
CB
= kT
CB
(produto de um escalar por uma matriz)
13. Dadas duas transformaes lineares T : V U e S : U W, denimos
a composio S T por
S T : V W
v (S T)(v) = S(T(v)).
14. Teorema:
(a) S T uma transformao linear de V em W;
(b) Se B uma base em V , D uma base em U e C uma base em W,
ento
(S T)
CB
= S
CD
T
DB
(produto de matrizes)
15. Se T : V W uma transformao linear, chamamos ncleo de T ao
conjunto
ker(T) = {v V | T(v) = 0}
e imagem de T ao conjunto
im(T) = {w W | w = T(v) para algum v V }.
16. Teorema: ker(T) um subespao linear de V e im(T) um subespao
linear de W.
17. Se T : V W uma transformao linear, ento denimos a caracters-
tica de T por
car(T) = dimim(T)
e a nulidade de T por
nul(T) = dimker(T).
18. Os nmeros car(T) e nul(T) so intrnsecos transformao linear T e no
dependem da representao matricial escolhida. Assim, se T
CB
e T
C

B
so
representaes matriciais de T em relao a certas bases, temos que
car(T) = car(T
CB
) = car(T
C

B
)
nul(T) = nul(T
CB
) = nul(T
C

B
).
21
19. Teorema da dimenso: Se T : V W uma transformao linear, ento
car(T) + nul(T) = dimV.
20. Seja T : V W uma transformao linear. Dizemos que T sobrejectiva
se im(T) = W. Dizemos que T injectiva se para u, v V tal que u = v
temos T(u) = T(v), ou seja, objectos diferentes tm imagens diferentes.
Dito de outra forma, se T(u) = T(v), ento u = v.
21. Teorema: T injectiva ker(T) = {0}.
22. A sobrejectividade e injectividade de uma transformao linear T : V W
pode ser determinada a partir de qualquer representao matricial de T em
relao a duas bases B e C em V e W, respectivamente. Nesse caso
T sobrejectiva Col(T
CB
) = R
m
car(T
CB
) = m
T injectiva Nul(T
CB
) = {0} nul(T
CB
) = 0.
23. As transformaes lineares injectivas so invertveis quando restringimos
o conjunto de chegada sua imagem. Assim, se T : V im(T)
uma transformao linear injectiva, ento existe S : im(T) V tal que
(S T)(v) = v para todo o v V e (T S)(w) = w, para todo o
w im(T). Chamamos a S a inversa de T e denot-mo-la por T
1
.
24. Teorema: Se T : V im(T) uma transformao linear injectiva, ento
(a) T
1
: im(T) V uma transformao linear;
(b) dimim(T) = dimV ;
(c) se escolhermos bases B e C para V e im(T), respectivamente, temos
que T
CB
uma matriz invertvel e
(T
1
)
BC
= (T
CB
)
1
,
onde o lado esquerdo da equao refere-se representao matricial da
transformao linear T
1
em relao s bases C no espao de partida
im(T) e B no espao de chegada V e o lado esquerdo a inversa da
matriz T
CB
.
IX. Valores prprios e vectores prprios de uma matriz
1. Um dos problemas fundamentais associado ao estudo de uma transformao
linear T : V V consiste em pesquisar a existncia de bases em V de
forma a obter uma representao matricial o mais simples possvel. Nesta
seco iremos debruar-nos sobre este problema quando V = R
n
e T
uma transformao matricial dada por T(x) = Ax, onde A = T
CC
uma
matriz nn que representa a transformao linear T relativamente base
cannica C de R
n
.
22
2. Problema (da diagonalizao): Ser possvel escolher uma base B em
R
n
tal que T
BB
seja uma matriz n n diagonal? Dito de outra forma,
ser que existe uma matriz de mudana de base P
BC
tal que
T
BB
= P
BC
AP
CB
seja uma matriz diagonal? Se a resposta a esta pergunta for armativa,
ento dizemos que A uma matriz diagonalizvel.
3. Vamos ver que o problema da diagonalizao est intimamente relacionado
com o:
Problema (dos vectores prprios): Se A uma matriz nn, ser possvel
escolher uma base B em R
n
constituida por vectores prprios de A?
4. Para relacionrmos os dois problemas acima mencionados precisamos de
introduzir o conceito de valor prprio e vector prprio associado a uma
matriz. Se A uma matriz nn, dizemos que um vector no nulo x R
n
um vector prprio de A se
R : Ax = x. (6)
Nesse caso diz-se um valor prprio de A associado ao vector prprio
x e x diz-se um vector prprio de A associado ao valor prprio .
5. Como encontrar os valores prprios de A? Se rescrevermos a equao (6)
temos que
Ax = x Ax = Ix
(A I)x = 0, (7)
logo para ser um valor prprio de A, a equao (7) tem de ter solues
no triviais, ou seja, a matriz AI tem de ser no invertvel, i.e.
det(A I) = 0. (8)
A equao (11) chama-se equao caracterstica de A. Os escalares
que satisfazem a equao caracterstica de A so os valores prprios de A.
Note-se que p() = det(A I) um polinmio de grau n na varivel
denominado o polinmio caracterstico de A.
6. Como encontrar os vectores prprios de A associados a um determinado
valor prprio ? Por denio sabemos que x = 0 um vector prprio de
A associado ao valor prprio sse soluo do SEL homogneo
(A I)x = 0,
ou seja, sse x Nul(A I). O conjunto
E() = Nul(A I) = {x R
n
| (A I)x = 0}
23
diz-se o espao prprio de A associado ao valor prprio e um
subespao linear de R
n
.
7. Concluimos ento que para determinar os valores prprios e vectores pr-
prios de uma matriz A seguimos o seguinte procedimento:
(a) Resolver a equao caracterstica det(A I) = 0;
(b) As solues
1
, . . . ,
r
so os valores prprios de A, onde r n;
(c) Para cada
i
com i = 1, . . . , r, determinar o ncleo da matriz A
i
I;
(d) Por denio, E(
i
) = Nul(A
i
I) o espao prprio de A associado
ao valor prprio
i
.
8. O seguinte teorema mostra que o problema da diagonalizao equivalente
ao problema dos vectores prprios.
9. Teorema: Se A uma matriz n n, ento
A diagonalizvel A tem n vectores prprios l.i.
Existe uma base em R
n
formada por vectores prprios de A
10. Quando que uma matriz n n tem n vectores prprios linearmente in-
dependentes e como calcul-los? Podemos responder a estas questes em
simultneo de acordo com o seguinte procedimento:
(a) Calcular os valores prprios de A:
1
, . . . ,
r
;
(b) Calcular bases B
1
, . . . , B
r
para os espaos prprios E(
1
), . . . , E(
r
);
(c) Os elementos de B
1
, . . . , B
r
como um todo formam um conjunto li-
nearmente independente em R
n
. (Note que este facto no trivial e
pode ser demonstrado);
(d) Pelo item anterior, se #B
1
+ . . . + #B
r
= n, ento temos uma base
de vectores prprios e A diagonalizvel. Se #B
1
+ . . . + #B
r
< n,
ento no existe base de vectores prprios e A no diagonalizvel.
11. Terminologia: Se A uma matriz n n e
0
um valor prprio de A,
chamamos multiplicidade geomtrica de
0
ao nmero
m
G
(
0
) = dimE(
0
)
e multiplicidade algbrica de
0
ao nmero de vezes que o factor (
0
)
aparece na factorizao do polinmio caracterstico p() = det(A I) e
denot-mo-la por m
A
(
0
). Note-se que temos sempre
(a) #B
i
= m
G
(
i
) m
A
(
i
) para todo o i = 1, . . . , r;
(b)

r
i=1
m
A
(
i
) = n;
(c) A diagonalizvel sse m
A
(
i
) = m
G
(
i
) para todo o i = 1, . . . , r.
24
12. Se A uma matriz diagonalizvel e B uma base de vectores prprios de
A, ento
D = S
1
AS,
onde D uma matriz diagonal constituida pelos r valores prprios de A
repetidos de acordo com as suas multiplicidades (algbricas=geomtricas) e
S uma matriz cujas colunas so os vectores prprios da base B distribuidos
na ordem correspondente dos respectivos valores prprios da matriz D.
Note-se que as matrizes D e S so no fundo as matrizes T
BB
e P
BC
mencionadas no incio desta seco aquando da denio do problema da
diagonalizao.
X. Valores prprios e vectores prprios de uma transformao linear
1. Um dos problemas fundamentais associado ao estudo de uma transformao
linear T : V V consiste em pesquisar a existncia de bases no espao
de partida e no espao de chegada de forma a obter uma representao
matricial o mais simples possvel.
2. Problema (da diagonalizao): Ser possvel escolher uma base B em
V tal que T
BB
seja uma matriz n n diagonal? Dito de outra forma, se
xrmos uma base C em V , ser que existe uma matriz de mudana de
base P
BC
tal que
T
BB
= P
BC
T
CC
P
CB
seja uma matriz diagonal? Se a resposta a esta pergunta for armativa,
ento dizemos que T uma transformao linear diagonalizvel.
3. Vamos ver que o problema da diagonalizao est intimamente relacionado
com o:
Problema (dos vectores prprios): Se T : V V uma transformao
linear, ser possvel escolher uma base B em V constituida por vectores
prprios de T?
4. Para relacionrmos os dois problemas acima mencionados precisamos de
introduzir o conceito de valor prprio e vector prprio associado a uma
transformao linear. Se T : V V uma transformao linear, dizemos
que um vector no nulo u V um vector prprio de T se
R : T(u) = u. (9)
Nesse caso diz-se um valor prprio de T associado ao vector prprio
u e u diz-se um vector prprio de T associado ao valor prprio .
5. Como encontrar os valores prprios de T? Se rescrevermos a equao (9)
temos que
T(u) = u T(x) = I(u)
(T I)(u) = 0, (10)
25
logo para ser um valor prprio de T, a equao (10) tem de ter solues
no triviais. Este problema reduz-se ao estudo da equao caracterstica de
uma representao matricial arbitrria de T. A justicao para tal facto
deve-se ao seguinte resultado:
6. Teorema: Se T
BB
e T
CC
so representaes matriciais da transformao
linear T em relao s bases B e C, respectivamente, ento
det(T
BB
I) = det(T
CC
I).
7. Temos ento que valor prprio de T se e s se a matriz T
BB
I
singular, i.e.
det(T
BB
I) = 0. (11)
Os escalares que satisfazem a equao (11) so os valores prprios de T.
Note-se que p() = det(T I) um polinmio de grau n na varivel
denominado o polinmio caracterstico de T.
8. Como encontrar os vectores prprios de T associados a um determinado
valor prprio ? Por denio sabemos que u = 0 um vector prprio de
T associado ao valor prprio sse soluo da equao
(T I)u = 0,
ou seja, sse u ker(T I). O conjunto
E() = ker(T I) = {u V | (T I)u = 0}
diz-se o espao prprio de T associado ao valor prprio e um
subespao linear de V .
9. Para determinar os valores prprios e vectores prprios de uma transforma-
o linear T : V V seguimos o seguinte procedimento:
(a) Escolhemos uma base C = {v
1
, . . . , v
n
} em V de forma arbitrria;
(b) Escrevemos T
CC
;
(c) Resolvemos a equao caracterstica det(T
CC
I) = 0;
(d) As solues
1
, . . . ,
r
da equao caracterstica so os valores prprios
de T, onde r n;
(e) Para cada
i
com i = 1, . . . , r, determinamos o ncleo da matriz
T
CC

i
I;
(f) O espao prprio de T associado ao valor prprio
i
dado por
E(
i
) = {x
1
v
1
+. . . +x
n
v
n
| (x
1
, . . . , x
n
) Nul(T
CC

i
I)}.
10. O seguinte teorema mostra que o problema da diagonalizao equivalente
ao problema dos vectores prprios.
26
11. Teorema: Se T : V V uma transformao linear, ento
T diagonalizvel T tem n vectores prprios l.i.
Existe uma base em V
formada por vectores prprios de T
12. Quando que uma transformao linear T : V V tem n vectores prprios
linearmente independentes e como calcul-los? Podemos responder a estas
questes em simultneo de acordo com o seguinte procedimento:
(a) Calculamos os valores prprios de T:
1
, . . . ,
r
;
(b) Calculamos bases B
1
, . . . , B
r
para os espaos prprios E(
1
), . . . , E(
r
);
(c) Os elementos de B
1
, . . . , B
r
como um todo formam um conjunto line-
armente independente em V . (Note que este facto no trivial e pode
ser demonstrado);
(d) Pelo item anterior, se #B
1
+ . . . + #B
r
= n, ento temos uma base
de vectores prprios e T diagonalizvel. Se #B
1
+ . . . + #B
r
< n,
ento no existe base de vectores prprios e T no diagonalizvel.
13. Terminologia: Se T : V V uma transformao linear e
0
um valor
prprio de T, chamamos multiplicidade geomtrica de
0
ao nmero
m
G
(
0
) = dimE(
0
)
e multiplicidade algbrica de
0
ao nmero de vezes que o factor (
0
)
aparece na factorizao do polinmio caracterstico p() = det(T I) e
denot-mo-la por m
A
(
0
). Note-se que temos sempre
(a) #B
i
= m
G
(
i
) m
A
(
i
) para todo o i = 1, . . . , r;
(b)

r
i=1
m
A
(
i
) = n;
(c) T diagonalizvel sse m
A
(
i
) = m
G
(
i
) para todo o i = 1, . . . , r.
14. Se T
CC
a representao matricial de uma transformao linear T : V V
relativamente a uma base C e B uma base de vectores prprios de T,
ento
D = S
1
T
CC
S,
onde D uma matriz diagonal constituida pelos r valores prprios de T
repetidos de acordo com as suas multiplicidades (algbricas=geomtricas)
e S uma matriz cujas colunas so as componentes dos vectores prprios
da base B relativamente base C distribuidos na ordem correspondente
dos respectivos valores prprios da matriz D.
27