Você está na página 1de 147

.

ÁLGEBRA LINEAR

ISBN 978-85-915683-0-7

ROBERTO DE MARIA NUNES MENDES


Professor do Departamento de Matemática e Estatística e do
Programa de Pós-graduação em Engenharia Elétrica da PUCMINAS

Belo Horizonte
Edição do Autor
2013
Sumário

Prefácio 1

1 Espaços Vetoriais 2
1.1 Definições e Exemplos . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Subespaços . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Independência Linear. Bases. Dimensão . . . . . . . . . . . . 7
1.4 Espaços Produto e Quociente . . . . . . . . . . . . . . . . . . 11
1.5 Somas e Somas Diretas . . . . . . . . . . . . . . . . . . . . . . 13
1.6 Exercícios do Capítulo 1 . . . . . . . . . . . . . . . . . . . . . 16

2 Aplicações Lineares 18
2.1 Definições e Exemplos . . . . . . . . . . . . . . . . . . . . . . 18
2.2 Composição e Inversão de Aplicações Lineares . . . . . . . . . 23
2.3 Álgebra das Aplicações Lineares . . . . . . . . . . . . . . . . . 28
2.4 Exercícios do Capítulo 2 . . . . . . . . . . . . . . . . . . . . . 30

3 Matrizes 32
3.1 Definições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2 Produto de Matrizes . . . . . . . . . . . . . . . . . . . . . . . 34
3.3 Aplicação Linear × Matriz . . . . . . . . . . . . . . . . . . . . 35
3.4 Mudança de Bases . . . . . . . . . . . . . . . . . . . . . . . . 42
3.5 Exercícios do Capítulo 3 . . . . . . . . . . . . . . . . . . . . . 47

4 Formas Lineares. Dualidade 49


4.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2 Anulador de um Subespaço . . . . . . . . . . . . . . . . . . . 52
4.3 Transposição . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.4 Exercícios do Capítulo 4 . . . . . . . . . . . . . . . . . . . . . 57

5 Determinantes 58
5.1 Aplicações r-lineares alternadas . . . . . . . . . . . . . . . . . 58

i
SUMÁRIO ii

5.2 Determinante de um Operador Linear . . . . . . . . . . . . . . 63


5.3 Desenvolvimento em relação aos elementos de uma coluna (ou
de uma linha) . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.4 Matrizes Elementares . . . . . . . . . . . . . . . . . . . . . . . 71
5.5 Equações Lineares . . . . . . . . . . . . . . . . . . . . . . . . 78

6 Autovalores e Autovetores 84
6.1 Definições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
6.2 Diagonalização . . . . . . . . . . . . . . . . . . . . . . . . . . 90
6.3 Polinômios de Operadores e Matrizes . . . . . . . . . . . . . . 95
6.4 Exercícios do Capítulo 6 . . . . . . . . . . . . . . . . . . . . . 98

7 Produto Interno 99
7.1 Definições e Exemplos . . . . . . . . . . . . . . . . . . . . . . 99
7.2 Bases Ortonormais . . . . . . . . . . . . . . . . . . . . . . . . 105
7.3 Relações entre V e V ∗ . . . . . . . . . . . . . . . . . . . . . . 108
7.4 Adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
7.5 Exercícios do Capítulo 7 . . . . . . . . . . . . . . . . . . . . . 113

8 Operadores Unitários e Normais 115


8.1 Definições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
8.2 Operadores Positivos . . . . . . . . . . . . . . . . . . . . . . . 120
8.3 Matrizes Simétricas Positivas. Decomposição de Cholesky . . . 123
8.4 Teorema dos Valores Singulares . . . . . . . . . . . . . . . . . 125
8.5 Exercícios do Capítulo 8 . . . . . . . . . . . . . . . . . . . . . 128

9 Formas Bilineares e Quadráticas 130


9.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
9.2 Matriz de uma forma bilinear . . . . . . . . . . . . . . . . . . 132
9.3 Mudanças de Bases . . . . . . . . . . . . . . . . . . . . . . . . 132
9.4 Formas Quadráticas . . . . . . . . . . . . . . . . . . . . . . . . 133
9.5 Formas Bilineares Simétricas Reais . . . . . . . . . . . . . . . 133

10 Miscelânea 137
10.1 Orientação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
10.2 Volume de Paralelepípedo . . . . . . . . . . . . . . . . . . . . 138
10.3 Matriz de Gram . . . . . . . . . . . . . . . . . . . . . . . . . . 139
10.4 Produto Vetorial . . . . . . . . . . . . . . . . . . . . . . . . . 140

Exercícios de Revisão 142

Bibliografia 144
Prefácio

A origem desse livro de Álgebra Linear remonta a um curso feito para


alunos do Bacharelado em Matemática da UFMG. Na ocasião, fizemos uma
primeira redação revista pelos professores do ICEx-UFMG, Michel Spira e
Wilson Barbosa, a quem muito agradecemos. Mais recentemente, retomamos
o trabalho e, após várias mudanças, aproveitamos parte do material na disci-
plina “Métodos Matemáticos” do Programa de Pós-Graduação em Engenha-
ria Elétrica da PUCMINAS. A versão final do livro foi revista pela professora
Mariana Cornelissen Hoyos, a quem agradecemos a generosa assistência.
A leitura do Sumário mostra que se trata de um livro básico de Álgebra
Linear que procura desenvolver o assunto com cuidado no aspecto teórico,
visando a boa formação do profissional. Para aprofundamento na matéria
deve-se recorrer aos livros indicados na Bibliografia, que utilizamos livre-
mente.
A digitação do manuscrito foi feita, com eficiência e boa vontade, por Eric
Fernandes de Mello Araújo, a quem agradecemos. Ao leitor, bom proveito.

Belo Horizonte, janeiro de 2013


Roberto N. Mendes

1
Capítulo 1

Espaços Vetoriais

1.1 Definições e Exemplos


Seja K um corpo com elementos neutros distintos 0 e 1, por exemplo, K = R
ou K = C.

Definição 1.1 Um espaço vetorial sobre K é um conjunto V munido de duas


leis:

V × V −→ V e K × V −→ V
(u, v) 7−→ u + v (a, v) 7−→ av
tais que, para quaisquer u, v, w ∈ V e a, b ∈ K, se tenha:
(1) u + v = v + u
(2) (u + v) + w = u + (v + w)
(3) existe 0 ∈ V , chamado o vetor zero, tal que v + 0 = v
(4) dado v ∈ V , existe (−v) ∈ V , chamado o oposto de v, tal que v+(−v) = 0
(5) 1 · v = v
(6) a(bv) = (ab)v
(7) a(u + v) = au + av
(8) (a + b)v = av + bv.

Exemplo 1.1.1 Seja V = K n , onde n ∈ N, com as leis:

(x1 , ..., xn ) + (y1 , ..., yn ) = (x1 + y1 , ..., xn + yn )


e
a(x1 , ..., xn ) = (ax1 , ..., axn ).
É fácil verificar que, com estas leis, K n é um espaço vetorial sobre K.

2
CAPÍTULO 1. ESPAÇOS VETORIAIS 3

Observação: Os elementos de um espaço vetorial V são chamados de


vetores, enquanto que os de K são chamados de escalares. Essa nomenclatura
deriva do exemplo acima. As leis são chamadas de adição e multiplicação por
escalar, respectivamente.
No exemplo 1.1.1, se n = 1, vemos que K é um espaço vetorial sobre
si mesmo, de modo que seus elementos são, ao mesmo tempo, escalares e
vetores.

Exemplo 1.1.2 Seja V = Pn , onde n ∈ N, o conjunto das funções polino-


miais de grau estritamente menor que n, com coeficientes em K, juntamente
com a função zero. Se p = a0 +a1 t+...+an−1 tn−1 e q = b0 +b1 t+...+bn−1 tn−1 ,
definimos p + q ∈ V e cp ∈ V , onde c ∈ K, por:

p + q = (a0 + b0 ) + (a1 + b1 )t + ... + (an−1 + bn − 1)tn−1

cp = ca0 + ca1 t + ... + can−1 tn−1


Resulta que Pn é um espaço vetorial sobre K.

Exemplo 1.1.3 Seja V = K[t] o conjunto de todos os polinômios a uma


variável, com coeficientes em K. Definindo as leis como no exemplo 1.1.2, é
imediato que K[t] é um espaço vetorial sobre K.

Exemplo 1.1.4 Seja V = F(I, R) o conjunto das funções f : I 7−→ R, onde


I ⊂ R é um intervalo. Se f, g ∈ V e a ∈ R, definimos f + g e af por:

(f + g)(x) = f (x) + g(x)


(af )(x) = a · f (x)
para todo x ∈ I. Verifica-se imediatamente que essas leis tornam F(I, R)
um espaço vetorial real, isto é, sobre R.

Consequências Imediatas da Definição

(a) Se u, v ∈ V definimos:

u − v = u + (−v)

Se a ∈ K, então

a(u − v) + av = a[(u − v) + v] = a[u + (−v) + v] = a(u + 0) = au.

Somando −av aos dois membros, vem:

a(u − v) + av − av = au − av,
CAPÍTULO 1. ESPAÇOS VETORIAIS 4

donde:
a(u − v) = au − av.
Fazendo u = v, obtemos
a·0=0
e também
a(−v) = a(0 − v) = a · 0 − av = −av.

(b) Se a, b ∈ K e v ∈ V , então:

(a − b)v + bv = (a − b + b)v = av,

donde:
(a − b)v = av − bv
Fazendo a = b, vem
0·v =0
e também
(−a)v = (0 − a)v = 0 · v − av = −av.

(c) Para todo a ∈ K e todo v ∈ V vimos que

0·v =a·0=0

Suponhamos que av = 0. Se a 6= 0 então

0 = a−1 · 0 = a−1 (av) = 1 · v = v.

Portanto, av = 0 implica ou a = 0 ou v = 0.

Exercícios
1. O conjunto de todos os polinômios de grau 3, com coeficientes reais e
munido das leis usuais, juntamente com o polinômio zero, forma um
espaço vetorial real?

2. Dê exemplo de um conjunto M que verifique todos os axiomas de espaço


vetorial, exceto 1 · v = v para todo v ∈ M .
CAPÍTULO 1. ESPAÇOS VETORIAIS 5

3. O conjunto das sequências complexas z = (zn )n≥1 tais que

zn+2 = zn+1 + zn , n ≥ 1,

munido das leis usuais, forma um espaço vetorial complexo?

4. O conjunto das funções f : R 7−→ R duas vezes continuamente de-


riváveis e tais que f 00 + af 0 + bf = 0 (a e b reais fixos), munido das leis
usuais, forma um espaço vetorial real?

5. Prove que o conjunto das funções limitadas f : R 7−→ R, munido das


leis usuais, é um espaço vetorial real.

6. Seja l1 (N) o conjunto das sequências x = (xn )n≥1 onde xn ∈ C e


X∞
|xn | < ∞. Prove que, com as leis usuais, l1 (N) é um espaço ve-
n=1
torial complexo.

1.2 Subespaços
Seja V um espaço vetorial sobre o corpo K.

Definição 1.2 Dizemos que W ⊂ V é um subespaço de V se:


(a) 0 ∈ W
(b) u, v ∈ W =⇒ u + v ∈ W
(c) a ∈ K, v ∈ W =⇒ av ∈ W
É claro que W , com as leis induzidas pelas de V , é um espaço vetorial
sobre K.

Exemplo 1.2.1 Em V = K n verifica-se imediatamente que W = {(x1 , ..., xn ) ∈


K n ; x1 = 0} é um subespaço.

Exemplo 1.2.2 Em V = F(R, R), espaço vetorial real das funções f : R →


R, o subconjunto formado pelas funções contínuas é um subespaço.

Proposição 1.1 Seja V um espaço vetorial sobre K. A interseção de uma


família qualquer de subespaços de V é um subespaço de V .

\
Dem. Seja (Wα )α∈A uma família de subespaços de V , e seja W = Wα .
α∈A
Então:
CAPÍTULO 1. ESPAÇOS VETORIAIS 6

(a) 0 ∈ W pois 0 ∈ Wα para todo α ∈ A.


(b) u, v ∈ W ⇐⇒ u, v ∈ Wα para todo α ∈ A =⇒ (u + v) ∈ Wα para todo
α ∈ A =⇒ (u + v) ∈ W .
(c) α ∈ K, v ∈ W =⇒ av ∈ Wα para todo α ∈ A =⇒ av ∈ W .
Definição 1.3 Seja X um subconjunto não-vazio do espaço vetorial V sobre
m
X
K. Todo elemento da forma a1 v1 + ... + am vm = ai vi , onde m ∈ N, vi ∈
i=1
X, ai ∈ K, 1 ≤ i ≤ m, é chamado de combinação linear de elementos de X.
É fácil verificar que o conjunto de todas as combinações lineares de ele-
mentos de X é um subespaço de V , chamado de subespaço gerado por X.
Proposição 1.2 O subespaço gerado por X ⊂ V, X 6= ∅, é a interseção de
todos os subespaços de V contendo X, ou seja, é o “menor” (para a inclusão
de conjuntos) subespaço de V contendo X.

Dem. Seja (Wα )α∈A


\ a família de todos os subespaços de V contendo X.
Sabemos que W = Wα é um subespaço de V . É claro que W contém X
α∈A
e, portanto, que W contém todas as combinações lineares de elementos de X,
ou seja, W contém o subespaço S gerado por X. Como S é um subespaço de
V contendo X, temos que W ⊂ S. Resulta W = S.
Exercícios
1. Seja V = F(R, R) o espaço vetorial real das funções f : R → R.
Verifique se W é subespaço de V nos seguintes casos:
(a) W = conjunto das funções pares
(b) W = conjunto das funções ímpares
(c) W = conjunto das funções deriváveis
(d) W = conjunto das funções C ∞
2. Qual a expressão do elemento genérico do subespaço de K[t] gerado
pelos polinômios t2 e t3 ?
3. Verifique se W = {(x, y, z) ∈ R3 ; x = 2y} é subespaço de R3 .
4. Mostre que W = {(0, y, z) ∈ R3 } é gerado por (0, 1, 1) e (0, 2, −1).
5. Mostre que o conjunto das funções f : R → R de classe C 2 tais que
f 00 + af 0 + bf = 0 (a e b reais fixos) é um subespaço de F(R, R).
6. Mostre que, em geral, a união de dois subespaços não é um subespaço.
CAPÍTULO 1. ESPAÇOS VETORIAIS 7

1.3 Independência Linear. Bases. Dimensão


Definição 1.4 Sejam X 6= ∅, X ⊂ V, V um espaço vetorial sobre K. Dize-
mos que X é linearmente independente se, quaisquer que sejam v1 , ..., vm ∈
X, m ∈ N, a equação a1 v1 + ... + am vm = 0, onde a1 , ..., am ∈ K, im-
plica a1 = a2 = ... = am = 0. Se X não é linearmente independente
(LI) dizemos que X é linearmente dependente (LD); neste caso, existem
v1 , ..., vp ∈ X, p ∈ N, e escalares não todos nulos, a1 , ..., ap , tais que
a1 v1 + ... + ap vp = 0.

Exemplo 1.3.1 Em K n consideremos os vetores

e1 = (1, 0, ..., 0)

e2 = (0, 1, ..., 0)
..
.
en = (0, ..., 0, 1)
Esses vetores são LI, pois a1 e1 + ... + an en = (a1 , ..., an ) = 0 = (0, ..., 0) ⇔
a1 = 0, ..., an = 0.

Exemplo 1.3.2 Em Pn os vetores 1, t, ..., tn−1 são LI pois a0 + a1 t + ... +


an−1 tn−1 = 0 implica a0 = a1 = ... = an−1 = 0.

Exemplo 1.3.3 No espaço das funções f : R → R de classe C 1 considere-


mos os vetores f1 (t) = er1 t , f2 (t) = er2 t onde r1 6= r2 são reais. f1 , f2 são
LI pois se a1 f1 + a2 f2 = 0 então a1 er1 t + a2 er2 t = 0 para todo t ∈ R, donde
a1 e(r1 −r2 )t + a2 = 0 para todo t ∈ R. Derivando: a1 (r1 − r2 )e(r1 −r2 )t = 0 para
todo t ∈ R, donde a1 = 0 e, portanto, a2 = 0.

Exemplo 1.3.4 Consideremos os elementos 1 e i de C. Considerando C


como um espaço vetorial real, 1 e i são LI. Considerando C como um espaço
vetorial complexo, 1 e i são LD.

Proposição 1.3 Se v1 , ..., vn são vetores LI em V e

a1 v1 + ... + an vn = b1 v1 + ... + bn vn ,

com ai ∈ K, bi ∈ K (1 ≤ i ≤ n), então ai = bi para todo i.

Dem. A relação dada é equivalente a (a1 − b1 )v1 + ... + (an − bn )vn = 0,


donde a1 − b1 = ... = an − bn = 0, isto é, ai = bi para i = 1, 2, ..., n.
CAPÍTULO 1. ESPAÇOS VETORIAIS 8

Definição 1.5 Seja V um espaço vetorial sobre K. Dizemos que G ⊂ V


gera V ou que G ⊂ V é um conjunto de geradores de V se todo v ∈ V é
combinação linear de vetores de G, ou seja, se o subespaço gerado por G é
V . Dizemos que o conjunto de geradores G é mínimo se, qualquer que seja
g ∈ G, o conjunto G1 = G − {g} não gera V .

Exemplo 1.3.5 Em K n os vetores e1 = (1, 0, ..., 0), ..., en = (0, ..., 0, 1) for-
mam um conjunto de geradores mínimo.

Definição 1.6 Seja X ⊂ V um conjunto LI no espaço vetorial V . Dizemos


que X é um conjunto linearmente independente máximo se, para todo v ∈ V ,
v∈/ X, o conjunto X1 = X ∪ {v} é LD.

Exemplo 1.3.6 Os vetores e1 = (1, 0, ..., 0), ..., en = (0, ..., 0, 1) de K n for-
mam um conjunto LI máximo.

Proposição 1.4 Sejam v1 , ..., vm vetores LI do espaço vetorial V gerado por


w1 , ..., wp . Então m ≤ p e, alterando-se eventualmente a numeração dos wi ,
os vetores v1 , ..., vm , wm+1 , ..., wp ainda geram V .

Dem. Seja v1 = a11 w1 + ... + ap1 wp ; sem perda de generalidade podemos


supor a11 6= 0 e, então:

w1 = b11 v1 + b21 w2 + ... + bp1 wp .

Logo, toda combinação linear de w1 , ..., wp também é combinação linear


de v1 , w2 , ..., wp , ou seja, estes vetores geram V .
Seja v2 = a12 v1 +a22 w2 +...+ap2 wp ; ao menos um dos escalares a22 , ..., ap2
é diferente de zero pois v1 e v2 são LI. Podemos supor a22 6= 0 e, então:

w2 = b12 v1 + b22 v2 + b32 w3 + ... + bp2 wp ,

e toda combinação linear de v1 , w2 , ...wp é também combinação linear de


v1 , v2 , w3 , ..., wp , ou seja, estes vetores geram V .
Repetindo essa operação um número finito de vezes, vemos que, para
r ≤ min(m, p), os vetores v1 , ..., vr , wr+1 , ..., wp geram V . Se fosse m > p,
tomando r = p, teríamos que v1 , ..., vp gerariam V e, portanto, vp+1 , ..., vm
seriam combinações lineares de v1 , ..., vp , o que é absurdo já que v1 , ..., vm são
LI. Portanto, m ≤ p e, ao fim de um número finito de operações, obteremos
o conjunto de geradores v1 , ..., vm , wm+1 , ..., wp .
CAPÍTULO 1. ESPAÇOS VETORIAIS 9

Corolário 1.4.1 Se w1 , ..., wp geram V e n > p, então v1 , ..., vn são LD. Em


particular, p + 1 vetores que são combinações lineares de p vetores quaisquer
são LD.

Proposição 1.5 Seja X um subconjunto não-vazio do espaço vetorial V so-


bre K. As propriedades seguintes são equivalentes:
(a) X é LI e gera V
(b) X é um conjunto de geradores mínimo
(c) X é um conjunto LI máximo

Dem. (a) ⇒ (b): Sejam x ∈ X, Y = X − {x}. Se x fosse combinação linear


n
X
de vetores de Y , x = ai yi , yi ∈ Y, ai ∈ K, 1 ≤ i ≤ n, então X seria
i=1
LD, contradição. Portanto, Y não gera V , o que mostra que X é mínimo.
(b) ⇒ (c): Se X fosse LD existiriam vetores x, x1 , ..., xn de X e escalares
a, a1 , ..., an , não todos nulos, tais que ax+a1 x1 +...+an xn = 0. Sem perda de
generalidade podemos supor a 6= 0, donde x = b1 x1 + ... + bn xn e, portanto, X
não seria mínimo, contradição. Além disso, X é (um conjunto LI) máximo
Xm
pois, dado v ∈ V , temos v = ai xi , xi ∈ X, ai ∈ K, 1 ≤ i ≤ m, ou seja,
i=1
X ∪ {v} é LD.
(c) ⇒ (a): Seja v ∈ V, v ∈/ X, então Y = X ∪ {v} é LD e existem vetores
x1 , ..., xn de X e escalares a, a1 , ..., an , não todos nulos, tais que

av + a1 x1 + ... + an xn = 0.

Se fosse a = 0 resultaria X LD. Então a 6= 0 e v = b1 x1 + ... + bn xn , isto é,


X gera V (e é LI).

Definição 1.7 Seja V um espaço vetorial sobre K. X ⊂ V, X 6= ∅, é


uma base de V se X possui uma das (e portanto as três) propriedades da
proposição 1.5.
Se V tem uma base finita X = {v1 , ..., vn } dizemos que V tem dimensão
finita; neste caso, se v ∈ V , então v se escreve de modo único na forma
v = a1 v1 + ... + an vn , ai ∈ K, 1 ≤ i ≤ n.

Proposição 1.6 Sejam {v1 , ..., vn } e {w1 , ..., wp } bases do espaço vetorial V
sobre K. Então:
n=p
CAPÍTULO 1. ESPAÇOS VETORIAIS 10

Dem. Como v1 , ..., vn são LI e w1 , ..., wp geram V , temos n ≤ p. Por


simetria, p ≤ n. Logo, n = p.

Definição 1.8 Sejam V um espaço vetorial sobre K e {v1 , ..., vn } uma base
de V . Dizemos que n é a dimensão de V sobre K. Por definição a dimensão
de V = {0} é zero.
Notação: n = dimK V ou n = dim V

Exemplo 1.3.7 K n tem dimensão n e {e1 , ..., en } é uma base de K n , chamada


de base canônica.

Exemplo 1.3.8 {1, t, ..., tn−1 } é base de Pn , donde dim Pn = n.

Exemplo 1.3.9 V = K[t] não tem dimensão finita sobre K.

Exemplo 1.3.10 dimR C = 2 e {1, i} é uma base.


dimC C = 1 e {1} é uma base.
Uma base de Cn sobre R é {e1 , ie1 , e2 , ie2 , ..., en , ien }.

Corolários:
(1) Se dim V = n e v1 , ..., vn são LI, então {v1 , ..., vn } é base de V (pois é
um conjunto LI máximo).
(2) Se W é subespaço de V e dim W = dim V , então W = V (pois toda
base de W é também base de V ).
(3) Se dim V = n e m > n então os vetores v1 , ..., vm são LD (pois o número
máximo de vetores LI é n).

Proposição 1.7 Seja V um espaço vetorial de dimensão n sobre K. Se-


jam v1 , ..., vr , r < n, vetores LI. Então existem vr+1 , ..., vn ∈ V tais que
{v1 , ..., vr , vr+1 , ..., vn } seja base de V .

Dem. Como r < n, {v1 , ..., vr } não é um conjunto LI máximo; logo, existe
vr+1 ∈ V tal que {v1 , ..., vr , vr+1 } seja LI. Se r + 1 < n podemos repetir o
argumento. Após um número finito de repetições obteremos n vetores LI,
v1 , ..., vn , ou seja {v1 , ..., vn } é base de V .

Exercícios
1. Mostre que t3 − t2 + 1, q = t2 − 1 e r = 2t3 + t − 1 são LI em P4 .
CAPÍTULO 1. ESPAÇOS VETORIAIS 11

2. Prove que f, g, h ∈ F (R, R) são LI, onde

f (t) = t, g(t) = et e h(t) = sen t.

3. Ache uma condição necessária e suficiente para que u = (a, b) ∈ K 2 e


v = (c, d) ∈ K 2 sejam LD.

4. Seja W o subespaço de P4 gerado por u = t3 − t2 + 1, v = t2 − 1 e w =


t3 − 3t2 + 3. Ache uma base para W .

5. Existe alguma base de P4 que não contenha nenhum polinômio de grau


2?

6. Seja (v1 , ..., vm ) uma sequência de vetores não-nulos do espaço vetorial


V . Prove que se nenhum deles é combinação linear dos anteriores então
o conjunto {v1 , ..., vm } é LI.

7. Seja V um espaço vetorial de dimensão finita. Prove que todo conjunto


de geradores de V contém uma base.

1.4 Espaços Produto e Quociente


Sejam V1 e V2 espaços vetoriais sobre K e V = V1 × V2 = {(v1 , v2 ); v1 ∈
V1 , v2 ∈ V2 } seu produto cartesiano. Vamos introduzir em V uma estrutura
vetorial, definindo:

(v1 , v2 ) + (u1 , u2 ) = (v1 + u1 , v2 + u2 )


a(v1 , v2 ) = (av1 , av2 ) , a ∈ K
É imediato verificar que, com estas leis, V = V1 × V2 é um espaço vetorial
sobre K. A definição do espaço produto se estende a um número finito
qualquer de espaços vetoriais. Se V1 , ..., Vn são espaços vetoriais sobre K e
V = V1 × ... × Vn , definimos:

(v1 , ..., vn ) + (u1 , ..., un ) = (v1 + u1 , ..., vn + un )


a(v1 , ..., vn ) = (av1 , ..., avn ) , a ∈ K
Desta maneira V fica munido de uma estrutura vetorial sobre K.

Proposição 1.8 Se V1 e V2 têm dimensão finita sobre K, então

dim(V1 × V2 ) = dim V1 + dim V2 .


CAPÍTULO 1. ESPAÇOS VETORIAIS 12

Dem. Sejam {v1 , ..., vn } e {u1 , ..., up }, respectivamente, bases de V1 e V2 .


Vamos provar que {(v1 , 0), ..., (vn , 0), (0, u1 ), ..., (0, up )} é base de V1 × V2 . Se
v ∈ V1 e u ∈ V2 , existem escalares ai , bj tais que v = a1 v1 + ... + an vn e
u = b1 u1 + ... + bp up . Então:

(v, u) = (a1 v1 + ... + an vn , b1 u1 + ... + bp up ) =

= a1 (v1 , 0) + ... + an (vn , 0) + b1 (0, u1 ) + ... + bp (0, up ),


o que mostra que os vetores (v1 , 0), ..., (0, up ) geram V1 × V2 .
Se tivermos a1 (v1 , 0) + ... + an (vn , 0) + b1 (0, u1 ) + ... + bp (0, up ) = 0 então
(a1 v1 + ... + an vn , b1 u1 + ... + bp up ) = (0, 0), donde a1 v1 + ... + an vn = 0 e
b1 u1 + ... + bp up = 0, que implicam a1 = ... = an = 0 e b1 = ... = bp = 0, ou
seja, os vetores (v1 , 0), ..., (0, up ) são LI.

Definição 1.9 Sejam V um espaço vetorial sobre K e W um seu subespaço.


Se v ∈ V definimos v + W por:

v + W = {v + w; w ∈ W }

Observemos que v + W = u + W ⇔ v − u ∈ W .
V
Seja = {v + W ; v ∈ V }. Para introduzir uma estrutura vetorial sobre
W
V
definamos:
W
(v + W ) + (u + W ) = (v + u) + W
a(v + W ) = av + W , a ∈ K.
Essas leis estão bem definidas pois se u + W = u1 + W e v + W = v1 + W ,
então

(v1 + W ) + (u1 + W ) = (u1 + v1 ) + W = (u + v) + W =

= (v + W ) + (u + W ), já que (u1 + v1 ) − (u + v) =
= (u1 − u) + (v1 − v) ∈ W.
Analogamente, se a ∈ K e v1 + W = v + W , temos:

a(v1 + W ) = av1 + W = av + W = a(v + W )

pois av1 − av = a(v1 − v) ∈ W .


CAPÍTULO 1. ESPAÇOS VETORIAIS 13

V
É pura rotina verificar que, com estas leis, se torna um espaço vetorial
W
V V
sobre K. O elemento neutro da adição em é a classe W = 0 + W . é
W W
chamado de espaço vetorial quociente de V por W .

Exemplo 1.4.1 Sejam V = R2 e W uma reta pela origem de R2 . Um


V V
elemento típico de é uma reta v + W paralela a W , e consiste de
W W
todas as retas paralelas a W em R2 .

6 (u + v) + W

u+W

v+W
Ou + v
W
]
u
¸v

Exercícios
V
1. Prove que se v1 + W, ..., vn + W são LI em , então v1 , ..., vn são LI
W
em V .
2. Sejam V um espaço vetorial e W um subespaço. Para u, v ∈ V defi-
namos u ≈ v se u − v ∈ W . Prove que ≈ é uma relação de equivalência
em V e que o conjunto das classes de equivalência é o espaço quociente
V
.
W

1.5 Somas e Somas Diretas


Definição 1.10 Sejam V um espaço vetorial sobre K, U e W subespaços de
V . A soma de U e W é definida por:

U + W = {u + w, u ∈ U, w ∈ W }.
CAPÍTULO 1. ESPAÇOS VETORIAIS 14

É fácil ver que U + W é um subespaço de V . De fato, se u1 , u2 ∈ U ,


w1 , w2 ∈ W e a ∈ K, temos:
(a) 0 = 0 + 0 ∈ U + W
(b) (u1 + w1 ) + (u2 + w2 ) = (u1 + u2 ) + (w1 + w2 ) ∈ U + W
(c) a(u1 + w1 ) = au1 + aw1 ∈ U + W
Dizemos que V é soma direta de U e W , e escrevemos V = U ⊕ W , se
todo elemento v ∈ V se escreve, de modo único, na forma v = u + w, com
u ∈ U e w ∈ W.

Proposição 1.9 V = U ⊕ W se, e só se, V = U + W e U ∩ W = {0}.

Dem. Se V = U ⊕ W é claro que V = U + W . Além disso, se v ∈ U ∩ W


temos, de modo único, v = v + 0 = 0 + v, donde v = 0, isto é U ∩ W = {0}.
Reciprocamente, seja v ∈ V arbitrário. Como V = U + W temos v = u +
w, com u ∈ U, w ∈ W . Se tivéssemos também v = u1 +w1 , u1 ∈ U, w1 ∈ W ,
então teríamos u − u1 = w1 − w ∈ U ∩ W = {0}, donde u = u1 e w = w1 ,
ou seja, a representação de v na forma u + w é única. Logo, V = U ⊕ W .

Proposição 1.10 Sejam V um espaço vetorial sobre K, de dimensão finita,


e W um subespaço de V . Existe subespaço U de V tal que V = U ⊕ W .

Dem. Seja {w1 , ..., wr } base de W . Sabemos que existem vetores u1 , ..., us ∈
V tais que {w1 , ..., wr , u1 , ..., us } seja base de V . Seja U o subespaço gerado
por u1 , ..., us . É claro que V = U ⊕ W .
Obs.: Em geral existem muitos subespaços U de V tais que V = U ⊕ W .
Dizemos que um tal U é um subespaço suplementar de W.

Proposição 1.11 Sejam V um espaço vetorial de dimensão finita sobre K,


U e W dois de seus subespaços. Se V = U ⊕ W então dim V = dim U +
dim W .

Dem. Sejam {u1 , ..., ur } e {w1 , ..., ws } bases de U e W , respectivamente.


Provemos que {u1 , ..., ur , w1 , ...ws } é base de V . Se v ∈ V então v = u + w,
com u ∈ U e w ∈ W , ou seja, u = a1 u1 + ... + ar ur e w = b1 w1 + ... + bs ws .
Portanto,

v = a1 u1 + ... + ar ur + b1 w1 + ... + bs ws
e os vetores u1 , ..., ur , w1 , ..., ws geram V .
CAPÍTULO 1. ESPAÇOS VETORIAIS 15

Seja a1 u1 + ... + ar ur + b1 w1 + ... + bs ws = 0. Então:

a1 u1 + ... + ar ur = −b1 w1 − ... − bs ws .

Como U ∩ W = {0} resulta a1 u1 + ... + ar ur = 0 e b1 w1 + ... + bs ws = 0,


donde a1 = ... = ar = 0 e b1 = ... = bs = 0, ou seja, u1 , ..., ur , w1 , ..., ws são
LI.
Logo, {u1 , ..., ur , w1 , ..., ws } é base de V e dim V = r + s = dim U +
dim W .
O conceito de soma direta se estende à soma de vários subespaços V1 , ..., Vn
do espaço vetorial V . Dizemos que V é a soma direta de V1 , ..., Vn , e escreve-
mos V = V1 ⊕ V2 ⊕ ... ⊕ Vn , se todo v ∈ V se escreve, de modo único, na
forma v = v1 + v2 + ... + vn , onde vi ∈ Vi , i = 1, 2, ..., n.

Proposição 1.12 Sejam V um espaço vetorial de dimensão finita sobre K,


V1 , ..., Vr subespaços de V e, para cada i = 1, ..., r, {vi1 , ...vini } base de Vi .
V = V1 ⊕ ... ⊕ Vr se, e só se, B = {v11 , ..., v1n1 , ..., vr1 , vr2 , ..., vrnr } é base
de V .

Dem. Se V = V1 ⊕ ... ⊕ Vr então todo v ∈ V se escreve de modo único na


forma v = v1 + ... + vr , onde vi ∈ Vi , 1 ≤ i ≤ r. Mas
ni
X
vi = aki vik , 1 ≤ i ≤ r.
k=1

Logo:
ni
r X
X
v= aki vik e B gera V.
i=1 k=1
ni
r X
X ni
X
Suponhamos que aki vik = 0. Pondo vi = aki vik , temos que
i=1 k=1 k=1
vi ∈ Vi , i = 1, ..., r. Então: v1 + ... + vr = 0 e, como a soma é direta, temos
X ni
vi = 0, isto é, aki vik = 0, donde aki = 0 pois vi1 , ..., vini são LI. Logo, B
k=1
é LI e, portanto, B é base de V .
X ni
r X r
X
Reciprocamente, se B é base de V , então v = aki vik = vi , onde
i=1 k=1 i=1
ni
X
vi = aki vik pertence a Vi , i ≤ i ≤ r. Logo: V = V1 + ... + Vr . A soma
k=1
CAPÍTULO 1. ESPAÇOS VETORIAIS 16

ni
r X
X
é direta pois se v1 + ... + vr = 0, vi ∈ Vi , então aki vik = 0, donde
i=1 k=1
aki = 0 e, portanto, vi = 0, 1 ≤ i ≤ r.

Exercícios
1. Sejam U, V, W os seguintes subespaços de R3 :
U = {(x, y, z) ∈ R3 ; x + y + z = 0}; V = {(x, y, z) ∈ R3 ; x = z} e
W = {(0, 0, z) ∈ R3 ; z ∈ R}. Mostre que R3 = U + V , R3 = U + W ,
R3 = V + W . Quando é que a soma é direta?

2. Sejam V = F(R, R), U o subespaço das funções pares e W o das


ímpares. Mostre que V = U ⊕ W .

3. Sejam U e W subespaços de V. Se

V = U + W e dim V = dim U + dim W < ∞,

prove que V = U ⊕ W .

4. Sejam V um espaço vetorial de dimensão finita sobre K, U e W sube-


spaços de V . Prove:

dim(U + W ) ≤ dim U + dim W

1.6 Exercícios do Capítulo 1


1. Determine uma base para o subespaço de R4 descrito por x = (x1 , x2 , x3 , x4 )
tal que x1 = x2 − 3x3 , x3 = 2x4 . Complete a base obtida a uma base
do R4 .

2. Em V = F(R, R) considere fk (t) = erk t onde rk ∈ R, 1 ≤ k ≤ n. Prove


que f1 , ..., fn são LI se, e só se, r1 6= r2 6= ... 6= rn .

3. Sejam v1 , ..., vn LI e u = b1 v1 + ... + bj vj + ... + bn vn com bj 6= 0. Prove


que v1 , ..., vj−1 , u, vj+1 , ..., vn são LI.

4. Seja W um subespaço do espaço vetorial V . Suponha que v1 , ..., vn ∈ V


sejam LI e gerem um subespaço U tal que U ∩ W = {0}. Prove que os
V
vetores v1 + W, ..., vn + W são LI em .
W
CAPÍTULO 1. ESPAÇOS VETORIAIS 17

5. Sejam V um espaço vetorial, U e W seus subespaços. Se U e W têm


dimensões finitas, prove que:

dim U + dim W = dim(U + W ) + dim(U ∩ W ).

6. Sejam V um espaço vetorial real e u, v ∈ V . O segmento de reta de


extremidades u e v é o conjunto [u, v] = {(1 − t)u + tv; 0 ≤ t ≤ 1}.
X ⊂ V é convexo se u, v ∈ X ⇒ [u, v] ⊂ X. Prove:
(a) Se X, Y ⊂ V são convexos, então X ∩ Y é convexo.
(b) Se X ⊂ V é convexo e r, s, t são reais não negativos tais que r +
s + t = 1, então u, v, w ∈ X ⇒ ru + sv + tw ∈ X.
(c) Se X ⊂ V , a envoltória convexa de X é o conjunto C(X) das
n
X
combinações t1 x1 + ... + tn xn , onde ti ≥ 0, ti = 1, n ∈ N, chamadas
i=1
combinações convexas dos elementos de X. Prove que C(X) é convexo,
que X ⊂ C(X) e que se C 0 é convexo e X ⊂ C 0 então C(X) ⊂ C 0 .

7. Seja V um espaço vetorial real. A ⊂ V é uma variedade afim se u, v ∈


A, t ∈ R ⇒ (1 − t)u + tv ∈ A. Prove:
(a) Se A, B ⊂ V são variedades afins, então A ∩ B é variedade afim.
(b) Se A 6= ∅ é uma variedade afim em V , existe um único subespaço
vetorial W ⊂ V tal que para todo x ∈ A tem-se

A = x + W = {x + w; w ∈ W }.

8. Dado o conjunto finito X = {a1 , ..., an }, ache uma base para o espaço
vetorial real F(X, R) = {f : X → R}.
Capítulo 2

Aplicações Lineares

2.1 Definições e Exemplos


Definição 2.1 Sejam V e W espaços vetoriais sobre K. Dizemos que uma
aplicação T : V → W é linear se:
T (u + v) = T (u) + T (v)
T (av) = a · T (u),
quaisquer que sejam u, v ∈ V e a ∈ K.

Exemplo 2.1.1 A aplicação identidade I : V → V , I(v) = v é linear, bem


como a aplicação zero, 0 : V → V , 0(v) = 0 para todo v ∈ V .

Exemplo 2.1.2 Seja V = K[t] o espaço vetorial dos polinômios na variável


t com coeficientes em K. A aplicação derivada D : V → V , definida por
D(a0 + a1 t + a2 t2 + ... + am tm ) = a1 + 2a2 t + ... + mam tm−1 , é uma aplicação
linear.

Exemplo 2.1.3 Se V1 e V2 são espaços vetoriais sobre K e V = V1 × V2 ,


as aplicações p1 : V → V1 e p2 : V → V2 definidas por p1 (v1 , v2 ) = v1 e
p2 (v1 , v2 ) = v2 são lineares.

Exemplo 2.1.4 Seja W um subespaço do espaço vetorial V. A aplicação


V
π:V → , π(v) = v + W , é linear.
W
Exemplo 2.1.5 Seja V = C 0 ([0, 1], R) o espaço vetorial real das funções
contínuas f : [0, 1] → R. A aplicação f ∈ V 7−→ T (f ) ∈ V , onde
Z x
(T f )(x) = f (t)dt, x ∈ [0, 1],
0

18
CAPÍTULO 2. APLICAÇÕES LINEARES 19
Z 1
é linear. É também linear a função f ∈ V 7−→ f (t)dt ∈ R.
0

Proposição 2.1 Sejam V e W espaços vetoriais sobre K e (v1 , v2 , ..., vn ) uma


base ordenada de V. Dada a sequência (w1 , ..., wn ) de vetores de W, existe
uma e uma única aplicação linear T : V → W tal que T (vi ) = wi , 1 ≤ i ≤ n.

Dem. Seja v ∈ V . Então v se escreve, de modo único, como v = a1 v1 +


... + an vn . Definamos T : V → W por T (v) = a1 w1 + ... + an wn . É claro que
T (vi ) = wi , 1 ≤ i ≤ n. Mostremos que T é linear. Se u = b1 v1 + ... + bn vn ,
então:
T (u + v) = T [(a1 + b1 )v1 + ... + (an + bn )vn ] = (a1 + b1 )w1 + ... + (an + bn )wn =
= (a1 w1 + ... + an wn ) + b1 w1 + ... + bn wn = T (v) + T (u).
Se c ∈ K, temos
T (cv) = T (ca1 v1 + ... + can vn ) = ca1 w1 + ... + can wn =
= c(a1 w1 + ... + an wn ) = c · T (v).
Logo, T é linear. Se L : V → W é aplicação linear tal que
L(vi ) = wi , 1 ≤ i ≤ n,
então L(a1 v1 + ... + an vn ) = a1 w1 + ... + an wn = T (v) para todo v ∈ V , ou
seja, T = L, o que mostra a unicidade de T.

Proposição 2.2 Seja T : V → W linear. Então:


(a) T (0) = 0 , T (−v) = −v.
(b) Se U ⊂ V é subespaço, então T (U ) ⊂ W é subespaço.
(c) Se U 0 ⊂ W é subespaço, então T −1 (U 0 ) ⊂ V é subespaço.

Dem. (a) Como T é linear, T (av) = aT (v) para todo a ∈ K e todo v ∈ V .


Fazendo a = 0, vem:
T (0 · v) = 0 · T (v), donde: T (0) = 0.
Fazendo a = −1, vem:
T (−v) = −T (v)

(b) T (U ) ⊂ W é subespaço pois:


CAPÍTULO 2. APLICAÇÕES LINEARES 20

1. 0 = T (0) ∈ T (U )

2. Se T (u), T (v) ∈ T (U ) então T (u) + T (v) = T (u + v) ∈ T (U )

3. Se a ∈ K e T (v) ∈ T (U ) então aT (v) = T (av) ∈ T (U )

(c) T −1 (U 0 ) ⊂ V é subespaço pois:

1. 0 ∈ T −1 (U 0 ) já que T (0) = 0 ∈ U 0

2. Se u, v ∈ T −1 (U 0 ) então T (u), T (v) ∈ U 0 , donde T (u) + T (v) = T (u +


v) ∈ U 0 , donde u + v ∈ T −1 (U 0 )

3. Se a ∈ K e v ∈ T −1 (U 0 ) então aT (v) = T (av) ∈ U 0 e, portanto,


av ∈ T −1 (U 0 ).

Definição 2.2 Seja T : V → W linear. O subespaço T (V ) ⊂ W é chamado


de imagem de T e anotado Im T . O subespaço T −1 (0) ⊂ V é chamado de
núcleo de T e anotado N (T ). Assim,

Im T = {T (v) ∈ W ; v ∈ V }

N (T ) = {v ∈ V ; T (v) = 0}
Obs.: Por definição T é sobrejetora se Im T = W e T é injetora se
u 6= v implica T (u) 6= T (v).

Proposição 2.3 Seja T : V → W linear. São equivalentes:


(a) N (T ) = {0}
(b) T é injetora
(c) T transforma cada conjunto LI de vetores de V em conjunto LI de vetores
de W.

Dem. (a) ⇔ (b): N (T ) = {0} ⇔ T (w) = 0 implica w = 0 ⇔ T (u − v) = 0


implica u − v = 0 ⇔ T (u) = T (v) implica u = v ⇔ T é injetora.
(b) ⇒ (c): Seja X ⊂ V um conjunto LI e seja Y = T (X). Vamos provar
que Y é LI. De fato, se a1 y1 + ... + ar yr = 0 onde r ∈ N e yi = T (xi ), 1 ≤ i ≤
r, xi ∈ X, ai ∈ K, então a1 T (x1 )+...+ar T (xr ) = 0 ∴ T (a1 x1 +...+ar xr ) = 0,
donde a1 x1 +...+ar xr = 0 (pois N (T ) = {0}), o que implica a1 = ... = ar = 0
(pois X é LI), resultando Y ser LI.
(c) ⇒ (a): Todo vetor v 6= 0 é LI, donde T (v) é LI, ou seja, T (v) 6= 0.
Portanto: N (T ) = {0}.
Obs.: Se T : V → W é linear e v1 , ..., vn geram V , então é claro que
CAPÍTULO 2. APLICAÇÕES LINEARES 21

T (v1 ), ..., T (vn ) geram Im T pois todo w ∈ Im T é da forma w = T (v) para


algum v ∈ V e v = a1 v1 + ... + an vn . Resulta que, se V tem dimensão finita,
então dim Im T ≤ dim V .
Definição 2.3 Seja T : V → W linear, V de dimensão finita. O posto de T
é a dimensão de Im T :
r = posto(T ) = dim Im T , donde r ≤ dim V.
Proposição 2.4 Seja T : V → W linear. São equivalentes:
(a) T é sobrejetora
(b) T transforma conjunto de geradores de V em conjunto de geradores de
W.

Dem. (a) ⇒ (b):


Sejam X um conjunto de geradores de V e Y = T (X). Vamos provar que
Y gera W. Se w ∈ W e T é sobrejetora, existe v ∈ V tal que w = T (v).
Xm m
X m
X
Mas v = ai xi , ai ∈ K, xi ∈ X. Logo, T (v) = ai T (xi ) = ai yi com
i=1 i=1 i=1
yi ∈ Y , ou seja, Y gera W.
(b) ⇒ (a):
Sejam X um conjunto de geradores de V e Y = T (X). Então Y gera W.
p
X
Se w ∈ W , temos w = ai yi , ai ∈ K, yi ∈ Y, yi = T (xi ), xi ∈ X. Logo,
p
à p
i=1 !
X X
w= ai T (xi ) = T ai xi = T (v) com v ∈ V , isto é, T é sobrejetora.
i=1 i=1

Exemplo 2.1.6 Seja T : C3 → C3 , T (x1 , x2 , x3 ) = (x1 − x2 , 2x1 + x2 +


3x3 , −x1 −2x2 −3x3 ). T é linear e Im T é gerada por T (1, 0, 0) = (1, 2, −1) =
w1 , T (0, 1, 0) = (−1, 1, −2) = w2 e T (0, 0, 1) = (0, 3, −3) = w3 . É fácil ver
que w1 e w2 são LI e que w3 = w1 + w2 . Portanto, {w1 , w2 } é base de Im T
e posto(T ) = r = 2. O núcleo de T é definido pelas equações:
x1 − x2 = 0
2x1 + x2 + 3x3 = 0
−x1 − 2x2 − 3x3 = 0
A solução deste sistema é dada por x1 = x2 = −x3 . Logo: N (T ) =
{(−t, −t, t) ∈ C3 ; t ∈ C} e, por exemplo, (−1, −1, 1) é base de N (T ).
Observemos que dim C3 = 3 = dim N (T ) + dim Im T , o que ilustra o
teorema seguinte.
CAPÍTULO 2. APLICAÇÕES LINEARES 22

Proposição 2.5 (Teorema do núcleo e da imagem)


Sejam V, W espaços vetoriais sobre K e T : V → W linear. Se V tem
dimensão finita, então:
dim V = dim N (T ) + dim Im T.

Dem. Seja {v1 , ..., vs } base de N (T ) e sejam vs+1 , ..., vn ∈ V tais que
{v1 , ..., vs , vs+1 , ..., vn } seja base de V. Se w = T (v) ∈ Im T e v = a1 v1 + ... +
an vn , então w = as+1 T (vs+1 ) + ... + an T (vn ) já que T (v1 ) = ... = T (vs ) = 0;
logo T (vs+1 ), ..., T (vn ) geram Im T .
Além disso, esses vetores são LI; de fato, se bs+1 T (vs+1 ) + .... + bn T (vn ) =
0, então T (bs+1 vs+1 + ... + bn vn ) = 0, ou seja, bs+1 vs+1 + ... + bn vn ∈ N (T ).
Portanto, podemos escrever bs+1 vs+1 + ... + bn vn = b1 v1 + ... + bs vs .
Como v1 , ..., vs , vs+1 , ..., vn são LI, resulta bs+1 = ... = bn = 0 (e também
b1 = ... = bs = 0). Resulta que {T (vs+1 ), ..., T (vn )} é base de Im T e
dim Im T = n − s = dim V − dim N (T ), donde a tese.
Corolário 2.5.1 Sejam T : V → W linear, dim V = n, dim W = p.
Então:
(a) T é injetora ⇔ r = posto(T ) = n. Neste caso, dim V ≤ dim W .
(b) T é sobrejetora ⇔ r = posto(T ) = p. Neste caso, dim V ≥ dim W .
Corolário 2.5.2 Seja T : V → W linear, com dim V = dim W < ∞. São
equivalentes:
(a) T é bijetora;
(b) T é injetora;
(c) T é sobrejetora;
(d) se {v1 , ..., vn } é base de V, então {T v1 , ..., T vn } é base de W;
(e) existe base {v1 , ..., vn } de V tal que {T v1 , ..., T vn } seja base de W.

Dem. (a) ⇒ (b): É óbvio.


(b) ⇒ (c): Como T é injetora, temos posto(T ) = dim V = dim W = n,
donde Im T = W .
(c) ⇒ (d): T v1 , ..., T vn geram Im T = W . Como dim W = n, resulta
que {T v1 , ..., T vn } é base de W.
(d) ⇒ (e): É óbvio.
(e) ⇒ (a): Seja {v1 , ..., vn } base de V tal que {T v1 , ..., T vn } seja base de
W. Como T v1 , ..., T vn ∈ Im T e geram W resulta que W ⊂ Im T , donde
Im T = W , ou seja, T é sobrejetora.
CAPÍTULO 2. APLICAÇÕES LINEARES 23

Se v = a1 v1 + ... + an vn é tal que T (v) = 0, então

a1 T (v1 ) + ... + an T (vn ) = 0,

donde a1 = ... = an = 0 pois T v1 , ..., T vn são LI. Logo, v = 0 e T é injetora.


Portanto, T é bijetora.

Exercícios
1. Seja T : V → W linear. Prove que são equivalentes:
(a) T é injetora;
(b) para toda decomposição V = V1 ⊕ V2 tem-se T (V ) = T (V1 ) ⊕ T (V2 )

2. Ache T : R2 → R linear tal que T (1, 1) = −1 e T (1, 0) = 3.

3. Seja T : V → W linear. Prove que se T (v1 ), ..., T (vn ) são LI, então
v1 , ..., vn são LI.

4. Ache T : R3 → R4 linear cuja imagem seja gerada por (1,0,2,-4) e


(0,2,-1,3).

5. Seja T : V → V linear. Prove que se T v1 , ..., T vn geram V, então


v1 , ..., vn geram V.

6. Seja T : R2 → R2 definido por T (x, y) = (ax + by, cx + dy), com


ad − bc 6= 0. Prove:
(a) v 6= 0 ⇒ T v 6= 0.
(b) Toda reta l ⊂ R2 é transformada por T numa reta.
(c) T transforma retas paralelas em retas paralelas.

2.2 Composição e Inversão de Aplicações Lin-


eares
Proposição 2.6 Sejam U, V, W espaços vetoriais sobre o corpo K e T :
U → V, L : V → W aplicações lineares. Então a composta L ◦ T : U → W
é linear.

Dem. Se u, v ∈ U , então

(L ◦ T )(u + v) = L(T (u + v)) = L(T u + T v) = L ◦ T (u) + L ◦ T (v).


CAPÍTULO 2. APLICAÇÕES LINEARES 24

Se a ∈ K e u ∈ U , então

(L ◦ T )(au) = L(T (au)) = L(aT (u)) = aL(T (u)) = a(L ◦ T )(u).

Resulta que L ◦ T é linear.

Proposição 2.7 Seja T : V → W linear bijetora. Então a aplicação inversa


T −1 : W → V também é linear (e bijetora).

Dem. Sejam w1 = T (v1 ) e w2 = T (v2 ) elementos arbitrários de W. Então:

T −1 (w1 +w2 ) = T −1 (T v1 +T v2 ) = T −1 (T (v1 +v2 )) = v1 +v2 = T −1 (w1 )+T −1 (w2 ).

Se a ∈ K e w = T (v) ∈ W , então: T −1 (aw) = T −1 (aT (v)) = T −1 (T (av)) =


av = aT −1 (w).
Resulta que T −1 : W → V é linear.

Definição 2.4 Uma aplicação linear T : V → W é um isomorfismo de V


sobre W se T é bijetora. Se, além disso, V = W então diremos que T é um
automorfismo de V. Se existe um isomorfismo de V sobre W dizemos que V
e W são isomorfos.

Corolário 2.7.1 A composta de dois isomorfismos é um isomorfismo. A


inversa de um isomorfismo é um isomorfismo.
Obs.: Representamos por L(V, W ) o conjunto das aplicações lineares de V
em W. No caso em que V = W é usual chamar uma aplicação linear T :
V → V de operador linear em V e representar L(V, V ) simplesmente por
L(V ) e por GL(V ) o conjunto dos automorfismos de V.

Proposição 2.8 Seja V um espaço vetorial sobre o corpo K. Se T, L ∈


GL(V ) então T ◦ L ∈ GL(V ) e (T ◦ L)−1 = L−1 ◦ T −1 .

Dem. Já vimos que a composta de automorfismos é automorfismo. Basta


então verificar que

(T ◦ L) ◦ (L−1 ◦ T −1 ) = (L−1 ◦ T −1 ) ◦ (T ◦ L) = I,

operador identidade de V, o que é imediato.


CAPÍTULO 2. APLICAÇÕES LINEARES 25

Proposição 2.9 Se T : V → W é linear sobrejetora, então W é isomorfo


V
ao espaço quociente .
N (T )

V
Dem. Seja π : V → a aplicação quociente, isto é, π(v) = v +
N (T )
N (T ), v ∈ V . É imediato que π é linear.
V
Seja L : → W definida por L(v +N (T )) = T (v), ou seja, L◦π = T
N (T )
(dizemos então que o diagrama abaixo comuta). Mostremos que L está bem
definida e é injetora:

L(u + N (T )) = L(v + N (T )) ⇔ T (u) = T (v) ⇔ T (u − v) = 0 ⇔

⇔ u − v ∈ N (T ) ⇔ u + N (T ) = v + N (T ).
Além disso, L é sobrejetora pois, dado w ∈ W , existe v ∈ V tal que
T (v) = w (já que T é sobrejetora) e, portanto, L(v + N (T )) = w. Logo,
L é bijetora. Resta provar que L é linear. Sejam u, v ∈ V , então: L(u +
N (T ) + v + N (T )) = L(u + v + N (T )) = T (u + v) = T (u) + T (v) =
L(u + N (T )) + L(v + N (T )). Se a ∈ K e v ∈ V , então: L(a(v + N (T ))) =
V
(av +N (T )) = T (av) = aT (v) = aL(v +N (T )). Resulta que L : →W
N (T )
é um isomorfismo.

T - W
V
µ

π > L
?
V
N (T )

Corolário 2.9.1 Sejam V um espaço vetorial sobre K, U e W subespaços de


V
V tais que V = U ⊕ W . Então, é isomorfo a W.
U

Dem. Seja p : V → W definida por p(v) = w, onde v = u + w com u ∈ U e


CAPÍTULO 2. APLICAÇÕES LINEARES 26

w ∈ W . É imediato que p é linear sobrejetora e

N (p) = {v ∈ V ; p(v) = 0} = U.
V
Portanto, pela proposição 2.9, temos que é isomorfo a W.
U
Corolário 2.9.2 Sejam T : V → W linear e U ⊂ V subespaço tal que
V = N (T ) ⊕ U . Então U é isomorfo a Im T .

V
Dem. Decorre da proposiçã 2.9 que é isomorfo a Im T . Pelo corolário
N (T )
V
2.9.1 temos que é isomorfo a U. Resulta que U e Im T são isomorfos.
N (T )
Proposição 2.10 Sejam U e W subespaços do espaço vetorial V de dimen-
são finita sobre o corpo K. Então:

dim U + dim W = dim (U + W ) + dim (U ∩ W ).

Dem. Seja T : U × W → V, T (u, w) = u − w. É imediato que T é linear.


Além disso,

Im T = {v = u − w; u ∈ U, w ∈ W } = U + W

N (T ) = {(u, w) ∈ U × W ; u = w} = {(u, u) ∈ U × W, u ∈ U ∩ W }.
É fácil ver que a aplicação u ∈ U ∩ W 7−→ (u, u) ∈ N (T ) é um isomor-
fismo. Portanto, dim N (T ) = dim (U ∩ W ). Pela proposição 2.5, temos:
dim (U × W ) = dim (U + W ) + dim (U ∩ W ), ou seja,

dim U + dim W = dim (U + W ) + dim(U ∩ W ).

Proposição 2.11 Todo espaço vetorial de dimensão n sobre K é isomorfo a


K n.

Dem. Seja V um espaço vetorial de dimensão n sobre K. Seja {v1 , ..., vn }


uma base de V. Se v ∈ V , então v = a1 v1 +...+an vn , onde ai ∈ K, 1 ≤ i ≤ n.
Seja T : V → K n definida por T (v) = T (a1 v1 + ... + an vn ) = (a1 , ..., an ) ∈
n
K . É fácil verificar que T é um isomorfismo.
CAPÍTULO 2. APLICAÇÕES LINEARES 27

Corolário 2.11.1 Todos os espaços vetoriais de mesma dimensão finita n


sobre K são isomorfos entre si.

Exemplo 2.2.1 Seja T : V → V linear tal que T 3 = 0. Prove que I − T é


um automorfismo de V.
1
A igualdade formal = 1+x+x2 +x3 +... nos sugere que (I −T )−1 =
1−x
I + T + T 2 + T 3 + ... = I + T + T 2 já que T 3 = 0, donde T n = 0 para n ≥ 3.
De fato, temos:

(I − T )(I + T + T 2 ) = I + T + T 2 − T − T 2 − T 3 = I
(I + T + T 2 )(I − T ) = I − T + T − T 2 + T 2 − T 3 = I
Portanto, I − T é um automorfismo de V e (I − T )−1 = I + T + T 2 .

Exemplo 2.2.2 U e W sendo dois subespaços suplementares do espaço ve-


torial V, isto é, V = U ⊕ W , todo v ∈ V se escreve, de modo único, na forma
v = u + w, onde u ∈ U e w ∈ W . Consideremos T : U × W → U ⊕ W
definida por T (u, w) = u + w. É fácil ver que T é linear bijetora, ou seja, T
é um isomorfismo de U × W sobre U ⊕ W .
Reciprocamente, dados dois espaços vetoriais U e W sobre K, para todo
v = (u, w) de V = U × W temos, de modo único: (u, w) = (u, 0) + (0, w).
Se U 0 e W 0 são, respectivamente, os subespaços de V descritos por (u, 0)
e (0, w), então é claro que U 0 é isomorfo a U e que W 0 é isomorfo a W.
Então, V = U × W = U 0 ⊕ W 0 . Se identificarmos U com U 0 bem como W
com W 0 , então poderemos considerar U e W como subespaços suplementares
de U × W , o que significa identificar os dois espaços isomorfos U × W e
U ⊕ W . Nestas condições, a aplicação de U ⊕ W sobre U dada por u + w 7−→
u, se identifica com p1 : U × W → U, p1 (u, w) = u, e é a projeção de
V = U ⊕ W sobre o subespaço U, paralelamente ao subespaço suplementar
W. Analogamente, a aplicação u + w 7−→ w se identifica com a projeção
p2 : U × W → W, p2 (u, w) = w de V sobre o subespaço W paralelamente a
U.
Em particular, se V = U ⊕W tem dimensão finita, então: dim (U ×W ) =
dim (U ⊕ W ) = dim U + dim W , já visto anteriormente.

Exercícios
1. Sejam T, L ∈ L(V ) tais que L ◦ T = T ◦ L. Prove:
(a) L(N (T ) ⊂ N (T );
(b) L(Im T ) ⊂ Im T .
CAPÍTULO 2. APLICAÇÕES LINEARES 28

2. Sejam L : V → U, T : U → W lineares. Se U, V e W têm dimensão


finita, prove que:
(a) posto(T ◦ L) ≤ posto(T );
(b) posto(T ◦ L) ≤ posto(L).

3. Sejam V um espaço vetorial de dimensão finita sobre K, L e T elementos


de L(V ) tais que L ◦ T = I. Mostre que L é invertível e que T = L−1 .

4. Sejam T : V → U linear e W ⊂ V subespaço. Seja T |W = L : W → U


a restrição de T a W, isto é, T (w) = L(w) para todo w ∈ W . Prove:
(a) L é linear;
(b) N (L) = N (T ) ∩ W ;
(c) Im L = T (W ).

5. Seja V = Pn+1 o espaço vetorial dos polinômios de grau menor ou igual


a n, com coeficientes reais. Ache um suplementar do subespaço W de
V
V formado pelos polinômios p(t) tais que p(1) = 0 e prove que é
W
isomorfo a R.

2.3 Álgebra das Aplicações Lineares


Se V e W são espaços vetoriais sobre o corpo K, vimos que L(V, W ) representa
o conjunto das aplicações lineares de V em W. Se L, T ∈ L(V, W ) e a ∈ K,
definimos L + T e aT , aplicações de V em W, por:

(L + T )(v) = L(v) + T (v)

(aT )(v) = aT (v),


para todo v ∈ V . É fácil verificar que L+T e aT são lineares, isto é, elementos
de L(V, W ). Assim, no conjunto L(V, W ) temos duas leis, (L, T ) 7−→ L + T e
(a, T ) 7−→ aT , e deixamos aos cuidados do leitor provar que são satisfeitos os
oito postulados que definem uma estrutura vetorial. Lembramos apenas que
a aplicação linear zero é a aplicação 0(v) = 0 para todo v ∈ V e que a oposta
de T ∈ L(V, W ) é a aplicação (−T ) tal que (−T )(v) = −T (v) para todo
v ∈ V . Concluímos que L(V, W ), munido das leis de adição (L, T ) 7−→ L + T
e de multiplicação por escalar (a, T ) 7−→ aT , é um espaço vetorial sobre K.

Estrutura de Anel de L(V )

Se L, T ∈ L(V ), vimos que L + T e L ◦ T são elementos de L(V ). Assim,


L(V ) está munido de duas leis, (L, T ) 7−→ L + T e (L, T ) 7−→ L ◦ T , que
CAPÍTULO 2. APLICAÇÕES LINEARES 29

tornam L(V ) um anel com identidade, isto é:


(a) para a adição L(V ) é um grupo abeliano:

1. L + T = T + L;

2. (L + T ) + S = L + (T + S);

3. existe 0 ∈ L(V ) tal que T + 0 = T ;

4. dado T ∈ L(V ) existe (−T ) ∈ L(V ) tal que T + (−T ) = 0, quaisquer


que sejam L, T, S ∈ L(V ).

(b) o “produto” (L, T ) 7−→ L ◦ T tem as propriedades:

1. (L ◦ T ) ◦ S = L ◦ (T ◦ S);

2. existe I ∈ L(V ) tal que I ◦ T = T ◦ I = T ;

3. (L + T ) ◦ S = L ◦ S + T ◦ S e L ◦ (T + S) = L ◦ T + L ◦ S, quaisquer
que sejam L, T, S ∈ L(V ).

Estrutura de Grupo de GL(V )

O conjunto GL(V ) dos automorfismos do espaço vetorial V é um subcon-


junto de L(V ); se L, T ∈ GL(V ) vimos que L◦T e T −1 pertencem a GL(V ) e
a identidade I de V também pertence a GL(V ). Portanto, GL(V ) munido da
operação (L, T ) 7−→ L ◦ T é um grupo, chamado grupo linear de V. GL(V )
é o grupo dos elementos invertíveis do anel L(V ).

Estrutura de Álgebra de L(V )

Se V é um espaço vetorial sobre K, L(V ) está munido das leis:


(1) adição: (L, T ) 7−→ L + T ;
(2) multiplicação por escalar: (a, T ) 7−→ aT ;
(3) produto: (L, T ) 7−→ L ◦ T .
Para as leis (1) e (2), L(V ) tem uma estrutura de espaço vetorial sobre
K. Para as leis (1) e (3), L(V ) tem uma estrutura de anel. Além disso, é fácil
ver que a(L ◦ T ) = (aL) ◦ T = L ◦ (aT ), quaisquer que sejam L, T ∈ L(V ) e
a ∈ K. Vemos assim que L(V ) tem uma estrutura de álgebra (linear) sobre
K, de acordo com a seguinte definição.

Definição 2.5 Sejam K um corpo a A um conjunto munido de uma adição,


de uma multiplicação por escalar e de um produto. Dizemos que A é uma
álgebra sobre K se:
CAPÍTULO 2. APLICAÇÕES LINEARES 30

(1) A, munido da adição e da multiplicação por escalar, é um espaço vetorial


sobre K.
(2) A, munido da adição e do produto, é um anel.
(3) a(L · T ) = (aL) · T = L · (aT ), quaisquer que sejam L, T ∈ A e a ∈ K.

Exemplo 2.3.1 O corpo C dos complexos é uma álgebra sobre R.

Exemplo 2.3.2 F(R, R) munido das leis f +g, f ·g, af é uma álgebra sobre
R.

Exemplo 2.3.3 No espaço vetorial L(V ) consideremos o produto (L, T ) 7−→


[L, Th] = L ◦ Ti − Th ◦ L (colchete
i de Lie de L e T). É imediato que:
(1) [L, T ], S = L, [T, S]
(2) [L + T, S] = [L, S] + [T, S] e [L, T + S] = [L, T ] + [L, S]
(3) [aL, T ] = [L, aT ] = a[L, T ], quaisquer que sejam L, T, S ∈ L(V ) e a ∈ K.
Portanto o espaço L(V ), munido do produto (L, T ) 7−→ [L, T ], é uma álgebra
sobre K, anotada gl(V ).

2.4 Exercícios do Capítulo 2


1. Sejam V1 , V2 espaços vetoriais isomorfos entre si, bem como W1 e W2 .
Prove que L(V1 , W1 ) é isomorfo a L(V2 , W2 ).
2. Sejam V, M espaços vetoriais sobre K, V = V1 ⊕ V2 . Prove que L(V1 ⊕
V2 , W ) é isomorfo a L(V1 , W ) × L(V2 , W ).
3. Seja V o espaço vetorial real das funções t 7−→ x(t) de [0, 1] em R,
dx
de classe C ∞ . Consideremos em V os operadores x 7−→ f (x) = e
Z t dt
x 7−→ g(x) com g(x)(t) = x(u)du. Prove que se x(0) 6= 0 então
0
(g ◦ f )(x) 6= (f ◦ g)(x).
4. Sejam V um espaço vetorial e {v1 , ..., vn } uma base de V. Prove que r
vetores u1 , ..., ur ∈ V , r ≤ n, são LI se, e só se, existe um automorfismo
T de V tal que T (vj ) = uj , 1 ≤ j ≤ r.
5. Sejam f : V → W linear e ϕ : V × W → V × W tal que ϕ(v, w) =
(v, w − f (v)). Prove que ϕ é um automorfismo de V × W .
6. Dois operadores lineares S, T ∈ L(V ) são semelhantes se existe oper-
ador invertível P ∈ GL(V ) tal que S = P −1 T P . Se V tem dimensão
finita, prove que operadores semelhantes têm o mesmo posto.
CAPÍTULO 2. APLICAÇÕES LINEARES 31

7. Seja V um espaço vetorial de dimensão n sobre K. Para k = 1, 2, ..., n,


exiba T : V → V linear tal que T k = 0 mas T j 6= 0 se j < k.

8. Sejam V e W espaços vetoriais de dimensão finita e T : V → W linear.


Prove:
(a) T é injetora ⇔ existe S : W → V linear tal que S ◦ T = idV
(b) T é sobrejetora ⇔ existe S : W → V linear tal que T ◦ S = idW

9. Seja V um espaço vetorial de dimensão infinita enumerável de base


(v1 , v2 , ..., vn , ...). Seja T : V → V o operador linear definido por
T (v2k+1 ) = 0, T (v2k ) = vk , k ∈ N.
(a) Prove que T é sobrejetora mas não injetora.
(b) Prove que existe S : V → V linear injetora, mas não sobrejetora,
tal que T ◦ S = id.

10. Sejam V um espaço vetorial de dimensão finita, V 0 ⊂ V um subespaço,


W um espaço vetorial, W 0 ⊂ W um subespaço, e T : V → W linear.
Prove: ³ ´
(a) dim T (V ) = dim V 0 − dim (N (T ) ∩ V 0 )
0

(b) dim T −1 (W 0 ) = dim N (T ) + dim (Im T ∩ W 0 ).

11. E0 , E1 , ..., En sendo espaços vetoriais sobre o mesmo corpo K (n ≥ 2)


dizemos que o diagrama
f0 fk−1k f fn−1
E0 −
→ E1 −
→ ... −
→ Ek−1 −−→ Ek −
→ Ek+1 −
→ ... −
→ En−1 −−→ En

é uma sequência exata se para 0 ≤ k ≤ n − 2 tem-se N fk+1 = Im fk ,


as aplicações fk sendo lineares (0 ≤ k ≤ n − 1). Se E0 (resp. En ) é
igual a {0}, que escrevemos 0, não escreveremos f0 (resp. fn−1 ) pois só
existe uma aplicação linear de 0 em E1 (resp. de En−1 em 0).
(a) Prove:
f
[0 → E −
→ F é uma sequência exata ] ⇔ f é injetora
f
[E →
− F → 0 é uma sequência exata ] ⇔ f é sobrejetora.
(b) Prove que os diagramas seguintes são sequências exatas:

i j E
0→F −
→E→
− →0
F
i f j F
0 → Nf −
→E→
− F −
→ →0
Im f
(f aplicação linear, i injeção canônica, j sobrejeção canônica).
Capítulo 3

Matrizes

3.1 Definições
Definição 3.1 Sejam K um corpo, m e n inteiros positivos e In = {1, 2, ..., n}.
Uma matriz m × n sobre K é uma função (i, j) ∈ Im × In 7−→ aij ∈ K. Em
geral os escalares aij são dispostos em m linhas e n colunas, o primeiro índice
indicando a linha e o segundo a coluna ocupadas por aij :

 
a11 a12 ... a1n
 a21 a22 ... a2n 
A=
 ...
 = (aij ), 1 ≤ i ≤ m, 1 ≤ j ≤ n
... ... ... 
am1 am2 ... amn

Os escalares aij são os elementos da matriz A = (aij ). Observemos que


duas matrizes, A = (aij ) e B = (bij ), ambas m × n, são iguais se, e só se,
aij = bij para todo par (i, j).
A matriz zero, m × n, é a que tem todos seus elementos iguais a zero.
A matriz A é quadrada quando o número de linhas é igual ao de colunas,
isto é, quando ela é do tipo n × n; n é a ordem da matriz quadrada A.
Numa matriz quadrada os elementos aii , que têm os índices iguais, formam
a diagonal principal.
A matriz identidade (ou unidade) de ordem n é a matriz quadrada In
na qual todos os elementos da diagonal
 principal
 são iguais a 1 e os demais
1 0 0
iguais a zero. Por exemplo, I3 = 0 1 0. O elemento genérico de In é o
0 0 1

32
CAPÍTULO 3. MATRIZES 33

símbolo de Kronecker, definido por:


(
1 se i = j
δij = .
0 se i 6= j

Assim, In = (δij )1≤i,j≤n .


Vamos introduzir no conjunto Mm×n (K), das matrizes m × n sobre K,
uma estrutura vetorial. Para isto precisamos definir a adição de matrizes e
o produto de uma matriz por um escalar.

Definição 3.2 Sejam A = (aij ) e B = (bij ) matrizes m × n. A soma C =


= A + B é a matriz m × n, C = (cij ), tal que cij = aij + bij para todo par
(i, j).
A adição matricial goza das seguintes propriedades de verificação imedi-
ata:
(1) A + B = B + A
(2) A + (B + C) = (A + B) + C
(3) A + 0 = A, onde 0 é a matriz zero m × n
(4) A + (−A) = 0 onde, sendo A = (aij ), temos (−A) = (−aij ).

Definição 3.3 Sejam c ∈ K e A = (aij ) ∈ Mm×n (K). A matriz B = (bij ),


onde bij = c·aij para todo par (i, j), é o produto de c por A, anotado B = c·A.
É claro que B ∈ Mm×n (K).
A multiplicação de matriz por escalar tem as seguintes propriedades, de
fácil verificação:
(1) 1 · A = A
(2) c · (A + B) = c · A + c · B
(3) (c + d) · A = c · A + d · A
(4) c(d · A) = (cd) · A,
quaisquer que sejam A, B ∈ Mm×n (K) e c, d ∈ K.
Vemos assim que Mm×n , munido das leis de adição e de multiplicação
por escalar, é um espaço vetorial sobre K. Quando m = n escrevemos apenas
Mn (K) ou simplesmente Mn .
Vamos achar uma base para Mm×n (K). Para isso, consideremos as ma-
trizes Eij , 1 ≤ i ≤ m, 1 ≤ j ≤ n, onde cada Eij é m × n e tem todos os
elementos iguais a zero, exceto o situado na linha i e na coluna j, que é igual
a um:
CAPÍTULO 3. MATRIZES 34
 
 
 
 0 ... 0 ... 0 
 .. . . .. .. 
 . 
 . . . .. . 
 
Eij =  0 ... 1 ... 0  ← linha i
 .. . . .. .. .. 
 . . . . . 
 
 0 ... 0 ... 0 
 
 ↑ 
coluna j

Proposição 3.1 O conjunto {E11 , ..., E1n , ..., Em1 , ..., Emn } é uma base de
Mm×n (K).

m X
X n
Dem. Se A = (aij ) é m × n é claro que A = aij Eij , ou seja, as ma-
i=1 j=1
m X
X n
trizes Eij geram Mm×n (K). Além disso, elas são LI, pois se aij Eij =
i=1 j=1
0, então A = (aij ) = 0, donde aij = 0 para todo par (i, j).

Corolário 3.1.1 dim Mm×n (K) = m · n.

3.2 Produto de Matrizes


Definição 3.4 Sejam A = (aij ) – m × n – e B = (bij ) – n × p, ou seja,
o número de colunas de A é igual ao número de linhas de B. O produto
n
X
C = A · B é a matriz m × p, C = (cij ), tal que cij = aik bkj .
k=1

Exemplo 3.2.1 µ ¶µ ¶ µ ¶
1 0 1 2 1 2
=
0 2 3 4 6 8
µ ¶µ ¶ µ ¶
1 2 1 0 1 4
=
3 4 0 2 3 8
o que mostra que o produto não é comutativo.

Proposição 3.2 (a) (AB)C = A(BC)


(b) A(B1 + B2 ) = AB1 + AB2 ; (A1 + A2 )B = A1 B + A2 B
CAPÍTULO 3. MATRIZES 35

(c) In A = AIn = A,
onde se supõem definidos os produtos e somas (das matrizes) indicados, e em
(c) A é m × n.

Dem. (a) Sejam: A = (aij ) do tipo m × n .


B = (bij ) do tipo n × p
C = (cij ) do tipo p × q

Então: AB = (dij ) é m × p e (AB)C = (eij ) é m × q


BC = (fij ) é n × q e A(BC) = (gij ) é m × q,
ou seja, se o primeiro membro está definido, então o segundo também, e
é do mesmo tipo.

p p n
X X X
Temos: eij = dik ckj = ckj air brk
k=1 k=1 r=1
n n p
X X X
gij = air frj = air brk ckj ,
r=1 r=1 k=1
o que mostra que eij = gij para todo i e todo j. As demonstrações de (b)
e (c) são deixadas a cargo do leitor.

3.3 Aplicação Linear × Matriz


Sejam V e W espaços vetoriais sobre o corpo K, E = (v1 , ..., vn ) e F =
(w1 , ..., wm ) bases ordenadas de V e W, respectivamente, e T : V −→ W
linear. n m
X X
Se v = x1 v1 + ... + vn vn = xj vj , T (v) = y1 w1 + ... + ym wm = yi wi
j=1 i=1
m
X
e T (vj ) = aij wi , então:
i=1

n
X n X
X m
T (v) = xj T (vj ) = aij xj wi .
j=1 j=1 i=1
CAPÍTULO 3. MATRIZES 36

Portanto: n
X
yi = aij xj (i = 1, 2, ..., m)
j=1

Pondo:
   
x1 y1
   
£ ¤  x2   y2  £ ¤E
v E =  ..  , [T v]F =  ..  e T F = (aij ) ,
.  .  1≤i≤m
xn ym 1≤j≤n

o sistema acima pode ser escrito na forma matricial


£ ¤ £ ¤E £ ¤
T (v) F
= T F · v E.

Assim, fixadas as bases ordenadas E e F, a toda aplicação linear T : V −→


Xm
£ ¤E
W podemos associar uma matriz T F = (aij ) definida por T (vj ) = aij wi ,
i=1
ou seja,
 
£ ¤E a 11 a 12 ... a in
T F =  ... ... ... ...  .
am1 am2 ... amn
£ ¤E
T F é a matrix de T em relação às bases E de V e F de W. Ela é do tipo
m × n e, para cada j, as componentes de T (vj ) na base F formam a coluna
j dessa matriz.
Reciprocamente, dada uma matriz m × n, A = (aij ), consideremos os
Xm
vetores uj , 1 ≤ j ≤ n, definidos por uj = aij wi . Seja T : V −→ W a
i=1
única aplicação linear tal que T (vj ) = uj , 1 ≤ j ≤ n. Então é claro que
£ ¤E
T F = A. Existe, pois, uma bijeção entre L(V, W ) e Mm×n (K), bijeção esta
que depende da escolha das bases ordenadas E de V e F de W.

Exemplo 3.3.1 Sejam V um espaço vetorial sobre K e B = {v1 , ..., vn } uma


base de V. Sejam os operadores lineares I(v) = v e 0(v) = 0 para todo v ∈ V .
£ ¤B £ ¤B
É claro que I B = In e 0 B = 0.

Exemplo 3.3.2 Seja V = Pn o espaço vetorial dos polinômios a uma var-


iável e de grau menor que n, com coeficientes em K, juntamente com o
CAPÍTULO 3. MATRIZES 37

polinômio zero. Sejam B = {1, t, ..., tn−1 } base de V e D : V −→ V a


aplicação derivada:

D(a0 + a1 t + ... + an−1 tn−1 ) = a1 + 2a2 t + ... + (n − 1)an−1 tn−2 .

Então:  
0 1 0 ... 0
0 0 2 ... 0 
£ ¤B  
D B=
... ... ... ... ... 

0 0 0 ... n − 1
0 0 0 ... 0

Exemplo 3.3.3 Sejam I : R3 −→ R3 a identidade, E = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}
£ ¤E
e F = {(1, 0, 0), (1, 1, 0), (1, 1, 1)} bases de R3 . Vamos achar I F .
Temos:

I(1, 0, 0) = (1, 0, 0); I(0, 1, 0) = (1, 1, 0)−(1, 0, 0); I(0, 0, 1) = (1, 1, 1)−(1, 1, 0).

Portanto:  
£ ¤E 1 −1 0
I F = 0 1 −1
0 0 1

Exemplo 3.3.4 Seja T : R3 −→ R3 definida por T (x, y, z) = (x + y + z, y +


z, z). É claro que T é linear. Sejam E e F as bases do exemplo 3.3.3. Vamos
£ ¤E £ ¤E
achar T F e T E .
Temos: T (1, 0, 0) = (1, 0, 0); T (0, 1, 0) = (1, 1, 0); T (0, 0, 1) = (1, 1, 1).
Portanto:
 
£ ¤E 1 0 0
T F = 0 1 0 = I3
0 0 1
E:
 
£ ¤E 1 1 1
T E = 0 1 1 
0 0 1
n m
Exemplo 3.3.5 Seja A = (a ij ) m×n sobre K. Seja TA : K −→ K tal que
x1
 ..  £ ¤E
TA (X) = A · X, onde X =  . . É claro que TA é linear e que T F = A,
xn
onde E e F são as bases canônicas de K n e K m , respectivamente.
CAPÍTULO 3. MATRIZES 38

Exemplo 3.3.6 (Rotação)


Sejam E = (e1 , e2 ) a base canônica do R2 e F = (f1 , f2 ) onde
f1 = cos α · e1 + sen α · e2
.
f2 = −sen α · e1 + cos α · e2 , α ∈ R

e
62
f2 α f
I µ 1
ª
I
α
-
e1

Definamos T : R2 −→ R2 linear por meio de:


T e1 = f1
T e2 = f2
Então:
· ¸
£ ¤E cos α −sen α
T E=
senα cos α
µ ¶
x
A imagem de ∈ R2 por T é o vetor
y
· ¸µ ¶ · ¸
cos α −sen α x x · cos α − y · sen α
= ∈ R2 .
senα cos α y x · senα + y · cos α
A transformação linear T é a rotação de α em torno da origem.
Proposição 3.3 Sejam V e W espaços vetoriais sobre K, E = (v1 , ..., vn ) e
F = (w1 , ..., wm ) bases ordenadas de V e W, respectivamente. A aplicação
£ ¤E
T 7−→ T F , que a cada elemento de L(V, W ) associa sua matriz em relação
às bases dadas, é um isomorfismo de L(V, W ) sobre Mm×n (K).

Dem. Sejam T e S elementos de


m
X m
X
L(V, W ), T (vj ) = aij wi , S(vj ) = bij wi ,
i=1 i=1
CAPÍTULO 3. MATRIZES 39
£ ¤E £ ¤E
isto é, T F = (aij ) e S F = (bij ).
Xm
Como (T + S)(vj ) = (aij + bij )wi resulta que
i=1
£ ¤E £ ¤E £ ¤E
T +S = (aij + bij ) = T F + S F.
F 1≤i≤m
1≤j≤n
m
X £ ¤E £ ¤E
Se c ∈ K temos (cT )(vj ) = caij wi , isto é, cT F = (caij ) = c · T F .
i=1
£ ¤E
Portanto, a aplicação T 7−→ T F é linear (e bijetora), ou seja, um
isomorfismo.

Corolário 3.3.1 dim L(V, W ) = dim V · dim W .

Proposição 3.4 Sejam U, V, W espaços vetoriais sobre K, E = (u1 , ..., um ),


F = (v1 , ..., vn ) e G = (w1 , ..., wp ) bases ordenadas de U, V, W, respectiva-
S T
mente. Se U − →V − → W são lineares, então:
£ ¤E £ ¤F £ ¤E
T ◦S G
= T G · S F.

Dem. Sejam:
£ ¤F
T G = (aij ) – p × n
£ ¤E
S F = (bij ) – n × m
£ ¤E
T ◦S G
= (cij ) – p × m
Então:
p
X
T (vk ) = aik wi
i=1

n
X
S(uj ) = bkj vk
k=1

p
X
(T ◦ S)(uj ) = cij wi
i=1
CAPÍTULO 3. MATRIZES 40

Portanto:
n p
n X
¡ ¢ X X
T S(uj ) = bkj T (vk ) = aik bkj wi ,
k=1 k=1 i=1

donde: n
X
cij = aik bkj ,
k=1

que é a tese.
O conjunto Mn (K) das matrizes de ordem n, munido das leis de adição
e multiplicação por escalar, é um espaço vetorial sobre K de dimensão n2 .
Mn (K), munido das operações de adição e multiplicação matriciais, é um
anel (com unidade). Além disso, é fácil verificar que

c(AB) = (cA)B = A(cB)

quaisquer que sejam A, B ∈ Mn (K) e c ∈ K. Resulta que Mn (K) tem uma


estrutura de álgebra sobre K. Vimos que o anel Mn (K) não é comutativo; o
exemplo · ¸· ¸ · ¸
1 0 0 0 0 0
=
0 0 0 1 0 0
mostra que ele tem divisores de zero.
Seja V um espaço vetorial sobre K, de dimensão n. Vimos que L(V )
e Mn (K) são duas álgebras sobre K. Fixada uma base B de V, a aplicação
φ £ ¤B
bijetora T ∈ L(V ) 7−→ T B ∈ Mn (K) goza das seguintes propriedades:
£ ¤B £ ¤B £ ¤B
(1) L + T B = L B + T B , isto é, φ(L + T ) = φ(L) + φ(T )
£ ¤B £ ¤B
(2) aT B = a T B , isto é, φ(aT ) = a · φ(T )
£ ¤B £ ¤B £ ¤B
(3) L ◦ T B = L B · T B , isto é, φ(L ◦ T ) = φ(L) · φ(T ), quaisquer que
sejam L, T ∈ L(V ) e a ∈ K.
Uma tal φ chama-se um isomorfismo de álgebras, ou seja, L(V ) e Mn (K)
são álgebras isomorfas.

Exemplo 3.3.7 Vamos achar o centro do anel Mn (K), isto é, vamos de-
terminar as matrizes A = (aij ) de Mn (K) que comutam com toda ma-
triz P = (pij ) de Mn (K), ou seja, tais que AP = P A. Devemos ter
Xn n
X
aik pkj = pik akj para todo par (i, j). Se P = Eii , isto é, pii = 1 e
k=1 k=1
prs = 0 para r 6= i ou s 6= i, então i 6= j implica aij = 0. Se P = Eij com
i 6= j, isto é, pij = 1 e prs = 0 para r 6= i ou s 6= j, então aii = ajj . Logo, se
CAPÍTULO 3. MATRIZES 41

A comuta com toda matriz de Mn (K) ela é da forma A = a · In , e é evidente


que toda matriz a · In , a ∈ K, comuta com toda matriz de Mn (K). Estas
matrizes têm o nome de matrizes escalares.

Definição 3.5 Uma matriz quadrada A, n × n, é invertível se existe matriz


quadrada B, de mesma ordem, tal que AB = BA = In .
Se uma tal matriz B existe, ela é única, pois se AC = In e BA = In ,
temos: B = B · In = B(AC) = (BA)C = In · C = C. esta matriz B, caso
exista, chama-se a inversa de A, e é anotada B = A−1 . Assim,
A · A−1 = A−1 · A = In ,
o que mostra também que (A−1 )−1 = A.
Se A e B, ambas n × n, são invertíveis, então AB é invertível e
(AB)−1 = B −1 A−1 .
De fato, (AB)(B −1 A−1 ) = A(BB −1 )A−1 = A · A−1 = In e (B −1 A−1 )(AB) =
B −1 (A−1 · A)B = B −1 B = In . É claro que In−1 = In .
Vemos assim que o conjunto das matrizes invertíveis de Mn (K), com
a operação de multiplicação matricial, é um grupo. O isomorfismo φ :
L(K n ) −→ Mn (K) visto acima, transforma o grupo GL(K n ) = GL(n, K)
isomorficamente sobre o grupo das matrizes invertíveis de Mn (K). Em par-
ticular,
h iB ³£ ¤ ´−1
−1 B
T = T B .
B

Exemplo 3.3.8 Seja A, de ordem n, tal que a0 In + a1 A + ... + an An = 0


com a0 6= 0. Então A é invertível.
De fato, temos:
µ ¶ µ ¶
a1 an n−1 a1 an n−1
− In − ... − A · A = A · − In − ... − A = In .
a0 a0 a0 a0
a1 an
Logo, A−1 = − · In − ... − · An−1
a0 a0
Proposição 3.5 Seja A ∈ Mn (K). Se existe B ∈ Mn (K) tal que BA = In
(ou AB = In ), então A é invertível e B = A−1 .

Dem. Sejam TA : K n −→ K n e TB : K n −→ K n as aplicações lineares


associadas a A e B, respectivamente. BA = In equivale a TB · TA = idK n ,
que implica ser TA injetora e TB sobrejetora e, portanto, ambas são bijetoras
e TB = TA−1 , donde A−1 = B.
CAPÍTULO 3. MATRIZES 42

Exercícios
1. Dê uma base para M3 (K).

2. Seja W o subespaço de Mn (K) formado pelas matrizes cujos elemen-


tos são iguais a zero, exceto talvez os da diagonal principal. Qual a
dimensão de W?

3. Seja A ∈ Mn (R). A = (aij ) é simétrica (resp. antissimétrica) se aij =


aji (resp. aij = −aji ) para todo (i, j). Ache uma base para o espaço
das matrizes simétricas (resp. antissimétricas) 3 × 3.

4. Seja T : R4 −→ R2 dada por T (x1 , x2 , x3 , x4 ) = (x2 , x4 ). Ache uma


matriz associada a T.
¡ ¢ ¡ ¢
5. Sejam E = (1, 1, 0), (−1, 1, 1), (0, 1, 2) e F = (2, 1, 1), (0, 0, 1), (1, 1, 1)
£ ¤E
bases de C3 . Ache I F , onde I : C3 −→ C3 é a identidade.

6. Seja V o subespaço de F(R, R) = {f : R −→ R} gerado pelas funções


1, t, et , e2t , te2t e seja D : V −→ V o operador de derivação. Se
£ ¤B
B = (1, t, et , e2t , te2t ) é base de V, ache D B .

7. Estabeleça um isomorfismo entre o espaço vetorial real das matrizes


simétricas n × n e o espaço das matrizes reais triangulares inferiores
(aij = 0 se i < j). Idem entre as matrizes antissimétricas e as triangu-
lares inferiores com a diagonal principal nula.

3.4 Mudança de Bases


Sejam V um espaço vetorial sobre K, E = (v1 , ..., vn ) e F = (w1 , ..., wn ) bases
£ ¤ £ ¤ £ ¤F
ordenadas de V. Se v ∈ V , então v E = P · v F , onde P = I E = (pij ) é
n
X
tal que wj = pij vi .
i=1

£ ¤F
Definição 3.6 P = I E é a matriz de passagem da base E para a base F.

Exemplo
¡ 3.4.1 Sejam V ¢ = R3 , E = (e1 , e2 , e3 ) – base canônica, F =
(1, −1, 1), (1, 0, 0), (1, 1, 1) = (f1 , f2 , f3 ). Então:
 
£ ¤F 1 1 1
P = I E = −1 0 1 .
1 0 1
CAPÍTULO 3. MATRIZES 43
    
£ ¤ 1 1 1 2 6
Se v = 2f1 + f2 + 3f3 , então v E = −1 0 1 1 = 1, isto é,
1 0 1 3 5
v = 6e1 + e2 + 5e3 .

Proposição 3.6 Sejam V e W espaços vetoriais sobre K,

E = (v1 , ..., vn ), E 0 = (v10 , ..., vn0 )

bases ordenadas de V,
0
F = (w1 , ..., wm ), F 0 = (w10 , ..., wm )

bases ordenadas de W,
£ ¤E 0
P = idv E
£ ¤F 0
a matriz de passagem de E para E 0 , Q = idW F a matriz de passagem de F
para F 0 .
Se T : V −→ W é linear, então:
£ ¤E 0 £ ¤E
T F 0 = Q−1 · T F · P.

Dem. Temos T = idW · T · idV . Pela proposição 3.4, vem:


£ ¤E 0 £ ¤F £ ¤E £ ¤E 0
T F 0 = idW F 0 · T F · idV E

Mas: £ ¤F 0 £ ¤F £ ¤F 0
In = idW F 0 = idW F 0 · idW F
e £ ¤F £ ¤F 0 £ ¤F
In = idW F = idW F · idW F 0 ,
£ ¤F
o que mostra que idW F 0 = Q−1 . Resulta:
£ ¤E 0 £ ¤E
T F 0 = Q−1 · T F · P

Corolário 3.6.1 Sejam V um espaço vetorial sobre K, E e E 0 bases de V e


£ ¤E 0
P = idV E a matriz de passagem de E para E 0 . Se T : V −→ V é linear,
então: £ ¤E 0 £ ¤E
T E 0 = P −1 · T E · P
CAPÍTULO 3. MATRIZES 44

Definição 3.7 Dizemos que as matrizes A, B ∈ Mm×n (K) são equivalentes


se existem matrizes Q ∈ GL(m, K) e P ∈ GL(n, K) tais que B = QAP .

Obs.: A proposição 3.6 nos diz que se A e B são matrizes associadas à


mesma aplicação linear T : V −→ W , então A e B são equivalentes. Re-
ciprocamente, suponhamos A e B equivalentes, isto é, B = QAP onde
A, B ∈ Mm×n (K), P ∈ GL(n, K) e Q ∈ GL(m, K).
Sejam E = (v1 , ..., vn ) e F = (w1 , ..., wm ) bases ordenadas dos espaços ve-
£ ¤E
toriais V e W e T : V −→ W linear tal que A = T F . Definamos
n
X m
X
0
E 0 = (v10 , ..., vn0 ) e F 0 = (w10 , ..., wm ) por vj0 = pij vi e wj0 = qij wi ,
i=1 i=1
onde P = (pij ) e Q−1 = (qij ).
Como P e Q são invertíveis, E 0 e F 0 são bases de V e W, respectivamente,
£ ¤E 0 £ ¤F 0
P = idV E e Q−1 = idW F .
Pela proposição 3.6, temos:
£ ¤E 0 £ ¤E 0
T F 0 = QAP, isto é, B = T F 0 ,

o que mostra que A e B representam a mesma aplicação linear T : V −→ W .

Definição 3.8 Dizemos que as matrizes A, B ∈ Mn (K) são semelhantes se


existe P ∈ GL(n, K) tal que B = P −1 · A · P . Como na observação, acima
é fácil ver que A, B ∈ Mn (K) são semelhantes se, e só se, elas representam
um mesmo operador linear T : V −→ V , onde dimK V = n.

Obs.: É fácil verificar que as relações “A e B são equivalentes” e “A e B


são semelhantes”, são relações de equivalência (isto é, reflexivas, simétricas
e transitivas).

Exemplo 3.4.2 Seja T : R3 −→ R3 , T (x1 , x2 , x3 ) = (x1 +¡ 2x3 , 3x1 + 2x2 + ¢


x3 , x2 +4x3 ) e sejam E = (e1 , e2 , e3 ) – base canônica e F = (1, 0, 0), (1, 1, 0), (1, 1, 1)
bases de R3 .
Temos:

T (1, 0, 0) = (1, 3, 0)
T (0, 1, 0) = (0, 2, 1)
T (0, 0, 1) = (2, 1, 4)
CAPÍTULO 3. MATRIZES 45

Portanto:
 
£ ¤E 1 0 2
T E = 3 2 1 = A.
0 1 4

Por outro lado, se F = (f1 , f2 , f3 ), temos:

T (f1 ) = (1, 3, 0) = −2f1 + 3f2


T (f2 ) = (1, 5, 1) = −4f1 + 4f2 + f3
T (f3 ) = (3, 6, 5) = −3f1 + f2 + 5f3
Portanto:  
£ ¤F −2 −4 −3
T F = 3 4 1  = B.
0 1 5
 
£ ¤F 1 1 1
A matriz de passagem de E para F é P = I E , ou seja, P = 0 1 1, e
0 0 1
é imediato verificar que
 
1 1 3
AP = P B = 3 5 6 , isto é, B = P −1 · A · P.
0 1 5

Posto de uma Matriz

Seja A = (aij ) matriz m × n sobre K. Os vetores-coluna de A são os


vetores A1 , ..., An ∈ K m definidos por
 
aij
 a2j 
 
Aj =  ..  (1 ≤ j ≤ n)
 . 
amj

Definição 3.9 O posto de uma matriz A é a dimensão do subespaço de K m


gerado pelos vetores-coluna de A, ou seja, o posto de A é o número máximo
de vetores-coluna de A linearmente independentes.
Proposição 3.7 Sejam V, W espaços vetoriais sobre K, E = (v1 , ..., vn ) e
F = (w1 , ..., wm ) bases ordenadas de V e W, respectivamente, e T : V −→ W
£ ¤E
linear. Se A = T F , então:
posto(A) = posto(T ).
CAPÍTULO 3. MATRIZES 46

£ ¤E
Dem. Seja A = (aij ). Dizer que A = T F significa dizer que T (vj ) =
m
X £ ¤
aij wi , ou seja, Aj = T (vj ) F (j = 1, ..., n), e o isomorfismo de K m
i=1
sobre W que leva a base canônica de K m na base F de W, transforma o
espaço gerado pelos vetores-coluna A1 , ..., An de A sobre o espaço gerado pelos
vetores T (v1 ), ..., T (vn ) de W, ou seja, estes espaços têm a mesma dimensão
e, portanto, posto(A) = posto(T ).

Proposição 3.8 Seja A ∈ Mm×n (K) de posto r. Então r ≤ m, r ≤ n e A


é equivalente à matriz m × n:

Ir 0 r

0 0 m−r

r n−r

£ ¤E
Dem. Seja T : K n −→ K m linear tal que A = T F , onde E e F são as
bases canônicas de K n e K m , respectivamente.
Como n = dim N (T ) + dim Im T temos que dim N (T ) = n − r ≥ 0.
Podemos, então, escolher uma base E 0 = (v1 , ..., vn ) de K n de modo que
(vr+1 , ..., vn ) seja base de N (T ). É claro que os vetores T (v1 ), ..., T (vr ) são
LI em K m (verifique!), donde r ≤ m e podemos considerar uma base de K m
da forma F 0 = (T v1 , ..., T vr , wr+1 , ..., wm ). Obtemos:
£ ¤E 0
T F 0 = matriz da figura 3.8.
£ ¤E
Resulta que A = T F é equivalente a B = matriz da figura 3.8 :
£ ¤F £ ¤E 0
B = QAP, Q = id F 0 , P = id E .
CAPÍTULO 3. MATRIZES 47

Corolário 3.8.1 Duas matrizes A, B ∈ Mm×n (K) são equivalentes se, e só


se, elas têm o mesmo posto.

Dem. Se A e B são equivalentes, elas representam, em relação a bases


diferentes, a mesma aplicação linear T : K n −→ K m . Portanto,
posto(A) = posto(T ) = posto(B).
Reciprocamente, se posto(A) = posto(B) = r, então A e B são equiva-
lentes à matriz da figura 3.8 e, portanto, elas são equivalentes.
Corolário 3.8.2 A matriz A ∈ Mm×n (K) é invertível se, e só se,
posto(A) = n.

Dem. A matriz A representa um operador linear


T : K n −→ K m e posto(T ) = posto(A) = n
se, e só se, T é sobrejetora (donde bijetora), isto é, se, e só se, T ∈ GL(n, K)
e, portanto, se, e só se, A é invertível.

3.5 Exercícios do Capítulo 3


 
£ ¤ 1 0
E
1. Obtenha bases E de R2 e F de R3 de modo que T F = 0 1, onde
  0 0
µ ¶ 2x + y
x
T 
= 3x − 2y .
y
x + 3y
2. Calcule o posto das matrizes:
   
1 2 3 1 2 3
A = 4 5 6  ; B = 4 5 6  .
7 8 9 2 1 0
Mostre que os espaços gerados pelas linhas e colunas de A coincidem,
o que não ocorre com B.
CAPÍTULO 3. MATRIZES 48

3. Seja a matriz n × n cujas linhas são os vetores

v1 = (1, 2, ..., n), v2 = (2, 3, ..., n, n + 1), etc.

Prove que o posto da matriz é 2 e que o espaço-linha coincide com o


espaço-coluna.

4. Ache reais a, b, ctais queax + by + cz = 0 seja o plano gerado pelas


1 1 2
linhas da matriz 1 2 3.

1 3 4
5. Prove que toda matriz antissimétrica 3 × 3 não-nula tem posto 2. Dê
exemplo de uma matriz antissimétrica invertível 4 × 4.

6. Sejam V um espaço vetorial de dimensão n sobre K e T : V −→ V


linear. T é nilpotente de índice p se existe p ∈ N tal que T p−1 6= 0 e
T p = 0.
(a) Prove que se T é nilpotente e existem λ ∈ K, x ∈ V, x 6= 0 tais
que T (x) = λx, então λ = 0.
(b) Prove que se T é nilpotente de índice p e T p−1 (x) 6= 0, então os
vetores x, T (x), ..., T p−1 (x) são LI.
(c) T é nilpotente de índice n ⇔ existe base E de V tal que na matriz
£ ¤E
A = T E = (aij ) – n × n – se tenha aij = 0 exceto ai,i+1 = 1 (1 ≤ i ≤
n − 1).
 
1 1 0
7. Seja A = 0 1 1; ache An , n ∈ N.
0 0 1
· ¸ · iθ ¸
cos θ −sen θ e 0
8. Prove que e são semelhantes sobre C.
sen θ cos θ 0 e−iθ
n
X
9. Seja A = (aij ) − n × n. O traço de A é o número tr(A) = aii .
i=1
Prove que tr : Mn (K) −→ K é linear, que tr(AB) = tr(BA), e
que tr(P −1 AP ) = tr(A), quaisquer que sejam A, B ∈ Mn (K) e P ∈
GL(n, K).

10. Sejam T : M2 (R) −→ M2 (R) tal que T (A) = P A, onde P ∈ M2 (R) é


fixa. Prove que tr(T ) = 2tr(P ).
Capítulo 4

Formas Lineares. Dualidade

4.1 Definição
Seja V um espaço vetorial sobre o corpo K. Considerando K um espaço
vetorial sobre si mesmo, L(V, K) é um espaço vetorial sobre K, designado
por V ∗ e chamado de dual de V; seus elementos são chamados de formas (ou
funcionais) lineares em V. O dual de V ∗ é o bidual de V, anotado V ∗∗ . Os
elementos de V ∗ serão designados por letras gregas tais como α, β, ω, etc.
Assim, uma forma linear ω ∈ V ∗ é uma aplicação linear ω : V −→ K.
Se E = {v1 , ..., vn } é uma base de V e se v = x1 v1 +...+xn vn , então ω(v) =
x1 ω(v1 ) + ... + xn ω(vn ). Pondo ω(vi ) = ai , temos: ω(v) = a1 x1 + ... + an xn ,
que é a representação de ω na base E.

Exemplo 4.1.1 Se V = K n , a aplicação πi (x1 , ..., xn ) 7−→ xi (1 ≤ i ≤ n) é


uma forma linear em K n , chamada a i-ésima forma coordenada.

Exemplo 4.1.2 Se V = C 0 ([0, 1], R) é o espaço


Z 1 vetorial real das funções
contínuas f : [0, 1] −→ R a função f ∈ V 7−→ f (t)dt ∈ R é uma forma
0
linear em V.

Proposição 4.1 Sejam V um espaço vetorial sobre K e (v1 , ..., vn ) uma base
ordenada de V. Para cada ½ i, 1 ≤ i ≤ n, seja ωi : V −→ K a forma linear
1 se i = j
definida por ωi (vj ) = δij = (1 ≤ i ≤ n).
0 se i ≤ j
Então, (ω1 , ..., ωn ) é uma base de V ∗ e as coordenadas de ω ∈ V ∗ nesta
base, são ω(v1 ), ..., ω(vn ).

Dem. Sabemos que dim V ∗ = dim L(V, K) = n e que as condições ωi (vj ) =


δij (j = 1, ..., n) determinam univocamente a forma ωi . Basta então provar

49
CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 50

que ω1 , ..., ωn são LI. Para isso, suponhamos que ω = a1 ω1 + ... + an ωn = 0.


Xn
Então, para j = 1, ..., n, temos ω(vj ) = 0, ou seja, ai ωi (vj ) = 0, ou
i=1
n
X
ai δij = 0, donde aj = 0. Este cálculo mostra também que se
i=1

ω = a1 ω1 + ... + an ωn , então aj = ω(vj )

Definição 4.1 Se (v1 , ..., vn ) é base ordenada de V, a base (ω1 , ..., ωn ) de V ∗ ,


tal que ω(vj ) = δij (1 ≤ j ≤ n), chama-se base dual da base (v1 , ..., vn ).

Exemplo 4.1.3 Sejam V = K n e (e1 , ..., en ) a base canônica de K n . Seja


πi : K n −→ K a i-ésima forma coordenada, isto é, πi (x1 , ..., xn ) = xi . É
claro que πi (ej ) = δij , de modo que a base dual da base canônica de K n é a
base (π1 , ..., πn ) de (K n )∗ .
Obs. Se V e W têm a mesma dimensão finita sobre K, a escolha de bases
E de V e F de W nos permite definir um isomorfismo que leva E sobre F,
e todo isomorfismo entre V e W é obtido dessa forma. Assim, em geral, há
mais de um isomorfismo entre V e W e não temos uma maneira natural para
preferir um ou outro desses isomorfismos. Entretanto, no caso de V e V ∗∗ ,
podemos distinguir um isomorfismo J : V −→ V ∗∗ definido independente da
escolha de bases, isto é, um isomorfismo canônico, que nos permite identificar
V a V ∗∗ .

Proposição 4.2 Seja V um espaço vetorial de dimensão finita n sobre K.


A aplicação canônica

J : V −→ V ∗∗
v 7−→ Jv : V ∗ −→ K
ω 7−→ ω(v)

é um isomorfismo entre V e V ∗∗ .

Dem. É fácil verificar que Jv = J(v) é um elemento de V ∗∗ , bem como que J


é linear. Basta então provar que J é injetora, já que dim V = dim V ∗∗ = n.
Para isto, seja v 6= 0; tomemos uma base de V da forma (v, v1 , ..., vn−1 ) e
CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 51

consideremos a base dual correspondente (ω, ω1 , ..., ωn−1 ). Então, ω(v) = 1 =


Jv (ω), ou seja, Jv 6= 0. Assim, v 6= 0 implica Jv 6= 0, o que mostra ser J
injetora.
Obs. (1) Identificando-se v ∈ V a Jv ∈ V ∗∗ , a igualdade Jv (ω) = ω(v) se
escreve v(ω) = ω(v), e é usual usar-se a notação < v, ω > para este escalar.
(2) No caso em que V é de dimensão infinita, prova-se que J : V −→ V ∗∗ é
injetora, mas nunca sobrejetora, ou seja, J não é um isomorfismo neste caso.

Exercícios
1. Sejam B1 = (v1 , ..., vn ), B2 = (u1 , ..., un ) bases do espaço vetorial V,
B1∗ = (α1 , ..., αn ) e B2∗ = (β1 , ..., βn ) as bases duais correspondentes.
Xn Xn
Se vj = aij ui e αj = bij βi , i ≤ j ≤ n, qual a relação entre as
i=1 i=1
matrizes A = (aij )eB = (bij )?

2. Estude a independência linear das formas lineares sobre R4 , onde ab 6=


0:
f1 (x1 , x2 , x3 , x4 ) = x1 − ax3 ,
1
f2 (x1 , x2 , x3 , x4 ) = x2 − x4 ,
a
f3 (x1 , x2 , x3 , x4 ) = x1 − bx4 ,
1
f4 (x1 , x2 , x3 , x4 ) = x2 − x4 .
b
3. Sejam V um espaço vetorial de dimensão finita e W ⊂ V um subespaço.
Se f ∈ W ∗ mostre que existe g ∈ V ∗ tal que g|W = f .

4. Sejam V um espaço vetorial real de dimensão finita, e v1 , v2 , ..., vp ve-


tores não nulos de V. Prove que existe f ∈ V ∗ tal que f (vi ) 6= 0, i =
1, 2, ..., p.

5. Seja f : V −→ R uma forma linear não-nula. Prove que existe v0 ∈ V


tal que f (v0 ) = 1. Seja W = Rv0 a reta gerada por v0 . Prove que
V = W ⊕ N (f ).

6. Sejam f, g : V −→ R formas lineares não-nulas e dim V = n. Prove


que N (f ) = N (g) ⇔ f é múltiplo de g.
CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 52

4.2 Anulador de um Subespaço


Definição 4.2 Sejam V um espaço vetorial sobre K e U ⊂ V um subespaço.
Chama-se anulador de U ao conjunto U 0 = {ω ∈ V ∗ ; ω(u) = 0 para todo
u ∈ U }. É fácil ver que U 0 ⊂ V ∗ é um subespaço.
Se ω ∈ V ∗ pode-se mostrar sem dificuldade que ω ∈ U 0 se, e só se, ω se
anula numa base de U.

Proposição 4.3 Sejam V um espaço vetorial de dimensão finita sobre K e


U ⊂ V um subespaço. Então:

dim U + dim U 0 = dim V.

Dem. Como o caso U = {0} é trivial, vamos supor U 6= {0}. Seja (v1 , ..., vn )
base de V tal que (v1 , ..., vp ) seja base de U. Se (ω1 , .., ωn ) é a base dual, então
< vj , ωi >= ωi (vj ) = 0 para i = 1, ..., p e i = p + 1, ..., n, ou seja, as formas
ωp+1 , ..., ωn pertencem a U 0 . Vamos provar que elas formam uma base de U 0 .
Como elas são LI, basta provar que elas geram U 0 . Para isto, seja ω ∈ U 0 .
Se ω = a1 ω1 + ... + an ωn , então, para j = 1, ..., p temos:
n
X n
X
0 = ω(vj ) = ai ωi (vj ) = ai δij = aj ,
i=1 i=1

ou seja, ω = ap+1 ωp+1 + ... + an ωn , como queríamos.

Corolário 4.3.1 Nas hipóteses da proposição 4.3, temos (U 0 )0 = U (supondo-


se identificados V e V ∗∗ ).

Dem. (U 0 )0 = {v ∈ V ; < ω, v >= 0 ∀ω ∈ U 0 }. Portanto, se u ∈ U , então


u ∈ (U 0 )0 , isto é, U ⊂ (U 0 )0 .
Por outro lado,

dim (U 0 )0 = dim V ∗ − dim U 0 = dim V − dim U 0 = dim U,

donde U=(U 0 )0 .
Obs. Se ω ∈ V ∗ , ω 6= 0, o subespaço de V, H = {v ∈ V ; < ω, v >= 0}, tem
dimensão igual a (dim V − 1) e chama-se um hiperplano de V.

Exemplo 4.2.1 Seja W o subespaço de R4 gerado pelos vetores v1 = (1, 2, 0, 1), v2 =


(2, 1, 3, 0) e v3 = (0, 3, −3, 2). Vamos achar uma base para o anulador W 0 .
CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 53

Se (v, y, z, t) ∈ R4 e ω ∈ (R4 )∗ , então ω(x, y, z, t) = ax + by + cz + dt,


onde a, b, c, d ∈ R, e ω ∈ W 0 se, e só se, ω(v1 ) = ω(v2 ) = ω(v3 ) = 0, ou seja,
se e só se,
( a + 2b + d = 0 ( d
a = −2c +
2a + b + 3c = 0 se, e só se, 3
2d .
3b − 3c + 2d = 0 b=c−
3
Resulta que ω1 e ω2 , tais que ω1 (x, y, z, t) = −2x + y + z, ω2 (x, y, z, t) =
x − 2y + 3t, formam uma base de W 0 (obtidas fazendo-se c = 1, d = 0 e
c = 0, d = 3, respectivamente).

Exemplo 4.2.2 Seja V um espaço vetorial de dimensão n sobre K. Todo


subespaço W de V é a interseção de um número finito de hiperplanos de V.
De fato, seja (v1 , ..., vn ) base de V tal que (v1 , ..., vp ) seja base de W. Seja
(ω1 , ..., ωn ) a base dual de (v1 , ..., vn ). Então:

v ∈ W ⇔ ωp+1 (v) = ... = ωn (v) = 0,


n
\
ou seja, W = Hj , onde Hj = N (ωj ) é o hiperplano definido por ωj .
j=p+1

Exercícios
1. Seja W ⊂ R5 o subespaço gerado pelos vetores ω1 = (2, −2, 3, 4, −1), ω2 =
(−1, 1, 2, 5, 2) ω3 = (0, 0, −1, −2, 3) e ω4 = (1, −1, 2, 3, 0). Ache uma
base para o anulador W 0 de W.

2. Sejam V um espaço vetorial de dimensão finita sobre K, U e W sube-


spaços de V. Prove:
(a) (U + W )0 = U 0 ∩ W 0 ; (U ∩ W )0 = U 0 + W 0
(b) V = U ⊕ W ⇒ V ∗ = U 0 ⊕ W 0 .

4.3 Transposição
Sejam V, W espaços vetoriais sobre K e T : V −→ W linear. Se β ∈ W ∗
então β ◦ T : V −→ K é linear, isto é, β ◦ T ∈ V ∗ .

Definição 4.3 A aplicação T t : W ∗ −→ V ∗ definida por T t (β) = β ◦ T para


toda β ∈ W ∗ , chama-se a transposta de T:
CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 54

T -
V W

β ◦ T = T t (β) ª β

R ª
K

Assim, < T t (β), v >=< β, T (v) > para todo v ∈ V .

Proposição 4.4 A transposta T t : W ∗ −→ V ∗ da aplicação linear T : V −→


W , é uma aplicação linear.

Dem.

T t (α + β) = (α + β) ◦ T = α ◦ T + β ◦ T = T t (α) + T t (β)

T t (aβ) = (aβ) ◦ T = a(β ◦ T ) = aT t β,


quaisquer que sejam α, β ∈ W ∗ e a ∈ K.

Exemplo 4.3.1 Se V = W e T = idV , então:

(idV )t (β) = β ◦ idV = β para todo β ∈ V ∗ ,

ou seja, (idV )t = idV ∗ .

Proposição 4.5 Sejam U, V, W espaços vetoriais sobre K.


(a) A aplicação T ∈ L(U, V ) 7−→ T t ∈ L(V ∗ , U ∗ ) é linear.
(b) Se T ∈ L(U, V ) e S ∈ L(V, W ), então (S ◦ T )t = T t ◦ S t . Além disso, se
T é bijetora então T t é bijetora e (T −1 )t = (T t )−1 .
(c) Se U e V têm dimensão finita, então T 7−→ T t é um isomorfismo entre
L(U, V ) e L(V ∗ , U ∗ ) e (T t )t = T (supondo-se identificados U com U ∗∗ e V
com V ∗∗ ).
CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 55

Dem. (a) Sejam L, T ∈ L(U, V ) e a ∈ K. Para todo β ∈ V ∗ temos:


(L + T )t (β) = β ◦ (L + T ) = β ◦ L + β ◦ T = Lt (β) + T t (β)
(aT )t (β) = β ◦ (aT ) = a(β ◦ T ) = aT t (β)
Resulta: (L + T )t = Lt + T t e (aT )t = a · T t .

¡ ¢
(b) (S◦T )t (ω) = ω◦(S◦T ) = (ω◦S)◦T = T t (ω◦S) = T t S t (ω) = (T t ◦S t )(ω)
para todo ω ∈ W ∗ . Logo: (S ◦ T )t = T t ◦ S t .
Se T é um isomorfismo temos T ◦ T −1 = idV , T −1 ◦ T = idV e, como
(idV )t = idV ∗ , vem:

T t ◦ (T −1 )t = idU ∗ e (T −1 )t ◦ T t = idV ∗ ,

donde resulta que (T t )−1 = (T −1 )t .


(c) Se U e V têm dimensão finita, podemos identificar U com U ∗∗ e V com
V ∗∗ , de modo que (T t )t ∈ L(U, V ). Se u ∈ U e β ∈ V ∗ , então:

< (T t )t u, β >=< u, T t (β) >=< β, T (u) >,

donde (T t )t = T . Resulta que T −7 → T t é sobrejetora e, como L(U, V ) e


L(V ∗ , U ∗ ) têm a mesma dimensão finita, esta aplicação é um isomorfismo.

Proposição 4.6 Seja T : V −→ W linear. Então: (Im T )0 = N (T t ).

Dem. ω ∈ (Im T )0 ⇔< ω, T (v) >= 0 ∀v ∈ V ⇔< v, T t (ω) >= 0


∀v ∈ V ⇔ T t (ω) = 0 ⇔ ω ∈ N (T t ).

Proposição 4.7 Sejam V e W espaços vetoriais de dimensão finita sobre K


e T : V −→ W linear. Então:

posto(T ) = posto(T t ).

Dem. Sejam n = dim V, p = dim W . Como (Im T )0 = N (T t ) temos:


posto(T t ) = dim W ∗ − dim N (T t ) = dim W ∗ − dim (Im T )0 =
= dim W ∗ − (dim W ∗ − dim Im T ) = dim Im T = posto(T ).

Proposição 4.8 Sejam V e W espaços vetoriais de dimensão finita sobre


K, E = (v1 , ..., vn ) base de V, F = (w1 , ..., wm ) base de W, E ∗ = (α1 , ..., αn )
e F ∗ = (β1 , ..., βm ) as bases duais correspondentes. Se T : V −→ W é linear
CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 56
£ ¤E £ ¤F ∗
e T F = A = (aij ), então T t E ∗ = B = (bij ) é tal que bij = aji para todo
par (i, j).

Dem. Temos:
m
X n
X
t
T (vj ) = aij wi e βj ◦ T = T (βj ) = bij αi .
i=1 i=1

Então: m m
¡ ¢ X X
βj T (vk ) = aik βj (wi ) = aik δji = ajk .
i=1 i=1
E: n n
¡ ¢ X X
βj T (vk ) = bij α(vk ) = bij δik = bkj .
i=1 i=1
Portanto:
ajk = bkj (j = 1, ..., m; k = 1, ..., n).
Definição 4.4 Seja A = (aij ) m × n sobre K. A matriz B = (bij ) n × m
sobre K, tal que bij = aji para todo par (i, j), chama-se a transposta de A,
anotada B = At . µ ¶
£ t ¤F ∗ £ ¤E t
A proposição 4.8 nos diz que T E ∗ = T F .

Corolário 4.8.1 (a) Se A, B ∈ Mm×n (K) e c ∈ K, então:


(A + B)t = At + B t
(cA)t = c · At
(b) Se A ∈ Mm×n (K) e B ∈ Mn×p (K), então:
(AB)t = B t · At
(c) Se A ∈ Mn (K) é invertível, então:
(A−1 )t = (At )−1
(d) Se A ∈ Mm×n (K), então:
posto(A) = posto(At ),
ou seja, o número de vetores-coluna de A linearmente independentes coincide
com o número de vetores-linha de A linearmente independentes.

Dem. Imediata.
CAPÍTULO 4. FORMAS LINEARES. DUALIDADE 57

4.4 Exercícios do Capítulo 4


1. Em V = R4 consideremos o subespaço W gerado por

(1, 1, 1, 1); (−1, 1, −2, 2); (−1, 5, −4, 8) e (−3, 1, −5, 3).

(a) Ache a dimensão de W e a dimensão de W 0 .


(b) Mostre que a imagem de v = (x, y, z, t) ∈ V por f ∈ W 0 pode se
escrever f (v) = 4ax + 4by − (3a + b)z − (a + 3b)t.
(c) Ache uma base (f1 , f2 ) de W 0 , e escreva f1 e f2 na base dual da
base canônica de V.

2. Seja V um espaço vetorial de dimensão finita sobre K. Prove que


f1 , ..., fp ∈ V ∗ são LI se, e só se, dados α1 , ..., αp ∈ K quaisquer, existe
v ∈ V tal que fi (v) = αi , 1 ≤ i ≤ p.

3. Sejam E = (e1 , ..., en ) base do espaço vetorial V sobre K, E ∗ = (e∗1 , ..., e∗n )
a base dual de E e ϕ : V −→ V ∗ o isomorfismo definido por ϕ(ei ) =
e∗i , 1 ≤ i ≤ n. Ache todos os automorfismos u : V −→ V tais que
< x, ϕ(y) >=< u(x), (ϕ ◦ u)(y) > para x, y ∈ V quaisquer.
Capítulo 5

Determinantes

Obs. Neste capítulo, por motivos técnicos, vamos supor que a característica
do corpo K é diferente de 2; por exemplo podemos tomar K = R ou K = C.

5.1 Aplicações r-lineares alternadas


Definição 5.1 Sejam V e W espaços vetoriais sobre K. Uma aplicação f :
r × V −→ W é r-linear se:
V × ...
(a) f (v1 , ..., vi + ui , ..., vr ) = f (v1 , ..., vi , ..., vr ) + f (v1 , ..., ui , ..., ur )
(b) f (v1 , ..., avi , ..., vr ) = a · f (v1 , ..., vi , ..., vr )
quaisquer que sejam v1 , ..., vi , ui , ..., vr ∈ V, a ∈ K e 1 ≤ i ≤ r.
O conjunto de todas as aplicações r-lineares de V em W, representado por
Lr (V, W ), munido das leis naturais de adição e multiplicação por escalar, é
um espaço vetorial sobre K. Por convenção, L0 (V, W ) = W e L1 (V, W ) =
L(V, W ).

Definição 5.2 f ∈ Lr (V, W ) é alternada se f (v1 , ..., vr ) = 0 toda vez que


dois dos vetores vi são iguais.
As aplicações r-lineares alternadas formam o subespaço Ar (V, W ) de Lr (V, W ).
Convencionamos que A0 (V, W ) = W e A1 (V, W ) = L(V, W ).

Definição 5.3 f ∈ Lr (V, W ) é antissimétrica se f (v1 , ..., vi , ..., vj , ..., vr ) =


−f (v1 , ..., vj , ..., vi , ...vr ), 1 ≤ i, j ≤ r, i 6= j.
No caso em que W=K, os elementos de L(V, W ) são chamados de formas
r-lineares. Em particular, L1 (V, W ) = V ∗ é o dual de V. Os elementos de
Ar (V, K), isto é, as formas r-lineares alternadas, são também chamados de
r-covetores.

Proposição 5.1 f ∈ Lr (V, W ) é alternada se, e só se, f é antissimétrica.

58
CAPÍTULO 5. DETERMINANTES 59

Dem. Se f ∈ Lr (V, W ) é alternada, então

0 = f (v1 , ..., v + u, ...., v + u, ..., vr ) =

= f (v1 , ..., v, ..., v, ..., vr ) + f (v1 , ..., u, ..., u, ..., vr )+


+f (v1 , ..., v, ..., u, ..., vr ) + f (v1 , ..., u, ..., v, ..., vr ) =
= f (v1 , ..., v, ..., u, ..., vr ) + f (v1 , ..., u, ..., v, ..., vr ),
donde resulta que f é antissimétrica.
Reciprocamente, se f é antissimétrica então

f (v1 , ..., v, ..., v, ..., vr ) = −f (v1 , ..., v, ..., v, ..., vr )

donde
2f (v1 , ..., v, ..., v, ..., vr ) = 0 e, como 2 6= 0 em K, resulta f (v1 , ..., v, ..., v, ..., vr ) =
0, isto é, f é alternada.

Definição 5.4 Uma permutação de um conjunto X é toda bijeção de X sobre


si mesmo.
O conjunto das permutações de X, munido das leis de composição de apli-
cações, é um grupo chamado grupo simétrico de X ou grupo de permutações
de X, anotado SX . Se X = {1, 2, ..., n} = In , representamos SX por Sn ; Sn
tem n! elementos.

Definição 5.5 Uma transposição de Sn é uma permutação τ tal que existem


inteiros i 6= j, i ≤ i, j ≤ n, para os quais τ (i) = j, τ (j) = i e τ (k) = k para
k 6= i, k 6= j, ou seja, τ troca i e j mantendo os demais elementos fixos. É
claro que τ 2 = id e τ −1 = τ .

Proposição 5.2 Toda permutação σ ∈ Sn pode ser expressa como um pro-


duto de transposições.

Dem. (por indução) Se n = 1, não há nada a provar. Suponhamos n > 1 e


admitamos o teorema verdadeiro para (n − 1). Se σ ∈ Sn e σ(n) = n, então
a restrição σ 0 = σ|In−1 pertence a Sn−1 . Pela hipótese de indução, existem
transposições τ10 , ..., τk0 ∈ Sn−1 tais que σ 0 = τ10 ...τk0 . Para cada i, i ≤ i ≤ k,
seja τi ∈ Sn a transposição tal que τi |In−1 = τi0 e τi (n) = n. Então, é claro
que σ = τ1 ...τk . Se σ ∈ Sn e σ(n) = k 6= n, seja τ ∈ Sn a transposição tal
que τ (k) = n, τ (n) = k. Então, τ σ = τ1 ...τk , isto é, σ = τ τ1 ...τk .
CAPÍTULO 5. DETERMINANTES 60

Proposição 5.3 A cada permutação σ ∈ Sn é possível associar um sinal, 1


ou -1, anotado ε(σ), tal que:
(1) se τ é uma transposição, então ε(τ ) = −1
(2) se σ, ρ ∈ Sn , então ε(σρ) = ε(σ) · ε(ρ).

Dem. Seja σ ∈ Sn e consideremos os números


Y £ ¤ £ ¤
πn = (j − i) = (2 − 1) (3 − 1)(3 − 2) ... (n − 1)(n − 2)...2 · 1
1≤i<j≤n

Y £ ¤
e σ(πn ) = σ(j) − σ(i) .
1≤i<j≤n
Como σ é bijetora, cada fator de πn , a menos do sinal, aparece em σ(πn )
uma e uma só vez, e vemos que σ(πn ) = ±πn . Se τ ∈ Sn é uma transposição,
é claro que (τ σ)(πn ) = −σ(πn ).
Logo, se σ = τ1 ...τk é um produto de transposições, temos σ(πn ) = (−1)k πn ,
σ(πn )
donde (−1)k = , o que mostra que a paridade do inteiro k só depende
πn
de σ e não da sua expressão como produto de transposições. Definimos o
sinal de σ por ε(σ) = (−1)k . Logo: σ(πn ) = ε(σ)πn . Para uma transposição
τ , τ (πn ) = −πn , donde ε(τ ) = −1, o que prova (1).
Se ρ ∈ Sn , temos (σρ)(πn ) = (τ1 ...τk ρ)(πn ) = (−1)k ρ(πn ) = ε(σ)ρ(πn ) =
ε(σ)ε(ρ)πn .
Por outro lado, (σρ)(πn ) = ε(σρ) · πn . Resulta: ε(σρ) = ε(σ) · ε(ρ), o que
prova (2).

Corolário 5.3.1 Se σ ∈ Sn se exprime como produto de transposições de


duas maneiras distintas, σ = τ1 ...τk = τ10 ...τs0 , então k e s têm a mesma
paridade (pois ε(σ) = (−1)k = (−1)s ).

Definição 5.6 Seja σ ∈ Sn . Se ε(σ) = 1 dizemos que σ é uma permutação


par; se ε(σ) = −1 dizemos que σ é uma permutação ímpar.
Se uma permutação par se escreve como produto de transposições, σ =
τ1 ...τk , é claro que k é um número par, e reciprocamente.

Proposição 5.4 Sejam V e W espaços vetoriais sobre K e f ∈ Lr (V, W ). f


é antissimétrica se, e só se,

f (vσ(1) , ..., vσ(r) ) = ε(σ)f (v1 , ..., vr )

quaisquer que sejam v1 , ..., vr ∈ V e σ ∈ Sr .


CAPÍTULO 5. DETERMINANTES 61

Dem. Por definição, f ∈ Lr (V, W ) é antissimétrica se, e só se,

f (vτ (1) , ..., vτ (r) ) = ε(τ )f (v1 , ..., vr )

qualquer que seja a transposição τ ∈ Sr .


Se σ ∈ Sr , podemos escrever σ como um produto de transposições: σ =
τ1 ...τk . Então, f é antissimétrica se, e só se,

f (vσ(1) , ..., vσ(r) ) = f (vτ1 ...τk (1) , ..., vτ1 ...τk (r) ) =

= ε(τk )f (vτ1 ...τk−1 (1) , ..., vτ1 ...τk−1 (r) ) = ... =


= ε(τk )...ε(τ1 )f (v1 , ..., vr ) = ε(σ)f (v1 , ..., vr ).

Proposição 5.5 Sejam V um espaço vetorial sobre K e f ∈ Ar (V, K). Se


v1 , ..., vr ∈ V são linearmente dependentes (LD), então f (v1 , ..., vr ) = 0.

Dem. Existem escalares a1 , ..., ar , não todos nulos, tais que a1 v1 +...+ar vr =
0. Se, por exemplo, ai 6= 0, temos:

0 = f (v1 , ..., vi−1 , 0, vi+1 , ..., vr ) =


r
X
= f (v1 , ..., vi−1 , ak vk , vi+1 , ..., vr ) =
k=1

= ai f (v1 , ..., vi−1 , vi , vi+1 , ..., vr ),


donde f (v1 , ..., vr ) = 0.

Proposição 5.6 Se dimK V = n então dimK An (V, K) = 1.

Dem. Para maior clareza, comecemos com o caso n = 2. Sejam (e1 , e2 ) base
de V, v1 = a11 e1 + a21 e2 , v2 = a12 e1 + a22 e2 . Se f ∈ A2 (V, K), então:

f (v1 , v2 ) = f (a11 e1 + a21 e2 , a12 e1 + a22 e2 ) =

= a11 a12 f (e1 , e1 ) + a11 a22 f (e1 , e2 ) + a21 a12 f (e2 , e1 ) + a21 a22 f (e2 , e2 ) =
= (a11 a22 − a12 a21 )f (e1 , e2 ).
Se D : V × V −→ K é definida por D(v1 , v2 ) = a11 a22 − a12 a21 , é fácil ver
que D ∈ A2 (V, K). Além disso, D(e1 , e2 ) = 1. O cálculo acima nos mostra
que f = aD (a = f (e1 , e2 )), ou seja, que D é uma base de A2 (V, K).
CAPÍTULO 5. DETERMINANTES 62

Consideremos agora o caso geral. Seja (e1 , ..., en ) uma base de V. Se


n
X
vj = aij ei e f ∈ An (V, K), temos:
i=1
à n n
!
X X
f (v1 , ..., vn ) = f ai1 1 ei1 , ..., ain n ein =
i1 =1 in =1

n
X
= ai1 1 ...ain n · f (ei1 , ..., ein ).
i1 ,...,in =1

Como f é alternada temos que f (ei1 , ..., ein ) = 0 sempre que ij = ik


com j 6= k, de forma que teremos na soma acima apenas as parcelas onde
{i1 , ..., in } for uma permutação de {1, ..., n}. Assim,
X
f (v1 , ..., vn ) = aσ(1)1 ...aσ(n)n · f (eσ(1) , ..., eσ(n) ) =
σ∈Sn
X
= f (e1 , ..., en ) · ε(σ)aσ(1)1 ...aσ(n)n ,
σ∈Sn

soma de n! parcelas, cada uma correspondente a uma permutação


X de Sn .
n
Seja D : V ×...×V −→ K definida por D(v1 , ..., vn ) = ε(σ)aσ(1)1 ...aσ(n)n .
σ∈Sn
Então: X
(a) D é n-linear: D(v1 , ..., vi0 +cvi00 , ..., vn ) = ε(σ)aσ(1) 1 ...(a0σ(i)i +ca00σ(i)i )...aσ(n)n =
σ∈Sn
= D(v1 , ..., vi0 , ..., vn ) + cD(v1 , ..., vi00 , ..., vn ).
(b) D é antissimétrica: se i < j e vi = vj , temos:
X
D(v1 , ..., vi , ..., vj , ..., vn ) = ε(σ)aσ(1)1 ...aσ(i)i ...aσ(j)j ...aσ(n)n .
σ∈Sn

Seja τ a transposição de Sn tal que τ (i) = j, τ (j) = i e seja στ = α. Então,


ε(α) = −ε(σ) e
X
D(v1 , ..., vi , ..., vj , ..., vn ) = ε(σ)aστ (1)1 ...aστ (j)i ...aστ (i)j ...aστ (n)n =
σ∈Sn
X
=− ε(α)aα(1)1 ...aα(j)i ...aα(i)j ...aα(n)n =
σ∈Sn

= −D(v1 , ..., vj , ..., vi , ..., vn ).


(c) D(e1 , ..., en ) = 1.
CAPÍTULO 5. DETERMINANTES 63

n
X
Como ej = δij ei , temos:
i=1
X
D(e1 , ..., en ) = ε(σ)δσ(1)1 ...δσ(n)n = ε(id)δ11 ...δnn = 1.
σ∈Sn

Logo, se f ∈ An (V, K) temos:


f (v1 , ..., vn ) = f (e1 , ..., en )D(v1 , ..., vn ), ou seja, f = aD, onde a = f (e1 , ..., en ).
Portanto, D gera o espaço vetorial An (V, K) e dim An (V, K) = 1.
Obs. Dado a ∈ K, f = aD é a única forma n-linear alternada em V tal que
f (e1 , ..., en ) = a.
Corolário 5.6.1 Sejam V um espaço vetorial de dimensão n sobre K e
f ∈ An (V, K), f 6= 0. Os vetores v1 , ..., vn ∈ V são LD se, e só se,
f (v1 , ..., vn ) = 0.

Dem. Já vimos, na proposição 5.5, que se v1 , ..., vn são LD então f (v1 , ..., vn ) =
0. Reciprocamente, suponhamos que v1 , ..., vn sejam LI, ou seja, uma base de
V. Seja D ∈ An (V, K) tal que D(v1 , ..., vn ) = 1. Então:
f = f (v1 , ..., vn ) · D
donde f (v1 , ..., vn ) 6= 0 (pois f 6= 0).

5.2 Determinante de um Operador Linear


Se V e W são espaços vetoriais sobre K e T : V −→ W é linear, então T
induz uma aplicação linear T ∗ : Ar (W, K) −→ Ar (V, K) definida por
(T ∗ f )(v1 , ..., vr ) = f (T v1 , ..., T vr ),
onde f ∈ Ar (W, K) e v1 , ..., vr ∈ V .
Se L : V −→ W e T : U −→ V são lineares, então (L ◦ T )∗ = T ∗ ◦ L∗ já
que (L ◦ T )∗ f (u1 , ..., ur ) = f (LT u1 , ..., LT ur ) = L∗ f (T u1 , ..., T ur ) =
= T ∗ (L∗ f )(u1 , ..., ur ) quaisquer que sejam u1 , ..., ur ∈ U e f ∈ Ar (W, K).
Definição 5.7 Sejam V um espaço vetorial de dimensão n sobre K e T :
V −→ V linear. Como dim An (V, K) = 1, existe um único escalar a tal
que T ∗ (f ) = af para todo f ∈ An (V, K). Dizemos que este escalar a é o
determinante do operador T, e escrevemos a = det T . Assim, det T é o
escalar tal que
f (T v1 , ..., T vn ) = det T · f (v1 , ..., vn )
quaisquer que sejam v1 , ..., vn ∈ V e f ∈ An (V, K).
CAPÍTULO 5. DETERMINANTES 64

Proposição 5.7 Seja V um espaço vetorial de dimensão n sobre K.


(1) Se I : V −→ V é a identidade, então det I = 1.
(2) Se L, T ∈ L(V ), então det(L ◦ T ) = det L · det T .
(3) T ∈ L(V ) é invertível ⇔ det T 6= 0.

Dem. Para todo f ∈ An (V, K) e v1 , ..., vn ∈ V arbitrários, temos:


(1) f (Iv1 , ..., Ivn ) = det I · f (v1 , ..., vn ), donde det I = 1.
(2) det(L ◦ T ) · f = (L ◦ T )∗ f = T ∗ (L∗ f ) = det T · (L∗ f ) = det T · det L · f ,
donde det(L ◦ T ) = det L · det T .
(3) Se T é invertível então det T · det T −1 = det I = 1, donde det T 6= 0.
Reciprocamente, seja det T 6= 0. Se (v1 , ..., vn ) é base de V, tomemos f ∈
An (V, K) tal que f (v1 , ..., vn ) 6= 0. Então,
f (T v1 , ..., T vn ) = det T · f (v1 , ..., vn ) 6= 0.
Pelo corolário da proposição 5.6, (T v1 , ..., T vn ) é base de V e, portanto, T é
invertível.
Definição 5.8 Seja A = (aij ) uma matriz em K, quadrada de ordem n. Se
TA : K n −→ K n é o operador linear associado a A, definimos o determinante
de A, det A, como sendo det TA .
Sejam E = (e1 , ..., en ) a base canônica de K n e D a única forma n-linear
alternada tal que D(e1 , ..., en ) = 1. Então:
det A = D(TA (e1 ), ..., TA (en )) = D(A1 , ..., An ),
onde A1 , ..., An são os vetores-coluna de A. Ã !
n
X n
X
Vimos, na proposição 5.6, que D(A1 , ..., An ) = D ai1 ei , ..., ain ei =
X i=1 i=1
= ε(σ)aσ(1)1 ...aσ(n)n , que é a definição clássica de det A.
σ∈Sn

Definição 5.9 Sejam V um espaço vetorial sobre K e E = (e1 , ..., en ) uma


base de V. Dada uma sequência de n vetores, (v1 , ..., vn ), chama-se determinante
desses vetores em relação à base E, o escalar detE (v1 , ..., vn ) = D(v1 , ..., vn ).
Xn
Se vj = aij ei , 1 ≤ j ≤ n, então a matriz A = (aij ) é n×n e detE (v1 , ..., vn ) =
i=1
det A. ¯ ¯
¯ a11 ... a1n ¯
¯ ¯
¯ .. . . .
. ¯
É usual a notação det A = ¯ . . . ¯ para o determinante da matriz
¯ ¯
¯an1 ... ann ¯
A = (aij ).
CAPÍTULO 5. DETERMINANTES 65
¯ ¯
¯a11 a12 ¯
Exemplo 5.2.1 ¯¯ ¯ = a11 a22 − a12 a21 pois a permutação {1, 2} −→
a21 a22 ¯
(1, 2) é par e {1, 2} −→ (2, 1) é ímpar.
Exemplo 5.2.2 Dentre as 3! = 6 permutações de {1, 2, 3} temos 3 que são
{1, 2, 3} −→ (1, 2, 3) {1, 2, 3} −→ (1, 3, 2)
pares, a saber: {1, 2, 3} −→ (2, 3, 1) e 3 que são ímpares: {1, 2, 3} −→ (3, 2, 1) .
¯ {1, 2, 3} ¯−→ (3, 1, 2) {1, 2, 3} −→ (2, 1, 3)
¯a11 a12 a13 ¯
¯ ¯
Portanto: ¯¯a21 a22 a23 ¯¯ = a11 a22 a33 + a21 a32 a13 + a31 a12 a23 − a11 a32 a23 −
¯a31 a32 a33 ¯
−a31 a22 a13 − a21 a12 a33 , e temos a seguinte regra prática (regra de Sarrus):
a11 a12 a13

a21 a22 a23

a31 a32 a33


− +

a11 a12 a13


− +

a21 a22 a23


− +
Repetimos as duas primeiras linhas do determinante; os produtos “para-
lelos” à diagonal principal são precedidos do sinal + e aqueles “paralelos” à
diagonal secundária são precedidos do sinal −.
Obs. Para os determinantes de ordem superior a 3 não temos regras práticas
de cálculo; eles serão calculados pelo processo da seção 5.3 a seguir.
Proposição 5.8 Seja A uma matriz de ordem n. Então: det A = det At .

Dem. Se A = (aij ) então At = (a0ij ) com a0ij = aji . Temos:


X X
det At = ε(σ)a0σ(1)1 ...a0σ(n)n = ε(σ)a1σ(1) ...anσ(n) .
σ∈Sn σ∈Sn
CAPÍTULO 5. DETERMINANTES 66

Mas, a1σ(1) ...anσ(n) = aσ−1 (1)1 ...aσ−1 (n)n e ε(σ −1 ) = ε(σ). Portanto,
X
det At = ε(σ −1 )aσ−1 (1)1 ...aσ−1 (n)n = det A
σ −1 ∈Sn

pois se σ percorre Sn , σ −1 também percorre Sn .


Obs. 1 A proposição 5.8 mostra que det A é também o determinante dos
vetores-linha de A.
Obs. 2 Como a aplicação (v1 , ..., vn ) 7−→ det(v1 , ..., vn ) é n-linear alternada,
temos um certo número de propriedades que, para comodidade do leitor, são
listadas abaixo:
(1) det(v1 , ..., vi0 +cvi00 , ..., vn ) = det(v1 , ..., vi0 , ..., vn )+c·det(v1 , ..., vi00 , ..., vn ), c ∈
K.
(2) Toda permutação σ ∈ Sn sobre as colunas (ou linhas) da matriz A ∈
Mn (K) transforma det A em ε(σ)det A. Em particular, toda transposição
sobre as colunas (ou linhas) de A transforma det A em −det A.
(3) Se uma coluna (ou linha) de A é nula, então det A = 0.
(4) Se duas colunas (ou duas linhas) de A são proporcionais, então det A = 0.
X n
(5) det(v1 , ..., vi−1 , ak vk , vi+1 , ..., vn ) = ai · det(v1 , ..., vi , ..., vn ).
k=1
(6) det(v1 , ..., vn ) = 0 ⇔ v1 , ..., vn são LD.
(7) det In = 1.
(8) det (AB) = det A · det B.
(9) det At = det A.
(10) A é invertível ⇔ det A 6= 0.

5.3 Desenvolvimento em relação aos elementos


de uma coluna (ou de uma linha)
Definição 5.10 Seja A = (aij ) uma matriz n × n. Seja Aij a matriz obtida
de A pela supressão da linha i e da coluna j. Aij é uma matriz de ordem
(n − 1), e det Aij chama-se o menor associado ao elemento aij . O escalar
Cij = (−1)i+j · det Aij chama-se o cofator de aij .

Proposição 5.9 O determinante de uma matriz quadrada é igual à soma


dos produtos dos elementos de uma coluna qualquer pelos seus respectivos
cofatores.

Dem. Seja A = (aij ) – n × n – e sejam A1 , ..., An seus vetores-coluna. A


CAPÍTULO 5. DETERMINANTES 67

função X 7−→ det(A1 , ..., X, ..., An ) onde X substitui Aj , é uma forma linear
βj : K n −→ K. Logo,
n
X
det A = βj (Aj ) = βj (a1j e1 + ... + anj en ) = aij βij ,
i=1

onde (e1 , ..., en ) é a base canônica de K n e βij = βj (ei ). Os escalares βij não
dependem de Aj , isto é, de a1j , ..., anj .
¯ ¯
¯ ¯
¯ ¯
¯ ¯
¯ ¯
¯ a11 ... 0 ... a1n ¯¯
¯ . ..
¯ . ... . .. ¯
¯ . . .. . ¯
¯ ¯
Temos: βij = βj (ei ) = ¯ ai1 ... 1 ... ain ¯ ← linha i
¯ . .. .. ¯¯
¯ .. . . . .
..
. . ¯
¯
¯ a ... ann ¯¯
¯ n1 ... 0
¯ ↑ ¯
¯ ¯
¯ coluna j ¯
e βij = det Ã. ¯ ¯ ¯ ¯
¯ ai1 ... 1 ... ain ¯ ¯1 ai1 ... ain ¯
¯ ¯ ¯ ¯
¯ a11 ... 0 ... a1n ¯ ¯0 a11 ... a1n ¯
¯ ¯ ¯ ¯
Portanto: βij = (−1)i−1 ¯ .. . . .. . . i−1 j−1
.. ¯ = (−1) (−1) ¯ .. .. . . .. ¯ =
¯ . . . . . ¯ ¯. . . . ¯
¯ ¯ ¯ ¯
¯an1 ... 0 ... ann ¯ ¯0 an1 ... ann ¯
= (−1)i+j det B, onde a matriz B = (bij ) foi obtida de à trocando-se suces-
sivamente a linha i com as (i-1) linhas que a precedem em à e, a seguir, a
coluna j sucessivamente com as (j-1) colunas que a antecedem. Observemos
que o menor det B11 , de b11 = 1 em B coincide X com o menor det Aij de aij
em A. Além disso, sabemos que det B = ε(σ)bσ(1)1 ...bσ(n)n .
σ∈Sn
Se σ(1) 6= 1, o termo correspondente é nulo, pois, neste caso, bσ(1)1 = 0, e
det B reduz-se à soma
X
det B = ε(σ)bσ(2)2 ...bσ(n)n .
σ ∈ Sn
σ(1) = 1

Se σ 0 é a permutação de {2, .., n} tal que σ 0 (i) = σ(i) para 2 ≤ i ≤


n, os conjuntos ordenados {1, σ(2), ..., σ(n)} e {σ 0 (2), ..., σ 0 (n)} apresentam
oXmesmo número de inversões, donde ε(σ) = ε(σ 0 ) e, então, det B =
ε(σ 0 )bσ0 (2)2 ...bσ0 (n)n = det B11 .
σ 0 ∈Sn−1
CAPÍTULO 5. DETERMINANTES 68

Logo,
βij = (−1)i+j det B = (−1)i+j det B11 = (−1)i+j det Aij = Cij
e, portanto,
n
X
det A = aij Cij .
i=1

Definição 5.11 Dizemos que uma matriz A = (aij ) – n × n – é triangular


superior se aij = 0 sempre que i > j. Analogamente se define uma matriz
triangular inferior.
Corolário 5.9.1 O determinante de uma matriz triangular é igual ao pro-
duto de seus elementos diagonais.

Dem. De fato,
¯ ¯
¯a11 a12 ... a1(n−1) a1n ¯¯
¯ ¯ ¯
¯ 0 a22 ... a a ¯ ¯a22 ... a2(n−1) a2n ¯
¯ 2(n−1) 2n ¯ ¯ ¯
¯0 0 ... ¯ ¯ 0 ... a3(n−1) a3n ¯
¯ ¯ ¯ ¯
det A = ¯ .. .. . . ¯ = a11 ¯ .. . . .. .. ¯
¯ . . . ¯ ¯ . . . . ¯¯
¯ ¯ ¯
¯0 0 ... a(n−1)(n−1) a(n−1)n ¯¯ ¯ 0 ... 0 ann ¯
¯
¯0 0 ... 0 ann ¯

e, por indução:
det A = a11 a22 ...ann .
¯ ¯
¯a11 a12 a13 ¯ ¯ ¯ ¯ ¯ ¯ ¯
¯ ¯ ¯a22 a23 ¯ ¯a21 a23 ¯ ¯a21 a22 ¯
¯
Exemplo 5.3.1 ¯a21 a22 a23 ¯ = a11 ¯¯ ¯ ¯ ¯ ¯ ¯ ¯
a a ¯−a12 ¯a31 a33 ¯+a13 ¯a31 a32 ¯ =
¯a31 a32 a33 ¯ 32 33

= a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 , como
antes.
¯ ¯ ¯ ¯
¯1 + x 1 ... 1 1 ¯ ¯1 1 ... 1 1 ¯
¯ ¯ ¯ ¯
¯ 1 1 + x ... 1 ¯ ¯
1 ¯ ¯1 1 + x ... 1 1 ¯¯
¯
¯ .. ¯ = ¯ .. .. ¯ +
Exemplo 5.3.2 Dn = ¯ ... ..
.
..
.
..
. . ¯ ¯.
..
.
..
.
..
. . ¯¯
¯ ¯ ¯
¯ 1 1 ... 1 + x ¯
1 ¯ ¯1 ¯ 1 ... 1 + x 1 ¯¯
¯
¯ 1 1 ... 1 1 + x¯ ¯1 1 ... 1 1 + x¯
¯ ¯ ¯ ¯
¯x 1 ... 1 ¯¯ ¯¯1 1 ... 1 1 ¯¯
¯
¯ 0 1 + x ... 1 ¯¯ ¯¯0 x ... 0 0 ¯¯
¯
+ ¯ .. .. .. .. ¯ = ¯ .. .. . . .. .. ¯ + xDn−1 .
¯. . . . ¯¯ ¯¯ . . . . .¯
¯ ¯
¯0 1 ... 1 + x ¯ ¯0 0 ... 0 x¯
CAPÍTULO 5. DETERMINANTES 69

Logo:
Dn = xn−1 + xDn−1
Donde:
xDn−1 = x2 Dn−2 + xn−1
x2 Dn−2 = x3 Dn−3 + xn−1
..
.
xn−2 D2 = xn−1 D1 + xn−1
xn−1 D1 = xn−1 (1 + x) = xn−1 + xn .
Somando estas n igualdades, obtemos:

Dn = xn + nxn−1 .

Seja A = (aij ) – n × n. Vimos que A é invertível se existe B – n × n –


tal que AB = BA = In (Notação: B = A−1 ) e que basta ser BA = In (ou
AB = In ) para que seja B = A−1 .

Proposição 5.10 Sejam A = (aij ) – n × n – e Cij o cofator de aij em A.


Então: (
Xn
det A se j = k
aij Cik = δjk · det A = .
0 se j 6= k
i=1

Dem. Basta considerar o caso j 6= k, por exemplo, j < k. Seja B =


(B1 , ..., Bn ) a matriz tal que Bi = Ai , i 6= k, e Bk = Aj , ou seja,

" a ... a1n #


11 ... a1j ... a1j
B= ... ... ... ... ... ... ...
an1 ... anj ... anj ... ann
↑ ↑
coluna j coluna k

É claro que det B = 0. Desenvolvendo det B pelos elementos da coluna


k, temos:
det B = a1j C1k + a2j C2k + ... + anj Cnk ,
n
X
isto é, det B = 0 = aij Cik , j 6= k.
i=1

Proposição 5.11 Seja A = (aij ) – n × n – e B = (Cij0 ) a transposta da


matriz dos cofatores dos elementos de A, isto é, Cij0 = Cji = cofator de aji
em A. Então:
BA = (det A) · In .
CAPÍTULO 5. DETERMINANTES 70

Dem. Se BA = (dij ), temos:


X n n
X
0
dkj = Cki · aij = aij Cik = δjk · det A.
i=1 i=1
Logo:
BA = det A · In .
1
Corolário 5.11.1 Se A = (aij ) – n×n – é invertível, então A−1 = ·B,
det A
onde B = (Cij0 ) e Cij0 = Cji = cofator de aji em A.
A matriz B é a adjunta (clássica) de A, B = adj A. Então:
adj A
A−1 = .
det A
Proposição 5.12 Seja A – m × n – de posto r. Existe submatriz r × r de
A com determinante 6= 0, e toda submatriz k × k de A, com k > r, tem
determinante igual a zero.

Dem. A tem posto r se, e só se, existem r, e não mais que r, linhas de A
que são LI. Podemos supor que sejam as  r primeiras
 (já que a troca de linhas
L1
 .. 
não altera o posto), L1 , ..., Lr . Seja B =  .  – r ×n – cujo posto é r, donde
Lr
existem r, e não mais que r, colunas de B que são LI. Sejam Bj1 , ..., Bjr essas
colunas e C = [Bj1 , ..., Bjr ] – r × r; C tem posto r, donde det C 6= 0 e é a
“maior” submatriz quadrada
 deA com essa propriedade.
1 1 t
Exercício Seja A = 1 t 1. Estude o posto de A conforme os valores
t 1 1
de t ∈ R.
Exercícios
1. Sejam a1 , ..., an números dados. Prove que
¯ ¯
¯ 1 1 ... 1 ¯
¯ ¯
¯ a1 a ... a ¯
¯ 2 n ¯ Y
¯ a2 a2 2 2 ¯
... an ¯ =
¯ 1 (ai − aj ).
¯ .. .. . . .. ¯ i>j
¯ . . . . ¯¯
¯ n−1 n−1
¯a1 a2 ... ann−1 ¯
CAPÍTULO 5. DETERMINANTES 71

É o determinante de Vandermonde.

2. Seja A = ¯(aij ) – n¯× n, tal que aij = 0 se i + j ≤ n. Calcule det A. Por


¯0 0 a ¯
¯ ¯
exemplo, ¯¯0 b c ¯¯ = −abd.
¯d e f ¯
¯ ¯
¯a − b − c 2a 2a ¯¯
¯
3. Prove: ¯¯ 2b b−c−a 2b ¯¯ = (a + b + c)3 .
¯ 2c 2c c − a − b¯
¯ ¯ ¯ ¯
¯x −y ¯ ¯ x0 y 0 ¯
4. Calculando ¯¯ ¯·¯ ¯, prove que
y x ¯ ¯−y 0 x0 ¯

(x2 + y 2 )(x02 + y 02 ) = (xx0 + yy 0 )2 + (xy 0 − yx0 )2 .

5. Se a, b, c ∈ R, prove que
¯ ¯
¯1 sen a cos a¯
¯ ¯
¯1 sen b cos b ¯ = sen(b − c) + sen(c − a) + sen(a − b).
¯ ¯
¯1 sen c cos c ¯

· ¸
B C
6. Seja A = , onde B é r × r, C é r × (n − r) e D é (n − r) × (n − r).
0 D
Prove que det A = det B · det D.

5.4 Matrizes Elementares


Definição 5.12 Sejam A e B matrizes m × n sobre o corpo K. Dizemos que
A é linha-equivalente a B se B pode ser obtida de A por intermédio de um
número finito das seguintes operações, chamadas operações elementares sobre
as linhas:
(a) Tij – trocar de posição as linhas i e j (i 6= j)
(b) Ti (k) – multiplicar a linha i por k ∈ K, k 6= 0
(c) Tij (λ) – somar à linha i a linha j multiplicada por λ ∈ K.

Definição 5.13 Uma matriz obtida da identidade por meio de uma única
operação elementar, chama-se uma matriz elementar.
 
µ ¶ 1 0 0
0 1
Exemplo 5.4.1 As matrizes e 0 1 0 são elementares.
1 0
2 0 1
CAPÍTULO 5. DETERMINANTES 72

Proposição 5.13 Sejam e uma operação elementar e E = e(Im ) a matriz


elementar m × m correspondente. Para toda matriz A = (aij ) – m × n, tem-
se: e(A) = E · A.

 
L1
 
Dem. Seja Li = (ai1 ...ain ) a i-ésima linha de A. Então: A =  ... . Se
Lm
 
L1 B
 .. 
B ∈ Mn×p (K), é fácil ver que AB =  . . Se e1 = (1, 0, ..., 0), ..., em =
Lm B
 
e1
 .. 
(0, ..., 0, 1) são 1 × m, é claro que e1 A = Li e Im =  . .
e
   m
e1 L1
 ..   .. 
 .   . 
   
 ej   Lj 
 .   . 
 
(1) e = Tij . Então: E = e(Im ) =  .. , e(A) =  
 .. .
e  L 
 i  i
 .   . 
.
 .   .. 
em Lm
Logo:    
e1 A L1
 ..   .. 
 .   . 
   
 ej A   Lj 
 .   . 
EA =    
 ..  =  ..  = e(A).
e A L 
 i   i
 .   . 
 ..   .. 
em A Lm
   
e1 L1
 ..   .. 
 .   . 
   
(2) e = Ti (k). Então: E = e(Im ) = kei , e(A) = kLi .
   . 
k6=0
 ...   .. 
em Lm
Logo:
CAPÍTULO 5. DETERMINANTES 73
   
e1 A L1
 ..   .. 
 .   . 
   
EA = kei A = kLi  = e(A).
 .   . 
 ..   .. 
em A Lm
   
e1 L1
 ..   ..
  .   .
   
ei + λej  Li + λLj 
 ..   .. 
(3) e = Tij (λ). Então: E = e(Im ) = 
 . , e(A) = 
  . .

i<j  e   L 
 j   j 
 .   . 
 .
.   .
. 
em Lm
Logo:    
e1 A L1
 ..   .. 
 .   . 
   
(ei + λej )A Li + λLj 
 ..   .. 
EA =   .  = 
  .  = e(A), e a proposição está demon-

 ej A   
   Lj 
 ..   .. 
 .   . 
em A Lm
strada em todos os casos.

Proposição 5.14 Duas matrizes A e B, m×n sobre K, são linha-equivalentes


se, e só se, existem matrizes elementares m×m, E1 , ..., Er , tais que Er ...E1 A =
B.

Dem. A é linha-equivalente a B se, e só se, existem operações elementares


e1 , ..., er tais que er (...(e2 (e1 (A)))...) = B. Pondo Ei = ei (Im ), vem: Er ...E1 A =
B.
Obs. 1 As operações elementares são bijetoras. De fato, Tij−1 = Tij , Ti (k)−1 =
µ ¶
1
Ti e Tij (λ)−1 = Tij (−λ).
k
Obs. 2 A inversa de uma matriz elementar é também elementar e se
E = e(In ) e E 0 = e−1 (In ), então E · E 0 = e(e−1 (In )) = In , donde E 0 = E −1 .

Proposição 5.15 Seja A ∈ Mn (K). As seguintes afirmações são equiva-


lentes:
(a) A é invertível
CAPÍTULO 5. DETERMINANTES 74

(b) A é linha-equivalente a In
(c) A é um produto de matrizes elementares
Dem.
(a) ⇒ (b): Como A é invertível temos det A 6= 0, donde existe algum
ai1 6= 0. Usando, se necessário,
µ ¶ a operação T1i , podemos supor a11 6= 0.
1
Neste caso, a operação T1 muda A na matriz B linha-equivalente a A:
a11
 
1 b12 ... b1n
 a21 a22 ... a2n 
B= 
 ... ... ... ...  ,
an1 an2 ... ann
a1i
onde b1i = (i = 2, 3, ..., n).
a11
Aplicando a B, sucessivamente, as operações T21 (−a21 ), ..., Tn1 (−an1 ), cheg-
amos à matriz C linha-equivalente a A:
 
1 c12 ... c1n
0 c22 ... c2n 
 
C =  .. .. . . . .
. . . .. 
0 cn2 ... cnn
Como C = P A, onde P é um produto de matrizes elementares ¯ e, portanto,
¯
¯ c22 ... c2n ¯
invertível, resulta que C é invertível. Logo, det C = ¯¯ ¯ 6= 0 e
cn2 ... cnn ¯
podemos,
µ ¶ como acima, supor c22 6= 0. Usando, sucessivamente, as operações
1
T2 , T12 (−c12 ), ..., Tn2 (−cn2 ), a matriz C transforma-se em D, linha-
c22
equivalente a A:  
1 0 d13 ... d1n
0 1 d23 ... d2n 
 
0 0 d33 ... d3n 
D= .
 .. .. .. . . . 
. . . . .. 
0 0 dn3 ... dnn
Prosseguindo desta maneira chegaremos, após um número finito de oper-
ações elementares, à matriz In .
(b) ⇒ (c): Se A é linha-equivalente a In então existem matrizes elementares
E1 , ..., Er tais que Er ...E1 A = In , donde A = E1−1 ...Er−1 . Como a inversa de
uma matriz elementar é também elementar, resulta que A é um produto de
matrizes elementares.
CAPÍTULO 5. DETERMINANTES 75

(c) ⇒ (a): Se A = E1 ...Er , cada Ej sendo elementar, então A é invertível,


pois cada Ej é invertível.

Proposição 5.16 A mesma sequência finita de operações elementares que


muda a matriz invertível A ∈ Mn (K) na identidade In , muda In em A−1 .

Dem. Sejam e1 , ..., er operações elementares que mudam A em In e E1 , ..., Er


as matrizes elementares correspondentes. Então: Er ...E2 E1 A = In , donde
A−1 = Er ...E1 In .

Exemplo 5.4.2 Calculemos a inversa de


 
1 0 −1
A = 0 4 2  .
2 6 0

Escrevamos I3 ao lado de A e efetuemos as operações elementares indicadas,


que transformam A em I3 :
   
1 0 −1 1 0 0 1 0 −1 1 0 0 T2 ( 1 )
T31 (−2)
0 4 2 0 1 0 −−−−→ 0 4 2 0 1 0 −−−→
4

2 6 0 0 0 1 0 6 2 −2 0 1

   
1 0 −1 1 0 0 1 0 −1 1 0 0
T32 (−6) T3 (−1)
−→ 0 1 1/2 0 1/4 0 −−−−→ 0 1 1/2 0 1/4 0 −−−−→
0 6 2 −2 0 1 0 0 −1 −2 −3/2 1

   
1 0 −1 1 0 0 1 0 0 3 3/2 −1 T23 ( 1 )
T13 (1)

−→ 0 1 1/2 0 1/4 0  −−−→ 0 1 1/2 0 1/4 0  −−−−→
2

0 0 1 2 3/2 −1 0 0 1 2 3/2 −1
 
1 0 0 3 3/2 −1
−→ 0 1 0 −1 −1/2 1/2
0 0 1 2 3/2 −1
Portanto:  
3 3/2 −1
A−1 = −1 −1/2 1/2
2 3/2 −1
Da mesma maneira que operamos sobre as linhas de A – m×n – podemos
operar sobre as colunas. Obtemos assim as operações elementares sobre as
CAPÍTULO 5. DETERMINANTES 76

colunas:
(a) Tij0 – trocar de posição as colunas i e j, i 6= j.
(b) Ti0 (k) – multiplicar a coluna i por k 6= 0.
(c) Tij0 (λ) – somar à coluna i a coluna j multiplicada por λ ∈ K.
Se e0 é uma operação elementar sobre as colunas, então E 0 = e0 (In ) é
uma matriz (coluna-) elementar de ordem n. Valem propriedades análogas
as obtidas anteriormente, a saber:

Proposição 5.13’ Se A ∈ Mm×n (K), então e0 (A) = AE 0 .


Definição A, B ∈ Mm×n (K) são coluna-equivalentes se B pode ser obtida de
A por meio de um número finito de operações elementares sobre as colunas.

Proposição 5.14’ A, B ∈ Mm×n (K) são coluna-equivalentes se, e só se,


existem matrizes elementares E10 , ..., Er0 tais que AE10 ...Er0 = B.
Obs. As operações elementares (sobre as colunas) são bijetoras:
µ ¶
0 −1 0 0 −1 0 1
(Tij ) = Tij ; Ti (k) = Ti
k
e Tij0 (λ)−1 = Tij0 (−λ).
As inversas das matrizes elementares são também elementares:
se E 0 = e0 (In ) então (E 0 )−1 = (e0 )−1 (In ).

Proposição 5.15’ Seja A ∈ Mn (K). São equivalentes:


(a) A é invertível.
(b) A é coluna-equivalente a In .
(c) A é um produto de matrizes (coluna-)elementares.
Definição Se A, B ∈ Mm×n (K), escrevemos A ∼ B quando for possível
transformar A em B por meio de uma sequência finita de operações ele-
mentares (sobre as linhas e/ou colunas). É claro que ∼ é uma relação de
equivalência.
Proposição 5.17 Sejam A, B ∈ Mm×n (K). A ∼ B se, e só se, A e B são
equivalentes, isto é, se, e só se, existem matrizes invertíveis P ∈ Mm (K) e
Q ∈ Mn (K) tais que B = P AQ.
Dem. Se A ∼ B existem matrizes elementares E1 , ..., Er , E10 , ..., Es0 tais que
B = Er ...E1 · A · E10 ...Es0 , ou seja, B = P AQ com P e Q invertíveis.
CAPÍTULO 5. DETERMINANTES 77

Reciprocamente, se B = P AQ com P e Q invertíveis, P ∈ Mm (K) e


Q ∈ Mn (K), então existem matrizes elementares tais que P = Er ...E1 e
Q = E10 ...Es0 , o que mostra que A ∼ B.

Corolário 5.17.1 (a) A, B ∈ Mm×n (K) são linha-equivalentes se, e só se,


existe P ∈ Mm (K) invertível tal que B = P A.
(b) A, B ∈ Mm×n (K) são coluna-equivalentes se, e só se, existe Q ∈ Mn (K)
invertível tal que B = AQ.
Obs. É claro que se A e B são linha-equivalentes (ou coluna-equivalentes,
ou equivalentes), então pelo corolário 3.8.1 da proposição 3.8, posto(A) =
posto(B), de modo que podemos usar as operações elementares para estudar
a dependência ou independência linear de vetores.

Exemplo 5.4.3 Sejam os vetores de R4 : v1 = (−1, 0, 1, 2), v2 = (3, 4, −2, 5)


e v3 = (1, 4, 0, 9). Seja  
−1 3 1
0 4 4
A=  1 −2

0
2 5 9
a matriz cujas colunas são esses vetores. O posto de A é a dimensão do
espaço gerado por v1 , v2 , v3 . Operando sobre as linhas de A, temos:
   
1 −3 −1 1 −3 −1
T1 (−1) 0 4 4 T31 (−1) 0 4 4 T41 (−2)
A −−−−→  1 −2 0 
− − −− → 
0 1
−
 −−−→
1
2 5 9 2 5 9
   
1 −3 −1 1 −3 −1
0 4 4 T2 ( 14 ) 0 1 1 T32 (−1)
−→  0 1
 −− − →  − −−−→
1 0 1 1
0 11 11 0 11 11
   
1 −3 −1 1 −3 −1
0 1 1 T42 (−11) 0 1 1
−→  0 0
− − − − −
→   = B,
0 0 0 0
0 11 11 0 0 0
donde posto(A) = posto(B) = 2, de modo que v1 , v2 , v3 são LD e geram um
espaço de dimensão 2; (v1 , v2 ) é uma base para este subespaço de R4 .
CAPÍTULO 5. DETERMINANTES 78

Exemplo 5.4.4 Vamos estudar a independência linear das formas lineares


sobre R4 , onde ab 6= 0:
1
f1 (x1 , x2 , x3 , x4 ) = x1 − ax3 ; f2 = x2 − x4 ;
a
1
f3 = x1 − bx4 ; f4 = x2 − x4 .
b
As formas fj são elementos de (R4 )∗ ; em relação à base de (R4 )∗ , dual
da base canônica de R4 , temos:
−1
f1 = (1, 0, −a, 0); f2 = (0, 1, 0, );
a
−1
f3 = (1, 0, 0, −b); f4 = (0, 1, 0, ).
b
e a matriz cujas linhas são estes vetores é

   
1 0 −a 0 1 0 −a 0
0 1 0 −1/a T31 (−1) 0 1 0 −1/a T42 (−1)
A=
1
 −−−−→  − −−−→
0 0 −b  0 0 a −b 
0 1 0 −1/b 0 1 0 −1/b
   
1 0 −a 0 1 0 0 −b
0 1 0 −1/a   
  T13 (1) 0 1 0 −1/a 
−→ 0 0 a −b  −−− →  0 0 a −b  = B.
   
b−a b−a
0 0 0 0 0 0
ab ab
Vemos que se a 6= b 6= 0 as quatro formas são LI. Se a = b 6= 0 elas geram
um subespaço de (R4 )∗ de dimensão 3, do qual (f1 , f2 , f3 ) é uma base.

5.5 Equações Lineares


Sejam V e W espaços vetoriais sobre K e T : V −→ W linear. Se b ∈ W ,
a equação T (x) = b chama-se uma equação linear. A equação T (x) = 0 é a
equação homogênea associada. Resolver a equação T (x) = b é achar todos
os x ∈ V tais que T (x) = b, ou seja, é determinar o conjunto-solução T −1 (b).
A equação é impossível se T −1 (b) = ∅. O conjunto-solução de T (x) = 0 é o
núcleo N (T ), que é um subespaço de V; portanto, T (x) = 0 sempre tem a
solução x = 0, dita trivial.
CAPÍTULO 5. DETERMINANTES 79

Proposição 5.18 Se xp ∈ V é uma solução de T (x) = b, o conjunto-solução


é xp + N (T ).

Dem. Se T (x) = T (xp ) = b, então T (x − xp ) = 0, donde x − xp ∈ N (T ), ou


seja, x ∈ xp +N (T ). Reciprocamente, se x ∈ xp +N (T ), então x−xp ∈ N (T ),
donde T (x − xp ) = 0 e T (x) = T (xp ) = b.

Corolário 5.18.1 São equivalentes:


(a) a equação linear T (x) = b tem, no máximo, uma solução;
(b) a equação homogênea T (x) = 0 tem apenas a solução trivial x = 0;
(c) T : V −→ W é injetora.
Um caso simples é aquele em que T é um isomorfismo; neste caso, T (x) =
b ⇔ x = T −1 (b).

Proposição 5.19 Sejam V e W espaços vetoriais de mesma dimensão n


sobre K, T : V −→ W linear, E e F bases de V e W, respectivamente,
£ ¤E
T F = A ∈ Mn (K). São equivalentes:
(a) T é um isomorfismo;
(b) posto(T ) = posto(A) = n;
(c) os vetores-coluna e os vetores-linha de A são LI
(d) A é invertível;
(e) det A 6= 0;
(f ) para todo b ∈ W a equação T (x) = b tem solução única;
(g) a equação T (x) = 0 só tem a solução x = 0.

Dem. Imediata.

Proposição 5.20 Sejam V, W espaços vetoriais sobre K, dim V = n,


dim W = m e T : V −→ W linear. Se m < n a equação homogênea
T (x) = 0 tem solução não-trivial.
Dem. Seja {v1 , ..., vn } uma base de V. Se m < n então T (v1 ), ..., T (vn ) são
LD, donde existem escalares x1 , x2 , ..., xn , não todos nulos, tais que x1 T (v1 )+
... + xn T (vn ) = 0, donde T (x1 v1 + ... + xn vn ) = 0, isto é, x = x1 v1 + ... + xn vn
é solução 6= 0 de T (x) = 0.
Obs. 1 A equação T (x) = 0 tem N (T ) como espaço-solução. Portanto, a
dimensão do espaço-solução de T (x) = 0 é dim  N (T ) = n − posto(T
 ).
x1 b1
 ..   .. 
Obs. 2 Sejam T : K −→ K linear, x =  .  ∈ K , b =  .  ∈ K m
n n n

xn bm
e A = (aij ) a matriz m × n associada a T. A equação T (x) = b escreve-se
CAPÍTULO 5. DETERMINANTES 80

também A · x = b ou x1 A1 + ... + xn An = b, onde os Aj são os vetores-coluna


de A, ou ainda
a11 x1 + ... + a1n xn = b1
..
.
am1 x1 + ... + amn xn = bm
sistema de m equações lineares a n incógnitas. A = (aij ) é a matriz dos
coeficientes. A expressão x1 A1 + ... + xn An = b nos diz que Ax = b tem
solução x se, e só se, o vetor b pertence ao espaço-coluna de A, ou ainda,
se, e só se, o posto de A é igual ao posto da matriz (A|b) que é a matriz
completa do sistema (Teorema de Rouché-Capelli).
Definição 5.14 O sistema linear Ax = b é um sistema de Cramer se A ∈
Mn (K) é invertível.
Proposição 5.21 (Regra de Cramer) O sistema
 de Cramer A · x = b, onde
x1
 ..  det Bi
A ∈ GL(n, K), tem solução única x =  . , onde xi = (i = 1, ..., n),
det A
xn
onde Bi é a matriz obtida de A substituindo-se o vetor-coluna Ai pelo vetor
b do segundo membro.

col.i

Dem. A equação x1 A1 +...+xn An = b nos permite escrever det(A1 , ..., b , ..., An ) =
det Bi
xi det(A1 , ..., Ai , ..., An ) = xi ·det A, donde xi ·det A = det Bi e xi = =
¯ ¯ det A
¯ a11 ... b1 ... a1n ¯
¯ ¯
¯an1 ... bn ... ann ¯
¯ ¯
¯ a11 ... a1i ... a1n ¯ (i = 1, ..., n).
¯ ¯
¯an1 ... ani ... ann ¯

Exemplo 5.5.1
2x1 + 3x2 = 8
7x1 − 9x2 = −11
¯ ¯
¯2 3 ¯
Como det A = ¯¯ ¯ = −39 6= 0, o sistema é de Cramer e:
7 −9¯
¯ ¯ ¯ ¯
¯ 8 3 ¯ ¯2 8 ¯
¯ ¯ ¯ ¯
¯−11 −9¯ ¯7 −11¯
x1 = = 1; x2 = = 2.
−39 −39
CAPÍTULO 5. DETERMINANTES 81

Proposição 5.22 Sejam as equações lineares Ax = a e Bx = b, onde A, B ∈


Mm×n (K) e a, b ∈ K m . Se C = (A|a) e D = (B|b) são linha-equivalentes,
então as duas equações lineares têm as mesmas soluções.

 
x1
 .. 
 
Dem. Pondo y =  . , a equação Ax = a se escreve Cy = 0. Se C e D
 xn 
−1
são linha-equivalentes, existe P ∈ Mm (K), invertível, tal que P · C = D. Se
Dy = 0 vem P (Cy) = 0, donde Cy = 0. Reciprocamente, se Cy = 0 então
P (Cy) = 0, isto é, Dy = 0. Logo as equações Cy = 0 e Dy = 0 têm as
mesmas soluções, ou seja, Ax = a e Bx = b têm as mesmas soluções.

Exemplo 5.5.2 Seja o sistema

2x1 + x2 + x3 = 1
x1 + 3x2 − 2x3 = 0
4x1 − 3x2 + x3 = 2

A matriz completa do sistema é


 
2 1 1 1
T12 T21 (−2) T31 (−4) T2 (−1/5) T32 (15)

C= 1 3 −2 0 −−→ −−−−→−−−−→−−−−−→−−−−→ B,
4 −3 1 2
 
1 3 −2 0

onde B = 0 1 −1 −1/5 e obtemos:
0 0 −6 −1

1
x3 =
6
1
x2 − x3 = −
5

x1 + 3x2 − 2x3 = 0
 
13/30
e a solução (única) é x = −1/30.
1/6
CAPÍTULO 5. DETERMINANTES 82

x1 −x3 −3x4 +x5 = −2


2x1 +x2 +3x3 −2x4 −x5 = 11
Exemplo 5.5.3 . A matriz com-
x2 −x4 −3x5 =0
4x2 −5x3 −9x)4 −12x5 = −15
pleta é

   
1 0 −1 −3 1 −2 1 0 0 −2 1 1
2 1 3 −2 −1 11   0 1 0 −1 −3 0
 −→ ... −→  
0 1 0 −1 −3 0   0 0 1 1 0 3
0 4 −5 −9 −12 −15 0 0 0 0 0 0

e obtemos o sistema

x1 −2x4 +x5 = 1
x2 −x4 −3x5 = 0
x3 +x4 =3
ou:
x1 = 2x4 − x5 + 1
x2 = x4 + 3x5 .
x3 = −x4 + 3
Trata-se de um sistema indeterminado; existem infinitas soluções
       
2x4 − x5 + 1 1 2 −1
 x4 + 3x5  0 1 3
       
x=       
 −x4 + 3  = 3 + x4 −1 + x5  0  ,
 x4   0   1  0
x5 0 0 1
     
1 2 −1
0 ( 1   3 )
     
onde xp =  3
 
 é a solução particular e −1 ,  0  é base do espaço-
   
0 1 0
0 0 1
solução da equação homogênea associada.

Exemplo 5.5.4
x1 + x2 − x3 = 1
2x1 − x2 + x3 = 2
4x1 + x2 − x3 = 0
CAPÍTULO 5. DETERMINANTES 83
   
1 1 −1 1 1 1 −1 1
A matriz completa é 2 −1 1 2 −→ ... −→ 0 1 −1 0 , e o
4 1 −1 0 0 0 0 −4
sistema é impossível já que a última equação 0 · x1 + 0 · x2 + 0 · x3 = −4 é
impossível.
Obs. (decomposição LU) Seja A – n × n uma matriz que pode ser reduzida
à forma triangular apenas pelo uso da operação Tij (λ); por exemplo, seja
   
2 4 2 2 4 2
T21 (−1/2) T31 (−2)
A = A(1) = 1 5 2 −−−−−−→ A(2) −−−−→ A(3) = 0 3 1 −→
4 −1 9 0 −9 5
 
2 4 2
T32 (3)
−−−→ 0 3 1 = U.
0 0 8
1
Sejam: l21 = ; l31 = 2 opostos dos multiplicadores usados na primeira linha
2  
1 0 0
e l32 = −3 o oposto do usado na segunda linha. Se L = 1/2 1 0 é
2 −3 1
a matriz triangular inferior cujos elementos lij , para i < j, são os números
acima e lii = 1, então é fácil verificar que A = LU . Os detalhes da decom-
posição LU podem ser encontrados na referência [6].

Exercícios
1. Resolva:
x+y+z =1 x − 2y + z + t = 1
(a) 2x + y + 3z = 1 (b) −2x + y + 2z + 2t = 0 .
−x + 2y − 4z = 3 6y + z = −2
2. Sejam a 6= b 6= c 6= d números reais distintos. Prove que existe um
único polinômio p(x) = α0 + α1 x + α2 x2 + α3 x3 tal que p(a) = a0 ;
p(b) = b0 ; p(c) = c0 ; p(d) = d0 , onde a0 , b0 , c0 , d0 são reais dados.
 
2 3 1
3. Ache a decomposição LU da matriz A = 4 1 4.
3 4 6
Capítulo 6

Autovalores e Autovetores

6.1 Definições
Definição 6.1 Sejam V um espaço vetorial sobre o corpo K e T : V −→ V
linear. Dizemos que v ∈ V é um autovetor de T se existe a ∈ K tal que

T (v) = av.

Se v 6= 0, o escalar a é univocamente determinado pois a1 v = a2 v implica


(a1 − a2 )v = 0 e, como v 6= 0, vem a1 = a2 .

Definição 6.2 Sejam V um espaço vetorial sobre K e T : V −→ V linear.


Dizemos que a ∈ K é um autovalor de T se existe v ∈ V, v 6= 0, tal que
T (v) = av.
Obs. Ao invés de autovetor e autovalor, usam-se também os termos vetor
próprio ou vetor característico e valor próprio ou valor característico.

Exemplo 6.1.1 Se v ∈ V é um autovetor do operador linear T : V −→ V


e c ∈ K, então cv também é um autovetor de T pois T (cv) = cT (v) = cav =
a(cv), supondo T (v) = av.

Exemplo 6.1.2 Seja V = C ∞ (R, R) o espaço vetorial real das funções f :


R −→ R de classe C ∞ , isto é, indefinidamente deriváveis, e seja D : V −→ V
o operador de derivação. Se f ∈ V, f (t) = eat , a ∈ R, então Df (t) = a · eat ,
ou seja, Df = af , e f é um autovetor de D, com autovalor a.

Exemplo 6.1.3 Se a = 0 é um autovalor de T : V −→ V linear, existe


v 6= 0 tal que T (v) = 0, donde N (T ) 6= {0} e T não é injetora.

84
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 85

Proposição 6.1 Sejam V um espaço vetorial sobre K, T : V −→ V linear,


a ∈ K¡ e V (a)
¢ = {v ∈ V ; T (v) = av}. Então V (a) é um subespaço de V tal
que T V (a) ⊂ V (a), isto é, V (a) é T-invariante.

Dem. É claro que 0 ∈ V (a); se v1 , v2 ∈ V (a), então T (v1 ) = av1 , T (v2 ) =


av2 , donde T (v1 + v2 ) = T (v1 ) + T (v2 ) = av1 + av2 = a(v1 + v2 ). Se c ∈ K,
então T (cv1 ) = cT (v1 ) = cav1 = a(cv1 ). Logo, V (a) é subespaço
¡ de ¢V. Se v ∈
V (a) então T (v) = av e T (T v) = T (av) = aT (v), donde T V (a) ⊂ V (a).
V (a) é o autoespaço de T associado ao autovalor a. V (a) = {0} significa que
a não é autovalor de T.

Proposição 6.2 Sejam V um espaço vetorial de dimensão finita sobre K e


T : V −→ V linear. São equivalentes:
(a) a ∈ K é autovalor de T;
(b) T − aI não é invertível;
(c) det(T − aI) = 0.

Dem. Já vimos anteriormente que (b) e (c) são equivalentes. Basta, então,
provar que (a) e (b) são equivalentes.
(a) ⇒ (b): Se a é autovalor de T, existe v 6= 0 tal que T (v) = av, isto é,
(T − aI)v = 0, donde T − aI não é invertível.
(b) ⇒ (a): Se T − aI não é invertível, existe v 6= 0 tal que (T − aI)v = 0,
donde T (v) = av, ou seja, a é autovalor de T.

Proposição 6.3 Sejam V um espaço vetorial sobre K e T : V −→ V linear.


Se a 6= b são autovalores de T, então V (a) ∩ V (b) = {0}.

Dem. T (v) = av = bv implica (a − b)v = 0, donde v = 0 (pois a 6= b).

Proposição 6.4 Sejam V um espaço vetorial sobre K e T : V −→ V lin-


ear. Sejam v1 , ..., vm autovetores não nulos de T com autovalores a1 , ..., am ,
respectivamente. Se a1 6= a2 6= ... 6= am , então v1 , ..., vm são linearmente
independentes.

Dem. (indução) Para m = 1, um vetor v1 6= 0 é LI. Suponhamos m > 1 e


admitamos o teorema verdadeiro para (m − 1) autovetores. Se tivermos uma
relação linear
b1 v1 + b2 v2 + ... + bm vm = 0, (6.1)
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 86

então b1 T (v1 ) + ... + bm T (vm ) = 0, donde:

a1 b1 v1 + a2 b2 v2 + ... + am bm vm = 0. (6.2)

Sem perda de generalidade podemos supor a1 6= 0. Multiplicando (6.1)


por a1 e subtraindo o resultado de (6.2), obtemos: (a2 − a1 )b2 v2 + ... + (am −
a1 )bm vm = 0.
Como a2 − a1 6= 0, ..., am − a1 6= 0, concluimos, por indução, que b2 =
... = bm = 0, e (6.1) nos dá b1 v1 = 0, donde b1 = 0, ou seja, v1 , ..., vm são
LI.

Corolário 6.4.1 Se dim V = n, todo operador linear T : V −→ V tem, no


máximo, n autovalores distintos.

Corolário 6.4.2 Se a1 , ..., am são autovalores de T : V −→ V linear e a1 6=


a2 6= ... 6= am , então o subespaço V (a1 ) + ... + V (am ) é soma direta de
V (a1 ), ..., V (am ).

Dem. Seja vi ∈ V (ai ), i = 1, ...m. Se v1 + v2 + ... + vm = 0, vamos mostrar


que v1 = ... = vm = 0. Se p < m destes vetores fossem diferentes de 0,
por exemplo, vi1 , ..., vip , e os (m − p) restantes fossem iguais a 0, teríamos
vi1 +...+vip = 0, isto é, vi1 , ..., vip seriam LD em contradição com a proposição
6.4. Resulta que V (a1 ) + ... + V (am ) = V (a1 ) ⊕ ... ⊕ V (am ).

Exemplo 6.1.4 Seja V = C ∞ (R, R). Se a1 6= ... 6= am são reais distintos,


então ea1 t , ..., eam t são autovetores do operador de derivação D : V −→ V
com autovalores distintos e, portanto, as funções ea1 t , ..., eam t são LI. Como
m é arbitrário, resulta que V = C ∞ (R, R) não tem dimensão finita.

Definição 6.3 Seja A ∈ Mn (K). Os autovetores e autovalores de A são


os autovetores e autovalores da aplicação linear associada TA : K n −→
K n , TA (x) = A · x. Assim, x ∈ K n é autovetor de A se existe a ∈ K
tal que A · x = ax.

Proposição 6.5 Seja A ∈ Mn (K). São equivalentes:


(a) a ∈ K é autovalor de A;
(b) A − aIn não é invertível;
(c) det(A − aIn ) = 0.
Obs. Se B = P −1 AP , onde A ∈ Mn (K) e P ∈ Mn (K) é invertível, então A
e B têm os mesmos autovalores pois se Ax = ax, x 6= 0 e y = P −1 x, então:

By = P −1 AP y = P −1 Ax = P −1 (ax) = ay.
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 87

Como y 6= 0, resulta que a é autovalor de B. A recíproca é análoga. É bom


notar, entretanto, que os autovetores de A e B, associados ao autovalor a,
são x e y = P −1 x, respectivamente.

Definição 6.4 Sejam V um espaço vetorial de dimensão n sobre K e T :


V −→ V linear. O polinômio característico de T é PT (t) = det(T − tI).
Se A ∈ Mn (K), o polinômio característico PA (t) é o polinômio da aplicação
linear associada TA : K n −→ K n , isto é, PA (t) = det(TA −tI) = det(A−t·In ).
Se A = (aij ), então:
¯ ¯
¯a11 − t a12 ... ain ¯¯
¯
¯ a21 a22 − t ... a2n ¯¯
¯
PA (t) = det(A − tIn ) = ¯ .. .. .. .. ¯ =
¯ . . . . ¯¯
¯
¯ an1 an2 ... ann − t¯

= (−1)n tn + (−1)n−1 (a11 + ... + ann )tn−1 + ... + det A


(o termo independente é PA (0) = det A).

Proposição 6.6 Matrizes semelhantes têm o mesmo polinômio caracterís-


tico.

Dem. De fato se B = P −1 AP então as matrizes A e B representam o


mesmo operador linear T : K n −→ K n e, portanto, têm o mesmo polinômio
característico PT (t) = det(T − tI).
Uma demonstração direta é a seguinte:

det(B − tIn ) = det(P −1 AP − tIn ) = det(P −1 (A − tIn )P ) = det(A − tIn )

pois det P −1 · det P = 1.

Obs. Se PT (t) = PA (t) = cn tn + cn−1 tn−1 + ... + c1 t + c0 , então cn = (−1)n


e c0 = det T = det A. Os coeficientes cj , j = 0, 1, ..., n, só dependem do
operador T.

Definição 6.5 (−1)n−1 cn−1 é o traço de T, e escrevemos tr T = (−1)n−1 cn−1 .


O traço de A ∈ Mn (K) é o traço de TA : K n −→ K n , TA (x) = A · x : tr A =
a11 + a22 + ... + ann .
Se A e B são semelhantes, temos tr A = tr B pois PA (t) = PB (t).
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 88

Proposição 6.7 Sejam V um espaço vetorial de dimensão n sobre K e T :


V −→ V linear. a ∈ K é um autovalor de T se, e só se, a é uma raiz do
polinômio característico de T.

Dem. a ∈ K é autovalor de T ⇔ det(T − aI) = 0 ⇔ a é raiz de PT (t).


· ¸ ¯ ¯
1 1 ¯1 − t 1 ¯
Exemplo 6.1.5 Se A = , então PA (t) = ¯¯ ¯ = t2 − 3t, e os
2 2 2 2 − t¯
autovalores de A são a = 0 e a =µ3. ¶
x1
Procuremos autovetores x = associados a estes autovalores. Para
x2
a = 0, temos:
x1 + x2 = 0
2x1 + 2x2 = 0.
µ ¶
1
Logo, x = x1 é autovetor associado a a = 0, para todo x1 ∈ K.
−1
Para a = 3, temos:
−2x1 + x2 = 0
2x1 − x2 = 0.
µ ¶ µ ¶
x1 1
Logo, y = = x1 é autovetor associado a a = 3, para todo x1 ∈ K.
2x1 2
2
Os
µ autoespaços
¶ µ ¶ correspondentes são as retas pela origem de K geradas
1 1
por e , respectivamente.
−1 2
· ¸
0 1
Exemplo 6.1.6 Se A = então PA (t) = t2 +1. Se A ∈ M2 (R) vemos
−1 0
que A não tem autovalores. Se A ∈ M2 (C) então i e -i são autovalores de A.
Obs. Se T : V −→ V é linear e dimK V = n, temos que PT (t) tem grau n,
de modo que T tem, no máximo, n autovalores. Quando K = C, PT (t) tem
pelo menos uma raiz, de modo que, neste caso, T sempre tem um autovetor
não nulo.

Proposição 6.8 Sejam V um espaço-vetorial de dimensão n sobre K e L, T :


V −→ V lineares. L ◦ T e T ◦ L têm os mesmos autovalores.

Dem. Se a = 0 é autovalor de L ◦ T , existe u 6= 0 tal que L(T u) = 0,


donde L ◦ T não é invertível; logo, det(L ◦ T ) = det L · det T = 0, donde
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 89

det(T ◦ L) = 0 e T ◦ L não é invertível, donde existe v 6= 0 tal que T (Lv) = 0,


isto é, a = 0 é autovalor de T ◦ L.
Se a 6= 0 é autovalor de L ◦ T , existe u 6= 0 tal que L(T u) = au. Seja
v = T (u); então: T (Lv) = T (au) = av. Se fosse v = T (u) = 0 então
teríamos LT u = 0, donde au = 0, donde u = 0, contradição. Portanto,
T Lv = av com v 6= 0, donde a é autovalor de T ◦ L. Analogamente se prova
que todo autovalor de T ◦ L é também autovalor de L ◦ T .

Proposição 6.9 Sejam V um espaço vetorial de dimensão n sobre K e T :


V −→ V linear. Se o polinômio característico PT (t) admite em K uma raiz
a de multiplicidade m, então 1 ≤ dim V (a) ≤ m.

Dem. Seja E = (u1 , ..., ur , v1 , .., vs ) base de V tal que (u1 , ..., ur ) seja base de
V (a). Temos:

T (u1 ) = au1
T (u2 ) = au2
..
.
T (ur ) = aur
T (v1 ) = a11 u1 +...+ ar1 ur + b11 v1 + ... + bs1 vs
T (vs ) = a1s u1 +...+ ars ur + b1s v1 + ... + bss vs

Logo:

h iE aIr A
T =
E
0 B

onde A = (aij ) é r × s e B = (bij ) é s × s.


CAPÍTULO 6. AUTOVALORES E AUTOVETORES 90

Então:
¯ ¯
¯a − t 0 ... 0 a11 ... a1s ¯
¯ ¯
¯ 0 a−t ... 0 a21 ... a2s ¯
¯ . .. .. .. .. .. ¯
¯ . ... ¯
¯ . . . . . . ¯
¯ ¯
PT (t) = ¯ 0 0 ... a − t ar1 ... ars ¯ = (a−t)r det(B −tIs ).
¯ ¯
¯ 0 0 ... 0 b11 − t ... b1s ¯
¯ . .. .. .. .. ... .. ¯¯
¯ .. . . . . . ¯
¯
¯ 0 0 ... 0 bs1 ... bss − t¯
Como a é raiz de multiplicidade m, temos r ≤ m, donde 1 ≤ dim V (a) ≤ m.

6.2 Diagonalização
Definição 6.6 Sejam V um espaço vetorial de dimensão n sobre K e T :
V −→ V linear. Dizemos que T é diagonalizável se existe base de V for-
mada por autovetores de T, ou seja, se, e só se, T tem n autovetores lin-
earmente
 independentes.
 Em relação a essa base, a matriz de T é da forma
λ1 0 ... 0
 0 λ2 ... 0 
 
 .. .. . . .. , λj ∈ K, ou seja, todos os elementos fora da diagonal
. . . .
0 0 ... λn
principal são iguais a zero. Uma tal matriz é dita diagonal; os elementos da
diagonal principal são os autovalores de T.

Definição 6.7 Seja A = (aij ) – n × n. A é diagonalizável se existe matriz


invertível P – n × n – tal que P −1 AP = D, onde D é diagonal, isto é, se A
é semelhante a uma matriz diagonal.

Proposição 6.10 Sejam V um espaço vetorial de dimensão finita sobre K


e T : V −→ V linear. T é diagonalizável se, e só se, existe base E de V tal
£ ¤E
que T E = D seja diagonal.

Dem. Se T é diagonalizável existe base E = (v1 , ..., vn ) de V formada por


autovetores de T: T (vi ) = λi vi (1 ≤ i ≤ n). Logo:
 
λ1 0 ... 0
£ ¤E   0 λ2 ... 0 

T E =  .. .. . . . .
. . . .. 
0 0 ... λn
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 91
£ ¤E
Reciprocamente, seja E = (v1 , ..., vn ) base de V tal que T E = D =
 
λ1 0 ... 0
 0 λ2 ... 0 
 
 .. .. . . .. . Então: T (vi ) = λi vi , 1 ≤ i ≤ n, e E é formada por
. . . .
0 0 ... λn
autovetores de T; portanto, T é diagonalizável.
£ ¤F
Obs. Seja F base de V e seja A = T F . T é diagonalizável se, e só se,
£ ¤E
existe base E de V tal que T E = D seja diagonal. Mas,
£ ¤E £ ¤F £ ¤F £ ¤E
D = T E = Id E · T F · Id F = P −1 AP,
£ ¤F £ ¤E
ou seja, T é diagonalizável se, e só se, A = T F é diagonalizável; P = Id F
é a matriz de passagem da base E para a base F e as colunas de P são os
autovetores de A.
Proposição 6.11 Sejam V um espaço vetorial de dimensão n sobre K e
T : V −→ V linear. T é diagonalizável se, e só se:
(a) o polinômio característico PT de T tem suas n raízes em K;
(b) para cada raiz λi de PT , de ordem de multiplicidade mi , tem-se dim V (λi ) =
mi .

£ ¤E
Dem. Se T é diagonalizável e E é base de V na qual T E é diagonal, então
E é formada de autovetores de T. Podemos supor que os elementos de E es-
tão ordenados de maneira a termos primeiro os autovetores associados a λ1 ,
depois aqueles associados a λ2 , e assim por diante, de modo que
 
λ1 ... 0 0 ... 0 ... 0 ... 0
 .. . . . .. . . . .. . .. .
. . .. . . .. . .. . .. 
 
 0 ... λ1 0 ... 0 ... 0 ... 0 
 
 0 ... 0 λ2 ... 0 ... 0 ... 0 
. .. .. . . .. . . .. . . .. 
£ ¤E  . .. 
 . . . . . . . . . .
T E =  ∈ Mn (K).
 0 ... 0 0 ... λ2 ... 0 ... 0 
. . .. 
 .. . . ... .. . .
. .
.. . .
. .
.. . .
. . .
 
 0 ... 0 0 ... 0 ... λ ... 0 
 k 
 .. . . .
. .
. . . .
. . . .
. . . .
. 
. . . . . . . . . .
0 ... 0 0 ... 0 ... 0 ... λk
Então:
V = V (λ1 ) ⊕ V (λ2 ) ⊕ ... ⊕ V (λk ),
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 92

donde dim V = dim V (λ1 ) + ... + dim V (λk ) = n. Como dim V (λi ) ≤ mi e
m1 + ... + mk = n, resulta dim V (λi ) = mi (1 ≤ i ≤ k).
Reciprocamente, as n raízes de PT estando em K, suponhamos que dim V (λi ) =
mi , 1 ≤ i ≤ k. A relação m1 + ... + mk = n nos dá
£ ¤
dim V (λ1 ) ⊕ ... ⊕ V (λk ) = n ∴ V = V (λ1 ) ⊕ ... ⊕ V (λk ).

A reunião das bases dos V (λi ) (1 ≤ i ≤ n) é uma base de V formada por


autovetores de T, donde T é diagonalizável.
· ¸
1 2
Exemplo 6.2.1 Seja A = . Os autovalores de A são as raízes de
¯ ¯ 3 2
¯1 − t 2 ¯¯
¯ = 0, isto é, de t2 − 3t − 4 = 0, ou seja, t1 = −1 e t2 = 4. Para
¯ 3 2 − t¯ µ ¶
x1
t = −1 a equação (A − I2 ) · x = 0, onde x = , nos dá x1 + x2 = 0,
µ ¶ x2
1
donde x = x1 , x1 ∈ R.
−1 µ ¶
2
Para t = 4 obtemos 3x1 + 2x2 = 0, donde x = 3x2 , x2 ∈ Real. O
µ ¶ µ ¶ 3
1 2
vetor gera V (−1), quanto que gera V (4). A matriz de passagem
−1 3 (
µ ¶ µ ¶) · ¸
2 1 2 1 2
da base canônica de V = R para a base , éP = ,
−1 3 −1 3
· ¸ · ¸
−1 1 3 −2 −1 −1 0
cuja inversa é P = e B = P AP = , matriz diagonal.
5 1 1 0 4
· ¸
1 1
Exemplo 6.2.2 A = ∈ M2 (C) não é diagonalizável. De fato, PA (t) =
0 1 µ ¶
x
(1 − t) tem a raiz dupla t = 1 e (A − I2 ) 1 = 0 nos dá x2 = 0, donde
2

µ ¶ x2
1
x = x1 . Assim, dim V (1) = 1 < 2, e A não é diagonalizável.
0
 
−1 1 0
Exemplo 6.2.3 A =  0 −1 1  é diagonalizável em M3 (C) mas não o
1 0 −1

3 3
é em M3 (R). De fato, os autovalores de A são a1 = 0, a2 = − + i , a3 =
√ 2 2
3 3
− −i .
2 2
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 93
 
−1 1 1
Exemplo 6.2.4 A =  1 −1 1  ∈ M3 (R) é diagonalizável. De fato,
1 1 −1
temos:
PA (t) = −(t − 1)(t + 2)2 .
  ( 1   1 )
1
É fácil comprovar que 1 é base de V (1) e que −1 ,  0  é base
1 0 −1
de V (−2), ou seja, dim V(1) = 1 e dim
 V (−2) = 2. Resulta
 que A ∈ M3 (R)
1 1 1 1 0 0
é diagonalizável. Se P = 1 −1 0 , então P AP = 0 −2 0 .
  −1 
1 0 −1 0 0 −2

Proposição 6.12 Sejam V um espaço vetorial de dimensão n ≥ 1 sobre K


e T : V −→ V linear tal que PT (t) tenha todas suas raízes em K. Existe uma
base de V na qual a matriz de T é triangular (superior).

Dem. (indução)
Para dim V = 1 nada há a provar. Suponhamos o teorema verdadeiro para
dim V = n − 1. Seja a1 ∈ K um dos autovalores de T e v1 6= 0 um autovetor
associado a a1 , isto é, T v1 = a1 v1 . Sejam V1 = Kv1 o subespaço gerado por
v1 , W um suplementar qualquer de V1 e F = (w2 , ..., wn ) uma base de W.
Como v1 6= W , E 0 = (v1 , w2 , ..., wn ) é base de V e
 
a1 b12 ... b1n
£ ¤E 0   0 b22 ... b2n 

T E 0 =  .. .. . . . .
. . . .. 
0 bn2 ... bnn

Como, em geral, T (W ) não está contido em W, consideremos as projeções


p1 : V −→ V1 e p2 : V −→ W . Então, Im(p2 T ) ⊂ W e podemos considerar
a aplicação linear p2 · T : W −→ W . Como p2 (V1 ) = 0 e p2 (wj ) = wj ,
j = 2, ..., n, temos:

p2 T (wj ) = p2 (b1j v1 + b2j w2 + ... + bnj wn ) = b2j w2 + ... + bnj wn ,

donde:  
b22 ... b2n
£ ¤F  
p2 T F =  ... . . . ...  .
bn2 ... bnn
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 94

Resulta: PT (t) = (a1 −t) det(p2 T −tI), e podemos concluir que os autovalores
de p2 T : W −→ W estão em K, já que eles são também autovalores de T.
£ ¤G
Pela hipótese de indução, existe base G = (u2 , ..., un ) de W tal que p2 T G =
 
c22 c23 ...c2n
 0 c33 ... c3n 
 
 .. .. . . ..  é matriz triangular. Se E = (v1 , u2 , ..., un ) é a base de
 . . . . 
0 0 ... cnn
V obtida acrescentando-se v1 6= W a G, temos:
 
a1 c12 ... c1n
 0 c22 ... c2n 
£ ¤E  


T E =  0 0 ... c3n  , matriz triangular.
 .. .. . . . 
. . . .. 
0 0 ... cnn

Corolário 6.12.1 Seja A ∈ Mn (C). Existe P ∈ Mn (C), invertível, tal que


B = P −1 AP seja triangular.
£ ¤E
Obs. Se E = (v1 , v2 , ..., vn ) é base de V na qual T E é triangular superior,
sejam:
V1 = Kv1 = espaço gerado por v1
V2 = espaço gerado por v1 , v2
..
.
Vn = V = espaço gerado por v1 , v2 , ..., vn .
Então:
(1) Vi ⊂ Vi+1 ; (2) dim Vi = i; (3) T (Vi ) ⊂ Vi (1 ≤ i ≤ n).
Reciprocamente, se V1 , ..., Vn = V são subespaços de V satisfazendo (1),
£ ¤E
(2) e (3) acima, então existe base E de V na qual T E é triangular su-
perior. De fato, basta tomar (v1 ) base de V1 , (v1 , v2 ) base de V2 , (v1 , v2 , v3 )
base de V3 e assim por diante até chegar a uma base (v1 , v2 , ..., vn ) de Vn = V .

Exercícios

2 0 4
1. Ache os autovalores e autovetores e A = 3 −4 12 ∈ M3 (R).
1 −2 5
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 95
 
−4 0 −2
2. Verifique se A =  0 1 0  é diagonalizável.
5 1 3

6.3 Polinômios de Operadores e Matrizes


Sejam K[t] o conjunto dos polinômios a uma variável com coeficientes no
corpo K, V um espaço vetorial sobre K, T : V −→ V linear e p(t) = a0 +
a1 t + ... + am tm um elemento de K[t].

Definição 6.8 p(T ) = a0 I + ai T + ... + am T m : V −→ V .


Se A ∈ Mn (K), definimos: p(A) = a0 In + a1 A + ... + am Am ∈ Mn (K).
· ¸
0 1
Exemplo 6.3.1 Sejam A = e p(t) = t3 − 2t + 3. Então:
2 −1
· ¸3 · ¸ · ¸ · ¸
0 1 0 1 1 0 1 1
p(A) = −2 +3 = .
2 −1 2 −1 0 1 2 0
£ ¤E
Obs. Se E é base de V, A = T E e φ : L(V ) −→ Mn (K) é o isomorfismo
£ ¤E
de álgebras tal que φ(T ) = T E = A, então
¡ ¢
φ p(T ) = φ(a0 I + ... + am T m ) = a0 φ(I) + ... + am φ(T m ) =

= a0 In + a1 A + ... + am Am = p(A),
£ ¤E
ou seja, p(T ) E = p(A).

Proposição 6.13 Sejam p, q ∈ K[t], c ∈ K, V um espaço vetorial sobre K


e T : V −→ V linear. Então:
(a) (p + q)(T ) = p(T ) + q(T )
(b) (pq)(T ) = p(T ) · q(T ) = q(T ) · p(T )
(c) (cp)(T ) = c · p(T ).

Dem. Suponhamos p(t) = a0 + a1 t + ... + an tn e q(t) = b0 + b1 t + ... + bm tm ,


m ≤ n, e seja bi = 0 se i > m. Então:
(a) (p + q)(t) = (a0 + b0 ) + (a1 + b1 )t + ... + (an + bn )tn , donde

(p + q)(T ) = (a0 + b0 )I + (a1 + b1 )T + ... + (an + bn )T n =

= (a0 I + a1 T + ... + an T n ) + (b0 I + b1 T + ... + bn T n ) =


CAPÍTULO 6. AUTOVALORES E AUTOVETORES 96

= p(T ) + q(T )
.
m+n
X
n+m
(b) (pq)(t) = c0 + c1 t + ... + cn+m t = ck tk , onde
k=0

k
X
ck = a0 bk + a1 bk−1 + ... + ak b0 = ai bk−i .
i=0

m+n
à n !à m
!
X X X
Então: (pq)(T ) = ck T k e p(T ) · q(T ) = ai T i bj T j =
k=0 i=0 j=0
n X
X m m+n
X
= ai bj T i+j = ck T k = (pq)(T ) = (qp)(T ) = q(T ) · p(T ).
i=0 j=0 k=0
(c) (cp)(T ) = ca0 I + ca1 T + ... + can T n = c · p(T ).
Obs. É claro que a proposição 6.13 continua válida se trocarmos o operador
linear T : V −→ V por uma matriz quadrada A.

Exemplo 6.3.2 Sejam A, P ∈ Mn (K), P invertível e m um inteiro positivo.


Temos: (P −1 AP )2 = P −1 AP · P −1 AP = P −1 A2 P e, por indução, vê-se
facilmente que (P −1 AP )m = P −1 Am P .
m
X
m −1
Se p(t) = a0 + a1 t + ... + am t , então p(P AP ) = ak (P −1 AP )k =
k=0
m
X m
X
= ak P −1 Ak P = P −1 · ak Ak P = P −1 · p(A) · P .
k=0 k=0

Proposição 6.14 (Cayley-Hamilton) Sejam V um espaço vetorial de dimen-


são n ≥ 1 sobre K e T : V −→ V linear. T é um zero de seu polinômio
característico, isto é, PT (T ) = 0.

Dem. Para facilitar vamos provar o teorema no caso em que K = C.


Vimos, na proposição 6.11, que existem subespaços V1 , ..., Vn de V tais
que Vi ⊂ Vi+1 , dim Vj = j e T (Vi ) ⊂ Vi (1 ≤ i ≤ n) e base E = (v1 , v2 , ..., vn )
de V tal que Vi = espaço gerado por v1 , ..., vi (1 ≤ i ≤ n). Em relação à base
E a matriz de T é triangular superior:
 
a11 a12 ... a1n
£ ¤E   0 a22 ... a2n 

T E = .. . .
0 0 . .. 
0 0 ... ann
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 97

Então: T vi = aii vi + um vetor de Vi−1 .


Como (T − aii I)vi = T vi − aii vi resulta que (T − aii I)vi ∈ Vi−1 . Além disso,
o polinômio característico de T é dado por PT (t) = (−1)n (t − a11 )...(t − ann )
de modo que PT (T ) = (−1)n (T − a11 I)...(T − ann I).
Vamos provar, por indução, que (T − a11 I)...(T − aii I)v = 0 para todo v ∈
Vi (1 ≤ i ≤ n).
Para i = 1, temos (T − a11 I)v1 = T v1 − a11 v1 = 0. Admitamos o teorema
verdadeiro para i − 1. Todo elemento de Vi é da forma u + cvi com u ∈ Vi−1
e c ∈ C. Como T Vi−1 ⊂ Vi−1 resulta que (T − aii I)u está em Vi−1 . Por
indução,
(T − a11 I)...(T − ai−1,i−1 I)(T − aii I)u = 0.
Por outro lado, (T − a11 I)cvi pertence a Vi−1 e, por indução,

(T − a11 I)...(T − aii I)cvi = 0.

Logo, para v ∈ Vi , temos

(T − a11 I)...(T − aii I)v = 0

e i = n prova o teorema.
Obs. É claro que a proposição 6.14 continua válida se substituirmos T :
V −→ V por uma matriz A ∈ Mn (K).
 
1 1 1
Exemplo 6.3.3 Seja A = 0 0 −3. Temos: PA (t) = (1 − t)(t − 3)2 .
0 3 6  
1
Para t = 1, (A − I3 )x = 0 nos dá x = x1 0 , x1 ∈ R.
0 
0
Para t = 3, (A − 3I3 )x = 0 nos dá x = x3 −1 , x3 ∈ R.
1  
1
Como dim V (3) = 1 < 2, A não é diagonalizável. Os vetores 0 e
  0
0
−1 geram V (1) e V (3), respectivamente. Para obter uma base de R3
1
devemos tomar
  um terceiro vetor que seja
 independente
   desses
 dois. Por
0  1 0 0 
exemplo, 1. Obtemos a base F = 0 , −1 , 1 de R3 . Se
 
0 0 1 0
CAPÍTULO 6. AUTOVALORES E AUTOVETORES 98
     
1 0 0 1 0 0 1 0 1
P = 0 −1 1, então P −1 = 0 0 1 e B = P −1 AP = 0 3 3, ma-
0 1 0 0 1 1 0 0 3
triz triangular na qual os elementos da diagonal principal são os autovalores
de A. Como PA (t) = PB (t) = (1 − t)(3 − t)2 , temos PA (A) = PB (B) = 0, ou
seja, (I3 − A)(3I3 − A)2 = 0, que se pode verificar diretamente pelo cálculo.

6.4 Exercícios do Capítulo 6


 
1 1 a
1. Seja A = 0 b , onde a, b e c são reais. Ache os autovalores e
1
0 c 0
autovetores de A
e determine os casos em que A é diagonalizável.
 
−2 1 1
2. Se possível, diagonalize A =  1 −2 1 .
1 1 −2
3. Prove que não existem matrizes A, B – n × n – tais que
£ ¤
A, B = AB − BA = In .

4. Sejam V um espaço vetorial de dimensão finita sobre K, T : V −→ V


linear.
(a) Prove que T e T t têm o mesmo polinômio característico.
(b) Sejam V (λ) o auto-espaço associado ao autovalor λ de T e V 0 (λ)
o auto-espaço associado ao autovalor λ de T t . Prove que V (λ) e V 0 (λ)
têm a mesma dimensão.
 
a0 a1 ... an−1
an−1 a0 ... an−2 
 
5. Sejam A ∈ Mn (C) a matriz “circulante” A =  .. .. . . ..  e
 . . . . 
a1 a2 ... a0
2πi
jk
P = (pjk ) – n × n – tal que pjk = e n .
(a) Calcule P P e ache P −1 .  
1
 w 
2πi  
(b) Se w = e n , mostre que o vetor x =  ..  é um autovetor de A.
 . 
wn−1
Qual é o autovalor correspondente?
(c) Prove que P −1 AP é uma matriz diagonal.
Capítulo 7

Produto Interno

Neste capítulo o corpo K será ou R ou C e usaremos a notação K.

7.1 Definições e Exemplos


Definição 7.1 Seja V um espaço vetorial sobre K. Um produto interno em
V é uma função que a cada par (u, v) ∈ V × V associa um escalar, anotado
hu, vi, de modo que:
(a) hu1 + u2 , vi = hu1 , vi + hu2 , vi
(b) hau, vi = ahu, vi
(c) hu, vi = hv, ui, onde a barra indica conjugação complexa,
(d) hv, vi é um real positivo para todo v ∈ K, v 6= 0
quaisquer que sejam u, v, u1 , u2 ∈ V e a ∈ K.

Exemplo 7.1.1 Seja V = Kn . Se u = (x1 , ..., xn ) e v = (y1 , ..., yn ), defini-


mos hu, vi = x1 y 1 + ... + xn y n e obtemos um produto interno em Kn .

Exemplo 7.1.2 Seja V = C 0 ([0, 1], K) o espaço vetorial das funções con-
tínuas f Z: [0, 1] −→ K. Se f, g ∈ V , definimos um produto interno em V por
1
hf, gi = f (t)g(t)dt.
0

Exemplo 7.1.3 Seja V = C 1 ([0, 1], R) o espaço vetorial das funções con-
tínuas f : [0, 1] −→ R que têm derivada primeira
Z 1 contínua. Se f, g ∈ V ,
£ ¤
definimos um produto interno em V por hf, gi = f (t)g(t) + f 0 (t)g 0 (t) dt.
0

Exemplo 7.1.4 Sejam V1 e V2 espaços vetoriais sobre o mesmo corpo (R


ou C) e h, i2 um produto interno em V2 . Se T : V1 −→ V2 é linear injetora,

99
CAPÍTULO 7. PRODUTO INTERNO 100

definimos um produto¡ interno¢ em V1 por hu,¡ vi1 = hT


¢ (u), T (v)i2 . Por exem-
0 0
plo, seja T : V1 = C [0, 1], R −→ V2 = C [0, 1], R , h, i2 como no exemplo
t2
7.1.2 acima, tal queZ T (f )(t) = e− 2 f (t). É claro que T é linear injetora.
1
2
Portanto, hf, gi1 = e−t f (t)g(t)dt é um produto interno em V1 .
0

Definição 7.2 Seja V um espaço vetorial sobre Kp


munido de produto interno
h, i. Se v ∈ V definimos sua norma por kvk = hv, vi. A distância entre
u, v ∈ V é definida por d(u, v) = ku − vk.

Proposição 7.1 (Pitágoras) Seja V um espaço vetorial com produto interno


h, i. Se u, v ∈ V , então ku + vk2 = kuk2 + kvk2 se, e só se, Rehu, vi = 0,
onde Re z indica a parte real do número complexo z.

Dem. ku + vk2 = hu + v, u + vi = hu, ui + hu, vi + hv, ui+


+hv, vi = kuk2 + kvk2 + hu, vi + hu, vi = kuk2 + kvk2 +
+2Rehu, vi.
Portanto, ku + vk2 = kuk2 + kvk2 se, e só se, Rehu, vi = 0.

Corolário 7.1.1 Se hu, vi = 0 então ku + vk ≥ kuk com igualdade ⇔ v =


= 0.

Corolário 7.1.2 (lei do paralelogramo) Se u, v ∈ V , então:


¡ ¢
ku + vk2 + ku − vk2 = 2 kuk2 + kvk2 .

Proposição 7.2 Seja V um espaço vetorial com produto interno h, i. Então:


(a) kavk = |a| · kvk
(b) kvk > 0 se v 6= 0
(c) |hu, vi| ≤ kuk · kvk (desigualdade de Cauchy-Schwarz)
(d) ku + vk ≤ kuk + kvk (desigualdade triangular),
quaisquer que sejam u, v ∈ V e a ∈ K.

p p p
Dem. (a) kavk = hav, avi = aahv, vi = |a|2 · hv, vi = |a| · kvk.
(b) Se v 6= 0 temos hv, vi > 0, donde kvk > 0.
(c) A desigualdade é verdadeira para v = 0. Suponhamos v 6= 0 e deter-
minemos c ∈ K de modo que cv seja a projeção ortogonal de u ao longo de
hu, vi
v, isto é, tal que hu − cv, vi = 0, donde c = . Pelo corolário 7.1.1 da
hv, vi
CAPÍTULO 7. PRODUTO INTERNO 101

|hu, vi|
proposição 7.1 temos kuk ≥ kcvk = · kvk, donde, |hu, vi| ≤ kuk · kvk,
kvk2
com igualdade ⇔ u = cv.
u
36

u − cv

- -
cv v

(d) ku + vk2 = kuk2 + kvk2 + 2Rehu, vi ≤ kuk2 + kvk2 + 2|hu, vi| ≤


¡ ¢2
≤ kuk2 + kvk2 + 2kuk · kvk = kuk + kvk , donde a tese.

Exemplo 7.1.5 Aplicando a desigualdade de Cauchy-Schwarz aos exemplos


7.1.1 e 7.1.2 anteriores, obtemos:
¯ n ¯ Ã n !1/2 Ã n !1/2
¯X ¯ X X
¯ ¯
(7.1.1) ¯ xi y i ¯ ≤ |xi |2 · |yi |2
¯ ¯
¯Zi=11 ¯i=1 µZ 1 i=1
¶1/2 µZ 1 ¶1/2
¯ ¯
(7.1.2) ¯¯ f (t)g(t)dt¯¯ ≤ 2
|f (t)| dt · 2
|g(t)| dt .
0 0 0

Definição 7.3 Seja V um espaço vetorial com produto interno h, i. u, v ∈ V


são ortogonais ou perpendiculares se hu, vi = 0, o que indicamos por u⊥v.
Se S ⊂ V , definimos S ⊥ = {v ∈ V ; hu, vi = 0 ∀u ∈ S}. É imediato que S ⊥ é
um subespaço de V, chamado espaço ortogonal de S. Se U é o subespaço de V
gerado por S, então S ⊥ = U ⊥ pois se v é perpendicular a todos os elementos
de S, é perpendicular também às combinações lineares de elementos de S, ou
seja, aos elementos de U. Escrevemos v⊥S para indicar que v é perpendicular
a todos os elementos de S; neste caso, dizemos que v é perpendicular a S.

Exemplo 7.1.6 Sejam V = C 0 ([0, 2π],


Z R), g1 (t) = cos kt, g2 (t) = sen kt,

onde k é um inteiro positivo, hf, gi = f (t)g(t)dt. Temos:
0
Z 2π
2
kg1 k = cos2 kt · dt = π
0
Z 2π
2
kg2 k = sen2 kt · dt = π
0
CAPÍTULO 7. PRODUTO INTERNO 102

Os coeficientes de Fourier de f ∈ V são os números


Z 2π
hf, g1 i 1
ak = 2
= f (t)cos kt · dt,
kg1 k π 0
Z 2π
hf, g2 i 1
bk = = f (t)sen kt · dt
kg2 k2 π 0
Z 2π
a0 hf, 1i 1
e = = f (t)dt.
2 k1k2 2π 0
hu, vi
Devido a esse exemplo, é usual (no caso geral) chamar c = de
kvk2
coeficiente de Fourier de u em relação a v; o vetor cv é a projeção ortogonal
de u sobre v.
u
36

u − cv

- -
cv v

Definição 7.4 Seja V um espaço vetorial com produto interno h, i. Dizemos


que S ⊂ V é um conjunto ortogonal se dois vetores quaisquer de S são
ortogonais. S ⊂ V é um conjunto ortonormal se S é ortogonal e kvk = 1
para todo v ∈ S.

Exemplo 7.1.7 A base canônica de Kn é um conjunto ortonormal relativa-


mente ao produto interno usual de Kn .

Proposição 7.3 Seja V um espaço vetorial com produto interno h, i. Se


X ⊂ V é um conjunto ortogonal de vetores não nulos, então X é linearmente
independente.

Dem. Suponhamos a1 x1 + ... + an xn = 0, n ∈ N, ai ∈ K, xi ∈ X. Então:


n
X
hxi , ak xk i = 0, donde hxi , ai xi i = 0, isto é, ai kxi k2 = 0 e, portanto,
k=1
ai = 0 (i = 1, ..., n), o que mostra ser X linearmente independente.
CAPÍTULO 7. PRODUTO INTERNO 103

Proposição 7.4 Seja {v1 , ..., vn , ...} um conjunto ortogonal de vetores não-
nulos num espaço vetorial com produto interno h, i. Sejam v ∈ V e ci =
hv, vi i
(i = 1, 2, ...).
kvi k2 ° ° ° °
° X n ° ° Xn °
° ° ° °
(a) Se a1 , ..., an ∈ K, então °v − c i v i ° ≤ °v − ai vi °, com igualdade
° ° ° °
i=1 i=1
se, e só se, ai = ci (i = 1, ..., n)
v
µ

n
X
ci vi
- i=1
n
X n
X
ai vi
i=1
(ci − ai )vi
R
S i=1


X
(b) |ci |2 · kvi k2 ≤ kvk2 (desigualdade de Bessel)
i=1

n
X n
X
Dem. hv − ci vi , vj i = hv, vj i − ci hvi , vj i = cj kvj k2 − cj kvj k2 = 0 (j =
i=1 i=1
n
X
1, .., n), ou seja, o vetor v− ci vi é perpendicular ao subespaço S gerado por
i=1
X n
v1 , ..., vn ; em particular ao vetor (ci −ai )vi . Do corolário 7.1.1 do teorema
° i=1 ° ° °
° X n ° ° Xn °
° ° ° °
de Pitágoras, resulta que °v − ci vi ° ≤ °v − ai vi °, com igualdade se,
° ° ° °
i=1 i=1
X n
e só se, (ci − ai )vi = 0, o que equivale a ai = ci (i = 1, ..., n).
i=1
° °2
°Xn °
° °
Ainda pelo corolário 7.1.1 do teorema de Pitágoras, temos kvk2 ≥ ° ci vi ° =
° °
i=1
CAPÍTULO 7. PRODUTO INTERNO 104

n
X n
X
hci vi , cj vj i = |ci |2 kvi k2 , válida para todo n ∈ N. Portanto,
i,j=1 i=1


X
|ci |2 · kvi k2 ≤ kvk2 .
i=1

Exemplo 7.1.8 Dada a função contínua f : [0, 2π] −→ R, vamos achar,


a0
dentre os polinômios trigonométricos de grau m, P (t) = + a1 cos t +
2
b1 sen t + ... + am cos mt + bm sen mt, ai ∈ R, bi ∈ R, o que minimiza a
integral Z 2π
£ ¤2
f (t) − P (t) dt.
0
Z 2π
¢ 0
¡
Seja V = C [0, 2π], R com o produto interno hf, gi = f (t)g(t)dt.
0
As funções 1, cos t, sen t, ..., cos nt, sen nt, ... pertencem a V e formam um
conjunto ortogonal de vetores não-nulos, pois
Z 2π Z 2π Z 2π
cos kt · dt = sen kt · dt = cos kt · cos ht · dt =
0 0 0
Z 2π Z 2π
= cos kt · sen lt · dt = sen kt · sen lt · dt = 0
0 0
se k =
6 h, k 6= l, respectivamente, e
Z 2π Z 2π Z 2π
2 2
1 dt = 2π, cos kt · dt = sen2 kt · dt = π (k = 1, 2, ...)
0 0 0
Z 2π
2
£ ¤2
Pela proposição 7.4, kf −P k = f (t)−P (t) dt é mínimo quando os
0
coeficientes de P (t) são os coeficientes de Fourier de f em relação às funções
1, cos t, sen t, .... Então:
Z 2π Z
a0 1 1 2π
= f (t)dt, donde a0 = f (t)dt
2 2π 0 π 0
.
Z 2π Z 2π
1 1
ak = f (t)cos kt · dt e bk = f (t)sen kt · dt
π 0 π 0
E a desigualdade (abstrata) de Bessel, nos dá: Z
2 2π
a0 2 2 2 2
· 2π + a1 · π + b1 · π + ... + an · π + bn · π + ... ≤ |f (t)|2 dt,
4 0
CAPÍTULO 7. PRODUTO INTERNO 105

∞ Z
a20 X 2 2 1 2π
ou seja, + (an + bn ) ≤ |f (t)|2 dt,
2 n=1
π 0
que é a desigualdade clássica de Bessel.

Exercício Sejam a1 , ..., an reais não nulos. Prove:


µ ¶
2 2 1 1
(a1 + ... + an ) + ... + 2 ≥ n2 .
a21 an

7.2 Bases Ortonormais


Definição 7.5 Seja V um espaço vetorial com produto interno h, i. Uma
base (v1 , ..., vn ) de V é ortogonal se o conjunto {v1 , ..., vn } é ortogonal, isto é,
hvi , vj i = 0 se i 6= j. Se, além disso, kvj k = 1 (j = 1, ..., n) então (v1 , ..., vn )
é uma base ortonormal.

Proposição 7.5 Todo espaço vetorial com produto interno, de dimensão


finita n ≥ 1, tem uma base ortonormal.

Dem. Seja (u1 , ..., un ) base de V. A partir desta base vamos obter uma base
ortogonal, pelo chamado processo de ortogonalização de Gram-Schmidt.

v2 u2
6 µ

-
v1 = u1

Seja v1 = u1 (6= 0); para achar v2 ponhamos v2 = u2 − a1 v1 , onde a1 ∈ K


é escolhido de modo que hv2 , v1 i = 0, isto é, hu2 − a1 v1 , v1 i = 0, donde
hu2 , v1 i
a1 = .
kv1 k2
CAPÍTULO 7. PRODUTO INTERNO 106

v3 6

3 u3

- v2

R
u2

ª
v1 = u1

Como u1 e u2 são LI, é claro que v2 6= 0; além disso, o espaço gerado por
v1 e v2 é o mesmo gerado por u1 e u2 . A seguir, para achar v3 , ponhamos
v3 = u3 − b2 v2 − b1 v1 , onde b1 e b2 são escolhidos de modo que hv3 , v1 i =
hu3 , v1 i hu3 , v2 i
hv3 , v2 i = 0, donde b1 = 2
e b2 = .
kv1 k kv2 k2
Como u3 não está no espaço gerado por v1 e v2 , temos v3 6= 0; além disso,
o espaço gerado por v1 , v2 , v3 é o mesmo gerado por u1 , u2 , u3 . Por indução,
suponhamos construídos v1 , ..., vk−1 que formam um conjunto ortogonal de
vetores não-nulos e são tais que o espaço por eles gerado é o mesmo gerado
por u1 , ..., uk−1 . Para achar vk , ponhamos vk = uk − ck−1 vk−1 − ... − c1 v1 ,
onde c1 , ..., ck−1 são escolhidos de modo que hvk , v1 i = ... = hvk , vk−1 i = 0,
huk , v1 i huk , vk−1 i
donde c1 = 2
, ..., ck−1 = . Como uk não pertence ao espaço
kv1 k kvk−1 k2
gerado por v1 , ..., vk−1 temos vk 6= 0; além disso, o espaço gerado por v1 , ..., vk
é o mesmo gerado por u1 , ..., uk . Obteremos assim, por esse processo, uma
sequência (v1 , ..., vn ) de vetores não-nulos, dois a dois ortogonais, donde LI,
ou seja, uma base ortogonal de V. Para obter uma base ortonormal basta
vi
substituir cada vi por .
kvi k

Exemplo 7.2.1 Vamos achar uma Z 1 base ortogonal para o subespaço W de


¡ ¢
V = C 0 [0, 1], R , com hf, gi = f (t)g(t)dt, gerado pelas funções 1, t, t2 .
0
CAPÍTULO 7. PRODUTO INTERNO 107

ht, f1 i
Seja f1 (t) = 1 e tomemos f2 (t) = t − af1 (t) = t − a onde a = =
Z kf1 k2
1
1 1
t · dt = . Logo: f2 (t) = t − .
0 2 2
2
Ponhamos f3 (t) = t − bf2 (t) − cf1 (t), onde b, c ∈ R são dados por:
ht2 , f2 i ht2 , f1 i
b= e c = .
kf2 k2 kf1 k2
Temos:
Z 1 µ ¶2 Z 1
2 2 1 1 1
kf1 k = 1; kf2 k = t−dt = ; ht2 , f1 i = t2 dt = ;
0 2 12 0 3
Z 1 µ ¶
2 2 1 1
ht , f2 i = t t− dt = .
0 2 12
Logo:
1 1
f3 (t) = t2 − f2 (t) − f1 (t) = t2 − t + .
3 6
µ ¶
1 1
Portanto, 1, t − , t2 − t + é uma base ortogonal de W.
2 6

Proposição 7.6 Sejam V um espaço vetorial com produto interno h, i e W ⊂


V um subespaço de dimensão finita. Então:

V = W ⊕ W⊥

Dem. Seja (v1 , ..., vr ) uma base ortonormal de W. Se v ∈ V , seja


r
X
u=v− hv, vi ivi .
i=1

Temos:
r
X r
X
hu, vj i = hv − hv, vi ivi , vj i = hv, vj i − hv, vi iδij =
i=1 i=1

= hv, vj i − hv, vj i = 0 (j = 1, ..., r)


r
X

ou seja, u ∈ W . Como hv, vi ivi ∈ W , temos V = W + W ⊥ .
i=1
Se v ∈ W ∩ W ⊥ então hv, vi = 0, donde v = 0, isto é, W ∩ W ⊥ = {0}.
Logo: V = W ⊕ W ⊥ .
CAPÍTULO 7. PRODUTO INTERNO 108

Corolário 7.6.1 Nas condições da proposição 7.6, se V tem dimensão finita,


então: dim V = dim W + dim W ⊥ .
Obs. Sejam V um espaço vetorial com produto interno h, i e (e1 , ..., en ) uma
base ortonormal de V. Se u, v ∈ V , u = a1 e1 + ... + an en , v = b1 e1 + ... +
n
X n
X n
X
bn en , então hu, vi = hai ei , bj ej i = ai bj δij = ai bi , igual ao produto
i,j=1 i,j=1 i=1
interno usual dos vetores a = (a1 , ..., an ) e b = (b1 , ..., bn ) de Kn . Se a base
Xn
(e1 , ..., en ) não é ortonormal e se hei , ej i = gij ∈ K, então hu, vi = gij ai bj .
i,j=1
Se V é um espaço vetorial sobre K, de dimensão n, uma maneira de se
definir um produto interno em V é a seguinte: tome uma base arbitrária
(e1 , ..., en ) de V e defina o produto interno, de u = a1 e1 + ... + an en por
n
X
v = b1 e1 + ... + bn en , por meio de hu, vi = ai bi . Em relação a este produto
i=1
interno, a base (e1 , ..., en ) é ortonormal.

Exercícios
1. Seja E = (u1 , u2 , u3 ) a base de R3 formada pelos vetores u1 = (1, 1, 1), u2 =
(1, −1, 1) e u3 = (1, −1, −1), e seja F = (v1 , v2 , v3 ) a base ortogonal
obtida de E pelo processo de Gram-Schmidt. Ache a matriz P de pas-
sagem de E para F. Observe que P é triangular superior.

2. Dado o vetor unitário u = (α1 , ..., αn ) ∈ Rn forme a matriz A = (αi αj )


– n × n. Seja H : Rn −→ Rn o operador cuja matriz na base canônica
é In − 2A. Prove que para todo v ∈ Rn tem-se H(v) = v − 2hv, uiu e
que kHvk = kvk. (H é a reflexão no hiperplano de Rn cuja normal é
u).
X
3. Em MR (n) considere hA, Bi = aij bij , onde A = (aij ) e B = (bij ).
i,j
Mostre que h, i é um produto interno. Mostre que o subespaço A das
matrizes antissimétricas é o complemento ortogonal do subespaço S
das matrizes simétricas em MR (n).

7.3 Relações entre V e V ∗


Seja V um espaço vetorial com produto interno h, i. Se v ∈ V , a aplicação
Tv
u ∈ V 7−→ hu, vi ∈ K é uma forma linear, isto é, um elemento do dual

V = L(V, K).
CAPÍTULO 7. PRODUTO INTERNO 109

Proposição 7.7 Seja V um espaço vetorial de dimensão finita sobre K,


T
munido de um produto interno h, i. A aplicação v ∈ V 7−→ Tv ∈ V ∗ ,
Tv (u) = hu, vi, é bijetora.

Dem. Tv1 +v2 (u) = hu, v1 + v2 i = hu, v1 i + hu, v2 i = Tv1 (u) + Tv2 (u).
Tav (u) = hu, avi = ahu, vi = aTv (u), de modo que T não é linear se
K = C. Dizemos que ela é semi-linear.
T : V −→ V ∗ é injetora: Tv1 = Tv2 se, e só se, hu, v1 i = hu, v2 i para todo
u ∈ V ⇔ hu, v1 − v2 i = 0 para todo u ∈ V ⇔ v1 = v2 .
T : V −→ V ∗ é sobrejetora: dado w ∈ V ∗ , seja (v1 , ..., vn ) uma base
ortonormal de V e seja v = a1 v1 + ... + an vn com ai = w(vi ). Então, Tv (vi ) =
hvi , vi = ai = w(vi ), 1 ≤ i ≤ n, e, portanto, Tv = w.
Obs. No caso K = R a aplicação T é linear bijetora, isto é, um isomorfismo
entre V e V ∗ .
No caso K = C a aplicação T é semi-linear bijetora; ela é um anti-isomorfismo
entre V e V ∗ .
Se W ⊂ V é um subespaço, vimos que W ⊥ é subespaço de V e W 0 é
subespaço de V ∗ , onde
W ⊥ = {v ∈ V ; hu, vi = 0 ∀u ∈ W } e
W 0 = {α ∈ V ∗ ; α(u) = 0 ∀u ∈ W }.
Se v ∈ W ⊥ então Tv ∈ W 0 pois Tv (u) = hu, vi = 0 para todo u ∈ W .
Assim, T : V −→ V ∗ leva W ⊥ em W 0 .
Um argumento análogo ao usado na proposição 7.7 mostra que T : W ⊥ −→
W 0 é um isomorfismo no caso K = R e um anti-isomorfismo no caso K = C.
Observemos também que se dim V = n e dim W = r então dim W ⊥ = n−r,
como já vimos anteriormente.
A proposição 7.7 nos diz que, dado um funcional linear w ∈ V ∗ , existe
um e um único vetor v ∈ V tal que w = Tv , isto é, w(u) = hu, vi para todo
u ∈ V , ou seja, v ∈ V representa a forma linear w ∈ V ∗ .
Exemplo 7.3.1 Sejam U ⊂ Rn aberto e f : U −→ R uma aplicação difer-
enciável. A diferencial de f em p ∈ U é o funcional linear df (p) ∈ (Rn )∗ tal
∂f
que, para todo v ∈ Rn , df (p) · (v) = (p) = derivada de f no ponto p na
∂v
direção de v.
Considerando em Rn o produto interno usual, o vetor que representa df (p)
é o gradiente de f em p, Of (p) = grad f (p). Assim, Of (p) é o vetor de Rn
∂f
tal que df (p) · v = hOf (p), vi = (p). Se (e1 , ..., en ) é a base canônica de Rn
∂v
∂f
e Of (p) = a1 e1 + ... + an en , então ai = hOf (p), ei i = (p), (1 ≤ i ≤ n),
∂xi
CAPÍTULO 7. PRODUTO INTERNO 110
µ ¶
∂f ∂f
ou seja, Of (p) = (p), ..., (p) .
∂x1 ∂xn

Exemplo 7.3.2 Sejam V um espaço vetorial de dimensão finita sobre K,


com produto interno h, i, Tv (u) = hu, vi, que sabemos ser semi-linear bijetora.
Vamos definir um produto interno em V ∗ por meio de hTv , Tu i = hu, vi. De
fato, temos:
(a) hTv1 +Tv2 , Tu i = hTv1 +v2 , Tu i = hu, v1 +v2 i = hu, v1 i+hu, v2 i = hTv1 , Tu i+
hTv2 , Tu i.
(b) haTv , Tu i = hTav , Tu i = hu, avi = ahu, vi = ahTv , Tu i.
(c) hTv , Tu i = hu, vi = hv, ui = hTu , Tv i.
(d) hTv , Tv i = hv, vi = kvk2 > 0 se v 6= 0.
A partir de (V ∗ , h, i), usando o método acima, podemos introduzir um pro-
duto interno em V ∗∗ . Seja L : V ∗ −→ V ∗∗ definido por Lα (β) = hβ, αi, α, β ∈
V ∗ . Definimos hLα , Lβ i = hβ, αi. Vamos mostrar que L ◦ T : V −→ V ∗∗
coincide com o isomorfismo canônico J : V −→ V ∗∗ , Jv (α) = α(v), v ∈
V, α ∈ V ∗ , isto é, vamos mostrar que LTv = Jv .
Temos: LTv (Tu ) = hTu , Tv i = hv, ui = Tu (v) = Jv (Tu ), donde resulta
LTv = Jv , ou seja, L ◦ T = J.

7.4 Adjunta
Sejam V e W espaços vetoriais de dimensão finita, ambos com produto in-
terno, e T : V −→ W linear.

Proposição 7.8 Existe uma única aplicação linear T ∗ : W −→ V tal que


hT v, wi = hv, T ∗ wi para todo v ∈ V e todo w ∈ W .

Dem. Seja w ∈ W fixo mas arbitrário e seja β : V −→ K o funcional


linear definido por β(v) = hT v, wi. Pela proposição 7.7 existe um único
u = T ∗ w ∈ V tal que β(v) = hv, T ∗ wi, ou seja, hT v, wi = hv, T ∗ wi. Vamos
mostrar que T ∗ : W −→ V assim definida é linear. Se v ∈ V, w1 , w2 ∈ W
temos:
hv, T ∗ (w1 + w2 )i = hT v, w1 + w2 i = hT v, w1 i + hT v, w2 i = hv, T ∗ w1 i +
hv, T ∗ w2 i = hv, T ∗ w1 + T ∗ w2 i o que mostra ser T ∗ (w1 + w2 ) igual a T ∗ w1 +
T ∗ w2 .
Se a ∈ K, temos: hv, T ∗ (aw)i = hT v, awi = ahT v, wi = ahv, T ∗ wi =
hv, aT ∗ wi para todo w ∈ W , donde T ∗ (aw) = aT ∗ (w).

Definição 7.6 A aplicação linear T ∗ : W −→ V tal que hT v, wi = hv, T ∗ wi


quaisquer que sejam v ∈ V , w ∈ W , chama-se a adjunta de T. Se V = W e
CAPÍTULO 7. PRODUTO INTERNO 111

T = T ∗ o operador linear T : V −→ V chama-se auto-adjunto (se K = R diz-


se também que T é simétrico; se K = C diz-se também que T é hermitiano).

Proposição 7.9 Seja V um espaço vetorial de dimensão finita sobre K, com


produto interno h, i. Se a ∈ K e L, T : V −→ V são lineares, então:
(a) (L + T )∗ = T ∗ + L∗ ;
(b) (aT )∗ = a · T ∗ ;
(c) (L ◦ T )∗ = T ∗ ◦ L∗ ;
(d) (T ∗ )∗ = T .

Dem.
(a) h(L+T )(u), vi = hLu+T u, vi = hLu, vi+hT u, vi = hu, L∗ vi+hu, T ∗ vi =
= hu, L∗ v + T ∗ vi = hu, (L∗ + T ∗ )(v)i quaisquer que sejam u, v ∈ V .
Portanto: (L + T )∗ = L∗ + T ∗ .
(b) h(aT )(u), vi = haT (u), vi = ahu, T ∗ vi = hu, aT ∗ (v)i =
= hu, (aT ∗ )(v)i, donde (aT )∗ = aT ∗ .
(c) h(L ◦ T )(u), vi = hL(T u), vi = hT u, L∗ vi = hu, T ∗ L∗ vi = hu, T ∗ ◦ L∗ (v)i,
donde (L ◦ T )∗ = T ∗ ◦ L∗ .
(d) hT ∗ u, vi = hv, T ∗ ui = hT v, ui = hu, T vi, donde (T ∗ )∗ = T .
Obs. Se L = L∗ e T = T ∗ são operadores auto-adjuntos em V, então
(L ◦ T )∗ = T ∗ ◦ L∗ = T ◦ L e L ◦ T é auto-adjunto se, e só se, T ◦ L = L ◦ T .

Exemplo 7.4.1 Sejam V e W espaços vetoriais de dimensão finita munidos


de produto interno, E = (v1 , ..., vn ) e F = (w1 , ..., wm ) bases ortonormais de
£ ¤E
V e W, respectivamente. Se T : V −→ W é linear e T F = A = (aij ) –
£ ¤F t
m × n, vamos mostrar que T ∗ E = A∗ = A , A∗ = (bij ) – n × m.
Temos:
hvi , T ∗ wj i = hT vi , wj i
Mas: n
X

hvi , T wj i = hvi , bkj vk i = bij
k=1
m
X
hT vi , wj i = haki wk , wj i = aji .
k=1
t
Portanto, bij = aji , donde A∗ = A .

Definição 7.7 Seja A = (aij ) – m × n. A adjunta de A é a matriz A∗ =


t
A = (bij ) – n × m, onde bij = aji . Se A é quadrada e A = A∗ dizemos que
A é auto-adjunta (simétrica se K = R, hermitiana se K = C).
CAPÍTULO 7. PRODUTO INTERNO 112

Exemplo 7.4.2 Os autovalores de um operador auto-adjunto T = T ∗ :


V −→ V são reais.
De fato, se v 6= 0 e T v = λv = T ∗ v, temos:
hT v, vi = hv, T ∗ vi, donde, hλv, vi = hv, λvi e daí vem: λhv, vi = λhv, vi,
donde λ = λ.

Exemplo 7.4.3 Os autovetores, associados a autovalores distintos, de um


operador auto-adjunto T = T ∗ : V −→ V , são ortogonais.
De fato, se T v1 = λ1 v1 , T v2 = λ2 v2 , λ1 6= λ2 , então
(λ1 − λ2 )hv1 , v2 i = hλ1 v1 , v2 i − hv1 , λ2 v2 i = hT v1 , v2 i − hv1 , T v2 i = 0, donde
hv1 , v2 i = 0.
Obs. A proposição 7.8 mostra que se dim V é finita, todo T ∈ L(V ) tem
um adjunto T ∗ ∈ L(V ). Se V não tem dimensão finita, dado T ∈ L(V ) pode
ou não existir T ∗ ∈ L(V ) tal que hT v, ui = hv, T ∗ ui para u, v ∈ V quaisquer.

Exemplo 7.4.4 Seja V o espaço vetorial real das funções f : R −→ R



de
Z classe C que se anulam fora de [0, 1], com o produto interno hf, gi =
1
f (t)g(t)dt. Seja D : V −→ V o operador de derivação. Temos:
0
Z 1 ¯1 Z 1
0 ¯
hDf, gi = f (t)g(t)dt = f (t)g(t)¯ − f (t)g 0 (t)dt = −hf, Dgi = hf, D∗ gi,
0 0 0

donde D∗ = −D. Neste exemplo V tem dimensão infinita.

Proposição 7.10 Seja V um espaço vetorial complexo, de dimensão finita,


munido de um produto interno h, i. Se T : V −→ V é linear e tal que
hT v, vi = 0 para todo v ∈ V , então T = 0.

Dem. Se u, v ∈ V , temos a identidade

hT (u + v), u + vi − hT u, ui − hT v, vi = hT u, vi + hT v, ui.

Mas se hT w, wi = 0 para todo w ∈ V , então essa identidade nos dá:

hT u, vi + hT v, ui = 0 ¤

Substituindo-se u por iu (i2 = −1), obtemos:


hT v, iui + hT (iu), vi = 0, donde
−ihT v, ui + ihT u, vi = 0, ou ainda
−hT v, ui + hT u, vi = 0 ♦
Somando ¤ com ♦, vem: 2hT u, vi = 0, donde hT u, vi = 0 para todo u ∈ V
e para todo v ∈ V , donde T = 0.
CAPÍTULO 7. PRODUTO INTERNO 113

Proposição 7.11 Sejam V um espaço vetorial real, de dimensão finita, mu-


nido de um produto interno h, i e T : V −→ V linear simétrico. Se hT v, vi =
0 para todo v ∈ V , então T = 0.

Dem. A identidade hT (u + v), u + vi − hT u, ui − hT v, vi = hT u, vi + hT v, ui


nos dá
hT u, vi + hT v, ui = 0.
Mas, hT v, ui = hv, T ui = hT u, vi.
Portanto, 2hT u, vi = 0, donde T = 0.

Proposição 7.12 Sejam V, W espaços vetoriais de dimensão finita sobre


K, munidos de produto interno, e T : V −→ W linear. Então:

(a) N (T ∗ ) = (Im T )⊥ ; (b) Im T ∗ = N (T )⊥


(c) N (T ) = (Im T ∗ )⊥ ; (d) Im T = N (T ∗ )⊥

Dem. É suficiente provar (a), as outras igualdades sendo consequências


imediatas. Temos:
v ∈ N (T ∗ ) ⇔ T ∗ v = 0 ⇔ hu, T ∗ vi = 0 para todo u ∈ V ⇔ hT u, vi = 0 para
todo u ∈ V ⇔ v ∈ (Im T )⊥ .

Corolário 7.12.1 O posto de T ∗ é igual ao posto de T.


Dem. dim Im T ∗ = dim V − dim N (T ) = dim Im T

N (T ) N (T ∗ )
T -

Im(T ∗ ) Im(T )

¾
T∗

7.5 Exercícios do Capítulo 7


1. Seja V um espaço vetorial sobre K munido de um produto interno, e seja
(v1 , ..., vn ) uma base de V. Dados a1 , a2 , ..., an ∈ K arbitrários, prove
que existe um, e um único, vetor w ∈ V tal que hw, vj i = aj , 1 ≤ j ≤ n.

2. Se T é invertível e T ST ∗ é auto-adjunto, prove que S é auto-adjunto.


CAPÍTULO 7. PRODUTO INTERNO 114

3. Seja T : V −→ V um operador diagonalizável. Prove que é possível


definir um produto interno em V em relação ao qual T = T ∗ .

4. Seja V um espaço vetorial de dimensão finita sobre K e seja T : V −→


V um operador diagonalizável.
¯ Se W ⊂ V é um subespaço tal que
T (W ) ⊂ W , prove que T ¯W : W −→ W é diagonalizável em W.

5. Sejam S, T : V −→ V operadores auto-adjuntos. Prove que existe base


ortonormal de V formada por autovetores comuns a S e T se, e só se,
S ◦ T = T ◦ S.

6. Seja Mn (C) o espaço vetorial complexo das matrizes n × n. Prove que


hA, Bi = tr(AB ∗ ) é um produto interno em Mn (C) e ache o comple-
t
mento ortogonal do subespaço das matrizes diagonais (Obs. B ∗ = B ).

7. Seja W um subespaço de dimensão finita de um espaço vetorial V mu-


nido de produto interno. Se E : V −→ W é a projeção ortogonal de V
sobre W, prove que hE(u), vi = hu, E(v)i para u, v ∈ V quaisquer.

8. Sejam V = W1 ⊕ W2 , h, i1 e h, i2 produtos internos em W1 e W2 respec-


tivamente. Mostre que existe um único produto interno h, i em V tal
que W2 = W1⊥ e hu, vi = hu, vik quando u, v ∈ Wk , k = 1, 2.

9. Seja V um espaço vetorial complexo com produto interno. Prove que


T : V −→ V linear é auto-adjunto se, e só se, hT v, vi é real para todo
v ∈V.
Capítulo 8

Operadores Unitários e Normais

8.1 Definições
Definição 8.1 Sejam V, W espaços vetoriais sobre K, munidos de produto
interno. Dizemos que T : V −→ W é uma isometria se T é linear bijetora e
hT u, T vi = hu, vi quaisquer que sejam u, v ∈ V .
Assim, uma isometria é um isomorfismo que preserva o produto interno.

Proposição 8.1 Seja V um espaço vetorial com produto interno. Então:


4hu, vi = ku + vk2 − ku − vk2 se K = R.
4hu, vi = ku + vk2 − ku − vk2 + iku + ivk2 − ihu − ivi2 se K = C, quaisquer
que sejam u, v ∈ V .
Dem. Exercício.

Proposição 8.2 Sejam V, W espaços vetoriais de mesma dimensão finita


sobre K, munidos de produto interno, e T : V −→ W linear. São equiva-
lentes:
(a)hT u, T vi = hu, vi; (b)kT vk = kvk;
(c) T é isometria; (d) T leva base ortonormal de V em base ortonormal de W;
(e) T leva alguma base ortonormal de V em base ortonormal de W.

Dem. (a) ⇒ (b): Óbvio.


(b) ⇒ (c): se v 6= 0 então T (v) 6= 0, donde T é injetora e, como dim V =
dim W , T é bijetora. Pela proposição 8.1, e pela hipótese, temos (no caso
K = C):
4hT u, T vi = kT (u + v)k2 − kT (u − v)k2 + ikT (u + iv)k2 − ikT (u − iv)k2 =
= ku + vk2 − ku − vk2 + iku + ivk2 − iku − ivk2 = 4hu, vi, donde hT u, T vi =
hu, vi. Portanto, T é isometria.

115
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 116

(c) ⇒ (d): seja (v1 , ..., vn ) base ortonormal de V. Como T é isomorfismo,


(T v1 , ..., T vn ) é base de W. Do fato de ser hT vi , T vj i = hvi , vj i = δij , resulta
que essa base de W é ortonormal.
(d) ⇒ (e): Óbvio.
(e) ⇒ (a): seja (v1 , ..., vn ) base ortonormal de V tal que (T v1 , ..., T vn ) seja
base ortonormal de W. Então:

hT vi , T vj i = hvi , vj i = δij .

Se u = a1 v1 + ... + an vn e v = b1 v1 + ... + bn vn , então:


n
X Xn n
X n
X
hu, vi = ai bi e hT u, T vi = h ai T (vi ), bj T (vj )i = ai bj hT vi , T vj i =
i=1 i=1 j=1 i,j=1
n
X n
X
= ai bj δij = ai bi .
i,j=1 i=1
Portanto,
hT u, T vi = hu, vi

Corolário 8.2.1 Sejam V, W espaços vetoriais de dimensão finita sobre K,


munidos de produto interno. V e W são isométricos (isto é, existe isometria
T : V −→ W ) se, e só se, dim V = dim W .

Dem. Sejam (v1 , ..., vn ) e (w1 , ..., wn ) bases ortonormais de V e W, respecti-


vamente. Definamos T : V −→ W linear por T (vi ) = wi , 1 ≤ i ≤ n. Então
T é isometria. A recíproca é imediata.

Definição 8.2 Sejam V um espaço vetorial com produto interno h, i e T :


V −→ V linear. Dizemos que T é um operador unitário se T é uma isome-
tria.
No caso de V ter dimensão finita, a proposição 8.2 mostra que T é
unitário se, e só se, preserva o produto interno. No caso em que K = R
um operador unitário é usualmente chamado de ortogonal.

Exemplo 8.1.1 Seja V1 = C 0 ([0, 1], R) o espaço vetorialZ real das funções
1
2
contínuas f : [0, 1] −→ R com o produto interno hf, gi1 = f (t)g(t)e−t dt,
Z0 1
0
e seja V2 = C ([0, 1], R) com o produto interno hf, gi2 = f (t)g(t)dt. A
0
2
− t2
aplicação T : V1 −→ V2 definida por (T f )(t) = e f (t),Z t ∈ [0, 1], é linear
1
2
bijetora e preserva o produto interno pois hT f, T gi2 = e−t f (t)g(t)dt =
0
hf, gi1 . Portanto, T : V1 −→ V2 é uma isometria.
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 117

Proposição 8.3 Sejam V um espaço vetorial com produto interno, de di-


mensão finita e T : V −→ V linear. T é unitário se, e só se, T ∗ ◦ T = I(=
T ◦ T ∗ ).

Dem. T é unitário se, e só se, hT u, T vi = hu, vi para todo u, v ∈ V , o que


equivale a hT ∗ T u, vi = hu, vi e, portanto, equivale a T ∗ · T = I.

Definição 8.3 Dizemos que A ∈ Mn (K) é unitária se A∗ A = In . Lembre-


mos que A∗ = At . Se K = R temos A∗ = At e é usual dizer que A é ortogonal
se At A = In .

Corolário 8.3.1 Sejam V um espaço vetorial de dimensão finita, munido de


um produto interno e T : V −→ V linear. T é unitário se, e só se, a matriz
de T em alguma (ou toda) base ortonormal de V é uma matriz unitária.
Dem. Imediata.

Exemplo 8.1.2 Consideramos o Rn com o produto interno usual. Um movimento


rígido é uma aplicação T : Rn −→ Rn tal que kT u − T vk = ku − vk para
todo u, v ∈ Rn . Por exemplo, Tv0 (v) = v + v0 , onde v0 ∈ Rn é fixo, ou seja,
uma translação, é um movimento rígido.
(a) Vamos mostrar que se T : Rn −→ Rn é um movimento rígido tal
que T (0) = 0, então T é linear e ortogonal. Observemos que, neste caso,
kT uk = kT (u) − T (0)k = ku − 0k = kuk. Além disso,

kT u − T vk2 = hT u − T v, T u − T vi = kT uk2 + kT vk2 − 2hT u, T vi.

Por outro lado, kT u − T vk2 = ku − vk2 = kuk2 + kvk2 − 2hu, vi.


Resulta: hT u, T vi = hu, vi, ou seja, se T é movimento rígido e T (0) = 0,
então T preserva o produto interno.
Temos:

kT (u+v)−T (u)−T (v)k2 = kT (u+v)k2 +kT uk2 +kT vk2 −2hT (u+v), T (u)i−

−2hT (u + v), T (v)i + 2hT u, T vi = ku + vk2 + kuk2 + kvk2 − 2hu + v, ui−


−2hu + v, vi + 2hu, vi = 2kuk2 + 2kvk2 + 2hu, vi − 2kuk2 − 2kvk2 − 4hu, vi+
+2hu, vi = 0. Logo: T (u + v) = T (u) + T (v).
Analogamente,

kT (av)−aT (v)k2 = kT (av)k2 +a2 kT vk2 −2ahT (av), T (v)i = kavk2 +a2 kvk2 −
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 118

−2ahav, vi = 0.
Logo: T (av) = aT (v), a ∈ R.
Portanto, T é uma aplicação linear ortogonal.
(b) Sejam T : Rn −→ Rn movimento rígido, T (0) = v0 e T−v0 (v) = v −v0 .
A composta de movimentos rígidos é um movimento rígido, como é fácil de
se verificar, de modo que L = T−v0 ◦ T é um movimento rígido e L(0) =
T−v0 (T (0)) = T−v0 (v0 ) = 0. Pela parte (a) vem que L : Rn −→ Rn é um
operador ortogonal. Como (T−v0 )−1 = Tv0 e L = T−v0 ◦ T , vem L = T−v
−1
0
◦T,
donde T = Tv0 ◦ L, ou seja, todo movimento rígido é a composta de uma
translação com um operador ortogonal:

T (v) = L(v) + v0 , para todo v ∈ Rn .

Definição 8.4 Sejam V um espaço vetorial de dimensão finita sobre K, mu-


nido de um produto interno e T : V −→ V linear. Dizemos que T é normal
se T comuta com seu adjunto, isto é, se T ◦ T ∗ = T ∗ ◦ T . É claro que todo
operador auto-adjunto é normal, bem como todo operador unitário; é claro
também que se T : V −→ V é normal e a ∈ K, então aT é normal. Em geral,
a soma e o produto (composta) de operadores normais não são normais, mas
vale o seguinte resultado.

Proposição 8.4 Sejam V um espaço vetorial de dimensão finita sobre K,


munido de um produto interno e T1 , T2 : V −→ V operadores normais. Se
T1 ◦ T2∗ = T2∗ ◦ T1 (ou T2 ◦ T1∗ = T1∗ ◦ T2 ), então T1 + T2 e T1 ◦ T2 são operadores
normais.

Dem. É claro que T1 ◦ T2∗ = T2∗ ◦ T1 se, e só se, T2 ◦ T1∗ = T1∗ ◦ T2 .


Temos:

(T1 + T2 )(T1 + T2 )∗ = (T1 + T2 )(T1∗ + T2∗ ) = T1 ◦ T1∗ + T1 ◦ T2∗ + T2 ◦ T1∗ + T2 ◦ T2∗ .

E:

(T1 +T2 )∗ ·(T1 +T2 ) = (T1∗ +T2∗ )(T1 +T2 ) = T1∗ ◦T1 +T1∗ ◦T2 +T2∗ ◦T1 +T2∗ ◦T2 .

Como T1 ◦T1∗ = T1∗ ◦T1 , T2 ◦T2∗ = T2∗ ◦T2 , T1 ◦T2∗ = T2∗ ◦T1 e T2 ◦T1∗ = T1∗ ◦T2 ,
vem que T1 + T2 é normal.
Temos também:

T1 T2 (T1 T2 )∗ = T1 T2 T2∗ T1∗ = T1 T2∗ T2 T1∗ = T2∗ T1 T1∗ T2 = T2∗ T1∗ T1 T2 = (T1 T2 )∗ T1 T2 ,

donde T1 T2 é normal.
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 119

Proposição 8.5 Sejam V um espaço vetorial complexo de dimensão finita,


munido de um produto interno, e T : V −→ V linear. T é normal se, e só
se, kT ∗ vk = kT vk para todo v ∈ V .

Dem. kT ∗ vk = kT vk se, e só se, hT ∗ v, T ∗ vi = hT v, T vi se, e só se,


hT T ∗ v, vi = hT ∗ T v, vi para todo v ∈ V se, e só se, T T ∗ = T ∗ T pela
proposição 7.10.

Definição 8.5 Dizemos que A ∈ Mn (K) é normal se AA∗ = A∗ A.


Obs. É imediato verificar que T : V −→ V é normal se, e só se, a matriz
de T numa base ortonormal de V é uma matriz normal.
· ¸
1 i
Exemplo 8.1.3 A = é normal pois
i 1
· ¸
∗ t 1 −i
A =A =
−i 1
e ¸·
∗ ∗2 0
AA = A A = .
0 2

Exemplo 8.1.4 T : V −→ V é normal ⇔ T − λI é normal, λ ∈ K.


Temos: (T − λI)(T − λI)∗ = (T − λI)(T ∗ − λI) = T T ∗ − λT ∗ − λT + |λ|2 I.
(T − λI)∗ · (T − λI) = (T ∗ − λI)(T − λI) = T ∗ T − λT − λT ∗ + |λ|2 I.
Logo, T − λI é normal ⇔ T T ∗ = T ∗ T ⇔ T é normal.

Exemplo 8.1.5 Se V é um espaço vetorial complexo, T : V −→ V é normal


e T v = λv, v 6= 0, então T ∗ v = λv.
De fato, se T é normal, então k(T − λI)vk = k(T ∗ − λI)(v)k = 0, donde
T ∗ v = λv. Se T é unitário então hT v, T vi = hλv, λvi = |λ|2 hv, vi = hv, vi,
donde |λ| = 1.

Proposição 8.6 (Teorema Espectral para Operadores Normais)


Sejam V um espaço vetorial de dimensão finita n ≥ 1 sobre o corpo K,
munido de um produto interno, e T : V −→ V um operador normal. Se o
polinômio característico de T tem todas suas raízes em K (por exemplo, se
K = C), então existe base ortonormal F de V formada por autovetores de
T, isto é, a matriz [T ]F
F é diagonal.
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 120

Dem. Já vimos que existe base E de V na qual a matriz de T é triangular


superior. Usando o processo de Gram-Schmidt obtemos, a partir de E, uma
base ortonormal F = (v1 , ..., vn ) de V na qual [T ]F
F = B = (bij ) é triangular
superior e temos [T ]F = B = B . Como T ◦ T = T ∗ ◦ T obtemos BB ∗ =
∗ F ∗ t ∗

B ∗ B. Comparando os elementos diagonais de BB ∗ e B ∗ B, vemos que:

|b11 |2 +|b12 |2 + ... +|b1n |2 = |b11 |2


|b22 |2 + ... +|b2n |2 = |b12 |2 + |b22 |2
.. ,
.
|bnn |2 = |b1n |2 + |b2n |2 + ... + |bnn |2

donde resulta que bij = 0 para i 6= j, ou seja, B é diagonal e F = (v1 , ..., vn )


é base ortonormal de V formada por autovetores de T.

Corolário 8.6.1 Se K = C e T é unitário, então T é diagonalizável.

Corolário 8.6.2 S e T é auto-adjunto, então T é diagonalizável.

Obs. A recíproca da proposição 8.6 também é verdadeira, isto é, se


existe base ortonormal F de V formada porautovetores de
 T, então Té
λ1 0 λ1 0
F  . ..  ∗  . .. 
normal. De fato, se [T ]F = B =   então B =  e
0 λn 0 λn
 2

|λ1 | 0
∗ ∗  . .. 
BB = B B =   e B é normal, donde T é normal.
2
0 |λn |

8.2 Operadores Positivos


Definição 8.6 Sejam V um espaço vetorial com produto interno e T : V −→
V linear. Dizemos que T é positivo, e escrevemos T > 0, se T = T ∗ e
hT v, vi > 0 para todo v 6= 0. Se T = T ∗ e hT v, vi ≥ 0 para todo v ∈ V ,
dizemos que T é não-negativo, e escrevemos T ≥ 0.

Proposição 8.7 Um operador auto-adjunto T : V −→ V é positivo (resp.


não-negativo) se, e só se, seus autovalores são todos positivos (resp. não-
negativos).
Dem. Se T > 0 e T v = λv com v 6= 0, então λhv, vi = hλv, vi = hT v, vi > 0,
donde λ > 0. Reciprocamente, se os autovalores de T são todos positivos,
seja (v1 , ..., vn ) base ortonormal de V tal que T vi = λi vi , 1 ≤ i ≤ n. Se
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 121

n
X n
X n
X
v ∈ V então v = ai vi e hT v, vi = hai λi vi , aj vj i = λi |ai |2 > 0,
i=1 i,j=1 i=1
donde T > 0. O caso T ≥ 0 é análogo.

Corolário 8.7.1 Seja T ≥ 0. Se v ∈ V é tal que hT v, vi = 0, então T v = 0.


X r
Dem. Sejam λ1 , ..., λr os autovalores não-nulos de T e v = ai vi como
i=1
r
X
acima. Então, hT v, vi = 0 nos dá λi |ai |2 = 0 donde a1 = ... = ar = 0, o
i=1
que implica T v = 0.

Corolário 8.7.2 T : V −→ V é positivo se, e só se, T é invertível e T ≥ 0.


Dem. Se T > 0 então T ≥ 0 e T v 6= 0 para todo v 6= 0, donde T é invertível.
Reciprocamente, se T ≥ 0 é invertível então T v 6= 0 para todo v 6= 0 e hT v, vi
é positivo pelo corolário 8.7.1, donde T > 0.

Obs. Seja T : V −→ V , dim V = n, um operador normal. Se E =


(u1 , ..., un ) é base ortonormal de V e A = [T ]EE então AA∗ = A∗ A. Seja
F = (v1 , ..., vn ) base ortonormal de V formada por autovetores de T. Então:
 
λ1 0
 ... 
[T ]F
F =   = D.
0 λn

Temos:
[T ]F E E F
F = [I]F · [T ]E · [I]E ,

donde P −1 AP = D, onde P = [I]F


E é a matriz de passagem da base ortonormal
E para a base ortonormal F, ou seja, P é unitária. Resulta que toda matriz
normal pode ser unitariamente diagonalizada. Se A é matriz simétrica então
P é ortogonal.
   
1 −2 −2 1 − λ −2 −2
Exemplo 8.2.1 Seja A = −2 1 −2. Então: det(A−λI) =  −2 1 − λ −2  =
−2 −2 1 −2 −2 1 − λ
2
= (3 − λ) (−3 − λ).

(a) λ = −3:
4x1 − 2x2 − 2x3 = 0
−2x1 − 4x2 − 2x3 = 0 ,
−2x1 − 2x2 − 4x3 = 0
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 122
   √ 
1 1/√3
f
donde X1 = 1 é autovetor, donde X1 = 1/√3 é autovetor unitário.
  
1 1/ 3
 
−1
f
(b) λ = 3: −2x1 − 2x2 − 2x3 = 0, donde x1 = −x2 − x3 e X2 =  1
  0
−1
f
e X3 =  f2 e X
0  são autovetores. Como X f3 não são ortogonais, usamos
1
 √ 
−1/√ 2
Gram-Schmidt para ortogonalizá-los. Obtemos: X2 =  1/ 2  e X3 =
0
 √ 
−1/√6
−1/ 6.

2/ 6
3
Os vetores
√ X1 , X√2 , X3 formam
√  uma base ortonormal de R de modo que
1/√3 −1/√ 2 −1/√6
H = 1/√3 1/ 2 −1/√ 6 é matriz ortogonal (H −1 = H t ) tal que

1/ 3  0 2/ 6
−3 0
−1
H AH = D =  3 .
0 3
Definição 8.7 Seja A = (aij ) ∈ Mn (K). Dizemos que A é positiva (resp.
não-negativa) se o operador TA : Kn −→ Kn TA (x) = Ax, é positivo (resp.
t
não-negativo). Assim, A > 0 se, e só se, A = A (A é hermitiana) e
Xn
hTA (x), xi = hAx, xi = aij xi xj > 0 para todo x = (x1 , ..., xn ) 6= 0.
i,j=1
Da proposição 8.7 resulta que uma matriz hermitiana é positiva se, e só se,
seus autovalores são todos positivos.
Definição 8.8 Uma matriz B = (bij ) – n × n – chama-se raiz quadrada de
A = (aij ) – n × n – se A = B 2 .
Proposição 8.8 Toda matriz positiva (resp. não-negativa) A = (aij ) – n×n
– tem raiz quadrada positiva (resp. não negativa).
Dem. Sejam λ1 , ..., λn os autovalores de A, todos positivos. Pelo
 teorema es-
λ1 0
−1  . .. 
pectral existe matriz unitária P – n×n – tal que P AP = D =  .
0 λn
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 123
p 
λ1 0
 ..  2
Seja B =  . ; então B = D.
p
0 λn
Seja C = P BP , donde C 2 = P B 2 P −1 = P DP −1 = A, ou seja, a
−1

matriz C é raiz quadrada de A > 0, e C > 0 pois é auto-adjunta e seus


autovalores são positivos.

Obs. Os autovalores de um operador normal, associados a autovalores


distintos, são ortogonais. De fato, sejam: T v = αv, T u = βu, α 6= β, u, v ∈
V.
Temos: hT v, ui − hv, T ∗ ui = 0, donde hαv, ui − hv, βui = 0, donde (α −
β)hv, ui = 0, donde hv, ui = 0 pois α 6= β.

8.3 Matrizes Simétricas Positivas. Decomposição


de Cholesky
Definição 8.9 Seja A = (aij ) – n × n – e s ≤ n um natural. A submatriz
principal de ordem s de A é a submatriz As obtida de A pela supressão das
últimas (n − s) linhas e colunas.
 
a11 a12 a13 · ¸
a a
Exemplo 8.3.1 A = a21 a22 a23 . Então: A1 = [a11 ]; A2 = 11 12
a21 a22
a31 a32 a33
e A3 = A.

Proposição 8.9 Seja A uma matriz simétrica de ordem n. São equivalentes:


t
(a)
 A é positiva (A > 0), isto é, hAx, xi = x Ax > 0 para todo x 6= 0,
x1
 .. 
x =  .  ∈ Rn .
xn
(b) As submatrizes principais A1 , ..., An de A são todas positivas.
(c) A pode ser reduzida à forma triangular superior usando-se apenas
operações do tipo Tij (λ) e com pivôs positivos.
(d) A tem uma fatoração (de Cholesky) A = LLt onde L é triangular
inferior com elementos diagonais positivos.

Dem.
(a) ⇒ (b): Seja 1 ≤ s ≤ n; vamos provar que As > 0. Seja Xs =
(x1 , ..., xs )t 6= 0 em Rs e X = (x1 , ..., xs , 0, ..., 0)t ∈ Rn .
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 124

Então: Xst As Xs = X t AX > 0, ou seja, As > 0 (donde det As > 0 já que


det As é o produto dos autovalores de As , todos positivos).
(b) ⇒ (c): Para simplificar, vamos tomar uma matriz 4 × 4:
 
a11 a12 a13 a14
a21 a22 a23 a24 
A= a31 a32 a33 a34  .

a41 a42 a43 a44

Por hipótese, A1 > 0, A2 > 0, A3 > 0, A4 = A > 0. Em particular,


det A1 = a11 > 0 e podemos usá-lo como pivô, de modo que
 
a11 a12 a13 a14
 (1) 
 
A −→ A(1) =  0 a22 × ×  ,
 0 × × ×
0 × × ×
à !
a11 a12 (1) det A2
onde det (1) = det A2 > 0, donde a22 = > 0, e podemos usar
0 a22 a11
(1)
a22 como pivô, obtendo
 
a11 a12 a13 a14
 (1) 
(1) (2) 0 a22 × ×
A −→ A −→ A = (2) .
0 0 a33 ×
0 0 × ×

(1) (2) (2)


Como det A3 = a11 · a22 · a33 > 0, resulta a33 > 0 e podemos usá-lo como
pivô, obtendo
 
a11 a12 a13 a14
 (1) 
 0 a 22 × × 
A −→ A(1) −→ A(2) −→ A(3) =  0 (2)
 = U,

 0 a 33 × 
(3)
0 0 0 a44

(3) (3)
com det A4 = det A3 · a44 > 0, donde a44 > 0 e U triangular superior com
elementos diagonais positivos.
(c) ⇒ (d): Se A pode ser reduzida à forma triangular superior U =
(uij ), ukk > 0, usando-se apenas operações elementares do tipo Tij (λ), então
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 125

A = LU , onde L é triangular inferior com diagonal formada apenas por


números 1:  
1 0
 .. . . . 
 . 
 
L =  e21 1  = (eij ),
 . 
 ... ... ... . . ... 
en1 en2 ... 1
onde ekk = 1 e, para i > j, eij = oposto do multiplicador λ usado em Tij (λ)
(veja a observação no fim do capítulo 5). Então:
 u12 u1n 
   1 ...
1 0 u11 0  u11 u11 
 ..   ..   .. 
 .  .  . 
   u2n 
=
A = LU =  e21 1  u22  1 ... 
 .  .  u22 
 ... ... ... ..   ..  .. 
 . 
en1 en2 ... 1 0 unn
0 1
= LDU1 .
Essa decomposição é única pois se fosse A = L1 D1 U1 = L2 D2 U2 com L1 , L2
triangulares inferiores, D1 , D2 diagonais, U1 , U2 triangulares superiores, L1 ,
L2 , U1 , U2 com diagonais formadas apenas por números 1, viria D2−1 L−12 L1 D1 =
U2 U1−1 onde o primeiro membro é triangular inferior e o segundo membro
é triangular superior, ambos com diagonal formada apenas por números 1,
donde U2 U1−1 = In , o que implica U1 = U2 e D2−1 L−1 2 L1 D1 = In , ou seja,
−1 −1
L2 L1 = D2 D1 , a diagonal do primeiro membro tendo todos os elementos
iguais a 1, donde D2 D1−1 = In , que implica D1 = D2 e L1 = L2 .
Logo, A = LDU1 , donde At = U1t DLt = A = LDU1 , donde U1 = Lt e
A = LDLt = LD1/2 D1/2 Lt = L1 Lt1 , que é a decomposição de Cholesky.
(d) ⇒ (a): Temos A = LLt = At . Seja x 6= 0, donde y = Lt x 6= 0 e
xt Ax = xt LLt x = y t y = kyk2 > 0, ou seja, A > 0.

8.4 Teorema dos Valores Singulares


Lema 8.4.1 Seja T : V −→ W uma aplicação linear entre espaços vetoriais
de dimensão finita sobre K, munidos de produto interno. Então N (T ∗ T ) =
N (T ).
Dem. É claro que N (T ∗ T ) ⊂ N (T ). Seja v ∈ N (T ∗ T ), isto é, T ∗ T v =
0, donde T v ∈ N (T ∗ ) = (Im T )⊥ , donde T v ∈ Im T ∩ (Im T )⊥ , donde
T v = 0, ou seja, v ∈ N (T ), resultando a tese.
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 126

Proposição 8.10 Sejam V, W espaços vetoriais de dimensão finita sobre


K, munidos de produto interno, e T : V −→ W linear. Os operadores
T ∗ T : V −→ V e T ∗ T : W −→ W são não-negativos e têm o mesmo posto
de T; eles são positivos se, e só se, T é invertível.
Dem. Como (T ∗ T )∗ = T ∗ T , resulta que T ∗ T é auto-adjunto; analoga-
mente para T T ∗ . Se v ∈ V , tem-se hT ∗ T v, vi = kT vk2 ≥ 0, donde T ∗ T ≥ 0;
analogamente para T T ∗ ; além disso, hT ∗ T v, vi > 0 se v 6= 0 se, e só
se, kT vk > 0, isto é, se, e só se, T é invertível. Pelo Lema anterior,
N (T ∗ T ) = N (T ), donde resulta posto(T ∗ T ) = dim V − dim N (T ∗ T ) =
= dim V − dim N (T ) = posto(T ) = posto(T ∗ ) = posto(T T ∗ ).

Corolário 8.10.1 T : V −→ W linear é injetora se, e só se, T ∗ T é in-


vertível; T é sobrejetora se, e só se, T T ∗ é invertível.
Dem. T é injetora ⇔ posto(T ) = dim V ⇔ posto(T ∗ T ) = dim V ⇔
T T é invertível. Analogamente para T T ∗ .

Obs. Seja A = (aij ) – m × n. Se posto(A) = n então A∗ A é invertível,


donde positiva, e AA∗ ≥ 0. Se posto(A) = m então AA∗ > 0 e A∗ A ≥ 0.
µ ¶
1 0 2
Exemplo 8.4.1 A = tem posto igual a 2. Então,
−1 1 3  
µ ¶ 2 −1 −1
5 5
AA∗ = é positiva e A∗ A = −1 1 3  é não-negativa.
5 11
−1 3 13

Proposição 8.11 (Teorema dos Valores Singulares)


Sejam U e V espaços vetoriais de dimensão finita sobre K, munidos de
produto interno, e T : U −→ V linear de posto igual a r. Existem bases
ortonormais E = (u1 , ..., un ) de U, F = (v1 , ..., vm ) de V tais que
T ui = σi vi , 1 ≤ i ≤ r ; T ∗ vi = σi ui , 1 ≤ i ≤ r
,
T uj = 0 , r + 1 ≤ j ≤ n ; T ∗ vk = 0 ,r + 1 ≤ k ≤ m
onde os números σ1 , ..., σr são positivos: são os valores singulares de T.

Dem. T ∗ T : U −→ U é não-negativa e tem posto r. Pelo teorema  espectral 


λ1 0
 .. 
 . 
 
∗ E  λr 
existe base ortonormal E = (u1 , ..., un ) de V tal que [T T ]E =  ,
 0 
 . 
 .. 
0 0
2 2
onde λ1 = σ1 , ..., λr = σr são positivos. Então,
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 127

(1 ≤ i, j ≤ r) hT ui , T uj i = hT ∗ T ui , uj i = σi2 · δij , e os vetores T ui , T uj


são 2 a 2 ortogonais e não-nulos, já que kT ui k = σi (1 ≤ i ≤ r). Além disso,
T uk = 0, r + 1 ≤ k ≤ n, pois N (T ) = N (T ∗ T ).
1
Para 1 ≤ i ≤ r, seja vi = T ui , donde kvi k = 1 e
σi
T ui = σi vi , 1 ≤ i ≤ r
.
T uj = 0 ,r + 1 ≤ j ≤ n
Os vetores v1 , ..., vr formam uma base ortonormal de Im T , que esten-
demos a uma base ortonormal F = (v1 , ..., vm ) de V tomando (vr+1 , ..., vm )
base ortonormal de N (T ∗ ) = (Im T )⊥ . Portanto, T ∗ vk = 0, r + 1 ≤ k ≤ m
1
e T ∗ vi = T ∗ T ui = σi ui , 1 ≤ i ≤ r. F é base ortonormal de autovetores de
σi
T T já que T T ∗ vi = T (σi ui ) = σi2 vi = λi vi .

N (T ) N (T ∗ )
(ur+1 , . . . , un ) (vr+1 , . . . , vm )
T -

Im(T ∗ ) Im(T )
(u1 , . . . , ur ) (v1 , . . . , vr )
¾

U = N (T ) ⊥ Im(T ∗
)
T∗ V = N (T ∗ ) ⊥ Im(T )

Obs. A aplicação linear T + : V −→ U definida por


1
T + (vi ) = ui , 1 ≤ i ≤ r ; T + (vk ) = 0 , r + 1 ≤ k ≤ m,
σi
é tal que µ ¶
+ 1
T T (vi ) = T ui = vi , 1 ≤ i ≤ r
σi
T T + (vk ) = 0, r+1≤k ≤m
T + T (ui ) = T + (σi vi ) = ui , 1≤i≤r
T + T (uj ) = 0, r+1≤j ≤n

Definição 8.10 T + : V −→ U é a pseudo-inversa de T : U −→ V .


Obs. Nas condições do Teorema dos Valores Singulares, seja A = [T ]EF11
– m × n – onde E1 e F1 são bases ortonormais de U e V, respectivamente.
Temos
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 128

 
σ1
 .. 
X h iE


. 0 

 σr 
= T =  = [I]F E1 E
F [T ]F1 [I]E1 = QAP ,
1

F  
 
 0 0 

ou seja, existem matrizes unitárias Q = matriz de passagem de F para F1 ,


P = matriz de passagem de E1 para E, tais que
 
σ1
 ... 
X 
 0 

 σr 
QAP = =  ,
 
 
 0 0 

onde σ1 , ..., σr são os valores singulares da matriz A de posto r.


Obs. Sejam V um espaço vetorial de dimensão finita sobre (K) munido de
produto interno, e T : V −→ V linear invertível. Pelor Teorema dos Valores
Singulares existem bases ortonormais E = (u1 , ..., un ) e F = (v1 , ..., vn ) tais
que T ∗ T ui = σ12 ui e T ui = σi vi , 1 ≤ i ≤ n.
Seja H tal que H 2 = T ∗ T . Então H > 0. Defina U = T H −1 ∴ U ∗ =
H T ∴ U ∗ U = H −1 T ∗ T H −1 = H −1 H 2 H −1 = I, isto é, U é unitária
−1 ∗

e T = U H, ou seja, toda aplicação linear invertível é o produto de uma


aplicação unitária por uma aplicação positiva.

8.5 Exercícios do Capítulo 8


1. Sejam V um espaço vetorial de dimensão finita, munido de um produto
interno , e T : V −→ V linear. Se a, b ∈ K são tais que |a| = |b|, prove
que aT + bT ∗ é normal.
2. Seja R2 com o produto interno usual. Se T : R2 −→ R2 é um oper-
ador
· unitário (ortogonal)
¸ · mostre que¸a matriz de T na base canônica é
cos θ −sen θ cos θ sen θ
ou para algum real θ, 0 ≤ θ ≤ 2π.
sen θ cos θ sen θ −cos θ
CAPÍTULO 8. OPERADORES UNITÁRIOS E NORMAIS 129

3. Seja V = C2 com o produto interno usual. Seja· T : V¸ −→ V o operador


1 i
linear cuja matriz na base canônica é A = . Mostre que T é
i 1
normal e ache uma base ortonormal de V formada por autovetores de
T.
· ¸
t 4 2
4. Ache a decomposição de Cholesky LL da matriz A = .
2 10

5. Seja A – n × n – (simétrica e) positiva, A = QDQt onde Q é ortogonal


e D é diagonal. Ache matriz invertível B tal que A = B t B.

6. Seja A – n × n – (simétrica e) negativa (A < 0).


(a) Qual o sinal de det A?
(b) Mostre que as submatrizes principais de A são negativas.
(c) Mostre que os determinantes das submatrizes principais de A alter-
nam em sinal.
Capítulo 9

Formas Bilineares e Quadráticas

9.1 Generalidades
Definição 9.1 Seja K um corpo de característica 6= 2; por exemplo K = R
ou K = C. Sejam U, V, W espaços vetoriais sobre K. Uma aplicação T :
U × V −→ W é bilinear se T é linear em cada variável separadamente, isto
é, se
T (u1 + u2 , v) = T (u1 , v) + T (u2 , v); T (λu, v) = λT (u, v)
T (u, v1 + v2 ) = T (u, v1 ) + T (u, v2 ); T (u, λv) = λT (u, v)
quaisquer que sejam u, u1 , u2 ∈ U , v, v1 , v2 ∈ V e λ ∈ K.
Com as leis usuais de adição e produto por escalar, o conjunto das apli-
cações bilineares T : U × V −→ W é um espaço vetorial sobre K, ano-
tado L(U, V ; W ). Quando U = V e W = K, representamos L(V, V ; K) por
L2 (V ; K) e dizemos que f ∈ L2 (V ; K) é uma forma bilinear.
n
X
n n
Exemplo 9.1.1 (x, y) ∈ R × R 7−→ hx, yi = xi yi é uma forma bilinear
i=1
em Rn .

Exemplo 9.1.2 Se f, g ∈ V ∗ definimos seu produto tensorial f ⊗ g e seu


produto exterior f ∧ g por:

(f ⊗ g)(u, v) = f (u) · g(v) ; (f ∧ g)(u, v) = f (u)g(v) − f (v)g(u).

É fácil ver que f ⊗ g e f ∧ g são formas bilineares em V.

Exemplo 9.1.3 Se V = C 0 ([a, b], R) = {f : [a, b] −→ R, contínua } e


Z b
f, g ∈ V , então (f, g) 7−→ f (t)g(t)dt é uma forma bilinear em V.
a

130
CAPÍTULO 9. FORMAS BILINEARES E QUADRÁTICAS 131

Exemplo 9.1.4
φ : L(U, V ) × L(V, W ) −→ L(U, W )
(S, T ) −→ φ(S, T ) = T ◦ S
é uma aplicação bilinear.
Proposição 9.1 Seja
φ : L(U, V ; W ) −→ L(U, L(V, W ))
T −→ φT : U −→ L(V, W )
u 7−→ φT (u) : V −→ W
v 7−→ φT (u)(v) = T (u, v)
onde U, V, W são espaços vetoriais sobre K.
Então, φ é um isomorfismo canônico.
Dem. Seja
ψ : L(U ; L(V, W )) −→ L(U, V ; W )
S 7−→ ψS : U × V −→ W
(u, v) 7−→ ψS(u, v) = S(u)(v)
É fácil verificar que φ e ψ estão bem definidas, são lineares, φ ◦ ψ =
id, ψ ◦ φ = id, ou seja, φ e ψ são isomorfismos e ψ = φ−1 .
Corolário 9.1.1
φ : L2 (V ; K) −→ L(V, V ∗ )
f −→ φf : V −→ V∗
u 7−→ φf (u) : V −→ K
v 7−→ f (u, v)
é um isomorfismo canônico que nos permite identificar L2 (V ; K) com L(V, V ∗ ).
Definição 9.2 f ∈ L2 (V ; K) é simétrica se f (u, v) = f (v, u) quaisquer que
sejam u, v ∈ V .
f ∈ L2 (V ; K) é antissimétrica se f (u, v) = −f (v, u) quaisquer que sejam
u, v ∈ V ; neste caso, f (v, v) = −f (v, v) donde f (v, v) = 0 para todo v ∈ V ,
isto é, f é alternada.
Obs. O conjunto das formas bilineares simétricas (resp. antissimétricas)
em V é um subespaço vetorial S2 (V ; K) (resp. A2 (V ; K)) de L2 (V ; K) e
temos L2 (V ; K) = S2 (V ; K) ⊕ A2 (V ; K). De fato, S2 (V ; K) e A2 (V ; K) têm
1
interseção igual a {0} e se f ∈ L2 (V ; K) então g(u, v) = [f (u, v)+
2
1
+f (v, u)] e h(u, v) = [f (u, v) − f (v, u)] são tais que g ∈ S2 (V ; K), h ∈
2
A2 (V ; K) e f = g + h.
CAPÍTULO 9. FORMAS BILINEARES E QUADRÁTICAS 132

9.2 Matriz de uma forma bilinear


Sejam:
• E = (u1 , ..., um ) base ordenada de U
• F = (v1 , ..., vn ) base ordenada de V
• f : U × V −→ K forma bilinear
m
X n
X m X
X n
Se u ∈ U , v ∈ V , u = x i ui , v = yj vj , então f (u, v) = xi yj f (ui , vj ).
i=1 j=1 i=1 j=1
Xm X
n
Pondo aij = f (ui , vj ) vem f (u, v) = aij xi yj . A matriz A = (aij ) –
i=1 j=1
m × n – é chamada
  de matriz de f em  relação às bases E e F.
x1 y1
   
Se X =  ...  = [u]E e Y =  ...  = [v]F , então
xm yn
  
a11 ... a1n y1
 .. . .. ..   ... 
.   t
f (u, v) = (x1 , ..., xm )  .  = X AY.
am1 ... amn yn

Fixadas as bases E e F, a aplicação f ∈ L(U, V ; K) 7−→ A ∈ Mm×n (K) é


um isomorfismo, como se verifica facilmente, de modo que dim L(U, V ; K) =
dim U · dim V = mn, em particular, dim L2 (V ; K) = n2 .
Obs. Se (v1 , ..., vn ) é base ordenada de V e A = (aij ) com aij = f (vi , vj ),
vemos que f ∈ L2 (V ; K) é simétrica se, e só se, aij = aji para todo par (i, j).

9.3 Mudanças de Bases


Sejam: E = (u1 , ..., um ); E 0 = (u01 , ..., u0m ) bases ordenadas de U, F =
(v1 , ..., vn ), F 0 = (v10 , ..., vn0 ) bases ordenadas de V. Então:
m
X
u0i = pri ur
r=1
Xn ,
vj0 = qsj vs
s=1

onde P e Q são as matrizes de passagem de E para E 0 e de F para F 0 ,


respectivamente.
CAPÍTULO 9. FORMAS BILINEARES E QUADRÁTICAS 133

Temos:
m X
n n
à m !
X X X
f (u0i , vj0 ) = a0ij = pri qsj ars = ptir · arj qsj ,
r=1 s=1 s=1 r=1

donde A0 = P t · A · Q, que é a relação entre a matriz A0 de f ∈ L(U, V ; K)


nas bases E 0 e F 0 e a matriz A de f nas bases E e F. No caso em que U = V ,
Xn
0 0 0
E = F, E = F e vj = pij vi , temos P = Q e A0 = P t · A · P .
i=1

9.4 Formas Quadráticas


Definição 9.3 Seja f ∈ L2 (V ; K). A função q : V −→ K definida por
q(v) = f (v, v) chama-se uma forma quadrática em V. O conjunto Q(V ) das
formas quadrátivas em V é um espaço vetorial com as leis usuais de adição
e produto por escalar. A aplicação f ∈ L2 (V ; K) 7−→ q ∈ Q(V ) é linear
1
sobrejetora, mas não é injetora. Se g(u, v) = [f (u, v) + f (v, u)], então g é
2
simétrica e g(v, v) = f (v, v) = q(v) de modo que podemos sempre supor que
a forma bilinear que define q é simétrica e a aplicação g ∈ L2 (V ; K) 7−→ q ∈
Q(V ) é bijetora. Para obter g a partir de q, observemos que

q(u + v) = g(u + v, u + v) = g(u, u) + g(v, v) + 2g(u, v),


1
donde g(u, v) = [q(u+v)−q(u)−q(v)]; g é a forma polar de q. Se A = (aij )
2
– n×n – é a matriz de g na base E de V e se X = [v]E , então q(v) = X t ·A·X,
e dizemos também que A é matriz de q na base E.
n
X
Exemplo 9.4.1 q : Rn −→ R, q(x) = q(x1 , ..., xn ) = (xi )2 é uma forma
i=1
quadrática em Rn .
Z 1
0
Exemplo 9.4.2 q : C ([0, 1], R) −→ R, q(f ) = [f (t)]2 dt é uma forma
0
quadrática em C 0 ([0, 1], R).

9.5 Formas Bilineares Simétricas Reais


Proposição 9.2 Seja V um espaço vetorial real de dimensão finita, munido
de um produto interno. Para cada forma bilinear f : V × V −→ R existe
CAPÍTULO 9. FORMAS BILINEARES E QUADRÁTICAS 134

uma e uma única aplicação linear F : V −→ V tal que f (u, v) = hu, F (v)i
para u, v ∈ V quaisquer.
Dem. Seja v ∈ V arbitrário. A função u ∈ V 7−→ f (u, v) é uma forma
linear em V, isto é, um elemento de V ∗ . Portanto, existe um e um único
ζ = F (v) ∈ V tal que f (u, v) = hu, ζi = hu, F (v)i, e obtemos F : V −→ V .
Se u, v1 , v2 ∈ V e λ ∈ R, temos:

hu, F (v1 + λv2 )i = f (u, v1 + λv2 ) = f (u, v1 ) + λf (u, v2 ) =


= hu, F (v1 )i + λhu, F (v2 )i = hu, F (v1 ) + λF (v2 )i,
resultando F (v1 + λv2 ) = F (v1 ) + λF (v2 ), donde F é linear.

Proposição 9.3 Seja q : V −→ R uma forma quadrática definida num es-


paço vetorial real V de dimensão n munido de um produto interno. Existe
base ortonormal F = (u1 , ..., un ) de V relativa à qual q(v) = λ1 x21 +...+λn x2n ,
onde v = x1 u1 + ... + xn un , e λ1 , ..., λn são os autovalores de q.
Dem. Seja f : V × V −→ R bilinear simétrica tal que q(v) = f (v, v)
para v ∈ V qualquer, e seja F : V −→ V linear tal que f (u, v) = hu, F (v)i
para u, v ∈ V quaisquer. Se E = (v1 , ..., vn ) é base ortonormal de V então
f (vi , vj ) = hvi , F (vj )i mostra que a matriz de f na base E coincide com a
matriz de F na mesma base. Resulta que φ : f ∈ L2 (V ; R) 7−→ F ∈ L(V )
é um isomorfismo e que f é simétrica se, e só se, F é auto-adjunta. Neste
caso, existe base ortonormal de V formada por autovetores de F (ou de f,
ou de q), isto é, existe base ortonormal F = (u1 , ..., un ) tal que f (ui , uj ) =
Xn
hui , F (uj )i = λj δij . Se v = xi ui então
i=1

n
X X n
X
q(v) = f (v, v) = f (ui , uj )xi xj = λj δij xi xj = λi (xi )2 = λ1 x21 +...+λn x2n ,
i,j=1 i,j i=1

combinação de quadrados.

Corolário 9.3.1 Nas condições da proposição 9.3, existe base ortonormal


G = (w1 , ..., wn ) de V relativa à qual se tem
s
X s+t
X
2
q(v) = (xi ) − (xj )2
i=1 j=s+1

n
X
para todo v = xi w i ∈ V .
i=1
CAPÍTULO 9. FORMAS BILINEARES E QUADRÁTICAS 135

Dem. Reordenamos a base F = (u1 , ..., un ) da proposição 9.3 de modo


que
f (ui , ui ) = q(ui ) = λi > 0 para 1 ≤ i ≤ s
f (uj , uj ) = q(uj ) = λj < 0 para s + 1 ≤ j ≤ s + t
f (uk , uk ) = q(uk ) = 0 para s + t + 1 ≤ k ≤ n.
Pondo:
ui
wi = √ para 1 ≤ i ≤ s
λi
uj
wj = p para s + 1 ≤ j ≤ s + t
−λj
wk = uk para s + t + 1 ≤ k ≤ n,
obtemos
f (wi , wi ) = 1 para 1 ≤ i ≤ s
f (wj , wj ) = −1 para s + 1 ≤ j ≤ s + t
f (wk , wk ) = 0 para s + t + 1 ≤ k ≤ n.
n
X s
X s+t
X
Portanto, se v = xi wi , temos q(v) = (xi )2 − (xj )2 .
i=1 i=1 j=s+1

Corolário 9.3.2 Se E = (v1 , ..., vn ) e E 0 = (v10 , ..., vn0 ) são bases ortonormais
Xs s+t
X X s0 0 +t0
sX
2 2 2
de V nas quais q(v) = (xi ) − (xj ) = (xi ) − (xj )2 para
i=1 j=s+1 i=1 j=s0 +1
X X
v= xi v i = xj vj0 qualquer, então s = s0 e t = t0 .

Dem. Sejam:
U = subespaço de V gerado por v1 , ..., vs
W 0 = subespaço de V gerado por vs0 0 +1 , ..., vn0 .

Então: dim U = s e dim W 0 = n − s0 .


Se v ∈ U, v 6= 0, temos q(v) > 0. Se v ∈ W 0 , então q(v) ≤ 0. Resulta
que U ∩ W 0 = {0} e, portanto,

dim U + dim W 0 = dim(U + W 0 ) ≤ dim V = n,

donde: s + n − s0 ≤ n, ou seja, s ≤ s0 .
Por simetria, obtemos: s0 ≤ s. Logo, s = s0 .
Como s + t = s0 + t0 = r = posto de F (=posto de f=posto de q), resulta
t = t0 .
Obs. O par (s, t) é univocamente determinado por q; t é a maior dimen-
são de um subespaço de V restrita ao qual q é negativa: t é a dimensão do
CAPÍTULO 9. FORMAS BILINEARES E QUADRÁTICAS 136

subespaço de V gerado por vs+1 , ..., vs+t . Por definição, t é o índice da forma
quadrática q. Quando q(v) ≥ 0 para v ∈ V qualquer, dizemos que o índice
de q é zero.
Exemplo: q : R4 −→ R, q(x, y, z, t) = −x2 + y 2 + z 2 + t2 tem posto r = 4
e índice t = 1.
Vamos apresentar, por meio de exemplos, o método de Lagrange para a
diagonalização de uma forma quadrática.
Exemplo 9.5.1 q(x, y, z) = x2 + z 2 − 4xy + 4xz.
Como existe o termo quadrado “puro” x2 vamos completar o quadrado:
q(x, y, z) = x2 −4x(y−z)+z 2 = [x−2(y−z)]2 −4(y−z)2 +z 2 = (x−2y+2z)2 −4y 2 −3z 2 +8yz
e a existência de y 2 nos permite completar o quadrado:
q(x, y, z) = (x − 2y + 2z)2 − 4(y − z)2 + z 2
Pondo:
u = x − 2y + 2z
v = y − z,
obtemos
q(u, v, z) = u2 − 4v 2 + z 2 ,
forma de posto r = 3 e índice t = 1.
Exemplo 9.5.2 q(x, y, z) = 4xy − 2xz + yx
Como não existe nenhum quadrado puro, fazemos
x=u+v
y = u − v,
donde xy = u2 − v 2 e
q(u, v, z) = 4u2 − 4v 2 − 2z(u + v) + z(u − v) = 4u2 − 4v 2 − uz − 3vz =
³ µ ¶ ·³ ¸ µ ¶2
2 z ´ 2 3z z ´2 z2 3z 9z 2
= 4 u − u −4 v + v = 4 u − − −4 v + + =
4 4 8 164 8 16
³ µ ¶2
z ´2 3z z2
4 u− −4 v+ v + .
8 4 2
z 3z
Fazendo: α = u − ; β = v + , vem:
8 8
z2
q(α, β, z) = 4α2 − 4β 2 + ,
2
forma de posto r = 3 e índice t = 1.
Capítulo 10

Miscelânea

10.1 Orientação
Seja V um espaço vetorial real, de dimensão finita n ≥ 1, e seja B o conjunto
das bases ordenadas de V.
Definição 10.1 Duas bases ordenadas E = (u1 , ..., un ) e F = (v1 , ..., vn ) de
V são equivalentes, anotado E ∼ F, se o determinante da matriz de passagem
de E para F é positivo.
X n
Se vj = pij ui , então a matriz de passagem de E para F é a matriz
i=1
invertível P = (pij ) e E ∼ F se, e só se, det P > 0. Observemos que
P = [I]FE , onde I : V −→ V é a identidade.

Proposição 10.1 A relação E ∼ F é uma relação de equivalência sobre B.


Dem. (a) E ∼ E, pois det [I]EE = det In = 1 > 0.
(b) E ∼ F ⇒ F ∼ E: com efeito, se P = [I]F E , então P
−1
= [I]EF .
−1
Portanto, det P > 0 ⇔ det P > 0.
(c) E ∼ F , F ∼ G ⇒ E ∼ G: sejam P = [I]F G
E , Q = [I]F . A matriz de
passagem de E para G é R = [I] = P Q. Logo, det R = det P · det Q > 0.
Proposição 10.2 A relação E ∼ F determina duas classes de equivalência
no conjunto B de todas as bases ordenadas de V.
Dem. Fixemos uma base E = (u1 , ..., un ) em V e seja E = (−u1 , u2 , ..., un ).
A matriz de passagem de E para E tem determinante igual a
¯ ¯
¯−1 0 0 ... 0 ¯
¯ ¯
¯ 0 1 0 ... 0 ¯
¯ ¯
¯ 0 0 1 ... 0 ¯ = −1,
¯ ¯
¯ ... ... ... ... ...¯
¯ ¯
¯ 0 0 0 ... 1 ¯

137
CAPÍTULO 10. MISCELÂNEA 138

ou seja, E e E estão em classes distintas, B1 e B2 . Se F é base ordenada


arbitrária de V, temos

R = [I]F E F
E = [I]E · [I]E = P Q,

onde P, Q e R são as matrizes de passagem de E para E, de E para F e de


E para F, respectivamente. Então:
det R = det P ·det Q = −det Q, donde resulta que ou F ∈ B1 ou F ∈ B2 ,
ou seja, só existem duas classes de equivalência.

Definição 10.2 Qualquer uma das classes B1 ou B2 diz-se uma orientação


de V. V possui, portanto, duas orientações.

Definição 10.3 Um espaço vetorial orientado é um espaço vetorial associ-


ado a uma de suas orientações. Mais precisamente, é um par (V, O) onde O
é uma orientação do espaço vetorial real V.

Definição 10.4 Se (V, O) é um espaço vetorial orientado, as bases que per-


tencem à orientação O chamam-se positivas. As outras são chamadas negativas.

Exemplo 10.1.1 O espaço Rn possui uma orientação canônica, que é aquela


determinada pela base canônica (e1 , ..., en ).

Obs. O conceito de orientação depende essencialmente da relação de


ordem dos números reais, não podendo ser estendido a espaços vetoriais sobre
um corpo qualquer.

10.2 Volume de Paralelepípedo


Sejam V um espaço vetorial real de dimensão n, munido de um produto
interno, e v1 , ..., vn ∈ V .

Definição 10.5 O paralelepípedo de arestas v1 , ..., vn é o conjunto

P (v1 , ..., vn ) = {x = t1 v1 + ... + tn vn ; 0 ≤ ti ≤ 1}.


n
X
Seja E = (e1 , ..., en ) uma base ortonormal de V. Se vj = aij ei , A =
¡ i=1¢
(aij ) – n×n – define-se o volume de P (v1 , ..., vn ) por v P (v1 ..., vn ) = |det A|.
X n
0 0 0 0
Se E = (e1 , ..., en ) é outra base ortonormal de V e ei = pki ek , P =
k=1
(pij ) – n × n – matriz ortogonal, de transição da base E para a base E, então
CAPÍTULO 10. MISCELÂNEA 139

n
X n
X n
X n X
X n n
X
|det P | = 1 e vj = a0ij e0i = a0ij pki ek = akj ek , pki a0ij ek =
i=1 i=1 k=1 k=1 i=1 ¡ k=1 ¢
donde A = P A0 e |det A| = |det A0 |, o que mostra que v P (v1 , ..., vn ) não
depende da base ortonormal usada na sua definição.

Proposição 10.3 Seja T : V −→ V linear. Então:


¡ ¢ ¡ ¢
v P (T v1 , ..., T vn ) = |det T | · v P (v1 , ..., vn ) .
n
X
Dem. Com as notações usadas acima, temos: vj = aij ei , donde
i=1

n n n
à n !
X X X X
T vj = aij T (ei ) = aij bki ek = bki aij ek ,
i=1 i,k=1 k=1 i=1

onde B = [T ]EE ; portanto,


¡ ¢ ¡ ¢
v P (T v1 , ..., T vn = |det BA| = |det T ||det A| = |det T |v P (v1 , ..., vn ) .

10.3 Matriz de Gram


Sejam v1 , ..., vk ∈ V , onde V é um espaço vetorial real de dimensão n, munido
de um produto interno.
Se gij = hvi , vj i, a matriz de Gram de v1 , ..., vk é G = (gij ) – k × k. Seja
W um subespaço de dimensão k contendo v1 , ..., vk (se v1 , ..., vk são LI, W é
único). Seja E = (e1 , ..., en ) base ortonormal de V tal que (e1 , ..., ek ) seja base
X k
¡ ¢
ortonormal de W. Então: vj = aij ei , v P (v1 , ..., vk ) = |det A| e v1 , ..., vk
¡ i=1 ¢
são LI ⇔ det A 6= 0 ⇔ v P (v1 , ..., vk ) > 0.
¡ ¢ √
Proposição 10.4 v P (v1 , ..., vk ) = det G.
Dem. Com as notações acima, temos:
k
X k
X k
X
t
gij = hvi , vj i = h ari er , asj es i = air arj ,
r=1 s=1 r=1
¢ ¡
donde G = At A e det G = (det A)2 , resultando v P (v1 , ..., vk ) = |det A| =

det G. Além disso, det G ≥ 0, e det G = 0 ⇔ det A = 0 ⇔ v1 , ..., vk são
LD.
CAPÍTULO 10. MISCELÂNEA 140

Obs. Se v1 , ..., vk são 2 a 2 ortogonais, então


 2 
|v1 | 0
 ..  2 2 2
det G =  .  = |v1 | ...|vk | = (det A) ,
0 |vk |2
¡ ¢
donde |det A| = v P (v1 , ..., vk ) = |v1 |...|vk |. Se {v1 , ..., vk } é conjunto
ortonormal, então P (v1 , ..., vk ) é o cubo unitário Ik e v(Ik ) = 1.

10.4 Produto Vetorial


Sejam V um espaço vetorial real, de dimensão (n+1), munido de um produto
interno h, i, orientado, e v1 , ..., vn ∈ V . A função

f : V −→ R
x 7−→ f (x) = detE (v1 , ..., vn , x),

onde E = (e1 , ..., en+1 ) é base positiva de V, ortonormal, é linear, donde existe
um e um único u ∈ V , u = v1 × ... × vn , tal que f (x) = hu, xi para todo
x ∈ V . Este vetor u = v1 × ... × vn chama-se o produto vetorial de v1 , ..., vn .
Obs. (a) u = v1 × ... × vn é forma n-linear dos vetores v1 , ..., vn .
(b) Seja A = [v1 , ..., vn ] a matriz (n+1)×n cujas colunas são os vetores vj
escritos na base E. Seja A(i) – n × n – a submatriz obtida de A pela omissão
da linha i. Temos:

hu, ej i = det [v1 , ..., vn , ej ] = (−1)n+1+j det A(j) .

Então:
n+1
X
u= (−1)n+1+i det A(i) · ei ,
i=1
n+1
X
donde |u|2 = (det A(i) )2 ≥ 0 e |u| = 0 ⇔ det A(i) = 0 para todo i,
i=1
1 ≤ i ≤ n + 1 ⇔ posto A < n ⇔ v1 , ..., vn são LD.
(c) u⊥vj (1 ≤ j ≤ n) pois hu, vj i = ¡ det(v1 , ..., vn , ¢vj ) = 0. ¡ ¢
2
(d) |u| =¡ detE [v1 , ..., v¢n , u] = v P (u, v1 , ..., vn ) = |u|v P (v1 , ..., vn ) ,
donde |u| = v P (v1 , ..., vn )¡ . ¢
(e) v1 , ..., vn são LI ⇔ v P (v1 , ..., vn ) = |u| > 0. Neste caso, det(u, v1 , ..., vn ) =
|u|2 > 0 e (v1 , ..., vn , v1 × ... × vn ) tem a mesma orientação que (e1 , ..., en+1 ).
É fácil ver que o produto vetorial u = v1 × ... × vn é o único vetor de V
satisfazendo (c), (d) e (e).
CAPÍTULO 10. MISCELÂNEA 141

Pode-se representar u = v1 × ... × vn pelo determinante simbólico


¯ ¯
¯ v11 ... v e ¯
¯ 1n 1 ¯
¯ v21 ... v2n e2 ¯¯ X n+1
¯
¯ .. .. .. .. ¯ = (−1)n+1+i det A(i) ei = u.
¯ . . . . ¯
¯ ¯ i=1
¯vn+1,n ... vn+1,n en+1 ¯
Exercícios de Revisão

1. Sejam p1 , ..., pn ∈ Pn (K), isto é, polinômios de grau menor que n.


Se, para j = 1, ..., n, pj (2) = 0, prove que {p1 , ..., pn } é um conjunto
linearmente dependente.

2. Prove que não existe T : R5 −→ R2 linear cujo núcleo seja {(x1 , ..., x5 ) ∈
R5 |x1 = x2 e x3 = x4 = x5 }.

3. Seja T : V −→ W linear, V de dimensão finita. Prove que existe


subespaço U ⊂ V tal que N (T ) ∩ U = {0} e Im T = T (U ).

4. Seja T : Rn −→ Rn , T (x1 , ..., xn ) = (x1 + ... + xn , ..., x1 + ... + xn ). Ache


os autovalores e autovetores de T.

5. Sejam V = U ⊕ W , P : V −→ W , P (u + w) = w, onde u ∈ U e w ∈ W .
Mostre que 0 e 1 são os únicos autovalores de P e ache os autovetores
correspondentes.

6. Dê exemplo de um operador linear invertível T : V −→ V , dim V = n,


cuja matriz em alguma base só tem zeros na diagonal principal.

7. Se a1 , ..., an , b1 , ..., bn ∈ R, prove que


à n !2 à n !à n !
X X X b2j
aj bj ≤ j · a2j .
j=1 j=1 j=1
j

8. Seja T : Cn −→ Cn , T (z1 , ..., zn ) = (0, z1 , ..., zn−1 ). Ache T ∗ .

9. Prove que todo operador auto-adjunto T : V −→ V tem uma raiz


cúbica, dim V = n.

10. Sejam T : V −→ V linear, dim V = n. Prove que V tem base formada


por autovetores de T se, e só se, existe produto interno em V que torna
T auto-adjunto.

142
EXERCÍCIOS DE REVISÃO 143

11. Se T : V −→ V é normal, prove que Im T = Im T ∗ .

12. Se K = C prove que todo operador normal T : V −→ V , dim V = n


tem uma raiz quadrada.

13. Sejam K = C e T : V −→ V operador normal, dim V = n. Prove que


T = T ∗ ⇔ todos os autovalores de T são reais.

14. Sejam T : V −→ V linear, dim V = n, T = T ∗ . Prove que os valores


singulares de T são os módulos de seus autovalores.

15. Prove que todo polinômio mônico é o polinômio característico de algum


operador linear. Para isso, considere a matriz
 
0 0 ... 0 0 −a0
 1 0 ... 0 0 −a1 
 
 0 1 ... 0 0 −a2 
A= ... ... ... ... ...
.
 ... 

 0 0 ... 1 0 −an−2 
0 0 ... 0 1 −an−1

16. Sejam T : V −→ V , dim V = n, T > 0 e tr T = 0. Prove que T = 0.

17. Sejam (e1 , ..., en ) base ortonormal de V e T : V −→ V linear. Prove:


tr(T ∗ T ) = |T e1 |2 + ... + |T en |2 .

18. Sejam K = C, T : V −→ V linear, E = (e1 , ..., en ) base ortonormal de


V, e λ1 , ..., λn os autovalores de T. Se A = [T ]EE = (aij ) – n × n – prove
que
n
X
2 2
|λ1 | + ... + |λn | ≤ |aij |2 .
i,j=1
Referências Bibliográficas

[1] Axler, S. – Linear Algebra Done Right – Springer, New York, 1996.

[2] Gelfand, I. – Lectures on Linear Algebra – Interscience, New York, 1961.

[3] Hoffman, K.; Kunze, R. – Linear Algebra – Prentice-Hall, New Jersey,


1971.

[4] Júdice, E.D. – Introdução à Álgebra Linear – Belo Horizonte, 1960.

[5] Lang, S. – Linear Algebra – Springer, New York, 2004.

[6] Leon, S. – Álgebra Linear – LTC, Rio de Janeiro, 1999.

[7] Lima, E.L. – Álgebra Linear – IMPA, Rio de Janeiro, 1996.

[8] Queysanne, M. – Algèbre – Armand Colin, Paris, 1964.

[9] Simmons, G. – Introduction to Topology and Modern Analysis –


McGraw-Hill, New York, 1963.

144

Você também pode gostar