Você está na página 1de 148

MINISTÉRIO DA DEFESA

COMANDO DA AERONÁUTICA
INSTITUTO TECNOLÓGICO DE AERONÁUTICA

MANUAL DIDÁTICO

MAT 27 - ÁLGEBRA LINEAR

DCTA/ITA/MD-002/2023

Pça Mal. Do Ar Eduardo Gomes, 50 – Vila das Acácias


12228-900 – São José dos Campos – SP - Brasil
MINISTÉRIO DA DEFESA
COMANDO DA AERONÁUTICA
INSTITUTO TECNOLÓGICO DE AERONÁUTICA

MANUAL DIDÁTICO

Departamento de Matemática

MAT 27 - ÁLGEBRA LINEAR

Fernanda de Andrade Pereira / Tiara Martini dos Santos

DCTA/ITA/MD-002/2023

Ostensivo
2023
Dados Internacionais de Catalogação-na-Publicação (CIP)
Divisão de Informação e Documentação
Pereira, Fernanda de Andrade / Santos, Tiara Martini dos
Álgebra Linear; 1ª Edição/Pereira, Fernanda de Andrade/Santos, Tiara
Martini dos. São José dos Campos, 2023.
145f.

Manual Didático
1. Álgebra Linear 2. Sistemas Lineares 3. Espaços Vetoriais I. Pereira, Fernanda de Andrade/
Santos, Tiara Martini dos
II. Departamento de Matemática. ITA. Divisão de Ciências Fundamentais.
III. Título.

REFERÊNCIA BIBLIOGRÁFICA

PEREIRA, Fernanda de Andrade / SANTOS, Tiara Martini dos. Álgebra Linear; 1ª Edição.
São José dos Campos: ITA, 2023. 145f (DCTA/ITA/MD-002/2023).

CESSÃO DE DIREITOS

NOME DO(S) AUTOR(ES): Pereira, Fernanda de Andrade / Santos, Tiara Martini dos
TÍTULO DO TRABALHO: MAT 27 - Álgebra Linear.
TIPO DO TRABALHO/ANO: Manual Didático /2023

É concedida ao Instituto Tecnológico de Aeronáutica permissão para reproduzir cópias deste


Manual Didático e para emprestar ou vender cópias somente para propósitos acadêmicos e
científicos. O autor reserva outros direitos de publicação e nenhuma parte desta dissertação
pode ser reproduzida sem a sua autorização (do autor).
Sumário

Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1 Revisão: matrizes, determinantes e sistemas lineares . . . . . . . . . . . . . . . 3


1.1 Matrizes 3

1.2 Determinantes 6

1.3 Sistemas lineares 8

1.4 Operações elementares 10

1.5 Método para inversão de matrizes 11

2 Espaços vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1 Definição e propriedades básicas 15

2.2 Subespaços vetoriais, soma de subespaços, soma direta 18

2.3 Subespaço gerado 22

2.4 Dependência linear 24

2.5 Base e dimensão 26

2.6 Dimensão de subespaços e da soma de subespaços 32

2.7 Coordenadas e matriz de mudança de base 35

2.8 Método prático para determinar ou completar bases de subespaços 39

3 Espaços vetoriais com produto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . 43


3.1 Definições e propriedades 43

3.2 Ortogonalidade e Processo de Gram-Schmidt 50

3.3 Complemento ortogonal 58

3.4 Projeção ortogonal 60

3.5 O Problema de Quadrados Mínimos 64


4 Transformações lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.1 Conceitos básicos 71
4.2 Isomorfismos 79
4.3 Matriz de uma transformação linear 82
4.4 Posto 86
4.5 Autovalores, autovetores, operadores diagonalizáveis 89
4.5.1 Propriedades de autovalores e autovetores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.5.2 Operadores diagonalizáveis e potências de matrizes . . . . . . . . . . . . . . . . . . . . . . 97

5 Transformações lineares entre espaços com produto interno . . . . . 105


5.1 Isometrias 105
5.2 O operador adjunto 110
5.3 Operadores autoadjuntos 117
5.4 Diagonalização de operadores autoadjuntos 120
5.5 Operadores normais e diagonalização 123

6 Formas quadráticas e aplicações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129


6.1 Formas quadráticas 129
6.2 Quádricas 131
6.3 Reconhecimento de quádricas 134

Referências bibliográficas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139

Indíce remissivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141


Introdução

Esse texto foi elaborado a partir das notas de aula das autoras para o curso de MAT-27 - Álgebra
Linear, disciplina obrigatória aos cursos de engenharia do ITA. Os pré-requisitos para sua leitura são os
conteúdos do ensino médio, além de certa maturidade matemática. O texto é autossuficiente e contém
todas as demonstrações dos resultados apresentados, com exceção do Capítulo 1, que é considerado
uma revisão, e por isso decidimos omitir suas demonstrações, para que ficasse mais sucinto.
Esse material aborda todo o conteúdo que normalmente é dado nas disciplinas de Álgebra Linear
em cursos de graduação nas áreas de exatas. Nele são considerados espaços vetoriais reais e complexos,
com foco nos espaços de dimensão finita. Apesar disso, quando possível e sem grandes complicações,
apresentamos os resultados de maneira geral e fazemos alguns comentários sobre as diferenças, quando
há, com o caso de dimensão infinita.
O Capítulo 1 apresenta os conceitos e principais propriedades de matrizes, determinantes e sistemas
lineares. Apesar de se tratar de um conteúdo de ensino médio, normalmente ele não é visto de maneira
formal e geral, como descrito no texto. Dada a importância de seu domínio para se trabalhar com os
assuntos de álgebra linear, recomendamos fortemente a leitura dele a todos os alunos, seja para revisar
ou mesmo aprofundar seus conhecimentos.
O Capítulo 2 apresenta o conceito de espaço vetorial e seus fundamentos essenciais: subespaços,
conjunto gerador, conjuntos linearmente dependentes e independentes, bases, dimensão e coordenadas.
O Capítulo 3 apresenta o conceito de produto interno num espaço vetorial e as propriedades e
conceitos relacionados: ortogonalidade, Gram-Schmidt e projeção ortogonal.
O Capítulo 4 se refere ao estudo das transformações lineares, que são as “funções interessantes”
entre os espaços vetoriais. Serão apresentados conceitos como: núcleo, imagem, isomorfismos e matriz
de transformação linear. Por fim, estuda-se diagonalização de operadores lineares.
Vale mencionar que os Capítulos 3 e 4 são independentes, tendo como base apenas o Capítulo 2.
O Capítulo 5 se refere ao estudo das transformações lineares entre espaços com produto interno,
e esse sim envolve todo o conteúdo dos capítulos anteriores. O objetivo principal desse capítulo é
apresentar o Teorema Espectral, nas suas versões para espaços reais e complexos.
O Capítulo 6 apresenta uma aplicação da teoria de Álgebra Linear: o reconhecimento de quádricas
a partir das suas equações algébricas na forma geral.
Ao longo do texto, o conjunto dos números naturais será denotado por N = {1, 2, . . .} e os corpos
dos números reais e complexos serão denotados por R e C, respectivamente. Quando dissermos um
número, constante ou escalar, estaremos nos referindo a elementos de R ou C, salvo menção contrária.
De um modo mais geral, denotaremos o corpo de escalares por K, significando K = R ou C. A
cardinalidade de um conjunto X será denotada por #X.
Capítulo 1

Revisão: matrizes, determinantes e


sistemas lineares

Neste capítulo, serão apresentados os conceitos e principais propriedades de matrizes, determinantes


e sistemas lineares. Esses assuntos serão muito utilizados ao logo deste curso, por isso é preciso dominar
muito bem o conteúdo deste capítulo. Apesar de se tratar de um conteúdo de ensino médio, nem sempre
ele é visto da maneira mais geral como se encontra aqui. Assim, recomendamos a todos os alunos a
leitura deste capítulo, a fim de revisar, ou mesmo se aprofundar no assunto.
As demonstrações dos resultados deste capítulo serão omitidas, e podem ser encontradas [Reg], cuja
versão digital encontra-se disponível na página do autor: Reginaldo Santos - livros.

1.1 Matrizes
Uma matriz A, m × n, m, n ∈ N, é uma tabela de mn números, denotados por ai j , 1 ≤ i ≤ m,
1 ≤ j ≤ n, dispostos em m linhas e n colunas:
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
A= . ..  .
 
. ..
 . . . 
am1 am2 · · · amn

A i-ésima linha de A é
[ ai1 ai2 · · · ain ], i = 1, . . . , m.
A j-ésima coluna de A é  
a1 j
 a2 j 
, j = 1, . . . , n.
 
 ..
 . 
am j
Também usaremos a notação A = (ai j )m×n . Dizemos que ai j é o elemento ou entrada de posição i, j de
A, m × n é a ordem de A e que A é quadrada de ordem n se m = n.
A diagonal principal é formada pelos elementos aii .
A matriz A é dita ser triangular superior (respectivamente triangular inferior) se todos as entradas
abaixo (resp. acima) da diagonal principal são nulas, isto é, ai j = 0 para todo i > j (resp. i < j).
4 Capítulo 1. Revisão: matrizes, determinantes e sistemas lineares

A matriz A é dita ser diagonal se todos as entradas fora da diagonal principal são nulas, isto é, ai j = 0
para todo i 6= j. Neste caso, também denota-se A = diag(a11 , . . . , ann ).
A matriz identidade de ordem n é In = (ai j )n×n onde aii = 1 para todo i = 1, . . . , n e ai j = 0 se i 6= j.

Definição 1.1.1 Sejam A = (ai j )m×n , B = (bi j )m×n ,C = (c jk )n×p matrizes e α um escalar. A soma
A + B é a matriz D = (di j )m×n tal que

di j = ai j + bi j ∀ i = 1, . . . , m, j = 1, . . . , n.

A multiplicação por escalar αA é a matriz E = (ei j )m×n tal que

ei j = αai j ∀ i = 1, . . . , m, j = 1, . . . , n.

A multiplicação AC é a matriz F = ( fik )m×p tal que


n
fik = ∑ ai j c jk ∀ i = 1, . . . , m, k = 1, . . . , p.
j=1

A matriz transposta de A é a matriz A> = (gi j )n×m tal que

gi j = a ji ∀ i = 1, . . . , m, j = 1, . . . , n.

A proposição a seguir sintetiza as principais propriedades envolvendo as operações com matrizes


definidas anteriormente.

Proposição 1.1.2 Sejam A, B,C matrizes m × n, D matriz n × p, E matriz p × q, F matriz r × m e


α, β escalares. São válidas as seguintes propriedades.

(i) Comutatividade da soma:


A + B = B + A.

(ii) Associatividade da soma:


A + (B +C) = (A + B) +C.

(iii) Existência de elemento neutro para a soma:

A + 0 = A,

onde 0 aqui denota a matriz nula de ordem m × n. Usaremos a mesma notação para o escalar
nulo, mas pelo contexto ficará óbvio a qual deles estamos nos referindo.

(iv) Existência de inverso aditivo: para cada matriz A = (ai j )m×n existe única −A = (−ai j )m×n tal
que
A + (−A) = 0.

(v) Associatividade da multiplicação por escalar:

α(β A) = (αβ )A e α(AD) = (αA)D = A(αD).

(vi) Distributividade da soma com multiplicação por escalar:

(α + β )A = αA + β A e α(A + B) = αA + αB.
1.1 Matrizes 5

(vii) Associatividade do produto:


A(DE) = (AD)E.

(viii) Existência de elemento neutro para o produto:

AIn = Im A = A,

onde Is é a matriz identidade de ordem s.

(ix) Distributividade da soma com produto:

F(A + B) = FA + FB e (A + B)D = AD + BD.

(x) (A> )> = A.

(xi) (A + B)> = A> + B> .

(xii) (αA)> = αA> .

(xiii) (AD)> = D> A> .

(xiv) Se X = (xi )n×1 é uma matriz n × 1, então


n
AX = ∑ x jA j,
j=1

onde A j é a j-ésima coluna de A. Em termos matriciais,


 
x1
[A1 A2 · · · An ]  ...  = x1 A1 + · · · + xn An .
 

xn

Uma matriz quadrada A = (ai j )n×n é inversível ou não singular se existe uma matriz B = (bi j )n×n
tal que
AB = BA = In .
Neste caso a matriz B é chamada de inversa de A. Se A não tem inversa dizemos que A é não inversível
ou singular.

Proposição 1.1.3 Sejam A = (ai j )n×n e B = (bi j )n×n matrizes.

(i) Se A é inversível, então a inversa é única. Neste caso, denotaremos A−1 a matriz inversa de A.

(ii) Se AB = In , então BA = In .

(iii) Se A é inversível, então A−1 também o é, e

(A−1 )−1 = A.

(iv) Se A e B são inversíveis, então AB também o é, e

(AB)−1 = B−1 A−1 .


6 Capítulo 1. Revisão: matrizes, determinantes e sistemas lineares

(v) Se A é inversível, então A> também o é, e

(A> )−1 = (A−1 )> .

(vi) Se AB é inversível, então A e B também o são.

O traço de uma matriz quadrada A = (ai j )n×n é definido por


n
tr (A) = a11 + · · · + ann = ∑ aii .
i=1

A proposição a seguir sintetiza as principais propriedades relacionadas ao traço de matrizes.

Proposição 1.1.4 Sejam A = (ai j )n×n e B = (bi j )n×n matrizes e α um escalar.

(i) tr (A + B) = tr (A) + tr (B).

(ii) tr (αA) = α tr (A).

(iii) tr (A> ) = tr (A).

(iv) tr (AB) = tr (BA).

Observação 1.1.5 Não é verdade, em geral, que tr (AB) = tr (A) tr (B) (encontre um contra-
exemplo). Não confunda isso com o item (iv) da Proposição 1.1.4!

1.2 Determinantes
Determinante, nada mais é que uma função, que associa a cada matriz quadrada A ∈ Mn (K), um
escalar det A ∈ K (ou det(A)). Essa função possui algumas propriedades interessantes, que muitas vezes
permitem obter informações importantes sobre as matrizes economizando muitos cálculos. Existem
algumas maneiras distintas e equivalentes de definir o determinante de uma matriz. Aqui apresentaremos
a definição por cofatores, que é dada via indução sobre a ordem da matriz.
Se A = (a11 ) é uma matriz 1 × 1, define-se o determinante de A por

det A = a11 .

Para matrizes quadradas de ordem maior que 1, definiremos o determinante por indução. Seja A =
(ai j )n×n uma matriz com n ≥ 2 e suponha que o determinante de matrizes de ordem (n − 1) × (n − 1)
foi definido. O menor do elemento ai j , denotado por Ãi j , é a submatriz de ordem (n − 1) × (n − 1)
obtida de A retirando-se a i-ésima linha e a j-ésima coluna de A. O cofator do elemento ai j , denotado
por ãi j , é definido por
ãi j = (−1)i+ j det(Ãi j ).
O determinante de A é definido por
n
det A = ∑ a1k ã1k . (1.1)
k=1

A expressão (1.1) é chamada de desenvolvimento do determinante de A em cofatores na primeira linha.


1.2 Determinantes 7

Teorema 1.2.1 Seja A = (ai j )n×n uma matriz. O determinante de A pode ser calculado fazendo-se
o desenvolvimento em cofatores em qualquer linha ou qualquer coluna, isto é,

n
det A = ∑ aik ãik ∀ i = 1, . . . , n, (1.2)
k=1
n
= ∑ ak j ãk j ∀ j = 1, . . . , n. (1.3)
k=1

A expressão (1.2) é chamada de desenvolvimento do determinante de A em cofatores na i-ésima


linha, e a expressão (1.3) é chamada de desenvolvimento do determinante de A em cofatores na
j-ésima coluna.

A seguir, apresentamos as principais propriedades sobre determinantes.

Proposição 1.2.2 Sejam A = (ai j )n×n , B = (bi j )n×n matrizes e α um escalar. São válidas as seguin-
tes propriedades.

(i) Se A é uma matriz triangular superior ou inferior, então


n
det A = ∏ aii .
i=1

(ii) Se B é obtida de A multiplicando-se uma linha de A por α, então

det B = α det A.

(iii) Se B é obtida de A trocando-se duas linhas distintas de posição, então

det B = − det A.

(iv) Se B é obtida de A substituindo-se a l-ésima linha por ela somada a um múltiplo escalar da
k-ésima linha, com k 6= l, então
det B = det A.

(v) Escrevendo A em termos das suas linhas:


 
A1
 .. 
 . 
 
A=
 A k
,

 .. 
 . 
An

onde Ak = [ ak1 ak2 · · · akn ] é a k-ésima linha de A, se Ak = X +Y , onde X,Y são matrizes
8 Capítulo 1. Revisão: matrizes, determinantes e sistemas lineares

1 × n, então    
A1 A1
 ..   .. 
 .   . 
   
 Ak−1   Ak−1 
   
det A = det  X  + det 
 
 Y
.

 Ak+1   Ak+1 
   
 ..   .. 
 .   . 
An An

(vi) det(AB) = det A det B.

(vii) det(A> ) = det A.

(viii) A é inversível se, e somente se, det A 6= 0.

Observação 1.2.3 • Pode-se, usando as propriedades (ii), (iii) e (iv), transformar o cálculo do
determinante de uma matriz no cálculo do determinante de uma matriz triangular superior, o
que é bem mais simples pela propriedade (i).

• Pelo item (vii), todas as propriedades de determinantes referentes às linhas da matriz também
são válidas em relação as colunas.

 
0 1 4
 Exemplo 1.2.4 Calcule det A, onde A = 5 −10 15.
2 −1 7
Solução. Primeiro efetuamos algumas operações com a matriz para simplificar o cálculo do determi-
nante. Para facilitar o entendimento, denotamos por Li a i-ésima linha.
     
5 −10 15 1 −2 3 1 −2 3
(L1 ↔L2 ) (L3 ← L3 −2L1 )
det A = − det 0 1 4  = −5 · det 0 1 4 = −5 · det 0 1 4
2 −1 7 2 −1 7 0 3 1

 
1 −2 3
(L3 ← L3 −3L2 )
= −5 · det 0 1 4 
0 0 −11

Como essa última matriz é triangular superior, o seu determinante é o produto das entradas da diagonal
principal, logo
det A = −5 · 1 · 1 · (−11) = 55.

1.3 Sistemas lineares

Uma equação linear em n variáveis (ou incógnitas) x1 , x2 , . . . , xn é uma equação da forma

a1 x1 + a2 x2 + · · · + an xn = b,
1.3 Sistemas lineares 9

onde a1 , a2 , . . . , an e b são constantes. Um sistema de equações lineares ou simplesmente sistema linear


é um conjunto de equacões lineares, ou seja, é um conjunto de equações da forma:


 a11 x1 + a12 x2 + · · · + a1n xn = b1
 a21 x1 + a22 x2 + · · · + a2n xn = b2

.. (1.4)


 .
am1 x1 + am2 x2 + · · · + amn xn = bm

onde ai j e bk são constantes, para i, k = 1, . . . , m e j = 1, . . . , n. Usando o produto de matrizes, o sistema


linear (1.4) pode ser escrito como uma equação matricial AX = B, onde
     
a11 a12 · · · a1n x1 b1
 a21 a22 · · · a2n   x2   b2 
A= . , X = e B =  ..  .
     
.. ..   .. 
 .. . .   .   . 
am1 am2 · · · amn xn bm
 
s1
 s2 
Uma solução do sistema linear é uma matriz S =   tal que as equações do sistema são satisfeitas
 
..
 . 
sn
quando substituímos x1 = s1 , x2 = s2 , . . . , xn = sn , ou equivalentemente, AS = B. Também, costuma-se
denotar a solução como uma n-upla S = (s1 , s2 , . . . , sn ) ∈ Kn . O conjunto de todas as soluções do
sistema é chamado conjunto solução ou solução geral do sistema. A matriz A á chamada matriz do
sistema linear. A matriz aumentada do sistema linear é a seguinte:
 
a11 a12 · · · a1n b1
 a21 a22 · · · a2n b2 
[A|B] =  . ..  .
 
.. ..
 .. . . . 
am1 am2 · · · amn bm

Dois sistemas lineares são ditos equivalentes se possuem exatamente as mesmas soluções.

Proposição 1.3.1 (i) Se um sistema linear AX = B possui duas soluções distintas, então ele
possui infinitas soluções. Daí segue que uma, e apenas uma, das três possibilidades a seguir
pode ocorrer: o sistema tem uma única solução, tem infinitas soluções, ou não tem nenhuma
solução.

(ii) Se A é uma matriz quadrada, então o sistema AX = B tem uma única solução se, e somente se,
A é inversível. Neste caso a solução é X = A−1 B.

Se b1 = b2 = · · · = bm = 0, o sistema (1.4) é chamado de homogêneo. Tal sistema pode ser escrito


na forma matricial AX = 0 (onde 0 aqui denota a matrizm × 1comtodas
 entradas nulas). Todo sistema
s1 0
 s2   0 
linear homogêneo admite pelo menos a solução S =  .  =  . , chamada de solução trivial.
   
 .   .. 
.
sn 0
Assim, um sistema linear homogêneo ou tem somente uma solução (a trivial) ou tem infinitas soluções.
10 Capítulo 1. Revisão: matrizes, determinantes e sistemas lineares

Teorema 1.3.2 Seja A = (ai j )m×n uma matriz com m < n. Então, o sistema linear homogêneo
AX = 0 (que tem m equações e n incógnitas) tem infinitas soluções.

1.4 Operações elementares


Definição 1.4.1 Uma operação elementar sobre as linhas de uma matriz é uma das seguintes
operações:

(i) trocar a posição de duas linhas da matriz;

(ii) multiplicar uma linha da matriz por um escalar diferente de zero;

(iii) somar a uma linha da matriz um múltiplo escalar de outra linha.

Definição 1.4.2 Duas matrizes são linha-equivalentes se uma é obtida da outra após uma quantidade
finita de operações elementares sobre suas as linhas.

Teorema 1.4.3 Dois sistemas lineares que possuem matrizes aumentadas linha-equivalentes são
equivalentes.

Definição 1.4.4 Uma matriz A = (ai j )m×n está na forma escalonada reduzida quando satisfaz as
seguintes condições:

(i) Todas as linhas nulas (formadas inteiramente por zeros) ocorrem abaixo das linhas não nulas.

(ii) O pivô (primeiro elemento não nulo de uma linha) de cada linha não nula é igual a 1.

(iii) O pivô de cada linha não nula ocorre à direita do pivô da linha anterior.

(iv) Se uma coluna contém um pivô, então todos os seus outros elementos são iguais a zero.

Se A satisfaz as propriedades (i) e (iii), mas não necessariamente (ii) e (iv), dizemos que ela está na
forma escalonada.

 Exemplo 1.4.5 As matrizes A e B a seguir estão na forma escalonada:


   
3 9 1 1 6 −2 5
A = I3 =  0 −1 −5  , B =  0 0 −4 11  .
0 0 4 0 0 0 0

As matrizes C e D a seguir estão na forma escalonada reduzida:


   
1 0 0 1 2 0 −5
C =  0 1 0 , D =  0 0 1 9 .
0 0 1 0 0 0 0


Devido o Teorema 1.4.3, para se resolver um sistema linear pode-se aplicar o método do escalona-
mento, que consiste em aplicar operações elementares sobre as linhas de sua matriz aumentada para
se obter uma matriz na forma escalonada (também conhecido como método de Gauss) ou escalonada
reduzida (também conhecido como método de Gauss-Jordan). O sistema linear que tem essa nova
matriz como matriz aumentada tem as mesmas soluções e é bem mais fácil de resolver.
1.5 Método para inversão de matrizes 11

1.5 Método para inversão de matrizes


Seja A uma matriz n × n. Para verificarmos se A é inversível basta verificarmos se existe uma matriz
B tal que AB = In . Vamos denotar as colunas de B por X1 , X2 , . . . , Xn , ou seja, B = [ X1 · · · Xn ], onde
     
x11 x12 x1n
 x21   x22   x2n 
X1 =  .  , X2 =  .  , . . . , Xn =  .  ,
     
 ..   ..   .. 
xn1 xn2 xnn
e as colunas da matriz identidade In por E1 , . . . , En , ou seja, In = [ E1 · · · En ], onde
     
1 0 0
 0   1   0 
E1 =  .  , E2 =  .  , . . . , En =  ..  .
     
 ..   ..   . 
0 0 1
Assim,
AB = In ⇔ A[ X1 · · · Xn ] = [ AX1 · · · AXn ] = [ E1 · · · En ].
Analisando coluna a coluna a equação anterior, vemos que encontrar B é equivalente a resolver n
sistemas lineares
AX j = E j , j = 1, . . . , n.
Cada um dos sistemas pode ser resolvido usando o método de Gauss-Jordan. Para isso, formamos as
matrizes aumentadas [A|E1 ], [A|E2 ], . . . , [A|En ]. Como as matrizes destes sistemas são todas iguais a A,
podemos resolver todos os sistemas simultaneamente formando a matriz n × 2n [A | E1 E2 · · · En ] =
[A | In ]. Transformando [A | In ] na sua forma escalonada reduzida, que vamos denotar por [R | S ], vamos
chegar a duas situações possíveis: ou a matriz R é a matriz identidade, ou não é.

• Se R = In , então a forma escalonada reduzida da matriz [A | In ] é da forma [In | S ]. Se escrevemos a


matriz S em termos das suas colunas S = [S1 S2 · · · Sn ], então as soluções dos sistemas In X j = S j
são X j = S j , que são as mesmas soluções dos sistemas AX j = E j , e assim B = S é tal que AB = In ,
logo A é inversível.
• Se R 6= In , então pode-se mostrar que a matriz R tem uma linha nula. Isso implica que cada um
dos sistemas AX j = E j ou tem infinitas soluções ou não tem solução. Daí, segue que a matriz A
não tem inversa, pois as colunas da (única) inversa seriam X j , para j = 1, . . . , n.

Com isso, obtemos não somente uma forma de descobrir se uma matriz A tem inversa, mas
também, como encontrar a inversa, no caso em que ela exista. Ou seja, escalonamos a matriz [A | In ]
e encontramos a sua forma escalonada reduzida [R | S ]. Se R = In , então a matriz A é inversível e a
inversa é S. Caso contrário, a matriz A não é inversível. Além disso, obtemos o seguinte corolário.

Corolário 1.5.1 Uma matriz A n × n é inversível se, e somente se, A é linha-equivalente à matriz
identidade In .
 
0 1 5
 Exemplo 1.5.2 Considere a matriz do Exemplo 1.2.4: A = 3 −6 9. Escalonando a matriz
2 6 1
[A | I3 ], temos
     
0 1 5 1 0 0 3 −6 9 0 1 0 1 1 −2 3 0 1/3 0
(L1 ← L1 )
 3 −6 9 0 1 0  (L1 ↔ L2 )
∼  0 1 5 1 0 0  ∼3  0 1 5 1 0 0 
2 6 1 0 0 1 2 6 1 0 0 1 2 6 1 0 0 1
12 Capítulo 1. Revisão: matrizes, determinantes e sistemas lineares
   
1 −2 3 0 1/3 0 1 −2 3 0 1/3 0
(L3 ← L3 −2L1 ) (L3 ← L3 −10L2 )
∼  0 1 5 1 0 0  ∼  0 1 5 1 0 0 
0 10 −5 0 −2/3 1 0 0 −55 −10 −2/3 1
 
1 1 −2 3 0 1/3 0
(L3 ← − 55 L3 )
∼  0 1 5 1 0 0 
0 0 1 2/11 2/165 −1/55
 
1 −2 3 0 1/3 0
(L2 ← L2 −5L3 )
∼  0 1 0 1/11 −2/33 1/11 
0 0 1 2/11 2/165 −1/55
 
1 −2 0 −30/55 49/165 3/55
(L1 ← L1 −3L3 )
∼  0 1 0 1/11 −2/33 1/11 
0 0 1 2/11 2/165 −1/55
 
1 0 0 −4/11 29/165 13/55
(L1 ← L1 +2L2 )
∼  0 1 0 1/11 −2/33 1/11  .
0 0 1 2/11 2/165 −1/55
Essa última matriz é a forma escalonada reduzida de [A | I3 ]. Assim, A é linha-equivalente a matriz
identidade I3 e  
−4/11 29/165 13/55
S =  1/11 −2/33 1/11  = A−1 .
2/11 2/165 −1/55


 
1 10 4
 Exemplo 1.5.3 Considere a matriz A = −1 2 0. Escalonando a matriz [A | I3 ], temos
2 11 5
   
1 10 4 1 0 0 1 10 4 1 0 0
 −1 2 0 0 1 0  (L3 ← L∼3 −2L1 )  −1 2 0 0 1 0 
2 11 5 0 0 1 0 −9 −3 −2 0 1
   
1 10 4 1 0 0 1 1 10 4 1 0 0
(L2 ← L2 +L1 ) (L2 ← 12 L2 )
∼  0 12 4 1 1 0  ∼  0 1 1/3 1/12 1/12 0 
0 −9 −3 −2 0 1 0 −9 −3 −2 0 1
   
1 10 4 1 0 0 1 0 2/3 1/6 −5/6 0
(L3 ← L3 +9L2 ) (L1 ← L1 −10L2 )
∼  0 1 1/3 1/12 1/12 0  ∼  0 1 1/3 1/12 1/12 0 
0 0 0 −5/4 3/4 1 0 0 0 −5/4 3/4 1
Essa última matriz é a forma escalonada reduzida de [A | I3 ]. Assim, a forma escalonada reduzida de A
é a matriz  
1 0 2/3
S =  0 1 1/3  ,
0 0 0
que tem uma linha nula. Portanto, a matriz A não é inversível. 

No caso de matrizes 2 × 2, às vezes é útil lembrar da fórmula


1.5 Método para inversão de matrizes 13

 −1  
a b 1 d −b
= (se ad − bc 6= 0). (1.5)
c d ad − bc −c a
Capítulo 2

Espaços vetoriais

Neste capítulo, apresentaremos o conceito de espaço vetorial, assim como seus fundamentos
essenciais: bases e dimensão. Basicamente, os espaços vetoriais, de dimensão finita - que são o foco
desse curso, são um conjunto que se comportam como Rn (ou Cn ): conjunto de n-uplas de números
reais (ou complexos), onde é possível fazer somas de seus elementos e multiplicação por escalar (no
caso de n-uplas essas operações são feitas coordenada a coordenada).
Primeiramente apresentaremos a definição de espaço vetorial, e a partir disso toda a teoria será
desenvolvida. É interessante acompanhar como todas as proposições e teoremas vão sendo construídos
passo a passo a partir das definições, sem precisar apelar para resultados muito técnicos e com provas
complicadas. Por esse motivo, recomendamos a leitura atenta das demonstrações, pois elas auxiliam no
entendimento dos conceitos e também fornecem ferramentas para resolver os exercícios. Lembramos
que denotaremos o corpo de escalares por K, significando K = R ou C.
A discussão apresentada nesse capítulo foi motivada pelos livros [Axl], [Coe] e [Nic].

2.1 Definição e propriedades básicas


Definição 2.1.1 Um espaço vetorial sobre K, ou K-espaço vetorial é um conjunto não vazio V
(cujos elementos são chamados de vetores) munido de duas operações: uma chamada de soma ou
adição, + : V ×V → V , que a cada par de vetores u, v ∈ V associa um (único) novo vetor u + v ∈ V ,
e outra chamada de multiplicação por escalar, · : K ×V → V , que a cada elemento α ∈ K (chamado
de escalar) e a cada vetor v ∈ V associa um (único) vetor α · v = αv ∈ V , que devem satisfazer as
propriedades a seguir.

(i) u + v = v + u, para todos u, v ∈ V (comutatividade da soma);

(ii) (u + v) + w = u + (v + w), para todos u, v, w ∈ V (associatividade da soma);

(iii) existe 0 ∈ V tal que 0 + u = u, para todo u ∈ V (vetor nulo);

(iv) para cada v ∈ V existe −v ∈ V tal que v + (−v) = 0 (vetor simétrico);

(v) 1 · v = v, para todo v ∈ V ;

(vi) α(β u) = (αβ )u, para todos α, β ∈ K e u ∈ V (associatividade da multiplicação por escalar);

(vii) (α + β )u = αu + β u, para todos α, β ∈ K e u ∈ V (distributividade 1);

(viii) α(u + v) = αu + αv, para todos α ∈ K e u, v ∈ V (distributividade 2).


16 Capítulo 2. Espaços vetoriais

Observação 2.1.2 O símbolo “0” também é usado para denotar o número zero de K. Isso não
causará confusão, pois ficará claro pelo contexto a que a notação se refere.

Listaremos a seguir, as propriedades mais imediatas das operações de um espaço vetorial. As


demonstrações seguem dos itens da Definição 2.1.1, sendo um bom exercício tentar prová-las sem olhar
a demonstração apresentada.

Proposição 2.1.3 — Propriedades básicas. Seja V um K-espaço vetorial.

(i) O vetor nulo é único.

(ii) O vetor simétrico de um vetor dado é único.

(iii) Para todo v ∈ V , tem-se 0 · v = 0.

(iv) Para todo α ∈ K, tem-se α · 0 = 0.

(v) Para todo v ∈ V , tem-se (−1)v = −v.

(vi) Se α ∈ K e v ∈ V são tais que αv = 0, então α = 0 ou v = 0.

Demonstração. (i) Suponha que 01 e 02 sejam dois vetores nulos, então


02 é v.n. 01 é v.n.
01 = 01 + 02 = 02 .

(ii) Seja v ∈ V suponha que v1 e v2 são vetores simétricos de v, então

v1 = v1 + 0 = v1 + (v + v2 ) = (v1 + v) + v2 = 0 + v2 = v2 .

(iii) 0 · v = (0 + 0)v = 0 · v + 0 · v ⇒ 0 = 0 · v + (−0 · v) = 0 · v + 0 · v + (−0 · v) = 0 · v + 0 = 0 · v.

(iv) α ·0 = α ·(0+0) = α ·0+α ·0 ⇒ 0 = α ·0+(−α ·0) = α ·0+α ·0+(−α ·0) = α ·0+0 = α ·0.

(v) v + (−1)v = 1 · v + (−1)v = (1 − 1)v = 0 · v = 0 ⇒ (−1)v = −v.

(vi) Se α 6= 0, então
 
1 1 1
αv = 0 ⇒ (αv) = · 0 = 0 ⇒ v = 1 · v = α v = 0.
α α α

A seguir, serão listados alguns exemplos de espaços vetoriais. Fica como exercício para o leitor
verificar que de fato eles satisfazem as oito condições da Definição 2.1.1.
 Exemplo 2.1.4 — Espaço nulo. V = {0}, que consiste do espaço com um só elemento (obrigatori-
amente o vetor nulo). 

 Exemplo 2.1.5 — Espaço Kn . Dado n ∈ N, o conjunto das n-uplas em K,

Kn = {(a1 , . . . , an ) : ai ∈ K, i = 1, . . . , n}

é um K-espaço vetorial com as seguintes operações:


2.1 Definição e propriedades básicas 17

• dados u = (a1 , . . . , an ) e v = (b1 , . . . , bn ) em Kn , u + v = (a1 + b1 , . . . , an + bn );

• dados u = (a1 , . . . , an ) ∈ Kn e α ∈ K, αu = (αa1 , . . . , αan ).

Se n = 1, teremos o próprio K como K-espaço vetorial.


Se K = R e n = 2 ou 3, as operações com vetores em R2 e R3 podem ser visualizadas geometrica-
mente.

Figura 2.1: Vetores

Cn também é um R-espaço vetorial com as operações definidas da mesma maneira. 

 Exemplo 2.1.6 — Espaço de matrizes. O conjunto Mm×n (K) formado pelas matrizes m × n com
entradas em K é um K-espaço vetorial com as operações usuais de soma de matrizes e multiplicação
por escalar.
Quando m = n denotaremos Mn×n (K) simplesmente por Mn (K). 

 Exemplo 2.1.7 — Espaço de polinômios. O conjunto

P(K) = {p(x) = a0 + a1 x + · · · + an xn : ai ∈ K e n ∈ N}

é um K-espaço vetorial com as operações definidas a seguir.

• Sejam p(x) = a0 + a1 x + · · · + an xn e q(x) = b0 + b1 x + · · · + bm xm em P(K). Sem perda de


generalidade, suponha m ≤ n. Então

p(x) + q(x) = (a0 + b0 ) + (a1 + b1 )x + · · · + (am + bm )xm + am+1 xm+1 + · · · + an xn .

• Dados p(x) = a0 + a1 x + · · · + an xn ∈ P(K) e α ∈ K,

α p(x) = (αa0 ) + (αa1 )x + · · · + (αan )xn .

 Exemplo 2.1.8 — Espaço das soluções de um sistema linear homogêneo. Dado um sistema
linear homogêneo


 a11 x1 + a12 x2 + · · · + a1n xn = 0
 a21 x1 + a22 x2 + · · · + a2n xn = 0

L: ..


 .
am1 x1 + am2 x2 + · · · + amn xn = 0

18 Capítulo 2. Espaços vetoriais

onde
 ai j ∈ K para todos i = 1, . . . , m, j = 1, . . . , n, o conjunto formado por todas as soluções S =
s1
 s2 
 ∈ Mn×1 (K) de L é um K-espaço vetorial, com a operações usuais de Mn×1 (K).
 
 .. 
 . 
sn

 Exemplo 2.1.9 — Espaço de funções. Seja X um conjunto não vazio. O conjunto F (X, K) das
funções f : X → K é um K-espaço vetorial com as operações definidas a seguir.

• Dados f , g ∈ F (X, K), a função f + g : X → K é definida por ( f + g)(x) = f (x) + g(x) para
todo x ∈ X.

• Dados f ∈ F (X, K) e α ∈ K, a função α f : X → K é definida por (α f )(x) = α f (x) para todo


x ∈ X.

Observe que a estrutura de K-espaço vetorial de F (X, K) depende somente das operações em K (X é
um conjunto qualquer).
Um caso particular importante, é quando X = N. Neste caso F (N, K) é o espaço de sequências, e
é mais comum denotar f : N → K por (xn )n∈N , onde xn = f (n). Assim,

(xn )n∈N + (yn )n∈N = (xn + yn )n∈N e α(xn )n∈N = (αxn )n∈N .

 Exemplo 2.1.10 — Produto cartesiano. Sejam U e V K-espaços vetoriais. Então o produto

cartesiano U × V = {(u, v) : u ∈ U e v ∈ V } é um K-espaço vetorial com as operações definidas


coordenada a coordenada, isto é, dados (u1 , v1 ), (u2 , v2 ) ∈ U ×V e α ∈ K,

(u1 , v1 ) + (u2 , v2 ) = (u1 + u2 , v1 + v2 ) e α(u1 , v1 ) = (αu1 , αv1 ).

2.2 Subespaços vetoriais, soma de subespaços, soma direta


A seguir apresentamos o conceito de subespaço vetorial, que basicamente é um espaço vetorial
dentro de outro.
Definição 2.2.1 Seja V um K-espaço vetorial. Um subconjunto não vazio W de V é um subespaço
vetorial de V se a restrição das operações de V a W torna esse conjunto um K-espaço vetorial.
Se W ⊆ V é um subespaço e W 6= V , dizemos que W é um subespaço próprio de V .

Observe que, para W ser um espaço vetorial com as operações de V , precisa-se verificar as oito
condições da Definição 2.1.1 para W . Mas todas, exceto (iii) e (iv), já serão automaticamente satisfeitas
por V ser espaço vetorial e W ⊆ V . Sendo assim, resta verificar essas duas condições, e se de fato as
restrições das operações a W ficam bem definidas em W , isto é, se a soma de dois vetores de W resulta
em um vetor de W (e não de V \W ) e o mesmo para a multiplicação por escalar. O próximo resultado
diz que na verdade precisamos mostrar um pouco menos que isso.
2.2 Subespaços vetoriais, soma de subespaços, soma direta 19

Proposição 2.2.2 Sejam V é um K-espaço vetorial e W ⊆ V . Então W é um subespaço vetorial se,


e somente se, as seguintes condições são satisfeitas:

(i) 0 ∈ W ;

(ii) se v1 , v2 ∈ W , então v1 + v2 ∈ W ;

(iii) se v ∈ W e α ∈ K, então αv ∈ W .

Demonstração. Suponha que W é subespaço vetorial. Então as condições (ii) e (iii) são satisfeitas pois
as restrições devem se tornar operações bem definidas em W . Além disso deve existir um vetor nulo
0W ∈ W , e este por sua vez deve ser igual ao vetor nulo de V , pois caso contrário V teria dois vetores
nulos, contrariando a unicidade. Portanto 0 ∈ W .
Reciprocamente, suponha que as condições (i), (ii) e (iii) são satisfeitas. As condições (ii) e (iii)
garantem que as as restrições das operações a W ficam bem definidas em W . A condição (i) garante
que W 6= 0/ e que a condição (iii) da Definição 2.1.1 é satisfeita para W . Resta verificar que dado v ∈ W ,
tem-se −v ∈ W . Mas −v = (−1) · v ∈ W por (iii). 

 Exemplo 2.2.3 Se V é um K-espaço vetorial, então {0} e V são subespaços vetoriais de V , chamados

de subespaços triviais. 

 Exemplo 2.2.4 Mostremos que U = {(x, y) ∈ R2 : x + y = 0} é subespaço vetorial de R2 .


É suficiente verificar as três condições da Proposição 2.2.2.

(i) 0 = (0, 0) ∈ U pois 0 + 0 = 0.

(ii) Se u = (x1 , y1 ) e v = (x2 , y2 ) ∈ U, então x1 + y1 = 0 = x2 + y2 . Daí, u + v = (x1 + x2 , y1 + y2 )


satisfaz
(x1 + x2 ) + (y1 + y2 ) = (x1 + y1 ) + (x2 + y2 ) = 0 + 0 = 0.
Logo u + v ∈ U.

(iii) Se u = (x, y) ∈ U e α ∈ K, então αu = (αx, αy) e αx + αy = α(x + y) = α · 0 = 0. Logo αu ∈ U.

Mais geralmente, dados a, b ∈ R, o subconjunto W = {(x, y) ∈ R2 : ax + by = 0} é um subespaço


vetorial de R2 (verifique). Geometricamente, W representa uma reta no plano, que passa pela origem. 

Exercício 2.1 Mostre que, dados a, b, c ∈ R, o conjunto U = {(x, y, z) ∈ R3 : ax + by + cz = 0} é


subespaço vetorial de R3 . Geometricamente, U representa um plano que passa pela origem.
Um plano em R3 que não passa pela origem é um subespaço vetorial?

 Exemplo 2.2.5 O subconjunto U = {(x, y) ∈ R2 : x ≥ 0 e y ≥ 0} não é um subespaço vetorial de R2 ,


pois, por exemplo, (1, 1) ∈ U e −1 ∈ R, mas −1 · (1, 1) = (−1, −1) ∈
/ U. 

Nos próximos exemplos, deixaremos a cargo do leitor a verificação de que os subconjuntos


apresentados são, de fato, subespaços vetoriais.
 Exemplo 2.2.6 Dado n ∈ N, considere Pn (K) = {p(x) = a0 + a1 x + · · · + an xn : ai ∈ K}, isto é, o
conjunto dos polinômios com coeficientes em K e grau no máximo n. Então, Pn (K) é subespaço
vetorial do espaço de polinômios P(K) (Exemplo 2.1.7). 
20 Capítulo 2. Espaços vetoriais

 Exemplo 2.2.7 Considere U = C ([0, 1], R) o conjunto das funções f : [0, 1] → R contínuas. Então,
U é subespaço vetorial do espaço de funções F ([0, 1], R) (Exemplo 2.1.9). 

 Z 1 
 Exemplo 2.2.8 Seja V = C ([0, 1], R). O subconjunto U = f ∈V : f (x) dx = 0 é um subes-
0
paço vetorial de V . 

 Exemplo 2.2.9 Seja V = Mn (K). Os subconjuntos

W1 = {A ∈ V : A = A> } e W2 = {A ∈ V : A = −A> }

são subespaços vetoriais de V . As matrizes em W1 são chamadas de simétricas e as matrizes em W2 são


chamadas de antissimétricas.
>
Se K = C, então o conjunto U = {A ∈ V : A = A } é um R-subespaço vetorial de Mn (C) (visto como
espaço sobre R), onde A denota a matriz cujas entradas são os conjugados complexos das respectivas
entradas em A. As matrizes em U são chamadas de hermitianas. Se K = R o espaço U também poderia
ser definido, no entanto ele seria exatamente W1 . 

 Exemplo 2.2.10 Dados V um espaço vetorial e U,W subespaços vetoriais de V , então U ∩W é um

subespaço vetorial de V (verifique). Mais geralmente, pode-se provar que a interseção de qualquer
família de subespaços, mesmo que uma quantidade infinita, também é sempre subespaço vetorial.
Em geral, U ∪W não é um subespaço vetorial de V (encontre um contra-exemplo). 

Definição 2.2.11 Sejam V um K-espaço vetorial e U,W ⊆ V subespaços.

(i) Dizemos a soma de U e W é o conjunto de todas as possíveis somas entre um elemento de U


e um de W , isto é U +W = {u + w : u ∈ U, w ∈ W }.

(ii) Dizemos que a soma é direta quando U ∩W = 0. Neste caso, denotamos U ⊕W .

Observação 2.2.12 A soma de dois subespaços é sempre um espaço vetorial (verifique).

A ∈ V : A = A>

 Exemplo 2.2.13 Considere V = Mn (K) e os subespaços U = e
−A>

W = A∈V :A= . Verifique que V = U ⊕W .
Solução. Para demonstrar a igualdade de conjuntos V = U + W , a rigor, precisamos verificar que
V ⊆ U +W e U +W ⊆ V . A última continência é direta, pois U,W ⊆ V são subespaços. Precisamos
verificar que V ⊆ U +W . Seja A ∈ V . Considere B,C ∈ V definidos por

1 1
B = (A + A> ) e C = (A − A> ).
2 2

É fácil ver que A = B +C. Mostremos que B ∈ U e C ∈ W .


 >
> 1 > 1 1 1
B = (A + A ) = (A + A> )> = (A> + (A> )> ) = (A> + A) = B ⇒ B ∈ U,
2 2 2 2
e,
 >
1 1 1 1
C> = (A − A> ) = (A − A> )> = (A> − (A> )> ) = (A> − A) = −C ⇒ C ∈ W.
2 2 2 2
2.2 Subespaços vetoriais, soma de subespaços, soma direta 21

Assim, todo elemento de V também é um elemento de U +W , donde segue que V ⊆ U +W . Portanto,

V = U +W.

Para concluir que a soma é direta, resta verificar que U ∩W = {0}. A inclusão {0} ⊆ U ∩W é imediata,
pois U e W são subespaços, logo 0 ∈ U,W . Suponha A ∈ U ∩W . Então

A> = A = −A> ⇒ 2A> = 0 ⇒ A> = 0 ⇒ A = 0.

Logo, U ∩W = {0}. Portanto, V = U ⊕W . 

Proposição 2.2.14 Sejam V um K-espaço vetorial e U,W ⊆ V subespaços. A soma U +W é direta


se, e somente se, cada elemento v ∈ U +W pode ser escrito de modo único como uma soma v = u + w
com u ∈ U e w ∈ W .

Demonstração. Suponha que a soma U +W é direta. Então, U ∩W = 0. Dado v ∈ U +W , suponha


que existam u1 , u2 ∈ U e w1 , w2 ∈ W tais que

v = u1 + w1 = u2 + w2 .

Então,
u1 − u2 = w1 − w2 .

Como U e W são subespaços, u1 − u2 ∈ U e w2 − w1 ∈ W . Logo, u1 − u2 = w1 − w2 ∈ U ∩W = {0}.


Portanto,
u1 − u2 = w1 − w2 = 0 ⇒ u1 = u2 e w1 = w2 .

Reciprocamente, suponha que cada elemento v ∈ U +W pode ser escrito de modo único como uma
soma v = u + w com u ∈ U e w ∈ W . Temos que mostrar que U ∩W = {0}. A inclusão {0} ⊆ U ∩W é
imediata, já que U e V são subespaços. Seja v ∈ u ∩W .
Por um lado, v ∈ U e 0 ∈ W e assim v = v + 0 é uma decomposição como soma de um elemento de U e
um de W .
Por outro lado, 0 ∈ U e v ∈ W e assim v = 0 + v é uma decomposição como soma de um elemento de
U e um de W .
Pela unicidade da decomposição, deve ocorrer v = 0. Assim, provamos que U ∩W ⊆ {0}, donde segue
que U ∩W = {0}. 

Definição 2.2.15 Sejam U1 , . . . ,Um subespaços de um espaço vetorial V . A soma de U1 , . . . ,Um , é


o seguinte subespaço de V :

U1 + · · · +Um = {u1 + · · · + um : ui ∈ Ui , i = 1, . . . , m}.

Dizemos que a soma U1 + · · · +Um é direta, e denotamos U1 ⊕U2 ⊕ · · · ⊕Um , se

Ui ∩ (U1 + · · · +Ui−1 +Ui+1 + · · · +Um ) = {0} para todo i = 1, 2, . . . , m.

Também é válido resultado análogo ao da Proposição 2.2.14, isto é, a soma U1 + · · · +Um é direta
se, e somente se, todo elemento se escreve de maneira única como uma soma u1 + · · · + um , com ui ∈ Ui .
22 Capítulo 2. Espaços vetoriais

2.3 Subespaço gerado


Seja V um K-espaço vetorial. Uma combinação linear dos vetores v1 , . . . , vn ∈ V , é um vetor da
forma
v = α1 v1 + · · · + αn vn , com α1 , . . . , αn ∈ K.

Para ilustrar geometricamente o conceito de combinação linear, considere 2 vetores no plano R2 .


Por exemplo, sejam u = (1, 2) e v = (−1, 1). Um vetor w ∈ R2 é uma combinação linear de u e v se
pode ser obtido “andando” um tanto na direção de u mais um tanto na direção de v.

Figura 2.2: Combinação linear

É possível provar que qualquer vetor em R2 pode ser obtido como uma combinação linear de u e v
(veja Exemplo 2.3.3). Esse é um exemplo onde {u, v} gera R2 (o conceito de conjunto gerador será
introduzido a seguir).
Agora, se u = (1, 1) e v = (2, 2) (ambos tem a mesma direção), todas as combinações lineares de u e v
vão gerar apenas um reta, que passa pela origem e tem a direção de u (e também de v).
Definição 2.3.1 Sejam V um K-espaço vetorial e S um subconjunto de V . Define-se o subespaço
de V gerado por S por

[S] = {α1 v1 + · · · + αn vn : n ∈ N, vi ∈ S, αi ∈ K},

ou seja, o subconjunto formado por todas as combinações lineares envolvendo vetores de S. Também,
dizemos que S é um conjunto gerador de [S] ou que S gera [S].

Observação 2.3.2 • Mesmo que S seja um conjunto infinito, as combinações lineares em [S]
são sempre somas finitas!

• Por convenção, {0} é gerado pelo conjunto vazio.

• [S] é sempre um subespaço vetorial de V , mesmo que S não o seja (verifique).

 Exemplo 2.3.3 Seja S = {(1, 2), (−1, 1)} ⊆ R2 . Verifique que [S] = R2 .
Solução. A inclusão [S] ⊆ R2 é imediata. Mostremos que R2 ⊆ [S]. Seja v = (a, b) ∈ R2 . Precisamos
encontrar α, β ∈ R tais que
v = α(1, 2) + β (−1, 1) ⇔ (a, b) = (α, 2α) + (−β , β ) = (α − β , 2α + β ).
2.3 Subespaço gerado 23

Ou seja, precisamos encontrar uma solução do sistema linear



α −β = a
.
2α + β = b
a+b b − 2a
Resolvendo o sistema, temos a solução α = e β= . Portanto, v ∈ [S], donde concluímos
3 3
que [S] = R2 . 

Exercício 2.2 Seja S = {(1, 1), (2, 2)} ⊆ R2 . Verifique que [S] = {(a, a) : a ∈ R}.

 Exemplo 2.3.4 Seja S = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} ⊆ R3 . Verifique que [S] = R3 .
Solução. A inclusão [S] ⊆ R3 é imediata. Para provar R3 ⊆ [S], considere v = (a, b, c) ∈ R3 . Temos,
v = a(1, 0, 0) + b (0, 1, 0) + c (0, 0, 1) ∈ [S].
Portanto, R3 ⊆ [S], donde segue que [S] = R3 . 

 Exemplo 2.3.5 Considere o R-espaço vetorial V = P2 (R). Verifique quais dos conjuntos

S1 = {1, x, x2 }, S2 = {2, 1 + x, 1 + x2 }, S3 = {1 + x + x2 , 2 − x + 3x2 , 4 + x + 5x2 }


geram V .
Solução. Dado p(x) = a + bx + cx2 ∈ V , é fácil ver que
p(x) = a · 1 + b · x + c · x2 ∈ [S1 ].
Daí, não é difícil concluir que [S1 ] = V .
Também, pode-se observar que
 
a b c
p(x) = − − · 2 + b · (1 + x) + c · (1 + x2 ) ∈ [S2 ],
2 2 2
e concluir que [S2 ] = V .
No caso de S3 , se tentássemos escrever
p(x) = α(1+x+x2 )+β (2−x+3x2 )+γ(4+x+5x2 ) = (α +2β +4γ)+(α −β +γ)x+(α +3β +5γ)x2 ,
cairíamos no sistema linear 
 α + 2β + 4γ = a
α −β +γ = b .
α + 3β + 5γ = c

que não tem solução para a, b, c quaisquer, pois a matriz do sistema


 
1 2 4
 1 −1 1 
1 3 5
é singular! Assim, já concluímos que S3 não gera V . Neste caso, [S3 ] é um subespaço vetorial próprio
de V . Observe que
4 + x + 5x2 = 2 · (1 + x + x2 ) + 1 · (2 − x + 3x2 ) ∈ [{1 + x + x2 , 2 − x + 3x2 }].
Assim,
[S3 ] = [{1 + x + x2 , 2 − x + 3x2 }].

24 Capítulo 2. Espaços vetoriais

O exemplo a seguir será importante mais adiante.


 Exemplo 2.3.6 — Espaço coluna. Seja A ∈ Mm×n (K). Se A1 , . . . , An ∈ Km denotam as colunas de
A, o subespaço de Km gerado pelas colunas de A, é chamado de espaço coluna de A e será denotado
por R(A). Assim,
R(A) = [A1 , A2 , . . . , An ].
Segue da Proposição 1.1.2(xiv),

R(A) = {v ∈ Rm : v = Au para algum u ∈ Rn }.

2.4 Dependência linear


Definição 2.4.1 Sejam v1 , . . . , vm vetores distintos de um K-espaço vetorial V . Dizemos que
v1 , . . . , vm são linearmente dependente (LD) se existem α1 , . . . , αm ∈ K não todos nulos tais que

α1 v1 + · · · + αm vm = 0.

Se v1 , . . . , vm não são LD, dizemos que eles são linearmente independentes (LI).

Observe que, v1 , . . . , vm são LI se, e somente se, dada uma combinação linear linear nula

λ1 v1 + · · · + λm vm = 0,

necessariamente ocorre λ1 = · · · = λm = 0, isto é, o vetor nulo só pode ser escrito de uma única maneira
como combinação linear de v1 , . . . , vm .
Definição 2.4.2 Seja S um subconjunto (finito ou infinito) de K-espaço vetorial V . Dizemos que S
é linearmente dependente (LD) se existem v1 , . . . , vm ∈ S distintos e α1 , . . . , αm ∈ K não todos nulos
tais que
α1 v1 + · · · + αm vm = 0.
Lembre que combinações lineares são sempre somas finitas! Caso contrário, S é linearmente
independentes (LI).

Observação 2.4.3 Por convenção, o conjunto vazio é LI.

 Exemplo 2.4.4 O subconjunto S = {(1, 1), (0, 2)} ⊆ R2 é LI ou LD?


Solução. Suponha α, β ∈ R tais que

α(1, 1) + β (0, 2) = (0, 0).

Então,
(α, α + 2β ) = (0, 0) ⇔ α = 0 e α + β = 0 ⇔ α = β = 0.
Portanto, a única combinação linear nula de vetores em S é a trivial. Logo S é LI. 

 Exemplo 2.4.5 O subconjunto S = {(1, 1, 0), (0, 1, 0), (2, 1, 0)} ⊆ R3 é LI ou LD?
Solução. Suponha α, β , γ ∈ R tais que

α(1, 1, 0) + β (0, 1, 0) + γ(2, 1, 0) = (0, 0, 0).


2.4 Dependência linear 25

Então, 
α + 2β = 0
(α + 2γ, α + β + γ, 0) = (0, 0, 0) ⇔ .
α +β +γ = 0
Observe que esse sistema linear possui solução não trivial. Por exemplo, se α = −2 e β = γ = 1, temos
uma combinação linear nula

−2 · (1, 1, 0) + 1 · (0, 1, 0) + 1 · (2, 1, 0) = (0, 0, 0)

com coeficientes não todos nulos. Portanto, S é LD. 

 Exemplo 2.4.6 Considere S = {(1, 0), (i, 0), (0, 1), (0, i)} ⊆ C2 . Vamos analisar se S é LI ou LD,
considerando as duas possibilidades para C2 : espaço vetorial sobre R e C.
Como C-espaço vetorial: observe que

1 · (1, 0) + i · (i, 0) + 0 · (0, 1) + 0 · (0, i) = (0, 0)

é uma combinação linear nula de vetores em S, com coeficientes não todos nulos. Portanto, S é LD.
Como R-espaço vetorial: suponha

α1 (1, 0) + α2 (i, 0) + α3 (0, 1) + α4 (0, i) = (0, 0), αi ∈ R.

Então,

i α ∈R
(α1 + iα2 , α3 + iα4 ) = (0, 0) ⇔ α1 + iα2 = 0 e α3 + iα4 = 0 ⇔ αi = 0 ∀ i = 1, 2, 3, 4.

Portanto, S é LI. 

 Exemplo 2.4.7 O subconjunto S = {cos x, ex } ⊆ F (R, R) é LI ou LD?


Solução. Suponha α, β ∈ R tais que

α cos x + β ex = 0 (função nula). (2.1)

Como estamos no espaço das funções de R em R, essa combinação linear igual a função nula implica
que, para todo x ∈ R, vale a igualdade (2.1). Em particular, para x = π/2, temos

β eπ/2 = α · 0 + β eπ/2 = 0 ⇒ β = 0.

Substituindo β = 0 em (2.1), resta α cos x = 0. Agora, considerando x = 0, obtemos α = 0. Portanto, a


única possibilidade para (2.1) é α = β = 0. Logo, S é LI. 

 Exemplo 2.4.8 O subconjunto S = {1, cos(2x), cos2 x} ⊆ F (R, R) é LI ou LD?


Solução. Como
1 1
cos2 x = + cos(2x) ∀ x ∈ R,
2 2
temos que
1 1
· 1 + · cos(2x) − 1 · cos2 x = 0
2 2
é uma combinação linear nula de vetores em S, com coeficientes não todos nulos. Portanto, S é LD. 
26 Capítulo 2. Espaços vetoriais

 Exemplo 2.4.9 O subconjunto S = {1, x, x2 , x3 , . . .} ⊆ P(K) é LI ou LD?


Solução. Uma combinação linear nula de vetores em S:

α0 · 1 + α1 x + · · · + αn xn = 0

nada mais é que um polinômio identicamente nulo. Isso só ocorre se α0 = α1 = · · · = αn = 0. Portanto,


S é LI. 

Proposição 2.4.10 — Propriedades básicas sobre dependência linear. Sejam V um K-espaço


vetorial e S ⊆ V .

(i) Suponha S = {v}. Então S é LI se v 6= 0 e LD se v = 0.

(ii) Se S contém um subconjunto LD, então S é LD. Em particular, se 0 ∈ S, então S é LD.

(iii) Se S é LI, então todo subconjunto S também é LI.

(iv) Suponha que S possua 2 ou mais vetores. Então S é LD se, e somente se, existe v ∈ S e
v1 , . . . , vn ∈ S\{v} tais que v ∈ [v1 , . . . , vn ].

(v) Se S é LI e v ∈ V \ S é tal que S ∪ {v} é LD, então v ∈ [S].

Demonstração. Provaremos apenas o item (iv). As demonstrações dos demais itens são mais simples e
serão deixadas como exercício.
Suponha que S é LD. Então existem v1 , . . . , vm ∈ S distintos e α1 , . . . , αm ∈ K não todos nulos tais
que

α1 v1 + · · · + αm vm = 0. (2.2)

Se m = 1, então deve ocorrer v1 = 0. Assim, qualquer que seja v ∈ S\{0}, tem-se 0 ∈ [v]. Suponha agora
m ≥ 2. Como os escalares em (2.2) são não todos nulos, vamos assumir, sem perda de generalidade,
que α1 6= 0. Assim,    
α2 αm
v1 = − v2 + · · · + − vm ∈ [v2 , . . . , vm ].
α1 α1

Reciprocamente, suponha que v ∈ [v1 , . . . , vn ], com v ∈ S e v1 , . . . , vn ∈ S\{v}. Então, existem


α1 , . . . , αn ∈ K tais que

v = α1 v1 + · · · + αn vn ⇔ (−1)v + α1 v1 + · · · + αn vn = 0.

A última equação é uma combinação linear nula de vetores de S com ao menos um dos escalares não
nulo. Portanto, S é LD. 

Observação 2.4.11 Como caso particular da proposição anterior, dois vetores u e v são LD, se, e
somente se, existe α ∈ K tal que u = αv ou v = αu (um deles é um múltiplo escalar do outro).

2.5 Base e dimensão


Definição 2.5.1 Seja V um espaço vetorial. Dizemos que um subconjunto B ⊆ V é uma base de V
se [B] = V e B é LI.
2.5 Base e dimensão 27

Observação 2.5.2 Por convenção, assumiremos que 0/ é base do espaço nulo {0}.

 Exemplo 2.5.3 Seja B = {(1, 2), (−1, 1)} ⊆ R2 .


Foi mostrado no Exemplo 2.3.3 que [B] = R2 . É fácil ver que B é LI, já que nenhum dos dois vetores é
múltiplo escalar do outro. Portanto, B é uma base de R2 . 

 Exemplo 2.5.4 Seja B = {(1, 1), (0, 2)} ⊆ R2 .


Foi mostrado no Exemplo 2.4.4 que B é LI. Não é difícil verificar que [B] = R2 , uma vez que, dado
(a, b) ∈ R2 , tem-se
b−a
(a, b) = a(1, 1) + (0, 2).
2
Logo, B é uma base de R2 . 

A seguir, apresentaremos as chamadas bases canônicas de alguns espaços vetoriais que serão
trabalhados neste curso. Essas bases levam esse título, por serem facilmente descritas e por ser mais
“simples” escrever um vetor qualquer no respectivo espaço como combinação linear dos vetores da base
canônica.
 Exemplo 2.5.5 — Base canônica de Kn . Considere o K-espaço vetorial Kn . Para cada j = 1, . . . , n,
seja e j ∈ Kn o vetor cuja j-ésima coordenada é igual a 1 e as demais são nulas:

e1 = (1, 0, . . . , 0), e2 = (0, 1, 0 . . . , 0), . . . , en = (0, . . . , 0, 1).

O subconjunto B = {e1 , e2 , . . . , en } ⊆ Kn é uma base, chamada de base canônica. 

 Exemplo 2.5.6 — Base canônica de Mm×n (K). Considere o K-espaço vetorial Mm×n (K). Para

cada k = 1, . . . , m e l = 1, . . . , n, seja Ekl = (ai j )m×n ∈ Mm×n (K) a matriz tal que akl = 1 e ai j = 0 se
(i, j) 6= (k, l). O subconjunto

B = {Ekl : k = 1, . . . , m; l = 1, . . . , n}

é uma base, chamada de base canônica de Mm×n (K).


Por exemplo, se m = 2 e n = 3, temos
     
1 0 0 1 0 0
E11 =  0 0  , E12 =  0 0  , E21 =  1 0 ,
0 0 0 0 0 0
     
0 0 0 0 0 0
E22 =  0 1  , E31 =  0 0  , E32 =  0 0 ,
0 0 1 0 0 1
e o conjunto B = {E11 , E12 , E21 , E22 , E31 , E32 } é a base canônica de M3×2 (K). 

 Exemplo 2.5.7 — Base canônica de Pn (K) e P(K). Considere o K-espaço vetorial Pn (K). O
subconjunto
B = {1, x, x2 , . . . , xn }
é uma base, chamada de base canônica de Pn (K).
Considere agora K-espaço vetorial P(K). No Exemplo 2.4.9, foi mostrado que o subconjunto

B = {1, x, x2 , x3 , . . .}
28 Capítulo 2. Espaços vetoriais

é LI. Não é difícil verificar que B gera P(K), e portanto é uma base, chamada de base canônica de
P(K). 

Observação 2.5.8 Não existe uma definição geral de base canônica para um espaço vetorial
qualquer.

Definição 2.5.9 Dizemos que um K-espaço vetorial é finitamente gerado, se existe um subconjunto
S ⊆ V finito que gera V .

Exercício 2.3 Verifique que o espaço P(K) não é finitamente gerado.

Teorema 2.5.10 Todo espaço vetorial tem base.

A demonstração do Teorema 2.5.10 em sua versão mais geral, utiliza o chamado Lema de Zorn e é
um pouco mais técnica. Faremos aqui a demonstração da existência de base para espaços finitamente
gerados. Precisaremos dos resultados apresentados a seguir.
Lema 2.5.11 Sejam V um K-espaço vetorial e S = {v1 , . . . , vn } ⊆ V . Se algum vi ∈ [S \ {vi }], isto é, vi
é combinação linear dos outros vetores em S, então [S] = [S \ {vi }].

Demonstração. A inclusão [S \ {vi }] ⊆ [S] é imediata. Mostremos que [S] ⊆ [S \ {vi }]. Sem perda de
generalidade, assuma i = n. Dado u ∈ [S], existem α1 , . . . , αn−1 , αn ∈ K tais que

u = α1 v1 + · · · + αn−1 vn−1 + αn vn .

Como, por hipótese, vn ∈ [S \ {vn }], existem β1 , . . . , βn−1 ∈ K tais que

vn = β1 v1 + · · · + βn−1 vn−1 .

Portanto,

u = α1 v1 + · · · + αn−1 vn−1 + αn (β1 v1 + · · · + βn−1 vn−1 ) = (α1 + β1 )v1 + · · · + (αn−1 + βn−1 )vn−1

que é uma combinação linear dos vetores de S \ {vn }. Portanto, u ∈ [S \ {vn }], donde segue que
[S] = [S \ {vn }]. 

Proposição 2.5.12 Sejam V um K-espaço vetorial e S = {v1 , . . . , vn } ⊆ V um conjunto gerador de


V , com n ≥ 1. Então, existe B ⊆ S tal que B é uma base de V .

Demonstração. Suponha n = 1, donde S = {v1 }. Se v1 = 0, então V = [v1 ] = {0} e B = 0/ ⊆ S é uma


base de V . Se v1 6= 0, então S é LI, e portanto B = S é uma base de V .
Assuma n > 1. Em particular, existe vi 6= 0 e S contém um subconjunto LI não vazio. A ideia
que usaremos a seguir, é tomar um subconjunto LI em S com o maior número de vetores possível,
eliminando do conjunto gerador os vetores que são combinações lineares dos demais.
Se S é LI, então B = S é base de V .
Se S não é LI, então é LD, logo existem α1 , . . . , αn ∈ K não todos nulos tais que

α1 v1 + · · · + αn vn = 0.
2.5 Base e dimensão 29

Sem perda de generalidade, suponha αn 6= 0. Logo,


   
α1 αn−1
vn = − v1 + · · · + − vn−1 ∈ [S \ {vn }].
αn αn
Pelo Lema 2.5.11, V = [S] = [S\{vn }] = [{v1 , . . . , vn−1 }]. Se {v1 , . . . , vn−1 } é LI, então B = {v1 , . . . , vn−1 }
é base de V .
Caso contrário, S0 = {v1 , . . . , vn−1 } é LD, e então repetimos o processo anterior, a fim obtermos um
conjunto gerador contido em S0 com n − 2 vetores. Como S é finito, esse processo termina quando
encontrarmos B ⊆ S LI, de modo que [B] = [S0 ] = V , assim obtendo uma base B de V contida em S. 

A demonstração do Teorema 2.5.10, para um espaço vetorial finitamente gerado, agora é imediata:
tome um conjunto gerador finito e aplique a Proposição 2.5.12.

Proposição 2.5.13 Seja B = {v1 , v2 , . . . , vm } uma base de um espaço vetorial V . Então, todo
subconjunto LI de V tem no máximo m vetores.

Demonstração. Vamos mostrar que todo conjunto com mais de m vetores é LD.
Seja S = {u1 , u2 , . . . , un } ⊆ V com n > m. Como B é base de V , para cada j = 1, . . . , n, existem αi j ∈ K
tais que
m
u j = α1 j v1 + · · · + αm j vm = ∑ αi j vi . (2.3)
i=1

Para provar que S é LD, devemos verificar que existem escalares λ1 , . . . , λn não todos nulos tais que
λ1 u1 + · · · + λn un = 0.
Substituindo (2.3), temos
! !
m m
λ1 ∑ αi1 vi + · · · + λn ∑ αin vi =0 ⇔
i=1 i=1

(λ1 α11 + · · · + λn α1n ) v1 + · · · + (λ1 αm1 + · · · + λn αmn ) vm = 0.


Como B é base, B é LI. Logo, devemos ter

 λ1 α11 + · · · + λn α1n = 0

.. .
 .
λ1 αm1 + · · · + λn αmn = 0

Procuramos uma solução não trivial para esse sistema linear, nas incógnitas λ1 , . . . , λn . Como m < n,
o sistema possui mais variáveis do que equações. Assim, pelo Teorema 1.3.2, esse sistema possui
infinitas soluções, o que garante que S é LD. 

Corolário 2.5.14 Se V é um espaço vetorial finitamente gerado, então toda base de V possui o
mesmo número de vetores.

Demonstração. Como V é finitamente gerado, existe conjunto gerador finito, e este contém uma base
pela Proposição 2.5.12. Assim, a Proposição 2.5.13 garante que toda base será um conjunto finito.
Suponha agora que B1 = {v1 , . . . , vm } e B2 = {u1 , . . . , un } são duas bases de V . Como B1 é base, e
B2 é LI, pela Proposição 2.5.13, n ≤ m. Por outro lado, B2 é base e B1 é LI, assim a Proposição 2.5.13
implica m ≤ n. Portanto, m = n. 
30 Capítulo 2. Espaços vetoriais

Observação 2.5.15 Se um espaço vetorial V não é finitamente gerado, então toda base de V é
um conjunto infinito. Neste caso, é possível provar que duas bases quaisquer têm sempre a mesma
cardinalidade (o que não será feito aqui).

Definição 2.5.16 Seja V um K-espaço vetorial. Se V é finitamente gerado, define-se a dimensão


de V como o número de elementos uma base qualquer de V . Caso contrário, diremos apenas que a
dimensão de V é infinita.

Denotaremos a dimensão de V por dimK V , ou simplesmente dimV , quando não houver perigo de
confusão sobre o corpo de escalares considerado.
 Exemplo 2.5.17 dim{0} = 0, pois 0/ é base de {0}. 

 Exemplo 2.5.18 dim Rn = n e dimC (Cn ) = n. Por exemplo, a base canônica (Exemplo 2.5.5) tem n
vetores. 

 Exemplo 2.5.19 Considere Cn como R-espaço vetorial. Então, apenas os n vetores e j da base
canônica no Exemplo 2.5.5 não geram todo o espaço Cn como R-espaço vetorial (geram apenas vetores
com coordenadas reais). É preciso acrescentar mais vetores que vão gerar as entradas complexas.
Seja f j ∈ Cn o vetor cuja j-ésima coordenada é igual ao número complexo i (tal que i2 = −1) e as
demais são nulas, para j = 1, . . . , n. Deixaremos como exercício a prova de que
B = {e1 , . . . , en , f1 , . . . , fn } ⊆ Cn
é uma base do R-espaço vetorial Cn . Portanto, dimR (Cn ) = 2n. 

 Exemplo 2.5.20 dim Mm×n (K) = m n. Por exemplo, a base canônica (Exemplo 2.5.6) possui m n
vetores. 

 Exemplo 2.5.21 dim Pn (K) = n + 1. Por exemplo, a base canônica (Exemplo 2.5.7) tem n + 1
vetores.
Já o espaço P(K) tem dimensão infinita. 

 Exemplo 2.5.22 Determine a dimensão do seguinte subespaço de R3 :

U = {(x, y, z) ∈ R3 : x + 2y − z = 0}.

Solução. Todo vetor (x, y, z) ∈ U satisfaz


x + 2y − z = 0 ⇔ z = x + 2y ⇔ (x, y, z) = (x, y, x + 2y) = x(1, 0, 1) + y(0, 1, 2) ∈ [(1, 0, 1), (0, 1, 2)].
Portanto, (x, y, z) ∈ U se, e somente se, (x, y, z) ∈ [(1, 0, 1), (0, 1, 2)]. Donde segue que
U = [(1, 0, 1), (0, 1, 2)].
Assim, B = {(1, 0, 1), (0, 1, 2)} gera U.
Vamos verificar se B é LI. Como B tem 2 vetores, pela Observação 2.4.11, B é LD se, e somente se,
existe α ∈ R tal que
(1, 0, 1) = α(0, 1, 2) = (0, α, 2α) ou (0, 1, 2) = α(1, 0, 1) = (α, 0, α).
É fácil ver que nenhuma das duas opções acima pode ocorrer, portanto B é LI, logo é uma base de U.
Então, dimU = 2. 
2.5 Base e dimensão 31

Assim como todo conjunto gerador contém uma base, também vale que todo conjunto LI está
contido numa base, como descreve a proposição a seguir.

Proposição 2.5.23 Seja V um K-espaço vetorial de dimensão finita n ≥ 1. Então, qualquer sub-
conjunto LI {v1 , . . . , vk } ⊆ V , com k < n, pode ser completado para formar uma base para V , isto é,
existem n − k vetores vk+1 , . . . , vn ∈ V tais que B = {v1 , . . . , vk , vk+1 , . . . , vn } é uma base de V .

Demonstração. Considere C = {u1 , . . . , un } uma base de V e S = B ∪C = {v1 , . . . , vk , u1 , . . . , un }. Seja


B um subconjunto de S que contém {v1 , . . . , vk } e é LI, com o maior número possível de vetores.
Observe que, como S é finito, é possível obter B: basta ir testando dentre todos os subconjuntos de S
contendo {v1 , . . . , vk } quais são LI e tomar um com o maior número de vetores.
Sem perda de generalidade, suponha

B = {v1 , . . . , vk , u1 , . . . , um }.

Pela forma que determinamos B, para todo j > m, temos que B ∪ {v j } é LD. Como B é LI, pela
Proposição 2.4.10(v), v j ∈ [B], para todo j > m. Assim, [B] = [S], e como S contém a base C de V ,
concluímos que [B] = [S] = V . Portanto, B é base de V .
Segue do Corolário 2.5.14 que k + m = n, donde poderíamos simplesmente denotar

{u1 , . . . , um } = {vk+1 , . . . , vn }.

Proposição 2.5.24 Sejam V um K-espaço vetorial de dimensão finita n ≥ 1 e S ⊆ V . Então, são


válidas as seguintes afirmações.

(i) Se #S > n, então S é LD.

(ii) Se #S < n, então [S] 6= V .

(iii) Se #S = n e S é LI, então S é uma base de V .

(iv) Se #S = n e S gera V , então S é base de V .

(v) S é base de V se, e somente se, todo v ∈ V é uma combinação linear de vetores de S e os
escalares dessa combinação linear são únicos.

Demonstração. (i) Segue da Proposição 2.5.13.

(ii) Suponha, por absurdo, que #S = k < n e [S] = V . Então, pela Proposição 2.5.12, existe B ⊆ S
base de V , com #B ≤ k < n, o que contradiz o Corolário 2.5.14.

(iii) Pela Proposição 2.5.23, existe B base de V tal que S ⊆ B. Por ser subconjunto, n = #S ≤ #B.
Como toda base de V possui n vetores, deve ocorrer #B = n = #S. Assim,

S ⊆ B e #S = #B ⇒ B = S é base de V.

(iv) Pela Proposição 2.5.12, existe B ⊆ S base de V . Por ser subconjunto, #B ≤ #S = n. Como toda
base de V possui n vetores, deve ocorrer #B = n = #S. Assim,

B ⊆ S e #B = #S ⇒ B = S é base de V.
32 Capítulo 2. Espaços vetoriais

(v) Suponha S base de V . Então, #S = n, S gera V e S é LI. Seja S = {v1 , . . . , vn }. Dado v ∈ V , segue
que v pode ser escrito como combinação linear de vetores de S, pois S gera V . Provemos que os
escalares são únicos. Sejam α1 , . . . , αn , β1 , . . . , βn ∈ K tais que
v = α1 v1 + · · · + αn vn = β1 v1 + · · · + βn vn .
Então,
S é LI
(α1 − β1 )v1 + · · · + (αn − βn )vn = 0 ⇒ α1 − β1 = · · · = αn − βn = 0 ⇒ α1 = β1 , . . . , αn = βn .
Reciprocamente, suponha que todo v ∈ V é uma combinação linear de vetores de S e os escalares
dessa combinação linear são únicos. Pela primeira parte da frase anterior, temos que S gera V .
Provemos que S é LI. Suponha que α1 , . . . , αk ∈ K e v1 , . . . , vk ∈ S são tais que
α1 v1 + · · · + αk vk = 0.
Assim, temos uma combinação linear do vetor nulo 0 ∈ V envolvendo os vetores v1 , . . . , vk ∈ S.
Mas, também temos a combinação linear trivial
0 = 0 · v1 + · · · + 0 · vk .
Como os escalares são únicos, deve ocorrer α1 = · · · = αk = 0. Portanto, S é LI.


2.6 Dimensão de subespaços e da soma de subespaços

Proposição 2.6.1 Sejam V um K-espaço vetorial de dimensão finita n ≥ 1 e W ⊆ V um subespaço


vetorial. Então, são válidas as seguintes afirmações.

(i) W é finitamente gerado e dimW ≤ n.

(ii) Se dimW = n, então W = V .

(iii) Existe um subespaço vetorial U ⊆ V tal que V = W ⊕U.

Demonstração. (i) Se W = {0}, então 0/ é base de W e dimW = 0.


Suponha W 6= {0}. Seja w1 ∈ W \ {0}. Se W = [w1 ], então {w1 } é uma base de W e dimW = 1.
Caso contrário, existe w2 ∈ W \ [w1 ], o que implica que {w1 , w2 } é LI. Se W = [w1 , w2 ], então
{w1 , w2 } é uma base de W e dimW = 2.
Caso contrário...
Continuamos o processo acima até encontrar B = {w1 , . . . , wm } tal que B é base de W . Esse
processo deve terminar com m ≤ n, pois caso contrário, teríamos um conjunto LI em V com mais
de n vetores, o que é um absurdo pela Proposição 2.5.24.
(ii) Seja B = {w1 , . . . , wn } uma base de W . Então, B ⊆ W ⊆ V é um subconjunto LI com n = dimV
vetores. Pela Proposição 2.5.24, B é base de V . Portanto, W = [B] = V.
(iii) Tome B1 = {w1 , . . . , wk } uma base de W . Pela Proposição 2.5.23, existe B2 = {vk+1 , . . . , vn } ⊆ V
tal que B1 ∪ B2 é base de V . Considere U = [B2 ]. Deixamos como exercício a verificação de que
V = W ⊕U.

2.6 Dimensão de subespaços e da soma de subespaços 33

Observação 2.6.2 O subespaço U ⊆ V tal que V = W ⊕U da proposição anterior não é único. Por
exemplo, se V = R2 e W = [(1, 0)], então R2 = W ⊕ [(0, 1)], mas também R2 = W ⊕ [(1, 1)].

 Exemplo 2.6.3 Considere V = P2 (R) e W = [t 2 + 1,t 2 − 1] ⊆ V . Determine U ⊆ V tal que


V = W ⊕U.
Solução. Como B1 = {t 2 + 1,t 2 − 1} é LI (verifique), B1 é base de W . Vamos utilizar a ideia na
demonstração da Proposição 2.6.1. Sabendo que dimV = 3, precisamos encontrar um vetor v ∈ V tal
que B1 ∪ {v} é base de V . Testando v = t, vemos que {t 2 + 1,t 2 − 1,t} é LI (verifique), e portanto é
base de V , já que tem 3 = dimV vetores. Assim, U = [t] é tal que V = W ⊕U.
Na Seção 2.8 será visto um método mais efetivo para completar bases do que simplesmente “chutar”
vetores e testar se são LI. 

Proposição 2.6.4 Seja V um K-espaço vetorial de dimensão finita n ≥ 1. Se U e W são subespaços


vetoriais de V , então
dim(U +W ) = dimU + dimW − dim(U ∩W ).

Demonstração. Primeiramente lembramos que U ∩W é subespaço vetorial de V . Suponha U ∩W 6= {0}


e seja B = {v1 , . . . , vk } uma base de U ∩W (1 ≤ k ≤ n). Como B ⊆ U ∩W , B é um subconjunto LI de
U e de W . Então, pela Proposição 2.5.23, existem u1 , . . . , ul ∈ U e w1 , . . . , wm ∈ W tais que

B1 = {v1 , . . . , vk , u1 , . . . , ul } é base de U e B2 = {v1 , . . . , vk , w1 , . . . , wm } é base de W.

Provemos que

C = B1 ∪ B2 = {v1 , . . . , vk , u1 , . . . , ul , w1 , . . . , wm } é base de U +W.

Primeiro, mostremos que C gera U +W . A inclusão [C] ⊆ U +W é imediata. Para a inclusão contrária,
considere v = u + w ∈ U +W , com u ∈ U e w ∈ W . Como B1 é base de U e B2 é base de W , existem
α1 , . . . , αk , β1 , . . . , βl , γ1 , . . . , γk , δ1 , . . . , δm ∈ K tais que

u = α1 v1 + · · · + αk vk + β1 u1 + · · · + βl ul

e
w = γ1 v1 + · · · + γk vk + δ1 w1 + · · · + δm wm .
Logo,

u + w = (α1 + γ1 )v1 + · · · + (αk + γk )vk + β1 u1 + · · · + βl ul + δ1 w1 + · · · + δm wm ∈ [C].

Agora, mostremos que C é LI. Dada uma combinação linear nula:

α1 v1 + · · · + αk vk + β1 u1 + · · · + βl ul + γ1 w1 + · · · + γm wm = 0, (2.4)

temos
γ1 w1 + · · · + γm wm = −α1 v1 − · · · − αk vk − β1 u1 − · · · − βl ul ∈ U ∩W.
Portanto, existem δ1 , . . . , δk ∈ K tais que

γ1 w1 + · · · + γm wm = δ1 v1 + · · · + δk vk ⇒ γ1 w1 + · · · + γm wm − δ1 v1 − · · · − δk vk = 0.

Mas B2 é LI, logo


γ1 = · · · = γm = δ1 = · · · = δk = 0.
34 Capítulo 2. Espaços vetoriais

Assim, (2.4) se torna


α1 v1 + · · · + αk vk + β1 u1 + · · · + βl ul = 0.
Como B1 é LI, segue que
α1 = · · · = αk = β1 = · · · = βl = 0.
Portanto, C é LI.
Concluímos então que C é base de U +W . Daí,

dim(U +V ) = k + l + m = (k + l) + (k + m) − k = dimU + dimW − dim(U ∩W ).

Se U ∩W = {0}, deixamos como exercício a verificação de que a união de uma base de U com uma
base de W será uma base de U +W , donde segue o resultado. 

 Exemplo 2.6.5 Considere V = R4 e os subespaços

U = [(1, 0, 1, 0), (0, 1, 0, 0)] e W = {(x, y, z,t) ∈ R4 : x + y = 0}.

Determine as dimensões de U, W e U +W . A soma U +W é direta? Vale que U +W = R4 ?


Solução. O subespaço U é gerado por B1 = {(1, 0, 1, 0), (0, 1, 0, 0)}. Não é difícil verificar que B1 é
LI, portanto é base de U e dimU = 2.
Vamos agora determinar uma base de W . Temos

v = (x, y, z,t) ∈ W ⇔ y = −x ⇔ v = (x, −x, z,t) = x(1, −1, 0, 0) + z(0, 0, 1, 0) + t(0, 0, 0, 1).

Ou seja,
v ∈ W ⇔ v ∈ [(1, −1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)].
Portanto,
W = [(1, −1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)].
Não é difícil verificar que B2 = {(1, −1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} é LI, portanto é base de W e
dimW = 3.
Vamos agora determinar uma base de U ∩W . Os vetores em U são da forma

v = a(1, 0, 1, 0) + b(0, 1, 0, 0) = (a, b, a, 0), a, b ∈ R.

Os vetores em W são da forma


v = (x, −x, z,t), x, y, z,t ∈ R.
Para que v ∈ U ∩W , deve ocorrer

t = 0, x = z = a, b = −x = −a ⇒ v = (a, −a, a, 0) = a(1, −1, 1, 0) ∈ [(1, −1, 1, 0)].

Assim, U ∩W ⊆ [(1, −1, 1, 0)]. Deixamos como exercício a verificação que (1, −1, 1, 0) ∈ U ∩W , o
que implica [(1, −1, 1, 0)] ⊆ U ∩W , pois U ∩W é subespaço vetorial. Portanto, U ∩W = [(1, −1, 1, 0)],
{(1, −1, 1, 0)} é uma base de U ∩W e dim(U ∩W ) = 1.
Pela Proposição 2.6.4,
dim(U +W ) = 2 + 3 − 1 = 4.
Além disso, como U +W é um subespaço de R4 , com dim(U +W ) = dim R4 , temos que U +W = R4 .
Por fim, a soma U +W não é direta, pois U ∩W 6= {0}. 
2.7 Coordenadas e matriz de mudança de base 35

2.7 Coordenadas e matriz de mudança de base


Antes de definir formalmente os conceitos de coordenadas de um vetor e matriz de mudança de
base, faremos uma introdução das ideias utilizando o espaço vetorial Rn .
Dado um vetor v = (α1 , . . . , αn ) ∈ Rn e a base canônica C = {e1 , . . . , en }, ao escrever v como uma
combinação linear dos vetores de C, obtemos

v = α1 e1 + · · · + αn en .

Os escalares α1 , . . . , αn , nesse caso, são chamados de coordenadas de v em relação à base C, e


denotamos  
α1
[v]C =  ...  ou [v]C = (α1 , . . . , αn )C = (α1 , . . . , αn ).
 

αn
Observe que, nesse caso, o vetor [v]C das coordenadas de v se confunde com o próprio vetor v, mas não
é sempre assim. Em geral, dada uma base B = {v1 , . . . , vn }, existem únicos escalares β1 , . . . , βn tais que
v = β1 v1 +· · ·+βn vn , e então define-se as coordenadas de v em relação à base B por [v]B = (β1 , . . . , βn )B .
Por exemplo, se n = 3 e B = {(1, 1, 0), (0, 1, 0), (0, 0, 3)}, dado v = (a, b, c) ∈ R3 , temos
c
(a, b, c) = β1 (1, 1, 0) + β2 (0, 1, 0) + β3 (0, 0, 3) = (β1 , β1 + β2 , 3β3 ) ⇔ β1 = a, β2 = b − a, β3 = .
3
Assim,  c
[v]B = a, b − a, .
3 B
Além de conhecer as coordenadas, queremos também saber como transitar das coordenadas de um
vetor em relação a uma base para outra. É aí que entra a matriz de mudança de base. No exemplo
acima, observe que
    
a 1 0 0 a
 b  =  1 1 0  b−a . (2.5)
c 0 0 3 c/3

A matriz  
1 0 0
MBC =  1 1 0 
0 0 3
é a matriz de mudança de base de B para C, pois ela faz a transição de coordenadas de um vetor em
relação à base B para as coordenadas em relação à base C. Ou seja, (2.5) se traduz em

[v]C = MBC [v]B .

Como a matriz MBC é inversível, temos


−1
[v]B = MBC [v]C .
−1
A matriz MCB = MBC será a matriz de mudança de base de C para B.
Observe que a ordem dos vetores em B ou C importa, pois se trocarmos os vetores de posição, o vetor
de coordenadas e a matriz de mudança de base seriam diferentes.
36 Capítulo 2. Espaços vetoriais

Definição 2.7.1 Seja V um K-espaço vetorial de dimensão finita n ≥ 1. Fixe B = {v1 , . . . , vn } uma
base ordenada de V , isto é, uma base com a ordem dos vetores fixada. Dado v ∈ V , os únicos
escalares α1 , . . . , αn ∈ K tais que v = α1 v1 + · · · + αn vn , são chamados de coordenadas de v em
relação à base B, e denotamos
 
α1
[v]B =  ...  ou [v]B = (α1 , . . . , αn )B = (α1 , . . . , αn ).
 

αn

 Exemplo 2.7.2 Considere V = P2 (R), a base B = {1, 1 + x, 1 + x2 } e p(x) = 2 + 4x + x2 ∈ V . Deter-


mine [p(x)]B .
Solução. Precisamos determinar os escalares que aparecem ao escrevermos v como combinação linear
do vetores da base B:
2 + 4x + x2 = α1 · 1 + α2 (1 + x) + α3 (1 + x2 ).

Igualando os coeficientes dos polinômios, não é difícil ver que α1 = −3, α2 = 4 e α3 = 1. Portanto,

[p(x)]B = (−3, 4, −1)B .

A grande vantagem de trabalhar com coordenadas ao invés dos próprios vetores é o ganho com-
putacional. Observe que, independente do espaço vetorial e da cara dos vetores (n-uplas, polinômios,
funções, matrizes...) o vetor de coordenadas é sempre um elemento de Kn (ou de Mn×1 (K)) onde n
é a dimensão do espaço. Além disso, propriedades interessantes relacionadas aos vetores podem ser
transportadas para suas coordenadas, como ilustra a proposição a seguir.

Proposição 2.7.3 Sejam V um K-espaço vetorial de dimensão finita n ≥ 1 e B uma base de V . Para
todos u, v ∈ V e λ ∈ K, são válidas:

(i) [u + v]B = [u]B + [v]B ;

(ii) [λ u]B = λ [u]B ;

(iii) v = 0 ∈ V se, e somente se, [v]B = 0 ∈ Kn ;

(iv) {u1 , . . . , um } ⊆ V é LI se, e somente se, {[u1 ]B , . . . , [um ]B } é LI em Kn .

Demonstração. Exercício. 

Agora, veremos como construir a matriz de mudança de base. Fixe V um K-espaço vetorial de
dimensão finita n ≥ 1 e duas bases ordenadas B = {u1 , . . . , un } e C = {v1 , . . . , vn }.
Basicamente, matriz de mudança de base de B para C tem na j-ésima coluna as coordenadas do vetor
u j em relação à base C. Para construí-la, então, precisamos escrever cada u j como combinação linear
dos vetores de C, e então coletar os escalares que aparecem.
Para cada j = 1, . . . , n, existem únicos escalares a1 j , . . . , an j ∈ K, tais que

n
u j = a1 j v1 + · · · + an j vn = ∑ ai j vi .
i=1
2.7 Coordenadas e matriz de mudança de base 37

Seja w ∈ V . Suponha que [w]B = (α1 , . . . , αn )B e [w]C = (β1 , . . . , βn )C , isto é,


n n
w = α1 u1 + · · · + αn un = ∑ α ju j e w = β1 v1 + · · · + βn vn = ∑ βi vi
j=1 i=1

Então,
! !
n n n n n n
w= ∑ α j u j = ∑ α j ∑ ai j vi =∑ ∑ ai j α j vi = ∑ (ai1 α1 + · · · + ain αn ) vi .
j=1 j=1 i=1 i=1 j=1 i=1

Como os escalares da combinação linear dos vetores de uma base são únicos, temos

 β1 = a11 α1 + · · · + a1n αn

.. .
 .
βn = an1 α1 + · · · + ann αn

Em notação matricial, segue que


    
β1 a11 · · · a1n α1
 ..   .. .. ..   ..  .
 . = . . . .
βn an1 · · · ann αn
| {z } | {z } | {z }
[w]C MBC [w]B

A matriz MBC = (ai j )n×n é chamada de matriz mudança de base de B para C. Pelo exposto anteriormente,
essa matriz satisfaz

[w]C = MBC [w]B , para todo w ∈ V. (2.6)

Além disso, se M = (bi j ) ∈ Mn (K) satisfaz [w]C = M[w]B , para todo w ∈ V , substituindo w = u j ,
j = 1, . . . , n, obtém-se que bi j = ai j para todos i, j (verifique). Ou seja, M = MBC . Portanto, a matriz de
mudança de base é a única que satisfaz (2.6).

Observação 2.7.4 A notação de matriz de mudança de base não é unanimidade na literatura!


Fiquem atentos se forem consultar outros livros, pois às vezes até a definição é diferente, invertendo
o sentido da mudança. O padrão adotado para o curso de MAT-27 é a notação aqui apresentada. Em
caso de dúvidas, lembrem da relação (2.6).

Proposição 2.7.5 Seja V um K-espaço vetorial de dimensão finita n ≥ 1 e duas bases B e C. Então,
−1
MBC é inversível e a matriz de mudança de base de C para B é MCB = MBC .

Demonstração. Como B e C são bases, pela Proposição 2.7.3,


[v]B = 0 ⇔ v = 0 ⇔ [v]C = 0.
Então, o sistema linear homogêneo
MBC X = 0
só admite a solução trivial X = 0. Portanto, a matriz do sistema MBC é inversível. Sendo assim, para
cada v ∈ V , temos
−1
[v]C = MBC [v]B ⇔ MBC [v]C = [v]B .
Pela unicidade da matriz de mudança de base (propriedade (2.6) com B no lugar de C e C no lugar de
−1
B), segue que MBC = MCB . 
38 Capítulo 2. Espaços vetoriais

 Exemplo 2.7.6 Seja V = P1 (R). Determine a matriz de mudança de base da base canônica C = {1, x}
para a base B = {1 + x, 1 − x} e as coordenadas do vetor p(x) = 2 + 3x em relação à base B.
Solução. Podemos obter a matriz MCB diretamente, ou obter MBC e invertê-la. Note que, obter a
matriz de mudança de qualquer base para a base canônica é simples, uma vez que é fácil descrever as
coordenadas de qualquer vetor em relação a base canônica. No caso dos vetores de B:
1+x = 1·1+1·x e 1 − x = 1 · 1 − 1 · x,
logo      
1 1 (1.5) −1 1 −1 −1 1/2 1/2
MBC = ⇒ MCB = MBC =− = .
1 −1 2 −1 1 1/2 −1/2
Agora, podemos usar a matriz MCB para determinar as coordenadas de p(x) em relação à B:
    
1/2 1/2 2 5/2
[p(x)]B = MCB [p(x)]C = = .
1/2 −1/2 3 −1/2


 Exemplo 2.7.7 Sejam V = {p(x) ∈ P3 (R) : p(1) + p(−1) = 0} e B = {x, x3 , 1 + x − x2 } base de V .


Sabendo que  
1 0 2
 1 −1 3 
0 2 −1
é a matriz de mudança de base de B para uma base C, determine a base C.
Solução. Sabemos, pela definição, que na matriz MCB , de mudança de base de C para B, as colunas
−1
descrevem as coordenadas dos vetores de C em relação à base B. Assim, se conhecermos MCB = MBC ,
−1
poderemos determinar C. Determinemos MBC :
   
1 0 2 1 0 0 1 0 2 1 0 0
(L2 ← L2 −L1 )
 1 −1 3 0 1 0  ∼  0 −1 1 −1 1 0 
0 2 −1 0 0 1 0 2 −1 0 0 1
   
1 0 2 1 0 0 1 0 2 1 0 0
(L3 ← L3 +2L2 )
∼  0 −1 1 −1 1 0  (L2 ←∼−L2 )  0 1 −1 1 −1 0 
0 0 1 −2 2 1 0 0 1 −2 2 1
   
1 0 2 1 0 0 1 0 0 5 −4 −2
(L2 ← L2 +L3 )
∼  0 1 0 −1 1 1  (L1 ← L∼1 −2L3 )  0 1 0 −1 1 1 .
0 0 1 −2 2 1 0 0 1 −2 2 1
Portanto,  
5 −4 −2
−1
MCB = MBC =  −1 1 1 .
−2 2 1
Daí, se C = {p1 , p2 , p3 }, então
[p1 ]B = (5, −1, −2)B , [p2 ]B = (−4, 1, 2)B , [p3 ]B = (−2, 1, 1)B .
Logo,
p1 = 5 · x − 1 · x3 − 2 · (1 + x − x2 ) = −2 + 3x + 2x2 − x3 ,
p2 = −4 · x + 1 · x3 + 2 · (1 + x − x2 ) = 2 − 2x − 2x2 + x3 ,
p3 = −2 · x + 1 · x3 + 1 · (1 + x − x2 ) = 1 − x − x2 + x3 .

2.8 Método prático para determinar ou completar bases de subespaços 39

2.8 Método prático para determinar ou completar bases de subespaços

Vimos anteriormente que todo conjunto gerador contém uma base e que todo subconjunto LI pode
ser completado para uma base. Esses dois problemas podem ser traduzidos utilizando subespaços
vetoriais: dado um conjunto gerador de um subespaço, como determinar uma base deste subespaço,
e, dada uma base de um subespaço, como completar essa base para formar uma base de todo o
espaço. Nesta seção, descreveremos métodos práticos, utilizando coordenadas, para resolver esses dois
problemas.
Seja V um K-espaço vetorial de dimensão finita n ≥ 1 e fixe B = {v1 , . . . , vn } uma base ordenada de V .
Tome um subconjunto S = {u1 , . . . , um } ⊆ V . Vamos determinar uma base para o subespaço W = [S].
Escreva cada vetor ui como combinação linear da base B:

 u1 = a11 v1 + · · · + a1n vn

.. .
 .
um = am1 v1 + · · · + amn vn

Procedimento 2.8.1 (i) Escreva a matriz A cuja i-ésima linha é formada pelas coordenadas de
ui em relação à B:  
a11 ··· a1n
 .. .. 
A= . . 
am1 · · · amn

(ii) Aplique operações elementares nas linhas de A até obter uma matriz A0 na forma escalonada
(ou escalonada reduzida).

(iii) As linhas não nulas de A0 serão as coordenadas, em relação à base B, de vetores w1 , . . . , wr ∈ W ,


(r ≤ m), de modo de [{w1 , . . . , wr }] = [S] = W e S0 = {w1 , . . . , wr } é LI, ou seja, S0 é base de
W.

Para verificar as afirmações do item (iii), primeiro observamos como se traduzem as operações elemen-
tares nas linhas de A em termos dos vetores de S:

• trocar a posição de duas linhas da matriz corresponde a trocar dois vetores de posição;

• multiplicar uma linha da matriz por um escalar diferente de zero corresponde a trocar um vetor
ui por um múltiplo por escalar (não nulo) αui ;

• somar a uma linha da matriz um múltiplo escalar de outra linha corresponde a trocar um vetor ui
por ui + αu j (i 6= j).

Deixamos como exercício a verificação de que realizar essas operações num conjunto gerador não
alteram o subespaço gerado. Como, eliminar os vetores nulos também não altera o subespaço gerado,
segue que [{w1 , . . . , wr }] = [S] = W .
Por fim, como a matriz A0 está na forma escalonada, não é difícil verificar que suas linhas não nulas são
vetores LI em Kn , donde segue, junto com a Proposição 2.7.3, que S0 = {w1 , . . . , wr } é LI em W .
 Exemplo 2.8.2 Sejam V = P3 (R) e W = [p1 , p2 , p3 ] ⊆ V , onde p1 (x) = 1 + 2x2 − x3 , p2 (x) = 1 + 5x2 ,
p3 (x) = −6x2 − 2x3 . Determine uma base para W .
40 Capítulo 2. Espaços vetoriais

Solução. Fixemos a base canônica B = {1, x, x2 , x3 } de V . Seja S = {p1 , p2 , p3 }. A matriz A, cujas


linhas são as coordenadas dos vetores em S em relação à base B, é dada por
 
1 0 2 −1
A= 1 0 5 0 .
0 0 −6 −2
Escalonando, temos
     
1 0 2 −1 1 0 2 −1 1 0 2 −1
(L2 ← L2 −L1 ) (L3 ← L3 +2L2 )
A= 1 0 5 0  ∼  0 0 3 1  ∼  0 0 3 1  = A0 .
0 0 −6 −2 0 0 −6 −2 0 0 0 0
A matriz A0 está na forma escalonada. Eliminando a terceira linha que é nula, as duas primeiras
correspondem aos vetores

q1 (x) = 1 + 2x2 − x3 e q2 (x) = 3x2 + x3 .

Portanto, S0 = {q1 , q2 } é uma base de W . 

Suponha que aplicamos o Procedimento 2.8.1, mas durante a etapa (ii) não foi feita nenhuma troca
de linhas nas operações elementares. Neste caso, talvez as linhas nulas não estejam todas abaixo das
linhas não nulas, então A0 não estaria bem numa forma escalonada, mas quase. Se a i-ésima linha de A0
é nula, então o vetor ui é combinação linear de outros vetores de S (verifique), e portanto ele poderia
ser eliminado do conjunto gerador. Assim, se quiséssemos uma base de W contida em S, bastaria
considerar S0 o conjunto dos vetores u j tais que a j-ésima linha de A0 é não nula.
Considere agora R = {w1 , . . . , wr } um subconjunto LI de V (r ≤ n). Assim, R é uma base do
subespaço W = [R]. Descreveremos como completar R para formar uma base de V . As demonstrações
serão deixadas para o leitor, embora as ideias já foram apresentadas anteriormente.

Procedimento 2.8.3 (i) Escreva a matriz A cuja i-ésima linha é formada pelas coordenadas de
wi em relação à B.

(ii) Aplique operações elementares nas linhas de A até obter uma matriz A0 na forma escalonada
(ou escalonada reduzida). Como R é LI, A0 não terá linhas nulas.

(iii) Acrescente n − r linhas na matriz A0 de modo a obter uma matriz M ∈ Mn (K) na forma
escalonada (ou escalonada reduzida). Essas novas linhas serão as coordenadas, em relação à
base B, de vetores wr+1 , . . . , wn ∈ V tais que C = {w1 , . . . , wr , wr+1 , . . . , wn } é base de V .
Mais ainda, se U = [wr+1 , . . . , wn ], então V = W ⊕U.

 Exemplo 2.8.4 Considere V = P3 (R) e W = [p1 , p2 , p3 ] ⊆ V , onde p1 (x) = 1 + 2x2 − x3 , p2 (x) =


1 + 5x2 , p3 (x) = −6x2 − 2x3 , como no Exemplo 2.8.2. Determine um subespaço U ⊆ V tal que
V = W ⊕U.
Solução. Fixemos a base canônica B = {1, x, x2 , x3 } de V . Vimos no Exemplo 2.8.2 que, se A é a matriz
cujas linhas são as coordenadas dos vetores de S = {p1 , p2 , p3 } em relação à base B, então
 
1 0 2 −1
A0 =  0 0 3 1 
0 0 0 0
está na forma escalonada e pode ser obtida de A via operações elementares em suas linhas, sem efetuar
trocas de linhas. Assim, as duas primeiras linhas correspondem aos vetores q1 (x) = 1 + 2x2 − x3 e
2.8 Método prático para determinar ou completar bases de subespaços 41

q2 (x) = 3x2 + x3 , que formam uma base S0 = {q1 , q2 } de W . Se preferir uma base de W contida em S,
basta observar que, como no escalonamento de A para A0 não foi feita troca de linhas e a terceira linha
em A0 é nula, então p3 é combinação linear de p1 e p2 , e, R = {p1 , p2 } é base de W contida em S.
Para completar uma base de V , considere a matriz obtida de A0 eliminando a terceira linha que é
nula. Ficamos assim com uma matriz 2 × 4, onde podemos acrescentar 2 linhas de modo a obter a
matriz M ∈ M4 (R) na forma escalonada:
 
1 0 2 −1
 0 1 0 0 
M=  0 0 3 1 .

0 0 0 1

As linhas 2 e 4 acrescentadas correspondem aos vetores q3 (x) = x e q4 (x) = x3 . Os conjuntos


{q1 , q2 , q3 , q4 } e {p1 , p2 , q3 , q4 } são bases de V , e se U = [q3 , q4 ], então V = W ⊕U. 
Capítulo 3

Espaços vetoriais com produto interno

No Capítulo 2, introduzimos o conceito de Espaço Vetorial e estudamos suas propriedades. Neste


capítulo, introduziremos o conceito de produto interno, que é uma generalização do produto interno
ou escalar visto em geometria analítica para R2 e R3 , e permite introduzir noções geométricas de
comprimento e ortogonalidade para vetores de um espaço vetorial qualquer.
A discussão apresentada nesse capítulo foi motivada pelos livros [Axl], [Coe], [Reg] e [Str].

3.1 Definições e propriedades


Relembrando da Geometria Analítica, em R3 , o produto escalar ou produto interno entre os vetores
u = (x1 , y1 , z1 ) e v = (x2 , y2 , z2 ) é dado por

u · v = x1 x2 + y1 y2 + z1 z2 ,

ou seja, é a soma do produto entre as coordenadas de u e v. Além disso, o produto interno também
estava associado ao ângulo θ entre os vetores u e v, através da relação

u · v = ||u|| ||v|| cos θ .

Figura 3.1: Ângulo θ entre os vetores u e v de R3 .

A seguir, apresentamos a definição de produto interno para um espaço vetorial qualquer. Lembramos
que K = R ou C e z̄ denota o conjugado complexo do escalar z (ocorre z̄ = z ⇔ z ∈ R).
44 Capítulo 3. Espaços vetoriais com produto interno

Definição 3.1.1 Seja V um K-espaço vetorial. Um produto interno sobre V é uma função
h·, ·i : V ×V → K que satisfaz as propriedades:

(i) hu + v, wi = hu, wi + hv, wi, para todos u, v, w ∈ V ;

(ii) hλ u, vi = λ hu, vi, para todos λ ∈ K, u, v ∈ V ;

(iii) hu, vi = hv, ui, para todos u, v ∈ V ;

(iv) para todo u ∈ V , hu, ui ∈ R e, se u 6= 0, hu, ui > 0.

O par (V, h·, ·i) é chamado de espaço com produto interno ou espaço pré-Hilbert.

Listaremos a seguir alguns exemplos de produto interno em diferentes espaços vetoriais. Um bom
exercício para o leitor seria verificar que de fato eles satisfazem as quatro condições da Definição 3.1.1
sem olhar as demonstrações apresentadas.
 Exemplo 3.1.2 Sejam u = (x1 , . . . , xn ) e v = (y1 , . . . , yn ) vetores quaisquer de Kn . A função
n
hx, yi = ∑ xi ȳi
i=1

define um produto interno em Kn . Este produto interno é chamado de produto interno usual, ou
canônico, de Kn .
Prova. Sejam u = (x1 , . . . , xn ), v = (y1 , . . . , yn ) e w = (z1 , . . . , zn ) vetores quaisquer de Kn e λ um
escalar. Segue das propriedades de números reais, ou complexos, que
n n n n
(i) hu + v, wi = ∑ (xi + yi )z¯i = ∑ (xi z¯i + yi z¯i ) = ∑ xi z¯i + ∑ yi z¯i = hu, wi + hv, wi;
i=1 i=1 i=1 i=1
n n n
(ii) hλ u, vi = ∑ (λ xi )ȳi = ∑ λ xi ȳi = λ ∑ xi ȳi = λ hu, vi;
i=1 i=1 i=1
!
n n n n
(iii) hv, ui = ∑ yi x̄i = ∑ yi x̄i = ∑ ȳi xi = ∑ xi ȳi = hu, vi;
i=1 i=1 i=1 i=1
n n
(iv) hu, ui = ∑ xi x̄i = ∑ |xi |2 ∈ R. Além disso, se u 6= 0 então existe xi 6= 0 e assim hu, ui > 0.
i=1 i=1

Se pensarmos em u e v como vetores coluna de Kn , isto é, u, v ∈ Mn×1 (K), então podemos escrever
hu, vi = x> ȳ.


 Exemplo 3.1.3 Se A = (ai j ), B = (bi j ) ∈ Mn (K), a função


n n n
hA, Bi = ∑ ai j bi j = ∑ ∑ ai j bi j
i, j=1 i=1 j=1

define um produto interno em Mn (K). Este produto interno é chamado de produto interno usual, ou
canônico, de Mn (K). Outra maneira de reescrever essa função, utilizando matriz transposta conjugada
e a função traço, é  
>
hA, Bi = tr A B (verifique).
3.1 Definições e propriedades 45

Prova. Sejam A, B,C ∈ Mn (K), A = (ai j )n×n , B = (bi j )n×n , C = (ci j )n×n e λ um escalar. Segue das
propriedades de números reais, ou complexos, que
n n n n n n n n
(i) hA + B,Ci = ∑ ∑ (ai j + bi j )ci j = ∑ ∑ (ai j ci j + bi j ci j ) = ∑ ∑ ai j ci j + ∑ ∑ bi j ci j
i=1 j=1 i=1 j=1 i=1 j=1 i=1 j=1

= hA,Ci + hB,Ci;
n n n n
(ii) hλ A, Bi = ∑ ∑ (λ ai j )bi j = λ ∑ ∑ ai j bi j = λ hA, Bi;
i=1 j=1 i=1 j=1

n n n n n n
(iii) hB, Ai = ∑ ∑ bi j ai j = ∑ ∑ bi j ai j = ∑ ∑ ai j bi j = hA, Bi;
i=1 j=1 i=1 j=1 i=1 j=1

n n n n
(iv) hA, Ai = ∑ ∑ ai j ai j = ∑ ∑ |ai j |2 ∈ R. Além disso, se A 6= 0 então existe ai j 6= 0 e assim
i=1 j=1 i=1 j=1
n n
∑ ∑ |ai j |2 > 0. Ou seja, hA, Ai > 0.
i=1 j=1

Portanto, a função
n  
>
hA, Bi = ∑ ai j bi j = tr A B
i, j=1

define um produto interno em Mn (K). 

 Exemplo 3.1.4 Se f , g ∈ C ([a, b], R), a função


Z b
h f , gi = f (t)g(t) dt
a

define um produto interno no espaço C ([a, b], R). Este produto interno é chamado de produto interno
usual, ou canônico, de C ([a, b], R).
Prova. As condições (i) e (ii) da Definição 3.1.1 seguem das propriedades do Cálculo Integral
e a condição (iii) é mais imediata. Para verificar a condição (iv), considere f ∈ C ([a, b], R) não
identicamente nula. Como f é contínua em [a, b], f 2 (t) = f (t) f (t), também é contínua e não nula,
logo, existe um intevarlo [c, d] ⊆ [a, b] tal que f 2 (t) > 0 para todo t ∈ [c, d]. Tomando m > 0 o valor
mínimo de f 2 em [c, d], temos
Z b Z b Z d Z d
hf, fi = f (t) f (t)dt = f 2 (t)dt ≥ f 2 (t) dt ≥ m dt = m(d − c) > 0.
a a c c


 Exemplo 3.1.5 Seja V = P2 (R). Dados p, q ∈ V , a função

hp, qi = p(0)q(0) + p(1)q(1) + p(−2)q(−2)

define um produto interno V .


Prova. As condições (i), (ii) e (iii) da Definição 3.1.1 seguem facilmente das propriedades de números
reais. Para verificar a condição (iv), dado p ∈ V , temos

hp, pi = p(0)2 + p(1)2 + p(−2)2 ≥ 0


46 Capítulo 3. Espaços vetoriais com produto interno

e hp, pi = 0 se, e somente se,


p(0) = p(1) = p(−2) = 0.
Como os elementos em V são polinômios de grau no máximo 2, a única maneira de p ter 3 raízes
distintas é se p for o polinômio identicamente nulo. Portanto, hp, pi = 0 se, e somente se, p = 0. 

Listaremos a seguir, as propriedades mais imediatas de um produto interno. As demonstrações


seguem dos itens da Definição 3.1.1, sendo um bom exercício tentar prová-las sem olhar a demonstração
apresentada.

Proposição 3.1.6 — Propriedades básicas. Sejam V um K-espaço vetorial com produto interno
h·, ·i, u, v, w ∈ V e α ∈ K.

(i) h0, ui = hu, 0i = 0.

(ii) hu, ui = 0 se, e somente se, u = 0.

(iii) hu, αvi = α hu, vi.

(iv) hu, v + wi = hu, vi + hu, wi.

(v) Dados m, n ∈ N, αi , β j ∈ K, ui , v j ∈ V , i = 1, . . . , m, j = 1, . . . , n, temos


* +
m n m n
∑ αi ui , ∑ β j v j = ∑ ∑ αi β j ui , v j .
i=1 j=1 i=1 j=1

Demonstração. (i) h0, ui = h0 · u, ui = 0 hu, ui = 0 e hu, 0i = h0, ui = 0 = 0.

(ii) (⇒) Segue do item (iv) da Definição 3.1.1 que hu, ui > 0 para todo u 6= 0. Logo, se hu, ui = 0,
então u = 0.
(⇐) Se u = 0, então hu, ui = h0, 0i = 0 pelo item (i).
(iii) hu, αvi = hαv, ui = α hv, ui = α hv, ui = α hu, vi.
(iv) hu, v + wi = hv + w, ui = hv, ui + hw, ui = hv, ui + hw, ui = hu, vi + hu, wi.
(v) Segue por indução sobre m e n, utilizando os itens (i) e (ii) da Definição 3.1.1 e os itens (iii) e
(iv) desta proposição.


Além do produto interno, o conceito de norma vetorial também foi visto no curso de Geometria
Analítica e será generalizado para um espaço vetorial qualquer.

Definição 3.1.7 Seja V um K-espaço vetorial. Uma norma em V é uma função || · || : V → R que
satisfaz as propriedades a seguir.

(i) ||v|| ≥ 0 para todo v ∈ V .

(ii) ||v|| = 0 se, e somente se, v = 0.

(iii) ||αv|| = |α| ||v|| para todo escalar α ∈ K e todo vetor v ∈ V .

(iv) ||u + v|| ≤ ||u|| + ||v|| para todos u, v ∈ V (desigualdade triangular).


3.1 Definições e propriedades 47

O par (V, || · ||) é chamado de espaço vetorial normado. Se ||v|| = 1, dizemos que o vetor v está
normalizado.

 Exemplo 3.1.8 Seja u = (x1 , . . . , xn ) um vetor qualquer de Rn . A função

||u||∞ = max |xi |


1≤i≤n

define uma norma em Rn , chamada de norma infinito ou norma do máximo. Deixaremos a verificação
como exercício.
Prova. Sejam u = (x1 , . . . , xn ) e v = (y1 , . . . , yn ) vetores quaisquer de Rn e α um escalar. Segue das
propriedades de números reais, que

(i) ||u||∞ = max |xi | ≥ 0;


1≤i≤n

(ii) ||u||∞ = max |xi | = 0 se, e somente se, v = 0;


1≤i≤n

(iii) ||αu||∞ = max |αxi | = max |α||xi | = |α| max |xi | = |α|||u||∞ ;
1≤i≤n 1≤i≤n 1≤i≤n

(iv) ||u + v|| = max |xi + yi | = |xk + yk | para algum k ∈ {1, . . . , n}. Então,
1≤i≤n

||u + v|| = |xk + yk | ≤ |xk | + |yk | ≤ max |xi | + max |y j | = ||u|| + ||v||.
1≤i≤n 1≤ j≤n

Logo, a função
||v||∞ = max |xi |
1≤i≤n

define uma norma em Rn . 

A partir de um produto interno, pode-se obter uma norma no espaço vetorial, como veremos a
seguir.

Teorema 3.1.9 Seja V um K-espaço com produto interno h·, ·i. A função
p
||v|| = hv, vi, para todo v ∈ V,

define uma norma em V . Neste caso, dizemos que || · || é a norma proveniente do produto interno,
ou, norma induzida pelo produto interno.

Demonstração. Sejam u e v vetores quaisquer de V e α um escalar. Como hu, ui ∈ R e h0, 0i = 0,


segue das condições da Definição 3.1.1 que
p
(i) ||v|| = hv, vi ≥ 0;
p
(ii) ||v|| = hv, vi = 0 se, e somente se, v = 0;
p p p
(iii) ||αv|| = hαv, αvi = αα hv, vi = |α|2 hv, vi = |α|||v||.

(iv) A desigualdade triangular para a norma induzida é um resultado importante e será enunciada a
seguir.


48 Capítulo 3. Espaços vetoriais com produto interno

p Seja V um K-espaço com produto interno h·, ·i. Então, a função || · || : V → R


Proposição 3.1.10
dada por ||v|| = hv, vi satisfaz, para todos u, v ∈ V :

(i) | hu, vi | ≤ ||u||||v||. Essa propriedade é conhecida como Desigualdade de Cauchy-Schwarz.


Além disso, a igualdade é verificada se, e somente se, os vetores u e v são LD.

(ii) ||u + v|| ≤ ||u|| + ||v||.

Demonstração. (i) Note que o resultado é válido se um dos vetores é o vetor nulo (ocorre a igualdade e
u e v são LD). Vamos supor, então, que u 6= 0 e v 6= 0. Dado λ ∈ K e defina w = v − λ u. Como u, v ∈ V
segue que w também é um vetor de V . Então,

0 ≤ ||w||2 = hw, wi = hv − λ u, v − λ ui = hv, vi − hλ u, vi − hv, λ ui + hλ u, λ ui

= ||v||2 − λ hu, vi − λ̄ hv, ui + |λ |2 ||u||2 .


hu, vi
Em particular, para λ = , temos
||u||2

|hu, vi|2 |hu, vi|2 |hu, vi|2 |hu, vi|2


0 ≤ ||w||2 = ||v||2 − − + ||u||2
= ||v||2
− ,
||u||2 ||u||2 ||u||4 ||u||2
ou seja,
|hu, vi|2
≤ ||v||2 ⇒ |hu, vi| ≤ ||u||||v||.
||u||2
Além disso, a igualdade ocorre se, e somente se, w = 0, ou seja, se u e v são LD.
(ii) Observe que

||u+v||2 = hu+v, u+vi = hu, ui+hu, vi+hu, vi+hv, vi = ||u+v||2 = ||u||2 +2 Re(hu, vi)+||v||2 . (3.1)

Como Re(z) ≤ |z| para todo z ∈ C, segue, junto com o item anterior, que

||u + v||2 ≤ ||u||2 + 2|hu, vi| + ||v||2 ≤ ||u||2 + 2||u||||v|| + ||v||2 ,

ou seja,
||u + v||2 = (||u|| + ||v||)2 ⇔ ||u + v|| ≤ ||u|| + ||v||.


Os exemplos de normas a seguir decorrem do Teorema 3.1.9 e dos Exemplos 3.1.2, 3.1.3, 3.1.4.
 Exemplo 3.1.11 Seja u = (x1 , . . . , xn ) um vetor qualquer de Kn . A função

||x||2 = x1 x1 + · · · + xn xn

define uma norma em Kn . Essa norma é conhecida como norma usual, ou canônica, ou Euclidiana, de
Kn . 

 Exemplo 3.1.12 Se A = (ai j ) ∈ Mn (K), a função


!1/2
n
r  
>
||A||F = ∑ ai j ai j = tr A A
i, j=1

define uma norma em Mn (K). Essa norma é conhecida como norma de Frobenius. 
3.1 Definições e propriedades 49

 Exemplo 3.1.13 Se f ∈ C ([a, b], R), a função


Z b
1/2
2
|| f || = f (x) dx
a

define uma norma em C ([a, b], R). Essa norma é conhecida como norma usual, ou canônica, de
C ([a, b], R). 

Proposição 3.1.14 Sejam V um K-espaço vetorial com produto interno e || · || a norma induzida
associada. Então, são válidas as identidades a seguir, para todos u, v ∈ V .

(i) Identidades de Polarização


1 1
(a) se K = R, hu, vi = ||u + v||2 − ||u − v||2 ;
4 4
1 1 i i
(b) se K = C, hu, vi = ||u + v||2 − ||u − v||2 + ||u + iv||2 − ||u − iv||2 , onde i2 = −1.
4 4 4 4
(ii) Lei do Paralelogramo
||u + v||2 + ||u − v||2 = 2||u||2 + 2||v||2 .

Demonstração. (i) Dados u, v ∈ V , segue de (3.1) e conta análoga que


||u + v||2 = ||u||2 + 2 Re(hu, vi) + ||v||2
(3.2)
||u − v||2 = ||u||2 − 2 Re(hu, vi) + ||v||2 .
Considere K = R. Subtraindo as equações (3.2), temos
1 1
||u + v||2 − ||u − v||2 = 4 Re(hu, vi) = 4hu, vi ⇔ ||u + v||2 − ||u − v||2 = hu, vi.
4 4
Se K = C, subtraindo as equações (3.2), temos

||u + v||2 − ||u − v||2 = 4 Re(hu, vi).

Substituindo agora v por iv em (3.2), e usando que Re(−iz) = Im(z) para todo z ∈ C, temos

||u + iv||2 = ||u||2 + 2 Re(−ihu, vi) + |i| ||v||2 = ||u||2 + 2 Im(hu, vi) + ||v||2 , (3.3)

e, analogamente,

||u − iv||2 = ||u||2 + 2 Re(ihu, vi) + | − i| ||v||2 = ||u||2 − 2 Im(hu, vi) + ||v||2 . (3.4)

Subtraindo (3.4) de (3.3), obtemos


1 1
||u + iv||2 − ||u − iv||2 = 4 Im(hu, vi) ⇔ ||u + iv||2 − ||u − iv||2 = Im(hu, vi).
4 4
Como hu, vi = Re(hu, vi) + i Im(hu, vi), segue que
1 1 i i
hu, vi = ||u + v||2 − ||u − v||2 + ||u + iv||2 − ||u − iv||2 .
4 4 4 4

(ii) Somando as equações 3.2 obtemos

||u + v||2 + ||u − v||2 = 2||u||2 + 2||v||2 .


50 Capítulo 3. Espaços vetoriais com produto interno

Dado um produto interno num espaço vetorial, o Teorema 3.1.9 afirma que é possível definir uma
norma no espaço a partir dele. Perguntas naturais que surgem são: dada uma norma num espaço
vetorial, ela é a norma induzida por algum produto interno? Se sim, é possível recuperar o produto
interno entre dois vetores quaisquer a partir da norma?
A resposta da segunda pergunta é sim, e para descrever o produto interno entre dois vetores
quaisquer conhecendo-se a norma, utiliza-se as Identidades de Polarização.
A primeira pergunta não é simples de responder, foi preciso um extenso trabalho de muitos
matemáticos, com destaque para Maurice René Fréchet e John von Neumann [Mey]. A conclusão
obtida foi a seguinte.

Dada uma norma || · || em um espaço vetorial V , existe um produto interno em V que induz essa
norma se, e somente se, a norma satisfaz a Lei do Paralelogramo para todos u, v ∈ V .

A demonstração desse fato utiliza ferramentas de Espaços Métricos que fogem do escopo deste curso, e
por isso não será apresentada aqui.

Exercício 3.1 Verifique que a norma infinito em Rn não satisfaz a Lei do Paralelogramo e, portanto,
não existe um produto interno associado a tal norma.

Se V é um K-espaço vetorial normado, então podemos introduzir as noções geométricas de distância


entre dois vetores e comprimento de um vetor.

Definição 3.1.15 A distância entre os vetores u e v é definida por d(u, v) = ||u−v|| e o comprimento
de u por ||u||.

Além disso, se V é um R-espaço vetorial com produto interno h·, ·i, podemos generalizar a noção
de ângulo entre dois vetores, de R2 e R3 para V . Sejam u, v ∈ V \ {0}. Pela Desigualdade de Cauchy-
Schwarz,
hu, vi
| hu, vi | ≤ ||u||||v|| ⇔ −||u||||v|| ≤ hu, vi ≤ ||u||||v|| ⇔ −1 ≤ ≤ 1.
||u||||v||
Logo, existe único θ ∈ [0, π] tal que
hu, vi
cos θ = . (3.5)
||u||||v||
Esse θ pode ser definido como o ângulo entre u e v. O ângulo entre o vetor nulo e qualquer outro é
definido como sendo 0.

Observação 3.1.16 Neste curso, estaremos interessados nas normas provenientes de produto
interno. Daqui por diante, toda vez que nos referirmos a norma em um espaço vetorial com produto
interno, estaremos nos referindo a norma induzida por ele.

3.2 Ortogonalidade e Processo de Gram-Schmidt


A ideia de ortogonalidade entre vetores ou retas é essencial na geometria. Nesta seção, estenderemos
essa noção para espaços vetoriais quaisquer com produto interno. Lembre que, em R2 ou R3 dois
vetores u, v são ortogonais (ou perpendiculares) se hu, vi = 0. Quando se tratam de espaços mais gerais,
como o de matrizes ou funções, por exemplo, a visualização geométrica não será possível. No entanto,
como veremos adiante, algumas propriedades interessantes continuam válidas.
3.2 Ortogonalidade e Processo de Gram-Schmidt 51

Definição 3.2.1 Seja V um K-espaço vetorial com produto interno h·, ·i. Dados u, v ∈ V , dizemos
que u e v são ortogonais, e denotamos u ⊥ v, se hu, vi = 0.
Um subconjunto S ⊆ V é dito ortogonal se os seus elementos são dois a dois ortogonais, isto é u ⊥ v
para todos u, v ∈ S, u 6= v. Além disso, dizemos que S é ortonormal se for um conjunto ortogonal e
||u|| = 1 para todo u ∈ S.

Observação 3.2.2 O vetor nulo é ortogonal a todos os vetores do espaço. Além disso, ele é o
único vetor com essa propriedade, pois se hu, vi = 0 para todo v ∈ V , em particular para v = u tem-se
hu, ui = 0 ⇒ u = 0.

 Exemplo 3.2.3 Seja V = R4 com o produto interno usual. Determine se os vetores u = (1, 0, 3, −2)
e v = (3, 5, −1, 0) são ortogonais.
Solução. Basta calcularmos o produto interno entre esses dois vetores,

hu, vi = 1 · 3 + 0 · 5 − 3 · 1 − 2 · 0 = 0.

Como hu, vi = 0, segue que u e v são ortogonais. 

 Exemplo 3.2.4 Seja V = C3 com produto interno usual. Determine se os vetores u = (−2, i, 1) e
v = (1, 0, i) são ortogonais.
Solução. Basta calcularmos o produto interno entre esses dois vetores,

hu, vi = −2 · 1̄ + i · 0̄ + 1 · ī = −2 − i.

Como hu, vi 6= 0, segue que u e v não são ortogonais. 

 Exemplo 3.2.5 Seja V = C ([−π, π], R) com o produto interno usual. Determine se o conjunto
S = {sen x, cos x} é ortonormal.
Solução. Primeiramente vamos calcular o produto interno entre os vetores de S,
 2 π
sen x
Z π
hsen x, cos xi = sen x cos x dx = = 0.
−π 2 −π

Como hsen x, cos xi = 0, segue que sen x e cos x são ortogonais e, portanto, S é ortogonal. Além disso,

x sen(2x) π
Z π  
2 2
|| sen x|| = hsen x, sen xi = sen x dx = − = π 6= 1,
−π 2 4 −π

ou seja, S não é um conjunto ortonormal. 

 Exemplo 3.2.6 Seja V = C ([0, 1], R) com produto interno usual. Determine o ângulo entre t e t 2 .
Solução. Utilizando a definição em (3.5), precisamos calcular ||t||, ||t 2 || e o produto interno ht,t 2 i.
Assim,
Z 1  3 1
2 2 t 1 1
||t|| = t dt = = ⇒ ||t|| = √ ,
0 3 0 3 3
1
t5
Z 1  
1 1
||t 2 ||2 = t 4 dt = = ⇒ ||t 2 || = √ ,
0 5 0 5 5
Z 1  4 1
t 1
ht,t 2 i = t 3 dt = = .
0 4 0 4
52 Capítulo 3. Espaços vetoriais com produto interno
√ √ !
15 15
Daí, cos θ = e θ = arccos . 
4 4

A seguir, veremos algumas propriedades de vetores ortogonais e conjuntos ortogonais.

Proposição 3.2.7 Sejam V um K-espaço vetorial com produto interno e S ⊆ V um conjunto


ortogonal que não contém o vetor nulo. Então S é um conjunto LI.

Demonstração. Sejam v1 , . . . , vn ∈ S, αi ∈ K, i = 1, . . . , n, tais que


α1 v1 + · · · + αn vn = 0.
Para cada j ∈ {1, . . . , n} temos que hvi , v j i = 0, se i 6= j, e assim
0 = hα1 v1 + · · · + αn vn , v j i = α j hv j , v j i = α j ||v j ||2 .
Como v j 6= 0, segue que α j = 0. Portanto, S é um conjunto L.I. 

Definição 3.2.8 Uma base ortogonal para um espaço vetorial V é uma base para V que também
é um conjunto ortogonal. E, uma base ortonormal para V é uma base para V que também é um
conjunto ortonormal.

 Exemplo 3.2.9 As bases canônicas de Kn e Mn (K) são bases ortonormais em relação aos produtos
internos usuais desses espaços (verifique). 

A proposição a seguir apresenta a primeira vantagem de se trabalhar com bases ortogonais.

Proposição 3.2.10 Sejam V um K-espaço vetorial com produto interno B = {v1 , . . . , vn } uma base
ortogonal para um subespaço W de V . Então, qualquer w ∈ W é escrito como
n
hw, v j i
w= ∑ v.
2 j
(3.6)
j=1 ||v j ||

Essa representação é chamada de expansão de Fourier para w.

Demonstração. Seja w ∈ W . Como B é base ortogonal de W , existem escalares α1 , . . . , αn tais que


w = α1 v1 + · · · + αn vn .
Além disso, para cada j ∈ {1, . . . , n},
* +
n n
w, v j = ∑ αi vi , v j = ∑ αi hvi , v j i.
i=1 i=1

Como B é ortogonal, hvi , v j i = 0 para todo i 6= j, logo


n
w, v j = ∑ αi hvi , v j i = α j hv j , v j i = α j ||v j ||2 .
i=1
n
hw, v j i hw, v j i
Como v j 6= 0, segue que α j = , ou seja, w = ∑ v.
2 j

||v j ||2 j=1 ||v j ||
3.2 Ortogonalidade e Processo de Gram-Schmidt 53

Observação 3.2.11 As ordens dos produtos internos que aparecem na equação (3.6) são importan-
tes se K = C.

A Proposição 3.2.10 mostra que as coordenadas de um vetor são facilmente determinadas quando
trabalhamos com uma base B = {v1 , . . . , vn } ortogonal:
 
hw, v1 i hw, vn i
[w]B = , ... , .
||v1 ||2 ||vn ||2
n n
Além disso, se B é uma base ortonormal de V , dados u = ∑ αi vi e v = ∑ β j v j em V , temos
i=1 j=1
* +
n n n n n
hu, vi = ∑ αi vi , ∑ β j v j = ∑ ∑ αi β j hvi , v j i = ∑ αi βi .
i=1 j=1 i=1 j=1 i=1

Ou seja, se [u]B = (α1 , . . . , αn ) e [v]B = (β1 , . . . , βn ), então o produto interno hu, vi em V é igual ao
produto interno usual de Kn aplicado às coordenadas h[u]B , [v]B i, e portanto é simples de se trabalhar
do ponto de vista computacional.
Uma pergunta natural que surge é: todo espaço vetorial com produto interno possui base ortonormal?
A resposta é sim, e para obter bases ortonormais, utilizaremos o processo de Gram-Schmidt que será
visto adiante. Antes, apresentamos um resultado que será útil nesse processo.

Proposição 3.2.12 Seja V um K-espaço vetorial e S = {v1 , . . . , vn } ⊆ V um subconjunto ortogonal.


Então, dado v ∈ V , o vetor
n
hv, vi i
u = v− ∑ v
2 i
(3.7)
i=1 ||vi ||

n
é ortogonal a todo vetor do subespaço gerado por S. Se S é ortonormal, então u = v − ∑ hv, vi ivi .
i=1

Antes de demonstrar esse resultado, faremos um exemplo em R2 para entender melhor o seu
significado.
 Exemplo 3.2.13 Considere o espaço R2 com o produto interno usual. Sejam v1 = (1, 0) e S = {v1 }.
Dado um vetor v = (a, b) ∈ R2 , temos

u = v − hv, v1 iv1 = (a, b) − h(a, b), (1, 0)i(1, 0) = (a, b) − a · (1, 0) = (0, b),

ou seja, u só tem componente não nula na direção de (0, 1), que é ortogonal à v1 . 

Demonstração da Proposição 3.2.12. Seja v um vetor qualquer de V . Defina


n
hv, vi i
u = v− ∑ v.
2 i
i=1 ||vi ||

Queremos mostrar que u é ortogonal a qualquer vetor do subespaço gerado por S. Para isso, primeira-
mente vamos mostrar que u é ortogonal a qualquer vetor do conjunto S. Se v j ∈ S, então
* +
n n
hv, vi i hv, vi i
hu, v j i = v − ∑ 2
v i , v j = hv, v j i − ∑ hv , v i.
2 i j
i=1 ||vi || i=1 ||vi ||
54 Capítulo 3. Espaços vetoriais com produto interno

Como S é ortogonal, hvi , v j i = 0 para todo i 6= j e segue que

hv, v j i
hu, v j i = hv, v j i − ||v j ||2 = 0,
||v j ||2

ou seja, u ⊥ v j , j = 1, . . . , n. Logo, u é ortogonal a qualquer vetor de S.


Considere agora um vetor qualquer de [S], digamos w ∈ [S]. Então, w = α1 v1 + · · · + αn vn e assim
* +
n n
hu, wi = u, ∑ α j v j = ∑ α j hu, vi i = 0.
i=1 i=1

Portanto, u é ortogonal ao subespaço gerado por S. 

Processo de Gram-Schmidt
Seja B = {v1 , . . . , vn } uma base qualquer para um espaço vetorial V com produto interno. Cons-
truiremos uma base ortogonal Γ = {u1 , . . . , un } para V , a partir dos vetores de B. Isso será feito de
maneira indutiva, de modo que, para cada k ∈ {1, . . . , n}, Γk = {u1 , . . . , uk } será uma base ortogonal
para Vk = [v1 , . . . , vk ].
Primeiro passo: como B é base, v1 6= 0, logo u1 = v1 é tal que Γ1 = {u1 } é ortogonal e [v1 ] = [u1 ].
Ilustraremos explicitamente o passo para k = 2 para facilitar a compreensão. Queremos determinar
u2 ortogonal a u1 tal que [u1 , u2 ] = [v1 , v2 ]. Considere

hv2 , u1 i
u2 = v2 − u1 .
||u1 ||2

Pela Proposição 3.2.12, u2 ⊥ u1 . Além disso, u2 6= 0, pois, caso contrário, teríamos

hv2 , u1 i
v2 = u1 ⇒ v2 ∈ [u1 ] = [v1 ]
||u1 ||2

e {v1 , v2 } seria LD, o que não é verdade. Portanto, Γ2 = {u1 , u2 } é um conjunto ortogonal de vetores
não nulos, com [u1 , u2 ] ⊆ [u1 , v2 ] = [v1 , v2 ] e, portanto, é base ortogonal para V2 = [v1 , v2 ].
Suponha 1 < k ≤ n e que Γk−1 = {u1 , . . . , uk−1 } seja uma base ortogonal para Vk−1 = [v1 , . . . , vk−1 ]
(hipótese de indução). Determinaremos uk tal que Γk = {u1 , . . . , uk−1 , uk } é uma base ortogonal para
Vk . Defina
k−1
hvk , ui i
uk = vk − ∑ 2 i
u.
i=1 ||ui ||

Pela Proposição 3.2.12, uk é ortogonal a todos os vetores de Γk−1 . Além disso, uk 6= 0, pois, caso
contrário, chegaríamos que vk ∈ [u1 , . . . , uk−1 ] = [v1 , . . . , vk−1 ], absurdo pois {v1 , . . . , vk } é LI. Portanto,
Γk = {u1 , . . . , uk } é base ortogonal para Vk = [v1 , . . . , vk ].
Pelo Princípio de Indução, Γn = {u1 , . . . , un } é base ortogonal para V . Para obter uma base
uj
ortonormal, basta normalizar os vetores de Γn : considerando w j = , j = 1, . . . , n, então Γn =
||u j ||
{w1 , . . . , wn } gera o mesmo espaço Vn e é ortonormal, logo é uma base ortonormal para Vn . Também,
pode-se normalizar os vetores em cada etapa do processo.
Esse procedimento define o chamado Processo de Ortonormalização de Gram-Schmidt, e demonstra
o teorema a seguir.
3.2 Ortogonalidade e Processo de Gram-Schmidt 55

Teorema 3.2.14 Todo espaço vetorial de dimensão finita n ≥ 1 com produto interno possui base
ortonormal.

Observação 3.2.15 Se, no processo de Gram-Schmidt, iniciássemos com um conjunto gerador


S = {v1 , . . . , vm } que não é LI (portanto não é base), poderíamos aplicar da mesma maneira o
procedimento, com a diferença que obteríamos alguns vetores w j = 0. Assim, no final seria obtido
um conjunto gerador ortogonal, onde o número de vetores não nulos é exatamente a dimensão de [S].

 Exemplo 3.2.16 Seja V = R4 com produto interno usual, encontre uma base ortonormal para
W = [(1, 1, 1, 1), (1, 1, 2, 1), (1, 1, 1, 2)].
Solução. Sejam v1 = (1, 1, 1, 1), v2 = (1, 1, 2, 1) e v3 = (1, 1, 1, 2). O conjunto B = {v1 , v2 , v3 } é LI
(verifique), logo é uma base para W . Para encontrar uma base ortonormal para W basta aplicarmos o
processo de Gram-Schmidt para B. Temos,

√ w1 1
(i) w1 = (1, 1, 1, 1), ||w1 || = 4 = 2 e u1 = = (1, 1, 1, 1).
||w1 || 2
w2
(ii) w2 = v2 − hv2 , u1 iu1 e u2 = .
||w2 ||

Calculando os valores necessários:


5
hv2 , u1 i = ,
2
51 1
w2 = (1, 1, 2, 1) − (1, 1, 1, 1) = (−1, −1, 3, −1),
22 4
√ √
12 3
||w2 || = = ,
4 2
1
concluímos que u2 = √ (−1, −1, 3, −1).
2 3
w3
(iii) w3 = v3 − hv3 , u1 iu1 − hv3 , u2 iu2 e u3 = .
||w3 ||

Calculando os valores necessários:


5
hv3 , u1 i = ,
2
−1
hv3 , u2 i = √ ,
2 3

51 1 1
w3 = (1, 1, 1, 2) − (1, 1, 1, 1) + √ √ (−1, −1, 3, −1) = 13 (−1, −1, 0, 2),
22 2 32 3

6
||v3 || = ,
3
1
concluímos que u3 = √ (−1, −1, 0, 2).
6
56 Capítulo 3. Espaços vetoriais com produto interno

Logo,
     
1 1 1 1 1 1 3 1 1 1 2
C= , , , , − √ , − √ , √ , − √ , − √ , − √ , 0, √
2 2 2 2 2 3 2 3 2 3 2 3 6 6 6
é base ortonormal para W .


 Exemplo 3.2.17 Seja B = {1, x}. Encontre uma base ortonormal para [B], considerando o produto
interno usual de C ([−1, 1], R).
Solução. Sejam v1 (x) = 1 e v2 (x) = x. Para encontrar uma base ortonormal para [B] basta aplicarmos
o processo de Gram-Schmidt. Assim,
Z 1
2 w1 (x) 1
(i) w1 (x) = 1, ||w1 || = 1dx = 2 ⇒ u1 (x) = =√ .
−1 ||w1 || 2
w2
(ii) w2 = v2 − hv2 , u1 iu1 e u2 = .
||w2 ||
Calculando os valores necessários:
Z 1  2 1
1 x
hv2 , u1 i = x · √ dx = √ = 0,
−1 2 2 2 −1
w2 (x) = x,
1
x3
Z 1 
2 2 2
||w2 || = x dx = = ,
−1 3 −1 3

3
concluímos que u2 (x) = √ x.
2
( √ )
1 3x
Logo, C = √ , √ é uma base ortonormal para [B]. 
2 2

 Exemplo 3.2.18 — Fatoração QR. Sejam A ∈ Mm×n (R) uma matriz cujas colunas são os vetores

coluna x1 , . . . , xn ∈ Rm e R(A) o espaço coluna de A (veja Exemplo 2.3.6). Pelo processo de ortonorma-
lização de Gram-Schmidt, podemos encontrar u1 , . . . , un ∈ Rn ortogonais tais que R(A) = [u1 , . . . , un ]
e [u1 , . . . , uk ] = [x1 , . . . , xk ] para qualquer k ∈ {1, . . . , n}. Ou seja, para cada k, existem escalares
r1k , . . . , rkk ∈ R tais que
xk = r1k u1 + · · · + rkk uk + 0uk+1 + · · · + 0un .
Definindo
 
  r11 r12 . . . r1n
| | |  0 r22 . . . r2n 
Q = u1 u2 · · · un  ∈ Mm×n (R) e R =  . ..  ∈ Mn (R)
 
.. . .
 .. . . . 
| | |
0 0 ... rnn

podemos escrever A = QR, com R uma matriz triangular superior e Q uma matriz cujas colunas são
ortogonais. Essa fatoração é bastante utilizada em matemática aplicada. Além disso, se dim(R(A)) = n,
então R é não singular. 
3.2 Ortogonalidade e Processo de Gram-Schmidt 57
Quando trabalhamos com bases ortonormais, a matriz de mudança de base também possui uma
característica interessante, relacionada com a definição a seguir.
> >
Definição 3.2.19 Seja A ∈ Mn (K). Dizemos que A é uma matriz unitária se AA = A A = In , isto
>
é, A−1 = A . Quando K = R, onde neste caso AA> = A> A = In , dizemos que A é ortogonal.

A proposição a seguir traz uma caracterização de matriz unitária em termos de suas linhas ou
colunas.

Proposição 3.2.20 Seja A ∈ Mn (K). São equivalentes:

(i) A é unitária;

(ii) as colunas de A formam um conjunto ortonormal em Kn (considerando produto interno usual);

(iii) as linhas de A formam um conjunto ortonormal em Kn (considerando produto interno usual).

Demonstração. Escreva A = (ai j ), ui = (ai1 , . . . , ain ) a i-ésima linha de A e v j = (a1 j , . . . , an j )> a


j-ésima coluna de A. Observe que
    
a11 a12 · · · a1n a11 a21 · · · an1 hu1 , u1 i hu1 , u2 i · · · hu1 , un i
a21 a22 · · ·
 a12 a22 · · ·
a2n   an2  hu2 , u1 i hu2 , u2 i · · · hu2 , un i
>
AA =  . ..  =  ..
   
.. .. ..   .. .. .. .. .. .. 
 .. . . .  . . . .   . . . . 
an1 an2 · · · ann a1n a2n · · · ann hun , u1 i hun , u2 i · · · hun , un i

e,
    
a11 a21 · · · an1 a11 a12 · · · a1n hv1 , v1 i hv2 , v1 i · · · hvn , v1 i
a12 a22 · · ·
 a21 a22 · · ·
an2  a2n  hv1 , v2 i hv2 , v2 i · · · hvn , v2 i
  
>
A A= . ..  =  .. ..  .
 
.. .. ..   .. .. .. .. ..
 .. . . .  . . . .   . . . . 
a1n a2n · · · ann an1 an2 · · · ann hv1 , vn i hv2 , vn i · · · hvn , vn i

Portanto, considerando δii = 1 e δi j = 0 para todo i 6= j, temos

>
hui , u j i = δi j para todos i, j = 1, . . . , n ⇔ AA = In ,

e
>
hvi , v j i = δi j para todos i, j = 1, . . . , n ⇔ A A = In .

Proposição 3.2.21 Seja V um K-espaço vetorial com produto interno. Sejam B = {v1 , . . . , vn } e
C = {u1 , . . . , un } bases ortonormais para V . Então, a matriz de mudança de bases MBC é unitária.

Demonstração. Suponha
 
a11 a12 · · · a1n
a21 a22 · · · a2n 
MBC =  . ..  .
 
.. ..
 .. . . . 
an1 an2 · · · ann
58 Capítulo 3. Espaços vetoriais com produto interno

Então,      
a11 a12 a1n
a21  a22  a2n 
[v1 ]C =  .  , [v2 ]C =  .  , . . . , [vn ]C =  .  .
     
 ..   ..   .. 
an1 an2 ann
Ou seja, para cada j = 1, . . . , n, temos que
n
v j = a1 j u1 + a2 j u2 + · · · + an j un = ∑ ai j ui .
i=1

Como B é base ortonormal, segue que


* +
n n n n n
δi j = hv j , vi i = ∑ ak j uk , ∑ ali ul = ∑ ∑ ak j ali hvk , vl i = ∑ ak j aki , (3.8)
k=1 l=1 k=1 l=1 k=1

onde 
1, se i = j
δi j = .
0, se i 6= j
>
Por outro lado, como MBC = (ai j ), temos MBC = (bi j ) com bi j = a ji . Logo
n n
> (3.8)
(MBC MBC )i j = ∑ bik ak j = ∑ aki ak j = δi j ,
k=1 k=1

> −1 >
ou seja, MBC MBC = In e, portanto, MBC = MBC . 

3.3 Complemento ortogonal


Definição 3.3.1 Sejam V um K-espaço vetorial com produto interno e S ⊆ V um subconjunto de
V . O conjunto ortogonal de S é o definido

S⊥ = {v ∈ V : hv, ui = 0, ∀ u ∈ S}.

Observação 3.3.2 (i) Também podemos escrever S⊥ = {v ∈ V : hu, vi = 0, ∀ u ∈ S};

(ii) Se S = {0} então S⊥ = V ;

Exercício 3.2 Prove as afirmações a seguir.


(i) S⊥ é subespaço vetorial de V (mesmo que S não o seja).

(ii) Se S contém uma base para V então S⊥ = {0}.

Proposição 3.3.3 Considere V um K-espaço vetorial com produto interno. Sejam W ⊆ V um


subespaço e B = {w1 , . . . , wk } um conjunto gerador para W . Então, v ∈ W ⊥ se, e somente se,
hv, wi i = 0 para todo i = 1, . . . , k.

Demonstração. (⇒) Seja v ∈ W ⊥ . Como W ⊥ = {v ∈ V : hv, wi = 0, ∀ w ∈ W }, segue que hv, wi i = 0,


para todo i = 1, . . . , k.
3.3 Complemento ortogonal 59

(⇐) Seja w ∈ W um vetor qualquer. Como B gera W , existem escalares α1 , . . . , αk ∈ K tais que
w = α1 w1 + α2 w2 + · · · + αk wk .
Se v ∈ V é tal que hv, wi i = 0, para todo i = 1, . . . , k, então
* +
k k
hw, vi = ∑ α jw j, v = ∑ α j hw j , vi = 0
j=1 j=1

e, portanto, v ∈ W ⊥ . 

 Exemplo 3.3.4 Sejam V = R4 com produto interno usual e W = [(1, 0, 1, 1), (1, 1, 0, 1)]. Determine
uma base para W ⊥ .
Solução. Temos que W ⊥ = {(x, y, z,t) ∈ R4 : h(x, y, z,t), wi = 0, ∀ w ∈ W }. Como B = {w1 , w2 } =
{(1, 0, 1, 1), (1, 1, 0, 1)} é base de W , basta procurarmos pelos vetores v ∈ R4 tais que hv, wi i = 0,
i = 1, 2. Se v = (x, y, z,t) ∈ W ⊥ , então
0 = hv, w1 i = h(x, y, z,t), (1, 0, 1, 1)i = x + z + t ⇒ x = −z − t,
0 = hv, w2 i = h(x, y, z,t), (1, 1, 0, 1)i = x + y + t ⇒ y = −x − t = z + t − t = z
Logo,
v = (x, y, z,t) = (−z − t, z, z,t) = z(−1, 1, 1, 0) + t(−1, 0, 0, 1) ∈ [(−1, 1, 1, 0), (−1, 0, 0, 1)].
Ou seja, W ⊥ ⊆ [(−1, 1, 1, 0), (−1, 0, 0, 1)]. Não é difícil ver que (−1, 1, 1, 0), (−1, 0, 0, 1) são ortogo-
nais a w1 e w2 , portanto (−1, 1, 1, 0), (−1, 0, 0, 1) ∈ W ⊥ , donde segue que [(−1, 1, 1, 0), (−1, 0, 0, 1)] ⊆
W ⊥ (pois W ⊥ é subespaço). Logo, W ⊥ = [(−1, 1, 1, 0), (−1, 0, 0, 1)] e C = {(−1, 1, 1, 0), (−1, 0, 0, 1)}
é uma base para W ⊥ . 

 Exemplo 3.3.5 Considere V = M2×2 (R) com produto interno usual e


  
x y
W= ∈ V : x + 2y + 3z + 4w = 0 .
z w
Determine uma base para W ⊥ .
 
x y
Solução. Se A = ∈ W , então, x = −2y − 3z − 4w. Assim, A ∈ W se, e somente se,
z w
             
−2y − 3z − 4w y −2 1 −3 0 −4 0 −2 1 −3 0 −4 0
A= =y +z +w ∈ , , .
z w 0 0 1 0 0 1 0 0 1 0 0 1
     
−2 1 −3 0 −4 0
Logo, W = [A1 , A2 , A3 ] = , , .
0 0 1 0 0 1
 
a b
Agora, se B = ∈ W ⊥ então hB, Ai i = 0, i = 1, 2, 3. Ou seja,
c d
0 = hB, A1 i = −2a + b ⇒ b = 2a,
0 = hB, A2 i = −3a + c ⇒ c = 3a,
0 = hB, A3 i = −4a + d ⇒ d = 4a.
   
⊥ 1 2 1 2
Logo, W = eC= é base para W ⊥ . 
3 4 3 4
60 Capítulo 3. Espaços vetoriais com produto interno

Proposição 3.3.6 Sejam V um K-espaço vetorial de dimensão finita n ≥ 1, com produto interno e
W ⊂ V um subespaço vetorial. Então V = W ⊕W ⊥ .

Demonstração. Primeiramente vamos mostrar que V = W + W ⊥ . Seja B = {w1 , . . . , wk } uma base


ortonormal para W . É claro que W +W ⊥ ⊆ V . Por outro lado, se v ∈ V , segue da Proposição 3.2.12 que
k
u = v − ∑ hv, wi iwi ∈ W ⊥ .
i=1

k
Logo, v = ∑ hv, wi iwi + u ∈ W +W ⊥ e, portanto, V = W +W ⊥ .
i=1

Agora, se w ∈ W ∩W ⊥ temos que w ∈ W ⊥ . Ou seja, hw, vi = 0 para todo vetor v ∈ W . Em particular,


hw, wi = 0, o que implica em w = 0. Logo, W ∩W ⊥ = {0} e, portanto, V = W ⊕W ⊥ . 

Devido a Proposição 3.3.6, se S = W é um subespaço vetorial, então o conjunto ortogonal S⊥ leva


um nome especial, definido a seguir.
Definição 3.3.7 Se V é um espaço vetorial com produto interno e W ⊆ V é um subespaço vetorial,
então W ⊥ é chamado de complemento ortogonal de W .

O próximo resultado é uma consequência imediata das Proposições 3.3.6 e 2.6.4.

Corolário 3.3.8 Seja V um K-espaço vetorial de dimensão finita n ≥ 1, com produto interno. Se
W ⊂ V é um subespaço vetorial, então, dimV = dimW + dimW ⊥ .

Exercício 3.3 Sejam V um K-espaço vetorial de dimensão finita com produto interno. Se W ⊂ V é
um subespaço, prove que (W ⊥ )⊥ = W .

3.4 Projeção ortogonal


Antes de introduzirmos o conceito de projeção ortogonal num espaço vetorial com produto interno,
vamos relembrar o seu significado em R2 e R3 , provavelmente visto em Geometria Analítica.
Em R2 , considere uma reta r passando pela origem e P = (a, b) ∈ R2 um ponto que não pertence a
−→
r. Para calcular a distância de P a r, consideramos o vetor v = OP = (a, b). A projeção ortogonal de v
em r (ou em qualquer vetor paralelo à r) é o vetor w, que é paralelo a reta r e tal que v − w é ortogonal
à r. Neste caso, ||v − w|| é a distância de P a r, e é a menor dentre todas as distâncias de P aos pontos
de r. Veja a Figura 3.2.

Figura 3.2: Projeção ortogonal de v ∈ R2 na reta gerada por w.

Em linguagem de álgebra linear, r é um subespaço vetorial W , v é um vetor que não pertence a W e


3.4 Projeção ortogonal 61

w ∈ W é tal que ||v − w|| = min{||v − u|| : u ∈ W }. Também poderia se considerar v ∈ W (ou P ∈ r),
mas nesse caso w = v seria a projeção ortogonal de v em W e ||v − w|| = 0.
Em R3 a situação é análoga. Se W é um plano em R3 passando pela origem e v = (a, b, c) ∈ R3 ,
a projeção ortogonal de v em W é o vetor w ∈ W tal que v − w é ortogonal ao plano W e ||v − w|| =
min{||v − u|| : u ∈ W } é a menor distância entre o ponto P = (a, b, c) e um ponto do plano W . Observe
que o complemento ortogonal W ⊥ neste caso é uma reta (passando pela origem) ortogonal a W e
paralela ao vetor v − w, isto é v − w ∈ W ⊥ . Veja a Figura 3.3.

Figura 3.3: Projeção ortogonal de v ∈ R3 no subespaço W .

Essas ideias serão generalizadas para um espaço vetorial V com produto interno.
Definição 3.4.1 Sejam V um K-espaço vetorial com produto interno, W ⊆ V um subespaço vetorial
e v ∈ V . Dizemos que w ∈ W é projeção ortogonal de v sobre W , e denotamos w = projW (v), se
v − w for ortogonal a todo vetor de W , isto é, se v − w ∈ W ⊥ .

O resultado a seguir garante a existência e unicidade da projeção ortogonal sobre subespaços de


dimensão finita.

Proposição 3.4.2 Seja V um K-espaço vetorial com produto interno e W ⊆ V um subespaço vetorial
de V com dimensão finita. Dado v ∈ V existe um único w ∈ W tal que v − w ∈ W ⊥ .

Demonstração. Existência: Seja B = {w1 , . . . , wk } uma base ortonormal para W . Segue da Proposição
3.2.12 que, dado v ∈ V ,
k
u = v − ∑ hv, wi iwi ∈ W ⊥ .
i=1
k
Logo, w = ∑ hv, wi iwi ∈ W satisfaz v − w ∈ W ⊥ e, portanto, w é uma projeção ortogonal de v em W .
i=1

Unicidade: Suponha que w, w̄ ∈ W sejam projeções ortogonais de v em W , ou seja,

v − w ∈ W ⊥ e v − w̄ ∈ W ⊥ .

Note que,

||w − w̄||2 = hw − w̄, w − w̄i = hw − w̄, w − v + v − w̄i = hw − w̄, w − vi + hw − w̄, v − w̄i.

Como w − w̄ ∈ W , w − v ∈ W ⊥ e v − w̄ ∈ W ⊥ , segue que ||w − w̄||2 = 0 e, portanto, w = w̄. 


62 Capítulo 3. Espaços vetoriais com produto interno

Observação 3.4.3 Na demonstração da proposição anterior apareceu uma fórmula para a projeção
ortogonal, a saber,
k
projW (v) = ∑ hv, wi iwi ,
i=1

desde que B = {w1 , . . . , wk } seja uma base ortonormal para W . Caso B = {u1 , . . . , uk } seja uma base
ortogonal para W (mas não necessariamente ortonormal), então
k
hv, ui i
projW (v) = ∑ u.
2 i
i=1 ||ui ||

Observação 3.4.4 Note que, no Processo de Ortogonalização de Gram-Schmidt, em cada etapa


⊥ .
k = 2, . . . , n, o vetor uk é exatamente vk − projVk−1 (vk ) ∈ Vk−1

 Exemplo 3.4.5 Seja V = R4 com o produto interno usual. Determine a projeção ortogonal de
u = (1, 5, −1, 12) no espaço solução do sistema linear homogêneo

x1 + x2 + x4 = 0
.
2x1 + x2 + x3 = 0

Solução. Seja S o conjunto solução do sistema dado. Note que S = [(−1, 1, 1, 0), (1, −2, 0, 1)]. Porém,
os dois vetores não são ortogonais. Ortogonalizando, obtemos a base ortogonal B = {u1 , u2 } =
{(−1, 1, 1, 0), (0, −1, 1, 1)} (verifique). Segue que,

hu, u1 i hu, u2 i
projS (u) = 2
u1 + u2 = (−1, −1, 3, 2).
||u1 || ||u2 ||2


 Exemplo 3.4.6 Considere V = P2 (R) com o produto interno

hp, qi = p(−2)q(−2) + p(0)q(0) + p(1)q(1).

Sejam p(x) = x2 − 4 e W = [x − 1]. Determine projW (p).


Solução. Note que B = {x − 1} é uma base ortogonal para W . Então,

hp, x − 1i
projW (p) = .
||x − 1||2

Como
||x − 1||2 = hx − 1, x − 1i = (−3)(−3) + (−1)(−1) + 0 = 10
hp, x − 1i = 0 + (−4)(−1) + 0 = 4
segue que
4 2(x − 1)
projW (p) = (x − 1) = .
10 5


 Exemplo 3.4.7 Seja V = C ([0, 1], R) com produto interno usual. Um exemplo clássico consiste em
determinar a projeção ortogonal de ex em W = [1, x].
3.4 Projeção ortogonal 63

Solução. Como
1
x2
Z 1
1
h1, xi = 1 · x dx = = 6= 0
0 2 0 2
seque
 que{1, x} não é uma base ortogonal para W . Ortogonalizando essa base, obtemos B =
1
1, x − . Assim,
2

hex , 1i hex , x − 21 i
   
x 1 1
projW (e ) = 1+ x− = (e − 1) + 6(3 − e) x − ,
||1||2 ||x − 12 ||2 2 2

ou seja,
projW (ex ) = 4e − 10 + (18 − 6e)x.


 Exemplo 3.4.8 Sejam V = R3 com produto interno usual e W = [(1, 2, −1)]. Determine a projeçao
ortogonal do elemento u = (4, 5, 2) ∈ R3 sobre o subespaço W e sobre o subespaço W ⊥ .
Solução. A projeção ortogonal de u sobre W é dada por

hu, wi
ũ = projW (u) = w = (2, 4, −2).
||w||2

Além disso, a projeção ortogonal ũ é o único vetor de W tal que u − ũ ∈ W ⊥ . Assim como, a projeção
ortogonal de u em W ⊥ é o único vetor ū de W ⊥ tal que u − ū ∈ (W ⊥ )⊥ = W . Como u − ũ ∈ W ⊥ e
u − (u − ũ) = ũ ∈ W , seque que ū = u − ũ = projW ⊥ (u). Logo,

projW ⊥ (u) = u − ũ = (4, 5, 2) − (2, 4, −2) = (2, 1, 4).

O resultado a seguir afirma que a projW (v) é a melhor aproximação de v ∈ V por um vetor em W .

Proposição 3.4.9 Sejam V um K-espaço vetorial com produto interno, W ⊆ V um subespaço


vetorial de V e v ∈ V . Dado w̄ ∈ W , são equivalentes:

(i) v − w̄ ∈ W ⊥ ;

(ii) ||v − w̄|| < ||v − w|| para todo w ∈ W \ {w̄}.

Demonstração. (i) ⇒ (ii) Seja w̄ ∈ W tal que v − w̄ ∈ W ⊥ . Para w ∈ W , w 6= w̄, temos que

||v − w||2 = ||v − w̄ + w̄ − w||2 = hv − w̄ + w̄ − w, v − w̄ + w̄ − wi

= hv − w̄, v − w̄i + hv − w̄, w̄ − wi + hw̄ − w, v − w̄i + hw̄ − w, w̄ − wi


= ||v − w̄||2 + ||w̄ − w||2 > ||v − w̄||2 ,
pois w̄ − w ∈ W \ {0}, donde ||w̄ − w|| > 0.
(ii) ⇒ (i) Seja w̄ ∈ W tal que ||v − w̄|| < ||v − w|| para todo w ∈ W \ {w̄}. Suponha, por absurdo,
que v − w̄ ∈/ W ⊥ . Então, existe u ∈ W tal que hu, v − w̄i = 6 0. Note que u 6= 0. Considere S = [u, w̄].
Observe que S é um subespaço de W com 1 ≤ dim S ≤ 2. Tome s̄ ∈ S a projeção ortogonal de v em S,
ou seja, v − s̄ ∈ S⊥ . Temos s̄ 6= w̄, pois hv − w̄, ui 6= 0 e hv − s̄, ui = 0.
64 Capítulo 3. Espaços vetoriais com produto interno

Pela parte (i) ⇒ (ii) já demonstrada, ||v − s̄|| < ||v − s|| para todo s ∈ S \ {s̄}. Ou seja,

||v − s̄|| < ||v − w̄||, pois w̄ ∈ S,

||v − w̄|| < ||v − s̄||, pois s̄ ∈ W,


o que é uma contradição. Portanto, v − w̄ ∈ W ⊥ . 

Z 1
 Exemplo 3.4.10 Considere V = P3 (R) com o produto interno hp, qi = p(x)q(x) dx. Determine o
0
polinômio de grau 1 que melhor se aproxima de p(x) = x3 [Coe].
Solução. Queremos q̄(x) = a + bx ∈ P1 (R) tal que
√ ||p − q̄|| < ||p − q|| para todo q ∈ P1 (R) \ {q̄}. Pela
Proposição 3.4.9, q̄ = projP1 (p). Como B = {1, 3(2x − 1)} é base ortonormal de P1 (R) (verifique),
segue que
√ √ 1 9 9x 1
q̄(x) = projP1 (R) (x3 ) = hx3 , 1i + hx3 , 3(2x − 1)i 3 (2x − 1) = + (2x − 1) = − .
4 20 10 5
Veja a ilustração de p e q̄ na Figura 3.4, considerando o intervalo [0, 1].

Figura 3.4: Projeção de x3 em P1 (R) para x ∈ [0, 1].

3.5 O Problema de Quadrados Mínimos


O sistema linear

 2x = b1
3x = b2 (3.9)
4x = b3

possui solução apenas quando (b1 , b2 , b3 ) ∈ [(2, 3, 4)]. Se (b1 , b2 , b3 ) ∈


/ [(2, 3, 4)] esse sistema não
possui solução. Entretanto, podemos determinar uma “solução aproximada”, isto é, um vetor que
minimize o erro cometido.
   
2 b1
Definindo a = 3 e b = b2  podemos escrever (3.9) na forma ax = b. Uma solução aproximada
4 b3
pode ser obtida, por exemplo, minimizando a norma do erro cometido. Por conveniência, trabalharemos
com a norma Euclidiana ao quadrado, assim

E 2 (x) = kax − bk2 = (2x − b1 )2 + (3x − b2 )2 + (4x − b3 )2 .


3.5 O Problema de Quadrados Mínimos 65

Em Cálculo I foi visto que os candidatos a minimizadores de uma função são os seus pontos críticos.
Nesse caso, os pontos críticos são aqueles cuja derivada é igual a zero. Como
d 2
E (x) = 2 · 2 (2x − b1 ) + 2 · 3(3x − b2 ) + 2 · 4(4x − b3 ),
dx
temos
d 2
E (x) = 0 ⇔ (22 + 32 + 42 )x = 2b1 + 3b2 + 4b3 ,
dx
ou seja,
2b1 + 3b2 + 4b3 ha, bi
x= =
22 + 32 + 42 kak2
d2
é o único ponto crítico desse problema. Como 2 E 2 (x) = 2(22 + 32 + 42 ) > 0, segue que o ponto
dx
encontrado é um minimizador do problema.
No caso de um sistema linear com mais de uma variável a situação é bem parecida. Considere


 a11 x1 + a12 x2 + · · · + a1n xn = b1
 a21 x1 + a22 x2 + · · · + a2n xn = b2

.. (3.10)


 .
am1 x1 + am2 x2 + · · · + amn xn = bm

um sistema linear incompatível (ou impossível), com coeficientes em K. Assim, não existe x ∈ Kn que
seja solução de (3.10). Queremos encontrar uma solução aproximada, x̃ ∈ Kn , que minimize o erro
cometido.
Denotando por A = (ai j ) ∈ Mm×n (K) a matriz do sistema (3.10) e b = (bi ) ∈ Mm×1 (K), o problema
de encontrar x̃ ∈ Kn tal que Ax̃ esteja o mais próximo possível de b, isto é,
||Ax̃ − b|| < ||Ax − b|| ∀ x ∈ Kn \ {x̃},
é chamado de Problema de Quadrados Mínimos.
Sejam A1 , . . . , An ∈ Km as colunas de A, isto é, Ai = [a1i , a2i , . . . , ami ]> . Se y = (y j ) ∈ Mn×1 (K)
então, pela Proposição 1.1.2(xiv)
Ay = y1 A1 + y2 A2 + · · · + yn An
ou seja, Ay é uma combinação linear das colunas de A. Logo, Ay ∈ R(A) = [A1 , A2 , . . . , An ] ⊆ Km .
Como queremos encontrar x̃ tal que Ax̃ esteja o mais próximo possível de b, basta calcularmos a
projeção ortogonal de b sobre o espaço coluna R(A). Note que, dizer que o sistema (3.10) é incompatível,
é equivalente a dizer que b ∈
/ R(A). Veja a Figura 3.5.

Figura 3.5: Projeção ortogonal de b no espaço coluna de A.


66 Capítulo 3. Espaços vetoriais com produto interno

Pela Proposição 3.4.9, se p = Ax̃ é a projeção ortogonal de b em R(A), então b − p ∈ R(A)⊥ =


[A1 , A2 , . . . , An ]⊥ , ou seja,
hb − Ax̃, Ai i = 0 , ∀ i = 1, . . . , n,

ou ainda, hb, Ai i = hAx̃, Ai i, para todo i = 1, . . . , n. Obtemos assim o sistema linear




 hA1 , A1 ix̃1 + hA2 , A1 ix̃2 + · · · + hAn , A1 ix̃n = hb, A1 i
 hA1 , A2 ix̃1 + hA2 , A2 ix̃2 + · · · + hAn , A2 ix̃n = hb, A2 i

.. (3.11)


 .
hA1 , An ix̃1 + hA2 , An ix̃2 + · · · + hAn , An ix̃n = hb, An i

que sempre admite m


 solução, pois a projeção ortogonal existe. Usando o produto interno usual de K ,
>
observe que A A = hA j , Ai i, assim podemos reescrever (3.11) na forma matricial
ij

> >
A Ax̃ = A b.

Resolvendo esse sistema, obtém-se a melhor aproximação de uma “solução” do sistema Ax = b.


> >
Definição 3.5.1 O sistema A Ax̃ = A b obtido acima é chamado de sistema de equações normais.

O método dos quadrados mínimos é utilizado quando temos um sistema de equações Ax = b que
não possui solução. Neste caso, dizemos que x̃ é uma “solução” se a diferença ||Ax̃ − b||2 é a menor
possível. Essa “solução” é chamada de solução de quadrados mínimos.
Como visto anteriormente, a solução de quadrados mínimos x̃ deve satisfazer as equações normais
> > >
A Ax = A b. Se as colunas da matriz A forem LIs, a matriz A A será não singular, e a solução de
 −1
> >
quadrados mínimos é dada unicamente por x̃ = A A A b. Se {A1 , . . . , An } for LD, a melhor
aproximação poderá ser escrita de várias maneiras diferentes como combinação linear de A1 , . . . , An .
Costuma-se escolher aquela de menor norma.
 Exemplo 3.5.2 Considere o sistema

 x1 − x4 = 0
−x2 + x3 + 2x4 = −2 .
x1 − x2 + x3 + x4 = −1

Deixamos como exercício a verificação de que esse sistema é impossível. Na forma matricial, esse
sistema é dado por Ax = b onde
 
  x1  
1 0 0 −1 x2  0
A = 0 −1 1 2  ∈ M3×4 (R), x =   ∈ M4×1 (R) e b = −2 ∈ M3×1 (R).
x3 
1 −1 1 1 −1
x4

Buscaremos uma solução para o problema de quadrados mínimos, utilizando as equações normais.
Temos,
   
1 0 1   2 −1 1 0
1 0 0 −1
0 −1 −1 −1 2 −2 −3
A> A = 
  
 0 −1 1 2  =  
0 1 1 1 −2 2 3
1 −1 1 1
−1 2 1 0 −3 3 6
3.5 O Problema de Quadrados Mínimos 67

e    
1 0 1   −1
0
0 −1 −1    3 
A> b = 
  
−2 =   .
0 1 1 −3
−1
−1 2 1 −5
O sistema de equações normais é dado por
    
2 −1 1 0 x̃1 −1
−1 2 −2 −3 x̃2   3 
   =  
 1 −2 2 3  x̃3  −3
0 −3 3 6 x̃4 −5
 
α + 1/3
4α + 10/3
 2α + 5/3  , α ∈ R. Neste caso, obtém-se infinitas soluções, pois as colunas
cuja solução geral é x̃ =  

α
de A são LD. Não há contradição com a unicidade da projeção ortogonal, pois
 
1/3
Ax̃ = −5/3 , para todo α ∈ R,
−4/3
 
1/3
é a (única) projeção ortogonal de b em R(A). Mas a maneira de escrever −5/3 como combinação
−4/3
linear das colunas de A que não é única.
 
1/3
10/3
Uma melhor aproximação de uma “solução” do sistema Ax = b, por exemplo, é x =   5/3 .
 

Uma solução de quadrados mínimos pode ser utilizada para descrever uma tendência nos dados,
que poderá ser usada para fazer previsões.
 Exemplo 3.5.3 O custo para produzir um certo livro é dado por c(t) = a + bt, com a sendo o custo
de edição e tipografia e b o custo de impressão e encadernação (para cada livro). Determine a função
custo quando foi observado que:
# livros 10 20 50 100
custo (R$) 1200,00 1500,00 2000,00 2700,00

Solução. Estamos interessados em resolver o sistema linear




 a+10b = 1200
a+20b = 1500


 a+50b = 2000
a+100b = 2700

ou, na forma matricial, Ax = b com


   
1 10   1200
1 20  a 2
1500 4
A= 1 50  ∈ M4×2 (R), x = b ∈ R e b = 2000 ∈ R .
  

1 100 2700
68 Capítulo 3. Espaços vetoriais com produto interno

Como esse sistema linear não admite solução (verifique), vamos buscar uma solução para o problema
de quadrados mínimos
Minimizar ||Ax − b||
x ∈ R2
utilizando as equaçẽs normais. Temos
 
  1 10  
1 1 1 1  1 20  = 4 180
A> A =

10 20 50 100 1 50  180 13000
1 100
e  
  1200  
> 1 1 1 1  1500 7400
A b=   = .
10 20 50 100 2000 412000
2700
O sistema de equações normais é dado por
    
4 180 a 7400
=
180 13000 b 412000
 
1124, 5
cuja solução é x̃ = . Ou seja, uma aproximação para a função custo é
16, 12

c(t) = 1124, 5 + 16, 12t.

O caso geral está descrito no próximo exemplo.


 Exemplo 3.5.4 — Ajuste Linear. Dados m pontos não colineares (t1 , y1 ), . . . , (tm , ym ), encontre a

reta r : y(t) = a + bt que melhor ajusta esses pontos.


Solução. Se todos os pontos pertencessem à reta r, teríamos
(t1 , y1 ) ∈ r ⇒ a + bt1 = y1
(t2 , y2 ) ∈ r ⇒ a + bt2 = y2
..
.
(tm , ym ) ∈ r ⇒ a + btm = ym
obtendo assim o sistema linear Ax = b, com
   
1 t1 y1
1 t2     y2 
a
A =  . .  ∈ Mm×2 (R), x = ∈ R2 e b =  .  ∈ Rm .
   
.
. . . b  .. 
1 tm ym
O sistema de equações normais torna-se
 m   m 
m ∑ t y
i
∑ i
 
i=1  a =  i=1  .

m m
 2
 b m 
∑ ti ∑i t ∑ ti yi
i=1 i=1 i=1

3.5 O Problema de Quadrados Mínimos 69

 Exemplo 3.5.5 — Ajuste Polinomial. Dados m pares de números (t1 , y1 ), . . . , (tm , ym ), encontre o
polinômio de grau n que melhor ajusta yi como função de ti .
Solução. Seja p(t) = a0 + a1t + · · · + ant n o polinômio procurado. Se todos os pontos pertencessem ao
gráfico desse polinômio, teríamos

a0 + a1t1 + · · · + ant1n = y1
a0 + a1t2 + · · · + ant2n = y2
..
.
a0 + a1tm + · · · + antmn = ym

obtendo assim o sistema linear Ax = b, com

1 t1 · · · t1n
     
a0 y1
1 t2 · · · t n  a1   y2 
2
A = . . . ∈ Mm×(n+1) (R), x =  .  ∈ Rn+1 e b =  .  ∈ Rm .
    
 .. .. . . ... 
  ..   .. 
1 tm · · · tmn an ym

Para encontrar os coeficientes a0 , . . . , an , basta resolver o sistema de equações normais

m
 
m m
 
 m ∑ ti ··· ∑ tin    ∑ yi 
i=1 i=1
 i=1
 a0
 
 m m m 
 m

∑ ti2 n+1   

 ∑ ti ··· ∑ ti  a1   ∑ ti yi 
 
 i=1 i=1 i=1  .  =  i=1  .
  ..  
 . .. .. 
 . ..  .. 

 . . . .  .
m m m  an 
m


2n 
∑ tin ∑ tin+1 ···

∑ ti  n
∑ ti yi

i=1 i=1 i=1 i=1

A Figura 3.6 ilustra um exemplo com 10 pontos e polinômios de diferentes graus. Intuitivamente
podemos pensar que quanto maior o grau do polinômio, melhor será a aproximação obtida. O que não é
verdade. Ao resolvermos esse problema, dificuldades númericas começam a aparecer e a aproximação
deixa de ser precisa, veja a Figura 3.7. Não discutiremos aqui os fenômentos que levam a esses
problemas, o estudante interessado encontrará maiores informações em um curso de Álgebra Linear
Numérica ou Computacional.
70 Capítulo 3. Espaços vetoriais com produto interno

1.5 1.5
pontos pontos
1 1
3 3
1 1
5 5
7 7

0.5 0.5

0 0

−0.5 −0.5

−1 −1

−1.5 −1.5
0 2 4 6 8 10 12 14 0 2 4 6 8 10 12 14

Figura 3.6: Ajuste polinomial usando polinômios de grau 1 (em azul), grau 3 (em verde), grau 5 (em
rosa) e grau 7 (em vermelho).

10
pontos
8 19

−2

−4

−6

−8

−10
0 2 4 6 8 10 12 14

Figura 3.7: Ajuste polinomial usando um polinômio de grau 19.

No exemplo anterior usamos um polinômio para ajustar um conjunto de dados. Mas poderíamos ter
utilizado qualquer função.
Dados um conjunto de pontos (t1 , y1 ), . . . , (tm , ym ) e um conjunto de funções f1 (t), . . . , fn (t), pode-
mos pensar em encontrar a melhor aproximação
n
y= ∑ x j f j (t).
j=1

Para tanto, basta utilizarmos a formulação do Problema de Quadrados Mínimos vista nos exemplos
anteriores.
Capítulo 4

Transformações lineares

Neste capítulo, estudaremos as funções entre espaços vetoriais. Assim como no cálculo estuda-se
as funções contínuas, deriváveis, integráveis, aqui em Álgebra Linear não nos interessam funções
quaisquer, mas sim aquelas que “preservam” as operações de espaço vetorial: soma e produto por escalar.
Essas funções serão chamadas de transformações lineares. Num primeiro momento, estudaremos
propriedades gerais de transformações lineares e veremos como relacionar espaços vetoriais distintos.
Em seguida, o foco serão funções de um espaço vetorial nele mesmo, que são chamadas de operadores
lineares.
A discussão apresentada nesse capítulo foi motivada pelos livros [Axl], [Coe] e [Nic].

4.1 Conceitos básicos

Definição 4.1.1 Sejam U e V espaços vetoriais sobre o mesmo corpo K. Uma função T : U → V é
uma transformação linear se satisfaz:

(i) T (u1 + u2 ) = T (u1 ) + T (u2 ), para todos u1 , u2 ∈ U;

(ii) T (λ u) = λ T (u), para todos u ∈ U, λ ∈ K.

Se U = V , T : U → U também é chamada de operador linear em V .

Não é difícil verificar que, T : U → V é transformação linear se, e somente se,

T (λ u1 + u2 ) = λ T (u1 ) + T (u2 ), para todos u1 , u2 ∈ U, λ ∈ K.

Observação 4.1.2 Na definição anterior, apesar de usar a mesma notação, a soma em u1 + u2 não
é a mesma de T (u1 ) + T (u2 ), se os espaços vetoriais U e V são distintos. O mesmo vale para a
multiplicação por escalar. Ficará claro pelo contexto qual é a operação em cada caso.

 Exemplo 4.1.3 Sejam U e V dois K-espaços vetoriais quaisquer. A função nula T : U → V definida
por T (u) = 0, para todo u ∈ U, é uma transformação linear (verifique).
A função identidade Id : U → U, definida por Id(u) = u, para todo u ∈ U, também é uma transformação
linear. 
72 Capítulo 4. Transformações lineares
 
3 a + 2b 0
 Exemplo 4.1.4 A função T : K → M2 (K) dada por T (a, b, c) = é uma trans-
0 3c − b
formação linear.
Prova. Dados u1 = (a1 , b1 , c1 ), u2 = (a2 , b2 , c2 ) ∈ K3 , temos
 
a1 + a2 + 2(b1 + b2 ) 0
T (u1 + u2 ) =
0 3(c1 + c2 ) − (b1 − b2 )
   
a1 + 2b1 0 a2 + 2b2 0
= + = T (u1 ) + T (u2 ).
0 3c1 − b1 0 3c2 − b2
Também, dados u = (a, b, c) ∈ K3 e λ ∈ K, temos
     
λ a + 2λ b 0 λ (a + 2b) 0 a + 2b 0
T (λ u) = = =λ = λ T (u).
0 3λ c − λ b 0 λ (3c − b) 0 3c − b


 Exemplo 4.1.5 O operador derivação D : P(R) → P(R) dado por

D(a0 + a1 x + · · · + an xn ) = (a0 + a1 x + · · · + an xn )0 = a1 + 2a2 x + · · · + nan xn−1

é linear.
Prova. Sabemos do Cálculo que, se f , g : R → R são funções deriváveis (o que é válido para funções
polinomiais), então ( f + g)0 = f 0 + g0 e (λ f )0 = λ f 0 para todo λ ∈ R. Portanto, dados p, q ∈ P(R) e
λ ∈ R, temos
D(λ p + q) = λ p0 + q0 = λ D(p) + D(q).
Logo, D é um operador linear em P(R).
O operador derivação também poderia ser definido no espaço mais geral das funções f : R → R
deriváveis. 

 Exemplo 4.1.6 Segue da Proposição 1.1.4 que a função T : Mn (K) → K dada por T (A) = tr (A) é

uma transformação linear. 

 Exemplo 4.1.7 A função T : R2 → R dada por T (x, y) = x2 + 2y, não é uma transformação linear,
pois, por exemplo, T (1, 0) = 1, mas T (2, 0) = 4 6= 2 = 2 T (1, 0). 

 Exemplo 4.1.8 Considere V = RN o espaço de sequências. A função T : V → V dada por T (x1 , x2 , x3 , . . . ) =


(x2 , x3 , x4 , . . . ) é um transformação linear em V (verifique). 

 Exemplo 4.1.9 Seja a ∈ K fixo. A função Ta : K → K definida por T (x) = ax para todo x ∈ K é uma

transformação linear (verifique).


Por outro lado, supondo T : K → K uma transformação linear, para todo x ∈ K temos

T (x) = T (x · 1) = x T (1).

Tomando a = T (1), segue que T = Ta . Portanto, todos os operadores lineares em K são da forma Ta ,
a ∈ K. 

De uma modo mais geral, temos o seguinte exemplo.


4.1 Conceitos básicos 73

 Exemplo 4.1.10 Fixe A ∈ Mm×n (K). Considere a função TA : Kn → Km dada por TA (x) = Ax. Devido
as propriedades algébricas de matrizes (Proposição 1.1.2), TA é uma transformação linear.
Reciprocamente, se T : Kn → Km é uma transformação linear, então existe A ∈ Mm×n (K) tal que
T = TA , isto é, T (x) = Ax para todo x ∈ Km .
Prova. Considere B = {e1 , e2 . . . , en } a base canônica de Kn . Escreva
     
a11 a12 a1n
T (e1 ) =  ...  , T (e2 ) =  ...  , . . . , T (en ) =  ...  .
     

am1 am2 amn

Assim, a matriz A = (ai j ) ∈ Mm×n (K) tem como j-ésima coluna T (e j ). Dado x = (x1 , x2 , . . . , xn ) ∈ Kn ,
temos x = x1 e1 + x2 e2 + · · · + xn en , logo

T (x) = T (x1 e1 + x2 e2 + · · · + xn en ) = x1 T (e1 ) + x2 T (e2 ) + · · · + xn T (en )


     
a11 a12 a1n
= x1  ...  + x2  ...  + · · · + xn  ...  = Ax,
     

am1 am2 amn


onde a última igualdade segue da Proposição 1.1.2(xiv). Além disso, concluímos que Im T = R(A) é o
espaço coluna de A (Exemplo 2.3.6). 

 Exemplo 4.1.11 — Espaço das transformações lineares. Sejam U e V espaços vetoriais sobre
K. Se S : U → V e T : U → V são transformações lineares e λ ∈ K, então as funções:

• S + T : U → V definida por (S + T )(u) = S(u) + T (u) para todo u ∈ U;

• λ S : U → V definida por (λ S)(u) = λ S(u) para todo u ∈ U;

também são transformações lineares (verifique). Assim, se L (U,V ) é o conjunto de todas as transfor-
mações lineares de U em V , temos operações soma e multiplicação por escalar definidas nesse conjunto.
Segue das propriedades de soma e multiplicação por escalar em V , que, com essas operações, L (U,V )
é um K-espaço vetorial, onde o vetor nulo é a transformação linear nula. 

A proposição a seguir descreve algumas propriedades mais imediatas da definição de transformação


linear. Sua demonstração será deixada como exercício para o leitor.

Proposição 4.1.12 — Propridades básicas. Sejam U e V espaços vetoriais sobre K e T : U → V


uma transformação linear. Então,

(i) T (0U ) = 0V

(ii) T (−u) = −T (u), para todo u ∈ U


!
k k
(iii) Dado k ∈ N, T ∑ αi ui = ∑ αi T (ui ), para todos αi ∈ K, ui ∈ U.
i=1 i=1

 Exemplo 4.1.13 A função T : R2 → R2 dada por T (x, y) = (x + 1, y + 1) não é uma transformação


linear, pois T (0, 0) = (1, 1) 6= (0, 0). 
74 Capítulo 4. Transformações lineares

Teorema 4.1.14 Sejam U e V K-espaços vetoriais. Se B = {u1 , . . . , un } é base de U e {v1 , . . . , vn } ⊆


V é um subconjunto qualquer, então existe uma única transformação linear T : U → V tal que
T (ui ) = vi , i = 1, . . . , n.

Demonstração. Primeiro, mostremos a existência de T . Seja u ∈ U. Como B é base, existem únicos


α1 , . . . , αn ∈ K tais que
u = α1 u1 + · · · + αn un .
Defina T : U → V por
T (u) = α1 v1 + · · · + αn vn .
Segue da unicidade dos escalares α1 , . . . , αn , que cada u ∈ U possui uma única imagem T (u), ou seja,
T está bem definida. Além disso, pela definição de T , T (ui ) = vi para todo i = 1, . . . , n (neste caso
αi = 1 e α j = 0 para i 6= j).
n n
Mostremos que T é uma transformação linear. Sejam u = ∑ αi ui , w = ∑ βi ui ∈ U (com αi , βi ∈ K) e
i=1 i=1
λ ∈ K. Então,
n n n
λ u + w = ∑ λ αi ui + ∑ βi ui = ∑ (λ αi + βi )ui .
i=1 i=1 i=1
Logo, pela definição de T ,
n n n
T (λ u + w) = ∑ (λ αi + βi )vi = λ ∑ αi vi + ∑ βi vi = λ T (u) + T (w).
i=1 i=1 i=1

Portanto, T é uma transformação linear que satisfaz T (ui ) = vi para todo i = 1, . . . , n.


Provaremos agora a unicidade de T . Suponha que S : U → V é uma transformação linear que satisfaz
n
S(ui ) = vi para todo i = 1, . . . , n. Dado u = ∑ αi ui ∈ U, como S é linear, temos
i=1
!
n n n
S(u) = S ∑ αi ui = ∑ αi S(ui ) = ∑ αi vi = T (u).
i=1 i=1 i=1

Como u ∈ U é arbitrário, segue que S = T . 

Observação 4.1.15 Devido ao Teorema 4.1.14, se U tem dimensão finita, toda transformação linear
T : U → V fica unicamente determinada ao conhecermos a imagem de T numa base {u1 , . . . , un }
de U. Muitas vezes, ao apresentar uma transformação linear, falaremos: seja T a transformação
linear tal que T (ui ) = vi . Neste caso, considere a única extensão linear possível, de T |B : B → V para
T : U → V , dada pelo teorema anterior.

 Exemplo 4.1.16 Seja T : R2 → R3 uma transformação linear tal que T (1, 1) = (2, 1, 2) e
T (0, 1) = (1, 1, 2). Determine explicitamente T (x, y).
Solução. Primeiramente, observe que u1 = (1, 1) e u2 = (0, 1) formam uma base de R2 . Para descrever
T (x, y), precisamos escrever o vetor genérico (x, y) ∈ R2 como combinação linear da base {u1 , u2 }.
Temos,
(x, y) = x(1, 1) + (y − x)(0, 1) para todos x, y ∈ R.
Logo,
T (x, y) = x T (1, 1) + (y − x)T (0, 1) = x(2, 1, 2) + (y − x)(1, 1, 2) = (x + y, y, 2y).

4.1 Conceitos básicos 75

 Exemplo 4.1.17 Sabendo que T é uma transformação linear, complete o elemento que deve estar no
lugar da interrogação
T : P2 (R) −→ P3 (R)
1 + x + x2 7−→ 2
1 − 2x 7−→ x2 − 3
x2 − 2x 7−→ x3 − x
x + 1 7−→ ?
Solução. Precisamos escrever x + 1 como combinação linear de 1 + x + x2 , 1 − 2x e x2 − 2x. Escrevendo

1 + x = α(1 + x + x2 ) + β (1 − 2x) + γ(x2 − 2x) = (α + β ) · 1 + (α − 2β − 2γ)x + (α + γ)x2 ,

obtemos o sistema linear 


 α +β = 1
α − 2β − 2γ = 1 ,
α +γ = 0

3 2 3
cuja solução é α = , β = e γ = − . Portanto,
5 5 5
3 2 3 3 2 3
T (x + 1) = T (1 + x + x2 ) + T (1 − 2x) − T (x2 − 2x) = · 2 + (x2 − 3) − (x3 − x),
5 5 5 5 5 5
ou seja,
1
? = T (x + 1) = (−3x3 + 2x2 + 3x).
5


Introduzimos a seguir elementos importantes relacionados às transformações lineares.


Definição 4.1.18 Sejam U e V espaços vetoriais sobre K e T : U → V uma transformação linear.
O conjunto
{u ∈ U : T (u) = 0}
é chamado de núcleo de T e será denotado por ker T ou Nuc T . O conjunto

{v ∈ V : v = T (u) para algum u ∈ U}

é chamado de imagem de T e será denotado por Im T .

Proposição 4.1.19 Sejam U e V espaços vetoriais sobre K e T : U → V uma transformação linear.


Então,

(i) ker T é subespaço vetorial de U;

(ii) Im T é subespaço vetorial de V ;

(iii) T é injetora se, e somente se, ker T = {0};

(iv) se B é base de U, então T (B) = {T (u) : u ∈ B} gera Im T .

Demonstração. (i) Primeiro observe que 0 ∈ ker T já que, sendo T transformação linear, ocorre
T (0) = 0. Agora, dados λ ∈ K e u1 , u2 ∈ ker T , temos T (u1 ) = 0 = T (u2 ) e

T (u1 + u2 ) = T (u1 ) + T (u2 ) = 0 + 0 = 0 ⇒ u1 + u2 ∈ ker T


76 Capítulo 4. Transformações lineares

e,
T (λ u1 ) = λ T (u1 ) = λ · 0 = 0 ⇒ λ u1 ∈ ker T.
Portanto, ker T é subespaço de U.

(ii) Observe que 0 = T (0) ∈ Im T . Sejam v1 = T (u1 ), v2 = T (u2 ) ∈ Im T , com u1 , u2 ∈ U, e λ ∈ K.


Então,
v1 + v2 = T (u1 ) + T (u2 ) = T (u1 + u2 ) ∈ Im T
e
λ v1 = λ T (u1 ) = T (λ u1 ) ∈ Im T.
Portanto, Im T é subespaço de V .

(iii) Suponha que T é injetora. Mostremos que ker T = {0}. A inclusão {0} ⊆ ker T ocorre sempre.
Seja, agora, u ∈ ker T . Então, T (u) = 0 = T (0). Como T é injetora, segue que u = 0. Portanto,
ker T = {0}.
Reciprocamente, suponha ker T = {0}. Mostremos que T é injetora. Sejam u1 , u2 ∈ U tais que
T (u1 ) = T (u2 ). Então,

T (u1 − u2 ) = T (u1 ) − T (u2 ) = 0 − 0 = 0 ⇒ u1 − u2 ∈ ker T = {0} ⇒ u1 − u2 = 0 ⇒ u1 = u2 .

(iv) Como Im T é subespaço e T (B) ⊆ Im T , segue que [T (B)] ⊆ Im T . Mostremos, agora, que
Im T ⊆ [T (B)]. Seja v ∈ Im T . Então, existe u ∈ U tal que T (u) = v. Sendo B uma base de U,
existem u1 , . . . , un ∈ B, λ1 , . . . , λn ∈ K tais que

u = λ1 u1 + · · · + λn un .

Daí,
T (u) = T (λ1 u1 + · · · + λn un ) = λ1 T (u1 ) + · · · + λn T (un ) ∈ [T (B)].
Portanto, [T (B)] = Im T .


 Exemplo 4.1.20 Considere a transformação linear T : R3 → R3 dada por T (x, y, z) = (x − y, z, x +


z − y). Determine ker T e Im T .
Solução. Começamos com o núcleo de T :

T (x, y, z) = 0 ⇔ (x − y, z, x + z − y) = (0, 0, 0) ⇔ x − y = z = x + z − y = 0 ⇔ x = y e z = 0.

Assim, (x, y, z) ∈ ker T se, e somente se,

(x, y, z) = (x, x, 0) = x(1, 1, 0) ∈ [(1, 1, 0)].

Portanto, ker T = [(1, 1, 0)]. Para a imagem de T , considere a base B = {e1 , e2 , e3 } canônica de R3 .
Pela Proposição 4.1.19, T (B) gera Im T . Temos

T (e1 ) = (1, 0, 1), T (e2 ) = (−1, 0, −1), T (e3 ) = (0, 1, 1).

Logo, Im T = [(1, 0, 1), (−1, 0, −1), (0, 1, 1)]. Como (−1, 0, −1) = −(1, 0, 1), podemos eliminar esse
vetor do conjunto gerador sem prejuízo. Assim,

Im T = [(1, 0, 1), (0, 1, 1)].

Esse último conjunto gerador é LI, portanto forma uma base de Im T . 


4.1 Conceitos básicos 77

 Exemplo 4.1.21 Considere a transformação linear T : C2 → R3 dada por T (a + bi, c + di) = (2a +
c + d, a + b + c, −2b − c + d), onde a, b, c, d ∈ R e C2 é visto como R-espaço vetorial. Determine ker T
e Im T .
Solução. Começaremos por ker T . Temos

 2a + c + d = 0
T (a + bi, c + di) = 0 ⇔ (2a + c + d, a + b + c, −2b − c + d) = (0, 0, 0) ⇔ a+b+c = 0 .
−2b − c + d = 0

A resolução desse sistema linear homogêneo com 3 equações e 4 variáveis será deixada como exercício.
O conjunto solução pode ser expressado na forma

{(a, b, −a − b, b − a) : a, b ∈ R} = {a(1, 0, −1, −1) + b(0, 1, −1, 1) : a, b ∈ R}

= [(1, 0, −1, −1), (0, 1, −1, 1)].


Portanto,
ker T = [(1, −1 − i), (i, −1 + i)].
Para obter um conjunto gerador para Im T , encontraremos T (B), onde B = {(1, 0), (i, 0), (0, 1), (0, i)} é
a base canônica de C2 como R-espaço vetorial. Temos,

T (1, 0) = (2, 1, 0), T (i, 0) = (0, 1, −2), T (0, 1) = (1, 1, −1), T (0, i) = (1, 0, 1).

Daí,

Im T = [(2, 1, 0), (0, 1, −2), (1, 1, −1), (1, 0, 1)]. (4.1)

Essa descrição já determina o subespaço Im T . Se quiséssemos encontrar uma base para Im T , po-
deríamos, por exemplo, utilizar as ideias da Seção 2.8. O Teorema do Núcleo e Imagem, que será
apresentado a seguir, garante que dim(Im T ) = 2. Portanto, são necessários apenas 2 dos 4 vetores em
(4.1) para gerar Im T . 

Teorema 4.1.22 — do núcleo e imagem. Sejam U e V espaços vetoriais sobre K, com dim(U) =
n (finita) e T : U → V uma transformação linear. Então,

dimU = dim(ker T ) + dim(Im T ).

Demonstração. Considere, inicialmente, ker T 6= {0} 6= Im T . Sejam B1 = {u1 , . . . , uk } uma base de


ker T e B2 = {T (w1 ), . . . , T (wm )} uma base de Im T . Mostremos que B = {u1 , . . . , uk , w1 , . . . , wm } é
base de U. Para mostrar que B é LI, considere α1 , . . . , αk , β1 , . . . , βm ∈ K tais que

α1 u1 + · · · + αk uk + β1 w1 + · · · + βm wm = 0.

Assim,
T (α1 u1 + · · · + αk uk + β1 w1 + · · · + βm wm ) = T (0) = 0.
Como α1 u1 + · · · + αk uk ∈ ker T , temos T (α1 u1 + · · · + αk uk ) = 0. Logo

T (α1 u1 + · · · + αk uk + β1 w1 + · · · + βm wm ) = β1 T (w1 ) + · · · + βm T (wm ) = 0.

Mas B2 é base, portanto é LI e segue que

β1 = · · · = βm = 0.
78 Capítulo 4. Transformações lineares

Daí,
α1 u1 + · · · + αk uk = α1 u1 + · · · + αk uk + β1 w1 + · · · + βm wm = 0.
Como B1 é base, é LI, logo segue que

α1 = · · · = αk = 0.

Portanto, B é LI.
Mostremos agora que [B] = U. A inclusão [B] ⊆ U é imediata. Para provar a inclusão contrária, seja
u ∈ U. Como T (u) ∈ Im T = [B2 ], existem β1 , . . . , βm ∈ K tais que

T (u) = β1 T (w1 ) + · · · + βm T (wm ) = T (β1 w1 + · · · + βm wm ).

Assim,

T (u − (β1 w1 + · · · + βm wm )) = T (u) − T (β1 w1 + · · · + βm wm ) = 0 ⇒ u − (β1 w1 + · · · + βm wm ) ∈ ker T.

Mas ker T = [B1 ], logo, existem α1 , . . . , αk ∈ K tais que

u − (β1 w1 + · · · + βm wm ) = α1 u1 + · · · + αk uk ⇒ u = α1 u1 + · · · + αk uk + β1 w1 + · · · + βm wm ∈ [B].

Portanto B gera U, logo é base de U, e assim concluímos o teorema.


Se ker T = {0}, prova-se analogamente que, se B2 = {T (w1 ), . . . , T (wm )} é uma base de Im T , então
B = {w1 , . . . , wm } é base de U.
Se Im T = {0}, então dim(Im T ) = 0 e T (u) = 0 para todo u ∈ U, donde segue que ker T = U. 

Observação 4.1.23 Se U e V possuem dimensão finita, segue do Teorema 4.1.22 que:

(i) se dimU > dimV , então não existe T : U → V linear e injetora.

(ii) se dimU < dimV , então não existe T : U → V linear e sobrejetora.

 Exemplo 4.1.24 Considere a (única) transformação linear T : R3 → P3 (R) tal que T (1, 0, 1) =
2 + x2 + x3 , T (0, 1, 0) = 1 + x2 , T (0, 0, 1) = x2 − x3 . Determine dim(ker T ) e dim(Im T ).
Solução. É fácil ver que B = {(1, 0, 1), (0, 1, 0), (0, 0, 1)} é uma base de R3 . Portanto, T (B) = {2 +
x2 + x3 , 1 + x2 , x2 − x3 } gera Im T . Vejamos se T (B) é LI. Colocando as coordenadas de seus vetores
em relação à base canônica de P3 (R) numa matriz (já trocando de posição as duas primeiras linhas) e
escalonando, obtemos
     
1 0 1 0 1 0 1 0 1 0 1 0
(L2 ← L2 −2L1 ) (L3 ← L3 +L2 )
 2 0 1 1  ∼  0 0 −1 1  ∼  0 0 −1 1  .
0 0 1 −1 0 0 1 −1 0 0 0 0

Ou seja, T (B) é LD e o terceiro vetor x2 − x3 pode ser obtido como combinação linear dos outros
dois. Portanto, uma base para Im T é {1 + x2 , 2 + x2 + x3 } e dim(Im T ) = 2. Pelo Teorema do Núcleo e
Imagem,

3 = dimU = dim(ker T ) + dim(Im T ) = dim(ker T ) + 2 ⇒ dim(ker T ) = 1.


4.2 Isomorfismos 79

4.2 Isomorfismos
Nesta seção, introduziremos o conceito de isomorfismo entre espaços vetoriais. Dois espaços
isomorfos, do ponto de vista da álgebra linear, são essencialmente o mesmo espaço, pois compartilham
as mesmas propriedades de espaços vetoriais, o que muda é apenas a aparência dos seus elementos.
Definição 4.2.1 Sejam U e V espaços vetoriais sobre o mesmo K.

(i) Dizemos que uma transformação linear T : U → V é um isomorfismo se T for bijetora. Se


U = V , um isomorfismo T : U → U também é chamado de automorfismo.

(ii) Dizemos que U e V são isomorfos se existe um isomorfismo T : U → V . Neste caso, denota-
mos U ∼
= V.

 Exemplo 4.2.2 A função identidade Id : U → U, definida por Id(u) = u, para todo u ∈ U, é um


isomorfismo. 

 Exemplo 4.2.3 A transformação linear T : R2 → P1 (R) dada por T (a, b) = a + (a + b)x é um


isomorfimo.
Prova. Observe que

T (a, b) = 0 ⇔ a = 0 e a + b = 0 ⇔ a = b = 0 ⇔ (a, b) = (0, 0).

Portanto, ker T = {0}, o que implica T injetora. Pelo Teorema do Núcleo e Imagem,

2 = dim R2 = dim(ker T ) + dim(Im T ) = 0 + dim(Im T ).

Logo, dim(Im T ) = 2 = dim P1 (R). Portanto Im T = P1 (R), o que implica T sobrejetora.


Assim, T é um isomorfismo e R2 ∼= P1 (R). 

 Exemplo 4.2.4 Para todo n ∈ N, Pn (K) ∼


= Kn+1 .
Prova. Deixaremos como exercício a verificação de que a função T : Pn (K) → Kn+1 , definida por

T (a0 + a1 x + · · · + an xn ) = (a0 , a1 , . . . , an ),

é um isomorfismo. 

Observe nos exemplos anteriores que os espaços isomorfos possuem a mesma dimensão. Isso não é
uma coincidência! Veremos nesta seção que dois espaços vetoriais são isomorfos se, e somente se, eles
possuem a mesma dimensão.

Proposição 4.2.5 Se T : U → V é uma transformação linear injetora, então T leva todo conjunto
LI em U num conjunto LI em V .

Demonstração. Seja S ⊆ U um conjunto LI. Mostremos que T (S) = {T (u) : u ∈ S} é LI em V . Suponha


que u1 , . . . , um ∈ U e α1 , . . . , αn ∈ K são tais que

α1 T (u1 ) + · · · + αn T (un ) = 0.

Então, como T é linear,

T (α1 u1 + · · · + αn un ) = 0 ⇒ α1 u1 + · · · + αn un ∈ ker T = {0},


80 Capítulo 4. Transformações lineares

pois T é injetora. Assim, α1 u1 + · · · + αn un = 0, e como S é LI, segue que

α1 = · · · = αn = 0.

Proposição 4.2.6 Se U ∼
= V , então dimU = dimV .

Demonstração. Como U ∼
= V , existe T : U → V isomorfismo.
Se dimU = ∞, então, existe S ⊆ U, LI e infinito. Como T é injetora, T (S) é infinito e, pela Proposição
4.2.5, T (S) é LI. Logo dimV = ∞.
Suponha agora dimU finita. Pelo Teorema do Núcleo e Imagem,

dimU = dim(ker T ) + dim(Im T ) = 0 + dim(Im T ) = dim(Im T ).

Mas, por hipótese, T é sobrejetora. Logo Im T = V , donde segue que dimU = dim(Im T ) = dimV . 

Proposição 4.2.7 Sejam U e V dois K-espaços vetoriais de mesma dimensão finita n e T : U → V


uma transformação linear. São equivalentes:

(i) T é injetora;

(ii) T é sobrejetora;

(iii) T é isomorfismo.

Demonstração. [(i) ⇒ (ii)] T injetora ⇒ ker T = {0} ⇒ dim(ker T ) = 0. Pelo Teorema do Núcleo
e Imagem, n = dimU = dim(Im T ). Logo, Im T é um subespaço de V com a mesma dimensão de V ,
portanto Im T = V .
[(ii) ⇒ (iii)] T sobrejetora ⇒ Im T = V . Logo, pelo Teorema do Núcleo e Imagem,

n = dimU = dim(ker T ) + dim(Im T ) = dim(ker T ) + n

donde segue que dim(ker T ) = 0, o que implica ker T = {0}. Portanto, T é injetora, logo é isomorfismo.
[(iii) ⇒ (i)] Óbvio. 

Observação 4.2.8 A Proposição 4.2.7 não é verdadeira se dimU = ∞. Por exemplo, o operador
derivação D : P(R) → P(R) não é injetor, pois 0 6= 1 ∈ ker D, mas D é sobrejetor (verifique).

Proposição 4.2.9 Sejam U e V dois K-espaços vetoriais de mesma dimensão finita n ≥ 1. São
equivalentes:

(i) T é isomorfismo;

(ii) T leva qualquer base de U numa base de V ;

(iii) existe uma base B de U tal que T (B) é base de V .


4.2 Isomorfismos 81

Demonstração. [(i) ⇒ (ii)] Seja B = {u1 , . . . , un } uma base qualquer de V . Como T é injetora,
#T (B) = n e, pela Proposição 4.2.5, T (B) é LI. Assim, T (B) ⊆ V é um suconjunto LI com n = dimV
elementos, portanto T (B) é base de V .
[(ii) ⇒ (iii)] Óbvio.
[(iii) ⇒ (i)] Seja B uma base de U tal que T (B) é base de V . Então, [T (B)] = V . Por outro lado, pela
Proposição 4.1.19, [T (B)] = Im T . Logo, Im T = V e T é sobrejetora. O resultado agora segue da
Proposição 4.2.7. 

 Exemplo 4.2.10 Verifique se a transformação linear T : M2 (R) → R4 definida por


 
a b
T = (2b − c + d, a + c + 3d, 2b + 4c + d, 3c)
c d

é um isomorfismo.
Solução. Considere B = {E11 , E12 , E21 , E22 } a base canônica de M2 (R). Temos,

T (E11 ) = (0, 1, 0, 0), T (E12 ) = (2, 0, 2, 0), T (E21 ) = (−1, 1, 4, 3), T (E22 ) = (1, 3, 1, 0).

Observe que
2 T (E22 ) − 6 T (E11 ) = T (E12 ),

portanto T (B) é LD, logo não é base de R4 . Pela Proposição 4.2.9, T não é isomorfismo. 

Teorema 4.2.11 Sejam U e V dois K-espaços vetoriais de dimensão finita. Então, U ∼


= V se, e
somente se, dimU = dimV .

Demonstração. A implicação U ∼
= V ⇒ dimU = dimV segue da Proposição 4.2.6 e é válida mesmo
para dimensão infinita.
Vamos provar a recíproca. Se dimU = dimV = 0, então ambos são espaços com apenas 1 vetor (o nulo)
e a única função que pode ser definida entre eles é um isomorfismo. Suponha dimU = dimV = n ≥ 1.
Sejam B = {u1 , . . . , un } uma base de U e C = {v1 , . . . , vn } uma base de V . Considere T : U → V a única
transformação linear tal que T (ui ) = vi , i = 1, . . . , n. Em particular, T (B) = C é base de V , e portanto
T leva uma base de U numa base de V . Pela Proposição 4.2.9, T é isomorfismo. 

Proposição 4.2.12 Sejam U e V K-espaços vetoriais e T : U → V um isomorfismo. Então,


T −1 : U → V também é um isomorfismo.

Demonstração. Como T : U → V é isomorfismo, T é bijetora, e portanto inversível. Por propriedades de


funções, a função inversa T −1 : V → U também é bijetora. Resta mostrar que T −1 é uma transformação
linear. De fato, sejam v1 , v2 ∈ V e λ ∈ K. Vamos mostrar que T −1 (λ v1 + v2 ) = λ T −1 (v1 ) + T −1 (v2 ).
Sejam u1 , u2 ∈ U tais que T (u1 ) = v1 e T (u2 ) = v2 . Então, usando que T é linear,

T −1 (λ v1 + v2 ) = T −1 (λ T (u1 ) + T (u2 )) = T −1 (T (λ u1 + u2 )) = T −1 ◦ T (λ u1 + u2 )

= λ u1 + u2 = λ T −1 (v1 ) + T −1 (v2 ).


82 Capítulo 4. Transformações lineares

4.3 Matriz de uma transformação linear


Dados dois espaços vetoriais de dimensão finita e uma transformação linear entre eles, introdu-
ziremos o conceito de matriz dessa transformação. Em posse disso, será possível descrever essa
transformação como multiplicação de vetores por uma matriz fixa, assim como no Exemplo 4.1.10.
Além disso, veremos com traduzir propriedades de uma transformação linear em termos de propriedades
matriciais, o que trará um ganho computacional.
Sejam U e V dois K-espaços vetoriais de dimensão finita, com dimU = n ≥ 1 e dimV = m ≥ 1, e
T : U → V uma transformação linear.
Fixe B = {u1 , . . . , un } uma base ordenada para U e C = {v1 , . . . , vm } uma base ordenada para V .
Para cada j = 1, . . . , n, escreva T (u j ) como combinação linear dos vetores de C:
m
T (u j ) = a1 j v1 + · · · + am j vm = ∑ ai j vi . (4.2)
i=1

Lembre que os escalares ai j são únicos.


A matriz (ai j ) ∈ Mm×n (K) é chamada de matriz da transformação linear T em relação às bases B
e C e será denotada por [T ]BC . No caso de U = V e B = C denotamos [T ]BC simplesmente por [T ]B .
Note que, a j-ésima coluna de [T ]BC é exatamente [T (u j )]C (coordenadas de T (u j ) na base C).
Seja u ∈ U. Suponha que [u]B = (α1 , . . . , αn ) e [T (u)]C = (β1 , . . . , βm ), isto é,
n m
u = α1 u1 + · · · + αn un = ∑ α ju j e T (u) = β1 v1 + · · · + βm vm = ∑ βi vi .
j=1 i=1

Por outro lado, como T é linear, temos


! ! !
n n n m n m m n
(4.2)
T (u) = T ∑ α ju j = ∑ α j T (u j ) = ∑ α j ∑ ai j vi = ∑ ∑ (α j ai j )vi = ∑ ∑ ai j α j vi .
j=1 j=1 j=1 i=1 j=1 i=1 i=1 j=1

Como os escalares da combinação linear dos vetores de uma base são únicos, temos
n
βi = ∑ ai j α j = ai1 α1 + · · · + ain αn , para todo i = 1, . . . , m.
j=1

Em notação matricial, segue que


    
β1 a11 · · · a1n α1
 ..   .. ..   ..  .
 . = . . .
βm am1 · · · amn αn
| {z } | {z } | {z }
[T (u)]C [T ]BC [u]B

Ou seja, a matriz da transformação linear satisfaz

[T (u)]C = [T ]BC [u]B , para todo u ∈ U. (4.3)

Além disso, se M = (bi j ) ∈ Mm×n (K) satisfaz [T (u)]C = M[u]B , para todo u ∈ U, substituindo
u = u j , j = 1, . . . , n, obtém-se que bi j = ai j para todos i, j (verifique). Ou seja, M = [T ]BC . Portanto, a
matriz da transformação T em relação às bases B e C é a única matriz que satisfaz (4.3).
4.3 Matriz de uma transformação linear 83

 Exemplo 4.3.1 Seja T : R2 → R3 a transformação linear dada por

T (x, y) = (−2y, 4x + y, 5y − 3x).

Considerando B e C as bases canônicas de R2 e R3 , respectivamente, temos,

T (1, 0) = (0, 4, −3) = (0, 4, −3)C e T (0, 1) = (−2, 1, 5) = (−2, 1, 5)C .

Portanto,  
0 −2
[T ]BC =  4 1 .
−3 5
Note que, se considerarmos os elementos de R2 e R3 como vetores colunas, temos T (v) = [T ]BC · v
para todo v ∈ R2 , ou seja, T = TA , com A = [T ]BC (Exemplo 4.1.10). Isso ocorre porque estamos
considerando as bases canônicas, e daí os vetores se confundem com as próprias coordenadas.
Considere agora as bases B = {(1, 1), (2, 0)} e C = {(1, 0, −1), (0, 0, 4), (0, 2, 1)}. Então,

T (1, 1) = (−2, 5, 2) e T (2, 0) = (0, 8, −6).

Agora,
 
5 5 5 5
(−2, 5, 2) = −2(1, 0, −1) − (0, 0, 4) + (0, 2, 1) ⇒ [T (1, 1)]C = −2, − , ,
8 2 8 2
e  
5 5
(0, 8, −6) = 0 (1, 0, −1) − (0, 0, 4) + 4(0, 2, 1) ⇒ [T (2, 0)]C = 0, − , 4
2 2
Portanto,  
−2 0
[T ]BC =  −5/8 −5/2  .
5/2 4
Neste caso, não é verdade que T (v) = [T ]BC · v para todo v ∈ R2 , mas sim a relação dada em (4.3). 

 Exemplo 4.3.2 Seja A ∈ Mm×n (K). Considere a transformação linear TA : Kn → Km dada por
TA (x) = Ax (Exemplo 4.1.10). Se B é a base canônica de Kn e C é a base canônica de Km , então

[TA ]BC = A.

Prova. Basta observar que, se A j é a j-ésima coluna de A, então para cada e j ∈ B,

[T (e j )]C = T (e j ) = Ae j = A j .

Lembre que, em relação à base canônica C, todo vetor de Km é igual ao seu vetor de coordenadas. 

 Exemplo 4.3.3 Considere a (única) transformação linear T : R3 → P3 (R) tal que T (1, 0, 1) = 2 + x2 +
x3 ,
T (0, 1, 0) = 1 + x2 , T (0, 0, 1) = x2 − x3 , dada no Exemplo 4.1.24. Se B e C são as bases canônicas
de R3 e P3 (R), respectivamente, determine [T ]BC .
Solução. Temos,

T (1, 0, 0) = T (1, 0, 1) − T (0, 0, 1) = 2 + x2 + x3 − x2 + x3 = 2 + 2x3 ,


84 Capítulo 4. Transformações lineares

e T (0, 1, 0) e T (0, 0, 1) já foram dados. Logo,


 
2 1 0
 0 0 0 
[T ]BC = 
 0
.
1 1 
2 0 −1


 Exemplo 4.3.4 Seja U um espaço vetorial de dimensão finita. Considere a transformação identidade
Id : U → U, que é dada por Id(u) = u para todo u ∈ U. Dadas duas bases B e C de U, a matriz dessa
transformação [Id]BC é exatamente a matriz de mudança de base MBC de B para C (verifique). 

Fixadas as bases B e C dos espaços vetoriais U e V , respectivamente, para qualquer transformação


linear T : U → V está associada uma única matriz [T ]BC . O resultado a seguir enuncia a recíproca desse
fato: dada uma matriz qualquer, pode-se definir unicamente a transformação linear associada.

Proposição 4.3.5 Sejam U e V dois espaços vetoriais de dimensão finita sobre K, com dimU = n
e dimV = m. Dadas B e C bases de U e V , respectivamente, e uma matriz A ∈ Mm×n (K), existe uma
única transformação linear T : U → V tal que [T ]BC = A.

Demonstração. Escreva B = {u1 , . . . , un }, C = {v1 , . . . , vm } e


 
a11 · · · a1n
A =  ... ..  .

. 
am1 · · · amn

Considere T : U → V a única transformação linear tal que

T (u j ) = a1 j v1 + · · · + am j vm , j = 1, . . . n.

Segue da definição de matriz de transformação que [T ]BC = A. 

Proposição 4.3.6 Sejam U e V dois K-espaços vetoriais de dimensão finita e B e C bases de U e V ,


respectivamente. Dadas S, T : U → V transformações lineares e λ ∈ K, tem-se

[S + T ]BC = [S]BC + [T ]BC e [λ S]BC = λ [S]BC .

Demonstração. Exercício. 

A proposição a seguir nos fornece a dimensão do espaço das transformações lineares L (U,V )
(Exemplo 4.1.11), no caso de U e V serem espaços de dimensão finita.

Proposição 4.3.7 Sejam U e V dois K-espaços vetoriais de dimensão finita, digamos dimU = n e
dimV = m. Então, L (U,V ) ∼
= Mm×n (K). Em particular, dim L (U,V ) = m n.

Demonstração. Fixe B uma base ordenada de U e C uma base ordenada de V . Considere a função
ϕ : L (U,V ) → Mm×n (K) definida por

ϕ(T ) = [T ]BC para toda T ∈ L (U,V ).


4.3 Matriz de uma transformação linear 85

Primeiramente, note que ϕ está bem definida, pois dada uma transformação linear T : U → V ,
[T ]BC ∈ Mm×n (K) é única. Segue da Proposição 4.3.6 que ϕ é uma transformação linear. Além
disso, pela Proposição 4.3.5, ϕ é sobrejetora.
Resta provar que ϕ é injetora, ou equivalentemente, ker ϕ = {0}.
Seja T ∈ ker ϕ. Então, [T ]BC é a matriz nula. Escrevendo B = {u1 , . . . , un }, para cada j = 1, . . . , n, a
j-ésima coluna de [T ]BC é [T (u j )]C = 0, donde segue que T (u j ) = 0. Como T (B) gera Im T , segue
que Im T = {0}, logo T = 0.
Portanto, ϕ é um isomorfismo. 

Dados U,V,W espaços vetoriais sobre o mesmo K, e, S : U → V e T : V → W transformações


lineares, não é difícil verificar que a função composta T ◦ S : U → W é uma transformação linear. A
proposição a seguir descreve como a matriz da composta se relaciona com as matrizes de S e T .

Proposição 4.3.8 Sejam U,V,W K-espaços vetoriais de dimensão finita, e, B, C, D bases de U,V,W ,
respectivamente. Sejam S : U → V e T : V → W duas transformações lineares, então

[T ◦ S]BD = [T ]CD [S]BC .

Demonstração. Seja u ∈ U. Aplicando (4.3) duas vezes, temos

[T ]CD [S]BC [u]B = [T ]CD [S(u)]C = [T (S(u))]D = [T ◦ S(u)]D .

Assim, a matriz M = [T ]CD [S]BC satisfaz [T ◦ S(u)]D = M[u]B para todo u ∈ U. Pela unicidade dessa
propriedade, segue que
M = [T ]CD [S]BC = [T ◦ S]BD .


Corolário 4.3.9 Sejam U e V dois K-espaços vetoriais de mesma dimensão finita n ≥ 1, B e C bases
de U e V , respectivamente. Uma transformação linear T : U → V é um isomorfismo se, e somente
se, [T ]BC for não singular.
Nesse caso,
T CB = ([T ]BC )−1 .
 −1 

Demonstração. Suponha que T é isomorfismo. Então, T é inversível e T −1 ◦ T = IdU . Pela Proposição


4.3.8, temos
[T −1 ]CB [T ]BC = [T −1 ◦ T ]B = [IdU ]B = I (matriz identidade).
Portanto, [T ]BC é inversível e ([T ]BC )−1 = [T −1 ]CB .
Reciprocamente, suponha [T ]BC inversível. Então, existe uma matriz A ∈ Mn (K) tal que

A[T ]BC = [T ]BC A = I.

Mostremos que ker T = {0}. Seja u ∈ U tal que T (u) = 0. Então

[T ]BC [u]B = [T (u)]C = 0 ⇒ A[T ]BC [u]B = A · 0 = 0 ⇒ I[u]B = 0 ⇒ [u]B = 0 ⇒ u = 0.

Logo, T é injetora. Como U e V têm a mesma dimensão, segue que T é isomorfismo. 


86 Capítulo 4. Transformações lineares

 Exemplo 4.3.10 Considere a transformação linear T : R2 → P1 (R) dada por T (a, b) = (a + 2b) +
(4a − b)x. Mostre que T é um isomorfismo e determine T −1 .
Solução. Considere B = {e1 , e2 } ⊆ R2 e C = {1, x} ⊆ P1 (R) as bases canônicas. Temos,
 
1 2
T (e1 ) = 1 + 4x e T (e2 ) = 2 − x ⇒ [T ]BC = .
4 −1

Note que det[T ]BC = −9 6= 0, logo [T ]BC é não singular. Pelo Corolário 4.3.9, T é isomorfismo e
   
 −1  −1 1 −1 −2 1/9 2/9
T CB = ([T ]BC ) = − = .
9 −4 1 4/9 −1/9

A partir da matriz T −1 CB é possível determinar T −1 (a + bx) explicitamente. Temos,


 

    
−1 1/9 2/9 a (a + 2b)/9
(a + bx)]B = T −1 CB [a + bx]C =
 
[T = .
4/9 −1/9 b (4a − b)/9

Logo,  
−1 a + 2b 4a − b a + 2b 4a − b
T (a + bx) = e1 + e2 = , .
9 9 9 9


Para finalizar essa seção, apresentamos a relação entre matrizes de um mesmo operador em relação
à bases distintas.
Definição 4.3.11 Duas matrizes A, B ∈ Mn (K) são ditas semelhantes se existe uma matriz
P ∈ Mn (K) não singular tal que
B = P−1 AP.

Proposição 4.3.12 Sejam V um K-espaço vetorial de dimensão finita n ≥ 1 e T : V → V um


operador linear. Se B e C são duas bases de V , então
−1
[T ]B = MCB [T ]C MBC = MBC [T ]C MBC .

Em particular, as matrizes [T ]B e [T ]C são semelhantes.

Demonstração. Vamos considerar a composição de T com a transformação identidade Id : U → U,


alternando as bases B para o domínio e C para o contradomínio, e vice-versa. Pela Proposição 4.3.8,
temos
[T ]B = [Id ◦T ◦ Id]B = [Id ◦T ]CB [Id]BC = [Id]CB [T ]C [Id]BC .
−1
Pelo Exemplo 4.3.4, [Id]BC = MBC e [Id]CB = MCB = MBC , donde segue o resultado. 

4.4 Posto
Definição 4.4.1 Dada uma transformação linear T : U → V , o posto de T é definido por dim(Im T ).

Relacionaremos o posto de uma transformação linear entre espaços de dimensão finita, com o posto
de sua matriz. Lembre-se que o espaço coluna de uma matriz, R(A), foi definido no Exemplo 2.3.6.
4.4 Posto 87

Definição 4.4.2 Seja A ∈ Mm×n (K).

(i) O posto coluna de A é definido como sendo a dimensão do subespaço R(A) de Km , gerado
pelas colunas de A.

(ii) O posto linha de A é definido como sendo dimensão do subespaço R(A> ) de Kn , gerado pelas
linhas de A.

Ou seja, o posto coluna de A é o número de colunas LI que A possui. E o posto linha de A é o


número de linhas LI.
 
4 0 1 8
 Exemplo 4.4.3 Determine o posto linha e o posto coluna da matriz A = .
3 5 2 6
Solução. Como as linhas não são múltiplas escalares, elas são LI. Portanto o posto linha de A é igual a
2.
Em relação ao posto coluna, como as colunas de A são vetores em R2 , a dimensão de R(A) é no máximo
2. Não é difícil verificar que, por exemplo, as duas primeiras colunas de A são LI. Portanto o posto
coluna de A também é 2. 

No exemplo anterior, o posto linha e o posto coluna da matriz A são iguais. Isso não é coincidência,
como será provado adiante.

Observação 4.4.4 Como explicado no Procedimento 2.8.1, se forem feitas operações elementares
nas linhas de uma matriz A, o espaço linha da nova matriz A0 é o mesmo espaço linha de A. Em
particular, esses espaços possuem a mesma dimensão. Além disso, se fizermos operações elementares
sobre as linhas de A e obtivermos uma matriz R escalonada (ou escalonada reduzida), o posto linha
de A será exatamente o número de linhas não nulas de R.

 Exemplo 4.4.5 Determine o posto linha da matriz


 
1 2 0 0 −1
 2 4 1 0 2 
A=
 0
.
0 3 0 12 
4 8 −1 1 −6
Solução. Escalonaremos a matriz dada. Aplicando as operações elementares:
1
L2 ← L2 − 2L1 , L3 ← L3 , L4 ← L4 − 4L1 ,
3
obtemos  
1 2 0 0 −1
 0 0 1 0 4 
 .
 0 0 1 0 4 
0 0 −1 1 −2
Aplicando agora as operações elementares:

L3 ← L3 − L2 , L4 ← L4 + L2 ,

obtemos  
1 2 0 0 −1
 0 0 1 0 4 
 .
 0 0 0 0 0 
0 0 0 1 2
88 Capítulo 4. Transformações lineares

Trocando as duas últimas linhas de posição, obtemos uma forma escalonada R (que é reduzida) da
matriz A. Como R possui 3 linhas não nulas, o posto linha de R, que é igual ao posto linha de A, é 3. 

Proposição 4.4.6 Sejam U e V dois K-espaços vetoriais de dimensão finita, B e C bases de U e V ,


respectivamente. Dada uma transformação linear T : U → V , o posto de T é igual ao posto coluna de
[T ]BC .

Demonstração. Se B = {u1 , . . . , un }, então Im T = [T (u1 ), . . . , T (un )]. Logo, o posto de T , é igual


a dimensão do subespaço gerado por T (u1 ), . . . , T (un ). Por outro lado, as colunas de [T ]BC são
exatamente [T (u1 )]C , . . . , [T (un )]C e o posto coluna de [T ]BC é a dimensão do subespaço gerado por
esses vetores. Segue da Proposição 2.7.3 que T (u j ) ∈ [{T (u1 ), . . . , T (un )} \ {T (u j )}] se, e somente
se, [T (u j )]C ∈ [{[T (u1 )]C , . . . , [T (un )]C } \ {[T (u j )]C }]. Daí, não é difícil concluir que as dimensões de
Im T e R([T ]BC ) são iguais. 

Lema 4.4.7 Sejam A ∈ Mm×n (K), B ∈ Mm×p (K) e C ∈ M p×n (K) tais que A = BC. Então, o posto
coluna de A é menor ou igual ao posto coluna de B.

Demonstração. Considere as transformações lineares TA : Kn → Km , TB : K p → Kn e TC : Kn → K p .


Pelo Exemplo 4.3.2, as matrizes de TA , TB , TC em relação às bases canônicas são exatamente A, B,C,
respectivamente. Pela Proposição 4.3.8 junto com a hipótese A = BC, temos que TA = TB ◦ TC . Agora,
não é difícil verificar que dim(Im TA ) ≤ dim(Im TB ), pois Im TA = Im (TB |Im TC ). Por fim, segue da
Proposição 4.4.6 que o posto coluna de A é menor ou igual ao posto coluna de B. 

Teorema 4.4.8 — Teorema do posto. Seja A ∈ Mm×n (K). Então, o posto linha de A é igual ao
posto coluna de A.

Demonstração. Seja p ≤ n o posto coluna de A e q ≤ m o posto linha de A.


Considere A j ∈ Mm×1 (K) a j-ésima coluna de A. Então, o espaço coluna R(A) = [A1 , . . . , An ] tem
dimensão p. Considere {B1 , . . . , B p } ⊆ Mm×1 (K) uma base de R(A). Assim, para cada j = 1, . . . , n,
existem α1 j , . . . , α p j ∈ K tais que

A j = α1 j B1 + · · · + α p j B p . (4.4)

Considere B ∈ Mm×p (K) a matriz cujas colunas são B1 , . . . , B p e C = (αk j ) ∈ Mp×n (K), onde os αk j
são dados por (4.4). Segue de (4.4) que
   
α11 · · · α1n
 
α1 j | |
A j = B  ...  para todo j = 1, . . . , n ⇒ A =  A1 · · · An  = B  ... ..  = BC.
  
. 
αp j | | α p1 · · · α pn

Além disso, A> = C> B> . Pelo Lema 4.4.7, temos

q = posto linha de A = posto coluna de A> ≤ posto coluna de C> = posto linha de C ≤ p,

pois C possui p linhas. Assim, provamos que q ≤ p.


Repetindo todo o argumento anterior, iniciando com A> e com o seu posto coluna (que igual ao posto
linha de A), prova-se que p ≤ q, donde segue o resultado desejado. 

De agora em diante, denotaremos por posto(A) o posto linha ou coluna de A.


4.5 Autovalores, autovetores, operadores diagonalizáveis 89

Exercício 4.1 Sejam T : U → V e S : V → W transformações lineares, com U, V e W de dimensão


finita. Prove as afirmações a seguir.

(i) posto(S ◦ T ) ≤ posto(S).

(ii) posto(S ◦ T ) ≤ posto(T ).

(iii) Se S é injetiva, então posto(S ◦ T ) = posto (T ).

(iv) Se T é sobrejetiva, então posto(S ◦ T ) = posto (S).

(v) Dê um exemplo em que posto(T ) = posto (S) > posto(S ◦ T ).

4.5 Autovalores, autovetores, operadores diagonalizáveis


Iniciaremos essa seção com um problema prático, para servir de motivação e introduzir as primeiras
ideias. Trata-se de um exemplo clássico, conhecido como Sistema Predador-Presa.
Considere uma população de coelhos e uma população de raposas convivendo num mesmo habitat.
Os coelhos (presas) se reproduzem rapidamente e as raposas (predadores) comem os coelhos para
sobreviver. A taxa de crescimento da população de coelhos depende da sua taxa de reprodução e da
taxa de eliminação pelas raposas (que comem os coelhos). A taxa de crescimento das raposas depende
do número de raposas e da quantidade de coelhos que elas tem para comer. Suponha que no ano inicial,
n = 0, haviam 30 coelhos e 20 raposas, e que, a cada ano que passa, o número de coelhos c(n + 1) e o
número de raposas r(n + 1) são dados em função dos quantidades do ano anterior pelas equações

c(n + 1) = 4c(n) − 2r(n)
. (4.5)
r(n + 1) = c(n) + r(n)

Queremos descobrir qual é o número de coelhos e de raposas depois de 50 anos, isto é, c(50) e r(50).
   
c(n) 30
Observe que, se p(n) = é o vetor população depois de n anos, então p(0) = e segue
r(n) 20
de (4.5) que
    
c(n + 1) 4 −2 c(n)
p(n + 1) = = .
r(n + 1) 1 1 r(n)
 
4 −2
Assim, se A = , temos
1 1

p(1) = Ap(0), p(2) = Ap(1) = A2 p(0), . . . , p(n + 1) = Ap(n) = · · · = An+1 p(0).

Logo, p(50) = A50 p(0). Calcular A50 não é uma tarefa fácil, vejamos as primeiras potências:
         
2 4 −2 4 −2 14 −10 3 14 −10 4 −2 46 −38
A = = , A = = .
1 1 1 1 5 −1 5 −1 1 1 19 −11

Precisamos de uma maneira mais esperta de fazer essa  conta.


 A grande
 sacada, que adiante vocês
10 20
aprenderão como obter, é observar que os vetores u = ev= satisfazem
10 10
   
20 60
Au = = 2u e Av = = 3v,
20 30
90 Capítulo 4. Transformações lineares

respectivamente. Ou seja, multiplicar A por u e v resulta num múltiplo escalar desses vetores, não muda
a direção deles. Tais vetores são chamados de autovetores de A, e os escalares 2 e 3 são chamados de
autovalores de A. Neste caso,

A2 u = A(2u) = 2(Au) = 22 u, . . . , An u = 2n u,

e, analogamente,
An v = 3n v.
Assim, é mais simples calcular potências de A multiplicada pelos autovetores. Então, escrevamos p(0)
como combinação linear de u e v:
     
30 10 20
p(0) = = + = u + v.
20 10 10

Agora,

250 · 10 + 350 · 20
 
50 50 50 50 50 50
p(50) = A p(0) = A (u + v) = A u + A v = 2 u + 3 v = .
250 · 10 + 350 · 10

Portanto, c(50) = 250 · 10 + 350 · 20 e r(50) = 250 · 10 + 350 · 10.


Umaoutra consequência
 da existência de u e v, é que se P é a matriz cujas colunas são u ev, isto é, se
10 20 2 0
P= , e D é a matriz diagonal com os autovalores 2 e 3, ou seja, D = , então
10 10 0 3

A = PDP−1 (verifique).

Logo, A é semelhante a uma matriz diagonal. Neste caso, dizemos que A é diagonalizável. Usando a
relação acima, fica simples de se calcular potências de A, uma vez que

A2 = (PDP−1 )(PDP−1 ) = PD(P−1 P)DP−1 = PD2 P−1 , . . . , An = PDn P−1 ,

e potência de matriz diagonal também é simples:


 2
2n 0
  
2 2 0 n
D = , ... , D = .
0 32 0 3n

Agora formalizaremos os conceitos apresentados nesse exemplo, para o caso de matrizes e operado-
res lineares. Iniciaremos no contexto de operadores.
Definição 4.5.1 Sejam V um K-espaço vetorial e T : V → V um operador linear.

(i) Um escalar λ ∈ K é um autovalor de T se existe v ∈ V \ {0} com T (v) = λ v.

(ii) Se v ∈ V \ {0} satisfaz T (v) = λ v, para algum λ ∈ K, dizemos que v é um autovetor de T ,


associado à λ .

Denote por AutT (λ ) o seguinte subconjunto de V :

AutT (λ ) = {v ∈ V : T (v) = λ v}.

Esse conjunto é sempre um subespaço vetorial de V :

• 0 ∈ AutT (λ ) pois T (0) = 0 = λ · 0.


4.5 Autovalores, autovetores, operadores diagonalizáveis 91

• Se u, v ∈ AutT (λ ), então u + v ∈ AutT (λ ), pois T (u + v) = T (u) + T (v) = λ u + λ v = λ (u + v).


• Se u ∈ AutT (λ ) e α ∈ K, então αu ∈ AutT (λ ), pois T (αu) = αT (u) = α(λ u) = λ (αu).

Também, não é difícil verificar que


AutT (λ ) = ker(T − λ Id),
onde Id : V → V é o operador identidade.
Além disso, λ é um autovalor de V se, e somente se, AutT (λ ) 6= {0}. Observe também que
AutT (0) = ker T , portanto 0 é autovalor de T se, e somente se, T não é injetora.

Definição 4.5.2 AutT (λ ) é chamado de autoespaço de T associado a λ .

 Exemplo 4.5.3 Considere T : K2 → K2 definido por T (x, y) = (−y, x).


Procuremos os possíveis autovalores de T , considerando os dois casos K = C e K = R.
Temos,
T (x, y) = λ (x, y) ⇔ (−y, x) = (λ x, λ y) ⇔ −y = λ x e x = λ y ⇒ −y = λ 2 y ⇔ (λ 2 + 1)y = 0.
Se y = 0, então x = λ y = 0, e assim (x, y) não seria autovetor. Supondo y 6= 0, concluímos que
λ 2 + 1 = 0.
Como λ é um escalar em K, no caso K = R a equação anterior não possui solução. Nesse caso, T não
possui autovalor (nem autovetor). No caso K = C, temos duas soluções: λ = i e λ = −i.
Para λ = i, x = iy e os vetores não nulos da forma (iy, y) são autovetores de T associados à i, ou seja,
AutT (i) = {(iy, y) : y ∈ C} = [(i, 1)].
Para λ = −i, x = −iy e os vetores não nulos da forma (−iy, y) são autovetores de T associados à −i,
ou seja,
AutT (−i) = {(−iy, y) : y ∈ C} = [(−i, 1)].

No caso K = R, observe que T é o operador rotação de 90◦ no sentido anti-horário, donde é fácil
perceber que não existe autovetor de T , pois nenhum vetor não nulo será levado num múltiplo escalar
de si mesmo. 

4.5.1 Propriedades de autovalores e autovetores


Nesta subseção veremos algumas propriedades envolvendo autovalores e autovetores de operadores
lineares.

Proposição 4.5.4 Sejam V um K-espaço vetorial de dimensão finita n ≥ 1, B uma base de V , λ ∈ K


e T : V → V um operador linear. São equivalentes:

(i) λ é autovalor de T ;

(ii) T − λ Id não é injetor;

(iii) T − λ Id não é inversível;

(iv) a matriz [T − λ Id ]B é singular;


92 Capítulo 4. Transformações lineares

(v) det([T − λ Id ]B ) = det([T ]B − λ In ) = 0, onde In é a matriz identidade de ordem n.

Demonstração. [(i) ⇔ (ii)] λ é autovalor de T ⇔ existe v ∈ V \ {0} tal que T (v) = λ v ⇔ existe
v ∈ V \ {0} tal que (T − λ Id)(v) = 0 ⇔ ker(T − λ Id) 6= {0} ⇔ T − λ Id não é injetor.
[(ii) ⇔ (iii)] Segue da Proposição 4.2.7.
[(iii) ⇔ (iv)] Segue do Corolário 4.3.9.
[(iv) ⇔ (v)] Por propriedades de matrizes, [T − λ Id ]B é singular ⇔ det([T − λ Id ]B ) = 0. Por fim,
pela Proposição 4.3.6,
[T − λ Id ]B = [T ]B − λ [Id]B = [T ]B − λ In .


Pela proposição anterior, λ é um autovalor de T se, e somente se, λ é raiz do polinômio

pT (x) = det([T − x Id ]B ) = det([T ]B − x In ).

Este polinômio é chamado de polinômio característico de T .


Note que, pT (x) não depende da base B fixada, pois se C é uma outra base de V , então pela Proposição
4.3.12, temos
−1 −1
det([T − x Id ]B ) = det(MBC [T − x Id ]C MBC ) = det([T − x Id ]C ) det(MBC ) det(MBC ) = det([T − x Id ]C ).

Além disso, a matriz [T ]B − x In possui polinômios de grau 1 com coeficientes em K nas entradas
da diagonal principal e constantes em K nas demais entradas, ou seja pT (x) = det([T ]B − x In ) é um
polinômio em P(K) de grau exatamente n = dimV , cujo coeficiente líder é (−1)n .
Também, se K = C, pT (x) sempre tem raízes em K, donde segue que T sempre tem autovalor.
 Exemplo 4.5.5 Considere T : R3 → R3 dado por T (a, b, c) = (2a − 2b − c, −2b + c, 4a − 2b − 3c).
Determine, se existirem, todos os autovalores e autovetores de T .
Solução. Para determinar o polinômio característico de T , precisamos da matriz de T em alguma base.
Fixe B = {e1 , e2 , e3 } a base canônica de R3 . O leitor facilmente verificará que
 
2 −2 −1
[T ]B =  0 −2 1  .
4 −2 −3

Assim,
 
2−x −2 −1
pT (x) = det([T ]B − x I3 ) = det  0 −2 − x 1  = −x3 − 3x2 − 2x = −x(x + 1)(x + 2),
4 −2 −3 − x

cujas raízes são 0, −1, −2, que são os autovalores de T . Determinemos agora os autoespaços associados,
e consequentemente os autovetores.

• AutT (−2) = ker(T + 2 Id). Trabalhando com a matriz do operador, para v = (a, b, c) ∈ R3 temos

v ∈ ker(T +2 Id) ⇔ (T +2 Id)(v) = 0 ⇔ ([T ]B +2 I3 )[v]B = [T +2 Id]B [v]B = [(T +2 Id)(v)]B = 0


     
4 −2 −1 a 0  4a − 2b − c = 0
⇔  0 0 1   b = 0
   ⇔ c = 0 ⇔ c = 0 e b = 2a.
4 −2 −1 c 0 4a − 2b − c = 0

4.5 Autovalores, autovetores, operadores diagonalizáveis 93

Logo, v ∈ AutT (−2) se, e somente se,

v = (a, 2a, 0) = a(1, 2, 0) ∈ [(1, 2, 0)].

Portanto, AutT (−2) = [(1, 2, 0)].

• AutT (−1) = ker(T + Id). Para v = (a, b, c) ∈ R3 temos


    
3 −2 −1 a 0
v ∈ ker(T + Id) ⇔ ([T ]B + I3 )[v]B = 0 ⇔  0 −1 1   b  =  0 
4 −2 −2 c 0

 3a − 2b − c = 0
⇔ −b + c = 0 ⇔ a = b = c.
4a − 2b − 2c = 0

Logo, v ∈ AutT (−1) se, e somente se,

v = (a, a, a) = a(1, 1, 1) ∈ [(1, 1, 1)].

Portanto, AutT (−1) = [(1, 1, 1)].

• AutT (0) = ker T . Para v = (a, b, c) ∈ R3 temos


    
2 −2 −1 a 0
v ∈ ker T ⇔ [T ]B [v]B = 0 ⇔  0 −2 1   b  =  0 
4 −2 −3 c 0

 2a − 2b − c = 0
⇔ −2b + c = 0 ⇔ a = c = 2b.
4a − 2b − 3c = 0

Logo, v ∈ AutT (0) se, e somente se,

v = (2b, b, 2b) = b(2, 1, 2) ∈ [(2, 1, 2)].

Portanto, AutT (0) = [(2, 1, 2)].

 Exemplo 4.5.6 Considere T : P2 (R) → P2 (R) dado por T (a + bx + cx2 ) = 2a + b + c + (b − a)x +


(a + c)x2 . Determine, se existirem, todos os autovalores e autovetores de T .
Solução. Fixe B = {1, x, x2 } a base canônica de V = P2 (R). O leitor facilmente verificará que
 
2 1 1
[T ]B =  −1 1 0  .
1 0 1

Assim,  
2−x 1 1
pT (x) = det([T ]B − x I3 ) = det  −1 1 − x 0  = (2 − x)(1 − x)2 ,
1 0 1−x
cujas raízes são 1 e 2, que são os autovalores de T . Determinemos agora os autoespaços associados, e
consequentemente os autovetores.
94 Capítulo 4. Transformações lineares

• AutT (1) = ker(T − Id). Trabalhando com a matriz do operador, para v = a + bx + cx2 ∈ V temos

v ∈ ker(T − Id) ⇔ (T − Id)(v) = 0 ⇔ ([T ]B − I3 )[v]B = [T − Id]B [v]B = [(T − Id)(v)]B = 0


     
1 1 1 a 0  a+b+c = 0
⇔  −1 0 0  b  =  0  ⇔ −a = 0 ⇔ a = 0 e b = −c.
1 0 0 c 0 a=0

Logo, v ∈ AutT (1) se, e somente se,

v = −cx + cx2 = c(−x + x2 ) ∈ [−x + x2 ].

Portanto, AutT (1) = [−x + x2 ].

• AutT (2) = ker(T − 2 Id). Para v = a + bx + cx2 ∈ V temos


    
0 1 1 a 0
v ∈ ker(T − 2 Id) ⇔ ([T ]B − 2 I3 )[v]B = 0 ⇔  −1 −1 0   b  =  0 
1 0 −1 c 0

 b+c = 0
⇔ −a − b = 0 ⇔ a = c = −b.
a−c = 0

Logo, v ∈ AutT (2) se, e somente se,

v = −b + bx − bx2 = b(−1 + x − x2 ) ∈ [−1 + x − x2 ].

Portanto, AutT (2) = [−1 + x − x2 ].

 Exemplo 4.5.7 Considere T : R3 → R3 o operador linear tal que sua matriz na base
B = {(1, 0, 0), (1, 1, 0), (0, 1, 1)} é dada por
 
5 0 −3
[T ]B =  0 −1 0  .
6 0 −4

Determine, se existirem, todos os autovalores e autovetores de T .


Solução. A partir da matriz de T fornecida, podemos determinar o polinômio característico de T :
 
5−x 0 −3
pT (x) = det([T ]B − x I3 ) = det  0 −1 − x 0  = −(x + 1)2 (x − 2),
6 0 −4 − x

cujas raízes são −1 e 2, que são os autovalores de T . Determinemos agora os autoespaços associados,
e consequentemente os autovetores.

• AutT (−1) = ker(T + Id). Para v ∈ R3 com [v]B = (a, b, c) temos


    
6 0 −3 a 0
v ∈ ker(T + Id) ⇔ ([T ]B + I3 )[v]B = 0 ⇔  0 0 0   b = 0 
 
6 0 −3 c 0
4.5 Autovalores, autovetores, operadores diagonalizáveis 95

6a − 3c = 0
⇔ ⇔ c = 2a.
6a − 3c = 0
Logo, v ∈ AutT (−1) se, e somente se,

[v]B = (a, b, 2a)B = a(1, 0, 2)B + b(0, 1, 0)B ∈ [(1, 0, 2)B , (0, 1, 0)B ].

Explicitamente,

(1, 0, 2)B = (1, 0, 0) + 2(0, 1, 1) = (1, 2, 2) e (0, 1, 0)B = (1, 1, 0).

Portanto, AutT (−1) = [(1, 2, 2), (1, 1, 0)].

• AutT (2) = ker(T − 2 Id). Para v ∈ R3 com [v]B = (a, b, c) temos


    
3 0 −3 a 0
v ∈ ker(T + Id) ⇔ ([T ]B + I3 )[v]B = 0 ⇔  0 −2 0   b  =  0 
6 0 −6 c 0

 3a − 3c = 0
⇔ −2b = 0 ⇔ b = 0 e c = a.
6a − 6c = 0

Logo, v ∈ AutT (2) se, e somente se,

[v]B = (a, 0, a)B = a(1, 0, 1)B ∈ [(1, 0, 1)B ].

Explicitamente,
(1, 0, 1)B = (1, 0, 0) + (0, 1, 1) = (1, 1, 1).
Portanto, AutT (2) = [(1, 1, 1)].

 Exemplo 4.5.8 Considere T : C2 → C2 a transformação linear tal que T (1, i) = (1, 2 + i) e T (0, 1) =
(0, 1). Determine, se existirem, todos os autovalores e autovetores de T .
Solução. Observe que B = {(1, i), (0, 1)} é base de C2 . Temos,

(1, 0) = (1, i) − i(0, 1) ⇒ T (1, 0) = T (1, i) − i T (0, 1) = (1, 2 + i) − i(0, 1) = (1, 2).

Considere a base canônica C = {(1, 0), (0, 1)} de C2 . Assim,


   
1 0 1−x 0
[T ]C = ⇒ pT (x) = det = (1 − x)2 .
2 1 2 1−x

Assim, o único autovalor de T é 1. Se v = (a, b) ∈ C2 , então


    
0 0 a 0
v ∈ AutT (1) = ker(T − Id) ⇔ ([T ]C − I2 )[v]C = 0 ⇔ = ⇔ 2a = 0 ⇔ a = 0.
2 0 b 0

Logo, v ∈ AutT (1) se, e somente se,

v = (0, b) = b(0, 1) ∈ [(0, 1)].

Portanto, AutT (1) = [(0, 1)].



96 Capítulo 4. Transformações lineares

Os exemplos anteriores ilustraram algumas situações que podem ocorrer em relação aos autovalores
e autovetores de um operador linear.
Note que, para os λ encontrados, o espaço solução do sistema homogêneo
([T ]B − λ In )[v]B = 0 sempre tem dimensão maior que zero. Isso deve mesmo ocorrer, pois uma
vez que λ é raiz do polinômio característico, λ é autovalor, e portanto existe autovetor associado, isto é,
existe v ∈ V \ {0} tal que T (v) = λ v ⇔ (T − λ Id)(v) = 0.
Um outro fato que pode ser observado nos exemplos é que autovetores associados à autovalores
distintos são LI. Como veremos a seguir, isso não é uma simples coincidência!

Proposição 4.5.9 Sejam V um K-espaço vetorial de dimensão finita e T : V → V um operador


linear. Se λ1 , . . . , λm , m ≥ 2 são autovalores de T dois a dois distintos, então a soma

AutT (λ1 ) + · · · + AutT (λm )

é direta. Em particular, se B j é base de AutT (λ j ), então B1 ∪ · · · ∪ Bm é LI.

Demonstração. Mostraremos que dados v j ∈ AutT (λ j ), j = 1, . . . , m, com


v1 + · · · + vm = 0 ⇒ v j = 0 para todo j = 1, . . . , m. (4.6)
Note que isso é equivalente a dizer que todo vetor na soma se decompõe de maneira única, pois
u1 + · · · + um = v1 + · · · + vm se, e somente se, (u1 − v1 ) + · · · + (um − vm ) = 0.
Faremos por indução em m ≥ 2. Suponha, inicialmente, m = 2 e v1 + v2 = 0, com v j ∈ AutT (λ j ),
j = 1, 2. Então
λ1 v1 + λ2 v2 = T (v1 ) + T (v2 ) = T (v1 + v2 ) = T (0) = 0. (4.7)
Além disso,
λ2 v1 + λ2 v2 = λ2 (v1 + v2 ) = 0. (4.8)
Subtraindo (4.7) e (4.8), obtemos
λ1 v1 − λ2 v1 = 0 ⇒ (λ1 − λ2 )v1 = 0.
Por hipótese, λ1 − λ2 6= 0, donde segue que v1 = 0, e daí v2 = 0.
Suponha (4.6) válida para m = k ≥ 2 (hipótese de indução). Utilizaremos a mesma ideia do caso m = 2
para mostrar para m = k + 1. Temos,
λ1 v1 + · · · + λk vk + λk+1 vk+1 = T (v1 ) + · · · + T (vk+1 ) = T (v1 + · · · + vk+1 ) = T (0) = 0. (4.9)
Também,
λk+1 (v1 + · · · + vk + vk+1 ) = 0. (4.10)
Subtraindo (4.9) e (4.10), obtemos
(λ1 − λk+1 )v1 + · · · + (λk − λk+1 )vk = 0.
Para cada j = 1, . . . , k, temos que (λ j − λk+1 )v j ∈ AutT (λ j ). Logo, pela hipótese de indução,
(λ j − λk+1 )v j = 0 para todo j = 1, . . . , k.
Como, por hipótese, λ j − λk+1 6= 0 para todo j < k, segue que v j = 0 para todo j = 1, . . . , k. Portanto,
vk+1 = v1 + · · · + vk + vk+1 = 0.

4.5 Autovalores, autovetores, operadores diagonalizáveis 97

Corolário 4.5.10 Sejam V um K-espaço vetorial de dimensão finita e T : V → V um operador linear.


Se λ1 , . . . , λm são autovalores de T dois a dois distintos e v j ∈ V é um autovetor associado à λ j ,
j = 1, . . . , m, então {v1 , . . . , vm } é LI.

Demonstração. Suponha α1 , . . . , αm ∈ K tais que


α1 v1 + · · · + αm vm = 0.
Como α j v j ∈ AutT (λ j ), pela Proposição 4.5.9, α j v j = 0 para todo j = 1, . . . , m. Mas, cada v j 6= 0, pois
são autovetores, logo α j = 0 para todo j = 1, . . . , m. 

4.5.2 Operadores diagonalizáveis e potências de matrizes


Nesta subseção, vamos apresentar o conceito diagonalização e determinar condições necessárias e
suficientes para que um operador seja diagonalizável.
Definição 4.5.11 Sejam V um K-espaço vetorial de dimensão finita e T : V → V um operador
linear. Dizemos que T é diagonalizável se existe uma base B de V tal que [T ]B é uma matriz
diagonal.

Note que, a matriz [T ]B é diagonal se, e somente se, todos os vetores da base B são autovetores de
T . Assim, dizer que T é diagonalizável é equivalente a dizer que existe uma base de V formada por
autovetores de T .
 Exemplo 4.5.12 O operador T definido no Exemplo 4.5.3 é diagonalizável, pois B = {(i, 1), (−i, 1)}

é uma base de C2 formada por autovetores de T . Além disso,


 
i 0
[T ]B = .
0 −i


 Exemplo 4.5.13 O operador T : R3 → R3 definido no Exemplo 4.5.5 é diagonalizável, pois D =


{(1, 2, 0), (1, 1, 1), (2, 1, 2)} ⊆ R3 é LI, e portanto é uma base de R3 . Assim, R3 possui uma base
formada por autovetores de T , e  
−2 0 0
[T ]D =  0 −1 0 .
0 0 0


 Exemplo 4.5.14 O operador T : P2 (R) → P2 (R) definido no Exemplo 4.5.6 não é diagonalizável,
pois todos os autovetores de T pertencem à AutT (1) ou AutT (2). Como
dim AutT (1) = 1 = dim AutT (2),
é possível conseguir, no máximo, 2 autovetores LI em V e dimV = 3. Portanto, V não possui uma base
formada por autovetores de T . 

 Exemplo 4.5.15 O operador T : R3 → R3 definido no Exemplo 4.5.7 é diagonalizável, pois D =


{(1, 2, 2), (1, 1, 0), (1, 1, 1)} ⊆ R3 é LI (verifique), D é uma base de R3 . Assim, R3 possui uma base
formada por autovetores de T . Além disso,
 
−1 0 0
[T ]D =  0 −1 0  .
0 0 2
98 Capítulo 4. Transformações lineares

 Exemplo 4.5.16 O operador T : C2 → C2 definido no Exemplo 4.5.8 não é diagonalizável, pois


todos os autovetores de T pertencem à AutT (1). Como dim AutT (1) = 1, é possível conseguir, no
máximo, 1 autovetor LI em C2 . Portanto, C2 não possui uma base formada por autovetores de T . 

Teorema 4.5.17 Sejam V um K-espaço vetorial de dimensão finita e T : V → V um operador linear.


Se λ1 , . . . , λm são todos os autovalores distintos de T , então T é diagonalizável se, e somente se,

dimV = dim(AutT (λ1 )) + · · · + dim(AutT (λm )).

Neste caso, V = AutT (λ1 ) ⊕ · · · ⊕ AutT (λm ).

Demonstração. Sejam λ1 , . . . , λm todos os autovalores distintos de T . Pela Proposição 4.5.9,

dim(AutT (λ1 ) + · · · + AutT (λm )) = dim(AutT (λ1 )) + · · · + dim(AutT (λm )).

Suponha que T é diagonalizável. Então, existe uma base de V formada por autovalores de T . Daí,
todo v ∈ V se escreve como combinação linear de autovetores, ou seja, como soma de vetores em
AutT (λ1 ) + · · · + AutT (λm ). Portanto,

V = AutT (λ1 ) + · · · + AutT (λm ) ⇒ dimV = dim(AutT (λ1 )) + · · · + dim(AutT (λm )).

Reciprocamente, suponha

dimV = dim(AutT (λ1 )) + · · · + dim(AutT (λm )) = dim(AutT (λ1 ) + · · · + AutT (λm )).

Tomando B j base de AutT (λ j ), pela Proposição 4.5.9, B = B1 ∪ · · · ∪ Bm é LI, e possui uma quantidade
de vetores igual a dimensão de V , portanto é uma base de V , formada por autovetores de T . Logo, T é
diagonalizável.


Corolário 4.5.18 Sejam V um K-espaço vetorial de dimensão finita n ≥ 1 e T : V → V um operador


linear. Se T possui n autovalores distintos, então T é diagonalizável.

Demonstração. Sejam λ1 , . . . , λn todos os autovalores distintos de T . Como dim(AutT (λ j )) ≥ 1, segue


que
dim(AutT (λ1 )) + · · · + dim(AutT (λn )) ≥ n.
Por outro lado, pela Proposição 4.5.9,

dim(AutT (λ1 )) + · · · + dim(AutT (λn )) = dim(AutT (λ1 ) + · · · + AutT (λn )) ≤ dimV = n,

pois AutT (λ1 ) + · · · + AutT (λn ) é um subespaço de V . Logo,

dim(AutT (λ1 )) + · · · + dim(AutT (λn )) = n,

e o resultado segue do Teorema 4.5.17. 


4.5 Autovalores, autovetores, operadores diagonalizáveis 99

Definição 4.5.19 Sejam V um K-espaço vetorial de dimensão finita, T : V → V um operador linear


e λ ∈ K um autovalor de T . Suponha pT (x) = (x − λ )m q(x) com m ≥ 1 e q(λ ) 6= 0. Definimos
ma (λ ) = m a multiplicidade algébrica de λ e mg (λ ) = dim(AutT (λ )) a multiplicidade geométrica
de λ .

Note que a multiplicidade algébrica do autovalor λ é exatamente a multiplicidade como raiz do


polinômio característico, que é o maior natural m ≥ 1 tal que (x − λ )m divide pT (x).

Proposição 4.5.20 Sejam V um K-espaço vetorial de dimensão finita, T : V → V um operador


linear e λ ∈ K um autovalor de T . Então, mg (λ ) ≤ ma (λ ).

Demonstração. Sejam n = dimV e k = mg (λ ) = dim(AutT (λ )) ≤ n. Considere B0 = {w1 , . . . , wk }


uma base de AutT (λ ).
Se k = n, então B0 é uma base de V formada por autovetores associados à λ . Daí, não é difícil ver que
pT (x) = det([T ]B0 − x In ) = (λ − x)n = (−1)n (x − λ )n , donde segue que ma (λ ) = n = mg (λ ).
Suponha agora k < n. Completando B0 para uma base de V , existem wk+1 , . . . , wn ∈ V tais que
B = {w1 , . . . , wk , wk+1 , . . . , wn } é base de V . Como T (w j ) = λ w j para todo j = 1, . . . , k, temos
 
λ
..
.
 

 A1 

[T ]B = 
 λ ,

onde A1 ∈ Mk×(n−k) (K) e A2 ∈ M(n−k)×(n−k) (K).
 
 
 0 A2 

Expandindo det([T ]B − x In ) em cofatores na primeira coluna, em seguida na primeira coluna da matriz


(n − 1) × (n − 1) restante, e assim sucessivamente k vezes, obtemos

pT (x) = det([T ]B − x In ) = (λ − x)k det(A2 − x In−k ) = (−1)k (x − λ )k det(A2 − x In−k ).

Como ma (λ ) é o maior natural l tal que (x − λ )l divide pT (x), segue que mg (λ ) = k ≤ ma (λ ). 

 Exemplo 4.5.21 Determine as multiplicidades algébrica e geométrica dos autovalores do operador


linear T : M2 (R) → M2 (R), cuja matriz em relação à base
       
1 0 1 1 0 1 0 0
B= , , ,
1 0 0 0 1 1 0 1

é dada por  
1 0 0 −3
 0 −2 0 0
[T ]B =  .
0 0 −2 0 
−3 0 0 1
Solução. Os autovalores de T são as raízes do polinômio característico:
 
1−x 0 0 −3
 0 −2 − x 0 0 
pT (x) = det([T ]B − x I4 ) = det  
 0 0 −2 − x 0 
−3 0 0 1−x
100 Capítulo 4. Transformações lineares
   
−2 − x 0 0 0 −2 − x 0
= (1 − x) det  0 −2 − x 0  + 3 det  0 0 −2 − x
0 0 1−x −3 0 0
= (1 − x)2 (−2 − x)2 − 9(2 + x)2 = (2 + x)2 (x2 − 2x − 8) = (2 + x)3 (x − 4).
Logo, os autovalores de T são λ = −2 e λ = 4, com multiplicidade algébrica ma (−2) = 3 e ma (4) = 1.
Agora, para λ = −2, 4, temos 1 ≤ mg (λ ) = dim(AutT (λ )). Como mg (λ ) ≤ ma (λ ), segue que
mg (4) = 1 e 1 ≤ mg (−2) ≤ 3.
Determinemos mg (−2) = dim(AutT (−2)) = dim(ker(T +2 Id)). Para A ∈ M2 (R) com [A]B = (a, b, c, d),
temos
    
3 0 0 −3 a 0
 0 0 0 0  b   0 
A ∈ ker(T + 2 Id) ⇔ ([T ]B + 2 I4 )[A]B = 0 ⇔ 
 0 0 0 0  c  =  0 
   

−3 0 0 3 d 0
⇔ 3a − 3d = 0 ⇔ d = a.
Logo, A ∈ AutT (−2) se, e somente se,
[A]B = (a, b, c, a)B = a(1, 0, 0, 1)B +b(0, 1, 0, 0)B +c(0, 0, 1, 0)B ∈ [(1, 0, 0, 1)B , (0, 1, 0, 0)B , (0, 0, 1, 0)B ].
Explicitamente,
     
1 0 1 1 0 1
(1, 0, 0, 1)B = , (0, 1, 0, 0)B =
, (0, 0, 1, 0)B = ,
1 1 0 0 1 1
     
1 0 1 1 0 1
que são três matrizes LI. Portanto, AutT (−2) = , , e
1 1 0 0 1 1
mg (−2) = dim(AutT (−2)) = 3.


Teorema 4.5.22 Sejam V um K-espaço vetorial de dimensão finita n ≥ 1 e T : V → V um operador


linear. Se λ1 , . . . , λm , m ≥ 1, são todos os autovalores distintos de T , então T é diagonalizável se, e
somente se, existem k1 , . . . , km ∈ N tais que

pT (x) = (−1)n (x − λ1 )k1 . . . (x − λm )km , com mg (λ j ) = ma (λ j ) = k j para todo j = 1, . . . , m.

Neste caso, k1 + · · · + km = n.

Demonstração. Suponha que T é diagonalizável. Seja k j = ma (λ j ), j = 1, . . . , m. Pelo Teorema 4.5.17


e Proposição 4.5.20,
n = dimV = mg (λ1 ) + · · · + mg (λm ) ≤ k1 + · · · + km .
Por outro lado, (x − λ j )k j divide pT (x) e grau(pT (x)) = n, logo k1 + · · · + km ≤ n. Portanto,
k1 + · · · + km = n, e o resultado segue.
Reciprocamente, suponha que existam k1 , . . . , km ∈ N tais que
pT (x) = (−1)n (x − λ1 )k1 . . . (x − λm )km , com mg (λ j ) = ma (λ j ) = k j para todo j = 1, . . . , m.
Daí, k j = ma (λ j ) = mg (λ j ), j = 1, . . . , m, e k1 + · · · + km = grau(pT (x)) = n. Pelo Teorema 4.5.17,
T é diagonalizável. 
4.5 Autovalores, autovetores, operadores diagonalizáveis 101

Recomendamos ao leitor que volte aos exemplos apresentados nesta seção, determine quais são
as multiplicidades algébrica e geométrica dos autovalores e veja como determinar se o operador é
diagonalizável a partir do Teorema 4.5.22.
Apresentaremos agora as definições dessa seção no contexto de matrizes.

Definição 4.5.23 Seja A ∈ Mn (K).

(i) Dizemos que λ ∈ K é um autovalor de A se existe v ∈ Kn \ {0} tal que Av = λ v.

(ii) Se v ∈ Kn \ {0} satisfaz Av = λ v, para algum λ ∈ K, dizemos que v é um autovetor de A,


associado à λ .

(iii) Dizemos que A é diagonalizável se A é semelhante à uma matriz diagonal.

(iv) O polinômio pA (x) = det(A − x In ) é chamado de polinômio característico de A.

Não repetiremos os resultados dessa seção para o caso de matrizes. A ponte entre os contextos de
operadores lineares e matrizes sempre pode ser feita da maneira a seguir.
? Dada uma matriz A ∈ Mn (K), define-se o operador TA : Kn → Kn por TA (x) = Ax. A matriz desse
operador em relação à base canônica C de Kn é [T ]C = A (Exemplo 4.3.2). Então, as definições e
propriedades apresentadas para T , se traduzem para A considerando multiplicação de A por vetores em
Kn .
? Dado um operador linear T : V → V , com dimV = n, fixada uma base B de V , temos a matriz
A = [T ]B ∈ Mn (K). Por (4.3), [T (v)]B = A[v]B , assim, essencialmente T é TA , visto que podemos
trabalhar com coordenadas ao invés dos próprios vetores para obter informações relacionadas a
dependência linear, conjunto gerador, dimensão, etc.

Aplicação: potências de matrizes

Exemplo 4.5.24 Suponha que tenhamos uma população inicial de 200 indivíduos saudáveis, mas
ocorre uma epidemia grave. Os indivíduos podem ser classificadas como saudáveis, doentes ou mortos.
Por causa da epidemia, a cada ano, 60% dos indivíduos saudáveis ficam doentes, apenas 30% se
mantêm saudável, e 10% dos indivíduos saudáveis morrem. Sabemos também que a cada ano 60%
dos doentes morrem, 20% voltam a ser saudáveis e 20% permanecem doentes. Assumindo que todos
os indivíduos mortos permanecem mortos, determine quantos indivíduos são saudáveis, doentes ou
mortos depois de k anos. Quantos anos levará até que apenas 10% (20 dos 200 indivíduos iniciais) da
população ainda esteja viva?
Solução. Defina as variáveis:
x1 (k) : número de indivíduos saudáveis depois de k anos;
x2 (k) : número de indivíduos doentes depois de k anos;
x3 (k) : número de indivíduos mortos.
Pelos dados apresentados, obtemos as seguintes equações:
x1 (k + 1) = 0.3 x1 (k) + 0.2 x2 (k);
x2 (k + 1) = 0.6 x1 (k) + 0.2 x2 (k);
x3 (k + 1) = 0.1 x1 (k) + 0.6 x2 (k) + x3 (k).
102 Capítulo 4. Transformações lineares

Assim, se  
x1 (k)
xk = x2 (k)
x3 (k)
podemos reescrever as equações na forma matricial xk = Axk−1 = Ak x0 , onde
   
0.3 0.2 0 200
A = 0.6 0.2 0
  e x0 = 0  .

0.1 0.6 1 0

Para estudar o número de indivíduos saudáveis, doentes e mortos ao longo dos anos, vamos diagonalizar
a matriz A, pois assim ficará mais simples de calcular suas potências. Iniciaremos determinando os
autovalores de A, que são as raízes do polinômio característico:
 
0.3 − x 0.2 0
pA (x) = det  0.6 0.2 − x 0  = −(x + 0.1)(x − 0.6)(x − 1).
0.1 0.6 1−x

Portanto, os autovalores de A são λ1 = −0.1, λ2 = 0.6 e λ3 = 1.0. Como A possui três autovalores
distintos (quantidade igual a ordem da matriz A), segue que A é diagonalizável, semelhante a matriz
 
−0.1 0 0
D= 0 0.6 0  .
0 0 1.0

Determinemos agora os autovetores de A:


λ1 = −0.1: se v1 = (a, b, c)> é autovetor de A associado à λ1 então (A + 0.1 I3 )v = 0, logo
    
0.4 0.2 0 a 1
0.6 0.3 0   b = 0 ⇔ b = −2a e c = a ⇔ v1 = a −2 , a ∈ R \ {0}.
 
0.1 0.6 1.1 c 1

Escolha v1 = (1, −2, 1)> .


λ2 = 0.6: se v2 = (a, b, c)> é autovetor de A associado à λ2 então (A − 0.6 I3 )v = 0, logo
    
−0.3 0.2 0 a 1
3a 5a
 0.6 −0.4 0  b = 0 ⇔ b = e c=− ⇔ v2 = a  3/2  , a ∈ R \ {0}.
2 2
0.1 0.6 0.4 c −5/2

Escolha v2 = (−2, −3, 5)> .


λ3 = 1: se v3 = (a, b, c)> é autovetor de A associado à λ3 então (A − I3 )v = 0, logo
    
−0.7 0.2 0 a 0
 0.6 −0.8 0 b = 0 ⇔ a = b = 0 ⇔ v3 = c 0 , c ∈ R \ {0}.
0.1 0.6 0 c 1

Escolha v3 = (0, 0, 1)> .


Considerando a base B = {v1 , v2 , v3 } de R3 formada pelos autovetores de A, temos que, dado
qualquer x0 ∈ R3 , se [x0 ]B = (a1 , a2 , a3 )B , isto é, se x0 = a1 v1 + a2 v2 + a3 v3 , segue que

Ak x0 = Ak (a1 v1 + a2 v2 + a3 v3 ) = a1 λ1k v1 + a2 λ2k v2 + a3 λ3k v3 .


4.5 Autovalores, autovetores, operadores diagonalizáveis 103

Como, por hipótese, x0 = (200, 0, 0)> , temos que

600 400
x0 = v1 − v2 + 200 v3 .
7 7
Logo,      
1 −2 0
600 400
xk = (−0.1)k −2 − (0.6)k −3 + 200 (1)k 0
7 7
1 5 1
ou seja, após k anos, teremos:
800 6 k
 
k 600
(−1) + indivíduos saudáveis,
7 · 10k 7 10
1200 1200 6 k
 
(−1) k+1 + indivíduos doentes, e
7 · 10k 7 10
2000 6 k
 
k 600
(−1) − + 200 indivíduos mortos.
7 · 10k 7 10
Além disso, quando k → ∞, a população tende a ser extinta.
Uma outra maneira de calcular as potências de A, seria escrevendo A = PDP−1 , onde P ∈ M3 (R)
é não singular. Para determinar P, considere TA : R3 → R3 definida por TA (x) = Ax. A matriz desse
operador em relação à base canônica C de Rn é [T ]C = A, e, em relação à base de autovetores B é
[T ]B = D. Assim,
−1
A = [T ]C = MBC [T ]B MCB = MBC D MBC .
Ou seja, tome P = MBC a matriz de mudança de base de B para C. As colunas dessa matriz são formadas
pelas coordenadas de v j em relação à base canônica, que são os próprios vetores v j . Logo,
 
1 −2 0
P = −2 −3 0 .
1 5 1

Daí, basta calcular a inversa P−1 , e concluir


 k 
λ1 0 0
A = PDP−1 ⇒ Ak = PDk P−1 = P  0 λ2k 0  P−1 .
0 0 λ3k

Capítulo 5

Transformações lineares entre espaços


com produto interno

No Capítulo 4 foram estudadas as transformações lineares, que são as funções entre espaços
vetoriais que preservam a estrutura a soma e a multiplicação por escalar. Neste capítulo, estudaremos as
transformações lineares entre espaços com produto interno, obtendo ferramentas e resultados adicionais,
que também serão traduzidos para o contexto de matrizes. Iniciaremos com as isometrias, que são as
transformações lineares que preservam produto interno e assim, também preservam a geometria dos
espaços envolvidos: norma, a distância e o ângulo entre os vetores. Em seguida, estaremos interessados
nos operadores lineares, onde o principal objetivo será deduzir um dos teoremas mais importantes da
Álgebra Linear: o Teorema Espectral.
A discussão apresentada nesse capítulo foi motivada pelos livros [Axl], [Coe], [Nic], [Reg] e [Str].

5.1 Isometrias
Definição 5.1.1 Sejam U e V dois K-espaços vetoriais com produto interno. Dizemos que uma
transformação linear T : U → V preserva produto interno se hT (u), T (v)i = hu, vi, para todos
u, v ∈ U. Um isomorfismo entre espaços com produto interno é um isomorfismo que preserva
produto interno.

Observação 5.1.2 Note que as funções que definem um produto interno em U e V podem ser
diferentes. Dessa forma, na definição anterior, hT (u), T (v)i considera o produto interno de V ,
enquanto que hu, vi considera o produto interno de U.

Veremos a seguir alguns exemplos de transformações lineares que preservam produto interno.
 Exemplo 5.1.3 Considere V = R3 com o produto interno hu, vi = x1 x2 +4y1 y2 +9z1 z2 , u = (x1 , y1 , z1 )
e v = (x2 , y2 , z2 ); e W = {A ∈ M3 (R) : A> = A} com o produto interno hA, Bi = 12 tr(AB> ). Mostre que
a transformação linear T : V → W definida por
 
0 x 2y
T (x, y, z) =  x 0 3z
2y 3z 0

preserva produto interno.


106 Capítulo 5. Transformações lineares entre espaços com produto interno

Solução. Dados u = (x1 , y1 , z1 ) e v = (x2 , y2 , z2 ) vetores de V , temos

hu, vi = x1 x2 + 4y1 y2 + 9z1 z2 .

Por outro lado,


  
0 x1 2y1 0 x2 2y2
1
hT (u), T (v)i = tr  x1 0 3z1   x2 0 3z2  = x1 x2 + 4y1 y2 + 9z1 z2 .
2
2y1 3z1 0 2y2 3z2 0

Portanto, T preserva produto interno. 

 Exemplo 5.1.4 Sejam V um K-espaço vetorial com produto interno e B = {v1 , . . . , vn } uma base

ortonormal para V . Considere Kn com o produto interno usual. Mostre que a função S : V → Kn
definida por S(v) = [v]B é uma transformação linear que preserva produto interno.
Solução. Deixamos como exercício a verificação de que S é uma transformação linear. Sejam
u = α1 v1 + · · · + αn vn e v = β1 v1 + · · · + βn vn . Como B é uma base ortonormal, sabemos que
n
hu, vi = ∑ αi β i
i=1

independentemente do produto interno de V . Por outro lado,


n
hS(u), S(v)i = h(α1 , . . . , αn ), (β1 , . . . , βn )i = ∑ αi β i .
i=1

Logo, S preserva produto interno. 

Proposição 5.1.5 Se T : U → V é uma transformação linear que preserva produto interno, então T
é injetora.

Demonstração. Sejam u, v ∈ V tais T (u) = T (v). Como T preserva produto interno, temos que

||u − v||2 = hu − v, u − vi = hT (u − v), T (u − v)i = hT (u) − T (v), T (u) − T (v)i = 0

ou seja, u = v. Logo, T é injetora. 

Proposição 5.1.6 Sejam U e V dois espaços vetoriais com produto interno, dimU = dimV finita, e
T : U → V uma transformação linear. São equivalentes:

(i) T preserva produto interno;

(ii) T é um isomorfismo entre espaços com produto interno;

(iii) T leva toda base ortonormal de U em base ortonormal de V ;

(iv) T leva alguma base ortonormal de U em uma base ortonormal de V .

Demonstração. [(i) ⇒ (ii)] Segue das Proposições 5.1.5 e 4.2.7 que T é uma bijeção. Como T preserva
produto interno, T é um isomorfismo entre espaços com produto interno.
5.1 Isometrias 107

[(ii) ⇒ (iii)] Seja B = {u1 , . . . , un } uma base ortonormal de U. Mostremos que C = {T (u1 ), . . . , T (un )}
é base ortonormal de V . Como T preserva produto interno, hT (ui ), T (u j )i = hui , u j i = 0 para todo
i 6= j, e, ||T (ui )|| = ||ui || = 1 para todo i = 1, . . . , n. Portanto, C é base ortonormal.
[(iii) ⇒ (iv)] Imediato.
[(iv) ⇒ (i)] Seja B = {u1 , . . . , un } uma base ortonormal de U tal que C = {T (u1 ), . . . , T (un )} é base
ortonormal de V . Dados u, v ∈ U, existem escalares αi , βi ∈ K, i = 1, . . . , n, tais que u = α1 u1 + · · · +
αn un e v = β1 u1 + · · · + βn un . Então,
* +
n n n
hT (u), T (v)i = ∑ αi T (ui ), ∑ β j T (u j ) = ∑ αi β i .
i=1 j=1 i=1

Por outro lado, * +


n n n
hu, vi = ∑ αi ui , ∑ β j u j = ∑ αi β i .
i=1 j=1 i=1

Logo, hT (u), T (v)i = hu, vi, donde segue que T preserva produto interno. 

Exercício 5.1 Sejam U e V espaços com produto interno e T : U → V uma função tal que
hT (u), T (v)i = hu, vi para todos u, v ∈ U. Mostre que T é transformação linear.

 Exemplo 5.1.7 Sejam U = C ([0, 1], R) com produto interno


Z 1
h f , gi = x2 f (x)g(x) dx,
0

e V = C ([0, 1], R) com produto interno usual. A transformação linear T : U → V dada por T ( f (x)) =
x f (x), preserva produto interno mas não é um isomorfismo [Coe].
Prova. Note que o Teorema 5.1.6 não pode ser aplicado, pois dim(U) = dim(V ) mas não é finita.
Sejam f , g ∈ U, então
Z 1 Z 1
hT ( f ), T (g)i = T ( f (x))T (g(x))dx = x2 f (x)g(x)dx = h f , gi.
0 0

Logo, T preserva produto interno. Por outro lado, a função g(x) = 1 ∈ V mas g ∈
/ Im T . Portanto, T
não é sobrejetora. 

Definição 5.1.8 Sejam U e V dois K-espaços vetoriais normados. Uma transformação linear
T : U → V que satisfaz ||T (u)|| = ||u|| para todo u ∈ U é chamado de isometria.

Proposição 5.1.9 Uma transformação linear T : U → V preserva produto interno se, e somente se,
T é isometria.

Demonstração. Basta usar as Identidades de Polarização. 

 Exemplo 5.1.10 Seja T : R2 → R2 a rotação de ângulo θ (sentido anti-horário). Mostre que T é uma
isometria em R2 com produto interno usual.
Prova. Seja B = {e1 , e2 } a base canônica de R2 . A Figura 5.1 exemplifica a ação do operador T na
base B. Note que,
T (e1 ) = cos(θ )e1 + sen(θ )e2
108 Capítulo 5. Transformações lineares entre espaços com produto interno
π  π 
T (e2 ) = cos + θ e1 + sen + θ e2 = − sen(θ )e1 + cos(θ )e2 .
2 2
Logo, se (x, y) é um vetor qualquer de R2 , temos

T (x, y) = x T (e1 ) + y T (e2 ) = x(cos(θ )e1 + sen(θ )e2 ) + y(− sen(θ )e1 + cos(θ )e2 )

= (x cos θ − y sen θ , x sen θ + y cos θ ).


Assim, considerando a norma usual de R2 (proveniente do produto interno usual),

||T (x, y)||2 = (x cos θ − y sen θ )2 + (x sen θ + y cos θ )2 = x2 + y2 = ||(x, y)||2 .

Portanto, T é uma isometria.

Figura 5.1: Rotação de ângulo θ aplicada nos vetores da base B.

 Exemplo 5.1.11 Seja T : R2 → R2 dada por T (x, y) = 15 (4x + 3y, 3x − 4y). Considerando R2 com
produto interno usual, mostre que T preserva produto interno.
Prova. Vamos usar a equivalência: T preserva produto interno se, e somente se, T leva alguma base
ortonormal de R2 em uma base ortonormal de R2 .
Seja B = {e1 , e2 } a base canônica de R2 . Então,
1 1
T (e1 ) = (4, 3) e T (e2 ) = (3, −4).
5 5
Como B é uma base ortonormal e os vetores 15 (4, 3), 15 (3, −4) também são ortonormais, segue que T
preserva produto interno. 

 Exemplo 5.1.12 Determine os valores positivos a, b, c, d, e para que o operador linear T : R3 → R3


dado por T (x, y, z) = (2ax − 2ay + az, bx + by, cx − dy − ez) seja uma isometria em R3 com o produto
interno usual.
Solução. A base canônica {e1 , e2 , e3 } de R3 é ortonormal em relação ao produto interno usual. Logo,
{T (e1 ), T (e2 ), T (e3 )} também deve ser um conjunto ortonormal. Ou seja,

0 = hT (e1 ), T (e2 )i = h(2a, b, c), (−2a, b, −d)i = −4a2 + b2 − cd

0 = hT (e1 , T (e3 ))i = h(2a, b, c), (a, 0, −e)i = 2a2 − ce


0 = hT (e2 ), T (e3 )i = h(−2a, b, −d), (a, 0, −e)i = −2a2 + de
1 = ||T (e1 )||2 = ||(2a, b, c)||2 = 4a2 + b2 + c2
5.1 Isometrias 109

1 = ||T (e2 )||2 = ||(−2a, b, −d)||2 = 4a2 + b2 + d 2


1 = ||T (e3 )||2 = ||(a, 0, e)||2 = a2 + e2
Resolvendo o sistema não linear acima, obtemos (verifique)
√ √ √
1 ± 2 2 2 2
a= , b= , c=d= , e= .
3 2 6 3


O próximo resultado descreve uma propriedade interessante da matriz de uma isometria em relação
à bases ortonormais.

Proposição 5.1.13 Sejam U e V dois K-espaços vetoriais, de mesma dimensão finita n, com produto
interno, B e C bases ortonormais de U e V , respectivamente, e T : U → V uma transformação linear.
Então, T é uma isometria se, e somente se, [T ]BC é uma matriz unitária.

Demonstração. Sejam B = {u1 , . . . , un } e C = {v1 , . . . , vn } e [T ]BC = (ai j ) ∈ Mn (K). Daí, para cada
n
j = 1, . . . , n, T (u j ) = ∑ ai j vi . Note que, para i, j = 1, . . . , n,
i=1

 >  n
[T ]BC [T ]BC = ∑ aki ak j .
ij k=1

Além disso, como C é ortonormal, para i, j = 1, . . . , n,


* +
n n n n n  > 
hT (ui ), T (u j )i = ∑ aki vk , ∑ ar j vr = ∑ ∑ aki ar j hvk , vr i = ∑ aik ak j = [T ]BC [T ]BC . (5.1)
k=1 r=1 k=1 r=1 k=1 ij

(⇒) Como T é isometria, logo T preserva produto interno, e B é ortonormal, temos


 > 
(5.1)
δi j = hui , u j i = hT (ui ), T (u j )i = [T ]BC [T ]BC ,
ij
 > 
em que δii = 1 e δi j = 0 para todo i 6= j. Assim, [T ]BC [T ]BC = δi j , donde segue que
ij
>
[T ]BC [T ]BC = In . Portanto, [T ]BC é uma matriz unitária.

(⇐) Como T é unitária, para i, j = 1, . . . , n,


 > 
(5.1)
δi j = [T ]BC [T ]BC = hT (ui ), T (u j )i.
ij

Logo, T (B) é ortonormal. Portanto, segue da Proposição 5.1.6 que T preserva produto interno,
donde segue que T é uma isometria.

 Exemplo 5.1.14 Verifique se o operador linear T : R3 → R3 cuja matriz em relação à base canônica,
C, é igual a  1 2 2

−3 3 3
[T ]C = 32
 − 13 2
3
,
2 2
3 3 − 13
110 Capítulo 5. Transformações lineares entre espaços com produto interno

é uma isometria.
Solução. Como a base canônica é ortonormal e [T ]C possui colunas ortonormais, segue que [T ]C é
unitária. Portanto, T é uma isometria. 

O resultado a seguir estabelece a relação entre uma isometria e os seus autovalores.

Proposição 5.1.15 Sejam V um K-espaço vetorial com produto interno e T : V → V um operador


linear.

(i) Se T é uma isometria e λ é autovalor de T , então |λ | = 1.

(ii) Se {v1 , . . . , vn } é uma base ortonormal de V tal que T (vi ) = λi vi e |λi | = 1 para todo i = 1, . . . , n,
então T é uma isometria.

Demonstração. (i) Seja λ um autovalor de T . Então, existe v ∈ V , v 6= 0, tal que T (v) = λ v. Como
T é uma isometria,

||v||2 = ||T (v)||2 = hT (v), T (v)i = hλ v, λ vi = |λ |2 ||v||2 ⇒ |λ | = 1.

(ii) Como {v1 , . . . , vn } é base ortonormal de V , basta mostrarmos que {T (v1 ), . . . , T (vn )} também é
base ortonormal de V . De fato, para i, j ∈ {1, . . . , n}, temos que

hT (vi ), T (v j )i = hλi vi , λ j v j i = λi λ j hvi , v j i = 0,

se i 6= j, e
||T (vi )|| = ||λi vi || = |λi |||vi || = 1.
Portanto, {T (v1 ), . . . , T (vn )} é base ortonormal de V e T é uma isometria.


Exercício 5.2 Considere R2 com produto interno usual. Seja R : R2 → R2 a reflexão em relação à
reta y = 2x. Descreva R explicitamente, ou seja, R(x, y), e verifique se R é uma isometria.

5.2 O operador adjunto


A definição de operador adjunto será introduzida nesta seção, após um teorema que garantirá sua
existência e unicidade em dimensão finita. Esse operador terá um papel importante no próximo objetivo,
que é o de responder a pergunta: dado um operador linear T : V → V , sob quais condições existe
base ortonormal de V formada por autovetores de T ? Além de responder essa pergunta, veremos as
propriedades adicionais que conseguimos obter a partir disso, para operadores e matrizes.

Teorema 5.2.1 Sejam U e V dois K-espaços vetoriais com produto interno, U com dimensão finita,
e T : U → V uma transformação linear. Então, existe uma única transformação linear T ∗ : V → U
tal que hT (u), vi = hu, T ∗ (v)i para todos u ∈ U, v ∈ V .

Demonstração. Considere B = {u1 , . . . , un } uma base ortonormal para U. Vamos definir T ∗ : V → U.


Seja v ∈ V . Dado u ∈ U, como B é ortonormal, segue da Proposição 3.2.10 que
n
u = ∑ hu, ui iui .
i=1
5.2 O operador adjunto 111

Daí, * ! + * +
n n n
hT (u), vi = T ∑ hu, ui iui ,v = ∑ hu, ui iT (ui ), v = ∑ hu, ui ihT (ui ), vi.
i=1 i=1 i=1

Como hT (ui ), vi ∈ K, i = 1, . . . , n, temos


* +
n n n
∑ hu, ui ihT (ui ), vi = ∑ hu, hT (ui ), viui i = u, ∑ hT (ui ), viui .
i=1 i=1 i=1

n
Defina T ∗ (v) = ∑ hT (ui ), viui . Pelo exposto anteriormente,
i=1

hT (u), vi = hu, T ∗ (v)i para todo u ∈ U. (5.2)

Se ū ∈ U é outro vetor tal que

hT (u), vi = hu, ūi para todo u ∈ U,

então,

hu, ūi = hT (u), vi = hu, T ∗ (v)i ∀ u ∈ U ⇒ hu, ū−T ∗ (v)i = 0 ∀ u ∈ U ⇒ ū−T ∗ (v) = 0 ⇒ u = T ∗ (v).

Assim, T ∗ (v) é o único vetor em U satisfazendo (5.2), donde seque que a função T ∗ : V → U fica bem
definida. Por construção, temos

hT (u), vi = hu, T ∗ (v)i para todos u ∈ U, v ∈ V. (5.3)

Mostremos que T ∗ é transformação linear. Sejam v1 , v2 ∈ V e λ ∈ K. Então, para todo u ∈ U, temos

hu, T ∗ (v1 + λ v2 )i = hT (u), v1 + λ v2 i = hT (u), v1 i + λ hT (u), v2 i = hu, T ∗ (v1 )i + λ hu, T ∗ (v2 )i

= hu, T ∗ (v1 )i + hu, λ T ∗ (v2 )i = hu, T ∗ (v1 ) + λ T ∗ (v2 )i


⇒ hu, T ∗ (v1 + λ v2 ) − T ∗ (v1 ) − λ T ∗ (v2 )i = 0 para todo u ∈ U
⇒ T ∗ (v1 + λ v2 ) − T ∗ (v1 ) − λ T ∗ (v2 ) = 0
⇒ T ∗ (v1 + λ v2 ) = T ∗ (v1 ) + λ T ∗ (v2 ).
Portanto, T ∗ é uma transformação linear que satisfaz (5.3). Para a unicidade, suponha que S : V → U é
uma transformação linear que satisfaz
(5.3)
hu, S(v)i = hT (u), vi = hu, T ∗ (v)i para todos u ∈ U, v ∈ V.

Então, para todos u ∈ U, v ∈ V ,

hu, T ∗ (v) − S(v)i = 0 ⇒ T ∗ (v) = S(v).

Logo, S = T ∗ . 

Definição 5.2.2 Sejam U e V dois K-espaços vetoriais com produto interno e T : U → V uma
transformação linear. Dizemos que T possui adjunto se existe uma transformação linear T ∗ : V → U
tal que hT (u), vi = hu, T ∗ (v)i para todos u ∈ U e v ∈ V . Neste caso, T ∗ é chamado de adjunto de T .
112 Capítulo 5. Transformações lineares entre espaços com produto interno

Observação 5.2.3 (i) O adjunto, quanto existe, depende dos produtos internos de U e V e é
único. A demonstração da “unicidade” no Teorema 5.2.1 se aplica em geral.
(ii) Pelo Teorema 5.2.1, se U tem dimensão finita, sempre existe o adjunto T ∗ : V → U de
T : U → V.

 Exemplo 5.2.4 Seja T : R3 → R2 a transformação linear dada por T (x1 , x2 , x3 ) = (x3 , x1 − 2x2 ).
Determine o adjunto de T .
Solução. Seja T ∗ : R2 → R3 o adjunto de T , então

hu, T ∗ (v)i = hT (u), vi, para todos u ∈ R3 e v ∈ R2 .

Tome v = (y1 , y2 ) ∈ R2 , então para todo u = (x1 , x2 , x3 ) ∈ R3 temos que

h(x1 , x2 , x3 ), T ∗ (y1 , y2 )i = hT (x1 , x2 , x3 ), (y1 , y2 )i = h(x3 , x1 − 2x2 ), (y1 , y2 )i = y1 x3 + y2 (x1 − 2x2 )

= x1 y2 + −2x2 y2 + x3 y1 = h(x1 , x2 , x3 ), (y2 , −2y2 , y1 )i.

Segue que
h(x1 , x2 , x3 ), T ∗ (y1 , y2 )i = h(x1 , x2 , x3 ), (y2 , −2y2 , y1 )i,

ou seja,
h(x1 , x2 , x3 ), T ∗ (y1 , y2 ) − (y2 , −2y2 , y1 )i = 0

para todo (x1 , x2 , x3 ) ∈ R3 . Portanto,

T ∗ (y1 , y2 ) = (y2 , −2y2 , y1 ).

O próximo exemplo é uma tradução livre do Exemplo 7.4 de [Axl].


 Exemplo 5.2.5 Dados u0 ∈ U e v0 ∈ V fixos, defina T : U → V por T (u) = hu, u0 iv0 . Determine T ∗ .
Solução. Seja T ∗ : V → U o adjunto de T , então

hu, T ∗ (v)i = hT (u), vi, para todos u ∈ U e v ∈ V.

Tome u ∈ U, então para todo v ∈ V temos que

hu, T ∗ (v)i = hT (u), vi = hhu, u0 iv0 , vi = hu, u0 ihv0 , vi = hu, hv0 , viu0 i.

Seque que,
hu, T ∗ (v)i = hu, hv, v0 iu0 i,

ou seja,
hu, T ∗ (v) − hv, v0 iu0 i = 0

para todo u ∈ U. Portanto,


T ∗ (v) = hv, v0 iu0 .


5.2 O operador adjunto 113
 
>
= tr A B> ,

 Exemplo 5.2.6 Considere V = M2 (R) com produto interno usual hA, Bi = tr A B
M ∈ V uma matriz fixa e T : V → V a transformação linear definida por T (A) = MA − AM. Determine
T ∗.
Solução. Para todas A, B ∈ V , temos
hT (A), Bi = hMA − AM, Bi = tr (B> (MA − AM)) = tr (B> MA) − tr (B> AM) = tr (B> MA) − tr (MB> A)
= tr (B> MA − MB> A) = tr ((B> M − MB> )A) = hA, M > B − BM > i.
Portanto,
T ∗ (B) = M > B − BM > .


Nos exemplos anteriores foi fácil determinar T ∗ (v) diretamente pela relação: hT (u), vi = hu, T ∗ (v)i
para todos u ∈ U, v ∈ V . Quando essa identificação não for imediata, podemos utilizar a fórmula
descrita a seguir, que é uma consequência da demonstração do Teorema 5.2.1.

Proposição 5.2.7 Sejam U e V dois K-espaços vetoriais com produto interno, U com dimensão
finita, e T : U → V uma transformação linear. Se B = {u1 , . . . , un } é uma base ortonormal para U,
então o adjunto T ∗ : V → U é dado por
n
T ∗ (v) = ∑ hT (ui ), viui , para todo v ∈ V.
i=1

A seguir, apresentamos algumas propriedades algébricas dos adjuntos.

Proposição 5.2.8 Considere U e V dois K-espaços vetoriais com produto interno. Sejam S, T :
U → V transformações lineares que admitem adjuntos e λ ∈ K. Então:

(i) S + T admite adjunto e (S + T )∗ = S∗ + T ∗ ;

(ii) λ T admite adjunto e (λ T )∗ = λ T ∗ ;

(iii) se U = V , T ◦ S admite adjunto e (T ◦ S)∗ = S∗ ◦ T ∗ ;

(iv) T ∗ admite adjunto e (T ∗ )∗ = T .

Demonstração. (i) Para todos u ∈ U e v ∈ V , temos


h(S + T )(u), vi = hS(u) + T (u), vi = hS(u), vi + hT (u), vi
= hu, S∗ (v)i + hu, T ∗ (v)i = hu, (S∗ + T ∗ )(v)i.
Portanto, (S + T )∗ = S∗ + T ∗ .
(ii) Para todos u ∈ U e v ∈ V , temos
h(λ T )(u), vi = hλ T (u), vi = λ hT (u), vi = λ hu, T ∗ (v)i = hu, λ T ∗ (v)i = hu, (λ T ∗ )(v)i.
Portanto, (λ T )∗ = λ T ∗ .
(iii) Para todos u, v ∈ U = V , temos
h(T ◦ S)(u), vi = hT (S(u)), vi = hS(u), T ∗ (v)i = hu, S∗ (T ∗ (v))i = hu, (S∗ ◦ T ∗ )(v)i.
Portanto, (T ◦ S)∗ = S∗ ◦ T ∗ .
114 Capítulo 5. Transformações lineares entre espaços com produto interno

(iv) Para todos u ∈ U e v ∈ V , temos

hT ∗ (v), ui = hu, T ∗ (v)i = hT (u), vi = hv, T (u)i.

Portanto, (T ∗ )∗ = T .


O próximo resultado estabelece a relação entre as matrizes de T e T ∗ em relação a bases ortonormais.

Proposição 5.2.9 Sejam U e V espaços vetoriais de dimensão finita com produto interno e T : U →
V uma transformação linear. Se B é base ortonormal de U e C é base ortonormal de V , então
>
[T ∗ ]CB = [T ]BC .

Demonstração. Sejam B = {u1 , . . . , un } e C = {v1 , . . . , vm } bases ortonormais de U e V , respectiva-


mente. Então,  
| | |
[T ]BC = [T (u1 )]C [T (u2 )]C · · · [T (un )]C  .
| | |
Além disso, se [T ]BC = (ai j )m×n , então, para cada j = 1, . . . , n,
m
T (u j ) = ∑ ai j vi ,
i=1

daí, para cada j = 1, . . . , n,


* +
m m
hT (u j ), vi i = ∑ ak j vk , vi = ∑ ak j hvk , vi i = ai j hvi , vi i = ai j ||vi ||2 = ai j .
k=1 k=1

Logo,
m
T (u j ) = ∑ hT (u j ), vi ivi ,
i=1

ou seja, ([T ]BC )i j = hT (u j ), vi i.


Por outro lado, pela Proposição 5.2.7, para cada j = 1, . . . , n,
n
T ∗ (v j ) = ∑ hT (ui ), v j iui ,
i=1

>
ou seja, ([T ∗ ]CB )i j = hT (ui ), v j i = ([T ]BC ) ji . Portanto, [T ∗ ]CB = [T ]BC . 

 Exemplo 5.2.10 Sejam R2 com produto interno usual e T : R2 → R2 a transformação linear defina
por T (x, y) = (x + y, x). Determine T ∗ .
Solução. Seja B = {e1 , e2 } a base canônica de R2 . Como B é ortonormal no produto interno usual,
T (e1 ) = (1, 1) e T (e2 ) = (1, 0), pela Proposição 5.2.7,

2
T ∗ (x, y) = ∑ hT (ei ), (x, y)iei = (x + y)e1 + xe2 = (x + y, x) = T (x, y).
i=1
5.2 O operador adjunto 115

Uma outra maneira, seria encontrar  


1 1
[T ]B = ,
1 0
e como B é ortonormal no produto interno usual, pela Proposição 5.2.9, temos
 
∗ > K=R > 1 1
[T ]B = [T ]B = [T ]B = = [T ]B .
1 0
Portanto, T ∗ = T . 

 Exemplo 5.2.11 Sejam C2 com produto interno usual e T : C2 → C2 a transformação linear definida
por T (x1 , x2 ) = (x1 + 2x2 , x2 − ix1 ). Determine T ∗ e as matrizes [T ]BC e [T ∗ ]CB para B = {e1 , e2 }, a
base canônica de C3 , e C = {e1 , 2e2 }.
Solução. Temos T (e1 ) = (1, −i) e T (e2 ) = (2, 1), logo, como B é ortonormal, segue da Proposição
5.2.7 que
2
T ∗ (x1 , x2 ) = ∑ hT (ei ), (x1 , x2 )iei
i=1

= h(1, −i), (x1 , x2 )ie1 + h(2, 1), (x1 , x2 )ie2


= (x1 + x2 (−i))e1 + (2x1 + x2 )e2
= (x1 + ix2 , 2x1 + x2 ).
Além disso,    
1 2 ∗ 1 2i
[T ]BC = e [T ]CB = .
−i/2 1/2 2 2
>
Note que [T ∗ ]CB 6= [T ]BC , mas isso ocorreu pois a base C não é ortonormal. 

 Exemplo 5.2.12 Considere R3 com produto interno usual, B a base canônica de R3 e T : R3 → R3


transformação linear tal que  
2 1 −1
[T ]B =  0 1 1  .
−1 0 1
Determine T ∗ .
Solução. Como B é ortonormal no produto interno usual, temos
 
2 0 −1
>
[T ∗ ]B = [T ]B = [T ]>
K=R
B =
 1 1 0 .
−1 1 1
Daí,
T ∗ (e1 ) = (2, 1, −1), T ∗ (e2 ) = (0, 1, 1), T ∗ (e3 ) = (−1, 0, 1).
Logo,
T ∗ (x, y, z) = xT ∗ (e1 ) + yT ∗ (e2 ) + zT ∗ (e3 ) = (2x − z, x + y, y + z − x).


Definição 5.2.13 Seja V um K-espaço vetorial com produto interno e T : V → V um operador


linear. Dizemos que T é unitário se admite adjunto e T ◦ T ∗ = T ∗ ◦ T = IdV , isto é, T é isomorfismo
e T −1 = T ∗ .
116 Capítulo 5. Transformações lineares entre espaços com produto interno

Proposição 5.2.14 Seja V um K-espaço vetorial com produto interno e T : V → V um operador


linear. Então, T é unitário se, e somente se, T é um isomorfismo entre espaços com produto interno.

Demonstração. (⇒) Supondo T unitário, segue que T é isomorfismo e T −1 = T ∗ . Resta mostrar que
T preserva produto interno. Dados u, v ∈ V , temos

hT (u), T (v)i = hu, T ∗ (T (v))i = hu, (T ∗ ◦ T )(v)i = hu, IdV (v)i = hu, vi.

(⇐) Temos que T é isomorfismo e preserva produto interno. Logo, para todos u, v ∈ V , temos

hT (u), vi = hT (u), (T ◦ T −1 )(v)i = hT (u), T (T −1 (v))i = hu, T −1 (v)i.

Portanto, T −1 = T ∗ . 

Corolário 5.2.15 Sejam V um K-espaços vetorial de dimensão finita com produto interno, T : V → V
um operador linear e B uma base ortonormal de V . Então, T é unitário se, e somente se, [T ]B é uma
matriz unitária.

Demonstração. (⇒) Como T é unitário, segue que T −1 = T ∗ . Assim, pelo Corolário 4.3.9 e Proposição
5.2.9,
>
[T ]−1
B = [T
−1
]B = [T ∗ ]B = [T ]B ,
logo [T ]B é unitária.
>
(⇐) Como [T ]B é uma matriz unitária, ela é não singular e [T ]−1 B = [T ]B . Novamente, pelo Corolário
4.3.9 e Proposição 5.2.9 segue T é isomorfismo e [T −1 ]B = [T ∗ ]B , donde concluímos que T −1 = T ∗ . 

 Exemplo 5.2.16 Descreva todas as matrizes A ∈ M2 (R) ortogonais (unitárias).


Solução. Se A ∈ M2 (R) ortogonal, isto é, A é não singular e A−1 = A> . Assim,

1 = det(I2 ) = det(A> A) = det(A> ) det A = (det A)2 ⇒ det A = ±1.


 
a b
Escreva A = . Como,
c d
   
−1 1 d −b −1 > a c
A = e A =A = ,
det A −c a b d
temos duas possibilidades:
 
a −b
A= com a2 + b2 = 1 (se det A = 1);
−b a
ou  
a b
A= com a2 + b2 = 1 (se det A = −1).
b −a
Como a2 + b2 = 1, existe único θ ∈ [0, 2π) tal que a = cos θ e b = sen θ , logo
   
cos θ − sen θ cos θ sen θ
A= ou A = .
sen θ cos θ sen θ − cos θ
No primeiro caso, A é a matriz derotação por θ no sentido anti-horário, e no segundo caso A é
1 0
semelhante à matriz D = (verifique) e portanto é uma reflexão. 
0 −1
5.3 Operadores autoadjuntos 117

5.3 Operadores autoadjuntos


No restante desta seção, estaremos interessados em estudar propriedades de operadores lineares
T : V → V e seus adjuntos T ∗ : V → V . Por exemplo, quando eles comutam (serão chamados de
normais) ou coincidem (serão chamados de autoadjuntos), e quais consequências podemos obter
em cada caso. Tais propriedades nos levarão ao importante Teorema Espectral, que dará condições
necessárias e suficientes para que o seja ortogonalmente diagonalizável.
Definição 5.3.1 Seja T : V → V um operador linear em um espaço com produto interno. Dizemos
que T é autoadjunto (ou hermitiano) se T admite adjunto e, além disso, T ∗ = T . Em outras palavras,
T é autoadjunto se, e somente se, hT (u), vi = hu, T (v)i, para todos u, v ∈ V.
Se K = R, também dizemos que T é simétrico.

 Exemplo 5.3.2 O operador T : R2 → R2 visto no Exemplo 5.2.10 é autoadjunto. 

Proposição 5.3.3 Seja T : V → V um operador linear em um K-espaço vetorial V com produto


interno e dimensão finita. São equivalentes:

(i) T é autoadjunto;
>
(ii) [T ]B = [T ]B para toda base ortonormal B de V ;
>
(iii) existe uma base ortonormal B de V tal que [T ]B = [T ]B .

Demonstração. Segue da Proposição 5.2.9. 

 Exemplo 5.3.4 Sejam C2 com produto interno usual e T o operador linear em C2 cuja matriz em
relação à base canônica B é  
2 b
[T ]B = .
3 ic
Determine para quais valores de b e c reais temos que T é autoadjunto.
Solução. Como a base canônica de C2 é uma base ortonormal em relação ao produto interno usual,
podemos usar a Proposição 5.3.3. Assim,
   
> 2 3 2 b
[T ]B = = ⇒ b = 3 e c = 0.
b −ic 3 ic


Observação 5.3.5 Se T : V → V é autoadjunto, dimV = n, B é uma base ortonormal de V e


[T ]B = (ai j ), então ai j = a ji para todos i, j = 1, . . . , n. Em particular, os elementos da diagonal
principal de [T ]B são números reais.

Como visto anteriormente, dado um operador linear T : V → V , basta conhecermos o compor-


tamento de T em uma base de V para obtermos toda a informação sobre T . A seguir veremos algo
semelhante para determinar se o operador T é autoadjunto.

Proposição 5.3.6 Sejam V um K-espaço vetorial com produto interno, B = {v1 , . . . , vn } uma base
118 Capítulo 5. Transformações lineares entre espaços com produto interno

de V e T : V → V um operador linear. Se hT (vi ), v j i = hvi , T (v j )i, para todos i, j = 1, . . . , n, então T


é autoadjunto.

Demonstração. Sejam u, v ∈ V vetores quaisquer. Então, existem escalares αi , βi , i = 1, . . . , n, tais que


n n
u = ∑ αi vi e v = ∑ βi vi .
i=1 i=1

Logo,
* +
n n n n n n
hT (u), vi = ∑ αi T (vi ), ∑ β j v j = ∑ αi ∑ β j hT (vi ), v j i = ∑ αi ∑ β j hvi , T (v j )i
i=1 j=1 i=1 j=1 i=1 j=1
* + * !+
n n n n
= ∑ αi vi , ∑ β j T (v j ) = ∑ αi vi , T ∑ β jv j = hu, T (v)i,
i=1 j=1 i=1 j=1

e, portanto, T é autoadjunto. 

 Exemplo 5.3.7 Considere R2 com produto interno usual. Verifique se os operadores lineares
definidos a seguir são autoadjuntos.
(i) T : R2 → R2 tal que T (1, 2) = (3, 1) e T (−1, 1) = (0, −1).

(ii) S : R2 → R2 tal que S(1, 2) = (−1, 4) e S(−1, 1) = (−4, 1).

Solução. Note que B = {(1, 2), (−1, 1)} é base de R2 . Além disso, como K = R, hT (v), vi =
hv, T (v)i = hv, T (v)i para todo v ∈ V .
(i) Como
hT (1, 2), (−1, 1)i = h(3, 1), (−1, 1)i = −2,
h(1, 2), T (−1, 1)i = h(1, 2), (0, −1)i = −2,
segue que T é autoadjunto.

(ii) Como
hS(1, 2), (−1, 1)i = h(−1, 4), (−1, 1)i = 5
e
h(1, 2), S(−1, 1)i = h(1, 2), (−4, 1)i = −2
segue que S não é autoadjunto.

Na sequência veremos algumas propriedades de operadores adjuntos em um espaço vetorial


complexo.

Proposição 5.3.8 Sejam V um C-espaço vetorial com produto interno e T : V → V um operador


linear. São equivalentes:

(i) T = 0;

(ii) hT (u), ui = 0 para todo u ∈ V ;


5.3 Operadores autoadjuntos 119

(iii) hT (u), vi = 0 para todos u, v ∈ V .

Demonstração. [(i) ⇒ (ii)] Imediado.


[(ii) ⇒ (iii)] Sejam u, v ∈ V . Quaisquer que sejam α, β ∈ C, tomando w = αu + β v, temos

0 = hT (w), wi = hT (αu + β v), αu + β vi = hαT (u) + β T (v), αu + β vi

= ααhT (u), ui + αβ hT (u), vi + β αhT (v), ui + β β hT (v), vi


= αβ hT (u), vi + β αhT (v), ui.
Em particular, a igualdade
αβ hT (u), vi + β αhT (v), ui = 0
é valida para α = β = 1 e para α = i e β = 1, ou seja,

hT (u), vi + hT (v), ui = 0
.
ihT (u), vi − ihT (v), ui = 0
Resolvendo o sistema acima concluímos que hT (u), vi = 0 (verifique).
[(iii) ⇒ (i)] Temos que hT (u), vi = 0, para todos u, v ∈ V . Em particular, para v = T (u),

hT (u), T (u)i = 0 ⇒ T (u) = 0

para todo u ∈ V , ou seja, T = 0. 

Observação 5.3.9 A Proposição 5.3.8 não é verdadeira se V for um R-espaço vetorial. Veja o
exemplo a seguir.

 Exemplo 5.3.10 Considere o operador linear T : R2 → R2 definido por T (x, y) = (−y, x). Claramente
T 6= 0. Mas,

hT (x, y), (x, y)i = h(−y, x), (x, y)i = −yx + xy = 0 para todo (x, y) ∈ R2 .

Proposição 5.3.11 Seja V um K-espaço vetorial com produto interno e T : V → V um operador


autoadjunto. Se hT (v), vi = 0 para todo v ∈ V , então T = 0.

Demonstração. O caso K = C segue da Proposição 5.3.8 (mesmo que T não seja autoadjunto). Suponha
K = R. Então, como T = T ∗ , para todos u, v ∈ V temos

hT (u), vi = hu, T (v)i = hT (v), ui.

Daí, não é difícil verificar que

hT (u + v), u + vi − hT (u − v), u − vi = 4hT (u), vi.

Assim, para todos u, v ∈ V ,


1 1
hT (u), vi = hT (u + v), u + vi − hT (u − v), u − vi = 0 − 0 = 0.
4 4
Tomando v = T (u), obtemos hT (u), T (u)i = 0 donde segue que T (u) = 0 para todo u ∈ V . 
120 Capítulo 5. Transformações lineares entre espaços com produto interno

Proposição 5.3.12 Seja V um C-espaço vetorial com produto interno e T : V → V um operador


linear que admite adjunto. Então, T é autoajunto se, e somente se, hT (v), vi ∈ R para todo v ∈ V .

Demonstração. (⇒) Seja v ∈ V . Como T é autoadjunto temos

hT (v), vi = hv, T (v)i = hT (v), vi ⇒ hT (v), vi ∈ R.

(⇐) Note que,


hv, T ∗ (v)i = hT (v), vi = hv, T (v)i,
ou seja, hv, T ∗ (v) − T (v)i = hv, (T ∗ − T )(v)i = 0 para todo v ∈ V . Segue da Proposição 5.3.8 que
T ∗ − T = 0. Portanto, T é autoadjunto. 

O resultado a seguir estabelece uma propriedades importantes sobre os autovalores e autovetores de


operadores autoadjuntos.

Proposição 5.3.13 Sejam V um K-espaço vetorial com produto interno e T : V → V um operador


linear autoadjunto.

(i) Se λ ∈ K é um autovalor de T , então λ ∈ R.

(ii) Se v1 , v2 ∈ V são autovetores de T associados à autovalores distintos, então v1 e v2 são


ortogonais.

Demonstração. (i) Seja v ∈ V um autovetor de T associado à λ . Então, como T é autoadjunto,

λ hv, vi = hλ v, vi = hT (v), vi = hv, T (v)i = hv, λ vi = λ hv, vi ⇒ (λ − λ )hv, vi = 0.

Como v 6= 0, segue que λ = λ , ou seja, λ ∈ R.

(ii) Sejam v1 , v2 ∈ V autovetores de T associados aos autovalores λ1 e λ2 , respectivamente, com


λ1 6= λ2 . Então, como T é autoadjunto,

λ1 hv1 , v2 i = hλ1 v1 , v2 i = hT (v1 ), v2 i = hv1 , T (v2 )i = hv1 , λ2 v2 i = λ2 hv1 , v2 i

ou seja,
(λ1 − λ2 )hv1 , v2 i = 0.
Como λ1 6= λ2 , segue que hv1 , v2 i = 0.


5.4 Diagonalização de operadores autoadjuntos


Na Seção 4.5 estudamos as condições que garantem que um operador linear seja diagonalizável.
Nesta seção, veremos que todos os operadores autoadjuntos são diagonalizáveis, e, mais ainda, que
existe uma base ortonormal de autovetores. Como consequência, seguirá que todas as matrizes reais
simétricas ou matrizes complexas hermitianas são diagonalizáveis, fato esse que é essencial em muitas
aplicações.
5.4 Diagonalização de operadores autoadjuntos 121

Proposição 5.4.1 Seja V um K-espaço vetorial com produto interno e dimensão finita n ≥ 1. Se
T : V → V é um operador linear autoadjunto, então, T possui autovetor.

Demonstração. Se K = C, então o polinômio característico pT (x) possui raiz (pois C é algebricamente


fechado), ou seja, T possui autovalor, donde segue que existe autovetor.
Suponha K = R. Sejam B = {v1 , . . . , vn } uma base ortonormal de V e A = [T ]B ∈ Mn (R). Como
T = T ∗ , a matriz A é simétrica. Considere o C-espaço Cn com produto interno usual. Sejam C a base
canônica de Cn e S : Cn → Cn o operador linear definido por S(v) = Av para todo v ∈ Cn (visto como
>
vetor coluna). Note que [S]C = A. Como A é real e simétrica, [S∗ ]C = A = A. Ou seja, S também é um
operador autoadjunto. Mas S está definido em um espaço vetorial sobre C, logo pS (x) possui raiz, que
é autovalor de S. Decorre da Proposição 5.3.13 que os autovalores de S são todos reais. Note que,

pS (x) = det([S]C − xIn ) = det(A − xIn ) = pT (x),

ou seja, as raízes do polinômio característico de T são todas reais. Logo, T possui autovalor, e portanto
possui autovetor. 

Definição 5.4.2 Um operador linear T : V → V é dito ortogonalmente diagonalizável se V possui


uma base ortonormal formada por autovetores de T .

O próximo resultado garante que todo operador autoadjunto é ortogonalmente diagonalizável.

Proposição 5.4.3 Sejam V um K-espaço vetorial de dimensão finita n ≥ 1 e T : V → V um operador


linear. Se T é autoadjunto, então V possui uma base ortonormal formada por autovetores de T .

Demonstração. Pela Proposição 5.4.1 existe v1 ∈ V \ {0} autovetor de T . Faremos a prova por indução
sobre n.
 
v1
Se n = 1, então é uma base ortonormal de V formada por autovetores de T .
||v1 ||
Suponha n > 1 e o resultado válido para n − 1. Sejam W = [v1 ] e λ1 ∈ K tal que T (v1 ) = λ1 v1 . Dado
u ∈ W ⊥ , como T ∗ = T , temos

hv1 , T (u)i = hv1 , T ∗ (u)i = hT (v1 ), ui = hλ1 v1 , ui = λ1 hv1 , ui = 0.

Portanto, T (u) ∈ W ⊥ . Assim, a restrição T |W ⊥ : W ⊥ → W ⊥ é um operador linear em W ⊥ . Como


V = W ⊕W ⊥ , segue que dimW ⊥ = n−1, e pela hipótese  de indução, existe  base {v2 , . . . , vn } ortonormal
v1
de W ⊥ formada por autovetores de T . Por fim, B = , v2 , . . . , vn é uma base ortonormal de V
||v1 ||
formada por autovetores de T . 

O teorema a seguir determina que a condição de ser autoajunto é necessária e suficiente para que
um operador linear sobre um espaço vetorial real seja ortogonalmente diagonalizável.

Teorema 5.4.4 — Espectral Real. Sejam V um R-espaço vetorial de dimensão finita n ≥ 1 e


T : V → V um operador linear. Então, T é autoadjunto se, e somente se, V possui uma base
ortonormal formada por autovetores de T .

Demonstração. (⇒) Segue da Proposição 5.4.3.


122 Capítulo 5. Transformações lineares entre espaços com produto interno

(⇐) Seja B = {v1 , . . . , vn } uma base ortonormal de V formada por autovetores de T . Se λi é o autovalor
de T associado ao autovetor vi , então
 
λ1 0 · · · 0
 0 λ2 · · · 0 
[T ]B =  . ..  .
 
.. . .
 .. . . .
0 0 ··· λn

Como [T ]B é simétrica e B é ortonormal, segue que T é autoadjunto. 

 Exemplo 5.4.5 Considere R4 com o produto interno usual. Seja T : R4 → R4 uma transformação
linear tal que ker T = [(2, 1, 1, 0), (1, −1, −1, 0)], (0, 3, −3, 0) ∈ ker(T − I) e 2 é um autovalor de T
associado ao autovetor (0, 0, 0, 2). Mostre que T é autoadjunto.
Prova. Como ker T = [(2, 1, 1, 0), (1, −1, −1, 0)] segue que λ = 0 é autovalor de T e mg (0) = 2.
Como (0, 3, −3, 0) ∈ ker(T − I), segue que λ = 1 é um autovalor de T e (0, 3, −3, 0) é um au-
tovetor associado. Além disso, λ = 2 é autovalor associado ao autovetor (0, 0, 0, 2). Note que
B = {(2, 1, 1, 0), (1, −1, −1, 0), (0, 3, −3, 0), (0, 0, 0, 2)} é um conjunto ortogonal (e portanto LI) em
R4 . Logo, existe uma base ortonormal para R4 formada por autovetores de T (basta normalizar os
vetores de B). Portanto, T é autoadjunto. 

Corolário 5.4.6 — Decomposição Espectral Real. Dada A ∈ Mn (R) uma matriz simétrica, exis-
tem matrizes Q, Λ ∈ Mn (R) com Q ortogonal, formada pelos autovetores ortonormais de A, e Λ
diagonal, formada pelos autovalores de A, tais que A = QΛQ> .

Demonstração. Sejam C a base canônica de Rn e T : Rn → Rn o operador linear tal que [T ]C = A.


Como C é ortonormal e A é simétrica, segue que T é autoadjunto. Logo, existe B = {v1 , . . . , vn } base
ortonormal de Rn formada por autovetores de T . Considere λi ∈ R, i = 1, . . . , n, o autovetor de T
associado a vi . Defina
 
  λ1 0 · · · 0
| | |  0 λ2 · · · 0 
Q = v1 v2 · · · vn  ∈ Mn (R) e Λ =  . ..  ∈ Mn (R).
 
.. . .
 .. . . .
| | |
0 0 · · · λn

Pela Proposição 3.2.20, a matriz Q é ortogonal, isto é, Q> = Q−1 . Agora,


   
| | | | | |
AQ = Av1 Av2 · · · Avn  = λ1 v1 λ2 v2 · · · λn vn 
| | | | | |
 
  λ1 0 · · · 0
| | |  0 λ ··· 0
2
= v1 v2 · · · vn   . ..  = QΛ,
 
 .. . .
 .. . . .
| | |
0 0 ··· λn
ou seja, A = QΛQ> . 
5.5 Operadores normais e diagonalização 123

Observação 5.4.7 Se A = QΛQ> , então

A = QΛQ> = λ1 v1 v> > >


1 + λ2 v2 v2 + · · · + λn vn vn .

Ou seja, podemos decompor A em termos de seu espectro (conjunto de autovalores).

 Exemplo 5.4.8 Seja T : R2 → R2 dada por T (x, y) = (3x + y, x + 3y). Verifique se existe uma base
de R2 formada por autovetores ortonormais de T . Se existir, encontre a decomposição espectral da
matriz de T em relação à base canônica.
Solução. Seja B = {(1, 0), (0, 1)} a base canônica de R2 . Como T (1, 0) = (3, 1) e T (0, 1) = (1, 3),
segue que  
3 1
[T ]B = .
1 3
Como B é ortonormal e [T ]B é simétrica, T é autoadjunto. Logo, existe uma base ortonormal de R2
formada por autovetores de T . Vamos calcular os autovalores e autovetores de T . Temos
 
3−x 1
pT (x) = det = (3 − x)2 − 1 = x2 − 6x + 8 = (x − 2)(x − 4)
1 3−x

ou seja, λ1 = 2 e λ2 = 4 são os autovalores de T .


Seja v1 = (a, b) um autovetor de T associado à λ1 = 2. Então,
  
1 1 a
= 0 ⇔ v1 ∈ [(1, −1)] ,
1 1 b

ou seja, AutT (2) = [(1, −1)].


Seja v2 = (a, b) autovetor de T associado à λ2 = 4, então
  
−1 1 a
= 0 ⇔ v2 ∈ [(1, 1)]
1 −1 b

ou seja, AutT (4) = [(1, 1)].


n √ √   √ √ o
2 2
Como esperado, v1 e v2 são ortogonais. Normalizando v1 e v2 , obtemos C = 2 ,− 2 , 22 , 22
base ortonormal de R2 formada por autovetores de T . Além disso,
" √ √ #  " √2 √ #
2 2 2
2√ √2
2 0 √2
−√2
[T ]B =
− 2 2
2
0 4
2
2 2
2 2

é a decomposição espectral de [T ]B . 

5.5 Operadores normais e diagonalização


Dando continuidade à identificação de operadores diagonalizáveis, nessa seção veremos que todos
os operadores normais são diagonalizáveis em espaços complexos.
Definição 5.5.1 Um operador linear T : V → V num K-espaço V com produto interno é dito normal
se existir o operador adjunto T ∗ e, além disso, T ◦ T ∗ = T ∗ ◦ T .
> >
Uma matriz A ∈ Mn (K) é chamada de normal se AA = A A.
124 Capítulo 5. Transformações lineares entre espaços com produto interno

Observação 5.5.2 (i) Todo operador autoadjunto (e toda matriz hermitiana) é normal.

(ii) Se V tem dimensão finita, segue da Proposição 5.2.9 que T : V → V é um operador normal se,
e somente se, dada uma base B ortonormal de V , a matriz [T ]B é normal.

2 2 2
 Exemplo  Seja C a base canônica de C . Verifique se o operador linear T : C → C tal que
 5.5.3
2 −1
[T ]C = é normal.
1 2
Solução. Note que
    
> 2 −1 2 1 5 0
[T ◦ T ∗ ]C = [T ]C [T ∗ ]C = [T ]C [T ]C = =
1 2 −1 2 0 5
e     
∗ ∗ > 2 1 2 −1 5 0
[T ◦ T ]C = [T ]C [T ]C = [T ]C [T ]C = = .
−1 2 1 2 0 5
Logo, T é normal. 

O resultado a seguir justifica o porquê do nome “normal” e fornece mais um critério para a
verificação dessa condição.

Proposição 5.5.4 Seja T : V → V um operador linear em um espaço com produto interno. Então,
T é um operador normal se, e somente se, ||T (v)|| = ||T ∗ (v)|| para todo v ∈ V .

Demonstração. (⇒) Suponha que T é normal. Dado v ∈ V , temos

||T (v)||2 = hT (v), T (v)i = hv, T ∗ ◦ T (v)i = hv, T ◦ T ∗ (v)i = hT ◦ T ∗ (v), vi.

Como hT (v), T (v)i ∈ R (mesmo que K = C), segue que

hT ◦ T ∗ (v), vi = hT ◦ T ∗ (v), vi = hT ∗ (v), T ∗ (v)i = ||T ∗ (v)||2 .

Portanto, ||T (v)|| = ||T ∗ (v)||.


(⇐) Dado v ∈ V , temos

||T (v)|| = ||T ∗ (v)|| ⇒ hT (v), T (v)i = hT ∗ (v), T ∗ (v)i


⇒ hv, T ∗ ◦ T (v)i = hv, T ◦ T ∗ (v)i
⇒ hv, (T ∗ ◦ T − T ◦ T ∗ )(v)i = 0, ∀v ∈ V.

Note que o operador T ∗ ◦ T − T ◦ T ∗ é autoajunto, logo, pela Proposição 5.3.11, T ∗ ◦ T = T ◦ T ∗ .


Portanto, T é um operador normal. 

O próximo resultado apresenta algumas propriedades dos autovalores e autovetores de um operador


normal.

Proposição 5.5.5 Sejam V um K-espaço vetorial com produto interno e T : V → V um operador


normal.

(i) Se T (v) = λ v, com λ ∈ K e v 6= 0, então T ∗ (v) = λ v.

(ii) Se T (v1 ) = λ1 v1 e T (v2 ) = λ2 v2 , com v1 , v2 6= 0 e λ1 6= λ2 (λ1 , λ2 ∈ K), então v1 ⊥ v2 .


5.5 Operadores normais e diagonalização 125

Demonstração. (i) Mostremos que T − λ Id também é normal. Temos,

(T − λ Id) ◦ (T − λ Id)∗ = (T − λ Id) ◦ (T ∗ − λ Id) = T ◦ T ∗ − λ T − λ T ∗ + λ λ Id,

e, por outro lado,


(T − λ Id)∗ ◦ (T − λ Id) = T ∗ ◦ T − λ T ∗ − λ T + λ λ Id .

Como T é normal e λ λ = λ λ , segue que

(T − λ Id) ◦ (T − λ Id)∗ = (T − λ Id)∗ ◦ (T − λ Id).

Assim, pela Proposição 5.5.5,

0 = ||(T − λ Id)(v)|| = ||(T − λ Id)∗ (v)|| = ||(T ∗ − λ Id)(v)||

ou seja, (T ∗ − λ Id)(v) = 0, logo T ∗ (v) = λ v.


(ii) Sejam λ1 6= λ2 autovalores de T associados aos autovetores v1 e v2 , respectivamente. Então,

λ1 hv1 , v2 i = hλ1 v1 , v2 i = hT (v1 ), v2 i = hv1 , T ∗ (v2 )i = hv1 , λ2 v2 i = λ2 hv1 , v2 i

isto é, (λ1 − λ2 )hv1 , v2 i = 0. Como λ1 6= λ2 , segue que hv1 , v2 i = 0. 

Teorema 5.5.6 — Espectral Complexo. Sejam V um C-espaço vetorial de dimensão finita n ≥ 1


e T : V → V um operador linear. Então, T é normal se, e somente se, V possui uma base ortonormal
formada por autovetores de T .

Demonstração. (⇒) O polinômio característico pT (x) possui raiz (pois C é algebricamente fechado),
ou seja, T possui autovalor, donde segue que existe v1 ∈ V \ {0} autovetor de T . Faremos a prova por
indução sobre n.
 
v1
Se n = 1, então é uma base ortonormal de V formada por autovetores de T .
||v1 ||
Suponha n > 1 e o resultado válido para n − 1. Sejam W = [v1 ] e λ1 ∈ K tal que T (v1 ) = λ1 v1 . Como
T é normal, pela Proposição 5.5.5, T ∗ (v1 ) = λ1 v1 . Assim, dado u ∈ W ⊥ , temos

hT (u), v1 i = hu, T ∗ (v1 )i = hu, λ1 v1 i = λ1 hu, v1 i = 0.

Portanto, T (u) ∈ W ⊥ . Logo, a restrição T |W ⊥ : W ⊥ → W ⊥ é um operador linear em W ⊥ . Como


V = W ⊕W ⊥ , segue que dimW ⊥ = n−1, e pela hipótese  de indução, existe  base {v2 , . . . , vn } ortonormal
v1
de W ⊥ formada por autovetores de T . Por fim, B = , v2 , . . . , vn é uma base ortonormal de V
||v1 ||
formada por autovetores de T .
(⇐) Seja B = {v1 , . . . , vn } uma base ortonormal de V formada por autovetores de T . Se λi é o autovalor
de T associado ao autovetor vi , então
   
λ1 0 · · · 0 λ1 0 · · · 0
 0 λ2 · · · 0 >  0 λ2 · · · 0
 

[T ]B =  . ..  ⇒ [T ]B = [T ]B =  .. ..  .
 
.. . . .. . .
 .. . . . . . . .
0 0 ··· λn 0 0 ··· λn
126 Capítulo 5. Transformações lineares entre espaços com produto interno

Logo,  
λ1 λ1 0 ··· 0
 0 λ2 λ2 · · · 0 
[T ◦ T ∗ ]B = [T ]B [T ∗ ]B =  .  = [T ∗ ]B [T ]B = [T ∗ ◦ T ]B .
 
. .. .. ..
 . . . . 
0 0 ··· λn λn
Portanto, T ◦T∗ = T∗ ◦T, ou seja, T é normal. 

Corolário 5.5.7 — Decomposição Espectral Complexa. Se N ∈ Mn (C) é uma matriz normal,


então existem matrizes U, Λ ∈ Mn (C), com U unitária, formada pelos autovetores de N, e Λ diagonal,
>
formada pelos autovalores de N, tais que N = UΛU .
 
1 2 0
 Exemplo 5.5.8 Determine a decomposição espectral da matriz A = 0 1 2.
2 0 1
Solução. Note que a matriz A é normal, pois
    
1 2 0 1 0 2 5 2 2
AA> = 0 1 2 2 1 0 = 2 5 2
2 0 1 0 2 1 2 2 5
e     
1 0 2 1 2 0 5 2 2
A> A = 2 1 0 0 1 2 = 2 5 2 .
0 2 1 2 0 1 2 2 5
Logo, existe uma base de C3 formada por autovetores ortonormais de A.

(i) Autovalores de A:
 
1−x 2 0 √ √
pA (x) = det  0 1−x 2  = (1−x)3 +8 = (x−3)(−x2 −3) = −(x−3)(x− 3i)(x+ 3i).
2 0 1−x
√ √
Ou seja, λ1 = 3, λ2 = 3i e λ3 = 0 3i são autovalores de A.

(ii) Autovetores de A:

λ1 = 3: se v = (a, b, c) ∈ C3 é autovetor de A associado à λ1 = 3, então


  
−2 2 0 a
 0 −2 2  b = 0 ⇒ a = b = c,
2 0 −2 c

ou seja, v = a(1, 1, 1). Logo, AutA (3) = [(1, 1, 1)].


√ √
λ2 = 3i: se v = (a, b, c) ∈ C3 é autovetor de A associado à λ2 = 3i, então
 √  √
1 − 3i 2√ 0 (
b = 21 (−1 + 3i)a
 0 1 − 3i 2√  = 0 ⇒ √ 2 √ ,
1 1
2 0 1 − 3i c = 4 (−1 + 3i) a = 2 (−1 − 3i)a

a √ √ √ √ √
ou seja, v = (−2, 1 − 3i, 1 + 3i). Logo, AutA ( 3i) = [(−2, 1 − 3i, 1 + 3i)].
2
5.5 Operadores normais e diagonalização 127
√ √
λ3 = − 3i: se v = (a, b, c) ∈ C3 é autovetor de A associado à λ3 = − 3i, então
 √  √
1 + 3i 2√ 0 (
b = − 21 (1 + 3i)a
 0 1 + 3i 2√  = 0 ⇒ √ 2 √ ,
1 1
2 0 1 + 3i c = − 4 (1 + 3i) a = − 2 (1 − 3i)a

a √ √ √ √ √
ou seja, v = − (−2, 1 + 3i, 1 − 3i). Logo, AutA (− 3i) = [(−2, 1 + 3i, 1 − 3i)].
2

Como esperado, os autovetores associados a autovalores distintos são ortogonais. Para montar a matriz
U basta normalizá-los. Assim,
   
2 −2
√ −2√ 3 √0 0 2 2√ 2

> 1 
A = UΛU = 2 1 − √3i 1 + √3i 0 3i 0  −2 1 + √3i 1 − √3i .

12
2 1 + 3i 1 − 3i 0 0 − 3i −2 1 − 3i 1 + 3i

Capítulo 6

Formas quadráticas e aplicações

Em Geometria Analítica são estudadas as cônicas, que são curvas planas, descritas por equações
polinomiais de grau 2 em 2 variáveis. Por exemplo, dados a, b ∈ R \ {0}, a equação

x 2 y2
+ =1
a2 b2

descreve uma elipse em R2 . Esse tipo de equação, onde não aparecem termos “mistos” xy, é simples de
reconhecer e esboçar. No entanto, no caso geral, essa tarefa não é tão simples, e faz-se necessário uma
“mudança de coordenadas” adequada. Veja a Figura 6.1.

x2 y2 x02 y02
(a) + =1 (b) + =1
a2 b2 a2 b2
Figura 6.1: Elipses em R2

A elipse na Figura 6.1(b) teria uma equação bem mais complicada nas variáveis x e y, onde não seria
possível visualizar rapidamente qual seria a cônica representada.
Neste capítulo, veremos como utilizar as ferramentas de Álgebra Linear vistas anteriormente para
simplificar equações e facilitar o reconhecimento de cônicas (R2 ) e quádricas (R3 ). Faremos mais
detalhadamente do caso das quádricas, mas as mesmas ideias se aplicarão no caso de cônicas.
A discussão apresentada nesse capítulo foi motivada pelos livros [Coe], [Lar] e [Lay].

6.1 Formas quadráticas


Uma função quadrática em R2 é uma função cuja expressão se trata de um polinômio de grau
2 (quadrática) em 2 variáveis (por ser definida em R2 ), ou seja, é uma função p : R2 → R dada por
130 Capítulo 6. Formas quadráticas e aplicações

p(x1 , x2 ) = ax12 + bx22 + cx1 x2 + dx1 + ex2 + f , com a, b, c, d, e, f ∈ R. Ou ainda, na forma matricial,
podemos escrever
    
  a c/2 x1   x1
p(x1 , x2 ) = x1 x2 + d e + f.
c/2 b x2 x2

A parte com os termos de grau 2 de p(x1 , x2 ):


  
 a c/2 x1
= ax12 + bx22 + cx1 x2 ,

x1 x2
c/2 b x2

é a parte quadrática de p, e define o que chamamos de forma quadrática, neste caso em R2 . Essa
definição será generalizada a seguir.
n n >
 Uma forma quadrática em R é uma função q : R → R definida por q(x) = x Ax,
Definição 6.1.1
x1
 .. 
em que x =  .  ∈ Rn e A ∈ Mn (R) é uma matriz simétrica. A matriz A que define a forma
xn
quadrática é chamada de matriz da forma quadrática.
 
1 −2
 Exemplo 6.1.2 Calcule a expressão da forma quadrática definida a partir da matriz A = .
−2 3
 
x
Solução. Seja x = 1 , então
x2
  
 1 −2 x1
q(x1 , x2 ) = x> Ax = x1 x2 = x12 − 4x1 x2 + 3x22 .

−2 3 x2


 Exemplo 6.1.3 Encontre a matriz da forma quadrática q(x1 , x2 , x3 ) = 3x12 + 2x22 + x32 − x1 x2 + 6x2 x3 .
Solução. Note que,
  
3 −1/2 0 x1
q(x1 , x2 , x3 ) = 3x12 + 2x22 + x32 − x1 x2 + 6x2 x3 = x1 x2 x3 −1/2
 
2 3 x2  .
0 3 1 x3
 
3 −1/2 0
Logo, a matriz da forma quadrática é A = −1/2 2 3. 

0 3 1

Observação 6.1.4 (i) Se a matriz A é diagonal, a forma quadrática q(x) = x> Ax não contém
termos mistos (xi x j com i 6= j).
(ii) Dada uma função polinomial p(x1 , . . . , xn ) nas variáveis x1 , . . . , xn , que só contem termos
 de
x1
grau 2, existe única matriz A ∈ Mn (R) simétrica tal que p(x1 , . . . , xn ) = x1 · · · xn A  ... .
   

xn

(iii) É possível definir forma quadrática q(x) = x> Ax para uma matriz A ∈ Mn (R) qualquer. Porém,
neste caso, a matriz A da representação de q(x) = x> Ax não é única. Consideraremos apenas
6.2 Quádricas 131

matrizes simétricas, em razão também da Decomposição Espectral, que terá papel importante.

Mudança de variável
Se x ∈ Rn representa um vetor de variáveis em Rn , uma mudança de variável ou mudança de
coordenadas é uma mudança da forma x = Qy (ou y = Q−1 x) em que Q é uma matriz não singular.
Nesse caso, y ∈ Rn são as coordenadas do vetor x em relação à base de Rn definida pelas colunas de Q.
Substituindo a mudança na forma quadrática:

q(x) = x> Ax = (Qy)> A(Qy) = y> (Q> AQ)y = q̃(y)

e a matriz da “nova” forma quadrática, isto é, da forma quadrática na nova variável y, é Ã = Q> AQ.
Como a matriz A que define a forma quadrática é simétrica, segue da Decomposição Espectral que
existe uma matriz Q ortogonal tal que A = QΛQ> , ou seja, Q> AQ = Λ. Assim, ao fazer a mudança
x = Qy, é possível eliminar os termos mistos da equação da forma quadrática, pois q̃(y) = y> Λy com Λ
diagonal.
Definição 6.1.5 Uma forma
 quadrática diagonal em Rn é uma função q : Rn → R definida por
x1
 .. 
q(x) = x> Ax, em que x =  .  ∈ Rn e A ∈ Mn (R) é uma matriz diagonal.
xn

Exemplo 6.1.6 Determine uma mudança de variável por uma matriz ortogonal que reduz a forma
quadrática q(x1 , x2 ) = 2x12 + 4x1 x2 + 5x22 em uma forma diagonal.
Solução. Temos que determinar uma matriz ortogonal Q para a mudança de variável x = Qy que
transforme a matriz A da forma quadrática q em uma matriz diagonal. Como A é uma matriz simétrica,
basta encontrar os autovalores e autovetores ortonormais de A.
 
2 2
Note que A = , seus autovalores são λ1 = 1 e λ2 = 6 e AutA (1) = [(2, −1)] e AutA (6) = [(1, 2)]
2 5
(verifique). Os autovetores associados aos dois autovalores distintos já são automaticamente ortogonais
(pois A é simétrica), então basta normalizar os autovetores para obter a matriz Q da Decomposição
Espectral de A: temos A = QΛQ> , em que
   
1 2 1 1 0
Q= √ e Λ= .
5 −1 2 0 6

Com a mudança de variável y = Q> x, obtemos q̃(y1 , y2 ) = y21 + 6y22 . 

6.2 Quádricas
Definição 6.2.1 Uma quádrica em R3 é uma superfície formada pelos (x, y, z) ∈ R3 que satisfazem
uma equação da forma

ax2 + by2 + cz2 + 2dxy + 2exz + 2 f yz + rx + sy + tz + k = 0

com a, b, c, d, e, f , r, s,t, k ∈ R e a2 + b2 + c2 6= 0.

A seguir, apresentamos as possíveis superfícies quádricas e suas equações na forma reduzida.


Iniciamos com os casos chamados de não degenerados.
132 Capítulo 6. Formas quadráticas e aplicações

Elipsoide
Quádrica de equação
x 2 y2 z2
+ + = 1,
a2 b2 c2
com a, b, c ∈ R \ {0}. Se a = b = c, o elipsóide é uma esfera.

Figura 6.2: Elipsoide

As interseções dessa superfície com os planos x = k, y = k ou z = k são elipses se |k| < a, |k| < b ou
|k| < c, respectivamente.

Hiperboloide
Quádrica de equação
x2 y2 z2
+ − = d,
a2 b2 c2
com a, b, c, d ∈ R \ {0}. O caso d > 0 representa um hiperboloide de uma folha e o caso d < 0 um
hiperboloide de duas folhas. Veja a Figura 6.3.

(a) Hiperboloide de uma folha. (b) Hiperboloide de duas folhas.

Figura 6.3: Hiperboloide

Se d > 0, as interseções desse hiperboloide de uma folha com os planos x = k ou y = k são hipérboles
e com os planos z = k são elipses.
Se d < 0, as interseções desse hiperboloide de duas
p folhas com ospplanos x = k ou y = k são hipér-
boles, e com os planos z = k são elipses se k > |d|c 2 ou k < − |d|c2 ou um conjunto vazio se
p p
− |d|c2 < k < |d|c2 .

Cone
Quádrica de equação
x 2 y2 z2
+ − = 0,
a2 b2 c2
6.2 Quádricas 133

com a, b, c ∈ R \ {0}.

Figura 6.4: Cone

As interseções dessa superfície com os planos x = k ou y = k são hipérboles se k 6= 0 ou um par de


retas paralelas se k = 0. As interseções com os planos z = k são elipses se k 6= 0 ou apenas um ponto se
k = 0.

Paraboloide
Sejam com a, b, c ∈ R \ {0}. A equação
x 2 y2 z
+ =
a2 b2 c
representa um paraboloide elíptico, e a equação
x 2 y2 z
2
− 2=
a b c
representa um paraboloide hiperbólico (ou sela). Veja a Figura 6.5.

(a) Paraboloide elíptico (b) Paraboloide hiperbólico

Figura 6.5: Paraboloides

As interseções do paraboloide elíptico com os planos x = k ou y = k são parábolas e com os planos


z = k são elipses se kc > 0 ou um conjunto vazio se kc < 0.
As interseções do paraboloide hiperbólico com os planos x = k ou y = k são parábolas e as interseções
com os planos z = k são hipérboles se k 6= 0 ou um par de retas concorrentes se k = 0.

Os próximos casos são chamados de degenerados.

Cilindros
Sejam com a, b, c ∈ R \ {0}. A quádrica de equação
x 2 y2
− =c
a2 b2
134 Capítulo 6. Formas quadráticas e aplicações

representa um cilindro hiperbólico, a equação


x 2 y2
+ = c, c > 0
a2 b2
um cilindro elíptico e a equação
ax2 = by
um cilindro parabólico. Veja a Figura 6.6.

(a) Cilindro hiperbólico (b) Cilindro elíptico

(c) Cilindro parabólico

Figura 6.6: Cilindros

Outos casos degenerados


Também podem ocorrer como quádricas: um par de planos (concorrentes ou paralelos), um plano, uma
reta, um ponto ou um conjunto vazio. Por exemplo:
x2 + y2 + z2 = 0 (um ponto); x 2 + y2 = 0 (uma reta); x2 = 0 (um plano);
x2 − y2 = 0 (um par de planos concorrentes); x2 = 1 (um par de planos paralelos);
2 2 2
x + y + z = −1 (conjunto vazio).

6.3 Reconhecimento de quádricas


Apresentaremos agora as ideias que serão utilizadas para reconhecer uma quádrica dada na sua
forma geral
ax2 + by2 + cz2 + 2dxy + 2exz + 2 f yz + rx + sy + tz + k = 0, (6.1)
com a, b, c, d, e, f , r, s,t, k ∈ R e a2 + b2 + c2 6= 0.
Primeiro, consideramos a forma quadrática em R3 definida pelos termos de grau 2 em (6.1):
  
a d e x
2 2 2
 
q(x, y, z) = ax + by + cz + 2dxy + 2exz + 2 f yz = x y z d b f
   y . (6.2)
e f c z
6.3 Reconhecimento de quádricas 135
 
a d e
Como A = d b f  ∈ M3 (R) é simétrica, existem Q, Λ ∈ M3 (R), Q ortogonal, Λ diagonal tais que
e f c
Λ = Q AQ. Assim, se v = (x, y, z)> ∈ R3 e v0 = (x0 , y0 , z0 )> = Q> v ⇔ v = Qv0 , temos
>

> >
q(v) = v> Av = (Qv0 )> A(Qv0 ) = v0 (Q> AQ)v0 = v0 Λv0 = q̃(v0 ), (6.3)
onde q̃(v0 ) é uma forma diagonal, ou seja, não contém termos mistos.
Note que, se C = {e1 , e2 , e3 } é a base canônica de R3 e B = {v1 , v2 , v3 } é uma base ortonomal de
autovetores de A, com Av j = λ j v j , então tomando Q a matriz cuja j-ésima coluna é v j , temos
v = (x, y, z) = [v]C , v0 = (x0 , y0 , z0 ) = [v]B , Q = MBC , Λ = diag(λ1 , λ2 , λ3 ).
Ou seja, em (6.3) estamos reescrevendo (6.2), dada em termos das coordenadas em relação à base
canônica, para
q̃(x0 , y0 , z0 ) = λ1 (x0 )2 + λ2 (y0 )2 + λ3 (z0 )2
em termos das coordenadas em relação à base ortonormal B. Geometricamente, ambas as equações
q(x, y, z) = 0 e q̃(x0 , y0 , z0 ) = 0 representam o mesmo lugar geométrico, porém a primeira está descrita
no sistema de coordenadas (O, e1 , e2 , e3 ) e a segunda no sistema de coordenadas (O, v1 , v2 , v3 ).
Após realizar a mudança de coordenadas v = Qv0 em (6.2) para eliminar os termos mistos, precisamos
fazer a mesma mudança nos termos de grau 1 (parte linear) de (6.1) para obter a nova equação para a
quádrica dada toda em termos de x0 , y0 , z0 :
λ1 (x0 )2 + λ2 (y0 )2 + λ3 (z0 )2 + r0 x0 + s0 y0 + t 0 z0 + k = 0. (6.4)
Por fim, completamos os quadrados (6.4), a fim de obter uma equação na forma reduzida, como as
descritas na Seção 6.2. Daí, faremos uma nova mudança da forma
x00 = x0 − α, y00 = y0 − β , z00 = z0 − γ,
que geometricamente corresponde a uma translação da origem de O = (0, 0, 0) para O0 = (α, β , γ) no
sistema de coordenadas.
 Exemplo 6.3.1 Classifique a quádrica de equação
2 1 2 1
5x2 + 8y2 + 5z2 − 4xy − 8xz − 4yz + x + y + z + = 0.
3 3 3 3
Descreva quais foram as mudanças de coordenadas empregadas para simplificar sua equação e faça um
esboço da quádrica no novo sistema de coordenadas.
Solução. Iniciaremos com a parte quadrática da equação, a fim de eliminar seus termos mistos. Como
descrito anteriormente, faremos a mudança
   0
x x
v = y = Q y0  = Qv0
z z0
com Q formada pelos autovetores ortonormais da matriz da forma quadrática associada.

(i) Forma quadrática associada:


  
5 −2 −4 x
q(x, y, z) = 5x2 + 8y2 + 5z2 − 4xy − 8xz − 4yz = x y z −2 8 −2 y .
 

−4 −2 5 z
136 Capítulo 6. Formas quadráticas e aplicações

(ii) Autovalores da matriz da forma quadrática:


 
5 − x −2 −4
det  −2 8 − x −2  = (5 − x)2 (8 − x) − 16 − 16 − 16(8 − x) − 4(5 − x) − 4(5 − x)
−4 −2 5 − x

= −x3 + 18x2 − 81x = −x(x2 − 18λ + 81) = −x(x − 9)2 .

Ou seja, λ1 = 9, λ2 = 9 e λ3 = 0.

(iii) Autovetores ortonormais da matriz da forma quadrática

• λ1 = 9: se u1 = (a, b, c) é autovetor associado à λ1 = 9, então


  
−4 −2 −4 a
−2 −1 −2 b = 0 ⇒ b = −2a − 2c
−4 −2 −4 c

isto é, u1 = (a, −2a − 2b, b). Assim, podemos escolher u1 = (1, 0, −1) e u2 = (1, −2, 0), por
exemplo. Note que u1 e u2 não são ortogonais. Utilizando o processo de ortogonalização de
Gram-Schmidt obtemos:

hu1 , u2 i = 1
u1
= (1, −2, 0) − 21 (1, 0, −1) = 1 1

w2 = u2 − hu1 , u2 i 2 , −2, 2 .
||u1 ||2
• λ3 = 0: se u = (a, b, c) é autovetor associado à λ = 0, então
     
5 −2 −4 a 5 −2 −4 a
−2 8 −2 b = 0 ⇒ 0 2 −1 b = 0 ⇒ a = c = 2b
−4 −2 5 c 0 0 0 c

assim, u3 = (2, 1, 2), por exemplo.

Logo,
√ √ √ 
2/2 √2/6 2/3
1 2 1
u1 = √ (1, 0, −1) , u2 = (1, −4, 1) , u3 = (2, 1, 2) e Q =  √0 −2
√ 2/3 1/3 .

2 6 3
− 2/2 2/6 2/3

A mudança de variável v = Qv0 transforma a forma quadrática q(x, y, z) na forma diagonal 9(x0 )2 +9(y0 )2 .
Agora, precisamos efetuar a mudança na parte linear. Temos,
  √ √
2/3 x0
 
x 2/2 2/6

y  =  0 −2   0
√ √ 2/3 1/3 y0
z − 2/2 2/6 2/3 z

logo,
√ √ ! √ ! √ √ !
2 2 2 2 0 2 0 2 0 2 2 2 0 1 0 2 0 2 0 2 0
x + y + 2z = x+ y+ z + − y + z +2 − x+ y+ z
3 3 3 2 6 3 3 3 3 2 6 3

2 2 0 10 0
=− x + z.
3 9
6.3 Reconhecimento de quádricas 137

Assim, a equação da quádrica nas variáveis x0 , y0 , z0 , que corresponde ao sistema de coordenadas


(O, u1 , u2 , u3 ), torna-se √
0 2 0 2 2 2 0 10 0 1
9(x ) + 9(y ) − x + z + = 0.
3 9 3
0
Completando o quadrado em x , temos
√ !2 √ !2  
0 2 0 2 10 0 1 2 0 2 10 0 5
9 x− + 9(y ) + z + − =0 ⇔ 9 x − + 9(y0 )2 + z+ = 0.
27 9 3 81 27 9 18

Por fim, fazendo a mudança



00 2
0 5
x =x − , y00 = y0 , z00 = z0 +
,
27 18
√ !
2 5
que corresponde a translação da origem de O = (0, 0, 0) para O0 = , 0, − no sistema de
27 18
coordenadas, obtemos a equação
10 00 10
9(x00 )2 + 9(y00 )2 + z = 0 ⇔ 9(x00 )2 + 9(y00 )2 = − z00 .
9 9
Note que, as interseções dessa superfície com os planos x00 = k ou y00 = k são parábolas e com os planos
z = k são circunferências se k < 0 ou um conjunto vazio se k > 0. Logo, a quádrica é um parabolóide
elíptico. A Figura 6.7 mostra um esboço da superfície no sistema de coordenadas (O0 , u1 , u2 , u3 ).

Figura 6.7: Esboço da quádrica dada no Exemplo 6.3.1

 Exemplo 6.3.2 Classifique a quádrica de equação

x2 − y2 + z2 + 2xy − 2yz + 2xz = −1.

Solução. Iniciaremos com a parte quadrática da equação, a fim de eliminar seus termos mistos. Como
descrito anteriormente, faremos a mudança
   0
x x
v = y = Q y0  = Qv0
  
z z0

com Q formada pelos autovetores ortonormais da matriz da forma quadrática associada.


138 Capítulo 6. Formas quadráticas e aplicações

(i) Forma quadrática associada:


 
 x
q(x, y, z) = x2 − y2 + z2 + 2xy − 2yz + 2xz = x y z A y ,


z
onde  
1 1 1
A = 1 −1 −1 .
1 −1 1
(ii) Autovalores da matriz da forma quadrática:
 
1−x 1 1
det  1 −1 − x −1  = −(1 − x)2 (x + 1) + 3x − 3 = −(1 − x)[(x + 1)(1 − x) + 3]
1 −1 1−x

= −(1 − x)(−x2 + 4) = −(1 − x)(x − 2)(x + 2)


Logo, λ1 = 1, λ2 = 2 e λ3 = −2 são os autovalores de A.

Assim, se Λ = diag(1, 2, −2) e Q é a matriz cujas colunas são os autovetores ortonormais de A,


associados à 1, 2 e −2, respectivamente, temos
v> Av = −1 ⇔ v> QΛQ> v = −1 ⇔ (v0 )> Λv0 = −1.
Portanto, no novo sistema de coordenadas, a equação da quádrica será
(x0 )2 + 2(y0 )2 − 2(z0 )2 = −1.
Note que, as interseções dessa
√ com os planos x0 = k ou y0 = k são√hipérboles, √
superfície √ e com os planos
0
z = k são elipses se k > 2/2 ou k < − 2/2 ou um conjunto vazio se − 2/2 < k < 2/2. Portanto,
a quádrica representa um hiperboloide de duas folhas.

Figura 6.8: Esboço da quádrica dada no Exemplo 6.3.2


Referências Bibliográficas

[Axl] S. Axler, Linear algebra done right. 3ed., Springer, 2015.

[Coe] F. Coelho, M. Lourenço, Um curso de álgebra linear. 2ed., Edusp, 2004.

[Lar] R. Larson, D. Falvo, Elementary linear algebra. 6ed., Brooks Cole, 2008.

[Lay] D. Lay, Linear algebra and Its applications. 5ed., Pearson, 2014.

[Mey] C. Meyer, Matrix analysis and applied linear algebra. SIAM, 2010.

[Nic] W. Nicholson, Linear algebra with applications. 7ed., McGraw-Hill, 2013.

[Reg] R. Santos, Álgebra linear e aplicações. UFMG, 2013.

[Str] G. Strang, Linear algebra and Its applications. Cengage Learning, 2015.
Índice Remissivo

Ângulo entre dois vetores, 50 normado, 47


Espaços isomorfos, 79
Autoespaço, 91
Automorfismo, 79 Forma quadrática, 130
Autovalor diagonal, 131
de matriz, 101
de operador, 90 Identidades de polarização, 49
Autovetor Imagem de uma transformação linear, 75
de matriz, 101 Isometria, 107
de operador, 90 Isomorfismo, 79
entre espaços com produto interno, 105
Base, 26
Lei do paralelogramo, 49
ordenada, 36
ortogonal, 52 Método
ortonormal, 52 de Gauss, 10
de Gauss-Jordan, 10
Combinação linear, 22
de quadrados mínimos, 66
Complemento ortogonal, 60
Matriz, 3
Conjunto
antissimétrica, 20
gerador, 22
da forma quadrática, 130
linearmente dependentes, 24
de mudança de base, 37
linearmente independente, 24
de um sistema linear, 9
ortogonal, 51, 58
de uma transformação linear, 82
ortonormal, 51
diagonal, 4
Coordenadas em relação a uma base, 36
diagonalizável, 101
Desigualdade escalonada, 10
de Cauchy-Schwarz, 48 reduzida, 10
triangular, 46 hermitiana, 20
Determinante, 6 identidade, 4
Dimensão, 30 inversível, 5
Distância entre dois vetores, 50 inversa, 5
linha-equivalente, 10
Espaço mulplicação por escalar, 4
coluna, 24 não singular, 5
das transformações lineares, 73 normal, 123
Espaço vetorial, 15 ortogonal, 57
pré-Hilbert, 44 produto, 4
com produto interno, 44 quadrada, 3
finitamente gerado, 28 semelhante, 86
simétrica, 20 Polinômio característico
singular, 5 de matriz, 101
soma, 4 de operador, 92
transposta, 4 Problema de Quadrados Mínimos, 65
triangular Processo de ortonormalização de
inferior, 3 Gram-Schmidt, 54
superior, 3 Produto interno, 44
unitária, 57 Projeção ortogonal, 61
Melhor aproximação, 63
Mudança Quádrica, 131
de coordenadas, 131
Sistema de equações normais, 66
de variável, 131 Sistema linear, 9
Multiplicidade equivalente, 9
algébrica do autovalor, 99 homogêneo, 9
geométrica do autovalor, 99 Solução de um sistema linear, 9
Soma de subespaços, 20, 21
Núcleo de uma transformação linear, 75
Soma direta, 20, 21
Norma, 46
Subespaço
de Frobenius em Mn (K), 48
gerado, 22
Euclidiana em Kn , 48
próprio, 18
induzida por produto interno, 47
trivial, 19
infinito em Rn , 47
Subespaço vetorial, 18
Operações elementares, 10 Teorema
Operador do núcleo e imagem, 77
adjunto, 111 do posto, 88
autoadjunto, 117 Traço, 6
hermitiano, 117 Transformação linear, 71
normal, 123 que preserva produto interno, 105
simétrico, 117
unitário, 115 Vetores
Operador linear, 71 linearmente dependentes, 24
diagonalizável, 97 linearmente independentes, 24
ortogonalmente diagonalizável, 121 ortonogais, 51
FOLHA DE REGISTRO DO DOCUMENTO
1. 2. 3. 4.
CLASSIFICAÇÃO/TIPO DATA REGISTRO N° N° DE PÁGINAS

MD 06 de abril de 2023 DCTA/ITA/MD-002/2023 145


5.
TÍTULO E SUBTÍTULO:

MAT 27 - Álgebra linear.


6.
AUTOR(ES):

Fernanda de Andrade Pereira; Tiara Martini dos Santos


7. INSTITUIÇÃO(ÕES)/ÓRGÃO(S) INTERNO(S)/DIVISÃO(ÕES):

Instituto Tecnológico de Aeronáutica – ITA / IEF


8.
PALAVRAS-CHAVE SUGERIDAS PELO AUTOR:

Álgebra linear, Espaços vetoriais, Produto interno, Transformações lineares, Formas quadráticas,
Quádricas.
9.PALAVRAS-CHAVE RESULTANTES DE INDEXAÇÃO:
Álgebra linear; Sistemas lineares; Espaços vetoriais; Transformações lineares; Formas quadráticas;
Matemática.
10.
APRESENTAÇÃO: X Nacional Internacional
Departamento de Matemática; São José dos Campos, SP, Brasil; Abril de 2023; Curso Fundamental,
Álgebra Linear, 1º edição, 2023.
11.
RESUMO:

Esse texto foi elaborado a partir das notas de aula das autoras para o curso de MAT-27 - Ál-
gebra Linear, disciplina obrigatória aos cursos de engenharia do ITA, com objetivo de servir
como livro-texto para a mesma. Esse material aborda todo o conteúdo que normalmente é
dado nas disciplinas de Álgebra Linear em cursos de graduação nas áreas de exatas. Nele são
considerados espaços vetoriais reais e complexos, com foco nos espaços de dimensão finita.

12.
GRAU DE SIGILO:

(X ) OSTENSIVO ( ) RESERVADO ( ) SECRETO

Você também pode gostar