Escolar Documentos
Profissional Documentos
Cultura Documentos
COMANDO DA AERONÁUTICA
INSTITUTO TECNOLÓGICO DE AERONÁUTICA
MANUAL DIDÁTICO
DCTA/ITA/MD-002/2023
MANUAL DIDÁTICO
Departamento de Matemática
DCTA/ITA/MD-002/2023
Ostensivo
2023
Dados Internacionais de Catalogação-na-Publicação (CIP)
Divisão de Informação e Documentação
Pereira, Fernanda de Andrade / Santos, Tiara Martini dos
Álgebra Linear; 1ª Edição/Pereira, Fernanda de Andrade/Santos, Tiara
Martini dos. São José dos Campos, 2023.
145f.
Manual Didático
1. Álgebra Linear 2. Sistemas Lineares 3. Espaços Vetoriais I. Pereira, Fernanda de Andrade/
Santos, Tiara Martini dos
II. Departamento de Matemática. ITA. Divisão de Ciências Fundamentais.
III. Título.
REFERÊNCIA BIBLIOGRÁFICA
PEREIRA, Fernanda de Andrade / SANTOS, Tiara Martini dos. Álgebra Linear; 1ª Edição.
São José dos Campos: ITA, 2023. 145f (DCTA/ITA/MD-002/2023).
CESSÃO DE DIREITOS
NOME DO(S) AUTOR(ES): Pereira, Fernanda de Andrade / Santos, Tiara Martini dos
TÍTULO DO TRABALHO: MAT 27 - Álgebra Linear.
TIPO DO TRABALHO/ANO: Manual Didático /2023
Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Determinantes 6
2 Espaços vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1 Definição e propriedades básicas 15
Esse texto foi elaborado a partir das notas de aula das autoras para o curso de MAT-27 - Álgebra
Linear, disciplina obrigatória aos cursos de engenharia do ITA. Os pré-requisitos para sua leitura são os
conteúdos do ensino médio, além de certa maturidade matemática. O texto é autossuficiente e contém
todas as demonstrações dos resultados apresentados, com exceção do Capítulo 1, que é considerado
uma revisão, e por isso decidimos omitir suas demonstrações, para que ficasse mais sucinto.
Esse material aborda todo o conteúdo que normalmente é dado nas disciplinas de Álgebra Linear
em cursos de graduação nas áreas de exatas. Nele são considerados espaços vetoriais reais e complexos,
com foco nos espaços de dimensão finita. Apesar disso, quando possível e sem grandes complicações,
apresentamos os resultados de maneira geral e fazemos alguns comentários sobre as diferenças, quando
há, com o caso de dimensão infinita.
O Capítulo 1 apresenta os conceitos e principais propriedades de matrizes, determinantes e sistemas
lineares. Apesar de se tratar de um conteúdo de ensino médio, normalmente ele não é visto de maneira
formal e geral, como descrito no texto. Dada a importância de seu domínio para se trabalhar com os
assuntos de álgebra linear, recomendamos fortemente a leitura dele a todos os alunos, seja para revisar
ou mesmo aprofundar seus conhecimentos.
O Capítulo 2 apresenta o conceito de espaço vetorial e seus fundamentos essenciais: subespaços,
conjunto gerador, conjuntos linearmente dependentes e independentes, bases, dimensão e coordenadas.
O Capítulo 3 apresenta o conceito de produto interno num espaço vetorial e as propriedades e
conceitos relacionados: ortogonalidade, Gram-Schmidt e projeção ortogonal.
O Capítulo 4 se refere ao estudo das transformações lineares, que são as “funções interessantes”
entre os espaços vetoriais. Serão apresentados conceitos como: núcleo, imagem, isomorfismos e matriz
de transformação linear. Por fim, estuda-se diagonalização de operadores lineares.
Vale mencionar que os Capítulos 3 e 4 são independentes, tendo como base apenas o Capítulo 2.
O Capítulo 5 se refere ao estudo das transformações lineares entre espaços com produto interno,
e esse sim envolve todo o conteúdo dos capítulos anteriores. O objetivo principal desse capítulo é
apresentar o Teorema Espectral, nas suas versões para espaços reais e complexos.
O Capítulo 6 apresenta uma aplicação da teoria de Álgebra Linear: o reconhecimento de quádricas
a partir das suas equações algébricas na forma geral.
Ao longo do texto, o conjunto dos números naturais será denotado por N = {1, 2, . . .} e os corpos
dos números reais e complexos serão denotados por R e C, respectivamente. Quando dissermos um
número, constante ou escalar, estaremos nos referindo a elementos de R ou C, salvo menção contrária.
De um modo mais geral, denotaremos o corpo de escalares por K, significando K = R ou C. A
cardinalidade de um conjunto X será denotada por #X.
Capítulo 1
1.1 Matrizes
Uma matriz A, m × n, m, n ∈ N, é uma tabela de mn números, denotados por ai j , 1 ≤ i ≤ m,
1 ≤ j ≤ n, dispostos em m linhas e n colunas:
a11 a12 · · · a1n
a21 a22 · · · a2n
A= . .. .
. ..
. . .
am1 am2 · · · amn
A i-ésima linha de A é
[ ai1 ai2 · · · ain ], i = 1, . . . , m.
A j-ésima coluna de A é
a1 j
a2 j
, j = 1, . . . , n.
..
.
am j
Também usaremos a notação A = (ai j )m×n . Dizemos que ai j é o elemento ou entrada de posição i, j de
A, m × n é a ordem de A e que A é quadrada de ordem n se m = n.
A diagonal principal é formada pelos elementos aii .
A matriz A é dita ser triangular superior (respectivamente triangular inferior) se todos as entradas
abaixo (resp. acima) da diagonal principal são nulas, isto é, ai j = 0 para todo i > j (resp. i < j).
4 Capítulo 1. Revisão: matrizes, determinantes e sistemas lineares
A matriz A é dita ser diagonal se todos as entradas fora da diagonal principal são nulas, isto é, ai j = 0
para todo i 6= j. Neste caso, também denota-se A = diag(a11 , . . . , ann ).
A matriz identidade de ordem n é In = (ai j )n×n onde aii = 1 para todo i = 1, . . . , n e ai j = 0 se i 6= j.
Definição 1.1.1 Sejam A = (ai j )m×n , B = (bi j )m×n ,C = (c jk )n×p matrizes e α um escalar. A soma
A + B é a matriz D = (di j )m×n tal que
di j = ai j + bi j ∀ i = 1, . . . , m, j = 1, . . . , n.
ei j = αai j ∀ i = 1, . . . , m, j = 1, . . . , n.
gi j = a ji ∀ i = 1, . . . , m, j = 1, . . . , n.
A + 0 = A,
onde 0 aqui denota a matriz nula de ordem m × n. Usaremos a mesma notação para o escalar
nulo, mas pelo contexto ficará óbvio a qual deles estamos nos referindo.
(iv) Existência de inverso aditivo: para cada matriz A = (ai j )m×n existe única −A = (−ai j )m×n tal
que
A + (−A) = 0.
(α + β )A = αA + β A e α(A + B) = αA + αB.
1.1 Matrizes 5
AIn = Im A = A,
xn
Uma matriz quadrada A = (ai j )n×n é inversível ou não singular se existe uma matriz B = (bi j )n×n
tal que
AB = BA = In .
Neste caso a matriz B é chamada de inversa de A. Se A não tem inversa dizemos que A é não inversível
ou singular.
(i) Se A é inversível, então a inversa é única. Neste caso, denotaremos A−1 a matriz inversa de A.
(ii) Se AB = In , então BA = In .
(A−1 )−1 = A.
Observação 1.1.5 Não é verdade, em geral, que tr (AB) = tr (A) tr (B) (encontre um contra-
exemplo). Não confunda isso com o item (iv) da Proposição 1.1.4!
1.2 Determinantes
Determinante, nada mais é que uma função, que associa a cada matriz quadrada A ∈ Mn (K), um
escalar det A ∈ K (ou det(A)). Essa função possui algumas propriedades interessantes, que muitas vezes
permitem obter informações importantes sobre as matrizes economizando muitos cálculos. Existem
algumas maneiras distintas e equivalentes de definir o determinante de uma matriz. Aqui apresentaremos
a definição por cofatores, que é dada via indução sobre a ordem da matriz.
Se A = (a11 ) é uma matriz 1 × 1, define-se o determinante de A por
det A = a11 .
Para matrizes quadradas de ordem maior que 1, definiremos o determinante por indução. Seja A =
(ai j )n×n uma matriz com n ≥ 2 e suponha que o determinante de matrizes de ordem (n − 1) × (n − 1)
foi definido. O menor do elemento ai j , denotado por Ãi j , é a submatriz de ordem (n − 1) × (n − 1)
obtida de A retirando-se a i-ésima linha e a j-ésima coluna de A. O cofator do elemento ai j , denotado
por ãi j , é definido por
ãi j = (−1)i+ j det(Ãi j ).
O determinante de A é definido por
n
det A = ∑ a1k ã1k . (1.1)
k=1
Teorema 1.2.1 Seja A = (ai j )n×n uma matriz. O determinante de A pode ser calculado fazendo-se
o desenvolvimento em cofatores em qualquer linha ou qualquer coluna, isto é,
n
det A = ∑ aik ãik ∀ i = 1, . . . , n, (1.2)
k=1
n
= ∑ ak j ãk j ∀ j = 1, . . . , n. (1.3)
k=1
Proposição 1.2.2 Sejam A = (ai j )n×n , B = (bi j )n×n matrizes e α um escalar. São válidas as seguin-
tes propriedades.
det B = α det A.
det B = − det A.
(iv) Se B é obtida de A substituindo-se a l-ésima linha por ela somada a um múltiplo escalar da
k-ésima linha, com k 6= l, então
det B = det A.
onde Ak = [ ak1 ak2 · · · akn ] é a k-ésima linha de A, se Ak = X +Y , onde X,Y são matrizes
8 Capítulo 1. Revisão: matrizes, determinantes e sistemas lineares
1 × n, então
A1 A1
.. ..
. .
Ak−1 Ak−1
det A = det X + det
Y
.
Ak+1 Ak+1
.. ..
. .
An An
Observação 1.2.3 • Pode-se, usando as propriedades (ii), (iii) e (iv), transformar o cálculo do
determinante de uma matriz no cálculo do determinante de uma matriz triangular superior, o
que é bem mais simples pela propriedade (i).
• Pelo item (vii), todas as propriedades de determinantes referentes às linhas da matriz também
são válidas em relação as colunas.
0 1 4
Exemplo 1.2.4 Calcule det A, onde A = 5 −10 15.
2 −1 7
Solução. Primeiro efetuamos algumas operações com a matriz para simplificar o cálculo do determi-
nante. Para facilitar o entendimento, denotamos por Li a i-ésima linha.
5 −10 15 1 −2 3 1 −2 3
(L1 ↔L2 ) (L3 ← L3 −2L1 )
det A = − det 0 1 4 = −5 · det 0 1 4 = −5 · det 0 1 4
2 −1 7 2 −1 7 0 3 1
1 −2 3
(L3 ← L3 −3L2 )
= −5 · det 0 1 4
0 0 −11
Como essa última matriz é triangular superior, o seu determinante é o produto das entradas da diagonal
principal, logo
det A = −5 · 1 · 1 · (−11) = 55.
a1 x1 + a2 x2 + · · · + an xn = b,
1.3 Sistemas lineares 9
Dois sistemas lineares são ditos equivalentes se possuem exatamente as mesmas soluções.
Proposição 1.3.1 (i) Se um sistema linear AX = B possui duas soluções distintas, então ele
possui infinitas soluções. Daí segue que uma, e apenas uma, das três possibilidades a seguir
pode ocorrer: o sistema tem uma única solução, tem infinitas soluções, ou não tem nenhuma
solução.
(ii) Se A é uma matriz quadrada, então o sistema AX = B tem uma única solução se, e somente se,
A é inversível. Neste caso a solução é X = A−1 B.
Teorema 1.3.2 Seja A = (ai j )m×n uma matriz com m < n. Então, o sistema linear homogêneo
AX = 0 (que tem m equações e n incógnitas) tem infinitas soluções.
Definição 1.4.2 Duas matrizes são linha-equivalentes se uma é obtida da outra após uma quantidade
finita de operações elementares sobre suas as linhas.
Teorema 1.4.3 Dois sistemas lineares que possuem matrizes aumentadas linha-equivalentes são
equivalentes.
Definição 1.4.4 Uma matriz A = (ai j )m×n está na forma escalonada reduzida quando satisfaz as
seguintes condições:
(i) Todas as linhas nulas (formadas inteiramente por zeros) ocorrem abaixo das linhas não nulas.
(ii) O pivô (primeiro elemento não nulo de uma linha) de cada linha não nula é igual a 1.
(iii) O pivô de cada linha não nula ocorre à direita do pivô da linha anterior.
(iv) Se uma coluna contém um pivô, então todos os seus outros elementos são iguais a zero.
Se A satisfaz as propriedades (i) e (iii), mas não necessariamente (ii) e (iv), dizemos que ela está na
forma escalonada.
Devido o Teorema 1.4.3, para se resolver um sistema linear pode-se aplicar o método do escalona-
mento, que consiste em aplicar operações elementares sobre as linhas de sua matriz aumentada para
se obter uma matriz na forma escalonada (também conhecido como método de Gauss) ou escalonada
reduzida (também conhecido como método de Gauss-Jordan). O sistema linear que tem essa nova
matriz como matriz aumentada tem as mesmas soluções e é bem mais fácil de resolver.
1.5 Método para inversão de matrizes 11
Com isso, obtemos não somente uma forma de descobrir se uma matriz A tem inversa, mas
também, como encontrar a inversa, no caso em que ela exista. Ou seja, escalonamos a matriz [A | In ]
e encontramos a sua forma escalonada reduzida [R | S ]. Se R = In , então a matriz A é inversível e a
inversa é S. Caso contrário, a matriz A não é inversível. Além disso, obtemos o seguinte corolário.
Corolário 1.5.1 Uma matriz A n × n é inversível se, e somente se, A é linha-equivalente à matriz
identidade In .
0 1 5
Exemplo 1.5.2 Considere a matriz do Exemplo 1.2.4: A = 3 −6 9. Escalonando a matriz
2 6 1
[A | I3 ], temos
0 1 5 1 0 0 3 −6 9 0 1 0 1 1 −2 3 0 1/3 0
(L1 ← L1 )
3 −6 9 0 1 0 (L1 ↔ L2 )
∼ 0 1 5 1 0 0 ∼3 0 1 5 1 0 0
2 6 1 0 0 1 2 6 1 0 0 1 2 6 1 0 0 1
12 Capítulo 1. Revisão: matrizes, determinantes e sistemas lineares
1 −2 3 0 1/3 0 1 −2 3 0 1/3 0
(L3 ← L3 −2L1 ) (L3 ← L3 −10L2 )
∼ 0 1 5 1 0 0 ∼ 0 1 5 1 0 0
0 10 −5 0 −2/3 1 0 0 −55 −10 −2/3 1
1 1 −2 3 0 1/3 0
(L3 ← − 55 L3 )
∼ 0 1 5 1 0 0
0 0 1 2/11 2/165 −1/55
1 −2 3 0 1/3 0
(L2 ← L2 −5L3 )
∼ 0 1 0 1/11 −2/33 1/11
0 0 1 2/11 2/165 −1/55
1 −2 0 −30/55 49/165 3/55
(L1 ← L1 −3L3 )
∼ 0 1 0 1/11 −2/33 1/11
0 0 1 2/11 2/165 −1/55
1 0 0 −4/11 29/165 13/55
(L1 ← L1 +2L2 )
∼ 0 1 0 1/11 −2/33 1/11 .
0 0 1 2/11 2/165 −1/55
Essa última matriz é a forma escalonada reduzida de [A | I3 ]. Assim, A é linha-equivalente a matriz
identidade I3 e
−4/11 29/165 13/55
S = 1/11 −2/33 1/11 = A−1 .
2/11 2/165 −1/55
1 10 4
Exemplo 1.5.3 Considere a matriz A = −1 2 0. Escalonando a matriz [A | I3 ], temos
2 11 5
1 10 4 1 0 0 1 10 4 1 0 0
−1 2 0 0 1 0 (L3 ← L∼3 −2L1 ) −1 2 0 0 1 0
2 11 5 0 0 1 0 −9 −3 −2 0 1
1 10 4 1 0 0 1 1 10 4 1 0 0
(L2 ← L2 +L1 ) (L2 ← 12 L2 )
∼ 0 12 4 1 1 0 ∼ 0 1 1/3 1/12 1/12 0
0 −9 −3 −2 0 1 0 −9 −3 −2 0 1
1 10 4 1 0 0 1 0 2/3 1/6 −5/6 0
(L3 ← L3 +9L2 ) (L1 ← L1 −10L2 )
∼ 0 1 1/3 1/12 1/12 0 ∼ 0 1 1/3 1/12 1/12 0
0 0 0 −5/4 3/4 1 0 0 0 −5/4 3/4 1
Essa última matriz é a forma escalonada reduzida de [A | I3 ]. Assim, a forma escalonada reduzida de A
é a matriz
1 0 2/3
S = 0 1 1/3 ,
0 0 0
que tem uma linha nula. Portanto, a matriz A não é inversível.
−1
a b 1 d −b
= (se ad − bc 6= 0). (1.5)
c d ad − bc −c a
Capítulo 2
Espaços vetoriais
Neste capítulo, apresentaremos o conceito de espaço vetorial, assim como seus fundamentos
essenciais: bases e dimensão. Basicamente, os espaços vetoriais, de dimensão finita - que são o foco
desse curso, são um conjunto que se comportam como Rn (ou Cn ): conjunto de n-uplas de números
reais (ou complexos), onde é possível fazer somas de seus elementos e multiplicação por escalar (no
caso de n-uplas essas operações são feitas coordenada a coordenada).
Primeiramente apresentaremos a definição de espaço vetorial, e a partir disso toda a teoria será
desenvolvida. É interessante acompanhar como todas as proposições e teoremas vão sendo construídos
passo a passo a partir das definições, sem precisar apelar para resultados muito técnicos e com provas
complicadas. Por esse motivo, recomendamos a leitura atenta das demonstrações, pois elas auxiliam no
entendimento dos conceitos e também fornecem ferramentas para resolver os exercícios. Lembramos
que denotaremos o corpo de escalares por K, significando K = R ou C.
A discussão apresentada nesse capítulo foi motivada pelos livros [Axl], [Coe] e [Nic].
(vi) α(β u) = (αβ )u, para todos α, β ∈ K e u ∈ V (associatividade da multiplicação por escalar);
Observação 2.1.2 O símbolo “0” também é usado para denotar o número zero de K. Isso não
causará confusão, pois ficará claro pelo contexto a que a notação se refere.
v1 = v1 + 0 = v1 + (v + v2 ) = (v1 + v) + v2 = 0 + v2 = v2 .
(iv) α ·0 = α ·(0+0) = α ·0+α ·0 ⇒ 0 = α ·0+(−α ·0) = α ·0+α ·0+(−α ·0) = α ·0+0 = α ·0.
(vi) Se α 6= 0, então
1 1 1
αv = 0 ⇒ (αv) = · 0 = 0 ⇒ v = 1 · v = α v = 0.
α α α
A seguir, serão listados alguns exemplos de espaços vetoriais. Fica como exercício para o leitor
verificar que de fato eles satisfazem as oito condições da Definição 2.1.1.
Exemplo 2.1.4 — Espaço nulo. V = {0}, que consiste do espaço com um só elemento (obrigatori-
amente o vetor nulo).
Kn = {(a1 , . . . , an ) : ai ∈ K, i = 1, . . . , n}
Exemplo 2.1.6 — Espaço de matrizes. O conjunto Mm×n (K) formado pelas matrizes m × n com
entradas em K é um K-espaço vetorial com as operações usuais de soma de matrizes e multiplicação
por escalar.
Quando m = n denotaremos Mn×n (K) simplesmente por Mn (K).
P(K) = {p(x) = a0 + a1 x + · · · + an xn : ai ∈ K e n ∈ N}
Exemplo 2.1.8 — Espaço das soluções de um sistema linear homogêneo. Dado um sistema
linear homogêneo
a11 x1 + a12 x2 + · · · + a1n xn = 0
a21 x1 + a22 x2 + · · · + a2n xn = 0
L: ..
.
am1 x1 + am2 x2 + · · · + amn xn = 0
18 Capítulo 2. Espaços vetoriais
onde
ai j ∈ K para todos i = 1, . . . , m, j = 1, . . . , n, o conjunto formado por todas as soluções S =
s1
s2
∈ Mn×1 (K) de L é um K-espaço vetorial, com a operações usuais de Mn×1 (K).
..
.
sn
Exemplo 2.1.9 — Espaço de funções. Seja X um conjunto não vazio. O conjunto F (X, K) das
funções f : X → K é um K-espaço vetorial com as operações definidas a seguir.
• Dados f , g ∈ F (X, K), a função f + g : X → K é definida por ( f + g)(x) = f (x) + g(x) para
todo x ∈ X.
Observe que a estrutura de K-espaço vetorial de F (X, K) depende somente das operações em K (X é
um conjunto qualquer).
Um caso particular importante, é quando X = N. Neste caso F (N, K) é o espaço de sequências, e
é mais comum denotar f : N → K por (xn )n∈N , onde xn = f (n). Assim,
(xn )n∈N + (yn )n∈N = (xn + yn )n∈N e α(xn )n∈N = (αxn )n∈N .
Observe que, para W ser um espaço vetorial com as operações de V , precisa-se verificar as oito
condições da Definição 2.1.1 para W . Mas todas, exceto (iii) e (iv), já serão automaticamente satisfeitas
por V ser espaço vetorial e W ⊆ V . Sendo assim, resta verificar essas duas condições, e se de fato as
restrições das operações a W ficam bem definidas em W , isto é, se a soma de dois vetores de W resulta
em um vetor de W (e não de V \W ) e o mesmo para a multiplicação por escalar. O próximo resultado
diz que na verdade precisamos mostrar um pouco menos que isso.
2.2 Subespaços vetoriais, soma de subespaços, soma direta 19
(i) 0 ∈ W ;
(ii) se v1 , v2 ∈ W , então v1 + v2 ∈ W ;
(iii) se v ∈ W e α ∈ K, então αv ∈ W .
Demonstração. Suponha que W é subespaço vetorial. Então as condições (ii) e (iii) são satisfeitas pois
as restrições devem se tornar operações bem definidas em W . Além disso deve existir um vetor nulo
0W ∈ W , e este por sua vez deve ser igual ao vetor nulo de V , pois caso contrário V teria dois vetores
nulos, contrariando a unicidade. Portanto 0 ∈ W .
Reciprocamente, suponha que as condições (i), (ii) e (iii) são satisfeitas. As condições (ii) e (iii)
garantem que as as restrições das operações a W ficam bem definidas em W . A condição (i) garante
que W 6= 0/ e que a condição (iii) da Definição 2.1.1 é satisfeita para W . Resta verificar que dado v ∈ W ,
tem-se −v ∈ W . Mas −v = (−1) · v ∈ W por (iii).
Exemplo 2.2.3 Se V é um K-espaço vetorial, então {0} e V são subespaços vetoriais de V , chamados
de subespaços triviais.
Exemplo 2.2.7 Considere U = C ([0, 1], R) o conjunto das funções f : [0, 1] → R contínuas. Então,
U é subespaço vetorial do espaço de funções F ([0, 1], R) (Exemplo 2.1.9).
Z 1
Exemplo 2.2.8 Seja V = C ([0, 1], R). O subconjunto U = f ∈V : f (x) dx = 0 é um subes-
0
paço vetorial de V .
W1 = {A ∈ V : A = A> } e W2 = {A ∈ V : A = −A> }
subespaço vetorial de V (verifique). Mais geralmente, pode-se provar que a interseção de qualquer
família de subespaços, mesmo que uma quantidade infinita, também é sempre subespaço vetorial.
Em geral, U ∪W não é um subespaço vetorial de V (encontre um contra-exemplo).
A ∈ V : A = A>
Exemplo 2.2.13 Considere V = Mn (K) e os subespaços U = e
−A>
W = A∈V :A= . Verifique que V = U ⊕W .
Solução. Para demonstrar a igualdade de conjuntos V = U + W , a rigor, precisamos verificar que
V ⊆ U +W e U +W ⊆ V . A última continência é direta, pois U,W ⊆ V são subespaços. Precisamos
verificar que V ⊆ U +W . Seja A ∈ V . Considere B,C ∈ V definidos por
1 1
B = (A + A> ) e C = (A − A> ).
2 2
V = U +W.
Para concluir que a soma é direta, resta verificar que U ∩W = {0}. A inclusão {0} ⊆ U ∩W é imediata,
pois U e W são subespaços, logo 0 ∈ U,W . Suponha A ∈ U ∩W . Então
v = u1 + w1 = u2 + w2 .
Então,
u1 − u2 = w1 − w2 .
Reciprocamente, suponha que cada elemento v ∈ U +W pode ser escrito de modo único como uma
soma v = u + w com u ∈ U e w ∈ W . Temos que mostrar que U ∩W = {0}. A inclusão {0} ⊆ U ∩W é
imediata, já que U e V são subespaços. Seja v ∈ u ∩W .
Por um lado, v ∈ U e 0 ∈ W e assim v = v + 0 é uma decomposição como soma de um elemento de U e
um de W .
Por outro lado, 0 ∈ U e v ∈ W e assim v = 0 + v é uma decomposição como soma de um elemento de
U e um de W .
Pela unicidade da decomposição, deve ocorrer v = 0. Assim, provamos que U ∩W ⊆ {0}, donde segue
que U ∩W = {0}.
Também é válido resultado análogo ao da Proposição 2.2.14, isto é, a soma U1 + · · · +Um é direta
se, e somente se, todo elemento se escreve de maneira única como uma soma u1 + · · · + um , com ui ∈ Ui .
22 Capítulo 2. Espaços vetoriais
É possível provar que qualquer vetor em R2 pode ser obtido como uma combinação linear de u e v
(veja Exemplo 2.3.3). Esse é um exemplo onde {u, v} gera R2 (o conceito de conjunto gerador será
introduzido a seguir).
Agora, se u = (1, 1) e v = (2, 2) (ambos tem a mesma direção), todas as combinações lineares de u e v
vão gerar apenas um reta, que passa pela origem e tem a direção de u (e também de v).
Definição 2.3.1 Sejam V um K-espaço vetorial e S um subconjunto de V . Define-se o subespaço
de V gerado por S por
ou seja, o subconjunto formado por todas as combinações lineares envolvendo vetores de S. Também,
dizemos que S é um conjunto gerador de [S] ou que S gera [S].
Observação 2.3.2 • Mesmo que S seja um conjunto infinito, as combinações lineares em [S]
são sempre somas finitas!
Exemplo 2.3.3 Seja S = {(1, 2), (−1, 1)} ⊆ R2 . Verifique que [S] = R2 .
Solução. A inclusão [S] ⊆ R2 é imediata. Mostremos que R2 ⊆ [S]. Seja v = (a, b) ∈ R2 . Precisamos
encontrar α, β ∈ R tais que
v = α(1, 2) + β (−1, 1) ⇔ (a, b) = (α, 2α) + (−β , β ) = (α − β , 2α + β ).
2.3 Subespaço gerado 23
Exercício 2.2 Seja S = {(1, 1), (2, 2)} ⊆ R2 . Verifique que [S] = {(a, a) : a ∈ R}.
Exemplo 2.3.4 Seja S = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} ⊆ R3 . Verifique que [S] = R3 .
Solução. A inclusão [S] ⊆ R3 é imediata. Para provar R3 ⊆ [S], considere v = (a, b, c) ∈ R3 . Temos,
v = a(1, 0, 0) + b (0, 1, 0) + c (0, 0, 1) ∈ [S].
Portanto, R3 ⊆ [S], donde segue que [S] = R3 .
Exemplo 2.3.5 Considere o R-espaço vetorial V = P2 (R). Verifique quais dos conjuntos
α1 v1 + · · · + αm vm = 0.
Se v1 , . . . , vm não são LD, dizemos que eles são linearmente independentes (LI).
Observe que, v1 , . . . , vm são LI se, e somente se, dada uma combinação linear linear nula
λ1 v1 + · · · + λm vm = 0,
necessariamente ocorre λ1 = · · · = λm = 0, isto é, o vetor nulo só pode ser escrito de uma única maneira
como combinação linear de v1 , . . . , vm .
Definição 2.4.2 Seja S um subconjunto (finito ou infinito) de K-espaço vetorial V . Dizemos que S
é linearmente dependente (LD) se existem v1 , . . . , vm ∈ S distintos e α1 , . . . , αm ∈ K não todos nulos
tais que
α1 v1 + · · · + αm vm = 0.
Lembre que combinações lineares são sempre somas finitas! Caso contrário, S é linearmente
independentes (LI).
Então,
(α, α + 2β ) = (0, 0) ⇔ α = 0 e α + β = 0 ⇔ α = β = 0.
Portanto, a única combinação linear nula de vetores em S é a trivial. Logo S é LI.
Exemplo 2.4.5 O subconjunto S = {(1, 1, 0), (0, 1, 0), (2, 1, 0)} ⊆ R3 é LI ou LD?
Solução. Suponha α, β , γ ∈ R tais que
Então,
α + 2β = 0
(α + 2γ, α + β + γ, 0) = (0, 0, 0) ⇔ .
α +β +γ = 0
Observe que esse sistema linear possui solução não trivial. Por exemplo, se α = −2 e β = γ = 1, temos
uma combinação linear nula
Exemplo 2.4.6 Considere S = {(1, 0), (i, 0), (0, 1), (0, i)} ⊆ C2 . Vamos analisar se S é LI ou LD,
considerando as duas possibilidades para C2 : espaço vetorial sobre R e C.
Como C-espaço vetorial: observe que
é uma combinação linear nula de vetores em S, com coeficientes não todos nulos. Portanto, S é LD.
Como R-espaço vetorial: suponha
Então,
i α ∈R
(α1 + iα2 , α3 + iα4 ) = (0, 0) ⇔ α1 + iα2 = 0 e α3 + iα4 = 0 ⇔ αi = 0 ∀ i = 1, 2, 3, 4.
Portanto, S é LI.
Como estamos no espaço das funções de R em R, essa combinação linear igual a função nula implica
que, para todo x ∈ R, vale a igualdade (2.1). Em particular, para x = π/2, temos
β eπ/2 = α · 0 + β eπ/2 = 0 ⇒ β = 0.
α0 · 1 + α1 x + · · · + αn xn = 0
(iv) Suponha que S possua 2 ou mais vetores. Então S é LD se, e somente se, existe v ∈ S e
v1 , . . . , vn ∈ S\{v} tais que v ∈ [v1 , . . . , vn ].
Demonstração. Provaremos apenas o item (iv). As demonstrações dos demais itens são mais simples e
serão deixadas como exercício.
Suponha que S é LD. Então existem v1 , . . . , vm ∈ S distintos e α1 , . . . , αm ∈ K não todos nulos tais
que
α1 v1 + · · · + αm vm = 0. (2.2)
Se m = 1, então deve ocorrer v1 = 0. Assim, qualquer que seja v ∈ S\{0}, tem-se 0 ∈ [v]. Suponha agora
m ≥ 2. Como os escalares em (2.2) são não todos nulos, vamos assumir, sem perda de generalidade,
que α1 6= 0. Assim,
α2 αm
v1 = − v2 + · · · + − vm ∈ [v2 , . . . , vm ].
α1 α1
v = α1 v1 + · · · + αn vn ⇔ (−1)v + α1 v1 + · · · + αn vn = 0.
A última equação é uma combinação linear nula de vetores de S com ao menos um dos escalares não
nulo. Portanto, S é LD.
Observação 2.4.11 Como caso particular da proposição anterior, dois vetores u e v são LD, se, e
somente se, existe α ∈ K tal que u = αv ou v = αu (um deles é um múltiplo escalar do outro).
Observação 2.5.2 Por convenção, assumiremos que 0/ é base do espaço nulo {0}.
A seguir, apresentaremos as chamadas bases canônicas de alguns espaços vetoriais que serão
trabalhados neste curso. Essas bases levam esse título, por serem facilmente descritas e por ser mais
“simples” escrever um vetor qualquer no respectivo espaço como combinação linear dos vetores da base
canônica.
Exemplo 2.5.5 — Base canônica de Kn . Considere o K-espaço vetorial Kn . Para cada j = 1, . . . , n,
seja e j ∈ Kn o vetor cuja j-ésima coordenada é igual a 1 e as demais são nulas:
Exemplo 2.5.6 — Base canônica de Mm×n (K). Considere o K-espaço vetorial Mm×n (K). Para
cada k = 1, . . . , m e l = 1, . . . , n, seja Ekl = (ai j )m×n ∈ Mm×n (K) a matriz tal que akl = 1 e ai j = 0 se
(i, j) 6= (k, l). O subconjunto
B = {Ekl : k = 1, . . . , m; l = 1, . . . , n}
Exemplo 2.5.7 — Base canônica de Pn (K) e P(K). Considere o K-espaço vetorial Pn (K). O
subconjunto
B = {1, x, x2 , . . . , xn }
é uma base, chamada de base canônica de Pn (K).
Considere agora K-espaço vetorial P(K). No Exemplo 2.4.9, foi mostrado que o subconjunto
B = {1, x, x2 , x3 , . . .}
28 Capítulo 2. Espaços vetoriais
é LI. Não é difícil verificar que B gera P(K), e portanto é uma base, chamada de base canônica de
P(K).
Observação 2.5.8 Não existe uma definição geral de base canônica para um espaço vetorial
qualquer.
Definição 2.5.9 Dizemos que um K-espaço vetorial é finitamente gerado, se existe um subconjunto
S ⊆ V finito que gera V .
A demonstração do Teorema 2.5.10 em sua versão mais geral, utiliza o chamado Lema de Zorn e é
um pouco mais técnica. Faremos aqui a demonstração da existência de base para espaços finitamente
gerados. Precisaremos dos resultados apresentados a seguir.
Lema 2.5.11 Sejam V um K-espaço vetorial e S = {v1 , . . . , vn } ⊆ V . Se algum vi ∈ [S \ {vi }], isto é, vi
é combinação linear dos outros vetores em S, então [S] = [S \ {vi }].
Demonstração. A inclusão [S \ {vi }] ⊆ [S] é imediata. Mostremos que [S] ⊆ [S \ {vi }]. Sem perda de
generalidade, assuma i = n. Dado u ∈ [S], existem α1 , . . . , αn−1 , αn ∈ K tais que
u = α1 v1 + · · · + αn−1 vn−1 + αn vn .
vn = β1 v1 + · · · + βn−1 vn−1 .
Portanto,
u = α1 v1 + · · · + αn−1 vn−1 + αn (β1 v1 + · · · + βn−1 vn−1 ) = (α1 + β1 )v1 + · · · + (αn−1 + βn−1 )vn−1
que é uma combinação linear dos vetores de S \ {vn }. Portanto, u ∈ [S \ {vn }], donde segue que
[S] = [S \ {vn }].
α1 v1 + · · · + αn vn = 0.
2.5 Base e dimensão 29
A demonstração do Teorema 2.5.10, para um espaço vetorial finitamente gerado, agora é imediata:
tome um conjunto gerador finito e aplique a Proposição 2.5.12.
Proposição 2.5.13 Seja B = {v1 , v2 , . . . , vm } uma base de um espaço vetorial V . Então, todo
subconjunto LI de V tem no máximo m vetores.
Demonstração. Vamos mostrar que todo conjunto com mais de m vetores é LD.
Seja S = {u1 , u2 , . . . , un } ⊆ V com n > m. Como B é base de V , para cada j = 1, . . . , n, existem αi j ∈ K
tais que
m
u j = α1 j v1 + · · · + αm j vm = ∑ αi j vi . (2.3)
i=1
Para provar que S é LD, devemos verificar que existem escalares λ1 , . . . , λn não todos nulos tais que
λ1 u1 + · · · + λn un = 0.
Substituindo (2.3), temos
! !
m m
λ1 ∑ αi1 vi + · · · + λn ∑ αin vi =0 ⇔
i=1 i=1
Procuramos uma solução não trivial para esse sistema linear, nas incógnitas λ1 , . . . , λn . Como m < n,
o sistema possui mais variáveis do que equações. Assim, pelo Teorema 1.3.2, esse sistema possui
infinitas soluções, o que garante que S é LD.
Corolário 2.5.14 Se V é um espaço vetorial finitamente gerado, então toda base de V possui o
mesmo número de vetores.
Demonstração. Como V é finitamente gerado, existe conjunto gerador finito, e este contém uma base
pela Proposição 2.5.12. Assim, a Proposição 2.5.13 garante que toda base será um conjunto finito.
Suponha agora que B1 = {v1 , . . . , vm } e B2 = {u1 , . . . , un } são duas bases de V . Como B1 é base, e
B2 é LI, pela Proposição 2.5.13, n ≤ m. Por outro lado, B2 é base e B1 é LI, assim a Proposição 2.5.13
implica m ≤ n. Portanto, m = n.
30 Capítulo 2. Espaços vetoriais
Observação 2.5.15 Se um espaço vetorial V não é finitamente gerado, então toda base de V é
um conjunto infinito. Neste caso, é possível provar que duas bases quaisquer têm sempre a mesma
cardinalidade (o que não será feito aqui).
Denotaremos a dimensão de V por dimK V , ou simplesmente dimV , quando não houver perigo de
confusão sobre o corpo de escalares considerado.
Exemplo 2.5.17 dim{0} = 0, pois 0/ é base de {0}.
Exemplo 2.5.18 dim Rn = n e dimC (Cn ) = n. Por exemplo, a base canônica (Exemplo 2.5.5) tem n
vetores.
Exemplo 2.5.19 Considere Cn como R-espaço vetorial. Então, apenas os n vetores e j da base
canônica no Exemplo 2.5.5 não geram todo o espaço Cn como R-espaço vetorial (geram apenas vetores
com coordenadas reais). É preciso acrescentar mais vetores que vão gerar as entradas complexas.
Seja f j ∈ Cn o vetor cuja j-ésima coordenada é igual ao número complexo i (tal que i2 = −1) e as
demais são nulas, para j = 1, . . . , n. Deixaremos como exercício a prova de que
B = {e1 , . . . , en , f1 , . . . , fn } ⊆ Cn
é uma base do R-espaço vetorial Cn . Portanto, dimR (Cn ) = 2n.
Exemplo 2.5.20 dim Mm×n (K) = m n. Por exemplo, a base canônica (Exemplo 2.5.6) possui m n
vetores.
Exemplo 2.5.21 dim Pn (K) = n + 1. Por exemplo, a base canônica (Exemplo 2.5.7) tem n + 1
vetores.
Já o espaço P(K) tem dimensão infinita.
U = {(x, y, z) ∈ R3 : x + 2y − z = 0}.
Assim como todo conjunto gerador contém uma base, também vale que todo conjunto LI está
contido numa base, como descreve a proposição a seguir.
Proposição 2.5.23 Seja V um K-espaço vetorial de dimensão finita n ≥ 1. Então, qualquer sub-
conjunto LI {v1 , . . . , vk } ⊆ V , com k < n, pode ser completado para formar uma base para V , isto é,
existem n − k vetores vk+1 , . . . , vn ∈ V tais que B = {v1 , . . . , vk , vk+1 , . . . , vn } é uma base de V .
B = {v1 , . . . , vk , u1 , . . . , um }.
Pela forma que determinamos B, para todo j > m, temos que B ∪ {v j } é LD. Como B é LI, pela
Proposição 2.4.10(v), v j ∈ [B], para todo j > m. Assim, [B] = [S], e como S contém a base C de V ,
concluímos que [B] = [S] = V . Portanto, B é base de V .
Segue do Corolário 2.5.14 que k + m = n, donde poderíamos simplesmente denotar
{u1 , . . . , um } = {vk+1 , . . . , vn }.
(v) S é base de V se, e somente se, todo v ∈ V é uma combinação linear de vetores de S e os
escalares dessa combinação linear são únicos.
(ii) Suponha, por absurdo, que #S = k < n e [S] = V . Então, pela Proposição 2.5.12, existe B ⊆ S
base de V , com #B ≤ k < n, o que contradiz o Corolário 2.5.14.
(iii) Pela Proposição 2.5.23, existe B base de V tal que S ⊆ B. Por ser subconjunto, n = #S ≤ #B.
Como toda base de V possui n vetores, deve ocorrer #B = n = #S. Assim,
S ⊆ B e #S = #B ⇒ B = S é base de V.
(iv) Pela Proposição 2.5.12, existe B ⊆ S base de V . Por ser subconjunto, #B ≤ #S = n. Como toda
base de V possui n vetores, deve ocorrer #B = n = #S. Assim,
B ⊆ S e #B = #S ⇒ B = S é base de V.
32 Capítulo 2. Espaços vetoriais
(v) Suponha S base de V . Então, #S = n, S gera V e S é LI. Seja S = {v1 , . . . , vn }. Dado v ∈ V , segue
que v pode ser escrito como combinação linear de vetores de S, pois S gera V . Provemos que os
escalares são únicos. Sejam α1 , . . . , αn , β1 , . . . , βn ∈ K tais que
v = α1 v1 + · · · + αn vn = β1 v1 + · · · + βn vn .
Então,
S é LI
(α1 − β1 )v1 + · · · + (αn − βn )vn = 0 ⇒ α1 − β1 = · · · = αn − βn = 0 ⇒ α1 = β1 , . . . , αn = βn .
Reciprocamente, suponha que todo v ∈ V é uma combinação linear de vetores de S e os escalares
dessa combinação linear são únicos. Pela primeira parte da frase anterior, temos que S gera V .
Provemos que S é LI. Suponha que α1 , . . . , αk ∈ K e v1 , . . . , vk ∈ S são tais que
α1 v1 + · · · + αk vk = 0.
Assim, temos uma combinação linear do vetor nulo 0 ∈ V envolvendo os vetores v1 , . . . , vk ∈ S.
Mas, também temos a combinação linear trivial
0 = 0 · v1 + · · · + 0 · vk .
Como os escalares são únicos, deve ocorrer α1 = · · · = αk = 0. Portanto, S é LI.
Observação 2.6.2 O subespaço U ⊆ V tal que V = W ⊕U da proposição anterior não é único. Por
exemplo, se V = R2 e W = [(1, 0)], então R2 = W ⊕ [(0, 1)], mas também R2 = W ⊕ [(1, 1)].
Provemos que
Primeiro, mostremos que C gera U +W . A inclusão [C] ⊆ U +W é imediata. Para a inclusão contrária,
considere v = u + w ∈ U +W , com u ∈ U e w ∈ W . Como B1 é base de U e B2 é base de W , existem
α1 , . . . , αk , β1 , . . . , βl , γ1 , . . . , γk , δ1 , . . . , δm ∈ K tais que
u = α1 v1 + · · · + αk vk + β1 u1 + · · · + βl ul
e
w = γ1 v1 + · · · + γk vk + δ1 w1 + · · · + δm wm .
Logo,
α1 v1 + · · · + αk vk + β1 u1 + · · · + βl ul + γ1 w1 + · · · + γm wm = 0, (2.4)
temos
γ1 w1 + · · · + γm wm = −α1 v1 − · · · − αk vk − β1 u1 − · · · − βl ul ∈ U ∩W.
Portanto, existem δ1 , . . . , δk ∈ K tais que
γ1 w1 + · · · + γm wm = δ1 v1 + · · · + δk vk ⇒ γ1 w1 + · · · + γm wm − δ1 v1 − · · · − δk vk = 0.
Se U ∩W = {0}, deixamos como exercício a verificação de que a união de uma base de U com uma
base de W será uma base de U +W , donde segue o resultado.
v = (x, y, z,t) ∈ W ⇔ y = −x ⇔ v = (x, −x, z,t) = x(1, −1, 0, 0) + z(0, 0, 1, 0) + t(0, 0, 0, 1).
Ou seja,
v ∈ W ⇔ v ∈ [(1, −1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)].
Portanto,
W = [(1, −1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)].
Não é difícil verificar que B2 = {(1, −1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} é LI, portanto é base de W e
dimW = 3.
Vamos agora determinar uma base de U ∩W . Os vetores em U são da forma
Assim, U ∩W ⊆ [(1, −1, 1, 0)]. Deixamos como exercício a verificação que (1, −1, 1, 0) ∈ U ∩W , o
que implica [(1, −1, 1, 0)] ⊆ U ∩W , pois U ∩W é subespaço vetorial. Portanto, U ∩W = [(1, −1, 1, 0)],
{(1, −1, 1, 0)} é uma base de U ∩W e dim(U ∩W ) = 1.
Pela Proposição 2.6.4,
dim(U +W ) = 2 + 3 − 1 = 4.
Além disso, como U +W é um subespaço de R4 , com dim(U +W ) = dim R4 , temos que U +W = R4 .
Por fim, a soma U +W não é direta, pois U ∩W 6= {0}.
2.7 Coordenadas e matriz de mudança de base 35
v = α1 e1 + · · · + αn en .
αn
Observe que, nesse caso, o vetor [v]C das coordenadas de v se confunde com o próprio vetor v, mas não
é sempre assim. Em geral, dada uma base B = {v1 , . . . , vn }, existem únicos escalares β1 , . . . , βn tais que
v = β1 v1 +· · ·+βn vn , e então define-se as coordenadas de v em relação à base B por [v]B = (β1 , . . . , βn )B .
Por exemplo, se n = 3 e B = {(1, 1, 0), (0, 1, 0), (0, 0, 3)}, dado v = (a, b, c) ∈ R3 , temos
c
(a, b, c) = β1 (1, 1, 0) + β2 (0, 1, 0) + β3 (0, 0, 3) = (β1 , β1 + β2 , 3β3 ) ⇔ β1 = a, β2 = b − a, β3 = .
3
Assim, c
[v]B = a, b − a, .
3 B
Além de conhecer as coordenadas, queremos também saber como transitar das coordenadas de um
vetor em relação a uma base para outra. É aí que entra a matriz de mudança de base. No exemplo
acima, observe que
a 1 0 0 a
b = 1 1 0 b−a . (2.5)
c 0 0 3 c/3
A matriz
1 0 0
MBC = 1 1 0
0 0 3
é a matriz de mudança de base de B para C, pois ela faz a transição de coordenadas de um vetor em
relação à base B para as coordenadas em relação à base C. Ou seja, (2.5) se traduz em
Definição 2.7.1 Seja V um K-espaço vetorial de dimensão finita n ≥ 1. Fixe B = {v1 , . . . , vn } uma
base ordenada de V , isto é, uma base com a ordem dos vetores fixada. Dado v ∈ V , os únicos
escalares α1 , . . . , αn ∈ K tais que v = α1 v1 + · · · + αn vn , são chamados de coordenadas de v em
relação à base B, e denotamos
α1
[v]B = ... ou [v]B = (α1 , . . . , αn )B = (α1 , . . . , αn ).
αn
Igualando os coeficientes dos polinômios, não é difícil ver que α1 = −3, α2 = 4 e α3 = 1. Portanto,
A grande vantagem de trabalhar com coordenadas ao invés dos próprios vetores é o ganho com-
putacional. Observe que, independente do espaço vetorial e da cara dos vetores (n-uplas, polinômios,
funções, matrizes...) o vetor de coordenadas é sempre um elemento de Kn (ou de Mn×1 (K)) onde n
é a dimensão do espaço. Além disso, propriedades interessantes relacionadas aos vetores podem ser
transportadas para suas coordenadas, como ilustra a proposição a seguir.
Proposição 2.7.3 Sejam V um K-espaço vetorial de dimensão finita n ≥ 1 e B uma base de V . Para
todos u, v ∈ V e λ ∈ K, são válidas:
Demonstração. Exercício.
Agora, veremos como construir a matriz de mudança de base. Fixe V um K-espaço vetorial de
dimensão finita n ≥ 1 e duas bases ordenadas B = {u1 , . . . , un } e C = {v1 , . . . , vn }.
Basicamente, matriz de mudança de base de B para C tem na j-ésima coluna as coordenadas do vetor
u j em relação à base C. Para construí-la, então, precisamos escrever cada u j como combinação linear
dos vetores de C, e então coletar os escalares que aparecem.
Para cada j = 1, . . . , n, existem únicos escalares a1 j , . . . , an j ∈ K, tais que
n
u j = a1 j v1 + · · · + an j vn = ∑ ai j vi .
i=1
2.7 Coordenadas e matriz de mudança de base 37
Então,
! !
n n n n n n
w= ∑ α j u j = ∑ α j ∑ ai j vi =∑ ∑ ai j α j vi = ∑ (ai1 α1 + · · · + ain αn ) vi .
j=1 j=1 i=1 i=1 j=1 i=1
Como os escalares da combinação linear dos vetores de uma base são únicos, temos
β1 = a11 α1 + · · · + a1n αn
.. .
.
βn = an1 α1 + · · · + ann αn
A matriz MBC = (ai j )n×n é chamada de matriz mudança de base de B para C. Pelo exposto anteriormente,
essa matriz satisfaz
Além disso, se M = (bi j ) ∈ Mn (K) satisfaz [w]C = M[w]B , para todo w ∈ V , substituindo w = u j ,
j = 1, . . . , n, obtém-se que bi j = ai j para todos i, j (verifique). Ou seja, M = MBC . Portanto, a matriz de
mudança de base é a única que satisfaz (2.6).
Proposição 2.7.5 Seja V um K-espaço vetorial de dimensão finita n ≥ 1 e duas bases B e C. Então,
−1
MBC é inversível e a matriz de mudança de base de C para B é MCB = MBC .
Exemplo 2.7.6 Seja V = P1 (R). Determine a matriz de mudança de base da base canônica C = {1, x}
para a base B = {1 + x, 1 − x} e as coordenadas do vetor p(x) = 2 + 3x em relação à base B.
Solução. Podemos obter a matriz MCB diretamente, ou obter MBC e invertê-la. Note que, obter a
matriz de mudança de qualquer base para a base canônica é simples, uma vez que é fácil descrever as
coordenadas de qualquer vetor em relação a base canônica. No caso dos vetores de B:
1+x = 1·1+1·x e 1 − x = 1 · 1 − 1 · x,
logo
1 1 (1.5) −1 1 −1 −1 1/2 1/2
MBC = ⇒ MCB = MBC =− = .
1 −1 2 −1 1 1/2 −1/2
Agora, podemos usar a matriz MCB para determinar as coordenadas de p(x) em relação à B:
1/2 1/2 2 5/2
[p(x)]B = MCB [p(x)]C = = .
1/2 −1/2 3 −1/2
Vimos anteriormente que todo conjunto gerador contém uma base e que todo subconjunto LI pode
ser completado para uma base. Esses dois problemas podem ser traduzidos utilizando subespaços
vetoriais: dado um conjunto gerador de um subespaço, como determinar uma base deste subespaço,
e, dada uma base de um subespaço, como completar essa base para formar uma base de todo o
espaço. Nesta seção, descreveremos métodos práticos, utilizando coordenadas, para resolver esses dois
problemas.
Seja V um K-espaço vetorial de dimensão finita n ≥ 1 e fixe B = {v1 , . . . , vn } uma base ordenada de V .
Tome um subconjunto S = {u1 , . . . , um } ⊆ V . Vamos determinar uma base para o subespaço W = [S].
Escreva cada vetor ui como combinação linear da base B:
u1 = a11 v1 + · · · + a1n vn
.. .
.
um = am1 v1 + · · · + amn vn
Procedimento 2.8.1 (i) Escreva a matriz A cuja i-ésima linha é formada pelas coordenadas de
ui em relação à B:
a11 ··· a1n
.. ..
A= . .
am1 · · · amn
(ii) Aplique operações elementares nas linhas de A até obter uma matriz A0 na forma escalonada
(ou escalonada reduzida).
Para verificar as afirmações do item (iii), primeiro observamos como se traduzem as operações elemen-
tares nas linhas de A em termos dos vetores de S:
• trocar a posição de duas linhas da matriz corresponde a trocar dois vetores de posição;
• multiplicar uma linha da matriz por um escalar diferente de zero corresponde a trocar um vetor
ui por um múltiplo por escalar (não nulo) αui ;
• somar a uma linha da matriz um múltiplo escalar de outra linha corresponde a trocar um vetor ui
por ui + αu j (i 6= j).
Deixamos como exercício a verificação de que realizar essas operações num conjunto gerador não
alteram o subespaço gerado. Como, eliminar os vetores nulos também não altera o subespaço gerado,
segue que [{w1 , . . . , wr }] = [S] = W .
Por fim, como a matriz A0 está na forma escalonada, não é difícil verificar que suas linhas não nulas são
vetores LI em Kn , donde segue, junto com a Proposição 2.7.3, que S0 = {w1 , . . . , wr } é LI em W .
Exemplo 2.8.2 Sejam V = P3 (R) e W = [p1 , p2 , p3 ] ⊆ V , onde p1 (x) = 1 + 2x2 − x3 , p2 (x) = 1 + 5x2 ,
p3 (x) = −6x2 − 2x3 . Determine uma base para W .
40 Capítulo 2. Espaços vetoriais
Suponha que aplicamos o Procedimento 2.8.1, mas durante a etapa (ii) não foi feita nenhuma troca
de linhas nas operações elementares. Neste caso, talvez as linhas nulas não estejam todas abaixo das
linhas não nulas, então A0 não estaria bem numa forma escalonada, mas quase. Se a i-ésima linha de A0
é nula, então o vetor ui é combinação linear de outros vetores de S (verifique), e portanto ele poderia
ser eliminado do conjunto gerador. Assim, se quiséssemos uma base de W contida em S, bastaria
considerar S0 o conjunto dos vetores u j tais que a j-ésima linha de A0 é não nula.
Considere agora R = {w1 , . . . , wr } um subconjunto LI de V (r ≤ n). Assim, R é uma base do
subespaço W = [R]. Descreveremos como completar R para formar uma base de V . As demonstrações
serão deixadas para o leitor, embora as ideias já foram apresentadas anteriormente.
Procedimento 2.8.3 (i) Escreva a matriz A cuja i-ésima linha é formada pelas coordenadas de
wi em relação à B.
(ii) Aplique operações elementares nas linhas de A até obter uma matriz A0 na forma escalonada
(ou escalonada reduzida). Como R é LI, A0 não terá linhas nulas.
(iii) Acrescente n − r linhas na matriz A0 de modo a obter uma matriz M ∈ Mn (K) na forma
escalonada (ou escalonada reduzida). Essas novas linhas serão as coordenadas, em relação à
base B, de vetores wr+1 , . . . , wn ∈ V tais que C = {w1 , . . . , wr , wr+1 , . . . , wn } é base de V .
Mais ainda, se U = [wr+1 , . . . , wn ], então V = W ⊕U.
q2 (x) = 3x2 + x3 , que formam uma base S0 = {q1 , q2 } de W . Se preferir uma base de W contida em S,
basta observar que, como no escalonamento de A para A0 não foi feita troca de linhas e a terceira linha
em A0 é nula, então p3 é combinação linear de p1 e p2 , e, R = {p1 , p2 } é base de W contida em S.
Para completar uma base de V , considere a matriz obtida de A0 eliminando a terceira linha que é
nula. Ficamos assim com uma matriz 2 × 4, onde podemos acrescentar 2 linhas de modo a obter a
matriz M ∈ M4 (R) na forma escalonada:
1 0 2 −1
0 1 0 0
M= 0 0 3 1 .
0 0 0 1
u · v = x1 x2 + y1 y2 + z1 z2 ,
ou seja, é a soma do produto entre as coordenadas de u e v. Além disso, o produto interno também
estava associado ao ângulo θ entre os vetores u e v, através da relação
A seguir, apresentamos a definição de produto interno para um espaço vetorial qualquer. Lembramos
que K = R ou C e z̄ denota o conjugado complexo do escalar z (ocorre z̄ = z ⇔ z ∈ R).
44 Capítulo 3. Espaços vetoriais com produto interno
Definição 3.1.1 Seja V um K-espaço vetorial. Um produto interno sobre V é uma função
h·, ·i : V ×V → K que satisfaz as propriedades:
O par (V, h·, ·i) é chamado de espaço com produto interno ou espaço pré-Hilbert.
Listaremos a seguir alguns exemplos de produto interno em diferentes espaços vetoriais. Um bom
exercício para o leitor seria verificar que de fato eles satisfazem as quatro condições da Definição 3.1.1
sem olhar as demonstrações apresentadas.
Exemplo 3.1.2 Sejam u = (x1 , . . . , xn ) e v = (y1 , . . . , yn ) vetores quaisquer de Kn . A função
n
hx, yi = ∑ xi ȳi
i=1
define um produto interno em Kn . Este produto interno é chamado de produto interno usual, ou
canônico, de Kn .
Prova. Sejam u = (x1 , . . . , xn ), v = (y1 , . . . , yn ) e w = (z1 , . . . , zn ) vetores quaisquer de Kn e λ um
escalar. Segue das propriedades de números reais, ou complexos, que
n n n n
(i) hu + v, wi = ∑ (xi + yi )z¯i = ∑ (xi z¯i + yi z¯i ) = ∑ xi z¯i + ∑ yi z¯i = hu, wi + hv, wi;
i=1 i=1 i=1 i=1
n n n
(ii) hλ u, vi = ∑ (λ xi )ȳi = ∑ λ xi ȳi = λ ∑ xi ȳi = λ hu, vi;
i=1 i=1 i=1
!
n n n n
(iii) hv, ui = ∑ yi x̄i = ∑ yi x̄i = ∑ ȳi xi = ∑ xi ȳi = hu, vi;
i=1 i=1 i=1 i=1
n n
(iv) hu, ui = ∑ xi x̄i = ∑ |xi |2 ∈ R. Além disso, se u 6= 0 então existe xi 6= 0 e assim hu, ui > 0.
i=1 i=1
Se pensarmos em u e v como vetores coluna de Kn , isto é, u, v ∈ Mn×1 (K), então podemos escrever
hu, vi = x> ȳ.
define um produto interno em Mn (K). Este produto interno é chamado de produto interno usual, ou
canônico, de Mn (K). Outra maneira de reescrever essa função, utilizando matriz transposta conjugada
e a função traço, é
>
hA, Bi = tr A B (verifique).
3.1 Definições e propriedades 45
Prova. Sejam A, B,C ∈ Mn (K), A = (ai j )n×n , B = (bi j )n×n , C = (ci j )n×n e λ um escalar. Segue das
propriedades de números reais, ou complexos, que
n n n n n n n n
(i) hA + B,Ci = ∑ ∑ (ai j + bi j )ci j = ∑ ∑ (ai j ci j + bi j ci j ) = ∑ ∑ ai j ci j + ∑ ∑ bi j ci j
i=1 j=1 i=1 j=1 i=1 j=1 i=1 j=1
= hA,Ci + hB,Ci;
n n n n
(ii) hλ A, Bi = ∑ ∑ (λ ai j )bi j = λ ∑ ∑ ai j bi j = λ hA, Bi;
i=1 j=1 i=1 j=1
n n n n n n
(iii) hB, Ai = ∑ ∑ bi j ai j = ∑ ∑ bi j ai j = ∑ ∑ ai j bi j = hA, Bi;
i=1 j=1 i=1 j=1 i=1 j=1
n n n n
(iv) hA, Ai = ∑ ∑ ai j ai j = ∑ ∑ |ai j |2 ∈ R. Além disso, se A 6= 0 então existe ai j 6= 0 e assim
i=1 j=1 i=1 j=1
n n
∑ ∑ |ai j |2 > 0. Ou seja, hA, Ai > 0.
i=1 j=1
Portanto, a função
n
>
hA, Bi = ∑ ai j bi j = tr A B
i, j=1
define um produto interno no espaço C ([a, b], R). Este produto interno é chamado de produto interno
usual, ou canônico, de C ([a, b], R).
Prova. As condições (i) e (ii) da Definição 3.1.1 seguem das propriedades do Cálculo Integral
e a condição (iii) é mais imediata. Para verificar a condição (iv), considere f ∈ C ([a, b], R) não
identicamente nula. Como f é contínua em [a, b], f 2 (t) = f (t) f (t), também é contínua e não nula,
logo, existe um intevarlo [c, d] ⊆ [a, b] tal que f 2 (t) > 0 para todo t ∈ [c, d]. Tomando m > 0 o valor
mínimo de f 2 em [c, d], temos
Z b Z b Z d Z d
hf, fi = f (t) f (t)dt = f 2 (t)dt ≥ f 2 (t) dt ≥ m dt = m(d − c) > 0.
a a c c
Proposição 3.1.6 — Propriedades básicas. Sejam V um K-espaço vetorial com produto interno
h·, ·i, u, v, w ∈ V e α ∈ K.
(ii) (⇒) Segue do item (iv) da Definição 3.1.1 que hu, ui > 0 para todo u 6= 0. Logo, se hu, ui = 0,
então u = 0.
(⇐) Se u = 0, então hu, ui = h0, 0i = 0 pelo item (i).
(iii) hu, αvi = hαv, ui = α hv, ui = α hv, ui = α hu, vi.
(iv) hu, v + wi = hv + w, ui = hv, ui + hw, ui = hv, ui + hw, ui = hu, vi + hu, wi.
(v) Segue por indução sobre m e n, utilizando os itens (i) e (ii) da Definição 3.1.1 e os itens (iii) e
(iv) desta proposição.
Além do produto interno, o conceito de norma vetorial também foi visto no curso de Geometria
Analítica e será generalizado para um espaço vetorial qualquer.
Definição 3.1.7 Seja V um K-espaço vetorial. Uma norma em V é uma função || · || : V → R que
satisfaz as propriedades a seguir.
O par (V, || · ||) é chamado de espaço vetorial normado. Se ||v|| = 1, dizemos que o vetor v está
normalizado.
define uma norma em Rn , chamada de norma infinito ou norma do máximo. Deixaremos a verificação
como exercício.
Prova. Sejam u = (x1 , . . . , xn ) e v = (y1 , . . . , yn ) vetores quaisquer de Rn e α um escalar. Segue das
propriedades de números reais, que
(iii) ||αu||∞ = max |αxi | = max |α||xi | = |α| max |xi | = |α|||u||∞ ;
1≤i≤n 1≤i≤n 1≤i≤n
(iv) ||u + v|| = max |xi + yi | = |xk + yk | para algum k ∈ {1, . . . , n}. Então,
1≤i≤n
||u + v|| = |xk + yk | ≤ |xk | + |yk | ≤ max |xi | + max |y j | = ||u|| + ||v||.
1≤i≤n 1≤ j≤n
Logo, a função
||v||∞ = max |xi |
1≤i≤n
A partir de um produto interno, pode-se obter uma norma no espaço vetorial, como veremos a
seguir.
Teorema 3.1.9 Seja V um K-espaço com produto interno h·, ·i. A função
p
||v|| = hv, vi, para todo v ∈ V,
define uma norma em V . Neste caso, dizemos que || · || é a norma proveniente do produto interno,
ou, norma induzida pelo produto interno.
(iv) A desigualdade triangular para a norma induzida é um resultado importante e será enunciada a
seguir.
48 Capítulo 3. Espaços vetoriais com produto interno
Demonstração. (i) Note que o resultado é válido se um dos vetores é o vetor nulo (ocorre a igualdade e
u e v são LD). Vamos supor, então, que u 6= 0 e v 6= 0. Dado λ ∈ K e defina w = v − λ u. Como u, v ∈ V
segue que w também é um vetor de V . Então,
||u+v||2 = hu+v, u+vi = hu, ui+hu, vi+hu, vi+hv, vi = ||u+v||2 = ||u||2 +2 Re(hu, vi)+||v||2 . (3.1)
Como Re(z) ≤ |z| para todo z ∈ C, segue, junto com o item anterior, que
ou seja,
||u + v||2 = (||u|| + ||v||)2 ⇔ ||u + v|| ≤ ||u|| + ||v||.
Os exemplos de normas a seguir decorrem do Teorema 3.1.9 e dos Exemplos 3.1.2, 3.1.3, 3.1.4.
Exemplo 3.1.11 Seja u = (x1 , . . . , xn ) um vetor qualquer de Kn . A função
√
||x||2 = x1 x1 + · · · + xn xn
define uma norma em Kn . Essa norma é conhecida como norma usual, ou canônica, ou Euclidiana, de
Kn .
define uma norma em Mn (K). Essa norma é conhecida como norma de Frobenius.
3.1 Definições e propriedades 49
define uma norma em C ([a, b], R). Essa norma é conhecida como norma usual, ou canônica, de
C ([a, b], R).
Proposição 3.1.14 Sejam V um K-espaço vetorial com produto interno e || · || a norma induzida
associada. Então, são válidas as identidades a seguir, para todos u, v ∈ V .
Substituindo agora v por iv em (3.2), e usando que Re(−iz) = Im(z) para todo z ∈ C, temos
||u + iv||2 = ||u||2 + 2 Re(−ihu, vi) + |i| ||v||2 = ||u||2 + 2 Im(hu, vi) + ||v||2 , (3.3)
e, analogamente,
||u − iv||2 = ||u||2 + 2 Re(ihu, vi) + | − i| ||v||2 = ||u||2 − 2 Im(hu, vi) + ||v||2 . (3.4)
50 Capítulo 3. Espaços vetoriais com produto interno
Dado um produto interno num espaço vetorial, o Teorema 3.1.9 afirma que é possível definir uma
norma no espaço a partir dele. Perguntas naturais que surgem são: dada uma norma num espaço
vetorial, ela é a norma induzida por algum produto interno? Se sim, é possível recuperar o produto
interno entre dois vetores quaisquer a partir da norma?
A resposta da segunda pergunta é sim, e para descrever o produto interno entre dois vetores
quaisquer conhecendo-se a norma, utiliza-se as Identidades de Polarização.
A primeira pergunta não é simples de responder, foi preciso um extenso trabalho de muitos
matemáticos, com destaque para Maurice René Fréchet e John von Neumann [Mey]. A conclusão
obtida foi a seguinte.
Dada uma norma || · || em um espaço vetorial V , existe um produto interno em V que induz essa
norma se, e somente se, a norma satisfaz a Lei do Paralelogramo para todos u, v ∈ V .
A demonstração desse fato utiliza ferramentas de Espaços Métricos que fogem do escopo deste curso, e
por isso não será apresentada aqui.
Exercício 3.1 Verifique que a norma infinito em Rn não satisfaz a Lei do Paralelogramo e, portanto,
não existe um produto interno associado a tal norma.
Definição 3.1.15 A distância entre os vetores u e v é definida por d(u, v) = ||u−v|| e o comprimento
de u por ||u||.
Além disso, se V é um R-espaço vetorial com produto interno h·, ·i, podemos generalizar a noção
de ângulo entre dois vetores, de R2 e R3 para V . Sejam u, v ∈ V \ {0}. Pela Desigualdade de Cauchy-
Schwarz,
hu, vi
| hu, vi | ≤ ||u||||v|| ⇔ −||u||||v|| ≤ hu, vi ≤ ||u||||v|| ⇔ −1 ≤ ≤ 1.
||u||||v||
Logo, existe único θ ∈ [0, π] tal que
hu, vi
cos θ = . (3.5)
||u||||v||
Esse θ pode ser definido como o ângulo entre u e v. O ângulo entre o vetor nulo e qualquer outro é
definido como sendo 0.
Observação 3.1.16 Neste curso, estaremos interessados nas normas provenientes de produto
interno. Daqui por diante, toda vez que nos referirmos a norma em um espaço vetorial com produto
interno, estaremos nos referindo a norma induzida por ele.
Definição 3.2.1 Seja V um K-espaço vetorial com produto interno h·, ·i. Dados u, v ∈ V , dizemos
que u e v são ortogonais, e denotamos u ⊥ v, se hu, vi = 0.
Um subconjunto S ⊆ V é dito ortogonal se os seus elementos são dois a dois ortogonais, isto é u ⊥ v
para todos u, v ∈ S, u 6= v. Além disso, dizemos que S é ortonormal se for um conjunto ortogonal e
||u|| = 1 para todo u ∈ S.
Observação 3.2.2 O vetor nulo é ortogonal a todos os vetores do espaço. Além disso, ele é o
único vetor com essa propriedade, pois se hu, vi = 0 para todo v ∈ V , em particular para v = u tem-se
hu, ui = 0 ⇒ u = 0.
Exemplo 3.2.3 Seja V = R4 com o produto interno usual. Determine se os vetores u = (1, 0, 3, −2)
e v = (3, 5, −1, 0) são ortogonais.
Solução. Basta calcularmos o produto interno entre esses dois vetores,
hu, vi = 1 · 3 + 0 · 5 − 3 · 1 − 2 · 0 = 0.
Exemplo 3.2.4 Seja V = C3 com produto interno usual. Determine se os vetores u = (−2, i, 1) e
v = (1, 0, i) são ortogonais.
Solução. Basta calcularmos o produto interno entre esses dois vetores,
hu, vi = −2 · 1̄ + i · 0̄ + 1 · ī = −2 − i.
Exemplo 3.2.5 Seja V = C ([−π, π], R) com o produto interno usual. Determine se o conjunto
S = {sen x, cos x} é ortonormal.
Solução. Primeiramente vamos calcular o produto interno entre os vetores de S,
2 π
sen x
Z π
hsen x, cos xi = sen x cos x dx = = 0.
−π 2 −π
Como hsen x, cos xi = 0, segue que sen x e cos x são ortogonais e, portanto, S é ortogonal. Além disso,
x sen(2x) π
Z π
2 2
|| sen x|| = hsen x, sen xi = sen x dx = − = π 6= 1,
−π 2 4 −π
Exemplo 3.2.6 Seja V = C ([0, 1], R) com produto interno usual. Determine o ângulo entre t e t 2 .
Solução. Utilizando a definição em (3.5), precisamos calcular ||t||, ||t 2 || e o produto interno ht,t 2 i.
Assim,
Z 1 3 1
2 2 t 1 1
||t|| = t dt = = ⇒ ||t|| = √ ,
0 3 0 3 3
1
t5
Z 1
1 1
||t 2 ||2 = t 4 dt = = ⇒ ||t 2 || = √ ,
0 5 0 5 5
Z 1 4 1
t 1
ht,t 2 i = t 3 dt = = .
0 4 0 4
52 Capítulo 3. Espaços vetoriais com produto interno
√ √ !
15 15
Daí, cos θ = e θ = arccos .
4 4
Definição 3.2.8 Uma base ortogonal para um espaço vetorial V é uma base para V que também
é um conjunto ortogonal. E, uma base ortonormal para V é uma base para V que também é um
conjunto ortonormal.
Exemplo 3.2.9 As bases canônicas de Kn e Mn (K) são bases ortonormais em relação aos produtos
internos usuais desses espaços (verifique).
Proposição 3.2.10 Sejam V um K-espaço vetorial com produto interno B = {v1 , . . . , vn } uma base
ortogonal para um subespaço W de V . Então, qualquer w ∈ W é escrito como
n
hw, v j i
w= ∑ v.
2 j
(3.6)
j=1 ||v j ||
Observação 3.2.11 As ordens dos produtos internos que aparecem na equação (3.6) são importan-
tes se K = C.
A Proposição 3.2.10 mostra que as coordenadas de um vetor são facilmente determinadas quando
trabalhamos com uma base B = {v1 , . . . , vn } ortogonal:
hw, v1 i hw, vn i
[w]B = , ... , .
||v1 ||2 ||vn ||2
n n
Além disso, se B é uma base ortonormal de V , dados u = ∑ αi vi e v = ∑ β j v j em V , temos
i=1 j=1
* +
n n n n n
hu, vi = ∑ αi vi , ∑ β j v j = ∑ ∑ αi β j hvi , v j i = ∑ αi βi .
i=1 j=1 i=1 j=1 i=1
Ou seja, se [u]B = (α1 , . . . , αn ) e [v]B = (β1 , . . . , βn ), então o produto interno hu, vi em V é igual ao
produto interno usual de Kn aplicado às coordenadas h[u]B , [v]B i, e portanto é simples de se trabalhar
do ponto de vista computacional.
Uma pergunta natural que surge é: todo espaço vetorial com produto interno possui base ortonormal?
A resposta é sim, e para obter bases ortonormais, utilizaremos o processo de Gram-Schmidt que será
visto adiante. Antes, apresentamos um resultado que será útil nesse processo.
n
é ortogonal a todo vetor do subespaço gerado por S. Se S é ortonormal, então u = v − ∑ hv, vi ivi .
i=1
Antes de demonstrar esse resultado, faremos um exemplo em R2 para entender melhor o seu
significado.
Exemplo 3.2.13 Considere o espaço R2 com o produto interno usual. Sejam v1 = (1, 0) e S = {v1 }.
Dado um vetor v = (a, b) ∈ R2 , temos
u = v − hv, v1 iv1 = (a, b) − h(a, b), (1, 0)i(1, 0) = (a, b) − a · (1, 0) = (0, b),
ou seja, u só tem componente não nula na direção de (0, 1), que é ortogonal à v1 .
Queremos mostrar que u é ortogonal a qualquer vetor do subespaço gerado por S. Para isso, primeira-
mente vamos mostrar que u é ortogonal a qualquer vetor do conjunto S. Se v j ∈ S, então
* +
n n
hv, vi i hv, vi i
hu, v j i = v − ∑ 2
v i , v j = hv, v j i − ∑ hv , v i.
2 i j
i=1 ||vi || i=1 ||vi ||
54 Capítulo 3. Espaços vetoriais com produto interno
hv, v j i
hu, v j i = hv, v j i − ||v j ||2 = 0,
||v j ||2
Processo de Gram-Schmidt
Seja B = {v1 , . . . , vn } uma base qualquer para um espaço vetorial V com produto interno. Cons-
truiremos uma base ortogonal Γ = {u1 , . . . , un } para V , a partir dos vetores de B. Isso será feito de
maneira indutiva, de modo que, para cada k ∈ {1, . . . , n}, Γk = {u1 , . . . , uk } será uma base ortogonal
para Vk = [v1 , . . . , vk ].
Primeiro passo: como B é base, v1 6= 0, logo u1 = v1 é tal que Γ1 = {u1 } é ortogonal e [v1 ] = [u1 ].
Ilustraremos explicitamente o passo para k = 2 para facilitar a compreensão. Queremos determinar
u2 ortogonal a u1 tal que [u1 , u2 ] = [v1 , v2 ]. Considere
hv2 , u1 i
u2 = v2 − u1 .
||u1 ||2
hv2 , u1 i
v2 = u1 ⇒ v2 ∈ [u1 ] = [v1 ]
||u1 ||2
e {v1 , v2 } seria LD, o que não é verdade. Portanto, Γ2 = {u1 , u2 } é um conjunto ortogonal de vetores
não nulos, com [u1 , u2 ] ⊆ [u1 , v2 ] = [v1 , v2 ] e, portanto, é base ortogonal para V2 = [v1 , v2 ].
Suponha 1 < k ≤ n e que Γk−1 = {u1 , . . . , uk−1 } seja uma base ortogonal para Vk−1 = [v1 , . . . , vk−1 ]
(hipótese de indução). Determinaremos uk tal que Γk = {u1 , . . . , uk−1 , uk } é uma base ortogonal para
Vk . Defina
k−1
hvk , ui i
uk = vk − ∑ 2 i
u.
i=1 ||ui ||
Pela Proposição 3.2.12, uk é ortogonal a todos os vetores de Γk−1 . Além disso, uk 6= 0, pois, caso
contrário, chegaríamos que vk ∈ [u1 , . . . , uk−1 ] = [v1 , . . . , vk−1 ], absurdo pois {v1 , . . . , vk } é LI. Portanto,
Γk = {u1 , . . . , uk } é base ortogonal para Vk = [v1 , . . . , vk ].
Pelo Princípio de Indução, Γn = {u1 , . . . , un } é base ortogonal para V . Para obter uma base
uj
ortonormal, basta normalizar os vetores de Γn : considerando w j = , j = 1, . . . , n, então Γn =
||u j ||
{w1 , . . . , wn } gera o mesmo espaço Vn e é ortonormal, logo é uma base ortonormal para Vn . Também,
pode-se normalizar os vetores em cada etapa do processo.
Esse procedimento define o chamado Processo de Ortonormalização de Gram-Schmidt, e demonstra
o teorema a seguir.
3.2 Ortogonalidade e Processo de Gram-Schmidt 55
Teorema 3.2.14 Todo espaço vetorial de dimensão finita n ≥ 1 com produto interno possui base
ortonormal.
Exemplo 3.2.16 Seja V = R4 com produto interno usual, encontre uma base ortonormal para
W = [(1, 1, 1, 1), (1, 1, 2, 1), (1, 1, 1, 2)].
Solução. Sejam v1 = (1, 1, 1, 1), v2 = (1, 1, 2, 1) e v3 = (1, 1, 1, 2). O conjunto B = {v1 , v2 , v3 } é LI
(verifique), logo é uma base para W . Para encontrar uma base ortonormal para W basta aplicarmos o
processo de Gram-Schmidt para B. Temos,
√ w1 1
(i) w1 = (1, 1, 1, 1), ||w1 || = 4 = 2 e u1 = = (1, 1, 1, 1).
||w1 || 2
w2
(ii) w2 = v2 − hv2 , u1 iu1 e u2 = .
||w2 ||
51 1 1
w3 = (1, 1, 1, 2) − (1, 1, 1, 1) + √ √ (−1, −1, 3, −1) = 13 (−1, −1, 0, 2),
22 2 32 3
√
6
||v3 || = ,
3
1
concluímos que u3 = √ (−1, −1, 0, 2).
6
56 Capítulo 3. Espaços vetoriais com produto interno
Logo,
1 1 1 1 1 1 3 1 1 1 2
C= , , , , − √ , − √ , √ , − √ , − √ , − √ , 0, √
2 2 2 2 2 3 2 3 2 3 2 3 6 6 6
é base ortonormal para W .
Exemplo 3.2.17 Seja B = {1, x}. Encontre uma base ortonormal para [B], considerando o produto
interno usual de C ([−1, 1], R).
Solução. Sejam v1 (x) = 1 e v2 (x) = x. Para encontrar uma base ortonormal para [B] basta aplicarmos
o processo de Gram-Schmidt. Assim,
Z 1
2 w1 (x) 1
(i) w1 (x) = 1, ||w1 || = 1dx = 2 ⇒ u1 (x) = =√ .
−1 ||w1 || 2
w2
(ii) w2 = v2 − hv2 , u1 iu1 e u2 = .
||w2 ||
Calculando os valores necessários:
Z 1 2 1
1 x
hv2 , u1 i = x · √ dx = √ = 0,
−1 2 2 2 −1
w2 (x) = x,
1
x3
Z 1
2 2 2
||w2 || = x dx = = ,
−1 3 −1 3
√
3
concluímos que u2 (x) = √ x.
2
( √ )
1 3x
Logo, C = √ , √ é uma base ortonormal para [B].
2 2
Exemplo 3.2.18 — Fatoração QR. Sejam A ∈ Mm×n (R) uma matriz cujas colunas são os vetores
coluna x1 , . . . , xn ∈ Rm e R(A) o espaço coluna de A (veja Exemplo 2.3.6). Pelo processo de ortonorma-
lização de Gram-Schmidt, podemos encontrar u1 , . . . , un ∈ Rn ortogonais tais que R(A) = [u1 , . . . , un ]
e [u1 , . . . , uk ] = [x1 , . . . , xk ] para qualquer k ∈ {1, . . . , n}. Ou seja, para cada k, existem escalares
r1k , . . . , rkk ∈ R tais que
xk = r1k u1 + · · · + rkk uk + 0uk+1 + · · · + 0un .
Definindo
r11 r12 . . . r1n
| | | 0 r22 . . . r2n
Q = u1 u2 · · · un ∈ Mm×n (R) e R = . .. ∈ Mn (R)
.. . .
.. . . .
| | |
0 0 ... rnn
podemos escrever A = QR, com R uma matriz triangular superior e Q uma matriz cujas colunas são
ortogonais. Essa fatoração é bastante utilizada em matemática aplicada. Além disso, se dim(R(A)) = n,
então R é não singular.
3.2 Ortogonalidade e Processo de Gram-Schmidt 57
Quando trabalhamos com bases ortonormais, a matriz de mudança de base também possui uma
característica interessante, relacionada com a definição a seguir.
> >
Definição 3.2.19 Seja A ∈ Mn (K). Dizemos que A é uma matriz unitária se AA = A A = In , isto
>
é, A−1 = A . Quando K = R, onde neste caso AA> = A> A = In , dizemos que A é ortogonal.
A proposição a seguir traz uma caracterização de matriz unitária em termos de suas linhas ou
colunas.
(i) A é unitária;
e,
a11 a21 · · · an1 a11 a12 · · · a1n hv1 , v1 i hv2 , v1 i · · · hvn , v1 i
a12 a22 · · ·
a21 a22 · · ·
an2 a2n hv1 , v2 i hv2 , v2 i · · · hvn , v2 i
>
A A= . .. = .. .. .
.. .. .. .. .. .. .. ..
.. . . . . . . . . . . .
a1n a2n · · · ann an1 an2 · · · ann hv1 , vn i hv2 , vn i · · · hvn , vn i
>
hui , u j i = δi j para todos i, j = 1, . . . , n ⇔ AA = In ,
e
>
hvi , v j i = δi j para todos i, j = 1, . . . , n ⇔ A A = In .
Proposição 3.2.21 Seja V um K-espaço vetorial com produto interno. Sejam B = {v1 , . . . , vn } e
C = {u1 , . . . , un } bases ortonormais para V . Então, a matriz de mudança de bases MBC é unitária.
Demonstração. Suponha
a11 a12 · · · a1n
a21 a22 · · · a2n
MBC = . .. .
.. ..
.. . . .
an1 an2 · · · ann
58 Capítulo 3. Espaços vetoriais com produto interno
Então,
a11 a12 a1n
a21 a22 a2n
[v1 ]C = . , [v2 ]C = . , . . . , [vn ]C = . .
.. .. ..
an1 an2 ann
Ou seja, para cada j = 1, . . . , n, temos que
n
v j = a1 j u1 + a2 j u2 + · · · + an j un = ∑ ai j ui .
i=1
onde
1, se i = j
δi j = .
0, se i 6= j
>
Por outro lado, como MBC = (ai j ), temos MBC = (bi j ) com bi j = a ji . Logo
n n
> (3.8)
(MBC MBC )i j = ∑ bik ak j = ∑ aki ak j = δi j ,
k=1 k=1
> −1 >
ou seja, MBC MBC = In e, portanto, MBC = MBC .
S⊥ = {v ∈ V : hv, ui = 0, ∀ u ∈ S}.
(⇐) Seja w ∈ W um vetor qualquer. Como B gera W , existem escalares α1 , . . . , αk ∈ K tais que
w = α1 w1 + α2 w2 + · · · + αk wk .
Se v ∈ V é tal que hv, wi i = 0, para todo i = 1, . . . , k, então
* +
k k
hw, vi = ∑ α jw j, v = ∑ α j hw j , vi = 0
j=1 j=1
e, portanto, v ∈ W ⊥ .
Exemplo 3.3.4 Sejam V = R4 com produto interno usual e W = [(1, 0, 1, 1), (1, 1, 0, 1)]. Determine
uma base para W ⊥ .
Solução. Temos que W ⊥ = {(x, y, z,t) ∈ R4 : h(x, y, z,t), wi = 0, ∀ w ∈ W }. Como B = {w1 , w2 } =
{(1, 0, 1, 1), (1, 1, 0, 1)} é base de W , basta procurarmos pelos vetores v ∈ R4 tais que hv, wi i = 0,
i = 1, 2. Se v = (x, y, z,t) ∈ W ⊥ , então
0 = hv, w1 i = h(x, y, z,t), (1, 0, 1, 1)i = x + z + t ⇒ x = −z − t,
0 = hv, w2 i = h(x, y, z,t), (1, 1, 0, 1)i = x + y + t ⇒ y = −x − t = z + t − t = z
Logo,
v = (x, y, z,t) = (−z − t, z, z,t) = z(−1, 1, 1, 0) + t(−1, 0, 0, 1) ∈ [(−1, 1, 1, 0), (−1, 0, 0, 1)].
Ou seja, W ⊥ ⊆ [(−1, 1, 1, 0), (−1, 0, 0, 1)]. Não é difícil ver que (−1, 1, 1, 0), (−1, 0, 0, 1) são ortogo-
nais a w1 e w2 , portanto (−1, 1, 1, 0), (−1, 0, 0, 1) ∈ W ⊥ , donde segue que [(−1, 1, 1, 0), (−1, 0, 0, 1)] ⊆
W ⊥ (pois W ⊥ é subespaço). Logo, W ⊥ = [(−1, 1, 1, 0), (−1, 0, 0, 1)] e C = {(−1, 1, 1, 0), (−1, 0, 0, 1)}
é uma base para W ⊥ .
Proposição 3.3.6 Sejam V um K-espaço vetorial de dimensão finita n ≥ 1, com produto interno e
W ⊂ V um subespaço vetorial. Então V = W ⊕W ⊥ .
k
Logo, v = ∑ hv, wi iwi + u ∈ W +W ⊥ e, portanto, V = W +W ⊥ .
i=1
Corolário 3.3.8 Seja V um K-espaço vetorial de dimensão finita n ≥ 1, com produto interno. Se
W ⊂ V é um subespaço vetorial, então, dimV = dimW + dimW ⊥ .
Exercício 3.3 Sejam V um K-espaço vetorial de dimensão finita com produto interno. Se W ⊂ V é
um subespaço, prove que (W ⊥ )⊥ = W .
w ∈ W é tal que ||v − w|| = min{||v − u|| : u ∈ W }. Também poderia se considerar v ∈ W (ou P ∈ r),
mas nesse caso w = v seria a projeção ortogonal de v em W e ||v − w|| = 0.
Em R3 a situação é análoga. Se W é um plano em R3 passando pela origem e v = (a, b, c) ∈ R3 ,
a projeção ortogonal de v em W é o vetor w ∈ W tal que v − w é ortogonal ao plano W e ||v − w|| =
min{||v − u|| : u ∈ W } é a menor distância entre o ponto P = (a, b, c) e um ponto do plano W . Observe
que o complemento ortogonal W ⊥ neste caso é uma reta (passando pela origem) ortogonal a W e
paralela ao vetor v − w, isto é v − w ∈ W ⊥ . Veja a Figura 3.3.
Essas ideias serão generalizadas para um espaço vetorial V com produto interno.
Definição 3.4.1 Sejam V um K-espaço vetorial com produto interno, W ⊆ V um subespaço vetorial
e v ∈ V . Dizemos que w ∈ W é projeção ortogonal de v sobre W , e denotamos w = projW (v), se
v − w for ortogonal a todo vetor de W , isto é, se v − w ∈ W ⊥ .
Proposição 3.4.2 Seja V um K-espaço vetorial com produto interno e W ⊆ V um subespaço vetorial
de V com dimensão finita. Dado v ∈ V existe um único w ∈ W tal que v − w ∈ W ⊥ .
Demonstração. Existência: Seja B = {w1 , . . . , wk } uma base ortonormal para W . Segue da Proposição
3.2.12 que, dado v ∈ V ,
k
u = v − ∑ hv, wi iwi ∈ W ⊥ .
i=1
k
Logo, w = ∑ hv, wi iwi ∈ W satisfaz v − w ∈ W ⊥ e, portanto, w é uma projeção ortogonal de v em W .
i=1
v − w ∈ W ⊥ e v − w̄ ∈ W ⊥ .
Note que,
Observação 3.4.3 Na demonstração da proposição anterior apareceu uma fórmula para a projeção
ortogonal, a saber,
k
projW (v) = ∑ hv, wi iwi ,
i=1
desde que B = {w1 , . . . , wk } seja uma base ortonormal para W . Caso B = {u1 , . . . , uk } seja uma base
ortogonal para W (mas não necessariamente ortonormal), então
k
hv, ui i
projW (v) = ∑ u.
2 i
i=1 ||ui ||
Exemplo 3.4.5 Seja V = R4 com o produto interno usual. Determine a projeção ortogonal de
u = (1, 5, −1, 12) no espaço solução do sistema linear homogêneo
x1 + x2 + x4 = 0
.
2x1 + x2 + x3 = 0
Solução. Seja S o conjunto solução do sistema dado. Note que S = [(−1, 1, 1, 0), (1, −2, 0, 1)]. Porém,
os dois vetores não são ortogonais. Ortogonalizando, obtemos a base ortogonal B = {u1 , u2 } =
{(−1, 1, 1, 0), (0, −1, 1, 1)} (verifique). Segue que,
hu, u1 i hu, u2 i
projS (u) = 2
u1 + u2 = (−1, −1, 3, 2).
||u1 || ||u2 ||2
hp, x − 1i
projW (p) = .
||x − 1||2
Como
||x − 1||2 = hx − 1, x − 1i = (−3)(−3) + (−1)(−1) + 0 = 10
hp, x − 1i = 0 + (−4)(−1) + 0 = 4
segue que
4 2(x − 1)
projW (p) = (x − 1) = .
10 5
Exemplo 3.4.7 Seja V = C ([0, 1], R) com produto interno usual. Um exemplo clássico consiste em
determinar a projeção ortogonal de ex em W = [1, x].
3.4 Projeção ortogonal 63
Solução. Como
1
x2
Z 1
1
h1, xi = 1 · x dx = = 6= 0
0 2 0 2
seque
que{1, x} não é uma base ortogonal para W . Ortogonalizando essa base, obtemos B =
1
1, x − . Assim,
2
hex , 1i hex , x − 21 i
x 1 1
projW (e ) = 1+ x− = (e − 1) + 6(3 − e) x − ,
||1||2 ||x − 12 ||2 2 2
ou seja,
projW (ex ) = 4e − 10 + (18 − 6e)x.
Exemplo 3.4.8 Sejam V = R3 com produto interno usual e W = [(1, 2, −1)]. Determine a projeçao
ortogonal do elemento u = (4, 5, 2) ∈ R3 sobre o subespaço W e sobre o subespaço W ⊥ .
Solução. A projeção ortogonal de u sobre W é dada por
hu, wi
ũ = projW (u) = w = (2, 4, −2).
||w||2
Além disso, a projeção ortogonal ũ é o único vetor de W tal que u − ũ ∈ W ⊥ . Assim como, a projeção
ortogonal de u em W ⊥ é o único vetor ū de W ⊥ tal que u − ū ∈ (W ⊥ )⊥ = W . Como u − ũ ∈ W ⊥ e
u − (u − ũ) = ũ ∈ W , seque que ū = u − ũ = projW ⊥ (u). Logo,
O resultado a seguir afirma que a projW (v) é a melhor aproximação de v ∈ V por um vetor em W .
(i) v − w̄ ∈ W ⊥ ;
Demonstração. (i) ⇒ (ii) Seja w̄ ∈ W tal que v − w̄ ∈ W ⊥ . Para w ∈ W , w 6= w̄, temos que
Pela parte (i) ⇒ (ii) já demonstrada, ||v − s̄|| < ||v − s|| para todo s ∈ S \ {s̄}. Ou seja,
Z 1
Exemplo 3.4.10 Considere V = P3 (R) com o produto interno hp, qi = p(x)q(x) dx. Determine o
0
polinômio de grau 1 que melhor se aproxima de p(x) = x3 [Coe].
Solução. Queremos q̄(x) = a + bx ∈ P1 (R) tal que
√ ||p − q̄|| < ||p − q|| para todo q ∈ P1 (R) \ {q̄}. Pela
Proposição 3.4.9, q̄ = projP1 (p). Como B = {1, 3(2x − 1)} é base ortonormal de P1 (R) (verifique),
segue que
√ √ 1 9 9x 1
q̄(x) = projP1 (R) (x3 ) = hx3 , 1i + hx3 , 3(2x − 1)i 3 (2x − 1) = + (2x − 1) = − .
4 20 10 5
Veja a ilustração de p e q̄ na Figura 3.4, considerando o intervalo [0, 1].
Em Cálculo I foi visto que os candidatos a minimizadores de uma função são os seus pontos críticos.
Nesse caso, os pontos críticos são aqueles cuja derivada é igual a zero. Como
d 2
E (x) = 2 · 2 (2x − b1 ) + 2 · 3(3x − b2 ) + 2 · 4(4x − b3 ),
dx
temos
d 2
E (x) = 0 ⇔ (22 + 32 + 42 )x = 2b1 + 3b2 + 4b3 ,
dx
ou seja,
2b1 + 3b2 + 4b3 ha, bi
x= =
22 + 32 + 42 kak2
d2
é o único ponto crítico desse problema. Como 2 E 2 (x) = 2(22 + 32 + 42 ) > 0, segue que o ponto
dx
encontrado é um minimizador do problema.
No caso de um sistema linear com mais de uma variável a situação é bem parecida. Considere
a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2
.. (3.10)
.
am1 x1 + am2 x2 + · · · + amn xn = bm
um sistema linear incompatível (ou impossível), com coeficientes em K. Assim, não existe x ∈ Kn que
seja solução de (3.10). Queremos encontrar uma solução aproximada, x̃ ∈ Kn , que minimize o erro
cometido.
Denotando por A = (ai j ) ∈ Mm×n (K) a matriz do sistema (3.10) e b = (bi ) ∈ Mm×1 (K), o problema
de encontrar x̃ ∈ Kn tal que Ax̃ esteja o mais próximo possível de b, isto é,
||Ax̃ − b|| < ||Ax − b|| ∀ x ∈ Kn \ {x̃},
é chamado de Problema de Quadrados Mínimos.
Sejam A1 , . . . , An ∈ Km as colunas de A, isto é, Ai = [a1i , a2i , . . . , ami ]> . Se y = (y j ) ∈ Mn×1 (K)
então, pela Proposição 1.1.2(xiv)
Ay = y1 A1 + y2 A2 + · · · + yn An
ou seja, Ay é uma combinação linear das colunas de A. Logo, Ay ∈ R(A) = [A1 , A2 , . . . , An ] ⊆ Km .
Como queremos encontrar x̃ tal que Ax̃ esteja o mais próximo possível de b, basta calcularmos a
projeção ortogonal de b sobre o espaço coluna R(A). Note que, dizer que o sistema (3.10) é incompatível,
é equivalente a dizer que b ∈
/ R(A). Veja a Figura 3.5.
> >
A Ax̃ = A b.
O método dos quadrados mínimos é utilizado quando temos um sistema de equações Ax = b que
não possui solução. Neste caso, dizemos que x̃ é uma “solução” se a diferença ||Ax̃ − b||2 é a menor
possível. Essa “solução” é chamada de solução de quadrados mínimos.
Como visto anteriormente, a solução de quadrados mínimos x̃ deve satisfazer as equações normais
> > >
A Ax = A b. Se as colunas da matriz A forem LIs, a matriz A A será não singular, e a solução de
−1
> >
quadrados mínimos é dada unicamente por x̃ = A A A b. Se {A1 , . . . , An } for LD, a melhor
aproximação poderá ser escrita de várias maneiras diferentes como combinação linear de A1 , . . . , An .
Costuma-se escolher aquela de menor norma.
Exemplo 3.5.2 Considere o sistema
x1 − x4 = 0
−x2 + x3 + 2x4 = −2 .
x1 − x2 + x3 + x4 = −1
Deixamos como exercício a verificação de que esse sistema é impossível. Na forma matricial, esse
sistema é dado por Ax = b onde
x1
1 0 0 −1 x2 0
A = 0 −1 1 2 ∈ M3×4 (R), x = ∈ M4×1 (R) e b = −2 ∈ M3×1 (R).
x3
1 −1 1 1 −1
x4
Buscaremos uma solução para o problema de quadrados mínimos, utilizando as equações normais.
Temos,
1 0 1 2 −1 1 0
1 0 0 −1
0 −1 −1 −1 2 −2 −3
A> A =
0 −1 1 2 =
0 1 1 1 −2 2 3
1 −1 1 1
−1 2 1 0 −3 3 6
3.5 O Problema de Quadrados Mínimos 67
e
1 0 1 −1
0
0 −1 −1 3
A> b =
−2 = .
0 1 1 −3
−1
−1 2 1 −5
O sistema de equações normais é dado por
2 −1 1 0 x̃1 −1
−1 2 −2 −3 x̃2 3
=
1 −2 2 3 x̃3 −3
0 −3 3 6 x̃4 −5
α + 1/3
4α + 10/3
2α + 5/3 , α ∈ R. Neste caso, obtém-se infinitas soluções, pois as colunas
cuja solução geral é x̃ =
α
de A são LD. Não há contradição com a unicidade da projeção ortogonal, pois
1/3
Ax̃ = −5/3 , para todo α ∈ R,
−4/3
1/3
é a (única) projeção ortogonal de b em R(A). Mas a maneira de escrever −5/3 como combinação
−4/3
linear das colunas de A que não é única.
1/3
10/3
Uma melhor aproximação de uma “solução” do sistema Ax = b, por exemplo, é x = 5/3 .
Uma solução de quadrados mínimos pode ser utilizada para descrever uma tendência nos dados,
que poderá ser usada para fazer previsões.
Exemplo 3.5.3 O custo para produzir um certo livro é dado por c(t) = a + bt, com a sendo o custo
de edição e tipografia e b o custo de impressão e encadernação (para cada livro). Determine a função
custo quando foi observado que:
# livros 10 20 50 100
custo (R$) 1200,00 1500,00 2000,00 2700,00
1 100 2700
68 Capítulo 3. Espaços vetoriais com produto interno
Como esse sistema linear não admite solução (verifique), vamos buscar uma solução para o problema
de quadrados mínimos
Minimizar ||Ax − b||
x ∈ R2
utilizando as equaçẽs normais. Temos
1 10
1 1 1 1 1 20 = 4 180
A> A =
10 20 50 100 1 50 180 13000
1 100
e
1200
> 1 1 1 1 1500 7400
A b= = .
10 20 50 100 2000 412000
2700
O sistema de equações normais é dado por
4 180 a 7400
=
180 13000 b 412000
1124, 5
cuja solução é x̃ = . Ou seja, uma aproximação para a função custo é
16, 12
Exemplo 3.5.5 — Ajuste Polinomial. Dados m pares de números (t1 , y1 ), . . . , (tm , ym ), encontre o
polinômio de grau n que melhor ajusta yi como função de ti .
Solução. Seja p(t) = a0 + a1t + · · · + ant n o polinômio procurado. Se todos os pontos pertencessem ao
gráfico desse polinômio, teríamos
a0 + a1t1 + · · · + ant1n = y1
a0 + a1t2 + · · · + ant2n = y2
..
.
a0 + a1tm + · · · + antmn = ym
1 t1 · · · t1n
a0 y1
1 t2 · · · t n a1 y2
2
A = . . . ∈ Mm×(n+1) (R), x = . ∈ Rn+1 e b = . ∈ Rm .
.. .. . . ...
.. ..
1 tm · · · tmn an ym
m
m m
m ∑ ti ··· ∑ tin ∑ yi
i=1 i=1
i=1
a0
m m m
m
∑ ti2 n+1
∑ ti ··· ∑ ti a1 ∑ ti yi
i=1 i=1 i=1 . = i=1 .
..
. .. ..
. .. ..
. . . . .
m m m an
m
2n
∑ tin ∑ tin+1 ···
∑ ti n
∑ ti yi
i=1 i=1 i=1 i=1
A Figura 3.6 ilustra um exemplo com 10 pontos e polinômios de diferentes graus. Intuitivamente
podemos pensar que quanto maior o grau do polinômio, melhor será a aproximação obtida. O que não é
verdade. Ao resolvermos esse problema, dificuldades númericas começam a aparecer e a aproximação
deixa de ser precisa, veja a Figura 3.7. Não discutiremos aqui os fenômentos que levam a esses
problemas, o estudante interessado encontrará maiores informações em um curso de Álgebra Linear
Numérica ou Computacional.
70 Capítulo 3. Espaços vetoriais com produto interno
1.5 1.5
pontos pontos
1 1
3 3
1 1
5 5
7 7
0.5 0.5
0 0
−0.5 −0.5
−1 −1
−1.5 −1.5
0 2 4 6 8 10 12 14 0 2 4 6 8 10 12 14
Figura 3.6: Ajuste polinomial usando polinômios de grau 1 (em azul), grau 3 (em verde), grau 5 (em
rosa) e grau 7 (em vermelho).
10
pontos
8 19
−2
−4
−6
−8
−10
0 2 4 6 8 10 12 14
No exemplo anterior usamos um polinômio para ajustar um conjunto de dados. Mas poderíamos ter
utilizado qualquer função.
Dados um conjunto de pontos (t1 , y1 ), . . . , (tm , ym ) e um conjunto de funções f1 (t), . . . , fn (t), pode-
mos pensar em encontrar a melhor aproximação
n
y= ∑ x j f j (t).
j=1
Para tanto, basta utilizarmos a formulação do Problema de Quadrados Mínimos vista nos exemplos
anteriores.
Capítulo 4
Transformações lineares
Neste capítulo, estudaremos as funções entre espaços vetoriais. Assim como no cálculo estuda-se
as funções contínuas, deriváveis, integráveis, aqui em Álgebra Linear não nos interessam funções
quaisquer, mas sim aquelas que “preservam” as operações de espaço vetorial: soma e produto por escalar.
Essas funções serão chamadas de transformações lineares. Num primeiro momento, estudaremos
propriedades gerais de transformações lineares e veremos como relacionar espaços vetoriais distintos.
Em seguida, o foco serão funções de um espaço vetorial nele mesmo, que são chamadas de operadores
lineares.
A discussão apresentada nesse capítulo foi motivada pelos livros [Axl], [Coe] e [Nic].
Definição 4.1.1 Sejam U e V espaços vetoriais sobre o mesmo corpo K. Uma função T : U → V é
uma transformação linear se satisfaz:
Observação 4.1.2 Na definição anterior, apesar de usar a mesma notação, a soma em u1 + u2 não
é a mesma de T (u1 ) + T (u2 ), se os espaços vetoriais U e V são distintos. O mesmo vale para a
multiplicação por escalar. Ficará claro pelo contexto qual é a operação em cada caso.
Exemplo 4.1.3 Sejam U e V dois K-espaços vetoriais quaisquer. A função nula T : U → V definida
por T (u) = 0, para todo u ∈ U, é uma transformação linear (verifique).
A função identidade Id : U → U, definida por Id(u) = u, para todo u ∈ U, também é uma transformação
linear.
72 Capítulo 4. Transformações lineares
3 a + 2b 0
Exemplo 4.1.4 A função T : K → M2 (K) dada por T (a, b, c) = é uma trans-
0 3c − b
formação linear.
Prova. Dados u1 = (a1 , b1 , c1 ), u2 = (a2 , b2 , c2 ) ∈ K3 , temos
a1 + a2 + 2(b1 + b2 ) 0
T (u1 + u2 ) =
0 3(c1 + c2 ) − (b1 − b2 )
a1 + 2b1 0 a2 + 2b2 0
= + = T (u1 ) + T (u2 ).
0 3c1 − b1 0 3c2 − b2
Também, dados u = (a, b, c) ∈ K3 e λ ∈ K, temos
λ a + 2λ b 0 λ (a + 2b) 0 a + 2b 0
T (λ u) = = =λ = λ T (u).
0 3λ c − λ b 0 λ (3c − b) 0 3c − b
é linear.
Prova. Sabemos do Cálculo que, se f , g : R → R são funções deriváveis (o que é válido para funções
polinomiais), então ( f + g)0 = f 0 + g0 e (λ f )0 = λ f 0 para todo λ ∈ R. Portanto, dados p, q ∈ P(R) e
λ ∈ R, temos
D(λ p + q) = λ p0 + q0 = λ D(p) + D(q).
Logo, D é um operador linear em P(R).
O operador derivação também poderia ser definido no espaço mais geral das funções f : R → R
deriváveis.
Exemplo 4.1.6 Segue da Proposição 1.1.4 que a função T : Mn (K) → K dada por T (A) = tr (A) é
Exemplo 4.1.7 A função T : R2 → R dada por T (x, y) = x2 + 2y, não é uma transformação linear,
pois, por exemplo, T (1, 0) = 1, mas T (2, 0) = 4 6= 2 = 2 T (1, 0).
Exemplo 4.1.9 Seja a ∈ K fixo. A função Ta : K → K definida por T (x) = ax para todo x ∈ K é uma
T (x) = T (x · 1) = x T (1).
Tomando a = T (1), segue que T = Ta . Portanto, todos os operadores lineares em K são da forma Ta ,
a ∈ K.
Exemplo 4.1.10 Fixe A ∈ Mm×n (K). Considere a função TA : Kn → Km dada por TA (x) = Ax. Devido
as propriedades algébricas de matrizes (Proposição 1.1.2), TA é uma transformação linear.
Reciprocamente, se T : Kn → Km é uma transformação linear, então existe A ∈ Mm×n (K) tal que
T = TA , isto é, T (x) = Ax para todo x ∈ Km .
Prova. Considere B = {e1 , e2 . . . , en } a base canônica de Kn . Escreva
a11 a12 a1n
T (e1 ) = ... , T (e2 ) = ... , . . . , T (en ) = ... .
Assim, a matriz A = (ai j ) ∈ Mm×n (K) tem como j-ésima coluna T (e j ). Dado x = (x1 , x2 , . . . , xn ) ∈ Kn ,
temos x = x1 e1 + x2 e2 + · · · + xn en , logo
Exemplo 4.1.11 — Espaço das transformações lineares. Sejam U e V espaços vetoriais sobre
K. Se S : U → V e T : U → V são transformações lineares e λ ∈ K, então as funções:
também são transformações lineares (verifique). Assim, se L (U,V ) é o conjunto de todas as transfor-
mações lineares de U em V , temos operações soma e multiplicação por escalar definidas nesse conjunto.
Segue das propriedades de soma e multiplicação por escalar em V , que, com essas operações, L (U,V )
é um K-espaço vetorial, onde o vetor nulo é a transformação linear nula.
(i) T (0U ) = 0V
Observação 4.1.15 Devido ao Teorema 4.1.14, se U tem dimensão finita, toda transformação linear
T : U → V fica unicamente determinada ao conhecermos a imagem de T numa base {u1 , . . . , un }
de U. Muitas vezes, ao apresentar uma transformação linear, falaremos: seja T a transformação
linear tal que T (ui ) = vi . Neste caso, considere a única extensão linear possível, de T |B : B → V para
T : U → V , dada pelo teorema anterior.
Exemplo 4.1.16 Seja T : R2 → R3 uma transformação linear tal que T (1, 1) = (2, 1, 2) e
T (0, 1) = (1, 1, 2). Determine explicitamente T (x, y).
Solução. Primeiramente, observe que u1 = (1, 1) e u2 = (0, 1) formam uma base de R2 . Para descrever
T (x, y), precisamos escrever o vetor genérico (x, y) ∈ R2 como combinação linear da base {u1 , u2 }.
Temos,
(x, y) = x(1, 1) + (y − x)(0, 1) para todos x, y ∈ R.
Logo,
T (x, y) = x T (1, 1) + (y − x)T (0, 1) = x(2, 1, 2) + (y − x)(1, 1, 2) = (x + y, y, 2y).
4.1 Conceitos básicos 75
Exemplo 4.1.17 Sabendo que T é uma transformação linear, complete o elemento que deve estar no
lugar da interrogação
T : P2 (R) −→ P3 (R)
1 + x + x2 7−→ 2
1 − 2x 7−→ x2 − 3
x2 − 2x 7−→ x3 − x
x + 1 7−→ ?
Solução. Precisamos escrever x + 1 como combinação linear de 1 + x + x2 , 1 − 2x e x2 − 2x. Escrevendo
3 2 3
cuja solução é α = , β = e γ = − . Portanto,
5 5 5
3 2 3 3 2 3
T (x + 1) = T (1 + x + x2 ) + T (1 − 2x) − T (x2 − 2x) = · 2 + (x2 − 3) − (x3 − x),
5 5 5 5 5 5
ou seja,
1
? = T (x + 1) = (−3x3 + 2x2 + 3x).
5
Demonstração. (i) Primeiro observe que 0 ∈ ker T já que, sendo T transformação linear, ocorre
T (0) = 0. Agora, dados λ ∈ K e u1 , u2 ∈ ker T , temos T (u1 ) = 0 = T (u2 ) e
e,
T (λ u1 ) = λ T (u1 ) = λ · 0 = 0 ⇒ λ u1 ∈ ker T.
Portanto, ker T é subespaço de U.
(iii) Suponha que T é injetora. Mostremos que ker T = {0}. A inclusão {0} ⊆ ker T ocorre sempre.
Seja, agora, u ∈ ker T . Então, T (u) = 0 = T (0). Como T é injetora, segue que u = 0. Portanto,
ker T = {0}.
Reciprocamente, suponha ker T = {0}. Mostremos que T é injetora. Sejam u1 , u2 ∈ U tais que
T (u1 ) = T (u2 ). Então,
(iv) Como Im T é subespaço e T (B) ⊆ Im T , segue que [T (B)] ⊆ Im T . Mostremos, agora, que
Im T ⊆ [T (B)]. Seja v ∈ Im T . Então, existe u ∈ U tal que T (u) = v. Sendo B uma base de U,
existem u1 , . . . , un ∈ B, λ1 , . . . , λn ∈ K tais que
u = λ1 u1 + · · · + λn un .
Daí,
T (u) = T (λ1 u1 + · · · + λn un ) = λ1 T (u1 ) + · · · + λn T (un ) ∈ [T (B)].
Portanto, [T (B)] = Im T .
T (x, y, z) = 0 ⇔ (x − y, z, x + z − y) = (0, 0, 0) ⇔ x − y = z = x + z − y = 0 ⇔ x = y e z = 0.
Portanto, ker T = [(1, 1, 0)]. Para a imagem de T , considere a base B = {e1 , e2 , e3 } canônica de R3 .
Pela Proposição 4.1.19, T (B) gera Im T . Temos
Logo, Im T = [(1, 0, 1), (−1, 0, −1), (0, 1, 1)]. Como (−1, 0, −1) = −(1, 0, 1), podemos eliminar esse
vetor do conjunto gerador sem prejuízo. Assim,
Exemplo 4.1.21 Considere a transformação linear T : C2 → R3 dada por T (a + bi, c + di) = (2a +
c + d, a + b + c, −2b − c + d), onde a, b, c, d ∈ R e C2 é visto como R-espaço vetorial. Determine ker T
e Im T .
Solução. Começaremos por ker T . Temos
2a + c + d = 0
T (a + bi, c + di) = 0 ⇔ (2a + c + d, a + b + c, −2b − c + d) = (0, 0, 0) ⇔ a+b+c = 0 .
−2b − c + d = 0
A resolução desse sistema linear homogêneo com 3 equações e 4 variáveis será deixada como exercício.
O conjunto solução pode ser expressado na forma
T (1, 0) = (2, 1, 0), T (i, 0) = (0, 1, −2), T (0, 1) = (1, 1, −1), T (0, i) = (1, 0, 1).
Daí,
Essa descrição já determina o subespaço Im T . Se quiséssemos encontrar uma base para Im T , po-
deríamos, por exemplo, utilizar as ideias da Seção 2.8. O Teorema do Núcleo e Imagem, que será
apresentado a seguir, garante que dim(Im T ) = 2. Portanto, são necessários apenas 2 dos 4 vetores em
(4.1) para gerar Im T .
Teorema 4.1.22 — do núcleo e imagem. Sejam U e V espaços vetoriais sobre K, com dim(U) =
n (finita) e T : U → V uma transformação linear. Então,
α1 u1 + · · · + αk uk + β1 w1 + · · · + βm wm = 0.
Assim,
T (α1 u1 + · · · + αk uk + β1 w1 + · · · + βm wm ) = T (0) = 0.
Como α1 u1 + · · · + αk uk ∈ ker T , temos T (α1 u1 + · · · + αk uk ) = 0. Logo
β1 = · · · = βm = 0.
78 Capítulo 4. Transformações lineares
Daí,
α1 u1 + · · · + αk uk = α1 u1 + · · · + αk uk + β1 w1 + · · · + βm wm = 0.
Como B1 é base, é LI, logo segue que
α1 = · · · = αk = 0.
Portanto, B é LI.
Mostremos agora que [B] = U. A inclusão [B] ⊆ U é imediata. Para provar a inclusão contrária, seja
u ∈ U. Como T (u) ∈ Im T = [B2 ], existem β1 , . . . , βm ∈ K tais que
Assim,
u − (β1 w1 + · · · + βm wm ) = α1 u1 + · · · + αk uk ⇒ u = α1 u1 + · · · + αk uk + β1 w1 + · · · + βm wm ∈ [B].
Exemplo 4.1.24 Considere a (única) transformação linear T : R3 → P3 (R) tal que T (1, 0, 1) =
2 + x2 + x3 , T (0, 1, 0) = 1 + x2 , T (0, 0, 1) = x2 − x3 . Determine dim(ker T ) e dim(Im T ).
Solução. É fácil ver que B = {(1, 0, 1), (0, 1, 0), (0, 0, 1)} é uma base de R3 . Portanto, T (B) = {2 +
x2 + x3 , 1 + x2 , x2 − x3 } gera Im T . Vejamos se T (B) é LI. Colocando as coordenadas de seus vetores
em relação à base canônica de P3 (R) numa matriz (já trocando de posição as duas primeiras linhas) e
escalonando, obtemos
1 0 1 0 1 0 1 0 1 0 1 0
(L2 ← L2 −2L1 ) (L3 ← L3 +L2 )
2 0 1 1 ∼ 0 0 −1 1 ∼ 0 0 −1 1 .
0 0 1 −1 0 0 1 −1 0 0 0 0
Ou seja, T (B) é LD e o terceiro vetor x2 − x3 pode ser obtido como combinação linear dos outros
dois. Portanto, uma base para Im T é {1 + x2 , 2 + x2 + x3 } e dim(Im T ) = 2. Pelo Teorema do Núcleo e
Imagem,
4.2 Isomorfismos 79
4.2 Isomorfismos
Nesta seção, introduziremos o conceito de isomorfismo entre espaços vetoriais. Dois espaços
isomorfos, do ponto de vista da álgebra linear, são essencialmente o mesmo espaço, pois compartilham
as mesmas propriedades de espaços vetoriais, o que muda é apenas a aparência dos seus elementos.
Definição 4.2.1 Sejam U e V espaços vetoriais sobre o mesmo K.
(ii) Dizemos que U e V são isomorfos se existe um isomorfismo T : U → V . Neste caso, denota-
mos U ∼
= V.
Portanto, ker T = {0}, o que implica T injetora. Pelo Teorema do Núcleo e Imagem,
T (a0 + a1 x + · · · + an xn ) = (a0 , a1 , . . . , an ),
é um isomorfismo.
Observe nos exemplos anteriores que os espaços isomorfos possuem a mesma dimensão. Isso não é
uma coincidência! Veremos nesta seção que dois espaços vetoriais são isomorfos se, e somente se, eles
possuem a mesma dimensão.
Proposição 4.2.5 Se T : U → V é uma transformação linear injetora, então T leva todo conjunto
LI em U num conjunto LI em V .
α1 T (u1 ) + · · · + αn T (un ) = 0.
α1 = · · · = αn = 0.
Proposição 4.2.6 Se U ∼
= V , então dimU = dimV .
Demonstração. Como U ∼
= V , existe T : U → V isomorfismo.
Se dimU = ∞, então, existe S ⊆ U, LI e infinito. Como T é injetora, T (S) é infinito e, pela Proposição
4.2.5, T (S) é LI. Logo dimV = ∞.
Suponha agora dimU finita. Pelo Teorema do Núcleo e Imagem,
Mas, por hipótese, T é sobrejetora. Logo Im T = V , donde segue que dimU = dim(Im T ) = dimV .
(i) T é injetora;
(ii) T é sobrejetora;
(iii) T é isomorfismo.
Demonstração. [(i) ⇒ (ii)] T injetora ⇒ ker T = {0} ⇒ dim(ker T ) = 0. Pelo Teorema do Núcleo
e Imagem, n = dimU = dim(Im T ). Logo, Im T é um subespaço de V com a mesma dimensão de V ,
portanto Im T = V .
[(ii) ⇒ (iii)] T sobrejetora ⇒ Im T = V . Logo, pelo Teorema do Núcleo e Imagem,
donde segue que dim(ker T ) = 0, o que implica ker T = {0}. Portanto, T é injetora, logo é isomorfismo.
[(iii) ⇒ (i)] Óbvio.
Observação 4.2.8 A Proposição 4.2.7 não é verdadeira se dimU = ∞. Por exemplo, o operador
derivação D : P(R) → P(R) não é injetor, pois 0 6= 1 ∈ ker D, mas D é sobrejetor (verifique).
Proposição 4.2.9 Sejam U e V dois K-espaços vetoriais de mesma dimensão finita n ≥ 1. São
equivalentes:
(i) T é isomorfismo;
Demonstração. [(i) ⇒ (ii)] Seja B = {u1 , . . . , un } uma base qualquer de V . Como T é injetora,
#T (B) = n e, pela Proposição 4.2.5, T (B) é LI. Assim, T (B) ⊆ V é um suconjunto LI com n = dimV
elementos, portanto T (B) é base de V .
[(ii) ⇒ (iii)] Óbvio.
[(iii) ⇒ (i)] Seja B uma base de U tal que T (B) é base de V . Então, [T (B)] = V . Por outro lado, pela
Proposição 4.1.19, [T (B)] = Im T . Logo, Im T = V e T é sobrejetora. O resultado agora segue da
Proposição 4.2.7.
é um isomorfismo.
Solução. Considere B = {E11 , E12 , E21 , E22 } a base canônica de M2 (R). Temos,
T (E11 ) = (0, 1, 0, 0), T (E12 ) = (2, 0, 2, 0), T (E21 ) = (−1, 1, 4, 3), T (E22 ) = (1, 3, 1, 0).
Observe que
2 T (E22 ) − 6 T (E11 ) = T (E12 ),
portanto T (B) é LD, logo não é base de R4 . Pela Proposição 4.2.9, T não é isomorfismo.
Demonstração. A implicação U ∼
= V ⇒ dimU = dimV segue da Proposição 4.2.6 e é válida mesmo
para dimensão infinita.
Vamos provar a recíproca. Se dimU = dimV = 0, então ambos são espaços com apenas 1 vetor (o nulo)
e a única função que pode ser definida entre eles é um isomorfismo. Suponha dimU = dimV = n ≥ 1.
Sejam B = {u1 , . . . , un } uma base de U e C = {v1 , . . . , vn } uma base de V . Considere T : U → V a única
transformação linear tal que T (ui ) = vi , i = 1, . . . , n. Em particular, T (B) = C é base de V , e portanto
T leva uma base de U numa base de V . Pela Proposição 4.2.9, T é isomorfismo.
T −1 (λ v1 + v2 ) = T −1 (λ T (u1 ) + T (u2 )) = T −1 (T (λ u1 + u2 )) = T −1 ◦ T (λ u1 + u2 )
= λ u1 + u2 = λ T −1 (v1 ) + T −1 (v2 ).
82 Capítulo 4. Transformações lineares
Como os escalares da combinação linear dos vetores de uma base são únicos, temos
n
βi = ∑ ai j α j = ai1 α1 + · · · + ain αn , para todo i = 1, . . . , m.
j=1
Além disso, se M = (bi j ) ∈ Mm×n (K) satisfaz [T (u)]C = M[u]B , para todo u ∈ U, substituindo
u = u j , j = 1, . . . , n, obtém-se que bi j = ai j para todos i, j (verifique). Ou seja, M = [T ]BC . Portanto, a
matriz da transformação T em relação às bases B e C é a única matriz que satisfaz (4.3).
4.3 Matriz de uma transformação linear 83
Portanto,
0 −2
[T ]BC = 4 1 .
−3 5
Note que, se considerarmos os elementos de R2 e R3 como vetores colunas, temos T (v) = [T ]BC · v
para todo v ∈ R2 , ou seja, T = TA , com A = [T ]BC (Exemplo 4.1.10). Isso ocorre porque estamos
considerando as bases canônicas, e daí os vetores se confundem com as próprias coordenadas.
Considere agora as bases B = {(1, 1), (2, 0)} e C = {(1, 0, −1), (0, 0, 4), (0, 2, 1)}. Então,
Agora,
5 5 5 5
(−2, 5, 2) = −2(1, 0, −1) − (0, 0, 4) + (0, 2, 1) ⇒ [T (1, 1)]C = −2, − , ,
8 2 8 2
e
5 5
(0, 8, −6) = 0 (1, 0, −1) − (0, 0, 4) + 4(0, 2, 1) ⇒ [T (2, 0)]C = 0, − , 4
2 2
Portanto,
−2 0
[T ]BC = −5/8 −5/2 .
5/2 4
Neste caso, não é verdade que T (v) = [T ]BC · v para todo v ∈ R2 , mas sim a relação dada em (4.3).
Exemplo 4.3.2 Seja A ∈ Mm×n (K). Considere a transformação linear TA : Kn → Km dada por
TA (x) = Ax (Exemplo 4.1.10). Se B é a base canônica de Kn e C é a base canônica de Km , então
[TA ]BC = A.
[T (e j )]C = T (e j ) = Ae j = A j .
Lembre que, em relação à base canônica C, todo vetor de Km é igual ao seu vetor de coordenadas.
Exemplo 4.3.3 Considere a (única) transformação linear T : R3 → P3 (R) tal que T (1, 0, 1) = 2 + x2 +
x3 ,
T (0, 1, 0) = 1 + x2 , T (0, 0, 1) = x2 − x3 , dada no Exemplo 4.1.24. Se B e C são as bases canônicas
de R3 e P3 (R), respectivamente, determine [T ]BC .
Solução. Temos,
Exemplo 4.3.4 Seja U um espaço vetorial de dimensão finita. Considere a transformação identidade
Id : U → U, que é dada por Id(u) = u para todo u ∈ U. Dadas duas bases B e C de U, a matriz dessa
transformação [Id]BC é exatamente a matriz de mudança de base MBC de B para C (verifique).
Proposição 4.3.5 Sejam U e V dois espaços vetoriais de dimensão finita sobre K, com dimU = n
e dimV = m. Dadas B e C bases de U e V , respectivamente, e uma matriz A ∈ Mm×n (K), existe uma
única transformação linear T : U → V tal que [T ]BC = A.
T (u j ) = a1 j v1 + · · · + am j vm , j = 1, . . . n.
Demonstração. Exercício.
A proposição a seguir nos fornece a dimensão do espaço das transformações lineares L (U,V )
(Exemplo 4.1.11), no caso de U e V serem espaços de dimensão finita.
Proposição 4.3.7 Sejam U e V dois K-espaços vetoriais de dimensão finita, digamos dimU = n e
dimV = m. Então, L (U,V ) ∼
= Mm×n (K). Em particular, dim L (U,V ) = m n.
Demonstração. Fixe B uma base ordenada de U e C uma base ordenada de V . Considere a função
ϕ : L (U,V ) → Mm×n (K) definida por
Primeiramente, note que ϕ está bem definida, pois dada uma transformação linear T : U → V ,
[T ]BC ∈ Mm×n (K) é única. Segue da Proposição 4.3.6 que ϕ é uma transformação linear. Além
disso, pela Proposição 4.3.5, ϕ é sobrejetora.
Resta provar que ϕ é injetora, ou equivalentemente, ker ϕ = {0}.
Seja T ∈ ker ϕ. Então, [T ]BC é a matriz nula. Escrevendo B = {u1 , . . . , un }, para cada j = 1, . . . , n, a
j-ésima coluna de [T ]BC é [T (u j )]C = 0, donde segue que T (u j ) = 0. Como T (B) gera Im T , segue
que Im T = {0}, logo T = 0.
Portanto, ϕ é um isomorfismo.
Proposição 4.3.8 Sejam U,V,W K-espaços vetoriais de dimensão finita, e, B, C, D bases de U,V,W ,
respectivamente. Sejam S : U → V e T : V → W duas transformações lineares, então
Assim, a matriz M = [T ]CD [S]BC satisfaz [T ◦ S(u)]D = M[u]B para todo u ∈ U. Pela unicidade dessa
propriedade, segue que
M = [T ]CD [S]BC = [T ◦ S]BD .
Corolário 4.3.9 Sejam U e V dois K-espaços vetoriais de mesma dimensão finita n ≥ 1, B e C bases
de U e V , respectivamente. Uma transformação linear T : U → V é um isomorfismo se, e somente
se, [T ]BC for não singular.
Nesse caso,
T CB = ([T ]BC )−1 .
−1
Exemplo 4.3.10 Considere a transformação linear T : R2 → P1 (R) dada por T (a, b) = (a + 2b) +
(4a − b)x. Mostre que T é um isomorfismo e determine T −1 .
Solução. Considere B = {e1 , e2 } ⊆ R2 e C = {1, x} ⊆ P1 (R) as bases canônicas. Temos,
1 2
T (e1 ) = 1 + 4x e T (e2 ) = 2 − x ⇒ [T ]BC = .
4 −1
Note que det[T ]BC = −9 6= 0, logo [T ]BC é não singular. Pelo Corolário 4.3.9, T é isomorfismo e
−1 −1 1 −1 −2 1/9 2/9
T CB = ([T ]BC ) = − = .
9 −4 1 4/9 −1/9
−1 1/9 2/9 a (a + 2b)/9
(a + bx)]B = T −1 CB [a + bx]C =
[T = .
4/9 −1/9 b (4a − b)/9
Logo,
−1 a + 2b 4a − b a + 2b 4a − b
T (a + bx) = e1 + e2 = , .
9 9 9 9
Para finalizar essa seção, apresentamos a relação entre matrizes de um mesmo operador em relação
à bases distintas.
Definição 4.3.11 Duas matrizes A, B ∈ Mn (K) são ditas semelhantes se existe uma matriz
P ∈ Mn (K) não singular tal que
B = P−1 AP.
4.4 Posto
Definição 4.4.1 Dada uma transformação linear T : U → V , o posto de T é definido por dim(Im T ).
Relacionaremos o posto de uma transformação linear entre espaços de dimensão finita, com o posto
de sua matriz. Lembre-se que o espaço coluna de uma matriz, R(A), foi definido no Exemplo 2.3.6.
4.4 Posto 87
(i) O posto coluna de A é definido como sendo a dimensão do subespaço R(A) de Km , gerado
pelas colunas de A.
(ii) O posto linha de A é definido como sendo dimensão do subespaço R(A> ) de Kn , gerado pelas
linhas de A.
No exemplo anterior, o posto linha e o posto coluna da matriz A são iguais. Isso não é coincidência,
como será provado adiante.
Observação 4.4.4 Como explicado no Procedimento 2.8.1, se forem feitas operações elementares
nas linhas de uma matriz A, o espaço linha da nova matriz A0 é o mesmo espaço linha de A. Em
particular, esses espaços possuem a mesma dimensão. Além disso, se fizermos operações elementares
sobre as linhas de A e obtivermos uma matriz R escalonada (ou escalonada reduzida), o posto linha
de A será exatamente o número de linhas não nulas de R.
L3 ← L3 − L2 , L4 ← L4 + L2 ,
obtemos
1 2 0 0 −1
0 0 1 0 4
.
0 0 0 0 0
0 0 0 1 2
88 Capítulo 4. Transformações lineares
Trocando as duas últimas linhas de posição, obtemos uma forma escalonada R (que é reduzida) da
matriz A. Como R possui 3 linhas não nulas, o posto linha de R, que é igual ao posto linha de A, é 3.
Lema 4.4.7 Sejam A ∈ Mm×n (K), B ∈ Mm×p (K) e C ∈ M p×n (K) tais que A = BC. Então, o posto
coluna de A é menor ou igual ao posto coluna de B.
Teorema 4.4.8 — Teorema do posto. Seja A ∈ Mm×n (K). Então, o posto linha de A é igual ao
posto coluna de A.
A j = α1 j B1 + · · · + α p j B p . (4.4)
Considere B ∈ Mm×p (K) a matriz cujas colunas são B1 , . . . , B p e C = (αk j ) ∈ Mp×n (K), onde os αk j
são dados por (4.4). Segue de (4.4) que
α11 · · · α1n
α1 j | |
A j = B ... para todo j = 1, . . . , n ⇒ A = A1 · · · An = B ... .. = BC.
.
αp j | | α p1 · · · α pn
q = posto linha de A = posto coluna de A> ≤ posto coluna de C> = posto linha de C ≤ p,
Queremos descobrir qual é o número de coelhos e de raposas depois de 50 anos, isto é, c(50) e r(50).
c(n) 30
Observe que, se p(n) = é o vetor população depois de n anos, então p(0) = e segue
r(n) 20
de (4.5) que
c(n + 1) 4 −2 c(n)
p(n + 1) = = .
r(n + 1) 1 1 r(n)
4 −2
Assim, se A = , temos
1 1
Logo, p(50) = A50 p(0). Calcular A50 não é uma tarefa fácil, vejamos as primeiras potências:
2 4 −2 4 −2 14 −10 3 14 −10 4 −2 46 −38
A = = , A = = .
1 1 1 1 5 −1 5 −1 1 1 19 −11
respectivamente. Ou seja, multiplicar A por u e v resulta num múltiplo escalar desses vetores, não muda
a direção deles. Tais vetores são chamados de autovetores de A, e os escalares 2 e 3 são chamados de
autovalores de A. Neste caso,
A2 u = A(2u) = 2(Au) = 22 u, . . . , An u = 2n u,
e, analogamente,
An v = 3n v.
Assim, é mais simples calcular potências de A multiplicada pelos autovetores. Então, escrevamos p(0)
como combinação linear de u e v:
30 10 20
p(0) = = + = u + v.
20 10 10
Agora,
250 · 10 + 350 · 20
50 50 50 50 50 50
p(50) = A p(0) = A (u + v) = A u + A v = 2 u + 3 v = .
250 · 10 + 350 · 10
A = PDP−1 (verifique).
Logo, A é semelhante a uma matriz diagonal. Neste caso, dizemos que A é diagonalizável. Usando a
relação acima, fica simples de se calcular potências de A, uma vez que
Agora formalizaremos os conceitos apresentados nesse exemplo, para o caso de matrizes e operado-
res lineares. Iniciaremos no contexto de operadores.
Definição 4.5.1 Sejam V um K-espaço vetorial e T : V → V um operador linear.
No caso K = R, observe que T é o operador rotação de 90◦ no sentido anti-horário, donde é fácil
perceber que não existe autovetor de T , pois nenhum vetor não nulo será levado num múltiplo escalar
de si mesmo.
(i) λ é autovalor de T ;
Demonstração. [(i) ⇔ (ii)] λ é autovalor de T ⇔ existe v ∈ V \ {0} tal que T (v) = λ v ⇔ existe
v ∈ V \ {0} tal que (T − λ Id)(v) = 0 ⇔ ker(T − λ Id) 6= {0} ⇔ T − λ Id não é injetor.
[(ii) ⇔ (iii)] Segue da Proposição 4.2.7.
[(iii) ⇔ (iv)] Segue do Corolário 4.3.9.
[(iv) ⇔ (v)] Por propriedades de matrizes, [T − λ Id ]B é singular ⇔ det([T − λ Id ]B ) = 0. Por fim,
pela Proposição 4.3.6,
[T − λ Id ]B = [T ]B − λ [Id]B = [T ]B − λ In .
Além disso, a matriz [T ]B − x In possui polinômios de grau 1 com coeficientes em K nas entradas
da diagonal principal e constantes em K nas demais entradas, ou seja pT (x) = det([T ]B − x In ) é um
polinômio em P(K) de grau exatamente n = dimV , cujo coeficiente líder é (−1)n .
Também, se K = C, pT (x) sempre tem raízes em K, donde segue que T sempre tem autovalor.
Exemplo 4.5.5 Considere T : R3 → R3 dado por T (a, b, c) = (2a − 2b − c, −2b + c, 4a − 2b − 3c).
Determine, se existirem, todos os autovalores e autovetores de T .
Solução. Para determinar o polinômio característico de T , precisamos da matriz de T em alguma base.
Fixe B = {e1 , e2 , e3 } a base canônica de R3 . O leitor facilmente verificará que
2 −2 −1
[T ]B = 0 −2 1 .
4 −2 −3
Assim,
2−x −2 −1
pT (x) = det([T ]B − x I3 ) = det 0 −2 − x 1 = −x3 − 3x2 − 2x = −x(x + 1)(x + 2),
4 −2 −3 − x
cujas raízes são 0, −1, −2, que são os autovalores de T . Determinemos agora os autoespaços associados,
e consequentemente os autovetores.
• AutT (−2) = ker(T + 2 Id). Trabalhando com a matriz do operador, para v = (a, b, c) ∈ R3 temos
Assim,
2−x 1 1
pT (x) = det([T ]B − x I3 ) = det −1 1 − x 0 = (2 − x)(1 − x)2 ,
1 0 1−x
cujas raízes são 1 e 2, que são os autovalores de T . Determinemos agora os autoespaços associados, e
consequentemente os autovetores.
94 Capítulo 4. Transformações lineares
• AutT (1) = ker(T − Id). Trabalhando com a matriz do operador, para v = a + bx + cx2 ∈ V temos
Exemplo 4.5.7 Considere T : R3 → R3 o operador linear tal que sua matriz na base
B = {(1, 0, 0), (1, 1, 0), (0, 1, 1)} é dada por
5 0 −3
[T ]B = 0 −1 0 .
6 0 −4
cujas raízes são −1 e 2, que são os autovalores de T . Determinemos agora os autoespaços associados,
e consequentemente os autovetores.
[v]B = (a, b, 2a)B = a(1, 0, 2)B + b(0, 1, 0)B ∈ [(1, 0, 2)B , (0, 1, 0)B ].
Explicitamente,
Explicitamente,
(1, 0, 1)B = (1, 0, 0) + (0, 1, 1) = (1, 1, 1).
Portanto, AutT (2) = [(1, 1, 1)].
Exemplo 4.5.8 Considere T : C2 → C2 a transformação linear tal que T (1, i) = (1, 2 + i) e T (0, 1) =
(0, 1). Determine, se existirem, todos os autovalores e autovetores de T .
Solução. Observe que B = {(1, i), (0, 1)} é base de C2 . Temos,
(1, 0) = (1, i) − i(0, 1) ⇒ T (1, 0) = T (1, i) − i T (0, 1) = (1, 2 + i) − i(0, 1) = (1, 2).
Os exemplos anteriores ilustraram algumas situações que podem ocorrer em relação aos autovalores
e autovetores de um operador linear.
Note que, para os λ encontrados, o espaço solução do sistema homogêneo
([T ]B − λ In )[v]B = 0 sempre tem dimensão maior que zero. Isso deve mesmo ocorrer, pois uma
vez que λ é raiz do polinômio característico, λ é autovalor, e portanto existe autovetor associado, isto é,
existe v ∈ V \ {0} tal que T (v) = λ v ⇔ (T − λ Id)(v) = 0.
Um outro fato que pode ser observado nos exemplos é que autovetores associados à autovalores
distintos são LI. Como veremos a seguir, isso não é uma simples coincidência!
Note que, a matriz [T ]B é diagonal se, e somente se, todos os vetores da base B são autovetores de
T . Assim, dizer que T é diagonalizável é equivalente a dizer que existe uma base de V formada por
autovetores de T .
Exemplo 4.5.12 O operador T definido no Exemplo 4.5.3 é diagonalizável, pois B = {(i, 1), (−i, 1)}
Exemplo 4.5.14 O operador T : P2 (R) → P2 (R) definido no Exemplo 4.5.6 não é diagonalizável,
pois todos os autovetores de T pertencem à AutT (1) ou AutT (2). Como
dim AutT (1) = 1 = dim AutT (2),
é possível conseguir, no máximo, 2 autovetores LI em V e dimV = 3. Portanto, V não possui uma base
formada por autovetores de T .
Suponha que T é diagonalizável. Então, existe uma base de V formada por autovalores de T . Daí,
todo v ∈ V se escreve como combinação linear de autovetores, ou seja, como soma de vetores em
AutT (λ1 ) + · · · + AutT (λm ). Portanto,
V = AutT (λ1 ) + · · · + AutT (λm ) ⇒ dimV = dim(AutT (λ1 )) + · · · + dim(AutT (λm )).
Reciprocamente, suponha
dimV = dim(AutT (λ1 )) + · · · + dim(AutT (λm )) = dim(AutT (λ1 ) + · · · + AutT (λm )).
Tomando B j base de AutT (λ j ), pela Proposição 4.5.9, B = B1 ∪ · · · ∪ Bm é LI, e possui uma quantidade
de vetores igual a dimensão de V , portanto é uma base de V , formada por autovetores de T . Logo, T é
diagonalizável.
é dada por
1 0 0 −3
0 −2 0 0
[T ]B = .
0 0 −2 0
−3 0 0 1
Solução. Os autovalores de T são as raízes do polinômio característico:
1−x 0 0 −3
0 −2 − x 0 0
pT (x) = det([T ]B − x I4 ) = det
0 0 −2 − x 0
−3 0 0 1−x
100 Capítulo 4. Transformações lineares
−2 − x 0 0 0 −2 − x 0
= (1 − x) det 0 −2 − x 0 + 3 det 0 0 −2 − x
0 0 1−x −3 0 0
= (1 − x)2 (−2 − x)2 − 9(2 + x)2 = (2 + x)2 (x2 − 2x − 8) = (2 + x)3 (x − 4).
Logo, os autovalores de T são λ = −2 e λ = 4, com multiplicidade algébrica ma (−2) = 3 e ma (4) = 1.
Agora, para λ = −2, 4, temos 1 ≤ mg (λ ) = dim(AutT (λ )). Como mg (λ ) ≤ ma (λ ), segue que
mg (4) = 1 e 1 ≤ mg (−2) ≤ 3.
Determinemos mg (−2) = dim(AutT (−2)) = dim(ker(T +2 Id)). Para A ∈ M2 (R) com [A]B = (a, b, c, d),
temos
3 0 0 −3 a 0
0 0 0 0 b 0
A ∈ ker(T + 2 Id) ⇔ ([T ]B + 2 I4 )[A]B = 0 ⇔
0 0 0 0 c = 0
−3 0 0 3 d 0
⇔ 3a − 3d = 0 ⇔ d = a.
Logo, A ∈ AutT (−2) se, e somente se,
[A]B = (a, b, c, a)B = a(1, 0, 0, 1)B +b(0, 1, 0, 0)B +c(0, 0, 1, 0)B ∈ [(1, 0, 0, 1)B , (0, 1, 0, 0)B , (0, 0, 1, 0)B ].
Explicitamente,
1 0 1 1 0 1
(1, 0, 0, 1)B = , (0, 1, 0, 0)B =
, (0, 0, 1, 0)B = ,
1 1 0 0 1 1
1 0 1 1 0 1
que são três matrizes LI. Portanto, AutT (−2) = , , e
1 1 0 0 1 1
mg (−2) = dim(AutT (−2)) = 3.
Neste caso, k1 + · · · + km = n.
Recomendamos ao leitor que volte aos exemplos apresentados nesta seção, determine quais são
as multiplicidades algébrica e geométrica dos autovalores e veja como determinar se o operador é
diagonalizável a partir do Teorema 4.5.22.
Apresentaremos agora as definições dessa seção no contexto de matrizes.
Não repetiremos os resultados dessa seção para o caso de matrizes. A ponte entre os contextos de
operadores lineares e matrizes sempre pode ser feita da maneira a seguir.
? Dada uma matriz A ∈ Mn (K), define-se o operador TA : Kn → Kn por TA (x) = Ax. A matriz desse
operador em relação à base canônica C de Kn é [T ]C = A (Exemplo 4.3.2). Então, as definições e
propriedades apresentadas para T , se traduzem para A considerando multiplicação de A por vetores em
Kn .
? Dado um operador linear T : V → V , com dimV = n, fixada uma base B de V , temos a matriz
A = [T ]B ∈ Mn (K). Por (4.3), [T (v)]B = A[v]B , assim, essencialmente T é TA , visto que podemos
trabalhar com coordenadas ao invés dos próprios vetores para obter informações relacionadas a
dependência linear, conjunto gerador, dimensão, etc.
Exemplo 4.5.24 Suponha que tenhamos uma população inicial de 200 indivíduos saudáveis, mas
ocorre uma epidemia grave. Os indivíduos podem ser classificadas como saudáveis, doentes ou mortos.
Por causa da epidemia, a cada ano, 60% dos indivíduos saudáveis ficam doentes, apenas 30% se
mantêm saudável, e 10% dos indivíduos saudáveis morrem. Sabemos também que a cada ano 60%
dos doentes morrem, 20% voltam a ser saudáveis e 20% permanecem doentes. Assumindo que todos
os indivíduos mortos permanecem mortos, determine quantos indivíduos são saudáveis, doentes ou
mortos depois de k anos. Quantos anos levará até que apenas 10% (20 dos 200 indivíduos iniciais) da
população ainda esteja viva?
Solução. Defina as variáveis:
x1 (k) : número de indivíduos saudáveis depois de k anos;
x2 (k) : número de indivíduos doentes depois de k anos;
x3 (k) : número de indivíduos mortos.
Pelos dados apresentados, obtemos as seguintes equações:
x1 (k + 1) = 0.3 x1 (k) + 0.2 x2 (k);
x2 (k + 1) = 0.6 x1 (k) + 0.2 x2 (k);
x3 (k + 1) = 0.1 x1 (k) + 0.6 x2 (k) + x3 (k).
102 Capítulo 4. Transformações lineares
Assim, se
x1 (k)
xk = x2 (k)
x3 (k)
podemos reescrever as equações na forma matricial xk = Axk−1 = Ak x0 , onde
0.3 0.2 0 200
A = 0.6 0.2 0
e x0 = 0 .
0.1 0.6 1 0
Para estudar o número de indivíduos saudáveis, doentes e mortos ao longo dos anos, vamos diagonalizar
a matriz A, pois assim ficará mais simples de calcular suas potências. Iniciaremos determinando os
autovalores de A, que são as raízes do polinômio característico:
0.3 − x 0.2 0
pA (x) = det 0.6 0.2 − x 0 = −(x + 0.1)(x − 0.6)(x − 1).
0.1 0.6 1−x
Portanto, os autovalores de A são λ1 = −0.1, λ2 = 0.6 e λ3 = 1.0. Como A possui três autovalores
distintos (quantidade igual a ordem da matriz A), segue que A é diagonalizável, semelhante a matriz
−0.1 0 0
D= 0 0.6 0 .
0 0 1.0
600 400
x0 = v1 − v2 + 200 v3 .
7 7
Logo,
1 −2 0
600 400
xk = (−0.1)k −2 − (0.6)k −3 + 200 (1)k 0
7 7
1 5 1
ou seja, após k anos, teremos:
800 6 k
k 600
(−1) + indivíduos saudáveis,
7 · 10k 7 10
1200 1200 6 k
(−1) k+1 + indivíduos doentes, e
7 · 10k 7 10
2000 6 k
k 600
(−1) − + 200 indivíduos mortos.
7 · 10k 7 10
Além disso, quando k → ∞, a população tende a ser extinta.
Uma outra maneira de calcular as potências de A, seria escrevendo A = PDP−1 , onde P ∈ M3 (R)
é não singular. Para determinar P, considere TA : R3 → R3 definida por TA (x) = Ax. A matriz desse
operador em relação à base canônica C de Rn é [T ]C = A, e, em relação à base de autovetores B é
[T ]B = D. Assim,
−1
A = [T ]C = MBC [T ]B MCB = MBC D MBC .
Ou seja, tome P = MBC a matriz de mudança de base de B para C. As colunas dessa matriz são formadas
pelas coordenadas de v j em relação à base canônica, que são os próprios vetores v j . Logo,
1 −2 0
P = −2 −3 0 .
1 5 1
No Capítulo 4 foram estudadas as transformações lineares, que são as funções entre espaços
vetoriais que preservam a estrutura a soma e a multiplicação por escalar. Neste capítulo, estudaremos as
transformações lineares entre espaços com produto interno, obtendo ferramentas e resultados adicionais,
que também serão traduzidos para o contexto de matrizes. Iniciaremos com as isometrias, que são as
transformações lineares que preservam produto interno e assim, também preservam a geometria dos
espaços envolvidos: norma, a distância e o ângulo entre os vetores. Em seguida, estaremos interessados
nos operadores lineares, onde o principal objetivo será deduzir um dos teoremas mais importantes da
Álgebra Linear: o Teorema Espectral.
A discussão apresentada nesse capítulo foi motivada pelos livros [Axl], [Coe], [Nic], [Reg] e [Str].
5.1 Isometrias
Definição 5.1.1 Sejam U e V dois K-espaços vetoriais com produto interno. Dizemos que uma
transformação linear T : U → V preserva produto interno se hT (u), T (v)i = hu, vi, para todos
u, v ∈ U. Um isomorfismo entre espaços com produto interno é um isomorfismo que preserva
produto interno.
Observação 5.1.2 Note que as funções que definem um produto interno em U e V podem ser
diferentes. Dessa forma, na definição anterior, hT (u), T (v)i considera o produto interno de V ,
enquanto que hu, vi considera o produto interno de U.
Veremos a seguir alguns exemplos de transformações lineares que preservam produto interno.
Exemplo 5.1.3 Considere V = R3 com o produto interno hu, vi = x1 x2 +4y1 y2 +9z1 z2 , u = (x1 , y1 , z1 )
e v = (x2 , y2 , z2 ); e W = {A ∈ M3 (R) : A> = A} com o produto interno hA, Bi = 12 tr(AB> ). Mostre que
a transformação linear T : V → W definida por
0 x 2y
T (x, y, z) = x 0 3z
2y 3z 0
Exemplo 5.1.4 Sejam V um K-espaço vetorial com produto interno e B = {v1 , . . . , vn } uma base
ortonormal para V . Considere Kn com o produto interno usual. Mostre que a função S : V → Kn
definida por S(v) = [v]B é uma transformação linear que preserva produto interno.
Solução. Deixamos como exercício a verificação de que S é uma transformação linear. Sejam
u = α1 v1 + · · · + αn vn e v = β1 v1 + · · · + βn vn . Como B é uma base ortonormal, sabemos que
n
hu, vi = ∑ αi β i
i=1
Proposição 5.1.5 Se T : U → V é uma transformação linear que preserva produto interno, então T
é injetora.
Demonstração. Sejam u, v ∈ V tais T (u) = T (v). Como T preserva produto interno, temos que
Proposição 5.1.6 Sejam U e V dois espaços vetoriais com produto interno, dimU = dimV finita, e
T : U → V uma transformação linear. São equivalentes:
Demonstração. [(i) ⇒ (ii)] Segue das Proposições 5.1.5 e 4.2.7 que T é uma bijeção. Como T preserva
produto interno, T é um isomorfismo entre espaços com produto interno.
5.1 Isometrias 107
[(ii) ⇒ (iii)] Seja B = {u1 , . . . , un } uma base ortonormal de U. Mostremos que C = {T (u1 ), . . . , T (un )}
é base ortonormal de V . Como T preserva produto interno, hT (ui ), T (u j )i = hui , u j i = 0 para todo
i 6= j, e, ||T (ui )|| = ||ui || = 1 para todo i = 1, . . . , n. Portanto, C é base ortonormal.
[(iii) ⇒ (iv)] Imediato.
[(iv) ⇒ (i)] Seja B = {u1 , . . . , un } uma base ortonormal de U tal que C = {T (u1 ), . . . , T (un )} é base
ortonormal de V . Dados u, v ∈ U, existem escalares αi , βi ∈ K, i = 1, . . . , n, tais que u = α1 u1 + · · · +
αn un e v = β1 u1 + · · · + βn un . Então,
* +
n n n
hT (u), T (v)i = ∑ αi T (ui ), ∑ β j T (u j ) = ∑ αi β i .
i=1 j=1 i=1
Logo, hT (u), T (v)i = hu, vi, donde segue que T preserva produto interno.
Exercício 5.1 Sejam U e V espaços com produto interno e T : U → V uma função tal que
hT (u), T (v)i = hu, vi para todos u, v ∈ U. Mostre que T é transformação linear.
e V = C ([0, 1], R) com produto interno usual. A transformação linear T : U → V dada por T ( f (x)) =
x f (x), preserva produto interno mas não é um isomorfismo [Coe].
Prova. Note que o Teorema 5.1.6 não pode ser aplicado, pois dim(U) = dim(V ) mas não é finita.
Sejam f , g ∈ U, então
Z 1 Z 1
hT ( f ), T (g)i = T ( f (x))T (g(x))dx = x2 f (x)g(x)dx = h f , gi.
0 0
Logo, T preserva produto interno. Por outro lado, a função g(x) = 1 ∈ V mas g ∈
/ Im T . Portanto, T
não é sobrejetora.
Definição 5.1.8 Sejam U e V dois K-espaços vetoriais normados. Uma transformação linear
T : U → V que satisfaz ||T (u)|| = ||u|| para todo u ∈ U é chamado de isometria.
Proposição 5.1.9 Uma transformação linear T : U → V preserva produto interno se, e somente se,
T é isometria.
Exemplo 5.1.10 Seja T : R2 → R2 a rotação de ângulo θ (sentido anti-horário). Mostre que T é uma
isometria em R2 com produto interno usual.
Prova. Seja B = {e1 , e2 } a base canônica de R2 . A Figura 5.1 exemplifica a ação do operador T na
base B. Note que,
T (e1 ) = cos(θ )e1 + sen(θ )e2
108 Capítulo 5. Transformações lineares entre espaços com produto interno
π π
T (e2 ) = cos + θ e1 + sen + θ e2 = − sen(θ )e1 + cos(θ )e2 .
2 2
Logo, se (x, y) é um vetor qualquer de R2 , temos
T (x, y) = x T (e1 ) + y T (e2 ) = x(cos(θ )e1 + sen(θ )e2 ) + y(− sen(θ )e1 + cos(θ )e2 )
Exemplo 5.1.11 Seja T : R2 → R2 dada por T (x, y) = 15 (4x + 3y, 3x − 4y). Considerando R2 com
produto interno usual, mostre que T preserva produto interno.
Prova. Vamos usar a equivalência: T preserva produto interno se, e somente se, T leva alguma base
ortonormal de R2 em uma base ortonormal de R2 .
Seja B = {e1 , e2 } a base canônica de R2 . Então,
1 1
T (e1 ) = (4, 3) e T (e2 ) = (3, −4).
5 5
Como B é uma base ortonormal e os vetores 15 (4, 3), 15 (3, −4) também são ortonormais, segue que T
preserva produto interno.
O próximo resultado descreve uma propriedade interessante da matriz de uma isometria em relação
à bases ortonormais.
Proposição 5.1.13 Sejam U e V dois K-espaços vetoriais, de mesma dimensão finita n, com produto
interno, B e C bases ortonormais de U e V , respectivamente, e T : U → V uma transformação linear.
Então, T é uma isometria se, e somente se, [T ]BC é uma matriz unitária.
Demonstração. Sejam B = {u1 , . . . , un } e C = {v1 , . . . , vn } e [T ]BC = (ai j ) ∈ Mn (K). Daí, para cada
n
j = 1, . . . , n, T (u j ) = ∑ ai j vi . Note que, para i, j = 1, . . . , n,
i=1
> n
[T ]BC [T ]BC = ∑ aki ak j .
ij k=1
Logo, T (B) é ortonormal. Portanto, segue da Proposição 5.1.6 que T preserva produto interno,
donde segue que T é uma isometria.
Exemplo 5.1.14 Verifique se o operador linear T : R3 → R3 cuja matriz em relação à base canônica,
C, é igual a 1 2 2
−3 3 3
[T ]C = 32
− 13 2
3
,
2 2
3 3 − 13
110 Capítulo 5. Transformações lineares entre espaços com produto interno
é uma isometria.
Solução. Como a base canônica é ortonormal e [T ]C possui colunas ortonormais, segue que [T ]C é
unitária. Portanto, T é uma isometria.
(ii) Se {v1 , . . . , vn } é uma base ortonormal de V tal que T (vi ) = λi vi e |λi | = 1 para todo i = 1, . . . , n,
então T é uma isometria.
Demonstração. (i) Seja λ um autovalor de T . Então, existe v ∈ V , v 6= 0, tal que T (v) = λ v. Como
T é uma isometria,
(ii) Como {v1 , . . . , vn } é base ortonormal de V , basta mostrarmos que {T (v1 ), . . . , T (vn )} também é
base ortonormal de V . De fato, para i, j ∈ {1, . . . , n}, temos que
se i 6= j, e
||T (vi )|| = ||λi vi || = |λi |||vi || = 1.
Portanto, {T (v1 ), . . . , T (vn )} é base ortonormal de V e T é uma isometria.
Exercício 5.2 Considere R2 com produto interno usual. Seja R : R2 → R2 a reflexão em relação à
reta y = 2x. Descreva R explicitamente, ou seja, R(x, y), e verifique se R é uma isometria.
Teorema 5.2.1 Sejam U e V dois K-espaços vetoriais com produto interno, U com dimensão finita,
e T : U → V uma transformação linear. Então, existe uma única transformação linear T ∗ : V → U
tal que hT (u), vi = hu, T ∗ (v)i para todos u ∈ U, v ∈ V .
Daí, * ! + * +
n n n
hT (u), vi = T ∑ hu, ui iui ,v = ∑ hu, ui iT (ui ), v = ∑ hu, ui ihT (ui ), vi.
i=1 i=1 i=1
n
Defina T ∗ (v) = ∑ hT (ui ), viui . Pelo exposto anteriormente,
i=1
então,
hu, ūi = hT (u), vi = hu, T ∗ (v)i ∀ u ∈ U ⇒ hu, ū−T ∗ (v)i = 0 ∀ u ∈ U ⇒ ū−T ∗ (v) = 0 ⇒ u = T ∗ (v).
Assim, T ∗ (v) é o único vetor em U satisfazendo (5.2), donde seque que a função T ∗ : V → U fica bem
definida. Por construção, temos
Logo, S = T ∗ .
Definição 5.2.2 Sejam U e V dois K-espaços vetoriais com produto interno e T : U → V uma
transformação linear. Dizemos que T possui adjunto se existe uma transformação linear T ∗ : V → U
tal que hT (u), vi = hu, T ∗ (v)i para todos u ∈ U e v ∈ V . Neste caso, T ∗ é chamado de adjunto de T .
112 Capítulo 5. Transformações lineares entre espaços com produto interno
Observação 5.2.3 (i) O adjunto, quanto existe, depende dos produtos internos de U e V e é
único. A demonstração da “unicidade” no Teorema 5.2.1 se aplica em geral.
(ii) Pelo Teorema 5.2.1, se U tem dimensão finita, sempre existe o adjunto T ∗ : V → U de
T : U → V.
Exemplo 5.2.4 Seja T : R3 → R2 a transformação linear dada por T (x1 , x2 , x3 ) = (x3 , x1 − 2x2 ).
Determine o adjunto de T .
Solução. Seja T ∗ : R2 → R3 o adjunto de T , então
Segue que
h(x1 , x2 , x3 ), T ∗ (y1 , y2 )i = h(x1 , x2 , x3 ), (y2 , −2y2 , y1 )i,
ou seja,
h(x1 , x2 , x3 ), T ∗ (y1 , y2 ) − (y2 , −2y2 , y1 )i = 0
hu, T ∗ (v)i = hT (u), vi = hhu, u0 iv0 , vi = hu, u0 ihv0 , vi = hu, hv0 , viu0 i.
Seque que,
hu, T ∗ (v)i = hu, hv, v0 iu0 i,
ou seja,
hu, T ∗ (v) − hv, v0 iu0 i = 0
5.2 O operador adjunto 113
>
= tr A B> ,
Exemplo 5.2.6 Considere V = M2 (R) com produto interno usual hA, Bi = tr A B
M ∈ V uma matriz fixa e T : V → V a transformação linear definida por T (A) = MA − AM. Determine
T ∗.
Solução. Para todas A, B ∈ V , temos
hT (A), Bi = hMA − AM, Bi = tr (B> (MA − AM)) = tr (B> MA) − tr (B> AM) = tr (B> MA) − tr (MB> A)
= tr (B> MA − MB> A) = tr ((B> M − MB> )A) = hA, M > B − BM > i.
Portanto,
T ∗ (B) = M > B − BM > .
Nos exemplos anteriores foi fácil determinar T ∗ (v) diretamente pela relação: hT (u), vi = hu, T ∗ (v)i
para todos u ∈ U, v ∈ V . Quando essa identificação não for imediata, podemos utilizar a fórmula
descrita a seguir, que é uma consequência da demonstração do Teorema 5.2.1.
Proposição 5.2.7 Sejam U e V dois K-espaços vetoriais com produto interno, U com dimensão
finita, e T : U → V uma transformação linear. Se B = {u1 , . . . , un } é uma base ortonormal para U,
então o adjunto T ∗ : V → U é dado por
n
T ∗ (v) = ∑ hT (ui ), viui , para todo v ∈ V.
i=1
Proposição 5.2.8 Considere U e V dois K-espaços vetoriais com produto interno. Sejam S, T :
U → V transformações lineares que admitem adjuntos e λ ∈ K. Então:
Portanto, (T ∗ )∗ = T .
Proposição 5.2.9 Sejam U e V espaços vetoriais de dimensão finita com produto interno e T : U →
V uma transformação linear. Se B é base ortonormal de U e C é base ortonormal de V , então
>
[T ∗ ]CB = [T ]BC .
Logo,
m
T (u j ) = ∑ hT (u j ), vi ivi ,
i=1
>
ou seja, ([T ∗ ]CB )i j = hT (ui ), v j i = ([T ]BC ) ji . Portanto, [T ∗ ]CB = [T ]BC .
Exemplo 5.2.10 Sejam R2 com produto interno usual e T : R2 → R2 a transformação linear defina
por T (x, y) = (x + y, x). Determine T ∗ .
Solução. Seja B = {e1 , e2 } a base canônica de R2 . Como B é ortonormal no produto interno usual,
T (e1 ) = (1, 1) e T (e2 ) = (1, 0), pela Proposição 5.2.7,
2
T ∗ (x, y) = ∑ hT (ei ), (x, y)iei = (x + y)e1 + xe2 = (x + y, x) = T (x, y).
i=1
5.2 O operador adjunto 115
Exemplo 5.2.11 Sejam C2 com produto interno usual e T : C2 → C2 a transformação linear definida
por T (x1 , x2 ) = (x1 + 2x2 , x2 − ix1 ). Determine T ∗ e as matrizes [T ]BC e [T ∗ ]CB para B = {e1 , e2 }, a
base canônica de C3 , e C = {e1 , 2e2 }.
Solução. Temos T (e1 ) = (1, −i) e T (e2 ) = (2, 1), logo, como B é ortonormal, segue da Proposição
5.2.7 que
2
T ∗ (x1 , x2 ) = ∑ hT (ei ), (x1 , x2 )iei
i=1
Demonstração. (⇒) Supondo T unitário, segue que T é isomorfismo e T −1 = T ∗ . Resta mostrar que
T preserva produto interno. Dados u, v ∈ V , temos
hT (u), T (v)i = hu, T ∗ (T (v))i = hu, (T ∗ ◦ T )(v)i = hu, IdV (v)i = hu, vi.
(⇐) Temos que T é isomorfismo e preserva produto interno. Logo, para todos u, v ∈ V , temos
Portanto, T −1 = T ∗ .
Corolário 5.2.15 Sejam V um K-espaços vetorial de dimensão finita com produto interno, T : V → V
um operador linear e B uma base ortonormal de V . Então, T é unitário se, e somente se, [T ]B é uma
matriz unitária.
Demonstração. (⇒) Como T é unitário, segue que T −1 = T ∗ . Assim, pelo Corolário 4.3.9 e Proposição
5.2.9,
>
[T ]−1
B = [T
−1
]B = [T ∗ ]B = [T ]B ,
logo [T ]B é unitária.
>
(⇐) Como [T ]B é uma matriz unitária, ela é não singular e [T ]−1 B = [T ]B . Novamente, pelo Corolário
4.3.9 e Proposição 5.2.9 segue T é isomorfismo e [T −1 ]B = [T ∗ ]B , donde concluímos que T −1 = T ∗ .
(i) T é autoadjunto;
>
(ii) [T ]B = [T ]B para toda base ortonormal B de V ;
>
(iii) existe uma base ortonormal B de V tal que [T ]B = [T ]B .
Exemplo 5.3.4 Sejam C2 com produto interno usual e T o operador linear em C2 cuja matriz em
relação à base canônica B é
2 b
[T ]B = .
3 ic
Determine para quais valores de b e c reais temos que T é autoadjunto.
Solução. Como a base canônica de C2 é uma base ortonormal em relação ao produto interno usual,
podemos usar a Proposição 5.3.3. Assim,
> 2 3 2 b
[T ]B = = ⇒ b = 3 e c = 0.
b −ic 3 ic
Proposição 5.3.6 Sejam V um K-espaço vetorial com produto interno, B = {v1 , . . . , vn } uma base
118 Capítulo 5. Transformações lineares entre espaços com produto interno
Logo,
* +
n n n n n n
hT (u), vi = ∑ αi T (vi ), ∑ β j v j = ∑ αi ∑ β j hT (vi ), v j i = ∑ αi ∑ β j hvi , T (v j )i
i=1 j=1 i=1 j=1 i=1 j=1
* + * !+
n n n n
= ∑ αi vi , ∑ β j T (v j ) = ∑ αi vi , T ∑ β jv j = hu, T (v)i,
i=1 j=1 i=1 j=1
e, portanto, T é autoadjunto.
Exemplo 5.3.7 Considere R2 com produto interno usual. Verifique se os operadores lineares
definidos a seguir são autoadjuntos.
(i) T : R2 → R2 tal que T (1, 2) = (3, 1) e T (−1, 1) = (0, −1).
Solução. Note que B = {(1, 2), (−1, 1)} é base de R2 . Além disso, como K = R, hT (v), vi =
hv, T (v)i = hv, T (v)i para todo v ∈ V .
(i) Como
hT (1, 2), (−1, 1)i = h(3, 1), (−1, 1)i = −2,
h(1, 2), T (−1, 1)i = h(1, 2), (0, −1)i = −2,
segue que T é autoadjunto.
(ii) Como
hS(1, 2), (−1, 1)i = h(−1, 4), (−1, 1)i = 5
e
h(1, 2), S(−1, 1)i = h(1, 2), (−4, 1)i = −2
segue que S não é autoadjunto.
(i) T = 0;
Observação 5.3.9 A Proposição 5.3.8 não é verdadeira se V for um R-espaço vetorial. Veja o
exemplo a seguir.
Exemplo 5.3.10 Considere o operador linear T : R2 → R2 definido por T (x, y) = (−y, x). Claramente
T 6= 0. Mas,
hT (x, y), (x, y)i = h(−y, x), (x, y)i = −yx + xy = 0 para todo (x, y) ∈ R2 .
Demonstração. O caso K = C segue da Proposição 5.3.8 (mesmo que T não seja autoadjunto). Suponha
K = R. Então, como T = T ∗ , para todos u, v ∈ V temos
ou seja,
(λ1 − λ2 )hv1 , v2 i = 0.
Como λ1 6= λ2 , segue que hv1 , v2 i = 0.
Proposição 5.4.1 Seja V um K-espaço vetorial com produto interno e dimensão finita n ≥ 1. Se
T : V → V é um operador linear autoadjunto, então, T possui autovetor.
ou seja, as raízes do polinômio característico de T são todas reais. Logo, T possui autovalor, e portanto
possui autovetor.
Demonstração. Pela Proposição 5.4.1 existe v1 ∈ V \ {0} autovetor de T . Faremos a prova por indução
sobre n.
v1
Se n = 1, então é uma base ortonormal de V formada por autovetores de T .
||v1 ||
Suponha n > 1 e o resultado válido para n − 1. Sejam W = [v1 ] e λ1 ∈ K tal que T (v1 ) = λ1 v1 . Dado
u ∈ W ⊥ , como T ∗ = T , temos
O teorema a seguir determina que a condição de ser autoajunto é necessária e suficiente para que
um operador linear sobre um espaço vetorial real seja ortogonalmente diagonalizável.
(⇐) Seja B = {v1 , . . . , vn } uma base ortonormal de V formada por autovetores de T . Se λi é o autovalor
de T associado ao autovetor vi , então
λ1 0 · · · 0
0 λ2 · · · 0
[T ]B = . .. .
.. . .
.. . . .
0 0 ··· λn
Exemplo 5.4.5 Considere R4 com o produto interno usual. Seja T : R4 → R4 uma transformação
linear tal que ker T = [(2, 1, 1, 0), (1, −1, −1, 0)], (0, 3, −3, 0) ∈ ker(T − I) e 2 é um autovalor de T
associado ao autovetor (0, 0, 0, 2). Mostre que T é autoadjunto.
Prova. Como ker T = [(2, 1, 1, 0), (1, −1, −1, 0)] segue que λ = 0 é autovalor de T e mg (0) = 2.
Como (0, 3, −3, 0) ∈ ker(T − I), segue que λ = 1 é um autovalor de T e (0, 3, −3, 0) é um au-
tovetor associado. Além disso, λ = 2 é autovalor associado ao autovetor (0, 0, 0, 2). Note que
B = {(2, 1, 1, 0), (1, −1, −1, 0), (0, 3, −3, 0), (0, 0, 0, 2)} é um conjunto ortogonal (e portanto LI) em
R4 . Logo, existe uma base ortonormal para R4 formada por autovetores de T (basta normalizar os
vetores de B). Portanto, T é autoadjunto.
Corolário 5.4.6 — Decomposição Espectral Real. Dada A ∈ Mn (R) uma matriz simétrica, exis-
tem matrizes Q, Λ ∈ Mn (R) com Q ortogonal, formada pelos autovetores ortonormais de A, e Λ
diagonal, formada pelos autovalores de A, tais que A = QΛQ> .
Exemplo 5.4.8 Seja T : R2 → R2 dada por T (x, y) = (3x + y, x + 3y). Verifique se existe uma base
de R2 formada por autovetores ortonormais de T . Se existir, encontre a decomposição espectral da
matriz de T em relação à base canônica.
Solução. Seja B = {(1, 0), (0, 1)} a base canônica de R2 . Como T (1, 0) = (3, 1) e T (0, 1) = (1, 3),
segue que
3 1
[T ]B = .
1 3
Como B é ortonormal e [T ]B é simétrica, T é autoadjunto. Logo, existe uma base ortonormal de R2
formada por autovetores de T . Vamos calcular os autovalores e autovetores de T . Temos
3−x 1
pT (x) = det = (3 − x)2 − 1 = x2 − 6x + 8 = (x − 2)(x − 4)
1 3−x
é a decomposição espectral de [T ]B .
Observação 5.5.2 (i) Todo operador autoadjunto (e toda matriz hermitiana) é normal.
(ii) Se V tem dimensão finita, segue da Proposição 5.2.9 que T : V → V é um operador normal se,
e somente se, dada uma base B ortonormal de V , a matriz [T ]B é normal.
2 2 2
Exemplo Seja C a base canônica de C . Verifique se o operador linear T : C → C tal que
5.5.3
2 −1
[T ]C = é normal.
1 2
Solução. Note que
> 2 −1 2 1 5 0
[T ◦ T ∗ ]C = [T ]C [T ∗ ]C = [T ]C [T ]C = =
1 2 −1 2 0 5
e
∗ ∗ > 2 1 2 −1 5 0
[T ◦ T ]C = [T ]C [T ]C = [T ]C [T ]C = = .
−1 2 1 2 0 5
Logo, T é normal.
O resultado a seguir justifica o porquê do nome “normal” e fornece mais um critério para a
verificação dessa condição.
Proposição 5.5.4 Seja T : V → V um operador linear em um espaço com produto interno. Então,
T é um operador normal se, e somente se, ||T (v)|| = ||T ∗ (v)|| para todo v ∈ V .
||T (v)||2 = hT (v), T (v)i = hv, T ∗ ◦ T (v)i = hv, T ◦ T ∗ (v)i = hT ◦ T ∗ (v), vi.
Demonstração. (⇒) O polinômio característico pT (x) possui raiz (pois C é algebricamente fechado),
ou seja, T possui autovalor, donde segue que existe v1 ∈ V \ {0} autovetor de T . Faremos a prova por
indução sobre n.
v1
Se n = 1, então é uma base ortonormal de V formada por autovetores de T .
||v1 ||
Suponha n > 1 e o resultado válido para n − 1. Sejam W = [v1 ] e λ1 ∈ K tal que T (v1 ) = λ1 v1 . Como
T é normal, pela Proposição 5.5.5, T ∗ (v1 ) = λ1 v1 . Assim, dado u ∈ W ⊥ , temos
Logo,
λ1 λ1 0 ··· 0
0 λ2 λ2 · · · 0
[T ◦ T ∗ ]B = [T ]B [T ∗ ]B = . = [T ∗ ]B [T ]B = [T ∗ ◦ T ]B .
. .. .. ..
. . . .
0 0 ··· λn λn
Portanto, T ◦T∗ = T∗ ◦T, ou seja, T é normal.
(i) Autovalores de A:
1−x 2 0 √ √
pA (x) = det 0 1−x 2 = (1−x)3 +8 = (x−3)(−x2 −3) = −(x−3)(x− 3i)(x+ 3i).
2 0 1−x
√ √
Ou seja, λ1 = 3, λ2 = 3i e λ3 = 0 3i são autovalores de A.
(ii) Autovetores de A:
a √ √ √ √ √
ou seja, v = (−2, 1 − 3i, 1 + 3i). Logo, AutA ( 3i) = [(−2, 1 − 3i, 1 + 3i)].
2
5.5 Operadores normais e diagonalização 127
√ √
λ3 = − 3i: se v = (a, b, c) ∈ C3 é autovetor de A associado à λ3 = − 3i, então
√ √
1 + 3i 2√ 0 (
b = − 21 (1 + 3i)a
0 1 + 3i 2√ = 0 ⇒ √ 2 √ ,
1 1
2 0 1 + 3i c = − 4 (1 + 3i) a = − 2 (1 − 3i)a
a √ √ √ √ √
ou seja, v = − (−2, 1 + 3i, 1 − 3i). Logo, AutA (− 3i) = [(−2, 1 + 3i, 1 − 3i)].
2
Como esperado, os autovetores associados a autovalores distintos são ortogonais. Para montar a matriz
U basta normalizá-los. Assim,
2 −2
√ −2√ 3 √0 0 2 2√ 2
√
> 1
A = UΛU = 2 1 − √3i 1 + √3i 0 3i 0 −2 1 + √3i 1 − √3i .
√
12
2 1 + 3i 1 − 3i 0 0 − 3i −2 1 − 3i 1 + 3i
Capítulo 6
Em Geometria Analítica são estudadas as cônicas, que são curvas planas, descritas por equações
polinomiais de grau 2 em 2 variáveis. Por exemplo, dados a, b ∈ R \ {0}, a equação
x 2 y2
+ =1
a2 b2
descreve uma elipse em R2 . Esse tipo de equação, onde não aparecem termos “mistos” xy, é simples de
reconhecer e esboçar. No entanto, no caso geral, essa tarefa não é tão simples, e faz-se necessário uma
“mudança de coordenadas” adequada. Veja a Figura 6.1.
x2 y2 x02 y02
(a) + =1 (b) + =1
a2 b2 a2 b2
Figura 6.1: Elipses em R2
A elipse na Figura 6.1(b) teria uma equação bem mais complicada nas variáveis x e y, onde não seria
possível visualizar rapidamente qual seria a cônica representada.
Neste capítulo, veremos como utilizar as ferramentas de Álgebra Linear vistas anteriormente para
simplificar equações e facilitar o reconhecimento de cônicas (R2 ) e quádricas (R3 ). Faremos mais
detalhadamente do caso das quádricas, mas as mesmas ideias se aplicarão no caso de cônicas.
A discussão apresentada nesse capítulo foi motivada pelos livros [Coe], [Lar] e [Lay].
p(x1 , x2 ) = ax12 + bx22 + cx1 x2 + dx1 + ex2 + f , com a, b, c, d, e, f ∈ R. Ou ainda, na forma matricial,
podemos escrever
a c/2 x1 x1
p(x1 , x2 ) = x1 x2 + d e + f.
c/2 b x2 x2
é a parte quadrática de p, e define o que chamamos de forma quadrática, neste caso em R2 . Essa
definição será generalizada a seguir.
n n >
Uma forma quadrática em R é uma função q : R → R definida por q(x) = x Ax,
Definição 6.1.1
x1
..
em que x = . ∈ Rn e A ∈ Mn (R) é uma matriz simétrica. A matriz A que define a forma
xn
quadrática é chamada de matriz da forma quadrática.
1 −2
Exemplo 6.1.2 Calcule a expressão da forma quadrática definida a partir da matriz A = .
−2 3
x
Solução. Seja x = 1 , então
x2
1 −2 x1
q(x1 , x2 ) = x> Ax = x1 x2 = x12 − 4x1 x2 + 3x22 .
−2 3 x2
Exemplo 6.1.3 Encontre a matriz da forma quadrática q(x1 , x2 , x3 ) = 3x12 + 2x22 + x32 − x1 x2 + 6x2 x3 .
Solução. Note que,
3 −1/2 0 x1
q(x1 , x2 , x3 ) = 3x12 + 2x22 + x32 − x1 x2 + 6x2 x3 = x1 x2 x3 −1/2
2 3 x2 .
0 3 1 x3
3 −1/2 0
Logo, a matriz da forma quadrática é A = −1/2 2 3.
0 3 1
Observação 6.1.4 (i) Se a matriz A é diagonal, a forma quadrática q(x) = x> Ax não contém
termos mistos (xi x j com i 6= j).
(ii) Dada uma função polinomial p(x1 , . . . , xn ) nas variáveis x1 , . . . , xn , que só contem termos
de
x1
grau 2, existe única matriz A ∈ Mn (R) simétrica tal que p(x1 , . . . , xn ) = x1 · · · xn A ... .
xn
(iii) É possível definir forma quadrática q(x) = x> Ax para uma matriz A ∈ Mn (R) qualquer. Porém,
neste caso, a matriz A da representação de q(x) = x> Ax não é única. Consideraremos apenas
6.2 Quádricas 131
matrizes simétricas, em razão também da Decomposição Espectral, que terá papel importante.
Mudança de variável
Se x ∈ Rn representa um vetor de variáveis em Rn , uma mudança de variável ou mudança de
coordenadas é uma mudança da forma x = Qy (ou y = Q−1 x) em que Q é uma matriz não singular.
Nesse caso, y ∈ Rn são as coordenadas do vetor x em relação à base de Rn definida pelas colunas de Q.
Substituindo a mudança na forma quadrática:
e a matriz da “nova” forma quadrática, isto é, da forma quadrática na nova variável y, é Ã = Q> AQ.
Como a matriz A que define a forma quadrática é simétrica, segue da Decomposição Espectral que
existe uma matriz Q ortogonal tal que A = QΛQ> , ou seja, Q> AQ = Λ. Assim, ao fazer a mudança
x = Qy, é possível eliminar os termos mistos da equação da forma quadrática, pois q̃(y) = y> Λy com Λ
diagonal.
Definição 6.1.5 Uma forma
quadrática diagonal em Rn é uma função q : Rn → R definida por
x1
..
q(x) = x> Ax, em que x = . ∈ Rn e A ∈ Mn (R) é uma matriz diagonal.
xn
Exemplo 6.1.6 Determine uma mudança de variável por uma matriz ortogonal que reduz a forma
quadrática q(x1 , x2 ) = 2x12 + 4x1 x2 + 5x22 em uma forma diagonal.
Solução. Temos que determinar uma matriz ortogonal Q para a mudança de variável x = Qy que
transforme a matriz A da forma quadrática q em uma matriz diagonal. Como A é uma matriz simétrica,
basta encontrar os autovalores e autovetores ortonormais de A.
2 2
Note que A = , seus autovalores são λ1 = 1 e λ2 = 6 e AutA (1) = [(2, −1)] e AutA (6) = [(1, 2)]
2 5
(verifique). Os autovetores associados aos dois autovalores distintos já são automaticamente ortogonais
(pois A é simétrica), então basta normalizar os autovetores para obter a matriz Q da Decomposição
Espectral de A: temos A = QΛQ> , em que
1 2 1 1 0
Q= √ e Λ= .
5 −1 2 0 6
6.2 Quádricas
Definição 6.2.1 Uma quádrica em R3 é uma superfície formada pelos (x, y, z) ∈ R3 que satisfazem
uma equação da forma
com a, b, c, d, e, f , r, s,t, k ∈ R e a2 + b2 + c2 6= 0.
Elipsoide
Quádrica de equação
x 2 y2 z2
+ + = 1,
a2 b2 c2
com a, b, c ∈ R \ {0}. Se a = b = c, o elipsóide é uma esfera.
As interseções dessa superfície com os planos x = k, y = k ou z = k são elipses se |k| < a, |k| < b ou
|k| < c, respectivamente.
Hiperboloide
Quádrica de equação
x2 y2 z2
+ − = d,
a2 b2 c2
com a, b, c, d ∈ R \ {0}. O caso d > 0 representa um hiperboloide de uma folha e o caso d < 0 um
hiperboloide de duas folhas. Veja a Figura 6.3.
Se d > 0, as interseções desse hiperboloide de uma folha com os planos x = k ou y = k são hipérboles
e com os planos z = k são elipses.
Se d < 0, as interseções desse hiperboloide de duas
p folhas com ospplanos x = k ou y = k são hipér-
boles, e com os planos z = k são elipses se k > |d|c 2 ou k < − |d|c2 ou um conjunto vazio se
p p
− |d|c2 < k < |d|c2 .
Cone
Quádrica de equação
x 2 y2 z2
+ − = 0,
a2 b2 c2
6.2 Quádricas 133
com a, b, c ∈ R \ {0}.
Paraboloide
Sejam com a, b, c ∈ R \ {0}. A equação
x 2 y2 z
+ =
a2 b2 c
representa um paraboloide elíptico, e a equação
x 2 y2 z
2
− 2=
a b c
representa um paraboloide hiperbólico (ou sela). Veja a Figura 6.5.
Cilindros
Sejam com a, b, c ∈ R \ {0}. A quádrica de equação
x 2 y2
− =c
a2 b2
134 Capítulo 6. Formas quadráticas e aplicações
> >
q(v) = v> Av = (Qv0 )> A(Qv0 ) = v0 (Q> AQ)v0 = v0 Λv0 = q̃(v0 ), (6.3)
onde q̃(v0 ) é uma forma diagonal, ou seja, não contém termos mistos.
Note que, se C = {e1 , e2 , e3 } é a base canônica de R3 e B = {v1 , v2 , v3 } é uma base ortonomal de
autovetores de A, com Av j = λ j v j , então tomando Q a matriz cuja j-ésima coluna é v j , temos
v = (x, y, z) = [v]C , v0 = (x0 , y0 , z0 ) = [v]B , Q = MBC , Λ = diag(λ1 , λ2 , λ3 ).
Ou seja, em (6.3) estamos reescrevendo (6.2), dada em termos das coordenadas em relação à base
canônica, para
q̃(x0 , y0 , z0 ) = λ1 (x0 )2 + λ2 (y0 )2 + λ3 (z0 )2
em termos das coordenadas em relação à base ortonormal B. Geometricamente, ambas as equações
q(x, y, z) = 0 e q̃(x0 , y0 , z0 ) = 0 representam o mesmo lugar geométrico, porém a primeira está descrita
no sistema de coordenadas (O, e1 , e2 , e3 ) e a segunda no sistema de coordenadas (O, v1 , v2 , v3 ).
Após realizar a mudança de coordenadas v = Qv0 em (6.2) para eliminar os termos mistos, precisamos
fazer a mesma mudança nos termos de grau 1 (parte linear) de (6.1) para obter a nova equação para a
quádrica dada toda em termos de x0 , y0 , z0 :
λ1 (x0 )2 + λ2 (y0 )2 + λ3 (z0 )2 + r0 x0 + s0 y0 + t 0 z0 + k = 0. (6.4)
Por fim, completamos os quadrados (6.4), a fim de obter uma equação na forma reduzida, como as
descritas na Seção 6.2. Daí, faremos uma nova mudança da forma
x00 = x0 − α, y00 = y0 − β , z00 = z0 − γ,
que geometricamente corresponde a uma translação da origem de O = (0, 0, 0) para O0 = (α, β , γ) no
sistema de coordenadas.
Exemplo 6.3.1 Classifique a quádrica de equação
2 1 2 1
5x2 + 8y2 + 5z2 − 4xy − 8xz − 4yz + x + y + z + = 0.
3 3 3 3
Descreva quais foram as mudanças de coordenadas empregadas para simplificar sua equação e faça um
esboço da quádrica no novo sistema de coordenadas.
Solução. Iniciaremos com a parte quadrática da equação, a fim de eliminar seus termos mistos. Como
descrito anteriormente, faremos a mudança
0
x x
v = y = Q y0 = Qv0
z z0
com Q formada pelos autovetores ortonormais da matriz da forma quadrática associada.
−4 −2 5 z
136 Capítulo 6. Formas quadráticas e aplicações
Ou seja, λ1 = 9, λ2 = 9 e λ3 = 0.
isto é, u1 = (a, −2a − 2b, b). Assim, podemos escolher u1 = (1, 0, −1) e u2 = (1, −2, 0), por
exemplo. Note que u1 e u2 não são ortogonais. Utilizando o processo de ortogonalização de
Gram-Schmidt obtemos:
hu1 , u2 i = 1
u1
= (1, −2, 0) − 21 (1, 0, −1) = 1 1
w2 = u2 − hu1 , u2 i 2 , −2, 2 .
||u1 ||2
• λ3 = 0: se u = (a, b, c) é autovetor associado à λ = 0, então
5 −2 −4 a 5 −2 −4 a
−2 8 −2 b = 0 ⇒ 0 2 −1 b = 0 ⇒ a = c = 2b
−4 −2 5 c 0 0 0 c
Logo,
√ √ √
2/2 √2/6 2/3
1 2 1
u1 = √ (1, 0, −1) , u2 = (1, −4, 1) , u3 = (2, 1, 2) e Q = √0 −2
√ 2/3 1/3 .
2 6 3
− 2/2 2/6 2/3
A mudança de variável v = Qv0 transforma a forma quadrática q(x, y, z) na forma diagonal 9(x0 )2 +9(y0 )2 .
Agora, precisamos efetuar a mudança na parte linear. Temos,
√ √
2/3 x0
x 2/2 2/6
√
y = 0 −2 0
√ √ 2/3 1/3 y0
z − 2/2 2/6 2/3 z
logo,
√ √ ! √ ! √ √ !
2 2 2 2 0 2 0 2 0 2 2 2 0 1 0 2 0 2 0 2 0
x + y + 2z = x+ y+ z + − y + z +2 − x+ y+ z
3 3 3 2 6 3 3 3 3 2 6 3
√
2 2 0 10 0
=− x + z.
3 9
6.3 Reconhecimento de quádricas 137
Solução. Iniciaremos com a parte quadrática da equação, a fim de eliminar seus termos mistos. Como
descrito anteriormente, faremos a mudança
0
x x
v = y = Q y0 = Qv0
z z0
z
onde
1 1 1
A = 1 −1 −1 .
1 −1 1
(ii) Autovalores da matriz da forma quadrática:
1−x 1 1
det 1 −1 − x −1 = −(1 − x)2 (x + 1) + 3x − 3 = −(1 − x)[(x + 1)(1 − x) + 3]
1 −1 1−x
Referências Bibliográficas
[Lar] R. Larson, D. Falvo, Elementary linear algebra. 6ed., Brooks Cole, 2008.
[Lay] D. Lay, Linear algebra and Its applications. 5ed., Pearson, 2014.
[Mey] C. Meyer, Matrix analysis and applied linear algebra. SIAM, 2010.
[Str] G. Strang, Linear algebra and Its applications. Cengage Learning, 2015.
Índice Remissivo
Álgebra linear, Espaços vetoriais, Produto interno, Transformações lineares, Formas quadráticas,
Quádricas.
9.PALAVRAS-CHAVE RESULTANTES DE INDEXAÇÃO:
Álgebra linear; Sistemas lineares; Espaços vetoriais; Transformações lineares; Formas quadráticas;
Matemática.
10.
APRESENTAÇÃO: X Nacional Internacional
Departamento de Matemática; São José dos Campos, SP, Brasil; Abril de 2023; Curso Fundamental,
Álgebra Linear, 1º edição, 2023.
11.
RESUMO:
Esse texto foi elaborado a partir das notas de aula das autoras para o curso de MAT-27 - Ál-
gebra Linear, disciplina obrigatória aos cursos de engenharia do ITA, com objetivo de servir
como livro-texto para a mesma. Esse material aborda todo o conteúdo que normalmente é
dado nas disciplinas de Álgebra Linear em cursos de graduação nas áreas de exatas. Nele são
considerados espaços vetoriais reais e complexos, com foco nos espaços de dimensão finita.
12.
GRAU DE SIGILO: