Você está na página 1de 93

Apostila

MAT 27 - ÁLGEBRA LINEAR

Fernanda Pereira, Tiara Martini

INSTITUTO DE TECNOLÓGICO DE AERONÁUTICA

Departamento de Matemática
Sumário

1 Revisão: matrizes, determinantes e sistemas lineares . . . . . . . . . . . . . . . 1


1.1 Matrizes 1
1.2 Determinantes 4
1.3 Sistemas lineares 6
1.4 Operações elementares 8
1.5 Método para inversão de matrizes 9

2 Espaços vetoriais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1 Definição e propriedades básicas 13
2.2 Subespaços vetoriais, soma de subespaços, soma direta 16
2.3 Subespaço gerado 20
2.4 Dependência linear 22
2.5 Base e dimensão 24
2.6 Dimensão de subespaços e da soma de subespaços 30
2.7 Coordenadas e matriz de mudança de base 33
2.8 Método prático para determinar ou completar bases de subespaços 37

3 Espaços vetoriais com produto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . 41


3.1 Definições e propriedades 41
3.2 Ortogonalidade e Processo de Gram-Schmidt 48
3.3 Complemento ortogonal 55
3.4 Projeção ortogonal 58
3.5 O Problema de Quadrados Mínimos 62

4 Transformações lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.1 Conceitos básicos 69
4.2 Isomorfismos e Teorema da Invariância 77
4.3 Matriz de uma transformação linear 80
4.4 Posto 84

Indíce remissivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
Capítulo 1

Revisão: matrizes, determinantes e


sistemas lineares

Neste capítulo, serão apresentados os conceitos e principais propriedades de matrizes, determinantes


e sistemas lineares. Esses assuntos serão muito utilizados ao logo deste curso, por isso é preciso dominar
muito bem os resultados deste capítulo. Apesar de se tratar de um conteúdo de ensino médio, nem
sempre ele é visto da maneira mais geral como se encontra aqui. Assim, recomendamos a todos os
alunos a leitura deste capítulo, a fim de revisar, ou mesmo se aprofundar no assunto.
As demonstrações dos resultados deste capítulo serão omitidas, e podem ser encontradas no livro:
Reginaldo Santos, Introdução à álgebra linear, Belo Horizonte - UFMG, 2013,
cuja versão digital encontra-se disponível na página do autor: Reginaldo Santos - livros.
Ao longo do texto, o conjunto dos números naturais será denotado por N = {1, 2, . . .} e os corpos
dos números reais e complexos serão denotados por R e C, respectivamente. Quando dissermos um
número, constante ou escalar, estaremos nos referindo a elementos de R ou C, salvo menção contrária.
De um modo mais geral, denotaremos o corpo de escalares por K, significando K = R ou C.
A cardinalidade de um conjunto X será denotada por #X.

1.1 Matrizes
Uma matriz A, m × n, m, n ∈ N, é uma tabela de mn números dispostos em m linhas e n colunas:
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
A= . ..  .
 
. ..
 . . . 
am1 am2 · · · amn

A i-ésima linha de A é
[ ai1 ai2 · · · ain ], i = 1, . . . , m.
A j-ésima coluna de A é  
a1 j
 a2 j 
, j = 1, . . . , n.
 
 ..
 . 
am j
2 Capítulo 1. Revisão: matrizes, determinantes e sistemas lineares

Também usaremos a notação A = (ai j )m×n . Dizemos que ai j é o elemento ou entrada de posição i, j de
A, m × n é a ordem de A e que A é quadrada de ordem n se m = n. A diagonal principal é formada
pelos elementos aii . A matriz A é dita ser triangular superior (respectivamente triangular inferior) se
todos as entradas abaixo (resp. acima) da diagonal principal são nulas, isto é, ai j = 0 para todo i > j
(resp. i < j).
A matriz identidade de ordem n é In = (ai j )n×n onde aii = 1 para todo i = 1, . . . , n e ai j = 0 se i ̸= j.

Definição 1.1.1 Sejam A = (ai j )m×n , B = (bi j )m×n ,C = (c jk )n×p matrizes e α um escalar. A soma
A + B é a matriz D = (di j )m×n tal que

di j = ai j + bi j ∀ i = 1, . . . , m, j = 1, . . . , n.

A multiplicação por escalar αA é a matriz E = (ei j )m×n tal que

ei j = αai j ∀ i = 1, . . . , m, j = 1, . . . , n.

A multiplicação AC é a matriz F = ( fik )m×p tal que


n
fik = ∑ ai j c jk ∀ i = 1, . . . , m, k = 1, . . . , p.
j=1

A matriz transposta de A é a matriz A⊤ = (gi j )n×m tal que

gi j = a ji ∀ i = 1, . . . , m, j = 1, . . . , n.

A proposição a seguir sintetiza as principais propriedades envolvendo as operações com matrizes


definidas anteriormente.

Proposição 1.1.2 Sejam A, B,C matrizes m × n, D matriz n × p, E matriz p × q, F matriz r × m e


α, β escalares. São válidas as seguintes propriedades.

(i) Comutatividade da soma:


A + B = B + A.

(ii) Associatividade da soma:


A + (B +C) = (A + B) +C.

(iii) Existência de elemento neutro para a soma:

A + 0 = A,

onde 0 aqui denota a matriz nula de ordem m × n. Usaremos a mesma notação para o escalar
nulo, mas pelo contexto ficará óbvio sobre qual estamos nos referindo.

(iv) Existência de inverso aditivo: para cada matriz A = (ai j )m×n existe única −A = (−ai j )m×n tal
que
A + (−A) = 0.

(v) Associatividade da multiplicação por escalar:

α(β A) = (αβ )A e α(AD) = (αA)D = A(αD).


1.1 Matrizes 3

(vi) Distributividade da soma com multiplicação por escalar:

(α + β )A = αA + β A e α(A + B) = αA + αB.

(vii) Associatividade do produto:


A(DE) = (AD)E.

(viii) Existência de elemento neutro para o produto:

AIn = Im A = A,

onde Is é a matriz identidade de ordem s.

(ix) Distributividade da soma com produto:

F(A + B) = FA + FB e (A + B)D = AD + BD.

(x) (A⊤ )⊤ = A.

(xi) (A + B)⊤ = A⊤ + B⊤ .

(xii) (αA)⊤ = αA⊤ .

(xiii) (AD)⊤ = D⊤ A⊤ .

(xiv) Se X = (xi )n×1 é uma matriz n × 1, então


n
AX = ∑ x jA j,
j=1

onde A j é a j-ésima coluna de A. Em termos matriciais,


 
x1
[A1 A2 · · · An ]  ...  = x1 A1 + · · · + xn An .
 

xn

Uma matriz quadrada A = (ai j )n×n é inversível ou não singular se existe uma matriz B = (bi j )n×n
tal que
AB = BA = In .
Neste caso a matriz B é chamada de inversa de A. Se A não tem inversa dizemos que A é não inversível
ou singular.

Proposição 1.1.3 Sejam A = (ai j )n×n e B = (bi j )n×n matrizes.

(i) Se A é inversível, então a inversa é única. Neste caso, denotaremos A−1 a matriz inversa de A.

(ii) Se AB = In , então BA = In .

(iii) Se A é inversível, então A−1 também o é, e

(A−1 )−1 = A.
4 Capítulo 1. Revisão: matrizes, determinantes e sistemas lineares

(iv) Se A e B são inversíveis, então AB também o é, e

(AB)−1 = B−1 A−1 .

(v) Se A é inversível, então A⊤ também o é, e

(A⊤ )−1 = (A−1 )⊤ .

(vi) Se AB é inversível, então A e B também o são.

O traço de uma matriz quadrada A = (ai j )n×n é definido por


n
tr (A) = a11 + · · · + ann = ∑ aii .
i=1
A proposição a seguir sintetiza as principais propriedades relacionadas ao traço de matrizes.

Proposição 1.1.4 Sejam A = (ai j )n×n e B = (bi j )n×n matrizes e α um escalar.

(i) tr (A + B) = tr (A) + tr (B).

(ii) tr (αA) = α tr (A).

(iii) tr (A⊤ ) = tr (A).

(iv) tr (AB) = tr (BA).

Observação 1.1.5 Não é verdade, em geral, que tr (AB) = tr (A) tr (B) (encontre um contra-
exemplo). Não confunda isso com o item (iv) da Proposição 1.1.4!

1.2 Determinantes
Determinante, nada mais é que uma função, que associa a cada matriz quadrada A ∈ Mn (K), um
escalar det A ∈ K. Essa função possui algumas propriedades interessantes, que muitas vezes permitem
obter informações importantes sobre as matrizes economizando muitos cálculos. Existem algumas
maneiras distintas e equivalentes de definir o determinante de uma matriz. Aqui apresentaremos a
definição por cofatores, que é dada via indução sobre a ordem da matriz.
Se A = (a11 ) é uma matriz 1 × 1, define-se o determinante de A por
det(A) = a11 .
Para matrizes quadradas de ordem maior que 1, definiremos o determinante por indução. Seja A =
(ai j )n×n uma matriz com n ≥ 2 e suponha que o determinante de matrizes de ordem (n − 1) × (n − 1)
foi definido. O menor do elemento ai j , denotado por Ãi j , é a submatriz de ordem (n − 1) × (n − 1)
obtida de A retirando-se a i-ésima linha e a j-ésima coluna de A. O cofator do elemento ai j , denotado
por ãi j , é definido por
ãi j = (−1)i+ j det(Ãi j ).
O determinante de A é definido por
n
det(A) = ∑ a1k ã1k . (1.1)
k=1
A expressão (1.1) é chamada de desenvolvimento do determinante de A em cofatores na primeira linha.
1.2 Determinantes 5

Teorema 1.2.1 Seja A = (ai j )n×n uma matriz. O determinante de A pode ser calculado fazendo-se
o desenvolvimento em cofatores em qualquer linha ou qualquer coluna, isto é,

n
det(A) = ∑ aik ãik ∀ i = 1, . . . , n, (1.2)
k=1
n
= ∑ ak j ãk j ∀ j = 1, . . . , n. (1.3)
k=1

A expressão (1.2) é chamada de desenvolvimento do determinante de A em cofatores na i-ésima


linha, e a expressão (1.3) é chamada de desenvolvimento do determinante de A em cofatores na
j-ésima coluna.

A seguir, apresentamos as principais propriedades sobre determinantes.

Proposição 1.2.2 Sejam A = (ai j )n×n , B = (bi j )n×n matrizes e α um escalar. São válidas as
seguintes propriedades.

(i) Se A é uma matriz triangular superior ou inferior, então


n
det(A) = ∏ aii .
i=1

(ii) Se B é obtida de A multiplicando-se uma linha de A por α, então

det(B) = α det(A).

(iii) Se B é obtida de A trocando-se duas linhas distintas de posição, então

det(B) = − det(A).

(iv) Se B é obtida de A substituindo-se a l-ésima linha por ela somada a um múltiplo escalar da
k-ésima linha, com k ̸= l, então
det(B) = det(A).

(v) Escrevendo A em termos das suas linhas:


 
A1
 .. 
 . 
 
A=
 A k
,

 .. 
 . 
An

onde Ak = [ ak1 ak2 · · · akn ] é a k-ésima linha de A, se Ak = X +Y , onde X,Y são matrizes
6 Capítulo 1. Revisão: matrizes, determinantes e sistemas lineares

1 × n, então    
A1 A1
 ..   .. 
 .   . 
   
 Ak−1   Ak−1 
   
det A = det  X  + det 
 
 Y
.

 Ak+1   Ak+1 
   
 ..   .. 
 .   . 
An An

(vi) det(AB) = det(A) det(B).

(vii) det(At ) = det(A).

(viii) A é inversível se e somente se det(A) ̸= 0.

Observação 1.2.3 • Pode-se, usando as propriedades (ii), (iii) e (iv), transformar o cálculo do
determinante de uma matriz no cálculo do determinante de uma matriz triangular superior, o
que é bem mais simples pela propriedade (i).

• Pelo item (vii), todas as propriedades de determinantes referentes às linhas da matriz também
são válidas com relação as colunas.

 
0 1 5
■ Exemplo 1.2.4 Calcule det A, onde A = 3 −6 9.
2 6 1
Solução. Primeiro efetuamos algumas operações com a matriz para simplificar o cálculo do determi-
nante. Para facilitar o entendimento, denotamos por Li a i-ésima linha.
     
3 −6 9 1 −2 3 1 −2 3
(L1 ↔L2 ) (L3 ← L3 −2L1 )
det A = − det 0 1 5 = −3 · det 0 1 5 = −3 · det 0 1 5
2 6 1 2 6 1 0 10 −5

 
1 −2 3
(L3 ← L3 −10L2 )
= −3 · det 0 1 5 
0 0 −55

Como essa última matriz é triangular superior, o seu determinante é o produto das entradas da diagonal
principal, logo
det A = −3 · 1 · 1 · (−55) = 165.

1.3 Sistemas lineares

Uma equação linear em n variáveis (ou incógnitas) x1 , x2 , . . . , xn é uma equação da forma

a1 x1 + a2 x2 + · · · + an xn = b,
1.3 Sistemas lineares 7

onde a1 , a2 , . . . , an e b são constantes. Um sistema de equações lineares ou simplesmente sistema linear


é um conjunto de equacões lineares, ou seja, é um conjunto de equações da forma:


 a11 x1 + a12 x2 + · · · + a1n xn = b1
 a21 x1 + a22 x2 + · · · + a2n xn = b2

.. (1.4)


 .
am1 x1 + am2 x2 + · · · + amn xn = bm

onde ai j e bk são constantes, para i, k = 1, . . . , m e j = 1, . . . , n. Usando o produto de matrizes, o sistema


linear (1.4) pode ser escrito como uma equação matricial AX = B, onde
     
a11 a12 · · · a1n x1 b1
 a21 a22 · · · a2n   x2   b2 
A= . , X = e B =  ..  .
     
.. ..   .. 
 .. . .   .   . 
am1 am2 · · · amn xn bm
 
s1
 s2 
Uma solução do sistema linear é uma matriz S =   tal que as equações do sistema são satisfeitas
 
..
 . 
sn
quando substituímos x1 = s1 , x2 = s2 , . . . , xn = sn , ou equivalentemente, AS = B. Também, costuma-se
denotar a solução como uma n-upla S = (s1 , s2 , . . . , sn ) ∈ Kn . O conjunto de todas as soluções do
sistema é chamado conjunto solução ou solução geral do sistema. A matriz A á chamada matriz do
sistema linear. A matriz aumentada do sistema linear é a seguinte:
 
a11 a12 · · · a1n b1
 a21 a22 · · · a2n b2 
[A|B] =  . ..  .
 
.. ..
 .. . . . 
am1 am2 · · · amn bm

Dois sistemas lineares são ditos equivalentes se possuem exatamente as mesmas soluções.

Proposição 1.3.1 (i) Se um sistema linear AX = B possui duas soluções distintas, então ele
possui infinitas soluções. Daí segue que uma, e apenas uma, das três possibilidades a seguir
pode ocorrer: o sistema tem uma única solução, tem infinitas soluções, ou não tem nenhuma
solução.

(ii) Se A é uma matriz quadrada, então o sistema AX = B tem uma única solução se, e somente se,
A é inversível. Neste caso a solução é X = A−1 B.

Se b1 = b2 = · · · = bm = 0, o sistema (1.4) é chamado de homogêneo. Tal sistema pode ser escrito


 m×
na forma matricial AX = 0̄, onde 0̄ denota a matriz  1 com
 todas
 entradas nulas. Todo sistema linear
s1 0
 s2   0 
homogêneo admite pelo menos a solução S =  .  =  . , chamada de solução trivial. Assim,
   
 ..   .. 
sn 0
um sistema linear homogêneo ou tem somente uma solução (a trivial) ou tem infinitas soluções.
8 Capítulo 1. Revisão: matrizes, determinantes e sistemas lineares

Teorema 1.3.2 Seja A = (ai j )m×n uma matriz com m < n. Então, o sistema linear homogêneo
AX = 0̄ (que tem m equações e n incógnitas) tem infinitas soluções.

1.4 Operações elementares


Definição 1.4.1 Uma operação elementar sobre as linhas de uma matriz é uma das seguintes
operações:

(i) trocar a posição de duas linhas da matriz;

(ii) multiplicar uma linha da matriz por um escalar diferente de zero;

(iii) somar a uma linha da matriz um múltiplo escalar de outra linha.

Definição 1.4.2 Duas matrizes são linha-equivalentes se uma é obtida da outra após uma quantidade
finita de operações elementares sobre suas as linhas.

Teorema 1.4.3 Dois sistemas lineares que possuem matrizes aumentadas linha-equivalentes são
equivalentes.

Definição 1.4.4 Uma matriz A = (ai j )m×n está na forma escalonada reduzida quando satisfaz as
seguintes condições:

(i) Todas as linhas nulas (formadas inteiramente por zeros) ocorrem abaixo das linhas não nulas.

(ii) O pivô (primeiro elemento não nulo de uma linha) de cada linha não nula é igual a 1.

(iii) O pivô de cada linha não nula ocorre à direita do pivô da linha anterior.

(iv) Se uma coluna contém um pivô, então todos os seus outros elementos são iguais a zero.

Se A satisfaz as propriedades (i) e (iii), mas não necessariamente (ii) e (iv), dizemos que ela está na
forma escalonada.

■ Exemplo 1.4.5 As matrizes A e B a seguir estão na forma escalonada:


   
1 1 1 1 3 −1 5
A = I3 =  0 −1 2  , B =  0 0 −5 15  .
0 0 5 0 0 0 0

As matrizes C e D a seguir estão na forma escalonada reduzida:


   
1 0 0 1 3 0 2
C =  0 1 0 , D =  0 0 1 −3  .
0 0 1 0 0 0 0

Devido o Teorema 1.4.3, para se resolver um sistema linear pode-se aplicar o método do escalona-
mento, que consiste em aplicar operações elementares sobre as linhas de sua matriz aumentada para
se obter uma matriz na forma escalonada (também conhecido como método de Gauss) ou escalonada
reduzida (também conhecido como método de Gauss-Jordan). O sistema linear que tem essa nova
matriz como matriz aumentada tem as mesmas soluções e é bem mais fácil de resolver.
1.5 Método para inversão de matrizes 9

1.5 Método para inversão de matrizes


Seja A uma matriz n × n. Para verificarmos se A é inversível basta verificarmos se existe uma matriz
B tal que AB = In . Vamos denotar as colunas de B por X1 , X2 , . . . , Xn , ou seja, B = [ X1 · · · Xn ], onde
     
x11 x12 x1n
 x21   x22   x2n 
X1 =  .  , X2 =  .  , . . . , Xn =  .  ,
     
.
 .   . . .
 . 
xn1 xn2 xnn

e as colunas da matriz identidade In por E1 , . . . , En , ou seja, In = [ E1 · · · En ], onde


     
1 0 0
 0   1   0 
E1 =  .  , E2 =  .  , . . . , En =  ..  .
     
.
 .   . .  . 
0 0 1

Assim,
AB = In ⇔ A[ X1 · · · Xn ] = [ AX1 · · · AXn ] = [ E1 · · · En ].
Analisando coluna a coluna a equação anterior, vemos que encontrar B é equivalente a resolver n
sistemas lineares
AX j = E j , j = 1, . . . , n.
Cada um dos sistemas pode ser resolvido usando o método de Gauss-Jordan. Para isso, formaríamos
as matrizes aumentadas [A|E1 ], [A|E2 ], . . . , [A|En ]. Entretanto, como as matrizes dos sistemas são
todas iguais a A, podemos resolver todos os sistemas simultaneamente formando a matriz n × 2n
[A | E1 E2 · · · En ] = [A | In ]. Transformando [A | In ] na sua forma escalonada reduzida, que vamos
denotar por [R | S ], vamos chegar a duas situações possíveis: ou a matriz R é a matriz identidade, ou
não é.

• Se R = In , então a forma escalonada reduzida da matriz [A | In ] é da forma [In | S ]. Se escrevemos a


matriz S em termos das suas colunas S = [S1 S2 · · · Sn ], então as soluções dos sistemas In X j = S j
são X j = S j , que são as mesmas soluções dos sistemas AX j = E j , e assim B = S é tal que AB = In ,
logo A é inversível.

• Se R ̸= In , então pode-se mostrar que a matriz R tem uma linha nula. Isso implica que cada um
dos sistemas AX j = E j ou tem infinitas soluções ou não tem solução. Daí, segue que a matriz A
não tem inversa, pois as colunas da (única) inversa seriam X j , para j = 1, . . . , n.

Com isso, obtemos não somente uma forma de descobrir se uma matriz A tem inversa mas também,
como encontrar a inversa, no caso em que ela exista. Ou seja, escalonamos a matriz [A | In ] e encontramos
a sua forma escalonada reduzida [R | S ]. Se R = In , então a matriz A é inversível e a inversa é S. Caso
contrário, a matriz A não é inversível. Além disso obtemos o seguinte corolário.

Corolário 1.5.1 Uma matriz A n × n é inversível se, e somente se, A é linha-equivalente à matriz
identidade In .
 
0 1 5
■ Exemplo 1.5.2 Considere a matriz do Exemplo 1.2.4: A = 3 −6 9. Escalonando a matriz
2 6 1
10 Capítulo 1. Revisão: matrizes, determinantes e sistemas lineares

[A | I3 ], temos
     
0 1 5 1 0 0 3 −6 9 0 1 0 1 1 −2 3 0 1/3 0
(L ← L )
 3 −6 9 0 1 0  (L1 ↔ L2 )
∼  0 1 5 1 0 0  ∼3  0 1 5
1 1
1 0 0 
2 6 1 0 0 1 2 6 1 0 0 1 2 6 1 0 0 1
   
1 −2 3 0 1/3 0 1 −2 3 0 1/3 0
(L3 ← L3 −2L1 ) (L3 ← L3 −10L2 )
∼  0 1 5 1 0 0  ∼  0 1 5 1 0 0 
0 10 −5 0 −2/3 1 0 0 −55 −10 −2/3 1
 
1 1 −2 3 0 1/3 0
(L3 ← − 55 L3 )
∼  0 1 5 1 0 0 
0 0 1 2/11 2/165 −1/55
 
1 −2 3 0 1/3 0
(L2 ← L2 −5L3 )
∼  0 1 0 1/11 −2/33 1/11 
0 0 1 2/11 2/165 −1/55
 
1 −2 0 −30/55 49/165 3/55
(L1 ← L1 −3L3 )
∼  0 1 0 1/11 −2/33 1/11 
0 0 1 2/11 2/165 −1/55
 
1 0 0 −4/11 29/165 13/55
(L1 ← L1 +2L2 )
∼  0 1 0 1/11 −2/33 1/11  .
0 0 1 2/11 2/165 −1/55
Essa última matriz é a forma escalonada reduzida de [A | I3 ]. Assim, A é linha-equivalente a matriz
identidade I3 e  
−4/11 29/165 13/55
S =  1/11 −2/33 1/11  = A−1 .
2/11 2/165 −1/55

 
1 10 4
■ Exemplo 1.5.3 Considere a matriz A = −1 2 0. Escalonando a matriz [A | I3 ], temos
2 11 5
   
1 10 4 1 0 0 1 10 4 1 0 0
 −1 2 0 0 1 0  (L3 ← L∼3 −2L1 )  −1 2 0 0 1 0 
2 11 5 0 0 1 0 −9 −3 −2 0 1
   
1 10 4 1 0 0 1 1 10 4 1 0 0
(L2 ← L2 +L1 ) (L2 ← 12 L2 )
∼  0 12 4 1 1 0  ∼  0 1 1/3 1/12 1/12 0 
0 −9 −3 −2 0 1 0 −9 −3 −2 0 1
   
1 10 4 1 0 0 1 0 2/3 1/6 −5/6 0
(L3 ← L3 +9L2 )
∼  0 1 1/3 1/12 1/12 0  (L1 ← L∼ 1 −10L2 )
 0 1 1/3 1/12 1/12 0 
0 0 0 −5/4 3/4 1 0 0 0 −5/4 3/4 1
Essa última matriz é a forma escalonada reduzida de [A | I3 ]. Assim, a forma escalonada reduzida de A
é a matriz  
1 0 2/3
S =  0 1 1/3  ,
0 0 0
que tem uma linha nula. Portanto, a matriz A não é inversível. ■
1.5 Método para inversão de matrizes 11
No caso de matrizes 2 × 2, às vezes é útil lembrar da fórmula
 −1  
a b 1 d −b
= (se ad − bc ̸= 0). (1.5)
c d ad − bc −c a
Capítulo 2

Espaços vetoriais

Neste capítulo, apresentaremos o conceito de espaço vetorial, assim como seus fundamentos
essenciais: bases e dimensão. Basicamente, os espaços vetoriais, de dimensão finita - que são o foco
desse curso, são um conjunto que se comportam como Rn (ou Cn ): conjunto de n-uplas de números
reais (ou complexos), onde é possível fazer somas de seus elementos e multiplicação por escalar (no
caso de n-uplas essas operações são feitas coordenada a coordenada).
Primeiramente apresentaremos a definição de espaço vetorial, e a partir disso toda a teoria será
desenvolvida. É interessante acompanhar como todas as proposições e teoremas vão sendo construídos
passo a passo a partir das definições, sem precisar apelar para resultados muito técnicos e com provas
complicadas. Por esse motivo, recomendamos a leitura atenta das demonstrações, pois elas auxiliam no
entendimento dos conceitos e também fornecem ferramentas para resolver os exercícios.

2.1 Definição e propriedades básicas

Definição 2.1.1 Um espaço vetorial sobre K, ou K-espaço vetorial é um conjunto não vazio V
(cujos elementos são chamados de vetores) munido de duas operações: uma chamada de soma ou
adição, + : V ×V → V , que a cada par de vetores u, v ∈ V associa um (único) novo vetor u + v ∈ V ,
e outra chamada de multiplicação por escalar, · : K ×V → V , que a cada elemento α ∈ K (chamado
de escalar) e a cada vetor v ∈ V associa um (único) vetor α · v = αv ∈ V , que devem satisfazer as
propriedades a seguir.

(i) u + v = v + u, para todos u, v ∈ V (comutatividade da soma);

(ii) (u + v) + w = u + (v + w), para todos u, v, w ∈ V (associatividade da soma);

(iii) existe 0 ∈ V tal que 0 + u = u, para todo u ∈ V (vetor nulo);

(iv) para cada v ∈ V existe −v ∈ V tal que v + (−v) = 0 (vetor simétrico);

(v) 1 · v = v, para todo v ∈ V ;

(vi) α(β u) = (αβ )u, para todos α, β ∈ K e u ∈ V (associatividade da multiplicação por escalar);

(vii) (α + β )u = αu + β u, para todos α, β ∈ K e u ∈ V (distributividade 1);

(viii) α(u + v) = αu + αv, para todos α ∈ K e u, v ∈ V (distributividade 2).


14 Capítulo 2. Espaços vetoriais

Observação 2.1.2 O símbolo “0” também é usado para denotar o número zero de K. Isso não
causará confusão, pois ficará claro pelo contexto a que a notação se refere.

Listaremos a seguir, as propriedades mais imediatas das operações de um espaço vetorial. As


demonstrações seguem dos itens da Definição 2.1.1, sendo um bom exercício tentar prová-las sem olhar
a demonstração apresentada.

Proposição 2.1.3 — Propriedades básicas. Seja V um K-espaço vetorial.

(i) O vetor nulo é único.

(ii) O vetor simétrico de um vetor dado é único.

(iii) Para todo v ∈ V , tem-se 0 · v = 0.

(iv) Para todo α ∈ K, tem-se α · 0 = 0.

(v) Para todo v ∈ V , tem-se (−1)v = −v.

(vi) Se α ∈ K e v ∈ V são tais que αv = 0, então α = 0 ou v = 0.

Demonstração. (i) Suponha que 01 e 02 sejam dois vetores nulos, então


02 é v.n. 01 é v.n.
01 = 01 + 02 = 02 .

(ii) Seja v ∈ V suponha que v1 e v2 são vetores simétricos de v, então

v1 = v1 + 0 = v1 + (v + v2 ) = (v1 + v) + v2 = 0 + v2 = v2 .

(iii) 0 · v = (0 + 0)v = 0 · v + 0 · v ⇒ 0 = 0 · v + (−0 · v) = 0 · v + 0 · v + (−0 · v) = 0 · v + 0 = 0 · v.

(iv) α ·0 = α ·(0+0) = α ·0+α ·0 ⇒ 0 = α ·0+(−α ·0) = α ·0+α ·0+(−α ·0) = α ·0+0 = α ·0.

(v) v + (−1)v = 1 · v + (−1)v = (1 − 1)v = 0 · v = 0 ⇒ (−1)v = −v.

(vi) Se α ̸= 0, então
 
1 1 1
αv = 0 ⇒ (αv) = · 0 = 0 ⇒ v = 1 · v = α v = 0.
α α α

A seguir, serão listados alguns exemplos de espaços vetoriais. Fica como exercício para o leitor
verificar que de fato eles satisfazem as oito condições da Definição 2.1.1.
■ Exemplo 2.1.4 — Espaço nulo. V = {0}, que consiste do espaço com um só elemento (obrigatoria-
mente o vetor nulo). ■

■ Exemplo 2.1.5 — Espaço Kn . Dado n ∈ N, o conjunto das n-uplas em K,

Kn = {(a1 , . . . , an ) : ai ∈ K, i = 1, . . . , n}

é um K-espaço vetorial com as seguintes operações:


2.1 Definição e propriedades básicas 15

• dados u = (a1 , . . . , an ) e v = (b1 , . . . , bn ) em Kn , u + v = (a1 + b1 , . . . , an + bn );

• dados u = (a1 , . . . , an ) ∈ Kn e α ∈ K, αu = (αa1 , . . . , αan ).

Se n = 1, teremos o próprio K como K-espaço vetorial.


Se K = R e n = 2 ou 3, as operações com vetores em R2 e R3 podem ser visualizadas geometrica-
mente.

Figura 2.1: Vetores

Cn também é um R-espaço vetorial com as operações definidas da mesma maneira. ■

■ Exemplo 2.1.6 — Espaço de matrizes. O conjunto Mm×n (K) formado pelas matrizes m × n com

entradas em K é um K-espaço vetorial com as operações usuais de soma de matrizes e multiplicação


por escalar.
Quando m = n denotaremos Mn×n (K) simplesmente por Mn (K). ■

■ Exemplo 2.1.7 — Espaço de polinômios. O conjunto

P(K) = {p(x) = a0 + a1 x + · · · + an xn : ai ∈ K e n ∈ N}

é um K-espaço vetorial com as operações definidas a seguir.

• Sejam p(x) = a0 + a1 x + · · · + an xn e q(x) = b0 + b1 x + · · · + bm xm em P(K). Sem perda de


generalidade, suponha m ≤ n. Então

p(x) + q(x) = (a0 + b0 ) + (a1 + b1 )x + · · · + (am + bm )xm + am+1 xm+1 + · · · + an xn .

• Dados p(x) = a0 + a1 x + · · · + an xn ∈ P(K) e α ∈ K,

α p(x) = (αa0 ) + (αa1 )x + · · · + (αan )xn .

■ Exemplo 2.1.8 — Espaço das soluções de um sistema linear homogêneo. Dado um sistema
linear homogêneo


 a11 x1 + a12 x2 + · · · + a1n xn = 0
 a21 x1 + a22 x2 + · · · + a2n xn = 0

L: ..


 .
am1 x1 + am2 x2 + · · · + amn xn = 0

16 Capítulo 2. Espaços vetoriais

onde
 ai j ∈ K para todos i = 1, . . . , m, j = 1, . . . , n, o conjunto formado por todas as soluções S =
s1
 s2 
 ∈ Mn×1 (K) de L é um K-espaço vetorial, com a operações usuais de Mn×1 (K).
 
 .. ■
 . 
sn

■ Exemplo 2.1.9 — Espaço de funções. Seja X um conjunto não vazio. O conjunto F (X, K) das
funções f : X → K é um K-espaço vetorial com as operações definidas a seguir.

• Dados f , g ∈ F (X, K), a função f + g : X → K é definida por ( f + g)(x) = f (x) + g(x) para
todo x ∈ X.

• Dados f ∈ F (X, K) e α ∈ K, a função α f : X → K é definida por (α f )(x) = α f (x) para todo


x ∈ X.

Observe que a estrutura de K-espaço vetorial de F (X, K) depende somente das operações em K (X é
um conjunto qualquer).
Um caso particular importante, é quando X = N. Neste caso F (N, K) é o espaço de sequências, e
é mais comum denotar f : N → K por (xn )n∈N , onde xn = f (n). Assim,

(xn )n∈N + (yn )n∈N = (xn + yn )n∈N e α(xn )n∈N = (αxn )n∈N .

■ Exemplo 2.1.10 — Produto cartesiano. Sejam U e V K-espaços vetoriais. Então o produto

cartesiano U × V = {(u, v) : u ∈ U e v ∈ V } é um K-espaço vetorial com as operações definidas


coordenada a coordenada, isto é, dados (u1 , v1 ), (u2 , v2 ) ∈ U ×V e α ∈ K,

(u1 , v1 ) + (u2 , v2 ) = (u1 + u2 , v1 + v2 ) e α(u1 , v1 ) = (αu1 , αv1 ).

2.2 Subespaços vetoriais, soma de subespaços, soma direta


A seguir apresentamos o conceito de subespaço vetorial, que basicamente é um espaço vetorial
dentro de outro.
Definição 2.2.1 Seja V um K-espaço vetorial. Um subconjunto não vazio W de V é um subespaço
vetorial de V se a restrição das operações de V a W torna esse conjunto um K-espaço vetorial.
Se W ⊆ V é um subespaço e W ̸= V , dizemos que W é um subespaço próprio de V .

Observe que, para W ser um espaço vetorial com as operações de V , precisa-se verificar as oito
condições da Definição 2.1.1 para W . Mas todas, exceto (iii) e (iv), já serão automaticamente satisfeitas
por V ser espaço vetorial e W ⊆ V . Sendo assim, resta verificar essas duas condições, e se de fato as
restrições das operações a W ficam bem definidas em W , isto é, se a soma de dois vetores de W resulta
em um vetor de W (e não de V \W ) e o mesmo para a multiplicação por escalar. O próximo resultado
diz que na verdade precisamos mostrar um pouco menos que isso.
2.2 Subespaços vetoriais, soma de subespaços, soma direta 17

Proposição 2.2.2 Sejam V é um K-espaço vetorial e W ⊆ V . Então W é um subespaço vetorial se,


e somente se, as seguintes condições são satisfeitas:

(i) 0 ∈ W ;

(ii) se v1 , v2 ∈ W , então v1 + v2 ∈ W ;

(iii) se v ∈ W e α ∈ K, então αv ∈ W .

Demonstração. Suponha que W é subespaço vetorial. Então as condições (ii) e (iii) são satisfeitas pois
as restrições devem se tornar operações bem definidas em W . Além disso deve existir um vetor nulo
0W ∈ W , e este por sua vez deve ser igual ao vetor nulo de V , pois caso contrário V teria dois vetores
nulos, contrariando a unicidade. Portanto 0 ∈ W .
Reciprocamente, suponha que as condições (i), (ii) e (iii) são satisfeitas. As condições (ii) e (iii)
garantem que as as restrições das operações a W ficam bem definidas em W . A condição (i) garante
que W ̸= 0/ e que a condição (iii) da Definição 2.1.1 é satisfeita para W . Resta verificar que dado v ∈ W ,
tem-se −v ∈ W . Mas −v = (−1) · v ∈ W por (iii). ■

■ Exemplo 2.2.3 Se V é um K-espaço vetorial, então {0} e V são subespaços vetoriais de V , chamados

de subespaços triviais. ■

■ Exemplo 2.2.4 Mostremos que U = {(x, y) ∈ R2 : x + y = 0} é subespaço vetorial de R2 .


É suficiente verificar as três condições da Proposição 2.2.2.

(i) 0 = (0, 0) ∈ U pois 0 + 0 = 0.

(ii) Se u = (x1 , y1 ) e v = (x2 , y2 ) ∈ U, então x1 + y1 = 0 = x2 + y2 . Daí, u + v = (x1 + x2 , y1 + y2 )


satisfaz
(x1 + x2 ) + (y1 + y2 ) = (x1 + y1 ) + (x2 + y2 ) = 0 + 0 = 0.
Logo u + v ∈ U.

(iii) Se u = (x, y) ∈ U e α ∈ K, então αu = (αx, αy) e αx + αy = α(x + y) = α · 0 = 0. Logo αu ∈ U.

Mais geralmente, dados a, b ∈ R, o subconjunto W = {(x, y) ∈ R2 : ax + by = 0} é um subespaço


vetorial de R2 (verifique). Geometricamente, W representa uma reta no plano, que passa pela origem. ■

Exercício 2.1 Mostre que, dados a, b, c ∈ R, o conjunto U = {(x, y, z) ∈ R3 : ax + by + cz = 0} é


subespaço vetorial de R3 . Geometricamente, U representa um plano que passa pela origem.
Um plano em R3 que não passa pela origem é um subespaço vetorial?

■ Exemplo 2.2.5 O subconjunto U = {(x, y) ∈ R2 : x ≥ 0 e y ≥ 0} não é um subespaço vetorial de R2 ,


pois, por exemplo, (1, 1) ∈ U e −1 ∈ R, mas −1 · (1, 1) = (−1, −1) ∈
/ U. ■

Nos próximos exemplos, deixaremos a cargo do leitor a verificação de que os subconjuntos


apresentados são, de fato, subespaços vetoriais.
■ Exemplo 2.2.6 Dado n ∈ N, considere Pn (K) = {p(x) = a0 + a1 x + · · · + an xn : ai ∈ K}, isto é, o
conjunto dos polinômios com coeficientes em K e grau no máximo n. Então, Pn (K) é subespaço
vetorial do espaço de polinômios P(K) (Exemplo 2.1.7). ■
18 Capítulo 2. Espaços vetoriais

■ Exemplo 2.2.7 Considere U = C ([0, 1], R) o conjunto das funções f : [0, 1] → R contínuas. Então,
U é subespaço vetorial do espaço de funções F ([0, 1], R) (Exemplo 2.1.9). ■

 Z 1 
■ Exemplo 2.2.8 Seja V = C ([0, 1], R). O subconjunto U = f ∈V : f (x) dx = 0 é um subes-
0
paço vetorial de V . ■

■ Exemplo 2.2.9 Seja V = Mn (K). Os subconjuntos

W1 = {A ∈ V : A = A⊤ } e W2 = {A ∈ V : A = −A⊤ }

são subespaços vetoriais de V . As matrizes em W1 são chamadas de simétricas e as matrizes em W2 são


chamadas de antissimétricas.

Se K = C, então o conjunto U = {A ∈ V : A = A } é um R-subespaço vetorial de Mn (C) (visto como
espaço sobre R), onde A denota a matriz cujas entradas são os conjugados complexos das respectivas
entradas em A. As matrizes em U são chamadas de hermitianas. Se K = R o espaço U também poderia
ser definido, no entanto ele seria exatamente W1 . ■

■ Exemplo 2.2.10 Dados V um espaço vetorial e U,W subespaços vetoriais de V , então U ∩W é um

subespaço vetorial de V (verifique). Mais geralmente, pode-se provar que a interseção de qualquer
família de subespaços, mesmo que uma quantidade infinita, também é sempre subespaço vetorial.
Em geral, U ∪W não é um subespaço vetorial de V (encontre um contra-exemplo). ■

Definição 2.2.11 Sejam V um K-espaço vetorial e U,W ⊆ V subespaços.

(i) Dizemos a soma de U e W é o conjunto de todas as possíveis somas entre um elemento de U


e um de W , isto é U +W = {u + w : u ∈ U, w ∈ W }.

(ii) Dizemos que a soma é direta quando U ∩W = 0. Neste caso, denotamos U ⊕W .

Observação 2.2.12 A soma de dois subespaços é sempre um espaço vetorial (verifique).

A ∈ V : A = A⊤

■ Exemplo 2.2.13 Considere V = Mn (K) e os subespaços U = e
−A⊤

W = A∈V :A= . Verifique que V = U ⊕W .
Solução. Para demonstrar a igualdade de conjuntos V = U + W , a rigor, precisamos verificar que
V ⊆ U +W e U +W ⊆ V . A última continência é direta, pois U,W ⊆ V são subespaços. Precisamos
verificar que V ⊆ U +W . Seja A ∈ V . Considere B,C ∈ V definidos por

1 1
B = (A + A⊤ ) e C = (A − A⊤ ).
2 2

É fácil ver que A = B +C. Mostremos que B ∈ U e C ∈ W .


 ⊤
⊤ 1 ⊤ 1 1 1
B = (A + A ) = (A + A⊤ )⊤ = (A⊤ + (A⊤ )⊤ ) = (A⊤ + A) = B ⇒ B ∈ U,
2 2 2 2
e,
 ⊤
1 1 1 1
C⊤ = (A − A⊤ ) = (A − A⊤ )⊤ = (A⊤ − (A⊤ )⊤ ) = (A⊤ − A) = −C ⇒ C ∈ W.
2 2 2 2
2.2 Subespaços vetoriais, soma de subespaços, soma direta 19

Assim, todo elemento de V também é um elemento de U +W , donde segue que V ⊆ U +W . Portanto,

V = U +W.

Para concluir que a soma é direta, resta verificar que U ∩W = {0}. A inclusão {0} ⊆ U ∩W é imediata,
pois U e W são subespaços, logo 0 ∈ U,W . Suponha A ∈ U ∩W . Então

A⊤ = A = −A⊤ ⇒ 2A⊤ = 0 ⇒ A⊤ = 0 ⇒ A = 0.

Logo, U ∩W = {0}. Portanto, V = U ⊕W . ■

Proposição 2.2.14 Sejam V um K-espaço vetorial e U,W ⊆ V subespaços. A soma U +W é direta


se, e somente se, cada elemento v ∈ U +W pode ser escrito de modo único como uma soma v = u + w
com u ∈ U e w ∈ W .

Demonstração. Suponha que a soma U +W é direta. Então, U ∩W = 0. Dado v ∈ U +W , suponha


que existam u1 , u2 ∈ U e w1 , w2 ∈ W tais que

v = u1 + w1 = u2 + w2 .

Então,
u1 − u2 = w1 − w2 .

Como U e W são subespaços, u1 − u2 ∈ U e w2 − w1 ∈ W . Logo, u1 − u2 = w1 − w2 ∈ U ∩W = {0}.


Portanto,
u1 − u2 = w1 − w2 = 0 ⇒ u1 = u2 e w1 = w2 .

Reciprocamente, suponha que cada elemento v ∈ U +W pode ser escrito de modo único como uma
soma v = u + w com u ∈ U e w ∈ W . Temos que mostrar que U ∩W = {0}. A inclusão {0} ⊆ U ∩W é
imediata, já que U e V são subespaços. Seja v ∈ u ∩W .
Por um lado, v ∈ U e 0 ∈ W e assim v = v + 0 é uma decomposição como soma de um elemento de U e
um de W .
Por outro lado, 0 ∈ U e v ∈ W e assim v = 0 + v é uma decomposição como soma de um elemento de
U e um de W .
Pela unicidade da decomposição, deve ocorrer v = 0. Assim, provamos que U ∩W ⊆ {0}, donde segue
que U ∩W = {0}. ■

Definição 2.2.15 Sejam U1 , . . . ,Um subespaços de um espaço vetorial V . A soma de U1 , . . . ,Um , é


o seguinte subespaço de V :

U1 + · · · +Um = {u1 + · · · + um : ui ∈ Ui , i = 1, . . . , m}.

Dizemos que a soma U1 + · · · +Um é direta, e denotamos U1 ⊕U2 ⊕ · · · ⊕Um , se

Ui ∩ (U1 + · · · +Ui−1 +Ui+1 + · · · +Um ) = {0} para todo i = 1, 2, . . . , m.

Também é válido resultado análogo ao da Proposição 2.2.14, isto é, a soma U1 + · · · +Um é direta
se, e somente se, todo elemento se escreve de maneira única como uma soma u1 + · · · + um , com ui ∈ Ui .
20 Capítulo 2. Espaços vetoriais

2.3 Subespaço gerado


Seja V um K-espaço vetorial. Uma combinação linear dos vetores v1 , . . . , vn ∈ V , é um vetor da
forma
v = α1 v1 + · · · + αn vn , com α1 , . . . , αn ∈ K.

Para ilustrar geometricamente o conceito de combinação linear, considere 2 vetores no plano R2 .


Por exemplo, sejam u = (1, 2) e v = (−1, 1). Um vetor w ∈ R2 é uma combinação linear de u e v se
pode ser obtido “andando” um tanto na direção de u mais um tanto na direção de v.

Figura 2.2: Combinação linear

É possível provar que qualquer vetor em R2 pode ser obtido como uma combinação linear de u e v
(veja Exemplo 2.3.3). Esse é um exemplo onde {u, v} gera R2 (o conceito de conjunto gerador será
introduzido a seguir).
Agora, se u = (1, 1) e v = (2, 2) (ambos tem a mesma direção), todas as combinações lineares de u e v
vão gerar apenas um reta, que passa pela origem e tem a direção de u (e também de v).
Definição 2.3.1 Sejam V um K-espaço vetorial e S um subconjunto de V . Define-se o subespaço
de V gerado por S por

[S] = {α1 v1 + · · · + αn vn : n ∈ N, vi ∈ S, αi ∈ K},

ou seja, o subconjunto formado por todas as combinações lineares envolvendo vetores de S. Também,
dizemos que S é um conjunto gerador de [S] ou que S gera [S].

Observação 2.3.2 • Mesmo que S seja um conjunto infinito, as combinações lineares em [S]
são sempre somas finitas!

• Por convenção, {0} é gerado pelo conjunto vazio.

• [S] é sempre um subespaço vetorial de V , mesmo que S não o seja (verifique).

■ Exemplo 2.3.3 Seja S = {(1, 2), (−1, 1)} ⊆ R2 . Verifique que [S] = R2 .
Solução. A inclusão [S] ⊆ R2 é imediata. Mostremos que R2 ⊆ [S]. Seja v = (a, b) ∈ R2 . Precisamos
encontrar α, β ∈ R tais que
v = α(1, 2) + β (−1, 1) ⇔ (a, b) = (α, 2α) + (−β , β ) = (α − β , 2α + β ).
2.3 Subespaço gerado 21

Ou seja, precisamos encontrar uma solução do sistema linear



α −β = a
.
2α + β = b
a+b b − 2a
Resolvendo o sistema, temos a solução α = e β= . Portanto, v ∈ [S], donde concluímos
3 3
que [S] = R2 . ■

Exercício 2.2 Seja S = {(1, 1), (2, 2)} ⊆ R2 . Verifique que [S] = {(a, a) : a ∈ R}.

■ Exemplo 2.3.4 Seja S = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} ⊆ R3 . Verifique que [S] = R3 .
Solução. A inclusão [S] ⊆ R3 é imediata. Para provar R3 ⊆ [S], considere v = (a, b, c) ∈ R3 . Temos,
v = a(1, 0, 0) + b (0, 1, 0) + c (0, 0, 1) ∈ [S].
Portanto, R3 ⊆ [S], donde segue que [S] = R3 . ■

■ Exemplo 2.3.5 Considere o R-espaço vetorial V = P2 (R). Verifique quais dos conjuntos

S1 = {1, x, x2 }, S2 = {2, 1 + x, 1 + x2 }, S3 = {1 + x + x2 , 2 − x + 3x2 , 4 + x + 5x2 }


geram V .
Solução. Dado p(x) = a + bx + cx2 ∈ V , é fácil ver que
p(x) = a · 1 + b · x + c · x2 ∈ [S1 ].
Daí, não é difícil concluir que [S1 ] = V .
Também, pode-se observar que
 
a b c
p(x) = − − · 2 + b · (1 + x) + c · (1 + x2 ) ∈ [S2 ],
2 2 2
e concluir que [S2 ] = V .
No caso de S3 , se tentássemos escrever
p(x) = α(1+x+x2 )+β (2−x+3x2 )+γ(4+x+5x2 ) = (α +2β +4γ)+(α −β +γ)x+(α +3β +5γ)x2 ,
cairíamos no sistema linear 
 α + 2β + 4γ = a
α −β +γ = b .
α + 3β + 5γ = c

que não tem solução para a, b, c quaisquer, pois a matriz do sistema


 
1 2 4
 1 −1 1 
1 3 5
é singular! Assim, já concluímos que S3 não gera V . Neste caso, [S3 ] é um subespaço vetorial próprio
de V . Observe que
4 + x + 5x2 = 2 · (1 + x + x2 ) + 1 · (2 − x + 3x2 ) ∈ [{1 + x + x2 , 2 − x + 3x2 }].
Assim,
[S3 ] = [{1 + x + x2 , 2 − x + 3x2 }].

22 Capítulo 2. Espaços vetoriais

O exemplo a seguir será importante mais adiante.


■ Exemplo 2.3.6 — Espaço coluna. Seja A ∈ Mm×n (K). Se A1 , . . . , An ∈ Km denotam as colunas de
A, o subespaço de Km gerado pelas colunas de A, é chamado de espaço coluna de A e será denotado
por R(A). Assim,
R(A) = [A1 , A2 , . . . , An ].
Segue da Proposição 1.1.2(xiv),

R(A) = {v ∈ Rm : v = Au para algum u ∈ Rn }.

2.4 Dependência linear


Definição 2.4.1 Sejam v1 , . . . , vm vetores distintos de um K-espaço vetorial V . Dizemos que
v1 , . . . , vm são linearmente dependente (LD) se existem α1 , . . . , αm ∈ K não todos nulos tais que

α1 v1 + · · · + αm vm = 0.

Se v1 , . . . , vm não são LD, dizemos que eles são linearmente independentes (LI).

Observe que, v1 , . . . , vm são LI se, e somente se, dada uma combinação linear linear nula

λ1 v1 + · · · + λm vm = 0,

necessariamente ocorre λ1 = · · · = λm = 0, isto é, o vetor nulo só pode ser escrito de uma única maneira
como combinação linear de v1 , . . . , vm .
Definição 2.4.2 Seja S um subconjunto (finito ou infinito) de K-espaço vetorial V . Dizemos que S
é linearmente dependente (LD) se existem v1 , . . . , vm ∈ S distintos e α1 , . . . , αm ∈ K não todos nulos
tais que
α1 v1 + · · · + αm vm = 0.
Lembre que combinações lineares são sempre somas finitas! Caso contrário, S é linearmente
independentes (LI).

Observação 2.4.3 Por convenção, o conjunto vazio é LI.

■ Exemplo 2.4.4 O subconjunto S = {(1, 1), (0, 2)} ⊆ R2 é LI ou LD?


Solução. Suponha α, β ∈ R tais que

α(1, 1) + β (0, 2) = (0, 0).

Então,
(α, α + 2β ) = (0, 0) ⇔ α = 0 e α + β = 0 ⇔ α = β = 0.
Portanto, a única combinação linear nula de vetores em S é a trivial. Logo S é LI. ■

■ Exemplo 2.4.5 O subconjunto S = {(1, 1, 0), (0, 1, 0), (2, 1, 0)} ⊆ R3 é LI ou LD?
Solução. Suponha α, β , γ ∈ R tais que

α(1, 1, 0) + β (0, 1, 0) + γ(2, 1, 0) = (0, 0, 0).


2.4 Dependência linear 23

Então, 
α + 2β = 0
(α + 2γ, α + β + γ, 0) = (0, 0, 0) ⇔ .
α +β +γ = 0
Observe que esse sistema linear possui solução não trivial. Por exemplo, se α = −2 e β = γ = 1, temos
uma combinação linear nula

−2 · (1, 1, 0) + 1 · (0, 1, 0) + 1 · (2, 1, 0) = (0, 0, 0)

com coeficientes não todos nulos. Portanto, S é LD. ■

■ Exemplo 2.4.6 Considere S = {(1, 0), (i, 0), (0, 1), (0, i)} ⊆ C2 . Vamos analisar se S é LI ou LD,
considerando as duas possibilidades para C2 : espaço vetorial sobre R e C.
Como C-espaço vetorial: observe que

1 · (1, 0) + i · (i, 0) + 0 · (0, 1) + 0 · (0, i) = (0, 0)

é uma combinação linear nula de vetores em S, com coeficientes não todos nulos. Portanto, S é LD.
Como R-espaço vetorial: suponha

α1 (1, 0) + α2 (i, 0) + α3 (0, 1) + α4 (0, i) = (0, 0), αi ∈ R.

Então,

i α ∈R
(α1 + iα2 , α3 + iα4 ) = (0, 0) ⇔ α1 + iα2 = 0 e α3 + iα4 = 0 ⇔ αi = 0 ∀ i = 1, 2, 3, 4.

Portanto, S é LI. ■

■ Exemplo 2.4.7 O subconjunto S = {cos x, ex } ⊆ F (R, R) é LI ou LD?


Solução. Suponha α, β ∈ R tais que

α cos x + β ex = 0 (função nula). (2.1)

Como estamos no espaço das funções de R em R, essa combinação linear igual a função nula implica
que, para todo x ∈ R, vale a igualdade (2.1). Em particular, para x = π/2, temos

β eπ/2 = α · 0 + β eπ/2 = 0 ⇒ β = 0.

Substituindo β = 0 em (2.1), resta α cos x = 0. Agora, considerando x = 0, obtemos α = 0. Portanto, a


única possibilidade para (2.1) é α = β = 0. Logo, S é LI. ■

■ Exemplo 2.4.8 O subconjunto S = {1, cos(2x), cos2 x} ⊆ F (R, R) é LI ou LD?


Solução. Como
1 1
cos2 x = + cos(2x) ∀ x ∈ R,
2 2
temos que
1 1
· 1 + · cos(2x) − 1 · cos2 x = 0
2 2
é uma combinação linear nula de vetores em S, com coeficientes não todos nulos. Portanto, S é LD. ■
24 Capítulo 2. Espaços vetoriais

■ Exemplo 2.4.9 O subconjunto S = {1, x, x2 , x3 , . . .} ⊆ P(K) é LI ou LD?


Solução. Uma combinação linear nula de vetores em S:

α0 · 1 + α1 x + · · · + αn xn = 0

nada mais é que um polinômio identicamente nulo. Isso só ocorre se α0 = α1 = · · · = αn = 0. Portanto,


S é LI. ■

Proposição 2.4.10 — Propriedades básicas sobre dependência linear. Sejam V um K-espaço


vetorial e S ⊆ V .

(i) Suponha S = {v}. Então S é LI se v ̸= 0 e LD se v = 0.

(ii) Se S contém um subconjunto LD, então S é LD. Em particular, se 0 ∈ S, então S é LD.

(iii) Se S é LI, então todo subconjunto S também é LI.

(iv) Suponha que S possua 2 ou mais vetores. Então S é LD se, e somente se, existe v ∈ S e
v1 , . . . , vn ∈ S\{v} tais que v ∈ [v1 , . . . , vn ].

(v) Se S é LI e v ∈ V \ S é tal que S ∪ {v} é LD, então v ∈ [S].

Demonstração. Provaremos apenas o item (iv). As demonstrações dos demais itens são mais simples e
serão deixadas como exercício.
Suponha que S é LD. Então existem v1 , . . . , vm ∈ S distintos e α1 , . . . , αm ∈ K não todos nulos tais
que

α1 v1 + · · · + αm vm = 0. (2.2)

Se m = 1, então deve ocorrer v1 = 0. Assim, qualquer que seja v ∈ S\{0}, tem-se 0 ∈ [v]. Suponha agora
m ≥ 2. Como os escalares em (2.2) são não todos nulos, vamos assumir, sem perda de generalidade,
que α1 ̸= 0. Assim,    
α2 αm
v1 = − v2 + · · · + − vm ∈ [v2 , . . . , vm ].
α1 α1

Reciprocamente, suponha que v ∈ [v1 , . . . , vn ], com v ∈ S e v1 , . . . , vn ∈ S\{v}. Então, existem


α1 , . . . , αn ∈ K tais que

v = α1 v1 + · · · + αn vn ⇔ (−1)v + α1 v1 + · · · + αn vn = 0.

A última equação é uma combinação linear nula de vetores de S com ao menos um dos escalares não
nulo. Portanto, S é LD. ■

Observação 2.4.11 Como caso particular da proposição anterior, dois vetores u e v são LD, se, e
somente se, existe α ∈ K tal que u = αv ou v = αu (um deles é um múltiplo escalar do outro).

2.5 Base e dimensão


Definição 2.5.1 Seja V um espaço vetorial. Dizemos que um subconjunto B ⊆ V é uma base de V
se [B] = V e B é LI.
2.5 Base e dimensão 25

Observação 2.5.2 Por convenção, assumiremos que 0/ é base do espaço nulo {0}.

■ Exemplo 2.5.3 Seja B = {(1, 2), (−1, 1)} ⊆ R2 .


Foi mostrado no Exemplo 2.3.3 que [B] = R2 . É fácil ver que B é LI, já que nenhum dos dois vetores é
múltiplo escalar do outro. Portanto, B é uma base de R2 . ■

■ Exemplo 2.5.4 Seja B = {(1, 1), (0, 2)} ⊆ R2 .


Foi mostrado no Exemplo 2.4.4 que B é LI. Não é difícil verificar que [B] = R2 , uma vez que, dado
(a, b) ∈ R2 , tem-se
b−a
(a, b) = a(1, 1) + (0, 2).
2
Logo, B é uma base de R2 . ■

A seguir, apresentaremos as chamadas bases canônicas de alguns espaços vetoriais que serão
trabalhados neste curso. Essas bases levam esse título, por serem facilmente descritas e por ser mais
“simples” escrever um vetor qualquer no respectivo espaço como combinação linear dos vetores da base
canônica.
■ Exemplo 2.5.5 — Base canônica de Kn . Considere o K-espaço vetorial Kn . Para cada j = 1, . . . , n,
seja e j ∈ Kn o vetor cuja j-ésima coordenada é igual a 1 e as demais são nulas:

e1 = (1, 0, . . . , 0), e2 = (0, 1, 0 . . . , 0), . . . , en = (0, . . . , 0, 1).

O subconjunto B = {e1 , e2 , . . . , en } ⊆ Kn é uma base, chamada de base canônica. ■

■ Exemplo 2.5.6 — Base canônica de Mm×n (K). Considere o K-espaço vetorial Mm×n (K). Para

cada k = 1, . . . , m e l = 1, . . . , n, seja Ekl = (ai j )m×n ∈ Mm×n (K) a matriz tal que akl = 1 e ai j = 0 se
(i, j) ̸= (k, l). O subconjunto

B = {Ekl : k = 1, . . . , m; l = 1, . . . , n}

é uma base, chamada de base canônica de Mm×n (K).


Por exemplo, se m = 2 e n = 3, temos
     
1 0 0 1 0 0
E11 =  0 0  , E12 =  0 0  , E21 =  1 0 ,
0 0 0 0 0 0
     
0 0 0 0 0 0
E22 =  0 1  , E31 =  0 0  , E32 =  0 0 ,
0 0 1 0 0 1
e o conjunto B = {E11 , E12 , E21 , E22 , E31 , E32 } é a base canônica de M3×2 (K). ■

■ Exemplo 2.5.7 — Base canônica de Pn (K) e P(K). Considere o K-espaço vetorial Pn (K). O
subconjunto
B = {1, x, x2 , . . . , xn }
é uma base, chamada de base canônica de Pn (K).
Considere agora K-espaço vetorial P(K). No Exemplo 2.4.9, foi mostrado que o subconjunto

B = {1, x, x2 , x3 , . . .}
26 Capítulo 2. Espaços vetoriais

é LI. Não é difícil verificar que B gera P(K), e portanto é uma base, chamada de base canônica de
P(K). ■

Observação 2.5.8 Não existe uma definição geral de base canônica para um espaço vetorial
qualquer.

Definição 2.5.9 Dizemos que um K-espaço vetorial é finitamente gerado, se existe um subconjunto
S ⊆ V finito que gera V .

Exercício 2.3 Verifique que o espaço P(K) não é finitamente gerado.

Teorema 2.5.10 Todo espaço vetorial tem base.

A demonstração do Teorema 2.5.10 em sua versão mais geral, utiliza o chamado Lema de Zorn e é
um pouco mais técnica. Faremos aqui a demonstração da existência de base para espaços finitamente
gerados. Precisaremos dos resultados apresentados a seguir.
Lema 2.5.11 Sejam V um K-espaço vetorial e S = {v1 , . . . , vn } ⊆ V . Se algum vi ∈ [S \ {vi }], isto é, vi
é combinação linear dos outros vetores em S, então [S] = [S \ {vi }].

Demonstração. A inclusão [S \ {vi }] ⊆ [S] é imediata. Mostremos que [S] ⊆ [S \ {vi }]. Sem perda de
generalidade, assuma i = n. Dado u ∈ [S], existem α1 , . . . , αn−1 , αn ∈ K tais que

u = α1 v1 + · · · + αn−1 vn−1 + αn vn .

Como, por hipótese, vn ∈ [S \ {vn }], existem β1 , . . . , βn−1 ∈ K tais que

vn = β1 v1 + · · · + βn−1 vn−1 .

Portanto,

u = α1 v1 + · · · + αn−1 vn−1 + αn (β1 v1 + · · · + βn−1 vn−1 ) = (α1 + β1 )v1 + · · · + (αn−1 + βn−1 )vn−1

que é uma combinação linear dos vetores de S \ {vn }. Portanto, u ∈ [S \ {vn }], donde segue que
[S] = [S \ {vn }]. ■

Proposição 2.5.12 Sejam V um K-espaço vetorial e S = {v1 , . . . , vn } ⊆ V um conjunto gerador de


V , com n ≥ 1. Então, existe B ⊆ S tal que B é uma base de V .

Demonstração. Suponha n = 1, donde S = {v1 }. Se v1 = 0, então V = [v1 ] = {0} e B = 0/ ⊆ S é uma


base de V . Se v1 ̸= 0, então S é LI, e portanto B = S é uma base de V .
Assuma n > 1. Em particular, existe vi ̸= 0 e S contém um subconjunto LI não vazio. A ideia
que usaremos a seguir, é tomar um subconjunto LI em S com o maior número de vetores possível,
eliminando do conjunto gerador os vetores que são combinações lineares dos demais.
Se S é LI, então B = S é base de V .
Se S não é LI, então é LD, logo existem α1 , . . . , αn ∈ K não todos nulos tais que

α1 v1 + · · · + αn vn = 0.
2.5 Base e dimensão 27

Sem perda de generalidade, suponha αn ̸= 0. Logo,


   
α1 αn−1
vn = − v1 + · · · + − vn−1 ∈ [S \ {vn }].
αn αn
Pelo Lema 2.5.11, V = [S] = [S\{vn }] = [{v1 , . . . , vn−1 }]. Se {v1 , . . . , vn−1 } é LI, então B = {v1 , . . . , vn−1 }
é base de V .
Caso contrário, S′ = {v1 , . . . , vn−1 } é LD, e então repetimos o processo anterior, a fim obtermos um
conjunto gerador contido em S′ com n − 2 vetores. Como S é finito, esse processo termina quando
encontrarmos B ⊆ S LI, de modo que [B] = [S′ ] = V , assim obtendo uma base B de V contida em S. ■

A demonstração do Teorema 2.5.10, para um espaço vetorial finitamente gerado, agora é imediata:
tome um conjunto gerador finito e aplique a Proposição 2.5.12.

Proposição 2.5.13 Seja B = {v1 , v2 , . . . , vm } uma base de um espaço vetorial V . Então, todo
subconjunto LI de V tem no máximo m vetores.

Demonstração. Vamos mostrar que todo conjunto com mais de m vetores é LD.
Seja S = {u1 , u2 , . . . , un } ⊆ V com n > m. Como B é base de V , para cada j = 1, . . . , n, existem αi j ∈ K
tais que
m
u j = α1 j v1 + · · · + αm j vm = ∑ αi j vi . (2.3)
i=1

Para provar que S é LD, devemos verificar que existem escalares λ1 , . . . , λn não todos nulos tais que
λ1 u1 + · · · + λn un = 0.
Substituindo (2.3), temos
! !
m m
λ1 ∑ αi1 vi + · · · + λn ∑ αin vi =0 ⇔
i=1 i=1

(λ1 α11 + · · · + λn α1n ) v1 + · · · + (λ1 αm1 + · · · + λn αmn ) vm = 0.


Como B é base, B é LI. Logo, devemos ter

 λ1 α11 + · · · + λn α1n = 0

.. .
 .
λ1 αm1 + · · · + λn αmn = 0

Procuramos uma solução não trivial para esse sistema linear, nas incógnitas λ1 , . . . , λn . Como m < n,
o sistema possui mais variáveis do que equações. Assim, pelo Teorema 1.3.2, esse sistema possui
infinitas soluções, o que garante que S é LD. ■

Corolário 2.5.14 Se V é um espaço vetorial finitamente gerado, então toda base de V possui o
mesmo número de vetores.

Demonstração. Como V é finitamente gerado, existe conjunto gerador finito, e este contém uma base
pela Proposição 2.5.12. Assim, a Proposição 2.5.13 garante que toda base será um conjunto finito.
Suponha agora que B1 = {v1 , . . . , vm } e B2 = {u1 , . . . , un } são duas bases de V . Como B1 é base, e
B2 é LI, pela Proposição 2.5.13, n ≤ m. Por outro lado, B2 é base e B1 é LI, assim a Proposição 2.5.13
implica m ≤ n. Portanto, m = n. ■
28 Capítulo 2. Espaços vetoriais

Observação 2.5.15 Se um espaço vetorial V não é finitamente gerado, então toda base de V é
um conjunto infinito. Neste caso, é possível provar que duas bases quaisquer têm sempre a mesma
cardinalidade (o que não será feito aqui).

Definição 2.5.16 Seja V um K-espaço vetorial. Se V é finitamente gerado, define-se a dimensão


de V como o número de elementos uma base qualquer de V . Caso contrário, diremos apenas que a
dimensão de V é infinita.

Denotaremos a dimensão de V por dimK V , ou simplesmente dimV , quando não houver perigo de
confusão sobre o corpo de escalares considerado.
■ Exemplo 2.5.17 dim{0} = 0, pois 0/ é base de {0}. ■

■ Exemplo 2.5.18 dim Rn = n e dimC (Cn ) = n. Por exemplo, a base canônica (Exemplo 2.5.5) tem n
vetores. ■

■ Exemplo 2.5.19 Considere Cn como R-espaço vetorial. Então, apenas os n vetores e j da base
canônica no Exemplo 2.5.5 não geram todo o espaço Cn como R-espaço vetorial (geram apenas vetores
com coordenadas reais). É preciso acrescentar mais vetores que vão gerar as entradas complexas.
Seja f j ∈ Cn o vetor cuja j-ésima coordenada é igual ao número complexo i (tal que i2 = −1) e as
demais são nulas, para j = 1, . . . , n. Deixaremos como exercício a prova de que

B = {e1 , . . . , en , f1 , . . . , fn } ⊆ Cn

é uma base do R-espaço vetorial Cn . Portanto, dimR (Cn ) = 2n. ■

■ Exemplo 2.5.20 dim Mm×n (K) = m n. Por exemplo, a base canônica (Exemplo 2.5.6) possui m n
vetores. ■

■ Exemplo 2.5.21 dim Pn (K) = n + 1. Por exemplo, a base canônica (Exemplo 2.5.7) tem n + 1 vetores.
Já o espaço P(K) tem dimensão infinita. ■

■ Exemplo 2.5.22 Determine a dimensão do seguinte subespaço de R3 :

U = {(x, y, z) ∈ R3 : x + 2y − z = 0}.

Solução. Todo vetor (x, y, z) ∈ U satisfaz

x + 2y − z = 0 ⇔ z = x + 2y ⇔ (x, y, z) = (x, y, x + 2y) = x(1, 0, 1) + y(0, 1, 2) ∈ [(1, 0, 1), (0, 1, 2)].

Portanto, (x, y, z) ∈ U se, e somente se, (x, y, z) ∈ [(1, 0, 1), (0, 1, 2)]. Donde segue que

U = [(1, 0, 1), (0, 1, 2)].

Assim, B = {(1, 0, 1), (0, 1, 2)} gera U.


Vamos verificar se B é LI. Como B tem 2 vetores, pela Observação 2.4.11, B é LD se, e somente se,
existe α ∈ R tal que

(1, 0, 1) = α(0, 1, 2) = (0, α, 2α) ou (0, 1, 2) = α(1, 0, 1) = (α, 0, α).

É fácil ver que nenhuma das duas opções acima pode ocorrer, portanto B é LI, logo é uma base de U.
Então, dimU = 2. ■
2.5 Base e dimensão 29

Assim como todo conjunto gerador contém uma base, também vale que todo conjunto LI está
contido numa base, como descreve a proposição a seguir.

Proposição 2.5.23 Seja V um K-espaço vetorial de dimensão finita n ≥ 1. Então, qualquer sub-
conjunto LI {v1 , . . . , vk } ⊆ V , com k < n, pode ser completado para formar uma base para V , isto é,
existem n − k vetores vk+1 , . . . , vn ∈ V tais que B = {v1 , . . . , vk , vk+1 , . . . , vn } é uma base de V .

Demonstração. Considere C = {u1 , . . . , un } uma base de V e S = B ∪C = {v1 , . . . , vk , u1 , . . . , un }. Seja


B um subconjunto de S que contém {v1 , . . . , vk } e é LI, com o maior número possível de vetores.
Observe que, como S é finito, é possível obter B: basta ir testando dentre todos os subconjuntos de S
contendo {v1 , . . . , vk } quais são LI e tomar um com o maior número de vetores.
Sem perda de generalidade, suponha

B = {v1 , . . . , vk , u1 , . . . , um }.

Pela forma que determinamos B, para todo j > m, temos que B ∪ {v j } é LD. Como B é LI, pela
Proposição 2.4.10(v), v j ∈ [B], para todo j > m. Assim, [B] = [S], e como S contém a base C de V ,
concluímos que [B] = [S] = V . Portanto, B é base de V .
Segue do Corolário 2.5.14 que k + m = n, donde poderíamos simplesmente denotar

{u1 , . . . , um } = {vk+1 , . . . , vn }.

Proposição 2.5.24 Sejam V um K-espaço vetorial de dimensão finita n ≥ 1 e S ⊆ V . Então, são


válidas as seguintes afirmações.

(i) Se #S > n, então S é LD.

(ii) Se #S < n, então [S] ̸= V .

(iii) Se #S = n e S é LI, então S é uma base de V .

(iv) Se #S = n e S gera V , então S é base de V .

(v) S é base de V se, e somente se, todo v ∈ V é uma combinação linear de vetores de S e os
escalares dessa combinação linear são únicos.

Demonstração. (i) Segue da Proposição 2.5.13.

(ii) Suponha, por absurdo, que #S = k < n e [S] = V . Então, pela Proposição 2.5.12, existe B ⊆ S
base de V , com #B ≤ k < n, o que contradiz o Corolário 2.5.14.

(iii) Pela Proposição 2.5.23, existe B base de V tal que S ⊆ B. Por ser subconjunto, n = #S ≤ #B.
Como toda base de V possui n vetores, deve ocorrer #B = n = #S. Assim,

S ⊆ B e #S = #B ⇒ B = S é base de V.

(iv) Pela Proposição 2.5.12, existe B ⊆ S base de V . Por ser subconjunto, #B ≤ #S = n. Como toda
base de V possui n vetores, deve ocorrer #B = n = #S. Assim,

B ⊆ S e #B = #S ⇒ B = S é base de V.
30 Capítulo 2. Espaços vetoriais

(v) Suponha S base de V . Então, #S = n, S gera V e S é LI. Seja S = {v1 , . . . , vn }. Dado v ∈ V , segue
que v pode ser escrito como combinação linear de vetores de S, pois S gera V . Provemos que os
escalares são únicos. Sejam α1 , . . . , αn , β1 , . . . , βn ∈ K tais que
v = α1 v1 + · · · + αn vn = β1 v1 + · · · + βn vn .
Então,
S é LI
(α1 − β1 )v1 + · · · + (αn − βn )vn = 0 ⇒ α1 − β1 = · · · = αn − βn = 0 ⇒ α1 = β1 , . . . , αn = βn .
Reciprocamente, suponha que todo v ∈ V é uma combinação linear de vetores de S e os escalares
dessa combinação linear são únicos. Pela primeira parte da frase anterior, temos que S gera V .
Provemos que S é LI. Suponha que α1 , . . . , αk ∈ K e v1 , . . . , vk ∈ S são tais que
α1 v1 + · · · + αk vk = 0.
Assim, temos uma combinação linear do vetor nulo 0 ∈ V envolvendo os vetores v1 , . . . , vk ∈ S.
Mas, também temos a combinação linear trivial
0 = 0 · v1 + · · · + 0 · vk .
Como os escalares são únicos, deve ocorrer α1 = · · · = αk = 0. Portanto, S é LI.

2.6 Dimensão de subespaços e da soma de subespaços

Proposição 2.6.1 Sejam V um K-espaço vetorial de dimensão finita n ≥ 1 e W ⊆ V um subespaço


vetorial. Então, são válidas as seguintes afirmações.

(i) W é finitamente gerado e dimW ≤ n.

(ii) Se dimW = n, então W = V .

(iii) Existe um subespaço vetorial U ⊆ V tal que V = W ⊕U.

Demonstração. (i) Se W = {0}, então 0/ é base de W e dimW = 0.


Suponha W ̸= {0}. Seja w1 ∈ W \ {0}. Se W = [w1 ], então {w1 } é uma base de W e dimW = 1.
Caso contrário, existe w2 ∈ W \ [w1 ], o que implica que {w1 , w2 } é LI. Se W = [w1 , w2 ], então
{w1 , w2 } é uma base de W e dimW = 2.
Caso contrário...
Continuamos o processo acima até encontrar B = {w1 , . . . , wm } tal que B é base de W . Esse
processo deve terminar com m ≤ n, pois caso contrário, teríamos um conjunto LI em V com mais
de n vetores, o que é um absurdo pela Proposição 2.5.24.
(ii) Seja B = {w1 , . . . , wn } uma base de W . Então, B ⊆ W ⊆ V é um subconjunto LI com n = dimV
vetores. Pela Proposição 2.5.24, B é base de V . Portanto, W = [B] = V.
(iii) Tome B1 = {w1 , . . . , wk } uma base de W . Pela Proposição 2.5.23, existe B2 = {vk+1 , . . . , vn } ⊆ V
tal que B1 ∪ B2 é base de V . Considere U = [B2 ]. Deixamos como exercício a verificação de que
V = W ⊕U.

2.6 Dimensão de subespaços e da soma de subespaços 31

Observação 2.6.2 O subespaço U ⊆ V tal que V = W ⊕U da proposição anterior não é único. Por
exemplo, se V = R2 e W = [(1, 0)], então R2 = W ⊕ [(0, 1)], mas também R2 = W ⊕ [(1, 1)].

■ Exemplo 2.6.3 Considere V = P2 (R) e W = [t 2 + 1,t 2 − 1] ⊆ V . Determine U ⊆ V tal que


V = W ⊕U.
Solução. Como B1 = {t 2 + 1,t 2 − 1} é LI (verifique), B1 é base de W . Vamos utilizar a ideia na
demonstração da Proposição 2.6.1. Sabendo que dimV = 3, precisamos encontrar um vetor v ∈ V tal
que B1 ∪ {v} é base de V . Testando v = t, vemos que {t 2 + 1,t 2 − 1,t} é LI (verifique), e portanto é
base de V , já que tem 3 = dimV vetores. Assim, U = [t] é tal que V = W ⊕U.
Na Seção 2.8 será visto um método mais efetivo para completar bases do que simplesmente “chutar”
vetores e testar se são LI. ■

Proposição 2.6.4 Seja V um K-espaço vetorial de dimensão finita n ≥ 1. Se U e W são subespaços


vetoriais de V , então
dim(U +W ) = dimU + dimW − dim(U ∩W ).

Demonstração. Primeiramente lembramos que U ∩W é subespaço vetorial de V . Suponha U ∩W ̸= {0}


e seja B = {v1 , . . . , vk } uma base de U ∩W (1 ≤ k ≤ n). Como B ⊆ U ∩W , B é um subconjunto LI de
U e de W . Então, pela Proposição 2.5.23, existem u1 , . . . , ul ∈ U e w1 , . . . , wm ∈ W tais que

B1 = {v1 , . . . , vk , u1 , . . . , ul } é base de U e B2 = {v1 , . . . , vk , w1 , . . . , wm } é base de W.

Provemos que

C = B1 ∪ B2 = {v1 , . . . , vk , u1 , . . . , ul , w1 , . . . , wm } é base de U +W.

Primeiro, mostremos que C gera U +W . A inclusão [C] ⊆ U +W é imediata. Para a inclusão contrária,
considere v = u + w ∈ U +W , com u ∈ U e w ∈ W . Como B1 é base de U e B2 é base de W , existem
α1 , . . . , αk , β1 , . . . , βl , γ1 , . . . , γk , δ1 , . . . , δm ∈ K tais que

u = α1 v1 + · · · + αk vk + β1 u1 + · · · + βl ul

e
w = γ1 v1 + · · · + γk vk + δ1 w1 + · · · + δm wm .
Logo,

u + w = (α1 + γ1 )v1 + · · · + (αk + γk )vk + β1 u1 + · · · + βl ul + δ1 w1 + · · · + δm wm ∈ [C].

Agora, mostremos que C é LI. Dada uma combinação linear nula:

α1 v1 + · · · + αk vk + β1 u1 + · · · + βl ul + γ1 w1 + · · · + γm wm = 0, (2.4)

temos
γ1 w1 + · · · + γm wm = −α1 v1 − · · · − αk vk − β1 u1 − · · · − βl ul ∈ U ∩W.
Portanto, existem δ1 , . . . , δk ∈ K tais que

γ1 w1 + · · · + γm wm = δ1 v1 + · · · + δk vk ⇒ γ1 w1 + · · · + γm wm − δ1 v1 − · · · − δk vk = 0.

Mas B2 é LI, logo


γ1 = · · · = γm = δ1 = · · · = δk = 0.
32 Capítulo 2. Espaços vetoriais

Assim, (2.4) se torna


α1 v1 + · · · + αk vk + β1 u1 + · · · + βl ul = 0.
Como B1 é LI, segue que
α1 = · · · = αk = β1 = · · · = βl = 0.
Portanto, C é LI.
Concluímos então que C é base de U +W . Daí,

dim(U +V ) = k + l + m = (k + l) + (k + m) − k = dimU + dimW − dim(U ∩W ).

Se U ∩W = {0}, deixamos como exercício a verificação de que a união de uma base de U com uma
base de W será uma base de U +W , donde segue o resultado. ■

■ Exemplo 2.6.5 Considere V = R4 e os subespaços

U = [(1, 0, 1, 0), (0, 1, 0, 0)] e W = {(x, y, z,t) ∈ R4 : x + y = 0}.

Determine as dimensões de U, W e U +W . A soma U +W é direta? Vale que U +W = R4 ?


Solução. O subespaço U é gerado por B1 = {(1, 0, 1, 0), (0, 1, 0, 0)}. Não é difícil verificar que B1 é LI,
portanto é base de U e dimU = 2.
Vamos agora determinar uma base de W . Temos

v = (x, y, z,t) ∈ W ⇔ y = −x ⇔ v = (x, −x, z,t) = x(1, −1, 0, 0) + z(0, 0, 1, 0) + t(0, 0, 0, 1).

Ou seja,
v ∈ W ⇔ v ∈ [(1, −1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)].
Portanto,
W = [(1, −1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)].
Não é difícil verificar que B2 = {(1, −1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} é LI, portanto é base de W e
dimW = 3.
Vamos agora determinar uma base de U ∩W . Os vetores em U são da forma

v = a(1, 0, 1, 0) + b(0, 1, 0, 0) = (a, b, a, 0), a, b ∈ R.

Os vetores em W são da forma


v = (x, −x, z,t), x, y, z,t ∈ R.
Para que v ∈ U ∩W , deve ocorrer

t = 0, x = z = a, b = −x = −a ⇒ v = (a, −a, a, 0) = a(1, −1, 1, 0) ∈ [(1, −1, 1, 0)].

Assim, U ∩W ⊆ [(1, −1, 1, 0)]. Deixamos como exercício a verificação que (1, −1, 1, 0) ∈ U ∩W , o
que implica [(1, −1, 1, 0)] ⊆ U ∩W , pois U ∩W é subespaço vetorial. Portanto, U ∩W = [(1, −1, 1, 0)],
{(1, −1, 1, 0)} é uma base de U ∩W e dim(U ∩W ) = 1.
Pela Proposição 2.6.4,
dim(U +W ) = 2 + 3 − 1 = 4.
Além disso, como U +W é um subespaço de R4 , com dim(U +W ) = dim R4 , temos que U +W = R4 .
Por fim, a soma U +W não é direta, pois U ∩W ̸= {0}. ■
2.7 Coordenadas e matriz de mudança de base 33

2.7 Coordenadas e matriz de mudança de base


Antes de definir formalmente os conceitos de coordenadas de um vetor e matriz de mudança de
base, faremos uma introdução das ideias utilizando o espaço vetorial Rn .
Dado um vetor v = (α1 , . . . , αn ) ∈ Rn e a base canônica C = {e1 , . . . , en }, ao escrever v como uma
combinação linear dos vetores de C, obtemos

v = α1 e1 + · · · + αn en .

Os escalares α1 , . . . , αn , nesse caso, são chamados de coordenadas de v em relação à base C, e


denotamos  
α1
[v]C =  ...  ou [v]C = (α1 , . . . , αn )C = (α1 , . . . , αn ).
 

αn
Observe que, nesse caso, o vetor [v]C das coordenadas de v se confunde com o próprio vetor v, mas não
é sempre assim. Em geral, dada uma base B = {v1 , . . . , vn }, existem únicos escalares β1 , . . . , βn tais que
v = β1 v1 +· · ·+βn vn , e então define-se as coordenadas de v em relação à base B por [v]B = (β1 , . . . , βn )B .
Por exemplo, se n = 3 e B = {(1, 1, 0), (0, 1, 0), (0, 0, 3)}, dado v = (a, b, c) ∈ R3 , temos
c
(a, b, c) = β1 (1, 1, 0) + β2 (0, 1, 0) + β3 (0, 0, 3) = (β1 , β1 + β2 , 3β3 ) ⇔ β1 = a, β2 = b − a, β3 = .
3
Assim,  c
[v]B = a, b − a, .
3 B
Além de conhecer as coordenadas, queremos também saber como transitar das coordenadas de um
vetor em relação a uma base para outra. É aí que entra a matriz de mudança de base. No exemplo
acima, observe que
    
a 1 0 0 a
 b  =  1 1 0  b−a . (2.5)
c 0 0 3 c/3

A matriz  
1 0 0
MBC =  1 1 0 
0 0 3
é a matriz de mudança de base de B para C, pois ela faz a transição de coordenadas de um vetor em
relação à base B para as coordenadas em relação à base C. Ou seja, (2.5) se traduz em

[v]C = MBC [v]B .

Como a matriz MBC é inversível, temos


−1
[v]B = MBC [v]C .
−1
A matriz MCB = MBC será a matriz de mudança de base de C para B.
Observe que a ordem dos vetores em B ou C importa, pois se trocarmos os vetores de posição, o vetor
de coordenadas e a matriz de mudança de base seriam diferentes.
34 Capítulo 2. Espaços vetoriais

Definição 2.7.1 Seja V um K-espaço vetorial de dimensão finita n ≥ 1. Fixe B = {v1 , . . . , vn } uma
base ordenada de V , isto é, uma base com a ordem dos vetores fixada. Dado v ∈ V , os únicos
escalares α1 , . . . , αn ∈ K tais que v = α1 v1 + · · · + αn vn , são chamados de coordenadas de v em
relação à base B, e denotamos
 
α1
[v]B =  ...  ou [v]B = (α1 , . . . , αn )B = (α1 , . . . , αn ).
 

αn

■ Exemplo 2.7.2 Considere V = P2 (R), a base B = {1, 1 + x, 1 + x2 } e p(x) = 2 + 4x + x2 ∈ V . Deter-


mine [p(x)]B .
Solução. Precisamos determinar os escalares que aparecem ao escrevermos v como combinação linear
do vetores da base B:
2 + 4x + x2 = α1 · 1 + α2 (1 + x) + α3 (1 + x2 ).

Igualando os coeficientes dos polinômios, não é difícil ver que α1 = −3, α2 = 4 e α3 = 1. Portanto,

[p(x)]B = (−3, 4, −1)B .

A grande vantagem de trabalhar com coordenadas ao invés dos próprios vetores é o ganho com-
putacional. Observe que, independente do espaço vetorial e da cara dos vetores (n-uplas, polinômios,
funções, matrizes...) o vetor de coordenadas é sempre um elemento de Kn (ou de Mn×1 (K)) onde n
é a dimensão do espaço. Além disso, propriedades interessantes relacionadas aos vetores podem ser
transportadas para suas coordenadas, como ilustra a proposição a seguir.

Proposição 2.7.3 Sejam V um K-espaço vetorial de dimensão finita n ≥ 1 e B uma base de V . Para
todos u, v ∈ V e λ ∈ K, são válidas:

(i) [u + v]B = [u]B + [v]B ;

(ii) [λ u]B = λ [u]B ;

(iii) v = 0 ∈ V se, e somente se, [v]B = 0 ∈ Kn ;

(iv) {u1 , . . . , um } ⊆ V é LI se, e somente se, {[u1 ]B , . . . , [um ]B } é LI em Kn .

Demonstração. Exercício. ■

Agora, veremos como construir a matriz de mudança de base. Fixe V um K-espaço vetorial de
dimensão finita n ≥ 1 e duas bases ordenadas B = {u1 , . . . , un } e C = {v1 , . . . , vn }.
Basicamente, matriz de mudança de base de B para C tem na j-ésima coluna as coordenadas do vetor
u j em relação à base C. Para construí-la, então, precisamos escrever cada u j como combinação linear
dos vetores de C, e então coletar os escalares que aparecem.
Para cada j = 1, . . . , n, existem únicos escalares a1 j , . . . , an j ∈ K, tais que

n
u j = a1 j v1 + · · · + an j vn = ∑ ai j vi .
i=1
2.7 Coordenadas e matriz de mudança de base 35

Seja w ∈ V . Suponha que [w]B = (α1 , . . . , αn )B e [w]C = (β1 , . . . , βn )C , isto é,


n n
w = α1 u1 + · · · + αn un = ∑ α ju j e w = β1 v1 + · · · + βn vn = ∑ βi vi
j=1 i=1

Então,
! !
n n n n n n
w= ∑ α j u j = ∑ α j ∑ ai j vi =∑ ∑ ai j α j vi = ∑ (ai1 α1 + · · · + ain αn ) vi .
j=1 j=1 i=1 i=1 j=1 i=1

Como os escalares da combinação linear dos vetores de uma base são únicos, temos

 β1 = a11 α1 + · · · + a1n αn

.. .
 .
βn = an1 α1 + · · · + ann αn

Em notação matricial, segue que


    
β1 a11 · · · a1n α1
 ..   .. .. ..   ..  .
 . = . . . .
βn an1 · · · ann αn
| {z } | {z } | {z }
[w]C MBC [w]B

A matriz MBC = (ai j )n×n é chamada de matriz mudança de base de B para C. Pelo exposto anteriormente,
essa matriz satisfaz

[w]C = MBC [w]B , para todo w ∈ V. (2.6)

Além disso, se M = (bi j ) ∈ Mn (K) satisfaz [w]C = M[w]B , para todo w ∈ V , substituindo w = u j ,
j = 1, . . . , n, obtém-se que bi j = ai j para todos i, j (verifique). Ou seja, M = MBC . Portanto, a matriz de
mudança de base é a única que satisfaz (2.6).

Observação 2.7.4 A notação de matriz de mudança de base não é unanimidade na literatura!


Fiquem atentos se forem consultar outros livros, pois às vezes até a definição é diferente, invertendo
o sentido da mudança. O padrão adotado para o curso de MAT-27 é a notação aqui apresentada. Em
caso de dúvidas, lembrem da relação (2.6).

Proposição 2.7.5 Seja V um K-espaço vetorial de dimensão finita n ≥ 1 e duas bases B e C. Então,
−1
MBC é inversível e a matriz de mudança de base de C para B é MCB = MBC .

Demonstração. Como B e C são bases, pela Proposição 2.7.3,


[v]B = 0 ⇔ v = 0 ⇔ [v]C = 0.
Então, o sistema linear homogêneo
MBC X = 0
só admite a solução trivial X = 0. Portanto, a matriz do sistema MBC é inversível. Sendo assim, para
cada v ∈ V , temos
−1
[v]C = MBC [v]B ⇔ MBC [v]C = [v]B .
Pela unicidade da matriz de mudança de base (propriedade (2.6) com B no lugar de C e C no lugar de
−1
B), segue que MBC = MCB . ■
36 Capítulo 2. Espaços vetoriais

■ Exemplo 2.7.6 Seja V = P1 (R). Determine a matriz de mudança de base da base canônica C = {1, x}
para a base B = {1 + x, 1 − x} e as coordenadas do vetor p(x) = 2 + 3x em relação à base B.
Solução. Podemos obter a matriz MCB diretamente, ou obter MBC e invertê-la. Note que, obter a
matriz de mudança de qualquer base para a base canônica é simples, uma vez que é fácil descrever as
coordenadas de qualquer vetor em relação a base canônica. No caso dos vetores de B:
1+x = 1·1+1·x e 1 − x = 1 · 1 − 1 · x,
logo      
1 1 (1.5) −1 1 −1 −1 1/2 1/2
MBC = ⇒ MCB = MBC =− = .
1 −1 2 −1 1 1/2 −1/2
Agora, podemos usar a matriz MCB para determinar as coordenadas de p(x) em relação à B:
    
1/2 1/2 2 5/2
[p(x)]B = MCB [p(x)]C = = .
1/2 −1/2 3 −1/2

■ Exemplo 2.7.7 Sejam V = {p(x) ∈ P3 (R) : p(1) + p(−1) = 0} e B = {x, x3 , 1 + x − x2 } base de V .


Sabendo que  
1 0 2
 1 −1 3 
0 2 −1
é a matriz de mudança de base de B para uma base C, determine a base C.
Solução. Sabemos, pela definição, que na matriz MCB , de mudança de base de C para B, as colunas
−1
descrevem as coordenadas dos vetores de C em relação à base B. Assim, se conhecermos MCB = MBC ,
−1
poderemos determinar C. Determinemos MBC :
   
1 0 2 1 0 0 1 0 2 1 0 0
(L2 ← L2 −L1 )
 1 −1 3 0 1 0  ∼  0 −1 1 −1 1 0 
0 2 −1 0 0 1 0 2 −1 0 0 1
   
1 0 2 1 0 0 1 0 2 1 0 0
(L3 ← L3 +2L2 )
∼  0 −1 1 −1 1 0  (L2 ←∼−L2 )  0 1 −1 1 −1 0 
0 0 1 −2 2 1 0 0 1 −2 2 1
   
1 0 2 1 0 0 1 0 0 5 −4 −2
(L2 ← L2 +L3 )
∼  0 1 0 −1 1 1  (L1 ← L∼1 −2L3 )  0 1 0 −1 1 1 .
0 0 1 −2 2 1 0 0 1 −2 2 1
Portanto,  
5 −4 −2
−1
MCB = MBC =  −1 1 1 .
−2 2 1
Daí, se C = {p1 , p2 , p3 }, então
[p1 ]B = (5, −1, −2)B , [p2 ]B = (−4, 1, 2)B , [p3 ]B = (−2, 1, 1)B .
Logo,
p1 = 5 · x − 1 · x3 − 2 · (1 + x − x2 ) = −2 + 3x + 2x2 − x3 ,
p2 = −4 · x + 1 · x3 + 2 · (1 + x − x2 ) = 2 − 2x − 2x2 + x3 ,
p3 = −2 · x + 1 · x3 + 1 · (1 + x − x2 ) = 1 − x − x2 + x3 .

2.8 Método prático para determinar ou completar bases de subespaços 37

2.8 Método prático para determinar ou completar bases de subespaços

Vimos anteriormente que todo conjunto gerador contém uma base e que todo subconjunto LI pode
ser completado para uma base. Esses dois problemas podem ser traduzidos utilizando subespaços
vetoriais: dado um conjunto gerador de um subespaço, como determinar uma base deste subespaço,
e, dada uma base de um subespaço, como completar essa base para formar uma base de todo o
espaço. Nesta seção, descreveremos métodos práticos, utilizando coordenadas, para resolver esses dois
problemas.
Seja V um K-espaço vetorial de dimensão finita n ≥ 1 e fixe B = {v1 , . . . , vn } uma base ordenada de V .
Tome um subconjunto S = {u1 , . . . , um } ⊆ V . Vamos determinar uma base para o subespaço W = [S].
Escreva cada vetor ui como combinação linear da base B:

 u1 = a11 v1 + · · · + a1n vn

.. .
 .
um = am1 v1 + · · · + amn vn

Procedimento 2.8.1 (i) Escreva a matriz A cuja i-ésima linha é formada pelas coordenadas de
ui em relação à B:  
a11 ··· a1n
 .. .. 
A= . . 
am1 · · · amn

(ii) Aplique operações elementares nas linhas de A até obter uma matriz A′ na forma escalonada
(ou escalonada reduzida).

(iii) As linhas não nulas de A′ serão as coordenadas, em relação à base B, de vetores w1 , . . . , wr ∈ W ,


(r ≤ m), de modo de [{w1 , . . . , wr }] = [S] = W e S′ = {w1 , . . . , wr } é LI, ou seja, S′ é base de
W.

Para verificar as afirmações do item (iii), primeiro observamos como se traduzem as operações elemen-
tares nas linhas de A em termos dos vetores de S:

• trocar a posição de duas linhas da matriz corresponde a trocar dois vetores de posição;

• multiplicar uma linha da matriz por um escalar diferente de zero corresponde a trocar um vetor
ui por um múltiplo por escalar (não nulo) αui ;

• somar a uma linha da matriz um múltiplo escalar de outra linha corresponde a trocar um vetor ui
por ui + αu j (i ̸= j).

Deixamos como exercício a verificação de que realizar essas operações num conjunto gerador não
alteram o subespaço gerado. Como, eliminar os vetores nulos também não altera o subespaço gerado,
segue que [{w1 , . . . , wr }] = [S] = W .
Por fim, como a matriz A′ está na forma escalonada, não é difícil verificar que suas linhas não nulas são
vetores LI em Kn , donde segue, junto com a Proposição 2.7.3, que S′ = {w1 , . . . , wr } é LI em W .
■ Exemplo 2.8.2 Sejam V = P3 (R) e W = [p1 , p2 , p3 ] ⊆ V , onde p1 (x) = 1 + 2x2 − x3 , p2 (x) = 1 + 5x2 ,
p3 (x) = −6x2 − 2x3 . Determine uma base para W .
38 Capítulo 2. Espaços vetoriais

Solução. Fixemos a base canônica B = {1, x, x2 , x3 } de V . Seja S = {p1 , p2 , p3 }. A matriz A, cujas


linhas são as coordenadas dos vetores em S em relação à base B, é dada por
 
1 0 2 −1
A= 1 0 5 0 .
0 0 −6 −2
Escalonando, temos
     
1 0 2 −1 1 0 2 −1 1 0 2 −1
(L2 ← L2 −L1 ) (L3 ← L3 +2L2 )
A= 1 0 5 0  ∼  0 0 3 1  ∼  0 0 3 1  = A′ .
0 0 −6 −2 0 0 −6 −2 0 0 0 0
A matriz A′ está na forma escalonada. Eliminando a terceira linha que é nula, as duas primeiras
correspondem aos vetores

q1 (x) = 1 + 2x2 − x3 e q2 (x) = 3x2 + x3 .

Portanto, S′ = {q1 , q2 } é uma base de W . ■

Suponha que aplicamos o Procedimento 2.8.1, mas durante a etapa (ii) não foi feita nenhuma troca
de linhas nas operações elementares. Neste caso, talvez as linhas nulas não estejam todas abaixo das
linhas não nulas, então A′ não estaria bem numa forma escalonada, mas quase. Se a i-ésima linha de A′
é nula, então o vetor ui é combinação linear de outros vetores de S (verifique), e portanto ele poderia
ser eliminado do conjunto gerador. Assim, se quiséssemos uma base de W contida em S, bastaria
considerar S′ o conjunto dos vetores u j tais que a j-ésima linha de A′ é não nula.
Considere agora R = {w1 , . . . , wr } um subconjunto LI de V (r ≤ n). Assim, R é uma base do
subespaço W = [R]. Descreveremos como completar R para formar uma base de V . As demonstrações
serão deixadas para o leitor, embora as ideias já foram apresentadas anteriormente.

Procedimento 2.8.3 (i) Escreva a matriz A cuja i-ésima linha é formada pelas coordenadas de
wi em relação à B.

(ii) Aplique operações elementares nas linhas de A até obter uma matriz A′ na forma escalonada
(ou escalonada reduzida). Como R é LI, A′ não terá linhas nulas.

(iii) Acrescente n − r linhas na matriz A′ de modo a obter uma matriz M ∈ Mn (K) na forma
escalonada (ou escalonada reduzida). Essas novas linhas serão as coordenadas, em relação à
base B, de vetores wr+1 , . . . , wn ∈ V tais que C = {w1 , . . . , wr , wr+1 , . . . , wn } é base de V .
Mais ainda, se U = [wr+1 , . . . , wn ], então V = W ⊕U.

■ Exemplo 2.8.4 Considere V = P3 (R) e W = [p1 , p2 , p3 ] ⊆ V , onde p1 (x) = 1 + 2x2 − x3 , p2 (x) =


1 + 5x2 , p3 (x) = −6x2 − 2x3 , como no Exemplo 2.8.2. Determine um subespaço U ⊆ V tal que
V = W ⊕U.
Solução. Fixemos a base canônica B = {1, x, x2 , x3 } de V . Vimos no Exemplo 2.8.2 que, se A é a matriz
cujas linhas são as coordenadas dos vetores de S = {p1 , p2 , p3 } em relação à base B, então
 
1 0 2 −1
A′ =  0 0 3 1 
0 0 0 0
está na forma escalonada e pode ser obtida de A via operações elementares em suas linhas, sem efetuar
trocas de linhas. Assim, as duas primeiras linhas correspondem aos vetores q1 (x) = 1 + 2x2 − x3 e
2.8 Método prático para determinar ou completar bases de subespaços 39

q2 (x) = 3x2 + x3 , que formam uma base S′ = {q1 , q2 } de W . Se preferir uma base de W contida em S,
basta observar que, como no escalonamento de A para A′ não foi feita troca de linhas e a terceira linha
em A′ é nula, então p3 é combinação linear de p1 e p2 , e, R = {p1 , p2 } é base de W contida em S.
Para completar uma base de V , considere a matriz obtida de A′ eliminando a terceira linha que é
nula. Ficamos assim com uma matriz 2 × 4, onde podemos acrescentar 2 linhas de modo a obter a
matriz M ∈ M4 (R) na forma escalonada:
 
1 0 2 −1
 0 1 0 0 
M=  0 0 3 1 .

0 0 0 1

As linhas 2 e 4 acrescentadas correspondem aos vetores q3 (x) = x e q4 (x) = x3 . Os conjuntos


{q1 , q2 , q3 , q4 } e {p1 , p2 , q3 , q4 } são bases de V , e se U = [q3 , q4 ], então V = W ⊕U. ■
Capítulo 3

Espaços vetoriais com produto interno

No Capítulo 2, introduzimos o conceito de Espaço Vetorial e estudamos suas propriedades. Neste


capítulo, introduziremos o conceito de produto interno, que é uma generalização do produto interno
ou escalar visto em geometria analítica para R2 e R3 , e permite introduzir noções geométricas de
comprimento e ortogonalidade para vetores de um espaço vetorial qualquer.

3.1 Definições e propriedades


Relembrando da Geometria Analítica, em R3 , o produto escalar ou produto interno entre os vetores
u = (x1 , y1 , z1 ) e v = (x2 , y2 , z2 ) é dado por
u · v = x1 x2 + y1 y2 + z1 z2 ,
ou seja, é a soma do produto entre as coordenadas de u e v. Além disso, o produto interno também
estava associado ao ângulo θ entre os vetores u e v, através da relação
u · v = ||u|| ||v|| cos θ .

Figura 3.1: Ângulo θ entre os vetores u e v de R3 .

A seguir, apresentamos a definição de produto interno para um espaço vetorial qualquer. Lembramos
que K = R ou C e z̄ denota o conjugado complexo do escalar z (ocorre z̄ = z ⇔ z ∈ R).
Definição 3.1.1 Seja V um K-espaço vetorial. Um produto interno sobre V é uma função
⟨·, ·⟩ : V ×V → K que satisfaz as propriedades:

(i) ⟨u + v, w⟩ = ⟨u, w⟩ + ⟨v, w⟩, para todos u, v, w ∈ V ;


42 Capítulo 3. Espaços vetoriais com produto interno

(ii) ⟨λ u, v⟩ = λ ⟨u, v⟩, para todos λ ∈ K, u, v ∈ V ;

(iii) ⟨u, v⟩ = ⟨v, u⟩, para todos u, v ∈ V ;

(iv) para todo u ∈ V , ⟨u, u⟩ ∈ R e, se u ̸= 0, ⟨u, u⟩ > 0.

O par (V, ⟨·, ·⟩) é chamado de espaço com produto interno ou espaço pré-Hilbert.
Listaremos a seguir alguns exemplos de produto interno em diferentes espaços vetoriais. Um bom
exercício para o leitor seria verificar que de fato eles satisfazem as quatro condições da Definição 3.1.1
sem olhar as demonstrações apresentadas.
■ Exemplo 3.1.2 Sejam u = (x1 , . . . , xn ) e v = (y1 , . . . , yn ) vetores quaisquer de Kn . A função
n
⟨x, y⟩ = ∑ xi ȳi
i=1

define um produto interno em Kn . Este produto interno é chamado de produto interno usual, ou
canônico, de Kn .
Prova. Sejam u = (x1 , . . . , xn ), v = (y1 , . . . , yn ) e w = (z1 , . . . , zn ) vetores quaisquer de Kn e λ um
escalar. Segue das propriedades de números reais, ou complexos, que
n n n n
(i) ⟨u + v, w⟩ = ∑ (xi + yi )z¯i = ∑ (xi z¯i + yi z¯i ) = ∑ xi z¯i + ∑ yi z¯i = ⟨u, w⟩ + ⟨v, w⟩;
i=1 i=1 i=1 i=1
n n n
(ii) ⟨λ u, v⟩ = ∑ (λ xi )ȳi = ∑ λ xi ȳi = λ ∑ xi ȳi = λ ⟨u, v⟩;
i=1 i=1 i=1
!
n n n n
(iii) ⟨v, u⟩ = ∑ yi x̄i = ∑ yi x̄i = ∑ ȳi xi = ∑ xi ȳi = ⟨u, v⟩;
i=1 i=1 i=1 i=1

n n
(iv) ⟨u, u⟩ = ∑ xi x̄i = ∑ |xi |2 ∈ R. Além disso, se u ̸= 0 então existe xi ̸= 0 e assim ⟨u, u⟩ > 0.
i=1 i=1

Se pensarmos em u e v como vetores coluna de Kn , isto é, u, v ∈ Mn×1 (K), então podemos escrever

⟨u, v⟩ = x⊤ ȳ.

■ Exemplo 3.1.3 Se A = (ai j ), B = (bi j ) ∈ Mn (K), a função


n n n
⟨A, B⟩ = ∑ ai j bi j = ∑ ∑ ai j bi j
i, j=1 i=1 j=1

define um produto interno em Mn (K). Este produto interno é chamado de produto interno usual, ou
canônico, de Mn (K). Outra maneira de reescrever essa função, utilizando matriz transposta conjugada
e a função traço, é  

⟨A, B⟩ = tr A B (verifique).

Prova. Sejam A, B,C ∈ Mn (K), A = (ai j )n×n , B = (bi j )n×n , C = (ci j )n×n e λ um escalar. Segue das
propriedades de números reais, ou complexos, que
3.1 Definições e propriedades 43
n n n n n n n n
(i) ⟨A + B,C⟩ = ∑ ∑ (ai j + bi j )ci j = ∑ ∑ (ai j ci j + bi j ci j ) = ∑ ∑ ai j ci j + ∑ ∑ bi j ci j
i=1 j=1 i=1 j=1 i=1 j=1 i=1 j=1

= ⟨A,C⟩ + ⟨B,C⟩;
n n n n
(ii) ⟨λ A, B⟩ = ∑ ∑ (λ ai j )bi j = λ ∑ ∑ ai j bi j = λ ⟨A, B⟩;
i=1 j=1 i=1 j=1

n n n n n n
(iii) ⟨B, A⟩ = ∑ ∑ bi j ai j = ∑ ∑ bi j ai j = ∑ ∑ ai j bi j = ⟨A, B⟩;
i=1 j=1 i=1 j=1 i=1 j=1

n n n n
(iv) ⟨A, A⟩ = ∑ ∑ ai j ai j = ∑ ∑ |ai j |2 ∈ R. Além disso, se A ̸= 0 então existe ai j ̸= 0 e assim
i=1 j=1 i=1 j=1
n n
∑ ∑ |ai j |2 > 0. Ou seja, ⟨A, A⟩ > 0.
i=1 j=1

Portanto, a função
n  

⟨A, B⟩ = ∑ ai j bi j = tr A B
i, j=1

define um produto interno em Mn (K). ■

■ Exemplo 3.1.4 Se f , g ∈ C ([a, b], R), a função


Z b
⟨ f , g⟩ = f (t)g(t) dt
a

define um produto interno no espaço C ([a, b], R). Este produto interno é chamado de produto interno
usual, ou canônico, de C ([a, b], R).
Prova. As condições (i) e (ii) da Definição 3.1.1 seguem das propriedades do Cálculo Integral
e a condição (iii) é mais imediata. Para verificar a condição (iv), considere f ∈ C ([a, b], R) não
identicamente nula. Como f é contínua em [a, b], f 2 (t) = f (t) f (t), também é contínua e não nula,
logo, existe um intevarlo [c, d] ⊆ [a, b] tal que f 2 (t) > 0 para todo t ∈ [c, d]. Tomando m > 0 o valor
mínimo de f 2 em [c, d], temos
Z b Z b Z d Z d
⟨f, f⟩ = f (t) f (t)dt = f 2 (t)dt ≥ f 2 (t) dt ≥ m dt = m(d − c) > 0.
a a c c

■ Exemplo 3.1.5 Seja V = P2 (R). Dados p, q ∈ V , a função

⟨p, q⟩ = p(0)q(0) + p(1)q(1) + p(−2)q(−2)


define um produto interno V .
Prova. As condições (i), (ii) e (iii) da Definição 3.1.1 seguem facilmente das propriedades de números
reais. Para verificar a condição (iv), dado p ∈ V , temos
⟨p, p⟩ = p(0)2 + p(1)2 + p(−2)2 ≥ 0
e ⟨p, p⟩ = 0 se, e somente se,
p(0) = p(1) = p(−2) = 0.
Como os elementos em V são polinômios de grau no máximo 2, a única maneira de p ter 3 raízes
distintas é se p for o polinômio identicamente nulo. Portanto, ⟨p, p⟩ = 0 se, e somente se, p = 0. ■
44 Capítulo 3. Espaços vetoriais com produto interno

Listaremos a seguir, as propriedades mais imediatas de um produto interno. As demonstrações


seguem dos itens da Definição 3.1.1, sendo um bom exercício tentar prová-las sem olhar a demonstração
apresentada.

Proposição 3.1.6 — Propriedades básicas. Sejam V um K-espaço vetorial com produto interno
⟨·, ·⟩, u, v, w ∈ V e α ∈ K.

(i) ⟨0, u⟩ = ⟨u, 0⟩ = 0.

(ii) ⟨u, u⟩ = 0 se, e somente se, u = 0.

(iii) ⟨u, αv⟩ = α ⟨u, v⟩.

(iv) ⟨u, v + w⟩ = ⟨u, v⟩ + ⟨u, w⟩.

(v) Dados m, n ∈ N, αi , β j ∈ K, ui , v j ∈ V , i = 1, . . . , m, j = 1, . . . , n, temos


* +
m n m n
∑ αi ui , ∑ β j v j = ∑ ∑ αi β j ui , v j .
i=1 j=1 i=1 j=1

Demonstração. (i) ⟨0, u⟩ = ⟨0 · u, u⟩ = 0 ⟨u, u⟩ = 0 e ⟨u, 0⟩ = ⟨0, u⟩ = 0 = 0.

(ii) (⇒) Segue do item (iv) da Definição 3.1.1 que ⟨u, u⟩ > 0 para todo u ̸= 0. Logo, se ⟨u, u⟩ = 0,
então u = 0.

(⇐) Se u = 0, então ⟨u, u⟩ = ⟨0, 0⟩ = 0 pelo item (i).

(iii) ⟨u, αv⟩ = ⟨αv, u⟩ = α ⟨v, u⟩ = α ⟨v, u⟩ = α ⟨u, v⟩.

(iv) ⟨u, v + w⟩ = ⟨v + w, u⟩ = ⟨v, u⟩ + ⟨w, u⟩ = ⟨v, u⟩ + ⟨w, u⟩ = ⟨u, v⟩ + ⟨u, w⟩.

(v) Segue por indução sobre m e n, utilizando os itens (i) e (ii) da Definição 3.1.1 e os itens (iii) e
(iv) desta proposição.

Além do produto interno, o conceito de norma vetorial também foi visto no curso de Geometria
Analítica e será generalizado para um espaço vetorial qualquer.

Definição 3.1.7 Seja V um K-espaço vetorial. Uma norma em V é uma função || · || : V → R que
satisfaz as propriedades a seguir.

(i) ||v|| ≥ 0 para todo v ∈ V .

(ii) ||v|| = 0 se, e somente se, v = 0.

(iii) ||αv|| = |α| ||v|| para todo escalar α ∈ K e todo vetor v ∈ V .

(iv) ||u + v|| ≤ ||u|| + ||v|| para todos u, v ∈ V (desigualdade triangular).

O par (V, || · ||) é chamado de espaço vetorial normado. Se ||v|| = 1, dizemos que o vetor v está
normalizado.
3.1 Definições e propriedades 45

■ Exemplo 3.1.8 Seja u = (x1 , . . . , xn ) um vetor qualquer de Rn . A função

||u||∞ = max |xi |


1≤i≤n

define uma norma em Rn , chamada de norma infinito ou norma do máximo. Deixaremos a verificação
como exercício.
Prova. Sejam u = (x1 , . . . , xn ) e v = (y1 , . . . , yn ) vetores quaisquer de Rn e α um escalar. Segue das
propriedades de números reais, que

(i) ||u||∞ = max |xi | ≥ 0;


1≤i≤n

(ii) ||u||∞ = max |xi | = 0 se, e somente se, v = 0;


1≤i≤n

(iii) ||αu||∞ = max |αxi | = max |α||xi | = |α| max |xi | = |α|||u||∞ ;
1≤i≤n 1≤i≤n 1≤i≤n

(iv) ||u + v|| = max |xi + yi | = |xk + yk | para algum k ∈ {1, . . . , n}. Então,
1≤i≤n

||u + v|| = |xk + yk | ≤ |xk | + |yk | ≤ max |xi | + max |y j | = ||u|| + ||v||.
1≤i≤n 1≤ j≤n

Logo, a função
||v||∞ = max |xi |
1≤i≤n

define uma norma em Rn . ■

A partir de um produto interno, pode-se obter uma norma no espaço vetorial, como veremos a
seguir.

Teorema 3.1.9 Seja V um K-espaço com produto interno ⟨·, ·⟩. A função
p
||v|| = ⟨v, v⟩, para todo v ∈ V,

define uma norma em V . Neste caso, dizemos que || · || é a norma proveniente do produto interno,
ou, norma induzida pelo produto interno.

Demonstração. Sejam u e v vetores quaisquer de V e α um escalar. Como ⟨u, u⟩ ∈ R e ⟨0, 0⟩ = 0,


segue das condições da Definição 3.1.1 que
p
(i) ||v|| = ⟨v, v⟩ ≥ 0;
p
(ii) ||v|| = ⟨v, v⟩ = 0 se, e somente se, v = 0;
p p p
(iii) ||αv|| = ⟨αv, αv⟩ = αα ⟨v, v⟩ = |α|2 ⟨v, v⟩ = |α|||v||.

(iv) A desigualdade triangular para a norma induzida é um resultado importante e será enunciada a
seguir.


46 Capítulo 3. Espaços vetoriais com produto interno

p Seja V um K-espaço com produto interno ⟨·, ·⟩. Então, a função || · || : V → R


Proposição 3.1.10
dada por ||v|| = ⟨v, v⟩ satisfaz, para todos u, v ∈ V :

(i) | ⟨u, v⟩ | ≤ ||u||||v||. Essa propriedade é conhecida como Desigualdade de Cauchy-Schwarz.


Além disso, a igualdade é verificada se, e somente se, os vetores u e v são LD.

(ii) ||u + v|| ≤ ||u|| + ||v||.

Demonstração. (i) Note que o resultado é válido se um dos vetores é o vetor nulo (ocorre a igualdade e
u e v são LD). Vamos supor, então, que u ̸= 0 e v ̸= 0. Dado λ ∈ K e defina w = v − λ u. Como u, v ∈ V
segue que w também é um vetor de V . Então,

0 ≤ ||w||2 = ⟨w, w⟩ = ⟨v − λ u, v − λ u⟩ = ⟨v, v⟩ − ⟨λ u, v⟩ − ⟨v, λ u⟩ + ⟨λ u, λ u⟩

= ||v||2 − λ ⟨u, v⟩ − λ̄ ⟨v, u⟩ + |λ |2 ||u||2 .


⟨u, v⟩
Em particular, para λ = , temos
||u||2

|⟨u, v⟩|2 |⟨u, v⟩|2 |⟨u, v⟩|2 |⟨u, v⟩|2


0 ≤ ||w||2 = ||v||2 − − + ||u||2
= ||v||2
− ,
||u||2 ||u||2 ||u||4 ||u||2
ou seja,
|⟨u, v⟩|2
≤ ||v||2 ⇒ |⟨u, v⟩| ≤ ||u||||v||.
||u||2
Além disso, a igualdade ocorre se, e somente se, w = 0, ou seja, se u e v são LD.
(ii) Observe que

||u+v||2 = ⟨u+v, u+v⟩ = ⟨u, u⟩+⟨u, v⟩+⟨u, v⟩+⟨v, v⟩ = ||u+v||2 = ||u||2 +2 Re(⟨u, v⟩)+||v||2 . (3.1)

Como Re(z) ≤ |z| para todo z ∈ C, segue, junto com o item anterior, que

||u + v||2 ≤ ||u||2 + 2|⟨u, v⟩| + ||v||2 ≤ ||u||2 + 2||u||||v|| + ||v||2 ,

ou seja,
||u + v||2 = (||u|| + ||v||)2 ⇔ ||u + v|| ≤ ||u|| + ||v||.

Os exemplos de normas a seguir decorrem do Teorema 3.1.9 e dos Exemplos 3.1.2, 3.1.3, 3.1.4.
■ Exemplo 3.1.11 Seja u = (x1 , . . . , xn ) um vetor qualquer de Kn . A função

||x||2 = x1 x1 + · · · + xn xn

define uma norma em Kn . Essa norma é conhecida como norma usual, ou canônica, ou Euclidiana, de
Kn . ■

■ Exemplo 3.1.12 Se A = (ai j ) ∈ Mn (K), a função


!1/2
n
r  

||A||F = ∑ ai j ai j = tr A A
i, j=1

define uma norma em Mn (K). Essa norma é conhecida como norma de Frobenius. ■
3.1 Definições e propriedades 47

■ Exemplo 3.1.13 Se f ∈ C ([a, b], R), a função


Z b
1/2
2
|| f || = f (x) dx
a

define uma norma em C ([a, b], R). Essa norma é conhecida como norma usual, ou canônica, de
C ([a, b], R). ■

Proposição 3.1.14 Sejam V um K-espaço vetorial com produto interno e || · || a norma induzida
associada. Então, são válidas as identidades a seguir, para todos u, v ∈ V .

(i) Identidades de Polarização


1 1
(a) se K = R, ⟨u, v⟩ = ||u + v||2 − ||u − v||2 ;
4 4
1 1 i i
(b) se K = C, ⟨u, v⟩ = ||u + v||2 − ||u − v||2 + ||u + iv||2 − ||u − iv||2 , onde i2 = −1.
4 4 4 4
(ii) Lei do Paralelogramo
||u + v||2 + ||u − v||2 = 2||u||2 + 2||v||2 .

Demonstração. (i) Dados u, v ∈ V , segue de (3.1) e conta análoga que


||u + v||2 = ||u||2 + 2 Re(⟨u, v⟩) + ||v||2
(3.2)
||u − v||2 = ||u||2 − 2 Re(⟨u, v⟩) + ||v||2 .
Considere K = R. Subtraindo as equações (3.2), temos
1 1
||u + v||2 − ||u − v||2 = 4 Re(⟨u, v⟩) = 4⟨u, v⟩ ⇔ ||u + v||2 − ||u − v||2 = ⟨u, v⟩.
4 4
Se K = C, subtraindo as equações (3.2), temos

||u + v||2 − ||u − v||2 = 4 Re(⟨u, v⟩).

Substituindo agora v por iv em (3.2), e usando que Re(−iz) = Im(z) para todo z ∈ C, temos

||u + iv||2 = ||u||2 + 2 Re(−i⟨u, v⟩) + |i| ||v||2 = ||u||2 + 2 Im(⟨u, v⟩) + ||v||2 , (3.3)

e, analogamente,

||u − iv||2 = ||u||2 + 2 Re(i⟨u, v⟩) + | − i| ||v||2 = ||u||2 − 2 Im(⟨u, v⟩) + ||v||2 . (3.4)

Subtraindo (3.4) de (3.3), obtemos


1 1
||u + iv||2 − ||u − iv||2 = 4 Im(⟨u, v⟩) ⇔ ||u + iv||2 − ||u − iv||2 = Im(⟨u, v⟩).
4 4
Como ⟨u, v⟩ = Re(⟨u, v⟩) + i Im(⟨u, v⟩), segue que
1 1 i i
⟨u, v⟩ = ||u + v||2 − ||u − v||2 + ||u + iv||2 − ||u − iv||2 .
4 4 4 4

(ii) Somando as equações 3.2 obtemos

||u + v||2 + ||u − v||2 = 2||u||2 + 2||v||2 .


48 Capítulo 3. Espaços vetoriais com produto interno

Dado um produto interno num espaço vetorial, o Teorema 3.1.9 afirma que é possível definir uma
norma no espaço a partir dele. Perguntas naturais que surgem são: dada uma norma num espaço
vetorial, ela é a norma induzida por algum produto interno? Se sim, é possível recuperar o produto
interno entre dois vetores quaisquer a partir da norma?
A resposta da segunda pergunta é sim, e para descrever o produto interno entre dois vetores
quaisquer conhecendo-se a norma, utiliza-se as Identidades de Polarização.
A primeira pergunta não é simples de responder, foi preciso um extenso trabalho de muitos
matemáticos, com destaque para Maurice René Fréchet e John von Neumann. A conclusão obtida foi a
seguinte.

Dada uma norma || · || em um espaço vetorial V , existe um produto interno em V que induz essa
norma se, e somente se, a norma satisfaz a Lei do Paralelogramo para todos u, v ∈ V .

A demonstração desse fato utiliza ferramentas de Espaços Métricos que fogem do escopo deste curso, e
por isso não será apresentada aqui.

Exercício 3.1 Verifique que a norma infinito em Rn não satisfaz a Lei do Paralelogramo e, portanto,
não existe um produto interno associado a tal norma.

Se V é um K-espaço vetorial normado, então podemos introduzir as noções geométricas de distância


entre dois vetores e comprimento de um vetor.

Definição 3.1.15 A distância entre os vetores u e v é definida por d(u, v) = ||u−v|| e o comprimento
de u por ||u||.

Além disso, se V é um R-espaço vetorial com produto interno ⟨·, ·⟩, podemos generalizar a noção
de ângulo entre dois vetores, de R2 e R3 para V . Sejam u, v ∈ V \ {0}. Pela Desigualdade de Cauchy-
Schwarz,
⟨u, v⟩
| ⟨u, v⟩ | ≤ ||u||||v|| ⇔ −||u||||v|| ≤ ⟨u, v⟩ ≤ ||u||||v|| ⇔ −1 ≤ ≤ 1.
||u||||v||
Logo, existe único θ ∈ [0, π] tal que
⟨u, v⟩
cos θ = . (3.5)
||u||||v||
Esse θ pode ser definido como o ângulo entre u e v. O ângulo entre o vetor nulo e qualquer outro é
definido como sendo 0.

Observação 3.1.16 Neste curso, estaremos interessados nas normas provenientes de produto
interno. Daqui por diante, toda vez que nos referirmos a norma em um espaço vetorial com produto
interno, estaremos nos referindo a norma induzida por ele.

3.2 Ortogonalidade e Processo de Gram-Schmidt


A ideia de ortogonalidade entre vetores ou retas é essencial na geometria. Nesta seção, estenderemos
essa noção para espaços vetoriais quaisquer com produto interno. Lembre que, em R2 ou R3 dois
vetores u, v são ortogonais (ou perpendiculares) se ⟨u, v⟩ = 0. Quando se tratam de espaços mais gerais,
como o de matrizes ou funções, por exemplo, a visualização geométrica não será possível. No entanto,
como veremos adiante, algumas propriedades interessantes continuam válidas.
3.2 Ortogonalidade e Processo de Gram-Schmidt 49

Definição 3.2.1 Seja V um K-espaço vetorial com produto interno ⟨·, ·⟩. Dados u, v ∈ V , dizemos
que u e v são ortogonais, e denotamos u ⊥ v, se ⟨u, v⟩ = 0.
Um subconjunto S ⊆ V é dito ortogonal se os seus elementos são dois a dois ortogonais, isto é u ⊥ v
para todos u, v ∈ S, u ̸= v. Além disso, dizemos que S é ortonormal se for um conjunto ortogonal e
||u|| = 1 para todo u ∈ S.

Observação 3.2.2 O vetor nulo é ortogonal a todos os vetores do espaço. Além disso, ele é o
único vetor com essa propriedade, pois se ⟨u, v⟩ = 0 para todo v ∈ V , em particular para v = u tem-se
⟨u, u⟩ = 0 ⇒ u = 0.

■ Exemplo 3.2.3 Seja V = R4 com o produto interno usual. Determine se os vetores u = (1, −2, 3, −1)
e v = (4, 1, −2, −4) são ortogonais.
Solução. Basta calcularmos o produto interno entre esses dois vetores,

⟨u, v⟩ = 1 · 4 − 2 · 1 − 3 · 2 + 1 · 4 = 0.

Como ⟨u, v⟩ = 0, segue que u e v são ortogonais. ■

■ Exemplo 3.2.4 Seja V = C3 com produto interno usual. Determine se os vetores u = (i, 3, 1) e
v = (i, 0, 1) são ortogonais.
Solução. Basta calcularmos o produto interno entre esses dois vetores,

⟨u, v⟩ = i · ī + 3 · 0̄ + 1 · 1̄ = 1 + 1 = 2.

Como ⟨u, v⟩ ̸= 0, segue que u e v não são ortogonais. ■

■ Exemplo 3.2.5 Seja V = C ([−π, π], R) com o produto interno usual. Determine se o conjunto
S = {sen x, cos x} é ortonormal.
Solução. Primeiramente vamos calcular o produto interno entre os vetores de S,
 2 π
sen x
Z π
⟨sen x, cos x⟩ = sen x cos x dx = = 0.
−π 2 −π

Como ⟨sen x, cos x⟩ = 0, segue que sen x e cos x são ortogonais e, portanto, S é ortogonal. Além disso,

x sen(2x) π
Z π  
|| sen x||2 = ⟨sen x, sen x⟩ = sen2 x dx = − = π ̸= 1,
−π 2 4 −π

ou seja, S não é um conjunto ortonormal. ■

■ Exemplo 3.2.6 Seja V = C ([−1, 1], R) com produto interno usual. Determine o ângulo entre t e t 3 .
Solução. Utilizando a definição em (3.5), precisamos calcular ||t||, ||t 3 || e o produto interno ⟨t,t 3 ⟩.
Assim, √
Z 1  3 1
2 2 t 2 2
||t|| = t dt = = ⇒ ||t|| = √ ,
−1 3 −1 3 3
1 √
t7
Z 1  
2 2
||t 3 ||2 = t 6 dt = = ⇒ ||t 3 || = √ ,
−1 7 −1 7 7
1
t5
Z 1  
2
⟨t,t 3 ⟩ = t 4 dt = = .
−1 5 −1 5
50 Capítulo 3. Espaços vetoriais com produto interno
√ √ !
21 21
Daí, cos θ = e θ = arccos . ■
5 5

A seguir, veremos algumas propriedades de vetores ortogonais e conjuntos ortogonais.

Proposição 3.2.7 Sejam V um K-espaço vetorial com produto interno e S ⊆ V um conjunto


ortogonal que não contém o vetor nulo. Então S é um conjunto LI.

Demonstração. Sejam v1 , . . . , vn ∈ S, αi ∈ K, i = 1, . . . , n, tais que


α1 v1 + · · · + αn vn = 0.
Para cada j ∈ {1, . . . , n} temos que ⟨vi , v j ⟩ = 0, se i ̸= j, e assim
0 = ⟨α1 v1 + · · · + αn vn , v j ⟩ = α j ⟨v j , v j ⟩ = α j ||v j ||2 .
Como v j ̸= 0, segue que α j = 0. Portanto, S é um conjunto L.I. ■

Definição 3.2.8 Uma base ortogonal para um espaço vetorial V é uma base para V que também
é um conjunto ortogonal. E, uma base ortonormal para V é uma base para V que também é um
conjunto ortonormal.

■ Exemplo 3.2.9 As bases canônicas de Kn e Mn (K) são bases ortonormais em relação aos produtos
internos usuais desses espaços (verifique). ■

A proposição a seguir apresenta a primeira vantagem de se trabalhar com bases ortogonais.

Proposição 3.2.10 Sejam V um K-espaço vetorial com produto interno B = {v1 , . . . , vn } uma base
ortogonal para um subespaço W de V . Então, qualquer w ∈ W é escrito como
n
⟨w, v j ⟩
w= ∑ v.
2 j
(3.6)
j=1 ||v j ||

Essa representação é chamada de expansão de Fourier para w.

Demonstração. Seja w ∈ W . Como B é base ortogonal de W , existem escalares α1 , . . . , αn tais que


w = α1 v1 + · · · + αn vn .
Além disso, para cada j ∈ {1, . . . , n},
* +
n n
w, v j = ∑ αi vi , v j = ∑ αi ⟨vi , v j ⟩.
i=1 i=1

Como B é ortogonal, ⟨vi , v j ⟩ = 0 para todo i ̸= j, logo


n
w, v j = ∑ αi ⟨vi , v j ⟩ = α j ⟨v j , v j ⟩ = α j ||v j ||2 .
i=1
n
⟨w, v j ⟩ ⟨w, v j ⟩
Como v j ̸= 0, segue que α j = , ou seja, w = ∑ v.
2 j

||v j ||2 j=1 ||v j ||
3.2 Ortogonalidade e Processo de Gram-Schmidt 51

Observação 3.2.11 As ordens dos produtos internos que aparecem na equação (3.6) são importan-
tes se K = C.

A Proposição 3.2.10 mostra que as coordenadas de um vetor são facilmente determinadas quando
trabalhamos com uma base B = {v1 , . . . , vn } ortogonal:
 
⟨w, v1 ⟩ ⟨w, vn ⟩
[w]B = , ... , .
||v1 ||2 ||vn ||2
n n
Além disso, se B é uma base ortonormal de V , dados u = ∑ αi vi e v = ∑ β j v j em V , temos
i=1 j=1
* +
n n n n n
⟨u, v⟩ = ∑ αi vi , ∑ β j v j = ∑ ∑ αi β j ⟨vi , v j ⟩ = ∑ αi βi .
i=1 j=1 i=1 j=1 i=1

Ou seja, se [u]B = (α1 , . . . , αn ) e [v]B = (β1 , . . . , βn ), então o produto interno ⟨u, v⟩ em V é igual ao
produto interno usual de Kn aplicado às coordenadas ⟨[u]B , [v]B ⟩, e portanto é simples de se trabalhar
do ponto de vista computacional.
Uma pergunta natural que surge é: todo espaço vetorial com produto interno possui base ortonormal?
A resposta é sim, e para obter bases ortonormais, utilizaremos o processo de Gram-Schmidt que será
visto adiante. Antes, apresentamos um resultado que será útil nesse processo.

Proposição 3.2.12 Seja V um K-espaço vetorial e S = {v1 , . . . , vn } ⊆ V um subconjunto ortogonal.


Então, dado v ∈ V , o vetor
n
⟨v, vi ⟩
u = v− ∑ v
2 i
(3.7)
i=1 ||vi ||

n
é ortogonal a todo vetor do subespaço gerado por S. Se S é ortonormal, então u = v − ∑ ⟨v, vi ⟩vi .
i=1

Antes de demonstrar esse resultado, faremos um exemplo em R2 para entender melhor o seu
significado.
■ Exemplo 3.2.13 Considere o espaço R2 com o produto interno usual. Sejam v1 = (1, 0) e S = {v1 }.
Dado um vetor v = (a, b) ∈ R2 , temos

u = v − ⟨v, v1 ⟩v1 = (a, b) − ⟨(a, b), (1, 0)⟩(1, 0) = (a, b) − a · (1, 0) = (0, b),

ou seja, u só tem componente não nula na direção de (0, 1), que é ortogonal à v1 . ■

Demonstração da Proposição 3.2.12. Seja v um vetor qualquer de V . Defina


n
⟨v, vi ⟩
u = v− ∑ v.
2 i
i=1 ||vi ||

Queremos mostrar que u é ortogonal a qualquer vetor do subespaço gerado por S. Para isso, primeira-
mente vamos mostrar que u é ortogonal a qualquer vetor do conjunto S. Se v j ∈ S, então
* +
n n
⟨v, vi ⟩ ⟨v, vi ⟩
⟨u, v j ⟩ = v − ∑ 2
v i , v j = ⟨v, v j ⟩ − ∑ ⟨v , v ⟩.
2 i j
i=1 ||vi || i=1 ||vi ||
52 Capítulo 3. Espaços vetoriais com produto interno

Como S é ortogonal, ⟨vi , v j ⟩ = 0 para todo i ̸= j e segue que

⟨v, v j ⟩
⟨u, v j ⟩ = ⟨v, v j ⟩ − ||v j ||2 = 0,
||v j ||2

ou seja, u ⊥ v j , j = 1, . . . , n. Logo, u é ortogonal a qualquer vetor de S.


Considere agora um vetor qualquer de [S], digamos w ∈ [S]. Então, w = α1 v1 + · · · + αn vn e assim
* +
n n
⟨u, w⟩ = u, ∑ α j v j = ∑ α j ⟨u, vi ⟩ = 0.
i=1 i=1

Portanto, u é ortogonal ao subespaço gerado por S. ■

Processo de Gram-Schmidt
Seja B = {v1 , . . . , vn } uma base qualquer para um espaço vetorial V com produto interno. Cons-
truiremos uma base ortogonal Γ = {u1 , . . . , un } para V , a partir dos vetores de B. Isso será feito de
maneira indutiva, de modo que, para cada k ∈ {1, . . . , n}, Γk = {u1 , . . . , uk } será uma base ortogonal
para Vk = [v1 , . . . , vk ].
Primeiro passo: como B é base, v1 ̸= 0, logo u1 = v1 é tal que Γ1 = {u1 } é ortogonal e [v1 ] = [u1 ].
Ilustraremos explicitamente o passo para k = 2 para facilitar a compreensão. Queremos determinar
u2 ortogonal a u1 tal que [u1 , u2 ] = [v1 , v2 ]. Considere

⟨v2 , u1 ⟩
u2 = v2 − u1 .
||u1 ||2

Pela Proposição 3.2.12, u2 ⊥ u1 . Além disso, u2 ̸= 0, pois, caso contrário, teríamos

⟨v2 , u1 ⟩
v2 = u1 ⇒ v2 ∈ [u1 ] = [v1 ]
||u1 ||2

e {v1 , v2 } seria LD, o que não é verdade. Portanto, Γ2 = {u1 , u2 } é um conjunto ortogonal de vetores
não nulos, com [u1 , u2 ] ⊆ [u1 , v2 ] = [v1 , v2 ] e, portanto, é base ortogonal para V2 = [v1 , v2 ].
Suponha 1 < k ≤ n e que Γk−1 = {u1 , . . . , uk−1 } seja uma base ortogonal para Vk−1 = [v1 , . . . , vk−1 ]
(hipótese de indução). Determinaremos uk tal que Γk = {u1 , . . . , uk−1 , uk } é uma base ortogonal para
Vk . Defina
k−1
⟨vk , ui ⟩
uk = vk − ∑ 2 i
u.
i=1 ||ui ||

Pela Proposição 3.2.12, uk é ortogonal a todos os vetores de Γk−1 . Além disso, uk ̸= 0, pois, caso
contrário, chegaríamos que vk ∈ [u1 , . . . , uk−1 ] = [v1 , . . . , vk−1 ], absurdo pois {v1 , . . . , vk } é LI. Portanto,
Γk = {u1 , . . . , uk } é base ortogonal para Vk = [v1 , . . . , vk ].
Pelo Princípio de Indução, Γn = {u1 , . . . , un } é base ortogonal para V . Para obter uma base
uj
ortonormal, basta normalizar os vetores de Γn : considerando w j = , j = 1, . . . , n, então Γn =
||u j ||
{w1 , . . . , wn } gera o mesmo espaço Vn e é ortonormal, logo é uma base ortonormal para Vn . Também,
pode-se normalizar os vetores em cada etapa do processo.
Esse procedimento define o chamado Processo de Ortonormalização de Gram-Schmidt, e demonstra
o teorema a seguir.
3.2 Ortogonalidade e Processo de Gram-Schmidt 53

Teorema 3.2.14 Todo espaço vetorial de dimensão finita n ≥ 1 com produto interno possui base
ortonormal.

Observação 3.2.15 Se, no processo de Gram-Schmidt, iniciássemos com um conjunto gerador


S = {v1 , . . . , vm } que não é LI (portanto não é base), poderíamos aplicar da mesma maneira o
procedimento, com a diferença que obteríamos alguns vetores w j = 0. Assim, no final seria obtido
um conjunto gerador ortogonal, onde o número de vetores não nulos é exatamente a dimensão de [S].

■ Exemplo 3.2.16 Seja V = R4 com produto interno usual, encontre uma base ortonormal para
W = [(1, 1, 1, 1), (1, 1, 2, 1), (1, 1, 1, 2)].
Solução. Sejam v1 = (1, 1, 1, 1), v2 = (1, 1, 2, 1) e v3 = (1, 1, 1, 2). O conjunto B = {v1 , v2 , v3 } é LI
(verifique), logo é uma base para W . Para encontrar uma base ortonormal para W basta aplicarmos o
processo de Gram-Schmidt para B. Temos,

√ w1 1
(i) w1 = (1, 1, 1, 1), ||w1 || = 4 = 2 e u1 = = (1, 1, 1, 1).
||w1 || 2
w2
(ii) w2 = v2 − ⟨v2 , u1 ⟩u1 e u2 = .
||w2 ||

Calculando os valores necessários:


5
⟨v2 , u1 ⟩ = ,
2
51 1
w2 = (1, 1, 2, 1) − (1, 1, 1, 1) = (−1, −1, 3, −1),
22 4
√ √
12 3
||w2 || = = ,
4 2
1
concluímos que u2 = √ (−1, −1, 3, −1).
2 3
w3
(iii) w3 = v3 − ⟨v3 , u1 ⟩u1 − ⟨v3 , u2 ⟩u2 e u3 = .
||w3 ||

Calculando os valores necessários:


5
⟨v3 , u1 ⟩ = ,
2
−1
⟨v3 , u2 ⟩ = √ ,
2 3

51 1 1
w3 = (1, 1, 1, 2) − (1, 1, 1, 1) + √ √ (−1, −1, 3, −1) = 13 (−1, −1, 0, 2),
22 2 32 3

6
||v3 || = ,
3
1
concluímos que u3 = √ (−1, −1, 0, 2).
6
54 Capítulo 3. Espaços vetoriais com produto interno

Logo,
     
1 1 1 1 1 1 3 1 1 1 2
C= , , , , − √ , − √ , √ , − √ , − √ , − √ , 0, √
2 2 2 2 2 3 2 3 2 3 2 3 6 6 6
é base ortonormal para W .

■ Exemplo 3.2.17 Seja B = {1, x}. Encontre uma base ortonormal para [B], considerando o produto
interno usual de C ([−1, 1], R).
Solução. Sejam v1 (x) = 1 e v2 (x) = x. Para encontrar uma base ortonormal para [B] basta aplicarmos o
processo de Gram-Schmidt. Assim,
Z 1
2 w1 (x) 1
(i) w1 (x) = 1, ||w1 || = 1dx = 2 ⇒ u1 (x) = =√ .
−1 ||w1 || 2
w2
(ii) w2 = v2 − ⟨v2 , u1 ⟩u1 e u2 = .
||w2 ||
Calculando os valores necessários:
Z 1  2 1
1 x
⟨v2 , u1 ⟩ = x · √ dx = √ = 0,
−1 2 2 2 −1
w2 (x) = x,
1
x3
Z 1 
2 2 2
||w2 || = x dx = = ,
−1 3 −1 3

3
concluímos que u2 (x) = √ x.
2
( √ )
1 3x
Logo, C = √ , √ é uma base ortonormal para [B]. ■
2 2

■ Exemplo 3.2.18 — Fatoração QR. Sejam A ∈ Mm×n (R) uma matriz cujas colunas são os vetores

coluna x1 , . . . , xn ∈ Rm e R(A) o espaço coluna de A (veja Exemplo 2.3.6). Pelo processo de ortonorma-
lização de Gram-Schmidt, podemos encontrar u1 , . . . , un ∈ Rn ortogonais tais que R(A) = [u1 , . . . , un ]
e [u1 , . . . , uk ] = [x1 , . . . , xk ] para qualquer k ∈ {1, . . . , n}. Ou seja, para cada k, existem escalares
r1k , . . . , rkk ∈ R tais que
xk = r1k u1 + · · · + rkk uk + 0uk+1 + · · · + 0un .
Definindo
 
  r11 r12 . . . r1n
| | |  0 r22 . . . r2n 
Q = u1 u2 · · · un  ∈ Mm×n (R) e R =  . ..  ∈ Mn (R)
 
.. . .
 .. . . . 
| | |
0 0 ... rnn

podemos escrever A = QR, com R uma matriz triangular superior e Q uma matriz cujas colunas são
ortogonais. Essa fatoração é bastante utilizada em matemática aplicada. Além disso, se dim(R(A)) = n,
então R é não singular. ■
3.3 Complemento ortogonal 55
Quando trabalhamos com bases ortonormais, a matriz de mudança de base também possui uma
característica interessante, relacionada com a definição a seguir.
⊤ ⊤
Definição 3.2.19 Seja A ∈ Mn (K). Dizemos que A é uma matriz unitária se AA = A A = In , isto

é, A−1 = A . Quando K = R, onde neste caso AA⊤ = A⊤ A = In , dizemos que A é ortogonal.

Proposição 3.2.20 Seja V um K-espaço vetorial com produto interno. Sejam B = {v1 , . . . , vn } e
C = {u1 , . . . , un } bases ortonormais para V . Então, a matriz de mudança de bases MBC é unitária.

Demonstração. Suponha  
a11 a12 · · · a1n
a21 a22 · · · a2n 
MBC =  . ..  .
 
.. ..
 .. . . . 
an1 an2 · · · ann
Então,      
a11 a12 a1n
a21  a22  a2n 
[v1 ]C =  .  , [v2 ]C =  .  , . . . , [vn ]C =  .  .
     
 ..   ..   .. 
an1 an2 ann
Ou seja, para cada j = 1, . . . , n, temos que
n
v j = a1 j u1 + a2 j u2 + · · · + an j un = ∑ ai j ui .
i=1

Como B é base ortonormal, segue que


* +
n n n n n
δi j = ⟨v j , vi ⟩ = ∑ ak j uk , ∑ ali ul = ∑ ∑ ak j ali ⟨vk , vl ⟩ = ∑ ak j aki , (3.8)
k=1 l=1 k=1 l=1 k=1

onde 
1, se i = j
δi j = .
0, se i ̸= j

Por outro lado, como MBC = (ai j ), temos MBC = (bi j ) com bi j = a ji . Logo
n n
⊤ (3.8)
(MBC MBC )i j = ∑ bik ak j = ∑ aki ak j = δi j ,
k=1 k=1

⊤ −1 ⊤
ou seja, MBC MBC = In e, portanto, MBC = MBC . ■

3.3 Complemento ortogonal


Definição 3.3.1 Sejam V um K-espaço vetorial com produto interno e S ⊆ V um subconjunto de V .
O conjunto ortogonal de S é o definido

S⊥ = {v ∈ V : ⟨v, u⟩ = 0, ∀ u ∈ S}.
56 Capítulo 3. Espaços vetoriais com produto interno

Observação 3.3.2 (i) Também podemos escrever S⊥ = {v ∈ V : ⟨u, v⟩ = 0, ∀ u ∈ S};

(ii) Se S = {0} então S⊥ = V ;

Exercício 3.2 Prove as afirmações a seguir.


(i) S⊥ é subespaço vetorial de V (mesmo que S não o seja).

(ii) Se S contém uma base para V então S⊥ = {0}.

Proposição 3.3.3 Considere V um K-espaço vetorial com produto interno. Sejam W ⊆ V um


subespaço e B = {w1 , . . . , wk } um conjunto gerador para W . Então, v ∈ W ⊥ se, e somente se,
⟨v, wi ⟩ = 0 para todo i = 1, . . . , k.

Demonstração. (⇒) Seja v ∈ W ⊥ . Como W ⊥ = {v ∈ V : ⟨v, w⟩ = 0, ∀ w ∈ W }, segue que ⟨v, wi ⟩ = 0,


para todo i = 1, . . . , k.
(⇐) Seja w ∈ W um vetor qualquer. Como B gera W , existem escalares α1 , . . . , αk ∈ K tais que

w = α1 w1 + α2 w2 + · · · + αk wk .

Se v ∈ V é tal que ⟨v, wi ⟩ = 0, para todo i = 1, . . . , k, então


* +
k k
⟨w, v⟩ = ∑ α jw j, v = ∑ α j ⟨w j , v⟩ = 0
j=1 j=1

e, portanto, v ∈ W ⊥ . ■

■ Exemplo 3.3.4 Sejam V = R4 com produto interno usual e W = [(1, 0, 1, 1), (1, 1, 0, 1)]. Determine
uma base para W ⊥ .
Solução. Temos que W ⊥ = {(x, y, z,t) ∈ R4 : ⟨(x, y, z,t), w⟩ = 0, ∀ w ∈ W }. Como B = {w1 , w2 } =
{(1, 0, 1, 1), (1, 1, 0, 1)} é base de W , basta procurarmos pelos vetores v ∈ R4 tais que ⟨v, wi ⟩ = 0,
i = 1, 2. Se v = (x, y, z,t) ∈ W ⊥ , então

0 = ⟨v, w1 ⟩ = ⟨(x, y, z,t), (1, 0, 1, 1)⟩ = x + z + t ⇒ x = −z − t,

0 = ⟨v, w2 ⟩ = ⟨(x, y, z,t), (1, 1, 0, 1)⟩ = x + y + t ⇒ y = −x − t = z + t − t = z


Logo,

v = (x, y, z,t) = (−z − t, z, z,t) = z(−1, 1, 1, 0) + t(−1, 0, 0, 1) ∈ [(−1, 1, 1, 0), (−1, 0, 0, 1)].

Ou seja, W ⊥ ⊆ [(−1, 1, 1, 0), (−1, 0, 0, 1)]. Não é difícil ver que (−1, 1, 1, 0), (−1, 0, 0, 1) são ortogo-
nais a w1 e w2 , portanto (−1, 1, 1, 0), (−1, 0, 0, 1) ∈ W ⊥ , donde segue que [(−1, 1, 1, 0), (−1, 0, 0, 1)] ⊆
W ⊥ (pois W ⊥ é subespaço). Logo, W ⊥ = [(−1, 1, 1, 0), (−1, 0, 0, 1)] e C = {(−1, 1, 1, 0), (−1, 0, 0, 1)}
é uma base para W ⊥ . ■

■ Exemplo 3.3.5 Considere V = M2×2 (R) com produto interno usual e


  
x y
W= ∈ V : x + 2y + 3z + 4w = 0 .
z w
3.3 Complemento ortogonal 57

Determine uma base para W ⊥ .


 
x y
Solução. Se A = ∈ W , então, x = −2y − 3z − 4w. Assim, A ∈ W se, e somente se,
z w
             
−2y − 3z − 4w y −2 1 −3 0 −4 0 −2 1 −3 0 −4 0
A= =y +z +w ∈ , , .
z w 0 0 1 0 0 1 0 0 1 0 0 1
     
−2 1 −3 0 −4 0
Logo, W = [A1 , A2 , A3 ] = , , .
0 0 1 0 0 1
 
a b
Agora, se B = ∈ W ⊥ então ⟨B, Ai ⟩ = 0, i = 1, 2, 3. Ou seja,
c d

0 = ⟨B, A1 ⟩ = −2a + b ⇒ b = 2a,

0 = ⟨B, A2 ⟩ = −3a + c ⇒ c = 3a,

0 = ⟨B, A3 ⟩ = −4a + d ⇒ d = 4a.


   
⊥ 1 2 1 2
Logo, W = eC= é base para W ⊥ . ■
3 4 3 4

Proposição 3.3.6 Sejam V um K-espaço vetorial de dimensão finita n ≥ 1, com produto interno e
W ⊂ V um subespaço vetorial. Então V = W ⊕W ⊥ .

Demonstração. Primeiramente vamos mostrar que V = W + W ⊥ . Seja B = {w1 , . . . , wk } uma base


ortonormal para W . É claro que W +W ⊥ ⊆ V . Por outro lado, se v ∈ V , segue da Proposição 3.2.12 que

k
u = v − ∑ ⟨v, wi ⟩wi ∈ W ⊥ .
i=1

k
Logo, v = ∑ ⟨v, wi ⟩wi + u ∈ W +W ⊥ e, portanto, V = W +W ⊥ .
i=1

Agora, se w ∈ W ∩W ⊥ temos que w ∈ W ⊥ . Ou seja, ⟨w, v⟩ = 0 para todo vetor v ∈ W . Em particular,


⟨w, w⟩ = 0, o que implica em w = 0. Logo, W ∩W ⊥ = {0} e, portanto, V = W ⊕W ⊥ . ■

Devido a Proposição 3.3.6, se S = W é um subespaço vetorial, então o conjunto ortogonal S⊥ leva


um nome especial, definido a seguir.
Definição 3.3.7 Se V é um espaço vetorial com produto interno e W ⊆ V é um subespaço vetorial,
então W ⊥ é chamado de complemento ortogonal de W .

O próximo resultado é uma consequência imediata das Proposições 3.3.6 e 2.6.4.

Corolário 3.3.8 Seja V um K-espaço vetorial de dimensão finita n ≥ 1, com produto interno. Se
W ⊂ V é um subespaço vetorial, então, dimV = dimW + dimW ⊥ .

Exercício 3.3 Sejam V um K-espaço vetorial de dimensão finita com produto interno. Se W ⊂ V é
um subespaço, prove que (W ⊥ )⊥ = W .
58 Capítulo 3. Espaços vetoriais com produto interno

3.4 Projeção ortogonal

Antes de introduzirmos o conceito de projeção ortogonal num espaço vetorial com produto interno,
vamos relembrar o seu significado em R2 e R3 , provavelmente visto em Geometria Analítica.
Em R2 , considere uma reta r passando pela origem e P = (a, b) ∈ R2 um ponto que não pertence a
−→
r. Para calcular a distância de P a r, consideramos o vetor v = OP = (a, b). A projeção ortogonal de v
em r (ou em qualquer vetor paralelo à r) é o vetor w, que é paralelo a reta r e tal que v − w é ortogonal
à r. Neste caso, ||v − w|| é a distância de P a r, e é a menor dentre todas as distâncias de P aos pontos
de r. Veja a Figura 3.2.

Figura 3.2: Projeção ortogonal de v ∈ R2 na reta gerada por w.

Em linguagem de álgebra linear, r é um subespaço vetorial W , v é um vetor que não pertence a W e


w ∈ W é tal que ||v − w|| = min{||v − u|| : u ∈ W }. Também poderia se considerar v ∈ W (ou P ∈ r),
mas nesse caso w = v seria a projeção ortogonal de v em W e ||v − w|| = 0.
Em R3 a situação é análoga. Se W é um plano em R3 passando pela origem e v = (a, b, c) ∈ R3 ,
a projeção ortogonal de v em W é o vetor w ∈ W tal que v − w é ortogonal ao plano W e ||v − w|| =
min{||v − u|| : u ∈ W } é a menor distância entre o ponto P = (a, b, c) e um ponto do plano W . Observe
que o complemento ortogonal W ⊥ neste caso é uma reta (passando pela origem) ortogonal a W e
paralela ao vetor v − w, isto é v − w ∈ W ⊥ . Veja a Figura 3.3.

Figura 3.3: Projeção ortogonal de v ∈ R3 no subespaço W .

Essas ideias serão generalizadas para um espaço vetorial V com produto interno.
Definição 3.4.1 Sejam V um K-espaço vetorial com produto interno, W ⊆ V um subespaço vetorial
e v ∈ V . Dizemos que w ∈ W é projeção ortogonal de v sobre W , e denotamos w = projW (v), se
v − w for ortogonal a todo vetor de W , isto é, se v − w ∈ W ⊥ .

O resultado a seguir garante a existência e unicidade da projeção ortogonal sobre subespaços de


dimensão finita.
3.4 Projeção ortogonal 59

Proposição 3.4.2 Seja V um K-espaço vetorial com produto interno e W ⊆ V um subespaço vetorial
de V com dimensão finita. Dado v ∈ V existe um único w ∈ W tal que v − w ∈ W ⊥ .

Demonstração. Existência: Seja B = {w1 , . . . , wk } uma base ortonormal para W . Segue da Proposição
3.2.12 que, dado v ∈ V ,
k
u = v − ∑ ⟨v, wi ⟩wi ∈ W ⊥ .
i=1
k
Logo, w = ∑ ⟨v, wi ⟩wi ∈ W satisfaz v − w ∈ W ⊥ e, portanto, w é uma projeção ortogonal de v em W .
i=1

Unicidade: Suponha que w, w̄ ∈ W sejam projeções ortogonais de v em W , ou seja,

v − w ∈ W ⊥ e v − w̄ ∈ W ⊥ .

Note que,

||w − w̄||2 = ⟨w − w̄, w − w̄⟩ = ⟨w − w̄, w − v + v − w̄⟩ = ⟨w − w̄, w − v⟩ + ⟨w − w̄, v − w̄⟩.

Como w − w̄ ∈ W , w − v ∈ W ⊥ e v − w̄ ∈ W ⊥ , segue que ||w − w̄||2 = 0 e, portanto, w = w̄. ■

Observação 3.4.3 Na demonstração da proposição anterior apareceu uma fórmula para a projeção
ortogonal, a saber,
k
projW (v) = ∑ ⟨v, wi ⟩wi ,
i=1

desde que B = {w1 , . . . , wk } seja uma base ortonormal para W . Caso B = {u1 , . . . , uk } seja uma base
ortogonal para W (mas não necessariamente ortonormal), então
k
⟨v, ui ⟩
projW (v) = ∑ u.
2 i
i=1 ||ui ||

Observação 3.4.4 Note que, no Processo de Ortogonalização de Gram-Schmidt, em cada etapa


⊥ .
k = 2, . . . , n, o vetor uk é exatamente vk − projVk−1 (vk ) ∈ Vk−1

■ Exemplo 3.4.5 Seja V = R4 com o produto interno usual. Determine a projeção ortogonal de
u = (5, 6, 7, 2) no espaço solução do sistema linear homogêneo

x1 + x2 + x3 = 0
.
2x2 + x3 + x4 = 0

Solução. Seja S o conjunto solução do sistema dado. Note que S = [(−1, 1, 0, −2), (−1, 0, 1, −1)].
Porém, os dois vetores não são ortogonais. Ortogonalizando, obtemos a base ortogonal B = {u1 , u2 } =
(−1, 1, 0, −2), − 12 , − 12 , 1, 0 (verifique). Segue que,


⟨u, u1 ⟩ ⟨u, u2 ⟩
projS (u) = 2
u1 + u2 = (0, −1, 1, 1).
||u1 || ||u2 ||2

60 Capítulo 3. Espaços vetoriais com produto interno

■ Exemplo 3.4.6 Considere V = P2 (R) com o produto interno

⟨p, q⟩ = p(−2)q(−2) + p(0)q(0) + p(1)q(1).

Sejam p(x) = x2 − 4 e W = [x − 1]. Determine projW (p).


Solução. Note que B = {x − 1} é uma base ortogonal para W . Então,
⟨p, x − 1⟩
projW (p) = .
||x − 1||2
Como
||x − 1||2 = ⟨x − 1, x − 1⟩ = (−3)(−3) + (−1)(−1) + 0 = 10
⟨p, x − 1⟩ = 0 + (−4)(−1) + 0 = 4
segue que
4 2(x − 1)
projW (p) = (x − 1) = .
10 5

■ Exemplo 3.4.7 Seja V = C ([0, 1], R) com produto interno usual. Determine a projeção ortogonal de
ex em W = [1, x].
Solução. Como
1
x2
Z 1
1
⟨1, x⟩ = 1 · x dx = = ̸= 0
0 2 0 2
seque
 que{1, x} não é uma base ortogonal para W . Ortogonalizando essa base, obtemos B =
1
1, x − . Assim,
2

⟨ex , 1⟩ ⟨ex , x − 21 ⟩
   
x 1 1
projW (e ) = 1+ x− = (e − 1) + 6(3 − e) x − ,
||1||2 ||x − 12 ||2 2 2
ou seja,
projW (ex ) = 4e − 10 + (18 − 6e)x.

■ Exemplo 3.4.8 Sejam V = R3 com produto interno usual e W = [(1, −1, 2)]. Determine a projeçao
ortogonal do elemento u = (2, −1, 4) ∈ R3 sobre o subespaço W e sobre o subespaço W ⊥ .
Solução. A projeção ortogonal de u sobre W é dada por
⟨u, w⟩ 11
ũ = projW (u) = 2
w = (1, −1, 2).
||w|| 6

Além disso, a projeção ortogonal ũ é o único vetor de W tal que u − ũ ∈ W ⊥ . Assim como, a projeção
ortogonal de u em W ⊥ é o único vetor ū de W ⊥ tal que u − ū ∈ (W ⊥ )⊥ = W . Como u − ũ ∈ W ⊥ e
u − (u − ũ) = ũ ∈ W , seque que ū = u − ũ = projW ⊥ (u). Logo,
11 1
projW ⊥ (u) = u − ũ = (2, −1, 4) − (1, −1, 2) = (1, 5, 2).
6 6

O resultado a seguir afirma que a projW (v) é a melhor aproximação de v ∈ V por um vetor em W .
3.4 Projeção ortogonal 61

Proposição 3.4.9 Sejam V um K-espaço vetorial com produto interno, W ⊆ V um subespaço


vetorial de V e v ∈ V . Dado w̄ ∈ W , são equivalentes:

(i) v − w̄ ∈ W ⊥ ;

(ii) ||v − w̄|| < ||v − w|| para todo w ∈ W \ {w̄}.

Demonstração. (i) ⇒ (ii) Seja w̄ ∈ W tal que v − w̄ ∈ W ⊥ . Para w ∈ W , w ̸= w̄, temos que
||v − w||2 = ||v − w̄ + w̄ − w||2 = ⟨v − w̄ + w̄ − w, v − w̄ + w̄ − w⟩
= ⟨v − w̄, v − w̄⟩ + ⟨v − w̄, w̄ − w⟩ + ⟨w̄ − w, v − w̄⟩ + ⟨w̄ − w, w̄ − w⟩
= ||v − w̄||2 + ||w̄ − w||2 > ||v − w̄||2 ,
pois w̄ − w ∈ W \ {0}, donde ||w̄ − w|| > 0.
(ii) ⇒ (i) Seja w̄ ∈ W tal que ||v − w̄|| < ||v − w|| para todo w ∈ W \ {w̄}. Suponha, por absurdo,
que v − w̄ ∈/ W ⊥ . Então, existe u ∈ W tal que ⟨u, v − w̄⟩ = ̸ 0. Note que u ̸= 0. Considere S = [u, w̄].
Observe que S é um subespaço de W com 1 ≤ dim S ≤ 2. Tome s̄ ∈ S a projeção ortogonal de v em S,
ou seja, v − s̄ ∈ S⊥ . Temos s̄ ̸= w̄, pois ⟨v − w̄, u⟩ ̸= 0 e ⟨v − s̄, u⟩ = 0.
Pela parte (i) ⇒ (ii) já demonstrada, ||v − s̄|| < ||v − s|| para todo s ∈ S \ {s̄}. Ou seja,
||v − s̄|| < ||v − w̄||, pois w̄ ∈ S,
||v − w̄|| < ||v − s̄||, pois s̄ ∈ W,
o que é uma contradição. Portanto, v − w̄ ∈ W ⊥ . ■

Z 1
■ Exemplo 3.4.10 Considere V = P3 (R) com o produto interno ⟨p, q⟩ = p(x)q(x) dx. Determine o
0
polinômio de grau 1 que melhor se aproxima de p(x) = x3 .
Solução. Queremos q̄(x) = a + bx ∈ P1 (R) tal que
√ ||p − q̄|| < ||p − q|| para todo q ∈ P1 (R) \ {q̄}. Pela
Proposição 3.4.9, q̄ = projP1 (p). Como B = {1, 3(2x − 1)} é base ortonormal de P1 (R) (verifique),
segue que
√ √ 1 9 9x 1
q̄(x) = projP1 (R) (x3 ) = ⟨x3 , 1⟩ + ⟨x3 , 3(2x − 1)⟩ 3 (2x − 1) = + (2x − 1) = − .
4 20 10 5
Veja a ilustração de p e q̄ na Figura 3.4, considerando o intervalo [0, 1].

Figura 3.4: Projeção de x3 em P1 (R) para x ∈ [0, 1].


62 Capítulo 3. Espaços vetoriais com produto interno

3.5 O Problema de Quadrados Mínimos


O sistema linear

 2x = b1
3x = b2 (3.9)
4x = b3

possui solução apenas quando (b1 , b2 , b3 ) ∈ [(2, 3, 4)]. Se (b1 , b2 , b3 ) ∈


/ [(2, 3, 4)] esse sistema não
possui solução. Entretanto, podemos determinar uma “solução aproximada”, isto é, um vetor que
minimize o erro cometido.
   
2 b1
Definindo a = 3 e b = b2  podemos escrever (3.9) na forma ax = b. Uma solução aproximada
4 b3
pode ser obtida, por exemplo, minimizando a norma do erro cometido. Por conveniência, trabalharemos
com a norma Euclidiana ao quadrado, assim

E 2 (x) = ∥ax − b∥2 = (2x − b1 )2 + (3x − b2 )2 + (4x − b3 )2 .

Em Cálculo I foi visto que os candidatos a minimizadores de uma função são os seus pontos críticos.
Nesse caso, os pontos críticos são aqueles cuja derivada é igual a zero. Como

d 2
E (x) = 2 · 2 (2x − b1 ) + 2 · 3(3x − b2 ) + 2 · 4(4x − b3 ),
dx
temos
d 2
E (x) = 0 ⇔ (22 + 32 + 42 )x = 2b1 + 3b2 + 4b3 ,
dx
ou seja,
2b1 + 3b2 + 4b3 ⟨a, b⟩
x= =
22 + 32 + 42 ∥a∥2
d2
é o único ponto crítico desse problema. Como 2 E 2 (x) = 2(22 + 32 + 42 ) > 0, segue que o ponto
dx
encontrado é um minimizador do problema.
No caso de um sistema linear com mais de uma variável a situação é bem parecida. Considere


 a11 x1 + a12 x2 + · · · + a1n xn = b1
 a21 x1 + a22 x2 + · · · + a2n xn = b2

.. (3.10)


 .
am1 x1 + am2 x2 + · · · + amn xn = bm

um sistema linear incompatível (ou impossível), com coeficientes em K. Assim, não existe x ∈ Kn que
seja solução de (3.10). Queremos encontrar uma solução aproximada, x̃ ∈ Kn , que minimize o erro
cometido.
Denotando por A = (ai j ) ∈ Mm×n (K) a matriz do sistema (3.10) e b = (bi ) ∈ Mm×1 (K), o problema
de encontrar x̃ ∈ Kn tal que Ax̃ esteja o mais próximo possível de b, isto é,

||Ax̃ − b|| < ||Ax − b|| ∀ x ∈ Kn \ {x̃},

é chamado de Problema de Quadrados Mínimos.


3.5 O Problema de Quadrados Mínimos 63

Sejam A1 , . . . , An ∈ Km as colunas de A, isto é, Ai = [a1i , a2i , . . . , ami ]⊤ . Se y = (y j ) ∈ Mn×1 (K)


então, pela Proposição 1.1.2(xiv)
Ay = y1 A1 + y2 A2 + · · · + yn An
ou seja, Ay é uma combinação linear das colunas de A. Logo, Ay ∈ R(A) = [A1 , A2 , . . . , An ] ⊆ Km .
Como queremos encontrar x̃ tal que Ax̃ esteja o mais próximo possível de b, basta calcularmos a
projeção ortogonal de b sobre o espaço coluna R(A). Note que, dizer que o sistema (3.10) é incompatível,
é equivalente a dizer que b ∈
/ R(A). Veja a Figura 3.5.

Figura 3.5: Projeção ortogonal de b no espaço coluna de A.

Pela Proposição 3.4.9, se p = Ax̃ é a projeção ortogonal de b em R(A), então b − p ∈ R(A)⊥ =


[A1 , A2 , . . . , An ]⊥ , ou seja,
⟨b − Ax̃, Ai ⟩ = 0 , ∀ i = 1, . . . , n,
ou ainda, ⟨b, Ai ⟩ = ⟨Ax̃, Ai ⟩, para todo i = 1, . . . , n. Obtemos assim o sistema linear


 ⟨A1 , A1 ⟩x̃1 + ⟨A2 , A1 ⟩x̃2 + · · · + ⟨An , A1 ⟩x̃n = ⟨b, A1 ⟩
 ⟨A1 , A2 ⟩x̃1 + ⟨A2 , A2 ⟩x̃2 + · · · + ⟨An , A2 ⟩x̃n = ⟨b, A2 ⟩

.. (3.11)


 .
⟨A1 , An ⟩x̃1 + ⟨A2 , An ⟩x̃2 + · · · + ⟨An , An ⟩x̃n = ⟨b, An ⟩

que sempre admite m


 solução, pois a projeção ortogonal existe. Usando o produto interno usual de K ,

observe que A A = ⟨A j , Ai ⟩, assim podemos reescrever (3.11) na forma matricial
ij
⊤ ⊤
A Ax̃ = A b.
Resolvendo esse sistema, obtém-se a melhor aproximação de uma “solução” do sistema Ax = b.
⊤ ⊤
Definição 3.5.1 O sistema A Ax̃ = A b obtido acima é chamado de sistema de equações normais.

O método dos quadrados mínimos é utilizado quando temos um sistema de equações Ax = b que
não possui solução. Neste caso, dizemos que x̃ é uma “solução” se a diferença ||Ax̃ − b||2 é a menor
possível. Essa “solução” é chamada de solução de quadrados mínimos.
Como visto anteriormente, a solução de quadrados mínimos x̃ deve satisfazer as equações normais
⊤ ⊤ ⊤
A Ax = A b. Se as colunas da matriz A forem LIs, a matriz A A será não singular, e a solução de
 −1
⊤ ⊤
quadrados mínimos é dada unicamente por x̃ = A A A b. Se {A1 , . . . , An } for LD, a melhor
aproximação poderá ser escrita de várias maneiras diferentes como combinação linear de A1 , . . . , An .
Costuma-se escolher aquela de menor norma.
64 Capítulo 3. Espaços vetoriais com produto interno

■ Exemplo 3.5.2 Considere o sistema



 x1 − x4 = 0
−x2 + x3 + 2x4 = −2 .
x1 − x2 + x3 + x4 = −1

Deixamos como exercício a verificação de que esse sistema é impossível. Na forma matricial, esse
sistema é dado por Ax = b onde
 
  x1  
1 0 0 −1 x2  0
A = 0 −1 1 2  ∈ M3×4 (R), x =   ∈ M4×1 (R) e b = −2 ∈ M3×1 (R).
x3 
1 −1 1 1 −1
x4

Buscaremos uma solução para o problema de quadrados mínimos, utilizando as equações normais.
Temos,    
1 0 1   2 −1 1 0
1 0 0 −1
0 −1 −1  −1 2 −2 −3
A⊤ A = 
  
0 −1 1 2  =  
0 1 1 1 −2 2 3
1 −1 1 1
−1 2 1 0 −3 3 6
e    
1 0 1   −1
0
0 −1 −1  −2 =  3  .
A⊤ b = 
   
0 1 1  −3
−1
−1 2 1 −5
O sistema de equações normais é dado por
    
2 −1 1 0 x̃1 −1
−1 2 −2 −3 x̃2   3 
   =  
 1 −2 2 3  x̃3  −3
0 −3 3 6 x̃4 −5
 
α + 1/3
4α + 10/3
 2α + 5/3  , α ∈ R. Neste caso, obtém-se infinitas soluções, pois as colunas
cuja solução geral é x̃ =  

α
de A são LD. Não há contradição com a unicidade da projeção ortogonal, pois
 
1/3
Ax̃ = −5/3 , para todo α ∈ R,
−4/3
 
1/3
é a (única) projeção ortogonal de b em R(A). Mas a maneira de escrever −5/3 como combinação
−4/3
linear das colunas de A que não é única.
 
1/3
10/3
Uma melhor aproximação de uma “solução” do sistema Ax = b, por exemplo, é x =  5/3 .
 ■

0
3.5 O Problema de Quadrados Mínimos 65

Uma solução de quadrados mínimos pode ser utilizada para descrever uma tendência nos dados,
que poderá ser usada para fazer previsões.
■ Exemplo 3.5.3 O custo para produzir um certo livro é dado por c(t) = a + bt, com a sendo o custo
de edição e tipografia e b o custo de impressão e encadernação (para cada livro). Determine a função
custo quando foi observado que:

# livros 10 20 50 100
custo (R$) 1200,00 1500,00 2000,00 2700,00

Solução. Estamos interessados em resolver o sistema linear




 a+10b = 1200
a+20b = 1500


 a+50b = 2000
a+100b = 2700

ou, na forma matricial, Ax = b com


   
1 10   1200
1 20 
 ∈ M4×2 (R), x = a ∈ R2 e b = 1500 ∈ R4 .
 
A= 1 50  b 2000
1 100 2700

Como esse sistema linear não admite solução (verifique), vamos buscar uma solução para o problema
de quadrados mínimos
Minimizar ||Ax − b||
x ∈ R2
utilizando as equaçẽs normais. Temos
 
  1 10  
⊤ 1 1 1 1  1 20  4 180
A A=   =
10 20 50 100 1 50  180 13000
1 100
e  
  1200  
1 1 1 1  1500 = 7400 .
A⊤ b =

10 20 50 100 2000 412000
2700
O sistema de equações normais é dado por
    
4 180 a 7400
=
180 13000 b 412000
 
1124, 5
cuja solução é x̃ = . Ou seja, uma aproximação para a função custo é
16, 12

c(t) = 1124, 5 + 16, 12t.

O caso geral está descrito no próximo exemplo.


66 Capítulo 3. Espaços vetoriais com produto interno

■ Exemplo 3.5.4 — Ajuste Linear. Dados m pontos não colineares (t1 , y1 ), . . . , (tm , ym ), encontre a reta
r : y(t) = a + bt que melhor ajusta esses pontos.
Solução. Se todos os pontos pertencessem à reta r, teríamos
(t1 , y1 ) ∈ r ⇒ a + bt1 = y1
(t2 , y2 ) ∈ r ⇒ a + bt2 = y2
..
.
(tm , ym ) ∈ r ⇒ a + btm = ym
obtendo assim o sistema linear Ax = b, com
   
1 t1 y1
1 t2     y2 
a
A =  . .  ∈ Mm×2 (R), x = ∈ R2 e b =  .  ∈ Rm .
   
.
. . . b  .. 
1 tm ym
O sistema de equações normais torna-se
 m   m 
m ∑ t y
i
∑ i
 
i=1  a =  i=1  .

m m
 2
 b m 
∑ ti ∑i t ∑ ti yi
i=1 i=1 i=1

■ Exemplo 3.5.5 — Ajuste Polinomial. Dados m pares de números (t1 , y1 ), . . . , (tm , ym ), encontre o

polinômio de grau n que melhor ajusta yi como função de ti .


Solução. Seja p(t) = a0 + a1t + · · · + ant n o polinômio procurado. Se todos os pontos pertencessem ao
gráfico desse polinômio, teríamos
a0 + a1t1 + · · · + ant1n = y1
a0 + a1t2 + · · · + ant2n = y2
..
.
a0 + a1tm + · · · + antmn = ym
obtendo assim o sistema linear Ax = b, com
1 t1 · · · t1n
     
a0 y1
1 t2 · · · t n  a1   y2 
2
A = . . . ∈ Mm×(n+1) (R), x =  .  ∈ Rn+1 e b =  .  ∈ Rm .
    
 .. .. . . ... 
  ..   .. 
1 tm · · · tmn an ym
Para encontrar os coeficientes a0 , . . . , an , basta resolver o sistema de equações normais
 m 
m m
 
 m ∑ ti · · · ∑ tin     i=1 ∑ yi 
i=1 i=1
 a0

 m m m 
 m

2 n+1   

 ∑ ti ti · · · ∑ ti  a1   ∑ ti yi 

∑ 
 .  =  .
 i=1 
i=1 i=1
 . .. .. ..  . . i=1
 .
 . . . . 
  
 . . 
m  an  . 
m m m 
∑ tin ∑ tin+1 · · · ∑ ti2n
  n 
t y

i=1 i=1 i=1
∑ i i
i=1

3.5 O Problema de Quadrados Mínimos 67

A Figura 3.6 ilustra um exemplo com 10 pontos e polinômios de diferentes graus. Intuitivamente
podemos pensar que quanto maior o grau do polinômio, melhor será a aproximação obtida. O que não é
verdade. Ao resolvermos esse problema, dificuldades númericas começam a aparecer e a aproximação
deixa de ser precisa, veja a Figura 3.7. Não discutiremos aqui os fenômentos que levam a esses
problemas, o estudante interessado encontrará maiores informações em um curso de Álgebra Linear
Numérica ou Computacional.

1.5 1.5
pontos pontos
1 1
3 3
1 1
5 5
7 7

0.5 0.5

0 0

−0.5 −0.5

−1 −1

−1.5 −1.5
0 2 4 6 8 10 12 14 0 2 4 6 8 10 12 14

Figura 3.6: Ajuste polinomial usando polinômios de grau 1 (em azul), grau 3 (em verde), grau 5 (em
rosa) e grau 7 (em vermelho).

10
pontos
8 19

−2

−4

−6

−8

−10
0 2 4 6 8 10 12 14

Figura 3.7: Ajuste polinomial usando um polinômio de grau 19.

No exemplo anterior usamos um polinômio para ajustar um conjunto de dados. Mas poderíamos ter
utilizado qualquer função.
Dados um conjunto de pontos (t1 , y1 ), . . . , (tm , ym ) e um conjunto de funções f1 (t), . . . , fn (t), pode-
68 Capítulo 3. Espaços vetoriais com produto interno

mos pensar em encontrar a melhor aproximação


n
y= ∑ x j f j (t).
j=1

Para tanto, basta utilizarmos a formulação do Problema de Quadrados Mínimos vista nos exemplos
anteriores.
Capítulo 4

Transformações lineares

Neste capítulo, estudaremos as funções entre espaços vetoriais. Assim como no cálculo estuda-se
as funções contínuas, deriváveis, integráveis, aqui em Álgebra Linear não nos interessam funções
quaisquer, mas sim aquelas que “preservam” as operações de espaço vetorial: soma e produto por escalar.
Essas funções serão chamadas de transformações lineares. Num primeiro momento, estudaremos
propriedades gerais de transformações lineares e veremos como relacionar espaços vetoriais distintos.
Em seguida, o foco serão funções de um espaço vetorial nele mesmo, que são chamadas de operadores
lineares.

4.1 Conceitos básicos


Definição 4.1.1 Sejam U e V espaços vetoriais sobre o mesmo corpo K. Uma função T : U → V é
uma transformação linear se satisfaz:

(i) T (u1 + u2 ) = T (u1 ) + T (u2 ), para todos u1 , u2 ∈ U;

(ii) T (λ u) = λ T (u), para todos u ∈ U, λ ∈ K.

Se U = V , T : U → U também é chamada de operador linear em V .

Não é difícil verificar que, T : U → V é transformação linear se, e somente se,

T (λ u1 + u2 ) = λ T (u1 ) + T (u2 ), para todos u1 , u2 ∈ U, λ ∈ K.

Observação 4.1.2 Na definição anterior, apesar de usar a mesma notação, a soma em u1 + u2 não
é a mesma de T (u1 ) + T (u2 ), se os espaços vetoriais U e V são distintos. O mesmo vale para a
multiplicação por escalar. Ficará claro pelo contexto qual é a operação em cada caso.

■Exemplo 4.1.3 Sejam U e V dois K-espaços vetoriais quaisquer. A função nula T : U → V definida
por T (u) = 0, para todo u ∈ U, é uma transformação linear (verifique).
A função identidade Id : U → U, definida por Id(u) = u, para todo u ∈ U, também é uma transformação
linear. ■

 
3 a + 2b 0
■ Exemplo 4.1.4 A função T : K → M2 (K) dada por T (a, b, c) = é uma transfor-
0 3c − b
mação linear.
70 Capítulo 4. Transformações lineares

Prova. Dados u1 = (a1 , b1 , c1 ), u2 = (a2 , b2 , c2 ) ∈ K3 , temos


 
a1 + a2 + 2(b1 + b2 ) 0
T (u1 + u2 ) =
0 3(c1 + c2 ) − (b1 − b2 )
   
a1 + 2b1 0 a2 + 2b2 0
= + = T (u1 ) + T (u2 ).
0 3c1 − b1 0 3c2 − b2
Também, dados u = (a, b, c) ∈ K3 e λ ∈ K, temos
     
λ a + 2λ b 0 λ (a + 2b) 0 a + 2b 0
T (λ u) = = =λ = λ T (u).
0 3λ c − λ b 0 λ (3c − b) 0 3c − b

■ Exemplo 4.1.5 O operador derivação D : P(R) → P(R) dado por

D(a0 + a1 x + · · · + an xn ) = (a0 + a1 x + · · · + an xn )′ = a1 + 2a2 x + · · · + nan xn−1

é linear.
Prova. Sabemos do Cálculo que, se f , g : R → R são funções deriváveis (o que é válido para funções
polinomiais), então ( f + g)′ = f ′ + g′ e (λ f )′ = λ f ′ para todo λ ∈ R. Portanto, dados p, q ∈ P(R) e
λ ∈ R, temos
D(λ p + q) = λ p′ + q′ = λ D(p) + D(q).
Logo, D é um operador linear em P(R).
O operador derivação também poderia ser definido no espaço mais geral das funções f : R → R
deriváveis. ■

■ Exemplo 4.1.6 Segue da Proposição 1.1.4 que a função T : Mn (K) → K dada por T (A) = tr (A) é
uma transformação linear. ■

■ Exemplo 4.1.7 A função T : R2 → R dada por T (x, y) = x2 + 2y, não é uma transformação linear,
pois, por exemplo, T (1, 0) = 1, mas T (2, 0) = 4 ̸= 2 = 2 T (1, 0). ■

■ Exemplo 4.1.8 Considere V = RN o espaço de sequências. A função T : V → V dada por


T (x1 , x2 , x3 , . . . ) = (x2 , x3 , x4 , . . . ) é um transformação linear em V (verifique). ■

■ Exemplo 4.1.9 Seja a ∈ K fixo. A função Ta : K → K definida por T (x) = ax para todo x ∈ K é uma
transformação linear (verifique).
Por outro lado, supondo T : K → K uma transformação linear, para todo x ∈ K temos

T (x) = T (x · 1) = x T (1).

Tomando a = T (1), segue que T = Ta . Portanto, todos os operadores lineares em K são da forma Ta ,
a ∈ K. ■

De uma modo mais geral, temos o seguinte exemplo.


■ Exemplo 4.1.10 Fixe A ∈ Mm×n (K). Considere a função TA : Kn → Km dada por TA (x) = Ax. Devido
as propriedades algébricas de matrizes (Proposição 1.1.2), TA é uma transformação linear.
Reciprocamente, se T : Kn → Km é uma transformação linear, então existe A ∈ Mm×n (K) tal que
T = TA , isto é, T (x) = Ax para todo x ∈ Km .
4.1 Conceitos básicos 71

Prova. Considere B = {e1 , e2 . . . , en } a base canônica de Kn . Escreva


     
a11 a12 a1n
T (e1 ) =  ...  , T (e2 ) =  ...  , ... , T (en ) =  ...  .
     

am1 am2 amn

Assim, a matriz A = (ai j ) ∈ Mm×n (K) tem como j-ésima coluna T (e j ). Dado x = (x1 , x2 , . . . , xn ) ∈ Kn ,
temos x = x1 e1 + x2 e2 · · · + xn en , logo

T (x) = T (x1 e1 + x2 e2 · · · + xn en ) = x1 T (e1 ) + x2 T (e2 ) · · · + xn T (en )


     
a11 a12 a1n
= x1  ...  + x2  ...  + · · · + xn  ...  = Ax,
     

am1 am2 amn

onde a última igualdade segue da Proposição 1.1.2(xiv). Além disso, concluímos que Im T = R(A) é o
espaço coluna de A (Exemplo 2.3.6). ■

■Exemplo 4.1.11 — Espaço das transformações lineares. Sejam U e V espaços vetoriais sobre K.
Se S : U → V e T : U → V são transformações lineares e λ ∈ K, então as funções:

• S + T : U → V definida por (S + T )(u) = S(u) + T (u) para todo u ∈ U;

• λ S : U → V definida por (λ S)(u) = λ S(u) para todo u ∈ U;

também são transformações lineares (verifique). Assim, se L (U,V ) é o conjunto de todas as transfor-
mações lineares de U em V , temos operações soma e multiplicação por escalar definidas nesse conjunto.
Segue das propriedades de soma e multiplicação por escalar em V , que, com essas operações, L (U,V )
é um K-espaço vetorial, onde o vetor nulo é a transformação linear nula. ■

A proposição a seguir descreve algumas propriedades mais imediatas da definição de transformação


linear. Sua demonstração será deixada como exercício para o leitor.

Proposição 4.1.12 — Propridades básicas. Sejam U e V espaços vetoriais sobre K e T : U → V


uma transformação linear. Então,

(i) T (0U ) = 0V

(ii) T (−u) = −T (u), para todo u ∈ U


!
k k
(iii) Dado k ∈ N, T ∑ αi ui = ∑ αi T (ui ), para todos αi ∈ K, ui ∈ U.
i=1 i=1

■ Exemplo 4.1.13 A função T : R2 → R2 dada por T (x, y) = (x + 1, y + 1) não é uma transformação


linear, pois T (0, 0) = (1, 1) ̸= (0, 0). ■

Teorema 4.1.14 Sejam U e V K-espaços vetoriais. Se B = {u1 , . . . , un } é base de U e {v1 , . . . , vn } ⊆


V é um subconjunto qualquer, então existe uma única transformação linear T : U → V tal que
T (ui ) = vi , i = 1, . . . , n.
72 Capítulo 4. Transformações lineares

Demonstração. Primeiro, mostremos a existência de T . Seja u ∈ U. Como B é base, existem únicos


α1 , . . . , αn ∈ K tais que
u = α1 u1 + · · · + αn un .

Defina T : U → V por
T (u) = α1 v1 + · · · + αn vn .

Segue da unicidade dos escalares α1 , . . . , αn , que cada u ∈ U possui uma única imagem T (u), ou seja,
T está bem definida. Além disso, pela definição de T , T (ui ) = vi para todo i = 1, . . . , n (neste caso
αi = 1 e α j = 0 para i ̸= j).
n n
Mostremos que T é uma transformação linear. Sejam u = ∑ αi ui , w = ∑ βi ui ∈ U (com αi , βi ∈ K) e
i=1 i=1
λ ∈ K. Então,
n n n
λ u + w = ∑ λ αi ui + ∑ βi ui = ∑ (λ αi + βi )ui .
i=1 i=1 i=1

Logo, pela definição de T ,


n n n
T (λ u + w) = ∑ (λ αi + βi )vi = λ ∑ αi vi + ∑ βi vi = λ T (u) + T (w).
i=1 i=1 i=1

Portanto, T é uma transformação linear que satisfaz T (ui ) = vi para todo i = 1, . . . , n.


Provaremos agora a unicidade de T . Suponha que S : U → V é uma transformação linear que satisfaz
n
S(ui ) = vi para todo i = 1, . . . , n. Dado u = ∑ αi ui ∈ U, como S é linear, temos
i=1
!
n n n
S(u) = S ∑ αi ui = ∑ αi S(ui ) = ∑ αi vi = T (u).
i=1 i=1 i=1

Como u ∈ U é arbitrário, segue que S = T . ■

Observação 4.1.15 Devido ao Teorema 4.1.14, se U tem dimensão finita, toda transformação linear
T : U → V fica unicamente determinada ao conhecermos a imagem de T numa base {u1 , . . . , un }
de U. Muitas vezes, ao apresentar uma transformação linear, falaremos: seja T a transformação
linear tal que T (ui ) = vi . Neste caso, considere a única extensão linear possível, de T |B : B → V para
T : U → V , dada pelo teorema anterior.

■ Exemplo 4.1.16 Seja T : R2 → R3 uma transformação linear tal que T (1, 1) = (2, 1, 2) e
T (0, 1) = (1, 1, 2). Determine explicitamente T (x, y).
Solução. Primeiramente, observe que u1 = (1, 1) e u2 = (0, 1) formam uma base de R2 . Para descrever
T (x, y), precisamos escrever o vetor genérico (x, y) ∈ R2 como combinação linear da base {u1 , u2 }.
Temos,
(x, y) = x(1, 1) + (y − x)(0, 1) para todos x, y ∈ R.

Logo,
T (x, y) = x T (1, 1) + (y − x)T (0, 1) = x(2, 1, 2) + (y − x)(1, 1, 2) = (x + y, y, 2y).


4.1 Conceitos básicos 73

■ Exemplo 4.1.17 Sabendo que T é uma transformação linear, complete o elemento que deve estar no
lugar da interrogação
T : P2 (R) −→ P3 (R)
1 + x + x2 7−→ 2
1 − 2x 7−→ x2 − 3
x2 − 2x 7−→ x3 − x
x + 1 7−→ ?
Solução. Precisamos escrever x + 1 como combinação linear de 1 + x + x2 , 1 − 2x e x2 − 2x. Escrevendo

1 + x = α(1 + x + x2 ) + β (1 − 2x) + γ(x2 − 2x) = (α + β ) · 1 + (α − 2β − 2γ)x + (α + γ)x2 ,

obtemos o sistema linear 


 α +β = 1
α − 2β − 2γ = 1 ,
α +γ = 0

3 2 3
cuja solução é α = , β = e γ = − . Portanto,
5 5 5
3 2 3 3 2 3
T (x + 1) = T (1 + x + x2 ) + T (1 − 2x) − T (x2 − 2x) = · 2 + (x2 − 3) − (x3 − x),
5 5 5 5 5 5
ou seja,
1
? = T (x + 1) = (−3x3 + 2x2 + 3x).
5

Introduzimos a seguir elementos importantes relacionados às transformações lineares.


Definição 4.1.18 Sejam U e V espaços vetoriais sobre K e T : U → V uma transformação linear.
O conjunto
{u ∈ U : T (u) = 0}
é chamado de núcleo de T e será denotado por ker T ou Nuc T . O conjunto

{v ∈ V : v = T (u) para algum u ∈ U}

é chamado de imagem de T e será denotado por Im T .

Proposição 4.1.19 Sejam U e V espaços vetoriais sobre K e T : U → V uma transformação linear.


Então,

(i) ker T é subespaço vetorial de U;

(ii) Im T é subespaço vetorial de V ;

(iii) T é injetora se, e somente se, ker T = {0};

(iv) se B é base de U, então T (B) = {T (u) : u ∈ B} gera Im T .

Demonstração. (i) Primeiro observe que 0 ∈ ker T já que, sendo T transformação linear, ocorre
T (0) = 0. Agora, dados λ ∈ K e u1 , u2 ∈ ker T , temos T (u1 ) = 0 = T (u2 ) e

T (u1 + u2 ) = T (u1 ) + T (u2 ) = 0 + 0 = 0 ⇒ u1 + u2 ∈ ker T


74 Capítulo 4. Transformações lineares

e,
T (λ u1 ) = λ T (u1 ) = λ · 0 = 0 ⇒ λ u1 ∈ ker T.
Portanto, ker T é subespaço de U.
(ii) Observe que 0 = T (0) ∈ Im T . Sejam v1 = T (u1 ), v2 = T (u2 ) ∈ Im T , com u1 , u2 ∈ U, e λ ∈ K.
Então,
v1 + v2 = T (u1 ) + T (u2 ) = T (u1 + u2 ) ∈ Im T
e
λ v1 = λ T (u1 ) = T (λ u1 ) ∈ Im T.
Portanto, Im T é subespaço de V .
(iii) Suponha que T é injetora. Mostremos que ker T = {0}. A inclusão {0} ⊆ ker T ocorre sempre.
Seja, agora, u ∈ ker T . Então, T (u) = 0 = T (0). Como T é injetora, segue que u = 0. Portanto,
ker T = {0}.
Reciprocamente, suponha ker T = {0}. Mostremos que T é injetora. Sejam u1 , u2 ∈ U tais que
T (u1 ) = T (u2 ). Então,

T (u1 − u2 ) = T (u1 ) − T (u2 ) = 0 − 0 = 0 ⇒ u1 − u2 ∈ ker T = {0} ⇒ u1 − u2 = 0 ⇒ u1 = u2 .

(iv) Como Im T é subespaço e T (B) ⊆ Im T , segue que [T (B)] ⊆ Im T . Mostremos, agora, que
Im T ⊆ [T (B)]. Seja v ∈ Im T . Então, existe u ∈ U tal que T (u) = v. Sendo B uma base de U, existem
u1 , . . . , un ∈ B, λ1 , . . . , λn ∈ K tais que

u = λ1 u1 + · · · + λn un .

Daí,
T (u) = T (λ1 u1 + · · · + λn un ) = λ1 T (u1 ) + · · · + λn T (un ) ∈ [T (B)].
Portanto, [T (B)] = Im T . ■

■ Exemplo 4.1.20 Considere a transformação linear T : R3 → R3 dada por T (x, y, z) = (x − y, z, x +


z − y). Determine ker T e Im T .
Solução. Começamos com o núcleo de T :

T (x, y, z) = 0 ⇔ (x − y, z, x + z − y) = (0, 0, 0) ⇔ x − y = z = x + z − y = 0 ⇔ x = y e z = 0.

Assim, (x, y, z) ∈ ker T se, e somente se,

(x, y, z) = (x, x, 0) = x(1, 1, 0) ∈ [(1, 1, 0)].

Portanto, ker T = [(1, 1, 0)]. Para a imagem de T , considere a base B = {e1 , e2 , e3 } canônica de R3 .
Pela Proposição 4.1.19, T (B) gera Im T . Temos

T (e1 ) = (1, 0, 1), T (e2 ) = (−1, 0, −1), T (e3 ) = (0, 1, 1).

Logo, Im T = [(1, 0, 1), (−1, 0, −1), (0, 1, 1)]. Como (−1, 0, −1) = −(1, 0, 1), podemos eliminar esse
vetor do conjunto gerador sem prejuízo. Assim,

Im T = [(1, 0, 1), (0, 1, 1)].

Esse último conjunto gerador é LI, portanto forma uma base de Im T . ■


4.1 Conceitos básicos 75

■ Exemplo 4.1.21 Considere a transformação linear T : C2 → R3 dada por T (a + bi, c + di) = (2a +
c + d, a + b + c, −2b − c + d), onde a, b, c, d ∈ R e C2 é visto como R-espaço vetorial. Determine ker T
e Im T .
Solução. Começaremos por ker T . Temos

 2a + c + d = 0
T (a + bi, c + di) = 0 ⇔ (2a + c + d, a + b + c, −2b − c + d) = (0, 0, 0) ⇔ a+b+c = 0 .
−2b − c + d = 0

A resolução desse sistema linear homogêneo com 3 equações e 4 variáveis será deixada como exercício.
O conjunto solução pode ser expressado na forma

{(a, b, −a − b, b − a) : a, b ∈ R} = {a(1, 0, −1, −1) + b(0, 1, −1, 1) : a, b ∈ R}

= [(1, 0, −1, −1), (0, 1, −1, 1)].


Portanto,
ker T = [(1, −1 − i), (i, −1 + i)].
Para obter um conjunto gerador para Im T , encontraremos T (B), onde B = {(1, 0), (i, 0), (0, 1), (0, i)} é
a base canônica de C2 como R-espaço vetorial. Temos,

T (1, 0) = (2, 1, 0), T (i, 0) = (0, 1, −2), T (0, 1) = (1, 1, −1), T (0, i) = (1, 0, 1).

Daí,

Im T = [(2, 1, 0), (0, 1, −2), (1, 1, −1), (1, 0, 1)]. (4.1)

Essa descrição já determina o subespaço Im T . Se quiséssemos encontrar uma base para Im T , po-
deríamos, por exemplo, utilizar as ideias da Seção 2.8. O Teorema do Núcleo e Imagem, que será
apresentado a seguir, garante que dim(Im T ) = 2. Portanto, são necessários apenas 2 dos 4 vetores em
(4.1) para gerar Im T . ■

Teorema 4.1.22 — do Núcleo e Imagem. Sejam U e V espaços vetoriais sobre K, com dim(U) =
n (finita) e T : U → V uma transformação linear. Então,

dimU = dim(ker T ) + dim(Im T ).

Demonstração. Considere, inicialmente, ker T ̸= {0} ̸= Im T . Sejam B1 = {u1 , . . . , uk } uma base de


ker T e B2 = {T (w1 ), . . . , T (wm )} uma base de Im T . Mostremos que B = {u1 , . . . , uk , w1 , . . . , wm } é
base de U. Para mostrar que B é LI, considere α1 , . . . , αk , β1 , . . . , βm ∈ K tais que

α1 u1 + · · · + αk uk + β1 w1 + · · · + βm wm = 0.

Assim,
T (α1 u1 + · · · + αk uk + β1 w1 + · · · + βm wm ) = T (0) = 0.
Como α1 u1 + · · · + αk uk ∈ ker T , temos T (α1 u1 + · · · + αk uk ) = 0. Logo

T (α1 u1 + · · · + αk uk + β1 w1 + · · · + βm wm ) = β1 T (w1 ) + · · · + βm T (wm ) = 0.

Mas B2 é base, portanto é LI e segue que

β1 = · · · = βm = 0.
76 Capítulo 4. Transformações lineares

Daí,
α1 u1 + · · · + αk uk = α1 u1 + · · · + αk uk + β1 w1 + · · · + βm wm = 0.
Como B1 é base, é LI, logo segue que

α1 = · · · = αk = 0.

Portanto, B é LI.
Mostremos agora que [B] = U. A inclusão [B] ⊆ U é imediata. Para provar a inclusão contrária, seja
u ∈ U. Como T (u) ∈ Im T = [B2 ], existem β1 , . . . , βm ∈ K tais que

T (u) = β1 T (w1 ) + · · · + βm T (wm ) = T (β1 w1 + · · · + βm wm ).

Assim,

T (u − (β1 w1 + · · · + βm wm )) = T (u) − T (β1 w1 + · · · + βm wm ) = 0 ⇒ u − (β1 w1 + · · · + βm wm ) ∈ ker T.

Mas ker T = [B1 ], logo, existem α1 , . . . , αk ∈ K tais que

u − (β1 w1 + · · · + βm wm ) = α1 u1 + · · · + αk uk ⇒ u = α1 u1 + · · · + αk uk + β1 w1 + · · · + βm wm ∈ [B].

Portanto B gera U, logo é base de U, e assim concluímos o teorema.


Se ker T = {0}, prova-se analogamente que, se B2 = {T (w1 ), . . . , T (wm )} é uma base de Im T , então
B = {w1 , . . . , wm } é base de U.
Se Im T = {0}, então dim(Im T ) = 0 e T (u) = 0 para todo u ∈ U, donde segue que ker T = U. ■

Observação 4.1.23 Se U e V possuem dimensão finita, segue do Teorema 4.1.22 que:

(i) se dimU > dimV , então não existe T : U → V linear e injetora.

(ii) se dimU < dimV , então não existe T : U → V linear e sobrejetora.

■ Exemplo 4.1.24 Considere a (única) transformação linear T : R3 → P3 (R) tal que T (1, 0, 1) =
2 + x2 + x3 , T (0, 1, 0) = 1 + x2 , T (0, 0, 1) = x2 − x3 . Determine dim(ker T ) e dim(Im T ).
Solução. É fácil ver que B = {(1, 0, 1), (0, 1, 0), (0, 0, 1)} é uma base de R3 . Portanto, T (B) =
{2 + x2 + x3 , 1 + x2 , x2 − x3 } gera Im T . Vejamos se T (B) é LI. Colocando as coordenadas de seus
vetores em relação à base canônica de P3 (R) numa matriz (já trocando de posição as duas primeiras
linhas) e escalonando, obtemos
     
1 0 1 0 1 0 1 0 1 0 1 0
(L2 ← L2 −2L1 ) (L3 ← L3 +L2 )
 2 0 1 1  ∼  0 0 −1 1  ∼  0 0 −1 1  .
0 0 1 −1 0 0 1 −1 0 0 0 0

Ou seja, T (B) é LD e o terceiro vetor x2 − x3 pode ser obtido como combinação linear dos outros
dois. Portanto, uma base para Im T é {1 + x2 , 2 + x2 + x3 } e dim(Im T ) = 2. Pelo Teorema do Núcleo e
Imagem,

3 = dimU = dim(ker T ) + dim(Im T ) = dim(ker T ) + 2 ⇒ dim(ker T ) = 1.


4.2 Isomorfismos e Teorema da Invariância 77

4.2 Isomorfismos e Teorema da Invariância


Nesta seção, introduziremos o conceito de isomorfismo entre espaços vetoriais. Dois espaços
isomorfos, do ponto de vista da álgebra linear, são essencialmente o mesmo espaço, pois compartilham
as mesmas propriedades de espaços vetoriais, o que muda é apenas a aparência dos seus elementos.
Definição 4.2.1 Sejam U e V espaços vetoriais sobre o mesmo K.

(i) Dizemos que uma transformação linear T : U → V é um isomorfismo se T for bijetora. Se


U = V , um isomorfismo T : U → U também é chamado de automorfismo.

(ii) Dizemos que U e V são isomorfos se existe um isomorfismo T : U → V . Neste caso, denota-
mos U ∼
= V.

■ Exemplo 4.2.2 A função identidade Id : U → U, definida por Id(u) = u, para todo u ∈ U, é um


isomorfismo. ■

■ Exemplo 4.2.3 A transformação linear T : R2 → P1 (R) dada por T (a, b) = a + (a + b)x é um


isomorfimo.
Prova. Observe que

T (a, b) = 0 ⇔ a = 0 e a + b = 0 ⇔ a = b = 0 ⇔ (a, b) = (0, 0).

Portanto, ker T = {0}, o que implica T injetora. Pelo Teorema do Núcleo e Imagem,

2 = dim R2 = dim(ker T ) + dim(Im T ) = 0 + dim(Im T ).

Logo, dim(Im T ) = 2 = dim P1 (R). Portanto Im T = P1 (R), o que implica T sobrejetora.


Assim, T é um isomorfismo e R2 ∼= P1 (R). ■

■ Exemplo 4.2.4 Para todo n ∈ N, Pn (K) ∼


= Kn+1 .
Prova. Deixaremos como exercício a verificação de que a função T : Pn (K) → Kn+1 , definida por

T (a0 + a1 x + · · · + an xn ) = (a0 , a1 , . . . , an ),

é um isomorfismo. ■

Observe nos exemplos anteriores que os espaços isomorfos possuem a mesma dimensão. Isso não é
uma coincidência! Veremos nesta seção que dois espaços vetoriais são isomorfos se, e somente se, eles
possuem a mesma dimensão. Com isso, ficará caracterizado o chamado Teorema da Invariância, o qual
afirma que a diferença entre dois espaços vetoriais é, basicamente, a sua dimensão.

Proposição 4.2.5 Se T : U → V é uma transformação linear injetora, então T leva todo conjunto LI
em U num conjunto LI em V .

Demonstração. Seja S ⊆ U um conjunto LI. Mostremos que T (S) = {T (u) : u ∈ S} é LI em V . Suponha


que u1 , . . . , um ∈ U e α1 , . . . , αn ∈ K são tais que

α1 T (u1 ) + · · · + αn T (un ) = 0.

Então, como T é linear,

T (α1 u1 + · · · + αn un ) = 0 ⇒ α1 u1 + · · · + αn un ∈ ker T = {0},


78 Capítulo 4. Transformações lineares

pois T é injetora. Assim, α1 u1 + · · · + αn un = 0, e como S é LI, segue que

α1 = · · · = αn = 0.

Como consequência, já podemos concluir a primeira parte do Teorema da Invariância.

Proposição 4.2.6 Se U ∼
= V , então dimU = dimV .

Demonstração. Como U ∼
= V , existe T : U → V isomorfismo.
Se dimU = ∞, então, existe S ⊆ U, LI e infinito. Como T é injetora, T (S) é infinito e, pela Proposição
4.2.5, T (S) é LI. Logo dimV = ∞.
Suponha agora dimU finita. Pelo Teorema do Núcleo e Imagem,

dimU = dim(ker T ) + dim(Im T ) = 0 + dim(Im T ) = dim(Im T ).

Mas, por hipótese, T é sobrejetora. Logo Im T = V , donde segue que dimU = dim(Im T ) = dimV . ■

Proposição 4.2.7 Sejam U e V K-espaços vetoriais de mesma dimensão finita n e T : U → V uma


transformação linear. São equivalentes:

(i) T é injetora;

(ii) T é sobrejetora;

(iii) T é isomorfismo.

Demonstração. [(i) ⇒ (ii)] T injetora ⇒ ker T = {0} ⇒ dim(ker T ) = 0. Pelo Teorema do Núcleo
e Imagem, n = dimU = dim(Im T ). Logo, Im T é um subespaço de V com a mesma dimensão de V ,
portanto Im T = V .
[(ii) ⇒ (iii)] T sobrejetora ⇒ Im T = V . Logo, pelo Teorema do Núcleo e Imagem,

n = dimU = dim(ker T ) + dim(Im T ) = dim(ker T ) + n

donde segue que dim(ker T ) = 0, o que implica ker T = {0}. Portanto, T é injetora, logo é isomorfismo.
[(iii) ⇒ (i)] Óbvio. ■

Observação 4.2.8 A Proposição 4.2.7 não é verdadeira se dimU = ∞. Por exemplo, o operador
derivação D : P(R) → P(R) não é injetor, pois 0 ̸= 1 ∈ ker D, mas D é sobrejetor (verifique).

Proposição 4.2.9 Sejam U e V K-espaços vetoriais de mesma dimensão finita n ≥ 1. São equiva-
lentes:

(i) T é isomorfismo;

(ii) T leva qualquer base de U numa base de V ;


4.2 Isomorfismos e Teorema da Invariância 79

(iii) existe uma base B de U tal que T (B) é base de V .

Demonstração. [(i) ⇒ (ii)] Seja B = {u1 , . . . , un } uma base qualquer de V . Como T é injetora,
#T (B) = n e, pela Proposição 4.2.5, T (B) é LI. Assim, T (B) ⊆ V é um suconjunto LI com n = dimV
elementos, portanto T (B) é base de V .
[(ii) ⇒ (iii)] Óbvio.
[(iii) ⇒ (i)] Seja B uma base de U tal que T (B) é base de V . Então, [T (B)] = V . Por outro lado, pela
Proposição 4.1.19, [T (B)] = Im T . Logo, Im T = V e T é sobrejetora. O resultado agora segue da
Proposição 4.2.7. ■

■ Exemplo 4.2.10 Verifique se a transformação linear T : M2 (R) → R4 definida por


 
a b
T = (2b − c + d, a + c + 3d, 2b + 4c + d, 3c)
c d

é um isomorfismo.
Solução. Considere B = {E11 , E12 , E21 , E22 } a base canônica de M2 (R). Temos,

T (E11 ) = (0, 1, 0, 0), T (E12 ) = (2, 0, 2, 0), T (E21 ) = (−1, 1, 4, 3), T (E22 ) = (1, 3, 1, 0).

Observe que
2 T (E22 ) − 6 T (E11 ) = T (E12 ),
portanto T (B) é LD, logo não é base de R4 . Pela Proposição 4.2.9, T não é isomorfismo. ■

Teorema 4.2.11 — Teorema da Invariância. Sejam U e V dois K-espaços vetoriais de dimensão


finita. Então, U ∼
= V se, e somente se, dimU = dimV .

Demonstração. A implicação U ∼
= V ⇒ dimU = dimV segue da Proposição 4.2.6 e é válida mesmo
para dimensão infinita.
Vamos provar a recíproca. Se dimU = dimV = 0, então ambos são espaços com apenas 1 vetor (o nulo)
e a única função que pode ser definida entre eles é um isomorfismo. Suponha dimU = dimV = n ≥ 1.
Sejam B = {u1 , . . . , un } uma base de U e C = {v1 , . . . , vn } uma base de V . Considere T : U → V a única
transformação linear tal que T (ui ) = vi , i = 1, . . . , n. Em particular, T (B) = C é base de V , e portanto
T leva uma base de U numa base de V . Pela Proposição 4.2.9, T é isomorfismo. ■

Proposição 4.2.12 Sejam U e V K-espaços vetoriais e T : U → V um isomorfismo. Então,


T −1 : U → V também é um isomorfismo.

Demonstração. Como T : U → V é isomorfismo, T é bijetora, e portanto inversível. Por propriedades de


funções, a função inversa T −1 : V → U também é bijetora. Resta mostrar que T −1 é uma transformação
linear. De fato, sejam v1 , v2 ∈ V e λ ∈ K. Vamos mostrar que T −1 (λ v1 + v2 ) = λ T −1 (v1 ) + T −1 (v2 ).
Sejam u1 , u2 ∈ U tais que T (u1 ) = v1 e T (u2 ) = v2 . Então, usando que T é linear,

T −1 (λ v1 + v2 ) = T −1 (λ T (u1 ) + T (u2 )) = T −1 (T (λ u1 + u2 )) = T −1 ◦ T (λ u1 + u2 )

= λ u1 + u2 = λ T −1 (v1 ) + T −1 (v2 ).

80 Capítulo 4. Transformações lineares

4.3 Matriz de uma transformação linear


Dados dois espaços vetoriais de dimensão finita e uma transformação linear entre eles, introdu-
ziremos o conceito de matriz dessa transformação. Em posse disso, será possível descrever essa
transformação como multiplicação de vetores por uma matriz fixa, assim como no Exemplo 4.1.10.
Além disso, veremos com traduzir propriedades de uma transformação linear em termos de propriedades
matriciais, o que trará um ganho computacional.
Sejam U e V dois K-espaços vetoriais de dimensão finita, com dimU = n ≥ 1 e dimV = m ≥ 1, e
T : U → V uma transformação linear.
Fixe B = {u1 , . . . , un } uma base ordenada para U e C = {v1 , . . . , vm } uma base ordenada para V .
Para cada j = 1, . . . , n, escreva T (u j ) como combinação linear dos vetores de C:
m
T (u j ) = a1 j v1 + · · · + am j vm = ∑ ai j vi . (4.2)
i=1

Lembre que os escalares ai j são únicos.


A matriz (ai j ) ∈ Mm×n (K) é chamada de matriz da transformação linear T em relação às bases B
e C e será denotada por [T ]BC . No caso de U = V e B = C denotamos [T ]BC simplesmente por [T ]B .
Note que, a j-ésima coluna de [T ]BC é exatamente [T (u j )]C (coordenadas de T (u j ) na base C).
Seja u ∈ U. Suponha que [u]B = (α1 , . . . , αn ) e [T (u)]C = (β1 , . . . , βm ), isto é,
n m
u = α1 u1 + · · · + αn un = ∑ α ju j e T (u) = β1 v1 + · · · + βm vm = ∑ βi vi .
j=1 i=1

Por outro lado, como T é linear, temos


! ! !
n n n m n m m n
(4.2)
T (u) = T ∑ α ju j = ∑ α j T (u j ) = ∑ α j ∑ ai j vi = ∑ ∑ (α j ai j )vi = ∑ ∑ ai j α j vi .
j=1 j=1 j=1 i=1 j=1 i=1 i=1 j=1

Como os escalares da combinação linear dos vetores de uma base são únicos, temos
n
βi = ∑ ai j α j = ai1 α1 + · · · + ain αn , para todo i = 1, . . . , m.
j=1

Em notação matricial, segue que


    
β1 a11 · · · a1n α1
 ..   .. ..   ..  .
 . = . . .
βm am1 · · · amn αn
| {z } | {z } | {z }
[T (u)]C [T ]BC [u]B

Ou seja, a matriz da transformação linear satisfaz

[T (u)]C = [T ]BC [u]B , para todo u ∈ U. (4.3)

Além disso, se M = (bi j ) ∈ Mm×n (K) satisfaz [T (u)]C = M[u]B , para todo u ∈ U, substituindo
u = u j , j = 1, . . . , n, obtém-se que bi j = ai j para todos i, j (verifique). Ou seja, M = [T ]BC . Portanto, a
matriz da transformação T em relação às bases B e C é a única matriz que satisfaz (4.3).
4.3 Matriz de uma transformação linear 81

■ Exemplo 4.3.1 Seja T : R2 → R3 a transformação linear dada por

T (x, y) = (−2y, 4x + y, 5y − 3x).

Considerando B e C as bases canônicas de R2 e R3 , respectivamente, temos,

T (1, 0) = (0, 4, −3) = (0, 4, 3)C e T (0, 1) = (−2, 1, 5) = (−2, 1, 5)C .

Portanto,  
0 −2
[T ]BC =  4 1  .
3 5
Note que, se considerarmos os elementos de R2 e R3 como vetores colunas, temos T (v) = [T ]BC · v
para todo v ∈ R2 , ou seja, T = TA , com A = [T ]BC (Exemplo 4.1.10). Isso ocorre porque estamos
considerando as bases canônicas, e daí os vetores se confundem com as próprias coordenadas.
Considere agora as bases B = {(1, 1), (2, 0)} e C = {(1, 0, −1), (0, 0, 4), (0, 2, 1)}. Então,

T (1, 1) = (−2, 5, 2) e T (2, 0) = (0, 8, −6).

Agora,
 
5 5 5 5
(−2, 5, 2) = −2(1, 0, −1) − (0, 0, 4) + (0, 2, 1) ⇒ [T (1, 1)]C = −2, − , ,
8 2 8 2
e  
5 5
(0, 8, −6) = 0 (1, 0, −1) − (0, 0, 4) + 4(0, 2, 1) ⇒ [T (2, 0)]C = 0, − , 4
2 2
Portanto,  
−2 0
[T ]BC =  −5/8 −5/2  .
5/2 4
Neste caso, não é verdade que T (v) = [T ]BC · v para todo v ∈ R2 , mas sim a relação dada em (4.3). ■

■ Exemplo 4.3.2 Seja A ∈ Mm×n (K). Considere a transformação linear TA : Kn → Km dada por
TA (x) = Ax (Exemplo 4.1.10). Se B é a base canônica de Kn e C é a base canônica de Km , então

[TA ]BC = A.

Prova. Basta observar que, se A j é a j-ésima coluna de A, então para cada e j ∈ B,

[T (e j )]C = T (e j ) = Ae j = A j .

Lembre que, em relação à base canônica C, todo vetor de Km é igual ao seu vetor de coordenadas. ■

■ Exemplo 4.3.3 Considere a (única) transformação linear T : R3 → P3 (R) tal que T (1, 0, 1) =
2 + x2 + x3 , T (0, 1, 0) = 1 + x2 , T (0, 0, 1) = x2 − x3 , dada no Exemplo 4.1.24. Se B e C são as bases
canônicas de R3 e P3 (R), respectivamente, determine [T ]BC .
Solução. Temos,

T (1, 0, 0) = T (1, 0, 1) − T (0, 0, 1) = 2 + x2 + x3 − x2 + x3 = 2 + 2x3 ,


82 Capítulo 4. Transformações lineares

e T (0, 1, 0) e T (0, 0, 1) já foram dados. Logo,


 
2 1 0
 0 0 0 
[T ]BC = 
 0
.
1 1 
2 0 −1

■ Exemplo 4.3.4 Seja U um espaço vetorial de dimensão finita. Considere a transformação identidade
Id : U → U, que é dada por Id(u) = u para todo u ∈ U. Dadas duas bases B e C de U, a matriz dessa
transformação [Id]BC é exatamente a matriz de mudança de base MBC de B para C (verifique). ■

Fixadas as bases B e C dos espaços vetoriais U e V , respectivamente, para qualquer transformação


linear T : U → V está associada uma única matriz [T ]BC . O resultado a seguir enuncia a recíproca desse
fato: dada uma matriz qualquer, pode-se definir unicamente a transformação linear associada.

Proposição 4.3.5 Sejam U e V dois espaços vetoriais de dimensão finita sobre K, com dimU = n e
dimV = m. Dadas B e C bases de U e V , respectivamente, e uma matriz A ∈ Mm×n (K), existe uma
única transformação linear T : U → V tal que [T ]BC = A.

Demonstração. Escreva B = {u1 , . . . , un }, C = {v1 , . . . , vm } e


 
a11 · · · a1n
A =  ... ..  .

. 
am1 · · · amn

Considere T : U → V a única transformação linear tal que

T (u j ) = a1 j v1 + · · · + am j vm , j = 1, . . . n.

Segue da definição de matriz de transformação que [T ]BC = A. ■

Proposição 4.3.6 Sejam U e V dois K-espaços vetoriais de dimensão finita e B e C bases de U e V ,


respectivamente. Dadas S, T : U → V transformações lineares e λ ∈ K, tem-se

[S + T ]BC = [S]BC + [T ]BC e [λ S]BC = λ [S]BC .

Demonstração. Exercício. ■

A proposição a seguir nos fornece a dimensão do espaço das transformações lineares L (U,V )
(Exemplo 4.1.11), no caso de U e V serem espaços de dimensão finita.

Proposição 4.3.7 Sejam U e V dois K-espaços vetoriais de dimensão finita, digamos dimU = n e
dimV = m. Então, L (U,V ) ∼
= Mm×n (K). Em particular, dim L (U,V ) = m n.

Demonstração. Fixe B uma base ordenada de U e C uma base ordenada de V . Considere a função
ϕ : L (U,V ) → Mm×n (K) definida por

ϕ(T ) = [T ]BC para toda T ∈ L (U,V ).


4.3 Matriz de uma transformação linear 83

Primeiramente, note que ϕ está bem definida, pois dada uma transformação linear T : U → V ,
[T ]BC ∈ Mm×n (K) é única. Segue da Proposição 4.3.6 que ϕ é uma transformação linear. Além
disso, pela Proposição 4.3.5, ϕ é sobrejetora.
Resta provar que ϕ é injetora, ou equivalentemente, ker ϕ = {0}.
Seja T ∈ ker ϕ. Então, [T ]BC é a matriz nula. Escrevendo B = {u1 , . . . , un }, para cada j = 1, . . . , n, a
j-ésima coluna de [T ]BC é [T (u j )]C = 0, donde segue que T (u j ) = 0. Como T (B) gera Im T , segue
que Im T = {0}, logo T = 0.
Portanto, ϕ é um isomorfismo. ■

Dados U,V,W espaços vetoriais sobre o mesmo K, e, S : U → V e T : V → W transformações


lineares, não é difícil verificar que a função composta T ◦ S : U → W é uma transformação linear. A
proposição a seguir descreve como a matriz da composta se relaciona com as matrizes de S e T .

Proposição 4.3.8 Sejam U,V,W K-espaços vetoriais de dimensão finita, e, B, C, D bases de U,V,W ,
respectivamente. Sejam S : U → V e T : V → W duas transformações lineares, então

[T ◦ S]BD = [T ]CD [S]BC .

Demonstração. Seja u ∈ U. Aplicando (4.3) duas vezes, temos

[T ]CD [S]BC [u]B = [T ]CD [S(u)]C = [T (S(u))]D = [T ◦ S(u)]D .

Assim, a matriz M = [T ]CD [S]BC satisfaz [T ◦ S(u)]D = M[u]B para todo u ∈ U. Pela unicidade dessa
propriedade, segue que
M = [T ]CD [S]BC = [T ◦ S]BD .

Corolário 4.3.9 Sejam U e V dois K-espaços vetoriais de mesma dimensão finita n ≥ 1, B e C bases
de U e V , respectivamente. Uma transformação linear T : U → V é um isomorfismo se, e somente
se, [T ]BC for não singular.
Nesse caso,
T CB = ([T ]BC )−1 .
 −1 

Demonstração. Suponha que T é isomorfismo. Então, T é inversível e T −1 ◦ T = IdU . Pela Proposição


4.3.8, temos
[T −1 ]CB [T ]BC = [T −1 ◦ T ]B = [IdU ]B = I (matriz identidade).
Portanto, [T ]BC é inversível e ([T ]BC )−1 = [T −1 ]CB .
Reciprocamente, suponha [T ]BC inversível. Então, existe uma matriz A ∈ Mn (K) tal que

A[T ]BC = [T ]BC A = I.

Mostremos que ker T = {0}. Seja u ∈ U tal que T (u) = 0. Então

[T ]BC [u]B = [T (u)]C = 0 ⇒ A[T ]BC [u]B = A · 0 = 0 ⇒ I[u]B = 0 ⇒ [u]B = 0 ⇒ u = 0.

Logo, T é injetora. Como U e V têm a mesma dimensão, segue que T é isomorfismo. ■


84 Capítulo 4. Transformações lineares

■ Exemplo 4.3.10 Considere a transformação linear T : R2 → P1 (R) dada por T (a, b) = (a + 2b) +
(4a − b)x. Mostre que T é um isomorfismo e determine T −1 .
Solução. Considere B = {e1 , e2 } ⊆ R2 e C = {1, x} ⊆ P1 (R) as bases canônicas. Temos,
 
1 2
T (e1 ) = 1 + 4x e T (e2 ) = 2 − x ⇒ [T ]BC = .
4 −1

Note que det[T ]BC = −9 ̸= 0, logo [T ]BC é não singular. Pelo Corolário 4.3.9, T é isomorfismo e
   
 −1  −1 1 −1 −2 1/9 2/9
T CB = ([T ]BC ) = − = .
9 −4 1 4/9 −1/9

A partir da matriz T −1 CB é possível determinar T −1 (a + bx) explicitamente. Temos,


 

    
−1 1/9 2/9 a (a + 2b)/9
(a + bx)]B = T −1 CB [a + bx]C =
 
[T = .
4/9 −1/9 b (4a − b)/9

Logo,  
−1 a + 2b 4a − b a + 2b 4a − b
T (a + bx) = e1 + e2 = , .
9 9 9 9

Para finalizar essa seção, apresentamos a relação entre matrizes de um mesmo operador em relação
à bases distintas.
Definição 4.3.11 Duas matrizes A, B ∈ Mn (K) são ditas semelhantes se existe uma matriz
P ∈ Mn (K) não singular tal que
B = P−1 AP.

Proposição 4.3.12 Sejam V um K-espaço vetorial de dimensão finita n ≥ 1 e T : V → V um


operador linear. Se B e C são duas bases de V , então
−1
[T ]B = MCB [T ]C MBC = MBC [T ]C MBC .

Em particular, as matrizes [T ]B e [T ]C são semelhantes.

Demonstração. Vamos considerar a composição de T com a transformação identidade Id : U → U,


alternando as bases B para o domínio e C para o contradomínio, e vice-versa. Pela Proposição 4.3.8,
temos
[T ]B = [Id ◦T ◦ Id]B = [Id ◦T ]CB [Id]BC = [Id]CB [T ]C [Id]BC .
−1
Pelo Exemplo 4.3.4, [Id]BC = MBC e [Id]CB = MCB = MBC , donde segue o resultado. ■

4.4 Posto
Definição 4.4.1 Dada uma transformação linear T : U → V , o posto de T é definido por dim(Im T ).

Relacionaremos o posto de uma transformação linear entre espaços de dimensão finita, com o posto
de sua matriz. Lembre-se que o espaço coluna de uma matriz, R(A), foi definido no Exemplo 2.3.6.
4.4 Posto 85

Definição 4.4.2 Seja A ∈ Mm×n (K).

(i) O posto coluna de A é definido como sendo a dimensão do subespaço R(A) de Km , gerado
pelas colunas de A.

(ii) O posto linha de A é definido como sendo dimensão do subespaço R(A⊤ ) de Kn , gerado pelas
linhas de A.

Ou seja, o posto coluna de A é o número de colunas LI que A possui. E o posto linha de A é o


número de linhas LI.
 
4 0 1 8
■ Exemplo 4.4.3 Determine o posto linha e o posto coluna da matriz A = .
3 5 2 6
Solução. Como as linhas não são múltiplas escalares, elas são LI. Portanto o posto linha de A é igual a
2.
Em relação ao posto coluna, como as colunas de A são vetores em R2 , a dimensão de R(A) é no máximo
2. Não é difícil verificar que, por exemplo, as duas primeiras colunas de A são LI. Portanto o posto
coluna de A também é 2. ■

No exemplo anterior, o posto linha e o posto coluna da matriz A são iguais. Isso não é coincidência,
como será provado adiante.

Observação 4.4.4 Como explicado no Procedimento 2.8.1, se forem feitas operações elementares
nas linhas de uma matriz A, o espaço linha da nova matriz A′ é o mesmo espaço linha de A. Em
particular, esses espaços possuem a mesma dimensão. Além disso, se fizermos operações elementares
sobre as linhas de A e obtivermos uma matriz R escalonada (ou escalonada reduzida), o posto linha
de A será exatamente o número de linhas não nulas de R.

■ Exemplo 4.4.5 Determine o posto linha da matriz


 
1 2 0 0 −1
 2 4 1 0 2 
A=
 0
.
0 3 0 12 
4 8 −1 1 −6
Solução. Escalonaremos a matriz dada. Aplicando as operações elementares:
1
L2 ← L2 − 2L1 , L3 ← L3 , L4 ← L4 − 4L1 ,
3
obtemos  
1 2 0 0 −1
 0 0 1 0 4 
 .
 0 0 1 0 4 
0 0 −1 1 −2
Aplicando agora as operações elementares:

L3 ← L3 − L2 , L4 ← L4 + L2 ,

obtemos  
1 2 0 0 −1
 0 0 1 0 4 
 .
 0 0 0 0 0 
0 0 0 1 2
86 Capítulo 4. Transformações lineares

Trocando as duas últimas linhas de posição, obtemos uma forma escalonada R (que é reduzida) da
matriz A. Como R possui 3 linhas não nulas, o posto linha de R, que é igual ao posto linha de A, é 3. ■

Proposição 4.4.6 Sejam U e V dois K-espaços vetoriais de dimensão finita, B e C bases de U e V ,


respectivamente. Dada uma transformação linear T : U → V , o posto de T é igual ao posto coluna de
[T ]BC .

Demonstração. Se B = {u1 , . . . , un }, então Im T = [T (u1 ), . . . , T (un )]. Logo, o posto de T , é igual


a dimensão do subespaço gerado por T (u1 ), . . . , T (un ). Por outro lado, as colunas de [T ]BC são
exatamente [T (u1 )]C , . . . , [T (un )]C e o posto coluna de [T ]BC é a dimensão do subespaço gerado por
esses vetores. Segue da Proposição 2.7.3 que T (u j ) ∈ [{T (u1 ), . . . , T (un )} \ {T (u j )}] se, e somente
se, [T (u j )]C ∈ [{[T (u1 )]C , . . . , [T (un )]C } \ {[T (u j )]C }]. Daí, não é difícil concluir que as dimensões de
Im T e R([T ]BC ) são iguais. ■

Lema 4.4.7 Sejam A ∈ Mm×n (K), B ∈ Mm×p (K) e C ∈ M p×n (K) tais que A = BC. Então, o posto
coluna de A é menor ou igual ao posto coluna de B.

Demonstração. Considere as transformações lineares TA : Kn → Km , TB : K p → Kn e TC : Kn → K p .


Pelo Exemplo 4.3.2, as matrizes de TA , TB , TC em relação às bases canônicas são exatamente A, B,C,
respectivamente. Pela Proposição 4.3.8 junto com a hipótese A = BC, temos que TA = TB ◦ TC . Agora,
não é difícil verificar que dim(Im TA ) ≤ dim(Im TB ), pois Im TA = Im (TB |Im TC ). Por fim, segue da
Proposição 4.4.6 que o posto coluna de A é menor ou igual ao posto coluna de B. ■

Teorema 4.4.8 — Teorema do Posto. Seja A ∈ Mm×n (K). Então, o posto linha de A é igual ao
posto coluna de A.

Demonstração. Seja p ≤ n o posto coluna de A e q ≤ m o posto linha de A.


Considere A j ∈ Mm×1 (K) a j-ésima coluna de A. Então, o espaço coluna R(A) = [A1 , . . . , An ] tem
dimensão p. Considere {B1 , . . . , B p } ⊆ Mm×1 (K) uma base de R(A). Assim, para cada j = 1, . . . , n,
existem α1 j , . . . , α p j ∈ K tais que

A j = α1 j B1 + · · · + α p j B p . (4.4)

Considere B ∈ Mm×p (K) a matriz cujas colunas são B1 , . . . , B p e C = (αk j ) ∈ Mp×n (K), onde os αk j
são dados por (4.4). Segue de (4.4) que
   
α11 · · · α1n
 
α1 j | |
A j = B  ...  para todo j = 1, . . . , n ⇒ A =  A1 · · · An  = B  ... ..  = BC.
  
. 
αp j | | α p1 · · · α pn

Além disso, A⊤ = C⊤ B⊤ . Pelo Lema 4.4.7, temos

q = posto linha de A = posto coluna de A⊤ ≤ posto coluna de C⊤ = posto linha de C ≤ p,

pois C possui p linhas. Assim, provamos que q ≤ p.


Repetindo todo o argumento anterior, iniciando com A⊤ e com o seu posto coluna (que igual ao posto
linha de A), prova-se que p ≤ q, donde segue o resultado desejado. ■

De agora em diante, denotaremos por posto(A) o posto linha ou coluna de A.


4.4 Posto 87

Exercício 4.1 Sejam T : U → V e S : V → W transformações lineares, com U, V e W de dimensão


finita. Prove as afirmações a seguir.

(i) posto(S ◦ T ) ≤ posto(S).

(ii) posto(S ◦ T ) ≤ posto(T ).

(iii) Se S é injetiva, então posto(S ◦ T ) = posto (T ).

(iv) Se T é sobrejetiva, então posto(S ◦ T ) = posto (S).

(v) Dê um exemplo em que posto(T ) = posto (S) > posto(S ◦ T ).


Índice Remissivo

Automorfismo, 77 antissimétrica, 18
de mudança de base, 35
Base, 24 de um sistema linear, 7
ordenada, 34 de uma transformação linear, 80
ortogonal, 50 escalonada, 8
ortonormal, 50 reduzida, 8
Combinação linear, 20 hermitiana, 18
Complemento ortogonal, 57 identidade, 2
Conjunto inversa, 3
gerador, 20 inversível, 3
linearmente dependentes, 22 linha-equivalente, 8
linearmente independente, 22 mulplicação por escalar, 2
ortogonal, 49, 55 não singular, 3
ortonormal, 49 ortogonal, 55
Coordenadas em relação a uma base, 34 produto, 2
quadrada, 2
Desigualdade semelhante, 84
de Cauchy-Schwarz, 46 simétrica, 18
triangular, 44 singular, 3
Determinante, 4 soma, 2
Dimensão, 28 transposta, 2
Distância entre dois vetores, 48 triangular
inferior, 2
Espaço superior, 2
coluna, 22 unitária, 55
das transformações lineares, 71 Melhor aproximação, 60
Espaço vetorial, 13 Método
pré-Hilbert, 42
de Gauss, 8
com produto interno, 42
de Gauss-Jordan, 8
finitamente gerado, 26
de quadrados mínimos, 63
normado, 44
Espaços isomorfos, 77 Norma, 44
de Frobenius em Mn (K), 46
Identidades de polarização, 47
Euclidiana em Kn , 46
Imagem de uma transformação linear, 73
induzida por produto interno, 45
Isomorfismo, 77
infinito em Rn , 45
Lei do paralelogramo, 47 Núcleo de uma transformação linear, 73

Matriz, 1 Operador linear, 69


Operações elementares, 8 gerado, 20
próprio, 16
Problema de Quadrados Mínimos, 62 trivial, 17
Processo de ortonormalização de Subespaço vetorial, 16
Gram-Schmidt, 52
Produto interno, 41 Teorema
Projeção ortogonal, 58 do Núcleo e Imagem, 75
Transformação linear, 69
Sistema de equações normais, 63
Traço, 4
Sistema linear, 7
equivalente, 7 Vetores
homogêneo, 7 linearmente dependentes, 22
Solução de um sistema linear, 7 linearmente independentes, 22
Soma de subespaços, 18, 19 ortonogais, 49
Soma direta, 18, 19
Subespaço Ângulo entre dois vetores, 48

Você também pode gostar